1

Internationale Klimakonferenz am 15.6.12 in Berlin

Da jedoch mit der Fortsetzung der bisherigen Klimapolitik zu rechnen ist, laden wir Sie für den 15. Juni 2012 nach Berlin ein, um sich über die tatsächliche Bedrohungen durch CO2, den Klimawandel und der Klimapolitik zu informieren. Darüberhinaus wird erklärt, wie es zum heutigen Ökologismus kam und welche Industrien, Forscher und Berufsgruppen hier eine treibende Rolle gespielt haben. 

Anmeldung hier oder rechts auf das Banner "Internationale Klimakonferenz" drücken.

Programm 

Internationale Konferenz über Klimapolitik im Zeitalter der Nachhaltigkeit

Tryp Hotel Berlin, 15. Juni 2012

Registrierung der Teilnehmer

Tryp Hotel Berlin, Chausseestr. 33, 10115 Berlin (Mitte)

9.00 Uhr

Begrüßung

Wolfgang Müller

Geschäftsführer Berlin Manhattan Institut für Unternehmerische Freiheit

9.15 Uhr

Fakten-Check 2012 – Global-Temperatur, Meeresspiegel, Extremwetter, Gletscher und Polareis

Klaus Eckehard Puls
Dipl. Meteorologe, ehemaliger Leiter der Wetterämter Essen und Leipzig

9.45 Uhr

Wasser und CO2 verstehen – Physikochemische Eigenschaften der Erdoberflächenkomponenten

Dr. Gerhard Stehlik

Physikochemiker

10.45 Uhr Kaffeepause

11.15 Uhr

Aufgewärmter Malthusianismus: Von der Bevölkerungsbombe zur Kohlenstoff-Rationierung

Edgar Gärtner

Hydrobiologe, Wissenschaftsjournalist, Autor „Öko-Nihilismus“ (2007/2012)

12.15 Uhr

Fakten statt Emotionen – Klimapolitik ohne Katastrophe

Dr. Wolfgang Thüne

Ehemaliger Wettermoderator des ZDF und Autor

13.15 Uhr Gemeinsames Mittagessen

14.30 Uhr

Klimapolitik: Der späte Sieg der zentralen Planwirtschaft

Günter Ederer

Journalist, Filmproduzent, Buchautor, ehemaliger ZDF Auslandskorrespondent

16.00 Uhr Kaffeepause

16.30 Uhr

Wie die Wissenschaft ihre Unschuld verlor und ein Diener der Politik wurde

Dr. Sonja A. Boehmer-Christiansen

University of Hull (em.), Herausgeber “Energy and Environment”, Großbritannien

18.00 Uhr

Zahlen vs. Gefühl: CO2, Klima und der Mensch – Wer und was spielt welche Rolle

PD Dr. Dr. Eckhard Schulze

Dipl. Phys., Med. Physik, Tierärztliche Hochschule Hannover

19.00 Uhr

Schlussworte

Dr. Holger Thuss

Präsident EIKE

Anschließend Sektempfang

Die Veranstalter behalten sich das Recht auf kurzfristige Programmänderung vor.

Veranstaltet von: Europäische Institut für Klima und Energie (EIKE), Berlin Manhattan Institut (BMI), Haus der Zukunft Berlin – Internationales Institut für Deutschland- und Europapolitische Bildungsarbeit 




Textilfirmen verweigern Ökostrom-Umlage

Drei deutsche Textilunternehmen halten die Ökostrom-Umlage für verfassungswidrig und verweigern die weitere Zahlung. Nun warten sie auf Klagen der Stromversorger, wie der Gesamtverband der Textil- und Modeindustrie am Mittwoch mitteilte. „Wir sind bereit zu kämpfen und die Sache notfalls bis vor das Bundesverfassungsgericht in Karlsruhe zu bringen“, sagte Bernd Drechsel, Geschäftsführer der Textilveredelung Drechsel im oberfränkischen Selb. Er habe bereits die erste Mahnung seines Stromversorgers erhalten.

Weitere Details dazu finden Sie im Handelsblatt

Mit Dank an Spürnase A. Bauer




Kampagnenwissenschaft vom MPI aus Mainz: Alle zehn bis zwanzig Jahre ein Gau

Ein nuklearer GAU soll nach Studien der Mainzer Chemiker “im momentanen Kraftwerksbestand etwa einmal in 10 bis 20 Jahren auftreten können”. Er wäre damit 200mal wahrscheinlicher als Schätzungen der amerikanischen Zulassungskommission für Kernreaktoren (NRC) im Jahr 1990 ergeben haben. Die Einschätzung der NRC beruht auf recht komplexen Risikobetrachtungen; den Mainzern reicht eine einfache Rechnung, um die Wahrscheinlichkeit einer Kernschmelze zu ermitteln: Sie teilten laut Presseerklärung die Laufzeit aller Kernreaktoren weltweit von der Inbetriebnahme des ersten zivilen Reaktors bis heute durch die Zahl der bisherigen Kernschmelzen. Also Laufzeit bislang 14.500 Jahre, Zahl der Kernschmelzen vier – eine in Tschernobyl und drei in Fukushima. Ergebnis, konservativ aufgerundet: alle 5000 Reaktorjahre ein schwerer nuklearer Unfall mit erheblicher Freisetzung von Radioaktivität. Das ergibt einen GAU alle 10 bis 20 Jahre.

Auf dieser einfachen Rechnung, die man sich gut im gymnasialen Leistungskurs Mathematik vorstellen kann, beruht die zentrale Aussage der Mainzer Studie über die Wahrscheinlichkeit von schweren Reaktorunfällen. Damit haben sich die Chemiker allerdings auf sehr dünnes Eis begeben. Die Zahlen stimmen, wie häufig in der Statistik. Aber gibt das, was Autoren der Studie aus diesen Zahlen machen, auch die Wirklichkeit wieder?

Nein. Man kann zum Beispiel nicht einfach den Reaktorunfall von Tschernobyl mit dem der Fukushima-Reaktoren gleichsetzen. Im Tschernobyl-Reaktor ist der Reaktorkern praktisch explodiert, nicht geschmolzen. Eine Sicherheitshülle gab es nicht, so dass bei der Explosion große Mengen an radioaktivem Material freigesetzt wurden. Vor allem aber der Tschernobyl-Reaktor nicht repräsentativ für den vorhandenen Reaktorbestand. Um Aussagen über die Zukunft dieses Bestandes zu treffen, wie es die Mainzer tun, ist die Nuklearkatastrophe von Tschernobyl damit ungeeignet.

Bleiben die drei Kernschmelzen im Kraftwerk Fukushima 1. Gleicher Reaktortyp, gleiche Unfallursache, ähnlicher Verlauf – es spricht vieles dafür, diese drei Ereignisse als ein Ereignis zu behandeln. Dann wird die Mainzer Rechnung absurd. Außerdem sind auch die Fukushima-Reaktoren nur bedingt repräsentativ für den weltweiten Reaktorbestand. Ausgelöst wurde das schwere Unglück im japanischen Kraftwerk durch ein extrem starkes Erdbeben, gefolgt von einem extrem starken Tsunami. Das Erdbeben haben die Reaktoren überstanden; die Flutwelle deshalb nicht, weil die Anlage eklatante Sicherheitsmängel aufwies. Inzwischen haben Stresstest belegt, dass andere Reaktoren diese Mängel nicht haben. Den deutschen Reaktoren zum Beispiel hätten Erdbeben und Tsunami wie im Norden Japans keinen nennenswerten Schaden zugefügt.

Solche und andere Unterschiede zwischen Reaktoren ignorieren die Mainzer Forscher. Sie begründen dieses Vorgehen damit, dass es “auch in einem vermeintlich sicheren Reaktor zu einer Kernschmelze kommen kann”, weil man nicht alle möglichen Ursachen eines solchen Unfalls vorhersehen könne. Das ist zweifellos richtig, aber die Annahme von Nichtwissen macht schlecht begründete Vorhersagen nicht verlässlicher. An einer detaillierten Risikoanalyse führt kein Weg vorbei.

Alles zusammengenommen, können seriöse Wissenschaftlicher die Aussage “Ein GAU all zehn bis zwanzig Jahre” guten Gewissens nicht treffen. Das sollte einer “Kampagnenwissenschaft” á la Greenpeace vorbehalten bleiben.

Die Sache mit der “radioaktiven Verseuchung”

Im Abstract zu ihrem Papier schreiben die Mainzer Chemiker zu Beginn: “Schwere Reaktorunfälle in Kernkraftwerken sind selten, aber ihre Folgen katastrophal. Aber was bedeutet ‘selten’”? Die Frage ist beantwortet, allerdings ungenügend. Viel interessanter ist die Frage: Was bedeutet ‘katastrophal’? Auch hier machen es sich die Mainzer Chemiker leicht. Sie sehen als katastrophale Folge einer Kernschmelze eine “weit über Staatsgrenzen hinweg [reichende] radioaktive Verseuchung”. In Westeuropa wären davon, so das Ergebnis ihrer Computersimulationen, durchschnittlich 28 Millionen Menschen betroffen.

Mit diesem Computermodell ermitteln die Forscher, wie sich die bei einer Kernschmelze freigesetzten radioaktiven Gase – in diesem Fall Cäsium-137 und Jod-131 – ausbreiten. Die Menge der freigesetzten Gase bestimmen die Mainzer Forscher anhand der Mengen, die beim Tschernobyl-Unglück freigesetzt wurden. Da radioaktives Jod aufgrund seiner geringen Halbwertszeit sehr schnell verschwindet, beschränkten sie sich auf die Verteilung von Cäsium-137. Ergebnis ihrer Simulation: nur acht Prozent der radioaktiven Gase würden sich im Umkreis von 50 km um die Unglückstelle verteilen; über die Hälfte ginge innerhalb von 1.000 Kilometern nieder, und etwa ein Viertel würde weiter als 2.000 Kilometer transportiert.

Mit diesen Angaben haben die Mainzer vom Computer eine Reihe schöner Karten herstellen lassen. Darauf lässt sich das Ausmaß der radioaktiven Verseuchung ablesen, wenn mal wieder eines der Kernkraftwerke in Europa oder anderswo havariert. “Im weltweiten Vergleich”, so fasste die Rheinzeitung am 23. Mai zusammen, “tragen die Einwohner im dicht besiedelten Südwestdeutschland das größte Risiko einer radioaktiven Verseuchung.” Und der Zeitungsautor bemerkt ganz richtig, dass dies Wasser auf die Mühlen der Atomkritiker sein dürfte, die im grenznahen französischen Atomkraftwerk Cattenom ein “gewaltiges Gefahrenpotential” sähen.

Doch die schönen Computerkarten können nicht darüber hinwegtäuschen, dass sich die Mainzer Forscher, wie schon bei der Vorhersage künftiger GAUs, auch hier auf brüchigen Eis bewegen. Allererster Kritikpunkt: Es geht nicht an, die vom Tschernobyl-Reaktor freigesetzten Strahlungsmengen als Richtschnur zu nehmen, um mögliche Freisetzungen anderer Reaktortypen zu berechnen. Unfallursachen und –verläufe sind nicht vergleichbar. Das ist keine theoretische Frage, sondern praktisch nachweisbar.

Bislang gab es vier Kernschmelzen in Reaktoren, die nicht vom Tschernobyl-Typ sind: drei im Kraftwerk Fukushima und eine im amerikanischen Kraftwerk Three-Mile-Island (TMI). Letztere haben die Mainzer in ihrer Rechnung nicht berücksichtigt, da dort nur minimale Strahlung freigesetzt wurde. Kann man machen, wenn man ein wichtiges Argument ignorieren möchte: Im Gegensatz zum Tschernobyl-Reaktor sind Reaktoren wie man sie in den USA, Deutschland oder Frankreich findet, so ausgelegt, dass selbst im Fall einer Kernschmelze kein oder nur wenig radioaktives Material austreten kann. Keine Theorie, sondern belegt durch den havarierten TMI-Rektor.

Aber in Fukushima, war es da nicht viel schlimmer? Ein berechtigter Einwand. Dort wurde große Mengen an radioaktiven Jod- und Cäsiumgas freigesetzt. Die Ursachen sind bekannt; bei richtiger Auslegung wäre das nicht passiert. Aber was dort real passierte, nicht theoretisch, nicht im Computer, ist dennoch weit von dem entfernt, was die Mainzer Forscher ihren Simulationen zugrundelegen. Nach Angaben der japanischen Aufsichtsbehörde NISA lag der Gesamtbetrag der Freisetzungen von Jod-131 und Cäsium-137 in der Größenordnung von etwa 10% der in Tschernobyl freigesetzten Menge. Eine jüngere Schätzung von TEPCO beläuft sich auf etwa 15%.

Diese, verglichen mit Tschernobyl geringe Menge, stammt nicht von einem, sondern drei havarierten Reaktoren. Niemand ist daran gestorben. Nach jüngst veröffentlichten Untersuchungen der Weltgesundheitsorganisation (WHO) und des Wissenschaftlichen Ausschuss der UNO zur Untersuchung der Auswirkungen von atomarer Strahlung (UNSCEAR) haben die meisten Bewohner von Fukushima und benachbarter Bezirke Strahlendosen unterhalb von unbedenklichen 10 Millisievert (mSv) erhalten. An zwei Orten lag diese zwischen 20 und 50 mSv. Zum Vergleich: die natürliche Strahlenbelastung liegt meist um 2 bis 3 mSv, in etlichen Regionen von Brasilien, Südindien oder dem Iran liegt diese um das 10- bis 20fache höher, ohne gesundheitliche Beeinträchtigung der dort lebenden Bevölkerung. Fachleute gehen in inzwischen von so geringen möglichen Spätfolgen in Fukushima aus, dass diese nicht messbar sein werden.

Diese Werte gelten für die nähere Umgebung des Kraftwerks Fukushima. Von “radioaktiver Verseuchung” im Umkreis von 1000 bis 2000 km, wie sie die Mainzer berechnet haben, ist in diesen Untersuchungen nicht die Rede. Vielleicht ist aber auch die Bezeichnung “Verseuchung” fehl am Platz. Radioaktive Kontamination kann noch als wissenschaftliche Bezeichnung durchgehen, radioaktive Verseuchung nicht. Radioaktive Verseuchung ist negativ überladen, im Bewusstsein der Öffentlichkeit steht er für Krebs, Krankheit, Tod. Er macht Angst, treibt Menschen in die Apotheke, um Jodtabletten zu kaufen. Wer diese Bezeichnung benutzt, weiß um dessen Wirkung.

Das Perfide an der Mainzer Studie, vor allem daran, wie sie in der Presseerklärung der Öffentlichkeit präsentiert wird, ist, dass zwar ständig von “radioaktiver Verseuchung” die Rede, aber nie davon, ob und, wenn ja, welche Folgen diese Verseuchung für die menschliche Gesundheit hätte. Die Mainzer berufen sich auf die Internationale Atomenergiebehörde (IAEA), die ab einer Aktivität von 40,000 Becquerel pro Quadratmeter (40 kBq/m2) von radioaktiver Kontamination sprechen.

Was bedeutet dieser Wert? Ein Bequerel bedeutet, dass ein Atomkern pro Sekunde zerfällt. Das wissen sicherlich nicht viele Zeitungsleser; noch weniger wissen, was es für Folgen hat, wenn pro Sekunde 40.000 radioaktive Kerne zerfallen. Vielleicht hilft das: Rund 10.000 Bq beträgt die Aktivität im Körper des Menschen; pro Sekunde zerfallen also irgendwo im menschlichen Zellgewebe zehntausend radioaktive Atomkerne – tagaus, tagein. Auf Stehplätzen in Fußballstadien drängen sich pro Quadratmeter oft vier, fünf Menschen. Noch dichter steht man in Tokios U-Bahn zu Stoßzeiten. Solche Zusammenballungen müssten also als “radioaktiv verseucht” gelten.

Oder auch das: eine Cäsiumaktivität von 40 kBq entspricht einer biologischen Strahlenbelastung von weniger als einem mSv. Dieser Wert liegt deutlich sowohl unter der natürlichen Strahlendosis wie auch der Strahlenbelastung durch medizinische Anwendungen, denen der Mensch ausgesetzt ist. Welchen Wert hat, daran gemessen, die Aussage, dass im Falle eines Reaktorunfalls 30 Millionen Menschen von “gefährlicher radioaktiver Belastung” bedroht seien? Der englische Physiker Wade Allison, der ein vielbeachtetes Buch mit dem Titel “Radiation and Reason” geschrieben hat, fand die Untersuchung der Mainzer Chemiker schlicht “seicht”. Einen wissenschaftlichen Nutzen hat die Studie nicht, wohl aber einen politisch-gesellschaftlichen: sie macht Menschen unnötig und unbegründet Angst. Diese Art von “Kampagnenwissenschaft” kennt man von Greenpeace und ähnlichen Organisationen.

Ähnliche Beweggründe mögen auch bei den Mainzer Chemikern eine Rolle gespielt haben. In der Presseerklärung wünscht sich Prof. Jos Lelieveld, der Leiter der Studie:

“Vor dem Hintergrund unserer Erkenntnisse sollte meiner Meinung nach auch ein international koordinierter Ausstieg aus der Kernenergie in Betracht gezogen werden.”
Das allerdings gibt die Studie nun wirklich nicht her.

J. Lelieveld, D. Kunkel, M. G. Lawrence. Global risk of radioactive fallout after major nuclear reactor accidents. Atmos. Chem. Phys., 12, 4245-4258, 2012. http://www.atmos-chem-phys.net/12/4245/2012/acp-12-4245-2012.html

United Nations Scientific Committee on the Effects of Atomic Radiation (UNSCEAR)

Und hier der Link zur Presseerklärung des MPI

Heinz Horeis, zuerst erschienen bei ACHGUT

Update vom 1.6.12:
Offener Brief an Herrn Prof. Lelieveld, Max Plank Institut, Mainz

Sehr geehrter Herr Prof. Lelieveld,

Ihre Veröffentlichung im Namen des Max Planck Instituts: „Global risk of radioactive fallout after major nuclear reactor accidents“ hat in der Presse unter dem Titel: „Atomarer Super-GAU droht alle zehn bis 20 Jahre“ Beachtung gefunden. Sie sehen hier ja wieder deutlich, wie aus Ihrer statistisch falschen Berechnung der Häufigkeit einer Cäsium 137 Freisetzung (die zu keinem realen Gesundheitsproblem führt) ein Bürgerschreck aufgebaut wird. Insoweit tragen Sie Mitverantwortung für die Pflege und den  Ausbau des Angstsyndroms vor Radioaktivität,  v.a. in der deutschen Bevölkerung.

Das war Grund für mich, die Kommentare und die Kritik dazu Ihnen zu überbringen und in den öffentlichen Raum zu stellen.

Nach gängiger Praxis sollte Ihnen wegen diesem zitierten Papier nicht nur das Doktorat sondern auch die Professur aberkannt werden. Der Grund ist einfach. Sie kennen entweder nicht oder Sie ignorieren die strengen Regeln seriöser wissenschaftlicher Statistik.

Stichworte zu den strengen Regeln sind: Bildung einer homogenen Grundgesamtheit und Ziehung einer genügen großer Stichprobe. Ersparen Sie es mir, die Hintergründe dazu und die Wirkung bei Verletzung dieser Regeln Ihnen nahe zu bringen.

Beides haben Sie (und Ihre Mitautoren) sträflich ignoriert. Damit ist Ihre Veröffentlichung pseudo-wissenschaftlicher Müll, der im Nirwana des Internets hoffentlich baldmöglichst untergeht.

Für Ihren weiteren Berufsweg habe ich die Befürchtung, dass Sie es fertig bringen, z.B. die Wurm-Information aus weltweit angebauten Früchten „zusammen zu rühren“, um folgende Aussage zu treffen: „Wie ist die Häufigkeitsverteilung von Würmern in deutschen Äpfeln aus den verschiedenen Anbaugebieten in (D)?“.

Wenn Sie schon aus förderungspolitischen Überlegungen beim Max Planck Institut in Garching Ihr meteorologisches Ausbreitungsmodell bewegen wollen, liefern Sie doch dem Klima-Guru Prof. Schnellnhuber in Potsdam die Berechnung der CO2 Dosis-Verteilung auf Grund der zunehmenden CO2 Freisetzung aus deutschen Kraftwerken, angezettelt durch das planwirtschaftliche Geschäftsmodell der Energiewende der Bundesregierung.

Ich bin mir sicher, dass die kommende mittlere CO2 Dichte pro Flächeneinheit, in Deutschland Weltrekord wird. Sie müssen allerdings dazu Ihr Modell verfeinern, um alle Emittenten aus den vielen konventionellen Kraftwerken zu berücksichtigen. Die CO2 Freisetzung aus der großen Anzahl von Premium-Fahrzeugen können Sie als CO2 Grundlast führen. Die CO2 Zunahme auf Grund der von Frau Dr. Merkel verordneten 1 Mio. Elektrofahrzeugen müssen Sie aber berücksichtigen. Ebenso die Zunahme durch die propagierte Holzverbrennung und die Herstellung der Hausisolierungen. Wenn  Ihr Modell es hergibt, können Sie auch die Zunahme der Kaminfeuer bei den VIP’s berücksichtigen. Abziehen dürfen Sie die in Konkurs gegangenen Firmen der Solarbranche als CO2 Emittenten. Diese Firmen können keine Klimaschädlinge mehr sein.

Mit Ihrem Papier sind Sie Steigbügelhalter geworden für die östliche Prägung der neuen Planwirtschaft, vertreten durch Frau Bundeskanzlerin Dr. Merkel, im Rahmen der zur Chefsache erklärten Energiewende.

Mit freundlichen Grüßen

Feffernitz, 24. Mai 2012

Dr. techn. Peter Kafka
Habeintenweg 129
A-9710 Feffernitz
Tel.: ++43 (0) 720 350 335
Fax: ++43 (0) 720 350 336
Mobile: ++43 (0) 660 655 2600
email: drpkafka@netcompany.at

Der Artikel von Prof. Lelieveld ist veröffentlicht bei:
http://www.mpic.de/Der-nukleare-GAU-ist-wahrscheinlicher-als-gedacht.34298.0.html




Die CIA dokumentiert die Forschung zur globalen Abkühlung in den siebziger Jahren

Bild rechts: Siegel der C.I.A. – Central Intelligence Agency of the United States Government (Photo credit: Wikipedia)

Der CIA-Bericht und die Warnung aus Wisconsin

Gastbeitrag von David Archibald

Im August 1974 erstellte das Office of Research and Development der CIA einen Bericht mit dem Titel „A Study of Climatological Research as it Pertains to Intelligence Problems” [etwa: Eine Studie zur Klimaforschung soweit es Sicherheitsprobleme betrifft]. Die Studie kann online eingesehen werden. Hier folgen einige interessante Punkte aus diesem Bericht:

„Die führenden Klimatologen der Welt haben jüngste Berichte einer schädlichen globalen Klimaänderung bestätigt. Die Stabilität der meisten Nationen basiert auf einer zuverlässigen Versorgung mit Nahrungsmitteln, aber in der neuen Klimaära wird diese Stabilität nicht gewährleistet sein. Eine Vorhersage der Universität von Wisconsin projiziert, dass sich das Erdklima wieder in Richtung der neo-borealen Ära bewegt [der „kleinen Eiszeit“?] – einer Zeit der Dürren, der Hungersnöte und der politischen Unruhen in der westlichen Welt.

Das Klima war bisher kein Sicherheitsthema, weil es bis vor Kurzem keine signifikanten Störungen des Status’ der großen Staaten verursacht hat. Dies ist so, weil während 50 der letzten 60 Jahre auf der Erde im Mittel das beste Klima seit dem elften Jahrhundert geherrscht hat. Ein Nahrungsmittelüberschuss zu Anfang des 20. Jahrhunderts verringerte die Bemühungen der USA, die Landwirtschaft konstant und ausgeglichen zu halten.

Die Universität von Wisconsin war das erste anerkannte akademische Zentrum, das vorhergesagt hat, dass eine wesentliche globale Klimaänderung bevor steht. Ihre Analyse der Temperaturdaten aus Island, das sie aus historischen Gründen als Indikator für die Klimabedingungen auf der Nordhemisphäre ansehen, deuten darauf hin, dass sich die Welt in Richtung des Klimatyps bewegt, der in der ersten Hälfte des 19 Jahrhunderts vorherrschend war. Ihre Abbildung 7 umreißt den Umfang des Problems und die prekäre Lage, in der sich die meisten Länder der Welt wiederfinden könnten, falls die Wisconsin-Vorhersage korrekt ist“.

CIA-Bericht 1974, Abbildung 7

Die x-Achse zeigt die jährliche Temperatur in Celsius. Die y-Achse zeigt die Anzahl der Personen pro Hektar landwirtschaftlich nutzbarer Fläche.

Unter Verweis auf diese Abbildung 7 stellt die CIA fest: „zum Beispiel Europa: mit einer mittleren Jahrestemperatur von 12°C werden drei Personen pro Hektar landwirtschaftlich nutzbarer Fläche gestützt. Sollte jedoch die Temperatur um 1°C zurückgehen, könnten nur noch wenig mehr als zwei Personen von dieser Fläche leben, es wird für mehr als 20% der Bevölkerung reichen, und mehr als 20% könnten nicht aus heimischen Quellen satt werden. In China leben derzeit sieben Personen pro Hektar landwirtschaftlich nutzbarer Fläche; eine Veränderung von 1°C würde bedeuten, dass nur noch vier Personen pro Hektar gestützt werden könnten – ein Rückgang um über 43%.

Ein besonderer Schwerpunkt der Wisconsin-Analyse war deren Abschätzung der Dauer dieser klimatischen Änderung. Eine Analyse von Dr. J. E. Kutzbach (Wisconsin) zur Rate von Klimaänderungen während der vergangenen 1600 Jahre deutet auf eine ominöse Konsistenz der Rate, mit der die Änderung vor sich geht. Der Haupttemperaturrückgang erfolgte normalerweise innerhalb von 40 Jahren seit dessen Beginn. Die früheste Rückkehr erfolgte innerhalb von 70 Jahren (Abbildung 8). Die längste bekannte Periode erstreckte sich über 180 Jahre.

CIA- Bericht 1974, Abbildung 8

Der CIA-Bericht mit der Warnung vor den Auswirkungen einer Abkühlung auf die Stabilität von Staaten wird durch eine Studie von Zhang et al. (2007) gestützt:

„Wir zeigen, dass langzeitliche Fluktuationen der Häufigkeit von Kriegen und der Änderung der Bevölkerungszahl den Zyklen von Temperaturänderungen folgte. Weitere Analysen zeigen, dass Abkühlungen die landwirtschaftliche Produktion beeinträchtigten, was zu einer Reihe ernsthafter sozialer Probleme führte, einschließlich Inflation der Preise, dann Kriegsausbrüche, Hungersnöte und ein damit in Beziehung stehender Rückgang der Bevölkerung. Die Ergebnisse legen nahe, dass weltweit synchron Krieg/Frieden, Bevölkerungszahl und Preiszyklen hauptsächlich durch langzeitliche Klimaänderungen angetrieben worden sind.

Wir haben eine lange Zeitspanne der Geschichte Chinas studiert und fanden heraus, dass die Anzahl der Kriegsausbrüche und Bevölkerungsrückgänge in China signifikant mit Temperaturvariationen der Nordhemisphäre korreliert ist und dass alle Perioden staatsweiter Unruhen, Bevölkerungsrückgänge und Änderungen der Dynastien in den Kaltphasen dieses Zeitraums stattfanden“.

Der CIA-Bericht aus dem Jahr 1974 basiert großenteils auf der Arbeit von Professor Kutzbach an der University of Wisconsin, der weiterhin vor den Gefahren einer globalen Abkühlung warnt. Professor Kutzbach ist ein Mitautor einer Studie, die die Auswirkung eines um 3,1°C kühleren Klimas modellierte (Phillipon-Berthier et al. 2010). Grundlage der Studie war, dass bei einer Kohlendioxid-Konzentration von 240 ppm, basierend auf typischen Werten, während der Spätphase vorangegangener Zwischeneiszeiten das Klima um 3,14 K kälter gewesen wäre als gegenwärtig. 0,45 K dieser Abkühlung wird den Auswirkungen der Vegetation zugeordnet, und das Gleichgewicht von 2,69 K beruht darauf, dass das Kohlendioxidniveau damals um 150 ppm unter den heutigen Werten lag. Diese Zahl von 2,69 K ist eine offensichtliche und absichtliche Übertreibung. Basierend auf dem logarithmischen Wärmeeffekt von Kohlendioxid beträgt der Temperaturunterschied zwischen 240 ppm und 390 ppm 0,32 K, wie die folgende Abbildung verdeutlicht:

Abbildung 3: Der logarithmische Erwärmungseffekt des Kohlendioxids

In einer Welt, in der selbst Studien zum Thema Solarphysik vor der globalen Erwärmung auf Knien rutschen müssen, um veröffentlicht zu werden, war diese Übertreibung wahrscheinlich notwendig, um diese Studie veröffentlichen zu können. In dieser Hinsicht scheint es, als ob die Autoren die Welt vor den Auswirkungen einer Abkühlung um 3,0°C warnen wollten, und der einzige Weg, die Studie durch die Zensur zu bringen war das Aushecken einer Story über das Kohlendioxidniveau in früheren Zwischeneiszeiten. Eine Abkühlung von 3,0°C ist sehr ähnlich dem, wovor Libby und Pandolfi 1979 gewarnt haben und was von der Länge des Solarzyklus 25 vorhergesagt wird, wie es aus dem Diagramm der Emissionen aus der Korona von Altrock bestimmt worden ist. Dies wird hier gezeigt.

Was also hat die Studie gefunden? Philippon-Berthier und Kollegen berechneten, dass als Ergebnis kälterer und trockenerer Bedingungen zusammen mit einem niedrigeren Gehalt an CO2 in der Atmosphäre (einem Pflanzendünger) die terrestrische Photosynthese um 39% zurückgehen und sich die Blattgröße um 30% verkleinern würde. In den mittleren Breiten der Nordhemisphäre würde die Waldbedeckung um 60% und Weideland um 17% abnehmen. In hohen Breiten würden die Gebiete mit borealen Wäldern um 69% zurückgehen, während sich das Gebiet mit der Polarwüste um 286% ausdehnt. In den Tropen würden sich Grasland um 3% und Waldgebiete um 15% verkleinern, während sich unbewachsene Flächen um 344% ausdehnen.

Addiert man die Auswirkungen des gegenwärtig höheren atmosphärischen CO2-Gehaltes zum Pflanzenwachstum, würde der Rückgang der terrestrischen Photosynthese eher 25% und nicht die berechneten 39% betragen. Das ist wahrscheinlich auch eine gute Abschätzung des Rückgangs der Produktion von Nahrungsmitteln unter sonst gleichen Bedingungen, die der Menschheit während der nächsten 25 Jahre bevorstehen, wenn die solar getriebene Abkühlung so wie von Libby und Pandolfi sowie aus den Korona-Emissionen abgeleiteten Vorhersagen weitergeht.

Abbildung 4: Gesamtunterschied von Gras- (oben) und Baumwachstum (unten, in Prozent) zwischen gegenwärtigen Klimabedingungen und einer Abkühlung um 3,1 K (Quelle: Philippon-Berthier et al., 2010).

David Archibald

References

CIA 1974, A Study of Climatological Research as it Pertains to Intelligence Problems

Libby, L.M. and Pandolfi, L.J. 1979, Tree Thermometers and Commodities: Historic Climate Indicators, Environment International Vol 2, pp 317-333

Philippon-Berthier, G., et al., 2010. Role of plant physiology and dynamic vegetation feedbacks in the climate response to low GHG concentrations typical of the late stages of previous interglacials. Geophysical Research Letters, 37, L08705, doi:10.1029/2010GL042905.

Peterson, T.C., et al. (2008): The Myth of the 1970s Global Cooling Scientific Consensus. Bulletin of the American Meteorological Society, 89, 9, 1325-1337, doi:10.1175/2008BAMS2370.

Link: http://wattsupwiththat.com/2012/05/25/the-cia-documents-the-global-cooling-research-of-the-1970s/

Übersetzt von Chris Frey EIKE




Den Bären aufbinden

*Wegen der gleich mehrfach auftretenden unübersetzbaren Wortspiele folgt dieser erste Absatz hier im Original:  ‚The slang for being lied to is “Someone’s been blowing smoke up your skirt”, but when it comes to the multi-billion dollar job the wind power industry has perpetrated here and in European nations, “blowing wind” more than fits the massive deception about renewable energy.’

In einem Kommentar auf AmericanThinker.com hat William Sullivan im April darauf hingewiesen, dass die USA Subventionen in Höhe von 90 Milliarden Dollar für die Wind- und Solarindustrie verschwendet haben, und zwar im Zuge des American Recovery and Investment Act aus dem Jahr 2009, weithin bekannt als Obamas „Stimulus“, von dem uns versprochen worden ist, dass es Arbeitsplätze schaffen und der Wirtschaft einen Schub aufwärts bringen würde. Weder das eine noch das andere ist geschehen. Dies ist nicht sonderlich überraschend, wenn man bedenkt, dass wir einen Präsidenten haben, der tatsächlich Algen (Faulschlamm in Tümpeln; pond scum) als eine Energiequelle befürwortet.

Wie schlimm war dieser „Stimulus”? Sullivan merkte an, dass „im ersten Jahr dieses grünen Stimulus’ 79% an das Ausland geflossen sind“ einschließlich einer Australischen Firma, Babcock & Brown, „die schon zwei Monate nach Verabschiedung des Stimulus-Gesetzes pleite gegangen ist“. Dieser Liste der Bankrotte kann man die Solarfirmen Solyndra und Beacon Power Comp. hier in den USA hinzufügen.

Der ganze Betrug um die Industrie der alternativen Energien wie der vorgeschlagene Zertifikatehandel (cap-and-trade), um den Verkauf und den Handel mit „Kohlenstoffzertifikaten“ anzukurbeln, basierte auf dem Schwindel der Umweltbewegung zur globalen Erwärmung zusammen mit deren stetigen Bemühungen, traditionelle Energieerzeuger wie Kohle zu zerstören. Zusammen mit Öl und Erdgas – Gruppen wie Freunde der Erde [Friends of the Earth FOE] sind gegen alles, was dazu beitragen könnte, die Lampen brennen und ihren Benzintank gefüllt zu lassen.

Am 5. Mai forderte FOE seine Mitglieder auf, Senator Bernie Sanders zu unterstützen, einen Sozialisten, sowie den End Polluter Welfare Act vom Kongressabgeordneten Keith Ellison. Dessen Worten zufolge handelt es sich dabei um eine „umfassende Gesetzgebung, die weiter gehen würde als alles, was wir bisher erlebt haben, um Subventionen für die Industrie der fossilen Energie zu eliminieren“. Ölgesellschaften beschäftigen nicht nur mehr Menschen und zahlen höhere Steuern als Wind- und Solarkompanien, sondern ihr Profit nimmt sich im Vergleich zu anderen Industrien wie z. B. der Pharmaindustrie marginal aus.

Einem Nachrichtenartikel von Reuters zufolge hat die Windindustrie seit 2009 10 000 neue Arbeitsplätze geschaffen, gleichzeitig hat sich die Kapazität der Windfarmen seit dieser Zeit verdoppelt. Die Öl- und Gasindustrie hat in dieser Zeit 75 000 neue Arbeitsplätze geschaffen. Wie viele Arbeitsplätze mehr hätten es sein können, wenn die Obama-Administration nicht ein Bohrmoratorium im Golf von Mexiko verhängt – das schon zweimal von Gerichten für illegal erklärt worden ist – und Vorschläge zur Erschließung des Bohrpotentials vor den Küsten Amerikas annulliert hätte.

England und viele andere europäische Nationen verlassen sich erheblich auf Windkraft, und gerade vor Kurzem, nämlich Mitte Mai, berichtete der britische Telegraph, dass die Stromrechnung für jeden Haushalt in England um 25% steigen würde, um Windparks und andere Formen erneuerbarer Energie zu finanzieren.

Der John Muir Trust förderte Forschungen der Stuart Young Consulting, die die Stromerzeugung durch Windparks in UK von November 2008 bis Dezember 2010 analysierte.

In der Studie kam heraus, dass die Stromerzeugung durch Wind während der Hälfte der Zeit unter 20 % und während eines Drittels dieser Zeit unter 10% der Kapazität (=der Fähigkeit, Strom zu erzeugen) gelegen hatte. Sie kam zu der Schlussfolgerung, dass „die Wahrscheinlichkeit sehr schwachen Windaufkommens zu Zeiten mit Bedarfsspitzen gering ist“. Dies gilt für alle Windparks, egal wo.

Hier in den USA werden wir weiterhin durch Kongressmitglieder in den Händen der Windkraftindustrie betrogen. Zwei von ihnen, Steve King und Dave Reichert, beide von der republikanischen Partei, sprachen sich jüngst auf einer Pressekonferenz dafür aus, die Verlängerung der Production Tax Credit (PTC) für erneuerbare Energie anzustreben, die Ende Januar auslaufen soll. Eingeführt im Jahre 1992 ist die PTC für die Erzeugung von Windenergie 1,2 Milliarden Dollar wert, was schon jetzt die Stromrechnung der Verbraucher in US-Staaten erhöht, in denen die erneuerbare Energie gestützt wird. Im Gegensatz dazu zahlen Öl- und Gasgesellschaften etwa 26 Milliarden pro Jahr an Körperschaftssteuern.

Sollte PTC wirklich verlängert werden, ist das Beweis genug dafür, dass die republikanischen Mitglieder des Kongresses genauso korrupt sind wie ihre demokratischen Kollegen.

Vergessen Sie nicht, der primäre Grund für den Ausbau von Wind- und Sonnenenergie ist es, bei der Vermeidung der globalen Erwärmung zu helfen, aber es gibt keine globale Erwärmung. Die Erde befindet sich seit 1998 in einem Zyklus der Abkühlung. Um noch Salz in die Wunde zu streuen, traditionelle Energieerzeuger, die Kohle und Erdgas nutzen, müssen in Vollzeit durchlaufen, um genügend Energie zur Verfügung zu stellen, wenn Wind und Sonne einmal hinter ihre Möglichkeiten der Energieerzeugung zurückfallen, etwas, das andauernd passiert.

In England, Spanien, Deutschland und anderen Nationen haben die Subventionen für die Windkraft bislang lediglich dazu geführt, dass der Strompreis für jedermann, von Familien bis Fabriken, von Krankenhäusern und Schulen, von Büros und Geschäften nach oben getrieben worden ist.

Wenn sie nicht gerade eine halbe Million Vögel aller Art abschlachten, ebenso wie Fledermäuse, erfordern sowohl Sonnen- als auch Windkraft große Landschaftsgebiete sowie Kilometer lange Überlandleitungen, weil beide weitab von Städten errichtet werden.

Es gibt buchstäblich keinen rationalen oder ökonomischen Grund für erneuerbare Energie. Sie ist wie die globale Erwärmung ein gigantischer Schwindel, von dem eine Handvoll Menschen profitiert, deren kruder Kapitalismus sie reich gemacht hat, während die Verbraucher mit stetig steigenden Stromkosten zurück gelassen werden. Und all das geschieht, während die Environmental Protection Agency Regulationen erlässt, die darauf abzielen, die Kohleindustrie zu zerstören, die die Hälfte des gesamten, in den USA erzeugten Stromes zur Verfügung stellt.

Es ist an der Zeit, die Subventionen und staatlichen Garantien zu beenden, die auf geborgtem Geld und den Steuern der Amerikaner basieren, die betrogen worden sind und die weiterhin von wohlhabenden Umweltorganisationen und Politikern bedrängt werden, die aus ihren Ämtern gedrängt werden müssten.

Letztendlich sind sie die Straftäter von politischen Maßnahmen, die die Amerikaner verarmen lassen und die Sicherheit der Nation aufs Spiel stellen.

© Alan Caruba, 2012

Link: http://www.anxietycenter.com/ vom 24.5.2012

Übersetzt von Chris Frey EIKE




Grundüberlegungen zur Bestätigung oder Widerlegung von Annahmen im Klima-Modell

Hans von Storch und Nico Stehr sehen es als falsch an, den Eindruck zu erwecken, als seien die naturwissenschaftlichen Grundlagen des Klimaproblems im Wesentlichen gelöst.[2]

Die beiden letztgenannten sind nicht die einzigen „Wissenschaftler“, die „tendenziösen“ „öffentlichen“ Verlautbarungen misstrauen. Aber nicht die Quantität von Wissenschaftlern entscheidet über die Gültigkeit einer Hypothese/Theorie, sondern die Falsifizierbarkeit. Nur im Falle der Erfüllung dieser Voraussetzung  kann eine einheitliche Vorhersage erzeugt und eine eindeutige Bedeutung der Daten aus einem Klimamodell hergeleitet werden.[3] Daten sollten also jederzeit und von jedermann überprüft werden können, ja zumindest einsichtig und nachvollziehbar sein. Szenarien auf der Grundlage einer These eines Treibhauseffektes und Unsicherheiten z.B. über die Wolkenbildung repräsentieren keine geschlossene wissenschaftliche Klimatheorie, sondern sind so etwas wie Studier- und Abschätzungsobjekte. Das gilt auch für die Heranziehung von sogenannten Paläo-Proxythermometrie-Daten, um die Vergangenheit der Oberflächentemperatur der Erde aufzuhellen; ihre Brauchbarkeit muss mindestens eingeschränkt werden.[4

Wie komplex das Gedankenobjekt „Klima“ oder gar das „globale Klima“ [5] ist, worunter die Gesamtheit meteorologischer Vorgänge in der Erdatmosphäre mitsamt seinen prozessualen Einflüssen verstanden wird, zeigen die unterschiedlichen Modelle, die man sich davon macht.

Sicher ist eines: die solaren Energie-Einträge zur Erde schwanken periodisch und sind von daher berechenbar. Gleichzeitig steigt die Erkenntnis, dass die in der Erdkruste verborgenen Energie-Vorräte nicht nur endlich, sondern mit unterschiedlichem wirtschaftlichem Aufwand nutzbar sind. Schon aus einem drohenden „Aus“ der Gewinnung solcher (fossilen brennbaren) Rohstoffe ist bei den Menschen eine Vorsorge für die Zeit danach verständlich. Aus der irdischen und der geschichtlichen Vergangenheit wissen wir zudem, dass das Leben bestimmende Klima den tierischen Warmblütern nicht immer günstig, ja sogar zeitweise für die Menschen existenzbedrohend war. Auch ist bekannt, dass es Warm- und Hitzezeiten für gewisse Regionen der Erde gab, die Flüsse versiegen und Wasser verdunsten, die Oberfläche austrocknen ließ und die Menschen zum Wandern ais ihrer „Heimat“ zwang. Es galt nunmehr,   solche Ereignisse zu vermeiden, falls dazu der Mensch in der Lage ist.

Nicht ungewöhnlich war und ist es, wenn der Mensch sich der ihm umgebenden Natur bemächtigt und sie radikal ausnutzt; so holzte er zügellos die Baumbestände ab für Bauten und zum Holzverfeuern. Mit zunehmendem Bedarf wurden solche Verhältnisse dramatischer, besonders, wenn der Verbrauch rasant steigt. Da scheint die Überlegung naheliegend, dass solches Handeln gestoppt werden muss, wobei zwei Dinge aufeinander stoßen: das energetisch bedingte[6] Erschöpfen der Vorräte und die damit in Verbindung gebrachte klimatische Erwärmung. Anders ausgedrückt: das Produkt der Verbrennung kohlenstoffhaltiger Vorräte zu Kohlendioxid, erkenntlich an deren Verbrauch und deren Emission in die Atmosphäre[7]. Nun fehlen nur noch der Gedanke und auch der Nachweis, dass durch die Annahme, dass Kohlendioxid zur Intensivierung des Energieeintrages in die für den Menschen wichtige Atmosphärenschicht ursächlich für die Bedrohung der menschlichen Existenz ist. Dazu könnten die Wärmestrahlungsgesetze dienen, da eigentlich ohne eine Sonnenstrahlung kein Leben auf der Erde möglich ist. Der Prozess des energetischen Austausches der beteiligten System-Elemente Sonne, Erde und die der Atmosphäre ist aber global weder gesamtheitlich bekannt noch (messtechnisch) quantifizierbar, weshalb man zu vereinfachten Vorstellungen übergeht, d.h. die Schwankungen einerseits durch Mittelwert-Bildung[8] und andererseits durch idealisierte Gang-Charakteristiken zu ersetzen.[9] Obwohl die meßtechnischen Daten für eine statistische Auswertung ungenügend sind, nutzt man weltweit eine Temperatur-Verteilung der an 2m-Höhe gebundenen bodennahen Temperaturen.[10]

Dass in verschiedenen Regionen der Erde die Wolkenerscheinungen wichtiger Bestandteil des Klimas sind, ist bekannt; die sichtbare Ansammlung von Wasser in der Atmosphäre in den Strahlungsaustausch-Prozess ein. Aber auch hier wissen wir wenig; die Forschung versucht, in der Niederschlagsphysik die sich abspielenden Prozesse zu verstehen[11] und die Wiederholbarkeit von irregulären Niederschlags-Prozessen zu erfassen. Ähnliches ist von der Dynamik der Luftmassen-Bewegungen, die verantwortlich für den Gastransport sind, zu sagen. Um z.B. Zirkulationsmodelle global praktisch anwenden zu können, muss man daher verschiedene Annahmen treffen, um die numerische Modellierung weiter voran zu treiben.

Insgesamt kann man sagen, dass für eine genauere Prognose die dazu existierenden Schätz-Daten noch nicht ausreichen, um sicheres Vertrauen in die Verkündungen auf Basis des jetzigen Wissensstandes zu wecken, zumal die verschiedenen Prozessverknüpfungen[12] z.T. nur erahnt werden. Maßgebend ist nicht das erforschte Detailwissen, sondern infolge der Datenlücken der Vermutungsgrad, wie diese mit Annahmen ausgefüllt werden. [13]

Ein deutliches Zeichen für die anzuwendende Vorsicht gibt da die Beschränkung einer Übernahme von Ausbreitungsmodellen in die technische Normung und Gesetzgebung.[14] Die  Ausbreitung von Luftschadstoffen muss schließlich meßteschnisch real ermittelt werden.

Wenn man die atmosphärischen Prozesse mathematisch darstellen und damit die Gesundheit der Hypothesen prüfen will, muss man den Umfang auf verfügbare und zugleich zuverlässige Daten reduzieren, muss man bei der Berechnung Einschränkungen vornehmen und bei Datenlücken womöglich einen Verlauf  rekonstruieren[15]. Diesen Vorgang muss man komplett angeben, sonst handelt man sich den Vorwurf inkorrekter Veröffentlichung ein. So gehören insbesondere die globale (bodennahe gemittelte) Temperatur aus Daten inhomogen verteilter Messstationen[16] und der Kohlendioxid-Gehalt in der Atmosphäre zu diesem Daten-Ensemble[17].  Beide Daten sind inkonstant, sie werden laufend in neuen Zuständen angetroffen, weshalb man sich trotz der durch Messung und Auswertung vorhandenen Aussage-Risiken deren relevante Daten über Mittelungen[18] zu beschaffen versucht. Hierzu benutzt man Prozess-Vorstellungen und Erscheinungen der Häufigkeit (Histogramme) in der Annahme, es gäbe reguläre Verteilungen von einzelnen Prozess-Parametern[19] und seltene Ereignisse wie Vulkan-Ausbrüche usw. könne man vernachlässigen. Beim Wetter scheint es offenbar (nur angenähert) genaue Wiederholvorgänge über der Zeit[20] zu geben, weshalb man eine Langzeit-Statistik bei der Voraussage zukünftiger Verhältnisse zu Hilfe nehmen muss.[21] Dabei muss berücksichtigt werden, dass das Messen und die zu messende (physikalische) Größe als eine Veränderliche im Klima-Prozess mit Streuungen behaftet sind. Es gibt höchstens Wahrscheinlichkeitsaussagen auf Basis von unsicheren historischen Daten.[22]

Da die Zeitreihen nicht lückenlos und wissenschaftlich nicht gleichvertrauenswürdig sind, aber für eine vernünftige Vergleichsbasis eine längere Beobachtungsperiode angesetzt werden muss, einigte man sich international auf eine Zeitbasis von 30 (nichtüberlappenden) Jahren. Es bedarf aber keiner weiteren Erläuterung, dass weder der dynamische Prozess in seinen Antrieben noch in der sich ständig wechselnden Verteilung der Luftmassen und ihrer Bestandteile (z.B. Wolken) hinreichend bekannt sind und (voll) verstanden werden noch diese Vorgänge meßtechnisch ausreichend sicher verfolgt werden können. Der Klimatologe Roger A. Pielke senior hält den Top-down-Fokus des IPCC, eine von globalen Modellen ausgehende Betrachtung generell wie auch eine auf Treibhausgase verengte Perspektive für falsch.[23] Die IPCC Szenarien sind als Momentaufnahmen des Erkenntnisprozesses zu betrachten. Zwischen den Veröffentlichungen ändert sich sowohl der Forschungsstand durch neu gefundene Zusammenhänge als auch die Realität durch unvorhergesehene Entwicklungen.

Für die Änderungen des Wetters gibt es zahlreiche Indizien und in Übertragung und Erweiterung davon des globalen Klimas, jedoch wird gerade hier und grundsätzlich ein Anspruch höherer Aussagekraft als früher erhoben, als die Menschen das Geschehen mit ihren Sinnen ohne Instrumente beobachteten und seit jeher ungewohnte Naturereignisse[24] nach der Dramatik für sie bewerteten. Heute nennt man den Ausdruck Extremereignisse, deren spezielle Ursachen man zwar nicht kennt, aber in Zusammenhang mit menschlichen Aktivitäten bringt und auch so deuten kann.[25] Die Klimaforschung stochert nicht im Dunklen. Wir sind so weit, dass wir anhand von Szenarien brauchbare Aussagen über künftige Veränderungen machen können. Das Kernproblem bleibt:

wie realistisch sind die Szenarien[26] und wie weit vermag der Mensch in den Klima-Prozess tatsächlich zu seinen Gunsten einzugreifen, eine zumindest teilweise philosophische Frage.

Es gibt verschiedene Strategien, mit denen politische Gewalten (Regierungen), einerseits unsere Kenntnisse über das Klima-System zu verbessern und andererseits möglichen Negativ-Einflüssen (für den Menschen schlechthin) zu begegnen. Die mit Klimamodellen mögliche Vorhersage des Klimas ist nur relativ, da solche Prognosen von der Wahl der Randbedingungen abhängen, im aktuellen Fall von der weiteren Entwicklung der Emission der „Treibhausgase“ über einen Zeitraum von vielen Jahrzehnten. Quantitativ sind Klimamodelle Beschreibungen und Ausdruck des Standes der Klimatheorie.[27] Nun stellen die globalen Klima-Modelle erhöhte und andersartige Ansprüche an die zu leistenden Voraussetzungen für eine Aussage-Wertigkeit[28] als z.B. für eine Meso-Klima. Und es geht

nicht nur um Möglichkeiten aus dem Resultat eines Szenarium, sondern um eine Gewissheit richtigen Handelns, die mit ökonomisch weittragenden (ökonomischen) Lasten auf die Menschen verbunden ist und die Menschheit in eine andere Zukunft transformiert.

Um eine solche Gewissheit zu erlangen, ist die Prüfung kritischer Klima-Daten unerlässlich, z. B. der globalen Referenz-Temperatur im Vergleich. Aus der Meteorologie sind bodennahe Luft-Temperaturen in 2 m Höhe bekannt, in der Vorstellung einer Erwärmung geht man von einer Abstrahlung der Oberflächen-Bestandteile Richtung Weltraum aus und vernachlässigt den Erdwärmestrom aus dem Erdinnern sowie den dieses geringen Temperaturgradienten. Über dem hohen Wasserflächenanteil besteht eine verringerte Meßdaten-Dichte. Derzeit werden die Daten der Messstationen gleichbehandelt, obwohl unzweifelhaft die strenge Vergleichbarkeit keineswegs durchgängig gewährleistet[29] scheint, die Mess-Stellen nicht immer in ein gleichförmiges Raster-Netz passen und die Zusammenfassung zu einem Ensemble sowie der zeitlichen Mess-Abstände zu einem „Mittelwert“ problembehaftet sind.[30] Die Repräsentativität ist eine sehr wichtige Forderung von Probenehmern und Statistikern.[31]

Über die Betrachtung der Daten-Zeitreihen, z.B. der globalen monatlichen Mitteltemperaturen kann man durch Regressionsanalyse z.B. einen linearen Trend einer Erwärmung bestimmen, ohne ein Mindestmaß an Bestimmtheit oder auch Angabe von Streuungsmaßen (Konfidenzintervallen) zu fordern, dann sollte man aber auch die mögliche Fehlerhaftigkeit bekunden. Gerade bei Mehrfach-Mittelungen hintereinander können wichtige Informationen herausfallen, so dass man mit Daten operiert, die nur scheinbar geeignet sind, großartige Schlüsse daraus abzuleiten.[32] Es muss daher eine Steigerung der Vertrauenswürdigkeit der globalen Temperatur-Daten im gesamten Mess- und Auswerteprogramm vorgenommen werden, um einem vorbehaltlosen Gebrauch zustimmen zu können. Die Rückschlüsse aus Proxydaten wie Eisbohrkernen sind auf Grund ihrer Probenahme nicht immer einwandfrei.[33]

Die Hypothese einer Erwärmung auf Grund eines anthropogenen Anteils von CO2 an der leichten globalen Erwärmung ist bisher nicht hinreichend bewiesen.[34] Es gibt bestenfalls Indizien, deren Bedeutungen jedoch stark umstritten sind. Man könnte auch folgern, dass wirtschaftspolitische Maßnahmen, die sich auf die CO2-Hypothese stützen, nicht ausreichend begründet sind.

Es scheint niemand genau angeben zu können, wie hoch tatsächlich der anthropogene Anteil an der jeweiligen CO2-Anreicherung und deren Verteilung in der globalen Atmosphäre ist, er könnte nur einige Prozent betragen, da einerseits die CO2-Bilanzen auf unzureichendem Datengemenge beruhen und andererseits von zu wenig vertrauenswürdigen Daten stammen.[35]

Das aber wiegt schwer, denn mit der z.Zt. geringen Zahl an Messdaten in der Atmosphäre selbst[36] kann man nicht von einer Bestätigung einer CO2-Hypothese sprechen.

Die Hochrechnung von Emissionsdaten bei unsicherer statistischer Ermittlungsbasis bestätigt lediglich eine gefühlsmäßige Einschätzung, dass der Wohlstands-Hunger laufend auch ein Verlangen nach mehr Energie-Verbrauch hervorruft. Würden alle Menschen auf der Erde auf hohem Wohlstands-Niveau leben, müssten die Schätzungen über den Zeitpunkt des Endes fossiler kohlenstoffhaltiger Vorräte korrigiert werden. Aber das ist eine philosophisch-politische Frage.  Bis jetzt ist jedenfalls die von der Politik und Wissenschaftlern geforderte CO2-Emissions-Minderung durch staatliche Vorgaben nach den vorliegenden Einzeldaten ausgeblieben. Offenbar stoßen verschiedene Interessen aufeinander und – es werden nicht überall der Klimazustand und dessen anthropogene Änderung gleich bewertet.

Somit gilt festzustellen:

Es wird ein hoher Aufwand für die Enträtselung des globalen Klimas durch die Wissenschaft getrieben – und dieser wird staatlich stark gefördert. Wir wissen jedoch nicht, wie lange wir noch auf den weitgehend aufgeklärten Zustand warten müssen. Und es gilt, diejenigen Wissenschaftler, die sich nicht der in den Medien hoch begünstigten Angst-Macherei anschließen und kritisch sind einzubinden. Die zuweilen polemischen Anwürfe an diese Gruppe „zielloser Skeptiker“ sind unter Wissenschaftlern eigentlich unüblich und sie sind des Kulturniveaus und einer höheren Diskussionskultur unwürdig.

Ich bin dankbar für die schärfste Kritik, solange sie nur sachlich bleibt.

Otto von Bismarck (1815-1898).

Dr.Ing. A. Rabich, Dülmen für EIKE

Der Autor war Umweltpreisträger auf der Hannover Messe wegen Forschungsarbeiten an einen Drall-Brenn-Reaktor mit der TU Clausthal-Zellerfeld und Initiator für Normen und gesetzliche Regelungen für PCB. Sowie u.a. Obmann eines Arbeitskreises Konstruktion im Verein Deutscher Ingenieure, Düsseldorf, später von weiteren Arbeitskreisen usw.. REFA-Industrial-Engineer, Darmstadt (Arbeitsstudien/analysen) und promovierte 1977 zum Dr.-Ing. TH/FU Berlin  Verfahrenstechnik

 


[1] http://de.wikipedia.org/wiki/Kontroverse_um_die_globale_Erwärmung  08.05.2012:17.57

[2] siehe Zitat 17 in Fußnote 1.

[3] Frank, Patrick. http.//wattsupwiththat.com/2012/03/27/nese-when-is-purported-science-not-science/’nire.60214 dort auch weitere Literaturstellen. www.eike-klim-energie-eu/news-cache/nese-wann-ist-angebliche-Wissenschaft-keine-Wissenschaft-mehr? (Übersetzung von Chris Frey)

[4] Pat Frank, Quelle und Literatur-Bezüge in (deutscher Übersetzung): www.eike-klima-energie.eu/news-cache/stellvertreter-prox-methodik-fuehrt-zu-Pseudowissenschaft 11.05.2012

[5] http://de.wikipeida.org/wiki/Klima,  Klimabegriff.

[6] und stoffliche.

[7] darauf basiert die heutige Erkenntnis über den sich verändernden atmosphärischen Gehalt an CO2.

[8] Typisches Beispiel hierfür ist die Unterschiedlichkeit von Temperatur-Meßzeiten (und deren Abstände) und der Daten, bei drei Meßzeiten ist der Wert des Mittels ein anderer als über Stunden oder sogar kontinuierlich. Dazu kommen die (historischen) Änderungen der Meßzeiten und des Meldens.

[9] Singularitäten können für Prognosen nicht benutzt werden. Hupfer, 2006, S. 68. Über Gegenstrahlung siehe: http://de.wikipedia.org/wiki/Atmosphärische-Gegenstrahlung. Hier noch „Treibhausgase“, obwohl es keine die Ähnlichkeit mit einem Treibhaus erforderliche Schicht nicht gibt.

[10] die Temperaturen sind unter Nutzung des mittleren vertikalen Temperaturgradienten auf Meeresniveau reduziert worden. Hupfer, 2006, S. 69, Abb.3.22 und 3.23

[11] es gibt beachtliche Fortschritte in der detaillierten und parametrisierten Modellierung der Wolken- bzw. Niederschlagsmikrophysik in allgemeinen Wolkenmodellen. Hupfer, 2006, S. 102, Abschnitt 5.6 und S. 113, mittlere jährliche Niederschlagshöhe 1931-1961, Abb.5.14

[12] verschiedentlich Rückkoppelungsprozesse genannt. Was nun die „beste Schätzung“ anbelangt, ist Vorsicht angebracht, siehe hier: Hupfer, 2006, S. 300

[13] Ein deutliches Zeichen gibt da die beschränkte Übernahme von Ausbreitungsmodellen in die technische Normung und Gesetzgebung. Die reale Ausbreitung muss schließlich meßteschnisch ermittelt werden.

[14] in der Bundesrepublik TA Luft, BImschG u.a.  Der Normungsausschuß wählte aus. siehe http://de.wikipedia.org/wiki/Ausbreitungsrechnung.

[15] es gibt eine nicht näher quantifizierbare Unsicherheit aus der gedanklichen Vorstellung wie es sein könnte.

[16] www.dwd.de/bvbw/appmanager/bvbw/dwdww.Desktop; globale Durchschnittstemperatur

[17] Kohlendioxid entsteht bei vollständiger Verbrennung kohlenstoffhaltiger Brennstoffe. Siehe hierzu:

http://cdiac.ornl.gov/ftp/ndp030/global.1751_2008.ems  Hier ausgewählte Produktionszweige.

[18] hierzu zählen Unsicherheiten der Messung (http://de.wikipedia.org/wiki/Messunsicherheit ) inkl. der zeitlichen und örtlichen Unsicherheiten  (Gebiets- bzw. Raum-Mittelungen) sowie der Elimination von Ausreißern, der Unterstellung von Verteilungstypen der Daten und der Zulässigkeit von Messwerten innerhalb der inhomogen verteilten – und womöglich nicht gleichwertigen – Meßstationen über den Landmassen und der nicht geschlossenen Ermittlung über/unter Wasser-Oberflächen. Die Aussage-Ergebnisse der einzelnen Institutionen sind wegen der unterschiedlichen Verwertung der Messdaten nicht identisch, z.B. NCDC, GISS u.a. (USA) bzw. anderer Forschungs-Institutionen. – Die Überprüfung der Schätz-Methode wird gesondert durchgeführt.

[19] Zweynert, Ulrike. Möglichkeiten und Grenzen bei der Modellierung von Nährstoffeinträgen auf Flußgebietsebene. Dissertation. Techn. Universität Dresden. 2008.  Hier Abweichungen der Idee beim Messen. www.qucosa.de/recherche/frontdoor/?tx_slubopus4frontend[id]=60

[20] beim Messen der Temperatur werden keine Mehrfach-Messungen vorgenommen, es wird unterstellt, dass die Temperatur stabil ist, die Änderungsgeschwindigkeit in Stunden wird nicht berücksichtigt.

[21] besonders beim globalen Klima kommt noch die Bedingung hinzu, dass die Daten auch gleichwertig über der Zeit sein müssen; eine lediglich plausible Ausfüllung von Datenlücken mindert den Aussage-Wert. Daran leiden auch Rückwärtsrechnungen mit Klima-Modellen, siehe: www.aaplet-magic.com/backcastingag.htm  (Thayer Watkins). als Überprüfmethode ohne Korrekturen/Anpassungen.. Vgl. hierzu: Leistenschneider – Kowatsch.  www.eike-klima-energie.eu/climagate-anzeige/klimaerwaermung-in-Deutschland-nicht-nachweisbar  Hier wird jedoch Hohenpeißenberg mit seinem Temperaturverhalten dargestellt, ein Verhalten, dass für das umliegende Land jedoch schon sehr früh von den Fachleuten als nicht repräsentativ bezeichnet und deshalb korrigiert wurde.

[22] bei der Vielzahl von Daten ist eine einheitliche Unbestimmtheit [Unschärfe] nicht quantifizierbar. Das hindert nicht, den anthropogenen Anteil der Schad-Verursacher in einem Treibhausgas (nicht Wasserdampf, eher CO2) zu vermuten, obwohl die Repräsentanz gerade der atmosphärischen Bestandteile schwach in Daten ist. Schönwiese, C.-D. Der aktuelle Stand der Klimaproblematik. Globaler und regionaler Klimawandel. www.geo.uni-frankfurt.de/lau/PDF_Dateien/SW-KLIA17-_Klimastudie-Chem_-2_pdf.pdf   Juli 2010.

Hierzu die historische Darstellung äußerer Einflüsse/Wetter-Landwirtschaft. In: Rabich, Adalbert. Herda, Geschichte vom Dorf Herda. GRIN-Verlag. 2006 u. Regionalgeschichte des Gerstunger Beckens. GRIN.2010

[23] siehe Fußnote 1, Aussagekraft und Korrektheit der Szenarien des IPCC. Dort auch Zitat 107.

[24] als Beispiele: Eis- und Warmzeiten, Sturmfluten, Überschwemmungen, Dürreperioden, Hunger

[25] Becker, DWD, Vortrag am 25.11.2010 (Deutsches Klima-Konsortium, Berlin, 22.11.2010). und: Schreiber, Klaus-Jürgen. Nachweis geführt: Klimawandel verändert auch Wetterlagen. Klima-Pressekonferenz des DWD am 03.05.2012 in Berlin, darin: Hauptwindsysteme verlagern sich zu den Polen. mehr regenreiche Tiefdruckgebiete über Mitteleuropa usw.  – Extremereignisse sind aus den Häufigkeitsverteilungen in Abhängigkeit der Standardabweichung vom Mittelwert definiert. Sie werden für das Abschätzen der Größe des Risikos als Produkt aus Eintrittswahrscheinlichkeit und Schaden [sicherheitswissenschaftlich] benutzt. Die Aussagen über die Eintrittswahrscheinlichkeiten gelten für ein großes Datenkollektiv. Schönwiese, C.-D. Extremereignisse aus meteorologisch-statistischer Sicht. promet 34(2008)1/2 S. 61-65

[26] Szenarien dienen je nach Simulations-Annahmen zum Studium, Prognosen geben Zukunfts-Zustände ab. Szenarien liefern eine Bandbreite von Möglichkeiten. www.hydrologie.unibe.ch/projekte/Klimaszenarien_fuer-hydrologische-impaktstudien_in_der_schweiz.pdf   2011

[27] Hupfer, Peter – Wilhelm Kuttler (Hrsg.). Witterung und Klima. Wiesbaden: B.G. Teubner. 2006 S. 294

[28] zu unterscheiden: Richtigkeit.

[29] Lage der Meßstationen, Einflüsse lokaler Einstrahlungen usw.

[30] www.scirp.org/journal/PaperInformation.aspx?paperID=9233 2011. G. Kramm – Dlugli.

[31] siehe: Rasemann, W. – A. Rabich – K. Volk. Bibliografie Probenahme und Qualitätssicherung bei Stoffsystemen. Bd. I (2001), II (2003) und III.(2006).  IQS Freiberg. – +  in: Handbuch Probenahme. 2009.

[32] z.B. zum Treibhauseffekt. Loock, Ehrenfried. www.tsch.de/ehrenfried-look/webfolder/index.html 17.08.2008

http://climaterealistics.com/index.php?id=8073  http://principia-scientific.org/publications/Experiment_on_Greenhouse_Effect.pdf

[33] Rabich, Adalbert. Das Klimaproblem. e-book. ISBN 978-3-640-24354-9. München: GRIN-Verlag. 2008.

[34] http://lv-twk.oekosys.tu-berlin.de/project/lv-twk/02-intro-3-twk-c.htm Kehl, H. Die Klimadebatte.

[35] vgl. hierzu die Ausführungen über die Raster-Interpolationen beim Niederschlag. Maier, Ute – Gerhard Müller-Westeroser. Verifikation klimatologischer Rasterfelder. Berichte DWD Nr. 235. ISBN 978-3-88148-450-3/2010.  Man kann nicht ohne weiteres interpolieren oder „homogenisieren“. Aus diesem Grunde müssen alle Mittelwert-Ermittlungen besonders sorgfältig analysiert und geprüft werden. Für Temperatur: Eckhard Schulze. 2012. www.eike-klima-energie-eu/news-cachew/wie-kann-man-eine-mittlere-‚globaltemperatur-ermitteln-was-die-statistiik-verlangt-und-verschweigt  Schulze Temperatur Statistik.pdf   Literaturquellen.

[36] Die Daten (Keeling-Kurve) sind solche, denen man unterstellt, dass sie repräsentativ sind. Bewiesen ist das jedoch keineswegs. Siehe die Bemerkung schon zur Temperatur, wo noch wesentlich mehr Meßpunkte vorhanden sind, unter: Why do global and hemispheric temperature anomales differ from thos quotes in the IPCC asessment and the media? www.cru.uea.ac.uk/cru/data/temperature




Globale Erwärmung – explosiv*

„…äquivalent mit 400 000 Atombomben vom Hiroshima-Typ pro Tag ist, 365 Tage im Jahr. Das ist die Menge an Zusatzenergie, die die Erde jeden Tag erhält.“

Das heißt, der Energie-Gegenwert von 278 Atombomben pro Minute – mehr als vier pro Sekunde – nonstop. Um das klarzustellen, das ist nur die Extraenergie, die die Erde zusätzlich zu der Energie erhält, die unseren Planeten mit 0,8°C erwärmt. Es ist die Rate, mit der wir die globale Erwärmung zunehmen lassen.

======================================================

Aktualisierung: Ich glaube, wir müssen eine neue Maßeinheit einführen, um Lächerlichkeit quantifizieren zu können. Ich schlage die ‚Hansen-Lächerlichkeits-Skala’ vor, so etwas Ähnliches wie die Richter-Skala, von Natur aus logarithmisch.

Das Aufdrehen der Thermostaten* bei einer Anhörung im Senat im Jahre 1988 würde mit 5,0 bewertet werden. Todeszüge** würden mit 6,0, dies hier mit 8,0 bewertet werden.

[** Zur Senatsanhörung an einem sehr heißen Tag wurden von Hansens Unterstützer im Senat Timothy Wirth, die Klimaanlge abgeeschaltet und die Fenster verriegelt. Gew. Ergebnis: Die Senatoren schwitzten! ** Gemeint sind hier die Kohle-Züge für Kraftwerke , die Hansen mit den Todeszügen von Auschwitz gleichstellte A. d. Übers.]

Ich möchte mal wissen, was ein Rating von 9 oder 10 auf der Hansen-Skala bedeutet.

Ich habe im Moment keine Zeit, das vollständig zu ergründen und zu berechnen, aber falls jemand die die Erde treffende solare Einstrahlung in ‚Hiroshima-Einheiten’ berechnen könnte, würde ich das dem Hauptbeitrag hinzufügen. Die Zahl dürfte Hansens Behauptung marginalisieren.

Anthony Watts

2. Aktualisierung: Willis Eschenbach hilft aus:

1 Tonne TNT = 4.184e+9 Joules (J) Quelle

Hiroshima-Bombe = 15 Kilotonnen TNT = 6.28e+13 Joules (ibid)

Hansen sagt, die Zunahme des Antriebs beträgt „400 000 Hiroshima-Atombomben jeden Tag“, was 2.51e+19 Joules/Tag ergibt.

Ein Watt ist ein Joule pro Sekunde, so dass sich ein konstanter zusätzlicher globaler Antrieb von 2.91e+14 Watt ergibt.

Normalerweise benennen wir Antriebe mit Watt pro Quadratmeter (W/m²). Der Gesamtantrieb (solar plus langwellig) gemittelt rings um den Globus am 24. Juli beträgt etwa 500 Watt pro Quadratmeter.

Um Hansens Zahlen in einen Wert mit der Dimension von pro Quadratmeter zu konvertieren – die globale Oberfläche beträgt 5, 11e+14 Quadratmeter… das bedeutet, dass Hansens bedrohliche 400 000 Hiroshima-Bomben pro Tag einen Wert von 0,6 Watt pro Quadratmeter ergeben… mit anderen Worten, Hansen möchte uns mit der Behauptung eines Ungleichgewichts von sechs zehntel eines Watt pro Quadratmeter sehr viel Angst einjagen, in einem System, in dem die versinkende Strahlung [downwelling radiation?] ein halbes Kilowatt pro Quadratmeter beträgt… wir können diesen Grad der Genauigkeit noch nicht einmal messen.

Willis Eschenbach

================================================================

Hier ist noch eine:

bvdeenen sagt am 15 Mai 2012 hier:

Überschlagsrechnung, ohne Taschenrechner durchführbar: Die Hiroshima-Bombe hatte 63 TJ = 6E13 J. Kreisfläche der Erde beträgt 3 * (6E6m)^2 = 1E14m². TSI der Sonne ist etwa 1kW = 1E3 J/s, d. h. die Erde empfängt ca. 1E17 J/s auf der Sonnenseite. Also explodiert die Sonne mit etwa 1E17/6E13 = 1E3 Hiroshima-Atombomben auf diesem Planeten. PRO SEKUNDE!

Mr. Hansen: Die Sonne explodiert mit etwa 1000 Hirsoshima-Atombomben auf diesem Planeten. IN JEDER SEKUNDE! TUN Sie etwas dagegen!

Link: http://wattsupwiththat.com/2012/05/15/global-warming-splodeified/

*Orignaltitel: „Global warming – splodeified“. Kann mir mal jemand sagen, wie man das übersetzen kann?

Übersetzt von Chris Frey EIKE




Das Scheitern der grünen Energie

Bild rechts: Ein Windpark in UK, wo inzwischen 12 Millionen Menschen in Energiearmut leben.

Amerikas Geheimnis? Anders als die Mächtigen in anderen Ländern, die zum Ruin ihrer Länder politische Maßnahmen übernommen haben, als ob die globale Erwärmung eine Rolle spielen würde, haben die US-Führer mehr ein Lippenbekenntnis dazu abgelegt. Während die Einwohner anderer Staaten inzwischen stetig steigende Energiekosten erleben, können sich die amerikanischen Haushalte auf zurück gehende Kosten freuen.

Die nordamerikanische Ausgabe der Aktionen gegen die vermeintliche globale Erwärmung ist Ontario. Dort hat man eine der besten Ketten von Kohlekraftwerken des Kontinents abgewickelt, um zu einem grünen Anführer zu werden. Dann zahlte die Regierung von Ontario einen bis zu 80 mal höheren Preis als der Marktpreis, um Entwickler dazu zu bringen, unökonomische Erzeugungsstätten für erneuerbare Energien zu errichten. Das Ergebnis sind rapide steigende Energiepreise (etwa 50% seit 2005), und sie werden weiter steigen: Einer Schätzung der Regierung von Ontario aus dem Jahr 2010 zufolge können die Bewohner Ontarios Energiepreise erwarten, die während der nächsten fünf Jahre um 46% Prozent steigen. Unabhängige Schätzungen gehen von einer Steigerung über 100% aus. Der restliche Teil Kanadas ist nicht viel besser dran – das National Energy Board sagt Energiepreissteigerungen um 42% bis 2035 vorher, während einige Schätzungen eine Steigerung um 50% bis 2020 annehmen.

In weiten Teilen Europas sieht es ähnlich aus. Dänemark, wo der Klimawahn schon sehr früh übernommen worden ist, verlangt von seinen Haushalten die höchsten Energiepreise der Welt – etwa 40 Cent pro Kilowattstunde, oder drei- bis viermal soviel dessen, was die Nordamerikaner heute zahlen. Deutschland, wo die Stromwirtschaft den grünen Entwicklern einen Blankoscheck ausgestellt hat, folgt dichtauf an zweiter Stelle, gefolgt von anderen politisch korrekten Nationen wie Belgien, dem Hauptquartier der EU, und wirtschaftlich angeschlagene Nationen wie Spanien.

Das Ergebnis ist chaotisch für das wirtschaftliche Wohlergehen in den EU-Ländern. Selbst im wirtschaftlich so stabilen Deutschland leben 15% der Bürger in „Energiearmut“ – die von den Regierungen so definiert wird: man muss mehr als 10% des Gesamteinkommens pro Haushalt für Strom und Gas ausgeben. Etwa 600 000 Deutschen mit geringem Einkommen werden jährlich die Stromlieferungen gestrichen, eine Zahl, die noch steigen wird, da die Verbraucher mit einem nicht enden wollenden Strom von Projekten bzgl. der globalen Erwärmung in der Pipeline geschlagen sind. In UK, unter der politisch korrektesten Führung der Welt, leben bereits etwa 12 Millionen Menschen in Energiearmut, 900 000 davon allein im windgepeitschten Schottland, und UK befindet sich inzwischen in einer doppelten Rezession.

Im Gegensatz dazu werden die Energiepreise in den USA ab dem nächsten Jahr zu sinken beginnen, und zwar einer Schätzung der US-Energy Information Administration zufolge um 22% bis zum Ende des Jahrzehnts, um dann bis 2035 stabil zu bleiben. Warum dieser Rückgang? Hauptsächlich, weil sich die USA in den kommenden Jahren in überwältigendem Ausmaß auf fossile Energie verlassen werden, nicht nur Kohle, die derzeit das Energiesystem dominiert, sondern zunehmend auch Erdgas, von dem man erwartet, dass es 60% aller in nächster Zukunft auszubauenden Kapazität deckt. Dank des Frackings verfügen die USA über unbegrenzte Mengen billigen Erdgases, zusätzlich zu den unbegrenzten Kohlevorräten.

Während der Rest der entwickelten Welt in der Knechtschaft der globalen Erwärmungs-Rhetorik verharrte, beteiligten sich die USA an den Diskussionen, bäumten sich dann aber dagegen auf. Im Jahre 1997 unterzeichneten der damalige Präsident Clinton und sein Vize Al Gore gerne das Kyoto-Protokoll, welches die Länder der entwickelten Welt zwang, ihre Ökonomien zu begrenzen, um die Welt zu retten. Während das Protokoll in anderen Nationen pflichtschuldigst ratifiziert worden ist, hat der US-Senat – was Clinton und Gore genau wussten – die Ratifizierung von Kyoto mit 95 zu Null Stimmen abgelehnt. Clintons Nachfolger George W. Bush hat einen ähnlich superben Job gemacht, indem er sich an den Gesprächen beteiligte, sich aber weigerte, wirtschaftszerstörende Maßnahmen einzuführen. Der Bush-Nachfolger Barack Obama stellte die globale Erwärmung ebenfalls in die hinterste Ecke, obwohl er ein echter Gläubiger ist. Er stellte Obamacare noch vor der Klimaänderung in den Mittelpunkt seiner Aktionen.

Da die Republikaner nach den Wahlen im November so gut wie sicher dank einer dünnen Mehrheit im Repräsentantenhaus den Geldhahn kontrollieren werden, wird eine Gesetzgebung hinsichtlich der globalen Erwärmung wie in Europa in den USA unmöglich sein, selbst wenn die Republikaner nicht auch den Senat und das Weiße Haus übernehmen werden, was sie jedoch aktuellen Umfragen zufolge tun werden. Im Falle einer Übernahme durch die Republikaner wird die Kluft zwischen den Energiepreisen in den USA und der restlichen entwickelten Welt sogar noch größer werden, wenn die dem Motto „drill, baby, drill“ verhafteten Republikaner die existierenden Beschränkungen der Industrie der fossilen Energien aufheben und die verbleibenden Subventionen für die Industrie der erneuerbaren Energie in den USA kappen werden.

Lawrence Solomon

Link. www.icecap.us vom 24.5.2012, Rubrik  „The Political Climate”

Übersetzt von Chris Frey EIKE




Solarstromrekord über Pfingsten, die teuerste Stromeimspeisung die es je gab

Solarstromrekord…und wie man ihn errechnet*

Solarzellen liefern so viel Strom wie 20 Atommeiler 
Über Deutschland strahlt die Sonne, und die Solaranlagen laufen auf Hochtouren. Erstmals haben sie 22.000 Megawatt Strom produziert. Das entspricht der Leistung von rund 20 Kernkraftwerken – ein neuer Rekord. Probleme gibt es allerdings mit den Netzen. 
Man lese: 
http://www.spiegel.de/wirtschaft/unternehmen/solarzellen-liefern-leistung-von-20-atomkraftwerken-a-835417.html

*Update 30.5.12: Solarstromeinspeisung zu Pfingsten kostete die Verbraucher 56 Millionen € extra. 

Lesen Sie dazu den klugen Beitrag zu den Kosten auf Science Sceptical

Was sind die Folgen?

1) 
Wie hatten schon mal so einen Tag, es war der Tag des teuersten Stroms und alle dachten sich: Hoffentlich passiert das nicht wieder, siehe auch im Sommer 2010: 
Rekordsommer treibt Stromkosten nach oben 
Das Extremwetter in Deutschland ist gut für die Solarindustrie – und teuer für Bürger … Neue Daten zeigen, wie die geballte Sonnenkraft die Stromkosten nach oben treibt. Die Energiepreise drohen unkalkulierbar zu werden, zu lesen hier: 
http://www.spiegel.de/wirtschaft/unternehmen/unkalkulierbares-energieangebot-rekordsommer-treibt-stromkosten-nach-oben-a-707534.html

und heute: 

22 Mio kWh erzeugte Energie: Da machen wir eine grobe Abschätzung. Bei 0,15 Euro/KWh Subventionen (die eex bietet für 4 Cent/kWh an) für garantierte Solareinspeisung macht das rund 3,3 Mio. Euro pro Stunde Zusatzkosten.

2) 

Sonnenrekorde als Zukunftsszenario … 

Ist die Kostenrechnung abgeschlossen? Es verbleibt die Bereitstellung von Braunkohle-, Gas- und Atomkraftwerken. Dabei sind nur Gaskraftwerke schnell runterzuregeln; die anderen brauchen weiter Brennstoff und geben dafür Wärme ab. Darüber hinaus wird jeglicher Betreiber konventioneller Kraftwerke in Zukunft Bereitstellungsgebühren verlangen müssen, sonst wird er’s schlichtweg nicht machen können! Diese Kosten kommen dann noch obendrauf. In welchem Umfang hat das zu erfolgen?

3) 

Dazu schaue man hier 

http://www.spiegel.de/fotostrecke/fotostrecke-57921-3.html oder besser noch hier http://www.energietechnologien2050.de/wDefault_4/dowloads/02_Vortrag_Hartkopf.pdf?WSESSIONID=c44358d8b24a09d7a46ccd167826192f Es sind dabei zwei Dinge zu unterscheiden:

Welche Leistung ist abgesichert bzw. für welche nicht abgesicherte Leistung muss man „backup“-Energie in irgendeiner Weise wie konventionelle Kraftwerke oder Speicher für mehrere Monate bereitstellen. Dabei ist das mit konventionellen Kraftwerken machbar aber die Kosten kommen auf den Strompreis. Bei sowas wie Pumpspeicherkraftwerken ist das wegen der irren benötigten Größen schwierig (Es sind auch wegen der Zerstörung der Natur ähnliche Proteste zu erwarten wie damals beim Rhein-Main-Donau Kanal … oder nicht?).

Also was ist die gesicherte Kraftwerksleistung: 

Wasserkraft 40 % Kernkraft 93 % Gas-, Kohlekraftwerke 90 % Wind onshore 8 % Wind offshore 10 % Fotovoltaik 1 % Biomasse 88 % Geothermie 90 % EU-Importe 98 %

Das heißt 99% des Fotovoltaikstroms muss gepuffert werden und das heißt: Wir brauchen alles doppelt und das heißt: Könnte man mal an eines Tages allen Strom mit Fotovoltaik erzeugen, bräuchte man dieselbe gelieferte Leistung nochmals über Monate gespeichert oder konventionell im Hintergrund. 
Achso ja: Mit dem Wind ist’s natürlich nicht viel besser (90% backup) genauso wie mit einer Mischung aus beidem.

4) 

Mehrkosten durch Überinstallation: 

Solarzellen liefern so viel Strom wie 20 Atommeiler !!! Donnerwetter !

Erst mal: 

Es ist zu unterscheiden zwischen installierter Leistung (MW) und abgegebener Leistung in einem Zeitraum (MWh) und dann gemittelt.

So ist die installierte Leistung bei Wind diejenige, die bei optimalen Verhältnissen bereit gestellt werden kann. Bei Sonne ist’s genauso.

 

Bei Wind haben wir da folgende Zahlen, wiederum siehe hier:

http://www.energietechnologien2050.de/wDefault_4/dowloads/02_Vortrag_Hartkopf.pdf?WSESSIONID=c44358d8b24a09d7a46ccd167826192f

Windenergie installierte Leistung / Mittelwert erzeugte Leistung = 21500/4430 = 5.

Das heißt, könnte man ALLE erzeugte Leistung speichern, müsste man 5-mal mehr Leistung installieren um den benötigten Mittelwert der sicheren Versorgung zu erreichen (sozusagen um die Erzeugungsspitzen in die Erzeugungstäler zu füllen).

Bei Sonne sind die Zahlen viel schlechter !

 

Wollen wir also alles mit Sonne und/oder Wind machen: Gehen wir von einem Werktag aus, nehmen wir das Vierfache obiger 22.000 MW wiederum nach

http://www.energietechnologien2050.de/wDefault_4/dowloads/02_Vortrag_Hartkopf.pdf?WSESSIONID=c44358d8b24a09d7a46ccd167826192f

zur Abschätzung und das 5-fache an installierter Leistung zum benötigten Mittelwert (Das ist wegen der viel schlechteren Zahlen für Sonne eine Abschätzung zum Guten, siehe Nachtrag 1 & 2), dann bräuchten wir das 20-fache von oben als Atomäquivalent in installierter Leistung und natürlich kommen solche Tage wie oben wo das geht vor, aber:

 

das entspricht dann einem Atomäquivalent von 400 Atommeilern!

Ja Gott ne: Wenn’s nicht mehr sind, immer feste druff !????

Nachtrag 1:

Aus

http://de.wikipedia.org/wiki/Solarstrom

 

Jahr 

Installierte
Leistung
MWpeak

Durchschn.
Leistung
MW

Solarstrom-
erzeugung
]
GWh

Gesamtbrutto-
stromverbrauch
GWh

Anteil am
Bruttostrom-
verbrauch

2011

24.820

2.169

2.169 * 8760 =

19.000

608.500

3,1 %

8760 h hat das Jahr.

 

Somit:

Solarstrom installierte Leistung / Mittelwert erzeugte Leistung = 24820 / 2169 = 11
Was obige Abschätzung von 400 Atommeilern verschlechtert.

 

Nachtrag 2:

Kontrollrechnung:

Gehen wir von 80.000MW benötigter konstanter Nachfrage aus und nehmen wir an, ein Kernkraftwerk liefert 1.500MW dann brauchen wir 53 Kernkraftwerke. Diese sind grundlastfähig und haben

Atomstromstrom installierte Leistung / Mittelwert erzeugte Leistung = 1

Wegen

Solarstrom installierte Leistung / Mittelwert erzeugte Leistung = 24820 / 2169 = 11

bräuchten wir für die Sonne dann 53 * 11 = 583 Atomkraftwerke-Äquivalent.

Das ist nahe obiger Mischrechnung für Wind & Sonne von 400 Atomkraftwerke-Äquivalent aber auch noch entsprechend schlechter genauso wie erwartet.

Das relativiert dann letzten Endes folgende Schlagzeile zu einem schlechten Witz:

Solarzellen liefern so viel Strom wie 20 Atommeiler

http://www.spiegel.de/wirtschaft/unternehmen/solarzellen-liefern-leistung-von-20-atomkraftwerken-a-835417.html

  

Rupert Reiger zuerst erschienen auf Achgut




Hat CO2 den Planeten erwärmt…

Es ist schwer zu glauben, dass wir es nicht wissen – aber die letzten 50 Jahre Erwärmungstrend hängen von diesem einen stufenartigen Sprung ab. Man betrachte die Graphik unten. Zeigt sich darin ein starker zugrunde liegender Erwärmungstrend, oder ist der Trend in Wirklichkeit so unbedeutend, dass man ihn ohne diese Stufenänderung gar nicht erkennen würde?

Eine Reihe von zwei flachen Linien kann als kontinuierlicher Erwärmungstrend erscheinen, wenn eine lineare Trendlinie eingepasst wird, weil diese Trendlinie die Stufenänderung nicht zeigt. Dieser Stufeneffekt wurde zuerst von David Stockwell im Jahre 2009 bemerkt.

Die fortgesetzte Erwärmung scheint offensichtlich in den Aufzeichnungen der unteren Atmosphäre, wenn man eine lineare Trendlinie zieht.

McKitrick und Voselgang

Aber man betrachte noch einmal die Daten der Stufenänderung um Jahre 1977.

McKitrick und Voselgang

Das Problem mit Stufenänderungen besteht darin, dass zwei flache Linien mit einem stufenartigen Anstieg dazwischen künstlich einen linearen Trend erzeugen, der bedeutungslos ist. McKitrick und Voselgang [i] nehmen sich dieser Stufenänderung an und zeigen, dass es in der unteren und mittleren Troposphäre von 1958 bis 2005 nur dann zu einem Erwärmungstrend kommt, wenn man die Stufenänderung mit einbezieht. Entfernt man diese, ist der zugrunde liegende Trend nicht signifikant. Mit anderen Worten, in 46 der 47 Jahre mit atmosphärischen Daten wird kein bedeutsamer steigender Trend erzeugt.

Falls das CO2 eine Auswirkung auf unsere Atmosphäre hat, ist es unmöglich, mit Gewissheit zu sagen, welche Auswirkung das gewesen ist.

Jo Nova und Tony Cox

[i] McKitrick, R. and Vogelsang, T. J. (2011), Multivariate trend comparisons  between autocorrelated climate series with general trend regressors, Department of Economics, University of Guelph. [Discussion paper PDF]

Link: http://joannenova.com.au/2012/05/has-co2-warmed-the-planet-at-all-in-the-last-50-years-its-harder-to-tell-than-you-think/

Übersetzt von Chris Frey EIKE




Was Sie schon immer über Energiewende und Klimaschutz wissen wollten, aber nicht zu fragen wagten

Die Fragen erheischen dringend Antworten, und EIKE gibt sie. Da das Thema komplex und umfangreich ist, haben wir versucht, die wichtigsten Kriterien herauszuschälen. Wir haben uns bei der Energiewende dabei auf drei maßgebende Grundaspekte beschränkt, als da sind: „Technische Machbarkeit“, „Warum wollen wir die Energiewende“? „Mit welchen Mittel werden wir die Energiewende verwirklichen“? Im zweiten Teil der News gehen wir auf den Klimaschutz ein.

Was die technische Machbarkeit betrifft, erschien es uns wenig sinnvoll, unsere Leser mit nahezu unendlich vielen Details zu belästigen. Wir haben es stattdessen vorgezogen, einen renommierten, in ganz Deutschland geschätzten Experten in einem Video zu Wort kommen zu lassen.

Prof. Tegtmeier hat die Lösung Stromerzeugung und – Speicherung, dezentral, ökologisch und nachhaltig. Und das schon vor vierzig Jahren! Mit Dank an Leser Langenberg, für den Verweis auf dieses Schmuckstück grüner Ingenieurskunst

Das Video, in welchem Prof. Tegtmeier uns Laien die Technik der Energiewende nahe bringt, demonstriert an einem Musterbeispiel die Innovation und Brillianz der in der deutschen Energiewende eingesetzten Verfahren. Wir dürfen zuverlässig davon ausgehen, dass auch alle anderen, in einem relativ kurzen Video naturgemäß nicht sämtlich ansprechbaren technischen Details der Energiewende von gleicher Qualität sind. So hat es die deutsche Ingenieurkunst fertig gebracht, eine schon viele tausend Jahre alte Methode (Energie aus Wind) wortwörtlich in bislang ungeahnte Höhen zu treiben. Das erste Kriterium, nämlich die technische Machbarkeit, hat sich mit dem Video bereits geklärt, und EIKE erlaubt sich, den im Video vortragenden Autor posthum für den Grimme-Preis vorzuschlagen.

Zum zweiten Kriterium, warum wir die Energiewende wollen, hat die ebenfalls renommierte und regelmäßig in den Medien auftretende Professorin Claudia Kemfert in der TV-Talkshow des HR vom 28.3.2012 „Wird Strom zum Luxus?“ (hier) eine erschöpfende Antwort gegeben, deren Klarheit und logische Stringenz uns restlos überzeugt. Frau Kemfert sagt „Wir brauchen Ökoenergie, weil wir uns das vorgenommen haben“. Das ist felsenhart, mehr noch, es ist ein argumentativer Meilenstein. Damit sehen wir auch die Frage zur Wünschbarkeit der Energiewende als erledigt an.  

Indessen kann nicht ganz verschwiegen werden, dass unmaßgebliche technische und naturgesetzliche Gesetzmäßigkeiten immer wieder kleinere Schwierigkeiten bereiten. So sträubt sich der so ersehnte Wind- und Sonnenstrom hartnäckig, sich zum Zweck der Speicherung einsperren zu lassen. Dies erinnert tatsächlich ein wenig an die Schildbürger, die Licht für ihr Rathaus, in welchem sie vergessen hatten Fenster einzubauen, in Tüten beibringen wollten. Als Folge unseres aktuellen Defizits an Stromspeicherung ist es daher sinnvoll, den lustig fluktuierenden Stromschatz – manchmal fällt es den Schelmen „Wind“ und „Sonne“ sogar ein, uns zu foppen und wochenlang auszubleiben – auf Umwegen zu speichern oder mit Hilfe der völlig unnütz gewordenen klassischen Kraftwerke zu ersetzen. Nicht umsonst reden wir im Zusammenhang mit den klassischen Kraftwerksdinosauriern nur noch von „Schattenkraftwerken“, „Regelleistung“, also despektierlichem Unsinn, den ohnehin niemand versteht. Im Grunde sind alle klassischen Kraftwerke überflüssig, Wind und Sonne reichen, wie wir es inzwischen bestens wissen, völlig aus.

Zurück zur Stromspeicherung! Ausgerechnet Pumpspeicherwerke haben es hier den Experten angetan, wobei – schon wieder melden sich kleinliche Bedenkenträger zu Wort – in Deutschland nicht die topographischen Voraussetzungen von tiefen Tälern und hohen Bergen für diese Ersatzmethode gegeben seien. Welch ein kapitaler Irrtum! In der schon erwähnten HR-Sendung „Wird Strom zum Luxus“? war auch die grüne Politikerin und hochrangige Energieexpertin (leider inzwischen wg. kleinlicher Beckmesserei wieder ausgeschiedene) Christine Scheel zu Gast. Sie gab zu diesem lösbaren Problem die entscheidenden Hinweise, so dass sich EIKE zu ausdrücklichem Dank für ihre Aufklärung verpflichtet fühlt und diesen hier abstattet. „Wir schaffen es, sogar 100 prozentig“, versicherte Frau Scheel. Dieses Statement, dem sich auch Frau Kemfert uneingeschränkt anschloss, war unmissverständlich. Gänzlich überzeugt waren wir dann, als Frau Scheel „Die deutschen Ingenieure werden es richten“ nachschob. Wir dürfen nun zuverlässig davon ausgehen, dass auch das dritte Kriterium gelöst ist und es für gehässig-kleinkarierte Kritik an der Energiewende gemäß den Nachweisen der drei Spitzenexperten Prof. Tegtmeier, Prof. Kemfert und Frau Scheel definitiv keine Gründe mehr gibt.

Die euphorische Zustimmung der deutschen Nation zur Energiewende kann auch von vereinzelten Meckereien nicht mehr getrübt werden. So ist ein schwäbischer Unternehmer der Aluminiumbranche tatsächlich auf die absurde Idee verfallen, die Stromversorgung seiner empfindlichen Produktion durch eigene lokale Hilfsgeneratoren abzusichern. Dieser Mann lässt Unverständliches verlauten: „Fällt der Strom aus, sind meine Anlagen, die  flüssiges Metall verarbeiten, dahin und ich bin pleite“. Eine dümmere Furcht und noch weniger Vertrauen in unsere Klimadonna Angela Merkel, die mit solchen Marginalien wie Black-Outs nun wirklich nicht belästigt werden sollte, weil sie für einen sicheren Strom persönlich sorgen wird, sind kaum vorstellbar. in [1] sind stellvertretend drei Quellen von solch unerträglichem Bedenklichkeitsunsinn aufgeführt.

Freuen wir uns lieber auf die vielen neuen Windrädlein in den Naturschutzgebieten Bayerns, die schon die Höhen unseres prächtigen Ulmer Münsters, aber leider noch nicht des Pariser Eiffelturms erreichen! Bayern, ein sicherer Hort von Gegenreformation und unsicheren Elfmeterschützen, hat ohnehin viel zu viel Wald. Da müssen endlich Schneisen reingehauen werden, damit bayerischer Muff auslüftet! Freuen wir uns weiter über das frische Zusatzfutter für Krähen, Füchse und anderes Bodengetier aus einfältigen, von Windradpropellern fein zerhäckselten Vögeln und Fledermäusen. Sind doch diese dummen Flugtiere selber schuld, sie könnten wirklich an anderer Stelle ihre Flugkünste ausprobieren! Freuen wir uns schlussendlich auf die neuglänzenden Starkstromleitungen von der Nordsee bis herunter ins Süddeutsche, unter denen es bei nassem Wetter verträumt brummt und knistert, ein Vergnügen und lehrreiche Gewöhnung für unsere Kleinen an die neue Energiewelt! Wie war es früher auf langen Autobahnfahrten mit endlos vorbeiziehenden, langweiligen deutschen Landschaften schwer, unsere Kinder auf den Rücksitzen ruhig zu halten! Heute, mit den faszinierenden, sich drehenden Windmühlchen links und rechts der Straßen hat sich dieses Problem gestresster Eltern erledigt.

Wir wollen noch auf zwei weitere Aspekte hinweisen, die unsere kluge Bundesmutter und Energiekanzlerin zu aller Wohl und Nutzen beabsichtigt, obwohl sie aus Bescheidenheit ihre schöne Botschaft nicht gleich herausposaunt. Die sichere Stromversorgung Deutschlands in der Vergangenheit war allein schon deswegen nicht sachgerecht, weil sie das deutsche Problem der viel zu geringen Kinderzahl bedenklich verschärfte. Dagegen werden stromlose, finstere Nächte für die Gelenkigen und Jüngeren unter uns endlich wieder von Vergnügen erfüllt sein, die keine Gottschalk-Sendung jemals erreichen kann. Es gibt noch viele weitere Aspekte, deren Aufzählung hier leider zu weit führt, nur ein stellvertretendes Beispiel sei noch gestattet: Der angenehm tiefe Infraschall von Windrädern wird die moderne Tonkunst erneuern! Nach fragwürdiger Akrobatik von Zwölftonmusik ist es an der Zeit, Neuerungen in Gestalt bislang ungekannter Tonfrequenzen einzuführen. Anrainer von Windparks werden sich zukünftig nicht nur an den schönen Schattenspielen dieser für unsere Stromversorgung segenreichen Propeller erfreuen, sie werden auch ganz neue musikalische Hörgenüsse erleben dürfen.

Und nicht zu vergessen: Schlussendlich und Gottlob hat es in Deutschland mit der Teufelei der Kernkraftwerke ein Ende. Von Strahlenbelastung kann keine Rede mehr sein, sollen sich doch unsere Nachbarn damit herumschlagen. Japan hat uns Mores gelehrt. Die Japaner waren wegen ihres so hohen Nutzungsgrades der Kernkraft an weltweit beispiellos hohe Strahlungsdosen gewöhnt, die diese Kernkraftwerksteufelsdinger ja überall und immer erzeugen, weswegen sie auch so stark dampfen. Die Havarie in Fukushima hat nur aus diesem Grunde kein Strahlenopfer gefordert. Die Japaner waren eben strahlenabgehärtet! Anders ist das irritierende, von manch einem vielleicht sogar ein wenig bedauerte Ausbleiben von Strahlenopfern in Fukushima gar nicht erklärbar. Von uns Deutschen kann von Strahlenabhärtung leider nicht die Rede sein, sieht man von den wenigen glücklichen Bewohnern der Zugspitze, Sole-Heilbäder sowie von Flugzeugbesatzungen ab.

Entsprechend klug-vorausschauend wurden von vielen einsichtigen deutschen Bürgern nach dem Fukushimaunglück sofort Jodtabletten gekauft, denn das Strahlenteufelszeug, was war das noch mal…äh…na ist egal, macht vor keiner Entfernung halt. EIKE beglückwünscht diese vorausschauenden deutschen Zeitgenossen und zollt ihnen Respekt. Nicht auszudenken, wenn auf Grund der immer zu erwartenden Erdbeben gar ein Tsunami aus dem Bodensee ganz Süddeutschland mit einer 50 m hohen Hafenwelle bis hoch zur Mainlinie verwüstet! Wir sprechen an dieser Stelle selbstverständlich auch allen Greenpeace-Aktivisten unseren Respekt aus, die unter höchstem Einsatz in verständlichem Protest Castortransporter erklommen und dort die extrem hohen Strahlungsdosen des gefährlichen Abfalls in Kauf nahmen. Die um Jahrzehnte verringerte Lebenserwartung dieser Protestler und die hohe Zahl der bereits der Verstrahlung erlegenen Aktivisten verschweigt Greenpeace bescheiden und pietätvoll.

Nun endlich zum Klima! Es gibt in der Tat nichts Wichtigeres, als unser Klima zu schützen. Allein, hier müssen wir schon wieder korrigierend und helfend eingreifen, denn diese Forderung ist absolut unzureichend. Wir müssen sogar drei Klimate schützen, das tropische, gemäßigte und polare Klima gleichermaßen. Klimaschutz erweist sich somit als dreifache Aufgabe! Sie wird nicht dadurch leichter, dass sich das Koboldchen „Klima“ auch noch wie ein Chamäleon andauernd ändert! Auch hier erlauben wir uns wieder Christine Scheel zu zitieren: „Wir schaffen es, hundertprozentig“. Die Zeiten, als sich die Natur einfach so erlaubte, was sie wollte – untragbare subtropische Verhältnisse am Rhein vor 100.000 Jahren, pfui Teufel -, müssen endlich vorbei sein. Hierzu hilft uns die komplette Verbannung des Gases aller Gase aus dem Reich des Bösen, CO2, von dem nur noch verkalkte Biologie- und Chemielehrer zu behaupten wagen, es sei für die Photosynthese und daher für unsere Existenz unverzichtbar und sogar Getreide würde damit besser wachsen. Gegenüber solchen Lehrern können wir nur noch unsere Verachtung ausdrücken. EIKE plädiert dafür, diese Art von Pädagogen sofort in den vorzeitigen Ruhestand zu schicken, von härteren Maßnahmen ganz zu schweigen.  

Und dann schließlich noch die Klimawissenschaft! Glücklicherweise war es hier nach Schaffung des IPCC mit den unerträglichen Zuständen unabhängiger Forschung vorbei, wo jeder einfach tun und lassen konnte, was ihn gut dünkte. Es kam ein frischer Wind auf, der die verkrusteten Strukturen aufbrach. Heute haben wir glücklicherweise Klimaexperten, die zwar nicht mehr den altmodisch hohen wissenschaftlichen Qualitätskriterien genügen, dafür aber die richtige Meinung vertreten. Der wissenschaftliche Beirat für globale Umweltveränderungen der Bundesregierung (WBGU) schwafelte vor nicht allzu vielen Jahren im WBGU-Bericht 1997, Kapitel 2.1 noch umher, es sei sehr schwierig nachzuweisen, ob der Mensch die beobachtete Klimaveränderung mitverursacht habe – manche Ignoranten lesen dies sogar als „ein anthropogener Einfluss auf Klimaparameter ist nicht nachweisbar“ (hier). Glücklicherweise und sachgemäß wurden solcherart unerträglichen Klimaexperten zügig durch die notwendigen Meinungsgenosen ersetzt. Diese steuern seit dieser Zeit mit segensreicher Hand die deutsche Politik und die Medien. Welch ein Glück für uns! Unvermeidbare Stänkerer, die befürchten, dass hierdurch der Ruf der Klimawissenschaft Schaden nehmen könnte, werden glücklicherweise nicht ernst genommen. Die überwiegende Mehrzahl der Medien und alle politischen Parteien verfolgen durch die segensreichen Bemühungen des WBGU eine begrüßenswerte, selbstgleichgeschaltete Linie. Sie wird in der überzeugenden Replik Kritikern gegenüber, die immer noch unbelehrbar von Fakten herumphantasieren, in vollendeter Eleganz und Höflichkeit wie folgt ausgedrückt: “Für eine Prüfung von Fakten oder neuen Erkenntnissen fehlt uns die Sachkenntnis. Wir vertrauen vollständig den Empfehlungen des Weltklimarates und den Aussagen des IPCC“ (hier).

Nur die leider nicht zu übersehende Unwirksamkeit der CO2-Vermeidungsmaßnahmen auf Erdtemperaturen und ihre Kosten sind ein kleiner Wermutstropfen, der vom hohen Ansehen der „CO2-Länder“ Deutschland, EU, Neuseeland und Australien (als den leider einzigen Protagonisten) aber bei weitem aufgewogen wird. Sollen doch China, Indien, die USA und weitere bornierte Nationen das Hundertfache unserer deutschen CO2 Emissionen in die Atmosphäre blasen, wir Deutschen werden sie schon noch lehren, was es heißt, die Erde zu retten! Auch EIKE wird dabei mithelfen und die von aller Welt so geschätzten Genesungsbestrebungen des deutschen Wesens engagiert und mit gewohnt sachkundigem Ratschlag unterstützen. Der Autor dieses bescheidenen News-Beitrags hofft, dass mit seiner Bemühung ein erster Schritt hin zu diesem hehren Ziele getan ist.

Prof. Dr. Horst-Joachim Lüdecke (EIKE-Pressesprecher)

Quellen

[1] FAZ  23.5.2012, Besser, man ist Selbstversorger, von Rüdiger Soldt, FAZ 22.5.2012, Den Hausstrom selber machen,von Georg Küffner, Focus, 16.4.2012, Wind, Wasser, Sonne – Hokuspokus Fidibus!, von Dirk Maxeiner usw. usw.




Zur Klimasensitivität des Treibhausgases CO2

Die strahlungsphysikalische Ermittlung der Klimasensitivität basiert auf der bekannten Stefan-Boltzmann Gleichung:

S = Sigma * T^4

S ist in unserem Falle die Wärmeabstrahlung der als schwarzer Körper angesehenen Erde in W/m2, Sigma die Stefan-Boltzmann-Konstante und T die absolute, mittlere globale Temperatur in Kelvin. Es bietet sich an, die obige Gleichung zu differenzieren und nach DT aufzulösen, weil dann alle Größen zueinander proportional sind und der gewünschte Wert sich so auf einfachste Art ermitteln lässt. Bei dieser Auflösung kürzt sich Sigma heraus und es resultiert danach folgende Gleichung:                                   

DT =  (1/4) * ( T / S ) * DS

Die hier neu erscheinende Größe DS ist die zusätzliche Wärmerückstrahlung, die sich nach Verdoppelung des CO2-Gehalts ergibt. Sie kann auf recht mühevolle Art mit Hilfe der sog. HITRAN-Datenbank errechnet werden, was sowohl vom IPCC als auch von mehreren Klimakritikern, u.a. P. Dietze hier und hier sowie H. Harde [1], unabhängig voneinander durchgeführt wurde. Wegen des übereinstimmend gefundenen, jeweils genau gleichen Wertes von 3,7 W/m2 kann diese Zahl sicher als unstrittig angesehen werden.

Für S wird die Wärmeabstrahlung der Erde in den Weltraum angesetzt, die bei 240 W/m² liegt. Sie ergibt sich als Differenz zwischen 390 W/m² Bodenstrahlung (bezogen auf die mittlere Globaltemperatur von 15 °C = 288 K) und 150 W/m² für die Summe der wolken- und treibhausgasbedingten Wärmerückstrahlung (H2O, CO2, N2O, CH4, O3, FCKW). Sie ist notwendigerweise auch identisch mit der mittleren Sonneneinstrahlung bei Annahme eines 30%igen Albedoeffekts.

T ist die absolute mittlere Bodentemperatur, die allgemein mit 288 K angesetzt wird (s. o.).

Danach ergibt sich jetzt für die gesuchte Klimasensitivität des CO2:

DT =  (1/4) * (288/240) * 3,7 = 1,1 K = 1,1 °C.

Bis hier ist der Rechenweg des IPCC und der wissenschaftlich engagierten Klimakritiker noch völlig konform. Danach geht er jedoch diametral auseinander. Zu beachten ist nämlich an dieser Stelle, daß der obige Sensitivitätswert von 1,1 °C zunächst nur für den Idealfall einer Atmosphäre gilt, in der es außer CO2 keine anderen frequenzüberlappenden Treibhausgase wie vor allem Wasserdampf und erst recht keine Wolken gibt. Allein die Wolken reduzieren den Wert von 1,1 °C um 40 % auf ca. 0,7 °C, denn da, wo Wolken sind, kann der CO2-Gehalt der Atmosphäre noch so sehr steigen. Er bleibt an diesen Stellen ohne Einfluss, weil die Wolken als Kontinuumsabsorber dafür stellvertretend alles selbst übernehmen.

Ähnlich sieht es mit dem Wasserdampfgehalt der Atmosphäre aus, der ein Vielfaches höher als der des CO2 ist und ausgerechnet am kurzwelligen Rand der CO2-Spektralbande um 15 µm eine nicht unbedeutende Überlappungszone aufweist. Dieser entspricht ein weiterer Abzug um ca. 30 % auf ca. 0,5 °C. Doch nicht einmal genug hiermit. Im großräumigen Tropenbereich findet permanent ein starker thermischer Auftrieb statt, der die CO2-bedingte Rückstrahlungswärme sehr schnell nach oben transportiert und damit die Bodenerwärmung weitgehend ausschaltet. Ein geschätzter Abzug von 20 % auf ca. 0,4 °C dürfte hier sicher nicht zu viel sein (letzterer Effekt geht insbesondere auf Überlegungen von G. Zelck und P. Dietze zurück). Was bleibt hiernach überhaupt von dem ganzen anthropogenen Klimaeinfluß noch übrig? Vielleicht gibt es sogar Anlass für weitere Abzüge, die inzwischen auch schon von einigen Kritikern andiskutiert wurden.

Alle diese notwendigen Korrekturen der für ideale Bedingungen errechneten Klimasensitivität von 1,1 °C wurden bisher vom IPCC und den ihm gleichgeschalteten Klimainstituten völlig ignoriert. Es wird sogar im Gegenteil mit großem Eifer nach fiktiven Verstärkungsfaktoren gesucht, die den ohnehin schon recht moderaten Wert von 1,1 °C möglichst weit in die Höhe treiben. Fündig wurde man im wahrsten Sinne des Wortes durch die Erfindung der sog. Wasserdampfrückkopplung, die aus 1,1 °C zunächst eine unsichere Spanne von 1,5-4,5 °C macht mit 3 °C als Mittelwert (siehe IPCC Bericht). Prof. Schellnhuber vom PIK in Potsdam hat daraus schon mehrfach einen Wert von 5-6 °C hergezaubert und sein Mitarbeiter Prof. Levermann sogar einen solchen von 8 °C. Welche Welten liegen doch zwischen 0,4 und 8 °C? Der eine ist tolerabel, vor allem über so lange Zeiten, und der andere natürlich nicht hinnehmbar.

Inzwischen ist durch zahllose Sondenmessungen in der Atmosphäre des gesamten Erdballs, vom Boden angefangen, bis 10.000 m Höhe, nachgewiesen (siehe G. Paltridge, 2009 [2]), daß der Wasserdampfgehalt der Luft trotz mäßig gestiegener Globaltemperatur, die vorrangig durch die verstärkte Solaraktivität ausgelöst wurde (ca. 0,5 °C seit 1900 nach „Climategate“-Bereinigung), überhaupt nicht zugenommen hat und auch die kausal abgeleitete Erwärmung der oberen Troposphäre nicht nur ausgeblieben ist, sondern sogar im Gegenteil als Abkühlung in Erscheinung tritt.

Daß die Klimainstitute trotz dieser neueren Erkenntnisse immer noch an einem maßlos übertriebenen Wasserdampfverstärkungsfaktor von 3 festhalten (bezogen auf den Basiswert von 1,1° C) und beim PIK in Potsdam sogar der Faktor 7 noch für möglich gehalten wird, untergräbt jede Glaubwürdigkeit, die uns aus den abgeleiteten Prognosen unter dem Deckmantel der Wissenschaftlichkeit vermittelt wird. Sowohl diese Tatsache als auch das völlige Ignorieren der o. g. zwingend notwendigen Abzugskorrekturen (von 1,1 °C auf 0,4 °C) sprechen nicht für eine seriöse wissenschaftliche Aufarbeitung des hier beschriebenen Themenkomplexes. Die oben  abgeleitete Klimasensitivität von 0,4 °C ist sicher auch nicht als letztgültiges Ergebnis anzusehen, da eine geringe Wasserdampfrückkopplung immer noch in Rechnung zu stellen sein dürfte, trotz der bisher fehlenden Bestätigung durch entsprechende Meßergebnisse. Wenn man den Faktor 1,5 als äußerstes Maß ansieht (und nicht 3 oder gar 7), ergibt sich hieraus eine reale Klimasensitivität von 0,5 – 0,6 °C, die definitionsgemäß als Ergebnis einer 100 %igen Steigerung des momentanen CO2-Gehalts anzusehen ist. Da dieser aber auch nach Verbrauch aller fossilen Brennstoffe in mehreren 100 Jahren kaum erreichbar erscheint, bewegt sich der menschliche Einfluß auf das globale Klima nun wirklich nur im marginalen Bereich und entzieht allen unsagbar teuren „Klimaschutzbemühungen“ jede reale Grundlage.

Unsere nachfolgenden Generationen werden für diesen kapitalen Schildbürgerstreich nicht mal ein Verzeihen übrig haben. Aber vielleicht wird auch dann der wohl unausrottbare menschliche Opportunismus seine weiteren, wenn auch andere Blüten treiben. Auf kritiklose Gutgläubigkeit war schon immer großer Verlaß gewesen.

Im Folgenden und zum Abschluss der Betrachtung noch der Klimarettungserfolg bei sofortigem deutschen Totalverzicht auf sämtliche CO2-Emissionen bis 2050:

Derzeitiger CO2-Gehalt                          0,04% = 400 ppm Jährlicher Zuwachs                                              2 ppm

Zuwachs bis 2050                                 40 x 2    =  80 ppm

Deutscher Anteil                                   80:40   =    2 ppm (ein Vierzigstel des         Weltausstoßes)

Gemäß IPCC lautet die Prognose des Temperaturanstiegs bei einem CO2-Zuwachs von 400 ppm:  3,0° C. Bei seriöser Rechnung erniedrigt sich dieser Wert auf 0,5 °C. Daraus ergibt sich ein Temperaturanstieg bei einem CO2 Anstieg von 2 ppm (deutscher Anteil bis 2050) gemäß IPCC von 3:200 = 0,015 °C

Und gemäß seriöser Rechnung von 0,5:200 = = 0,0025 °C

Welch segensreicher Erfolg! Rechtfertigt das die Ausgabe von Hunderten Milliarden Euro oder die Rückkehr in die Steinzeit?

Dr. rer.nat. Siegfried Dittrich EIKE, Hamm

Quellen:

[1] Hermann Harde, Was trägt CO2 wirklich zur globalen Erwärmung bei?, Hamburg 2011, ISBN 9 738842 371576

[2] G. Paltrdge, A. Arking, and M. Pook, Trends in middle- and upper-level tropospheric humidity from reanalysis data, Theor. Appl. Climatol (2009) 98:351-359




Wie das IPCC einfach eine neue Rechenmethode einführte

Hier zeigen wir, wie das geht. Man betrachte den Graphen auf dem Bild rechts:

Dann stelle man sich die folgende Frage:

Ist die Steigung der Kurve am linken Ende am steilsten oder am rechten?

Schaut man sich den Graphen einfach an, oder nähert man sich ihm mit der althergebrachten Berechnungsmethode nach Newton und Leibniz, könnte man denken, dass die Steigung an beiden Enden gleich groß ist. Aber damit würde man falsch liegen. Tatsächlich ist die Steigung zum rechten Ende hin viel steiler. Um das zu beweisen, müssen wir die neuen, vom IPCC entwickelten Rechenmethoden anwenden. Dazu ziehen wir ausgehend vom rechten Ende passende gerade Linien:


Hier zeigt sich ganz klar, dass die Steigung des Graphen tatsächlich zunimmt.

Wie diese IPCC-Berechnung im IPCC-Bericht verwendet wird

Hier folgt eine der Schlüsselabbildungen im AR 4:

Dieser Graph ist die Abbildung 1 aus FAQ 3.1, zu finden auf Seite 253 des WG 1-Berichtes. Die Steigung der letzten 25 Jahre ist signifikant größer als die der letzten 50 Jahre, die wiederum größer ist als die während der letzten 100 Jahre. Dies ‚beweist’, dass sich die globale Erwärmung beschleunigt. Diese gewaltig in die Irre führende Berechnung erscheint nicht nur in Kapitel 3 des WG 1-Berichtes. Sie erscheint auch in der „Zusammenfassung für Politiker“ (SPM): „der lineare Erwärmungstrend während der letzten 50 Jahre ist fast doppelt so hoch wie während der letzten 100 Jahre.“. Also werden politische Entscheidungsträger, die nur auf die Zahlen schauen und nicht über die verschiedenen Zeitmaßstäbe nachdenken, mit der sich angeblich beschleunigenden Erwärmung in die Irre geführt. Natürlich kann man auch am linken Ende anfangen und zur entgegen gesetzten Schlussfolgerung kommen. (Nur für den Fall, dass dies nicht offensichtlich ist, siehe Beispiele hier, hier, hier oder hier). Ein in ähnlichem Umfang in die Irre führender Vergleich erscheint ganz am Anfang von Kapitel 3 auf Seite 237: „Die Erwärmungsrate während der letzten 50 Jahre ist fast doppelt so groß wie während der letzten 100 Jahre (0.13°C ± 0.03°C im Vergleich zu 0.07°C ± 0.02°C pro Dekade)." Dieser Trick erscheint noch einmal auf Seite 249: „Ein linearer Trend nach HadCRUT3 im Zeitraum von 1906 bis 2005 zeigt eine Erwärmung um +0.74°C ± 0.18°C, aber diese Rate liegt für die letzten 50 Jahre fast doppelt so hoch“.

Wie konnte dieser Vorgang durch den Begutachtungsprozess des IPCC schlüpfen?

Die IPCC-Berichte werden einer sorgfältigen Begutachtung durch Wissenschaftler unterzogen. Wie also ist diese zum Himmel schreiende Verzerrung der Temperaturtrends durch diesen rigorosen Begutachtungsprozess geschlüpft? Die Antwort auf diese Frage liegt jetzt vor, weil die früheren Entwürfe zum AR4 nebst den Kommentaren der Begutachter online vorliegen. (Das IPCC wollte die Veröffentlichung dieser Kommentare unbedingt verhindern, musste es dann aber nach einigen Anforderungen nach dem Gesetz zur freien Information [Freedom of Information Act] doch tun. Die Antwort ist ziemlich erstaunlich. Der irreführende Graph befand sich weder im ersten noch im zweiten Entwurf des Berichtes, der Gegen­stand der Begutachtung war. Er wurde in die endgültige Fassung eingefügt, nachdem alle Begutachter ihre Kommentare abgegeben hatten. Es ist unklar, wer das getan hat, aber verantwortlich sind auf jeden Fall die Leitautoren von Kapitel 3, Kevin Trenberth und Phil Jones. Hier folgt die Version dieser Graphik, die den Begutachtern im zweiten Entwurf vorgelegen hatte:

Man beachte, dass hier nur eine Trendlinie gezogen worden ist.

Warum also wurde diese Graphik durch die so gewaltig in die Irre führende Graphik ersetzt? Hat irgendeiner der Begutachter angeregt, dass eine neue Version mit einer ganzen Reihe von Trendlinien über verschiedene Zeitintervalle gezeichnet werden sollte? Nein. Von einem Begutachter stammt die folgende Bemerkung: „Das gesamte Diagramm ist falsch. Es gibt keine Rechtfertigung dafür, einen „linearen Trend“ in so einer unregelmäßigen Aufzeichnung festzulegen“…, aber dieser Kommentar war abgelehnt worden.

Das Gleiche gilt für die irreführende Bemerkung im oben erwähnten SPM („der lineare Erwärmungstrend der letzten 50 Jahre ist fast doppelt so hoch wie während der letzten 100 Jahre“). Diese Feststellung stand nicht in der von den Wissenschaftlern begutachteten Originalversion. Sie wurde in die Endfassung eingefügt und lag nur den Regierungen vor. Die chinesische Regierung schlug vor, diese Bemerkung zu löschen, und zwar mit dem Hinweis, dass man ‚zwei lineare Trends nicht miteinander vergleichen kann, wenn die Zeitintervalle nicht die gleichen sind’. Bravo für die chinesische Regierung, dass sie das gefunden hat. Zu schade nur, dass dieser zutreffende Kommentar vom IPCC ignoriert worden ist.

(Antony Watts, mit Dank an Marvin Müller, der immer alles googelt)

Link: https://sites.google.com/site/globalwarmingquestions/howtheipccinventedanewcalculus

Übersetzt von Chris Frey EIKE




Gibt Klimalarmist Hansen von der NASA auf? Antwort von Bob Tisdale auf Hansen Artikel: Das Spiel ist aus!

Datum: 11. Mai 2012

Betreff: New York Times Op-Ed* mit dem Titel “Game Over for the Climate” [etwa: Das Klima hat verloren!”]

[*Besonders in den USA gibt es seit Ende der 30er Jahre des 20. Jahrhunderts die gepflegte Institution des Opposite Editorial (kurz: Op-Ed). Dieses beinhaltet Kommentare von Kolumnisten, die oft bewusst von der Redaktionslinie abweichen. Ursprünglich kommt der Ausdruck daher, dass im Zeitungsdruck diese Meinungsartikel den Herausgeber-Editorials gegenübergestellt waren. Quelle: Wikipedia. A. d. Übers.]

Von: Bob Tisdale

An: James Hansen – NASA GISS

Hallo James:

Ich bin gerade mit der Lektüre deines Meinungsartikels fertig, die in der gestrigen Ausgabe der New York Times erschienen war. Der Titel „Game Over for the Climate“ hat mir so gut gefallen, dass ich mir überlege, den Titel meines Buches in ähnlicher Weise zu ändern, etwa so: „Game Over for the Manmade Global Warming Scare.” [Etwa: „Das Spiel mit der Angst vor der menschengemachten globalen Erwärmung ist aus“]. Ja. Das klingt richtig gut. Danke für die Idee. Ich muss noch herausfinden, wie schwierig es ist, den Titel der Kindle-Edition zu ändern. Während ich mich an dem Titel erfreute, zeigt der Inhalt Ihrer Meinung, dass Sie immer noch die Hoffnung hegen, jene zu erreichen, die naiv genug sind, Ihrer Behauptung Glauben zu schenken, dass CO2 für den jüngsten Schub der globalen Erwärmung verantwortlich ist. Ich hoffe, Sie verstehen, dass viele, viele Menschen von Ihrer Meinung abgefallen sind und sie mangelhaft finden.

Das Internet wurde zum primären Medium bei Diskussionen der anthropogenen globalen Erwärmung, was Sie sicher auch mitbekommen haben. Sie haben Ihren eigenen Blog. Ihr Mitarbeiter am Goddard Institute for Space Studies Gavin Schmidt ist einer der Gründer des einst formidablen Blogs RealClimate. Was Sie möglicherweise nicht mitbekommen haben – einer der anderen Beitragsschreiber bei RealClimate, Rasmus Benestad, hat vor Kurzem in einem Beitrag seinem Gefühl Ausdruck verliehen, dass alle Arbeit dort umsonst gewesen sein könnte:

„Wenn die Auffassung jedoch korrekt ist, dass Informationen wenig Einfluss haben, kann man sich nach dem Sinn fragen, den eine Debatte über Klimaänderung haben soll, und warum bestimmte Organisationen so große Mühen gegen die Leugnung aufwenden, wie es in Büchern wie Heat is on, Climate Cover-up, Republican war on science, Merchants of doubt, und The Hockeystick and Climate Wars beschrieben worden ist. Warum würde es dann solche Dinge wie ‚das Heartland Institute’, ;NIPCC’, climateaudit, WUWT, climatedepot und FoS geben, wenn diese keinen Einfluss hätten? Und auch die Berichte des IPCC und der National Academy of Sciences? Man könnte sich sogar fragen, ob die Mühe, die wir uns bei RealClimate gegeben haben, vergeblich war.“

Ich kann die Zweifel von Rasmus Benestad verstehen, wenn bei einer Website, die der anthropogenen globalen Erwärmung skeptisch gegenübersteht, nämlich WattsUpWithThat, seit 2008 immer mehr Leser vorbeischauen, während RealClimate ins Schwimmen kommt. Das Web-Informationsunternehmen Alexa zeigt, dass die Anzahl der täglichen Zugriffe auf WattsUpWithThat seit Mai 2008 diejenigen bei RealClimate übertroffen hat. Und während der letzten 6 Monate konnte Alexa die Site RealClimate nicht mehr listen, weil der Prozentanteil einfach zu tief gefallen ist. Andererseits haben die täglichen Aufrufe von WattsUpWithThat erheblich zugenommen, und inzwischen ist diese Site zur meistgelesenen Website hinsichtlich globaler Erwärmung und Klimaänderung geworden.

James, während der letzten 30 Jahre oder noch länger haben Sie eine globale Temperaturaufzeichnung erzeugt mit der Bezeichnung GISS Land-Ocean Temperature Index. Er zeigt eine Erwärmung der Oberflächentemperatur seit 1880. Obwohl es einige Probleme mit diesem Datensatz gibt, über die wir reden müssen, ist das etwas, worauf Sie stolz sein können. Aber während dieser 3 Jahrzehnte haben Sie auch Klimamodelle entwickelt und programmiert mit der Festlegung, dass allein anthropogene Treibhausgase für diese Erwärmung verantwortlich waren. Diese Modelle sind mit Dutzenden anderer in den Archiven des IPCC für deren Berichte enthalten. Unglücklicherweise hatten Ihre Bemühungen mit Klimamodellen sowie die Bemühungen anderer Modellierungsgruppen keinen Erfolg. Bei weitem nicht. Und da Ihre Ansichten auf den Ergebnissen Ihrer Klimamodelle basieren, muss man daraus schließen, dass Ihre Ansichten genauso falsch sind wie die Modelle.

Ich bin einer der unabhängigen Forscher, die die auf Messungen basierenden Temperaturaufzeichnungen studieren und dann mit den Ergebnissen der vom IPCC benutzten Klimamodelle vergleichen, die diese Temperaturen simulieren sollen. Andere Forscher und ich selbst verstehen zwei einfache und grundlegende Tatsachen, die unzählige Male auf Blogs wie WattsUpWithThat präsentiert worden sind. Vergessen Sie nicht, dass WattsUpWithThat täglich eine breite Öffentlichkeit erreicht, so dass jeder, der an globaler Erwärmung und Klimaänderung interessiert ist und sich die Zeit nimmt, die Beiträge zu lesen, diese beiden einfachen Tatsachen ebenfalls versteht.

Tatsache eins: Die instrumentenbasierte Aufzeichnung der globalen Temperatur seit 1901 und deren IPCC-Modellsimulationen bestätigen die Hypothese der anthropogenen globalen Erwärmung nicht; sie widersprechen ihr.

Die im 4. Zustandsbericht des IPCC verwendeten Klimamodelle zeigen, dass sich die Temperaturen während der letzten Erwärmungsperiode von 1976 bis 2000 2.9 mal schneller erwärmt haben sollten als während der früheren Erwärmungsperiode von 1917 bis 1944. Die Simulationen der Klimamodelle werden durch Klimaantriebe bestimmt, einschließlich des anthropogenen CO2, die logischerweise während der späteren Erwärmungsphase eine höhere Rate zeigen. Die beobachteten, instrumentenbasierten Erwärmungsraten der beiden Erwärmungsphasen zeigen dagegen etwa die gleiche Rate.

James, falls die Annahme, mit der Sie hausieren gehen, auf festen Füßen stehen würde, hätten das menschliche CO2 und andere anthropogene Treibhausgase die Oberfläche unseres Planeten in den letzten Jahrzehnten viel stärker erwärmen müssen, aber das haben sie nicht. Mit anderen Worten, es gibt kaum Beweise, dass das von Ihnen in Ihrem Op-Ed dämonisierte CO2 überhaupt irgendeine Auswirkung darauf gehabt hätte, wie stark die globale Temperatur gestiegen ist. Wir unabhängigen Klimaforscher haben das schon seit Jahren gewusst. Es taucht immer wieder auf, so oft, dass man in der gesamten Blogosphäre schon Witze darüber reißt.

Einige unabhängige Forscher haben sich Zeit genommen zu zeigen, wie wenig Klimamodelle die Erwärmungs- und Abkühlungsraten seit Beginn des 20. Jahrhunderts simulieren können. Wir tun das, damit Menschen ohne fachliches Hintergrundwissen besser verstehen können, wie sehr das Fundament der Hypothese von der anthropogenen globalen Erwärmung falsch ist. Ich habe das erneut in einem zweiteiligen Beitrag im Dezember 2011 wieder aufleben lassen (hier und hier), die beide auf WattsUpWithThat gepostet worden waren. Ich habe zahlreiche Beiträge darüber seit Dezember mit unterschiedlichen Datensätzen veröffentlicht: Wassertemperatur, Temperatur auf dem Festland und die Kombination beider Datensätze. Ich habe so viele Beiträge veröffentlicht, die zeigen, wie wenig die IPCC-Klimamodelle die Temperaturen der Vergangenheit abbilden, dass ich sie hier nicht alle verlinken kann. In den Beiträgen ging es auch um neue und verbesserte Klimamodelle, die für den bevor stehenden 5. IPCC-Zustandsbericht vorbereitet worden sind. Tut mir leid, aber sie zeigen keine Verbesserung.

Tatsache zwei: Natürliche Prozesse sind für den größten Teil, wenn nicht für die gesamte Erwärmung während der letzten 30 Jahre verantwortlich, einer Erwärmung, die Sie immer noch als Beweis für die Auswirkungen von Treibhausgasen anführen.

In Ihrem Meinungsartikel erwähnten Sie die Vorhersagen, die Sie in Science bereits im Jahre 1981 gemacht hatten. Zufälligerweise haben in jenem Jahr Satellitenmessungen der Wassertemperatur der globalen Ozeane begonnen. Diese Satelliten decken die Messung der globalen Wassertemperatur viel besser ab, von Pol zu Pol. Sie verwenden einen auf Satelliten basierenden Datensatz als einen der Quellen zur Ermittlung der Wassertemperatur für den GISS Land-Ocean Temperature Index (LOTI). Dieser NOAA-Datensatz der Wassertemperatur ist bekannt unter der Bezeichnung Reynolds OI.v2. Es ist der gleiche Datensatz, den ich benutzt habe, um zu illustrieren, dass es natürliche Prozesse und nicht Treibhausgase sind, die für die Erwärmung der globalen Ozeane seit 1981 verantwortlich sind. Da Landmessungen einfach verfügbar sind und Änderungen der Wassertemperatur nachahmen und viel deutlicher sichtbar machen, hat die von Ihnen propagierte Hypothese ein ernstes Problem. Die beobachtungsbasierten Daten widersprechen einmal mehr den Klimamodellen.

Ich bin einer der sehr wenigen Forscher zur globalen Erwärmung, der die Daten der Wassertemperatur und die Prozesse in Verbindung mit der natürlichen Klimaviariabilität studiert, genannt El Niño-Southern Oscillation oder ENSO. ENSO ist ein Prozess, der von vielen Klimawissenschaftlern unterschlagen wird, wenn sie lineare Regressionsanalysen verwenden, um ein ENSO-Signal aus den Aufzeichnungen der globalen Temperatur zu entfernen. Diese Unterschlagungen garantieren irreführende Resultate in einigen klimawissenschaftlichen Studien.

ENSO ist ein natürlicher Prozess, den Sie und Ihre Mitarbeiter beim GISS in vielen, auf Klimamodellen basierenden Studien, die Sie veröffentlichen, außen vor lassen – weil, wie Sie anmerken, Ihr „grob auflösendes Ozeanmodell nicht in der Lage ist, Klimavariationen in Zusammenhang mit ENSO-Prozessen zu simulieren“ (hier). Tatsächlich gibt es beim IPCC kein einziges Modell, das die Häufigkeit, Magnitude und Dauer von El Niño- und La Niña-Ereignissen abbilden kann. Und ich kenne keine wissenschaftliche Studie, die zeigt, dass auch nur ein einziges Klimamodell in der Lage ist, alle fundamentalen gekoppelten Ozean-Atmosphäre-Prozesse in Zusammenhang mit ENSO zu simulieren.

Wenn Klimamodelle nicht in der Lage sind, ENSO zu simulieren, dann enthalten sie nicht einen sehr grundlegenden Prozess von Mutter Natur, dazu gedacht, die Verteilung von Wärme aus den Tropen zu den Polen zu beschleunigen oder verlangsamen. Als Folge davon schließen die Modelle die Variationen aus, mit denen der tropische Pazifik natürlich erzeugte Wärme an die Atmosphäre abgibt und diese innerhalb der Ozeane verteilt, und diese Klimamodelle schließen auch die variierende Rate aus, mit der ENSO für Fernwirkungen bzgl. der Erwärmung in Gebieten sorgt, die weiter entfernt vom tropischen Pazifik liegen.

Klimawissenschaftler müssen damit aufhören, ENSO als Rauschen anzusehen, James! Der ENSO-Prozess fungiert als eine Quelle natürlich erzeugter und gespeicherter thermischer Energie, die abgeleitet, umverteilt und wieder neu angesammelt wird. Weil diese drei Funktionen (Ableitung, Umverteilung und Neuansammlung) alle variieren (siehe Note 1), variieren die Einflüsse von ENSO auf das globale Klima auf jährlicher, vieljähriger und multidekadischer Basis, wenn Frequenz, Magnitude und Dauer von El Niño-Ereignissen diejenigen von La Niña überkompensieren, was zu einer größeren Wärmeabgabe als normal aus dem tropischen Pazifik in die Atmosphäre führt, die dann innerhalb der Ozeane umverteilt wird. Und das Gegenteil geschieht, d. h. die Erde kühlt sich ab, wenn La Niña-Ereignisse über einen multidekadischen Zeitraum El Niño dominieren. Es ist kein Zufall, dass genau dies seit 1917 so abgelaufen ist.

Note 1: El Niño-Ereignissen (dem Abstrahlungsmodus) folgen nicht immer La Niña-Ereignisse (der Ansammlungsmodus). Sowohl El Niño als auch La Niña-Ereignisse können in einer Folge gleichphasiger Ereignisse auftreten, wie es bei den El Niño-Ereignissen 2002/2003, 2004/2005 und 2006/2007 der Fall war. El Niño und La Niña-Ereignisse können auch länger als ein Jahr dauern und mehrere ENSO-Zeiten überdecken, wie z. B. der El Niño von 1986/1987/1988 und das La Niña von 1998/1999/2000. Wenn auf ein starkes El Niño-Ereignis ein La Niña folgt, wie es nach dem Ereignis von 1986/1987/1988 der Fall war, ist sehr offensichtlich, dass zwei Teilphänomene von ENSO zusammen agieren und das warme Wasser umverteilen, das von einem El Niño übrig geblieben ist. Die Folgen dieser kombinierten Auswirkungen sind tatsächlich bei den Aufzeichnungen der Wassertemperatur nur schwer zu übersehen.

Die Temperaturdaten der Satellitenära zeigen, dass ENSO und nicht Kohlendioxid für die Erwärmung der globalen Ozeane in den oberen Schichten während der letzten 30 Jahre verantwortlich ist, wie früher schon angemerkt. Es zeigt, dass die Auswirkungen eines La Niña nicht einfach das Gegenteil von denen eines El Niño sind. Wenn auf starke El Niño-Ereignisse La Niña folgen, deuten die satellitengestützten Daten der Wassertemperatur in der Tat darauf hin, dass beide zusammen agieren und einen Anstieg der Anomalien der Wassertemperatur im Atlantischen sowie dem Indischen und dem westlichen Pazifischen Ozean verursachen können. Und da sich der östliche Pazifische Ozean seit 30 Jahren nicht erwärmt hat, sind diese ENSO-induzierten Anstiege bei den Daten aus dem Atlantik, dem Indik und dem Westpazifik für nahezu die gesamte Erwärmung der Wassertemperatur während der letzten 3 Jahrzehnte verantwortlich.

Ich habe diese ENSO-verursachten Anstiege seit mehr als drei Jahren präsentiert und illustriert. Ich habe die Daten geplottet, habe den ENSO-Prozess diskutiert und animiert, und zwar mit Hilfe zahlreicher Datensätze: Wassertemperatur, Meeresspiegel, Meeresströmungen, ozeanischer Wärmegehalt, tiefengemittelte Temperatur, Warmwasservolumen, Luftdruck auf Meereshöhe, Wolkenmenge, Niederschlag, Stärke und Richtung der Passatwinde usw. Und da die Wolkenmenge im tropischen Pazifik die einfallende kurzwellige Strahlung (sichtbares Licht) beeinflusst, habe ich auch diese Beziehung präsentiert und diskutiert. Die mit diesen Variablen zusammenhängenden Daten bestätigen für meine Leser allesamt, wie die ENSO-Prozesse funktionieren. Sie zeigen und behandeln auch, wie diese Anstiege durch ENSO-Prozesse verursacht werden. Ich habe zu ENSO so viele Beiträge geschrieben, dass ich sie hier nicht alle verlinken kann. Eine sehr gute Übersicht gibt es hier, oder man zieht es vor, die zusätzlichen Kommentare zu lesen auf diesem Beitrag bei WattsUpWithThat.

James, Sie sind sehr herzlich eingeladen, die Suchfunktion auf meiner Website zu nutzen, um die Prozesse von ENSO zu studieren. In aller Bescheidenheit muss ich sagen, dass es dort eine Fülle von Informationen gibt. Ich habe die gleichen Informationen in meinem Buch If the IPCC was Selling Manmade Global Warming as a Product, Would the FTC Stop their deceptive Ads? zusammengestellt. Vielleicht bevorzugen Sie das Buch, dann haben Sie eine kompakte Quelle detaillierter Besprechungen, die in diesem Memo angesprochen werden. Darin wird auch illustriert und diskutiert, wie die vom IPCC im 4. Zustandsbericht verwendeten Klimamodelle den globalen Temperaturverlauf seit 1901 nicht reproduzieren können. Verwendet man diese IPCC-Klimamodelle in einer anderen Gruppe von Vergleichen zeigen sich keine irgendwie gearteten Ähnlichkeiten zwischen der Erwärmung der Wassertemperatur in individuellen Ozeanbecken während der letzten 30 Jahre und wie sich die Wassertemperatur erwärmt haben sollte, falls man das CO2 als alleinige Ursache heranzieht. Eine Übersicht von meinem Buch findet sich im oben verlinkten Beitrag. Bei Amazon gibt es auch eine Kindle-Vorschau, die von der Einführung bis zu einem großen Teil von Abschnitt 2 reicht. Das sind die ersten 15% meines Buches. Beziehen Sie sich auch auf die Einführung, das Inhaltsverzeichnis und den Schluss als .pdf hier. Mein Buch richtet sich an alle mit wenig Hintergrundwissen, so dass jemand wie Sie mit viel Hintergrundwissen bzgl. der Klimawissenschaft leicht in der Lage sein dürfte, das Gesagte zu verstehen.

Abschließend möchte ich noch sagen, dass ich in gewisser Weise überrascht war, Ihren Artikel in der New York Times vom 10. Mai 2012 zu lesen. Ich hatte im zweiten Teil meines Memo vom 21. August 2011 an Sie und Makiko Sato dargelegt, dass ENSO und nicht Kohlendioxid für den jüngsten 30-jährigen Anstieg der globalen Wassertemperatur verantwortlich ist. Dieses Memo können Sie nicht gelesen haben. Hoffentlich lesen Sie dieses hier.

Mit freundlichen Grüßen

Bob Tisdale

Link: http://wattsupwiththat.com/2012/05/12/tisdale-an-unsent-memo-to-james-hansen/

Übersetzt von Chris Frey EIKE




Die andere Krise in Europa – Energie

Der ideologisch motivierte Energiefahrplan der EU priorisierte ‚grüne’ erneuerbare Energie, um von russischen Erdgaslieferungen unabhängig zu werden sowie um Energie- und Umweltbelange in Einklang zu bringen. Das Ergebnis: ein verheerendes Energie-Durcheinander mit der Gefahr kontinentweiter Stromausfälle, in Deutschland sogar schon im kommenden Winter, wie Die Welt kürzlich, genauer am 10. Mai, berichtet hat.

Kurz gesagt, die Energiepolitik der EU hat zu einer unhaltbaren, mit Steuergeldern finanzierten und die Märkte verzerrenden ‚grünen’ Energieblase geführt, um eine Politik zugunsten billiger fossiler Energie und realistischen Alternativen zu russischen Gasimporten zu vermeiden. Zusammen hat diese gescheiterte Politik zu einem doppelten Doppel-Pech [original: double double-whammy] infolge rasant steigender Energiepreise geführt, die jüngsten Berichten zufolge die europäische Wettbewerbsfähigkeit beeinträchtigt.

Wir wollen diese Dinge hier der Reihe nach betrachten.

Die ‚grüne’ Energieblase war von Beginn an ein zum Scheitern verurteiltes Vorhaben. Energie-Insider und jene, die die Gesetze der Physik verstehen, wussten schon lange, dass die Energiedichte von Wind, Wasser und der Sonne kein Ersatz für Energie aus Kohlenwasserstoff [Kohle?] ist. Darum wurden Segelschiffe durch Dampfschiffe ersetzt, die viel zuverlässiger und kosteneffektiver sind (besonders wenn man nicht will, dass Passagiere und Fracht im Kalmengürtel vor sich hin dümpeln). Nur die Reichen – oder die hoch Subventionierten – können es sich leisten, mit Jachten und Windenergie als Transportmittel herumzuspielen. Jeder, der verstehen möchte, wie die erneuerbare Energierevolution, zumindest mit der derzeitigen Technologie, immer zum Scheitern verurteilt war, sollte William Tuckers ausgezeichneten Artikel ‘Understanding E=mc2’, [auf Deutsch bei EIKE hier] lesen.

In guten Zeiten konnten die politischen Eliten hohe Steuern und Subventionen in einen Markt einführen, von denen sie glaubten, dass sie in unserem besten Interesse seien. Aber die hart unter Druck stehende Wirtschaft in ganz Europa, einschließlich DeutschlandUKItalien und Spanien, stolpern gerade über sich selbst, indem sie die generösen Subventionen für erneuerbare Energien drastisch kürzen, die es deutlich sichtbar nicht vermochten, ein tragbares Verhältnis zwischen Energieerzeugung und Investitionen zu erzeugen. Sie waren auch nicht in der Lage, die globalen Kohlenstoffemissionen zu beeinflussen, und sie haben oft dort, wo grüne Arbeitsplätze geschaffen worden waren, bewiesen, dass diese auf Kosten realer Arbeitsplätze gehen. Und wenn das alles noch nicht genug war – die USA, die es abgelehnt haben, ihre Wirtschaft mit der Unterzeichnung des Kyoto-Protokolls zu zerstören, lassen die Europäer um Längen hinter sich hinsichtlich des Zurückfahrens von CO2-Emissionen, und zwar mit Hilfe neuer Technologien und der Hinwendung zu Erdgas (hauptsächlich Schiefergas).

In Deutschland dürften sich die Strompreise während der nächsten zehn Jahre verdoppeln. Deutschen Banken wurden auch von der Finanzierung von Offshore-Windfarmen ausgeschlossen [wurden sie ausgeschlossen, wie es im Original heißt, oder haben sie sich von sich aus zurückgezogen {Tennet}? A. d. Übers.], weil es sich dabei um eine „unerprobte Technologie“ handelt. Die Wahrheit ist, dass wir nur zu genau wissen, wie ineffizient, lückenhaft und unzuverlässig alle Windturbinen sind, nicht zuletzt deswegen, weil sie bei jeder Umdrehung teure Gasturbinen als Back-up brauchen; zwei Einrichtungen – vorher war es nur eine und noch dazu eine viel billigere, die den Job extrem effizient geleistet hatte.

Zusätzlich haben die Klima- und Peak-Oil-Alarmisten konspiriert, um zu versuchen, uns davon zu überzeugen, dass wir keine Alternative zur grünen Revolution haben, da die begrenzten Ressourcen der Erde, vor allem Öl und Gas, zu Ende gehen. Aber, worauf einige von uns schon lange hingewiesen haben, die Ölvorräte der Erde sind für alle Zwecke praktisch unbegrenzt. Das Aufkommen der Fracking-Revolution, um Schiefergas und -öl auszubeuten, hat sich dabei als schlimmer globaler Spielverderber erwiesen. Und noch darüber hinaus zerblasen Methanhydrate auch noch das, was Schiefergas- und -ölquellen bieten. Die Green-River-Formation in den USA allein enthält Ölvorräte noch für 200 Jahre, wenn man den gegenwärtigen Verbrauch in den USA zugrunde legt. Kanadische Ölsande bieten sogar eine noch größere Ausbeute – deswegen machen die USA über die Keystone-Pipeline Furore, um das Öl nach Süden über die Grenze zu transportieren. In China, UK, Argentinien, um nur einige von Vielen zu nennen, gibt es erstklassige Erdgasvorkommen, die der Ausbeutung harren. Noch einschlägiger für unser Thema hier ist jedoch die Ausdehnung europäischer Schiefergasreserven, die mindestens genauso ergiebig sind wie in den USA; ein Faktum, das uns zum zweiten Themenkomplex bringt.

Die europäische Verweigerung seiner heimischen, entwicklungsfähigen und ökonomischen fossilen Treibstoffe.  Angetrieben von der irrationalen Angst vor dem harmlosen Spurengas CO2, ziehen es die ideologischen Eliten der EU stattdessen vor, hohe Steuern und umfangreiche Regulierungen einzuführen, um die ‚grüne’ Energie zu fördern. Eingesponnen in den Kokon verschwenderischen Glanzes in Brüssel und Strassburg haben die politischen Eliten kein Problem damit zu sehen, wie immer mehr Menschen in DeutschlandUK und anderswo in die Energiearmut getrieben werden, um ihren grünen Traum zu bezahlen. Inzwischen werden die riesigen Kohle- und Schieferreserven in Europa nicht ausgebeutet, da die Regierungen, schwer unter Druck durch sinnlose und ineffektive Emissionsziele, in einer idiotischen Verzögerungstaktik gefangen sind hinsichtlich des Fracking-Prozesses; eines Prozesses, der für die meisten Bergbauaktivitäten seit über 60 Jahren angewendet wird.

Die EU hat ein Jahrzehnt lang Geld und Arbeit in seine große Pipeline-Hoffnung gesteckt – das Nabucco-Pipeline-Projekt. Nabucco war lange Zeit ein Projekt, um Europa von der Abhängigkeit von russischem Gas abzunabeln, indem man gasreiche Staaten am Kaspischen Meer mit Europa verbinden wollte, was für die Umgehung russischen Gebietes und russischer Kontrolle unabdingbar war. Ein Jahrzehnt später ist Nabucco nicht nur immer noch ein Traum, es gibt auch keine vertraglich gesicherten Gaslieferungen, und die RWE, der zweitgrößte Investor, scheint drauf und dran zu sein, sein Engagement hierfür zurückzuziehen. Mittlerweile ist die konkurrierende russische North-Stream-Pipeline im vorigen Jahr geöffnet worden. Obendrein ist North Stream ein direktes Ergebnis der EU-Politik zur Unterminierung der russisch-deutschen ‘Sonderbeziehung’. Während also die deutsche Bundeskanzlerin damit beschäftigt war, das politische Spiel der EU mitzuspielen, waren frühere Politiker und deutsche Industrielle damit beschäftigt, nationale Interessen über die EU-Interessen zu stellen.

Aber die Kombination der grünen Politik Europas und deren totales Scheitern, Vorteile aus seinen eigenen natürlichen Energieressourcen zu ziehen, während die Schiefergasrevolution in den USA immer mehr Fahrt aufnimmt (trotz, nicht wegen der Bemühungen von Präsident Obama), hat unvermeidlich zu Brüchen geführt. Es wird jetzt darüber berichtet, dass die europäische Industrie den Preis für die brüchige Energiepolitik zahlt, unserem dritten Themenkomplex.

Der Grund ist ganz einfach: Die Energiekosten in den USA sind dramatisch gesunken bis auf etwa ein Drittel der Preise in Europa – eine direkte Folge der frühen Ausbeutung der reichlichen heimischen Schiefergas- und -ölvorräte in den USA. Jean-Pierre Clamadieu, der neue geschäftsführende Direktor des internationalen Chemiekonzerns Solvey, hat in einem Interview mit der Financial Times die steigenden Energiekosten in Europa und die europäische Wettbewerbsfähigkeit mit der Krise der Eurozone gleichgestellt. Das Problem ist, sagt Clamadieu, „dass es kaum eine europäische Koordination gibt“. Die FT berichtet auch, dass der Direktor eines der größten europäischen Energiekonsortien davor warnt, dass die EU „der Wettbewerbsfähigkeit Null Aufmerksamkeit widmet“, wenn es um Energiepolitik geht. Clamadieu beobachtet weiter, dass es „sehr schwierig ist, die Kernkraft, die zu einem Preis von 40 Euro pro Megawatt Strom erzeugte, durch eine Windturbine weit draußen auf See zu ersetzen, die Strom zu einem Preis von 200 Euro pro Kilowatt erzeugt“ [und auch das natürlich nur, wenn der Wind weht! A. d. Übers.] Das hält die europäischen Politiker aber nicht davon ab, sich über die ‚Gesetze’ des Marktes hinwegzusetzen, die sie ganz klar nicht verstehen.

In ihrer Verfolgung ihrer antifossilen Politik nörgeln die Eurokraten gerne über die ‚Exzesse’ der amerikanischen Energieverbraucher. Aber diese oft wiederholte Kritik am Energieverbrauch in den USA basiert auf dem Trugschluss, dass der amerikanische Energiehunger das Ergebnis seines nationalen Wohlstands ist. In Wirklichkeit sind die Nachfrage und der Verbrauch von Energie in den USA der Grund des Wohlstands der Nation – ebenso wie für alle anderen Großverbraucher von Energie. Diese ökonomische Lebenstatsache muss viel besser verstanden werden.

 

Das Herumfummeln der Eurokraten mit einer ganzen Palette inkohärenter und unrealistischer Energiepolitik riecht nach einem Wiederaufbau der Liegestühle auf der Titanic. Falls ich einen EU-Staat führen würde, würde ich jetzt beginnen, die ‚Rettungsboote klar zu machen’ und das nationale Selbstinteresse an der Energiesicherheit an die erste Stelle zu setzen. Ohne eine realistische EU-Strategie bzgl. Energie, effiziente und billige Kohlenwasserstoffe, mit der die Erde reichlich gesegnet ist, auf Priorität eins zu setzen, könnten sich die demokratischen Regierungen Europas sehr bald ohne jede Macht wiederfinden – in mehr als nur einer Hinsicht.

Peter C Glover, Energy Tribune

Peter C Glover is co-author Energy and Climate Wars (Continuum), Power Politics: The Inside Track On Energy (e-book, HardWired Books). www.petercglover.com

Link: http://thegwpf.org/energy-news/5760-peter-glover-europes-other-power-crisis-energy-.html

Übersetzt von Chris Frey EIKE