1

Fukushima Gedenken: hochgespielter Super-Gau!

Es sind für viele Mitteleuropäer erstaunliche Aussagen, die Wolfgang Weiss vor kurzem machte. Weiss ist Vorsitzender des Uno-Wissenschaftskomitees zu den Auswirkungen atomarer Strahlung (UNSCEAR). Gemäss den heute zur Verfügung stehenden Informationen seien die gesundheitlichen Auswirkungen der Atomkatastrophe von Fukushima wohl gering, sagte Weiss. Vor allem wegen der zügigen Evakuation seien die Radioaktivitätsdosen, die die Bevölkerung abbekommen habe, «sehr tief». Einige wenige Arbeiter im havarierten Werk hätten zwar hohe Dosen abbekommen. Es seien bis jetzt aber keine gesundheitlichen Probleme bei ihnen zu beobachten – insbesondere auch keine Strahlenkrankheiten, wie sie bei vielen Arbeitern nach der Atomkatastrophe 1986 in Tschernobyl auftraten.

Weiss’ Aussagen kontrastieren mit dem Bild, das man sich in der Schweiz und in Deutschland von «Fukushima» macht. Das Unglück gilt als «eine der grössten Technik­katastrophen aller Zeiten» (Bild der Wissenschaft). Zum Jahrestag sprechen die Medien von der «Strahlen­hölle» (Tages-Anzeiger), suggerieren verhee­rende Auswirkungen auf die Gesundheit der Bevölkerung und betonen unablässig, dass die Evakuierten wohl nie mehr in ihre Heimat zurückkehren könnten. Dass der Tsunami, der die Havarie auslöste, etwa 20.000 Menschen ­tötete, fast eine halbe Million Häuser zerstörte und etwa 500 Quadratkilometer Land verwüstete, trat in der hiesigen Berichterstattung rasch in den Hintergrund. Das Atomunglück war auch der Grund, dass die Schweiz und Deutschland kopfüber den Ausstieg aus der Atomenergie beschlossen. Wer sich hingegen auf Fakten stützt, muss zum Schluss kommen, dass Wolfgang Weiss richtig liegt. «Fukushima» war, verglichen mit anderen Katastrophen, nur ein Ereignis mittlerer Bedeutung. Das zeigen Recherchen der Weltwoche.

Nach der Atomkraftwerk-Havarie in Fukushima am 11. März letzten Jahres gelangte an radio­aktivem Material grob geschätzt etwa ein Zehntel dessen in die Umwelt wie nach der Katastrophe in Tschernobyl 1986. Ein grosser Teil davon wurde Richtung Pazifik weggetragen und hat darum kaum Schaden angerichtet. Trotz düsterer Medienberichte waren freigesetztes Strontium und Plutonium nie ein Problem. Von Bedeutung bei den ausgestossenen radioaktiven Substanzen waren Iod, das mit einer Halbwertszeit von acht Tagen aber nur einige Wochen lang relevant war, und Cäsium. Mit ­einer Halbwertszeit von dreissig Jahren ist Cäsium hauptverantwortlich für die heute noch vorhandenen Belastungen um das AKW Fukushima.

Wegen der Radioaktivität infolge des Atom­unglücks ist bis heute kein einziger Mensch ums Leben gekommen. Und die Chancen stehen gut, dass es auch in Zukunft kaum Opfer geben wird. Die meisten Arbeiter, die nach der Havarie im AKW im Einsatz waren, haben eine Dosis unter 100 Millisievert (mSv) erhalten. Es gibt keine wissenschaftlichen Belege dafür, dass einmalige Radioaktivitätsdosen bis zu diesem Wert schädlich sind. Allerdings ist auch das Gegenteil nicht bewiesen. Darum ­gehen Präventivmediziner davon aus, dass es ­keine untere Schwelle der Schädlichkeit gibt. Sie rechnen die negativen gesundheitlichen Folgen, die man bei hohen Dosen beobachtet, linear auf tiefe Dosen herunter. Auch unter diesen Annahmen hat sich aber das Risiko, im Alter an Krebs zu erkranken, bei den Arbeitern mit einer Dosis bis 100 mSv um maximal ein halbes Prozent erhöht. Es gibt jedoch 110 Arbeiter, die stärker bestrahlt wurden, sechs davon mit mehr als 250 mSv (Spitzenwert 678 mSv). Ihr Risiko für Krebs in späteren Jahrzehnten ist aber gegenüber nichtbestrahlten Menschen höchstens um wenige Pro­zent gestiegen.

Dank der zügigen Evakuationen unmittelbar nach dem Unglück wurde die Bevölkerung gesundheitlich kaum beeinträchtigt. Etwa 100.000 Bewohner im Umfeld des AKW Fuku­shima müssen (auf die ganze Lebenszeit hochgerechnet) mit einer zusätzlichen Dosis von bis zu 50 mSv rechnen. Das ist wenig im Vergleich zur natürlichen Strahlung, die im weltweiten Schnitt für eine Lebensdosis von etwa 150 mSv sorgt. In einigen Gebieten der Welt ­beträgt die Belastung durch natürliche Radioaktivität sogar das Zwei-, Drei- bis Zehnfache dieses Durchschnittswerts. Dazu zählen viele Orte in den Alpen. Bis heute konnten an solchen Orten aber nie negative Auswirkungen der Strahlung auf die Gesundheit nachgewiesen werden. Doch selbst wenn man annimmt, dass auch tiefe Dosen schädlich sind, sind die Auswirkungen in Fukushima für die Bevöl­kerung gering. Die statistische Lebenszeit­verkürzung bei einer zusätzlichen Dosis von 10 mSv beträgt etwa zweieinhalb Tage, bei 50 mSv knapp zwei Wochen. Im Vergleich zu anderen Lebensrisiken ist das fast vernach­lässigbar.

Wie eine Zigarette alle acht Jahre

Auch die Belastung durch verstrahlte Lebensmittel kann als unbedeutend angenommen werden. In Japan wurde und wird die Bevölkerung konsequent vor belasteter Nahrung geschützt. Während im Mai noch bei fünf Prozent aller Lebensmittelproben die Grenzwerte überschritten wurden, waren es im Juli noch drei Prozent und im August weniger als zwei. Zudem stellt die Überschreitung eines Grenzwertes noch längst keine Gesundheitsgefahr dar. In der Regel liegen die Grenzwerte (in ­Japan und bei uns) um das Tausendfache unter den Dosen, die medizinisch relevant sind. Die Schweizer Medien bauschen die Gefahren aber auf. So berichtete der Gesundheitstipp im letzten Oktober von angeblich verstrahltem Tee aus Japan in Schweizer Läden. Die maximal gemessene radioaktive Verstrahlung betrug dabei 6,1 Becquerel pro Kilogramm. Greenpeace warnte düster vor dem Konsum des Tees. In Wahrheit entspricht das Risiko – selbst wenn man dauerhaft täglich sechs Tassen dieses Tees trinken würde – lediglich dem Risiko ­einer Zigarette alle acht Jahre. Das zeigen Berechnungen der Weltwoche.

Viele Schlagzeilen erzeugte das Wasser, das in Fukushima zur Kühlung eingesetzt wurde und darum radioaktiv belastet war. Als im letzten April ein Teil dieses Wassers infolge von Lecks ins Meer floss, wurde in den Medien eine Verseuchung des Pazifiks suggeriert. Meerwasser ist aber ganz natürlich ebenfalls radioaktiv. Ein Kubikkilometer Wasser enthält im weltweiten Schnitt zum Beispiel drei Tonnen Uran. Die zusätzliche Radioaktivität, die ins Meer gelangte, entspricht der natürlich vorhandenen Radioaktivität einiger hundert Kubikkilometer Meerwasser. Das tönt nach viel, ist es aber nicht: Man kann davon ausgehen, dass das Kühlwasser innert kurzer Zeit stark verdünnt wurde und die Kontamination der entsprechenden Wasserschichten schon bald vernachlässigbar klein war. Ein Teil des radioaktiven Materials setzte sich zwar in Meeres­sedimenten fest, was jedoch höchstens lokal von Bedeutung ist: Nimmt man an, dass etwa zehn Prozent des radioaktiven Materials in den Meerboden sickerte, und vergleicht man diese Menge mit der natürlichen Radioaktivität von Böden (oberster Meter), entspricht die zusätzliche Belastung derjenigen, die etwa hundert Quadratkilometer Meerboden ganz natürlich aufweisen – ein eher geringer Betrag.

Auch das Kühlwasser, das sich im Untergrund der Reaktoren gesammelt hat, stellt kein Problem mehr dar: Dessen maximale ­radioaktive Belastung entsprach im vergangenen Februar lediglich der von gewöhnlichem Regenwasser, wie Messungen zeigen. In manchen Gebieten der Welt ist Regenwasser sogar mehr als hundertfach höher belastet. Denn ­Regen wäscht natürlich vorhandene radioaktive Substanzen in der Luft aus.

Doch was ist mit den etwa 100.000 Menschen, die noch immer nicht in ihre Häuser zurückkehren können? Ist die Errichtung grossflächiger Sperrzonen von unbestimmter Dauer nicht der Beweis, dass die Produktion von Atomenergie unverantwortlich ist? Zum Jahrestag des Reaktorunglücks sind die Medien voll von berührenden Berichten über Menschen, die noch immer in Notunterkünften leben und alle Perspektiven verloren haben.

Eine Evakuation unbestimmter Dauer ist tatsächlich eine gewaltige Belastung. Allerdings scheint es, dass statt der radioaktiven Strahlung vielmehr die übertriebene Angst vor ihr für solches Leid verantwortlich ist. «Weil Evakuierte Haus und Heimat, meist auch ihre Jobs und Zukunftsperspektiven verlieren, können Stress und Angst ihre Gesundheit viel stärker gefährden als niedrige Strahlendosen», sagte Maria Blettner von der deutschen Strahlenschutzkommission, deren Mitglieder vom Bundesumweltministerium berufen werden. Angesichts der Tatsache, dass die zu erwartende (zusätzliche) Lebensdosis in weiten Teilen der Sperr­zone in Fukushima nicht höher liegt als in bekannten Kurorten der Welt, muss man sich fragen, ob eine Rückkehr nicht angezeigt ist. Bezüglich der Atomkatastrophe von Tschernobyl, die viel gravierender war, kam ein breit abgestütztes Wissenschaftsgremium unter Leitung der Uno zum Schluss, dass nicht die Strahlung, sondern die Beeinträchtigung der Psyche infolge von Stress und Angst das grösste Gesundheitsproblem war.

Eine Million Kubikmeter Giftschlamm

Tatsächlich können in Japan viele Evakuierte mit einer Rückkehr in ihre Häuser rechnen, denn die Entgiftung der belasteten Gebiete schreitet voran. Die Regierung hat ­diese Gebiete in drei Zonen eingeteilt. Für ­etwa 300 km2, in denen die Belastung unter 20?mSv pro Jahr liegt, soll die Rückkehr der Bevölkerung in einigen Monaten beginnen und bis März 2014 abgeschlossen sein. Weitere ­zirka 600 km2, wo die Belastung heute zwischen 20 und 50 mSv beträgt, sollen so weit dekontaminiert werden, dass eine Rückkehr ebenfalls bis März 2014 möglich ist. Nur etwa 150 km2, wo die Belastung über 50 mSv pro Jahr liegt, ­bleiben für die nächsten fünf Jahre evakuiert.

Eher geringfügig sind die Auswirkungen von «Fukushima» auch dann, wenn man mit anderen Umweltkatastrophen vergleicht. Im Ok­tober 2010 brach im ungarischen Kolontár ein Rückhaltebecken zur Lagerung von Rotschlamm, der bei der Aluminiumproduktion anfällt. Etwa eine Million Kubikmeter Giftschlamm ergossen sich über 40 km2 Fläche. Zehn Menschen starben. Der Schlamm enthielt unter anderem ungefähr fünfzig Tonnen hochgiftiges Arsen. Die ausgestossene Menge an Gift, gemessen in potenziell tödlichen Dosen, war beim Schlammunglück in Ungarn etwa zehnmal grösser als beim Reaktorunglück in Fukushima. All das zeigt, dass der Bruch des Rückhaltebeckens viel gravierendere Auswirkungen für Mensch und Umwelt hatte als das AKW-Unglück in Japan. Während aber nach der Atomhavarie der Ausstieg aus der Kernenergie sofort zum Thema wurde, verlangte nach dem Unglück in Ungarn niemand den Verzicht auf die Produktion von Aluminium.

(Axel Reichmuth – WELTWOCHE 10/12) mit freundlicher Genehmigung

Siehe auch:

» Zettels Raum: ein sehr lesenswerten Artikel um Thema finden Sie hier

» WELT: Die deutsche Atomhysterie ist welt weit verpufft

» Kritischer Hörer beim WDR 5-Tagesgespräch zu Fukushima (9.3.)




US Klimainstitut (GISS) verfälscht rückwirkend Temperaturdaten!

Wer sich heute im selben Internetportal über die Temperaturentwicklung im 20. Jahrhundert informieren möchte, findet andere Temperaturganglinien und Datensätze, und die zeigen, dass es fortschreitend wärmer geworden ist und dass diese Erwärmung andauert. Nur wer beide vergleicht, kann erkennen, dass die Temperaturdaten zwischen 2010 und 2012 rückwirkend verändert wurden. Unser Geologe Friedrich-Karl Ewert ist dieser Diskrepanz auf den Grund gegangen.

Warum wurden rückwirkend Temperaturdaten geändert ?

Die im Jahre 2010 veröffentlichte Arbeit von Joesph D’Aleo und Anthony Watts [1] enthält einen Link, der das Internetportal von NASA-GISS öffnet und Zugang zu den dort angebotenen Temperaturganglinien und Datensätzen verschafft. Es war Zufall, dass die zuerst geöffnete Ganglinie zur Station Vilnius gehörte, die 1880 begann und bis 2009 reichte, aber, anders als erwartet, für das 20. Jahrhundert keine Erwärmung anzeigte. Die Ganglinie doukmentiert die üblichen Temperaturschwankungen, aber keinen Klimawandel – im Mittel schien die Temperatur gleich geblieben zu sein. (Bild 1).

Bild 1: Temperaturganglinie der Station Vilnius (Quelle: NASA-GISS Internet-Portal 2010)

Vilnius konnte eine Ausnahme bilden, aber es war zu prüfen, ob das wirklich so war. Nachdem die Trendlinien der Ganglinien von ca. 800 Stationen weltweit ermittelt und ausgewertet worden waren, stand fest, dass die Temperaturganglinien von NASA-GISS größtenteils keine globale Erwärmung erkennen ließen. Bei der ersten Auswertung wurden die Trends der Ganglinien visuell bestimmt, also dem Augenschein nach, d.h. so, wie sie in die Ganglinien eingezeichnet wurden (Bild 2). Dabei wurde zwischen vier Typen unterschieden, nämlich 1) I: ansteigend – Erwärmung, 2) U: vorübergehend ansteigend – Stadtent­wicklung, 3) D: abnehmend – Abkühlung, und 4) S: gleichbleibend – weder Erwärmung noch Ab­kühlung.

Bild 2: Klassifizierung der Kurventypen

Die Ergebnisse dieser Auswertung sind in Tabelle 1 zusammengefasst: Die D- und S-Ganglinien ha­ben zusammen einen Anteil von 74,1 %, zeigen also für die Gesamtzeit keine wesentliche Erwärmung an; für die letzten Jahrzehnte sind dies 69,3% .

Tabelle 1:

 

Types of whole Temperature Curves

 

Dto., Types of Final Phase

Unit

 

No

I

U

D

S

WW

 

No

I

U

D

S

WW

Africa

(n)

48

9

3

9

27

36

 

32

14

 

6

12

18

America N

(n)

160

25

7

19

109

128

 

148

27

1

43

77

120

America S

(n)

120

31

11

29

49

78

 

107

16

4

22

65

87

Atlantic

(n)

24

7

2

15

17

 

20

3

2

15

17

Australia

(n)

40

12

1

4

23

27

 

39

2

1

14

22

36

Europe

(n)

127

22

10

13

82

95

 

117

48

4

13

52

65

Indic

(n)

8

1

1

6

7

 

8

6

1

1

2

Pacific

(n)

24

8

1

3

12

15

 

21

4

12

5

17

Russia

(n)

128

15

4

2

107

109

 

102

30

13

6

53

59

S-Asia

(n)

96

16

19

10

51

61

 

84

16

7

43

18

61

All

(n)

775

146

56

92

481

573

 

678

166

30

162

320

482

 

(%)

 

18,84

7,23

11,90

62,1

74,1

 

 

26,4

4,4

23,6

45,7

69,3

Im Jahre 2011 wurde die Klassifizierung der Ganglinien-Trends durch eine quantitative Auswertung ergänzt. Sie umfasste die Datensätze von 1110 Stationen. Dabei wurden die Trend­linien für die Ganglinien der Gesamtzeit und für die ca. 5500 Ganglinien der aufeinander folgenden Erwärmungs- und Abkühlungsphasen und deren Änderungsraten quantitativ bestimmt. Mit der Berechnung der Änderungen werden die Entwicklungen genauer erfasst, denn bei der visuellen Bestimmung der Trendlinie können sehr geringe Erwärmungen nicht erkannt werden, und gerade sie haben einen wesentlichen Anteil. Von den 1110 Stationen wird hier die Temperaturentwicklung zwischen 1895 und 2010 repräsentativ für die Welt an Hand von vier typischen Ganglinien gezeigt (Bilder 4 – 7).

Die Temperaturentwicklung korreliert mit der Sonnenaktivität (Bild 3), synchron zu ihren Änderun­gen haben sich Erwärmungs- und Abkühlungsphasen abgewechselt.

Bild 3: Temperaturentwicklung korreliert mit der Sonnenaktivität, aus [2]

Etwa vier Fünftel der Ganglinien von 1110 Stationen zeigen insgesamt eine Er­wärmung von wenigen bis einigen Zehntel Grad in 100 Jahren an. Die Ganglinie für die Gesamtzeit umfasst nacheinander abwechselnde Erwärmungs- und Abkühlungsphasen, die unterschiedlich lang sind. Die Bilder 4 und 5 repräsentieren die weltweit dominierende Entwicklung. Ein Einfluss der verstärkten anthropogenen CO2-Produktion und CO2-Emissionen nach 1960 ist nicht erkennbar.

Bild 4: Beispiel für Erwärmung im 20. Jh. mit längerer Erwärmung und kürzerer Abkühlung

 

Bild 5: Beispiel für Erwärmung im 20. Jh. mit kürzerer Erwärmung und längerer Abkühlung

 

In etwa einem Fünftel der Regionen hat sich die Ab­kühlung der Kleinen Eiszeit fortgesetzt, die zwischenzeitlichen Wechsel sind dort trotzdem erfolgt. Die Bilder 6 und 7 sind repräsentativ für diese Entwicklun­gen.

Bild 6: Beispielfür Abkühlung im 20. Jh. mit längerer Erwärmung und kürzerer Abkühlung

Bild 7: Beispiel für Abkühlung im 20. Jh. mit kürzerer Erwärmung und längerer Abkühlung

Die aus den GISS-Datensätzen entwickelten Temperaturganglinien zeigen auch für das 20. Jh., dass die aufeinander folgenden Abkühlungs- und Erwärmungsphasen jeweils unterschiedlich lang sind. Gegenwärtig befinden wir uns in einer Abkühlungsphase, die von ca. 72% der Stationen registriert wurde.

Im 20. Jh. haben zwei Warmphasen stattgefunden, die erste zwischen 1920 bis 1960 und die zweite zwischen 1980 und 1995. Die Warmphasen traten auch in den Regionen auf, die insgesamt eine Abkühlung erfuhren. Vor und zwischen den beiden Warmphasen und danach wurde es kühler. Die erste Warmphase dauerte länger und war intensiver. Ihr ist es im wesentlichen zu verdanken, dass die qualitative Trendanalyse der ersten Auswertung für etwa drei Viertel der Stationen keine Erwärmung ergeben hat, sondern Gleichbleiben oder Abkühlung

Die erste Warmphase ist von entscheidender klimapolitischer Bedeutung, denn die verstärkte Produktion und Emission von anthropogenem CO2 begann erst später und fiel auch noch mit einer Abkühlungsphase zusammen (Bild 3). Vermutlich war im Jahre 2010 die Diskrepanz zwischen Temperaturverlauf und CO2-Produktion noch nicht aufgefallen, und es wurde erst später realisiert, dass diese Fakten grundsätzlich das Modell einer menschengemachten Erderwärmung widerlegen. Um dieses Modell aufrecht erhalten zu können, musste die erste Warmphase reduziert werden, und das geschah mittels einer Veränderung der in der Vergangenheit gemessenen Temperaturwerte. Diese neuen „2012-Werte“ haben die 2010-Werte ersetzt, die jetzt im Internetportal von NASA-GISS nicht mehr vorhanden sind. Die Ganglinien in den Bildern 8a/b und 9a/b demonstrieren die Veränderungen beispielhaft für die Stationen Reykjavik und Palma de Mallorca.

Bild 8a: Die Warmphase 1920-1960 der 2010-GISS-Werte erzeugt für das 20. Jh. praktisch ein Gleichbleiben der Mitteltemperatur

 

Bild 8b: Kleinere Messwerte am Anfang und zwischen 1920 und 1960 sowie höhere Werte in den späten Jahr­zehnten erzeugen den Eindruck einer stärkeren Erwärmung

Bild 9a: Seit 1881 hat die Station Palma de Mallorca eine Abkühlung registriert

 Bild 9b: Mit der nach rechts abnehmenden Reduktion der Werte wird die Abkühlung zur Erwärmung

Solche Veränderungen wurden in einem großen Teil der Stationen vorgenommen. In dem als PDF-Datei beigefügten Bericht ‚GISS „korrigiert“ seine Temperaturdaten’ ist das ausführlich behandelt und mit mindestens 62 Paaren von Temperaturganglinien beispielhaft belegt: die ursprünglichen 2010-Ganglinien wurden den veränderten 2012 Ganglinien gegenübergestellt und sind damit direkt vergleichbar. Die Veränderungen hatten erkennbar das Ziel, die gemessenen geringen Erwärmungen zu vergrößern und die gemessenen Abkühlungen zu verringern oder gar in Erwärmungen umzuwandeln. Um die Veränderungen durchzuführen, wurden je nach Verlauf der ursprünglichen Ganglinie unterschiedliche Methoden angewandt, die in dem Bericht erläutert werden.

Wer sich heute im NASA-GISS-Internetportal an Hand der jetzt dort vorhandenen Temperaturganglinien und Datensätzen über die Temperaturentwicklung informieren möchte, erfährt, dass es fortschreitend wärmer wird, wie es das offizielle Klimamodell postuliert – „Modell“, weil es nicht bewiesen ist. Das Modell stimmt mit der wirklichen Entwicklung nicht überein, denn die ursprünglichen Daten zeigen, dass die hauptsächliche Erwärmung im 20. Jahrhundert vor der industriellen CO2-Produktion statt gefunden hat, von ihr also nicht verursacht worden sein kann, und dass nach 1995 eine neue Abkühlungsphase begann, obwohl der CO2-Gehalt der Luft weiter ansteigt. Damit der wirkliche Temperaturverlauf nicht in Vergessenheit gerät, wird er im zweiten Bericht behandelt, der ebenfalls als PDF-Datei beigefügt ist: ‚Was lehren die GISS-Originaldaten?’

Friedrich-Karl Ewert, EIKE; Prof. em. Dr. Geologe

weiterführende Links hier und hier über weitere GISS Manipulationen

Referenzen

[1] D’Aleo J. + Watts A.: Surface Temperature Records; Policy driven Deception? SPPI Original

[2] Robinson A.B., Robinson N.E., and Soon W.: Environmental effects of increased atmos­pheric

Carbon Dioxide. Journal of American Physicians and Surgeons, 12/2007, 27 Fig­ures

Related Files




Offener Brief an Jochem Marotzke – Direktor des MPI für Meteorologie in Hamburg

Herrn Prof. Dr. Jochem Marotzke

DKK Konsortium Max-Planck-Institut für Meteorologie

20146 Hamburg

Sehr geehrter Herr Marotzke,

Sie kommentierten Rezensionen zu meinem Buch „Die Lüge der Klimakatastrophe“ oder  ließen dies durchführen und erwarteten somit möglicherweise Antwort von mir. Sie taten Gleiches, sogar  mit gleichem Text, mit dem Buch  „Die Kalte Sonne“ Ihres Professoren-Kollegen, Herrn Vahrenhold. Beiden Büchern ist gemein, dass sie gegen die von organisierter Wissenschaft und Medien verkaufte Ideologie von einer Mensch-gemachten Klimakatastrophe argumentieren.

Vor vielen Jahren wurde als wissenschaftliches Ergebnis entdeckt, fixiert und gelehrt, dass auf Erden kein menschliches, tierisches oder pflanzliches Leben ohne CO2 möglich ist. Derzeit wird von Ihnen und Ihren Kollegen, den sich epidemisch vermehrenden so genannten Klimawissenschaftlern, wider besseres Wissen (teilweise bereits zwangsweise: Schulen), die Lüge verbreitet, dass CO2 ein Umweltgift sei. Entweder ist CO2 ein Lebenselixier, ohne das es kein Leben auf Erden gibt, was die Wissenschaft reproduzierbar bewies, oder es ist ein Umweltgift, was sie bislang nie bewies. Eines geht nur.

Herr Marotzke, sämtliche Institute oder Einrichtungen, die sich mit dem Thema Klima befassen, sind in der Hand des Staates. Bis auf eine winzige Ausnahme. Die nennt sich EIKE. Einverstanden? Alle Angestellten des Staates verrichten die Arbeit für ihren Arbeitgeber, so wie der Arbeitgeber dies verlangt, und wofür er auch bezahlt. Einverstanden? Das, was der Staat von seinen Beamten und Arbeitnehmern verlangt, ist Aus- und Durchführung seines Dienstplanes, genannt „Political correctness“. Einverstanden? Ich gehe davon aus, dass Sie als Mensch mit einem geschulten und funktionierenden Gehirn das Geschäft von der Ente mit der Mensch-gemachten Klimakatastrophe und dem bedauernswerten missbrauchten CO2 nicht glauben. Vom Nichtglauben bis zur Verkündung dieses Nichtglaubens, ist ein langer komplizierter Weg, an dessen Ende möglicherweise Verlust von Ansehen und Arbeitsplatz steht. Dies mussten viele Menschen im 3. Reich erfahren. Vahrenholt nahm dies in Kauf. Ihm gebührt die Ehre für Verweigerung der Käuflichkeit seiner Ansicht.

Da ich schon viel von Ihnen hörte, mehr jedoch las, hauptsächlich über den Unsinn mit der Schädlichkeit von CO2 fürs Klima, kenne ich Sie schon ganz gut. Auch Ihr Alter. Alter ist immer wichtig. Damit sind Rückschlüsse darauf möglich, wie derjenige tickt, mit dem man sich gerade befasst. Mein Ticken beurteilten Sie für die Öffentlichkeit so:  „… da fragt man sich ganz allgemein, ob einige „Experten“ älteren Semesters überhaupt noch wissen, wo sich die moderne Klimaforschung heute bereits befindet!“

Herr Marotzke, Ihr Ticken – entsprechend Ihrem Alter – beurteile ich so:  Na ja, der Arme saß ja, als die wichtigen Entschlüsse in den USA gefasst wurden, CO2 + Klima mittels der (bezahlten) Hilfen von Wissenschaft und Medien  zu nutzen, um ein „gigantisches, lang andauerndes, weltweites“ Geschäft zu entwickeln, noch auf der Uni. Entsprechend seiner (Marotzkes) Jugend, so dachte ich mir, wäre es fair, als wesentlich Älterer, dem mit WISSEN nicht ausreichend Bedachten Jüngeren, etwas Nachhilfe zu erteilen, wie, warum und von wem ein IPCC, eine später zum Weltklimarat sich selbst befördernde Institution ins Leben gerufen wurde. Steigen wir ein in medias res und machen eine kleine Reise in die Vergangenheit, in die USA.

Wir befinden uns im Jahre 1986. Die USA werden regiert von Ronald Reagan. Ein bekannter und wichtiger Abgeordneter im Repräsentantenhaus ist Al Gore (AG). Er vertritt den Bundesstaat Tennessee. AG verfügte über außerordentliche Beziehungen zu Wirtschaft und Finanzen. Sonst wäre er auch nicht Senator der USA geworden. Seine Zukunft (zum Geldmachen) sah er in aktiver Beteiligung am modernen Umweltschutz. Am 11. August 1986 schickte Rudolf Augstein (RA) sein international bekanntes Magazin DER SPIEGEL auf die Weltreise. Titelbild und Bericht über den Untergang des Kölner Doms im Nordseewasser beinhalteten den Schocker über die anstehende „Klimakatastrophe“. Am 11. September 1986 telefonierte ich mit RA. Das Gespräch beinhaltete: Ich: „ Was hast Du Dir denn dabei gedacht?“ Augstein: „Aufwecken, munter machen.“ Ich: „Und Angst machen“. Augstein: „Ohne Angst der Massen, keine Bewegung der Massen.“

Gores Bestrebungen gingen dahin, ein politisches Instrument zu schaffen, um mehr staatlich unterfütterten Einfluss zur Bekämpfung der fiktiven Klimakatastrophe zu erlangen. Ein solches Arrangement sollte über seine Beziehungen ein Instrument werden, das ihm Einkommen entsprechender Größenordung für lange Zeit gewährt. Dazu musste das Thema Umwelt-Klima nationalisiert werden. Ablauf: Gore inspirierte James Hansen (JH), Direktor des „Goddard Institute for Space Studies“ (GISS) in New York und Freund von ihm, seinen Einfluss als DER Klimaexperte der USA geltend zu machen. Plan: Eine Anhörung vor dem Kongress zur Frage „Hat die Klimasituation Einfluss auf die Entwicklung der USA?“ Colorados Senator Tim Wirth (TW), Freund von James Hansen, nimmt die Angelegenheit in die Hand.

Zur Anhörung vor dem Senat in Washington, die mir rechtzeitig annonciert wurde, fliege ich mit einem Freund von Fort Lauderdale am 22. Juni 88 nach Washington National Airport. Am nächsten Tage soll das „Open Hearing“, die Anhörung von Hansen, sein. Das Meeting selbst, vor den Senatoren der USA, ist keine Sensation. Gore und TW sind anwesend. Der Sitzungssaal ist stickig und unglaublich warm und keine AC funktioniert. Es sind die extra ausgesucht heißesten Tage des Jahres. Entsprechend lethargisch ist die Beteiligung und Befragung von Hansen. Hansen spult seinen Vortrag ab. Wie ich später von meinem Freund T.C. (Chefpilot der AIR FORCE ONE) erfahre, wurde vor dem Hearing zwischen Al Gore und TW vereinbart und angeordnet, alle ACs abzuschalten. Dies, damit die Anwesenden möglichst keinen Appetit auf Sitzungsverlängerung durch unangenehme Fragen entwickeln und Hansen ins Stottern geraten würde.

T.C. und ich, wir flogen am Wochenende nach Nassau zum Motorbootrennen. Dort erfuhr ich von ihm, der vorher AG und JH nach New York zurück flog, über die Hintergründe der „funktionsunfähigen“ Lüftungsanlage im Sitzungssaal. Als Ergebnis des Hearings wird von der Regierung angeordnet, die derzeitigen und künftigen Forschungsergebnisse zum Klima bei UNEP zu konzentrieren. UNEP ist der Umweltarm der UNO und wurde damals von den Rockefellers und ihrem Intimus und Finanz-Genie Maurice Strong, der wiederum bestens befreundet mit Al Gore war und meines Wissens noch heute Vorstand der Rockefeller Stiftung ist, geleitet. Es wird beschlossen, eine seitwärts der UNEP agierende neue Organisation, das spätere IPCC, zu schaffen. Die Organisation erhält, von Al Gore und Maurice Strong erarbeitet, zwei politische Aufgaben:

Festzustellen, dass die Erde einer Klimakatastrophe entgegengeht und, 
dass die Klimakatastrophe Mensch-gemacht ist.

Bert Bolin, ein Vetter von mir, wird 1. Präsident des IPCC. IPCC liefert in unregelmäßigen Abständen seine Weltklimaberichte. Diese setzen sich wiederum aus statistischen Unterlagen zusammensetzen, die von 4 internationalen Instituten geliefert werden und mit fabrizierten Temperaturskalen und Zubehör gefüttert sind: Dem Giss (J. Hansen), dem CRU (Teil der Universität Ostengland unter Phil Jones) und dem ESSC (Michael E. Mann), Director Earth System Science Center der University of Pennsylvania, sowie einem Wachhund der UNEP und des IPCC für Deutschland, dem in Kassel errichteten Klimainstitut (Center for Environmental Systems Research University of Kassel), mit seinem Chef Prof. Joseph Alcamo. Langjähriger Mitarbeiter bei UNEP und IPCC, bester Freund von Maurice Strong und Al Gore. Da der letzte (1997) fertige und unterzeichnete Weltklimabericht vom IPCC eine Reihe von Hinweisen darauf enthielt, dass Passagen, die ausdrücklich einen vom Menschen verursachten Klimawandel verneint hätten, wurden diese Kapitel von Ben Santer entfernt. Der somit im Sinne der Klimahierarchie des IPCC und der Länder gefälschte Weltklimabericht, ging damit als letzter Zustandsbericht des IPCC den Delegationen der Industrienationen, anlässlich der Weltklimakonferenz in Kyoto im Dez. 1997, zu. Da dieser Bericht gefälscht und somit keine Unterschriften hatte, ordnete Alcamo aus Kassel per e-mail an seine Domestiken in Kyoto das Folgende an: 


„The media is going to say „1000 scientists signed“ or „150 signed“. No one is going to check if it is 600 with PhDs versus 2000 without. They will mention the prominent ones, but that is a different story. Conclusion − Forget the screening, forget asking them about their last publication (most will ignore you.) Get those names!”

So wurden die Unterschriften von 100en von Menschen erbeten und verwendet, die gerade erreichbar waren. Tellerwäscher aus den Nachbarlokalen, Schuhputzer von nebenan etc. Dieses inszenierten Ihre Kollegen, Herr Marotzke. Publiziert wurde dies natürlich nicht; genau wie das Desaster mit den Entdeckungen der Fälschungen für den Hockeystick, die Dokumentierung des Inhaltes von über 1.000 e-mails des CRU, voll von Klimadatenfälschungen. Überall, wo man bei der Kombination von Klima und CO2 hinfasst, Lüge und Betrug. Und alles wird vertuscht. Unter den Tisch. In Gemeinsamkeit beider Institutionen, Medien und Wissenschaft. Wie sagte Popper vor langer Zeit?: Sei ein Experte in Deinem Fach. Dann werden die anderen Dich schützen. Du musst sie dann natürlich auch schützen.

Übrigens: Al Gore wurde der erste Karbon-Milliardär*. Von jedem CO2-Zertifikat bekam und bekommt er über den Emissionsrechtehandel seine Provision. Bei jeder Bewegung, egal ob vor oder zurück, muss auf Umwegen mit dem Nobelpreisträger abgerechnet werden. Klever, nicht wahr? Klima – CO2? Um was es geht es? Nur um gigantische Geschäfte. Was meinen Sie, wann und von wem es arrangiert und speditiert wurde, dass Griechenland in die EU kam und den EURO nutzen dürfte? Wenn Sie erfolgreich schnüffeln, kommen Sie zu den gleichen Figuren, die das IPCC, die UNEP, die Öl- und Baumwoll- und Kupferpreise etc. kontrollieren.

Jede Menge Energie steht den Winzlingen, den Menschen auf der Erde zur Verfügung. Gerade in Rumänien, im Schwarzen Meer, in Polen im Schiefergebirge, in Mozambique, vor Israel, Vietnam etc. gefunden und annonciert. Weswegen 40.000 oder mehr hässliche Windmühlen? Schleswig-Holstein, Land der Horizonte. Weswegen eine wirtschaftlich total abwegige Solarnutzung? Geld, Geld, Geld. Sir Nikolas Stern, früherer Chefvolkswirt bei der Weltbank und Mitaufbereiter von Geschäften ums Klima + CO2, deswegen auch von der Britischen Königin geadelt, forderte 2006 noch 5 Billionen € Subventionen (des Bürgers) zur Reparatur des Klimas. Connie Hedegaard, Klimakommissarin der EU, erhöhte vor wenigen Monaten auf 11 Billionen. Man sieht: Das Geschäft funktioniert. Am besten in Deutschland, denn: Kein Volk der Welt teilt die künstlich inszenierte CO2-Angst so, wie der Michel.

Machen Sie weiter mit? Beim Geldscheffeln für den Staat? Mittels CO2? Für jeden fürs Klima unnötig rausgeschmissenen Euro 19% MWST. Nettoooooooo. Auch nach Kenntnisnahme dessen, wie und wozu IPCC geschaffen wurde? Besser wäre es, Sie eiferten Vahrenhold nach.

Wenn die Bearbeitung der Bevölkerung zur Akzeptanz eines Diktums komplett in der Hand des Staates liegt, muss in jedem Gehirn die Alarmglocke klingeln. Erstens deswegen, weil ein Staat, dessen hierarchische Strukturen das Gemeinwesen dermaßen verschuldeten, wie geschehen, zum Überleben dieser Strukturen in praxi jeden Euro benötigen, der sich auftreiben lässt. Zweitens, weil in einer solchen Situation – zum Geldkassieren – gelogen wird, dass sich die Balken biegen.  Das Instrument, das generell allen verschuldeten so genannten entwickelten Staaten,  via UNO – UNEP – IPCC – Abkommen von Kyoto –   überreicht wurde, nennt sich „Bekämpfung von AGW = Menschgemachte Klimaerwärmung.

Mit der Vermutung, dass Sie das einzige Buch, was inhaltlich hinter die Kulissen der Geburt der Weltklimakatastrophe und deren Kommerzialisierung schaute und von dort berichtete, gar nicht kennen, stehe ich nicht allein da. Ich vermute, dass Sie das Buch nicht lasen. Sie finden dort die Beantwortung aller Fragen zu: Wer beauftragte wie und wo und für wen einen Weltklimarat, ein IPCC zu installieren? Sie sollten es doch einmal komplett lesen, das Buch. Hier der Titel zur Erinnerung: „Die Lüge der Klimakatastrophe – und wie der Staat uns damit ausbeutet“.

Ein langer Brief heute. Kürzer ging nicht, um Sie zu bewegen, vom Saulus zum Paulus zu werden.

Mit Freundlichen Grüßen von

Hartmut Bachmann

Der Brief an Prof. Marotzke word auch hier veröffentlicht

* Anmerkung der Redaktion. Hier irrt H. Bachmann. Das war wohl das hochgesteckt Ziel des A. Gore, jedoch schaffte er es nur zum zigfachen Millionär, weil die von ihm initiierten CO2 Emissionsbörsen, bis auf den Londoner Ableger nicht erfolgreich waren. Er konnte seinen Anteil aber rechtzeitig gewinnbringend an eine der Banken veräußern.




Postmoderne Wissenschaft und die wissenschaftliche Legitimität des Entwurfs der Arbeitsgruppe 1 zum 5. Zustandsbericht des IPCC

Das IPCC vermutet, dass die anthropogene globale Erwärmung (AGW) stattfindet und dass sie durch die Akkumulation menschlichen CO2-Ausstoßes verursacht wird. Bis heute jedoch wurden kein handfester wissenschaftlicher Beweis, ja nicht einmal starke empirische Hinweise für diesen Effekt präsentiert, weshalb dieser Effekt ein Objekt der Spekulation bleibt. Dennoch haben Reaktionen gebildeter Gesellschaften und von Regierungsagenturen auf die IPCC-Berichte bisher die Meinung weit verbreitet, dass diese globale Erwärmung gefährlich (DAGW) sein könnte und dass Maßnahmen ergriffen werden sollten, den Eintrag menschlichen CO2 in die Atmosphäre zu begrenzen.

Dieses Arbeitspapier analysiert vor allem die politischen Maßnahmen, die Verfahren und die Philosophie der Wissenschaftler und der Regierungsfunktionäre des IPCC im Licht der traditionellen wissenschaftlichen Prinzipien.

Es konzentriert sich auf:

  • die generelle Darbietung der IPCC-Berichte mit ihrer Terminologie zur Wahrscheinlichkeit, selbsternanntes Expertenwissen und die Nichtbeachtung alternativer, unabhängiger Standpunkte
  • – aktuelle fragwürdige Praktiken der Klimamodellierung
  • – vernachlässigte (fast vergessene) Einsichten aus der klassischen Klimatologie
  • – die fehlende Aufmerksamkeit wichtiger neuer Ergebnisse der Naturwissenschaften, die in der Klimaforschung anzuwenden erwartet wird, wie z. B. die Komplexitätstheorie
  • – die fragwürdige Qualität gegenwärtiger Studien der Literatur.

Es wird gefordert, dass Studien der Zustandsberichte durch individuelle Nationen durchgeführt werden, weitgehend unabhängig vom IPCC, wie Indien es bereits angekündigt hat. Diese Begutachtungen werden am Besten von erfahrenen und etablierten Wissenschaftlern durchgeführt, deren Reputation in traditionellen Disziplinen zur Untermauerung der Klimawissenschaft liegt, besonders Physik, Chemie, Geologie, Astronomie, Sonnenphysik und Meteorologie. Die Verfahren sollten strikt den traditionellen Prinzipien der Wissenschaft folgen und sich auf die wissenschaftliche Methodik und empirische Beweise hinsichtlich der hypothetischen DAGW konzentrieren.

Einführung

Viele hundert Leitautoren, beitragende Autoren und Begutachter haben am jüngsten Zustandsbericht der begutachteten Literatur zur Klimaänderung des IPCC mitgearbeitet. Der Entwurf für den 5. Zustandsbericht der Arbeitsgruppe 1 (WG 1 AR 5)ist eine eindrucksvolle Zusammenfassung und Aufstellung von in wissenschaftlichen Journalen veröffentlichten Studien bis 2011, einschließlich einiger, die auf Beobachtungen in der Realität basieren, zusammen mit einer Diskussion der möglichen Interpretationen dieser Literatur hinsichtlich der DAGW-Hypothese. Auf den ersten Blick kann man den Eindruck gewinnen, dass hier das ‚vollständige Werk’ der wissenschaftlichen Gemeinschaft weltweit sowie eine umfassende Zusammenfassung der gegenwärtigen Forschungsliteratur präsentiert wird. Jedoch:

  • Die vorherrschende Hypothese lautet, dass DAGW stattfindet. Diese Hypothese wird seit vielen Jahren durch zahlreiche unabhängige Wissenschaftler in Frage gestellt. Diese Wissenschaftler wurden nicht eingeladen, an der Vorbereitung des 5. Zustandsberichtes teilzunehmen.

  • Die zitierte wissenschaftliche Literatur im Entwurf des 5. Zustandsberichtes ist selektiv, und zwar zugunsten von Studien die die DAGW-Hypothese stützen, und selbst diese wurden selektiv analysiert, um zum gleichen Ergebnis zu kommen (3)

Diese beiden zugrunde liegenden Verzerrungen geben den Ton an, den die Autoren des AR 5 vermitteln möchten. Deren Botschaft lautet, dass die gegenwärtigen Manifestationen der Klimaänderung Vorboten einer bisher nicht da gewesenen und bedrohlichen globalen Erwärmung seien, hervorgerufen durch die anthropogenen Emissionen von CO2, das sich in der Atmosphäre ansammelt. Allerdings bleibt dies trotz der endlosen Wiederholungen seitens der Befürworter eine unbewiesene Hypothese, mit der viele Wissenschaftler aufgrund ihres Wissens um widersprechende empirische Beweise nicht übereinstimmen. Die DAGW-Hypothese basiert auf der unbestrittenen physikalischen Tatsache, dass CO2 infrarote Strahlung (IR) absorbiert und emittiert. Die meisten Kritiker der DAGW-Hypothese bezweifeln jedoch, ob die gemessenen und projizierten Änderungen der CO2-Konzentration signifikante Auswirkungen auf das komplexe Klimasystem haben, wie es die DAGW-Befürworter propagieren. In diesem Zusammenhang betonen die Kritiker eine Anzahl von Beobachtungen, die der AGW-Hypothese direkt widersprechen. Aber die Erwähnung dieser Phänomene fehlt auffallend in früheren Berichten der Arbeitsgruppe 1 (WG 1) und auch im Entwurf zu AR 5.

Viele Details wissenschaftlicher Beweise, die nicht mit der IPCC-Agenda konform gehen, sowie zahlreiche relevante Diskussionen finden sich in den Berichten des NIPCC ebenso wie auf zahlreichen wissenschaftlichen Blogs. Beispiele angezweifelter IPCC-Wissenschaft sind dessen Überinterpretation instrumentell gemessener Temperaturtrends, das Scheitern an Klimaänderungen in geologischen Zeiträumen, die Missachtung von Eisveränderungen im Verhältnis von Arktis und Antarktis (d. h. global im Gegensatz zur Betrachtung des arktischen Eises allein), das Scheitern des IPCC, auch nur ansatzweise einen Beweis für eine Beschleunigung des Meeresspiegelanstiegs zu erbringen sowie die überaus verengte und spekulative Interpretation der Veränderungen von Lebensräumen bestimmter Spezies durch die globale Erwärmung.

Im Anhang A werden diese Punkte noch etwas detaillierter erläutert, aber mehr noch als diese und andere Zweifel an der DAGW-Hypothese wieder aufzunehmen wird sich diese Studie stattdessen auf die wissenschaftliche Methodik konzentrieren und darauf, was essentiell im Entwurf des AR 5 fehlt sowie auf die bei der Vorbereitung angewandte Philosophie. Die Schlussfolgerung, die von der wissenschaftlichen Gemeinschaft im Ganzen ebenso wie von den politischen Entscheidungsträgern beachtet werden, müsste lauten, dass der Entwurf zum AR 5 des IPCC unzureichende Objektivität aufweist und dass die für die Basis politischer Entscheidungen unabdingbare ‚traditionelle’ wissenschaftliche Ausgewogenheit fehlt. Bedauerlicherweise enthält der Bericht viele Vorgehensweisen einer ‚postmodernen’ Annäherung an die Wissenschaft, wobei die Regeln der Logik nur im Zusammenhang mit den gewählten kulturellen Paradigmen einer vorgegebenen Denkschablone gelten.

Einige charakteristische Besonderheiten des IPCC-Entwurfs

CO2 als wesentlicher Treiber für steigende Temperatur

Alle vierzehn Kapitel des IPC-Berichtes gehen von der Annahme aus, dass das CO2 ein dominanter Treiber der globalen Temperatur ist. In manchen Kapiteln wird sogar behauptet, dass es inzwischen zunehmende Beweise für das CO2 als Ursache steigender Temperatur und anderer Symptome der Klimaänderung gibt. Allerdings finden sich in den relevanten Passagen und auch im gesamten Bericht an keiner Stelle Beschreibungen für solche Beweise.

Der ‚Beweis’, auf den sich das IPCC bezieht, ist nicht empirischer Natur, sondern basiert weitgehend auf schon vorher präsentierten Hypothesen zum Prozess des Strahlungstransportes innerhalb eines atmosphärischen Körpers.

Aber wie funktioniert dieser Prozess in der realen Atmosphäre weltweit? Um diese Frage zu beantworten, verwenden die Modellierer des IPCC deterministische allgemeine Zirkulationsmodelle (General Circulation Models GCMs). Diese Modelle, bei denen der klimatreibende Effekt des CO2 vorgegeben ist, werden auf Supercomputern gerechnet. Die DAGW-Befürworter argumentieren, dass die heutige beobachtete Klimaänderung nicht ohne einen menschlichen treibenden Effekt erklärt werden kann. Da die virtuelle Welt der Modelle sich sehr unterscheidet von der realen Welt, einschließlich einer Serie von ‚was wenn’-Experimenten, weisen Kritiker darauf hin, dass der hypothetische Einfluss des CO2 auf das globale Klimasystem spekulativ bleibt. Eine fundamentale Kritik der gegenwärtigen Generation von GCMs wird im nächsten Abschnitt geübt.

Neben solcher Kritik ist es jedoch augenscheinlich, dass Experimente mit GCM-Modellen einem starken und nützlichen heuristischen Ziel dienen. Ihr Gebrauch als ein heuristisches Werkzeug ist daher vollkommen angemessen. Es ist Aufgabe der GCMs zu zeigen, was das IPCC „Projektionen“ der zukünftigen Temperatur nennt, was jedoch dann unvermeidlich von der Presse, der Öffentlichkeit und von Politikern als „Vorhersage“ angesehen wird. Dies steht im Gegensatz zur bewährten wissenschaftlichen Praxis.

Der Vorhersagewert und andere Defizite der GCMs sowie die nicht perfekte Darstellung eines Modelles ist natürlich kein Beweis dafür, dass es komplett falsch liegt. Und in ähnlicher Weise kann das vermutete Fehlen eines starken CO2-Einflusses auf das Erdklima, wie es DAGW-Kritiker anführen, ebenfalls als spekulativ angesehen werden. Wie auch immer, derzeit erleben wir, dass die empirischen Daten zeigen, wie sehr früher präsentierte Projektionen in die Zukunft in Zusammenhang mit anthropogenem CO2 falsch waren.

Die Abweichung eines Modells von Beobachtungen ist ein wissenschaftliches Signal, das (mit der Haltung zu Nebengedanken, die Wissenschaftler anstreben) weitere gründliche und innovative Studien erfordert.

Wahrscheinlichkeitsterminologie

Ein anderer bemerkenswerter Prozess des IPCC ist die Anweisung an die Autoren, dass sie ihre Schlussfolgerungen in der Terminologie einer qualitativen (d. h. meinungsbasierten) Wahrscheinlichkeitsskala ausdrücken. Dieser Umstand wird aus der folgenden Tabelle ersichtlich, zu finden in der Guidance Note for Lead Authors für den 4. Zustandsbericht, ausgegeben 2005 4:

Tabelle 4: Wahrscheinlichkeitsskala

Dieses Prozedere führt zu einem Eintrag subjektiver Beurteilungen durch eine Gruppe Wissenschaftler, die im Endeffekt durch „Handzeichen“ zu ihrem Urteil kommen. Ein solches Prozedere gehört in die Bereiche soziale und politische Wissenschaft und sollte in einer echten Studie der etablierten Wissenschaft keine Rolle spielen (5).

Tatsächlich, die Anwendung dieser postmodernen Technik in den jüngsten IPCC-Berichten reicht aus, um diese als seriöse wissenschaftliche Dokumente zu disqualifizieren.

Selbsternannte Experten

Bedauerlicherweise wird der Gebrauch einer nicht objektiven Beurteilung nach Pseudo-Wahrscheinlichkeiten nicht mehr als eine ungewöhnliche Praxis in der Entwicklung von Wissenschaftspolitik in vielen wissenschaftlichen Institutionen angesehen. Ob eine daraus resultierende Befürwortung sinnvoll ist oder nicht, hängt von der Glaubwürdigkeit ab, mit der Wissenschaftsberater (und in der Folge politische Entscheidungsträger) dem Expertenwissen der an dem ‚Konsens‘ einer bestimmten Sache beteiligten Wissenschaftler Tribut zollen. Werden diese Wissenschaftler als glaubwürdig angesehen, werden die Politiker den ‚Führern‘ folgen, welche im Falle des IPCC die Leitautoren der Berichte sind.

Aber warum solche Leute als von vornherein glaubwürdig angesehen werden, kann und muss hinterfragt werden. Liegt es einfach an ihrem selbst verliehenen Expertenstatus oder weil sie einige außerordentliche Einsichten in sehr komplexe Zusammenhänge der Klimaänderung an den Tag gelegt haben? Hinsichtlich des IPCC ist Ersteres sicherlich zutreffend (weil bis jetzt keiner der vielen Alarmisten des IPCC widerlegt worden ist). Mehr noch, es gibt eine unglückliche Tendenz, auf extreme Wetterereignisse zu deuten, die zwar nicht spezifisch vorhergesagt worden waren, die aber als etwas hingestellt werden, was man von einer globalen Klimaänderung zu erwarten hätte.

Es fehlt die Achtung vor alternativen, unabhängigen Ansichten

Unabhängige Wissenschaftler reagieren besonders empfindlich auf die Arroganz und Intoleranz gegenüber alternativen Ansichten, die den selbsternannten Klimaexperten des IPCC unter die Augen kommen. Personen, die von sich behaupten, überragendes Wissen auf jedem Gebiet öffentlicher Politik zu haben, nicht nur hinsichtlich der globalen Erwärmung, und die aktiv an politischen Aktivitäten teilnehmen, und die verhindern sollen, dass ihre Ansichten unabhängig begutachtet werden (wie es die IPCC-Wissenschaftler immer getan haben), sollte man mit Argwohn betrachten. Das zur-Schau-stellen solcher Verhaltensweisen lässt signifikante Zweifel aufkommen über diejenigen, die dem Stall der IPCC-Berater angehören. Es muss jedoch anerkannt werden, dass solche Gefühle auf Gegenseitigkeit beruhen, und das viele Protagonisten der DAGW der Meinung sind, dass ihre Kritiker einfach ‚Leugner‘ dessen sind, was sie als etablierte Wissenschaft ansehen.

Dieses beiderseitige Fehlen von Respekt hat sich als ernstes Hindernis einer ‚normalen’ wissenschaftlichen Diskussion zwischen den Protagonisten und Antagonisten der DAGW in der Vergangenheit herausgestellt. Und bedauerlicherweise liefert der neue Entwurf des 5. Zustandsberichtes mit seinen unverblümten Statements darüber, was hinsichtlich der angenommenen gefährlichen Erwärmung wahrscheinlich ist oder nicht, keine Hinweise darauf, dass eine solche Diskussion demnächst in Gang kommt.

Der wichtigste Punkt einer Verhinderung dieser Diskussion lautet, dass der Stil des Entwurfs von AR5 diesen eher als ein politisches als ein wissenschaftliches Dokument kennzeichnet, weil er innerhalb des Rahmens eines speziellen kulturellen Paradigmas erstellt worden ist. Dies ist so trotz einer gründlichen und manchmal gut zusammengefassten Selektion der begutachteten Klimaliteratur. Demnach können die AR5-Berichte der Arbeitsgruppen 2 und 3, die den Erwartungen zufolge auf den Entwürfen der hier begutachteten Arbeitsgruppe 1 aufbauen, auch nicht als wohlüberlegte, ausgewogene, akkurate und leidenschaftliche Analysen der Klimawissenschaft und der erforderlichen sinnvollen Politik angesehen werden.

Modellieren der Klimaänderung

Modellieren ist zu einem bedeutenden Werkzeug in allen naturwissenschaftlichen Disziplinen geworden – und mit zunehmendem Erfolg und Wert wegen der großen Fortschritte, die die Programmierung und die Technologie von Computern gemacht haben. Modelle werden inzwischen routinemäßig benutzt, um komplexe Prozesse besser zu verstehen, vor allem solche, die nur durch unlösbare, nichtlineare Differentialgleichungen beschrieben werden können, und die daher einer modellbasierten Simulation bedürfen, um verstanden zu werden.

Der Erfolg von Modellierungen in den Bereichen Meteorologie, vor allem Wettervorhersage, hat sich stetig vergrößert. Aber gerade auch speziell in diesem Bereich hat sich eindeutig herausgestellt, dass die Vorhersagbarkeit wegen der chaotischen Natur des komplexen atmosphärischen Systems begrenzt ist. Vorhersagen lassen sich höchstens etwa eine Woche im Voraus machen. Nach diesem Zeitraum werden chaotische Variationen und wachsende Fehler die Erfolge kürzerfristiger Vorhersagen überkompensieren. Aufgrund theoretischer Überlegungen ist heute allgemein akzeptiert, dass die „eine-Woche-Grenze“ heutiger Vorhersagemodelle nicht mehr wesentlich ausgeweitet werden kann, zumindest nicht in den Klimazonen der gemäßigten Breiten mit ihrer hohen atmosphärischen Variabilität hinsichtlich von Hoch- und Tiefdruckgebieten.

Was also lässt die Klimawissenschaftler glauben, dass sie Klimavorhersagen für Jahrzehnte im Voraus machen können? Mit Hilfe von GCMs, die aus den gegenwärtig benutzten Modellen zur Wettervorhersage abgeleitet worden sind, nahmen die Modellierer an, dass die Mitte des 19. Jahrhunderts ein guter Startpunkt für das Studium künftiger Klimaänderungen ist, und dass ihre Algorithmen bei diesem Startpunkt akkurat das Mittel der globalen Klimaänderung berechnen können im Gegensatz zu der hoch variablen (und über eine Woche hinaus unbekannten) Entwicklung des Wetters. Mehr noch, jedem einzelnen Modell wird vorgegeben, dass ein signifikanter Teil der globalen Erwärmung auf einem Antriebseffekt durch CO2 beruht.

Diese Vorgehensweise ist naiv. Sie ist wahrscheinlich auch fundamental falsch.

In historischen und geologischen Zeiträumen sind Klimaänderungen als ein natürliches Phänomen etabliert. Klimaänderungen gibt es in allen Zeitbereichen bis zu einer Million Jahre, und es führt in die Irre, zu Analysezwecken eine einzige 150 Jahre lange Periode aus ihrem Zusammenhang zu reißen und zu isolieren (darunter solare Zyklen von 11, 22, 80, 200 und 1500 Jahren ebenso wie gut bekannte multidekadische Variationen vieler unterschiedlicher Oszillationen zwischen Ozean und Atmosphäre). Daher sollte man zuerst versuchen, Klimaänderungen in Relation zu diesen natürlichen Phänomenen zu modellieren. Stattdessen werden fast alle Klimazyklen von der gegenwärtigen Generation der GCMs zugunsten des CO2-Zusammenhangs außen vor gelassen.

Erst nach einer vernünftigen Analyse aller bekannten natürlichen Variationen der Vergangenheit könnte es möglich sein, die mögliche Bedeutung eines verstärkten CO2-Effektes zu erkennen.

Die natürliche Variation wird im nächsten Abschnitt detaillierter beschrieben.

Klassische Klimatologie

Das ‚Modellieren’ von der oben beschriebenen Art wurde auf einer breiteren Grundlage in qualitativer und beschreibender Weise von klassischen Klimatologen vor 1965 durchgeführt. Dabei fanden sie heraus, dass die historische Klimavariabilität zum großen Teil auf Verschiebungen der sechs großen Windsysteme des Planeten beruhen, Verschiebungen, die oft mit multidekadischen Klimaoszillationen zusammen hängen (6).

Wenn sich verändernde Strömungssysteme tatsächlich in historischen Zeiträumen der wesentliche Treiber globaler Klimaänderungen waren, muss jede Auswirkung von Änderungen der Zusammensetzung der Atmosphäre, z. B. durch die Zunahme von CO2, auf das Klima zuvor deren Auswirkung auf die Windzonen modelliert werden. Daran sollte sich die Suche nach den natürlichen Variablen anschließen, die diese Änderungen hervorgerufen haben könnten. Sollte diese Modellierung zufrieden stellende Ergebnisse und Erklärungen für die Veränderungen der Vergangenheit liefern, dann und erst dann ist es die Zusammensetzung der Atmosphäre, die untersucht werden kann.

Andere wichtige Erkenntnisse aus der klassischen Klimatologie, die durch jüngste Beobachtungen bestätigt worden sind, scheinen ebenfalls vom IPCC ignoriert zu werden. Zum Beispiel die Bedeutung der ungleichen Strahlungsverteilung durch die Sonne. Sie würde die Temperatur in der Äquatorzone bis fast 100°C steigen lassen, wenn es keine konvektive Umverteilung der Wärme über den Planeten durch Winde, die Meeresströmungen und – allgemeiner – die Wasserzyklen geben würde (7). Dieses Verständnis legt nahe, dass das mittlere globale Klima, falls ein solches Konzept überhaupt irgendeine Bedeutung hat, großenteils durch meteorologische und physikalische Prozesse um den Äquator und vor allem in den tropischen Ozeanen bestimmt wird.

Konvektion ist für den Wärmetransport genauso wichtig wie Strahlung

Anstatt detailliert den wichtigen Effekt der lokalen Überhitzung in den Tropen und deren Entschärfung durch den konvektiven Wärmetransport zu erwägen, ziehen die AGW-Befürworter des IPCC die Metapher vor, dass der Planet ohne das, was sie als Treibhauseffekt bezeichnen, ein Eisball wäre. Dieser Glaube basiert auf dem Gedanken eines allgemeinen planetarischen Energiebudgets, dessen Analyse darauf hindeutet, dass die gesamte Sonnenenergie, die die untere Atmosphäre (die Troposphäre) und die Erdoberfläche erreicht, nicht ausreicht, ein mittleres globales Temperaturniveau von 15°C zu halten, es sei denn, ein Wärmepuffer in der Troposphäre agiert als eine Art Decke. Die sich daraus ergebende Dämmung wird (der Öffentlichkeit) dann mit der Metapher eines Treibhauses erklärt. Diese Metapher führt erheblich in die Irre, weil sich ein Treibhaus gravierend von der freien Atmosphäre unterscheidet, wird doch in einem Treibhaus die Wärme durch Unterdrückung der Luftzirkulation (d. h. der Konvektion) zurück gehalten.

In Wirklichkeit stellen konvektive Prozesse einen der wichtigsten Einflüsse auf den Wärmehaushalt der Erde dar und spielen eine bestimmende Rolle bei der Regelung der Temperatur an der Erdoberfläche und in der Troposphäre. Nichtsdestotrotz ist auch aus der klassischen Klimatologie offensichtlich, dass die Atmosphäre Wärme aus Strahlung einfängt, sowohl die von der Sonne kommende als auch die (im thermischen Infrarot) ausgehende Strahlung von der Erdoberfläche. Das Ergebnis sind ein Druckgradient und ein Temperaturgefälle – letzteres mit einer Bandbreite von im Mittel 15°C an der Oberfläche bis -50°C in einer Höhe über 10 km. Das theoretisch berechnete Temperaturgefälle wird jedoch fortwährend ‚gestört’ durch lokale Wetterereignisse einschließlich der horizontalen Verlagerung von Hoch- und Tiefdruckgebieten. Die Oberfläche kann sich manchmal beim Fehlen solcher Bewegungen stark erwärmen (40°C), nur durch Dämmung.

Das Dämmungspotential der Troposphäre erklärt sich der AGW-Hypothese des IPCC zufolge fast ausschließlich durch Strahlungstransportprozesse, welche man in einer Luftsäule von Infrarot absorbierenden und emittierenden Molekülen erwartet. Andere (skeptische) Wissenschaftler erachten diese Beschreibung als viel zu eng und weisen darauf hin, dass andere meteorologische und physikalische Prozesse in aktuellen Klimatologie-Fachbüchern gut repräsentiert sind – von denen die meisten den erwarteten verstärkten ‚Treibhauseffekt’ viel reservierter sehen als das IPCC.

Es gibt zahlreiche Bücher und Artikel von ‚Skeptikern der globalen Erwärmung’, die die AGW-Hypothese aufgrund physikalischer und meteorologischer Gegebenheiten in Frage stellen. Zwar werden Nicht-Strahlungsmechanismen wie z. B. unterschiedliche Arten der Konvektion, vom IPCC nicht vollständig in Abrede gestellt, doch sind sie im Vergleich mit dem Verständnis von Klimaänderungen einer größeren wissenschaftlichen Gemeinschaft erheblich unterrepräsentiert. Der Disput konzentriert sich auf eine unterschiedliche Interpretation der gegenseitigen Ursache-Wirkung-Relation zwischen Luft- und Meeresströmungen auf dem Planeten und auf die optischen Eigenschaften der Atmosphäre, welche wiederum einen bestimmten Temperaturgradienten über Breite und Höhe vorgeben.

Es ist zu erwarten, dass positive und negative Rückkopplungen in den oben erwähnten Beziehungen eine Rolle spielen. Die meteorologische Umgebung versucht fortwährend, einen Gleichgewichtszustand zu erreichen, was aber ständig durch verändernde Kräfte unterbrochen wird. In einem dynamischen System ist zu erwarten, dass dies im globalen Maßstab zu komplexen Oszillationsprozessen und nicht zu einem festgelegten Gleichgewicht führt. Letzteres wird bei der DAGW-Hypothese empfohlen, indem man Modelle für unabhängige ‚Klimaantriebe’ nutzt, zum Beispiel die Variabilität der Sonne sowie Änderungen des Aerosols und der optischen Dichte der Atmosphäre.

Die Missachtung einer wichtigen Errungenschaft der Naturwissenschaften

Die endgültige veröffentlichte Version des Zustandsberichtes 5 des IPCC wird zweifellos mit ähnlichen Kritiken bedacht, die oben umrissen worden sind. Im Besonderen wird die Proklamation im Berichtsentwurf, dass es „zunehmende Beweise dafür gibt, dass CO2 der Grund für den globalen Temperaturanstieg und andere Indikationen für die Klimaänderung ist“, massiv unter Feuer geraten, weil diese Feststellung aufgrund der empirischen Daten einfach nicht gerechtfertigt ist.

Ziemlich unabhängig vom Erreichen eines intelligenteren Verständnisses des fortgesetzten Streits unter Wissenschaftlern mit unterschiedlichen Standpunkten zur Klimawissenschaft und DAGW muss dringend ein fundamentales Problem bei der Forschung zur Klimaänderung angesprochen werden.

Diese Notwendigkeit ist von praktischer Bedeutung für die Philosophie hinter einer Komplexitätstheorie, die früher unter der Bezeichnung Katastrophen- oder Chaostheorie bekannt war, welche sich schon im 19. Jahrhundert entwickelt hat. Die Komplexitätstheorie versucht, die Eigenarten dynamischer Prozesse zu interpretieren, die weit unabhängig von jedem thermodynamischen Gleichgewicht auftreten und die daher nur mit Hilfe nichtlinearer (d. h. nicht lösbarer) Differentialgleichungen beschrieben werden können. Computersimulationen, durch Fortschritte in der Informationstechnologie Mitte und Ende des 20. Jahrhunderts stark verbessert, wurden im Besonderen wichtig, um die Natur solcher Prozesse zu simulieren, wobei es wichtig ist darauf hinzuweisen, dass solche Simulationen NICHT tatsächliche Lösungen in der realen Welt zur Verfügung stellen. Stattdessen muss jede solche Simulation mit einem „was, wenn“-Experiment unter bestimmten Bedingungen in einer virtuell realen Welt behandelt werden.

Wegen seiner komplexen Natur ist die Klimaänderung zweifellos ein illustratives Beispiel eines Zweiges der Wissenschaft, in dem man ohne Verwendung solcher Computersimulationen kaum Fortschritte machen kann. Diese Vorgehensweise wurde schon Mitte des 20. Jahrhunderts von den Main Stream-Klimatologen aufgegriffen und erklärt. (8)

Die Kritik an den Schlussfolgerungen dieser früheren Simulationen bezog sich überwiegend auf Fragen, ob die eingehenden Variablen genügend aussagekräftig und ob die angewandten Algorithmen sowohl gültig als auch akkurat waren.

Diese Diskussion wird weitergehen und kann zu einer Verbesserung der Modelle führen. Aber viele wichtige Aspekte der Komplexitätstheorie wurden bisher überhaupt nicht in den Modellierungsprozess eingebracht. Am wichtigsten ist die fehlende Berücksichtigung von Oszillationsprozessen, für die Trajektorien beschrieben werden können, die durch ‚feste Punkte’ genannte Gleichgewichtszustände bestimmt werden können; der entwickelten Theorie zufolge sollten diese niemals auftreten. Dass dieser Aspekt der Komplexitätstheorie bei der gegenwärtigen Modellierung weitgehend ignoriert wird, kann man daran erkennen, dass zuvor keine Identifikation aller festen Punkte durchgeführt worden ist, die hier involviert sein können.

Ein erkannter wesentlicher Fixpunkt ist die globale Strahlungsenergiebilanz zwischen der einfallenden Sonnenstrahlung und der langwelligen Ausstrahlung an der Obergrenze der Atmosphäre. Ob alle Angaben im Modell von Kiehl und Trenberth (KT97) zur globalen Energiebilanz akkurat sind oder nicht, ist von relativ geringer Bedeutung (9). Die viel wichtigere philosophische und wissenschaftliche Frage lautet, ob das Modell KT97 einen Fixpunkt zu beschreiben versucht (hinsichtlich der Komplexitätstheorie ein Attraktor), der in keinem wirklichen Gleichgewichtszustand ist.

Ein zweiter, in KT97 nicht berücksichtigter, aber durch grundlegende Physik und meteorologische Beobachtungen gut belegter Fixpunkt ist die Maximumtemperatur von 29°C, der die tropischen Ozeane charakterisiert, kontrolliert durch die Umleitung der Energie durch starke lokale Dämmung hin zu Verdunstung. Viele weitere Fixpunkte (das heißt Attraktoren, die die Klimatrajektorien beeinflussen) müssen existieren, zum Beispiel an den Grenzen der Windsysteme und an der Obergrenze der Atmosphäre. Diese Attraktoren wurden bis jetzt noch nicht einmal identifiziert, geschweige denn in die GCMs eingebaut.

Man würde erwarten, dass eine Zustandsbeschreibung wie AR5 der WG 1 diesen und anderen Aspekten der Komplexitätstheorie volle Aufmerksamkeit gewidmet hätte, vielleicht sogar deren Behandlung in einem speziellen Kapitel. Obwohl jedoch die deterministisch-chaotische (komplexe) Natur des Klimasystems im Vorübergehen in früheren IPCC-Zustandsberichten erwähnt worden war, gab es niemals eine ausführliche Diskussion darüber, und auch im AR5 ist das nicht der Fall. Die unvermeidliche Schlussfolgerung daraus lautet, dass die IPCC-Experten der Computersimulation und andere Leitautoren mit den Grundprinzipien der Komplexitätstheorie nicht vertraut sind. Folglich fehlen Einsichten im Entwurf von AR 5, die von einer hoch entwickelten und wesentlichen mathematischen und wissenschaftlichen Institution nicht fehlen sollten und dürften.

Kommen wir zurück zu den wesentlichen Konsequenzen, die man hätte berücksichtigen müssen:

  1. Die Punkte in jedem Graphen sind nicht „normal“ um den Mittelwert verteilt (die Verteilung ist multimodal), und die Definition von Vertrauensintervallen, die auf der Standardabweichung um den Mittelwert abgeleitet sind, ist ein statistischer Fehler.

  2. Wie vorher schon erläutert ist die Mittelung der Kurven aus dem gleichen Grunde bedeutungslos.

  3. Es ist mathematisch nicht korrekt, Faktoren zu addieren/zu subtrahieren (eine lineare Operation), wie z. B. die Isolierung einer Trendlinie oder eines jahreszeitlichen Effektes, wenn das System nichtlinear ist, muss ein Querschnittsfaktor existieren.

Der Ursprung der ‚wahrscheinlich’ genannten ‚Unsicherheiten’ hätte durch Verwendung von Argumenten von Auditoren anderer Disziplinen verdeutlicht werden können, die mit dem manchmal unerwarteten Verhalten komplexer Systeme vertraut sind. Dies unterstreicht wieder einmal, dass der Entwurf vom AR 5 keine ‚komplette Arbeit’ einer weltumspannenden wissenschaftlichen Gemeinschaft ist. Es kann sein, dass der AR 5 des IPCC trotz (oder sogar gerade wegen) der Alarmrufe bzgl. der Erwärmung sich eher als ein Hindernis als eine Hilfe auf dem Weg zu den Erkenntnissen über die wahren Gründe der globalen Erwärmung und von Klimaänderungen erweist.

Abwägung der Beweise in Zustandsstudien

Der Entwurf zum AR 5 behauptet, die physikalischen Mechanismen der Klimaänderung zu erklären. Aber er spricht den Kern der Sache gar nicht adäquat an: nämlich die Frage nach den Gründen der natürlichen Klimavariabilität. Bei unserem gegenwärtigen Wissensstand, nämlich dass DAGW existiert, ist eine wissenschaftliche Zustandsstudie erforderlich, die die Beweise für und gegen die Hypothese abwägt. Dieser Zustandsbericht sollte nicht einfach die Leistung einer einzigen spekulativen DAGW-Hypothese proklamieren, wie es der Entwurf zum AR 5 tut.

Die meisten Kapitel im AR 5 behandeln nicht die CO2-Hypothese als solche, sondern lediglich die Signale, die auf die Klimavariabilität hinweisen. Dass diese Variabilität verbreitet auftritt überrascht niemanden, weshalb die geeignete Null-Hypothese lautet, dass die beobachtete Variabilität ein Ausdruck natürlicher Gründe ist, solange und bis kein anthropogener Grund und eine gefährliche Rate einer daraus resultierenden Änderung empirisch gezeigt werden kann.

Obwohl der IPCC-Bericht den Titel ‚The Scientific Basis’ trägt mit der starken Betonung auf und dem Vertrauen der Leitautoren in eine Auswahl DAGW-freundlicher begutachteter Literatur macht den Bericht eher zu einem politischen und nicht einem wissenschaftlichen  Zustandsbericht.

Zusammenfassend: Der Entwurf zum AR 5 bietet keine ausgewogene und leidenschaftslose Beschreibung der aktuellen Klimawissenschaft, die als Basis für politische Maßnahmen dienen kann. Obwohl einige erfahrene, unabhängige Wissenschaftler wahrscheinlich von dem Bericht in die Irre geführt werden, von denen einige auch schon ihr Unbehagen mit der IPCC-Arbeitsweise kundgetan haben, könnte das Dokument der WG 1 gefährlich werden, wenn Nichtexperten davon Gebrauch machen – vor allem Bürokraten und Politiker.

Die Notwendigkeit einer ausgewogenen wissenschaftlichen Zustandsbeschreibung

Eine einwandfreie wissenschaftliche Zustandsbeschreibung in Sachen globale Erwärmung sollte auf der kritischen Erwägung einer breiten Palette von Studien in wissenschaftlichen Journalen basieren, und nicht auf naivem und bedingungslosem Vertrauen in den Begutachtungsprozess ausgewählter wissenschaftlicher Journale, seien diese auch noch so angesehen (10). Diese Studien sollten kritisch von einer größeren Anzahl von Schiedsrichtern gelesen werden, mehr als die zwei oder drei bei dem Journal angestellten. Außerdem sollten in der Öffentlichkeit die Befürworter einer Hypothese, die Implikationen für teure politische Maßnahmen enthält, nicht ihre eigenen Begutachter oder ihre eigene Jury sein – wie es die IPCC-Leitautoren tatsächlich waren.

Die Kritiker des IPCC, und davon gibt es viele, haben seit Langem Zweifel daran geäußert, ob das Personal des IPCC ausreichend die Notwendigkeit für ordentliche und angemessen sorgfältige Zustandsberichte wie AR 4 und AR 5 wahrnimmt. Diese Zweifel wurden bestätigt, als die Korrespondenz zwischen einigen Leitautoren des IPCC durch Klimagate 1 im Jahr 2009 offen gelegt wurde. Dieses Leck, und ein zweites Leck Ende 2011 zeigten inter alia viele Beispiele wissenschaftlichen Fehlverhaltens, einschließlich im Besonderen einer herablassenden Haltung und emotionaler Reaktionen auf professionelle Kritik von außen.

Detaillierte Analysen der IPCC-Prozeduren und damit Zusammenhängendes von John McLean, Andrew Montford und jüngst durch Donna Laframboise (11) sowie die Analysen von Steve McIntyre auf seinem Blog ClimateAudit verdienen viel mehr Aufmerksamkeit seitens der Politiker als diese bisher dafür übrig hatten. Stattdessen fahren die Politiker fort, ein unterwürfiges Klammern an die politisch gefärbten Ratschläge des IPCC an den Tag zu legen, entweder weil sie es nicht besser wissen oder bevorzugen, die eindeutigen Unzulänglichkeiten und die fehlende Ausgewogenheit der wissenschaftlichen Zusammenfassungen des IPCC nicht zur Kenntnis zu nehmen.

Anfang 2007 hat das IPCC unter Druck von Kritikern die kritischen Kommentare der Begutachter veröffentlicht, die es zum AR 4 WG 1 gegeben hatte, zusammen mit den Antworten auf diese Kritiken von den Leitautoren. Ungefähr zur gleichen Zeit haben die Autoren der Zusammenfassung für Politiker von AR 4 (SPM) ihren Text fertig gestellt, der offenkundig die substantielle Kritik von außen am IPCC nicht enthielt. Und in einer anderen erstaunlichen Missachtung des Prozesses basierte die politisch motivierte SPM des AR 4 auf einem Entwurf der WG 1; weitere sechs Monate gingen ins Land, bevor die Schlussfolgerungen und Behauptungen der SPM in den endgültigen Bericht integriert wurden, auf den die SPM doch aufbauen sollte. Inzwischen haben Sprecher des IPCC bereits die alarmierende Botschaft der fortwährenden gefährlichen globalen Erwärmung in die Welt posaunt, basierend auf der zuvor veröffentlichten SPM.

Diese verschiedenen Umstände und Fakten machen klar, dass eine unabhängige wissenschaftliche Begutachtung des WG1 AR 5 des IPCC unabdingbar ist, sowie der Bericht veröffentlicht wird. Unabhängige Experten haben in der Tat bereits eine solche Begutachtung seit der Veröffentlichung von AR 3 2001 angemahnt, aber ihr Drängen wurde ignoriert.

Wichtig: Die wissenschaftlichen Auditoren müssen (i) ausschließlich von außerhalb des IPCC-Interessenkreises stammen; (ii) sie müssen kompetent genug sein, um ein unabhängiges Urteil über die relevanten Beobachtungen und deren Interpretation fällen zu können, und (iii) sie dürfen sich nicht einfach auf die pro-DAGW-Schlussfolgerungen verlassen, die von den Autoren der meisten Studien gezogen werden.

Frühere Begutachtungen der IPCC-Ratschläge

Viele nationale Wissenschaftsakademien haben zusammenfassende Broschüren zum DAGW-Problem veröffentlicht, veranlasst durch die Kritiken in der Folge der Veröffentlichung von AR 4 2007 (z. B. von der  Royal Society of London, der Australian Academy of Science und der US National Academy of Sciences). Diese individuellen Berichte führten etwas später zu einer Untersuchung ihrer übergeordneten Institution, das international Inter-Academy Council (IAC). Die Hauptschlussfolgerung dieser zahlreichen Dokumente – trotz Kritik seitens des IAC über die Unzulänglichkeiten einiger IPCC-Verfahrensweisen, enthüllt durch Klimagate – lautete, dass die wesentlichen Schlussfolgerungen des 4. Zustandsberichtes immer noch als gültig angesehen werden sollten.

Diese Behauptung durch das IAC und andere führte sofort dazu, dass sich die folgende Frage in unabhängigen wissenschaftlich kritischen Kreisen erhob: Welche Schlussfolgerungen?

Dass einige Signale einer moderaten Klimaänderung in der jüngeren Vergangenheit aufgetaucht sind? Aber diese Schlussfolgerung ist wissenschaftlich trivial und steht nicht im Mittelpunkt der DAGW-Frage, die da lautet zu beurteilen, bis zu welchem Grad menschliche CO2-Emissionen eine messbare oder gefährliche Erwärmung verursachen. Wie viel Zeit und Wissen hat das Komitee des IAC damit zugebracht, diese Frage zu beurteilen? Weder die vielen nationalen noch die IAC-Komitees scheinen diese zentrale Frage überhaupt angesprochen zu haben, was viele Wissenschaftler dazu gebracht hat, die Prognosen als politisch willfährige Operationen zur Weißwäsche anzusehen.

Unabhängige Wissenschaftlerkreise stellten sofort in Frage, was eigentlich das IAC so befürwortete. Dessen Schwerpunkt lag auf den Prozeduren und der administrativen Arbeit des IPCC, nicht auf der Integrität von dessen Schlussfolgerungen.

Begutachtungen im parlamentarischen Zusammenhang

Zusätzlich zu den akademischen Begutachtungen haben zahlreiche nationalen Parlamente seit 2007 Anhörungen zur DAGW-Frage organisiert. Im parlamentarischen Kontext hatten diese Anhörungen den sehr starken Vorzug, dass unabhängige angesehene Wissenschaftler involviert waren, zusammen mit den IPCC-Akolyten. Solche Anhörungen haben zumindest in den USA, in Schweden, Australien den Niederlanden und jüngst Kanada stattgefunden.

Trotz der sehr klaren wissenschaftlichen Informationen und Ratschläge dieser Anhörungen (für ein Beispiel siehe Anhang B), die speziell dem IPCC-Alarmismus widersprechen, war ihr nachfolgender Einfluss auf die Öffentlichkeit begrenzt; und zwar aus folgenden Gründen: (i) alle offiziellen Kanäle, über die die Öffentlichkeit über die globale Erwärmung informiert wird, werden durch Material vom IPCC dominiert und (ii) die Medien haben eine starke Aversion, Stories über die Klimaänderung zu verbreiten, die das vorherrschende, politisch korrekte und alarmistische Paradigma herausfordern.

Die Begutachtungen holländischer und französischer Akademien

Der 2007 veröffentlichte Bericht AR 4 wurde formalen Überprüfungen durch die nationalen Akademien Frankreichs und der Niederlande unterzogen. Die beiden Prozesse und die folgenden Berichte weisen bestimmte Ähnlichkeiten auf.

Jeder der beiden Untersuchungen waren informelle Treffen unter den Mitgliedern der Akademien vorausgegangen, woran auch einige geladene externe Wissenschaftler teilgenommen hatten (Niederlande, April 2010; Frankreich, September 2010). Diese anerkennenswerten Initiativen führten zu Audit-Berichten, die unabhängig von der IPCC-internen Begutachtungsprozedur waren.

Trotz der ursprünglich gut gemeinten Absichten, die unvermeidlich von einer begrenzten Anzahl von Autoren zusammengestellt worden sind, wurden in der Folge dafür kritisiert, nicht ausreichend die Nuancen der unterschiedlichen Meinungen der DAGW-Protagonisten und –Antagonisten gespiegelt zu haben, die in den voran gegangenen Besprechungsrunden zum Ausdruck kamen.

Diese Kritik gilt sehr stark vor allem dem Audit-Bericht der Royal Dutch Academy of Sciences (KNAW), veröffentlicht im Oktober 2012 (12). Der Bericht war erheblich in Richtung der IPCC-Doktrin verzerrt und erwähnte nicht die Kommentare der DAGW-Antagonisten während der Treffen. Außerdem hat sich die KNAW sehr beeilt, die Aufmerksamkeit des Ständigen Parlamentsausschusses für Infrastruktur und Umwelt auf ihren Bericht zu lenken, ohne vorher noch einmal die Teilnehmer des Treffens zu konsultieren. Dieses Vorgehen führte zu einem formalen Protest und der Forderung, den Bericht zurückzuziehen. Unterschrieben war er von 23 Professionellen mit wissenschaftlichem Hintergrund – nicht zuletzt, weil der Bericht ein Dutzend aussagestarker Feststellungen bzgl. DAGW enthielt, die wissenschaftlich als nicht gerechtfertigt angesehen waren. Die Forderung wurde ignoriert, und der verfälschte Bericht blieb in der ursprünglichen Fassung bestehen (Februar 2012).

Eine Untersuchung der Prozeduren durch die Autoren des holländischen Berichtes brachte ans Licht, dass eine kleine Zahl anonymer pro-DAGW-Begutachter den Ton im endgültigen Text vorgegeben hatte, was erneut das Ausmaß zeigt, mit dem IPCC-Insider mit politischen Mitteln den „wissenschaftlichen“ Rat an Politiker beeinflussen können. Trotz dieses ungehörigen und unangebrachten Einflusses präsentierte die Akademie den Bericht als eine autorisierte Feststellung einer ‚gebildeten’ Vereinigung. Offensichtlich hatte die Akademie so viel Vertrauen in einige ausgewählte akademische Autoren, dass sie sich nicht die Mühe gemacht hat, unabhängige auswärtige Wissenschaftler zu konsultieren, die ziemlich genau, tatsächlich wesentlich in die Begutachtung involviert waren.

Solche Aktionen gehen ganz klar nicht konform mit dem Motto der ältesten wissenschaftlichen Akademie der Welt, der Royal Society of London, das da lautet: ‚Nullius addictus iurare in verba magistri‘ (ich bin nicht verpflichtet, irgendeinem Herrn Gefolgschaft zu schwören).

Betrachtet man die Schlussfolgerungen der Debatte bei der französischen Akademie der Wissenschaften, berichteten die französischen medien, dass sie voll auf der Linie des WG 1 AR 4 lagen.

Diese Schlussfolgerung unterscheidet sich jedoch um Einiges vom verständnis einiger Mitglieder der Akademie, die an der Diskussion teilgenommen hatten. In seiner Analyse weist der Akademiker Vincent Courtillot darauf hin, dass die Akademie nicht in vollem Umfang das für und wider gegeneinander abgewogen hat, sondern einfach die verschiedenen – sich teilweise widersprechenden – Ansichten nebeneinander gestellt hat (13).

Trotz all der abweichenden Meinungen und gegenteiliger Aussagen in den französischen und holländischen Akademien scheinen die wesentlichen Schlussfolgerungen in ihren Berichten die Autorität des IPCC zu stützen. Zum Beispiel heißt es im Bericht der französischen Akademie:

Eine Anzahl unabhängiger Indikatoren weist auf eine Zunahme der globalen Erwärmungsrate von 1975 bis 2003 hin; diese Zunahme erfolgt hauptsächlich durch die zunehmende CO2-Konzentration in der Atmosphäre.

Und im holländischen Bericht heißt es:

Die gegenwärtigen Klimamodelle erklären zum größten Teil die Klimaänderungen im 20. Jahrhundert. Diesen Modellen zufolge kann der globale Temperaturanstieg im späten 20. Jahrhundert nicht erklärt werden, ohne die anthropogene Erzeugung von Treibhausgasen zu betrachten.

Eine Zusammenfassung der entgegen gesetzten Ansichten der DAGW-Antagonisten ist im Audit-Bericht von unabhängigen Wissenschaftlern an die australische Regierung enthalten. Siehe Anhang B mit einem Auszug und Referenz.

Was führt zu der Dominanz des IPCC-DAGW-Paradigmas?

Zweifellos ist das vom IPCC bevorzugte Paradigma der gefährlichen globalen Erwärmung durch menschliche CO2-Emissionen fest in den Köpfen der Öffentlichkeit, der Medien und der Politiker verankert. Die Schlüsselfrage lautet jedoch: „bis zu welchem Grad resultiert diese Dominanz aus der Aussagekraft der wissenschaftlichen Beweise, und bis zu welchem Grad aus der höchst aktiven öffentlichen und politischen Kommunikation durch das IPCC vor dem Hintergrund einer willfährigen, tatsächlich DAGW oft missionarisch vorantreibender Medien?“

Zweifellos ist die DAGW-Hypothese des IPCC oberflächlich plausibel. Die Hypothese macht auch wissenschaftlich detaillierter Sinn, solange man nur das zugrunde liegende Konzept des „Treibhauseffektes“ akzeptiert, dass man die Klimaänderung einteilen kann nach den verschiedenen separat einwirkenden Treibern, dass all diese Treiber bekannt sind und dass das Klima als deterministisches System erfolgreich analysiert werden kann.

Allerdings stellen viele kompetente Wissenschaftler einen, zwei, drei oder alle vier dieser Positionen in Frage, und zwar mit durch und durch vernünftigen und verantwortungsvollen Argumenten. Daher ist der Gebrauch all dieser überheblichen Vermutungen als Basis für die Propagierung der globalen Erwärmung, wie es das IPCC macht, so, als ob man Logik innerhalb eines subjektiven kulturellen Paradigmas anbringen wollte. Dies, nämlich die Verwendung einer Modellannahme innerhalb eines gegebenen und nicht hinterfragbaren Denksystems ist natürlich das Kennzeichen  der postmodernen wissenschaftlichen Vorgehensweise.

Aber wenn man diese Positionen verwirft – nicht zuletzt, weil diese prognostizierten Ergebnisse den Beobachtungen widersprechen – erscheint ein sehr unterschiedliches Bild der Klimavariabilität. Akzeptiert man eine alternative konzeptionelle Annäherung, könnte sich der Zusammenhang mit einem „Treibhauseffekt“ und einer Quantifizierung der angenommenen Klimatreiber als falsch herausstellen und eher ein Hindernis als eine Hilfe bei Fortschritten des Wissens sein.

Schlussbemerkungen

Es ist offensichtlich, dass Audits, die mehr auf Autorität als auf wirklicher wissenschaftlicher Expertise beruhen, hinsichtlich der grundlegenden Prinzipien wissenschaftlicher Untersuchungen fragwürdig bleiben.

Die Beschreibung der vermeintlichen DAGW-Bedrohung erfordert daher eine vollständig neue wissenschaftliche Begutachtung, die mit den IPCC-Argumenten und solider alternativer technischer Informationen gleichwertig ist, wie z. B. die Berichte des NIPCC. Eine solche ausgewogene Begutachtung wurde definitiv durch irgendeine wissenschaftliche Akademie bisher nicht durchgeführt, weil alle das betrügerische IPCC-Treibhausmodell vorbehaltlos akzeptiert haben (einschließlich der Gültigkeit des Konzeptes unabhängiger und schwierig zu definierender Antriebe, welche komplexe Prozesse sind), und weil alle die Notwendigkeit, sich der Klimaänderung durch die Komplexitätstheorie anzunähern, ignoriert haben.

Einige jüngere Wissenschaftler, die unter dem Einfluss postmoderner Wissenschaft studiert haben, könnten dies als altmodisch ansehen. Aber mein Appell lautet, dass wir weiterhin die Traditionen der Grundlagen- und angewandten Wissenschaft respektieren sollten, wie sie während der historischen Periode, die wir Aufklärung nennen, etabliert worden sind. Es war nämlich von größtem Vorteil für moderne Gesellschaften, dass wir seit vier Jahrhunderten die wissenschaftliche, experimentelle, empirische und theoretische Praxis übernommen haben, und zwar unter den wachsamen Augen von Universitäten und gebildeten Gesellschaften.

Nach dem, was wir das IPCC-„Abenteuer“ nennen können, ist es mein Appell an zeitgemäße politische und wissenschaftliche Administratoren, dass sie sich jetzt einmal kritisch überlegen, ob die nationalen Wissenschaftsakademien und –agenturen dem wissenschaftliche Prinzip, „Qualität ist der Eckpfeiler der Wissenschaften“, noch folgen. (14)

Danksagung

Die erste Version dieses Arbeitspapiers und die neun Entwürfe zuvor wurden von 15 Wissenschaftlern kommentiert. Was ich dankbar willkommen heiße. Und die mich zu ein paar Änderungen veranlasst haben. Anstatt ihre Namen zu nennen, lade ich diese Schiedsrichter ein, selbst zu benennen, bis zu welchem Grad sie meine Analyse unterstützen und meiner Forderung folgen wollen, dass Zustandsbeschreibungen durch individuelle Nationen vorgenommen werden sollten, weitgehend unabhängig vom IPCC. Diese Begutachtungen sollten am Besten durch erfahrene und etablierte Wissenschaftler durchgeführt werden, deren Reputation in traditionellen Disziplinen wurzelt, die die Klimawissenschaft bilden, speziell Physik, Chemie, Geologie, Astronomie, Sonnenphysik und Meteorologie. Die Audits sollten sich an den traditionellen Prinzipien der Wissenschaft orientieren und sich auf die wissenschaftliche Methodik und empirische Beweise stützen, die die hypothetische DAGW in Frage stellen.

Anhang A: Ausgewählte Punkte in verschiedenen, vom IPCC unabhängigen Begutachtungen und in den Berichten des NIPCC

1.

Wie aus den vom IPCC bevorzugten Temperaturaufzeichnungen von HadCRUT hervorgeht, hat es seit 1995 keine statistisch signifikante Erwärmung mehr gegeben, trotz einer Zunahme des atmosphärischen CO2-Gehaltes um 20% seit jenem Jahr (welches selbst 34% aller Emissionen in Verbindung mit Menschen seit dem Beginn der industriellen Revolution repräsentiert).

Dies ist an sich nicht so überraschend, wie es scheint. Noch einmal, es ist wissenschaftlich unumstritten, dass die Beziehung zwischen dem zunehmenden atmosphärischen Kohlendioxid und der atmosphärischen Erwärmung eine negativ logarithmische ist. Mit anderen Worten, jeder zusätzliche Eintrag verursacht eine geringere Folgeerwärmung.

2.

Gelogische Klimaaufzeichnungen zeigen, dass im richtigen Zusammenhang nichts Ungewöhnliches an der moderaten Erwärmung um ein paar Zehntelgrad ist, die es zum Ende des 20. Jahrhunderts gegeben hat. Gleiche oder höhere Temperaturen gab es viele Male in vielen Gebieten während des Holozäns (die letzten 10 000 Jahre) und während des Pleistozäns (vor 6 bis 3 Millionen Jahren), und man schätzt, dass es auf der Erde im Mittel in diesen Zeiten 2 bis 3 Grad Celsius wärmer war als heute; und keine Krise der Biodiversität ist erfolgt. Diese Art der Temperaturoszillationen ist charakteristisch während der gesamten Geologie und wurde verursacht durch solare und andere Gründe – die bei weitem noch nicht völlig verstanden sind.

3.

Betrachtet man das globale Eisvolumen, erkennt man, dass das jüngste Abschmelzen des arktischen Meereises (noch einmal, was es in früheren geologischen Zeiten schon oft gegeben hatte) durch ein Anwachsen des Meereises um die Antarktis kompensiert worden ist, d. h. die Gesamteisbedeckung hat sich kaum verändert. Außerdem ist das Schmelzen in der Arktis NICHT durch steigende atmosphärische Temperaturen verursacht worden, sondern durch viel komplexere Gründe, unter anderem Änderungen der Windsysteme (wobei Eis südwärts in wärmere Gewässer verfrachtet wird) und warme Meeresströmungen (welche beim Eintritt in den Arktischen Ozean das Eis direkt schmelzen).

4.

Die Analyse antarktischer Eisbohrkerne zeigt, dass das Niveau des Kohlendioxids und die Temperatur tatsächlich parallel variierten während der letzten vielen hunderttausend Jahre. Allerdings sind die beiden Verläufe nicht genau phasengleich, wobei Änderungen des CO2-Gehaltes den Temperaturänderungen um 800 bis 2000 Jahre hinterher hinken. Diese fundamentale Tatsache stellt die CO2-Temperatur-Annahme der DAGW-Hypothese schwer in Frage und ist konsistent mit den CO2 freisetzenden, sich erwärmenden Ozeanen.

5.

Die zahlreichen ökologischen und umweltlichen Änderungen, die der DAGW durch das IPCC zugeschrieben werden, sind genauso konsistent mit der Null-Hypothese wie die beobachteten Änderungen in der modernen natürlichen Welt, die in Übereinstimmung mit natürlichen und umweltlichen Änderungen stehen. Vögel, die früher oder später nisten, weniger oder mehr Eisbären, mehr oder weniger Regen, mehr oder stärkere Hurrikane – sollte irgendein Ereignis dieser Art stattfinden – sind durch die Bank zu erwartende Ereignisse im Zusammenhang mit der natürlichen Klimavariabilität der Erde.

Trotz gewaltiger Ausgaben für die damit verbundene Forschung ist es bisher noch keiner Studie gelungen, solche biotischen oder klimatischen Änderungen mit dem sich ansammelnden CO2 in der Atmosphäre in Zusammenhang zu bringen.

Anhang B: Das australische unabhängige Audit

Dieses Audit (Carter et al 2009) (15) der IPCC-Äußerungen, das dem australischen Parlament durch das Department of Climate Change übermittelt worden ist, wurde auf Anforderung von dem unabhängigen australischen Senator Stephen Fielding durchgeführt. Und zwar durch eine qualifizierte Gruppe erfahrener Wissenschaftler aus verschiedenen Disziplinen mit klimatologisch-meteorologischem Hintergrund, einem Hydrologen, einem Computermodellierer und einem Geologen.

Das Audit fand massive Defizite beim IPCC – bis zu einem Grad, dass Senator Fielding veranlasst hat, gegen die Gesetzgebung zum Emissionshandel zu stimmen – was zu dessen Ablehnung führte.

Die wesentlichen Schlussfolgerungen dieses australischen Audits waren Folgende:

(i) Die jüngste Zunahme der Treibhausgase spielt eine geringere radiative Rolle beim globalen Klima, es existiert kein stichhaltiger Beweis, dass menschliche CO2-Emissionen eine gefährliche globale Erwärmung verursachen oder in Zukunft verursachen werden, (ii) es ist eine unkluge Umweltpolitik der Regierung, auf einer monopolistischen Aussage zu basieren, vor allem, wenn dieses Monopol durch eine internationale politische (nicht wissenschaftliche) Agentur repräsentiert wird (d. h. das IPCC); (iii) Die Folgen der Gesetzgebung zum Emissionshandel werden so teuer, so besorglich regressiv, sozial spaltend und umweltlich ineffektiv sein, dass das Parlament die Überlegung zum CPRS (Emissionshandel) aussetzen sollte und eine vollständig unabhängige Kommission einsetzen sollte, um die Beweise für und gegen einen gefährlichen menschlichen Einfluss auf das Klima zu untersuchen. Hinsichtlich (iii) fügen wir hinzu, dass die wissenschaftliche Gemeinschaft inzwischen so polarisiert hinsichtlich dieses kontroversen Themas ist, dass die angemessene Sorgfalt hierbei nur erreicht werden kann, wenn kompetente wissenschaftliche Zeugen ins Kreuzverhör genommen werden, unter Eid und unter strikten Vorgaben von Beweisen.

Trotz dieser Forderungen und trotz des Scheiterns des Emissionshandels im Parlament wurde keine Kommission ins Leben gerufen, und die australische und internationale Presse hat nichts über dieses wissenschaftliche Audit berichtet.

 Arthur Rörsch

Über den Autor:

1 Dr. Arthur Rörsch hat einen Grad als Chemieingenieur der University of Delft (1957) und einen PhD der University von Leyden (1963). Er ist Ritter des Ordens Dutch Lion (1994). Seine wesentliche Tätigkeit war die Mitgliedschaft, zeitweise auch als Vizepräsident, des Managementboard der Netherlands Organisation for Applied Research, TNO, 1979 bis 1994) mit spezieller Verantwortung für die Forschungsgebiete öffentliche Gesundheit, Nahrung & Landwirtschaft sowie Umwelt. Als Student war er Sekretär des Departments ‚Delft’ der Netherlands Association for Meteorology and Astronomy.

Auf europäischer Ebene war er in Komitees involviert, die die Qualität von EU-Projekten und wissenschaftliche Institutionen bewerten sollte. Als Generalsekretär der European Molecular Biological Conference (einer politischen Institution mit seinerzeit 10 Mitgliedern) war er aktiv im Wechselspiel zwischen Wissenschaft und Regierungspolitik. Als Vorsitzender des National (Dutch) Council for Agricultural Research arbeitete er vier Jahre lang (1995 bis 1999) an der Entwicklung von Szenarien und Vorhersagen aus theoretischer und angewandter Sicht.

Als Mitglied des Beratungsgremiums des populären holländischen Wissenschaftsjournals ‚Natuur, Wetenschap and Techniek‘ (1970-2009) hatte er auch großes Interesse an der Qualität der Informationen, die der Öffentlichkeit von der wissenschaftlichen Gemeinschaft durch modernen Wissenschaftsjournalismus gegeben worden sind.

2 Traditionelle objektive Wissenschaft basiert auf der Interpretation von Beobachtungen und dem Formulieren einer Hypothese, gefolgt von der Interpretation und den logischen Implikationen dieser Hypothese sowie der ständigen Überprüfung. Nachmodernisten hinterfragen nicht die Rationalität, sondern ob sie eine reale Einsicht in die Welt darstellt. Regeln der Logik finden nur innerhalb eines gegebenen kulturellen Paradigmas oder Modells Anwendung, die auf einem gegebenen Denksystem beruhen.

http://en.wikipedia.org/wiki/Science_wars

http://www.spaceandmotion.com/Philosophy-Postmodernism.htm

3 Hunderte von Studien, die Daten oder Besprechungen enthalten, die nicht DAGW uunterstützen, wurden in den früheren Berichten des NIPCC unabhängig zusammengefasst und analysiert. Die Ausgaben der NIPCC-Berichte sind daher ein Muss, wenn es um Gegenliteratur zu den IPCC-Berichten geht, und zwar für diejenigen, die eine umfassende, ausgewogene Sicht des komplexen Themas DAGW und Klimaänderung erhalten wollen. http://www.nipccreport.org/reports/2011/pdf/FrontMatter.pdf

4 http://www.ipcc.ch/pdf/assessment-report/ar4/wg1/ar4-uncertaintyguidancenote.pdf

5 „Es gab eine Zeit, in der Päpste und Könige Astrologen um sich hatten, die ihnen helfen sollten, die Zukunft zu planen. Heutzutage haben Regierungsabteilungen Statistiker für den gleichen Zweck. (…) Aber für viel der statistischen Arbeit durch Regierungsabteilungen kann ich keine Entschuldigung finden“. M. J. Moroney in  ‘Facts from Figures’(Pelican 1957) in Kapitel 17 ‘Time series and Fortune Telling’

6 und 7 Für den aktuellen Stand der Technik siehe: Encyclopaedia Britannica 1964, volume V page 914-927:

„Die grobe Verteilung der Klimaänderung seit dem Ende der Eiszeit ist konsistent mit der Hypothese einer alternierenden Verstärkung und Abschwächung der planetarischen atmosphärischen Zirkulation, verbunden mit einer alternierenden Verlagerung der Windzonen in Richtung Äquator oder Pole.“

8 D.A.Randall (ed) “General Circulation Model Development. Past, Present and Future. (Academic Press

2000).

9 aktualisierte Version: EARTH’S GLOBAL ENERGY BUDGET by Kevin E. Trenberth, John T.

Fasullo, and Jeffrey Kiehl. AMERICAN METEOROLOGICAL SOCIETY März 2009

10 . J.P.A. Ioannidis. “Why most Published Research findings are false”. PloS Medicine, August ,2005.

Vol 2. Issue 8, 696-701

11 J. McLean “Peer review, what peer reviews? Failures of scrutiny of the UN’s fourth assessment report

(2007) http://scienceandpublicpolicy.org/images/stories/papers/originals/mclean/mclean_IPCC_review_final_9-

5-07.pdf

A. Montford. http://www.amazon.co.uk/Illusion-Climategate-Corruption-Science-

Independent/dp/1906768358

D. Laframboiboise. http://wattsupwiththat.com/2011/10/14/donna-laframboises-new-expose-book-onthe-

ipcc/

12 Theo Wolters. “Sceptical seminar climate report of Dutch Science academy www.climategate.nl. Dec. 29. 2011

13 Siehe: http://www.thegwpf.org/science-news/1804-vincent-courtillot-the-climate-report-by-the-frenchacademy-

of-sciences.html.

14 meinung von Hendrick Casimir, ein sehr respektierter Physiker und Wissenschaftsberater, früher Direktor des Philips Physics lab in Eindhoven, Niederlande.

15 http://joannenova.com.au/global-warming/the-wong-fielding-meeting-on-global-warming-documents/;

Punkt 7 auf der Liste)

Übersetzt von Chris Frey für EIKE




Der Winter 2012 war zu warm – Die Winter werden immer kälter

Nicht besser sieht es bei Prof. Dr. Rahmstorf auf „seiner“ KlimaLounge aus (hier). Allerdings hat er seine Statistik mit ein paar Blümchen aus seinem Garten geschmückt. Was dies mit Wissenschaft zu tun hat, wissen wir auch nicht. Deshalb für ihn ein paar Fakten:

1356 blühten an Weihnachten die Blumen und die Bäume bekamen Knospen. (Im Sommer 1304 trocknete übrigens der Rhein aus).

Im Jahr 1430 gab es überhaupt keinen Winter und das Getreide war bereits im April reif.

1617 blühten in Deutschland Ende Januar bereits die Tulpen.

1624 blühten um die Weihnachtszeit in Hildesheim Rosen.

Anno 1796 fing das neue Jahr mit einer recht angenehmen Witterung an und Mitte Januar waren schöne warme Sommertage, welche beinahe den ganzen Monat andauerten. Es war so warm, dass die Bäume anfingen auszuschlagen. In den Niederlanden zeigten die Bäume sogar schon Blüten. Man konnte bis Anfang Februar wie im Sommer spazieren gehen.

Am Neujahr 1898 blühten die Narzissen.

Vom Weihnachten 1909 bis Dreikönig 1910 flogen die Bienen wie im Sommer.

1948 maß die Meteorologische Anstalt auf St. Margarethen die bisher noch nie in einem Januar festgestellte Höchsttemperatur von 18,7°C.. Und weiter, dass Tagesmittel von 15,3°C entspricht der Normaltemperatur des Junianfangs. Sowie:

Anfang Januar 1664 war zu Beginn ein warmer Winter, aber am 22. Januar fing es heftig an zu frieren und dabei fiel auch viel Schnee, der sich über die zugefrorene Elbe und andere Flüsse legte. Dieser Wetterbericht des Jahres 1664 sollte uns sehr bekannt vorkommen, denn 2012 war es ganz genau so. Anfang 2012 recht warm, Herr Prof. Rahmstorf hat dazu Blümchen aus seinem Garten gezeigt, und um den 22. Januar kam dann die „Russenkälte“, wie diverse Medien titelten. Laut Prof. Rahmstorf soll dies nach den Untersuchungen des PIK, AWI und Leibniz-Institut auf den anthropogenen Klimawandel zurück zu führen sein, weil es durch diesen in der Arktis immer wärmer wird, was dann bei uns im Winter Kälte und Schnee bedeuten würde. Nun, bisher wussten wir nicht, dass der anthropogene Klimawandel bereits 1664 sein Unwesen treibte. So kann man von der Vergangenheit eingeholt werden.

Herr Prof. Rahmstorf  verwendet auf seiner KlimaLounge übrigens Deutschlanddaten ab 1750. Die gibt es gar nicht, zumindest nach Aussagen des DWD. Das Deutsche Reich wurde 1871 geschaffen, davor gab es nur eine Kleinstaaterei. Jeder Fürst hatte seine eigenen Stationen, gemessen wurde teilweise nach eigenen Normen und die Thermometer haben zumindest in Süddeutschland noch nach Reaumur gemessen. Erst mit der Reichsgründung gab es eine Vereinheitlichung der Maßeinheiten, auch das Meter wurde seinerzeit eingeführt. Der Deutsche Wetterdienst hat deshalb den Autoren schon einmal früher mitgeteilt, dass verlässliche Deutschlanddaten erst ab 1900 vorliegen. Die 20 Jahre davor, habe man überprüft und extrapoliert. Der DWD geht deswegen davon aus, dass seine Werte ab 1881 verlässlich sind. Davor gibt es nichts Verlässliches. Es sind spekulative Daten, vor allem, weil sehr viele Stationen darunter sind, die heute gar nicht mehr zu Deutschland gehören, d.h. auch Stationen sind darunter, die damals zu dem größeren Österreich gehörten wie Prag, Brünn, Zagreb, Budapest, usw. Bei den DWD-Daten ab 1881 sollen die damals deutschen Stationen, die aber jetzt außerhalb der Staatsgrenzen liegen, herausgestrichen worden sein, das behauptet zumindest der DWD.

Prof. Rahmstorf hat also wieder einmal seinen Beitrag mit der heißen Nadel gestrickt. Mit Wissenschaft oder gar korrekter Wissenschaft, hat sein Dargestelltes nichts zu tun. Aber dies zeigen bereits die vielen Blümchen im Bericht aus Rahmstorf´s Garten. Es zeigt sich einmal mehr, fehlen Wissen und Fakten, so muss auf Nebensächlichkeiten – Buntes – zurück gegriffen werden, um ersteres zu verschleiern.

Bereits unsere Überschrift weist auf ein vermeintliches Paradoxon hin. Wie kann ein Winter zu warm sein und dabei immer kälter werden. Nun, dank statistischer Gepflogenheiten, Churchill würde sagen, statistischer Tricks, ist in einer Statistik vieles unterzubringen.

Das Klima, welches im Gegensatz zum Wetter, keine reale Erscheinung ist, also in der Realität gar nicht existiert, ist ein vom Menschen gemachtes willkürliches Konstrukt, um Vergleiche anstellen zu können. Vor knapp 100 Jahren hat sich die Meteorologie auf einen Referenzzeitraum von 30 Jahren festgelegt und gesagt, dieses ist zukünftig als Klimazeitraum definiert. Der erste “Internationale klimatologische Referenzzeitraum“ begann 1931 und endete folglich 1960. An diesen schließt sich der zweite Internationale klimatologische Referenzzeitraum von 1961 bis 1990 an, an dem heutige Durchschnittswerte, z.B. Jahreswintertemperatur, verglichen werden. Nun ist den älteren von uns der Zeitraum von 1961 bis 1978 noch in guter Erinnerung. Dies war die Zeit, als in Wissenschaft, Medien und Politik ein Gespenst umging, nicht etwa das Gespenst einer drohenden Erderwärmung, nein, das Gespenst einer drohenden Eiszeit (Abbildung 1).

Abbildung 1 zeigt den Klimabericht aus Newsweek vom 28. April 1975, der eine drohende Eiszeit postuliert. In Deutschland tat sich Der Spiegel mit der Thematik hervor und titelte am 12.08.1974 zur vermeintlich drohenden Eiszeit, “Katastrophe auf Raten“. Damals hieß es: “Die Abkühlung hat schon hunderttausende Menschen getötet. Wenn sie weiter voranschreitet und keine Maßnahmen ergriffen werden, wird sie weltweite Hungersnöte, weltweites Chaos und Weltkrieg hervorrufen und das kann alles noch vor dem Jahr 2000 eintreffen“, sagte zum Beispiel Lowell Ponte 1976 in “The Cooling“ und Paul R. Ehrlich sechs Jahre früher zum selben Thema: “In zehn Jahren werden alle bedeutenden Lebewesen im Meer ausgelöscht sein.“ (http://www.prisonplanet.com/articles/february2007/130207globalwarming.htm)

Wie wir heute wissen, ist nichts dergleichen eingetroffen, außer, dass auch damals die Klimatologen und deren Anhang, die auf der Hysterie-Welle schwammen, gute Tantiemen einfuhren.

Warum es damals kälter wurde und anschließend wieder wärmer, zeigt Abbildung 2.

Abbildung 2: Die Sonne war in den 1960-und 1970-Jahren außerordentlich schwach in ihrer Aktivität und damit Energieabgabe.

Werden nun statistisch Werte von heute mit dieser kalten Epoche verglichen, müssen die Werte so lange wärmer sein, so lange, wie diese Kaltzeit nicht unterboten wird und folglich auch kühle Jahre als warm ausgewiesen werden.

Nimmt man hingegen die beiden letzten Dekaden und vergleicht diese miteinander, so ist festzustellen, dass von 1993 – 2002 die Winterdurchschnittstemperatur in Deutschland bei +1,4°C lag und von 2003 – 2012 bei nur noch +0,7°C liegt (nach Daten des DWD).

Demnach sind die Winter deutlich kälter geworden. Sie sehen, mit Statistik lässt sich alles und nichts sagen, getreu dem Ausspruch von Winston Churchill. “Ich glaube nur der Statistik, die ich selbst gefälscht habe.“

Damit sich unsere Leser selbst ein Bild machen können, zeigt Abbildung 3 die Wintertemperaturen von Deutschland im Zeitraum von 1882 bis 2012. Die Daten stammen vom DWD. Dabei handelt es sich um die Originaldaten, die noch nicht um den Wärmeinseleffekt bereinigt wurden. Siehe hierzu unser Beitrag (hier)

Werden die Jahre ab dem wärmsten global gemessenen Jahr betrachtet, so ergibt sich folgendes Bild.

Abbildung 4 zeigt die Wintertemperaturen in Deutschland von 1998 – 2012. Der Mittelwert liegt bei +1,2°C (grün). Insgesamt ist die Tendenz fallend. Auffallend ist der hohe Winterwert im Jahr 2007. Dies war auch das Jahr mit der größten arktischen Eisschmelze, was als Hinweis zu deuten ist, was die vergleichweise milde Wintertemperatur verursachte und weiter zeigt, dass die jüngst medienwirksam vorgestellten Untersuchungen des AWI, PIK und dem Leibniz-Institut: „Klimastudien sagen kältere Winter in Europa voraus“, nach denen es bei uns im Winter kalt werden soll, weil es in der Arktis warm wird, blühender Unsinn sind. Ist es in der Arktis warm, wie z.B. in 2007, so ist es auch bei uns im Winter warm.

Sie sehen, mit Statistiken lässt sich viel darstellen, aber nicht die Frage nach dem Warum beantworten. Hierzu bedarf es der notwendigen „Hintergrundinformationen“.

Abbildung 5a zeigt die AMO (Atlantic Multidecadal Oscillation) ab 1870. Zum einen ist ihr Verlauf zyklisch, mit einer Zyklusdauer von ca. 35 Jahren (bei der Darstellung des Hadley-Centers, mit der gewählten Nulllinie geht dies unter, in Abbildung 5b ist der zyklische Verlauf der AMO deutlich sichtbar). Sie folgt dem Brückner-Zyklus der Sonne und zum anderen, ist sie derzeit in ihrer Warmphase, die um 2007 ihr Maximum erreichte und derzeit immer noch hoch ist.

Abbildung 5b: Kleine Abbildung zeigt den Verlauf der AMO nach Rowan, T.S., and Daniel Hodson, „Atlantic Ocean Forcing of North American and European Summer Climate“, Science 309, 115-118, 2005 und die große Abbildung die AMO nach Dr. Landsea, wie diese mit der Hurrikantätigkeit korreliert. Der Autor berichtete in seiner EIKE-Reihe vom September 2011 “Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels“ darüber (hier). Eine positive, wie negative AMO-Phase dauert im Mittel ca. 33,5 Jahre. Die eigenartige Darstellung der AMO des Hadley-Centers in Abbildung 5a, mögen die Autoren nicht kommentieren. Die Rolle des Hadley-Centers in der Temperaturdarstellung ist jedoch spätestens seit Climategate hinlänglich bekannt.

Warme Wassertemperaturen bedeuten nun nichts anderes, als eine verstärkte Eisschmelze (beim arktischen Eis handelt es sich um gefrorenes Meerwasser – ist das Wasser warm, so hat Eis es schwer) und, bei Westwinden, milde Temperaturen in Deutschland, insbesondere im Winter. Wie Abbildung 6 zeigt, herrscht in Deutschland seit Mitte der 1960-Jahre im Winter eine Westwinddrift vor, was mildere Winter bedeutet. Dies wird sofort ersichtlich, wenn diese Information (Abbildung 6) mit Abbildung 3 verglichen wird. Vor dieser Zeit (Mitte der 1960-Jahre) gab es einige sehr kalte Winter in Deutschland. Ab Mitte der 1960-Jahre haben sich die unteren Werte teils deutlich angehoben – in Summe mildere Wintertemperaturen in Deutschland wegen der vorherrschenden Westwinddrift. Liegen dagegen in Deutschland Nord- oder gar Ostströmungen vor, so werden vergleichsweise kältere Winter gemessen, wie in 2009, 2010 und 2011 (Abbildung 4), als Deutschland unter einer lang anhaltenden Schneedecke begraben war oder Ende 01/12 und Anfang 02/12, als Deutschland unter einer Kälteglocke lag.

Abbildung 6: Deutlich ist zu erkennen, dass seit Mitte der 1960-Jahre die West-Wetterlagen im Winter zunahmen (was wärmere Winter bedeutet) und im Sommer dagegen abnahmen (was trockenere und wärmere Sommer bedeutet). Quelle, Sächsisches Landesamt für Umwelt und Geologie.

Während die Leser auf den diversen Klimahysterikaseiten mit Statistiken beaufschlagt werden, bekommen unsere EIKE-Leser die Hintergrundinformationen, die notwendig sind, um diese Statistiken ganzheitlich zu erklären. Hierfür bedarf es natürlich des entsprechenden Hintergrundwissens, dass bei EIKE durchgängig vorhanden ist, sowie die Bereitschaft, das Wissen ideologiefrei, ohne Abhängigkeit von irgendwelchen Lobbyistengruppen, wie NGO´s, zu verteilen. Inwieweit hiervon bei Personen, die vom Klimarummel, direkt oder indirekt, z.B. über Presseverträge, abhängig sind, ausgegangen werden darf, überlassen die Autoren unseren Lesern.

Eine der besten Aussagen zu den Klimaforschern und dem Anhang, welches sich um diese gebildet hat, um am Geldsegen zu partizipieren, stand in der Hannoverschen Allgemeinen Zeitung vom 15.02.2012:

“Die ganze Klimaforschung ist eine Erfindung von Klimaforschern.“

Treffender und kürzer kann wohl nicht ausgedrückt werden, um was es diesen Damen und Herren geht. Um die Bildung von willkürlichen Konstrukten, um daran Statistik zu betreiben, diese Statistik so hinzubiegen, dass sie für die eigenen Argumente passt, um anschließend über Zuwendungen wie Forschungsaufträge, Steuervergünstigungen, Subventionen u.v.m. treffend zu partizipieren, wie es der Cartoonist in Abbildung 7 zeigt.

Abbildung 7

Der Klimawandel ist längst zu einem gigantischen Wirtschaftsobjekt geworden, in dem sich diejenigen wieder finden, die am Markt, in der klassischen Marktwirtschaft keine Chance haben, einen „Blumentopf zu gewinnen“, um es einmal salopp auszudrücken. Hierzu zählen nicht nur sog. Wissenschaftler, die Forschungsgelder einsammeln und in Prunkbauten sitzen, die natürlich aus Steuergeldern bezahlt werden, sondern auch Journalisten, denen das fundierte Wissen für den sachgerechten Umgang mit einer Thematik offensichtlich fehlt. Wir sollten daher nicht falschen Propheten vertrauen. Solchen, die mit dem Anspruch einer besseren Welt antreten, denen es aber um nichts anderes, als um Macht, Geld und das eigene Ego geht. Der einzige Schutz der sich bietet, ist Information und Wissen. Dieser EIKE-Beitrag soll dazu dienen, das Wissen unserer Leser zu vertiefen.

Raimund Leistenschneider – EIKE

Josef Kowatsch – Hüttlingen

* Toralf Staud ist freier Journalist mit Schwerpunkten im Bereich Klimakatsrophismus und Kampf gegen rechts. Er ist Mitglied der Redaktion von “ wir-klimaretter.de und klima-luegendetektor.de

Dafür erhielt er 2008 die Auszeichnung in der Sparte Neue Medien – Dazu DUH-Vorsitzender Harald Kächele: „kritische Umweltberichterstattung in diesen Wochen so nötig wie nie“ – Umweltstaatssekretär Michael Müller (2008) verweist auf Bedeutung von engagiertem Umweltjournalismus für Umsetzung ökologischer Ziele
Er schrieb ferner einige IPCC fromme Artikel in „Die Zeit“, jüngst zur Causa Vahrenholt. Zudem war er Redakteur des Greenpeace Magazins.




Letzte Meldung: Fritz Vahrenholt in Plasbergs Sendung „Hart aber fair“ abgesagt!

Meldung auf "Die kalte Sonne" 

ABGESAGT! Thema der Sendung hat sich geändert.

Für Schreiben and Plasberg hier die Mail-Adressse:  hart-aber-fair@wdr.de.

Am Montag, den 12.3.2012 wird Fritz Vahrenholt an der Sendung “hart aber fair” teilnehmen, die in der ARD um 21:00-22:15 live gesendet wird.

Moderator Frank Plasberg diskutiert mit seinen Gästen aus Politik, Wirtschaft und Gesellschaft. In der 75-minütigen Live-Sendung ist Thema, was die Menschen bewegt und aufregt.

Weitere Informationen zum Thema folgen in Kürze.

Damit teilt diese Sendung das Schicksal anderer Talkshows im Fernsehen, wie zuvor schon bei Günter Jauch und Menschen bei Maischberger. 

Update 9.3.12: 

Stattdessen verteilt die Pressestelle der ARD den folgenden Text:

"hart aber fair" am Montag, 12. März 2012, um 21.00 Uhr, live aus Berlin

München (ots) – Moderation: Frank Plasberg

Das Thema:

Strom, Gas, Benzin immer teurer – Energiewende auf unsere Kosten ?

Die Gäste:

Norbert Röttgen (CDU, Bundesumweltminister; stellv. Bundesvorsitzender) Bärbel Höhn (B’90/Grüne, stellv. Fraktionsvorsitzende; ehem. Umweltministerin in NRW) Ranga Yogeshwar (Wissenschaftsjournalist; ARD-Moderator "Wissen vor Acht" und "Die große Show der Naturwunder") Tilman Jens (Journalist und Filmautor "Der Fukushima-Schock" ARD) Roland Tichy (Chefredakteur "Wirtschaftswoche")

Die Preise für Energie explodieren – ob für Strom, Heizung, oder Sprit. Wer schützt die Bürger vor der Gier der Konzerne? Und welche Mitschuld hat der Staat, der uns hohe Energie-Steuern und die Zeche für den Ökostrom aufbrummt?

Interessierte können sich auch während der Sendung per Telefon und Fax an der Diskussion beteiligen und schon jetzt über die aktuelle Internet-Seite (www.hart-aber-fair.de) ihre Meinung, Fragen, Ängste und Sorgen an die Redaktion übermitteln. "hart aber fair" ist immer erreichbar unter Tel.: 0800/5678-678, Fax: 0800/5678-679, E-Mail: hart-aber-fair@wdr.de.

Pressekontakt:

Redaktion: Matthias Radner Pressekontakt: Dr. Lars Jacob Presse und Information Das Erste Tel.: 089/5900-2898 Fax: 089/5501259 E-Mail: lars.jacob@DasErste.de 




Objektivität auf bayrisch! Der BR über die „Klimaskeptiker“ deren „Scheinargumente und Pseudowissenschaft“

Unter dem Titel: "Klimaskeptiker" Scheinargumente und Pseudowissenschaft" schreiben nicht genannte Autoren* z.B.

"Klimaskeptiker" bestreiten, dass der Mensch durch das Verbrennen fossiler Energieträger die Erde erwärmt. Ihre Thesen sind von der Wissenschaft widerlegt, trotzdem wiederholen sie sie immer wieder, mit einem ganz bestimmten Ziel."

Und dann wird, wie immer, Behauptung nach Behauptung aneinander gereiht, die nur zwei Dinge gemeinsam haben: 

1. Ihnen fehlen jegliche Beweise, trotz gegenteiliger Beteuerung. Stattdessen wird der vielbeschworene Konsens bemüht. 

2. Die "Skeptiker sollen diskreditiert werden, indem sie bestenfalls als Laien, schlimmstenfalls als Lakaien der Öllobby beschrieben werden

Besonders angetan hat die Autoren das "Europäische Institut für Klima- und Energie" (EIKE) unseren Lesern sicherlich bekannt. Dessen Fragwürdigkeit soll dem Leser schon durch den Hinweis suggeriert werden, die wären ja nur über "eine Postfachadresse erreichbar".

Wir wissen natürlich alle, dass mit vollen Hosen gut stinken ist. Wer selbst in, aus öffentlichen Geldern reich finanzierten, Prachtbauten residiert, wie die Autoren der Onlineredaktion des BR, oder die Kollegen des Potsdam Institutes für Klimaforschungsfolgen (oder umgekehrt?) PIK, verwechselt gern mal Seriosität mit Prunk. Bspw. wird dem PIK gerade ein neuer Bau aus Steuermitteln in Höhe von rd. 15 Millionen € spendiert.

Dagegen sehen wir bei EIKE mit unserer Postfachadresse natürlich arm aus. Was wir auch sind. Aber deswegen inkompetent? Denn die Autoren des BR verschweigen bewußt, dass man heute auch mit geringen Mitteln, wissenschaftlich gute Arbeit leisten kann. Dazu genügen in der Klimawissenschaft in aller Regel hohe Kompetenz, schnelle Computer und Internetanbindung. Darüber verfügen wir natürlich. Deswegen arbeiten unsere Wissenschaftler eben von ihren Homeoffices aus. Auf eigene Kosten und ehrenamtlich.  

Auch wenn im Wertekodex des BR  geschrieben steht, dass die Sendungen

"von demokratischer Gesinnung, von kulturellem Verantwortungsbewusstsein, von Menschlichkeit und Objektivität getragen sein (sollen) und der Eigenart Bayerns gerecht werden"

so darf man feststellen, dass diese Ansprüche vom Beitrag in keiner Weise erfüllt werden. Man würde den Bayern zudem bitteres Unrecht tun, wenn man vermutete, dass der Beitrag wenigstens der "Eigenart Bayerns gerecht" würde. Denn so sind sie nicht, unsere Landsleute aus Bayern. Das hat der BR allerdings nicht bemerkt. Die Verdammung der Klimaskeptiker war wichtiger.

Im "Wertekodex" des BR, der für alle Mitarbeiter verpflichtend ist, steht obendrein noch unter Glaubwürdigkeit : Das Publikum des BR kann sich auf eine ernsthafte, kritische, sorgfältige und beharrliche Berichterstattung verlassen. Auch dieser hehre Grundsatz wurde auf Gröbste verletzt, Recherchen z.B. bei EIKE selbst erfolgten keine. Übrig blieb reine Propaganda 

Michael Limburg EIKE

Den Beitrag können sie hier abrufen 

Wie sich inzwischen herausstellte ist Jürgen Hanika in der Online Redaktion der, oder einer der Autoren. Auf Nachfrage berief er sich auf die Süddeutsche Zeitung als eine seiner Quellen: Na dann! 

Die verantwortliche Online-Redaktion hat die Tel. Nr. 089-5900-16142

  • Kontak zum BR t: http://www.br.de/unternehmen/service/kontakt/index.html



Windturbinensyndrom schlimmer als gedacht

Als Teil seiner Dissertation hat Zhenhua Wang eine Studie über den Lärm von Windfarmen durchgeführt. Zhenhua Wang studiert Geographie, Umwelt und Bevölkerung (Environment and Population) an der University of Adelaide, Australien.

Windturbinen-Syndrom lässt mehr Menschen leiden als gedacht

Die Ergebnisse zeigen, dass 70% der Befragten, die im Abstand von bis zu 5 km von Windfarmen leben, vom Lärm der Windturbinen negativ beeinträchtigt sind. Mehr als 50% sind „sehr oder moderat negativ beeinträchtigt“. Das ist beträchtlich höher als frühere Studien aus Europa zeigen.

Die Untersuchung wurde nahe der Waterloo-Windfarm in Südaustralien durchgeführt. Dort stehen 37 Vestas V90 3 MW Turbinen über eine Ausdehnung von mehr als 18 km (1).

Diese Megaturbinen sollen, wie berichtet wird, mehr Geräusch im Niedrigfrequenzbereich (Low Frequency Noise – LFN) emittieren als kleinere Modelle. Daher sind mehr Menschen über größere Distanzen von den bekannten Symptomen des Windturbinensyndroms betroffen: Schlaflosigkeit, Kopfschmerzen, Übelkeit, Stress, geringere Konzentrationsfähigkeit, Erregbarkeit usw. Das führt zu schlechterem Gesundheitszustand und einer reduzierten Widerstandsfähigkeit gegen Krankheiten. Die dänische Regierung hat kürzlich anerkannt, dass LFN eine erschwerende Lärm-Komponente ist, dem Menschen in der Nachbarschaft von Windfarmen ausgesetzt sind. Das führte zum Erlass von Vorschriften, um die niederfrequenten Geräuschpegel innerhalb der Wohnungen auf 20 dB(A) zu begrenzen. Unglücklicherweise wurden die Berechnungsparameter so manipuliert, dass niederfrequenter Lärm bis zu 30 dB(A) innerhalb von Wohnungen in 30% der Fälle erlaubt ist, wie Professor Henrik Moller offenlegte. „Kaum jemand würde 30 dB(A) nachts in der Wohnung akzeptieren“, schrieb der Professor im vergangenen Monat (2).

Eine Zusammenfassung der australischen Studie steht hier (3), aber die vollständige Doktorarbeit ist nicht veröffentlicht. Die European Platform against Windfarms (EPAW) und die North-American Platform against Windpower (NA-PAW) haben die University of Adelaide um die Freigabe dieses wichtigen Dokumentes im Interesse der öffentlichen Gesundheit gebeten.

Ein Nachbar der Waterloo-Windfarm, Andreas Marciniak, schrieb in der vergangenen Woche an eine Lokalzeitung: „Halten Sie es für lustig, dass ich in meinem Alter nach Adelaide in einen Schuppen meiner Mutter umziehen musste und mein Bruder nach Hamilton in einen Wohnwagen ohne Wasser oder Elektrizität?“ (4) Sowohl Herrn Marciniak als auch seinem Bruder ist von den behandelnden Ärzten einschließlich eines Kardiologen angeraten worden, ihre Wohnungen zu verlassen und nicht mehr zurückzukehren, solange sich die Windturbinen drehen.

„Wie viele Menschen werden noch gezwungen sein, ihre Wohnungen zu verlassen, bis die Regierungen auf die Tausende von Windfarm-Opfern aufmerksam werden, die von EPAW und NAPAW vertreten werden? Es wird noch etwas Zeit brauchen, bis genügende Geld für einen großen Prozess gesammelt worden ist,“ sagte Sherri Lange von der NAPAW, „aber die Zeit arbeitet für uns: Die Opferzahlen werden ständig größer.“

von Mark Duchamp

Originalartikel hier

Übersetzung: Helmut Jäger, EIKE

Referenzen:

(1) http://ecogeneration.com.au/news/waterloo_wind_farm_officially_opened/054715/

(2) http://wattsupwiththat.com/2012/02/09/windfarm-noise-renowned-acoustician-denounces-double-standards-in-noise-regulations

(3) http://www.wind-watch.org/documents/evaluation-of-wind-farm-noise-policies-in-south-australia/

(4) Letter sent to the Editor of the Burra Broadcaster by Mr. Andreas Marciniak, windfarm victim. http://www.disturbines.org.nz/modules.php?name=News&file=article&sid=100




Energiewende in Aktion!

250 000 Euro für einen Arbeitsplatz, das müssen „wir“ bezahlen, was wir gerne tun wenn Produkt und Preis stimmen, wenn die Werschöpfung es uns wert ist.  Aber je mehr Arbeitsplätze in der Photovoltaik zu 250 000 Euro entstehen, desto teurer wird das Produkt bei gleicher Qualität. Da ist doch was falsch mit „diesen“ Arbeitsplätzen. 

Wenn wir ein Auto kaufen, da ist das doch irgendwie anders: Da ist es gut wenn „pro Auto“ weniger Arbeitsplätze dranhängen, dann ist das Auto billiger. Laufend wird versucht, bei gleicher Qualität billiger zu produzieren. Ja … verlieren wir hier Arbeitsplätze? Nein, wenn sich jeder dann ein Auto leisten kann, dann sind es in der Summe mehr. „Diese“ Arbeitsplätze scheinen von anderer Qualität, „diese“ Arbeitsplätze haben uns letztlich aus dem Mittelalter heraus in den Wohlstand geführt. 

Aber beim Produkt „Energie“ ist alles anders und die Situation wird noch verschlimmert durch die Tatsache, dass sich Subventionskosten potenzieren: 
http://www.achgut.com/dadgdx/index.php/dadgd/article/strompreise_elektrisieren_betriebe/ 
Nicht die Eurokrise, sondern steigende Energiepreise nennen die Unternehmen als ihr größtes Problem. Diese hier verlorenen Arbeitsplätze sind natürlich gegenzurechnen. 

Und das alles für 3% Solarstromanteil ! 
Was passiert, wenn sich der Anteil verzehnfacht? 
Wollen wir das? 
Oder anders gefragt: 
Geht das überhaupt? 

Man mag einwenden, dass sich teurere Energie rechnet gegen die Gefahren, die von der Atomenergie ausgehen. Man kann nicht immer die billigere Variante wählen, wenn sie mit gesundheitlichen Gefährdungen (auch Arbeitsschutz macht Arbeitsplätze teurer) oder Umweltgefahren einhergeht. Das ist richtig, aber zur Photovoltaik gibt es Alternativen. 

Thema 2: Superbenzin E10 

In Europa soll bis zum Jahr 2020 der Anteil von E10 auf 10 % gesteigert werden, was eine Anbaufläche von knapp 70.000 km² bedeutet – die zweifache Fläche Belgiens. 
http://www.spiegel.de/wissenschaft/natur/0,1518,749055,00.html 
Überschlagen wir mal: 
10% vom Sprit für E10 und 
E10 hat wiederum 10% Ethanol, 
also benötigen wir für 1% Ethanol im Gesamtsprit. 
Bafür brauchen wir als Anbaufläche zwei mal die Fläche Belgiens = 60.000 km2, vollständig als landwirtschaftliche Monokultur. Zwei mal die Fläche Belgien heisst nicht zwei mal die landwirtschaftliche Anbaufläche Belgiens, nein … vollständig die Fläche mit allem was drauf ist, bebaut in Fruchtfolge für maximalen Ertrag an Stärke und Zucker. 
Und wir brauchen Kunstdünger: 
Der Einsatz von Düngern ist heute etwa beim Maisanbau in den USA der Haupt-Energieverbraucher, und hat noch mehr als die Mechanisierung dazu beigetragen, dass die Landwirtschaft mehr Energie verbraucht als sie in Form von Lebensmitteln erzeugt. Das macht zumindest dahingegen noch Sinn, dass man Dünger nicht essen kann. Und wir haben ja neben der Energiebilanz auch noch die Kostenbilanz. 

Somit exportieren wir das Problem dahin, wo sich das Problem noch rechnet, das hier sind die Glücklichen: 
Brasilien baut Zuckerrohr für Ethanol an, Indonesien gewinnt Biodiesel aus Palmöl. Mais aus Mexiko wird in den USA in großen Mengen zu Biosprit verarbeitet. 
Ja: „Wir müssen uns überlegen, ob wir mit 200 Kilo Mais einen Kleinwagen 1000 Kilometer antreiben oder davon die 700.000 Kalorien gewinnen, um einen Menschen ein Jahr lang zu ernähren.“ 
http://www.rp-online.de/politik/ausland/Ein-Menschenleben-fuer-1000-Kilometer-mit-Biosprit_aid_554661.html 
So packen wir das Brot für den Tank: 
Der grüne Zeitgeist fordert Energie vom Acker und ökologisch korrekte Ernährung. Während der Nutzen für Klima und Natur umstritten ist, schießen die Agrarpreise in die Höhe, und der Hunger breitet sich weltweit aus. Die Zeit drängt, die teure Förderung von Bioenergie zu stoppen. 
Ein Großteil der Inflation in Deutschland geht inzwischen auf das Konto von Nahrungsmitteln. Die Bundesbürger können es verschmerzen. Ihr Einkommen ist global gesehen hoch, der Anteil der landwirtschaftlichen Rohstoffe am Endverbraucherpreis gering. Von den 25 Cent, die der Bäcker für eine Schrippe erhält, entfällt auf den Rohstoff Weizen weniger als ein Cent. 
Fast eins zu eins schlagen die Preissteigerungen dagegen in den Ländern mit der ärmsten Bevölkerung durch, in denen die Menschen nicht 14 Prozent wie in Deutschland, sondern 70 bis 95 Prozent ihres verfügbaren Einkommens für Nahrungsmittel verwenden müssen. 
http://www.wiwo.de/politik-weltwirtschaft/brot-fuer-den-tank-458874/ 
Landenteignung durch Biosprit-Boom am Beispiel Brasilien: 
Auch im brasilianischen nordöstlichen Bundesstaat Bahia ist die „Agrosprit-Welle“ angekommen. Die dort geplanten Biodiesel-Projekte stellen eine große Gefahr für die artenreichen Cerrado- und Caatinga-Wälder, für die traditionellen Weiden in Gemeindebesitz, Küstenwälder und die kleinbäuerliche Landwirtschaft dar. 
Von Landraub und Existenzverlust ist auch das sich im baianischen Bezirk Casa Nova befindende traditionelle Weidegebiet Areia Grande betroffen. Dort eskalierte nun am 7. Februar 2009 der Konflikt zwischen den in diesem Gebiet lebenden traditionellen Gemeinschaften und den Biodiesel-InvestorInnen: Die Leitfigur des Widerstands – der Kleinbauer José Campos Braga – wurde erschossen. 
Seitdem das Gebiet von Areia Grande in Bezug auf das geplante Agrosprit-Projekt zur Diskussion steht, kommt es laut der „Bischöfliche Kommission für Landpastoral“ (CPT Comissão Pastoral da Terra) immer wieder zur gezielten Zerstörungen von Häusern, Stallungen und Zäunen der dort ansässigen Familien vonseiten sogenannter Schlägertruppen, mit dem Ziel, die Bevölkerung einzuschüchtern und zu vertreiben. 
http://www.oneworld.at/start.asp?ID=231503 
Pater Tiago: Rund eine Million Menschen arbeiten jetzt schon für Brasiliens Ethanol-Industrie, etwa 400.000 davon sind Zuckerrohrschneider. Mit dem Ökoboom werden es täglich mehr. Aber sehr viele von ihnen werden gehalten wie Sklaven. 
http://www.spiegel.de/wirtschaft/0,1518,602457,00.html 

Und das alles für 1% Anteil am Sprit ! 
Was ist der Effekt? 
Auch 1 %? 
Was passiert, wenn sich der Anteil verzehnfacht? 
Wollen wir das? 

Thema 3: Biodiesel 

Das Umweltbundesamt lehnt in einem Bericht vom 1. September 2006 die Herstellung von Biodiesel ab und stellt fest: „Potenzial Biodiesel: Wegen der beschränkten Ackerflächen kann mit in Deutschland angebautem Raps maximal etwa fünf Prozent des im Verkehrssektor benötigtem Dieselkraftstoff ersetzt und ein bis vier Prozent der Treibhausgasemissionen in diesem Bereich vermieden werden. Hierzu müsste aber bereits die Hälfte der gesamten deutschen Ackerfläche zum Biodiesel-Rapsanbau in vierjähriger Fruchtfolge genutzt werden, was eher unrealistisch ist. Das tatsächliche Potential liegt deshalb eher in der Größenordnung von 1 bis 2 % der Dieselmenge.“ (Anmerkung: Die Nahrungsmittelindustrie schlägt hier auch zu) Somit exportieren wir das Problem dahin, wo sich das Problem noch rechnet, das hier sind die Glücklichen (Hatten wir das nicht schon mal?): Die glücklichen Menschen: Innocence Dias starb einen grausamen Tod. Die Mörder schnitten ihm die Kehle durch, und er hatte sieben Messerstiche im Körper. Sein Fehler war, dass er sein Land nicht an eine Gruppe von Paramilitärs verkaufen wollte, die eines Tages in seinem Dorf Llano Rico im kolumbianischen Departement Antioquia auftauchte. Nach dem Mord gab Dias` Familie auf und floh. Heute wachsen auf dem Land der Vertriebenen Ölpalmen der Biokraftstoff-Firma Urapalma. http://www.focus.de/wissen/wissenschaft/klima/tid-6666/biokraftstoffe_aid_64512.html Die glücklichen Nashörner: Palmöl-Boom und “Naturheilkunde” vernichten die letzten Nashörner http://www.achgut.com/dadgdx/index.php/dadgd/article/palmoel_boom_und_naturheilkunde_vernichten_die_letzten_nashoerner/Die glücklichen Orang-Utans: Blutiges Palmöl: http://www.faszination-regenwald.de/initiative/download/download_palmoel.php Letzte Orang-Utans durch Ölpalmen-Plantagen akut bedroht: Indonesien ist das Land, in dem die Urwaldvernichtung am schnellsten voranschreitet. Seit 1950 sind 74 Millionen Hektar Wald zerstört worden – eine Fläche, die doppelt so groß wie Deutschland ist. Besonders dramatisch für das Klima und die Artenvielfalt sind die Rodung und anschließende Trockenlegung der Torfwälder, nachdem die rund zehnmal mehr Kohlenstoff speichern als andere Urwälder und zahlreiche vom Aussterben bedrohte Arten wie Orang-Utans, Sumatra-Tiger oder Java-Nashörner beheimaten. Aufgrund seiner extremen Urwaldzerstörung ist Indonesien mittlerweile bereits der drittgrößte Produzent von Treibhausgasen – unmittelbar hinter China und den USA. http://www.oekonews.at/index.php?mdoc_id=1049021 Der glückliche Lobbyist: Joschka Fischer wird den Handelskonzern Rewe beraten. Der frühere Vizekanzler soll bei der Vermarktung von Bio-Lebensmitteln behilflich sein. http://www.welt.de/wirtschaft/article9436192/Joschka-Fischer-wird-Oeko-Berater-bei-Rewe.html Sich der Problematik das Palmöls bewusst, hat die Industrie den RSPO (Roundtable on Sustainable Palm Oil) gegründet, der Palmöl zertifiziert. Umweltschützer werfen dieser Organisation zu lasche Regeln vor. Zahlreiche Palmölproduzenten seien Mitglieder, die gar nicht oder nur in geringem Umfang nachhaltig arbeiteten. http://www.wwf.de/presse/details/news/industrie_pfeift_auf_nachhaltiges_palmoel/ So hat die RSPO-Zertifizierung überhaupt keine Aussagekraft, sagt Peter Gerhardt, Agrarreferent der Umweltschutzorganisation Robin Wood. So sei es nach Kriterien des RSPO erlaubt, „weiterhin Wald in Ackerflächen umzuwandeln“. Gerhardt appelliert an die Konzerne, überhaupt kein Palmöl einzusetzen, und an die Verbraucher, möglichst unverarbeitete Lebensmittel zu kaufen. http://www.taz.de/!43988/ RSPO -Zertifikat praktisch wirkungslos: Zahlreiche Untersuchungen wie von Greenpeace oder Rettet den Regenwald e.V. belegen die praktische Wirkungslosigkeit des RSPO. Monokulturen können nicht nachhaltig sein, so die Argumentation der Gegner des RSPO. Zudem sind Landraub, Vertreibung indigener Völker und die Zerstörung von Primär-Regenwald an der Tagesordnung, da die Auflagen des RSPO zu schwach sind und keine wirkungsvollen Sanktionen vorgesehen sind. Täuschung der Verbraucher durch Greenwashing: Das Vertrauen von Verbrauchern wird durch Unternehmen missbraucht, indem sie Produkte aus “umweltfreundlicher Produktion” anbieten und Palmöl aus RSPO-zertifizierter Produktion als nachhaltig ausweisen. Der Dokumentarfilm “Der Pakt mit dem Panda”, der im Juni 2011 in der ARD lief, zeigt Auswirkungen der RSPO und greift die hier beschriebenen Kritikpunkte auf. http://de.wikipedia.org/wiki/Roundtable_on_Sustainable_Palm_Oil Seit 2007 gilt in Deutschland eine Beimischungspflicht von 4,4 % Biodiesel zu herkömmlichem Diesel, das alles für: Ja das alles für 4,4% Anteil am Sprit ! Was ist der Effekt? Auch 4,4 %? Was passiert, wenn sich der Anteil verzehnfacht? Wollen wir das? Achso ja: 

Thema 4: 

Eine Million Elektroautos würden gerade 0,5 Prozent des deutschen Stromverbrauchs benötigen, das führt nicht zu merklichen Mehrbelastungen bei Kraftwerken und Netzen: http://www.vde.com/de/verband/pressecenter/pressemeldungen/fach-und-wirtschaftspresse/seiten/2010-35.aspx Wir haben in Deutschland 57 Millionen gemeldete Kraftfahrzeuge, wir sprechen also von 2% aller gemeldeten Kraftfahrzeuge. Keine merklichen Mehrbelastungen bei Kraftwerken und Netzen führen also auch zu keinen merklichen positiven Effekten. Geht man von 100% elektrischer Fahrzeuge aus (wenn’s mit Elektrofahrzeugen so gut geht, künftige Batterieentwicklungen eingeschlossen, warum soll dann noch einer mit Verbrennungsmotor fahren), dann sind es schon fast 30% plus an Stromverbrauch. Ich erwarte, dass das schon in die aktuellen Netzausbaupläne eingeplant ist, wie auch die Erzeugung des Stroms … an der Stelle möge der geneigte Leser oben wieder zu lesen beginnen … 

Anmerkung dazu: Wie soeben berichtet stellt GM für Wochen die Produktion von Elektroautos ein. 

General Motors stoppt Produktion von E-Autos

Dr. Rupert Reiger arbeitet da in einem Forschungszentrum der Luft- und Raumfahrtindustrie an Software und Algorihmen. 





Deutsche Atom-Hysterie kostet 2,6 Milliarden Euro im Jahr

Der Verband steht für 80 Prozent des industriellen Energieeinsatzes in Deutschland. Der VIK hat Deutschland mit Großbritannien und Skandinavien verglichen. Die Preisentwicklung auf diesen Märkten korrelierte bis zur Abschaltung der acht deutschen Kernkraftwerke kurz nach der Atomkatastrophe in Fukushima vor einem Jahr traditionell stark. Seitdem ist es jedoch damit vorbei: Der Preis in Deutschland hat gegenüber dem britischen um vier Euro je Megawattstunde zugelegt, gegenüber dem skandinavischen sogar um sechs Euro..

Siehe dazu das Handelsblatt:

Der VIK schreibt dazu in seiner Pressemitteilung:

VIK-Pressemitteilung

Strompreis und Kernkraftmoratorium – der Einfluss ist da!

Vergleich von Strompreisen in UK und Skandinavien mit Deutschland untermauert hohe Kosteneffekte für die Verbraucher

Essen, 6. März. 2012 – Ein aktueller Strompreisvergleich des VIK, der Interessenvertretung energieintensiver Unternehmen, zeigt: Trotz derzeit relativ stark gesunkenem Strompreis, hat der beschleunigte Kernenergieausstieg die deutschen Strompreise doch nachweisbar erhöht. Die VIK-Preisvergleiche des deutschen Strommarktes mit denen in UK und Skandinavien zeigen, wie sich das deutsche Preisniveau deutlich gegenüber diesen nach oben verschoben hat. Das widerlegt sehr deutlich die Behauptung, der deutsche Strompreis sei vom beschleunigten Kernenergieausstieg unbeeindruckt geblieben.

„Ausgehend von der These, der deutsche Strompreis hätte sich ohne Moratorium wie zuvor weiter in großer Korrelation mit dem Preis in UK entwickelt, zeigt eine Gegenüberstellung der Preiskurven: der deutsche Preis hat um ca. 4 €/MWh gegenüber dem britischen zugelegt und könnte heute um diese 4 €/MWh niedriger liegen. Beim Vergleich mit dem skandinavischen Markt fällt das Ergebnis noch höher aus. Hier sind es im Durchschnitt 6 €/MWh Strommehrkosten, die auf das Konto der deutschen Wettbewerbsnachteile zugebucht wurden. Auf Basis des Mittelwertes dieser beiden Ergebnisse, ergibt sich ein Preiseffekt der beschleunigten Energiewende mit Strommehrkosten für die Industrie von jährlich 1,1 Mrd. €. Für die Verbraucher insgesamt sind das über 2 Mrd. € Mehrkosten. Diese Zahlen müssen in eine ganzheitliche Debatte und Weiterentwicklung der deutschen Energiewende eingebunden werden!“, so Dr. Annette Loske, Hauptgeschäftsführerin des VIK.

 

Abb. 1 zeigt die Entwicklung des für die langfristige Stromlieferung entscheidenden Terminmarkts an der Endex in UK und der EEX in Deutschland für das Stromprodukt Baselieferung über das 1. Quartal 2012. Der Vergleich von Deutschland mit UK eignet sich besonders gut, um Sondereffekte zu isolieren, da die weitgehend voneinander unabhängigen (wenige Verbindungsleitungen) Strommärkte in UK und Deutschland in der Vergangenheit einen sehr ähnlichen Preisverlauf gezeigt haben. Das liegt im Wesentlichen daran, dass in beiden Märkten der Gaspreis entscheidend für den Strompreis ist, da die Gaskraftwerke häufig preissetzend sind. Dies hat zur Folge, dass sich die Preise weitgehend parallel verschoben entwickelt haben.

Das hat sich auch nach dem Kernenergiemoratorium Mitte März so weiterentwickelt. Allerdings hat sich die Parallelverschiebung deutlich verändert. Das heißt: die Preiskurven ticken weiterhin im gleichen Takt, haben sich aber deutlich angenähert. Lag der Preisabstand vor dem Moratorium im Mittel bei 6,84 Euro/MWh, so hat er sich danach auf 3,63 Euro/MWh verringert. Wenn also die Strompreise heute relativ niedrig erscheinen, so sind sie aber dennoch durch das Moratorium und die Verknappung der Erzeugungskapazitäten hochgehalten worden und könnten bei Normalentwicklung noch um ca. 4 €/MWh niedriger liegen.

Die Gegenüberstellung macht deutlich, die Sichtweise, dass das Strompreisniveau in Deutschland nach dem Kernenergiemoratorium wieder auf dem Wert vor der Abschaltentscheidung angekommen sei, ist allzu vereinfachend und dabei auch noch irreführend. Nicht der absolute Preis ist ein brauchbarer Indikator für die Preiseffekte des Kernenergieausstiegs, sondern die relative Preisentwicklung der Märkte zueinander. Und danach haben die deutschen Stromkunden klar verloren.

*Im Zeitraum vom 14. März bis 25. November 2011 hat der Strompreis am Terminmarkt der EEX für das Kalenderjahr 2012 im Mittel bei 57,45 €/MWh gelegen. Ein Plus von rd. 4,34 €/MWh gegenüber dem 14. März 2011 (53,11 €/MWh). Im Zeitraum März bis Dezember finden i.d.R. die meisten Stromvertragsabschlüsse statt. Der Gesamtverbrauch der Industrie betrug im Jahr 2010 rd. 223 TWh (Quelle BDEW/BMWi). Unter der Annahme eines ähnlichen Verbrauchs im Jahr 2012 ergeben sich 2012 Strommehrkosten für die Industrie von 968 Mio. Euro (223 TWh x 4,34 €/MWh = 968 Mio. Euro).

Für den gesamtdeutschen Strommarkt bedeutet das eine Erhöhung der Stromkosten, bei einem angenommen Verbrauch von 500 TWh, von 2,17 Mrd. Euro.

VIK Verband der Industriellen
Energie- und Kraftwirtschaft e.V.

 

Dipl.-Ing. Roland Schmied

Pressesprecher




Am modernen Pranger!

Wer sich im Skandal der öffentlichen Meinung widersetzt, wird mundtot gemacht oder, falls dies nicht möglich ist, ausgegrenzt. Das betrifft auch Journalisten. Ein Beispiel für die damit verbundenen Prozesse ist ein Interview von Simon Feldmer im Magazin des Deutschen Journalistenverbandes mit dem Chefredakteur der „Stuttgarter Zeitung“, Joachim Dorfs. Den Anlass bildete der geplante Abriss des Stuttgarter Hauptbahnhofs, den eine Reihe von einflussreichen Medien monatelang skandalisiert, die „Stuttgarter Zeitung“ aber gerechtfertigt hatte. Feldmer suggerierte mit ganzen Frageserien den Eindruck, Dorfs sei ein irregeleiteter Außenseiter, der der Zeitung wirtschaftlich geschadet und die Pressefreiheit eingeschränkt habe und folglich beruflich fehl am Platz sei. Nachdem er behauptet hatte, Gegner von Stuttgart 21 hätten im Internet die Kündigung ihres Abonnements der SZ dokumentiert, fragte er: „Wie viele Leser haben explizit wegen Ihrer Berichterstattung gekündigt?“ Nachdem Dorfs auf 600 verwiesen hatte, fragte er: „Wie kommen Sie auf diese Zahl? Es können doch viel mehr Leser gekündigt haben …?“ Nachdem Dorfs höhere Schätzungen zurückgewiesen hatte, fragte Feldmer höhnisch: „Sie haben angefangen, Leserkonferenzen zu organisieren. Wegen 600 Kündigungen?“ Nachdem Dorfs drauf hingewiesen hatte, dass die Zeitung solche Konferenzen schon viel früher veranstaltet hatte, wechselte Feldmer das Thema und suggerierte auf gleiche Weise eine Beschränkung der Pressefreiheit bei der „Stuttgarter Zeitung“. Im Kern handelt es sich bei Praktiken wie der erwähnten um Angriffe auf die Meinungsfreiheit. Sie zielen nicht auf die Etablierung, sondern auf die Unterbindung eines kritischen Diskurses.

Was sind die Ursachen der Intoleranz von Menschen, die sich selbst wahrscheinlich für tolerant halten? Ein Grund besteht darin, dass jeder Skandal auf dem absoluten Geltungsanspruch von Meinungen beruht. Die Skandalisierung folgt sozialpsychologischen Gesetzmäßigkeiten, die der Psychologe Salomon Asch durch eine Serie von Experimenten aufgezeigt hat. Er ließ seine Testpersonen in mehreren Durchgängen die Länge einer Linie mit der Länge anderer Linien vergleichen. Eine der anderen Linien entsprach unverkennbar der Vergleichslinie, die restlichen unterschieden sich deutlich davon. Die Betrachter gaben ihre Urteile nacheinander laut ab. Die eigentliche Testperson urteilte als letzte, alle anderen waren Mitarbeiter von Asch, die nach einigen normalen Durchgängen übereinstimmend eine offensichtlich falsche Linie nannten. Dadurch sah sich die Testperson nun einer homogenen Mehrheit ausgesetzt. Obwohl das Urteil der Mehrheit offensichtlich falsch war, schlossen sich ihm drei Viertel der Testpersonen zumindest gelegentlich an. Der gleiche Mechanismus liegt, wie Elisabeth Noelle-Neumann mithilfe von repräsentativen Umfragen gezeigt hat, der Entstehung der öffentlichen Meinung zugrunde. Bei öffentlichen Kontroversen über moralisch geladene Themen verfällt die Minderheit in Schweigen oder passt sich der Mehrheitsmeinung an, weil sie die Isolation durch die Mehrheit fürchtet.

Auf die absolute Größe der Mehrheit kommt es bei den genannten Prozessen nicht an. Entscheidend ist ihre tatsächliche oder vermeintliche Geschlossenheit. So brach im Experiment der Druck der Mehrheit nahezu völlig zusammen, wenn sie nicht homogen war, weil einer der Mitarbeiter Aschs richtige Urteile abgab: In der Gewissheit, nicht alleine zu sein, vertraten die Testpersonen ihre eigene Sichtweise. Genau das darf bei einer Erfolg versprechenden Skandalisierung nicht geschehen. Deshalb müssen Andersdenkende, wenn man sie nicht überzeugen oder mundtot machen kann, intellektuell oder moralisch diskreditiert und dadurch gesellschaftlich isoliert werden.

Die Ächtung der Nonkonformisten hat weniger mit dem Inhalt ihrer Äußerungen zu tun als mit ihrer sozialen Rolle. Die Ächtung der Nonkonformisten dient der Sicherung des Überlegenheitsgefühls der Mehrheit sowie der Unterwerfung der Skandalisierten. Die Skandalisierten müssen, weil nur so die allgemeine Geltung der eigenen Sichtweise gesichert werden kann, isoliert werden. Dies erfordert, dass auch diejenigen, die ihre Isolation durchbrechen, diskreditiert werden. Deshalb weisen Skandale totalitäre Züge auf: Sie zielen auf die Gleichschaltung aller, weil die öffentliche Abweichung einiger den Machtanspruch der Skandalisierer und ihrer Anhänger infrage stellen würde. Die großen Skandale kann man deshalb als demokratische Variante von Schauprozessen betrachten. In beiden Fällen enthält die Anklage fast immer einen wahren Kern. Das Ziel besteht jedoch nicht darin, die Angeklagten nach rechtstaatlichen Regeln zu überführen, sondern sie und alle, die zu ihnen stehen, zu unterwerfen. Deshalb ruft im Skandal – anders als im Strafprozess – nichts größere Empörung hervor als die Weigerung der Angeklagten, ihre Schuld zu gestehen und die Unverfrorenheit von Nonkonformisten, sich zu den Skandalisierten zu bekennen.

Prof. Dr. Hans Mathias Kepplinger

zuerst erschienen in die WAMS vom 4.3.12 mit freundlicher Genehmigung




Das Ökostrom-Gesetz ist verfassungswidrig!

"….Das zentrale Gesetz zur Umsetzung der ökologischen Energiewende in Deutschland verstößt gegen die Verfassung. Zu diesem Schluss kommt ein Gutachten, das die Rechtsfakultät der Universität Regensburg im Auftrag des Gesamtverbandes Textil und Mode verfasst hat. In dem Gutachten, das „Welt Online“ vorliegt, stellt der Staatsrechtler Gerrit Manssen fest, dass die Kostenwälzung des Erneuerbare-Energien-Gesetzes (EEG) nach der 2010 in Kraft getretenen Novellierung eine „Sonderabgabe“ darstellt, die in allen wesentlichen Punkten mit dem früheren „Kohlepfennig“ vergleichbar ist. Der vom Stromverbraucher zu zahlende Kohlepfennig zur Subventionierung des deutschen Steinkohlebergbaus war 1994 vom Bundesverfassungsgericht verboten worden…."

Hier weiter lesen

Die FTD schreibt zum selben Thema

EnergiewendeEon warnt vor Baustopp bei Offshore-Windkraftanlagen

Der Energiekonzern macht den Netzbetreibern schwere Vorwürfe: Sie kommen mit dem Anschluss der Windparks auf See nicht hinterher, weil sie sich zu viel vorgenommen und die Probleme unterschätzt haben. Die Situation sei katastrophal und gefährde die Energiewende in Deutschland.




Fuzzy Dreieckszahlen und das IPCC

Oder wie es diese Gelehrten es ausdrücken:

Temperaturänderung (∆T) = Klimasensitivität ( λ ) mal erzwungene Änderung durch Antriebe (∆F).

Oder als Gleichung:

∆T = λ  ∆F.

Das Problem dabei ist Folgendes: Nach dreißig Jahren von Versuchen, die natürliche Welt in diese Zwangsjacke zu stecken, ist es ihnen bis heute nicht gelungen, diese Zahlen festzumachen. Meine Theorie lautet, dass die Ursache hierfür ein theoretisches Missverständnis ist. Der Fehler liegt in der Behauptung, dass Temperaturänderung gleich den Änderungen der Antriebe mal irgendeiner Konstante ist.

Bild rechts: Die unscharfe Dreieckszahl für die Anzahl der Säugetierarten [4166,  4629, 5092]wird repräsentiert durch die durchgezogene Linie. Die Spitze liegt bei der besten Schätzung, 4629. Die oberen und unteren Begrenzungen der vermuteten Anzahl der Arten variieren mit dem Wert der Zugehörigkeit [membership value]. Für einen Wert der Zugehörigkeit von 0,65 (gepunktete Linien) liegt die untere Grenze bei 4467Arten und die obere Grenze bei 4791Arten (IUCN 2000)

Was sind also unscharfe Dreieckszahlen, und wie können sie uns helfen zu verstehen, warum die Behauptungen des IPCC bedeutungslos sind?

Eine unscharfe Dreieckszahl setzt sich aus drei Schätzungen irgendwie unbekannter Variablen zusammen – die niedrigste, die höchste und die beste Schätzung. Um mit diesen ungewissen Angaben Berechnungen anzustellen, ist es nützlich, „unscharfe Mengen“ zu verwenden. Die traditionelle Mengenlehre enthält die Entscheidung, ob etwas exklusiv Teil der Menge ist oder nicht. Zum Beispiel ist ein Tier entweder lebendig oder tot. Allerdings kann für eine Anzahl von Mengen keine klare Mitgliedschaft bestimmt werden. Zum Beispiel, ist eine Person mit 55 Jahren „alt“?

Während man keine klare ja/nein-Antwort geben kann, können wir unscharfe Mengen nutzen, um die Größenordnungen dieser Art von Werten zu bestimmen. Anstelle von 0 oder 1, die die Mitgliedschaft in traditionellen Mengen festlegen, verwenden unscharfe Mengen eine Zahl zwischen 0 und 1, um eine teilweise Mitgliedschaft in der Menge zu kennzeichnen.

Unscharfe Mengen können auch verwendet werden, um Grenzen um ungewisse Werte zu ziehen. Zusätzlich zu höheren und niedrigeren Werten können diese Grenzen auch beste Schätzungen enthalten. Es ist eine Möglichkeit, Sensitivitätsanalysen durchzuführen, wenn man wenig Informationen über die tatsächlichen Fehlerquellen und die Größe der Fehler hat. Am einfachsten wäre Folgendes: Alles, was wir brauchen, sind Werte, von denen wir es für sehr unwahrscheinlich erachten, größer oder kleiner als * zu sein. Diese niedrigeren und höheren Begrenzungen plus die beste Schätzung bilden eine Dreieckszahl. Eine Dreieckszahl wird geschrieben als (niedrigster vermuteter Wert, beste Schätzung, höchster vermuteter Wert).

*Man vergleiche mit dem Original. Das steht dort wirklich so! Wenn da etwas fehlt, weiß ich nicht, was. A. d. Übers.

Zum Beispiel wird die Anzahl der Säugetierarten durch die Rote Liste der IUCN mit 4629 Arten angegeben. Allerdings ist dieser Wert bekannt dafür, ein Gegenstand geschätzter Fehler zu sein, der normalerweise mit ± 10% angegeben wird.

Diese Bandbreite von Schätzungen der Anzahl der Säugetierarten kann durch eine unscharfe Dreieckszahl repräsentiert werden. Für die Anzahl der Arten lautet diese (4166, 4629, 5092), um die unteren und oberen Grenzen ebenso wie die beste Schätzung in der Mitte zu beschreiben. Die Abbildung oben rechts zeigt die unscharfe Zahl, die die Zählung aller Säugetierarten repräsentiert.

Alle normalen mathematischen Operationen können unter Verwendung von Dreieckszahlen durchgeführt werden. Das Endergebnis der Operation zeigt den wahrscheinlichsten Wert zusammen mit den zu erwartenden maximalen und minimalen Werten. Für die Prozedur von Additionen, Subtraktionen und Multiplikationen werden der niedrigste, der beste und der höchste Wert einfach addiert, subtrahiert oder multipliziert. Nehmen wir zwei unscharfe Zahlen, die Dreieckszahl

T1 = [L1,  B1,  H1]

und die Dreieckszahl

T2 = [L2,  B2,  H2],

wobei „L“, „B“ und „H“ der niedrigste [lowest], der beste und der höchste Wert sind. Die Regeln sind Folgende:

T1 + T2  =  [L1 + L2,  B1 + B2,  H1 + H2]

T1 – T2  =  [L1 – L2,  B1 – B2,  H1 – H2]  (Nicht korrekt ausgeführt, siehe unten. Zu schnell).

T1 * T2  =  [L1 * L2,  B1 * B2,  H1 * H2]

Dieser Teil ist also einfach. Für Subtraktion und Division ist es etwas anders. Der niedrigste mögliche Wert wird die niedrige Schätzung im Zähler und die hohe Schätzung im Nenner sein, und umgekehrt für den höchsten möglichen Wert. Also sieht die Division folgendermaßen aus:

T1 / T2 = [L1 / H2,  B1 / B2,  L2 / H1]

Und für die Subtraktion so:

T1 – T2  =  [L1 – H2,  B1 – B2,  H1 – L2]

Wie können wir nun unscharfe Dreieckszahlen anwenden, um zu sehen, was das IPCC macht?

Nun, die Klimasensitivität (in °C pro W/m²) oben in der magischen Formel des IPCC besteht aus zwei Zahlen – die durch eine Verdoppelung des CO2-Gehaltes erwartete Temperaturänderung und der dadurch erwartete zunehmende Antrieb. Für jede haben wir Schätzungen der wahrscheinlichen Bandbreite der Werte.

Von der ersten Zahl, also dem Antrieb durch eine Verdoppelung des CO2-Gehaltes, sagt das IPCC, dass sich ein zusätzlicher Antrieb von 3,7 W/m² ergibt. Die Endpunkte dieses Wertes sind wahrscheinlich 3,5 für den niedrigeren und 4,1 für den höheren Wert (Hansen 2005). Dies ergibt eine Dreieckszahl von (3,5; 3,7; 4,0) W/m² für die Änderung des Antriebs durch den doppelten CO2-Gehalt.

Die zweite Zahl, die Temperaturänderung durch die Verdoppelung des CO2-Gehaltes wird vom IPCC hier als die Dreieckszahl (2,0; 3,0; 4,5) °C angegeben.

Dividiert man die Sensitivität durch Verdoppelung durch die Änderung des Antriebs durch Verdoppelung, ergibt sich ein Wert der Temperaturänderung (∆T, °C) aus einer gegebenen Änderung des Antriebs (∆F, W/m²). Dies wiederum ist ebenfalls eine Dreieckszahl, und nach den Gesetzen der Division ergibt sie sich zu:

T1 / T2 = [L1 / H2, B1 / B2, L2 / H1] = [2.0 / 4.0,   3.0 / 3.7,   4.5 / 3.5]

also eine Klimasensitivität von (0,5; 0,8; 1,28) °C Temperaturänderung für jede Änderung des Antriebs in W/m². Man beachte, dass der zentrale Wert wie erwartet der autorisierte Wert von 3°C durch Verdoppelung des CO2-Gehaltes ist.

Betrachten wir jetzt, was dies in der realen Welt bedeutet. Das IPCC vergleicht die Änderung des Antriebs seit der „vorindustriellen Zeit“, die sie mit [dem Jahr] 1750 festlegen. Die Änderung des Antriebs seit 1750, ∆F, legt das IPCC hier mit einer Zunahme um (0,6; 1,6; 2,4) W/m² fest.

Die Multiplikation der Dreieckszahl für die Änderung des Antriebs (0,6; 1,6; 2,4) W/m² mit der Dreieckszahl der Sensitivität (0,5; 0,8; 1,28) °C pro W/m² ergibt die IPCC-Schätzung der Temperaturänderung, die man seit 1750 erwarten dürfte. Natürlich ist auch das eine Dreieckszahl, die wie folgt berechnet wurde:

T1 * T2 = [L1 * L2, B1 * B2, H1 * H2] = [0.5 * 0.6,  0.8 * 1.6,  2.4 *1.28]

Die endgültige Zahl, die IPCC-Schätzung der Erwärmung seit 1750 vorhergesagt durch ihre magische Formel liegt bei einer Erwärmung von (0,3; 1,3; 3,1) °C.

Lassen Sie mich das anders ausdrücken, es ist wichtig. Ein Vierteljahrhundert lang haben die AGW-Befürworter Millionen Stunden und Millionen Dollar in Studien und Computermodelle gesteckt. Außerdem knirscht und kracht es im Gebälk des gesamten IPCC-Apparates seit nunmehr fünfzehn Jahren, und das ist das Beste, was sie uns sagen können, für all das Geld und all die Studien und all die Modelle?

Der Berg kreißte und schlussfolgerte, dass wir seit 1750 eine Erwärmung irgendwo zwischen einem Drittel Grad und drei Grad gehabt haben… Das ist wirklich ein eindrucksvolles Stück Detektivarbeit, Lou…

Im Ernst? Das ist das Beste, was sie tun können, nach dreißig Jahren Studium? Eine Erwärmung zwischen einem Drittel Grad und drei Grad? Ich kann mir keine weniger falsifizierbare Behauptung vorstellen. Jede Erwärmung lässt sich mühelos in dieses Intervall einpassen. Egal, was passiert, sie werden immer den Erfolg für sich in Anspruch nehmen. Und das ist Nachhersage, nicht einmal Vorhersage. Huch!

Ich sage noch einmal, dass das Gebiet der Klimawissenschaft mit der Übernahme der durch nichts gestützten Behauptung in die falsche Richtung abgebogen ist, nämlich dass bei einem so gewaltig komplexen System wie dem Klima eine lineare Beziehung besteht zwischen der Änderung des Inputs und der Änderung der Operationsbedingungen. Die fundamentale Gleichung des konventionellen Paradigmas, ∆T = λ ∆F; die Grundbehauptung, dass die Temperaturänderung eine lineare Funktion der Änderung des Antriebs ist, stimmt einfach nicht.

Willis Eschenbach

Link: http://wattsupwiththat.com/2012/02/07/triangular-fuzzy-numbers-and-the-ipcc/

Übersetzt von Chris Frey




The Skeptics Case*

Was die Klimawissenschaftler der Regierung sagen


Abbildung 1: Die Klimamodelle. Falls sich der CO2-Gehalt verdoppelt (was bei der gegenwärtigen Rate frühestens 2070 oder 2100 der Fall sein kann) simulieren die Klimamodelle eine Temperaturzunahme wegen dieses zusätzlichen CO2 um 1,1°C × 3 = 3,3°C. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote1sym1

Die direkte Auswirkung ist gut verstandene Physik, die auf Laborergebnissen basiert und seit über einem Jahrhundert bekannt ist. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote2sym2

Rückkopplungen treten auf wegen der verschiedenen Arten, mit denen die Erde auf den direkten Erwärmungseffekt durch das CO2 reagiert. Die dreifache Verstärkung der Rückkopplungen basiert auf der um das Jahr 1980 entstandenen Hypothese oder der Vermutung, dass mehr Erwärmung durch CO2 zu größerer Verdunstung der Ozeane führt und das dieser zusätzliche Wasserdampf wiederum zu größerer Rückhaltung von Wärme führt, weil Wasserdampf das wesentliche Treibhausgas ist. Und zusätzliche Wärme ergibt noch mehr Verdunstung, und so weiter. Diese Verstärkung berechnen alle Klimamodelle. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote3sym3

Die Klimawissenschaftler der Regierung und die Medien erzählen uns oft etwas über die direkte Auswirkung von CO2, geben aber selten zu, dass zwei Drittel der von ihnen projizierten Temperaturzunahme aus der Verstärkung durch Rückkopplungen resultiert.

Was die Skeptiker sagen


Abbildung 2: Die Sichtweise der Skeptiker. Falls sich das CO2-Niveau verdoppelt, beträgt die daraus resultierende Temperaturzunahme etwa 1,1°C × 0,5 0,6°C. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote4sym 4

Die seriösen skeptischen Wissenschaftler stimmten immer mit den Klimawissenschaftlern der Regierung über die direkten Auswirkungen des CO2 überein. Der Streit dreht sich ausschließlich um die Rückkopplungen.

Die Rückkopplungen reduzieren die direkte Auswirkung zusätzlichen CO2, und zwar grob gesagt um etwa die Hälfte. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote5sym5. Die wesentlichen Rückkopplungen gibt es durch Verdunstung, Wasserdampf und Wolken. Im Besonderen kondensiert Wasserdampf zu Wolken, daher wird zusätzlicher Wasserdampf infolge des direkten Erwärmungseffektes von CO2 zusätzliche Wolkenbildung verursachen. Wolken reflektieren das Sonnenlicht zurück ins Universum und kühlen die Erde, so dass die allgemeine Erwärmung reduziert wird.

Es gibt buchstäblich Tausende von Rückkopplungen, von denen jede den direkten Erwärmungseffekt durch das CO2 verstärkt oder abschwächt. Nahezu jedes langlebige System wird durch Rückkopplungen bestimmt, die jede Reaktion auf Störungen dämpfen. Falls ein System stattdessen auf eine Störung mit Verstärkung reagiert, wird dieses System wahrscheinlich einen Kipp-Punkt erreichen und instabil werden (wie eine elektronische Rückkopplung, wenn ein Mikrophon seinen Lautsprechern zu nahe kommt). Das Klima der Erde ist langlebig und stabil – es geriet anders als die Venus niemals in ein „Runaway-Treibhaus“ – was stark vermuten lässt, dass die Rückkopplungen die Temperaturstörungen wie etwa von zusätzlichem CO2 dämpfen.

Was die Daten sagen

Die Klimamodelle haben sich im Wesentlichen während der letzten 30 Jahre nicht verändert und zeigen in etwa die gleiche Sensitivität zusätzlichen CO2, auch dann, wenn sie mit zunehmender Rechenleistung immer detaillierter gerechnet werden können.

  • Wie gut haben die Klimamodelle die Temperatur vorhergesagt?
  • Unterstützen die Daten eher die Klimamodelle oder die skeptische Sicht?

Lufttemperatur

Eine der frühesten und wichtigsten Vorhersagen wurde vor dem US-Kongress im Jahre 1988 von Dr. James Hansen präsentiert, dem „Vater der globalen Erwärmung“:

 

Abbildung 3: Hansens Vorhersagen http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote6sym6 vor dem US-Kongress 1988, verglichen mit den nachfolgenden tatsächlichen Temperaturen, gemessen durch NASA-Satelliten http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote7sym7.

Hansens Klimamodell hat ganz klar künftige Temperaturanstiege übertrieben.

Im Einzelnen hat sein Modell die Entwicklung nach Szenario C vorhergesagt, falls die menschlichen CO2-Emissionen ab 1988 drastisch zurück gefahren werden, so dass das CO2-Niveau bis zum Jahr 2000 gar nicht mehr steigen würde. Aber in Wirklichkeit ist die Temperatur nicht einmal so stark gestiegen, obwohl die CO2-Emissionen erheblich zugenommen haben – was bedeuten würde, dass die Klimamodelle die Auswirkung der CO2-Emissionen erheblich überschätzen.

Eine genauere Vorhersage durch Klimamodelle wurde 1990 im ersten Zustandsbericht des IPCC gemacht: http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote8sym8.

 

Abbildung 4: Vorhersagen des IPCC in seinem ersten Zustandsbericht 1990, verglichen mit den nachfolgenden Temperaturmessungen durch NASA-Satelliten

Das war vor nunmehr 20 Jahren, und die mittlere Rate der Zunahme liegt in Wirklichkeit noch unter dem niedrigsten Trend der vom IPCC vorhergesagten Bandbreite.

Ozeantemperaturen

Die Ozeane enthalten die große Masse der Wärme im Klimasystem. Ordentliche Messungen der Ozeantemperaturen gibt es erst seit Mitte 2003, als das ARGO-System in Betrieb genommen wurde. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote9sym9, http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote10sym10.

Abbildung 5: Vorhersagen von Klimamodellen http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote11sym11 der Ozeantemperatur im Vergleich mit den Messungen durch Argo http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote12sym12. Die Einheit der vertikalen Achse ist 1022 Joules (etwa 0,01°C)

Die Ozeantemperatur ist praktisch gleich geblieben seit dem Beginn ordentlicher Messungen und hat sich nicht so schnell erwärmt wie die Modelle vorhersagen.

Der atmosphärische Hotspot

Während Perioden mit globaler Erwärmung sagen die Klimamodelle ein bestimmtes Muster der atmosphärischen Erwärmung vorher; die bekannteste Veränderung ist eine Erwärmung in einer Höhe von 10 km über den Tropen, der „Hotspot“.

Der Hotspot ist das Zeichen der Verstärkung in ihrer Theorie (siehe Abbildung 1). Der Theorie zufolge entsteht der Hotspot durch zusätzliche Verdunstung, und der zusätzliche Wasserdampf transportiert wärmere und feuchtere Luft in Höhen, in denen zuvor kühle, trockene Luftmassen vorherrschend waren. Die Gegenwart eines Hotspots würde ein Zeichen der Verstärkung sein, und umgekehrt.

Atmosphärische Temperaturen wurden mit Wetterballonen seit den sechziger Jahren gemessen. Millionen Wetterballone ergaben während der vergangenen Jahrzehnte ein gutes Bild der atmosphärischen Temperaturen, einschließlich der Periode mit Erwärmung von den späten siebziger bis zu den späten neunziger Jahren. Diese wichtigen und entscheidenden Daten wurden durch das Klimaestablishment bis 2006 zurückgehalten und dann an obskurer Stelle veröffentlicht. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote13sym13. Hier sind sie:

 

Abbildung 6: Links sieht man die von Millionen Wetterballonen gesammelten Daten. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote14sym14. Rechts sieht man das, was den Klimamodellen zufolge hätte passieren sollen. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote15sym15. Die Theorie (jedenfalls die von den Klimamodellen angenommene) ist mit den Beobachtungen nicht kompatibel. In beiden Diagrammen zeigt die horizontale Achse die geographische Breite, die rechte vertikale Achse die Höhe in Kilometern.

In Wirklichkeit gab es keinen Hotspot, nicht einmal ansatzweise. Also gibt es in Wirklichkeit keine Verstärkung – die in Abbildung 1 gezeigte Verstärkung existiert nicht. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote16sym16

Ausstrahlung

Den Klimamodellen zufolge wird weniger Wärme in den Weltraum abgestrahlt, wenn sich die Erdoberfläche erwärmt (in wöchentlichem oder monatlichem Maßstab). Dies liegt nach der Theorie daran, dass die wärmere Oberfläche zu mehr Verdunstung führt und damit zu mehr Wärme schluckendem Wasserdampf. Dies ist der für die vermutete Verstärkung in Abbildung 1 verantwortliche Mechanismus der Wärmerückhaltung.

Satelliten haben die Ausstrahlung von der Erde während der letzten beiden Dekaden gemessen. Eine grundlegende Studie hat eine Verbindung hergestellt zwischen Änderungen der Temperatur an der Erdoberfläche und Änderungen der Ausstrahlung. Hier ist sie:

 

Abbildung 7: Ausstrahlung der Erde (vertikale Achse) im Vergleich zur Wassertemperatur (horizontal), gemessen durch die ERBE-Satelliten (oberer linker Graph) und wie von 11 Klimamodellen „vorhergesagt“ (andere Graphen). http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote17sym17. Man beachte, dass die Neigung der Graphen der Klimamodelle entgegen gesetzt der Neigung der Graphen der gemessenen Daten ist.

Dies zeigt, dass die Erde in Wirklichkeit mehr Strahlung aussendet, wenn die Oberfläche wärmer ist. Das ist genau das Gegenteil von den Vorhersagen der Klimamodelle. Dies zeigt, dass die Wärme den Klimamodellen zufolge viel zu stark zurück gehalten wird, und dass deren vermutete Verstärkung laut Abbildung 1 nicht existiert.

Schlussfolgerungen

Die Herkunft all dieser Daten hier ist unfehlbar angegeben – Satelliten, ARGO und Wetterballone. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote18sym18

Die Luft- und Wassertemperatur zeigen, dass die Klimamodelle Temperaturanstiege übertreiben. Das Klimaestablishment schiebt diese Abkühlung auf bisher nicht entdeckte Aerosole, was für das bisherige Scheitern der Modelle verantwortlich sein könnte, aber diese Entschuldigung wird immer dünner – es wird immer noch nicht so viel wärmer, wie sie sagen, oder auf eine Art und Weise, die sie sagen. Andererseits ist der Anstieg der Lufttemperatur stärker ausgefallen als die Skeptiker nur wegen des CO2 gesagt haben. Die Entschuldigung der Skeptiker lautet, dass der Anstieg zumeist durch andere Faktoren ausgelöst worden ist – und sie weisen darauf hin, dass sich die Welt in einem fast gleichmäßigen Erwärmungstrend von 0,5°C pro Jahrhundert seit 1680 befindet (mit alternierenden, etwa 30 Jahre langen Perioden von Erwärmung und leichter Abkühlung). Hingegen gab es den massiven anthropogenen CO2-Ausstoß erst nach 1945.

Wir haben alle wesentlichen Vorhersagen der Klimamodelle mit den besten Daten verglichen:

Die Klimamodelle waren durch die Bank falsch. Der fehlende Hotspot und die Daten der Ausstrahlung beweisen beide unabhängig voneinander, dass die Verstärkung in den Klimamodellen in Wirklichkeit nicht vorhanden ist. Ohne die Verstärkung würden die Temperaturvorhersagen der Klimamodelle um mindestens zwei Drittel niedriger ausfallen. Dies würde erklären, warum sie die gegenwärtigen Luft- und Wassertemperaturen so überschätzt haben.

Also:

  • Die Klimamodelle haben fundamental versagt. Deren vorhergesagte dreifache Verstärkung durch Rückkopplungen ist in Wirklichkeit nicht existent.
  • Die Klimamodelle überschätzen die Temperaturanstiege infolge CO2 mindestens um einen Faktor drei.

Der Standpunkt der Skeptiker ist mit den Daten kompatibel.

Einige politische Punkte

Die hier präsentierten Daten stammen aus eindeutigen Quellen, sie sind sehr relevant, öffentlich zugänglich und von den besten Instrumenten gemessen. Und doch tauchen sie niemals in den Main-Stream-Medien auf – oder haben Sie jemals so etwas wie einige der Abbildungen hier darin gesehen? Das allein sagt doch schon, dass die „Debatte“ um Politik und Macht geht, und nicht um Wissenschaft oder Wahrheit.

Dies ist eine ungewöhnliche politische Sache, weil es eine richtige und eine falsche Antwort gibt und jeder wissen kann, welche zutrifft. Die Leute schreiten voran und emittieren CO2 in jedem Falle, also machen wir das Experiment: Entweder heizt sich die Erde bis 2050 um mehrere Grad auf, oder eben nicht.

Man beachte, dass die Skeptiker mit den Klimawissenschaftlern der Regierung über die direkte Auswirkung des CO2 übereinstimmen; Uneinigkeit herrscht lediglich über die Rückkopplungen. In der Klimadebatte geht es nur um diese Rückkopplungen, alles andere sind Nebenschauplätze. Und doch weiß das kaum jemand. Die Klimawissenschaftler der Regierung und die Main-Stream-Medien haben die Debatte auf die direkten Auswirkungen des CO2 verengt und auf Nebenschauplätze wie das arktische Eis, schlechtes Wetter oder Psychologie. Sie erwähnen fast niemals die Rückkopplungen. Warum ist das so? Wer hat die Macht, das zu steuern?

About the Author*

*Die Angaben zum Autor werden wegen der vielen Institutsbezeichnungen und aus Zeitgründen nicht übersetzt. Man kann leicht mehr über ihn durch die angegebenen Links erfahren. A. d. Übers.

Dr David M.W. Evans consulted full-time for the Australian Greenhouse Office (now the Department of Climate Change) from 1999 to 2005, and part-time 2008 to 2010, modeling Australia’s carbon in plants, debris, mulch, soils, and forestry and agricultural products. Evans is a mathematician and engineer, with six university degrees including a PhD from Stanford University in electrical engineering. The area of human endeavor with the most experience and sophistication in dealing with feedbacks and analyzing complex systems is electrical engineering, and the most crucial and disputed aspects of understanding the climate system are the feedbacks. The evidence supporting the idea that CO2 emissions were the main cause of global warming reversed itself from 1998 to 2006, causing Evans to move from being a warmist to a skeptic.

Inquiries to david.evans@sciencespeak.com.

Republished on www.wattsupwiththat.com

Dieser Artikel ist als .pdf einzusehen bei: TheSkepticsCase

============================================================

Anmerlungen

1) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote1anc

Allgemeiner: falls das CO2-Niveau x (in parts per million) ist, dann schätzen die Klimamodelle die Temperaturzunahme infolge des zusätzlichen CO2 verglichen mit dem vorindustriellen Niveau von 280 ppm mit 4,33 ln(x/280). Zum Beispiel ordnet dieses Modell einen Temperaturanstieg von 4,33 ln(392/280) = 1.46°C einer CO2-Zunahme bis heute auf 392 ppm zu.

2) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote2anc

Die direkte Auswirkung des CO2 bleibt für jede Verdoppelung des CO2-Niveaus die gleiche (d. h. logarithmisch). Berechnungen der gestiegenen Oberflächentemperatur infolge einer CO2-Verdoppelung variieren von 1,0°C bis 1,2°C. In diesem Dokument verwenden wir den mittleren Wert von 1,1°C; allerdings hat der Wert keine Bedeutung für die hier beschriebenen Argumente.

3) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote3anc

Das IPCC projizierte 2007 in seinem jüngsten Zustandsbericht eine Temperaturzunahme bei einer Verdoppelung des CO2-Gehaltes (genannt Klimasensitivität) in einer Größenordnung von 2,0°C bis 4,5°C. Der zentrale Punkt in ihrem Modell schätzt 3,3°C, was drei mal der direkten Auswirkung des CO2 von 1,1°C entspricht, also sagen wir der Einfachheit halber, dass ihre Übertreibung dreifach ist. Präziser, jedes Klimamodell hat eine etwas unterschiedliche effektive Verstärkung, aber allgemein liegen sie um 3,0.

4) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote4anc

Allgemeiner: falls das CO2-Niveau x (in parts per million) ist, dann schätzen die Skeptiker die Temperaturzunahme infolge des zusätzlichen CO2 verglichen mit dem vorindustriellen Niveau von 280 ppm mit 0,72 ln(x/280). Zum Beispiel ordnen die Skeptiker einen Temperaturanstieg von 0,72 ln(392/280) = 0,24°C einer CO2-Zunahme bis heute auf 392 ppm zu.

5) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote5anc

Die Auswirkung der Rückkopplungen lässt sich nur schwer mit einem empirischen Beweis nachweisen, weil es viel mehr Kräfte gibt, die die Temperatur beeinflussen als nur eine Änderung des CO2-Niveaus, aber es scheint eine Multiplikation irgendwo zwischen 0,25 und 0,9 zu sein. Der Einfachheit halber haben wir hier den Wert 0,5 benutzt.

6) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote6anc

Hansens Vorhersagen stehen hier (20. August 1988), Abb. 3a Seite 9347. In der Graphik hier werden Hansens drei Szenarien alle am gleichen Punkt gestartet Mitte 1987 – wir sind nur an Änderungen (Anomalien) interessiert.

7) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote7anc

Die hier gezeigte Temperatur der Erde ist durch NASA-Satelliten gemessen worden, die die Temperatur der Erde seit 1979 vermessen, betrieben von der University of Alabama in Huntsville (UAH). Satelliten messen die Temperatur 24/7 [?] in breiten Streifen von Land und Wasser in der ganzen Welt außer an den Polen. Während es bei den Satelliten einige Probleme bei der Anfangskalibrierung gab, sind diese seit Langem zu jedermann’s Zufriedenheit gelöst worden. Satelliten sind die verlässlichsten, ergiebigsten und am wenigsten verzerrten Instrumente der Menschen, um die Lufttemperatur seit 1979 zu messen. Dies ist eine unfehlbare Datenquelle, und jeder kann sich die Daten selbst von hier herunter laden (Vorgehensweise: …)

8) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote8anc

Erster Zustandsbericht des IPCC 1990, Seite 22  (www.ipcc.ch/ipccreports/far/wg_I/ipcc_far_wg_I_full_report.pdf) in der Zusammenfassung für Politiker, Abbildung 8 und zugehöriger Text für das Szenario weiter-wie-bisher (was tatsächlich passiert ist, da es bis heute keine signifikanten Kontrollen über und eine Abnahme der Emissionen gibt). „Unter dem Weiter-wie-bisher-Szenario (A) des IPCC bzgl. der Emission von Treibhausgasen wird die mittlere Rate der globalen Temperaturzunahme im kommenden Jahrhundert mit etwa 0,3°C pro Jahrzehnt geschätzt (mit einer Unsicherheit von 0,2°C bis 0,5°C)“

9) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote9anc

http://www.metoffice.gov.uk/weather/marine/observations/gathering_data/argo.html

10) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote10anc

Messungen der Ozeantemperatur vor dem ARGO-Programm sind praktisch wertlos. Zuvor wurde die Ozeantemperatur mit Eimern gemessen oder mit Bathythermographen (XBTs) – wobei es sich um nur einmal verwendbare, im Wasser absinkende Messsonden handelt, die Temperatur- und Druckdaten übermitteln. Fast alle diese Messungen erfolgten entlang der hauptsächlichen kommerziellen Schifffahrtsrouten, so dass die geographische Ausbreitung der Messungen ärmlich war – zum Beispiel wurden die riesigen südlichen Ozeane überhaupt nicht erfasst. XBTs reichen nicht so tief wie die ARGO-Bojen, und ihre Daten sind viel weniger präzise und viel weniger akkurat (u. a. weil sie sich zu schnell durch das Wasser bewegen, um in ein Gleichgewicht mit dem umgebenden Wasser zu kommen, dessen Temperatur gemessen werden soll).

11) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote11anc

Die Klimamodelle nehmen eine Zunahme des ozeanischen Wärmegehalts von etwa 0,7 × 10^22 Joules pro Jahr an. Siehe Hansen et al. 2005: Earth’s energy imbalance: Confirmation and implications. Science, 308, 1431-1435, Seite 1432 (pubs.giss.nasa.gov/cgi-bin/abstract.cgi?id=ha00110y), wobei die Zunahme des Wärmegehaltes in Quadratmeter Oberfläche in den oberen 750 m den typischen Modellen zufolge etwa 6,0 Watt/m² pro Jahr beträgt. Das wird zu 0.7 × 10^22 Joules pro Jahr für den gesamten Ozean, was hier erklärt wird.

12) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote12anc

Der Wärmegehalt der Ozeane bis zu einer Tiefe von 700 m gemessen durch ARGO ist jetzt verfügbar, man kann es von hier herunter laden. Die Zahlen zeigen die Änderungen des mittleren Wärmegehalts während drei Monaten in Einheiten von 10^22 Joules, jahreszeitlich angepasst. Das ARGO-System ging Mitte 2003 in Betrieb, daher beginnen unsere Daten im Juni 2003.

13)http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote13anc

Die Daten der Wetterballone, die die Erwärmungsverteilung in der Atmosphäre zeigen, wurden schließlich 2006 veröffentlicht, und zwar im US Climate Change Science Program, Teil E von Abbildung 5.7 auf Seite 116 (www.climatescience.gov/Library/sap/sap1-1/finalreport/sap1-1-final-chap5.pdf). Es gibt keine anderen Daten aus dieser Zeit, und wir können keine weiteren Daten atmosphärischer Erwärmung erhalten, bis die globale Erwärmung wieder einsetzt. Dies sind die einzigen Daten, die es gibt. Übrigens, ist das nicht eine obskure Stelle, um so wichtige und entscheidende Daten zu veröffentlichen – Sie glauben nicht, dass sie etwas verbergen wollen, oder?

14)http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote14anc

Siehe vorige Anmerkung.

15)http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote15anc

Jedes beliebige Klimamodell, zum Beispiel aus dem AR 4 des IPCC 2007, Kapitel 9, Seite 675. Man kann es auch im Internet einsehen, und zwar hier (Abbildung 9.1, Teile c und f). Es gab eine geringe Erwärmung von 1959 bis 1977, so dass die allgemein verfügbaren Simulationen von 1959 bis 1999 auch anwendbar sind.

16) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote16anc

Also beträgt der Multiplikationsfaktor in der zweiten Box der Abbildungen 1 und 2 höchstens 1,0.

17) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote17anc

Lindzen und Choi 2009, Geophysical Research Letters Vol. 36: http://www.drroyspencer.com/Lindzen-and-Choi-GRL-2009.pdf. Die Studie wurde nach einiger Kritik korrigiert, kommt aber im Wesentlichen 2011 wieder zum gleichen Ergebnis: www-eaps.mit.edu/faculty/lindzen/236-Lindzen-Choi-2011.pdf.

18) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote18anc

Im Einzelnen haben wir Ergebnisse von Thermometern an Land nicht genannt, oder von den vereinzelten Beispielen mit Eimern und XBTs auf dem Meer. Thermometer an Land sind notorisch empfänglich für lokale Effekte – siehe Is the Western Climate Establishment Corrupt? durch den gleichen Autor: jonova.s3.amazonaws.com/corruption/climate-corruption.pdf

Link: http://wattsupwiththat.com/2012/02/26/the-skeptics-case/

Autor: David M. W. Evans

Übersetzt von Chris Frey

*Die Überschrift wurde bewusst nicht übersetzt. Man könnte es mit „Der Fall der Skeptiker“ versuchen, aber das wäre schwer missverständlich. – A. d. Übers.




Wie der Schiefer-Boom in den USA die Welt verändern wird

Etwas Merkwürdiges auf dem Weg zu einer sauberen Energiezukunft ist im Gange – die Realität halt Einzug. Es gibt ‚unwiderlegbare Beweise’ über ökonomisches Wachstum und Arbeitsplätze schaffende Auswirkungen des Booms unkonventionellen Gases und Öls – über 600 000 Arbeitsplätze stehen direkt im Zusammenhang mit der Ausbeutung von Schiefergas. Selbst Präsident Obama lobt die Arbeitsplätze schaffenden Vorteile von ‚Amerikas Ressourcen-Boom’. Amerika erhält seinen Energieglücksbringer zurück, und das sind gute Nachrichten, aber nicht die ganze Geschichte.

Wieviel Schiefergas gibt es in den Vereinigten Staaten? Im Juli 2011 hat die EIA in den USA (Energy Information Administration) eine Übersicht der sich abzeichnenden Ressourcen veröffentlicht: Schiefergas und Schieferöl in den USA, gefördert von INTEK. Dies ist ein aktualisierter Zustandsbericht über technisch förderbares Erdgas und Erdöl in den 48 Kernstaaten. Dem Bericht zufolge finden sich die größten technisch erschlossenen Gasreserven im Nordosten (63%), an der Golfküste (13%) und im Südwesten (10%). Die größten Schiefergasfelder sind das Marcellus-Feld (410,3 Billionen Kubikfuß, 55 Prozent der gesamten Ressourcen), Haynesville (74,7 Billionen Kubikfuß, 10 Prozent der Gesamtmenge) und Barnett (43,4 Billionen Kubikfuß, 6 Prozent der Gesamtmenge). Der Bericht wurde erstellt, … um einen Anfangspunkt für die zukünftige Arbeit zu geben.

Die USA verfügen über dreimal so viel nachgewiesene Reserven an Schieferöl wie Saudi-Arabien.


Die globalen Schieferölreserven tragen mehr als 10 Billionen Barrel. Mehr als 1,8 Billionen Barrel liegen eingehüllt von Schiefer auf bundeseigenem Land in den westlichen USA, also in den Bundesstaaten Colorado, Utah und Wyoming, wovon 800 Milliarden als förderwürdig angesehen werden – dreimal so viel wie die nachgewiesenen Reserven in Saudi-Arabien. Der Bericht von INTEK für die EIA fand 23,9 Milliarden Barrel von technisch abbaubaren Schieferölreserven in den 48 Kernstaaten der USA. Das Monterey/Santos-Feld in Südkalifornien ist das größte Feld, und man schätzt, dass dort 15,4 Milliarden Barrel oder 64 Prozent der Gesamtmenge an Schieferöl liegen, gefolgt von den Feldern Bakken und Eagle Ford mit 3,6 bzw. 3,4 Milliarden Barrel Schieferöl.

Die Schaffung neuer Arbeitsplätze wird durch niedrige Energiekosten gefördert. In einem Bericht von PricewaterhouseCoopers für die National Association of Facturers heißt es, billiges nationales Erdgas wird die Herstellkosten in der Fertigungum 11 Milliarden Dollar pro Jahr während der nächsten 10 Jahre absenken sowie mehr als eine Million neuer Arbeitsplätze schaffen. Diese neue Niedrigkosten-Energiewirklichkeit wird das verfügbare Einkommen pro Haushalt um 2000 Dollar pro Jahr zunehmen lassen. Das Wachstum der nationalen Gaserzeugung aus unkonventionellen Quellen (Schiefergas) hat die Gaspreise in den USA vom Weltöl- und Flüssiggaspreis abgekoppelt, hat die Abhängigkeit der USA von Flüssiggasimporten umgekehrt und die Preise  nahe neuer Rekord-Niedrigwerte gedrückt für eine langzeitliche verlässliche heimische Energieversorgung.

Die Schaffung neuer Arbeitsplätze führt zu wachsenden Sorgen wegen des Fachkräftemangels und zu einem wilden Werben um Talente.

Gerade zu Beginn des Schiefer-Phänomens steht der Markt der seit langer Zeit lauernden Realität gegenüber, nämlich, dassmehr als 10 000 Menschen pro Tag aus den Babyboomjahren allein in den USA in den Ruhestand treten. Das gleiche Schicksal oder Schlimmeres droht den anderen globalen Märkten. Die gute Nachricht ist, dass die Nachfrage nach Erfahrung, Können und technologischem Expertenwissen bei den Arbeiternin der Öl- und Gasindustrie zum längeren Arbeiten überredet werden, oder ihre Erfahrung teuer verkaufen können, um ihre finanziellen Ruhestandsreserven aufzufüllen, die während der großen globalen Rezession gebeutelt wurden. Es wird erwartet, dass die Nachfrage nach erfahrenen Kräften die Reihen der Ingenieure, Entwicklungs-Techniker, , Wissenschaftler auffüllen wird, und sich auf die Mathematik-,  und Softwareprogrammierer- und Universitätsausbildung erstrecken wird, um die Nachfrage zu decken. Aber noch mehr werden Schweißer, Klempner, Elektriker, erfahrene Maschinisten und andere Handwerker gebraucht, um die notwendige technische Unterstützung sicherzustellen und die technologische Entwicklung weltweit zu unterstützen.

Auf dem freien Markt fossiler Brennstoffe wird die Kohle zugunsten von Erdgas zurückgedrängt.


Nachdem den fossilen Treibstoffen mit immer mehr Verordnungenein wahrer Krieg erklärt zur Unterminierung der Wirtschaft erklärt worden war und auch um die Unterstützung für billige Energie-Erzeugung zu schwächen, um die Nachfrage und damit die Emissionen zu reduzieren, sehen sich die Gegner fossiler Treibstoffe nun auch mit einer starken neuen Realität konfrontiert. Neue Verordnungen können die vorzeitige Schließung von Kohlekraftwerken erzwingen, aber deren Kapazität wird wahrscheinlich durch hoch effiziente erdgasbefeuerte nicht erneuerbare Energieersetzt. Niedrige Gaspreise sind für die Kohle eine viel größere Bedrohung als alles, wovon die EPA [die US-amerikanische Umweltbehörde] nur träumen kann. Es ist also kein schlechtes Ergebnis des freien Marktes, wenn ältere Kohlekraftwerke durch neuere, sauberere und billigere Erdgaskraftwerke ersetzt werden. Auch für die Umwelt ist das nicht schlecht. Inzwischen bleibt der EPA nichts anderes übrig, als ihre regulatorischen Übertreibungen schmerzlich zu bedauern, die sie in Zeiten ökonomischer Unsicherheit aufgehäuft hat und ihre vorsätzliche Unterminierung der amerikanischen Wachstums- und Produktivkraft. Die weniger effektiven älteren Kohlekraftwerke werden durch Erdgaskraftwerke im Lastfolgebetrieb zurückgedrängt. Erdgas ist der Treibstoff der Wahl in fast jedem Energiemarkt, und Gas wird als Reserve für jedes MW Erneuerbarer Energie gebraucht. Niedrige Gaspreise durch die zunehmende Produktion von Schiefergas macht Gas zur billigsten Quelle, was für fast jede Region das Beste ist.

Die verbrauchte Energie im Transportsektor wächst von 27,6 Billiarden Btu [British Thermal Unit] im Jahr 2010 auf 28,8 Billiarden Btu bis 2035, dem AEO2012-Referenz Szenario zufolge (Figure 7). Der Energieverbrauch leichterer Fahrzeuge [Light Duty Vehicles, LDVs] einschließlich kommerzieller Kleinlastwagen nimmt im Referenzszenario ab, und zwar von 16,5 Quadrillionen Btu im Jahr 2010 auf 15,7 Billiarden Btu im Jahr 2025. Dies ergibt sich durch die projizierte höhere Sparsamkeit im Treibstoffverbrauch von Autobahnfahrzeugen. Der projizierte Energieverbrauch für leichte Fahrzeuge nimmt nach 2025 auf 16,3 Billiarden Btu im Jahr 2035 zu.

Billiges Schiefergas treibt die Kosten für die Stabilisierung des Netzes durch Erneuerbare nach unten.


Die gleichen Marktkräfte, die alte Kohlekraftwerke verdrängen zugunsten einer neueren, sauberen, mit Erdgas befeuerten Generation von Kraftwerken beeinflussen auch die erneuerbare Energie, vor allem Wind und Solar. Die Flut von Solarpaneelen und Windturbinen, durch Überproduktion in China auf der Suche nach wachsendem Export auf den Markt geworfen, hat jetzt dazu geführt, dass europäische Regierungen Einspeisevergütungen und Subventionen verringert oder ganz gestrichen haben, weil dort fallende Preise die Preise für erneuerbare Energien auf die Ebene der Wettbewerbsfähigkeit mit Erdgas bringen würden. Aber die Realität sieht anders aus: Die infolge der Produktion von Schiefergas niedrigen Gaspreise drücken die Preise für den Paritätspunkt im Netznach unten. Regierungen in der EU, schwer gebeutelt von der Finanzkrise in der Eurozone, können sich die Subventionen für die Einspeisung nicht mehr leisten. Viele US-Bundesstaaten, die den Anteil an Erneuerbarer Energieerzeugung erhöhen wollten,, passen ihre Ziele an, nur wenige folgen Kalifornien bei dessen Führung zu  einem noch höheren Ziel von 33% RPS [California Renewables Portfolio Standard] (Anteil von Erneuerbaren an der Energieerzeugung). Unter dem Strich: Die Erneuerbaren werden zu einer vorwiegenden Energieerzeugungs-Quelle, wenn sie den Anschluss an oder nahe dem Netzparitätspreis finden, profitabel sind sie aber nur durch Subsidien. Die Konsolidierung fegt durch diesen Sektor, kleinere Teilnehmer werden von den großen globalen Spielern mit größeren Geldbeuteln übernommen.

Zähmung der bösen Buben in der Nachbarschaft.


Da das Potential und die Entwicklung von Schiefergas weltweit immer besser verstanden wird, ist ein subtiler giftiger Trend in Gang gekommen, während die zur Ausbeutung des Schiefergases notwendige Technologie und die Infrastruktur immer weiter verbessert wird. Die bösen Buben in jeder Region stehen plötzlich unter Druck von ihren Nachbarn, sich zu bessern. Warum? Der starke Wettbewerb zum technologischen Zugang ermöglicht es multinationalen Firmen, frei zu entscheiden, wo sie arbeiten – und sie wählen keine Stellen aus, an denen Aufrührer auf sie schießen, ihre Projekte zum Platzen bringen oder wo sie von ungehemmter Korruption ausgebeutet werden. Ein informeller Verhaltenskodex entwickelt sich, der jeden sich entwickelnden Markt nach seinem eigenen Potential zur Erzielung von Profiten durch die Technologie- und Infrastruktur-Lieferanten beurteilt. Das im Wettbewerb als nächstes zur Auswahl stehende Gebiet zwingt die Leute vor Ort dazu, ihr schlechtes Verhalten zu zügeln und ihren Platz in der Warteschlange zu verbessern. Zusammen mit niedrigen Preisen, die das schlimme Subventionspotential von Iran, Russland und anderen traditionellen Unheilstiftern reduzieren, und mit dem Wunsch zum Zugang zur benötigten westlichen Technologie von seiten der Staatenund Nationalen Großfirmen  sichern sich die erfahreneren politischen Führer in ihrer regionalen Nachbarschaft untereinander ab, um ihre Wirtschaften zum Wachstum zu bringen.

Wirtschaftliches Wachstum führt zu einer wachsenden Mittelklasse und zur Forderung auf weniger Korruption, mehr Reformen und dauerhaften demokratischen Änderungen. Die Entwicklung der Schiefergasförderung ist die Muttermilch für demokratische Änderungen, wie sie im arabischen Frühling deutlich werden, aber sie werden unterdrückt von den bösen Buben in der Nachbarschaft. Der Enthusiasmus für Wachstum verstärkt das Verlangen nach Änderung. Die Lektionen der Zähmung der bösen Buben in der Nachbarschaft kommen den Despoten nicht zugute. Einige wollen standhalten, sie werden durch eine Kombination von heimischem Verlangen nach Änderung und dem ‚Verhaltenskodex’ hinausgedrängt, der sie an den Schluss der Warteschlange drückt Die Gefahr, hinter der Welle globalen wirtschaftlichen Wachstums zurückzubleiben, erweist sich als zu stark, um ihr zu widerstehen.

Üppige Energievorräte reduzieren globale Konflikte.


Reichliche und gleichmäßig verteilte Energievorräte (Erdgas) reduzieren die Intensität des Wettbewerbs um neue Energiequellen für neue Kernstaaten wie Indien und China. Neue Treibstoffe auf die Märkte zu bringen, hat höhere Priorität als energiepolitische Abenteuer (Chinas Suche nach Energie in Afrika). Es erlaubt auch wichtigen globalen Spielern, sich auf das Wachstum ihrer Wirtschaft zu konzentrieren und nicht ihr Militär zu verstärken, um gegen Energieknappheit gewappnet zu sein.

Üppige Energievorräte lassen globale Konflikte zunehmen.


Neue Energiequellen und neue Technologie sorgen dafür, dass nationale Regierungen Ressourcen ausschöpfen, wo sie diese zuvor nicht ausschöpfen konnten. Diese neuen technologischen Möglichkeiten verstärken Konflikte auf lokaler, regionaler und globaler Ebene. Einheimische Gruppen, lokale Übelstände  und Autonomiebewegungen entstehen in den neuen, energiereichen Gebieten von selbst. Lange schwelende Grenzkonflikte werden neuen Zündstoff erhalten, wenn in diesen Gebieten neue reiche Energievorkommen gefunden werden. Die Regierungen werden die Ausbeutung in diesen Gebieten priorisieren aus Furcht, dass der Nachbar ihre eigenen Lagerstätten anzapft..

Technologische Implikationen

Nationale Öl- und Gasgesellschaften werden gezwungen, sich im Wettbewerb um horizontale Bohrungs- und Fracking-Technologien und die Ausrüstung zu bewerben. Mit vielen Schiefergasquellen verlieren große und die Riesen-Unternehmen das Interesse, mit so mancher Nationalen Öl-Gesellschaft zusammen zu arbeiten, mit der es traditionell schwierig war oder die zuviel Profit abhaben wollte.

Der Zugang zu Wasser erweist sich als eine der größten Herausforderungen bei der Erzeugung von Schiefergas.


Der Widerstand gegen den Verbrauch von Trinkwasser für das Fracking vor allem in ariden Gebieten wie dem Nahen Osten, wo das Wasser wertvoller ist, wächst immer mehr. Dies führt zu Investitionen in die Infrastruktur, um recyceltes Wasser nutzbar zu machen sowie in die Entsalzung vor allem von Brackwasser. Mit der sich erweiternden Infrastruktur werden die Wasserspeicherung, die Überwachung und die Verteilersysteme effizienter, und weniger Wasser geht durch Lecks verloren, vor allem aus alten Systemen.

Der Nahe Osten wird zu einem Labor für die Entwicklung neuer Energien mit kombinierten Wärme- und Stromprojekten sowie Mikronetzen, die die Entwicklung von Schiefergas stützen. Der erweiterte Gebrauch von Solarpaneelen für Anwendungen in kleinen Bereichen profitiert von den fallenden Preisen der in China hergestellten Paneele. Die Nachfrage nach so viel neuer Energie und Umweltinfrastruktur rückt den Nahen Osten ins Zentrum der Entwicklung sauberer Energie und der Entwicklung der entsprechenden Technologie. Dadurch werden Investitionen von China und anderen beflügelt, die auch darauf brennen, Zugang zu fortgeschrittener Technologie zu bekommen, um ihre eigenen Schiefervorkommen zu erschließen.

Die wachsende Nachfrage nach Technologie bedroht konventionelles Wissen und überwindet herkömmliche Geschäftsmodelle.

Die globalen Großunternehmen und die Führer in der Technologie horizontaler Bohrungen schaffen einen Wettbewerbsmarkt für ihre Dienste und zwingen die Nationen sich um Zusammenarbeit mit ihnen zu bemühen anstatt der traditionellen staatlichen Ausschreibungen und Konzessionsvergaben.

Die Öl- und Gas-Geschäftsmodelle verschieben sich vom Besitz des Produktes zur Bereitstellung der Technologie und sich mit handelbaren Anteilen von nachgewiesenen Reserven bezahlen zu lassen. Dies führt zu großen Beständen an verteilten „Schiefer“-Reserven als handelbare Gütermit denen Risiken ausgeglichen, Potenzial bezahlt und beschleunigtes Wirtschaftswachstum in einem offenen Markt belohnt wird, anstelle durch die von OPEC Russland oder Quatar dominierten Monopole oder durch die Nationalen Öl-Gesellschaften. In diesem Wettbewerbsmärkten bleiben böse Buben wie Iran, Venezuela und andere draußen vor, sind sie doch nicht in der Lage, in offenen Märkten zu bestehen und unfähig, die ansässigen Firmen zu erpressen, wenn diese damit drohen, wegzuziehen oder anderswo nach besseren Möglichkeiten zu suchen. Adere Märkten wie Mexiko, wo selbst auferlegte Hindernisse für Investitionen von außen oder Übernahmen durch ausländische Eigentümer dafür gesorgt haben, dass das Wachstum unterminiert worden ist und der Zugang zur Technologie begrenzt wurde,  finden in offenen Märkten einen Ausweg aus der Falle und ergreifen ihre Chance durch die Nachfrage nach neuer Technologie, um ihre Exploration und Förderung zu steigern und nutzen den globalen Börsenhandels, und bezahlen für die Entwicklung ihrer Entwicklungs- und Fördertechnologie mit handelbaren Kontrakten auf die zukünftige Produktion und Reserven.

Investitionen in die Entwicklung von Technologien und Infrastruktur steigen sprunghaft,


da jeder regionale Markt danach trachtet, seinen Platz in der Warteschlange zu verbessern und nach neuen Technologie-Firmen  sucht, die von den Energie-Riesen Geschäft abziehen wollen, indem sie neuen in diesem Sektor tätigen Firmen bessere Bedingungen bieten.  Tatsächlich wird dieser wachsende Markt neuer Energietechnologie von den Energie-Riesen, den Staatsfonds undtraditionellen Energieanbietern finanziert., die Zugang zu diesen neuen Technologien suchen.

Die sich allmählich ausbreitende Auswirkung des Explorations- und Produktions-Wachstums lässt das globale Bruttoinlandsprodukt wachsen, ermutigt Investoren, führt Millionen aus der Armut und intensiviert die Forderung nach demokratischen Reformen, um nachhaltiges Wachstum sicherzustellen.

Die mit der Entwicklung der Exploration und Produktion von „Schiefer“-Ressourcen verbundenen globalen finanziellen Auswirkungen

PriceWaterhouseCoopers berichtete, dass in den ersten drei Quartalen des Jahres 2010 das Umsatzvolumen von Firmenfusionen und Übernahmen (Mergers and Acquisitions) auf 20,1 Milliarden Dollar gestiegen ist, gegenüber 6,8 Milliarden Dollar im gleichen Zeitraum des Jahres 2007. Dieser Umsatzvolumenzuwachs ist das Ergebnis einer Hebelung der Finanzkraftseitens der  Energieriesen im „Schiefer“-Geschäft und die „Schiefer-Marktsektor“-Reserven wurden von „wilden“ privaten Ölbohrern und von kleinen unabhängigen Firmen wie Mitchell Energy angetrieben, die sich auf horizontale Bohrung und Fracking spezialisiert hat, um sich den eigenen Markt zu erschließen und nicht mit den Energieriesen im Wettbewerb stehen zu müssen. Aber das Wachstum in der Exploration und Produktion von unkonventionellem Öl- und Gas hat die Riesen  sowie andere Investoren angezogen, die alle von dem steigenden „Schiefer“-Markt profitieren wollen. Heute sind große Ölgesellschaften große Investoren in „Schiefer“, haben sie doch das Wachstumspotential erkannt, das sie mit Hebelwirkung benutzen als Alternative zu konventionellen Öl- und Gas-Vorkommen , die durch zunehmende Umweltbeschränkungen und rapide abnehmende Förderraten gekennzeichnet sind. Tatsächlich hat das Wachstum bei unkonventionellem Öl und Gas längst den Rückgang bei der Förderung aus amerikanischen Reserven wettgemacht.

Etwa ein Drittel der gesamten, in den USA verbrauchten Energiemenge, 23,4 Trillionen Btu, waren 2010 im Industriesektor verbraucht worden. Verglichen mit dem AEO2012-Referenzszenario wird der gesamte industrielle Energieverbrauch um 16 Prozent wachsen, von 23,4 Trillionen Btu im Jahr 2010 bis 27,0 Trillionen im Jahr 2035. Der größte Energieverbraucher ist die großchemische Industrie im Industriesektor mit einem Verbrauch von 21 Prozent der gesamten im Jahre 2010 verbrauchten Energie. Bis zum Jahr 2026 jedoch wird die Raffinerie-Industrie, definiert als Einrichtungen zur Erzeugung von Petroleum, Biotreibstoffen und Kohleverflüssigung unter Einbezug des Eigenverbrauchs zur größten Energie verbrauchenden Industrie im AEO2012-Referenzzeitraum.

Die energieintensiven Fertigungs-Industrien zusammen, wie z.B. die Großchemie, Raffinerien, Papierprodukte, Eisen und Stahl, Aluminium, Nahrung, Glas und Zement erzeugen etwas mehr als ein Viertel des Gesamtwertes der Industrieproduktion bei einem Anteil von etwa zwei Dritteln des gesamten Energieverbrauchs im Industriesektor.  Obwohl erwartet wird, dass sich die energieintensiven Industrien von der jüngsten Rezession erholen werden, wird sich ihr langzeitliches Wachstum verlangsamen, und zwar wegen des zunehmenden internationalen Wettbewerbs und einer Verschiebung der in den USA erzeugten Verbrauchsgüter hin zu höherwertigen Gütern. Der Dollarwert der Auslieferung  von Gütern der energieintensiven Industrien wächst von 2010 bis 2035 um 29 Prozent im AEO2012-Referenzfall, während der Wert der nicht von energieintensiven Industrien stammenden Güter um 57 Prozent zunehmen wird. Als Ergebnis der Verlagerung hin zu einer nicht so energieintensiven Produktion nimmt der Energieverbrauch langsamer zu als die Auslieferungen, und die Energieintensität industrieller Produktion geht zurück.

Niedrige Energiepreise sorgen auch für Energiesicherheit, wenn eine zuverlässige Versorgung durch die Verminderung von Amerikas Abhängigkeit von Öl- und Gasimporten aus dem Nahen Osten gewährleistet ist und durch die Verminderung der  Ölpreisschwankungen, weil die Nachfrage durch „Schiefer“ über breiter angelegte Liefermöglichkeiten verteilt wird.Niedrige Energiepreise vor allem beim Öl unterminieren die Wirtschaft der OPEC-Staaten und reduzieren ihre geopolitische und globale wirtschaftliche Macht. Dies kann zu einer Änderung der US-Außenpolitik führen, und zwar hin zu Prioritäten weg vom Mittleren Osten.

By. Gary L. Hunt

Link: OilPrice.com, 15 February 2012

Übersetzt von Chris Frey unter Mithilfe von Helmut Jäger