1

Wissenschaft Klima Politik – Wohin ändert sich das Klima?

In der Zusammenfassung seiner Broschüre schreibt der Autor:    

„Klima ist das statistische Konstrukt über 30 Jahre Wetter. Klimawandel, schnell und langsam, war immer. Was ist die Normalität des Klimas? Klimaschutz ist eine Illusion. Extreme Wetterereignisse haben seit 1850 nicht zugenommen. Die Globaltemperatur hat sich seitdem schubweise um 0,8 ± 0,2 °C erhöht. Die CO2-Konzentration in der Atmosphäre nahm kontinuierlich von 290 auf 385 ppm zu.

Die Antriebe des Klimas sind Sonne, kosmische Strahlung, Aerosole, Wolken, Albedo, infrarotaktive Gase wie H2O, CO2, CH4, O3, N2O (Treibhausgase), Zyklen über 10 bis 10.000 Jahre, u.a.m.. Die etablierte Klimatologie benennt die anthropogenen CO2- und CH4-Emissionen seit der Industrialisierung (seit 1850) als die wesentliche Ursache des Anstiegs der Globaltemperatur; Kritiker erkennen die Sonne als wesentlichen Faktor.

Der anthropogene Treibhauseffekt ist nicht messbar. Seine vermutbaren Wirkungen werden mit Hypothesen berechnet und in numerische Modelle des Klimas als Antrieb eingebaut. Die Modelle des chaotischen Wetters bzw. Klimas sind Hypothesen ihrer Schöpfer über das Funktionieren des Wetters/Klimas, geeignet für Experimente am Computer, ungeeignet für Vorhersagen des realen Klimas.

Wie seit Jahrtausenden muss die Menschheit sich an den Klimawandel anpassen. Wenn es nachgewiesene menschliche Ursachen gäbe, dann wären deren Wirkungen zu verringern oder zu vermeiden.

Wissenschaft ist das falsche Werkzeug zur Lösung politischer Dispute.“

Heinrich Röck

Related Files




“Klimaschutz”: Billionen für nichts! EU-Kommissarin Hedegaard gibt astronomischen Kapitalbedarf bekannt

Vor kurzem hat Accenture, die größte Unternehmensberatung der Welt, zusammen mit der Londoner Barclays-Bank, einer der zehn größten Banken der Welt, eine Studie mit dem Titel „Carbon Capital. Financing the low carbon economy“ vorgelegt, die den Kapitalbedarf für „Low Carbon Technologies“ (LCT) allein bis zum Jahre 2020 auf 2,9 Billionen Euro beziffert.

Nach dem „Energie-Klima-Paket“ der EU soll die EU bis zum Jahre 2020 ihre Emissionen von „Treibhausgasen“ um 20 und bis 2050 um 80 Prozent senken. Bis dahin soll die Stromversorgung fast zu 100 Prozent auf „treibhausgasarme“ Energiequellen – das heißt auf „erneuerbare“ Energien und/oder die Atomenergie – umgestellt sein. Wichtigster Hebel zur Ansteuerung dieses Ziels soll die Rationierung des CO2-Ausstoßes durch Quoten und den Handel mit Emissionsrechten sein. Zwischenetappe soll eine 20-prozentige Reduktion des Energieverbrauchs bis 2020 sein, und zwar hauptsächlich durch massive Investitionen in die Wärmedämmung von Gebäuden. Bis 2050 soll der Energieaufwand für die Gebäudeheizung um 90 Prozent reduziert werden.

Ursprünglich hatte die EU in den internationalen Verhandlungen über ein Folgeabkommen zum 2012 auslaufenden Kioto-Protokoll über die Reduktion von „Treibhausgasen“ sogar eine 30-prozentige Senkung ihres CO2-Ausstoßes bis 2030 angeboten – allerdings nur unter der Bedingung, dass andere Unterzeichner des Kioto-Abkommens nachziehen. Das ist nicht geschehen. Die EU setzt ihre „Klimapolitik“ also im Alleingang fort und nennt das eine „Vorreiter-Rolle spielen“. Da bekannt ist, was Vorreitern droht, denen niemand nachfolgt, muss die EU-Klimakommissarin ihre Kostenschätzung relativieren. Die Klimaschutz-Investitionen entsprächen lediglich 1,5 Prozent der jährlichen Wirtschaftsleistung in der EU und bewegten sich in der Größenordnung des Rückgangs der Investitionen in der jüngsten Finanz- und Wirtschaftskrise, argumentiert Kommissarin Hedegaard. Die Klimaschutz-Investitionen zahlten sich letzten Endes für alle aus, da sie Energiekosteneinsparungen von mindestens 175 Milliarden Euro im Jahr ermöglichten und zahlreiche Arbeitsplätze vor allem im Bausektor schaffen könnten, behaupten Connie Hedegaard und ihre Mitarbeiter. Dabei klammern die Brüsseler Bürokraten die Frage, ob nicht auf anderem Wege mit weniger Kapital weitaus mehr Arbeitsplätze geschaffen werden könnten, von vornherein aus.

Die Autoren des EU-Strategiepapiers haben also wohl bei ihrer Kostenschätzung aus naheliegenden Gründen systematisch untertrieben. Das zeigt der Vergleich mit der Studie von Accenture und Barclays Bank, die ohne Berücksichtigung der hohen Kosten für die obligatorische Gebäudeisolierung für die kommenden zehn Jahre auf deutlich höhere Gesamtkosten des „Klimaschutzes“ kommt. In ihrer Kostenschätzung berücksichtigen Accenture und Barclays bei der Gebäudemodernisierung nur Solaranlagen und den Einbau „intelligenter“ Stromzähler. Die Aufwendungen für die Wärmedämmung liegen außerhalb des Fokus ihres Finanzierungsmodells. Dieses beruht hauptsächlich auf dem Verkauf „grüner“ Fondsanteile und Verbriefungen (securities) nach dem Muster der amerikanischen „Subprime“-Papiere. Auf diese Weise sollen 1,65 Billionen Euro aus externen Quellen mobilisiert werden.

In den insgesamt auf 2,9 Billionen Euro geschätzten Aufwendungen für LCT sind 600 Milliarden Euro Entwicklungskosten und 2,3 Billionen Euro  Anschaffungskosten enthalten. Dabei entfallen allein auf Windräder und Photovoltaik-Anlagen 1,37 Billionen Euro – eine Summe, die ausreichen würde, um statt der unsteten „Alternativen“ zum Beispiel 230 zuverlässige große Kernkraftwerke mit je zwei Gigawatt Leistung zu bauen – was die Autoren der Studie und ihre Auftraggeber aber ausdrücklich ausschließen. Das wirft die Frage auf, warum eine Großbank Milliarden-Investitionen in unzuverlässige Technik empfiehlt. Warum werden in der Studie von Accenture und der Barclays-Bank die Perspektiven der verstärkten Nutzung „unkonventioneller“ Erdgas-Vorkommen ausgeblendet? (Erläuterung: Da bei der Verbrennung von Erdgas nur etwa halb so viel CO2freigesetzt wird wie bei der Verbrennung von Kohle, wären die Vorgaben der EU bis 2020 ganz bequem mit einer Steigerung des Erdgas-Einsatzes erreichbar.) Welche Hintergedanken haben den Beratern also die Feder geführt? Vermutlich sehen sie in der Finanzierung unzuverlässiger Technik über den von ihnen empfohlenen Verkauf undurchsichtiger Verbriefungen den besten Weg, um Gewinne privatisieren, Risiken und Verluste jedoch auf die öffentliche Hand beziehungsweise die Steuerzahler abwälzen zu können.

Die Accenture-Barclays-Studie zeigt nicht zuletzt, dass das größte Risiko für die Investmentbanken die Durchsetzung der Wahrheit über den Klimawandel ist. Deshalb tun sie alles, um in enger Zusammenarbeit mit der großen Politik Forschungsergebnisse zu unterdrücken, die ihnen nicht in den Kram passen. So heißt es schon in der einleitenden Zusammenfassung der Studie: „Scientists broadly agree that if the world is to prevent irreversible climate change, levels of greenhouse gas emissions must be stabilized by 2015 and reduced in the years that follow.” Das stimmt eindeutig nicht. Es gibt mindestens 850 von wissenschaftlichen Zeitschriften akzeptierte Arbeiten, die die Auffassungen der “Klima-Speptiker“ stützen, dass "Treibhausgase" keinen messbaren Einfluss auf Wetter und Klima haben können. Würden diese Arbeiten dem breiten Publikum bekannt, geriete das Geschäftsmodell von Barclays und anderen Großbanken ins Wanken. Deshalb baut die zitierte Studie auf eine enge Zusammenarbeit mit der Politik und den staatlichen Propaganda-Apparaten. Dabei ist es sicher aufschlussreich, dass der neue Geschäftsführer von Barclays Capital in den USA kein Geringerer als der einflussreiche Theodore Roosevelt IV ist. Dieser war zuvor Chef des Council on Climate Change von Lehmann Brothers und ist bestens mit dem Washingtoner World Resources Institute (WRI), verschiedenen Umweltverbänden und UN-Gremien vernetzt.

Aber selbst, wenn an der These vom menschengemachten „Treibhauseffekt“ durch CO2 etwas dran sein sollte, würden die Billionen teuren Investitionen der EU in „kohlenstoffarme“ Technologien nicht viel ändern. Denn während die EU ihre Wirtschaft und das Leben ihrer Bürger auf eine „kohlenstoffarme“ Diät setzt, nimmt in China jede Woche ein neues Kohlekraftwerk seinen Betrieb auf. Hält dieser Rhythmus an, wird China schon in 20 Jahren allein über ein Viertel der weltweiten CO2-Emissionen verursachen, während die EU, die heute für knapp 18 Prozent der CO2-Emissionen verantwortlich ist, dann kaum noch ins Gewicht fallen wird. Die europäischen Anleger und Steuerzahler werden die veranschlagten Billionensummen buchstäblich für nichts ausgegeben haben.

Edgar Gärtner EIKE

zuerst erschienen im Kopp Exclusiv und eigentümlich frei 

Literatur:

Der Klimaschutz kostet Billionen

„Carbon Capital. Financing the low carbon economy“

Theodore Roosevelt IV

850 Peer-Reviewed Papers Supporting Skepticism of "Man-Made" Global Warming (AGW) Alarm

NRW plant scharfes Klimaschutz-Gesetz




Postnormale Wissenschaft: Klimawissenschaft und „Erneuerbare“ um die Welt zu ändern!

Vortrag über die Postnormale Wissenschaft und ihre Anwender, Untersützer und Nutznießer gehalten von Prof. Werner Kirstein am 4.12.10 in Berlin. 

Sehen & hören Sie hier den Vortrag von Prof. Kirstein zur Postnormalen Wissenschaft. 

Dazu passend die Pressemitteilung des WBGU

Wir berichteten schon des öfteren über die Pläne die "postnormale" Wissenschaft zu nutzen um die Gesellschaft mit "wissenschaftlicher" Autorität zu ändern, (hier und hier) sowie über die wirklichen Absichten dahinter. Die hat z.B. Otmar Edenhofer, ehemaliger Jesuit, jetzt Chefvolkswirt des PIK und stellvertretender Vorsitzender des IPCC in einem NZZ [2]( Neue Zürcher Zeitung) Interview ganz deutlich erklärt. Er enthüllte darin, was von seiten der UNO und der sie unterstützenden Kreise eigentlich angestrebt wird:

„Zunächst mal haben wir Industrieländer die Atmosphäre der Weltgemeinschaft quasi enteignet. Aber man muss klar sagen: Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik, mit Problemen wie Waldsterben oder Ozonloch, fast nichts mehr zu tun.“

Passend dazu erscheint demnächst ein neues "Gutachten" des wissenschaftlichen Beirat der Bundesregierung für globale Umweltveränderungen (wbgu). In einer P R E S S E E R K L Ä R U N G zum

EU-Energiegipfel am 4. Februar

erklärt dieser: 

Energiewende in der Europäischen UNION vorantreiben Berlin, den 2. Februar 2011.

Anlässlich des am 4. Februar in Brüssel stattfindenden EU-Gipfels über die zukünftige europäische Energiestrategie plädiert der Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) für eine beschleunigte Harmonisierung der Energiepolitiken in den EU-Staaten. Ziel sollte die Dekarbonisierung der europäischen Energiesysteme bis Mitte des Jahrhunderts sein. Dafür empfiehlt der WBGU die Implementierung einer umfassenden Strategie zur massiven Steigerung der Energieeffizienz, eine konsequente Förderung erneuerbarer Energien sowie den koordinierten, raschen Ausbau der Netzinfrastruktur für Strom und Gas und den Aufbau von Speicherkapazitäten. Für diese Elemente sollten jeweils ambitionierte mittelfristige Ziele vereinbart werden. Damit würden Klimaschutz und Energiesicherheit gleichermaßen gefördert. Die heute noch kontrovers diskutierte gemeinsame Energiepolitik könnte in den kommenden Dekaden zu dem zentralen europäischen Leuchtturmprojekt werden. Förderung erneuerbarer Energien schrittweise harmonisieren Eine EU-weit einheitliche, ambitionierte Einspeisevergütung würde den Aufbau einer klimaverträglichen europäischen Energieerzeugung beschleunigen und wäre der kostengünstigste Weg für ein dekarbonisiertes Energiesystem mit möglichst hohen Anteilen erneuerbarer Energien. Sie ist allerdings frühestens binnen einer Dekade sinnvoll, weil zuvor die notwendige Netzinfrastruktur geschaffen werden muss. Bisher existieren Einspeisevergütungen bzw. -prämien in 21 Mitgliedstaaten der EU. Die Mitgliedstaaten der EU sollten jetzt verbindlich festlegen, dass in den nächsten Jahren in allen Staaten der EU Einspeisevergütungen für erneuerbare Energien eingeführt und existierende Fördersysteme schrittweise angeglichen werden. Dies würde bereits jetzt die Gefahr eines zu starken Ausbaus an weniger geeigneten Standorten und damit die Kosten senken sowie den Ausbau an Gunststandorten beschleunigen. Die EU sollte ihre kontinentweiten erneuerbaren Energiepotenziale bündeln: Windenergie von der Nord- und Ostsee, Biomasse aus Osteuropa, Sonnenenergie aus Südeuropa und Systemwissen zum Ausbau transeuropäischer Netze aus Deutschland und anderen technologiestarken Ländern. Mittelfristig sollte ein einheitliches Fördersystem eingeführt werden, das Energie- und Kosteneffizienz miteinander verbindet. Netzausbau vorantreiben Der WBGU warnt allerdings vor der Einführung einer sofortigen europaweit einheitlichen Einspeisevergütung. Solange die grenzüberschreitenden Infrastrukturen zum Transport von Strom aus erneuerbaren Quellen nicht vorhanden sind, droht die Gefahr, dass an Gunststandorten Strom produziert wird, der nicht zum Verbraucher transportiert werden kann. In Regionen mit weniger günstigen Bedingungen würde der Ausbau erneuerbarer Energien gebremst und ein Ausweichen auf weniger nachhaltige Energieformen wahrscheinlich. Zwingende Voraussetzung für eine unionsrechtliche Harmonisierung der Einspeisevergütung ist daher der beschleunigte Ausbau der Netze. Die EU sollte durch den koordinierten Netzausbau die Voraussetzungen dafür schaffen, dass eine nahezu vollständige Versorgung Europas mit erneuerbaren Energien bis Mitte des Jahrhunderts möglich wird. Dafür bedarf es der entsprechenden Gesetzgebungskompetenz der EU. Die Europäisierung der Einspeisevergütung sollte im Einklang mit dem Netzausbau schrittweise erfolgen. Insbesondere sollte keine Phase der Investitionsunsicherheit entstehen, die den Ausbau der erneuerbaren Energien insgesamt bremsen würde. Unbedingt erhalten bleiben sollten wichtige Elemente aus dem deutschen EEG, wie der Vorrang der Einspeisung für Strom aus erneuerbaren Energieträgern sowie die Fördergarantie für einzelne Anlagen über einen bestimmten Zeitraum. Die Förderhöhe für Neuanlagen sollte dynamisch angepasst werden, so dass die angestrebten Ausbauraten erreicht werden können, aber keine Überförderung an Gunststandorten erfolgt. Nationale industriepolitische Interessen überwinden Angesichts der Herausforderungen des Klimawandels, einer zunehmenden Abhängigkeit vom Import fossiler Energieträger sowie steigenden Energiepreisen ist die Energiewende in der EU dringend erforderlich. Ziele der Europäisierung der Energiepolitik sollten der optimierte Zubau von erneuerbaren Energien, die Ausschöpfung von Innovationspotenzialen und möglichst kostengünstige Lösungen sein. Eine gemeinsame europäische Energiepolitik hätte zudem eine enorme Symbolwirkung und würde die politische Kraft Europas zum gemeinsamen Handeln in zentralen Zukunftsfeldern unterstreichen, die Wettbewerbsfähigkeit der Union stärken und Ausstrahlungskraft auf die Weltwirtschaft entfalten. Es ist daran zu erinnern, dass die Europäische Union einmal als Europäische Gemeinschaft für Kohle und Stahl oder Montanunion auf der Grundlage fossiler Energien Gestalt angenommen und politische Identität begründet hat. Heute können energie- und industriepolitische Initiativen im Bereich der erneuerbaren Energien ähnliche Impulse für die Vertiefung der Europäischen Union und ihren Einfluss in Weltwirtschaft und Weltpolitik setzen. Diesen übergeordneten Zielen sind kurzfristige nationale industriepolitische Interessen unterzuordnen. Der WBGU geht davon aus, dass die erneuerbaren Energien wie Solarthermie, Photovoltaik, Wind und Biomasse ab dem Erreichen einer weltweiten Kapazität von etwa 5.000 TWh für jede einzelne dieser Energiequellen auch ohne Förderung wettbewerbsfähig werden, so dass das EU-Fördersystem langfristig auslaufen kann. Einbezug Nordafrikas prüfen Der WBGU empfiehlt, mittelfristig auch die internationale Kooperation über die Grenzen der Europäischen Union hinaus auszuweiten. Dazu sollten Optionen zur Einbindung Nordafrikas in ein System europäischer Einspeisetarife geprüft werden. Dadurch könnten zusätzliche Potenziale, insbesondere Solar- und Windeenergie, erschlossen und die Energiewende in den Maghreb-Staaten gefördert werden. Voraussetzung für den Einbezug Nordafrikas wäre jedoch ein transkontinentales Hochleistungsnetz, das voraussichtlich nicht vor 2030 realisierbar sein wird. Um auch die 500 Millionen Menschen in Afrika südlich der Sahara zu versorgen, die derzeit keinen Zugang zu Strom haben, ist zusätzlich der Aufbau eines transafrikanischen Netzes notwendig. Neues Gutachten Am 22. März wird der WBGU sein neues Gutachten „Transformation zur klimaverträglichen Gesellschaft“ an die deutsche Bundesregierung übergeben. Es zeigt, wie die globale Transformation zur klimaverträglichen Gesellschaft gelingen kann. Der WBGU Der Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) wurde 1992 im Vorfeld der Rio-Konferenz von der Bundesregierung als unabhängiges wissenschaftliches Beratergremium eingerichtet. Seine Aufgaben sind, globale Umwelt- und Entwicklungsprobleme zu analysieren, nationale und internationale Forschung auf dem Gebiet des Globalen Wandels auszuwerten, im Sinne von Frühwarnung auf neue Problemfelder hinzuweisen, Forschungsdefizite aufzuzeigen, Impulse für die Wissenschaft zu geben sowie Handlungs- und Forschungsempfehlungen zu erarbeiten. Vorsitzender des WBGU ist Hans Joachim Schellnhuber. Rückfragen bitte an: WBGU-Geschäftsstelle: 030-263948-0 oder wbgu@wbgu.de.

Als willige Vollstreckerin hilft mal mal wieder die evangelische Kirche,

die mit der Ev. Akademie Tutzing zu einem  -von (zum großen Teil steuerfinanzierten) Umweltorganisationen viel beworbenen Seminar über die "Große Transformation" einlädt (Akademie-Direktor Dr. Friedemann GreineE-Mail: greiner@ev-akademie-tutzing.de ; Veranstaltungsleiter Dr. Martin Held E-Mail: held@ev-akademie-tutzing.de): Eine Aufforderung von EIKE diese offensichtliche Indoktrination zu unterlassen, oder wenigstens die Teilnehmer auch von dritter Seite neutral informieren zu lassen, lehnte Veranstaltungsleiter Dr. Held in einem Telefonat mit EIKE (am 21.2.11) brüsk ab. Geworben wird für diese Veranstaltung:

Grosse Transformation zu einer klimaverträglichen Gesellschaft: 

Die Herausforderung für die Umsetzung meistern

Die Transformation zur klimaverträglichen Gesellschaft ist dringend notwendig, denn ein ungebremster Klimawandel würde gefährliche, irreversible und kaum beherrschbare Risiken mit sich bringen. Um den globalen Temperaturanstieg auf 2°C gegenüber dem vorindustriellen Niveau zu begrenzen, muss das auf fossiler Energienutzung basierende Wirtschaftssystem bis Mitte des Jahrhunderts weitgehend auf eine low-carbon economy umgestellt sein.

Das könnte auf den ersten Blick den Eindruck erwecken, dass dies noch in weiter Zukunft liegen würde. Tatsächlich müssen jedoch dafür die Weichen in den nächsten Jahren gestellt werden, soll die Herausforderung gemeistert werden. Das zeigt das aktuelle Gutachten des WBGU, das am 22. März 2011 erscheint.

Auf der Tagung wird diskutiert, wie die Umsetzung dieser „großen Transformation“ (Karl Polanyi ) durch Politik, Wirtschaft und Gesellschaft gelingen kann und wie man für die Pioniere des Wandels Freiräume schaffen und erweitern kann.

Herzliche Einladung nach Tutzing zu einem spannenden Dialog zum Zukunftsthema des 21. Jahrhunderts.

Dr. Friedemann Greiner, Direktor Evangelische Akademie Tutzing

Prof. Dr. Hans Joachim Schellnhuber, Vorsitzender Wissenschaftlicher

Beirat der Bundesregierung Globale Umweltveränderungen (WBGU), Potsdam

Beschleunigung der Transformation zu einer klimaverträglichen Gesellschaft: Die nächsten Schritte

Podiumsdiskussion mit

Ministerin Tanja Gönner

Bärbel Höhn MdB

Fred Jung

Prof. Dr. Hans Joachim Schellnhuber

Das Anmeldeformular finden sie als pdf im Anhang. Oder hier online

Related Files




US Kongress lehnt es ab dem IPCC weitere Mittel zukommen zu lassen!

Die Klimawandelleugner können nur sich selbst die Schuld geben am Votum der vergangenen Nacht.

Ich spreche von denen, die den NATÜRLICHEN Klimawandel leugnen. Wie Al Gore, John Holdren und alle anderen, die glauben, dass der Klimawandel erst seit ihrer Geburt begonnen hat.

Die Politiker haben den IPCC vor über 20 Jahren mit einem einzigen Ziel gegründet: die Emissionen von CO2 zu regulieren. Ich weiß das, weil ich Zeuge von einigen Planungen hinter den Kulissen war. Es ist keine wissenschaftliche Organisation. Es wurde organisiert, um die mit Geldern der Regierung unterstützte wissenschaftliche Forschung zu benutzen, um bestimmte politische Ziele zu erreichen.

Nun muss das nicht notwendigerweise etwas Schlechtes sein. Aber wenn man die Arbeit des IPCC als objektive Wissenschaft darstellt, IST es sehr wohl etwas Schlechtes. Falls sich die anthropogene globale Erwärmung – und die ‚Versauerung‘ der Ozeane (schon dies ist ein verzerrter und total falscher Term) – am Ende als durchweg falscher Alarm herausstellt, sind diejenigen, die das IPCC steuern, ihren Job los. Hierzu später mehr.

Ich möchte hier nicht missverstanden werden. WENN wir wirklich mit dem Verbrennen unserer fossilen Energieträger die Erde zerstören, MUSS etwas dagegen getan werden!

Aber die Gemeinschaft der Klimawissenschaftler hat es zugelassen, dass sie in dieser Frage missbraucht wird, und als Ergebnis haben Politiker, Aktivisten und die Medien erfolgreich diese verzerrte Wissenschaft als ‚settled‘ verkauft. [Es wird davon ausgegangen, dass jeder mit dem Begriff ‚settled‘ etwas anfangen kann. Da mir kein vernünftiges deutsches Wort dafür einfällt, wird dieser Begriff hier übernommen. A. d. Übers.]

Sie merken offenbar nicht, dass ‘settled Wissenschaft’ ein Widerspruch in sich ist.

Die meisten den IPCC verteidigenden Klimawissenschaftler haben ihre Objektivität verloren. Ja, sie haben, was ich eine plausible Theorie nennen. Aber sie unterdrücken aktiv alle Gegenbeweise, zum Beispiel die Versuche, natürliche Ursachen der jüngsten Erwärmung zu erforschen.

Das ist einer der Gründe, warum die Öffentlichkeit über die Klimagate-e-mails so entrüstet war. Klimagate beweist nicht, dass ihre Wissenschaft falsch war… aber es enthüllt ihre vorgenommenen Manipulationen. Die Wissenschaft macht Fortschritte durch die Suche nach alternativen Erklärungen für bestimmte Phänomene. Vor langer Zeit hat das IPCC alles getan, diese Suche zu unterbinden.

Oh, sie haben angemerkt (ich glaube zu recht), das seine Änderung der Sonnenstrahlung nicht der Grund ist. Aber es gibt SO viele andere Möglichkeiten, und alles, was sie tun, ist, jene Möglichkeiten von der Hand zu weisen. Sie haben eine Theorie – dass immer mehr CO2 verantwortlich ist – und sie kleben daran mit religiöser Inbrunst. Es bestimmt alle ihre Forschungen.

Die Klimamodelle sind in der Tat großartige Leistungen. Wofür sie benutzt werden, ist jedoch verdächtig. Insgesamt 23 Modelle überdecken eine große Vielfalt der Abschätzung der künftigen Erwärmung, und doch gibt es keine Möglichkeit, sie für das zu testen, was sie untersuchen: Vorhersagen der Klimaänderung.

Nahezu alle Modelle simulieren eine Erwärmung im Zeitscale von Dekaden, die weit über das hinausgehen, was wir während der letzten 15 Jahre beobachtet haben. Dies ist seit Jahren bekannt, aber die Veröffentlichung dieser Tatsache in der wissenschaftlich begutachteten Literatur wird weiterhin blockiert.

Meine Theorie lautet, dass seine natürliche Änderung der Wolkenbedeckung zum größten Teil für die jüngste Erwärmung verantwortlich ist. Proxydaten der Temperatur aus der ganzen Welt legen nahe, dass es in nahezu jedem Jahrhundert der letzten 2000 Jahre Erwärmungen und Abkühlungen gab. Warum sollte die gegenwärtige Wärme anthropogen sein, wenn es die mittelalterliche Warmperiode nicht war? Nur weil wir endlich eine potentielle Erklärung haben – CO2?

Dies allein zeigt, wie WENIG wir von der Klimaänderung verstehen… und nicht, wie VIEL wir wissen.

Warum lassen es die Wissenschaftler zu, in dieser Weise benutzt zu werden? Auf meine insistierenden Fragen zur Wissenschaft über die Jahre haben sie sich alle auf die Position zurück gezogen, dass es ‚jedenfalls richtig ist, sich von fossilen Energieträgern zurückzuziehen‘.

Mit anderen Worten, sie haben es zugelassen, dass ihre Ansichten, ihre Politik, ihr wirtschaftliches Verständnis (sofern vorhanden) ihre wissenschaftliche Beurteilung beeinflusst hat. Ich schäme mich über diese Art der wissenschaftlichen Disziplin und bin empört über ihr Verhalten.

Ist es ein Wunder, dass Wissenschaftler bei den Steuerzahlern so ein schlechtes Ansehen haben, wenn sie mit den Steuergeldern in den Sandkästen ihrer Elfenbeintürme spielen? Sie können jeden Tag Finsternis und Untergang [schwer übersetzbares Wortspiel: gloom and doom] vorhersagen und müssen nie Konsequenzen befürchten, daneben zu liegen.

Die ununterbrochen in die Klimaforschung fließenden Forschungsmittel beeinflussen sie ebenfalls. Jeder in meinem Beruf weiß, solange die anthropogene Klimaänderung eine ernste Bedrohung bleibt, wird das Geld immer weiter fließen, und Klimaprogramme werden weiterhin wachsen.

Nun, ich stimme zu, dass fossile Energieträger nicht endlos zur Verfügung stehen. Aber wir werden niemals ‚ohne sie dastehen‘… wir werden nur allmählich aufhören, sie zu gewinnen, wenn sie immer seltener (Übersetzung: und damit teurer) werden. So geht es in der Welt.

Leute, die behaupten, dass wir eines Morgens aufwachen und keine fossilen Energieträger mehr haben, sind entweder Lügner (Original: are pandering) oder dumm oder beides.

Aber die Verlagerung von fossilen Energieträgern hin zu anderen Energiequellen macht den gesamten Unterschied der Welt aus. Unsere reichlich vorhandenen und bezahlbaren Energiequellen künstlich durch Gesetze und lenkende Maßnahmen zu verteuern wird zum Tod von Millionen Menschen führen.

Und das ist der Grund, warum ich hier laut werde. Armut tötet! Jene, die aus ihrer von fossiler Energie getragenen Position der Gesundheit und des Wohlstands (Original: health and wealth) etwas anderes sagen, handeln wie verdorbene Kinder.

Der wirklich objektive Wissenschaftler sollte sich fragen, ob wir nicht erreichen sollten, dass MEHR und nicht weniger Kohlendioxid in die Atmosphäre gelangen sollte. Es gibt in der realen Welt mehr Beweise für die Vorteile eines größeren CO2-Gehaltes als für jeden Nachteil, den dies haben könnte. Die Vorteile wurden gemessen und beobachtet und sind real. Die Risiken sind dagegen immer noch nur theoretischer Natur.

CO2 ist eine Grundvoraussetzung für Leben auf der Erde. Dass dieses CO2 so erfolgreich mit so wenigen Beweisen dämonisiert wurde, ist tatsächlich ein Zeugnis des wissenschaftlichen Analphabetentums der modernen Gesellschaft. Falls die Menschen das CO2 zerstören würden – anstatt mehr davon zu produzieren – man stelle sich vor, welchen Aufruhr es DANN geben würde!

Ich würde diese Leugner des (natürlichen) Klimawandels liebend gerne in einem Gerichtsverfahren einem Kreuzverhör unterziehen. Sie sind mit zu viel zu lange davon gekommen. Haben sie recht? Sicher. Aber die Öffentlichkeit hat keine Ahnung, wie fadenscheinig – und den Umständen geschuldet – ihre Beweise sind.

Am Ende bezweifle ich, dass dem IPCC jemals die Mittel ausgehen. Das Votum des Kongresses ist lediglich ein Warnschuss, den Bogen nicht zu überspannen. Aber solange das IPCC nicht anfängt, seine Arbeitsweise zu verändern, läuft es Gefahr, total marginalisiert zu werden. Jedenfalls hat es diesen Punkt fast schon erreicht.

Und vielleicht kümmert es die Führung des IPCC gar nicht, ob seine Verkündigungen ignoriert werden, solange es ihnen möglich ist, rund um die Welt zu jetten, um sich an exotischen Orten zu treffen und zu planen, wo man sich als nächstes treffen könnte. Man hört, dass es wieder ein ziemlich guter Auftritt wird (Original: it’s a pretty good gig).

Roy Spencer Huntsville  Alabama

*Leitender Wissenschaftler an University of Alabama in Huntsville seit 2001 und beauftragt mit der Auswertung der UAH Satellitendaten zur Bestimmung der globalen Oberflächentemperatur* 

Übersetzt und mit einer Einführung versehen von Chris Frey für EIKE

Link zum Original: http://www.drroyspencer.com/2011/02/on-the-house-vote-to-defund-the-ipcc/




Der Biosgasschwindel. Jetzt auch mit toten Fischen

Jetzt aber gehen manche Naturverbände auf die Barrikaden. 

Sie wettern gegen den hoch subventionierten „Bio“-Gasschwindel, für den riesige Flächen in Maismonokulturen verwandelt und Böden ruiniert werden – Artenrückgang inklusive. Auf dem platten norddeutschen Land, wo der Irrsinn für jedermann sichtbar ist, tippen sich die Bauern an die Stirn, sofern sie nicht selber vom Maisgeschäft profitieren. Die können rechnen, und jeder Landmann weiß natürlich, dass der Riesenaufwand für die Erzeugung von ein bisschen Wärme aus Maisvergärung ohne die staatliche Subventionsgießkanne krass unwirtschaftlich wäre. Ökologisch ist Biogas sowieso kontraproduktiv. Felder müssen gepflügt und heftig gedüngt werden, die Ernten wollen eingebracht werden, PS-starke Schlepper müssen unablässig zwischen verstreuten Anbauflächen und den Biogasanlagen hin- und herbollern. „Was Biogaserzeugung allein an Diesel schluckt, ist mehr als das, was hinten an Energie raus kommt“, sagt ein junger Bauer aus der Unterelberegion. Er sucht händeringend nach bezahlbaren Pacht-Wiesen, um Heu für seine Tiere machen zu können. Durch den Maisanbauboom sind freie Felder rar und drastisch teurer geworden.

Hier ein Video vom 21.2.11 von REPORT München das dieses Thema ausführlich beleuchtet. Sie können den Podcast hier herunterladen. Das Transscript der Sendung finden Sie hier!

Doch das ist längst nicht alles. Wo die allerorten aus dem Boden sprießenden Biosgasanlagen müffeln, schwimmt so schnell kein Fisch mehr.  „Seit Jahrzehnten schwimmen Jahr für Jahr Forellen und andere Fische gesund und munter durch die herrlich gelegenen Teiche in Lahmstedt-Nindorf“, meldete unlängst die „Niederelbe-Zeitung“ (NEZ). Damit war´s vorbei, als in der Nähe eine Biogasanlage den Betrieb aufnahm.

Die steht laut NEZ in Verdacht, durch Einleitung von Gärsubstraten oder anderen Gärresten in die Gewässer dafür gesorgt zu haben, dass urplötzlich 3000 Teichfischlein bauchoben trieben, verreckt an Nitratvergiftung und Sauerstoffmangel. Es ist das dritte Fischesterben innerhalb von drei Jahren in den Teichen. Dem Biogasanlagen-Betreiber wurden bereits Auflagen erteilt, wie die NEZ recherchierte. Ob der Fischetod auch diesmal aus der Biogasanlage kam oder aus anderen trüben Quellen des Bauernhofs, auf dem die Anlage steht, werde noch untersucht.

Für die Gasanlage als Verursacher spricht viel. Eine Website aus der betroffenen Region (http://www.osten-oste.de) googelte einfach mal „Fischsterben“ in Kombination mit „Biogas“. Siehe da, nicht nur in Niedersachen, sondern in der ganzen Republik gab es schon eine Vielzahl ähnlicher Kollateralschäden. Über Wiesen, die kniehoch von Gülle überschwemmt wurden, verseuchte Flüsse und massenweise tote Fische finden sich Meldungen im Überfluss.

Doch während ein publizistischer Orkan losbricht, wenn auf dem Scheißhaus eines AKW-Pförtners nur mal eine Glühbirne durchknallt und deshalb irgendwo die Sicherung raus springt („Störfall!“), ist der Zusammenhang von Biogaserzeugung, Gewässerverschmutzung und Fischesterben für viele Medien tabu. Kein Wunder. Subventionen-Abgreifer und Couponschneider, die haufenweise Kohle aus vorgeblich sanfter, sauberer, nachhaltiger Energieerzeugung generieren, stehen in Deutschland unter Artenschutz. Darunter sind nämlich nicht wenige Redakteure von grün grundierten Presseerzeugnissen und öffentlich-rechtlichen Sendeanstalten. Die bescheinigen sich ungern selber, dass sie sich mit Dreckschleudern ein Zubrot verdienen.

Wie die Ermittlungen auch ausgehen, dicht gemacht wird die Lahmstedter Brühefabrik wohl nicht. Im Gegenteil, demnächst will der Gemeinderat über die Verdoppelung der Biogasanlage entscheiden. Die Teichepächter ihrerseits haben den Pachtvertrag gekündigt. Sehr weise. Wenn die Nachbarn einen auf bio machen, macht man sich besser schnell vom Acker.

von Wolfgang Röhl mit freundlicher Genehmigung

zuerst erschienen auf ACHGUT

Weiterführende Links:

http://blog.br-online.de/report-muenchen/2011/02/21/biogasboom-bauern-in-bedrangnis.html

http://www.br-online.de/content/cms/Universalseite/2010/07/26/cumulus/BR-online-Publikation-ab-10-2010–99096-20110221223339.pdf
http://www.br-online.de/content/cms/Universalseite/2010/07/26/cumulus/BR-online-Publikation-ab-10-2010–98935-20110221185931.pdf

http://www.nez.de/lokales/news0/fischsterben-durch-biogasanlage.html

http://www.achgut.com/dadgdx/index.php/dadgd/article/die_kanonen_von_nawaro_ein_bio_rohrkr




Hilfe, wir haben zu viel Energie!

Ergebnis: Die Energiezukunft sieht heute viel rosiger aus, als noch vor 5 Jahren. Es hat sich nur noch nicht herumgesprochen: Überall auf der Welt wurden riesige Gasvorkommen entdeckt, von Israel bis Katar, von Südafrika bis in die Ukraine oder Polen. Die Funde übertreffen alle Erwartungen. Die USA fanden so viel Gas, dass sie von Importen gänzlich unabhängig werden könnten. Beim jetzigen Verbrauch reichen sie für mindestens 100 Jahre. Und auch Europa hat Gas für mindestens weitere 50 Jahre – wobei die zweitgrößten Vorkommen unter dem Emsland bis Nordrhein-Westfalen schlummern. Alle großen Energie-Konzerne investieren riesige Summen in Probebohrungen und neue Technologien. Die Internationale Energieagentur IEA spricht von einer „stillen Revolution“.

Doch statt sich über die „Gasschwemme“ (IEA) zu freuen, sind viele selbsternannte Gestalter unserer Energiezukunft jetzt mächtig erschrocken. Die Russen und ihr Staatskonzern Gasprom , weil sie auf ihrem Gas sitzen bleiben, und sich Pipelines wie „Northstream“ nicht mehr rechnen könnten. Das gleiche gilt für Projekte wie „Nabuco“ und „Southstream“. Ebenfalls erschrocken sind die deutschen Energieträumer mit ihren Solarzellen, weil Erdgas als relativ umweltfreundliche und obendrein viel billigere Zukunftsoption die grünromantische Alternativenergie-Landschaft unterspülen dürfte. Erdgas ist umweltfreundlicher als Kohle und Erdöl, man kann damit Heizen, Strom erzeugen und sogar Auto fahren (Erdgaskraftwerke sind nebenbei auch besonders gut in der Lage, Schwankungen der Windenergie auszugleichen). Und wie reagiert man hierzulande auf die frohe Kunde? Wie gehabt: Der Protest gegen Erdgas-Probebohrungen schwillt an. Statt durch Gasverbrennung soll Energie weiterhin durch Geldverbrennung erzeugt werden.

Dirk Maxeiner & Michael Miersch 

Erschienen in ACHGUT am 21.2.11 und die DIE WELT am 18.02.2011 

Weiterführende Links:

Schiefergas entwertet teure Pipelines

Unsere Energieträumer verbrennen Geld anstatt Gas




Von Korrelationen, Trends und Anomalien!

Dazu gehört die Klärung der Frage: Wie hängen also – wenn überhaupt- Korrelationen mit Trends zusammen? Wie Trends mit Anomalien? Wie Korrelationen mit Anomalien? Und das noch über längere Zeiträume? Zugegeben kein besonders spannendes Thema, wenn man nicht gerade ein Statistiker, Mathematiker oder ja, besonders engagierter Klimaforscher ist. Ich muss auch gestehen, dass mich erst der auch in diesen Kreisen bekannte Willis Eschenbach auf die Verknüpfung dieser Themen gebracht hat, der ein Meister darin ist, dass Offensichtliche zu hinterfragen. Er zeigt dabei häufig genug auf, dass das Offensichtliche nicht das Wahre und schon gar nicht das Wirkliche ist. 

Was steuert unser Klima? Oder –genauer- was steuert unsere Temperatur? 

Da Klimatologen es oft nicht unter „Weltklima“ machen –dabei es tunlichst unterlassen diesen Begriff zu definieren- muss die Frage lauten: Was steuert unsere Welttemperatur? Die einfachste Antwort müsste lauten: Nichts! Denn, da es eine Welttemperatur nicht gibt, kann sie auch nicht gesteuert werden! So einfach!

Damit würde man aber keine Forschungsmilliarden loseisen, der Politik kein 2° Ziel einreden und die (westliche) Welt nicht in Angst und Schrecken versetzen können. Also wird eine Welttemperatur per definitionem frei geschaffen. Sie soll der arithmetische Durchschnitt aller lokalen Jahresdurchschnittstemperaturen sein und die sollten zuvor möglichst genau und gleichmäßig über den Globus verteilt, täglich mehrmals genau gemessen und dann aus diesen Werten bestimmt werden.

Nun wissen wir aus vielen Berichten, dass dies zwar oft behauptet wird, man aber in der Realität weit davon entfernt ist eine gleichmäßige Abdeckung zumindest für die Vorsatellitenzeit jemals erreicht zu haben. Von genauer Messung erst gar nicht zu reden. Und was die terrestrischen Stationen anbelangt, ist dieser Zustand nicht besser, sondern sehr viel schlechter geworden. Zwar behauptet das britische Metoffice[1] ungerührt auf seiner Website:

„Die Untergruppe von Messstationen ist gleichmäßig über den Globus verteilt und gibt einen faire Übersicht über die Mitteltemperaturen in globalem Maßstab über Land“.

Nun, dass das die Übertreibung des Jahrhunderts – wenn nicht Jahrtausends- ist, pfeifen inzwischen die Spatzen von den Dächern. Die Verteilung der einbezogenen Messstationen ist weit davon entfernt gleichmäßig und/oder gleichförmig über den Erdball, oder auch nur die Landfläche, verteilt zu sein.

Abbildung 1: Reale Anzahl und Verteilung der einbezogenen GHCN Messstationen 2006. Blau dargestellt mit kontinuierlicher Messung, rot mit diskontinuierlicher Messung. Deren Verteilung in der Vergangenheit sehen Sie hier.

Aber, die Frage sei erlaubt: Wie kommen die wackeren Wissenschaftler vom Metoffice zu dieser ebenso falschen wie naiven Behauptung? Nun, hier kommen vermutlich die oben erwähnten Korrelationen[2] ins Spiel. Sie beziehen sich evtl. auf einen grundlegenden Aufsatz des damals noch jungen, aber schon sehr aggressiven Klimaforschers James Hansen und seines Kollegen Lebedeff aus dem Jahre 1987. Hansen ist auch derjenige, der 1988 dem amerikanischen Senat bei drückend heißem Wetter und unter tatkräftiger Mithilfe seines Kumpels -des Politprofis Al Gore- die Nachteile der künftigen vermutlich katastrophalen Erwärmung näherbrachte. 

In einem Aufsatz von 1987 [3] im damals noch angesehenen JOURNAL OF GEOPHYSICAL RESEARCH durften die  Autoren  „peer reviewed“ verkünden, dass es dank ihrer Forschung möglich sei, aus der Not eine Tugend zu machen. Nämlich aus der Not keine flächenmäßig ausreichende Abdeckung mit Klimamessstationen zu haben, die Tugend, diese auch gar nicht zu brauchen. Und nur weil man nun die Vorzüge von Korrelationen für unbekannte Trends einzusetzen imstande sei.

In der Zusammenfassung des Aufsatzes steht:

“..Wir zeigen, dass die Temperaturen von Messstationen mittlerer und hoher Breite über 1000 km miteinander hoch korreliert sind. Bei Stationen in niederer Breite fällt die Korrelation mit der Entfernung stärker ab“ Und etwas später ebenda: “.. Fehlerabschätzungen basieren in Teilen auf Studien wie genau die derzeitigen Stationsverteilungen in der Lage sind Temperaturänderungen in einem globalen Datensatz zu repoduzieren, die von einem dreidimensionalen GCM (General Circulation Model) mit realistischer Variabilität erzeugt wurden.“

In diesem hochtrabenden, etwas verschwurbelten Satz steht also im Klartext:

“ Wir haben eine Fehlerabschätzung (in Teilen? Welche Teile?) gemacht, indem wir die Ergebnisse mit Modellen, die „realistische“ Temperaturvariationen zuvor errechnet hatten, verglichen haben.“

Also nix mit Realitätsvergleich, nix mit Überprüfung der Daten der einbezogenen Stationen, sondern stattdessen Überprüfung mit Modellen! Der künftige modellverliebte Kurs der Klimaforschung des IPCC wurde hier schon vorgezeichnet. 

Und so sah das Ergebnis dann auch aus. Dank der großzügigen 1000 km Regel, die im Text dann nochmals auf noch großzügigere 1200 km Radius erweitert  wurde, schaffte man

Abbildung 2: Verteilung der einbezogenen GHCN Messstationen nach Hansen & Lebedeff von 1870 bis 1960 sowie deren postulierte Abdeckung

das Kunststück aus einer unvollständigen auf die Nordhalbkugel bezogenen Abdeckung eine weltweite zu machen. Die Welt wurde überall schwarz. Dabei meint man, dass es genüge wenn in mittleren und  hohen Breiten ein „mittlerer“ Korrelationskoeffzient von 0,5 nicht unterschritten wird und (nur noch) von 0,33 in niederen Breiten. Mit diesem trefflichen Handwerkszeug ausgestattet und abgesichert durch „präzise“ Vergleiche mit Modellrechnungen der damaligen GCM´s wurde die Welttemperatur bzw. ihre Abweichung vom gedachten Normal, die Anomalie und deren Trend bestimmt.

Diese Methode wird vom GISS unter seinem Chef James Hansen bis heute angewendet und niemand in der IPCC Klimatologenbranche hat bisher öffentlich Zweifel an diesem überaus groben und unbestimmten, daher oft falschen Verfahren[4] angemeldet.

So auch jüngst wieder in einer Studie über die Temperaturentwicklung in der Arktis. Auch dort wurden die wenigen Messstationen am Rand der Arktis benutzt, um die Temperaturtrends der ganzen Arktis zu berechnen. Und die steigen natürlich.

Abbildung 3 Satellitendarstellung der Arktis mit Nordpol und nächstgelegenen Messstationen. Die Kreise um die Stationen haben einen Durchmesser von 250 km! Der 80 ° Breitenkreis hat ca. einen Radius von 1200 km. Also wie von Hansen et al 1987 vorgeschlagen

Und hier die Temperaturtrends, die das GISS veröffentlicht, obwohl es dort keine Messstationen gibt.

Abbildung 4 GISS Darstellung der Temperaturtrends weltweit von 1881-2010, Man beachte die braune Färbung im Norden am Pol – dort wo es keine Messstationen gibt.

Der Ingenieur Willis Eschenbach hat sich von dieser „schwarzen Kunst“ nicht beeindrucken lassen und sich die Frage gestellt, inwieweit sich denn aus Korrelationen stichhaltige Trends ableiten lassen, oder umgekehrt. Er zeigte sich darüber verwundert, wie man Temperaturen und  deren Trends für weite Teile der Welt berechnen kann, wo es keinerlei Temperaturmessstationen gibt?

Wie immer geht er die Sache grundsätzlich an und erzeugt zuerst beliebige Trends, errechnet deren Korrelationen und geht dann weiter zu natürlichen Temperaturverläufen und deren Anomalien und Trends sowie Korrelationen.

wir sehen sie in Abbildung 5

 

Abbildung 5: Trendverläufe künstlich erzeugter Pseudotemperaturen.

Die zugehörigen Korrelationen sehen wir in der folgenden Tabelle:

 

Abbildung 6: Korrelationen der in Abbildung 5 erzeugten Pseudotemperaturen

Allen gemeinsam ist, dass die Korrelation sehr hoch ist. Keine ist kleiner als 0,9!

Wir erinnern uns: Die Korrelation die Hansen & Lebedeff noch zuließen lagen bei > 0,5 in mittleren und hohen Breiten und nur noch 0,33 in niederen Breiten. Es fällt aber jetzt schon auf, dass diese sehr hoch korrelierten Pseudotemperaturen doch sehr, sehr verschieden (mehrere Grad Unterschied) und trotzdem hoch korreliert sind. Und (nicht nur) Eschenbach [5] folgert daraus:

„.Die unausweichliche Folgerung daraus ist, dass hohe Korrelationswerte zwischen Temperatur-Historien nicht bedeuten, dass deren Trends sich ähneln.

In Ordnung, ich kann schon hören, was Sie denken: „Ja, stimmt, für einige imaginäre kurze 20-jährige Pseudo-Temperatur-Historien kann man einige wilde Daten finden, die unterschiedliche Trends aufweisen. Doch was ist mit den realen 50-jährigen Temperatur-Historien, wie sie Hansen und Lebedeff benutzten?“

 

Abbildung 7: Natürliche Trends in Alaska mit Korrelationen zwischen 0,51 bis 0,94 im Mittel 0,75 bezogen auf Anchorage

Gut, dass diese Frage kommt … hier sind neunzehn 50-jährige Temperatur-Historien von Alaska. Alle korrelieren mit Anchorage höher als 0,5 (max 0.94, min 0.51, Durchschnitt 0.75).

Man sieht, die Trends rangieren von etwa einem Grad in 50 Jahren bis nahe drei Grad. Trotz dieser riesigen Spannweite (ca. 300%) bei den Trends haben alle eine gute Korrelation (größer +0,5) mit Anchorage. Das zeigt klar, dass eine gute Korrelation zwischen den Temperatur-Historien nichts aussagt über deren korrespondierende Trends.

Was ergibt sich daraus?

Hansen und Lebedeff lagen richtig damit, dass die jährlichen Temperatur-Historien von weit auseinander liegenden Messstationen dazu neigen, gut korreliert zu sein. Allerdings lagen sie nicht richtig mit ihrer Meinung, dass dies für die Trends der gut korrelierten Temperatur-Historien gälte. Deren Trends können völlig ungleich sein. Im Ergebnis ist die Extrapolation von Trends aus einer bis zu 1200 km entfernten Messstation ein unzulässiges Verfahren ohne jegliche mathematische Basis.

Soweit der pfiffig, misstrauische Willis Eschenbach. Er unterzieht dann gleich die kühnen Angaben des GISS über die Temperaturerhöhung der Arktis einer kritischen Betrachtung.( http://wattsupwiththat.com/2010/03/25/gisscapades/#more-17728)  Denn dort wird so gut wie nirgends gemessen:

Macht nichts sagen die GISS Leute: Wo keine Temperaturen bekannt sind, erfinden wir eben welche“

Richtige seriöse Klimaforschung sollte anders aussehen.

Meint

Michael Limburg EIKE, unter Verwendung von Texten von Willis Eschenbach


[1] Met Office(Quelle: http://www.metoffice.gov.uk/corporate/pressoffice/2009/pr20091205.html)…The subset of stations is evenly distributed across the globe and provides a fair representation of changes in mean temperature on a global scale over land.

[2]„Korrelation“ ist ein mathematisches Maß für die Ähnlichkeit zweier Datenbestände. Sie rangiert von „null“, d. h. keine Ähnlichkeit, bis plus oder minus “eins”, d. h. völlig gleich. Ein negatives Vorzeichen bedeutet Gleichheit, aber wenn der Wert eines Datenbestandes nach oben geht, nimmt der andere ab.

[3] HANSEN, JAMES LEBEDEFF, SERGEJ (1987) Global Trends of Measured Surface Air Temperature. JOURNAL OF GEOPHYSICAL RESEARCH 92:13345 13372.

[4] Damit sind nicht die Klimarealisten, Ross McKittrick, MacIntyre, Watts um nur diese zu nennen gemeint. Die schießen seit Jahren gegen diese zu grobe und zu falschen Schlüssen führenden Methode

[5] Quelle mit vielen weiteren Beispielen und Anmerkungen hier: http://wattsupwiththat.com/2010/03/25/gisscapades/#more-17728




In Nord NEW BRUNSWICK, Kanada, sind die Windräder eingefroren

Update: 

Umfrage der (britschen) Daily Mail*, ob im Vereinigten Königreich weiterhin in Windenergie investiert werden sollte:

Ja: 39%
Nein: 61 %

Der britische Mainstream ist offensichtlich besser informiert über den tatsächlichen Nutzen (und die Kosten!) der Windkraft als die Deutschen.

GDF SUEZ Energy, die Firma, der die Anlage gehört und die sie betreibt, arbeitet daran, die Windräder wieder in Gang zu setzen, sagte eine Sprecherin des Unternehmens. "Das Wetter können wir nicht machen," sagte Julie Vitek in einem Interview am Firmensitz in Houston, Texas. "Wir bemühen uns, besser damit umzugehen und probieren Einiges aus." Die Wetterbedingungen in Nord NEW BRUNSWICK hätten in diesem Winter verheerende Schäden  in den Windfarmen angerichtet. "Kaltes und trockenes Wetter, wie es normalerweise in jener Region vorherrscht, ist für uns gut. Kaltes und feuchtes Wetter kann problematisch werden, wenn keine wärmeren Tage mit Tauwetter dazwischen sind, wie es in diesem Jahr der Fall war. Diese Wetterlage war eine besondere Herausforderung.

Das Wetter hatte die Anlage auch im vergangenen Winter zeitweilig stillgelegt, nur wenige Monate nach Fertigstellung. Mehrere bis zu allen Turbinen waren für einige Tage wegen besonders schwerer Vereisung abgeschaltet.
Die Vereisung verändert die Aerodynamik der Rotoren und macht sie unwirksam. Zusätzlich führt erhöhtes Gewicht zur Stilllegung.

Die Arbeiter würden nun versuchen, den Eisansatz zukünftig zu verhindern, sagte Vitek. Die Abschaltung hatte keine Auswirkung auf die Beschäftigung in der Anlage. Dort sind 12 feste Dauerarbeitsplätze.

Suez hatte im Februar 2008  einen Vertrag erhalten, um eine Windfarm mit 33 Turbinen auf dem CARIBOU MOUNTAIN zu errichten. NB POWER hat sich vertraglich verpflichtet, 20 Jahre lang die 99 Megawatt Energieerzeugungskapazität abzukaufen. Die Anlage ist im November 2009 in Betrieb gegangen.

Seinerzeit wurde das Projekt dafür gelobt, dass NB POWER im Jahre 2010 sein Ziel einer Windenergiekapaziät von 400 Megawatt erreichen könnte. Die Anlage kann 19 000 Haushalte versorgen.
Melissa Morton, Sprecherin von NB POWER, sagte, der Vertrag würde keine periodenbezogenen Lieferungen vorsehen, stattdessen eine jährliche Menge. "Es gibt Zeiten, wo die Erzeugung geringer ist als erwartet und Zeiten, wo sie höher ist", sagte sie. "Wir zahlen nur für die Energie, die in unser Übertragungsnetz geht. Aber weil sich die Preise am Energiemarkt ständig ändern, haben wir keine Möglichkeit zu erkennen, ob NB POWER viel oder wenig für die Ersatzenergie bezahlt."

"Es kann teurer, kann aber auch billiger sein," sagte sie, aber die Schwankungen in der Erzeugung aus anderen Anlagen könnte das wettmachen. "Wir hoffen, dass es sich über eine 12-Monats-Periode ausgleicht. Das war schon immer so."

Trotz der Probleme mit aufeinanderfolgenden Wintern macht sich NB POWER keine Sorgen wegen der Verläßlichkeit der Versorgung vom CARIBOU MOUNTAIN.

Die Webseite von SUEZ behauptet, dass die Windfarmen jährlich mit etwa 35 Prozent ihrer Kapazität Strom erzeugen, darin wären auch tägliche und jahreszeitliche Schwankungen des Windes berücksichtigt.

David Coon, Geschäftsführer des CONSERVATION COUNCIL von NEW BRUNSWICK, sagte, dass der Winter stärkere Winde in die Provinz brächte, und das würde die Strom-Produktion der Windfarmen erhöhen. Die Probleme mit CARIBOU MOUNTAIN wären überraschend, weil andere Projekte in kalten Klimagegenden keine Schwierigkeiten hätten. "Ich weiss nicht, warum," sagte er, "es gibt viel mehr Windfarmen im Norden von uns in QUEBEC, und ich kann nicht verstehen, warum man Probleme hat."

NB POWER hat auch Verträge zur Stromlieferung von anderen Windfarmen in der Region.

Eine Windfarm der TRANSALTA im Süden von MONCTON hat 18 Turbinen und ist damit die größte Windfarm in ATLANTIC CANADA.

NB POWER hat auch Verträge zur Lieferung von Strom aus dem ACCIONA Windprojekt in LAMÈQUE und einen Vertrag mit einer weiteren SUEZ Windfarm auf der PRINCE EDWARD Insel. Auf der Insel betreibt SUEZ eine zweite Windfarm. SUEZ hat auch Einrichtungen in Mittel- und Südamerika und in Europa.

Von Greg Weston, Telegraph-Journal, 15. 2. 2011

Übersetzt von Helmut Jäger EIKE

Weiterführender Link. Windkraftanlagen liefern nicht bei Kälte

 * Mit Dank an – Wattenpresse – Infodienst des Wattenrates Ost-Friesland 

         




Gesetzentwurf der USA will drastische Kürzungen bei Ausgaben der amerikanischen Umweltschutzbehörde erreichen. Kongress blockiert IPCC Mittel!

Der Sender Hill E2 berichtet:

Gesetzentwurf der Republikaner im Kongress will EPA-Ausgaben für Klimaschutz verhindern.

[Link: House GOP spending bill prohibits funding for EPA climate regs . Bemerkungen dazu: GOP steht für Grand Old Party – die Republikaner in den USA {Quelle: Wikipedia}. ‚regs’ steht für ‚regulations’ – die Abkürzeritis ist in den USA noch viel ausgeprägter als bei uns. A. d. Übers.]

Eine republikanischer Kongress-Gesetzentwurf zur Begrenzung der Regierungsausgaben,  der am Freitagabend bekannt wurde, würde die Ausgaben der US-Umweltschutzbehörde für den Klimaschutz bis zum September dieses Jahres verhindern.

[Anm. d. Ü: Die US-Regierung benötigt eine gesetzliche Ermächtigung zum weiteren Haushaltsvollzug, weil sie in Kürze eine gesetzlicher Obergrenze bei ihren Ausgaben erreicht, die sie ohne Ermächtigung durch den Gesetzgeber nicht mehr überschreiten darf.]

Der vorgelegte Beschluss, welcher die Ausgaben der Regierung bis zum Ende des Haushaltsjahres sicherstellen würde, ist der jüngste Versuch der Republikaner, die EPA-Regulierungen für Treibhausgasemissionen zu stoppen.  Die Republikaner argumentieren, dass die anhängige Klima-Regulierung der EPA die Wirtschaft schädigen und zu signifikanten Verlusten an Arbeitsplätzen führen wird. Gesetzentwürfe der Republikaner, auch vom Vorsitzenden des Energie- und Wirtschaftsausschusses Fred Upton (House Energy and Commerce Committee), haben einen Gesetzentwurf eingebracht, um die Zuständigkeit der EPA für das Klima für immer aufzuheben.

Das Gesetz würde die Ausgaben für alle gegenwärtigen und beabsichtigten EPA-Klimaregulierungen für stationäre Emitter [Kraftwerke, usw.] blockieren.

Der republik. Abgeordnete Mike Simpson (Idaho),  Vorsitzender des Bewilligungsausschusses für Inneres und Umwelt, sagte, dass er eng mit Upton bei der Formulierung zusammenarbeite und dass Upton aufgrund der Formulierung Zeit und Gelegenheit hätte, seine Gesetzesinitiative durchzubringen.

 „Mir wurde in Gesprächen mit Arbeitsplatzschaffenden in unserem Lande klar,  dass eine Zustimmung zu den EPA-Regulierungen die Schaffung von Arbeitsplätzen und das Wirtschaftlichswachstum unterbinden würde in einer Zeit, in der es unserer Wirtschaft immer noch schlecht geht“, erklärte Simpson. „Es sollte Sache des Kongresses und nicht der Regierung sein, zu entscheiden, ob und wie Emissionen von Treibhausgasen reguliert werden. Mit dem Versuch, dies ohne die Zustimmung des Kongresses durchzusetzen, hat die EPA den Bogen überspannt“.

Die anhängige Gesetzesinitiative würde zu massiven Einschnitten im Budget der EPA führen. Das Gesetz würde die Ausgaben der EPA um 3 Milliarden Dollar kürzen, 29 Prozent weniger als im Haushaltsjahr 2010. Insgesamt würden die Haushaltskürzungen des Simpson-Unterausschusses 4,5 Milliarden Dollar umfassen.

Bericht in voller Länge hier: House GOP spending bill prohibits funding for EPA climate regs

Übersetzt von Chris Frey unter Mithilfe von Helmut Jäger für EIKE




Die Klimadebatte im Spiegel der Interessengruppen!

Motive und Moneten

Anders sieht die Situation in der Diskussion um den Klimawandel aus. Eher selten wird die Debatte mit nüchternen Argumenten geführt, stattdessen wird dem jeweiligen Gegner zumeist ein niederes Motiv unterstellt. Vor allem die finanziellen Motive werden als beliebtes Totschlagargument in der medialen Schlammschlacht um den Klimawandel angeführt. Wer etwa kürzlich die Süddeutsche Zeitung aufschlug, konnte lesen, dass Klimaskeptiker allein wegen ihrer finanziellen Verflechtungen zum Großkapital zum rechten Rand der Gesellschaft gehören. Von eher klimaskeptischen Quellen war dagegen zu erfahren, dass die Protagonisten harter klimapolitischer Bandagen vor allem von öffentlichen Geldern profitieren. Soweit, so gut, wir wissen, dass Informationsproduktion und mediale Präsenz nicht umsonst sind. Auch der gläubigste Verfechter einer der beiden Seiten der Debatte wird verhungern, wenn er sich nicht die Frage nach den Opportunitätskosten der Zeit stellt, die er privat oder beruflich der Klimadiskussion widmet. Ebenso geht es denjenigen, die beide Seiten der Debatte finanzieren. Für den neutralen Beobachter ist daher nicht interessant, ob die Diskussion finanziert wird, sondern welche Seite die größten Motive hat, eine Position zu finanzieren, die wissenschaftlich nicht zu rechtfertigen ist. Die Auffassung von einer klaren Dichotomie zwischen profitorientierten Industrieinteressen und gemeinwohlorientierten Motiven der Umweltorganisationen bzw. des Staates, wie sie in der Öffentlichkeit dominiert, hält jedoch der Realität nicht stand. Eine nüchterne Betrachtung der Nutzen und Kosten des finanziellen Engagements in der Debatte zeigt schnell, dass der Vertrauensbonus, den Umweltorganisationen und Staat in der Allgemeinheit genießen, nicht gerechtfertigt ist.

Die Zwangsjacke muss wenigstens passen

Im Streit um die Theorie des Klimawandels geht es schon lange nicht mehr um einen wissenschaftlichen Disput unter Gelehrten, sondern um die wissenschaftliche Legitimation einer Politik, die nicht nur die Rettung der Menschheit, sondern vor allem eine gigantische Umverteilung des gegenwärtigen und zukünftigen Wohlstands verspricht. Wirtschaftliche Motive der Industrie richten sich daher vor allem an den Konsequenzen der Klimapolitik für das zukünftige Geschäft aus. Harte klimapolitische Bandagen bedeuten jedoch nicht zwangsläufig einen wirtschaftlichen Nachteil für die Wirtschaft, sondern eröffnen allerlei Potential der Teilhabe an den Profiten der Klimapolitik, sei es durch den Absatz neuartiger Produkte oder zusätzliche Gewinne, die sich durch die künstliche Verknappung von Ressourcen und den Rückgang der Wettbewerbsintensität auf den Märkten ergeben. Gewinnorientierte Unternehmen handeln hierbei nach einer einfachen Regel: Wir präferieren denjenigen regulativen Rahmen, der dem Unternehmen langfristig den höchsten Gewinn verspricht. Genau das ist es, wofür Manager von ihren Aktionären vergütet werden. Unternehmer geben ihr eigenes und Manager das Geld ihrer Aktionäre für politisches Lobbying aus, weshalb das finanzielle Engagement in der Klimafrage der Frage nach dem optimalen Einsatz von beschränkten Mitteln folgt wie alle anderen Investitionen. Dabei sind zukünftige Investitionen maßgeblich, wohingegen bereits investiertes Kapital kaum entscheidungsrelevant ist. „Versunkene Kosten“ sind nicht wieder zu retten, worauf es ankommt, ist der regulative Rahmen für die Zukunft. So mag es auf den ersten Blick für einen Mineralölkonzern ein Problem sein, wenn ihm die Klimapolitik mittel- bis langfristig die Geschäftsgrundlage entzieht, doch bedeutet das nicht automatisch, dass sich das Unternehmen mit Händen und Füßen gegen eine solche Politik wehren muss. Was der Kunde nachfragt sind Energiedienstleistungen, nicht Erdöl per se, das ohnehin mit ständig wachsendem Kostenaufwand extrahiert werden muss. Bietet der regulative Rahmen eine alternative Möglichkeit, Energiedienstleistungen gewinnbringend anzubieten, zumal diese mit üppigen Subventionen gefördert werden, gibt der Energieversorger nicht nur klein bei, sondern wird sich aktiv an der Gestaltung der klimapolitischen Fesseln beteiligen. Frei nach dem Motto: Wenn wir die Zwangsjacke schon nicht verhindern konnten, dann wollen wir wenigstens dafür sorgen, dass sie richtig passt. All dies spricht nicht unbedingt dafür, dass Unternehmen per se gewaltige Geldmengen für die Aktivitäten von Klimaskeptikern zur Verfügung stellen. Berücksichtigt man zusätzlich, dass die Finanzierung von Klimaskeptikern schon heute einen gewaltigen Imageschaden verursacht, klingt die Geschichte von der industriellen Verschwörung gegen die Klimaforschung noch unglaubwürdiger. Proaktive Industrieinitiativen zur direkten Beeinflussung der Klimapolitik, wie etwa „2° – Deutsche Unternehmer für Klimaschutz“, zu deren Mitgliedern vor allem die Vorstände von Energiedienstleistern gehören, die Finanzspritzen von Energieversorgern für die universitäre Forschung im Bereich „klimafreundlicher“ Energietechnologien oder das weltweite Engagement von Energiekonzernen wie EON, BP oder Shell beim Ausbau der erneuerbaren Energieträger sind beredte Beispiele für die auffällige Ambivalenz der Industrie hinsichtlich der Richtung in der klimapolitischen Diskussion. Fällt dennoch etwas Kleingeld für ein paar Klimaskeptiker ab, so bestenfalls, um sich eine kleine Hintertür offen zu halten.

Wir kaufen uns die Katastrophe

Anders dagegen sieht die Motivation politischer und staatlicher Akteure in Bezug auf das Marketing der Klimapolitik aus. Politiker haben nicht nur ein größeres Interesse, die Bürger mit Schauergeschichten bei der staatlichen Stange zu halten, sondern ihnen fällt es auch leichter, die Wähler mit Katastrophenmärchen an der Nase herum zu führen. Krisen und Katastrophen sind seit jeher ein willkommener Anlass, den daraus erwachsenden Sorgen der Bürger eine politische Antwort beiseite zu stellen. Eine Ausweitung staatlicher Befugnisse bedarf der Legitimation, und kaum etwas befriedigt diesen Bedarf besser, als die Angst einer Mehrheit der Bevölkerung. Der anthropogene Klimawandel mit seinen unsicheren Konsequenzen, dem nahezu jedes natürliche Phänomen mit negativen Folgen für die Menschen zugeschrieben werden kann und dessen Existenz sich weder eindeutig belegen noch widerlegen lässt, bietet besonders viel Raum für eine Politik, die mit den Ängsten der Menschen spielt. Dabei können Politiker gleichzeitig darauf bauen, dass die Mehrheit der Menschen wenig Interesse hat, die Informationen der Politik und ihrer wissenschaftlichen Wasserträger zu hinterfragen. Zu gering ist der Einfluss jedes einzelnen Wählers auf das Wahlergebnis, dass es sich lohnen würde, als Entscheidungshilfe beim Gang zur Wahlurne zusätzliche Informationen einzuholen. Viel einfacher ist es, dem eigenen Glauben zu folgen und das Kreuz dort zu machen, wo die politischen Lippenbekenntnisse die größte Schnittmenge zur eigenen Weltanschauung aufweisen. Der Bürger als Konsument mag überkritisch bei der Auswahl der mit eigenem Geld gekauften Produkte sein, doch der Bürger als Wähler ist mit eben dieser Rationalität ignorant, wenn nicht gar irrational. Für Politiker zählt der politische Gewinn, der sich in Macht, Prestige und finanziellen Vorteilen auszahlt. Vor diesem Hintergrund bedarf es schon eines gewaltigen Rückgrats, nicht der Versuchung unrealistischer Katastrophenstimmung zu widerstehen. Hierfür werden dann bereitwillig Forschungsgelder aus dem großen Topf des öffentlichen Budgets locker gemacht. Forschung und Bildung ist dem Bürger ja schließlich heilig.

Wes Brot mir schmeckt, des Lied ich sing

Von dieser Erkenntnis ist es nicht weit zur Beantwortung der Frage nach den Anreizen der Wissenschaftler in der Klimadebatte. Während manche Unternehmen sich allein aus gewinnwirtschaftlichen Motiven in der Klimadebatte nicht so richtig festlegen wollen, fällt es Wissenschaftlern deutlich leichter, den eigenen Forschungszweig zu befördern und die finanzielle Ausstattung ihrer Forschung sicher zu stellen. Der Schlüssel zu dieser Erkenntnis liegt in der Tatsache, dass die Nachfrager wissenschaftlicher Erkenntnisse sich im Bereich der öffentlichen Forschung weit weniger um die wissenschaftlichen Meriten ihrer akademischen Anbieter Gedanken machen. Was hier zählt sind Ergebnisse, die den politischen und weltanschaulichen Bedarf ihrer Auftraggeber befriedigen. Nicht nur in den Geisteswissenschaften gibt es inzwischen unzählige Institute an Universitäten, die im Schatten öffentlicher Bildungsfinanzierung weltanschaulich motivierte und zumeist praxisferne Bildung und Forschung betreiben können. Feministische oder marxistische Ökonomie sind nur zwei Beispiele aus meinem Fachgebiet.  Staatliche Forschungsaufträge, mit dem Motiv, die wissenschaftliche Legitimation für politische Interventionen zu beschaffen, führen dabei zu einem fatalen Selektionsprozess in der Wissenschaft. Wissenschaftler, die bereit sind, ihre Arbeit in den Dienst der Politik zu stellen, erhalten die großzügigste Förderung, wohingegen der öffentliche Finanzsegen für Forscher mit einem Anspruch auf Unabhängigkeit zunehmend ausbleibt. Folglich lohnt es sich für kommende Forschergenerationen, in die stärker geförderten Bereiche zu strömen, vor allem für diejenigen, denen es aus weltanschaulichen Erwägungen besonders leicht fällt, sich in politisch opportunen Forschungsfeldern zu spezialisieren. Wertneutrale Forschung beginnt dadurch jenseits der privatfinanzierten Forschung finanziell und personell auszutrocknen. Der Aufschwung der Umweltwissenschaften bzw. ökologisch orientierter Forschungszweige in nahezu allen Fachdisziplinen ist ein deutliches Zeichen für diesen Trend. Zweifelhaft ist dabei, ob die wissenschaftsinterne Qualitätskontrolle diesem Trend etwas entgegenzuwirken vermag. Wissenschaftler bieten ihre Arbeiten nicht nur der Politik, sondern auch anderen Wissenschaftlern in Form von Fachveröffentlichungen an. Gleichzeitig sind sie Nachfrager der Arbeiten anderer Kollegen. Der dadurch ausgelöste Reviewprozess (Peer Review) trägt zwar zur Qualitätskontrolle bei, vermag sich jedoch nicht aus dem bereits beschriebenen Teufelskreis der staatlichen Auftragsforschung zu lösen. Da Wissenschaftlern in der Regel weniger an der Qualitätskontrolle in ihrem Fachgebiet als an der Veröffentlichung ihrer eigenen Arbeiten gelegen ist, werden sie ihre Arbeiten nach dem Geschmack ihrer wissenschaftlichen Kollegen verfassen. So entstehen neben Zitierkartellen auch die mit dem Climate-Gate-Skandal ans Tageslicht gezerrten Versuche, den Reviewprozess wissenschaftlicher Publikationen zu manipulieren.

Man achte auf das Kleingedruckte

Angesichts der Vielfalt ideologischer und finanzieller Motive in der Kommunikation der Erkenntnisse der Klimawissenschaften ist es an sich müßig, weitschweifige Debatten über die finanziellen Quellen der Protagonisten der einen oder anderen Seite des Meinungsspektrums zu führen. Aus liberaler Perspektive kommt hinzu, dass die Motivation oder weltanschauliche Position eines Diskussionspartners ohnehin kein Diskussionsthema ist. Der Respekt vor der körperlichen, aber auch intellektuellen Freiheit des Individuums gebietet diese Zurückhaltung. Dennoch ist es interessant, die unterschiedlichen Anreize der einzelnen Akteure in der Debatte zu betrachten. Hier wird sehr schnell klar, dass die landläufige Auffassung vom Unternehmer, der Klimawissenschaft und –politik systematisch hintertreibt, einen gewaltigen Haken hat. Ebenso naiv mutet der Glaube an die Gemeinwohlorientierung der Klimapolitik und die Unparteilichkeit der Wissenschaft an. Wenn jemand besonders große Anreize hat, den Bürger mit Schauergeschichten über die Zukunft unserer Erde das Fürchten zu lehren, dann sind es Politiker und ihre wissenschaftlichen Claqueure.

Steffen Hentrich

Referent

Friedrich Naumann Stiftung Für die Freiheit

Ansprechpartner für Grundsatzfragen und Menschenrechte sowie Umwelt-, Energie- und Verbraucherschutzpolitik.

Kontakt:
Tel.: 0331/7019-129
Fax: 0331/7019- 55 129
e-mail: steffen.hentrich@freiheit.org

Steffen Hentrich (Jahrgang 1968) hat Volkswirtschaftslehre an der Technischen Universität Berlin studiert und war danach mehrere Jahre als wissenschaftlicher Mitarbeiter im Institut für Wirtschaftsforschung Halle (IWH) und später als wissenschaftlicher Mitarbeiter beim Sachverständigenrat für Umweltfragen (SRU) tätig. Schwerpunkte der Forschungsarbeit und umweltpolitischen Beratung waren die Umwelt- und Ressourcenökonomik sowie Themen der Umwelt- und Energiepolitik, vom Klimaschutz über umweltverträgliche Verkehrspolitik bis hin zur nachhaltigen Fischereipolitik.
Seit Dezember 2008 ist er Referent für Grundsatzfragen im Liberalen Institut. Neben den allgemeinen Fragen liberaler Grundsätze und Menschenrechte, werden auch die Probleme des Umweltschutzes und der Nachhaltigkeit aus liberaler Perspektive analysiert.




Stoßt einen Pfahl ins Herz des IPCC

Update 20.2.11 : Offensichtlich wird in den USA der Anfang zur Stilllegung des IPCC gemacht. Dr. Roy Spencer IPCC Kritiker schreibt zum soeben erfolgten Beschluss den US Anteil der IPCC Mittel zu sperren

On the House Vote to Defund the IPCC

Politiker bildeten das IPCC vor über 20 Jahren mit einem Endziel vor Augen: die CO2-Emissionen zu regulieren. Ich weiß das, weil ich Zeuge einiger der hinter den Kulissen erfolgten Planung war. Es ist keine wissenschaftliche Organisation. Es wurde organisiert, um staatlich finanzierte Einrichtungen der wissenschaftlichen Forschung zu verwenden, um damit politische Ziele zu erreichen. 

Den ganzen Text finden Sie hier weitere Details zu diesem Beschluss hier Ende Update.

Hier auf der WUWT [Wattsupwiththat] Site hat Ron Cram einen interessanten Überblick verschiedener Ideen über wünschenswerte Änderungen beim Uno-Weltklimarat (UN IPCC) vorgestellt. Er schlägt vor dass das IPCC einen Überblick über die Mehrheits- und die Minderheitsmeinung erstellt, anstatt nur einen einzelnen Zustandsbericht zu verfassen.

Ich möchte hier einen vollkommen anderen Vorschlag machen. Manche Leute möchten dass der Weltklimarat aufgelöst wird. Ich gehöre nicht zu denen.

Ich halte ein Auflösen des IPCC für eine schlechte Idee. Stattdessen denke ich wir sollten das IPCC des Mitternachts zu einer Kreuzung bringen, einen Pfahl aus Espenholz durch sein Herz schlagen, seinen Kopf mit Knoblauch vollstopfen und die Überreste in alle Winde verstreuen, damit diese durch das Sonnenlicht geläutert werden und niemals wieder auferstehen können.

Ich möchte Ihnen eine Auflistung meiner Gründe (in beliebiger Reihenfolge) nennen, warum ich ein solches Vorgehen für wünschenswert halte.

  • * Das IPCC hat bislang wenig brauchbares zutage gefördert. Die bisherigen Zustandsberichte waren deutlich politisch eingefärbt, stark verzerrt und durchsetzt mit drittklassiger Wissenschaft, und schlimmer noch mit ängstlichen Vorhersagen von Nichtregierungsorganisationen, die als Wissenschaft getarnt wurden.
  • * Kein anderer Bereich der Wissenschaft will, braucht oder hat irgend etwas dem IPCC vergleichbares – was dagegen spricht dass es sich hierbei um ein brauchbares Konstrukt handelt. Noch würde die meisten Bereiche der Wissenschaft einen solchen Unsinn tolerieren, dass eine Haufen Regierungs-Bürokraten deren stand der Wissenschaft zusammenfasst.
  • * Anstatt uns Ergebnisse mit einem bestimmten Grad an Gewissheit oder Übereinstimmung zu liefern, war das IPCC eine Quelle endloser Meinungsverschiedenheiten, Streitereien und Grabenkämpfe. Es ist ein Kraft die Zwietracht und Spaltung schafft, nicht wissenschaftlichen Fortschritt oder Harmonie. Und der Bruch ist größer geworden, nicht kleiner.
  • * Dr. Pachauri hat wiederholt unter Beweis gestellt dass er sein Amt als das eines Alleinherrschers sieht, immun gegen Widerspruch oder abweichende Meinungen. Und dieser Standpunkt hat die gesamte Organisation durchsetzt.
  • * Die “Zusammenfassung für politische Entscheidungsträger” entsteht unter starker politischer Einflussnahme. Politiker an einer wissenschaftlichen Zusammenfassung mitwirken zu lassen, die für Politiker gedacht ist… Keine sehr gute Idee.
  • * Eine Zahl von hinterhältigen, unethischen und im allgemeinen schmutzigen Dingen wurden unter dem Schirm des IPCC unternommen. Das Ergebnis ist, dass große Teile der Bevölkerung mittlerweile automatisch eine Gegenhaltung zum IPCC einnehmen… und das oft aus guten Gründen.
  • * Die Leute trauen dem IPCC nicht mehr. Wir haben wenig Zutrauen in die beteiligten Personen, die Wissenschaft, das System oder die sogenannten Überwacher. Man hat uns von Seiten des IPCC systematisch belogen. Wie jemand denken kann dass das IPCC nach allem was passiert ist noch relevant für die öffentliche Meinung sein kann, übersteigt mein Verständnis. Abraham Lincoln wusste es besser. In einer Rede im Jahr 1854 sagte er:.
    Wenn man erst einmal das Vertrauen seiner geschätzten Mitbürger eingebüßt hat, kann man niemals deren Respekt und Achtung zurückgewinnen.
  • * Schmutzige Kämpfe in der Vergangenheit haben bereits dazu geführt, dass einige exzellente Wissenschaftler ihre Teilnahme am IPCC-Prozess aufgekündigt haben.
  • * Die Teilnehmer werden von den Politikern der beteiligten Länder ausgewählt. Wohl kaum eine wissenschaftliche Methode für irgendwas.
  • * Das große Ravetz’sche Experiment ist fehlgeschlagen. Jerome Ravetz ist einer der Gründer und Hausierer der “Post-Normalen Wissenschaft”. Er empfahl sämtliche Beteiligte wie etwa Politiker, Planer oder  Sozialwissenschaftler am Prozess der Wissenschaft zu beteiligen, ganz genau wie es beim IPCC geschehen ist. Und er glaubt dass wir in Zeiten wie diesen eine “Post-Normale Wissenschaft” benötigen. (Nach bester Orwellscher Art des “Doppelsprech” handelt es sich hierbei trotz des Namens gerade nicht um Wissenschaft.) Post-Normale Wissenschaft dass man den Begriff Wahrheit durch “Qualität” ersetzt. Das IPCC verkörpert geradezu Ravetz’ Vision von “Qualität” und Teilhabe, denn dies ist genau das was das IPCC vorgibt zu tun – die Beurteilung der Qualität aus der Sicht sämtlicher Interessengruppen der verschiedenen Aspekte der Klimaforschung.

Ich will damit nicht sagen Jerome Ravetz hätte dies in irgendeiner Form so geplant, soweit ich es beurteilen kann hat er es nicht. Aber das IPCC stellte ziemlich unbeabsichtigt, aus welchen Gründen auch immer, ein großes Experiment in Post-Normaler Wissenschaft dar.

Dieses Experiment ist gescheitert. Und nicht einfach nur gescheitert, es ist zusammengebrochen und verbrannt, mit spektakulärer Pyrotechnik und herausragenden Sound-Effekten. Und zusätzlich zu nicht enden wollenden Disputen brachte es uns eine auf amüsante Weise anbiedernde Selbst-Erhöhung von drittklassigen Wissenschaftlern wie etwa Michael Mann.

Der Versuch eine Art von “Qualitäts”-Sicherung in die Klimaforschung einzuführen hat nicht zu einer größeren Einigkeit darin geführt, wo wir stehen oder was zu tun ist. Stattdessen hat das IPCC und der Prozess der Post-Normalen Wissenschaft zu Grabenkämpfen geführt, und dazu dass Autoren von Kapiteln die “Qualität” und “Robustheit” ihrer eigenen Verfahren hochjubeln, und dazu das Fragen und Anmerkungen von Gutachtern routinemäßig ignoriert und übergangen wurden, und dazu dass einzelne die Regeln des Systems bestimmen, und zu allem Möglichen nur nicht dazu, was das IPCC als Ziel haben sollte – nämlich zu einer Art gemeinsamer Verständigung in den wichtigsten Punkten.

Und das sind die Gründe warum wir ihm einen Pfahl durchs Herz treiben müssen. Es wurde auf einem falschen Grund-Annahmen errichtet. Eine war die Annahme, dass wir überhaupt so etwas wie das IPCC brauchen. Kein anderer Bereich der Wissenschaft hat etwas ähnliches…. mit Ausnahme der jüngsten Versuches von UN Bürokraten, mehr Macht an sich zu reißen, dem neuen “Welt-Biosphären-Rat” [“IPCC for the biosphere”]. (OK, für diejenigen die nicht wissen was dabei herauskommt: Plünder-Alarm! [Spoiler-alert] Das Ergebnis wir ein weiteres Milliardengrab sein.)

Eine weitere äußerst wichtige falsche Annahme war die auf charmante Weise naive Vorstellung, dass die leitenden Autoren ihre eigenen Arbeiten objektiv genauso beurteilen würden wie die Arbeiten von anderen…. BWAHAHAHA. Nur ein abgehalfterter Marxist wie Ravetz oder jemand seiner Art wäre närrisch genug anzunehmen, dass das gut ausgehen kann. Ich habe den starken Verdacht dass Ravetz tatsächlich an das Gute im Menschen glaubt.

Schauen Sie mal, das Grundgesetz der Vereinigten Staaten funktioniert deshalb, weil keiner der Gründungsväter dem anderen auch nur einen Millimeter weit getraut hätte. Sie haben nicht an das Gute im Menschen geglaubt,  Sie haben zu viele Könige und Tyrannen erlebt um solchem Unsinn aufzusitzen. Aus diesem Grund herrscht in den USA eine Gewaltenteilung, damit keine der drei Gewalten zu mächtig werden konnte. Die Gründungsväter haben den Menschen keinen Deut getraut.

Warum haben sie niemandem getraut? Weil sie Realisten waren und wussten, dass jeder der die Möglichkeit dazu erhält nach der macht greifen und diese für seine eigenen Interessen missbrauchen würde; gegen die Interessen der Allgemeinheit.

Wie, zum Beispiel, was Michale Mann tat als er zum Hauptautor eines IPCC Kapitels ernannt wurde. Weil die Leute die das IPCC erschaffen haben an Elfen, den menschengemachten Klimawandel, Einhörner und die Güte des Menschen geglaubt haben, gab es für Michel Mann keinerlei Hemmnisse bei seinen Überschreitungen wissenschaftlicher Grundregeln. Völlig unbehelligt konnte er seinen Hockeyschläger-Müll anpreisen, als würde es sich dabei tatsächlich um Wissenschaft handeln.

Das sind die Gründe weshalb ich sage tötet das IPCC, toter als tot, und verstreut die Überreste in alle Winde. Es ist von Grunde an auf falschen Annahmen aufgebaut, wie dem grundsätzlich Guten im Menschen oder den Segnungen einer politischen Einflussnahme. Schon dadurch wurde das Scheitern begründet, selbst wenn die Motive gute gewesen wären.

Sollte es jedoch tatsächlich so sein, dass wir wegen unserer Sündhaftigkeit so etwas wie das IPCC brauchen würden, müsste es zumindest so aufgebaut sein, dass keine Fraktion kontrollieren kann, was am Ende herauskommen soll. Wir bräuchten hierfür eine spezielle IPCC-Charta, wie etwa in der US-Verfassung, um Menschen davon abzuhalten zu tun, was sie wie wir wissen ansonsten mit Freude tun würden. Wenn wir also ein IPCC brauchen, dann brauchen wir auch eine Charta die von der Grundannahme ausgeht dass , sobald sich die geringste Möglichkeit dazu ergibt.

Sollten wir das IPCC nicht zu Grabe tragen ist auf jeden Fall sichergestellt, dass der fünfte IPCC-Zustandsbericht uns neben dem überreichlich vorhandenen Fehlen von Nutzen noch weitere

Lügen, Betrügereien und korrumpierte Wissenschaft

bescheren wird. Was schließe ich daraus? Wenn man den beachtlichen Schaden betrachtet, den die ersten vier Angriffe angerichtet haben, bin ich nicht sicher, dass die Klimaforschung stark genug ist, den bevorstehenden Angriff durch den fünften IPCC Sachstandsbericht zu überstehen. Tötet das unreine Monster jetzt, solange noch die Chance besteht die Wissenschaft zu retten.

Willis Eschenbach bei WUWT hier, Übersetzt von Rudolf Kipp zuerst gepostet bei Science Sceptical 

ÄHNLICHE BEITRÄGE (AUTOMATISCH GENERIERT):




Klimaforscher Eric Steig von RealClimate beerdigt den Peer-Review Prozess endgültig

Wenn Sie nicht merken, was faul mit dieser E-Mail ist, dann machen Sie sich keine Gedanken, Sie sind in guter Gesellschaft. Unter den vielen Koryphäen, die hier nichts merken, befindet sich der Umwelt-Aktivist und Filmemacher Rupert Murray, der Mathematiker-Promi Simon Singh, der berühmte Nobelpreisträger Sir Paul Nurse und der gefeierte Guardian Doktor Ben Goldacre, um nur vier zu nennen. Jedem von ihnen habe ich zu erklären versucht, warum die Korrumpierung der Fachbegutachtung der Punkt ist, auf den es vor allem anderen bei den Klimagate E-Mails ankommt. Leider wollte keiner verstehen.

Ist das nicht zum Verzweifeln?

Ich muss noch eins draufsetzen. In meinem demächst erscheinenden Buch “Watermelons” erkläre ich die “Fachbegutachtung” (Peer review) wie folgt:

Die Fachbegutachtung ist die Probe, welcher der größte Teil der Forschung sich unterziehen und in welcher er bestehen muss  Wenn Forschungsergebnisse von der Wissenschaft ernstgenommen werden sollen, dann müssen sie zur Veröffentlichung in einer recht kleinen Anzahl von akademischen oder quasi-akademischen Journalen angenommen werden, z. B. von Nature, Science, Scientific American.

Die Fachbegutachtung ist kein fehlerloses System. In der Blütezeit der Wissenschaft im 20. Jh. wurde sie noch nicht einmal für notwendig gehalten: weder Watson & Crick noch Einstein ließen sich „fachbegutachten“. In der heutigen undurchsichtigen, zerfledderten Welt aber, wo viele wissenschaftliche Fächer immer unverständlicher und spezialisierter geworden sind, gilt die Fachbegutachtung als die Methode mit den wenigsten Fehlern zur Trennung echter Wissenschaft von Pseudowissenschaft.

Das gilt ganz besonders in der Gemeinde der Klimatologen. Im Vorfeld von Klimagate war eine der Hauptwaffen der Jünger des  “Konsensus” gegen abweichende Wissenschaftler, dass deren zahlreiche Papiere, die Löcher in die AGW-Therie rissen, nicht “fachbegutachtet” und deshalb falsch wären. Wie Phil Jones selbst in einer seiner E-Mails sagte:

“Die Fachbegutachtung ist das eigene System der Wissenschaft zu ihrem Schutz und zur Verhinderung, dass Pseudowissenschaft veröffentlicht wird.”

Das ist doch ganz klar, nicht wahr? Also schauen wir uns mal den Jones/Mann-Gedankenaustausch vor dem Hintergrund dieses Wissens an. Was wir dabei feststellen ist der Niedergang der „Fachbegutachtung“ in etwas, was mehr einer „Kumpelbegutachtung“ ähnelt. Der “Fachbegutachtungs“-prozess wurde korrumpiert – zumindest im heruntergekommenen Fach Klimatologie. Man kann sich nicht mehr darauf verlassen, dass er die Richtung weist zum Wahren oder zum Falschen, zum Richtigen oder zum Unrichtigen, zum Korrekten oder zum Unkorrekten, zum Plausiblen oder zum Nicht-Plausiblen. Und das alles, weil die an den Hebeln des Fachbegutachtungsverfahrens sitzenden Wissenschaftler einen Selbstbedienungsladen betreiben – das haben die Klimagate E-Mails enthüllt –  Wissenschaftler, die mehr an ihren eigenen privaten Interessen interessiert sind als an der objektiven Wahrheit.

Soweit einverstanden? In Ordnung. Dann können wir uns ja einer unglaublich komplizierten Geschichte zuwenden, die derzeit mächtig für Aufregung sorgt bei Watts Up With That?, Climate Audit und Bishop Hill. Einige meinen, dass diese Geschichte genauso viel Schaden für die Klimatologie anrichtet, wie es Klimagate für den „Konsens“ getan hat. Es geht um zwei Leute, deren Namen Sie vermutlich nie gehört haben – Eric Steig und Ryan O’Donnell. (Details dazu hier) 

Eric Steig gehört zu Michael Manns “Hockey Team” – der Gruppe von Wärme-Aposteln, die eine Webseite namens Real Climate betreiben, die ursprünglich gegen McIntyre and McKitrick gerichtet war und deren Behauptung, dass etwas mit Manns Hockey Stick nicht in Ordnung war. Nun dient Real Climate generell der Aufrechterhaltung der Behauptung von der Klimaerwärmung.

Im Jahre 2009 veröffentlichten Steig et al. ein Papier, das für so wichtig gehalten wurde, dass es in Nature zu einer Titelgeschichte wurde. Das Papier wollte eines der Hauptargumente der Skeptiker gegen die globale Erwärmung widerlegen. Dieses lautet: “Wenn der Klimawandel wirklich so katastrophal und universell ist, wie behauptet wird, warum bleibt es dann auf Antarktika seit 30 Jahren fortwährend kalt?“ Steigs Papier bewies das Gegenteil: auch Antarktika erwärme sich.

Oder doch nicht? Unter den Skeptikern, die die Verläßlichkeit von Steigs Papier anzweifelten, war Jeff Id (von der später untergegangenen Air Vent Webseite) und Ryan O’Donnell. Sie zeigten, dass die zum Beweis der Erwärmung benutzten statistischen Methoden auf höchst zweifelhaften Extrapolationen von Datenreihen beruhten, die von einer kleinen Anzahl von Stationen auf der Antarktischen Landzunge und der Küste stammten. (So etwas Ähnliches hat sich auch kürzlich ereignet, als die NASA dramatische “Erwärmung” in der Arktis meldete – und das lustigerweise dort, wo es keine Thermometer gab, um die Verläßlichkeit der NASA-Behauptungen zu überprüfen.)

Steig schlug anstelle einer Diskussion auf der Webseite von O’Donnell vor, Id et al. sollten doch ein fachbegutachtetes Papier veröffentlichen. Das wurde dann auch tatsächlich versucht. Dreimal dürfen Sie raten, wer für die Fachbegutachtung des Papiers von O’Donnell et al. ausgewählt wurde. Raten Sie, wer sich unter dem Pseudonym Reviewer A verbarg – und wer mit 88 Seiten Bemerkungen und Vernebelungen (mehr als das Papier umfaßte) – verhindern wollte, dass das Papier zur Veröffentlichung kam.

Ja. Sie haben’s erraten. Der geheimnisvolle Fachbegutachter war niemand anders als Eric Steig selbst. Das war sogar in der monströs korrupten Welt der “Klimatologie” ganz klar ein Regelverstoß. In keiner anderen wissenschaftlichen Disziplin würde ein Gutachter mit einem derart offensichtlichen Interessenkonflikt zur Revision eines Papiers aufgefordert werden, dessen Hauptzweck die Kritik an einem seiner eigenen Papiere ist.

Lassen wir nun einen gewissen Iapogus zu Wort kommen (ein Kommentator bei Bishop Hill, von dem ich diese Zusammenfassung abgekupfert habe):

Ryan [O’Donnell] vermutete von Anfang an, dass Steig selbst der Reviewer A war. Aber er hielt still. An einer Stelle im Begutachungsprozess schlug Steig vor, dass Ryan und Jeff [Id] eine andere statistische Technik anwenden sollten, was sie auch taten. Doch dann kritisierte Steig das Papier, indem er als Beispiel genau diese statistische Technik anprangerte (die er selbst vorgeschlagen hatte). Steig setzte sich somit selbst dem Vorwurf unprofessionellen Verhaltens aus, ein falsches Spiel betrieben zu haben. Das war’s, was Ryan dazu brachte, alles an die Öffentlichkeit zu bringen. Zwischenzeitlich zogen Gavin und die anderen Teammitglieder auf dem Real Climate (RC) Blog alle Register und unterdrückten jeglichen Kommentar, der auch nur irgendeine Frage zu diesen Vorgängen stellte. Das war nun der gründliche Beweis, dass die Fachbegutachtung in der KLimatologie kaputt ist.

Sie könnten jetzt sagen, dass ich derartige Geschichten nicht schreiben sollte. Das wären doch Haarspaltereien, die in der Klimatologen-Gemeinde (bestehend aus Warmisten und Skeptikern) ungeheuer wichtig sein mögen, in der wirklichen Welt aber kaum jemanden interessierten.

Bis zu einem gewissen Grade gebe ich Ihnen Recht. Die Klimawandeldiskussion – wie ich immer wieder in diesem Blog sage – ist im Wesentlichen eine politische und keine wissenschaftliche.
Unglücklicherweise gibt es in der wirklichen Welt viele Menschen – die Simon Singhs, die Sir Paul Nurses, die Ben Goldacres, die Robin Inces und ihre wachsame Twitter-Meute, die das anders sehen.

Es ist wichtig, diese Menschen zur Einsicht zu bringen, dass es nicht nur keine vernünftigen politischen oder wirtschaftlichen Gründe für ihre Ansichten gibt, sondern dass es auch mit den wenigen wissenschaftlichen Gründen ein Ende hat. Wenn die wissenschaftliche Erkenntnis zur Aufrechterhaltung der AGW-Theorie wirklich so steinhart ist, wie die Warmisten behaupten, warum, zum Teufel, brauchen sie dann diese Art von Korrumpierung und schmutzigen Tricks, die wir seit Klimagate kennen und die wir nun wieder bei RealClimategate feststellen müssen?

Gebt doch endlich auf, Leute, das Spiel ist aus.

PS: Noch was. Unzweifelhaft das Beste, was je dem gewissermaßen zweifelhaften und zweitrangigen Fach der Klimatologie passieren konnte, ist die Watts Up With That? Webseite. Unter ihren vielen Verdiensten ist das Aufzeigen eines Rettungsweges aus dem Disaster mit der Fachbegutachtung (peer review) nicht das kleinste. Die Zukunft gehört der kollegialen Begutachtung (“peer to peer” review), wie sie bei WUWT beispielhaft stattfindet. Dort ist ein Forum für Experten aus allen wissenschaftlichen Disziplinen entstanden, um viele Aspekte der Klimatologie rigoros zu begutachten und ohne die groteske Voreingenommenheit, die wir so häufig bei den Vertretern des „Konsens“ im IPCC bemerken konnten. Zu Recht ist WUWT zur Prämierung bei Best Science Blog in the 2011 Bloggies Awards eingereicht worden. Bitte unterstützen Sie die Wahl, geben Sie ihre Stimme frühzeitig ab, auch mehrfach!

James Delingpole Politics am 8. 2. 2011 Den Originalartikel finden Sie hier

Übersetzt von  Helmut Jäger EIKE

Anmerkung der Redaktion:

Einige der Kommentatoren erregen sich über die Aussage von James Dellingpole dass Steig´s "Review" 88 Seiten umfasste, dies aber nicht wahr wäre. Es wären nur so um die zwanzig gewesen. Interessanterweise sind dies dieselben Leute, die, in der Hoffnung jeweils vom eigentlichen Skandal ablenken zu können,  alles und  jedes Statement hier 2 x umdrehen, um einen Komma oder Rechenfehler zu finden, um sich dann aufzublasend sagend :"Seht her, das stimmt alles nicht!" Das ist best bekannte Praxis von politisierten Leuten denen es allein um Störung und Ablenkung geht.

Der eigentliche Skandal um den es hier geht ist aber: Dass Eric Steig von Nature zum anonymen Reviewer gemacht wurde. Und dass er diese Aufgabe übernahm. Weitere Infos dazu hier

Weiterführender Link: http://wattsupwiththat.com/2011/02/17/the-spectator-on-the-antarctic-ice-capades/

Auch der andere Versuch eines Kommentators diesen schweren Verstoß gegen gute wissenschaftliche Praxis zu entschuldigen, indem man die Einladung McIntyres als Peer Reviewer  zu Amman & Wahls Arbeit zur Verteidigung des Hockeysticks im Journal "Climate Change" mit der Berufung Steigs gleichsetzt, geht ins Leere, weil Amman & Wahl zwar in diesem Aufsatz McIntyre (und McKitrick) kritisierten, aber eben nicht über McIntyres Arbeit schrieben, sondern den fehlgeschlagenen Versuch unternahmen, die Hockeystick Methodik von Mann zu verteidigen. 

(s. The Hockey Stick Illusion von A.W. Montford S 205).




In Grönland ist alles in Ordnung

Ein Eisschild ist dynamisch ausgeglichen. Schnee fällt auf das Eis, und mit dem stetigen Anwachsen verwandelt sich der Schnee in noch mehr Eis. Die große Masse des Eises, tausende Fuß dick, fließt wie Plastik in Richtung Ozean mit einer in Fuß pro Jahr gemessenen Geschwindigkeit. Einiges von dem Eis schmilzt und sorgt so für einen Wassereintrag in die Ozeane. Den Rest des Eisverlustes ergibt sich aus dem Abbrechen von Eisbergen. Steigende Temperaturen sorgen für eine höhere Fließgeschwindigkeit und größere Schmelzrate, aber höhere Temperaturen führen auch zu stärkeren Schneefällen. Eine Erwärmung sorgt für zunehmenden Schneefall, solange es nicht zu warm wird.

Seit dem Start von GRACE 2002 wurde in einer Reihe wissenschaftlicher Studien (ii) der Eisverlust des grönländischen Eisschildes abgeschätzt. Tatsächlich verliert der Eisschild Eis, aber falls sich dieser Verlust bis zum Jahre 2100 in gleicher Weise fortsetzt, reicht das gerade für einen Anstieg um 1 inch [~2,5 cm] – und nicht einmal entfernt für einen solchen von drei bis vier Fuß. Außerdem gibt es keinen Grund anzunehmen, dass sich die gegenwärtige Rate des Eisverlustes so fortsetzt. Diese Rate ändert sich stark von Jahr zu Jahr, und bisher verfügen wir lediglich über wenige Jahre von Messungen.

Es gibt andere potentielle Quellen für einen Anstieg des Meeresspiegels – thermische Ausdehnung der Ozeane und das Schmelzen der Gebirgsgletscher – aber um drei bis vier Fuß zu erreichen, braucht man den Eisschild von Grönland. Als Beleg für die Vorhersage eines Anstiegs um drei bis vier Fuß zieht die Regierung drei Studien heran (iii), die alle sehr spekulativ sind und nicht direkt auf das Thema eingehen. All diese Studien stammen von Science. Von Science weiß man, dass es ein starker Befürworter der anthropogenen globalen Erwärmung ist.

Es gibt einen Zweig in der Wissenschaft, den künftigen Eisverlust zuverlässig abzuschätzen. Die Vorhersagen sind spekulativ, weil die benutzten Methoden nicht perfekt sind und weil die Entwicklung des Klimas in der Zukunft selbst spekulativ ist. Gewöhnlich wird diesen Prognosen die Abschätzung des IPCC bzgl. der künftigen Klimaentwicklung zugrunde gelegt. Diese Prognosen des IPCC sind jedoch selbst hoch spekulativ und durch politische Überlegungen beeinflusst.

Dieser Zweig der Wissenschaft nutzt aufwändige Computermodelle des Eisschildes. 1995 schätzte die EPA [Environmental Protection Agency, die us-amerikanische Umweltschutzbehörde], dass der Meeresspiegel bis zum Jahre 2100 um dreizehn inches [~33 cm] einem Modell zufolge steigen soll (iv). Die Modelle analysieren Temperatur, Eisbewegung und Schneefall, um die Entwicklung eines Eisschildes mit der Zeit zu verfolgen. Das Modell kann mit Vergleichen der geologischen Vergangenheit geeicht werden, und zwar in Zusammenhang mit den Eiszeiten, die kommen und gehen.

Die europäischen Wissenschaftler Philippe Huybrechts und Jan DeWolde nutzten in einer Studie aus dem Jahr 1999 (v) aufwändige Modelle der Eisschilde, um den Anstieg des Meeresspiegels durch massives Abschmelzen unter drei Szenarien der globalen Erwärmung abzuschätzen. Mit dem mittleren Szenario wurde der Anstieg durch das Schmelzen des Eisschildes bis zum Jahr 2100 mit 10,5 cm geschätzt. Allerdings ergaben die gleichen Modelle, dass die Eisschilde in der Antarktis wachsen und nicht schrumpfen würden. Dies würde den Anstieg des globalen Meeresspiegels auf 7,5 cm begrenzen (vi). Dazu wäre aber ein zusätzlicher Beitrag durch thermische Expansion (vii) des Ozeans und das Abschmelzen kleinerer Gebirgsgletscher außerhalb der polaren Eiskappen notwendig. Es ist schwierig zu sagen, wie groß dieser Beitrag wäre – vielleicht vier inches (~10 cm) oder sogar zehn inches (~25 cm), woraus ein Gesamtanstieg von sieben bis dreizehn inches (~18 bis 33 cm) resultieren würde, verglichen mit der Annahme der Regierung von drei oder vier Fuß (~90 bis 120 cm). Man beachte, dass all diese Vorhersagen auf spekulativen Vorhersagen der globalen Erwärmung beruhen.

Dem Tidenhub zufolge ist der Meeresspiegel während der letzten hundert Jahre um etwa sieben inches (~18 cm) gestiegen (viii). In seinem Buch Eine unbequeme Wahrheit hat Al Gore Karten mit Überflutungen von Küstengebieten veröffentlicht, denen ein Anstieg um 18 Fuß (~5,49 m) zugrunde lag.

Eine erheiternde spekulative Frage lautet: Wie schlimm würde es werden, wenn der Meeresspiegel um drei Fuß (~91 cm) oder sogar um sechs oder zwölf Fuß (~1,83 bzw. 3,66 m) steigen würde? So weit es die USA betrifft, liegt die Grenze, ab der es zu wirklich ernsten Schäden durch den Anstieg des Meeresspiegels kommen würde, bei einem Niveau von 12 Fuß (~1,83 m), bei dem die südlichen 50 Meilen (~80 km) von Florida gefährdet wären. Aber für einen solchen Anstieg bräuchte es ein viel wärmeres Klima für vielleicht 500 Jahre. Ist es von Bedeutung, ob Südflorida in 500 Jahren überflutet wäre? Hat sich Kolumbus 1492 Sorgen um einen Atomkrieg gemacht? Nein – es handelt sich um eine reine Übung in Science Fiction, sich Sorgen darüber zu machen, was in 500 Jahren passieren könnte.

Es gibt eine mathematische Annäherung, die Wirtschaftsexperten benutzen, um zu beurteilen, wie viel Geld man jetzt ausgeben muss, um uns vor Schäden in der Zukunft zu bewahren. Sie basiert auf der Idee eines Diskontsatzes. Zum Beispiel, wie viel muss ich Ihnen heute zahlen, damit Sie mir ein Haus verkaufen, das in dreißig Jahren $ 100 000 wert ist? Wenn der Diskontsatz, so etwas Ähnliches wie eine Zinsrate, bei 6% liegt, wäre die Antwort $ 15 000 (x). Falls wir versuchen, die Frage zu beantworten: „wie viel sollten wir heute ausgeben, um die Immobilien in Florida mit einem Wert von $ 4 Billionen [trillions] davor zu schützen, in fünfhundert Jahren unterzugehen?“ und einen Diskontsatz von 6% zugrunde legen, wäre die Antwort… 15 cent! (xi). Die Theorie der Ökonomen sagt uns, das wir nicht kontrollieren können, was in fünfhundert Jahren geschieht oder nicht geschieht.

Also können wir uns alle entspannt zurück lehnen und den Meeresspiegelanstieg vergessen. Falls er jemals in diesem Ausmaß erfolgen sollte, liegt er so weit in der Zukunft, dass man sich darüber heute wirklich keine Sorgen machen muss.

 Norman Rogers

zuerst erschienen in American Thinker hier 

Die Übersetzung besorgte C. Frey für EIKE

Der Autor ist ein führender Ratgeber der Politik am Heartland Institute. Er unterhält auch eine Website, www.climateviews.com.

Lieraturliste:

(i) Global Climate Change Impacts in the United States, Thomas R. Karl, Jerry M. Melillo, and Thomas C. Peterson, (eds.). Cambridge University press, 2009, Page 25.

(ii) Zum Beispiel: Grace observes small-scale mass loss in Greenland von B. Wouters et al, Geophysical Research Letters, Oktober 2008.

(iii) Der Bezug zu diesen Studien befindet sich in (1) oben.

(iv) Die Studie der EPA von 1995 The Probability of Sea Level Rise (kann man online finden)

(v) “The Dynamic Response of the Greenland and Antarctic Ice Sheets to Multiple-Century Climatic Warming” von Philippe Huybrechts und Jan DeWolde. Journal of Climate 1999, Band 12, Seite 2169.

(vi) Mit dem höheren Szenario wären es sechs inches (~15 cm).

(vii) Dem IPCc zufolge lag der Anstieg durch die thermische Ausdehnung von 1955 bis 2003 unter zwei inches (~ca. 5 cm). In dieser zeit kam es zu einer nennenswerten Erwärmung (AR 4, S. 415). Man braucht viel mehr Energie, um den Meeresspiegel durch thermische Expansion als durch schmelzendes Eis steigen zu lassen. Nur das Abschmelzen in Grönland oder der Antarktis kann zu einer kritischen Situation führen.

(viii) Interannual and interdecadal oscillation patterns in sea level, Unal. And Ghil, Climate Dynamics, 1995.

(ix) Natürlich gibt es auch andere Gebiete, wie z. B. New Orleans, aber das größte liegt in Südflorida.

(x)=100000*0,94^30 (Excel formula)

(xi)= 4e12*0.94^500

Bemerkung: Die in runden Klammern eingefügten Umrechnungsangaben stammen vom Übersetzer.




Wie in „Nature“ (peer-reviewed) die Temperatur der Antarktis hochgerechnet wird!

Steigs Methode geschlachtet

Ryan O’Donnell hat eine großartige illustrierte Darstellung der Merkwürdigkeiten veröffentlicht, wie Eric Steig die Trends in der Antarktis erzeugt. Wenn Sie bislang diese Geschichte nicht eingehend verfolgt haben, dann gebe ich Ihnen jetzt hier die Version für einen unbedarften Laien. Sie erfordert keinerlei Vorkenntnisse. Ich hoffe, das kommt gut an.

Viel wird über die Antarktische Halbinsel gesprochen. Das sieht man schon auf der linken Seite der unten abgebildeten Karte. Damit ist allerdings nur die schmale Landzunge gemeint. Das etwas dickere Stück, das die Landzunge mit der Hauptmasse des Antarktischen Kontinents verbindet, ist West Antarktika.

Steigs Methode soll angeblich zeigen, dass der gesamte Kontinent sich erwärmt, besonders West Antarktika. Bislang hatte man nur vermutet, dass sich nur die Landzunge erwärmen würde.

Hier ist Steigs Originalergebnis mit der Erwärmung als dunklere Tönung in West Antarktika.

Nun hat O’Donnell gezeigt, was passiert, wenn man künstlich erwärmende oder abkühlende Trends in einige Wetterstationen eingibt, die im Datenbestand geführt werden. Zuerst kann man sehen, was passiert, wenn man den Stationen auf der Landzunge ein wenig Erwärmung zufügt. Wenn man von links nach rechts in der Karte unten geht, wird immer mehr Erwärmung zugefügt, aber nur auf den Stationen der Landzunge. Steig vermanscht das in seinem Algorithmus so, dass die Erwärmung in West Antarktika zum Vorschein kommt, nicht auf der Landzunge.

 

Und was passiert nun, wenn man einige der Stationen auf der Landzunge abkühlt? Wie man sieht, wird der Südpol kälter und – man staune – West Antarktika wird wärmer…

Und jetzt sehen sie mal, was passiert, wenn man Wärme den Stationen hinzufügt, die wirklich auf West Antarktika liegen. Wenig …

Und was, wenn sie heruntergekühlt werden? Da passiert auch nichts.

 

Also, was Steig mit seiner Methode macht, ist, dass jegliche Erwärmung auf der Landzunge über ganz West Antarktika verteilt wird. Anders gesagt, Steigs Ergebnis wird von seiner Methode erzeugt, es ergibt sich nicht aus seinen Daten.

Spiel, Satz und Sieg!

Bishop Hill; den Originalartikel finden Sie hier

Die Übersetzung besorgte Helmut Jäger EIKE

*Steig, E.J., D.P. Schneider, S.D. Rutherford, M.E. Mann, J.C. Comiso, and D.T. Shindell, 2009: Warming of the Antarctic ice-sheet surface since the 1957 International Geophysical Year. Nature457, 459-462, doi:10.1038/nature07669.




Energiepolitik: Der kommende Bürgerkrieg um „Erneuerbare“: Schiefergas revolutionioniert die Energieversorgung

Helen Chivers vom britischen Met Office musste zugeben, dass die in den letzten Jahren immer öfter von Norden her über die britischen Inseln ziehenden Kältehochs meist zu Windstille über der ganzen Insel führen. Das Jahr 2010 brachte den britischen Inseln weniger Wind als alle Jahre seit dem Beginn der offiziellen Aufzeichnungen im Jahre 1824. Die Ursache dafür sehen Meteorologen in der Umkehrung des Index-Vorzeichens der so genannten Nordatlantischen Oszillation (NAO). Ist dieser Index positiv, liegen über Island im statistischen Mittel meistens Tiefdruckgebiete und über den Azoren Hochs. Im vergangenen Jahr war der Index aber so stark negativ wie noch niemals zuvor seit dem Beginn der offiziellen Wetteraufzeichnungen. Aus dem statistischen Konstrukt „Island-Tief“ ist ein Island-Hoch geworden. Es springt ins Auge, dass diese Vorzeichen-Umkehrung zeitlich zusammenfällt mit einem Minimum der Sonnenflecken-Aktivität. Von daher ist ansehbar, dass die Winter in nördlichen Breiten in den kommenden Jahren noch kälter und windärmer werden. Mehr Wind ist hingegen am Mittelmeer zu erwarten.

Gerade wenn der Energiebedarf am höchsten ist, können die Windfarmen an oder in der Nordsee also kaum Strom liefern. Daher erscheint es umso bedenklicher, dass sich die konservativ-liberale Regierung unter David Cameron, EU-Vorgaben folgend, verpflichtet hat, bis zum Jahre 2020 30 Prozent der Elektrizität aus „erneuerbaren“ Energiequellen zu erzeugen. Um das zu erreichen, müsste die Zahl der Windräder verdoppelt werden. Gleichzeitig müssten Kohle- Öl- und Gaskraftwerke für windstille Zeiten bereitstehen. Doch Kohle- und Ölkraftwerke sollte es bis dahin nach dem Willen der EU-Kommission eigentlich gar keine mehr geben. Auf jeden Fall würden sich die Energiekosten der Privathaushalte bis 2020 verdoppeln. Jeder Haushalt müsste dann jedes Jahr im Schnitt 2.400 Pfund (2.890 Euro) für Heizung und Beleuchtung ausgeben.

In Deutschland stellt sich Lage noch dramatischer dar. Der an der Fachhochschule Aachen lehrende Prof. Dr. Ing. Helmut Alt,  der früher für den Stromkonzern RWE tätig war, hat die Leistungsganglinien aller in Deutschland installierten Windkraftanlagen (WKA) von 2006 bis 2010 ausgewertet und festgestellt, dass diese statt der Nennleistung von inzwischen etwa 26.500 Megawatt öfters stunden- oder tagelang Leistungen nahe Null in das Stromnetz einspeisten. Für diese windstillen Tage mussten also Reservekapazitäten in Höhe der Gesamtkapazität aller Windkraftanlagen vorgehalten werden. In der Praxis bedeutet das, dass alte Kohlekraftwerke auf völlig unwirtschaftliche Weise am Köcheln gehalten werden müssen, um sie bei Bedarf rasch hochfahren zu können.

Am teuersten kamen die Stromverbraucher jedoch windreiche Feiertage, an denen die WKA ihre volle Leistung lieferten, aber kaum Stromabnehmer vorhanden waren. So am 3. und 4. Oktober 2009, als die deutsche Industrie wegen des Nationalfeiertags auf Sparflamme arbeitete. An diesen Tagen mussten die Stromanbieter an der Leipziger Energy Exchange EEX bis zu 1.500 Euro je Megawattstunde zuzahlen, um für den überschüssigen Windstrom überhaupt Abnehmer zu finden. Ähnlich, aber nicht ganz so schlimm, war die Situation an den beiden Weihnachtsfeiertagen des gleichen Jahres. Die Erzeuger von teurem Windstrom erhalten auch in diesem Fall den ihnen zugesicherten Erlös. Denn nach dem Erneuerbare Energien-Gesetz (EEG) hat die Einspeisung von Wind- oder Solarstrom immer Vorrang vor konventionellen Energiequellen. Alle dadurch entstehenden Zusatzkosten werden auf die Endverbraucher abgewälzt. Im Jahre 2009 haben die deutschen Stromverbraucher die „Erneuerbaren“ nach Berechnungen von Prof. Dr. Ing. Helmut Alt bereits mit fast neun Milliarden Euro subventioniert. Für dieses Jahr wird dieser Betrag auf über 14 Milliarden Euro geschätzt. Hier sammelt sich sozialer Sprengstoff an.

Aus Angst vor Verbraucherprotesten hat sich Norbert Röttgen vor kurzem mit der Solar-Lobby immerhin auf eine Kürzung des Einspeisetarifs um 15 Prozent ab Juli 2011 geeinigt. Doch das wird den sich anbahnenden Konflikt mittelfristig noch verschärfen. Denn bei aller künstlich erzeugter Euphorie hinsichtlich der „Erneuerbaren“ hat es die Berliner Regierung in ihrem „Energiekonzept“ vom September 2010 versäumt, etwas über die zukünftige Rolle des umweltfreundlichen Energieträgers Erdgas zu sagen. Doch gerade hier (und nicht bei den „Erneuerbaren“) bahnt sich zurzeit wegen der technisch und wirtschaftlich möglich gewordenen Nutzung „unkonventioneller“ Schiefergas-Lagerstätten eine wirkliche Revolution an. Nach erfolgreichen Probebohrungen von ExxonMobile, Wintershall und BEB in Deutschland und Polen gilt es als sicher, dass hier Erdgasvorräte liegen, die die heimische Versorgung für etliche Jahrzehnte sichern und Erdgas-Importe aus Russland überflüssig machen könnten. Weltweit sollen sich die nutzbaren Erdgasvorräte durch die neue Fördertechnik nach Schätzung texanischer Geologen fast verzehnfachen! Offenbar passte diese Revolution nicht in Angela Merkels "Energiekonzept", weil sie nicht geplant war. So gibt es nun selbst im schwarz-gelben Regierungslager Stimmen, die dafür plädieren, den neu entdeckten Schatz gar nicht erst zu heben. Es ist dennoch absehbar, dass Erdgas in den kommenden Jahrzehnten auf den europäischen Märkten so reichlich und so preisgünstig zu haben sein wird, dass es schwerer wird, den teuren deutschen Alleingang mit „Erneuerbaren“ fortzusetzen. Es dürfte den Regierenden schwerer fallen, ihre Wähler angesichts kälter werdender Winter den Sinn der Förderung unzuverlässiger und obendrein teurer Energien zu vermitteln.

Dabei ist dem zuständigen Bundeswirtschaftsminister Rainer Brüderle ohnehin bewusst, dass die Wette mit den „Erneuerbaren“ nur aufgehen kann, wenn der „grüne“ Strom von den projektierten Windparks in der Nordsee und anderen Erzeugungsorten zu den Verbrauchern in den Ballungsgebieten geleitet werden kann. Dafür sind insgesamt etwa dreieinhalbtausend Kilometer zusätzliche Hochspannungsleitungen nötig. Davon wurden im vergangen Jahr gerade einmal achtzig gebaut. Mit aufwändigen Werbekampagnen will Brüderle den verständlichen Widerstand der Landbevölkerung gegen neue Stromtrassen überwinden. Ob ihm das gelingen wird, steht dahin. Der in den Niederlanden erscheinende Spezialdienst „European Energy Review“ spricht bereits von Anzeichen eines kommenden Energie-Bürgerkrieges in Deutschland.

Auf diesem Hintergrund wird verständlich, warum der EU-Ministerrat am 3. und 4. Februar sich vorrangig mit der Förderung von „low carbon technologies“ sowie mit „societal challenges“ befasst hat. Eine dieser Herausforderungen ist der Ausbau grenzüberschreitender Stromnetze. Dafür will die EU-Kommission über 200 Milliarden Euro locker machen. Über die Ausgestaltung des internationalen Stromnetzes gibt es aber noch keine Einigkeit zwischen den EU-Mitgliedsstaaten. Denn es macht einen großen Unterschied, ob vornehmlich Windstrom von Norden nach Süden oder Solarstrom in umgekehrter Richtung transportiert werden soll. Eigentlich sollte im Ministerrat das Thema "Energieeffizienz" im Vordergrund stehen. Doch dieses Thema wird in der Abschlusserklärung kaum erwähnt. Das "Handelsblatt" meldete allerdings am 9. Februar 2011, die EU-Kommission bereite eine Verordnung über die Entsendung von Energieeffizienz-Inspektoren in die Betriebe vor. Diese Inspektoren sollen der privaten Industrie Beine machen, damit die EU ihr Ziel einer 20-prozentigen Steigerung der Energieeffizienz bis zum Jahre 2020 noch erreichen kann. Das bestärkt die Befürchtung, dass die Klima-Planwirtschaft der EU Eingriffe in private Eigentumsrechte notwendig macht. Beim beschlossenen Ausbau des Stromnetzes werden solche Eingriffe aber wahrscheinlich auf massiven Widerstand stoßen.

Edgar L. Gärtner zuerst erschienen in eigentümlich frei

Literatur:

Wind farms don’t work in the cold

Customers face huge bills for wind farms that don’t work in the cold

Britain is becoming less windy

Prof. Dr. Ing. Helmut Alt: Nettosubventionierung für „Erneuerbare“ 2009 betrug netto 8,7 Mrd. Euro

Schiefergas entwertet teure Pipelines

Germany’s coming civil energy war

European Council 4 February 2011: Conclusions

11. Februar 2011