1

Wie ein fehlendes M die Temperaturen nach oben treibt: Es ist schlimmer als gedacht

In meinem letzten Beitrag haben wir über eine merkwürdige Temperatur-Anomalie ge­sprochen, die Jean S. in den GISS-Daten vom März gefunden und an Climate Audit ge­schickt hatte.

Diese Anomalie über Finnland hat eine interessante Signatur und die vom GISS auf sei­ner Webseite veröffentlichte Korrektur bestätigt, was ich seit einigen Monaten suche.

Die Daten für den Zeitraum zwischen dem 13. und 15.4. beruhten auf Daten, die am 12.4. heruntergeladen worden waren und die einige Stationsmeldungen enthielten, bei denen das negative Vorzeichen verloren gegangen sein könnte.

Ich machte mir einige Arbeit vom vergangenen Dezember bis Januar und weil bei GISS die Bestätigung  "negative Vorzeichen fehlen" aufgestempelt wurde, kann ich jetzt zeigen, dass fehlende negative Vorzeichen kein gelegentliches Ereignis sind, sie fehlen mit Regelmäßigkeit und die Auswirkung ist sehr ausgeprägt, wenn das geschieht. Das zielt ins Herz der Datensammlungs-Integrität und beruht auf einfachem menschlichen Irrtum. Der Fehler liegt nicht beim GISS (obwohl man dort eine neue Qualitätssicherung braucht) sondern meist bei NOAA/NCDC, die die GHCN verwalten und die auch bessere Qualitätssicherung brauchen. Der Fehler entsteht am Flughafen, wahrscheinlich bei jemand, der im Kontrollturm sitzt. Leser, die Piloten sind, werden das verstehen, wenn sie sehen, worüber ich spreche.

Ich habe den Fehler überall in der Welt entdeckt. Lesen Sie bitte weiter, und ha­ben Sie Geduld. Da muss eine Menge von Einzelheiten besprochen werden, um die An­gelegenheit ordentlich zu behandeln. Ich muss ganz von vorne in der Kette der Klimadaten anfangen, da, wo sie entstehen, und mich nach oben arbeiten.

Zuerst eine Erläuterung zur Entstehung des Fehlers und zu den Unterschieden zwi­schen den Boden- und den Satelliten-Messdaten. Ich sollte erwähnen, dass im Satelli­tenbild von der Erdbeobachtung der NASA (NEO) der gleiche Fehler nicht auftaucht, wie in der GISTEMP-Karte oben.

NASA NEO March 1-31 2010 day satellite measured temp anomaly – click for larger image

Warum? Vielleicht wegen besserer Sensoren, aber meist hat es mit einer unterschied­lichen Datensammlungsmethode zu tun. Bei den Bodendatensätzen, einschließlich der Land- und Meeresdaten, wird fast jeder Datenpunkt von einer menschlichen Hand an­gefasst, sogar die von automatischen Flughafensensoren erfassten Flughafendaten werden manchmal manuell umgeschrieben (oft in Drittwelt- und technologisch unter­entwickelten Ländern.). Bei den Bodenmessdaten sind Tausende von Sensoren über die Erde verteilt, von unterschiedlicher Konstruktion, in unterschiedlicher Umgebung, von vielen unterschiedlichen Personen bedient mit unterschiedlichen Mess- und Meldestan­dards. Die Präzision, Genauigkeit und Kalibrierung des weitverbreiteten Bodenmess-Netzwerks ist unterschiedlich, besonders wenn eine breite Mischung von Instrumen­tenarten vorliegt. So unterscheidet sich auch die Ausstattung im Netzwerk der US – Kli­matologie-Geschichte erheblich.

 

Von Satelliten werden die Daten von einem einzigen Punkt aus gemessen mit einem einzigen Sensortyp, der an Bord mit Hilfe einer Präzisionsquelle kalibriert wird. An Bord sind redundante Platin-Widerstand-Thermometer (PRTs) auf die Satelliten-Radiometer gesetzt. Die PRTs werden einzeln in einem Laboratorium kalibriert, bevor sie in den Messinstrumenten installiert werden. Die Satellitendaten werden automatisch gemes­sen und gesendet. Im Gegensatz zu den Bodentemperaturmessungen geschieht kein menschlicher Eingriff beim Datenerfassen und beim Übermitteln. Die Satellitenda­tenerfassung ist viel homogener als der Mischmasch bei den Bodendaten.

Ich meine, dass man sicher sagen kann, dass das Risiko menschlicher Fehler bei den Bodenrohdaten mindestens um eine Größenordnung höher ist (vielleicht sogar um mehrere) als die Fehlermöglichkeit bei den Satellitenrohdaten. Die Verarbeitung nach der Erfassung ist ein weiterer Punkt, doch im Rahmen dieses Aufsatzes konzentriere ich mich nur auf die Rohdatenerfassung und Übertragung.

Wie schon im jüngst aktualisierten Kompendium über die Probleme mit den Bodenmessda­ten von Joe D’Aleo und mir erwähnt, gibt es eine Tendenz beim Globalen Historischen Klimato­logischen Netzwerk (GHCN), sich bei den Klimadaten immer mehr auf Flughäfen zu verlassen. Das ist meiner Meinung nach ein riesiger Fehler, weil zusätzlich zu unseren Problemen, wie E.M. Smith (auch bekannt als "Chiefio") berichtet, in GISS (GISS benutzt GHCN) weltweit eine kompletter Übergang zu Flughafenwetterdaten als Klimadaten­quelle erfolgt ist. Er sagte mir in einer Email vom 20. Jan. 2010:

Sehen Sie hier nach:

AGW GIStemp Measure Jet Age Airport Growth

Das ist eine recht gute Beschreibung der Probleme mit den Daten. Wir haben eine globale Darstellung für GHCN mit Stand von August. Mehr Einzelheiten stehen im Link, aber ich denke, Sie möchten über den "Jetzt"-Zustand etwas erfahren…..

Rest siehe pdf Anhang (20 Seiten) sowie Schluß unten

………………………………………..

………………………………………..

………………………………………..

Fehlendes "M" – Sofortige Polartemperaturverstärkung?

Man hat gesagt, dass sich die Signatur der globalen Erwärmung an den Polen zuerst zeigen wird. Die Polartemperaturverstärkung (polar amplification) wird definiert als:

"Die Polartemperaturverstärkung (stärkere Temperaturzunahme in der Arktis im Vergleich zur gesamten Erde) ist das Ergebnis der zusammenkommenden Rück­kopplungen und anderer Prozesse." Dies gilt nicht für die Antarktis, weil das südli­che Meer als Wärmesenke wirkt. Weit verbreitet ist diese Behauptung: "Klimamodelle sagen allgemein eine Verstärkung der Erwärmung in den Polregio­nen voraus", z. B. Doran et al. Jedoch sagen die Klimamodelle Temperaturverstär­kung für die Arktis, aber nur gemäßigte Erwärmung für die Antarktis voraus.

Interessanterweise hat der METAR-Codierfehler sein größtes Ausmaß an den Polen, weil die Unterschiede durch das Fehlen des Minuszeichens mit kälter werdender Tem­peratur größer werden. Heureka! NWT (North Western Territories) ist ein großartiges Beispiel, weil durch ein einziges fehlendes "M" die Temperatur von -43 Grad F auf +43 Grad F springt.

Am Äquator wird man keine METAR-Kodierfehler finden, weil die Temperatur dort niemals unter 0 Grad C fällt. Niemand wird dies dort codieren. In mittleren Breiten kann es vorkommen, aber eher jahreszeitlich bedingt und mit nicht so großem Unterschied.

Ein Beispiel:

Durch Änderung von M05/M08 auf 05/M08 wird die Temperatur von -5 Grad C auf +5 Grad C gesetzt, doch an Orten wie Boston, Chicago oder Denver, usw. kann eine +5 Grad C – Temperatur leicht in jedem Wintermonat vorkommen, in dem auch -5 Grad C. vorkommen. Deshalb verschwindet der Fehler im Rauschen des "Wetters" und wird wahrscheinlich niemals bemerkt. Aber er schiebt den Temperaturdurchschnitt ein we­nig nach oben, wenn er nicht korrigiert wird.

Aber in der Arktis und der Antarktis macht das fehlende M in einer M20/M25 METAR-Meldung einen Unterschied von 40 Grad C aus, wenn da +20 Grad C stehen. Und es scheint wenig wahrscheinlich, dass wir einen Wintermonat in Sibirien oder auf Antark­tika erleben, der normalerweise bis auf 20 Grad C hochgeht, daher wird der Fehler nicht im Wetterrauschen untergehen, sondern wird zu einem starken Signal, wenn er nicht korrigiert wird.

Die Neigung zur Bestätigung der Fehler aus der Erwartungshaltung der Polartemperaturverstär­kung heraus mag der Grund sein, warum bis dato niemand darauf hingewiesen hat. Darüber hinaus scheinen sich die Organisationen, die aus Bodentemperaturen abgelei­tete Klimadaten präsentieren (GISS, CRU), nur mit monatlichen und jährlichen Durch­schnitten zu beschäftigen. Tägliche oder stündliche Daten werden nicht präsentiert, soviel ich weiß, und wenn auf diese Zeiträume bezogene Fehler passieren, werden sie nicht bemerkt.

Seit das NASA GISS zugegeben hat, dass fehlende Minuszeichen zur heißen Anomalie über Finnland im März beigetragen haben, und anhand der vielen METAR-Codierfehler Vorkommnisse, die ich für andere Stationen auf der Erde nachgewiesen habe, scheint der Schluss vertretbar zu sein, dass unsere METAR-Daten von kalten Orten durch Codierfehler verfälscht sein könnten, die aus dem System herrühren.

Die gezeigten Daten zwischen dem 13. und 15. 4. beruhen auf Daten, die am 12. 4. heruntergeladen wurden. Darin enthalten sind einige Stationsmeldungen von Finn­land, wo das Minuszeichen unter den Tisch gefallen sein kann.

  4/15/10 http://data.giss.nasa.gov/gistemp/

Dieses verflixte fehlende M, oder ein zusätzliches Leerzeichen, oder nur ein "-", wenn ein "M" gemeint ist (das ist der grundlegenden mathematischen Vorstellung zuwider), alles zusammen scheinen eine Rolle zu spielen beim menschlichen Irrtum, der zu den Da­tenfehlern in unserer globalen Oberflächentemperatur beiträgt. Um die Größe des Pro­blems zu bestimmen, ist eine umfassende Überprüfung aller Daten nötig, von unten nach oben, von deren Entstehung bis zu den [daraus erzeugten] Ergebnissen. Bei NOAA/ NCDC muss angefangen werden, weil die für die Qualitätssicherung der Daten ver­antwortlich ist.

Man sagt, dass "der Mensch die globale Erwärmung verursacht". Ich meine, genauer wäre die Aussage: "Menschliche Fehler erzeugen die globale Erwärmung".

Anmerkung: In diesem Beitrag habe ich die Fehler vorgeführt. In einem folgenden Bei­trag hoffe ich, Datenanalysen mit den Zahlen durchzuführen, um zu sehen, welche Auswirkung die Fehler tatsächlich haben. Natürlich ist jeder willkommen, der das ma­chen will, Links auf Grafiken und Tabellen zu liefern.

– Anthony [Watts]. den Originalartikel finden Sie hier

Die angekündigten weiteren Beiträge von Watts dazu sind 

(2) http://wattsupwiththat.com/2010/04/22/dial-m-for-mangled-wikipedia-and-environment-canada-caught-with-temperature-data-errors/

und 

(3) http://wattsupwiththat.com/2010/04/24/inside-the-eureka-weather-station/

Die Übersetzung besorgte in dankenswerterweise und bewährter Manier Helmut Jäger für EIKE. 

Related Files




Auf Sand gebaut: 100 Prozent erneuerbare Energien?

Hat man erstmal einen solchen Glaubenssatz mit seiner existenziellen Konsequenz geschaffen, verblassen alle Bedenken und Einwände und man kann sich losgelöst von Moral und Ethik mit der Umsetzung beschäftigen. Selbst wenn dieser erste Hauptsatz tatsächlich gültig wäre, ließe sich immer noch weniger Kohlendioxid freisetzen, beispielsweise durch Kernenergie, Abscheidung mit anschließender Speicherung oder schlichtweg durch sparen. Also muß noch ein zweiter Hauptsatz her: Energie darf zukünftig nur noch aus  „renewables“ bezogen werden, was hier nur ein anderes Wort für die verschiedenen Formen der Sonnenenergie ist. Und zwar nicht weniger als zu zu 100 %, wie schon der Titel der Studie verkündet. Hier ergibt sich nun der erste Widerspruch in diesem Machwerk: Wenn tatsächlich durch die CO2-Freisetzung des Menschen das Klima katastrophal verändert wird, was geschieht dann ab 2050 in der Welt ohne fossile Energie für die Stromerzeugung? Eiszeit? Ist die weniger katastrophal? Oder hat hier die Partei in ihrer unendlichen Weisheit endlich den angedichteten Widerspruch des Kapitalismus über seine systembedingte Überproduktion gelöst? Wenn kein CO2 mehr durch den Menschen freigesetzt wird, soll die Erde immer weiter abkühlen und es müssten folglich immer mehr Sonnenkollektoren gebaut werden. Das bedeutet aber, immer mehr Arbeitsplätze würden erschaffen – ein weiterer Beweis für die Überlegenheit der Planwirtschaft. Wer das jetzt für Sarkasmus hält, sollte die Passagen über die Schaffung von Arbeitsplätzen durch Sonnenenergie in dieser Studie besser selbst lesen.

Jetzt aber ans Eingemachte. Die Studie stellt fest, daß die für eine hundertprozentige Versorgung mit Wind, Sonne und Biomasse benötigten Flächen in Europa nicht ausreichen. Es muß also Lebensraum im Osten – Pardon – in Nordafrika beschafft werden. In einem Gebiet, das wie die Studie schreibt: überwiegend als gering bevölkert betrachtet wird. Da sind wir doch richtig beruhigt. Bleiben doch somit unseren guten Sonnenkollektorbauern so unappetitliche Erfahrungen wie in den 1940er Jahren bei der „Besiedelung“ der Ostgaue erspart. Schließlich waren dort die Gebiete, wenn nicht unbesiedelt, dann doch wenigstens mit den für das neue Gesellschaftssystem unbrauchbaren Rassen übervölkert. Die Studie rechnet jedoch sicherheitshalber mit 100 Mio. zu beglückenden im betrachteten Raum, weil sich ja der Nordafrikaner als solcher, bekanntermaßen immer noch unkontrolliert vermehrt. Was aber ist, wenn sich die Völker des Orient nicht der neuen Religion von Klima und Sonne anschließen wollen? Wenn die Wüstenstämme einfach Danke sagen, weil ihnen die Wüste so gefällt wie sie ist? Wenn böse Potentaten einfach nicht einsehen wollen, daß sie die ihnen von Allah geschenkten Gas- und Ölvorkommen einfach selbst entwerten sollen? Wenn die Nordafrikaner – nicht zuletzt wegen ihrer langen Erfahrung mit Kolonialmächten – das Bepflastern der Wüste mit Spiegeln lediglich für einen neuen Trick halten, um sie von der technischen Entwicklung fern zu halten? Sozusagen als Antwort der sogenannten 1. Welt auf das Streben der sogenannten 3. Welt nach der Kraft des Atoms? Wurde doch „Alternativenergie“ noch vor wenigen Jahren als „Angepasste Technologie“ verkauft. Also als eher geeignet für Menschen, die es nicht so drauf haben.

Man verzeihe mir als Ungläubigem solche Gedanken. Ich vergaß für einen Augenblick,  daß ja „wegen Klima“ das Schicksal der Welt auf dem Spiel steht. Wenn schon der US-Imperialismus angeblich einen Krieg wegen des Erdöls im Irak anzettelt, dann werden doch die Erleuchteten notfalls einen kleinen Kreuzzug zur Rettung der Welt durchführen dürfen. Schließlich geht es hierbei ja nicht um Profit, sondern um die Schaffung einer neuen Welt. Wer will da so kleinlich sein und an das Selbstbestimmungsrecht der Völker erinnern?

Bisher galt in Europa in der Elektrizitätswirtschaft das strenge Subsidiaritätsprinzip: Jeder muß in seinem Versorgungsgebiet auch den Strom erzeugen, den er verbrauchen will. Eine Vernetzung mit anderen Versorgungsgebieten dient nur einer zusätzlichen Sicherheit. Geholfen wird bei Engpässen ausdrücklich nur vorübergehend und gegenseitig. Dieses Prinzip hat – neben vielen technischen Vorteilen – auch erhebliche gesellschaftliche Konsequenzen. Man kann es anschaulich so ausdrücken: Der Kölner muß auch die Abgase seiner preiswerten Braunkohle einatmen, der Bayer die Gefahren seines billigen Atomstroms tragen und der Alternative mit dem Schlagschatten seines Windrades leben.

Aber wir wissen es ja schon lange, von Stalin lernen, heißt siegen lernen. Stalin hatte nämlich zwei grausige Steckenpferde: Die Kollektivierung der Landwirtschaft und die Elektrifizierung der jungen Sowjetunion. Der Schrecken des ersteren ist manchen noch bekannt, unter den Konsequenzen des zweiten hat Russland noch heute zu leiden. Väterchen Stalin wollte die Wasserkraft (Alternativenergie!) der großen Ströme Sibiriens nutzen und damit das Sowjetreich elektrifizieren. Man muß ihm zumindest zugute halten, der Ölboom hatte noch nicht stattgefunden, die Kernenergie war noch gar nicht erfunden und er hatte mehrere Zeitzonen zur Verfügung. Wie erbärmlich ist dagegen die Idee von Desertec: Schon die Sendung mit der Maus zeigt mit einem Globus und einer Taschenlampe den Zusammenhang von Tag und Nacht und Jahreszeiten (Energiespeicherung). Die „Energieexperten“ der Studie geben selbst eine über das Jahr gemittelte Leistung von deutlich unter 300 W/m^2 Kollektorfläche an. Gegen den notwendigen Flächenbedarf geraten die sibirischen Stauseen zu Dorfteichen. Die erst noch zu erzeugenden 1 Mrd. Kubikmeter Trinkwasser jährlich, von der die Studie ausgeht, waren auch nicht nötig. Es wird ein gigantisches Übertragungsnetz benötigt, um die riesigen Leistungen quer über den Kontinent zu transportieren. Man muß es noch einmal betonen: Ein zusätzliches Leitungsnetz, das nur wegen des Übergangs zu einer zentralen Versorgung benötigt wird. Wer trägt hierfür die Kosten? Wie geht der Materialbedarf und die dauerhafte Belastung in eine Umweltbilanz ein? Wie werden die Gegenden entschädigt, die nur Trasse für diese Fernübertragung sind, selbst aber keinen Nutzen davon haben? Wer einen Vorgeschmack haben will, wie sensibel insbesondere Deutschland mit den Interessen und Empfindungen von Nachbarn umzugehen pflegt, möge sich noch einmal die Diskussionen um die Ostsee-Pipeline anschauen. Was geschieht, wenn Anlieger einfach so etwas nicht wollen? Bürgerinitiativen kommen in dieser schönen, neuen, CO2-freien Welt nicht mehr vor. Wie war das noch mit Gewerkschaften im Kommunismus? Richtig, die werden gar nicht gebraucht, weil ja bereits die Partei die Interessen der Arbeiterklasse vertritt!

Nun soll aber keiner denken, es handle sich bei Dersetec nur um die Wiedergeburt des Kolonialismus. Nein, auch europäische Regionen bekommen ihr Fett weg. Einige der „Energieexperten“ scheinen doch schon mal die Sendung mit der Maus gesehen zu haben. Jedenfalls wird immer wieder von einer notwendigen Speicherung durch den Ausbau der Wasserkraft in den Alpen und Skandinavien geschrieben. Dabei wird unterschlagen, daß sowohl in der Schweiz, wie auch in Schweden die Entscheidung für Kernenergie eine bewußte Entscheidung gegen den weiteren Ausbau der Wasserkraft war und ist. Ganz einfach, weil die Grenzen des Ausbaues technisch längst erreicht sind oder zumindest aus politischen Gründen nicht mehr durchsetzbar sind. Es gibt in diesen Ländern schon seit Jahrzehnten Proteste wegen der Umweltzerstörung (Schweiz und Österreich) und der Bedrohung ganzer Kulturen (Samen in Skandinavien). Aber, vielleicht soll es auf diesem Sektor ja heißen: Von China lernen, heißt siegen lernen! Die „drei Schluchten“ lassen grüßen.

Vielleicht ist aber ja alles ganz harmlos. Liest man das Verzeichnis der Förderer, so trifft man auf alle bekannten „Abgreifer von Staatsknete“.  Die gesamte Riege von Konzernen, denen kaum etwas selbst einfällt, deren „Unternehmertätigkeit“ sich nur auf das suchen von „Subventionstrüffeln“ beschränkt. Diesmal ganz vorne weg, die Finanzindustrie. Man kann aus dieser Studie geradezu das dürsten der Vertriebsabteilungen nach neuen „Knallern“ heraus lesen. Containerschiffe, Hausbau für eigentlich nicht kreditfähige usw. sind verbrannt. Es müssen neue Luftblasen her, um die Gier der Kundschaft zu befriedigen. Aber halt, aus Fehlern lernt man: Diesmal sollen alle Kredite durch Staatsbürgschaften und garantierte Preise für mindestens 25 Jahre im Voraus abgesichert werden. Dann ist man auch sofort bereit, Spiegel für die Wüste zu finanzieren. Die Vertriebsabteilungen scharren schon mit den Hufen, schließlich muß man ja schon jetzt an die nächsten Boni denken. Interessant ist an diesem Vorgehen nur, wen die Linke beim Platzen dieser Blase verantwortlich machen wird: Die Ackermänner oder doch die eigenen Kader? Macht nichts, wenn dieses Land endgültig zusammenbricht. Bis 2050 haben unsere „Alt-68er“ ihre wohlverdienten Beamtenpensionen bereits aufgebraucht.

Wem dies übertrieben pessimistisch erscheint, der sollte sich bewußt werden, daß eine Umstellung der europäischen Stromerzeugung auf 100 % erneuerbare Energien bis 2050 nur mit der Kollektivierung der Landwirtschaft in der jungen Sowjetunion vergleichbar ist. Der Preis für elektrische Energie ist der Brotpreis heutiger moderner Volkswirtschaften. Die Zerstörung kompletter Industrien innerhalb weniger Dekaden und die Vernichtung eines erheblichen Teils des Kapitalstocks in ganz Europa und Nordafrika kann nur gewaltsam erfolgen. Am Ende dieses Prozesses würde zwangsläufig eine neue Gesellschaftsordnung stehen und das kann mit Sicherheit keine Demokratie sein!

Wie aber kommt man zu Argumentationsketten, die halbwegs gebildete Menschen blenden sollen? Man stellt eine plausibel anmutende Behauptung in den Vordergrund: Die Sonne scheint umsonst und in schier unermesslicher Menge. Mit der gleichen Trivialität könnte man auch die Abschaffung der Kühlschränke fordern, da es ja unendlich viel Eis in den Polregionen gibt. Die komplizierte Erzeugung von elektrischer Energie und deren Verteilung ist nur wenigen Spezialisten mit entsprechend langer Ausbildung verständlich. Genau diese Komplexität macht man sich zur Verschleierung nutzbar. Ein bekanntes Prinzip, mit dem jeder Bankangestellte beim Verkauf von Aktien arbeitet. Kaum ein Depotinhaber versteht wie Börse funktioniert, aber alle machen begeistert mit. Ein Geschäft, das die Verfasser unserer Studie meisterlich verstehen. Botschaften die die Gier des Investors fördern, werden plakativ herausgestellt: CSP ist schon in naher Zukunft konkurrenzfähig. Der Einschub, wenn die Abgaben für CO2 drastisch erhöht werden und die Politik die externen Kosten der fossilen Energien endlich berücksichtigt, wird zwar nicht verschwiegen, kommt aber „ins klein Gedruckte“, wegen der Prospekthaftung. Jetzt sind wir schon bei der nächsten Technik zur Blendung: Man spricht von „Concentrating Solar Power“ oder noch knackiger „CSP“. Solar-Rinnen-Kraftwerke oder Kraftwerke, die mittels Spiegeln Sonnenstrahlung auf hohe Türme konzentrieren hört sich irgendwie nicht so sexy an. Viel schlimmer noch, der potentielle Investor könnte sofort merken, daß es sich nicht um eine revolutionäre Neuerfindung handelt, sondern eher um eine Jahrzehnte alte und recht simple Technik. Seit Mobiltelefon, Computer etc. weiß aber auch der gern zitierte „Einfache Mann“ sehr wohl, daß sich Erfindungen blitzschnell durchsetzen, wenn sie wirklich nachgefragt werden und sich damit Geld verdienen läßt. Demgegenüber sind Erfindungen die auch nach Jahrzehnten nicht eine wesentliche Durchdringung des Marktes erreicht haben, meist Totgeburten.

Aber unsere Dampfplauderer von PwC und PIK wissen ganz genau, daß man es sich in der mit öffentlichen Mitteln geförderten Hängematte der Gutachter recht gemütlich einrichten kann, wenn man des öfteren alten Wein in neuen Schläuchen verkauft. Deshalb kommen wir nun zum „super smart grid“. Wow! „Super“ und „Smart“, besser kann es doch gar nicht gehen. „Super“, kann man hier am besten mit elendig langen Übertragungsleitungen übersetzen, die den Strom von Nordafrika nach Nordeuropa transportieren sollen. Hätten unsere „Experten“ mal die Sendung mit der Maus gesehen, wo mit Taschenlampe und Globus Tag und Nacht und die Jahreszeiten erklärt werden, hätten sie wahrscheinlich selbst gemerkt, daß mit langen Leitungen keine Lösung gegen Dunkelheit zu erzielen ist: Es gibt kaum eine Zeitverschiebung zwischen Nordafrika und Europa und schon gar keine Umkehrung der Jahreszeiten. Ebenso soll „smart“ nicht für ein neues und totales Überwachungssystem werben, sondern hebt auf den Teilbereich einer gesteuerten Nachfrage ab. Die Rückkehr zur mittelalterlichen Gesellschaft, in der nur bei Tag gearbeitet werden kann, läßt sich nur schwer als erstrebenswert verkaufen. Deshalb soll die Nachfrage der Produktion untergeordnet werden. An der künstlichen Erzeugung von Nachfrage durch billigere Tarife zu Schwachlastzeiten, ist schon weiland die Bundespost gescheitert. Das günstige Telefongespräch zwischen 22 und 6 Uhr hatte lediglich zu einer neuen Lastspitze gegen 22 Uhr geführt, aber kein Betrieb hat deswegen nur noch nachts mit seinen Kunden telefoniert, nicht einmal der sparsame Student hat die Oma deswegen um 4 Uhr in der Nacht aus dem Bett geklingelt. Das „smart grid“ ist eine putzige Schöpfung weltfremder Geister und wird sich zu einem totalen Flop entwickeln. Deswegen darf man auch keinem so genau erklären, was sich hinter dieser „Neusprech-Sprechblase“ verbirgt. Auch an dieser Stelle wird die alte Erfahrung des „Grauen Kapitalmarktes“ wieder verwendet: Wenn der Kunde misstrauisch wird, überschütte ihn gekonnt mit Anglizismen. Die Erfahrung lehrt, bei soviel „Experte“ traut sich keiner mehr zu hinterfragen und es beginnt der Zustand des seligen Glauben und Hoffen. Wenn man im Zusammenhang mit Höchst-Spannungs-Gleichstrom-Übertragung von Netzen redet, muß man diese Technik grundsätzlich nicht verstanden haben. Hierbei handelt es sich um das genaue Gegenteil. Sie dient dazu, Leistung entkoppelt von einem Punkt zu einem anderen zu transportieren und dabei die Nachteile von vermaschten Netzen zu vermeiden. Aber macht nix, liebe „Experten“, „super smart grid“ hört sich trotzdem ganz toll an. Vor dem geistigen Auge erscheint einem förmlich die futuristische „Dispatcher-Zentrale“ (so hieß das damals unter Allende) in der die „Elite der Ökonomen“ sitzt und konzentriert darauf wartet den Wunsch der Werktätigen nach Strom zu befriedigen oder auch nicht.

Ganz abenteuerlich wird es aber mit der Schaffung der „Neuen Volkswirtschaft“. Die Studie bestreitet nicht, daß Elektroenergie, erzeugt aus Sonneneinstrahlung, die teuerste aller möglichen Varianten ist. Trotzdem soll sie Arbeitsplätze schaffen. Wenn überteuerte Produkte Arbeitsplätze schaffen würden, könnten wir all unsere Wirtschaftsprobleme durch drastische Preiserhöhungen lösen. Alle Nationen würden durch gegenseitige Preiserhöhungen fröhlich dem Paradies entgegen gehen. Aber nein, natürlich nicht. Deshalb sollen die Preise „vorübergehend“ subventioniert werden. Volkswirtschaftlich trivial ist, daß die zur Subvention notwendigen Mittel vorher dem Bürger aus der Tasche genommen werden müssen und er sie somit nicht mehr für andere Dinge ausgeben kann. Weniger als ein Nullsummen-Spiel, sonst gebe es die DDR immer noch. Arbeitsplätze werden in Wirklichkeit vernichtet.

Aber unsere „Experten“ haben ja erforscht, daß sich die Kosten für CSP um 10 bis 15% verringern, wenn sich die Installation verdoppelt. Hört sich ganz toll an, jedenfalls wenn man nichts mit Mathematik am Hut hat. Selbst im günstigen Fall ergibt das nach vier Verdoppelungen – also einer Versechzehnfachung der installierten Kollektoren – immer noch lediglich eine Halbierung der Investitionskosten. In der Studie werden die Investitionskosten für Kernkraftwerke mit 2.100 bis 3.300 €/kW und für CSP in der Sahara mit 2.300 bis 2.900 €/kW angegeben. Jetzt muß man wieder ins Kleingedruckte einsteigen: Ein Kernkraftwerk kann praktisch dauernd laufen, eine CSP nur 2.500 h/a. Man muß also die notwendigen Investitionskosten wenigstens mit dem Faktor 3,5 bei CSP multiplizieren. Ein Kernkraftwerk kann Strom produzieren, wann immer man will. Ein CSP nur bei Tageslicht und strahlend blauem Himmel. Selbst wenn es gelingt Langzeitspeicher (Jahreszeiten) in ausreichender Größe zu bauen, müssen deren beträchtliche Investitionskosten noch hinzugerechnet werden. Außerdem wird man um eine Energiewandlung (Wirkungsgrad) nicht umhinkommen, die die Investitionskosten wenigstens noch einmal verdoppelt! Es mutet wie das Rennen zwischen Hase und Igel an! Vielleicht liegt ja hierin der Grund, warum auch mit Sonne gesegnete Länder weiterhin konventionelle Kraftwerke bauen?

Es ist und bleibt eine volkswirtschaftliche Wahnvorstellung, daß man die Preise für Elektroenergie beliebig erhöhen und dadurch das Paradies auf Erden schaffen kann. Bestenfalls kann man versuchen, eine unrentable Technik durch Tricks (externe Kosten) und „Bleigewichte für Mitbewerber“ (CO2-Abgabe) zu puschen. Solange es jedoch noch ein freies Land auf der Erde gibt, werden genug Menschen solchen künstlichen Hindernissen auszuweichen wissen. Spätestens nach dem Zusammenbruch des Sowjet-Reiches sollte jedem klar sein, daß Planwirtschaft auch mit Mauern und Atomwaffen nicht dauerhaft durchzusetzen ist!

Deshalb sollten wir endlich zur Kenntnis nehmen, daß die sogenannte „Ökobewegung“ längst nicht mehr nur aus sympathischen Naturfreunden besteht. Wie diese Studie eindrucksvoll zeigt, ist der Wendepunkt längst vollzogen. Rot und Braun können ein sehr schmutziges Grün ergeben. Es geht längst nicht mehr um Ökologie (was genau, das auch immer sein mag), sondern um Gesellschaftsveränderung. Klimaschutz ist nur ein Vehikel.

Klaus-Dieter Humpich

* 100 % renewable electricity 

Website des Liberalen Instituts. Mit Dank für die freundliche Genehmigung!

Mehr zum grünen Irrweg hier und hier und hier




Deutsche Klimafolgenforscher starten das letzte Gefecht: Ein neuer Rettungsversuch für ein globales Klimaabkommen – Die Klima-Kopfpauschale!

Wenn selbst die Kanzlerin der als Klimastreber bekannten Deutschen sich öffentlich davon verabschiedet (auch hier), dürfte das (stille) internationale Begraben dieser Zielsetzung wohl nur noch eine Formsache sein. Die nächste große Klimakonferenz Ende dieses Jahres wird daher wohl wieder einmal viel Tamtam bringen und ansonsten ohne konkretes Ergebnis zu Ende gehen. Man sieht sich im nächsten Jahr.

Paradigmenwechsel in der deutschen Klimapolitik
Der Wechsel der Marschrichtung in der deutschen Politik kommt einem Paradigmenwechsel gleich. Und man muss kein Prophet sein, um zu folgern, dass damit auch ein Verlust des Einflusses der Klimaforscher auf die Politik in unserem Land einhergehen wird. Am meisten dürfte davon das Potsdamer Institut für Klimafolgenforschung (PIK) betroffen sein, welches bislang mit Stefan Rahmstorf und Institutsdirektor Hans Joachim Schellnhuber noch 2 der 8 Mitglieder des einflussreichenWissenschaftlichen Beirats der Bundesregierung Globale Umweltveränderungen (WBGU) stellt und mit knapp 200 Beschäftigten ein hohes Interesse daran hat, dass die Klimafurcht und alles was dazu gehört weiter geschürt wird.

Ungeachtet dieser Entwicklung, oder vielleicht gerade deswegen, also um noch einmal eine entscheidende “Duftmarke” zu setzen, hat das PIK jetzt ein Grundsatzpapier herausgegeben, in dem ein völlig neuer Weg vorgestellt wird, der doch noch den erhofften Durchbruch in der Klimapolitik bringen soll. Unter dem Titel “Neue Strategie zur Realisierung des 2°max Klimaziels” präsentieren die Forscher einen Lösungsansatz, den sie “Peak and Trade” nennen und hinter dem sich eine Art Klima-Kopfpauschale verbirgt. Nach den Vorstellungen der Wissenschaftler soll jedem Erdenbürger zunächst ein Kontingent von rund 5 Tonnen CO2 zugesprochen werden. Wird dieses überschritten, muss in einen Topf (eine neu zu schaffende “Weltklimabank”) gezahlt werden, bei Unterschreitung gibt es Geld aus diesem Topf. Morgen, am 29.4.10 wird dieses Papier mit großem TamTam von PIK Chef-Schellnhuber und Bundesumweltumweltminister Röttgen in den Räumen der Bundespressekonferenz in Bonn der Öffentlickeit (s. u.) vorgestellt. Wir können sicher sein, dass es wieder große mediale Aufmerksamkeit erfährt.

 

Pro Kopf CO2-Ausstoß nach Ländern. Die Größe des Kreises spiegelt den CO2-Ausstoß wider. Quelle: Gapminder World

Die Amerikaner hätten demnach mit 16,9 Tonnen pro Jahr und Einwohner einen mehr als 3 mal zu hohen Ausstoß, wir Deutschen mit 9,8 Tonnen einen fast doppelt zu hohen. In Westeuropa stehen Schweden und die Schweiz (je 5,6 Tonnen pro Einwohner) und Frankreich (6,3 Tonnen) besonders gut da. Erstere, weil sie sehr viel Strom aus Wasserkraft erzeugen, und letztere wegen der Stromerzeugung aus Kernkraft.

Kopfpauschale als Lockangebot für Schwellen- und Entwicklungsländer
Woher kommt die magische Grenze von rund 5 Tonnen pro Einwohner? Die Autoren der Studie begründen diese mit einem vermutlich im Jahr 2015 erreichten globalen CO2-Ausstoß von 35 Milliarden Tonnen. Und diese Zahl, geteilt durch eine Weltbevölkerung im Jahr 2010 von geschätzten 6,9 Milliarden Menschen, ergibt 5,1 Tonnen pro Erdenbewohner. Vergleicht man die CO2-Emissionen pro Kopf der Länder der Welt (klick auf die Infografik), dann kann einem aber auch eine ganz andere Vermutung kommen.

Das Scheitern der letzten Weltklimakonferenz in Kopenhagen lag zu einem nicht unerheblichen Teil am Widerstand der aufstrebenden Entwicklungs- und Schwellenländer, allen voran Brasilien, China und Indien. Und diese Länder liegen (Brasilien und Indien deutlich) unterhalb der magischen 5,1 Tonnen-Grenze, würden also von der jetzt vorgeschlagenen Regelung profitieren.  Mit diesen Maßnahmen, so könnte man mutmaßen, sollen die abtrünnigen Schwellenländer finanziell für eine Zustimmung geködert werden. Politisch korrekt nennt man das heute wohl “ins Boot holen”.

Kopfpauschale schafft Anreiz zum Bevölkerungswachstum
Profitieren von einer solchen Regelung würden vor allem bevölkerungsreiche Schwellen- und Entwicklungsländer. Je mehr Einwohner und je geringer der Entwicklungsstand, umso mehr Geld ist zu holen. Für solche Länder würde diese Regelung vor allem den Anreiz erhöhen, einen möglichst großen Anteil ihrer Bevölkerung von der Entwicklung auszuschließen, denn dadurch würde deren pro Kopf CO2 Verbrauch nachhaltig auf niedrigem Niveau gehalten werden. Von den Einnahmen, die für diese Länder durch die CO2-Karenz ihrer Bevölkerung generiert würden, bekäme diese wohl eher nichts zu sehen. Wie die Erfahrungen aus den zahlreichen Entwicklungshilfe-Programmen gerade für die ärmsten Länder in Afrika zeigen, fließen solche Gelder entweder in den Militäretat oder landen direkt auf den Schweizer Nummernkonten der Regierungsmitglieder.

[Update]
Welt 27. 04. – Klimaforscher fordern CO2-Höchstmenge pro Kopf
FAZ 28. 04. – Asyl für Klimasünder

ÄHNLICHE BEITRÄGE (BETA):

Rudolf Kipp EIKE; zuerst erschienen in abgewandelter Form bei Science Sceptical

Update 1:

15:00 Uhr     – NEU –
BPK BONN Klimapolitik nach Kopenhagen: Auf drei Ebenen zum Erfolg Der WGBU übergibt im Vorfeld des Petersberger Klimadialogs ein Politikpapier an die Bundesregierung
– BONNER TERMIN! – Veranstaltungsort: BPA, Dienstsitz Bonn, Welckerstraße 11, 53113 Bonn

  • Dr. Norbert Röttgen, Bundesminister für Umwelt, Naturschutz und Reaktorsicherheit
  • Prof. Dr. Hans-Joachim Schellnhuber, Vorsitzender des Wissenschaftlichen Beirats der Bundesregierung Globale Veränderungen (WBGU), Direktor des Postdam-Instituts für Klimafolgenforschung (PIK)
  • Prof. Dr. Dirk Messner, Stellv. Vorsitzender des Wissenschaftlichen Beitrats der Bundesregierung Globale Umweltveränderungen (WBGU), Direktor des Deutschen Institut für Entwicklungspolitik (DIE)
  • Update 2: FDP Kauch solidarisiert sich sofort mit dieser neue Botschaft:
  • ++ KAUCH: FDP unterstützt globalen CO2-Markt (29.04.2010)

    BERLIN. Zu den Vorschlägen für eine neue Klimaschutzstrategie, die der Wissenschaftliche Beirat für Globale Umweltfragen (WBGU) der Bundesregierung vorgelegt hat, erklärt der umweltpolitische Sprecher der FDP-Bundestagsfraktion Michael KAUCH: 

    Die Experten des WBGU vertreten die Strategie eines globalen CO2-Marktes.
    Die FDP-Bundestagsfraktion unterstützt dieses Konzept seit vielen Jahren. Die Liberalen haben das Ziel eines globalen Kohlenstoffmarktes auch im Koalitionsvertrag verankert. Dennoch bleibt die Frage, ob China und die USA, die bisher ein Kyoto-Nachfolgeabkommen verweigern, sich durch diesen Vorschlag einbinden lassen.

    Begrüßenswert ist der Ansatz des WBGU, jedem Menschen gleiche Emissionsmengen zuzugestehen. Das würde die "basarähnlichen" Verhandlungen auf den Klimakonferenzen über Reduktionsverpflichtungen und Ausgleichszahlungen durch einen objektiven Maßstab ersetzen. 
    Vernünftig ist die Doppelstrategie der Bundesregierung, sowohl auf ein neues Klimaschutzabkommen als auch auf praktische Klimaschutz-Kooperation mit Partnerländern zu setzen.

Die Redaktion mein: Dem ist nichts hinzufügen!




Die Klimakanzlerin war gestern – Merkel strebt kein global bindendes Abkommen zum CO2-Ausstoss mehr an

So sieht wohl ein geordneter Rückzug aus. Wie der Spiegel in seiner Online-Ausgabe heute berichtet, hat unsere Bundeskanzlerin das Ziel aufgegeben, einen weltweit verbindlichen Vertrag für CO2-Emissionen anzustreben:

Merkel rückt von Weltklimavertrag ab

Bundeskanzlerin Angela Merkel (CDU) will nach Informationen des Nachrichtenmagazins SPIEGEL verbindliche globale Grenzwerte für Treibhausgase vorerst nicht weiter verfolgen. Die Kanzlerin rückt damit von dem Ziel ab, die Erderwärmung durch einen Weltklimavertrag auf zwei Grad Celsius zu begrenzen…

Diese Entscheidung offenbart, dass Frau Merkel inzwischen wohl aufgegangen ist, dass ein solches Abkommen schlicht nicht durchsetzbar ist. Möglicherweise reagiert die Kanzlerin damit auch auf eine Umfrage des Spiegel, bei der herauskam, dass mittlerweile nur noch 42 Prozent der Deutschen Angst vor dem Klimawandel haben. Oder Frau Merkel hat irgendwie mitbekommen, dass das 2-Grad-Ziel gar keine wissenschaftliche Grundlage hat. Vielleicht ist sie damit auch auf den Wissenschaftlichen Beirat des Bundesfinanzministeriums gefolgt, der kürzlich festgestellt hat, dass Strebertum bei der Klimapolitik sich eher nicht lohnt.

Wer weiß? Jedenfalls ist diese Entscheidung als ein erster kleiner Schritt in die richtige Richtung sehr zu begrüßen.

Rudolf Kipp EIKE – zuerst veröffentlich bei Science Sceptical

ÄHNLICHE BEITRÄGE (BETA):




Große Windparks: Ihr Einfluss auf das Klima und ihre Verlässlichkeit!

Die Autoren befassen sich damit, inwiefern die Installationen sehr umfangreicher Windparks Einfluss auf das Klima haben könnten, und zwar getrennt nach Windparks an Land und auf dem Ozean.

Für diese Abschätzung wurde ein dreidimensionales Klimamodell benutzt. Dabei wurde als Annahme nicht von der Konzentration vieler Windräder an einzelnen Stellen ausgegangen, sondern dass weltweit so viele errichtet werden, dass sich der Weltenergiebedarf damit zu etwa 10% decken ließe. Das Ergebnis dieser Modellrechnungen ist überraschend: Es kommt heraus, dass sich die globale Temperatur zumindest über Landgebieten um etwa 1K oder sogar noch etwas mehr erhöhen dürfte. Auch Verschiebungen der Wolken- und Niederschlagsverteilung wären danach zu erwarten.

Interessanterweise ergab die Rechnung von Windparks in Ozeangebieten bei den Auswirkungen aber eine Abkühlung. Dies ist jedoch nicht verifizierbar, weil zu viele Annahmen auf zu unsicherer Basis gemacht werden mussten. Die Autoren mahnen an, noch bessere spezielle und realistische Parameter zu finden, um auch Ozeanwindparks besser simulieren zu können. Sie gehen davon aus, dass durch Fortschritte der Technik Windturbinen in Ozeanen bald bis zu einer Wassertiefe von 200 m installiert werden können.

Diese Parameter müssen dann noch in generelle Klimamodelle eingebracht und überprüft werden. Ein anderes angesprochenes, aber nicht näher untersuchtes Problem, das die Autoren ansprechen, ist der Umstand, dass man natürlich zusätzlich riesige Überlandleitungen bauen muss, um die Energie von den erzeugenden Windparks zu den Verbrauchern zu bringen.

Zurück zur Installation von Windturbinen auf dem Festland. Die unterschiedliche Ausdehnung, variierende Landschaftsformen und hydrologische Gegebenheiten führen zu verschiedenen, jeieils aber signifikanten Klimaeffekten. Wegen der angenommenen Nichtlinearität der Änderungen von Oberflächenstrukturen und den daraus resultierenden Effekten stellt die Auswahl geeigneter Standorte eine große Herausforderung dar. Klimaeffekte nehmen zu, je mehr Energie erzeugt wird, nehmen jedoch wieder ab, wenn die Effizienz der Energieumwandlung verbessert werden kann. Nicht berücksichtigt bei diesen Untersuchungen wurden Auswirkungen auf die Landschaft und Umwelt, auf Vögel und andere Begleiterscheinungen wie z. B. Schlagschatten und ein gewisser Lärmpegel.

Unsere Ergebnisse sind recht tragfähig. Eine Steigerung der Effizienz um 25 bis 30% hilft, die Auswirkungen auf das Klima zu reduzieren, aber nicht gänzlich zu unterbinden. Die Ergebnisse sind auch abhängig davon, wie realistisch man Landoberflächen und die atmosphärische Grenzschicht in den Modellen abgebildet hat. Weitere Untersuchungen mit alternativen Modellrechnungen einschließlich hoch auflösender Klimamodelle und dynamischen 3d-Darstellungen der Verhältnisse in Ozeanen sind erforderlich. Außerdem ist es dringend erforderlich, dass die Ergebnisse durch angemessene Feldexperimente und Messkampagnen überprüft und abgestützt werden, um noch bessere Modelle für die Simulation der Auswirkungen von Windrädern zu entwickeln.

Völlig unzureichend sind bisher auch alle Maßnahmen, die regelmäßige Verfügbarkeit von Windenergie sicherzustellen. Dieser Effekt ist in unseren Modellen nicht berücksichtigt worden. Gebraucht werden dazu herkömmliche Kraftwerke, ultralange Überlandleitungen (mit den entsprechenden Auswirkungen auf die Landschaft, A. d. Übers.) und großräumige Kapazitäten, um überflüssige Energie irgendwie zu speichern. Jede einzelne dieser Maßnahmen hat natürlich ebenfalls massive Auswirkungen auf die Umwelt.

Der Übersetzer ist Diplom-Meteorologe, Fachrichtung Synoptik. Er hat sich in seiner Studienzeit auch näher mit Klimatologie befasst. Diese Untersuchung geht jedoch in gewisser Weise über sein Fachwissen hinaus, so dass keine Gewähr übernommen werden kann, ob die fachlichen Aussagen der Autoren korrekt wiedergegeben sind. Der oben stehende Text ist eine Zusammenfassung eines hoch wissenschaftlichen Artikels, den zu bewerten Wissenschaftlern vorbehalten bleiben muss, die von Energie viel mehr verstehen.

Übersetzung der Einführung und der Zusammenfassung des Artikels

 Den Originalartikel finden Sie hier:

Große Windparks: Ihr Einfluss auf das Klima und ihre Verlässlichkeit

Potential climatic impacts and reliability of very large-scale wind

farms von C. Wang and R. G. PrinnC. Wang und R. G. Prinn

erschienen in Atmos. Chem. Phys., 10, 2053–2061, 2010

Abstract: Um den künftigen Energieverbrauch der Welt zu decken und gleichzeitig Klimaeffekte zu berücksichtigen, muss man großräumige Technologien entwickeln, die wenig oder gar kein CO2 freisetzen. Eine solche Technologie könnte die Windkraft sein, denn Wind steht verbreitet zur Verfügung. Großräumige Windparks beeinflussen jedoch massiv die Umwelt. Außerdem weht der Wind sehr unregelmäßig, und außerdem dürfen die Kosten zumindest derzeit einen gewissen niedrigen Rahmen nicht übersteigen. Um einige dieser Zusammenhänge zu untersuchen, benutzten wir ein dreidimensionales Klimamodell, um den Einfluss auf das Klima abzuschätzen. Außerdem installierten wir zahlreiche durch Windkraft angetriebene Generatoren über weiten küstennahen See- und Landgebieten. Windturbinen, die bis zum Jahr 2100 etwa 10% des Weltenergiebedarfs decken, könnte zu einer Erwärmung über +1 Grad in Landgebieten führen. Im Gegensatz dazu sollte es über Seegebieten um den gleichen Anteil kühler werden. Allerdings muss dieser Effekt auf dem Ozean noch näher untersucht werden. Es könnte sowohl signifikante Erwärmung oder Abkühlung sowohl über Land als auch auf See geben ebenso wie Änderungen der globalen Verteilung von Regenmengen und Wolken. Dies sind Folgen einmal der höheren Rauhigkeit und Verringerung der Windgeschwindigkeit in der Nähe solcher Windparks, die unterschiedliche Bodenreibung an Land und auf dem Wasser sowie die Installation parallel oder senkrecht zur vorherrschenden Windrichtung. Die Ergebnisse sind auch von der Qualität des Modells abhängig sowie von der Realität der vermuteten Funktionsweise der Windturbinen. Zusätzliche theoretische Überlegungen sowie ausgedehnte Feldmessungen sind erforderlich, um die Ergebnisse zu überprüfen. Die tägliche, monatliche und jährliche Verfügbarkeit von Windkraft, abgeleitet aus meteorologischen Beobachtungen, braucht für die Nutzung weitere Optionen, wie Energie aus normalen Kraftwerken als Backup, sehr weite, die Landschaft massiv beeinflussende Überlandleitungen sowie Möglichkeiten, Energie zu speichern. All dies vor dem Hintergrund spezieller ökonomischer und technologischer Zwänge.

Conclusions: Um den künftigen Energieverbrauch der Welt zu decken, muss man großräumig Technologien entwickeln, die wenig oder gar keine Treibhausgase freisetzen. Eine solche Technologie wäre die Windenergie. Es wurde ein dreidimensionales Klimamodell benutzt, um die Klimaeffekte zu berechnen, die durch die Installation von Windturbinen über großen Land– und Ozeanflächen entstehen. Errichtet man auf dem Festland genug dieser Turbinen, um etwa 10% des Energiebedarfs zu decken, resultiert daraus eine Erwärmung um mehr als 1 K. Signifikante Erwärmung oder Abkühlung wären Fernwirkungen solcher Installationen, und auch Verschiebungen in der globalen Verteilung von Wolken und Niederschlag wird es geben.

Dass bei der Installation in Meeresgebieten eine Abkühlung heraus kommt, ist zwar interessant, aber nicht verifizierbar, hauptsächlich wegen der unrealistisch hohen Zunahme an Reibung, um die Windenergie überhaupt heraus zu filtern. Es müssen spezielle und realistische Parameter entwickelt und gefunden werden, um die Effekte der Windturbinen über dem Ozean besser simulieren zu können. Diese Parameter müssen dann noch in Modelle der generellen Zirkulation eingebettet werden, bevor man verlässliche Ergebnisse erhält. Die Technologie von Windturbinen im Ozean mag genügend Fortschritte machen, um sie auch in Wassertiefen bis 200 m zu installieren. Voraussetzung dafür ist allerdings auch, dass es genügend Kapazität in Gestalt sehr langer Leitungen gibt, um den Transport des Stromes zu gewährleisten.

Die Installation von Windturbinen auf dem Lande, mit unterschiedlicher räumlicher Ausdehnung, Landschaftsformen und hydrologischen Gegebenheiten führt zu verschiedenen, aber vermutlich jeweils signifikanten Klimaeffekten. Wegen der angenommenen Nichtlinearität  der Änderungen von Oberflächenstrukturen und den daraus resultierenden Klimaeffekten, stellt die Auswahl geeigneter Standorte eine Herausforderung dar. Klimaeffekte nehmen zu, je mehr Energie erzeugt wird. Sie nehmen ab mit Steigerung der Effizienz der Energieumwandlung. Nicht berücksichtigt sind dabei Auswirkungen auf die Umwelt, wie z. B. auf Vögel, das Wetterradar oder auch ein gewisser Lärmpegel.

Unsere Ergebnisse sind recht tragfähig, um spezielle Turbinentechnologien zu entwickeln, die man effektiv nutzen kann. Die Steigerung deren Effizienz um 25 bis 30% hilft, die Auswirkungen auf das Klima zu reduzieren, aber nicht gänzlich zu unterbinden. Unsere Resultate sind auch abhängig davon, wie realistisch wir Landoberflächen und die atmosphärische Grenzschicht in unseren Modellen abgebildet haben. Untersuchungen mit alternativen Modellrechnungen einschließlich hoch auflösender Klimamodelle und dynamischen 3d-Darstellungen der Verhältnisse in Ozeanen sind erforderlich. Angemessene Feldexperimente und Messkampagnen, um unsere Ergebnisse zu überprüfen und um noch bessere Modelle für die Simulation von Windturbinen zu entwickeln sind ebenfalls dringend erforderlich.

Außerdem muss noch viel mehr dafür getan werden, die Verfügbarkeit der Windenergie sicherzustellen. Dies ist in unseren Modellen nicht berücksichtigt worden. Gebraucht werden dazu beispielsweise herkömmliche Kraftwerke als Backup, ultralange Überlandleitungen und Möglichkeiten, überschüssige Energie zu speichern. Jede einzelne dieser Maßnahmen hat natürlich ebenfalls massive Auswirkungen auf die Umwelt und/oder die bestmögliche Technologie.




Forscher warnen: Globale Abkühlung wird Arktis-Rohstoffe unzugänglich machen!

Nach seinen Worten schwanken die Temperaturen auf der Erde in einem 60-jährigen Turnus. „Jetzt treten alle Komponenten des Klimasystems in eine negative Phase ein.“ Die Abkühlung werde in 15 Jahren ihren Höhepunkt erreichen, sagte der Forscher. Politiker, die auf eine globale Klimaerwärmung bauen, hätten auf das falsche Pferd gesetzt.

„Die Nordostpassage wird einfrieren und nur mit Eisbrechern passierbar sein“, sagte Pokrowski. Auch die angekündigte Erschließung des arktischen Schelfs könne auf schwere Probleme stoßen.

Der Weltklimarat IPCC, der eine Klimaerwärmung prophezeit, lässt laut Pokrowski viele Faktoren außer Acht. So befänden sich die meisten amerikanischen Wetterstationen in Städten, wo die Temperaturen immer höher seien. „Wir wissen nicht alles, was passiert. Das Klimasystem ist sehr kompliziert und der IPCC ist nicht die Wahrheit in letzter Instanz.“

Die Rivalität um die Arktis hat sich in den letzten Jahren deutlich verschärft. Um die reich gefüllte Naturschatzkammer buhlen Russland, die USA, Kanada, Großbritannien und andere Anrainerstaaten. Viele von ihnen kündigten die Aufstellung von Schiffsverbänden für Polfahrten an.

Quelle Nowosti SANKT PETERSBURG, 23. April (RIA Novosti)

Mehr Details dazu hier




Die Beiträge des USHCN und GISS zum Fehler der vieljährigen Temperaturaufzeichnung einer Wetterstation auf dem Lande

Wie Watts zeigt, gibt es viel zu viele von der Umgebung beeinflusste Wetterstationen und nur wenige, die sich in einer angemessenen Umgebung befinden. Die Untersuchung der Daten jener Stationen ergibt eine gute Basis, mit der man die Eigenheiten der von NCDC und GISS vorgenommenen Anpassungen zeigen kann.

Eine solche Station ist Dale Enterprise im US-Bundesstaat Virginia. Das Wetterbüro hat Rohdaten dieser Station sowie monatliche und jährliche Mittelwerte aufgezeichnet, und zwar schon seit dem Jahre 1891 bis heute, eine Reihe von 119 Jahren. In dem Zeitraum zwischen 1892 und 2008 fehlen nur ganze 9 Monate (von insgesamt 1041 Monaten), das ist eine Fehlrate von weniger als 0.64 Prozent. Die Analyse unten interpoliert diese fehlenden Daten folgendermaßen: Es wurde ein Mittelwert über 10 Jahre um den fehlenden Wert gebildet. Das erschien besser als die Daten anderer Stationen zu Hilfe zu nehmen. Diese Methode minimiert die Unsicherheiten,  die sich aus der Verwendung der Daten anderer Stationen ergeben, von denen nicht sicher ist, ob sie wirklich ‚sauber’ sind.

Die Station selbst liegt auf dem Feld eines Landgutes, weit weg von Gebäuden oder befestigten Flächen. Das ursprüngliche Thermometer wurde weiter benutzt, um die Messungen mit elektronischen Messfühlern seit 1994 zu vergleichen.

 

(Foto 1)

Die Station Dale Enterprise liegt in den sanften Hügeln östlich des Shenandoah – Tals, fast zwei Kilometer entfernt vom nächsten Dorf und über fünf Kilometer entfernt von der nächsten größeren Ortschaft Harrisonburg, einem Städtchen mit 44 000 Einwohnern.

 

(Foto 2)

Mit Ausnahme der Inbetriebnahme des elektronischen Sensors im Jahre 1994 und dem Interpolieren der fehlenden neun Monate gibt es keinerlei Gründe, die Rohdaten dieser Station irgendwie zu bearbeiten.

Die folgende Graphik zeigt den Temperaturverlauf aus den Rohdaten

(Bild 1: Aktueller Temperaturtrend: 0.24°C/Jahrhundert)

Es deutet sich ein stufenweiser Rückgang der Temperatur nach 1994 an. In Virginia stehen keine weiteren Stationen auf dem Lande zur Verfügung, die ebenfalls mit elektronischen Sensoren im Vergleich zu herkömmlichen Messungen mit Thermometern über eine längere Periode Werte zeigen. Der Vergleich mit urbanen Stationen ergibt eine potentiell große Abweichung zum Wärmeren während der 20 Jahre von 1984 bis 2004. Dies gilt besonders in Virginia, liegen doch diese urbanen Stationen typischerweise an Flughäfen, auf denen sich die Bebauung und die Flugbewegungen in dieser Periode erheblich verändert haben.

Bemerkenswerterweise haben weder NCDC noch GISS dieser Änderung in der Gewinnung der Daten Rechnung getragen. Daher ist jede Abweichung, die sich aus dieser Änderung eventuell ergeben hat, nach wie vor sowohl in den Originaldaten als auch in den bearbeiteten Daten enthalten.

Die Bearbeitung durch das NCDC 

Viele haben sich auf die Änderungen der Daten vom NCDC durch das GISS konzentriert, aber die ‚Homogenisierung’, die durch das NCDC selbst vorgenommen wurde, ist genauso interessant, wenn auch viel schwerer zu verstehen, wie in diesem Beispiel gezeigt wird.

NCDC sammelt die Originaldaten und passt sie ein in einen Datensatz, der zu einem Teil des historischen Klimanetzwerkes der USA wird (United States Historical Climatology Network USHCN) wird. Die meisten Forschungsinstitute, einschließlich GISS und HadCRU, beginnen mit dem Datensatz des USHCN. Bild 2 dokumentiert die vom NCDC vorgenommenen Änderungen der Originaldaten und legt nahe, dass man Untersuchungen mit den Originaldaten beginnen sollte.

(Bild 2, Dale Enterprise, Virginia Rohdaten im Vergleich zu bearbeiteten USHCN-Daten)

Die rote Linie in der Graphik zeigt die Änderungen, die an den Rohdaten vorgenommen wurden. Angesichts der Lage der Station Dale Enterprise und dem Fehlen jeglicher mikroklimatischen Verzerrung muss man sich fragen, warum das NCDC überhaupt Änderungen an diesen Rohdaten vornimmt. So, wie die rote Linie aussieht, hat man nicht den Eindruck, dass diese Änderungen nur deshalb vorgenommen wurden, um Datenlücken zu schließen oder andere offensichtlichen Verschiebungen zu korrigieren. Tatsächlich hat das NCDC in jedem Jahr Daten verändert, außer 1998 und 1999! [Beachte: wenn ein 62-jähriger promovierter Wissenschaftler ein Ausrufezeichen benutzt, sollte seine Äußerung mit außerordentlicher Aufmerksamkeit zur Kenntnis genommen werden.]

Aus der Graphik wird klar ersichtlich, dass man bei den USHCN – Daten den ‚reset’ – Button anklicken sollte. Nur anhand dieser einen Station lässt sich feststellen, dass die USHCN – Daten ungeeignet für jedwede weitere Untersuchungen sind, und das der Anspruch eines ‚Datensatzes mit hoher Qualität’ völlig unangebracht ist.

Die Bearbeitung durch das GISS

GISS beansprucht von sich, dass seine Anpassung der Daten die Effekte korrigieren soll, die der urbane Wärmeinseleffekt auf die Aufzeichnungen hat. (In theory, they adjust stations based on the night time luminosity of the area within which the station is located. Ich bekenne, diesen Satz kriege ich nicht sinnvoll übersetzt! Herr Jäger, haben Sie einen Vorschlag? A. d. Übers.) Diese grobe Annäherung ist schon angesichts der Werte der Station Dale Enterprise falsch. Es gibt keinen hinreichenden Grund, die Werte einer Station ohne jede mikroklimatische Verzerrungen zu überarbeiten; einer Station, die fast zwei Kilometer von der nächsten Ansiedlung, über 5 Kilometer von einer Kleinstadt und über 100 km von einer Ansiedlung mit über 50 000 Einwohnern, ab denen man definitionsgemäß von einer Stadt spricht, entfernt ist. Die nächst gelegene Stadt Harrisonburg hat einen einzigen großen Industriestandort, einen Steinbruch und eine mittelgroße Universität (die James Madison Universität JMU). Fraglos haben die Studenten der JMU nie gelernt, nachts das Licht auszuschalten. Nach meiner persönlichen Erfahrung bin ich nicht einmal sicher, ob sie überhaupt nachts ins Bett gehen. Daraus ergibt sich eine Abweichung, die wir die „Trinken – Party – college kids“ – Abweichung nennen können. Ob es möglich ist, eine solche Abweichung überhaupt zu korrigieren, überlasse ich anderen. Jedenfalls handelt es sich um eine typische amerikanische Kleinstadt, überwiegend bestehend aus Einfamilienhäusern und zwei oder drei Hochhäusern. Der eigentliche Stadtkern besteht aus sechs Häuserblöcken und neben dem Getreidesilo weniger als zehn Gebäuden mit mehr als 5 Stockwerken. Sogar innerhalb dieses Stadtkerns gibt es zahlreiche Parks. Das übrige Stadtgebiet besteht aus lockerer Wohnbebauung und der Universität mit ihren Freiflächen.

Obwohl es keinerlei Gründe gibt, die Daten der Station Dale Enterprise wegen irgendeines Wärmeinseleffektes zu verändern, hat das GISS die Daten bearbeitet, wie die nachfolgende Graphik (Bild 3) zeigt. Ich zeige diese Anpassungen, weil sie typisch sind für die grundsätzliche Natur der Art von Anpassungen, wie sie das GISS vornimmt, ohne Beachtung, wie sich diese Anpassungen auf die aktuelle Temperatur auswirken.

Bild 3

Hier sind lediglich die Daten des USHCN und GISS samt der zugehörigen Trendlinie geplottet. Eingezeichnet in blau ist aber auch die Trendlinie der Rohdaten.

Die Anpassungen der USHCN – Daten vom GISS auf die Werte der Station Dale Enterprise folgen einem wohlbekannten Muster. GISS zieht die früheren Werte nach unten und übernimmt die jüngeren Daten unverändert vom USHCN. Dadurch entsteht natürlich immer eine Verzerrung hin zu einer Erwärmung. Der Vergleich der Trendlinien in der Graphik ist jedoch etwas schwierig. Die Trends der Rohdaten, der USHCN- und der GISS – Daten sind: 0.24°C, -0.32°C und 0.43°C, pro Jahrhundert, versteht sich.

Wenn man annimmt, dass die USHCN – Daten einen „Datensatz von hoher Qualität“ darstellen, dann macht die Anpassung durch GISS viel mehr als eine Verstärkung der Erwärmung, es kehrt den Trend dieser „hohen Qualität“ der Daten um. Man beachte, dass das GISS den Erwärmungstrend im Vergleich zu den Rohdaten verdoppelt.

Diese Präsentation stellt den Beginn der Analyse von Temperaturaufzeichnungen in Virginia dar. Das ‚Center for Environmental Stewardship of the Thomas Jefferson Institute for Public Policy’ plant, sämtliche Daten aus Landgebieten in Virginia zu untersuchen, um herauszufinden, welche Landstationen am besten geeignet sind, langzeitliche Temperaturtrends abzuschätzen, egal ob lokal oder weltweit. Nur eine landesweite Verfolgung dieses Zieles kann zu einem wirklichen Datensatz „hoher Qualität“ führen, auf den sich die wissenschaftliche Gemeinschaft verlassen kann; egal ob man diese Daten für Modellrechnungen benutzt oder den Beitrag menschlicher Aktivitäten abschätzen will.

von David W. Schnare, Esq. Ph.D. Das Original erschien hier

Die Übersetzung besorgte dankenswerterweise Chris Frey für EIKE

The SPPI analysis of rural versus urban trends




Rekonstruktion des Klimawandels seit 1860 bzw. 1672 aufgrund solarer Aktivitätsänderungen !

Die Klimaanalysen auf allen räumlichen wie zeitlichen Klimaskalen haben gezeigt, dass beim langfristigen Klimawandel die Sonne der dominierende Klimafaktor ist und dass dem anthropogenen Treibhaus-/CO2-Effekt nur eine untergeordnete Rolle zukommen kann.

Im Sinne dieser Ergebnisse muss es folglich möglich sein, die Grundzüge des langfristigen Klimawandels der vergangenen Jahrhunderte in Abhängigkeit von der veränderten Sonnenaktivität zu rekonstruieren.

Einen mathematische Ansatz dazu bietet die (lineare) Methode der kleinsten quadratischen Abweichung. Dabei werden nur die beobachteten Mitteltemperaturen und die mittleren Sonnenfleckenzahlen der definierten Klimaperioden benötigt. Im

Sinne der Klimadefinition der WMO werden Periodenlängen von rund 30 Jahren, d.h. von 3 Sonnenfleckenzyklen (im Mittel 33 Jahre), betrachtet. Für jede Klimaperiode wird nach der Methode der kleinsten quadratischen Abweichung die beobachtete Mitteltemperatur durch einen berechneten Temperaturwert in Abhängigkeit von der mittleren Sonnenfleckenzahl approximiert.      

Ist y = T(SF), so gilt:   y = x0 + x1 * SFi ,

d.h. die berechnete Mitteltemperatur der Klimaperioden ist nur eine Funktion der Sonnenfleckenzahl SF. Der Schnittpunkt x0 der Geraden mit der y-Achse folgt aus:  x0 = Tm – x1 * SFm  

und der Anstieg x1 der Geraden aus:>

x1 =  Summe(SFi anom*Ti anom) / Summe(SFi anom)².

Die Anomalien (anom) sind die Abweichung der Einzelperioden vom Mittelwert über alle Perioden……

….- Die Klimaanalysen auf allen räumlichen wie zeitlichen Klimaskalen haben gezeigt, dass beim langfristigen Klimawandel die Sonne der dominierende Klimafaktor ist und dass dem anthropogenen Treibhaus-/CO2-Effekt nur eine untergeordnete Rolle zukommen kann. 

Ergebnisse und den ganzen Artikel finden Sie in der Dateianlage und unter Publikationen hier

Autor: Prof. Dr. Malberg

Related Files




Rätsel gelöst – Globale Erwärmung versteckt sich in den Ozeanen!

Es wird in den letzten Jahren einfach nicht wärmer (aus den Climategate Mails):

“Fakt ist, wir können im Moment das Fehlen der Erwärmung nicht erklären, und es ist ein Hohn dass wir es nicht können.”

„The fact is that we can’t account for the lack of warming at the moment and it is a travesty that we can’t.“

Und seit 2005 nimmt auch der Wärmeinhalt der Ozeane deutlich weniger zu,  als es die Modelle der Forscher und die Satellitenmessungen für diesen Zeitraum eigentlich erwarten lassen. Aber Trenberth wäre kein Klimaforscher von Weltruf, wenn er nicht auch eine Auflösung für dieses Rätsel parat hätte. Die Wärme ist da. Sie muss da sein, schließlich zeigen es die Modelle. Sie versteckt sich nur geschickt irgendwo in den Ozeanen.

Missing Energy – Fehlende Energie

Und zwar offensichtlich an Stellen, wo unsere Messmethoden sie nicht finden können. Und diese “versteckte Wärme” wird, wenn Sie denn wieder auftaucht, mit voller Wucht zurückschlagen:

“Die Wärme wird wiederkommen und uns heimsuchen, früher oder später.”

“The heat will come back to haunt us sooner or later,”

Mit dieser Publikation ist Trenberth nicht der erste Klimawissenschaftler von Weltrang, der sich in einer Erklärung versucht, warum es in den letzten Jahren nicht wärmer wird. Es sind nicht fehlerhafte Modelle der Klimaforscher, sondern natürliche Phänomene, welche die Stagnation erklären. Man beachte dabei, dass eine Abkühlung, die wir uns nicht richtig erklären können, fast immer natürliche Ursachen hat. Eine Erwärmung, für die wir keine andere Erklärung haben, ist in unseren Zeiten hingegen absolut immer ein untrüglicher Hinweis für einen menschlichen Einfluss.

Klimawissenschaftler bereiten sich auf kältere Zeiten vor

So war es auch in einer weiteren aktuellen Arbeit, bei der der gefunden wurde, dass die Sonnenaktivität als eine Ursache für die kalten Winter in Europa gesehen wird, und aufgrund der momentan schwächelnden Sonne mit noch mehr Ereignissen dieser Art gerechnet werden muss (wir berichteten)  Es könnte also kalt bleiben. Als Ursache dafür werdennatürliche Schwankungen angegeben. Diese natürlichen Schwankungen, von denen bisher immer gesagt wurde, sie wären viel zu klein, um die Erwärmung der 80er und 90er zu erklären, sind jetzt in den 2000ern stark genug um den menschlichen Einfluss aufzuhalten, ja sogar umzukehren. Obwohl in der gleichen Zeit weit mehr CO2 ausgestoßen wurde als jemals zuvor und der CO2-Gehalt in der Atmosphäre in diesem Zeitraum von 365 auf 385 ppm angewachsen ist.

Die Entwicklung der Globaltemperatur seit 2002

Der erste zu sein von den etablierten Klimaforschern, der auf eine mögliche Abkühlung in den nächsten Jahren oder Jahrzehnten hingewiesen hat, diese Ehre gebührt wohl dem Kieler Klimatologen Mojib Latif. Dieser publizierte bereit im Mai 2008 eine Arbeit, in der veränderte Meeresströmungen als Ursache für die fehlende Erwärmung gesehen werden. Und langfristige Schwankungen dieser Strömungen ließen darauf schließen, dass diese Phase der Abkühlung noch 10 oder 20 Jahre andauern könne.  Latif hat damit früh erkannt, dass man auch als Warner unter den Klimaforschern auf veränderte Rahmenbedingungen reagieren muss.   Auf den Punkt brachte er dies mit einer Aussage auf der UNO-Klimakonferenz in Genf am 1. September letzten Jahres vor mehr als 1500 Top-Klimawissenschaftlern:

“Ich bin kein Klimaskeptiker, aber wir müssen die unangenehmen Fragen selbst stellen oder andere werden es tun.”

Es liegt nahe zu vermuten, dass in nächster Zeit noch mehr Publikationen auftauchen, die für die nächste Zukunft eine Abkühlung prognostizieren. Schließlich untergräbt das Festhalten daran, dass es wärmer wird, obwohl die Messdaten das schon seit langem nicht mehr zeigen, so langsam die Glaubwürdigkeit der Klimawissenschaftler.  Allen diesen Arbeiten wird vermutlich gemein sein, dass natürliche Ursachen (oder eine noch unbekannter Ursache) für die Abkühlung verantwortlich sind. Und natürlich werden die Autoren auch jedes mal aufs neue beteuern, dass die neuen Ergebnisse die bisherigen Erkenntnisse zum Menschen als globalem Klimakiller keinesfalls in Frage stellen.

Rudolf Kipp EIKE Übernommen von Climate Sceptical

Weitere Quellen:

Is There “Missing” Heat In The Climate System? My Comments On This NCAR Press Release
NCAR’s missing heat – they could not find it any-where

ÄHNLICHE BEITRÄGE (BETA):




Neue Gas-Bonanza: Förder-Durchbruch lässt Rohstoffjäger träumen!

Hamburg – Die gegenwärtige Stimmung im Gasmarkt erinnert an den Goldrausch 1897 am Klondike. Neue Trecks von Glücksrittern ziehen in die Wildnis, um nach wertvollen Rohstoffen zu suchen. Verändert hat sich die Technik: Die Goldgräber siebten mit bloßen Händen im Flusssand, die Gasgräber schwärmen mit monströsen Maschinen aus.

Das Rohstofffieber bricht mal wieder aus – diesmal global. Weltweit wollen sich Energiemultis in den Untergrund bohren, an vielen Orten beginnt noch im laufenden Jahr die Suche nach neuen milliardenschweren Gasvorkommen.

Den ganzen Text finden Sie hier bei Spiegel Online 




Verzweifelt: Wie „Top-Wissenschaftler“ versuchen das Zwei-Grad-Ziel zu rechtfertigen – und scheitern!

Der Artikel verdeutlicht das Dilemma der Klimaforschung. Es wird nicht nur real seit knapp 10 Jahren nicht mehr wärmer, auch der metaphorische Wind, der den Klimaforschern ins Gesicht weht wird immer schärfer. Denn: Wenn selbst der Spiegel in dieser Form darüber berichtet, dann ist der Hype um den Klimawandel wohl endgültig vorbei. Ein Umstand, den die etablierte Klimaclique so verständlicherweise auf keinen Fall hinnehmen will.

Deutsche Top-Wissenschaftler und Berater der Bundesregierung üben scharfe Kritik am Spiegel-Artikel

Entsprechend scharf fiel die Antwort von drei führenden Köpfen der deutschsprachigen Klima-Alarmisten-Szene aus. Die Professoren Hans-Joachim Schellnhuber vom Potsdam-Institut für Klimafolgenforschung, Claus Leggewie vom Kulturwissenschaftlichen Institut Essen und Renate Schubert vom Institut für Umweltentscheidungen der ETH Zürich sparen in einer Replik, die jetzt in der Zeit erschienen ist, nicht an deutlichen Worten. Da sollen Medien von einer „bizarren Szene der Klimaskeptiker“ durch „intellektuelle Doppelmoral“ motiviert worden sein, der „etablierten Klimaforschung Falschaussagen in der Substanz vorzuwerfen“.

Das sind harte Vorwürfe, dem auf jeden Fall eine sinnvolle wissenschaftliche Begründung folgen sollte. Wer dies jedoch erwartet hatte, der wurde enttäuscht. Aussagen finden sich reichlich, wissenschaftliche Begründungen jedoch? Fehlanzeige.

Wenig wissenschaftliches von den Wissenschaftlern

Der Artikel wirft kein gutes Licht auf den Zustand unserer Wissenschaftslandschaft, sind die Autoren doch allesamt Mitglieder im Wissenschaftlichen Beirat Globale Umweltveränderungen (WBGU), und repräsentieren somit die Elite der Forscher in Deutschland. Erste Zweifel an deren Kompetenz stellen sich jedoch schnell ein, wird doch das fast komplette Scheitern in Kopenhagen beinahe als Erfolg verkauft, schließlich habe die Weltgemeinschaft mehrheitlich das 2-Grad-Ziel anerkannt. Eine etwas eigenwillige Darstellung, während der Rest der Welt recht einhellig von einem „Scheitern von Flopenhagen“ spricht.

Mit einer Gewissheit und Präzision, die wissenschaftlich durch nichts zu rechtfertigen ist, verkünden die drei Professoren: „Die bisher von 76 Staaten gemeldeten Maßnahmenpakete lassen eine menschgemachte Erderwärmung von 3,5 Grad Celsius bis zum Jahr 2100 erwarten.“ Erklärung oder Belege? Keine. So klingen vielleicht Politiker und Umweltaktivisten, aber keine Wissenschaftler.

Und auch sonst nehmen es die Autoren mit der Wissenschaft nicht so genau. Eine in vielen Augen längst widerlegte und zumindest höchst umstrittene Arbeit, die mittlerweile als eine Art Kronzeuge für schlechte Wissensschaft in der Klimaforschung gilt, wird von ihnen nach wie vor mit Zähnen und Klauen verteidigt. Gemeint ist der legendäre Hockeystick von Michael Mann, mit dem 1998 versucht wurde, die mittelalterliche Warmzeit zu eliminieren. Für die drei Professoren nach wie vor bester Stand der Wissenschaft.

Ewiggestrige nannte man solche faktenresistenten Hardliner schon bald nach dem Ende des Sozialismus. Und so werden die Menschen in einigen Jahren ähnlich kopfschüttelnd auf die Ausführungen der letzten “redlichen“ Klimaforscher schauen, wie sie es heute bei den Reden der letzten Regierung der DDR tun. Und so wie damals der Sozialismus nicht zu retten war, weil er ein ideologisch motiviertes, unbrauchbares System darstellte, so würde heute eine Reform des IPCC nichts daran ändern, dass der gesamte von der UN gelenkte Forschungsapparat von Grund auf dafür geschaffen zu sein scheint, politisierte Pseudowissenschaft zu fördern. Eine unabhängige und unparteiische wissenschaftliche Bewertung kann ein solches Gremium schon aus Prinzip nicht leisten. Dafür sind die Abhängigkeiten einfach zu groß.

Wissenschaftliche Begründung für die 2-Grad-Marke? Fehlanzeige

Aber zurück zu den drei Professoren und der Wissenschaft. Laut Aussage im Artikel wäre die, vom Spiegel als rein politisch bezeichnete, 2-Grad-Marke schon dadurch gerechtfertigt, dass „während der gesamten Entwicklungsgeschichte des Homo sapiens niemals höhere Temperaturen als »vorindustrielles Niveau plus zwei Grad Celsius« geherrscht haben“. Auch wäre seit „10000 Jahren die globale Mitteltemperatur nahezu konstant“ geblieben.

Eine äußerst kühne Behauptung, zeigen doch die meisten Temperatur-Rekonstruktionen aus diesem Zeitraum ein ganz anderes Bild.  Demnach hat es in den letzten 10.000 Jahren ganz erhebliche Schwankungen von teilweise mehreren °C in wenigen Jahrzehnten gegeben. Erkennbar ist dies unter anderem in den Eisbohrkernen aus Grönland oder aus Isotopenmessungen in Sedimenten und Tropfsteinhöhlen. Auch die Gletscher in den Alpen zeigen den Forschern in den letzten Jahren immer deutlicher, dass deren Ausdehnung mindestens zur Hälfte dieser Zeit geringer war als heute, dass es also in diesem Zeitraum dort deutlich wärmer war, als heute.

Dass es um eine wissenschaftliche Begründung der 2-Grad-Marke nicht zum Besten steht, haben auch die drei Autoren indirekt zugegeben: „Zwei Grad und nicht mehr – diese Orientierungsmarke lässt sich auf vielfältige Weise wissenschaftlich untermauern, aber natürlich nicht letztendlich beweisen.“ Was aber bitteschön ist ein wissenschaftliches Untermauern ohne stichhaltige Beweise?

Hans Joachim Schellnhuber, der im Spiegel als einer der Väter des 2-Grad-Zieles geführt wird, wird dort ganz anders zitiert: „Bei Überschreiten der Zwei-Grad-Grenze, so verkündete der deutsche Umweltminister Norbert Röttgen (CDU) vor dem gescheiterten Kopenhagen-Gipfel, ‚wäre ein Leben auf unserem Planeten, wie wir es bisher kennen, nicht mehr möglich‘. Doch das ist wissenschaftlicher Unfug. ‚Zwei Grad sind keine magische Grenze, das ist ganz klar ein politisches Ziel‘, sagt selbst Hans Joachim Schellnhuber, Direktor des Potsdam-Instituts für Klimafolgenforschung (PIK). ‚Weder kommt es bei einer stärkeren Erwärmung sofort zum Weltuntergang, noch sind wir bei einer geringeren Erwärmung auf jeden Fall gerettet. Die Wirklichkeit ist natürlich viel komplizierter.‘“

Vor diesem Hintergrund ist das propagieren von 2 Grad als absoluter Grenze wohl höchstens besseres Raten auf höherem akademischem Niveau. Bei Maßnahmen, die nicht weniger als den vollständigen Umbau unserer technischen Zivilisation bedeuten, sollte jedoch etwas mehr erwartet werden, als das vage Bauchgefühl einiger besorgter Wissenschaftler.

Die Große Transformation

Worum es den Autoren wirklich geht, erfährt man auch im Artikel in der Zeit. Denn, so schreiben die drei, selbst wenn der Klimawandel nicht wie prophezeit stattfinden würde, wären die von der Wissenschaft vorgeschlagenen Maßnahmen trotzdem von Vorteil. Sie sprechen dabei von einem Umbau der Gesellschaft, weg von fossilen Brennstoffen, hin zu einer „nachhaltigen“ Lebensweise.

Damit schreiben sie konsequent fort, was zwei von Ihnen (Schellnhuber und Leggewie) als  die „Große Transformation“ unserer Industriegesellschaft bereits im letzten Jahr gefordert haben (der ursprüngliche Ausdruck „globale Kulturrevolution“ wurde schnell wieder verworfen, er erinnerte wohl zu stark an gescheiterte Versuche den Menschen von oben verordnete Glückseligkeit zu bescheren). Bei einer Konferenz zur großen Transformation in Essen wurde im letzten Jahr auch die Frage aufgeworfen (und nicht abschließend beantwortet), ob Demokratien überhaupt noch die richtige Regierungsform darstellen, oder ob nicht mehr autoritäre Gesellschaftssysteme „flexibler“ auf die neuen Anforderungen reagieren können. Wenn man bedenkt, dass allein 4 der 8 Mitglieder des WBGU als  Vortragende an dieser Veranstaltung teilgenommen haben, dann entsteht durchaus der Eindruck, dass diese „Große Transformation“ mittlerweile so etwas wie einen Konsens im WBGU darstellt.

Was die „Große Transformation“ in der Praxis bedeutet, kann man schon heute bei den rasant steigenden Kosten für Energie erkennen. Energieintensiven Betrieben werden so lange die Produktionskosten erhöht, bis diese vollständig ins Ausland abwandern. Diese produzieren dann eben dort die Waren für uns – falls wir sie uns dann noch leisten können. Das verbessert unsere CO2-Bilanz, indem die Emissionen an einer anderen Stelle der Welt produziert werden. Global gesehen wird jedoch kein Gramm CO2 eingespart. Lediglich die Arbeitsplätze bei uns im Land sind danach „nachhaltig“ verschwunden.

Die Damen und Herren Professoren scheinen solche Details weniger zu stören. Wer über eine Professorenstelle ein sicheres Beamtengehalt mit Pensionsberechtigung bezieht, muss sich um die wirtschaftliche Zukunft unseres Landes wohl weniger Sorgen machen, als jene, die über ihre Arbeit in den produzierenden Betrieben das Gehalt auch der Professoren mit erwirtschaften. Diese hingegen können sich ihr Auskommen offensichtlich schon durch die Produktion möglichst vieler hohler Phrasen sicherstellen.

Wenn nichts mehr hilft wird das „Vorsorgeprinzip“ bemüht

Mangels vernünftiger wissenschaftlicher Begründungen wird dann einfach das Vorsorgeprinzip zur Rechtfertigung des 2-Grad-Ziels bemüht: „Wer das Vorsorgeprinzip über Bord wirft, weil er keine absolute Problemgewissheit vorfindet, ist töricht oder verantwortungslos.“ Das klingt engagiert und besorgt zu gleich. Ganz so, wie man es eben von einem Politiker erwarten würde, nicht aber von einem Wissenschaftler. Schließlich gibt es in der Wissenschaft kein „Prinzip der Vorsorge“. Es handelt sich dabei lediglich um einen griffigen PR-Slogan. Auch wenn das Vorsorgeprinzip 1992 auf dem „Erdgipfel“ in Rio de Janeiro einstimmig angenommenen angenommen und dadurch quasi zum globalen Richtlinie für umweltpolitische Entscheidungen erhoben wurde, handelt es sich dabei vor allem um ein Werkzeug, jegliche politische Willkür im Nachhinein zu rechtfertigen.

So wichtige Entscheidungen wie die Zukunft unserer Industriegesellschaft aber sollten vor allem auf einer fundierten Risiko-Nutzen-Analyse, anstatt auf diffusen Ängsten, beruhen. Die besten und am meisten detaillierten Informationen, die wir aus hunderten von Studien von tausenden Bohrlöchern, Kilometern von Eisbohrkernen und hunderttausende Wetterballon- und Sattelitenmessungen haben, zeigen uns aber, dass das Risiko einer katastrophalen Erwärmung äußerst gering ist und dass wir nur wenig von einer Reduktion der CO2-Emissionen profitieren würden. Und selbst wenn all die Katastrophenszenarien einträfen, wäre die seit Anbeginn der Zeiten vollzogene Anpassung nicht nur weitaus wirkungsvoller, sondern auch um Größenordnungen billiger, als alle Vermeidungsstratgien der großen Transformation.

Wenn der Beitrag der drei Professoren als Widerlegung des Spiegel-Artikels „Die Wolkenschieber“ gedacht war, dann ist dies gründlich daneben gegangen. Vielleicht sollte man auch der geistigen Elite in unserem Land mal wieder erklären, dass gute Absichten und ideologische Motive kein Ersatz für eine saubere wissenschaftliche Beweisführung sind.

Ein Kommentar von Rudolf Kipp, EIKE

Links

Der Spiegel – Die Wolkenschieber

FAZ – Ein Limit von zwei Grad Erwärmung ist praktisch Unsinn

Novo Argumente – Diagnose: Klimafieber – Das “Zwei-Grad-Ziel”, dem sich die klimabesorgte Weltgemeinschaft unterzuordnen gedenkt, ist blanker Unsinn. Novo103 (11–12 2009), S. 54




Elektromobilität:Mit „nachhaltigem“ Unfug wird unserer Zukunft vernichtet: Maßlose Ressourcenverschwendung

Heutige Autos bestehen hauptsächlich aus Eisen/Stahl, Aluminium, Kunststoff, Kupfer (bis etwa 25 Kilogramm), Zink zur Stahlbeschichtung, Glas, Gummi und Gewebe für die Reifen sowie anderen Werkstoffen in kleinen Mengen. Wie Ulrich Grillo, Vorsitzender des Ausschusses Rohstoffpolitik im BDI in den VDI- Nachrichten beklagt, steuern wir auf eine Rohstofflücke zu. So steigt der Kupferanteil beim Elektroauto auf etwa 65 Kilogramm. Hinzu kommt die dafür geeignete Lithium- Ionenbatterie, die im Durchschnitt 50 Kilogramm Aluminium, 40 Kilogramm Kupfer, 10 Kilogramm Zink sowie Seltene Erden benötigen wird. Doch schon der Hybridantrieb treibt den Kupferanteil und das Wagengewicht in die Höhe. Beim milden Hybrid des Mercedes 400 sind es lediglich 75 Kilogramm, die der Basis aufgeschlagen werden müssen, bei stärkeren elektrischen Maschinen und größeren Batterien klettert das Zusatzgewicht erheblich höher und damit auch die Beanspruchung aller Bauteile. Die durch höheres Gewicht erzwungene schlechtere Beschleunigung muß durch den Elektromotor kompensiert werden. Energierückgewinn ist nur bei Verzögerung möglich. Bei konstanter Geschwindigkeit steigt dagegen der Rollwiderstand durch höheres Wagengewicht und damit der Verbrauch. „Zukunftsfähigkeit“ sieht anders aus. 

Dazu kommt, dass knapp die Hälfte der weltweit bekannten Lithiumreserven in einem bolivianischen Vorkommen liegen, zu dem China einen exklusiven Zugang anstrebt. Bei Seltenen Erden für Permanentmagnete  liegen 80 Prozent der Vorkommen auf chinesischem Boden und China strebt danach, auch die restlichen 20 Prozent zu kontrollieren, ebenso den Nickel- und Eisenerzmarkt. Der ungeheure Rohstoffbedarf Chinas habe seit 2004 den Schrottmarkt „leergesaugt“ berichtet Grillo und das würde noch schlimmer, weil China ab 2010 die Umsatzsteuer bei Einfuhr von Metallschrott erstatten wolle. Heute würden bei uns für die Metallproduktion gut 50 Prozent Schrott verwendet, bei Kupfer sind es etwa 54 Prozent. Der hohe Schrottanteil wäre wichtig, weil beim Metallrecycling gegenüber der Gewinnung aus Rohstoffen bis zu 95 Prozent der Energiekosten eingespart werden. Darum müsse Deutschland Sorge tragen, dass auch der Metallschrott in Deutschland bleibt. 

Elektroautos sollen mit „erneuerbarem“, also alternativem Strom aus Sonnendächern und Windmühlen betrieben werden. Der Energieexperte Professor Helmut Alt von der FH Aachen hat ausgerechnet, dass Benzin ohne Steueranteil rund 4 Cent pro Kilowattstunde kostet, Strom aus Sonnendächern 43 Cent und aus Windmühlen 12 Cent. „Wegen der begrenzten Stromspeicherfähigkeit heutiger Batterien müsste man im Winter auf die Autoheizung und im Sommer auf die Klimatisierung wohl komplett verzichten“ schreibt er. Wir fügen hinzu, dass der Elektromobilist möglichst auch nur am Tag fahren sollte und wenn es nicht regnet, um Strom für Licht und Scheibenwischer zu sparen. Die „Netzstützfunktionen“ durch Autobatterien nennt Alt „Spinnerei“. „Erneuerbare“ Energien (die natürlich nicht „erneuerbar“, sondern lediglich alternativ sind) und Elektroauto werden wohl für die meisten Autofahrer unbezahlbar sein“, schreibt Alt. Hinzu kommt, dass die künftigen Finanzminister mit absoluter Sicherheit dem fröhlichen Elektrotreiben nicht tatenlos zusehen werden, sondern den Strom zusätzlich mit Steuern belegen. Das Stromäquivalent von fünf Euro pro Liter Sprit wird dann ganz schnell überschritten (Alt) .

Es gibt nicht einen einzigen Grund auf den Verbrennungsmotor zu verzichten. Die Rohölreserven haben sich laut Esso von 2007 auf 2008 erneut leicht erhöht. Dabei ist das von BP entdeckte neue Erdölfeld im Golf von Mexiko und das vor Brasiliens Küste noch nicht eingerechnet. In Afrika sind gleich mehrere neue Erdölfelder entdeckt worden (FAZ vom 18.9.09.) Zudem wird der Kraftstoffverbrauch der neuen Autos weiter sinken, so dass auch der zusätzliche Bedarf von China und Indien allmählich seinen Schrecken verliert. Abgesehen davon kann der Transportsektor überhaupt nicht auf Dieselkraftstoff verzichten.  

Ist die Elektromobilität bereits eine sinnlose Ressourcenverschwendung und finanzielle Schreckensvision in der Zukunft, wird sie doch von den Windmühlen und Sonnendächern weit übertroffen. „Verdient Ihr Dach auch schon Geld?“ steht auf den Plakaten. Genau deshalb werden Solarzellen installiert, und der Stromkunde kann sich gegen die maßlose Einspeisevergütung nicht wehren. „Die Sonne schickt keine Rechnung“ heißt es. Sie nicht, aber der Stromversorger für eine Ware, die an Unzuverlässigkeit und miserablem Wirkungsgrad nicht mehr zu überbieten ist, wobei preiswerte Solarzellen zunehmend aus China kommen. Mit dem hochgelobten Wind steht es ebenso. Was wird da mit „installierten Leistungen“ geprahlt, die sich später als Windei präsentieren – und als Störfaktor. So erlebten wir in Mecklenburg im Spätsommer an einem sonnigen, aber windigen Sonntag einen Netzzusammenbruch. „Sowas haben wir hier öfter“, bemerkten Einheimische. Abgesehen davon sprechen Sonnendächer und Windmühlen jeder „Effizienz“ Hohn und sind an Ressourcenverschwendung nicht mehr zu überbieten. Da liegen und stehen zahllose Tonnen wertvoller Werkstoffe sinnlos in der Gegend herum und sind auch in der Zukunft nicht in der Lage, Kohle und Kernenergie zu ersetzen. Daß die Windenergie „grundlastfähig“ werden soll, können nur bösartige Ignoranten behaupten. Die zahllosen Solaranlagen liefern heute lediglich 0,6 Prozent des deutschen Strombedarfs, beim Wind sind es trotz einer „installierten“ Leistung von insgesamt 22.755 Megawatt auch nur 6,3 Prozent. Dabei müssen die Investitionskosten für Wind und Sonne verdoppelt werden, weil für die gleiche Leistung Kohle-, Gasturbinen- und Kernkraftwerke für die Regelenergie sorgen müssen. Wenn kein Wind, dann auch kein Strom – und nachts sind alle Sonnendächer tot. Rosige Aussichten also für die russischen Gaslieferanten!

Aufmerksame Beobachter werden übrigens feststellen, dass bereits die ersten Windmühlen- „Leichen“ in der Gegend stehen und sich selbst bei idealem Wind nicht mehr bewegen. Ihre Zahl wird zunehmen, weil die mit meist weit überzogenen Versprechungen geköderten Investoren entweder kein Geld mehr haben oder die Lust an den teuren Spielzeugen verloren. Sollte in unsere Regierung jemals wieder Realitätsbewusstsein einziehen gibt es nur einen Weg, nämlich das „Erneuerbare Energien Gesetz“ auslaufen zu lassen und die Technik künftig nicht mehr zu bevormunden. Im Gegensatz zu den Politikern wissen die Ingenieure genau was machbar ist und sich auch verkaufen lässt. So ist seit 1970 der spezifische Energieverbrauch – Energieverbrauch je Einheit des Bruttosozialprodukts – in Deutschland um über 50 Prozent gesunken. Dieser Prozess geht unablässig weiter.

Längst überfällig ist der Abbau des unsinnigen Subventionsberges, der auf jährlich rund 150 Milliarden Euro geschätzt wird. Damit könnten die öffentlichen Kassen in kurzer Zeit saniert werden. Aber da die durch Sachkenntnisse unbelasteten, ideologisch motivierten Politiker durch einen dichten Ring aus lieben Parteifreunden, Schmarotzern, Beratern und anderen Hyänen von der Realität abgeschirmt werden, die ausschließlich am Geld des Steuerzahlers interessiert sind, wird sich auch künftig an diesem „System“ nichts ändern. Wen interessiert schon das dumme Volk, das für immer höhere Belastungen keinen Gegenwert erhält?

FAZ Autor  Christian Bartsch für EIKE




Das Temperaturdilemma!

Was bedeutet überhaupt angepasst? Nun das GHCN (Global Historical Climate Network) nennt dies homogenisieren und versteht darunter Messfehler, Ortsveränderungen der Messstationen etc. zu entfernen. Hierzu werden die nächsten fünf Stationen ausgewählt, wenn sie we-nigstens eine 20 Jahre lange übereinstimmende Messreihe haben und wenn die Korrelation zwischen beiden 0.8 oder größer ist. Dies klingt sehr vernünftig, scheint aber in der Praxis anders gehandhabt zu werden. Einige Beispiele sollen dies illustrieren. 
1. Darwin zero (Australien) von Willis Eschenbach.


 
Die blaue Kurve beinhaltet die gemessenen Werte, während die rote aus der Homogenisierung folgt. Aus einer Abnahme von 0.7°C wurde ein Anstieg von 1,2°C pro Jahrhundert gemacht. Die nächste Station, die die obigen Kriterien erfüllt ist aber 500km entfernt. Eschenbach, der dies herausfand, spekulierte, dass dies ein Einzelfall sein könnte. Hier ist die ganze Story
http://wattsupwiththat.com/2009/12/08/the-smoking-gun-at-darwin-zero/:
Es gibt aber offensichtlich mehr Einzelfälle. 
Zum Beispiel Neuseeland. Die folgende Graphik stellt den angepassten Temperaturverlauf dar, welcher einen deutlichen Anstieg besitzt. 

 
 
Die ganze Dramatik verschwindet allerdings, wenn man sich die gemessenen Werte ansieht. 


Quelle: http://wattsupwiththat.com/2009/11/25/uh-oh-raw-data-in-new-zealand-tells-a-different-story-than-the-official-one/
 
Dies hat mich veranlasst selber die GHCN-Daten näher zu betrachten. 
Die folgende Graphik zeigt die gemessene und die korrigierte Kurve für Orenburg (früher Russland) im Juni. Die Stadt hat ihre Einwohner zwischen 1930 und 1960 verdoppelt und hat heute über eine halbe Million Bewohner. Laut Goggle befindet sich die Station jetzt 10km vom Zentrum entfernt. Dies lässt den Anstieg von 1.58°C durch den Wärmeinseleffekt wahrscheinlich sein. 

 
Die nächsten Stationen befinden sich in Aktjubinsk und in Uralsk und sind 212km bzw. 269km entfernt. Da nach dem Verfahren des GHCN der starke Anstieg eine Folge der Tempe-raturkorrektur mit den, zwar ziemlich weit entfernten, nächsten Stationen ist, ist in den fol-genden zwei Graphiken die jeweilige Temperaturdifferenz aufgetragen. Ein ausgemachter Aufwärtstrend ist aus keiner der beiden Darstellungen zu entnehmen. Woher die zusätzlichen 2.72°C bei dem Anstieg kommen, bleibt zumindest fraglich. 
 
 
Orenburg besitzt aber eine viel längere Temperaturreihe, die eine noch merkwürdigere Korrektur aufweist, wie die nächste Graphik zeigt. 
 
 
Wie man sich einen 70jährigen konstanten Temperaturabzug von 1.6°C erklären kann, bleibt wohl ein Geheimnis vom GHCN. Sieht man sich weitere korrigierte Reihen an, so lässt sich ein Trend erkennen. 

Dass die Anpassung vom GISS in die gleiche Richtung verläuft wundert niemand ernsthaft. 
 
 
Auch für diese Station sieht die Differenz der Temperaturen merkwürdig aus.
 
 
 
Allen ist aber gemeinsam, dass die Temperatur in der Vergangenheit nach unten in der jüngeren Zeit nach oben angepasst wird. Naiv würde man in Folge der Urbanisierung eher das Gegenteil erwarten. Der Verdacht, dass hier ein Trend hineinkorrigiert wurde, ist nicht von der Hand zu weisen. Dies wird auch durch die merkwürdige Selektion der Messstationen untermauert. 


 
 
Immer weniger statt mehr Stationen werden zur Bestimmung der globalen Temperatur ausgewählt, was besonders für die ländlichen gilt. 
Die Landfläche der Erde beträgt 148.490.000km2. Verteilen wir die derzeit (2008) noch verbliebenen rund 2.000 Stationen gleichmäßig, dann bestimmt jede Station die Temperatur für ein Gebiet von rund 75.000km2, was etwas größer als die zweifache Fläche von Baden-Württemberg ist. Mit anderen Worten ein Thermometer soll die Temperatur in BW und, sagen wir, im angrenzenden Hessen widerspiegeln. Die mittlere Jahrestemperatur beträgt z.B. in Freiburg 10.4°C, während der Feldberg nur 3.3°C aufweist. Welche Temperatur gilt nun für BW und Hessen? Da die Stationen in Wirklichkeit aber sehr inhomogen verteilt sind, gibt es für die größten Teile der Erdoberfläche gar keine belastbaren Aussagen. Diese Asymmetrie wird noch verstärkt, wenn man die Verteilung der verbliebenen Stationen betrachtet. 
 
 
Sie stehen überwiegend im dicht besiedelten Europa, an der chinesischen Ostküste und in den USA. In Sibirien gibt es Gebiete von der Größe Deutschlands, wo keine einzige Station zu finden ist. Dass dies nicht ohne Auswirkung auf die globale Temperatur ist, folgert unmittel-bar aus der nächsten Abbildung, die die Temperaturtrends für unterschiedlich stark bewohnte 


 
Gebiete Kaliforniens zeigen. Es gibt den erwarteten positiven Zusammenhang zwischen Urbanisierung und Temperaturänderung. Das GHCN muss eine negative Korrelation zwischen beiden Grüßen gefunden haben, die es aber bisher weder publiziert noch begründet hat. 
Kürzlich wurde eine Studie im „Geophysical Research Letters“ publiziert. Die Autoren kamen zu dem Ergebnis:
“After examining climate data extending back nearly 100 years, a team of Government scientists has concluded that there has been no significant change in average temperatures or rainfall in the United States over that entire period.”  (Hervorhebung durch mich)
Dr. Hansen, einer der führenden Klimahysteriker, sagte dazu:
“he had ”no quarrel” with the findings in the new study. He noted that the United States cov-ered only 1.5 percent of Earth. ”If you have only one degree warming on a global average, how much do you get at random” when taking measurements in such a relatively small area, he asked rhetorically.
Quelle: http://wattsupwiththat.com/2010/03/01/flashback-u-s-data-since-1895-fail-to-show-warming-trend/#more-16839
Wenn schon die USA mit der noch vorhandenen größten Anzahl von Stationen nicht aussagekräftig ist, woher kennt Herr Hansen dann eigentlich die globale Temperatur? Außerdem dürfte Herrn Hansen bekannt sein, dass selbst die amerikanischen Stationen überwiegend falsch messen, wie bei surfacestation.org nachgelesen werden kann. Hier nur die Graphik dazu. Bisher wurden knapp 82% aller amerikanischen Stationen untersucht. Gerade einmal 10% der Stationen haben einen tolerablen Fehler. Alle anderen messen zu hohe Temperaturen.  Da die „Welttemperatur“ durch die Dominanz der amerikanischen Stationen wesentlich geprägt wird, kommen Zweifel auf. 
 
 
Worin besteht aber nun das Dilemma? Das Dilemma besteht darin, dass offensichtlich nicht nur die Proxydaten manipuliert worden sind, sondern auch die schon fehlerbehafteten Messreihen und zwar so, dass im Mittel ein Temperaturanstieg im 20. Jahrhundert herauskommt. Es ist somit auf der einen Seite überhaupt nicht mehr klar, ob es eine mittlere globale Temperaturänderung gab und wenn ja in welche Richtung. Es scheint somit momentan nicht möglich zu sein eine Theorie zur Klimaentwicklung experimentell zu überprüfen und sie entweder zu verifizieren oder zu falsifizieren. Die Datenfälscher haben der Menschheit und der Klimaforschung einen Bärendienst erwiesen und sollten u. a. dafür belangt werden.  
Auf der anderen Seite zeichnete sich das 20. Jahrhundert durch eine besonders aktive Sonne aus. Dies müsste gemäß dem Inhalt der zwei Reporte „Klima, Sonnenflecken und kosmische Strahlung“ mit einem Temperaturanstieg verbunden sein, welcher durch ein Absinken in diesem Jahrhundert in Folge einer Ruhephase der Sonnenaktivität fortgesetzt werden sollte. In der nächsten Graphik ist die Stärke des interplanetaren Magnetfeldes (IMF) abgebildet. Man erkennt eine relativ ruhige Phase in den 70ger Jahren, zu der Zeit wurde der Kältekollaps pro-phezeit („Die Abkühlung hat schon hunderttausende Menschen getötet. Wenn sie weiter voranschreitet und keine Maßnahmen ergriffen werden, wird sie weltweite Hungernöte, weltweites Chaos und Weltkrieg hervorrufen und das kann alles noch vor dem Jahr 2000 eintreffen“, sagte zum Beispiel Lowell Ponte 1976 in „The Cooling“), und dann einen starken Anstieg, der mit einer Temperaturerhöhung verbunden war. 

Da das interplanetare Magnetfeld derzeit so niedrige Werte hat, wie sie noch nie gemessen worden sind, müsste es kälter werden. Ob dies global so gilt, ist aus dem obigen Grund nicht sicher. Zumindest stehen die reduzierte Sonnenaktivität und der Rekord bei der Schneebede-ckungder Nordhalbkugel nicht  im Widerspruch zu einander.   

 
 
          Rutgers University Global Snow Lab
2001-2010 was the Snowiest Decade on Record
Dies trifft aber nicht für die Vorhersagen der Klimamodelle zu, die eine Abnahme der Schneefälle prophezeiten oder für den englischen Wetterdienst (Met office), der basierend auf Modellrechnungen mit 80%er Wahrscheinlichkeit einen milden Winter prognostizierte. Die Realität hielt sich aber nicht daran. Es war der kälteste Winter seit mehr als 30 Jahren.

Dipl. Physiker Dr. Bernd Hüttner für EIKE

Die pdf Version finden Sie im Anhang

Related Files




Solarstrom-Förderung kostet Stromkunden 3 Mrd. Euro* im Jahr!

Hierbei geht es schlichtweg um den Schutz der Verbraucher vor einer nicht gerechtfertigten Belastung. Und das bedeutet nur eine eher bescheidene Dämpfung des zukünftigen Fördergeldanstiegs in Höhe von etwa 0,5 Mrd. Euro im Jahr. Die Belastung der Stromkunden wird auch nach dieser Maßnahme weiter stark ansteigen,“ so die VIK-Geschäftsführerin, Dr. Annette Loske. Lediglich neu hinzukommende Anlagen sollen nach den jetzigen Plänen geringere Vergütungen erhalten. Für sie sollen eindeutige Überförderungen verhindert werden. Für die bis dahin errichteten Anlagen wird der Verbraucher dagegen die mehr als lukrativen Vergütungen über einen Zeitraum von 20 Jahren weiter finanzieren müssen.

Abbildung: Vergleich der Gestehungskosten pro kWh für verschiedene Energieträger. Die Kosten für Solar- und Windstrom enthalten nicht die zwangsläufig entstehenden Kosten zum Betrieb der zwingend erforderlichen Gas-Pufferkraftwerke, die die unstetige Anleiferung in Sekundenschnelle ausgleichen müssen. 

Aufgrund der überhöhten Förderraten wachsen die Solarfelder und -dächer aktuell schneller als jeder Zielkorridor der Bundesregierung es je vorsah – um 60 Prozent allein im Jahr 2009. Den Betreibern bescheren sie überhöhte risikolose Gewinne zu Lasten der Stromkunden. Der drastische Mengenanstieg führt unausweichlich zu einer weiter deutlichen Steigerung der für 20 Jahre fixen Fördergeldzahlungen. Diese wird über die Stromrechnungen von den Kunden bezahlt.

„Ohne Kosteneffizienz im EEG entwickeln wir keinen Energiemix, der für den Industriestandort Deutschland tragfähig ist. In den parlamentarischen Beratungen dürfen die geplanten, moderaten Absenkungen nicht weiter entschärft werden. Eigentlich müssten viel mutigere Schritte ergriffen werden, um die Kosten für die Verbraucher nicht noch stärker explodieren zu lassen“, so Dr. Loske weiter. Der VIK hofft, dass Umweltminister Röttgen den Weg der Effizienzprüfung im EEG weiterhin konsequent geht. Nur so kann ein wirklich gangbarer Weg in ein regeneratives Zeitalter gestaltet werden.

Pressemitteilung des VIK vom 19.4.10

* Abschätzung: 3 Mrd. = 30 Euro/MWh x 400 TWh (Gesamtstrombedarf ohne EEG-Härtefälle x 25 Prozent Solaranteil

 

Der VIK ist seit 60 Jahren die Interessenvertretung von energieintensiven Unternehmen aller Branchen, wie etwa Aluminium, Chemie, Glas, Papier, Stahl oder Zement. Er berät seine Mitglieder in allen Energie- und energierelevanten Umweltfragen. Im VIK haben sich 80 Prozent des industriellen Energieeinsatzes und rund 90 Prozent der versorgerunabhängigen Stromerzeugung in Deutschland zusammen geschlossen.

Rückfragen erbeten an

Roland Schmied, VIK-Pressesprecher

Tel. 0201 / 8 10 84-15, Mobil 0171 / 38 35 297 oder  Fax -715

r.schmied@vik.de

 

Die VIK-Pressemitteilungen finden Sie auch unter www.vik.de, Stichwort Pressemitteilungen.



Oxburghs Trick beim Verstecken des Tricks!

Dieser  Oxburgh-Bericht besteht aus fadenscheinigen und beschämenden 5 Seiten.

Sie haben mich nicht interviewed, (so viel ich weiß, auch keinen weiteren CRU-Kritiker oder Zielpersonen). Der Ausschuss war am 22. März angekündigt worden und sein "Report" ist auf den 12. April datiert – drei Wochen durchgehend – weniger Zeit als der Parlamentsausschuss sich genommen hatte. Es gab keine Beweisaufnahme. Sie beziehen sich auf 11 CRU-Papiere, fünf über die Baumringe, sechs über CRUTEM. Bezeichnenderweise fehlen in ihren "Stichpro ben" die 1000jährigen [Temperatur-] Rekonstruktionen: Jones et al. 1998, Mann and Jones 2003, Jones and Mann 2004, usw.

Sie haben sich im Besonderen nicht weder mit einem der Vorfälle von willkürlichen [Temperatur-] Anpassungen ("Pfuschereien") beschäftigt, noch haben sie darüber berichtet, auch nicht über die einseitige Auswahl und das Löschen von widersprüchlichen Daten, noch haben sie meine Eingaben an das "Science and Technology Committee" und an das "Muir Russell Committee" erwähnt. Darüber werde ich später berichten, weil für deren Bearbeitung noch ein wenig Zeit nötig ist. Zunächst aber zu Oxburghs Trick beim Verstecken des "Tricks".

Schon lange vor Climategate wussten die Leser von Climate Audit, dass man auf die Erbse unter dem Hütchen aufpassen muss, wenn man es mit dem [CRU-]Team zu tun hat. Das gilt auch für Oxburgh von Globe International. [http://www.globeinternational.org/]

Oxburgh von Globe International geht auf den "Trick … zum Verstecken der Abnahme" in wolkigen Ausdrücken wie folgt ein:

Die CRU – Veröffentlichungen betonen wiederholt die Diskrepanz zwischen gemessenen und den auf Baumringdaten beruhenden Stellvertreter-Temperaturrekonstruktionen während des ausgehenden 20. Jh., aber die Darstellungen dieser Arbeit durch das IPCC und Andere haben es manchmal versäumt, darauf besonders hinzuweisen. Während wir dies für bedauerlich halten, sehen wir dieses Versäumnis nicht in den fachbegutachteten Papieren, die wir geprüft haben.

Ohne den berüchtigten "Trick … zum Verstecken der Abnahme" besonders zu erwähnen, tut Oxburgh den "Trick" als "bedauerliche Nachlässigkeit" des IPCC und Anderer ab.

Doch man passe [wie beim Hütchenspiel] auf die Erbse unter Oxburghs Hütchen auf!

Der Oxburgh-Bericht hat leider nicht auf die Tatsache hingewiesen, dass die CRU-Wissenschaftler Briffa und Jones zusammen mit Michael Mann die verantwortlichen Autoren für die "bedauerliche Nachlässigkeit" im Dritten Auswertebericht [IPPC TAR] waren. Leider wurde auch nicht erwähnt, dass der CRU-Wissenschaftler Briffa der verantwortliche IPCC-Autor für den entsprechenden Abschnitt im AR4 war.

Oxburgh gibt vor, dass der Fehler beim "IPCC und Anderen" gelegen hätte, aber das ist selbst ein Trick. Das CRU war bis unter die Halskrause in die entsprechenden IPCC-Darstellungen verstrickt, welche es "bedauerlicherweise vernachlässigt" hätten, die widersprüchlichen Messdaten in ihren Grafiken zu zeigen.

Es ist auch unwahr, dass die CRU-Autoren in ihrer Eigenschaft als IPCC-Autoren es "bedauerlicherweise verabsäumten" die abweichenden Messdaten in den IPCC-Grafiken zu zeigen. Die Klimagate-Emails zeigen, dass sie dies absichtlich taten – man schaue sich zum Beispiel "IPCC and the Trick" an [http://climateaudit.org/2009/12/10/ipcc-and-the-trick/], woraus sich ergibt, dass die CRU-Wissenschaftler sich bewusst waren, dass die Abnahme bei den Temperaturmessdaten die "Botschaft verwässern" würde, welche das IPCC aussenden wollte. Die hier schon vielmals herangezogene entsprechende IPCC-Darstellung sandte eine falsche Botschaft über den Wahrheitsgehalt der Stellvertreter-Temperaturrekonstruktionen.

Climate Audit – Leser wissen auch sehr wohl, dass das IPCC und Briffa kategorisch von einem AR4 Gutachter (von McIntyre nämlich) gebeten worden waren, die abweichenden Daten zu veröffentlichen. Briffa vom CRU weigerte sich und sagte, dass es "unangemessen" wäre, diese Daten zu bringen. Das war eine vorsätzliche Entscheidung in bezug auf den AR4, trotz der betonten Kritik.

Zugegeben, die "Abnahme" war in der "fachbegutachteten Literatur" veröffentlicht worden. Deswegen bin ich [McIntyre] ja erst auf den Trick gekommen – und lange vor Klimagate hatte ich als AR4-Fachgutachter das IPCC aufgefordert, den Trick nicht noch einmal im AR4 anzuwenden.

IPCC Darstellungen sind die Sprache, mit der die Wissenschaftler die Welt informieren. Klimatologen, die CRU-Wissenschaftler eingeschlossen, haben eine weit größere Verpflichtung für vollständige und wahre Veröffentlichungen in IPCC-Berichten als in der Spezialliteratur. Oxburgh gibt vor, dass (die teilweise) Veröffentlichung von abweichenden Ergebnissen durch das CRU in der Spezialliteratur genüge. Das genügt nicht. Es gab eine fortwährende Verpflichtung auf Veröffentlichung abweichender Forschungsergebnisse in den IPCC-Grafiken.

Die CRU-Wissenschaftler handelten als IPCC-Autoren. Die Beschwerden über den Trick entstanden um die Frage, auf welche Art und Weise CRU-Wissenschaftler ihre Pflicht als IPCC-Autoren erfüllten.

In dieser Hinsicht ist der Oxburgh-Bericht ein dürftiger Taschenspielertrick, mit dem die Öffentlichkeit glauben gemacht werden soll, dass der "Trick" nur "bedauerliche Nachlässigkeit" von Seiten des "IPCC und Anderen" gewesen wäre, der nichts mit dem CRU zu tun hätte. Mit anderen Worten, Oxburgh trickst selbst, um den "Trick" zu verstecken.

Wer einmal trickst … !

———————–

Nachtrag: Der Daily Telegraph schreibt:

Professor Hand sagte ausdrücklich, dass "unangemessene Methoden" von einer anderen Universität benutzt worden wären, um die berüchtigte "Hockeyschlägerkurve" zu zeichnen, welche den Anstieg der globalen Temperatur im Verlauf von mehr als 1.000 Jahren darstellte.

Wie bitte? Notiz an Oxburgh: Das CRU hat zum Beispiel in: Jones et al. 1998 und Mann and Jones 2003, seine eigene Hockeyschlägerkurve produziert. Aus irgendeinem Grund haben Oxburgh und sein Mitarbeiterstab es bedauerlicherweise verabsäumt, diese Artikel zu berücksichtigen.

Hier weitere Details:

* His name is Lord Oxburgh and, as Bishop Hill reports, he is:

  • President of the Carbon Capture and Storage Association
  • Chairman of wind energy firm Falck Renewables
  • A member of the Green Fiscal Commission