1

Ernst-Georg Beck widerlegt den menschengemachten Klimawandel! Eine Würdigung seiner wissenschaftlichen Arbeit !

Um nicht nur die Umwelt sondern gleich auch den ganzen Planeten zu retten, müssten die In­dustriestaaten kollabieren und das sollte erreicht werden, indem man uns glauben machen wollte, dass das von uns Menschen und unserer Industrie erzeugte CO2 die Erde erwärmt und für uns unbewohnbar macht. Dieses Konzept wurde – und wird – mit Hilfe der Medien welt­weit so gekonnt vermarktet, dass schon große Teile der Bevölkerung mit quasi-religiösem Eifer daran glauben, obwohl inzwischen bewiesen ist, dass dieser Glauben nur aus der grö­ßenwahnsinnigen Idee von selbsternannten Welt-Errettern hervorgegangen ist und mit der Realität nichts zu tun hat. Aber bekanntlich ist nichts schwerer, als Lügen zu widerlegen, an die Menschen glauben wollen. Ernst-Georg Beck hat für die Gegenbeweise einen entschei­denden Beitrag erarbeitet.

Der Gehalt des Klimagases CO2 in der Atmosphäre ist für die Verfechter des menschenge­machten Klimawandels der ausschlaggebende Faktor. Er ist im letzten Jahrhundert von ca., 280 ppm auf jetzt 380 ppm gestiegen, nimmt gegenwärtig noch zu und wird sich nach Prog­nosen des IPCC in der Zukunft explosionsartig vergrößern: Wenn wir unsere CO2-Produktion nicht massiv verringern, werden die Temperaturen auf der Erde irreversibel ansteigen und unsere Existenz gefährden.  Dass wir diese Zunahme der CO2-Konzentration verursachen, be­gründet der IPCC damit, dass sich die relativ niedrige Konzentration vorher zumindest wäh­rend der letzten zwei Jahrtausende nicht verändert hat, wie das die folgende Grafik darstellt. Die dort dargestellten CO2-Gehalte wurden mit indirekten Bestimmungen nach der von Keeling 1958 eingeführten Methode ermittelt.

Diese CO2-Gehalte widersprechen früheren Untersuchungsergebnissen, die man mit direkten chemischen Analysen erhielt. Seit 1810 ist die chemische Analytik dazu in der Lage. Der IPCC hat diese Ergebnisse nicht berücksichtigt.  Statt dessen hat er bestimmt, dass nur den indirekten Untersuchungsergebnissen nach Keeling zu vertrauen sei.

Der IPCC scheint nicht zu realisieren, dass mit dem Aussondern von Ergebnissen direkter chemischer Analysenwerte die Zuverlässigkeit der gesamten chemischen Analytik in Frage gestellt wird – und Jaworowski hat vollkommen recht, wenn er dies als „den größten wis­senschaftlichen Skandal unserer Zeit bezeichnet“ [1].

Wie alles in der Natur unterliegt auch die atmosphärische CO2-Konzentration ständigen Schwankungen, wie dies die folgende Grafik aus [2] für die letzten 450 Tausend Jahre zeigt.

Und bei der Betrachtung des längeren Zeitraumes von 600 Millionen Jahren erkennt man in der nächsten Grafik aus [2], dass der CO2-Gehalt in der geologischen Gegenwart sogar kleiner ist als er es früher je war. Als die Gletscher während einer Eiszeit am weitesten nach Süden reichten, nämlich bis zum 38. Breitengrad,  war er mit ca. 1000 ppm fast drei mal so groß wie heute.

 

Dass der CO-Gehalt sich lang- und kurzperiodisch ändert, zeigt beispielsweise die wechsel­volle Geschichte des Kaspischen Meeres, hier dargestellt für die letzten 5 Millionen Jahr [3]. Die sich wiederholenden Änderungen seiner Wassertiefe und damit seiner Ausdehnung zei­gen Klimaänderungen im Einzugsgebiet an, die die Abflussmengen  der Zuflüsse änderten. Mit dem Wechsel von nassen und trockenen Perioden änderten sich auch die Pflanzenpro­duktionen und die jeweils dazugehörigen CO2-Haushalte.

Dies passiert auch jedes Jahr, wenn in den gemäßigten Breiten in den Vegetationsperioden CO aus der Atmosphäre entnommen wird, um im Winter mit der Zersetzung der Blätter wie­der in die Atmosphäre zurück zu kehren. Da die Landfläche der Nordhalbkugel und folglich deren Anteil an den Gemäßigten Breiten größer ist, überwiegt der Einfluss der Nordhalbku­gel.

Auf den noch viel wichtigeren von den Temperaturunterschieden gesteuerten CO2-Austausch zwischen der Atmosphäre und den Meeren kann in diesem Rahmen nicht eingegangen wer­den, aber natürlich ist er gigantisch, und bedacht werden muss, dass der Gastausch zwischen beiden wegen der Trägheit der Meere langsam vor sich geht.

Schon einfache biologische und physikalische Überlegungen zeigen also, dass die Annahme eines über 2000 Jahre gleich bleibenden CO2-Gehaltes falsch ist. Auf den ersten Blick muss es deshalb erstaunen, dass der IPCC diesen Komplex nicht gründlicher behandelt hat, denn wenn die chemisch direkt bestimmen CO2-Gehalte sich so deutlich von den indirekt be­stimmten unterscheiden, wäre selbstverständlich auch die Keeling-Methode kritisch zu über­prüfen. In Anbetracht des Untersuchungszieles des IPCC ist seine Präferenz für die Keeling-Werte allerdings nicht überraschend sondern war vielmehr zwangsläufig: Nur wenn man für eine lange Zeit einen ungefähr gleichbleibend niedrigen CO2-Gehalt annimmt, kann man die höhere Konzentration von heute uns Menschen und unserer Industrie anlasten. Insofern ist die unzutreffende Annahme von einem über 2000 Jahre gleichbleibenden CO2-Gehalt die grund­legende Voraussetzung für das Konzept des menschengemachten Klimawandels.

Ernst-Georg Beck hat diese Voraussetzung widerlegt, indem er die chemisch direkt bestimm­ten Analysenwerte sorgfältig ausgewertet hat. Dazu hat er in ca. 180 alten Arbeiten weit über 90.000 chemisch direkt bestimmte CO2-Gehalte der Luft ausgewertet [4].  Aus der vor kurzem ergänzten Arbeit werden hier 3 Diagramme (mit ihren Beschriftungen) zitiert. Hier werden nur die dort darge­stellten CO2-Konzentrationen kommentiert. Sie stammen von mehreren Autoren und zeigen übereinstimmend sehr große CO2-Gehalte für die Zeit um 1820 und um 1940.

 

In Anbetracht der hohen Qualität der Arbeit von Ernst-Georg Beck und der Vielzahl der von ihm berücksichtigten Quellen, also namhaften Institutionen und kompetenten Chemikern, verbietet es sich, die grundsätzliche Richtigkeit seiner Ergebnisse anzuzweifeln. In Überein­stimmung mit einfachen biologischen und physikalischen Überlegungen und geologischen Fakten folgt daraus zwangsläufig, dass auch im 19. Jahrhundert, also in der vorindustriellen Zeit und bei noch wesentlich geringerer Bevölkerungsdichte, die atmosphärischen CO2-Gehalte schon höher waren als sie es gegenwärtig sind. Im Vergleich zu den sehr viel höheren CO2-Gehalten in den meisten geologischen Epochen ist das keine Besonderheit. Das Hauptargu­ment der Klimawandel-Verfechter ist damit widerlegt.

Prof. Dr. Friedrich-Karl Ewert EIKE

Literatur

[1]       Jawarowski Z.: CO2: The greatest scientific scandal of our time. EIR-Science, P. 38-52, 10 Figures, 3/2007

[2]      Ulrich Berner und HansJörg Streif (Hrsg.):  Klimafakten. Der Rückblick – ein Schlüs-  

           sel für die Zukunft. BGR, GGA, NLfB, E. Schweizerbart’sche Verlagsbuchhandlung,  

           4. Auflage, 2004

[3]       Kroonenberg S: Der lange Zyklus. Die Erde in 10000Jahren. 256 S., 86 Abb. Primus-Verlag Darmstadt

 [4]      Beck H.-G.: 180 years of atmospheric CO2-Gas analysis by chemical methods. Energy and Envi­ronment, Volume 18, 2/2007, P. 258-282, 14 Figures, 3 Tables

Related Files




Die Moritat von der „ungelösten Endlagerfrage“! Nicht der Atommüll, sondern die grüne Anti-Atomkraftideologie leidet unter einem Endlagerungsproblem

Die krankhafte Aufrechterhaltung des Gründungsmythos als „Anti-Atomkraft-Bewegung“ ist allerdings im Internet-Zeitalter der einfach und frei zugänglichen Informationen ein gewagtes Unterfangen. Machen wir uns deshalb die Mühe, uns etwas näher mit dem „Entstehen des Atommülls“ auseinanderzusetzen. Aufklärung ist immer noch die beste Methode dem „Hexenwahn“ und anderen Geschichten der Finsternis entgegen zu leuchten. 

Nähern wir uns der Frage zuerst physikalisch: Die gute alte Physik hat schon andere herrschende Ideologien zum Einsturz gebracht. Sie machte einst die Erde zu einer Kugel und ließ diese um die Sonne kreisen. Beides mit enormen Konsequenzen für das Denken und die Entwicklung der Menschheit. So wie die Erkenntnis, dass ein Atom, welches ein Neutron einfängt, in einen hoch angeregten Zustand versetzt wird, der es entweder spaltet oder ein neues instabiles Element bildet. Bei der Spaltung wandelt sich ein Teil seiner Masse in eine gewaltige Menge Energie. So gewaltig, dass wenn man ein einziges Gramm spaltet etwa gleich viel Energie entsteht, wie bei der Verbrennung von 3 Tonnen Kohle oder 13 barrel Öl (über 2000 Liter). Für die hiesigen Betrachtungen ist nur wichtig, dass durch die Spaltung auch nur ein Gramm Atommüll entstanden ist. Wie viel Müll bei der Verbrennung von drei Tonnen Kohle entsteht, mag sich jeder selbst ausrechnen. Wegen dieser Einzigartigkeit der Kernspaltung, ist es überhaupt möglich, dass ein Atom-U-Boot mehr als 33 Jahre mit einer Brennstoffladung beständig durch die Weltmeere fahren kann und dabei den Lebensraum (einschließlich Atemluft und Trinkwasser) für hunderte von Matrosen schafft. Hier bietet sich bereits ein weiterer Anhaltspunkt für die „Gefährlichkeit“ des Atommülls: Die Menschen leben für Monate in unmittelbarer Nähe zu ihrem Reaktor und das für viele Dienstjahre ihres Lebens ohne nachweisbare Schäden. Warum ist das möglich? Nun, niemand isst Atommüll. Dieser bleibt sicher eingeschlossen und durch mehrere Barrieren von den Menschen getrennt. Ionisierende Strahlung ist technisch einfach und in beliebig geringen Dosen zu messen. Nachweisgrenzen oder das vorab wissen müssen, was man überhaupt sucht um das richtige Analyseverfahren anwenden zu können, sind bei der Radioaktivität nicht nötig. Außerdem ist radioaktive Strahlung biologisch nicht annähernd so wirksam, wie viele Menschen befürchten. Radioaktivität ist überall in der Natur vorhanden. Könnten Lebewesen nicht damit umgehen, gäbe es weder Tiere noch Menschen. Entscheidend ist – wie bei allen Giften – die Dosis. Es gibt allerdings einen entscheidenden Unterschied für die biologische Wirksamkeit: Ob man neben einer Strahlungsquelle steht (geringe „Krebsgefahr“) oder ob man radioaktive Stoffe in seinen Körper aufnimmt (Nahrung, Trinkwasser oder Atemluft). Plutonium kann man problemlos in die Hand nehmen, da die alpha-Strahlung nicht einmal die menschliche Haut durchdringt; man sollte es aber tunlichst nicht essen, da es als Schwermetall bereits ein Knochengift (chemische Wirkung) ist und bei seinem radioaktiven Zerfall auch noch „Krebs“ auslösen kann. Hiermit sind wir bei der nächsten Forderung: Man sollte radioaktive Stoffe sicher von der Umwelt isolieren, damit sie nicht in die Nahrungskette gelangen oder noch besser: Beseitigen. Doch dazu später. Zuerst noch ein paar Worte zu der Geschichte der Kerntechnik.

Die Geschichte der Kerntechnik ist leider untrennbar mit der Atombombe verbunden. Nicht auszudenken, welchen Verlauf sie genommen hätte, wenn sie nicht in den 1930er Jahren — mitten im fürchterlichsten Krieg der Menschheitsgeschichte — entdeckt worden wäre. Aus Angst vor dem Gegner stand die militärische Nutzung im Vordergrund. Man wollte möglichst schnell eine Bombe bauen. Dafür gab es und gibt es zwei Wege: Eine Uran-Bombe oder eine Plutonium-Bombe. Für den zweiten Weg musste ein chemisches Verfahren her, mit dem sich möglichst reines Plutonium 239 von dem Uran und den Spaltprodukten abtrennen ließ. Das PUREX-Verfahren (Plutonium Uranium Extraction) war geboren. Es ging nur darum, waffengrädiges Plutonium zu gewinnen. Alles andere war in diesem Sinne Abfall. Wegen der Waffengrädigkeit gab es nur eine geringe Spaltstoffkonzentration und praktisch keine Aktinoiden (Atome mit noch mehr Neutronen als Pu239). Dies sind gänzlich andere Bedingungen als bei „Atommüll“ aus einem Kraftwerk. Bis zum heutigen Tage hat man dieses Verfahren – wenn auch teilweise modifiziert – beibehalten. Dies mag auch damit zusammenhängen, dass (bisher) alle Nationen mit Wiederaufbereitungsanlagen auch Kernwaffenstaaten sind. Mit anderen Worten: Wirtschaftlichkeit unter besonderen Randbedingungen. Ähnliches gilt für den Druckwasserreaktor: Er ist eigentlich kein besonders glückliches Modell, um elektrischen Strom in einem Kraftwerk herzustellen, aber das geeignetste Schiffsantrieb (Atom-U-Boot). Entsprechend sind überall auf der Welt konzentriert Mittel für Forschung und Entwicklung in dieses Modell geflossen. Mit dem Ergebnis, dass er heute den Markt für zivile Kraftwerke dominiert. Durch das Trauma der Irankrise stoppte Jimmy Carter (selbst mit kerntechnischer Ausbildung) die zivile Wiederaufbereitung in den USA. Da die USA über gewaltige preiswerte Uranvorkommen verfügen, wollte er durch eine langfristige „Zwischenlagerung“ abgebrannter Brennelemente eine Weiterverbreitung der Wiederaufbereitungstechnologie eindämmen. Ein — wie wir heute wissen — zum Scheitern verurteilter Weg.

Seit dem Ende des zweiten Weltkrieges gab es unzählige Konzepte für eine (rein) friedliche Nutzung der Kernkraft. Bereits in den 1950er Jahren baute man Prototypen von Kraftwerken, die das Uran besser nutzen sollten, weniger (langlebigen) Atommüll produzierten oder Thorium verwendeten. Stichworte hierfür sind Reaktoren mit schnellen Neutronen mit Natrium oder Blei/Wismuth als Kühlmittel und Hochtemperaturreaktoren mit Thorium als Brennstoff und Helium als Kühlmittel. Noch weiter ging der Schritt, Brennstoff und Kühlmittel miteinander als geschmolzene Salzlösung zu kombinieren. Bis heute verfolgt Russland beharrlich das Konzept einer „Atomwirtschaft“ aus drei Reaktortypen: Die Grundlast soll mit natriumgekühlten „schnellen Brütern“ erzeugt werden, Leichtwasserreaktoren heutiger Bauart als „Arbeitspferde“ dienen und deren „Atommüll“ in einigen wenigen Salzbadreaktoren „verbrannt“ werden. Worin bestehen nun die Unterschiede im Atommüll solcher (fortschrittlichen) Konzepte?

Hier kommt die Lebensdauer ins Spiel. Wäre der „Atommüll“ innerhalb von — sagen wir 300 Jahren — vollständig verschwunden, würde die Diskussion sicherlich zu einer gänzlich anderen Bewertung führen. Als Totschlagargument gegen die Kerntechnik dient die Gefahr für Jahrmillionen. Diese besteht aber nur, wenn man so langlebige Isotope, wie Plutonium und die  sog. „Minoren Aktinoiden“ weiter bestehen lässt. Genau dies fordern aber nur die Deutschen Grünen! Machen wir uns nichts vor, selbst wenn heute weltweit mit der Nutzung der Kernenergie (Brückentechnologie!) Schluss gemacht würde, würden einige tausend Tonnen Plutonium und Aktinoiden — nicht zuletzt aus der Rüstung — verbleiben. Diese sollen nach den Wünschen von Trittin und Co aus rein ideologischen Gründen einfach verbuddelt werden. Wahrscheinlich als Dünger für die Verwirklichung des Sozialismus. Diese Forderung von „Atomkraftgegnern“ kann man nur als pervers bezeichnen. Es soll eine vermeidbare Gefahr aus einer verquasten Ideologie heraus erhalten werden, um Argumente für die Durchsetzung unsinniger Investitionen in Wind und Sonne rechtfertigen zu können. Warum ist die Rückkehr zu einer Wiederaufbereitung — als erster Schritt zur Beseitigung — zwingend notwendig? Wenn ein Brennelement den Reaktor verlässt, besteht es immer noch zu rund 95% aus Uran. Ein Recycling vermindert die weiterhin zu „bewachende“ Menge auf weniger als 5%. Ein bereits nicht als gering zu schätzender Vorteil. Trennt man nicht nur das Plutonium, sondern auch die Aktinoiden ab, verbleiben die Spaltprodukte, die nach etwa 400 Jahren vollständig verschwunden sind. Plutonium wird bereits heute weltweit in konventionellen Reaktoren als Brennstoff wirtschaftlich eingesetzt. Das eigentliche Problem stellen die „Minoren Aktiniden“ dar, sie lassen sich aber in Reaktoren mit schnellem Neutronenspektrum „mit verbrennen“.

Noch einmal zur Klarstellung, um ein oft gehegtes Missverständnis zu vermeiden: Eine Wiederaufbereitung ist ein rein chemisches Verfahren, bei dem weder Radioaktivität erzeugt noch vernichtet wird. Die Radioaktivität ist am Ende des Prozesses gleich groß, wie am Anfang (abgesehen von einigen Zerfällen während des Prozesses). Jede Wiederaufbereitung dient nur zur (möglichst guten) Trennung in verschiedene Fraktionen. Die größte Fraktion ( 95% Uran) stellt das Uran dar. Da es in seiner Zusammensetzung etwa dem Natururan entspricht, ist es — vom Standpunkt der Radioaktivität betrachtet — völlig harmlos. Jeder, der beispielsweise schon mal mit einem Jumbo geflogen ist, war von mehreren Kilogramm Uran in Form von Ausgleichsgewichten etc. für Stunden umgeben. Ohne ideologische Begleitung wird hierbei offensichtlich ein „Krebsrisiko“ akzeptiert, was für 95% eines abgebrannten Brennelements plötzlich zur „Gefahr für die Menschheit“ hoch stilisiert wird. Kommen wir nun zu den rund 3% Spaltprodukten. Wenn sich Uranatome zerlegen, entsteht praktisch das gesamte Periodensystem chemischer Elemente. Die neu entstandenen Elemente sind überwiegend radioaktiv und zerfallen in bekannten Ketten weiter, bis ein stabiler Zustand erreicht wird. Als Maßstab für die Lebensdauer verwendet man die Halbwertszeit. Das ist die gemessene Zeitdauer, nach der genau noch die Hälfte der ursprünglichen Stoffmenge vorhanden ist. Dieser Zerfall ist übrigens durch nichts zu beschleunigen oder zu verlangsamen. Es hat sich eingebürgert, die zehnfache Halbwertszeit als die Zeitdauer anzusetzen, nach der der Stoff (praktisch, d. h. bis auf weniger als ein Promille) verschwunden ist. In diesem Zeitraum ist eine sichere Lagerung erforderlich. Ob es sinnvoll ist, die Spaltprodukte in Salzstöcke zu verbuddeln, dazu später. An dieser Stelle ist fest zu halten, dass die Spaltprodukte kein Problem für geologische Zeiträume, sondern allenfalls wenige Jahrhunderte  darstellen. Ein Zeitraum, der sonst — es sei hier nur auf „chemische Gifte“ und deren Deponien verwiesen — gesellschaftlich locker akzeptiert wird.

Kommen wir nun zum „Endlagerproblem“. Lediglich die Stoffe, die sich durch das (wiederholte) Einfangen eines Neutrons ohne Spaltung gebildet haben, ergeben wegen ihrer langen Halbwertzeit ein „Problem für die Menschheit“. Dies fängt beim Plutonium an und setzt sich über die Gruppe der „Minoren Aktinoiden“ fort. Es war immer geplant, das eine Prozent Plutonium aus den „abgebrannten“ Brennstäben zu extrahieren und im Kraftwerk wieder als Brennstoff zu verwenden. So kann aus etwa sieben abgebrannten Brennstäben ein neuer (sog. Mischoxid) hergestellt werden. Nebenbei gesagt, eine Technologie die in Deutschland entwickelt und zur Anwendung gebracht wurde. Durch die Hysterie von Rot/Grün („Plutoniumfabrik“ in Hanau) ist dieser Vorteil verspielt worden, wird dafür aber überall in der Welt dankend weiterverwendet. Neuerdings auch großtechnisch in Japan. Ein Anhaltspunkt, wie groß der technische Fortschritt in Deutschland auf diesem Gebiet einmal war, bis der „Taxifahrer“ Joseph Fischer seinen Hass auf das System als Umweltminister in Hessen auszuleben begann. Das war die Geburtsstunde der „Endlagerproblematik“, die dann von Müller/Trittin/Schröder/Fischer mit der Neufassung des „Atomgesetzes“ und dem darin enthaltenen Verbot der Wiederaufbereitung und der „Konditionierung der Brennelemente“ in Gorleben und deren Endlagerung vollendet wurde. Man kann es sehen, wie man es sehen möchte, als Plan zur Deindustriealisierung Deutschlands oder als Vorbereitung der persönlichen Lebensplanung: Müller anschließend im Kohlengeschäft, Schröder und Fischer im internationalen Gashandel.

Von der gesamten „Endlagerproblematik“ bleiben bisher nur die „Minoren Aktinoide“, die sich im Bereich einiger Promille des abgebrannten Brennstoffes bewegen, übrig. Bisher wurden diese international wegen ihrer geringen Menge nicht als Problem betrachtet. In Frankreich z. B. sollen sie zusammen mit den Spaltprodukten in Glas eingeschmolzen und langfristig gelagert werden. Sie lassen sich nur recht aufwendig mit dem PUREX-Verfahren abtrennen. Allerdings war ein solcher zusätzlicher Verfahrensschritt bei der Wiederaufbereitungsanlage in Wackersdorf bereits in der technischen Planung. Der Baustopp der Anlage Wackersdorf war übrigens das erste Bubenstück des Herrn Müller, welches ihn anscheinend zum Minister — parteilos — unter Schröder qualifizierte. Gleichwohl, hat man die Aktinoiden erst mal chemisch aus der Suppe der Spaltprodukte abgetrennt, ist ihre Beseitigung — unter Energiegewinnung — nur eine Frage „überschüssiger“ Neutronen. Egal ob man diese aus „schnellen“ Reaktoren (international favorisierte Lösung), Spallationsquellen (Deutschland) oder Laser-Fusion (USA) bezieht. Alle Verfahren funktionieren und sind bereits erprobt, aber mehr oder weniger kostenintensiv. Bezüglich der Kosten hat aber in den letzten Jahren grundsätzlich eine Verschiebung stattgefunden: Kerntechnik ist nicht mehr in Konkurrenz zu billigem Öl und Kohle, sondern als Alternative zu den exorbitant hohen Kosten der „erneuerbaren“ Energien zu bewerten. Sollte tatsächlich die Versorgung durch Wind und Sonnenenergie die neue Vergleichsbasis werden, wird schlagartig das „Jahrtausend der sauberen Kernenergie“ ausbrechen. Im Moment spricht vieles dafür. Asien (China, Japan, Südkorea und Indien) setzen bereits voll auf diese Karte. China sieht Kerntechnik als die kommende Schlüsseltechnologie an und will auf diesem Gebiet Weltmarktführer werden. Die USA entwickeln gerade fieberhaft eine Antwort auf diese Herausforderung. Nur Deutschland setzt tapfer auf „Plastikflügel auf Stahlmasten“. Wer das verstehen will, sollte sich mal in die Archive begeben und die Flugblätter der „Anti-Atomkraft-Bewegung“ noch einmal lesen. Dort wurde die Nutzung von Wind und Sonne nie als „High-Tech“ verkauft, sondern stets als „Angepaßte Technologie“ bezeichnet. Sie sollte gerade ein Gegenmodell zur Industriegesellschaft bilden. Sozusagen mit dem Windrad auf dem Biobauernhof in die schöne neue Welt des Sozialismus. Überspitzt könnte man auch sagen: Kampuchea light.

Abschließend stellt sich die Frage, ob „Atommüll“ überhaupt Müll ist. Spaltprodukte sind genauso Abfall, wie eine Plastiktüte oder sonstiger Schrott. Sie enthalten jede Menge wertvoller Rohstoffe. Es gibt bereits in Indien ein kommerzielles Projekt, was sich mit der Extraktion von Rhodium beschäftigt. Man ist dort der Meinung, dass allein der Gehalt an Rhodium und Palladium (beides wichtige Ausgangsmaterialien für Katalysatoren) im „Atommüll der Welt“ zu heutigen Preisen bereits mehrere hundert Milliarden Dollar beträgt. Indien ist mit diesen Gedanken nicht allein. Wir erinnern uns, die Aktivität nimmt mit der Zeit exponentiell ab. Der erste Atommüll aus den frühen Atombombenprogrammen ist schon über 60 Jahre alt, d. h. bereits stark abgeklungen. Je geringer die Aktivität, je einfacher und damit billiger ist er technisch handhabbar. Deshalb gibt es in keinem Land der Welt — mit der einzigen Ausnahme Deutschland — mehr das Konzept einer Endlagerung. Überall geht man heute von einer zwar langfristigen aber stets rückholbaren Lagerung aus. Ob dies oberirdisch (USA), in Kammern im Granitfels (Finnland) oder unterirdisch in Ton (Schweiz) erfolgt, ist nahezu Geschmackssache. Technisch hat alles seine Vor- und Nachteile. Der Atommüll ist eine der seltenen Ausnahmen, wo das spielen auf Zeit durchaus wirtschaftlich ist. Je länger man mit dem Recycling wartet, desto einfacher ist die Handhabung. Die Lagerkosten sind wegen der geringen Mengen zu vernachlässigen. Wir erinnern uns: 1 g Uran setzt soviel Energie frei, wie 3.000.000 g Kohle. Die Lagerkosten spielen bezogen auf seinen Wert eine geringere Rolle als bei Gold.

Nun noch ein paar Worte zu den „Endlagern“. In jedem Land wurde nach den „besten“ unter den „möglichen“ Standorten gesucht. Kleine Länder haben deshalb nur eingeschränkte Auswahlmöglichkeiten. Wenn man einen Stoff, den man als gefährlich ansieht, über sehr lange Zeiträume von „menschlichen Aktivitäten“ fern halten will, muss man unter den geeigneten Formationen die auswählen, die am wenigsten wert ist. Es macht wenig Sinn, den Atommüll in Gebiete zu verbuddeln, von denen man weiß, dass sie wertvolle Rohstoffe enthalten. In Deutschland ist dieser Stoff Salz. Das ist der Grund, warum man hier Salz als „Mülldeponie“ — auch für sonstige gefährliche chemische Stoffe — verwendet und nicht z. B. alte Kohlegruben. Insofern ist die Suche nach „alternativen Standorten“ ein äußerst fadenscheiniges Argument. In Frankreich und der Schweiz will man Tonschichten verwenden und in Schweden und Finnland Granit. Das sind die dort „minderwertigsten“ geologischen Vorkommen. Ebenso ist jedem Fachkundigen, der Zustand der alten, außer Betrieb genommenen Salzbergwerke Asse und Morsleben (dort ruht der „Atommüll“ der DDR, der wegen des richtigen Klassenstandpunktes natürlich völlig ungefährlich ist) bekannt gewesen. Ganz einfach und deutlich gesagt: Es war immer klar, dass in beide Bergwerke innerhalb kürzester Zeit Wasser eindringt. Es war deshalb — jedenfalls im Falle Asse und Schacht Konrad — immer nur die Grundlage aller Untersuchungen und Berechnungen, mit welcher Geschwindigkeit und in welchem Zeitraum aufgelöster „Atommüll“ wieder in biologisch genutzte Bereiche gelangt! Es kann immer nur um Wahrscheinlichkeiten gehen. Endlösungen gibt es nur in der Vorstellungswelt von Deutschlehrern und Sozialwirten.

Nach der Bestandsaufnahme stellt sich nun die Frage, in welche Richtung die weitere Reise gehen sollte. Der wichtigste Schritt ist, endlich Schluss mit der Realitätsverweigerung zu machen: Es gibt bereits heute „Atommüll“ und es wird auch auf jeden Fall weiterhin welcher produziert werden — unabhängig von Kernkraftwerken. Es sei denn, man will auch aus der Nuklearmedizin und Werkstofftechnik aussteigen. Das wäre allerdings das endgültige Bekenntnis zum Modell Kampuchea! Darauf ist immer wieder klar und deutlich in der Öffentlichkeit hinzuweisen. Wer das „Risiko Strahlung“ ausschalten will, muß auch die Verantwortung für die daraus resultierenden Konsequenzen (z. B. Verzicht auf Nuklearmedizin) übernehmen. Es ist jedem Menschen freigestellt, sich einer „Strahlenterapie“ z. B. bei Krebs zu verweigern. Wenn man sich aber zu einer Nutzung der „Strahlung“ entscheidet, muss man sich auch der Verantwortung des „Müllproblems“ stellen. Dies ist nicht anders, als bei einem Sonnenkollektor. Wer sich ein solches Gerät zur persönlichen Gewinnerzielung auf das Dach stellt, muss auch die Verantwortung für die Gifte bei Produktion und Beseitigung übernehmen. Die Vorstellung von einer Welt, in der es nur Vorteile oder nur Nachteile gibt, sollte sich mit dem „erwachsen werden“ erledigt haben.

Hat man die Realität zur Kenntnis genommen, geht es darum „mögliche“ Lösungen vorurteilsfrei zu diskutieren. Die Betonung liegt dabei auf „Möglichkeiten zu schaffen“. „Endlösungen“ gibt es nur in sozialistischen Weltvorstellungen. Auf die „Atommüllfrage“ übertragen heißt das: Wiederverwendung bzw. Beseitigung (Plutonium etc.) muss vor Deponierung gehen. Technische Lagerung ist einem vermeintlich kostengünstigem „verbuddeln“ vorzuziehen. Spätestens nach der Erfahrung mit der Asse und Morsleben sollte dies jedem bewusst geworden sein. Es muss endlich wieder dem Begriff der „Wirtschaftlichkeit“ Geltung verschafft werden. Ist es wirklich sinnvoll, weitere Milliarden in den politischen „Zankapfel Gorleben“ zu versenken? Technisch ist das nicht notwendig. Diverse Alternativen einer langfristigen und sicheren Lagerung stehen bereit. Aus dem sehr standfesten und trockenem Schacht Konrad könnte beispielsweise mit weit aus geringerem Aufwand ein „rückholbares“ Lager nach skandinavischem Vorbild gemacht werden. Es wäre hierzu eine rein politische Entscheidung notwendig. Deutschland muss sich wieder auf die internationale Bühne der kerntechnischen Forschung und Entwicklung begeben. Man würde uns mit offenen Armen empfangen! Allerdings kann nur Deutschland selbst, das finstere Rot/Grüne-Zeitalter der totalen Verweigerung beenden. Die Aufgabe der Politik ist es „Möglichkeiten zu schaffen“ und nicht die Welt mit ideologischen „Glaubensbekenntnissen“ und „endgültigen Lösungen“ zu fesseln. Sollten wir wirklich nichts aus unserer jüngeren Geschichte gelernt haben?

Gastkommentar Klaus-Dieter Humpich erschienen zuerst bei Denken für die Freiheit




Was sind Temperaturmessungen auf Großflughäfen wert oder, wie das ZDF mit (bewusst?) falschen Temperaturaussagen die Öffentlichkeit täuscht und die Abkühlung in Deutschland verschleiert

Teil 2

2 .  Was sind Temperaturmessungen auf Großflughäfen wert oder, wie das ZDF mit (bewusst?) falschen Temperaturaussagen die Öffentlichkeit täuscht und die Abkühlung in Deutschland verschleiert

 Wie im Teil 1 beschrieben, ist der Wärmeinseleffekt keine konstante Größe einer Station, sondern er steigt fast immer schleichend an. Er ist außerdem abhängig vom Breitengrad und nimmt vom Äquator nach Norden hin zu. Auch ist es beim Wärmeinseleffekt nicht notwendig, dass Messstationen zunehmend in die Stadt verlegt werden (Abbildung 13, Teil 1), die Stadt kommt vielmehr zur Messstation durch die ständige Ausbreitung der Bebauung. Der WI beeinflusst die Temperaturmesswerte deutlich, sowohl der städtischen, als auch der ländlichen Stationen, wenn z.B. eine Landschaftsveränderung stattgefunden hat, wie am Beispiel des Rheingrabens gezeigt. Wie möchten Ihnen hier weitere Beispiele zeigen, die in Temperaturzeitreihen signifikant eingehen und zwar global derzeit mit bereits 41%, den Flughäfen.

Nicht nur Gebäude, sondern Straßen, Beleuchtungen, Heizungen, Kraftwerke, Industrie- und Gewerbegebiete breiten sich täglich aus. Laut Angaben des Statistischen Bundesamtes betrug der Flächenverbrauch in Deutschland zwischen 2005 und 2008 im Durchschnitt 104 ha pro Tag. Wie nicht verwundern kann, ist er direkt abhängig vom Wirtschaftswachstum und damit der Investitionsbereitschaft der Wirtschaft, sowie der, mit dem Wirtschaftswachstum verbundenen Kaufkraft der Bevölkerung, wie die Abbildung 1 zeigt. Bei jedem neuen Bauwerk ist zwangsweise die Natur auf dem Rückzug. Und der WI nimmt zu, weil weiträumige Wärmeinseln neu geschaffen werden (Akkumulation).

Abbildung 1, Quelle statistisches Bundesamt

Der Wärmeinseleffekt stellt eine nach oben abweichende Änderung oder auch Kontaminierung der Messdaten für die Klimaerwärmung dar. Er wirkt der globalen Abkühlung seit 10 Jahren entgegen. Trotz des Wärmeinseleffektes haben sich die Temperaturen in Deutschland in den letzten 9 Jahren um 0,7 Grad abgekühlt und die Abkühlung hält weiter an. Dies geht eindeutig aus den Zahlen des DWD (Abbildungen 21, Teil 1 und Abbildung 3, Teil 2), hervor. Die tatsächliche Abkühlung des Klimas wäre ohne den WI noch ausgeprägter.

Aufgabe des DWD wäre nun, den WI seiner Messstationen zu ermitteln und statistische Temperatur-Zeitreihen entsprechend zu homogenisieren, damit für die Entscheidungsträger in Politik, Wirtschaft und Gesellschaft ein realitätsnahes Bild der klimatologischen Temperaturentwicklung entsteht. Anhand unserer Auswertung von 130 DWD-Wetterstationen schneidet der DWD insgesamt bei der Stationsgüte mit 40% nicht- oder nur bedingt geeigneter Wetterstationen etwas besser ab, als seine Kollegen in den USA, wie am Anfang unseres Berichts geschildert. Den „Vogel“ bei den Temperaturaussagen, wie es im Volksmund heißt, „schießt“ jedoch immer wieder das ZDF ab und dort insbesondere die Meteorologin Frau Inge Niedek.

Temperaturmessstationen auf Großflughäfen

Frau Niedek berichtete Anfang Juni diesen Jahres einer erstaunten Öffentlichkeit, dass der Mai 2010 in Deutschland insgesamt zu warm gewesen war und zwar 0,5°C über dem Durchschnitt der Jahre 1961 – 1990 lag. Wir erinnern uns noch, dass im Mai noch voll geheizt werden musste, siehe Abbildung 2.

 

Abbildung 2, Quelle: BDEW (Bundesverband der Energie- und Wasserwirtschaft), zeigt die Gradtagzahl* in Deutschland. Den Durchschnitt für 2009 und 2010 (bis 08/10) zum langjährigen Mittel. Dessen Zeitraum von 1961 – 1991 orientiert sich exakt am sog. klimatologischen Referenzzeitraum. Deutlich ist zu sehen, dass im Mai erheblich mehr geheizt wurde, als in den Vergleichszeiträumen.

* Die Gradtagzahl ist ein Maß für den Wärmebedarf eines Gebäudes während der Heizperiode. Sie stellt den Zusammenhang zwischen Raumtemperatur und der Außenlufttemperatur für die Heiztage eines Bemessungszeitraums dar und ist somit ein Hilfsmittel zur Bestimmung der Heizkosten und des Heizstoffbedarfs.

So verwundert es denn nicht, dass der DWD ein deutlich anderes Bild der Maitemperaturen 2010 zeichnet, als das ZDF (Abbildung 3).

undefined

Abbildung 3 zeigt die Temperaturentwicklung über die Monate für 2010 im Vergleich zu 2009 und dem Dekadendurchschnitt. Ausgewertet wurden 41 ausgesuchte DWD Wetterstationen, Quelle: BDEW, “Energieverbrauch in Deutschland, Daten für das 1. Halbjahr 2010“. Die Temperatur im Mai lag im Mittel ca. 3°C unter „normal“!!! Dies allein zeigt schon, wie die Bevölkerung durch tendenziöse Berichterstattung im ZDF getäuscht wird. Aber es kommt noch schlimmer.

Da die einem Millionenpublikum vermittelte Aussage von Frau Niedek erklärungsbedürftig ist, fragten wir (Kowatsch) per Mail nach und bekamen von Frau Niedek als Antwort, dass als Grundlage für ihre Aussage, die DWD-Wetterstation auf dem Frankfurter Flughafen herangezogen wurde. Die Abbildung 16 (Teil 1, Stuttgart Flughafen) zeigt bereits die Eignung oder besser gesagt, die Nichteignung von Wetterstationen auf Flughäfen, aber wir wollten es genauer wissen. Einen ersten Eindruck vermitteln die beiden Photos in der Abbildung 4.

Wir möchten Ihnen die Einschätzung des DWD zu der Wetterstation in Frankfurt nicht vorenthalten. Herr Müller-Westermeier schrieb am 01. Juni 2010: “Natürlich ist es in Frankfurt wegen seiner günstigen Lage wärmer als im Mittel von Deutschland. In diesem Jahr war es in  Frankfurt auch 0,5 Grad wärmer als im Vergleichszeitraum, weil der Wärmeüberschuss im Süden und Westen Deutschlands höher war als im Landesdurchschnitt. Mit einem Wärmeinseleffekt hat das aber alles nicht zu tun, denn der aktuelle Wert und der Bezugswert stammen von der Station am Flughafen weitab von irgendwelchen Wärmeinseln.“

Der DWD hat nicht nur eine atemberaubende Erklärung (für erhöhte Temperaturen) hinsichtlich “Wärmeüberschuss im Süden“ (welcher Überschuss das wohl sein mag?*), er geht auch davon aus, dass sich die Station fernab von “irgendwelchen Wärmeinseln“ befindet. Nun, wir hegen die Hoffnung, dass der DWD nach studieren der folgenden Zeilen seine Einschätzung ggf. ändern wird.

* Auf Anfrage antwortete der DWD, dass die drei Frühlingsmonate in 2010 im Norden kälter gewesen sind, im Süden hingegen wärmer als im Vergleichszeitraum 1961 – 1990. Da dies für die bereits erwähnte Ostalbwetterwarte unzutreffend ist, wurde die Aussage anschließend vom DWD relativiert. Zitat vom Leiter der Ostalbwetterwarte: "Zusammenfassend kann man sagen: Das vergangene Frühjahr war im Ostalbkreis ein bisschen kühler als im langjährigen Mittel, deutlich kühler als im Mittel der zurückliegenden 16 Jahre und genau so warm oder kalt wie vor 150 Jahren". Und damit so kalt wie am Ende der “Kleinen Eiszeit“, der kältesten Epoche seit 2.000 Jahren! Dies passt so gar nicht ins Bild einer laufenden anthropogenen Klimaerwärmung, die von den Klimaalarmisten in diversen Veröffentlichungen medienwirksam angeprangert wird. Aber vermutlich kennt die Natur diese Veröffentlichungen nicht.

undefined

Abbildung 4 zeigt die Wetterstation auf dem Frankfurter Flughafen. Sie liegt nicht nur sehr nah am Rollfeld (ca. 70m), sondern in direkter Richtung zu den Abgasstrahlen der Jets, wie in der rechten Abbildung zu sehen. Das Bild erinnert frappierend an die Zustände auf dem Flughafen Rom, wie von unserem hochgeschätzten Kollegen, Anthony Watts gezeigt wird (http://wattsupwiththat.com/2009/03/28/how-not-to-measure-temperature-part-86-when-in-rome-dont-do-as-the-romans-do/).

undefined

Abbildung 5 zeigt die Wetterstation auf dem Flughafen von Rom und braucht nicht kommentiert zu werden! Aber auch hierzu ist eine Steigerung möglich. Schauen wir uns daher die Satellitenaufnahmen an, die Google-Maps für Rhein-Main zur Verfügung stellt.

undefined

Abbildung 6 zeigt in starker Vergrößerung die DWD-Wetterstation auf dem Frankfurter Flughafen. Rechts recht gut am Schattenwurf zu erkennen.

  undefined

Abbildung 7 gibt den Überblick, wo sich die Wetterstation auf dem Flughafengelände befindet (roter Pfeil). Sie liegt exakt zwischen beiden Start- und Landebahnen und ist dem gesamten Verkehrsaufkommen (außer Startbahn West) unmittelbar ausgesetzt, d.h. wird von allen Abgasstrahlen der Verkehrsflugzeuge unmittelbar beeinflusst. Dabei lässt sich folgende Korrelation ableiten: Je höher das Flugaufkommen, umso höher die gemessenen Temperaturen der Wetterstation! Wieso dass? Ganz einfach, die erwärmten Luftschichten werden nicht zwischen zweit Starts oder Landungen ausgetauscht und die Erwärmung beginnt von neuem, sondern bei 120 Flugbewegungen/Stunde und der in Deutschland vorherrschenden Flaute (gemittelt über das Jahr, siehe als Anhaltspunkt die geringe Auslastung der Windanlagen in Deutschland von nur ca. 15%), bleibt ein Anteil an Erwärmung, weil die Luft nicht schnell genug ausgetauscht wird.

Wie auf der Abbildung weiter zu sehen, liegt die Wetterstation darüber hinaus direkt neben der 10-spurigen, vielbefahrenen E451, wie die Abbildung 8 zeigt. Jetzt ist es uns nicht mehr verwunderlich, wieso Frau Inge Niedek anhand der Daten dieser Wetterstation zu ihrer auf den ersten Blick recht sonderbaren Aussage gelangt. Aber selbst von dieser Feststellung aus, ist noch eine Steigerung möglich.

undefined

Abbildung 8, Momentaufnahme der 10-spurigen E 451, unmittelbar neben der Wetterstation auf dem Frankfurter Flughafen.

Diese Steigerung gründet sich auf dem in der Luftfahrt gefürchteten Wirbelschleppeneffekt. Diese werden an den Tragflächenenden von Flugzeugen infolge des unterschiedlichen Drucks an Flügelunter- und Flügeloberkante erzeugt. Die Höhe der Druckdifferenz hängt von der Flugzeugeigengeschwindigkeit, dem Tragflächenprofil und dem Anstellwinkel ab. Die Stärke der Wirbel vom Flugzeuggewicht. Wirbelschleppen bestehen aus entgegengesetzt rotierenden Luftmassen. Sie dehnen sich rückwärts und nach unten(!) aus. Wirbelschleppen können für nachfolgende Luftfahrzeuge sehr gefährlich sein, da sie die sonst laminare Strömung extrem stören und es so zu einem Strömungsabriss kommen kann. Aus diesem Grund müssen nachfolgende Flugzeuge einen Abstand zum voraus fliegenden Flugzeug auf gleicher Höhe von 5 – 12 km halten. Am Beispiel des neuesten Flugzeugs der Airbus-Familie, dem A 380, die geltenden Bestimmungen:

A380 gefolgt von Flugzeug der Gewichtsklasse "schwer" = +2 nm zusätzlich zum geltenden ICAO Abstand (6 nm gesamte Distanz)

  • A380 gefolgt von Flugzeug der Gewichtsklasse "mittel" = +3 nm zusätzlich zum geltenden ICAO Abstand (8 nm gesamte Distanz)
  • A380 gefolgt von Flugzeug der Gewichtsklasse "leicht" = +4 nm zusätzlich zum geltenden ICAO Abstand (10 nm gesamte Distanz)

nm = nautische Meile

undefined

Abbildung 9 (Quelle: http://www.muk.uni-hannover.de/forschung/allgemein/forschung/unfaelle.htm) zeigt schematisch den Einzugsbereich und die Ausbreitung von Wirbelschleppen. Gut erkennbar, dass die heißen Abgase in die Wirbelschleppe mit einbezogen werden, anschließend verwirbelt und damit über ein großes Areal verteilt werden.

undefined

Abbildung 10 zeigt die Luftverwirbelung und deren Verteilung bei einem kleineren, startenden Verkehrsflugzeug.

undefined

Die Bilderserie in Abbildung 11 zeigt die sichtbar gemachte und sich ausbreitende Wirbelschleppe eines anfliegenden Großraumflugzeuges (Boeing 747).

undefined

Abbildung 12, Quelle: NASA, zeigt am Beispiel eines Kleinflugzeugs recht anschaulich, wie solche Wirbelschleppen die Luftschichten hinter sich regelrecht durchquirlen. Bringen wir diese Erkenntnis in Relation zu Abbildung 7, so ist festzuhalten, dass mit jedem startenden oder landenden Flugzeug die Wetterstation regelrecht mit Heißluft aus den Abgasen der Verkehrsflugzeugen beaufschlagt wird. Dies gilt i.ü. grundsätzlich für alle Großflughäfen, wie noch gezeigt werden wird.

Selbst bei angenommener homogener Verteilung der Abgaswärme (ohne Wirbelschleppeneffekt) über das Flughafenareal (Raumvolumen), ergibt sich ein WI von 0,6°C, wie bei EIKE (Herr Prof. Lüdecke) ermittelt wurde. Für die Überschlagsbetrachtung dienten folgende Daten:

 

Arealfläche 1940 ha

Flugbewegungen 120/h

dabei je Anzahl der Triebwerke (gemittelt: 2,5 – 3)

Mantelstromtriebwerk Rolls-Royce Trent xxx (Rolls Royce-Trend-Familie)

Schub: zertifiziert bis zu 250 – 360 kN (80.000 lbf)

Einlass-Massenstrom: 800 – 1200 kg/s

Durchmesser Auslass: ca. 2 m

Austrittstemperatur ca. 300 – 700°C (je Last, 600°C typisch im Flugverkehr)

 

Überschlagsrechnung:

 

Flugplatzfläche = 5 qkm = 5*10^6 m2

Angenommene max. Starthöhe beim Verlassen des Volumens: 200 m

Startzeit: 100 s

Eintrag an erhitzter Luft

durch die Turbinen:  1000 kg/s * 100 s = 10^5 kg = 10^5 m3 Luft auf 600 °C.

 

Durch (stationäre) Vermischung gilt die einfache Beziehung für die Mischtemperatur T mit einer Lufttemperatur von angenommenen 20 °C:

 

(10^8 – 10^5)*20 + 10^5*600 = 10^8*T,  woraus T = 20,6 °C folgt.

Ergebnis: Auch ohne den Wirbelschleppeneffekt und anderer Faktoren, wie geänderter Messzeiten, welche zu deutlichen Temperaturerhöhungen führen, beträgt die Erwärmung der Messstation Frankfurt im Strahle der heißen Abgase bereits 0,6 C.

 

Dass die Verteilung nicht homogen ist und der Wirbelschleppeneffekt mit einbezogen werden muss, wird recht gut in der Abbildung 13 sichtbar.

undefined

Abbildung 13 zeigt die Luftverwirbelung und deren Ausbreitung bei einer anfliegenden Boeing 777.

Wie groß der Einzugsbereich und die Breite von Wirbelschleppen sind, zeigt Abbildung 14.

undefined

Abbildung 14 zeigt Wirbelschleppenschäden im Stadtgebiet Raunheim, Quelle: (http://www.bi-fluglaerm-raunheim.de/wirbelschleppen.htm) und die kleine Abbildung dessen Lage (A) zum Flughafen Frankfurt.

Fazit

Es ist somit festzustellen, dass die Temperaturmessstation auf dem Flughafen Frankfurt für die Aufzeichnung von Temperaturzeitreihen oder sonstige Vergleichsaussagen gänzlich ungeeignet ist. Anhand der dortigen Daten hat denn Frau Inge Niedek nichts anderes herausgefunden, als dass sich das Flugaufkommen in den letzten Jahren erhöht hat, was für sich grundsätzlich auch richtig ist. Ob für diese Feststellung jedoch eine teure Messstation notwendig ist, darf bezweifelt werden. In Relation zur Temperaturaussage des DWD in Abbildung 3, die sich auf den Daten von 41 DWD-Stationen stützt, hat das ZDF somit sein eigenes Wetter.

Erschwerend kommt hinzu, dass die Wetterstation auf dem Flughafen Frankfurt erst seit ca. 15 Jahren besteht. Sie kann demnach nicht die heutigen Werte mit denen von z.B. 50 oder 100 Jahren vergleichen. Womit vergleicht nun Frau Niedek mit ihren Aussagen die heutigen Werte? Mit dem Deutschlandmittel der Jahre 1961 – 1990. Jedenfalls widersprach sie trotz wiederholten Anfragen dieser Aussage nicht, sondern gab ausweichende Antworten. Eine einzige, ausgesuchte Station wird demnach mit dem berechneten und gewichteten Mittelwert von ganz Deutschland verglichen!! Demnach ist der Schluss zu ziehen, dass nicht nur eine Station ausgewählt wurde, die ein weit zu hohes Temperaturniveau ausweist, sondern auch, dass die sog. Äpfel mit Birnen verglichen werden. So etwas hat mit wissenschaftlicher Arbeit rein gar nichts zu tun.

Erstaunlich ist übrigens die Aussage, die wir vom DWD zu seiner Station auf dem Frankfurter Flughafen erhielten: “Die Zeitreihe der Station Frankfurt-Flughafen wird wie alle Stationen des DWD  immer auch auf Homogenität geprüft und es hat sich dort keinerlei Inhomogenität ergeben. Außerdem zeigen auch die völlig ungestörten Bergstationen den allgemeinen Erwärmungstrend.“

Man beachte den letzten Satz. Natürlich wurde sofort zurückgeschrieben, dass keine einzige Bergstation einen Erwärmungstrend in den letzten 10 Jahren zeigt, er möchte eine benennen. Eine Antwort steht bis heute aus!

Homogenität oder Homogenisierung

Durch Homogenisierung sollen systematische (schleichende und sprunghafte) Fehler, sowie grobe Fehler herausgefiltert werden. Das geht allerdings nur dann, wenn die Metadaten für jede Messstation (z.B. Besiedlungsdichte, Bodenbelagsänderung, Anstrichänderung, Messfühleränderung, Ableseregime etc) dauerhaft bekannt sind. Bei der Betrachtung von längeren Zeitreihen aus der Vergangenheit besteht das Problem, Dass Problem besteht darin, werden längere Zeitreihen aus der Vergangenheit betrachtet, dass sich an einer oder mehrerer Stationen Änderungen ergeben haben, sei es ein Wechsel der Messinstrumente, eine Änderung in der Berechnungsmethodik der Mittelwerte oder gar eine Verlegung des Messfeldes. Durch Vergleich mit umliegenden Stationen und statistischen Verfahren wird eine sog. Homogenisierung der Messreihe durchgeführt, d.h. bildlich gesprochen, werden die durch die Stationsveränderungen bedingten Abweichungen wieder herausgerechnet, so dass eine einheitliche (homogene) Messreihe entsteht. So weit die Theorie.

Zu den Metadaten gehört also der Wärmeinseleffekt. Da dieser bei den meisten Stationen nicht bekannt ist, muss die Homogenisierung grundsätzlich versagen, zumindest bei diesen Stationen, so dass eine “Inhomogenität“ vom DWD wie es scheint, gar nicht erkannt wird. Der DWD geht bei der Homogenisierung von Temperaturwerten wie folgt vor:

·         Anhand mathematischer Methoden (statistische Regressionsbeziehungen) wird aus den Stationsdaten für eine Fläche von 1 km x 1km die mittlere Lufttemperatur berechnet.

·         Aus diesen Rasterdaten werden anschließend Mittelwerte für Regionen wie Bundesländer oder auch für Deutschland selbst ermittelt. Aus den Zeitreihen dieser Gebietsmittel können dann Referenzwerte und Abweichungen von Einzelmonaten und Jahren berechnet werden.

Wichtig! Es handelt sich bei der Betrachtung von Temperaturzeitreihen also niemals um gemessene Werte, sondern immer um mathematisch behandelte Werte.

Mit den uns vom DWD zur Verfügung gestellten Daten sieht die Zeitreihe der Maitemperatur wie folgt aus (Abbildung 15)

undefined

Abbildung 15 zeigt die Maitemperatur in Deutschland anhand dm Datensatz vom DWD von 2000 – 2010. Wie überdeutlich zu sehen, war der Mai nicht etwa zu warm, sondern erheblich zu kalt und zwar der Dekadenkälteste und zwar 4°C kälter als der wärmste Maimonat in 2000.

Natürlich könnte argumentiert werden, dass Frau Niedek ihren Vergleich nicht auf die vergangene Dekade bezog, sondern auf den Zeitraum seit Beginn der Messungen ab 1881 oder den klimatologischen Referenzzeitraum von 1961 – 1990. Nun, da uns auch diese Zeitreihen vom DWD für den Monat Mai vorliegen, konnten wir anhand dieser offiziellen Daten den Mai-Temperaturverlauf seit 1881 bis heute rekonstruieren (Abbildung 16).

undefined

Abbildung 16 zeigt die Maitemperatur in Deutschland von 1881 – 2010 nach Daten des DWD. Die Datenreihe zeigt übrigens auch, dass es in den 1930 und 1940-Jahren wärmer war als zum Ausgang des 20. Jahrhunderts. Der Mai 2010 war einer der kältesten im Betrachtungszeitraum und liegt deutlich unter dem Durchschnitt. Nach Auswertung des DWD (er lieferte uns in den Datenreihen die Temperaturabweichungen gleich mit) war der Mai um 1,7°C im Vergleich zum Mittel zu kalt! Der Mittelwert der Maitemperatur lag in diesem Zeitraum bei 12,1°C, rote, waagerechte Linie. Nur wenige Maimonate waren kälter, als 2010. Die Aussage von Frau Niedek, der Maimonat 2010 läge um 0,5°C über dem Mittel ist somit in krasser Weise falsch, um 2,2°C! D.h. aber auch, dass im Mai der WI des Frankfurter Flughafens bei +2,2°C + dem WI der DWD-Daten liegt!

Nun könnte angenommen werden, dass das ZDF und speziell Frau Niedek es nicht besser wissen, wie wissenschaftlich sauber gearbeitet wird, man könnte jedoch evtl. davon ausgehen, dass u.U. handfeste persönliche wirtschaftliche Interessen Frau Niedek bewegen, ein Millionenpublikum gezielt für eigene finanzielle Vorteile über das ZDF zu manipulieren.

Zu Frau Niedek ist festzuhalten (http://www.econ-referenten.de/redner/inge-niedek-meteorologin), Zitat: Inge Niedek studierte Meteorologie an der Freien Universität Berlin …Daneben war sie Mitgründerin und lange Jahre Mitglied der Geschäftsführung der Wetterfirma Meteo Consult und fungierte als Mitglied des Board of Directors sowie drei Jahre lang als Präsidentin der IABM (International Association of Broadcast Meteorology). Inge Niedek ist außerdem Mitglied im wissenschaftlichen Beirat des Deutschen Komitees für Katastrophenvorsorge. In ihren spannenden Vorträgen widmet sich Inge Niedek vor allem dem Thema Klimawandel und erklärt fachkundig und anschaulich, welche Folgen klimatische Veränderungen für die Menschheit haben werden.“

Auch in  ihrem Buch geht es um Naturkatastrophen durch den Klimawandel. Für Ihre Vorträge bekommt Sie Geld. Nach unseren Recherchen 4.500€ plus MWST plus Spesen je Vortrag. Ihre Vorträge sind die reinste Märchenstunde. Sie erzählt nach dem Schema, wie sähe Deutschland aus, wenn es fünf Grad wärmer wäre und verbreitet das Weltuntergangsszenario als Tatsache, Naturkatastrophen, Überschwemmungen, untergehende Inseln, Hollands Küste liegt vor dem Kölner Dom.. und.. Könnte es daran liegen, dass diese Frau im Heute-Wetter immer wieder ihre These von der Klimaerwärmung einstreuen muss, damit  der Geldfluss nicht stockt? So jemand ist für eine neutrale Wetterberichterstattung untragbar, da sie weder wissenschaftlich seriös arbeitet, noch unabhängig und neutral sein kann. Für ihre Monatsvergleiche nimmt sie stets den Frankfurter Großflughafen, gemessen im Strahle der heißen Flugzeugabgase. Da gibt es dann jedes Monatsende eine neue Klimakatastrophe in krassem Kontrast zum DWD. Der Deutsche Wetterdienst schrieb am 06. September 2010 an einen von uns (Kowatsch): “Weltweit ist 1998 immer noch das wärmste Jahr und in Deutschland ist es 2000. Das ist kein Geheimnis, und das darf auch jeder wissen….“. Frau Niedek sorgt jedes Monatsende dafür, dass das keiner wissen darf.

Im Rundfunkstaatsvertrag ist viel von redaktioneller Unabhängigkeit die Rede und unter §25 folgendes festgehalten: “Ein einzelnes Programm darf die Bildung der öffentlichen Meinung nicht in hohem Maße ungleichgewichtig beeinflussen“. Nichts anderes, als eine in hohem Maße ungleichgewichtige Beeinflussung und damit eine Verletzung des Rundfunkstaatsvertrages stellt aus unserer Sicht eine Temperaturaussage dar, die um 3°C von den Daten des DWD nach oben abweicht und einer Millionenzuschauerzahl suggeriert, es würde immer wärmer. Hier wird (vorsätzlich?) einer politischen Strömung das Wort geredet, mit u.U. eigenen finanziellen Zielen. Unnötig zu erwähnen, dass dies mit einer objektiven und wissenschaftlich korrekte Berichterstattung, wie sie die Bürger unseres Landes von Sachbeiträgen erwarten, nichts gemein hat.

Aber auch Frau Niedeks Kollege, der Diplom Meteorologe Herr Dr. Tiersch scheint die Fahne der Klimaalarmisten, koste es was es wolle, hoch zu halten. In einer Mail gab er zu Protokoll: “Ich habe am 30. August 2010 von dem bisher wärmsten Jahr gesprochen. Wenn Sie sich von NOAA die weltweite Mitteltemperatur ansehen, dann ist das richtig. Wo steht etwas von einem Fehler?“ Nun, den Fehler möchten wir Herrn Dr. Tiersch anhand der aktuellen globalen Temperaturzeitreihen zeigen (Abbildung 17).

undefined

Abbildung 17 zeigt die Zeitreihen der Temperaturabweichungen im Zeitraum von 1979 bis 15. August 2010 der GISS, HadCRUT3, NCDC, UAH MSU und RSS MSU. Also allen fünf weltweit anerkannten Instituten, die die globalen Temperaturen aufnehmen und darstellen. Wie unschwer zu sehen, haben wir die höchsten Temperaturabweichungen und damit höchsten Temperaturen im Betrachtungszeitraum bereits gesehen, was sich mit der obigen Aussage des DWD deckt. Anhand des Charts ist zu erkennen, dass der Langfristtrend der globalen Temperaturen (noch) nach oben geht, wogegen der Kurzfristtrend nach unten zeigt (vgl. mit Abbildung 21 aus Teil 1, Temperaturjahresmittelwerte für Deutschland). Im Chart ist ein natürlicher Zyklus (Welligkeit), mit im Betrachtungszeitraum 3 Zyklen abgebildet, mit einer durchschnittlichen Länge von knapp 7,6 Jahren. Wir hatten Ihnen bereits anhand der AMO erläutert, das der dortige Zyklus auf die Sonne zurückzuführen ist und zwar auf den Zyklus, der durch die Drehimpulsänderungen (Bahndrehimpuls und Eigendrehimpuls) der Sonne zurückzuführen ist, wodurch letztendlich die magnetische Aktivität und damit Energieabgabe der Sonne (mit) gesteuert wird. Dabei handelt es sich um den großen Zyklus. Darüber hinaus gibt es noch den kleinen Zyklus, basierend auf den Drehimpulsänderungen und dieser hat bei Betrachtung von längeren Zeitskalen eine mittlere Länge von 7,8 Jahren! Siehe (http://uploader.wuerzburg.de/mm-physik/klima/sonne1.htm)

Wie anhand der realen Temperaturdaten aus den Abbildungen 21 (Teil 1) und Abbildung 3, die bekanntlich vom DWD stammen, dieser zu seiner Einschätzung der zukünftigen Temperaturentwicklung kommt, die er in der Abbildung 18 zusammenfasst, ist nicht nachvollziehbar.

undefined

Abbildung 18 zeigt die tatsächliche Temperaturentwicklung in Deutschland bis 2009 und die erwartete bis 2100, Quelle: DWD. Wie seine Abbildung 22, Teil 1, aus dem IPCC-Jahr 2007, entbehrt der Prognose jegliche wissenschaftliche Grundlage und muss unter der Rubrik „Panikmache“ abgelegt werden.

Eingangs erwähnten wir, dass 41% aller Daten zur globalen Mittelwerterfassung der Temperaturen von Flughäfen stammen. Ist Frankfurt nun ein Einzelfall, oder die Regel? Dabei wurden die Temperaturmessstationen auf Flughäfen, sowohl an unserem Rechenbeispiel, als auch an den Auswirkungen der Wirbelschleppen, wie in den Abbildungen 9 – 14 zu sehen, gespiegelt. Hierzu möchten wir Ihnen weitere Messstationen auf Großflughäfen zeigen.

Berlin-Tegel

undefined

Abbildung 19 zeigt die Wetterstation auf dem Flughafengelände von Berlin-Tegel und die Abbildung 20 die Lage der Station zum Rollfeld.

undefined

In der Abbildung 20 ist gut erkennbar, dass die Station (roter Pfeil) ebenfalls unter 100m vom Rollfeld entfernt liegt. Zwar liegt sie nicht unmittelbar im Einzugsbereich der Start- und Landebahn (ca. 270m entfernt) und damit besser platziert als in Frankfurt, der Abstand ist jedoch viel zu gering, um nicht von den Auswirkung der Turbolenzen (Wirbelschleppen) erfasst und damit beeinflusst wird, was zwangsläufig zu falschen Temperaturwerten führt.

Stuttgart-Echterdingen

Abbildung 16 aus Teil 1:

undefined

Die Abbildung 16 aus Teil 1 zeigt die Temperaturmessstation auf dem Flughafen Stuttgart. Bewertung: Nicht geeignet, da viel zu nahe an der Startbahn gelegen.

undefined

Die Luftaufnahme der Abbildung 21 zeigt, dass die Wetterstation unmittelbar neben der Star- und Landebahn liegt und nur ca. 150m von dieser entfernt liegt, womit die Station ebenfalls direkt in den Wirbelschleppenturbulenzen liegt und als Temperaturmessstation zu hohe Werte liefert.

München Franz Josef Strauss

undefined

Abbildung 22 zeigt die Wetterstation auf dem Flughafengelände München Franz Josef Strauss (roter Pfeil). Sie liegt inmitten von betonierten Flächen (hell), welche, wie auf der Abbildung 19 (Tagesgang der Temperatur an einem sommerlichen Strahlungstag in Bodenhöhe für verschiedene Böden, nach Fezer 1975, Teil 1) zusehen, über dem Erdboden eine um 4°C höhere Temperatur ausweist, als Gras. Da die Messstation quasi zwischen diesem großflächigen Betonfeld eingezwängt ist, wird die Messstation bei jeder Windbewegung mit dieser zusätzlich (zu Gras) erwärmten Luftmasse beaufschlagt.

undefined

In der Übersichtsaufnahme (Abbildung 23) gut zu sehen, dass die Wetterstation (roter Pfeil) mit etwa 1km Entfernung recht weit von der nächsten Rollstrecke entfernt liegt, dafür aber inmitten des Flugbetriebs liegt. Die Erwärmungskomponente in unserem Rechenbeispiel zum Frankfurter Flughafen wirkt auch hier. Aufgrund der Messanordnung mitten in einem Betonfeld und inmitten des Flugbetriebs ist mit einem signifikant höheren Temperaturwert zu rechnen und die Messstation für statistische Langzeitbetrachtungen oder Vergleichsaussagen ungeeignet.

London Heathrow

undefined

Abbildung 24 zeigt die Wetterstation auf dem Londoner Großflughafen Heathrow.

undefined

In der Abbildung 25 ist die Lage der Station (03772) zu den Rollfeldern und Start- und Landebahnen zu sehen (EGLL ist die ICAO-Kennung für Heathrow). Mit einem Abstand von knapp 200m ist die Wetterstation zwar grundsätzlich besser platziert, als in Frankfurt Rhein-Main, jedoch ist auch hier der Abstand zu den heißen Luftturbulenzen auf Grund der Wirbelschleppen (Abbildungen 9 – 14) viel zu gering. Es ist festzuhalten, dass die Wetterstation deutlich zu hohe Werte liefert (die Mitteltemperatur lag 2009 bei 11,9°C, gegenüber 9,17°C der Jahresmitteltemperatur von Großbritannien), die darüber hinaus dem Flugaufkommen folgen.

Rom Airport

Siehe Abbildung 5 – Zur Temperaturmessung völlig ungeeignet.

Fazit

Insgesamt schneidet der DWD im Stationsvergleich (aus Teil 1) mit 40% seiner Stationen, die für Zeitreihen, bzw. Mittelwertvergleiche nach unseren Kriterien nur “begingt geeignet“ oder “nicht geeignet“ sind, leicht besser ab, als seine Kollegen in den USA. Da der DWD unseres Wissens dem GHCN (Global History Climate Network – stellt die globalen Temperaturwerte zusammen) lediglich die Werte von 8 Stationen (wäre interessant vom DWD zu erfahren, welche dies sind) mitteilt und ebenso in der Abbildung 3 zu sehen ist, bereits eine Auswahl seiner Stationen vornimmt, dürfte dort selbst die Erkenntnis vorliegen, dass nicht alle seine Stationen zur Vergleichsbetrachtung geeignet sind.

Da jedoch der Wärmeinseleffekt keine Berücksichtigung findet, Stationswerte nicht um diesen Betrag korrigiert oder wie es fachlich heißt „homogenisiert“ werden und dessen Betrag nach unseren Ermittlungen Werte von 0,5°C bis deutlich über 1°C erreichen kann, teilweise bis zu 3°C, wie an den Beispielen Frankfurt Rhein-Main und London Heathrow gezeigt, muss grundsätzlich davon Abstand genommen werden, Temperaturwerte von heute, denen von vor 100 Jahren direkt gegenüberzustellen und dann der Öffentlichkeit was auch immer erzählen zu wollen. Findet keine WI-Bereinigung statt, sind solche Temperaturvergleiche, die sich meist in Zehntel -°C bewegen, nicht nur wissenschaftlich wertlos, es ist vielmehr unverantwortlich, wenn daran Entscheidungen ausgerichtet werden, die ganze Volkswirtschaften in eine Abgabenwirtschaft treiben und damit weite Teile der Bevölkerung verarmen lassen, denn eins sollte jedem klar sein, die Zeche wird der sog. “kleine Mann“ zu zahlen haben. Vollkommen abwegig ist, wie im Falle des ZDF, Temperaturwerte einer ausgewählten Station, die dazu noch völlig ungeeignet ist, mit Bundeswerten zu vergleichen.

Großflughäfen haben einen WI, der bei ca. +2 ½ °C liegt, wie an den Beispielen Heathrow und Rhein-Main gezeigt. Solche Stationen sind demnach lediglich dazu geeignet, den Flugbesatzungen oder den Passagieren eine aktuelle Temperaturaussage zukommen zu lassen, also das Wettergeschehen dort wider zu geben, wozu sie auch in der Anfangszeit des Flugaufkommens eingerichtet wurden, nicht aber, um damit Zeitreihen oder gar Vergleiche zu bilden. In Anbetracht dessen, dass derzeit im GHCN bereits 41% seiner Daten von Flughäfen stammen und ein exorbitant hoher WI in die Messung eingeht, der nicht korrigiert wird, sind seine kompletten Temperaturdatensätze nicht das Papier wert, auf denen sie stehen. Es muss davon ausgegangen werden, dass beim GHCN die Fragwürdigkeit dieser Daten sehr wohl bekannt ist und hier bewusst eine Fehlinformation und mit den Daten eine Manipulation von Politik, Medien und Öffentlichkeit vorgenommen wird. Hält man sich vor Augen, welche Kapitalbeträge (4-stellige Milliardenbeträge) mit dem Klimarummel bewegt werden sollen, wird der Grund solchen Handelns erkennbar. Insofern wollen wir mit unserem Bericht, einen Beitrag leisten, für eine bessere Ausleuchtung der Szene zu sorgen.

Die Erwärmung ist weitgehend aufgebraucht.

Der DWD geht für das Jahr 2009 von einer Erwärmung in Deutschland gegenüber dem Ausgangsjahr 1881 von 1,1°C aus. In Anbetracht des Wärmeinseleffekts bleibt von diesem Wert nicht mehr allzu viel übrig. Dies deckt sich mit globalen satellitengestützten Daten, die für 2009 (trotz des starken El Niño in 2009, der bekanntlich die Temperaturen signifikant nach oben treibt) nur noch eine Temperaturabweichung zum Langfristmittel (ab 1979) von weniger als 0,2°C ausweisen (Abbildung 26, rote Zeitreihe). Hinzu kommt, dass durch die Änderung der Erfassungszeiten zum April 2001 (bis zu diesem Datum wurde in Deutschland dreimal am Tag die Temperatur gemessen und daraus der Mittelwert gebildet, seitdem jede Stunde), auf Grund des stark asymmetrischen Tagesganges der Temperatur, die Temperaturmesswerte seitdem künstlich angehoben werden und zwar um 0,1°C – 0,2°C.

undefined

Abbildung 26 zeigt die globalen Temperaturabweichungen für den Zeitraum 1979 bis Dezember 2009, Quelle (http://www.drroyspencer.com/2010/01/).

Wie bereits festgehalten, bleibt nach Abzug des Wärmeinseleffektes (und dem Temperaturantrieb durch die Erfassungszeitenänderung) nach den geschilderten Darlegungen für Deutschland von dem „DWD-Wert“ von 1,1°C für 2009 nicht mehr viel übrig, wie der Leiter der Ostalbwarte für seine Messstation bereits einräumte. Zitat:

"Zusammenfassend kann man sagen: Das vergangene Frühjahr war im Ostalbkreis ein bisschen kühler als im langjährigen Mittel, deutlich kühler als im Mittel der zurückliegenden 16 Jahre und genau so warm oder kalt wie vor 150 Jahren."

Und damit so kalt wie am Ende der “Kleinen Eiszeit“, der kältesten Epoche seit 2.000 Jahren. Eine Erwärmung liegt nicht vor. Bleibt abzuwarten, wann der DWD seinem Dienststellenleiter auf Bundesebene folgt.

 

Josef Kowatsch

Raimund Leistenschneider – EIKE

 

Ergänzung zu Teil 1

In unserem ersten Teil wurden wir gebeten, doch eine DWD-Station zu benennen, die sich in einem Abstand von 2-3 m von einem Parkplatz befindet und die der DWD benutzt, um statistische Temperaturreihen für Deutschland zu generieren. Nun, eine solche Station ist die DWD-Wetterstation Karlsruhe, wie die Satellitenaufnahmen eindeutig zeigen.

undefined

Abbildung 27 zeigt Messfeld und Messhütte (blauer Pfeil) in unmittelbarer Nähe zum Parkplatz. Unmittelbar gegenüber der Messhütte ist im Abstand von ca. 3m gerade ein Lieferwagen geparkt (roter Pfeil). Wir möchten nun nicht so weit gehen und fragen, ob immer dann dort Fahrzeuge abgestellt werden, wenn gerade einmal wieder Rekordtemperaturen benötigt werden. Auf jeden Fall verwundert es wohl niemanden mehr, dass gerade die Station in Karlsruhe immer unter den Temperaturrekordhaltern in Deutschland platziert ist.

undefined

Abbildung 28 zeigt Messfeld (roter Pfeil), Parkfläche und DWD-Gebäude in der Übersicht.

J. Kowatsch, R. Leistenschneider EIKE

Related Files




Erklärung des Europäischen Instituts für Klima und Energie (EIKE) zur beabsichtigten Verabschiedung des Energiekonzeptes der Bunderregierung !

Der gesamte Beitrag hier.




Berühmter Physiker verlässt wegen Klimapolitik die ehrwürdige amerikanische physikalische Gesellschaft APS!

Update I: Wie bei Watts Up with That gerade berichtet wird, löscht der berüchtigte (Cobegründer von realclimate) William Conolley auf Wikipedia brutal den Rücktrittsbrief von Hal Lewis (hier)Kommentar zum Rückzug wegen des größten Wissenschaftsbetrugs der Menschheitsgeschichte (hier)

Hal Lewis: mein Rückzug aus der amerikanischen physikalischen Gesellschaft

(=American Physical Society)

Freitag, 8 Oktober 2010, 17:19

Von: Hal Lewis, University of California, Santa Barbara

An: Curtis G. Callan, Jr., Princeton University, Präsident der  American Physical Society

6. Oktober 2010

Hallo Curt:

Als ich vor 67 Jahren der American Physical Society (APS) beitrat, war sie viel kleiner, viel vornehmer und noch nicht durch die Geldflut korrumpiert (eine Bedrohung, vor der Dwight Eisenhower schon vor einem halben Jahrhundert warnte). Tatsächlich war die Berufswahl Physiker ein Garant für ein Leben in Armut und Verzicht – es war der Zweite Weltkrieg, der das alles geändert hatte. Der Aspekt nach Wohlstand hat die wenigsten Physiker angetrieben. Erst vor 35 Jahren, als ich der Leitautor der ersten Studie der APS über ein umstrittenes soziales/wissenschaftliches Thema war, nämlich der Studie über Reaktorsicherheit, gab es trotz der zahlreichen Eiferer draußen keinen Hinweis auf einen übermäßigen Druck auf uns als Physiker. Daher waren wir in der Lage, eine damals und heute nach meiner Ansicht ehrliche Bewertung der Situation zu jener Zeit vorzunehmen. Zusätzlich unterstützt wurden wir durch ein Komitee, bestehend aus Pief Panofsky, Vicki Weisskopf und Hans Bethe, alles hochrangige, über jeden Zweifel erhabene Physiker. Am Ende stellte dieses Komitee in seinem Bericht an den Präsidenten der APS die vollständige Unabhängigkeit unserer Arbeit fest, und sie sagten voraus, dass unsere Studie von beiden Seiten angegriffen werden würde. Welche größere Anerkennung kann es geben?

Wie anders ist das heute! Die Riesen weilen nicht mehr auf der Erde, und der Geldfluss wurde zum großen Teil Dreh- und Angelpunkt der physikalischen Forschung sowie zum Lebensunterhalt von vielem Anderen, sowie zur Stütze für unzählige professionelle Arbeiten. Aus Gründen, die ich im Folgenden darlegen werde, verwandelte sich mein anfänglicher Stolz, Mitglied der APS zu sein, in Beschämung, und ich sehe mich gezwungen, mich zu meinem großen Leidwesen aus der Gesellschaft zurückzuziehen.

Es handelt sich natürlich um den Betrug der globalen Erwärmung, getrieben von Billionen Dollar [trillions of dollars], die so viele Wissenschaftler korrumpiert und die APS wie eine Hammelherde vor sich her getrieben hat. Es ist der größte und erfolgreichste pseudowissenschaftliche Schwindel, der mir je in meiner langen Karriere als Physiker untergekommen ist. Jeder, der daran nur den geringsten Zweifel hegt, sollte sich zwingen, die Klimagate-Dokumente zu lesen, die dies offenlegen. (Montfords Buch listet die Fakten sehr gut auf). Ich glaube nicht, dass irgendein echter Physiker, nein Wissenschaftler, das Zeug lesen kann, ohne Ekel zu empfinden. Ich möchte fast das Wort Ekel als Definition für das Wort Wissenschaftler bezeichnen.

Was hat nun die APS als Organisation angesichts dieser Herausforderung getan? Es hat die Korruption als Norm akzeptiert und dabei mitgemacht. Zum Beispiel:

1.     Vor etwa einem Jahr haben einige von uns eine e-Mail zu diesem Thema an einen Teil der Mitglieder verschickt. Die APS hat die Angelegenheit ignoriert, aber der damalige Präsident setzte umgehend eine feindselige Untersuchung darüber an, woher wir die E-Mail-Adressen hatten. In besseren Tagen hat die APS gewöhnlich Diskussionen um wichtige Themen gefördert, und tatsächlich nennt die Satzung dies als das oberste Prinzip. Nicht mehr! Alles, was im letzten Jahr getan wurde, bestand darin, die Diskussion zum Schweigen zu bringen.

2.     Die in erschreckender Weise tendenziöse Feststellung der APS zur Klimaänderung wurde offensichtlich in großer Eile von einigen Leuten beim Lunch geschrieben und ist mit Sicherheit nicht repräsentativ für die Fähigkeiten der APS – Mitglieder, so lange wie ich sie kenne. Daher haben einige von uns das Komitee gebeten, diese Feststellung noch einmal zu überdenken. Einer der herausragenden Marksteine in der Feststellung war das Giftword ‚unanfechtbar‘, welches nur für wenige physikalische Dinge gilt, mit Sicherheit aber nicht für dieses Thema. Als Reaktion darauf rief die APS ein geheimes Komitee ins Leben, das ich niemals traf, das sich niemals die Mühe gemacht hatte, mit einem Skeptiker zu sprechen, sondern nur die Feststellung als Ganzes bekräftige. (Sie gaben zu, dass der Tonfall ein wenig streng war, behielten aber erstaunlicherweise das Giftwort unanfechtbar bei, um den Beweis zu erhärten, eine Position, die von niemandem unterstützt wurde). Am Ende hielt das Komitee an der Originalfeststellung fest, fügten aber einen viel längeren „erklärenden“ Roman hinzu, in dem sie zugaben, dass es Ungewissheiten gibt. Diese jedoch wischten sie beiseite, um das Original nicht zu schmälern. Die Originalfeststellung, die immer noch die Position der APS darstellt, enthält auch nach meiner Meinung pompöse und idiotische Ratschläge für alle Regierungen der Welt, ganz so, als ob die APS die Beherrscherin des Universums sei. Das ist sie nicht, und ich bin entsetzt, dass unsere Vorsitzenden das glauben. Das sind nicht Spaß und Spiel, sondern ernste Angelegenheiten, die weite Teile unserer nationalen Substanz berühren, und der Ruf der Gesellschaft als eine wissenschaftliche Gesellschaft steht auf dem Spiel.

3.     In der Zwischenzeit brach der Klimagate-Skandal aus, und die Machenschaften der obersten Alarmisten wurden vor der ganzen Welt enthüllt. Es war ein Schwindel von einer Größenordnung, die ich noch nie erlebt habe, und mir fehlen die Worte, das wahre Ausmaß zu beschreiben. Auswirkung auf die APS: Keine! Überhaupt keine! Das ist keine Wissenschaft; hier sind andere Kräfte am Werk.

4.     Daher haben einige von uns versucht, die Wissenschaft in die Sache zurückzuholen (was schließlich das grundlegende und historische Ziel der APS ist). Wir sammelten die erforderlichen mehr als 200 Unterschriften, um dem Komitee den Vorschlag zu unterbreiten, eine Themengruppe (TG) zur Klimawissenschaft zu bilden mit dem Gedanken, dass die offene Diskussion über wissenschaftliche Themen in der besten Tradition der Physik für alle von Vorteil und auch ein Beitrag für die Nation wäre. Ich möchte betonen, dass es nicht einfach war, diese Unterschriften zu sammeln, weil Sie uns verboten haben, die Liste der APS-Mitglieder zu benutzen. Wir handelten in jeder Beziehung gemäß der Satzung der APS und beschrieben sehr detailliert, was wir im Sinn hatten – einfach, um unser Anliegen öffentlich zu machen.

5.     Zu unserem Erstaunen haben Sie es entgegen der Satzung abgelehnt, unsere Petition anzunehmen. Statt dessen haben Sie Ihre eigenen Möglichkeiten der Kontrolle der Adressenliste genutzt, um eine Befragung der Mitglieder nach ihrem Interesse an einer solchen TG zu Umwelt und Klima durchzuführen. Sie fragten die Mitglieder, ob sie eine Petition unterzeichnen würden, eine TG zu einem noch von Ihnen zu definierenden Thema zu installieren, ohne diese Petition zu beschreiben, und bekamen viele zustimmende Antworten.  (Wenn Sie nach Sex gefragt hätten, hätten Sie viel mehr Interessensbekundungen bekommen). Es gab natürlich keine solche Petition oder Vorschlag, und Sie haben jetzt den Teil Umwelt fallen gelassen, so dass die ganze Sache irrelevant ist. (Jeder Rechtsanwalt wird Ihnen sagen, dass man keine Unterschriften für eine Blanko-Petition bekommen kann und erst danach alles hineinschreibt, was immer Sie wollen). Der ganze Zweck dieser Übung war es, Ihre satzungsgemäße Verantwortung zu umgehen, um unsere Petition dem Rat vorzulegen.

6.     Und jetzt haben Sie noch ein anderes geheimes und übergeordnetes Komitee gebildet, um Ihre eigene TG zu organisieren und unsere gesetzeskonforme Petition zu ignorieren.

Das Management der APS hat das Problem von Anfang an als Spielchen abgetan, um von vornherein eine Diskussion über die Folgen der Behauptungen über den Klimawandel zu unterdrücken. Wunderst Du sich da noch, dass ich das Vertrauen in die Organisation verloren habe?

Es drängt mich, noch eine Bemerkung anzufügen. Sie ist jedoch Spekulation, da es immer riskant ist, sich über die Motive anderer Personen den Kopf zu zerbrechen. Die Machenschaften des Vorstands sind so bizarr, dass es dafür keine einfache Erklärung geben kann. Einige haben gesagt, dass die heutigen Physiker nicht mehr so wissend sind wie gewöhnlich, aber das glaube ich nicht. Ich glaube, es ist das Geld, also genau das, wovor Eisenhower vor einem halben Jahrhundert gewarnt hat. Tatsächlich geht es um Billionen von Dollar, um Ruhm und Ehre (und häufige Reisen auf exotische Inseln), die die Mitgliedschaft mit sich bringt. Deine eigene Abteilung Physik (von der Du der Vorsitzende bist) würde in dem Jahr, in dem die Wärmeblase platzt, Millionen Dollar verlieren. Wenn die Universität von Pennsylvania (Penn State) Mike Mann von allen Schummeleien freispricht und die Universität von East Anglia mit Phil Jones das Gleiche tut, müssen sie die finanziellen Einbußen im Hinterkopf gehabt haben für den Fall, dass sie das nicht tun. Wie das alte Sprichwort sagt, man muss kein Wettermann sein um festzustellen, woher der Wind weht. Da ich kein Philosoph bin, werde ich nicht erforschen, an genau welchem Punkt das Selbstinteresse die Grenze zur Korruption überschritten hat, aber eine sorgfältige Analyse der Klimagate-Papiere macht klar, dass dies keine akademische Frage ist.

Ich möchte dabei nicht mehr mitmachen, also akzeptiere bitte meinen Rückzug. APS vertritt mich nicht mehr, aber ich hoffe, dass wir Freunde bleiben können.

Hal

Harold Lewis ist emeritierter Professor der Physik, University of California, Santa Barbara, früherer Vorsitzender; früheres Mitglied im Defense Science Board, Vorsitzender des Technology panel; Vorsitzender DSB der Studie über den nuklearen Winter; früheres Mitglied im Advisory Committee on Reactor Safeguards (Reaktorsicherheit); früheres Mitglied im Nuclear Safety Oversight Committee des Präsidenten; Vorsitzender der APS-Studie zur Sicherheit von Kernreaktoren; Vorsitzender des Komitees zur Risikoabschätzung; Mitbegründer und früherer Vorsitzender von JASON [?]; früheres Mitglied im USAF Scientific Advisory Board (USAF = Luftwaffe der USA); diente im 2. Weltkrieg bei der US Navy; Bücher: Technological Risk (über – welche Überraschung – technische Risiken) und Why Flip a Coin (über die Entscheidungsfindung)

 

Hier der Originaltext 

 

Übersetzt von Chris Frey für EIKE




Wenn Kinder fürs Klima explodieren! Ist bei „Klimamuffeln“ alles erlaubt, wo sonst unmittelbar die Staatsanwaltschaft eingeschaltet würde?

Die Reaktion auf den blutrünstigen „10:10-No Pressure“ Film, der vergangene Woche in die Öffentlichkeit platzte, war vor allem in der Blogosphäre hart und schnell – sie war so überwältigend, dass "1010" den Clip binnen wenigen Stunden aus dem Internet nahm. Hauptunterstützer wie Sony und Kyocera sind abgetaucht. Es war eine riesige Aufregung. Aber wirklich nicht wegen der Mainstream-Medien. Nirgendwo war das Schweigen zum Thema Gewaltanwendung zur Unterdrückung abweichender Meinungen deutlicher als in Deutschland. 

Beim "Googeln" auf "1010 No Pressure" werden in deutschen Medien keine kritischen Einträge zum Thema gefunden. Überhaupt nichts! Am häufigsten wird auf englischsprachige Seiten außerhalb Deutschlands verwiesen. Außer einer kurzen unkritischen Notiz im FOCUS hat kein deutsches Presseorgan die Geschichte gebracht. Man hat’s verschwiegen. Warum? 

Weil die deutschen Medien und die Politiker so tief in die Grüne Bewegung verstrickt sind und deswegen jetzt unglaublich betroffen sind. Sie können es sich einfach nicht leisten, so etwas der deutschen Öffentlichkeit zu zeigen. Wäre der 1010-Werbefilm bekannt, würden in der Öffentlichkeit ernste und unbequeme Fragen gestellt.

Video 10:10

Die Produzenten dieses entsetzlichen Streifens wurden u.a von Sony und Kyocera unterstützt. Sony hat aufgrund von Beschwerden entsetzter Zuschauer die Unterstützung "vorübergehend" unterbrochen.

Eine Neue Religion

Deutschland ist zu einem umweltradikalen Land geworden; Klimaschutz ist seine neue Religion. Das ist sein Daseinsgrund. Sich "grün" zu geben, ist eine vornehme Tugend. Die etablierten politischen Kreise und die Medien haben sich tief in die Ideologie eingegraben und liefern täglich neue Beispiele dafür. Ein "grünes" kollektives Bewusstsein hat sich über alles gelegt. Der frühere Umweltminister und jetzige sozialdemokratische Parteivorsitzende Sigmar Gabriel hat einst 6000 Kopien von Al Gores "Eine unbequeme Wahrheit" an den deutschen Höheren Schulen verbreiten lassen, um die zukünftigen Universitätsstudenten zu indoktrinieren. Den Schülern wird dieser Film in jedem Jahr völlig unkritisch gezeigt. Um die Indoktrinierung komplett zu machen, präsentieren Gruppen wie die umweltaktivistische "Germanwatch" (http:// www.germanwatch.org/) regelmäßig den Weltuntergang in den Schulen. Wer nun eine abweichende Meinung hat, einst ein positives Attribut im Land der Dichter und Denker, wird nun verspottet.

Die Tugend heißt "Grün". Als Ergebnis sehen wir einen Wettlauf in den Parteien, wer am grünsten ist, auch zwischen den europäischen Ländern. Jegliche Bedenken hinsichtlich der negativen wirtschaftlichen und technischen Folgen dieses Rattenrennens sind über Bord geworfen worden. Das Rennen um das "grünste Profil" ist ein Wettstreit um moralische Überlegenheit, d. h. um das Recht, die übrige Welt Mores zu lehren.

Abweichende Meinungen werden nicht toleriert.

Es gibt die Skeptiker in Deutschland, aber sie werden verleumdet und an den Rand gedrängt vom wohldotierten wissenschaftlichen, politischen und publizistischen Establishment. Politiker, die es auch nur wagen, einen einzigen skeptischen Finger zu heben, müssen erleben, dass sofort zugebissen wird, und dass sie bandenmäßig gemobbt werden. Dafür ist der Fall von Marie-Luise Dött nur ein Beispiel. Die Taktiken von Hans Joachim Schellnhuber und Stefan Rahmstorf vom großzügig steuerfinanzierten Potsdam Institut für Klimafolgenforschung (PIK) machen regelmäßig Wissenschaftler nieder, die eine andere Meinung vertreten. Deutschland und Westeuropa sind wieder intolerant geworden. Aber der jüngste Versuch zur Verheimlichung der Intoleranz ist gescheitert.

Deutschlands Geschäftsmodell ist "grün".

Wegen seines Glaubens an die "grüne Bewegung" hat Deutschland enorm in den Klimaschutz investiert. Trotz seines grauen und regnerischen Wetters ist das Land zu einem Vorreiter der Solarenergie geworden, es schiebt Milliarden von Euros an Fördergeldern in Solarpaneele und macht aggressive Energie-Einspeisegesetze. Eine breiter Fächer von "grünen" Energieerzeugungstechniken wird von der Regierung mächtig subventioniert. Milliarden werden in "grüne" Infrastruktur-Projekte geschüttet, wie z. B. in riesige Windparks auf See. Europa wird derzeit darauf vorbereitet, DESERTEC zu realisieren, ein großes 400-Milliarden-Projekt zur Gewinnung von Energie in der SAHARA. Industrielle Riesen wie SIEMENS wollen groß Kasse machen. Ein Film wie 10:10 könnte da nur Zweifel säen, und die bereits wackelig werdende Unterstützung in der Öffentlichen Meinung gefährden.

Das darf nicht schief gehen!

Deutschland ist so tief im "Grün" versunken, es riskiert alles, seinen Daseinszweck, seinen Auftrag: die eingebildete "grüne" Überlegenheitsmoral, seine ganzen Zukunftsinvestitionen. Deutschland hat sich wie viele andere europäische Staaten in eine Lage gebracht, wo die "grüne" Bewegung einfach nicht untergehen darf! Daher tut es alles nur Erdenkliche, um sie zu stärken und alles zu unterdrücken, was sie bedrohen könnte.

Nein, der "1010-Clip" darf nicht die Öffentlichkeit erreichen. Den Leuten könnte ja dämmern, dass die Bewegung von Fanatikern angeführt wird. Das darf einfach nicht passieren.
Das donnernde Schweigen spricht Bände!
Der TAZ Beitrag dazu hier: http://www.taz.de/1/netz/netzkultur/artikel/1/wenn-kinder-fuers-klima-explodieren/

Pierre Gosselin

————

Not the sort of sort of hockey stick they wanted

So einen "Hockeyschläger" haben sie nicht gewollt.

Anthony Watts, 6. Oktober 2010

Das "10:10" Blutspritz-Video ist nur eine von vielen schrecklichen PR-Lügen der "Grünen". Lesen Sie weiter und sehen Sie ein weiteres schockierendes Beispiel mit Bildern, wo Kinder im Namen des Klimawandels getötet werden.

Aus Dr. Benny Peisers CCNet mailing, einer Sammlung von Kommentaren zum "10:10" Video:

Firmen ziehen sich aus der Klimawandel-Kampagne zurück nach der grünen PR-Katastrophe.

Firmen distanzieren sich von der CO2-Senkungs-Kampagne wegen eines Werbefilms, den die Organisation "10:10" in der vergangenen Woche vorstellte. Darin werden Schulkinder, Büroangestellte und Promis in die Luft gesprengt, weil sie nichts gegen den Klimawandel unternehmen. Zwei Teilnehmer an der 10:10-Kampagne, Sony U.K. und Kyocera Mita, haben beide den von Richard Curtis gemachten Kurzfilm "No Pressure"  als geschmacklos und schrecklich bezeichnet.
(GreenWise Business, 5 October 2010)

Wenn es das Ziel des Films gewesen sein soll, die Leute davon zu überzeugen, dass die Klimaaktivisten den Verstand verloren haben und buchstäblich blutendes Fleisch präsentieren, um die Radio-Kommentoren und die Gegner der Treibhausgasverminderung zu schockieren, dann hat das wunderbar funktioniert. Natürlich könnte das Ziel gewesen sein, eher Lärm zu machen als Wirkung zu erzeugen. Das ist heutzutage leider im Internet üblich. Damit hätten sie ihren Erfolg verbucht. Ich muss ja nun darüber schreiben. Herzlichen Glückwunsch.
(Andrew C Revkin, The New York Times, 4 October 2010)

So häufig wie 10:10 den Film aus YouTube herausnehmen wollte, so häufig haben die Kritiker ihn wieder hineingestellt. Das beweist die katastrophale Fehleinschätzung von Curtis. Wenn er die Kritiker seiner Kampagne lächerlich machen wollte, und wenn dann die Kritiker genau seinen Film als Beweis für die Unerträglichkeit der klimabesoffenen Öko-Lobby nehmen, dann musste er merken, dass er ein Eigentor geschossen hatte. So schlecht, wie ein Star-Fußballer aussieht, wenn er den Ball ins eigene Tor befördert hat, so muss Richard Curtis jetzt seine Torheit endlos im Internet sehen, wie bei einem stinkenden Fisch, und das so lange, wie es noch lohnt, sich über ihn lustig zu machen.
(Dominic Lawson, The Independent, 5 October 2010)

Diejenigen, die die Menschheit auf ihrem Weg in das Verderben sehen als Konsequenz ihrer Untaten, erfreuen sich oft klammheimlich am künftigen Blutvergießen. Das halte ich persönlich für die Erklärung warum Richard Curtis den Kurzfilm 10:10 für die Pressuregroup der Klimafanatiker gemacht hat, in dem er – mit größtem Vergnügen – Kinder in die Luft gesprengt hat. Hierzu muss man muß die quasi-religiöse Natur der 10:10 Pressuregroup verstehen. Ganz gleich, wie man es mit dem menschengemachten Klimawandel hält, klar ist, dass seine pingeligen Gebote, von denen die meisten Energiesparlampen betreffen, für die Zukunft der Erde überhaupt nichts bedeuten. Sie haben aber eine heilige Bedeutung, so wie die Toten in Curtis’ Abmurksfilm. Meines Erachtens ist die Hoffnung auf die rituelle Abschlachtung von Kindern das Höchste zur Erregung der Anhänger der Prophezeiungen.
(Damian Thompson, The Daily Telegraph, 4 October 2010)

Die Jugend braucht keine Religion, weil das Umweltthema ihnen die benötigte Heilsgewissheit gibt. Der grüne Glaube beherrscht als weltliche Religion nicht nur die Lehrpläne, sondern auch das Denken. Es ist wie wiederverwendete Kronenkorken aus dem Kinderprogramm in großem Maßstab: Lektionen über die Gefahren des Klimawandels, Projekte zur Rettung bedrohter Arten, das Einsammeln von Abfall. Viele Eltern können ein Lied davon singen, wie ihnen häufig ein schlechtes Gewissen eingeredet wird, damit Papa den Müll trennt; auch um den neuesten Transformator wird gebeten. Kollegen, die unter ihrer Kinder Öko-Besorgnis gelitten haben, bestätigten, dass niemand aus der Inquisition so unermüdlich und glaubensgewiß hätte sein können, wie ihre kleinen Großinquisitoren.
(Robert Colvile, The Times, 6 October 2010)




SPIEGEL vs. EIKE: Häme und Verleumdungen anstatt „Schreiben was ist“ (Motto des Spiegelgründers Rudolf Augstein)

Zunächst sei ein Blick auf die Überschrift des SPIEGEL-Artikels (Zusatzüberschrift "Scharlatane der Wissenschaft") von Frau Mayer geworfen, der unter  bereits eine Dichte von Falschaussagen aufweist, wie sie gar nicht so einfach zu erzeugen ist; Kompliment, Frau Meyer hat es dennoch geschafft. Es ist zunächst von „Klimaleugnern“ als einer Handvoll von US-Wissenschaftlern die Rede, die sogar auch noch das Passivrauchen, den sauren Regen und das Ozonloch verharmlosen. Da wir von EIKE erstaunlicherweise über ganz andere Informationen verfügen, schlagen wir gleich zu Beginn etwas Ungewöhnliches vor: Wir bitten den Leser, sich die nachfolgend geschilderten und an Hand von leicht erreichbaren Quellen nachprüfbaren Fakten unvoreingenommen anzusehen, selber zu überprüfen und sich erst danach sein Urteil zu bilden. Dies ist natürlich unbescheiden und heute unüblich, aber warum ausnahmsweise einmal nicht so herum? Wir wünschen vom Leser eigentlich nichts anderes, als selber nachzulesen. Das ist für manche gar nicht so einfach, und im Dogma fest verankerte Zeitgenossen, wie die Redakteurin des SPIEGEL, Frau Meyer, werden wir mit diesem (wir gestehen es) unfairen Trick nicht zu dem politisch höchst inkorrekten eigenen Nachdenken und Urteilen bringen. Nur als winzige Chance sehen wir es daher an, einer SPIEGEL-Redakteurin begreiflich zu machen, dass zuhören, nachlesen, überprüfen die wichtigsten Schritte zum Verstehen sind.

Also, Frau Meyer, sind an dieser Stelle zum ersten Mal Fakten erlaubt? Danke, hier sind sie: Seit Gründung des IPCC im Jahre 1988 haben sich immer wieder Tausende von hoch angesehenen Naturwissenschaftlern und Klimaforschern in Manifesten und Petitionen gegen die IPCC-Agenda gewandt. Das ist unmöglich, da Sie ja noch nie etwas davon gehört haben? Dann lassen Sie uns stellvertretend gleich die historisch erste Aktion nennen, den

Heidelberger Appell von 1992 (http://en.wikipedia.org/wiki/Heidelberg_Appeal). Wir zitieren aus dem zugehörigen Wikipedia –Artikel:

A version of the Heidelberg Appeal was published in the June 1, 1992, Wall Street Journal over the signatures of 46 prominent scientists and other intellectuals. It has subsequently been endorsed by some 4,000 scientists, including 72 Nobel Prize winners. The Appeal was for an anthropocentric assessment of the world’s resources and a utilitarian as opposed to abolitionist approach to hazardous substances used or created by technology. It targeted as irrational, by implication, if not explicitly, both a vision of a "Natural State" with intrinsic rights to impede the activities of man, and hysterical fears of environmental poisons, disproportionate to the threat and dismissive of their associated benefits.

Eine Auswahl unter den 4000  Unterzeichnern ist als pdf beigefügt.

Einige weitere Manifeste und Petitionen von Klimafachleuten, wie das Leipziger Manifest, die Oregon-Petition, die Petition von 60 Klimatologen an den Ministerpräsidenten von Kanada, den US-Senat Minority Report usw. usw., die Klimaforscher und fachnahe Naturwissenschaftlern gegen das IPCC unternommen haben, haben wir mal wieder aufgelistet. Im Internet gibt es unzählige einschlägige Zusammenfassungen, zum Beispiel http://www.iavg.org/iavg060.pdf und EIKE das Märchen vom Konsens

Wissenschaftler, die sich gegen das IPCC wandten:

·       31’478          Oregon-Deklaration gegen das Kyoto-Protokoll (bis 2008)

·         4’000          Heidelberger-Appell (1992)

·         1‘400          Manhattan-Deklaration (2008)

·           500          Internationale Klimaskeptikerkonferenz in New York (2008)

·           105          Leipzig-Deklaration (1996)

·           100          Brief an UN-Generalsekretär Ban Ki Moon (2007)

·             60          Brief an Prime Minister Harper (Canada) (2007)

·             35          Statements by Deniers (2007)

·           100          Brief an President Obama (2009)

·           417          Brief an Frau Bundeskanzlerin Dr. A. Merkel (2009)
                    www.eike-klima-energie.eu

Den Zweifelnden empfehlen wir gründliche Nachprüfung: Wie wär’s also mit nachprüfen, Frau Meyer, Internet gibt´s doch auch beim SPIEGEL! Danach sollten Sie Ihren Lesern noch einmal erklären, wie Sie auf Ihre „Handvoll“ kommen. Allein den offenen Brief an Frau Merkel vom Sommer 2009, der auch Ihrer Redaktion zuging, enthält über 400 Unterschriften von kompetenten Bürgern, darunter fast 80 Wissenschaftlern aus klimarelevanten Disziplinen.

Da Sie das Recherchieren berufsmäßig gewohnt sein sollten und sicher die Grundrechenarten beherrschen, ist es für Sie bestimmt ein leichtes, die Anzahl der am IPCC-Prozess beteiligten Fachwissenschaftler mit denen in den Petitionen zu vergleichen, Sie werden insbesondere von der Höhe der sich ergebenden Mehrheit überrascht sein.

Natürlich würden wir bei EIKE jetzt gerne Genaueres über die US-Studie hören, die Frau Meyer  anführt und in der von 97% aller Klimawissenschaftler weltweit die Rede ist, sie seien der IPCC-Meinung. Uns ist leider keine derartige Studie seitens einer neutralen und seriösen Institution bekannt, allerdings beliebig viel Gegenteiliges. Daher bitten wir Sie, sehr geehrte Frau Meyer, höflich um Angabe der Quelle. Wir empfehlen Ihnen aber auch, ersatzweise keine Fiktion sondern die reale Umfrage des Soziologen Prof. Kepplinger von der Universität Mainz anzusehen, die unter deutschen Klimaforschern durchgeführt wurde. Schon 2007 stellte er fest, dass unter den 133 befragten deutschen Klimawissenschaftlern „sowohl die Grundlagen der Berechnungen als auch die nötigen Konsequenzen … umstritten“ sind. Auch Dennis Bray vom GKSS in Geesthacht kommt zu ähnlichem Ergebnis wie sie leicht hätten nachlesen können.

Stattdessen führen Sie die Literaturwissenschaftlerin Naomi Oreskes an, von der man inzwischen weiß, dass sie die von ihr untersuchte wissenschaftliche Literatur nicht einmal ansatzweise gesichtet, sondern lediglich eine unvollständige Datenbankabfrage der Paper-Abstracts vorgenommen hat. Das Ergebnis war unbrauchbar, wie es z.B. der englische Anthropologe Dr. Benny Peiser detailliert nachwies. Ores­kes such­te für Ihre Stu­die in wis­sen­schaft­li­chen Netz­wer­ken (ISI da­taba­se) nur mit den drei Schüs­sel­wör­tern  "glo­bal cli­ma­te change" nach. Dies lie­fer­te ihr un­ge­fähr nur 1/10 der Li­te­ra­tur, die zum allgemeineren Schlüs­sel "cli­ma­te change" pas­st, so dass 9/10 au­ßen vor blieb. Dr. B. Pei­ser, An­thro­po­lo­ge in Li­ver­pool, un­ter­such­te die Stu­die und befand sie auf Grund der vie­len Feh­ler als unbrauchbar.

Peiser merkt an:

"Oreskes behauptet, 928 Abstracts analysiert zu haben, die sie auf der ISI-Datenbank mit dem Stichwort „climate change“ für die Jahre 1993 "- 2003 gefunden hat. Doch eine Suche auf der ISI-Datenbank unter voller Verwendung dieser Schlüsselwörter zeigt, dass fast 12.000 Arbeiten in den fraglichen zehn Jahren dort veröffentlicht (2) wurden. Zahllose Forschungsarbeiten über die folgenden Themen blieben beispielsweise unberücksichtugt: Ähnliche oder sogar höhere globale Temperaturen während des Holozäns und des Klimaoptimums der Mittelalterlichen Warmzeit  mit niedrigeren atmosphärischen CO2-Gehalten als heute / Variabilität der Sonne als wesentlichem Treiber des jüngsten Klimawandels / Ungewissheiten der Klimamodellierung usw.“

Entsprechende Einwände wurden an Oreskes auch vom Wissenschaftsjournalisten David Appell gerichtet, und am 15. Dezember 2004 gab schließlich Oreskes zu, dass ihr Science Essay voller Fehler war. In einer betreffenden E-Mail von Dr. Peiser (link s.o.) an die Fachzeitschrift Science heißt es: „Da ich die Ergebnisse der Studie von Oreskes als fraglich ansah, beschloss ich, sie zu wiederholen.“ Bei sei­nem Ver­such diese Wiederholung in Sci­ence als Kor­rek­tur zu ver­öf­fent­li­chen, stie­ß Peiser je­doch auf ei­ser­ne Ab­leh­nung.  Der Telegraph UK hat sich der Geschichte unter der Überschrift  "Leading Scientific Journals are "Censoring Debate About Global Warming" angenommen. (Peiser nahm daraufhin Stellung zu Versuchen seine Ergebnisse umzuinterpretieren). Der Redaktion des SPIEGEL ist dieser Sachverhalt übrigens seit unserem Schreiben vom Februar 2009 bekannt (Realitätsverlust beim SPIEGEL ONLINE).

Aber nicht genug mit dieser unglaubwürdigen, obwohl immer wieder gern zitierten Naomi Oreskes (irgend etwas wird schon hängen bleiben), vom SPIEGEL wurde insbesondere Prof. Fred Singer aufs Korn genommen, der keine Bestätigung seiner wissenschaftlichen Verdienste benötigt, denn man braucht nur unter seinem Namen zu googeln. Bekanntlich ist jedermann im Medienzeitalter Verleumdungen wehrlos ausgesetzt, sobald es bestimmte Journalisten nun einmal wollen, so auch Singer, der Nichtraucher ist und weder mit der Erdöl- noch der Tabakindustrie in Verbindung steht. Aber wer glaubt das noch, wenn im SPIEGEL das Gegenteil gedruckt steht! Die Gegendarstellung von Singer ist schon in Vorbereitung.

Im Übrigen sei an dieser Stelle die Bemerkung erlaubt, dass die leicht durchschaubare Verleumdung, Kritiker an der politischen IPCC-Agenda seien generell Erdöl- oder Tabak-Lobbyisten, inzwischen an Abgedroschenheit nicht mehr zu überbieten ist. Wen glauben Sie, sehr geehrte Frau Mayer, mit diesen unappetitlichen Anwürfen heute noch beeindrucken zu können?

Die Überschrift des SPIEGEL-Artikels „Wissenschaft als Feind“ darf angesichts der oben geschilderten Fakten mit Humor quittiert werden. Es waren schließlich in den ersten Anfängen gerade die Fach-Wissenschaftler, die sich gegen die Klimahysterie wandten. Heute ist eine Bewegung in der Bevölkerung selber daraus entstanden, die sich nicht mehr von der Windrad- und Photovoltaikindustrie vermittels staatlich zwangshaft verordneter  Subventionen auf Basis unzutreffender Klima-Argumente das Geld aus der Tasche ziehen lassen will.

Bemerkenswerterweise geht der SPIEGEL auch auf den ClimateGate-Skandal ein, ohne ihn direkt beim Namen zu nennen. Wenn Frau Meyer dabei die inzwischen zu trauriger Berühmtheit gelangte Fälschung des IPCC zum angeblichen Abschmelzen der Himalaya-Gletscher schildert, übersieht sie geflissentlich das Entscheidende: Die Veröffentlichung einer falschen Zahl ist zwar immer ärgerlich, aber noch kein Grund, dem Autor unlautere Motive zu unterstellen – vorausgesetzt, der Irrtum wird schnellsten korrigiert. Genau hier liegt aber der springende Punkt. Das IPCC hat nicht korrigiert und wider besseres Wissen eine absurde Zahl, die zum Anlass weltweiter Warnungen vor einer Katastrophe wurde, bis zum bitteren Ende mit Klauen und Zähnen verteidigt. Und das war nur einer von vielen „Irrtümern“, die dem IPCC bisher nachgewiesen wurden. Das und vieles mehr war „ClimateGate“, nicht ein redaktioneller Zahlendreher!

Wenn der SPIEGEL erst einmal ein- und angreift, wird es laut, schrill und „schräg“.  Zeitgenossen, die die leiseren Töne bevorzugen, welche in der Regel viel mehr über die hinter den Kulissen ablaufenden wahren Ereignisse aussagen, sei der „offene Brief“ des weltbekannten Hurrikan-Forschers Dr. Chris Landsea  anempfohlen (in Englisch als pdf beigefügt). Landsea gab seine Mitarbeit im IPCC auf, weil er die IPCC-Agenda als einen Verstoß gegen die Wissenschaftsethik ansah, die sich nur der Wahrheit verpflichten und für keine weiteren Ziele – schon gar nicht für solche politischer Art – vereinnahmen lassen darf.  

Michael Limburg

(Dipl.-Ing.)
EIKE-Vizepräsident

Prof. Dr. Horst-Joachim Lüdecke

(Dipl.-Physiker)

EIKE-Pressesprecher

Jena, im Okt. 2010

Hier eine Erste Reaktion auf den Spiegel Artikel http://notrickszone.com/2010/10/09/schellnhuber-climate-science-would-not-stand-a-chance-in-a-public-debate/

 Anhänge als pdf: Auswahl unter den 4000  Unterzeichnern des Heidelberger Appell, Schreiben von Chris Landsea zu seinem Austritt aus der IPCC Gruppe

Related Files




Extremes Wetter, extreme Behauptungen!

Der Autor, Dennis Ambler, folgert:

Extremes Wetter – Das Spiel der Schuldzuweisungen 

Die Azteken hatten hoch komplizierte und effektive Bewässerungssysteme sowie „astrolonomische“ Observatorien (offensichtlich zusammengesetzt aus den Begriffen Astrologie und Astronomie), mit denen sie versuchten, das Wetter und damit die Füllmenge ihrer Reservoire vorherzusagen. Aber außerordentliche Fröste und Kälte, gefolgt von schweren, ausgedehnten Dürren könnte sie an den Rand des Zusammenbruchs geführt haben. Als das Klima dann wieder freundlicher wurde, dankten sie ihren Göttern mit Menschenopfern.

“Als es wieder Regenmengen gab, die für die Landwirtschaft ausreichend waren, reagierten die Azteken, indem sie massiv die Menschenopfer an ihren Regengott Tlaloc erhöhten. Wahrscheinlich wurden hunderttausende dabei geopfert“.

Während der Kleinen Eiszeit war es Hexenwerk, das für das zerstörerische Klima verantwortlich gemacht wurde:

Fagan’s The Little Ice Age (Basic Books, 2000):

„Hexenwerk” kam ins Spiel, als Leute ihre Nachbarn anklagten, das schlechte Wetter zu erzeugen… 63 Frauen wurden 1563 in der kleinen Stadt Wiesensteig bei lebendigem Leib als Hexen verbrannt, zu einer Zeit, die gekennzeichnet war durch intensive Debatten über die Autorität Gottes über das Wetter“.

„Fast ausnahmslos fiel dieser Verfolgungswahnsinn mit den kältesten und schwierigsten Jahren der Kleinen Eiszeit zusammen, wenn die Leute nach der Vernichtung der Hexen schrien, weil sie diese für ihr Unglück verantwortlich machten“.

Heutzutage schieben wir Wetterunbilden nicht mehr auf Hexenwerk, sondern auf unsere Emissionen von Kohlendioxid. Das nennen wir einen Verschmutzer, der durch Steuergelder kontrolliert werden muss, und jeder, der es wagt, diese Orthodoxie herauszufordern, wird verunglimpft.

Wir ignorieren Tausende von Jahren des Klimageschehens für eine Agenda, die eineinhalb Jahrhunderte lang auf manchmal verzerrten, oft aber umstrittenen Temperaturrekorden seit dem Ende der Kleinen Eiszeit basiert, und wir nennen das „Wissenschaft“.

Haben wir wirklich das Dunkle Zeitalter hinter uns gelassen?

Übersetzt von Chris Frey für EIKE

Ein neues Papier bei SPPI betrachtet die Geschichte von extremen Wetterereignissen.

Das Papier kann hier heruntergeladen werden: http://scienceandpublicpolicy.org/originals/extreme_weather_extreme_claims.html




Die Überschwemmungen in Pakistan 2010: Klimaänderung oder natürliche Variabilität?

Unter den extremen Wettervorgängen im Sommer 2010 erregten die extensiven Überschwemmungen in Pakistan sowie deren gravierenden und ausgedehnten Auswirkungen maximale Aufmerksamkeit sowohl in den Medien als auch unter Wissenschaftlern. Viele Klimawissenschaftler drückten ihre Sorge aus, dass solche Ereignisse im Zuge der Klimaänderung in Zukunft häufiger auftreten, während die WMO (World Meteorological Organization) bekannt gab, dass solche Wetterkatastrophen wie im Juli und August 2010 gut in die von den Klimawissenschaftlern vorhergesagten Szenarien passen. Die furchtbaren Schäden durch die Fluten und die Flucht Tausender Menschen, die durch die weiten überschwemmten Gebiete irrten, wurden von den meisten Zeitungen und Fernsehnachrichten in Kanada [der jetzigen Heimat des Autors, A. d. Übers.] in herzerweichenden Bildern dokumentiert. Nach jüngsten Schätzungen gab es durch die Fluten über 1500 Tote und über 2 Millionen Obdachlose.

Aus persönlicher Sicht weckten die TV – Bilder von Frauen und Kindern im knietiefen Wasser ergreifende Erinnerungen an eine ähnliche Situation, die ich in Pune, meiner früheren Heimatstadt (einer Stadt 200 km südöstlich von Mumbay, der größten indischen Stadt an der Westküste) im Juli 1961 erlebt hatte. In der ersten Woche des Juli 1961 führten ununterbrochene Monsunregenfälle zum Bruch eines Dammes, was eine massive Überschwemmung der Stadt Puna zur Folge hatte, die hunderte von Häusern zerstörte und in der viele Dutzend Menschen ertranken. Viele andere Städte und Regionen waren durch den Sommermonsun 1961 von ähnlichen Überschwemmungen betroffen. Wie sich herausstellte, war der Sommermonsun 1961 in Indien und den umgebenden Gebieten der regenreichste Monsun in einer 150-jährigen, durch Messungen gut abgesicherten Reihe, der zu massiven Überschwemmungen und Sachschäden in vielen Gebieten des Landes führte (India Meteorological Departement 1962). Der Monsun dieses Jahres 2010 war seit der dritten Juliwoche ziemlich heftig, und schwere Regenfälle brachten Überschwemmungen in der Region der Halbinsel von Indien und auch in den nordwestlichen, an Pakistan grenzenden Gebieten. Hat der schwere Monsun 2010 zu den historischen Überschwemmungen in Pakistan geführt? Lassen Sie uns kurz einen Blick auf die Klimatologie des Monsuns werfen.

Überschwemmungen und Dürren des indischen Monsuns

Zunächst muss beachtet werden, dass die Monsunzeit in Pakistan fast gleichlaufend mit dem indischen Monsun ist. Er wird hauptsächlich angetrieben durch sowohl regionale als auch globale Systeme wie die ENSO (El Nino Southern Oscillation), die Ausdehnung der  Schneedecke in Eurasien während des vorangegangenen Winters und der Phase der QBO (Quasi-biennal Oscillation), also der äquatorialen stratosphärischen Windoszillation (siehe auch Khandekar 1996). Die Monsunzeit ist in Pakistan allgemein kürzer als in Indien und dauert im Mittel vom 1. Juli bis zur dritten Woche im September. Im Mittel bringt der Monsun in Pakistan als Ganzes Regenmengen um 500 mm, verglichen mit etwa 850 mm für ganz Indien in der Zeit von Juni bis September. Mit einem exzellenten Datensatz über fast 150 Jahre kann man einige der extremsten Überschwemmungen und Dürren erkennen, wie Abbildung 1 zeigt. Diese Graphik zeigt, wie unregelmäßig Dürren und Überschwemmungen während dieser 150 Jahre verteilt sind. Gleichzeitig scheint es keinen abnehmenden bzw. zunehmenden Trend zu geben. Wie früher schon erwähnt, war der Monsun 1961 der regenreichste Sommermonsun mit ausgedehnten Überschwemmungen, während es im Jahre 1877 zu einer sehr schlimmen Dürre kam mit einem Regendefizit von 40%.

Abbildung 1: Variabilität des indischen Sommermonsunregens von 1844 bis 2000, mit sieben großen Dürren (1868, 1877, 1899, 1918, 1951, 1972 and 1987) und sechs ausgedehnten Überschwemmungen (1892, 1917, 1933, 1961, 1970 and 1975).

 

 

Neben anderen Dürren und Überschwemmungen war auch der Monsunregen im Jahre 1917 außerordentlich heftig mit extensiven Überschwemmungen in vielen Gebieten des Landes, während es 1972 zu einer kapitalen Dürre mit schweren Ernteausfällen kam. Die Dekade der dreißiger Jahre des 20. Jahrhunderts waren generell gekennzeichnet durch einen Regenüberschuss und Überschwemmungen, vor allem die Jahre 1933, 1936 und 1938 (Bhalme & Mooley 1980). Es ist interessant, dass die gleiche Dekade sog. Staubschüsseljahre [dust bowl years] in den Präriegebieten der USA und Kanadas waren. Über eine mögliche Fernwechselwirkung zwischen indischen Flutjahren und Dürre in der kanadischen Prärie wurde schon von Khandekar 2004 spekuliert.

Neben diesen unregelmäßig auftretenden Überschwemmungen und Dürren zeigt Abbildung 1 die jährliche Variabilität des Monsuns viele Jahre hintereinander, in denen auf ein Dürrejahr Jahre mit schweren Überschwemmungen folgten. Beispielsweise waren die Jahre 1941, 1972 und 1987 Dürrejahre, während die jeweils folgenden Jahre 1942, 1988 und 1987 durch Überschwemmungen gekennzeichnet waren. Diese Flut-Dürre-Sequenz scheint einen zweijährigen Rhythmus des indischen Monsuns nahezulegen, angetrieben durch die großräumigen Strömungsverhältnisse zwischen Atmosphäre und Ozeanen, und wurde von Terray (1987) und Anderen analysiert. Der hauptsächliche Mechanismus für dieses Phänomen scheint in der ENSO-Phase und seiner Entwicklung von El Nin?o (warm) zu La Nin?a (kalt) zu liegen. Die Jahre 1941, 1972 und 1987 waren El Nin?o – Jahre, die jeweils folgenden 1942, 1973 und 1988 dann Jahre mit einem La Nin?a.  El Nin?o – Ereignisse unterdrücken konvektive Vorgänge im Golf von Bengalen (Francis & Gadgil 2009), von wo Feuchtigkeit zu den nördlichen Regionen der Gangesebene und von dort weiter nach Nordwestindien entlang der Achse des Monsuntroges transportiert wird. Diese Trogachse etabliert sich bis Juli in einer von Südost nach Nordwest gerichteten Position und reicht vom Golf von Bengalen bis nach Nordwestindien in die an Pakistan angrenzenden Gebiete (siehe Abbildung 2). Ein paar Monsuntiefs über dem Golf von Bengalen unterstützen diesen Transport von Feuchtigkeit nach Nordwestindien und gelegentlich bis nach Pakistan hinein, meist während der Hochsaison des Monsuns, also etwa von Anfang Juli bis Mitte August.

Mögliche Gründe der Überschwemmung in Pakistan und Nordwestindien im Jahre 2010

Das El Nin?o – Ereignis im Jahre 2009, der zu einem der mildesten Winter in Kanada führte, ging im Frühjahr 2010 zu Ende. Im Juni 2010 entwickelte sich im äquatorialen Pazifik eine La Nin?a – Situation (Kaltphase der ENSO) die sich Anfang Juli verstärkte. Folgerichtig zeigte sich die Konvektion über dem Golf von Bengalen deutlich verstärkt, und zahlreiche Monsuntiefs [monsoon depressions] unterstützten die monsunale Strömung in den nordwestlichen indischen Subkontinent. In der dritten Woche des Juli 2010 unterstützte ein persistentes Tiefdruckgebiet über dem Teilstaat Rajasthan in Nordwestindien zusätzlich den Feuchtetransport bis nach Nordwestpakistan, was zu den schweren Regenfällen und Überschwemmungen dort führte. Nach den jüngsten Statistiken (bis zum 25. August 2010) des Indian Meteorological Departement erreichte die jahreszeitliche Regenmenge in den Teilstaaten in Nordwestindien schon jetzt über 125% des Mittelwertes.

 

 

Abbildung 2: Umrisskarte von Indien und Pakistan mit der mittleren Position der monsunalen Trogachse.

 

Es muss betont werden, dass es in der Monsunzeit durchaus lokale Unterschiede gibt dergestalt, dass es lokale und/oder regionale Überschwemmungen in einigen Gebieten des indischen Subkontinents gibt, während gleichzeitig andere Gebiete unter einem Regendefizit leiden. Diese unterschiedliche Verteilung von viel/wenig Regen ist integraler Bestandteil der Monsunzeit, die nur sehr selten zu einer ausgeglichenen Verteilung des Regens in der gesamten Region führt. Während des regenreichsten Monsuns im Jahre 1961 gab es in Zentralindien 30% mehr Regen als im Mittel üblich, während die Gebiete im Nordosten (wo der regenreichste Punkt der Erde Cherrapunjee liegt) ein Regendefizit von 25% verzeichneten.

Abschließende Bemerkungen

Der rasche Übergang der ENSO – Phase von El Nin?o zu La Nin?a zwischen Frühjahr und Sommer 2010 scheint das Schlüsselelement für die Auslösung des gewaltigen Monsuns 2010 über dem indischen Subkontinent zu sein. Die La Nin?a – Phase war verantwortlich für die verstärkte Konvektion über dem Golf von Bengalen, wo sich viele Monsuntiefs bildeten. Diese Depressionen wanderten entlang der monsunalen Trogachse und transportierten sehr viel Feuchtigkeit nach Nordwesten, was zu den exzessiven Überschwemmungen führte. Lokale und regionale Faktoren wie z. B. die Topografie könnten die Auswirkungen der Flut in manchen Gebieten noch verstärkt haben. Eine Untersuchung der Klimatologie des Monsuns, dargestellt in Abbildung 1, legt nahe, dass die Überschwemmungen in Pakistan 2010, obwohl scheinbar beispiellos, noch gut in die natürliche Variabilität des monsunalen Klimas im indischen Subkontinent passen. Ein besseres Verstehen könnte es uns ermöglichen, die Vorhersage der Stärke des Monsuns zu verbessern. Damit können in Zukunft die Auswirkungen von Dürren und Überschwemmungen minimiert werden.

Link: http://icecap.us/images/uploads/MLK2010Pakistanfloods.pdf

Dr. Madhav L. Khandekar is a former Research Scientist from Environment Canada where he worked for about 25 years. Khandekar holds M.Sc degree in Statistics from India and M.S. and Ph.D. degrees in Meteorology from USA. Khandekar has been in the fields of atmosphere/ ocean/climate for over 50 years and has published over 125 papers, reports, book reviews, scientific commentaries etc. He has published over 40 peer-reviewed papers in various international Journals and authored a book on ocean surface wave analysis and modeling, published by Springer-Verlag in 1989. Khandekar is presently on the editorial board of the Journal Natural Hazards (Netherlands) and is a former editor of the journal Climate Research (Germany). He was an expert reviewer for the IPCC (Intergovernmental Panel on Climate Change) Climate Change Documents (AR4) published in 2007. 

Weitere Informationen zum Extremwetter vs Klima finden Sie hier (englisch) 

Übersetzt von Chris Frey für EIKE




Climategate Update 3: Der Skandal der nicht stattgefunden haben darf! Sand in die Augen der Öffentlichkeit gestreut – Der Muir-Russell-Bericht ist Propaganda.

Das These vom menschengemachten CO2-verursachten Temperaturanstieg ist bis heute unbewiesen, trotz der Milliarden Dollar an Forschungsmitteln. Es entfaltete dennoch auf vielen nationalen politischen Entscheidungsebenen, wie auch auf der UNO-Ebene eine einmalige Wirkmächtigkeit. Inzwischen zeigt sich jedoch immer deutlicher, dass nicht alle Industriegesellschaften bereit sind, die in ihrer Höhe noch unabsehbaren wirtschaftlichen und wohlstandsvermindernden Folgen einer unbegründeten CO2-Vermeidungsstrategie zu tragen. Dies vor allem in den USA und bei den aufstrebenden asiatischen Wirtschaftsmächten China und Indien. Die Veröffentlichung der E-Mails und der Daten lieferte für viele skeptischen Beobachter Beweise, dass die weltweit stark geförderte Politik der "Klimarettung" auf kaum begründbaren wissenschaftlichen Fakten beruht, viel mehr aber auf Glaubensgewissheiten.

Die wichtigsten Medien in Kontinental-Europa nahmen, anders als in den USA und Australien, die Sache auf die leichte Schulter: ein weitverbreiteter Tenor in Kommentaren war, die Veröffentlichung sei illegal, die wissenschaftlichen Ergebnisse nicht beeinträchtigt, das Theorem vom menschenverursachten Klimawandel sei nicht gefährdet.

Nichts ist falscher als das: Wer sich intensiv mit den veröffentlichten E-Mails befasst und den Kontext kennt, stellt fest, dass die Wahrheit anders beschaffen ist, als die Durchhalte- und Propaganda-Parolen der Parteigänger und Profiteure der Klimawandel-Politik glauben machen wollen. Eine Komplettdarstellung aller Emails und deren Kontext finden Sie hier

Durch die Veröffentlichung der E-Mails ist der wissenschaftliche Ruf der englischen University of East Anglia mit ihrem international bedeutenden Klimaforschungsinstitut CRU schwer angeschlagen worden. Drei Untersuchungsausschüsse befassten sich mit dem Thema: zuerst der Ausschuss für Wissenschaft und Technologie des britischen Unterhauses, dann zwei von der University of East Anglia eingesetzte Ausschüsse: (1) ein Komitee unter Lord Oxburgh (siehe auch hier) zur Überprüfung der wissenschaftlichen Arbeitsergebnisse der CRU (Scientific Assessment Panel – SAP), (2) ein Gremium unter Sir Muir Russell zur Beurteilung des wissenschaftlichen Verhaltens der CRU Klimatologen (Independent Climate Change Email Review – ICCER). 

Nach kurzer Untersuchungszeit wusste das Oxburgh-Team bereits, dass die wissenschaftliche Arbeit der CRU "tadelsfrei" sei. Bald stellte sich heraus, dass nur einige gezielt ausgesuchte und kaum angreifbare wissenschaftliche Papiere begutachtet worden waren, nicht die brisanten Papiere, die als grundlegend für das Theorem vom menschengemachten Klimawandel angesehen werden können. So wurde die Oxburgh-Untersuchung bald als Farce erkannt.

Anders verhielt es sich mit der Arbeit des Muir-Russell-Gremiums. Das Team arbeitete länger und vorgeblich tiefer schürfend als das Oxburgh-Team. Der Muir-Russell-Bericht lag Anfang Juli 2010 vor. Das Dokument umfasst 160 Seiten, unter Einbezug der Anlagen und der veröffentlichten Eingaben von Betroffenen und Kritikern kommen mehrere Hundert Seiten zusammen.

Sich im Einzelnen damit zu beschäftigen kostet viel Zeit, auch deshalb, weil der Bericht schlecht strukturiert ist. Für die weitaus größte Zahl der Beobachter und Leser scheint die zu Beginn des Berichts stehende Management-Zusammenfassung der Untersuchungsergebnisse ausreichend zu sein. Darin stehen aber nur Urteile, die vorab schon festzustehen schienen.

Der Vorurteils-Charakter zeigt sich bei kritischer Analyse des Berichts und der Arbeit des Teams. Die Anschuldigungen und die damit verbundenen Sachverhalte wurden nur angesprochen, aber nicht wirklich untersucht. Die wichtigsten Skeptiker erhielten kein Gehör, wohl aber die Betroffenen. Dem Team genügten die Einlassungen der Angeschuldigten zu generellen Entlastungen. Eine tief gehende unparteiische Untersuchung war die Muir-Russell-Veranstaltung nicht. Entsprechend liegt das Ergebnis auf der gleichen Linie wie der Bericht von Lord Oxburgh: Das Verhalten der englischen Klimatologen sei insgesamt nicht zu beanstanden – abgesehen von ein paar kleineren tadelnswerten Vorgängen. Eine Farce kann Sir Muir Russells Untersuchung nicht genannt werden, wohl aber eine umfangreiche und geschickt aufgemachte Weißwaschung! Die Urteile sind Behauptungen, nicht Ergebnisse vorurteilsfreier Untersuchungen!

Auch englische Politiker haben inzwischen gemerkt, was es mit den angeblich "unabhängigen" Untersuchungsausschüssen – eingesetzt vom Betroffenen, der University of East Anglia – auf sich hatte: Es waren mit dem Attribut der "Unabhängigkeit" getarnte Selbstreinigungsversuche im Sinne einer Standesjustiz. Die Universität urteilte über sich selbst und ihre Professoren frei nach Grundsatz: "Wright or Wrong? – My Country!"
Der Labour-Abgeordnete und promovierte Chemiker, Graham Stringer, brachte die Kritik an der  Einsetzung dieser Universitätsausschüsse auf den Punkt: "Das Parlament wurde hinters Licht geführt …!"

Helmut Jäger (EIKE) hat sich die Mühe gemacht, den Muir-Russell-Bericht zu analysieren. Die Analyse kann aus als pdf Datei im Anhang herunter geladen werden

Related Files




Der Wärmeinseleffekt (WI) als Antrieb der Temperaturen – eine Wertung der DWD-Temperaturmessstationen

1. Der Wärmeinseleffekt (WI) als Antrieb der Temperaturen – eine Wertung der DWD-Temperaturmessstationen

 

2 . Was sind Temperaturmessungen auf Großflughäfen wert oder, wie das ZDF mit (bewusst?) falschen Temperaturaussagen die Öffentlichkeit täuscht und die Abkühlung in Deutschland verschleiert

Teil 1

Der Wärmeinseleffekt (WI) als Antrieb der Temperaturen – eine Wertung der DWD-Temperaturmessstationen

 

Die Abbildung zeigt anschaulich den Wärmeinseleffekt (WI) über städtischen Gebieten gegenüber Land. Wie noch gezeigt wird, ist der WI in der Fläche (Land) ebenfalls nicht zu vernachlässigen, da vielerorts landschaftliche Veränderungen wie Trockenlegung stattfanden oder landschaftliche Nutzflächen geschaffen wurden.

Im komplexen Wetter- und damit Klimageschehen, gibt es eine Vielzahl von Parametern, die es zu berücksichtigen gilt, sollen die Entscheidungsträger in Politik, Wirtschaft und Gesellschaft ein klares Bild erhalten, welches geeignet ist, die richtigen Entscheidungen dahingehend zu treffen, dass die Weichen für unser Land und unsere Gesellschaft weiter in Richtung Wohlstand und Zukunftssicherung gestellt werden. Eine Ausrichtung anhand eines einzigen Parameters, wie z.B. CO2 ist nicht nur grob fahrlässig, sondern zerstört auch die Perspektiven der nachfolgenden Gesellschaft, und damit das Wohl und die Zukunft unserer Kinder. Dass CO2 im Klimageschehen keine praktische Rolle spielt, hat EIKE schon in zahlreichen wissenschaftlich hinterlegten Artikeln dargelegt. Dass aber auch die vermeintlichen Beweise für eine postulierte anthropogene Erderwärmung, die Datenreihen, nicht das Halten, was der Betrachter erwartet – eine realistische Wiedergabe des Temperaturgeschehens der Gegenwart – wird über Climategate hinaus (EIKE berichtete darüber), der folgende Bericht darlegen.

Ein wichtiger Parameter, der in Temperaturzeitreihen zu berücksichtigen ist und in den Datenreihen diverser Institude, wie Hadley, GISS, aber auch dem DWD nicht berücksichtigt wird, ist der Wärmeinseleffekt (WI). Der WI beschreibt, wie sich die Veränderungen in Landschaft, Verstädterung und Bevölkerungszunahme auf die Temperaturen auswirken und damit vergleichende Temperaturaussagen beeinflussen und der WI, aufgrund seiner höheren Spreizung in der Gegenwart als in der Vergangenheit aus aktuellen Temperaturdaten herausgefiltert werden muss, da ansonsten falsche, zu hohe Temperaturwerte für die Gegenwart wider gegeben werden. Zum WI oder Urban Heat Island Effect (UHI), wie er in englischsprachigen Ländern genannt wird, gib es zahlreiche wissenschaftliche Untersuchungen (http://scholar.google.de/scholar?q=Urban+heat+influences&hl=de&as_sdt=0&as_vis=1&oi=scholart) oder hier (http://www.appinsys.com/GlobalWarming/GW_Part3_UrbanHeat.htm). Diese beschränken sich meist auf den amerikanischen Raum, wo das Thema, nicht nur in der Wissenschaft, breit diskutiert wird. Die Abbildung 1 gibt einen Überblick über die Wärmeinseln weltweit.

 

Abbildung 1 (Quelle: NASA) zeigt die Wärmeinseln weltweit, sowie deren Temperaturabhängigkeit (kleines Photo). “Es ist zu berücksichtigen, dass durch das Wachstum der Städte, der großflächigen Rodung von Wäldern und der Ausdehnung landwirtschaftlicher Produktionsflächen weiträumig Wärmeinseln geschaffen wurden, in deren Nähe die Messstationen heute deutlich höhere Lufttemperaturen registrieren.“ (Quelle: Uni Erlangen).

In den USA werden die Temperaturmessstationen des amtlichen Wetterdienstes einer unabhängigen Prüfung unterzogen, um deren Eignung, auch vor dem Hintergrund eines WI, zu ermitteln. 2009 fand eine abermalige Überprüfung der Temperaturmessstationen statt. Sage und schreibe ca. 61% der Messstationen zeigten ein Fehlerpotential von >2°C! Für eine Temperaturaussage, die von einer Erhöhung von Zehntel Grad Celsius pro Dekade ausgeht (IPCC-Prognosen), erübrigt sich die Aussage, dass solche Messstationen ungeeignet sind. Von insgesamt 1221 Messstationen, die das USHCN betreibt wurden 1003 überprüft. Es fand also keine Stichprobe, sondern mit 82% eine fast komplette Erfassung statt. Die Abbildung 2 gibt eine Übersicht der auditierten Messstationen und wie deren Bewertung ausfiel.

Abbildung 2 zeigt die Klassifizierung der über die USA verteilten Temperaturmessstationen. Die rote Farbe überwiegt eindeutig, Quelle: (http://www.surfacestations.org/).

Realitätsnahe Temperaturwerte geben Stationen wider, die abseits von Gebäuden, el. Anlagen oder sonstigen aktiven und passiven „Reflektoren“ platziert sind. Bei diesen Stationen fällt auf, dass keine nennenswerte Erwärmung über die letzten Jahrzehnte ausgewiesen wird, sondern lediglich ein schwacher Temperaturanstieg, wie er durch die gesteigerte Sonnenaktivität zum ausgehenden 20. Jahrhundert erklärt wird (Abbildung 3).

 

Abbildung 3 links zeigt die Messstation Orlando/Kalifornien. Deutlich ist zu sehen, dass die Temperaturen zu Beginn des 20. Jahrhunderts z.T. deutlich höher lagen als heute. Die Abbildung rechts (beide Abbildungen, Quelle: http://www.surfacestations.org/) zeigt eine ungenügende Station, die sich in unmittelbarer Nähe von aktiven Heizstrahlern befindet und einen starken Temperaturanstieg über die letzten Jahrzehnte ausweist.

Die vermeintlich starke Erwärmung, besteht demnach aus Asphalt, Autos, Auspufföffnungen, Abfallanlagen, etc. Anhand der Abbildung 4 sind die Auswirkungen der Populationsdichte und der damit verbundenen Ausbreitung urbaner Besiedelung auf die Temperatur zu sehen, bzw. wie die Populationsdichte, also Städte ihr eigenes, deutlich wärmeres Temperaturprofil besitzen, welches mit der Ausbreitung und Technologisierung der Städte mit wächst, was nichts anderes bedeutet, als dass die höheren gemessenen Temperaturen zumindest teilweise auf dem WI beruhen, sowohl in den USA, als auch in Deutschland, wie noch gezeigt werden wird.

 

Abbildung 4 zeigt den WI nach Goodridge 1996 für Kalifornien. Deutlich ist erkennbar, dass mit zunehmender Einwohnerzahl die Temperaturanomalie immer schneller steigt. Dies ist nicht allein durch das Fehlen von Grünflächen/Bäume, die moderierend auf den Temperaturverlauf wirken zurückzuführen, indem sie Feuchtigkeit abgeben und damit Verdunstungskühlung erzeugen, sondern auf den zunehmenden Einsatz von Elektro- und Verbrennungsmaschinen oder Kühlanlagen, die entsprechend ihre Verlustwärme, bzw. Abwärme an die Umgebung abgeben, was die Temperaturen immer mehr ansteigen lässt.

Vereinfacht gesagt, tritt folgendes ein, während z.B. vor 100 Jahren eine Messstation noch auf weiter, freier Flur angesiedelt war, wurde diese durch die Ausbreitung der Siedlungen eingeholt und liegt nun mitten in dieser Siedlung und deren Abwärme, was auf die Temperaturen nicht ohne Einwirkung bleiben kann. Ferner weiß jeder, dass es sowohl am Tag, als auch nachts, im Sommer wie im Winter, in Städten wärmer ist, als in der Umgebung. Bereits eine lokale Verschiebung der Messstationen zu städtischen Gebieten, würde also eine statistische Auswirkung in der Art bewirken, dass ein falsches Bild der tatsächlichen Temperaturwerte vorliegt, ein zu hohes. Die folgenden Abbildungen zeigen, wie durch das Aufstellen technischer Anlagen oder Gebäuden, der Temperaturgang der Messstation verfälscht wird und daher unbrauchbar für eine Langfristmittelwertaussage ist.

 

Abbildung 5 zeigt eine Temperaturmessstation in Perry, Oklahoma in unmittelbarer Nachbarschaft zur Feuerwehr. Dazu die Infrarotaufnahme, die zeigt, wie die Hauswand auf die Station rückkoppelt.

 

Abbildung 6 zeigt eine Temperaturmessstation in Glenns Ferry, Idaho in unmittelbarer Nähe einer Trafostation. Auch hier entlarvt die IR-Aufnahme, wie stark sich der Trafo erhitzt und auf die Station einwirkt.

 

Abbildung 7 zeigt eine Temperaturmessstation in Lampasas, Texas. Diese wurde in 2000 näher zu einer Radiostation positioniert, wodurch es einen deutlichen Temperatursprung gab (Datenreihe rechts, rote Linie).

Problematisch ist weiter die Tatsache, dass zunehmend Messstationen auf Flughäfen in die Datenfindung einer Mittelwerttemperatur einbezogen werden. Ihr Anteil stieg von wenigen % in den 1930-Jahren auf über 40%. EIKE berichtete darüber (http://www.eike-klima-energie.eu/uploads/media/100420_GISS_METAR_DE.pdf). Ein eklatantes Beispiel, über den Wert dieser Messstationen zeigt Ihnen die Abbildung 8. Sie ist jedoch nicht die Ausnahme,  wie wir am Beispiel der Wetterstation auf dem Frankfurter Flughafen zeigen werden.

Abbildung 8 zeigt die Temperaturmessstation auf dem Flughafen von Rom und dessen Lage zum Rollfeld.

Es erübrigt sich jeder Kommentar zur Güte dieser Messstation. Auch wenn andere Messstationen auf Flughäfen nicht so eklatant falsch aufgestellt wurden, es bleibt die Tatsache, dass Verkehrsflugzeuge über ihre sehr heißen Abgase aus ihren Triebwerken, ihre nähere Umgebung erwärmen. Je höher das Flugaufkommen und dieses steigt bekanntlich von Jahr zu Jahr (von kleinen Rückgängen in Wirtschaftskrisen abgesehen), desto mehr Flugbewegungen, desto mehr Abwärme und desto stärkerer Einfluss des WI auf die örtlichen Temperaturen und dies alles vor dem Hintergrund, dass sich der Anteil der Flughafen-Messstationen im Datenerfassungsnetzwerk ständig erhöht und derzeit bei 41% liegt.

Dass der WI nicht auf die USA beschränkt ist, braucht nicht gesondert dargelegt zu werden, da physikalische Auswirkungen überall auf der Welt gleich sind. So zeigt denn die Abbildung 9, die wissenschaftlichen Untersuchungen zum Wärmeinseleffekt für Asien, Nordamerika, Europa und Deutschland (Rheingraben). Deutlich ist erkennbar, dass die Stadttemperatur deutlich von der Umgebungstemperatur Land abweicht, also verfälschte Werte liefert. Die Abbildung zeigt die Temperaturunterschiede von Städten gegenüber dem Umfeld.

  

Abbildung 9 zeigt den WI für Städte in Asien, USA, Europa und für Siedlungen im Rheingraben, Quelle: Christian-Dietrich Schönwiese, Klimatologie, Stuttgart, 2003.

In seiner Veröffentlichung vom 03. März 2010 berichtet der bekannte Physiker und Klimawissenschaftler Roy Spencer, dass die Auswirkungen des Wärmeinseleffekts von der Besiedlungsdichte abhängen (Abbildung 10). Bei Änderungen von geringen Bevölkerungsdichten ist der WI proportional am stärksten, d.h. hier tritt die größte Erwärmung in Relation zur prozentualen Veränderung der Bevölkerungsdichte auf. Da im 20. Jahrhundert weit mehr kleinere Ansiedlungen in ihrer Bevölkerungsdichte zunahmen, als große Städte, die darüber hinaus noch einen geringeren prozentualen Erwärmungstrend beim Zuwachs der Besiedlung ausweisen, liegt hier ein weiterer Aspekt, warum die gemessenen Temperaturen ab der zweiten Hälfte des 20. Jahrhunderts zunahmen.

  

Abbildung 10 zeigt den WI-Temperaturantrieb in Abhängigkeit der Bevölkerungszunahme. Die Beziehung ist nicht linear, unterhalb von 1.500 Einwohner/km2 ist der WI-Anstieg ganz besonders ausgeprägt.

Wie sieht es nun mit dem WI in unserem Land aus? Nach unserem Kenntnisstand misst der DWD an 531 Stationen Lufttemperatur und- feuchte. Von den 531 Stationen sind die meisten sog. nebenamtliche Stationen, die nicht von DWD-Personal betreut werden.  Der DWD gibt auf seiner Internetseite an, dass das Hauptamtliche Netz aus 182 Wetterwarten und Wetterstationen, 48 davon 24-stündig mit Personal besetzte Wetterwarten, darunter 16 Flugwetterwarten an internationalen Verkehrsflughäfen, 28 davon zeitweise mit Personal besetzte Wetterwarten, 106 davon vollautomatische hauptamtliche Wetterstationen incl. zwei unbemannte Feuerschiffe, zwei Leuchttürme und drei Bojen/Baken besteht (Stand: 10.06.2010). Abbildung 11 zeigt die Übersicht.

 

Abbildung 11 (Quelle: DWD) zeigt Lage und Art des Hauptamtlichen DWD-Messnetzes.

Sind alle Messstationen des DWD so aufgestellt, wie die Messstation in Abbildung 12, so wäre der WI sicherlich nur ein untergeordneter Parameter in Deutschland zur vergleichenden Temperaturaussage, sofern sich am Landschaftsbild nichts änderte. D.h. keine Waldrodung, bzw. Trockenlegung von Wiesen für Ackerland stattfand, da bekannt ist, dass Wald und Feuchtgebiete viel Wasser an ihre Umgebung abgeben und durch die dabei entstehende Verdunstungskühlung (Prinzip einer Klimaanlage) mildernd auf das Temperaturprofil wird. So stieg z.B. durch die weiträumige Trockenlegung des Rheingrabens um Karlsruhe das Temperaturprofil vergleichsweise stark an, was auf diesen Effekt, zumindest teilweise, zurückzuführen ist.

 

Abbildung 12 zeigt Lage und autom. Messstation des DWD in Lügde-Paenbruch.

Es braucht jedoch nicht lange gesucht zu werden, um eine gänzlich ungeeignete Messstation zur Mittelwertangabe der Temperaturen zu finden. Dies ist die im April 2009 (kein Aprilsscherz) in Betrieb genommene Wetterstation in Offenbach, Abbildung 13.

Abbildung 13 zeigt die DWD Wetterstation in Offenbach am Tag ihrer Einweihung. Gut zu sehen, dass sie in Mitten einer Häuserfront liegt, die aus einer dunklen Betäfelung besteht (also sehr wärmeabstrahlend ist – „Schwarzkörper“) und darüber hinaus noch gegenüber einer wärmeverspiegelten Glasfläche liegt. Dazu noch unter einer Betonüberdachung, die die Hitze staut. Diese Messstation taugt weder für eine Temperaturaussage, noch für eine sachgerechte Mittelwertbildung. Weiter ist es schon eigenartig, dass eine solche Messstation, die nur ein stark überhöhtes Temperaturprofil ausweisen kann, gerade im Kopenhagen-Jahr 2009 in Betrieb genommen wurde. Wir erinnern uns noch an die vollmundige Aussage von Prof. Rahmstorf und Kollegen, dass 2009 das zweitwärmste Jahr seit mehr als 130 Jahren gewesen sein soll. Sollten in die Berechnung Ergebnisse wie von dieser Station eingeflossen sein?

Die nächsten Abschnitte werden aufzeigen, dass der WI, den der DWD in seinen Mittelwerten der Temperatur weitgehend nicht berücksichtigt, also unbeachtet lässt, auch in Deutschland keine vernachlässigbare Größe darstellt. In persönlichen Mails (an Herrn Kowatsch), räumt der DWD für Städte wie Frankfurt zwar einen WI-Antrieb von 1°C ein, geht aber davon aus, dass dieser in der Fläche umgerechnet nicht mehr als 0,1°C liegt, was, wie gezeigt wird, eine Falschaussage ist.

Herr Müller-Westermeier vom DWD, Zitat: “Natürlich gibt es einen Wärmeinseleffekt in großen Städten. Er kann dort im Mittel auch etwa 1 Grad ausmachen.  In Anbetracht des auch in Deutschland geringen Anteils dicht bebauter Gebiete an der Gesamtfläche ist das aber weniger als 0,1 Grad. Dieser Effekt ist auch nicht neu und hat sich in den letzten Jahrzehnten kaum verändert, so dass der  Wärmeinseleffekt für irgendwelche Temperaturveränderungen in den letzten Jahren völlig ohne Belang ist.“ Zitat Ende.

Auf den Nenner gebracht, ist der WI die Aufheizung der Umgebung durch den Menschen. Feiner ausgedrückt durch sozio-ökonomische Einflüsse. Wie die Abbildung 9 zeigt, tritt er global auf und verursacht regional erhebliche Verzerrungen im Temperaturprofil und wirkt somit statistisch global als eine deutliche Erwärmung. Er ist keine allgemeine Temperaturerwärmung durch klimatische Veränderungen, sondern eine Zusatzerwärmung der Orte, die durch den Menschen besiedelt wurden. Die Auswirkungen der Zivilisation, wie Landschaftsveränderung und Technologisierung spielen dabei dominante Rollen. Er ist dem natürlichen Klimatrend überlagert und schwächt Kälteperioden ab, bzw. verstärkt Wärmeperioden. In beiden Fällen verfälscht er statistische Vergleiche, insbesondere, wenn vermehrt Stationen in städtischen Gebieten verwendet werden, erheblich. Siehe http://www.eike-klima-energie.eu/news-anzeige/cimategate-update-12-cru-jones-gibt-zu-nur-10-bis-20-der-weltflaeche-zeigten-erwaermung/?tx_ttnews[cat]=1&tx_ttnews[pS]=1262300400&tx_ttnews[pL]=2678399&tx_ttnews[arc]=1&tx_ttnews[pointer]=1 oder hier http://www.eike-klima-energie.eu/news-anzeige/in-erwartung-eines-us-amerikanischen-temperatur-gate/?tx_ttnews[cat]=1&tx_ttnews[pS]=1264978800&tx_ttnews[pL]=2419199&tx_ttnews[arc]=1

In den Städten ist der WI-Wert am größten (der DWD räumt, wie bereits erwähnt, in Städten 1°C ein, Mail an Herrn Kowatsch), auf dem Lande ist der WI kleiner, aber vorhanden. Die Wetterstationen messen diese Zusatzerwärmung zwangsläufig automatisch mit, vor allem, weil sie sich oft in bebauten Gebieten befinden. Da der WI keine sprunghafte, sich plötzlich ändernde Größe darstellt, wie z.B. Wetterereignisse, wird sein Einfluss nicht wahrgenommen und unterschätzt, was jedoch nicht als Entschuldigung für den DWD gesehen werden kann, den WI zu nicht zu berücksichtigen, wie wir noch zeigen werden.

Ein Beispiel vorweg: Der Jahresmittelwert betrug 2009 bei der Wetterstation am Flugplatz Heathrow bei London 11,9 Grad, bei der Ostalbwetterwarte in Neresheim im Süden Deutschlands nur 8,1 Grad, obwohl sich diese Station nicht außerhalb von Neresheim, sondern in einer Siedlung und dort an einem Südhang befindet. Ein Unterschied in den Mitteltemperaturen von fast 4°C, der durch die Insellage Großbritanniens und damit milde Winter allein nicht erklärbar ist, aber vor dem Hintergrund des WI in Städten und im speziellen auf Großflughäfen, wie wir noch zeigen werden. Wem die Ostalbwetterwarte zu speziell ist, in 2009 lag die Mitteltemperatur in Deutschland bei 9,2°C, was immer noch einen Unterschied von fast 3°C ausmacht. Worauf dieser große Unterschied wesentlich beruht, werden wir unter “Temperaturmessstationen auf Großflughäfen“ (Kapitel 2) zeigen. Übrigens lag laut Met Office (http://www.metoffice.gov.uk/climate/uk/datasets/Tmean/ranked/UK.txt) die Mitteltemperatur 2009 in Großbritannien bei 9,17°C. Gut 2,7°C Temperaturdifferenz zu London Heathrow. Dieser Differenzwert von ca. 2 ½ °C wird uns auch noch später, beim Flughafen Frankfurt Rhein-Main begegnen.

Dass Messdaten nicht WI-bereinigt werden, liegt nicht daran, dass es hierzu keine Verfahren gibt. Es gibt einfache Verfahren zur ungefähren Bestimmung des WI, die jeder selbst vornehmen kann. Jedoch gehört zu Ihrer Anwendung die genaue Kenntnis der Metadaten über der Zeit. Außerdem wurde bis heute kein standardisiertes, überall akzeptiertes und damit breit anwendbares Verfahren dafür entwickelt.

Beispiel (durchgeführt von Herrn Kowatsch):

Gemessen wird die Temperatur auf dem Schulhof nach einem vergleichbaren Verfahren. Die Schule selbst liegt am Ortsrand der Gemeinde Abtsgmünd. Anschließend begibt man sich mindestens 100 m entfernt auf eine Wiese, 10 Messungen ergeben den Durchschnittswert des WI für diesen Punkt, an diesem Tag und bei diesen bestimmten Tageswetterbedingungen. Die Messungen wurden ab Anfang Juni 2010 durchgeführt. Der Schulhof war stets wärmer als die Temperaturen 1m über dem Wiesengras. Stets konnte ein Durchschnitts-Wert für den WI bestimmt werden, der in der Größenordnung von einem Grad lag!

Korrekturverfahren für den WI werden jedoch bei den Wetterstationen selbst meist nicht angewendet. So kann es nicht verwundern, dass die einzelnen Leiter der Wetterstationen den speziellen Wärmeinseleffekt ihrer Station gar nicht kennen. Deshalb werden grundsätzlich die gemessenen Temperaturen ohne Korrekturen nach Offenbach zur Zentrale des Deutschen Wetterdienstes (DWD) weitergegeben und daraus die Mittelwerte für Deutschland errechnet. Und es ist leider nicht so, dass alle Stationen des DWD so aufgestellt sind, dass sie nicht durch WI-Fehler behaftet sind.

Der DWD geht bei der Aufstellung und Betrieb seiner Messstationen von folgenden Aufstelldingungen aus:

·   Die Hütte/Screen stehe unbeschattet auf dem Messfeld

·   Sie stehe in beachtlichem Abstand von Bäumen, Hecken und Gebäuden oder sonstigen Hindernissen (allg. Regel: Hindernisentfernung größer als zweifache Hindernishöhe)

·   Bei DWD-Messnetzen besteht die Forderung, dass die Messfühler sich in 2 m Höhe über dem Boden befinden. International üblich sind aber auch: 1,5 bis 2 m, z.B. bei der  “französischen Hütte“

·   Die Türöffnung der Messhütte weise nach Norden

·   Der Tritt vor der Hütte hat zur Vermeidung von unerwünschten Erschütterungen keinen Kontakt zum Aufbau (Gestell) der Thermometerhütte

·   Es hat keine (unbekannte) Ortsveränderung über die Zeit stattgefunden

·   Im Detail gelten die allgemeinen Aufstellbedingungen und Fehlerklassifizierungen des US Climate Reference Network Rating Guide

Wie sieht nun die Realität aus? Von den von uns überprüften DWD-Wetterstationen, sind für eine statistische Temperaturvergleichsmessung ca. 40% nicht geeignet. Insgesamt wurden 130 Stationen nach folgenden Kriterien überprüft, wobei mehrere hundert Photos ausgewertet wurden:

·         Zu nahe an Gebäuen, also reflektierenden Flächen. Als „Faustformel“ gilt der doppelte Abstand der Messstation zur Gebäudehöhe (siehe oben)

·         Verkehrsaufkommen, oder Parkplätze in unmittelbarer Nähe (Abwärme)

·         Messstation in bevorzugt warmen Gebieten (z.B. Innenstadt)

·         Messstation am Oberrand eines Steilhanges mit Sonnenlage (Aufwärme/Thermik verfälscht Ergebnis)

·         Messstation wird abgeschattet. Befindet sich nicht auf freiem Gelände

Hier fünf Beispiele nicht geeigneter Stationen für eine statistische Zeitreihenbetrachtung.

Welche Faktoren bestimmen den WI? Wärmeabstrahlende technische Systeme wurden bereits gezeigt (Abbildung 5 – 7).

Allgemeine Gründe sind die Zunahme der Bevölkerung, die Zunahme des Wohlstandes und die damit bedingte zunehmende Bebauung und die Zunahme des Energieverbrauchs. Hier im Einzelnen:

1)  Bebauung durch Gebäude und Versiegelung der Landschaft

  

Abbildung 19 zeigt den Tagesgang der Temperatur an einem sommerlichen Strahlungstag in Bodenhöhe für verschiedene Böden, nach Fezer 1975. Es fällt nicht nur auf, dass über Beton und insbesondere Asphalt die Temperaturen z.B. sehr stark über denen des Waldbodens liegen, sondern, dass auch ein deutlicher Temperaturunterschied von mehreren °C zwischen Gras, Wald oder landwirtschaftlichen Flächen liegt. Messstationen, die ursprünglich auf freiem Feld standen und zwischenzeitlich in einer Gras, Hecken oder offenen Waldlandschft stehen (oder umgekehrt), weil sich das Landschaftsbild über die Jahrzehnte änderte, was nicht wirklich verwundern kann, geben somit deutlich veränderte Temperaturwerte wieder und verzerren jeglichen Temperaturvergleich. Die Gründe hierfür sind vielfältig:

–  Im Sommer speichert der verwendete Feststoff die tagsüber von der Sonne eingestrahlte  Wärme (spezifische Wärmekapazität der Stoffe) und gibt sie nachts ab, die Bebauung erwärmt somit die Umgebung.

–  Wenn es regnet, fließt Regenwasser sofort ab und erzeugt keine Verdunstungskälte.

–  Bäume und Pflanzen, die vor der Versiegelung der Landschaft angesiedelt waren, haben einen erheblichen Teil der Sonnenstrahlung für ihre Fotosynthese verwendet. Nur ein Teil der Sonnenstrahlung erreichte den Boden. Die Sonnenstrahlung wurde abgefangen, und in chemischer Form in den Pflanzen gespeichert. Die Versiegelung der Landschaft hält weltweit an, bedingt durch die Bevölkerungszunahme.

–  Zunahme des Wohlstandes in Teilen der Welt, vor allem auf der Nordhalbkugel.

Je weiter ein Land im Norden liegt, desto größer ist der Energieanteil, der zur Heizung benötigt wird. Deshalb steigt auch der Wärmeinseleffekt der Siedlungen, je weiter man nach Norden kommt. Dies ist sicherlich ein Aspekt, warum die gemessene globale Erwärmung umso größer ist, je weiter man nach Norden kommt. Über weitere Gründe der „Norderwärmung“ hat EIKE bereits berichtet (http://www.eike-klima-energie.eu/klima-anzeige/giss-streicht-temperaturdaten-aus-der-arktis-und-daten-der-wassertemperatur-in-den-suedlichen-ozeanen-um-die-antarktis/?tx_ttnews[pointer]=3)

2) Umwandlung natürlicher Feucht- und Waldgebiete in Nutzflächen.

Auch die freie, unbebaute Landschaft hat gegenüber dem Deutschland vor 100 Jahren eine Erwärmung erfahren, die auf dem WI beruht. Es handelt sich dabei nicht um eine statistische Umlegung des WI aus der Bebauung auf die Gesamtfläche des Landes,  wie der Deutsche Wetterdienst dies per Mail darlegt und eine genannte Schätzung von 0,1°C WI in der Gesamtfläche abgibt, sondern um einen realen, basierend auf Landschaftsumgestaltung, Wärmeinseleffekt.

Besonders wird dies im Rheingraben sichtbar. In den letzten 50 Jahren wurden Flussauen und Feuchtwiesen trockengelegt, wodurch z.B. die Herbstnebeltage verschwanden und der der Sonnenschein dadurch automatisch zunahm. Die Bebauung hat sich zudem in den letzten 50 Jahren verdreifacht. Über den größeren WI nimmt die Zahl der heißen Tage (Sommertage, >25°C) in direkter Abhängigkeit zu. Ein weiteres Gebiet ist die Bodenseeregion, die touristisch erschlossen wurde und ebenfalls landwirtschaftlich großflächig genutzt wird. Nach den geschilderten Prämissen sollte sich in beiden Regionen ein vergleichsweise großer WI in der Fläche zeigen, was auch der Fall ist, wie Abbildung 20 belegt.

  

Abbildung 20 zeigt die Änderung in der Zahl der Sommertage in Baden-Württemberg, Quelle: “Klimawandel in Baden-Württemberg, Fakten – Folgen – Perspektiven“ (2010), Ministerium für Umwelt, Naturschutz und Verkehr, nach den Daten des Instituts für Meteorologie und Klimaforschung, Karlsruhe. Deutlich ist zu sehen, dass exakt in den Regionen, in denen eine große Landschaftsveränderung (großflächige Trockenlegung, Bebauung, etc.) vorgenommen wurde und damit ein hoher WI entstand, die prozentuale Änderung wegen des WI besonders stark ausfällt.

So speichern mehrjährige Pflanzen durch ihr tiefes und ausgedehntes Wurzelwerk bis zu 5-mal mehr Regenwasser (S.d.W. 11/07, “Erde und Umwelt“) als Nutzpflanzen wie Weizen, Mais, etc. Die entsprechenden Flächen (in Deutschland betrifft dies etwa 50% der gesamten Landesfläche) können also im Minimum nur noch 1/5 der üblichen Wassermenge aufnehmen. Es ist nämlich nicht vorrangig die vielerorts angeprangerte Flächenversiegelung durch Bebauung (beträgt ca. 6% der gesamten Landesfläche in Deutschland), die für das vermehrte Abfließen des Regenwassers verantwortlich ist!

Die Auswirkungen, die die Abholzung auf den Wasserhaushalt und damit auf den Feuchtegehalt der Atmosphäre und damit wiederum auf Niederschläge hat, wird an folgendem Beispiel des Instituts für Angewandte Geologie der Uni Erlangen transparent: “Der beträchtliche Wasserumsatz aufgrund der pflanzlichen Transpiration wird durch folgende Werte verdeutlicht: So gibt beispielsweise eine ausgewachsene Sonnenblume pro Tag über 1 Liter Wasser an die Atmosphäre ab. Bei gutem Grundwasseranschluss kann in einem trockenheißen Sommer eine große Birke zwischen 400 und 700 Liter pro Tag verdunsten und eine 100-jährige Buche sogar 9.000 Liter pro Tag. Ein Quadratkilometer Buchenhochwald verdunstet im Sommer jeden Tag etwa 2.000.000 Liter und im gesamten Jahr etwa 360.000.000 Liter. Umgerechnet auf je 100 g Blatt-Trockenmasse benötigt pro Vegetationsperiode eine Tanne 7 Liter Wasser, eine Buche jedoch 74 Liter. Aus den eben genannten Zahlen wird ersichtlich, welch entscheidende Bedeutung die Wälder und hier vor allem die Laubwälder für die Erhaltung eines eingespielten Klimaablaufes besitzen.“ (Quelle: http://www.angewandte-geologie.geol.uni-erlangen.de/klima1.htm).

In den Tropen ist dieser Wert noch höher, so dass durch die Abholzung der Wasserhaushalt aus dem Gleichgewicht gerät und damit auch die Temperaturen verändert werden, was zu regionalen Dürre- und Hitzeperioden führt.

Größere Waldbestände, auch Moore und Sumpfgebiete wirken ausgleichend auf die Temperaturen an der Erdoberfläche, bei einer Verringerung dieser Vegetationsflächen gestaltet sich das Witterungsgeschehen daher extremer.

Der WI der freien Fläche ist demnach eine reale Größe. Er beruht auf Landschaftsumgestaltungen, welche die physikalischen Eigenschaften der Landfläche verändert haben. Die Trockenlegung und Verdichtung der Landschaft von zig-tausenden von km2 in den letzten 100 Jahren in Deutschland, siehe hierzu Spektrum der Wissenschaft, 08/06, S. 80, “Schwerlast auf dem Acker“ als entscheidenden Faktor.

Abbildung 21 (Quelle: Spektrum der Wissenschaft, 08/06, “Schwerlast auf dem Acker“) zeigt die Faktoren der Bodenverdichtung. Wortlaut S.d.W.: Einst erstklassige Ackerböden lassen heute pro Zeiteinheit höchstens noch ein Zehntel bis Hundertstel der Wassermenge versickern, die in einem ursprünglichen, lockeren Waldboden versickern würde. Selbst ein Tausendstel kommt vor.“ Der große Rest fließt ab! Er geht der Wärmeregulierung verloren.

Durch das schnellere Abfließen des Oberflächenwassers wird die Verdunstung in der freien Fläche entscheidend verringert. Feuchtwiesen, Tümpel, Weiher, Moore und nasse Talauen wurden in bäuerliche Leistungswiesen und Ackerland umgewandelt. Eine Trockenwiese heizt sich schneller auf als die zuvor dagewesene Feuchtwiese. Die Austrocknung des Waldes erfolgt von unten, nicht von oben.

Dieser Wärmeinseleffekt der freien Fläche wurde unseres Wissens bislang in der Literatur noch nirgends beschrieben oder berücksichtigt. Er ist jedoch, aus den bereits genannten Gründen, als nicht unerheblich einzustufen. In den letzten hundert Jahren ist die Weltbevölkerung von 1 auf ca. 6,7 Milliarden gestiegen. Die damit verbundene Versiegelung des Bodens behindert den Wärmetransport durch Verdunstung in die Atmosphäre. Das hat natürlich Auswirkung auf das regionale Klima und unter Umständen auch global, wenn man an die Rodung von Regenwäldern denkt.

Regionale Auswirkungen:

–  Durch das entzogene Wasser wurde die Verdunstungskühlung erniedrigt.

–  Die Nebeltage wurden weniger. Aus der feuchten Fläche bildete sich der Frühnebel, im Herbst. Vor allem im November waren die Talauen oft tagelang zu und die Sonnenstrahlung wurde wieder reflektiert. Weniger Sonne erreichte den Erdboden. In den letzten 10 Jahren sind aus meinem Heimatort (Kowatsch) die Nebeltage nahezu ganz verschwunden. Selbst im November lösen sich die Nebel spätestens am Nachmittag meist auf.

Vor diesem Hintergrund ist die Temperaturzeitreihe des DWD für Deutschland zu betrachten, Abbildung 22.

  

Abbildung 22 zeigt den Temperaturgang der Jahresmittelwerte*) in Deutschland von 1999  2009, Datenquelle: DWD. Dazu den 3-Jahres-Trend und den Dekadenmittelwert. Von einer Erwärmung in Deutschland ist nun wahrlich nichts zu sehen. Gleich viele Werte liegen unter, bzw. auf der Mittelwertlinie, wie über ihr. Derzeit fallen die Temperaturen und liegen unterhalb der Dekadenmittellinie, was auch für 2010 so bleiben wird. Nach den Temperaturzeitreihen des DWD ist es in Deutschland seit 10 Jahren um 0,7°C kälter geworden, gegenüber dem Maximalwert in 2000. Gegenüber dem Trend um gut 0,3°C. Anhand der Abbildung 3 (Teil 2, folgt in Kürze), die die Monatsmittelwerte bis August 2010 zum Vergleich 2009 zeigt, wird ersichtlich, dass in 2010 die Temperaturen weiter fallen werden!

*) Wir haben die Absolutwerte und nicht die Schwankungswerte, also die Anomalien dargestellt, weil wir uns an die Darstellung des DWD in seinen Jahresberichten halten möchten (siehe Abbildung 23 und 24), der ebenfalls die Absolutwerte wiedergibt.

Abbildung 22 zeigt weiter, dass ausgerechnet zum IPCC-Jahr 2007, als das IPCC politik- und medienwirksam seinen AR4 präsentierte, sich in Deutschland die Temperaturen von der globalen Temperaturentwicklung abkoppeln, siehe Abbildung 26, Teil 2. Während in 2006 und 2007 global die Temperaturen deutlich fallen, stiegen diese hingegen in Deutschland stark an. Gegenwärtig liegen die Deutschland-Temperaturen wieder auf dem Niveau der IPCC-Vorjahre. Erklären können wir Ihnen diese Diskrepanz zu den globalen Temperaturwerten nicht, da wir nicht wissen, welche Messstationen der DWD für die einzelnen Jahre zur Mittelwertbewertung herangezogen hat und welche Algorithmen er jeweils dabei verwendete.

In 2007 waren die Informationsaussagen des DWD erklärungsbedürftig. So veröffentlichte er in seinem Jahresbericht 2006, welcher im April 2007 (kurz nach dem AR4 oder sollen wir sagen, passend zum AR4) präsentiert wurde, auf dem Titelblatt die folgende Abbildung.

  undefined

Abbildung 23 (Quelle: Jahresbericht 2006, DWD, Deckblatt) zeigt Deutschland, davor eine Temperaturkurve, die zur Gegenwart hin plötzlich sehr stark ansteigt und bei dem Temperaturwert von 12,0°C verharrt. Anmerkung: wie sich die Temperaturen in der Realität entwickelten, zeigt Abbildung 22. Die erklärungsbedürftige Abbildung vom Deckblatt wird im Jahresbericht an keiner Stelle auch nur ansatzweise kommentiert, nicht einmal erwähnt! Beim Betrachter wird indes leicht der Eindruck erweckt, dass die Temperaturen in Deutschland dabei sind, alle Rekorde zu brechen, was, wie die Abbildung 22 belegt, gegenteilig der Fall ist. Im Jahresbericht 2006 findet sich auf Seite 5 dann die korrekte und auch beschriebene Zeitreihe, die allerdings längst nicht so spektakulär aussieht (Abbildung 24).

  

Abbildung 24 zeigt die Jahresmittelwerttemperatur*) in Deutschland von 1900 – 2006, Quelle: Jahresbericht 2006, DWD, Seite 5. 2006 lag die Temperatur im Mittel bei 9,5°C und damit 1,3K über dem klimatologischen Referenzzeitraum 1961 – 1990 von 8,2°C, wobei dieser Durchschnitt in einer Kälteperiode liegt (wir erinnern uns noch an die Aussagen aus Politik und Wissenschaft zur bevorstehenden Eiszeit in den 1970-Jahren) und damit vergleichsweise niedrige Referenzwerte liefert. Das Chart sieht lange nicht so spektakulär aus, wie Abbildung 23 (unkommentiert!) vom Titelblatt. Der Wert von 9,5°C deckt sich mit den Werten, die der DWD uns zur Verfügung stellte.

*) Die Kurve ist hinsichtlich der Absolutwerte wenig aussagefähig, da Deutschland heute andere Grenzen als 1900 hat (in der Fläche noch die Hälfte), Messorte sich änderten, der Wärmeinseleffekt einfließt u.v.m. Vor 1900 wurde darüber hinaus in Süddeutschland nicht nach Celsius, sondern nach Réamur gemessen.

Als kleiner „Nachhilfeunterricht“ für den DWD haben wir die AMO-Zeitreihe (Atlantik Multidekaden Oszillation – gibt die Oberflächentemperatur im Nordatlantik wieder) von 1880 – 2000 hinzugefügt. Werden nun deren Schwankungen mit dem polynomischen Trend verglichen, den der DWD in seiner Abbildung zeigt, wird deutlich, dass dieser im Gleichklang mit der natürlichen AMO, die von der Sonne moderiert wird, ist. Fällt die AMO, so dreht der polynomische Trend und wird negativ. Steigt hingegen die AMO wieder an, dreht der polynomische Trend erneut und wird positiv.

Es kann nun wirklich nicht verwundern, dass in Deutschland die Temperaturen von der Windströmung abhängen, insbesondere von der Westwindströmung vom Atlantik. Abbildung 25 zeigt deutlich, warum die Temperaturen in Deutschland in den 1970-Jahren zu steigen begannen.

  

Abbildung 25, Quelle: Sächsisches Landesamt für Umwelt und Geologie, zeigt die West-Wetterlagen im Sommer- und Winterhalbjahr im Zeitraum von 1881 – 2000. Deutlich ist zu erkennen, dass seit Beginn der 1970-Jahre die West-Wetterlagen im Winter stark zunahmen (was wärmere Winter bedeutet) und im Sommer dagegen abnahmen (was trockenere und wärmere Sommer bedeutet). Zunahme der West-Wetterlagen im Winter und Abnahme der West-Wetterlagen im Sommer bewirken, dass in Deutschland die Temperaturen steigen. Im Winterhalbjahr mildere Winter und im Sommerhalbjahr mehr Sonne, wie Abbildung 26 zeigt.

  

Abbildung 26 zeigt die mittlere Sonnenscheindauer in der alpinen Region, Quelle: (http://mitglied.multimania.de/nature2000/wkr128.htm). Der polynomische Trend stimmt mit dem der Abbildung 24 überein. Die Sonnenscheindauer begann in den 1970-Jahren zuzunehmen, bis zum Beginn des 21. Jahrhunderts, parallel zur Erwärmungsphase. Seitdem fällt die Sonnenscheindauer und es wird wieder kälter. Eigentlich triviale Zusammenhänge, die dem DWD offensichtlich als Erklärung des gegenwärtigen Temperaturniveaus nicht einfallen. Auch hier haben wir zum Vergleich die Zeitreihe der AMO, diesmal in feinerer Auflösung (Quelle: http://www.cdc.noaa.gov/Correlation/amon.us.long.data) angeführt. Es fällt auf, dass jeweils die minimale Sonnenscheindauer (Minwert des dynamischen Trends) exakt mitten in der AMO-Kaltphase liegt und der Maxwert mitten in der AMO-Warmphase! Darüber hinaus wird eine Periodendauer von ca. 69 Jahren ersichtlich. Diese Periodendauer stammt von der Sonne und wurde von dem Astrophysiker Dr. Landscheidt beschrieben. Sie basiert auf Drehimpulsänderungen (Bahndrehimpuls und Eigendrehimpuls) der Sonne, wodurch deren magnetische Aktivität (mit) gesteuert wird. Eine Vertiefung des Themas würde an dieser Stelle zu weit führen.

Nach diesem kleinen Exkurs und „Nachhilfeunterricht“ für den DWD, was unser Wetter und die AMO lenkt, zurück zum Wärmeinseleffekt, der von verschiedenen Faktoren, von denen wir bereits einige aufzählten, abhängt.

3) Anstieg des Energie- und Stromverbrauchs

–  Die Anzahl der elektrischen Verbraucher in- und außerhalb der Gebäude hat sich in den letzten 50 Jahren ständig erhöht.

–  Europa ist heller geworden. Aufgrund des Wohlstandes hat die Anzahl der Beleuchtungsquellen zugenommen, was beispielsweise aus dem Weltall gut erkennbar ist (Abbildung 1). Die Anzahl der Beleuchtungskörper und Straßenbeleuchtungen hat sich dabei in den letzten 40 Jahren vervielfacht. Jeder Beleuchtungskörper gibt Wärme an die Umgebung ab. Für das Ausgangsjahr der Temperaturzeitreihe, 1880 ist die Stromerzeugung mit Null ansetzen, also auch kein WI-Effekt vorhanden. Das gleiche gilt für die anfallende Abwärme im Straßenverkehr.

–  Die Zunahme der Industrialisierung: Jeder Arbeitsprozess verschlingt Energie und erzeugt Wärmeabgabe.

Um Missverständnissen vorzubeugen. Hier geht es nicht darum, die Menschheit auf den Stand des 19. Jahrhunderts zurückzuwerfen, wie dies einige militante Klimaalarmisten mit sich tragen, sondern darum, aufzuzeigen, dass es nicht statthaft ist, unkommentiert Wetterdaten von vor hundert Jahren, mit denen von heute zu vergleichen.

Aus den genannten Gründen ist abzuleiten, dass der WI sich nicht auf Großstädte  beschränkt wie der Deutsche Wetterdienst behauptet, sondern generell bei Messergebnissen zu berücksichtigen ist.

Eine wertvolle Arbeit zur Erfassung des WI in Mitteleuropa und somit auch in Deutschland hat unlängst der renommierte Professor für Meteorologie und Klimatologie, Horst Malberg in der “Berliner Wetterkarte“ (http://www.berliner-wetterkarte.de/) veröffentlicht, “Über scheinbare und tatsächliche Klimaerwärmung seit 1850“. Anhand von Vergleichen am Regressionsparameter, also dem Temperaturanstieg von einer Dekade zur nächsten, von 5 Messstationen (Hochenpeißenberg, Berlin-Dahlem, Prag, Basel und Wien) ermittelte er den WI. Die Station Hochenpeißenberg, auf einer Höhe von 1.000m diente dabei als Referenzstation.

  

Abbildung 27 (Quelle: Prof. Malberg) zeigt den Temperaturanstieg an 5 Temperaturmessstationen in Europa von 1851 – 2000, dem Jahr, als in Deutschland nach Angaben des DWD die höchsten Temperaturen im Betrachtungszeitraum auftraten. Wie gesehen, fallen seitdem die Temperaturen deutlich.

Während die Referenzstation Hohenpeißenberg (Hpbg) einen Anstieg von +0,76°C seit dem Ende der “Kleinen Eiszeit“, der kältesten Periode der letzten 2.000 Jahre, ausweist, liegt der Temperaturanstieg in den Städten zum Teil deutlich höher. In Basel beträgt er +1,58°C. Prof. Malberg: “Diese unterschiedliche Erwärmung innerhalb eines Klimabereichs lässt sich nicht mit den Auswirkungen eines übergeordneten Klimaantriebs erklären. Es ist die lokale Situation, es ist der Wärmeinsel-Effekt der wachsenden Städte, der die natürliche globale/regionale Erwärmung „anthropogen“ verstärkt hat. Damit täuschen die Temperaturreihen eine Erwärmung vor, die z. T. deutlich über der natürlichen Klimaerwärmung seit 1850 liegt.“

Wie wir Ihnen anhand des Teil 2 zeigen werden, liegt der WI noch höher, da zunehmend Temperaturstationen auf Flughäfen in die Datenreihen einfließen.

Fazit:

Der Wärmeinseleffekt (WI) steigt ständig mit der Veränderung der Landschaft und der Gesellschaft. Die Temperaturmessstationen des DWD sind für eine vergleichende Temperaturaussage zum Großteil nur bedingt, bzw. nicht geeignet, da der DWD zum einen, seine eigenen Vorgaben zum Betrieb und Aufstellung von Messhütten nicht einhält und zum anderen, der DWD den vorhandenen Wärmeinseleffekt, der für den derzeit noch höheren Temperaturwert im Vergleich zum Langfristmittel verantwortlich ist, weitgehend unberücksichtigt lässt.

Teil 2 in Kürze

Josef Kowatsch

Raimund Leistenschneider – EIKE




Schwarz-gelbes Energiekonzept bringt 0,007 °C Erwämungsminderung bis 2050; aber ist Roadmap in die Armut des Mittelalters!

Die nur auf Vi­si­o­nen ba­sie­ren­den Ziel­vor­stel­lun­gen des Ener­gie­kon­zep­tes sind wohl­klin­gend. Dort heißt es:

"Das Ener­gie­kon­zept soll Leit­li­ni­en für eine sau­be­re, zu­ver­läs­si­ge und be­zahl­ba­re Ener­gie­ver­sor­gung for­mu­lie­ren und den Weg in das Zeit­al­ter der er­neu­er­ba­ren Ener­gi­en be­schrei­ben. Es ist eine lang­fris­ti­ge Ge­samt­stra­te­gie, die auf Grund­la­ge der Kli­ma­schutz­zie­le im Rah­men des Ziel­tri­as Preis­wür­dig­keit – Ver­sor­gungs­si­cher­heit so­wie Kli­ma- und Um­welt­schutz die er­for­der­li­chen kon­kre­ten Maß­nah­men in al­len in al­len wich­ti­gen Hand­lungs­fel­dern (Strom, Wär­me, Käl­te, Kom­mu­ni­ka­ti­on und Ver­kehr) fest­legt und da­mit al­len Ak­teu­ren Pla­nungs­si­cher­heit für In­ves­ti­ti­o­nen gibt."

Doch schon bei ganz ober­fläch­li­cher Be­trach­tung er­gibt sich für jeden klar denkenden Menschen: Was hier be­schlos­sen wur­de, ist der si­chere Weg in tie­fe Ar­mut. Es ist eine Road­map di­rekt ins Pa­ra­dies der Öko­träu­mer, näm­lich ins Mit­tel­al­ter.

Es soll also die Ener­gie­zu­kunft des In­dust­rie­stand­or­tes Deutsch­land – so das Lip­pen­be­kennt­nis der Po­li­tik – für die nächs­ten 40 Jah­re si­chern. Um das fest zu ver­an­kern, ver­an­stal­te­te – Zu­fall oder nicht – be­reits einen Tag nach Ver­kün­dung im Ka­bi­nett, die CDU/CSU-Frak­ti­on ih­ren gro­ßen Kli­ma- und Ener­gie­kon­gress, auf dem Bun­des­um­welt­mi­nis­ter Rött­gen die­ses Ener­gie­kon­zept in ge­kürz­ter Form vor­stell­te. Es macht die in­zwi­schen gründ­lich wi­der­leg­te Kli­ma­schutz­prob­le­ma­tik zur Grund­la­ge.

Minister Rött­gen be­haup­te­te dazu vor fachkundigem Pub­li­kum und al­len Erns­tes, die zum Schut­ze des Kli­mas er­for­der­li­chen Maß­nah­men wür­den eine "Ener­gie­wen­de" zwin­gend er­for­der­lich ma­chen.

Zu die­sem Zweck for­dert er eine CO2-Re­duk­ti­on der deutschen Emissionen ge­gen­über 1990 (1036 Mio t techn. CO2) und bis 2050 um min­des­tens 80 %, – bes­ser, so Rött­gen – 90 bis 95 %. Das be­deu­tet – und das ist auch Rött­gen und sei­nen Kol­le­gen klar – eine Re­duk­ti­on auf nur noch 207 Mio. t oder we­ni­ger (bei –95 % sind es 51,8 Mio t).

Im De­tail heißt das,

  1. kein fos­sil be­feu­er­tes Kraft­werk (ca. 45 % An­teil) mehr,
  2. kaum noch Trans­port über die Stra­ße (ca. 18 %)
  3. so gut wie keine In­dust­rie­-Produktion (ca. 10 %)mehr,
  4. keine Hei­zung in Häu­sern oder Woh­nun­gen mehr

Seine Kollegin Frau Höhn von den Grünen sprach das kürzlich auch ziemlich offen aus. Es sei denn, so hofft der Mi­nis­ter und mit ihm wei­te Tei­le des Par­la­men­tes, dass mit dem gleich­zei­tig ge­för­der­ten mas­siv er­höh­ten Ein­satz "Er­neu­er­ba­rer Ener­gi­en" auf min­des­tens 80 % des Strom­ver­brau­ches, bei gleich­zei­ti­ger def­ti­ger Ab­sen­kung des ab­so­lu­ten Ver­brauchs (durch noch zu er­fin­den­de Ener­gie­ef­fi­zi­enz), der gröbs­te -selbst und bewusst her­bei­ge­führ­te- Man­gel ge­lin­dert wird. Das einzig Gute im Energiekonzept – die sehr moderate Verlängerung der Laufzeit der Kernkraftwerke- wird auch gleich wieder zu politischer Umverteilung missbraucht. Statt die Zusatzgewinne über deutliche Preissenkungen den Verbrauchern zugute kommen zu lassen, sollen sie fast vollständig „abgeschöpft“ und zur Förderung der „Erneuerbaren“ eingesetzt werde. Dafür  wird extra ein „Sondervermögen“ geschaffen, in das in 10 Jahren 30 Mrd € fließen sollen. Bezahlt von uns, vom Verbraucher.

Zur Verwirklichung der Vision von 80 % Erneuerbaren müs­sen jedoch di­ver­se Tech­no­lo­gi­en neu er­fun­den wer­den, von denen die meisten heu­te nicht mal im An­satz vor­han­den sind. An wenigen Bei­spielen sei das klar ge­macht. 1.Fehlende Groß-Speicher für elektrische Energie, 2. CCS-Abscheidung von CO2 aus Verbrennungsprozessen, 3. Hebung der Energieeffizienz zur Senkung des Absolutverbrauchs.

Zu 1: Fehlende Groß-Speicher für elektrische Energie, Bedarfssteuerung (vulgo: Planwirtschaft)

Um die stark schwan­ken­den Wind- und So­lar­stro­mein­spei­sun­gen (de­ren Vor­rang­ein­spei­sung dau­er­haft fest­ge­schrie­ben wird) über­haupt ver­wend­bar zu ma­chen, müs­sen ge­wal­ti­ge CO2-freie Spei­cher er­fun­den und ge­baut wer­den. Elektrochemische Bat­te­ri­en kom­men da­für nicht in Fra­ge, wie die Fach­leu­te in den an­schlie­ßen­den Vor­trä­gen ka­te­go­risch er­klär­ten. Eben­so­ we­nig wie Gas­kraf­twer­ke, die zwar we­ni­ger CO2 pro kWh aus­sto­ßen, aber eben im­mer noch mas­sen­haft CO2 er­zeu­gen. Bleiben Pumpspeicherwerke, also das Hochpumpen großer Wassermengen in hoch gelegene Auffangbecken. Bei Be­darf wer­den dann de­ren Ven­ti­le ge­öff­net und die Was­ser­men­gen trei­ben beim He­run­ter­flie­ßen wie­der Turbogeneratoren und er­zeu­gen Strom.

Die Vor­tei­le die­ser Tech­no­lo­gie lie­gen in ih­rer schnel­len Re­gel­bar­keit und dass sie seit Jahr­zehn­ten erprobt und be­kannt sind. Aber die Nach­tei­le sind ge­wal­tig. Denn die Kos­ten sind enorm. Für nur 1000 MW Leis­tung, wie beim Pump­spei­cher­werk Gold­ist­hal/Thü­rin­gen müs­sen 600 Mill € ver­an­schlagt wer­den. Ein sol­ches Kraft­werk lie­fert dann 1000 MW über 8 Stun­den. Das sind 8000 MWh. Dann ist es leer. Die Um­wand­lungs­ver­lus­te sind zu­dem groß, man rech­net mit 20 %. Die To­po­lo­gie, die man dazu braucht, also die erforderliche Landschaftsform, gibt es nur an we­ni­gen Stel­len im Mit­tel- und Hoch­ge­bir­ge. Der Land­schafts­ver­brauch ist ge­wal­tig. Und das ist auch dem Mi­nis­ter gut be­kannt:

So schreibt er in sei­nem Eckpunkte-Kon­zept:

Abb. 1 Auszug aus dem Eckpunktepapier des BMU zum Energiekonzept

und be­schreibt dann wei­ter die ge­wal­ti­gen An­for­de­run­gen an die Spei­cher, de­ren Lö­sun­gen nir­gends auf der­ Welt in Sicht sind:

Abb. 2 Zukünftige volatile Energieeinspeisungssimulation anch dem Eckpunktepapier des BMU zum Energiekonzept

Nun ha­ben wir ge­lernt, dass das größ­te deut­sche Pumpspei­cher­werk Gold­ist­hal ca. 8000 MWh oder 8 GWh lie­fern kann. Dann ist es leer. Um die ge­for­der­te Strom­men­ge aus Pump­spei­cher­wer­ken zu ge­ne­rie­ren be­nö­tig­te man – un­ter Nut­zung der obi­gen An­ga­ben (50-60 GW Leis­tung über 10 Tage ca. 12.000 GWh) nicht we­ni­ger als 1.500 Pump­spei­cher­wer­ke der Gold­ist­halklas­se. Men­gen­ef­fek­te ab­ge­rech­net, würde das allein etwa 800 – 900 Mrd. € kosten.

Wenn, ja wenn man denn nicht nur das Geld, sondern auch die Land­schaft da­für hät­te. Weil man die aber – für je­den er­sicht­lich – in Deutsch­land nicht hat, will man, so die heh­re Ab­sicht, Ver­hand­lun­gen mit Nor­we­gen(s. Auszug Interview WAMS mit Vahrenholt & Weber am Ende))  auf­neh­men, um es zu be­we­gen, die benötigte Land­schaft, ge­gen gu­tes Geld na­tür­lich, be­reit zu stel­len.

Abb. 3 Auszug aus dem Eckpunktepapier des BMU zum Energiekonzept

Nor­ma­le Phan­ta­sie reicht lei­der in kei­nem Fal­le aus, um da­raus eine verantwortbare po­li­ti­sche Vi­si­on oder gar Kon­zep­t zu ma­chen, dazu muss man wohl Po­li­ti­ker oder Kli­ma­apo­ka­lyp­ti­ker sein.

Bedarfsssteuerung

Da das aber auch nicht rei­chen wird, so schwant es den Po­lit­pla­nern, müs­sen Be­darfs­steu­e­run­gen her. Auf Deutsch, der Ver­brau­cher – also wir – wird ge­zwun­gen wer­den, sei­nen Ver­brauch – Ko­chen, Wa­schen , Be­leuch­ten – dem schwan­ken­den An­ge­bot an­zu­pas­sen. Nach­kriegs­er­fah­re­ne den­ken da so­fort an das böse Wort "Strom­sper­re". Man wur­de um 3 Uhr mor­gens ge­weckt, um für kur­ze Zeit bei Licht ir­gend­ei­ne sinn­vol­le Tä­tig­keit für ei­ni­ge Stun­den durch­füh­ren zu kön­nen, ehe ei­nen wie­der tie­fe Dun­kel­heit um­gab und man zu­rück ins Bett kroch. Eine direkte Einführung einer Öko-Planwirtschaft ist damit unvermeidlich.

2. CCS-Abscheidung von CO2 aus Verbrennungsprozessen

Weil also Pump­spei­cher­wer­ke – die ein­zig be­kann­te und er­prob­te Tech­no­lo­gie – ausscheiden, er­fin­den die Po­li­ti­ker mal eben so auf die Schnel­le neue Tech­no­lo­gi­en. Eine da­von heißt CCS. Das steht für Car­bon Ca­ptu­re and Sto­ra­ge. Man schei­det da­bei das bei bei der Koh­le- oder Gas­ver­bren­nung ent­ste­hen­de Koh­len­dio­xid ab, ver­flüs­sigt es und leitet es un­ter ho­hem Druck (ca. 100 bis 200 bar oder mehr an der Ein­fülls­tel­le) in un­ter­ir­di­sche Gas­la­ger­stät­ten. Die­ses Ver­fah­ren wird von den Kraft­werks­be­trei­bern als letz­te Ret­tung für ihre sonst vom Kli­ma­ver­bot be­droh­ten fos­sil be­feu­er­ten Kraft­wer­ke an­ge­se­hen. Sie for­schen also flei­ßig an die­ser Tech­no­lo­gie.

Der Vat­ten­fall-Vor­sit­zen­de für den Mi­ni­ng-Be­reich, Hart­muth Zeiß, be­zif­fer­te die an­fal­len­de CO2-Men­ge aus heu­ti­ger Sicht auf ca. 300 Mio t jähr­lich. Bei Umrechnung der Prozentangaben des BMU für die CO2-Emissionen im Jahre 2008 wären es nur für die Kraftwerke ca. 380 Mio t. Nimmt man noch das produzierende Gewerbe dazu (Bei der Produktion  jeder Tonne Stahl werden 2 t CO2 erzeugt) ergeben sich 465 Mio t CO2. Es sind also gewaltige Mengen, um die es da geht. Und das Jahr, für Jahr, für Jahr.

Die Kos­ten für die Ent­sor­gung bezifferte Zeiß auf etwa 35 €/MWh (= 3,5 Ct/kWh). Dies al­lein wür­de die Produktions­kos­ten des Stro­mes in etwa ver­dop­peln.

Ganz ab­ge­se­hen von der Ver­rin­ge­rung des Wir­kungs­gra­des der Kraft­wer­ke um ca. 10-15 Pro­zent­punk­te[1], was von ei­ner massiven Erhöhung der zu ver­feu­ern­den Brenns­toff­men­ge be­glei­tet ist, um die glei­che Strom­menge zu er­zeu­gen. (25 – 50 Prozentpunkte – Von ? = 45 % auf ? =  30 % à 150 % Kohleverbrauch, von ? = 45 %  auf ? = 35 % à   129 % Kohleverbrauch). Dies alles, so lässt es sich jedenfalls aus den Veröffentlichungen der DPG ableiten, erhöht die Stromerzeugungskosten um bis zu 250 %

Auch ab­ge­se­hen vom breit­flä­chi­gen er­bit­ter­ten Wi­der­stand der Men­schen ge­gen eine Ein­la­ge­rung, des als ge­fähr­lich eingeschätzten CO2-Ga­ses un­ter ih­ren Häu­sern. Wenn es denn ir­gend­wann und irgendwo wie­der nach oben kommen sollte. Denn CO2 ist 1,6 x schwe­rer als Luft. Es fließt wie Was­ser in die tiefs­ten Stel­len der Erdoberfläche und sammelt sich bei windschwachen Wetterlagen in Mulden und Tälern. Nie­mand sieht es, nie­mand riecht es, aber je­der at­met es u. U. ein. Und erstickt. Und zwar dann, wenn die Kon­zen­tra­ti­on ca. 5 Vol-% übers­teigt. Die­se Ge­fahr bes­teht so­lan­ge, wie das Gas un­ter­ir­disch ein­ge­schlos­sen ist, also u. U. tau­sen­de von Jah­ren. Damit entsteht ein neu­es – sehr, sehr viel grö­ße­res- End­la­ger­prob­lem. Dies­mal bun­des­weit und für alle Zeiten.

3. Hebung der Energieeffizienz zur Senkung des Absolutverbrauchs.

Die Hebung der Effizienz aller Prozesse ist ein vom Wettbewerb getriebenes Marktgesetz. Nur wer laufend seine Prozesse verbessert, sie optimiert, veränderten Bedingungen anpasst, etc. wird im Wettbewerb überleben. Das galt und gilt immer und nicht erst seit der Einführung des Energiekonzeptes. So sind sämtliche industriellen Prozesse einer ständigen Verbesserung unterworfen um Energie – und Materialeinsatz – also der Ressourcen – bis dicht an die naturgesetzlichen Grenzen zu führen. Doch auch da gilt, je weiter der Prozess schon optimiert ist, desto teurer wird die Verbesserung um jeden Prozentpunkt der Verbesserung. Ökonomen ist dieses Prinzip als das Pflückproblem der niedrig oder hoch hängenden Kirschen bestens bekannt. Die Effizienzsteigerung ist also immerwährend aber nicht beliebig fortführbar, aus naturgesetzlichen wie Kostengründen.

Abb. 4 Auszug aus dem Eckpunktepapier des BMU zum Energiekonzept

Doch das ist nicht die einzige Kritik, die sich das Energiekonzept gefallen lassen muß, so getan wird, als ob die Effizienzsteigerung beliebig weiter getrieben werden kann. Denn die Verbesserung der Energieeffizienz ist vor allem eine Folge des wissenschaftlich-technischen Fortschritts und des Wettbewerbs, die auch künftig wirken werden, deren Umsetzung in der Praxis aber mit immer höheren Kosten verbunden ist, denn „einfache“ Möglichkeiten des „Energiesparens“ wurden immer mehr bereits erschlossen. Jetzt geht es dagegen um die Entwicklung und Realisierung neuer unbekannter Technologien[2].

So sind die deutschen Stahlwerke noch die effizientesten der Welt, und trotzdem erzeugen sie (nur) 2 t CO2 pro Tonne Stahl. Besser geht einfach nicht. Nein, es ist ein anderes Phänomen, welches nicht berücksichtigt wurde. Je besser die Effizienz wird, desto größer wird die Anwendungspalette, desto billiger der Einsatz, desto mehr von jedem Produkt gibt es. So hatten die Kraftwerke vor 100 Jahren einen Wirkungsgrad von weniger als 10 %, heute von 50 %. Damals gab es nur wenige Kraftwerke, heute sind es Zigtausende weltweit. Das erste Automobil von Carl Benz 1885 hatte 0,8 PS und erreichte 18 km/h. Das Benzin musste alle paar Kilometer aus der Apotheke beschafft werden. Heute haben unsere Karossen einen Verbrauch von 6-8 l/100km, bei ca. 100 PS und einer max. Geschwindigkeit von 150 bis 180 km/h. Es gibt derzeit weltweit um die 500 Mio von ihnen und es werden immer mehr. Das gleiche gilt für fast alle anderen Bereiche, ob es um den Einsatz von Elektromotoren,  Stoffeinsatz für Flugzeuge oder deren Verbrauch und, und, und, geht. (Mehr dazu findet man im grandiosen Buch von Indur Goklany „The Improving State of The World“. Es tritt also das Gegenteil von dem ein, was sich die Planer von der Effizienzoffensive erhoffen. Es wird nicht weniger verbraucht, sondern mehr. Damit ist das „Energiekonzept“ als das entlarvt, was es ist: Eine Mogelpackung, die das ökologische Paradies verspricht, aber in Wirklichkeit das Tor zur Armutshölle weit aufstößt.

Doch da­mit das al­les, was „Energiekonzept“ steht, nicht zu Protest- oder und an­de­ren  Ver­wei­ge­rungs­hal­tun­gen oder gar Auf­stän­den führt, wur­de be­schlos­sen sog. „Kli­ma­schutz­ge­set­ze“ ein­zu­füh­ren. In die­sen sol­len alle Maßnah­men ge­bün­delt und ge­re­gelt wer­den, die zur Durch­set­zung die­ser und an­de­rer weit­rei­chen­der Plä­ne be­nö­tigt wer­den.

All dies und noch vie­les mehr wür­de dann zur Ab­sen­kung der CO2-Er­zeu­gung um die ge­wün­schten 80 bis 95 % füh­ren. Die Minderung des prognostizierten Temperaturantieges bis 2050 würde nach der IPCC-For­mel  maximal 0,007 °C betragen, nach der phy­si­ka­lisch sau­be­re­ren THE The­se nur noch 0,0017 °C *. Ein winziger, nicht messbarer ­Bei­trag und zugleich unwirksamer Beitrag den Deutsch­land da leis­ten würde. Zugleich würde eine gan­ze Volks­wirt­schaft im Her­zen Eu­ro­pas zerstört. 

 

Abb. 5 Auszug aus dem Eckpunktepapier des BMU zum Energiekonzept

Schon Le­nin hat­te er­kannt wie man den Ka­pi­ta­lis­mus be­siegt: Zur Durch­set­zung des So­zi­a­lis­mus in ka­pi­ta­lis­ti­schen Län­dern be­darf es nur, de­ren Ener­gie­ver­sor­gung zu zer­stö­ren. Und auch auf deut­sche Ge­schäf­te­ma­cher wuß­te Le­nin kann man sich  auch ver­las­sen."Und wenn schließ­lich auch der vor­letz­te Ka­pi­ta­list noch auf­ge­hängt wer­den soll, dann lie­fert und ver­kauft – kei­ne Sor­ge – der letz­te da­für noch den Strick! "

Michael Limburg  unter Mitarbeit von Dr. D. Ufer beide EIKE

Ergänzend zu PSW in Norwegen:

Interview Vahrenholt und Weber in „Die Welt“ vom 24.09.2010:

Weber: Ich hätte nichts dagegen, schon heute entsprechende Kapazitäten in Norwegen oder der Schweiz zu akquirieren.

Vahrenholt: Warum sollten die das machen? Zuerst einmal denken diese Länder naturgemäß an sich selber. Und auch dort ist es keineswegs selbstverständlich, für die deutsche Stromversorgung ein Tal zu fluten.

Weber: Ich bin sicher, wenn wir einen attraktiven Preis anbieten, dann wir man sich schon einig werden.

Vahrenholt: Ich habe früher als Hamburger Umweltsenator mit den Norwegern dazu Verhandlungen geführt, denn diese Idee ist ja nicht neu. Der Neubau von Pumpspeicherwerken zur Sicherung der Versorgung in Deutschland war für die Norweger undenkbar. Nur wenn mal Kapazitäten ungenutzt sein sollten, hätten wir diese nutzen können. Das reicht aber nicht. Doch bleiben wir ruhig im eigenen Lande. RWE baut gerade mit EnBW ein Pumpspeicherkraftwerk im Südschwarzwald. Ich sage Ihnen, da kommt Gegenwind von der gesamten Politik, auch von den Grünen, die ja den Bau eines solchen Speichers eigentlich begrüßen müssten. Wir haben vor zwei Jahren angefangen, und wenn alles gut geht, wird dieses Pumpspeicherkraftwerk 2017 einsatzbereit sein. Zehn Jahre – um nur ein einziges Pumpspeicherkraftwerk zu bauen. Da frage ich mich, woher Sie Ihren Optimismus nehmen und einfach so sagen, das wird schon gut gehen. Nein, es wird nicht gut gehen, wenn wir nicht höllisch aufpassen.

 * siehe Berechnungsbeispiele im pdf Anhang: Klassenarbeit für die Obertertia

Ergänzende Links: Dr. Hans-Peter Krause:http://www.freiewelt.net/blog-2371/deutschlands-zentralverwaltungsstaatliches-energiekonzept.html

Fabian Heinzel: http://www.freiewelt.net/blog-2370/das-co2-und-der-soziale-kahlschlag.html


[1] (siehe Deutsche Physikalische Gesellschaft: „Elektrizität: Schlüssel zu einem nachhaltigen und klimaverträglichen Energiesystem“ Juni 2010). Für die Erzeugung einer Kliowattstunde Elektroenergie müsste dann 25 bis 50 Prozent mehr Kohle verbrannt werden – wahrlich kein Beitrag zum rationellen Umgang mit fossilen Energieträgern! Hinzu kommt der ebenfalls nicht zu umgehende Anlagen-Mehraufwand (€/kW), bei dem – ebenfalls nach Angaben der DPG – mit Erhöhungen um 50 bis 130 Prozent zu rechnen ist. Aus beiden ergibt sich eine Erhöhung der Stromerzeugungskosten auf bis zu 250 Prozent!

[2] Im Energiekonzept wird eine Steigerung der „Energieproduktivität“  um durchschnittlich 2,1 % pro Jahr zwischen 2008 und 2050 angestrebt. Bisherige Entwicklung: 1990-2000: 2,18 %/a [darin Eliminierung der energieintensiven und wenig energieeffizienten Industrien Ostdeutschlands], 2000-2008: „nur“ 1,42 %/a. Daraus folgt: 2,1 %/a ist eine sehr ehrgeizige Zielstellung, sie ist wahrscheinlich nur erreichbar in Verbindung mit der erneuten Eliminierung energieintensiver Industrien! – Aus der genannten Zielstellung für die Steigerung der Energieproduktivität von 2,1 %/a zwischen 2008 und 2050 sowie der angestrebten Senkung des Primärenergieverbrauchs um 50 % im gleichen Zeitraum ergibt sich ein dem Energiekonzept zugrund liegendes Wachstumstempo des BIP von 0,4 %/a zwischen 2008 und 2050! Damit wird ein Miniwachstum postuliertZum Vergleich: BIP-Wachstum 1990-2000: 1,84 %/a, 2000-2008: 1,23 %/a! ), aber selbst das ist bei der bewussten exxtremen Drosselung aller energetischer Aktivitäten unter die Rubrik „Wunschdenken“ einzuordnen.

 

Related Files




Climategate Update 2: Der Skandal der nicht stattgefunden haben darf! Zur Oxburgh Kommission: Wie lange interviewte Oxburgh die Beschuldigten?

Programm der Treffen

Wissenschaftlicher Untersuchungsausschuss

6., 7. Und 8. April 2010

Dienstag, 6. April

19.30 Uhr

Ankunft der Ausschussmitglieder

Privates Abendessen in Caistor Hall

 

Mittwoch, 7. April

09.30 Uhr

Taxi zur CRU (Ausstieg bei Zicer Layby)

 

09.45 Uhr

Begrüßung durch den geschäftsführenden Director und den CRU-Professoren Peter Liss and Jacqui Churchill, VCO
Kaffee und Besichtigung der CRU

 

09.45 bis 10.45 Uhr

Treffen mit Phil Jones, Tim Osborn und Mitarbeitern in der Bücherei der CRU
30- minütiger Vortrag von Phil Jones mit anschließenden Fragen

 

10.45 bis 11.00 Uhr

Kaffeepause in der Bücherei der CRU

 

11.00 bis 12.30 Uhr

Diskussion – Bücherei der CRU

 

12.30 bis 13.30 Uhr

MITTAGESSEN für die Mitglieder des Ausschusses – Raum 00.2 in der CRU

 

13.30 bis 15.30 Uhr

Diskussion – Bücherei der CRU

 

15.30 bis 16.30 Uhr

Falls erforderlich: nochmaliges Treffen mit Phil Jones und Peter Liss

 

16.30 bis 17.30 Uhr

Geschlossene Versammlung der Ausschussmitglieder

 

17.30 Uhr

Peter Liss als Begleitperson mit dem Ausschuss nach Zicer Layby für Taxis zum Hotel

 

19.00 Uhr

Arbeitsessen in Caistor Hall

Donnerstag, 8. April

08.45 Uhr

Taxi zur CRU (Ausstieg bei Zicer Layby)

 

09.00 Uhr

Empfangen durch den geschäftsführenden Direktor und dem CRU- Professor Peter Liss
Kaffee in der CRU

 

09.15 bis 10.45 Uhr

Treffen mit Phil Jones, Tim Osborn und Mitarbeitern in der Bücherei der CRU

 

10.45 bis 11.00 Uhr

Kaffeepause in der Bücherei der CRU

 

11.00 bis 12.30 Uhr

Diskussion – Bücherei der CRU

 

12.30 bis 13.30 Uhr

Mittagessen für die Ausschussmitglieder –
Sainsbury Centre, Garden Restaurant

 

13.30 bis 15.00 Uhr

Abschlusstreffen

 

15.00 bis 15.30 Uhr

Kaffee + Abreise in Taxis von Zicer Layby

 Bereits sechs Tage später, am 14.04.2010, wurde der dürftige 5-Seiten Bericht der Kommssion veröffentlicht.

Kein Wunder, daß der „Untersuchungsbericht” der Oxburgh-Kommission nur 5 Seiten umfaßte: Die Kommission hielt sich nur etwa 45 Stunden in Norwich auf und verbrachte offenbar einen Großteil ihrere Zeit mit Kaffee, Tea, Essen und Plaudereien. Kein einziges Gespräch wurde mit Kritikern der Arbeit der CRU geführt. Da ist es kein Wunder, daß der Bericht die CRU von allen Vorwürfen freisprach – man verstand sich wohl recht gut. Bestimmt haben die Mitglieder der Oxburgh-Kommission ihre Arbeit ganz anders empfunden – meint auch Josh (siehe Karikatur). 

Quelle (englisch, externer Link) (1312)

Übersetzt von Chris Frey EIKE




Der Treibhauseffekt – wie funktioniert er?

Aus diesem Grunde haben wir  den Versuch unternommen, den Treibhauseffekt nach dem heutigen fachlichen Stand komprimiert und verständlich zu erklären. Leider hat sich dafür ein wenig Physik und Mathematik als unabdingbar erwiesen. Wir bitten  hierfür um Entschuldigung. Der Berichtstext ist wegen besserer Lesbarkeit der Formeln im angefügten pdf-Dokument enthalten.

Die Autoren

Prof. Dr. Horst-Joachim Lüdecke (EIKE-Pressesprecher)

Dr. Rainer Link (EIKE)

Related Files




ClimateGate Update 1:Der Skandal der nicht stattgefunden haben darf! Zur Oxburgh Kommission: Wer hat die elf Papiere ausgewählt? Eine Antwort

In seiner Aussage vor dem parlamentarischen Untersuchungsausschuss hatte Oxburgh gesagt:

Frage: Können Sie uns sagen, wer die 11 Veröffentlichung ausgewählt hat?

Oxburg: Wir haben die 11 Publikationen nicht ausgewählt. Sie waren so etwas wie …
Wir haben etwas als eine gute Einführung in die Arbeit der CRU gebraucht, wie sie sich über die Jahre entwickelt hat. Der Vorschlag der Publikationen ist über die Universität [University of East Anglia] und von der Royal Society gekommen, glaube ich. Wir meinen … ich möchte das betonen … sie waren nur ein Anfang … weil wir alle Neulinge auf diesem Gebiet waren, wir haben sie für eine sehr gute Einführung gehalten – wir haben weitergemacht. Wir haben andere Publikationen gesichtet… wir haben um Rohmaterial gebeten, all so etwas. Die Presse hat viel Aufhebens um die Auswahl der Publikationen gemacht. Für jeden im Ausschuss ist das übertrieben. Das war nicht so bedeutungsvoll.

Frage: Zwei Dinge folgen daraus. Es war eine kleines Institut. Wollen Sie damit sagen, dass Jones, der Betroffene der Untersuchung, die Papiere ausgesucht hat, welche begutachtet werden sollten … und dass es nicht die Royal Society war?

Oxburgh: Keine Ahnung, ob Jones sie ausgesucht hat!

Frage: Wo kamen sie also her?

Oxburgh: Ich glaube, sie kamen … ich vermute, dass […] Professor Liss involviert war, der als Leiter des Instituts fungierte, der von außerhalb des Instituts da hingesetzt wurde … er war eine Chemie-Ozeanograf, der sich allgemein auf dem Gebiet auskannte, er in Abstimmung mit Leuten aus der Royal Society und vielleicht Anderen von außerhalb des Instituts die einige Kenntnis besaßen.

Frage: Also, die Liste ist nicht vom Institut gekommen? – können sie das mit absoluter Sicherheit sagen?

Oxburgh: Na ja, das kann ich nicht!
Frage: Also die Liste ist nicht von der CRU gekommen?

Oxburgh: Ich kann nicht Gegenteil beweisen. Dafür gibt es keinen Hinweis.
Frage: Ihre Veröffentlichungen haben behauptet, dass sie von der Royal Society kamen. Die dem Ausschuss gegebene Liste, vor der Anforderung bei der Royal Society.

Oxburgh: Ich … Nicht dass ich wüsste. Sie könnten Recht haben, ich glaube das aber nicht. Nein, ich kann mir nicht vorstellen, dass das stimmt.

In einem vorhergehenden Beitrag habe ich [McIntyre] festgestellt, dass die Liste der elf Publikationen ganz früh, am 4. März, herausgeschickt worden war. Lange vor einer routinemäßigen E-Mail von Trevor Davies an Martin Rees und Brian Hoskins von der Royal Society in der es hieß, Oxburgh würde sagen wollen, die Liste wäre „in Abstimmung mit der Royal Society“ aufgestellt worden, obwohl die Liste bereits abgeschickt worden war.

Ich habe auch bereits angemerkt, dass sich Lisa Williams aus der Registratur der UEA als Autor der Liste herausstellte, die an die Ausschussmitglieder geschickt worden war. Damit ist ein Hinweis auf den Ersteller der Liste gegeben, und in Verbindung damit auch in der Aussage: 

Diese Schlüsselpublikationen wurden ausgewählt wegen ihrer Relevanz bezüglich der besonderen Kritikpunkte, die gegen die Forschungsergebnisse der CRU erhoben worden sind nach dem Diebstahl der E-Mails.

Nun, nach fast sechs Monaten, ist das Rätsel der Autorenschaft der Liste gelöst.

Lisa Williams schrieb:

Sehr geehrter Herr McIntyre
als Antwort auf ihre Nachforschung kann ich folgende Information geben:

Nach meinem Kenntnisstand ist die Liste der 11 Papiere für die Oxburgh-Untersuchung von Prof Trevor Davies zusammengestellt worden, in Abstimmung mit anderen. Er war auch der Autor des Aussage am Ende der Liste.

Mit freundlichem Gruß,
Lisa Williams

Also ist die Liste überhaupt nicht von der Royal Society zusammengestellt worden, sondern von Trevor Davies, dem Pro-Vizekanzler der Universität und vormaligen Direktor der CRU. In Abstimmung mit „anderen“? Könnte man vielleicht vermuten, dass diese geheimnisvollen „anderen“ am Ende Jones und Briffa waren?

von Steve McIntyre Das Original finden Sie hier: « Climategate Inquiries

Who Chose the Eleven? An Answer

Die Übersetzung besorgte dankenswerterweise Helmut Jäger Teil 1