1

UN-Organisation stellt fest: Keine Strahlenschäden auf Bevölkerung in und um Fukushima

..Als eigentliches Drama gilt die schwere Beschädigung des Atomkraftwerkes in Fukushima, was zur Kernschmelze in drei Reaktoren führte und radioaktives Material in die Atmosphäre und den Pazifischen Ozean freisetzte. Der „Gau“ wurde zur Zäsur: In Windeseile hat die damalige schwarz-gelbe Regierung eine Energiewende ausgerufen: Sonne und Wind statt tödlichen Atoms, lautete die Devise…


….Dazu hat das „Wissenschaftliche Komitee der Vereinten Nationen zur Untersuchung der Auswirkungen der atomaren Strahlung (Unscear)“ in der vergangenen Woche seinen lang erwarteten, umfangreichen Abschlussbericht vorgelegt. Das verstörende Ergebnis: Die in Fukushima frei gewordene Strahlung hatte keine unmittelbaren Auswirkungen auf die Gesundheit der Bevölkerung; es gab und gibt kein erkennbar höheres Krebsrisiko. Mehr noch: Auch für die Zukunft rechnet das Unscear nicht mit statistisch nachweisbaren Gesundheitsfolgen durch Fukushima.

In Japan ereignete sich eine Flutwelle gigantischen Ausmaßes; trotzdem haben die Kraftwerke kein einziges Menschenleben gefordert. Wer meint, der Unscear-Bericht habe hierzulande nun eine heftige Debatte über möglicherweise falsche Voraussetzungen der flächendeckenden Atomabschaltung ausgelöst, täuscht sich. Die Meldung ging im großen Rauschen unter; was übrig blieb, wurde von ein paar atomkritischen Nichtregierungsorganisationen klein geschreddert. Das teure Großprogramm „Energiewende“ darf nicht gestört werden. Dabei lässt sich das Unscear vergleichen mit dem Weltklimarat IPCC, wo regelmäßig selbst nachrangige Nebensätze vom grünen Mainstream kanonisiert werden…Weiter in der FAS




Forscher fordern- Es ist OK, beim Klima zu lügen!

Die Studie scheint eine Formel zur Verfügung zu stellen oder zu unterstützen, warum Lügen oder „Manipulationen von Informationen“ in der Lage sind, den Fall der vom Menschen verursachten globalen Erwärmung voranzutreiben und das „globale Wohlergehen zu erhöhen“.

Die Autoren, die Wirtschafts-Assistenzprofessoren Fuhai Hong und Xiaojian Zhao beschreiben, wie die Medien und Umweltgruppen die globale Erwärmung „übertreiben“ und dann in ihrer Studie „für diese Tendenz eine Rationale zur Verfügung stellen“. Tenor: Das Ziel heiligt das Vorgehen. Die Studie wurde am  24. Februar 2014  veröffentlicht.

Die Autoren schreiben im Abstract ihrer Studie mutig, dass die „Nachrichten-Medien und einige Umweltaktivisten die Tendenz zeigen, den von der Klimaänderung verursachten Schaden überzubetonen oder sogar zu übertreiben. Dieser Artikel beschreibt eine Rationale für diese Tendenz“.

„Wir finden, dass die Manipulation von Informationen einen instrumentellen Wert hat, da sie aus nachträglicher Sicht (ex post) mehr Länder dazu bringt, internationalen Umweltabkommen (IEA) beizutreten, die das globale Wohlergehen stärken“.

Auszüge aus den Schlussfolgerungen: „Dieser Artikel bietet eine Rationale für das Phänomen der Betonung oder Übertreibung der Klimaänderung seitens der internationalen Main-Stream-Medien oder andere Pro-Umwelt-Bewegungen. – Wir zeigen, dass die zuvor erwähnte Übertreibung der Klimaschäden das Problem der unzureichenden Teilnahme an IEA lindern können. Tatsächlich impliziert unser zentrales Ergebnis – dass übermäßiger Pessimismus das Problem mangelnder Teilnahme an entsprechenden Projekten lindern könnte – dass die Propaganda der Klimaskeptiker schädlich für die Gesellschaft ist“, schreiben die Autoren auf Seite 2, Fußnote 5.

Autoren der Studie sind Fuhai Hong, Assistenzprofessor an der Division of Economics,  Nanyang Technological University sowie Xiaojian Zhao, Assistenzprofessor im Department of Economics, Hong Kong University of Science and Technology. (fhhong@ntu.edu.sg)

Das vollständige Abstract der Studie liest sich so:

„Es scheint, dass die Nachrichtenmedien und einige Umweltgruppen die Neigung haben, den durch die Klimaänderung verursachten Schaden besonders herauszustellen oder sogar zu übertreiben. Dieser Beitrag bietet eine Rationale für diese Neigung in Gestalt eines modifizierten internationalen Umweltabkommens IEA, ein Modell mit asymmetrischer Information. Wir finden, dass die Manipulation von Informationen einen instrumentellen Wert hat, da sie mehr Länder dazu bringt, einem IEA beizutreten, das eventuell das globale Wohlergehen stärken könnte. Aus der Vorabperspektive (ex ante) jedoch kann die Auswirkung von Informations-Manipulationen auf das Niveau der Teilnahme an einem IEA und des Wohlergehens mehrdeutig sein“.

Die Reaktionen auf die Studie waren sehr kritisch. Craig Rucker vom Committee for a Constructive Tomorrow CFACT (Climate Depot’s parent company) schrieb in einem Beitrag vom 4. April: Was einen wirklich schockiert ist, dass zwei Professoren nicht nur offen zugeben, sondern sogar in einer in einem begutachteten Journal veröffentlichen Studie untermauern, welche vorteilhaften Auswirkungen Lügen haben, die Nationen dazu bringen sollen, einem UN-Klimaabkommen im nächsten Jahr in Paris beizutreten!“

Rucker fügt hinzu: „Die Autoren glauben nicht nur, dass ihre zweifelhaften Ergebnisse ihre unseriösen Mittel rechtfertigen, sie institutionalisieren auch ‚Informations-Manipulation‘ als eine Taktik, empfehlen diese auf Klimakonferenzen und veröffentlichen sie in Journalen. Sie sind schamlos“.

David Rothbard von CFACT schreibt: „Die Skeptiker der globalen Erwärmung haben schon lange geargwöhnt, dass die Alarmisten die Gefahren der Klimaänderung übertreiben. Jetzt kommt hier eine neue Studie von zwei Ökonomen in Singapore und Hongkong, die tatsächlich befürwortet, die Ängste vor der globalen Erwärmung zu übertreiben, um Länder in das Boot internationaler Umweltabkommen zu holen“.

Kevin Gloss von Townhall.com zufolge behauptet die Studie, dass die Dringlichkeit der Klimaänderung es sanktioniert, die Öffentlichkeit hinsichtlich der projizierten Konsequenzen der globalen Erwärmung in die Irre zu führen. Zwar verwenden sie nicht das Wort „lügen“, rufen aber nach „informeller Manipulation und Übertreibung“. Sie glauben allen Ernstes, dass die Ergebnisse diese sehr fragwürdigen Mittel rechtfertigen“.

Allerdings ist es nicht das erste Mal, dass den Befürwortern der globalen Erwärmung vorgeworfen wird, betrügerisch zu sein. So schrieb Professor Stephen Schneider im Jahre 1989: „Also müssen wir ängstigende Szenarien an die Wand werfen sowie vereinfachte, dramatische Feststellungen treffen, und wir dürfen eventuelle Zweifel, die wir haben, nicht herausstellen. Diese ‚doppelte ethische Bindung‘, in der wir uns oftmals wiederfinden, kann nicht durch irgendeine Formel gelöst werden. Jeder von uns muss für sich selbst entscheiden, die richtige Balance zu finden zwischen effektiv oder ehrlich zu sein. Ich hoffe, das bedeutet beides“. In: Discovery Magazine, Oktober 1989, S. 45 bis 48.

Der ehemalige Wissenschaftler der globalen Erwärmung bei der NASA James Hansen gab in einer Ausgabe des Natural Science aus dem Jahr 2003 zu, dass die Propagierung „extremer Szenarien“ zur Dramatisierung der globalen Erwärmung „zu gegebener Zeit angebracht gewesen sein könnte“, um die Aufmerksamkeit der Öffentlichkeit auf dieses Thema zu lenken (hier).

Aktualisierung

Der ehemalige Physiker an der Harvard University Dr. Lubos Motl war von der Studie ‚erschlagen’ und fasste die Aussage der Studie so zusammen: Es ist verdienstvoll, im Namen von AGW zu lügen und zu schummeln (hier).

Motl führt aus: „In der Studie geht es um ein einfaches mathematisches Modell der ‚Spiele-Theorie‘. Sie kommt zu dem Ergebnis: wenn man möglichst viele Länder dazu bringen möchte, den hysterischen Klimaabkommen beizutreten, ist es eine tolle Idee zu lügen und die Informationen zu manipulieren oder zu lackieren. Sie stellen explizit fest, dass ‚Al Gore, das IPCC und die Main-Stream-Medien ihre Berichte tendenziös abfassen, um die Schäden der Klimaänderung zu betonen‘, und sie fragen, warum das so ist. Die schockierende Antwort lautet: ‚Derartige Information-Manipulationen haben einen hohen instrumentellen Wert‘. Ja, sie lügen, wie Hong und Zhao schreiben, und es ist großartig, dass sie das tun! Genauer, sie sagen, dass die Lügen sind kalkulierbar effektiv, wenn erst einmal eine hinreichende Zahl von Ländern den hysterischen Klimaabkommen bereits beigetreten ist. Für die ursprünglichen Länder kann man den Effekt im Moment nicht von Null unterscheiden. Diese beiden unterschiedlichen Vorhersagen werden mit den lateinischen Begriffen ‚ex ante‘ und ‚ex post‘ aufgemotzt, damit die Autoren smarter klingen“.

Motls Schlussfolgerung: „Die Autoren der IPCC-Berichte oder Al Gore haben in den Berichten niemals zugegeben, dass die Berichte oder Filme eine Ansammlung von Lügen und Müll sind. Das haben Hong und Zhao jetzt endlich nachgeholt“.

Link: http://tinyurl.com/p9ak84g

Übersetzt von Chris Frey EIKE

Bemerkungen des Übersetzers hierzu: Das Ganze erinnert an einen Grundsatzbeitrag des Chefideologen der ehemaligen DDR, einem gewissen Kurt Hager, der darin Anfang der Siebziger Jahre auf fünf Seiten (!) ausgeführt hat, warum die Demokratie die schlimmste Regierungsform überhaupt ist. Ich habe seine Tiraden damals inhaltlich nicht verstanden (vermutlich weil die Vernebelung Absicht war), erinnere mich aber noch an das Medienecho, dass diese Äußerungen zwar verdammte, aber dennoch ernst genommen hat.

Der einzige Unterschied zwischen der Propaganda damals und heute ist das Ziel: Damals sollte der ‚furchtbare kapitalistische Westen‘ vorgeführt werden, heute geht es nur noch darum, dass man zahlen soll, um Ungemach zu vermeiden. Wir alle sollen einfach zahlen, und zwar ohne zu murren, und das ist m. E. wohl fast schon alles, was dahinter steckt.

Unterstrichen wird diese Annahme durch eine Studie von Marietta Fuhrmann-Koch an der Ruprecht-Karls-Universität Heidelberg, die sich mit der Frage befasst, was die ‚Bereitschaft der Bürger in Deutschland bestimmt, freiwillig etwas gegen den Klimawandel zu tun‘. Dazu gibt es auch eine Pressemitteilung vom 3.4.2014: http://idw-online.de/de/news581074

Freiwilliger Klimaschutz ist eine Frage des Informations- und Bildungsstandes

Marietta Fuhrmann-Koch Kommunikation und Marketing
Ruprecht-Karls-Universität Heidelberg

Was bestimmt die Bereitschaft der Bürger in Deutschland, freiwillig etwas gegen den Klimawandel zu unternehmen? Von großer Bedeutung ist dabei eine Mischung aus Faktenwissen, subjektiven Annahmen und Hörensagen. Das zeigen Untersuchungen mit 2.000 Bundesbürgern, die Umweltökonomen der Universität Heidelberg durchgeführt haben. Sie sind in einem Forschungsprojekt am Alfred-Weber-Institut für Wirtschaftswissenschaften der Frage nachgegangen, welche Einflussgrößen die sogenannte Zahlungsbereitschaft beim individuellen Schutz des Klimas bestimmen.


Um die Zahlungsbereitschaft beim individuellen Schutz des Klimas zu untersuchen, haben die Heidelberger Wissenschaftler ein verhaltensökonomisches Experiment durchgeführt. Deutschlandweit waren daran mehr als 2.000 Probandinnen und Probanden aus allen Gruppen der Bevölkerung beteiligt. Die Teilnehmer hatten die Wahl zwischen einem monetären Verdienst und einer realen Einsparung von Kohlendioxid-Emissionen. Die Emissionssenkungen realisierten die Forscher über das Emissionshandelssystem der Europäischen Union. Zugleich fragten sie nach dem Wissensstand und den Erwartungen der Probanden, etwa über die Auswirkungen von Emissionssenkungen oder den persönlichen Anteil am Kohlendioxid-Ausstoß.
„Zahlungsbereitschaften für Umweltgüter, wie zum Beispiel den Klimaschutz, sind alles andere als festgefügt“, sagt Prof. Goeschl. „Sie werden zum Beispiel stark durch den individuellen Informationsstand beeinflusst. Dieser speist sich aber nicht nur aus realen Fakten, sondern auch aus subjektiven Annahmen und vermeintlichem Wissen.“ Wer besser Bescheid weiß oder auch nur glaubt, präziser informiert zu sein, beispielsweise über den eigenen Beitrag zum Klimawandel, hat eine höhere Zahlungsbereitschaft.
Ein weiterer entscheidender Einflussfaktor der Zahlungsbereitschaft für den individuellen Klimaschutz ist der Bildungsstand, wie die Heidelberger Forscher berichten. „Menschen aus höheren Bildungsschichten sind eher bereit, auf Geld zugunsten einer Emissionssenkung zu verzichten, unabhängig von ihrem Einkommen und auch von ihrem Wissen über den Klimawandel und die damit verbundenen Zusammenhänge“, so Prof. Goeschl.
Auf einen unerwarteten Effekt stießen die Wissenschaftler, als sie die Entscheidungen der Probanden mit regionalen Wetterdaten verbanden: Bei höheren Außentemperaturen am Wohnort waren die jeweiligen Teilnehmer eher bereit, sich für die Emissionssenkung zu entscheiden und auf das Geld zu verzichten. „Dieser Effekt wird noch Gegenstand weiterer Untersuchungen sein“, betont Prof. Goeschl.
Informationen im Internet:
http://www.uni-heidelberg.de/fakultaeten/wiso/awi/professuren/umwelt/index.html
Dazu schreibt der Energiefachmann Burckhard H. Adam:
Es ist doch erstaunlich, womit sich Universitäten beschäftigen. Da gib es ein Forschungsprojekt, das folgendes untersucht hat: Was bestimmt die Bereitschaft der Bürger in Deutschland, freiwillig etwas gegen den Klimawandel zu unternehmen? Oder anders ausgedrückt, es sollte die Zahlungsbereitschaft der Bürger beim „individuellen Schutz des Klimas“ untersucht werden.

Wie die Heidelberger Forscher unter Leitung von Prof. Goeschl berichten, kam während der Untersuchungen doch Erstaunliches zu Tage: „Ein weiterer entscheidender Einflussfaktor der Zahlungsbereitschaft für den individuellen Klimaschutz ist der Bildungsstand. Menschen aus höheren Bildungsschichten sind eher bereit, auf Geld zugunsten einer Emissionssenkung zu verzichten, unabhängig von ihrem Einkommen und auch von ihrem Wissen über den Klimawandel und die damit verbundenen Zusammenhänge“.

Übrigens:

Der Mensch ist das einzige Lebewesen, dem man ständig mehrfach das Fell über die Ohren ziehen kann.“ Sean O’Brian (engl. Autor *1952 London)

Das irritiert mich gewaltig, sollte es tatsächlich so sein, dass sich Menschen mit höherem Bildungsgrad durch scheinwissenschaftliches Wissen, eher manipulieren lassen, als das „gemeingebildete Volk“? Das würde, so meine ich, z. B. auch die Existenz der Wutbürger, die ja auch meist besser Gebildete sind, erklären! Aber sicherlich wird diese Studie aus Fördermitteln reichlich finanziert und ist für die Uni Heidelberg wie ein warmer Regen!

Mit Verlaub, es bleibt trotzdem für mich verwunderlich, dass sich eine Universität, vor den Karren des „Klimaschutzes“ spannen lässt. Obwohl den Ökonomen dort eigentlich auch bekannt sein sollte, dass sich der abstrakte Begriff Klima, der dem statistischen Mittelwert aller meteorologischen Erscheinungen, an einem bestimmten geografischen Ort über mindestens 30 Jahre darstellt.  KLIMA kann sich weder erwärmen noch kann es geschützt werden – man kann es nicht einmal unterstellen, damit es nicht so sehr verstaubt.  Und es müsste auch bekannt sein, dass CO2 weder ein „Luftschadstoff“, noch ein „Klimakiller“ ist. Sondern im Gegenteil, CO2 ist ein wichtiger Grundstoff im Kohlenstoffkreislauf der Erde für den Prozess der Photosynthese der Pflanzen. Ohne CO2 keine Pflanzen; ohne Pflanzen kein Futter für die Tiere und keine Nahrung für uns Menschen und – ganz wichtig: Ohne CO2 kein Sauerstoff!

Burckhard H. Adam

Dipl.-Ing.(FH) für rationelle Energieanwendung

Energieberatung – Projektentwicklung – Öffentlichkeitsarbeit

„Den Wind können wir nicht ändern – „wir können nur die Segel richtig setzen.“ (Aristoteles 384 – 322 v.d.Z.)




Die Sonne bringt Licht ins dunkel – Was die Erdtemperaturen wirklich bestimmt, Teil 3

Teil 3: Warum und wie El Niño das Wettergeschehen in Europa und Nordamerika steuert

Teil 3 zeigt, wie die Sonne ihre Energie auf die irdischen Wettersysteme einprägt. Die physikalischen Grundlagen werden dargelegt, über die die Auswirkungen von El Niño-Ereignissen global wirken und wie das Wettergeschehen (über die NAO) in Europa und Nordamerika diesen Parametern folgt.

 

Bleibt noch die Frage zu klären, wie die in den Teilen 1 und 2 gezeigte Sonnenaktivität ihren Einfluss sozusagen umsetzt? Hier geben die Antwort, die Passatwinde (englisch: Trade Winds), also die Großraumwetterlage, die durch die Hadley-Zellen bestimmt wird. Die Passatwinde sind ein beständiges Windsystem, welches sich auf beiden Seiten des Äquators bis zum 24. Breitengrad ausbildet. Es liegt damit im Bereich der Hadley-Zellen und unterteilt sich in den Nordost-Passat (Nordhalbkugel) und in den Südost-Passat (Südhalbkugel). In der Wissenschaft ist unstrittig, dass die Passatwinde durch die Sonne entstehen und ihre Ausbildung und Stärke von der Sonnenscheindauer und -Stärke abhängt. Durch erwärmte, aufsteigende Luftschichten (Tiefdruckgebiet entlang der innertropischen Konvergenzzone) die an der Tropopause vom Äquator weg strömt und ca. 30° Nord oder Süd wieder zu Boden fällt (Hochdruckgebiet) entsteht ein Druckgefälle, wodurch sich Ausgleichströmungen zwischen den Hoch-/Tiefdruckgebieten bilden. Durch die Corioliskraft werden sie entsprechend abgelenkt.

 

Abb.23 (Quelle) zeigt die ENSO und die invertierte Windstärke der Passatwinde (Trade Winds). Unschwer ist zu erkennen, dass beide zusammenhängen. Die Passatwinde werden von den Hoch- und Tiefdrucksystemen (neben der Corioliskraft = Erddrehung) bestimmt. Diese wiederum durch die Wolkenbedeckung und dies ist der Ansatzpunkt, wie die Sonne neben ihrer Strahlungsleistung ihren Einfluss auf das irdische Wettersystem umsetzt. Seit Svensmark gibt es eine These, wie die solare Aktivität die Bewölkung beeinflusst. Den Einfluss des Polfeldes (Hale-Zyklus) auf die Wolkenbedeckung hat der Autor in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ gezeigt.

Da die Passatwinde Ausdruck der Hadley-Zellen sind und diese in einem Band zwischen ±30° um den Globus verlaufen, wird der unmittelbare solare Einfluss auf die Hadley-Zellen untersucht.

Die Hadley-Zelle ist ein wesentlicher Bestandteil der atmosphärischen Zirkulation. Sie entsteht durch die meridional unterschiedliche Sonneneinstrahlung und dem daraus resultierenden Energietransport von den Tropen zu den Polen. Diese thermisch angeregte Zirkulation reicht jedoch im ersten Schritt nur bis zum 30-Breitengrad, weil dort die Strahlungsenergie der Sonne deutlich abfällt (Abb.25). Die daraus entstehende Hadley-Zelle ist als globale (verläuft um den ganzen Globus) Vertikalzirkulation zwischen dem Hochdruckgürtel der Subtropen und der äquatorialen Tiefdruckrinne ausgebildet. Die Hadley-Zelle kann näherungsweise als ein in sich abgeschlossenes System betrachtet werden (Abb.24).

 

Abb.24: Über der ITCZ (Innertropische Konvergenzzone) steigt aufgrund der Konvektion warme und feuchte Luft auf, wobei dort ein Tiefdruckgebiet entsteht. Die Luft expandiert, kühlt dabei ab, was zur Wolkenbildung führt. Durch die Corioliskraft wird die Luft abgelenkt. Im Bereich des Subtropenhochdruckgürtels sinkt die kalte und trockene Luft (schwerer) ab, wodurch am Boden ein Hochdruckgebiet entsteht. Die sich dabei erwärmende Luft nimmt über den Ozeanen große Mengen an thermischer Energie in Form von fühlbarer und latenter Wärme (Luftfeuchte) auf und fließt als Nord/Ost-Passat zum Äquator zurück. Der übrige meridionale Energietransport findet über die sich anschließenden Zellen durch horizontale zyklonale (entgegen dem Uhrzeigersinn drehende) und antizyklonale (mit dem Uhrzeigersinn drehende) Zirkulation statt. In der Ferrel-Zelle wird die Energie durch die Westwinddrift abgeführt. Diese entsteht aus thermodynamischen Gründen wegen des Temperaturgegensatzes der Luft von ca. 20K zwischen 30° und 60°-Breite.

Wie Untersuchungen zeigen, hat sich die Hadley-Zelle im Zeitraum der moderaten Erwärmung zwischen 1979 und 2005 (Anstieg des Hauptsonnenzyklus und dem Brückner-Zyklus) um 5-8 Breitengrade ausgedehnt und sich deren Volumen, da auch die Tropopause wegen der erhöhten Konvektion durch die Wärmeflüsse um einige Zehnmeter erhöhte, um ca. 5% vergrößert, D. J. Seidel et al. (2008), ”Widening of the tropical belt in a changing climate“, Nature Geoscience 1, 21-24.

 

Abb.25 zeigt das Jahresmittel der Energieflüsse der Atmosphäre in Abhängigkeit von der geographischen Breite nach Häckel, 1990. Neben der Strahlungsbilanz dominieren die Flüsse von sensibler und latenter Wärme (Luftfeuchte). Die Advektion von Wärme durch die Luft, verhindert die Auskühlung der Pole. Gut zu sehen, wie Energie meridional transportiert wird, Quelle: Häckel, 1990, “Meteorologie“. Bis etwa zum 25. Breitengrad ist die Strahlungsenergie konstant und am größten. Ab dem 30-Breitengrad fällt der Energiestrom der Strahlungsbilanz deutlich ab.

Die Wissenschaftler Xiao-Wei Quan et al. untersuchten, wie sich die Hadley-Zelle seit den 1950-Jahren veränderte “Change of the Tropical Hadley Cell Since 1950“. Abb.26 entstammt ihrer Untersuchung. Dieser wird aus der gemittelten Windgeschwindigkeit der 200 hpa-Höhe, minus der gemittelten Windgeschwindigkeit in der 850 hpa-Höhe gebildet und ist somit ein Maß für die Luftmassengeschwindigkeit und des Luftmassenstroms in der Hadley-Zelle.

 

Abb.26 zeigt den Hadley-Zirkulations-Index. Dies ist die Abweichung vom Mittel der zonalen Meridiangeschwindigkeit in der 200 hpa-Höhe minus des Mittels der zonalen Meridiangeschwindigkeit in 850 hpa-Höhe und steht für die Luftmassenströmungen in der Hadley-Zelle. Y-Achse = 1010 kg/s. Während die südliche Hadley-Zelle (unten) eine Schwingung von ca. 23 Jahren zeigt, was der Länge des Polaritätszyklus (Hale-Zyklus) der Sonne entspricht, steigt der Index auf der Nordhalbkugel bis zur Jahrtausendwende stetig an. Die Erklärung für das unterschiedliche Verhalten könnte in der Zellgröße und den Landmassen liegen. So ist die nördliche Zelle fast doppelt so groß (kleine Abbildung), was wiederum mit der größeren Landfläche auf der Nordhalbkugel zusammenhängen könnte, die sich mit dem Ansteigen des Hauptsonnenzyklus direkter und schneller erwärmt, als die großen Wasserflächen unter der südlichen Hadley-Zelle.

Da die Untersuchungsergebnisse von Xiao-Wei Quan et al. auf solare Einflüsse hindeuten, sollen diese mit den gezeigten Untersuchungen des Autors in Relation gesetzt werden (Abb.27).

 

Abb.27 bestätigt, dass die El Niño-Ereignisse unmittelbar mit der Aktivität in der Hadley-Zelle gekoppelt sind. Wie bereits gezeigt, sind die Auswirkungen von El Niño um den ganzen Globus zu verzeichnen, insbesondere in einem Band von ±30° nördlicher und südlicher Breite, was dem Gebiet der Hadley-Zellen entspricht. Wie die Gesamtabbildung zeigt, ist jeder El Niño einem Hadley-Ereignis direkt zugeordnet (rote gestrichelte Linien) und damit, wie bereits bewiesen, der solaren Aktivität unmittelbar zuzuordnen. Die Abbildung zeigt ganz deutlich, dass mit Eintreten eines El Niño-Ereignisses und des entsprechenden solaren Parameters, die Windgeschwindigkeiten in der Höhe zunehmen. Dies ist auch der Schlüssel zu der Erkenntnis, dass die El Niño-Auswirkungen nicht nur zonal (zwischen ±30° geographischer Breite), sondern global auftreten.

Abb.25 zeigt schematisch, wie der Energietransport zwischen der Hadley-Zelle und den nördlichen Breiten verläuft, sowie der Luftmassenstrom über die Hadley-Zelle zu den nördlichen Breiten. Daraus wird ersichtlich, dass El Niño-Ereignisse über den Bereich der Hadley-Zelle Einfluss auf das Wettergeschehen haben, wie dies aus den Untersuchungen von Prof. Brönnimann und des MPI-M und der University of Cambridge (“Central Pacific El Niño, the “subtropical bridge,” and Eurasian climate“, Journal of Geophysical Research, Vol. 117, D01102, 10 PP., 2012), sowie Prof. Malberg (erschienen in der Berliner Wetterkarte e.V. am 31.01.2012) hervorgeht. Die Erklärung ist im Drehimpulserhaltungssatz zu finden.

 

Abb.28 zeigt das Druckverteilungsmuster und die Windverhältnisse der bodennahen Troposphäre. Im Absinkbereich der Hadley-Zelle bilden sich Hochdruckgebiete, wodurch dort trockenes Klima vorherrscht. So liegen in ihrem Bereich die Wüstengebiete der Erde. Durch die Passatwinde fließt ein stetiger Rückstrom (Oststrom) in Richtung Äquator. In der IPCZ fließt daher ein schwacher Ostwind. In der Westwinddrift der Ferrel-Zelle fließen die Frontensysteme der Tiefdruckgebiete nach Osten und zwar entlang des Polarfrontjet, an dem sich fortwährend Tiefdruckgebiete bilden. An der sich angrenzenden Polar-Zelle entsteht an der absinkenden schweren Kaltluft ein Hochdruckgebiet. Zwischen dem Druckgradient und der Corioliskraft bildet sich dort ein Gleichgewicht, welches einen schwachen Ostwind verursacht. Sowohl die Ostwinde der Subtropen/Tropen, als auch die Ostwinde der Polargebiete und der Westwind der mittleren Breiten sind mit einem Drehimpuls verbunden. Aus Gründen der Drehimpulserhaltung muss deren Summe Null ergeben.

Drehimpuls

Der Drehimpuls (Einheit: Nms) wirkt bei einer Kreisbewegung in Richtung Zentrum und gibt die Drehachse der Bewegung an. Er steht damit senkrecht zur Ebene, in der sich die Masse bewegt. Der Drehimpuls ist abhängig von der Geschwindigkeit, der Masse, sowie dem Abstand zur Drehachse. Bei Zunahme einer der drei vorgenannten Parameter, wächst der Drehimpuls an. Der Drehimpulserhaltungssatz gibt an, dass der Gesamtdrehimpuls in abgeschlossenen Systemen konstant ist.

Verändert sich z.B. der Drehimpuls auf Grund einer Geschwindigkeitszunahme der Luftströmungen in der Hadley-Zelle, so muss dies wegen dem Drehimpulserhaltungssatz Auswirkungen auf die Luftströmungen in den beiden anderen Zellen (Ferrel- und/oder Polar-Zelle) haben. Wird die Geschwindigkeit der Luftströmungen durch ein solares Ereignis in der (oberen) Hadley-Zelle erhöht, so sind durch die Kopplung über den Drehimpuls auch die anderen Zelle(n) beeinflusst. In der Ferrel/Polarzelle stellen sich dann geringere Drehimpulse ein, was zu einem ruhigen, kalten Winter führt (siehe Untersuchungen von Prof. Brönnimann).

Da die Hadley-Zelle zeitlich begrenzt, als geschlossenes System betrachtet werden kann, gilt natürlich, wie für jedes geschlossene System, der Energieerhaltungssatz. D.h. eine Erhöhung der Windgeschwindigkeiten in der Höhe muss mit einer zeitlich begrenzten Verringerung der Windgeschwindigkeiten in niedriger Höhe verbunden sein, wodurch bei einem El Niño die Passatwinde erschlaffen.

 

Abklingen des El Niño-Ereignisses

Stellt sich noch die Frage, warum das El Niño-Ereignis nicht bestehen bleibt? Dies ist bei El Niño-Ereignissen, die vom magn. Maximum des jeweiligen Schwabe-Zyklus oder durch die Polarfeldaktivitäten ausgelöst werden, recht einfach zu begründen: Weil die solare Aktivität und damit die Energiezufuhr dann am höchsten ist und anschließend wieder abfällt. Die mit einem Ereignis unter den Punkten 2 oder 3 erfolgte Energiezufuhr baut sich also wieder ab.

Diese Begründung kann jedoch nicht für die El Niño-Ereignisse unter Punkt 1 heran gezogen werden, weil nach der integralen Zunahme der Koronatemperatur (der integralen Zunahme der Korona-Aktivität) die solare Aktivität nicht abnimmt, sondern weiter zunimmt, bzw. die Korona-Temperatur in der Fläche auf ihrem hohen Wert von nahezu 2 Mio. Kelvin verbleibt. Also müsste das El Niño-Ereignis bestehen bleiben.

Der Gund, warum ein El Niño-Ereignis letztendlich entsteht (ausgelöst wird), besteht in den Änderungen von Energiedifferenzen zwischen den oberen Atmosphärenschichten und den unteren Atmosphärenschichten. Wie die Untersuchungen von Xiao-Wei Quan et al., “Change of the Tropical Hadley Cell Since 1950“ und die Korrelation mit der solaren Aktivität zeigen, wird durch die Aktivitätszunahme der Sonne die Luftmassenströmung zwischen oberen und unteren Atmosphärenschichten deutlich erhöht. Auch bei der Aktivitätszunahme der Korona. Die Änderung in der Aktivitätszunahme löst die Erhöhung des Luftmassenstromes und der Luftgeschwindigkeit in den oberen Atmosphärenschichten aus.

Xiao-Wei Quan et al. konnten zeigen, dass durch die entstandenen Energiedifferenzen zwischen oberen und unteren Atmosphärenschichten, die Erhöhung des Luftmassenstromes, damit verbunden, der Drehimpulsänderung und dem Erschlaffen der Passatwinde, entsteht. Obere und untere Atmosphärenschichten gelangen durch die Änderung (Impuls) aus ihrem vorherigen relativen Gleichgewichtszustand und zwar so lange, bis die Energie der oberen Atmosphäre, die die Erhöhung des Luftmassenstroms zwischen 200 hPa und 800 hPa bewirkt, an die unteren Atmosphärenschichten (und die übrigen Zellen – Ferrel- und Polarzelle) abgegeben wird. Also der Energieausgleich stattfindet. Ist dieser Energieaustausch abgeschlossen, also das vor dem Ereignis gültige relative Gleichgewicht wieder hergestellt, ist das El Niño-Ereignis beendet. Eine weitere gleichbleibend hohe Aktivität (Koronatemperatur bleibt auf 2 Mio. Kelvin) kann dann keine weitere Zustandsänderung hervorrufen. Der stabile Zustand zwischen oberen und unteren Atmosphärenschichten ist allerdings jetzt auf einem höheren Niveau und zwar für beide Luftschichten, die oberen und unteren, was keinen Einfluss mehr auf Änderungen der Luftmassenströmungen zwischen beiden Schichten (daher relatives Gleichgewicht) haben kann, also auch kein El Niño-Ereignis bestehen lassen oder entstehen lassen kann.

Vereinfacht dargestellt: Das System wird durch den Aktivitätsschub der Sonne vorrübergehend aus seinem Gleichgewicht gebracht, wodurch der El Niño entsteht. Dieser bleibt so lange bestehen, bis sich das vorherige relative Gleichgewicht wieder einstellt. Dies ist auch der Grund, warum das El Niño-Ereignis unter Punkt 1 stärker ausgeprägt ist, als die El Niño-Ereignisse, die durch Punkt 2 oder 3 ausgelöst werden. Zum einen, ist das System zwischen oberen und unteren Atmosphärenschichten durch das solare Minimum in seinem energieärmsten Zustand (eine „plötzliche“ Aktivitätssteigerung der Sonne kann also ein starkes Ungleichgewicht auslösen) und zum anderen, verhindert die weiter ansteigende solare Aktivität, den schnellen Energieabbau und damit das Einstellen des vorherigen relativen Gleichgewichts zwischen oberen und unteren Atmosphärenschichten, wogegen der Abfall der Energiezufuhr der Sonne bei den El Niño-Ereignissen unter Punkt 2 oder 3 das einstellen des vorherigen relativen Gleichgewichts unterstützt.

Weiter steht die Hadley-Zelle, wie gezeigt, mit der Ferrel-Zelle im Energieaustausch, so dass die Energiezunahme, die ein solares Ereignis auslöst, über diese und den Jetstream wieder abgebaut wird, wodurch sich die „normalen“ Bedingungen wieder einstellen und die Passatwinde an Kraft gewinnen. Dieser Energieaustausch (Abbau) beschleunigt den vorgenannten Energieangleich und damit den Abbau des El Niño-Ereignisses.

Soweit zur Theorie, die sich erst noch anhand der Realität bestätigen oder verworfen werden muss. Dies wird Ende dieses Jahres sein.

Wenn ein El Niño sich so verhält und auf diese Weise seine Auswirkungen an Ferrel- und/oder Polarzelle weitergibt, dann sollte sich auch sein „Fingerabdruck“ dort finden lassen. Exakt, der Verlauf des El Niño 3.4 (oder seiner größeren „Schwester“, der ENSO) sollten sich auch in den Parametern der Ferrel-Zelle abzeichnen. Daher soll die NAO, die unser Wettergeschehen in Europa maßgeblich beeinflusst, mit der ENSO in Relation gesetzt werden, Abb.29.

 

Abb.29 zeigt, dass NAO und ENSO zusammenhängen und deren Extrema weitgehend identisch sind. Wobei die Ereignisse in der NAO mit einem zeitlichen Versatz von ca. 1 Jahr auftreten. Markante Ereignisse in der ENSO (rote und grüne Ovale) hinterlassen in der NAO regelrecht ihren Fingerabdruck.

Wie eingangs gezeigt, lässt sich der gesamte Temperaturgang der letzten 35 Jahre, der Zeitraum also, der für die solare Abkopplung der Temperaturen und dem Temperaturantrieb durch Treibhausgase stehen soll, mit den El Niño-Ereignissen und damit der solaren Aktivität erklären. Diesem Beweis und der Logik, dass El Niño über die Drehimpulskopplung auf die anderen Zellen unmittelbaren Einfluss ausübt, müsste sich der Temperaturgang der letzten 35 Jahre genauso in der Ferrelzelle, ihren Parametern, abzeichnen und wie in Abb.30 gezeigt, zeitversetzt.

 

Abb.30 zeigt die NAO mit dem El Niño 3.4, der in Abb.7 den Beweis zum Temperaturgang erbrachte. Wie unschwer zu erkennen, tritt in der NAO jedes Maxima des El Niño 3.4 auf und mit einem Versatz von im Mittel 1 Jahr.

Abb.31 zeigt die Gesamtabbildung, aus der die NAO in Teilbereichen für den Vergleich in Abb.29 und Abb.30 stammt.

 

Abb.31 zeigt die verwendete Zeitreihe der NAO.

Wer die Wetter- und deren Klimageschehen verstehen will, der muss sich der Natur zuwenden. Insofern betrachtet der Autor die sog. Klimarealisten, als die Naturforscher unter den Klimaforschern, die das Erbe Alexander von Humboldts, einem der größten Naturforscher, leben. Das Zentrum zum Verständnis der Wetter- und Klimavorgänge, sofern ein statistischer Mittewert überhaupt als wissenschaftliches Refugium betrachtet werden darf, ist unser Zentralgestirn, die Sonne. Ihr gilt es, die Forschungsanstrengungen zu konzentrieren und die notwendigen Mittel dazu bereitzustellen, als diese für sinnlose Forschung in pseudowissenschaftlichen Bereichen, wie der von Treibhausgasen zu vergeuden und für "Forscher" bereitzustellen, die sich in immer aberwitzigeren Theorien und Horrorgeschichten verstricken, die sie dann einer unwissenden Presse- und Politikerschar verkaufen. Lenin nannte Journalisten einst "nützliche Idioten". Er hätte gewiss seine Freude, würde er sehen, wie ein Großteil der heutigen deutschen Journalistenschar seine Aussage immer wieder aufs Neue bestätigt.

El Niño – ein Rätsel. Wie beschrieben, Nein! Die Natur kennt keine Rätsel. Das Rätsel sind allein wir Menschen. Betrachten wir die Natur doch immer nur mit unseren eigenen Augen und spiegeln damit lediglich die Natur an uns selbst, wodurch zwangsläufig ein Zerrbild entsteht (was übrigens durch die Quantentheorie begründet ist, aber dies ist ein anderes Thema). Dabei gilt es, sich diesem bewusst zu sein und es zu erkennen. Dies gelingt einzig durch unseren Verstand und unsere Fähigkeit zu denken. So entsteht „Blindheit“, wenn Verstand und Denken abgeschaltet und/oder durch ideologische Vorgaben außer Kraft gesetzt werden. Insofern wird das Verhalten des IPCC und ihrer nahestehenden Institute erkenn- und begründbar und insbesondere das der deutschen Presse, bei der es aussieht, als ob der Verstand und das Denken durch ideologische „Blindheit“ außer Kraft gesetzt ist und daher solche Artikel entstehen, wie der eingangs genannte von Fokus. In Kenntnis der kurz angerissenen menschlichen Eigenschaften geht der Autor davon aus, dass der deutsche Leser von ideologischen Zerrbildern in der Wissenschaft und ihrer Berichterstattung, auch in Zukunft nicht verschont bleiben wird. Um das entstandene Zerrbild wieder der Natur anzugleichen und damit der Realität zuzuführen, gibt es die Wissenschaftler von EIKE. Wir werden unseren Lesern die Natur zeigen, wie sie ist. Ohne Zerrbilder und ohne ideologische Verblendung. Einfach nur schön anzusehen…

 

Raimund Leistenschneider – EIKE

 




Energiegipfel – AfD sieht keine Reform und fordert Abschaffung des EEG

Der Energiegipfel am Dienstag im Bundeskanzleramt verfehlte seine Ziele. Die geplante, ohnehin nur gering wirkende Deckelung der Zubauraten bei Wind- und Solar wurde mit Auslegungstricks erheblich aufgeweicht. Der Anstieg der Erneuerbaren-Energien-Gesetz-Umlage wird so gut wie ungebremst weiter gehen, das folgerte selbst ein Befürworter der Energiewende, Holger Krahwinkel vom Verbraucherverband. Die Aktie des Windkraftanlagenbauers Nordex schoss prompt zeitweise um 7 Prozent in die Höhe.

Die EEG-Umlage treibt die Stromkosten der deutschen Verbraucher dramatisch in die Höhe,“ erklärt Dr. Alexander Gauland, stellvertretender Sprecher Alternative für Deutschland, „Schon jetzt gehören sie zu den höchsten in Europa. Seit Beginn des EEG summierten sich die Zahlungen deutscher Netzbetreiber an die Besitzer von Erneuerbaren Energien auf über 120 Milliarden Euro – von den Verbrauchern bezahlt. Allein in 2013 waren es 23 Milliarden Euro – Tendenz stark steigend.“

Gauland resümiert: „Deswegen ist jede zaghafte „Korrektur“ oder „Reform“ nur ein sinnloses herumdoktern an Symptomen. Die Kostenbelastung der deutschen Verbraucher ist schon jetzt immens und für über 600.000 Haushalte nicht mehr tragbar. Gleichzeitig wandern immer mehr Industriearbeitsplätze ins billigere Ausland ab. Deren Zahl liegt bereits bei einigen zehntausend. Auch da ist die Tendenz stark steigend. Deswegen fordert die AfD die sofortige und ersatzlose Abschaffung des EEG. Und hat diese Forderung in seinem Europawahlprogramm festgeschrieben.“




Meeresspiegelanstieg und Frischwasserzufluss?

[*Beim Anklicken des Artikels habe ich ihn ohne Zahlschranke bekommen. A. d. Übers.]

In Cazenave14 heißt es, das parallel zum Stillstand bei der globalen Erwärmung auch die Rate des globalen Meeresspiegel(GMSL)-Anstiegs geringer geworden ist. Obwohl irgendwie andere Zahlen genannt werden, geht dies aus den Ergebnissen aller fünf Gruppen hervor, die die Satellitendaten bzgl. des Meeresspiegels bearbeitet haben, wie der obere Teil „a“ der Abbildung 1 zeigt:

Abbildung 1: Original-Bildunterschrift: GMSL-Rate über fünf Jahre lange übergreifende Ausschnitte [Original: five-year-long moving windows]. a: zeitweilige Evolution der GMSL-Rate berechnet über übergreifende 5-Jahres-Zeiträume, verschoben um 1 Jahr (Anfangsjahr: 1994). b: zeitweilige Evolution der korrigierten GSML-Rate (nomineller Fall), berechnet über übergreifende 5-Jahres-Zeiträume, verschoben um ein Jahr (Anfangsjahr: 1994). Die GMSL-Daten von jeder der fünf Gruppen werden gezeigt.

Nun darf es natürlich keine Verlangsamung der Rate des Meeresspiegel-Anstiegs geben, das würde nicht zur gewünschten Linie passen. Also haben sie sich entschlossen, die zwischenjährlichen Variationen in den beiden Komponenten heraus zu subtrahieren, die den Meeresspiegel ausmachen – die Massenkomponente und die „räumliche“ Komponente. Der untere Teil der Abbildung zeigt, was sie danach herausbekommen haben, nachdem sie die zwischenjährlichen Variationen berechnet und von jedem der fünf Ergebnisse der jeweiligen Gruppen subtrahiert hatten.

Bevor es weitergeht, möchte ich eine Frage in den Raum stellen, die ich später beantworten werde: Was genau in Abbildung 1 hat mich dazu veranlasst, diese Arbeit genauer unter die Lupe zu nehmen?

Bevor ich darauf eingehe, möchte ich noch etwas detaillierter erklären, was sie gemacht haben. Siehe dazu die Sekundärinformationen. Sie haben begonnen mit dem mittleren Meeresspiegel, der von den fünf Gruppen gezeigt wurde. Dann haben sie das trendbereinigt. Als Nächstens verwendeten sie eine Vielfalt von Beobachtungen und Modellen, um die zwei Komponenten abzuschätzen, die die Variationen im Anstieg des Meeresspiegels ausmachen.

Die Massenkomponente ist die Gesamtmenge an Wasser, die den Ozeanen entweder zugeführt oder entnommen wird durch die Launen des hydrologischen Zyklus‘ – Eisschmelze und Gefrieren, Verteilung der Regenmenge zwischen Festland und Ozeanen, und so weiter. Die räumliche Komponente (Dichte-Komponente) des Meeresspiegels andererseits ist die Änderung des Meeresspiegels infolge Änderungen der Dichte des Ozeanwassers durch unterschiedliche Temperatur und Salinität. Die Summe der Änderungen dieser beiden Komponenten ergeben die Gesamtänderungen des Meeresspiegels.

Als Nächstens haben sie die Summe der beiden Komponenten vom Mittel der Ergebnisse der 5 Gruppen subtrahiert. Damit bekamen sie die „Korrektur“, die sie danach jeweils auf die Schätzungen der fünf Gruppen angewendet haben. Sie beschreiben den Prozess in der Bildunterschrift unter ihrer Graphik:

Abbildung2: Dies ist Abbildung S3 aus den Ergänzenden Informationen. Original-Bildunterschrift: Schwarze Kurve: mittlere trendbereinigte GMSL-Zeitreihe (Mittel der fünf altimetrischen Satelliten-Datensätze) von Januar 1994 bis Dezember 2011 sowie Unsicherheitsgrenzen (in grau; basierend auf der Verteilung jeder Zeitreihe um das Mittel). Hellblaue Kurve: zwischenjährliche Massenkomponente basierend auf dem hydrologischen Modell ISBA/TRIP für Wasserspeicherung auf dem Festland plus atmosphärische Wasserdampf-Komponente von Januar 1994 bis Dezember 2002 sowie GRACE CSR RL05 Ozeanmasse von Januar 2003 bis Dezember 2011 (Hybrid-Fall 1). Die rote Kurve ist die Summe der zwischenjährlichen Massen- plus der thermosterischen Komponente. Dies ist das aus den ursprünglichen GMSL-Zeitreihen entfernte Signal. Vertikale Balken repräsentieren die Unsicherheit der monatlichen Massenabschätzung (hellblau) und monatlichen Gesamtverteilung (Massen- plus thermosterische Komponente; rot). Einheiten: mm.

Was also berechnen sie denn nun, wenn sie die rote Linie von der schwarzen Linie subtrahieren? Hier begannen die Dinge falsch zu laufen. Von der blauen Linie wird gesagt, dass sie die trendbereinigte Massen-Fluktuation sei einschließlich der zwischenjährlichen Speicherung auf dem Festland und in Wasserdampf. Von der schwarzen Linie sagen sie, dass sie das trendbereinigte Mittel des GMSL darstellt. Die rote Linie markiert die blaue Linie plus die „räumliche“ Änderung durch thermische Expansion. Hier liegen die Schwierigkeiten, die ich sehe, mit steigender Rangfolge der Wichtigkeit. Allerdings ist jede einzelne der folgenden Schwierigkeiten ausreichend, ihre Ergebnisse zu falsifizieren.

Unsicherheit

Ich habe obige Graphik so digitalisiert, dass ich sehen kann, wie ihre Korrektur wirklich aussieht. Abbildung 3 zeigt das Ergebnis in blau einschließlich des 95%-Vertrauens-Intervalls in der Korrektur.

Abbildung 3: Die in Cazenavel angebrachte Korrektur der GMSL-Daten der fünf bearbeitenden Gruppen (blau)

Die „Korrektur”, die sie an jeden der fünf Datensätze angebracht haben, ist statistisch nur in 10% aller Datenpunkte von Null unterschiedlich. Dies bedeutet, dass 90% ihrer „Korrektur“ nicht vom Rauschen unterscheidbar ist.

Trend

In der Theorie schauen sie lediglich auf zwischenjährliche Variationen. Sie beschreiben den Prozess, um diese zu erhalten. Die schwarze Kurve in Abbildung 2 wird beschrieben als „mittlere trendbereinigte GMSL-Zeitreihe“ (Hervorhebung von mir). Die blaue Kurve in Abbildung 2 beschreiben sie so (Hervorhebung von mir):

Da wir uns auf die zwischenjährliche Variabilität konzentrieren, wurden die Massen-Zeitreihen trendbereinigt.

Und die rote Kurve in Abbildung 2 ist die kombinierte Massen- und räumliche Komponente. Ich kann nirgendwo finden, dass sie die räumliche Komponente trendbereinigt hätten.

Das Problem ist, dass in Abbildung 2 keine der drei Kurven trendbereinigt ist, obwohl alle dicht beieinander liegen. Die schwarze Kurve zeigt einen aufwärts gerichteten und die anderen beiden einen abwärts gerichteten Trend.

Die schwarze GMSL-Kurve weist immer noch einen leichten Trend auf, etwa +0,02 mm pro Jahr. Die blaue räumliche Kurve geht um -0,06 mm pro Jahr in die andere Richtung. Die rote Kurve übertreibt dies noch etwas, so dass sich ein Gesamttrend der beiden von -0,07 mm pro Jahr ergibt. Und das bedeutet, dass die „Korrektur“, also der Unterschied zwischen der roten Kurve (Massen- + räumliche Komponente) und der schwarzen GSML-Kurve, ebenfalls einen Trend aufweist, nämlich die Summe der beiden oder etwa ein Zehntel eines Millimeters pro Jahr.

Wie gesagt, ich kann nicht ergründen, was damit gesagt werden soll. Sie sprechen von trendbereinigten Werten zur Bestimmung der zwischenjährlichen Unterschiede, die aus den Daten entfernt werden sollen … aber falls sie das wirklich getan hätten, hätte die Korrektur keinen Trend haben können. Und ihren Graphen zufolge ist nichts vollständig trendbereinigt, und die Korrektur hat ganz bestimmt einen Trend.

Logik

Die Studie enthält auch die folgende Beschreibung hinsichtlich der Informationsquelle zur Massenbilanz:

Um die Massenkomponente infolge Änderungen der globalen Wasserspeicherung zu schätzen, benutzen wir das Interaction Soil Biosphere Atmosphere (ISBA)/Total Runoff Integrating Pathways (TRIP) globale hydrologische Modell, das von MétéoFrance22 entwickelt worden ist. Das ISBA-Verfahren auf Landoberflächen berechnet die zeitlichen Variationen der Budgets von Oberflächen-Energie und Wasser in drei Bodenschichten. Der Wassergehalt einer Bodenschicht variiert mit dem Wassereintrag von der Oberfläche, der Verdunstung, der Pflanzen-Transpiration und der Drainage. ISBA ist gekoppelt mit dem TRIP-Modul, das den täglichen, vom ISBA simulierten Abfluss konvertiert in ein globales Fluss-System mit der Auflösung 1. In der jüngsten Version verwendet ISBA/TRIP als meteorologischen Antrieb Daten mit einer Auflösung von 0,5 der ERA Interim reanalysis des Europäischen Zentrums für Mittelfristrige Wettervorhersage (hier). Speicherungsergebnisse von Wasser auf dem Festland werden in monatlichen Intervallen angegeben von Januar 1950 bis Dezember 2011. Der Beitrag des atmosphärischen Wasserdampfes wurde aus der ERA Interim reanalysis geschätzt.

So weit, so gut. Sie benutzen also die Ergebnisse der historischen Reanalyse um zu modellieren, wie viel Wasser in jedem Monat an Land gespeichert worden ist und sogar in der Luft.

Jetzt nehmen wir einmal an, dass ihr Modell der Massenbilanz perfekt wäre. Weiter wollen wir annehmen, dass die Daten des Meeresspiegels perfekt sind und dass ihr Modell der räumlichen Komponente ebenfalls perfekt ist. Wäre die „Korrektur“ in diesem Falle nicht Null? Ich meine, die „Korrektur“ ist nichts als der Unterschied zwischen dem modellierten Meeresspiegel und dem gemessenen Meeresspiegel. Falls die Modelle perfekt wären, würde die Korrektur zu allen Zeiten Null sein.

Was zwei Schwierigkeiten aufwirft:

1. Wir haben keine Sicherheit, dass der Unterschied zwischen den Modellen einerseits und den Beobachtungen andererseits nur Modellfehlern geschuldet ist, und

2. falls die Modelle korrekt sind, woher kommt das Wasser und wohin geht es? Die „Korrektur“, die uns von den modellierten zu den beobachteten Werten bringt, muss eine riesige Menge Wasser repräsentieren, die kommt und geht … aber von wo und wohin? Vermutlich sind El Nino-Effekte in ihrem Modell enthalten, welches Wasser bewegt sich da also?

Die Autoren erklären das folgendermaßen:

Studien aus neuerer Zeit haben gezeigt, dass die kurzfristigen Fluktuationen des mit Satelliten gemessenen Meeresspiegels hauptsächlich Variationen der Wasserspeicherung auf dem Festland geschuldet sind (hauptsächlich in den Tropen) mit einer Tendenz zu einem Wasserdefizit an Land (und einem zeitweiligen Steigen des Meeresspiegels) während El Nino-Ereignissen und der entgegen gesetzten La Ninas. Dies resultiert direkt aus Regen-Exzessen über den tropischen Ozeanen (meist dem tropischen Pazifik) und Regendefizit an Land (meist in den Tropen) während eines El Nino. Bei einer La Nina ist die gegenteilige Lage vorherrschend. Die Abfolge von La Nina-Ereignissen während der letzten Jahre hat im vorigen Jahrzehnt zu vorübergehenden negativen Anomalien von mehreren Millimetern beim GMSL geführt. Diese Reduktion war Anlass für diese Studie.

Aber … Aber wenn das so ist, warum wird diese Variation der Regenmenge nicht durch das komische Modell „Interaction Soil Biosphere Atmosphere (ISBA)/Total Runoff Integrating Pathways (TRIP) global hydrological model” gezeigt? Ich meine damit: das Modell läuft mit tatsächlichen Messungen der Regenmenge einschließlich der Daten aktueller El Nino-Ereignisse.

Und wenn man Davon ausgeht, dass ein so großer und ausgedehnter Effekt nicht durch das Modell gezeigt wird, warum sollen wir dann in diesem Fall annehmen, dass das Modell etwas taugt?

Der einzige Weg, auf dem wir ihre Logik anwenden können wäre, FALLS das Modell perfekt genau ist, außer dass es irgendwie vollständig die atmosphärischen Änderungen durch ein El Nino ignoriert … aber das Modell wird mit tatsächlichen Daten gefüttert, und wie kann es da wissen, was es ignorieren soll?

Alles in allem

Was also haben sie schlussendlich getan? Nun, sie haben die Differenz gemessen zwischen den Modellen und dem Mittel der Beobachtungen der fünf Arbeitsgruppen.

Dann haben sie diese Differenz auf die individuellen Ergebnisse der fünf Arbeitsgruppen angewendet.

Mit anderen Worten, sie haben die Daten von den Modellen subtrahiert … und haben dieses Ergebnis dann zu den Daten addiert. Das wollen wir mal mathematisch ausdrücken:

Daten + „Korrektur“ = Daten + (Modelle –Daten) = Modelle

Wie unterscheidet sich das von der einfachen Aussage, dass die Modelle korrekt und die Daten falsch sind und man auf dieser Basis einfach weiter macht?

Schlussfolgerungen

1. Selbst wenn die Modelle genau und die Korrekturen echt sind, erhebt sich die Größenordnung nicht über das Rauschen.

2. Trotz der Behauptung, dass sie trendbereinigte Daten für ihre Berechnungen der Korrekturen verwendet haben, zeigt die graphische Darstellung jener Daten, dass alle drei Datensätze (GMSL, Massenkomponente sowie Massen- + räumliche Komponente) Trends aufweisen.

3. Wir haben keine Sicherheit, dass „Korrektur“, was nichts anderes ist als der Unterschied zwischen Beobachtungen und Modellen, etwas anderes ist als Modellfehler.

4. Alles in allem wollten sie mit ihrer Prozedur Beobachtungsergebnisse in modellierte Ergebnisse umwandeln. Zur Erinnerung, wenn man ihre „Korrektur“ auf den mittleren Meeresspiegel anwendet, bekommt man die die modellierten Ergebnisse zeigende rote Kurve. Also  ist die Anwendung auf die fünf individuellen Datensätze, die den mittleren Meeresspiegel ausmachen … nun … das Wort, das einem sofort in den Sinn kommt, ist ‚bedeutungslos‘. Sie haben einen großen Kreis geschlagen, um dorthin zu kommen, aber am Ende sagen sie lediglich, dass die Modelle richtig und die Daten falsch sind…

P.S. Nach guter Gewohnheit möchte ich jeden, der nicht mit mir übereinstimmt, auffordern, in den Kommentaren genau jene Worte anzuführen, mit denen man nicht übereinstimmt.

P.P.S. Ich habe oben gefragt, was mir an den Graphiken in Abbildung 1 so komisch vorgekommen war, dass ich näher hingeschaut habe. Nun, in ihrer Studie sagen sie, dass die gleiche Korrektur an die Daten jeder einzelnen Arbeitsgruppe angebracht worden war. Wenn ich das richtig verstehe (was durchaus nicht immer der Fall sein muss), sollte dies in einer linearen Transformation der Daten in jedem Monat führen. Mit anderen Worten, die Anpassung in jedem Monat war in allen Datensätzen die Gleiche, egal ob es nun +0,1 oder -1,2 oder was auch immer war. Sie wurde gleichermaßen auf jeden bestimmten Monat in den Datensätzen aller fünf Gruppen angebracht.

Nun, es gibt etwas Seltsames bei dieser Art von Transformation, also bei der Addition oder Subtraktion eines bestimmten Betrages in jedem Monat. Sie kann keine Linien in der Graphik begradigen, wenn sie gekrümmt beginnt, und umgekehrt. Wenn sie ungekreuzt beginnen, kann ihre Art der „Korrektur“ sie nicht kreuzen. Mit dem im Hinterkopf folgt hier noch einmal Abbildung 1:

Ich konnte immer noch keinen Grund finden, warum sie das gemacht haben, also bin ich für Hinweise dankbar.

DATA AND CODE: Done in Excel, it’s here.

Link: http://wattsupwiththat.com/2014/03/28/sea-water-level-fresh-water-tilted/

Übersetzt von Chris Frey EIKE, der inhaltlich nicht immer alles verstanden hat.




War da was? Der Weltklimarat krebst zurück. Niemand will es wahrhaben.

Vergleicht man den neuen Bericht des Weltklimarats (IPCC) zu den Folgen der Erderwärmung mit dem von 2007, reibt man sich die Augen.

Viele Warnungen, die jahrelang unablässig zitiert wurden, sind verschwunden.

Der neue Bericht erschöpft sich weitgehend im ­Vagen.

Statt Prozentwerte zu nennen, ist von «substanziellen Risiken» und «steigenden Gefahren» die Rede.

Oder es werden Gemeinplätze zum Besten gegeben – wie etwa der, ­ohne Anpassung könnten die Ernten kleiner ausfallen. Dabei ist den Landwirten durchaus zuzutrauen, dass sie sich allfälligen veränderten Klimabedingungen anpassen.

Kommen im Bericht doch Zahlen vor, erstaunen sie nicht selten. So schätzt das IPCC den Wohlstandsverlust wegen des Klimawandels auf gerade mal 0,2 bis 2 Prozent. Das sind um Welten weniger als die 5 bis 20 Prozent im berühmten Stern-Report, mit dem die Regierungen der Welt seit 2006 teure Massnahmen gegen den Klimawandel gerechtfertigt haben.

«Der Mensch will von Natur aus immer alles klar und einfach haben», wies Chris Field, Co-Verantwortlicher für den Bericht, Kritik an dessen Schwammigkeit zurück. «Aber es ist immer sinnvoll, für eine grosse Spanne an möglichen Entwicklungen bereit zu sein.»

Das scheinen sich die hiesigen Zeitungs­macher und Fernsehproduzenten zu Herzen genommen zu haben. Sie warnen in diesen ­Tagen vor dem Klimawandel, als wäre nichts geschehen.  ==>

Ganz nach dem Motto: «Wir müssen die Katastrophe verhindern – auch wenn wir nicht wissen, welche.»

===============================================================

Anmerkung EIKE-Redaktion:

Der vorstehende Artikel wurde übernommen von DIE WELTWOCHE Zürich, Ausgabe 02.04.2014.

EIKE dankt für die freundliche Genehmigung der WELTWOCHE zur Veröffentlichung; Link zur WELTWOCHE-ol. hier.

PDF zum Download unten

Related Files




Energiewende – Deutschland im Würgegriff der Lobbyisten

„Der Energiegipfel brachte mehr Harmonie als gedacht. Alle Beteiligten sind glücklich. Nur einer hat wenig davon: der Verbraucher“, fasste SpiegelOnline-Journalistin Annett Meiritz in ihrem Bericht [SPON] die Ergebnisse des „Energiegipfels“ zusammen, zu dem sich Bundeswirtschaftsminister Gabriel, Kanzlerin Merkel und die Chefs der Bundesländer am 1. April in Berlin getroffen hatten. Ziel war eigentlich gewesen, die inzwischen selbst nach dem Verständnis der Bundesregierung mehr und mehr ausufernden Kosten des Erneuerbare-Energien-Gesetzes (EEG) in den Griff zu bekommen und den entsprechenden Wildwuchs in einer Neufassung zu begrenzen. Und diese Belastung trifft nicht nur die privaten Verbraucher, von denen immer mehr die steigenden Stromkosten nicht mehr bezahlen können: Auch die Industrie, allen voran energieintensive Branchen wie Chemie, Stahlwerke, Aluminiumhütten, Gießereien und Schmieden, sieht sich durch steigende Energiepreise zunehmend in ihrer Existenz bedroht und zur Verlagerung ins Ausland genötigt [AMEL, LANG].

Bild 1: An die Betreiber von EEG-Anlagen jährlich gezahlte Beträge in Mrd. €, ab 2012 Prognosen (blau) (Quellen: Wikipedia/ eeg-kwk.net)

Doch statt einer Kostenbremse kam etwas ganz anderes heraus: Wie in der deutschen Politik inzwischen üblich, wurden die Pläne zur Begrenzung des weiteren Kostenanstiegs auf Druck der verschiedenen Lobbyisten – welche die Macht haben, die Gesetzgebung in der Länderkammer monatelang aufzuhalten – durch weitgehende Zugeständnisse erheblich verwässert und damit faktisch aufgegeben. Damit dürfte der bisherige Anstieg der Ausgaben für das EEG munter weitergehen, Bild 1. Das Register der Sünden wider die Kostenbegrenzung wird im SPON-Artikel wie folgt aufgelistet:

–        Die angedachte Deckelung des Zubaus an Windkraftanlagen auf 2500 MW pro Jahr wird aufgeweicht, indem man das sogenannte Repowering – den Ersatz alter Anlagen durch leistungsstärkere Neuinstallationen am gleichen Standort – nicht auf die geplanten Obergrenzen anrechnet.

–        Windschwache Binnenlandstandorte sollen eine höhere Förderung erhalten.

–        Zusätzliche Offshore-Genehmigungen sollen die schwächelnde Investitionsneigung der Projektierer stimulieren.

–        Und auch bei Biogasanlagen – man erinnere sich, hier werden Lebensmittel für die Produktion von Methan zur Stromerzeugung zweckentfremdet, während in der Dritten Welt der Hunger grassiert – sollen die geplanten Bremsen gelockert werden.

So konnte sich Torsten Albig, der SPD-Minsterpräsident von Schleswig-Holstein, damit brüsten, die Nordländer seien mit sechs Forderungen in die Gespräche hineingegangen und hätten fünf davon durchbringen können.

Ungeklärt blieben dagegen alle anderen Probleme im Zusammenhang mit dem EEG, insbesondere die Frage nach Speichermöglichkeiten, ohne die ein weiterer Ausbau der sowieso schon riesigen Überkapazitäten bei Wind- und Solarkraftwerken völlig sinnlos ist. Diese sind bereits jetzt so gross, dass an „guten“ Tagen die Netze mit überschüssigem Strom geflutet werden, den man ins Ausland verschenken muss, weil ihn in Deutschland niemand mehr abnehmen kann. Und auch die Frage, was mit den durch diese sinnlose Überproduktion von „EE-Strom“ immer weiter an den Rand der Rentabilität gedrängten konventionellen Kraftwerken geschehen soll, bleibt ungelöst. Zur Zeit rettet sich der Gesetzgeber durch ein Stilllegungsverbot über die Runden, indem er den Betreibern verbietet, solche Kraftwerke stillzulegen. Doch ewig wird man solche „Zombie-Einheiten“, die nicht leben können und denen man das Sterben trotzdem verbietet, nicht am Leben erhalten lassen. Besonders grotesk, aber von den Mainstream-Medien geflissentlich ignoriert ist die Tatsache, dass auch 2013 trotz weiter gestiegener Produktion von „EE-Strom“ die CO2-Emissionen bei der Stromproduktion sogar erneut gestiegen sind, und zwar von ca. 352 auf ca. 354 Mio. Tonnen, Bild 2.

Bild 2: Trotz ständig weiter steigender Kosten ist keine Reduzierung der CO2-Emissionen bei der Stromproduktion festzustellen

Fazit: Der deutschen Politik fehlen sowohl der Wille als auch die Kraft, diese von ihr verbockte und inzwischen völlig aus dem Ruder gelaufene Entwicklung aufzuhalten oder gar zurückzudrehen. Stattdessen gibt man weiter immer der gerade am lautesten schreienden Lobbygruppe nach und meint, sich dadurch Zeit erkaufen zu können. Doch diese Methode des „sich-durchwurstelns“ kann angesichts der immer drängender werdenden Probleme auf Dauer nur ins Chaos führen. Der Strompreisanstieg wird weiter voranschreiten und die Industrie wird zunehmend Arbeitsplätze ins Ausland verlagern. Völlig richtig merkt SPON hierzu an: „Dieser Kostenschub ließe sich nur durch grundsätzlichere Reformen stoppen – eine Art Masterplan für der gesamten deutschen Kraftwerkspark, den Ausbau der Stromnetze und die Verlagerung des Verbrauchs in stromreiche Zeiten umfasst. Ein solcher Masterplan fehlt bislang, die wahren Kostentreiber geht Schwarz-Rot nicht an.“

Dem ist eigentlich nichts mehr hinzuzufügen. Bild 3 zeigt, wie sich die reale Belastung deutscher Haushalte aus den 20-Jahres-Verpflichtungen des EEG in den nächsten Jahren weiter entwickeln dürfte.

Bild 3: Bisheriger Verlauf, Prognose bis 2017 (blau) sowie bis 2020 weitergeführte Trendberechnung (gelb) der tatsächlichen kumulierten EEG-Belastungen für einen vier-Personen-Haushalt

Fred F. Mueller

Quellen:

[AMEL] Ameling, D. Auswirkung des deutschen Energiekonzepts auf die deutsche Wirtschaft . Vortrag, VII. Internationale Klima- und Energiekonferenz (IKEK-7), Steigenberger Hotel Mannheimer Hof, Mannheim. 10. April 2014.

[LANG] http://www.eike-klima-energie.eu/energie-anzeige/energiewende-arbeitsplatzvernichter-erneuerbare-energien/

[SPON] http://www.spiegel.de/politik/deutschland/energiegipfel-bringt-zugestaendnisse-und-viele-offene-fragen-a-962043.html




James Lovelock: Umweltaktivismus ist zu einer Religion geworden

Bild rechts: Scientist and Inventor James Lovelock Photograph: George W. Wright/CORBIS

In einem Interview vor dem grundlegenden UN-Klimabericht zu den Auswirkungen der Klimaänderung sagte Lovelock über Warnungen vor einer Klimakatastrophe in seinem 2006 erschienenen Buch mit dem Titel Revenge [= Rache] of Gaia: „Ich war ein wenig zu sicher in diesem Buch. Man kann einfach nicht sagen, was geschehen wird. Die Auswirkungen der Klimaänderungen können innerhalb weniger Jahre furchtbar sein, obwohl das sehr unwahrscheinlich ist, oder es könnte hunderte Jahre dauern, bevor das Klima unerträglich wird“.

Lovelocks Kommentare scheinen im Gegensatz zu stehen zu düsteren Vorhersagen im IPCC-Klimabericht vom Montag, von dem bereits vorab Inhalte durchgesickert waren. In ihm wird gewarnt, dass selbst kleine Erwärmungen „abrupte und irreversible Änderungen“ der natürlichen Systeme bringen werden, einschließlich des arktischen Meereises und der Korallenriffe.

Auf die Frage, ob seine Bemerkungen nicht den Klimaskeptikern Munition liefern würden, erwiderte er: „Es ist genauso dumm, ein Leugner zu sein wie ein Gläubiger. Man weiß es nicht“.

Über die Umweltbewegung sagt Lovelock: „Es ist eine Religion geworden, und Religionen kümmern sich nicht um Fakten“. Der in den Ruhestand getretene Wissenschaftler, der am Medical Research Council gearbeitet hatte, beschreibt sich selbst als einen „altmodischen Grünen“.

Lovelock unterstrich noch einmal seine Unterstützung für das Fracking nach Schiefergas, was auch von der Regierung Cameron nachdrücklich unterstützt wird, was jedoch heftigen Widerstand seitens Anti-Fracking-Aktivisten und Anwohner an Orten von Salford bis Balcombe in West Sussex hervorruft.

Lovelock dazu: „Die Regierung hat zu viel Angst vor der Kernkraft, Erneuerbare funktionieren nicht – weil bei uns einfach nicht ausreichend die Sonne scheint – und wir können auch keine Kohle verbrennen wegen des hohen CO2-Ausstoßes. Also bleibt nur das Fracking. Es stößt nur einen Bruchteil der CO2-Mengen von Kohle aus und wird die Energiesicherheit in UK einige Jahre lang festschreiben. Wir haben keine andere Wahl“.

Craig Bennett, Direktor von Politik und Kampagnen bei Friends of the Earth sagt dazu: „Ich denke, dass es jedes Jahr schwieriger wird, Umweltaktivismus zu verallgemeinern. Heutzutage reicht die Bewegung von grünen Aktivisten der siebziger Jahre, an die Lovelock vielleicht denkt, bis zu leitenden Direktoren, die sagen, dass dies eines der drängendsten Probleme ist, das wir angehen müssen. Die Umweltgemeinde ist keine Minderheit mehr, sondern eine Mehrheit von Menschen, die sich um den Planeten Sorgen machen. Das macht es schwieriger als jemals zuvor einzuordnen, wer die Umweltgemeinde überhaupt ist“.

Link: http://www.theguardian.com/environment/2014/mar/30/james-lovelock-environmentalism-religion

Übersetzt von Chris Frey EIKE




Das Rätsel der Eiszeiten – Teil V: Änderungen der Ekliptik und der Präzession

scienceofdoom

In Teil IV haben wir angefangen, auf die Änderungen der Sonneneinstrahlung infolge orbitaler Effekte zu schauen.

Die Exzentrizität selbst hat eine vernachlässigbare Auswirkung auf die Sonneneinstrahlung. Änderungen der Ekliptik und der Präzession ändern die (räumliche und zeitliche) Verteilung der Sonneneinstrahlung, aber nicht die jährliche Gesamtmenge.

Die jährliche Variation für jede Jahreszeit (D…N; Dezember…November) bei 65°N sieht so aus:

Abbildung 1

Die jährliche Variation ist geringer als die Variationen von Tag zu Tag (vgl. die Abbildungen 5 und 6 in Teil IV). Die korrespondierende Graphik für 55°N sieht so aus:

Abbildung 2

Natürlich bedeutet eine höhere Sonneneinstrahlung in einem Teil des Jahres wegen der Ekliptik geringere Sonneneinstrahlung im „entgegen gesetzten“ Teil des Jahres.

In den Graphiken oben erkennt man, dass zum Höhepunkt der Eemian-Zwischeneiszeit die Strahlung im Juni, Juli, August (JJA) minimal ist, im März, April, Mai (MAM) einen Aufwärtstrend zeigt bis zum Maximum, im Sept./Okt./Nov. (SON) abwärts weist nach diesem Spitzenwert und im DJF sehr niedrig liegt und sich nicht groß ändert, weil es in hohen Breiten im Winter nicht viel Einstrahlung gibt.

Wie verhält es sich nun mit der jährlichen Variation? Dazu wollen wir in die Periode um die Eemian-Zwischeneiszeit zoomen. Die obere Graphik zeigt die tägliche mittlere Einstrahlung in vier verschiedenen Jahren, und die untere Graphik zeigt das jährliche Mittel pro Jahr:

Abbildung 3

Und zum Vergleich hier die jährliche Variation während der letzten 500.000 Jahre:

 

Abbildung 4

Die gleichen Daten für 55ºN:

Abbildung 5

Abbildung 6

Wie zu erwarten war, tauchen die Maxima und Minima auf 55°N und 65°N zur gleichen Zeit auf. Was zwischen den beiden Breitengraden unterschiedlich ist, ist die Änderung der Zeitverlauf der jährlichen Einstrahlung auf einer bestimmten Breite. Die Einstrahlung bei 65°N variiert um 7 W/m² während der letzten 500.000 Jahre, während die Variation bei 55°N nicht einmal 3 W/m² beträgt. Zum Vergleich, die Schwankung bei 45°N beträgt weniger als 1 W/m².

Um die 30.000 Jahre um die Eemian-Zwischeneiszeit betrugen die Variationen:

  • 65ºN – 5.5 W/m²
  • 55ºN – 2.2 W/m²
  • 45ºN – 0.3 W/m²

Und wenn wir die stärkste Zunahme von vor 145.000 bis vor 135.000 Jahre nehmen, erhalten wir einen Wert pro Jahrhundert von:

  • 65ºN – 40 mW/m² pro Jahrhundert
  • 55ºN – 25 mW/m² pro Jahrhundert
  • 45ºN –   2 mW/m² pro Jahrhundert
  • (und in der südlichen Hemisphäre gab es gleichlaufende Reduktionen der Einstrahlung während dieses Zeitraumes)

Und jetzt zum Vergleich: Der „Strahlungsantrieb” infolge zunehmender Konzentrationen von CO2 und anderen „Treibhausgasen“ in der Atmosphäre vor allen Rückkopplungen (d. h. alles andere bleibt gleich) liegt bei etwa 1,7 W/m² oder 1,3 W/m² pro Jahrhundert.

Dies galt natürlich angewendet auf den gesamten Globus, aber in jedem Falle lagen die Änderungsraten in jüngster Zeit etwa 30 bis 50 mal höher als die Rate der Zunahme radiativer Änderungen in hohen Breiten während einer der Schlüssel-Übergänge in unserem Klima der Vergangenheit.

Diese Werte und Vergleiche zielen nicht darauf ab, irgendeine Theorie zu befürworten oder zu verwerfen, sondern sollen einfach nur dazu dienen, die Werte, um die es hier geht, besser zu verstehen.

Natürlich sind jährliche Änderungen kleiner als jahreszeitliche Änderungen. Schauen wir also zurück auf die jahreszeitlichen Werte von vor 120.000 bis 150.000 Jahren:

Abbildung 7

Und wir wollen die Änderungen noch leichter verständlich machen, indem wir den Anomalie-Plot betrachten (Signal minus dem Mittel für jede Jahreszeit):

Abbildung 8

Es gibt vergleichsweise ziemlich große Änderungen in jeder Jahreszeit. Zum Beispiel nimmt die MAM-Zahl um 60 W/m² von vor 143.000 bis vor 130.000 Jahren zu, was fast 0,5 W/m² pro Jahrhundert ausmacht, was praktisch dem jüngsten Strahlungsantrieb durch Treibhausgase entspricht.

Das Problem, wenn man nur auf MAM blickt – und das ist der Grund, warum ich all diese Ergebnisse geplottet habe – ist Folgendes: Falls die Zunahme der Einstrahlung in diesen Monaten zu einer schnelleren Eisschmelze am Ende des Winters führt, bedeutet dann nicht die gleich große Abnahme der Einstrahlung in den Herbstmonaten SON stärkere Eisbildung, das dann bis zum Frühjahr bestehen bleibt? In jedem Jahr gibt es Jahreszeiten, also muss man das ganze Jahr betrachten.

Und falls es wirklich ein so klares Argument dafür gibt, dass eine Jahreszeit eine Art dominierende Kraft ist im Vergleich mit einer anderen Jahreszeit (eine starke Nicht-Linearität), warum gibt es dann keinen Konsens darüber, welche das ist (zusammen mit ein paar Beweisen)?

Huybers & Wunsch (2005) schrieben:

Nimmt man diese beiden (Milankovitch und Chaos) Perspektiven zusammen, gibt es gegenwärtig mehr als 30 unterschiedliche Modelle der sieben Eiszeitzyklen zum Ende des Pleistozäns.

Zuletzt kommt hier noch für alle Interessierten eine typische Spektralverteilung der Sonneneinstrahlung an der Obergrenze der Atmosphäre TOA (normalisiert). In diesem Falle hat jede Jahreszeit einen separaten Verlauf, aber es gibt keinen großen Unterschied zwischen jeder Periode, so dass sich die Plots weitgehend überlagern. Die 3 vertikalen violetten Linien repräsentieren (von links nach rechts) die Häufigkeiten von vor 41.000; 23.000 und 19.000 Jahren:

Abbildung 9

In weiteren Artikeln werden wir die spektralen Charakteristiken der Eiszeit-Aufzeichnungen betrachten, weil die Kenntnis der spektralen Charakteristika orbitaler Effekte auf die Einstrahlung wichtig ist.

Link: http://scienceofdoom.com/2013/10/17/ghosts-of-climates-past-part-five-obliquity-precession-changes/

Die bisherigen Teile:

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/




EU-Politik: WWF sahnt ab

Außerdem wird Politik – wie man es von einem übernationalen Konstrukt erwarten kann – nicht mehr auf nationaler Ebene gemacht, sondern auf europaweiter und sogar internationaler Grundlage, deren Ergebnisse dann zentral in die Richtlinien für alle Mitgliedsstaaten eingespeist werden. Dies ist bekannt unter der Bezeichnung Allgemeine Implementierungs-Strategie.

Anders als national verwurzelte NGOs wie RSPB [=Royal Society for the Protection of Birds in UK] (die ebenfalls bei europaweiten Entscheidungen eine Rolle spielen), besteht daher die einzige Möglichkeit herauszufinden, wie sehr sich NGOs wie der WWF selbst in die EU eingebracht haben, um darin abzusahnen, ihre Entwicklung auf internationaler Ebene zu verfolgen.

Und falls die RSPB von 2007 bis 2012 über 14 Millionen Euro aus dem EU-Topf abgegriffen hat, um sich einen Erster-Klasse-Sitz im Zug des Absahnens zu sichern, hat der WWF für sich selbst einen Privatwaggon reserviert, hat er doch eine Summe über 53 Millionen Euro (€ 53.813.343) für sich und das EU-Empire abgegriffen.

Die Bandbreite von Projekten schwankt ziemlich stark, und wenn wir 2007 beginnen zeigt sich, dass der WWF seitdem 8.573.049 Euro an EU-Förderung eingesackt hat. Darin eingeschlossen ist unter Anderem ein Anteil für das europäische Politik-Büro des WWF in Brüssel in Höhe von 632.675 Euro.

Das Geld ist in keiner Weise auf EU-Länder beschränkt, wie man beim WWF Schweiz sehen kann. Dort betreibt er ein Projekt zur „Strengthening Indigenous Community Based Forest Enterprises (CBFEs) in Priority Ecoregions in Latin America, Asia-Pacific and Africa“ [etwa: Projekt zur Stärkung indigener Gemeinschaften in Latein-Amerika]. Dafür wurden 3.499.999 EU-Mittel locker gemacht.

Bizarrerweise  betrieb auch der WWF UK ein Projekt mit 750.000 Euro EU-Förderung, und zwar „Reducing poverty in Rufiji-Mafia-Kilwa, Tanzania, through improved livelihoods and sustainable coastal and marine resource management“ [etwa: Armutsbekämpfung in Tansania].

Im Jahr 2008 wurden die Taschen des WWF mit 9.013.943 Euro gefüllt. Um diese zu erhalten, hatte der UK-Zweig ein anderes Projekt in Übersee betrieben, diesmal für 1.988.158 Euro aus dem EU-Fördertopf. Dieses Projekt zielte darauf ab, „sustainable and responsible trade promoted to wood processing SMEs through forest and trade networks in China, India and Vietnam“ [den Holzhandel mit China, Indien und Vietnam] auf eine vernünftige Grundlage zu stellen. 642.600 Euro gingen an das Europa-Büro in Brüssel.

Der Ableger Deutschland hat zufälligerweise gleichzeitig ein Projekt im Wert von 279.840 Euro lanciert, und zwar eines mit der Bezeichnung „local initiatives to create opportunities for children, young people and women of Udege and Nanai tribes in the Bikin River area, Russian Far East“ [etwa: ein Projekt zur Verbesserung der Bildung von Kindern und Jugendlichen im russischen Fernen Osten], während der Ableger Ungarn danach trachtet, „Schwemmland-Habitate von gemeinsamem Interesse“ zu erhalten. Hierfür gab es 1.075.896 Euro von der EU.

2009 ging es dem WWF nicht so gut, erhielt er doch nur 5.776.115 Millionen Euro EU-Förderung, darunter 661.878 Euro für den Betrieb des Büros in Brüssel. Aber im Jahre 2010 gab es einen rasanten Anstieg auf die Rekordsumme in der Periode, und zwar auf 14.672.869 Euro einschließlich 621.503 Euro für das Brüsseler Büro.

Im Jahre 2011 fiel der EU-Beitrag für den WWF auf 6.088.216 Euro und nur 594.157 Euro für das Brüsseler Büro. Jedoch im Jahre 2012 stieg der EU-Betrag für den WWF auf 9.689.151 Euro mit einer gesetzlich festgelegten Zuwendung für das Büro in Brüssel in Höhe von 559.974 Euro.

Im Jahre 2012 gingen 2.405.679 Euro an Tansania für ein Fischerei-Projekt („building effective long term fisheries co-management in five coastal districts, and promoting coast-wide learning on the same“), das vom WWF Tansania betrieben wird.

Der UK-Zweig des WWF hat es zuwege gebracht, ein Projekt für die Keltische See zu betreiben (mit der Bezeichnung „Celtic Seas Partnership (CSP) a stakeholder driven integrated management of the Celtic Seas marine region“), für das die EU 1.973.546 Euro locker machte.

In Pakistan gingen 652.550 Euro EU-Förderung an das TRA-Projekt zum nachhaltigen Umgang mit Wasser in der Stadt Lahore. Der Ableger Schweiz des WWF beteiligt sich unterdessen an einem Programm der Nahrungsmittel-Sicherung und Landwirtschaft in den Distrikten Boma und Lower River. EU-Beitrag hierzu: 2.405.679 Euro.

Selbst der WWF Bulgarien hat noch profitiert. Dort betrieb man ein Projekt, das darauf abzielt, die Rolle lokalen und regionalen Informationsaustausches besser zu verstehen hinsichtlich erneuerbarer Energie sowie zur Verbesserung der derzeitigen Marktlage. Dafür zahlte die EU 798.564 Euro.

Während dieser sechs Jahre arbeitet der WEF oftmals mit Partnern zusammen, und die Gesamt-Zuwendungen der EU für all diese Projekte summieren sich zu über 77 Millionen Euro. Angesichts dessen, dass diese Projekte fast immer von der EU finanziert worden sind, oftmals von nationalen oder lokalen Regierungs-Objekten haben wir hier höchstwahrscheinlich das dicke Ende von 150 Millionen Euro für EU-Projekte unter Verwaltung des WWF.

WWF-UK erhält 9.532.612 Euro, und damit erhalten nur zwei NGOs in UK – der WWF und die RSPB – mehr als 23 Millionen Euro an Zuwendungen aus der EU und noch einmal so viel aus nationalen Quellen; zusammen etwa 50 Millionen Euro.

Außerdem gibt es noch viele andere NGOs, die bei der EU absahnen – Geld, das im Umweltbereich verwendet wird, um eine „anti-menschliche“ Agenda durchzudrücken, die zu der ethnischen Säuberung der Somerset-Ebenen führt. Dafür hat die EU Geld, aber wenn es zum Schutz (menschlichen) Lebens und Eigentum kommt, ist kein Cent in der Portokasse mehr übrig.

Link: http://www.eureferendum.com/blogview.aspx?blogno=84752

Übersetzt von Chris Frey EIKE




Vorteile von Kohlenstoff übertreffen die Kosten 500 zu 1!

Die Agenturen gehen davon aus, dass das Klima der Erde hoch sensitiv gegenüber CO2 ist und errechnen hypothetisch alle denkbaren Kohlenstoff-Kosten, einschließlich Auswirkungen auf Landwirtschaft, Wälder, Wasservorräte, Küstenstädte Ökosysteme, Wildlife und menschliche Gesundheit. Allerdings ignorieren sie dabei einem neuen Bericht des Management Information Service zufolge vollständig selbst die offensichtlichsten und enormen Vorteile des Verbrauchs fossiler Treibstoffe und des Emittierens von Kohlendioxid.

Hätten sie sich gemäß der Gesetze verhalten und grundlegende Kosten-Nutzen-Rechnungen durchgeführt, wären sie zu dem Ergebnis gekommen dass der Nutzen von Kohlenwasserstoffen und Kohlendioxid die Kosten um 500 zu 1 übertreffen würde!

Die Ausführungs-Verordnung 12866 (1993) schreibt vor, dass Regierungsagenturen „sowohl die Kosten als auch den Nutzen“ einer vorgelegten Vorschrift abschätzen müssen. Die Vorschrift sollte nur angenommen werden, wenn „einer vernünftigen Berechnung zufolge der Nutzen die Kosten rechtfertigt“. Das Büro von Management and Budget sagte kürzlich, dass Kosten-Nutzen-Berechnungen dabei helfen sollen zu entscheiden, ob es eine neue Vorschrift überhaupt wert ist, implementiert zu werden.

Indem sie nur die vermutlichen Kosten kohlenstoffbasierter Treibstoffe ansprechen – während sie selbst den wichtigsten und bestens dokumentierten Nutzen ignorieren – brechen die Analysen der Regierung und die neuen Vorschriften das Gesetz. Ihre Aktionen sind illegal, irreführend, ja sogar betrügerisch.

Die Methodik für die Schätzungen der Kohlenstoff-Kosten SCC ist so flexibel, so frei von grundlegenden Standards, dass man fast jede Schätzung herausbekommen kann, die eine Agentur sich wünschen kann. So war es den Agenturen möglich, die Kosten auf 22 Dollar pro Tonne im Jahr 2010 festzulegen mit einer Steigerung während der folgenden drei Jahre auf 36 Dollar pro Tonne. Jedes Mal taten sie das mit wenig Publicity, Diskussionen oder öffentlichen Eingaben.

Sie gebrauchen die 36-Dollar-Schätzung, um vorgegebene Standards für Mikrowellen-Herde, Telefonzellen und Laptops zu rechtfertigen sowie kostspielige, Arbeitsplätze vernichtende Vorschriften für Auto und Kohlekraftwerke; und für ultimative Standards für Fabriken, Raffinerien, Kranken- und Appartementhäuser. Jedes Mal machen sie unakzeptable Schäden durch „Kohlenstoff“ geltend und stellen die enormen Vorteile ihrer Regulierungen heraus.

Inzwischen wollen die Umweltaktivisten eine sogar noch höhere Zahl: 43 Dollar pro Tonne.

SCC-Berechnungen hängen von Computermodellen ab, die vermeintliche Klimaprozesse, wirtschaftliches Wachstum und Rückkopplungen zwischen dem Klima und der globalen Wirtschaft in einem einzigen Rahmenmodell analysieren. Spekulative Forschung verbindet Klimaauswirkungen und wirtschaftliche Schäden – und das noch sehr begrenzt.

Selbst die Agenturen räumen ein, dass dieses Prozedere Gegenstand von „vereinfachten Annahmen und Beurteilungen ist, die die besten Versuche der Modellierer reflektieren, die verfügbare wissenschaftliche und wirtschaftliche Forschung künstlich miteinander zu verknüpfen, um diese Beziehungen zu charakterisieren“. (Hervorhebung hinzugefügt).

Jedes Modell verwendet eine andere Vorgehensweise, um die globale Erwärmung in Schäden zu übersetzen. Schlimmer noch, wirtschaftliche Schäden mit der Zeit in einen einzigen Wert zu transformieren erfordert „Beurteilungen“, wie man diese Schäden erfasst, und Funktionäre waren sehr selektiv bei der Auswahl, welche „verfügbaren wissenschaftliche und wirtschaftliche Forschungen“ sie in Anspruch nehmen.

Der ganze Prozess ist dem Leben in Amerika [und natürlich in Deutschland, A. d. Übers.], den Arbeitsplätzen, dem Lebensstandard, der Gesundheit und dem Wohlstand sehr abträglich. Er führt dazu, dass die Funktionäre die angenommenen Vorteile von Vorschriften erheblich übertreiben, deren Kosten viel zu niedrig angeben und den Wert von Energie, Einrichtungen und Aktivitäten weiteren Regulierungen unterwerfen. All dies wird eingeführt im Namen der „Verhinderung einer gefährlichen, vom Menschen verursachten Klimaänderung“, von der tausende Wissenschaftler sagen, dass sie rein hypothetisch ist.

Buchstäblich Billionen Dollar stehen auf dem Spiel

Fossile Treibstoffe sorgten für die industriellen Revolutionen, brachten die moderne Welt voran und sicherten Existenz, Lebensstandard, Gesundheit und Lebensdauer. Während der letzten 200 Jahre hat sich die menschliche Bevölkerung verachtfacht, hauptsächlich wegen der auf Kohlenwasserstoff basierenden Energie; die mittleren Einkommen sind um das Elffache gestiegen und die globale Lebenserwartung hat sich mehr als verdoppelt.

Gleichzeitig haben die menschlichen CO2-Enissionen 2800-fach zugenommen auf 8,4 Milliarden Tonnen pro Jahr – und der atmosphärische Anteil stieg auf fast 400 ppm. Das hat auch Vorteile. Kohlendioxid verstärkt das Pflanzenwachstum und verbessert die Ernteerträge. Es ist die Basis allen Lebens auf der Erde.

Kohlenwasserstoffe stellen gegenwärtig 81% der Weltenergie zur Verfügung, und Vorhersagen zufolge wird dies auch so bleiben. Was am Wichtigsten ist: die positive Relation zwischen fossilen Treibstoffen, wirtschaftlichem Wachstum und CO2-Emissionen ist stark – und sorgt für ein weltweites BIP von etwa 70 Billionen Dollar pro Jahr.

Unter akzeptierten Kosten-Nutzen-Analysen würden die eingeführten Vorschriften durchgehen, wenn die Vorteile dieser Vorschriften deren Kosten um  ein Verhältnis von 2 : 1 oder 3 : 1 übersteigen würden. Allerdings zeigen die eigenen Zahlen der Regierung der „Kosten“ von Kohlenstoff, dass dieses Verhältnis vollständig und dramatisch umgekehrt ist.

Die Vorteile des Verbrauchs von Treibstoffen auf Kohlenwasserstoff-Basis machen irgendwelche hypothetischen „sozialen Kohlenstoff-Kosten“ mehr als wett, und zwar in einer Größenordnung von 50 zu 1 (mit der Basis des aufgeblähten SCC-Wertes 2013 von 36 Dollar pro Tonne CO2) – und 500 zu 1 (mit der Basis der willkürlich gewählten 22 Dollar pro Tonne CO2 aus dem Jahr 2010). Tatsächlich gehen sämtliche Kostenschätzungen im „statistischen Rauschen“ von Kohlenstoff- und CO2-Vorteilen unter.

Wenn es die Welt ernst meint mit gleichbleibendem oder gar zunehmendem wirtschaftlichen Wachstum, Lebensstandard und Zugang zu bezahlbarer Energie sind fossile Treibstoffe unentbehrlich. Restriktionen auf Kohlenwasserstoff-Energie und betrügerische Kostenanalysen von Kohlenstoff werden Fortschritte in all diesen Bereichen unterminieren.

Über die Autoren:

               Roger Bezdek                               Paul Driessen

Dr. Roger Bezdek ist ein international anerkannter Enegieanalyst und Präsident von Management Information Services Inc. in Washington D. C.

Paul Driessen ist leitender politischer Berater des Committee For A Constructive Tomorrow (CFACT), welches die All Pain No Gain-Petition gegen den Hype der globalen Erwärmung sponsert. Er ist auch leitender Politikberater des Congress of Racial Equality und Autor des Buches „Eco-Imperialism: Green Power – Black Death.

Link: http://tinyurl.com/opj49fs

Übersetzt von Chris Frey EIKE




Kein Aprilscherz- O-Ton Umweltministerin Hendricks: „Klimawandel findet täglich statt!“

….Als Reaktion auf die -im Gegensatz zu allen Beobachtungen- stehenden Alarmmeldungen der Arbeitsgruppe II des IPCC, die gestern der panikmüden Öffentlichkeit in Yokohama vorgestellt wurden, proklamierte sie:

"Der Klimawandet findet täglich statt"

Leider wieder einmal wurde ein Minister oder eine Ministerin – die vermutlich ihren Doktortitel redlich erschrieben hat- von ihren Staatssekretären oder sonstigen Beratern nicht darüber informiert, dass Klima als lokales Wettergeschehen über lange Zeiträume definiert ist. Die World Meteorological Organization (WMO) bestimmt eine Klimazeitspanne mit mindestens 30 Jahren. Alles andere ist Wetter oder Witterung. Und nur Wetter findet täglich statt. Und das will sie nun schützen. Sie wurde offensichtlich auch nicht darüber informiert, dass Klima und Wandel von Anbeginn der Zeiten zwei Seiten derselben Münze sind.

Bei der Auswahl ihrer Staatssekretäre müssen daher andere Maßstäbe gegolten haben, als die, durch Fachwissen gestützten Rat und Hilfe geben zu können. Beispielsweise Staatssekretär Jochen Flasbarth – ehemals Präsident des Umweltbundesamtes, dass insbesondere durch eine Hexenjagd auf missliebige Journalisten (und auch EIKE) auffiel- zeichnet sich eher durch grüne Linientreue und hingebungsvolle Unterstützung seiner Alma Mater dem NABU aus, als durch Fachwissen in Klima- oder gar Energiefragen. Sein Studium beendete er als Diplom-Volkswirt, um dann die Karriereleiter in stramm grünen Ökoverbänden nach oben zu klettern.

Doch zurück zu unserer Ministerin. Die will allen Ernstes den "täglichen" Klimawandel mit wärmenden Textilien bekämpfen und legt dazu ein "Sofortprogramm" auf. Da steht u.a. drin und "fördern" will sie das auch: "Deutsche sollen weniger heizen" 

Wir wüssten noch ein paar weitere, sofort helfende Maßnahmen, um den täglichen Klimawandel zu bekämpfen. Als da wären:

♦ Gemeinschaftsküchen

um den Energieverbrauch beim täglichen Kochen zu verringen

♦ Wärmestuben für mindestens 80 % der Bevölkerung

um die Heizenergiemengen drastisch zu mindern.

♦ Arbeitsdienst bei schwerer körperlicher Arbeit z.B. beim bearbeiten von Energiepflanzen

macht warm und nützt dem Weltklima

♦ Gemeinschaftsschaftsschlafsäle für mindestens 50 % der Bevölkerung

vorzugsweise von Familien mit Kindern, (da kann man schön kuscheln), zur Einsparung von Heizenergie.

♦ Rationierung von Kohle, Öl und Gas sowie Elektrizität durch "Smart Meter"

…die Liste ist nicht vollständig

Damit ließe sich die im Sofortprogramm geplante Einsparung von CO2 am schnellsten und sichersten erreichen. Nur einen winzigen Schönheitsfehler hätten diese Maßnahmen. Deutschland könnte sich nicht mehr als Vorreiter feiern lassen. Diese Ehre gebührte Nordkorea!

Zum Abschluss doch noch ein echter Aprilscherz! Der Tagesspiegel Autor Harald Schumann versteht es vortrefflich uns alle in den April zu schicken.

Die Energiewende, Modell für die Welt

Kein Industrieland zieht bislang so entschiedene Konsequenzen aus dem Klimawandel wie Deutschland. Die Regierung darf den Saboteuren der Energiewende nicht nachgeben. EIN KOMMENTAR VON HARALD SCHUMANN




IPCC-Forschern gelingt der Durchbruch – Klimawirksamkeit von Treibhausgasen nachgewiesen

1. CO2-Wärmekraftmaschine

Der Ansatz dafür, so Prof. Schelmhuber, war denkbar einfach. Gehen wir einmal davon aus, dass unsere Ausgangsbasis, die von einer Temperaturerhöhung von 1,2°C bei CO2-Verdopplung (und der damit verbundenen Klimasensitivität) durch zusätzlichen Strahlungsantrieb ausgeht, richtig ist. Dann wäre dies nichts anderes als eine Wirkungsgraderhöhung in einem technischen System, welches Energieumwandlung in der Bereitstellung von Wärme nutzt. Bei zugrunde gelegten +14°C globaler Ausgangstemperatur, immerhin fast 10% Wirkungsgraderhöhung. Dieser Wert ließe sich bei nochmaliger CO2-Verdopplung weiter erhöhen und nicht zu vergessen, das Wasserdampf-Feedback.

Wir mussten ein Anwendungsbeispiel finden, dass dem Treibhauseffekt in der Natur sehr nahe kommt. Da das Auto aufgrund seiner großen Glasflächen wie ein Treibhaus wirkt (jeder kennt das Beispiel mit einem, in der Sonne abgestellten Fahrzeug), ist es wie geschaffen für die praktische Anwendung des Treibhauseffektes.

Basierend auf der Nutzung der Klimasensitivität des CO2, so die Ausgangsbasis der Überlegungen, wird durch einfache Zugabe von CO2 in den Fahrgastinnenraum eines Fahrzeuges, dessen Temperatur erhöht und dadurch gleichzeitig, durch die erzielte Wirkungsgraderhöhung der Heizungsanlage, Kraftstoff gespart. Bei CO2-Verdopplung auf 0,08 Vol.% (gesundheitlich völlig unbedenklich) konnte unser Team, bei gleicher (!!) Heizleistung, eine Temperaturerhöhung um mindestens 1,2°C (wenn nicht noch mehr) erzielen. Durch geschickte Beimengung von Wasserdampf, eine weitere Temperaturerhöhung (und alles bei gleicher Heizleistung!!) um 4°C – wenn man Glück hat, sogar um +7°C. Prof. Milchdorf, ein weiterer Forscher aus dem Team, berichtet, dass darauf zu achten ist, dass nicht durch die Beimengung von zu viel an Wasserdampf, dem Fahrer die Sicht genommen wird. Und zu allem können wir uns bei unseren Ergebnissen auf Planck berufen. Eine erhöhte Temperatur setzt mehr Strahlung frei und diese Strahlung haben wir genutzt, um das CO2 anzuregen und ihm seine Klimasensitivität raus zu kitzeln.

Dieses Prinzip ist natürlich auch zur Erhöhung der Motorleistung (hier ebenfalls bei gleichem Energieeinsatz, sprich Kraftstoffverbrauch) zu nutzen, so Prof. Milchdorf weiter, indem in den Verbrennungskreislauf CO2 eingebracht wird. Denn, was bei der Heizung funktioniert, muss auch beim Motor funktionieren, da, wir haben Planck bereits erwähnt, eine erhöhte Temperatur mehr Strahlung freisetzt und diese Strahlung nutzen wir beim Motor, um das CO2 anzuregen und ihm seine Klimasensitivität raus zu kitzeln. Inwieweit dieses Prinzip auch bei Elektromotoren anwendbar ist, ob dadurch die Elektronen also schneller fließen, müsste untersucht werden. Sollten bei diesen Untersuchungen, die Elektronen, bei einer hohen CO2-Dosis, die Lichtmauer durchbrechen, so ein andere Forscher, der seinen Namen nicht genannt haben möchte, so wird uns dies nicht schrecken. Wir stehen damit zwar in krassem Widerspruch zu den Postulaten der Speziellen Relativitätstheorie, aber der Treibhauseffekt steht auch im eklatanten Widerspruch zu den Grundfesten der Thermodynamik und dennoch konnte unser Team jetzt beweisen, dass er existiert. Die Frage, ob beim Elektroantrieb schon konkrete Untersuchungen mit CO2 laufen, verneinte der Forscher, aber er sei guter Dinge, dass das Team heutzutage in unserem Land, bei unseren Politikern, jede Menge Fördergelder abrufen kann, um solches weiter zu untersuchen. Sie dürfen dabei nur nicht vergessen, Ihre Forschungsanfrage auf CO2 aufzubauen.

2. CO2-Solar-Sackkleid

Die CO2 Solarsäcke dienen in der Bekleidungsindustrie als Ersatz für Mäntel und Pullover, da sie, dank der CO2-Füllung, schön warm halten. Ich sehe schon vor Augen, so Prof. Schelmhuber, wie die deutsche Presse vor Begeisterung über dieses neue Geschäftsfeld schwelgt, was Deutschland wieder zurück an die Spitze der Bekleidungsindustrie führt und wie die Journalistinnen in unserem Land, die Modehäuser stürmen, um als erste diese Modeartikel zu erwerben und zur Schau zu tragen. Dabei kann die Dame durch geschickte CO2-Dosierung des CO2-Solar-Sacks selbst bestimmen, ob sie den auf der Abbildung (siehe unten) zu sehenden Umhang anbehält oder lieber ablegen möchte. Welch traumhafte Vorstellungen für Mann tun sich hiermit auf. Die CO2-Dosierfläschchen lassen sich geschickt in der Damenhandtasche unterbringen und nach Wunsch mit dem passenden Parfümduft bereichern.

 

So weit unser Bericht. Für die Mitglieder der deutschen Presse, wie sie z.B. in der Süddeutschen oder Die Zeit zu finden sind und die daher noch nicht mitbekommen haben, was unsere Leser längst gemerkt haben, dass es sich bei der Geschichte, um eine 1. April-Geschichte handelt: DIES IST EINE 1. APRIL-GESCHICHTE! Und natürlich auch die zugehörigen Abbildungen. An dieser Stelle ist daher anzuführen, dass die Namen frei erfunden sind. Ähnlichkeiten mit lebenden Personen sind rein zufällig.

Der ganze Treibhauseffekt und die Klimawirksamkeit von sog. Treibhausgasen könnte als Aprilscherz abgetan werden, wären damit nicht zig Milliarden Euro verbunden, die uns Steuerzahlern abverlangt werden, um die „Scherze“ aus Politik, den beauftragten Wissenschaftlern und der daran adaptierten Industriezweige, die nur aus Steuermitteln überlebensfähig sind, zu finanzieren. Was letztendlich in einer katastrophalen und für unser Land verhängnisvollen Energiepolitik gipfelt. Einer Energieausrichtung auf Zufallsenergien, wie Wind und Solar, anstatt auf Zuverlässigkeitsenergien, die für unser Land, von Helmut Schmidt über Helmut Kohl, Garant für Stabilität, Wirtschaftsentwicklung und damit Wohlstand bedeuteten. Daher werden wir nicht müde, den Treibhauseffekt als das zu entlarven, was er ist: „Die Klimakatastrophe ist die große Geschäftemacherei unserer Zeit“, wie der renommierte Zukunftsforscher, Matthias Horx, feststellt. Je größer die angebliche Katastrophe dargestellt wird, umso größer die Geschäftsaussichten. Mit Wissenschaft, wie unsere 1. April-Geschichte satirisch zeigt, hat dies nichts zu tun, sondern nur mit Abzocke, flankiert von einer, aus ideologischen Gründen, weitgehend blinden Journalistenschar.

Raimund Leistenschneider – EIKE