1

Das Zeitalter der „Erneuerbaren“ geht vielleicht schon vorzeitig zuende? SPON titelt: Skandalfirma Solar Millenium ist pleite

Update 22.12.11

Reuters berichtet dass bereits 5000 Solarfirmen in Deutschland ihre Tore geschlossen, bzw. ihre Belegschaften reduziert hätten. In der noch immer politisch grün gehätschelten Branche geht nun trotz allem die Angst um.

SPON schreibt: Ein monatelanger Kampf geht zu Ende: Die Erlanger Ökoenergiefirma Solar Millenium hat Insolvenz angemeldet. Das Unternehmen hatte sich einen Dauerstreit mit Kurzzeit-Chef Utz Claasen geliefert, zuletzt kamen große Probleme in Spanien und den USA hinzu.

"Wir entwickeln die Zukunft", lautet der Slogan von Solar Millenium – doch schon bald dürfte das Unternehmen Geschichte sein. Nach monatelangem Überlebenskampf stellte der Kraftwerksentwickler am Mittwoch beim Amtsgericht Fürth einen Insolvenzantrag. Das teilte die Erlanger Firma am Mittwoch mit…

Lesen Sie hier und hier weiter 

Auf ACHGUT finden wir

Jetzt beginnt das grosse Sterben

Es ist die zweite Solarpleite in Deutschland binnen einer Woche. Der wirtschaftlich angeschlagene Solarkraftwerk-Hersteller Solar Millennium hat Insolvenz beantragt. Das teilte das Unternehmen am Mittwoch in Erlangen mit. Nach dem Berliner Solarmodulhersteller Solon , der vor einer Woche vor dem Amtsgericht in Charlottenburg einen Insolvenzantrag stellte, ist dies schon die zweite Pleite in der Branche binnen weniger Tage.—“Wir entwickeln die Zukunft”, lautet der Slogan von Solar Millenium – doch schon bald dürfte das Unternehmen Geschichte sein

Aus und vorbei

Der Mineralölkonzern BP macht seine Solarsparte dicht. Es ist der letzte Schritt des Niedergangs eines Geschäftsfeldes: Das Unternehmen hatte seine eigenen Solarmodulfabriken schon in den letzten Jahren abgewickelt, jetzt endet auch das Geschäft mit der Projektentwicklung 30 Jahre nach der Gründung der BP Solar.

Ergänzung: Q-Cells Aktien verloren 1,2 Prozent (auf 0,55 €), die von Solarworld büßten 0,8 Prozent (auf 3.42 €) ein.

Michael Limburg EIKE

mit Texten von SPON und Benny Peiser von ACHGUT




Der amerikanische Steuerzahler soll noch mehr für UNO-Narrheiten bezahlen

Ein Jahr nach der UNO-Weltklimakonferenz in Kopenhagen bat US-Außenministerin Hillary Clinton, bis 2020 mindestens $100 Milliarden jährlich für Hilfen an die Dritte Welt zu bewilligen, damit diese Länder ihre Klimaprobleme lösen könn­ten, für die Amerika und der Kapitalismus verantwort­lich gemacht wurden. Die Kopenhagen nachfolgende Cancun-Konferenz hat sich hauptsächlich mit der Aufstellung eines Planes beschäftigt, eine solche Verpflichtung umzusetzen. Man sprach dort zu Beginn wirklich von „Rache“. Der Plan für einen "Grünen Klimafonds" (Green Climate Fund – GCF) im Umfang von jährlich $100 Milliarden wurde entworfen. Dessen Ziel ist nichts weniger als die grundlegende Transformation der Weltwirt­schaft … angefangen bei der amerikanischen.

Wer sind die Hauptspieler? George Soros ist dabei, ein Vertreter der Weltbank und Lawrence Summers (ehemals Direktor des Nationalen Wirtschaftsrats im Weißen Haus und nun Berater für Wirtschaftspolitik des Präsidenten Obama). Man sollte sehr ernst nehmen, was da anvisiert wird.

Das erste Treffen des "Grünen Klimafonds" bestand aus einer 40-köpfigen Entwurfsmannschaft genannt “Transitional Committee” (TC), es fand in Mexico City vom 28.-29. April statt. Ziel war die Vorbereitung der Spezifikation für die Arbeit des Grünen Klimafonds, der nun auf der  U.N. Framework Convention on Climate Change in Durban auf der Tagesordnung stand. Man kann darauf wetten, dass das Hauptziel ist, die Strategie zu beschreiben, wie jährlich mehr als $100 Mrd. aus den amerikanischen Verbrauchern herausgepresst werden können, und das ungehindert von parlamentarischer Genehmigung.

Den Plänen zufolge würde die UNO ein Besteuerungsrecht erhalten und dadurch aus ihrer Rolle der Beratung in die Rolle einer "Regierung" schlüpfen, die unserer nationalen Souveränität vorginge. Das steht im Einklang mit den Vorschlägen einer 20-köpfigen "hochrangigen Beratungsgruppe für die Finanzierung des Klimawandels", die vom UNO-Generalsekretär Ban ki-Moon einberufen worden war, um die Nationen aufzufordern, “grundlegend die Weltwirtschaft zu transformie­ren mit einer kohlenarmen, sauberen Energiewelt." Daraus folgten Empfehlungen zum Einführen von:

  • – einer CO2-Steuer
  • – einer Steuer auf den Luft- und Seeverkehr
  • – einer Steuer auf Finanztransaktionen
  • – einer Steuer auf die Erzeugung von Elektrizität
  • – einer Umlenkung aller Subventionen für fossile Treibstoffe in internationale Klima-Aktionen

Der Fernsehsender FOX-News meldete, dass er im Besitz von Positionspapieren sei mit den Punkten, die in einem Treffen Ban ki-Moons mit seinen 60 Spitzen-Beamten während eines zweitägigen Treffens in einem Australischen Berghotel diskutiert wurden. Es ging darum, wie die UNO ihre wuchernde Organisation weiter entwickeln könnte. Die Punkte enthielten:

  • • Wie der “Klimawandel” nach dem Kopenhagener Fiasko wieder höchste Priorität bekommen könnte,
  • • wie man mit dem Versuch weiterkommen, die globale Umverteilung des Reichtums zur realen Basis des Klimarettungsprogramms zu machen, und wie die Diskussion weiter auf "globale Gemein­schaftsgüter" ausgeweitet werden könnte,
  • • wie die U.N.-Friedensmissionen auf Aufgaben der Polizei, der Gerichtsbarkeit, des Justizwesens und andere Bereiche in bürgerkriegsgeplagten Ländern ausgedehnt werden könnten,
  • • was man aus der globalen Flut von Immigranten von armen nach reichen Ländern machen könnte, einschließlich eines möglichen neuen “internationalen Leit-Netzwerks für Migration”,
  • • wie man Technologien geschickt nutzen könnte, um das, was die UNO "Zivilgesellschaft" nennt, stär­ker an sich zu binden. Das bedeutet neue Wege des direkten Zugangs zu den Interessengruppen, die die UNO-Ziele unterstützen, – vorbei an den Regierungen der UNO-Mitgliedstaaten.

Den Themen, mit denen sich die UNO-Oberen beschäftigten, lag ein Papier zugrunde mit dem  ärgerli­chen Thema der nationalen Souveränität. Diese verträgt sich nicht mit dem globalen Weltregierungsanspruch der UNO. Wie es in einem anderen Papier heißt: "die UNO sollte die Führung beim Setzen der globalen Politikziele übernehmen, sich wirksam mit anderen multinationalen und regionalen Organisationen und der Zivilgesellschaft und nichtstaatlichen Interessenvertretern verbinden, und sich selbst in ein Instrument zur Ein­führung von global vereinbarten Zielen wandeln."

Im Papier heißt es weiter: “es ist nötig, über den Inhalt der Souveränität gründlich nachzudenken und zu erkennen, dass Veränderungen in unserer Auffassung ein gutes Anzeichen für die Richtung sind, in die wir gehen.”

Und was hat diese Demontage der Souveränität mit dem Unterdrücken des Kapitalismus, der Abdämpfung des Konsums und der Umverteilung des globalen Reichtums zu tun? Eine ganze Menge.

Auf einer Eröffnungssitzung wurde erklärt: "Die echte Herausforderung kommt vom exponentiel­len Wachstum der globalen Konsumgesellschaft, das von immer höheren Erwartungen der oberen und mittleren Schichten in den reichen Ländern getragen wird, wie auch von dem sich ausweitenden Bedarf der entstehenden Mittelklasse in den Entwicklungsländern. Unser wahrer Ehrgeiz sollte es daher sein, Anreize für eine tiefgreifende Transformation der Haltungen und der Konsumstile zu setzen." Ein Papier aus Generalsekretär Bans eigenem Klimawandel-Team rief zu "nichts weniger als einer grundle­genden Transformation der globalen Wirtschaft" auf.

Die Verfolgung derartiger Zielsetzungen wird eine Menge Geld erfordern, … unser Geld und eine neue Besteuerungshoheit. Der fabrizierte CO2-Alarmismus schafft die Begründung dafür.

Im Jahre 2004 hat das University-World Institute for Development Economics Research (UNU-WIDER) der Vereinten Nationen eine Studie veröffentlicht, die mögliche Szenarien für die Einführung einer glo­balen Steuer skizzierte. In der Studie wurde die Frage gestellt: “Wie können wir zusätzlich an US $550 Milliarden für die Entwicklungshilfe kommen? Unser Interesse richtet sich darauf, Ressourcen von reichen Ländern zu Entwicklungslän­dern fließen zu lassen.” Die Schlussfolgerung: “Eine globale Steuer kann nur durch eine konzertierte Aktion der Nationalstaaten eingeführt werden, nicht von einer einheitlichen Weltregierung … Die Besteuerung von Umweltbelastungen ist eine sichtbare mögliche Quelle für Einnahmen.” Und weiter: “Wir gehen davon aus, dass die Steuer von Einzelpersonen wie auch von Firmen in Form einer Kohlenstoff-Abgabe erhoben wird.”

Eine andere, weiter verbreitete UNU-Wider-Publikation meint: “Die Unterstützung für eine internationale ‘Koh­lenstoff-Steuer’ ist immer stärker geworden seit dem 1992-er UNO-Erdgipfel, der die internationale Aufmerksamkeit auf die Zerstörung der Umwelt durch den exzessiven weltweiten Einsatz von fossilen Treibstoffen lenkte …  Über 20% der Steuereinnahmen würden aus den U.S.A kommen.”

So auch der deutsche Wirtschaftwissenschaftler und Mit-Vorsitzende der Arbeitsgruppe III "Milderung der Folgen des Klimawandels" des Weltklimarats (IPCC), Ottmar Edenhofer, der in einem Interview mit Investor’s Business Daily zugab: “Der Klimagipfel in Cancun Ende des Monats [December, 2010] ist keine Klimakonferenz sondern eine der größten Wirtschafts­konferenzen seit Ende des Zweiten Weltkriegs.”

In Lord Moncktons detaillierter Analyse [Durban 2011] kann man nachlesen, was der UNO-Vertrag alles enthält, und wie er mithilft, die Welt­wirtschaft zu dezimieren, und die UNO-Bürokraten zu begünstigen. Daraus zwei Auszüge:

Grüner Klimafonds (Green Climate Fund): Die westlichen Staaten werden dazu gedrängt, “sich unverzüglich für die Startfinanzierung des Grünen Klimafonds  zu verpflichten”, und zusätzlich “zum Tragen der laufenden Kosten” und “zum Bezahlen der notwendigen Kosten der Aufstellung und Unterhalt des Vorstandsgremiums und des Sekretariats des Grünen Klimafonds”.
Hier wollen die UNO-Bürokraten zuerst selbst ihre Organisation garantiert haben: das Geld, ihre Vergünstigungen, ihre Pensio­nen, bevor auch nur ein Dollar an Drittwelt-Länder geht.

Die UNO ist heute das größte Hindernis für die Beseitigung der weltweiten Armut, weil ihre gehätschel­ten Funktionäre so viel Geld für sich selbst abgreifen für einen wuchernden Abkürzungs-Bürokratie-Dschungel und heroisch verrückte Projekte wie das von der Steuerung des Klimawandels.
Es ist Zeit für die Abschaffung.

Von Larry Bell, Forbes

Über dem Autor: Larry Bell ist Professor und Stiftungsprofessor an der University of Houston. Er ist Gründer und Leiter des Sasakawa International Center for Space Architecture und Leiter des Graduiertenprogramms für Weltraumarchitektur. Er hat kürzlich ein neues Buch mit dem Titel: "Climate of Corruption: Politics and Power Behind the Global Warming Hoax" veröffentlicht. Es kann über www.climateofcorruption.com eingesehen und bestellt werden.

Nachdruck mit freundlicher Genehmigung des Autors. (gekürzte Fassung)
Übersetzung: Helmut Jäger, EIKE




Handel mit Emissionszertifikaten in der EU im freien Fall

Zitat aus SPON: "Es steht nicht gut um das Weltklima. Kanada verabschiedet sich vom Kyoto-Protokoll, die USA und China als größte CO2-Emittenten sind erst gar nicht dabei. Und selbst der längste Klimagipfel aller Zeiten brachte keine klare Lösung: Erst ab dem Jahr 2020 soll – vielleicht – ein neues internationales Abkommen in Kraft treten. Nur die Europäer scheinen im Kampf gegen den Klimawandel unbeirrt voranzuschreiten und versprechen, bis 2020 ein Fünftel weniger Klimagase in die Luft zu blasen als im Jahr 1990…. hier weiterlesen


Quelle Bild rechts: http://www.barchart.com/charts/futures/CKZ11

DIe Fakten:

Der ICE ECX EUA-Kontrakt vom Dezember 2011 fiel um 73 Cent auf ein Rekordminimum von 6,30 Euro, 10,4% weniger er am Dienstag (13.12.11) mit 7,03 Euro kostete.

Bis 17.30 MEZ hatte sich der Preis wieder etwas erholt auf 6,41 Euro wegen eines beachtlichen Umsatzes von 15 Millionen Einheiten.

Der Preisverfall mit einem Rückgang unter das bisherige Minimum von 6,77 Euro vom 6. Dezember schickt den Vertrag in das bisher unberührte untere Chart-Gebiet. Markthändler sahen nur wenige Anzeichen für eine Erholung in der Wirtschaft der EU, die die Nachfrage nach Emissionszertifikaten erhöhen könnte.

 „Ich sehe in diesem Markt überhaupt keinen Boden”, sagte ein Emissionszertifikatehändler und fügte hinzu, dass jedes positive Gefühl nach dem wegweisenden UN-Klimagipfel in Durban rein psychologischer Natur war, da er keinerlei Nachfrageschub nach Zertifikaten brachte.

„Es ist klar, dass Durban nichts geholfen hat, und die Ankündigung Kanadas, aus dem Kyoto-Protokoll auszusteigen, zeigt uns, was kleine Länder von internationalen Verträgen halten“.

Am Dienstag hat Kanada bestätigt, dass es sich aus dem Kyoto-Protokoll aus dem jahr 1997 zurückziehen wird, derzeit immer noch das einzige globale Abkommen, um dem Klimawandel zu begegnen.

Der Preisverfall des EUA-Kontraktes vom vergangenen Mittwoch ging noch über den Rückgang von 6,6% vom Vortag hinaus und ereignete sich, nachdem die Währung Euro zum ersten Mal seit Januar unter 1,30 Dollar gefallen war. Im Januar hatte die US-Bundesbank davor gewarnt, dass die ungelöste Schuldenkrise in Europa der riesigen amerikanischen Wirtschaft schaden könnte.

Die Anleihe-Märkte schienen wenig Vertrauen in das Übereinkommen der EU-Regierungen zu hegen, die Haushaltsdisziplin in der EU zu stärken angesichts der Rekordzinsen von 6,47%, die Italien für Anleihen zahlen musste.

Kohlenstoff geriet auch durch die Energiemärkte unter Druck, ausgelöst durch den Fall des Front-Month-Future auf Brent-Rohöl um 3 Dollar auf 106,15 Dollar pro Barrel, nachdem die OPEC dafür gestimmt hat, die Fördermenge weitere sechs Monate lang auf hohem Niveau zu halten, ohne Schritte zur Produktionsdrosselung zu erwähnen, falls die Nachfrage abnehmen sollte.

Inzwischen ist der CER-Kontrakt [CER = Constant Exchange Rate] von Dezember 2011 über die ICE-Europa-Futures am Mittwoch um weitere 13% auf einen neuen Tiefststand von 3,80 Euro gefallen, nachdem der Markt am vorhergehenden Abend 1,1 Millionen ERU [ERU = Emission Reduction Units] aus Russland absorbiert hatte.

Front-Year CERs aus früheren Jahren haben Dienstag neue Tiefstände erreicht, sie fielen um fast 10% aufgrund der Erwartung, dass am Markt weiterhin ein Überangebot herrscht.

 (Reporting by Ben Garside)

Link: http://tinyurl.com/7heft7f

Kommentar von Anthony Watts, der diesen Beitrag auf seiner Website gepostet hat:

Es sieht ganz so aus, dass sich das Schicksal der Kohlenstoffbörse in Chicago in Europa wiederholen würde.

Link: http://wattsupwiththat.com/2011/12/15/eu-carbon-trading-in-freefall/




Welt-Erdölreserven reichen stets 40 Jahre

Das R/P-Verhältnis

In der Ölindustrie wie auch in anderen Industrien gibt es das ”R/P-Verhältnis”. Dabei bedeutet R die Reserven jeglicher Art und P die Produktionsrate, das ist die Rate, mit der die Reserven gefördert und verbraucht werden.

Abb. 1. Jährliche Welt-Erdölförderung in Mrd. Barrels (blaue Linie) und die noch verbleibenden Jahre bei der angegebenen Produktionsrate R/P (rote Linie). Die rechte Skala zeigt die nachgewiesenen Ölreserven für jedes Jahr in Mrd. Barrel (grüne Punktelinie). Quelle: BP Statistical Review of World Energy 2011. Das ist eine faszinierende Excel-Tabelle. FOTO: Spindletop Hill Gusher, 1901

Teilt man die Reservemenge durch die Produktionsrate, erhält man die Anzahl der noch für die Förderung verbleibenden Jahre. Demgemäss ist das R/P-Verhältnis als ”verbleibende Jahre” (Years Left) eingefügt.

Hier ist anzumerken:
Erstens, die ”verbleibenden Jahre”, das R/P-Verhältnis, beträgt derzeit mehr als 40 Jahre, und das schon seit einem Vierteljahrhundert. Vor 30 Jahren hatten wir nur 30 Jahre nachgewiesene Ölreserven. Die damaligen Schätzungen sagten voraus, dass wir zum jetzigen Zeitpunkt kein Öl mehr hätten.
Vor 25 Jahren hatten wir 40 verbleibende Jahre, vor 10 Jahren immer noch 40. Nun sind es über 40 Jahre. Ich bin sicher, Sie erkennen das Muster.

Zweitens: hier geht es nur um die ”nachgewiesenen Reserven” (Wiki). Die ”nicht nachgewiesenen Reserven” sind darin nicht enthalten. Viele davon bestehen aus unkonventionellen Reserven, wie z. B. Schieferöl und Ölsände. Selbst wenn man die ”nicht nachgewiesenen” Reserven außer Acht lässt, haben sich die nachgewiesenen Reserven mit der Förderrate in etwa gleichem Maße erhöht. Das R/P-Verhältnis, die verbleibenden 40 Jahre bei heutiger Produktionsrate, ist also seit einem Vierteljahrhundert stabil geblieben.

Allerdings muss das irgendwann einmal langsamer vonstatten gehen, nichts währt ewig. Aber den Daten zufolge hat es keine Eile mit dem Ersatz des Öls durch Sonnenenergie, Windenergie, Grüner Energie … im Laufe der kommenden Jahrzehnte. Die Märkte haben noch viel Zeit, Ersatz zu finden.

Man möge mich nicht falsch verstehen: Ich würde es sehr begrüßen, wenn wir eine bessere Energiequelle fänden als das Öl. Tatsächlich werden die riesigen neuen Reserven an Schiefergas viele Jahre lang das Heizöl ersetzen. Schiefergas verbrennt sauberer. Und man kann überzeugt sein, dass die Menschen neue Energiequellen finden. Die Menschheit ist grenzenlos erfinderisch.

Willis Eschenbach

Ich melde hiermit meinen Protest gegen das Standard-Mantra an: ”Oh Gott, wir haben bald kein Öl mehr, deshalb müssen wir gleich morgen unsere Energiequellen wechseln!!” Das ist einfach nicht wahr. Wir haben noch viel Zeit, noch Jahrzehnte. Wir müssen nicht gleich Milliarden von Dollars für Photovoltaik, Windenergie und Biotreibstoffe verbrennen. Es gibt noch lange genug Öl auf der Welt, lang genug für die Märkte, neue Energiequellen zu finden.

Anmerkung: Die angegebenen Zahlen für das Öl, besonders für die Reserven sind Schätzwerte. Ölfirmen sind bekanntlich schweigsam über ihre Entdeckungen und das Ausmaß ihrer Förder-Berechtigungen. Der Vorteil der BP-Zahlen ist, dass sie einzelne kohärente Zeitserien sind. Andere Daten zeigen etwas andere Resultate. So weit mir bekannt, ist allen Schätzungen gemeinsam die Zunahme der nachgewiesenen Reserven trotz der ansteigenden Förderung.

Original hier.

Übersetzung: Helmut Jäger, EIKE




Globale Erwärmung findet nicht statt – globale Abkühlung ist real und aktuell

Es ist eigenartig, dass das IPCC jüngste Extremwetterereignisse mit der globalen Erwärmung in Zusammenhang bringt, ganz einfach deshalb, weil es seit 10 bis 15 Jahren keine nennenswerte Erwärmung mehr gegeben hat, jedenfalls den amtlichen Klimadaten von den Regierungen der Welt zufolge (US /NCDC, ENVIRONMENT CANADA und THE EUROPEAN ENVIRONMENTAL AGENCY). Vor Kurzem hat der US-Meteorologe Anthony Watts gezeigt, dass sich die kontinentalen USA während der letzten 10 Jahre nicht erwärmt haben, sondern dass es in Wirklichkeit im Sommer kühler und im Winter kälter geworden ist. Die Klimazahlen stammen vom National Climatic Data Center.

Nicht nur in den USA sind die Temperaturen seit 10 bis 15 Jahren gleich geblieben, sondern auch in Kanada. Die Abweichungen der Jahres-, Sommer- und Wintertemperatur vom Mittel der Jahre 1961 bis 1990 sind seit 10 bis 14 Jahren gleich geblieben, wenn man sie auf einem linearen Trend von Excel misst und basierend auf den Daten von Environment Canada selbst. Der Vergleich zwischen der aktuellen Abweichung der Wintertemperatur mit der Periode von 1961 bis 1990 kann in die Irre führen, weil diese Periode in die Kaltphase des 60-Jahre-Zyklus‘ unseres Planeten gefallen war, und jeder Vergleich immer eine Erwärmung zeigen wird, aber nicht wegen der vom Menschen verursachten globalen Erwärmung, sondern wegen natürlicher und regelmäßiger Zyklen (30 Jahre kälteren Wetters werden gefolgt von 30 Jahren wärmeren Wetters). Es ist, als ob man Sommer- und Wintertemperaturen vergleicht – die Sommertemperaturen werden immer Erwärmung zeigen.

Regional zeigen 7 der 11 durch Environment Canada betreuten Stationen abnehmende oder gleichbleibende Abweichungen der Wintertemperatur während der letzten 10 Jahre. Zwischen 1998 und 2011 betrug die mittlere Abweichung im Winter etwa 2°C. Lediglich die Atlantikküste, die Wälder im Nordosten und die arktische Tundra, die Berge und Fjorde zeigten steigende Abweichungen der Wintertemperatur. Aber der Wärmegehalt des Nordatlantiks geht zurück, ebenso wie der Wärmegehalt des Arktischen Ozeans.

Die Anomalien der Wassertemperatur (SST) gehen auf der Nordhemisphäre, im Nordatlantik, dem Nord- und Ostpazifik überall zurück. Es wird nicht mehr lange dauern, bis die Atlantikküste und die arktischen Gebiete eine ähnliche Abkühlung zeigen, da die AMO in ihre Negativ- oder Kaltphase wechselt. Viel kaltes Wetter in Nordamerika während der nächsten 20 bis 30 Jahre ist viel wahrscheinlicher als die vom IPCC vorhergesagte Erwärmung um 3°C bis 6°C. Das jüngste extrem kalte Winterwetter in Alaska und an der Ostküste der USA war ein Beispiel dafür, was vor uns liegen könnte. Die Abkühlung hat sich seit einer Dekade abgezeichnet. Also, wie kann eine globale Erwärmung zu den jüngsten und in der Zukunft stattfindenden Extremwetterereignisse führen, wenn die globale Erwärmung entgegen den Vorhersagen seit einer Dekade nicht stattgefunden hat und voraussichtlich auch während der nächsten 30 Jahre nicht stattfinden wird, sorgt doch der 60-jährige Zyklus für kälteres Wetter, und zwar infolge sich ändernder Wassertemperaturen sowie Änderungen in ozeanischen Tiefenströmungen?

Die SST, bestimmt durch PDO, AMO sowie den Wärmegehalt der Ozeane, ENSO-Zyklen und Änderungen des Luftdrucks, bestimmt durch AO und NAO deuten allesamt auf einen sich in Zukunft abkühlenden Planeten. Die AMO wurde im November 2011 zum ersten Mal seit Anfang 2009 negativ. Die Zeit wird zeigen, ob es sich dabei um einen normalen jahreszeitlichen Rückgang oder einen langzeitlichen Trend handelt. Diese kältere AMO könnte, falls sie sich den Winter über hält, signifikant kälteres Wetter an der US-Ostküste und in Westeuropa bringen. Mehrere schwere Stürme hatte es in diesem Herbst auf beiden Seiten des Atlantik schon gegeben.

Hier sind zwei Links, die den oben erwähnten Beweis der globalen Abkühlung in Nordamerika stützen: http://wattsupwiththat.com und http://ca.news.yahoo.com/blogs.

Warum also stopfen wir all die Steuergelder in ein Loch, um ein nicht existierendes Problem zu lösen, wenn die Welt am Rande des finanziellen Zusammenbruchs steht und es so viele andere drückende Probleme auf unserer Erde gibt? Jeder umsichtige [politische] Führer sollte erkennen, dass wir unsere Prioritäten anders setzen müssen.

Weitere Beweise der globalen Abkühlung

Die fünf folgenden Abbildungen illustrieren das Fehlen globaler Erwärmung in den USA und Kanada.

Wintertemperaturen von 1998 bis 2011 vom NCDC


http://lwf.ncdc.noaa.gov/oa/climate/research/cag3/na.html

Ausdehnung der Schneedecke in Nordamerika (Rutgers University)

Die Ausdehnung der Schneebedeckung in Nordamerika hat fünf Jahre lang hintereinander zugenommen, und zwar im Zuge der kühleren Wassertemperatur im Pazifik, bestimmt durch die PDO. Schon jetzt ist die Schneedecke des Winters 2011/2012 ausgedehnter als im vorigen Winter 2010/2011, und zwar um etwa 60% in der 45. Woche. Die Ausdehnung der Schneedecke nähert sich den rekordwerten der späten siebziger Jahre.


http://climate.rutgers.edu/snowcover/chart_seasonal.php?ui_set=namgnld&ui_season=1

Winter-, Sommer- und Jahrestemperaturabweichungen vom Mittel 1961 bis 1990. Mittel für die Jahre 1998 bis 2011.

Der jährliche Trend der Abweichungen wie unten gezeigt deutet auf einen flachen oder leicht abkühlenden Trend hin und überhaupt nicht auf globale Erwärmung. Ja, es gibt Fluktuationen, aber diese zeigen keinen Erwärmungstrend.


Abweichungen der Wintertemperatur in Kanada vom Mittel 1961 bis 1990. Mittelwerte der Jahre von 1998 bis 2011


http://ec.gc.ca/adsc-cmda/default.asp?lang=En&n=4A21B114-1

Die winterliche Abkühlung zeigt sich besonders deutlich im kanadischen Weizengürtel, nämlich in den Prärieprovinzen [Manitoba, Alberta, Saskatchewan; A. d. Übers.] und dort hauptsächlich in den nördlichen Teilen sowie in den Wäldern des Nordwestens. Environment Canada berichtet in [ihrer Veröffentlichung] Trend, Extremes and Current Season Ranking 1948 bis 2011 (64 Jahre), dass der Erwärmungstrend in diesen Gebieten über die vergangenen 64 Jahre 3,2°C und 3,7°C betrug. Was aber viel bedeutsamer ist und aus dem Bericht nicht hervorgeht ist die Tatsache, dass sich diese Gebiete seit 10 Jahren abkühlen, davon besonders rasch seit 2006. Die Wintertemperatur war allein zwischen 2006 und 2009 um etwa 7°C zurück gegangen. Damit lagen sie während der vergangenen 3 bis 4 Jahre bei oder unter den Mittelwerten der Jahre von 1961 bis 1990 (siehe unten). Kein Wunder, dass es all diese Springfluten durch zusätzlich schmelzenden Schnee in diesem Gebiet gegeben hatte.

Die kalten Winter werden sich in den nächsten 20 bis 30 Jahren ebenso wie die Überschwemmungen fortsetzen, da der 60-jährige planetare Zyklus in die Kaltphase wechselt. Wir werden Winter bekommen wie im vorigen Kaltzyklus vor 30 Jahren. Und doch redet Environment Canada auf ihrer Website ausschließlich von globaler Erwärmung. Es findet sich absolut nichts über eine mögliche globale Abkühlung oder Warnungen für die kanadische Öffentlichkeit und die Wirtschaft über weitere wetterabhängige Überschwemmungen, Ernteausfälle, Unterbrechungen der Infrastruktur und so weiter.


http://ca.news.yahoo.com:80/colder-temps-west

PDO

Im November ist die Pazifische Dekadische Oszillation oder PDO auf ihren niedrigsten Wert (-2,33) seit 1961 gesunken. Das Niveau im Jahr 1961 hatte bei -2,69 gelegen. Die PDO ist eine Nachwirkung des ENSO-Signals und spiegelt die räumliche Verteilung kühleren Wassers in der Nordhemisphäre, besonders in Nordamerika. Der Index wechselte das Vorzeichen im Jahr 2007, und wenn man historische Verteilungen betrachtet, könnte er während der nächsten 20 bis 30 Jahre negativ bleiben, was kälteres Wetter in diesem Zeitraum zur Folge hätte. Während der letzten vier Jahre war dies im nordamerikanischen Wetter bereits offensichtlich – vor allem im Winter.

Link: http://notrickszone.com/2011/12/14/global-warming-not-happening-global-cooling-is-real-and-now/

Übersetzt von Chris Frey für EIKE




In China gibt es keine Hockeyschläger

Eine grundlegende chinesische Studie mit Baumringen aus Tibet durch Liu et al. (2011) zeigt, dass derzeit ein stocknormales Klima herrscht, wenn man es mit den vergangenen 2500 Jahren vergleicht. Die Temperatur, der Bereich, in dem sie sich ändert: das gab es zuvor auch schon alles. Nichts an der gegenwärtigen Periode ist „anomal“, tatsächlich kann die jüngste Erwärmungsphase in Tibet durch die Berechnung von Zyklen erklärt werden. Liu et al. haben die zugrunde liegenden Zyklen einer Fourier-Analyse unterzogen und daraus auch mutige Prognosen abgeleitet.

In Tibet lässt sich das gegenwärtige Temperaturregime 4 mal in früheren Zeiten finden, und zwar zur Zeit der Römer – vielleicht waren das die Streitwagen (chariots); dann im Dunklen Zeitalter – das war der Zusammenbruch der Industrie; dann im Mittelalter – das waren die Wikinger; und dann heute – das war die Industrialisierung. Ganz klar, diese Klimazyklen haben nichts mit der menschlichen Zivilisation zu tun. Das Team um Liu hat natürliche Zyklen verschiedener Längen gefunden: 2 bis 3 Jahre, 100 Jahre, 199 Jahre, 800 Jahre und 1324 Jahre. Die Kaltphasen stehen in Verbindung mit den Zyklen von Sonnenflecken. Wir sind nicht an den Anblick von mutigen Wissenschaftlern gewöhnt, die exakte Prognosen für 100 Jahre veröffentlichen, die sowohl Erwärmungs- als auch Abkühlungsphasen zeigen. Offensichtlich wird es sich bis 2068 abkühlen, gefolgt von einer erneuten Erwärmung, jedoch nicht bis auf das Niveau des Jahres 2006.

Über „Baumringe”

Jetzt werden einige sagen, dass die Skeptiker über Baumringe spötteln, und wir tun das – manchmal – über die aus der falschen Baumart (wie die Grannenkiefer) oder solche, die auf einer kleinen Menge von Beispielen beruhen (wie Yamal); sowie über solche mit irreführenden statistischen Tricks, die immer das gleiche Ergebnis hervorbringen, ganz egal, welche Daten man eingibt, und vor allem über solche, die Daten abschneiden, weil sie nicht mit [Daten von] Thermometern übereinstimmen, die neben Air-Condition-Anlagen oder Parkplätzen aufgestellt sind. Nur die Zeit wird uns sagen, ob diese Analyse es getroffen hat, aber es ist jedenfalls unserer Aufmerksamkeit wert.

Einige werden auch zu Recht darauf hinweisen, dass dies nur für Tibet und nicht im globalen Mittel gilt. Das stimmt. Aber die Ergebnisse stimmen gut mit Hunderten von  anderen Studien aus der ganzen Welt überein (Studien über das Mittelalter, die  Römerzeit, die Eisbohrkerne aus Grönland). Warum können wir eigentlich gute Baumringanalysen nicht an vielen Orten durchführen?

Jo


Amplitude, Änderungsraten, Periodizitäten und Gründe von Temperaturvariationen während der vergangenen 2485 Jahre sowie zukünftige Trends auf dem Plateau in Osttibet (Chinese Sci Bull,)

Abbildung 5: Vorhersage von Temperaturtrends auf dem Plateau in Osttibet für die nächsten 120 Jahre. Blaue Linie: ursprüngliche Reihen; orange Linie: kalibrierte Reihen von 464 v. Chr. bis 834 n Chr.; violette Linie: Verifikationsreihen von 835 bis 1980; rote Linie: Vorhersagereihen von 1980 bis 2134.

Das sind wunderbare Graphen. Man betrachte die folgende Analyse (power spectrum analysis) und die Zyklen…

ABSTRACT:

Amplitude, Änderungsraten, Periodizitäten und Gründe von Temperaturvariationen während der vergangenen 2485 Jahre sowie zukünftige Trends auf dem Plateau in Osttibet

Amplitude, Änderungsraten, Periodizitäten und Gründe von Temperaturvariationen während der vergangenen 2485 Jahre sowie zukünftige Trends auf dem Plateau in Osttibet wurden analysiert. Die Ergebnisse zeigen, dass extreme Klimaereignisse auf dem Plateau wie z. B. die Mittelalterliche Warmzeit, die Kleine Eiszeit und die Erwärmung des 20. Jahrhunderts synchron zu anderen Gebieten weltweit aufgetreten waren. Die größte Amplitude und Änderungsrate zeigte sich während des Östlichen Jin-Ereignisses (Eastern Jin Event EJE, 343 bis 425 n. Chr) und nicht im ausgehenden 20. Jahrhundert. Es zeigten sich signifikante Zyklen von 1324 Jahren, 800 Jahren, 199 Jahren, 110 Jahren und 2 bis 3 Jahren in den Zeitreihen der Temperatur während der letzten 2485 Jahre. Die Zyklen mit einer Dauer von 1324, 800, 199 und 110 Jahren stehen in Verbindung mit der Sonnenaktivität, die die Temperatur auf der Erdoberfläche erheblich beeinflusst. Die langzeitlichen Trends (mehr als 1000 Jahre) wurden durch den Zyklus mit einer Zeitskala von Jahrtausenden beeinflusst, und die Amplituden wurden von Jahrhunderte langen Zyklen dominiert; kalte Perioden korrelierten mit Minima der Sonnenflecken. Die Vorhersage wies darauf hin, dass die Temperatur in Zukunft bis etwa zum Jahr 2068 zurückgehen und danach wieder steigen wird.

Abbildung 1: Auf Baumringdaten basierende Rekonstruktion der Temperatur im osttibetanischen Plateau während der vergangenen 2485 Jahre (graue Linie), das 40-jährige gleitende Mittel (dicke schwarze Linie) und die 40-jährige gleitende Standardabweichung (dünne schwarze Linie); die horizontale Linie steht für die Mitteltemperatur dieser 2485 Jahre.

Abbildung 2: Power Spectrum Analyse der 2485-jährigen Temperaturreihe

Abbildung 3: Milleniumszyklus der Temperaturvariation während der letzten 2485 Jahre

Abbildung 4: Zerlegung der Hauptzyklen der 2485-jährigen Temperaturreihe auf dem Tibetanischen Plateau und Simulation einer periodischen Funktion. Oben: Graue Linie: Originalreihe; rote Linie: 1324-jähriger Zyklus; grüne Linie: 199-jähriger Zyklus; blaue Linie: 110-jähriger Zyklus. Unten: Drei Sinusfunktionen für verschiedene Zeitskalen. Rote gestrichelte Linie (y = 0.848 sin(0.005 t + 0.23)): 1324 Jahre; grüne Linie (y = 1.40 sin(0.032 t – 0.369)): 199 Jahre; blaue Linie (y = 1.875 sin(0.057 t + 2.846)): 110 Jahre. Die Zeit t steht für das Jahr im Zeitraum 484 v. Chr. bis 2000 n. Chr.

Schlussfolgerungen

Weltweite Klimaereignisse wie die MWP und die LIA sind in der 2485-jährigen Temperaturreihe erkennbar. Der größte Temperaturvergleich zwischen Vorhersage und Beobachtung wurde an sieben Stationen auf dem osttibetanischen Plateau durchgeführt (die sieben Stationen sind: Delingha, Dulan, Golmud, Lhasa, Nagqu, Dachaidan und Bange). Sowohl die Amplitude als auch die Rate der Temperaturänderung erreichten während des EJE ein größeres Ausmaß als im späten 20. Jahrhundert. Der Jahrtausende lange Zyklus der Sonnenaktivität bestimmte die langzeitlichen Trends der Temperaturvariationen, während die Jahrhunderte langen Zyklen die Amplitude dieser Variationen kontrollierten. Minima der Sonnenflecken waren mit Kaltzeiten assoziiert. Die mit Hilfe von caterpillar-SSA [?] gewonnenen Vorhersageergebnisse zeigten, dass die Temperatur bis etwa 2006 auf dem osttibetanischen Plateau gestiegen war und bis 2068 wieder zurückgehen wird, gefolgt von einem weiteren Anstieg. Die Regelmäßigkeit der Temperaturzu- und –abnahme über jeweils 600 Jahre (Abbildung 3) legt nahe, dass die Temperatur weitere 200 Jahre lang zunehmen wird, weil die kleine Eiszeit erst vor etwa 400 Jahren zu Ende gegangen ist. Eine kurzfristige Abnahme der Temperatur infolge von Zyklen einer Zeitskala von Jahrhunderten kann jedoch nicht ausgeschlossen werden. Offensichtlich hat die Sonnenaktivität erheblich die Temperatur auf dem osttibetanischen Plateau beeinflusst. Es gibt jedoch noch einige Unsicherheiten hinsichtlich unseres Verständnisses der Klimaänderung und wie der CO2-Gehalt das Klima beeinflusst. Weitere Untersuchungen sind also erforderlich.

————————–

REFERENCES

Liu Y, Cai Q F, Song H M, et al. Amplitudes, rates, periodicities and causes of temperature variations in the past 2485 years and future trends over the central-eastern Tibetan Plateau. Chinese Sci Bull, 2994, doi: 10.1007/s11434-011-4713-7 [ -2011, 56: 2986Climate Change over the Past Millennium in China.] … Hat Tip: Geoffrey Gold.

Link: http://wattsupwiththat.com/2011/12/07/in-china-there-are-no-hockey-sticks/

Übersetzt von Chris Frey für EIKE




stern-Umfrage: Zwei Drittel der Deutschen haben keine Klima-Angst (mehr)




EU-Energiefahrplan 2050: Energiekosten werden vorsätzlich stetig steigen

 Die Hoffnung auf Vernunft, als letzte Woche ein massiver Ausbau und eine Förderung der Kernenergie in Europa angekündigt wurde, starb schnell. Es war eine Presseente. Im Energiefahrplan werden auf 220 Seiten sechs mögliche Szenarien vorgestellt – alle mit einem deutlichen Abwärtstrend der installierten nuklearen Leistung. Um die Auswirkungen bestimmter Maßnahmen vergleichen zu können, ist es in solchen Studien üblich, ein Referenzszenario zu verwenden, das dem „business as usual” entspricht. Hier wurden politische Konzepte, die bis März 2010 verabschiedet wurden, bei normaler Marktentwicklung bis 2050 extrapoliert. Dabei zeigt sich in der Tat ein Anstieg der nuklearen elektrischen Leistung von heute (2005) 130 GW auf 170 GW (2.3 Tab.26, „Power generation”), was ganz gut 40 KKW-Blöcken entspricht. Dies könnte der Ursprung des Gerüchts sein, dessen Urheber wohl nicht verstanden haben, welchem Zweck ein Referenzszenario dient.

Aber zur eigentlichen Studie. Mit der Modellierung der Szenarien wurde die National Technical University of Athens beauftragt, wo man das Wirtschafts-Simulationssystem PRIMES dafür entwickelt und verwendet (offensichtlich an der eigenen Wirtschaft schon erprobt). Dieses frisst Zahlen wie das Bruttoinlandsprodukt, Öl- und Kohlepreise, Steuersätze, Zinsraten, uvm. und spuckt dafür Dinge wie CO2-Emissionen und Strompreise aus, indem es einen Gleichgewichtszustand ermittelt. Eine gewisse Infrastruktur muss dabei vorgegeben werden wie z.B. Kraftwerke, Vernetzungen, Verbrauchsverhalten. Es erinnert ein wenig an das beliebte Wirtschafts-Simulationsspiel SimCity, nur dass ein wesentlicher Bestandteil fehlt: Die Dynamik.

Die Strompreise (und damit langfristig die Preise für alle Produkte) werden mit jedem konventionellen Kraftwerk, das abgeschaltet wird sobald es durch ein „regeneratives” ersetzt wurde, anziehen. Dies verteuert wiederum den Bau neuer „regenerativer” Anlagen, denn diese können nun – große Überraschung – weniger aus der preiswerten konventionellen Energie gefertigt werden. Diese rückkoppelnde Preisspiralen-Dynamik schlägt auf die gesamte Wirtschaft durch und wird in der „Energy Roadmap 2050” nicht berücksichtigt. Stattdessen werden die Entwicklung des Bruttoinlandsprodukts, der Preise und anderer Parameter aus allgemeinen wirtschaftlichen Trends hergeleitet und PRIMES aufgezwungen.

Studien zu Energieszenarien haben momentan Hochkonjunktur. Sie alle machen den gleichen Fehler eines statischen Modells ohne die durch die Verteuerung des Anlagenbaus selbst entstandenen Preissteigerungen rückkoppelnd einzurechnen. Wer die Mathematik nicht beherrscht, wird dann halt „experimentell” irgendwann feststellen müssen, dass die neuen Anlagen bei den dann vielleicht 10-fachen Strompreisen einfach nicht mehr bezahlbar sind. Dann zeigt sich, dass PRIMES schlechter programmiert war als SimCity, und das bedeutet für Europas Wohlstand: GAME OVER. 

Gastbeitrag von Dr. Götz Ruprecht; Berlin

Weiterführender Link: Die Energiepreise werden steigen




EEG + Unstete Energie : Wider Ökonomie und Demokratie !

Der "gestaltende Staat" und die Ethikkommission haben bisher zu verantworten, dass die EVUs in Deutschland 20.000 Stellen streichen müssen,

Zulieferer nicht eingerechnet. Zusätzlich:

Nokia-Siemens 17.000.

Banken 10.000.

Opel 8.000.

Bei Axa, Talanx, Q-Cells + Co., MAN-Roland und Telekom usw. werden in diesen Tagen die Streichlisten zusammen gestellt. Der wirtschaftliche Abschwung wirft seine Schatten voraus.

Für den, der seinen Job verliert, beträgt die Arbeitslosenquote 100%.

 

Den Stromkunden lädt der "gestaltende Staat" zusätzlich Milliardenkosten auf, sodass selbst Verbraucherschützer wach werden. Die Industrie weiß, dass man auch außerhalb Deutschlands produzieren kann, wenn sie überhöhten Strompreisen ausgesetzt sind. Private Haushalte können sich den Zwängen nicht entziehen – sie müssen zahlen, z.B. EEG, Ökosteuer, Emissionsrechtehandel usw.. Der "gestaltende Staat" verordnet Angst vor der Kernenergie und lässt die Kosten der "Energiewende" die Bürger tragen. Das führt zu Kaufkraftverlusten und verursacht Arbeitslosigkeit. Die Kosten der "Energiewende" sind weit höher als die Milliardenbeträge, die in den Zeitungen stehen. Was wir Verbraucher jährlich an Sonnen- und Windkosten bezahlen müssen, seien es kurzfristig 18 Mrd. Euro oder mittelfristig 24 Mrd. Euro, stehen Erlöse an der Börse gegenüber, die etwa ein Viertel so hoch sind. Auch diese Differenz zahlen wir. Den Autarkie-Versprechungen der Kanzlerin sollten wir keinen Glauben schenken.

CO2 – Für viele Bürger das unbekannte Wesen ! "Wir….sind alle Klimasünder, sagen Politiker vom grünen und linken Rand und die sogenannten "Klimainstitute". Der gleiche Personenkreis weiß, dass die "Schuld" an diesem globalen Missstand exakt 0,0000.4712 % beträgt. Wenn also wir, Deutschland, nicht mehr existieren, d.h. keine Industrie, kein Handel + Wandel, kein Ofen mehr brennt -Deutschland "ausgelöscht" ist und niemand mehr atmet – dann, und nur dann haben wir der Welt einen Bruchteil von 0,0000.4712% CO2 erspart. Um diesen Umstand zu erreichen, erfinden Politiker und Pseudo-Wissenschaftler immer neue Steuern, Abgaben und Umweltvorschriften. Nun soll sogar eine zusätzliche CO2-Steuer auf Güter das Klima "retten".

.. Solar-Voltaik = Sonnenquelle oder Delle ? Trotz sinkender Vergütung geht die Verspiegelung von Dächern und Landschaften munter weiter. BILD sah am 15.11.2011 schon große schwarze Vögel über dieser Branche fliegen, die bereits erste Schatten über den "Sonnenkönig" Asbeck warfen. Die SolarWorld AG schockierte mit dem schlechtesten Ergebnis der Firmengeschichte. Kommentar Asbeck: "Willkommen in der Realität". Nur Solarworld wird laut einer Studie in Deutschland überleben.

Ansonsten: Lagerbestände belasten Phönix. Q-Cells tief in roten Zahlen. Suntech meldet dreistelligen Millionenverlust. Kurzarbeit bei Schott-Solar. Manz senkt Umsatz- und Ergebnis. Wacker dämpft Erwartungen. Würth steigt aus. Zulieferer korrigieren Umsätze nach unten. Sachsen-Anhalt subventioniert Hersteller mit 50 Mio. Euro und will "Förderung" weiter ausdehnen. Hochkonjunktur hat lediglich der Moduldiebstahl. Und erstaunlich ist, dass gerade in Brandenburg der größte Solar- und Windpark im Naturschutzgebiet Lieberoser Heide – 900 Fußballfelder groß / 650 Hektar – nicht genehmigt wird. 500 Hektar Kiefernwald sollten auch noch gefällt werden.

eine Information des 

Verbandes für Gesundheits- & Landschaftsschutz e.V. VGL

www.sturmlauf.de

VGL e.V. AG Bad Oeynhausen VR 21767

Mail: info@sturmlauf.de und vgl.ev@t-online.de

Lesen Si eden ganzen Monatbrief 22 im Anhang


Related Files




4. Internationale Klima- und Energiekonferenz in München. Ein Bericht!

Als man den Rhein bei Köln zu Fuß überqueren konnte

Das CO2 und der ganz normale Klimawandel / In  München eine Gegenkonferenz zum UN-Klimagipfel in Durban

Im Durban hat die 17. UN-Klimakonferenz begonnen, in München wenige Tage davor die 4. kritische Gegenkonferenz stattgefunden. In Durban haben sich rund 20 000 Teilnehmer versammelt, in München sind es nur rund 100 gewesen. In Durban zieht sich die Konferenz über 12 Tage hin, in München hat sie 2 Tage gedauert. In Durban werden Unwahrheiten und Täuschung geboten, in München gab es sachliche Information über die Wirklichkeit. Nach Durban haben sich auch Heerscharen von Journalisten begeben, in München fanden sich – wie schon in den drei Jahren zuvor – nur sehr wenige Medienvertreter ein.

In Durban werden weiterhin die üblichen Schreckensbilder gemalt: Das Erdklima erwärmt sich, die Gletscher schmelzen, der Meeresspiegel steigt, extreme Wetterlagen mit Überschwemmungen, verheerenden Stürmen, Trockenheit und Hitze nehmen zu. In München dagegen fragte man: Was ist dran an diesen Szenarien? Wird es auf der Erde wirklich wärmer? Und was ist dran an der Behauptung, die Ursache für die Erderwärmung seien die Menschen mit ihrem steigenden Ausstoß von technisch bedingtem Kohlendioxid? Diese 4. Internationale Klima- und Energiekonferenz am 25. und 26. November in München wurde ausgerichtet vom Europäischen Institut für Klima und Energie (Eike), vom Berlin Manhattan Institut (BMI), vom Haus der Zukunft Berlin und vom Internationalen Institut für Deutschland- und Europapolitische Bildungsarbeit.

Den Beginn machte die kanadische investigative Journalisitin Donna Lafromboise, die die fachliche Qualifikation der IPCC Autoren unter die Lupe nahm. Die oft wiederholte Behauptung, für die IPCC Berichte würde die Créme de la Créme der internationalen Klimaforschung zusammenarbeiten, entpuppt sich als eines der vielen Märchen, die insbesondere vom IPCC Chairman Pachauri verbreitet und von allen Medien und der Politik ohne jede Prüfung aber willig übernommen wurden. Frau undefinedLafromboise weist in Ihrem Vortrag und einem neuen Buch nach, dass der Weltklimarat nicht die besten Forscher versammelt, wie immer behauptet wird. Stattdessen sitzen Aktivisten dort im Gremium und betreiben grüne Propaganda. Darüberhinaus sind Forschungsresultate häufig zweifelhaft. 

Sie berichtete, dass sie durch unabhängige Untersuchungen (IAC-Bericht)auf diese Fragen gestoßen sei, weil dort, wenn auch anonymisiert z.B. steht (aus der undefinedBasler Zeitung):".. auf Seite 138 des Berichts sagt eine befragte Person, dass die Hälfte der Hauptautoren nicht kompetent sei, und auf Seite 554 heisst es, dass die Mehrheit der IPCC-Entscheide eher politisch denn wissenschaftlich motiviert ist.»

Beispiel Richard Klein. Mit 23 Jahren schliesst der Holländer seine Masterarbeit in Geografie ab, anschliessend arbeitet er als Campaigner bei Greenpeace. Bereits zwei Jahre später schreibt er erstmals als Autor für den IPCC. Sechs Jahre vor Abschluss seiner Doktorarbeit gehört Klein, der heute am Stockholm Environment Institute tätig ist, zum engsten Kreis der Hauptautoren. «Wenn ich diesen Lebenslauf ansehe, frage ich mich, ob Richard Klein zu den weltweit besten und erfahrensten Wissenschaft- lern zählt», sagt Laframboise.

Krasser sei der Fall von Laurens Bouwer, der an der Universität Amsterdam Umweltwissenschaften studierte und bereits zwei Jahre vor Abschluss seiner Masterarbeit zum Autorenteam des Weltklimarates stösst. «Bouwer war zu diesem Zeitpunkt Praktikant bei der Münchner Rückversicherungs-Gesellschaft. Für das IPCC reichte diese Qualifikation offenbar aus, um ihn als Hauptautor zu beauftragen», kommentiert Laframboise… und so geht mit vielen Beispielen weiter..

Auch im Mittelalter sind die Gletscher stark zurückgegangen

Der Physik-Professor Horst-Joachim undefinedLüdecke stellte dem „Klima-Alarmismus“ tatsächliche Temperaturmessungen entgegen, darunter Thermometerdaten der Nordhemisphäre von heute bis etwa 250 Jahre zurück. Und bei einem 2000-Jahresvergleich kommt er zu dem Schluss, dass die Thermometerdaten im Normalbereich liegen. Zusammengefasst lautet sein Ergebnis: “Der Temperaturanstieg des 20. Jahrhunderts ist im Vergleich mit den letzten 2000 Jahren völlig normal. Der Temperaturanstieg im 20. Jahrhundert war überwiegend natürlich. Es ist aber ein zusätzlicher externer Trend auffindbar. Welche Ursache dieser hat, kann nicht ohne weiteres entschieden werden.“ Lüdecke machte auch auf die Warmzeit („Klimaoptimum“) im Mittelalter (950 – 1100 n. Chr.) aufmerksam, wie bei einer Untersuchung von Stalagmiten aus der Spannagel-Höhle bei Innsbruck zu erkennen – obwohl technisches Kohlendioxid noch nicht vorhanden gewesen sei. Damals habe die Regensburger Steinbrücke über die Donau in Trockenbauweise errichtet werden können, der Rhein bei Köln zu Fuß überquert werden können, und es habe einen starken Rückgang der Gletscher gegeben.

Kanzlerin Merkel – nicht nur alternativlos, auch antwortlos

Als Lüdecke in der anschließenden Diskussion gefragt wurde, ob es über solche Erkenntnisse denn keinen Dialog mit Politikern gebe, sagte er: „Nein, den gibt es nicht. Wenn wir einladen, kommt niemand.“ Eike-Mitglied Michael Limburg ergänzte: „Wir haben auch an Kanzlerin Merkel geschrieben mit Unterschriften von 400 Wissenschaftlern, aber bis heute keine Antwort erhalten.“ Die alternativlose Frau Merkel hat es auch mit antwortlos.

Die Gletscher in den Alpen waren früher schon kleiner als heute

Welche Temperaturen in früheren Jahrhunderten und Jahrtausenden herrschten, als der Mensch mit seinem technischen („anthropogenen“) CO2 noch keinerlei Einfluss auf das Klima haben konnte, zeigte der österreichische Gletscherforscher Gernot Patzelt (Vortrag liegt bisher nicht vor), Professor für Meteorologe und Geographie aus Innsbruck. Er sprach über die Entwicklung der Gletscher und Waldgrenzen in alpinen Hochlagen in den zurückliegenden zehntausend Jahren. An ihnen könne man die Temperaturen, die früher geherrscht hätten, gut nachvollziehen. Warme und kalte Zeiten hätten sich abgewechselt. Seien die Hochlagen in warmer Zeit eisfrei gewesen, seien dort Bäume gewachsen. Bei Gletschervorstößen in kalter Zeit, seien sie im Gletscher verschwunden. An Ringen von Baumstämmen, die ein Gletscher freigebe, wenn er zurückgehe, könne man das sehen. Vor 5000 Jahren zum Beispiel seien Bäume in viel höheren Lagen der Alpen gewachsen, wo heute keine wachsen könnten. Also sei es damals viel wärmer gewesen. Patzelts Fazit lautet: „In den letzten zehntausend Jahren ist es zu 65 Prozent wärmer gewesen als heute. Das Klima heute zeigt also keine Anomalie. Die Gletscher in den Alpen waren früher schon kleiner, als sie heute sind. Seit 150 Jahren gehen sie jetzt schon wieder zurück, also unabhängig vom anthropogenen CO2.“ Dessen behaupteter Einfluss auf das Klima sei Unsinn.

Der Meeresspiegel steigt schon seit 10 000 Jahren

Als unzutreffend beschrieb der Meteorologe Klaus-Eckart undefinedPuls die Angstmacherei, der Anstieg des anthropogenen CO2 führe zum Anstieg des Meeresspiegels oder beschleunige ihn. Der Meeresspiegel steige schon seit rund zehntausend Jahren, seit dem Ende der letzten Eiszeit, aber der Anstieg beschleunige sich nicht, im Gegenteil, festgestellt werde ein abnehmender Trend. Im tatsächlichen Datenstand habe die Angstmacherei keine Grundlage. Weltweit gebe es einige hundert Pegelstandmessungen, auch hier zeige sich keine Beschleunigung, eher eine Abschwächung. An der deutschen Nordsee sei der Meeresspiegel in den zurückliegenden dreitausend Jahren um insgesamt 1,5 Meter gestiegen, also durchschnittlich um 0,05 Millimeter im Jahr. Von 1900 bis 2000 habe sich der Anstieg – trotz des zunehmenden anthropogenen CO2 – verlangsamt. Einen einheitlichen Meeresspiegel gebe es ohnehin nicht, irgendwo steige er, irgendwo sinke er auch.

„Der Meeresspiegel hat in der Klimadiskussion nichts zu suchen“

Ohnehin wird die Höhe des Meeresspiegels von vielen Einflüssen bestimmt. Puls nannte Magma und Schwerkraft, Hebungen und Senkungen von Küsten oder Kontinenten, Hebungen und Senkungen des Meeresbodens, Plattentektonik, Vulkanismus, Veränderungen der Windsysteme, Veränderungen der Meeres-Ströme, Verdunstung und Niederschlag (meteorologische Effekte), thermische Ausdehnung  oder  Kontraktion  des  Wasser  sowie  die  Eisveränderungen  (Schmelze  oder  Akkumulation).  Aber geredet werde immer nur von einem einzigen dieser insgesamt zehn Faktoren: vom Klima. Aber der Meteorologe und Klimaforscher Hans von Storch habe bewiesen, dass der Meeresspiegel in der Klimadiskussion nichts zu suchen habe. Puls belegte seine Ausführungen mit vielen Messdaten, Berechnungen und wissenschaftlichen Untersuchungsergebnissen. Zusammenfassend zitierte er den schwedischen Ozeanographen Nils-Axel Mörner, die auf Beobachtungen beruhenden Voraussagen für den künftigen Meeresspiegel im Jahr 2100 kämen auf einen Anstieg von 10 bis 15 Zentimetern. Das bedeute, vor einer starken Überflutung, wie in den meisten globalen Erwärmungsszenarien behauptet, müsse man keine Angst haben.

CO2-Verpressung in den Untergrund ist eine Absurdität

Aber entgegen allen solchen Erkenntnissen wird den Menschen weiterhin vorgetäuscht, das menschengemachte CO2 führe zu einem Treibhauseffekt, es bewirke eine globale Erwärmung, diese dürfe 2° Celsius nicht übersteigen, sonst sei die menschliche Existenz gefährdet, und folglich seien die CO2-Emissionen zu begrenzen. Zusätzlich wird daran gearbeitet, das – weil nicht zu verhindern – weiterhin emittierte CO2 durch Verpressen in den Untergrund zu entsorgen, genannt Carbon Captured Storage (CCS). Der Geologie-Professor Friedrich-Karl undefinedEwert nannte dieses Verpressen eine Absurdität: „Die Fakten beweisen, dass eine CO2–Entsorgung nicht notwendig, sondern schädlich ist.“ Wohl nannte er drei Untergrundzonen, die für CCS geeignet und harmlos seien (ausgebeutete Erdgaslagerstätten; porenhaltige Gesteinszonen, die von vielen hundert Meter dicken dichten, festen und verformungsstabilen Gesteinszonen überlagert werden; Gesteinszonen, die nicht mit CO2 und Grundwasser chemisch reagieren und dabei ihr Volumen und  ihren Spannungszustand verändern). Aber er führte auch fünf ungeeignete andere Zonen auf (geschichtete und geklüftete Gesteinskörper, besonders bei horizontaler Schichtung; tektonisch gestörte Gesteinskörper; geschichtete und geklüftete Gesteinskörper ohne Überlagerung einer ausreichend mächtigen dichten, festen und verformungsstabilen Gesteinszone; geschichtete und geklüftete Gesteinskörper ohne Überlagerung einer ausreichend mächtigen dichten, festen und verformungsstabilen Gesteinszone; Gesteinskörper, die bergmännisch genutzt werden).

Bei Verpressung Gefahr von Erstickungstod in CO2-Seen

CO2 sei zwar nicht giftig, aber schwerer als Luft. Bei einem Austritt von großen Mengen bilde es eine auf dem Boden schwebende dichte Wolke, verdränge dort die Atemluft und führe zum Tod durch Ersticken. Beispiele aus vielen Bereichen seien bekannt, Unfälle recht häufig. Im Untergrund gespeichertes CO2 stehe unter Druck und könne austreten. Bei der CCS-Entsorgung soll anthropogenes  CO2  (vor allem aus Kohlekraftwerken), wie Ewert weiter ausführte, mit Drücken bis zu 250 bar eingepresst werden. „Die Wahrscheinlichkeit ist groß, dass dabei CO2 aufsteigt und an der Oberfläche austritt. In abflusslosen Mulden können sich CO2-Seen bilden, in denen Lebewesen ersticken.“ Es komme zu CO2-Unfällen. Ewerts  Zusammenfassung: „Tatsächlich wird die Entsorgung von CO2 nicht gebraucht. Standort-Untersuchungen  sind nicht nötig. Der CO2-Einfluss auf das Klima ist unerheblich, und ein potentielles Risiko wird vermieden.“  

Mehr CO2 ist für die Menschen gut, nicht schlecht              

Zusätzlich hob Ewert hervor, dass CO2 über die Photosynthese der Grundbaustoff der Nahrungskette,  also lebenswichtig ist, das Pflanzenwachstum fördert, der Grundbaustoff für die Skelette vieler Tierarten, vieler Gesteine sowie ein wichtiges Industriegas für viele Anwendungszwecke ist. Mehr CO2 bedeute zum Beispiel höhere Ernten an Weizen und anderen Ackerbauprodukten und sei daher gut für die Menschen. „Wenn man den Kindern in der Schule beibringt, CO2 sei gefährlich, dann ist das ein Verbrechen.“

Täuschungen und Vertuschungen des „Weltklimarates“ IPCC

Über die Zusammenhänge zwischen Klima, Wasser, CO2 und die Sonne sprach der kanadische Paläogeologe und Professor Jan undefinedVeizer, über den Einfluss der kosmischen Strahlung auf das Klima samt neuesten Erkenntnissen und deren Bedeutung für den Klimawandel der israelische Atmosphärenphysiker und Professor Nir Shaviv, über die  klimatische Rolle der Sonne und der kosmischen Strahlung der dänische Atmosphärenphysiker und Professor Henrik Svensmark. Der britische Meteorologe Piers undefinedCorbyn von Weather Action, London, erläuterte, dass und wie akkurate und langfristige Wettervorhersagen möglich sind und auch erfolgreich waren. Der promovierte amerikanische Jurist Christopher C. undefinedHorner stellte die Profiteure des staatlichen Klimaschutzes vor und in einem zweiten Vortrag die Täuschungen, Vertuschungen und das Spurenverwischen durch den „Weltklimarat“ IPPC (Intergovernmental Panel on Climate Change). In das gleiche Horn stieß die kanadische Journalistin und Buchautorin Donna Laframboise mit ihrem Thema „Warum fast nichts, was Sie über den IPPC wissen, wahr ist“ (Ihr Blog: http://nofrakkingconsensus.com). Die Geschichte einer Vertuschung und die Korruption von Wissenschaftlern („Climategate“) war auch das Thema des britischen Autors Andrew undefinedMontfort. und undefinedhier. Der Diplom-Ingenieur Tilman undefinedKluge, Bad Soden, sprach über windige Windkraftverträge (www.windknast.de), darunter auch über Vorteilsgewährungen an und Vorteilsannahmen von Amtsträgern für Zustimmungen zum Aufstellen von Windkraftanlagen.

Die katastrophale Produktivität von Strom mit Wind und Sonne

Mit den wahren Kosten des „grünen“ Stroms befasste sich der Experimentalphysiker Gerd undefinedGanteföhr, Professor an der Universität Konstanz: „Die Arbeitsproduktivität der erneuerbaren Energien ist vollkommen katastrophal, die können gar nicht wirtschaftlich sein.“ So hätten 2010 zum Beispiel in der Fotovoltaik 133 000 Menschen gearbeitet und 12 Milliarden kWh Strom erzeugt. Im gleichen Jahr hätten in einem einzigen Braunkohlewerk (Niederaußem) 700 Menschen gearbeitet und 27 Milliarden kWh Strom geschafft. Und auch diese Produktivitätsanalyse stellte Ganteföhr vor: Um im Jahr 1 Milliarde kWh Strom zu erzeugen, geling das mittels Kohle mit 73 bis 106 Vollzeitstellen, mittels Uran mit 77 bis 125, mittels Wind 650 bis 850, mittels Biomasse mit 507 bis 960 und mittels Fotovoltaik mit 1228 bis 1764 Vollzeitstellen. 

Strom-Mehrkosten 170 Euro je Haushalt im Monat

Ganteföhr weiter: „Die deutsche Energiewende wird kaum einen Einfluss auf die globalen CO2-Emissionen haben, denn Deutschland ist zu klein, und die meisten anderen Länder können dem Vorbild Deutschlands nicht folgen.“ Aber die Kosten der Energiewende lägen für Deutschland in der Größenordnung der Kosten für die Wiedervereinigung. Die Mehrkosten beliefen sich für die 40 Millionen Haushalte auf 83,1 Milliarden Euro im Jahr und je  Haushalt auf 173 Euro im Monat. Diese hohen Kosten und die niedrige Produktivität der erneuerbaren Energien würden zu einem Sinken des Lebensstandards führen und die Energiekosten nicht sozial abgefedert, sondern müssten anteilig auch von den einkommensschwachen Haushalten getragen werden. (Der Kern und Teile seines Vortrags finden sich hier: http://www.faszinationphysik.ch/sites/einzelvortraege.php?id=4).

Der verborgene Zweck: De-Industrialisierung und „große Transformation“

Der Physiker und Geograph Werner undefinedKirstein, Professor an der Universität Leipzig. beschrieb die Klimaschutzpolitik als eine Heilslehre, die zu einer Ersatzreligion geworden sei. „Rationale Argumente prallen an Glaubensinhalten ab.“ Fast alle Menschen seien anfällig für Katastrophenszenarien.  Die Angst vor Feuer (Hölle) und Wasser (Sintflut) seien Urängste der Menschen, mit denen man auch ideologische und politische Ziele erreichen könne. Verfolgt würden mit der Klimaschutzpolitik diese Ziele: erstens gesellschaftspolitische Änderungen durch langsame, schrittweise De-Industrialisierung und Dezentralisierung, genannt die „große Transformation“; zweitens gigantische Einnahmen aus dem Emissionshandel mit „Verschmutzungszertifikaten“, Klimasteuer; drittens Ankurbelung der Konjunktur mit neuen CO2-reduzierenden Techniken. Für viele Menschen seien das vielleicht sogar erstrebenswerte Ziele, aber warum mit der perfiden Idee der CO2-Lüge? Und warum  nicht mit  logischen  Argumenten statt mit  ideologischen? 

Eine klimapolitische Weltdiktatur

Bezogen auf das Ziel „die große Transformation“ zur  „Green Economy“ zitierte Kirstein Maurice Strong, den ersten UNEP-Direktor mit dessen Äußerung auf Klima-Konferenz von 1992 in Rio de Janeiro:    „Besteht nicht die einzige Hoffnung für diesen  Planeten in dem Zusammenbruch der industriellen Zivilisation? Liegt es nicht in unserer Verantwortung, dafür zu sorgen, dass dieser Zusammenbruch eintritt?“ Der Weg dahin sei, mit CO2-Ängsten zu schüren. Kirstein zitiert auch den Sozialwissenschaftler Gerhard Schulze, Universität Bamberg: "Ich sehe allmählich die Bereitschaft zum Demokratieverzicht. Es stimmt mich sehr bedenklich, wenn auf Klimakongressen wie jüngst die Äußerung fällt oder die Frage gestellt wird, ob man autoritären Regimen nicht besser zutrauen könnte als einer Demokratie, die angeblich anstehenden Probleme in den Griff zu bekommen.“  „Was sich da am Horizont abzeichnet ist eine klimapolitische Weltdiktatur.“  (8. Dezember 2009)

Papst Al Gore, zwei seiner Bischöfe in Potsdam, jüngstes Gericht , Ablasshandel, Ketzer

Daher sieht auch der Ökonom und Wirtschaftsphilosoph Gerd Habermann in der Klimaschutzpolitik eine Gefahr für die Freiheit. Zuerst gehe es an die Freiheit von Forschung und Lehre, dann an weitere Freiheiten. Auch für Habermann hat sich diese Politik zur Religion verdichtet. Selbst einen Papst habe man dafür schon gefunden: den ehemaligen US-Vizepräsidenten Al Gore. Zwei deutsche Bischöfe habe dieser in Potsdam (die Professoren Rahmstorf und Schellnhuber). Als Jüngstes Gericht werde die Klimakatastrophe instrumentalisiert. Der käufliche Erwerb von CO2-Emissionsrechten entspreche dem einstigen Ablasshandel, und ihre Ketzer kenne diese religiöse Welt ebenfalls: die „Klimaleugner“. 

Die ehemalige Bürgerrechtlerin und Ex CDU MdB Vera Lengsfeld zog in ihrem viel beachteten Abendvortrag weitreichende Parallelen zwischen der heute obsessiv als Wissenschaft bezeichneten Klimareligion und ähnlichen Pseudowissenschaften der Vergangenheit, wie der Eugenik.

Hauptautor Dr. K.P. Krause,

Erstell von EIKE unter tlw. Verwendung von Textteilen aus der Basler Zeitung und der Weltwoche.




Der Meeresspiegel im Sumpf der Skandale

Niemand spricht das mit auch nur annähernd so viel Elan aus wie Mohammed Nasheed, Präsident der Malediven. Im Vorlauf zu dem Klimagipfel erklärte er, dass er „eine Inselnation führe, die unter den Wellen verschwinden könnte, wenn all diese Gespräche zum Klima nicht bald in Taten münden".

Seitdem er eine Unterwassersitzung seines Kabinetts geleitet hatte, war Nasheed unermüdlich bei der Sache, um andere tief liegende Nationen zu drängen, Ähnliches hervorzubringen. Er führte den Vorsitz solcher Nationen in Bangladesh, um Noten im Vorlauf von Durban aneinander anzupassen, und sie stimmten darin überein, ihre eigenen Kohlenstoffemissionen zu begrenzen.

Ban Ki-Moon, Führer der Vereinten Nationen, war erfreut – und sagte, dass es unfair sei, „von den Ärmsten und am meisten Verwundbarsten zu verlangen, allein die Hauptlast der Auswirkungen des Klimawandels zu ertragen“ und rief andere Länder auf, nach Zahlungen reicherer Länder zu verlangen, um Maßnahmen zur Anpassung zu finanzieren.

Ich könnte vielleicht helfen. Als jemand mit einiger Erfahrung auf diesem Gebiet kann ich den tief liegenden Ländern versichern, dass es sich hierbei um einen falschen Alarm handelt. Das Meer steigt nicht steil an. Ich habe viele der tief liegenden Gebiete während meiner 45-jährigen Laufbahn studiert, habe Daten zum Meeresspiegel aufgezeichnet und interpretiert.

Für Feldstudien war ich sechsmal auf die Malediven gereist; ich war in Bangladesh, dessen Umweltminister behauptet hatte, dass Überflutungen wegen des Klimawandels zu bedrohlichen 20 Millionen „ökologischer Flüchtlinge“ führen könnten. Ich habe sorgfältig die Daten des „untergehenden“ Tuvalu untersucht. Und ich kann berichten, dass diese Nationen zwar Probleme haben, aber keine Angst vor einem steigenden Meeresspiegel haben müssen.

Mein letztes Projekt führte mich auf eine Feldexpedition nach Indien an die Küste von Goa, um Beobachtungen mit archäologischen Informationen abzugleichen. Das Ergebnis ohne Umschweife: Es gibt keinen fortgesetzten Anstieg des Meeresspiegels!

Der Meeresspiegel war während der letzten 50 Jahre oder so stabil, nachdem er um 20 cm um das Jahr 1960 gefallen war; er lag im 18. Jahrhundert ein ganzes Stück unter dem heutigen Level und im 17. Jahrhundert etwa 50 bis 60 cm über dem heutigen Niveau. Daraus wird deutlich, dass Anstieg und Rückgang des Meeresspiegels völlig unabhängig von der sog. „Klimaänderung“ erfolgen.

Dies der Öffentlichkeit zu erklären kann sehr schwierig sein.

Es gibt so viele falsche Vorstellungen über den Meeresspiegel, wobei die Vorstellung, dass er über die ganze Welt konstant ist, nicht die geringste ist. Tatsächlich gibt es große Variationen – bis zu zwei Metern. (Anmerkung: dieser Wert von 2 m bezieht sich auf die dynamische Oberffäche in Bezug auf die (statische) Geoid Oberfläche*) 

Die Differenz von 180 m gilt für die Oberfläche des Geoids unter Berücksichtigung der theoretischen Oberfläche der Hydrosphäre. Man muss nicht an eine konstante Meeresoberfläche denken, sondern an eine imaginäre Badewanne, in der das Wasser vor- und zurückschwappt. Dies ist ein dynamischer Prozess.

Im Jahre 900 beispielsweise lag der Meeresspiegel in Tansania hoch und in Peru niedrig; ein Jahrhundert später ist es genau umgekehrt. Oft wird auch vergessen, dass zwar Meeresspiegel steigen und fallen können („Eustatik“), dass aber auch Landmassen selbst steigen und fallen können („Isostasie“).

Heute ist alles, worüber die Welt redet, der Meeresspiegel – weil es zufällig mit der Mär des IPCC über schmelzende Eisschilde, verschwindende Gletscher und anthropogener globaler Erwärmung zusammenfällt. Dies führt zu Verwirrung, wenn es um Fälle wie Bangladesh geht, dessen Misere genau das Gegenteil von dem ist, was Umweltaktivisten und das IPCC behaupten.

Bangladesh leidet wegen des Regens im Himalaya. Das hat nichts mit dem Meer zu tun. Es leidet auch unter den Wirbelstürmen, die das Wasser landeinwärts treiben.

Auch das hat nichts mit dem Meer zu tun. Bangladesh leidet, weil die Hälfte seiner Landmasse weniger als acht Meter über dem Meeresspiegel liegt – was eine hohe Anfälligkeit für küstennahe Überflutungen zur Folge hat. Aber es war immer das Schicksal von Deltagebieten: Es hat wenig, wenn überhaupt, mit dem „Klimawandel“ zu tun.

Vor zwei Jahren besuchte ich das Gebiet mit dem Delta des Sundarban-Flusses und konnte klare Beweise für die küstennahe Erosion beobachten, aber keinen Anstieg des Meeresspiegels. Tatsächlich war er 40 bis 50 Jahre lang stabil. Eine Möglichkeit, dies zu belegen, besteht darin, die Mangroven zu untersuchen, deren horizontale Wurzelsysteme heute als Folge der Erosion etwa 80 cm über dem Schlick liegen.

Aber im vierten Zustandsbericht des IPCC (2007) steht das ganz anders: „Selbst unter dem konservativsten Szenario wird der Meeresspiegel am Ende des 21. Jahrhunderts 40 cm höher liegen als heute, und es wird erwartet, dass dies zu einer Steigerung der jährlichen Anzahl von Menschen, die aus überfluteten küstennahen Gebieten fliehen müssen, von 13 Millionen auf 94 Millionen steigt. Fast 60% dieser Zunahme wird es in Südasien geben“.

Das ist Unsinn! Die wirklichen Experten bzgl. des Meeresspiegels finden sich in der Kommission der International Union for Quaternary Reseach (INQUA), die sich mit Änderungen des Meeresspiegels und der Evolution von Küsten befasst, und nicht beim IPCC. Unsere Forschungen sind das, was die Klimalobby eine „unbequeme Wahrheit“ nennen könnte: sie zeigen, dass der Meeresspiegel während der letzten drei Jahrhunderte um einen Wert oszilliert hat, wie er dem heutigen entspricht.

Dies liegt nicht an schmelzenden Gletschern: Der Meeresspiegel wird durch eine Vielzahl von Faktoren beeinflusst, zum Beispiel durch die Geschwindigkeit, mit der die Erde rotiert. Er stieg in der Größenordnung 10 bis 11 cm zwischen 1850 und 1940. Dann kam der Anstieg zum Stillstand, oder er fiel sogar ein wenig um 1970. Seitdem ist er im Wesentlichen gleich geblieben.

Also muss jedes der Probleme, die mit dem „steigenden Meeresspiegel“ in Zusammenhang gebracht werden, das Ergebnis anderer, lokaler Faktoren oder grundlegender Fehlinterpretation sein. In Bangladesh beispielsweise wurde die zunehmende Versalzung der Flüsse tatsächlich durch Dammbauten im Ganges hervorgerufen, die den Zufluss frischen Wassers behindert haben.

Der Vierte Zustandsbericht des IPCC behauptet, dass es „starke Beweise“ dafür gibt, dass der Meeresspiegel während der letzten Jahrzehnte gestiegen ist. Er geht sogar so weit zu behaupten: „Satellitenbeobachtungen, verfügbar seit den neunziger Jahren, stellen genauere Daten zum Meeresspiegel zur Verfügung… Diese Jahrzehnte lange Satellitenaufzeichnung zeigt, dass der Meeresspiegel seit 1993 mit einer Rate von rund 3 mm pro Jahr gestiegen ist, also signifikant stärker als im Mittel des vorigen halben Jahrhunderts“.

Fast jedes Wort davon ist unwahr. Satellitenbeobachtung ist eine wundervolle und vitale neue Technik, die eine Rekonstruktion von Änderungen des Meeresspiegels auf der gesamten Ozeanoberfläche erlaubt. Aber sie wurde vom IPCC für politische Ziele gekidnappt und verbogen.

Im Jahre 2003 wurde die Satellitenmessung auf mysteriöse Weise nach oben korrigiert, um einen plötzlichen Anstieg um 2,3 mm pro Jahr zu erhalten. Als ich diese falsche Anpassung auf einer Konferenz zur globalen Erwärmung in Moskau kritisiert habe, gab ein britisches Mitglied der IPCC-Delegation öffentlich als Grund für diese neue Kalibrierung zu: „Wir mussten das tun, sonst hätte sich kein Trend ergeben“.

Dies ist ein Skandal, den man „Meeresspiegel-gate“ nennen sollte.

Prof. Dr. Nils-Axel Mörner

* Die oft genannten 180 m Differenz bezieht sich auf die Geoid Oberfläche in Bezug auf die theoretische Oberfläche der Hydrosphäre.

Der Autor war Leiter von paleogeophysics and geodynamics at Stockholm University und Präsident der INQUA-Kommission zu Änderungen des Meeresspiegels und der Entwicklung küstennaher Gebiete.

Übersetzt von Chris Frey für EIKE




Wie ticken manche Journalisten ? Teil 2

Nüchtern betrachtet waren meine Versuche, so etwas als Unfug zu entlarven, wohl zwecklos. Wenn Antworten kamen, waren sie ähnlich wie die von Herrn Schrader. In letzter Zeit hat sich die Hysterie mehr auf das Gebiet "dramatische Zunahme der Extremwetterereignisse" verlegt – hier kann jeder aus tiefstem Herzen bekennen, "Ja, ich finde, es wird alles immer schlimmer!", ohne dass jemand noch etwas dagegen einwenden kann, z.B. dass nichts so subjektiv u. nicht-wissenschaftlich ist wie das Reden über Anmutungen, die das Wetter in mir auslöst! Wo doch die Klimawissenschaft (genauer gesagt, ein ganz bestimmter Teil von ihr) diesen Anmutungen eine "wissenschaftliche Basis" gibt, und die Wetternachrichten sind ja auch ganz in diesem Sinne! Also MUSS es doch stimmen. Mir fällt da wirklich nur noch die Metapher vom Kampf gegen Windmühlenflügel ein. Kaum ist der erste vorüber, kommt schon der nächste. Eigentlich scheint es völlig sinnlos zu sein.

Ich habe mich leider mit den falschen Wissenschaftlern abgegeben, z.B. dem Lehrbuchautor Helmut Kraus (der nur "leider", wie Rahmstorf einwenden könnte, bereits pensioniert ist und "daher" kein glaubwürdiger Wissenschaftler mehr sein kann, wie so viele aus dem Bereich der Skeptiker: das sind doch alles senile Spinner, nicht wahr!). Kraus – kein Gegner der Treibhaustheorie übrigens, wie sein Meteorologie-Lehrbuch zeigt – kann zum Thema "Extremwetter" nur immer wieder dies sagen: ein Beleg für die Zunahme verschiedener Arten solcher Extreme (Kraus spezifiziert sie, etwa Hitze- u. Kältewellen, Sturmfluten, Tornados u.a.) konnte bisher nicht erbracht werden! Das Seltsame ist, dass AGW-Anhänger auf eine so beschaffene Aussage eines solchen, echten Experten nur in einem Modus reagieren können: gar nicht! Warum? Hier liegt eine Problematik zugrunde, die man einmal klar benennen muss: die meisten AGW-Anhänger sprechen von etwas, was sie für bereits existierende, sich abspielende Realität halten — in Wirklichkeit haben sie aber das im Sinn, was ihnen eingetrichtert wurde als ZUKUNFT der Klimaentwicklung im 21. Jh. Also die Ergebnisse der zahllosen computergestützten Klimasimulationen. Wenn nun etwas Außerordentliches geschieht, etwa das paradoxe Nebeneinander von Dauerhitze und sintflutartigen Regenfällen über denselben nördlichen Breiten im Juli-Aug 2010, dann sagen sie sich: "Das ist, das KANN DOCH NUR ein Beweis dafür sein, dass die Klimasimulationen richtig sind: die zerstörerischen Wetterextreme nehmen immer mehr zu!" (Und genau so war die Presse damals!) Dass das IPCC im vorvorigen Bericht noch in aller Deutlichkeit eingeräumt hat, dass simulierte "Prognosen" (Szenarien) des Klimas UNMÖGLICH sind, weil es sich um ein gekoppeltes Geflecht nicht-linearer Prozesse handelt, wissen diese selben Menschen nicht! Die Schuld an dieser Diskrepanz muss man wohl dem IPCC und den selbsternannten Klimapolitikern (und im gleichen Sinne agitierenden NGOs) geben. So kommt es dazu, dass Millionen daran glauben, dass diese Simulationen "uns die Zukunft voraussagen". Und von diesem Glauben sind auch Wissenschaftsjournalisten nicht ausgeschlossen; nein, sie sind die "Speerspitze". Als ich im August 2010 zu diesem eben genannten Ereignis auf der Nordhalbkugel recherchierte (für Europa hat sich die Benennung "V b-Lage" – Fünf-Be – eingebürgert, nach einer Klassifikation der Zugbahnen von Zyklonen über Europa durch Jacob van Bebber, sie tritt bei Blockadesituationen des Jetstreamverlaufs auf), stieß ich auf eine neue Arbeit von Michael Lockwood: er hat über mehrere Jahrhunderte die Verteilung von Vb-Lagen untersucht, und stieß darauf, dass sie dann gehäuft auftraten, wenn sich die Sonne in einem Aktivitätsminimum befand. Übersetzt in "Erdklima" heißt das: in Kühleperioden! Anm.: Lockwood ist meines Wissens KEIN Skeptiker oder AGW-Begner, vermutlich ist er einfach das, was es braucht: einen sorgfältigen Wissenschaftler. Sein Thema ist die Sonnenaktivität.

Glauben Sie, auch nur eine einzige Zeitschrift hätte dieses Ergebnis zitiert? Nein. Stattdessen "wussten" alle bereits, dass diese für Russland u. Pakistan katastrophale Blockadelage ein weiterer Beweis sei für den sich verschlimmernden Klimawandel. Dass ein Einzelereignis so niemals als Beweis herangezogen werden kann, ist den Kommentatoren ebenfalls nicht bekannt. Dazu hätte man erst einmal zeigen müssen, dass solche V b-Lagen zugenommen haben (die letzte war 2002, das berüchtigte Elbehochwasser). Und dann hätte man vor der unangenehmen Überlegung gestanden, diese Häufung möglicherweise als Indiz — abnehmender Temperaturen im letzten Jahrzehnt zu deuten…

Folgender Punkt ist mir sehr wichtig: die AGW-Überzeugten sprechen von etwas, von dem sie gar nicht genau wissen, wie es zustandekam und worauf es sich bezieht — sie vertauschen eine mögliche (aber nicht vorhersagbare) Zukunft mit der Gegenwart. Wenn aber alle denselben Fehler machen, dann — passiert gar nichts. (Was allerdings die schlimmsten Befürchtungen bestärkt, dass es sich hier um eine ausgewachsene Ideologie mit weltweit Abermillionen von Anhängern handelt, die ein bisschen das Potenzial zum Totalitarismus birgt, schon allein in der größenwahnsinnigen Behauptung, wir könnten "das Klima retten" mit einer einzigen Methode, "der Reduzierung des Klimagiftes CO2".)

Für die Computersimulationen werden weltweit sicherlich Milliardenbeträge ausgegeben; was kostet allein schon ein solcher "Klimarechner" (sein Stromverbrauch entspricht einer Kleinstadt), und natürlich müssen die Wissenschaftler, die solche Geräte in ihrem Institut betreiben, auch Bestandsschutz üben! Sie werden sich nicht ins eigene Fleisch schneiden und irgendeiner Form von "Skeptizismus" Raum geben.- Bei den Millionen "Kunden" der Klima(Hiobs)botschaften durch alle Medien geht es dagegen sehr wesentlich um Ängste, die sich in einer Art "selffulfilling"-Zirkel aufrechterhalten.

Welch skurrile Formen so etwas annehmen kann, das zeigte eine Erfahrung, die ich 2005 machen musste – ich hatte damals angefangen, kritisch, "zur Vorsicht mahnend" über das damals sich in den Mittelpunkt drängende Thema "anthropogener Klimawandel durch CO2" zu schreiben — das wurde sogar veröffentlicht (hier möchte ich ein Lob für die Zeitschriften aussprechen, die das ermöglichten, z.B. die möglicherweise wenig bekannte anthroposophische Zeitschrift "Das Goetheanum". Ja, gerade die brachte solche Aufsätze, die nicht stromlinienförmig waren wie etwa im SPIEGEL zum damaligen Zeitpunkt — der damals sogar den "Hockeystick" als Beweis für die Klimakatastrophe abbildete). Als Reaktion auf einen Artikel erhielt ich 2005 einen erbosten Brief eines Lesers (und noch weitere…), der sich über meine "Verharmlosungen" empörte u. mir einen Ausriss aus der Süddeutschen mitschickte, als "Beweis", dass ich im Irrtum sei — um mich aufzuklären über das, was wirklich stattfindet. Hierbei handelte es sich um den Bericht über eine Computersimulation, deren Ergebnis den Lesern sofort brühheiß weitergegeben wurde: Es sei möglich, dass sich die Erde im bevorstehenden Jahrhundert möglicherweise sogar um 11° erwärmen könnte! Was mein Kritiker nicht machte, und was ich nachholte: ich las den Aufsatz im englischen Original (wenn meine Erinnerung nicht trügt, war es aus Nature) — und mir fiel die Kinnlade runter. Es wurde klar, um welche Art von "Prognose" es sich handelte: man hatte ein Klimaprogramm, das auf einem Home-PC laufen kann (!), an Freiwillige verteilt, um möglichst viele parallele Durchläufe zu gewinnen, aus denen dann die Bandbreite der Klimasensitivität bei einer CO2-Verdoppelung abgelesen werden konnte –: die Ergebnisse umspannten dabei negative Werte (wo es also kühler werden würde) bis zu extremster Erwärmung, eben von +11° (die Wissenschaftler hatten "selbstverständlich" die negativen Beispiele von vorneherein als "unbrauchbar" ausgesondert!). Die Details erinnere ich nicht mehr präzise, aber um die geht es mir auch nicht, sondern um den soziologischen Mechanismus, der sich hier exemplarisch vollzog: eine Autorität (Wissenschaftler) wird gedankenlos durch eine zweite Autorität ("Wissenschaftsredakteur") vereinfacht und "verständlich" an den begierigen Leser vermittelt — schon der Journalist hatte sich nicht die Arbeit gemacht, den Originalaufsatz GENAU zu lesen, sondern sich nur die besonders sensationell klingenden Aussagen herausgepickt. Das rezipiert nun ein Leser, der nicht weiter nachdenkt und -fragt, aber seinerseits von einer zunehmenden Angst getrieben ist, "dass wir Menschen das Klima kaputtmachen". Da das, was er zu lesen bekam, diese Angst bestätigte, war jedes weitere Nachdenken u. Fragen überflüssig, ja, sogar unmoralisch, weil es ja sofortiges Handeln nur verzögerte!

Das war eine meiner ersten drastischen Erfahrungen mit der "Kompetenz" und Glaubwürdigkeit von Journalisten, die in führenden Zeitschriften über das Klimathema schrieben und schreiben — zahllose weitere Beispiele sollten folgen: zum Eisbären, zu Bangladesch, zu den Hurrikans usw. usw. Immer dasselbe, die nie ruhende Windmühle. Eine umfassende Recherche hat beim Redakteur nicht stattgefunden, und was ich noch schlimmer finde: die eigenen Aussagen wurden häufig nicht einmal auf LOGIK überprüft. Inzwischen bin ich der Meinung, dass es den investigativen Journalismus auf diesem Felde NICHT MEHR GIBT, oder: nie gegeben hat. Was diese Menschen dennoch immunisiert gegen Kritik, scheint mir zum einen einfach Arroganz zu sein — und das Bewusstsein, "dem Guten zu dienen", wenn man über Klimapolitik schreibt und den Alarmismus ordentlich anfeuert.

Unverkennbare Arroganz zeigt sich in einem Satz von Herrn Schrader, den ich am Schluss zitieren möchte, weil er mich so empört hat, dass ich diesen Blogbeitrag geschrieben habe:

Nach Ansicht von Herrn Schrader von der Südddeutschen könne es "so etwas wie einen Aufklärungsanspruch des Lesers gegenüber den Redakteuren nicht geben." Damit hat er sich selbst zur unanfechtbaren Autorität erhoben. Leser sind für ihn offenbar zu dumm, sie sollen einfach lesen, was da steht, es wie das Evangelium verinnerlichen und still sein. Dass sich in seiner Leserschaft auch Wissenschaftler finden könnten, die ein dringendes, nämlich in der Sache begründetes Bedürfnis nach "Aufklärung gegenüber einem Redakteur" haben könnten, auf die Idee ist er gar nicht gekommen. Damit hat er meine persönlichen "Qualitätsmaßstäbe" für ernstzunehmenden Wissenschaftsjournalismus völlig verfehlt. Zum Glück muss ich jetzt nicht ein Abo kündigen, ich war ja schon seit 2005 auf Distanz gegangen.

Michael Kalisch, Diplom Biologe und freier wissenschaftlicher Autor




Warum ich die Idee von der globalen Erwärmung ablehne

Haben Sie sich jemals überlegt, wie schwierig es ist, die Temperatur des Planeten Erde zu erfassen? Welche Temperatur wollen Sie messen? Die Luft? Die Erdoberfläche absorbiert mehr als doppelt so viel der einfallenden Sonnenstrahlung wie die Luft. Aber wenn Sie die Temperatur an der Oberfläche messen, um welche Art von Oberfläche handelt es sich dabei? Die feste Erde oder die Ozeane? Es gibt doppelt so viel Wasser wie Land auf der Erde. Wenn man die Wassertemperatur misst, in welcher Tiefe soll man das tun? Wie wird die Zeit, in der sich das Tiefenwasser mit dem Flachwasser mischt, sich auf die Messungen auswirken? Und wie in aller Welt wollen Sie feststellen, welche mittlere Wassertemperatur im Südpazifik vor einhundert Jahren geherrscht hatte? Wie wollen Sie Messungen der Luft-, Land- und Wassertemperatur kombinieren? Selbst wenn man nur meteorologische Messungen der Lufttemperatur verwendet, wie will man Änderungen der geographischen Breite, der Höhe und des Landverbrauchs kompensieren?

Eine mittlere planetarische Temperatur zu bestimmen ist nicht einfach so möglich, sondern ein extrem kompliziertes Problem. Selbst die besten Daten sind verdächtig. Anthony Watts und seine Kollegen haben hier 82,5 Prozent aller Stationen im US Historical Climatology Network untersucht. Sie haben gefunden – erschreckenderweise – dass über 70 Prozent dieser Stationen wahrscheinlich von Fehlern größer als 2°C verfälscht werden. Von den verbleibenden Stationen haben 21,5 Prozent einen inhärenten Fehler größer als 1°C. Die behauptete Größenordnung der globalen Erwärmung während der letzten 150 Jahre beträgt weniger als 1°C. Und doch ist selbst in technologisch fortschrittlichen Ländern wie den USA der inhärente Fehler bei über 90 Prozent der untersuchten Stationen größer als das mutmaßliche Signal. Und diese Fehler verteilen sich nicht gleichmäßig, sondern reflektieren systematisch eine Verzerrung hin zu einer Erwärmung aufgrund der Verstädterung. Watts hat zahllose Beispiele dokumentiert, wie Messfühler der Lufttemperatur nahe an Air Condition-Anlagen oder in der Mitte von Parkplätzen positioniert waren. Ein typisches Szenario sieht so aus: Ein Temperaturfühler, der sich vor 100 Jahren inmitten von Weideland befand, ist heute umgeben von einem Betondschungel. Die Verstädterung war eine Einbahnstraße. Es ist gut möglich – sogar wahrscheinlich – dass der gesamte aus den Daten ermittelte Temperaturanstieg ein Kunstkonstrukt ist, welches das Wachstum städtischer Wärmeinseln spiegelt.

Der „Leugner” wird als eine Person porträtiert, die es ablehnt, den einfachen Beweis seiner Wahrnehmung zu akzeptieren. Dabei ist es tatsächlich der Alarmist, der nicht weiß, wovon die Rede ist. Die Temperatur der Erde und deren Variationen während der letzten 150 Jahre sind nur wenig belegt. Wenn jemand das anders sieht, dann hauptsächlich deswegen, weil er nicht versteht, was Wissenschaft ist. Die meisten dieser Leute haben niemals Wissenschaft betrieben oder über die inhärenten Schwierigkeiten und Ungewissheiten nachgedacht.

Und was ist „globale Erwärmung” überhaupt? Schon vor so langer Zeit wie im 5. Jahrhundert vor Christus hat Sokrates darauf hingewiesen, dass klare Definitionen eine notwendige Voraussetzung für bedeutsame Diskussionen seien. Die Definition des Begriffes „globale Erwärmung“ verändert sich mit dem Verlauf der Diskussion. Falls man die globale Erwärmung ablehnt, hat man auch die Existenz des Treibhauseffektes in Abrede gestellt, ein reproduzierbares Phänomen, das man analytisch im Labor studieren kann. Aber wenn man gegen politische Aktionen ist, verändert sich die globale Erwärmung in eine alptraumhafte und spekulative planetarische Katastrophe. Küstennahe Städte versinken im steigenden Meer, Spezies sterben aus, und grünes Weideland verwandelt sich in kochend heißen Sand.

Tatsächlich sind die sog. „Leugner” keine „Leugner”, sondern Skeptiker. Skeptiker bestreiten nicht die Existenz des Treibhauseffektes. Hält man alle anderen Faktoren konstant, soll die Lufttemperatur durch die Akkumulation anthropogenen CO2’ in der Atmosphäre steigen. Christopher Monckton hat die entsprechende Wissenschaft kürzlich begutachtet und dabei heraus gefunden, dass es bei einer Verdoppelung des CO2-Gehaltes zu einer Temperaturerhöhung um etwa 1°C kommen würde. Falls diese Temperaturzunahme jene in der geologischen Vergangenheit spiegelt, taucht das meiste davon in höheren Breiten auf. Diese Gebiete werden für Menschen, Pflanzen und Tiere besser bewohnbar. Die Biodiversität wird steigen. Wachstumsperioden werden sich verlängern. Was ist daran schlecht?

Jede Temperaturzunahme über 1°C bei einer Verdoppelung des CO2-Gehaltes muss aus einer positiven Rückkopplung des Wasserdampfes kommen. Wasserdampf ist das hauptsächlichste Treibhausgas in der Erdatmosphäre, und warme Luft enthält mehr davon als kalte Luft. Die Theorie lautet, dass eine höhere Konzentration von Wasserdampf in der Atmosphäre zu einer positiven Rückkopplung und damit zu einer Verstärkung der Erwärmung durch CO2 führt, und zwar um einen Faktor drei bis fünf. Aber das ist nichts als Spekulation. Wasserdampf führt auch zur Wolkenbildung. Wolken haben einen abkühlenden Effekt. Gegenwärtig weiß niemand, ob die Rückkopplung des Wasserdampfes positiv oder negativ ist.

Vorhersagen zur globalen Erwärmung können nicht mit mathematischen Modellen getestet werden. Es ist unmöglich, Computermodelle komplexer natürlicher Systeme zu konstruieren. Die einzige Möglichkeit, diese Modellergebnisse zu untermauern besteht darin, sie mit Vorhersagen für 100 Jahre im Voraus zu vergleichen. Und ein solches Ergebnis wäre für sich genommen auch nicht signifikant wegen der möglichen kombinierten Auswirkung anderer Variablen des Klimasystems. Das Experiment müsste über viele 100 Jahre lange Zyklen wiederholt werden. Mit anderen Worten, die Theorie einer katastrophalen globalen Erwärmung kann in der Zeitskala eines Menschenlebens nicht getestet oder empirisch geprüft werden.

Es ist kaum aufschlussreich zu behaupten, dass die Modelle korrekt sind, weil sie die Temperatur der Vergangenheit gespiegelt haben. Ich bin sicher, dass das so ist. Allgemeine Zirkulationsmodelle haben so viele Freiheitsgrade, dass man sie endlos optimieren kann, so lange, bis sich das gewünschte Ergebnis zeigt. Also sagt es uns nichts über die Fähigkeit des Modells, genau vorherzusagen, was in Zukunft passiert.

Das gesamte Gebiet der Klimawissenschaft und die Berichterstattung darüber in den Medien ist tendenziös bis hin zu echtem Betrug. Warum eigentlich werden alle Berichte in den Medien über CO2 – einem unsichtbaren Gas – unvermeidlich mit Photos qualmender Schornsteine garniert? Selbst das Cover von Al Gores Film An Inconvenient Truth zeigt solche Schornsteine. Könnte es sein, dass es schwierig ist, die Leute mit einem unsichtbaren und geruchlosen Gas anzusprechen, dass ein integraler Bestandteil der Photosynthese ist? Ein Gas, das unabdingbar notwendig ist für das Überleben fast aller Pflanzen und Tiere auf der Erde? Ein Gas, das sie selbst durch ihre Atmung emittieren? Also muss man die Leute absichtlich in die Irre führen, indem man ihnen Bilder mit Rauch zeigt. Die Präsentation von einer Sache, während man über eine ganz andere redet, ist Betrug. Wäre der Fall der globalen Erwärmung wirklich so eindeutig, so aufschlussreich, so unwiderlegbar… warum ist es dann nötig, immer wieder zum Mittel der Täuschung zu greifen?

Vor einigen Jahren wurde weit verbreitet berichtet, dass die zunehmende Konzentration von Kohlendioxid in der Atmosphäre dazu führen würde, dass giftiger Efeu schneller wachsen würde. Aber natürlich sorgt das Kohlendioxid dafür, dass fast alle Pflanzen schneller wachsen. Und fast alle dieser Pflanzen sind von großem Nutzen für die Menschen. Kohlendioxid düngt Hunderte oder Tausende menschliche Nahrungsquellen. Mehr CO2 bedeutet, dass die Bäume schneller wachsen. Also verbessert Kohlendioxid Aufforstungen und Biodiversität. Es ist gut für die Umwelt. Aber nichts davon fand sich in den Berichten. Stattdessen haben die Medien nur darüber berichtet, dass giftiger Efeu schneller wächst. Und dies ist lediglich ein Beispiel Hunderter und Tausender solcher irreführenden Berichte. Falls das Meereis in der Arktis verschwindet, wird es als unwiderlegbarer Beweis für die globale Erwärmung angeführt. Aber wenn sich das Meereis um die Antarktis ausdehnt, wird das ignoriert. Selbst kaltes Wetter wird allgemein als Beweis für die globale Erwärmung ausgegeben (hier). Die Menschen der Zukunft werden zurückschauen und sich fragen, warum wir so wahnhaft gewesen waren.

Während der letzten Jahre habe ich mich bzgl. der Klimagate-e-mails ruhig verhalten.* Aber was diese enthüllt haben, haben viele von uns bereits gewusst: die Forschung zur globalen Erwärmung ist weitestgehend zu etwas degeneriert, was unter der Bezeichnung „pathologische Wissenschaft“ bekannt ist, ein „Prozess der Interpretation erwünschter Daten“. Als ich 2006 vor dem US-Senat aussagte, habe ich angegeben, dass mir ein führender Klimaforscher 1995 gesagt hat, dass wir „die Mittelalterliche Warmzeit los werden müssen“. Die Existenz und globale Natur dieser Warmzeit wurde von Hunderten von Forschungsartikeln belegt, die während vieler Jahrzehnte veröffentlicht worden waren. Aber sie musste aus ideologischen Gründen aus der Geschichte entfernt werden. Ein paar Jahre später tauchte dieser infame „Hockeyschläger“ auf. Der „Hockeyschläger“ war ein revisionistischer Versuch, die Temperaturgeschichte der letzten 1000 Jahre umzuschreiben. Er wurde inzwischen als zutiefst betrügerisch diskreditiert.

In einer der Klimagate-e-mails räumte ein mutmaßlicher Klimawissenschaftler „hiding the decline“ ein. Mit anderen Worten, es sollten Daten versteckt werden, die gegen die ideologische Propaganda sprechen. In einer anderen e-mail wird beschrieben, mit welchen Methoden die Alarmisten versuchen zu verhindern, dass kritische Manuskripte in der begutachteten wissenschaftlichen Literatur veröffentlicht werden. Einer von ihnen schrieb, dass „man sie irgendwie da raushalten muss – selbst wenn man dafür neu definieren muss, was wissenschaftlich begutachtete Literatur ist!“ (hier). Oh weh! Falls die Klimawissenschaft sagt, dass die globale Erwärmung so eindeutig ist, warum ist es dann notwendig, hinter den Kulissen daran zu arbeiten, abweichende Darstellungen zu unterdrücken? Man „protestiert zu viel!“

Wie ich in meinem Buch  Science and Technology in World History: The Ancient World and Classical Civilization beschrieben habe, begann die systematische Wissenschaft mit der Anrufung des Naturalismus durch griechische Philosophen und hippokratische Physiker um 600 bis 400 vor unserer Zeitrechnung. Aber das kritische Element, das von den Griechen übernommen worden war, war genauso wichtig wie der Naturalismus. Den Stundenten wurde Kritik nicht nur erlaubt, sondern sie wurden ausdrücklich dazu ermuntert. Seit den Anfängen der griechischen Naturphilosophie war die Wissenschaft eine idealistische leidenschaftliche Suche nach der Wahrheit. Wie Plato schon erklärte, jeder, der auf einen Fehler hinweisen konnte, sollte das „als Freund ausrufen, nicht als Feind!“ Dies ist einer der Gründe, warum man den Wissenschaftlern mit so viel Respekt begegnet. Die Öffentlichkeit geht davon aus, dass die Wahrheitssuche eines Wissenschaftlers nicht durch eine politische Agenda belastet ist.

Aber Wissenschaft ist für die Menschen nicht einfach. George Sarton hat uns daran erinnert, das „Wissenschaft ein Freudentöter“ ist. Die saubere Durchführung von Wissenschaft verlangt hohen Grad an intellektueller Disziplin und Strenge. Wissenschaftler sollten multiple Arbeitshypothesen (hier) benutzen und sich durch diese Hypothesen mit Bestätigung und  Widerlegung hindurch arbeiten. Der wertvollste Beweis ist einer, der bestimmt, welche dieser Hypothesen falsch oder zutreffend ist. Ein Wissenschaftler muss streng nach Definition skeptisch sein. Ein Wissenschaftler, der ernsthaft und leidenschaftlich nach der Wahrheit sucht, ermuntert den Kritiker – und unterdrückt ihn nicht. Wissen beginnt mit Skeptizismus und endet bei Einbildung.

Schließlich bin ich glücklich, ein “Leugner“ genannt zu werden, weil das Etikett des „Leugners“ nichts über mich aussagt, sondern nur über die Person, die so etwas von sich gibt. Wissenschaftliche Theorien werden niemals geleugnet oder geglaubt, sie werden nur entweder bestätigt oder falsifiziert. Die provisorische Natur wissenschaftlicher Erkenntnisse ist eine natürliche Konsequenz der epistemologischen Basis der Wissenschaft. Wissenschaft basiert auf Beobachtung. Wir werden niemals alle Daten haben. Mit dem ständigen Wachsen unserer Datenmenge müssen sich unsere Theorien und Gedanken notwendigerweise entwickeln. Jeder, der glaubt, dass wissenschaftliche Erkenntnisse endgültig und vollständig sind, muss notwendigerweise als Folge den absurden Gedanken bekräftigen, dass der Prozess der Geschichte zum Ende gekommen ist.

Eine wissenschaftliche Theorie kann man nicht „leugnen“. Nur einen Glauben kann man leugnen. Die Person, die den Begriff „Leugner“ verwendet, zeigt folglich, dass sie die globale Erwärmung als einen Glauben betrachten und nicht als wissenschaftliche Theorie. Glauben ist die Basis der Religion. Enthüllungen können nicht bestätigt oder im Labor studiert werden, so dass dogmatischer Glaube konservativ beibehalten wird. Religionen tendieren dazu, geschlossene Systeme des Glaubens zu sein, die Kritik zurückweisen. Aber die Wissenschaften sind offene Systeme der Erkenntnis, die Kritik willkommen heißen. Ich bin ein Wissenschaftler, und daher muss ich mich glücklich dazu bekennen, ein Leugner zu sein.

David Deming [send him mail] is a geophysicist, associate professor of arts and sciences at the University of Oklahoma, and author of the books Science and Technology in World History, Vols. 1 & 2.

Link: http://lewrockwell.com/orig9/deming6.1.1.html

Übersetzt von Chris Frey für EIKE

*Anmerkung des Übersetzers: Dieser Artikel datiert vom 19. Oktober, also vor dem bekanntwerden von Klimagate 2. Er bringt auch wieder alles auf den Punkt, was man aus Sicht eines Laien zu der ganzen Problematik sagen kann.




Climategate 2.0: Müllwissenschaft von Michael Mann!

Der Brief ist aus einer ganzen Reihe von Gründen interessant, nicht zuletzt auch für seine groteske Scheinheiligkeit. „Während der letzten Jahre“, schreibt er, „sind die Angriffe auf die Klimawissenschaft persönlich geworden“ – als ob nicht irgendwie die echten Opfer von all dem der unschuldige Steuerzahler ist, der gezwungen wird, für die große grüne Verschwendung zu zahlen, aber ordentliche Klimawissenschaftler wie Mann und sein Hockeyschlägerteam nur versuchen weiterzukommen und ihre Arbeit zu machen.

[Mann fährt fort:]„Jede Schneeflocke ist anders, aber Angriffe auf die Klimawissenschaft scheinen immer gleich zu sein. Ich sollte es wissen. Ich bin seit Jahren ein bevorzugtes Ziel der Angriffe von Contrarians des Klimas“.

Hat Mann eigentlich irgendeine der e-mails von Klimagate und Klimagate 2.0 gelesen, frage ich mich? Viele davon tragen seinen Namen, also muss er es früher oder später getan haben. Aber vielleicht hat er über all das Herumfummeln an den Daten und das Verstecken des Rückgangs den Überblick verloren. Also wollen wir seinem Gedächtnis mit einigen Beispielen auf die Sprünge helfen.

Hier kommt einer aus Neuseeland (H/T WUWT):

Ein Kiwi-Wissenschaftler namens Chris de Freitas hat in einem Journal mit der Bezeichnung Climate Research eine Meta-Analyse von den Harvard-Astronomen Soon & Baliunas veröffentlicht, und zwar über alle Studien, die über die Mittelalterliche Warmzeit (MWP) durchgeführt worden waren. Das Ergebnis von Soon & Baliunas? Die große Mehrheit der veröffentlichten, wissenschaftlich begutachteten Studien zur MWP kommen zu dem Ergebnis, dass die MWP sowohl geographisch weltweit aufgetreten war (und nicht, wie die Warmisten und ihre Apologeten in Wikipedia vorzugeben versuchen, eine kleine lokale, auf Nordeuropa beschränkte Anomalie war) als auch, dass es signifikant wärmer als heute war.

Das irritiert Michael Mann und sein Hockeyteam über die Maßen, weil es ihrer Ansicht widerspricht, dass die Erwärmung zum Ende des 20. Jahrhunderts sowohl noch nie dagewesen als auch katastrophal sei. Also wie reagieren sie darauf? Tun sie es mit neuen, verbesserten Studien mit sorgfältig detailliert herausgearbeiteten Irrtümern von Soon & Baliunas?

Natürlich tun sie das nicht!

Stattdessen ist alles, was sie tun, den Überbringer der Botschaft abzuschießen. Sie wurden konspirativ tätig, um Climate Research zum Aufgeben zu bringen; um Chris de Freitas zu disqualifizieren; danach schreiben sie an den Dekan seiner Universität in Auckland, um zu eruieren, ob sie nicht de Freitas auch seine Lebensgrundlage entziehen können. Nett!

Dr. Pat Michaels hat ein weiteres gutes Beispiel dieses erfreulichen Verhaltens durch Mitglieder seines „Teams“.

Im Magazin Forbes schreibt er einen offenen Brief (hier) an den Direktor des National Center for Atmospheric Research in Boulder, Colorado, in dem er beschreibt, wie einer seiner „angesehensten Mitarbeiter“, Dr. Tom Wigley versucht hat, Michaels sein PhD abzuerkennen.

Dr. Wigleys Beweis für diese potentiell verleumderische Behauptung, die an viele seiner ihm folgenden Klima-„Mitarbeiter“ verteilt worden ist? Kein einziger!

Aber Moment, wie Mann uns viele Male mit den Jahren gelehrt hat, wer braucht Beweise oder Fakten, wenn man stattdessen mit dem guten alten Rufmord viel weiter kommt.

Dies ist sattsam jedem bekannt, der die Geschichte von Climategate verfolgt hat. Vielleicht noch interessanter an Manns Brief an das WSJ ist seine Erwähnung des Blei-im-Benzin-Beispiels von vor einigen Jahren, mit dem er versucht hat, die Glaubwürdigkeit seiner eigenen Müllwissenschaft zu untermauern. Wie wir noch sehen werden, könnte er dies noch sehr bedauern.

Folgendes hat er in seinem Brief geschrieben:

Klimawissenschaftler können sich auch seelenverwandt mit Dr. Herbert Needleman fühlen, der in den siebziger Jahren einen Zusammenhang gefunden hat zwischen Bleiverseuchung und Gehirnschädigungen bei Kindern. Die Bleiindustrie warf ihm Fehlverhalten vor. Später hat ihn das National Institute of Health entlastet.“

Hmm. Die Needleman-Affäre wurde sehr gründlich im „Scared to Death (Continuum)“ von Christopher Booker und Richard North behandelt. Es spiegelt überhaupt nicht die Müllwissenschafts-Angstindustrie.

Dr. Herbert Needleman war ein Kinderpsychologe in den USA, wo er 1979 mit einem Forschungspapier Schlagzeilen machte, in dem er zeigte, dass Bleivergiftungen dramatische Auswirkungen auf den IQ von Kindern haben. Dieser „Beweis“ wurde ein zentraler Pfeiler  für Regulationen seitens der Environmental Protection Agency, wonach ab 1986 alles Blei aus Petroleum entfernt werden müsse. Es gab nur ein Problem: Needlemans Studie war in etwa so zuverlässig wie Michael Manns Hockeyschläger.

Die Rolle, die McIntyre/McKitrick bei der Hockeyschläger-Affäre gespielt haben, wurde bei der Needleman-Affäre durch eine andere akademische Kinderpsychologin übernommen, Dr. Claire Ernhart, die auf dem gleichen Gebiet arbeitete wie Needleman. Sie stellte fest, dass die Arbeit von Needleman auf ernsten methodischen Mängeln basierte. Im Besonderen, behauptete sie, habe er nicht ausreichend die „beitragenden Variablen“ berücksichtigt, die den Unterschied bei den IQ auch hätten erklären können, wie z. B. schlechtes Schulwesen oder elterliche Ablehnung.

Als ein Expertenteam von der EPA jedoch versuchte, diesen Vorgang unter die Lupe zu nehmen, erwies sich Needleman als genauso unwillig, die Basis seiner Forschungen bekannt zu machen wie Michael Mann mit seinen Rohdaten, aus denen er seinen Hockeyschläger zusammengezimmert hatte.

Booker/North:

„Als das Expertenteam 1983 Needlemans Labor besuchte, um nach seinen Daten zu sehen, übergab er sechs Bücher mit Computerausdrucken, fügte aber hinzu, dass nur zwei Mitglieder des Teams diese untersuchen könnten, und auch nur für zwei Stunden.

Schon während dieser flüchtigen Durchsicht fand das Team genügend Beweise, um ausgeprägte Zweifel an Needlemans Forschungen aufkommen zu lassen. Obwohl er zunächst 3329 Kinder untersucht hatte, sortierte er anschließend so viele von ihnen aus, oftmals aus fadenscheinigen Gründen, dass schließlich für seine Schlussfolgerungen nur noch 270 Kinder übrig geblieben waren, danach nur noch 158. ‚Der Ausschluss einer großen Zahl geeigneter Teilnehmer’, schloss das Team, ‚könnte zu einer systematischen Verzerrung geführt haben’. Mit anderen Worten, es sah für das Team so aus, als ob er seine Beweise so ausgesucht hätte, dass das von ihm gewünschte Ergebnis herauskam.“

So weit Booker/North.

Ausschließlich Grannenkiefern, erinnert sich jemand?

Das Expertenteam kam zu dem Ergebnis, dass Needlemans Studien „die Hypothese, dass niedrige oder mittlere Niveaus von Blei zu kognitiven oder anderen Verhaltensauffälligkeiten bei Kindern führen, weder gestützt noch widerlegt werden konnten“. Mit anderen Worten, seine Forschungen waren wertlos.

Aber Moment, raten Sie mal, was dann geschah! Druck wurde ausgeübt. Das Expertenteam hat seine Entscheidung komplett umgekehrt – aus Gründen, die niemals zufriedenstellend erklärt worden sind. Und der Leiter der EPA, William Ruckelshaus (der gleiche Mann, der für das DDT-Verbot zuständig war, wodurch Millionen in der Dritten Welt dazu verdammt waren, an Malaria zu sterben), war in der Lage, Needlemans Studie als Basis für etwas zu nutzen, was die EPA und Umweltaktivisten sowieso schon lange gewünscht hatten: Blei im Benzin zu verbieten.

Es war keine Überraschung, dass die EU dem eifrig folgte. Wie selbst die EU-Kommission einräumte, würden die neuen Regeln den Verbraucher pro Jahr zusätzlich 4,8 Milliarden Pfund (ca. 5,7 Milliarden Euro) kosten. Die mittleren Kosten für ein Auto würden um 600 Pfund (ca. 718 Euro) betragen, und die Ölgesellschaften wären gezwungen, Neue Investitionen mit einem Volumen von 70 Milliarden Pfund (ca. 83,7 Milliarden Euro) zu tätigen. Oh, die Studien der EU schätzten außerdem, dass der Wechsel zu unverbleitem Benzin (welches weniger effizient ist als verbleites Benzin) zu einer Steigerung der Emissionen von Treibhausgasen in einer Größenordnung von 15 bis 17 Millionen Tonnen führen wird.

Aber Augenblick, wie Michael Mann und sein Team uns sicher bestätigen können: wenn man versucht, die Welt vor einer nicht existierenden Bedrohung zu schützen, ist kein Preis zu hoch.

Link: http://blogs.telegraph.co.uk/news/jamesdelingpole/100121659/climategate-2-0-junk-science-101-with-michael-mann/

James Dellingpole

Übersetzt von Chris Frey für EIKE




Die Energiewende wirkt: Versorger stoppen Milliardeninvestitionen im Inland und streichen mehr als 20.000 Stellen

Update:Solon-Aktien stürzen ab

boerse.ard.de 14.12.2011 09:22

Die Solon-Aktien stürzen am Mittwochmorgen um 63 Prozent ab und sind nur noch 33 Cents wert. Bereits zum Xetra-Schluss waren die Papiere um 13 Prozent eingebrochen und notierten erstmals unter einem Euro. Im Sog der Solon-Pleite geben auch andere Solarwerte nach. Die Aktien von Q-Cells büßen vier Prozent, die Papiere von Solarworld zwei Prozent ein. 

Text: 

Die Welt schrieb dazu am 12.12.11 "Tausende mittelständischer Zulieferbetriebe und Hunderttausende Arbeitsplätze hängen von den Ausgabenplänen der Versorgungswirtschaft ab. Inzwischen wurden allerdings von allen Energiekonzernen reihenweise Kraftwerksprojekte auf Eis gelegt oder ganz eingestellt."

Bei sich selbst planen die Versorger (EON 10000, RWE 8000 und Vattenfall 3500) insgesamt einen Stellenabbau für mindestens 20.000 Beschäftigte. Davon ca. 17.500 allein (SüddeutscheTagesspiegel) in Deutschland. Ihr Geschäftsmodell wurde von der Politik unter Kanzlerin Merkel mutwillig zertrümmert und mit ihm, die bestehende Infrastruktur für die Stromversorgung eines Industrielandes.

Politisch gewollt hingegegen scheint der nun angekündigte Jobabbau bei der deutschen AREVA Tochter. Diese wird bis zu 1500 Jobs abbauen, wie der SWR meldet

Und dann auch noch das: "Polen gefährdet deutsche Energiewende" titelt der notorisch linke Spiegel Online und schreibt:

"Ein Plan Polens, Ökostrom aus Deutschland stärker zu regulieren, alarmiert laut einem Bericht des SPIEGEL deutsche Energieexperten. "Wenn überschüssiger Wind- und Solarstrom nicht mehr ins Ausland abgeführt werden kann, dann wird das deutsche Stromnetz instabiler", warnt der Chef der Deutschen Energie-Agentur (Dena), Stephan Kohler."

Der vernünftige Grund der Polen wird auch genannt. Sie wollen sich ihre konventionellen Kraftwerke nicht kaputt machen lassen durch das ständige Rauf- und Runterregeln derselben, das durch den Zufallsstrom aus „Erneuerbaren“ erzwungen wird.

Doch die Energiewende mit ihrer erzwungenen Vorrangeinspeisung von Zufallsenergie aus "Erneuerbaren" macht nicht nur die Gewinne der Versorger und ihrer Zulieferer kaputt, sondern zerstört auch bei uns die bestehenden Kraftwerke, weil die durch das ständige Hoch-  und Runterfahren ebnefalls überlastet sind und schneller verschleißen. Dafür werden dann kaum noch Investitionen da sein.

Eine Petitesse dagegen scheint das erzwungene Ausscheiden von EnBW Chef Willies zu sein. Er war den neuen Eignern der rot grünen Landesregierung nicht grün genug. ENBW-Chef Villis muss gehen titelt FAZ Online

06.12.2011  ·  Der bis 2012 laufende Vertrag von Hans-Peter Villis wird nicht verlängert. Der ENBW-Chef ist bei den Haupteigentümern unbeliebt. Vor allem die grün-rote Landesregierung hat mit dem langjährigen Verfechter der Atomkraft große Probleme.

Natürlich werden die Arbeitsplatzverluste durch neue grüne Jobs in der „Erneuerbaren“ Industrie mehr als ausgeglichen, behaupten die Befürworter aus dem öko-industriellem Komplex. Das stimmt vielleicht auch, aber nur für die Asiaten, die inzwischen 80 % der Solardächer für Deutschland liefern. Doch bei uns schreiben die trotz Milliarden-Subventionen gemästeten Firmen der „Erneuerbaren“ Branche reihenweise immer tiefrotere Zahlen.

Da bleiben bei uns noch die beliebten Montagejobs  übrig. Die schaffen wirklich Arbeit, mit über hunderttausend (Teilzeit-)Arbeitsplätzen.

Über sie lieferte Prof. undefinedGanteför auf der 4. Internationalen Energie – und Klimakonferenz in München einen groben Produktivitätsvergleich:

  • Produktivität der erneuerbaren Energien: Beispiel Photovoltaik (PV): 
  • – Im Jahr 2010 arbeiteten 133 000 Menschen in der Photovoltaik. 2010 lieferte die PV 12 Milliarden kWh Strom. 
  • – Im Braunkohlekraftwerk Niederaußem arbeiten 700 Angestellte und produzieren 27 Milliarden kWh Strom.

d.h allein das Braunkohlekraftwerk Niederaußem arbeitet 427 x produktiver als die gesamte deutsche Solarstromindustrie. Sicher, der Vergleich hinkt ein wenig, so wie alle Vergleiche. Aber fest steht, dass jeder Beschäftige in der Solarbranche in etwa so produktiv ist wie der gemeine Leibeigene im frühen Mittelalter. Ein Fest der Arbeitsbeschaffung für manche Gewerkschafter und Politiker, ein zerstörerischer Luxus für jeden Vernünftigen.

Michael Limburg EIKE