1

Rep. Senator Sullivan: Republikanische Mehrheit würde Obamas grüne Agenda einkassieren

Sullivan, der den demokratischen Senator Mark Begich aus Alaska herausfordert, macht sich Sorgen im Hinblick auf seine drei Töchter im Teenager-Alter. Sie würden nicht in der Lage sein, Vorteile aus den reichlichen Vorräten an Öl, Erdgas, Wasserkraft und andere zu ziehen, falls die Vorschriften-Agenda der Administration unverändert fortbesteht.

„Die Obama-Reid-Agenda hat Amerikas natürliche Ressourcen verschlossen und die kleineren Industrien im ganzen Land mit einer Lawine von Vorschriften überzogen. Sie hat die Zunahme von Arbeitsplätzen abgewürgt mittels einer kompletten Missachtung der Gesetze“, sagte Sullivan während einer Rede vor ein paar Tagen. Er fügte hinzu, dass die EPA und Washington D. C. [= District of Columbia, die US-Hauptstadt. Der US-Bundesstaat Washington liegt auf der anderen Seite im Nordwesten am Pazifik. Anm. d. Übers.] versuchen, „zu diktieren, wie wir unsere Ländereien in staatlichem Besitz verwalten sollen“.

Das alles könnte sich ändern, erklärt er, falls die Wähler ihn und andere Republikaner an die Macht wählen. „Der amerikanische Traum ist ausdauernd“, sagte er. „Alles, was wir brauchen, ist eine neue Führung in Washington, um ihn wiederzubeleben“.

Falls die Republikaner die Senatswahlen im November gewinnen, wird die GOP Sullivan zufolge Energie zu einem Top-Thema machen. „Ein republikanischer Senat würde die Arbeitsplätze in Verbindung mit der Keystone-Pipeline genehmigen, weil Kanada unser Nachbar und Alliierter ist“, sagte Sullivan. „Wir werden mehr Offshore-Entwicklungen auf den Weg bringen, weil das gut ist für die Küstenstaaten und den Rest des Landes. Wir werden die Gelegenheiten schaffen, unseren Energiehandel auszuweiten, weil dies vorteilhaft für unsere Nation und andere wäre, die Energie brauchen – wie z. B. die Ukraine“.

Die Republikaner werden da aber nicht aufhören, sondern auch daran arbeiten, die Entwürfe der Regierung hinsichtlich der Kohlenstoff-Verschmutzung zu blockieren, ebenso wie andere Vorschriften, die die EPA versucht, im nächsten Jahr endgültig einzuführen.

Full story

Link: http://www.thegwpf.com/republican-majority-would-squash-obamas-green-agenda-sullivan-says/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: An sich ist dies natürlich eine innere Angelegenheit der USA. Ich habe das hier aber trotzdem übersetzt, weil es für mich ein Beispiel ist, wenn man wirklich mal eine echte Alternative zwischen zwei großen Parteien hat. Deutschland ist ja in dieser Hinsicht zum Entwicklungsland verkommen.

C. F.




Das Rätsel der Eiszeiten – Teil XI: Das Ende der letzten Eiszeit

scienceofdoom

In den letzten Artikeln haben wir zumeist die Modelle hinsichtlich der Auslösung der letzten Eiszeit betrachtet. In Teil sieben haben wir dazu einige frühe GCMs (GCM = global circulation model) betrachtet – Ende der achtziger bis Mitte der neunziger Jahre. In Teil acht ging es um vier verschiedene Studien vor etwa einem Jahrzehnt. In Teil neun ging es um eine Studie, die die letzten 120.000 Jahre simuliert hat, und Teil zehn befasste sich mit einer der jüngsten Studien der Auslösung einer Vereisung vor 115.000 Jahren mittels des letzten Klimamodells CCSM4.

Wir werden zum Mechanismus der Auslösung einer Eiszeit wieder zurückkehren, aber in diesem Beitrag wollen wir das Ende der letzten Eiszeit betrachten. Dies teils deswegen, weil jemand auf einem anderen Blog eine sich damit befassende Studie vorstellte und ich daraufhin einige Zeit damit zubrachte, diese Studie zu verstehen. Aus den letzten 20.000 Jahren gibt es einige exzellente Aufzeichnungen aus beiden Polargebieten. Das vor etwa 20 Jahren initiierte EPICA-Projekt erbrachte Daten aus Eisbohrkernen der Antarktis, die man mit den NGRIP-Daten aus Eisbohrkernen Grönlands vergleichen konnte, die etwa 800.000 Jahre zurückreichen. Aus anderen Forschungsprojekten standen zusätzliche Proxy-Daten aus der ganzen Welt zur Verfügung.

Shakun et al. 2012

Die Studie stammt von Shakun et al. 2012. Randbemerkung: Eine der Ko-Autoren war Bette Otto-Bliesner, ebenso wie für Jochum et al. 2012. Diese Studie haben wir in Teil zehn unter die Lupe genommen. Bette Otto-Bliesner ist eine der Leitautoren des IPCC-AR 5 im Abschnitt über Paläoklima.

Das letzte glaziale Maximum (LGM) ereignete sich vor etwa 22.000 bis 18.000 Jahren. Der Meeresspiegel lag damals 120 m niedriger als heute, weil dicke Eisschilde Teile von Nordamerika und Europa überdeckten. Warum und wie ist diese Zeit zu Ende gegangen? In der Studie geht es im Wesentlichen um die zweite Frage nach dem "wie". Die obere Kurve in der folgenden Abbildung zeigt die Temperaturen der Antarktis in rot, das CO2 in gelben Punkten und die globalen Temperaturen in blau:

Bildinschrift: CO2-Konzentration und Temperatur. a: Der globale Proxy-Temperaturblock (blau) als Abweichungen vom Mittel des frühen Holozäns (vor 11.500 bis 6500 Jahren), ein Komposit aus antarktischen Eisbohrkernen (rot) und die atmosphärische CO2-Konzentration (gelbe Punkte). Gekennzeichnet sind das Holozän, das jüngere Dryas (YD), Bølling-Alleröd (B-A), das älteste Dryas (OD) und das letzte Glaziale Maximum (LGM). Fehlerbalken, 1 sigma (Methoden); parts per million by volume ppmv. b: Phasen der CO2-Konzentration und der Temperatur global (grau), für die Nordhemisphäre (NH, blau) und die Südhemisphäre (SH, rot). Die Proxy-Blöcke basieren auf Verzögerungs-Korrelationen von vor 20.000 bis 10.000 Jahren in 1000 Monte-Carlo-Simulationen (Methoden). Das Mittel und die 1 sigma-Bandbreite werden gezeigt. Die CO2-Konzentration führt den globalen Temperaturblock in 90% der Simulationen und hinkt ihr hinterher in 6% aller Fälle.

Die zweite Graphik zeigt uns das Histogramm von CO2-Änderungen in Bezug auf die Temperatur sowohl für die Antarktis als auch global. Man erkennt deutlich, dass die Temperaturen der Antarktis vor etwa 18.000 Jahren nachhaltig zu steigen begannen – vor den globalen Temperaturen. Wir können erkennen, dass die CO2 Konzentration geringfügig den antarktischen Temperaturen vorausgelaufen oder mit dieser synchron verlaufen ist. Dies zeigt, dass die CO2-Zunahme hier eine positive Rückkopplung auf den ursprünglichen antarktischen Temperaturanstieg hatte (grundlegender Physik zufolge steigt durch mehr CO2 der Strahlungsantrieb in der Troposphäre an – siehe Anmerkung 1).

Aber was war die Ursache für diesen initialen Anstieg der antarktischen Temperaturen? Eine ins Spiel gebrachte Möglichkeit ist ein vorausgegangener Temperaturanstieg in höheren nördlichen Breiten, den man in der zweiten Graphik der folgenden Abbildung erkennt:

 

Bildinschrift: Temperaturänderung vor Zunahme der CO2-Konzentration. a: Lineare Temperaturtrends in den Proxy-Aufzeichnungen von vor 21.500 bis 19.000 Jahren (rot) sowie von vor 19.000 bis 17.500 Jahren (blau), gemittelt über Streifen von 10° Breite mit Unsicherheiten von 1 sigma. b: Proxy-Temperaturblöcke für Streifen von 30° Breite mit Unsicherheiten von 1 sigma. Die Blöcke wurden durch die Glazial-Interglazial-Bandbreite (G-IG) in jeder Zeitreihe normalisiert, um Vergleiche zu ermöglichen.

Shagun et al. führen aus: „Eine wichtige Ausnahme ist das Einsetzen des Abschmelzens, das aufgrund einer globalen Erwärmung von etwa 0,3°C erfolgte vor der initialen Zunahme des CO2-Gehaltes vor 17.500 Jahren. Dieses Ergebnis zeigt, dass das CO2 nicht der Grund für die initiale Erwärmung war. Substantielle Temperaturänderungen in allen Breiten (Figure 5b) laufen der CO2-Zunahme vor 17.500 Jahren voraus. Dies zeigt, dass CO2 nicht als Auslöser des Abschmelz-Beginns in Frage kommt. Diese frühe globale Erwärmung erfolgte in zwei Phasen: einer graduellen Zunahme vor 21.500 bis 19.000 Jahren, gefolgt von einer stärkeren Zunahme vor 19.000 bis 17.500 Jahren (Figure 2a). Die erste Zunahme hängt mit einer Erwärmung der nördlichen mittleren und hohen Breiten zusammen, am deutlichsten in Grönland, gibt es doch anderswo zu dieser Zeit nur geringe Änderungen (Figure 5) Die zweite Zunahme ereignete sich während eines ausgeprägten interhemisphärischen Wipp-Ereignisses (Figure 5), möglicherweise verbunden mit einer Abnahme der AMOC-Stärke (Anm. der Redaktion: AMOC = Atlantic Meridional Overturning Circulation), wie man in der Pa/Th-Aufzeichnung (Anm. der Redaktion: Pa ist das Proactinium-Isotop 231Pa, Th ist das Thoriumisotop 230Th, die für die Altersbestimmung verwendet werden) und unserer Modellierung sieht (nachfolgend Figure 4f, g)…… In jedem Falle zeigen wir, dass diese räumlich-zeitlichen Verteilungen der Temperaturänderung konsistent sind mit einer Erwärmung in mittleren und hohen nördlichen Breiten. Dies führte zu einer Reduktion der AMOC vor etwa 19.000 Jahren und war der Auslöser für die darauf folgende globale Abschmelz-Erwärmung. Allerdings braucht man noch weitere Aufzeichnungen, um Ausdehnung und Größenordnung der frühen Erwärmung in diesen Breiten zu stützen“. So weit Shagun et al.

Die hier erwähnte interhemisphärische Wippe ist wichtig für das Verständnis und bezieht sich auf die Beziehung zwischen zwei großräumigen Meeresströmungen – zwischen den Tropen und den hohen nördlichen Breiten einerseits sowie den Tropen und der Antarktis andererseits. Dann wird von den Autoren ein „plausibles Szenario” für die initiale Erwärmung der Nordhemisphäre wie folgt präsentiert:

Ein mögliches Antriebs-Modell zur Erklärung dieses Teils der Ereignisse beginnt mit steigender borealer sommerlicher Einstrahlung, die die Erwärmung im Norden auslöst. Dies führt zu dem beobachteten Rückzug der nordhemisphärischen Eisschilde und dem Beginn des Anstiegs des Meeresspiegels vor etwa 19.000 Jahren (Fig. 3a, b) mit dem begleitenden Süßwasser-Antrieb, welcher zu einer Abnahme der AMOC führte, die die Südhemisphäre erwärmte via der bipolaren Wippe.

Dies ist ein recht schwacher Abschnitt in dieser Studie. Ich finde es seltsam, dass jemand dies schreibt und nicht im Mindesten auf die offensichtlichen Fehler darin hinweist. Bevor ich dies ausführe, müssen zwei Punkte angesprochen werden:

1. Der in Rede stehende Mechanismus wird beschrieben als ein „mögliches Antriebs-Modell“ und ist nicht wirklich Gegenstand der Studie und wird auch offenbar nicht durch irgendwelche Beweise in der Studie gestützt.

2. Ihre Modellläufe, obige Figure 4c stützen die Hypothese nicht – sie zeigen Temperaturen der Nordhemisphäre mit einem zu jener kritischen Periode abwärts gerichteten Trend. Man vergleiche die obige Fig. 4b und 4c (b sind Proxy-Daten, C ist das Modell). Allerdings stellen sie nicht die höheren Breiten heraus; vielleicht hat also ihr Modell dieses Ergebnis gezeigt.

Der offen liegende Kritikpunkt an dieser Hypothese ist, dass die Einstrahlung (Sommer, bei 65°N) während früherer Perioden sehr viel stärker war:

Abbildung 4

Wir haben dies gesehen bei Ghosts of Climates Past – Pop Quiz: End of An Ice Age (Anm. der Redaktion: diesen Teil bitte im Original naclesen).

Auch wurden während der letzten Eiszeit frühere Perioden signifikanter Temperaturanstiege in hohen nördlichen Breiten aufgezeichnet. Warum war keiner davon in der Lage, die gleiche Folge von Ereignissen und einen antarktischen Temperaturanstieg auszulösen?

Zur Zeit der LGM wiesen die Eisschilde ihre größte Ausdehnung auf mit der positiven Rückkopplung einer höheren Albedo als Konsequenz. Falls eine geringe Zunahme der sommerlichen Einstrahlung in hohen nördlichen Breiten Abschmelzen auslösen kann, würde sicher die viel höhere sommerliche Einstrahlung vor 100.000 oder 82.000 Jahren ein Abschmelzen ausgelöst haben unter der Voraussetzung des zusätzlichen Vorteils der geringeren Albedo zu der Zeit. Bei der Fertigstellung dieses Abschnitts schaute ich noch einmal auf die Website von Nature, um zu sehen, ob es dort irgendwelche Zusatzinformationen gibt (Nature-Studien sind kurz, und Online-Material, das in der PDF nicht auftaucht, kann sehr nützlich sein). Es gab einen Link zu der Site News & Views zu dieser Studie von Eric Wolff. Eric Wolff ist einer der wichtigsten Beitragenden zu EPICA, Leitautor und Mitautor vieler EPICA-Studien. Daher schien es mir sinnvoll, seine Perspektive zu dieser Studie zu lesen. Viele Leute scheinen nämlich davon überzeugt zu sein, dass die Milankovitch-Theorie richtig sei  und sie nicht zu akzeptieren absurd ist. Siehe zum Beispiel die von mir zuvor schon einmal erwähnte Blog- Diskussion. Es ist also angebracht, ausführlich aus Wolffs kurzem Artikel zu zitieren:

In der Zeit von vor 19.000 bis 10.000 Jahren kam die Erde aus der letzten Vereisungsperiode. Der gesamte Globus erwärmte sich, Eisschilde zogen sich von den Nordkontinenten zurück, und die Zusammensetzung der Atmosphäre änderte sich signifikant. Viele Theorien versuchen zu erklären, was diese Transformation ausgelöst und am Leben gehalten hat, aber es fehlen belastbare Beweise, diese Theorien zu validieren.

Auf Seite 49 dieser Ausgabe verwenden Shakun et al. eine globale Rekonstruktion der Temperatur um zu zeigen, dass der Übergang von der Eiszeit in die derzeitige Zwischeneiszeit von einer gegenphasigen Temperaturentwicklung der beiden Hemisphären der Erde gekennzeichnet war, die einer kohärenten Erwärmung überlagert war. Änderungen der Meeresströme, die die gegensätzliche Reaktion in jeder Hemisphäre kontrollieren, scheinen für das Ende der Eiszeit mit ausschlaggebend gewesen zu sein.

Wieder einmal hat ein führender Klimawissenschaftler angemerkt, dass wir nicht wissen, warum die letzte Eiszeit zu Ende gegangen ist. Wie wir in Teil VI – “Hypotheses Abound” gesehen haben, erklärt der Titel den Inhalt:

Einige Studien haben zur Diskussion gestellt, dass Änderungen des ozeanischen Wärmetransportes ein wesentlicher Teil zur Beendigung einer Eiszeit sind. Shakun et al. kombinieren ihre Daten mit Simulationen auf der Grundlage eines Ozean-Atmosphäre-Modells, um eine plausible Abfolge der Ereignisse seit der Zeit vor etwa 19.000 Jahren zu präsentieren. Sie meinen, dass eine Reduktion der AMOC (im Modell induziert durch den Eintrag von Süßwasser in den Nordatlantik) zur Erwärmung der Südhemisphäre und einer insgesamten Abkühlung der Nordhemisphäre geführt hat. Die Kohlendioxidkonzentration begann bald danach zu steigen, möglicherweise durch Ausgasen aus den Tiefen des südlichen Ozeans. Obwohl sie ziemlich gut dokumentiert ist, bleibt die genaue Kombination der Mechanismen für diesen Anstieg fraglich. Danach erwärmten sich beide Hemisphären gleichlaufend, hauptsächlich als Reaktion auf den Anstieg des Kohlendioxidgehaltes, jedoch mit weiteren Oszillationen auf Grund des hemisphärischen Kontrastes mit Variation der Stärke der AMOC. Das Modell reproduziert sehr gut die Größenordnung und die Verteilung der globalen und hemisphärischen Änderungen mit dem sich ändernden Kohlendioxid und der sich ändernden AMOC als grundlegenden Komponenten.

Der Erfolg des von Shakun und Kollegen verwendeten Modells bei der Reproduktion der Daten ist ermutigend. Aber eine Schwäche ist, dass die Größenordnung des Süßwasser-Eintrags in den Atlantik im Modell adjustiert worden ist, um die abgeleitete Stärke der AMOC und die Größenordnung  der interhemisphärischen Klimareaktion zu erzeugen. Das Ergebnis impliziert nicht, dass die Ozean-Zirkulation in dem Modell die korrekte Sensitivität hinsichtlich der Menge des Süßwasser-Eintrags aufweist.

Die Arbeit von Shakun und Kollegen bietet eine solide, auf Daten basierende Grundlage für eine plausible Kette der Ereignisse während der meisten Zeit, in der die Eiszeit endete. Aber was führte zu der Reduktion in der AMOC vor 19.000 Jahren? Die Autoren verweisen darauf, dass in der Zeit von vor 21.500 und 19.000 Jahren die Temperatur im nördlichsten Breitenband (60°N bis 90°N) signifikant gestiegen war. Sie folgern, dass dies Folge einer Steigerung der sommerlichen Einstrahlung in hohen nördlichen Breiten ist (einfallende Solarstrahlung), getrieben von den gut bekannten Zyklen der Erdumlaufbahn um die Sonne. Sie argumentieren, dass dieser Anstieg zu einem auslösenden Schmelzen von Eisschilden geführt hat, was nachfolgend die Reduktion der AMOC einleitete.

Allerdings muss diese Folgerung mit Vorsicht betrachtet werden. Erstens gibt es nur sehr wenige Temperaturaufzeichnungen in diesem Breitenbereich: Die Erwärmung ist nur in Eisbohrkernen aus Grönland klar erkennbar.

Zweitens, es gibt mindestens einen vergleichbaren Temperaturanstieg in den Grönland-Eisbohrkernen, und zwar in der Zeit von vor 62.000 und 60.000 Jahren, der nicht zum Ende der Eiszeit geführt hat. Und schließlich, obwohl es stimmt, dass die sommerliche Einstrahlung im Norden von vor 21.500 und 19.000 Jahren zugenommen hat, blieb deren absolute Größenordnung geringer als zu irgendeiner Zeit von vor 65.000 und 30.000 Jahren. Es ist völlig unklar, warum eine Zunahme der Einstrahlung von einem niedrigen Wert das Ende der Eiszeit ausgelöst haben soll, während eine anhaltende Periode höherer Einstrahlung dies nicht bewirkt hat.

Kurz gesagt, man braucht eine weitere Zutat, um die Verbindung zwischen Einstrahlung und Eiszeit-Ende zu erklären – ebenso wie die Auslöser der Serie von Ereignissen, die so gut in der Studie von Shakun und Kollegen beschrieben worden sind. Die Schaukelei der Temperatur zwischen Nord und Süd während der gesamten Vereisungsperiode, die am klarsten in rapiden Erwärmungen Grönlands zum Ausdruck kommt (Dansgaard-Oeschger-Ereignisse), wird oftmals als Signal verstanden, dass es in der AMOC zahlreiche Änderungen der Stärke gegeben hat. Allerdings dauerte die Schwächung in der AMOC, die vor 19.000 Jahren eingesetzt hatte, viel länger als derartige Schwächungen zuvor, was einen viel substantielleren Anstieg der südlichen Temperatur und der Kohlendioxid-Konzentration ermöglicht hatte. Warum war es zu jener Zeit so schwierig, die AMOC neu zu beleben und deren Schwäche zu beenden?

Und was könnte die fehlende Zutat sein, die den Anstieg der Einstrahlung im Norden vor etwa 20.000 Jahren in den Auslöser der Deglaziation verwandelt hatte, wenn eine stärkere Einstrahlung in früheren Zeiten dies nicht vermocht hat? Es wurde in die Diskussion geworfen, dass eine Eiszeit nur zu Ende geht, wenn die Eisschilde im Norden besonders groß sind. Falls dies wirklich die zusätzliche Zutat ist, dann muss der nächste Schritt zum Verständnis der Kausalkette darin bestehen zu verstehen, welcher Aspekt der großen Eisschilde das Einsetzen und die Persistenz der AMOC kontrolliert, die anscheinend das Schlüsselelement der letzten Deglaziation war.

Danke, Eric Wolff. Meine Zusammenfassung von Shakun et al. hinsichtlich ihres zentralen Themas: es ist eine sehr gute Studie mit soliden neuen Daten, guten Erklärungen und Graphiken. Allerdings ist in diesem Bereich alles noch im Fluss.

Parrenin et al 2013

Parrenin et al. schreiben:

Das Verständnis der Rolle des atmosphärischen CO2-Gehaltes während vergangener Klimaänderungen erfordert genaue Kenntnisse darüber, wie der Gehalt relativ zur Temperatur mit der Zeit variiert. Antarktische Eisbohrkerne konservieren hoch aufgelöste Aufzeichnungen des atmosphärischen CO2-Gehaltes sowie die Temperatur in der Antarktis während der letzten 800.000 Jahre.

Hier zeigen wir eine überarbeitete relative Zeitskala für die Konzentration von CO2 in der Atmosphäre sowie die antarktische Temperatur während der letzten Erwärmung mit schrumpfenden Gletschern, und zwar mittels Daten aus fünf antarktischen Eisbohrkernen. Wir leiten die Synchronisierung zwischen CO2-Konzentration und antarktischer Temperatur zu vier verschiedenen Zeiten ab, als sich deren Trends abrupt änderten.

Wir finden keine signifikante Asynchronizität zwischen ihnen. Das zeigt, dass die antarktische Temperatur nicht hunderte Jahre begonnen hat zu steigen vor [dem Anstieg der] atmosphärischen CO2-Konzentration, wie es in früheren Studien gezeigt worden ist.

Aua! In einem späteren Artikel werden wir in die komplexe Welt der Datierung von Eiskernen und der darin eingeschlossenen Luftbläschen eintauchen.

WAIS Divide Project Members (2013)

Die Ursache für die Erwärmung der Südhemisphäre während der jüngsten Deglaziation bleibt Gegenstand der Diskussion. Hypothesen eines Auslösers auf der Nordhemisphäre durch ozeanische Umverteilungen basieren teilweise auf dem abrupten Einsetzen einer Erwärmung, die in den Eiskernen der Ostantarktis erkennbar ist und sich auf vor 18.000 Jahren datieren lässt. Diese fand mehrere tausend Jahre statt, nachdem die sommerliche Einstrahlung in hohen nördlichen Breiten zuzunehmen begonnen hatte vor etwa 24.000 Jahren.

Eine alternative Erklärung lautet, dass lokale Änderungen der solaren Einstrahlung die Erwärmung der Südhemisphäre unabhängig verursachen. Hier präsentieren wir Ergebnisse eines neuen, jährlich aufgelösten Eisbohrkerns aus der Westantarktis, die diese beiden Ansichten in Einklang bringen. Die Aufzeichnungen zeigen, dass die Schnee-Akkumulation in der Westantarktis vor 18.000 Jahren angefangen hat zuzunehmen, was mit steigenden Kohlendioxid-Konzentrationen, einer Erwärmung der Ostantarktis und einer Abkühlung der Nordhemisphäre zusammenfällt, verbunden mit einer abrupten Abnahme der AMOC. Allerdings begann eine signifikante Erwärmung in der Westantarktis bereits mindestens 2000 Jahre früher.

Abnehmendes Meereis rund um die Antarktis, getrieben durch zunehmende lokale Einstrahlung, ist der wahrscheinliche Grund für diese Erwärmung. Die maritim beeinflussten Aufzeichnungen aus der Westantarktis zeigen eine aktivere Rolle des Südlichen Ozeans beim Einsetzen der Deglaziation, als es aus Eisbohrkernen der Ostantarktis hervorgeht, die weitgehend isoliert sind von Änderungen des Meereises.

Wir erkennen daran, dass „zunehmende solare Einstrahlung” in irgendeinem Teil der Welt mit irgendeinem Wert als eine Hypothese für das Ende einer Eiszeit präsentiert werden kann. „Lokale solare Einstrahlung“ bedeutet hier die solare Einstrahlung im Gebiet der Antarktis. Man vergleiche dies mit Shakun et al., dem zufolge zunehmende Einstrahlung (von einem sehr niedrigen Wert) in hohen nördlichen Breiten als Hypothese einer Erwärmung im Norden präsentiert wurde, die dann eine Erwärmung im Süden initiiert hat.

Das WAIS Projekt ist eine sehr interessante Studie mit neuen Daten aus der Antarktis, dem westantarktischen Eisschild WAIS, wo die Bohrung im Jahre 2011 abgeschlossen worden ist. In diesem Projekt ist zu lesen:

Weil das Klima der Westantarktis ein anderes ist als im Inneren der Ostantarktis kann der Ausschluss westantarktischer Aufzeichnungen zu einem unvollständigen Bild von Klimaänderungen der Vergangenheit in der Antarktis und im Südlichen Ozean führen. Das Innere der Westantarktis liegt tiefer und ist viel stärker von maritimen Luftmassen beeinflusst als das Innere der Ostantarktis, die umgeben ist von steilen Berghängen. Maritim beeinflusste Örtlichkeiten sind von Bedeutung, weil sie direkter atmosphärische Bedingungen reflektieren, die aus Änderungen der Meeresströme und des Meereises resultieren. Eisbohrkern-Aufzeichnungen an Küsten sind allerdings oft schwierig zu interpretieren infolge der komplizierten Eisflüsse und der Geschichte der Höhe über dem Meeresspiegel.

Der Ort des Eisbohrkerns WAIS-WDX in der zentralen Westantarktis ist einmalig, liegt er doch in einem Gebiet mit sehr geringer Änderung der Seehöhe. Er ist stark beeinflusst von maritimen Bedingungen und weist eine relativ hohe Schnee-Akkumulationsrate auf. Das ermöglicht die Gewinnung genau datierter Aufzeichnungen mit hoher zeitlicher Auflösung.

WDC zeichnet wie folgt ein etwas anderes Bild als die anderen antarktischen Eisbohrkerne:

"…und eine signifikante Erwärmung bei WDC begann vor 20.000 Jahren, etwa 2000 Jahre vor einer signifikanten Erwärmung bei EDML und EDC. Sowohl die WDC als auch der schwächer aufgelöste Byrd-Eisbohrkern zeigen, dass die Erwärmung in der Westantarktis vor Abnahme der AMOC begann, die ins Spiel gebracht worden ist, um die Erwärmung der Südhemisphäre zu erklären (unter den Literaturhinweisen fand sich auch Shakun et al. 2012). Die signifikanteste frühe Erwärmung bei WDC erfolgte in der Zeit von vor 20.000 bis 18.800 Jahren, obwohl es auch in der Zeit von vor 22.000 bis 21.500 Jahren zu einer signifikanten Erwärmung gekommen war. Die Größenordnung der Erwärmung bei WDC vor 18.000 Jahren ist viel größer als bei EDML oder EDC.

 

Bildinschrift Figure 1: antarktische Isotopen-Aufzeichnungen. Verhältnis von Wasserisotopen von neun antarktischen Eisbohrkernen. Eingefügt sind die Umrisse der Antarktis mit den Stellen, an denen die Bohrkerne entnommen worden sind: {es folgen die Namen} From WAIS Divide Project (2013)

Wir werden diese Studie in einem späteren Artikel detaillierter unter die Lupe nehmen.

Schlussfolgerung

Das Ende der letzten Eiszeit ist ein faszinierendes Thema, das unsere Fähigkeit herausfordert, Klimawandel zu verstehen. Eine Kritik an der Klimawissenschaft auf vielen Blogs lautet, dass Klimawissenschaftler von GCMs besessen seien anstatt sich mit „realer Wissenschaft“ zu befassen, „reale Experimente durchzuführen“ und „wirkliche Daten betrachten“. Ich kann nicht sagen wo das Gleichgewicht wirklich liegt, aber zumindest auf meiner eigenen Reise durch die Klimawissenschaft fand ich in der Tat, dass es eine willkommene und gesunde Besessenheit gibt, neue Datenquellen zu finden, Daten zu analysieren, Datensätze zu vergleichen und reale Experimente durchzuführen. Die Eisbohrkern-Projekte aus Grönland und der Antarktis wie NGRIP, EPICA und WAIS Divide Projekt sind dafür gute Beispiele.

In anderen Klimablogs scheinen Autoren und Kommentatoren sehr glücklich zu sein, dass Klimawissenschaftler eine Studie geschrieben haben, die „die orbitale Hypothese“ stützt, ohne jede kritische Untersuchung, welche Beweise diese Studie eigentlich stützen.

Kommen wir aber jetzt zu der Kernfrage dieses Artikels zurück, nämlich der nach der Beendigung der letzten Eiszeit. Das Problem ist derzeit wohl nicht so sehr das Fehlen einer Theorie, sondern vielmehr, dass die Datenflut noch nicht in eine klare Reihenfolge von Ursache und Wirkung gebracht werden konnte. Dies ist ganz offensichtlich essentiell, um eine vernünftige Theorie zu entwickeln. Und jede Theorie, die das Ende der letzten Eiszeit erklären kann, wird auch erklären müssen, warum es nicht früher dazu gekommen ist. Die Erwähnung „zunehmender Einstrahlung“ scheint mir eine Art fauler Journalismus zu sein. Zum Glück stimmt zumindest Eric Wolff mit mir darin überein.

Quellen

Global warming preceded by increasing carbon dioxide concentrations during the last deglaciation, Shakun, Clark, He, Marcott, Mix, Liu, Otto-Bliesner, Schmittner & Bard, Nature (2012) – free paper

Climate change: A tale of two hemispheres, Eric W. Wolff, Nature (2012)

Synchronous Change of Atmospheric CO2 and Antarctic Temperature During the Last Deglacial Warming, Parrenin, Masson-Delmotte, Köhler, Raynaud, Paillard, Schwander, Barbante, Landais, Wegner & Jouzel, Science (2013) – free paper, in submission form (rather than published form)

For interest  Valérie Masson-Delmotte is one of the two co-ordinating lead authors for AR5 for the Paleoclimate section, Frédéric Parrenin is a contributing author.

Onset of deglacial warming in West Antarctica driven by local orbital forcing, WAIS Divide Project Members, Nature (2013) – free paper

Anmerkungen

Note 1 – see for example, CO2 – An Insignificant Trace Gas? – an 8-part series on CO2, Atmospheric Radiation and the “Greenhouse” Effect – a 12-part series on how radiation interacts with the atmosphere, Visualizing Atmospheric Radiation – a 13-part series to help us get a better grasp of how this works including “does water vapor overwhelm CO2″, “is CO2 saturated” and many other questions.

Link: http://scienceofdoom.com/2014/01/09/ghosts-of-climates-past-eleven-end-of-the-last-ice-age/




Grüne Lobby erbost: „EU-Führer verabschieden sich von Umweltpolitik“

Die Entscheidung von Jean-Claude Juncker, die Kommission in Teams aufzuteilen, die unter einem Vizepräsidenten tätig sind, wurde von einigen Interessengruppen begrüßt und von anderen verspottet. Umweltaktivisten sind erbost hinsichtlich der neuen Organisation, während Industrieverbände sagen, dass damit unzusammenhängende oder widersprüchliche politische Maßnahmen vermieden und die Bürokratie vermindert werden.

Juncker hat die Portfolios für Energie, Klima und Umwelt in einer gemeinsamen Gruppe unter Alenka Bratušek zusammengefasst, der Vizepräsidentin der Energy Union. Damit hat Juncker vier bestehende Kommissariate zu zwei zusammengefasst. Energie und Klima, derzeit zwei getrennte Portfolios, wurden zu einem Posten zusammengefasst unter Leitung von Miguel Arias Cañete aus Spanien, Umwelt und Fischerei, ursprünglich zwei separate Posten, wurden zu einem zusammengelegt unter Karmenu Vella aus Malta.

Die verbleibenden Kommissare im Team werden Phil Hogan aus Irland als Kommissar für Landwirtschaft sein, Corina Cretu aus Rumänien als Kommissarin für Regionalpolitik und Carlos Moedas als Kommissar für Forschung, Wissenschaft und Innovation.

Gerüchte hinsichtlich der Zusammenlegung der Portfolios Klima und Energie haben grüne Umweltaktivisten seit Wochen alarmiert. Aber die Eliminierung eines entschiedenen Umwelt-Portfolios kam für grüne Gruppen als ein echter Schock.

Kürzlich haben die „grünen 10“ – eine Allianz europäischer Umwelt-NGOs – einen Brief an Juncker geschrieben, in dem sie ihm vorwerfen, dass er „de facto die Umweltpolitik der EU zu Grabe tragen möchte“.

Die Aktivistengruppen sagen, dass die Unterordnung dieser Kommissare unter eine Vizepräsidentin der Energy Union „implizieren könnte, dass Maßnahmen zum Klima energiepolitischen Marktinteressen untergeordnet werden“. Nur Vizepräsidenten werden Junckers neuem System zufolge in der Lage sein, politische Vorschläge auf die Agenda der Kommission zu setzen. Die Campaigners sagen, dass es „an jedwede Referenz zur Umwelt nicht mehr in der Verantwortlichkeit der Vizepräsidenten liegt“.

„Die größte Änderung ist, dass strukturelle Blöcke auf alle neuen gesetzgeberischen Aktivitäten angesetzt werden“, sagt Tony Long, Direktor der Kampagnengruppe WWF. „Jeder Weg ist blockiert, weil alles über den Vizepräsidenten und dann über einen ersten Vizepräsidenten läuft“.

Die Kampaigner sagen, dass der vorgeschriebene Brief von Juncker an Vella zeigt, dass die Rolle der Kommissare eine Agenda umweltlicher Deregulierung sein wird. (…)

Allerdings sagen Industrievertreter, dass die neue Struktur Ineffizienzen eliminieren wird, die zu verwirrenden und inkonsistenten politischen Maßnahmen in der bisherigen Kommission geführt haben. Zum Beispiel haben Connie Hedegaard und Günther Oettinger, die Kommissare für Klimamaßnahmen bzw. Energie, über viele Punkte gestritten, und ihre Abteilungen haben den Interessengruppen einander widersprechende Dinge gesagt.

Markus Beyrer, Generaldirektor von BusinessEurope, beschrieb Junckers Reorganisation als einen „mutigen Weg für eine geradlinige Struktur der neuen Kommission. Dies unterstreicht das klare Ziel, sich auf die grundlegenden Prioritäten zu konzentrieren, die nötig sind, um Europa wettbewerbsfähiger zu machen, um mehr Wachstum und mehr Arbeitsplätze zu schaffen“. (…)

Das an Corina Cretu vergebene Mandat, die die Kommissarin für regionale Entwicklung sein wird, hat ebenfalls einige Unruhe unter den Umweltgruppen ausgelöst. Die Barroso-Kommission hat Mittel in Höhe von 38 Milliarden Euro aus regionalen Fonds für Maßnahmen in Bezug auf Klima festgelegt, wobei er auch die Gewährung dieser Mittel von Ressourcen-Effizienz abhängig gemacht hatte. Junckers Brief scheint zu zeigen, dass dies nicht länger der Fall sein wird.

Full story

Link: http://www.thegwpf.com/greens-furious-as-new-eu-leader-plans-to-shut-down-environmental-policymaking/

Übersetzt von Chris Frey EIKE




WMO: 2013 rekordhohe CO2-Zunahme – aber immer noch keine Erwärmung

Hier folgt die Presseerklärung:

Rekordhohes Treibhausgasniveau betrifft Atmosphäre und Ozeane – die Kohlendioxidkonzentration schießt in die Höhe

Genf, 9. September 2014 (WMO) – Die Menge von Treibhausgasen in der Atmosphäre hat 2013 ein neues Rekordhoch erreicht, angetrieben durch eine Flutwelle von Kohlendioxid. Dies geht aus dem World Meteorological Organization’s annual Greenhouse Gas Bulletin hervor und unterstreicht, dass die Ergreifung konzertierter internationaler Maßnahmen gegen die sich beschleunigende und potentiell verheerende Klimaänderung mehr als dringlich ist.

Dem Treibhausgas-Bulletin zufolge war es zwischen 1990 und 2013 zu einer Zunahme des Strahlungsantriebs um 34% gekommen – der Erwärmungseffekt unseres Klimas – infolge langlebiger Treibhausgase wie CO2, Methan und Stickstoffoxid.

Die Konzentration von CO2 in der Atmosphäre war 2013 im Vergleich zur präindustriellen Ära (1750) auf 142% erhöht; bei Methan und Stickstoffoxid auf 253% bzw. 121%. [Woher weiß man das so genau? Gab es 1750 schon Messungen dieser Gasanteile? Anm. d. Übers.]

Die Messungen des Global Atmosphere Watch (GAW) der WMO zeigten, dass das CO2-Niveau von 2012 auf 2013 stärker zugenommen hat als in jedem anderen Jahr seit 1984. Vorläufigen Daten legen den Schluss nahe, dass dies möglicherweise mit der reduzierten CO2-Aufnahme durch die irdische Biosphäre zusammenhängt zusätzlich zu den stetig zunehmenden CO2-Emissionen [so ein Quatsch! Anm. d. Übers.]

Das WMO-Bulletin zu Treibhausgasen nennt nur die atmosphärischen Konzentrationen – und nicht Emissionen – von Treibhausgasen. Die Emissionen repräsentieren den in die Atmosphäre gelangenden Anteil. Konzentrationen repräsentieren, was davon in der Atmosphäre verbleibt nach dem komplexen System von Wechselwirkungen zwischen Atmosphäre, Biosphäre und Ozeanen. Etwa ein Viertel der Gesamtemissionen werden von den Ozeanen aufgenommen und ein weiteres Viertel von der Biosphäre. Auf diese Weise reduziert sich das in der Atmosphäre angereicherte CO2.

Die Ozeane federn die CO2-Zunahme in der Atmosphäre ab, jedoch mit weitreichenden Auswirkungen. Einer Analyse in dem Bericht zufolge scheint die gegenwärtige Rate der Ozean-Versauerung zumindest während der letzten 300 Millionen Jahre beispiellos.

„Wir wissen ohne jeden Zweifel, dass sich unser Klima ändert [ach nee!] und dass unser Wetter extremer wird*, und zwar infolge menschlicher Aktivitäten wie dem Verbrennen fossiler Treibstoffe“, sagt WMO-Generalsekretär Michel Jarraud.

[*Das sagt der oberste Wetterfrosch der Welt? Kennt er denn die Statistiken seiner eigenen Organisation nicht, die nichts dergleichen zeigen? Anm. d. Übers.]

„Das Treibhausgas-Bulletin zeigt, dass die CO2-Konzentration – weit davon entfernt zu fallen – im vergangenen Jahr tatsächlich mit der höchsten Rate seit fast 30 Jahren zugenommen hat. Wir müssen diesen Trend umkehren durch Reduktion der Emissionen von CO2 und anderen Treibhausgasen. Uns läuft die Zeit davon. Kohlendioxid verbleibt viele hundert Jahre lang in der Atmosphäre, im Ozean sogar noch länger. CO2-Emissionen in Vergangenheit, Gegenwart und Zukunft haben einen kumulativen Effekt sowohl auf die globale Erwärmung als auch auf die Versauerung der Ozeane. De Gesetze der Physik sind nicht verhandelbar“*, sagte Mr. Jarraud.

[* Ob Mr. Jarraud hier seine eigenen physikalischen Gesetze meint? Dann spinnt er. Oder kennt er gar keine physikalischen Gesetze? Wie in aller Welt ist er dann zu seinem Posten gekommen? Anm. d. Übers.]

– – –

Im Original folgen jetzt noch weitere Plattitüden dieser Art, die Anthony Watts alle gebracht hat. Ich denke mal, dass das hier nicht im Einzelnen übersetzt werden muss.

Es kommt noch die angebliche Ozean-Versauerung und was alles schon jetzt vermeintlich zu beobachten ist {was jedoch Satelliten o. ä. gar nicht zeigen}.

Anschließend folgt noch eine Auflistung der einzelnen Treibhausgase und was sie jedes für sich alles anrichten. Genannt werden natürlich Kohlendioxid, dann auch Methan und Stickstoffoxid N2O. In den letzten drei Absätzen geht es ausschließlich um die ach so furchtbaren Folgen der Ozean-Versauerung und dass uns dringend die Zeit davonläuft.

Watts hält all dem am Ende dieser Ergüsse ganz einfach die Statistik entgegen:

Aber trotz all dem gibt es immer noch keine Erwärmung in der unteren Troposphäre:

…und keine Erwärmung an der Erdoberfläche:


Anmerkung: Einige Leute sahen in der grünen Linie in obiger Abbildung eine Trendlinie. Das ist sie aber nicht. Es ist eine Linie zum Vergleich der Ähnlichkeit des Temperaturniveaus global seit 19 Jahren in Relation zur Studie von McKitrick zum Stillstand. Sie zeigt einfach, dass sich das „Plateau“ der Temperatur seitdem nicht verändert hat. Mehr über den Stillstand in den Trends gibt es in diesem informativen Essay.

Link: http://wattsupwiththat.com/2014/09/09/study-shows-record-high-increases-for-atmospheric-co2-in-2013-but-theres-still-no-warming/

Übersetzt und teilweise zusammengefasst von Chris Frey EIKE




Wie die Energiewende Deutschlands Natur zerstört. Unsere Klimaschutz- und Energiepolitik wird zur Hauptgefahr für die biologische Vielfalt. – Kurzfassung-

Vornehmlich Länder mit grünen Ministern (Nordrhein-Westfalen, Rheinland-Pfalz, Baden-Württemberg, Brandenburg und Hessen) haben durch Winderlasse die Nutzung von Wäldern durch Windkraftanlagen freigegeben. Um alle 500 Meter eine Windkraftanlage im Wald zu platzieren, sind sechs Meter breite befestigte Schneisen in den Wald zu schlagen, um die 100 Tonnen schweren Turbinen transportieren und später warten zu können. Um jede Turbine muss ein fünf Hektar großes freies Feld geschaffen werden, um den Flügelkranz durch riesige Kräne hochzuhieven.

Windkraftanlagen = Gefahr für Fledermäuse und Vögel. Unter den Windkraftanlagen  findet man heute jährlich 200.000 tote Fledermäuse. Der Rotmilan-Bestand Brandenburg mit 3200 Windkraftanlagen ist nicht mehr gesichert. Über 300 Rotmilane wurden allein in Brandenburg durch die Rotoren getötet. Der Schreiadler, auch Pommernadler genannt, ist nur noch mit 108 Brutpaaren in Deutschland vertreten und seit dem letzten Jahr in Sachsen-Anhalt ausgestorben.

Vahrenholt ist Alleinvorstand der Deutschen Wildtier Stiftung und Verfasser des Buches „Die kalte Sonne“. Der Sozialdemokrat war Umweltsenator von Hamburg und Vorstand bei Shell http://www.welt.de/debatte/kommentare/article131347057/Wie-die-Energiewende-Deutschlands-Natur-zerstoert.html  




Landtagswahlen 2014- Energiewendegegner AfD gewinnen auf Anhieb 2 stellig Wählerstimmen

Das Märchen von der Einthemenpartei wurde einmal mehr von den Wählern als das eingestuft, das es von Anfang an wahr: Ein Märchen, welches nicht mal die glaubten, die es in die Welt setzten. Und weil es so ist, schadete es allein den Märchenerzählern.

Erheblichen Anteil an der sensationell hohen Zustimmung für die AfD hat die verkorkste Energiewende  die alle Altparteien vorbehaltlos unterstützen. Sind doch viele Bürger es mehr als leid, dass ihre Stromkosten explodieren, ihr Jobs dadurch in Gefahr geraten und die Wände in ihren zwangsgedämmten Wohnungen verschimmeln, ohne dass dem irgendein erkennbarer Nutzen gegenübersteht. 

Und sie sind es auch mehr als leid , dass dass diese Energiewende allein aus ideologischen Motiven und ohne Rücksicht und auf ihre extremen Kosten und Versorgungssicherheit durchgepeitscht wird. Mit ihr wurde die größte Umverteilung von unten nach oben seit dem Ende des zwiten Weltkrieges in Gang gesetzt.

Denn selbst späte Einsichten wie sie Bundesenergieminister Gabriel unlängst in Kassel von sich gab: Zitat

„“Die Wahrheit ist, dass die Energiewende kurz vor dem Scheitern steht.”;

“Die Wahrheit ist, dass wir auf allen Feldern die Komplexität der Energiewende unterschätzt haben.”,

“Für die meisten anderen Länder in Europa sind wir sowieso Bekloppte.” Zitatende

…haben bisher nichts am weiteren massiven Ausbau derselben geändert.

Vermutlich auch deshalb, weil bei einer grundlegenden  Abkehr von dieser Politik die Altparteien ihr grandioses Scheitern öffentlich hätten eingestehen müssen. Das können und das wollen sie nicht.

Deshalb muss und wird die AfD vorerst allein diesen Part übernehmen. „Wenn sich die Zahlen nicht bald ändern, dann muss man die Köpfe ändern“ pflegte der Deutschbanker und Vater der Deutschland AG, Hermann Josef Abs zu sagen. Und handelte danach. In der Politik muss diese Aufgabe vorerst wohl allein die AfD übernehmen, hoffentlich werden andere Parteien bald folgen. Ein Anfang jedenfalls ist gemacht.




Behauptungen eines Konsens‘ von 97% basieren auf betrügerischen und verzerrten Forschungen

Obwohl die Autoren behaupten gezeigt zu haben, dass die meisten Studien zur Klimaänderung akzeptieren, dass die Menschheit für den Hauptteil der jüngsten Erwärmung verantwortlich ist, zeigen in Wirklichkeit die zugrunde liegenden Studien nichts dergleichen.

Ein leitender Klimatologe beschreibt die Studie als ,schlecht aufgemacht, schlecht geschrieben und schlecht ausgeführt‘. Ein anderer Forscher nannte sie ,vollständig unstimmig und nicht vertrauenswürdig‘ und fügte hinzu, dass es klare Beweise für wissenschaftlichen Betrug gäbe.

Andrew Montford, Autor des Berichtes, sagte: „Jetzt wurde über alle Zweifel erhaben gezeigt, dass die Behauptungen hinsichtlich eines Konsens‘ von 97 % zum Klimawandel im besten Falle irreführend sind, möglicherweise in sehr erheblichem Umfang und möglicherweise absichtlich. Es ist höchste Zeit, dass die politischen Entscheidungsträger Abstand davon nehmen, diese erschreckend schlechte Studie als Grundlage für Entscheidungen heranzuziehen“.

Summary

Jüngste Berichte hinsichtlich eines Konsens‘ von 97% der veröffentlichten wissenschaftlichen Studien zur vom Menschen verursachten globalen Erwärmung basieren auf einer Studie von Cook et al. Welcher Konsens genau vermeintlich in diesen Studien zum Ausdruck kommt, geht aus dem Text der Studie nicht hervor. Eine Analyse der von Cook et al. benutzten Methodik zeigt, dass der behauptete Konsens trivialer Natur ist:

• Kohlendioxid (CO2) ist ein Treibhausgas

• Menschliche Aktivitäten haben den Planeten bis zu einem nicht spezifizierten Ausmaß erwärmt.

Fast jeder, der mit der Klimadebatte etwas am Hut hat einschließlich der Mehrheit der Skeptiker akzeptiert diese Aussagen. Die Studie von Cook et al. ist also sehr wenig aussagekräftig.

Zahlreiche Kritiken an der Studie wurden veröffentlicht, einige davon durch Befürworter der Mainstream-Ansichten zur Klimawissenschaft. Diese haben substantielle Verzerrungen in der Methodik ans Licht gebracht. Cook hat mit Sicherheit falsch präsentiert, was seine Forschung eigentlich zeigt. Noch wichtiger, ein Forscher hat den Vorwurf wissenschaftlichen Betrugs erhoben, was bislang von Cook und seinen Kollegen nicht bestritten worden ist.

Conclusions

Während Cooks Vorgehen mehr PR oder Propaganda als wissenschaftlicher Methodik entspricht, gibt es kaum Zweifel daran, dass es einen wissenschaftlichen Konsens gibt, allerdings nicht von der Art, den die Autoren der Studie die Öffentlichkeit glauben machen wollten. Der von Cook et al. beschriebene Konsens ist praktisch bedeutungslos und sagt uns nichts über den gegenwärtigen Stand der wissenschaftlichen Meinung über die triviale Beobachtung hinaus, dass Kohlendioxid ein Treibhausgas ist und dass die Menschheit den Planeten bis zu einem nicht spezifizierten Ausmaß erwärmt hat. Die Zahl 97% ist vollständig diskreditiert, was auch immer die Natur des Konsens‘ ist. Allerdings haben die Vorwürfe gegen Cooks Studie von einer ganzen Reihe von Experten, die das Konzept, die Methodik und die Integrität der Forschung kritisiert hatten, seine Schlussfolgerungen in ein ganz neues Licht getaucht. Mit dem über der Studie schwebenden öffentlichen und unwidersprochenen Vorwurf des wissenschaftlichen Betrugs sieht der 97%-Konsens in der Tat sehr wackelig aus.

Die ganze Studie: http://www.thegwpf.org/content/uploads/2014/09/Warming-consensus-and-it-critics.pdf

Link: http://www.thegwpf.com/new-paper-the-97-consensus-and-its-critics/

Übersetzt von Chris Frey EIKE




Am Ende der Energiewende-Sackgasse lauert das Dunkelflaute-Gespenst

Diese Anträge werden immer mehr: Mitte August waren insgesamt 7.900 Megawatt zur endgültigen Stilllegung angezeigt. Allein mehr als 4.500 MW entfielen dabei auf den süddeutschen Raum. Dort sollen jedoch nach dem Ausstiegsbeschluss der Bundesregierung bis 2022 fünf Kernkraftwerke vom Netz gehen.

Wie ernst die Situation schon heute ist, in der bereits jetzt alle Stilllegungsanträge aus dem süddeutschen Raum abgelehnt werden (müssen), ergibt sich aus den unten zitierten Feststellungen der Bundesnetzagentur.

Die Entscheidung der Bundesnetzagentur hat in jedem Fall unangenehme Konsequenzen für den Besitzer der verlustbringenden Anlage, denn selbst wenn das Kraftwerk als doch nicht systemrelevant eingeordnet ist,  wird ihm der Weiterbetrieb um ein ganzes Jahr angeordnet und die weiter auflaufenden Verluste muss er selber tragen, nicht der anordnende Staat, den die BNetzA vertritt.

Noch härter trifft es die systemrelevanten Kraftwerke: Sie müssen 24 Monate weiter am Netz bleiben und auch in diesen Fällen erhalten die Besitzer für die ersten 12 Monate gar nichts. Für die folgenden 12 Monate ist dann eine Entschädigung fällig, über die verhandelt werden muss. Wie berichtet wurde, deckt diese Entschädigung manchmal auch nur 70% der Verluste.

Erstaunlich ist die Dreistigkeit, mit der der Staat das im Grundgesetz-Artikel 14 garantierte Recht zum Schutz des Eigentums mit einem Absatz eines Branchengesetzes bricht. Diese Großtat stammt von der die Marktwirtschaft verbal stets hochhaltenden  letzten CDU/CSU-FDP-Regierung.  Die Gerichte haben es bereits mit Klagen gegen die darauf beruhenden Entscheidungen zu tun bekommen.

Im Grunde wollte ich nur die für einen Ingenieur immer schwer verdaulichen gewundenen Sprachkreationen der Juristen auf mir bislang verborgene Details absuchen.  Die Webseite der BNetzA (101) brachte zumindest einige erklärende Sätze, aber darunter standen zum Herunterladen drei Entscheidungen der Agentur zu konkreten Anträgen von Übertragungsnetzbetreibern (ÜNB).

Die neueste davon stammt vom 23.6.2014 und ist an die Transnet GmbH / Baden-Württemberg gerichtet. Darin wird deren Antrag auf die „Systemrelevanz-Ausweisung“ von zwei EnBW-Kraftwerksblöcken in Heilbronn zugestimmt. 

Der ungemein lange Text dieser Entscheidung verleitet eigentlich nicht zur Lektüre, insbesondere weil seitenlang und langatmig erklärt wird, was Systemrelevanz bedeutet.

Aber das Lesen lohnt sich doch, denn dieses Papier entpuppt sich als eine schonungslose Kritik des durch die Energiewende verursachten Bedrohungszustands des Versorgungsnetzes – und endet dann mit der erwähnten Entscheidung, der man dann wirklich nur ziemlich entsetzt zustimmen kann.

Ich weiß aus 30-jähriger Erfahrung in der Ministerialbürokratie, dass es in unserem System gottlob immer mal wieder vorkommt, dass aus einer unteren Ebene ein in Klartext geschriebenes ehrliches Dokument ans Licht der Öffentlichkeit gelangt, das alle offiziellen Heucheleien, Schönfärberei- und Weichspülprozesse beiseite wischt.

Ich zitiere aus dem Brief der Bundesnetzagentur an Transnet BW GmbH vom 23.6.2014,

(Hervorherbungen vom Autor):

„Genehmigungsbescheid der Bundesnetzagentur gem. §13a Abs.2 EnWG zur Systemrelevanz-Ausweisung von Kraftwerksblöcken in Heilbronn.

AZ: 608-14-003

(1)….Bei Zugrundelegung der beiden betrachteten Szenarien („Starklast/Starkwind-Szenario“ und „Starklast/Dunkelflaute-Szenario“) ergibt sich grundsätzlich die Abhängigkeit des sicheren und zuverlässigen Netzbetriebs von gesicherter Verfügbarkeit konventioneller Kraftwerke, die südlich der potentiell überlasteten Übertragungsleitungen südlich des Ruhrgebiets („Mittelrheintrasse“) und der Leitung „Remptendorf-Redwitz“ liegen.

In Zeiten hoher Windeinspeisung aus nördlich der potentiell überlasteten Übertragungsleitungen gelegenen Windkraftanlagen bei gleichzeitig hohem Verbrauch in den laststarken Ballungszentren und Wirtschaftsstandorten in Süddeutschland können die elektrischen Nord-Süd-Lastflüsse das Übertragungsnetz überfordern, sofern den Übertragungsnetzbetreibern ÜNB keine hinreichenden Erzeugungskapazitäten zur Verfügung stehen um….gegenzusteuern.

Derartige Situationen treten typischerweise an windreichen kalten Winterabenden auf.  Darüber hinaus kann es auch an laststarken (Winter-) Tagen, bei denen keine (erhöhte) Windeinspeisung aus Norddeutschland erfolgt, zu erheblichen elektrischen Nord-Süd-Flüssen kommen.

In diesem Fall kann eine nahezu vollständige Auslastung des konventionellen Kraftwerksparks in Deutschland beobachtet werden, was eine erhebliche Belastung, gegebenenfalls sogar eine Überlastung – insbesondere der Mittelrheintrasse – nach sich zieht.

Zwischenbemerkung:

Am Ende der Energiewende- Sackgasse lauert also das „Dunkelflaute“-Gespenst.

Es kommt, wenn die Sonne verblasst, der Wind einschläft und ein eisiger Wintertag den Stromverbrauch hochtreibt. Ein Arbeitsbegriff der Netzbetreiber, der eine gute Chance hat, das Wort des Jahres 2014 zu werden. Seine dunkle Klangfarbe lässt das damit verbundene Unheil ahnen. Deutsch ist doch manchmal eine wunderschöne Sprache.

Und weiter im Bescheid:

(2)…Bezogen auf die zeitweise auftretenden Netzbelastungen im deutschen Übertragungsnetz, die in  der Flussrichtung von Nord- nach Süddeutschland bestehen, bedarf es nach gegenwärtigem Erkenntnisstand regelmäßig nördlich einer fiktiven Linie in Höhe von Frankfurt am Main der Absenkung der Kraftwerksleistung und südlich dieser fiktiven Linie der Leistungserhöhung.

Konkret sind die Leitungen „Mittelrheintrasse“  und die Leitung „Remptendorf-Redwitz“ gegenwärtig potentiell überlastet.

Um drohende oder bestehende Netzüberlastungen effektiv beseitigen zu können, ist es notwendig, dass südlich der überlasteten Leitung in hinreichendem Umfang freie Erzeugungskapazität von Kraftwerken zur Verfügung gestellt werden kann, die sich im Markt befindlichen oder von Kraftwerken, deren endgültige oder vorläufige Stilllegung geplant ist.

(3) …In einer Netzsituation, in welcher der Leistungsbedarf zur Beherrschung der Nord-Süd-Transporte größer ist, als die südlich der überlasteten Leitungen verfügbare Leistung, kann demnach von einer nicht unerheblichen Gefährdung des (n-1)-sicheren Netzbetriebs ausgegangen werden.

(4)…Verdeutlicht wird die Bedeutung der Verfügbarkeit dieser (Anm.: südlichen) Kraftwerke auch dadurch, dass die ÜNB im Rahmen der Systemanalyse….für die bisher untersuchten Zeiträume Winter 2013/2014, Winter 2014/2015, Winter 2015/2016 und Winter 2017/2018 jeweils zu dem Ergebnis gekommen sind, dass es in den geprüften Szenarien über die süddeutschen Kraftwerke hinaus noch des Einsatzes ausländischer Kraftwerke bedarf, um das Übertragungsnetz im Rahmen der betrieblichen Vorgaben sicher zu betreiben.

(5)…Der Wegfall von in Süddeutschland gelegenen Kraftwerken würde das Defizit (Anm.: das somit längst besteht) und somit den Bedarf an ausländischen Reservekraftwerken erhöhen.

(6)…im Regelfalle ist davon auszugehen, dass alle in Süddeutschland verbleibenden Kraftwerke systemrelevant sind.

(7)…Die Ausweisung der Systemrelevanz für die Dauer von 24 Monaten rechtfertigt sich daraus, dass der gegenwärtige Zustand der bestehenden Transport- und Leitungsengpässe auch noch in den kommenden zwei Jahren mit hoher Wahrscheinlichkeit fortbestehen wird.

(8)…Im Einzelfall mag es absehbar sein, dass die betreffende Anlage möglicherweise länger als 24 Monate zur Aufrechterhaltung der Netzstabilität benötigt wird.

…Eine etwaige Änderung der bisherigen Begrenzung der Systemrelevanzausweisung auf jeweils höchstens für eine Dauer von 24 Monaten bleibt aber dem Gesetzgeber vorbehalten.

(Anm.: Eine Mahnung an die Regierung, diesen Zeitraum zu verlängern).“

Ende des Zitats.

Dieses offiziell von der BNetzA verbreitete Schreiben an Transnet schafft in seiner Begründung eine überzeugende Klarheit über die tatsächliche Situation.

Zur Versorgungssicherheit, zur Situation im Übertragungsnetz und zu den Ursachen der Probleme kann man nun die folgenden Punkte festhalten:

1. Das regelmäßig vorgebrachte Argument, in Deutschland gebe es eine Kraftwerks-Überkapazität ist eine absichtliche Falschbehauptung. Im Gegenteil kann man zumindest in Süddeutschland auf kein einziges der Kohle- und Gaskraftwerke verzichten, welche Gründe auch immer seine Stilllegung erforderlich machen (2; 4; 5; 6).

2. Die Situation ist dermaßen ernst, dass es in den besonders kritischen Situationen ohne den Einsatz ausländischer Kraftwerke schon seit längerem nicht mehr geht (4; 5).

3. Die Überlastungssituation der Transportleitungen zwischen Nord- und Süddeutschland ist bei bestimmten Wetterlagen und „laststarken (Winter-) Tagen“ der Normalfall (1; 2; 3).

4. Wenn von einer „nicht unerheblichen Gefährdung des (n-1)-sicheren Netzbetriebs“ auszugehen ist, bedeutet das im Klartext akute Blackout-Gefahr beim Ausfall einer wichtigen Netzkomponente (Leitung, Transformator, Schaltanlage etc.) (3).

5. Die Szenarien, die von den Übertragungsnetzbetreibern berechnet worden sind, lassen für die drei kommenden Winter das Schlimmste befürchten (4).

6. Die Bundesnetzagentur beklagt recht deutlich, dass sie die „Systemrelevanzausweisung“, also den Zwang zum längeren Weiterbetrieb unrentabler Kraftwerke, nicht über die 24 Monate hinaus verlängern darf, weil dies „im Einzelfall“ notwendig sein könne. Ein Wink mit dem Zaunpfahl an den Gesetzgeber, der an der Grenze dessen liegt, was sich eine nachgeordnete Behörde (hier gegenüber dem BMWi) leisten darf (8).

7. Das sich durch den gesamten Begründungstext hindurchziehende Klagelied über die ganz offen eingestandene und längst eingetretene Unterversorgung von Süddeutschland durch konventionelle Kraftwerke vermeidet sehr bemüht die Nennung der einzigen wirksamen Maßnahme, die dieser gefährlichen Situation sofort ein Ende bereiten würde: Die Wiederinbetriebnahme der abgeschalteten süddeutschen Kernkraftwerke.

8. Weiterhin stellen diese Aussagen der zuständigen Regierungsbehörde eine vernichtende Kritik an der Energiewendepolitik und dem Kernkraftausstieg dar, denn sämtliche die Versorgungssicherheit bedrohenden Probleme wurden erst durch die politischen Entscheidungen und damit in voller Absicht von der Regierung geschaffen.

Die Hilflosigkeit und die ganz offensichtliche Verzweiflung der BNetzA-Verantwortlichen an den gesetzlichen Zwängen, den künstlich erzeugten Gefährdungen und an ihrer eigenen Rolle als ausgebremste Eingreiftruppe, der alle wirksamen Maßnahmen untersagt sind, kann durchaus Mitleid erzeugen. Insbesondere auch deshalb, weil diese Unterbehörde als Prügelknabe für alle kleinen und größeren Katastrophen vorgesehen ist.

Die Verantwortlichen für alle genannten Probleme sitzen zwei Etagen höher.

Noch einige Erläuterungen zu den Maßnahmen, die die Netzbetreiber in Engpaßsituationen ergreifen:

Es nennt sich Redispatch und bezeichnet die kurzfristige Änderung des Kraftwerkseinsatzes auf Anordnung der ÜNB zur Vermeidung von Netzengpässen. Die Durchführung des Redispatch wird über sogenannte Kraftwerkspärchen durchgeführt, sodass beispielsweise ein Kraftwerk, das sich vor dem erwarteten Netzengpass befindet, angewiesen wird, weniger Strom zu produzieren und ein anderes, das sich hinter dem Engpass befindet, mehr Strom zu erzeugen.

Interessant und sehr bezeichnend sind die Häufigkeits-Zahlen dieser Eingriffe:

– Vor einigen Jahren gab es noch 3 bis 5 Redispatch-Eingriffe pro Jahr, (Tennet VDI Nachrichten,vom  4. 10.13)

– Im Jahre 2012 waren es knapp 1000.

– Im 1. Halbjahr 2013: 1098.

– Im 2. Halbjahr 2013: 1585.

– Im 1. Halbjahr 2014: 1831.

Das bedeutet, dass Ende 2014 vermutlich über 3.500 Redispatch-Eingriffe erfolgt sein werden.

Das Jahr hat 8.760 Stunden – und es erfolgt keineswegs gleichmäßig alle 2,7 Stunden ein solcher Eingriff; vielmehr gibt es Katastrophentage, an denen ununterbrochen Redispatch erfolgen muss.

 

Abbildung 1 : Anzahl der Netzeingriffe zur Stabilitätserhaltung pro Jahr. Die Daten vor 2012 wurden geschätzt, bzw. entsprechen dem im Text erwähnten Zitat von Tennet. Die Gesamt-Zahl für das Jahr 2014 wurde hochgerechnet

Schauen Sie wie diese Zahlen als Kurve aussehen, wie in Abb 1 geschehen. Sie ist nicht linear. Und man sollte viel Platz nach oben für 2015 und 2016 lassen. Ferner empfehle ich, das Ergebnis der kürzlich erfolgten „EEG-Reform“ in Bezug auf den weiteren, kräftigen Ausbau von Windrädern und Photovoltaik-Paneelen anzusehen. Das Ergebnis wird vermutlich ein weiterer Punkt auf der Kurve sein, der ziemlich weit oben liegt.

Es könnte aber sein, dass Sie nicht mehr dazu kommen, diesen Punkt einzutragen: Das Dunkelflaute-Gespenst löscht auch die Beleuchtung,

Interessant sind auch die mit dem Redispatch verbundenen Kosten, die den betroffenen Kraftwerken erstattet werden (Brennstoffkosten, Anfahren der Anlage, Verluste durch das Herunterfahren):

– Sie beliefen sich 2011 auf 41,63 Millionen Euro.

– Im Jahre 2012 waren es bereits 164,8 Millionen Euro.

Ach ja, wer bezahlt übrigens Redispatch-Kosten und die Entschädigungen für die systemrelevanten, scheintoten Kraftwerke ? Natürlich die Stromkunden, und zwar mit den  Netzentgelten als Bestandteil ihrer Rechnung.

Quelle: Bundesnetzagentur: „Systemrelevante Kraftwerke“, 14.8.2014,

            www.bundesnetzagentur/de/SharedDocs/Downloads/DE/Sachgebiete/Energie/

            Unternehmen_Institutionen/Versorgungssicherheit/Erzeugungskapazitäten/

            systemrelevanteKW/Bescheid_Transnet_23_06_2014.pdf

            Darin „Bescheid im Verfahren der Transnet BW GmbH vom 23.6.2014 (pdf, 3MB)“.

Sankt Augustin, 10. September 2014




Neuer Höchststand bei der atmosphärischen CO2 Konzentration – Problem, oder völlig normal?

Leserbrief zum WA-Artikel am 10.9.2014 über den neuen Höchststand des Treibhausgases CO2 (dpa-Meldung)

Vor wenigen Wochen wurde uns bereits von gut bezahlten Klimaforschern das bevorstehende Abschmelzen der Polkappen angekündigt. Laut Mitteilung der Weltorganisation für Meteorologie in Genf sollen jetzt auch noch die Meere durch den ständigen CO2-Ausstoß einer unausweichlichen Übersäuerung entgegengehen. Beides sind total übertriebene Aussagen, die mit solider Wissenschaft nichts zu tun haben, und der Begriff Höchststand beschreibt nichts anderes als einen völlig trivialen Sachverhalt. Genauso gut könnte man sagen, der langsam wachsende Gipfel des Mount Everest befindet sich jedes Jahr auf einem neuen Höchststand.

Knapp 2 ppm (Millionstel Volumenanteile) beträgt der jährliche Anstieg des CO2, bedingt (1) durch den Verbrauch fossiler Brennstoffe einschließlich illegaler Brandrodung. Bei derzeit 400 ppm sind das 0,5% ohne erkennbare Beschleunigung im letzten Jahr, wie fälschlicherweise behauptet wird. Dies entspricht einem Gewicht von ca. 15,5 Milliarden Tonnen. Etwas mehr als die gleiche Menge ist im letzten Jahr zu ungefähr gleichen Teilen von den Ozeanen und der Biosphäre aufgenommen worden. Der maritime CO2-Zuwachs betrug hiernach in dieser Zeit ca. 1 ppm. Ungefähr das 20000-fache befindet sich bereits im Meerwasser (50 mal so viel wie in der Atmosphäre). Der jährliche Zuwachs beträgt also gerade mal 0,005%. Um im Meerwasser den gegenwärtigen pH-Wert von im Mittel 8,2 nur auf 8,1 zu senken (was immer noch im basischen Bereich läge), wäre eine dissoziationsbedingte Zunahme der H-Ionenkonzentration um 30% erforderlich. Jeder Abiturient und erst recht jeder Mathematiklehrer müsste das leicht nachvollziehen können, wenn er weiß, dass der pH-Wert eine dekadisch logarithmische Zahl darstellt. Bei dem o.g. grotesken Missverhältnis ist es geradezu absurd, von einer beängstigenden Übersäuerung der Meere zu sprechen.

Genauso falsch ist die Behauptung, dass die CO2-bedingte Wärmerückstrahlung in der Zeit von 1990-2013 durch die fortlaufenden Emissionen um 27% zugenommen hat. Der CO2-Zuwachs betrug in dieser Zeit 23 x 2 = 46 ppm. Dies entspricht einer Rückstrahlungszunahme von 0,65 Watt/m². Mehr ist aus dem fast ausgeschöpften Spektralbereich um die 15 Mikrometerlinie nicht herauszuholen. 1990  lag die durch CO2 bewirkte Wärmerückstrahlung bei ca. 37 Watt/m². Der Anstieg bis 2013 betrug also in Wirklichkeit nur 1,8% und nicht 27%.

Ebenso falsch ist die Aussage, dass der Säuregehalt der Meere heute den höchsten Stand seit 300 Millionen Jahren aufweist. Damals begann gerade das Erdzeitalter Perm, in dem der CO2-Gehalt der Atmosphäre fast 4 mal so hoch wie heute war und sich somit auch in den Meeren entsprechend ausgewirkt hat.

Die letzte falsche Aussage ist die, dass der Mensch durch den Verbrauch fossiler Brennstoffe ohne allen Zweifel das irdische Klima bedroht. Bisher hat er lediglich mit 0,2°C einen völlig unbedeutenden Einfluss genommen, was ich  in zahlreichen Leserbriefen bereits mehrfach nachgewiesen habe. Die Zeit ist reif, unsere gesamte Energiepolitik wieder schnellstmöglich auf den ursprünglichen Stand zurückzuführen, bevor die kaum noch zu rettende Billion Euro gänzlich ausgegeben ist.

Dr. rer.nat. Siegfried Dittrich

(1) Diese Meinung von Dr. Dittrich über den anthropogenen Anteil am Zuwachs der CO2 Konzentration wird von der Redaktion nicht geteilt. Siehe u.a. Salby hier




Wie die Politik zur globalen Erwärmung zu globaler Unsicherheit geführt hat

Während der letzten beiden Jahrzehnte haben die Aktivisten der globalen Erwärmung erfolgreich die Entwicklung von Ölsanden verhindert, große Pipelines wie Keystone XL blockiert, Kohlekraftwerke zum Schließen gebracht und Projekte bzgl. Schiefergas und -öl zu Fall gebracht. Ohne ihren Aktivismus wäre die westliche Welt schon vor Jahren nicht nur Selbstversorger hinsichtlich fossiler Treibstoffe geworden, sondern sogar ein Exporteur. Selbst mit diesen Blockaden ist es den USA gelungen, eine wundersame Transformation zu managen – waren sie einst der größte Energie-Importeur weltweit, werden sie jetzt zum wichtigen Exporteur. Unter den westlichen Kontinenten verharrt nur Europa unter dem Diktat von Energie-Exporteuren, die meisten davon aus abstoßenden und feindlichen Gebieten wie dem Nahen Osten, Russland und Venezuela.

Wäre der Westen schon früher zu einem wichtigen Energie-Exporteur geworden, hätten diese feindlichen Ökonomien ihre führende Marktstellung und einen Großteil ihrer Einnahmen verloren, besonders nachdem die Preise ebenfalls kollabiert wären in einer Welt, die im Energie-Überfluss lebt. Russland beispielsweise ist zu 30% seines BIP von Energie abhängig, Venezuela zu 33% und einige Länder des Nahen Ostens zu über 50%. Ihre Ökonomien wären geschrumpft und unfähig, soziale Dienste im eigenen Lande zu finanzieren, geschweige denn militärische Abenteuer im Ausland. Ihre Regimes hätten sich auf Selbstdarstellung konzentriert und nicht darauf, Ideologien in der Welt zu verbreiten.

In einer Welt voller billiger, reichlicher Energie hätte sich die IS niemals als eine wesentliche Bedrohung entwickeln können. Diese ultimative islamische Terrortruppe ist in großem Stil abhängig von Zuwendungen durch Energie-Exporteure wie Qatar, einem der Muslim-Bruderschaft freundlich gesonnenen Emirat, und von Verkaufserlösen eigener Ölfelder, die durch Kämpfe erobert worden sind. Ohne das Dogma der globalen Erwärmung wäre keine dieser Einnahmequellen für die IS von Nutzen gewesen.

Genauso wäre Iran, Qatars Rivale für die Nummer 1 als Zahlmeister des islamischen Terrorismus, knapp bei Kasse. Das Land wäre nie in der Lage gewesen, so beachtliche Gruppen in der Galerie der Terroristengruppen in jenem Gebiet wie Hamas und Islamischer Dschihad in Gaza, Hisbollah in Libanon und Assad in Syrien zu finanzieren, um deren Terrorzellen im Westen nicht zu erwähnen.

Auch Russland wäre viel weniger stark und unfähig, seine Nachbarn zu bedrohen, so wie es in den achtziger Jahren der Fall war, als die gescheiterte Wirtschaft der UdSSR zu seinem Zerfall führte und sich sein eiserner Griff auf die Ukraine und den Rest von Osteuropa lockerte. Der potente Putin, den wir groß gemacht haben, wäre stattdessen zu Putin, dem Impotenten geworden. (…)

Ironischerweise haben die Umweltaktivisten, die die politischen Maßnahmen gegen die globale Erwärmung durchgesetzt haben, gedacht, dass sie die globale Sicherheit erhöhen würden. Kriege – vor allem die im Nahen Osten – entstanden auf der Grundlage des westlichen Wunsches nach Öl, argumentierten sie. Indem man den Westen von Öl weg- und zu CO2-freien Erneuerbaren hinbringen wollte, würde der Westen sein Interesse an den Energie-Ressourcen aus dem Nahen Osten verlieren, was zu einer neuen Ära des Friedens führen würde.

Zum Teil hatten sie recht – es war sinnvoll, die Abhängigkeit des Westens von Energie aus dem Nahen Osten zu reduzieren. Und sie hatten zum Teil unrecht – die Alternativen zu Öl und Gas aus dem Nahen Osten waren nicht die Erneuerbaren, sondern Öl und Gas aus westlichen Ländern. Und sie waren komplett fehlgeleitet – im Gegensatz zu ihren Behauptungen, hat sich doch der Planet jetzt seit fast 20 Jahren nicht mehr erwärmt.

Heute fahren die meisten westlichen Regierungen ihre politischen Maßnahmen zur globalen Erwärmung zurück. Sie kappen ihre ruinös teuren Subventionen für Erneuerbare und entwickeln aggressiv fossile Treibstoffe weiter. Alles, was die Angstmache vor der globalen Erwärmung erreicht hat, war, die Brieftaschen der Menschen zu erleichtern – zehner Millionen Europäer leiden derzeit unter „Energiearmut“. Damit werden in Europa Menschen bezeichnet, die ihre Stromrechnungen nicht mehr bezahlen können. Und erreicht wurde auch eine Zunahme von Kriegen, Terrorismus und globale Unsicherheit.

Full post

Link: http://www.thegwpf.com/lawrence-solomon-how-global-warming-policies-have-led-to-global-insecurity/

Übersetzt von Chris Frey EIKE




Stell Dir vor es ist Klimagipfel – und keiner geht hin

In der Huffington Post legte Ban Ki-moon Anfang September 2014 seine Beweggründe dar:

Ich habe die Welt bereist, um die Auswirkungen mit eigenen Augen zu sehen. Von der Arktis bis zur Antarktis, von den tief liegenden Inseln des Pazifiks, die durch den steigenden Meeresspiegel bedroht werden, bis zu den schmelzenden Gletschern Grönlands, der Anden und der Alpen. Ich habe sich ausbreitende Wüsten in der Mongolei und der Sahelzone gesehen und bedrohte Regenwälder in Brasilien. Überall habe ich mit den betroffenen Menschen gesprochen, die über die Bedrohung für ihre Lebensweise und ihre Zukunft durch den Klimawandel tief besorgt sind.

Sehr geehrter Herr Generalsekretär. Wenn Sie wirklich CO2 einsparen wollen, sollten Sie NICHT in Ihrem UN-Jet um die Welt jetten, um sich angeblich den Klimawandel mit eigenen Augen anzuschauen. Vielleicht haben Sie zwischenzeitlich mitbekommen, dass die Pazifik-Atolle lebende Korallengebilde sind, die dem Meeresspiegel hinterherwachsen. Die Gletscher sind bereits vor 1000 Jahren zur Zeit der Mittelalterlichen Wärmeperiode geschmolzen, als es so warm wie heute war. Die Sahelwüsten breiten sich derzeit nicht etwa aus, wie Sie behaupten, sondern ergrünen. Die Regenwälder Brasiliens sind vor allem durch Abholzung wegen Palmöl und Biosprit bedroht. Hierüber sollte man tief besorgt sein, nicht so sehr über den Klimawandel.

Im Gegensatz zum UN-Generalsekretär haben offenbar viele Regierungschefs mitbekommen, dass hier die Wissenschaft überreizt hat. Immer mehr Forscher distanzieren sich explizit vom Katastrophengedankengut. Nach 16 Jahren ausgebliebener Erwärmung ist die Vertrauensbasis zwischen Politik und IPCC-Wissenschaftlern nachhaltig gestört. Wir hatten an Euch geglaubt, und ihr habt uns enttäuscht, beklagen sich nun die beleidigten Volksvertreter hinter vorgehaltener Hand.

Da wundert es nicht, dass kaum jemand mehr Lust auf den Klimagipfel-Zirkus hat. Die deutsche Kanzlerin Angela Merkel hatte schon im Mai 2014 dankend abgelehnt. Sie hätte ganz wichtige Termine. Um was könnte es sich handeln? Noch findet sich in Merkels Online-Terminkalender kein Eintrag für den 23. September. Unverschiebbarer Frisörbesuch? Häkelabend mit den Freundinnen? Lassen wir uns überraschen.

Mitte August 2014 sagte dann der indische Premierminister Narendra Modi ab. Indien ist der drittgrößte CO2-Emittent der Erde. Vielleicht hatte man in Neu Delhi Angst wegen der geforderten “konkreten Maßnahmen” bekommen. Oder man hat sich einfach die Temperaturkurve angeschaut.

In Peking war man daraufhin not amused. Plötzlich hatte auch der weltgrößte CO2-Verursacher China keine Lust mehr auf New York. Derchinesische Präsident Xi Jinping fackelte nicht lange und stornierte sein Flugticket. Da kommt sowieso nichts bei den Verhandlungen heraus, ließ man die UN wissen.

Keine deutsche Kanzlerin, kein indischer Premierminister und auch kein chinesischer Präsident. Da wurde der UN-Generalsekretär sichtlich nervös und nominierte kurzerhand nach. Fündig wurde er in der politischen “Regionalliga”: Der Bonner Oberbürgermeister Jürgen Nimptscherklärte sich freundlicherweise bereit, zur Tagung an den East River zu reisen. Ban Ki-moon war hocherfreut, und der Gipfel war gerettet. Wenn alle Bonner Bürger sich ganz kräftig anstrengen, können sie den indischen und chinesischen CO2-Überschuss des kommenden Jahres vielleicht in geschätzt zwei Milliarden Jahren ausgleichen.

Überhaupt sieht es nicht allzu gut in Sachen Klimaverträgen aus. Das berühmte Kyoto-Protokoll lief Ende 2012 aus. Auf der damaligen Klimakonferenz in Doha hatten 144 Länder versprochen, einer Weiterführung des Vertrags bis 2020 zuzustimmen. Bis heute haben aber erst elf Staaten die Verlängerungsdokumente unterzeichnet. Haben es sich 133 Länder mittlerweile anders überlegt? Keiner der 28 EU-Staaten hat bislang unterschrieben, auch nicht Deutschland. Dafür sind aber schon Mauritius und Mikronesien mit dabei, die von Klimaschutzzahlungen profitieren würden.

Der klimaalarmistisch getriebene US-Präsident Barack Obama hat jetzt eingesehen, dass es keinen Sinn mehr macht, einen großen neuen internationalen Klimavertrag anzustreben. Das kann realistischerweise sowieso nicht klappen. In Paris Ende 2015 soll es daher lieber um ein nicht-bindendes Abkommen gehen. Das werden die Staatschefs dann eher unterschreiben. Denn sie müssten sich ja dann auch nicht daran halten, wenn sie keine Lust mehr haben…

Übernommen von „Die kalte Sonne“ hier

 




Das Gerede vom Rückgang der Strompreise

Rudolf Kipp beschäftigte sich in einem Beitrag auf Science-Skeptical Blog [KIPP] ausführlich mit diesem scheinbaren Bruch des bisherigen Aufwärtstrends und stellte einige interessante Zusammenhänge heraus.

Bild 1. Das EEG-Umlagekonto wies schon immer Schwankungen auf (Grafik: [KIPP])

Wie Bild 1 zeigt, wies das EEG-Umlagekonto schon immer mehr oder weniger starke Schwankungen auf, so dass es in den Folgejahren mal zu stärkeren, mal zu schwächeren Erhöhungen der EEG-Umlage kam. Nachdem die Erhöhung von 2013 auf 2014 besonders kräftig ausgefallen war, landete das Konto per Oktober 2014 ausnahmsweise im Plus. Also keine Trendumkehr, sondern wohl eher ein „Ausreißer“.

Bild 2 Windenergieeinspeisung ab 01.01.2014 bis 06.09.2014 (Grafik: [HECK])

Fast zeitgleich weist Wilfried Heck in seinem Blog nach, dass das Jahr 2014 bisher zumindest für Windmüller miserabel verlaufen ist [HECK]. Bei einer installierten Windleistung von rund 37000 MW (Deutschland und Österreich) speisten die Anlagen im Zeitraum vom 1.1. 2014 bis zum 6.9. 2014 nur mit einer mittleren Leistung von 5848 MW ins Netz ein, Bild 2 Das entspricht einem Nutzungsgrad von mickrigen 15,8 %. Dementsprechend geringer waren natürlich die Zahlungen, die aus dem Umlagekonto abgerufen wurden.

Bild 3 (geändert gegenüber der 1. Version vom 12.9.14). Im Vergleich zu den Vorjahren sind die jährlichen Zubauraten für Wind und Solar in den ersten Monaten des Jahres 2014 regelrecht eingebrochen (Daten: [EEX])

Außerdem fielen im Jahr 2014 die kumulierten Jahres-Zubauraten für Wind- und Solarstrom auf ein seit Jahren nicht dagewesenes Tief, Bild 3 1). Zwar stieg die auf das Gesamtjahr bezogene Rate bei Wind im Vergleich zum Jahr 2013 um 992 MW bzw. 41 % an, dafür fiel der Rückgang bei Fotovoltaik mit 4239 MW bzw. 64 % umso kräftiger aus. Insgesamt sank der Jahres-Zubau bei diesen beiden Technologien somit um 3247 MW bzw. 36 %. Grund waren vermutlich die länger anhaltenden Querelen um die Neufassung des EEG, was anscheinend dazu führte, dass sich viele Investoren zurückhielten. Auch dies bewirkte geringere Abrufe aus dem Umlagekonto als prognostiziert. Zudem gibt es im Diskussionsbereich zum Artikel von R. Kipp Hinweise auf abrechnungstechnische Tricks z.B. durch Verschiebung von Abrechnungszeiträumen.

Versteckte Zusatzkosten

Nicht zu vergessen sind außerdem die immer höheren Kosten, die nicht über den EEG-Zuschlag, sondern über die Netzgebühren abgerechnet werden und damit für den Normalbürger gar nicht „sichtbar“ sind. Dazu gehören die immer weiter steigenden Aufwendungen für Regelenergie, die Kosten für überflüssige Leitungsprojekte wie SüdLink oder die Anschlusskosten für Windparks in der Nordsee. Solange weiter in teils gigantische Windparks investiert wird, ist kaum davon auszugehen, dass die Strompreise in den nächsten Jahren zurückgehen werden. Viel eher ist ein weiterer Anstieg zu erwarten.

.

Die systematische Erhöhung der Energiekosten

Letztendlich muss man bei der Diskussion über Energiekosten bedenken, dass der seit Jahren zu beobachtende  Anstieg der Strompreise nicht von Zufällen, einer Verknappung von Ressourcen oder den Gesetzen des Marktes abhängt, sondern politisch gewollt ist. Erinnern wir uns an den damaligen Grünen-Chef Joschka Fischer, der seiner Partei vor vielen Jahren im Wahlkampf die Forderung „5 Mark für den Liter Benzin“ vorgab. Beim Benzin haben sie es noch nicht ganz geschafft, aber man arbeitet daran. Aber neben dem Benzinpreis gibt es ja noch andere Energiepreise wie den Strompreis. Nachdem die Grünen 1998 in Deutschland an die Macht gekommen waren, brauchten sie nur 2 Jahre, um dem Strompreis mit Hilfe des EEG einen ordentlichen Trend nach oben zu verpassen.

Bild 4. In der Amtszeit der ersten rot-grünen Koalition begann die Umsetzung einer „Energie ist zu billig“-Ideologie durch Einführung des Erneuerbare-Energien-Gesetzes (EEG) (Daten: WIKI)

Dahinter steckt eine Philosophie bzw. – besser ausgedrückt – eine Ideologie, die vor allem vom sogenannten Club of Rome entwickelt wurde. Einer der bekanntesten Vertreter dieser Denkschule ist der Physiker, Biologe und Umweltforscher Ernst Ulrich von Weizsäcker, Sohn des Kernphysikers und Philosophen Carl Friedrich von Weizsäcker und Neffe des ehemaligen deutschen Bundespräsidenten Richard von Weizsäcker. Auf den Punkt gebracht lautet sein Credo: „Energie ist zu billig“ [WEIZ]. Die Ergebnisse zeigt Bild 4.

Er fordert daher, dass Energie stetig und sanft verteuert werden müsse. Und Prof. von Weizsäckers Ansichten haben Gewicht: Laut der gleichen Quelle gibt es kaum ein internationales Gremium, das sich mit Klimaforschung befasst, in dem sein Rat nicht schon gefragt war. Neben der Uno berät er auch die chinesische Regierung. Heute beobachten wir die Auswirkungen dieser Ideologie, die von der rot-grünen Bundesregierung in die Energiepolitik eingeführt und später von Fr. Merkel konsequent fortgesetzt wurde, auf den Strompreis. Am generellen Aufwärtstrend wird auch eine eventuelle kurzlebige „Delle“ nichts ändern.

Fred F. Mueller

 1) Diese Zahlenangaben können sich – insbesondere mit Blick auf den bevorstehenden Termin der Festlegung des EEG-Zuschlags für das Jahr 2015 – verschieben. Im Vorfeld der Entscheidung bringen die Netzbetreiber ihre Zahlenwerke aktuell im Eiltempo auf neuesten Stand, was zu überraschenden Änderungen (auch rückwirkend für die Vorjahre) führen kann.

Quellen

[EEX] http://www.transparency.eex.com/de     abgerufen am 13.9.2014

[HECK] http://wilfriedheck.tripod.com/    abgerufen am 9.9.2014

[KIPP] http://www.science-skeptical.de/energieerzeugung/erneuerbare-energien/geht-beim-milliarden-ueberschuss-beim-oekostrom-alles-mit-rechten-dingen-zu/0012581/

[WEIZ] http://www.srf.ch/sendungen/passage/ernst-ulrich-von-weizsaecker-energie-ist-zu-billig

[WIKI] Wikipedia, Stichwort „Strompreis“

[WEIZ] http://www.srf.ch/sendungen/passage/ernst-ulrich-von-weizsaecker-energie-ist-zu-billig




Nicht das Wetter, das politische Klima wird immer garstiger und rauer!

Wenn die WMO erst jetzt mit Gewissheit weiß, dass sich das Klima wandelt, dann lebt sie wohl „hinter dem Mond“! Dieser Wandel ist so alt wie die Welt und beruht auf Gesetzen der Natur, der variierenden Strahlung der Sonne und den wechselnden Umlaufbahnen der kugelförmigen Erde. Entdeckt und rekonstruiert wurde der Klimawandel durch die Astronomie, die Geologie wie die Geomorphologie. Wohl außer der WMO wissen alle Wissenschaftler, dass es in den letzten 440 000 Jahren vier Eiszeiten gab, wobei die Eiszeiten absolut dominant und die zwischeneiszeitlichen Perioden immer nur kurze „Erwärmungs-Spitzen“ von etwa 15 000 Jahren Dauer waren. Eine physikalische Erklärung für diese Asymmetrie gibt es nicht.

Der Alarm der WMO in der Phase des Wechsels vom Sommer- zum Winterhalbjahr, wo das Interesse der Menschen mehr bei der Wetterfühligkeit, deren Minderung wie den Heizkosten des Winters liegt, kollidiert auch anderweitig mit der Natur. Diese macht nämlich nicht, was der Klima-Friedensnobelpreisträger Al Gore 2007 prophezeite. Nach seiner 7-Jahres-Weissagung müsste 2014 die Eisdecke rund um die Arktis komplett abgeschmolzen sein. Doch das Gegenteil ist der Fall, wie Daten aus dem „Cryosphere-Project“ der Universität von Illinois, des „US National Snow and Ice Data Center“ und des Dänischen Meteorologischen Instituts zeigen. Es registrierte eine Zunahme der Eisdecke um erstaunliche 63 Prozent, von 2,7 auf 4,4 Millionen Quadratkilometer.

Dabei hatte der Tourismus auf Al Gore und die Durchfahrt der Nordwest-Passage gesetzt. Im August 2016 soll das amerikanische Kreuzfahrtschiff „Crystal Serenity“ von Seward in Alaska über die Cambridge Bay nach Grönland und weiter mit 1000 Passagieren nach New York fahren. 90 Prozent der Tickets seien für Preise zwischen 20 000 und 120 000 Dollar bereits verkauft. Ob dieses Abenteuer aufgeht, wir werden es sehen und abwarten müssen, denn solch langfristige Vorhersagen machen seriöse Meteorologen nicht!

Das Potsdam-Institut und die „klügsten Köpfe der Welt“ debattieren den Klimawandel

Es ist wieder soweit, vom 8. bis 11. Oktober 2014 lädt das Potsdam-Institut für Klimafolgenforschung zum Nobelpreisträger-Symposium nach Treffen in Potsdam, London, Stockholm nun nach Hongkong ein. In der Presseerklärung des PIK vom 3. September 2014 heißt es, „einige der klügsten Köpfe der Welt debattieren Lösungen für eine der größten Herausforderungen unserer Zeit: den Klimawandel“! Das Symposium „4C – Changing Climate, Changing Cities“ werde sich in erster Linie der Frage widmen, wie mit der Urbanisierung im Zeitalter der Megastädte und des Klimawandels umgegangen werden kann. „4C“ steht für die vier Grad Celsius, um die sich unsere Welt bis Ende des Jahrhunderts gegenüber dem vorindustriellen Niveau erwärmen könnte. Immerhin, das PIK bleibt im Konjunktiv, denn es könnten auch „-4C“ sein. Leider findet sich unter den „klügsten Köpfen“ kein Meteorologe.

Wenn die von der WMO berechnete Zunahme der „Strahlkraft“ der Treibhausgase um 34 Prozent zwischen 1990 und 2013 nicht zu einem rasanten Anstieg, sondern zu einem Rückgang der „Globaltemperatur“ in den letzten 17 Jahren geführt hat, dann müsste die gesamte „Treibhaushypothese“ über Bord geworfen werden. Alle Klimamodelle sind untauglich, denn in ihnen ist die ‚radiative forcing‘ fest einprogrammiert.  Und was dem Computer befohlen wird, das befolgt er auch! Das wirft wiederum die Frage auf, ob nicht der „natürliche Treibhauseffekt“ von „+33 Grad“ nichts als ein rechnerisches Kunstprodukt, ein Artefakt ist und auf Randbedingungen beruht, die völlig unnatürlich sind. Dies fängt mit der Annahme an, dass die „Solarkonstante“ konstant ist. Das ist sie keineswegs, denn die Umlaufbahn der Erde um die Sonne ist kein „Kreis“, sondern eine Ellipse, so dass gemäß dem 1/r2-Gesetz zwischen Aphel und Perihel die „Solarkonstante“ um +/- 3,5 % schwankt. Bei angenommener „SK“ von 1360 W/m2 sind dies +/- 47,6 W/m2. Diese jährliche Schwankung zwischen 1312,4 und 1407,6 W/m2 ist ein Vielfaches des über 150 Jahre aufsummierten anthropogenen oder „zusätzlichen Treibhauseffektes“ von 2,4 W/m2. Zudem ist die Erde am 2. Januar am sonnennächsten Punkt, dem Perihel, und erhält am meisten Strahlung. Allein dieser Vergleich lässt sehr an der Aussage der WMO zweifeln, dass wegen des menschlichen Verhaltens die meteorologischen Bedingungen immer extremer werden. Hierfür gibt es außerdem keinerlei Hinweise, selbst nicht vom Deutschen Wetterdienst. Man fahre nur einmal den Rhein entlang und schaue sich die Hochwassermarken der vergangenen Jahrhunderte an. Der höchste Pegelstand war 1784, also in vorindustriellen Zeit und lange bevor der Rhein nach Plänen von Johann Gottfried Tulla (1770-1828) zwischen 1817 und 1876 seiner Retentionsräume beraubt, begradigt und zu einer Wasserstraße ausgebaut wurde.

Zur Kritikunfähigkeit der Medien gegenüber den Klimamärchen der Klimaexperten

Die Presse verweist stolz darauf, frei, kritisch und unabhängig zu sein sowie objektiv zu informieren. Doch stimmt diese Selbstdarstellung? Im Wintersemester 1987/88 fand an der Freien Universität Berlin eine Vorlesungsreihe „Journalismus und Ethik“ statt. Diese wurde als Buch veröffentlicht und das trägt den wenig rühmlichen Titel „Medien ohne Moral – Variationen über Journalismus und Ethik“.

In der Vorlesung von Bernd Sösemann über das Thema „Von der Pressefreiheit zur Gleichschaltung“ zitiert dieser Oskar Stark, der am 20. November 1965 in einem Brief an Margret Boveri zu dem Buch „Wir alle lügen“ schrieb: „Natürlich haben wir alle gelogen, um mit unseren Zeitungen und mit unserem kleinen eigenen Leben möglichst überwintern zu können. Aber heute müssen wir doch sagen, dass diese Überwinterungsversuche am Ende auf einem Denkfehler beruhten. Wir haben nämlich nicht nur gelogen, sondern wir haben alle auch unsere Westen bekleckert bei dem Überwinterungsversuch.“ Heute geht es nicht darum. Ich meine, die Journalisten lügen nicht, aber sie sind zu bequem, die Klimalügen aufzudecken. Es ist bedenklich, wenn trotz garantierter Pressefreiheit ausgerechnet die Wissenschaftsjournalisten nahezu unfähig sind, die häufig widersprüchlichen Aussagen der Klimaexperten auch nur andeutungsweise auf ihre Plausibilität kritisch zu hinterfragen.

Liegt es in der Natur der „Masse Mensch“, dass diese ungerne selbst denkt und sich lieber auf „Klügere“ verlässt, für sich denken lässt? Die Geschichte zeigt, dass es immer Schriftgelehrte und Weise, Priester und Schamanen, auch Philosophen gab, die sich auserkoren und berufen fühlten, das geistige Klima der Zeit zu bestimmen. Wenn heute Unsinn mit dem Etikett „streng wissenschaftlich“ versehen wird, dann wird er geglaubt. Zu allen Zeiten ließ sich die „Masse Mensch“ von Feldherren und Herrschern führen, verführen und missbrauchen. Welchem Missbrauch dienen die Warnungen vor der Klimakatastrophe, der Klimaschutz wie die Klimawandelängste? Wozu dient das „Treibhaus“? Wenn es nur um unser Geld geht, dann kommen wir glimpflich davon. Aber da steckt mehr dahinter, die revolutionäre Umgestaltung der Industriegesellschaften, die vom PIK propagierte „Große Transformation“.

Aufgabe einer wirklich kritischen Presse wie freier Medien wäre es, die Hintergründe und Machenschaften hinter der „Klimapolitik“ auf nationaler wie internationaler Ebene zu ergründen und aufzudecken, um von uns Bürgern Schaden abzuwenden und nicht den Machthabern zu dienen. Die Medien verbreiten zum Teil mehrmals täglich Wetterberichte und wissen, wie kläglich diese zum Teil sind. Trotz immer größerer und schnellerer Computer hat sich bei genauerem Hinsehen recht wenig an der Qualität der Wetterprognosen gebessert. Wir schimpfen wie die Rohrspatzen über jedes Gewitter, doch ändern können wir daran nichts, sondern nur hoffen, dass es über dem eigenen Kopf glimpflich abläuft. Wir sind dem Wetter ausgeliefert, seit „Adam und Eva“. Wir müssen uns dem Wetter anpassen, in der Landwirtschaft, der Freizeit, dem Verkehr und im Urlaub. Wir können Wetter nicht „machen“!

Es ist völlig unerklärlich und widerspricht dem Bildungsniveau eines Journalisten, sich von Wissenschaftlern Klimaängste, ja die Klimakatastrophe einreden und zum Klimaschutz überreden zu lassen, wohl wissend, dass „Klima“ ein Abstraktum ist und als Naturvorgang nicht existiert. „Klima“ ist vom Wetter abgeleitet und beschreibt nichts als einen „mittleren Wetterzustand“ eines Ortes  in einer bestimmten 30jährigen Periode. „Klima“ wandelt sich nicht, es folgt statistisch geglättet dem Wetterwandel. Doch wer will diesen aufhalten?

Bei der Pressekonferenz der Deutschen Physikalischen Gesellschaft e. V. im Hotel Tulpenfeld in Bonn am 22. Januar 1986 hätten die Journalisten lauthals auflachen und die Wissenschaftler auslachen müssen, als diese vor der „drohenden Klimakatastrophe“ warnten und die „Sintflut“ beschworen. Jeder Mittelwert wird bestimmt durch seine Anfangswerte, ist ein toter Wert, der nichts anrichten kann. Doch nichts geschah, man reagierte wie ein Kaninchen, das geblendet wurde, mit Erstarrung. Was bewegte ausgerechnet das Magazin DER SPIEGEL, am 10. August 1986 mit mehr als halbjähriger „Denkpause“, in der man hätte den eigenen Verstand hätte aktivieren können, diese Warnung groß aufbauschen zu müssen und den Kölner Dom in der Nordsee versinken zu lassen. Die SPIEGEL-Story war die Geburtsstunde der „Klimapolitik“, führte zur Bildung der Enquete-Kommission „Vorsorge zum Schutz der Erdatmosphäre“.

Hätten damals die Medien den Mut und die Zivilcourage gehabt, den Anfängen dieser insgesamt unglückseligen und absolut erfolglosen „Klimapolitik“ ein Ende zu bereiten, viele Unannehmlichkeiten wären den Bürgern erspart geblieben. Alle Bemühungen, die Treibhausgasemissionen zu reduzieren haben am Gehabe des Wetters nichts geändert und werden auch nichts ändern, selbst wenn wir alle die Luft anhalten oder die Atmosphäre vom CO2 befreien. Wir hätten dann zwar gesetzeskonform gehandelt, aber wir müssten zusehen, wie die grünen Pflanzen sterben, uns die Nahrung und der Sauerstoff ausgehen.

Es ist immer noch Zeit, das erstens größenwahnsinnige und zweitens völlig unsinnig-utopische Vorhaben „Klimaschutz“ aufzugeben, aber wo sind unter den Journalisten die „Kinder“, die angesichts des Vorhabens, den Klimawandel anzuhalten, den Mut haben zu sagen, aber die „Klimaexperten sind ja nackt“! Sie erzählen uns Horrormärchen. Sie denken egoistisch nur an ihr eigenes Wohlleben, während der „Masse Mensch“ CO2-Fussfesseln angelegt werden. Wo ist der Aufklärer Immanuel Kant unter den Journalisten, der das „sapere aude“ befolgt und mutig anwendet?

Vielleicht sollten die Journalistenschulen dem Beispiel der Stadt Mainz folgen. Diese hat für ihre insgesamt 23 Grundschulen 13 „Schulsozialarbeiter“ eingestellt mit, so die Allgemeine Zeitung Mainz vom 9. September 2014, dem „zentralen Ziel, den Lebensraum Schule mitzugestalten und ein gutes Lernklima zu schaffen“. Es wäre schön, wenn die Journalisten zwischen Wetter, Witterung und Klima differenzieren könnten, um zwischen „Sein und Schein“, zwischen Realität und Virtualität zu unterscheiden. Ein gutes Klima wollen wir alle, vom Arbeits- und Betriebsklima angefangen, bis hin zum Konjunktur- und Wirtschaftsklima.

Oppenheim, im September 2014 

Dipl.-Met. Dr. phil. Wolfgang Thüne




Der grüne Blackout – Unbedingt lesen

Das erweiterte Buch enthält vor allem ein zusätzliches Kapitel über die Umweltzerstörung im Namen der grünen Energie: „Natur stört Weltrettung. Wie die Energiewende zerstört, was sie zu schützen vorgibt“. Der Text beschreibt an vielen Beispielen, wie selbst geschützte Tiere und wertvolle Waldgebiete für Windparks geopfert werden – die dann oft nur eine mäßige Flatterenergie liefern. Trotzdem scheint es beim Aus- oder vielmehr Raubbau kein Halten zu geben. „Moderne Grüne nehmen den Wald inzwischen  vor allem als Bewuchs wahr, der die Installation neuer Windräder behindert“, spottet Wendt.

Außerdem beschreibt die erweiterte Ausgabe die Erfahrungen von Wirtschaftsminister Sigmar Gabriel bei seinem gescheiterten Versuch, das Erneuerbare-Energien-Gesetz (EEG) im Frühjahr 2014 wirklich zu reformieren.

Inzwischen gibt es bemerkenswert viele Experten, die zu den gleichen Schlussfolgerungen kommen wie der „Grüne Blackout“: Etwa eine von Angela Merkel selbst einberufene Expertenkommission, die die Abschaffung des EEG  empfahl, weil es die technische Innovation nicht fördere. Oder der Bundesrechnungshof, der erst vor kurzem die unkoordinierten und widersprüchlichen Energiewendemaßnahmen der einzelnen Ministerien in Grund und Boden kritisierte. Der Kronberger Kreis, ein Zirkel der wichtigsten Wirtschaftswissenschaftler Deutschlands, empfiehlt in seinem neuesten Papier ebenfalls: kein EEG, dafür Marktwirtschaft in der Energieerzeugung.

Das Buch eignet sich natürlich sehr gut dafür, die Absurditäten der Energiewende nachzuvollziehen. Aber auch, um ein psychologisches Experiment zu starten: Verschenken Sie einfach einen „Grünen Blackout“ an eine Person in Ihrer Umgebung, die sich vom Sinn und Nutzen der Energiewende immer noch überzeugt zeigt. Und fragen Sie nach einer Weile, ob sich die Meinung des Menschen geändert hat. Viel Vergnügen!

Alexander Wendt „Der grüne Blackout. Warum die Energiewende nicht funktionieren kann“ 178 Seiten Edition Blueprint, bei Amazon (hier) 9,99 Euro

E-Book 3,99 Euro




Die Hilfshypothese

«Zudiener von Politikern» : Thomas Stocker.

Wie ein Prediger droht er mit der Apokalypse. Der weltbekannte Klimaforscher kündet von verheerenden Dürren und zerstörerischen Unwettern, vom Aussterben der Arten und vom Abschmelzen allen Eises in Grönland, was dazu führe, dass die wichtigsten Städte der Welt im anschwellenden Meer versänken.

Thomas Stocker, Professor für Klimaphysik an der Uni Bern, tritt am Donnerstag, 4. September, zwischen 13.30 und 14.40 Uhr am Swiss Energy and Climate Summit auf: Gemeinsam mit zwei Kollegen präsentiert er gemäss Programmheft «erstmals Auszüge aus dem im Oktober zu erwartenden Synthese­bericht [des Uno-Klimarates IPCC, Anm. der Red.]». Den Entwurf zu diesem Bericht kann derzeit nur ein kleiner Kreis von Experten einsehen, das Referat lag der Weltwoche nicht vor. Doch sein Inhalt und auch seine Tonlage lassen sich risikolos voraussagen.

Die Synthese fasst eigentlich nur die drei Berichte zusammen, die der Klimarat veröffentlicht hat, seit Thomas Stocker als Vorsitzender im September 2013 in Stockholm den ersten Teil zu den physikalischen Grundlagen des Klimawandels vorstellte. Die wissenschaft­lichen Erkenntnisse liegen alle vor, sorgfältig nach Unsicherheiten untersucht, auf Widersprüche abgeklopft und nach Bedeutung gewichtet, aber auf Drängen von Stocker auch bereits zu simplen Alarmbotschaften zugespitzt – obwohl viele Fragen offener sind denn je.

So glaubt das IPCC: Der Klimawandel seit 1950 ist mit einer Wahrscheinlichkeit von mindestens 95 Prozent, und nicht wie bisher nur von 90 Prozent, menschengemacht.

Schon bei den drei Teilberichten rüttelten vereinfachende Zusammenfassungen die Politiker auf. Trotzdem braucht es nochmals eine Synthese. Vom 1. bis zum 12. Dezember findet in ­Lima die nächste grosse Klimakonferenz statt, eine entscheidende: Die Delegationen samt Regierungschefs müssen die Konferenz von Paris im nächsten Jahr vorbereiten, an der alle Staaten ein Abkommen schliessen sollen, das sie zur Begrenzung ihres CO2-Ausstosses verpflichtet – die Chance, dass es zustande kommt, strebt aber gegen null. Der Entwurf des Synthese­berichts liegt derzeit zur Begutachtung bei den Regierungen. Ende Oktober feilschen die Spitzen des IPCC in Kopenhagen darum, Anfang Dezember stellen sie ihn in Lima den Politikern vor. Da sind dramatische Botschaften gefragt, um die Weltöffentlichkeit zu erwecken.

Gezielte Indiskretionen

Zur PR-Strategie gehören auch gezielte Indiskretionen. So verfügt die New York Times, stets verlässlich, wenn es um Klima-Alarmismus geht, bereits über den vertraulichen Entwurf.

«In schonungsloserer und eindrücklicherer Sprache als die Berichte, auf denen die Synthese beruht, betont der Entwurf die Dringlichkeit der Risiken, zu denen der anhaltende Ausstoss von Treibhausgasen führt», schreibt das Weltblatt. So warne der Bericht, die globale Temperatur nähere sich bereits dem Punkt, da sich der Verlust des gewaltigen Eisschildes über Grönland nicht mehr verhindern lasse: «Das Abschmelzen würde zwar Jahrhunderte dauern, aber es liesse sich nicht mehr aufhalten und könnte, zusammen mit anderem Schmelzwasser, zu einem Anstieg des Meeresspiegels um sieben Meter führen, also zur Überschwemmung der wichtigsten Weltstädte.»

Die Autoren der Synthese, zu denen wie immer auch Umweltaktivisten gehören, müssen mit einer Apokalypse drohen, die kein Zeitgenosse erleben wird. Denn sie haben ein Pro­blem: Ohne den Alarm der Forscher käme niemand auf die Idee, dass sich das Klima gefährlich wandelt. Die Erde heizt sich seit bald zwei Jahrzehnten kaum mehr auf, und diese «Erwärmungspause» könnte gemäss neusten Studien dreissig Jahre dauern.

Die gemessenen Temperaturen liegen deshalb seit geraumer Zeit unter allen, die das IPCC in den letzten zwanzig Jahren voraussagte;
zahllose Forscher mit millionenteuren Modellen haben sich blamiert.

Schon bisher zeigten die Chinesen, die Inder oder die Brasilianer keinerlei Willen, die Warnungen des Klimarates ernst zu nehmen, also ihren CO2-Ausstoss einzuschränken. Jetzt wehren sich auch die Australier, die Kanadier oder die Japaner gegen Massnahmen, und selbst in der vorbildlichen EU warnen immer lautere Stimmen vor deren wirtschaftlich verheerenden Folgen.

In den USA muss Präsident Barack Obama gar in Diktatorenmanier den Kongress ausschalten – der das weniger weit gehende ­Kioto-Protokoll von 1997 nicht einmal behandeln wollte –, um ein Abkommen durchzu­drücken. Alle bockenden Politiker soll der Synthesebericht des IPCC gemäss New York Times in der Hinsicht aufschrecken, «dass das Risiko von abrupten und irreversiblen Klimaänderungen steigt».

Das Problem haben gerade auch die Schweizer Forscher, die weltweit zu den lautesten und rührigsten zählen:

Einerseits müssen sie Studien verteidigen, die eigentlich gemäss den Grundregeln der Wissenschaft als falsifiziert in den Papierkorb gehörten.

Anderseits müssen sie Resultate von eigenen Forschungsarbeiten herunterspielen, die ihren Dogmen widersprechen.

Rechtfertigen muss sich vor allem Reto Knutti, einst Doktorand von Stocker, jetzt Professor an einem eigens für ihn geschaffenen ETH-Institut: Der weltweit führende Spezialist für Klimamodelle arbeitete als Sekundant seines Doktorvaters massgeblich am neuen ­IPCC-Bericht mit – dabei lag er mit seinen Prophezeiungen von stark ansteigenden Temperaturen so falsch wie alle anderen Experten. Mit einer vor zwei Wochen veröffentlichten Studie will er deshalb erklären, «warum die Klimaerwärmung Pause macht».

Erstmals, verkündete die ETH, habe Reto Knutti «alle gängigen Hypothesen gemeinsam und systematisch untersucht»,

weshalb sich die Erde seit 1998 kaum mehr erwärmt – was die tonangebenden Forscher übrigens bis letztes Jahr bestritten.

Als Ursache finde er ­einerseits die Meeresströmungen El Niño ­(erwärmend) und La Niña (abkühlend) im Pazifik, andererseits Schwankungen in der Sonnenaktivität. Wenn man die Modelldaten um diese Naturphänomene nach unten und die Messdaten, die angeblich zu tief sind, nach oben korrigiere, «stimmen Modell und Beobachtung ausgesprochen gut überein» – nach dem bewährten Grundsatz der Klimaforscher:

Was nicht passt, wird passend gemacht.

Trotz Erwärmungs­pause gebe es deshalb keinen ­Anlass, «an den neusten Klimamodellen zu zweifeln».

Das bescherte dem unfehlbaren Propheten allerdings weltweit mehr Hohn als Lob. ­«Offensichtlich dämmerte den Autoren nicht, dass sie mit wirklich soliden Modellen ihre Vorhersagen nicht aufgrund neuer Beobachtungen anpassen müssten», spottete der amerikanische Think-Tank Science & Environmental Policy Project. «Ungewollt beweist die Studie gerade einmal mehr, dass das IPCC falschlag, als es seine Behauptungen mit 95-prozentiger Sicherheit verkündete.» Vor allem wiesen auch andere Experten darauf hin, dass die Erwärmung oder die Abkühlung der Ozeanströmungen und die Schwankungen der Sonnenaktivität in regelmässigen Zyklen auftreten und sich deshalb über Jahrhunderte beobachten lassen

der Klimarat weigert sich aber erbittert, diesen Naturphänomenen einen nennenswerten Einfluss auf das Klima zuzugestehen.

Sonne als Klimafaktor

Dabei deuten gerade jüngste Studien von Schweizer Forschern darauf hin, wie stark dieser Einfluss sein könnte. Fortunat Joos, Professor an der Uni Bern, zeigte mit einem internationalen Forscherteam in einer umfassenden Studie, dass die Sonne zwischen 1950 und 2009, also in der Phase mit einer angeblich einzigartig schnellen Erderwärmung, so stark schien wie nie in den letzten 3000 Jahren (Weltwoche Nr. 33/14). Jürg Beer, Professor am ETH-Forschungsinstitut Eawag, machte bei einem Projekt mit, das die Sonnenakti­vität anhand von Eis aus Grönland bis mehr als 20 000 Jahre zurück untersuchte und herausfand, dass die Sonne das Klima stark beeinflusste. Und Thomas Stocker legte schon letztes Jahr mit Berner Kollegen eine auf­sehenerregende Studie vor, die den Einbruch der kleinen Eiszeit im 15. Jahrhundert mit Sonnenaktivität, Vulkanausbrüchen und Ozeanströmungen erklärte. Sowohl die mittelalterliche Warmphase wie die Kleine Eiszeit leugnete das IPCC übrigens bis vor zehn Jahren – der Verantwortliche, der amerikanische Forscher Michael Mann, zerrt derzeit seine Kritiker vor Gericht.

Die Wissenschaftler stellen Hypothesen auf, überprüfen sie und verwerfen sie, wenn sie sich mit den Beobachtungen nicht bestätigen lassen:

Als (vorläufige) Wahrheit gilt nur, was alle Widerlegungsversuche übersteht. Die Klimaforscher dagegen arbeiten seit einem Vierteljahrhundert daran, mit allen Mitteln ihre ­Theorie zu beweisen. Wenn sie dabei scheitern, denken sie sich – wie Reto Knutti – flugs eine neue Hilfshypothese aus. Denn dass ihre ­Theorie nicht stimmen könnte, darf nicht sein und kann deshalb nicht sein.

«Hätte das Holz gar nicht finden dürfen»

Umso gereizter geben sich die Klimaforscher, wenn einer aus ihrer Gemeinschaft die Glaubenssätze in Frage stellt. So führte der Bund im Juni ein Gespräch mit dem Berner Geologen Christian Schlüchter, der mit Holzfunden nachwies,

dass vor Jahrtausenden in den Alpen Wälder wuchsen, wo es heute noch Gletscher gibt.

«Ich hätte das Holz gar nicht finden dürfen», sagt der emeritierte Professor; die Kollegen ächteten ihn wegen seiner Zweifel an ihrer Theorie. Umso lauter äussert sie Christian Schlüchter jetzt:

«Viele Naturwissenschaftler sind heute Zudiener von Politikern, aber nicht mehr Naturwissenschaftler, denen es um ­neues Wissen und um Daten geht.»

Und er spottete über die Warnungen des Klimarates: «Die Erfindung des Teufels war die grandioseste Erfindung, die die Menschheit je gemacht hat. Man kann viel Geld machen, wenn man ihn an die Wand malt.»

Die Getroffenen heulten auf. «Es gibt eine einfache quantitative Erklärung für den weltweit dokumentierten Gletscherschwund», hämmerte Thomas Stocker dem Gletscherfachmann in einer Entgegnung ein: «den vom Menschen verursachten Klimawandel, also den Anstieg der CO2-Konzentrationen, die zur Erwärmung führen.» Christian Schlüchter verschweige, dass der menschengemachte Klimawandel mehrere Jahrhunderte dauere und zu irreversiblen Änderungen führe. «Das leistet der Verharmlosung des globalen Klimawandels und seiner regionalen Auswirkungen Vorschub. Gerade von Wissenschaftlern erwartet die Öffentlichkeit fundierte und verlässliche Informationen, inklusive der dazugehörigen Unsicherheiten

Daran wird sich Thomas Stocker bei seinem Auftritt am Swiss Energy and Climate Summit in Bern selbstverständlich halten.

==================================================

Anmerkung EIKE-Redaktion :

Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich:

| Die Weltwoche, Ausgabe   36/2014 | 4. September 2014 ; http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE für die Gestattung des ungekürzten Nachdrucks.

==================================================================

PDF zum Download unten

==================================================================

Related Files