1

OPEC kürzt Fördermengen, US-Schieferindustrie jubelt

Die Financial Times berichtet:

Zwar wurde auf dem Treffen die Eigenständigkeit jedes individuellen Landes betont, aber informierten Kreisen zufolge seien die Haupthindernisse für einen solchen Deal überwunden. Man wird sehen, dass die aus 13 Mitgliedern bestehende Gruppe die Förderung um etwa 4,5 Prozent oder 1,2 Millionen Barrel pro Tag kürzen wird, mit Förderungsquoten für jedes einzelne Mitgliedsland. (…)

Es wird erwartet, dass Saudi Arabien die Hauptlast jedweder Kürzung der Förderung tragen wird, gemeinsam mit seinen Alliierten am Golf. Von Iran wiederum wird erwartet, dass es die Förderung bei etwa 3,8 Barrel pro Tag einfrieren wird, was nahe der jetzigen Rate liegt.

Das Kartell hofft, dass diese Maßnahmen die Rohöl-Flut eindämmen wird, die Auslöser dieses Preis-Kollapses war, und dass am Markt eine Erholung der Preise induziert wird. Man sieht bereits erste Anzeichen der Erholung im derzeitigen Handel – Öl der Sorte Brent stieg um über 8% auf 50 Dollar pro Barrel, während der US-Vergleichswert um über 3,50 Dollar bis knapp 49 Dollar pro Barrel stieg.

Aber zwei große Fragen harren immer noch der Antwort. Die erste Frage lautet: Wie stark werden sich die Preise aufgrund der OPEC-Maßnahmen erholen (und Russlands potentielle Kooperation)? Dies ist von kritischer Bedeutung für die Ölstaaten des Kartells, die sich allesamt eine Rückkehr zu Preisen über 100 Dollar pro Barrel wie in alten Zeiten wünschen. Viele OPEC-Mitglieder weisen mit den gegenwärtigen Preisen große fiskalische Defizite auf: Saudi Arabien braucht einen Ölpreis über 79 Dollar, um weiter schwarze Zahlen schreiben zu können; Iran braucht einen Preis von 55 Dollar, Algerien, Bahrain, die VAE und Libyen brauchen jeweils 87, 95, 71 und 195 Dollar.

Seit über 2 Jahren hat die OPEC unter Führung der Saudis es abgelehnt zu intervenieren, um die Preise zu stabilisieren. Stattdessen zogen sie es vor, um einen Anteil am übersättigten Markt zu kämpfen. Die Tatsache, dass das Kartell sich jetzt bewegt zeigt, wie wichtig es für diese Ölstaaten ist, höhere Preise für ihre überlebenswichtigen Exporte zu erzielen. Das bringt uns zurück zu dieser ersten Frage: Wie stark werden sich diese Kürzungen auf den Markt auswirken?

Die Antwort hierauf hängt größtenteils von der zweiten großen Unbekannten in dieser Rechnung ab, nämlich von der Reaktion der US-Schieferindustrie. Wie schnell sind die Fracker in den USA in der Lage, sich an steigende Preise anzupassen mittels Hochfahren ihrer eigenen Erzeugung? Vor zwei Jahren hatten Analysten erwartet, dass diese Art Förderung abstürzt, wenn der Ölpreis unter 75 Dollar pro Barrel sinkt. Aber die Schiefer-Produzenten haben die Welt mit ihrer Fähigkeit überrascht, Kosten zu senken und das Rohöl auf einen ungünstigen Markt fließen zu lassen, eingezwängt in den Schmelztiegel von Ölhandelspreisen:

In Schiefer-Feldern von Texas bis nach North Dakota haben sich die Produktionskosten seit dem Jahr 2014 in etwa halbiert. Damals hatte Saudi Arabien ein für alle kostenloses Output signalisiert, um die Schieferproduzenten aus dem Markt zu drängen. Anstatt die US-Schieferindustrie zu töten, machte der zweijährige Preiskrieg diese jedoch zu einem immer stärkeren Rivalen, selbst in der gegenwärtigen Niedrigpreis-Umgebung. (…)

Der Preis, um im Bakken-Schiefer-Feld kostendeckend zu produzieren, ist auf 29,44 Dollar im Jahre 2016 gesunken, 2014 waren es noch 59,03 Dollar. Dies gibt die Beratungsagentur Rystad Energy bekannt. Sie fügte hinzu, dass Bakken-Schiefer das wettbewerbsfähigste aller großen US-Schieferfirmen ist. Wood Mackenzie sagte, dass technologische Fortschritte die Kostendeckung weiter zurückgehen lassen sollten.

Und daher – während die OPEC und im Besonderen Saudi Arabien in den sauren Apfel beißen und diese Produktionskürzungen einräumt, stehen die Erzeuger in der gesamten übrigen Welt bereit, von einem Preissprung zu profitieren. Hier in den USA dürfte dies einen korrespondierenden Anstieg bedeuten, da immer mehr Bohrfelder profitabel werden. Das würde eine Verknappung der globalen Verfügbarkeit verhindern, welche die OPEC zu erreichen trachtet. Damit geht die Auswirkung dieser Kürzung gegen Null, während gleichzeitig amerikanischen Erzeugern geholfen wird, einen größeren Anteil am globalen Markt zu bekommen.

Das ist der Grund, warum Riad so widerspenstig war, Kürzungen zuzustimmen. Das Ausmaß, in dem US-Schieferfirmen in der Lage sind, von steigenden Preisen zu profitieren, wird darüber entscheiden, wie erfolgreich diese widerwillige Änderung der Taktik der Ölstaaten sein wird.

Link: http://www.the-american-interest.com/2016/11/30/opec-cuts-output-us-shale-rejoices/

—————————————–

Auch bei Forbes steht etwas dazu. Kurzfassung:

Schiefer-Kriege: Wohin steuern die Ölpreise, nachdem Saudi Arabien die große Verdrängungs-Wette losgetreten hat?

Bisher ist eines der teuersten Experimente aller Zeiten Saudi Arabien mit etwa 200 Milliarden Dollar zu stehen gekommen. Die saudische Regierung hat seinen massiven Staatsfonds in Höhe von 2 Billionen Dollar angezapft, um Einkommensverluste wegen des Ölpreis-Kollapses während der letzten Jahre auszugleichen. Wir werden Zeuge eines zweiteiligen Tests. Die erste Frage lautet, was Amerikas Schiefer-Industrie zu diesem Preisverfall beigetragen hat. Daraus ergibt sich die zweitere und weitaus kritischere Frage aus diesem Experiment: Wird die Schiefer-Industrie angesichts steigender Ölpreise mit Getöse zurückkehren? Falls dies der Fall ist, gehören hohe Preise der Vergangenheit an. Es steht zu erwarten, dass wir im kommenden Jahr bereits erkennen werden – ebenso wie die Ölprinzen in Arabien – wohin die Reise geht.Wohin auch immer sie gehen mag, die ökonomischen und geopolitischen Implikationen sind enorm. Und das Ergebnis ist mehr von Technologie abhängig als von Politik – Mark P. Mills, Forbes, 30 November 2016

Alles Übersetzt von Chris Frey EIKE




Wieder einmal: Indoktrination von Kindern

Hört auf, Kinder mit Untergangs-Propaganda zu ängstigen!

Cathie Adams

Die Ängstigung von Kindern mit Untergangs-Szenarien ist einfach nur total falsch, aber das ist genau das, was die Umwelt-Extremisten in den Klassenräumen öffentlicher Schulen tun. Man bringt den Kindern bei, dass Kohlendioxid, wenn emittiert durch die Verbrennung fossiler Treibstoffe, Klimawandel verursacht. Extremisten ignorieren die Tatsache, dass die unkontrollierbare Sonne, Winde und Ozeanströmungen die primären Gründe für Klimawandel sind. Ebenso ignorieren sie Satellitendaten, denen zufolge sich die Erde seit 1998 nicht mehr erwärmt hat.

Nichtsdestotrotz versuchen die Umweltextremisten dennoch, Kinder mit allen Mitteln davon zu überzeugen, dass sie verantwortlich sind für den Tod von Eisbären; dafür, dass arme Menschen aus ihren Häusern getrieben werden; dafür, dass kleine Kinder verhungern und für Klimakatastrophen, die die Erde ultimativ zerstören werden – es sei denn, reiche Länder transferieren ihren Reichtum an Dritte-Welt-Länder.

Auf der UN-Tagung in Marrakesch sagte der marokkanische König Mohammed VI: „es ist notwendig geworden, die Bildung hinsichtlich Umweltthemen zu vereinheitlichen und die Aufmerksamkeit für den Schutz der Menschheit in der Zukunft zu erhöhen“. Umweltextremisten interpretieren das so, dass das Bildungssystem einer jeden Nation Kinder bzgl. Umweltextremismus ängstigen muss.

Die Stiftung von Ted Turner befeuert dieses Szenario mittels seiner Cartoon-Geschichten „Captain Planet“, in denen Gaia als „der Geist der Erde“ präsentiert wird, welche Personen die Gewalt über Feuer, Wind, Wasser, Leben und Telepathie gewährt.

Die Gates-Stiftung befeuert die gleiche rücksichtslose Agenda eines vom Menschen verursachten „Klimawandels“ mittels Obamas linksradikalem Lehrplan mit der Bezeichnung Common Core.

Die Agenda der Umweltextremisten ängstigt die Kinder so, dass sie sich der Hoffnung hingeben, nützlich zu werden für die zugrunde liegende marxistische Agenda, der zufolge Reichtum von den „reichen“ zu den „armen“ Nationen umverteilt werden soll. Der Trick dabei: falls die Verbrennung fossiler Treibstoffe Klimawandel mit sich bringt, dann schulden es die Amerikaner den „armen“ Ländern, diesen dabei zu helfen, ihre Infrastruktur an Extremwetter anzupassen. Es ist die marxistische Wassermelonen-Agenda- grün außen und rot innen.

Es gibt Hoffnung, dass der gewählte Präsident Trump den Common-Core-Lehrplan der [US-]Bundesregierung aus den Klassenräumen in Amerika entfernt. Und dass er Repräsentanten ansprechen wird, vor den UN für eine ordentliche Wissenschaft zu plädieren.

Link: https://www.cfact.org/2016/11/17/stop-frightening-children-with-doomsday-propaganda/

Auch im nächsten Beitrag geht es um Indoktrination. Jedoch, wenn das Problem von verschiedenen Seiten so deutlich angesprochen wird, gibt es vielleicht Hoffnung auf Änderung.

Klima-Alarmisten treiben die Indoktrination mittels grüner Bildung voran

H. Sterling Burnett, Ph.D.

Edukraten verdoppeln ihre linksextremistische Propaganda.

Klima-Alarmisten haben emsig und effektvoll daran gearbeitet, die Lehre ordentlicher Wissenschaft, wissenschaftlicher Verfahren und kritischem Denken in den Klassenräumen Amerikas zu unterminieren – an Grund- und Oberschulen sowie an Colleges. Die Klima-Alarmisten wollen die Jugend Amerikas indoktrinieren und sie in grüne Roboter verwandeln, die sich von ihren Eltern und der Welt lossagen.

Wir am Heartland Institute haben gekämpft – manchmal erfolgreich (West Virginia), manchmal vergeblich (Texas), um die Hersteller von Lehrbüchern dazu zu bringen, auf Proteste zu reagieren und darauf zu verzichten, alle Spuren von Klimarealismus aus ihren Lehrbüchern zu entfernen. Wir haben sie inständig gebeten, in den zum Gebrauch in den Klassenzimmern der Nation bestimmten Lektionen anzuerkennen, dass eine lebendige Debatte hinsichtlich der Ursachen und der Konsequenzen von Klimawandel nach wie vor im Gange ist.

Offenheit gegenüber Beweisen und fortgesetztes Fragen sind die Eckpfeiler wissenschaftlicher Entdeckungen – scholastische Werte, denen die Klima-Alarmisten jede Existenzberechtigung absprechen.

Wir wurden wieder einmal auf dieses Problem aufmerksam in einem Blogbeitrag in der Huffington Post nach der Wahl, in dem argumentiert worden ist, dass die Alarmisten ihre Bemühungen zur Indoktrination von Studenten verdoppeln müssen. Bemühungen im Kampf gegen Klimawandel werden dieser Analyse zufolge scheitern, solange die Schulen nicht post-industrielle „grüne Staatsbürger“ hervorbringen. Dem Blogbeitrag zufolge erfordert die Verhinderung des Klimawandels „grünere Ökonomien, grünere Gesetzgebung, grünere Politik … ultimativ brauchen wir grünere Gesellschaften. Um Erfolg zu haben, brauchen wir fundamental grüne Staatsbürger“.

Weiter heißt es in dem Artikel:

Die Schaffung grüner Staatsbürger muss in den Klassenräumen beginnen. Bildung ist der rote Faden, der das Paris-Abkommen mit dem anderen historischen Abkommen des Jahres 2015 verbindet, der Agenda 2030 für nachhaltige Entwicklung. Bildung … ist … die Grundlage, auf der eine nachhaltige Zukunft für alle und für den Planeten fußt. Nachhaltigkeit verlangt nach neuen Wegen, die Welt zu sehen, nach neuen Denkweisen, nach einer neuen Art und Weise zu agieren und sich als globale Staatsbürger zu verhalten. Nur Bildung kann eine solche tiefgreifende Änderung katalysieren.

Der Autor beklagt sich darüber, dass „die Hälfte aller Länder in der Welt den Klimawandel oder umweltliche Nachhaltigkeit immer noch nicht in ihren Lehrplänen explizit erwähnen“ und appelliert an die UNESCO, politische Führer dazu zu drängen, die Bildungskomponenten der nationalen Verpflichtungen, die sie im Rahmen des Paris-Abkommens eingegangen sind, in ihren Lehrplänen zu verankern und mit professionellen Bildungsautoren auf der ganzen Welt zusammenzuarbeiten, um ein System ins Leben zu rufen, in dem das Voranbringen von Nachhaltigkeit das zentrale Ziel aller Bildungsbemühungen ist – und nicht die Vermittlung von Wissen, Kompetenz oder ziviler Werte.

In einem Punkt stimme ich mit dem Autor überein. Es dreht sich alles um das Bildungssystem. Wird das Bildungssystem Freiheit, Individualität, persönliche Entfaltung, Gedankenvielfalt, intellektuelle Neugier und die Erkundung unterschiedlicher Standpunkte fördern und auf diese Weise fortfahren, Unternehmertum und wissenschaftliche Entdeckungen hervorzubringen – welche den Lebensstandard für Menschen auf der ganzen Welt verbessert haben mittels Rückgang von Armut, Entbehrung und Tod sowie Verbesserung des menschlichen Wohlbefindens?

Oder wird das Bildungssystem stattdessen getrieben durch ein einziges allumfassendes Ziel, nämlich Nachhaltigkeit, getrieben, festgelegt durch selbst ernannte intellektuelle Eliten, die als Höhepunkt ihrer Hybris glauben, dass sie am besten wüssten, welche Ziele des Anstrebens würdig sind – und die glauben, dass sie für jedermann und überall festlegen müssen, was die Menschen glauben sollen und wie sie zu leben haben?

Falls – wie es der Autor der Huffington Post fordert – das Bildungssystem „umorientiert“ werden muss hin zum Vorantreiben „wirklicher und dauernder Nachhaltigkeit“ als das allumfassende Ziel von Bildung, dann fürchte ich, dass es nicht mehr weit ist bis zu Gulags und Orwell’schen Umerziehungslagern. Die Menschheit, sowohl jetzige als auch zukünftige Generationen würden unter einem solchen Bildungsregime leiden, würde es doch eine Welt schaffen, in der – wie es der unsterbliche Thomas Hobbes ausdrückte, „das Leben der Menschen einsam, arm, hässlich, brutal und kurz ist“ – nicht weil wir in irgendeinen anarchischen Zustand der Natur zurückgeworfen wurden, sondern weil wir versklavt werden durch eine misanthropische Doktrin von Stillstand und ultimativem Tod.

Der Artikel in der Huffington Post machte mir klarer als jemals zuvor: Wir müssen die Bildung unserer Kinder aus den Händen regierungsamtlicher Schulen zurückholen, die getrieben sind von regierungsamtlich abgesegneten Lehrplänen, gelehrt von regierungsamtlich bestätigten Lehrern. Die freie Wahl von Bildung ist der Eckpfeiler fortgesetzten menschlichen Wohlergehens.

Link: https://www.cfact.org/2016/11/19/climate-alarmists-pushing-green-education-indoctrination/

Beide Beiträge übersetzt von Chris Frey EIKE




Profit-Probleme: Solar kann immer noch kein Geld verdienen

Musk war noch nie um eine Vision verlegen, und seine ,Roadmap‘, um sowohl Solarstrom-Erzeugung als auch die Fähigkeit, Strom im Haus (und auf dem Haus) zu speichern, ist sicher ambitioniert. Aber während es das mögliche Ziel sein kann, jedes neu gebaute Haus in Amerika mit Solar-Dachziegeln zu decken, spiegeln Musks erste Schritte jene, die er mit Elektroautos bei Tesla gemacht hatte: Die waren charakterisiert durch eine starke Konzentration auf die Erzeugung eines Luxusgutes, dass Leute mit dem nötigen Kleingeld kaufen wollen.

Der normale Grüne wird sagen, dass der Solartag in der Sonne [solar’s day in the sun] bereits angebrochen ist, und er wird auf die Tatsache verweisen, dass Solar-Installationen während der letzten Jahre stark zugenommen haben, sind doch die Vorlaufkosten gefallen und haben doch Subventionen der Regierung diese Paneele ökonomisch attraktiver gemacht. Aber diese Periode raschen Wachstums könnte zu Ende sein, prophezeien doch Analysten, dass 2017 das Jahr des Solar-Niedergangs sein wird.

Noch wichtiger aber ist, dass es beim wirklichen Test für Musk und der übrigen Solarindustrie nicht darum geht, ob man die Menschen davon überzeugen kann, Solarpaneele zu installieren oder nicht. Sondern es geht darum, ob sie damit Geld machen können. Unglücklicherweise scheint aber Profitabilität immer noch ein ferner Traum zu sein, wie die FI berichtet:

Paneele tauchen auf den Dächern aller Häuser in den USA auf, und etwa 1 Million haben jetzt Solarsysteme. Aber die Industrie ist ein weiteres Opfer des beständigen Fluches erneuerbarer Energie: Obwohl der Markt rasant wächst, erweist es sich als sehr schwierig für Unternehmen, einen zuverlässigen Weg zur Erzielung von Profiten zu finden. …

Der Aktienkurs von Sunrun ist seit Jahresbeginn um 54 Prozent gesunken, der des zweitgrößten heimischen Solar-Unternehmens in den USA Vivint sogar um 67 Prozent. Der Aktienkurs von SolarCity, dem größten US-Lieferanten für häusliche Solarsysteme, sank zwischen Jahresbeginn und Juni um etwa 60 Cent, als der Hersteller von Elektroautos Tesla Pläne bekannt gab, dieses Unternehmen in einem All-Share-Deal im Wert von 2,3 Milliarden Dollar zu kaufen. Anteilseigner der beiden Unternehmen werden am 18. November über die Übernahme abstimmen. …

Berichte über Gewinne von SolarCity und anderen heimischen Solar-Unternehmen in diesem Jahr haben klar gemacht, dass sie vor noch schwierigeren Zeiten stehen … die Barmittelabflüsse der Unternehmen sind gestiegen. Sunrun berichtete von Ausgaben in Höhe von 159 Millionen Dollar durch Aktivitäten in der ersten Jahreshälfte, verglichen mit einem Defizit von 105 Millionen Dollar im Gesamtjahr 2015. Die Barmittelabflüsse von SolarCity waren von 790 Millionen Dollar im vorigen Jahr auf 867 Millionen Dollar in der ersten Hälfte dieses Jahres 2016 gestiegen.

Falls Geld verdienen das Ziel ist – und man mache sich nichts vor, damit Solar einen Einfluss bekommt, muss dies absolut das Ziel sein – dann scheint Musk zumindest auf dem richtigen Weg zu sein. Sich auf das Wesentliche zu konzentrieren und preisgünstige Solarpaneele von zweifelhafter Qualität am Fließband herzustellen und diese dann Verbrauchern der Mittelklasse anzudrehen, wird einen nicht sehr weit bringen (und hinterlässt einen anfällig für die Launen der Politiker, die über die Subventionen zur Stützung dieses Geschäftsmodells befinden). Es gibt Grenzen, wie viel Geld man verdienen kann mit dem Ausnutzen des Appetits von Verbrauchern auf virtuelle grüne Signale.

Angesichts des derzeitigen Standes der Solartechnologie wäre es vernünftiger, die Dollars der Regierung umzuleiten, weg von der Subventionierung der gegenwärtigen Herstellung von Paneelen hin zu Forschung und Entwicklung besserer Systeme, die tatsächlich in der Lage sein könnten, mit anderen, schmutzigeren Energiequellen im Wettbewerb zu stehen ohne großzügige Unterstützung seitens der Regierung. Inzwischen könnten Unternehmen wie SolarCity und Tesla weiterhin jene umwerben, die jetzt nach dieser Art von Produkten fragen und bereit sind, dafür zu zahlen.

Link: http://www.thegwpf.com/solar-still-cant-make-money/

Übersetzt von Chris Frey EIKE




Kein sicherer Untergang – Klimamodelle können aus systematischen Gründen die Zukunft nicht berechnen.

Bild rechts: Dr. Pat Frank bei seinem Vortrag. Bild: Screenshot aus dem Video

1. Die allgegenwärtigen Klimamodelle

Dr. Frank beginnt mit einer schönen Wortwahl: „Klimamodelle sind das schlagende Herz des modernen Wahnsinns um CO2“. Er wiederholt, dass das IPCC sagte „es ist extrem wahrscheinlich, dass menschlicher Einfluss die dominante Ursache für die beobachtete Erwärmung seit Mitte des 20. Jahrhunderts ist“. Dies ist eine „Konsens“-Schlussfolgerung, die von vielen wissenschaftlichen Institutionen und Universitäten [und natürlich Medien und Politik! Anm. d. Übers.] übernommen worden ist. Nichtsdestotrotz – wenn es darum geht, die zukünftige Erwärmung vorherzusagen, sieht es schon gar nicht mehr so toll aus:

Diese Abbildung aus dem AR 5 zeigt, dass beim RCP 8.5-Szenario die Unsicherheit von 2300 Erwärmung [?] (w.r. Zu vorindustriellen Zeiten) möglicherweise über 12°C beträgt. Dieser enorme Spread der Ergebnisse einer sehr großen Zahl von Modellen ist das verräterischste Anzeichen ihrer geringen Zuverlässigkeit. Dabei enthält diese große Unsicherheit noch nicht einmal die Fehler der individuellen Modelle und deren Fortpflanzung, wenn zukünftige Temperaturen Schritt für Schritt berechnet werden. Wirklich erstaunlich ist, dass keine veröffentlichte Studie diese Fehlerfortpflanzung durch die GCM-Projektionen anspricht, welche folglich also als unbekannt gelistet werden muss.

2. Ein Modell von Modellen

Dr. Frank erinnert daran, dass alle Modelle essentiell eine lineare Abhängigkeit der Erwärmung annehmen sowie der Änderung des Strahlungsantriebes während des Berechnungs-Schrittes. Er führt ein einfaches „Modell von Modellen“ ein und vergleicht das Ergebnis mit denen der Supercomputer-Modelle:

Später wird ein Zusatz-Term von 4 hinzugefügt, bevor die rechte Klammer geschlossen wird. Vergleicht man das Ergebnis dieses „Frank-Modells“ mit den GCMs, muss man überrascht sein, wie gut es bei diesem Vergleich abschneidet:


Die Linien repräsentieren das Ergebnis des „Frank-Modells“, die Punkte jene der verschiedenen GCM-Prophezeiungen (Grundlage ist HadCRUT3). Das außerordentlich gute Ergebnis gestattet Dr. Frank die Aussage: „Falls man die auf Supercomputern laufenden Projektionen duplizieren möchte, kann man das auch mit einem einfachen Taschenrechner tun“.

3. Wolken, der Elefant im Raum

Der Einfluss von Wolken auf die globale Temperatur ist enorm. Global nimmt man an, dass ihre Auswirkungen zu einer Abkühlung um 25 W/m² führen mit einer jährlichen Unsicherheit in den GCMs von ± 4 W/m². Diese Zahl muss verglichen werden mit dem Konsens-Wert der anthropogen erzeugten Treibhausgase von 2,8 W/m² seit dem Jahr 1900. Daher schluckt die Unsicherheit durch die Wolken ganz einfach die vermeintliche anthropogene Erwärmung. Normalerweise nimmt man an, dass die Fehler in den Modellen zufällig sind, so dass sie sich zumindest teilweise mit etwas Glück gegenseitig aufheben. Dr. Frank zeigt, dass nichts weiter von der Wahrheit entfernt sein kann: die Fehler der Modelle sind sehr stark korreliert (R > 0,95 für 12 und R > 0,5 für 46 Modelle).

Wie pflanzt sich diese Wolken-Unsicherheit fort durch das Berechnungs-Schema der GCMs?

Die jährliche Unsicherheit von 4 W/m² setzt sich von Schritt zu Schritt fort, und die resultierende Unsicherheit ist die Quadratwurzel der (Summe von Quadraten der individuellen Fehler):


Das Ergebnis ist eine zunehmende Unsicherheit, die sich bis zu 13°C aufschaukelt, wenn man die prophezeite Erwärmung bis zum Jahr 2100 zugrundelegt:

Diese Erwärmungsrate liegt eindeutig „außerhalb jedweder physikalischen Möglichkeit“; die Temperatur-Projektionen selbst der fortschrittlichsten Modelle werden bedeutungslos, falls die Wolken-Unsicherheit angemessen angewendet wird.

3. Schlussfolgerung

Was können die Klimamodelle als Vorhersage-Tools liefern: Die folgende Folie macht es kristallklar:

[Bildinschriften: Am Ende der Reise

Die Projektions-Unsicherheit wächst viel schneller als jedwedes GHG-Signal.

Große systematische Fehler machen die Projektionen der zukünftigen Temperaturen auf der Erde vollständig unzuverlässig.

Was zeigen die Modelle hinsichtlich der zukünftigen globalen Mitteltemperatur? Gar nichts!

Was zeigen die Modelle hinsichtlich eines anthropogenen GHG-Fingerabdrucks bzgl. des terrestrischen Klimas? Gar nichts!]

Haben unsere Politiker, die vor Begeisterung von einem Fuß auf den anderen springen, um den Paris-Vertrag zu unterzeichnen, auch den blassesten Schimmer von diesem Unsicherheits-Problem?

Link: https://meteolcd.wordpress.com/2016/09/04/no-certain-doom/

Übersetzt von Chris Frey EIKE

Und hier jetzt das oben verlinkte Video: Video (leider nur in Englisch) von Pat Frank (Juli 10, 2016, Omaha, Nebraska.) als Ergänzung zu den im Beitrag behandelten immensen Unsicherheiten, die den historischen Temperaturdaten zwangsläufig und unabänderlich innewohnen. (Details dazu u. hier und hier und hier) Im Video zeigt der Vortragende unmissverständlich und unwiderlegbar auf, dass bei Anwendung der Fehlertheorie mit ihrem Fehlerforpflanzungsgesetz jegliche Klima-Modellaussage völlig bedeutungslos wird. Weil ihre berechneten Änderungen z.B. der Temperatur, z.B. allein auf Grund der ungenauen Kenntnis der Wolkenbedeckung 140 mal kleiner ist als die unvermeidbare Unsicherheit, die aufgrund des Gesetzes der Fehlerfortpflanzung zwangsläufig entsteht. Und der Fehler durch die Wolkenbedeckung ist nur einer von vielen Fehlern.

Anmerkung: Die Folien wurden nach Rücksprache mit Dr. Frank Anfang August 16 aktualisiert




Die vielen Varianten des 2-Grad-Ziels !! Welche ist eigentlich die richtige?

…Und genau deswegen – so kann man mit hoher Sicherheit annehmen, konnten sich die 192 Teilnehmerstaaten in Paris darauf einigen. Doch die Verwirrung ist nicht nur semantisch, sie ist auch physikalisch garantiert, denn um 2 ° Zuwachs zu bestimmen, braucht man – zwangsläufig, jedenfalls in Technik und Naturwissenschaften- einen gesicherten weil akzeptierten Basiswert. Doch den gibt es nicht, ebensowenig wie ein echtes 2 °Ziel.

Und das in einer Disziplin, bei der es auf 1/100 und 1/10 Grad ankommen soll. Wo jedes Jahr, das um diese Differenz höher ausfällt, ais „heissestes Jahr“ medial gehypt wird.

Und – ebenso merkwürdig konfus- auf welchen Zeitraum bezieht sich dieser Anstieg? Auf die „vorindustrielle Zeit“? Und wenn ja, wann beginnt die? Um 1750 oder erst um 1850? Wenn es das Jahr 1750 ist, wie hoch war dort der Referenzwert? Es gab ja keine Thermometer zum Messen. Oder ist es das Jahr 1850 (wie SPON A. Bojanowski behauptet). Wenn ja, wie hoch war dann der Referenzwert? Es gab ja immer noch kaum Thermometer zum Messen, und auch die waren nicht auf 1/10 ° genau.

Lesen Sie was das Team vom Klimamanifest von Heiligenroth dazu heraugefunden hat.

Klimamanifest von Heiligenroth

Update 01.12.2017: nun 27 (!) „Zwei-Grad-Ziele“

Am 17.08.2016 hatte SPIEGEL ONLINE und der hinreichend bekannte und einschlägige Journalist Axel Bojanowski die Behauptung übernommen, dass angeblich der Juli 2016 der wärmste Juli seit Beginn der Messungen gewesen sei. Wir wollen diese bekannte Klima-Alarmdauerschleife der deutschen Mainstream-Medien gar nicht weiter kommentieren, allerdings ein Zitat. Denn in diesem SPON-Artikel tauchte die folgende interessante Bemerkung auf, rot von uns unterstrichen:

SPIEGELOnline_20160817_Bojanowski_SpiegelWissen_2GradZielQuelle: SPON am 17.08.2016

Die Zeit um 1850 gilt auf Basiswert für die Begrenzung der Klimaerwärmung auf zwei Grad.

Als wir diesen Satz gelesen haben, haben wir sofort Axel Bojanowski angetwittert und ihn gebeten, er solle uns doch bitte die Quelle für seine obige „steile These“ nennen:

Eine Antwort erhielten wir von SPIEGEL_WISSEN und von Axel Bojanowski bis heute nicht. Denn es dürfte für den SPIEGEL auch schwierig werden, diese Behauptung über das 2-Grad-Ziel zu verifizieren. Wir listen Ihnen nämlich nachfolgend mal die wichtigsten verschiedenen Varianten an visualisierten 2-Grad-Zielen auf, die wir in den letzten Wochen und Monaten recherchiert haben, ohne Kommentar, nur mit Hinweis auf Quellen. Achten Sie aber bei der Sichtung der Grafiken auf drei (3) Fragestellungen:

  1. Wo liegt das 2-Grad-Ziel? Auf der 2-Grad-Temperaturmarke oder unterhalb der 2-Grad-Temperaturmarke?
  2. Welcher Referenz-Zeitraum wird als Basisgrundlage für das 2-Grad-Ziel angegeben?
  3. Wird ein absoluter globaler Temperaturwert ausgewiesen?

Und stellen Sie sich auch unbedingt selbst diese grundlegende Frage…
… wenn Sie sich nun nachfolgend die einzelnen Varianten des mehr als merkwürdigen „2-Grad-Zieles“ anschauen:

Variante 1:
MPI-met, Hamburg, seit ca. Februar 2012 bis heute

MPI_met_DKRZ_Boettinger_2GradZielQuelle Quelle2 Video (Hinweis: ohne Ton)

Variante 2:
TAGESSCHAU.DE vom 02.12.2015 (2009) bis heute

TAGESSCHAU_DE_20151202_2GradZiel_MeinshausenQuelle (auf TAGESSCHAU.DE nur abrufbar bis 01.12.2016)
Quelle (durch Wayback-Machine am 05.12.2015 archiviert)

Variante 3:
WBGU-Sondergutachten „Der Budgetansatz“, seit 2009

WBGU_2009_2GradZielQuelle Seite 10 (.pdf-Seite 20)

Variante 4:
Hamburger Bildungsserver, seit 2011 bis heute

2-Grad-Ziel_wiki_Bildungsserver_Hamburg_Stand20160818Quelle Quelle der Grafik

Variante 5:
Scepticalscience.com, seit November 2015 bis heute

SkepticalScience_201511031_2GradZiel_2c-2015-10Quelle Quelle der Grafik

Variante 6:
Stefan Rahmstorfs Scilogs-Blog seit 14.12.2015

Klimalounge_20151214_Rahmstorf_2GradZiel_Meinshausen_Paris-agreement_2Quelle Quelle der Grafik Fig. TS.15 aus IPCC 2013, WGI

Variante 7:
„Der Klimawandel“, Rahmstorf/Schellnhuber, seit 2006/2007,
S. 49

Schellnhuber_Rahmstorf_2006_DerKlimawandel_S49_EU_2GradZielQuelle .html Quelle .pdf Seite 49

Variante 8:
„Der Klimawandel“, Rahmstorf/Schellnhuber, seit 2006/2007,
S. 49
(ergänzt mit globalen Absolut-Temperaturen und farbigen Linien auf Basis von IPCC 2007 durch www.klimamanifest.ch)

Schellnhuber_Rahmstorf_2006_DerKlimawandel_S49_EU_2GradZiel_mitMark2Original Quelle .html Quelle .pdf Seite 49

Variante 9:
„Der UN-Klimareport 2007“, Müller/Fuentes/Kohl, 2007, Schellnhuber/Levermann, Seite 183

DerUN_Weltklimareport_2007_MuellerMichael_Schellnhuber_Levermann_2GradZIel_S183_Abb8Video (Hinweis: ohne Ton)

Variante 10:
„Der Klimawandel“, Rahmstorf/Schellnhuber, seit 3/2012, S. 49

DerKlimawandel_2012_auflage7_Schellnhuber_Rahmstorf_Seite49_Abb2_6Video (Hinweis: ohne Ton)

Variante 11:
William D. Nordhaus, 06.01.1977

Nordhaus_1977_2GradZiel_grafikQuelle Vortrag von Reto Knutti am 04.11.2015, ETH Zürich

Variante 12:
IPCC-Bericht 2013, Arbeitsgruppe II, Zusammenfassung für politische Entscheidungsträger (deutsch), Seite 13

IPCC_2013_2GradZiel_SPMQuelle Seite 13 .pdf-Seite 19

Variante 13:
Hans J. Schellnhuber: „Selbstverbrennung“, 2015,
ca. Seite 352, Plastik-Seite

2Grad_Ziel_Schellnhuber_Selbstverbrennungergänzender Quellennachweis in Vorbereitung

Variante 14:
eigene Grafik auf Grundlage absoluter globaler Temperaturwerte

17Grad_GlobaleErderwaermung_Maximal

Variante 15:
Broschüre DBU, DENA, ca. aus: 2008/2009

dbu_2GradZiel_17Grad_15GradQuellendatei .pdf

Variante 16
PROCLIM, BAFU (Schweiz), 2009

proclim_globtemp01_2GradZielQuelle .html Quelle .pdf Seite 2 .pdf

Variante 17
DAS ERSTE „TAGESSCHAU“ am 03.09.2016

vlcsnap-Screenshot2016-09-04-09h32m44s622„TAGESSCHAU“ am 03.09.2016, ab Minute 7:32 (Video)

Variante 18
ZDF-tivi, „KIKA“, „logo!“ vom 06.03.2016

Zdf_tivi_2GradZiel_20160907_logoQuelle mit Video

Variante 19
WWF/DKK/ONCAMPUSFHL (Fachhochschule Lübeck) vom 23.08.2016, Prof. Dr. Hermann Held (Universität Hamburg)

klimamooc_20161009_2gradziel_taeuschung_ipcc
Screenshot vom 09.10.2016 aus KlimaMooc-Video. Die roten Pfeile und Rot-Unterstreichung wurden durch www.klimamanifest.ch zur Verdeutlichung hinzugefügt.

Video bei Minute 2:58 Blogtext mit weiteren Infos

Variante 20
WBGU Sondergutachten 1995
WBGU-Gutachten aus 1995 (.pdf) Webseite zum WBGU

Variante 21
Sven Plöger, der einfach nur aus dem WBGU Sondergutachten 1995 abgeschrieben zu haben scheint (vergleiche „Variante 20“).

aus: Greenfacts, 2013/1, Ausgabe März 2013

Link zum GREENFACTS-Heftarchiv

Variante 22
Nicholas Stern „Der Global Deal“, 2009, Seite 56 und 57

Variante 23
Thomas Stocker mit „Klimaziel G8“ im Jahr 2009 in „NZZ- Standpunkte“-Sendung am 13.09.2009

Screenshot aus SRF „NZZ-STANDPUNKTE“ Talksendung vom 13.09.2009.

Youtube-Video mit Grafik bei Minute 23:37

Variante 24
Vortrag von Thomas Stocker am 03.11.2014 in Bern:

Screenshot aus IPCC-Youtube-Video vom Stocker-Vortrag am 03.11.2014

IPCC Youtube-Video mit Grafik bei Minute 6:12 Info-Webseite

Variante 25
Vortrag von Hans Joachim Schellnhuber am 08.12.2016 in Berlin in Rahmen von „25 Jahre DBU“

Screenshot aus Video über Schellnhuber-Vortrag vom 08.12.2016 zum 25-jährigen Bestehen der DBU

Video mit PP-Folien Original-Video (ohne PP-Folien, ab Minute 17:36)

Variante 26
Vortrag von Hans Joachim Schellnhuber am 08.12.2016 in Berlin in Rahmen von „25 Jahre DBU“

Video mit PP-Folien Original-Video (ohne PP-Folien, ab Minute 17:36)

Variante 27
Screenshot einer ZDF-Webseite am 17.11.2017 zu einem TV-Bericht von „FRAG-DEN-LESCH“ vom 06.11.2017:
Website ZDF (Link eingestellt am 01.12.2017)
ARCHIVIERT am 01.12.2017

Diese Liste wird laufend ergänzt, wenn wir neue Varianten eines 2-Grad-Zieles entdecken.

Die gesamte Dubiosität der verschiedenen 2-Grad-Ziele, die in der Öffentlichkeit kursieren, ist in dem folgenden Video-Themenabschnitt #09 (ab Minute 0:20), Länge ca. 49 Minuten im Detail dargestellt worden:

(Auf Screenshot klicken, um zu #09 im Video zu gelangen):
Vaduz_Stocker_#09
In dem 49-minütigen Videoabschnitt werden auch die Unterschiede der oben ursprünglich aufgelisteten 16 verschiedenen Varianten der einzelnen 2-Grad-Ziel-Grafiken im Detail kritisch analysiert und im Detail erklärt.

Sie haben aber bereits bei Sichtung der obigen 27 Varianten feststellen können, dass nicht eine einzige Grafik die Behauptung von SPIEGEL ONLINE vom 17.08.2016 belegt.

Und jeder sollte sich mal fragen, welches der oben aufgelisteten 2-Grad-Ziel-Varianten denn nun letztendlich das massgebliche, korrekte und richtige 2-Grad-Ziel ist, auf dessen Einhaltung die weltweite Klima-Politik ja so grossen Wert legt??

WDR_Quarks_Zitate_Flasbarth_yogeshwar_20151124

Erstveröffentlichung am 19.08.2016, 07Uhr00
Letztmalig optimiert/ergänzt am 01.12.2017, 15Uhr43

***




Eine kleine Sensation, von der Presse unbemerkt: Sonnenaktivität erreichte im späten 20. Jahrhundert nun doch Maximalwerte

Abbildung 1: Vergleich der Entwicklung von globaler Temperatur, CO2 und Sonnenaktivität. Aus Wikipedia. Quelle: Leland McInnes at the English language Wikipedia [GFDL (http://www.gnu.org/copyleft/fdl.html) or CC-BY-SA-3.0 (http://creativecommons.org/licenses/by-sa/3.0/)], via Wikimedia Commons

Das Problem: Die Sonnenaktivität wird mittlerweile gar nicht mehr allein an den wackeligen Sonnenflecken festgemacht. Das oben dargestellte Diagramm ist ein Update von 2014, das offenbar von einem User mit dem wenig vertrauenserweckenden Namen “Kopiersperre” zur Verfügung gestellt wurde. Die aktualisierten Verlaufskurven der Sonnenaktivität gibt es bei der Österreichischen Zentralanstalt für Meteorologie und Geodynamik (ZAMG) sowie der Forschergruppe PAGES:

Abbildung 2: Schwankungen des solaren Klimaantriebes in Jahrtausenden, Jahrhunderten und Jahrzehnten. Oben: Im 20. Jahrhundert war die stärkste Sonnenaktivität seit 11.000 Jahren (hier 7.000 Jahre) zu verzeichnen. Mitte: Dem starken Antrieb des Hochmittelalters und dem geringeren in den Jahrhunderten danach folgte der ungewöhnliche Anstieg zum aktuellen Niveau. Unten: Erst im kurzfristigen Maßstab tritt der elfjährige Zyklus deutlich hervor (Fröhlich 2000 aktual., Wagner u.a. 2007). Abbildungs-Quelle: ZAMG

Abbildung 3: Sonnenaktivität während der vergangenen 400 Jahre.Weiße Kurve gibt die Total Solar Irradiance (TSI) an, die gelbe Kurve repräsentieren die Sonnenflecken. Abbildungsquelle: PAGES.

Die starken Veränderungen im Verständnis der Sonnenaktivität haben Matthes & Funke Ende 2015 bereits in einem Konferenzbeitrag auf Seite 9 dargestellt (alte Kurve SATIRE-TS in rot):

Abbildung 4: Neue und alte Kurven zur Sonnenaktivität während der vergangenen 165 Jahre. Quelle: Seite 9 in Matthes & Funke 2015.

Aber es kommt noch besser. Die Sonne erzielte am Ende des 20. Jahrhundert nicht nur ihre Maximum der letzten Jahrhunderte, sondern war offenbar so stark wie nie zuvor in den vergangenen 10.000 Jahren. Matthes et al. zeigten es in einer aktuellen Publikation von 2016 im Fachblatt Geoscientific Model Development Discussions:

Abbildung 5: Sonnenaktivität während der letzten 10.000 Jahre. Quelle: Abb. 20 in Matthes et al. 2016

Die außergewöhnlich starke Sonnenaktivität in der zweiten Hälfte des 20. Jahrhundert hatte übrigens bereits Sami Solanki vor mehr als 10 Jahren in Nature berichtet. Danach zog er sich jedoch auf mysteriöse Weise aus der Klimadiskussion zurück. Ist dies vielleicht der Grund, weshalb die Sonnenforscher nun nahezu unbemerkt unterhalb des medialen Radars operieren? Die unerwartet starke Sonne wirft unbequeme Fragen auf, denen man gerne ausweicht. Könnte die hohe Sonnenaktivität vielleicht doch irgendetwas mit der starken Erwärmung 1980-2000 zu tun haben?

Auf jeden Fall kann uns nun niemand mehr erzählen, dass Sonnenaktivität und Temperatur divergieren und daher der Zusammenhang widerlegt sei. Die Attribution muss auf jeden Fall neu aufgerollt werden, das ist alternativlos.

Erstmals erschienen auf dem Blog „kaltesonne“ hier: http://www.kaltesonne.de/eine-kleine-sensation-von-der-presse-unbemerkt-sonnenaktivitat-erreichte-im-spaten-20-jahrhundert-doch-maximalwerte/




Auch das UK-Stromsystem zunehmend unter Stress

Die in der Studie angesprochenen Themen sind umfassend:

„Die Mid-term Adequacy Forecast (MAF) ist eine Pan-Europäische Abschätzung der Risiken bzgl. der Versorgungssicherheit und beschreibt die Notwendigkeit für Flexibilität während des nächsten Jahrzehnts. Das von ENTSO-E verwendete Verfahren berücksichtigt die Transformation des Energiesystems mit zunehmender variabler Erzeugung durch erneuerbare Energiequellen“.

Während die Forscher auf die verschiedenen Daten der Betreiber der national relevanten Übertragungssysteme zurückgreifen (im Falle UK das National Grid), ist die Methodik unterschiedlich und – am wichtigsten – mit einem höheren Grad an Objektivität. Dies ist ein mehr von außen kommender Blick als von irgendeiner heimischen Organisation, und die Aussichten für Großbritannien sind in der Tat besorglich:

„Die Simulationen zeigen die mittlere Loss Of Load Expectation (LOLE) und Energy Non-Served-Werte (ENS) von ~7 bis 8 Stunden bzw. ~15 Gwh. Großbritannien hat einen Zuverlässigkeits-Standard von 3 Stunden pro Jahr LOLE, was über die Mittelfrist-Ergebnisse der Adequacy Forecast hinausgeht“ (S. 16).

Dies ist ein sehr bedeutendes Ergebnis, wobei sowohl der Loss of Load hours als auch Energy Non-Served am höchsten sind im Vergleich mit allen anderen untersuchten europäischen Netzwerken.

ENTSO-E kommt zu dieser weit reichenden Schlussfolgerungen, weil man dort viel weniger optimistische Annahmen macht als gegenwärtig in UK bzgl. der Verfügbarkeit neuer Strom-Ausgleichsleitungen [electricity interconnectors] über den Kontinent. Dies ist eine wichtige Erinnerung daran, dass die Konstruktion neuer Verbindungen von UK nach Europa allein nicht notwendigerweise Strom liefert, solange es nicht gleichzeitig Verstärkungen und neue Verbindungen anderswo im Europäischen Netzwerk gibt.

Allerdings ist man bei ENTSO-E bemüht zu betonen, dass es trotz ihrer Analyse aktuell kein Risiko hinsichtlich der Versorgungssicherheit gibt, selbst wenn die vielen erforderlichen Ausgleichsleitungen nicht gezogen werden. Man glaubt nämlich, dass der Kapazitäts-Mechanismus von UK sicherstellt, dass ausreichende Erzeugung zur Verfügung steht.

Dies ist Politik, aber eine eindeutige Botschaft schimmert durch den Wust von Fakten: Falls die Interkonnektoren nicht kommen, und das ist eine reale Möglichkeit, dann wird UK abhängig sein von der teuren Notfallmaßnahme des Capacity Mechanism.

Die Lichter werden wohl nicht ausgehen, aber große Teile von UK werden nicht in der Lage sein, sie überhaupt noch anzuknipsen.

Link: http://www.thegwpf.com/uk-electricity-system-under-increasing-stress/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Mit diesem Beitrag muss ich an die Fachleute beim EIKE appellieren, denn fast alle hier vorkommenden Fachbegriffe habe ich noch nie gehört. Soweit ich es verstehe, gibt es zwei Möglichkeiten: Entweder Licht machen wird immer teurer, oder Licht machen geht gar nicht mehr weil zu teuer. – C. F.




Entwicklung von Schiefergas in Europa und den USA

Aussichten und Hindernisse für Schiefergas in Europa

Jay Lehr, Ph.D.

Europa ist in einer besonders guten Lage hinsichtlich der Entwicklung und des Verbrauches von Erdgas-Ressourcen, und zwar wegen seines großen Marktes, einer etablierten Pipeline-Infrastruktur, zunehmender Nachfrage nach Energie und wegen der derzeitigen Abhängigkeit von Erdgasimporten.

Die Umstände um Schiefer-Flüssigkeiten und -gas in Europa unterscheiden sich grundlegend von denen in den USA. In Europa herrscht eine hohe Bevölkerungsdichte, und die lokalen Behörden haben sehr viel Macht, den Landverbrauch zu kontrollieren. Auch gehören Mineralrechte typischerweise den europäischen Regierungen. Das bedeutet, dass die Erzeugung von Kohlenwasserstoffen für Landbesitzer und lokale Gemeinden kaum Vorteile bringt. Entwicklungen in großem Maßstab finden oftmals nur statt, wenn Gemeinden und die Öffentlichkeit die Risiken als minimal ansehen und wenn es für die Gemeinden manchmal Vorteile bringt.

Als Folge dieser Umstände steckt die Förderung von Schiefergas in Europa noch in den Kinderschuhen – trotz des großen Marktes und hoher Energiepreise. Die erste Erkundungsbohrung wurde im Jahre 2005 in Schottland niedergebracht, und seitdem sind Erkundungsbohrungen bzgl. Schiefergas nur in sieben Ländern erfolgt: Bulgarien, Dänemark, Deutschland, Polen, Rumänien, Schweden und UK.

Insgesamt sind bislang 128 Förder- und Erkundungsbohrungen mit einer Schiefergas-Komponente in Europa durchgeführt worden. 32 dieser Bohrungen sind flache, in Schweden niedergebrachte Testbohrungen. In Litauen, Polen und UK wurden insgesamt acht Löcher gebohrt, um Öl zu fördern und/oder Erdgas zu erhalten.

Die Opposition an der Basis gegen hydraulisches Brechen sowie die Ausbeutung von Schiefer-Öl und -gas ist im gesamten Kontinent unverändert stark. In UK und Rumänien war es zu großen Demonstrationen gekommen gegen Versuche zur Ausweitung der Bohrungen. Der Druck der Öffentlichkeit hat zur Verhängung von Moratorien bzgl. der Schiefergas-Förderung und -erzeugung in Bulgarien und Deutschland geführt – wo man zuvor ein paar Erkundungsbohrungen genehmigt hatte – ebenso wie in der Tschechischen Republik, Frankreich und den Niederlanden, wo keine Versuche bzgl. Fracking unternommen worden waren.

Europäische Regierungen treiben die Förderung voran

Trotz dieser Rückschläge arbeiten das Europaparlament und einige nationale Regierungen daran, die Ausbeutung zu fördern. Zum Beispiel hat die Regierung in Spanien das hydraulische Brechen explizit legalisiert. Am 13. August 2015 verkündete UK seine neuen Maßnahmen, die darauf abzielen, Anträge auf Schiefergas-Planungen rasch zu genehmigen im Zuge eines neuen Planungsprozesses, der auch bevollmächtigt ist, Stadt- oder Landkreisparlamenten das Recht auf Fracking-Anträge zu verwehren. Die positive Haltung der Regierung in UK bzgl. Fracking hat schon jetzt dazu geführt, dass eine Reihe von Petroleum-Unternehmen nach dem Erwerb von Ländereien mit Schiefergas-Potential trachten in Erwartung der Genehmigung für Erkundung und Ausbeutung.

Innerhalb der Europäischen Union wird sowohl im Lissabon-Vertrag als auch dem Energiecharter-Vertrag [Energy Treaty Charter; näheres hier bei Wikipedia. Anm. d. Übers.] die Souveränität der einzelnen Staaten hinsichtlich ihrer Energieressourcen ausdrücklich festgeschrieben. Am 22. Januar 2014 hat die Europäische Kommission nicht bindende „Empfehlungen und Kommunikationen“ für deren Rahmenwerk zur Schiefergas-Förderung [„Recommendation and Communication” for its Shale Gas Enabling Framework] übernommen und veröffentlicht. Die Recommendation Communication der EU sieht vor, dass jedes Mitgliedsland ein integriertes Verfahren einführt hinsichtlich der Gewährung von Genehmigungen, dass Risiko-Abschätzungen für potentielle Bohrstellen erforderlich sind und bzgl. der Verpflichtung der Betreiber, nur die besten Methoden anzuwenden.

Einige europäische Politiker und Unternehmen weisen darauf hin, dass die Schiefergas-Erzeugung in den USA Arbeitsplätze geschaffen sowie niedrige Öl- und Erdgaspreise mit sich gebracht hat im Vergleich zu den Preisen in Europa. Einige Unternehmen erwägen sogar, ganz nach Nordamerika überzusiedeln. Das in Deutschland ansässige Unternehmen BASF, das weltgrößte Chemie-Unternehmen, hat die Herstellung von Chemikalien aus Europa an die US-Golfküste verlagert, um von den niedrigen Erdgaspreisen infolge der Schiefergas-Erzeugung zu profitieren [warum herrscht in den deutschen Medien dazu eigentlich so dröhnendes Schweigen? Anm. d. Übers.].

Viele europäische Politiker, besonders in Osteuropa, verleihen ihren Wünschen Ausdruck, größere Energie-Unabhängigkeit zu erreichen, und die jüngsten politischen Unruhen in der Ukraine haben die diesbezüglichen Bedenken noch erheblich verstärkt.

Erkenntnis aus Erkundungs-Bohrungen: Förderung ,nicht günstig‘

In Gebieten, in denen die Ausbeutung bereits begonnen hat, haben sich die geologischen Erkenntnisse aus einer Reihe von Gründen als nicht günstig erwiesen. Dazu gehörte auch der geringe Kohlenstoffgehalt in der geologischen Formation, was zeigt, dass dort höchstens eine geringe Menge von Öl und Gas existieren könnte, wenn überhaupt.

Beispielsweise hat das Interesse an Schiefergas-Lagerstätten in Polen seit dem Jahr 2013 deutlich abgenommen. Von 121 Schiefergas-Konzessionen, die in Polen bis heute erteilt worden waren, sind 90 aufgegeben worden. Chevron, ConocoPhillips, Eni, ExxonMobil, Marathon, Talisman und Total haben sich allesamt aus Polen zurückgezogen, hauptsächlich weil sich die Geologie als unerwartet ungünstig erwiesen hat.

UK freut sich hingegen über günstige geologische Bedingungen, und es hat ein relativ begünstigendes Schema von Vorschriften für hydraulisches Brechen – zumindest derzeit. Neue Vorschriften für hydraulisches Brechen in England und Wales wurden im Infrastrukturgesetz von UK im Jahre 2015 vorgestellt [U.K. Infrastructure Act of 2015 ]. Diese Vorschriften setzen klare Kriterien für die Art und das Timing der erforderlichen Analysen von Risiken und Umwelt-Auswirkungen, aber auch für Gebiete, die für Fracking-Operationen gesperrt sind. Spezial-Genehmigungen sind mit diesen Vorschriften auch möglich, um eventuellen außerordentlichen Umständen Rechnung zu tragen.

Bestimmungen für den Fall, dass lokale Planungskommissionen die Erkundung oder Entwicklung für Schiefergas ablehnen, sind ebenfalls Teil der neuen Vorschriften. Falls es dazu kommt, müssen diese Fälle unter den neuen Vorschriften als Priorität behandelt werden, die dringend eines Beschlusses bedürfen, und lokale Behörden, die wiederholt die Genehmigung für Öl und Gas akzeptieren oder zurückweisen, werden innerhalb des vorgegebenen Zeitrahmens von 16 Wochen gekennzeichnet. Stattdessen kann über solche Anträge, die von lokalen Behörden nicht bearbeitet werden, seitens des Secretary of State for Community oder lokaler Regierungen befunden werden.

Jay Lehr, Ph.D., is science director of The Heartland Institute. Ken Chew, Ph.D., is an independent analyst of unconventional oil and gas resources. This article is adapted from material contained in the Renewable Energy and Shale Gas Encyclopedia, published by Wiley in 2016.

Link: https://www.heartland.org/news-opinion/news/prospects-and-roadblocks-for-shale-gas-development-in-europe

Und hier jetzt eine Betrachtung über die Schiefer-Revolution in den USA, bezeichnenderweise aus europäischer (britischer) Sicht:

Alptraum der OPEC: US-Schiefer-Revolution lebt und blüht auf

Ambrose Evans-Pritchard, The Daily Telegraph

Die schlimmsten Befürchtungen der OPEC bewahrheiten sich gerade. Zwanzig Monate nach der schicksalhaften Entscheidung von Saudi-Arabien, die Weltmärkte mit Öl zu überschwemmen, ist es dem Land immer noch nicht gelungen, der US-Schiefer-Industrie das Genick zu brechen.

Die von Saudi-Arabien angeführten Golfstaaten hatten sicherlich Erfolg bei der Zerschlagung einer Reihe von globalen Mega-Projekten in der Tiefsee. Investitionen in die Erkundung von 2014 bis 2020 werden um 1,8 Billionen Dollar geringer ausfallen als zuvor angenommen, jedenfalls den Beratern von IHS* zufolge. Aber im besten Falle ist dies ein bitterer Sieg.

[*IHS = Information Handling Services, seit dem Jahr 2004 nur noch kurz IHS, ist ein
weltweit tätiges Unternehmen für Analysen und Informationen mit Sitz in den
USA. Quelle bei Wikipedia. Anm. d. Übers.]

Die Betreiber hydraulischen Brechens in Nordamerika senken die Kosten so rasch, dass die meisten von ihnen inzwischen zu Preisen produzieren können, die weit unter dem Niveau liegen, das erforderlich ist, um den saudischen Wohlstand und deren Militär zu erhalten – oder um die OPEC-Haushaltsdefizite abzudecken.

Scott Sheffield, scheidender Chef von Pioneer Natural Resources, hat den Fehdehandschuh in der vorigen Woche zurückgeworfen – mit einigem poetischen Pathos – mit der Behauptung, dass die Erzeugungskosten vor Steuern im Permian-Becken in West-Texas auf 2,25 Dollar pro Barrel gefallen sind.

„Wir können definitiv wettbewerbsmäßig mit allem mithalten, was Saudi-Arabien hat. Wir haben das beste Gestein“, sagte er. Revolutionäre Verbesserungen bei der Bohrtechnologie und der Datenanalyse haben die Kostenberechnungen schneller geändert als irgendjemand für möglich gehalten hätte.

Die ;Abnehm-Rate‘ der Erzeugungskosten während der ersten vier Monate lag bei jeder Bohrung der US-Fracker bei 90 Prozent pro Dekade. Sie sank auf 31 Prozent im Jahre 2012. Jetzt liegt sie bei 18 Prozent. Die Bohrbetreiber haben gelernt, mehr zu extrahieren.

Mr. Sheffield sagte, dass das Permian-Becken genauso ergiebig ist wie das riesige Ghawar-Feld in Saudi-Arabien. Die Ausbeutung kann von 2 Millionen bis 5 Millionen Barrel pro Tag reichen, selbst falls der Ölpreis nie über 55 Dollar steigen würde.

Sein Unternehmen hat die Produktionskosten allein im vorigen Jahr um 26 Prozent gesenkt. Pioneer ist inzwischen so effizient, dass bereits 5 neue Plattformen errichtet werden trotz der derzeit geringen Preise in den vierziger Dollar. Es steht nicht allein.

Die Baker-Hughes-Zählung von Ölbohr-Plattformen in den USA ist während sieben der letzten acht Wochen gestiegen, und zwar auf 374, und dies unterstreicht den Effekt. Mehrfach-Bohrungen bedeutet, dass derzeit routinemäßig drei Bohrungen von der gleichen Plattform niedergebracht werden, manchmal auch sechs oder noch mehr. Die mittlere Bohrloch-Produktivität im Permian-Becken ist seit Anfang 2012 um das Fünffache gestiegen.

Die Beratungsgesellschaft Wood Mackenzie schätzte in einem neuen Bericht, dass die full-cycle break-even costs bei Wolfcamp und Bone Spring im Permian-Becken auf 37 Dollar gefallen sind und auf 35 Dollar in der Ölprovinz in South Central Oklahoma. Die Mehrheit der US-Schieferfelder ist bereits bei 60 Dollar machbar.

Dies ist eine kalte Dusche für die OPEC. Die Golf-Exporteure hatten darauf gebaut, dass Absicherungs-Verträge, die die US-Schieferunternehmen am Leben hielten, zu einem brutalen Zusammenbruch dieser Unternehmen bei Auslaufen jener Verträge in der ersten Hälfte dieses Jahres führen würde.

Aber keine solche Götterdämmerung* ist eingetreten. Einige wenige übereifrige Mitspieler haben Bankrott gemacht, aber Blackstone, Carlyle und andere private Konzerne warten bereits am Rande, um unter Druck geratende Anteile zu kaufen und die Infrastruktur zu übernehmen.

[Im Original steht tatsächlich Gotterdamerung! Vielleicht ist der Autor Wagner-Kenner. Anm. d. Übers.]

Full post

Link: http://www.thegwpf.com/opecs-nightmare-us-shale-revolution-alive-and-kicking/

Beide Beiträge übersetzt von Chris Frey EIKE




Sind Festlands- und Ozean-Temperaturmittel von Bedeutung?

Temperaturen addieren sich nicht!

Technisch gesehen ist Temperatur keine extensive Quantität. Dies wird illustriert durch die Tatsache, dass wenn man einen Eimer Wasser mit einer Temperatur von 30°C hat und dem Wasser den Inhalt eines anderen Eimers von Wasser mit 30°C hinzufügt, man keine Wassertemperatur von 60°C bekommt.

Energie ist eine extensive Sache: Falls man ein Volumen Wasser mit einer thermischen Energie von 4000 Megajoule hat und ein gleich großes Volumen hinzufügt, wird man zweimal die thermische Energie haben. Die mittlere Energie pro Einheit kann verglichen werden mit dem Strahlungsenergie-Budget pro Einheit.

Das Verhältnis von Temperatur zu thermischer Energie ist nicht für alle Materialien gleich, sondern hoch variabel, abhängig von den physikalischen Eigenschaften der Substanz. Es hängt ebenso von der Menge einer Substanz ab, d. h. der Masse. In der Physik und der Materialwissenschaft ist es oft am bequemsten, die „spezifische Wärmekapazität“ zu studieren, das ist die Änderung des Energiegehalts pro Einheit der Masse pro Grad Temperaturänderung. Folglich ist es eine Eigenschaft für jede Art von Material, unabhängig von einem bestimmten Objekt.

Im internationalen Standard-System (S.I.) wird dies gemessen in joule / kilogram / kelvin oder J/kg/K . Kelvin hat die gleiche Größenordnung wie Grad Celsius und ist in diesem Zusammenhang austauschbar. Einige Beispiele für allgemeine Materialien:

Tabelle 1: Spezifische Wärmekapazität verschiedener Materialien in J/kg/K. Datenquelle

Also könnte man Temperaturänderung als ein „Proxy“ für eine Änderung der thermischen Energie für äquivalente VOLUMINA des GLEICHEN Materials betrachten. In diesem Zusammenhang könnte man eine ,mittlere Temperaturänderung‘ berechnen für jenes Medium und auf die Änderung der thermischen Energie rückschließen, welche beispielsweise mit einfallender und ausgehender Strahlung in Bezug gesetzt wird. Falls dies eine Oberflächentemperatur ist, impliziert dies die Hypothese, dass die Erdoberfläche die Temperatur bis zu einer gewissen Wassertiefe repräsentiert und diese repräsentative Tiefe die Gleiche bleibt in den Gebieten, über die gemittelt wird, um den „Volumen“-Zustand oben zu berücksichtigen. Das ist für die ,durchmischte Schicht‘ des Ozeans einigermaßen fragwürdig, kann aber als grobe Energie-Proxy durchgehen.

Allerdings ist sofort klar, dass man nicht beginnen kann, Luft und Wassertemperatur zusammenzufügen oder zu mitteln; oder Temperaturen über Land und Wasser. Das sind keine kompatiblen Medien. Das ist wie die Frage, was das Mittel ist zwischen einem Apfel und einer Orange: Es hat keinerlei physikalische Bedeutung. Es kann mit Sicherheit nicht die Grundlage sein für eine Berechnung des Energiehaushaltes, da es nicht mehr eine Maßzahl für die Änderung der thermischen Energie ist.

Wie aus der Tabelle oben ersichtlich: Luft, Felsgestein und Erde werden eine viermal so hohe Temperaturänderung aufweisen als Wasser als Folge der gleichen einfallenden Energiemenge.

Niemand wird auf den Gedanken kommen, Temperaturaufzeichnungen in Grad Fahrenheit mit solchen in Grad Celsius zu mitteln. Trotzdem scheint es aus irgendwelchen Gründen so, als ob die Vermischung von Land- und Ozeandaten (SST Sea Surface Data) bei niemandem ein Heben der Augenbrauen auslöst.

Änderungsrate in den globalen Temperatur-Datensätzen


Abbildung 1: Vergleich von Änderungsraten in Temperatur-Datensätzen über dem Festland und über dem Ozean (30 Monate Gaussian low-pass filter). Quelle der Daten.

Abbildung 1 zeigt die Änderungsrate in zwei Datensätzen der Wassertemperatur und dem BEST-Datensatz vom Festland, mit einer Verkleinerung um einen Faktor zwei. Mit diesem Skalierungsfaktor sehen sie alle ziemlich eng beieinander liegend aus. Die große Spitze in den ICOADS-Daten liegt an einer erkannten Änderung der Datenmenge infolge Änderungen der Schiffsrouten und der Daten-Sammelverfahren während und nach WW II. Das UKMO bearbeitete den HadISST-Datensatz mit dem Ziel, diesen Bias zu entfernen.

Die Änderungsrate der Festlands-Lufttemperatur, wie sie vom „BEST“-Datensatz Berkeley geschätzt worden ist, ist sehr ähnlich der Änderungsrate der Wassertemperatur, außer dass die Änderungsrate doppelt so hoch ist.*

[*Original: The rate of change of near surface land air temperature as estimated in the Berkeley “BEST” dataset is very similar to the rate of change in the sea surface temperature record, except that it shows twice the rate of change. Ändert sich nicht die Landtemperatur viel stärker als die Wassertemperatur? Was verstehe ich an diesem Satz nicht? Anm. d. Übers.]

Meerwasser besitzt eine spezifische Wärmekapazität, die viermal so groß ist wie Felsgestein. Dies bedeutet, dass sich die Temperatur des Gesteins vier mal stärker ändert als Wasser bei der gleichen Änderung der thermischen Energie, beispielsweise durch einfallende Solarstrahlung.

Erde ist im Allgemeinen eine Mixtur feiner Gesteinspartikel und organischem Material mit einem signifikanten Wassergehalt. Die beiden Temperatur-Datensätze sind konsistent, wenn man Land als ,nasse Felsen‘ betrachtet. Auch erklärt dies teilweise die viel größeren Temperaturschwankungen in Wüstengebieten: Die Temperatur trockenen Sandes wird sich viermal schneller ändern als die von Meerwasser und ist zweimal so volatil wie in Nicht-Wüstengebieten.

Dies unterstreicht auch, warum es unangemessen ist, Land- und Wassertemperaturen zusammen zu mitteln, wie es in vielen anerkannten globalen Temperaturaufzeichnungen gemacht worden ist, beispielsweise bei HadCRUT4 (eine abartige Mischung von HadSST3 und CRUTem4) ebenso wie bei GISS-LOTI und bei den neuen BEST Land- und Wasser-Mittelwerten.

Es ist ein klassischer Fall von ,Äpfeln und Orangen‘. Falls man das Mittel zwischen einem Apfel und einer Orange nimmt, ist das Ergebnis ein Obstsalat. Das ist keine brauchbare Gemengelage für Berechnungen auf physikalischer Grundlage wie etwa dem Energiehaushalt der Erde und der Auswirkung von Strahlungs-„Antrieben“.

Die unterschiedliche Wärmekapazität wird die Daten zugunsten der Lufttemperaturen über Land verdrehen, welche viel schneller variieren und folglich eine irrige Grundlage liefern, um energie-basierte Berechnungen vorzunehmen. Außerdem sind die Landtemperaturen auch durch den Wärmeinseleffekt und andere Verzerrungen beeinträchtigt. Daher werden diese effektiv verdoppelt, bevor sie die globale Land- + Wasseraufzeichnung kontaminieren.

In disem Sinne bieten die Satellitendaten ein physikalisch konsistenteres globales Mittel, weil sie ein konsistenteres Medium messen. Falls man Energie-Berechnungen auf der Grundlage von Strahlung durchführen möchte, ist es wahrscheinlich bedeutsamer, SST-Daten als Kalorimeter zu nutzen.

Klimasensitivität ist definiert als das ∆rad , ∆T-Verhältnis, gewöhnlich im Zusammenhang mit einer linearen Approximation zur Planck-Rückkopplung, welche über relativ kleine Abweichungen in der etwa 300 K umfassenden Temperatur-Bandbreite gültig sind. Andere Rückkopplungen werden als Störungen gesehen, die von der dominanten Planck’schen Strahlungs-Rückkopplung addiert oder subtrahiert werden. All dies und sogar die weitaus komplexeren globalen Zirkulationsmodelle sind im Grunde Berechnungen des Energie-Gleichgewichtes. Der Energie-Erhaltungssatz ist eines der solidesten Axiome der Physik. Ein fundamentaler Test jedweder Theorie oder Gleichung ist, ob der Energie-Erhaltungssatz berücksichtigt ist.

Horizontaler Wärmetransport stellt sicher, dass die Festlandstemperatur durch die ozeanische Wärmekapazität beeinflusst wird: der thermische Anker des Klimasystems. Es ist bekannt, dass Temperaturen in Küstengebieten stabilisiert werden durch die Nachbarschaft von Land und Wasser und dass die zentralen Gebiete der Kontinente eine viel größere tägliche und jährliche Variation zeigen. Allerdings bleibt die Landtemperatur nahe der Oberfläche volatiler als die SST, und Analysen von Klimamodellen zeigen, dass sie über Land eine größere Klimasensitivität aufweisen und einen unterschiedlichen vertikalen Temperaturgradienten zeigen (1). FALLS man das als zuverlässig nehmen kann (die meisten Modelle nehmen eine konstante Relative Feuchtigkeit an).

In diesem Zusammenhang ist ein Temperaturanstieg die finale Folge aller Inputs, „Antriebe“ und Rückkopplungen, von denen viele über Land unterschiedlich sein können. Zieht man eine nicht-thermodynamisch relevante „mittlere“ Temperatur von zwei unterschiedlichen Ökologien mit unterschiedlicher Klimasensitivität heran, um ein ,Mittel‘ zu erzeugen, scheint auch die Klimasensitivität offen für Bias.

Schlussfolgerungen

Temperaturen sind keine abstrakten Statistiken; deren physikalische Bedeutung muss berücksichtigt werden bei der Auswahl, was man mit ihnen macht. Die Verwendung von Mittelwerten von Land- + Wassertemperaturen, verzerrt durch übertriebene Wichtung der volatileren landbasierten Temperaturen, wird physikalisch fehlerhafte Ergebnisse zeitigen.

Die meisten Klimadaten sind nicht einfach dimensionslose Zahlen. Jedes Processing sollte im Zusammenhang mit den physikalischen Größen betrachtet werden, die sie repräsentieren. Falls Temperaturen oder Temperaturanomalien als Energie-Proxy betrachtet werden für Berechnungen auf Energiegrundlage, sollte dies explizit erwähnt werden, und jedwede Verzerrungen, die sich hieraus ergeben, müssen angesprochen werden.

Die physikalische Signifikanz, Validität und Grenzen von „mittleren“ Land- + Wassertemperaturen sollte man berücksichtigen, wenn man sie verwendet. Dies ist jedoch nur sehr selten der Fall, wenn überhaupt.

(1) Geoffroy et al 2015 : “Land-sea warming contrast: the role of the horizontal energy transport” [ paywalled ] http://link.springer.com/article/10.1007/s00382-015-2552-y

Link: https://climategrog.wordpress.com/2016/02/09/are-land-sea-averages-meaningful-2/

Übersetzt von Chris Frey EIKE

Der (anonyme) Autor ClimateCrog hat einen Abschluss in Physik, Berufserfahrung in der Spektroskopie , Elektronik und Software-Engineering , einschließlich 3-D- Computer-Modellierung der Streuung von E- m -Strahlung in die Erdatmosphäre .




Globale Erwärmung in der Arktis

Berichte von Fischern, Seehundjägern und Entdeckern weisen allesamt übereinstimmend auf eine radikale Veränderung der Klimabedingungen hin sowie auf Temperaturen in der Arktischen Zone, wie man von dort bis heute noch nie gehört hat.

Erkundungs-Expeditionen berichten, dass man bis zu einer geographischen Breite von 81°29′ kaum noch Eis angetroffen habe.

Sondierungen bis zu einer Tiefe von 1300 Metern zeigten, dass der Golfstrom immer noch sehr warm ist.

Große Eismassen sind ersetzt worden durch Moränen aus Erde und Steinen, während gut bekannte Gletscher an einigen Stellen vollständig verschwunden sind.

In der östlichen Arktis gibt es nur noch sehr wenige Weißfische und Seehunde, während riesige Schwärme von Heringen und Stinten [smelts] in den Fischgründen gefunden wurden, wo sonst die Seehunde jagen. Nie zuvor waren diese Schwärme so weit nördlich gesehen worden.

Es ist abzusehen, dass der Meeresspiegel infolge der Eisschmelze steigen und die meisten Küstenstädte unbewohnbar machen wird.

———————————————-

Ich muss mich entschuldigen – habe ich doch vergessen zu erwähnen, dass dieser Bericht am 2. November 1922 erschienen ist, und zwar als Meldung der AP und veröffentlicht in der Washington Post – vor 93 Jahren!

Bemerkung des Übersetzers hierzu: Der Hinweis auf diesen Artikel findet sich unter folgendem Link: https://www.truthorfiction.com/newspaper-article-from-1922-discusses-arctic-ocean-climate-change/. Oben rechts ist der – leider kaum lesbare – Ausschnitt zu sehen. Weil sonst kein Link hierzu angegeben werden kann, folgt hier die Meldung im englischen Original:

„The Arctic Ocean is warming up, icebergs are growing scarcer and in some places the seals are finding the water too hot, according to a report to the Commerce Department yesterday from the Consulate, at Bergen , Norway. 

Reports from fishermen, seal hunters and explorers all point to a radical change in climate conditions and hitherto unheard-of temperatures in the Arctic zone. 

Exploration expeditions report that scarcely any ice has been met as far north as 81 degrees 29 minutes. 

Soundings to a depth of 3,100 meters showed the gulf stream still very warm. 

Great masses of ice have been replaced by moraines of earth and stones, the report continued, while at many points well known glaciers have entirely disappeared. 

Very few seals and no white fish are found in the eastern Arctic, while vast shoals of herring and smelts which have never before ventured so far north, are being encountered in the old seal fishing grounds. 

Within a few years it is predicted that due to the ice melt the sea will rise and make most coastal cities uninhabitable.




Eiszuwachs in Grönland: Alle Rekorde gebrochen!

Bild rechts: Greenland Ice Sheet Surface Mass Budget: DMI. Legende:

Oben: Der tägliche Gesamtbeitrag zur Massenbilanz an der Oberfläche des gesamten Eisschildes (blaue Linie in Gt pro Tag). Unten: die akkumulierte Massenbilanz an der Oberfläche vom 1. September bis jetzt (blaue Linie in Gt) und während der Saison 2011-2012 (rot), als es zu einer sehr starken sommerlichen Eisschmelze gekommen war. Zum Vergleich wird die Mittelkurve der Jahre von 1990 bis 2013 gezeigt (dunkelgrau). Der gleiche Kalendertag in jedem der 24 Jahre (im Zeitraum 1990 bis 2013) wird seinen eigenen Wert haben. Diese Unterschiede von Jahr zu Jahr werden illustriert durch das hellgraue Band. Allerdings wurden für jeden Tag der jeweils höchste bzw. tiefste Einzelwert der 24 Jahre weggelassen.

Inzwischen stimmt die New York Times ein gewaltiges Klagelied mit der Behauptung an, dass Grönland abschmilzt (Quelle):

 

500 Milliarden Tonnen Schnee fallen jedes Jahr auf Grönland. Alles davon muss ins Meer zurückkehren, entweder durch Schmelzen oder durch das Kalben von Gletschern. Anderenfalls würde sich das Eis bis zur Obergrenze der Atmosphäre stapeln. Antiwissenschaftliche Elemente bei der NYT machen Bilder von diesem essentiellen Prozess und ordnen ihn dem „Klimawandel“ zu.

Die Schreiberlinge der NYT verstehen nicht einmal das grundlegendste Prinzip von Wissenschaft und wissenschaftlichem Prozess und verspüren auch keine Lust, darüber zu schreiben.

Full post

—————————

Der gleiche Link bei GWPF zeigt noch die Kurzfassung eines weiteren Artikels zu diesem Thema. Offenbar war auch schon im vorigen Winter eine besonders starke Eiszunahme zu verzeichnen, die in diesem Jahr obigem Beitrag zufolge nochmals übertroffen worden ist:

Eiszuwachs in Grönland: In diesem Winter stärker als normal

Der grönländische Eisschild scheint in diesem Winter (2014/15) schneller zu wachsen als während der letzten Jahre. Dies geht aus den neuesten Daten des Danish Meteorological Institute DMI hervor:

Diese gesteigerte Rate Eisakkumulation folgt einem virtuellen Stillstand des Massenverlustes des riesigen Eisschildes im vorigen Jahr, von welchem die NOAA berichtet hatte.

Das Eis akkumuliert gegenwärtig mit einer höheren Rate als im Mittel des Zeitraumes von 1990 bis 2011, und seit Ende November ist die Zunahme mit der höchsten Rate der letzten vier Jahre erfolgt. Die Eisakkumulation erstreckt sich auf ein Gebiet, das signifikant größer ist als im Mittel der Jahre 1990 bis 2011, wobei sich im Südosten besonders hohe Raten zeigen.

Im vorigen Monat berichtete die NOAA von Satellitendaten, die zeigten, dass sich die Rate des Eisverlustes des grönländischen Eisschildes im Jahre 2014 signifikant verlangsamt hat. Die jährlich von der NOAA im Dezember veröffentlichte Arctic Report Card bestätigt, dass der Eisverlust von Juni 2013 bis Juni 2014 „vernachlässigbar“ war, machte er doch insgesamt lediglich 6 Milliarden Tonnen aus.

Full post

Link (beide Beiträge): http://www.thegwpf.com/greenland-blowing-away-all-records-for-ice-gain/

Beide Beiträge übersetzt von Chris Frey EIKE

—————————

Anmerkungen zu diesen beiden Beiträgen

von Dipl.-Met. Hans-Dieter Schmidt

Als mir mein Freund Chris, unser Übersetzer, diese Beiträge gezeigt hat, bin ich – bildlich gesprochen – fast vom Stuhl aufgefahren, und zwar aus folgenden Gründen:

Mitte Oktober d. J. habe ich in einem Beitrag für das EIKE hier über eine Kaltwasserinsel im zentralen Atlantik geschrieben und dass diese einen rekord-kalten Sommer in West- und Nordwesteuropa gebracht hatte. Möglicherweise (d. h. ohne dass ich das irgendwie belegen kann) ist dieses kalte Wasser jetzt auch für die besonders starke Eiszunahme verantwortlich, die in obigen Beiträgen beschrieben wird.

Diese Kaltwasserinsel war im Sommer deutlicher ausgeprägt als bei Redaktionsschluss jenes Beitrages, und man konnte vermuten, dass sie sich bald auflösen wird. Inzwischen zeigt sich jedoch, dass das genaue Gegenteil der Fall ist: Von Mitte Oktober bis jetzt hat sich diese blau getönte Kaltwasserinsel deutlich verstärkt und ausgeweitet – mitten im Bereich des Golfstromes. Das zeigt der Vergleich der beiden Bilder:

Bild links: 12.10.2015 (siehe Link zum Beitrag). Bild rechts: 31. 10.2015

Zur Interpretation und der abgeleiteten Bedeutung für den kommenden Winter bei uns schaue man jenen Beitrag. Je größer diese Kaltwasserinsel noch wird, umso größer ist die Wahrscheinlichkeit, dass der polare Jet-Stream dadurch zumindest zeitweise umgelenkt und südlich an uns vorbei zum Mittelmeer zielt.

Hans-Dieter Schmidt

http://www.eike-klima-energie.eu/klima-anzeige/kaltwasserinsel-im-oestlichen-nordatlantik-schnee-bei-uns-bis-500-m-hinab-bedeutet-das-einen-kalten-winter/




Windenergie-Flutwellen aus Deutschland werfen deren Nachbarn in die Dunkelheit

Bild rechts: Das Windkraft-Debakel in Deutschland sieht nicht nur aus wie ,Chaos‘, sondern es IST Chaos!

Verschwendung von 18 Milliarden Euro pro Jahr für Energie – über die Deutschland aus bedeutenden Quellen reichlich verfügt – hat dort eine faire und vernünftige Frage aufgeworfen: Wie viel Energie bekommen denn nun die Deutschen für die Euromilliarden, mit denen sie um sich geworfen haben – und dies für Wind und Solar auch weiterhin tun?

Die Antwort lautet: NICHT VIEL: Die Deutschen geben hunderte Milliarden Euro für ihre „Energiewende“ aus und bekommen im Gegenzug aus diesen Quellen lediglich 3% ihres Energiemix‘ (hier).

Y-Achse: Private Strompreise in der zweiten Hälfte des Jahres 2014 (Eurostat)
X-Achse: Installierte Wind-/Solarleistung pro Kopf (2015 BP Statistical Review)

Bildquelle: http://irishenergyblog.blogspot.de/2015/08/europe-electricity-price-vs-installed.html?spref=tw

Aber dabei darf man sich nicht nur auf die unsinnig hohen Kosten für die deutschen Energieverbraucher und Steuerzahler konzentrieren – und die überaus mageren Rückläufe für ihre Euromilliarden an Subventionen – sondern man muss auch das betrachten, was sich nur mit der Bezeichnung Markt-Fiasko versehen lässt.

Auf einer mehr praktischen Ebene – die für Energiespekulanten noch wichtiger ist – haben unvorhersagbare Flutwellen von Windenergie das deutsche Netz an den Rand des Zusammenbruchs gebracht (hier).

Weil Deutschland nicht in der Lage ist, selbst weitere Leitungskapazitäten zu schaffen – hauptsächlich weil die Deutschen die Nase voll davon haben, dass ihre teils idyllischen Naturlandschaften in industrielle Fabriklandschaften verwandelt werden – und um die kolossalen und völlig unnötigen Kosten eines zweiten Netzwerkes zu erwähnen, nur um gelegentliche Spitzen bei der Erzeugung von Windenergie aufzufangen – leitet Deutschland seine überschüssige Energie als Abfall in die Netze seiner Nachbarländer.

Die Folge hiervon ist, dass die Nachbarn Tschechien, Polen, die Niederlande, Belgien und Frankreich mit überschüssiger Energie geflutet werden – immer wenn der Wind in Norddeutschland stark auffrischt – was zu Instabilitäten des Netzes und Stromausfällen führt.

Deutschland war hin und wieder ein irgendwie sehr ungestümer Nachbar. Dass Deutschland seine überschüssige Windenergie auf sehr unregelmäßiger Basis in Netze entsorgt, die einfach nicht darauf ausgelegt sind, rapide Zuwächse des Energievolumens aufzunehmen, bringt die Nachbarn Deutschlands wegen dessen Arroganz und wegen der für sie anfallenden Kosten, um diese Energie aufzufangen, in Weißglut.

Hier folgen ein paar Momentaufnahmen noch weiterer Aspekte der deutschen Windkraft-Katastrophe:

Deutschlands Nachbarn erzürnt durch die Energiewende des Landes

The American Interest, 4. August 2015

Der deutsche Energiemix ist während der letzten Jahre radikal verändert worden, hauptsächlich getrieben durch zwei Kräfte: Der Wunsch nach Ausweitung der Marktanteile erneuerbarer Energie (was durch großzügige staatliche Subventionen mit der Bezeichnung Einspeisetarife gefördert wird) und eine Aversion gegen Kernkraft nach dem Unfall in Fukushima im Jahre 2011. Innerhalb Deutschlands hatten diese Änderungen eine Anzahl vielleicht unvorhergesehener und mit Sicherheit schädlicher Konsequenzen, einschließlich explodierender Energiekosten für Geschäfte und Haushalte. Eine weitere, irgendwie bizarre Konsequenz ist eine gestiegene Abhängigkeit von einer besonders ,schmutzigen‘ Kohleart, nämlich Braunkohle. Aber die sich immer mehr steigernden Auswirkungen der Berliner Energiewende breiten sich über nationale Grenzen hinweg aus, und wie Politico berichtet, sehen sich Deutschlands Nachbarn mit der Überlastung ihrer eigenen Netze durch unregelmäßige Wind- und Solarenergie konfrontiert:

Die Abkehr des Landes von Kernkraft und die Zunahme der Erzeugung von Wind- und Solarenergie ist inzwischen an einem Punkt angelangt, an dem die bestehenden Überlandleitungen nicht immer mithalten können. Und es sind Tschechien, Polen, die Niederlande, Frankreich und Belgien, die diese Tatsache ausbaden müssen.

„Falls es in Norddeutschland mal Sturm gibt, dann ist es soweit, dann bekommen wir den Stromausfall!“ sagte Martin Povejšil, ständiger EU-Botschafter der Tschechischen Republik in Brüssel jüngst bei einer Anhörung dort.

Deutschland hat es versäumt, seine Stromnetz-Infrastruktur in gleichem Umfang auszubauen wie die rasant wachsende Solar- und Windindustrie. Das heißt, besonders an sonnigen und gleichzeitig windigen Tagen ist Deutschland abhängig von der Freundlichkeit seiner Nachbarn, diese Menge zu verteilen. Polen und die Tschechische Republik waren gezwungen, 180 Millionen Dollar aufzubringen, um „ihre Systeme vor Energiewellen aus Deutschland zu schützen“. Dagegen verhindert in Deutschland selbst ein zunehmender NIMBY-ismus [NIMBY = Not In My BackYard = etwa: nicht vor meiner Haustür] den Bau neuer Überlandleitungen.

Bei der Betrachtung der Kosten der zunehmenden Erneuerbaren ist es ein großer Fehler, die Ausgaben für die Netzausrichtung zur Handhabung von Überproduktion außen vor zu lassen. Deutschland scheint mit seiner Energiewende genau diesen Fehler gemacht zu haben, und Mitteleuropa hat größte Mühe, damit fertig zu werden.

The American Interest

Deutschlands Wind lässt Mitteleuropa erzittern: Kernkraft auf den Müll zu werfen schafft große Probleme für Deutschlands Nachbarn:

Kalina Oroschakoff, Politico, 3. August 2015

Deutschlands Hinwendung zu erneuerbarer Energie wurde als ein historisches Politikum beschrien – aber Deutschlands Nachbarn mögen das überhaupt nicht.

Die Abkehr des Landes von Kernkraft und die Zunahme der Erzeugung von Wind- und Solarenergie ist inzwischen an einem Punkt angelangt, an dem die bestehenden Überlandleitungen nicht immer mithalten können. Und es sind Tschechien, Polen, die Niederlande, Frankreich und Belgien (hier), die diese Tatsache ausbaden müssen.

„Falls es in Norddeutschland mal Sturm gibt, dann ist es soweit, dann bekommen wir den Stromausfall!“ sagte Martin Povejšil, ständiger EU-Botschafter der Tschechischen Republik in Brüssel jüngst bei einer Anhörung dort.

Deutschlands Nord-Süd-Überlandleitungen haben eine zu geringe Kapazität, um die gesamte, von entlang der Nordsee installierten Windturbinen erzeugte Energie in die industrialisierten Bundesländer wie Bayern und Baden-Württemberg sowie nach Österreich zu leiten. Dies bedeutet, dass die überschüssige Energie durch die Tschechische Republik und Polen gejagt wird.

Um diesen oftmals unerwarteten Energieflüssen aus Deutschland einen Riegel vorzuschieben nehmen diese Länder das jetzt in die eigene Hand. Besorgt hinsichtlich der Stabilität ihrer eigenen Netze, zusätzlicher Kosten und der Fähigkeit, ihre eigene Energie zu exportieren, schaffen beispielsweise die Tschechen technische Installationen, um von 2016 an die Energie aus Deutschland zu blockieren.

Auch Polen arbeitet an solchen Installationen, Phasenschieber genannt, und erwartet, noch in diesem Jahr die ersten davon in Betrieb nehmen zu können. Im Westen haben auch die Niederlande, Belgien und Frankreich Phasenschieber installiert, um die Überschüsse aus Deutschland abzuwehren.

Diese unabhängig voneinander durchgeführten Bemühungen kommen zu einem Zeitpunkt, da Brüssel auf eine Integration der europäischen Energiemärkte drängt. Die Bemühungen zeigen, wie die Hinwendung zu noch mehr erneuerbarer Energie in Kombination mit veralteter Infrastruktur und inkonsistenter Kooperation innerhalb der EU unbeabsichtigte Nebenwirkungen zeitigen.

„In der Vergangenheit war das Energiesystem mit Kohle und Kernkraft extrem leicht vorhersagbar. Jetzt nimmt die Vorhersehbarkeit des Systems mit immer mehr zugeführter erneuerbarer Energie immer mehr ab, was auch zu einer Herausforderung der Markt-Debatte führt“, sagte Joanna Maćkowiak Pandera, eine leitende Mitarbeiterin der deutschen Denkfabrik Agora Energiewende.

„Wir haben dies den Deutschen immer wieder gesagt, ,erweitert euer Leitungssystem, oder wir werden euch ausschließen’“, sagte ein EU-Diplomat bei einer Anhörung in Brüssel.

Flüsse überschüssiger Energie entstehen, wenn die Netz-Infrastruktur eines Landes nicht ausreicht, Produktionsüberschüsse zu verkraften. Dann wird der Strom automatisch durch die Nachbarländer geleitet auf dem Weg zu dem Land, in dem er gebraucht wird.

„Dies führt auch zu Verstopfung in den Nachbarsystemen“, sagte Georg Zachmann von der in Brüssel ansässigen Denkfabrik Bruegel. Dies kommt zusätzlich zu der Situation, dass Länder ihre eigenen Stromexporte nach Süddeutschland reduzieren können, um Platz für den Strom aus Deutschland zu machen. Dies jedoch bedeutet, dass Deutschlands Energiewende das Exportpotential von Ländern wie der Tschechischen Republik und Frankreich schädigt.

Der Druck auf Deutschland, seine Nord-Süd-Verbindungen auszubauen, steigt. Aber diese Pläne führten zu lokalen Protesten in Bayern, wo die Anwohner nicht gewillt sind hinzunehmen, dass ihre wunderschöne Landschaft durch unansehnliche Überlandleitungsmasten verschandelt wird.

„Falls wir einen zunehmenden Anteil an Erneuerbaren haben wollen, müssen wir die Netze ausbauen; sagte Walter Boltz, Vizepräsident des Vorschriften-Gremiums der Agency for the Cooperation of Energy Regulators (ACER).

Die einfachste Lösung wäre es ihm zufolge, dass Deutschland die erforderlichen Verbindungen errichte. Aber das wird dauern. Alternativ könnte Deutschland einfach seine Windenergieanlagen an sehr produktiven Tagen abregeln, aber dem steht die Politik des Landes im Wege.

„Es ist ein unbequemes Problem und hat mit der irrationalen politischen Priorität Deutschlands zu tun, der zufolge man nicht einfach Erneuerbare stilllegen kann“, sagte Boltz.

Deutschlands Nachbarn sind nicht immun gegen Kritik zu dieser Angelegenheit. Polen beispielsweise könnte die Energieimporte aus Deutschland selbst nutzen, den sie seiner Industrie vorenthält. Außerdem müsste auch Polen seine Netze erweitern.

Mehr Kooperation

Deutschland für seinen teil hat die Kooperation mit seinen Nachbarn verstärkt, um dem Problem abzuhelfen. Energie-Staatssekretär Rainer Baake hat jüngst Kritik an der Behauptung geübt, dass Deutschlands Energiewende ein einseitiger politischer Akt gewesen sei. Deutschen Medien zufolge sagte er dazu: „Personen innerhalb und außerhalb Deutschlands, die glauben, dass dies eine Art Re-Nationalisierung der Energiepolitik sei, könnten nicht noch mehr unrecht haben“.

Im Jahre 2014 sind die deutschen Netzbetreiber mit den Tschechen überein gekommen, die grenzüberschreitenden Flüsse zu regulieren, um das Netz in Tschechien vor Überlastung zu bewahren und das Risiko von Stromausfällen zu senken. Ein ähnliches Abkommen zwischen Polen und Deutschland wurde auf den Weg gebracht.

Auf politischer Ebene unterzeichnete Deutschland im Juni einen Pakt mit 11 „Strom“-Nachbarn einschließlich Frankreich, Polen und Tschechischer Republik, um die Integration der jeweiligen Energiemärkte voranzutreiben, gegen Überkapazitäten vorzugehen und es dem Markt zu überlassen, die Energiepreise festzulegen.

Dennoch hat Polen im vorigen Jahr einen Brief an ACER geschrieben mit der Aufforderung, mit einem Standpunkt hinsichtlich der Überschüsse aus Deutschland aufzuwarten. Eine Antwort wird für September erwartet.

Im Jahre 2013 war die Agentur hinsichtlich ungeplanter Überschüsse zu der Schlussfolgerung gekommen, dass „diese Flüsse in den meisten Fällen eine Bedrohung für ein sicheres und effizientes Funktionieren des internen Energiemarktes sind“.

Energiemix ist nationale Politik

Die Lage ist für die Tschechische Republik und Polen heikel. Diese Länder haben lange darauf bestanden, dass die Auswahl, ob Energie durch Wind, Sonne, Kohle, Kernkraft oder auf andere Weise erzeugt wird, auf nationaler Ebene getroffen wird, nicht auf Brüsseler Ebene.

Daher steht es Deutschland frei, Entscheidungen hinsichtlich der Art seiner Energieerzeugung zu treffen, in diesem Falle die Entscheidung zur Schließung seiner Kernkraftwerke.

Brüssel hat Bemühungen gestartet, um die Energiemärkte des Blocks miteinander zu verbinden, wobei die Europäische Kommission in einem politischen Papier im Februar betonte, dass „die Verbindung der Strommärkte eine politische Priorität sein muss“.

Die Kommission erließ Mitte Juli einen initialen Plan dazu, wie ein grenzenloser Energiemarkt geschaffen werden könnte, der mit dem Anstieg der Erneuerbaren fertig wird. Die Vorlage des Entwurfs ist für das Jahr 2016 geplant.

„Wir haben die Netze nicht entwickelt“, sagte Energiechef Miguel Arias Cañete im vorigen Monat und fügte hinzu, dass während es viele Investitionen in Erneuerbare gegeben hatte, die Netze nicht im gleichen Maßstab ausgebaut worden sind. Auch das ist ein Grund, warum Brüssel so erpicht darauf ist, grenzüberschreitende Verbindungen zunehmen zu lassen.

Es unternimmt politische und finanzielle Bemühungen (hier), um am Ende mindestens 10 Prozent der in der EU installierten Erzeugungs-Kapazität bis zum Jahre 2020 zu verbinden.

Aber es ist ein langer Weg, den Block zu verbinden: hatten doch die EU-Länder dieses Ziel bereits für das Jahr 2002 vereinbart.

Politico

Deutschlands Windkraft-Chaos stürzt dessen Nachbarn in Dunkelheit

Link: http://stopthesethings.com/2015/08/15/germanys-wind-power-surges-plunge-their-neighbours-into-darkness/

Übersetzt von Chris Frey EIKE




Neue Studie: Treibhausgase verursachen beim gegenwärtigen Temperaturniveau der Erde ABKÜHLUNG, nicht Erwärmung

Diese Ergebnisse sind nicht kompatibel mit der Arrhenius/IPCC-Theorie bzgl. der Strahlungseigenschaften von Treibhausgasen, welche postuliert, dass Strahlungsantrieb durch Treibhausgase immer eine positive Rückkopplung und damit einen ,Treibhaus‘-Erwärmungseffekt verursacht hat, und zwar bei allen Temperaturen der Erde und Treibbausgaskonzentrationen.

Die Ergebnisse dieser Studie jedoch, die zeigt, dass Treibhausgase einen vernachlässigbaren oder sogar abkühlenden Effekt auf die Temperaturen der Erde haben, sind kompatibel mit Maxwell/Clausius/Carnot gravito-thermal greenhouse theory, der HS ‚greenhouse equation,‘ Chilingar et al, Kimoto, Wilde und anderen.

Auszüge aus den Ergebnissen der Autoren:

Kurzwellige (solare) Strahlung ist eine starke positive Rückkopplung bei niedrigen Temperaturen, die sich mit steigenden Temperaturen immer mehr abschwächt. Langwellige Strahlung (durch Treibhausgase) ist eine negative Rückkopplung bei niedrigen Temperaturen (288K oder ca. 15°C). Diese wird jedoch bei Temperaturen über 295K bis 300 K [ca. 22 bis 27°C) zu einer positiven Rückkopplung. (Die gegenwärtige Temperatur der Erde beträgt 288K oder 15°C).

Jüngst wurde darauf hingewiesen, dass einige Zustände konvektiver Organisation aus einer Instabilität des Hintergrund-Zustandes des Gleichgewichts zwischen Strahlung und Konvektion resultieren könnten, was zu einer Unterteilung der Atmosphäre in feuchte Regionen mit Hebung und trockenen Regionen mit Absinken führt (Emanuel et al. 2014). Falls eine solche Instabilität tatsächlich existiert in der realen (nicht der modellierten!) Atmosphäre, würde dies unser Verständnis tropischer Zirkulationen umgestalten. Außerdem könnte sie helfen, Wachstum und Lebenszyklus großräumig organisierter konvektiver Systeme zu erklären wie die tropischen Zyklone und die Madden-Julian-Oszillation (z. B. Bretherton et al. 2005; Sobel und Maloney 2012). Falls diese Instabilität temperaturabhängig ist, wie es aus numerischen Modellstudien hervorgeht (Khairoutdinov und Emanuel 2010; Wing und Emanuel 2014; Emanuel et al. 2014), dann könnte die zunehmende Tendenz konvektiver Systeme, sich mit Erwärmung zu organisieren, auch die Klimasensitivität signifikant verändern (Khairoutdinov und Emanuel 2010). Es ist unklar, ob die gegenwärtigen globalen Klimamodelle diesen Prozess angemessen berücksichtigen (beschrieben auch hier).

Ist das Phänomen der Selbst-Aggregation in einem Modell mit einem Abstand der Gitterpunkte von 200 km X 200 km und expliziter Konvektion und Wolken das Gleiche wie in einem Modell mit Gitterpunksabständen von 20.000 km X 20.000 km, wobei Konvektion und Wolken parametrisiert sind? Diese Frage ist weitgehend unbeantwortet. Jedoch ist eine Antwort auf diese Frage unabdingbar, falls wir die Stärke von Selbst-Aggregation unserer Modellhierarchie und dessen Relevanz für die reale Atmosphäre verstehen wollen.

In allen Simulationen erwärmt sich die Troposphäre und trocknet aus relativ zu den Ausgangsbedingungen, obwohl sich die Stratosphäre in den Simulationen abkühlt, in denen Ts unter 300 K liegt. Die troposphärische Erwärmung insgesamt und die Zunahme der troposphärischen Erwärmung mit Ts sind konsistent mit dem Ergebnis von Singh und O’Gorman (2013), dass die Temperaturabnahme mit der Höhe in RCE [?] vom Entrainment [Einströmen von Luft von der Seite in konvektive Bewölkung. Anm. von Hans-Dieter Schmidt] abhängt sowie von der Relativen Feuchtigkeit in der freien Troposphäre. In unseren Simulationen lässt Aggregation die Relative Feuchtigkeit abnehmen, wohingegen die Relative Feuchtigkeit in der freien Troposphäre in konvektiv aktiven Gebieten zunimmt. Dies reduziert auf plausible Weise den Einfluss von Entrainment auf die vertikale Temperaturabnahme und treibt die thermische Struktur der Troposphäre mehr in die Nähe einer Feuchtadiabate. Die Erwärmung der Troposphäre durch Aggregation kann auch erklärt werden als Konsequenz konvektiver Vorgänge in feuchten Gebieten, in denen Luft mit höherer feuchtstatischer Energie innerhalb der Grenzschicht angezogen wird (Held et al. 1993).

Die mittlere langwellige Ausstrahlung nimmt zu mit jeder Simulation als Folge dieses Austrocknens, und zwar mit einer Menge, die mit Ts zunimmt. Der Bereich: ∼ 11 W/m² bei 280 K bis ∼24 W/m² bei 310 K.

Die eingefrorene feuchtstatische Energie (hiernach als h bezeichnet) wird in trockenen und feuchtadiabatischen Dislokationen [displacements] konserviert, ebenso wie Gefrieren und Schmelzen von Niederschlag; h wird bestimmt durch die innere Energie cp T, die Gravitationsenergie gz und die latente Energie Lvq – Lf qc,i (cp ist die spezifische Wärme trockener Luft bei konstantem Luftdruck, und g ist die Gravitationsbeschleunigung). Im Term der latenten Energie ist Lv die latente Wärme der Verdampfung, q ist das Wasserdampf-Mischungsverhältnis, Lf ist die latente Wärme der Fusion und qc,i ist das kondensierte Wasser-Eis-Mischungsverhältnis:

h = cpT + gz + Lvq − Lf qc,i. 
Atmosphärische Erwärmung und Abkühlung führen jeweils zu Feuchtezunahme und Austrocknung, weil die schwache Temperaturgradient-Approximation impliziert, dass anomale Erwärmung großenteils durch Hebung ausgeglichen wird, wobei Feuchtigkeit in die Luftsäule konvergiert, während anomale Abkühlung hauptsächlich durch Absinken ausgeglichen wird, was Feuchtigkeit aus der Luftsäule entfernt.

In den vier kältesten Simulationen (TS = 280 K, 285 K, 290 K, 295 K) ist die langwellige Strahlung zuallererst eine negative Rückkopplung, aber in wärmeren Simulationen (>295 K) ist sie eine wichtige positive Rückkopplung. Die Magnitude der kurzwelligen Rückkopplung nimmt um fast einen Faktor 10 ab, wenn die Temperatur an der Oberfläche von 280 K auf 310 K steigt, und die kurzwellige Rückkopplung wird auch viel weniger wichtig relativ zu anderen Rückkopplungen.

Obwohl des Verhalten des Terms der Langwellenstrahlung-Rückkopplung in unseren Simulationen konsistent zu sein scheint mit der von Emanuel et al. (2014) gezeigten Temperaturabhängigkeit, führen Wolkeneffekte eher als Strahlungstransfer bei klarem Himmel zu unserer negativen Langwellen-Rückkopplung bei geringen Werten von Ts. Wie von Emanuel et al. (2014) vorhergesagt ist die Langwellen-Rückkopplung bei klarem Himmel in kälteren Simulationen schwächer – nahe Null oder leicht negativ – aber dies leistet nur einen kleinen Beitrag zur gesamten langwelligen Rückkopplung. Aggregation findet statt trotz einer initial negativen langwelligen Rückkopplung bei Ts <= 295 K, weil diese negative Rückkopplung überkompensiert wird durch eine Kombination eines positiven Oberflächenfluss und kurzwellige Rückkopplungen; man erinnere sich, dass die zunehmende Stärke der kurzwelligen Rückkopplung mit abnehmender Temperatur weitgehend den Wolken geschuldet ist.

Eine negative langwellige Wolken-Rückkopplung impliziert, dass die Atmosphäre selbst sich in feuchten Gebieten mehr und in trockenen Gebieten weniger abkühlt infolge der Gegenwart von Wolken. Wir spekulieren, dass dies so ist, weil eine kältere Atmosphäre optisch dünn ist, so dass das Hinzufügen von Wolken die langwellige atmosphärische Abkühlung durch Zunahme seiner Emissivität zunehmen lassen kann. Die langwellige Strahlungs-Rückkopplung zu Beginn der Simulation wird negativ, wenn Ts abnimmt, was durch eine Zunahme der Magnitude der kurzwelligen Strahlungs-Rückkopplung kompensiert wird.

Self-aggregation of convection in long channel geometry
Allison A. Wing1,* and Timothy W. Cronin2
ABSTRACT:

Wolkenbedeckung und Relative Feuchtigkeit in den Tropen werden durch organisierte atmosphärische Konvektion stark beeinflusst. Diese findet in räumlich und zeitlich breit gestreuten Maßstäben statt. Eine Art der Organisation, die bei idealisierter numerischer Modellierung gefunden wird, ist Selbst-Aggregation, ein spontaner Übergang von zufällig verteilter Konvektion zu organisierter Konvektion trotz homogener Grenzschicht-Bedingungen. Wir erkunden den Einfluss der Bereichsgeometrie [?] auf das Phänomen, Wachstumsraten und den Maßstab der zeitlichen Dauer der Selbst-Aggregation tropischer Konvektion. Wir simulieren strahlungs-konvektives Gleichgewicht mit dem System for Atmospheric Modeling (SAM) in einem nicht rotierenden, lang gestreckten 3D-Kanal mit einer Länge von 10↑4 km mit interaktiver Strahlung und Oberflächenflüssen und festgelegter Wassertemperatur, die von 280 K bis 310 K variiert. Konvektive Selbst-Aggregation erfolgt in multiplen Bändern feuchter und trockener Luft über diesen Kanal. Mit der Aggregation der Konvektion finden wir eine Abnahme des hochtroposphärischen Wolkenanteils, jedoch eine Zunahme des Anteils tiefer Wolken. Diese Sensitivität der Wolken bzgl. Aggregation passt zu Beobachtungen der oberen Troposphäre, aber nicht in der unteren Troposphäre. Ein Vorteil der Kanal-Geometrie ist, dass eine trennende Distanz zwischen konvektiv aktiven Regionen definiert werden kann. Wir präsentieren eine Theorie hinsichtlich dieser Distanz auf der Grundlage einer Wiederanfeuchtung der Grenzschicht. Aber die Advektion feuchtstatischer Energie agiert als negative Rückkopplung und wirkt der Selbst-Aggregation entgegen, bei fast allen Temperaturen und Zeitperioden. Am Anfang des Prozesses der Selbst-Aggregation sind Oberflächenflüsse eine positive Rückkopplung bei allen Temperaturen, kurzwellige (solare) Strahlung ist eine starke positive Rückkopplung bei geringen Oberflächentemperaturen, die aber bei höheren Temperaturen schwächer wird. Langwellige Strahlung (durch Treibhausgase) ist bei niedrigen Temperaturen eine negative Rückkopplung, wird jedoch zu einer positiven Rückkopplung bei Temperaturen über 295 bis 300 K (die gegenwärtige Temperatur der Erde beträgt 288 K). Wolken tragen stark zu den negativen Rückkopplungen bei, vor allem bei niedrigeren Temperaturen (< 295 K).

Link: http://hockeyschtick.blogspot.de/2015/07/new-paper-finds-greenhouse-gases.html

Übersetzt von Chris Frey EIKE




Gute Nachrichten aus dem Pazifik: Meeresspiegel in Kiribati in den letzten 20 Jahren ohne langfristigen Anstieg

Im Vorjahr war im Warmschreiben für die Lima-Klima-Konferenz so einiges schief gelaufen. So titelte Die Zeit am 30. November 2014:

Klimawandel: Vor dem Untergang
In der Südsee zeigt der Treibhauseffekt schon massive Folgen. Hilft der Klimagipfel?
Aus der Luft betrachtet, ist Tarawa ein Paradies, aber seine Bewohner kämpfen gegen den Untergang. Hier, auf dem Hauptatoll der Inselrepublik
Kiribati, spüren sie die Auswirkungen des Klimawandels schon lange. Weltweit lässt er den Meeresspiegel steigen, doch in der tropischen Südsee erhöht sich der Pegel besonders schnell. Die Erosion frisst an den Korallenriffen, das Grundwasser versalzt, Krankheiten breiten sich aus, Sturmfluten wüten immer heftiger. Der größte Teil Kiribatis ist nicht einmal zwei Meter hoch. Stünde Dirk Nowitzki am Strand von Tarawa, er könnte problemlos über das Atoll hinwegschauen – noch. Denn schon in wenigen Jahrzehnten könnte Kiribati zerstört sein.

Die Idee des Untergangs gefiel einem Inselbewohner Kiribatis so gut, dass er auf die Idee kam, einen Asylantrag im Land seiner Träume – Neuseeland – zu stellen. Begründung: Er wäre Klimaflüchtling und bald würde das Meer seine Heimat überfluten. Der Antrag wurde mittlerweile abgelehnt. Vermutlich machte sich der Mann nicht so sehr Sorgen wegen des Klimawandels, sondern es gab vielmehr handfeste wirtschaftliche Gründe für seinen Auswanderungsversuch. Die Mitteldeutsche Zeitung brachte es vor einige Jahren auf den Punkt:

Kiribati – klein, heiß und bitter arm
[…] Danach beträgt die Wirtschaftsleistung der Inselgruppe mit der Weihnachtsinsel Kiritimati derzeit 152 Millionen US-Dollar (knapp 114,7 Millionen Euro). Das entspricht in etwa der Summe, die allein die sechs deutschen Teilnehmer der Champions League und Europa League in der vergangenen Saison bei den Wettbewerben an Prämien kassierten. Das Handelsdefizit Kiribatis gehörte mit 92 Prozent im abgelaufenen Jahr zu den höchsten der Welt.

Der Präsident Kiribatis sonnt sich mittlerweile im Scheinwerferlicht der Öffentlichkeit und ist immer für einen Publicity Stunt gut. So erwarb er letztes Jahr (2014) zu einem stark überhöhten Preis ein Stück Land auf einer Fidji-Insel, auf das die Einwohner Kiribatis im Fall der Fälle flüchten sollen. Klimaretter berichtete am 22. Juni 2014:

Kiribati kauft Land für Klimaflüchtlinge
Anote Tong, der Präsident des Inselstaates Kiribati im Pazifik, hat auf den Fidschi-Inseln Land erworben. Dorthin sollen mehrere Tausend Kiribatier ziehen, wenn ihre Heimat wegen des Klimawandels im Meer untergeht. Doch der Plan sorgt für Verunsicherung und Streit.

Natürlich sind die aktuellen Bewohner der betroffenen Fidji-Insel alles andere als froh über die mögliche bevorstehende Invasion aus Kiribati. Auch auf Kiribati selber ist man entsetzt über den fragwürdigen Landkauf, wie dem guten Klimaretter-Artikel ebenfalls zu entnehmen ist:

Tongs Amtsvorgänger Teburoro Tito hat sämtliche wissenschaftlichen Abhandlungen über die Folgen des Klimawandels für die Atolle gelesen. Er hält den Landkauf für unsinnig. “Die Forscher sagen, unsere Korallenriffe sind gesund und können mit dem Meeresspiegelanstieg Schritt halten. Deshalb gibt es keine Notwendigkeit, Land auf den Fidschi-Inseln oder sonst irgendwo zu kaufen”, sagt Tito und fügt verärgert hinzu: “Wie können wir um ausländische Hilfe bitten, wenn wir unser Geld für so unsinnige Dinge ausgeben?” Auch Paul Kench, ein Geomorphologe an der University of Auckland, findet die Sorgen überzogen. “Wir wissen, dass die gesamte Riffstruktur um zehn bis 15 Millimeter im Jahr wachsen kann – schneller als der erwartete Meeresanstieg”, sagt der Atoll-Experte. “Solange das so ist und der Nachschub an Sand gesichert bleibt, brauchen wir keine Angst zu haben.”

Der Präsident Kiribatis hat offenbar die fundamentalen Grundlagen eines Korallenriffs nicht verstanden. Hat er im Geographie- und Biologie-Unterricht vielleicht gefehlt, als das Thema Korallenriffe durchgenommen wurde? Vielleicht hätte er vor dem Inselkauf auch einmal die Meeresspiegelkurven für Kiribati anschauen sollen. Zu finden ist eine solche in einer Arbeit von Than Aung und Kollegen, die 2009 im Fachblatt „Weather“ der Royal Meteorological Society erschienen ist (Abbildung 1). Ein Anstiegstrend ist nicht zu erkennen. Der höchste Stand des Meeresspiegels wurde vielmehr 1995 erreicht.

Abbildung 1: Meeresspiegelentwicklung Kiribatis 1994-2008. Quelle: Aung et al. 2009.

Präsident Tong hätte aber auch die Satellitenkurve des Meeresspiegels für seine Region anschauen können (Abbildung 2). Diese umfasst immerhin die vergangenen 22 Jahre. Auch hier ist kein Trend zu erkennen.

Abbildung 2: Meeresspiegelentwicklung der Region um Kiribati auf Basis von Satellitenmessungen. Quelle: University of Colorado.

Der im Klimaretter-Beitrag erwähnte Wissenschaftler Paul Kench leistet vorbildliche Aufklärungsarbeit und steuert dringend benötigte wissenschaftliche Daten zum Thema bei. Im März 2015 erschien ein weiterer Artikel von ihm im Fachblatt Geology zum Funafuti Atoll. Im Bereich dieses Atolls stieg der Meeresspiegel in den letzten 60 Jahren besonders stark an, nämlich mit einer durchschnittlichen Rate von etwa 5 mm pro Jahr. Trotz des Meeresspiegelanstiegs ist keine Insel des Atolls untergegangen, im Gegenteil, viele Inseln haben sich in dieser Zeit sogar vergrößert, wie Analysen der Küstenlinienentwicklung im Rahmen der Studie zeigten. Auch konnten keine Gebiete gefunden werden, in denen größere Erosion herrschen würde. Im Folgenden die Kurzfassung der neuen Arbeit:

Koralleninseln trotzen dem Anstieg des Meeresspiegels während des vorigen Jahrhunderts: Aufzeichnungen aus einem Atoll im zentralen Pazifik:

Die geologische Stabilität und Existenz niedrig liegender Atoll-Nationen wird bedroht durch den Anstieg des Meeresspiegels und den Klimawandel. Das Funafuti-Atoll im tropischen Pazifik war Schauplatz einer der höchsten Raten des Meeresspiegelanstiegs (∼5.1 ± 0.7 mm/Jahr) mit einer Gesamtzahl von ∼0.30 ± 0.04 m während der letzten 60 Jahre. Wir haben sechs Zeitabschnitte der Küstenlinie während der letzten 118 Jahre auf 29 Inseln des Funafati-Atolls analysiert, um ihre physikalische Reaktion auf den jüngsten Meeresspiegel-Anstieg zu bestimmen. Trotz der Größenordnung dieses Anstiegs sind keine Inseln verloren gegangen, die Mehrzahl hat sich vergrößert, und es gab eine Zunahme um 7,3% der Gesamt-Inselfläche im vorigen Jahrhundert (genauer von 1897 bis 2013). Es gibt keine Beweise für eine erhöhte Erosion während der letzten Hälfte des vorigen Jahrhunderts trotz der Beschleunigung des Meeresspiegel-Anstiegs [?]. Riffe in Funafati passen ihre Größe fortwährend an, ebenso wie sie ihre Größe, ihr Aussehen und ihre Lage anpassen an Variationen der Grenzschicht-Bedingungen einschließlich Stürme, Sediment-Ablagerungen und dem Meeresspiegel. Die Ergebnisse ergeben eine optimistischere Prognose für die Bewohnbarkeit von Atoll-Nationen und zeigen die Bedeutung der Auflösung jüngster Raten sowie der Art und Weise der Inselveränderungen bei der Entwicklung von Abschwächungs-Strategien.

Lesenswert in diesem Zusammenhang ist ein Artikel von Ulli Kulke auf Donner + Doria:

Das Atoll lebt. Und verschwindet eben nicht im Ozean
Es gibt neue Nachrichten von den untergehenden Inseln: Sie gehen nicht unter. Der Blog Donner und Doria hat bereits mehrfach thematisiert (hier nur einer von mehreren Beiträgen), dass nach wissenschaftlichen Erkenntnissen wenig bis nichts dafür spricht, dass der Meeresspiegelanstieg die Atoll-Inseln im indischen und pazifischen Ozean einfach verschluckt. Jetzt ist zum Thema in der renommierten Wissenschaftszeitschrift “Science” ein lesenswerter Report erschienen, den ich hier zur Lektüre empfehlen will. Science-Autor Christopher Pala, der sich gerade in dem pazifischen Inselstaat Kiribati aufhält, setzt sich darin mit dem öffentlichkeitswirksam in Szene gesetzten Schritt des Präsidenten Kiribatis, Anote Tong, auseinander, der im Mai 22 Quadratkilometer Land auf der recht bergigen zweitgrößten Insel Fidschis, Viti Levu, für seine Landsleute gekauft hat, weil er meint, dass sein Staat demnächst untergehe. Teburoro Tito, früher selbst Präsident Kiribatis und jetzt Oppositionspolitiker, bezeichnete Tongs Schritt als reinen “Publicity-Gag”. Christopher Plea begründet, warum.

Weiterlesen auf Donner + Doria.

Auch populärwissenschaftliche Zeitschriften wie Spektrum der Wissenschaft haben mittlerweile genug von der laienhaften Panikmache zum angeblichen Absaufen der Pazifikinseln (siehe unseren Blogbeitrag „Spektrum der Wissenschaft über angeblich vom Untergang bedrohte Südseeatolle: “Noch keine der betroffenen Inseln ist in nächster Zeit von Überflutung bedroht. Einige vergrößern sich sogar auf Grund natürlicher ökologischer Vorgänge”“). Bereits Ende 2012 hatten wir an dieser Stelle über Kiribatis gute Überlebenschancen berichtet (siehe „Kiribati geht unter – oder vielleicht doch nicht?“).

Wie in vielen Teilen der Erde, spielen auch im Pazifik Ozeanzyklen eine Rolle, die im 60-Jahrestakt den Meeresspiegel beeinflussen. Im Dezember 2013 publizierte hierzu ein Team um Jae-Hong Moon im Journal of Geophysical Research. Sie berichteten, dass die Satellitenmessreihe seit 1993 viel zu kurz sei, um die Effekte längerfristiger Ozeanzyklen zu identifizieren und herauszurechnen. Mithilfe von Küstenpegelmessungen konnten die Autoren die längerfristige Entwicklung seit 1958 auswerten. Dabei fanden sie Mitte der 1970er und Anfang der 1990er Jahre zwei Geschwindigkeitsveränderungen im Meeresspiegelanstieg, wobei sich der Anstieg auf der einen Seite des Pazifiks beschleunigte und auf der anderen Seite im Gegenzug verlangsamte. Hinter dem Multidekadische regionale Meeresspiegel-Verschiebungen im Pazifik von 1958 bis 2008:

Altimeterdaten haben unser Verständnis der regionalen Meeresspiegel-Variabilität und deren Trends deutlich verbessert, aber ihre relativ kurzen Aufzeichnungs-Zeiträume erlauben weder die Evaluierung des Zustandes vor dem Jahr 1993 noch von multidekadischen Signalen geringer Häufigkeit im Ozean. Hier charakterisieren und quantifizieren wir den multidekadischen Anstieg des Meeresspiegels (rSLR) und den damit verbundenen ozeanischen Wärmegehalt im Pazifik mittels eines ozeanischen Nicht-Boussinesq-Zirkulationsmodells [?] im Vergleich mit Datensätzen von Altimetern, zwei Rekonstruktionen des Meeresspiegels und in-situ-Ozeanprofilen von 1958 bis 2008. Wir zeigen, dass die rSLR-Trends zwei Verschiebungen durchlaufen haben, und zwar Mitte der siebziger Jahre und Anfang der neunziger Jahre mit einer Ost-West-Dipol-Verteilung im tropischen Pazifik. In jeder dieser Phasen hat sich der rSLR auf einer Seite des Pazifiks beschleunigt, auf der anderen Seite aber verlangsamt. Die multidekadischen Verschiebungen des Meeresspiegels können erklärt werden durch die dynamischen Reaktionen der oberen Ozeanschichten durch den Wind-Antrieb in Zusammenhang mit der PDO mit vernachlässigbaren Beiträgen von inneren (tiefenintegrierten) Änderungen der Ozeanmasse. Zusätzliche Modellexperimente bestätigen außerdem, dass der Windstress-Trend im Pazifik während der letzten beiden Jahrzehnte eine wichtige Rolle gespielt hat bei der Verstärkung des rSLR im westlichen Pazifik, während der rSLR im östlichen Pazifik unterdrückt wurde. Die klimagetriebene großräumige rSLR-Variabilität wird wahrscheinlich einen langfristigen und verschieden starken Einfluss auf küstennahe Gemeinden haben.

Link: http://www.kaltesonne.de/gute-nachrichten-aus-dem-pazifik-meeresspiegel-in-kiribati-in-den-letzten-20-jahren-ohne-langfristigen-anstieg/

Beitrag zuerst erschienen im Blog „Die Kalte Sonne“. Übersetzung der englischen Abschnitte von Chris Frey EIKE




Meeresspiegel in Südbrasilien und Uruguay in den letzten 6000 Jahren um mehrere Meter gefallen

USA

Während der vergangenen Monate erschienen zwei Arbeiten zur USA, die sowohl die West- als auch Ostküste zum Thema hatten. Im März 2015 veröffentlichten Thomas Wahl und Don Chambers im Fachblatt Journal of Geophysical Research eine Studie, in der die Autoren sechs Meeresbereiche um die USA identifizieren, die sich durch jeweils gemeinsame Muster in der natürlichen Variabilität der Meeresspiegelentwicklung auszeichnen. Ein verbessertes Verständnis dieser Bewegungsmuster ist unerlässlich, um natürliche von anthropogenen Anteilen des Meeresspiegelanstiegs zu differenzieren. Hier der Abstract:

Beweise für eine multidekadische Variabilität in den Extrem-Meeresspiegel-Aufzeichnungen der USA:

Wir analysieren einen Datensatz von 20 Tidenmessungen an der gesamten zusammenhängenden US-Küstenlinie im Zeitraum von 1929 bis 2013, um langfristige Trends und multidekadische Variationen des Meeresspiegels (ESL) zu identifizieren relativ zu Änderungen der mittleren Höhe des Meeresspiegels (MSL). Verschiedene Methoden der Datensammlung und Analyseverfahren werden angewendet, um die Robustheit der Ergebnisse mit der gewählten Verfahrensweise abzuklopfen. Bedeutende, jedoch kleine langfristige Trends hinsichtlich ESL über/unter dem MSL wurden an individuellen Stellen entlang der meisten Küstenabschnitte gefunden, beschränken sich jedoch hauptsächlich auf die Südostküste und den Winter, wenn Sturmfluten hauptsächlich durch extratropische Zyklonen getrieben werden. Wir identifizieren sechs Regionen mit etwa kohärenten und merklichen multidekadischen ESL-Variationen, die keine Beziehung zu Änderungen des MSL aufweisen. Mittels einer quasi-nichtstationären Extremwert-Analyse zeigen wir, dass Letzteres Variationen verursacht hätte von design relevant return water levels [?] (50 bis 200-jährige Wiederkehr-Perioden) im Bereich etwa 10 cm bis zu 110 cm in den sechs Regionen. Die Ergebnisse werfen Fragen auf hinsichtlich der Anwendbarkeit der „MSL-Offset-Methode“ mit der Hypothese, dass ESL-Änderungen primär von Änderungen des MSL getrieben werden, ohne eigene langzeitliche Trends oder Variationen geringer Häufigkeit zuzulassen. Die Identifizierung der kohärenten multidekadischen ESL-Variabilität ist unabdingbar zum Verständnis der treibenden physikalischen Faktoren. Ultimativ muss diese Information in Baumaßnahmen an der Küste sowie Anpassungsprozesse Eingang finden.

Drei Monate später, im Juni 2015, legten Hamlington et al. ebenfalls im Journal of Geophysical Research nach und beschrieben Meeresspiegeleffekte, die auf das Wechselspiel zwischen El Nino/La Nina zurückgehen. Auch diese führen entlang der US-Küsten zu charakteristischen Meeresspiegelschwankungen. Im Folgenden die Kurzfassung der Studie:

Die Auswirkung der El Nino-Southern Oscillation auf den regionalen und küstennahen Meeresspiegel in den USA:

Obwohl sich das Interesse am zukünftigen Anstieg des Meeresspiegels auf den Zusammenhang mit der anthropogenen Erwärmung konzentriert, kann die interne Klimavariabilität in kürzeren Zeiträumen signifikant zum regionalen Zustand des Meeresspiegels beitragen. Diese Variabilität des Meeresspiegels sollte in die Überlegungen einbezogen werden, wenn es um die Planung der Bemühungen geht, die Auswirkungen eines zukünftigen Anstiegs des Meeresspiegels abzuschwächen. In dieser Studie quantifizieren wir den Beitrag der El Nino Southern Oscillation (ENSO) zum regionalen Meeresspiegel. Mittels einer zyklo-stationären empirischen orthogonalen Funktionsanalyse (CSEOF) des weit in die Vergangenheit rekonstruierten Datensatzes und eines Datensatzes mit Tidenmessungen in den USA werden zwei globale Zustände identifiziert, die von der Variabilität des Pazifiks zusammen mit ENSO dominiert werden und auch durch die Pacific Decadal Oscillation. Mittels einer Schätzung des kombinierten Beitrages dieser zwei Zustände zum regionalen Meeresspiegel kommen wir zu dem Ergebnis, dass ENSO signifikant im Kurzfristzeitraum zur Höhe des Meeresspiegels beiträgt, wobei es entlang der US-Westküste Änderungen bis zu 20 cm geben kann. CSEOF der langzeitlichen Tidenmessungen um die USA unterstreichen den Einfluss von ENSO an der US-Ostküste. Mit Tandem-Analysen sowohl der rekonstruierten als auch der gemessenen Aufzeichnungen untersuchen wir auch die Brauchbarkeit der Meeresspiegel-Rekonstruktionen für küstennahe Studien.

Florida

Im Stern konnte man am 6. Dezember 2014 eine unterhaltsame vorweihnachtliche Reportage aus Miami von Norbert Höfler lesen:

Klimawandel in Miami: Täglich verlassen die Kakerlaken die sinkende Stadt
Irgendwann wird das Meer Miami gefressen haben. Schon jetzt sind die ersten Vorboten zu spüren. Erstaunlich, dass die Stadt dennoch boomt wie nie. Besuch in einer Stadt am Rand des Untergangs.

Gänsehaut. Eine Stadt kurz vor dem Exitus. Party auf der Titanic kurz vor dem Untergang. Zum Glück gibt es Visionäre, die schon Ideen für den Tag X haben. Waterworld lässt grüßen. Wir lesen im Stern:

Raymond Romero, der Fischer aus Miami Beach, hat viel über den Klimawandel und die Veränderungen in den Ozeanen gehört. Das Eis an den Polen schmilzt, und die Temperatur in den Meeren zieht an. Wärmeres Wasser braucht mehr Platz als kaltes. Der Meeresspiegel steigt. Romero macht schon Notfallpläne. “Ich fülle den unteren Stock des Hauses mit Sand und Beton und baue ein neues obendrauf.” Ein Haus auf dem Haus. Wenn das alle so wie er machen würden, glaubt er, könnte eine neue Stadt auf der alten Stadt entstehen. Ob das zu bezahlen ist? Romero zuckt mit den Schultern und sagt: “Entweder Miami ersäuft und wird zur Geisterstadt – oder zum teuersten Pflaster der Welt.” Die meisten Bewohner der Millionenmetropole wissen, dass ihre Stadt ein Opfer des steigenden Meeresspiegels werden wird. Es ist keine Frage mehr, ob es passiert. Ungewiss ist nur noch, wann die Wassermassen einen Großteil Floridas unbewohnbar machen. Ob schon in 20 Jahren, in 50 oder in 100 Jahren. Forscher warnen: Miami wird zur Hochwasserruine.

Es ist richtig, dass Miami heute nur knapp über dem Meeresspiegel liegt. Deshalb jedoch vor einem moderaten Meeresspiegelanstieg von 30 cm pro Jahrhundert in Panik zu geraten wäre sicher falsch. Gerade eine reiche Stadt wie Miami wird sicher die Mittel aufbringen können, um sich vor dem Wasser zu schützen. Man erinnere sich an die Niederlande. Dort liegt etwa ein Viertel der gesamten Landesfläche unterhalb des Meeresspiegels, geschützt von umfangreichen Deichsystemen. Unmöglich in Miami?

Alaska

Vom warmen Miami geht es nun nach Alaska. Von dort berichteten Briggs und Kollegen im April 2014 in den Geophysical Research Letters über einen Sintflut-Retter, über den die Bewohner Miamis sicher neidisch sind: Aufgrund von tektonischen Prozessen wurde die Küste von Sitkinak Island im Kodiak Archipel mehrfach vor der Überflutung bewahrt und nach oben gedrückt. Die Mitgliederzeitschrift der American Geophysical Union „Eos“ schreibt über die Studie:

Im Laufe der letzten 2300 Jahre hat sich die Sitkinak-Insel im Kodiak-Archipel wiederholt über den Meeresspiegel erhoben und ist wieder versunken, wenn der Alaska-Aleuten-Grabenbruch unter der Inselgruppe weiter aufreißt. Mittels einer Vielfalt von Beobachtungsverfahren haben Briggs et al. die sich ändernde Meereshöhe von Sitkinak zurückverfolgt. Bei diesem Prozess wurde eine zuvor nicht erforschte Historie des Grabenbruchs bekannt.

Brasilien

Auf nach Südamerika. Im brasilianischen Bundestaat Rio de Janeiro hat der Meeresspiegel eine ganz und gar verrückte Entwicklung genommen. Vor 5000 Jahren lag der Meeresspiegel noch 5 m über dem heutigen Niveau. In den folgenden Jahrtausenden fiel er in mehreren Etappen und erreichte heute das aktuelle Niveau (Abbildung 1). Die entsprechende Arbeit eines Teams um Alberto Figueiredo Jr. erschien im Dezember 2014 in Palaeo3. Hier der Abstract:

Gekoppelte Variationen von Akkumulationsraten in Sedimenten und des Meeresspiegels in der Guanabara-Bucht in Brasilien während der letzten 6000 Jahre:

Variable Sediment-Akkumulationsraten in Bohrkernen aus der Guanabara-Bucht zeigen, dass das Auffüllen der Bucht vor 6000 Jahren begonnen hat und dass diese Auffüllung nicht gleichmäßig vonstatten gegangen war. Der Vergleich dieser unterschiedlichen Sediment-Akkumulatiosraten und der Meeresspiegel-Fluktuationen während der letzten 5500 Jahre zeigt bezüglich dieses Vorgangs eine lineare Regression. Das Absinken des Meeresspiegels im Zeitraum zwischen vor 5500 und 5000 Jahren zum Beispiel korrespondiert mit höheren Akkumulationsraten im Zeitraum zwischen vor 5130 und 4350 Jahren. Zu dieser Zeit sank der Meeresspiegel von 5 m auf 2 m über dem heutigen Niveau. Das führte zu einem Absinken der Wellenbasis und als Konsequenz zu einer Sedimentverlagerung in die tieferen Regionen der Guanabara-Bucht. Zwischen etwa vor 4350 und 2000-1800 Jahren war der Meeresspiegel stabil mit einer daraus resultierenden Reduktion der Akkumulationsrate. Von dieser Zeit an bis vor etwa 500 Jahren stiegen die Akkumulationsraten wieder, weil ein weiterer Rückgang des Meeresspiegels von 2 m über auf das heutige Niveau stattfand. Die Rate dieses zweiten Absinkens des Meeresspiegels war nicht so hoch wie beim ersten Mal, das gilt auch für die Zunahme der Akkumulationsrate. Obwohl die Radiokarbon-Methode der Datierung eine dramatische Reduktion der Akkumulationsraten zwischen vor 4000 bis 2000 Jahren zeigt, ergeben sich aus Schätzungen der letzten 150 Jahre mit 210Pb eine progressive Zunahme der Akkumulationsraten trotz der vermuteten Stabilität und vielleicht sogar einer geringen Anhebung des modernen Meeresspiegel-Niveaus während der letzten 150 Jahre, was sich aus Tidenmessungen ergibt. Akkumulationsraten steigen von 0,14 cm/Jahr auf 0,49 cm/Jahr im Zeitraum 1922 bis 1951 und erreichen 0,60 cm/Jahr von 1963 bis 1993. Während der letzten fünf Jahre verdoppeln sich die Akkumulationsraten von 0,60 cm/Jahr auf 1,25 cm/Jahr. Diese höheren Akkumulationsraten während eines stabilen oder steigenden Meeresspiegels gehen wahrscheinlich zurück auf zunehmende Entwaldung, Ausweitung von Ackerbau, ausgebaggerten Kanälen und zunehmender Versiegelung durch Straßenbau.

Abbildung 1: Meeresspiegelentwicklung im brasilianischen Bundestaat Rio de Janeiro während der vergangenen 6000 Jahre (gestrichelte Kurve). Karos mit Kreuz markieren Meeresspiegelpunkte. Quelle: Figueiredo Jr. Et al. 2014.

Abschließend noch ein Stückchen weiter nach Süden, nach Uruguay. Von dort berichteten Sergio Martinez und Alejandra Rojas im März 2013 ebenfalls Palaeo3 eine weit zurückreichende Meeresspiegelrekonstruktion. Vor 6000 Jahre lag der Meeresspiegel noch deutlich über dem heutigen Niveau und nahm in der Folgezeit bis auf den heutigen Wert ab. Hier die Kurzfassung:

Relativer Meeresspiegel während des Holozäns in Uruguay

Ein Graph des relativen Meeresspiegels während des Holozäns in Uruguay wurde auf der Grundlage von Sturmablagerungen am Strand konstruiert. Der Fehlerbereich war zu groß, um kleine aber signifikante Oszillationen zu erfassen, aber die Anzahl der Punkte und die Koinzidenz unserer Daten mit den Daten aus der Literatur zeigen, dass der Meeresspiegel in Uruguay vor etwa 6000 Jahren über dem heutigen Niveau lag und seitdem gesunken ist. Das nicht parametrisierte Glättungsverfahren zeigt eher eine glatte Kurve des Absinkens des Meeresspiegels, ähnlich der vor der Küste Brasiliens (unterschiedliche Neigung).

Eine Gruppe um Roberto Bracco präzisierte 2014 diese Angaben und geht von einem Meeresspiegelstand vor 6000 Jahren aus, der 4m über dem heutigen Wert lag. Vor 4700 Jahren sank der Meeresspiegel dann innerhalb von einem halben Jahrtausend um einen Meter ab. In der Folgezeit reduzierte sich der Meeresspiegel dann in konstanter Weise um weitere 3 m.

Abbildung 2: Meeresspiegelentwicklung in Uruguay während der vergangenen 7000 Jahre. Quelle: Bracco et al. 2014.

Einen langandauernden Meeresspiegelabfall aus Uruguay beschrieben im März 2015 auch Dominique Mourelle und Kollegen in einem weiteren Palaeo3-Artikel. Hier der Abstract:

Multiproxy-Analyse von Umweltveränderungen während des mittleren und späten Holozäns in Verbindung mit Meeresspiegel-Fluktuationen und Klimavariabilität im Mündungsagebiet des Rio de la Plata:

In dieser Studie haben wir Pollen, Kieselalgen und Andere für palynomorphe Analysen herangezogen aus einer Sedimentschicht aus dem Marschland von Arroyo Solis Grande an der Nordostküste des Rio de la Plata (Uruguay). Die Ergebnisse haben wir verglichen mit einem Regionalmodell der Beziehung zwischen Pollen und Vegetation in den küstennahen atlantischen Salzmarschen (30°S bis 37°S). Die Ergebnisse zeigen, dass sich die Vegetation in Salzmarschen im Mündungsbereich zwischen vor 8000 und 5100 Jahren entwickelt hatte, als der Meeresspiegel stieg und den Höchststand während des Holozäns erreicht hatte. Brackwassergebiete rund um das Mündungsgebiet reflektieren den Rückgang des Meeresspiegel-Niveaus zum Ende des Holozäns zwischen vor 5100 und 2900 Jahren, verbunden mit einem gesteigerten Zufluss von Süßwasser. Brackwassergebiete und kleine Salzseen zwischen vor 2900 und 1000 Jahren stehen höchstwahrscheinlich mit der Bildung des Deltas des Parana-Flusses in Zusammenhang sowie mit einem weiteren Absinken des Meeresspiegels. Die heutigen Salzmarschen hinter den Sanddünen charakterisieren die letzten 1000 Jahre. Die Integration unserer Ergebnisse mit den Multiproxy-Aufzeichnungen von der südlichen Küste des Rio de la Plata-Mündungsgebietes (Argentinien) und von der Küstenebene des Anteils am Südatlantik von Südamerika (30°S bis 37°S) zeigen, dass der maritime Einfluss während des Meeresspiegel-Höchststandes zur Entwicklung einer Vegetation führte ähnlich der der geographischen Region. Allerdings kam es nach vor etwa 3000 Jahren zu lokalen Unterschieden in Zusammenhang mit unterschiedlichem Klima und unterschiedlicher Geomorphologie in jedem Gebiet. Dies führte zur Etablierung unterschiedlicher heutiger Pflanzengemeinschaften zu verschiedenen Zeiten zum Ende des Holozäns.

Link: http://www.kaltesonne.de/28025/

Beitrag zuerst erschienen im Blog „Die Kalte Sonne“. Übersetzung der englischen Abschnitte von Chris Frey EIKE