1

Mehr Blackouts durch intelligente Stromzähler?

Sogenannte „intelligente Stromzähler“ sind in Deutschland seit 2010 in Neubauten Pflicht: Die Geräte sollen dabei helfen, Schwankungen im Stromnetz auszugleichen. Die wachsende Menge an Strom aus erneuerbaren Energiequellen verstärkt diese Schwankungen bereits: Der Wind weht nicht immer gleich stark, und die Sonne scheint nicht überall gleich. Wird mehr Strom produziert, so sinkt der Strompreis ab – bei Windstille oder bewölktem Himmel dagegen sinkt die Produktion, so dass die Nachfrage und damit auch der Preis ansteigen.

Stromsparen bis zum Blackout? Intelligente Stromzähler sollen Schwankungen im Stromnetz ausgleichen – und könnten gerade dadurch zu Stromausfällen führen. Da die Geräte auf Angebot und Nachfrage reagieren, könnten auch am Strommarkt Blasen und Zusammenbrüche wie an der Finanzbörse entstehen, wie deutsche Physiker in Computersimulationen herausgefunden haben. Beim großflächigen Einsatz intelligenter Stromzähler müssten Versorger daher unbedingt auf diese Effekte vorbereitet sein, um Blackouts zu vermeiden, warnen die Forscher.

Mehr  auf Scinexx hier




Hitzerekord der Wetterstation Kitzingen – dennoch wird es auch dort immer kälter!

Wie allgemein bekannt ist und von J. Kowatsch und G. Kämpfe auf dieser Webseite immer wieder detailliert beschrieben wurde, sind die Einflüsse des Wärmeinseleffektes vielfältig. Auch die Wetterstation Kitzingen ist da nicht ausgenommen. Hitzewallungen über einer ausgetrockneten Wiese auf Sandboden. Vielleicht zu nahe Lage an der freien Bodenmessfläche. Umrandung der Wiesenfläche mit einer Hecke. Zwei Seiten umrandet von Gebäuden mit dunklen Dächern im 30m-Umkreis. Dazu eine große geschotterte Fläche eines Gewerbebetriebes, eine Umgehungsstraße in den Nähe und im weiteren Umfeld Siedlungs- und Gewerbegebiete, ein Flugplatz und Gewächshäuser. Bisherige Rekorde dieser Wetterstation waren: 2003: 36,5 °C; 2005: 36,6 °C; 2010: 37,1 °C; 2013: 38,4 °C. 2014 wurde hier der heißeste Pfingstmontag seit Beginn der Wetteraufzeichnungen mit 36,7 °C gemessen.

Wenn man sich die zurückliegenden Rekorde dieser Station vor Augen führt, dann bedeuten die 40,3 °C am 5. Juli 2015 einen gewaltigen Sprung von ca. 2 °C gegenüber den alten Rekorden. Da deutschlandweit ein so dramatischer Temperatursprung nicht verzeichnet wurde, sind die Ursachen des Rekordes wohl eher im Umfeld dieser Wetterstation zu suchen, als in einem vermeintlich durch CO2-verursachten „Klimawandel“.

Wie Josef Kowatsch und Stefan Kämpfe in ihrem aktuellen Beitrag „2015: Dritter deutlich zu warmer Juli in Folge – (K)ein Menetekel des „Klimawandels“ und in früheren Beiträgen beschreiben, wird das Wetter in Deutschland seit ca. 20 Jahren durch einen „neuen Klimawandel“ geprägt. Die Winter werden wieder kälter und die Sonnenscheindauer im Juli nimmt zu. Möglicherweise hat die klare Luft und die intensive Einstrahlung am 5. Juli 2015 den vermeintlichen Hitzerekord in Kitzingen mit dem spezifischen Umfeld begünstigt.

Die ganze Welt blickt nun fasziniert auf diesen um 0,1 °C gesteigerten Hitzerekord. Dabei wird aber ein ganz anderes Phänomen völlig übersehen. Während die Wetterstation Kitzingen tagsüber auf Hitzerekordjagd ging, kühlte sie sich nachts immer weiter ab. In der beigefügten Graphik ist zu sehen, dass die Minimumwerte des Monats Juli zwischen 1983 und 2000 einen positiven Trend besaßen und über 2°C wärmer wurden. Nach 2000 ist die Minimum-Nachttemperatur wieder um über 2°C markant zurückgegangen, trotz gestiegener CO2-Konzentrationen, und liegt nun wieder auf dem Niveau der 80er Jahre! Auffällig ist dieser Temperatureinbruch ab 2007. Diesen Rückgang der Nachttemperaturen des Monats Juli findet man auch bei anderen Wetterstationen.

Die kommende Abkühlung ist damit nicht nur in England angekommen, wie Kowatsch und Kämpfe herausgefunden haben, sondern hat sich im Dunkel der Nacht auch schon in Deutschland breit gemacht. Dieser Steigerung des Hitzerekordes des Monats Juli um 0,1 °C steht damit eine mittlere nächtliche Abkühlung von möglicherweise mehr als 1 °C innerhalb von nur 15 Jahren in den kontinentaler geprägten Regionen Deutschlands gegenüber. Ob die Meteorologen des DWD, die den Hitzerekord bestätigten, auch darauf eine Antwort haben?

Bild oben rechts:

Der vermeintliche Hitzerekord der Wetterstation Kitzingen lenkt von der eigentlichen Erkenntnis aus den Messungen im Maintal ab. Kitzingen hat zwar den Hitzerekord um 0,1 °C übertroffen, ungeachtet dessen wurden aber hier seit 15 Jahren die kältesten Julinächte wieder um über zwei Grad kälter. Seit ab ca. 2004 der Nordatlantik begonnen hat sich wieder abzukühlen, stoßen demnach Kaltluftmassen immer tiefer nach Mitteleuropa vor.

Steven Michelbach, Geograph und Klimarealist




Die Biogas-Katastrophe

TÜV für Biogasanlagen gefordert

Seit 2004 gab es in Bayern fast 700 Unfälle mit Biogasanlagen. In der Folge sterben oft viele Fische und andere Arten in Bächen und Flüssen. Fischer und Umweltverbände fordern mehr Sicherheit. Im Landkreis Rottal-Inn ist nun eine Unterschriftenaktion gestartet worden. Allein im Landkreis Rottal-Inn gab es in den vergangenen Jahren 50 zum Teil schwere Unfälle mit Biogasanlagen. Das neu gegründete Biogas-Bündnis fordert eine Art TÜV für jede Biogasanlage. Vor allem die alten Anlagen dürften nicht unkontrolliert bleiben, sagt Josef Barth, einer der Initiatoren des Bündnisses am Dienstagabend (28.07.15) in Arnstorf. Die Häufigkeit der Unfälle in Biogasanlagen sei nicht mehr tolerierbar, so der Vorsitzende des Bezirksfischereivereins Eggenfelden.

Mehr hier beim Bayrischen Rundfunk.

Übernommen von ACHGUT 




Fakten zu Gletscherschwund und Co. – und wie Ideologie unsere Natur zerstört

Frau Umweltministerin Hendriks Glaube an den menschengemachten Klimawandel ist so unerschütterlich, dass Sie im Eifer schon mal Tsunamis durch Klimawandel entstehen lässt [1] und ihn auch „täglich spürt“ [36], obwohl es seit ca. 20 Jahren nicht mehr wärmer wird. Kritik an der offiziellen Klimadoktrin duldet Sie gar nicht und kann dann schon mal richtig böse werden[30].

Der bayerische Ableger, Frau Umweltministerin Scharf steht dem wenig nach. Sie lässt ihr Ministerium verkünden:

[31] „Der vom Menschen verursachte Klimawandel ist wahrscheinlich die größte Herausforderung der Menschheit“.

Sie hat einen Klimamarathon zur Weltklimakonferenz in Paris gestartet und kämpft nun mit Einsatz dafür, Bayern klimasicher zu machen[26].

Da außer echten Fachpersonen wohl niemand so genau weiß, was man unter „klimasicher“ zu verstehen hat, werden erst einmal Forschungsgelder losgetreten, um wichtige, ohne Klimawandel-geschulte Forschungszentren bisher im Technologieland Bayern nicht lösbare Probleme anzugehen. Darunter sind dann auch:

[27] „Schutz der Beschäftigten vor Hitze und Sonneneinstrahlung. Maßnahmen des vorbeugenden Arbeitsschutzes, Klimatisierungen oder neue Arbeitszeitmodelle,“

[32] Angehen der Problematik: „Sand und andere Feinsedimente aus Flüssen können das Seewasser trüben. Dadurch erhalten Unterwasserpflanzen weniger Licht zum Wachsen.“

[33] Renaturierung von Mooren zur CO2-Senkung.

Der Verfasser wird den Verdacht einfach nicht los, dass „der Klimawandel“ im Kern nur eine verschleierte, gigantische Arbeits-Beschaffungsmaßnahme für die Akademikerschwemme darstellt.

Die Klimawissenschaftler welche auf der Zugspitze forschen wissen auch, wer für ihr Forschungsbudget sorgt und nutzten die Gunst der Stunde. Spontan brachten sie ihre tiefe Bestürzung ums Klima zum Ausdruck, dabei nicht vergessend zu erwähnen wie viel Forschungsaufwand noch erforderlich ist. Vorsichtshalber wurde dazu das nötige Schreckensszenario gelistet:

[1]: "Der Gletscher schmilzt, die Baumgrenze wandert nach oben, Steinschläge drohen“

"…steigt aber auch die Waldbrandgefahr, und sie kann in Monaten auftreten, die bislang völlig ungefährlich waren.“

"Der Pollenkalender muss umgeschrieben werden", sagt Menzel. Und: Die Pollen sind heute aggressiver und damit gefährlicher für die Gesundheit“.

● „…Es drohen Steinschläge und Hangrutsche. Wo der Permafrost verschwindet, stehen auch die Stützen für Skilifte und Berggondeln nicht mehr sicher – was wirtschaftliche Folgen für den Tourismus hätte.“

● [2]:"Forscher Ralf Sussmann : Wasserdampf sagt er, spiele bei der Klimaerwärmung eine sehr viel stärkere Rolle als angenommen ….„Dass die verwendeten Klimamodelle diesen Faktor viel zu niedrig einrechneten“.

Ökoklimatologin Annette Menzel: „Wir haben hier oben ein Stethoskop, mit dem wir sie (die grüne Lunge unter uns) sehr gut abhören können. Das, was sie da hört, gefällt ihr gar nicht. Seit Jahrzehnten steigt die Durchschnittstemperatur kontinuierlich an. …dass mit den häufiger auftretenden Hitzewelle nicht nur die Waldbrandgefahr steigt, sondern auch die Zahl der Hitzetoten. Und dass mit dem warmen Klima auch Mücken und Zecken kommen, die Krankheiten übertragen.

Zuerst einmal sehen wir uns die Infos der Klimaforscher an, welche der Redakteur und scheinbar auch die zwei Fachpersonen willig und unreflektiert aufnahmen, um zu sehen, was der Zwang zur Fremdfinanzierung bewirkt:

"Der Pollenkalender muss umgeschrieben werden",

Der Uba-Klima-Monitoringbericht 2015 listet dazu[3]:

Belastung mit Ambrosiapollen

Die Ausbreitung und Etablierung der Beifuß-Ambrosie wird vermutlich durch den Klimawandel begünstigt. Noch zeigen die Ergebnisse der Pollenmessungen aber keine signifikanten Trends.

Weiter kommt zu Pollen nichts, außer dass Pollen-Apps verstärkt angeboten und abgerufen werden.

Anmerkung zu den Bildern dieses Blogartikels. Kein Bild ist vom Autor inhaltlich verändert. In einigen sind aber zum besseren Verständnis Erklärungstexte / Zahlen und Hinweispfeile zugefügt. Diese sind immer an der schwarzen Farbe und anderen Schriftart erkennbar. Es wurde aber darauf verzichtet, auf solche Ergänzungen hinzuweisen.

Bild 1: Belastung mit den stark allergenen Ambrosiapollen. Seit 2006 Abnahme erkennbar.

"steigt aber auch die Waldbrandgefahr, und sie kann in Monaten auftreten, die bislang völlig ungefährlich waren.“

Der Uba-Klima-Monitoringbericht 2015 listet dazu, dass sowohl Anzahl als auch die Fläche von Waldbränden abgenommen hat:

[3]:Trotz zunehmender Waldbrandgefahr nicht mehr Waldbrände…

Bild 2: Abnahme der Anzahl und Fläche von Waldbränden

● ….Und dass mit dem warmen Klima auch Mücken und Zecken kommen, die Krankheiten übertragen.

Der Uba-Klima-Monitoringbericht 2015 listet dazu:

[3]:Es wird befürchtet, dass in Deutschland unter künftig veränderten Klimabedingungen sowohl für die tierischen Überträger wie beispielsweise Stechmücken oder Zecken als auch für die Erreger selbst günstigere Bedingungen herrschen und infolge dessen auch das Infektionsrisiko für den Menschen steigt.

Man hat also die üblichen – vorsorglichen – Klimawandel-Befürchtungen, aber keine Belege.

In einer vergleichbaren Landesstudie steht dazu deshalb auch ganz lapidar:

[8] Die Chance, dass die Erwärmung die Malaria zurückbringen würde, schätzen die Autoren als äußerst gering ein.

● …dass mit den häufiger auftretenden Hitzewellen nicht nur die Waldbrandgefahr steigt, sondern auch die Zahl der Hitzetoten.

Das Märchen der Klimawandel-Hitzetoten ist also auch schon auf der Zugspitze angekommen. Demnach ziehen die US-Rentner die es sich leisten können wohl zum Suizid nach Florida in die Wärme und die Deutschen aus dem gleichen Grund nach Spanien.

In einer Studie kam man vor Jahren zu einem ganz anderen Ergebnis

[8] Eine Studie der britischen Regierung zieht positive Bilanz der sonnigeren letzten drei Jahrzehnte.

"Von Kälte verursachte Sterblichkeit ist erheblich größer als die auf Hitze zurückzuführende, sowohl in Großbritannien als auch im übrigen Europa", heißt es in der Studie.

Der Uba Monitoringbericht zeigt, dass seit dem Hitzejahr 2003 die Hitzetage stetig abnehmen und inzwischen auf den Stand von 1976 zurückgekommen sind.

Bild 3: Grafik der Hitzeextreme aus dem Uba-Bericht 2015[3].

Und bezüglich der „Klimawandel-Hitzetoten“ ist der Bericht ebenfalls s ganz unspektakulär. Zudem ist die Datenlage dazu gravierend schlecht, womit gar keine fundierte Aussage möglich ist.

Bild 4[3]: Darstellung des Uba-Berichtes 2015 zum Thema „Hitzetote“

Diesen Zustand konnte das Uba nicht auf sich sitzen lassen und hat ganz aktuell eine DWD-Studie dazu publiziert, die das Gegenteil belegen soll[17]. Doch auch diese weist in Wirklichkeit nur aus, dass die „Klimawandel-Hitzetoten“ im Mortalitätsrauschen verschwinden und bezüglich der Mortalität die Vorteile der Gesamterwärmung bei weitem überwiegen. Details dazu kann man in meinem EIKE Blogbeitrag[35] nachlesen.

● „Wasserdampf sagt er, spiele bei der Klimaerwärmung eine sehr viel stärkere Rolle als angenommen ….Dass die verwendeten Klimamodelle diesen Faktor viel zu niedrig einrechneten“.

Der Durchbruch für die Forcingtheorie. CO2 alleine bewirkt viel zu wenig und benötigt deshalb zwingend einen Wirkungsverstärker, der im Wasserdampf gefunden wurde. Ist aber dessen Verstärkung zu gering, bricht das Forcing in sich zusammen. Und genau diese Gefahr besteht. Das musste selbst das IPCC erkennen und reduziert (langsam) den Forcing-Vertrauensbereich zu niedrigen Werten. Auf der Zugspitze erklärt nun ein Forscher, dass das IPCC die Forcing-Geschichte wieder zurückdrehen darf. Obwohl die IPCC Klimamodelle bereits mit den niedrigeren Werten heute völlig daneben – weil zu hoch – liegen[34].

Auch die Betreiber des Blogs „www.kaltesonne.de“ werden sich nun umsehen müssen. Hatten sie doch beschrieben, dass der IPCC das Wasserdampf-Forcing noch viel zu hoch ansetzt [11].

Für den der weiß, dass der Klimafachmann auf der Zugspitze ein neues, lasergestütztes Messgerät zur Wasserdampfanalyse der Atmosphäre bekommen hat, relativiert sich die Aussage. Irgendwie muss man die Investition vor einem so honorigen Besuch ja begründen.

● „…Seit Jahrzehnten steigt die Durchschnittstemperatur kontinuierlich an.“

Dass es seit ca. 2 Jahrzehnten nicht mehr wärmer wird, aber schon seit 150 Jahren kontinuierlich anstieg, „vergaß“ man zu erwähnen.

Der Autor hat die Temperaturdaten der Messstation Zugspitze vom DWD geladen und graphisch dargestellt. Er findet darin (als Nichtfachmann) keinen (signifikanten) menschengemachten Klimaeinfluss. Auch sieht man eine erkennbare, Jahrzehnte-lange Zyklik, die beim stetigen Anstieg des CO2 zumindest verwundert. Eigentlich findet er die Kurven insgesamt vollkommen unspektakulär und wüsste nicht, was der Mensch daran ändern sollte. Aber im Blog finden sich bestimmt Fachleute, die erklären können, wo sich darin der Klimawandel versteckt hält.

Bild 5: Selbst erstellte Grafik der Zugspitztemperatur-Monatswerte seit 1901 anhand der DWD-Monatsdaten

Bild 6: Selbst erstellte Grafik der Zugspitztemperatur Monats Max / Min-Werte seit 1901 anhand der DWD-Daten

So weit also zu den von den Experten dargestellten Schrecken, welche das nicht mehr so kalte Klima verursacht und aus der Zugspitzhöhe besonderst scharf sichtbar sein sollen.

Zurück zum Thema Gletscher.

Es ist unbezweifelbar, dass die Alpengletscher massiv geschrumpft sind und eventuell noch weiter schrumpfen. Es ist aber nicht sicher, ob es das noch nie gab und es vom Menschen verursacht sein muss. Im Folgenden wird jedoch nicht auf die Diskussionen zu Gletscher-Rückzugstheorien eingegangen, sonder nur aus Publizierungen gelistet, die am signifikanten menschlichen Einfluss zweifeln lassen.

Vorab dazu die Info, dass es nach Sichtung der Publizierungen im Wesentlichen zwei Richtungen gibt:

● Eine „Standardrichtung“, welche davon ausgeht, dass bis ca. 1980 aller Gletscherschwund „natürlich“ war, ab dann jedoch der Mensch der wesentliche „Gletschertöter“ ist. Verbunden mit der Aussage, dass die Alpen ohne Gletscher „unnatürlich“ wären und der Mensch dagegen vorgehen muss.

● Eine kleine „Protestgemeinde“, welche darauf hinweist, dass es bereits zu früheren Zeiten massiven Gletscherschwund, schlimmer noch – insgesamt wesentlich weniger Gletscher gegeben hat – und der aktuelle Schwund keinesfalls erheblichen, menschengemachten Charakter trägt.

Im vom Bayerischen Umweltministerium herausgegebenen Statusbericht Gletscher werden diese prosaisch beschrieben:

[9] Gletscher faszinieren den Menschen seit jeher. Gletscher sind unberührte Naturwunder, sensible Ökosysteme, Wasserspeicher, Orte der Schönheit und der Magie, der Beständigkeit und des Wandels zugleich. Diese Werke der Schöpfung und Evolution gilt es zu bewahren und zu schützen.

Der Schreiberling dieser Prosa hat wohl viel romantische Literatur gelesen. Ob er jedoch auch nur eine Spur Ahnung über die Auswirkungen der Gletscher auf die Menschen hat, die darunter leben mussten kann man bezweifeln.

Welche Schrecken stellte das kalte Klima dar? Gehen wir in der Geschichte zurück zu den Zeiten, als die „Orte der Schönheit und Magie“ – noch groß und mächtig waren und sich der Mensch davor verzweifelt zu schützen versuchte.

[6] Es ist in der neueren Literatur mehrfach und immer wieder bestätigt, daß gerade in der sogenannten „Kleinen Eiszeit“, die von etwa 1590 bis 1850 dauerte, eine rasante Zunahme des Hexenwesens vermeldet wird. Die in dieser Zeit sich dramatisch häufenden Naturereignisse, besonders die in den stark vergletscherten Regionen der Alpen häufigen Gletschersee-Ausbrüche und Extrem-Wasserschäden wurden diesen „Wettermachern“ und „Hexern“ zugeschrieben.

[4] Bei Hochständen endete der Fieschergletscher in zwei Gletscherzungen, die nahe an die Weiler Brucheren und Unnerbärg heranreichten. Es ist deshalb verständlich, dass sich die Fieschertaler bedroht fühlten.

Um die Gletschergefahr abzuwenden, machten die Fieschertaler der Sage nach das Gelübde, sich an den Samstagen von der Vesper an jeglicher knechtlicher Arbeit zu enthalten. Eine Ausnahme war das Einlegen von dürrem Heu und Getreide. Als der Fieschergletscher 1652 vorstiess, unternahmen die Talbewohner eine gletscherbannende Prozession unter der Leitung eines Geistlichen und beschworen das „Gespenst“ im Fieschergletscher. Der Gletscher soll daraufhin nicht mehr weiter vorgerückt sein.

Im Jahr 1676 ersuchten die Talbewohner Papst Innozens XI., das Gelübde umwandeln zu dürfen, da sich nicht alle Fieschertaler an dieses hielten. Dies geschah dann auch im Jahr 1678. Die Fieschertaler mussten unter anderem versprechen, keine verborgenen Tänze zu veranstalten und die Frauen keine roten Schürzen mehr tragen zu lassen. Im Jahr 1860 drohte wiederum Gefahr, weil der Fieschergletscher erneut zu einem Hochstand vorgestossen ist. Die Fieschertaler machten erneut ein Gelöbnis, nämlich alljährlich eine Bittprozession zur Kapelle im Ernerwald durchzuführen, eine Kerze in der Kirche an Sonn- und Feiertagen zu unterhalten und jährlich eine Messe zu lesen. 

[5]: Als man barhaupt den Grossen Aletschgletscher bannen wollte

Angelangt am Sitze des Übels wird vorab das hl. Messopfer gefeiert, dann eine kurze Predigt gehalten, hierauf mit dem Allerheiligsten der Segen erteilt, um den sich schlängelnden Gletscher einzudämmen und demselben Zügel anzulegen, auf dass er nicht weiter mehr sich ausdehne. Es werden die feierlichen Beschwörungen der Kirche in Anwendung gebracht und der äusserste Teil des Gletscherberges mit Wasser, geweiht im Namen unseres hl. Vaters (St. Ignatius), besprengt. Überdies wurde daselbst eine Säule aufgerichtet, auf der sich das Bildnis ebendesselben hl. Patriarchen befand, gleichsam das Bild eines Jupiter, der nicht flüchtigen Soldaten, sondern dem gefrässigen Gletscher Stillstand gebietet. Um diese Zuversicht auf die Verdienste des Heiligen blieb nicht ohne Frucht. Er hat den Gletscher zum Stehen gebracht, so dass er von nun an sich nicht weiter ausdehnte. Im Monat September 1653.»

Unterhalb des Aletschgletschers beten fromme Menschen über 3 Jahrhunderte für den Rückgang dieser Gletscher-Bedrohung (“Der kalte Tod”).
“… Es gab eine Zeit, in der der Aletschgletscher wuchs und wuchs. Er rückte bedrohlich nahe ans Dorf heran. Dazu kamen die Ausbrüche des Märjelensees. 35 Mal brach der Eisstausee im 17. Jahrhundert oberhalb von Fiesch aus.

1678 legten die Bewohner von Fiesch und vom Fierschertal ein Gelübte ab, in dem sie vor Gott und der Welt kund taten, fortan tugendhaft zu leben und brav zu beten, dass der Gletscher sein Wachstum einstelle. Sie hielten einmal pro Jahr eine mehrstündige Prozession im Ernerwald ab, um gegen das Wachstum des Gletschers zu beten. Die Prozession fand am Tag des Gründers des Jesuitenordens, dem Heiligen Ignatius von Loyola, am 31. Juli statt.

Pfarrer Johann Joseph Volken, ein Vorfahre des heutigen Regierungsstatthalters Herbert Volken leitete 1678 das Gelübde seiner Gemeinde an die nächste kirchliche Instanz weiter, den Bischof von Sitten. Von dort aus gelangte es an den Nuntius der römisch-katholischen Kirche der Schweiz in Bern, der es dem Vatikan zur Absegnung unterbreitete. Papst Innozenz segnete das Gelübde ab

[6] Berühmt und zugleich berüchtigt ist seit über 400 Jahren zum Beispiel der Vernagtferner in den Ötztaler Alpen. Aus einem Seitental ist der Gletscher in den Jahren 1600, 1676, 1678, 1771, 1772 und dann wieder 1845 und 1848 in das Rofental vorgestoßen und hat, mit dem Guslarferner vereinigt, hinter der Zwerchwand eine Eismauer gebildet, weit über 100 Meter hoch. Dahinter wurde ein See gestaut, der ca. 1300 Meter lang war. Dieser See ist mehrmals durch die teilweise poröse Eismauer durchgebrochen und hat im ganzen Ötztal große Schäden angerichtet. Die Wassermassen von geschätzten 1 ½ bis 3 Millionen Kubikmeter sind dann binnen einer Stunde oder eineinhalb Stunden ausgebrochen. Der einem Dammbruch vergleichbare Durchbruch war bis dato keine menschlichen Eingriffe und technischen Maßnahmen verhinderbar.

Daß der durch den Vernagtferner hinter Rofen gestaute See im Jahre 1678 ausgebrochen ist und große Schäden durch das ganze Ötztal hinaus, ja bis ins mehr als 120 km entfernte Innsbruck angerichtet hat, wird nach der Überlieferung und – inzwischen aktenkundig gemacht – einem herumziehenden „Malefiz- Buben“, einem „Wettermacher“ zugeschrieben. Es ist dies der namentlich bekannte Thomann Jöchl aus dem Zillertal, der in Meran bei einem Prozeß im Jahre 1679 mit 12 anderen Angeklagten verurteilt und hingerichtet wurde. Dieser „Hexenmeister“ habe auch den Ausbruch des Fischbaches im Jahre 1678 in Längenfeld verursacht. Der Pflegsverwalter von Petersberg tritt als Zeuge auf und meldet, „daß ein gottloser pue anno 1678 durch das etzthal gehend, von vorgedachten Valtin Kuprian zu Prugg, allwo er übernachtet, nicht nach verlangen traktiert worden, durch zauberei und des teifels hilf den ferner den ausbruch und in lengenfelder thal ein wetter gemacht“.

Örtliche Chronisten wie Johann und Benedikt Kuen sowie Franz Stippler berichten von bescheidenen „Maßnahmen“ der Bevölkerung und der Verwaltung.

Aus gnädiger Lizenz Ihro fürstlichen Gnaden Herrn Paulin Bischof zu Brixen, ist von drei Priestern und Curaten im Özthal auf dem obersten Berg des Ferner- Anfangs, dann auch zuunterst auf dem Eis als auf einer Ring Mauren das Hl. Meßopfer samt einer eifrigen Predigt in Gegenwart der Procession von 2 Communitaten als Lengenfeld und Sölden verrichtet worden, worbey sich sehr viele Personen von den äußeren Kirchspielen eifrig und andächtig eingefunden. Es sind auch zwei ehrwürdige Herrn Capuciner von Imst etliche Wochen lang zu Vent verblieben, welche täglich das Hl. Meßopfer um dieser Gefahr Abwendung verrichtet, item sind zu unterschiedlichen Orten andächtige Kreuzzüge angeordnet, auch insonderheit durch die kleinen Kinder gehalten worden…“.

Und heute (Zitat, leider ist mir der Verfasser nicht mehr bekannt):

In unserer Zeit werden nun von angeblichen Klimaforschern die Werte menschlichen Denkens und Empfindens ins Gegenteil verkehrt. Statt dankbar zu sein, wollen die Katastrophentrommler jetzt für mehr Kälte und Gletscherschäden sorgen. Wieso soll denn eine zähflüssige Eis-Lava wünschenswerter sein als blühende Alpenwiesen? Die Bewohner früherer Tage würden sagen: „Gott hat unsere Gebete gehört, wir haben es jetzt besser.“
Die Fotos aus den Tälern beweisen: Die Gletscherschmelze hinterlässt wieder blühende Landschaften. Die Anzahl der wild lebenden Tiere, z.B. Murmeltiere, Vögel, in den Alpen nimmt zu und nicht ab, genauso die Vegetation und die Vielfalt der Pflanzen.

Fazit: Kälte ist lebensfeindlich, Wärme ist lebensfreundlich. Das warme Mittelalter wäre der wünschenswerte Klimazustand und nicht die kleine Eiszeit. Doch leider gehen die Temperaturen seit 10 Jahren wieder zurück, das Poleis nimmt zu. Die kurze, 20jährige Wärmeperiode von 1980 bis zur Jahrtausendwende scheint vorbei zu sein.

Wie wird der Gletscherrückgang aktuell dargestellt

Wieder Zitate aus der Publikation des bayerischen Staatsministeriums für Umwelt und Gesundheit.

[9] Gletscher sind aber auch Mahnmale des Klimawandels. Sie reagieren in beispiellosem Tempo auf die Veränderung des globalen Klimasystems, das durch die Emission von Treibhausgasen aufgrund menschlicher Aktivitäten zunehmend erwärmt wird. Überall auf der Erde schmelzen Gletscher ab und ziehen sich in größere Höhen zurück. Der Klimawandel ist eine der größten Bedrohungen der Alpen und ihrer Gletscher.

Unsere Gletscher sind markante Zeichen der Bayerischen Alpen, insbesondere der Berchtesgadener Alpen und des Wettersteingebirges. Sie tragen zur Attraktivität der Gebiete bei. Helfen Sie mit, damit auch die nachfolgenden Generationen die Schönheit der Alpen bewundern und genießen können!

[9] Gletscherrückgang – eine dramatische Folgereaktion des Klimawandels in den Alpen

Sowohl Ausmaß und Geschwindigkeit der globalen Erderwärmung als auch die vom Menschen emittierten Treibhausgase als wesentliche Ursache des Klimawandels sind unbestritten.

Die wichtigsten Ursachen des Gletscherrückgangs:

Frühlings- und Sommermonate mit intensiver Sonneneinstrahlung

wenig Schneezuwachs im Winter (Massenumsatz)

erhöhte Lufttemperaturen

sommerliche Regenereignisse bis in große Höhen

. sich seit etwa 1980 die Gletscherflächen in Bayern aufgrund des Klimawandels dramatisch verringert haben. Der südliche Schneeferner verlor 84 % seiner Fläche. Der nördliche Schneeferner (-32 %) und der Höllentalferner (-18 %) mussten dagegen moderate Flächenverluste hinnehmen;

seit etwa 2000 der Flächenverlust aller bayerischen Gletscher eine rapide, klimabedingte Beschleunigung erfahren hat, der einzig der Höllentalferner aufgrund seiner Muldenlage noch widerstehen kann.

Sieht man sich die im vorhergehenden Kapitel gezeigten Bilder 5 und 6 mit den Temperaturverläufen an, so stellt man fest, dass das mit dem „Menschengemacht“ bei den Gletschern stark angezweifelt werden darf. Auch dass die Gletscher sich erst seit 1980 vom Menschen verursacht verringern, will einem nicht unbedingt einleuchten. Schließlich verringern sie sich definitiv bereits vereinzelt seit 1820 [12] und in Summe spätestens seit 1860. Auch fordert die Klimawandeltheorie, dass die Winter mehr Niederschläge bekommen und die Sommer weniger (IPCC 2007 und[13]). Genau wegen des umgekehrten Wetterverhaltens sollen die Gletscher aber schrumpfen[9]. Und dass die Sommer entgegen allen Verlautbarungen nicht heißer geworden sind, zeigen sowohl die DWD-Daten der Zugspitzstation, Publizierung [15] für den Alpenraum als auch global die folgende Grafik aus [10]:

Bild 7: Verlauf der Sommertemperaturen von 1751 bis ca. 2000[10]

Wie verliefen das Klima und die Gletscherstände früher. Hat es solche Schwunde und Temperaturschwankungen wirklich noch nie gegeben?

Auf EIKE kamen dazu schon Blogartikel [18] [7].

In [7] machte Professor Dr. Gernot Patzelt vom Institut für Hochgebirgsforschung der Universität Innsbruck zentrale Aussagen:

[7]:Die gegenwärtige Gletscher-und Klimaentwicklung zeigt keine Verhältnisse, die es in der Vergangenheit ohne menschlichen Einfluss nicht schon mehrfach und lange andauernd gegeben hat. Der gegenwärtige Rückgang der Alpengletscher kann nicht als Bestätigung für die Hypothese eines anthropogen verursachten Klimawandels dienen.

Gletscherschwundperioden dieser Art gab es in der Vergangenheit mehrfach und auch in deutlich stärkerem Ausmaß. Die Rekonstruktion der Gletscherentwicklung erlaubt die Aussage, dass in rund 65 % der letzten 10.000 Jahre die Gletscher kleiner waren und die Sommertemperaturen daher so hoch oder höher lagen als heute.

Bild 8: [7] Standort und Wachstumsperioden von Waldbäumen, die durch den gegenwärtigen Rückgang des Gepatschferners – des zweitgrößten Gletschers der österreichischen Alpen – eisfrei geworden sind.

Dazu Bilder aus [18] mit der Darstellung, wie der Steinlimigletscher (Kanton Bern, Schweiz) zur Römerzeit vor 2000 Jahren und um 1993 aussah.

Bild 9: [18] Der Steinlimigletscher (Schweiz) zur Römerzeit

Bild 10: [18] Der Steinlimigletscher (Schweiz) 1993 mit den Ausbreitungslinien von 1856 (obere) und 1913 (untere)

Und wer es immer noch nicht glauben will dass die Alpen in historischer Zeit weitgehend gletscherfrei waren kann es immer neu an der Pasterze (Großglockner) erleben. Im Juni 2015 wurden zwei Teile eines insgesamt 7,9 m langen Baumstammes aus der Seitenmoräne über dem heutigen Gletscherende geborgen[19].

[19] Damit ist belegt, dass dass in den Bereichen wo heute Eis, Schutt, Sand und Wasser regieren, vor 9.000 und auch zwischen 7.000 und 3.500 Jahren teils hochstämmige, alte Zirben wachsen konnten – eine unglaubliche Vorstellung!

Seit Beginn der Nacheiszeit vor etwa 11.500 Jahren war die Pasterze nie größer als beim letzten Hochstand von 1852 bis 1856, jedoch schon öfters deutlich kleiner als heute.

Bild 11: Aufnahme einer Stammhälfte mit Blick von der Fundstelle auf den Gletscher

„Pasterze“ heißt in der damaligen Sprache so viel wie „Weideland“. Also erlebten Menschen noch, dass im Bereich des heutigen Gletscherursprungs der Gletscher nicht nur fehlte, sondern die Umgegend sogar fürs Vieh genutzt werden konnte (und wie aktuell belegt, sogar Hochstammbäume wuchsen).

Eine Rekonstruktion der Baumgrenzen in den Alpen sieht wie folgt aus:

Bild 12: [15] Die höhenmäßige Verteilung von dendrochronologisch bzw. 14C-datierten Holzproben aus dem inneren Kaunertal, Westtirol, für den Zeitraum der letzten 9000 Jahre. Die Balken belegen jeweils einzelne Proben bzw.

Gruppen von Proben mit gleicher Standorthöhe, die Balkenlänge zeigt die zeitliche Erstreckung der Jahrringserie einer Einzelprobe bzw. einer Standortmittelkurve an (Nicolussi et al. 2005, ergänzt).

Der Rückzug der Gletscher seit Beginn des Gletscherschwundes um ca. 1850

In den folgenden Bildern ist erkennbar, dass die Gletscher vom Beginn des Rückzugs an relativ konstant schrumpfen. Eine Beschleunigung aufgrund immer höheren CO2-Atmosphärenanteils sieht man nicht wirklich.

Bild 13: [14]

Bild 14: [15] Verlauf der Gletscherrückzuge in den Alpen seit 1890

Fazit

Bild 13 und 14 zeigen, dass der Gletscherschwund von Beginn an relativ stetig verläuft. Dass er wie in Bild 13 inzwischen zunimmt, liegt einmal an der Erfassungsmethodik und natürlich auch daran, dass mit geringerem
Volumen / Fläche eine Beschleunigung eintreten muss. Bild 14, welches ein größeres Gletscher-Ensemble betrachtet zeigt, dass es hohe Schwankungen gibt und die Darstellung, bis 1980 war alle Gletscherschmelze natürlich und danach menschengemacht, angezweifelt werden kann.

Die Klimarekonstruktion der Alpen

Wie sie aussieht, hängt davon ab, welcher „Klima- Glaubensrichtung“ der / die jeweiligen Verfasser angehören.

Zuerst ein Bild aus [13]: Variation der globalen Jahresmitteltemperatur von 1000–2100. Quelle: IPCC (2001)

Bild15: Klimadarstellung nach IPCC

EIKE Lesern ist diese Kurve und die Problematik bekannt. Anderen zur Wiederholung ein Kommentar dazu:

[23] Die Klimarekonstruktionen des Weltklimarats (IPCC) beruhen maßgeblich auf den Untersuchungen von Baumringen. Zahlreiche Veröffentlichungen lassen jedoch vermuten, dass die Variabilität des Klimas im Winter deutlich höher ist als im Sommer. Da die Bäume im Winter ruhen, zeichnen sie diese Veränderungen nicht auf. Das führt dazu, dass die Prognosen des IPCC die natürliche Klimavariabilität unterschätzen.

Deshalb andere, realistische Darstellungen

Es ist anzumerken, dass die Klimaverläufe des Holozän-Zeitalters(also bis vor ca. 10.000 Jahren je nach verwendeten Proxies und Autor weit voneinander abweichen. Damit wird aber auch deutlich, zu welch unterschliedlichen Ergebnissen eben verschiedene Methoden und Proxis führen und dass eine „Einheitskurve“ eine Illussion bleibt. Der Trend ist aber immer gleich: früher war es oft deutlich wärmer als heute und schnelle Klimaschwankungen gab es bereits früher regelmäßig. Unsere aktuelle Temperatur und die Beschleunigung ist damit überhaupt nicht zwingend „unnatürlich“ und einzigartig, wie es vom IPCC und dem Klima-Mainstream suggeriert wird.

Zuerst der (mögliche) Verlauf des Nord-Europäischen Klimas aus [20]

Bild 16: Rekonstruierter Klimaverlauf Nordeuropas aus Baumdichtemessungen

Dazu steht als Erklärung:

[20] Vulkanausbrüche, Effekte der Landnutzung und Veränderungen der Treibhauskonzentrationen in der Atmosphäre scheinen jedoch im Vergleich zur Sonneneinstrahlung einen geringeren, eher kurzfristigen Effekt auf die Klimaabkühlung zu haben. Sie lassen sich in den Rekonstruktionen der sehr langfristigen Temperaturtrends kaum abbilden. 

Bisherige Klimarekonstruktionen unterschätzten diesen Einfluss der natürlichen Klimavariabilität. Nach den Messungen der Wissenschaftler ist der Kühlungs-Effekt – über die letzten 2000 gerechnet – etwa viermal so groß wie die Auswirkungen des anthropogenen Klimawandels seit 1750. Dabei gibt es jedoch erhebliche Schwankungen je nach Zeitraum, Region und Jahreszeit. 

Großräumige Klimamodelle, die z.B. auch der internationale Klimarat IPCC verwendet, scheinen diesen natürlichen Abkühlungseffekt bisher zu wenig berücksichtigt, so die Forscher. 

Nun die Klimarekonstruktion (COMNISPA-Kurve) der Uni Heidelberg [21] [22] aus Tropfstein-Isotopenuntersuchungen. Diese Klimarekonstruktion wird selbst nicht angezweifelt, Es wird aber behauptet, sie gelte nur für Europa und gegenüber den „Hockeystickkurve“ nicht global. Da sie aber vorwiegend aus Tropfsteinen von Alpenhöhlen rekonstruiert ist, muss sie den Klimaverlauf der Alpen auf jeden Fall richtig wiedergeben. Deutlich sind die extremen Klimaschwankungen in der Vergangenheit, welche die aktuelle vollkommen relativieren.

Das folgende Bild zeigt den relativen Temperaturverlauf des Holozän für Europa aus Tropfstein-Rekonstruktionen (schwarzer Verlauf). Bildtext: Rekonstruktion des Klimas: Die Auswertung der Proben aus drei hochalpinen Stalagmiten und der Vergleich mit Holz- und Torffunden aus Schweizer Gletschern erlauben es, eine Klimakurve für die letzten 9000 Jahre zu erstellen.

Bild 17: COMNISPA-Kurve[21]

Und zuletzt eine Rekonstruktion aus [16]

Bild 18: [16] Schwankungen der mittleren Sommertemperaturen im Holozän bis heute.

Dazu der Verlauf von Klima und CO2 aus [24], sowie der Text der Einleitung daraus:

[24] Klima zeichnet sich immer durch Wandel aus und die heutige Klimaänderung ist verglichen mit denen der Vergangenheit in ihrem Ausmaß noch sehr moderat und nicht ungewöhnlich.

Kohlendioxid war und ist ein wichtiges Treibhausgas, aber es war nicht allentscheidend für die Klimawandel der Vergangenheit. Die bisherigen Untersuchungen liefern Argumente dafür, dass die Sonne einen deutlichen lenkenden Einfluss auf das Klima ausgeübt hat. Auch wenn die menschliche Gesellschaft durch Emissionsminderung nicht korrigierend auf klimatische Veränderungen einwirken kann – dies zeigen Modellrechnungen sehr deutlich – so ist Ressourcenschutz, vernünftiges Verhalten und nachhaltiges Wirtschaften keineswegs überflüssig, da unsere fossilen Energieträger endlich sind.

Die bisherigen Untersuchungen liefern also viele Argumente dafür, dass die atmosphärischen Treibhausgase in den vergangenen 1000 Jahren nicht die Auslöser und Hauptfaktoren von dokumentierten und rekonstruierten Klimaänderungen gewesen sein können, sondern dass die Sonne einen deutlichen lenkenden Einfluss auf das Klima ausgeübt hat. Kohlendioxid war und ist ein wichtiges Treibhausgas, aber es war nicht allentscheidend für die Klimawandel der Vergangenheit.

Bild 19: [24]

Im Bild 19 ist der CO2-Verlauf „IPCC-gerecht“ eingetragen. Damit ein unbedarfter Leser aber nicht denkt, der historische Verlauf und Messung des CO2 sei unumstritten, anbei eine andere Rekonstruktion. Die rote Kurve sind Werte historischer Originalmessungen und die graue Linie Eisbohrkern-Rekonstruktionen. Man ahnt es. Die graue Linie gilt als „wahr“ und die historischen Messkurven wurden vom IPCC als falsch „verworfen“. Bilddetails und ausführliche Darlegungen dazu kann man in [28] nachlesen. Anbei nur ein Zentralkommentar daraus:

[28]. Wegen vermeintlich fehlender Meßdaten vor 1958 wurde die Keelingkurve mit CO2-Rekonstruktionsdaten aus Eisbohrkernen kombiniert, so daß sich eine Art exponentielle Kurve der CO2-Konzentration der Welt ergab. Diese Kurve ist die Grundlage aller Berichte des Weltklimarates 1990, 1995, 2001 und 2007.

Bild 20: [28]

Fazit

Praktisch allen nicht „IPCC-gerechten“ Klimarekonstruktionen ist gemeinsam:

● dass es früher sehr wohl wärmere Zeiten als aktuell gegeben hat,

● schnelle Klimaschwankungen auch früher in teilweise extremerem Ausmaß und Geschwindigkeit stattfanden,

● das Klima ausgeprägte Zyklen aufweist,

● der aktuelle Verlauf überhaupt nicht „unnatürlich“ sein muss

● CO2 auf den Klimaverlauf – wenn überhaupt – einen relativ geringen Einfluss hat

● Zusätzlich: Der wirkliche CO2-Verlauf vor Beginn der Mauna Loa-Messungen strittig ist

Damit man sieht, wie viel mehr Angst wir davor haben sollten, in eine neue Eiszeit zu schlittern, anbei eine Rekonstruktion dazu.

Bild 21: [21] Eiszeit-Zyklen

Abschluss-Statement

Der Verfasser hofft, mit diesem Blogartikel etwas über die Problematik der anthropogenen CO2-Klimawandeltheorie am Beispiel der Gletscherschmelze informiert zu haben. Jeder kann sich darauf aufbauend selbst Gedanken machen, ob die Dogmen der Ökokirche genügend stichhaltig sind, dass es sich lohnt, nur zur CO2-Reduzierung Billiarden EUROs auszugeben.

Im Mittelalter haben die Ausgaben (an die Kirche) zur Bannung des Klimas den damaligen Menschen gar nichts genutzt, aber wenigstens Kunstwerke übriggelassen die man noch heute bestaunt. Die heutigen Ausgaben zur Bannung des Klimas durch CO2-Reduzierung könnten ähnlich sinnlos verlaufen. Ob man die dazu errichteten EEG-Energiekunstwerke dereinst aber bestaunen wird?

Dazu eine Bildfolge zum Nachdenken. Die Windkraftbilder stammen alle von [29]. Dort lässt sich eine ganze Präsentation laden und ein Link zu einem entsprechenden youtube-Film.

Bild 22: Menschenfeindliche, aber von Touristen „geforderte“ Landschaft

Bild 23: Gleiche, aber menschen- und naturfreundliche Landschaft, die angeblich keine Touristen mehr „anzieht“

Man stelle sich nun vor, zur Römerzeit vor dieser grünen Berg-Weidelandschaft zu stehen und ein Priester sagt:

„Weil die Menschen nicht ausreichend dem Gott Jupiter geopfert haben, wird er zur Strafe diese blühende Landschaft in eine zerstörerische und lebensfeindliche Gletscher-und Steinwüste verwandeln“.

So kommt es und 2.000 Jahre später dichtet dann jemand dazu (Bild 22): „Orte der Schönheit und der Magie, der Beständigkeit und des Wandels zugleich. Diese Werke der Schöpfung und Evolution gilt es zu bewahren und zu schützen“. Ergänzt mit der Behauptung, die Landschaft wie sie zur Römerzeit war kann man künftigen Generationen nicht zumuten.

Oder zeigen Sie einem BUND-Aktivisten Bild 23 und sagen: Diese freundliche Landschaft haben wir schon überall und wirkt einfach nur langweilig. Unseren Event-Touristen müssen wir aber etwas Besonderes bieten wie Sommer- Schilaufen und Eisklettern. Deshalb werden wir die Almen vereisen, unwirtlich machen und verschottern, wie es das Planungsbild 22 zeigt. Wir bitten dazu um Zustimmung.

Was nun folgt sind EEG-Klimarettungs-Kunstwerke und CO2-neutrale Landschaften

Dafür, dass man in Zukunft nur noch unter solchen EEG-Alleen wandert, werden uns unsere Enkel laut offizieller Klimalehre bestaunen und für den bald ganz Deutschland umfassenden, nachhaltigen Klima-Kulturlandschaftsumbau loben.

Sind wir nicht irgendwie verrückt geworden?

Zu den folgenden Bildern: Die Bilder mit Windrädern sind original. Bei den „vorher“-Ansichten wurden die Windräder wegretuschiert!

Bild 24: Naturnahe Landschaft vorher

Bild 25: Gleiche Landschaft zum Kampf gegen den Klimawandel hochgerüstet

Bild 26: Naturnahe Landschaft vorher

Bild 27: Gleiche Landschaft zum Kampf gegen den Klimawandel hochgerüstet

Bild 28: Naturnahe Landschaft vorher

Bild 29: Gleiche Landschaft zum Kampf gegen den Klimawandel hochgerüstet

Bild 30: Naturnahe Landschaft vorher

Bild 31: Gleiche Landschaft zum Kampf gegen den Klimawandel hochgerüstet

Quellen

[1] 07.07.15 Artikel: Hendricks inspiziert den Gipfel des Klimawandels

http://www.welt.de/politik/deutschland/article143706476/Hendricks-inspiziert-den-Gipfel-des-Klimawandels.html

[2] Aus dem entsprechenden Artikel in „meiner“ Lokalzeitung.

[3] Umweltbundesamt: Klimamonitoringbericht 2015

[4] Hanspeter Holzhauser . Ein Gelübde im Wandel der Zeit.

http://www.myswissalps.ch/story/615

[5] Hanspeter Holzhauser . Als man barhaupt den Grossen Aletschgletscher bannen wollte.

http://www.myswissalps.ch/story/615

[6] Hans Haid, Sölden. Über Gletscherbannungen, Bittgänge, scharfe Gelübde, Kinderprozessionen zum Ferner usw.

alpine space – man & environment, vol. 4: Ist es der Sindtfluss?

[7] EIKE 07.01.2010: Klimawandel und die Gletscher in den österreichischen Alpen als Zeitzeugen!

[8] DIE WELT 15.02.08: Klimaerwärmung verlängert das Leben. Eine Studie der britischen Regierung zieht positive Bilanz der sonnigeren letzten drei Jahrzehnte.

http://www.welt.de/wissenschaft/article1677009/Klimaerwaermung-verlaengert-das-Leben.html

[9] Bayerisches Staatsministerium für Umwelt und Gesundheit: Bayerische Gletscher im Klimawandel – ein Statusbericht

[10] A. Hoy: Veränderung langjähriger Temperaturreihen in Mitteleuropa und weltweit.

[11] Klaus-Eckart Puls und Sebastian Lüning 17. März 2013: Alles nur Schall und Rauch? Der Wasserdampf-Verstärker als Achillesferse in der Klimamodellierung

[12] E. Richter (Graz):Geschichte der Schwankungen der Alpengletscher.

[13] M. Zemp et al. Jahrbuch Oekologie08_2007: Europäische Alpen bald ohne Gletscher?

[14] Bayerische Akademie der Wissenschaften. Markus Weber: Der „Magersucht“ eines Alpengletschers auf der Spur.

[15] alpine_space_vol6. Roland Psenner at al: Klimawandel in Österreich. Die letzten 20.000Jahren …und ein Blick voraus

[16] Wissenschaftliche Mitteilungen aus dem Nationalpark Hohe Tauern Bd. 4 (1998): 225-240 Heinz Slupetzky et al: Hinweise auf kleinere Gletscherstände der Pasterze

[17] Uba Juli 2015: Klimawandel könnte künftig mehr Hitzetote fordern. Hitzewellen erhöhen das Sterblichkeitsrisiko von Herzkranken um bis zu 15 Prozent. Das ergab eine Studie des Deutschen Wetterdienstes (DWD) für das Umweltbundesamt (UBA). http://www.dwd.de/klimawandel

[18] EIKE 30.07.2012: Die Römer kannten keine Gletscher – Studie zur Klimaerwärmung. Die Erde hat sich in den letzten 2000 Jahren abgekühlt – Studie widerlegt gängige Meinung zur Klimaerwärmung.

[19] 24.06.2015. Pasterze gibt nach tausenden von Jahren einen meterlangen Baumstamm frei.

Nationalpark Hohe Tauern und Österreichischer Alpenverein bergen mit fachlicher Unterstützung der Universität Graz einen sensationellen Gletscherfund am Fuße des Großglockners und machen ihn für wissenschaftliche Untersuchungen und in Folge für die Öffentlichkeit zugänglich.

In einer spektakulären Bergung konnte die – in zwei Teile zerbrochene – Zirbe am 24. Juni 2015 mit Hilfe eines Hubschraubers erfolgreich aus dem Gletschervorfeld der Pasterze geborgen werden. Beide Teile zusammen haben insgesamt eine Länge von 7,9 m und das stattliche Gewicht von 1.700 kg.

http://www.hohetauern.at/de/aktuelles/8-aktuelles/2575-pasterze-gibt-nach-tausenden-von-jahren-einen-meterlangen-baumstamm-frei.html

[20] Jan Esper et. al (2012): Orbital forcing of tree-ring data. Nature Climate Change, 8.7.2012, doi:10.1038/nclimate1589

Kurzbeschreibung dazu bei Redaktion Pflanzenforschung.de unter: Fossile Kiefern als Klimazeugen http://www.pflanzenforschung.de/index.php?cID=5454

[21] Uni Heidelberg, Anne Wackerbarth 25.01.2007. Präsentations-Foliensatz „Das Klima des Holozäns“

[22] EIKE 10.04.2009. Die unterschlagene historische COMNISPA-Temperaturkurve!

[23] Uni Heidelberg. Nicole Vollweiler und Augusto Mangini Blättern im Buch der Klimageschichte. Stalagmiten zeugen vom Klima der letzten Jahrtausende http://www.uni-heidelberg.de/presse/ruca/ruca07-3/klima.html

[24] Dr. U. Berner et al, Hannover: Klimawandel und CO2 aus geowissenschaftlicher Sicht

[25] 12.3.2015 beim Besuch einer Schule:

http://www.nwzonline.de/politik/die-unschuldigen-sind-die-leidtragenden_a_25,0,413070643.html

[26] Bayerisches Umweltministerium 12. April 2015. Scharf: 2015 wird Jahr des Klimas / Bayern soll klimasicher werden

[27] EIKE Blogartikel: In Deutschland kein Klimawandel in Sicht – das kann die SZ nicht auf sich sitzen lassen

[28] Energy & Environment Volume 19 No. 7 2008. Ernst-Georg Beck 2008: 50 Jahre kontinuierliche CO2- Messung auf Mauna Loa

[29] http://www.rtf-radmarathon.de/VB/pages/landschaftszerstoerung.php

[30] The European 01.06.2015. Barbara Hendricks vs. Björn Lomborg http://www.theeuropean.de/thilo-spahl/10196-streit-um-kosten-und-nutzen-deutscher-klimapolitik

[31] Bayerisches Staatsministerium für Umwelt und Verbraucherschutz. Rubrik: Klimaforschung in Bayern:

Der vom Menschen verursachte Klimawandel ist wahrscheinlich die größte Herausforderung der Menschheit. Wissenschaftler rechnen bei einem "weiter-so-wie-bisher" mit der Gefahr, dass bis 2100 ein Anstieg von 3 bis 5 Grad im Sommer und 4 bis 6 Grad im Winter in den Alpen erreicht wird. Dies hätte dramatische Auswirkungen auf das einzigartige alpine Ökosystem und seine Leistungen als Wasserspeicher, Erholungsraum und Lebensraum.

http://www.stmuv.bayern.de/umwelt/klimaschutz/forschung/index.htm

Auswirkungen des Klimawandels auf die Wirtschaft

An dem Projekt nahmen insgesamt sieben bayerische Unternehmen teil.
Die Fallstudien zeigen, dass sich für Klimaanpassungsstrategien zentrale Handlungsfelder herauskristallisieren:

● Schutz der Beschäftigten vor Hitze und Sonneneinstrahlung. Maßnahmen des vorbeugenden Arbeitsschutzes, Klimatisierungen oder neue Arbeitszeitmodelle,

[32] Bayerisches Staatsministerium für Umwelt und Verbraucherschutz 04.05.2015: PRESSEMITTEILUNG Nr. 74/15

[33] Bayerisches Staatsministerium für Umwelt und Verbraucherschutz: Bayerische Klima-Anpassungsstrategie (BayKLAS)

[34] EIKE Blogartikel: Roy W. Spencer, Ph. D. 95% aller Klimamodelle stimmen überein: Die Beobachtungen/Messungen müssen falsch sein! http://www.eike-klima-energie.eu/news-cache/95-aller-klimamodelle-stimmen-ueberein-die-beobachtungenmessungen-muessen-falsch-sein/

[35] EIKE Blogbeitrag 21.7.14: Ruhestand im Süden kann Tödlich sein. Analyse der Uba und DWD Studie zur Mortalitätserhöhung durch Klimawandel. http://www.eike-klima-energie.eu/news-cache/ruhestand-im-sueden-kann-toedlich-sein-wetterdienst-glaubt-klimawandel-toetet-alte-menschen/

[36] EIKE 01.04.2014. Kein Aprilscherz- O-Ton Umweltministerin Hendricks: "Klimawandel findet täglich statt!" http://www.eike-klima-energie.eu/climategate-anzeige/kein-aprilscherz-o-ton-umweltministerin-hendricks-klimawandel-findet-taeglich-statt/




Der Grüne Hans-Josef Fell tritt aus dem Bund für Umwelt und Naturschutz (BUND) aus, da dieser für den Naturschutz eintritt!

Fells besonderes politisches Engagement gilt der vollständigen Umstellung der konventionellen Energieerzeugung auf Erneuerbare Energien. Er ist neben dem SPD-Abgeordneten Hermann Scheer der „Vater“ des Erneuerbare-Energien-Gesetzes (EEG)(Anm. d. Redaktion: Außerdem waren noch die Grüne Michaele Husted und der SPD Mann Dietmar Schütz beteiligt). Außerdem ist er mitverantwortlich für gesetzliche Regelungen und politische Initiativen zur Förderung von Biokraftstoffen.

Im Juni veranstaltete die Bundeszentrale für politische Bildung in Berlin eine Podiumsdiskussion zur Energiewende und zum Klimawandel. Herr Fell war neben Herrn Limburg von EIKE als Diskussionsteilnehmer und selbsternannter Physiker, der selbst Messungen zum Treibhauseffekt durch CO2 vorgenommen hätte, anwesend. EIKE und Science Skeptical hatten berichtet.

In der letzten Woche kündigte Fell öffentlichkeitswirksam seine Mitgliedschaft beim BUND, da dieser seiner Meinung nach die Energiewende behindert und mehr Augenmerk auf den Naturschutz, als aus Ausbau der Erneuerbaren Energien legt. Fells Absicht: In die Öffentlichkeit gehen, um eine Diskussion über das Verhältnis von Naturschutz und dem Ausbau Erneuerbarer Energien anzustoßen. Seine Mitgliedschaft beim BUND gekündigt hat Fell deshalb am 20. Juli 2015, exakt am 40. Geburtstag des Verbandes (20. Juli 1975).

In seinem fünfseitigen Kündigungs-Schreiben übte Fell scharfe Kritik am BUND, insbesondere am Bund Naturschutz in Bayern (BN), dem bayerischen Landesverband des BUND. Der BN sei ein „starker Bremser“ und „Mitverursacher“ dafür, dass der Ausbau der Erneuerbaren in Deutschland „massiv zurückgeht“.

Der BN/ BUND nehme eine allzu kritische Haltung zu Netzausbau, Windenergie, Biogasanlagen, Solarfreiflächenanlagen und dem Ausbau bestehender Wasserkraftanlagen ein. Er nehme den Naturschutz wichtiger als den Ausbau der Erneuerbaren Energien; damit gefährde er den Atomausstieg und behindere den Klimaschutz.

Der BUND-Chef Hubert Weiger, der auch dem BN vorsteht antwortete in einem Schreiben zwei Tage später.

Die Vorwürfe Fells seien „in vielen Punkten nicht nachvollziehbar“ und „in der Sache in keiner Weise gerechtfertigt“. Der Kritik fehle „die Substanz“ und „die Kenntnis der umfangreichen Arbeit“ der Umweltorganisation, so Weiger.

Weiger schreibt:

[…] wir (bedauern), dass Du nun den BUND Naturschutz verlässt und zugleich mit Unterstellungen ungerechtfertigt öffentlich angreifst. […] Der Vorwurf, der BUND Naturschutz wäre „Mitverursacher, dass der Ausbau der Erneuerbaren Energien in Deutschland massiv zurückgeht“ ist abstrus, unverständlich und in der Sache in keiner Weise gerechtfertigt. […] In den Konfliktdiskussionen sehen wir uns zugleich als Treiber der Energiewende und als Naturschutz-Verband. […] Schutzgebiete sind jedoch keine Reserveflächen, sie müssen respektiert werden. […]

Weiger weist eindrücklich darauf hin, dass man die gleichen Ziele verfolgt, der Naturschutz aber beim Ausbau der Erneuerbaren Energien zu berücksichtigen ist. Das geht Herrn Fell gründlich gegen den Strich. Nichts darf der Energiewende im Wege stehen. Die Energiewende hat Vorrang und die Umwelt hat beim Vorhaben Energiewende hinten an zu stehen.

Auswirkungen dieser Energiewendepolitik sehen wir schon heute. Mit dem Ausbau der Erneuerbaren Energien und der Energiewende schreitet die Vermaisung und Verrapsung der Landschaften voran. Schon heute werden auf rund 1/5 der Ackerfläche Deutschlands Energiepflanzen angebaut. Intensive Monokulturen entstehen, Energiepflanzen wie Mais und Raps haben zudem eine negative Klimabilanz, die Böden und das Grundwasser werden durch Düngung und Pflanzenschutzmittel belastet, Artenarmut breitet sich aus, durch Abholzung von Knicks und Hecken, intensive Monokulturen und intensive Flächennutzung, fehlende Brachen, etc.. Landraub wird gefördert, Biolandwirten und Milchbauern wird das Land geraubt. Mit der Förderung von Biokraftstoffen wird der Ausbau von Palmöl in den Tropen gefördert und die letzten Regenwälder gerodet.

Vogelschutzgebiete und Rastgebiete gehen durch den Ausbau der Windkraft verloren. Vögel werden vergrämt und Vögel und Fledermäuse durch die Rotorblätter der Windkraftanlagen getötet. Auf See werden die Zugvögel durch die Lichter der Windkraftanlagen fehlgeleitet und sterben an Entkräftung. Schweinz-Wale werden bei der Errichtung von Offshore-Windparks geschädigt und das Weltnaturerbe Niedersächsiches Wattenmeer, welches einzigartig in der Welt ist, geschädigt. Stromtrassen, die mit dem Ausbau der Erneuerbaren Energien erforderlich werden, zerschneiden Ortschaften und belasten Mensch und Umwelt. Ein massiver Eingriff in die Umwelt.

Wasserkraftwerke behindern denn Fischzug und die Turbinen zerhäckseln Fische. Bleibt die Solarenergie. Die Solarenergie ist die teuerste Art der Energieerzeugung und die mit den größten Ausfallzeiten. Um Strom in der Nacht zu haben sind also massive Speicherkapazitäten von Nöten. Diese stehen nicht zur Verfügung und es ist auch nicht absehbar wann diese mal zur Verfügung stehen könnten. Speicherseen, die zur Speicherung des Solarstroms in Frage kommen, bedeuten aber massive Einschintte in die Umwelt. Deshalb entstehen auch immer mehr Bürgerinitiativen gegen die Errichtung von Speicherseen.

Bleibt festzuhalten, Grünen wie Herr Fell geht es nicht um den Naturschutz, sondern darum auf Teufel komm raus die Energiewende und den Atomausstieg zu vollziehen. „Klimaschutz“ und Atomausstieg ist das Ziel der Grünen, dabei steht die Natur nur im Weg. Viele Leute glauben immer noch, wenn sie grün wählen, würden sie auch den Naturschutz fördern. Es ist aber genau anders herum.

Quellen: Wikipedia, klimaretter, EIKE

Übernommen von Science Sceptical




Meeresspiegel in Südbrasilien und Uruguay in den letzten 6000 Jahren um mehrere Meter gefallen

USA

Während der vergangenen Monate erschienen zwei Arbeiten zur USA, die sowohl die West- als auch Ostküste zum Thema hatten. Im März 2015 veröffentlichten Thomas Wahl und Don Chambers im Fachblatt Journal of Geophysical Research eine Studie, in der die Autoren sechs Meeresbereiche um die USA identifizieren, die sich durch jeweils gemeinsame Muster in der natürlichen Variabilität der Meeresspiegelentwicklung auszeichnen. Ein verbessertes Verständnis dieser Bewegungsmuster ist unerlässlich, um natürliche von anthropogenen Anteilen des Meeresspiegelanstiegs zu differenzieren. Hier der Abstract:

Beweise für eine multidekadische Variabilität in den Extrem-Meeresspiegel-Aufzeichnungen der USA:

Wir analysieren einen Datensatz von 20 Tidenmessungen an der gesamten zusammenhängenden US-Küstenlinie im Zeitraum von 1929 bis 2013, um langfristige Trends und multidekadische Variationen des Meeresspiegels (ESL) zu identifizieren relativ zu Änderungen der mittleren Höhe des Meeresspiegels (MSL). Verschiedene Methoden der Datensammlung und Analyseverfahren werden angewendet, um die Robustheit der Ergebnisse mit der gewählten Verfahrensweise abzuklopfen. Bedeutende, jedoch kleine langfristige Trends hinsichtlich ESL über/unter dem MSL wurden an individuellen Stellen entlang der meisten Küstenabschnitte gefunden, beschränken sich jedoch hauptsächlich auf die Südostküste und den Winter, wenn Sturmfluten hauptsächlich durch extratropische Zyklonen getrieben werden. Wir identifizieren sechs Regionen mit etwa kohärenten und merklichen multidekadischen ESL-Variationen, die keine Beziehung zu Änderungen des MSL aufweisen. Mittels einer quasi-nichtstationären Extremwert-Analyse zeigen wir, dass Letzteres Variationen verursacht hätte von design relevant return water levels [?] (50 bis 200-jährige Wiederkehr-Perioden) im Bereich etwa 10 cm bis zu 110 cm in den sechs Regionen. Die Ergebnisse werfen Fragen auf hinsichtlich der Anwendbarkeit der „MSL-Offset-Methode“ mit der Hypothese, dass ESL-Änderungen primär von Änderungen des MSL getrieben werden, ohne eigene langzeitliche Trends oder Variationen geringer Häufigkeit zuzulassen. Die Identifizierung der kohärenten multidekadischen ESL-Variabilität ist unabdingbar zum Verständnis der treibenden physikalischen Faktoren. Ultimativ muss diese Information in Baumaßnahmen an der Küste sowie Anpassungsprozesse Eingang finden.

Drei Monate später, im Juni 2015, legten Hamlington et al. ebenfalls im Journal of Geophysical Research nach und beschrieben Meeresspiegeleffekte, die auf das Wechselspiel zwischen El Nino/La Nina zurückgehen. Auch diese führen entlang der US-Küsten zu charakteristischen Meeresspiegelschwankungen. Im Folgenden die Kurzfassung der Studie:

Die Auswirkung der El Nino-Southern Oscillation auf den regionalen und küstennahen Meeresspiegel in den USA:

Obwohl sich das Interesse am zukünftigen Anstieg des Meeresspiegels auf den Zusammenhang mit der anthropogenen Erwärmung konzentriert, kann die interne Klimavariabilität in kürzeren Zeiträumen signifikant zum regionalen Zustand des Meeresspiegels beitragen. Diese Variabilität des Meeresspiegels sollte in die Überlegungen einbezogen werden, wenn es um die Planung der Bemühungen geht, die Auswirkungen eines zukünftigen Anstiegs des Meeresspiegels abzuschwächen. In dieser Studie quantifizieren wir den Beitrag der El Nino Southern Oscillation (ENSO) zum regionalen Meeresspiegel. Mittels einer zyklo-stationären empirischen orthogonalen Funktionsanalyse (CSEOF) des weit in die Vergangenheit rekonstruierten Datensatzes und eines Datensatzes mit Tidenmessungen in den USA werden zwei globale Zustände identifiziert, die von der Variabilität des Pazifiks zusammen mit ENSO dominiert werden und auch durch die Pacific Decadal Oscillation. Mittels einer Schätzung des kombinierten Beitrages dieser zwei Zustände zum regionalen Meeresspiegel kommen wir zu dem Ergebnis, dass ENSO signifikant im Kurzfristzeitraum zur Höhe des Meeresspiegels beiträgt, wobei es entlang der US-Westküste Änderungen bis zu 20 cm geben kann. CSEOF der langzeitlichen Tidenmessungen um die USA unterstreichen den Einfluss von ENSO an der US-Ostküste. Mit Tandem-Analysen sowohl der rekonstruierten als auch der gemessenen Aufzeichnungen untersuchen wir auch die Brauchbarkeit der Meeresspiegel-Rekonstruktionen für küstennahe Studien.

Florida

Im Stern konnte man am 6. Dezember 2014 eine unterhaltsame vorweihnachtliche Reportage aus Miami von Norbert Höfler lesen:

Klimawandel in Miami: Täglich verlassen die Kakerlaken die sinkende Stadt
Irgendwann wird das Meer Miami gefressen haben. Schon jetzt sind die ersten Vorboten zu spüren. Erstaunlich, dass die Stadt dennoch boomt wie nie. Besuch in einer Stadt am Rand des Untergangs.

Gänsehaut. Eine Stadt kurz vor dem Exitus. Party auf der Titanic kurz vor dem Untergang. Zum Glück gibt es Visionäre, die schon Ideen für den Tag X haben. Waterworld lässt grüßen. Wir lesen im Stern:

Raymond Romero, der Fischer aus Miami Beach, hat viel über den Klimawandel und die Veränderungen in den Ozeanen gehört. Das Eis an den Polen schmilzt, und die Temperatur in den Meeren zieht an. Wärmeres Wasser braucht mehr Platz als kaltes. Der Meeresspiegel steigt. Romero macht schon Notfallpläne. “Ich fülle den unteren Stock des Hauses mit Sand und Beton und baue ein neues obendrauf.” Ein Haus auf dem Haus. Wenn das alle so wie er machen würden, glaubt er, könnte eine neue Stadt auf der alten Stadt entstehen. Ob das zu bezahlen ist? Romero zuckt mit den Schultern und sagt: “Entweder Miami ersäuft und wird zur Geisterstadt – oder zum teuersten Pflaster der Welt.” Die meisten Bewohner der Millionenmetropole wissen, dass ihre Stadt ein Opfer des steigenden Meeresspiegels werden wird. Es ist keine Frage mehr, ob es passiert. Ungewiss ist nur noch, wann die Wassermassen einen Großteil Floridas unbewohnbar machen. Ob schon in 20 Jahren, in 50 oder in 100 Jahren. Forscher warnen: Miami wird zur Hochwasserruine.

Es ist richtig, dass Miami heute nur knapp über dem Meeresspiegel liegt. Deshalb jedoch vor einem moderaten Meeresspiegelanstieg von 30 cm pro Jahrhundert in Panik zu geraten wäre sicher falsch. Gerade eine reiche Stadt wie Miami wird sicher die Mittel aufbringen können, um sich vor dem Wasser zu schützen. Man erinnere sich an die Niederlande. Dort liegt etwa ein Viertel der gesamten Landesfläche unterhalb des Meeresspiegels, geschützt von umfangreichen Deichsystemen. Unmöglich in Miami?

Alaska

Vom warmen Miami geht es nun nach Alaska. Von dort berichteten Briggs und Kollegen im April 2014 in den Geophysical Research Letters über einen Sintflut-Retter, über den die Bewohner Miamis sicher neidisch sind: Aufgrund von tektonischen Prozessen wurde die Küste von Sitkinak Island im Kodiak Archipel mehrfach vor der Überflutung bewahrt und nach oben gedrückt. Die Mitgliederzeitschrift der American Geophysical Union „Eos“ schreibt über die Studie:

Im Laufe der letzten 2300 Jahre hat sich die Sitkinak-Insel im Kodiak-Archipel wiederholt über den Meeresspiegel erhoben und ist wieder versunken, wenn der Alaska-Aleuten-Grabenbruch unter der Inselgruppe weiter aufreißt. Mittels einer Vielfalt von Beobachtungsverfahren haben Briggs et al. die sich ändernde Meereshöhe von Sitkinak zurückverfolgt. Bei diesem Prozess wurde eine zuvor nicht erforschte Historie des Grabenbruchs bekannt.

Brasilien

Auf nach Südamerika. Im brasilianischen Bundestaat Rio de Janeiro hat der Meeresspiegel eine ganz und gar verrückte Entwicklung genommen. Vor 5000 Jahren lag der Meeresspiegel noch 5 m über dem heutigen Niveau. In den folgenden Jahrtausenden fiel er in mehreren Etappen und erreichte heute das aktuelle Niveau (Abbildung 1). Die entsprechende Arbeit eines Teams um Alberto Figueiredo Jr. erschien im Dezember 2014 in Palaeo3. Hier der Abstract:

Gekoppelte Variationen von Akkumulationsraten in Sedimenten und des Meeresspiegels in der Guanabara-Bucht in Brasilien während der letzten 6000 Jahre:

Variable Sediment-Akkumulationsraten in Bohrkernen aus der Guanabara-Bucht zeigen, dass das Auffüllen der Bucht vor 6000 Jahren begonnen hat und dass diese Auffüllung nicht gleichmäßig vonstatten gegangen war. Der Vergleich dieser unterschiedlichen Sediment-Akkumulatiosraten und der Meeresspiegel-Fluktuationen während der letzten 5500 Jahre zeigt bezüglich dieses Vorgangs eine lineare Regression. Das Absinken des Meeresspiegels im Zeitraum zwischen vor 5500 und 5000 Jahren zum Beispiel korrespondiert mit höheren Akkumulationsraten im Zeitraum zwischen vor 5130 und 4350 Jahren. Zu dieser Zeit sank der Meeresspiegel von 5 m auf 2 m über dem heutigen Niveau. Das führte zu einem Absinken der Wellenbasis und als Konsequenz zu einer Sedimentverlagerung in die tieferen Regionen der Guanabara-Bucht. Zwischen etwa vor 4350 und 2000-1800 Jahren war der Meeresspiegel stabil mit einer daraus resultierenden Reduktion der Akkumulationsrate. Von dieser Zeit an bis vor etwa 500 Jahren stiegen die Akkumulationsraten wieder, weil ein weiterer Rückgang des Meeresspiegels von 2 m über auf das heutige Niveau stattfand. Die Rate dieses zweiten Absinkens des Meeresspiegels war nicht so hoch wie beim ersten Mal, das gilt auch für die Zunahme der Akkumulationsrate. Obwohl die Radiokarbon-Methode der Datierung eine dramatische Reduktion der Akkumulationsraten zwischen vor 4000 bis 2000 Jahren zeigt, ergeben sich aus Schätzungen der letzten 150 Jahre mit 210Pb eine progressive Zunahme der Akkumulationsraten trotz der vermuteten Stabilität und vielleicht sogar einer geringen Anhebung des modernen Meeresspiegel-Niveaus während der letzten 150 Jahre, was sich aus Tidenmessungen ergibt. Akkumulationsraten steigen von 0,14 cm/Jahr auf 0,49 cm/Jahr im Zeitraum 1922 bis 1951 und erreichen 0,60 cm/Jahr von 1963 bis 1993. Während der letzten fünf Jahre verdoppeln sich die Akkumulationsraten von 0,60 cm/Jahr auf 1,25 cm/Jahr. Diese höheren Akkumulationsraten während eines stabilen oder steigenden Meeresspiegels gehen wahrscheinlich zurück auf zunehmende Entwaldung, Ausweitung von Ackerbau, ausgebaggerten Kanälen und zunehmender Versiegelung durch Straßenbau.

Abbildung 1: Meeresspiegelentwicklung im brasilianischen Bundestaat Rio de Janeiro während der vergangenen 6000 Jahre (gestrichelte Kurve). Karos mit Kreuz markieren Meeresspiegelpunkte. Quelle: Figueiredo Jr. Et al. 2014.

Abschließend noch ein Stückchen weiter nach Süden, nach Uruguay. Von dort berichteten Sergio Martinez und Alejandra Rojas im März 2013 ebenfalls Palaeo3 eine weit zurückreichende Meeresspiegelrekonstruktion. Vor 6000 Jahre lag der Meeresspiegel noch deutlich über dem heutigen Niveau und nahm in der Folgezeit bis auf den heutigen Wert ab. Hier die Kurzfassung:

Relativer Meeresspiegel während des Holozäns in Uruguay

Ein Graph des relativen Meeresspiegels während des Holozäns in Uruguay wurde auf der Grundlage von Sturmablagerungen am Strand konstruiert. Der Fehlerbereich war zu groß, um kleine aber signifikante Oszillationen zu erfassen, aber die Anzahl der Punkte und die Koinzidenz unserer Daten mit den Daten aus der Literatur zeigen, dass der Meeresspiegel in Uruguay vor etwa 6000 Jahren über dem heutigen Niveau lag und seitdem gesunken ist. Das nicht parametrisierte Glättungsverfahren zeigt eher eine glatte Kurve des Absinkens des Meeresspiegels, ähnlich der vor der Küste Brasiliens (unterschiedliche Neigung).

Eine Gruppe um Roberto Bracco präzisierte 2014 diese Angaben und geht von einem Meeresspiegelstand vor 6000 Jahren aus, der 4m über dem heutigen Wert lag. Vor 4700 Jahren sank der Meeresspiegel dann innerhalb von einem halben Jahrtausend um einen Meter ab. In der Folgezeit reduzierte sich der Meeresspiegel dann in konstanter Weise um weitere 3 m.

Abbildung 2: Meeresspiegelentwicklung in Uruguay während der vergangenen 7000 Jahre. Quelle: Bracco et al. 2014.

Einen langandauernden Meeresspiegelabfall aus Uruguay beschrieben im März 2015 auch Dominique Mourelle und Kollegen in einem weiteren Palaeo3-Artikel. Hier der Abstract:

Multiproxy-Analyse von Umweltveränderungen während des mittleren und späten Holozäns in Verbindung mit Meeresspiegel-Fluktuationen und Klimavariabilität im Mündungsagebiet des Rio de la Plata:

In dieser Studie haben wir Pollen, Kieselalgen und Andere für palynomorphe Analysen herangezogen aus einer Sedimentschicht aus dem Marschland von Arroyo Solis Grande an der Nordostküste des Rio de la Plata (Uruguay). Die Ergebnisse haben wir verglichen mit einem Regionalmodell der Beziehung zwischen Pollen und Vegetation in den küstennahen atlantischen Salzmarschen (30°S bis 37°S). Die Ergebnisse zeigen, dass sich die Vegetation in Salzmarschen im Mündungsbereich zwischen vor 8000 und 5100 Jahren entwickelt hatte, als der Meeresspiegel stieg und den Höchststand während des Holozäns erreicht hatte. Brackwassergebiete rund um das Mündungsgebiet reflektieren den Rückgang des Meeresspiegel-Niveaus zum Ende des Holozäns zwischen vor 5100 und 2900 Jahren, verbunden mit einem gesteigerten Zufluss von Süßwasser. Brackwassergebiete und kleine Salzseen zwischen vor 2900 und 1000 Jahren stehen höchstwahrscheinlich mit der Bildung des Deltas des Parana-Flusses in Zusammenhang sowie mit einem weiteren Absinken des Meeresspiegels. Die heutigen Salzmarschen hinter den Sanddünen charakterisieren die letzten 1000 Jahre. Die Integration unserer Ergebnisse mit den Multiproxy-Aufzeichnungen von der südlichen Küste des Rio de la Plata-Mündungsgebietes (Argentinien) und von der Küstenebene des Anteils am Südatlantik von Südamerika (30°S bis 37°S) zeigen, dass der maritime Einfluss während des Meeresspiegel-Höchststandes zur Entwicklung einer Vegetation führte ähnlich der der geographischen Region. Allerdings kam es nach vor etwa 3000 Jahren zu lokalen Unterschieden in Zusammenhang mit unterschiedlichem Klima und unterschiedlicher Geomorphologie in jedem Gebiet. Dies führte zur Etablierung unterschiedlicher heutiger Pflanzengemeinschaften zu verschiedenen Zeiten zum Ende des Holozäns.

Link: http://www.kaltesonne.de/28025/

Beitrag zuerst erschienen im Blog „Die Kalte Sonne“. Übersetzung der englischen Abschnitte von Chris Frey EIKE




Hurra! Windparks erzeugen umwerfende EIN PROZENT DER EU-ENERGIE!

Wir hier im Bereich Energie beim Register haben dies erst diese Woche wieder vor Augen geführt bekommen durch eine quietschvergnügte Presseerklärung, die uns gerade vor ein paar Tagen auf den Schreibtisch geflattert war. In ihr wurde behauptet, dass „Windenergie den Strombedarf von Europa zu 8 Prozent deckt“.

Mann, schon hatten wir fast gedacht, endlich geht das voran. Also haben wir mal nachgebohrt. Die Zahl acht Prozent stammt vom jüngsten Wind Status Report (pdf) des EU Joint Research Centre, und wie man erwarten konnte, wird darin behauptet, dass all jene massiven Windparks nicht weniger als 238 Terrawattstunden der im vorigen Jahr in der EU verbrauchten Strommenge von 2942 Terrawattstunden erzeugt hatten.

Das sind sicher acht Prozent – und das würde eine merkliche Lücke in den EU-Kohlenstoff-Emissionen hinterlassen, vielleicht sogar eine, die es einen Versuch als wert erscheinen lässt, eine Energiepreis-Fußfessel um die Wurzeln der europäischen Ökonomien zu legen.

Außer dass es diesen Versuch natürlich nicht wert ist. Wie in den meisten entwickelten Ländern verbrauchen die EU-Nationen den Großteil ihrer Energie in nicht elektrischer Gestalt: Wir verbrennen Treibstoffe im Transportwesen, zum Heizen und Kochen sowie zur Heißwasserbereitung, um unsere Industrie mit Energie zu versorgen. Und dies macht den größten Teil unserer Energieversorgung und unserer Kohlenstoffemissionen aus.

Den jüngsten Zahlen zufolge verbraucht die EU tatsächlich etwa 1666 Millionen Tonnen öl-äquivalente Energie aus allen Quellen in jedem Jahr, das sind 20.170 TWh. Windstrom hat daran einen Anteil von gerade mal etwas über einem Prozent (hier). Solar? Noch einmal davon die Hälfte, insgesamt also ein Beitrag von 1,5 Prozent und einer in etwa damit korrespondierenden CO2-Reduktion.

Die große Mehrheit der von der EU behaupteten Zahl bzgl. „Erneuerbarer Energie“ wird durch optimistische Bewertungen von Biomasse und Erneuerbarem-Abfall erzeugt, von dem Vieles im besten Falle höchstens zweifelhaft als erneuerbar gewertet werden kann. Selbst auf die ordentlichen Stromzahlen bzgl. Erneuerbarer kann man sich nicht verlassen, besonders in Süditalien, wo – wie dort weithin bekannt – die Mafia schwer in diesem Industriezweig involviert ist.

Die Erneuerbaren kratzen trotz ihrer horrenden Kosten nicht einmal an der Oberfläche des Energiebedarfs einer modernen Zivilisation in der realen Welt.

Link: http://www.thegwpf.com/hurrah-windfarms-produce-whopping-one-per-cent-of-eu-energy/

Übersetzt von Chris Frey EIKE




2015: Dritter deutlich zu warmer Juli in Folge- (K)ein Menetekel des „Klimawandels“?

Bild rechts: Sommer- Landschaft zwischen Weimar und Erfurt Anfang Juli: Wärme und Sonne gab es im Juli 2015 reichlich, aber nicht durchgängig. Foto: Stefan Kämpfe

Die Aussage, der Juli sei „immer wärmer geworden“ erweist sich aus statistischer Sicht als problematisch. Seit mehr als 25 Jahren wurde er zwar in Deutschland noch etwas wärmer, aber in Zentralengland schon etwas kühler (Abb. 1):

Abb. 1: Wirkte CO2 in Zentralengland etwa kühlend? Dort sanken die Juli- Werte leicht- in Deutschland stiegen sie ein wenig. Die wahren Ursachen dieser insgesamt stagnierenden Temperaturen lassen sich mit der wachsenden CO2- Konzentration nicht erklären.

Weil die CO2- Konzentration im selben Zeitraum um etwa 47ppm und damit wesentlich gestiegen ist, scheidet sie als Hauptursache für die Temperaturentwicklung im Juli aus. Wenden wir uns also plausibleren Ursachen zu.

Höhere Sonnenscheindauer, höhere Sonnenaktivität, eine Häufung wärmerer Großwetterlagen und die AMO

Seit gut 20 Jahren steigen trotz stark zunehmender CO2- Konzentrationen die Juli- Temperaturen in Deutschland nur noch wenig. Diese leichte Erwärmung war unter anderem eine Folge der ebenfalls leicht zunehmenden Sonnenscheindauer. In Zentralengland, wo die Julitemperaturen leicht gesunken sind, nahm auch die Sonnenscheindauer leicht ab. Hier sind nur die Verhältnisse für Deutschland dargestellt:

Abb. 2: Fast völliger Gleichklang von Juli- Temperaturen und Sonnenscheindauer. Der bislang heißeste Juli in Deutschland (2006) wies auch die meisten Sonnenstunden auf. Sehr sonnig waren auch die anderen warmen Juli- Monate 1994,1995, 1999, 2001, 2010 und 2013. Der kälteste Juli seit 1994 (2000) war auch der sonnenscheinärmste; auch der zweitkälteste Juli (2011) verlief sehr trüb. Die stark steigenden CO2- Werte (oberste, grüne Linie) hatten offenbar keinen wesentlichen Einfluss auf die Juli- Temperaturen.

In zahlreichen Arbeiten, unter anderem von H. MALBERG (ehemaliger Direktor des Meteorolog. Instituts der FU Berlin) und VAHRENHOLT/LÜNING (Autoren des Buches „Die Kalte Sonne- warum der Klimawandel nicht stattfindet“) wurde der dominante Einfluss der Sonnenaktivität auf das Temperaturverhalten bewiesen. Unsere dritte Grafik zeigt den langfristigen Einfluss der Sonnenaktivität auf die Juli- Temperaturen. Während die Häufigkeit der Sonnenflecken, welche ein grobes Maß für die Sonnenaktivität darstellen, seit der Mitte des 18. Jahrhunderts lückenlos beobachtet wurde, liegen Temperaturmessungen für Deutschland erst seit 1761 vor. Vertrauenswürdiger sind die Daten der sogenannten „CET- Reihe“ aus Mittelengland, die deshalb mit dargestellt wurde. Weil die Sonnenaktivität vor allem langfristig und mit Verzögerungen auf das Klimageschehen einwirkt, wurden 31ig- jährige Gleitmittel gebildet. Die Reihen beginnen also 1791 (Mittelwert aus 1761 bis 1791) und enden 2014 (Mittelwert aus 1984 bis 2014). Den Gleitmitteln wurden Polynome zweiten Grades angepasst, um den langfristigen Trend zu verdeutlichen:

Abb. 3: Mit einer zeitlichen Verzögerung von wenigen Jahrzehnten folgen die Juli- Temperaturtrends sowohl in Deutschland (oben) als auch in Zentralengland (Mitte) der Sonnenaktivität (unten). Der tendenziell bis nach 1850 abnehmenden Sonnenaktivität folgte besonders in Zentralengland eine leichte Abkühlung; ab der Mitte des 20. Jahrhunderts stiegen zuerst die Sonnenaktivität und danach auch die Juli- Temperaturen.

Der knapp 210- jährige DE VRIES- SUESS- Hauptsonnenzyklus kulminierte um 1795 und erneut 2003, was mit wärmeren Temperaturen einherging. Mit dem Ende des 23. SCHWABE- Zyklus der Sonnenaktivität in den späten 2000er Jahren scheint die Sonne nun wieder in eine Phase sehr geringer Aktivität einzutreten. Das erklärt die weltweite (auch in Deutschland zu beobachtende) Stagnation der Lufttemperaturen (Jahresmittel). Alle Astrophysiker sagen eine für die nächsten Jahrzehnte sehr geringe Sonnenaktivität vorher. Der aktuelle SCHWABE- Zyklus ist einer der schwächsten seit etwa 200 Jahren; möglicherweise fällt der kommende Zyklus 25 fast ganz aus:

Abb. 4: Die Sonnenaktivität im Rhythmus des etwa 11jährigen SCHWABE- Zyklus. Man erkennt die besonders hohen Maxima ab der Mitte des 20. Jahrhunderts. Der letzte Zyklus Nr. 24 verlief deutlich schwächer, und der kommende Zyklus 25 (rechts am Bildrand, roter Pfeil) könnte extrem schwach verlaufen oder gänzlich ausfallen.

Im Gegensatz zum PIK und dem IPCC, welche behaupten, das Klima für 80 bis 100 Jahre vorhersagen zu können, sind wir zurückhaltender. Wegen der sehr komplexen, unzureichend erforschten Wechselwirkungen trauen wir uns keine Prognose zu. Bezieht man aber den erheblichen Einfluss der Sonnenaktivität und das darauf verzögert reagierende Temperaturverhalten in die Betrachtungen mit ein, so erscheinen eine moderate Abkühlung oder zumindest eine längerfristige Stagnation der Temperaturen im Bereich des sehr Wahrscheinlichen zu liegen. Die gegenwärtig noch oft warmen Juli- Monate sind im Wesentlichen eine Folge der nachwirkenden hohen Sonnenaktivität des späten 20. Jahrhunderts.

Bei einer Betrachtung des Temperaturverlaufs im Juli 2015 fallen sofort die starken Temperaturschwankungen ins Auge. Einer markanten Hitzewelle mit weit über 30°C kurz nach dem Monatsanfang folgte bis zum 9. Juli ein Temperatursturz auf frühherbstliche 17°C. An besonders kalten Orten in Deutschland wurden in der Nacht zum 10.Juli sogar 0°C mit Raureifbildung beobachtet, was nun so gar nicht zur angeblichen „Erwärmungswirkung“ des CO2 passt: http://wetterkanal.kachelmannwetter.com/video-10-juli-2015-hitze-weg-frost-in-der-eifel/

Abb. 5 (Quelle Wetteronline.de): Verlauf der Maximum- Temperaturen in Erfurt vom 23. Juni bis zum 21. Juli. Neben der Sonnenscheindauer (trübe Tage sind meist sehr kühl) bestimmt vor allem die je nach Großwetterlage herangeführte Luftmasse die Temperaturen. Bis nach dem kalendarischen Sommeranfang herrschte noch kaltes Nordwestwetter mit Maxima von 12 bis 15 Grad; dann begann eine zögernde Erwärmung. Um den 04. Juli gelangte auf der Vorderseite eines Tiefs heiße Luft weit aus dem Süden, vom 08. bis zum 10. hingegen auf der Tiefrückseite sehr kühle Luft aus Nordwesten nach Deutschland. Wegen der kräftigen Temperaturschwankungen wurde dieser bisherige Sommer bei wetteronline auch als „Schaukelsommer“ bezeichnet.

Im Juli 2015 zogen häufig Tiefdruckgebiete nach Großbritannien und dann weiter nordostwärts. Dabei gelangte Meereskaltluft zuerst nach England, während Deutschland auf der Vorderseite des Tiefs noch für längere Zeit in einer sehr warmen Süd- bis Südwestströmung lag, doch mit dem Abzug des Tiefs nach Skandinavien kam die kühle Meeresluft auch in Mitteleuropa an:

Abb. 6 (Quelle Wetteronline.de): Wenn ein Tief zunächst zu den Britischen Inseln zieht, kommt die kühle Meeresluft schon in England an, während Deutschland noch von Warmluft profitiert. Oft zieht das Tief aber nordostwärts weiter; dann gelangt die Kaltluft zumindest vorübergehend auch nach Mitteleuropa. Die Häufung dieser und ähnlicher Großwetterlagen erklärt auch, warum der Juli seit gut 25 Jahren in England etwas kühler, in Deutschland aber etwas wärmer wurde.

Diese und ähnliche Großwetterlagen häufen sich seit einigen Jahrzehnten; auch 2013 und 2014 fehlten sie nicht. Der Juli 2013 verlief zu trocken, weil anfangs ein Hoch über den Britischen Inseln und dem Nordmeer mit trockener Luft und viel erwärmendem Sonnenschein dominierte; erst später trat dann eine Südlage auf. 2014 hinterließen langsam aus Südwest heranziehende Tiefs in Mittel- und Süddeutschland enorme Regenmengen, weil ihnen ein blockierendes Hoch über Nordeuropa den raschen Abzug verwehrte, während sie 2015 rasch nach Skandinavien zogen und so einen sehr wechselhaften, aber weniger nassen Monatscharakter verursachten. Die Häufigkeitsverteilung der Großwetterlagen äußert sich also im Verlauf der Lufttemperaturen und auch in der Länge der Sonnenscheindauer. Die Großwetterlagen nach HESS/BREZOWSKY lassen sich bis 1881 zurückverfolgen. Seit dieser Zeit stieg im Juli die Häufigkeit erwärmend wirkender Wetterlagen (das sind solche mit einem südlichen Strömungsanteil, darunter das Tief Britische Inseln, dazu alle Lagen mit Hochdruckgebieten über Skandinavien sowie alle Zentralhochlagen einschließlich der Hochdruckbrücken) deutlich:

Abb. 7: Seit 1881 nahm die Häufigkeit erwärmend wirkender Großwetterlagen (untere, rosa Linien) im Juli tendenziell deutlich zu, was auch das Deutschland- Mittel der Julitemperaturen positiv beeinflusste (oben, rotbraun).

Und was könnte die Häufigkeitszunahme der erwärmend wirkenden Großwetterlagen im Juli verursacht haben? Eine Erklärung ist die sogenannte AMO (Atlantische Mehrzehnjährige Oszillation), eine Wassertemperaturschwankung im zentralen Nordatlantik, die alle 50 bis 80 Jahre ein Maximum aufweist. Das letzte Maximum der AMO begann 1995 und dürfte in Kürze enden. Bei höheren Wassertemperaturen ändern sich wahrscheinlich die Luftströmungen, es gibt dann mehr meridionale, darunter besonders mehr südliche Lagen, während zonale Lagen (Westlagen, die im Hochsommer eher kühl ausfallen) seltener auftreten. Mit dem baldigen Ende der AMO- Warmphase dürften die westlichen Lagen aber wieder häufiger auftreten und den Temperaturanstieg im Juli endgültig beenden. Die AMO wird vermutlich auch von der Sonnenaktivität beeinflusst, hier besteht noch erheblicher Forschungsbedarf. Den Zusammenhang zwischen AMO und der Häufigkeit der erwärmend wirkenden Großwetterlagen veranschaulicht die Abbildung 8:

Abb. 8: Mit steigenden AMO- Werten (Wassertemperaturen des zentralen Nordatlantik) nahm im Juli auch die Häufigkeit erwärmend wirkender Großwetterlagen zu.

Wärmeinseleffekte als weitere mögliche langfristige Juli- Erwärmungsursachen, der Juli 2015- kein Rekordmonat, und das Temperaturverhalten des gesamten Sommers sowie der Monate Juni und August- ein Menetekel der Abkühlung?

Auf den nicht nur die größeren Städte und Siedlungen betreffenden Wärmeinseleffekt gingen wir in zahlreichen früheren Arbeiten näher ein und erwähnen ihn nur der Vollständigkeit halber. Viele Messstationen liegen am Rande oder gar inmitten von Siedlungen. Auch die freie Landschaft wurde durch das dichter werdende Straßennetz, Flughäfen, Zersiedlung, Entwässerungsmaßnahmen, die Massentierhaltung und neuerdings durch die ausufernden Solar-, Windkraft- und Biogasanlagen nachhaltig in Richtung einer Erwärmung verändert. Ein gewisser, schwer zu quantifizierender Anteil der langfristigen Juli- Erwärmung ist daher auch diesen WI- Effekten zuzuschreiben. Interessanterweise zeigt der Juli als einziger Sommermonat in Deutschland (noch) einen leichten Erwärmungstrend. Sowohl in Deutschland als auch in Zentralengland stagnieren die Sommertemperaturen nun schon seit mehr als 25 Jahren; die geringen Unterschiede der Trends sind nicht signifikant (unwesentlich):

Abb. 9: Seit 26 Jahren haben sich die Sommertemperaturen sowohl in Deutschland als auch in England kaum verändert.

Die langfristige Häufigkeitsentwicklung zweier gegensätzlicher Strömungsrichtungen, der Großwetterlagen mit Süd- und Nordanteil (Daten mit gewissem Unsicherheitsfaktor bis 1871 vorliegend) zeigt eine markante Zunahme der südlichen Lagen besonders im Sommer, während nördliche Großwetterlagen viel seltener wurden (den 11- jährigen Gleitmitteln wurden Polynome sechsten Grades angepasst; zum Vergleich sind die anderen Jahreszeiten mit dargestellt; die Trendlinie des Sommers wurde fett hervorgehoben):

Abb. 10 und 11: Im Sommer nahm die Häufigkeit südlicher Lagen (obere Abb.) besonders zu, die der (normalerweise) viel sommertypischeren nördlichen Lagen hingegen ab (untere Abb.). Nur der Winter blieb ohne Zunahme südlicher Strömungen; dafür wurden in der kalten Jahreszeit nördliche Strömungen häufiger- eine wesentliche Ursache, warum sich der Winter in Deutschland während der vergangenen fast 30 Jahre leicht abkühlt.

Der bislang sehr wechselhafte Sommer 2015 setzte den aktuellen Trend zu unbeständigen, von Tiefdruckgebieten dominierten Sommern nahtlos fort. Am Barometer war speziell im Juli ein meist deutlich unternormaler Luftdruck bei starken Schwankungen festzustellen. Seit den frühen 1990er Jahren nahm die Zahl der Tage mit Hochdruckeinfluss im Sommer markant ab:

Abb. 12: Seit etwa 20 Jahren „stürzt“ die Häufigkeit der von Hochdruckgebieten beeinflussten (antizyklonalen) Großwetterlagen im Sommer regelrecht ab. Während von den 1880er bis zu den 1980er Jahren bei leicht abnehmender Tendenz meist an etwa 40 bis 55 Tagen antizyklonale Bedingungen in Mitteleuropa herrschten, sind es momentan mit 20 bis 25 Tagen nur noch halb so viele!

Abschließend zeigen wir unter Einbeziehung der deutschen Juni- und Augusttemperaturen, dass es gegenwärtig auch Monate mit mehr oder weniger deutlichen Abkühlungstrends gibt. Unter Gegenwart verstehen wir die Jahre seit dem Erwärmungsstopp kurz vor der Jahrtausendwende:

Abb. 13: Abkühlung im Juni. Auch der Juni 2015 ordnete sich entlang der fallenden Trendlinie ein. Der Juni wird kälter, der Juli wärmer und der August wieder kälter, also 2 zu 1 für die Kälte. Genau das zeigen auch die Sommertemperaturen seit 1998.

Der Juli 2015 erreichte ein vorläufiges Deutschland- Mittel von um die 19,5°C (endgültige Werte lagen zu Redaktionsschluss noch nicht vor, sie werden aber um höchstens 1 bis 3 Zehntelgrad davon abweichen). Damit wurden die Werte der bislang wärmsten Juli- Monate (2006 22,0°C, 1994 21,3°C, 1983 20,4°C, 2010 20,3°C und 1995 20,1°C) deutlich verfehlt. Dieser Juli fiel besonders in Süddeutschland markant zu warm aus; im Norden wurden nur Abweichungen um +1 bis +2,5 Kelvin beobachtet- also genau die umgekehrten Verhältnisse zum Juli 2014.

Abb.14: Der Juli 2015 passt sich nahtlos dem Julierwärmungstrend vor allem in Süddeutschland an. Alle Temperaturangaben sind Originaldaten des Deutschen Wetterdienstes (2015 reichlich geschätzt) und nicht wärmeinselbereinigt.

Bei einer Wärmeinselbereinigung wäre der Juli- Trend weniger steigend, der des Juni und August deutlicher fallend. Der weiter zunehmende Wärmeinseleffekt in Deutschland – täglich werden bei uns 1,1 km² überbaut- führt zur Abbremsung der Abkühlung an den Messstationen. Jeden Tag werden Straßen neu gebaut, sie sind Wärmebänder, also Heizkörper in der Landschaft, aber noch mehr in den bebauten Gebieten, weil sie die Frischluftschneisen aufwärmen. Die schwarzen Asphaltbänder ziehen sich mit 40°C durch die Landschaft, während nebenan in der Wiese durchaus 24°C gemessen werden, wenn das Gras noch grün ist und die Fotosynthese läuft, dann hält die Verdunstungskälte den Naturboden noch kühl.

Der August: Oft verfrühter Herbstbeginn.

Selbst wenn der August 2015 relativ warm ausfallen sollte, so wird er den vor fast 30 Jahren begonnenen und in der Gegenwart verstärkten Abkühlungstrend nicht umkehren können. Die letzten Augusttage leiten meistens schon zum Frühherbst mit nächtlichen Nebelbildungen in den feuchten Tälern über. Beim Laub der Bäume setzt bereits die erste Gelbfärbung ein.

Abb. 15: Der August verläuft genau gegensätzlich zum Monat Juli und zeigt seit 18 Jahren eine deutlich fallende Trendlinie. Insgesamt führte diese Entwicklung zu einem leicht verfrühten Herbstbeginn in Deutschland. Das ist das Gegenteil der Behauptungen der Computermodelle- die Realität widerlegt die Erwärmungstheorie.

Die Ergebnisse sind auch ohne Wärmeinselbereinigung eindeutig: Die angenehme Erwärmung der letzten zwei Jahrzehnte vor der Jahrtausendwende ist beendet. Seit 1998 kühlt Deutschland wieder ab. Nur der Juli macht (noch) eine angenehme Ausnahme.

Trotz steigender CO2- Konzentrationen zeigen die offiziellen DWD- Daten in zwei von drei Sommermonaten seit den späten 1990er Jahren Abkühlungstrends; man achte auf die eingeblendete CO2- Kurve in Abb. 15! Das CO2 hat keinen wesentlichen Klimaeinfluss. Das komplizierte Zusammenspiel von Sonnenaktivität, AMO, Großwetterlagen und Sonnenscheindauer bestimmt im Wesentlichen die sommerliche Temperaturentwicklung, überlagert von WI- Effekten.

In der Gegenwart zeigen die offiziellen DWD- Daten folgendes Sommergeschehen:

  1. Der Sommer beginnt im Juni oft verspätet mit empfindlich kühlen Phasen.

  2. Im Juli folgen oft Hitzewellen bei meist sehr unbeständiger Gesamtwitterung.

  3. Der August beendet meist die Sommerhitze und geht zum Monatsende nicht selten schon in den Frühherbst über.

Aus diesen Trends lässt sich freilich nicht viel über die künftige Entwicklung der Juli- und Sommertemperaturen prognostizieren. „Vorhersagen sind schwierig- besonders wenn sie die Zukunft betreffen“- dieser Leitsatz wird von den Prognostikern des IPCC und des PIK allzu oft missachtet. Eines zeigt die gegenwärtige Entwicklung aber deutlich: Die vorhergesagte „katastrophale Erwärmung“ blieb bislang aus.

Stefan Kämpfe, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, unabhängiger Natur- und Klimaforscher




5. Juli 2015, der bisher heißeste Tag Deutschlands?

Für den Klimamarathon[1] zum Pariser Herbstgipfel muss Treibstoff her. Da kommt die DWD-Neben-Messstation in Kitzingen mit dem Hitzerekord von 40,3 °C[2] am 5.Juli. gerade recht.

Nun betrug die letzte Maximaltemperatur am 27.07.1983 in Gärmersdorf bei Amberg (Oberpfalz) bereits 40,2°C.

Der aktuelle Hitzerekord hat demnach eine Temperaturdifferenz von sagenhaften 0,1 °C (für Puristen natürlich Kelvin, da es üblich geworden ist, bleibe ich aber bei °C auch für Temperaturdifferenzen) zu den vorherigen. Dazu wurde er von einer Station ermittelt, welche so erst seit 2005 in Betrieb ist[4].

Eine solche Wetterstation hat einen Temperatur-Messfehler von +-0,2 °C [3] [6]. Damit sieht das Fehlerband wie folgt aus (leider ohne Statistik, da nirgends Vertrauensbereiche oder ähnliches zu finden sind).

Bild2 Überlappung der Fehlerbänder der zwei Temperatur-Maximalmessungen

Fazit

Bei einer solchen Fehlerband-Überlappung ist es nicht möglich  zu wissen, ob der neue Wert höher als der bisherige ist. Und das unabhängig davon, ob die Station auf theoretische 0,1 °C oder praktische 0,2°C genau messen würde. Einem Studenten würde man die Meldung deshalb  als gravierenden Fehler ankreiden.

Zudem besteht die Problematik, dass diese Station seit 2005 mit PT100 misst. Man müsste also wissen, wie weit sich die früheren maximalen Hitze-Messwerte welche teils noch mit Thermometern, mindestens mit anderen Verfahren[14]   gemessen wurden von aktuellen unterscheiden. Eine vergleichende Untersuchung eines Meteorologen hat dazu erstaunliche Differenzen ermittel, vor allem, dass die neuen Werte erheblich höher liegen [13]. Aber auch der DWD gibt in einer  Publizierung zum Datenvergleich zu[13], dass gerade die Maximaltemperaturen problematisch sind. Alleine für die Streuung wird ein Bereich von 0,19 … 0,39 °C  angegeben – also Meilen  entfernt, um eine Differenz von 0,1 °C zwischen verschiedenen Messstationen glaubhaft ermitteln zu können.

Und als ob das nicht schon alles wäre, besteht zusätzlich das Problem, dass gerade zu höheren Temperaturen hin die Messfehler durch die Haube zunehmen. Dazu ein Bild aus einem Datenblatt für komplette Temperatur-Messköpfe[5].

 

Bild3 Genauigkeit des Messkopfes Kombisensor WXT 520[5]  für Wetterstationen

Dass man beim Klimawandel – sofern das Ergebnis in Wunschrichtung ist – nach dem Motto publiziert: Bloß ganz schnell raus mit der Meldung, bevor unsere Qualitätssicherung Wind davon bekommt und sie wegen Datenmängeln verhindert, kennt man schon. Beim heißesten Jahr 2014 war es nicht anderst [9]. Notfalls kann man ja später relativieren[9] und dabei ziemlich sicher sein, dass unsere „Qualitätsmedien“ diese nicht mehr oder maximal klitzeklein publizieren.

Dem  „Qualitätsmedium“ Süddeutsche Zeitung scheint zudem etwas aufgefallen zu sein. Die um ein zehntel °C niedrigere Temperatur wurde ja bereits 1983 gemessen. Das wurde in der SZ-Publizierung[10] aber glatt „vergessen“ und stattdessen der August 2003 angegeben. 

Man konnte es den eigenen, ununterbrochen mit Klimaalarmismus „versorgten“ Lesern wohl nicht zumuten, erfahren zu müssen:

Es hat  32 Jahre gedauert, bis die Maximaltemperatur um 0,1 °C höher gemeldet werden konnte. Wo doch nach unserer stetigen und konsequenten  Berichterstattung inzwischen das CO2 die ganze Welt in den Hitzekollaps treibt und die Temperaturen stetig und exorbitant zunehmen (müssen).

Und die SZ beeindruckt das auch nicht. In der Wochenendausgabe vom 25./26.07.15 wird großformatig unter „München  Mediterran“ mal wieder Klima und Wetter vollständig durcheinander gewirbelt. Im Artikel steht zwar:

„Die Münchner Betonlandschaft heizt sich an Tagen wie diesen teilweise um zehn Grad mehr auf als im Umland“.

Aber natürlich bleibt das Klima, welches sich in 32 Jahren um 0,1 °C erhöht haben soll weiterhin der allein Schuldige. Zitat im Artikel: „Dass der Klimawandel zu weitreichenden Veränderungen .. . führen wird“.

Wer sich aber noch etwas Klima-Realismus erhalten hat, interpretiert die DWD-Meldung zum heissesten Tag Deutschlands wie folgt:

Weil es in Deutschland nach 32 Jahren einen nicht belegbaren, um +0,1 °C heißeren Tag gegeben haben soll, werden:

·       seit 1995 jedes Jahr Klimagipfel veranstaltet, an denen seit 2009 mindestens 19.000 (gezählte) Personen  teilnehmen[11],

·       zusätzlich ein Klimarettungsfonds für jährlich 100 Milliarden US $ [12]  gestartet

(der deutsche Beitrag soll 2020 ca. 7-8 Millarden  EUR betragen),

·       und ein deutscher CO2-Verhinderungswahnsinn losgetreten.

Deutschland  (und ein erheblicher Rest der Welt)  ist verrückt geworden.

Anm.: Ein großer Rest der Welt wohl nur „offiziell“, da man mit dem „Titel“ „Klimawandel-geschädigte Nation“ ja hofft, künftig zu den Empfängerländern des Klimafonds zu gehören[12].

 

Fundstellen 

[1] Pressemitteilung des Bayerischen Staatsministeriums für Umwelt und Verbraucherschutz vom 12.04.2015: …Wir starten jetzt einen Klimamarathon bis zur Weltklimakonferenz in Paris.

http://www.kliwa.de/index.php?pos=ergebnisse/presse/kliwa/by/2015/

[2] DWD Mitteilung vom 13.07.2015: Rekordtemperatur: 40,3 °C in Kitzingen am 5. Juli 2015 DWD bestätigt nach offizieller Prüfung den neuen deutschen Temperaturrekord. Die nebenamtliche DWD-Station Kitzingen hat am 5. Juli 2015 um 15.40 Uhr 40,3 °C gemessen. Damit wurde der bisherige deutsche Temperaturrekord von 40,2 °C, gemessen am 27.07.1983 in Gärmersdorf bei Amberg (Oberpfalz) sowie am 09.08.2003 in Karlsruhe und am 13.08.2003 in Freiburg und Karlsruhe knapp übertroffen.

[3] DWD Publikation: RICHTLINIE AUTOMATISCHE KLIMASTATIONEN für nebenamtliche Stationen und Partnernetze V1.2 Messunsicherheit (k=2) der meteorologischen Elemente einer Wetterstation Typ III: Erweiterte Messunsicherheit (k=2) 0.2K (-20°C< T <-20°C)

[4] Mainpost vom 20. März 2005: Neu in Kitzingen: Online-Wetterstation 

[5]Driesen + Kern GmbH Datenblatt WXT 5500 Meteorologische Wetterstation 

[6]World Meteorological Organisation: WMO GUIDE TO METEOROLOGICAL INSTRUMENTS AND METHODS OF OBSERVATION WMO-No. 8 (2008 edition, Updated in 2010) Chapter 2 Measurement of temperature 

[7] EIGENBRODT UMWELTMESSTECHNIK: LUFTTEMPERATURSONDE LTS 2000 Spezifikation DWD. Modifiziert für den Einsatz in der Lamellenschutzhütte LAM 630 

[8] https://de-de.facebook.com/wetteronline/videos/1055446604484309/ 

[9] RL-Rational. 3. Februar 2015 2014 „Das wärmste Jahr!?“- vielleicht, oder doch nicht!!

Nun ist es bestätigt: Der Meteorologische Dienst in Großbritannien (UK Met Office) erklärt, 2014 war nicht das heißeste Jahr. Die durch den Messfehler bedingte Unsicherheit ist um einen Faktor 10 größer ist als die unbedeutende um 0,01 Grad C höhere gemessene Temperatur-Anomalie im Vergleich zu 2005 oder 2010, den bisherigen T-Rekordjahren (seit 1870, mitten in der Kleinen Eiszeit).

https://rlrational.wordpress.com/

[10] SZ 6. Juli 2015: Hitzerekord in Deutschland Kitzingen schwitzt bei 40,3 Grad

http://www.sueddeutsche.de/panorama/hitzerekord-in-deutschland-kitzingen-schwitzt-bei-grad-1.2552656 

[11] KLIMARETTER.INFO. 01. November 201 : Klimadiplomatie: Ring frei für Runde 19

http://www.klimaretter.info/dossiers/klimagipfel-warschau/countdown/14934-klimadiplomatie-ring-frei-fuer-runde-19

[12] Oxfam Deutschland. DEUTSCHE KLIMAFINANZIERUNG

http://www.deutscheklimafinanzierung.de/einfuehrung-klimafinanzierung-aus-deutschland/ 

[13] Verein BERLINER WETTERKARTE e.V. Klaus Hager 10.9.2013. Vor- und Nachteile durch die Automatisierung der Wetterbeobachtungen und deren Einfluss auf vieljährige Klimareihen.

[14] Berichte des Deutschen Wetterdienstes Nr. 238 Gisela Augter: Vergleich der Referenzmessungen des Deutschen Wetterdienstes mit automatisch gewonnenen Messwerten




Das Umweltbundesamt stellt fest: Infraschall ist schädlich

Betriebsgeräusche

Die Betriebsgeräusche von Windkraftanlagen sind naturgemäß vor allem bei höheren Windstärken vorhanden, unangenehm sind die tiefen Töne, die immer zu hören sind, egal von wo der Wind weht. (Ein auch akustischen Laien bekanntes Beispiel: Tieftöner einer Musikanlage können überall aufgestellt werden). Zuletzt war es bei uns in der Nacht vom 17. auf 18. Juli besonders schlimm, selbst in entfernteren Häusern waren die auf-und abschwellenden Geräusche zu hören. Fenster schließen hilft nur wenig – und ist bei den derzeitigen warmen Temperaturen kein Vergnügen.

Von den Investoren (Profiteure) dieser Industrieanlagen wir dies gerne heruntergespielt: Von – Sie übertreiben bis hin zu : „..Opfer müssen gebracht werden, das ist wieder mal typisch St. Florians Prinzip…“ Selbst wohnen diese Leute tunlichst weit(er) entfernt davon!).

Krass wird es bei Mischgebieten – auch hier wohnen und schlafen Menschen – mit dem vom Bayer. Landesamts für Umwelt empfohlene Mindestabstand von 500 m – das ist höchst unmenschlich.

Gesundheitliche Auswirkungen

Eine bereits im letzten Jahr erstellte Studie des Umweltbundesamtes  schreibt Klartext.

 

Daraus auszugsweise zitiert, die Seitenzahlen beziehen sich auf dieses Dokument.

Seite 56:
Immissionsprognose

„…Das charakteristische pulsierende Geräusch von Windenergieanlagen, das lange Zeit mit dem Passieren eines Rotorblatts am Turm erklärt wurde, wird derzeit mit dem Durchschneiden verschiedener Schichten im Windprofil erklärt. Dabei entstehende Turbulenzen könnten nach Kameier et al. (2103) [65] einen impulshaltigen Charakter verursachen. Bei solchen Turbulenzen können sich Wirbel ablösen, die auch über größere Entfernungen sehr formstabil zu einer stark gerichteten Abstrahlung führen können. Ein mittlerweile schon berühmtes Bild (Abbildung 9 [– siehe Eingangsbild]) kann dafür als Beleg herangezogen werden. „

Fortsetzung Seite 57.

„… bei instabilen Wetterlagen schlagartig andere Ausbreitungsverhältnisse und damit stark schwankende Pegel zur Folge haben. Die von vielen Betroffenen gemachte Beobachtung, dass nachts die Geräusche von Windenergieanlagen lauter wären, wurde früher mit einer erhöhten Empfindlichkeit / Aufmerksamkeit der Betroffenen hinsichtlich der Geräusche erklärt. Durch Van den Berg (2006) [156] konnte aber nachgewiesen werden, dass nachts systematisch andere Ausbreitungsbedingungen vorliegen, die auch dafür verantwortlich sind. Nicht selten ist festzustellen, dass Pegel mit zunehmendem Abstand nicht kontinuierlich abnehmen, sondern auch zunehmen können. Dieser Effekt ist durch das Windprofil bedingt.“

Seite 57,
5.3.3 Wirkungen von Infraschall auf den Menschen

Eine detaillierte Analyse der verfügbaren Literatur zeigt, dass weitgehend auf den tieffrequenten Bereich konzentrierter Schall schon bei niedrigen Pegeln das mentale Wohlbefinden deutlich beeinträchtigen kann. Mit zunehmender Verschiebung zu tiefen Frequenzen bis in den Infraschallbereich verstärkt sich dieser Effekt. Das ist das Ergebnis verschiedener Untersuchungen im Feld und im Labor (vgl. [162][26][69][113][9][159][8]). Schwierig ist dabei eine Grenzziehung, ob eine Belästigung wirklich einer messbaren Belastung zuzuordnen ist, wie z. B. Van den Berg (2000/2012) [155][157] feststellt. Eine Konzentration des Schalls auf den tieffrequenten Bereich tritt im Alltag immer häufiger auf. Als wesentliche Gründe hierfür sind zu nennen:

• das vermehrte Vorhandensein tieffrequenter Quellen

• die physikalisch bedingte fast ungehinderte Ausbreitung des tieffrequenten Schalls

• die baulichen Schallschutzmaßnahmen (z. B. Schallschutzfenster), die fast ausschließlich gegen den Schall im mittleren und höheren Frequenzbereich schützen (konventionelle Bautechnik),

• die Ausbildung von starken Raumresonanzen, die durch moderne Architektur und Wohnungseinrichtungen gefördert werden.

In einer sehr leisen Umgebung – z. B. in einer sehr ruhigen Wohngegend in der Nacht – kann eine mentale Wirkung schon eintreten, wenn der Schall gerade wahrnehmbar ist. Konsequenterweise orientieren sich die einschlägigen Regelwerke an der Hörschwelle.

… Bislang wird dieses Merkmal aber nur in einer dänischen Richtlinie [169] in Form eines Zuschlags berücksichtigt,…

… Dass mit einer erhöhten Wahrnehmbarkeit eine erhöhte Lästigkeit einhergehen kann, ist nachvollziehbar.“

Zitat Ende

Die deutschen Medien vermeiden dieses Thema tunlichst und die Befürworter der Energiewende möchten davon nichts wissen:

–          Dänemark fordert Stopp von weiteren Schäden durch Windparks

–          Auch bei N-TV wird darüber berichtet. Machen Windräder krank?

–          Der dänische Oberste Gerichtshof spricht einem WKA Lärmopfer Entschädigung zu

–          Auch in Schweden: Infra sound von Windkraftanlagen

Bestätigung der Reaktion des menschlichen Gehirns auf tiefe Töne

Weiterhin gibt es eine Untersuchung in Deutschland, die die Reaktionen des Gehirns auf niederfrequente Töne bestätigt.

Veröffentlich beim 22. Kongress Sound und Vibration, 12-16 Juli Florenz, 2015

Link: http://www.epaw.org/echoes.php?lang=de&article=ns116

Auszugweise daraus zitiert:

 

[Übersetzung: Gehirnscheiben, mit eingefärbten Bereichen die auf niedrige Frequenzen reagieren.]

4. Conclusions [Schlussfolgerungen]

Responses in the auditory cortex down to 8Hz, respectively 12Hz could be verified..
[Reaktionen im auditorischen Kortex bis hinunter zu 8 Hz, beziehungsweise 12 Hz konnten bestätigt werden]

Recherchiert und Zusammengestellt aus aktuellem lokalem Anlass vom 24.07.2015

Da drängt sich die Frage geradezu auf:

Warum erfahren wir nichts davon durch unsere öffentlich rechtlichen Medienvertreter?

Ob diese Untersuchung dann auch Wirkung bei deutschen Kommunen zeigt und als Argument anerkannt wird, muss wahrscheinlich erst gerichtlich bestätigt werden.

Aber: steter Tropfen …




Energiewende mal anders herum – in Mexiko

Die Reform-Räder drehen sich langsam, aber am 15. Juli haben die ersten internationalen Investoren ihren Fuß in das flache Wasser der Ölgewinne in Mexiko gesetzt – könnten doch die Ressourcen „genauso groß sein wie die nachgewiesenen Reserven in Kuwait“. Die Financial Times bewertet das Potential in Mexiko mit 107,5 Milliarden Barrel Öl: „Ein ziemliches Festmahl“. Das Blatt fügt hinzu: „Das Land wird betrachtet als eine der abnehmenden Anzahl von Gelegenheiten, dem Portfolio substantielle Reserven hinzuzufügen nach vielen Jahren, in denen die Ölriesen Mühe hatten, noch große Funde zu machen“.

Enttäuschender Beginn

Und doch, trotz dieser Möglichkeiten war die erste von drei für dieses Jahr erwarteten Auktionen mit der Bezeichnung Runde 1.1 enttäuschend, um es gelinde auszudrücken. In Runde 1.1 wurden Flachwasser-Blöcke angeboten. Nur zwei davon zeigten erfolgreiche Angebote: Block 2 vor der Küste von Veracruz und Block 7 bei Tabasco. Den Zuschlag bekommen hat für beide Angebote Sierra Oil & Gas, ein mexikanisches Unternehmen als Teil eines Konsortiums mit dem US-Unternehmen Talos und dem UK-Unternehmen Premier Oil.

38 Unternehmen – darunter Riesen wie ExxonMobil, Chevron und das russische Lukoil – waren qualifiziert, an den Auktionen teilzunehmen, obwohl nur 9 an Runde 1.1 teilgenommen haben. Bloomberg Business berichtet: „Sprecher von Exxon und Chevron ließen verlauten, dass sie zwar nicht interessiert seien an der Runde mit Flachwasser-Angeboten, jedoch nicht die Absicht aufgegeben haben, Teil der Energiereform in Mexiko zu sein“.

Als die mexikanischen Energiereformen begannen, lag der Ölpreis für ein Barrel Öl bei etwa 100 Dollar. Die mexikanische Regierung hatte erwartet, dass vier bis sieben Blöcke verkauft werden könnten – was ein Ziel von 30% bis 50% bedeutete. Im Juli 2015 lag die Erfolgsrate bei 14%, viel weniger als erwartet.

Schlechtes Timing

Unglücklicherweise für Nieto hätte das Timing nicht schlechter sein können. Nicht nur, dass die globalen Ölpreise nur noch etwa 50% des Niveaus zum Zeitpunkt der Verfassungsänderungen haben, sondern auch, dass in der Woche der geplanten Auktion schlechte Nachrichten für Nietos Hoffnungen eingingen.

Erstens, vier Tage vor der Auktion ist „El Chapo“, der berüchtigste Drogenboss von Mexiko, aus einem Gefängnis mit einem der höchsten Sicherheitsstandards des Landes ausgebrochen – wieder einmal. Der Economist schreibt dazu: „Die Flucht von El Chapo ist ein Beweis, dass die Gesetze in Mexiko immer noch auf tönernen Füßen stehen“. In der FT stand zu lesen: die Flucht zeigt, dass „Straflosigkeit, Korruption und die schwachen Gesetze in Mexiko eher die Regel als die Ausnahme sind“.

Die bei der Auktion zum Verkauf stehenden Bereiche waren solche mit geringeren Erfolgswahrscheinlichkeiten – 6% bis 54%, wie aus einem Bericht von FuelFix hervorgeht. Während kleinere Unternehmen risikobereiter sind, um zum Erfolg zu kommen, können sie sich die Sicherheit oder die Bestechungsgelder nicht leisten, die für die Koexistenz neben den Kartellen erforderlich sind. Der Economist erklärt: „Unordnung hält Investoren nicht immer ab, die sich bewaffnete Autos und Leibwachen leisten können, aber sie hält kleinere Geschäftsbereiche außen vor. Sowohl mexikanische als auch ausländische“.

Ein kleines US-Unternehmen sagte mir: „Die Geschichte Mexikos ist gekennzeichnet durch politische Instabilität, Enteignungen, schnelle Änderungen der Politik der Regierung, Bestechung und Korruption, Ineffizienzen und eine Haltung und Philosophie nach Art des Sozialismus. Wenn es vielfältige Möglichkeiten hierzulande gibt, einhergehend mit einem geringeren Risiko, warum sollten wir dann in Mexiko investieren?“

Zur gleichen Zeit platzten die Nachrichten über El Chapo herein, und Berichte deuteten auf einen bevor stehenden Deal mit Iran. Das Nuklearabkommen wurde am Tag vor der historischen Auktion in Mexiko unterzeichnet. Bedenken, dass Iran demnächst 1,5 Millionen Barrel Öl pro Tag auf den Markt werfen will, was zu einem weiteren Rückgang der Rohölpreise führen würde, haben das Interesse an neuen Erkundungen deutlich gelähmt.

Die Flucht von El Chapo beleuchtete das Risiko, während das Iran-Abkommen die Belohnung reduziert. Das Schicksal meint es nicht gut mit Mexiko.

Armselige Angebote

Während die Auktion vom 15. Juli nicht der erhoffte Erfolg war, gibt es Grund zu Optimismus. Vielleicht um Zeit zu gewinnen, die beste diesbezügliche Strategie zu finden, bot die National Hydrocarbon Commission die weniger gewünschten Pakete zuerst an. Die NYT schreibt dazu: „Die in der ersten Runde eines mehrjährigen Auktionsprozesses angebotenen Waren waren nicht unter den kommerziell attraktivsten“.

Die Riesen, welche der ersten Auktion fern geblieben waren, sind mehr an Tiefwasser-Projekten interessiert – welche anzubieten für die Auktion Anfang 2016 geplant ist – bei welchen das Risiko geringer und die Belohnung höher ist. Die NYT erklärt: „Das größte Wachstum wird es wahrscheinlich in Tiefenwasser-Bereichen geben, welche neben reichlichen amerikanischen Produktionsfeldern liegen, die noch sorgfältig erkundet werden müssen. Die Felder werden als groß angesehen, außerdem besteht der Vorteil, dass sie nahe dem riesigen Pipeline-Netzwerk liegen im amerikanischen Sektor des Golfes von Mexiko ebenso wie in der Nähe der amerikanischen Raffinerien und dem amerikanischen Markt selbst“. Zusätzlich dürfte das Onshore-Potential interessanter sein für die neuen mexikanischen Ölunternehmen – von denen viele zuvor für Pemex gearbeitet hatten als Service-Unternehmen. Sie haben Erfahrung mit Bohrungen auf dem Festland, brauchen jedoch auswärtige Partner für die Offshore-Erkundung. Die Onshore-Blöcke anzubieten ist für die Auktion im Dezember geplant.

Unattraktive Bedingungen

Als die Bedingungen zum ersten Mal verkündet wurden, weckten sie nur wenig Interesse, waren sie doch mehr dazu gedacht, Mexikos Einstiegschancen zu maximieren als Investitionen anzulocken. Die Bedingungen sind danach schon zweimal abgeschwächt worden – und werden vermutlich vor der nächsten Auktion nochmals attraktiver gemacht.

Die Gewinner, die vorqualifiziert waren, die finanziellen Erfordernisse stemmen zu können, wurden durch den höchsten Profit bestimmt, welcher mit der mexikanischen Regierung geteilt und den versprochenen Investitionen über dem festgesetzten Minimum liegen müssen. Das wurde vom Finanzministerium festgelegt und in einem verschlossenen Umschlag hinterlegt, der auf der Auktion geöffnet wurde. Für die beiden Blöcke der Auktion vom 15. Juli boten die Gewinner 55,99% für den ersten Block und 68,99% für den zweiten. In beiden Fällen wurde ein Angebot gemacht, dass um 10% über dem Minimum lag. Einige der nicht an den Mann gebrachten Blöcke erhielten zwar Angebote, die jedoch unter dem Minimum lagen – obwohl das WSJ berichtet: „Viele zurück gewiesene Angebote lagen geringfügig unter dem Minimum“.

Eine der Bedenken hervorrufenden Bedingungen ist die Forderung nach stringenten Garantien im Falle einer Explosion wie auf der Deepwater Horizon. Der Economist bezeichnet sie als „jenseits internationaler Normen“ liegend, und die FT berichtet: „Vier vorqualifizierte Unternehmen haben sich vorige Woche zurückgezogen – zumindest eines davon wegen dieser Garantien, die „im Wesentlichen ein Blankoscheck waren“.

Zusätzlich hat sich Mexiko das Recht vorbehalten, Verträge zu widerrufen – was potentielle Investoren ein wenig zu stark an Mexikos Historie der Zwangsenteignungen erinnerte.

Pablo Medina, ein Lateinamerika-Analyst bei Wood MacKenzie, sagte im WSJ: „Ich würde erwarten, dass die Regierung ihre Erfahrungen bei den nächsten Angeboten berücksichtigt“.

Vorsichtiger Optimismus

Trotz der vielen Schlaglöcher sind viele vorsichtig hoffnungsvoll. Juan Carlos Zepeda, Präsident der National Hydrocarbon Commission, hat dem WSJ zufolge „hinsichtlich folgender Auktionen höhere Erwartungen“.

Auf dem Blog OilPro.com stellt Richard Sanchez, Marktanalyst für Nord- und Südamerika fest: „Mexiko verfügt über ein gewaltiges Tiefwasser-Potential, vergleichbar mit Ölfeldern auf der US-Seite des Golfes von Mexiko“. Es ist zu groß, um nicht beachtet zu werden. Ein Berater der neuen mexikanischen Ölunternehmen sagte mir: „Die Ressourcen sind Weltklasse. Mexikos Energiereformen werden ultimativ erfolgreich sein“.

„Die Regierung schätzt, dass nahezu die Hälfte seiner nicht nachgewiesenen Reserven in der Tiefsee des Golfes von Mexiko liegt“, berichtet die FT. „Zusätzlich befindet sich dort das sechstgrößte, technisch ausbeutbare Schiefergas-Reservoir der Welt und das achtgrößte Schieferöl-Potential“.

Jim Hoffman, ein Fachmann für Öl und Gas, der seit 35 Jahren im Bereich dieser Industrie arbeitet, sagte mir: „Mit der Zeit wird die Erschließung Mexikos einen gewaltigen Schub sowohl für US-amerikanische Erzeuger als auch Service-Unternehmen zu geringeren Kosten bieten. Es wird nicht sofort passieren, aber mit dem Ausbau der Infrastruktur werden die Ergebnisse immer besser werden“. Er fügte hinzu: „Was ist mit Arbeitsplätzen für Mexikaner, die nicht mehr illegal über die Grenze gehen müssen? Was ist mit Amerikanern, die die Gelegenheit bekommen, neue und bessere Technologie und Verfahren in eine unterentwickelte Industrieregion zu bringen? Was für eine großartige Gelegenheit!“

Mexikos Energiereform ist auf dem Weg. Die Auktion von 15. Juli gab dem Land eine Chance, sie zu testen und langsam weiter in Fahrt zu bringen – mehr eine Evolution als eine Revolution. Für die Zukunft gibt es Enthusiasmus. Das Thema Ölpreise wird sich selbst erledigen, da es drei bis fünf Jahre dauert, neue Felder zu erschließen. Mit dem Abbau der Stützräder werden die Bedingungen besser und die Angebote attraktiver, die Ergebnisse werden immer besser werden – für eine ganze neue Industrie in Mexiko und neue Gelegenheiten für amerikanische Unternehmen.

Link: http://www.cfact.org/2015/07/20/mexicos-energy-reform-is-rolling-albeit-with-training-wheels/

Übersetzt von Chris Frey EIKE




Finanzen des Klimaabkommens stehen auf tönernen Füßen

Dieser Beitrag erklärt, warum der Glaube an den Green Climate Fund zu schwinden beginnt. Dieser soll vermeintlich die Trennung zwischen armen und reichen Ländern heilen.

Der französische Außenminister Laurent Fabius hat auf einer Pressekonferenz zur globalen Erwärmung im Juni Stellung genommen. Paris ist Schauplatz der kritischen Klimawandel-Verhandlungen im Dezember dieses Jahres. Ein Schlüsselelement eines Klimaabkommens, der Green Climate Fund, hat große Mühe, den Erwartungen gerecht zu werden.

Der Glaube an den Green Climate Fund, also an den finanziellen Arm, von dem man lange glaubte, dass er ein zentrales Element bei den Verhandlungen im Dezember in Paris sei, beginnt zu schwinden.

Der GCF soll angeblich das primäre Instrument zur Verteilung von Zehnermilliarden Dollar an Klimahilfen sein, um den ärmsten Ländern der Welt zu helfen, mit dem Klimawandel fertig zu werden, der hauptsächlich von Anderen verursacht worden ist. Er ist geschaffen worden, um die tiefen Gräben zwischen armen und reichen Ländern zu füllen, die lange Zeit jede Hoffnung minimiert hatten, zu einer bedeutenden Lösung bzgl. der globalen Erwärmung zu kommen.

Aber angesichts nur noch eines Treffens, bevor die Klimagespräche in Paris beginnen, ist das vorgesehene Geld noch nicht einmal ansatzweise in die Nähe dessen gekommen, was gebraucht wird. Mit dem US-Beitrag in Höhe von 3 Milliarden Dollar sieht es zweifelhaft aus, und der GCF hat sich viele Finanzinstitutionen als Partner gesucht, denen die Entwicklungsländer misstrauen.

Hier folgt ein Führer zum GCF und dahin, wo dieser steht:

Was er ist

Als Teil des Kopenhagen-Abommens im Jahre 2009 haben wohlhabende Nationen versprochen, mindestens 100 Milliarden Dollar pro Jahr an privater und öffentlicher Klimahilfe an arme und verwundbare Länder zu dirigieren, beginnend im Jahre 2020. Der GCF wurde von den UN-Klimaunterhändlern ins Leben gerufen, und zwar ein Jahr später. Er sollte als der Hauptverteiler eines großen Teils dieser 100 Milliarden Dollar fungieren.

Der GCF ist angesiedelt in der südkoreanischen Stadt Songdo und fungiert als ein Arm der UN-Konferenz der Partizipierenden. Bisher gibt es Versprechungen über 10,2 Milliarden Dollar. Alle über 130 Entwicklungsländer, die Teil der UN-Klimakonvention sind, sind qualifiziert, das Geld zu erhalten, aber die Betonung liegt auf Hilfen für kleine Inselstaaten unter den Entwicklungsländern sowie afrikanischen Staaten und den 48 Nationen, die als am wenigsten entwickelt klassifiziert sind.

Um das Vertrauen der armen Länder zu erlangen, denen die Weltbank und viele andere Entwicklungsbanken suspekt sind, sollte der GCF unabhängig von diesen agieren, indem man den Empfängerländern viel mehr Mitspracherecht einräumte, für welche Projekte man das Geld ausgeben wolle. Korrekte Repräsentation ist gleichmäßig aufgeteilt zwischen entwickelten und Entwicklungsländern. Außerdem soll der GCF die Hälfte seines Geldes für Anpassungsmaßnahmen bereit halten, die dazu tendieren, weniger Geld von Entwicklungsbanken und anderen traditionellen Geldgebern zu erhalten.

Warum der GCF wichtig ist

Der GCF zielt auf einen fundamentalen Konflikt im Zentrum der Klimaverhandlungen: den Graben zwischen reichen und armen Ländern. Ärmere Nationen fühlen bereits die Auswirkungen der globalen Erwärmung [?] und können es sich nicht leisten, in Projekte zu investieren, die ihnen zu überstehen helfen, was da noch auf sie zukommen könnte. Diese Klima-Auswirkungen sind hauptsächlich verursacht durch historische Emissionen der USA und anderer wohlhabender Nationen [?]. Aus diesem Grunde haben die ärmsten und verwundbarsten Länder klargestellt, dass sie keinerlei Klimaabkommen unterzeichnen werden ohne adäquaten finanziellen Beistand der entwickelten Länder.

[Klar, wenn ich das Geld wegen der Dummheit Anderer einfach so bekommen könnte, würde ich mich auch darum bemühen! Anm. d. Übers.]

Hauptakteure

Es gibt 24 Mitgliedsländer, die Hälfte davon entwickelte, die andere Hälfte Entwicklungsländer. Unter den Mitgliedern der Entwicklungsländer sind Repräsentanten aus Afrika (Benin, Ägypten und Südafrika); dem asiatisch-pazifischen Raum (China, Saudi-Arabien und Pakistan); Lateinamerika und der Karibik (Kuba, Argentinien und Peru); am wenigsten entwickelte Länder (Sambia) sowie kleine Inselstaaten (Barbados).

Unter den Repräsentanten der entwickelten Länder sind: Australien, die Niederlande, Frankreich, Deutschland, Japan, Norwegen, Polen, Italien, die Schweiz, Schweden, UK und USA.

Wer was versprochen hat

Bisher haben 35 Regierungen versprochen, zusammen insgesamt 10,2 Milliarden Dollar in den GCF einzuzahlen. Die Summe liegt etwas über dem angepeilten Ziel von 10 Milliarden Dollar, doch ist dieses bereits von ursprünglich 15 Milliarden Dollar erniedrigt worden. Die größte versprochene Einzelsumme stammt von den USA mit 3 Milliarden Dollar, verteilt über vier Jahre. Die EU-Länder haben 4,8 Milliarden versprochen, Japan 1,5 Milliarden. Die Beiträge kamen fast exklusiv von entwickelten Ländern, und deren Versprechungen sollen den verwundbaren Nationen versichern, dass wohlhabende Länder den versprochenen Fonds bis zum Jahre 2020 gefüllt haben. Der Fonds kann auch Geld aus anderen öffentlichen und privaten Quellen annehmen (siehe die Graphik oben rechts!)

Gründe zur Besorgnis

Die Vereinigten Staaten sind im Verzug: Die USA haben 3 Milliarden Dollar versprochen, aber es muss noch ein Übereinkommen unterzeichnet werden, den Fonds überhaupt zu bedienen, und viele denken, dass die Menge erheblich unter dem liegt, was die USA zur Kompensation ihres Verhaltens bzgl. dieses Problems aufbringen müssten. Die Obama-Administration hat in diesem Jahr 500 Millionen Dollar für den GCF beiseite gelegt, aber die Einzahlung muss von einem Kongress mit republikanischer Mehrheit genehmigt werden – und dieser Kongress steht dem Thema Klima generell feindlich gegenüber.

Nicht genug Geld: Der GCF ist bislang mit viel weniger Geld ausgestattet als ursprünglich erhofft. Der Fonds näherte sich mühsam dem bereits niedriger angesetzten Ziel von 10 Milliarden Dollar Ende letzten Jahres, und es dauerte bis Ende Mai, um formelle Übereinkommen für über die Hälfte dieses Geldes sicherzustellen.

Aufreibende Gespräche über die Limitierung von Auszahlungen: Eine Studie des GCF-Sekretariats zeigte, dass Darlehen die primäre Finanzierungsart des Fonds‘ sein sollten, wobei die Zuwendungen sparsam fließen und möglicherweise für Ökonomien mit geringem Einkommen reserviert werden sollten. Dieser Plan hat Kritik von den Entwicklungsländern unter den Mitgliedern auf sich gezogen. Diese sagten, dass Anpassungsprojekte mit Zuwendungen unterstützt werden sollten, nicht Darlehen, weil solche Projekte kein Einkommen abwerfen. Die nur sparsame Ausgabe von Zuwendungen passt ebenfalls nicht zu der Maßgabe, die Hälfte der Förderung für Anpassungsprojekte aufzubringen.

Die üblichen Verdächtigen sind heterogen: Die GCF-Leitung hat es 20 Entitäten* erlaubt, mit Geld aus dem Fonds genehmigte Projekte zu fördern. Die Entwicklungsländer haben beklagt, dass die Liste von großen Finanzinstitutionen dominiert wird, die in vielen ihrer Länder unpopulär seien. Die letzten 13 Vorhaben sind gerade eben erst von der Leitung durchgewinkt worden. Dies rief Widerstände hervor von der Asian People’s Movement on Debt and Development sowie 20 anderen zivilen Gesellschafts- und Umweltgruppen, die dem GCF als Beobachter angehören. Unter der Liste der 13 teilnehmenden Entitäten* sind die Weltbank, die Europäische Entwicklungsbank, die Inter-American Development Bank sowie die Deutsche Bank, ein wichtiger Förderer von Kohleprojekten. Der Widerstand wurde damit begründet, dass diese Institutionen hinsichtlich Klimafinanzierung sowie mit Themen über Menschenrechte wenig Renommee vorweisen können. Indem man sie als Partner willkommen heißt, sagen sie, „besteht ein hohes Risiko, dass der Fonds seine Glaubwürdigkeit einbüßt“.

[*Für den Terminus entities ist mir keine vernünftige Übersetzung in diesem Zusammenhang eingefallen. Anm. d. Übers.]

Fehlende Transparenz: Der GCF hielt die Namen der akkreditierten Institutionen geheim, bis das Gremium sie in einer Sitzung hinter verschlossenen Türen genehmigt hatte. Dies bedeutete, dass Nicht-Regierungsorganisationen keine Gelegenheit hatten, Warnflaggen bzgl. der Historie dieser Unternehmen auf diesem Gebiet zu hissen. Das Gremium genehmigte auch alle 13 Antragsteller als Ganzes, so dass die Mitglieder des Gremiums keine Chance hatten, die jeweiligen Verdienste einzeln zu bewerten und dann über jede Institution individuell abzustimmen. Außerdem gibt es von den Sitzungen keine Übertragungen im Internet, was den Beobachtern schwer belastende Ausgaben für Reisen auferlegt und die Überlegungen weniger offen und zugänglich macht.

Keine Ausschluss-Listen: Bislang hat der Fonds noch keine Liste vorgelegt, welche Art von Projekten es nicht fördern würde. Umweltgruppen und Andere sehen dies aber als grundsätzlich notwendig an, vor allem, nachdem Nachrichten aus Japan bekannt geworden sind, denen zufolge das Land ein Kohleprojekt als „klimarelevant“ finanziert haben wollte, weil es weniger Emissionen erzeugen würde als andere Kohlekraftwerke.

Zu Hoffnung Anlass gebende Gründe

● Der Fonds hat 16 Millionen Dollar beiseite gelegt für vorbereitende Unterstützung. Das Geld soll Entwicklungsländern helfen, Ziele und Prioritäten festzulegen sowie die erforderliche Übersicht und Höhe der Unterstützung an Ort und Stelle zu etablieren. Der GCF ist dabei, 2,5 Millionen Dollar dieses Geldes an 9 Länder auszuzahlen.

● Das Gremium stimmte zu, ein 200 Millionen Dollar schweres Pilotprogramm zu starten, dass es den Empfängerländern erlaubt, spezielle Projekte auszuwählen und eine bessere Übersicht zu gewinnen. Das Gremium beabsichtigt, mindestens 10 Pilotprojekte anzuerkennen, wobei mindestens vier davon in den kleinen Inselstaaten, den am wenigsten entwickelten und afrikanischen Ländern unter den Entwicklungsländern sind.

● Die Gremiumsmitglieder planen, auf dem nächsten Treffen im November die ersten paar Projekte des Fonds‘ zu genehmigen, nur wenige Tage vor Beginn der Pariser Klimagespräche.

● Die Fonds-Experten glauben in der Lage zu sein, bis zu 1,4 Milliarden Dollar insgesamt für Projekte und Programme im Jahre 2015 zuweisen zu können.

Die nächsten Schritte

Das nächste GCF-Treffen – das 11. – wird in Sambia stattfinden, irgendwann im November. Das genaue Datum steht noch nicht fest. Die wichtigste Aufgabe wird die Genehmigung einiger Projekte für Entwicklungsländer sein, um den Klimaunterhändlern zu zeigen, was der Fonds tun kann.

Elizabeth Douglass, InsideClimate News

Link: http://insideclimatenews.org/news/20072015/paris-climate-change-treaty-finances-shaky-ground-green-climate-fund

Übersetzt von Chris Frey EIKE

Schlussbemerkung des Übersetzers: Im Prinzip ist es natürlich völlig in Ordnung, den Entwicklungsländern zu helfen, wie auch immer. Aber es sind hier eben zwei fundamentale Dinge, die mich persönlich stören, wenn ich dafür mein Steuergeld hergeben muss: 1.) Die Begründung ,Auswirkungen des Klimawandels‘ ist hanebüchen und 2) wenn ich sehe in welche Art von politischen Regimes diese Gelder gelangen. Wie vielen Potentaten in den Entwicklungsländern liegt denn deren eigene Bevölkerung wirklich am Herzen?

C. F.




Äthanol und Biodiesel: Schuldig durch Tanken

Der Kongress hat die Vorschriften ausgeheckt aufgrund von Befürchtungen, dass die Nachfrage nach Benzin in den USA immer und ewig steigen wird, wenn Amerikas vermeintlich begrenzte Reserven erst einmal ausgebeutet sind. Gegenwärtig wird vorgeschrieben, dass wir Benzin jedes Jahr mit 15 Milliarden Gallonen [ca. 60 Milliarden Liter] Äthanol versetzen und über eine Milliarde Gallonen Biodiesel erzeugen müssen. Sie bläuen das uns Verbrauchern ein, jedes Mal, wenn wir unseren Tank füllen.

Die Umwandlung von Mais in Äthanol erfordert riesige Landflächen, Dünger, Pestizide, Traktor- und Lastwagendiesel sowie Erdgas zur Destillation. Einige Farmer werden dadurch sehr reich, aber Preise für Viehfutter und folglich die Kosten für Schweine- und Rindfleisch, Geflügel, Eier, Fische und internationale Nahrungsmittelhilfen steigen. Biodiesel aus Ölabfällen von Restaurants mögen sinnvoll sein, aber diesen aus Palmöl oder Sojabohnen herzustellen hat ähnlich negative ökologische Auswirkungen.

 

Das Äthanol-Gesetz ermutigt Farmer, natürliche Habitate unterzupflügen und Felder brach liegen zu lassen, um darauf Mais anzubauen, was Millionen Tonnen Kohlendioxid freisetzt. Mit Äthanol kann man ein Drittel Kilometer weniger weit fahren als mit Benzin, so dass Kraftfahrzeugfahrer weniger weit mit einer Tankfüllung und mit den Dollars kommen. Es wird Ozon erzeugt, es werden Massen von Wasser verbraucht, und Motoren von Autos und Maschinen korrodieren, was uns Milliarden für Reparaturen abverlangt.

Die Geschichte von Philip Joseph Rivkin (alias Felipe Poitan Arriaga) enthüllt einen genauso widerlichen Aspekt des Gesetzes, der seinen Ursprung in der absurd komplexen Renewable Identification Number (RIN) hat, einem von den EPA-Bürokraten geschaffenen System. Wie Ron Arnold in unserem Buch Cracking Big Green erklärt, verlangt die EPA, dass jede einzelne Gallone [ca. 4 Liter] von Biotreibstoff auch seine eigene einheitliche RIN-Zahl haben muss, bestehend aus 38 Ziffern. Das sind Milliarden RINs pro Jahr!

Es ist vorgesehen, dass „trockene“ RIN-Zertifikate mit tatsächlichen „nassen“ Gallonen von Biotreibstoff assoziiert sind: Äthanol auf der Grundlage von Mais, Diesel auf der Grundlage von Biomasse oder nicht existente „fortschrittliche Zellulose-Treibstoffe“. Sind derartige Treibstoffe nicht verfügbar, können die Raffinierer RINs von anderen Gruppierungen kaufen, die in der Lage waren den Treibstoff herzustellen. Diese „handelbaren Zertifikate“ erzeugen unwiderstehliche Gelegenheiten für „Unternehmer“ wie Rivkin, dessen Grün-Diesel-Unternehmen falsche Biodiesel-RINs an Ölunternehmen und Anteilseigner verkauft hat.

Während der Jahre 2011 und 2012 hat Rivkin derartige falsche Zertifikate im Wert von 29 Millionen Dollar verkauft, ohne auch nur eine einzige Gallone von irgendetwas herzustellen. Beamte des Geheimdienstes verhafteten ihn im vorigen Jahr in Houston, nachdem er aus Guatemala ausgewiesen worden war, wo er fälschlich behauptet hatte, Staatsbürger zu sein. Er bekannte sich schuldig und steht jetzt von 10 Jahren Gefängnis, außerdem Strafzahlungen in Höhe von Millionen Dollars und Beschlagnahme seines Lamborghini, Maserati, Canadair LTD-Flugzeug sowie einer Kunstsammlung, die in die Millionen gehend geschätzt wird.

 

Seine Eskapade war eine Kopie dessen, was um Rodney Hailey in Maryland aufgeflogen ist. Er mietete eine Garage, füllte sie mit Rohren, Tanks und Pumpen (von denen keine mit irgendeiner anderen verbunden war), ließ sein Clean Green Fuel-Unternehmen bei der EPA registrieren, gestaltete eine bunte Website und behauptete, dass er 20 Millionen Gallonen Biodiesel jährlich erzeugen würde aus recyceltem Speiseöl. Mittels eines Netzwerkes von Händlern hat Hailey über 32 Millionen betrügerische RINs für 9 Millionen Dollar verkauft – während er immer noch Arbeitslosengeld kassierte.

Möglicherweise waren es sein aufwändiger Lebensstil, 20 Luxuskarossen und verschwenderische Lebensweise, die die Aufmerksamkeit der Gesetzeshüter erregten. Im Jahre 2013 ist er zu 12½ Jahren Gefängnis verurteilt worden sowie zur Zahlung von über 42 Millionen Dollar als Entschädigung: seine schäbigen Profite plus dem, was seine Opfer für den gesetzeskonformen Ersatz der RINs aufbringen mussten.

Die gute Nachricht lautet, dass Rivkin und Haley für ihre betrügerischen Aktionen zahlen müssen. (Wir haben keine Ahnung, wie viele andere, noch nicht entdeckte Biotreibstoff-Schurken sich noch tummeln). Die schlechte Nachricht lautet, dass das RIN-System immer noch in Kraft ist, und zwar unter einem fehlgeleiteten Bundesgesetz, von dem fast niemand außerhalb der Biotreibstoff-Industrie profitiert. Die schlechteste Nachricht lautet, dass die Kosten ihrer Betrügereien verblassen im Vergleich mit den Lügen und den Betrügereien der EPA und seiner Klimakrise nebst deren Verbündeten im Bereich saubere Energie sowie ultrasaubere Luft.

Seit das Biotreibstoff-Gesetz im Jahre 2005 eingeführt und im Jahre 2007 unter dem Renewable Fuel Standard ausgeweitet worden ist, sind Milliarden Dollar von Steuerzahlern und Autofahrern an Maisfarmer und Äthanol-Hersteller geflossen. Es hat die Verbraucher zahllose Milliarden gekostet in Gestalt geringerer Reichweite, höheren Preisen für Nahrungsmittel sowie Reparaturen ihrer Autos, Lastwagen, Boote, Motorschlitten, Motorsägen und anderer kleinerer Maschinen. Die jedes Jahr in Biodiesel umgewandelte Menge Mais würde ausreichen, um 412 Millionen unterernährte Menschen in afrikanischen und anderen Ländern zu ernähren.

Antike Autos und andere ältere Fahrzeuge sind nicht kompatibel mit Äthanol enthaltenden Treibstoffen, vor allem E15 (15% EtOH). Dichtungen und andere Teile aus Gummi werden brüchig, was zu Treibstofflecks und sogar Maschinenschäden und Bränden führen kann. Bootsmotoren können sich überhitzen und ausfallen. Bei Flugzeugen – nun, man möchte sich nicht ausmalen, was passiert, wenn das Triebwerk in 3000 Metern Höhe ausfällt.

 

Viele Verbraucher – selbst Maisfarmer mit älteren Traktoren – bevorzugen reines Benzin, was aber immer schwieriger zu finden ist. Nichtsdestotrotz betrug der Anteil reinen Benzins im Jahre 2014 etwa 7% des gesamten, in den USA verkauften Benzins. Im Jahre 2012 waren es 3,4%.

Inzwischen haben sich Bedenken hinsichtlich „Peak Oil“ und „Über-Abhängigkeit“ von ausländischen Ölimporten praktisch in Luft aufgelöst. Dank Fracking und anderer fortschrittlicher Bohrtechnologien sind die USA inzwischen zum weltgrößten Erzeuger von Öl und Erdgas geworden. Angesichts des Umstandes, dass Verbraucher weniger fahren und mehr in treibstoff-effizientere Automobile investieren, schwächt sich die Nachfrage nach Benzin immer mehr ab, nachdem sie im Jahre 2007 ihren Höhepunkt erreicht hatte. Und die andere Rechtfertigung für Äthanol, nämlich der „gefährliche, vom Menschen verursachte Klimawandel“, wird immer mehr als eine weitere über-expensive ecological scare* bloßgestellt.

[*Das stand als Link genau so im Original! Scare = Angstmache]

Falls Verbraucher „alternative Treibstoffe“ wollen, ist Erdgas praktikabel, umweltfreundlich und preiswert sowie für freie Märkte geeignet. Komprimiert in Hochdruckbehältern (was bereits gemacht wird), kann es Autos, Lastwagen, Taxis und Busse antreiben. Konvertiert zu Methan würde unser reichlich vorhandenes Erdgas es der Stadt Detroit ermöglichen, leichte, leistungsfähige Maschinen mit geringer Verschmutzung und hohen Oktanwerten zu bauen, die viel länger mit einer Treibstoffladung auskommen als mit Äthanol versetzten Treibstoffen. Schon jetzt fahrende Autos können zu „Flex-Fuel“-Fahrzeugen für weniger als 100 Dollar umgerüstet werden – und die Erzeugung des Erdgases sowie dessen Umwandlung zu Methan erfordert nur minimalen Landverbrauch, keine Preissprünge für Nahrungsmittel, und es treten keine Schäden an Maschinen auf.

Biotreibstoffe sind schuldig durch Tanken (guilty as charged). Sie machen mit Autofahrern, Steuerzahlern und Verbrauchern das, was Kriege und Aufruhr mit den Städten machen. Die Rechtfertigung gesetzlicher Vorschriften mit der Aussage, dass sie Arbeitsplätze für ein paar Maisfarmer, Biotreibstoff-Produzenten und Maschinen-Reparaturfirmen schaffen, ist gleichbedeutend mit der Behauptung, dass Mobs und Kriege die Beschäftigung von Versicherern, Feuerwehrleuten, Zimmermänner und Glasern befeuern. Die perverse Logik ignoriert auch die verloren gegangenen Arbeitsplätze und Firmen sowie die weitaus besseren Gelegenheiten, für die man unsere Steuermilliarden hätte ausgeben können.

Politiker, Bürokraten und Öko-Aktivisten kümmern sich eindeutig nicht um die Kohle-Bergarbeiter und die Gemeinden, die sie zerstört haben. Warum sollen Biotreibstoff-Hersteller sakrosankter und geschützter sein – auf der Grundlage falscher Behauptungen, denen zufolge diese Treibstoffe Emissionsreduktionen sicherstellen sowie eine „heimische“ Energieversorgung und Klimastabilität?

Die Vorschriften im Rahmen der Renewable Fuel Standards und der Biotreibstoff-Vorschriften schaden mehr als das sie nutzen. Sie haben ihre Unbrauchbarkeit an den Tag gelegt und sollten einfach nicht mehr „gedeckelt“, sondern vollständig beseitigt werden.

Amerikaner sollten nicht länger gezwungen werden, kumpelhaft Biotreibstoff-Unternehmen aufzupäppeln und für teure Reparaturen zu bezahlen, zu denen es durch die überholten Erlasse des Kongresses und der EPA kommt.

Link: http://www.cfact.org/2015/07/18/ethanol-and-biodiesel-guilty-as-charged/

Übersetzt von Chris Frey EIKE




Fundamentale Unterschiede zwischen den globalen Temperatur-Aktualisierungen von der NOAA und UAH

Einige Leute, zum Beispiel Tamino (a.k.a. Grant Foster) glauben, dass die Diskussionen zu den jüngsten Änderungen der Produkte zur globalen Temperatur bei der NOAA und der UAH von meiner Seite aus einen Bias zeigen. Er sagt, dass ich mich einer beleidigenden Ausdrucksweise bediene, wenn ich von den NOAA-Änderungen rede und dass ich dagegen schmeichelnde Worte für die UAH-Daten finde. Tamino schließt seinen Beitrag mit dieser Bemerkung über mich:

Die offensichtliche Schlussfolgerung lautet, dass bei einer Revision nach seinen Wünschen „viel korrigiert“ und „verbessert“ wird, während sie wenn es nicht nach seinen Wünschen geht „ungerechtfertigt“ und „überdreht“ sind.

Danke, Tamino, für die Gelegenheit, einmal mehr zu zeigen, warum ich feststelle (und auch in Zukunft feststellen werde), dass die neuen NOAA-ERSST.v4-Daten ungerechtfertigterweise überdreht sind.

Man erkennt sehr leicht, dass die NOAA ihre Adjustierungen während des Stillstands nicht rechtfertigen kann (Das Wort ,Hiatus‘ [Stillstand] hat die NOAA kreiert].

Die größte Änderung der NOAA NCEI (zuvor NCDC)-Daten wurde im Bereich der Ozean-Wassertemperaturen vorgenommen (die Änderung vom ERSST.v3-Datensatz zum ERSST.v4-Datensatz) im kombinierten Datensatz der Temperaturen auf dem Festland und über den Ozeanen. Siehe Karl et al. (2015) hier (paywalled). Die NOAA benutzte den Datensatz der nächtlichen maritimen Lufttemperatur (HADNMAT2) vom UK Met.-Office als Referenz für ihren neuen ERSST.v4-Datensatz. Aber die Erwärmungsrate im Kurzfristzeitraum des neuen NOAA ERSST.v4-Datensatzes während der Zeit der Verlangsamung der globalen Erwärmung ist viel größer als in den HADNMAT2-Daten. Siehe Abbildung 1, die ich zum ersten Mal in meinem offenen Brief an Tom Karl präsentiert habe. Diese Graphik bildet die Grundlage für meine Aussagen, 1) dass die jüngste Aktualisierung der NOAA-Wassertemperaturdaten nicht durch den Datensatz gerechtfertigt werden, der als Referenz für jene Adjustierungen verwendet worden ist, und 2) dass wiederum aus diesem Grunde die NOAA-Adjustierungen überdreht waren.

Abbildung 1

Unter dem Strich die NOAA-Adjustierungen betreffend: Ich kann meine Feststellungen, dass die im NOAA ERSST.v4-Datensatz mit den globalen Temperaturprodukten auf der Grundlage der Wassertemperaturen vorgenommenen Änderungen ungerechtfertigt überdreht sind, mit Daten untermauern.

Was ist mit den Änderungen der UAH-Temperaturdaten aus der unteren Troposphäre mit der Abnahme des Trends?

Die Änderungen der UAH-Temperaturdaten aus der unteren Troposphäre brachten die Kurzfrist-Trends auf eine Linie mit dem Produkt von RSS. Einfach. Nichts Kontroverses. Die Kurzfrist-Trends der UAH-Daten sind NICHT niedriger als bei den RSS-Daten. Tatsächlich zeigen die UAH-Temperaturdaten etwas weniger Abkühlung als die RSS-Daten (siehe Abbildungen 2 und 3).

Abbildung 2

# # #

Abbildung 3

Die Abbildungen 2 und 3 sind die Abbildungen 7 und 8 aus der jüngsten Aktualisierung der globalen Oberflächen-Temperatur (hier) ohne die Oberflächen-Temperaturprodukte.

Unter dem Strich die UAH-Änderungen betreffend: Anders als bei den NOAA-Daten können wir hier nicht sagen, dass die Änderungen der UAH-Daten ungerechtfertigt sind, weil sie denen von RSS so ähnlich sind; und als Folge können wir auch nicht sagen, dass die UAH-Daten überdreht sind.

Zusätzliche Beiträge:

Wir haben die ungerechtfertigten und überdrehten Änderungen bei den neuen Daten der Wassertemperatur hier, hier und hier diskutiert.

Und weil sich GISS jüngst dem neuen NOAA ERSST.v4-Datensatz zugewendet hat siehe hier.

Die Aktualisierung der UAH-Temperaturdaten aus der unteren Troposphäre habe ich in dem Beitrag hier besprochen.

Zum Schluss:

Ich habe diesen Beitrag geöffnet mit einem fundamentalen Unterschied zwischen den Änderungen der NOAA und von UAH bei den jeweiligen Temperaturprodukten: die NOAA-Aktualisierung hat den Erwärmungstrend ihres Datensatzes seit dem Jahr 1998 zunehmen lassen. Der andere fundamentale Unterschied: Die Änderungen im UAH-Datensatz können offensichtlich gerechtfertigt werden, während dies bei den Änderungen der NOAA-Daten genauso offensichtlich nicht der Fall ist.

Noch einmal: Dank an Tamino für die Gelegenheit, einmal mehr zu illustrieren, wie die NOAA ungerechtfertigterweise ihre Adjustierungen ihrer Daten auf Grundlage der ERSST.v4-Daten überdreht hat. Es hat immer Spaß gemacht, ihm zu entgegnen.

[Ist das bei den Forentrollen beim EIKE auch so? Anm. d. Übers.]

Link: http://wattsupwiththat.com/2015/07/20/fundamental-differences-between-the-noaa-and-uah-global-temperature-updates/

Übersetzt von Chris Frey EIKE




Die vorausgesagte Erhöhung der Erdtemperatur durch CO2 wird immer kleiner

Abb rechts (zum Vergrößern anklicken).   Die vorausgesagte Erwärmung wird mit den Jahren immer kleiner 

Auf  https://landshape.wordpress.com/2015/06/20/6921/  ist eine Zusammenstellung der veröffentlichten Ergebnisse von 2000 an zu finden. ( s. Abb. ) Hier bedeutet ECS ( equilibrium climate sensitivity ) die Temperaturerhöhung bei dauernd doppelt so hoher CO2 Konzentration. TCR ( transient climate response ) bedeutet die Temperaturerhöhung über 20 Jahre bei 1% pro Jahr Änderung der CO2 Konzentration um den Mittelwert der verdoppelten Konzentration herum ( 1% ist nicht unrealistisch ). TCR ist wegen der Trägheit der Ozeane geringer als ECS. Die veröffentlichten Werte für beide Größen sind mit den Jahren kontinuierlich gesunken.

Obwohl eine Verdopplung der CO2 Konzentration wegen der Begrenztheit der Vorräte an Öl und Kohle etc. kaum erreichbar scheint, liegt die Voraussage selbst für diese hohen Werte für ECS bei nur etwa 2°C und für TCT nur bei etwa 1,8°C.

Dies, wohlgemerkt, ohne irgendwelche „Dekarbonisierungs“-Anstrengungen, welche die Welt ohnedies in Armut stürzen würden ( sollen?? ).

michaels-testimony-7-22-15 SHARE SHARING OPTIONSStart at: 0:00LoopAutoplay PERMALINK https://videopress.com/v/fYPBkAya EMBED (HTML)

Videoausschnitt der Zeugenanhörung von Dr. Pat Michaels vor dem US Senast zum selben Thema. Hier finden Sie seine schriftliche Aussage

Wir dürfen den Politikern ( welche die Klimaliteratur offenbar nicht kennen ) also Entwarnung geben. Eine Erderwärmung um mehr als 2 Grad C ist ausgeschlossen.

Die Abnahme der vorausgesagten Temperaturerhöhungen durch CO2 dürfte sich entsprechend dem bisherigen Trend fortsetzen.  Ca. im Jahre 2025 wird also voraussichtlich Erwärmung durch CO2 gleich Null erreicht sein. Man darf also erwarten, dass dann die Qualität der Voraussagen so gestiegen ist dass sie sogar die Wirklichkeit korrekt wiedergeben.