1

300 Wissenschaftler wollen, dass die NASA endlich aufhört, Wahrheit zu verstecken

„Wir, die Unterzeichneten, Wissenschaftler, Ingenieure, Ökonomen und Andere, die sorgfältig die Auswirkungen des durch menschliche Aktivitäten freigesetzten Kohlendioxids untersucht haben, möchten unserer Unterstützung für die Bemühungen des Committee on Science, Space and Technology Ausdruck verleihen sicherzustellen, dass Agenturen der Regierung im Einklang mit den Vorschriften stehen, soweit es den Data Quality Act [etwa: Gesetz zum Erhalt der Qualität von Daten] betrifft“. Dies schrieben etwa 300 Wissenschaftler, Ingenieure und andere Experten dem Vorsitzenden des House Science Committee, dem Republikaner aus Texas Lamar Smith. „Unserer Ansicht nach … hat die NOAA gegen die Vorschriften des OMB (Office of Management and Budget) sowie gegen ihre eigenen Vorschriften verstoßen, die im Zusammenhang mit dem Data Quality Act ausgegeben worden sind“

Das Data Quality Act schreibt öffentlichen Agenturen wie der NOAA vor, „die Qualität, Objektivität, Brauchbarkeit und Integrität von Informationen sicherzustellen, einschließlich statistischer Informationen“.

Smith hat im Sommer des vorigen Jahres ein Ermittlungsverfahren gegen die NOAA angestrengt wegen Bedenken, dass die NOAA-Studie einzig der Unterstützung der politischen Agenda von Präsident Obama dienen soll. Demokraten und die Medien haben in großem Umfang gegen die Ermittlungen gegen NASA-Wissenschaftler und politische Beamte opponiert, aber Smith ist entschlossen, mit der Untersuchung fortzufahren. Im Dezember haben NOAA-Funktionäre E-Mails an Untersucher des Kongresses übergeben.

„Es ist der Kontrollauftrag des Komitees sicherzustellen, dass öffentliche Wissenschaftsagenturen transparent sowie dem Steuerzahler gegenüber Rechenschaft schuldig sind, die deren Forschungen finanzieren“, sagte Smith der Daily Caller News Foundation. „Die Amerikaner sind es leid, dass Forschung hinter geschlossenen Türen betrieben wird, von wo lediglich herausgepickte Schlussfolgerungen nach außen dringen, aber keine Fakten. Dieser Brief zeigt, dass Hunderte angesehener Wissenschaftler und Experten darin übereinstimmen, dass die Bemühungen der NOAA, historische Temperaturdaten zu verändern, sorgfältigste Untersuchungen verdienen“.

Von den 300 Unterzeichnern haben 150 einen Doktorgrad in benachbarten Fachgebieten. Unter ihnen sind auch: 25 Klima- oder Atmosphärenwissenschaftler, 23 Geologen, 18 Meteorologen, 51 Ingenieure, 74 Physiker, 20 Chemiker und 12 Ökonomen. Außerdem findet sich unter den Unterzeichnern ein Physik-Nobelpreisträger und zwei Astronauten.

NOAA-Wissenschaftler haben Temperaturmessungen in Kühlwasser für Schiffsmotoren dazu verwendet, andere Daten nach oben zu adjustieren, um den „Stillstand“ aus den Temperaturaufzeichnungen zu eliminieren.

Die fragliche NOAA-Studie behauptet, dass die Wissenschaftler eine Lösung des 15 Jahre langen „Stillstands“-Problems der globalen Erwärmung gefunden haben. Sie „adjustierten“ den Erwärmungs-Stillstand, indem sie die Temperaturaufzeichnungen von 1998 bis 2012 „adjustierten“ und behaupteten danach, dass die „neue Analyse eine mehr als doppelt so starke Erwärmung zeigte als die alte Analyse im globalen Maßstab“.

Versteckt die NOAA Daten zur globalen Erwärmung, die nicht zu ihrem Narrativ passen?

„Wie zahlreiche Wissenschaftler eingeräumt haben, sind die Messungen des in Schiffe einströmenden Kühlwassers eindeutig kontaminiert durch Wärmeleitung aus den Maschinen. Daher war niemals beabsichtigt, diese Daten für wissenschaftliche Untersuchungen heranzuziehen“, schrieben die Klimawissenschaftler Dr. Patrick J. Michaels und Dr. Richard Lindzen vom CATO Institute auf dem Wissenschaftsblog WUWT. „Das Aufwärts-Adjustieren guter Daten, damit diese zu schlechten Daten passen, scheint sehr fragwürdig“.

Und weiter: „Wenn wir die alten Daten von den neuen Daten subtrahieren, erkennt man sofort, dass die NOAA genau das getan hat“, schrieben der Klimaexperte Bob Tisdale und der Meteorologe Anthony Watts im gleichen Wissenschaftsblog. „Es ist immer wieder das Gleiche: Mit den Adjustierungen wird die Vergangenheit kälter gemacht, was folglich zu einer stärkeren Neigung des Temperaturanstiegs-Trends führt. Ihre Absicht und ihre Verfahren sind so offensichtlich, dass sie lächerlich sind“.

<iframe width="560" height="315" src="https://www.youtube.com/embed/1mlwlFSCb6A" frameborder="0" allowfullscreen></iframe>

See more here.

Link: http://icecap.us/index.php/go/political-climate vom 29.1.2016

Übersetzt von Chris Frey EIKE




Kohlendioxid: Das Elixier des Lebens

Photosynthese ist das, was das atmosphärische CO2 in kohlenstoffhaltige Materialien umwandelt, die Urbaustoffe aller Pflanzen. Als Folge des Umstands wiederum, dass Pflanzen die Nahrungsgrundlage aller höheren Lebensformen auf der Erde sind, enthalten diese auch dieses Element.

CO2 – ein Geschenk Gottes

Wirklich, ohne jenes CO2 wäre keinerlei Leben auf der Erde möglich, zumindest nicht von der Art wie derzeit. Es gibt keinen einzigen Organismus, dessen Körper keinen „Kohlenstoff“ enthält in einer von all seinen Millionen chemischen Formen. Es gibt keinen einzigen – Punkt!

Das Gottesgeschenk CO2 treibt auch den Photosynthese-Prozess an, der es den Lebensformen erlaubt, in Fülle zu blühen. Die Pflanzen brauchen das CO2 für ihr Wachstum und zur Ausbildung von Früchten oder Samen, von denen auch die höheren Lebensformen leben. Im Verlauf dieses Prozesses über viele Millionen Jahre wurde die Erdatmosphäre mit molekularem Sauerstoff angereichert, das für unsere Atmung unabdingbar ist. Dieser Sauerstoff ist, chemisch gesprochen, aus dem CO2 entnommen worden. Einfach gesagt: kein CO2 in der Luft bedeutet auch kein Sauerstoff in der Luft; es gibt keine andere Quelle atmosphärischen Sauerstoffs – Punkt!

Aber das ist nicht alles, die photosynthetische Umwandlung von CO2 in Pflanzenmaterial hat eine weitere Konsequenz. Trotz aller gegenteiligen Behauptungen ist CO2 der EINZIGE Grund, dass die Ozeane und Süßwasser-Systeme alkalisch sind, auch basisch genannt.

Sauer vs. basisch

Der pH-Wert ist eine Maßzahl für den Säuregrad. Liegt dieser unter 7,0, ist das System sauer, liegt er darüber, ist es basisch. In jedem Frühjahr weisen Ozeane und Süßwasser in allen Breiten steigende pH-Werte auf (sie werden basischer) als in den Tiefen des Winters. Dieses Phänomen wird auf der ganzen Welt gleichermaßen beobachtet, auch an der Forschungsstation ALOHA, etwa 150 km nördlich von Hawaii. Dazu wurden schiffsbasierte Messungen durchgeführt, die heute durch verschiedene, mit Kabeln verbundene Bojen und andere Geräte ersetzt wurden.

Obwohl weithin falsch verstanden, ist Leben eine konstante Wechselwirkung zwischen sauren und basischen Bedingungen. Zum Beispiel ist auch die Ausbreitung von Säugetieren davon abhängig. Zum Beispiel hat menschliches Sperma einen pH-Wert um 8,0. Im Gegensatz dazu ist das vaginale Sekret mit einem pH-Wert von 4 sauer. Wenn sonst kein weiteres, so zeigt allein schon dieses Beispiel die Wechselwirkung zwischen sauren und basischen Umgebungen in der Welt. Organismen im Wasser, egal ob Salz- oder Süßwasser, sind in dieser Hinsicht nicht davon unterscheidbar; Leben ist vom richtigen pH-Wert abhängig – überall.

Allerdings gibt es für all das eine große Bedingung: Das Ökosystem muss weiterhin so funktionieren, wie es das seit Millionen Jahren getan hat. Wird das System ernsthaft durch Überbeanspruchung oder durch das Habitat zerstörende Maßnahmen gestört, wird dies rasch zu katastrophalen langfristigen Konsequenzen führen. Ein Beispiel ist der Zusammenbruch der Kabeljau-Population vor der Küste Neufundlands. Nachdem sich der jährliche Fang von etwa 250.000 Tonnen seit Beginn des 20. Jahrhunderts auf etwa 750.000 Tonnen verdreifacht hatte – zumeist durch europäische Fischfangflotten – in den sechziger Jahren, haben die Kabeljau-Bestände drastisch abgenommen und sind bis zum Jahr 1992 praktisch verschwunden. Selbst heute, nach über zwei Jahrzehnten eines Fischerei-Moratoriums, warten die Kabeljau-Bestände immer noch auf ihre Rückkehr zur ursprünglichen Vielfalt.

Obwohl der Kabeljau vor Neufundland ein deutliches Beispiel ist, wurden andere Fischbestände anderswo in der Welt ebenfalls über ihre Kapazität der natürlichen Regeneration hinaus ausgebeutet. Viele Bücher beschreiben diesen Vorgang, z. B. Deserted Ocean von Norman Holy (ISBN-13: 978-1-4389-6494-2) sowie Out of Fishermen’s Hands von Gary Sharp et al.

CO2 – unabdingbar für die Photosynthese

Die oben erwähnte ALOHA-Station ist seit nunmehr über zwei Jahrzehnten in Betrieb, in jüngster Zeit zumeist automatisiert mittels einer Kabelboje. Wie jede Graphik der jährlichen pH-Wert-Variationen im Wasser zeigt, nimmt der pH-Wert des Wassers in jedem Frühjahr und Sommer zu, um im Herbst und Winter wieder abzunehmen. Sowohl jahreszeitliche als auch vieljährige Variationen der Ozean-Chemie werden an allen Forschungsstationen routinemäßig gemessen, einschließlich der fast 4000 autonomen Treibbojen des Argo-Netzwerkes. In großen Süßwassersystemen wie den Großen Seen werden regelmäßig ähnliche Messungen durchgeführt.

Die Daten all dieser Messungen zeigen allesamt das gleiche Bild: nämlich einen Anstieg der pH-Werte (Zunahme der basischen Eigenschaften), wenn die Natur erst einmal nach dem jahreszeitlich bedingten Schlaf erwacht und die primäre Produktion (Photosynthese) wieder in die Gänge kommt. Es ist wirklich ziemlich einfach, das zu erklären: Das CO2 wird vom Wasser aus der Atmosphäre entnommen, und zusammen mit im Wasser gelösten Mineralien und der jahreszeitlich zunehmenden Photosynthese-Aktivität nimmt der pH-Werte des Wassers ZU.

Ohne auch nur eine dieser drei Komponenten – d. h. Kohlendioxid, Mineralien und Sonnenlicht – gäbe es kein Leben auf der Erde, weder an Land noch im Wasser!

Seien wir dankbar für unser glückliches Schicksal, dieses Gottesgeschenk ausreichenden Kohlendioxids in der Atmosphäre zu haben!

Zusatz des Übersetzers: jeder, der das CO2 in der Atmosphäre bekämpfen will, will in Wirklichkeit das Leben auf der Erde bekämpfen! Jeder – auch die Kirche!

Link: http://canadafreepress.com/article/78404

Übersetzt von Chris Frey EIKE




Ein Blick zurück in die Zukunft

Die Studie

Ein Forscherteam  eines techno-esoterischen think tank[1] bekam die Aufgabe, die in der Natur vorhandene endlose Energie zu finden. Dabei ließ man sich von der Überlegung leiten, dass: … die etablierte Wissenschaft in ausgetretenen Pfaden denkt und nicht in der Lage sei, neue Wege zu gehen, so die Kritik. Dabei sehe sie den Wald vor lauter Bäumen nicht, denn eine unerschöpfliche Energiequelle sei überall vorhanden. Man brauche den Schatz nur zu heben …

Die Studie dazu wurde im Jahr 2005 vom Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung veröffentlicht: 

[2] Forschungsbericht BMZ-E5001-15:

Zukunftstechnologien für nachhaltige Entwicklung: Unkonventionelle Ansätze zur Energiegewinnung und Aktivierung biologischer Prozesse – Eine Darstellung und Erläuterung von sechs Erfolg versprechenden Verfahren

In der Studie selbst wurden: … Aus der Fülle vorhandener unkonventionelle … in einem umfassenden Auswahlprozess sechs Technologien identifiziert, die nach Einschätzung der Gutachter — sie zählen zu den wenigen Wissenschaftlern, die sich mit dem Gebiet unkonventioneller Ansätze in Wissenschaft und Technik seit mehreren Jahren intensiv beschäftigen —erfolgversprechend erscheinen … 

Behandelt wurden im Forschungsbericht die folgenden Verfahren: 

·       Pulsed Abnormal Glow Discharge (PAGD)-Technologie, die in einer Vakuum-Plasmaröhre mit gepulster Glühentladung elektrische Energie erzeugt

·       Charge-Cluster-Technologie, die in Geräten zur Energieproduktion oder als Low-cost-Ionenbeschleuniger eingesetzt werden kann

·       BlackLight-Prozess mit elektrolytisch erzeugtem Wasserstoff, wobei Energie, Wärme und Licht freigesetzt sowie neuartige Wasserstoffverbindungen erzeugt werden

·       Brownsches-Gas-Verfahren zur Erzeugung einer Wasserstoff-Sauerstoff-Mischung als alternatives Verfahren zum üblichen Azetylenschweißen

·       Plocher-Energie-System und Graviton-Bioenergie als biologische Verfahren, mit denen Wasser, Jauche und andere Flüssigkeiten, Mikroorganismen sowie Boden und Pflanzen behandelt und verbessert werden könne

Studienleiter war ein Forscher mit der Ausbildung Ethnologie, Religionsphilosophie und Psychologie und Verfasser von Büchern wie: 

·       Der Kristallplanet: Globale Netze, platonische Körper und die Musik der Erde

·       Unsere Seele kann fliegen: Über Nicola Tesla, Außerkörperlichkeit, heilige Orte im magischen Klangfeld, biologische und kosmische Zyklen, Gesichter … UFOs, keltisches Christentum und Geomantie.

Wie man sieht, lassen die Verantwortlichen in unserer Regierung wirklich nichts unversucht, (noch) die wahren  zukunftsfähigen Energiequellen ausfindig zu machen. Dann müsste man das gesamte EEG-Energiesystem zwar ebenfalls wieder umbauen. Aber ob Deutschlands Energiesystem nun nur 2 x oder dann 3 x umgekrempelt würde, wäre zum Schluss auch egal. Oder es hat doch jemanden gestört, denn der Bericht liegt beim Ministerium nicht mehr vor: … Leider führen wir den von Ihnen gewünschten Artikel nicht in unserem Artikelstamm. Daher sind der Versand und auch eine Vormerkung nicht möglich.

–        doch Google ist beim Suchen und Finden unerbittlich.

Eine kritische Gesamtsichtung mit ausführlichen technischen  Einzeldarstellungen ist in [3] nachlesbar. Diese Publizierung diente dem Autor auch als Vorlage für diese Info.

Quellen

[1]

Deutsche Vereinigung für Raumenergie, DVR 

[2]

Forschungsberichte des Bundesministeriums für wirtschaftliche Zusammenarbeit und Entwicklung:

Bericht E 5001- 15 Ausgabe 2005

https://www.psiram.com/media/dvr/BMZ-E5001-15.pdf 

[3]

Skeptiker 3-4/2007: Ein Bundesministerium auf der Suche nach dem Stein der Weisen




E-Auto Blamage – Letzte Rettung: subventionieren auf Teufel komm raus

Die Welt schreibt:

Die Kaufprämie ist der verzweifelte Versuch von Bundesregierung und Autoindustrie, das gemeinsame Großprojekt "deutsche Volksbatterie-Auto" zu retten. Die Kanzlerin hat sich den Batteriefahrzeugen verschrieben, weil sie Teil ihrer Energiewende sind. Und weil sie sich 2008 zu dem Ziel hinreißen ließ, bis 2020 eine Million Stromer auf Deutschlands Straßen gebracht zu haben. Die Autobauer brauchen die E-Fahrzeuge, um die immer schärferen Grenzwerte der EU-Kommission für den CO2-Ausstoß erfüllen zu können. 

Nur eine der beteiligten Parteien braucht die Elektroautos nicht: der Kunde. 

Das merkt man an den Zulassungszahlen. Derzeit sind hierzulande etwa 29.500 reine Elektroautos angemeldet. Dazu kommen 15.900 Plug-In-Hybride, also an Steckdosen ladbare Fahrzeuge mit E- und Verbrennungsmotor. Das ist verschwindend gering, egal welche Vergleichszahl man heranzieht. Der Pkw-Bestand in Deutschland liegt bei 45 Millionen, der Pkw-Markt betrug 2015 rund 3,2 Millionen. 

Schon vor über 115 Jahren erkannte der geniale Konstrukteur des Volkswagens Ferdinand Porsche die Vorzüge des Elektroantriebs für die Automobile und ließ sich den Vierradantrieb eine Autos  mittels auf die Achse montierten Elektromotors patentieren.  Doch aus der tollen Idee wurde bis heute nichts.

Die Gründe sind vielfältig, doch der Hauptgrund ist die Unmöglichkeit genügend Batteriekapazität – dazu noch schnell genug aufladbar – für eine konkurrenzfähige Reichweite bei genügend Komfort- bereit zu stellen. Benzin- und Dieselgetriebene Fahrzeuge bleiben in allen wichtigen Disziplinen unschlagbar.

So liefert ein 50 l Dieseltank dieselbe Energiemenge wie eine knapp 14 t schwere Bleibatterie.  Selbst die sehr viel teurere Lithium-Ionen Batterie, die jeder aus seinem Smartphone kennt, bringen dafür noch stolze 2,5 t auf die Waage.

Und brauchen Stunden um wieder aufgeladen zu werden, während der Diesel/Benzin-Tank in wenigen Minuten gefüllt ist. 

Auch wenn man berücksichtigt, dass, dank des hohen Wirkungsgrades des Elektroantriebes, das Gewicht des Autos vielleicht 30 bis 40 % geringer ist, denn man braucht kein Getriebe, keinen hochfesten Motorblock, keine  Übertragungsstränge, etc. bleibt ein kaum brauchbares Fahrzeug für den täglichen Gebrauch.

Bei schönem aber kühlem Wetter gerade mal auf Kurzstrecken verwendbar, im heißen Sommer mit Klimaanlage und im Winter mit Beleuchtung und notwendiger Heizung hingegen völlig unnütz. Aber dafür teuer!

Und deswegen reagieren die Käufer mit Verweigerung. Völlig marktkonform.

Der mögliche geringe Nutzen steht zum sehr hohen Aufwand in keinem Verhältnis. Und bei den Batterien ist aus naturgesetzlichen Gründen kein großer Fortschritt mehr möglich. U.a. verhindert das die von der Natur festgelegte elektrochemische Spannungsreihe. Das wissen die Autobauer seit über 100 Jahren. 

Nur die Politik will mal wieder gegen die Natur- wie Marktgesetze vorgehen. Stalin und Lyssenko lassen grüßen.

Die „Klima- und Energiewendekanzlerin“ Angela Merkel, samt ihrem willfährigen Kabinett wird das jedoch nicht hindern, weitere zig Milliarden dem Steuerzahler  abzuknöpfen und sie den Automobilkonzernen in den Rachen zu werfen.  

Wir schaffen das!

Nämlich mal wieder Steuermilliarden für ein ideologisches Phantom zu verbrennen.




Rückblick auf den Januar 2016

Bild rechts: Januar 2016: In Teilen Deutschlands zeitweise recht winterlich, so wie hier im Thüringer Becken. Foto: Stefan Kämpfe

Über die letzten 29 Jahre zeigt sich überraschendes:

Grafik1: Der Wintermonat Januar wurde überhaupt nicht wärmer in den letzten 29 Jahren. Alle deutschen Medienmeldungen der letzten vier Wochen über den Januar waren falsch. Die Trendlinie zeigt eine deutliche Abkühlung. Seit 1988 fallen die Januartemperaturen in Deutschland. Es wird kälter und nicht wärmer.

Und wie gegensätzlich sich die Januar- Temperaturen und die CO2- Konzentration entwickelt haben, zeigt die folgende Grafik am Beispiel der DWD- Station Erfurt/Weimar (der Januar 2016 ist an dieser mit einem vorläufigen Wert von 0,2°C fast normal ausgefallen):

Grafik 2: Temperaturentwicklung in Erfurt (316m). Um sie in einem Diagramm mit der CO2-Konzentration, welche von 351 ppm (1988) auf knapp über 400 ppm (Anfang 2016) am Mauna- Loa- Observatorium gestiegen ist, mussten Indexwerte berechnet werden. Den wärmsten Januar seit 1988 gab es hier 2007 mit +4,4°C, den kältesten 2010 mit minus 5,1°C.

Nun sind diese Messungen des DWD nicht wärmeinselbereinigt. Seit 1988 hat die Bevölkerung Deutschlands leicht zugenommen, vor allem aber wurde überall gebaut, täglich kommen 110 ha an Gebäuden und Straßen hinzu, Heizungen und Autos haben zugenommen und die gesamte in den Molekülen gespeicherte Wärme der fossilen Energieträger dient der Aufheizung der Städte und der freien Landschaft. Neuerdings heizen die „Erneuerbaren Energien“ der freien Landschaft kräftig ein, denn die Windräder verhindern, dass sich nachts eine bodennahe Kaltluftschicht bildet; tagsüber bremsen sie den kühlenden Wind in Bodennähe. Und die Solarpaneele der „Solarparks“ wandeln kaum 10% der Solarenergie in Strom um, absorbieren aber durch ihre dunkle Oberfläche fast alle übrige eintreffende Solarenergie, während die ungestörte, im Januar nicht selten schneebedeckte Landschaft fast alle Solarenergie reflektiert. Diese schleichende, jährlich wachsende Zusatzwärme ist in den DWD-Messdaten verborgen. Könnte man Sie herausrechnen, also um einen Wärmeinselfaktor –WI- korrigieren, dann wäre die Abkühlung noch stärker. Die menschengemachte Zusatzwärme wirkt der Januarabkühlung sogar entgegen, ohne diese Zusatzwärme würde die Trendlinie noch stärker fallen.

Wir fragen uns: Wie hoch ist diese menschengemachte Zusatzerwärmung im Zeitraum der letzten 29 Jahre? bzw. wie stark wäre die Januarabkühlung in Deutschland, wenn sich unser Land in diesem Zeitraum überhaupt nicht durch Menschenhand verändert hätte. Über einen Leser haben wir den Zugriff auf die Station Amtsberg am Fuße des Erzgebirges erhalten. Glücklicherweise scheint dort die Zeit seit fast 30 Jahren stehen geblieben zu sein, so dass wir die Station als fast WI-frei und in einer größeren Umgebung als fast unbeeinflusst bezeichnen können.

Grafik 3: Bei der fast WI-freien Station Amtsberg am Fuße des Erzgebirges in der Nähe von Chemnitz sehen die letzten 29 Januarmonate ähnlich aus wie die DWD-Grafik

Es gibt zu den DWD-Werten für Gesamtdeutschland jedoch zwei Unterschiede:

1.) Der Monat Januar ist gegenüber dem Deutschlandschnitt etwa um 1 Grad kälter.

2.) In der linken Hälfte des Diagrammes, also zu Beginn der Betrachtung lagen die Temperaturen noch näher beieinander, in der rechten Hälfte wird der Temperaturunterschied zwischen Deutschland und Amtsberg größer.

Das führt im Endeffekt dazu, dass die Trendlinie von Amtsberg fallender ist als die von Deutschland. Wie aus den beiden Grafiken ersichtlich, wurde der Januar in Deutschland kälter, aber in Amtsberg noch kälter. Der Unterschied der beiden Trendlinien ergibt eine Größenabschätzung auf den Januar-Wärmeinseleffekt für Deutschland in den letzten 29 Jahren.

Überschlag: Die DWD-Trendlinie ist um 1 K gefallen, die von Amtsberg um 2 K. Demnach beträgt der WI für Deutschlands für den Monat Januar über die letzten 29 Jahre etwa 1 Kelvin, wobei anzumerken ist, dass der Vergleich einer einzelnen Station mit dem „Rastermittel“ des DWD nur grobe Hinweise liefern kann.

Dieser Betrag ist weitaus mehr, als wir, genauer Raimund Leistenschneider aus seiner statistischen Erhebung mit 0,6K für die letzten 35 Jahre für die DWD-Jahresmittelwerte errechnet hat.

Fehlerabschätzung: Nun könnte man natürlich einwenden, dass es sich nur um den Januar handelt, und in diesem Monat wird besonders viel geheizt, ebenso verbrauchen die Autos 30% mehr Sprit und der Stromverbrauch liegt im Januar ebenfalls um 50% höher als in den Sommermonaten. Und jedwede Energie wird am Schluss als Wärme in die Landschaft freigesetzt. Haben wir durch die Auswahl des Monates Januar also cherry- picking betrieben?

Auch lassen wir den Einwand zu, dass sich das Erzgebirge in den letzten 29 Jahren mehr abgekühlt haben könnte als das restliche Deutschland. Diesen Bedenken wollen wir in den nächsten Artikeln selbst nachgehen, indem wir einerseits nach anderen fast WI-freien Stationen im Rest Deutschlands suchen werden, aber auch genauso mit „normalen“ Messstationen Stationen im Erzgebirge vergleichen wollen. Also mit solchen, wo in der Umgebung der angebliche Aufschwung Ost und die blühenden Landschaften, die in der Realität eine Naturzerstörung darstellen, angekommen sind.

Trotzdem waren wir bei unserer Arbeit selbst überrascht, dass sich der in den deutschen Daten versteckte, schleichend anwachsende WI-effekt auf so einfache Weise zeigen lässt, und dass unsere bislang angegebene Größenordnung des WI stimmt. Der DWD gibt inzwischen längst zu, dass seine erhobenen Daten nicht wärmeinselbereinigt sind.

Und wer von den Lesern zum ersten Male von unserem WI-Korrekturfaktor hört und nur staunt, dem sei lediglich gesagt: Dass man die Temperaturen von heute und von früher nicht direkt vergleichen kann.

1.) Ab 20 Jahre Zeitdifferenz braucht man einen WI-Korrekturfaktor.

2.) Der WI-Korrekturfaktor ist umso höher, je größere Zeiträume man betrachtet.

Wir möchten abschließend aber auch betonen, dass die Leiter der Wetterstationen zuverlässig arbeiten, ihre erhobenen Daten sind nicht anzweifelbar. Diese und der DWD in Offenbach können nichts dafür, dass sich Deutschland laufend durch menschliche Eingriffe wärmend verändert. Umso größer dürfte die Überraschung sein, dass der Monat Januar sich trotz dieser WI-Zusatzwärme seit 29 Jahren deutschlandweit sogar abkühlt.

Zu den Medienkatastrophenmeldungen über eine angebliche Erwärmung in diesem Januar in Deutschland sei noch gesagt: Die waren natürlich alle falsch, am Nordpol herrscht Polarnacht und die Eisbären halten Winterschlaf. Die Eisfläche ist auf fast 15 Mio km2 angewachsen und wird sich bis Ende März weiter vergrößern. Der Ausdruck Lügenpresse stimmt auch diesmal weitgehend wieder.

Jedoch fiel der Januar 2016 mit 1,2 C in Deutschland auch nicht übermäßig kalt, sondern durchschnittlich aus. Dabei gab es aber starke räumlich- zeitliche Temperaturkontraste zwischen einem viel kälteren Nordosten und einem insgesamt milden Südwesten, was ebenfalls beweist, dass nicht die CO2- Konzentration, sondern Großwetterlagen und Luftmassen bestimmen, wie warm oder kalt es ist:

Grafik 4: In der ersten Januardekade 2016 herrschten über Deutschland enorme Temperaturgegensätze von 15 Kelvin: Minus 9 Grad an der Oder, plus 5 Grad westlich des Rheins. Bildquelle: wetteronline.de, ergänzt von Stefan Kämpfe

In anderen Teilen der Welt kam es zu neuen Kälterekorden. Darüber wurde sogar kurz in den Medien berichtet:

Dieser asiatische Kälteeinbruch ist bemerkenswert, denn Taiwan und das ebenfalls betroffene Honkong liegen auf einem südlicheren Breitengrad, als Kairo!

Wir fordern unsere Leser auf, anhand unserer Grafiken den Medien vor Ort mitzuteilen, dass der Monat Januar nicht wärmer, sondern seit 29 Jahren kälter wird und dass die Klima-Abkühlung des Monates Januar viel größer wäre, wenn man die schleichend wachsende Zusatzwärme aus den DWD-Daten herauskorrigieren würde.

Josef Kowatsch, Naturbeobachter und unabhängiger Klimaforscher

Stefan Kämpfe, Diplom- Agrar- Ingenieur, unabhängiger Natur- und Klimaforscher




Es ist 10 vor 10: Zeit für falschen Klimaalarm im Schweizer Fernsehen

Nummer eins kann hier als Video aufgerufen werden. Wie üblich bei diesem Thema werden Wasserdampfschwaden aus Schornsteinen gezeigt, während im Text vom CO2 die Rede ist. Klassisch. Es werden Pinguine gezeigt, die bei wärmeren Temperaturen aussterben würden. Das glatte Gegenteil von dem, was die Wissenschaft sagt: “Neue Studie: Adélie-Pinguine in der Antarktis profitieren von der Klimaerwärmung“. Weizen und Mais würden ebenso leiden, heißt es im Film. Stimmt das? Auch ier sieht die Realität anders aus:

·       Weshalb steigt die globale Weizenernte immer weiter an, obwohl der Weizen doch angeblich vom Klimawandel bedroht ist?

·       Neue Studie: Klimawandel könnte globale Agrarfläche deutlich vergrößern

·       Gute Nachrichten: Mais trotzt dem Klimawandel

·       Bericht der EU-Kommission: Erwärmung um zwei Grad könnte europäische Ernten steigern

Bemerkenswert ist, dass der Sender einem WWF-Klimaaktivistenvertreter eine Bühne bietet. Der WWF hat sich über die Jahre eng mit dem Establishment verwoben, was hochbedenklich ist:

·       Neuer Klimawandel-Topberater des UN-Generalsekretärs kommt vom WWF

·       IPCC-Leitautor des Ozeankapitels war lange bei Greenpeace und dem WWF beschäftigt

·       Wissenschaft ist fassungslos über peinliche WWF-Panne: Umweltaktivisten postulieren mehr Schiffsunfälle durch Klimawandel

·       Klimatische Walross-Katastrophe des WWF in Alaska entpuppt sich als Ente: Ähnliche Treffen hat es bereits früher gegeben, unabhängig von der Meereisbedeckung

Damit gehen wir zum zweiten Videoclip über, den Sie hier aufrufen können. Auftritt Andreas Fischlin, Klimaforscher an der ETH Zürich. Wie nicht anders zu erwarten predigt er die Klimaapokalypse: Es wird schlimm! Klimaflüchtlinge! Landwirtschaftliche Produktion bricht ein! Weltuntergang! Wir hatten die Argumentationsmuster bereits in der Vergangenheit einem Faktencheck unterzogen. Das Resultat war haasträubend. SRF hätte Fischlin nach Lektüre der Analyse niemals einladen dürfen. Siehe: “Attacke von IPCC Leitautor Andreas Fischlin gegen Fred Singer: Ein überfälliger Faktencheck“. Besonders schlimm: Der SRF-Moderator stellt keine einzige kritische Frage, dient lediglich als Stichwortgeber für Fischlin und seinen Klimaalarm. Apropos Fischlin. In seinem Lebenslauf behauptet er:

Als führender leitender Autor des zweiten und vierten Sachstandsberichts des IPCC ist er Mitempfänger des Friedensnobelpreis der dem IPCC 2007 verliehen worden ist.

Das ist falsch. Das Nobelpreiskommittee hat deutlich gemacht, dass es den Nobelpreis an die Organisation IPCC verliehen hat und nicht an die Autoren. Etlichen anderen IPCC-Autoren wurde mittlerweile untersagt, sich als ‘Nobelpreisträger’ bzw. Mitempfänger zu bezeichnen. Das sollte eigentlich auch für Fischlin gelten.

Schließlich noch zu Clip 3 (hier anzuschauen). Ausflug auf die Fidschiinseln und nach Kiribati. Geniale Dienstreise für die SRF-Reporterin. Beim ehemaligen Dorf Vunidogoloa auf der zweitgrößten Fidschi-Insel Vanua Levu zeigt ein Mann, wie der Klimawandel sein Haus mehrere Meter hoch überflutet hat. Seltsam, da der Meeresspiegelanstieg seit 1850 doch lediglich 30 cm oder so betragen hat. Irgendetwas ist faul. Die Reporterin hatte die Info wohl von der Klimaaktivistengruppe tck tck tck übernommen.

In Wirklichkeit ist wohl folgendes passiert: Das Dorf war direkt an der Küste gelegen, was in Gebieten mit normaler Küstenerosion niemals eine gute Idee ist. Es war also eine Frage der Zeit, dass das Dorf irgendwann umgesiedelt werden musste. Auch am Roten Kliff in Sylt kracht ab und zu ein Haus die Klippe hinunter, warum sollte es in Fidschi anders sein? Platz genug gibt es auf Vanua Levu auf jeden Fall, denn es handelt sich um eine vulkanische Insel, deren höchster Punkt 1111m (also mehr als einen Kilometer) über dem Meeresspiegel liegt. War es pure Bequemlichkeit der Fischer, direkt an der gefährlichen Küste zu wohnen?

Mittlerweile ist das Dorf auf eine höhere Hanglage umgesiedelt worden. Vernünftig, aber kein Grund ein großes Klimadrama draus zu machen. Letztendlich war es wohl ein tropischer Wirbelsturm, der die Küstenerosion im März 2010 sprunghaft vorantrieb. Zyklon Tomas knabberte kräftig an der Küste und ließ das Dorf letztendlich versinken. Derartige Stürme sind keine Seltenheit in der Region. Eine Zunahme der Wirbelstürme ist im Pazifik in den letzten 100 Jahren nicht verzeichnet worden. Es ist daher gewagt zu erklären, der Wirbelsturm wäre eine Folge des Klimamwandels und daher das Versinken des Dorfes und die Umsiedelung der Bewohner ebenfalls.

Abschließend dann noch das angeblich von der Sintflut allmählich überschwemmte Kiribati. SRF drückt kräftig auf die Tränendrüse. Und das, obwohl die Realität ganz anders aussieht:

·       Gute Nachrichten aus dem Pazifik: Meeresspiegel in Kiribati in den letzten 20 Jahren ohne langfristigen Anstieg

·       Kiribati geht unter – oder vielleicht doch nicht?

Die SRF-Sendung stellt eine unkritische IPCC-Werbeaktion dar und erfüllt den staatlichen Anspruch auf ausgewogene Berichterstattung nicht. Ein wahres Trauerspiel.

Übernommen von Die kalte Sonne




Gefunden: Es gibt eine fast wärmeinselfreie Wetterstation in Deutschland

Bild rechts: DWD-Wetterstation mitten in der Stadt.

Problematisch wird das Ganze jedoch, wenn die gemessene Erwärmung überwiegend dem „CO2- Treibhauseffekt“ angelastet wird. Die schleichende Erwärmung bei den Messstationen ist jedoch überwiegend eine Folge diverser, miteinander verknüpfter Faktoren, wobei geänderte Großwetterlagenhäufigkeiten und eine höhere, intensivere Sonnenscheindauer besonders an schon WI- belasteten Stationen die WI- Effekte verstärken, weil dort erwärmungsbremsende Faktoren wie Verdunstung, Wolken- und Nebelbildung vermindert sind. Um die Temperaturen mit früher vergleichen zu können, muss man diese schleichende Veränderung aus den Diagrammen herausrechnen. Wir (Leistenschneider, Kowatsch, Kämpfe) haben das getan, die WI-bereinigten Deutschlandtemperaturen über die letzten 125 Jahre sehen dann so aus:

Grafik 1a: WI: Die hier dargestellte WI- Bereinigung (Berechnung: R. LEISTENSCHNEIDER) entspricht sicher nicht völlig der (leider schwer zu fassenden) Realität, wir gehen von einer Wärmeinselerwärmung von 1,2 K seit 1891 aus. Wir geben den flächenhaften WI-effekt mit einer Streubreite von plus/- 0,3K an.

Grafik 1b: Unsere WI-bereinigten Deutschlandtemperaturen, die grüne Kurve von 1a. Man sieht deutlich, dass der größte Teil der vom DWD gemessenen Erwärmung der letzten 125 Jahre auf den schleichend steigenden Wärmeinseleffekt zurückzuführen ist. Von der behaupteten angeblichen C02-Erwärmung ist nach der WI-Bereinigung nicht mehr viel übrig geblieben. WI-bereinigt wäre 1934 das wärmste Jahr und nicht 2014. Auch WI-bereinigt haben wir zwischen 1955 und 1980 ein Kälteloch.

Und für den Laien nochmals der Unterschied zwischen WI und UHI:

1) Der UHI vergleicht zwei Messstationen, eine in der Stadt, die andere auf dem Land.

2) Unser flächenhaft sich entwickelnder WI vergleicht nur eine Station mit sich selbst und beschreibt die wärmenden Veränderungen in der Region über einen längeren Zeitraum.

Die interessierten Leser unserer Artikel haben immer wieder nach Beweisen gefragt und die von Herrn Leistenschneider entwickelte statistische Abschätzungsmethode kritisiert. Grundsätzlich aber wurde dieser flächendeckende historisch sich entwickelnde WI-effekt anerkannt, nur mit der Höhe war man nicht einverstanden. Auch der DWD gibt auf Nachfrage zu, dass seine erhobenen Daten nicht flächendeckend wärmeinselbereinigt sind. Man erhebe die Daten vom heutigen Deutschland und vergleiche mit früher und da gäbe es nun mal eine Erwärmung, meinte der DWD. Die Interpretation der Erwärmung überlasse man anderen.

Gefunden: Der Idealfall zur Überprüfung der WI-Größe wäre natürlich eine Region, die sich seit 1891 nicht verändert hätte, mit den gleichen Menschen und dem gleichen Kaiser, den gleichen Gebäuden und derselben Infrastruktur. Und wer lange sucht wird mitunter fündig. So bekamen wir aus der kleinen Gemeinde Amtsberg am Rande des Erzgebirges eine Meldung, dass sich ihr Ort in den letzten 50 Jahren eigentlich gleich geblieben wäre, gleiche Einwohnerzahl, gleiche Häuserzahl, gleich viel Straßen, gleich viele Füchse, gleich viel Gute Nacht. Und seit 1982 gibt es glücklicherweise sogar eine Wetterstation an einem fast gleich gebliebenen Standort. Diese Station liegt am Fuße des Erzgebirges südöstlich von Chemnitz in 425 Metern Höhe:

Bildquelle www.amtsberg-wetter.de. Der rote Punkt markiert die Lage der Privatstation. Die vorhandene Bebauung und die teils gärtnerische, teils agrarische Nutzung sowie ein großes, baumbestandenes Areal blieben seit 1982 nahezu unverändert.

Um zu prüfen, ob die Messwerte vertrauenswürdig sind, haben wir diese zunächst anhand der Jahresmitteltemperaturen mit dem DWD- Mittel für Sachsen und mit der DWD- Station Chemnitz- Stelzendorf, einer typischen DWD- Station in der Nähe, am südwestlichen Stadtrand von Chemnitz unweit dichter Bebauung gelegen, verglichen:

Grafik 2: Sachsen (rot- braune Trendlinie und Verlauf der Einzeljahre) erwärmte sich seit 1982, dem ersten Jahr, in dem in Amtsberg kontinuierlich gemessen wurde, deutlich stärker.

Grafik 3: Auch im Vergleich von Station zu Station zeigt sich eine stärkere Erwärmung der DWD- Werte, hier im 20 Km entfernten Chemnitz (violett).

Als nächstes sollen nun- aus aktuellem Anlass- die vom DWD für Deutschland erhobenen, nicht WI-bereinigten Wintertemperaturen mit denen der fast WI-freien Messstation Amtsberg verglichen werden. Winter sind die Monate Dezember, Januar, Februar. Beginnen wollen wir mit den letzten 30 Jahren, also von 1986 bis 2015.

Grafik 4: Die Winter in Deutschland sind in den letzten 30 Jahren trotz des Auf und Ab insgesamt ausgeglichen. Es gibt keinerlei Trend. Die Daten sind die Originaldaten des DWD, also nicht wärmeinselbereinigt. Und in den letzten 30 Jahren hat sich Deutschland wärmend verändert, denn täglich werden 110 ha der freien Fläche überbaut und beheizt. Der Autoverkehr hat enorm zugenommen, genauso der Flugverkehr. Und der heizt den Messstationen an den Landebahnen kräftig ein.

Dem soll nun zum Vergleich die fast WI-freie Klimastation Amtsberg gegenübergestellt sein:

Grafik 5: Die fast WI-freie Klimastation Amtsberg hat eine fallende Trendlinie. Die Winter wurden dort kälter in den letzten 30 Jahren. Die Trendlinie fällt etwa 0,4K in 30 Jahren. Auf ein Jahrzehnt gesehen wäre dies eine Abkühlung von 0,13 K je Jahrzehnt. Behauptet wurde von den Erwärmungsgläubigen natürlich eine Erwärmung und mit gefälschten Computergrafiken die Erwärmung in den Medien verbreitet. Die Realität ist aber die Wetterstation Amtsberg.

Das Ergebnis dürfte auch die Erwärmungsanhänger überraschen. 30 Jahre ist eine Klimaeinheit und zu Messbeginn hatten wir zwei ausgesprochen kalte Winter, während die Winter am Ende eher zu den milden zählen. Der Vorwurf eines „cherry picking“ scheidet also offensichtlich aus.

Können wir das Ergebnis auf Deutschland übertragen? Wir meinen grundsätzlich ja, WI-bereinigt wurden die Winter in den letzten 30 Jahren kälter in Deutschland. Fraglich ist nur, ob der Abkühlungsfaktor von 0,13K/je Jahrzehnt eher Zufall ist. Deshalb betrachten wir nun einen kürzeren Zeitraum. Schließlich begannen die Panikmeldungen über die angeblich vom Menschen verursachte C02-Erwärmung kurz vor der Jahrtausendwende mit den Meldungen, dass nun die C02-Erwärmung einsetzen werde.

Wir wählen deshalb den Zeitraum ab 1995, also die letzten 21 Winter. Wir möchten hervorheben, dass auch 1996 und 1997, also der Beginn des Betrachtungszeitraumes, besonders kalt war, deutschlandweit und in Amtsberg.

Grafik 6: Die letzten 21 Winter waren laut DWD ziemlich ausgeglichen. Die Trendlinie für Deutschland zeigt eine leichte unbedeutende Steigung von 0,1K in 21 Jahren

Und so sehen die letzten 21 Winter im fast WI-freien Amtsberg aus.

Grafik 7: Wieder haben wir in einer fast WI-freien Umgebung eine fallende Trendlinie, diesmal von etwa 0,6 K in 21 Jahren.

Der Wärmeinselunterschied beträgt zwischen Grafik 7 und Grafik 6 beträgt demnach 0,7K in 21 Jahren. Bei aller Vorsicht erhalten wir wiederum die 0,33 K Abkühlung je Jahrzehnt. Weiter oben haben wir betont, dass wir kein Cherry-picking betreiben, da wir stets Anfangsjahre mit kalten Wintern gewählt haben. Das soll im letzten Beispiel unterbleiben.

Wir nehmen die letzten 18 Jahre als Betrachtungszeitraum, auch deshalb, weil in viel kürzeren Zeiträumen die Wärmeinselerwärmung, also die von Menschen durchgeführte erwärmende Landschaftsveränderung noch nicht so groß ist.

Grafik 8: Die Winter wurden in den letzten 18 Jahren in Deutschland deutlich kälter. Erinnern wir uns an die Vorhersagen eines bedeutenden deutschen Klimaerwärmungsmärchenerzählers: Deutschland wird keine Winter mehr erleben. Das Gegenteil ist die Realität.

Grafik 9: Die Trendlinie in Amtsberg ist etwas stärker fallend wir die Deutschlandlinie. In kürzeren Zeiträumen wirken sich die WI-effekte weniger aus als über längere Zeiträume.

Ergebnisse:

1) Wärmeinselbereinigt sinken die Wintertemperaturen bereits seit 30 Jahren in Deutschland. Das zeigt die fast WI-freie Messstation in Amtsberg

2) Bereits anhand der Wintertemperaturen konnten wir zeigen, dass die Wärmeinselerwärmung bei den Messstationen über 20 Jahre hinaus deutliche Wirkungen auf die vom DWD erfassten Temperaturen zeigt.

3) Daraus schließen wir: Bei Betrachtungszeiträumen über 20 Jahre hinaus braucht man einen WI-Korrekturfaktor um zu wissen, welche Zusatzwärme durch die vom Menschen erzeugte Landschaftsänderung erfolgt.

4 )m Großen und Ganzen konnte bereits bei dieser Minimalauswahl an Vergleichen der von uns in Grafik 1 benutzte WI-Korrekturfaktor absolut bestätigt werden. In weiteren Artikeln werden wir dann weitere Jahreszeiten betrachten und weitere Beispiele einfügen.

Es muss betont werden, dass die hier vorgestellten Ergebnisse nicht abschließend sind und einer weiteren Bestätigung durch mehr Messstationen bedürfen. Allerdings hatten wir schon anhand unserer phänologischen Beobachtungen festgestellt, dass die Erwärmung in der freien Landschaft weitaus weniger dramatisch verlief, als von offizieller Seite stets behauptet wird. Näheres dazu unter http://www.eike-klima-energie.eu/climategate-anzeige/wonnemonat-mai-neuerdings-leicht-unterkuehlt/ und http://www.eike-klima-energie.eu/news-cache/der-fruehling-beginnt-in-deutschland-seit-fast-drei-jahrzehnten-etwas-spaeter-warum/

Fazit: Gerade die Station Amtsberg zeigt bereits bei den Wintertemperaturen und über einen viel kürzeren Zeitraum als 125 Jahre, dass der von uns beschriebene flächenhafte WI- Effekt erheblich ist.

Josef Kowatsch, Naturbeobachter und unabhängiger Klimaforscher

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher




Tollhaus EEG in Faschingsstimmung: Wo wenig Wind weht, soll er nun besonders gefördert werden

[1] Frankfurter Allgemeine, Auszüge:

Weil aber nicht nur windstarke küstennahe Standorte den Zuschlag bekommen sollen, würden sie mit einem Abschlag bestraft, schlechte Bauplätze im Binnenland mit einem Zuschlag belohnt.

So könnte an Standorten, die nur 70 Prozent des Referenzwertes erreichen, die Förderung auf fast 10 Cent je Kilowattstunde steigen, an Standorten mit 80 Prozent immer noch auf knapp 9 Cent, wie das Bundeswirtschaftsministerium auf Anfrage bestätigt hat. Laut Bundesverband Windenergie bekommen Windstromerzeuger heute für Neuanlangen 8,8 Cent je Kilowattstunde.

 

Parteifreund Fuchs moniert: „Wir würden Schwachwind-Anlagen fördern, die international nicht marktfähig sind, und die Kosten des Windkraftausbaus würden deutlich steigen.“ Auch erhöhe der Vorschlag nicht die Akzeptanz der Windkraft. „Die Zeichen der teuren Ineffizienz, also gigantische Rotorblätter und trotzdem wenig Bewegung, sind ist ja mit bloßem Auge zu erkennen.“

 

Man sollte aber nicht denken, die Kritik wäre Einsicht oder ein Umdenken. Es geht nur darum, dass andere nicht mehr Subvention bekommen sollen als man selbst.

 

[1] Davon aber halten die Ministerpräsidenten der Nordländer, die mehr Windstrom wollen, wenig. Sie treffen sich diesen Montag zu einem „Windenergiegipfel“ in Wismar. Im Vorfeld warnten Umweltschützer und Windstromerzeuger, mittels Ausschreibung solle „die Windkraft an Land hart ausgebremst werden“.

 

Und sieht man in den Gesetzentwurf fällt eine Aussage auf, welche sich durch die deutsche Politik inzwischen wie ein sprichwörtlicher roter Faden zieht und nun sogar in Gesetzestext gegossen wird:

 

[2] C. Alternativen: Keine.

 

Auch die politische Entscheidungsregel: Fehlentscheidungen werden nicht gelöst sondern subventioniert, treibt ungehemmt weiter seine Stilblüten. Weil der Ausbau der nie bedarfsgerechten und vorhersehbaren Einspeisung den Katastrophenzustand im Netz erreicht hat, kam man auf eine grandiose Idee. Die einzige grüne Energie (neben der nicht ausbaubaren Wasserkraft) welche eine Grundlastfähigkeit aufweist muss nun auch abgeregelt werden:

 

[2] Bei Biomasse wird sichergestellt, dass die Anlagen künftig stärker bedarfsorientiert einspeisen; die damit verbundene Reduzierung der jährlichen Stromerzeugung wird durch einen Flexibilitätszuschlag ausgeglichen.

 

Aber selbstverständlich bezahlt der Stromkunde das was er nicht bekommt auch hier trotzdem. Wie das Staatsfernsehen kommt nun wohl der Staats-Strom: Er ist zu bezahlen, ob man ihn will oder nicht. Bald wird er wohl von einem Gebührenministerium pauschal abgebucht.

 

Quellen

[1]

Frankfurter Allgemeine 25.01.2016: Windkraft-Förderung an windstillen Orten

 

[2]

Gesetzentwurf der Bundesregierung (314 Seiten): Entwurf eines Gesetzes zur grundlegenden Reform des Erneuerbare-Energien-Gesetzes und zur Änderung weiterer Bestimmungen des Energiewirtschaftsrechts 




Globale Mitteltemperatur! Abschluss-Statistik 2015: jetzt einschließlich Dezember 2015

Bild rechts: WoodForTrees.org – Paul Clark – Quelle

Die folgende Tabelle zeigt die zehn an erster Stelle stehenden Jahre mit den Werten der fünf Datensätze, die ich betrachte. „1 Jahr“ nennt das Jahr mit der wärmsten Anomalie jenes Datensatzes, und „1 ano“ zeigt die Anomalie jenes Jahres, und so weiter. Allerdings habe ich eine Extraspalte hinzugefügt, über die ich ebenfalls sprechen werde, nämlich GISS. GIS6 sind die jährlichen, im Januar 2016 veröffentlichten Anomalien, GIS5 diejenigen, die im Januar 2015 bekannt gegeben wurden.

Zu allererst möchte ich die Aufmerksamkeit auf die Anomalien der Jahre 2014 und 1998 lenken, wie schon im vorigen Jahr. Im vorigen Jahr hatte die Anomalie für 1998 61 und für 2014 68 betragen, wie aus der Spalte GIS5 hervorgeht. In Spalte GIS6 erkennt man, dass es für das Jahr 1998 einen Sprung um 2 auf 63 gegeben hat, während 2014 ein Sprung von 6 auf 74 erfolgte. Und 2013 sprang um 5, aber 2002, welches Jahr es nicht in die Top Ten schaffte, sprang nur um 3. Und man weiß, was es für den „Stillstand“ bedeutet, wenn man von 1998 bis 2015 die späteren Jahre wärmer macht als die früheren Jahre.

Als Nächstes möchte ich einige Implikationen von GIS5 ansprechen. Mancher wird sich an die Kontroverse aus dem vorigen Jahr erinnern, als GISS verlauten ließ, dass 2014 ein rekordwarmes Jahr gewesen sei. Später hatte man dort aber hinzugefügt, dass die Chance, es habe sich wirklich um einen Rekord gehandelt, nur bei 38% lag. Grund hierfür war, dass der Fehlerbalken für die Anomalie eines jeden Jahres etwa 0,1 beträgt.

Zwei Dinge gehen in dieser Hinsicht aus GIS5 hervor. Die Anomalie des Jahres 2010 lag nur um 0,02 niedriger als die Anomalie des Jahres 2014. Dies bedeutete, dass 2010 eine ziemlich große Chance hatte, das wärmste Jahr gewesen zu sein, wenngleich mit einer geringeren Prozentzahl als 38%. Ebenso betrug die Anomalie für 2014 0,68, während die Anomalie des an zehnter Stelle stehenden Jahres 0,59 betrug. Diese Differenz von 0,09 war kleiner als der Fehlerbalken. Das heißt, selbst das an zehnter Stele rangierende Jahr hat noch die Chance, das wärmste Jahr zu sein, obwohl die Wahrscheinlichkeit dafür sehr gering sein würde. Während also das Jahr 2014 eine größere Wahrscheinlichkeit besaß, das wärmste jemals zu sein, lag die kumulierte Gesamtzahl der folgenden neun Jahre, das wärmste Jahr zu sein, bei etwa 62%.

In diesem Jahr sieht das alles völlig anders aus! Man betrachte die Anomalien 2015 für HadCRUT4, Hadsst3 und GIS6. Im Einzelnen beachte man die Differenz zwischen 1ano und 2ano für diese drei Datensätze. In allen drei Fällen ist die Differenz größer als 0,1. Dies bedeutet, dass die Wahrscheinlichkeit für einen neuen Rekord 2015 in jedem Falle über 90% liegt. Für GISS sind es 94%.

Im Gegensatz dazu betrachte man jetzt die Anomalien aus den beiden Satelliten-Datensätzen UAH6.0beta4 und RSS. Vor allem vergleiche man die Werte 2015 unter „3ano“ mit den Werten 1998 unter „1ano“. Der Unterschied ist deutlich größer als 0,1, was zeigt, dass die Chance, das Jahr 2015 sei den Satelliten-Datensätzen zufolge KEIN Rekordjahr war, deutlich über 90% liegt.

Falls wir eine Fehlerbandbreite von 0,1 annehmen, liegt selbst noch der zweite Platz außerhalb dieses Fehlerbalkens für HadCRUT4, Hadsst3 und GISS. Allerdings sieht es hinsichtlich der Satelliten ganz anders aus. Falls wir annehmen, dass die UAH-Anomalie von 0.266 auch 0,366 bzw. 0,166 betragen könnte, dann könnte diese Stellung auf Rang 3 auch auf Rang 2, aber auch auf Rang 7 stehen.

Falls wir annehmen, dass die RSS-Anomalie von 0,358 auch 0,458 bzw. 0,258 betragen könnte, dann kann die Platzierung an dritter Stelle nicht höher sein als diese dritte Stelle, aber es könnte auch an sechster Stelle liegen.

Es geht nirgendwo aus obiger Tabelle oder aus der Tabelle in Abschnitt 3 hervor, aber die Anomalien November und Dezember zeigten in allen fünf Datensätzen Rekordwerte für diese Monate. Ebenso zeigten viele andere Monate monatliche Rekordwerte in einigen der Datensätze.

Wie man in Abschnitt 3 sieht, zeigen die Datensätze HadCRUT4, Hadsst3 und GISS Allzeit-Rekordwerte. Im Datensatz HadCRUT4 bricht die Dezember-Anomalie von 1,005 den bisherigen Allzeit-Rekordwert von 0,832 aus dem Januar 2007. Bei GISS bricht die Dezember-Anomalie von 1,12 die vorherige Allzeit-Rekordmarke von 0,96 aus dem Januar 2007. Auch für die Monate Oktober und November zeigt GISS, dass die Marke 0,96 jeweils mit 1,06 und 1,05 gebrochen worden ist. Bei Hadsst3 bricht die September-Anomalie von 0,725 die bisherige Marke von 0,644 aus dem August 2014.

Zu den beiden Satelliten-Datensätzen: trotz der Rekordwärme der Monate November und Dezember lagen sie nicht einmal annähernd in der Nähe von deren Allzeit-Rekordwert der April-Anomalie 1998. Falls jedoch 2016 dem Jahr 1998 nachfolgt, könnte der Rekord aus dem April 1998 fallen.

Was wird dann mit dem Stillstand nach RSS seit über 18 Jahren geschehen? Alles hängt davon ab, wie hoch und wie lange die RSS-Anomalien hoch bleiben. Falls die RSS-Anomalien von ihrem derzeitigen Wert von 0,543 während der nächsten drei Monate auf 0,25 sinken, wird der Stillstand weiterhin mehr als 18 Jahre dauern. Aber falls sie hoch bleiben, dann könnte die Stillstands-Dauer auf 15 Jahre oder auf 7 Jahre zurückgehen oder ganz verschwinden. Falls der Stillstand verschwindet, würde es einer La Nina bedürfen, um den Stillstand wieder auf über 18 Jahre zu bringen.

In den folgenden Abschnitten werde ich wie in früheren Beiträgen die jüngsten Fakten nennen. Die Informationen kommen in drei Abschnitten und einem Anhang. Im ersten Abschnitt werde ich zeigen, wie lange es in einigen Datensätzen keine Erwärmung gegeben hatte. Im Moment zeigen nur die Satellitendaten über mehr als ein Jahr einen flachen Verlauf. Im zweiten Abschnitt werde ich zeigen, seit wann es keine statistisch signifikante Erwärmung in verschiedenen Datensätzen gegeben hatte. Im dritten Abschnitt werde ich zeigen, wie das Jahr 2015 bisher sich im Vergleich zum Jahr 2014 macht sowie den wärmsten Jahren und Monaten bisher. Für drei Datensätze ist das Jahr 2014 ebenfalls das wärmste Jahr. Im Anhang werden die Abschnitte 1 und 2 auf andere Weise illustriert. Graphiken und eine Tabelle werden die Daten illustrieren.

Abschnitt 1

Für diese Analyse wird der letzte Monat herangezogen, für den Daten bei WoodForTrees.com (WFT) verfügbar sind. Alle Daten bei WFT stehen auch bei den unten spezifizierten Quellen. Wir beginnen mit den gegenwärtigen Daten und gehen bis zum am weitesten zurück liegenden Monat, in dem die Neigung mindestens leicht negativ ist von mindestens einer Berechnung. Falls also die Neigung im September 4 X 10↑-4 beträgt, im Oktober aber -4 X 10↑-4, nehmen wir die Zeit ab Oktober, damit uns niemand vorwerfen kann, unehrlich zu sein, falls wir sagen, dass die Neigung eines bestimmten Monats flach ist.

1. Bei GISS ist die Neigung während keiner erwähnenswerten Periode flach.

2. Bei Hadcrut4 ist die Neigung während keiner erwähnenswerten Periode flach.

3. Bei Hadsst3 ist die Neigung während keiner erwähnenswerten Periode flach.

4. Bei UAH ist die Neigung seit Juli 1997 flach oder seit 18 Jahren und 6 Monaten. (Bis Dezember nach Version 6.0).

5. Bei RSS ist die Neigung seit Mai 1997 flach oder seit 18 Jahren und 8 Monaten (bis Dezember).

Die nächste Graphik zeigt einfach die Linien, um Obiges zu illustrieren. Man betrachte es als Nebengraphik, in der die Länge der Linien die Relativzeiten anzeigen, in denen die Neigung Null ist. Außerdem zeigt die aufwärts verlaufende blaue Linie oben, dass der CO2-Gehalt stetig während dieses Zeitraumes zugenommen hat. Man beachte, dass UAH5.6 von WFT eine Trendbereinigung braucht, um zu zeigen, dass die Neigung für UAH6.0 Null beträgt.

WoodForTrees.org – Paul Clark – Quelle

Wenn man zwei Dinge plottet, wie ich es getan habe, zeigt die Linke allein eine Temperatur-Anomalie.

Die tatsächlichen Zahlen sind bedeutungslos, da beide Neigungen im Wesentlichen Null betragen. Für CO2 werden keine Zahlen angegeben. Einige haben gefordert, den Verlauf des CO2-Gehaltes zu plotten. Allerdings gibt es bei WFT diese Option nicht. Die aufwärts verlaufende CO2-Linie allein zeigt: während der CO2-Gehalt während der letzten 18 Jahre gestiegen ist, waren die Temperaturen über verschiedene Zeiträume in den beiden Datensätzen flach verlaufen.

Abschnitt 2

Für diese Analyse stammen die Daten aus dem Trendviewer von Nick Stoke, verfügbar auf seiner Website. Diese Analyse zeigt, wie lange es Nicks Kriterien zufolge keine statistisch signifikante Erwärmung gegeben hatte. Die Daten gehen bis zur jüngsten Aktualisierung jedes Datensatzes. In jedem Falle beachte man, dass der untere Fehlerbalken negativ ist, so dass eine Neigung bei Null im benannten Monat nicht ausgeschlossen werden kann.

In vielen verschiedenen Datensätzen gab es keine statistisch signifikante Erwärmung zwischen 6 und 22 Jahren. Cl steht für die Vertrauensgrenzen im 95%-Niveau.

Hier folgen die Details für die Datensätze:

UAH6.0: Seit Februar 1993 Cl von -0,014 bis 1,658. Das sind 22 Jahre und 11 Monate.

RSS: Seit Mai 1993 Cl von -0,030 bis 1,574. Das sind 22 Jahre und 8 Monate.

HadCRUT4.4: Seit März 2001 Cl von -0,031 bis 1,650. Das sind 14 Jahre und 10 Monate.

Hadsst3: Seit Januar 1996 Cl von -0,021 bis 2,082. Das sind 20 Jahre glatt.

GISS: Seit April 2009 Cl von -0,065 bis 5,706. Das sind 6 Jahre und 9 Monate.

Abschnitt 3

In diesem Abschnitt werden Daten über 2015 und weitere Informationen gezeigt, und zwar in Gestalt einer Tabelle. Die Tabelle zeigt die fünf Datenquellen oben und auch dazwischen, damit man sie immer erkennt. Die Quellen sind UAH, RSS, Hadcrut4, Hadsst3 und GISS.

Die Spalten zeigen Folgendes:

1. 14ra: Dies ist die finale Platzierung des Jahres 2014 für jeden Datensatz. BEACHTE: Diese liegen vor 2015. Siehe die erste Tabelle in diesem Beitrag um zu erkennen, wie sehr 2015 die Platzierungen 2014 beeinflusst hat.

2. 14a: Zeigt die mittlere Anomalie für 2014.

3. year: Zeigt das bislang wärmste Jahr jemals für jeden Datensatz. Man beachte, dass die Satelliten-Datensätze das Jahr 1998 als das wärmste Jahr ausweisen und die anderen das Jahr 2014.

4. ano: Zeigt das Mittel der monatlichen Anomalien im wärmsten Jahr direkt darüber.

5. mon: Zeigt den Monat, in dem der jeweilige Datensatz die höchste Anomalie aufweist. Die Monate werden identifiziert durch die ersten drei Buchstaben jedes Monats und die letzten beiden Ziffern des betreffenden Jahres. BEACHTE: Alle Zahlen liegen vor 2015.

6. ano: zeigt die Anomalie des Monats direkt darüber.

7. y/m: zeigt den längsten Zeitraum in Jahren/Monaten, in dem die Neigung nicht positiv ist. Z. B. bedeutet 16/2, dass die Neigung 16 Jahre und 2 Monate lang im Wesentlichen Null betrug. Zeiträume kürzer als ein Jahr wurden nicht mitgezählt und mit „0“ angegeben.

8. sig: Dies ist der erste Monat, in dem eine Erwärmung Nicks Kriterien zufolge nicht statistisch signifikant ist. Den ersten drei Buchstaben des Monats folgen die letzten beiden Ziffern des Jahres.

9. sy/m: Zeigt die Jahre und Monate aus Zeile 8. Abhängig von der letzten Aktualisierung könnte ein Monat fehlen.

10. Jan: Zeigt die Anomalie im Januar 2015 für den jeweiligen Datensatz.

11. Feb: Zeigt die Anomalie im Februar 2015 für den jeweiligen Datensatz – usw.

22. ave: Dies ist die mittlere Anomalie aller Monate bis heute, ermittelt aus der Addition aller Zahlen und Division durch die Anzahl der Monate oder die Zahlen in den Datensätzen.

23. rnk: Dies ist der Rang im jeweiligen Datensatz, den das Jahr 2015 einnimmt.

Falls man selbst alle jüngsten Anomalien verifizieren möchte, schaue man hier:

Für UAH wurde die Version 6.0beta4 verwendet. Man beachte, dass WFT Version 5.6 verwenden. Um also die Länge des Stillstands in Version 6.0 zu verifizieren, muss man Nicks Programm heranziehen:

http://vortex.nsstc.uah.edu/data/msu/v6.0beta/tlt/tltglhmam_6.0beta4.txt
RSS siehe: ftp://ftp.ssmi.com/msu/monthly_time_series/rss_monthly_msu_amsu_channel_tlt_anomalies_land_and_ocean_v03_3.txt
Hadcrut4 siehe: http://www.metoffice.gov.uk/hadobs/hadcrut4/data/current/time_series/HadCRUT.4.4.0.0.monthly_ns_avg.txt
Hadsst3 siehe: http://www.cru.uea.ac.uk/cru/data/temperature/HadSST3-gl.dat
GISS siehe:
http://data.giss.nasa.gov/gistemp/tabledata_v3/GLB.Ts+dSST.txt

Um alle Punkte seit Januar 2015 in Gestalt einer Graphik zu sehen, betrachte man die folgende WFT-Graphik. Man beachte, dass die UAH-Version 5.6 gezeigt ist. Auch ist Hadcrut4.3 und nicht Hadcrut4 gezeigt, weshalb die letzten paar Monate bei Hadcrut fehlen.

WoodForTrees.org – Paul Clark – Quelle

Wie man sieht, beginnen alle Linien an der gleichen Stelle im Januar 2015. Dies macht den Vergleich von Januar 2015 mit der jüngsten Anomalie einfach.

Anhang

Hier fassen wir die Daten jedes Datensatzes separat zusammen:

RSS

Die Neigung ist flach seit Mai 1997 oder seit 18 Jahren und 8 Monaten (bis Dezember).

Es gibt keine statistisch signifikante Erwärmung seit Mai 1993: Cl von -0,030 bis 1,574. Die monatliche RSS-Anomalie des Jahres 2015 beträgt 0,358. Dies platziert dieses Jahr an 3. Stelle. Das Jahr 1998 war das wärmste Jahr mit 0,55. Die höchste monatliche Anomalie jemals war im April 1998 aufgetreten mit 0,857. Die Anomalie im Jahre 2014 betrug 0,254 und stellt es an die 6. Stelle.

UAH6.0beta4

Die Neigung ist flach seit Juli 1997 oder seit 18 Jahren und 6 Monaten (bis Dezember nach Version 6.0beta4).

Es gibt keine statistisch signifikante Erwärmung seit Februar 1993: Cl von -0,014 bis 1,658 (nach Version 6,0 Nicks Programm zufolge).

Die mittlere Anomalie 2015 betrug 0,266. Dies würde die 3. Stelle bedeuten. 19988 war das wärmste Jahr mit 0,482. Die höchste monatliche Anomalie jemals war im April 1998 mit 0,742 aufgetreten. Die Anomalie 2014 betrug 0,184 und lag an 5. Stelle.

Hadcrut4.4

Die Neigung ist in keinem erwähnenswerten Zeitraum flach.

Es gibt keine statistisch signifikante Erwärmung seit März 2001: Cl von -0,31 bis 1,650.

Die monatliche mittlere Anomalie 2015 beträgt 0,745. Dies bedeutet einen neuen Rekord. Der bisherige Rekordwert der monatlichen Anomalie war im Januar 2007 mit 0,832 aufgetreten. Dies liegt vor 2015. Die Anomalie 2014 beträgt 0,567 und setzt einen neuen Rekord.

Hadsst3

Die Neigung ist in keinem erwähnenswerten Zeitraum flach. Es gibt keine statistisch signifikante Erwärmung seit Januar 1996: Cl von -0,021 bis 2,082.

Die Anomalie des Jahres 2015 beträgt 0,592. Dies setzt einen neuen Rekord. Die höchste monatliche Anomalie jemals war im August 2014 mit 0,644 aufgetreten. Dies liegt vor 2015. Die Anomalie 2014 betrug 0,477, was einen neuen Rekord bedeutet.

GISS

Die Neigung ist in keinem erwähnenswerten Zeitraum flach.

Es gibt keine statistisch signifikante Erwärmung seit April 2009: Cl von -0,065 bis 5,706.

Die mittlere Anomalie 2015 beträgt 0,87, was einen neuen Rekord setzt. Die höchste monatliche Anomalie jemals war im Januar 2007 mit 0,96 aufgetreten. Dies liegt vor 2015. Die Anomalie 2014 betrug 0,74 und setzte einen neuen Rekord.

Schlussfolgerung

Im Moment haben die Satellitendaten nicht wie im Jahre 1998 reagiert. Glauben Sie, dass irgendwelche Rekorde aus dem Jahr 1998 in den Satellitendaten im Jahre 2016 gebrochen werden? Wie viele terrestrische Rekorde im Jahre 2015 waren Ihrer Ansicht nach real, und wie viel war den Adjustierungen geschuldet?

P. S. Ich dachte, dass Senator Cruz bzgl. Klimathemen gut informiert sei. Vor kurzem habe ich herausgefunden warum.

Judith Curry sagt dazu: „Senator Cruz scheint sehr vertraut mit den Daten und weiß auch allgemein über den wissenschaftlichen Prozess Bescheid. Einer seiner Mitarbeiter ist ein eifriger Leser von WUWT und offensichtlich auch auf dem Blog von Steve Goddard“.

Link: http://wattsupwiththat.com/2016/01/27/final-2015-statistics-now-includes-december-data/

Übersetzt von Chris Frey EIKE




Saudis werden die US-Schieferindustrie nicht zerstören‘

Bild rechts: Die derzeit marginale Ölerzeugung in den USA wird sich erholen, sobald sich die Preise erholen

Daniel Yergin, Gründer der IHS Cambridge Energy Research Associates, sagte, dass es für die OPEC unmöglich ist, die Schieferindustrie in den USA aus dem Feld zu schlagen mittels eines Zermürbungskrieges, selbst wenn sie das wollte und selbst wenn eine große Anzahl von Frackern während der kommenden Monate über Bord gehen würde.

Mr. Yergin zufolge werden Gruppen mit tiefen Taschen wie etwa Blackstone und Carlyle die Infrastruktur übernehmen, wenn die unter Druck stehenden Anteile erst einmal billig genug sind, und den richtigen Zeitpunkt abwarten, bevor sich der Ölzyklus wieder dreht.

„Das Management mag sich ändern und die Unternehmen mögen sich ändern, aber die Ressourcen werden immer noch da sein“, sagte er dem Daily Telegraph. Die große Unbekannte ist, wie schnell sich die Industrie erholen kann, wenn sich die globale Schwemme aufzulösen beginnt – vielleicht in der zweiten Jahreshälfte – aber es wird eindeutig viel schneller gehen als bei der konventionellen Ölförderung.

„Man braucht 10 Milliarden Dollar sowie fünf bis zehn Jahre, um ein Tiefsee-Projekt auf die Beine zu stellen. Man braucht 10 Millionen Dollar und gerade mal 20 Tage, um nach Schiefer zu bohren“, sagte er vor dem Weltwirtschaftsgipfel in Davos.

In der Zwischenzeit wirft der Ölpreisverfall eine Reihe von Exportnationen in tiefe soziale und ökonomische Krisen. „Venezuela ist bereits in den Abgrund gefallen. Das Land ist vollständig zusammengebrochen“, sagte Mr. Yergin.

Der Premierminister des Irak Haider Al-Abadi sagte in Davos, dass sein Land Rohöl für 22 Dollar pro Barrel verkaufe, die Hälfte davon deckt die Produktionskosten. „Es ist unmöglich, das Land durchzubringen, wenn man ehrlich ist, und das Militär, Arbeitsplätze und einfach die Wirtschaft am Laufen zu halten“.

Dies verkompliziert den Kampf gegen den IS erheblich, derzeit ein kritischer Augenblick nach der Wiedereinsetzung Ramadis durch Regierungskräfte. Mr. Al-Abadi warnte, dass der IS weiterhin „extrem gefährlich“ sei, aber dass ihm dennoch das Geld ausgegangen ist, um den Sold unabdingbarer militärischer Kräfte zu zahlen.

Bekannt ist, dass die Unternehmen KKR, Warburg Pincus und Apollo allesamt an der Seitenlinie warten und nach lohnenden US-Schieferanteilen Ausschau halten. Große Ölunternehmen wie ExxonMobil haben riesige Summen in der Hinterhand, und selbst der saudi-arabische Chemiegigant SABIC nascht bereits an US-Schieferanteilen mittels Joint Ventures.

Mr. Yergin ist Autor von „The Prize: The Epic Quest for Oil, Money and Power” und wird weithin als der Guru der Energie-Analysen angesehen.

Er sagte, dass Schiefer-Unternehmen bereits viel härtere Kämpfe ausgefochten haben als ursprünglich erwartet und dass sie sich erst jetzt der Gewalt des Ölpreisverfalls beugen, 15 Monate, nachdem Saudi-Arabien und die Golfstaaten damit begonnen haben, die Märkte zu fluten, um Rivalen auszustechen.

Schiefer hat sich als viel widerstandsfähiger erwiesen als Viele gedacht hatten. Sie hatten sich vorgestellt, dass falls die Preise unter 70 Dollar pro Barrel fallen, diese Bohrunternehmen aus dem Geschäft sind. Sie haben nicht erkannt, dass Schiefer im Mittelkosten- und nicht im Hochkostenbereich angesiedelt ist“, sagte er.

Im Moment jedoch befinden sich die Fracking-Industrie im Auge des Sturms. Etwa 45 gelistete Schiefer-Unternehmen sind bereits insolvent oder in Verhandlungen mit Kreditgebern. Das Schicksal vieler Weiterer wird sich im Laufe des kommenden Frühjahres entscheiden, wenn geschätzte 300.000 Barrel pro Tag iranischen Öls zusätzlich in einen schon jetzt gesättigten globalen Markt strömen.

Die Kurssicherung von Schiefer in zukünftigen Märkten – lebensrettend in den ersten Monaten des Preis-Kollapses – ist weitgehend ausgeschöpft. IHS schätzt, dass Sicherungen für die beteiligten Unternehmen 28% des Outputs in der zweiten Hälfte des vorigen Jahrhunderts ausgemacht haben. Dies wird 2016 auf 11% zurückgehen.

Das jeden Rahmen sprengende Wachstum der Schiefer-Industrie (hier) wurde getrieben durch billige und reichlich verfügbare Kredite. Die Guillotine fiel, bevor die US Federal Reserve die Raten im Dezember angehoben hatte, was die Fracker mit der mühsamen Aufgabe zurückließ, die Kredite zu verlängern. Viele Schiefer-Aktien werden auf einem Notniveau unter 50 Cent zum Dollar gehandelt, selbst für Unternehmen mit mittlerem Risiko.

Sollte der Ölpreis wieder in einen Bereich zwischen 50 und 60 Dollar pro Barrel zurückkehren, wird die Erzeugung rasch wieder zunehmen.

Die Banken achten darauf, die Unternehmen nicht unter Konkursverwaltung zu stellen, aber sie stehen selbst unter Druck. Behörden befürchten, dass die Energieindustrie die nächste finanzielle Bombe sein könnte, die in einer systematischen Größenordnung explodieren könnte. Die Fed und die US Federal Deposit Insurance Corporation haben damit gedroht, strengere Regeln für Kredite an Unternehmen fossiler Treibstoffe anzulegen.

Selbst wenn die US-Bohrgesellschaften Pleite gehen, wird die Industrie weiterleben, und ein Quantensprung der Technologie hat die Kostenstruktur irreversibel verändert. Der Output pro Bohrloch hat sich seit dem Jahr 2009 vervierfacht. Heute ist es Standard, viele Löcher vom selben Standpunkt aus zu bohren, und Daten-Analysten versprechen einen weiteren Sprung nach vorn bzgl. der Gewinne.

„60 Dollar sind die neuen 90 Dollar. Falls der Ölpreis wieder in einen Bereich zwischen 50 und 60 Dollar steigt, wird dies die Produktion mächtig ankurbeln. Das Permian Basin in West-Texas könnte das zweitgrößte Feld weltweit sein, nach Ghawar in Saudi-Arabien“, sagte er.

Zhu Min, stellvertretender Direktor des Internationalen Währungsfonds IMF sagte, dass die US-Schieferindustrie das Gleichgewicht der Macht auf dem globalen Ölmarkt vollkommen verändert, und es gibt kaum etwas, das die OPEC dagegen tun kann.

„Schiefer ist zum swing producer geworden. Die OPEC hat eindeutig ihre Monopolstellung verloren und kann nur noch eine Untergrenze für die Preise festsetzen. Sobald der Preis steigt, wird Schiefer zurückkommen und sie wieder drücken“, sagte er.

Die Frage lautet, ob selbst der US-Schiefer-Boom jemals groß genug werden kann, um die kommende Verknappung von Öl zu kompensieren, wenn die globalen Investitionen kollabieren. „Es gab eine Reduktion um 1,8 Billionen Dollar bei den Ausgaben, die im Zeitraum 2015 bis 2020 geplant waren, jedenfalls im Vergleich zu den Erwartungen aus dem Jahr 2014“, sagte Mr. Yergin.

Saudi Arabiens Ölminister Ali al-Naimi

Trotzdem steigt die Nachfrage nach Öl rasch. Die Weltwirtschaft wird bis zum Jahr 2020 zusätzlich 7 Millionen Barrel pro Tag benötigen. Die natürliche Erschöpfung bestehender Felder impliziert einen Verlust von weiteren 13 Millionen Barrel pro Tag bis dahin.

Hinzu kommt noch, dass die globale Reservekapazität sich auf einem messerdünnen Niveau bewegt – vielleicht gerade mal 1,5 Millionen Barrel pro Tag – produzieren doch die Saudis, die Russen und andere in vollem Umfang.

„Sollte es irgendeinen Schock geben, wird der Markt sich in Sekundenschnelle drehen“, sagte er. Der Ölmarkt wird zum Ende dieses Jahrzehnts mit Sicherheit total anders aussehen.

Die Warnungen hallten in Davos wider, ausgesprochen von den Koryphäen der Energieindustrie. Fatik Birol, Leiter der International Energy Agency IEA sagte, dass die Suspendierung neuer Projekte das Sprungbrett bildet für eine mächtige Preisspitze.

Die Investitionen gingen im vorigen Jahr weltweit um 20% zurück, in diesem Jahr wird ein weiterer Rückgang um 16% erwartet. „Dies ist beispiellos: Wir haben noch nie erlebt, dass die Investitionen zwei aufeinanderfolgende Jahre lang zurückgegangen waren. Man lasse sich nicht in die Irre führen – jeder, der glaubt, dass niedrige Ölpreise das neue Normal sind, wird eine Überraschung erleben“, sagte er.

Die Ölminitser von Nigeria und scheidende Vorsitzende der OPEC Ibe Kachikwu sagte, dass der Weg geebnet ist für eine wilde Volatilität.

„Unter dem Strich steht, dass die Produktion für Viele keinen Sinn mehr macht, und an diesem Punkt erleben wir, wie viele Barrel den Markt verlassen. Ultimativ werden die Preise wieder nach oben schießen in einer Bewegung, die alles auf den Kopf stellt“, sagte er.

Mr. Kachikwu sagte weiter, dass die OPEC einen Notgipfel einberufen und besprechen muss, welchen Zweck das Kartell noch hat.

Saudi-Arabien hat klargestellt, dass es kein OPEC-Abkommen geben kann, dem zufolge der Output reduziert und die Preise stabilisiert werden, bevor nicht die Russen an Bord sind. Und dies ist sehr schwierig, weil russische Unternehmen gelistet und eventuell den Anteilseignern Rechenschaft schuldig sind.

Außerdem sind die Golf-Staaten davon überzeugt, dass Russland bei der letzten Absprache im Jahre 1998 gemogelt hat.

Mr. Yergin sagte, dass alle, die auf eine schnelle Rettung vor der OPEC gehofft hatten, wahrscheinlich enttäuscht werden.“Dies wird nur dann der Fall sein, wenn sich die Krise sogar noch verschärft“, sagte er.

Link: http://www.telegraph.co.uk/finance/newsbysector/energy/oilandgas/12118594/Saudis-will-not-destroy-the-US-shale-industry.html

Übersetzt von Chris Frey EIKE