1

10. IKEK- CO2-induzierte Erwärmung vs gesteigertem Pflanzenwachstum

In seinem Vortrag zeigt Prof. Gervais, dass die Zeitfolgen des Meeresspiegelanstiegs in Form einer Sinuskurve in einer Periode von 60 Jahren stattfinden, was den Zyklus für die globale mittlere Temperatur der Erde bestätigt.

Video des Vortrages anläslich der 10. IKEK am 11. und 12.11.16 in Berlin von Prof. em. Francois Gervais zum Vergleich der Beweise über stärkeres Pfanzenwachstum dank CO2 Zuwachs vs. Temperaturzunahme.

Dieser Zyklus erscheint in Phasen mit der Atlantischen Multidekadalen Oszillation (AMO). Das letzte Maximum der Sinuskurve fällt mit dem seit dem Ende des 20. Jahrhunderts beobachteten Temperaturplateau zusammen. Der Beginn der sinkenden Phase der AMO, der jüngste Überschuss der Anomalie der globalen Meereisfläche und die negative Steigung der globalen mittleren Temperatur gemessen von Satelliten von 2002 bis 2015 – all diese Indikatoren zeichnen den Beginn der rückläufigen Phase dieses 60-Jahres-Zyklus.
Sobald dieser Zyklus von Beobachtungen abgezogen wird, wird die vorübergehende Klimareaktion nach unten konsequent mit den neuesten Beobachtungen überarbeitet, wobei die neuesten Auswertungen auf der Grundlage der atmosphärischen Infrarotabsorption und mit einer allgemeinen Tendenz der veröffentlichten Klimasensitivität beruhen.
Die Vergrößerung der Amplitude der CO2-Saisonschwingungen, die bis zu 71% schneller als die atmosphärische CO2-Zunahme befunden wird, konzentriert sich auf die Erdvergiftung und den Nutzen für die Ernteerträge der ergänzenden Photosynthese und minimiert so die Konsequenzen des winzigen anthropogenen Beitrags zum Erwärmen.




Der Klima-,Gott aus der Maschine‘ hat sich als falscher Gott herausgestellt

Der Pionier-Meteorologe und Mathematiker am Massachusetts Institute of Technology Edward Lorenz bezweifelte diese Fähigkeit bereits in den sechziger Jahren des vorigen Jahrhunderts. Der glückliche Entdecker der Chaos-Theorie postulierte „gibt es so etwas wie Klima überhaupt?“ Gibt es ein definierbares „normales globales Klima“, von welchem Abweichungen als anomal bezeichnet werden können? In seiner Studie aus dem Jahr 1965 heißt es: „… falls außerdem der gegenwärtige Zustand oder der gegenwärtige und vergangene Zustand nicht mit vollständiger Genauigkeit bekannt sind, wird jedes Vorhersageverfahren zu schlechteren und immer schlechteren Vorhersagen führen, so wie die Bandbreite des Niederschlags zunimmt, bis ultimativ nur die periodische Komponente in ferner Zukunft vorhergesagt werden kann“. Sein Statement ist eine Beschreibung dessen, was als chaotisches Verhalten bekannt ist. Derartige Systeme sind charakterisiert durch die Tatsache, dass winzige Änderungen der Ausgangsbedingungen zu gewaltig unterschiedlichen Ergebnissen über einen bestimmten Zeitraum führen. Das Verhalten des Klimas erfüllt treffend diese Definition. Kurzfristige Änderungen sind bekannt als Wetter, und die Genauigkeit von Wettervorhersagen hat sich im Laufe der Jahrzehnte bis zu einer Woche im Voraus verbessert.

Jetzt hatte Judith Curry den Mut gehabt, das Fehlen von Kleidung des Kaisers ,Klima-Computer‘ zu bemerken. Prof. Curry, Autorin von über 180 wissenschaftlichen Studien zum Thema Wetter und Klima, hat sich kürzlich vom Georgia Institute of Technnology zurückgezogen. Dort fungierte sie als Professorin und Vorsitzende der School of Earth and Atmospheric Sciences. Sie schrieb jüngst Climate Models for the Layman [auf Deutsch beim EIKE hier], worin sie die inhärent in Computermodellen vorhandenen fundamentalen Probleme offenlegte. Diese Probleme sind so schwerwiegend, dass sie Zweifel wecken an der Fähigkeit, ein solches Klima-Vorhersagesystem zu erstellen. Gegenwärtige Klimamodell-Prophezeiungen weichen von der historischen Realität ab, wenn man sie im Zeitmaßstab von Jahrzehnten betrachtet. Und doch werden diese fehlbaren Prophezeiungen, anderweitig als Szenarien bekannt, von Politikern, Umweltgruppen und Energie-Firmen herangezogen, um darauf Politik und zukünftige Energiepläne zu entwickeln.

Prof. Curry:

Es ist nicht nur die Tatsache, dass Klimasimulationen frisiert werden müssen, die problematisch ist. Es kann gut sein, dass es unmöglich ist, langfristige Prophezeiungen über das Klima zu erstellen – es ist schließlich ein chaotisches System. Falls das der Fall ist, dann versuchen wir möglicherweise, die globale Ökonomie für nichts und wieder nichts umzukrempeln“.

Allerdings gab es jene unter den „wir“, welche gelernt haben massiv zu profitieren von dem Versuch, „die globale Wirtschaft umzukrempeln“. Regierungen haben Milliarden ausgegeben, um die Energieerzeugung zu kontrollieren und zu benutzen in dem Versuch, das Klima zu kontrollieren. Milliarden des Steuerzahlers wurden an die Betreiber zahlreicher derartige Programme geleitet. Kontrolle über Energie bedeutet Kontrolle über alle Aspekte des modernen Lebens einschließlich persönlicher Freiheit. Ein vom Menschen verursachter gefährlicher Klimawandel ist ein Musterbeispiel „falscher Fake-Nachrichten“, ein Begriff, eingeführt von Julian Simon, um den Gebrauch von falschen Nachrichten zur Angsterzeugung in den Medien zu verwenden – eine Taktik, die er treffend in seinem Traktat „Hoodwinking the Nation“ zum Ausdruck gebracht hat.

Großer Dank an Judith Curry, die diesen falschen Gott bloßgestellt hat!

[Dem aber Politik und Medien hierzulande, allen voran die „Süddeutsche Zeitung“, nach wie vor huldigen! Anm. d. Übers.]

Charles G. Battig, M.S., M.D., Heartland Institute policy expert on environment; VA-Scientists and Engineers for Energy and Environment (VA-SEEE). His website is Climate Reality

Link: https://wattsupwiththat.com/2017/02/22/the-climate-deus-ex-machina-is-shown-to-be-a-false-god/

Übersetzt von Chris Frey EIKE




Scott Pruitt: Trocken­legung des EPA-Sumpfes bringt Krokodils­tränen

Mit Verweis auf ihre aggressive und trotzige Brief- und Telefon-Kampagne, mit der sie gegen Pruitts Berufung vorgingen, sagte der Direktor des Center for Congressional and Presidential Studies an der American University James Thurber der New York Times: „Das ist selten … ich kann mich an kein weiteres Mal erinnern, an dem Menschen in der Bürokratie solches getan haben“.

Die große Mehrheit dieser Protestierer sind Beamte, die nicht gefeuert werden können. Dieser Tatsache bewusst hat der ehemalige EPA-Administrator unter der Regierung von George W. Bush kommentiert: „Das bedeutet, dass es ein Blutbad geben wird, wenn Pruitt dieses Amt übernimmt“.

Blank liegende Nerven, die zu diesem Angst- und Abscheu-Angriff führten, wurden befeuert, weil der ehemalige Generalstaatsanwalt unter Obama mindestens 14 mal geklagt hatte, um EPA-Umweltvorschriften zu Fall zu bringen, weil er jedweden glaubwürdigen wissenschaftlichen Beweis für eine vom Menschen verursachte Klimakrise vermisst und weil er immer gegen den kostspieligen EPA-Alarmplan der Obama-Regierung opponiert hatte, welcher Vorschriften bzgl. Energie vorsah sowie das Verfahren zur Gesetzgebung zu umgehen.

Von Opponenten gebrandmarkt als „Klimaleugner“ und „Lockvogel von Öl und Gas“, erklärte Scott Pruitt bei der Anhörung vor einem feindlich gesinnten Senat der Demokraten und Anderen, was er wirklich denkt.

Pruitt warf der EPA vor, ihre Kompetenzen zu überschreiten, und sagte, dass sie „ihre eigenen Vollmachten und Mittel durch Gesetzgebung verletzt hatte“ sowie mittels vorbestimmter Ergebnisse „sue and settle“-Deals mit freundlich gesinnten Prozessparteien einzugehen. Seine Politik würde sich mehr auf [von ihm vorgefundene] Zustände verlassen als auf Funktionäre, die sich als „Umsetzer von Umweltschutz und Vollstrecker an vorderster Front unserer Nation“ gerieren.

Pruitt stellte sich hinter Landwirte und kleine Unternehmen, die „hoffnungslos waren sowie Opfer einer niemals endenden Flut neuer Vorschriften, die nur ein Anwalt noch verstehen könne“. Er sagte, dass „sie die EPA fürchten, und genau das sollte nicht so sein“. Er versprach, „unermüdlich zu arbeiten um sicherzustellen, dass die EPA den Gesetzen folgt, vernünftig arbeitet und immer an jene hart arbeitenden Amerikaner denkt“.

In einem Austausch mit Bernie Sanders von den Demokraten räumte er ein, dass „sich das Klima ändert und menschliche Aktivitäten dazu auf irgendeine Weise beitragen“, aber dass das Ausmaß jenes Beitrags „Gegenstand weiterer Debatten“ ist.

Hinsichtlich Energiepolitik sagte er, dass die Agentur unter seiner Leitung aufhören werde, „willkürlich Gewinner und Verlierer auszusuchen“. Pruitt erwartet, rasch den so genannten „Clean Power Plan“ der Obama-EPA zu annullieren. Er würde auch eine Vorschrift „Waters of the United States“ aus dem Jahr 2015 zum Halten bringen. Diese Vorschrift verschafft der EPA die Macht über praktisch jeden einzelnen Bach, jeden einzelnen Teich oder Entwässerungsgraben mit einer bedeutenden Verbindung zu einem „schiffbaren Wasserweg“.

Pruitt erklärte: Es gibt einen ganz einfachen Grund, warum das so gemacht werden muss … Weil die Gerichte die Legalität jener Vorschriften ernsthaft in Frage gestellt hatten“. Pruitt sollte es wissen, war er doch schließlich Partei in Gerichtsverfahren, welche bis zum Obersten Gerichtshof liefen, welcher das CPP beibehalten wollte und einen Appell an untere Gerichte ausgab, die Wasser-Vorschrift anzuhalten.

Auf einer Veranstaltung des Claremont Institute unterstützte der Richter am Obersten Gerichtshof Samuel Alito eindeutig die gesetzlichen Vorgaben des neuen EPA-Administrators. Er stellte fest: „Der Clean Air Act wurde vom Kongress schon im Jahre 1970 in Kraft gesetzt, und er reguliert die Emission von ,Verschmutzern‘ – so lautet der Terminus in dem Statut“.

Richter Alito fuhr fort: „Als der Kongress die Vorschriften bzgl. Verschmutzer genehmigte, hatte er Substanzen wie Schwefeldioxid oder Partikel im Sinn – vor allem Ruß oder Rauch in der Luft. Der Kongress dachte nicht an Kohlendioxid und andere Treibhausgase“. Er warnte: „Falls die Regierungs-Agentur EPA das machen darf, dann weiß ich nicht, was eine Regierungs-Agentur nicht darf. Die gesetzgeberische Macht wurde vom Kongress an die Exekutive Transferiert“.

Mit Bezug auf den CPP erklärte der Richter seinen Zuhörern, dass „eine Politik von derartiger Bedeutung von gewählten Repräsentanten der Bevölkerung durchgeführt werden sollte im Rahmen der Verfassung, und nicht von nicht gewählten Mitgliedern der Judikative und von Bürokraten“. Er fügte noch hinzu: „Aber genau dieses System haben wir heute, und es ist ein großer Bruch unserer verfassungsmäßigen Struktur“.

Alito sprach von „einer massiven Verschiebung der Gesetzgebung weg von gewählten Repräsentanten hin zu nicht gewählten Bürokraten“, welche „eine enorme Zunahme von Vorschriften zu verantworten haben, die wir mit allen begleitenden Auswirkungen auf unsere Wirtschaft ertragen mussten“.

Unter Verweis auf die Wasser-Vorschrift der EPA als Beispiel sagte Alito, dass diese Vorschriften auf einer obskuren legalen Interpretation beruhen, welche niemand, nicht einmal der Kongress, versteht. Mit der Vermutung, dass Flüsse und Seen gemeint seien, fragte er: „Aber was ist mit einem Strom, der die meiste Zeit des Jahres trocken fällt? Was ist mit einem Entwässerungsgraben? Was ist mit einem feuchten Hinterhof?“

Ja, und während sie darüber reden – warum soll es nicht auch um die schlammigen Sumpfgewässer der EPA gehen. Scott Pruitt dürfte genau der richtige Mann sein, um es mit dieser schmutzigen Herausforderung aufzunehmen.

Larry Bell is an endowed professor of space architecture at the University of Houston where he founded the Sasakawa International Center for Space Architecture (SICSA) and the graduate program in space architecture. He is the author of “Scared Witless: Prophets and Profits of Climate Doom”(2015) and “Climate of Corruption: Politics and Power Behind the Global Warming Hoax” (2012). Read more of his reports — Click Here Now.

Link: http://www.newsmax.com/LarryBell/scott-pruitt-epa-justice-alito-drain-the-swamp/2017/02/21/id/774735/

Übersetzt von Chris Frey EIKE

Zusatz des Übersetzers: Die offizielle Website der EPA begrüßt Pruitt sehr herzlich (hier).

Die Debatte darum ist aber voll im Gange, wie dieser Auftritt der Washington Times zeigt.




10. IKEK – Bestimmen Sonnenzyklen unser Klima?

Anhand von Eisbohrkernen, Stalagmiten, Baumringen, Sedimenten u.ä. kann man heutzutage Rückschlüsse auf Klimazyklen ziehen. Die Untersuchung des wohl berühmtesten antarktischen Eisbohrkernes (Petit et. al., nature, 399, 1999), der das Klima der letzten 420.000 Jahre abbildet, zeigt, dass wir uns in den letzten zehntausend Jahren in einem Wärmezyklus befunden haben, der sich wieder deutlich kälteren Temperaturen annähert. Das große Rätsel bleibt, warum die Eiszeiten so abrupt aufhörten (durch regelrechte Wärmeexplosionen). Es kam zu zyklenartigen Erwärmungssprüngen, die in einem Zeitraum von 50 Jahren um zehn Grad Celsius (!) anstiegen (zum Vergleich: heute spricht man von einem Anstieg der Temperatur um wenige Zehntel Grad in einigen Jahrhunderten).
Video des Vortrages „Bestimmen Sonnenzyklen unser Klima“ anlässlich der 10. IKEK am 11. und 12.11.16 in Berlin
Wenn man einen kleineren Zeitraum von etwa 10.000 Jahre betrachtet, lassen sich ebenso Zyklen von Kalt- und Warmphasen feststellen. Die meisten veröffentlichten Zyklenanalysen sind lokale Betrachtungen. Prof. Lüdecke hat sieben bekannte Untersuchungen (s. National Oceanic and Atmospheric Administration), mit ihren Subreihen, in einer Reihe zusammengestellt (unter dem Namen G7), in der er versucht, das Globale dieser Einzelergebnisse sichtbar zu machen. Dabei werden alle 1.000, 500 und 200 Jahre Wärmepeaks identifiziert. Er kommt zu dem Ergebnis, dass es bei dem 200-Jahreszyklus sehr wahrscheinlich ist, dass es direkt mit Sonnenaktivitäten im Zusammenhang steht (für die 1.000- und 500-Jahreszyklen ist es wahrscheinlich).



Im Gegensatz zum populären Glauben, reduziert die Speicherung von Solarenergie im Haushalt weder Stromkosten noch Emissionen

Diese Zunahme ist recht erheblich – bis zu 591 kWh jährlich.

„Ich erwartete, dass die Speicherung zu einem Anstieg des Energieverbrauchs führen würde“, sagte Robert Fares von der Cockrell School of Engineering an der University von Texas in Austin, „aber ich war überrascht, dass die Zunahme so bedeutend sein könnte – um etwa 8 bis 14 Prozent steigt der Durchschnitt über das Jahr.“

Fares, zusammen mit Professor Michael Webber, analysiert die Auswirkungen der heimischen Energiespeicherung mit Strom Daten aus fast 100 Haushalten in Texas, die Teil eines Smart-Stromnetzes Tests durch Austins erneuerbare Energie und Smart-Technologie-Unternehmen Pecan Street Inc. sind.

Die Ergebnisse sind für Texas relevant, wo die Mehrheit des Netzstroms aus fossilen Brennstoffen stammt. Infolgedessen führt der erhöhte Verbrauch durch die Speichertechnik zu höheren Kohlenstoff-, Schwefel- und Stickstoffdioxid-Emissionen.

Für die Versorgungsunternehmen ist die Situation jedoch unterschiedlich. Durch die Solarenergiespeicherung könnte der Spitzenbedarf [aus dem Versorgungsnetz] um bis zu 32 Prozent gesenkt werden und die Größenordnung der Solarstrom-Einspeisungen [ins Versorgungsnetz] um bis zu 42 Prozent gesenkt werden.

„Diese Erkenntnisse fordern den Mythos heraus, dass die Stromspeicherung inhärent sauber ist, aber das wiederum bietet nützliche Einblicke für Versorgungsunternehmen“, sagte Webber.

„Wenn wir die Speicherung als Mittel nutzen, um die Einführung von deutlich mehr erneuerbaren Energien zu fördern, die die schmutzigsten Quellen ausgleichen, dann kann die Speicherung – auf richtige Weise getan und in großem Maßstab installiert – positive Auswirkungen auf das Verhalten des Netzes haben.“

Die Studie wurde in der Zeitschrift Nature Energy veröffentlicht.

Nach Angaben der Solar Energy Industry Association, wuchs die Zahl der Solaranlagen auf Dachterrassen auf mehr als eine Million US-Haushalte im Jahr 2016. Es gibt ein wachsendes Interesse an der Nutzung von Energiespeicherung, um Solarenergie zu erfassen, um die Abhängigkeit von traditionellen Versorgungsunternehmen zu reduzieren.

Erschienen auf Engineering & Technologie am 31.01.2017

Übersetzt durch Andreas Demmig

https://eandt.theiet.org/content/articles/2017/01/household-solar-storage-increases-emissions-study-concludes/

 




Stromausfall nach Dunkelflaute?

Vor einigen Wochen geschah etwas im Stromsektor, das vielerorts in den Zeitungen aufgegriffen wurde: Während einer zehntägigen „Dunkelflaute“ lieferten Solar- und Windkraftwerke so gut wie keinen Strom, während die Verbraucher ein Maximum an elektrischer Energie anforderten.  Traditionelle Kern-, Kohle- und Gaskraftwerke übernahmen die Stromproduktion, ein Blackout blieb aber aus.  Nur wenige Tage später fiel auch in der Provinz Südaustralien die Windkraft wegen einer Hitzewelle weitgehend aus, doch dort kam es zu flächendeckenden Stromausfällen.  Was sind nun die Unterschiede zwischen den beiden Regionen und was lernen wir daraus?

Zunächst nach Deutschland.  Hier sind Windenergieanlagen mit einer installierten Leistung von ca. 50 Gigawatt (GW) und Solaranlagen im Umfang von ca. 41 GW installiert.  Das ist mit 91 GW zusammen mehr, als in der Spitze in Deutschland an Strom verbraucht wird.  Zwischen dem 16. und dem 25. Januar herrschten aber Nebel und Windstille vor und die Solar- und Windkraftwerke produzierten durchschnittlich nur 4,6 GW, während der Strombedarf im Mittel bei 63,1 GW lag und an einigen Tagen für mehrere Stunden die 73 GW überschritt (ohne Großverbraucher, die sich ihren Strom selbst erzeugen, und die ca. 10 GW an Verbrauch ausmachen).  Die sonst verpönten Kohle-, Gas- und Kernkraftwerke lieferten am 24. Januar sogar neun Zehntel der elektrischen Energie.  Einen guten Bericht hierzu veröffentlichte Die WELT unter dem Titel „‚Dunkelflaute‘ macht die Energiebranche nervös“.  Die Stromversorgung insgesamt war nach einem Bericht des SPIEGELs („Ist der Winter wirklich zu düster für den Ökostrom?„) jedoch nicht gefährdet, es hätten immer noch 18 GW an Gaskraftwerken bereitgestanden, und selbst zu Spitzenlastzeiten hätte noch Strom im Umfang von ca. 1 GW nach Frankreich verkauft werden können.  So weit, so gut.

Am 8. Februar mussten in der australischen Provinz Südaustralien abends ganze Kommunen vom Stromnetz abgetrennt werden, wie einem Bericht auf www.news.com.au zu entnehmen war („Why South Australia’s blackouts are a problem for us all„).  Eine Hitzewelle mit Temperaturen von über 40° C legte das Land lahm, und da die Provinz stark auf Windkraft gesetzt hatte, war es von der lang anhaltenden Windflaute besonders betroffen.  Die Folge war, dass die Provinz nicht genug Strom für den durch Klimaanlagen erhöhten Bedarf produzieren konnte, denn gerade im letzten Winter wurde ein wichtiges Kohlekraftwerk vom Netz genommen.  Auch die Konnektoren in die Nachbar-Provinzen waren zu klein ausgelegt.  Am Ende blieb dem Netzbetreiber nur noch der sog. „Lastabwurf“.  Ganze Stadtviertel und Kommunen mit zusammen 90.000 Haushalten wurden für eine halbe Stunde einfach vom Netz genommen, um die Nachfrage nach Strom zwangsweise an das knappe Angebot anzupassen. Dies ist für ein Industrieland wie Australien ungewöhnlich, in Schwellenländern mit weniger entwickelter Infrastruktur dagegen durchaus üblich. 

Da es bereits im September letzten Jahres einen provinzweiten Stromausfall gab, von dem 1,7 Millionen Haushalte betroffen waren und kleinflächigere Lastabwürfe seither schon das dritte Mal praktiziert werden mussten, hat sich auf dem Kontinent ein politischer Disput entsponnen.  Auf der einen Seite steht die Labour-geführte Provinzregierung, die ein Ziel von 50 Prozent erneuerbar erzeugtem Strom ausgegeben hat und bereits mehrere Kohlekraftwerke hat abschalten lassen.  Auf der anderen Seite setzt die konservative Landesregierung wieder verstärkt auf Kohle und verweist auf die wirtschaftsfördernde Rolle niedriger Energiepreise und einer robust funktionierenden Stromversorgung. 

Die wiederkehrenden Stromausfälle und Lastabwürfe resultieren aus zu hoher Abhängigkeit von schwankender Windkraft, zu geringen Reservekapazitäten und zu klein ausgelegten Konnektoren zu Nachbarprovinzen, über die bei Bedarf fehlender Strom importiert werden könnten.  Exakt dieses Szenario haben wir hier an dieser Stelle mehrfach beschrieben.  Ein Stromerzeugungssystem, das auf Solar- und Windkraftwerke setzt, benötigt entweder in gleicher Menge Ersatzkapazitäten mit regelbaren (Gas-) Kraftwerken oder muss bereit und technisch in der Lage sein, sämtlichen Strom aus Nachbarländern zu importieren.

Zurück nach Deutschland.  Hier führen wir derzeit das gleiche Experiment am Stromerzeugungs- und -verteilsystem durch wie in Südaustralien.  In Bayern stammten beispielsweise im Jahr 2015 zwei Drittel des Stroms aus Kernkraftwerken, die bis 2022 abgeschaltet werden sollen.  Die vielfach geforderten Stromtrassen, die den Windstrom aus dem Norden in die industriellen Zentren Bayerns liefern sollen, werden bis dahin nicht fertig sein.  Sie könnten aber auch keine Abhilfe schaffen, weil der Windstrom nur zu einem Drittel des Jahres geliefert werden könnte, während für zwei Drittel der Jahresstunden unklar ist, woher der benötigte Strom bezogen werden soll.  In Bayern haben die Energieversorger übrigens schon detaillierte Pläne, welche Landkreise und Städte im Fall von Stromknappheit vom Netz abgeklemmt werden, um die Stromversorgung insgesamt zu schützen. Regionen, die sich nicht selbst mit Strom versorgen können, bleiben dann eben dunkel.

Wie eingangs erwähnt, exportierte Deutschland dank seiner derzeit noch bestehenden Reservekapazitäten im Januar noch Strom ins Ausland.  Im Umkehrschluss können wir davon ausgehen, dass unsere Nachbarländer zu Zeiten, in denen in Deutschland eine Dunkelflaute herrscht, selbst jedes Kraftwerk für den Eigenverbrauch benötigen und keinen Strom nach Deutschland liefern können.  Die Hoffnung auf Hilfe von außen könnte sich als trügerisch erweisen.

Wir haben in Deutschland daher die paradoxe Situation, dass einerseits Kraftwerksstilllegungen notwendig sind, um das Strompreisniveau so zu stabilisieren, dass konventionelle Kraftwerke wieder profitabel betrieben werden können (vgl. „Die Energiefrage“ vom 9.1.2017).  Andererseits werden wir die Reserven auch in Zukunft benötigen, um Stromausfälle zu vermeiden, die gewaltige volkswirtschaftliche Schäden bewirken könnten.  Denn von einer „Extremwetterlage“ kann für Januar beim besten Willen nicht gesprochen werden.  Zwischen 2008 und 2014 gab es 24 solcher Wetterlagen, wo die Stromerzeugung aus wetterabhängigen Erneuerbaren für mindestens fünf Tage am Stück praktisch ausfiel.  In den Jahren 2010, 2011, 2012 und 2014 hatten wir Dunkelflauten von je zehn Tagen bis zwei Wochen Dauer.  Im Winter 2014 folgten sogar mehrere längere Dunkelflauten aufeinander, nur kurz unterbrochen durch wenige windige Tage. 

Die Tatsache, dass wir im Januar 2017 während einer längeren Dunkelflaute noch genügend Reservekapazitäten abrufen konnten, um einen großflächigen Stromausfall zu umgehen, heißt nicht, dass wir dies auch noch im Winter 2023 tun könnten.  Denn bis dahin läuft in Deutschland kein Kernkraftwerk mehr, viele Kohlekraftwerke werden so verschlissen sein, dass sie nicht mehr sicher betrieben werden können, und einige Gaskraftwerke werden wegen mangelnder Profitabilität demontiert sein.

Dr. Björn Peters ist Gründer der  Unternehmens- und Politikberatung „peters – Continental Commodity Consulting“ Dr. Björn Peters ist Analyst und beschäftigt sich seit vielen Jahren mit dem Thema „Energiewende“ unter wissenschaftlichen als auch wirtschaftlichen Gesichtspunkten

Der Beitrag erschien zuerst beim Deutschen Arbeitgeber Verband hier




Drastische Reduzierung der NASA Global Warming Programme

Es wird erwartet, dass das Repräsentantenhaus dieser Gesetzvorlage zustimmt, und Präsident Trump wird es wahrscheinlich unterzeichnen. Die Befürworter sagen, dass das Budget der NASA wieder in die Weltraumforschung gesteckt werden sollte und weg von der globalen Erwärmung und der Erdforschung. Die Republikaner planen, die mehr als $ 2 Milliarden Budgets der NASA für die Abteilung Erdwissenschaft zu beenden.

„Durch Ausgleich der Budgets, würde ich gerne mehr Geld für die Weltraumforschung ausgeben; Wir werden die Erdwissenschaften nicht auf Null setzen“, so Lamar Smith, der Vorsitzende des Komitees für Wissenschaft, Raumfahrt und Technologie. „Ich möchte, dass wir uns daran erinnern, was unsere Prioritäten sind und es gibt noch ein Dutzend Agenturen, die die Erdwissenschaft und den Klimawandel studieren und das können sie auch weiterhin tun.“

Die NASA-Ausgaben für die Erde und die globale Erwärmungswissenschaft stiegen in den letzten acht Jahren um 63 Prozent und machten damit das größte und am schnellsten wachsende Budget des NASA-Wissenschaftsprogramms aus. Die Agentur gab für die Umweltforschung mehr Geld aus als für viele andere wissenschaftliche Funktionen, darunter Astrophysik und Raumfahrttechnik. Diese Programme erhalten nur $ 781,5 Millionen bzw. $ 826,7 Millionen.

„Wir haben nur eine Agentur, die sich in der Weltraumforschung engagiert und diese braucht jeden Dollar, den sie für die Weltraumforschung aufbringen können“, fuhr Smith fort.

Trump schlug den ehemaligen republikanischen Abgeordneten von Pennsylvania Rep. Bob Walker als Senior Berater seines NASA-Übergangsteams vor – ein Mann, der denkt, dass die NASA weniger „politisch korrekte Umweltüberwachung“ und mehr Raumforschung tun sollte.

„Die NASA sollte sich in erster Linie auf größere Weltraum – Aktivitäten konzentrieren, anstatt auf die Erdgebundene Forschung, die besser von anderen Agenturen behandelt wird“, schrieben Robert Walker und Peter Navarro, weitere Senior Berater im Trump-Team, in einem Kommentar im Oktober. „Die menschliche Erforschung unseres gesamten Sonnensystems bis zum Ende dieses Jahrhunderts sollte der Fokus und das Ziel der NASA sein.“

Republikaner sind nicht die einzigen, die danach schauen, die Ausgaben für Umweltwissenschaft zu beschneiden.

Experten beschuldigen Präsident Obama für die Verzögerung von Plänen, Astronauten bis 2030 zum Mars zu schicken. Bereits 2007 forderte der damalige Senator Obama die Verzögerung des Entwicklungsprogramms, die Space Shuttles der NASA in fünf Jahren zu ersetzen, um Geld für sein Bildungsprogramm zu bekommen.

Soll der Kongress die Finanzierung von Global Warming Programmen drastisch reduzieren?

 

„Eine bemannte Mars-Mission bleibt noch zwei Jahrzehnte entfernt“, schrieb Alexandra Witze, eine Kolumnistin des Wissenschaftsmagazins Nature News. „Der Zeitplan ist durch die zur Verfügung gestellten Mittel bestimmt, um die notwendige Hardware zu entwickeln – eine neue Schwerlast-Rakete und Mannschaftskapsel, um das Leben der Astronauten im Weltraum zu erhalten.

Das ist fast genau die Situation der NASA von vor acht Jahren, bis auf ein Detail: Obama verwarf den Mond als ersten Stützpunkt für Astronauten auf dem Weg zum Mars“.

Sogar Bill Nye „der Wissenschaftler“, ein berüchtigter Kritiker der Globalen Erwärmung und CEO der Planetary Society [ist eine gemeinnützige, nichtstaatliche Organisation, die die Erforschung des Sonnensystems und die Suche nach außerirdischem Leben unterstützen und vorantreiben will] , hat die Versuche von Obama kritisiert, die Weltraumforschung und die Planetenwissenschaft der NASA zugunsten der globalen Erwärmung zu beschneiden. Die NASA-Planetenwissenschaftler haben einen Verkaufsmarkt mit Milchstraßentassen, Saturnkuchen und Glückskeksen organisiert, um politische Unterstützung für die Finanzierung ihrer Arbeit zu erhalten.

Erschienen auf The Daily Caller am 20.02.2017

Übersetzt von Andreas Demmig

http://dailycaller.com/2017/02/20/congress-slashes-funding-for-nasas-global-warming-research/

 




Öl – Woher kommt es?

Hier der Link: WUWT; Andy May, Oil – will we run out?

In den vergangenen sechs Jahren hatte ich dank Anthony Watts das Glück, Beiträge für Watts Up With That zu schreiben. Viele meiner Beiträge behandelten Fragen im Zusammenhang mit der Ölproduktion und jeder dieser Beiträge triggert in der Regel Kommentare von Befürworter der abiotischen Erdöl Entstehung. In diesem Beitrag will ich erklären, warum die Hypothese der abiotischen Erdöl Entstehung nicht weithin akzeptiert ist, und warum die meisten denken, dass die ursprüngliche Quelle von Rohöl organische Substanz ist.

Es ist möglich, dass sich Öl die ganze Zeit im Erdmantel [neu] bildet. Die chemischen Gleichungen können ausgeglichen werden. Ich werde also den Anhängern der abiotischen Erdöl Entstehung eindeutig sagen, dass ihre bevorzugte Hypothese nicht unmöglich ist.

Biogenetisch vs abiogenetisch ist ein wirklich schlechter Weg, um das Problem zu charakterisieren. Es bedeutet, dass die Bildung von Rohöl entweder ein biologischer oder nicht-biologischer Prozess ist. Der Prozess ist thermogen. Das ursprüngliche Ausgangsmaterial gilt als organischen Ursprungs, weil alle Beweise dies unterstützen.

Allgemein akzeptierte Theorie für die Bildung von Kohlenwasserstoffen

Ich werde nicht ins Detail gehen. OffshoreEngineering.com beschreibt die Grundlagen sehr gut.

Die grundlegenden Schritte sind:

  1. Algen, Plankton und andere Meeres- und See-Photosynthese nutzenden Lebewesen sterben und sinken bis zum Grund des Ozeans. [… and lacustrine photosynthesizers die …; ich bin mir nicht ganz sicher mit der Übersetzung]
  2. Sie werden im Schlamm unter anoxischen [sauerstofffreien] Bedingungen begraben.
  3. Weitere Sediment Ablagerung begräbt sie immer tiefer.
  4. Der geothermische Gradient erhöht allmählich die Temperatur der begrabenen Lebewesen.
  5. Diagenese und Katagenese führen zur Bildung von Kerogen, dann Öl, dann Wet Gas [„feuchtes“ Gas mit einem geringen Fluidanteil].
  6. Metagenese führt zur Bildung von trockenem Gas und dann Hochtemperatur-Methan.

1-Die Tiefenskala ist verallgemeinert. Es kann sehr variieren, je nach Art der Überlagerung.
http://www.offshoreengineering.com/oil-and-gas/petroleum-geology/1-hydrocarbon-formation

Jede Phase kann in der Natur beobachtet werden und kann unter Laborbedingungen wiederholt werden.

Öl kommt nicht von Dinosauriern oder toter Vegetation

Unabhängig von Sinclairs Öl Logo…

2- Quelle : https://upload.wikimedia.org/wikipedia/en/thumb/a/a7/Sinclair_Oil_logo.svg/1280px-Sinclair_Oil_logo.svg.png

Oder der alte Conoco-Werbespot, der eine Vibroseis-Crew [Mannschaft mit Spezialfahrzeugen, die mit Rüttelplatten den Boden erschüttern für seismologische Untersuchungen] auf der Suche nach einem vergrabenen Dinosaurier zeigte, entsprach noch nie der Theorie der Kohlenwasserstoffbildung.

Methan und andere einfache Kohlenwasserstoffe vs Rohöl

Was ist Kohlenwasserstoff?

Kohlenwasserstoff

  1. n. [Geologie]

Eine natürlich vorkommende organische Verbindung, die Wasserstoff und Kohlenstoff enthält. Kohlenwasserstoffe können so einfach wie Methan sein [CH4], aber viele sind hochkomplexe Moleküle und können als Gase, Flüssigkeiten oder Feststoffe auftreten. Die Moleküle können die Form von Ketten, Verzweigungsketten, Ringen oder anderen Strukturen haben. Petroleum ist ein komplexes Gemisch von Kohlenwasserstoffen. Die häufigsten Kohlenwasserstoffe sind Erdgas, Öl und Kohle.

 See: asphaltbitumencrude oildry gasfieldgas-pronegenerationgeochemistryhydrocarbon kitchenkerogenmaturitynatural gasoil fieldoil-proneovermaturepayplaypost-maturepreservationprospectreservoirretrograde condensationsecondary migrationsedimentary basinsource rockstratigraphic traptar sandwet gas

Schlumberger Oilfield Glossary

Es ist wichtig zu beachten, dass „organisch“ nicht unbedingt bedeutet „mit dem Leben verwandt“, obwohl es in der Regel so ist.

Die organische Chemie ist die Chemie-Disziplin, die sich mit der Untersuchung von Verbindungen mit Kohlenstoff befasst, die chemisch an Wasserstoff gebunden sind. Die organische Chemie umfasst die Synthese, Identifizierung, Modellierung und chemische Reaktionen solcher Verbindungen. Chemistry.About.com

Methan, Ethan und andere Alkane, Alkene, Alkine, Cycloalkane und Alkadiene sind einfache Kohlenwasserstoffe. Anorganisch gewonnenes Methan ist auf der Erde und anderswo in unserem Sonnensystem und wahrscheinlich in unserer Galaxis massiv reichlich vorhanden. Andere einfache Kohlenwasserstoffe sind auch oft mit anorganischem Methan, meist in Spurenmengen, assoziiert.

Der Saturnmond Titan, hat Meere von flüssigem Methan und es gibt Hinweise auf polyzyklische aromatische Kohlenwasserstoffe (PAK) in der Titan-Atmosphäre. PAK’s sind Schadstoffe, die natürlicherweise in Erdöl- und Kohlelagerstätten und als Folge der Verbrennung von kohlenstoffhaltigen Brennstoffen auftreten.

Die Tatsache, dass die methanhaltige Atmosphäre von Titan PAK und Spuren von schwereren Kohlenwasserstoffen erzeugen kann, hat keine Relevanz, wie sich Erdöl und Erdgasflüssigkeiten auf der Erde ausbilden. Selbst wenn es für die Erdölbildung von Bedeutung wäre, wäre es völlig irrelevant, wie sich Öl und Gas in der Erdkruste ansammeln.

Methan und einfache Kohlenwasserstoffe sind nicht einmal entfernt mit Rohöl verwandt. Öl ist eine Mischung aus komplexen Kohlenwasserstoffen:

3- und 4- Petrowiki, Eigenschaften von Rohöl

Falsch zitiert als Beweis für abiogenes Öl

Es gibt eine ziemlich normale Litanei von „Beweisen“ für Abiogenischem Öl. Ich bin sicher, dass das Folgende nicht alle fehlerhaften „Beweise“ abdeckt.

Dnjepr-Donezbecken, Ukraine

Dies ist in der Regel als Beweis für Abiogenisches Öl zitiert, weil einige Russen sagen, es gab keine Quellgesteine.

Palaeozoic source rocks in the Dniepr–Donets Basin, Ukraine

http://pg.geoscienceworld.org/content/16/4/377

 

Reinhard F. Sachsenhofer, Viacheslav A. Shymanovskyy, Achim Bechtel, Reinhard Gratzer, Brian Horsfield, Doris Reischenbacher
DOI: 10.1144/1354-079309-032 Published on November 2010, First Published on October 20, 2010
ArticleFiguresInfo & Metrics PDF

 

ABSTRACT Das Dnjepr-Donezbecken (DDB) ist eine bedeutende Erdölprovinz in Osteuropa. Um die regionale und stratigraphische Verteilung der Quellsteine für das dominant gasanfällige Erdölsystem zu verstehen, wurden 676 feinkörnige Gesteine aus 30 Bohrlöchern auf Volumenparameter (Gesamtkohlenstoff (TOC), Carbonat, Schwefel, RockEval) analysiert. Für die Makro- und Biomarker-Analyse, Pyrolyse-Gaschromatographie und kinetische Untersuchungen wurde eine Teilmenge von Proben ausgewählt. Organisch reiche Sedimente treten in unterschiedlichen Intervallen innerhalb der Beckenfüllung auf. Maximale TOC-Gehalte (5,0 ± 1,9%) treten in den Rudov-Betten auf, die mehrere zehn Meter dick sind. Die ölanfälligen Gesteine (Typ III-II-Kerogen) wurden in Basineinstellungen oberhalb einer Abweichung zwischen den unteren und oberen Visean-Abschnitten abgelagert. Während die maximalen TOC-Gehalte in den Rudov-Betten auftreten, werden hohe TOC-Gehalte im gesamten Tournais- und Viseanbereich beobachtet. Allerdings sind diese Gesteine hauptsächlich gaskondensat gefährdet. In nordwestlichen Teil der DDB kommen in serpukhovischen Intervallen hoch Öl-haltige schwarze Schiefer mit bis zu 16% TOC und Wasserstoffindexwerten bis zu 550 mgHC g -1 TOC vor. Öl-haltige untere serpukhovische und Gaskondensat-haltige Mittlere Karbon-Kohle ist weit verbreitet im südlichen und südöstlichen Teil des Beckens. Obwohl keine Ursprungsfelsen mit einem devonischen Alter festgestellt wurden, kann ihre Anwesenheit nicht ausgeschlossen werden.

http://pg.geoscienceworld.org/content/16/4/377.abstract

 

Das Dneiper-Done-Becken hat eindeutig identifizierbare Sedimentgesteine.

Eugene Island Feld330, Golf von Mexiko

Die plötzliche, geheimnisvolle, unerklärliche Umkehr der Ergiebigkeit des Ölvorkommens für das Eugene Insel Feld 330 wurde oft als Beweis für Abiogenetisches Öl zitiert …

„Etwas Geheimnisvolles geschieht in Eugene Island 330. Die Ergiebigkeit des Ölfeldes, tief im Golf von Mexiko vor der Küste von Louisiana, sollte bereits vor Jahren zurückgegangen sein. Und für eine Weile verhielt es sich wie jedes normale Feld: Nach seiner Entdeckung in 1973 erreichte die [Ölförderung der] Eugene Insel 330 mit etwa 15.000 Barrel pro Tag (2.400 m3/d) ihren Höhepunkt. Bis 1989 verringerte sich die Produktion auf etwa 4.000 Barrel pro Tag (640 m3 / d). Dann plötzlich – einige sagen fast unerklärlich – wendete sich der Reichtum von Eugene Island. Das von PennzEnergy Co. betriebene Feld produziert mittlerweile 13.000 Barrels pro Tag (2.100 m3 / d) und die wahrscheinlichen Reserven stiegen auf über 400 Millionen Barrel von [damals] 60 Millionen.“ [5]

— Christopher Cooper, Wall Street Journal

http://interactive.wsj.com/archive/retrieve.cgi?id=SB924151147795357823.djm [hinter Bezahlschranke] Christopher Cooper, „Das merkwürdige Reservoir; Louisianas Öl-Experten suchen nach einer tieferen Bedeutung“,

 Wall Street Journal, April 16, 1999

 Auch in  en.Wikipedia findet sich ein Bericht darüber

 

 

Zunächst, die Produktionskurve von EI 330 zeigt nichts Ungewöhnliches…

5- Monatliche vs kumulative Produktion
https://www.fromthewilderness.com/free/ww3/011205_no_free_pt2.shtml

Eugene Island 330 ist eines der größten Ölfelder im Golf von Mexiko. Allerdings, seine Produktion Kurve gibt es nichts Ungewöhnliches her. Der „Buckel“ in den späten 1990er Jahren war vor allem auf [weitere] Bohrungen zurückzuführen. Das Feld ist immer noch rückläufig. Von 1972 bis 2016 hat das Feld 452 Millionen Barrel Öl, 1,88 TCF Gas [~ 53 Billionen Kubikmeter] und 484 Millionen Barrel Salzwasser produziert. Im vergangenen Jahr betrug das Mittel etwa 11.500 BOPD, 14.400 MCFD [million cubic feet per day] und * 28.400 BSWD *[barrels of salt water per day]. Die meisten Reservoirs sind starke Wasserantriebe. Diese Arten von Reservoirs können 50% oder bessere Primärrückgewinnungen aufweisen.

Die einzige merkwürdige Sache über EI 330 war der relativ eindeutige Beweis (4d seismisch) das Öl eine Verwerfungsebene nach oben wandert (so wie das Öl zuerst dort hinkam). Die Quellgesteine im Golf von Mexiko erzeugen noch immer Kohlenwasserstoffe, die dann noch in geologische Fallen wandern [~ in undurchlässige Schichten].

 Ultratiefe Ölansammlungen sind zu tief und heiß, um im Erdöl-Fenster zu sein

[de.Wiki: Der Temperaturbereich zwischen 60 °C und 170 °C, in dem vorwiegend Erdöl entsteht, wird als Erdölfenster bezeichnet.]

Öl stammt aus organischem Material, meist Algen, die schnell im Schlamm am Boden von Ozeanen und Seen begraben wurde – So hatte es nie eine Chance zu versteinern. Druck, Wärme und Zeit verwandelten das organische Material in Kerogen, Öl und Erdgas …

6- Crain’s Petrophysical Handbook

Da die Biomasse tiefer in die Sedimentspalte eingegraben wird, wird sie durch zunehmenden Druck komprimiert, steigende Temperatur kochen es und die Kohlenwasserstoffe wandern langsam Richtung Oberfläche, weil sie weniger dicht sind als konnates Wasser [eingeschlossenes…] / Formationswasser. Das Kerogen kocht zuerst zu schwerem Öl, dann zu leichtem Öl, dann zu nassem thermogenen Gas, dann zu thermogenem leichtem Gas, dann zu Hochtemperatur-Methan …

7- Crain’s Petrophysical Handbook

Rohöl crackt bei Temperaturen oberhalb von etwa 150°C. Es kann in der Regel nicht überall in der Tiefe in der Nähe des Mantels existieren.

Das Ölfeld Jack / St Malo im Abschnitt „Walker Ridge 758 Chevron # 1“ ist die tiefste aktive Ölquelle im Golf von Mexiko; in einer Wassertiefe von ~ 2,1 km wurde bis zu einer gesamten vertikalen Tiefe (TVD) von ~8,7 km gebohrt. Es wurde in einem unteren Tertiär-Wilcox-Sandstein (8,1 km – 8,3 km) abgeschlossen. Die Bodenlochtemperatur betrug 110°C. Das Öl wanderte aus tieferen mesozoischen und unteren Tertiärquellenfelsen nach oben. Im Erdölfenster wurden sogar noch tiefere Ölreservoire entdeckt, viele davon werden in den nächsten Jahren in Erschließung gehen.

Im Golf von Mexiko gibt es keine Ölbohrungen mit Bohrungen außerhalb des Erdölfensters. Die Ultra-Tiefsee-Tertiär-Öl-Entdeckungen liegen gut im Erdölfenster. Die Flachwasser Untere Tertiärgas-Entdeckung bei Davy Jones ist weit von dem Erdölfenster entfernt, aber im Erdgasfenster …

8- WUWT

9- WUWT

Die Tiefen auf dem Diagramm sind Näherungen, die auf einem verallgemeinerten geothermischen Gradienten basieren. Der Geothermie Gradient ist stark variabel. Wasser und Halit (Salz) sind weniger dicht als die meisten Gesteine. Wenn das Deckgebäude aus ~ 2,4 km Seewasser und 600m Halit besteht, 9,1 km Überlagerungen wiegen viel weniger, als wenn es aus mehr dichten Felsen zusammengesetzt ist.

Das Ultra-Tiefwasser Untere Tertiär Treiben im Golf von Mexiko und die tiefen Subsalz-Schichten vor der Küste Brasiliens werden oft als Beispiele für abiotisches Öl genannt, weil die Reservoirs angeblich zu tief, zu heiß und / oder zu stark unter Druck gesetzt sind, um im Erdölfenster zu sein. Das ist schlicht falsch.

Tafelsalz wirkt wie ein Heizkörper. Es leitet Wärme von dem Substrat zur Oberfläche. Die Kombination von dicken Schichten von Salz und tiefen Wassertiefen ermöglicht es Öl in vorher unerwarteten Tiefen zu existieren. Salz und Wasser sind auch weniger dicht als der meiste andere Abraum. Dies ermöglicht, dass „reservoir quality rocks“ [Reservoir-Qualitätsfelsen (?)] in tieferen Tiefen existieren als zuvor erwartet.

Ich habe Brunnen gebohrt im Golf von Mexiko, tiefer als 6 km. Die Bodenlochtemperaturen lagen im Bereich von 100 ° C. Zehn Brunnen im Golf von Mexiko, gebohrt zu vertikalen Tiefen von mehr als 6 km, haben jeweils mehr als 20 Millionen Barrel Öl produziert. Die maximale Bodenlochtemperatur (100°C) wurde in der Bohrung des Mississippi Canyon (MC) 777 TF001, gebohrt von BP, angetroffen. Die durchschnittliche Bodenlochtemperatur der zehn Bohrungen betrug 92°C.

Für weitere Informationen über die Geologie und Erdölsysteme des Golfs von Mexiko empfehle ich:

 The Prize Beneath the Salt by Dribus, Jackson and Kapoor

Hydrocarbon Systems Analysis of the Northern Gulf of Mexico: Delineation of Hydrocarbon Migration Pathways Using Seepsand Seismic Imaging by Hood, Wnger, Gross and Harrison

Gulf of Mexico by Galloway

 

Offshore-Vietnam und andere Fractured Basement Reservoirs

Einige Ölfelder produzieren aus gebrochenen Grundfelsen, meist Granit. Das Cuu Long Becken, offshore Vietnam wird oft als Beispiel für Abiogenes Öl genannt.

10 – Petroleum Geology of Cuu Long Basin – Offshore Vietnam*

Von Nguyen Du Hung und Hung Van Le
Suchen und Entdecken: Article #10062 (2004)

* Basierend auf „extended abstract“ mit dem Titel „Hydrocarbon Geology of Cuu Long Becken – Offshore Vietnam“ für die Präsentation auf der AAPG International Conference, Barcelona, Spanien, 21-24 September 2003.
[…]

Source Rocks

 [Source Rock (Quellgestein) ist die Hauptquelle, aus der Kohlenwasserstoffe erzeugt oder erzeugt werden können. Ölschiefer gilt als unreife Source Rock.]

Die effektiven Quellengesteine sind der obere Oligozänschiefer, der in dem gesamten Becken und dem unteren Oligocen eingelagerten Schiefer vorhanden ist. Sie enthalten meist Kerogen Typ I / II, die aus maritimen Sedimenten erzeugt werden. Der durchschnittliche TOC Anteil (Gesamtkohlenstoff) reicht von mehr als 1% bis zu fast 10%; Der Wasserstoffindex reicht von 300 bis mehr als 600 mg / g TOC (Abbildung 5).

Fractured Basement Reservoir

Zerklüftete Grundreservoirs sind die einzigartigen Merkmale des Cuu Long Beckens, obwohl es noch andere Ölfunde in Trümmer- und Vulkangesteinen gibt. Die ersten Erdölfunde im Boden wurden von Vietsopetro im Jahre 1988 auf dem Gebiet von Bach Ho gemacht. Das Öl wurde in Makrofrakturen, Mikrofrakturen und „vuggy pores“ gelagert [~ kleine Poren – Ein kleiner Hohlraum in einem Fels oder einer Vene, oft mit einem Mineralfutter von unterschiedlicher Komposition aus dem umliegenden Felsen.] Die Matrixporosität des magmatischen Körpers ist vernachlässigbar. Frakturen im Grund können aus einer oder einer Kombination folgender Faktoren entstehen:

1) Der Kühlung des magmatischen Körpers

2) Tektonische Aktivität

3) Hydrothermale Prozesse

4) Verwitterung und Abblättern.

AAPG Search and Discovery

[Die American Association of Petroleum Geologists (AAPG) ist eine internationale wissenschaftliche Gesellschaft mit dem Schwerpunkt Erdölgeologie]

Organische Marker im Öl entsprechen dem Kerogen im Oligozänschiefer. Für die „abiotische Theorie“ müsste das Öl aus dem Granit wandern, das organische Material aus dem Schiefer auswaschen und dann wieder in den Granit zurück wandern.

Es gibt nicht genug organische Materie, die in den Ozeanen versunken ist, um das gesamte Öl zu erklären

Hier ist die Berechnung:

11-Grafik WUWT

  • Die Erdkruste beträgt ~ 1% des Erdvolumens.
  • Sedimentgesteine umfassen ~ 5% des Volumens der Kruste.
  • Die weltweite Rohöl-Produktion seit 1900 betrug 1,3 Billionen Barrel.
  • Wenn es noch 3,0 Billionen Barrel gibt, die noch zu finden und zu produzieren sind, enthalten die Sedimentgesteine durchschnittlich 0,01 Barrel aufbereitbares Rohöl pro acre*ft
    [0,01 Acre-feet (ac ft) = 12,33 m³
    http://www.kylesconverter.com/volume/acre–feet-to-cubic-meters ].
  • Ein typisches Ölreservoir hat einen Rückgewinnungsfaktor von ~ 300 Barrel pro acre*ft.
  • Das bedeutet, dass nur 0,003% der Sedimentgesteine der Erde mit Erdöl geladen sein müssten, um das Erdöl zu erklären, das jemals auf der Erde produziert werden könnte.

 

Das Volumen des organischen kohlenstoffreichen Sediments in der Erdkruste ist massiv groß. Der Golf von Mexiko hat in den letzten 200 Millionen Jahren mehr als 18,2 km Sedimentäre Säulen akkumuliert. Allein die Cenozoikum Sektion ist mehr als 12,2 km dick. Das Quartär kann an einigen Stellen mehr als 8,5 km sein. Der größte Teil der Sedimentspalte besteht aus dickem, organisch-reichem Schiefer.

Öl wird noch gebildet und wandert von der Bezugsquelle zu dem Reservoir Gestein im Golf von Mexiko. Die Pleistozän Stauseen sind weniger als 2,5 Millionen Jahre alt und viele sind nur in den letzten 275.000 Jahren gebildet worden. Die Reservoirs werden nicht so schnell geladen, wie wir sie entleeren.

12 – Rote Flächen indizieren ~20,000 Meter Sediment Dicke.

Ozeanische Sedimentäre Isopach Karte

Schwarzer Meeresschiefer, die unter anoxischen Bedingungen deponiert werden, werden mit dem Material beladen, das Öl aus …

Der organische Kohlenstoff (TOC) liegt im Mittel bei 10% Gewichtsanteil

Die Kreidezeit war insbesonders eine Küche für Kohlenwasserstoff. Die Meeresbedingungen konnten für die Ablagerung von Quellgesteinen nicht günstiger sein, selbst wenn sie für einen solchen Zweck entworfen worden wären …

13- „DSDP (Deep See Drilling Projects) – Tiefsee Bohrungen, an denen kreidige Sedimente, die reich an organischer Substanz waren, angetroffen wurden. Von Dean und Arthur, 1986. “

 

Cretaceous Proto-Atlantic [die Kreideformationen des frühgeschichtlichen Atlantik]

Das untere Tertiäre Eozän war auch eine Kohlenwasserstoffküche (bis zu 21% TOC Anteile).

Es gibt keinen Mangel an organischer Substanz in den Sedimentbecken der Erdkruste.

 

Der Siljan Ring

Der Nachweis von abiogenischem Öl würde aus der Entdeckung eines bedeutenden Volumens an abiogenischem Öls bestehen.

Bisher war der nahegelegenste Nachweis eines „asphaltitischen Materials, das, was in dem Bohrstamm bei 5945 m Tiefe im Bohrloch Gravberg-1 aus dem präkambrischen Granit, Siljan, Schweden, entfernt worden war.“

„Die chemische Charakterisierung zeigte, dass dieses Material geringe Mengen an Kohlenwasserstoffen enthält, die im Dieselbereich maximieren. Es wurden keine schweren Kohlenwasserstoffe mit Ausnahme der Spuren von polycyclischen Aliphaten identifiziert. Aus den chemischen und stabilen Isotopencharakterisierungen gelangten wir zu dem Ergebnis, dass das schwarze gelatineartige Material überwiegend aus der Veränderung biologisch abbaubarer nicht toxischer Gleitmittel (BNTL – biodegradable nontoxic lubricant) durch Natronlauge, mit Dieselöl und Spuren von polycyclischen Kohlenwasserstoffen aus dem rezirkulierenden lokalen Seewasser gewonnen wird. Es konnten keine Hinweise für eine indigene [~ regionale] oder tiefe Quelle für die Kohlenwasserstoffe gefunden werden.“

https://www.onepetro.org/journal-paper/SPE-19898-PA

Leider war das „Asphalt-artige Material“ höchstwahrscheinlich aus der in dem Bohrloch verwendeten Bohrflüssigkeit abgeleitet.

 

Andere ungewöhnliche Argumente

Diese Argumente, angeblich aus Prof. Thomas Golds Buch, „Biosphäre in der heißen Tiefe“ zeigen eine völlige Unkenntnis der konventionellen Theorie der Kohlenwasserstoffbildung und -Akkumulation…

[Prof. Th. Gold Ϯ2004]

 (8) Petroleum und Methan finden sich häufig in geographischen Mustern langer Linien oder Bögen, die mehr mit tiefliegenden großen strukturellen Strukturmerkmalen der Kruste zusammenhängen als mit dem kleineren Maßstab der Sedimentablagerungen.

Öl wird in der Regel durch strukturelle Merkmale eingeschlossen, häufig gewöhnliche Bruchflächen. Strukturelle Tendenzen neigen zu linearen und bogenförmigen Mustern …

14 – Die schwarzen Kleckse sind Salzkörper und die krummlinigen Liniensegmente sind Haupt Bruchlinien.
Source: U. of Idaho

 (9) Kohlenwasserstoffreiche Gebiete sind auf vielen verschiedenen Ebenen kohlenwasserstoffreich, entsprechend ganz unterschiedlicher geologischer Epochen und erstrecken sich bis zu dem kristallinen Untergrund, der dem Sediment zugrunde liegt. Eine Invasion eines Bereichs durch Kohlenwasserstofffluide von unten könnte dies besser berücksichtigen als die Chance einer sukzessiven Abscheidung.

Das ist einfach nur Unwissenheit. Die konventionelle Theorie der Ölbildung und -Akkumulation besagt nicht, dass sich Öl in situ bildet. Es bildet sich in tieferen Sedimentgesteinen und wandert nach oben, um sich in strukturellen und stratigraphischen Fallen zu akkumulieren … Mit anderen Worten: „eine Invasion eines Gebietes durch Kohlenwasserstoffflüssigkeiten von unten“.

15- Petroleumsupport.com

„Kohlenwasserstoffreiche Gebiete sind in der Regel auf vielen verschiedenen Ebenen kohlenwasserstoffreich“, weil die strukturelle Verformung auf vielen Ebenen Fallen schafft und das Öl von unten in sie wandert.

16- Source assets.geoexpro.com

 (10) Einigem Petroleum aus tieferen und heißeren Ebenen fehlen fast vollständig die biologischen Beweise. Die optische Aktivität und der ungerade-zahlige Kohlenstoffzahl-Effekt sind manchmal völlig fehlend und es wäre schwer zu vermuten, dass eine solche gründliche Zerstörung der biologischen Moleküle aufgetreten war, wie dies erforderlich sein würde, wobei jedoch das Schüttgut sehr ähnlich zu andere Rohölen bliebe.

Elender Unsinn.

 (11) Methan findet sich an vielen Orten, wo ein biogenetischer Ursprung unwahrscheinlich ist oder wo biologische Ablagerungen unzureichend erscheinen: in großen Ozeanspalten in Abwesenheit von wesentlichen Sedimenten; In Fissuren in magmatischen und metamorphen Gesteinen, auch in großer Tiefe; In aktiven vulkanischen Gebieten, auch wenn es ein Minimum an Sedimenten gibt; Und es gibt massive Mengen an Methanhydraten (Methan-Wassereis-Kombinationen) in Permafrost- und Ozeanablagerungen, wo es zweifelhaft ist, dass eine ausreichende Menge und Verteilung von biologischem Ausgangsmaterial vorliegt.

Der Methan-Strohmann. Niemand hat gegen das anorganisch hergestellte Methan argumentiert.

 (12) Die Kohlenwasserstoffablagerungen einer großen Fläche weisen häufig allgemeine chemische oder isotopische Merkmale auf, die unabhängig von der vielfältigen Zusammensetzung oder dem geologischen Alter der Formationen sind, in denen sie sich befinden. Solche chemischen Signaturen können in den Abundanzverhältnissen [dem Isotopenhäufigkeitsverhältnis] einiger kleinerer Bestandteile gesehen werden, wie Spuren von bestimmten Metallen, die Bestandteile von Petroleum ausmachen; Eine gemeinsame Tendenz kann im Verhältnis von Isotopen einiger Elemente oder im Häufigkeitsverhältnis von einigen der verschiedenen Moleküle gesehen werden, die Petroleum bilden. So konnte eine chemische Analyse einer Petroleumprobe oft die Identifizierung des allgemeinen Ursprungsgebiets ermöglichen, auch wenn in diesem Bereich ganz unterschiedliche Gebilde Erdöl erzeugen könnten. Beispielsweise kann ein Rohöl von irgendwo im Mittleren Osten von einem Öl, das aus irgendeinem Teil Südamerikas oder aus den Ölen Westafrikas stammt, unterschieden werden; Kann fast jedes der Öle aus Kalifornien von dem der anderen Regionen durch das Kohlenstoffisotopenverhältnis unterschieden werden.

Denn die Quellgesteine sind „unabhängig von der vielfältigen Zusammensetzung oder den geologischen Zeiten der Formationen, in denen“ das Öl abgegriffen worden ist.

Dieses Argument von Kenny et al. 2002 hat die konventionelle Theorie der Kohlenwasserstoffbildung, -migration und -akkumulation grundsätzlich missachtet und argumentiert dann gegen einen Strohmann ihrer eigenen Konstruktion:

„Die spontane Genese von Kohlenwasserstoffen, die natürliches Erdöl enthalten, wurde durch chemische Thermodynamik-Stabilitätstheorie analysiert. Die Einschränkungen der chemischen Entwicklung nach dem zweiten Hauptsatz der Thermodynamik werden kurz untersucht und das wirksame Verbot der Umwandlung von biologischen Molekülen in Kohlenwasserstoffmoleküle in dem für die oberflächennahe Erdkruste charakteristischen Temperatur- und Druckumwandlungsmechanismus schwerer als Methan wird berücksichtigt.“

http://www.pnas.org/content/99/17/10976.long

Die konventionelle Theorie des Kohlenwasserstoffs hat keine Ähnlichkeit mit einer „spontanen Entstehung von Kohlenwasserstoffen“, und die Energiequellen sind Wärme, Druck und chemische Reaktion, die aus Wärme und Druck resultieren.

Schlussfolgerungen

Eine mehr sinnlose Kritik an der allgemein akzeptierten Theorie der Kohlenwasserstoffbildung, ist die Vorstellung, dass unser Anhängen an einer alten Theorie uns daran hindert, abiogenes Öl zu finden. Das ist ein Quatsch. Wir suchen nicht nach Öl mit Hilfe von Theorien über die Kohlenwasserstoffbildung. Die Theorie wurde aus den Beobachtungen der Kohlenwasserstoffansammlungen entwickelt. Wenn wir ein neues Becken erforschen, suchen wir nach Gesamtölsystemen; Jedoch, wenn ich im Golf von Mexiko prospektiere, suche ich nicht nach den Quellengestein.

Geologen halten sich allgemein an Chamberlin’s Method of Multiple Working Hypotheses  [… Methode der mehrfachen Arbeitshypothesen] und die meisten von uns haben einen offenen Verstand zur Abiogenetischen Ölhypothese. Die amerikanische Vereinigung der Erdöl-Geologen (AAPG) hat sogar Konferenzen zu diesem Thema veranstaltet…

Zusammenfassung

AAPG Forschungskonferenz

Herkunft von Erdöl

Juni 2005, Calgary, Alberta, Kanada

Suchen und Entdecken Artikel # 90043 (2005)

Verfasst am 26. Juli 2005

Hinweis: Punkte, denen Sternchen vorangestellt ist (*), bezeichnen erweiterte Zusammenfassungen, die meisten mit Illustrationen.

*Two Models of the Middle Devonian Petroleum System in the Volgograd Region: the Pros and Cons
by Leonid Anissimov and Stanislav Chizhov

The Complementary Roles of Kinetics and Thermodynamics in the Generation and Preservation of Oil and Gas
by Colin Barker

Origin of High Helium Concentrations in Dry Gas by Water Fractionation
by Alton A. Brown

Abiogenic Petroleum Generated by Serpentinization of Oceanic Mantellic Rocks
by J. L. Charlou, J. P. Donval, P. Jean-Baptiste, D. Levaché, Y. Fouquet, J. P. Foucher, and P. Cochonat

*The Petroleum System Paradigm and the Biogenic Origin of Oil and Gas
by Wallace G. Dow

Hydrocarbons in Deep Water: A Brief Review of Some DSDP/ODP/IODP Results
by Martin Hovland, Barry Katz, and George Claypool

*Hydrides and Anhydrides
by C. Warren Hunt

From Source to Reservoir – the Generation and Migration Process
by Barry J. Katz

*Hydrothermal Hydrocarbons
by Stanley B. Keith and Monte M. Swan

*Juvenile Petroleum Pathway: From Fluid Inclusions via Tectonic Pathways to Oil Fields
by Alexander A. Kitchka

*Petroleum: To Be Or Not To Be Abiogenic
by M. R. Mello and J. M. Moldowan

*Isotopic and Chemical Composition of Natural Gas from the Potato Hills Field, Southeastern Oklahoma: Evidence for an Abiogenic Origin?
Jeffrey Seewald and Jean Whelan

Trace Element Evidence for Major Contribution to Commercial Oils by Serpentinizing Mantle Peridotites
by Peter Szatmari, Tereza Cristina Oliveira Da Fonseca, and Norbert Fritz Miekeley

*Conceptions and Indicators of the Abiogenic Oil and Gas Origin and Its Significance
by B. M. Valyaev, S. A. Leonov, G. A. Titkov, and M. Yu. Chudetsky

http://www.searchanddiscovery.com/documents/abstracts/2005research_calgary/index.htm?q=%252Btext%253Agas

 

Es läuft auf zwei Dinge hinaus:

  1. Die konventionelle Theorie erklärt alle Beobachtungen.
  2. Es würde keinen Einfluss auf den Prozess der Öl-und Gas-Exploration machen.

Der Prozess der Kohlenwasserstoffbildung ist sehr organisiert, wurde in allen Stadien in der Natur beobachtet, kann in einer strengen wissenschaftlichen Theorie quantifiziert werden und kann unter Laborbedingungen weitgehend simuliert werden. Der einzige Teil des Prozesses, der nicht direkt im Laboratorium wiederholt werden kann, ist die Zeit.

Erdöl-Erzeugung durch Pyrolyse in Laborbedingungen über sechs Jahren mit simulieren Bedingungen in einem absinkenden Becken

D. SAXBY & K. W. RILEY

CSIRO Division of Fossil Fuels, PO Box 136, North Ryde, New South Wales 2113, Australia […]

Infolgedessen haben wir ein potentielles Quellenmaterial von 100 bis 400 ° C über 6 Jahre lang erhitzt und dabei die Temperatur um 1 K pro Woche erhöht. Dies erfolgte in einem Versuch, die thermische Geschichte einer Probe, die in einem kontinuierlich nachsinkenden Becken mit einem konstanten geothermischen Gradienten bedeckt wurde, zu simulieren. Nach vier Jahren wurde ein Produkt, das von einem paraffinischen Rohöl nicht unterscheidbar ist, aus einem Torbanit erzeugt [Torbanit — (Bitumenit), asphaltartige Substanz, welche zwischen verschiedenen Steinkohlenflötzen im nördlichen England in 20 u. mehr Zoll mächtigen Schichten vorkommt, ist weich, dunkelbraun; wird zur Bereitung eines vorzüglichen Leuchtgases benutzt …; universal_lexikon.deacademic.com], während eine Braunkohle eine Produktverteilung ergab, die mit einem nassen Erdgas in Zusammenhang stehen könnte. Von großer Bedeutung ist die Abwesenheit von Olefinen und Kohlenmonoxid in allen Produkten. Wir glauben, dass die gegenwärtigen Experimente, die möglicherweise so langsam wie realistisch in einer menschlichen Zeitskala geplant sind, erstmals erfolgreich die Kohlenwasserstofferzeugung in einem kontinuierlich sinkenden Sedimentbecken dupliziert haben.

http://www.nature.com/nature/journal/v308/n5955/abs/308177a0.html

Während es durch die Mantel-Serpentinisierung [ ~ Mineraliengemisch, meistens grün] oder durch das Fischer-Tropsch-Verfahren möglich ist, Öl zu bilden, gibt es einfach keinen Beweis, dass jedes Erdöl durch diese Prozesse auf der Erde jemals gebildet wurde. Wenn sich Öl in dem Mantel bildete, würde es aus den Mittelozeanrücken fließen (Methan, das aus den Mittelozean-Rippen fließt, ist kein Öl).

[der Sinn des ersten Satzteiles ist mir nicht ganz klar, daher hier auch im Original; der Übersetzer]

“There are very few crude oil accumulations that are even consistent with the abiogenic hypotheses and no significant accumulations inconsistent with the generally accepted theory of hydrocarbon formation.”

 „Es gibt sehr wenige Ansammlungen von Rohöl, die sogar im Einklang mit den abiogenetischen Hypothesen stehen und keine signifikanten Ansammlungen, die mit der allgemein akzeptierten Theorie der Kohlenwasserstoffbildung nicht übereinstimmen.“

Letztendlich ist die gesamte Debatte akademisch. „Öl ist, wo Sie es finden.“ Allerdings hat es sich ursprünglich gebildet, es muss in wirtschaftlichen Ansammlungen gefunden werden. Igneous [gebildet aus Lava oder Magma] und metamorphe Gesteine sind selten porös und durchlässig … und enthalten nur selten Rohöl. Auch wenn Öl anorganisch gebräuchlich geformt wurde … Es würde nicht ändern, wie und wo Ölgesellschaften nach Öl suchen. Es muss noch in porösen und durchlässigen Reservoirs gefangen werden – Sandsteine, Kalksteine, Schiefer und andere Sedimentgesteine. Sogar das Öl, das in gebrochenen Graniten und anderen Grundgesteinen gefangen ist, musste durch Sedimentgesteine wandern und von diesen gefangen werden.

Ein Großteil des Materials in diesem Beitrag wurde übernommen von den Kommentaren von:

Peak Oil Indefinitely Postponed. (Peak-Öl endgültig verschoben)

Erschienen auf WUWT am 18.02.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/02/18/oil-where-did-it-come-from/

Hinweis in eigener Sache:

Geologie ist nicht mein Fachgebiet. Der eine oder andere unserer Leser mag darin bestimmt besser sein als ich. Ich habe viel recherchiert, aber gefühlte 10 Semester Fachstudium konnte ich nicht nachvollziehen, danke für ihr Verständnis.

Andreas Demmig

 




G20: Merkel legt einen Klima-Hinterhalt für Trump

Merkel ist bereit, es mit Trump aufzunehmen, während sie nach einem Klima-Kompromiss trachtet

Nach nur zwei Monaten seiner Amtszeit als Präsident schockierte Bush die Welt mit seiner Ankündigung, Wort zu halten: Die USA würden nicht das Kyoto-Protokoll implementieren, welches von seinem Vorgänger unterzeichnet worden war. Mit Verweis auf „den unvollständigen Status wissenschaftlicher Erkenntnisse hinsichtlich der Gründe des Klimawandels sowie Lösungen dagegen, und auf das Fehlen kommerziell sich rechnender Technologien zum Entfernen und Speichern von Kohlendioxid“ erklärte Bush, dass er kein Abkommen unterzeichnen könne, welches „unsere Wirtschaft und unsere Arbeiter schädigt“. Stattdessen würde Amerika zusammen mit seinen Verbündeten und mittels internationaler Zusammenarbeit „Technologien entwickeln ebenso wie marktbasierte Anreize und andere innovative Verfahren“.

Es war wie eine frische Brise im Mief des ermüdenden Nachdenkens über Emissionskürzungen. Aber dann geschah etwas Seltsames. Ein innovatives Verfahren nach dem anderen wurde Stück für Stück verworfen, und die Bush-Regierung fand sich selbst erneut von den UN-Klimawandel-Verhandlungen eingesogen.

Auf dem G8-Gipfel in Gleneagles, UK, im Jahre 2005 trieb der Gastgeber Tony Blair Bush in die Enge. „Alle hier stimmen überein, dass der Klimawandel jetzt im Gange ist, dass menschliche Aktivitäten dazu beitragen und dass er jeden Teil des Globus‘ betreffen könnte“, stellte Blair in seiner Schlussbemerkung zu dem Gipfel fest. „Wir wissen, dass Emissionen, global gesprochen, verringert werden und dann aufhören müssen, was uns hin zu einer Low-Carbon-Ökonomie bringt“. Diese Haltung wurde im Kommuniqué des Gipfels reflektiert, was Bush in Zugzwang brachte für eine ökonomisch schädliche Politik, der er niemals entkommen würde.

Seine Strategie bzgl. Klimawandel pflasterte den Weg für die Strategie von Barack Obama. Auch in der heimischen Energiepolitik stellten sich die letzten beiden Jahre der Bush-Präsidentschaft als ein Vorspiel zu Obamas acht Jahren heraus. Während jener Zeit erfolgte der unsinnige Ruf, Amerikas Abhängigkeit von Öl zu brechen. Es wurde das Ziel ausgegeben, den Benzinverbrauch um 20% zu senken, und die Vorschriften bzgl. alternativer Treibstoffe sowie die Festlegung aggressiver Standards für die Treibstoff-Wirtschaft wurden in den Energy Independence and Security Act von 2007 eingebettet, einem Monument der Verrücktheit von Konsens-Energiepolitik zweier Parteien.

Die Bush-Obama-Strategie kollabierte 2009 auf dem Klimagipfel in Kopenhagen, als China und Indien erfolgreich Widerstand gegen jedweden multilateralen Vertrag leisteten, welcher drohte, ihre Emissionen zu kürzen. Nach Kopenhagen entwickelte Todd Stern, Präsident Obamas Klima-Botschafter, kunstvoll eine auf vielfältige Weise geniale Strategie: Die Obama-Regierung würde China mit an Bord holen, wenn man dem Land Ausnahmeregelungen bzgl. Emissionskürzungs-Verpflichtungen gewähren würde, welche die entwickelte Welt auffangen müsste. Sterns Strategie zielte auf die Umgehung des Senats, was ein Indiz war für die einseitige Natur dieser von den USA und anderen westlichen Nationen eingegangenen Verpflichtungen.

Das Risiko derartiger einseitiger Maßnahmen bestand immer darin, dass sie rückgängig gemacht werden konnten, falls die Republikaner 2016 das Weiße Haus für sich gewinnen würden. In einer Rede vor einem Jahr, gehalten, nachdem der Oberste Gerichtshof dem Clean Power Plan der EPA ein Korsett verpasst hatte, erklärte Stern, dass es unwahrscheinlich sei, dass ein republikanischer Präsident aus dem Pariser Abkommen aussteigen würde, weil ein solcher Schritt international Empörung auslösen würde. Offensichtlich scheiterte diese Strategie an Trumps kometenhaftem Aufstieg.

Zum Gipfel 2005 hatte Tony Blair gerade eine dritte Amtszeit gewonnen. In diesem Jahr steht Angela Merkel vor einer Wiederwahl-Kampagne, die härter als erwartet daherkommt, und sie braucht auf dem Gipfel einen großen Sieg gegen Trump. Trump könnte im Gegenzug das Scheinwerferlicht auf die verheerende Energiepolitik Deutschlands richten, was sie derzeit ja ist.

Kein anderes Land in der Welt verfolgt einen derartig radikalen Kurs. Das sagt der führende Energie-Experte und Naturschützer Fritz Varenholt. Unter dem Dekarbonisierungsplan im Zuge der Energiewende verfolgt Deutschland das Ziel, bis zum Jahr 2050 den Anteil Erneuerbarer an der Energieversorgung auf 80 bis 95% zu steigern. Schon jetzt müssen die deutschen Verbraucher pro Jahr 25 Milliarden Dollar berappen.

In diesem Jahr steigt sich die Erneuerbaren-Umlage auf Stromrechnungen auf 6,88 Cent pro Kilowattstunde, verglichen mit den im Mittel 12,75 Cent pro Kilowattstunde für amerikanische Haushalte im November. Fast 60% der Wind- und Solarenergie aus Deutschland wird in die Nachbarländer entsorgt. Wind-Investoren erhalten 1 Milliarde Euro pro Jahr, wenn zu viel Wind weht. Ohne Kohlekraftwerke würde das Netz zusammenbrechen. Und doch, so Varenholt, „wurde der Atmosphäre nicht eine einzige Tonne Kohlendioxid erspart durch Deutschlands Übereifer“. Tatsächlich haben sich die Emissionen aus dem Energiesektor kaum verändert oder sind sogar gestiegen, und die Gesamt-CO2-Reduktionen, die Berlin bis zum Jahr 2020 verspricht, werden von China in nur drei Monaten kompensiert.

Man macht den Amerikanern weis, dass Trump mit einem Rückzug aus dem Pariser Klima-Abkommen die Führerschaft in diesem Bereich an China übergeben würde. Es gibt ein deutsches Sprichwort, was für eine gute Idee das wäre: Der Esel geht über das Eis, bis er einbricht. (Ein zielstrebiger Alleingang bei der Verfolgung eines irrationalen und selbstzerstörerischen Maßnahmen-Pakets ist in der deutschen Geschichte kaum unbekannt).

Von allen Ländern der Welt haben die USA am meisten zu verlieren, wenn sie vom Paris-Abkommen eingebunden werden. Die Nation besitzt fast eine halbe Billion metrischer Tonnen Kohle. Sie hat Saudi-Arabien und Russland überflügelt und ist jetzt der größte Energieerzeuger der Welt. Nach Jahrzehnten vergeblicher Versuche von Präsidenten beider Parteien ist damit endlich das OPEC-Ölkartell durchbrochen – dank Fracking in den Formationen Permian, Marcellus, Bakken und Barnett.

China derweil kann niemals darauf hoffen, an Amerikas spektakuläre Energie-Vorherrschaft heranzukommen. Es kann nur eine Klima-Führerschaft vorgeben, indem ein paar Billionen Dollar in die tot geborene Wind- und Solarenergie gepumpt werden. Falls Peking den freiwilligen Verpflichtungen aus dem Paris-Abkommen nachkommt, werden die Chinesen bis 2020 200 Gigawatt Windkapazität und 100 Gigawatt Solarkapazität installiert haben. Das ist mehr Wind und Solar als in den USA, Deutschland, UK und Spanien zusammen.

Donald Trump müsste nicht irgendwelche Handelsabkommen mit China neu aushandeln – oder mit irgendjemandem sonst. Höhere Energiekosten, verursacht durch ineffiziente und teure Erneuerbare, wird als eine selbst auferlegte Energie-Abgabe auf Chinas Exporte wirken. Die führenden Konkurrenten in den USA betrachten es als das bestmögliche Handelsabkommen überhaupt, wenn China seine Energie immer teurer macht, während eine amerikanische Kohlenwasserstoff-Revolution rapide ihren Fortgang nimmt, was amerikanischen Industrien und Arbeitern einen großen und wachsenden wettbewerbsmäßigen Vorteil bringt.

Die Amerikaner haben im November nicht für ein Klima-Martyrium gestimmt. Natürlich wollen die Partner und Rivalen Amerikas, dass die USA an ihren Klima-Schmerzen teilhaben, und machen sich Sorgen, dass die amerikanische Industrie sie überfährt mittels dessen Zugang zu den reichsten Energiereserven der Welt.

Es steht mehr auf dem Spiel als nur die Wirtschaft. Varenholt drückt es so aus: eine ernsthafte Bewegung Deutschlands weg von seiner Energiewende „würde sich zu einem strategischen Desaster auswachsen mit unvorhersehbaren Konsequenzen für das derzeitige politische Establishment“. Das Gesicht zu wahren ist kein guter Grund für die USA, auf dem Fuße zu folgen. Tatsächlich würde Donald Trump Deutschland und Europa einen großen Gefallen tun, wenn er die Frage nach Amerikas Teilnahme am Paris-Abkommen zu einer „Lehrstunde“ macht bzgl. des Wahnsinns ihrer Energiepolitik.

Link: http://www.nationalreview.com/article/445121/donald-trump-paris-climate-agreement-teachable-moment-europe

Übersetzt von Chris Frey EIKE




Winter 2016/17 in Deutschland mit Hochdruck und eiskalten Über­raschungen – gute Aussichten für Frühjahr und Sommer?

Teil 1: Ursachen und Besonderheiten der Winterwitterung 2016/17

Kein Schnee, keine Kälte und immer mehr Westlagen“- die Irrungen des Mojib Latif

Am ersten April des Jahres 2000, also vor fast 2 Jahrzehnten, war bei SPIEGEL ONLINE folgende Meldung zu lesen: „Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben“, sagt der Wissenschaftler Mojib Latif vom Hamburger Max-Planck-Institut für Meteorologie. „Durch den Einfluss des Menschen werden die Temperaturen bei uns mit einer Wahrscheinlichkeit von 95 Prozent noch weiter steigen“, meint Latif. Wegen dieses so genannten Treibhauseffekts wird es in Mittel- und Nordeuropa künftig mehr Westwindlagen geben. Das hätte wiederum regenreiche und noch mildere Winter zur Folge. Der gesamte Artikel, den Latif später teilweise in seinen Aussagen abschwächen wollte, findet sich unter http://www.spiegel.de/wissenschaft/mensch/winter-ade-nie-wieder-schnee-a-71456.html . Angesichts derartiger „Prognosen“ wunderte sich so mancher Zeitgenosse über das weiße, kalte und rutschige Pulver, welches im Januar 2017 bergeweise zu finden war:

Abbildung 1: Massenhaft rätselhaftes, weißes Pulver am Bahnhof Oberhof im Januar 2017. Die Straßen im Thüringer Wald konnten nur unter großem Aufwand nach und nach geräumt werden. Weil es nach den Vorhersagen unserer „Klimaforscher“ ja keinen Schnee mehr gibt, musste es etwas anderes gewesen sein. Vielleicht hatte Frau Holle irrtümlicherweise Mehl verschüttet, aber warum war das Zeug so kalt und rutschig? Foto: Stefan Kämpfe

Nun kann ein einzelner, schneereicher Wintermonat aber auch nur mal zufällig auftreten. Langfristige Beobachtungsreihen zeigen uns, ob es tatsächlich immer weniger Schnee gibt. In Potsdam wird die Anzahl der Tage mit einer Schneedecke von mindestens 1cm Höhe seit dem Winter 1893/94 gezählt:

Abbildung 2: Die Anzahl der winterlichen Schneedeckentage blieb in Potsdam fast unverändert; der minimale Negativtrend ist wegen der enormen Streuung der Einzelwerte nicht signifikant. Fast schneefrei war dort (weit vor Latifs Zeiten) der Winter 1948/49; während der Winter 2016/17 eine annähernd durchschnittliche Anzahl von 32 Schneedeckentagen erreichte.

Der amerikanische Wetterdienst NOAA erfasst seit 50 Jahren unter anderem die Größe der schneebedeckten Flächen des Superkontinents Eurasien, zu welchem auch Mitteleuropa gehört. Die Werte für den aktuellen Winter, welcher eine überdurchschnittliche Schneebedeckung im Dezember und Januar aufwies, liegen noch nicht vor; aber auch so zeigt sich statt der erwarteten Ab- eine deutliche Zunahme:

Abbildung 3: Die winterliche Schneebedeckung Eurasiens (Kontinente Asien und Europa) dehnte sich aus, anstatt zu schrumpfen. Für den Winter 2016/17, der hier noch nicht enthalten ist, wird eine überdurchschnittliche von Schnee bedeckte Fläche erwartet.

Seit etwa 30 Jahren blieb außerdem der vorhergesagte winterliche Temperaturanstieg in Deutschland aus; hier am Beispiel der DWD- Station Erfurt/Weimar gezeigt:

Abbildung 4: Keine winterliche Erwärmung an der Flughafen-Station Erfurt/Weimar trotz steigender CO2- Werte seit 30 Jahren. Im Deutschland-Mittel zeigt sich ein ähnliches Verhalten; bei der enormen Streuung der Wintermittel ist die geringe, erkennbare Abkühlung aber nicht signifikant.

Bliebe noch die Frage mit der erwarteten Häufung der Westwetterlagen zu klären. In Deutschland werden zwei Klassifikationsverfahren zur Ermittlung der Großwetterlagen genutzt; Näheres dazu unter https://eike.institute/2016/10/19/wetterlagenhaeufigkeit-und-jahrestemperaturverhalten-in-deutschland/ . Weil die (insgesamt genauere) „Objektive“ Wetterlagenklassifikation erst seit Mitte 1979 möglich ist, beginnt die folgende Grafik mit dem Winter 1979/80. Der an Westlagen relativ arme Winter 2016/17 ist noch nicht enthalten; trotzdem zeigt sich bei allen Klassifikationsmethoden (zwei nach HESS/BREZOWSKY, eine nach der objektiven Methode) keine Häufigkeitszunahme von Westwetterlagen seit mehr als 35 Jahren:

Abbildung 5: Keine Häufigkeitszunahme von Westwetterlagen seit mehr als 35 Jahren: Oben (dunkelviolett) das Objektive Klassifikationsverfahren, Mitte (rosa) alle Großwettertypen mit Westanteil (West-, Südwest- und Nordwestlagen), unten nur der Großwettertyp West, jeweils nach HESS/BREZOWSKY. Keiner der Trends ist signifikant.

Keine erfreulichen Nachrichten für Herrn Latif also, dem deswegen ein Karikaturist (Quelle: Science Skeptical Blog, Michael Krüger) eine Pinocchio- Nase verpasst hat.

Abbildung 6: Lange Gesichter und lange Nasen bei Mojib Latif und den anderen etablierten Klimaforschern: Das Klima will nicht so recht nach ihrer Pfeife tanzen.

Lediglich anhand der Langfrist-Werte (verfügbar in Deutschland seit dem Winter 1881/82) könnte Herr Latif etwas Hoffnung schöpfen. Diese zeigen (noch) einen leichten Temperaturanstieg in Deutschland (allerdings nicht wärmeinselbereinigt) bei einer Häufigkeitszunahme der Westwetterlagen nach HESS/BREZOWSKY. Jedoch deutet sich auch hier die Umkehr der Entwicklung ab spätestens etwa dem Jahr 2000 an; ob diese anhält, muss aber noch abgewartet werden:

Abbildung 7: Um 1915 und kurz vor der Jahrtausendwende wiesen Westlagenhäufigkeit und Wintertemperaturen Maxima auf. Mit einem Bestimmtheitsmaß von 46% erstaunlich eng ist der Zusammenhang zwischen der Häufigkeit aller Großwetterlagen mit Westanteil (rotviolett) und den deutschen Wintertemperaturen. Aber seit etwa 2 Jahrzehnten deutet sich ein leichter Rückgang an – weitere Entwicklung völlig offen.

Ursachen und Besonderheiten der Winterwitterung 2016/17

Der Winter 2016/17 war relativ arm an windigen, intensiven Westwetterlagen und deshalb zeitweise kalt. Eine mögliche Ursache hierfür ist die AMO, eine periodische Schwankung der Wassertemperaturen im Nordatlantik. In diesem Winter waren die AMO- Werte sehr hoch. Den spiegelbildlichen Zusammenhang zwischen AMO- Werten und Westlagenhäufigkeit illustriert die Abbildung 8:

Abbildung 8: Um 1915 und kurz vor der Jahrtausendwende wies die Westlagenhäufigkeit Maxima auf, was die Serienhäufung milder Winter und die insgesamt etwas höheren Wintertemperaturen in diesen Zeiträumen teilweise erklärt. Die AMO verhielt sich dazu invers, in ihren Maxima (kurz vor 1900, späte 1930er bis 1960er, 2000er Jahre) waren die Winter ärmer an Westlagen und tendenziell etwas kälter. Auch diese Zusammenhänge sind grob und können nicht alle winterlichen Witterungsabläufe erklären.

Zahlreiche andere Einflussgrößen auf die Winterwitterung, unter anderem die NAO, die QBO und die Vorwitterung, sollen aus Zeitgründen hier nur erwähnt werden; Näheres dazu unter https://eike.institute/2016/12/03/wintervorschau-201617-widerspruechliche-prognosesignale/ . Auffallend waren in diesem Winter aber besonders zwei nicht zu unterschätzende Einflussgrößen – die geringe Sonnenaktivität und die geringe Stärke des Polarwirbels. Tendenziell tritt eine Schwächung der milden Westwetterlagen, welche sich auch an der geringeren Geschwindigkeit der Westströmung im 500 hPa- Niveau (mittlere Troposphäre, entspricht etwa 5500 Metern Höhe) zeigt, bei geringerer Sonnenaktivität auf:

Abb. 9: Zonalwindmittel für den meteorolog. Winter (rot, oben) in der Druckfläche 500 hPa (entspricht etwa 5.500 Metern Höhe im Mittel) am Gitterpunkt 50°N und 10°E (Zentraldeutschland), dazu die Sonnenfleckenzahlen mit einem Monat Versatz früher wegen der verzögerten Auswirkung (gelb, unten) mit jeweils 11-jährigen Gleitmitteln. Man erkennt in Phasen erhöhter Sonnenaktivität tendenziell eine erhöhte Zonalwindgeschwindigkeit; wobei die Sonnenfleckenanzahl die solare Aktivität aber nur sehr grob abbildet.

Der Polarwirbel in der Stratosphäre war in diesem Winter auffallend häufig gestört beziehungsweise nur schwach ausgebildet, besonders im Januar und Februar, was ebenfalls zur zeitweisen Schwächung der Westwind-Zirkulation beigetragen hat:

Abbildungen 10a und 10b: Ein fast ungestörter, sehr kalter Polarwirbel im 10- hPa- Niveau (gut 25 Km Höhe, Stratosphäre, obere Abbildung) ist fast kreisrund und in der Arktis extrem kalt (violette Farbtöne), was Westwetterlagen begünstigt, welche in Deutschland mild sind. Diese Situation herrschte zum milden Weihnachtsfest 2016 (Westwetterlage). Unten die Situation 3 Wochen später – Mitte Januar 2017. Der Polarwirbel ist stark deformiert, hat seinen Schwerpunkt über dem amerikanischen Sektor der Arktis und ist weniger kalt. Zu diesem Zeitpunkt begann über Mitteleuropa eine längere, intensive Kältewelle. Quelle: Meteociel (Französischer Wetterdienst).

Der Winter 2016/17 wies ungewöhnlich viele Hochdruckwetterlagen auf. Dabei wurde im Dezember ein neuer Rekordwert des Luftdruckmittels in Potsdam registriert, und erstmals seit der Erfassung der Großwetterlagen nach HESS/BREZOWSKY (ab 1881) waren alle 31 Dezembertage antizyklonal (überwiegend von Hochdruckgebieten beeinflusst). Im Dezember/Januar befand sich der hohe Luftdruck vorwiegend über Mitteleuropa, was vor allem in Süd- und Mitteldeutschland für kältere Witterungsabschnitte sorgte; während es an den Küsten zu mild blieb; Näheres dazu unter https://eike.institute/2016/12/30/dezemberrueckblick-2016-hochwinterausblick-2017/?print=print und https://eike.institute/2017/01/27/eiskalt-erwischt-der-januar-2017-straft-die-theorie-der-klimaerwaermung-luegen/ . Bei einer weiteren Kältewelle in der ersten Februarhälfte lag das Hochdruckgebiet über Skandinavien, so dass nun vor allem die Nordosthälfte Deutschlands von Kaltluft mit Dauerfrost beherrscht wurde:

Abbildung 11: Ein sehr kräftiges Skandinavien-Hoch lenkte Kaltluft in den Nordosten Deutschlands. Anders als im Dezember/Januar herrschte nun nahe der Ostsee das kälteste Winterwetter, während es im Südwesten relativ mild blieb. Zur Monatsmitte verlagerte sich das Hoch südwärts, so dass es bei südlichem Wind überall sehr mild wurde.

Die vielen Hochdruckwetterlagen wurden auffallend häufig von Nebel begleitet, der oft gefror. Im Zuge der hohen Sonnenaktivität, der Luftreinhaltemaßnahmen und der Häufung windig-milder Westlagen war die Zahl der Nebeltage in den 1990er und den frühen 2000er Jahren im Winter stark zurückgegangen. Ob dieser teils neblige Winter 2016/17 eine Trendwende zu wieder mehr Nebeltagen einleitete, muss noch abgewartet werden:

Abbildung 12: Auf dem Höhepunkt der Luftverschmutzung zwischen den 1950er und den 1980er Jahren gab es in Potsdam besonders viele winterliche Nebeltage; danach wurden sie auffallend selten.

Die Schattenseiten des Hochdruck-Winters 2016/17: Dunkelflauten und Niederschlagsarmut

Der alte DDR- Witz von den vier Hauptfeinden des Sozialismus (Frühling, Sommer, Herbst und Winter) ist angesichts der deutschen „Energiewende“ leider aktueller denn je. Im Winter machen windschwache Hochdruckwetterlagen und die kurze Sonnenscheindauer eine ausreichende Stromversorgung aus „erneuerbaren“ Quellen unmöglich – egal, wie viele „Solar- und Windparks“ man für teures Geld zur immer weiteren Landschaftsverschandelung aufstellt, und effektive Speichermöglichkeiten fehlen in absehbarer Zeit. Die folgende Grafik spricht für sich und zeigt exemplarisch die geringe Bereitstellung von „erneuerbarer“ Elektroenergie am 24. Januar 2017; ähnliche Fälle finden sich auch im Dezember 2016 und im Februar 2017:

Abbildung 13: Der Löwenanteil des benötigten Stroms in Deutschland (graublau, deutlich mehr als 85%) musste am 24. Januar 2017 konventionell erzeugt werden; der Wind, der „angeblich immer irgendwo weht“, war selbst auf dem Meer zu schwach und die Sonne schien nur kurz- eine echte „Dunkelflaute“. Doch hier handelt es sich nur um die Stromproduktion – bei Betrachtung der gesamten, benötigten Primärenergie würde der Anteil der „Erneuerbaren“ fast gegen Null gehen. Quelle agora-energiewende.de, nachbearbeitet von Stefan Kämpfe.

Die Schneemassen in den Gebirgen täuschen – in weiten Regionen Deutschlands waren alle 3 Wintermonate deutlich zu trocken; schon jetzt führen die meisten Flüsse extrem wenig Wasser. Die Regenfälle nach Mitte Februar konnten das Defizit nur wenig verringern. Das könnte nicht nur für die Schifffahrt und die Kraftwerke (Kühlwasser!) problematisch werden, so dass massive Versorgungsprobleme drohen, sondern auch für die Landwirtschaft, falls nicht dauerhaft reichliche Niederschläge fallen. Nach nur im weitesten Sinne ähnlicher Vorwitterung waren die Sommer 1947, 1982 und 2003 sehr trocken; allerdings verbietet die geringe Zahl der Vergleichsfälle eine Prognose. Die in diesem Winter rekordverdächtig geringe Eisausdehnung im Arktischen Ozean (eine Folge der hohen AMO- Werte) könnte, falls sie auch bis ins Frühjahr so unterdurchschnittlich bleiben und die AMO- Werte sehr hoch bleiben sollten, die Frühlingstemperaturen in Deutschland positiv beeinflussen; speziell die des Aprils:

Abbildung 14: Aprilmonate mit geringer Eisausdehnung in der Arktis fallen in Deutschland tendenziell wärmer aus (negative Korrelation). Der mäßige Zusammenhang ist für eine sichere Prognose aber unzureichend; und im März und Mai fällt er deutlich geringer aus.

Momentan mehren sich aber auch sonst Anzeichen für ein eher zu warmes, zeitiges Frühjahr und einen relativ warmen Sommer, was meist mit Trockenheit verbunden ist; auch die Modellrechnungen deuten in diese Richtung; freilich sind sie noch sehr unsicher:

Abbildung 15: Der für die Vegetationsentwicklung entscheidende Zeitraum (April bis Juni) könnte etwas zu warm ausfallen. Quelle: NOAA (USA- Wetterdienst). Die „Prognose“ ist aber mit großen Unsicherheiten behaftet.

Fazit: Dank vieler Hochdruckwetterlagen fiel der Winter 2016/17 deutlich kälter und trockener als seine Vorgänger aus und ermöglichte endlich wieder über längere Zeiträume gute Wintersportbedingungen auf Naturschnee. In der Endabrechnung war er fast temperaturnormal. Auch tendenziell über längere Zeiträume betrachtet, lassen sich weder eine besorgniserregende winterliche Erwärmung, noch eine merkliche Abnahme der Schneebedeckung oder eine merkliche Zunahme der Westwetterlagen erkennen. Ein zeitiges, relativ mildes Frühjahr und ein eher warmer Sommer 2017 deuten sich an; sie lassen sich aber nicht sicher vorhersagen.

Im Teil 2 werden die Prognosen für den Winter 2016/17 einer kritischen Prüfung unterzogen.

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher




Mit Deindustri­alisierung und Dekarbon­isierung zum Klimaschutz?

Seit gut 30 Jahren geistert sie um die Welt, die Ideologie vom Klimaschutz, seit Physiker die drohende „Klimakatastrophe“ entdeckt und die vermeintliche Ursache, die Emission von “Treibhausgasen“, gefunden zu haben glauben. Eine Ideologie ist, nach dem Motto von Harald Lesch „Ich gestalte die Welt nach meiner Vorstellung“, ein künstlich geschaffenes und in sich geschlossenes Weltgebäude, ein Denksystem, das auf ganz bestimmten, aber nicht beweisbaren Prämissen beruht. Der nicht beweisbare und auf einem hypothetischen „Strahlungsgleichgewicht“ zwischen Sonne und Erde beruhende „Treibhauseffekt“ wurde daher zum „Dogma“ erhoben, das nicht weiter hinterfragt werden darf. Schon Karl Marx, der die „Gleichheit aller Menschen“ zum Dogma erhoben hatte, sicherte sein kommunistische Ideologie mit Frageverboten ab.

 

Die neue Klimaschutz-Ideologie wurde zu Beginn der 70ger Jahre des 20. Jahrhunderts nur von wenigen Institutionen vertreten, doch nach der ersten „Weltklimakonferenz“ der Weltorganisation für Meteorologie (WMO) 1979 in Genf und mit der Konferenz für Umwelt und Entwicklung der Vereinten Nationen 1992 in Rio de Janeiro legte sich ein stets dichter werdendes Netzwerk an Klimaschutz-Propagandainstitutionen um die Welt. Ein ganz wichtiger Baustein zwecks Indoktrination der Bevölkerung unter dem Deckmantel der Information sind die Medien. Praktisch ungeprüft und ohne jede Kritik werden alle Presseartikel, die von staatlichen Forschungsinstitutionen oder beliebigen Nichtregierungsorganisationen herausgegeben werden, veröffentlicht. Eine kritische Hinterfragung findet nicht statt, insbesondere nicht durch die Protagonisten der „Kritischen Theorie“. Die Klimaschutz-Ideologie beherrscht nahezu total das politische wie öffentliche Meinungsklima, sei es in den Zeitungsredaktionen, dem Hörfunk oder dem Fernsehen.

 

Bindeglied zwischen Wissenschaft und Mensch sind die Medien

 

Der Journalist, so der österreichische Schriftsteller und Kritiker Karl Kraus (1879-1936), sei immer einer, der nachher immer alles vorher gewusst hat. Wichtigster Indikator für die Missstände in der Welt war für Karl Kraus die Sprache. Sie muss so exakt wie möglich und darf keineswegs unpräzise und doppeldeutig sein. Heute ist die Sprache doppel- und mehrdeutig, werden immer neue Worte neu geschöpft, um unverständlich zu sein aber gelehrt zu klingen. Es wimmelt in der Wissenschaft von Experten, die von der Entstehung der Klimatologie als angewandter Meteorologie keinerlei Ahnung haben, aber vor Apokalypsen wie die globale „Klimakatastrophe“ im Detail warnen, obgleich es sie gar nicht geben kann. Man operiert mit dem alt bewährten Mittel der Verwirrung und springt von der Wirklichkeit auf abstrakte Ebenen, um dann zu behaupten, aus der abstrakten Ebene heraus wird auf die Wirklichkeit eingewirkt.

 

Dieser Trick funktioniert, obwohl er beim Klima allzu offensichtlich und plump sein sollte. Jeder Erdenbewohner, der die Volksschule absolviert hat, kennt den Unterschied zwischen Wetter und Klima. Das Wetter ist alles, was sich vor unseren Augen in der Luft abspielt, was wir erfahren, fühlen, spüren und messen können, was uns herausfordert und beeinflusst. Wie wir das Wetter beurteilen, ob wir es Wetter „gut“ oder „schlecht“ finden, wir müssen es so nehmen, wie es kommt. Um uns auf das Wetter einstellen zu können, hoffen wir auf möglichst zutreffende Wettervorhersagen. Das Wetter ist unangefochten der häufigste Gesprächsstoff!

 

Vom Klima ist dagegen im Alltag keine Rede. Es gibt kein Klima als aktiv ablaufenden Naturvorgang. Im Klima verdichten wir das Wetter einer vergangenen 30-Jahres-Priode. Dies geht auf statistischem Wege vor sich. Klima wird nicht gemessen, es wird mühsam aus Messungen berechnet. Klima wird erst „brauchbar“, wenn man die aus einem dichten Netz von Wetterstationen an den einzelnen Orten gewonnen Klimadaten in eine Karte trägt und Vergleiche zieht wie zwischen Tallagen, Hanglagen und Gipfellagen. Man sieht, wie die Temperaturen mit der Höhe ab-, die Winde aber zunehmen. Orographie und Topographie wirken sich insbesondere bei Strahlungswetterlagen sehr stark auf die einzelnen meteorologischen Elemente aus.

 

Klimadaten sind dann sinnvoll, wenn man langfristig plant. Das ist wichtig bei der Flächennutzungs- und Siedlungsplanung, bei der Landschafts- und Landesplanung, bei der Industrieansiedlung. Das Wissen um die mittlere und maximale Schneelast oder Windlast sind für Architekten und Statiker bei der Konstruktion von Dächern aller Art von großem Nutzen.

 

Harald Lesch – „Die Menschheit schafft sich ab“

 

Dies ist der Titel eines Buches, das in 4. Auflage 2017 auf den Markt geworfen wurde. Es wirbt mit dem Aufdruck „SPIEGEL Bestseller“. Koautor ist Klaus Kamphausen, über den aber in dem Buch nichts verlautbart wird. Es ist wohl wortwörtlich ein „Ghostwriter“. Der Untertitel des Buches lautet: „Die Erde im Griff des Anthropozän“. Das Wort ist griechischen Ursprungs und bedeutet „das menschlich Neue“. Diesen Begriff hatte 2002 der Chemiker Paul Crutzen vorgeschlagen. Britische Geologen haben dies unterstützt und vertraten die Meinung, dass das „Holozän“ die stabilste Klimaphase seit 400 000 Jahren sei mit einer Temperaturamplitude von 1° C. Was den Beginn des Anthropozän betrifft, meint Lesch: „Angefangen hat alles vor 500 000 Jahren. Der Mensch kam auf die Welt, und die Welt war schon da.“ Später reduziert er den Beginn auf eine Zeit vor 400 Jahren, also um 1600 n. Chr.!

 

Doch ob man 200, 400 oder 500 000 Jahre nimmt, eines hat der Mensch bis heute nicht beeinflusst, die Allgemeine Zirkulation, die für die vielfältige Gestaltung des Wetters in den verschiedenen Regionen der Erde, von den Innertropen bis hin zu den Polarkappen zuständig ist. Was speziell das Wetter, und damit das statistisch von ihm abhängige Klima, betrifft, so ist der Begriff „Anthropozän“ eine intellektuelle Anmaßung, die von einem notorischen Wunschdenken gelenkt wird. So wie sich der Neandertaler vor dem Wetter in Acht nehmen und sich schützen musste, so müssen wir es heute genauso. Nur dass wir die Höhlen durch beheizbare Hochhäuser ersetzt haben. Damals wie auch heute muss sich die Vegetation mit dem an Regen in der Vegetationsperiode zufriedengeben, was die Natur ihr schenkt, – mit den üblichen Schwankungen von Jahr zu Jahr.

 

Was hat die Autoren bewogen, beim Titel ihres Buches in Anlehnung an Thilo Sarrazin’s „Deutschland schafft sich ab!“ von 2010 die Worte „Deutschland“ durch „Die Menschheit“ zu ersetzen und es „Die Menschheit schafft sich ab“ zu nennen? Primitiver geht es wohl nicht mehr. Auch ein Vergleich fällt schwer, denn Sarrazin baute auf Fakten auf, während Lesch als Physiker die Fiktion bevorzugt. Und sensationell Neues gibt es in seinem Buch auch nicht. Für den gebildeten Bürger ist die Unmenge an „Fachbüchern“ ohnehin kaum zu überblicken, geschweige denn zu bewerten. Viele Leser orientieren sich an Voltaire (1694-1778), der bereits 1768 warnte: „Ich fange an, zu glauben, dass man den Büchern gegenüber sehr misstrauisch sein muss“. Man müsse mühevoll „die vernünftigsten aussuchen, sie prüfen und sich nur von den Tatsachen überzeugen lassen“.

 

Steigt man genauer in das Buch ein, das eine Rückschau auf das „Anthropozän“ sein soll, so entwertet Lesch, der im ZDF die Sendung „Leschs Kosmos“ moderiert, sich bereits im Vorwort selbst. Das Buch ist unterteilt in 39 Kapitel. Es beginnt mit „Die Welt ist schon da“. Darin findet sich das Motto „Ich gestalte die Welt nach meiner Vorstellung“! Und das tut Lesch ganz ungeniert. Seine Überzeugung: „Wenn eine Hypothese Prognosepotential besitzt, sie etwas vorhersagen kann, dann hat sie ihre Prüfung bestanden – sie ist gut“. Die Güte einer Wettervorhersage kann man am nächsten Tag, nach Ablauf einer Woche überprüfen. Doch wer wollte den „Weltuntergang“ durch eine „Klimakatastrophe“ überprüfen, wenn dies keiner überlebt hat. Auch die „Vorhersage der Globaltemperatur“ für das Jahr 2100 ist in zu weiter Ferne, um von der heutigen Politikergeneration überprüft zu werden. Alle Szenarien sind dem Verstand nicht zugänglich, sondern richten sich auf unsere Gefühle und Instinkte. Lesch weckt allerlei Ängste, Emotionen, Gefühle, aber alles bleibt spekulativ, nichts ist greifbar und hat mit Wissenschaft, die sich an der Wirklichkeit, der erfahrbaren Welt messen lassen muss, nichts zu tun.

 

Vor dem Urknall hatte das Nichts eine Temperatur von 1032 Grad Kelvin

In dem Kapitel „Der Beginn allen Seins“ bekennt Harald Lesch zum Urknall vor exakt 13,82 Milliarden Jahren: „Wir wissen, wie es geht, wir wissen, wie es ist. Wir wissen sogar, wie es dazu kommen konnte. Aber das ist nicht weiter verwunderlich, schließlich sind wir Physiker“. Er nennt zwar diese Äußerung „Überheblichkeit, basierend auf einer chronischen Einbildung“, aber legt diese Untugend an keiner Stelle des Buches ab. Er behauptet „Ich für meinen Teil halte mich an Fakten“, aber dazu zählen für ihn auch Vermutungen, Vorurteile, unhaltbare Hypothesen. Er schreibt zur Erdgeschichte: „Trotz der hohen Temperatur konnte die Erde das Wasser mit ihrer Schwerkraft festhalten, zunächst als Wasserdampf und später, als sie sich immer weiter an ihrer Oberfläche abkühlte, als flüssiges Wasser. Denn es fing an zu regnen und viel atmosphärischer Kohlenstoff, vor allem in Form von Kohlendioxid, wurde vom Regen ausgewaschen und in den Meeren als Kalkgestein versenkt“. Warum sagt er nichts zum Warum? Wenn die physikalischen Gesetze immer gelten, warum hat der „gewaltige Treibhauseffekt“ von 100 Prozent damals die Abkühlung der Oberfläche erlaubt, wohingegen heute 0,04 Prozent CO2 eine „gewaltige Erderwärmung“ induzieren soll? Solche Sowohl-Als-Auch-Spielchen macht die Natur nicht! An anderer Stelle: „Die Atmosphäre glich wohl eher der der Venus von heute: quasi 100 Prozent Kohlenddioxid.“ Versteckt ganz woanders lässt Lesch die Wahrheit aus dem Sack: „Kreist der Planet zu nah an der Sonne, ist es zu heiß für das Leben. Wenn er zu weit weg ist, ist es zu kalt.“ Die Venus ist zu heiß, der Mars zu kalt. Die Erde liegt mit circa 150 Millionen Kilometer Abstand zur Sonne dazwischen mit einer optimalen Temperatur für Leben.

 

Im Kapitel „Erstes Leben“ lobt Lesch den Kohlenstoff als „wunderbares Element“, als idealen „Verbindungsfachmann“. Warum sagt er nicht klar und deutlich, dass die Kohlenstoffverbindungen eine eminent wichtige Rolle in der Natur spielen und, als Kohlenhydrate, Fette, Eiweißstoffe, Grundbausteine des Lebens sind? Passt wohl nicht zur „Dekarbonisierung“? Er beschreibt sehr schön die Fotosynthese und wie das „Leben an Land kommt“. Zwischendurch brennt mit ihm die ideologische Phantasie durch, wie beim „Spiegeleffekt“: „Die Strahlung wärmt die Erde auf – die Erde wärmt die Strahlung auf. Und so schaukelt sich das hoch.“ Nichts schaukelt sich auf und schon gar nicht kann die Erde die von der Sonne kommende Strahlung aufwärmen. Der Spiegeleffekt ist ein selbstverliebtes Spiegelbild eitler Gedanken. Im Klartext: Ohne die kurzwellige sichtbare Sonnenstrahlung gibt es keine Fotosynthese und damit keine grünen Pflanzen, die Nahrung und Sauerstoff für Tier und Mensch bereitstellen. Es sind diese bewussten an Unwahrheit grenzenden Falschheiten, die das stellenweise sehr informative und durchaus flott geschriebene Buch zum Ärgernis machen.

 

Was und wem nutzt alle wissenschaftliche Gelehrsamkeit, wenn sie politischer Hörigkeit untergeordnet ist, wenn Lesch sagt: „Ich muss Ihnen jetzt leider mitteilen, dass wir uns gerade mitten in einem Zeitalter des Massensterbens befinden. Wir Menschen prägen ein ganzes Zeitalter, das deswegen auch nach uns benannt ist: das Anthropozän.“ Warum Herr Lesch? „Immer wenn sich in der Atmosphäre etwas verändert, … wenn der Treibhauseffekt zu stark oder zu schwach ist, dann kommt es zu einem Massensterben der Arten.“ Zumindest den „Treibhauseffekt“ können wir als Täter ausschließen, denn der ist nur ein theoretisches Gedankenkonstrukt, das experimentell unbestätigt ist. Lesch ist schwer zu verstehen, wenn er sagt, dass Kohlendioxid Energie nicht speichert, „sondern sie durch Absorption und Reemission zurückhält“, aber auch sagt, dass das „berühmte Bohrsche Atommodell“ falsch ist. Es vermittele den Eindruck, dass ein Elektron bei der Aufnahme eines Photons von einem energetisch niedrigen Zustand auf einen höheren gebracht und bei der Emission die aufgenommene Energie wieder abgibt. Eine Energievermehrung und damit eine Erwärmung finden dabei nicht statt.

 

Lesch widerlegt sich noch eindeutiger: „Das Fatale ist, dass bei jeder Verwandlung einer Energieform in eine andere Energieverluste meistens in Form von Wärme anfallen. Diese Energie ist verloren. Die Strahlung, die aufgrund der Temperatur einmal weg ist, ist verlorene Energie.“ Wo bleibt da die so ach beschworene „Gegenstrahlung“? Alle Energie, die nachts vom Erdboden abgestrahlt wird, ist irreversibel, unumkehrbar verloren. Um dies zu begreifen, genügt ein Blick auf den Raureif am Morgen. Auch verfolge man den Abtauvorgang am vereisten Auto mit Beginn des Sonnenaufgangs. Eine „Spiegelung“ oder Re-Emission der von der Erdoberfläche emittierten unsichtbaren Wärmestrahlung findet nicht statt. Ab Kapitel 30 bietet Lesch etliche Experten auf, macht Interviews und demonstriert seine Fähigkeit, sich der jeweils herrschenden Schwarmintelligenz spontan anzupassen.

 

Es seien nur einige Sätze aus dem Interview mit dem Kieler Ozeanographen Mojib Lativ herausgegriffen. Mojib Latif sagt völlig korrekt heraus und medienwirksam verständlich:                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                               „Das Klima ist das über 30 Jahre gemittelte Wetter“ und fragt dann selbst: „Was wandelt sich denn da an dem gemittelten Wetter?“ Anstatt dem Leser klipp und klar zu sagen, dass das Wetter sich wandelt, drückt er sich um eine Antwort. In der Öffentlichkeit hat sich nämlich der Irrglaube verfestigt, dass das „gemittelte Wetter“ oder Klima das Wetter wandelt. Latif flüchtet in die Floskel „Klima ist ein Teil des Teils, der alles ist und wird von allen Teilen beeinflusst“. Dies trifft exakt auf das Wetter zu, aber nicht auf das statistische Abfallprodukt, das Klima, zu!

 

Das Schlusskapitel „Die Unbelehrbarkeit des Menschen“ schreibt Ernst-Peter Fischer von der Universität in Heidelberg. Er befasst sich mit der Unstetigkeit der Natur, der Unbestimmtheit, der Unentscheidbarkeit, der Ungenauigkeit, der Unvorhersagbarkeit und besonders mit der Unbelehrbarkeit des Menschen. Er zitiert einen dänischen Minister, der bei der Klimakonferenz in Kopenhagen 2009 forderte, „eine Erwärmung unseres Planeten von maximal 2°C als Ziel“ zu beschließen mit der imaginären Forderung: „Überlegen Sie einmal, wie viel Unsinn in diesem Satz steckt.“ Doch so düpiert man keinen Minister.

 

Dann macht Fischer eine Kehrtwende und moniert, dass wir immer noch „unter dem Bann der antiken Idee, dass das Rationale das Gute ist“ stehen und greift die Rationalität frontal an. Es gäbe bisher noch „keine Erziehung zum Irrationalen, zum Ästhetischen, zum Träumerischen, zum Fantasievollen“. Unsere Instinkte, unsere Emotionalität sind daher unterentwickelt. Er fordert „Wir müssen insgesamt in der Lage sein, den Politikern, die wirklich nachhaltig denken und vorgehen wollen, zu glauben.“ Da lachen sich aber die Politiker ins Fäustchen. Da steht ein Professor auf und fordert, dass man allen Politikern ohne Unterschied der Partei, einfach nur „glauben“ soll, wenn das Gesagte „nachhaltig“ gedacht ist. Das ist an Naivität nicht zu überbieten. Wer nachhaltig lügt, dem muss ob seiner Beharrlichkeit geglaubt werden. Das bestätigt sein Schlusssatz: „Ich denke, dass wir letzten Endes fühlende Menschen sind, die mit dem Herzen besser verstehen und dann aus dem Bauch heraus die Entscheidungen treffen können. So ließe sich die Unbelehrbarkeit überwinden“. Das mag verstehen, wer will.

 

Das wäre die Stunde der politischen Demagogen aller Couleur, denn vom Gefühl her sind sie alle Klimaschützer. Pfeifen wir auf den Verstand und die Vernunft! So würde sich die Menschheit zwar nicht abschaffen, aber als Spaßgesellschaft in einem tyrannischen System enden, wo dann allen das Lachen vergeht und „Freiheit“ ein Fremdwort wird. „Die Menschheit schafft sich ab“ ist durchaus passagenweise lesenswert, aber im Sinne von Voltaire kein „vernünftigstes“ Buch.

 

Oppenheim, den 23. Februar 2017

Wolfgang Thüne

 

 

 

 

 




EIKE wird 10 Jahre alt! Ein Grund zum Feiern?

Heute, vor genau 10 Jahren wurde das Europäische Institut für Klima und Energie (EIKE) gegründet. Gründungsort war das „Congreßhotel am Stadtpark“ in Hannover. Dort trafen sich 16 Herren und 1 Dame, welche die enorme Schädlichkeit der damaligen (und heutigen) Klima- und Energiepolitik und insbesondere den Missbrauch der Wissenschaft für die Untermauerung einer Ideologie vom menschgemachten Klimawandel nicht nur erkannt hatten, sondern dies auch nicht länger hinnehmen wollten. Ihr Ziel war, mittels Bereitstellung wissenschaftlich hieb- und stichfester Fakten, selber erarbeitet oder von seriösen Dritten übernommen, die Öffentlichkeit aufzuklären. Als Rechtsform dafür wurde der Verein gewählt, auch deswegen weil dies bei den Befürwortern und Nutznießern des Klimaalarmismus z.B. dem „Potsdam Institut für Klimafolgenforschung“ (PIK) ebenso gehandhabt wurde. Auch der gewählte Name sollte zugleich Programm und Arbeitsauftrag symbolisieren.

Allen war von Anfang an klar, dass dieser Kampf lange dauern und sehr schwierig sein würde und sie nur über äußerst geringe Mittel würden verfügen können. Doch sie handelten frei nach dem Motto: „Wer nicht kämpft hat schon verloren“. Und – als gesetzestreue Bürger – wollten sie dies mit legalen Mitteln tun, wohlwissend, dass ihre Gegner es damit nicht so genau nehmen würden.

Von diesen 17 Anwesenden – nicht alle entschlossen sich als Gründungsmitglieder mitzumachen – sind heute noch 10 bei EIKE aktiv. Viele weitere kamen hinzu, einige wenige verließen EIKE auch wieder. Tlw. wegen Zeitmangels, tlw. weil ihnen das verfolgte Konzept nicht gefiel, tlw. aus biologischen Gründen, weil der Tod sie abberief.

So wurde unser Gründungsmitglied Ernst-Georg Beck – der mit seinem Elan und unleugbaren Kompetenz zu den aktivsten gehörte – leider durch seinen viel zu frühen Tod an weiterer Mitarbeit an führender Stelle gehindert. Zum Glück betreibt seine Familie noch immer die wunderbare Wissensseite „Der Wasserplanet“, auf der E.G. Beck sein geballtes Wissen didaktisch aufbereitet hat, für jeden einsehbar und auch verstehbar.

EIKEs Mission – Erfolg oder Misserfolg?

Keiner der Aktiven konnte sich damals vorstellen, dass ein so offensichtlicher Missbrauch von Wissenschaft, wie es das Märchen von der drohenden Klimakatastrophe ist, mit dem alleinigen Ziel ersonnen, die Bürger nicht nur dieses Landes, sondern der ganzen Welt, zu drangsalieren, zu kujonieren und last but not least beständig abzukassieren, in dem man sie einem Weltsozialismus, diesmal unter UN-Diktat, unterwirft, nicht nur irgendwann in überschaubarer Zeit zu Widerstand, zu einem Aufbegehren der direkt Betroffenen führen würde, sondern im Gegenteil – wie eine heimtückische Krankheit – sich fast widerstandslos jeden Tag weiter ausbreiten und immer mehr Bereiche unseres Lebens ihrer Herrschaft unterwerfen würde.

Doch genau das ist passiert. Der „Klimaschutz“ als offizielle deutsche Regierungsdoktrin mit dem Klimaschutzplan 2050, dem dummen jede Naturwissenschaft spottenden 2 ° Ziel, seiner Energiewende und „Dekarbonisierung“ samt der schändlichen Gesetze, die zu ihrer Durchführung erlassen wurden, haben sich nicht nur auf breiter Front verfestigt, sondern werden von den Betroffenen – fast ohne Widerstand – erduldet, oft auch – insbesondere von den Medien befeuert – freudig begrüßt. Nun könnte man es mit dem weisen, alten jüdischen Sprichwort halten: „Wenn Du Gott zum Lachen bringen willst, dann mach´einen Plan!“ und sich abwartend zurücklehnen. Doch zum Lachen ist dieser Plan nun wirklich nicht, oder anders gesagt, bevor man über ihn lachen kann, ist die halbe deutsche Wirtschaft, und damit unser Wohlstand, unsere Art zu leben, den Bach runtergegangen.

Also, war nach dieser Sichtweise unser Kampf bisher vergebens? Eigentlich ja!  Doch das nur aus einem einzigen Grund: Wir haben 2007 die lange Anpassungsdauer gesellschaftlicher Prozesse gröblich unterschätzt. Insbesondere den Widerstand von solchen, bei denen es nicht nur um Gut oder Böse, sondern auch um enorme Pfründe, sehr viel Geld und damit Macht geht.

EIKE ist lernfähig und zäh.

Wir mussten also einsehen, dass dieser Gesellschaftsprozess durchaus einen Kipppunkt haben könnte, aber bis dieser erreicht sein würde, sehr, sehr viel Zeit vergehen kann. Daraus folgt: Es lohnt sich weiter zu machen, denn wenn der Weg auch lang und beschwerlich war und noch ist, Erfolge unterhalb dieses Kipppunktes haben sich durchaus eingestellt.

Einige davon will ich hiermit aufzählen:

EIKE international vernetzt

EIKE ist hochgradig international vernetzt. Insbesondere mit den Fachwissenschaftlern der angelsächsischen Welt, aber auch nach Polen, Italien, Frankreich, der iberischen Halbinsel und sogar Russland und China. Das zeigt allen Klimarealisten: Wir sind nicht allein! Wir sind keine Exoten und erst Recht keine Spinner, zu denen uns insbesondere manche vom Staat bezahlten und bestellte Forschungsergebnisse abliefernden „Forschungsinstitute“ und ihre Verstärker bei den Medien abstempeln wollen.

Mit der Wahl Donald Trumps zeichnen sich für die USA große Umwälzungen ab, die insbesondere aus der dortigen Umweltbehörde EPA, bisher ein „Überministerium für Klimaschutz“, dem alles andere unter zu ordnen wäre, eine, der Natur und dem Menschen verpflichtete Behörde machen werden. Die Auswirkungen auch auf die deutsche Klima- und Energiepolitik sind kaum absehbar, werden aber unser Anliegen unterstützen.

EIKE ist heute die wichtigste deutschsprachige Stimme der Klimarealisten

EIKE ist die mit Abstand wichtigste, weil die meist gelesene deutschsprachige Stimme der hiesigen Klimarealisten und Energiewende-Gegner. Und es werden täglich mehr. Das gelang durch einen hochaktiven, viel gelesenen Blog, auf dem in den 8 Jahren seiner Online-Existenz bis heute etwa 6.000 Artikel und fast 130.000 Kommentare erschienen.

Alle Bundestagsabgeordneten, viele Landtags- und Europaabgeordnete kennen EIKE und unseren wöchentlichen Newsletter. Sehr viel Journalisten lesen bei EIKE mit, auch wenn nur wenige von diesem Nachrichtenangebot offiziell Gebrauch machen. Dafür sorgen besonders stark weltanschaulich geprägte, sich aber neutral gebende Informationsseiten, wie Wikipedia, deren Berichterstattung über uns, unsere Finanzierung und unsere wissenschaftliche Arbeit direkt aus der Redaktion der legendären PRAWDA stammen könnte.

Bildausriss eines Kommentars der Redaktion der Landeszeitung für die Lüneburger Heide (rechts unten) auf einen EIKE Leserbrief.

EIKE steht daher im Alexa Web-Ranking weit, weit vor allen anderen Blogs, die sich allein mit der Klima- und Energieproblematik befassen. Monatlich wird unsere Seite viele hunderttausendmal aufgerufen. 

EIKE wirkt

EIKE´s Wirkung und Einfluss auf die Politik nimmt zu. Unsere Darstellungen der realen Situation und daraus abgeleiteten Forderungen finden sich weitgehend im Grundsatzprogramm wenigstens einer ernstzunehmenden, demokratisch legitimierten, politischen Partei wieder. Der AfD. Sie sitzt bereits in vielen Landesparlamenten und hat sehr gute Aussichten, wenn Sie sich nicht vorher aus anderen Gründen zerlegt, mit einer stattlichen Zahl von Abgeordneten in den nächsten Bundestag zu kommen. Und wie es sich heute schon beobachten lässt, treibt sie die anderen Parteien mit ihren vernünftigen Lösungsansätzen für brennende Probleme jetzt schon vor sich her. Das kann und wird auch bei diesen Themen so sein. Schließlich ist der Kaiser ja nackt, es fehlt nur noch das Kind das sich traut, das auch öffentlich auszusprechen. Die AfD wird dieses Kind sein, und anderen wird das Mut machen. Auch bei vielen Anhängern wie Mitgliedern anderer liberaler oder konservativer Parteien wächst das Interesse unsere Argumente zu übernehmen. Das macht Mut!

Grußworte anlässlich der 10.IKEK  von Dr. Philipp Lengsfeld (CDU) MdB & Promovierter Physiker;

Denn auch Politiker anderer Parteien „bedienen“ sich heute schon gerne auf den EIKE-Seiten – wenn auch meist gegen den Wunsch der eigenen Parteiführung. 

EIKE arbeitet wissenschaftlich

EIKE arbeitet wissenschaftlich auf hohem Niveau. Davon zeugen die begutachteten Publikationen von EIKE Autoren, deren Ergebnisse zu einer realistischen Einschätzung des No-Problems Klima und des Riesenproblems Energiewende beitragen, und bisher 10 international hochkarätig besetzte Fachkongresse zur Klima- und Energiethematik.

Video des Vortrags von Prof. em. Dr. Horst-Joachim Lüdecke  zur Frage des Einflusses von solaren Zyklen auf unser Klima. anlässlich der 10. IKEK Berlin

Die davon erstellten bisher gut 180 Videos wurden ca. 450.000 mal aufgerufen oder herunter geladen.

Video mit Dipl. Meteorologe Klaus Eckart Puls anlässlich der 10. IKEK am 11. Und 12.11.16 in Berlin

EIKE wurde daher im vergangenen Jahr auf die Position 62 der 100 besten Wissenschaftsseiten der Welt gewählt. Und das, obwohl wir nur auf Deutsch veröffentlichen.

Medaille des Top 100 Award

Dazu kommt eine eigene wissenschaftliche Schriftenreihe mit bisher acht mehr oder weniger umfangreichen Bänden.

Seit 2012 ist EIKE auch offiziell eine steuerlich als gemeinnützig anerkannte Wissenschaftsorganisation.

EIKE-Vertreter halten viele öffentliche Vorträge, werden in letzter Zeit gern von Windkraftgegnern zu Vorträgen eingeladen oder bringen sich auf andere Weise in die öffentliche Diskussion ein. Beispiel: Plädoyer für das Molekül Kohlendioxid

EIKE wird von den öffentlichen Meinungsmachern entweder totgeschwiegen oder diffamiert

EIKE wird dennoch (fast) nie zu Talkshows eingeladen, nachdem EIKE-Mitstreiter dort selbst erklärte Klimaschützer öffentlich widerlegen konnten.

Hier die Kurzform der wichtigsten Passagen

Video: Hier die Kurzform mit den wesentlichen Argumenten aus „Kein Prima Klima“ am 9.12.2010 in der PHOENIX Runde

Gelegentlich wird unser Institut sogar von öffentlich-rechtlichen Fernsehmachern diffamiert.

Wie es jüngst Prof. Harald Lesch in der SZ für richtig hielt. Von dem, was er der Süddeutschen erzählte, war zwar kein Wort wahr, trotzdem verweigerte die SZ eine Richtigstellung. Begründung: Sie hätte nur zitiert.

Richtig ist aber auch, dass jeder Journalist, oder jeder Verantwortliche für eine öffentliche Diskussionsrunde, der versucht, EIKEs Sachverstand einzubeziehen, sich einer bösartigen Phalanx von Verleumdern ausgesetzt sieht, die EIKE-Leute zu Schmuddelkindern erklären, mit denen keiner spielen darf. Dank des Internets und Youtube ist das aber sehr leicht zu verschmerzen. Die Welt erfährt auch so, was wir zu sagen haben.

Hingegen hat sich die Greenpeace Propaganda wohl totgelaufen, nachdem seine Aktivisten z.B. von Lord C. Monckton so schmerzlich als ahnungslose Gutmenschen vorgeführt wurden.

Video (in deutscher Übersetzung) eines Straßeninterviews, welches Lord Christopher Monckton vom Science and Public Policy Institute, Großbritannien mit Kerstin Blodig – einer ehrlichen, sich dabei völlig ahnungslos zeigenden Greenpeace Aktivistin- anlässlich ihrer Demo gegen eine EIKE Klimakonferenz am 4.12.2009, führte. Das Video hatte  allein auf diesem Kanal bisher über 72.000 Aufrufe. Auf allen Kanälen zusammen in denen es auch im Original gezeigt wurde (z.B. hier) rd. 230.000.

Die EIKE Finanzmittels sind sehr bescheiden

Und das alles organisieren wir mit einem Budget eines mittleren Tennisclubs, durch Selbstausbeutung der aktiven Mitglieder, die sämtlich ehrenamtlich arbeiten, und durch die Spendenbereitschaft unser Leser, Unterstützer und Mitglieder.

Ihnen möchten wir an dieser Stelle dafür nochmals herzlichst Dankeschön sagen.

Und es sei allen ausdrücklich versichert:

Wir machen weiter!

 




Computer-Prophe­zeiungen von Klima­alarm sind inhärent fehlerhaft

Die Autorin der Studie, die bedeutende amerikanische Klimatologin Prof. Judith Curry erklärt, dass der Klimaalarm auf hoch komplexen Computer-Simulationen des Klimas der Erde beruht.

Aber obwohl Wissenschaftler sich seit Jahrzehnten mit der Entwicklung derselben befasst haben, müssen diese Simulationen immer noch „frisiert“ werden, um sie dem realen Klima anzupassen. Dies macht sie im Wesentlichen unbrauchbar für den Versuch herauszufinden, was Änderungen des Klimas verursacht, und es macht sie unzuverlässig für Prophezeiungen, was in der Zukunft passieren wird.

Prof. Curry: „Es ist nicht nur die Tatsache, dass Klimasimulationen frisiert werden müssen, die problematisch ist. Es kann gut sein, dass es unmöglich ist, langfristige Prophezeiungen über das Klima zu erstellen – es ist schließlich ein chaotisches System. Falls das der Fall ist, dann versuchen wir möglicherweise, die globale Ökonomie für nichts und wieder nichts umzukrempeln“.

Prof. Curry kündigte kürzlich an, dass sie ihre akademische Laufbahn aufgegeben habe infolge von Angriffen auf ihre Forschungen und dem „Idiotismus“ [craziness] der Klimadebatte.

Einschub des Übersetzers: Das gesamte PDF steht hier . Die ,Executive Summary‘ lautet [Ende Einschub]:

Executive Summary

Es gibt eine große Debatte über Genauigkeit und Brauchbarkeit von globalen Klimamodellen (GCMs). Diese Debatte findet innerhalb der Gemeinschaft der Klimawissenschaftler statt, die sich über das Gewicht uneinig sind, welches man Computermodellen relativ zu Beobachtungen beimessen sollte. GCM-Outputs werden auch von Ökonomen, Gesetzgebern und Politikern herangezogen, weshalb die Modelle Gegenstand sehr genauer Überprüfungen seitens einer größeren Gemeinschaft von Wissenschaftlern, Ingenieuren, Software-Experten und Wissenschaftsphilosophen waren und sind. Dieser Report versucht, die Debatte um die GCMs zu beschreiben für eine gebildete, aber nicht technisch bewanderte Zuhörerschaft.

Schlüsselpunkte der Summary:

GCMs wurden niemals einer rigorosen Verifikation und Validierung unterzogen, welche jedoch die Norm sind im Ingenieurswesen und in der behördlichen Wissenschaft.

Es gibt wohlbegründete Bedenken hinsichtlich eines fundamentalen Fehlens von Vorhersagbarkeit im komplexen, nicht linearen Klimasystem.

Es gibt zahlreiche Argumente, die die Schlussfolgerung stützen, der zufolge Klimamodelle nicht geeignet sind für das Ziel, den Anteil der Erwärmung des 20. Jahrhunderts mit hoher Sicherheit zu identifizieren, der im Gegensatz zu natürlichen Kräften anthropogenen Ursachen zuzuschreiben ist.

Es gibt immer mehr Beweise dafür, dass Klimamodelle viel zu viel Erwärmung prophezeien infolge des steigenden atmosphärischen CO2-Gehaltes.

Die Ergebnisse der Klimamodell-Simulationen für das 21. Jahrhundert, wie sie vom IPCC bekannt gegeben werden, enthalten nicht entscheidende Elemente der Klimavariabilität und sind daher wenig nützlich für Projektionen, wie sich das Klima im 21. Jahrhundert tatsächlich entwickeln wird.

Klimamodelle sind nützliche Utensilien für die Durchführung wissenschaftlicher Forschungen, um das Klimasystem besser zu verstehen. Allerdings führen die oben genannten Punkte zu der Schlussfolgerung, dass die gegenwärtigen GCMs nicht geeignet sind, um die Gründe der Erwärmung des 20. Jahrhunderts anzugeben oder die Vorhersage globaler oder regionaler Klimaänderungen im Zeitmaßstab von Jahrzehnten bis Jahrhunderten vorzunehmen, mit welch hohem Niveau von Vertrauen auch immer. Übertragen bedeutet dies, dass sie keineswegs herangezogen werden sollten für politische Entscheidungen, die die Sozial-, Ökonomie- oder Energiesysteme der Erde fundamental verändern. Es ist diese Anwendung der Ergebnisse von Klimamodellen, welche die Lautstärke der Debatte um Klimamodelle befeuern.

———————————————-

Hier folgt jetzt noch die Zusammenfassung am Schluss der Studie:

Summary

Es gibt immer mehr Beweise, dass Klimamodelle viel zu warm ausfallen und dass die Klimasensitivität bzgl. Kohlendioxid am untersten Rand der vom IPCC angegebenen Bandbreite liegt. Nichtsdestotrotz wird diesen niedrigeren Werten der Klimasensitivität in den IPCC-Klimamodell-Projektionen bis zum Ende des 21. Jahrhunderts oder bei Schätzungen der Reduktion von CO2-Emissionen auf die Temperatur in keiner Weise Rechnung getragen. Die IPCC-Klimamodell-Simulationen konzentrieren sich auf die Reaktionen des Klimas bei verschiedenen Emissions-Szenarien. In den Klimamodell-Projektionen für das 21. Jahrhundert sind nicht enthalten:

Eine Bandbreite von Szenarien bzgl. vulkanischer Eruptionen (die Modelle nehmen an, dass die vulkanische Aktivität im 21. Jahrhundert mit derjenigen im 20. Jahrhundert vergleichbar ist, obwohl die Aktivität in Letzterem deutlich geringer war als im 19. Jahrhundert).

Ein mögliches Szenario solarer Abkühlung analog dem solaren Minimum, welches von russischen Wissenschaftlern vorhergesagt wird.

Die Möglichkeit, dass die Klimasensitivität um einen Faktor zwei niedriger ist als von den meisten Klimamodellen simuliert.

Realistische Simulationen von Phase und Amplitude der natürlichen internen Klimavariabilität im Zeitmaßstab von Jahrzehnten und Jahrhunderten.

Die Gemeinschaft der Klima-Modellierer konzentrierte sich auf die Reaktion des Klimas auf vom Menschen verursachte Emissionen, und die politische Gemeinschaft akzeptiert (entweder explizit oder implizit) die Ergebnisse der Simulationen für das 21. Jahrhundert als tatsächliche Prophezeiungen. Folglich fehlt uns bislang ein gutes Verständnis der relativen Klimaauswirkungen auf die oben genannten Parameter oder dessen potentielle Auswirkungen auf die Entwicklung des Klimas im 21. Jahrhunderts.

Übersetzt von Chris Frey EIKE




Deutschlands Erneuer­bare-Revolution destabili­siert die Stromnetze seiner Nachbarn

Eine Schlacht tobt in Mitteleuropa. Es geht um das Gleichgewicht der Strom-Macht. [Unübersetzbares Wortspiel: The balance of power – the electrical kind. ,Power‘ ist ein Teekessel und bedeutet sowohl Macht als auch Energie oder Strom. Diese Doppelbedeutung ist nicht übersetzbar, aber für mich hoch interessant! Anm. d. Übers.]

Polen und die Tschechische Republik sehen Deutschland als einen Aggressor, der viel zu viel Strom erzeugt und diesen über seine Grenzen hinweg entsorgt. Deutschland selbst sieht sich dagegen als ein Pionier grüner Energie, der unfairen Angriffen seitens weniger innovativer Nachbarn ausgesetzt ist.

Als Teil von Kanzlerin Merkels Energiewende [auch im Amerikanischen steht das Wort so im Original, Anm. d. Übers] wird Deutschland seine Kernkraftwerke bis zum Jahre 2022 vom Netz nehmen und durch rapide sich ausweitende Wind- und Solarenergie ersetzen.

Aber die volatilen Erneuerbaren spielen nicht immer mit, und die Deutschen sind auch von Kohle- und Gaskraftwerken abhängig, um die Lichter nicht ausgehen zu lassen.

Dies führt an sonnigen und windigen Tagen zu Problemen, wenn Deutschland weitaus mehr Strom erzeugt als es braucht. Die überschüssige Energie ergießt sich über die Grenzen auf polnisches und tschechisches Gebiet, was dort die ernste Gefahr von Zusammenbrüchen der Netze heraufbeschwört.

Das ist „ein Kollateralschaden einer rein politischen Entscheidung der deutschen Regierung“, sagte Barbora Peterova, die Sprecherin des nationalen Netzes in Tschechien. Es hatte zuvor „keinerlei Konsultationen oder Diskussionen hinsichtlich der Auswirkungen gegeben“.

Deutschlands Unternehmen bestreiten nicht, dass der erratische Energiefluss ein Problem ist, aber sie argumentieren, dass die Überspannungen großenteils veralteten Netzen beiderseits der Grenze geschuldet sind.

„Eine Kette ist nur so stark wie ihr schwächstes Glied“, sagte Gert Schwarzbach, Direktor von 50Hertz Transmission GmbH, einem Netzbetreiber, der zuständig ist für Stromleitungen nach Polen und die Tschechische Republik in Nordostdeutschland.

[Im Original ist hier ein interessantes Bild von Getty Images, das aus urheberrechtlichen Gründen nicht übernommen werden kann. Anm. d. Übers.]

Aber das Problem wurde erheblich verschlimmert durch Deutschlands Jahrzehnte langen [bislang vergeblichen] Kampf, Hochspannungsleitungen zu installieren, die mehr Energie von seinen Windmühlen im stürmischen Norddeutschland zu den industriellen Zentren in Süddeutschland leiten sollen. Diese Verzögerung zwang Deutschland dazu, die Netze der Nachbarn in Anspruch zu nehmen, um Energie nach Süden zu leiten, was deren Netze schwer unter Stress setzt mit dem Risiko von Blackouts.

„Der überschüssige Strom hat alle Netzanschlüsse verstopft“, sagte Grzegorz Wilinski, ein leitender polnischer Stromfunktionär. [a senior official at the Polish Electricity Association and deputy director of strategy at Polska Grupa Energetyczna SA, Poland’s biggest energy company.]

Um die Last der deutschen Überschuss-Energie zu tragen, investieren Prag und Warschau derzeit Millionen in stärkere Hochspannungsleitungen und in Transformatoren an der Grenze, um die deutsche Energie direkt nach Deutschland zurückzuleiten.

CEPS und der polnische Netzbetreiber Polskie Sieci Elektroenergetyczne SA haben etwa 115 Millionen Euro für diese massiven Transformatoren ausgegeben, bekannt als Phasenschieber. Polen hat im vorigen Jahr 300 Millionen Dollar investiert, um seine Netze und Unterstationen auf den neuesten Stand zu bringen.

Full Story [paywalled]

Link: http://www.thegwpf.com/germanys-renewables-revolution-threatens-neighbours-with-grid-collapse/

Übersetzt von Chris Frey EIKE




Spekulant und Skeptiker macht Kasse mit bankrott gehenden Solarunter­nehmen

Der am meisten gehasste Spekulant gibt nicht auf

von Brian Eckhouse

Als das Unternehmen SolarCity von Elon Musk vor etwa einem Jahr Aktienanalysten zu sich einlud, um sich über ihre Chancen in der Solarbranche auszulassen, war der Name Gordon Johnson nirgendwo zu finden.

Es scheint, als ob Johnson, ein 36 Jahre alter Analyst von der Beraterfirma Axiom Capital Management Inc. nicht darunter war. Das muss nicht ein Versehen gewesen sein; es passiert ihm oftmals.

Jeder hasst mich“, sagte der in New York ansässige Analyst im Scherz, womit er seinen Ruf als berüchtigter Solar-Spekulant meinte, der für seine markigen Sprüche bekannte Contrarian unter einer Gruppe von Analysten, die im Allgemeinen optimistisch bzgl. der langfristigen Perspektiven der Industrie sind. „Unternehmen mögen mich nicht, weil ich ihre Aktienwerte einstufen kann“.

Dieser Tage hat Johnson eine Verkaufsempfehlung von jeder Aktie, der er seine Aufmerksamkeit widmet (einschließlich einiger Stahlunternehmen), und er hat einen neuen Grund – Donald Trump. Johnson geht davon aus, dass der Präsident, ein Kritiker von Erneuerbaren während seiner gesamten Kampagne, versuchen könnte, Subventionen der öffentlichen Hand für Solar zu widerrufen – eine Minderheiten-Meinung. „Dies wäre ein großes Negativum für Erneuerbare, besonders Solar“, sagt Johnson. Auch eine Steuerreform wäre schädlich.

Als Solar-Skeptiker seit seiner Anstellung bei Lehman Brothers vor einem Jahrzehnt ist Johnson nicht beliebt unter den von ihm beobachteten Unternehmen, um andere Analysten der Wall Street nicht zu erwähnen. Einige sehen in ihm lediglich ein Verbündeten von Hedge Fonds und anderen Spekulationsobjekten, die seine Kunden sind, und dass er manchmal einfach nur Glück hat bei seinen Aktivitäten, welche die anderen als „Solar-Achterbahn“ [ solar-coaster]bezeichnen.

Johnsons konträrer Standpunkt leitet sich aus einer einfachen These ab: Solar, sagt er, kann niemals mit Erdgas konkurrieren oder dieses gar ersetzen, weil Solar nicht Energie rund um die Uhr zur Verfügung stellen kann und weil Solar erheblicher Subventionen bedarf, um wettbewerbsfähig zu sein.

Mehr: https://www.bloomberg.com/news/articles/2017-02-16/frozen-out-by-ceos-solar-s-most-hated-bear-sticks-to-his-guns

Spekulantentum wird in der gängigen Presse stark geschmäht, wobei die Reporter es oftmals als ein gefährliches Spiel charakterisieren, welches von Abbruch-Unternehmen [wreckers] gespielt wird.

Die Realität ist, dass eine Spekulation nur funktioniert, falls das anvisierte Unternehmen bereits abbruchreif ist. Spekulation klärt das Nebelmeer und enthüllt die hässliche Realität hinter den Hochglanz-Broschüren und den rosigen, hochgejubelten Vorhersagen. Spekulation zwingt Investoren, unbequeme Fragen zu stellen – Fragen, von denen sich die anvisierten Unternehmen wünschen, dass sie unbeantwortet bleiben.

Ich zweifle, dass Johnson demnächst die Erneuerbaren-Unternehmen ausgehen für seine Spekulationen.

Im Artikel werden detailliert einige Fälle genannt, bei denen sich Johnson geirrt hat. Die Art der Handelsaktivitäten von Johnson sind potentiell höchst lukrativ, bergen aber meiner Ansicht nach auch ein hohes Risiko – ein Irrtum kann einen das Hemd kosten. Dein Geld, dein Risiko, deine Verantwortung.

Link: https://wattsupwiththat.com/2017/02/20/short-selling-skeptic-cashing-in-on-solar-company-collapses/

Übersetzt von Chris Frey EIKE