1

Klimawahn der evangelischen Kirche Deutschlands (EKD): Wie schon so oft – Kungeln mit den Mächtigen und Verteufelung der Realisten

Bevor wir dieser Aussage näher nachgehen, fragen wir erst einmal, ob sich die EKD denn über die sachlichen Gründe der AfD bezüglich deren Kritik gegenüber der politisierten Klimadebatte informiert hat. Dazu ist in der FAZ seitens Herrn Bedford-Strohms zu lesen: "Das ist gegenwärtig für uns kein Thema. Wenn sich jemand wie schon geschehen aus der AfD heraus ganz klar rechtsextrem äußert, fehlt jede Grundlage für ein Gespräch“.

Daraus folgt:

Die EKD ist weder an naturwissenschaftliche Fakten und dem heutigen Stand der Wissenschaft interessiert noch wünscht sie Aufklärung dazu. Ihr (Zitat) "breiter und immer weiter gewachsener Konsens" genügt ihr. Dass dieser Konsens weltweit in der Wissenschaft schlicht nicht existiert, kommt ihr erst gar nicht in den Sinn. Wir geben für interessierte Leser – nicht für die faktenresistente EKD – die Quellen an (hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier).

Die Aussage von Herrn Bedford-Strohms ist zweifellos mittelalterlich und erinnert an die kirchliche  Behandlung  von Galileo Galilei und Giordano Bruno. Über mehr als 1500 Jahre war es lebensgefährlich, die massiven Schnitzer von Aristoteles zu kritisieren – wie beispielsweise Fliegen hätten vier Beine. Obwohl mit gesunden Augen leicht abzählbar, setzte sich diese wie auch die astronomischen Erkenntnisse von Kopernikus, Galilei, Bruno et al. erst in der Neuzeit durch – als nämlich die Scheiterhaufen der Inquisition nicht mehr brannten! Freie wissenschaftlicher Arbeit und Meinungsäußerungen waren in der mittelalterlichen Hochzeit einer mit Feuer und Schwert durchgestzten Kirchendiktatur und Ausbeutung der Gläubigen extrem selten und nur wenigen vorbehalten – so etwa dem Staufer Kaiser Friedrich II, der ein auch noch nach heutigen Kriterien wissenschaftlich modernes Buch über die Falkenjagd verfasste.

In der Neuzeit wurde es aber keineswegs besser. Die katholische Kirche wandte sich gegen Paul Ehrlich, den Erfinder des Medikaments Salvarsan gegen die Syphilis. Syphilis als Strafe Gottes war dem heilige Vater zu wichtig um sie zu verlieren (hier). Papst Pius X. ließ im Jahre 1910 seine Kleriker sogar einen Anti-Modernisteneid schwören, der sich gegen alle modernen Strömungen Anfang des 20. Jahrhunderts in Malerei, Literatur und Musik richtete (hier).

Wenn wir nun lediglich 75 Jahre zurück schauen, dann gibt es auch Fotos über die Anbiederung der christlichen Kirchen an politischen Mainstream :

Bild: Kirchliche Würdenträger im "breiten Konsens" mit dem Zeitgeist

Selbstverständlich ist dieser Vorgang bischöflicher Hitlergrüße in dieser Art+Weise nicht auf die heutige Situation übertragbar. Im aktuellen Diskussions-Zusammenhang darf aber daran erinnert werden, dass Adolf Hitler ein glühender Verehrer des Islam war, weil beide bekanntlich das Judentum nicht mochten. Ob diese Haltung für den Islam auch noch heute gilt, soll und kann an dieser Stelle nicht  erörtert werden. Zumindest sind uns aber keine jüdischen Synagogen in islamischen Ländern und auch keine christlichen Kathedralen bekannt. Heutzutage muss dann auch immer die Selbstverständlichkeit nachgeschoben werden: Es sind mit dem "Islam" nicht die in Deutschland über Jahre gut integrierten deutschen Mitbürger mit islamischen Wurzeln gemeint, denen der mittelaterliche Islam längst schnuppe ist.

Und wie ein aggressiver politisch-religiöser Islam mit unseren jüdischen Mitbürgern und mit den christlichen Kirchen umgehen würde/wird, wenn er denn einmal hierzulande die Macht dazu hätte, darüber soll an dieser Stelle ebenfalls nicht spekuliert werden. Die nie nachgelassenen Verfolgungen der Christen in fundamentalen islamischen Ländern spricht eine deutliche Sprache. Unter diesem Gesichtspunkt ist die Anbiederung der Kirchen an diese Religion unverständlich.

Doch zurück zu unserem Thema "Kirche im Klimawahn" :

Da bewegt sich der Herr Bedford-Strohms mit seiner Verunglimpfung gegenüber der AfD und deren kritischer Einschätzung gegenüber der Mainstream-Klimadebatte in bester kirchlicher Tradition. Diese zeichnet sich durch folgende Merkmale aus :

()   "Kriechen" vor den Mächtigen bzw. deren Agenda als angeblich gesichertem Mainstream

()   Rückwärtsgewandheit in Sachen wissenschaftlicher Erkenntnisse.

()  Drohung gegen Gläubige, die anfangen selber zu denken.

Früher kam die Inquisition, heute wird glücklicherweise nur noch mit "Unchristlichkeit" im Sinne einer Exkommunikation gedroht.

Wir erlauben uns zusammenfassend festzustellen :

Glaubens-Gemeinschaften machen sich unglaubwürdig, ja lächerlich, wenn sie sich den politischen Zielen von Mächtigen unterwerfen. Wissenschaftliche Ergebnisse – welcher Qualität auch immer – zu instrumentalisieren, indem Kritiker an dem von der Kirche bevorzugten wissenschaftlichen Dogma abgestaft werden, gehört in die mittelalterliche Mottenkiste. Dies hat die EKD noch nicht begriffen, obwohl die dramatisch anschwellende Austrittswelle ihrer Mitglieder Signal genug sein sollte.

Offensichtlich sind immer mehr Kirchen-Mitglieder nicht einverstanden damit, daß ihre Kirchensteuer für politische und auch pseudo-wissenschaftliche Ziele zweckentfremdet und letztlich mißbraucht wird – und treten schlicht aus, wie sie es ansonsten auch mit fragwürdigen Vereinen machen, in denen sie Mitglied waren.

 ===================================================

Nachschrift der EIKE-Redaktion:

EIKE hatte schon verschiedentlich über "Kirche im Klimawahn" berichtet, z.B. in jüngerer Zeit:

(1) http://www.eike-klima-energie.eu/klima-anzeige/kirche-und-klimawandel/

(2)  tinyurl.com/q9zfvmd  (==> PDF-Anhang w.u.)

(3)  http://www.eike-klima-energie.eu/news-cache/misereor-die-zweifelhafte-leuchte-des-herrn/

===================================================

Related Files




Klimapolitik eskaliert!

Mr. Walker ist frustriert, dass die Denkfabrik des Freien Marktes nicht der modernen Kirche der Klimatologie beitreten will. Darum hat er sich dem sich rasch ausbreitenden Club von Politikern und Staatsanwälten der Demokraten angeschlossen, die Abweichler drangsalieren.

Der New Yorker Generalanwalt Eric Schneiderman hat den Angriff im Herbst vorigen Jahres angezettelt, und zwar in Gestalt einer Kaskade von Vorladungen gegen Exxon Mobil. Seine Forderung nach Dokumenten folgte Berichten von Inside Climate News und der Los Angeles Times, in denen behauptet worden war, dass Exxon-Wissenschaftler seit Jahren wussten, dass Treibhausgase globale Erwärmung verursachen, diese Wahrheit jedoch der Öffentlichkeit und den Anteilseignern vorenthalten hatten.

Jene Berichte zitierten selektiv und zusammenhanglos aus Exxon-Dokumenten, die in jedem Falle öffentlich zugänglich und oft auch begutachtet in akademischen Journalen erschienen waren. Einige Exxon-Wissenschaftler haben ihre Standpunkte über die Jahre geändert, und vor vielen Jahren hat das Unternehmen sogar einer Kohlenstoffsteuer befürwortet.

Nichtsdestotrotz sagt Mr. Schneiderman, dass er gegen Exxon ermittelt wegen „Betrugs der Öffentlichkeit, Betrugs der Verbraucher, Betrugs der Anteilseigner“. Er brachte auch einen breiter gefassten Angriff auf die Beine mittels der Behauptung, dass das Öl- und Gasunternehmen Klima-Falschinformationen verbreite via „Organisationen, die von dem Unternehmen finanziert werden, wie etwa dem American Enterprise Institute“, dem „American Legislative Exchange Council” und dem „American Petroleum Institute“. Er wollte den Fall Exxon dazu benutzen, alle „Klimawandel-Leugner“ zum Schweigen zu bringen.

Mr. Walker hat auch mit der Forderung Grenzen überschritten, dass das nichtkommerzielle CEI Namen von Spendengebern bekannt macht, die Bundesgesetzen zufolge geheim bleiben dürfen. Jedermann auf der Liste wird ein neues Ziel werden für die Klima-Truppen von Schneiderman.

CEI hat seinerseits Klage auf Ablehnung der Vorladung erhoben, und es hat die Anwälte Andrew Grossman und David Rifkin beauftragt, die jüngst das Projekt „Free Speech in Science“ ins Leben gerufen hatten, um die Grundrechte gegen Missbrauch seitens der Regierung zu verteidigen. Dieses Projekt wird dringend gebraucht.

Der Senator von Rhode Island Sheldon Whitehouse hat das Justizministerium aufgefordert, die RICO-Statuten anzuwenden, um Zivilklagen gegen Klima-Abweichler auf den Weg zu bringen. Generalstaatsanwältin Loretta Lynch hat sich jüngst auf das FBI bezogen bei der Unterstützung zweier Kongressmitgliedern der Demokraten, die eine Kriminal-Ermittlung gegen Exxon starten wollten. Demokraten vom Capitol Hill haben Briefe verschickt, mit denen sie Druck auf Unternehmen ausüben, das Chamber of Commerce wegen dessen Klima-Häresie zu desavouieren.

Dies ist eine gefährliche Wendung gegen die freie Rede, und progressive Kräfte sollten die ersten sein, dies auszusprechen, damit sie nicht selbst zu Zielen für ihre eigenen politischen Häresien werden. Anstatt sich in Verteidigung zu üben, sollten die Zielpersonen der Klimapolizei mit juristischen Klagen zurückschlagen.

The Wall Street Journal, 30 April 2016 (paywalled)

Link: http://www.thegwpf.com/the-climate-police-escalate/

Übersetzt von Chris Frey EIKE




EIKE 9. IKEK-Prof. Henrik Svensmark: Der Einfluss kosmischer Strahlung auf das Klima – Cosmic Rays and Climate

Prof Svensmark zeigt einmal mehr, wie durch die kosmische Strahlung unser Klima beeinflusst wird. Als Beispiel zeigt er wie die kosmische Strahlung zur  Bildung von C14 führt.

Video des Vortrags von Prof. Henryk Svensmark anlässlich der  9. IKEK im Dezember 2015 im Haus der Technik

Daraus kann die Sonnenaktivität der vergangenen 10.000 Jahre abgeleitet werden. Diese wiederum korreliert sehr eng mit den bekannten Solarzyklen, insbesondere dem 11 jährigen Zyklus und der Änderung der globalen Mitteltemperatur z.B. über die letzten 1000 Jahre. So ist die kleine Eiszeit zu erkennen, ebenso wie die mittelalterliche Warmperiode, als auch die heutige Rückerwärmung nach dem Ende der kleinen Einszeit. Damit ist erklärbar, dass und die wie die Sonne über die Modulation der kosmischen Strahlung die Temperatur beeinflusst. Im weiteren wendet sich Henryk Svensmark der Frage zu wie man diesen Einfluss quantifizieren könnte. Das gelingt über Bestimmung der Kühlung durch Wolken und erfordert die Kenntnis der Wolkenbedeckung in Abhängigkeit der von der Sonne modulierten kosmischen Strahlung. Die Frage also laute: Wie beeinflussen die kosmische Strahlung die Bildung von Wolken. Wo passiert das und wie stark ist ggf. dieser Prozess? Anhand von einigen Beispielen zeigt er dass auf diese Weise Aerosole gebildet werden, genauso wie von Vulkanen, Schilfmotoren etc. die ihrerseits Voraussetzung für Wolkenbildung sind. Diese Prozesse lassen sich im Labor nachbilden und genau vermessen. Die Laborversuche zeigen eindeutig, dass von der kosmischen. Strahlung erzeugte Ionen die Aerosolbildung verstärken. Dieses Verhalten lässt sich auch im Computer modellieren, und nach Überwindung einiger Schwierigkeiten, besonders bei speziellen Ereignissen wie Sonneneruptionen in der Realität bei Wolken aus flüssigem Wasser (weniges bei Eis) als kräftige Signale nachweisen. Das Ergebnis lautet. Es existiert ein kräftiger Einfluss der Sonne über die kosmische Strahlung auf die Wolkenbildung!




Politische Verzerrungen in der Klimatologie

Eine der strategischen juristischen Klagen gegen die öffentliche Teilnahme (SLAPP) gegen mich entwickelte sich aus einem Artikel mit dem zentralen Thema, durch das das IPCC die Klimaforschung um 30 Jahre zurück setzte. Dies war unvermeidlich angesichts der Definition von ,Klimawandel‘ in Artikel 1 des United Nations Framework Convention on Climate Change (UNFCCC). Wie beabsichtigt standen durch die Definition die Ergebnisse schon vorher fest:

Eine Änderung des Klimas, die direkt oder indirekt menschlichen Aktivitäten zugeordnet ist, die die Zusammensetzung der globalen Atmosphäre verändern und welche sich zusätzlich zur natürlichen Klimavariabilität ereignet, beobachtet über angemessene Zeiträume“.

Zur Zeit des IPCC-Zustandsberichtes 4 (AR 4) im Jahre 2007 fügten sie eine weiter gefasste Definition ein:

Klimawandel nach Lesart des IPCC bezieht sich auf jedwede Änderung des Klimas mit der Zeit, sei sie nun verursacht durch natürliche Variabilität oder durch menschliche Aktivitäten“.

Es erschien als Fußnote in der Summary for Policymakers (SPM) des AR 4. Das Ziel ist es offensichtlich, dass sie auf Nachfrage antworten können, dass sie die Definition verändert hätten. Das Problem dabei ist, dass sie das eben nicht getan haben, weil die Berichte kumulativ sind. Dies macht es erforderlich, noch einmal von vorne anzufangen.

Die Definition lenkte die Aufmerksamkeit der Welt auf CO2 und Temperatur, genau wie es von denjenigen geplant war, die die politische Agenda der anthropogenen globalen Erwärmung (AGW) kontrollieren. Das Problem dabei ist, dass bereits bestehende Verzerrungen und Ungereimtheiten dadurch verstärkt wurden. Das Hauptelement, das übersehen, ignoriert oder falsch zugeordnet worden ist, ist Wasser. Dies ist nicht überraschend, wenn man an fehlende Proxydaten und moderne instrumentelle Messungen von Wasser in all seinen Formen denkt.

Eine schwere Irreführung war die Nutzung von Baumringen als Proxy der Temperatur in der infamen ,Hockeyschläger-Graphik‘ im IPCC-Bericht aus dem Jahr 2001 (AR 3). Traurig daran ist, dass Baumringe durchaus eine wertvolle Proxy sind, die die Grenze zwischen instrumentellen Daten und Proxydaten von etwa 6000 Jahren überschreitet. Inzwischen erzeugt man zunehmend langzeitliche Niederschlags-Aufzeichnungen aus Baumringen. Eine Studie aus dem Jahr 2014 mit dem Titel [übersetzt] „eine 3500 Jahre lange Baumring-Aufzeichnung des jährlichen Niederschlags auf dem nordöstlichen Tibetanischen Plateau“ (hier) wird bezeichnet als…

…die Erstellung und klimatische Interpretation einer Baumring-Chronologie, welche gegenwärtig die längste und absolut datierte Reihe ist, die für das Nordöstliche Tibetanische Plateau erstellt worden ist, und eine der längsten Reihen der Welt“.

Schlussfolgerung:

Der Niederschlag in dieser Region war während der letzten 50 Jahre historisch hoch – wahrscheinlich höher als für jede andere Periode vergleichbarer Länge seit mindestens 3500 Jahren. Dies selbst dann, wenn man die Unsicherheiten der Chronologie und der Interpretation berücksichtigt. Deutlich erkennbare Trockenperioden gab es im 4. Jahrhundert v. Chr. sowie in der zweiten Hälfte des 15. Jahrhunderts“.

Stellt man diese Reihe anderen Proxyreihen gegenüber wie etwa Paläoböden, kann sich eine wertvolle Historie ergeben, von der ausgehend man klimaändernde Mechanismen bestimmen kann. Abbildung 2 zeigt Sanddünen in der Carberry-Wüste oder Brandon Sand Hills in Südwest-Manitoba:

Abbildung 2

Die Abbildungen 3a, b und c zeigen drei unterschiedliche Paläoböden in einem Querschnitt durch eine Düne:

Abbildung 3a

Die Paläo-Ablagerungen sieht man oben auf der Düne.

Man beachte das Mikroklima mit Bäumen auf dem Nordhang, wo die Verdunstung geringer ist als auf dem Südhang, was ausreichend Feuchtigkeit für Bäume hinterlässt (Fotos vom Autor).

Abbildung 3b: Dies ist der tiefste und am besten entwickelte Aufschluss.

Abbildung 3c: Die jetzige oberste Bodenschicht sowie zwei unterschiedliche Paläosole in Beziehung zu Witterungsperioden.

Die Autoren folgern:

Die bemerkenswerteste Bildung von Paläosolen fand statt von etwa 2300 bis 2000, 1400 bis 1000 und 600 bis 500 cal-Jahre vor heute, wobei es vor und nach jeder Periode zu äolischen Aktivitäten [eolian activity ?] gekommen war. Episoden mit äolischen Aktivitäten können korrespondieren mit Perioden regionaler Dürren, während Paläosole Perioden verstärkter und stabilisierter Feuchtigkeit durch Vegetation kennzeichnen.

Diese Aufzeichnungen zeigen, wie viel Klimainformationen in Niederschlagsdaten enthalten sind, die grundlegend sind zum Verständnis von Klimawandel.

Vereisung ist ein anderer Bereich während des Lebenszyklus‘, in dem die Temperatur die Rolle von Niederschlag übertrumpft hat. Ein Gletscher bildet sich, wenn Schneefelder viele Jahre lang das sommerliche Abschmelzen überstehen. Man vermutet, dass dafür ein Temperaturrückgang die Voraussetzung ist. Allerdings kann es sein, dass die Schneemenge zunimmt, so dass er das sommerliche Schmelzen auch ohne Abkühlung überdauert. Überdauert der Schnee erst einmal, ändert sich auch die Albedo, was die Chance zum Überleben ebenfalls ohne Temperaturänderung erhöht. Akkumuliert sich die Schneedecke immer weiter und wird das Eis plastisch, beginnt das Eis zu fließen. Es entwickelt sich ein Gleichgewicht zwischen der Akkumulation und dem Abschmelzen (Abbildung 4):

Abbildung 4

Der Gletscher dringt durchweg intern vorwärts, solange das Eis plastisch ist. Die Gletscherzunge auf der rechten Seite des Diagramms stößt vor oder zieht sich zurück: Manchmal wegen der Temperaturen, aber auch dann, falls der Schneefall in der Akkumulations-Zone zu- oder abnimmt.

Eines der interessantesten Ereignisse zum Ende des Pleistozän-Eisschildes war die Rate, mit der das Abschmelzen vor sich ging. Das Abschmelzen erfolgte schnell, wie die Karte mit der Änderung des Meeresspiegels zeigt (Abbildung 5). Die Schmelzwasser-Phase 1A ereignete sich von vor 14.700 bis 13.500 Jahren. Es gibt keinen Zweifel daran, dass die grundlegende Ursache des Abschmelzens eine Erwärmung war, aber der rapide Anstieg des Meeresspiegels ist wahrscheinlicher einer deutlichen Zunahme der Regenmenge geschuldet. Packt man einen Eiswürfel in ein Becken, wird er langsam vor sich hin schmelzen. Lässt man aber Wasser darüber laufen, beschleunigt sich das Schmelzen erheblich. Außerdem hat Alteis an der Oberfläche eine geringere Albedo als Schnee oder pures Eis.

Da ist aber noch mehr, beispielsweise die in der Atmosphäre durch Wassertröpfchen und Regentropfen absorbierte Menge an CO2. Wir wissen nicht wie viel, weil tatsächliche Messungen der Wassermenge in der Atmosphäre sowie dessen Variation mit der Zeit nicht verfügbar sind.

Abbildung 5

Kann es sein, dass Variationen des Wassergehaltes in der Atmosphäre sowie des davon absorbierten CO2 gleich ist der Menge, die die Menschen hinzufügen?

In einem kürzlich erschienenen Artikel habe ich mich mit dem Thema Aerosole befasst sowie deren Rolle in der atmosphärischen Physik. Alle Aerosole fallen zu Boden als Funktion ihrer Größe und ihres Gewichtes. Die Schwerkraft ist die größte Kraft, die Aerosole aus der Atmosphäre entfernt. Allerdings ist bei zwei wesentlichen Mechanismen Wasser involviert. Aerosole bilden Kondensationskerne, um die der Wasserdampf kondensiert, und Regen wäscht sie dann aus. Man betrachte eine Oberfläche, nachdem die Regentropfen verdunstet sind, und die Residuen darauf. All diese Faktoren involvieren Wasser, welches die Durchlässigkeit der Atmosphäre verändert. Wie stark beeinflussen sie globale Klimamechanismen während Witterungsperioden?

Das IPCC hat die Variablen absichtlich limitiert. Es behauptet, dass das 5000-Teile-Puzzle effektiv zusammengesetzt ist, wenn die Wissenschaft nicht die vier Eckteile oder die meisten der Randteile identifiziert hat. Die Anzahl und Komplexität jener weggelassenen Teile sind riesig, und die meisten gehen über die IPCC-Behauptungen bzgl. des anthropogen erzeugten CO2 hinaus. Aber trotzdem zieht es fast definitive Schlussfolgerungen, die als Rechtfertigung dienen für eine verheerende Klima- und Energiepolitik. Dessen Aktionen gehen noch weit über Pseudowissenschaft hinaus. Diese ist definiert als

eine Sammlung von Glaubenssätzen und Praktiken, die irrigerweise als auf wissenschaftlichen Verfahren beruhend betrachtet werden“.

Das Schlüsselwort hier ist „irrigerweise“. Es gibt nichts, was man hinsichtlich der absichtlichen, vorsätzlichen Aktionen des IPCC missverstehen kann. Und falls doch, wäre es höchlichst inkompetent.

Link: https://wattsupwiththat.com/2016/05/01/political-distortions-in-climatology/

Übersetzt von Chris Frey EIKE




Verheerendes Ergebnis einer neuen Studie: PV-Systeme in Europa sind eine „nicht nachhaltige Energiesenke“

Bild rechts: Foto Prof. Knut Löschke. Quelle: EIKE

Eine im Journal Energy Policy veröffentlichte brandneue Studie der Schweizer Forscher Ferruccio Ferroni und Robert J. Hopkirk verstärkt diese Zweifel erheblich, kommen sie doch zu dem Ergebnis, dass Solarenergie in den meisten Fällen bei der Energieerzeugung höchst ineffizient ist. Es scheint immer klarer zu werden, dass Europa Zehner-Milliarden Euro für einen Energie-Massenwahnsinn verschwendet hat.

Daher sollte es niemanden überraschen, dass der Verbrauch fossiler Treibstoffe in Deutschland während der letzten Jahre nicht zurückgegangen ist.

Im Abstract der Studie heißt es:

Viele Menschen glauben, dass erneuerbare Energiequellen in der Lage sind, fossile oder nukleare Energiequellen zu ersetzen. Es gibt jedoch nur sehr wenige tiefer gehende Studien, die mit angemessener Sorgfalt diesen Eindruck belegen. In dieser Studie werden Photovoltaik-Energiequellen in Gebieten mit moderater Einstrahlung kritisch unter die Lupe genommen, und zwar mittels des Konzeptes Energieausbeute zu investierter Energie [Energy Return on Energy Invested (ERoEI, auch EROI genannt)]. Aber die Verfahren zur Berechnung von EroEI unterscheiden sich stark von Autor zu Autor. Die Hauptunterschiede zwischen Solar-PV-Systemen liegen zwischen dem gegenwärtigen ERoEI und dem, was erweiterte ERoEI genannt wird (ERoEI EXT). Das gegenwärtig von der International Energy Agency IEA geforderte Verfahren lässt sich nicht strikt anwenden, wenn man Photovoltaik-Energieerzeugung mit anderen Systemen vergleichen will. Die Hauptgründe hierfür beruhen auf der Tatsache, dass Solarstrom einerseits sehr material-, arbeits- und kapitalintensiv ist und andererseits die solare Strahlung eine ziemlich geringe Energiedichte aufweist.

Ist also Solarenergie in Gebieten wie Europa eine geeignete Alternative? Die Autoren folgern, dass dem nicht so ist. In ihrer Conclusion schreiben sie: „Ein Stromversorgungssystem auf der Grundlage heutiger PV-Technologien kann nicht als Energiequelle bezeichnet werden, sondern ist vielmehr eine nicht nachhaltige Energiesenke“, und weiter: „es ist klar geworden, dass Photovoltaik-Energie zumindest in keiner Weise die fossilen Treibstoffe ersetzen kann“.

Die Autoren fügen noch hinzu: „Photovoltaik-Technologie ist keine kluge Wahl zur Erzeugung bezahlbaren, umweltfreundlichen und zuverlässigen Stromes in Gebieten mit geringer oder auch nur moderater Einstrahlung“.

Es sieht so aus, als hätte Europa sehr gewaltige Geldsummen verschwendet.

Link: http://notrickszone.com/2016/04/30/devastating-conclusion-new-study-deems-solar-pv-systems-in-europe-a-non-sustainable-energy-sink/#sthash.wAWJ4SQo.dpbs

Übersetzt von Chris Frey EIKE




Klimawandel wird Sie nicht töten – jedoch der Mangel an Energie

Zur gleichen Zeit werden weltweit jährlich über 1000 Milliarden US-$ ausgegeben, für Studien über den Klimawandel, für Berater¸ im Zusammenhang mit staatlichen Stellen und für die schnell wachsende aber völlig wirkungslos grüne und erneuerbare Energieindustrie. Dies hat auch zur Entstehung der Emissionshandels-Makler-Industrie geführt. Dies basiert auf betrügerischer Wissenschaft, da der extrem kleine "Treibhaus-Effekt" von CO2 bei weitem übertroffen wird durch den Wasserdampf aus den Ozeanen. Nur fossile Treibstoffe und die Kernenergie können aufgrund ihrer viele Größenordnungen höherer Energieflussdichten die benötigten Energiemengen liefern, im Gegensatz zu sogenannten erneuerbaren Energien.

Weit über die Hälfte der Welt hat wirtschaftlich erzielbare fossile Brennstoffe verbraucht, während über 3 Milliarden menschlicher Bewohner in "Energiearmut“  leben,  mehr als 1,5 Milliarden [überhaupt] ohne Strom. Sobald fossile Brennstoffe über den Punkt einer wirtschaftlich rentablen Produktion aufgebraucht sind, ist es nur noch eine Energiequelle, die der Erde zur Verfügung steht, um den Energiebedarf zu decken. Das ist die Umwandlung von Materie in Energie, wie in der Gleichung E = mc2 formuliert. Man muss lernen, Energie auf der Grundlage seiner Kenntnisse über die Gesetze der Physik und der Austauschbarkeit der Materie zu erzeugen. Heute haben wir mit dem „Baby Schritt“ der Kernspaltung begonnen. Kernspaltung ist praktisch und arbeitet heute, ist aber nicht nachhaltig aufgrund radioaktiver Abfälle.

Deshalb müssen wir sofort in das experimentelle Verständnis der Wissenschaft investieren, die zur erfolgreichen Demonstration der kontrollierten Kernfusion führt, gefolgt von Forschung & Entwicklung, die nötig sind um es zu vermarkten. Fusion ist 100% sicher, nutzt einen nahezu unbegrenzten Brennstoffkreislauf, leichter, nicht-radioaktiver Komponenten und erzeugt keine signifikanten radioaktiven Nebenprodukte. In der Alternative [also ohne Fusion] wird der Mensch fossile Brennstoffe nicht mehr nutzen können. AGW ist dann ein 100% strittiger Punkt, da Kohlenwasserstoffe in nennenswerten Mengen nicht mehr verbrannt werden. Unter diesen Bedingungen wird die weltweite Bevölkerung auf das Niveau der vorindustriellen Revolution von etwa 10% der heutigen Bevölkerung schrumpfen oder etwa 750 Millionen Menschen weltweit.

Vom Menschen verursachte globale Erwärmung (AGW) oder der Klimawandel ist nicht das große Problem zu dem seine Befürworter es machen. Auch wenn es mal bewiesen werden sollte, dass der Mensch es durch seine Verwendung von fossilen Brennstoffen verursacht, ist es nicht das wirklich große Problem.

Der Klimawandel war schon immer ein Teil des dynamischen atmosphärischen Systems der Erde. In den letzten 2 Milliarden Jahren hat sich das Klima der Erde gewandelt, zwischen einem gefrorenen „Kühlhaus“ Klima und dem heutigen gemäßigten Klima und einem dampfenden „Sauna" Klima, wie in der Zeit der Dinosaurier.

Haupteinflussfaktoren für die Variabilität der mittleren Temperatur und Klima auf der Erde ist die komplexe Umlaufbahn der Erde im Sonnensystem, wie durch die Milankovitch Zyklen definiert, die variable Ausstrahlung der Sonnenenergie und die geologischen Faktoren auf der Erde wie unterseeische vulkanische Aktivität führen zu inkonsistenten Temperatur Gradienten in den Ozeanen.

Diese Grafik zeigt, wie sich das globale Klima sich im Laufe der geologischen Zeit verändert hat.

Temperatur-Zeiten Diagramm

Leider wurde die potenzielle Bedrohung durch einen vorhergesagten zukünftigen Klimawandel dazu verwendet, enorme Mengen an Geld von reichen Nationen zu den armen Ländern [1] zu übertragen. Dies hat die Mechanismen des Überlebensinstinkts der Klimawandels Community aktiviert. Dazu gehören Regierungen, Berater und wissenschaftliche Forscher, die einfach das empfundene Problem untersuchen und akademische Zeitschriftenartikel und Berichte erstellen. Die unwirksamen grünen Energielösungen der Industrie verdanken ihr Leben … den staatlichen Subventionen … und dem Schrecken eines Klimawandels. Kein ernsthaftes, durch die „Klimaschrecken" entrichtetes Geld, wurde für die Lösung des großen Problems verwendet.

Das große Problem ist die Tatsache, dass der Mensch seit etwa 400 Jahren fossile Brennstoffe auf Kohlenstoff Basis zur Verfügung hat, welche über mehrere hundert Millionen Jahre auf der Erde geschaffen wurden. Die Energie kam von der Sonne [2]. Integriert über lange geologische Zeiträume, es wurde täglich Sonnenenergie in Chemikalien durch die Photosynthese der Pflanzen umgewandelt. Diese Chemikalien können, anders herum, wieder gezündet werden, um die gespeicherte Energie durch eine Reaktion mit Sauerstoff (Oxidationsreduktion) wieder freizusetzen [3]. Sobald sie verbraucht sind, stehen sie dem menschlichen Lebenszyklus nicht mehr zur Verfügung.

Was ist Energie? Ein Physiker wird antworten: "die Fähigkeit, Arbeit zu verrichten": Ausführlicher wird er sagen: "Energie ist eine Eigenschaft von Objekten, die in andere Objekte übertragen oder in verschiedene Formen umgewandelt werden können, kann aber nicht erschaffen oder zerstört werden."

Eine Hausfrau wird sagen: Energie ist das, was unsere Autos bewegt, unsere Flugzeuge antreibt, unser Essen kocht, und uns im Winter warm hält – im Sommer kühlt.

[Jedoch] können Sie keine Welt mit geschätzten 9 Milliarden Menschen im Jahr 2060 mit Energie aus Solarzellen und Windturbinen versorgen. Sie sind nicht von nachhaltiger Bedeutung, sie können Energie nicht schnell genug schaffen, um sich selbst zu reproduzieren (zu erweitern) und Energie für die Menschen bieten. Der Grund dafür ist, dass die Menge an Energie die von der Sonne empfangen wird, zu sehr „verdünnt“ ist, das bedeutet, wir erhalten nur  eine sehr geringe Menge an Energie pro Fläche und nur für eine relativ kurze Zeit angesichts des Tag-Nacht-Zyklus und der Wetterbedingungen [4 ].

Die Windenergie ist ein Nebeneffekt der Solarenergie, weil Wind durch die Absorption der Wärmeenergie der Sonne durch die Atmosphäre erzeugt wird, in Verbindung mit dem Coriolis-Effekt [5]. Dies basiert auf der Drehung der Erde in Verbindung mit Unterschieden im Atmosphärendruck in Bezug auf Elevation, Berge und dergleichen [6].

Wasserkraft aus aufgestauten Flüssen ist auch ein Nebeneffekt der Solarenergie. Die Bewegung des Wassers in dem weiten System von Flüssen der Erde geschieht durch Sonnenenergie. Dies geschieht, weil Meerwasser verdunstet, Wolken bildet und schließlich Wasser als Regen und Schnee unsere Flüsse füllt und zum Meer fließt, von den höheren Lagen durch die Schwerkraft angetrieben. Im Gegensatz zu Solar- und Wind, kann Wasserkraft kontinuierlich Material [Masse = Wasser] bewegen, hat aber begrenzte Mengen an Energie.

Die obige Abbildung zeigt die Energieflussdichte in Million Joule per litter [je Entwicklungszeitraum?] auf der linken vertikalen Achse mit einer Skala die von 10^-9 bis 10^7 in wissenschaftlicher Notation umspannt. Die horizontale Achse zeigt in der oberen Reihe die Zeit ab Null der aktuellen Zeitrechnung bis 2200. Die untere Reihe zeigt die direkt der weltweite Bevölkerung zur Verfügung stehende Energie, um Nahrung, Trinkwasser zu produzieren und für die Menschen Komfort zu bieten. Wie man sieht, wenn fossile Kohlenwasserstoff-Kraftstoffe in der Menge nicht mehr verfügbar sind, muss die Fusionsenergie entwickelt werden oder die weltweite Bevölkerung wird zu dem vorindustriellen Zeitalter, wie in den 1600er Jahren schrumpfen. Die Energieflussdichte gibt an, wie viel Energie je Volumeneinheit in einer Energiequelle enthalten ist.

Anlage 1 zeigt eine Tabelle für verschiedene Energiequellen.

Wir müssen beginnen, dass zu entwickeln, was Dr. Steve Cowley in Großbritannien "Energie aus dem Wissen" nennt, die Umwandlung von Masse in Energie [7]. Albert Einstein formulierte die Beziehung zwischen Energie und Masse in seiner berühmten Gleichung E = mc2. Dies bedeutet, dass eine sehr kleine Menge an Masse gleich einer sehr großen Menge an Energie ist, wie Dr. Einstein in seiner eigenen Stimme beschreibt [8].

Wir müssen es lösen, Energie langfristig durch die Umwandlung von Materie in Energie zu bekommen. Keine andere Energiequelle hat eine geeignetere Energieflussdichte, um unseren Strom-, Transport-, Trinkwasser und landwirtschaftlichen Bedarf bereitzustellen, wenn fossile -Kraftstoffe mal nicht mehr rentabel zu liefern sind [9].

Wir müssen jetzt beginnen, weil es mehrere Jahrzehnte dauern wird, diese Wissenschaft zu beherrschen. Wir begannen diese Reise, als wir die Kernspaltung entwickelten. Allerdings ist Kernspaltung keine langfristige Lösung aus mehreren Gründen; vor allem weil es langfristige radioaktive Abfälle produziert.

Der nächste Schritt ist die Entwicklung von Kernfusion. Fusion ist ganz anders als Kernspaltung [10-11-12]. Es nutzt leichte Elemente in dem Brennstoffkreislauf, ist ausfallsicher und kann keiner Umwelt schaden. Es hat die höchste Flussdichte von jeder Energiequelle, kurz vor der Materie-Antimaterie Zerstrahlung.

Es wird noch einige Jahre der reinen experimentellen wissenschaftlichen Forschung dauern, eine nachhaltige Fusionsreaktion im Labor zu demonstrieren, die einen Netto-Energiegewinn produziert, das heißt mehr Energie abgibt als „hineingesteckt" wurde, um die Energieproduktion zu starten [13].

Sobald die kontrollierte Kernfusion in einer kontrollierten Umgebung erprobt ist, unabhängig davon, wie teuer und kompliziert der Reaktor Mechanismus und die Einrichtung ist, wird der Einfallsreichtum des Menschen im privaten Sektor übernehmen. Die Komplexität und die Kosten werden nach unten getrieben, wie die Wende des 20. Jahrhunderts, als Vakuumröhren Transistoren wichen und später durch Microcomputer-on-a-Chip abgelöst wurden.

Das ist das große Problem. Wenn wir das nicht lösen kann, werden wir in 50 bis 100 Jahren unsere Kohle, Öl und Erdgas-Ressourcen nicht mehr wirtschaftlich und ökologisch nutzen können [14].

Dann kehrt die Menschheit wieder zurück im 16. Jahrhundert zu Leben. Wenn wir die Energiefrage nicht lösen, ist das ganze Argument von guten Umweltstandards strittig. Warum? Denn in weniger als 100 Jahren werden wir nicht länger fossile Kohlenwasserstoff-Kraftstoffe verbrennen. Die globale Erwärmung und den durch den Menschen verursachten Klimawandel, ist kein Thema mehr. Das Problem löst sich von selbst. In wenigen tausend Jahren wird die Natur …in geologischen und geochemischen Prozessen … die meisten Zeichen unserer Vergangenheit und der Industrialisierung löschen.

Wenn es nicht genügend kognitiv intelligente Menschen gibt, die fähig sind zu denken und das Beste [für unsere Zukunft] unterscheiden können, ist es ein nicht daraus folgender Punkt, dass Außerirdische nicht zu unserem Planeten strömen [it is a nonconsequential point as aliens are not flocking to our planet] Niemand oder kein Ding wird jemals den Unterschied kennen. Damit stellt sich die Frage: "Gibt es intelligentes Leben auf der Erde" Dieser Autor glaubt es so. Wie Bill & Melinda Gates in ihrer jüngsten Ausgabe des jährlichen offenen Briefes vor kurzem erklärten, braucht unsere Jugend die Herausforderung, um zu entwickeln, was sie ein "Energiewunder" [15] nennen.

Dies ist das größte Problem dem sich die Menschheit gegenüber sieht. Klimawandel … wenn durch den Menschen verursacht … kehrt sich automatisch in den nächsten 100 Jahren um. Aber wenn wir die Energiefrage nicht lösen, wird sich die Bevölkerung um mehr als einen Faktor 10 im Laufe der folgenden 100 Jahren reduzieren. Zusammengefasst, als Spezies müssen wir diese Realität erkennen und das Rennen um Energie heute beginnen.

Referenzen:

[1] Another Climate Alarmist Admits Real Motive Behind Warming Scare, Investor’s Business Daily, March 29, 2016.

[Ein weiterer Klimaalarmist gibt die wahren Motive hinter der Angst vor Erwärmung zu. – hier und hier berichtet]

[2] Tamarkin, Tom D., Energy Basics; Where does energy on our planet come from?, Fusion 4 Freedom.

[3] Heats of Combustion, UC Davis Chemistry Wiki.
[4] Lawson, Barrie & Tamarkin, Tom D., Going Solar-System Requirements For Solar Generated Utility Baseload Power, Fusion 4 Freedom.
[5] Consequences of Rotation for Weather; Coriolis Forces, Universe of Tennessee Knoxville.
[6] Atmospheric Pressure at Different Altitudes, AVS Science & Technology of Materials, Interfaces, & Processing, https://www.avs.org/.
[7] Fusion energy with Professor Steven Cowley, Culham Centre for Fusion Energy, UK.
[8] William Tucker, Ph.D., Understanding E = MC2, Dr. Albert Einstein in his own voice & explanation, Energytribune.com.
[9] Tamarkin, Tom D., Energy Basics, Comparison of fuel energy flux densities, Fusion 4 Freedom.
[10] Duke Energy Nuclear Information Center, Fission vs. Fusion – What’s the Difference?
[11] Lawson, Barrie, Nuclear Fission Theory, Fusion 4 Freedom.
[12] Lawson, Barrie, Nuclear Fusion-The Theory, Fusion 4 Freedom.
[13] Tamarkin, Tom D., Fusion Energy; Too Important to Fail – Too Big To Hoard, Fusion 4 Freedom.
[14] Tamarkin, Tom D. 2060 And Lights Out: How Will America Survive Without Oil?, Inquisitir Special Report, http://www.inquisitr.com.
[15] Gates, Bill & Melinda, Gates Foundation Annual Open Letter, James, Murray, Guardian, February 24, 2016.


Anhang 1

Vergleiche der Energieflussdichte

Energiedichte ist die Menge an Energie, die in einem gegebenen System oder Volumeneinheit gespeichert ist. Spezifische Energie ist die gespeicherte Menge der Energie pro Einheitsmasse (Gewicht). Nur die nützliche oder extrahierbare Energie wird gemessen. Es ist sinnvoll, die Energiedichten der verschiedenen Energiequellen zu vergleichen. An der Spitze der Liste ist Fusion, gefolgt durch Kernspaltung und dann den aus Erdöl, Kohle und Erdgas abgeleiteten Treibstoffen. Am unteren Ende der Liste sind Batterien, die entweder Energie erzeugen oder Energie speichern sowie "Erneuerbare Energien" wie Solar.

1 kg Deuterium fusioniert mit 1,5 kg Tritium kann 87,4 GWh Elektrizität erzeugen

Hier sind die zugrunde liegenden Berechnungen, zur Unterstützung der vorstehenden Feststellung:

Die Energie, die durch Fusion von 1 Atom Deuterium mit 1 Atom Tritium freigesetzt ist 17,6 MeV = 2,8 X 10^12 Joules.

Dann entspricht die Energie, die durch die Fusion von 1 kg Deuterium mit 1,5 kg Tritium freigesetzt wird: 2,8 X 10^12x 2,99 X 10^26 = 8,3 X 10^14 Joules = (8,3 · 10^14) / (3,6 x 10^12) = 230 GWh.

Diese Energie wird als Wärme freigesetzt. Ein konventionelles Dampfturbinen-Kraftwerk mit einem Wirkungsgrad von 38%, würde 87.4GWh Strom erzeugen

1 Deuterium ist ein natürlich vorkommendes Isotop von Wasserstoff, leicht erhältlich aus Meerwasser.

2 Tritium wird in einem Fusionsreaktor als Teil des Brennstoffzyklus und des Energie-Austauschverfahrens aus Lithium hergestellt. Lithium ist ein reichlich und natürlich vorkommendes Element.

Vergleich der Energiedichte konventioneller Brennstoffe

[Anmerkung: „Nuclear fission = Kernspaltung“]

 Vergleich von „erneuerbaren“ Energiedichten

1 Wie viel Sonnenenergie pro Kubikmeter ist das? Das Volumen des Raumes zwischen einem Quadratmeter-Fleck auf der Erde und im Mittelpunkt unserer Umlaufbahn um die Sonne beträgt 50 Milliarden Kubikmeter (die Erde ist 150 Milliarden Meter von der Sonne entfernt oder 4.000 Erd-Umfänge). Die Aufteilung der nutzbaren 100 Watt pro Quadratmeter auf dieses Volumen ergibt zweimillionstel Watt pro Kubikmeter. Sonnenlicht braucht etwa acht Minuten (499 Sekunden), um die Erde zu erreichen. Multipliziert man 499 Sekunden mit sechsundzwanzig millionstel W / m3 ergibt, dass die Sonnenstrahlung eine Energiedichte von 1,5 Mikrojoule pro Kubikmeter (1,5 x 10-6 J / m3) hat.

2 Die einzige Möglichkeit, Wärmeenergie aus der Atmosphäre zu extrahieren ist, ein isoliertes Rohr zwischen dieser und einem Reservoir mit einer niedrigeren Temperatur (vorzugsweise eine viel niedrigere) zu konstruieren. So funktionieren Erdwärmepumpen. Die typische Bodentemperatur ist 11,1° C (284 K). An einem 32°C Tag, hat ein solches System einen Spitzenwirkungsgrad von 7% und eine Leistungsdichte von nur 0,05 mW / m3 (Stopa und Wojnarowski 2006): typische Oberflächenleistungsflüsse für Geothermie-Bohrungen sind in der Größenordnung von 50 mW / m2 und haben eine typische Tiefe von 1 km. Um die Energiedichte zu finden, muss eine charakteristische Zeit enthalten sein. Die verwendete Zeit entspricht der Zeit um Wasser in den Boden zu pumpen und einmal durch das System zu zirkulieren. Diese Zahl ist in der Größenordnung von zehn Tagen (Sanjuan et al. 2006). Die daraus resultierende Energiedichte beträgt 0,05 J / m3 oder rund zwei bis drei Größenordnungen niedriger als Wind oder Wellen.

3 Wind wird durch Änderungen in der Wetterstruktur angetrieben, die wiederum durch thermische Gradienten angetrieben wird. Gezeiten werden durch Schwankungen der Schwerkraft angetrieben, erzeugt durch den Umlauf des Mondes um die Erde. Die Energiedichten von Wind- und Wassersystemen sind proportional zur Masse m, die durch sie bewegt wird und dem Quadrat der Geschwindigkeit v, dieser Masse oder ½mv2. Auf Meereshöhe, hat Luft mit einer Dichte von etwa 1 kg pro Kubikmeter die sich mit fünf Metern pro Sekunde bewegt (18 km/h) eine kinetische Energie von 12,5 Joule pro Kubikmeter. Die Anwendung des Betz Gesetzes (Betz 1926) begrenzt die Effizienz auf 59%, ergibt etwa sieben Joule pro Kubikmeter. So ist die Energiedichte der Windenergie an einem mäßig windigen Tag, mehr als eine Million Mal größer als Solarenergie.

Es gibt zwei vorherrschende Mechanismen, um Gezeitenenergie zu extrahieren. In [dem] einen System bewegen sich Dämme mit dem Aufstieg und Abstieg der Gezeiten nach oben und nach unten, um Energie zu extrahieren. Bei der zweiten Strategie wirken Gezeitensysteme wie Unterwasser-Windkraftanlagen, die Energie aus Tidenströmungen extrahieren, wenn sie sich vorbei bewegen. Wie bei Wind, ist die Energie einer sich bewegenden Wassermenge auch ½mv2. Tidal-Systeme haben den Vorteil gegenüber Windsystemen, dass Wasser rund tausend Mal dichter als Luft ist.

Ihr Nachteil liegt in der Regel bei zu niedrigen Gezeitengeschwindigkeiten von nur zehn Zentimetern pro Sekunde bis zu einem Meter pro Sekunde. Somit ergibt ein Kubikmeter Wasser, mit einer Masse von ungefähr 1000 kg, eine Energiedichte von etwa fünf Joule pro Kubikmeter für langsame Wasserbewegungen1 und fünfhundert Joule pro Kubikmeter für schnelle Wasserbewegungen2. Diese sind ebenfalls Gegenstand des Betz‘chen Gesetzes und stellen nur Spitzenwerte dar, so dass die mittleren Energiedichten näher an der Hälfte eines Joule pro Kubikmeter bis fünfzig Joule pro Kubikmeter liegen oder etwa die gleiche wie bei Wind.

1 kinetische Energie (Tidal niedrige Geschwindigkeit) = ½ mv2 = ½ · 1000 kg · (0,1 m / s)² = 5 Joule.

2 kinetische Energie (Tidal hohe Geschwindigkeit) = ½ mv2 = ½ · 1000 kg · (1 m / s)² = 500 Joule.

Erschienen auf WUWT am 14. April 2016 und auch auf Fusion for freedom am 15. April 2016

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2016/04/14/climate-change-wont-kill-you-having-no-electrical-power-will/

+++++++++++++

Für unsere Leser gefunden und übersetzt; Andreas Demmig:

Ein Kommentar auf WUWT von ristvan,  14. April 2016 um 10:35 Uhr

Abgebrannte Brennelemente können mit dem MOX-Verfahren recycelt werden, wie Frankreich und Japan zu tun. Diese reduziert das Volumen radioaktiver Abfälle stark, die dann in Glas eingeschlossen werden können. In den 1970er Jahren beschlossen die USA auf Grund der nicht Weitergabe von Atomwaffen dieses Verfahren weiter anzuwenden. Diese Idee hat nicht funktioniert. Aus politischen Gründen haben die US dann die Endlagerung nicht verfolgt.

Die Antwort auf IMO [International Maritime Organization regulations] ist ein geschmolzenes LiF (nicht Natrium) Salzreaktor der im U-P-Zyklus läuft, angetrieben mit all den abgebrannten Brennelementen die herumliegen. Das brütet und verbraucht dann seinen Brennstoff und hinterlässt nur geringe Mengen an radioaktiven Abfällen. Die Empfehlung [white paper] der Transatomic Power auf ‚WAMSR‘ [Waste Annihilating Molten Salt Reactor] ist ein seriöser Augenöffner über die Möglichkeiten der Gen 4 Spaltung. Keines der technischen Probleme, die sie ansprechen [diskutieren] sieht aus wie reine „Engineering Showstopper“.

Trägheitsfusion ist eine Chimäre, wie die National Ignition Facility gezeigt hat. ITER kann oder kann auch nicht funktionieren, aber das Programm deutet darauf hin, dass bereits die Wirtschaftlichkeit suspekt ist. Lockheed Skunkworks „high beta magnetic confinement“ [hoher Beta magnetischer Einschluss -?] sieht vielversprechend aus, ist aber unterfinanziert. Ob es jemals ‚real‘ sein wird, ist unbekannt. Hohe Beta-Plasmaeinschluss Beweis des Prinzips ist sehr weit von einem Pilotfusionsreaktor.

Der Nachweis des “High beta plasma confinement” Prinzips ist weit entfernt von einer Pilotanwendung in einem Fusionsreaktor.

Nehmen Sie die über $ 2,3 Milliarden jährlich die für US-Klimaforschung ausgegeben wird und verwenden Sie $ 0,3 für verbesserte Wettervorhersagen, $ 1.5 auf WAMSR und $ 0,5 auf der Skunkworks mit “High beta plasma confinement” Fusion. Schließlich ist die die Klimawissenschaft abgeschlossen [settled], sodass weitere Klimaforschung nicht erforderlich ist. Trenberth und Schmidt können sich schon mal sinnvolle Arbeitsplätze suchen.




Atlantik zeigt Anzeichen eines bedeutenden Übergangs in eine Kaltphase

Übersicht

Zusätzlich zu solaren Zyklen spielen Temperaturzyklen in den planetarischen Ozeanen kritische Rollen in unserem sich fortwährend änderndem Klima und auch für die Ausdehnung des globalen Meereises. Ozeanische Temperaturzyklen dauern oftmals ziemlich lange, und eine Warm- bzw. Kaltphase kann durchaus zwei oder drei Jahrzehnte andauern. Allgemein gab es im Atlantik von Anfang der sechziger bis Mitte der neunziger Jahre eine Kaltphase, die seitdem in eine bis heute andauernde Warmphase übergegangen war. Die gegenwärtige Warmphase zeigt aber jetzt Anzeichen für den Übergang in eine weitere langzeitliche Kaltphase, und dies könnte ernste Auswirkungen auf das Klima in den USA [und sicher auch in Europa, Anm. d. Übers.] sowie die globale Eisausdehnung auf der Nordhemisphäre haben.

Jüngste Temperaturtrends im Atlantischen Ozean

Der Vergleich der Anomaliekarten der Wassertemperatur von August 2014 (oben) und heute (unten) zeigt einen beachtlichen Temperaturrückgang in weiten Gebieten des Nordatlantiks. Die ziemlich kleinräumigen Gebiete mit unternormalen Wassertemperaturen (blau) vom August 2014 haben sich jüngsten Messungen zufolge erheblich ausgedehnt. Außerdem haben sich die Bereiche mit übernormaler Wassertemperatur (orange) vom August 2014 östlich und südlich von Grünland dramatisch abgekühlt.

Langfristige Temperaturtrends im Atlantischen Ozean

In größeren Zeitrahmen gibt es unterstützende Beweise vom National Oceanographic Data Center, denen zufolge tatsächlich irgendetwas Bedeutendes im Nordatlantik vor sich geht. Seit etwa Anfang 2007 gab es einen definitiven Abwärtstrend der „monatlichen Wärmegehalts-Anomalie“ in den oberen 700 m des Nordatlantik (Bereich mit Pfeil). Der Wärmegehalt in diesem Bereich des Atlantiks scheint ziemlich scharf gestiegen zu sein ab etwa Mitte der neunziger Jahre mit einem Höhepunkt Anfang 2007.

Globale monatliche Wärmegehalts-Anomalie (GJ/m²) in den oberen 700 m des Nordatlantiks seit Januar 1955. Die dünne Linie zeigt monatliche Werte und die dicke Linie das einfache gleitende Mittel über 37 Monate (ca. 3 Jahre). Datenquelle: National Oceanographic Data Center (NODC), www.climate4you.com. Letzter gezeigter Zeitraum: Oktober bis Dezember 2015.

Atlantische Multidekadische Oszillation (AMO)

Eine Art und Weise, wie Meteorologen die Verteilung der Wassertemperatur im Nordatlantik überwachen können, ist mittels eines Indexwertes, der als die Atlantische Multidekadische Oszillation AMO bekannt ist. Positive (negative) Phasen der AMO fallen zusammen mit wärmeren (kälteren) Wassertemperaturen im Nordatlantik. Die AMO steht in Beziehung zu dekadischen Klima-Fluktuationen wie etwa die sommerliche Niederschlagsmenge in Europa, die Hurrikane im Atlantik und Variationen der globalen Temperaturen. Die monatlichen Werte des AMO-Index‘ zeigt die folgende Abbildung für den Zeitraum 1870 bis 2015, wo positive Werte (rot) Perioden mit übernormalen und negative Werte (blau) Perioden mit unternormalen Temperaturen repräsentieren. Die Zyklen der Wassertemperatur haben dazu tendiert, etwa zwei oder drei Jahrzehnte anzuhalten, bevor es zu einer Phasenänderung kommt. Die letzte große Phasenänderung (von kalt zu warm) ereignete sich in der zweiten Hälfte des vorigen Jahrzehnts und hat seitdem allgemein abgenommen, was die These stützt, dass gegenwärtig tatsächlich eine Abkühlung im Nordatlantik im Gange ist.

Gemessener AMO-Index, definiert als trendbereinigtes 10-year low-pass filtered annual mean area-averaged SST anomalies over the North Atlantic basin (0N-65N, 80W-0E), using HadISST dataset (Rayner, et al., 2003) for the period 1870-2015.;  courtesy NCAR: https://climatedataguide.ucar.edu/climate-data/atlantic-multi-decadal-oscillation-amo

Computermodell-Vorhersage der Wassertemperatur im Nordatlantik

Ein Hinweis darauf, dass dieser offensichtliche Abwärtstrend der Wassertemperaturen im Nordatlantik länger anhalten wird, stammt von der Japan Agency for Marine-Earth Science and Technology (JAMSTEC). Die globalen saisonalen Vorhersagen von Anomalien der Wassertemperatur erwiesen sich in der Vergangenheit als ziemlich gut, und deren jüngste langfristige Vorhersage (unten) zeigt, dass es ein ziemlich großes Gebiet mit unternormaler Wassertemperatur im Nordatlantik geben wird, und zwar im Winter 2016/2017 (eingekreiste blaue Region).

Modellvorhersage der JAMSTEC der Wassertemperatur-Anomalien für den Winter 2016/17.

Konsequenzen für die Ausdehnung von Meereis auf der Nordhemisphäre

Falls der Atlantik wirklich in eine Kaltphase wechselt (d. h. negative AMO), würde dies sehr wahrscheinlich bedeutende Auswirkungen auf das Meereis der Nordhemisphäre haben. Die Meereis-Ausdehnung auf der Nordhemisphäre war vor Mitte der neunziger Jahre allgemein größer als normal (Pfeil in der Graphik unten), bis die Temperaturphase des Nordatlantiks von kalt nach warm schwang. Nachdem sich die Warmphase des Nordatlantiks bis Ende der neunziger Jahre etabliert hatte, zeigte die Eisausdehnung der Nordhemisphäre einen scharfen Abwärtstrend von positiven Niveaus in den deutlich negativen Bereich. Während der letzten Jahre zeigte die Eisausdehnung einen gezackten Trend auf diesem unternormalen Niveau. Falls sich jedoch die Anzeichen einer möglichen Temperatur-Phasenänderung im Nordatlantik bestätigen (manchmal gibt es irreführende Anzeichen), dürfte sich das Meereis auf der Nordhemisphäre sehr wahrscheinlich wieder in nicht allzu ferner Zukunft übernormal ausdehnen – genauso wie es während der letzten Kaltphase vor Mitte der neunziger Jahre der Fall gewesen war.

Northern Hemisphere sea ice areal extent from 1979-2015; courtesy University of Illinois “cryosphere”, NOAA

Link: http://www.thegwpf.com/atlantic-ocean-showing-signs-of-a-significant-shift-to-cold-phase/

Übersetzt von Chris Frey EIKE

Bemerkung: Wer die Wassertemperatur-Anomalien täglich verfolgen will, der klicke auf diesen Link: http://weather.unisys.com/surface/sst_anom.gif. Da zeigt sich, dass offenbar auch im Nordpazifik eine massive Abkühlung des Wassers im Gange ist.




AfD mit historischen Entscheidungen – u.a. will sie den „Klimaschutz“ und die Energiewende beenden, Kernkraftwerke sollen weiterlaufen.

Es gibt sie noch die guten Nachrichten. Und es gibt sie auch deshalb, weil die schlechten Nachrichten fortbestehen, und die bestehen fort, weil die Politik die großen Probleme, die sie oft selber erst angerichtet hat, nicht löst. Gar nicht daran denkt sie zu lösen, auch wenn dies leicht möglich wäre. Deswegen wird die AfD als ernstzunehmende Kraft des Protests nicht nur noch lange bestehen bleiben, sondern auch zügig und jeden Tag mehr an Zustimmung  gewinnen.  Um das zu erkennen, braucht man kein Politikwissenschaftler zu sein, es genügt das Geschehen in diesem Lande aufmerksam zu beobachten.

Und das bringt uns zu den guten Nachrichten. Denn die AfD hat soeben auf ihrem Programm-Parteitag in Stuttgart ein Grundsatz-Programm mit klaren Aussagen zu vielen Aufreger-Themen beschlossen und sich dabei keinen Deut um die political correctness geschert. Was wiederum das gesamte politische Gewerbe, welches sich um die veröffentlichte Meinung kümmert, bzw. darum, dass diese im Rahmen der oben bereits genannten von ihnen bestimmten political correctness bleibt, in hellste Aufregung versetzte. Manche sogar in vorübergehende Resignation trieb. So wie den – im Zweifel linken-  Millionen Erben Jacob Augstein, der es auf SPON so formulierte: Zu spät.

Schluss mit der verheerenden Klima- und Energiepolitik

Ein Aufregerthema von vielen war und ist das Kapitel 12 des Grundsatzprogrammes. (Siehe Programm Auszug als pdf im Anhang) Darin stehen so schlimme Sachen wie

* KLI­MA­SCHUTZ­PO­LI­TIK:IRR­WEG  BE­EN­DEN,UM­WELT SCHÜT­ZEN

* DAS ER­NEU­ER­BA­RE‐ENER­GI­EN‐GE­SETZ    IST  NICHT  RE­FOR­MIER­BAR

* ZUM SCHUTZ VON MIE­TERN UND EI­GEN­TÜ­MERN:ENER­GIE­SPAR­VER­ORD­NUNG   UND ER­NEU­ER­BA­RE‐ENER­GI­EN‐WÄR­ME‐GE­SETZ AB­SCHAF­FEN

* BI­O­ENER­GIE:SUB­VEN­TI­O­NEN  BE­EN­DEN,VOR­RANGEIN‐SPEI­SUNG EIN­STEL­LEN

* FRA­CKING:RI­SI­KEN UND CHAN­CEN ER­FOR­SCHEN, NICHT OHNE BÜR­GER­BE­TEI­LI­GUNG

* KERN­ENER­GIE:AL­TER­NA­TI­VEN ERFORSCHEN.BIS DA­HIN 13LAUF­ZEIT­VER­LÄN­GE­RUNG

Und damit all das, was seriöse Natur-Wissenschaftler,  kluge Ingenieure und Leute, die mit klarem Kopf durchs Leben gehen, schon lange fordern, also solche, die nicht – direkt oder indirekt – im Sold des Öko-Industriellen Komplexes stehen, oder sich ungeachtet aller Propaganda ihren gesunden Menschenverstand bewahrt haben, und klugerweise davon ausgehen, dass die Politik zwar alle menschgemachten Regeln und Gesetze brechen kann und bei Bedarf auch brechen wird, aber nicht die Gesetze der Natur.

Das alles steht nun im Grundsatzprogramm einer  ernstzunehmenden politischen Kraft, die sich als Partei anschickt die gleichgeschaltete Parteienlandschaft in diesem Lande aufzumischen. Das ist die gute Nachricht.

Video vom Antrag zur Geschäftsordnung das Kapitel 12 direkt und ohne Diskussion zur Sofortabstimmung zu stellen. Die Person 2.v.links ist der Autor (mit Dank an R. Hoffman für den Hinweis auf diesen Ausschnitt vom Lifestream)

Die Hürden waren auch bei der AfD hoch

Doch bis es dazu kam war manche, zum Teil sehr hohe Hürde, zu nehmen. Und dies lag an der Fülle der Änderungsanträge (über 80 allein zum Kapitel 12 und > 1500 zu allen Kapiteln) und den Eigentümlichkeiten eines Mitgliederparteitages. In Vorbereitung desselben erhielten die Leiter der zuständigen Bundesfachausschüsse (BFA) -hier geht es um den BFA 10 zuständig für Energie, Klima und Infrastruktur, dem der Verfasser die Ehre hat anzugehören- die Aufgabe, die Fülle der Gegenanträge zu sortieren, einzelnen Themen zuzuordnen und dem Parteitag Empfehlungen zu geben, wie aus fachlicher Sicht damit umzugehen sei. Also entweder mit oder ohne Diskussion annehmen oder mit oder ohne Diskussion ablehnen.

Obwohl in der zuvor durchgeführten Online-Umfrage mit rd 5000 Teilnehmern sich schon ein klares positives Stimmungsbild abgezeichnete, mit Zustimmungswerten zwischen 75 % bis 90 % zu den obigen Themen, war diese große Zustimmung beim allein entscheidenden Mitgliederparteitag durchaus nicht sicher. Denn die Gegner gaben nicht auf, sondern versuchten mit einer Fülle von Änderungsanträgen, oft in identischem Wortlaut, oft auch von denselben Personen, aber versteckt unter verschiedenen Hüten – die  Rede war (Siehe Youtube Video) von 14 Kreisverbänden, 3 Landesverbänden und 1 Bundesfachausschuss, die dagegen seien-  den Eindruck zu erwecken, dass hier hochstrittige Aussagen getroffen würden, die eine Mehrheit der Teilnehmer nicht teilen würden.

Der Parteitag beschließt was und so oft er will

Auch deshalb hätte alle Vorbereitung auch umsonst sein können, denn der Parteitag konnte mehrheitlich beschließen, was er wollte, ohne sich an Fristen oder zuvor bereits beschlossene Aussagen zu halten. Alles konnte beschlossen, geändert, zurück geändert, und wieder anders beschlossen werden. Und das war nur von der  Stimmungslage und jeweiligen Überzeugung der anwesenden Teilnehmer abhängig. Und die wiederum war abhängig davon, wer noch zum Zeitpunkt des Aufrufes des Kapitels anwesend war und konnte damit durchaus von geschickten, wenn auch nur kurzen Redebeiträgen, beeinflusst werden.

Darauf setzten die Gegner der Leitanträge ihre ganze Hoffnung und bauten ihre Strategie darauf auf.

Der späte Vogel fängt den Wurm—Überrumpelungsmanöver verpufft

Es war schnell klar, dass das Energiethema erst ziemlich am Schluss aufgerufen würde, dann, wenn schon viele Teilnehmer abgereist waren oder langen evtl. hitzigen Diskussionen nicht mehr folgen wollten. Also sollte ein Antrag zur Geschäftsordnung (GO Antrag), die immer absolut vorrangig zu behandeln sind, in einer Art Überrumpelungsmanöver fordern dass, das gesamte Kapitel 1 enbloque und ohne Diskussion zur Abstimmung gestellt werden müsse.

In der Annahme, dass im bereits sehr ausgedünnte Publikum, das zudem nach 2 Parteitagstagen müde war, die Gegner die Mehrheit stellen würden.

Doch dieser Schuss ging gründlich ins eigene Knie.

Denn der Parteitag beschloss erstens diesem GO-Antrag zu folgen  aber stimmte in der zweiten entscheidenden Abstimmung mit ca. 3/4 Mehrheit für die Annahme des kompletten Kapitels 12. Auch spätere Versuche der Gegner dies wieder rückgängig zu machen, scheiterten.

Damit hat zum ersten Mal seit Aufkommen der politisch künstlich geschürten Klimahysterie mit der ihr nachgeschalteten -nur ideologisch begründeten-  Energiewende, eine relevante schnell wachsende bereits heute große politische Kraft die offensive Bekämpfung derselben auf ihre Fahnen geschrieben.

Das kann in Bezug auf die verheerende Wirkung der offiziellen Klima- und Energiepolitik nur als Beschluss von historischer Bedeutung verstanden werden.  Sollte die AfD mit dieser Politik auch weiter Erfolg haben – und daran kann angesichts der schlimmen Entwicklung eigentlich kein Zweifel bestehen- dann werden die anderen Parteien, nach eher hilflosen Bekämpfungsversuchen, denn die Faktenlage ist eindeutig- diesem Beispiel folgen.

Eher früher als später.

Ob die Verantwortlichen dann mal für ihre verheerende Politik Klima- und Energiepolitik  zur Verantwortung  gezogen werden, ist eher unwahrscheinlich, so lehrt es uns die Geschichte. Doch historisch bedeutsam bleibt diese Entscheidung des gestrigen Tages allemal. Das dürfte damit der Anfang vom Ende dieser unseligen Politik in Deutschland gewesen sein.

Related Files




Autoren einer Studie zu Fracking bestürzt über gute Nachrichten

Hydraulisches Brechen ist ein Verfahren zur Extraktion von Öl und Erdgas aus hartem Felsgestein wie Schiefer und gepresstem Sandstein. Innerhalb von weniger als 10 Jahren hat Fracking die USA von einem „ferner liefen“ zu einer Energie-Supermacht und zum größten Erdgaserzeuger der Welt gemacht. Das Verfahren könnte auch die Erdgaserzeugung in UK ankurbeln, jedoch war das Fracking hier starker Opposition seitens Umweltgruppen ausgesetzt, die die potentiellen Auswirkungen von Bohren, Erzeugung und Schwerlastverkehr als Belastung für die Region ansehen.

Schwerlastverkehr geht einher mit stärkerem Lärm, Straßenschäden und Luftverschmutzung in Gestalt kleiner Partikel – welche als Abfall bei der Treibstoffverbrennung überall anfallen – im Vergleich zu leichteren Fahrzeugen. Die Autoren der Studie entwickelten ein Modell zur Auswirkung auf den Verkehr, um eine umweltliche Abschätzung sowohl der kurz- als auch der langfristigen Auswirkungen von Fracking an individuellen Bohrstätten vornehmen zu können. Auch Auswirkungen auf die Region wurden analysiert.

Dem von den Forschern entwickelten Modell zufolge wäre der Schwerlastverkehr in Bezug auf Fracking an einer individuellen Bohrstelle, einem Feld mit mehreren Bohrungen oder sogar einer ganzen Region vernachlässigbar im Vergleich zum Transportwesen in der Region als Ganzes oder im Vergleich mit einigen anderen Emissionen von etablierten Industriebereichen. Allerdings zeigten die Forscher auch die Möglichkeit auf, dass es zu einer Zunahme von Partikelemissionen kommen könnte während des Fracking-Prozesses, der es erforderlich macht, dass hunderte Lastwagen Wasser und Sand zu einer Bohrstelle bringen, obwohl aus der Studie nicht hervorgeht, ob Verschmutzungs-Standards überschritten werden würden.

Verschmutzungen durch kleine Partikel welcher Art auch immer können Auswirkungen auf die Gesundheit von Anwohnern haben, falls sie über gesundheitsbasierte Standards hinausgehen. Aber die Menschen müssten diesem Partikel-Bombardement lange Zeit ausgesetzt sein, um negative Gesundheitsauswirkungen hervorzurufen. Deshalb wird die Einwirkung schädlicher Partikel typischerweise gemessen als ein zeitlich gewichtetes Mittel über eine Reihe von Jahren (in den USA drei Jahre) um bestimmen zu können, ob es negative gesundheitliche Auswirkungen gibt. Die kurze Dauer, während der es den Schwerlastverkehr während des Frackings geben würde, hätte wahrscheinlich kaum Auswirkungen auf dieses längerfristige Mittel.

Ironischerweise könnte Fracking eine wichtige Rolle spielen bei der Reduktion von Partikel-Verschmutzung in UK während der kommenden Jahrzehnte, weil UK große Mengen von Dieseltreibstoff verbrannt hat, was weit mehr Partikel in die Luft freisetzt als die Verbrennung von Erdgas zur Stromerzeugung.

Eine stärkere Versorgung mit bezahlbarem Erdgas wird unabdingbar sein, falls UK auf Kohle und Diesel basierende Treibstoffe durch Erdgas ersetzen will, erzeugen diese doch Stickstoffoxide und einen Partikelausstoß auf deutlich höherem Niveau als Erdgas-Kraftwerke. Außerdem emittiert die Verbrennung von Erdgas etwa ein Drittel weniger CO2 in die Luft als Benzin oder Diesel [puh! Ohne das geht es wohl nicht! Anm. d. Übers.]

Obwohl die Autoren der Studie nicht begeistert tun über die Ergebnisse ihrer Studie, sollten es die Menschen in UK sehr wohl sein, weil in weiter gesteckten Zeitrahmen – die gesamte Lebensdauer einer Bohrstelle – Fracking nur zu einer vernachlässigbaren Zunahme grundlegender Verkehrsauswirkungen führen würde. Diese Ergebnisse zusammen mit den umweltlichen Vorteilen von Erdgas im Vergleich zu Kohle oder Diesel sollten umweltbewusste Menschen dazu bringen, über die umweltlichen Vorteile von Fracking noch einmal nachzudenken.

Link: http://news.heartland.org/editorial/2016/04/13/authors-fracking-study-dismayed-good-news

Übersetzt von Chris Frey EIKE




Beeinflusst die Sonnenaktivität die Luftströmungen über Deutschland?

Bild rechts: Sonnenaufgang (mit undeutlicher „Nebensonne“) bei Jena. Foto: Stefan Kämpfe

Einleitung

Die Sonnenaktivität unterliegt kurz-, mittel- und langfristigen Schwankungen. Ein sehr grobes, aber mit geringem Aufwand zu beobachtendes und daher das einzige über längere Zeiträume verfügbare Maß der Sonnenaktivität ist die Anzahl der Sonnenflecken (dunklere und damit etwas kühlere Bereiche auf der Sonnenoberfläche, die meist auf einen erhöhten solaren Magnetismus und Teilchenauswurf hindeuten). Da für diese Arbeit nur Daten im Zeithorizont von knapp 70 bis 135 Jahren verfügbar waren, sollen als wichtigste Aktivitätszyklen nur der SCHWABE- Zyklus (etwa 11jährig), der HALE- Zyklus (22jährig), der BRÜCKNER- Zyklus (etwa 35jährig, strittiger, von vielen Forschern angezweifelter Zyklus), der GLEISSBERG- Zyklus (knapp 90jährig) und der DE- VRIES- SUESS- Hauptsonnenzyklus (etwa 200jährig) genannt werden. Es gibt auch noch längere Zyklen von 1000 bis über 2000 Jahren Länge, deren Existenz mittels Proxydaten, unter anderem der Konzentration bestimmter Isotope, nachgewiesen wurde. Den ähnlichen Verlauf zwischen der Sonnenaktivität und den mittleren Temperaturabweichungen in Mitteleuropa verdeutlichen die folgenden 2 Abbildungen:

Abb. 1a und 1b: Anomalien der Sonnenfleckenanzahl je SCHWABE- Zyklus (oben) und mittlere Temperaturabweichung in Mitteleuropa je SCHWABE- Zyklus (unten), jeweils mit Polynom- Ausgleichskurven (schwarz). Quelle: H. MALBERG, ehemaliger Direktor des meteorologischen Instituts der FU Berlin. Die Ähnlichkeit beider Verläufe ist unverkennbar; in Phasen mit weniger Sonnenflecken (geringere Aktivität) dominierten negative, in Phasen mit erhöhter Sonnenaktivität hingegen positive Temperaturabweichungen.

Die nächste Abbildung veranschaulicht den Zusammenhang zwischen Sonnenaktivität und Lufttemperaturen anhand des GLEISSBERG- Zyklus:

Abb. 2: Enge Korrelation zwischen der an der Erdoberfläche gemessenen Lufttemperatur der nördlichen Hemisphäre (dicke Kurve) und der Intensität der Sonnenfleckentätigkeit im säkularen Gleissberg- Zyklus (dünne Kurve) nach Friis-Christensen und Lassen. Quelle: http://www.schulphysik.de/klima/landscheidt/sonne2.htm

Untersuchungsergebnisse

Der Autor dieses Beitrages beschäftigt sich seit einigen Jahren mit der Entwicklung der Häufigkeitsverhältnisse der Großwetterlagen in Mitteleuropa und fand dabei Zusammenhänge zwischen der Häufigkeit bestimmter Wetterlagen und der Sonnenaktivität:

Abb. 3a und 3b: Sonnenfleckenanzahl und Großwetterlagenhäufigkeiten (jeweils 11jährige Gleitmittel, Großwetterlagen- Cluster aus den Großwetterlagen nach HESS/BREZOWSKY). Oben tendenziell mehr Lagen mit nördlichem Strömungsanteil (blau) im Jahresmittel in Phasen mit geringerer Sonnenaktivität (gelb). Lagen mit nördlichem Strömungsanteil wirken in Deutschland meist abkühlend, besonders im Frühling und Frühsommer. Unten Häufigkeit atlantischer Tiefdruckwetterlagen (violett, diese windigen Westlagen sind im Winter meist mild) und der Troglagen (extrem meridionales Strömungsmuster, die Westdrift ist blockiert) im Winter. In Phasen mit höherer Sonnenaktivität häuften sich meist auch die atlantischen Tiefdruckwetterlagen; in Phasen mit geringer Sonnenaktivität (so auch gegenwärtig!) hingegen die Troglagen.

Die Großwetterlagenhäufigkeit (langfristig bis 1881, mit Unsicherheiten bis 1871 verfügbar sind nur die nach HESS/ BREZOWSKY klassifizierten Lagen) wird jedoch auch von zahlreichen anderen Eiflussfaktoren gesteuert, unter anderem von der NAO und der QBO (Nordatlantische Oszillation, und Quasi- zweijährige Oszillation der Stratosphärenwindrichtung, bedeutsam sind beide für die winterlichen Temperaturverhältnisse), der AMO (Atlantische Mehrzehnjährige Oszillation), den Temperaturverhältnissen im Indik und Pazifik, der arktischen Eisbedeckung und weiteren Faktoren. Näheres unter anderem bei http://www.eike-klima-energie.eu/climategate-anzeige/im-takt-der-amo-und-der-nao-2-das-haeufigkeitsverhalten-der-grosswetterlagenund-dessen-auswirkungen-auf-die-deutschland-temperaturen/ und http://www.eike-klima-energie.eu/climategate-anzeige/winter-201415-in-deutschland-erneut-zu-mild-warum/

Die Großwetterlagen werden aber ganz maßgeblich durch die Verhältnisse in höheren Luftschichten geprägt. In sogenannten Aerologischen Datensätzen findet man monatsweise Angaben zu den Windverhältnissen in höheren Luftschichten und Angaben zu den Höhenlagen der Druckflächen. Der „Zonalwind“ ist ein Maß für die Stärke des entlang der Breitenkreise (West- Ost-Richtung) wehenden Windanteils. Hat er ein positives Vorzeichen, so weht er aus Westen; bei negativem aus Osten. Im Folgenden wurde die Zonalwindstärke in der 500hPa- Druckfläche für den Gitterpunkt 50°N 10°E (liegt etwas südlich der Rhön und damit zentral in Deutschland) im Verhältnis zur Sonnenaktivität für den meteorologischen Winter (01.12. bis 28./29.02.) seit 1948/49 und für das Jahr seit 1948 dargestellt:

Abb. 4a und 4b: Zonalwindmittel (rot) für die Druckfläche 500 hPa (entspricht etwa 5.600 Metern Höhe im Mittel) am Gitterpunkt 50°N und 10°E, dazu die Sonnenaktivität (gelb, jeweils unten) und der Verlauf der AMO (grün, jeweils oben). Fette Kurven Polynome 6. Grades, etwas dünnere, dunklere 11jährige Gleitmittel (bei der AMO nicht gezeigt). Obere Abb. Verhältnisse im meteorolog. Winter, untere für das Jahr. Man erkennt in Phasen erhöhter Sonnenaktivität tendenziell eine erhöhte Zonalwindgeschwindigkeit. Zur AMO ergeben sich auf den ersten Blick keine eindeutigen Beziehungen; hier sind weitere Untersuchungen erforderlich.

Da Mitteleuropa in der Westwindzone der gemäßigten Breiten liegt, weht der Zonalwind im Jahresmittel stets und im Monatsmittel fast immer aus Westen (positives Vorzeichen). Weil die Witterungsverhältnisse am Boden von der Strömung in der mittleren Troposphäre ganz wesentlich gesteuert werden, gibt es in Zeiten mit höherer Zonalwindgeschwindigkeit tendenziell mehr Westlagen, was vorrangig im Winter, aber auch im Jahresmittel, zu höheren Lufttemperaturen in Deutschland führt (Golfstrom- Einfluss im weitesten Sinne):

Abb. 5a und 5b: Eine höhere Zonalwindgeschwindigkeit in der mittleren Troposphäre geht mit einer erhöhten Häufigkeit von Großwetterlagen mit Westanteil einher. Mit einem Korrelationskoeffizienten von r=0,59 (Bestimmtheitsmaß knapp 0,35) ist der Zusammenhang signifikant (oben). Mehr Lagen mit Westanteil bedeuten tendenziell höhere Jahresmitteltemperaturen in Deutschland (untere Abb.). Zwar ist der Zusammenhang mit r= 0,32 relativ undeutlich; betrachtet man aber nur den Winter, so ergibt sich im Zeitraum 1948/49 bis 2015/16 ein Korrelationskoeffizient von r=0,72 (Bestimmtheitsmaß knapp 52%), was hoch signifikant ist.

Abschließend werfen wir noch einen kurzen Blick auf die Höhenlage der 500 hPa- Druckfläche. Liegt diese höher, so befindet sich Warmluft in der mittleren und unteren Troposphäre, was meist (mit Ausnahmen!) auch höhere Lufttemperaturen am Boden zur Folge hat. Eine höhere Lage der 500 hPa- Druckfläche ist auch ein Indiz für eine nördlichere Lage des Jet- Streams und damit für ein insgesamt günstigeres (wärmeres) Klima in Deutschland. Der Zusammenhang zwischen Sonnenaktivität und Höhenlage der 500 hPa- Druckfläche ist geringer als beim Zonalwind, aber dennoch erkennbar; hier das Beispiel für den Winter:

Abb. 6: Im Winter erkennt man einen ähnlichen Verlauf der Höhenlage der 500 hPa- Druckfläche (rotviolett) und der Sonnenaktivität (gelb), beides mit 11jährigem Gleitmittel.

Zusammenfassung und Ausblick

Die Sonnenaktivität beeinflusst die Luftströmungen und Witterungsverhältnisse in Deutschland. Deutlich erkennbare Zusammenhänge bestehen zu den Häufigkeitsverhältnissen der Großwetterlagen (tendenziell mehr „Westwetter“ in Phasen mit hoher, aber mehr Nord- und Trogwetterlagen in Phasen mit geringerer Sonnenaktivität) und zu den Windverhältnissen in höheren Luftschichten (tendenziell erhöhte Westwind- Geschwindigkeit in Phasen mit erhöhter Sonnenaktivität). Ob auch Zusammenhänge zwischen der Sonnenaktivität, Höhenwindverhältnissen und der AMO bestehen, ließ sich, auch aufgrund des kurzen Untersuchungszeitraumes (die Aerologischen Daten waren erst ab 1948 verfügbar), nicht klären. Doch welche Bedeutung haben diese Untersuchungsergebnisse für die nahe Zukunft? Um diese Frage zu klären, betrachten wir zunächst einmal die Entwicklung und die Prognose der Sonnenaktivität im frühen 21. Jahrhundert:

Abb. 7: Monatlicher Verlauf der Anzahl der Sonnenflecken seit Januar 2000 mit Glättung (blau) und Prognose für die nächsten Jahre (rot). Der aktuelle SCHWABE- ZYKLUS Nr. 24 (rechte Bildhälfte) war schon deutlich schwächer als der 23. Zyklus, der sein Maximum kurz nach Beginn des Jahres 2000 hatte. Man erkennt die zu erwartende weiter nachlassende Aktivität (ganz rechts). Datenquelle http://www.swpc.noaa.gov/products/solar-cycle-progression

Da Witterung und Klima verzögert auf die nachlassende Sonnenaktivität reagieren, konnten wir uns in den ersten 15 Jahren des 21. Jahrhunderts noch über vorwiegend warmes Wetter freuen. Zwischen Ende 2002 und 2012 gab es jedoch schon erste, heftige Kälterückfälle (Winter 2002/03, 2004/05, 2005/06, 2008/09, 2009/10, 2010/ 11 und 2011/12). Nach dem noch sehr milden Winter 2015/16 ist die lang anhaltende Kälte zwischen Ende Februar und Ende April 2016 ein weiterer, möglicher Hinweis der beginnenden (vorwiegend solar bedingten) Abkühlungsphase, einhergehend mit einer ersten Häufung nördlicher Wetterlagen. Im „Horror- April“ 2016 gab es am Monatsanfang und noch nach dem 25.04. bergeweise Schnee in den Mittelgebirgen; aber selbst in tieferen Lagen schneiten die Frühlingsblüten teilweise ein:

Abb. 8: April- Schnee verdarb 2016 häufig die Frühlingsgefühle und die Baumblüte- ein Vorbote der möglichen Klimaabkühlung oder eine bloße Laune der Natur? Foto: Stefan Kämpfe

Und was passiert nach 2020? Die meisten Astrophysiker gehen von einer weiter nachlassenden Sonnenaktivität aus; der kommende 25. SCHWABE- Zyklus dürfte extrem schwach werden oder ganz ausfallen:

Abb. 9: Verlauf der Sonnenfleckenzahlen seit 1749. Man erkennt die sehr hohe Aktivität in der 2. Hälfte des 20. Jahrhunderts. Der nächste (25.) SCHWABE- Zyklus, der um oder kurz nach 2020 beginnen müsste, könnte extrem schwach ausfallen; diese Prognose ist aber noch sehr unsicher. Quelle der Abb. klimaskeptiker.info vom 25.01.2012, überarbeitet von Stefan Kämpfe

Schon ist ein neues „Maunder- Minimum“ (Höhepunkt der „Kleinen Eiszeit“ um 1680) in aller Munde. Aber selbst wenn dieses Horror- Szenario ausbleiben sollte und die Sonne weniger stark schwächelt, mit wieder öfter strengen Wintern, einer mindestens leichten Gesamtabkühlung und mit häufigeren Witterungsextremen müssen wir sehr wahrscheinlich rechnen. Die "Klimaerwärmung" findet nur in den realitätsfernen Modellrechnungen der überfinanzierten Klimaforschungsinstitute statt.

Stefan Kämpfe, Diplom- Agrar- Ingenieur, unabhängiger Natur- und Klimaforscher




April und Mai verhalten sich unterschiedlich

Bild rechts: April-Schnee! Bild: © Chris Frey

Grafik1: Links auf der y-Achse sind die Temperaturen aufgetragen. Auf der x-Achse die Jahre bis 2016. Der April hatte in den letzten 100 Jahren zwei Kältedellen, kurz nach 1920 und zwischen 1970 und 1985. Daneben gab es wärmere Jahrzehnte um 1945 und um 2010. Momentan befindet sich die Temperaturschwingung auf einem oberen Wendepunkt mit der beginnenden Tendenz zur Abkühlung. (Die Polynomtrendlinie überzeichnet zu stark am Ende)

Insgesamt jedoch sind die Temperaturen in den letzten 100 Jahren gestiegen, so dass der jetzige Höhepunkt über dem vor 70 Jahren liegt. Diese Tatsache ist aber noch kein Beweis, dass CO2 diese Erhöhung verursacht hat. Dazu verlangt die Naturwissenschaft einen Versuchsbeweis. Wir betonen: Es gibt keinen einzigen naturwissenschaftlich durchgeführten Versuchsnachweis, der belegt, dass mehr CO2 zur irgendwelchen Temperaturerhöhungen geführt hätte. Und: Es gibt auch keinerlei technische Anwendungen, bei welchen wir uns diesen behaupteten CO2-Erwärmungseffekt positiv zunutze gemacht hätten. Und: Es gibt auch keinerlei Beobachtungen aus der Natur selbst, wo höhere CO2-Konzentrationen zu Erwärmungen geführt hätten. Damit scheidet Kohlendioxid als Erwärmungsursache aus.

Aber halten wir beim April fest: Der April hatte in den letzten 100 Jahren zwei Temperaturhöhepunkte und zwei Kältedellen. Die letzte Kältedelle war erst vor 40 Jahren.

Betrachten wir nun den Mai

Grafik 2: Der Mai hatte im letzten Jahrhundert nur eine große zeitlich ausgedehnte Kältedelle um die Jahrhundertmitte. Der letzte Temperaturhöhepunkt ist bereits überschritten.

Weil die Kältedellen beider Monate zeitlich unterschiedlich waren, ergeben sich auch gänzlich andere Trendlinien der beiden Monate über die letzten 30 Jahre:

Grafik 3: Der April wurde in den letzten 30 Jahren angenehm wärmer. Er avancierte zu einem neuen zweiten Wonnemonat Mai. Die Frage ist: Wird er zukünftig die Erwärmung fortsetzen, sich immer weiter dem Mai nähern und bald konstant so warm sein wie die Maimonate vor 60 Jahren?

Grafik 4: Der Mai verhält sich ähnlich wie die Monate Januar bis März, bereits seit 1985, also seit 31 Jahren stagnieren die Temperaturen. (der Wert für 2016 fehlt natürlich noch)

Wird der April in Zukunft sich weiter dem Mai annähern? Unsere (vorsichtige) Antwort: Leider nein. Schon bei Grafik 1 konnte man erahnen, dass der April seinen Wärmehöhepunkt erst kürzlich überschritten hat und nun wohl leider auch seinem Abwärtstrend beginnt und langsam auf eine erneute Kältedelle zusteuert. Allerdings nicht so krass fallend wie die Polynomtrendlinie dies in Grafik 1 beschreibt. Weil der letzte Temperaturhöhepunkt der Aprilschwingung zeitlich später war, ist die Deutschland-Trendlinie des Monats April auch erst seit 2002, also seit 15 Aprilmonaten ausgeglichen.

Grafik 5: Der April zeigt erst seit 15 Jahren eine ebene Trendlinie, was auf eine Stagnation der Temperaturen seit 14/15 Jahren hindeutet.

Allerdings ist das unterschiedliche Temperatur-Schwingungsverhalten der beiden Frühlingsmonate nichts Ungewöhnliches, die nächste Grafik zeigt, dass sich April und Mai schon öfters unterschiedlich verhielten und sich (vorübergehend) gar einholten

Grafik 6: Beim 11-jährigen Gleitmittel ist das unterschiedliche Temperaturverhalten der beiden Monate besonders gut zu sehen. Besonders vor 150 Jahren kamen sich beide Monate einmal recht nahe

Anmerkung: Erst im Jahre 1881 wurde der Deutsche Wetterdienst gegründet und einheitliche Messverfahren im deutschen Kaiserreich allmählich eingeführt. Und davor? 1761, zu Grafikbeginn lebten noch Friedrich der Große und Maria-Theresia, Deutschland im heutigen Sinne gab es nicht und nach dem Wiener Kongress erfolgte eine Neuordnung Europas. Mindestens drei Viertel der Stationen von damals gibt es überhaupt nicht mehr und sie wurden durch neue an ganz anderen Orten im heutigen Deutschland ersetzt. Auch erfolgte die Datenerhebung nach unterschiedlichen Regeln, teilweise wurde noch bis 1900 in Süddeutschland und in den "Rheinstaaten" nach der franz. Methode und in Réaumur gemessen. Man muss sich wundern, dass trotz dieser Unzulänglichkeiten die Aussage, April und Mai haben zu unterschiedlichen Zeiten ihre Schwingungswendepunkte, im Diagramm über diesen langen Zeitraum erkennbar ist.
Jedoch endet in solchen Fällen die Genauigkeit: Laut Diagramm war die Aprilkälte um 1815 – Wiener Kongress – etwas tiefer als die Kältedelle um 1970. Es könnte auch genauso andersherum sein. (siehe die EIKE-Artikel über Fehlermessungen in den Datenreihen)

Wärmeinselbereinigung: (WI-effekt). Nun wissen wir, dass die Daten des Deutschen Wetterdienstes nicht wärmeinselbereinigt sind. Die Messstationen stehen dort, wo die Menschen leben und arbeiten, also in den von uns geschaffenen Wärmeinseln. Diese Wärmeinseln nehmen täglich zu, denn täglich werden in Deutschland weitere 110 ha Freiflächen überbaut, eine stete wärmende Urbanisierung in die Natur hinein. Zusatzwärme, welche die Thermometer der Messstationen mitmessen, und die nur unzuverlässige Aussagen über globale Klimaänderungen zulassen. Für Temperaturvergleiche über 20 Jahre hinaus bräuchte man einen Korrekturfaktor.

Der DWD korrigiert nicht, sondern vergleicht unbereinigt seine Daten über Jahrzehnte hinweg, aus Wärmeinselgründen ist bei der Temperatur- Langzeitschwingung der jüngste Temperaturhöhepunkt dann höher als der vorige um 1945 (siehe Grafik 1) Dort, wo die Menschen wohnen, und dort wo die DWD-Messstationen stehen, wurde es über einen längeren Zeitraum wärmer. Nicht CO2 ist der Grund für diese Erwärmungssteigung der Trendlinie in den Aprildaten des DWD, sondern die zunehmenden WI-effekte.

Im weiteren Verlauf wollen wir der Frage nachgehen, seit wann unsere beiden Monate eine ebene Trendlinie zeigen , wenn man aus den DWD-Daten die Wärmeinselerwärmung herausrechnen würde? Da unsere Berechnungsmethode von Raimund Leistenschneider streng genommen nur für die Jahresmittel gilt und nicht für Monatsbetrachtungen, nehmen wir als Vergleich die fast WI-freie Station Amtsberg-Dittersdorf am Fuße des Erzgebirges.

Beginnen wir mit dem Monat April. Zur Erinnerung sei gesagt, bei den nicht wärmeinselbereinigten Deutschlandtemperaturen ist die Apriltrendlinie seit 2002 eben.

Grafik 7: Die fast WI-freie Station Amtsberg hat schon seit 26 Jahren eine fast ebene Trendlinie, also eine Stagnation der Apriltemperaturen.

Ergebnis: In der kleinen Ortschaft Amtsberg-Dittersdorf, die für das Erzgebirge steht, aber auch in der freien Fläche Deutschlands zeigt der April bereits seit 25/26 Jahren keine Erwärmung mehr, das sind gleich 11 Jahre mehr bei beim Schnitt der April-Deutschlandtemperaturen. In einem der letzten Artikel hatten wir schon betont, dass die WI-effekte im April besonders hoch sind, http://www.eike-klima-energie.eu/news-cache/waermerer-april-grund-zur-freude-oder-ein-vorzeichen-der-klimakatastrophe/ Grafik 9.

Und der Mai in Amtsberg-Dittersdorf:

Grafik 8: Von 1979 bis 2015 zeigte der Monat Mai in Amtsberg-Dittersdorf neben dem jährlichen Auf und Ab keine Änderung. Es gibt keine Erwärmung in diesem Betrachtungszeitraum mehr, eher eine nicht signifikante Tendenz zur Abkühlung. Darauf deuten vor allem die letzten 21 Jahre =21 Maimonate hin.

Ergebnisse:

1) Die Deutschlandtemperaturen der letzten 100 Jahre verliefen in sinusähnlichen Wellen mit Temperaturhöhepunkten und Temperaturdellen.

2) Die beiden Monate April und Mai unterscheiden sich dabei im Verlauf. Beim April war die letzte Kältedelle 20 Jahre später, deshalb liegt auch der letzte Temperaturhöhepunkt, also der obere Wendepunkt erst kurz hinter uns.

3) Der April wird sich leider nicht mehr weiter dem Monat Mai annähern.

4) Stagnation der Temperaturen beim April: DWD 13 Jahre, WI-bereinigt: 25/26 Jahre. Beim Mai: DWD 31 Jahre, WI-bereinigt 37 Jahre.

Man darf gespannt sein, wo sich der Mai 2016 einordnen wird.

April und Mai verhalten sich vollkommen anders. Beim Mai ist erstaunlich, dass er – wie aus der nicht WI-bereinigten Grafik 2 ersichtlich -, seit 105 Jahren, also ab dem vorletzten oberen Wendepunkt bis heute gar keine Erwärmung mehr zeigt. Diese Tatsache ist uns ebenso ein Rätsel wie sicherlich den DWD-Fachleuten in Offenbach, also den naturwissenschaftlich Ausgebildeten, die meist in der 2. Reihe ihre zuverlässige Arbeit erledigen. Die politisch eingesetzte und nicht naturwissenschaftlich ausgebildete Vorstandschaft des DWD schweigt und argumentiert meist gegen ihre eigenen Fakten.

Gehen wir zeitlich noch weiter zurück beim Mai.

Grafik 9: Der Wonnemonat Mai zeigt schon seit Beginn der offiziellen DWD-Messungen nur einen leicht steigenden Verlauf. Unglaublich: Der Maiwärmerekord stammt aus dem Jahre 1889. Im Jahre 1902, also gleich zu Beginn der Betrachtung liegt auch der Mai-Kälterekord, verursacht durch zwei große Vulkanausbrüche am 7. und 8. Mai in Mittelamerika.

Die Feinstaubemissionen der beiden Vulkane verursachten einen Temperaturkältesprung zwischen dem Mai 1901/1902 von 4,5 Kelvin, was die Trendlinie zu Beginn etwas tiefer beginnen lässt. Und: Diese DWD-Temperaturwerte sind nicht wärmeinselbereinigt, sonst würde der Monat Mai sogar eine leicht fallende Trendlinie haben, also eine leichte Abkühlung der Maimonate seit Beginn der DWD-Messreihen. Eine erstaunliche Abkühlung des Wonnemonates Mai seit 1888, die in der freien Natur Deutschlands im Vergleich von heute mit damals selbstverständlich Realität ist. Somit halten wir fest:

Der Monat Mai zeigt in der freien Natur Deutschlands außerhalb der Wärmeinseln seit fast 130 Jahren eine leichte, nicht signifikante Abkühlungstendenz.

Wo ist die behauptete Klimaerwärmung, die angeblich in den letzten Jahren verstärkt zugelegt haben soll und vor der uns der Weltklimavertrag schützen will? Einfache Antwort: Nirgendwo, außer in den Computern der weltweit agierenden Märchenerzähler. Schlimm ist, dass wir diese Scharlatane auch noch finanzieren müssen. Insbesondere die Maitemperaturen entlarven das Geschäftsmodell Klimaerwärmung deutlichst. Die fünf ersten Monate des Jahres haben ihren Temperaturhöhepunkt/Wendepunkt bereits überschritten und kühlen wieder ab. Beim April beginnt gerade die Abkühlungsphase. Den behaupteten verfrühten Frühlingsbeginn in Deutschland kann es nicht geben, weil es keine steigenden Frühlingstemperaturen mehr gibt. Das ist eine eher traurige Entwicklung mit trüben Aussichten. Einzig in den Städten können die Aprilblüher noch punkten. Weil der WI-effekt im April besonders wirkt, verzögert sich die auch in Deutschlands Wärmeinseln beginnende Abkühlungsphase noch. Wir sind ausgesprochene Befürworter des weltweiten Natur- und Umweltschutzes, einen Klimaschutz gibt es nicht. Und ein mehr an CO2 in der Atmosphäre ist ganz im Sinne des Naturschutzes.

Josef Kowatsch, Naturbeobachter und unabhängiger Klimaforscher

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher




Energie aus Asien – Chinas Vision einer Strom-Seidenstraße bis nach Deutschland

Aus Sicht grüner Energiepolitiker aller Fraktionen müsste in Deutschland eigentlich alles zum Besten stehen: Dank des Klimavertrags von Paris dürften nach der Kernkraft in Deutschland bald auch die Kohlekraftwerke verboten werden, so dass der Weg frei wird für zügigen weiteren Ausbau der Stromerzeugung aus „erneuerbaren“ Energiequellen wie Wind und Fotovoltaik. Allerdings gibt es leider gerade beim Wind teils erheblichen Gegenwind, und das ausgerechnet von Minister Sigmar Gabriel, der eigentlich doch ein langjähriger Frontmann der „grünen“ Energieplanungen ist. Dennoch scheint er sich – zumindest in den Augen der Windlobby – inzwischen vom Motor zum Bremser entwickelt zu haben, wie ein kürzlich in der „Berliner Zeitung“ erschienener Artikel belegt [BEZE].

Bild rechts: Tod auf Raten. Deutschland legt bis 2022 seine Kernkraftwerke still. Hier das 2015 abgeschaltete KKW Grafenrheinfeld (Foto: Avda, Wikimedia Commons)

Durchhalteparolen der EE-Lobby

Schaut man sich den Artikel genauer an, so findet sich darin EE-Lobbyismus in Reinkultur. So wird als Erfolg dargestellt, dass „in den zwölf Monaten zwischen Februar 2015 und Januar 2016 Anlagen mit einer Nettoleistung von knapp 3.600 Megawatt installiert“ worden seien, was „drei Atommeilern“ entspreche. Doch mit der Neufassung des EEG, so der Vorwurf des Artikels, begrenze Gabriel den Ausbau der „Erneuerbaren“ bis 2025 auf lediglich 40 bis 45 %. Damit, so eine im Artikel zitierte Studie, die im Auftrag der Grünen-Bundestagsfraktion erstellt wurde, breche der Ausbau der Windenergie schon bald zusammen: „Werden die 45 Prozent angepeilt, könnten nach 2018 nur noch 1500 Megawatt jährlich neu installiert werden, heißt es in dem Papier“. Und Grünen-Fraktionsvize Oliver Krischer wird mit der Aussage zitiert: „Mit der geplanten EEG-Novelle will Sigmar Gabriel sich als Abrissbirne der Energiewende endgültig ein Denkmal setzen“. Während der Rest auf Welt auf Sonne und Wind setze, lege die Bundesregierung den Rückwärtsgang ein – ausgerechnet zu einem Zeitpunkt, da die Erneuerbaren billig geworden seien.

Die blinde Gier der Profiteure

Das interessante an dieser Auseinandersetzung zweier Komplizen in Sachen Energiewende ist nicht einmal die Tatsache, dass beide Unrecht haben und die wahren Dimensionen des Problems drastisch unterschätzen. Zur Erreichung der bisherigen „EE“-Ausbauziele der Bundesregierung müssten die tatsächlichen Zubauzahlen bei der Windenergie nämlich schon bald auf mehr als 10 GW pro Jahr und letztlich auf auf mehr als 16 GW/ Jahr gesteigert werden [MUEL], Bild 1.

Bild 1. Zusätzlich zur Netto-Steigerung der installierten Windenergie-Leistung werden in den nächsten Jahren rapide steigende Ersatzinvestitionen erforderlich (Grafik: Autor)

Selbst den Grünen scheint jedoch inzwischen klar zu werden, dass derartige Ausbauzahlen angesichts der Tatsache, dass überschüssiger Strom nicht gespeichert werden kann und die Überlastung der Netze inzwischen in den roten Bereich wandert, schlicht nicht durchsetzbar sind. In Wirklichkeit hat man sich auch dort still und leise vom eigentlichen Ziel der „80 % EE-Anteil bis 2050“ verabschiedet und geht nur noch nach dem Motto vor: „Nimm, was du kriegen kannst“ – bevor der Schwindel endgültig auffliegt und es Zeit wird, schnell zu rennen.

Der Unterschied zur Position von Gabriel besteht hauptsächlich darin, dass dieser aufgrund seiner direkten Regierungsverantwortung deutlicher sieht, wo zum jetzigen Zeitpunkt die Grenzen des finanziell noch Zumutbaren liegen. Ihm geht es weniger um Profitmaximierung als vielmehr um Wiederwahl. Daran, dass die Ziele des EEG tatsächlich noch erreicht werden könnten, glauben in der deutschen Blockparteienregierung vermutlich nur noch eine gewisse höhere Pfarrerstochter sowie eine resolute Dame, die manchen Meldungen zufolge menschliche Handrücken nicht so recht von Aschenbechern unterscheiden kann.

Aus chinesischer Sicht…

In China, das über Jahre hinweg vom hiesigen „Grünstrom-Hype“ durch Lieferung von Solar- und Windenergieanlagen kräftig profitieren konnte, ist den strategischen Planern längst klar, dass der jetzige Kurs der westlichen Energiepolitik im Desaster enden wird. Dem westlichen Druck zur „Klimarettung durch CO2-Reduktion“ wird China nicht allzu offen entgegentreten. Warum soll man sich unnötig den geballten Zorn des Papstes, Obamas, Merkels sowie etlicher amerikanischer Stiftungen und NGO’s zuziehen? China ist eine Kulturnation, die geschickt genug war, selbst die brutale Herrschaft der Mongolen zu ertragen und sie später abzustreifen wie eine Eidechse ihre alte Haut. Angesichts westlicher Erpressung weicht man lieber aus und wartet auf den richtigen Moment, um den Schwung des Gegners gegen ihn selbst einzusetzen. Also investiert man auch selbst in Windmühlen und Solaranlagen, sogar soviel, dass man damit eine weltweite Spitzenposition einnimmt. Angesichts der Größe des Landes und seiner Bevölkerung ist das verkraftbar. Gleichzeitig baut man jedoch Kohlekraftwerke ein Gros: Einem Beitrag der Deutschen Welle ist zu entnehmen, dass von 473 GW Kohlekraftwerks-Kapazitäten, die seit 2010 in Betrieb gingen, rund 85 % allein von China und Indien errichtet wurden [DW]. Und im Rahmen seiner langfristige Zukunftsstrategie zieht China ein geradezu gigantisches Bauprogramm für Kernkraftwerke durch: Mit Stand Januar 2016 waren dort 40 KKW im Bau. Damit liegt man um Längen vor den Zweit- und Drittplatzierten Russland (25) und Indien (24) [STAT].

…sitzt Deutschland zwischen allen Stühlen

Aus Sicht Beijings ist die „Energiewende“ bereits jetzt mit Pauken und Trompeten gescheitert, die spannende Frage ist lediglich, wie lange man das Volk hierüber noch wird belügen können. Die zum Tode verurteilte Kernkraft ist auf Jahrzehnte hinaus so diskreditiert, dass eine Renaissance kaum vorstellbar ist. Selbst wenn man wollte: Es gibt keine entsprechende Industrie mehr. Fachleute wird man bald nur noch in Altersheimen und auf Friedhöfen finden, und die Generation der längst arrivierten Alt-68er und der subventionsverwöhnten Wind- und Solarprofiteure wird diese Technologie auch in Zukunft erbittertst bekämpfen. Das zeigte sich auch am Propaganda-Tsunami, der pünktlich zum 30. Jahrestag des Tschernobyl-Unfalls über sämtliche deutschen Medienkanäle schwappte.

Auch bei den Kohlekraftwerken befindet sich Deutschland längst in einer Todesspirale. Der billigen Braunkohle wurde durch diverse politische Maßnahmen wie der Wegnahme von bereits zugesprochenen Fördergebieten in NRW und den erzwungenen Verkauf der Vattenfall-Aktivitäten im Osten die Existenzgrundlage entzogen. Für Investitionen in Steinkohlekraftwerke wird sich wohl kaum noch ein „nützlicher Idiot“ finden. Zudem ist die Politik dabei, den Stromerzeugern unter dem Vorwand, die Rückbaukosten der Kernkraft zu sichern, auch noch die letzten Barreserven abzuknöpfen. Angesichts von Planungszeiträumen von mindesten 10-15 Jahren wird Deutschland bezüglich seiner Energieinfrastruktur voraussichtlich bis zu 20 Jahre lang gelähmt bleiben.

Strom über die Seidenstraße

Auf der anderes Seite zeichnet sich in China aufgrund erheblicher Investitionen und der Verlangsamung des Wachstums der Volkswirtschaft für die Zukunft ein  Überangebot an Erzeugungskapazität ab. Einem Bericht der „Financial Times“ zufolge [FT] entwickelt deshalb Liu Zhenya, der Chef des staatlichen chinesischen Stromnetzbetreibers SGCC, die Vision einer „Seidenstraße für Strom”. Die im Westen kaum bekannte SGCC ist der weltweit siebtgrößte Konzern mit rund 1,5 Mio. Mitarbeitern und hat auf dem Weltmarkt große Ambitionen.Der Transport soll über Ultra-High Voltage (UHV)-Fernleitungen erfolgen, die weite Teile Asiens versorgen und sogar bis nach Deutschland reichen sollen. Im Rahmen dieser Planungen sollen gigantische Wasserkraftwerke ebenso zum Einsatz kommen wie Kohle- und Windkraftwerke in Grenzregionen wie z.B. Xinjiang. Dort könne man Strom so günstig produzieren, dass er selbst unter Berücksichtigung der Transportkosten in Deutschland nur halb soviel kosten werde wie einheimisch produzierter. Und für jemanden, der in den Dimensionen eines solchen Riesenreichs denkt, bergen selbst die enormen Transportdistanzen keinen Schrecken: Die Luftlinien-Distanz von der Oasenstadt Kashgar bis nach Deutschland sei lediglich 400 km größer als die von Kashgar bis zum chinesischen Finanzzentrum Shanghai. Und im Unterschied zu deutschen Vorständen der Stromwirtschaft, die sich weniger durch Sachkunde denn durch Unterwürfigkeit gegenüber der Politik auszeichnen, wird Liu Zhenya als jemand beschrieben, der seine Karriere dem Aufbau der UHV-Technologie verdankt – auch wenn er sich dadurch mit einer Reihe von Umweltaktivisten anlegen musste. Dass Liu Zhenya bei seinen auf Deutschland gemünzten Ausführungen das Thema Kernkraft ausklammert, zeigt deutlich, wie gut er die Lage und die Befindlichkeiten in Deutschland einzuschätzen vermag. Chinas Kaufleute galten schon immer als besonders geschickt.


Bei solchen deutschen Drehstrom-Fernleitungen ist bei 380.000 V Schluss. China arbeitet dagegen an UHV-Leitungen, die mit bis zu 1,2 Mio. V Energie über viel größere Entfernungen transportieren

Bereits jetzt, so der FT-Bericht, zeichneten sich Erfolge dieser Politik ab. So wurde kürzlich ein „Memorandum of Understanding“ mit Südkorea sowie der japanischen SoftBank unterzeichnet, das ein vernetztes Stromnetz in Nordostasien befördern soll. Weitere potenzielle Märkte für chinesischen Strom sind Pakistan, Indien und Myanmar.

Fred F. Mueller

Quellen

[BEZE] http://www.berliner-zeitung.de/wirtschaft/windenergie-die-bundesregierung-legt-bei-energiewende-den-rueckwaertsgang-ein-23846294

[DW] http://www.dw.com/en/china-india-pouring-cash-into-coal-plants-that-may-not-be-used/a-19156066

[FT] http://www.ft.com/cms/s/0/68cdef50-f66a-11e5-803c-d27c7117d132.html#axzz45pCiHtXg

[MUEL] http://www.eike-klima-energie.eu/climategate-anzeige/energiewende-plan-und-orientierungslos-im-nebel/

[STAT] http://de.statista.com/statistik/daten/studie/157767/umfrage/anzahl-der-geplanten-atomkraftwerke-in-verschiedenen-laendern/