1

Tief Egon in der 2. KW 2017 und Hoch Britta in der 3. KW 2017

Die Kalenderwochen KW 2 und KW 3 des Jahres 2017 ermöglichen einen anschaulichen Vergleich der regenerativen Energieerzeugung im Winter bei Hoch- und Tiefdruckwetterlagen über Deutschland.

Die Quelle Agorameter ist jedem zugänglich:
https://www.agora-energiewende.de/de/themen/-agothem-/Produkt/produkt/76/Agorameter/

Laut BMWI, Bundesnetzagentur und obiger Grafik des Agorameters ergibt sich folgender Sachstand für in das deutsche Netz einspeisenden Ernergieerzeuger:

Anlagen Installierte Leistung Leistung bei Tiefdrucklage Leistung bei Hochdrucklage
In Betrieb ca.                          194,4 GW    
·  davon Windkraft ca.                             45,0 GW bis            32 GW (bis 71 %) bis               7 GW (bis 16 %)
·  davon Photovoltaik ca.                             39,0 GW bis               2 GW (bis  5 %) bis            10 GW (bis 26 %)

Die geringe Leistung Auslastung der Windkraftanlagen bei Sturm von nur 71 % lässt sich aufgrund der gesetzlichen Vorrangeinspeisung nur durch Sicherheitsabschaltungen (Überlast und Überdrehzahl) erklären.

Um die Versorgung zu sichern, wenn der Wind nicht weht und die Sonne nicht scheint, werden konventionelle Kraftwerksanlagen eingesetzt. Deren Einsatz lässt sich auf Grund der Vorrangeinspeisung für die fluktuierenden Anlagen planen, Regelenergie muss über die Börse erworben bzw. verkauft werden, was den aus Angebot und Nachfrage resultierenden Strompreis zur Folge hat.

Strompreis, -erzeugung und -Verbrauch 9. bis 21-1-2017, Daten Agora; Grafik E. Heck

Fazit:

Das Missverhältnis zwischen installierter Leistung und geringer verfügbare Leistung der Windenergieanlagen existiert nicht nur bei Flauten, sondern auch bei Stürmen.

Für den Fall, das in absehbarer Zeit alle konventionellen Anlagen abgeschaltet werden sollten, wären Energiespeicher unumgänglich, um die Versorgungssicherheit zu gewährleisten.

 

Frage:

Für welche Energiemenge müssten die Speicherausgelegt sein?

Abschätzend aus den Kurvenverläufen sollten laut Prof. Dr.-Ing. Helmut Alt (TH Aachen) Energiespeicher als Ersatz für konventionellen Kraftwerke für 5 Flaute-Tagen ausgelegt werden.

Aus obiger dargestellten Verbrauchsleistung ergibt sich ein dem arithmetischen Mittelwert von ca. 70 GW, auf 5 Tage hochgrechnet von 8 TWh.

8 TWh entsprechen beispielsweise

  • 1000 x PSW Goldisthal mit einer Leistung 1000 MW sowie einer Speicherkapazität max. 8,5 GWh bei einem Nutzvolumen von 12 Mio. m³ Wasser auf einer Fläche von 0,55 km² für 8 h Vollastbetrieb
  • 100 Mio. Lithium-Akkus mit einer Kapazität von 80 kWh – Tesla‘s absoluter Spitzenreiter, die Elektrolimousine Tesla S fährt mit der Batterie 90 D – einer Stromladung von 90 Kilowattstunden bis zu 560 Kilometer weit



Der Durchbruch für die Energiewende ist da: Die Mondlichtkugel

Das Produkt heißt „Beta.ray“, aber auf Grund der ihm zugeschriebenen Fähigkeiten möchte ich es poetischer als „Mondlichtkugel“ bezeichnen, denn: „Das System produziert grünen Strom und zwar Tag und Nacht“ und „Die Kollektoren (funktionieren) auch bei diffusem Licht und sogar bei Mondschein. Nachts wird aus Solarenergie dann Lunarenergie. Durch Lichtenergie gewonnener Strom könnte damit auch nachts und somit wesentlich konstanter produziert werden“ schwärmt der

Mondlichtkugel; Bild rawlemon

SPIEGEL . Die Lademöglichkeit im automobilen Bereich sei von enormer Bedeutung.

Andere Quellen wie erneuerbareenergien.de informieren über den „optischen Tracker“ mit mühsam verhaltener Begeisterung. Die angegrünte WIWO stellt heraus, dass das Gerät „schick aussieht“ und man sein Handy damit auch am See laden kann. Auch die „Welt“ bewundert das Aussehen des Geräts, es sei ein echter „Hingucker“.

Dabei ist das Prinzip der Kugellinse nicht neu. Es gab bereits im 19. Jahrhundert die so genannte „Schusterkugel“. Vor Erfindung des elektrischen Lichts nutzten Handwerker wie eben die Schuster eine Glaskugel zur Konzentration des diffusen Umgebungslichts, um ihren Arbeitsplatz mangels elektrischem Licht besser auszuleuchten.

Mondlichtkugel auf dem Dach, Bild rawlemon

Der Erfinder der Mondlichtkugel, ein in Barcelona lebender deutscher Architekt, gab an, von der Idee beim Frühstück erleuchtet worden zu sein. Seine Tochter legte ihm eine Murmel in den Eierbecher und das Sonnenlicht konzentrierte sich auf einen Punkt. Das sind sie, die Heureka-Momente, von denen jeder Energiewendebewegte in seinen ökologisch reinen Nächten nachhaltig träumt.

In einem schicken Videoclip erfährt man mehr über den „Sunshine recorder“ als „a smile to the sun“. Auch der Einbau in Gebäudefassaden sei möglich.

Neben einem Modell in Wahrsagerkugelgröße gibt es zwei Bauformen mit einem beziehungsweise 1,80 Meter Durchmesser. Die größere Variante sei schon für schlappe 4.200 Euro zu haben.

Wir halten kurz inne und denken mal nach.

Selbst bei Berücksichtigung des „Einsammelns“ diffusen Lichts wird die Kugel kaum mehr Licht fangen, als auf ihrer beschienenen Seite anfällt. Das sind bei den angebotenen Modellen etwa 0,8 beziehungsweise 1,4 Quadratmeter. Im Juni gibt es pro Tag etwa 5 Kilowattstunden Sonneneinstrahlung in Deutschland. Ob das Licht dann gebündelt wird oder nicht ist für die Menge der eingestrahlten Energie ohne Bedeutung. Dass die Solarzelle am unteren Teil der Kugel nachgeführt werden muss, ist eher als Nachteil zu sehen. Zudem erhitzt das konzentrierte Licht die Solarzelle mehr als bei einer Flächenkonstruktion, so dass der Wirkungsgrad sinkt.

Selbst bei Vollmond und klarem Himmel beträgt die Lichteinstrahlung nachts unter einem Promille der Sonnenstrahlung zur Mittagszeit. Wie viele Tage im Jahr scheint der Mond am wolkenfreien Himmel, an wie vielen Tage ist Neumond, hat er eine kleine Sichel oder geht nur tagsüber auf? Zudem reflektiert der Mond entsprechend seiner Oberflächentemperatur nur Strahlung im langwelligen Bereich, mit denen PV-Module kaum etwas anfangen können.

Die Kugel ist mit destilliertem Wasser gefüllt, allein diese Füllung bringt zwei beziehungsweise 3,8 Tonnen auf die Waage zuzüglich des Glasgewichts, dass auf Grund der nötigen Wandstärke erheblich sein dürfte. Die in Frage kommenden Aufstellungsorte werden dadurch stark eingeschränkt, vor allem, was Dächer und Fassaden betrifft.

Kühlt die Kugel nachts aus, dürfte sie je nach Wetterlage morgens des öfteren beschlagen sein, also das Licht dämpfen. Im Winter kommt die Frostgefahr hinzu, die Kugel müsste beheizt oder entleert werden und Schnee gibt es auch manchmal.

Elektrischer Eigenbedarf fällt für die Nachführung der Solarzelle an.

Mitdenkende Leser des Artikels bei Spiegel online äußern sich teils drastisch über „Pseudoinnovation“ und „Technikesoterik“, bestätigen aber das ansprechende Design, verbunden mit dem Vorschlag, auch einen Goldfisch einsetzen zu können.

Es gibt die Frage, ob der Erfinder auch bald neben Asbeck im Schloss wohnt. Oder es sei der Versuch, Prokon-Anlegern neue Anlagemöglichkeiten zu verschaffen.

Auch treu-naives Grundvertrauen kommt zum Vorschein, wie

„Wunder gibt es immer wieder“, „Der Mann als Architekt hat einen Ruf zu verlieren“.

Oder einfach Bewunderung für den Mut des Erfinders.

Auf „globalmagazin.com“ beschwert sich allerdings ein Forist, dass er sich das Prinzip schon 2008 hat patentieren lassen. Es erscheint auch ein Eintrag ungezügelter Begeisterung:

„So gibt es mit dieser Erfindung endlich die Möglichkeit, den stark schmutzigen Strom aus Kohle- und Atomkraftwerken durch sauberen Solar- und Lunarstrom zu ersetzen. Und sage mir einer, aus Deutschland kommen keine Innovationen mehr. Hier zeigt sich, dass unser Bildungssystem doch gar nicht so schlecht sein kann wie manche Ignoranten behaupten.“

Speziell der letzte Satz lässt vermuten, dass hier ein vom Bildungssystem eher Vernachlässigter spricht.

Man sollte aufmerken, wenn bei neuartigem technischem Gerät primär auch vom schönen Design gesprochen wird. Das erinnert dann sehr an den schon legendären

Atomstromfilter (789 Euro), der noch einige Folgeerfindungen wie den ASTROSEP (Atomstromseparator) oder den Spektralrichter hervorbrachte. Na gut, auf ebay wurden auch schon W-LAN-Kabel verkauft. Kolbenrückholfedern oder solare Böschungswinkel sind bei entsprechend ökologisch getrimmter Ansprache vermutlich auch an den grün orientierten und durch unser Bildungssystem geprägten Verbraucher verkäuflich.

Natürlich braucht die Mondlichtkugel Startkapital. Jede Bank würde den Erfinder und seinen Kreditwunsch freundlich wieder zur Tür komplimentieren. Schwer vorstellbar aber, dass er das überhaupt versucht hat. Heutzutage läuft sowas eher postfaktisch über das Crowdfunding.

Nachdem 2014 die Meldungen zur Mondlichtkugel nach und nach gegen Null tendierten, mehren sich auf der entsprechenden Crowdfunding-Homepage die Kommentare der Ökozielgruppe mit der energischen Forderung im Sinne Maggie Thatchers: “I want my money back!“

Bisher gingen über 233.000 Dollar für Bestellungen der „Beta.ray“ ein. Wir legen schon mal eine Tüte Mitleid für die Investoren bereit. Der Erfinder hat Ausgaben gehabt und leben will er auch. Wir können davon ausgehen, dass trotz tollen Designs aus rein physikalischen, also ewiggestrigen Gründen die Mondlichtkugel nicht kommen wird. Die Produkthomepage befindet sich derzeit im Umbau.

Warten wir auf die Verschwörungstheorien, warum sie sich nicht durchsetzt. Mein Tipp: Die Atomkonzerne sind schuld.

Wenn Atom- und Kohlehass mit Unwissenheit und festem grünen Glauben fusionieren, können wir auf weitere solche als Erfindung getarnte Fake-News hoffen.

Der Blick in die Zukunft der „Erneuerbaren“ ist wie ein Blick in die Glaskugel – man kann nie wissen, was kommt, aber sehr oft ist es eine optische Täuschung.

Fotos: rawlemon




Wer im Treibhaus sitzt…

Zunächst einmal bedanke ich mich bei allen Kommentatoren hier auf EIKE für die lebhafte Diskussion über den Artikel mit meiner Kritik am natürlichen Treibhauseffekt unserer Atmosphäre, insbesondere bei denen, die mich tatsächlich verstanden haben, und natürlich bei den sportlich-bissigen Herren „auf dem Balkon“ für die gute Unterhaltung – einem „Selbstgebrauten“ wäre ich nicht abgeneigt…

In der nachstehenden Zusammenfassung gehe ich auf sachliche Fragestellungen und kritische Anmerkungen zu meinem Text ein und komme dann zu einigen weiterführenden Bemerkungen. Der begrenzte Raum erlaubt es allerdings nicht, hier elementare geometrische Grundkenntnisse oder ein tieferes Verständnis physikalischer Gesetze zu vermitteln.
Ausdrücklich hervorzuheben ist zunächst, dass es sich bei meinem Artikel um eine Auseinandersetzung mit dem herkömmlichen Ansatz für die Berechnung der Schwarzkörpertemperatur unserer Erde nach dem Stefan-Boltzmann Gesetz handelt, aus der sich dann meine Kritik am Treibhauseffekt herleitet – nicht mehr, aber auch nicht weniger. Die einzige sachdienliche Kritik an meinen Ausführungen, die ich überhaupt erhalten hatte, bestand bisher in einem Verweis auf die Veröffentlichung „Falsifizierung der atmosphärischen CO2 –Treibhauseffekte im Rahmen der Physik“ von Gerhard Gerlich und Ralf D. Tscheuschner, hier zur deutschen Übersetzung. Dort wird aber lediglich darauf hingewiesen dass die Stefan-Boltzmann Konstante s von der Geometrie des betrachteten Problems abhängig sei und dass das T4-Gesetz bei einer Integration über ein gefiltertes Spektrum nicht mehr gelte. Und daher scheitern schon einmal alle Kritiker, die meine Arbeit in diesen oder einen anderen Kontext zu stellen suchen genau daran, dass sich eine solche Argumentation natürlich ebenso gegen die herkömmliche, und meines Erachtens nach falsche, Herleitung des Treibhauseffektes aus der S-B Schwarzkörperberechnung für unsere Erde richten muss.
Die in meinem zugrundeliegenden wissenschaftlichen Artikel nachgewiesene fehlerhafte Anwendung des S-B Gesetzes auf die gesamte Erdoberfläche führt fälschlicherweise zur Konstruktion eines sogenannten „natürlichen atmosphärischen Treibhauseffektes“. Dieser Treibhauseffekt stellt praktisch ein fiktives Sekundärphänomen im Umfang von 155 W/m² dar, mit dem die ursprüngliche Fehlberechnung der theoretischen globalen Durchschnittstemperatur von -19° Celsius künstlich an die Realität der Temperaturmessungen mit +14° Celsius angepasst wurde. Zwischenzeitlich wurde diese Herleitung durch eine „Gegenstrahlung“ mit denselben Eckwerten verdrängt und scheint selbst in Vergessenheit geraten zu sein.
Auf Tichys Einblick war ein paar Tage nach meinem Artikel die Gegendarstellung eines Herrn Dr. Heller erschienen, in der dieser den Treibhauseffekt auf herkömmliche Weise mit einer atmosphärischen Gegenstrahlung zu erklären suchte und sich dann nicht etwa, seinem Titel gemäß, wissenschaftlich mit der konträren Herleitung für die Schwarzkörperberechnung der Erde auseinandergesetzt hatte, sondern sich stattdessen lediglich spekulativ über die wissenschaftliche Kompetenz des Autors ausließ.

Der aktuelle Stand der wissenschaftlichen Auseinandersetzung über den Treibhauseffekt ist also folgender:

Konventionelle Herleitung der Schwarzkörpertemperatur mit dem S-B Gesetz aus der globalen Energiebilanz der Erde für die Kugeloberfläche :

(Solarkonstante/4) => netto 235 W/m² => -19° Celsius + Treibhauseffekt

Alternative Herleitung Weber mit dem S-B Gesetz und einer Halbkugelbetrachtung für die Erde:

(Solarkonstante/2) => netto 390 W/m² => +14,8°Celsius

Ich möchte hier ausdrücklich darauf hinweisen, dass meine Ausführungen zur Fehlberechnung des atmosphärischen Treibhauseffektes aus dem Stefan-Boltzmann Gesetz selbstverständlich jederzeit wissenschaftlich widerlegt werden können:

Wenn also wissenschaftlich eindeutig nachgewiesen wird, dass die Gleichsetzung der Energiebilanz unserer Erde (Fläche einer Kugel) mit der strengen thermischen Gleichgewichtsforderung des Stefan-Boltzmann Gesetzes für die bestrahlte Fläche (Halbkugel) physikalisch korrekt ist, dann bin ich tatsächlich widerlegt.

Mein englischsprachiger Originalartikel aus den Mitteilungen der Deutschen Geophysikalischen Gesellschaft Nr. 2016/3 mit dem Titel „A Short Note about the Natural Greenhouse Effect“ und einer ausführlichen rechnerischen Herleitung war bereits im TE-Artikel verlinkt und ist hier ab Seite 19 zu finden. Und eine vereinfachende Kurzfassung in deutscher Sprache wurde inzwischen hier eingestellt.

Zum generellen Verständnis meines Artikels: Der konventionelle Ansatz für den atmosphärischen Treibhauseffekt resultiert aus der durchschnittlichen Energiebilanz für die gesamte Erde. Dieser zusammenfassend berechnete gemeinsame Mittelwert für die Tag- und Nachtseite der Erde wird dann mit dem Stefan-Boltzmann Gesetz in eine Schwarzkörpertemperatur „umgerechnet“. Ein entsprechendes Beispiel für diese Art der konventionellen Berechnung des Treibhauseffekts finden Sie hier.

Das S-B Gesetz ist nun aber keine Gleichung, sondern beschreibt mit der dort lediglich in Form einer Gleichung angegebenen Relation zwischen Strahlung und Temperatur vielmehr ausschließlich die Situation in einem thermischen Gleichgewichtszustand. Und genau dieses zwingend vorgegebene thermische Gleichgewicht wird bei der konventionellen Herleitung des Treibhauseffektes durch die Einbeziehung der Nachtseite unserer Erde verletzt. Die „Denkfalle“ im konventionellen Ansatz für den Treibhauseffekt besteht also darin, dass die Energiebilanz der Erde als ein rechnerischer Durchschnittswert, der über die gesamte Tag- und Nachtseite der Erde gemittelt wird, auf eine physikalische Beziehung angewendet wird, die lediglich in einem thermischen Gleichgewichtszustand auf der Tagseite existiert.

Zum Kohlenstoffdioxid (CO2) als „natürlicher Klimaantrieb“: CO2 ist kein Produzent thermischer Energie aus sich selbst heraus, wie es die Darstellungen des IPCC nahelegen, indem CO2 dort fälschlicher Weise eine direkte thermische Wirkung in [W/m²] zugemessen wird. Vielmehr handelt es sich bei CO2, wie beispielsweise auch bei Wasserdampf und Methan, um ein Infrarot-aktives Gas. Solche IR-aktiven Moleküle nehmen infrarote Strahlung passiv auf, erhöhen damit zeitweilig ihr eigenes Energieniveau und geben diese Energie dann aktiv wieder an die Umgebung ab. In Summe wird also die infrarote Abstrahlung der Erdoberfläche ins Weltall durch diese IR-aktiven Gase letztlich lediglich verzögert. Dadurch mag sich vielleicht der Temperaturgradient in der Atmosphäre verändern, aber zusätzliche Energie im Umfang von 155 [W/m²], wie der konventionelle Ansatz für den Treibhauseffekt mit einer „Gegenstrahlung“ postuliert, kann dort definitiv nicht erzeugt werden. Aber selbst unter den alarmistischen Annahmen des IPCC bleibt die Klimasensitivität von CO2 deutlich unter 1,0° C pro Verdoppelung seines atmosphärischen Anteils.

Weiterführende Informationen zu CO2: Hier eine deutsche Kurzfassung, der zugrunde liegende Originalartikel ist unter dem Titel “About the Natural Climate Driver” in den Mitteilungen Nr. 2016/2 der Deutschen Geophysikalischen Gesellschaft erschienen, hier ab Seite 9.

Der natürliche Klimaantrieb: Zumindest rein rechnerisch lässt sich nachweisen, dass die Schwankungen der Sonneneinstrahlung durch die Zyklen der Erdumlaufbahn um die Sonne (Milanković-Zyklen) als alleiniger Klimamotor für unsere Erde ausreichen. Dabei würde dann die klimawirksame Sonneneinstrahlung durch eine schwankende Eisbedeckung in mittleren geographischen Breiten über die Albedo der Erde „moduliert“.

Weiterführende Informationen zum Albedo-Forcing: Hier eine deutsche Kurzfassung, der zugrunde liegende Originalartikel ist unter dem Titel “ An Albedo Approach to Paleoclimate Cycles” in den Mitteilungen Nr. 2015/3 der Deutschen Geophysikalischen Gesellschaft erschienen, hier ab Seite 18.

Zum aktuellen Stand der Wissenschaft in der Klimaforschung: In den Geowissenschaften der 1970-er Jahre waren die orbitalen Milanković-Zyklen, nämlich

Präzession =Taumelbewegung der „Erdachse“ um die Senkrechte (zur Erdbahnebene), 

Obliquität = Änderung der Schiefstellung der „Erdachse“ und

Exzentrizität = Veränderung der Ellipsenform unserer Erdbahn um die Sonne

 

als Ursache für die paläoklimatischen Veränderungen während der Eiszeitalter geltende Lehrmeinung. Diese Erkenntnis ist in der Klimawissenschaft während der vergangenen Jahrzehnte offenbar „verlorengegangen“, ohne jemals widerlegt worden zu sein.

In der Einleitung zu ihrem bahnbrechenden Werk “Die Klimate der geologischen Vorzeit” (Bornträger 1924) als Grundlage dieser geowissenschaftlichen Lehrmeinung schreiben Köppen und Wegener auf Seite 4 (mit meinen Hervorhebungen):
„…Von den zahlreichen sonstigen Hypothesen, die zur Erklärung von Klimaänderungen aufgestellt worden sind, wird daher in diesem Buche nicht die Rede sein. Insbesondere erblicken wir in dem System der fossilen Klimazeugen keinen empirischen Anhalt für die Annahme, daß die von der Sonne ausgehende Strahlung sich im Laufe der Erdgeschichte geändert habe. Desgleichen fehlt es an Tatsachen, welche durch Änderung der Durchstrahlbarkeit der Atmosphäre (Arrhenius) oder des Weltalls (Nölke) zu erklären wären; …“
Ein Nachdruck dieses Buches von Köppen und Wegener ist bei Schweizerbart erhältlich.

In den vergangenen Jahrzehnten hat sich die Klimawissenschaft in der Ursachenforschung für die Klimagenese unserer Erde offenbar wieder von Köppen und Wegener weg auf den Kenntnisstand von Arrhenius zurückbewegt. Man muss wohl überspitzt feststellen, dass in der modernen Klimaforschung inzwischen der wohlalimentierte populistische Schwanz mit dem wissenschaftlichen Hund wedelt.

Herzliche Grüße – Uli Weber




Immer wieder der Trump: Nun auch noch neue Kernenergie-Konzepte!

H. R. 590 der Startschuss?

Ziemlich unbeachtet, passierte am 24.01.2017 das Gesetz H.R.590 den Congress der USA. Das Gesetz nennt sich in der Kurzform: “Gesetz zur Entwicklung fortschrittlicher Kerntechnik aus dem Jahr 2017”.

Erster Abschnitt

Der ausführliche Titel des Gesetzes lautet: Ein Gesetz zur Förderung der zivilen Forschung und Entwicklung einer fortgeschrittenen Kerntechnik zur Energieerzeugung und zur Unterstützung der Genehmigungsverfahren und dem gewerblichen Einsatz solcher Technologien.

[Anmerkung: Es handelt sich hier also ausdrücklich um die Förderung von dem, was man gemeinhin als (nicht-militärische) “Kernkraftwerke” bezeichnet. Diese Feststellung ist nicht ganz unwichtig, denn zusätzlich gibt es in den USA noch Milliarden schwere kerntechnische Rüstungsprogramme. Beispielsweise zum Bau und zur Weiterentwicklung von Reaktoren für U-Boote und Flugzeugträger.]

Zweiter Abschnitt

Der Congress stellt fest:

  1. Die Bedeutung der Kernenergie für die Produktion elektrischer Energie in den USA.
  2. Kernkraftwerke produzieren mit einer Verfügbarkeit von über 90% zuverlässig und kostengünstig elektrische Energie. [Anmerkung: Dies ist ein deutlicher Seitenhieb gegen die Förderung von Wind und Sonne durch die Vorgängerregierung.]
  3. Kernkraftwerke fragen für Milliarden Dollar Güter innerhalb der USA nach und bieten tausenden Angestellten hoch bezahlte Arbeitsplätze und tragen maßgeblich zur wirtschaftlichen Leistungsfähigkeit der Gemeinden bei, in denen sie sich befinden. [Anmerkung für alle, die immer noch nicht wissen, was Präsident Trump will: Gut bezahlte Arbeitsplätze waren fast in jedem Wahlkampfauftritt sein zentrales Thema. Hier ist eine Antwort, auch wenn GEZ-Mitarbeiter immer noch glauben, er meinte Hilfsarbeiter am Fliessband von Autofabriken des 20. Jahrhundert.]
  4. Die kerntechnische Industrie der USA muß weiterhin den Weltmarkt anführen, weil sie zu den leistungsfähigsten Werkzeugen für die nationale Sicherheit gehört: Sie garantiert eine ungefährliche, sichere und ausschließlich friedliche Nutzung der Kernenergie.
  5. Der Betrieb der nationalen Flotte von Leichtwasserreaktoren und die Ausweitung auf neue, fortgeschrittene Reaktorkonstruktionen wird auch weiterhin die Produktion stets verfügbarer Grundlast gewährleisten und die weltweite Führung der kerntechnischen Industrie der USA aufrechterhalten. [Anmerkung: Auch hier – verpackt in viel Pathos – ein deutlicher Seitenhieb gegen die regenerativen Energien.]
  6. Hier wird die Fusion erwähnt.
  7. Für die Entwicklung von fortgeschrittenen Reaktorentwürfen ist es nützlich, daß ein leistungsbezogenes, wagnisbezogenes, wirkungsvolles, kostengünstiges Regelwerk mit definierten Meilensteinen erstellt wird, welches es den Bewerbern ermöglicht, den Fortschritt des Genehmigungsverfahrens nachzuweisen.

[Anmerkung: Das bisherige Genehmigungsverfahren verläuft bisher immer noch eher nach dem Prinzip alles oder nichts. So hat beispielsweise das Genehmigungsverfahren für den NuScale SMR (Small Modular Reactor) bisher nahezu 800 Millionen Dollar verschlugen und eine Entscheidung kann erst erwartet werden, wenn der Bewerber auch die letzte Frage für die Genehmigungsbehörde zufriedenstellend beantwortet hat. Dies, obwohl es sich um einen Leichtwasserreaktor handelt und damit auf alle Rechenprogramme, Erfahrungen usw. zurückgegriffen werden kann. Für “neuartige Reaktoren” ist ein solches Verfahren nicht akzeptabel, weil keine Bank und kein Investor ein solches (unkalkulierbares) Risiko verantworten kann.]

Dritter Abschnitt

Im Sinne dieses Gesetzes ist ein fortgeschrittener Kernreaktor (Advanced Nuclear Reactor) ein Kernspaltungsreaktor mit bedeutenden Fortschritten gegenüber den modernsten Reaktoren. Dies sollte inhärente Sicherheit, geringere Abfälle, bessere Brennstoffausnutzung, überragende Verfügbarkeit, Widerstand gegen die Weiterverbreitung (von Kernwaffen) und höhere Wirkungsgrade umfassen.

Es folgen die Definitionen für: “DEPARTMENT”, “LICENSING”, “NATIONAL LABORATORY”, “NRC” und “SECRETARY”.

Vierter Abschnitt

Das NRC (Genehmigungsbehörde) und das Department of Energy (Energieministerium) sollen eine Übereinkunft bezüglich folgender Themen ausarbeiten:

  1. Technische Kompetenz – Das “Energieministerium” muß sicherstellen, daß es rechtzeitig über genügend technische Kompetenz verfügt, um die kerntechnische Industrie in Forschung, Entwicklung, Prototypen und wirtschaftlicher Anwendung von sicherer und neuartiger fortschrittlicher Reaktortechnik zu unterstützen. Die “Genehmigungsbehörde” muß rechtzeitig über die nötige Kompetenz verfügen, um die fachgerechte Bewertung der Anträge für Lizenzen, Genehmigungen, Konstruktionsbescheinigungen und anderer Anforderungen für die behördlichen Genehmigungen für fortgeschrittene Reaktoren zu gewährleisten. [Anmerkung: Das sind bezüglich fortgeschrittener Reaktoren sehr ehrgeizige Ziele. Bisher hat die Genehmigungsbehörde reichhaltige Erfahrungen mit Leichtwasserreaktoren. Ob das Personal kurzfristig gefunden werden kann, wird sich zeigen. Dabei ist zu beachten, daß die NRC bisher in Stundenlohn arbeitet. Die etwaige Einarbeitung des Personals kann aber nicht auf den Antragsteller abgewälzt werden.]
  2. Modellierung und Simulation – Über die Nutzung von Rechnern und Programmen zur Berechnung des Verhaltens und der Leistungen fortgeschrittener Reaktoren, die auf auf der mathematischen Beschreibung physikalischer Zustände basieren. [Anmerkung: Die Kerntechnik war schon bisher der Motor von dem, was man gemeinhin als “Simulation” bezeichnet. Unter dem bewußten Einsatz des Energieministeriums (Waffenentwicklung) und der nationalen Großforschungseinrichtungen (z. B. Supercomputer) kann hier ein Forschungs- und Entwicklungsprogramm gestartet werden, das dem Apollo-Programm wissenschaftlich gleichkommt. Es wird für die sonstige Industrie weit mehr, als die legendäre “Teflon-Pfanne” abfallen. So soll offensichtlich Industriepolitik a la Trump laufen.]
  3. Einrichtungen – Das Energieministerium soll die Einrichtungen entwickeln und betreiben, die der kerntechnischen Industrie rechtzeitig ermöglichen Forschung, Entwicklung, Prototypen und wirtschaftlicher Anwendung von sicherer und neuartiger fortgeschrittener Reaktortechnik zu entwickeln. Der Genehmigungsbehörde ist der Zugriff auf diese Einrichtungen zu gewährleisten, wann immer sie sie benötigen. [Anmerkung: Damit sind z. B. Prüfstände, 1:1 Modelle von Reaktorkomponenten usw. gemeint.]

(a) Erforderliche Planung: – Nicht später als ein Jahr nach Inkrafttreten dieses Gesetzes, ist dem Congress von der Genehmigungsbehörde ein Entwicklungsplan über den technologieneutralen Rahmen für ein effizientes, das Risiko berücksichtigendes Genehmigungsverfahrens für fortgeschrittene Reaktortechnik vorzulegen. [Anmerkung: Die NRC steht seit längerem in der Kritik, daß sie zu sehr auf Leichtwasserreaktoren spezialisiert ist. Außerdem orientiert sich das Genehmigungsverfahren sehr eng an gemachten Erfahrungen aus dem laufenden Betrieb der vorhandenen Reaktorflotte. Beides steht oft im Widerspruch zur Entwicklung neuer Reaktorkonzepte] Der Plan soll die folgenden Themen abwägen, bezüglich der Übereinstimmung mit den Vorschriften der “Genehmigungsbehörde” zum Schutze der öffentlichen Gesundheit und Sicherheit, des Zivilschutzes und der Sicherung:

  1. Die einzigartigen Gesichtspunkte bei der Zulassung fortgeschrittener Reaktorkonzepte, einschließlich der gesetzlichen und behördlichen Vorschriften und der politischen Anforderungen müssen von der “Genehmigungsbehörde” benannt werden. [Anmerkung: Hier verbirgt sich beispielsweise der Widerspruch von Zonen zu Evakuierung nach herkömmlichen Gesichtspunkten und sogenannten inhärent sicheren Reaktoren.]
  2. Möglichkeiten fortgeschrittene Reaktorkonzepte nach den bestehenden Regularien der “Genehmigungsbehörde” zu behandeln, neue Regularien vorzuschlagen oder eine Kombination aus beiden. [Anmerkung: Hier wird der bestehende Apparat mächtig in die Verantwortung genommen.]
  3. Möglichkeiten zur Beschleunigung und Verschlankung des Zulassungsverfahrens von fortgeschrittenen Reaktortypen, einschließlich der Verkürzung der Zeit zwischen Antragstellung und endgültigem Bescheid. Verkürzung der Verzögerungen durch Änderungsanträge und Ergänzungen zum Antrag. [Anmerkung: Dies mutet revolutionär an, für eine Institution, die es gewohnt ist, in Stundenlohnarbeit zu existieren. Sollte eine Rückkehr zu den Grundsätzen von Admiral Rickover denkbar sein?]
  4. Möglichkeiten zur Übernahme von allgemeingültigen Berechnungsverfahren und Standards in das Zulassungsverfahren um die Zeit für die Vervollständigung zu verkürzen und eine Anpassung bei der Umsetzung zu unterstützen. [Anmerkung: Hier versteckt sich die Frage nach der Notwendigkeit des berüchtigten “nuclear grade”. Kann man nicht erprobte Standards und Verfahren aus z. B. der Luftfahrt einfach übernehmen? Welche Komponenten sind bei fortgeschrittenen Konzepten überhaupt noch sicherheitsrelevant?]
  5. Möglichkeiten, das Zulassungsverfahren besser vorhersagbar zu machen. Dazu zählt die Möglichkeit, Meilensteine zu definieren und anzuwenden.
  6. Möglichkeiten, die es Antragstellern erlauben, Anträge zeitlich gestaffelt abzuwickeln, ohne daß die Genehmigungsbehörde schon geprüfte Teile noch einmal bearbeiten muß. Diese Vorgehensweise soll es der Genehmigungsbehörde ermöglichen, bedingte Teilprüfungen, frühzeitige Informationen zur Konstruktion und Vorlagen die Prozesse und Konstruktionsdaten enthalten, die erst in einer späteren Prüfungsphase behandelt werden.
  7. Das Ausmaß in dem Maßnahmen bei der “Genehmigungsbehörde” oder politische Veränderungen nötig sind, um diesen Plan in Kraft zu setzen.
  8. Wie stark sich die Zulassung fortgeschrittener Reaktoren auf die Langzeitstrategie der “Genehmigungsbehörde”, die geplanten Betriebsmittel, die personelle Ausstattung und die notwendig werdenden Subventionen auswirkt.
  9. Möglichkeiten der Aufteilung der Kosten für Antragsteller bei gegliedertem Genehmigungsverfahren.

(b) Erforderliche Zusammenarbeit der Interessengruppen – Für die Entwicklung des geforderten Plans gemäß (a) soll sich die “Genehmigungsbehörde” mit dem “Energieministerium”, der kerntechnischen Industrie und anderen öffentlichen Interessengruppen verständigen.

(c) Schätzung der Kosten und des Zeitbedarfs – Für den unter (a) beschriebenen Plan sind die zu beantragenden Kosten abschätzen, ein Haushalt aufzustellen und spezielle Meilensteine für das Inkrafttreten eines geregelten Genehmigungsverfahrens für fortgeschrittene Reaktortechnik bis zum 30. September 2019 zu bestimmen.

(d) Status der Bauartgenehmigung – In dem ersten Etatantrag nach Entgegennahme eines Antrags für einen fortgeschrittenen Reaktor und später jährlich soll die “Genehmigungsbehörde” die Leistungskennzahlen und die Zeitachsen der Meilensteine liefern. Der Budgetantrag soll einen Plan zur Angleichung oder Wiederherstellung von Terminverschiebungen, einschließlich Verzögerungen die sich aus der mangelhaften Ausstattung der “Genehmigungsbehörde” ergeben, enthalten.

Abschließende Bemerkungen

Wer immer noch meint, nicht zu wissen, was Präsident Trump eigentlich will, sollte schleunigst seine Wahlkampfaussagen – im Original – nachlesen. Wer übrigens schon im Wahlkampf zugehört hatte, dem erschien ein Wahlsieg schon damals nicht unwahrscheinlich. In Deutschland ist es zu einer Unart geworden, nicht mehr zu zu hören, sondern kritiklos das nachzuplappern, was andere meinen, was jemand gesagt hätte. Sofern dies nur die eigenen ideologischen Scheuklappen unterstützt. Darüberhinaus ist es in Deutschland scheinbar undenkbar geworden, daß ein Politiker wirklich das umsetzt, was er im Wahlkampf immer wieder verkündet hat.

So ist es auch mit dem Thema: Trump und die Kernenergie. Trump hat in seinem Wahlkampf – wirklich bei jedem Auftritt und in jeder Fernsehdebatte – immer betont, daß Arbeitsplätze sein wichtigstes Regierungsziel sind. In diesem Sinne, ist er auch immer wieder für Kohle, Öl und Gas eingetreten: Mehr Förderung bedeutet mehr Arbeit, geringere Preise und damit letztendlich mehr Wohlstand. Er hat aber nie behauptet, daß deshalb mehr Kohle, mehr Gas und mehr Öl in den USA verbrannt werden müssen! Ganz im Gegenteil. Er ist immer wieder für Exporterleichterungen eingetreten. Dies mögen grüngefärbte Sozialisten für völlig falsch halten, offensichtlich aber nicht seine Wähler. Sie haben sich auch nicht durch mehr als drei Jahrzehnte mediales Trommelfeuer zur “Klimakatastrophe” umerziehen lassen.

Sein Wahlslogan war: “Machen wir die USA wieder großartig”. Dies läßt natürlich jeden linken Deutschen erschauern. Gehört doch hier Anti-Amerikanismus eher zum guten Ton. Für Trump – und beileibe nicht nur ihn – ist der einzig relevante Gegner der USA, die Volksrepublik China. Wegen ihrer Wirtschaftskraft und ihrem offen imperialen Gehabe in Asien. Viele Amerikaner fühlen sich fatal an das Japan der 1930er Jahre erinnert. Niemand sollte die Bedeutung der Freiheit der Weltmeere für die USA unterschätzen. Dies ist kulturell tief verwurzelt und bisher hat jeder, der versucht hat, die USA auf dem Meer einzuengen, dies mit einer blutigen Niederlage bezahlt.

In diesem Sinne kann China gern Autos bauen oder Mobiltelefone zusammenkleben. Aber die USA werden es mit Sicherheit nicht zulassen, daß China in den zwei Schlüsseltechnolgien Flugzeugbau und Kerntechnik die Führung auf dem Weltmarkt übernimmt. Man hat China eine Menge Technologie verkauft, aber nun ist es an der Zeit, etwas Neues zu bringen. Ganz ähnlich übrigens, zu Großbritannien. Man steigt dort nicht ohne Grund aus dem Europa- und Euratomkorsett aus.

 

Man mag das alles gut oder schlecht finden. Nur die Augen so vor der Realität zu verschließen, wie man es (wieder einmal) in Deutschland macht, wird (wieder einmal) zu keinem guten Ende führen.

Der Beitrag erschien zuerst bei NUKEKLAUS




Die Klimaretter haben in Mathe gepennt!

Und wenn alle Stricke reißen, dann bringen die Offshore-Anlagen – also die auf See – ja immer noch Wind, wenn auf dem Festland Flaute ist. So die Märchenonkels der Medien.

Manchmal stimmt das ja auch. Aber nicht in den typischen Hochdruck-Wetterlagen. Gerade jetzt im Winter werden deutschlandweit bis 85 GW Leistung in der Spitzenstunde gezogen. Wegen zahlreicher Heizungspumpen und Wärmepumpen steigt der Stromverbrauch mit jedem Kältegrad. Im Sommer gibt es zum Vergleich Wochentage, an denen nicht einmal 70 GW Leistung erforderlich sind.

Die letzte Winterwoche vom 16. bis 26. Januar hat wieder einmal bewiesen, daß der Wind auch deutschlandweit streiken kann. Auch auf See wehte kaum mal eine leichte Brise.

Die ganze Woche lief für die Windplanwirtschaft schlecht, aber den Vogel schoß der 24. Januar ab. Um 10 Uhr war eine Leistung von 75 GW erforderlich. Davon brachte nach den Werten des Agora-Internetportals

Photovoltaik 1,604 GW = 2,1 %.

Wind Offshore 0,605 GW = 0,8 %

Wind Onshore 0,196 GW = 0,3 %

Wasserkraft 1,685 GW = 2,2 %

Biomasse 5,234 GW = 7 %

Ohne Scheitholz, Müllverbrennung, Hackschnitzel, Pellets, Biogas und Wasserkraft hätte der Beitrag der Erneuerbaren bei 3,2 % gelegen.

Wenn am 24.01.2017 ganze 3,2 % des Stroms aus Wind und Sonne gewonnen worden sind, so ist der Anteil an der Gesamtenergie noch geringer. Geschätzt deutlich weniger als 1 %.

97 % der Elektroenergie muß an einem wind- und sonnenarmen Wintertag aus fossilen Stoffen, Wasserkraft und Kernenergie erzeugt werden. Und das wird sich auch nicht ändern, weil das Wetter nun mal ist wie es ist. Dagegen kann man auch mit noch mehr Windkraftanlagen nichts machen. Da kann Don Schelnhuber noch so eifrig mit Windmühlenflügeln kämpfen. Zehn mal Null ist immer noch Null.

Das Jahr 2016 war ein schlechtes Windjahr. Vom März bis in den Oktober hinein standen die Windparks immer wieder tage- und wochenweise still. Schellnhuber, Hendricks, Gabriel und Co werden uns natürlich erzählen, daß der fehlende Starkwind dem Klimawandel geschuldet ist. Ohne CO2 würde der Wind pflichtgemäß wehen. Wenn es wiederum zu stark gewindet hätte, wäre das natürlich auch wiederum ein Beweis für den Klimawandel gewesen. Die Klimapropaganda funktioniert wie die Zwickmühle beim Mühlespiel. Die Zwickmühle ist eine Spielstellung bestehend aus fünf Spielsteinen, bei der mit einem Zug eine bestehende Mühle (es ist zu kalt) geöffnet und dabei gleichzeitig eine offene Mühle (es ist zu warm) geschlossen wird.

Die armen Wetterfeen im Fernsehen tun mir langsam leid. Aus jedem Liter Regen, aus jeder Mütze Wind und aus jedem Sonnenstrahl müssen sie ständig die maximale Klimakatastrophe herausargumentieren. Das erinnert mich fatal an die Wettbewerbsparole „Aus jeder Mark, jeder Stunde Arbeitszeit, jedem Gramm Material einen größeren Nutzeffekt!“

Der Primärenergieverbrauch beinhaltet neben Strom auch Heizung, Prozeßwärme und nichtelektrische Energie für den Verkehr. Über das ganze Jahr 2015 wurden entsprechend den Tabellen der „AG Energiebilanzen“ 12,5 % des Primärenergieverbrauchs aus erneuerbaren Energien gewonnen. 27,3 % der Erneuerbaren stammten wiederum aus Wind und Sonne. Daraus kann man den Anteil von Wind und Sonne am deutschen Primärenergieverbrauch für das ganze Jahr 2015 durch einfache Multiplikation ermitteln: 3,4 %.

Bei einem Aufwand für dieses magere Ergebnis von etwa 26 Mrd. €. 26 Billionen würden aus klimatischen Gründen auch keine 100 % Versorgung durch Erneuerbare bringen. Was wirklich zählt auf dieser Welt, bekommst du nicht für Geld.

Die Energiewende inclusive der Dekarbonisierung ist so irrational. Aber es gibt ein historisches Vorbild. Ganz Ägyptenland war zur Zeit der Pharaonen damit beschäftigt Pyramiden zu bauen. In dem festen Glauben, daß so die Fahrt des Herrschers in den Himmel funktionieren würde. Alles Mehrprodukt wurde in diese eine Obsession investiert. Heutzutage schüttelt man den Kopf darüber.

Dr. Merkel läßt genauso wie die Pgaraonen gleichzeitig mehrere Großbauten errichten: Die Windkraftpyramide, die Asylpyramide und die Europyramide. Davor sie selbst als undurchschaubare Sphynx.

Die Pyramiden von Ramses dienen heute dem Tourismus. Von Merkels Großtaten wird in zwanzig Jahren nichts mehr künden.

Da die Klimafritzen nicht rational argumentieren, hab ich ihnen ein Kindergedicht gemacht:

Lieber guter Klimamann,

zügle bitte deinen Wahn,

es weiß schließlich jedes Kind,

launisch ist bei uns der Wind.

willst du mehr als 5 Prozent

hast du in Mathe nur gepennt.




„The Uncertainty Has Settled“ – Welturaufführung am 9. und 12.2. im Berliner Kino Babylon

Der Film „The Uncertainty Has Settled“ persifliert mit seinem Titel den Ausspruch des damaligen kalifornischen Gouverneurs und Groß-Klimawissenschaftlers Arnold (the Terminator) Schwarzenegger, der behauptet hatte:

The debate is over- the science is settled.

Mit ihm behaupteten das viele andere in der nicht ganz falschen Erwartung jede Diskussion über dieses Thema von vornherein abzuwürgen. Das ist ihnen trotz gewaltiger weltweiten medialen Unterstützung jedoch nicht gelungen.

Unter Nutzung von Beispielen aus der Landwirtschaft und mit vielen Interviews bedeutender Zeitzeugen und Wissenschaftlern beleuchtet der Film den Klimawandel und sein Umfunktionieren zur Änderung unserer Energieversorgung. Seine Frage aus dem Untertitel lautet: „Machen wir das Richtige?“

Er ist der Eröffnungsfilm dea Unabhängigen Film Festivals das in Berlin an diesem Tag eröffnet wird.

Karten können bei rechtzeitiger Bestellung für den 9 Februar, 22.00 Uhr or 12 Februar, 18.00 Uhr erworben werden.Invitation – Worldpremiere




10. IKEK Würdigung des Beitrages von EIKE für Wissenschaft und Demokratie

Er vergleicht die Ideale, die der Kommunismus vorgab zu vertreten mit denen der Klimarettungsideologie, nämlich die Menschheitsrettung vor sich selber mittels Hinführung des Kollektivs zum paradiesischem Zustand unter als notwendig dargestellter Opferung der Rechte, ja der Würde des Individuums. Beides lässt sich nur diktatorisch erreichen und beides nennt Lengsfeld, wenn auch in Bezug auf die Klimaideologie verklausuliert, verbrecherisch.




Weltpremiere eines Dokumentarfilms über Landnutzungswandel, Energiepolitik und Klimawandel

Am 9. Februar 2017 feiert ein Dokumentarfilm zu einem hochaktuellen und brisanten Thema seine Weltpremiere in Berlin: The Uncertainty Has Settled von Marijn Poels, ein Film über Landnutzungswandel, Energiepolitik und Klimawandel eröffnet als Langfilm, das Berlin Independent Filmfestival. In einer Mischung aus Doku und Fiction wird Poels durch eine Auszeit in den Bergen Österreichs zunächst auf die gegenwärtige Situation der europäischen Landwirtschaft aufmerksam. Eine Reise beginnt, die immer größer werdende Fragen aufwirft. Der Klimawandel ist in den Medien und der Politik beinahe täglich präsent. In Form der Energiewende bestimmt es mittlerweile unser aller Leben. Letztlich ein Milliardenprojekt. Die Bauern sind aufgrund der gut subventionierten Energiepolitik zum Teil zum Energieanbieter geworden. Monokulturen verbreiten sich und einige wertvolle Nahrungsmitteln sind praktisch ausgestorben. Poels wird in seinem 90 Minuten Film gezwungen seine eigene linke Ideologie zu hinterfragen: Machen wir das Richtige?

Die Wissenschaft hingegen verkündet: The science has settled. Doch was ist von den skeptischen Wissenschaftlern zu halten, die die Notwendigkeit dieser rasanten Umwälzung anzweifeln? Darunter hoch angesehene Wissenschaftler, wie der Physik-Nobelpreisträger Ivar Giaever oder der 93 jährige Professor Freeman Dyson der Princeton University den Poels nahe New York aufsucht. Poels versucht nicht, dem Zuschauer eine neue Wahrheit zu präsentieren, er stellt Fragen und überlässt es dem Zuschauer, sich seine eigene Meinung zu bilden.

Die Filmpremiere findet am 9. Februar 2017 um 22.00 Uhr im Kino Babylon in Berlin Mitte statt. Mehr infos: http://www.berlinfest.com, http://www.theuncertaintyhassettled.de




10. IKEK Dr. S. Lüning – Vulkane, die schwarzen Schwäne der Evolution?

Der Ko Autor des Klimabestsellers „Die kalte Sonne“ fängt damit an, dass er nun schon zum dritten Mal in Berlin zum Klimathema vorträgt.
Das erste Mal, bei der Vorstellung des Buches „Die kalte Sonne“, dessen Thesen vom überaus starken Einfluss der Sonne über die verschiedensten Prozesse – insbesondere denen der atlantischen wie pazifischen Strömungen- sich seit dieser Zeit immer stärker bestätigt, über die Verabschiedung eines verdienten Geologie-Professors an der TU in den Ruhestand, bei dem Lüning zusammen mit den damaligen Vizechef des PIK F.W. Gerstengarbe, ein Streitgespräch führen durfte bis zum heutigen Tage.

Zur Einstimmung in das Thema zitiert er aus Nicolas Talebs berühmten Buch „Der schwarze Schwan“, um zu erläutern, dass damit unvorhergesehene, aber nicht ganz unwahrscheinliche, jedoch sehr wirkmächtige Ereignisse gemeint sind, die sämtliche Wahrscheinlichkeitsberechnungen, die fast alle auf irgendeine Weise mittels Gleichverteilungen und/oder Trendfortschreibungen bestimmt werden, über den Haufen werfen. Vulkane bzw. deren Ausbrüche gehören zweifelsfrei zu solchen Ereignissen. Z.B. in dem sie dank ihres Ascheauswurfes evtl. eine neuen kleine Eiszeit auslösen können.
Diese Hypothese verfolgten einige Autoren, die auch in „Nature “ veröffentlichen durften. Ziel war die ganze kleine Eiszeit als nicht sonnenabhängig zu erklären. Sie mussten aber später einräumen, dass sie sich schlicht im Zeitmaßstab vermessen hatten. Über dieses Eingeständnis, eines durchaus normalen Fehlers, wurde jedoch später von den Medien nicht mehr berichtet. Null. Spätere papers zeigten hingegen das ganze Gegenteil. Die klimatischen Einflüsse der Vulkane sind vorhanden (Sigi et. al 2015) aber nur sehr kurzfristig -in Klima relevanten Zeitmaßstäben- abkühlend wirksam. Später im Vortrag zeigt Lüning auf, dass auch Alfred Wegener einen solchen schwarzen Schwan – nämlich die Kontinentalverschiebung – entdeckt hatte.

Die Sonnenaktivität hat, wie Lüning zeigt, einen ganz wesentlichen Anteil an der Erwärmung, weil bei jeder dieser massiven Erwärmungen, diese einen Höchststand hatte. Jedoch spielen sie im IPCC Bericht keinerlei Rolle.




Ein Physiker und „die“ Energiewende

Die Absorption und Wandlung der Energie eintreffender Solarstrahlung erzeugt und betreibt bekanntlich seit etwa 3,5 Milliarden Jahren Flora und Fauna der Erde. Ihre Erwärmung auf einen geeigneten Temperaturbereich ermöglicht es der Flora, mit einer Wandlung von Solarstrahlung Kohlendioxid zu spalten und als chemische Energie in Form von Kohle und Kohlenwasserstoffen (lebend und tot) zu speichern.

Diese fossilen Energiespeicher (und der Sauerstoff) betreiben wiederum die aufgesattelte Fauna der Erde mit der Spezies Mensch. Mit der Nutzung dieser fossilen Energiespeicher wurde für ihn nahezu die gesamte Oberfläche des Festlandes bewohnbar und ließ die Population des sog. „homo sapiens“ in etwas mehr als 100.000 Jahren (trotz der Nutzung der Kohle im Schießpulver) über 7,5 Milliarden hinaus anwachsen.

Seit einigen tausend Jahren ergänzt der Mensch die Nutzung fossiler Energie mit der Beimischung des zur kinetischen Energie von Wind und Wasser gewandelten Anteils der absorbieren Solarstrahlung für den Antrieb von Schiffen, Wind -, Wassermühlen und Pumpen. Noch heute machen solche Pumpen sogar Landflächen unterhalb des Meeresspiegels bewohnbar. – Einen sinnvollen Rückfall zur fossilen Energie besorgten im 19. Jahrhundert Dampfmaschine, Dampfturbine, Stromgenerator, Elektro- und Verbrennungsmotor. Die zusätzliche Nutzung der „kinetischen Solarenergie“ – ausgenommen die Wasserkraft – verschwand wieder im Museum der Geschichte.

Die Wandlung fossiler Energie in elektrischen Strom wurde unverzichtbar für die Existenz der menschlichen Gesellschaft. Elektrische Energie lässt sich nicht speichern, sondern lediglich mit Verlust in andere Energiearten rückwandeln. Daher muss ihre Erzeugung und Bereitstellung stets dem schwankenden Verbrauch sekundengenau folgen!

Ab Mitte des 20. Jahrhunderts wurde mit der Kernenergie erstmalig eine von der Sonne unabhängige Energiequelle für die Stromerzeugung verfügbar. Ihr Anteil an der Stromversorgung ist grundsätzlich frei wählbar. Die globale Ausbreitung der Nutzung von Kernenergie geht von den Industrieländern aus und schreitet fort.

Deutschland hatte sich zunächst in die Spitzengruppe der Kernenergienutzer eingereiht. Im Jahr 2000 wurden nicht fossil 35% des Stroms (Kernenergie 31%, Wasserkraft 4%) und fossil 65% erzeugt (Kohle 50%, Erdgas 10%, Sonstige 5%).

Regelbare Kraftwerke deckten zuverlässig den etwa zwischen 45 – 75 GW1 schwankenden Bedarf. Die Jahresmenge zwischen 600 – 650 TWh.2 Ist bis heute kaum gestiegen.

Plötzlich lassen Ende des 20. Jahrhunderts Politiker den bösen Geist eines vermeintlichen „anthropogenen Klimawandels“3 aus der Flasche sog. Klimaforscher mit der Parole:

„Die Nutzung fossiler Brennstoffe wird durch den Ausstoß von CO2 mittlere Temperaturen auf der Erde katastrophal um weit mehr als 2 °C, die Meeresspiegel um mehrere Meter ansteigen lassen!“

Der Physiker ist irritiert: An seinem Wohnort Berlin ist es leider um 6 °C kälter als in Rom, der Hauptstadt seines Urlaubslandes Italien. Auch ist ihm bekannt, dass Wetter nicht einmal für Wochen vorhersagbar ist, seine Statistik erst das Klima definiert und niemand eine Statistik prognostizieren kann! – Doch „das deutsche Primat der Politik“ will es besser wissen:

Bis zum Jahr 2016 werden 25.000 „Windkraftwerke“ und zigtausende Quadratmeter Solarzellen – koste es was es wolle – in der Landschaft verteilt. Ihre „Nennleistung“ überschreitet bereits 90 GW. Zwar kann keines der regelbaren Kraftwerke ersetzt werden, doch wird deren unverzichtbare Stromlieferung insgesamt unwirtschaftlich, weil kapp 20% ihres ursprünglichen Beitrages bei nahezu unveränderten Betriebskosten zwangsweise vom „Zappelstrom“ verdrängt werden.4

Video der Leistung von Wind & Solarstrom im Oktober 2015. Rechnerisch wurde dann die Windeinspeisung in einer Schritten bis um das 10 fache erhöht. Die Solareinspeisung bei 50 GW gedeckelt. Der Film zeigt nun klar auf: 1. Trotz rd. 10 facher Überdimensionierung (485 GW Installiert zu 50 GW mittlerer Bedarf) können diese Erzeuger den Bedarf nur an rd. 50 % der Tage decken, bzw. überdecken. Der überschießende Rest muss abgeregelt oder gespeichert werden. 2. An rd 50 % der Tage fehlen große Leistungen, obwohl 485 GW  installiert wurden. 3. Nie wurde auch nur ansatzweise die installierte Leistung abgegeben. Die Spitze lag bei rd. 150 GW (von 435 GW Wind). Kosten wurden nicht betrachtet. Daten EEX, Grafik Rolf Schuster

Der Physiker hoffte lange: Bald muss doch auch der Letzte merken, dass noch mehr „Erneuerbare“, noch mehr Stromleitungen und noch „smartere Netze“ nur weiter in die Sackgasse führen.

Doch es kam noch schlimmer:

Im Jahr 2011 zerstört in Japan ein Tsunami Kernkraftwerke. Die Gesundheit von Menschen dort wird nicht gefährdet, die für die Sicherheit in Deutschland zuständigen Fachleute prüfen den Vorfall und geben weiter grünes Licht für deutsche Kernkraftwerke. Das „deutsche Primat der Politik“ will es anders: Man „findet“ den Rat fachfremder sog. „Ethiker“, legt unverzüglich 8 der deutschen Kernkraftwerke still und will den Rest bald folgen lassen. – Auch die deutsche CO2 Freisetzung steigt weiter, die Temperaturen seit 20 Jahren leider nicht.

Stromversorgung am Kollaps, ein Bahnhof in Stuttgart, eine Philharmonie in Hamburg, ein Flughafen in Berlin! Der Physiker ist nicht mehr irritiert sondern hat endlich begriffen: In Schilda sind Realität und Fakten nur Störgrößen!

1 Für einen zuverlässigen Betrieb der deutschen Stromnetze muss die in Form regelbarer Kraftwerke verfügbare Gesamtleistung nach wie vor mindestens etwa 85 GW betragen.
2 Der Peis für Haushaltsstrom betrug etwa 12 Cent/kWh, die Strompreise für die Industrie lagen darunter.

3 http://de.scribd.com/doc/190496647/Angst-auf-Objektsuche-wahlt-Klimawandel-und- Energiewende
4 Der Preis für Haushaltsstrom steigt auf 30 Cent/kWh und der Strompreis für Industriestrom wird zum Erhalt von Arbeitsplätzen vom Steuerzahler subventioniert.

 




Schöne neue Öko-Energiewelt: Licht aus, Pullover an, Treppe statt Lift

Öko-Rotkäppchen und der böse Dunkelflaute-Wolf

Den Ernst der Lage verdeutlicht eine Meldung des Manager-Magazins vom 19. Jan. 2017 [MaMa]. Unter der Überschrift „Blackout-Gefahr – Atomkraftwerke schwächeln – In Frankreich gehen die Lichter aus“ wird gemeldet, dass die Stadtverwaltung von Paris wegen der extremen Stromknappheit an etwa 330 öffentlichen Gebäuden die Außenbeleuchtung ausschalten ließ. Weitere von der französischen Regierung im Rahmen einer groß angelegten Kampagne angeregte Stromsparmaßnahmen: Franzosen sollen mehr Treppen steigen statt den Fahrstuhl zu benutzen, und auf große E-Mail-Anhänge verzichten, um Serverleistung zu sparen. Wohnräume sollen nur auf 19 Grad geheizt werden, Bewohner dickere Pullover tragen und häufiger die Lichter ausmachen. Selbst großen Industriebetrieben wie der Aluminiumschmelze von Rio Tinto Alcan in Dünkirchen will man notfalls die Stromzufuhr kappen. Normalerweise sollte man solche Vorschläge angesichts der Erfordernisse moderner Industrienationen für einen schlechten Witz halten. Doch leider ist dies kein Scherz, sondern bitterer Ernst. Ohne die Unterstützung der Nachbarländer über das europäische Verbundnetz wären in der „Grande Nation“ vermutlich bereits im November 2016 die Lichter ausgegangen. Wie kam es dazu?
Bild 1 rechts. Stromerzeugungsanteile in Frankreich (Bild: Commons.Wikimedia, Theanphibian [Thea])

 

Sorgen bei der Kernkraft

Eigentlich hatte Frankreich bereits vor Jahrzehnten voll auf die Kernenergie gesetzt und mit aktuell 58 Kraftwerken den mit Abstand größten Bestand in Europa. Sie decken den Strombedarf des Landes zu über 70 %, Bild 1. Damit hätte das Land bei konsequenter Fortführung bis heute ein stromsorgenfreies Dasein. Diverse politisch bedingte Fehlplanungen führten jedoch zu Überkapazitäten, außerdem wurde die französische Kernenergiepolitik von Nachbarländern aus heftig befehdet. Dies führte dazu, dass Neubau bzw. Ersatz von KKW bisheriger Bauart auf die lange Bank geschoben wurden und man wegen der in Europa vorherrschenden Sicherheitsbedenken mit dem EPR einen neuen Reaktortyp entwickelte, der wegen der übertriebenen Berücksichtigung von Einwänden und Vorbehalten weitaus komplexer und teurer ausfiel als seine Vorgängermodelle. Von diesem sind bisher jedoch erst zwei Exemplare im Bau, wobei es sowohl in Olkiluoto (Finnland) als auch in Flamanville (Frankreich) zu massiven Problemen mit Termin- und Kostenüberschreitungen kam. Hinzu kam, dass 2016 bei der Überprüfung der vorhandenen Reaktoren technische Mängel aufgrund der Verwendung möglicherweise fehlerhafter Stahllegierungen festgestellt wurden. Deshalb wurde im Oktober 2016 beschlossen, zahlreiche Kernkraftwerke im rollierenden Verfahren zur Durchführung der erforderlichen Kontrollen für jeweils mehrere Wochen abzuschalten. Dadurch kam es bereits im November 2016 zu massiven Stromengpässen. An der französischen Strombörse EPEX schnellte der Preis im Day-Ahead-Handel fallweise auf bis zu 850 €/ Mwh hoch. Das entspricht dem 20- bis 40fachen des sonst üblichen Niveaus von um die 20-40 €/MWh [EPEX].

 

Kollapsbefürchtungen im Januar

Um einen befürchteten Kollaps in der stärksten Kälteperiode, die üblicherweise im Januar auftritt, zu vermeiden, legte Frankreich zusammen mit Nachbarländern Notfallpläne auf Kiel. Den Beteiligten war klar, dass Frankreich aus seinen Nachbarländern – Schweiz, Belgien, Großbritannien, Spanien und vor allem aus Deutschland – erhebliche Mengen Strom importieren musste. Deshalb erhöhten beispielsweise die deutschen Netzbetreiber kurzfristig die Übertragungsfähigkeit von Stromtrassen nach Frankreich, zudem wurden geplante Wartungsarbeiten an Stromleitungen außerplanmäßig verschoben [WIFR]. Dass dies nachteilige Auswirkungen auf die Versorgungssicherheit in Deutschland haben könnte, sei hier nur am Rande vermerkt.

 

Terminanpassungen bei Wartungsabschaltungen

Eine noch wichtigere Rolle dürfte jedoch spielen, dass die Genehmigungsstellen in Frankreich ihre Terminvorgaben an die Notfallsituation angepasst haben. So meldete die „World Nuclear News“ am 16. Januar, dass die zuständige Aufsicht bereits am 12. Januar die Genehmigung zur Wiederinbetriebnahme von neun Reaktoren – Bugey 4, Dampierre 3, Fessenheim 1, Gravelines 2 und 4, Saint-Laurent B1 sowie Tricastin 1, 3 und 4 – erteilt habe [NUNE]. Zugleich wurde der fällige Inspektionstermin von Tricastin 2 mit ausdrücklichem Bezug auf den Stromengpass um zwei Wochen nach hinten verschoben. Ohne dieses Timing, das immerhin rund 10 GW an Reaktorleistung rechtzeitig zum vermuteten Höhepunkt der Kältewelle verfügbar machte, hätte Frankreich möglicherweise sehr massive Probleme mit der Stromversorgung mit der Gefahr eines Blackouts bekommen. Verglichen mit diesen notfallmäßig verfügbar gemachten Kapazitäten ist die Abschaltung von ein paar Fassadenbeleuchtungen kaum der Rede wert.


Bild 2. Schein und Sein: Ungeachtet der riesigen Erzeugungskapazität von mehr als 90.000 MW (blaue Linie) lieferte die Prognose für die EE-Stromerzeugung am 21. Januar 2017 lediglich Werte zwischen 2.100 und 8.500 MW (Daten: [ENTS])

 

Kein Verlass auf deutschen EE-Strom

Wie steht es jedoch um die Fähigkeit Deutschlands zur Hilfestellung in Form von Stromlieferungen? Während grünlinke Klimarettungsapostel ständig Jubelmeldungen über die zunehmende Erzeugung von Strom aus „erneuerbarer“ Energie verbreiten, zeigt die Realität am besonders kritischen Wochenende vom 20-22 Januar, wie verlassen sowohl Deutschland als auch Frankreich gewesen wären, wenn Deutschland nicht noch immer über einen kompletten Kraftwerkspark verfügen würde, der einspringt, wenn Wind und Sonne wegen „Dunkelflaute“ mal wieder keine Lust haben, nennenswerte Mengen an Strom zu produzieren. Bild 2 zeigt, dass die insgesamt über 90.000 MW an installierter Solar- und Winderzeugungskapazität laut Prognose am 21. Januar lediglich zwischen 2.100 und maximal 8.500 MW ins Netz liefern würden. Das reicht fallweise nur für etwas mehr als die Straßenbeleuchtung in beiden Ländern. Grund hierfür ist der geradezu lächerliche Nutzungsgrad der EE-Stromerzeuger Wind und Sonne bei „Dunkelflaute“, Bild 3.


Bild 3. Nutzungsgrad der gesamten über Deutschland sowie der deutschen Nord- und Ostsee verteilten Wind- und Solarkapazitäten am 21.Januar 2017 (Daten: [ENTS])

Selbst zusammengenommen erreichte am 21. Jan. der Nutzungsgrad nur in der Mittagszeit kurzfristig etwas mehr als 9 %, während der Minimalwert nur bei rund 2,4 % liegt. Der Blick auf den Verlauf zeigt sofort, dass es vor allem die Winderzeugung war, die eine geradezu lächerlich schlechte Leistung ablieferte. Damit werden gleich zwei Mythen der Windlobby auf einmal widerlegt. Selbst deutschlandweit weht der Wind nicht immer irgendwo. Die Hoch- und Tiefdruckgebiete, die den Wind antreiben, sind so großflächig, dass Mangel oder Überproduktion meist in ganz Deutschland gleichzeitig auftreten. Gleichzeitig beweist der Kurvenverlauf auch, dass dies auch für den angeblich „grundlastfähigen“ Offshore-Wind gilt, denn die Produktion der großen Windparks in Nord- und Ostsee ist in den Zahlen mit enthalten. Und dies war beileibe keine Ausnahme: Vergleichbare Bedingungen mit deutlich bis dramatisch unterdurchschnittlicher Produktion von Strom aus Sonne und Wind herrschten in Deutschland während gut der Hälfte des Zeitraums vom 1. bis zum 22. Januar.

 

Konsequenzen für den Strompreis

Eine Vorstellung davon, welche Auswirkungen eine überwiegend auf Wind und Sonne ausgerichtete Stromerzeugung nicht nur auf die Verfügbarkeit, sondern auch auf den Preis von Strom habe dürfte, vermittelt Bild 4. Dieses zeigt die an der Strombörse EPEX im Verlauf des 20. Januar erzielten Preise für elektrische Energie im Vergleich zum Preisniveau zur problemlosen Situation am 15. Juli 2016.


Bild 4. Im Verlauf des 20. Januar an der Strombörse EPEX erzielte Day-Ahead-Preise im Vergleich zu einer „Normalsituation“ am 15. Juli 2016 (Daten: [EPEX])

 

Trotz aller ergriffenen Nothilfemaßnahmen war die Versorgungslage wegen der unzureichenden Produktion von deutschem „EE-Strom“ teilweise recht kritisch. Die hektische „Fieberkurve“ der EPEX-Preise vom 20. Januar ist ein deutliches Indiz der angespannten Versorgungslage. Das Preisniveau lag in der Spitze um bis zu rund 700 % über dem üblichen Level. Damit entspricht der Börseneinkaufspreis schon nahezu dem Strompreis von rund 16 ct., den französische Endverbraucher 2015 zahlten. Man muss sich als Verbraucher klar machen, dass solche Situationen bei häufigerem Auftreten in erheblichem Maße auch auf die Endverbraucherpreise durchschlagen würden. Noch deutlicher wird diese Warnung, wenn man berücksichtigt, dass am 7., 8. und 14. November 2016 in der Spitze sogar Preise von bis zu 850,- € pro MWh gezahlt wurden. Das entspricht einem Börseneinkaufpreis von sage und schreibe 85 ct. Das waren zwar nur sehr kurzfristige steile Spitzen, doch vermitteln sie eine Vorstellung davon, welche preislichen Auswirkungen eine derart angespannte Situation bei der Stromverfügbarkeit haben kann, wenn die Stromproduktion bei immer weiter gehender Stilllegung zuverlässiger Kern- und Kohlekraftwerke ernsthaft und für mehr als nur ein paar Stunden den Bedarf unterschreitet.

 

Frankreichs Sozialisten im Dilemma

Interessanter Nebenaspekt der beschriebenen Ereignisse dürften die Auswirkungen auf die energiepolitischen Positionen der französischen Sozialisten sein. Die für Energie zuständige Ministerin Ségolène Royal zeichnete ebenso wie ihr ehemaliger Lebensgefährte Hollande verantwortlich für die 2011 erhobene Forderung nach Stilllegung von 24 der 2011 noch verbliebenen 58 französischen Kernkraftwerke bis spätestens 2025. Das KKW Fessenheim sollte sogar sofort abgeschaltet werden. Vermutlich hat sie in den letzten Wochen jeden Abend auf Knien Dankgebete dafür gesprochen, dass ihre Regierung dieses Vorhaben bisher nicht umgesetzt hat. Mehrheitsfähig dürfte eine solche Politik nach den jetzigen Ereignissen so schnell nicht mehr werden.

Fred F. Mueller

 

Quellen

[ENTS] https://transparency.entsoe.eu

[EPEX] https://www.epexspot.com/

[MaMa] http://www.manager-magazin.de/unternehmen/energie/frankreich-kaeltewelle-bringt-atomkraftwerke-an-grenzen-a-1130754.html

[NUNE] http://www.world-nuclear-news.org/RS-EDF-gets-approval-to-restart-nine-units-16011702.html

[WIFR] https://de.wikipedia.org/wiki/Kernenergie_in_Frankreich

[Thea] https://commons.wikimedia.org/wiki/File:Electricity_in_France_de.svg

 




Der WBGU und die Bewältigung der globalen Klimakrise

Zu Beginn der deutschen Präsidentschaft über die Gruppe der zwanzig wichtigsten Industrie- und Schwellenländer (G20) publizierte der 1992 in Verbindung mit dem „Erdgipfel“ von Rio de Janeiro/Brasilien gegründete Wissenschaftliche Beirat Globale Umweltveränderungen (WBGU) ein Sondergutachten: „Entwicklung und Gerechtigkeit durch Transformation: Die vier großen I“. Dessen Vorsitzender Hans Joachim Schellnhuber umriss den Inhalt in den Fränkischen Nachrichten vom 13. Januar 2017 kurz wie folgt:

„Wir müssen bis 2050 die Welt weitgehend dekarbonisieren. Der Ausstieg aus der Kohleverstromung muss bis 2030 erfolgen, und der Verbrennungsmotor muss endlich auf den Müllhaufen der Geschichte landen. Wir müssen uns auch weitgehend vom Zement als Baustoff verabschieden. Es ist eine Transformation, die nur mit der Industriellen Revolution zu vergleichen ist.“

Zu unserer Rolle meinte er: „Deutschland ist immer noch Antreiber.“

Beanspruchte Deutschland 1992 in Rio nur die Rolle des „Vorreiters“, so ist nun zu fragen, woher die Anmaßung „Antreiber“ herrührt. Ist es ideologische Besessenheit, ist es Größenwahn oder muss wieder einmal die Welt am „deutschen Wesen“ genesen, aufgrund eines grenzenlosen Idealismus gepaart mit Realitätsblindheit? Darüber schweigt der WBUG. Er spielt die Rolle des Erfüllungsgehilfen, der dem „historischen Doppelerfolg für die Nachhaltigkeits- und Klimapolitik“ von 2015 zum Durchbruch verhelfen will. Er bezieht sich auf die bei der „UN in New York vereinbarte Agenda 2030“ und auf das „UN Übereinkommen von Paris zum Klimaschutz“. Mit seiner Forderung nach „vollständiger Dekarbonisierung der Weltwirtschaft bis spätestens 2070“ strebt er eine globale „Große Transformation“ an, um für alle Zeiten für Gerechtigkeit und Frieden durch „Inklusion innerhalb der Gesellschaften“ zu sorgen. Mit der Inklusion will er den „Aufstieg eines autoritären, völkischen Nationalismus“ ausbremsen. Gleichzeitig fördert er das „Leitbild eines gestaltenden Staates“, der das Steuerruder in die Hand nimmt und die „Große Transformation“ vorantreibt.

In diesem Sinne, so heißt es im WBGU-Gutachten, sollten sich die G20-Regierungen als „Pioniere des Wandels“ verstehen, schnell „Dekarbonisierungsstrategien“ entwickeln und sich „an den dekadischen Schritten des Klimaschutzfahrplans orientieren, in dem bis 2050 die weltweiten Emissionen auf Null gesenkt werden“. Hierzu müsse eine „inklusive Kommunikation“ geführt werden: „Zur Entwicklung einer grundlegenden „transfomative literacy“ gilt es einerseits, die kollektiven und individuellen Fähigkeiten zum produktiven und kreativen Umgang mit Herausforderungen zu fördern, und dadurch zugleich Unsicherheiten und Ängste abzubauen, die mit der Konfrontation mit komplexen und ungewohnten Aufgaben einhergehen. Wichtig ist dabei, Risikoinformationen immer mit kollektiven und individuellen Handlungsoptionen zu verknüpfen.“

Ist nun alles klar? Haben Sie das verstanden? Wissen Sie nun, wo die Ursachen und Folgen des Klimawandels liegen? Ich weiß nur, dass die Ursachen des Klimawandels im Wetterwandel liegen. Dessen Ursachen sind unverändert ein „Buch mit sieben Siegeln“ und die Folgen sind erst recht unbekannt, weil uns ein Blick in die Wetterzukunft des Jahres 2050 verschlossen ist. Daran ändert auch eine „umgestaltete Lesefähigkeit“ oder neudeutsch „transformative literacy“ nichts.

 

Zum Auftrag und globalen Sendungsbewusstsein des WBGU 

Der Wissenschaftliche Beirat Globale Umweltveränderungen wurde im Jahre 1992 von der Bundesregierung in Verbindung mit der Konferenz der Vereinten Nationen über Umwelt und Entwicklung, dem „Erdgipfel“ in Rio de Janeiro, unter der Regentschaft von Bundeskanzler Helmut Kohl ins Leben gerufen. Zuständiger Umweltminister war Klaus Töpfer. Der WBGU sollte im Sinne eines „Frühwarnsystems“ auf neue Problemfelder hinweisen und durch Presse- und Öffentlichkeitsarbeit das Bewusstsein für Probleme des globalen Wandels fördern. Er bediente sich dabei geschickt der literarischen Form der Erzählung, des Narrativs, einer populären Geschichte. Damit umging man geschickt unbequemen Fragen nach irgendwelchen ideologischen Hintergründen.

Der WBGU gab von Beginn an vor, sich nur und ausschließlich der „Weltrettung“ wie der Heilung der „Klimakrise“ aus „Zukunftsverantwortung“ im Sinne der „Nachhaltigkeit“ zu widmen, natürlich aus rein ethischen, moralischen wie altruistischen Beweggründen. Im Grunde genommen ist der Auftrag der Bundesregierung, ein deutscher Beirat möge der „Welt“ als Staatengemeinschaft politische Verhaltensregeln vorgeben, eine Anmaßung, eine Art „Selbstermächtigung“. In keinem anderen Volk der Erde hat es etwas Analoges gegeben wie 1986 die „Warnung vor der globalen Klimakatastrophe“ von der Deutschen Physikalischen Gesellschaft e. V. Die Warnung, bildhaft untermalt mit der „Sintflut“ und „Hölle“, hat eine derart kollektive Angstpsychose erzeugt, die in Verbindung mit dem „Waldsterben“ wie dem „Ozonloch“ zu dem Synonym von der typischen „German Angst“ als ostentativ vorgetragenen „Leiden an der Welt“, geführt hat.

Der WBGU, hat zahlreiche Gutachten präsentiert, die der „Klimapolitik“ Orientierung geben und als Stütze dienen sollen. Das Klima eignet sich bestens als Erzählstoff für alle möglichen Klimamärchen. Es einet sich auch sehr gut, um gezielt transformatorische Verhaltenstipps zu geben, um die Gesellschaftsveränderung in die politisch korrekten Bahnen zu leiten. Der WBGU erfüllt seinen Auftrag wunschgemäß und ist fleißig. Bisher hat er speziell zum „Klimaschutz“ folgende Gutachten publiziert:

1997: „Ziele für den Klimaschutz“

2002: „Entgelte für die Nutzung globaler Gemeinschaftsgüter“

2007: „Welt im Wandel – Sicherheitsrisiko Klimawandel“

2011: „Welt im Wandel – Gesellschaftsvertrag für die Große Transformation“

2013: Als Anleitung erschien hierzu ein Märchenbuch in Form eines Comicheftes „Noch

             schnell die Welt retten“ unter Mitwirkung des Paläontologen Reinhold Leinfelder

             (FU Berlin) mit der Aufforderung „Wir brauchen eine Revolution“!

2014: „Klimaschutz als Weltbürgerbewegung“

Die Wege des WBGU sind klar strukturiert und vorgezeichnet. Seine Sprache ist bewusst diffus, um die revolutionäre Absicht zu verbergen und den Bürger nicht frühzeitig aus dem Schlaf zu wecken. Anhand von Reizworten wie „Suffizienzrevolution“ wird von Zeit zu Zeit die Reaktion getestet und, bei massiven Protesten, verbal abgerüstet auf „Öko-Suffizienz“. Die Frage nach dem rechten Maß ist nicht anrüchig und ein Leben, das dem übermäßigen Verbrauch von Gütern durchaus verständlich wie die Forderungen nach Askese, Entschleunigung und Konsumverzicht. Suffizienzrevolution lässt sich elegant durch Effizienzrevolution umschreiben. Wer möchte nicht die „ökologischen Grenzen“ respektieren und Energie wie Stoffe effizienter nutzen?

 

WBGU fordert Weltrettung durch „einzigartigen Kraftakt der Weltgemeinschaft“

Um Akzeptanz für seine Vorschläge zu erzielen, werden „gefährliche Spannungen“ aufgezeigt wie Bürgerkriege und Kriege, Massenflucht und Terrorismus, wachsende Ungleichheit sowie die Gefahr des „Aufstiegs eines autoritären, völkischen Nationalismus“. Die Staaten der G20 werden in die „Führungsrolle“ gedrängt, zumal sie „für 82% der CO2-Emissionen aus fossilen Energieträgern verantwortlich“ sind. Sie sollen die „rapide Dekarbonisierung“ vorantreiben, den Energieverbrauch effektiv begrenzen und bis 2030 die Zulassung von Fahrzeugen mit Verbrennungsmotoren stoppen. Ihre Mittel seien „die vier großen I“: Innovationen, Infrastrukturen, Investitionen, Inklusion. Die Inklusion ist im Singular, weil ein Einwegakt, aus dem es kein Zurück gibt. Ist das Globalziel Inklusion als einer „Gesellschaftstransformation zur Nachhaltigkeit“ erreicht, dann hat die Welt den „gestaltenden Staat“, der als „Weltregierung“ Ungleichheiten bekämpft, seine „soziale Kohäsion“ stärkt und zu einem „Friedensprojekt“ wird. Die „Inklusion auf globaler Ebene“ wird alle „Ressourcen- und Verteilungskonflikte“ entschärfen und somit „Bürgerkriegen sowie Massenflucht“ entgegenwirken.

Diese Idealvision der einen Welt mit dem einen Menschen in der einen Gesellschaft und dem einen Klima „globaler Klimagerechtigkeit“ wird eine friedliche Welt sein, in der nicht nur alle Menschen gleich sind, sondern auch in einem „ökologischen Gleichgewicht“ mit der Natur leben. Doch dieses „Gleichgewicht“ ist eine utopische Illusion! Man muss nur an das „Alles Fließt“ von Heraklit denken. Marxismus und Ökologismus werden unausgesprochen in der Vorstellungswelt des WBGU zu einer quasireligiösen Ideologie, dem globalen „Ökosozialismus“ als geistigem „Überbau“ für alle individuellen wie kollektiven „Ichs“ dieser Erde, verschmolzen.

Alle bisherigen „Krisendynamiken“ sind den sehr „zögerlichen Umweltregulierungen“ geschuldet. Das „herkömmliche Modell der Weltwirtschaft“ greift nicht mehr, so dass die Devise lautet: „Transformation, nicht Reparatur“. Der Rahmen muss im „Dienste des Gemeinwohls“ neu gesteckt werden. Der Auftrag lautet: „Transformation zu einer nachhaltigen Weltgesellschaft und Weltherrschaft“! Dass dieses operative Konzept zum „Multilateralismus“ , diese „ehrgeizige Vision“, dieser „historisch einzigartiger Kraftakt einer solidarischen, evidenzbasierten Modernisierung“ ausgerechnet aus Deutschland kommt, ist erstaunlich und bedenklich zugleich. Wir stehen vor einer einzigartigen „hochdimensionalen Herausforderung“: „Doch nach Auffassung des WBGU ist die Bewältigung der Klimakrise die conditio sine qua non für die Weltgesellschaft im 21. Jahrhundert“. Die Weichen entsprechend zu stellen, dafür „bietet die deutsche G20-Präsidentschaft im Jahr 2017 eine exzellente Gelegenheit, die notwendige Nachhaltigkeitstransformation nicht isoliert von, sondern in Verbindung mit den anderen „Großbaustellen der Weltpolitik“ anzugehen.“

Dafür ist das „Leitbild des gestaltenden Staates“ Voraussetzung, um den Übergang zur Nachhaltigkeit als „globales Modernisierungsprojekt“ voranzubringen. Als Vorbild wird auf die „US-amerikanische Politik des New Deal“ verwiesen. WBGU: „In der heutigen Globalisierungskrise ist ein neuer „Deal“, ein (globaler) Gesellschaftsvertrag zur Nachhaltigkeit und Inklusion erforderlich, der die Grenzen der Nationalstaaten übersteigt und die Überwindung des gegenwärtigen Stagnationszustands der Weltwirtschaft mit dem Projekt der Wiederherstellung des Friedens zwischen Zivilisation und Natur verbindet.“

Nach Auffassung des WBGU steht der „Großen Transformation zur Nachhaltigkeit“ (2011) eine „autoritäre, neonationalistische Gegentransformation gegenüber, die die Zukunftsfähigkeit unserer Gesellschaften, Rechtsstaatlichkeit und Demokratie bedroht“. Im Klartext stehen sich hier zwei Gesellschaftsmodelle gegenüber.

  1. Das traditionelle Modell der in den Vereinten Nationen zusammengefassten 196 souveränen Staaten, die das Paris Abkommen unterzeichnet haben.
  2. Das Modell eines globalen Einheitsstaates, in dem alle Staaten unter Aufgabe ihrer demokratischen Legitimationsprinzipien ihr Selbstbestimmungsrecht aufgehen.

Die „hochrelevante Frage der Begrenzung gesellschaftlicher Disparitäten“, die Frage der globalen Inklusion der Nationalstaaten und damit die Frage nach der Struktur und Legitimation einer wie auch immer aussehenden „Weltregierung“ bleiben offen. Der WBGU belässt es bei der Andeutung, dass er „zwei neuartige Politikelemente ins Spiel bringen“ möchte, nämlich die Idee vom „dekadischen Klimaschutzfahrplan“ und dem „transformativen Staatsfonds“. Mit beiden Maßnahmen soll sich die „Weltregierung“ die notwendigen finanziellen Mittel beschaffen, um das „Leitbild des gestaltenden Staates“ zu verwirklichen.

Wer diesen „Weltstaat“ regiert, wird nicht gesagt. Die Herrschaft wird wohl auf allein auf erfundenen „Sachzwängen“ aufbauen. Der WBGU ist weiter der Meinung, dass sich das „Nachkriegsmodell der globalisierten Wertschöpfung“ festgefahren habe und dass sich mit der nachhaltigen Umgestaltung dieses Modells „eine doppelte Dividende erzielen“ ließe. „Zugespitzt formuliert spricht vieles dafür, dass „nicht die Weltwirtschaft transformiert werden muss, um das Klima zu retten, sondern dass die für die Bewahrung der natürlichen Lebensgrundlagen erforderlichen Innovationen die Weltwirtschaft retten werden!“ Doch was könnte das Wetter verändern, um das Klima zu retten? Der WBGU gibt ganz unumwunden zu: „die umrissene Dekarbonisierung ist nichts weniger als eine industrielle Revolution im Erdmaßstab“!

Das ist die einzige Stelle in dem ganzen Sondergutachten, wo nicht verniedlichend von „Transformation“ gesprochen wird, sondern im Klartext gesagt wird, dass es sich um eine „Revolution im Erdmaßstab“ handelt. Die „Dekarbonisierung“ ist nicht nur eine Abkehr von der Nutzung fossiler Rohstoffe, sie ist eine Deindustrialisierung. Sie ist auch kein Rückschritt hinter die „neolithische Revolution“, sie ist eine Rückabwicklung des dritten Tages der Schöpfung. An diesem Tag wurden nämlich die „grünen Pflanzen“ geschaffen, die „Primärproduzenten“ als Basis für alles höhere Leben auf Erden. Ohne „grüne Pflanzen“ gäbe es keine Nahrung für die Tiere und den Menschen. Ohne die Photosynthese gäbe es auch keinen Sauerstoff, um die Nahrung zu verbrennen und aus ihr Energie und Nährstoffe für alles Leben freizusetzen.

WBGU will die Klimakrise überwinden durch Vernichtung allen Lebens auf Erden 

In dem mit 143 Literaturstellen verzierten Sondergutachten taucht nur einmal das Wort „Revolution“ auf. Es taucht auch nur einmal das Wort „Wetter“ auf, in dem Kapitel „Erwärmung begrenzen und Klimaextreme vermeiden“. Es beginnt: „Seit der 15. Vertragsstaatenkonferenz 2009 in Kopenhagen ist die Begrenzung der globalen Erwärmung auf 2°C gegenüber der Zeit vor der Industriellen Revolution in den internationalen Verhandlungen präsent.“ Präsent scheint es nicht der politischen „Weltelite“ zu sein, dass es „vor“ der Zeit der Industriellen Revolution nicht nur das Klimapessimum der „Kleinen Eiszeit“, sondern auch zwei Klimaoptima zur „Römerzeit“ und im „Hochmittelalter“ gab, deren Zustandekommen bisher kein „Weltklimarat“ hat erklären können. Beide warmen Epochen sind weder den Autofahrern noch den Kraftwerkebetreibern anzulasten. Warum bestehen also die Staatenlenker starrsinnig darauf, dass die momentane im historischen Rhythmus der vergangenen Jahrtausende liegende Erwärmung plötzlich „menschengemacht“ sein soll? Schwingt da nicht eine Art Größen- und Machbarkeitswahn mit?

Es wird aber noch bizarrer, „postfaktischer“! Der WBGU argumentiert weiter: „Die Klimafolgenforschung zeigt, dass bei einem Überschreiten dieser planetarischen Leitplanke gefährliche anthropogene Einflüsse auf das Wetter und Klima (z. B. vermehrte Extremwetterereignisse, Dürren, Überschwemmungen, Verschwinden von Gebirgsgletschern, irreversibles Schmelzen des grönländischen Eisschildes, starker Meeresspiegelanstieg) wahrscheinlicher werden;…“ Könnte das Wetter nicht einfach nur „normaler“ werden? Fakt ist, die „Klimafolgenforschung“ kann gar nichts zeigen und noch weniger beweisen, weil man nur die Folgen von faktischen Wetterereignissen feststellen und bewerten kann. Der Blick in die „Klimazukunft“ wird hermetisch verstellt durch das Wetter. Und die „Wetterzukunft“ ist uns völlig unbekannt, wie alljährlich die nur wenige Monate betreffenden Prognoseversuche des Winter- und Sommerwetters zeigen.

Was gäbe der Mensch für die Fähigkeit, das Wetter längerfristig vorhersagen und seinen Verlauf nach seinem Geschmack manipulieren zu können. Versuche der Beeinflussung des Wetters hat es zahlreiche gegeben. Der indirekt größte Versuch war der 2. Weltkrieg von 1939 bis 1945. Er war gekennzeichnet durch einen gigantischen Ausstoß an „Treibhausgasen“. War die Abkühlungsphase von 1940 bis 1975, die zu Befürchtungen führte, es könnte eine „neue Eiszeit“ kommen, eine Folge? Jedenfalls gab der „National Security Council“ der USA am 2. Mai 1972 ein vertrauliches Memorandum zum Thema „International Aspects of Weather Modification“ mit der Unterschrift von Henry A. Kissinger an die US-Regierung heraus, dessen Vertraulichkeit am 6. September 2002 ob der Aussichtslosigkeit des Vorhabens aufgehoben wurde. Darin heißt es: „The United States shall continue research oaring on climate modification, but no climate modification operation (civilian or military) shall be conducted until its total impact can be predicted with great assurance and without the specific approval of the President“.

Sodann ist in dem Memorandum vermerkt: „The President has decided not to propose at this time legislation for the licensing and regulation of weather modification activities.“ Sehr wahrscheinlich war man sich schon damals der Aussichtslosigkeit der Versuche bewusst, lenkend und steuernd in das Wettergeschehen eingreifen zu können. Und was das Klima betrifft, so ist es einzig abhängig vom Wetter, wie allein die 1935 in Warschau von den Wetterdiensten verabschiedete Klimadefinition offenbart. Der Klimaschutz ist von Beginn an Unfug! Das Klima ist ein Konstrukt, das statistisch vom Wetter abgeleitet ist. Das Klima ist kein Naturvorgang wie das Wetter und hat damit kein Eigenleben. Beschlüsse über „Klimafolgen“ zu treffen, sind hohle Phrasen, die dem Dreschen von leerem Stroh gleichen. Unter diesem Aspekt sei die Frage „in den Raum gestellt“, was die Staatsmänner dieser Erde in Paris sich dabei gedacht haben, eine „Begrenzung der globalen Erwärmung“ festzusetzen?                                                                                    Glaubt der WBGU wirklich ernsthaft, dass sich durch die „Dekarbonisierung“ etwas an der Temperaturverteilung auf der Erde ändert?

In der Photosynthesegleichung sind die drei Elemente zu finden, auf denen die „grünen Pflanzen“ und alles „höhere Leben“ auf Erden aufbauen. Es sind dies die Elemente Wasserstoff H, Sauerstoff O und Kohlenstoff C. Eliminiert man eines dieser Elemente, dann bricht die Existenzgrundlage für Pflanze, Tier und Mensch weg! Das weiß auch der WBGU, denn er schreibt, dass „seit Beginn der Industrialisierung“ eine „verstärkte Photosynthese und damit vermehrtes Wachstum von Pflanzen zu verzeichnen“ ist. Kurz darauf folgt der unsinnige Satz: „Die terrestrische CO2-Senke unterliegt starken zwischenjährlichen Schwankungen und verschwindet in einzelnen Jahren ganz.“ Wachsen „in einzelnen Jahren“ etwa keine Maiglöckchen und Bäume, keine Reben und Rüben, kein Getreide, kein Mais und Reis? Apropos „zwischenjährlich“, es sollte wohl jahreszeitlich heißen!

An dieser Stelle möchte ich die rhetorische Frage stellen, ob die verantwortliche Umweltministerin Dr. Barbara Hendricks und die für die Richtlinien der Gesamtpolitik verantwortliche Bundekanzlerin Dr. Angela Merkel überhaupt das Sondergutachten gelesen und durchgearbeitet, und nicht nur oberflächlich überflogen und die ihnen vorgelegte Presseerklärung „unterzeichnet“ haben. Stimmt dies, dann ist es keineswegs verwunderlich, wenn im denkenden Bürgertum mehr und mehr das Vertrauen in „die Politik“ schwindet.

 

Globale soziale Inklusion zwecks Gesellschaftstransformation zur Nachhaltigkeit

Die Sprache des Sondergutachtens verschleiert mehr als sie offenlegt, doch um dieses zu erkennen, dazu bedarf es eines sorgsamen Studiums. Unter Termin- und Zeitdruck stehende Politiker begnügen sich daher mit kurzen Zusammenfassungen und sind dann erschrocken, wenn sie erfahren, was sie alles beschlossen und unterschrieben haben. In der Regel ist es dann zu spät, um die Weichen anders zu stellen. Eine Forderung des WBGU ist die nach einer Stärkung des „gestaltenden Staates“. Dieser habe die Aufgabe, „soziale Innovation zu fördern und eine inklusive Entwicklung unter den Bedingungen der Globalisierung sicherzustellen“. Dies geht aber nur, wenn alle Staaten ihre Grenzen und ihre Souveränität aufgeben, mithin als „nationalstaatliche Demokratien“ abdanken zugunsten eines „Welteinheitsstaates“.

Dieser soll aus zwei Einnahmequellen schöpfen. Erstens soll CO2 intensiver besteuert werden, indem pro Dekade die CO2-Abgabe verdoppelt wird. Von 30 US-$ pro t CO2 soll bis 2060 die Abgabe auf 240 US-$ steigen, um den „Klimaschutzfahrplan“ einzuhalten. Dann soll ein „Zukunftsfonds“ für „neue staatliche Handlungsspielräume“ aufgebaut werden. Die Idee baut auf folgender „Logik“ auf: Da die individuellen Vermögen wesentlich „in Verbindung zur Nutzung fossiler Energie“ stehen, wird den G20-Staaten die Einführung einer „Generationenkomponente auf individuelle Vermögen in Form einer progressiven Erbschaftssteuer auf Nachlassvermögen (Nachlasssteuer) angeraten. Der WBGU „plädiert dafür, dass 10-20% des nationalen Erbschafts- und Schenkungsvolumens für die Finanzierung des Zukunftsfonds zur Verfügung stehen.“

Zudem soll die Reichweite von Innovationen ausgeweitet werden hin zu „disruptiv-transformativen soziotechnischen Innovationen“. „Umfassende Systemtransformation“ ist das Ziel. Natürlich darf die „Ernährungsgerechtigkeit und die Nachhaltigkeit globaler Ernährungsmuster“ nicht fehlen. Und angesichts des „globalen Urbanisierungsschubs muss über die Art und Weise, wie Städte gebaut werden, völlig neu nachgedacht werden“. Das bedeutet: „Im Bausektor sollten „Materialien wie Beton und Stahl durch klimafreundliche Substanzen wie Holz, Ton und Stein ersetzt werden.“ Haben sich Beton und Stahl durch eine „Wetterfeindlichkeit“ negativ ausgezeichnet oder nicht genügend Schutz vor den Wetterunbilden geboten? Die geforderten Mittel für eine „internationale Klimakooperation“ sollten lieber in eine „Wetterkooperation“ investiert werden, um die Analyse, die Diagnose und Prognose des Wetters international zu verbessern.

 

Professor Dr. Hans Joachim Schellnhuber CBE, der Chef von WBGU und PIK

Verantwortlich als Vorsitzender des WBGU ist Prof. Dr. Dr. h.c. Hans Joachim Schellnhuber CBE, zugleich Direktor des Potsdam-Instituts für Klimafolgenforschung; Professor für Theoretische Physik an der Universität Potsdam; External Professor am Santa Fe Institute. Schellnhuber war ab 1989 Professor für Theoretische Physik am Institut für Chemie und Biologie des Meeres an der Universität Oldenburg. Am 1. Januar 1992 übernahm er als Gründungsdirektor die Leitung des PIK. 1993 wurde er regulärer Direktor und erhielt den Lehrstuhl an der Universität Potsdam. Schellnhuber schreibt selbst in seinem Buch „Selbstverbrennung“, wie er zu dieser „Ehre“ kam. „Ich selbst wurde ab 1990 eher zufällig in dieses intellektuelle Abenteuer (die Klimawirkungs-Forschung) hineingezogen, wobei ein welthistorisches Ereignis die Hauptrolle spielte: der Fall der Berliner Mauer am 9. November 1989.“ Der damalige Ministerialdirigent Werner Menden im Bundesumweltministerium Werner Menden habe ihn auf seine „Mission Impossible“ vorbereitet.

Warum er als Physiker, der zumindest theoretisch mit den physikalischen Vorgängen in der Atmosphäre vertraut sein muss, diesen „unmöglichen Auftrag“, ohne Ahnung von den komplizierten Strömungsvorgängen bei der Allgemeinen Zirkulation über die „Klimafolgewirkungen“ zu forschen, annahm, ist mir unerklärlich. Offensichtlich war das mehr ein gesellschaftspolitischer Auftrag, wie der Bezug zum „Fall der Berliner Mauer“ andeutet, zusammen mit einem Aktionsprogramm „Ökologischer Aufbau Ost“. All dies fand statt unter der „Oberaufsicht“ von Bundesumweltminister Prof. Dr. Klaus Töpfer. Es ging unter dem Gesamtaspekt „Ökologisches Gleichgewicht“ um eine Neujustierung der Weltpolitik nach Wegfall des „Kommunismus“. Da keine Weltmacht sich offen zum „Lenker der Welt“ aufschwingen wollte und jedwede Ideologie politisch verpönt war, verfiel man auf den Begriff „Narrativ“. Der Begriff kommt aus den Sozialwissenschaften. Ein Narrativ ist nichts als eine sinngebende Erzählung, mit der Emotion transportiert, Orientierung gegeben und Zuversicht vermittelt werden soll.

Nach dem damaligen Stand der Nachhaltigkeits- und Transformationsforschung lassen Narrative sich am besten in Krisenzeiten durchsetzen, auch wenn sie wie die Klimakrise nur eingebildet sind. Eine Transformation ist eine „gewaltfreie“ gesellschaftliche Umformung und Verwandlung, die auf lange Sicht eine ähnliche Wirkung erzielen kann wie ein gewaltsamer Umsturz, eine Revolution. Es wird behauptet, dass Transformation das Resultat rational handelnder Akteure ist. Doch exakt das Gegenteil ist bei der „Klimapolitik“, ob auf nationaler oder internationaler Ebene, der Fall. „Klimaschutz“ ist der Gipfel der Irrationalität. Kein amerikanischer, australischer, brasilianischer, chinesischer, indischer, japanischer, südafrikanischer oder anderer der G20-Präsidenten ist so vermessen zu behaupten, er könne das Wetter seines Landes schützen, extreme Wetterereignisse verhindern. Alle diesbezüglichen Klimaschutzversprechungen sind Schall und Rauch, sind Spökenkiekerei, sind primitive Modell-Wahrsagerei.

Der WBGU glaubt selbst nicht an seine Versprechungen, denn warum sonst würde zum Schutz vor dem Wetter Anpassungsmaßnahmen wie „Überschwemmungsschutz“ und „Wirbelsturmschutzräume“ empfehlen. Die ersten Schutzräume vor dem Wetter, die der Mensch aufsuchte, waren Höhlen. Frankreich ist ein Eldorado für Höhlen und Grotten, aber auch in Baden-Württemberg kann man „Höhlen der letzten Eiszeitkunst“ besichtigen und die „Venusfigur“ mit einem Alter von etwa 40000 Jahren zu bewundern.

Was der WBGU unter des Kaiser’s neuem Kleid „Klimaschutz“ wirklich verbirgt, das sagt er nicht konkret. Es könnte sein, dass David Rockefeller 1999 in Newsweek einen Hinweis gegeben haben könnte: „Irgendetwas muss die Regierungen ersetzen, und mir scheint, dass die private Macht die geeignete Identität dafür ist.“ Wenn Weltherrschaft das Ziel ist, dann sind die nationalstaatlich verfassten Demokratien Hindernisse auf diesem Weg privater Mächte, die weggeräumt werden müssen. Der WBGU-Warnruf vor dem Aufstieg „eines autoritären, völkischen Nationalismus“ ist ein Ablenkungsmanöver. In allen Demokratien der Erde sollten die Alarmglocken läuten. Es geht um ihre Existenz. Es geht um die freiheitliche demokratische Grundordnung der Vereinten Nationen. Soll das Motto „Geld regiert die Welt!“ die Zukunft sein?

 

Bürgervertrauen in die Politik setzt voraus, dass sie mit offenen Karten spielt 

Das WBGU-Sondergutachten ist ein Musterbeispiel, wie man politisch brisante Ziele verklausuliert und unkenntlich macht, bis sie die parlamentarischen Hürden genommen haben. Wenn sie erst „Volksmeinung“ und in „Gesetze“ geschmiedet sind, dann setzen die Sachzwänge ein, dann gibt es kein Zurück. Dieser Weg hat sich bewährt, denn nur die allerwenigsten Volksvertreter lesen vorher, was ihnen zu beschließen empfohlen wird.

Kein Wunder, dass im Bürgertum das Vertrauen in die Politik rapide abnimmt, weil sie nicht den Mut hat, den Bürgern „klaren Wein“ einzuschenken und die Wahrheit zu sagen, die sie von den Bürgern fordert. Wann sehen die Politiker der Welt ein, dass der „Klimaschutz“ per se ein postfaktisches und daher unmögliches Unterfangen ist. Faktum ist das Wetter. Ist es vorbei, und „Klima“ umschreibt die Wettervergangenheit, ist ein Schutz illusorisch. Wenn ein Blitz eingeschlagen hat, ist diese Tatsache unmöglich mehr rückgängig zu machen!

Oppenheim, den 25. Januar 2017                       Dipl.-Meteorologe Dr. phil. Wolfgang Thüne

 

 

 

 

 

 

 

 

 

 

 




Über einen vergeblichen Versuch, unsere Welt vor der Dekarbonisierung zu retten

Ein Warnhinweis vorweg: Wenn Sie Anhänger der „Klimareligion“ sein sollten, könnte der nachfolgende Artikel bei Ihnen zu schweren Beeinträchtigungen bis hin zur Schnappatmung führen.

Jede wissenschaftliche Theorie und jedes wissenschaftliche Theorem kann durch einen einzigen schlüssigen Gegenbeweis widerlegt werden. Und jetzt stellen Sie sich einmal vor, sie hätten einen ganz eklatanten Widerspruch in einer wichtigen physikalischen Berechnung entdeckt, der die Welt, so wie sie uns erklärt wird, nachhaltig verändern würde – oder besser ausgedrückt, Sie glauben entdeckt zu haben, dass es gar nicht notwendig wäre, unsere Welt durch eine Dekarbonisierung bis zum Jahre 2100 vor einer menschengemachten Klimakatastrophe zu retten.

Denn der langfristige Blick in unsere Zukunft wird überschattet von der im Pariser Klimaabkommen vereinbarten Großen Transformation durch eine globale planwirtschaftliche Dekarbonisierung der Welt bis zum Jahre 2100. Mit einer solchen globalen „Energiewende“ hin zu „erneuerbaren Energien“ will die Weltgemeinschaft einer befürchteten „Selbstverbrennung“ unserer Erde entgegenwirken.

Aber ganz so einfach ist das nun auch wieder nicht mit der Weltrettung, denn dazu müsste man ja nicht nur eine sehr mutige wissenschaftliche Vereinigung finden, die ein solches Papier überhaupt zur Diskussion stellt, sondern diese Erkenntnis auch noch einer interessierten Öffentlichkeit zugänglich machen. Man müsste also kritische Meinungsmultiplikatoren davon überzeugen, diese Erkenntnis einer öffentlichen Diskussion zuzuführen. Aber das ist in einer Zeit von „Fake-News“ natürlich immens schwierig, wenn man keine zitierfähigen wissenschaftlich überprüften Ergebnisse zur Stützung dieser neuen Erkenntnis vorweisen kann. Naja, vielleicht können die’s dort ja einfach nicht glauben, nachdem sie jahrzehntelang gegen den Klimaalarm angekämpft haben. Der Autor selbst muss sich ja auch immer wieder mal davon überzeugen, dass er seine Argumentationskette wirklich korrekt hergeleitet hat. Offenbar ist es für uns Menschen sehr schwierig einfach loszulassen, wenn wir irgendetwas erst einmal richtig verstanden zu haben glauben …

VON NIX KOMMT NIX

Der politische Einfluss des WBGU: Die gefährlichen Weissagungen des Papstflüsterers

Über Einsteins Relativitätstheorie sagt man ja, es habe einstmals bei ihrer Veröffentlichung weltweit keine Handvoll Physiker gegeben, die sie spontan verstanden hätten. Da wäre also ein sogenanntes Peer-Review zur Überprüfung dieser Theorie völlig sinnlos oder als Voraussetzung für eine Veröffentlichung sogar kontraproduktiv gewesen. Bei der oben erwähnten Entdeckung ist es dagegen sehr viel einfacher, weil es eben nicht um ganz neue Physik geht, sondern lediglich um die korrekte Anwendung eines bereits bekannten und allgemein anerkannten physikalischen Gesetzes. Und deshalb müsste es weltweit auch einige Hunderttausende mit universitärer Ausbildung in Physik geben, die eine solche Fehlanwendung des Stefan-Boltzmann Gesetzes Kraft ihrer eigenen physikalischen Kenntnisse beurteilen können müssten – also schaunmermal, ob die nachfolgende Argumentation am Ende vielleicht doch noch irgendjemanden überzeugen kann:

 

Der angebliche Treibhauseffekt unserer Atmosphäre ist das Ergebnis einer unzulässigen Verknüpfung eines Durchschnittswertes aus der globalen Energiebilanz mit dem Stefan-Boltzmann Gesetz aus der Physik, das aber wiederum für die Berechnung der sogenannten Schwarzkörpertemperatur zwingend einen stabilen thermischen Gleichgewichtszustand fordert.

Die vorgeblich vom Menschen verursachte „Globale Erwärmung“ basiert auf einer Verstärkung des atmosphärischen Treibhauseffektes durch den vom Menschen verursachten CO2-Ausstoß, Zitat zum Treibhauseffekt aus Wikipedia, dort unter „Energiebilanz“, mit eigenen Hervorhebungen:

… Sogenannte Energiebilanzen werden mit einem Mittelwert der Einstrahlung auf die Erdoberfläche gerechnet: Die Erde erhält Solarstrahlung auf der Fläche des Erdquerschnitts πR 2 und hat eine Oberfläche von 4πR2. Diese beiden Flächen haben ein Verhältnis von 1:4. Das heißt, wenn 1365,2 W/m² auf die Erde einstrahlen und in Erd-Oberflächentemperatur umgesetzt würden, könnte die Erdoberfläche durchschnittlich 341,3 W/m² auch wieder abstrahlen.
…Würde der Erdboden nur von einer Strahlung in Höhe von 239 W/m² bestrahlt, so würde die Erdoberfläche im Mittel eine Temperatur von etwa -18 °C annehmen, wenn sich die Wärme gleichmäßig über die Erde verteilen würde.

Aber es gibt eine weitere Bestrahlung durch die aufgeheizten Treibhausgase mit 333 W/m², die so genannte atmosphärische Gegenstrahlung. Damit absorbiert die Erdoberfläche insgesamt 161 W/m²+333 W/m²=494 W/m² – und die werden bei der tatsächlichen mittleren Erdoberflächentemperatur von +14 °C auf mehreren Wegen abgegeben…“

Ein „atmosphärischer Treibhauseffekt“ als ein Prozess zusätzlicher thermischer Aufheizung unserer Erde um etwa 33 Grad aus sich selbst heraus durch eine vorgebliche „atmosphärische Gegenstrahlung“ steht aber in völligem Widerspruch zu den Gesetzen der Thermodynamik, nach denen jegliche Art von Energieerzeugung aus dem Nichts (Perpetuum Mobile) unmöglich ist.

Dazu ein erklärendes Beispiel: Stellen Sie sich einmal vor, Sie hätten in Ihrem Haus zwei Räume und würden in einem dieser Räume einen Ofen mit einer festen Heizleistung aufstellen, die Tür zwischen beiden Räumen wäre offen. Dann würden Sie berechnen, wie stark dieser Ofen beide Räume gemeinsam – ohne die trennende Wand – erwärmen könnte und in dem erwärmten Raum nachmessen. Die Differenz zwischen der im geheizten Raum gemessenen höheren Temperatur und der niedrigeren theoretischen Temperatur für beide Räume würden Sie dann als „Treibraumeffekt“ bezeichnen und Ihrem Ofen eine zusätzliche Heizleistung zusprechen.

In ganz ähnlicher Weise wird der „natürliche Treibhauseffekt“ unserer Erde berechnet. Bei der konventionellen Herleitung des Treibhauseffektes aus dem Stefan-Boltzmann Gesetz werden nämlich gleich zwei gravierende Fehler gemacht, wie im Vergleich mit dem obigen Zitat aus Wikipedia zur Erklärung des Treibhauseffektes sofort deutlich wird:

  • Erstens wird die einfallende Sonneneinstrahlung im Stefan-Boltzmann Gesetz rechnerisch auf eine doppelt so große Fläche verteilt (gesamte Erdoberfläche = 4πR2), als die tatsächliche aktive Fläche beträgt, auf der die Sonne temperaturwirksam ist (Tagseite der Erde = 2πR2). Dadurch wird dann die Schwarzkörpertemperatur der Erde nur aus der halben spezifischen Energieeinstrahlung (also aus ¼ anstelle von tatsächlich ½ der Solarkonstanten) berechnet, woraus sich dann zwangsläufig eine viel zu niedrige Schwarzkörpertemperatur ergibt.
  • Zweitens wird bei diesem Ansatz der im Stefan-Boltzmann Gesetz zwingend geforderte thermische Gleichgewichtszustand zwischen Einstrahlung und Abstrahlung durch die Einbeziehung der sich ständig abkühlenden Nachtseite der Erde vernachlässigt. Man rechnet dort nämlich einfach mit dem Mittelwert aus der oben zitierten Energiebilanz für die ganze Erde.

Dieser konventionelle Ansatz für die Schwarzkörperberechnung unserer Erde unter Einschluss der Nachtseite wäre aber nur dann richtig, wenn es zwei Sonnen mit der halben Strahlungsleistung unserer Sonne gäbe, die jeweils eine Hälfte der Erde beleuchten würden – allerdings wüssten wir dann wiederum nicht, wie hoch in diesem Fall die tatsächlich gemessene Durchschnittstemperatur der Erde wäre.

Anmerkung: Hier stellt sich übrigens spontan die Frage, wie denn eigentlich die Sonneneinstrahlung in den aktuellen Klimamodellen behandelt wird, lediglich als ein globaler Durchschnittswert oder mit dem tatsächlichen Wechsel von Tag und Nacht?

Bei unserer halbseitig von der Sonne erwärmten Erde kann man nun aber im Gegenteil nicht ernsthaft behaupten, dass an jedem beliebigen Ort ein einheitliches Temperatur-Gleichgewicht herrscht, denn die Nachtseite der Erde kühlt sich ja ständig ab. Wir können also an jedem beliebigen Ort der Erde unterschiedliche Tag- und Nachttemperaturen messen. Damit stellt sich die Frage, welche gemessene Temperatur wir dann als Vergleich zur berechneten Schwarzkörpertemperatur heranziehen sollen, die Tag- oder die Nachttemperatur oder eine willkürliche Kombination aus beiden – und wenn ja, welche? Auf diese Frage gibt das Stefan-Boltzmann Gesetz aber gar keine Antwort.

Bei einem halbseitig beleuchteten Körper wie der Erde darf man vielmehr wegen des im Stefan-Boltzmann Gesetz zwingend vorgegebenen thermischen Gleichgewichts die unbeleuchtete Nachtseite gar nicht in die Berechnung der theoretischen Schwarzkörpertemperatur einbeziehen. Denn die Randbedingungen dieses Gesetzes schreiben ausdrücklich einen stabilen Gleichgewichtszustand zwischen eingestrahlter und abgestrahlter Energiemenge vor. Oder anders ausgedrückt, das Stefan-Boltzmann Gesetz ist trotz seiner mathematischen Formulierung eben keine beliebige Gleichung, sondern ein physikalisches Gesetz, das einen strengen Gleichgewichtszustand beschreibt. Man darf es also nicht als platte Rechenanweisung verstehen, um aus jeder beliebig gemittelten Strahlungsmenge irgendeine Temperatur oder umgekehrt aus jeder beliebig gemittelten Temperatur irgendeine Strahlungsmenge zu errechnen.

Vielmehr steht das Gleichheitszeichen im S-B Gesetz als zwingende Bedingung für ein ganz bestimmtes Verhältnis von Strahlung und Temperatur, nämlich für ein stabiles thermisches Gleichgewicht. Man muss dieses Gleichheitszeichen im Stefan-Boltzmann Gesetz also so verstehen, dass sich erst in einem solchen thermischen Gleichgewichtsfall die dort in Form einer Gleichung vorgegebene Relation zwischen Strahlungsmenge und Temperatur einstellt.

Anmerkung: Wenn Sie diese Aussage nicht glauben wollen, dann suchen Sie im Internet doch bitte einmal nach einer „Stefan-Boltzmann Gleichung“. Sie werden dann in ungefähr 0,22 Sekunden 11.600 Ergebnisse ausschließlich für das Stefan-Boltzmann-Gesetz erhalten; denn eine „Stefan-Boltzmann Gleichung“ gibt es nicht…

Wenn also die Schwarzkörpertemperatur unserer Erde bisher tatsächlich falsch berechnet worden sein sollte und damit der atmosphärische Treibhauseffekt lediglich auf einen Rechenfehler zurückzuführen wäre (hier ab Seite 19), dann hätte das natürlich ganz unmittelbare Konsequenzen für den globalen Klimaalarm:

  • Kohlenstoffdioxid (CO2) wäre plötzlich gar nicht mehr der böse Klimakiller, zu dem es in den vergangenen Jahrzehnten panikheischend aufgebaut worden ist, sondern würde wieder zur Quelle alles Lebens auf unserer Erde.
  • Der Plan für die „Dekarbonisierung“ unserer Welt bis zum Jahre 2100 um jeden Preis wäre hinfällig geworden. Und somit bräche die gesamte Klimareligion zusammen und damit auch die Sinnfälligkeit für Ablasszahlungen nach dem „Erneuerbare Energien Gesetz“ (EEG).
  • Die sogenannte „Energiewende“ mit zwei voneinander unabhängigen Erzeugungssystemen für elektrischen Strom, nämlich konventionelle und „erneuerbare“ Stromerzeugung parallel nebeneinander, würde als das entlarvt, was sie tatsächlich ist, nämlich vom Standpunkt der Wirtschaftlichkeit, Nachhaltigkeit und Ressourcenschonung ein völliger Irrwitz.

Ohne einen atmosphärischen Treibhauseffekt stünden also plötzlich all die politischen, wissenschaftlichen und wirtschaftlichen Profiteure der vorgeblich vom Menschen verursachten Klimakatastrophe vor dem argumentativen Nichts, das EEG wäre eine völlig unnütze Verschwendung von wertvollen Ressourcen  und eine Dekarbonisierung der Welt wäre absolut unnötig geworden.

Uli Weber ist Geophysiker und Publizist.

Übernommen von Tichys Einblick hier

Auf „Die kalte Sonne“ finden Sie eine ausführlichere Begründung der hier geschilderten Hypothese.

 




Batterien verlieren im Frost Strom Kölner E-Busse haben Probleme mit Kälte

Köln –

Seit wann nageln Elektromotoren? Tun sie nicht. Und sollte dennoch in den vergangenen Tagen auf der KVB-Linie 133 der Eindruck entstanden sein, dann liegt das daran, dass auf der Strecke zwischen Breslauer Platz und Südfriedhof wieder verstärkt Dieselbusse fahren. Und das, obwohl die Linie seit dem Fahrplanwechsel im vergangenen Dezember eigentlich ausschließlich mit E-Bussen betrieben werden sollte. Doch die Flotte hat kalte Füße bekommen. Die Batterien der acht Elektrobusse kommen mit den Minustemperaturen nicht gut klar. Auch das Aufladen an den Endhaltestellen verläuft ein wenig frostig….

Der zweite Angriffspunkt war erwartet und trifft dennoch hart. Die Problemlage: Kälte frisst Strom. „Das liegt auch daran, dass wir das Licht an den Bussen im Winter länger an haben und die Heizungen im Dauereinsatz sind“, erklärt Anemüller. „Wir haben aber auch Energieverluste, die wir nicht erklären können, die wir im Testbetrieb so nicht hatten“, ergänzt er. Handybesitzer kennen das. Bei kalten Temperaturen verlieren die Akkus wie von Geisterhand an Ladung. Die große Gefahr bei den Batterien der E-Busse: Der Ladestatus darf nicht unter 60 Prozent fallen. Das könnte zu einem bleibenden Schaden führen. „Und damit wäre die Gewährleistung dahin, sagt der KVB-Sprecher. Sprich, die Garantie weg. – Quelle: http://www.rundschau-online.de/25566858 ©2017

Weiterlesen bei der Kölner Rundschau




Nobelpreisträger entlarvt Klimaschwindel

Der Nobelpreisträger für Physik Ivar Giaever erklärt Studenten in Lindau seine Sicht der Klimasituation. Nach seinen Worten ist die ganze, der Hypothese zugrunde liegende physikalische Basis  untauglich…

Video nicht mehr verfügbar

Video der Vortrages von Ivar Giaever in Lindau. Dankenswerterweise mit deutscher Übersetzung von FMDsTVChannel. Die Übersetzung besorgte YouTuber ‚yoicenet2

..Zudem erlauben die vorhandenen Daten keinerlei Bestimmung der Ursachen auf Grund ihrer unvermeidlichen Unsicherheiten. Die Versuche eine globale Mitteltemperatur und deren Verlauf auf wenige Zehntel Grad bestimmen zu wollen bezeichnet Giaever als lächerlich. Ihre Ergebnisse folgerichtig als absurd.