1

Eine barrierefreie Erklärung für die hemisphärische Temperaturgenese auf unserer Erde

Bei der Nutzung von Kohle, Öl und Gas wird aber zusätzliches CO2 erzeugt. Und deshalb wird befürchtet, der vom Menschen verursachte CO2-Ausstoß würde schließlich zu einer globalen Klimakatastrophe führen.

Diese Auffassung ist grundlegend falsch.

Die Temperaturgenese auf unserer Erde ist allein von der Sonneneinstrahlung abhängig. Die Sonne scheint aber nur am Tage und niemals in der Nacht. Und je höher die Sonne mittags am Himmel steht, umso höher ist üblicherweise auch die örtliche Temperatur. Gerade deshalb fahren ja so viele Menschen aus dem Norden in ihrem Urlaub in den Süden.

Stellen wir uns einmal ein Haus im tiefsten Winter vor. Dann messen wir von außen die Abstrahlungstemperatur dieses Hauses mit minus 18 Grad Celsius und behaupten, das wäre auch die Innentemperatur dieses Hauses.

  • Das entspricht dem üblichen Ansatz für die theoretische Temperatur unserer Erde

Dieses Haus hat aber eine Heizung, und die läuft auf vollen Touren. Die Vorlauftemperatur wird vom Wirkungsgrad der Heizung bestimmt. Dieser Wirkungsgrad entspricht demjenigen Anteil am Brennstoff, der tatsächlich in Wärme umgewandelt wird. Die erzeugte Vorlauftemperatur wird dann durch Rohrleitungen und offene Türen im ganzen Haus verteilt.

  • Das entspricht dem hemisphärischen Temperaturansatz für die Tagseite der Erde

Und weil wir die Einstellung der Heizung nicht kennen, müssen wir die tatsächliche Temperatur im Haus selber nachmessen.

  • Und das entspricht dann der gemessenen globale Durchschnittstemperatur der Erde

Die theoretisch berechnete Temperatur unserer Erde beträgt etwa minus 18 Grad Celsius. Die gemessene Durchschnittstemperatur der Erde liegt dagegen bei etwa plus 15 Grad Celsius. Die Differenz von etwa 33 Grad Celsius zwischen diesen beiden Temperaturen wird als „natürlicher“ Treibhauseffekt unserer Atmosphäre bezeichnet, der sich angeblich ständig aus sich selbst heraus erzeugt.
Wir betrachten bei dieser Rechnung aber nicht die Realität auf unserer Erde, sondern lediglich eine ferne Abstraktion. Mit in dieser Betrachtung bewegen wir uns nämlich ganz weit weg von der Erde und tun rückblickend einfach einmal so, als sei die Erde ein selbst leuchtender Stern wie unsere Sonne. Und wenn ein solcher Himmelskörper auf seiner gesamten Oberfläche genau so viel Leistung abstrahlt, wie die Erde auf ihrer Tagseite von der Sonne erhält, dann hätte er tatsächlich eine rechnerische Temperatur von minus 18 °Celsius.

Irgendetwas an dieser Betrachtung stimmt also nicht, denn wir stellen damit die gemessene Durchschnittstemperatur auf unserer Erde von plus 15 Grad Celsius einer imaginären Abstrahlungstemperatur von minus 18 Grad Celsius gegenüber und postulieren daraus dann einfach einen selbstaufheizenden Effekt von 33 Grad Celsius.

Stellen wir uns einmal vor, dass wir bei minus 18 Grad Außentemperatur in ein ungeheiztes Haus kommen. Wenn wir dort dann eine selbstgemachte Innentemperatur von plus 15 Grad erwarten, dann liegen wir damit völlig falsch.

Tatsächlich müssen wir in einem ungeheizten Haus nämlich zunächst einmal die Heizung voll anstellen. Erst dann steigt die Innentemperatur, und das zunächst auch nur ganz langsam. Denn das ganze Haus muss ja zunächst einmal aufgeheizt werden. Und erst, wenn die am Thermostat eingestellte Temperatur im ganzen Haus erreicht ist, würde die Heizung die Wärmezufuhr schließlich wieder drosseln und die Temperatur konstant halten.
Denn dann müssen nur noch die Wärmeverluste ersetzt werden. Und genau diese Wärmeverluste spiegeln uns dann eine Abstrahlungstemperatur von minus 18 Grad Celsius vor.

Wie wir jeden Tag erleben können, erhält unsere Erde nur auf ihrer Tagseite Sonnenlicht. Die temperaturwirksame Strahlungsmenge wird dabei von der Rückstrahlfähigkeit der Erde bestimmt, die man Albedo nennt. Unsere Erde reflektiert 30 Prozent der einfallenden Sonneneinstrahlung unbenutzt in den Weltraum zurück, sodass der Wirkungsgrad unserer Solarheizung 70 Prozent beträgt.
Am Äquator zwischen den Wendekreisen, wo die Sonneneinstrahlung am stärksten ist, werden Atmosphäre und Ozeane ständig aufgeheizt, und zwar mit einer Strahlungstemperatur von bis zu plus 85 Grad Celsius. Von dort aus wird die Wärme mit den globalen Windsystemen und Meeresströmungen abgeführt und zu den kalten Polkappen verfrachtet. Das ist die kombinierte Warmluft- und Warmwasserheizung unserer Erde.
Unsere Erde besitzt gegenwärtig eine ziemlich konstante Durchschnittstemperatur. Bei dieser konstanten Durchschnittstemperatur von plus 15 Grad verliert sie über ihre gesamte Oberfläche also ständig genau so viel an Strahlung, wie sie gleichzeitig von ihrer Solarheizung geliefert bekommt. Und wie wir schon gesehen haben, ist diese Abstrahlungstemperatur dann viel niedriger als die tatsächlich auf der Erde gemessene Temperatur, also ganz ähnlich wie bei einem beheizten Haus.

Wir wissen nun aus Baumringen, Tropfsteinen und Sedimentablagerungen, dass es auf unserer Erde in der geologischen Vergangenheit schon mehrfach Eiszeiten gegeben hat. Damals war die Durchschnittstemperatur viel niedriger als heute.
Weil aber die Strahlungsleistung der Sonne nur ganz wenig schwankt, kann sie nicht die Ursache für solche großen Temperaturveränderungen gewesen sein. Vielmehr muss sich der Wirkungsgrad unserer Solarheizung verändert haben. Denn wenn durch eine Erhöhung der Rückstrahlfähigkeit unserer Erde mehr Sonnenlicht „unbenutzt“ ins Weltall zurückgeworfen wird, dann sinkt mit dem Wirkungsgrad natürlich entsprechend die Vorlauftemperatur der Heizung. Und damit sinkt dann auch die gemessene Durchschnittstemperatur.
Den genauen Zusammenhang zwischen dem Wirkungsgrad der Solarheizung und der Durchschnittstemperatur unserer Erde kennen wir noch immer nicht. Das Einzige, was wir für unsere Erde also sicher aussagen können ist, dass im Augenblick die Rückstrahlfähigkeit unserer Erde 30 Prozent beträgt. Damit hat unsere Solarheizung einen Wirkungsgrad von 70 Prozent und die gemessene Durchschnittstemperatur unserer Erde beträgt plus 15 °Celsius.

Bei einem Haus hängen die Temperatur seiner Außenhaut, die regelbare Vorlauftemperatur seiner Heizung und die gemessene Innentemperatur eng miteinander zusammen. Vergleichbar damit hat unsere Erde eine Abstrahlungstemperatur, eine von ihrer Rückstrahlfähigkeit abhängige Einstrahlungstemperatur und eine gemessene Durchschnittstemperatur. Ein „natürlicher“ atmosphärischer Treibhauseffekt zur Erklärung der Temperatur auf unserer Erde ist also gar nicht nötig.

Es gibt übrigens noch eine weitere Parallele zwischen der Heizung eines Hauses und der Heizung unserer Erde: Heizungsbauer werben manchmal mit einem Wirkungsgrad von über 100 Prozent für Brennwertthermen, was den Eindruck erweckt, es würde von denen mehr Wärme erzeugt als der Brennstoff eigentlich hergibt. Diese Darstellung lässt sich ganz einfach auf einen unzulässigen Vergleich von zwei unterschiedlichen Systemen zurückführen, wobei das alte Heizungsprinzip als 100%-Basis fungiert und jedes bessere Prinzip dann zwangsläufig über 100% liegen muss. So ähnlich ist das auch mit dem „natürlichen“ atmosphärischen Treibhauseffekt. Man stellt einfach die theoretische Temperatur eines selbststrahlenden Sterns von minus 18 Grad Celsius der gemessenen Durchschnittstemperatur unserer Erde von plus 15 Grad Celsius gegenüber. Und die Differenz dieser beiden unterschiedlichen Systeme von 33 Grad Celsius bezeichnet man dann als „natürlichen“ atmosphärischen Treibhauseffekt unserer Erde…

Übrigens: Der hemisphärische Stefan-Boltzmann Ansatz genügt auch dem Sparsamkeitsprinzip (Ockhams Rasiermesser). Denn dieser S-B Ansatz erklärt die globale Temperaturgenese allein aus der natürlichen Interaktion zwischen Sonne und Erde, also ohne die Hilfskonstruktion eines bisher nicht nachgewiesenen Atmosphäreneffektes, der zudem noch die Gesetze der Thermodynamik verletzen würde.

Die ausführliche Beschreibung der hemisphärischen Temperaturgenese ist nicht barrierefrei.Gesamtdarstellung hem-S-B Ansatz-uw-2018-02-17




„Treibhaus Erde“ – zur Magie des „natürlichen Treibhauseffektes“

„Treibhaus Erde“ – zur Magie des „natürlichen Treibhauseffektes“

 

Wer heutzutage immer noch nicht glaubt, dass die Erde ein „Treibhaus“ ist und es einen ganz „natürlichen Treibhauseffekt“ gibt und  Das ist zwar kein wissenschaftliches Argument, aber eine Einschüchterung, bitte keine weiteren Fragen zu stellen. Wer es dennoch wagt, der braucht enormen Mut und fachliches Stehvermögen, ist allen möglichen Anfeindungen ausgesetzt. Doch so plausibel die Theorie vom wundersamen „natürlichen Treibhauseffekt“ auch scheinen mag, sie ist weder durch Beobachtung noch Wahrnehmung gesichert.

Doch jede abstrakte Theorie, die nicht experimentell untermauert werden kann, bleibt graue Theorie, solange sie nicht durch wissenschaftliche Beobachtungen bestätigt wird. Doch etwas für wahr zu halten, heißt, dass man es nicht weiß, aber vorsorglich glaubt. Solange der „natürliche Treibhauseffekt“ nicht nachgewiesen ist, ist seine Behauptung zweifelhaft. Die reine Zahl von „33 Grad“ verspricht zwar Genauigkeit und Objektivität, doch ist sie deswegen auch wahr oder nur ein ideologisches Hirnkonstrukt?

 

Die „Welt der Physik“ und das „Treibhaus Erde“ von Klaus Heinloth

Am 13. April 2007 beschrieb der Bonner Physiker Klaus Heinloth das „Treibhaus Erde“ wir folgt: „Seit Jahrmillionen existiert auf der Erde der Treibhauseffekt. Ohne ihn gäbe es kaum Leben auf diesem Planeten. Doch der Mensch verstärkt ihn durch die Nutzung fossiler Brennstoffe. Dies hat eine globale Erwärmung mit weitreichenden Konsequenzen zur Folge.“ So beginnen Märchen, aber keine wissenschaftlichen Texte. Folglich ist keiner der vier Sätze richtig und wahr!

Heinloth schreibt weiter: „Das „Treibhaus Erde“ wird von der Sonne geheizt. Dabei ist die Energiebilanz zwischen Energieeinstrahlung von der Sonne auf die Erde und die Energieabstrahlung von der Erde in den Weltraum ausgeglichen“. Der erste Satz stimmt, doch der zweite ist unwahr und wider besseres Wissen gelogen. Die Unterstellung eines „Strahlungsgleichgewichtes“ zwischen der „Energieeinstrahlung von der Sonne“ und der „Energieabstrahlung von der Erde“ ist ein ideologischer Akt, der auf einer Vergewaltigung des naturwissenschaftlichen Erkenntnisvermögens beruht. Die Einstrahlung der Sonne mit einem Maximum bei 0,5 Mikrometern ist um 107 Zehnerpotenzen stärker und steht bei weitem nicht im „Gleichgewicht“ mit der Abstrahlung der Erde, dessen Maximum bei einer globalen Einheitstemperatur von +15° C bei 10 Mikrometern liegt. Ebenso abwegig wäre die Behauptung, es gäbe ein „Strahlungsgleichgewicht“ zwischen einer glühenden Herdplatte und einer Menschenhand.

Paul Heinloth schreibt weiter: „Die Heizleistung der Sonne beträgt im globalen und jahreszeitlichen Mittel über die ganze Erde 236 W/m2.“ Bei dieser Heizleistung würde sich „im globalen und jahreszeitlichen Mittel eine Temperatur von -18° C“ einstellen. Tatsächlich beträgt aber „im globalen und jahreszeitlichen Mittel“ die Temperatur +15° C. Die Differenz von „33 Grad“ sei Ausdruck des „natürlichen Treibhauseffektes“. Auf diesen Glaubenssatz fußt die Hypothese von der Erde als „Treibhaus“. Auf solch fragwürdigem Fundament beruht die gesamte Klimapolitik, die vorgibt, mit der Reduktion von CO2-Emissionen das Klima stabilisieren, den Klimawandel stoppen und die Klimakatastrophe abwenden zu können. Doch alles, was Prof. Dr. Klaus Heinloth, der auch in der Enquete-Kommission Vorsorge zum Schutz der Atmosphäre von 1987 saß, beschreibt, hat mit der Natur nichts zu tun. Alle physikalischen Vorgänge spielen sich beim Wetter ab und nicht bei dessen Ableitung, dem Klima als fiktivem „mittleren Wettergeschehen“.

 

Nun aber „zur Sache“ Herr Prof. Dr. Klaus Heinloth

Unstrittig ist einzig die Aussage, dass die „Erde“ von der Sonne geheizt wird. Nicht nur das, alles Leben auf der Erde hängt energetisch von der Sonne ab. Die Dimensionen der Sonne sind gigantisch. Die Sonne hat einen Durchmesser von fast 1,4 Millionen km und ein Volumen von etwa 1,3 Millionen Erdkugeln. Ihre gewaltige Energie bezieht die Sonne aus der Verschmelzung von Wasserstoffkernen zu Helium. In jeder Sekunde werden 4,5 Billionen Gramm stofflicher Materie in Energie umgewandelt und radial ins Universum abgestrahlt.

Die Energie, die die Sonne unseres Planetensystems in den Weltraum strahlt, ist gewaltig. Hier ein Bespiel: Man stelle sich vor, die Erde wäre von einem 1000 km dicken Eispanzer umgeben. Was würde geschehen? Die Energie, die von der Sonne in einer Sekunde ausgestrahlt wird, würde ausreichen, diesen dicken Eispanzer zu schmelzen und zudem das Wasser zum Sieden zu bringen. Welche Milchmädchenrechnung liegt der Aussage von Prof. Dr. Heinloth zugrunde, dass die „Heizleistung“ der Sonne nur 236 W/m2 entspreche und nur eine Welteinheitstemperatur von -18° C erzeuge? Warum der Befehl „Es werde Licht!“, wenn das Licht nicht einmal die Energie hat, um die Erde zu enteisen? Doch der Fehler liegt nicht bei der Natur, sondern bei einem Menschen, der sich intellektuell weit über der Natur stehend wähnt und von einem völlig falschen Ansatz her glaubt, das Klima und damit die Welt retten zu können.

Wie sieht also die „Beweisführung“ aus, doch was ist künstlich konstruiert? Es heißt: „Seit Jahrmillionen existiert auf der Erde der Treibhauseffekt“. Folglich war davor die Erde vereist. Doch wie konnten auf einer „vereisten Erde“ im warmen Ozeanwasser vor etwa 2,5 Milliarden Jahren die ersten Vorläufer der heutigen Cyanobakterien damit anfangen, das Sonnenlicht zur Photosynthese zu nutzen, als Abfallprodukt Sauerstoff freizusetzen und die Basis für das „grüne Kleid“ der Erde zu schaffen? Der Sauerstoff, den wir heute atmen, entstand langsam in Jahrmillionen durch die Tätigkeit der grünen Pflanzen. Sie fangen mit ihrem grünen Blattfarbstoff, dem Chlorophyll, Lichtstrahlen auf, deren Energie sie dazu benutzen, das Kohlenstoffdioxid in Kohlenstoff und Sauerstoff zu spalten. Der Kohlenstoff wird dabei mit Wasser zu Zucker und zu Stärke verarbeitet, von denen sich die Pflanze nährt, während der Sauerstoff in die Luft entweicht. CO2 war aufgrund des Vulkanismus in der Luft reichlich vorhanden, ebenso wie Wasserdampf. Tausende von Vulkanen spien beide für das Wachstum grüner Pflanzen wichtigen Grundstoffe täglich aus.

Die zunächst sauerstofflose Atmosphäre enthielt überwiegend Stickstoff, Wasserdampf und Kohlenstoffdioxid. Verlässliche Schätzungen gehen davon aus, dass der CO2-Gehalt mindestens bei 20 aber eher bei 30 Prozent gelegen habe, um den heutigen O2-Gehalt von fast 21 Prozent zu erklären. Doch dieser enorme H2O- und CO2-Gehalt führten zu keinem Super-Treibhaus-Effekt, sondern es passierte das Gegenteil. Die Erde samt Atmosphäre kühlte weiter ab unter 100° Celsius. Der Wasserdampf konnte kondensieren. Gewaltige Regenmengen stürzten vom Himmel herab, ergossen sich über die Hänge, füllten die Senken, bildeten Meere und Ozeane. Man muss also schon die evolutionäre Realität reichlich ideologisch verbiegen, um sich das Märchen eines „natürlichen Treibhauseffekt“ auszudenken.

Schaut man sich das vielfältige „grüne Kleid“ der Erde genauer an und die Unmenge an Ökosystemen, dann weiß man, dass mit den Wechseln von Tag und Nacht wie auch der Jahreszeiten die Sonnenenergie sehr ungleich über die Erde verteilt wird. Überall gibt es anderes Wetter mit anderen Temperaturverteilungen. Die Heizleistung der Sonne beträgt an der Obergrenze der Atmosphäre bei senkrechtem Strahlungseinfall etwa 1368 W/m2. Doch nur entlang des Äquators fällt kurzfristig über Mittag die Sonne senkrecht auf die Erde, wirft der Mensch keinen Schatten. Der Neigungswinkel der Sonnenstrahlung ändert sich permanent und allein darauf reagieren die Temperaturen. Das Temperaturmosaik ändert sich permanent und das führt zu dem sprichwörtlich „chaotischen Charakter“ der Luftströmungen wie des Wetters.

Natürlich bleibt es der klimawissenschaftlichen Phantasie vorbehalten, die Erdkugel als „schwarzen Körper“ zu betrachten und in einen „schwarzen Hohlraum“ hineinzudenken. Dies machten die beiden Physiker Stefan und Boltzmann und entwickelten das Stefan-Boltzmann-Gesetz. Ein „Schwarzer Körper“, repräsentiert durch einen „Hohlraum“ ist nach Kirchhoff ein Körper, der alle Strahlung aller Wellenlängen absorbiert, sich also von allen Körpern am schnellsten erwärmt, aber sich zugleich auch am schnellsten abkühlt. Von allen Körpern in der Natur ist frischgefallener weißer Schnee am „schwärzesten“. Im sichtbaren Bereich blendet er, doch im unsichtbaren wärmenden Infrarotbereich ist er pechschwarz. Daher heißt es im Volksmund: „Schnee schmilzt wie Butter in der Sonne“.

Das Stefan-Boltzmann-Gesetz setzt Strahlung direkt in Temperatur um. Die Formel lautet: Die Strahlung S ist proportional der 4. Potenz der absoluten Temperatur. Gibt man S vor, so kann man jede beliebige Temperatur berechnen, ob sie sinnvoll ist oder nicht. Man kann die Erde als „schwarzes Kohlestäubchen“ in einen Hohlraum hineindenken und mit S spielen. Wenn man die „Solarkonstante“ von 1368 W/m2 durch vier teilt, dann hebt man rechnerisch Tag und Nacht, Nord und Süd auf und „ummantelt“ die Erde mit einer „kalt“ gerechneten Sonne. Es ist spielend leicht: Teilt man 1368 durch 4, ergibt sich 342. Zieht man davon 31 % Verlust durch Albedo ab, dann erhält man 236 W/m2 und erhält das gewünschte Ergebnis, eine „eiskalte Erde“ von minus 18° C. Doch das ist pure Phantasie und keine Realität!

Glauben Sie noch an den angeblich „natürlichen Treibhauseffekt“ von 33 Grad Celsius? Ich tue es nicht! In Wirklichkeit gibt der Erdkörper wie jeder andere Körper ständig Wärme ab proportional seiner Temperatur. Dies spürte bereits der „nackte Affe“ in der ersten sternklaren Tropennacht. Die Erde bedarf des Lichts der Sonne, um den Energieschwund zu kompensieren. Unter gar keinen Umständen kann sich die Erde mit der von ihr selbst emittierten Energie erwärmen, selbst wenn sie von einem Spiegel umgeben wäre, der alle Energie aller Wellenlängen an sie zurückstrahlt. Damit erweist sich die „Gegenstrahlung“ als Konstrukt, das es nicht gibt! Es gibt auch keine Kausalbeziehung zwischen der -18 Grad und der +15 Grad Temperatur. Sie stehen beziehungslos nebeneinander und sind rechnerische Konstrukte, die, wie man weiß, beliebig manipulieren kann.

 

Die Erde ist kein „Treibhaus“, wie jeder Architekt und Bauherr weiß

Prof. Dr. Heinloth argumentiert zum „Beweis“ seiner Treibhaus-Hypothese wie folgt: „Die Rolle der wärmenden Glasfenster spielen einige Spurengase in der Atmosphäre, vornehmlich Kohlendioxid“. Die vom CO2 absorbierte Wärmestrahlung werde emittiert und komme der Erde als „Gegenstrahlung“ zugute. Die „Klimagase“ seien eine „natürliche Zusatzheizung aus der Atmosphäre“. Wo bleibt in einer klaren Winternacht mit frisch gefallener Schneedecke die wärmende „Zusatzheizung“ namens „Gegenstrahlung“? Der Versuch einer Gleichsetzung von beweglicher Gashülle wie fester Glasscheibe verbietet sich.

Sinn und Zweck eines jeden Mistbeetes oder gläsernen Gewächs- oder Treibhauses ist es, einen Raum zu schaffen, in dem erwärmte Luft möglichst lange eingesperrt werden kann. So wie ein in der Sonne geparktes und aufgeheiztes Auto nach Sonnenuntergang rasch abkühlt und im Winter sogar zur tödlichen Kältefalle werden kann, so kann zwar eine Glashülle verhindern, dass die erwärmte Luft vom Winde verweht wird oder thermisch zum Himmel aufsteigt, doch Glas ist ein guter Wärmeleiter, was sich daran zeigt, dass im Glashaus die Scheiben beschlagen oder sich bei Frost Eisblumen bilden. Die Wärmestrahlung ist nämlich nur eine Art der Wärmeübertragung. Daneben gibt es noch die Wärmeleitung und den Wärmetransport durch Konvektion als Massentransport.

Am 20. Januar 2018 war in der Allgemeinen Zeitung Mainz ein Artikel „Hinter Glas“, in dem nicht nur die Vorzüge „lichtdurchfluteter Wintergärten“ dargestellt wurden. Die Autoren Marleen Ilchmann und Katja Fischer schreiben nüchtern und sachlich: „Sobald die Sonne hinter dem Horizont verschwunden ist, wird es im Wintergarten empfindlich kühl. Der Wintergarten ist kein Wärmespeicher – er braucht eine Heizung, die anspringt, sobald die Temperatur auf ein gewisses Maß sinkt. Die Heizung muss sich in ihrem thermischen Verhalten von normalen Anlagen in Innenräumen unterscheiden. Sie muss sehr schnell eine sehr hohe Heizleistung in geringen Zeiträumen ermöglichen: In Spitzenzeiten sollte sie 250 bis 300 Watt pro Quadratmeter bringen. Damit sie effektiv arbeiten kann, muss die Heizung dort installiert werden, wo es am kältesten ist. Am besten baut man sie unterhalb der Front- und Seitenscheiben ein oder direkt in den Boden als Bodenkanalheizung. Eine konventionelle Fußbodenheizung ist für den Wintergarten ungeeignet, weil sie viel zu träge auf Temperaturschwankungen reagiert und die innenliegenden Oberflächen der Glaswände nicht schnell genug aufheizt, sodass häufiger und länger Kondensat entsteht.“

 

Fazit:

Da die Erde kein Treibhaus ist, muss man für den Menschen Häuser und für die Pflanzen Gewächshäuser, Orangerien, Palmengärten, Wintergärten bauen. Dass dennoch vom „UN-Weltklimarat“ die Treibhaushypothese unverdrossen propagiert wird und der Glauben daran die internationale Politik dominiert, ist mehr als nur verwunderlich. In der Wissensgesellschaft scheint zwar eine Menge an Wissen vermittelt zu werden und zu kursieren, aber die Fähigkeit zum logischen Verknüpfen von Informationen scheint gerade in intellektuellen Bildungskreisen extrem unterentwickelt zu sein.

Nichts ist heutzutage dringender notwendig als der „mündige Bürger“, der hartnäckig den Mut hat, seinen eigenen Verstand einzusetzen, um der angeblichen „Schwarmintelligenz“ der Elite der „Klimaexperten“ Paroli zu bieten.

 

Dr. phil. Dipl.-Meteorologe Wolfgang Thüne




Der Fluch der Simulationen

Stimmen Messdaten zum Klima nicht mit den Simulationen überein, so deuten die Forscher lieber die Messungen um, als dass sie die Simulationen selber infrage stellen.

Stimmen Messdaten zum Klima nicht mit den Simulationen überein, so deuten die Forscher lieber die Messungen um, als dass sie die Simulationen selber infrage stellen. Bild Basler Zeitung ohne weitere Copyright Angabe

Es muss ein schwerer Schritt für Martin Läubli gewesen sein. Diese Woche veröffentlichte der Wissenschaftsredaktor des Tages-Anzeigers einen ganzseitigen Artikel mit dem Titel «Ozonschicht erholt sich doch nicht». Er nahm dabei Bezug auf eine neue Studie der ETH Zürich und des Physikalisch-Meteorologischen Observatoriums Davos, wonach das Ozon in der Stratosphäre, das vor gefährlicher UV-Strahlung schützt, in den letzten Jahren nicht zugenommen, sondern sogar weiter abgenommen hat – und das, obwohl der Ausstoss sogenannter Fluorchlorkohlenwasserstoffe (FCKW) seit dem Abkommen von Montreal von 1987 um über neunzig Prozent gesunken ist. FCKW gelten als Verursacher des Ozonlochs.

Früher klang es in Läublis Artikel noch anders. «Die Ozonschicht erholt sich», schrieb er 2014 im Tages-Anzeiger. Er bezeichnete damals das in Montreal beschlossene Verbot von FCKW als «Meilenstein» und dessen Wirkung als «Erfolgsgeschichte».

 

Brüder im Geist

Ein Schlag für seine Glaubwürdigkeit muss die neue Studie auch für den Berner Klimaforscher Thomas Stocker sein, der lange zum innersten Zirkel des Weltklimarats gehörte. «Das Ozonloch ist eine Erfolgsstory», behauptete er vor zwei Jahren in den Schaffhauser Nachrichten. Man erkenne daran, «was bewirkt werden kann, wenn die Wissenschaft auf ein Problem hinweist und die Politik und die Industrie dann darauf reagieren, indem sie gewisse Produkte verbieten». Stocker wollte damit hervorstreichen, dass es punkto Erderwärmung gleich gehen müsse: Die Politik solle ein Klimaabkommen beschliessen, um den CO2 radikal zu verringern. Nur so könne ein gefährlicher Klimawandel verhindert werden.

Tages-Anzeiger-Redaktor Martin Läubli und Klimaforscher Thomas Stocker sind Brüder im Geist, beide beseelt von der Mission Weltrettung. In seinen Artikeln agiert Läubli als eine Art Hofberichterstatter von Klimaforschern wie Stocker. Er streicht unablässig die angeblichen Gefahren der Erderwärmung hervor und verwedelt zuverlässig jeden Zweifel am Einfluss des Menschen auf das Klima.

In seinem jüngsten Zeitungsbericht zum Ozonloch dürfte es für Läubli besonders schmerzvoll gewesen sein, einzugestehen, dass Wissenschaftler derzeit keine Ahnung haben, warum der Ozonverlust in der Stratosphäre weitergeht. «Die Computermodelle haben den Negativtrend nicht abgebildet», schrieb er im Artikel. Die Verheissungen, das Ozonloch schliesse sich nach dem Verbot der FCKW allmählich wieder, beruhen nämlich auf Computersimulationen.

So ist es aber auch beim Klimawandel: Die Warnungen der Forscher, die dem Weltklimarat nahestehen, stützen sich ebenfalls hauptsächlich auf Simulationen von Computern ab. Stimmen Messdaten zum Klima nicht mit diesen Simulationen überein, so deutet man in diesen Kreisen lieber die Messungen um, als dass man die Simulationen selber infrage stellt. Wenn jetzt aber offensichtlich wird, dass solche Modellrechnungen beim Ozonloch versagt haben, schmälert das auch das Vertrauen in diejenigen Modelle, die die bisherige Erderwärmung auf den Einfluss des Menschen zurückführen und für die Zukunft grosses Unheil prognostizieren.

Vertuscht und verleugnet

In Wahrheit ist es schon seit einigen Jahren offensichtlich geworden, dass das Ozonloch trotz des FCKW-Verbots weiterhin existiert. Bislang wurde dies aber von vielen Wissenschaftlern und ihnen verbundenen Journalisten hartnäckig vertuscht und verleugnet.

2006 erreichte die Ausdünnung der Ozonschicht über der Südhalbkugel ein Rekordausmass. 2010 aber behauptete Atmosphärenforscher Jörg Mäder von der ETH Zürich in einem Fachartikel, das Verbot von FCKW zeige messbare Effekte. Nur ein Jahr später erreichte die Ozonausdünnung auch über der Arktis im hohen Norden Rekordwerte. Dennoch wurden 2014 wieder Erfolgsmeldungen verbreitet: «Das von Menschen gemachte FCKW-Problem ist gelöst, diese Gefahr ist definitiv gebannt», sagte der deutsche Geophysiker Martin Dameris gegenüber der Frankfurter Allgemeinen Zeitung.

2015 aber erreichte das Ozonloch über der Antarktis die nach 2006 zweitgrösste Ausdehnung. Nichtsdestotrotz wurde 2016 erneut die Erholung der Ozonschicht verkündet. «Ozonloch über der Antarktis schliesst sich», schrieb die Neue Zürcher Zeitung.

Sie stützte sich auf eine Publikation im Wissenschaftsblatt Science, laut der sich eine Verlangsamung des Ozonabbaus nachweisen lasse, wenn man nicht wie üblich die Oktoberwerte heranzieht, wenn die saisonal bedingte Ausdünnung der Ozonschicht am grössten ist, sondern die Septemberwerte. «Wir können jetzt sicher sein, dass die Entscheidungen, die wir getroffen haben, den Planeten auf den Weg der Heilung gebracht haben», gab Susan Solomon zu Protokoll, Leitautorin des Artikels in Science.

Die neue Studie unter Schweizer Führung straft diesen Heilsverkündungen nun Lügen. «Die lebenswichtige Ozonschicht war insgesamt noch nie so dünn, seit gemessen wird», sagte Hauptautor William Ball von der ETH Zürich zum Tages-Anzeiger. «Es ist nicht die Entwicklung, die wir erwartet haben», wird Co-Autor Johannes Staehelin zitiert, ebenfalls ETH-Forscher.

Zwar ist denkbar, dass das FCKW-Verbot in den nächsten Jahrzehnten eventuell doch noch Wirkung zeigt und sich das Ozonloch tatsächlich zu schliessen beginnt. Ob es aber so kommen wird, weiss kein Mensch. Das Zusammenwirken verschiedenster chemischer Stoffe in der Atmosphäre scheint zu kompliziert zu sein, als dass man mehr als wissenschaftliche Spekulationen anstellen kann.

Man müsste angesichts dieser Erkenntnis nun zumindest infrage stellen, ob das Abkommen von Montreal wirklich den Nutzen hat, der ihm immer zugeschrieben wurde. Doch stattdessen wird dessen Bedeutung gar noch bekräftigt. «Ohne das Montreal-Protokoll würden wohl langfristig zwei Drittel der globalen Ozonschicht zerstört werden», verkündete Forscher Staehelin im Tages-Anzeiger.

Er agiert damit wie ein Arzt, der seinem Patienten ein Medikament verschrieben hat, ohne dass sich eine Wirkung zeigt – und der nun flugs behauptet, ohne das Medikament wäre der Patient noch deutlich schlimmer dran.

Der Satz des Sokrates

Bei der Ozonproblematik tun die wissenschaftlichen Kreise nun so, als ob sie schon absehen können, warum es anders gekommen ist als angenommen. Eine der angeblichen möglichen Ursachen, die derzeit für die Hartnäckigkeit des Ozonlochs herumgeboten werden, lautet – kein Witz: Die Erderwärmung habe die Verteilung der Luft in der Stratosphäre beeinflusst und damit die Situation verändert.

«Ich weiss, dass ich nichts weiss»Sokrates

Die «Eleganz» dieser Erklärung ist offensichtlich: Man kann so weismachen, dass der Klimawandel, der sich auf Computermodellen abstützt, der Grund ist, warum sich die Computermodelle in Sachen Ozonloch nicht bestätigt haben. Zwei Fliegen auf einen Schlag!

Vielleicht müssten sich gewisse Atmosphären-Wissenschaftler an eine uralte Erkenntnis erinnern: «Ich weiss, dass ich nichts weiss», soll der griechische Philosoph Sokrates vor fast 2500 Jahren geäussert haben. Der Satz ist immer noch eine der klügsten Äusserungen der Menschheitsgeschichte. (Basler Zeitung)

Der Beitrag erschien zuerst in der Basler Zeitung hier




SELBSTBEDIENER: Wie die Deutsche Umwelthilfe vom Staat gefüttert wird.

Der Staat unterstützt seine Auto-Feinde nach Kräften. Er beteiligt sich kräftig an der Finanzierung der Deutschen Umwelthilfe – Der Staat finanziert die DUH. Die offenbar größenwahnsinnig gewordene Kleinst-Aktivisten-Truppe klagt sich bekanntlich derzeit quer durch die Republik, um in vielen Städten den Autoverkehr zu verbieten. Jetzt kommt heraus: Ein Teil seines Etats wird durch verschiedene Bundesministerien mitfinanziert.

Zu den dubiosen Geschäften des heftig umstrittenen Vereins gehört einmal dessen Abteilung „Abmahnungen“, die Autohäusern Abmahnungen wegen formaler Nichtigkeiten ins Haus schickt. Zum anderen hat sich die Truppe darauf spezialisiert, seit Jahren öffentliche Töpfe für alle möglichen „Umweltprojekte“ anzuzapfen. Dann „spendet“ Toyota ins DUH-Töpfchen, um den Kampf gegen deutsche Autohersteller zu führen. Früher gab es sogar Geld eines Herstellers von Auto-Partikelfiltern.

Finanzquellen der Deutschen Umwelthilfe (DUH)

Jetzt schließlich zeigt sich, dass auch Millionenbeträge aus Bundesministerien in die DUH-Kasse fließen. Der fraktionslose Bundestagsabgeordnete Mario Mieruch wollte in einer parlamentarischen Anfrage wissen: „In welcher Form und in welchen Projekten arbeiten die Bundesregierung oder ihre Ministerien mit der Deutschen Umwelthilfe (DUH) zusammen?“ Die derzeitige Parlamentarische Staatssekretärin im Bundesumweltministerium, Rita Schwarzelühr-Sutter (SPD), listete in ihrer Antwort die laufenden Projekte der Bundesregierung mit der DUH auf. Die Antwort des Schreckens beschreibt in zwei Teilen, wie umfangreich die Zusammenarbeit aussieht. Aus dem ersten Teil, einer Übersicht, geht hervor:„Im Bundesministerium für Bildung und Forschung ist die Deutsche Umwelthilfe in folgenden Netzwerken und Beiräten vertreten:

  • Bildung für Nachhaltige Entwicklung – Mitglied im Partnernetzwerk „Außerschulische Bildung“ (Jahre 2015 bis 2019)
  • Fördermaßnahme „Nachhaltiges Wirtschaften“ (Jahre 2016 bis 2018): Mitarbeit im Praxisbeirat in den Verbundprojekten
  • Nachhaltig gewonnene mineralische Rohstoffe
  • Integrierte Analyse einer grünen Transformation
  • Vom Klimaschutzkonzept zur zielgruppenorientierten Sanierungsoffensive
  • Mitarbeit im Praxisbeirat der Nachwuchsgruppenförderung „Obsoleszenz als Herausforderung für Nachhaltigkeit – Ursachen und Alternativen“ (Jahre 2016 bis 2021).“

Dann sitzt die DUH noch im Verkehrsministerium und hat dort an der «Expertengruppe 1 des Nationalen Forums Diesel sowie anderen Unterarbeitsgruppen „Technik“ und „Vorschriften“ teilgenommen.“»

Nach außen findet man keine Ergebnisse der Arbeit der DUH-„Experten“ vor allem in Vorschriften. Es wäre noch schöner, die DUH mit in normengebenden Gremien sitzen zu sehen, also den Bock ganz zum Gärtner machen.

Der zweite Bereich, in dem Berliner Regierungstruppen öffentliche Gelder mit vollen Händen rauswerfen wie Karnevalisten ihre Kamelle, ist die „Energiewende“. Hier abseits stehen geht für die DUH gar nicht: „Die Deutsche Umwelthilfe ist darüber hinaus über die DUH Umweltschutz Service GmbH Teil eines Dreierkonsortiums, das für das Bundesministerium für Wirtschaft und Energie nach einer europaweiten Ausschreibung einen zeitlich befristeten Dienstleistungsauftrag (Initiative Bürgerdialog Stromnetz) erfüllt.“„Initiative Bürgerdialog Stromnetz“ – dreister kann man Abzocken für null Gegenleistung nicht formulieren.

Im zweiten Teil der Antwort listet die Staatssekretärin „der Vollständigkeit halber“ eine Liste der DUH-Projekte auf, ein „Projekte“-Panoptikum, das zeigt, wofür im Bereich Umwelt Steuergelder hinausgeworfen werden können.


Die umstrittene Deutsche Umwelthilfe (DUH) hat ein Herz für grüne Flächen in der Stadt. Glauben Sie nicht? Grün- und Freiflächen in der „sozialen Stadt“ liegen ihr besonders am Herzen – was auch immer eine „soziale“ Stadt ist. Gleichviel, 182.672 Euro klingelten dafür in der DUH-Kasse.

Dem Umweltministerium hilfreich zur Seite stehen musste die DUH in Sachen Stickstoff. Da hat die DUH mit ihrem abgebrochenen Verwaltungswissenschaftler Resch an der Spitze bekanntermaßen einen weltweit anerkannten Experten. Der warnt auf der DUH-Online-Seite „Stickstoff – Die vergessene Gefahr“: „Stickstoff in schädlichen Verbindungen zählt aber auch zu den größten Umweltbedrohungen unserer Erde. Was wir dagegen tun können? Politischen Druck machen. Und weniger Fleisch essen, weniger Lebensmittel wegwerfen und keinen Diesel fahren!“Merkwürdig! Sämtliche Autofahrer und Spediteure haben gerade tief in die Taschen gegriffen und die teure Stickoxid-Reinigung im Abgasstrang bezahlt, kippen literweise AdBlue nach, so dass nun wirklich nichts mehr an Stickoxiden aus dem Auspuff kommt – dann verlangt die DUH dennoch „Weg mit dem Diesel!“

Macht nichts, für eine „Informationskampagne Stickstoff“ haben die DUH-Kumpels im Umweltministerium knapp 150.000 Euro an die DUH überwiesen. Mit 34 000 Euro Finanzvolumen geradezu günstig erscheinen die DUH Aktivitäten, aus den Braunkohle-Abbbaugebieten in der sächsischen Lausitz „innovative Naturschutzkonzepte zu entwickeln und umzusetzen“. Doch mit der Verwandlung in eine grüne Wiesenlandschaft, wie sich Max Mohr freie Natur vorstellt, ist es nicht getan. Denn gerade die schreckt offenbar Insekten, Bienen, Vögel ab, solche renaturierten Gebiete sind der wahre Schrecken der Artenvielfalt und wohl mit für Insektensterben verantwortlich. Gefördert von der DUH.

Einer der größten Einzelposten mit 524.086,76 € ist F&U NBS Verbund „AgoraNatura – NaturMarkt“ Teilvorhaben C: Umsetzung und Einführung des Marktes. Die DUH will „einen Online-Marktplatz für Ökosystemleistungen und Biodiversität“ entwickeln, was auch immer sich hinter diesen Spruchblasen verbirgt.Wenn wir schon bei Spruch- und Windbeuteleien sind, darf eine der beknacktesten Floskeln nicht fehlen, zivilgesellschaftlich. Fast eine Million Euro läßt die geschäftsführende Umweltministerin Hendricks für Erfahrungsaustausch von zivilgesellschaftlichen Akteuren in Mittel- und Osteuropa im Bereich Klimaschutz springen. Davon bekommt die DUH allerdings nur 227.000 Euro ab. OK, da kann man noch am ehesten Positives abgewinnen: Saufen mit Ukrainern.

Auch das Bildungsministerium verpulvert Geld an die DUH für „Bewertung, Management und Kommunikation als Schlüssel für eine klimaresiliente und naturnahe Grünflächenentwicklung“.

Was auch immer sich hinter dem leeren Wortgeklingel verbirgt, rumms – 225.609,71 € in den DUH-Säckel. Gut Geldverdienen, so hat das goldene DUH-Näschen ergeben, ist auch in Sachen „nachwachsende Rohstoffe (NawaRo) im Dämmstoffmarkt“. 470.522,79 € erhält die weithin bekannte Experteninstitution DUH. Richtige Forscher könnten mit einer solchen Summe schon einiges entwickeln. Die DUH bekommt die Förderung bereits nur für Propagandazwecke pro nachwachsende Rohstoffe.Die DUH hat klar erkannt: „Die Vorteile von Dämmstoffen aus NawaRo werden bei der energetischen Sanierung durch die aktuellen politischen Rahmenbedingungen nicht aufgezeigt. Staatliche Förderinstrumente sind unspezifisch bzw. klammern den Aspekt der Nachhaltigkeit aus und bauordnungsrechtliche Anforderungen hemmen den Einsatz von Bau- und Dämmstoffen auf Basis nachwachsender Rohstoffe.“

Nach dem Diesel jetzt auch Benziner unter Beschuss

Fast eine halbe Million Euro von den DUH-Freunden aus dem Bundeslandwirtschaftsministerium für „Informationsmaßnahmen“! „Es fehlt vor allem an einer gezielten Verbraucherinformation über alternative ökologische Dämmstoffoptionen. Architekten, Handwerker oder Energieberater sind Schlüsselakteure, deren Fachwissen und Kundenberatung maßgeblich die Verbreitung von NawaRo Materialien beeinflussen kann.“ Jeder gestandene Architekt und Bauingenieur allerdings, der rechnen kann, läßt die Finger von dem Kram.Insgesamt, so ergibt die Auflistung, fließen 4,9 Mio Euro direkt aus der Staatskasse in die Kasse der DUH. Der Staat bezahlt die Kampagnen gegen den Geldbeutel der Bürger mit. Für den Steuerzahler bedeutet dies: Er muß nicht nur einer gigantischen Wertvernichtung seines Eigentums zusehen, sondern auch, wie sich die Wertevernichter aus dem Staatssäckel bedienen. Im Namen der Umwelt natürlich, was denn sonst?




Trump will amerikanische Klimaforschung radikal eindampfen

Schon jetzt stehen in den USA zentrale Massnahmen zur Bekämpfung des Klimawandels auf der Kippe. Doch es könnte noch weit schlimmer kommen: Wenn es nach Donald Trump ginge, würde die staatliche Förderung in diesem Bereich fast komplett gestrichen. Das geht aus dem zu Beginn der Woche veröffentlichten Etat-Entwurf für 2019 hervor.

hier weiter lesen




Klimapfade für Deutschland (BDI-Studie)“ – eine erschreckende Unkenntnis hinsichtlich
 der Verfügbarkeit von Wind- und Solaranlagen

Die Studie des Bundesverbandes der Deutschen Industrie (BDI) wurde im Auftrage des BDI von fast 200 Experten von den Beratungsgesellschaften Boston Consulting Group (BCG) und Prognos, dem BDI sowie rd. 70 Unternehmen und Verbände in 7 Monaten durchgeführt und umfaßt 300 Seiten. (1)
Ziel der Studie war es, volkswirtschaftlich kosteneffiziente Wege zur Erreichung der Klimaziele bis 2050 aufzuzeigen.
Die Ziele wurden differenziert betrachtet:
1. Fortführung der derzeitigen Anstrengungen, die bis 2050 jedoch nur einen Abbau der Treibhausgas(THG)-Reduktionen von rd. 61% bringen würden
2. THG-Reduktion bis 2050 von 80%. Die hierzu erforderlichen Maßnahmen nehmen einen breiten Raum ein: Gebäudemaßnahmen, 26 Mio. E-Autos, 14 Mio. Wärmepumpen, jährlicher Ausbau der erneuerbaren Energien von 4,7 GW Nettozukauf/Jahr, Gaskraftwerke an Stelle von Kohlekraftwerken, Ausgleich Fluktualität der Wind-und Solaranlagen über Speicher, Flexibilisierung neuer Stromverbraucher, Power-to-X-Anwendungen, etc.
Das regierungsamtliche Ziel einer CO2-Minderung von 80% bis 2050 soll technisch machbar sein und volkswirtschaftlich verkraftbar, immerhin mit Investitionen von 1,5 Billionen €.
3. THG-Reduktion bis 2050 von 95%. Die hier genannten Maßnahmen erfordern Nullemissionen für weite Teile der Volkswirtschaft wie Energie, Verkehr, Gebäude und industrielle Wärmeerzeugung, außerdem vermehrte Power- to-X-Anwendungen, CCS, etc. Die Differenz zu 100% basiert auf nicht ausreichend abbaubaren THG-Minderungen in der Landwirtschaft (Tierbestand).
Die erforderlichen Investitionen werden mit 2,3 Billionen angegeben, die Machbarkeit wird von den Verfassern eher als grenzwertig bezeichnet.

Damit gehen viele Botschaften an die Politik wie staatliche Förderungen auf dem Wege der Dekarbonisierung. .
Zur Zeit erzeugen die alternativen Energien im Mittel etwa 1/3 des deutschen Strombedarfes bei einer installierten Leistung von etwa 100 Gigawatt (GW), wobei durch die stochastische Stromerzeugung über Wind und Sonne die gelieferte Leistung praktisch zwischen Null (z.B. nachts bei Windstille) und nahe der installierten Leistung schwankt.
Nun soll nach der Studie das Ziel der CO2-Minderung von 80% mit einem Zubau von netto 4,5 GW/a bis 2050 oder 144 GW über alternative Energien erreicht werden, Kohlekraftwerke „graduell“ durch Gaskraftwerke ersetzt werden.
Auswertungen der Jahre 2011-2016 haben jedoch nur einen mittleren Nutzungsgrad der Wind- und Solaranlagen von knapp 15% ergeben, d.h. von den installierten 100 + 144 = 244 GW kommen bei den Verbrauchern im Mittel nur etwa 47 GW an (unter Berücksichtigung der nicht fluktuierenden etwa 10 GW über Biomasse, Wasser, etc.), was im Winter im Mittel gerade zur Deckung der Hälfte des geforderten Strombedarfes von mindestens 80 GW reichen würde. (2,3) Diese bis mindestens 80 GW fehlende Leistung müßte dann über Gaskraftwerke abgedeckt werden.
Aber da gibt es auch noch die sog. „Dunkelflauten“ im Winter, in denen teilweise über 14 Tage den Wind- und Solaranlagen kaum Strom zu entlocken ist, die aber auch der Stromdeckung bedürfen – mindestens 80 GW (ohne Stromspeicher etwa 210 Gaskraftwerke, denn die Frage der technisch durchführbaren und bezahlbaren Stromspeicher ist eher fraglich).
Die einzig mögliche Lösung zur Deckung von mindestens 80 GW wäre eine Aufstockung der Wind- und Solaranlagen auf insgesamt etwa 470 GW (bei einer mittleren Nutzung der Wind- und Solaranlagen von knapp 15% und unter Berücksichtigung der nicht fluktuierenden Stromerzeugung über Biomasse, Wasser, etc.), wobei gleichzeitig eine Stromspeicherkapazität von ertwa 35 GW erforderlich wäre, um den fluktuierenden Strom  über dem Mittelwert aufzufangen, um die gleiche Leistung bei Werten unterhalb des Mittelwertes wieder zur Verfügung zu stellen, wozu z.B. knapp 100 Pumpspeicherwerke der Goldisthalgröße erforderlich wären – bei der Topographie Deutschlands natürlich nicht machbar (Goldisthal ist das größte deutsche Pumpspeicherwerk). Diese Überlegungen verstehen sich bei gleichbleibendem Stromverbrauch und ohne den Stromverbrauch für Elektrofahrzeuge.
Die in der Studie des BDI angedachten Stromspeicher (Batteriespeicher, Technologien zur Wandlung von Ökostrom in Wasserstoff, etc.) in dieser Größenordnung sind bei den niedrigen Wirkungsgraden dieser Anlagen weit von einer technischen und bezahlbaren Realisierbarkeit entfernt, die zudem noch lange im Versuchsstadium verharren werden.

Diese Überlegungen müssen zudem noch vor dem Hintergrund gesehen werden, dass die mögliche Verminderung des CO2-Gehaltes der Atmosphäre durch eine funktionierende deutsche Energiewende in einem nicht mehr meßbaren niedrigen Prozentgehalt liegt, ohne die Wirkung von CO2 auf das Klima hier vertiefen zu wollen.

Somit entbehrt die im Auftrage des BDI durchgeführte Studie einfachster technischer Erkenntnisse. Anstatt eine gründliche Recherche zur möglichen Verfügbarkeit von Wind- und Solaranlagen als unabdingbare Vorraussetzung für die Aussage einer solchen Studie vorrauszuschicken, bekennt sich der BDI nun zu einem preistreibenden Klimaschutzplan und sitzt nun mit den Klima-NGOs in einem Boot mit der Zielsetzung einer angestrebten ökologischen Transformation der Wirtschaft/Gesellschaft, anstatt seine Entscheidungen auf Fakten zu basieren.

Quellen

1. BFI-Studie: Klimapfade für Deutschland
2. Schuster, R.: Mitteilung vom 03.12.2016
3. Beppler,E.: „Die Vorstellungen der Regierung/Parteien zur Absenkung des CO2-Ausstoßes im Lichte einer technischen Analyse“, EIKE, 27.12.2017




Dumm gelaufen….

Seit fast drei Jahrzehnten hat sich die Welt der Klimarettung mittels „Klimaschutz“ verschrieben. Das Mittel dazu sollte die Umstellung der Energienutzung von fossilen Energieträgern auf sogenannte Erneuerbare sein. Heute verwendet man dafür den wissenschaftlich klingenden Begriff „Dekarbonisierung“.

Deutschland, als der ewig auf Vergebung der Sünden seiner Vorväter hoffende Musterknabe, wollte unbedingt „Vorreiter“ dieser Bewegung sein. Dazu führte die rot-grüne Regierung im Jahre 2000 das sog. Erneuerbare Energien Gesetz (EEG) ein, sowie eine Fülle von Vorschriften, Gesetzen und Subventionen – heute euphemistisch „Anreize“ genannt- ein, die auch auf den wichtigen Feldern wie Heizung und Transport zu einer Verminderung des Verbrauchs dieser – so wurde und wird behauptet- für das „Weltklima“ so wichtigen CO2 Emittenten – also fossiler Energieträger, führen sollten.

Denn eines war allen klar, je mehr davon verbraucht wird, desto mehr CO2 entsteht und, auch das ist wahr, je besser die Verbrennung, also je effizienter die chemische Energie in Wärme oder Bewegungsenergie umgewandelt wird, desto mehr CO2 entsteht.

Nun, nach fast zwanzig Jahren Wirksamkeit dieses EEG, der sog. Wärmedämmverordnung EnEV und hunderter anderer kostspieliger Gesetzen, Verordnungen, Subventionen wie bspw. der zwanghaften Beimischung von Biosprit in den Kraftstoff, und nach fast 30 Jahren intensiver weltweiter Klimadiplomatie, ist es an der Zeit sich mal anzuschauen, wie die Welt auf diese teuerste Rettungsaktion die es je gab, eines rein statistischen Konstruktes namens Weltklima, reagiert hat.

Drei Meldungen aus jüngster Zeit sollten uns genügen, um eine erste Schlussfolgerung (siehe ganz unten) zu ziehen.

1. Das Wachstum des Verbrauchs fossiler Brennstoffe hält unvermindert an. Mit durchgängig 1,6 % Anstieg p.a. (Quelle hier)

Abbildung 1: Wie oben stehende Grafik zeigt hat der Verbrauch fossiler Brennstoffe – seit Beginn (1992) der weltweiten Klimadiplomatie- um 57 % zugenommen.

Zitat: „Der Anstieg ist identisch mit dem der vor der weltweiten Klimadiplomatie zu beobachten war, nämlich ebenfalls 1,6 % p.a.

Um den Verbrauch fossiler Treibstoffe um 90% oder mehr bis zum Jahr 2050 zu reduzieren, ist folglich eine Reduktion dieses Verbrauchs von ~1 Mio toe pro Tag erforderlich, jeden Tag bis 2050. –

Was entspricht 1 Mio toe?

  1. a) ~1,5 x 1 GW Kernkraftwerk,
  2. b) 1500 x 2 MW Windturbinen,
  3. c) 14 Millionen x 295 W Solarpaneele. –

Dies ist das Äquivalent zu den fossilen Treibstoffen, die jeden Tag ersetzt werden müssten“.

Diese Graphik des globalen Verbrauchs fossiler Treibstoffe sagt eigentlich alles: Die Bemühungen der Grünen aller Parteien zur Reduktion fossiler Treibstoffe sind ohne jede Auswirkung und damit völlig erfolglos geblieben. Mit der Zunahme des Verbrauchs fossiler Treibstoffe um 57% seit 1992 waren deren gesamte Bemühungen umsonst.

Und – noch schlimmer aus Sicht der Klimaalarmisten- muss sein, dass auch das bis etwa 2010 gern gebrauchte Hilfsargument vom „baldigen Ende“ dieser Ressource nicht mehr zieht, weil immer mehr Anbieter von Öl, Kohle und Gas auf den Weltmarkt drängen und sowohl die Preise ins Rutschen brachten, aber auch die Versorgungssicherheit drastisch verbessern. Ausgedrückt wird das in dieser Schlagzeile (Quelle hier)

 

2. US-Ölproduktion erreicht historischen Meilenstein – 10 Millionen Barrel pro Tag

Im zugehörigen Artikel kann man nachlesen, dass die USA sich anschicken Saudi Arabien als weltgrößten Erdölproduzenten abzulösen. Bloomberg titelt:

OPEC’s Oil Price Nightmare Is Coming True

Zitat

In nur wenigen Jahren sind die USA in der Lage, Saudi-Arabien als zweitgrößten Ölproduzenten der Welt zu überholen. Analysten gehen davon aus, dass die US-Ölproduktion nächstes Jahr 11 Millionen Barrel pro Tag übersteigen könnte. Die saudische Produktion liegt derzeit bei 10,6 Millionen Barrel pro Tag.

„Die USA könnten ihre Förderung bis Ende 2019 noch um mehr als 2 Millionen Barrel pro Tag steigern, von dem Niveau aus, wo wir heute sind“, sagte Yergin.

3. Globale Investitionen in erneuerbare Energien sind ins Stocken geraten

Offensichtlich haben auch die Investoren die Zeichen der Zeit erkannt, denn sie fahren ihre hohen Investitionen in „Erneuerbare“ merklich zurück. Vielleicht auch weil sie merken, dass die Verbraucher nicht mehr lange gewillt sein werden, die irrsinnig hohen Kosten der Flatterstromerzeugung zu bezahlen denn, so eine weitere Schlagzeile aus diesen Tagen:

Globale Investitionen in erneuerbare Energien sind ins Stocken geraten

Abbildung 2: Von 2011 bis 2017 wuchs die globale grüne Energie-Investition nur um 0,7 Prozent pro Jahr. Laut Bloomberg New Energy Finance stiegen die Investitionen in erneuerbare Energien in den USA nur um 1 Prozent, in Japan um 16 Prozent, in Indien um 20 Prozent, in Deutschland um 26 Prozent und in Großbritannien um 56 Prozent. Die Investitionen in China stiegen um 26 Prozent und trugen dazu bei, dass 2017 ein geringes Wachstum von 3 Prozent für erneuerbare Energien möglich wurde.

Quelle: https://eike.institute/2018/02/10/globale-investitionen-in-erneuerbare-energien-sind-ins-stocken-geraten/

 

Fazit

Dem „Weltklima“ hat diese künstlich angeheizte Investitionsblase nichts gebracht. Was auch nicht zu erwarten war, wie jeder, der es wissen will, auch weiß. Es gab keine Senkung der weltweiten Emissionen (Details hier). Sie stiegen – nach einer kurzfristigen Stagnation – im letzten Jahr auf 41 Mrd. t weiter an.

Ebenso wenig ist die Treibhausgas-Konzentration gesunken. Sie steigt weiter mit rd 2 ppm pro Jahr an.

Was es allerdings gebracht hat, ist eine ebenfalls noch nie dagewesene Umverteilung des Vermögens der Welt. Und zwar von den Armen zu den Reichen.   Nämlich überall dort, wo die Verbraucher über Steuern und andere Zwangsabgaben diese „Investitionen“ dank der Weisheit ihrer Regierungen zu bezahlen haben.

Dass alles muss auch jeder, der klar im Kopf geblieben ist, erwartet haben, denn

  1. werden die Generatoren der „Erneuerbaren“ mittels billiger fossiler Energie erzeugt, und
  2. ist ihr Anteil am globalen Energieverbrauch – erfreulicherweise möchte ich hinzufügen- immer noch verschwindend gering, wie die folgende Grafik zeigt.

Abbildung 3: Quelle British Petrol, world-energy-consumption-1965-2016: Zitat (hier) Seit dem Jahr 1965 hat sich der weltweite Energieverbrauch auf 13,3 Milliarden Tonnen Öläquivalent mehr als verdreifacht, nach dem BP Statistical Review of World Energy. Im Jahr 2016 lieferten Wind und Sonne etwa zwei Prozent davon. Jedes Jahr erhöht die Welt ihren Energieverbrauch um die Menge, die allein das Vereinigte Königreich benötigt. Wind- und Solarenergie können nicht einmal das jährliche Wachstum der Weltnachfrage liefern, geschweige denn unsere traditionellen Energiequellen ersetzen.

 

Die Konsequenz für Deutschland

Nur bei den Verhandlern der kleinsten Großen Koalition, die es je in Deutschland gab, scheinen diese Erkenntnisse bisher nicht wahrgenommen zu werden, denn im Koalitionsvertrag wird feierlich gelobt:

Wir machen Deutschland zur energieeffizientesten Volkswirtschaft der Welt.

 

und etwas später im Text

 

Wir führen die Energiewende sauber, sicher und bezahlbar fort: Zielstrebiger, effizienter, netzsynchroner und zunehmend marktorientierter Ausbau der Erneuerbaren Energien. Unter diesen Voraussetzungen: Steigerung des Anteils Erneuerbarer Energien auf 65 Prozent bis 2030. Modernisierung der Stromnetze.

Und fürs Klima geloben sich die Akteure feierlich:

Wir bleiben Vorreiter beim Klimaschutz: Bekenntnis zu den nationalen, europäischen und internationalen Klimazielen 2020, 2030 und 2050. Handlungslücke beim Klimaschutz bis 2020 verkleinern. Gesetz zur Einhaltung der Klimaziele 2030

Mit dem Euphemismus „Handlungslücke“ wird das blamable, weil massive Unterschreiten des „Klimazieles“ 2020 um fast 30 % umschrieben. Wohl dem, der solche tollen Wortschöpfer in der Regierung hat.

Zur Erreichung dieser hehren Ziele darf auch der kleine Mann, die kleine Frau nicht vergessen werden, denn in Zeile 5211 finden wir den lieben Satz:

„Die Einführung einer Klimakomponente beim Wohngeld erfolgt nach Vorlage eines mit den Ländern inhaltlich und finanziell abgestimmten Modells.“

Bisher hat uns Verbraucher, insbesondere die kleinen Leute, allein das EEG, die stolze Summe von 236 Mrd. €[1] gekostet. Für Nichts! Die Reichen wurden reicher gemacht, die Armen durfte es bezahlen, die Landschaft kommt unter die Windräder und Solarpaneele. Und die GroKo will so weiter machen sie bisher. Nur mehr davon.

Deutschland ist zwar Weltmeister in der Prokopf-Produktion von Zappelstrom, aber für eine Emissionsabsenkung hat all das offensichtlich nicht geführt.

Das Klima merkt auch deshalb davon nichts.

Wer also wollte Einstein widersprechen wenn er feststellt:

„Die Definition von Wahnsinn ist, immer wieder das Gleiche zu tun und andere Ergebnisse zu erwarten.“

 

 

 

 

 

 

[1] Quelle: http://strom-report.de/download/netzentgelte/




Diesel-Verteufelung: Krieg gegen das eigene Volk Diesel: Die Lückenmedien im Glashaus (11)

Bild 1 (oben). Der Blick „unter die Haube“ eines älteren V8-Dieselmotors offenbart die komplexe Technologie dieser energieeffizienten Kraftpakete

In den bisherigen Teilen dieses Aufsatzes wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten auf im Prinzip unbedeutende Werte zurückgegangen ist. Wichtiger Grund hierfür ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Auch wurde aufgedeckt, wie fragwürdig die Messmethoden sind und welche Tricks und Manipulationen zum Einsatz kommen. Im dritten Teil wurden die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie die offensichtliche Parteilichkeit sowohl der öffentlich-rechtlichen Medien als auch industriefeindlicher Behörden behandelt. Im vierten Teil wurde festgestellt, dass das Auto auch in der Stadt der Zukunft unverzichtbar bleibt und Elektromobilität zurzeit nicht realisierbar ist. Außerdem wurden Widersprüche in den Aussagen des Umweltbundesamtes beleuchtet und anrüchige Querverbindungen zwischen der Deutschen Umwelthilfe sowie Ministerien und Behörden thematisiert. Im fünften Teil wurde gezeigt, dass an der angeblichen Gesundheitsgefährdung selbst durch geringste NO2-Konzentrationen nichts dran ist und die Horror-Stories über zigtausende Tote durch Dieselabgase nicht wissenschaftlich fundiert sind. Zahlreiche Studien basieren sogar auf gefälschten Zahlenwerten. Im sechsten Teil wurden grobe Mängel bei den Studien der US-Umweltschutzbehörde EPA und der WHO dargelegt, mit denen behauptete Gesundheitsgefahren von Stickoxiden „belegt“ werden sollen. Im siebten Teil wird anhand von umfassenden Abgasuntersuchungen in bayrischen Großstädten nachgewiesen, dass selbst an den „Brennpunkten“ des Abgasgeschehens keinerlei Gründe für Fahrverbote für Diesel-PKW vorliegen. Anschließend wurde im achten Teil nachgewiesen, dass die Grenzwertüberschreitungen der Luft punktuell extrem beschränkt sind und der Anteil der betroffenen Bewohner selbst an den Brennpunkten im Zehntel-Promille-Bereich liegt.

Bild 2. Einige der typischen Horrormeldungen in den Medien zum Thema Diesel-Abgase

 

Der neunte Teil zeigte, wie gering die Beaufschlagung der Anwohner einer Straße mit über dem Grenzwert liegenden NO2-Konzentrationen in Wirklichkeit ist. Im zehnten Teil wurde gezeigt, dass die NO2-Beaufschlagung im eigenen Wohnbereich teilweise sehr viel höher liegt als selbst an den am stärksten befrachteten Brennpunkten des Autoverkehrs. Im vorliegenden elften Teil werfen wir einen kritischen Blick auf die Glaubwürdigkeit einiger Epidemiologinnen, die sich in Deutschland als Anti-Diesel-Aktivistinnen hervortun.

 

Eine unbequeme Wahrheit….

Im Juni 2017 erschien der Bericht des ein Jahr zuvor eingesetzten Diesel-Untersuchungsausschusses, in dessen Verlauf Abgeordnete der im Bundestag vertretenen Parteien Stellungnahmen und Eingaben der vom Thema betroffenen gesellschaftlichen Kräfte sowie einer Reihe führender Wissenschaftler angehört und bewertet hatten. Zu diesen Wissenschaftlern gehörten auch führende Mediziner und Epidemiologen. In seinem abschließenden Bericht hält der Ausschuss auf den Seiten 491 ff u.a. folgende entscheidenden Aussagen fest:

– In Deutschland bestehen keine toxikologisch bedenklichen NO2-Werte in öffentlich zugänglichen Bereichen.

– Es gibt keine wissenschaftlich erwiesenen Zahlen dazu, wie viele Menschen aufgrund grenzwertüberschreitender NO2-Expositionen erkrankt oder gar gestorben sind, Bild 3.

Bild 3. Nach intensiver Recherche kam der Diesel-Untersuchungsausschuss des deutschen Bundestages zu dem Schluss, dass die Meldungen über Tote durch Dieselabgase unbegründet sind [BUTA]

 

…führte zu wütenden Protesten

Wie bereits in früheren Teilen dieser Untersuchung ausgeführt, gibt es zu diesem Thema gegensätzliche Haltungen von Medizinern bzw. Toxikologen einerseits und Epidemiologen andererseits. Erstere stützen sich auf durch Tests klar nachgewiesene Ursache-Wirkungsbeziehungen, während Epidemiologen statistische Untersuchungen an größeren Bevölkerungsgruppen durchführen, um auf diese Weise Hinweise auf Gesundheitsgefährdungen zu erhalten. Bei dieser Methodik sollte man jedoch die Voraussetzungen der Untersuchung sehr penibel auf mögliche Stör- und Quereinflüsse hin abprüfen und die Grundlagen der statistischen Auswertung beherrschen.

Bild 4. Vergleich gesundheitlicher Risikofaktoren. Man beachte, dass unter „Umwelt“ eine Vielzahl unterschiedlicher Faktoren zusammengefasst ist, von denen NO2 lediglich einen (eher unbedeutenden) Anteil ausmacht (Ministerium f. Umwelt, Gesundheit + Verbraucherschutz)

 

Unsaubere Arbeitsweise führt sonst zu Scheinkorrelationen [SCHKO] und damit zu falschen Schlüssen. Der wichtigste Fehler liegt in der Regel darin, dass die Abgrenzung der Einflüsse bei der Auswahl der untersuchten Gruppen („Kohorten“) nicht sauber durchgeführt wird.

Bereits in früheren Folgen dieser Artikelserie wurde darauf hingewiesen, dass ein erheblicher Teil der von Epidemiologen präsentierten Studien über den Zusammenhang von NO2-Emissionen und Gesundheitsbeeinträchtigungen wegen methodischer Fehler als nicht vertrauenswürdig eingestuft werden sollte [RUHR5, RUHR6RUHR5]. Teilweise wurde sogar offen gefälscht, um Fördergelder zu erhalten [DUKE]. Dies gilt auch für die Studien, die in zusammenfassenden Dokumentationen der US-amerikanischen Umweltschutzbehörde EPA [EPA] sowie der Weltgesundheitsorganisation WHO [WHO2] aufgeführt werden.

 

Profiteure des Abgas-Alarmismus

In den letzten Jahren hat sich in den westlichen Nationen sowie im Dunstkreis der WHO ein Filz aus universitären und „ökologischen“ – also im Prinzip kommerziellen – Institutionen herausgebildet, die davon abhängen, dass staatliche Stellen sie mit immer neuen Forschungsaufträgen u.a. zu Abgasthemen alimentieren. Das hat zur Ausbildung von Abhängigkeiten geführt und damit zu einer „Marktsicherung“-Haltung geführt. Den beteiligten Instituten ist schließlich klar, dass die Nachfrage nach ihren Forschungsdienstleistungen zurückgehen würde, falls in der Öffentlichkeit der Eindruck entstehen würde, dass die Gefahr von Auto- und insbesondere Dieselabgasen nicht gar so groß ist wie vielfach behauptet.

Deshalb nimmt es nicht wunder, dass manche Exponenten aus diesem Umfeld sich auch in Deutschland als „Anti-Diesel-Aktivisten“ hervortun. Schließlich waren das von Trittin mit grünlinken Parteigängern gespickte Umweltministerium samt des ihm unterstellten Umweltbundesamtes wesentliche Auftraggeber. Drei der profiliertesten dieser Aktivistinnen nahmen das Ergebnis des Diesel-Untersuchungsausschusses zum Anlass, hierzu eine geharnischten Protestnote [EPIDE] veröffentlichen zu lassen.

 

Unter dem Deckmantel „der Wissenschaft“…

Entlarvend ist bereits der einleitende Satz nach der Zwischenüberschrift „Widerspruch aus der Wissenschaft“: „Nicht nur bei den Linken und Grünen, die der Regierung Versagen vorwerfen, stößt der Bericht auf Kritik. Auch Experten aus den Bereichen Luftverschmutzung und Gesundheit widersprechen den Schlussfolgerungen des Berliner Diesel-Untersuchungsausschusses“. Damit haben sich sowohl das sogenannte Hauptstadtnetzwerk als auch besagte Akademikerinnen bereits bezüglich ihrer ideologischen Positionen eindeutig positioniert. Dass man sich dabei nicht scheut, auch verbal grobes Geschütz aufzufahren, dokumentiert sich in dem einleitenden Absatz: „Der Diesel-Untersuchungsausschuss will keine tödlichen Gefahren von Diesel-Abgaben gefunden haben. Wissenschaftler halten das für absurd“. Eine solche Aussage in diesem Zusammenhang lässt einiges an Chuzpe erkennen, haben doch vor dem Untersuchungsausschuss mehrere hochrangige Experten auf dem Gebiet ausgesagt. Auch gibt es in Deutschland mit der MAK-Kommission und dem Ausschuss für Innenraumrichtwerte gleich zwei hochkarätig besetzte Expertengremien, die zu anderen Schlussfolgerungen kommen. Auch in den USA hat das EPA erst im letzten Jahr bekräftigt, dass es NO2-Konzentrationen unterhalb von 100 µg/m3 für gesundheitlich völlig unbedenklich hält [NAAQS].

Bild 5. Zitat aus dem Bericht des Bundestags-Untersuchungsausschusses zur Dieselaffäre. Prof. Dr. med. Helmut Greim war Leiter des Instituts für Toxikologie und Umwelthygiene der TU München und langjähriger Vorsitzender der MAK-Kommission (Quelle: [BUTA])

 

…wird Wissenschaft missbraucht

Der Bericht des Untersuchungsausschusses, so die Stellungnahme der drei Akademikerinnen, habe „eine ganze Reihe wichtiger, weltweiter Studien, ignoriert“. Diese Aussage ist gleichbedeutend mit einem Frontalangriff gegen eine Vielzahl anderer Wissenschaftler auf dem Gebiet, darunter renommierte Vertreter der Toxikologie oder der Lungenheilkunde, denen man vorwirft, sie seien bezüglich des Standes der Wissenschaft und Forschung nicht ausreichend informiert.

Bild 6. Auszug aus einer privaten Mail eines Pathologieprofessors an Prof. Dr. Thomas Koch [KOCH]

 

Und dann lassen die Damen die Katze aus dem Sack, indem sie behaupten: „Epidemiologische Befunde belegen negative gesundheitliche Wirkungen von Stickstoffdioxid bereits bei Konzentrationen von 20 µg/m3 im Jahresmittel oder darunter. Stickoxide haben auch als Vorläufer von Feinstaub und Ozon gesundheitliche Relevanz.“ Damit verlässt das Trio jeglichen „Konsens der Wissenschaft“ ihres Fachgebiets, denn diese Hypothese geht über alles, was WHO und EPA, die EU und selbst das UBA für unbedenklich halten, weit hinaus. Die drei Damen repräsentieren keinesfalls mehr die Positionen „der Wissenschaft“, sondern vertreten eine Extremposition, die man auch als sektiererisch charakterisieren könnte.

Bild 7. Prof. Dr. Andrea Hartwig, Geschäftsführende Direktorin des Instituts für Angewandte Biowissenschaften (IAB) und Leitung der Abteilung Lebensmittelchemie und Toxikologie beim Karlsruhe Institut für Technik, Mitglied und seit 2007 Vorsitzende der MAK-Kommission, Mitglied in zahlreichen nationalen wie auch internationalen Beratergremien ([HARTW])

Nun ist es das gute Recht jedes Wissenschaftlers, eine von der Mehrheit abweichende These zu vertreten. Berufskollegen jedoch so massiv Ignoranz, Absurdität und unzureichende Kenntnis des Stands der Wissenschaft vorzuwerfen, entspricht nicht so ganz der feinen englischen Art. Die Damen dürfen sich daher nicht darüber beschweren, wenn ihre Hypothese im Folgenden ebenfalls einer kritischen Prüfung unterzogen wird.

 

Wie beeinflusst die NO2-Befrachtung der Luft im Freien die Lebensdauer?

Die Europäische Umweltagentur EEA behauptet, dass Stickoxide in deutschen Großstädten angeblich jährlich über 10.000 Tote verursachen. Prof. Hoffmann hält diese Studie laut Aussage in einem Interview mit der Landesrundfunkanstalt Berlin-Brandenburg „unterm Strich für seriös“ [RBBHO]. Sie basiere „auf solider Wissenschaft“. Zur nächsten Frage über Stickoxidmesswerte an verkehrsreichen Straßen sagte sie: „Im Mittel leben wir alle durch die Belastung durch Feinstaub und Stickoxide zehn Monate kürzer….Wer mit…einer gesunden Lebensweise im Grünen lebt, hat aber im statistischen Durchschnitt ein längeres Leben“. Der „kleine Trick“ bei dieser Aussage bestand übrigens darin, dass sie hier Feinstaub – den moderne Dieselmotoren dank ihres Rußpartikelfilter gar nicht erst ausstoßen – und NO2 zusammenwürfelte. Allein schon diese Argumentationsweise lässt Rückschlüsse auf die Integrität und wissenschaftliche Seriosität von Prof. Hoffmann zu. Deshalb wollen wir uns diese Aussage einmal am Beispiel Deutschlands ansehen.

Bild 8. Zitat aus dem Bericht des Bundestags-Untersuchungsausschusses zur Dieselaffäre. Prof. Dr. Peters ist Direktorin des Instituts Epidemiologie II am Helmholtz Zentrum München (Quelle: [BUTA])

 

Für die Überprüfung der Hypothese von Prof. Hoffmann ist es am naheliegendsten, die Lebenserwartung von Bevölkerungsgruppen zu vergleichen, die in Gegenden mit unterschiedliche hohen Abgasimmissionen (und somit auch NO2-Gehalten) leben. Als Datenbasis nehmen wir die vom UBA erstellte Deutschlandkarte mit den NO2-Jahremittelwerten für das Jahr 2010 (Bild 6), da für diesen Zeitpunkt auch regionale Daten zur Lebenserwartung der Bevölkerung verfügbar sind.

Bild 9. Vom Umweltbundesamt erstellte Karte mit den 2010 in Deutschland gemessenen Jahresmittelwerten der NO2-Konzentrationen (Grafik: UBA)

 

In Deutschland wurden 2010 NO2-Jahresmittelwerte zwischen etwa 3-10 µg/m3 in ländlichen Regionen und 90-100 µg/m3 in einigen Großstadt-Hotspots gemessen. Die Farbverteilung auf der Karte weist Mecklenburg-Vorpommern als die am wenigsten durch Abgase belastete deutsche Region aus. Hier sollte man bei Gültigkeit der Hypothese auch die höchsten Lebenserwartungen finden, während die Städter in den industriellen Ballungszentren des Westens – Nordrhein-Westfalen, Rhein-Main-Region sowie der Industriegürtel von Stuttgart bis München – erheblich schlechtere Luft atmen müssen. Die ausgewiesenen NO2-Gehalte sind gleichzeitig auch ein Indikator für alle anderen Abgasbestandteile wie z.B. Feinstaub. Zwischen Regionen mit hohen Abgaswerten und Mecklenburg-Vorpommern müsste sich demnach ein deutliches Gefälle der Lebenserwartung nachweisen lassen. In die Auswertung wurden alle Regionen von Mecklenburg-Vorpommern – Städte ebenso wie ländliche Regionen – sowie das „deckigste Dutzend“ der am stärksten mit NO2 befrachteten westdeutschen Großstädte einbezogen, Bild 10.

Bild 10. Einfluss der NO2-Jahresmittelwerte der Luft im Freien auf die Lebenserwartung bei Geburt (e0) für Mecklenburg-Vorpommern sowie das „dreckigste Dutzend“ der deutschen Großstädte (Daten: [UBA, LEBE])

 

Die Auswertung zeigt jedoch das völlige Gegenteil: Statt mit zunehmender Abgasbelastung abzunehmen, steigt die Lebenserwartung sogar an. Sowohl Männer als auch Frauen leben offensichtlich dort deutlich länger, wo die Luft am stärksten mit Abgasen und NO2 befrachtet ist. Die Steigung der linearen Funktion, die angibt, um wieviele Lebensjahre man in belasteter Luft pro zusätzlichem µg/m3 NO2 länger leben dürfte, liegt für Männer bei +0,059 Lebensjahren pro zusätzlichem µg NO2/m3. Bei Frauen ist er etwas niedriger und erreicht lediglich +0,032 Lebensjahre pro zusätzlichem µg NO2/m3.

Anders ausgedrückt bedeutet dies, dass ein Mann in München oder Stuttgart ein um rund fünf Jahre längeres Leben erwarten darf als jemand, der in ländlichen Regionen in MP wie Göhlen, Löcknitz oder Gülzow wohnt. Bei Frauen ist der Unterschied geringer, doch erfreuen auch sie sich einer um fast drei Lebensjahre längeren Lebenserwartung.

Angesichts dieses Ergebnisses kann man natürlich argumentieren, dieser offensichtliche Widerspruch habe andere Ursachen, beispielsweise negative Einflüsse aus den Mangeljahren in der DDR-Zeit bei den Einwohnern von Mecklenburg-Vorpommern. Um dies zu überprüfen, wurde die gleiche statistische Auswertung ausschließlich für dieses Bundesland durchgeführt, Bild 11.

Bild 11. Einfluss der NO2-Jahresmittelwerte der Luft im Freien auf die Lebenserwartung bei Geburt (e0) für unterschiedliche Wohnorte innerhalb von Mecklenburg-Vorpommern (Daten: (Daten: [UBA, LEBE])

 

Innerhalb von Mecklenburg-Vorpommern mit seinen deutlich kleineren Städten in einem ansonsten weitgehend ländlich geprägten Umfeld sind die absoluten Unterschiede mit einer Spanne von 8 bis 44 µg/m3 NO2 natürlich erheblich geringer. Dennoch bleibt nicht nur der grundlegende Trend erhalten, auch die Faktoren passen sowohl bei Männern (+0,0496 Lebensjahre pro zusätzlichem µg NO2/m3) als auch bei Frauen (+0,059 Lebensjahre pro zusätzlichem µg NO2/m3) erstaunlich gut zu denen aus der Analyse für die gesamte BRD. Auch in Mecklenburg-Vorpommern lebt man in „dreckiger“, abgasbeladener Stadtluft erkennbar länger als beim ständigen Genuss reiner Landluft.

 

Die Hypothese zerschellt an der Realität

Diese auf die Schnelle durchgeführte Untersuchung ist zugegebenermaßen recht grob, weshalb in den Grafiken auch ausdrücklich von einem scheinbaren Einfluss die Rede ist. Kein vernünftiger Mensch würde behaupten, dass das Einatmen von Abgasen der Gesundheit zuträglich ist. Es schadet aber ganz offensichtlich bei weitem nicht in dem Umfang, wie es die meisten Medien unterstellen. Unrühmliches aber leider nicht einziges Beispiel ist der Starreporter Jürgen Döschner mit seiner Behauptung: „Deutsche Automafia vergast jedes Jahr 10.000 Unschuldige“ [DOESCH].

Wie auch immer man die Ergebnisse der Analyse interpretieren mag, es bleibt als Tatsache, dass die Hypothese der EEA sowie Prof. Hoffmann schon bei diesem grundlegenden Faktencheck nicht gut davonkommt. Das Vorzeichen stimmt nun einmal nicht, und das ist ein gravierender Mangel, denn es bedeutet zumeist, dass die Hypothese selbst durch aufwendiges Modellieren, Herumrechnen und Simulieren nur zu retten wäre, wenn sich die Effekte sehr scharf trennen ließen. Die entsprechenden Nachweise sind in der Praxis kaum zu erbringen, Bild 12.

Bild 12. Dr. med. Tillmann Jahn, Oberarzt der Klinik für Thoraxchirurgie der St. Vincentius-Kliniken Karlsruhe (Quelle: [JAHN])

 

Das ist auch nicht verwunderlich, denn andere Faktoren – insbesondere die sozioökonomische Situation – haben offensichtlich eine viel stärkere Auswirkung als Autoabgase. Diese dominierenden Einflüsse auf die Lebensdauer sind seit langem bekannt und bestens dokumentiert: Rauchen, Fettleibigkeit, Bluthochdruck, Diabetes und Bewegungsmangel, siehe auch Bild 4. Diese sind wiederum eng mit der sozioökonomischen Situation verknüpft. Das präzise Herausfiltern einer – wenn überhaupt – dann ziemlich schwachen Einflussgröße wie Autoabgase setzt eine äußerst sorgfältige Selektion der untersuchten Personengruppen voraus. Im Prinzip müssten alle relevanten Faktoren wie das individuelle Verhalten sowie die tatsächliche Jahresbelastung mit allen relevanten Lungenschadstoffen (Innen- und Außenluft) am Wohnort wie auch am Arbeitsplatz ganzheitlich, langzeitig und mit engem Zeitraster untersucht werden. Eine exakte getrennte Erfassung von NO2 und anderen Faktoren wie Feinstaub wären unabdingbar. Dies ist bei den weitaus meisten epidemiologischen Studien nicht der Fall. Wird die Statistik jedoch mit Kuddelmuddel statt mit sauber getrennten Eingangsdaten betrieben, so kommt es zu „mathematischen Zombiezahlen“ wie in den Berechnungen der Europäischen Umweltagentur.

Bild 13. Prof. Dr. med. Helmut Greim war Leiter des Instituts für Toxikologie und Umwelthygiene der TU München und langjähriger Vorsitzender der MAK-Kommission (Quelle: [GREIM])

 

Dieser grundlegende Mangel kann auch durch sogenannte Metaanalysen – die Zusammenfassung und statistische Untersuchung der Ergebnisse zahlreicher unterschiedlicher Studien – nicht behoben werden. Die allzu häufig unsaubere Trennung der Einflussfaktoren ist ein entscheidender und nicht mehr zu korrigierender Mangel. Unter US-Wissenschaftlern gibt es hierzu eine kurze und sehr treffende Charakterisierung: Shit in, shit out. Auf eine Übersetzung sei hier verzichtet.

 

Eine wissenschaftliche Selbstdemontage…

Die Position der drei Epidemiologinnen um Prof. Hoffmann kann somit als auch unter Medizinern kaum glaubwürdig eingestuft werden. Umso verwunderlicher ist es, dass sie dennoch mit derartiger Verve an die Öffentlichkeit drängen und zugleich Fachkollegen derart heftig und teils unter der Gürtellinie („absurd“) attackieren. Zudem nutzen sie die gleichen PR-Netzwerke ökosozialistisch geprägter Journalisten wie die Autofeinde von der Deutschen Umwelthilfe, um sich wo immer möglich als „Stimme der Wissenschaft“ zu gerieren. Statt wie unter Wissenschaftlern üblich ihre Positionen im Rahmen von Veröffentlichungen und Tagungsvorträgen zu vertreten, bevorzugt Fr. Prof. Hoffmann augenscheinlich das Megaphon der Medien. Leider zeigt die Erfahrung, dass man damit in unserer mediendominierten Öffentlichkeit leichter Karriere machen kann als mit seriöser wissenschaftlicher Betätigung: „Wer lauter schreit, bekommt leider Recht“. Insbesondere der RBB fällt dadurch auf, dass er Prof. Hoffmann ungeachtet ihrer eindeutig nicht repräsentativen Positionen in Sendungen bzw. Interviews als einzige „Vertreterin der Wissenschaft“ zu Wort kommen lässt. Im Prinzip wäre dies ein Fall für den Rundfunkrat.

Das traurige an dieser unangemessenen und den Gepflogenheiten der Wissenschaft widersprechenden Verhaltensweise ist, dass dies auf Dauer nachteilige Auswirkungen auf das gesamte Fachgebiet haben dürfte. Dabei besteht an der Notwendigkeit epidemiologischer Forschung an sich keinerlei Zweifel, sofern sie wissenschaftlichen Kriterien genügt. Nimmt jedoch die wissenschaftliche Reputation des Fachgebiets durch die beschriebenen Eskapaden Schaden, so kann sich dies nachteilig auch auf die Bereitschaft zur Forschungsförderung auswirken.

 

Fakten und „Faktenfinder“

Die hier dargelegten Probleme wurden bisher von den Medien ignoriert. Stattdessen hat man sich dort einen regelrechten Wettbewerb in der Frage geliefert, wer am tollsten auf den Dieselmotor und die Individualmobilität eindreschen konnte, wie sich ja auch kürzlich bei der perfiden Diffamierungskampagne gegen Wissenschaftler der medizinischen Fakultät an der RWTH Aachen gezeigt hat.

Bisher hat man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Belastung des Bürgers beschäftigt. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichtet. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie bestimmte Bundesbehörden sowie die etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Fachleuten, Medien, Journalisten oder Bloggern werden ignoriert. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Die Vernichtung der deutschen Automobilindustrie wird anschließend auch beim Benziner weitergehen, und zwar alternativlos. Die jetzt wohl unausweichliche „GroKo“ ist für Deutschland ein sehr schlechtes Omen.

Fred F. Mueller

 

Demnächst folgt Teil 12

 

Quellen

[BUTA] Drucksache 18/12900 – 492 – Deutscher Bundestag – 18. Wahlperiode

[DOESCH] https://www.welt.de/vermischtes/article167196737/Am-Ende-loescht-der-ARD-Reporter-den-geschmacklosen-Tweet.html

[DUKE] http://dailycaller.com/2017/07/03/epa-funded-research-lab-accused-of-fabricating-data-on-respiratory-illnesses/

[EPA] https://www.epa.gov/isa/integrated-science-assessment-isa-nitrogen-dioxide-health-criteria

[EPIDE] https://www.gesundheitsstadt-berlin.de/wissenschaftler-widersprechen-berliner-diesel-untersuchungsausschuss-11501/

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html

[GREIM] https://m.focus.de/finanzen/karriere/berufsleben/dieselpanik-wegen-grenzwertluege-politik-ignoriert-zweifel-am-grenzwert-40-mikrogramm_id_7378545.html

[HARTW] http://www.dfg.de/download/pdf/dfg_magazin/forschungspolitik/gesundheitsschutz/cv_hartwig_de.pdf

[JAHN] Jahn, T.: Vortrag Wunderwerk Lunge – eine Analyse der Gefährdungspotentiale. Tagung Motorische Stickoxidbildung NOx, Ettlingen. 2018

[KOCH] https://www.ifkm.kit.edu/downloads/Focus_Antworten_v2.0.pdf

[LEBE] http://www.lebenserwartung.info/index-Dateien/regdiff.htm

[NAAQS] https://www.epa.gov/no2-pollution/primary-national-ambient-air-quality-standards-naaqs-nitrogen-dioxide

[RBBHO] https://www.rbb24.de/politik/thema/2017/abgasalarm/beitraege/interview-umweltmedizinerin-barbara-hoffmann.html

[RUHR5] http://ruhrkultour.de/diesel-verteufelung-krieg-gegen-das-eigene-volk/

[RUHR6] http://ruhrkultour.de/die-lueckenmedien-im-glashaus-6/

[SCHKO] https://scheinkorrelation.jimdo.com/

[UBA] https://www.umweltbundesamt.de

[WHO2] http://www.euro.who.int/en/health-topics/environment-and-health/air-quality/publications/2013/review-of-evidence-on-health-aspects-of-air-pollution-revihaap-project-final-technical-report

 

 




So sieht Deutschlands Zukunft aus

Deutschland nach Erfüllung der Träume der Windkraft-Lobby, Bild Vernunftkraft.de

Vernunftkraft.de hat die Wunschträume der Windkraftlobby in einer Montage bei Facebook (hier) bildlich dargestellt.




Das Gegenteil von gut ist gut gemeint

Am 19.01.2018 erschien der Artikel „Vom Klimaschutz zur Klimasteuerung“ auf Novo Argumente. Dieser Artikel greift zunächst – sehr sachlich – alarmistische Konstrukte des anthropogenen Klimawandels auf, stellt dann ganz entspannt deren vorgeblich katastrophale Auswirkungen und Ziele in Frage, um daraus schließlich Argumente für ein globales Geoengineering zur Klimasteuerung abzuleiten. Nachfolgend sollen zunächst einige der klimaalarmistischen Darstellungen aus diesem Artikel näher beleuchtet werden:

Von den vergangenen 500 Millionen Jahre Erdgeschichte hat man zwar ziemlich klare Vorstellungen, aber keine eindeutigen und lückenlos nachgewiesenen Erkenntnisse, Zitat aus dem Novo-Artikel mit Hervorhebungen:

Tatsächlich ist das Klima der Erde höchst variabel. Es gab Eiszeiten und Wärmeperioden, in denen Palmen an den Polarkreisen wuchsen, möglicherweise auch „Schneeball Erde“ genannte Phasen, in denen nahezu die gesamte Erdoberfläche mit Gletschern bedeckt war. Am besten untersucht sind die letzten 500 Millionen Jahre. Für diesen Zeitraum, der ungefähr dem Phanerozoikum entspricht (also dem erdgeschichtlichen Zeitalter, in dem komplexe Lebensformen entstanden sind), können Wissenschaftler recht genaue Rekonstruktionen des Klimas erstellen. Sie nutzen dazu sogenannte „Proxys“ wie Baumringe, Ozeansedimente oder Eisbohrkerne…“

Zunächst einmal wird dem Leser die Klimaentwicklung der vergangenen 500 Millionen Jahre Erdgeschichte als recht genau bekannt vermittelt. Aber bereits Klimarekonstruktionen von weniger als 1 Million Jahren sind in der Realität nicht unproblematisch, auch wenn dafür tatsächlich Temperaturproxys in Form von Baumringen, Ozeansedimenten oder Eisbohrkernen vorliegen. Die Bedeutung von „recht genau“ wird nämlich immer unschärfer, je weiter wir uns in den geologischen Zeitaltern zurückbewegen. Und am Ende müssen Aussagen zum Klima auch noch zwischen echten Klimaveränderungen und geographischen Lageänderungen der betreffenden Kontinente aufgrund der Plattentektonik unterscheiden.

Ein Artikel aus National Geographic über eine Reduzierung des vorgeblichen CO2-Klimaantriebs wird dann als „gängige Theorie“ für die Entstehung der Eiszeiten benannt, Zitat aus dem Novo-Artikel:

Der Abwärtstrend, der in das aktuelle Eiszeitalter führte, begann vor circa 50 Millionen Jahren. Die Gründe dafür sind umstritten, eine gängige Theorie geht davon aus, dass die Ausbreitung und spätere Sedimentierung des Süßwasserfarns Azolla der Atmosphäre beträchtliche Mengen des Treibhausgases CO2 entzog. In den letzten zwölf Millionen Jahren ist der Temperaturabfall stärker geworden, gipfelnd in einer schnellen Folge immer intensiverer Glaziale, die die letzten drei Millionen Jahre prägten…“

Genau diese Theorie ist nicht „gängig“, sondern voll alarmistisch. Die eigentlich gängige Theorie erklärt über die genau gleiche Argumentation nämlich die Sauerstoffgenese auf unserer Erde, und zwar mit der Entstehung der globalen Vorkommen an Kohle, Erdöl und Gas aus unterschiedlichen organischen Bestandteilen. Und diese Entwicklung begann bereits mit dem Karbon, also vor etwa 350 Millionen Jahren.

Eine einzelne alarmistische Veröffentlichung über die Abschwächung eines vorgeblichen CO2-Klimaantriebs durch die Auswirkungen der Plattentektonik und wird dann als „aktueller Forschungsstand“ bezeichnet, Zitat aus dem Novo-Artikel:

Dass das Klima so kalt und volatil geworden ist, liegt laut aktuellem Forschungsstand an der Plattentektonik. Vor etwa 40 bis 50 Millionen Jahren rammte die indische Platte in die eurasische Platte. Es entstanden das Hochland von Tibet und die Gebirge Himalaja, Pamir und Karakorum, zusammen auch „Dach der Welt“ oder „dritter Pol“ genannt. Erdgeschichtlich betrachtet sind Berge, die bis an den Rand der Stratosphäre reichen, eine Anomalie. Die Auffaltung der Felsmassen hat eine außergewöhnliche klimatische Epoche eingeleitet, denn sie hat die Verwitterung silikatreicher Gesteine wie Granit erheblich verstärkt. Bei diesem Prozess wird Calcium freigesetzt. Das Calcium reagiert zu Calciumcarbonat (dem Hauptbestandteil von Kalkstein) und entzieht dabei der Atmosphäre CO2…“

Die Verknüpfung plattentektonischer Ereignisse mit einem vermeintlichen CO2-Klimaantrieb stellt einen konstruierten Mechanismus dar und ist ein Ausdruck des herrschenden Zeitgeistes. Die wissenschaftlich nachgewiesene konventionelle Position von Köppen und Wegener, dem „Vater“ der modernen Plattentektonik, für den natürlichen Paläo-Klimaantrieb durch die Schwankungen der Erdbahn um die Sonne blieb dagegen unerwähnt. In dem bahnbrechenden Werk von Wladimir Köppen und Alfred Wegener, „Die Klimate der geologischen Vorzeit“ (1924) mit den Berechnungen von Milutin Milanković, wird die sommerliche Sonneneinstrahlung in mittleren und höheren Breiten als der natürliche Paläo-Klimamotor unserer Erde identifiziert. Erst im Jahre 1976, also ein halbes Jahrhundert später, konnte dieser Zusammenhang schließlich von Hays, Imbrie und Shackleton nachgewiesen werden. Diese gesicherte geowissenschaftliche Erkenntnis findet allerdings keinen Eingang in den besagten Novo-Artikel, der sich argumentativ an klimaalarmistischen Einzelveröffentlichungen entlanghangelt.

Die Milanković-Zyklen der Erdumlaufbahn werden schließlich argumentativ bemüht, um den Beginn eines menschengemachten CO2-Klimawandels noch weiter bis zum Ende der letzten Eiszeit zurückzudatieren, Zitat aus dem Novo-Artikel mit Hervorhebungen:

Unser Wissen über die Milanković-Zyklen ermöglicht uns, Vorhersagen über die zukünftige Entwicklung des Klimas zu treffen. Nach dem aktuellen Zyklus hätte vor etwa 5000 Jahren das nächste Glazial beginnen müssen. Dass das nicht eingetreten ist, liegt an dem anderen Faktor, der neben der auftreffenden Sonnenenergie unser Klima maßgeblich beeinflusst: den Treibhausgasen. Genauer: am menschlichen Treibhausgasausstoß. Vor etwa 12.000 Jahren, im Neolithikum, begann ein globaler Übergang von Jäger- und Sammlerkulturen zu sesshaften Bauern. Um Flächen für die Landwirtschaft zu gewinnen, wurden im großen Stil Brandrodungen durchgeführt, was erhebliche Mengen an CO2 freisetzte. Hinzu kam Methan durch Viehhaltung und Reisanbau (Reisfelder sind im Wesentlichen künstliche Sümpfe). Mit der Industrialisierung im 19. Jahrhundert nahm die CO2-Konzentration durch die Verbrennung von Kohle und später Erdöl und Erdgas weiter zu

Korrekt dauert eine Zwischeneiszeit aber etwa 10.000-15.000 Jahre, sodass unsere gegenwärtige Warmzeit mit bisher etwa 12.000 Jahren Dauer noch voll im Zeitrahmen ihrer Vorgänger liegt. Selbst das IPCC geht übrigens davon aus, dass erst seit den 1950-er Jahren eine Klimawirksamkeit von anthropogen erzeugtem CO2 nachweisbar sei. Die Rückdatierung des menschlichen Einflusses auf das Ende der letzten Eiszeit ist also ein völlig unwissenschaftlicher Akt.

Dem Novo-Autor gebührt jedenfalls ein Lob für seine sachliche Auseinandersetzung mit den vorgeblichen Klimawandelfolgen. Man kann daher sicherlich davon ausgehen, dass er sich intensiv über die wissenschaftlichen Grundlagen seines Beitrags informiert hatte. Im Umkehrschluss muss man dann anhand der oben aufgezeigten Mängel den Schluss ziehen, dass die hier genannten geowissenschaftlichen Grundlagen der natürlichen Paläo-Klimagenese durch den fortwährenden CO2-Klimaalarmismus inzwischen völlig aus der aktuellen gesamtwissenschaftlichen Darstellung verdrängt worden sind.

Die gesamte klimawissenschaftliche Argumentation dieses Artikels baut also einseitig auf einem alarmistischen und grob überzeichneten CO2-Antrieb für die Genese unseres Paläoklimas auf, der so niemals existiert hat. Es ist offenbar dem klimawissenschaftlichen Zeitgeist geschuldet, alle bekannten geologischen und paläoklimatischen Mechanismen mit einem vermeintlichen CO2-Klimaantrieb zu verknüpfen. Das Aktualitätsprinzip der Geologie verlangt aber, dass sich alle vom Menschen postulierten Effekte über die gesamte Erdgeschichte hinweg nachweisen lassen, um als gültig anerkannt zu werden.
Und genau das ist beim vorgeblichen CO2-Klimaantrieb eben nicht der Fall.

Aber gerade wegen der hier aufgezeigten Mängel ist die Analyse des Novo-Autors herausragend, Zitat: „Es drängt sich die Frage auf, ob es bei dem ganzen Klimaschutz-Hype wirklich um Klimaschutz geht.“

Es wurde hier also völlig richtig erkannt, dass unterschiedlichste säkulare Zielsetzungen diverser gesellschaftlicher Gruppierungen in einem gemeinsamen vorgeschobenen Klimaschutz kumulieren. Es ist daher sehr schade, dass sich dieser sachliche und unaufgeregte Artikel dem Teufelskreis menschlicher Überheblichkeit am Ende doch nicht verschließen kann, sondern einem Geoengineering zur aktiven Klimagestaltung durch den Menschen das Wort redet. Denn beides, die Angst von einer menschengemachten Klimakatastrophe, wie auch menschliches Geoengineering zur Steuerung des Klimas, überhöhen den Einfluss des Menschen auf die Stufe der herrschenden Naturgewalten.

Und so werden gerade in der abschließenden Argumentation zum Geoengineering neue Widersprüche aufgerissen, Zitat aus dem Artikel: „…Durch Geoengineering können wir uns von den massiven Vergletscherungen und Schwankungen des Meeresspiegels befreien, die unseren Planeten seit jeher heimsuchen…“
Entscheidungsvorschläge, die allein auf zeitgeistbeeinflusstem Wissen aufgebaut sind, können nicht nur, sondern sie müssen am Ende sogar zwingend katastrophale Folgen haben. Vergletscherung und Meeresspiegel auf unserer Erde hängen nämlich ursächlich miteinander zusammen. Eine durch Geoengineering von ihrer gesamten Vergletscherung befreite Erde würde am Ende einen um etwa 66 Meter höheren Meeresspiegel aufweisen. Damit wäre dann zwar tatsächlich das Problem der langsam steigenden Küstenpegel gelöst, aber nach einer solchen „Rettungsaktion“ gäbe es dann diejenigen Küsten und Inseln gar nicht mehr, die wir damit ursprünglich einmal bewahren wollten.

Anmerkung: Ingenieurwissenschaftliche Eingriffe in komplexe Systeme sind generell nicht ganz unproblematisch, insbesondere dann nicht, wenn man ein solches System genau verstanden zu haben glaubt und dieser Glaube sich dann in der Realität nicht durchsetzen lässt:

Zitat aus Wikipedia mit Hervorhebungen und Ergänzungen: „Die Kritiker (einer Einführung der Aga-Kröte nach Australien) beruhigte der für die Einführung (der Aga-Kröte) verantwortliche Reginald Mungomery 1936, indem er darauf verwies: Die Ansiedlung in Queensland erfolgte nach einer sorgfältigen Abwägung der Pros und Contras und nachdem das Verhalten der Kröte bis heute keinen Anlass für die Befürchtung gibt, dass wir uns in unserem Urteil über sie getäuscht haben‘.“

Unsere Erde hat in ihrer geologischen Vergangenheit schon mehrfach Eiszeitalter durchlaufen. Über die Ursache für diese Eiszeiten gibt es bisher nur qualitative wissenschaftliche Aussagen. Das Geoengineering stellt uns jetzt aber Mechanismen zur Verfügung, mit denen wir möglicherweise am Klimathermostaten unserer Erde herumspielen können. Aber während man die Sonneneinstrahlung rechnerisch in Raum und Zeit genau quantifizieren kann, entzieht sich der vorgeblich „natürliche“ atmosphärische Treibhauseffekt jeder genauen räumlichen und zeitlichen Definition. Und selbst die hemisphärische Herleitung der globalen Temperaturgenese ohne diesen Treibhauseffekt kann keine quantifizierbare Formel liefern. Damit ist die natürliche Temperaturgenese auf unserer Erde also völlig ungeklärt und wir wissen nicht, wie die solare Heizung unserer Erde tatsächlich funktioniert. Vor diesem Hintergrund wird jedes globale Geoengineering zu einem verantwortungslosen Vabanque-Spiel…

Wesentliche geowissenschaftliche Zusammenhänge unseres Paläoklimas sind hier zusammengefasst.




Günter Ederer: Fakten statt Propaganda – zur Machtfrage durch Klimapropaganda (11.IKEK)

G. Ederer beschreibt seine Erfahrungen bezüglich des Umgangs von Politik und Medien mit kritischen Stimmen, welche gegen die Weltuntergangspropaganda vom gefährlichen menschengemachten Klimawandel vorgehen. Das Motiv für dieses stringente Ausgrenzen kritischer Stimmen ist – wie Ederer darlegt- das Ausüben von Macht. Und das weltweit!

Video des Vortrags von Günter Ederer, gehalten anlässlich der 11. IKEK in Düsseldorf am 10.11.17 im Nikko-Hotel

Macht die überdies überall und damit grenzenlos ist. An vielen Beispielen, wie dem FAZ Journalisten Müller-Jung, macht er diese Beobachtung fest. Ebenso legt er an div. Beispielen dar, welche Sogwirkung der versprochene Milliardensegen auf die Zustimmung der so Beschenkten hat. Wie auch schon zuvor von M. Limburg gezeigt, wird dieses Geld ausnahmslos an korrupte oder hoch korrupte Länder bzw. deren Regierungen verteilt.




Das Klimaziel 2020 musste aufgegeben werden!

Nun also ist die Stunde der Wahrheit gekommen, und man muss erklären, endlich, das Klimaziel 2020 muss aufgegeben werden. Na, das wird 2028, wenn 2030 vor der Tür steht, auch nicht anders sein.

Schon die Definition von „Zielen“ ist ein übler Spuk, eigentlich brauchen wir nicht Ziele, sondern Konzepte, die klar durchgerechnet und von Jahr zu Jahr kontrolliert werden können, aber dazu kann sich das politische System nicht durchringen, das wäre ja auch zu ehrlich. Von einer Regierung, die Verantwortung wirklich ernst nimmt, muss man verlangen, dass klar definiert wird, was will man erreichen, wie kommt man dahin, und was kostet das. Für das einfache Volk jedoch müssen nebulöse Wunschvorstellungen reichen, so eine Art moderner Fatah morgana. Und, brauchen wir überhaupt ein Klimaziel ? Dazu gibt es ganz aktuell auch eine Veröffentlichung (hier):.

Wo wir heute wirklich stehen, zeigt die nachfolgende Grafik:

 

Dieses Diagramm stammt aus dem „Masterplan Weserbergland“, ist also eine offizielle Statistik, und ich habe in dieses Diagramm nun die (jährlichen) Aufwendungen für die „Erneuerbaren“ eingetragen, es sind erhebliche Beträge mit zur Zeit ca. 28 Milliarden Euro pro Jahr.

Man vergleicht mit 1990, und damit lügt man sich schon mal ordentlich in die Tasche, hier hat der CO2-Ausstoß zwar tatsächlich abgenommen, aber das hat mit Klimaschutz nichts zu tun (ist kein Erfolg irgendeiner Energiepolitik), sondern es ist die Folge der Wiedervereinigung, verbunden mit der Abwicklung der total veralteten sozialistischen Wirtschaft in der DDR und den angrenzenden Ostblockländern (weiter östlich, in Russland, findet eine Modernisierung der Technik auch heute nahezu nicht statt). Dass man veraltete Technik durch modernere ersetzt ist vernünftig, das hätte man auch ohne einen Hinweis auf Klimaschutz gemacht, und ist im Westen schon in den 50-er Jahren geschehen.

Die Investition in die Erneuerbaren (über das EEG) beginnt in 2000. Einen kurzen Rückgang der CO2-Emissionen hat es zuletzt noch in 2009 gegeben, das war eine Folge der Finanzkrise, seitdem haben wir Jahr für Jahr weiter steigende Subventionen für die Erneuerbaren aufbringen müssen, jedoch ist noch nicht mal eine Tendenz erkennbar, dass sich das in Reduzierung von CO2 auswirkt oder jemals auswirken wird. Die Gründe dafür sind gut bekannt, denn da die Speichermedien fehlen, braucht jede EE-Einheit ein Backup-Kraftwerk gleicher Größe, um das Netz stabil aufrechtzuerhalten, und man gewinnt nichts. Im Netz muss der tatsächliche Bedarf an elektrischer Energie sekundengenau ausgeglichen werden, sonst gerät man in die Gefahr eines „Blackouts“, also eines Zusammenbruchs der Energieversorgung für Stunden oder Tage. Das heute über die technische Entwicklung von über 100 Jahren entstandene Netz ist sogar noch anspruchsvoller, auch die Frequenz hat nur eine zulässige Toleranz von ca. 0,1 Hz, für die Versorgung einer solchen Technik ist die durch Wind und Wetter stark schwankende Leistung der Erneuerbaren natürlich nicht geeignet. Man kann die Charakteristik der Erneuerbaren in einem einfachen Dreisatz darstellen:

1.) Nachts ist es dunkel. Das kann man politisch nicht ändern.

2.) Der Wind weht, wenn er will, und nicht, wenn er soll.

3.) Die Speicher fehlen, sie sind technisch und ökonomisch nicht darstellbar.

Das sagt eigentlich alles, man kann die Erneuerbaren einpacken. Das geschieht übrigens auch, klamm-heimlich natürlich, denn niemand möchte eingestehen, dass man in gigantischer Weise Fehler gemacht hat, Beispiele dazu später.

Aus dem oben dargestellten Diagramm ist ersichtlich, dass mit den Erneuerbaren für den Klimaschutz eigentlich nichts erreicht werden kann. Dazu muss man dann drei Forderungen aufstellen:

1.) Wir müssen den Bürgern die Wahrheit sagen. Die Erneuerbaren, so, wie wir sie heute haben, sind für den Klimaschutz nutzlos.

2.) Ein weiter so darf es nicht geben. Zumindest muss die Subventionierung dieser offensichtlich nutzlosen Technik beendet werden.

3.) Die Politiker, die diesen Schaden zu verantworten haben (es ist ein Schaden in finanzieller Hinsicht, in Umweltzerstörung und Ressourcenverschwendung) müssen zur Verantwortung gezogen werden.

Die naturwissenschaftlichen und technologischen Gegebenheiten sind so, dass zu erkennen ist, dass sich an dieser Situation in absehbarer Zeit nichts ändert. Wenn wir also für den Klimaschutz nichts erreichen, stellt sich doch die Frage, kann man die Erneuerbaren denn wenigstens auch sonst noch irgendwie brauchbar einsetzen.

Abgesehen von der Volatilität, die nicht beherrschbar ist, kommt ein weiterer Nachteil hinzu, die erneuerbare Energie kommt zunächst kostenlos auf uns zu (der Wind weht und die Sonne scheint, ohne dass wir dafür etwas bezahlen müssen), aber diese Energie ist „dünn“, das heißt, sie ist über eine große Fläche verteilt, der Flächenbedarf ist riesig, und wenn man diese „dünne“ Energie einsammeln will, muss man große Flächen mit Technik zubauen, man muss diese Flächen der Natur entziehen und in eine Industrielandschaft verwandeln, das ist vom Umweltschutz her gesehen natürlich extrem nachteilig.

Ein einfaches Nachrechnen mit dem Taschenrechner zeigt, dass der gesamte Bedarf an Primärenergie (der Bedarf ist rund fünf mal so groß wie der elektrische allein) für Deutschland, selbst wenn man alle Wälder, Natur- und Landschaftsschutzgebiete auch noch einsetzt, nicht gedeckt werden kann, es bleibt eine erhebliche Lücke. Die Ideologen, die die Propaganda der Energiewende betreiben, haben dazu noch andere Vorstellungen entwickelt, man müsste den Energiebedarf eben deutlich reduzieren, durch Steigerung von Effizienz und Suffizienz. Die Steigerung der Effizienz, also das Bemühen mit weniger Energie-Aufwand dasselbe Ziel zu erreichen, ist praktisch zum Stillstand gekommen, die Potentiale sind hier längst ausgeschöpft, da sind nur noch Reste von wenigen Prozent erreichbar. Der oben erwähnte „Masterplan Weserbergland“ fordert eine Reduzierung des Verbrauchs um 50 Prozent (sonst kann man die Welt nicht retten).

Dann bleibt Suffizienz, was wird hinter diesem Fremdwort versteckt ? Nun, es ist die Vorstellung, unser Lebenswandel ist sündig, wir verbrauchen eigentlich mehr als uns zusteht, es wird also eine beträchtliche Einschränkung an Verbrauch und damit auch eine Minderung des Lebensstandards gefordert. Wir führen also die Technik des Mittelalters ein (also die Windmühlen), und dazu passend reduzieren wir auch den Lebensstandard auf die Zeit vor Erfindung der Dampfmaschine Diese Vorstellungen gibt es tatsächlich (z.B. „klimaneutrales Berlin“.), in der praktischen Konsequenz das durchzusetzen, das laut zu sagen wagt dann doch niemand.

Wenn also klar ist, dass die „Energiewende“, also der Ersatz des gesamten Energieverbrauchs durch Erneuerbare weit jenseits jeder Realität liegt, kann man nicht wenigstens Teile des Energieverbrauchs (oder wenigstens des elektrischen Verbrauchs) durch Erneuerbare gestalten ?

Voraussetzung für die praktische Verwendung der Erneuerbaren ist die Bereitstellung der Speichereinheiten, denn dann könnte man den volatilen Strom soweit glätten, dass er nach dem jeweiligen Bedarf in Netz eingespeist werden kann, und soweit das gelingt kann man dann auch die Bereitschaft (und den zugehörigen Leerbetrieb) der konventionellen Anlagen einschränken, und dann ergäbe sich zum ersten Mal tatsächlich so etwas wie Klimaschutz, also eine tatsächliche Reduzierung von CO2-Ausstoß.

 

Was brauchen wir denn nun tatsächlich ? Das hängt von der Energiequelle ab, wir gehen die Beispiele mal durch.

  1. A) Wasserkraft.

Hier brauchen wir kaum Speichereinheiten, der Speicher ist der Obersee mit seinem Energievorrat, der ist natürlich vorhanden, abgesehen in einem strengen Winter, wenn Vereisung den Betrieb beschränkt, was aber kaum vorkommt. Aber, Wasserkraft ist nicht weiter ausbaubar und hat nur einen sehr kleinen Anteil (ca. 1 Prozent) am Energieaufkommen.

  1. B) Erdwärme, Geothermie

In bescheidenem Maß für die Beheizung von Wohnraum einsetzbar, der Investitionsbedarf ist sehr hoch, in städtischen Bereichen ist das nicht realisierbar. Es gibt eine kleine Versuchsanlage in der Größenordnung von etwa 70 kW. Größere Versuche scheiterten, weil es dann zu seismischen Erscheinungen kam und die Sicherheit von Gebäuden gefährdet war. Für die elektrische Verwendung eigentlich unbrauchbar, da die Temperaturdifferenz sehr klein ist und der thermische Wirkungsgrad (Carnot) dann sehr bescheiden ist.

  1. C) Bio-Energie, Biogas usw.

Der Vorteil: Bio-Energie ist grundlastfähig, man braucht keine Speicher. Die Nachteile aber sind gewaltig. Am Anfang der Bio-Energie steht die Photo-Synthese, und die hat einen Wirkungsgrad von nur 0,7 Prozent, damit hat man wieder einen riesigen Flächenbedarf. Wie er hier wirklich aussieht, sagt die bekannte Leopoldina-Studie, ich zitiere wörtlich: „Der Input an fossiler Energie in Landwirtschaft und Verarbeitung von Biomasse zu Biobrennstoffen übersteigt häufig den Bioenergie-Output.“ Was „häufig“ an Zahlenwerten wirklich bedeutet, das herauszufinden ist mir bisher nicht gelungen, es gibt aber Studien, die zeigen, dass man für einen Liter Bio-Diesel gut 2 Liter fossilen Diesel braucht, also ein wirtschaftlich unsinniges Verfahren. Damit hängt es auch zusammen, dass Bio-Energie massiv subventioniert wird und sich nur so halten kann. Ein weiterer gravierender Gesichtspunkt ist auch, dass die Bio-Energie in direkter Konkurrenz zur Nahrungsmittelerzeugung steht, und da Deutschland ein Netto-Importeur an Nahrungsmitteln ist bedeutet jeder Quadratmeter Boden, der hoch-subventioniert für die Bio-Energie zur Verfügung gestellt wird, in Wahrheit Export von Hunger in die Welt.

In bescheidenen Grenzen kann man an die Verwertung von Abfällen denken, das geschieht auch (z.B. Müll-Verbrennung). Aber, in einer biologisch geführten Landwirtschaft gibt es gar keine Abfälle. Abfälle kann man aus der Massen-Tierhaltung verwenden, die aber natürlich auch unter ethischer Kritik steht, da allein für die Futterversorgung der Tiere Nahrungsmittel aus der dritten Welt importiert werden, die dort für die Versorgung von Menschen fehlen. Kleinere Mengen von biologischen Abfällen werden gesammelt und verwertet, in ländlichen Gegenden lohnt sich das aber auch nicht, die „Bio-Tonne“ gibt es dort nicht, weil allein das Einsammeln mehr Energie verbraucht als man am Ende gewinnt.

 

Fazit also: Bio-Energie ist also, abgesehen von geringen Beständen an Abfallverwertung, für die Energieversorgung insgesamt ungeeignet.

 

  1. D) Photovoltaik, PV

Die Sonne soll es bringen, das klingt doch so schön. Aber, wie oben schon erwähnt, nachts ist es dunkel. Also brauchen wir hier die Speicher, sonst geht gar nichts. Dass es nachts dunkel ist, ist noch das kleinere Problem, denn dann bräuchte man ja nur einen Speicher für einige Stunden. Von daher könnte PV eine gewisse Möglichkeit für Länder in der Nähe des Äquators sein. Für die europäischen Länder aber stellt sich die Problematik der Jahreszeiten, denn gerade in der Winterzeit, wenn der Energiebedarf im größten ist, liefert PV wenig oder fast nichts. Das bedeutet konkret, man braucht einen Speicher, der die im Sommer eingesammelte Energie aufnimmt und für den Winter bereit stellt. Das ist nicht zu realisieren, und damit ist die Photovoltaik für unsere Breitengrade für die Energieversorgung nicht geeignet.

 

Nun könnte man denken, es wäre doch immerhin noch nützlich, wenn man die Nachtstunden durch Speicher überwindet und dann wenigstens in den Sommermonaten eine brauchbare Energietechnik hat. Das ist aber zu kurz gedacht, denn die konventionellen Anlagen muss man wenigstens für die Winterzeit vorhalten, und was macht man dann im Sommer, dann stellt sich die soziale Frage, schickt man die Arbeiter nach Hause und bezahlt dann „Sonnengeld“? Das wäre volkswirtschaftlich unsinnig, und auch die kleine PV-Hausanlage müsste man stark besteuern, weil diese ja die übrige Versorgung in ungünstige Betriebsbereiche treibt (diese ist also in Wahrheit sozial-schädlich).

 

Fazit: die notwendigen Speichereinheiten sind nicht realisierbar. PV-Anlagen auf Feldern müssten abgebaut werden, und die Felder werden der Natur (und der Versorgung mit Nahrungsmitteln) wieder zurückgegeben. PV-Anlagen auf Dächern können bleiben, die stören ja zunächst einmal nicht (sieht ja auch ganz hübsch aus) , aber man muss doch kontrollieren, dass sozial-schädlicher Betrieb unterbleibt oder wenigstens durch Besteuerung ausgeglichen wird.

 

  1. E) Windenergie

Hier hat man nun gleich beide Probleme, der Flächenbedarf ist riesig, also man muss weite Flächen der Natur entnehmen und in Industrielandschaften umwandeln, und dann kommt die Volatilität hinzu, die Versorgung ist unzuverlässig und schwankt unplanbar zwischen Höchstwerten und Werten bei null. Letzteres ist der Grund, warum man diese Technik, die ja so preiswert ist, Wind kostet ja nichts, in der Vergangenheit aufgegeben hat. Unsere Windmühlen wurden etwa 1860 auf Dampf umgestellt, man bezahlt lieber Kohle und hat eine stete und planbare Versorgung. Die letzten Segelschiffe für den Frachtverkehr wurden um 1930 aufgegeben, auch da war dann das Faktum, der Wind ist zwar umsonst, aber so unzuverlässig, dass er mit den Dampfern nicht mithalten konnte. Wie heißt es im „Fliegenden Holländer“ so schön: „Wer auf den Wind baut, baut auf des Satans Erbarmen“. Das ist eine alte Menschheitserfahrung.

Energiewende (also nicht nur elektrischer Strom ) ist also schon vom Flächenbedarf her nicht zu realisieren. Frage also, geht es denn wenigstens mit der Stromwende, oder einen beträchtlichen Anteil davon ?

Für eine zuverlässige Versorgung stellt sich sofort die Frage der Speicherung. Alle Versuche dazu sind bisher krachend fehlgeschlagen (dazu weiter unten mehr), es gibt einfach kein tragfähiges und einigermaßen durchgerechnetes Konzept. Da man hier kein Konzept hat und sich das auch nicht eingestehen will, stürzt man sich in Aktionismus und plant und baut die Leitungssysteme, die man zwar auch braucht, die aber ohne Speicherung keinen Sinn machen, was nützt eine Leitung, durch die tagelang kein Strom fließt ?

Welche Speicher braucht man denn wirklich ? Ausführlich beschäftigt sich damit Prof. Sinn in seinen Vorträgen, jetzt ganz neu: (https://www.youtube.com/watch?v=xzXAZad3TcE) Allein um den jetzt schon vorhandenen Ausbau an Wind (und Sonne) mit Speichern zu versorgen kommt man nach seinen Berechnungen auf eine Anforderung von 3000 bis 6000 Pumpspeicherwerken, Deutschland hat 35 davon, dabei auch kleinere, die an diese Anforderungen nicht herankommen, das ist also vollkommen illusorisch.

Die andere Möglichkeit ist noch die Speicherung über chemische Energie, also Akkumulatoren. Da hat Enercon etwas vorgestellt, wörtlich: „Es ist der bislang größte Batteriespeicher in Deutschland“, das Pilotprojekt RRKW bei Feldheim (Windblatt 03-2015). Von der äußeren Größe wohl beeindruckend, etwa ein halbes Fußballfeld, und was es kostet, wird nicht verraten. Allerdings für die Stromwende bräuchte man dann 2 Millionen Stück davon, für die Energiewende dann doch 10 Millionen Stück, also für je 8 Bundesbürger eines, und die müssten das bezahlen, warten und in Betrieb halten. Da wird dann sofort klar, das ist weit jenseits jeder Realität.

Weitere Beispiele irrsinniger Ideen will ich hier ersparen.

 

Die gegenwärtige Realität.

Man hat wohl unter der Hand eingesehen, dass es praktische Möglichkeiten für eine Speicherung nicht gibt, jedenfalls wird dazu konkret nichts angefangen. Daher müssen nun die konventionellen Anlagen einspringen und die fehlenden Speicherungen ersetzen, und für eine solche Betriebsweise sind diese aber nicht konzipiert. Kohlekraftwerke und Kernkraftwerke laufen in der Grundlast, ein Kohlekraftwerk braucht zum Anheizen 8 Stunden oder mehr (Kernkraftwerke sind spürbar schneller, aber die will man ja vernichten), und es muss ständig in Betrieb gehalten werden, da es ja den Totalausfall der Erneuerbaren (die sog. „Dunkelflaute“) sofort ausgleichen können muss. Das Kohlekraftwerk ist so konzipiert, dass es rund um die Uhr im Dauerbetrieb läuft, nur dann hat es den besten Wirkungsgrad. Wenn man nun herunterregeln soll (weil gerade Wind kommt, der gesetzlich „Vorrangeinspeisung“ hat, ohne diesen Zwang würde das niemand abnehmen), dann gerät die Anlage in ungünstige Betriebszustände (und erhöhten Reparaturbedarf) und verbraucht ungünstig viel Kraftstoff. Wenn das schnell gehen soll, dann hilft man sich anders, man verschiebt die Phase (um 180 Grad) und packt die überschüssige Energie, die man anders nicht los wird, in die Überlandleitungen, die allerdings auch nur bis zu etwa 80 Grad Celsius aufgeheizt werden dürfen. Also, um die Erde zu kühlen heizen wir kräftig die Leitungen. Wenn das auch nicht reicht, dann geht das in den „Export“ (man nennt das „Export“), allerdings, der ist ziemlich teuer, für die Nachbarländer ist unser „grüner“ Strom eigentlich nur Sondermüll, der stört dort die Netze, und das lässt man sich bezahlen (sog. „negative Preise“), und auch das geht in die EEG-Umlage Auf einen Export-Überschuss, den man teuer bezahlen muss, sollte man eigentlich besser verzichten, aber die Volatilität der Erneuerbaren, die man sonst nicht beherrschen kann, erzwingt dies. Die Folgen dieser Konzeption haben wir oben im Diagramm gesehen, der CO2-Ausstoß geht nicht zurück, und es ist auch nicht erkennbar, wie das anders werden wird. Man bezahlt also zwei Systeme, die konventionellen Anlagen kommen sogar in ökonomische Schwierigkeiten, da sie bei halber Last oder weniger dann nicht mehr genug verdienen, um ihre Arbeiter zu bezahlen. Das einzige, was wirklich gut läuft, sind die Profite der Anlagenbetreiber, nur das allein ist dem System wichtig, eine extrem unsoziale Umverteilung von unten nach oben.

 

Wie geht es nun weiter ?

Man macht unverdrossen weiter, obwohl alle Voraussetzungen für eine solide Entwicklung fehlen, die Propaganda läuft und verkündet stolz neue Erfolgszahlen und gaukelt Klimaschutz vor, aber das sind Schein-Erfolge, eben nur Durchschnittswerte an elektrischer Leistung, die die Taschen der Anlagenbetreiber füllen. Zu einem brauchbaren System kommt man nicht, denn die Konventionellen müssen trotzdem in voller Kapazität in Bereitschaft gehalten werden, man kommt vermehrt in Phasen, in denen zu viel produziert wird (und zu anderen Zeiten nichts, nach wie vor), und das ist auch nur schädlich, da man den dann notwendigen Export zusätzlich bezahlen muss, oder, wenn das nicht geht, müssen erneuerbare Anlagen zurückgeregelt werden, aber dafür, dass sie weniger liefern, bekommen sie trotzdem noch den vollen Preis, und es wird nur zusätzlich teurer, und das alles ohne einen wirklichen Nutzen. Das ist die Situation, solange das EEG, wenn auch leicht „gedeckelt“ in Kraft bleibt, was am Ende eine rein politische Frage ist. In der Politik wird von einigen Seiten versprochen, dass „die Kohle“ nun zurückgefahren werden soll, selbst Ausstiegstermine werden phantasiert, aber wie das konkret gehen soll, das weiß kein Mensch. Wenn praktische Konzepte fehlen, dann müssen eben Sprüche reichen. Dann gibt es auch Vorgänge, dass man mit Gewalttätigkeiten gegen Anlagen des Bergbaus vorgeht, aber damit kann man natürlich nicht naturwissenschaftliche Gegebenheiten und technologische Zwänge aufheben, eine Mischung von Brutalisierung und Hilflosigkeit zugleich.

Für die ältesten Anlagen ist die Stunde der Wahrheit schon gekommen, Panorama 3 berichtete darüber in einer aktuellen Sendung

https://www.ndr.de/nachrichten/schleswig-holstein/Rueckbau-bei-Windraedern-oft-mangelhaft,windkraft920.html

Schon der Abbau der Fundamente bringt erhebliche Probleme, und man versucht, die gesetzlichen Vorschriften zu umgehen. Und warum wird denn da abgebaut ? Im Nebensatz kommt verschämt die Erläuterung, wörtlich: „sei es dass die Nutzungszeit der Anlagen abgelaufen ist und damit dann der Rückbau fällig wird“ . Mit „Nutzungszeit“ ist hier offensichtlich die Zeit der Subventionierung gemeint, und es wird deutlich, ohne Subventionierung geht bei den Erneuerbaren nichts. In einem Zeitraum von sage und schreibe 20 Jahren wurden in diese Anlagen erhebliche Mittel gesteckt, geliefert wurde ein weitgehend wertloses Produkt, eben „Flatterstrom“, den man im Netz eigentlich nicht gebrauchen kann, und in der Propaganda wurde uns immer erzählt, das sei ja eine „Anschubfinanzierung“, mit der die Marktreife erreicht werden soll. Diese Marktreife ist offensichtlich nicht erreicht worden, denn ohne „Vorrangeinspeisung“ ist niemand bereit, dieses Produkt abzunehmen, im Gegenteil, beim Abschub in das Ausland gibt es „negative Preise“, und damit kann man allein den Erhalt der Anlagen nicht bezahlen.

Aus alledem ist festzuhalten: die Anlagen an Erneuerbaren, die wir heute noch bauen, sind für den Klimaschutz nutzlos (da die Speichereinheiten fehlen und weiter fehlen werden), sie sollen für 20 Jahre erhebliche Subventionen erhalten, und nach dieser „Nutzungszeit“ müssen sie abgebaut werden, da die Marktreife nicht erreicht werden kann. Einzige Schlussfolgerung: dieser Irrsinn ist umgehend zu beenden (also EEG abschaffen), ohne Subventionierung wird niemand solche Anlagen bauen, das hat sich dann von allein erledigt, und Natur und Umwelt können aufatmen. Mit den dann eingesparten Beträgen, ca. 30 Milliarden pro Jahr, könnte man an die wirklich dringenden Aufgaben herangehen, also z.B. Sanierung der Schulgebäude oder der übrigen Infrastruktur.

Einen sehr lesenswerten Beitrag zu dieser Problematik gibt es auch hier:

https://docs.google.com/viewerng/viewer?url=http://www.vernunftkraft.de/de/wp-content/uploads/2017/12/171225-Kompendium.pdf&hl=de

 

Die Flops

Es ist immer dasselbe, von Zeit zu Zeit wird eine neue Sau durchs Dorf getrieben, also ein neues, vielversprechendes Projekt wird angekündigt. Da gibt es eine feierliche Eröffnung, mit Reden des Ministerpräsidenten, die schöne und heile Welt der erneuerbaren Energie wird verkündet. Bald danach stellt man fest, die Sache läuft total aus dem Ruder, zumindest finanziell, keiner möchte lange mehr zuzahlen für eine Sache, die doch nichts wird, also, es wird dann doch wieder alles abgebaut, das dann ohne feierliche Reden, klammheimlich eben. Und um das zu vertuschen erklärt man uns, man hätte ja ernsthaft so etwas wie Energiewende gar nicht vorgehabt, man hat nur soeben mal ein bisschen rumexperimentiert, ohne konkretes Ziel, das muss man sich schon mal ein paar Milliönchen kosten lassen.

Die Liste dieser Flops will ich in einem späteren Beitrag zusammenstellen.

 




Nach dem Diesel jetzt auch Benziner unter Beschuss

Die nächsten Fahrverbote drohen! Nicht mehr nur für den Diesel, jetzt sollen auch noch die Benziner dran glauben. Zwar nur solche mit sogenannter Direkteinspritzung, aber das haben mittlerweile fast alle Motoren. Die stoßen auch Abgase aus, die lebensgefährlich sein sollen. Deshalb: Stop! Fordert, na, wer schon? Am lautesten die Vertreter der Deutschen Umwelthilfe (DUH).

Die EU hat 2007 auch neue Abgasnormen für Benzinmotoren beschlossen. Sie tritt ab September dieses Jahres, 2018 in Kraft. Im Prinzip gelten dann für Diesel- und Benzinmotoren dieselben Werte für Partikel. Benzinmotoren durften noch das Zehnfache eines Dieselmotors aus dem Auspuff stoßen, jetzt nur noch 6 x 1011 Partikel pro Kilometer. Das sind sehr wenig Teilchen; so werden sowohl aus Diesel- als auch aus Benzinmotoren praktische keine Partikel mehr herauskommen. Solche Werte erreichen Benziner mit Direkteinspritzung in der Regel nicht.

Hintergrund: Auch in einem Benzinmotor findet eine Verbrennung statt. Auch dabei entstehen Abgase. Die Motorenbauer haben auch wie beim Diesel versucht, die Ausbeute zu erhöhen, also mehr Leistung aus dem Kraftstoff zu holen, um damit die Abgase zu reduzieren. Vorrangiges Ziel bei der Entwicklung von Motoren ist die Vermeidung von CO2, das in jenem menschengemachten Märchen von der menschengemachten Klimakatastrophe zum Schadstoff Nummer 1 erklärt wurde. Das hat zur Folge, dass andere Gefahrenstoffe erhöht werden.

Der Kraftstoff muss mit Luft in einem bestimmten Verhältnis vermischt werden. Nur dann zündet das Gemisch. Um noch sparsamer mit dem Kraftstoff umzugehen, also weniger CO2 auszustoßen, entwickelten die Konstrukteure eine Einspritzpumpe. Die bläst ein paar Tröpfchen Kraftstoff in den Brennraum; eine Zündkerze entzündet dann das Kraftstoff-Luft-Gemisch. Das funktioniert allerdings nur gut bei einem bestimmten Anteil von Kraftstoff und Luft. Zudem sitzt hinter dem Motor seit langem ein Katalysator, der die Abgase reinigt. Der aber arbeitet nur bei einem exakten Kraftstoff-Luft-Mischungsverhältnis (Lambda 1), sonst wird er zerstört.
Allerdings bleibt diesem Gemisch nicht immer genügend Zeit, damit alle Benzintröpfchen verbrennen. Die fliegen dann als Rußpartikel durch die Auspuffanlage ins Freie. Gerade bei höheren Drehzahlen werden auch mehr Rußpartikel ausgeblasen.Sie sollen sich in den Atemwegen festsetzen können. Eigene Untersuchungen, wie hoch die Belastung durch Partikel bei Benzinern in den Städten ist, gibt es bisher nicht oder sie sind nicht bekannt.

Diese winzigen Partikel kann man nur noch mit einem Partikelfilter auffangen, der ebenso wie der Katalysator im Abgasstrang sitzt. Anders als beim Dieselmotor gibt es hier nicht solch erhebliche Probleme, den Filter zu reinigen oder „regenerieren“.

Beim Dieselmotor wird in bestimmten Abständen die Temperatur im Partikelfilter erhöht, dabei verbrennen die eingesammelten Rußpartikel, der Filter wird wieder einigermaßen frei. Kurzstrecken sind allerdings Gift. Der Dieselfahrer muss also immer wieder auf die Autobahn, damit der Partikelfilter freigeblasen wird.

Solche Probleme hat der Partikelfilter für den Ottomotor nicht. Hier kommen die Abgase mit hohen Temperaturen aus dem Motor, der Filter soll sich selbst reinigen.

Bisher ist nur Mercedes auf die Bühne getreten und bietet seine S-Klasse serienmäßig mit Partikelfilter an. Hier spielen sowohl die Kosten als auch der Platz für den Einbau keine große Rolle. Erfahrungen bei anderen, vor allem kleineren Fahrzeugen liegen nicht vor. Zu erwarten ist aber, dass es auch wie beim Dieselmotor zu erheblichen technischen Problemen mit den entsprechenden Kosten führt.

Die Fahrzeughersteller rüsten ihre Fahrzeuge mit Partikelfiltern aus. Die Hersteller der Filter allerdings kommen mit ihrer Lieferung in der gewünschten Qualität nicht nach. BMW hat gerade die Auslieferung des M550i gestoppt, weil Motor und Filter zusammen nicht funktionieren. Doch erhebliche Zweifel tauchten schon in der heftigen Auseinandersetzung um die Dieselabgase auf, welchen Anteile sie am Feinstaub haben.

Nur ein geringer Teil der Feinstaubbelastung in den Städten stammt aus dem Verkehr, sagt jedenfalls das Umweltbundesamt in seinen Daten. In den Texterklärungen klingt das wesentlich dramatischer. Dieser sinkt ebenso wie die Stickoxide in den Städten erheblich, wie die Daten des Umweltbundesamtes zeigen. Sie belegen, dass der Verkehr nur zu einem geringen Teil am Feinstaubaufkommen beteiligt ist.

Prof. Matthias Klingner, Leiter des Fraunhofer-Instituts für Verkehrs- und Infrastruktursysteme (IVI) in Dresden, hat erhebliche Zweifel, woher der Feinstaub tatsächlich kommt. Er hat in seinem Institut jahrelang große Datenmengen von Messungen ausgewertet und festgestellt, dass es viele andere Einflussfaktoren wie zum Beispiel die Wetterlage gibt.

So kosten Wertvernichtung der Autos und Fahrverbote nur viel Geld, ohne dass sie viel nutzen. Es muss also dringend über andere Grenzwerte diskutiert werden, fordert Klingner. Klar ist, je weniger Feinstaub, desto besser. Die Frage ist jedoch, in welchem Verhältnis stehen Aufwand und Ertrag. Ist jene gigantische Wertvernichtung angebracht, die gerade stattfindet? Autos werden wertlos, weil vor allem Grüne, die sich derzeit in vielen Rathäusern eingerichtet haben, Verbotszonen ausweisen. Für Anwohner und Lieferanten eine unverträgliche Situation wie zum Beispiel in Hannover.

Ganze Stadtbereiche zu sperren, ergäbe unschöne Bilder, daher wenden die Verwaltungen Salamitaktik an: einzelne Teilbereiche zu sperren. In Stuttgart versuchen die Stadtverwaltung beispielsweise, Halteverbotszonen rund um U-Bahnhaltestellen einzurichten, damit Autofahrer nicht mehr mit dem Auto zur U-Bahn fahren, und dann weiter mit ihr in die Innenstadt. Klar, dass dafür auch Personal abgestellt wird, das entsprechend zu kontrollieren.

Wir sehen: Das Geschäftsmodell „Ausplünderung“ ist ergiebig. Jener dubiose Abmahnverein „Deutsche Umwelthilfe“ wird jetzt auch noch ausgerechnet von jenem zweifelhaften Verein unterstützt, der es mit seinen Manipulationen vor ein paar Jahren so übertrieben hatte, dass dieser hinten runterfiel. Der ADAC hatte bei seiner Wahl zum Autopreis „Gelber Engel“ kurzerhand die Stimmzettel der Leser manipuliert. Das ging über viele Jahre hinweg. Der Verein, der sich noch immer nicht von seinen Betrügereien erholt hat, will jetzt auch ein Wörtchen in Sachen „Auto und Umwelt“ mitmischen; noch reinere als reine Autos fordern, sprich am Auto-Bashing-Hype mit zu verdienen.

Mitverdienen wollen übrigens auch jene beiden Staatskabarettisten, die in der ZDF Sendung „Neues aus der“Anstalt“ so scheinbar kritisch grüne Propaganda verbreiten. Die angeblich so kritischen Staatslacherzeuger beweihräuchern den Chef der Umwelthilfe mit Sprüchen wie „Leute, die mit Engagement und Herzblut zur Sache gehen“. Die Anstalts-Propagandisten rufen die Bürger direkt auf: „Mit ein paar Euro ist man dabei.“ Geld her für die Umwelthilfe – wir vertreten Ihre Interessen.

Ob die Millionen von Autofahrern, die gerade fassungslos eine ungeheure Wertvernichtung ihrer Autos erleben müssen, dies auch so sehen, dürfte ziemlich zweifelhaft sein.

Der Beitrag erschien zuerst bei Tichys Einblick hier




Total verstrahlt: Die ARD und ihre Atom-Berichterstattung

Döschner ist ein Journalist jener Schule, die sich, frei nach Hanns-Joachim Friedrichs, mit jenen Sachen gemein macht, die sie für gut befunden hat. Er wurde sozialisiert in einer Zeit, als man zwischen Gut und Böse noch klar unterscheiden konnte.

Gut waren die kritischen und widerständigen Grünen, die aus Minderheitenpositionen und Graswurzelbewegungen heraus das Establishment der Kohl- und Flick-Ära herausforderten und der geistig-moralischen Wende die „Energiewende“ entgegensetzten – damals noch ein neues Wort. Gut war eine Berichterstattung, welche der Großindustrie investigativ zu Leibe rückte. Überflüssig zu sagen, was damals als schlecht galt: Waldsterben war schlecht. Bleibenzin war schlecht. Atomkraftwerke waren schlecht. Heute ist das Mainstream quer durch die Parteien. Das Benzin ist entbleit, der Wald gerettet und die Kernkraftwerke zur Strecke gebracht. Der deutsche Politiker von Grün bis CSU schaltet vor jede Aussage über die Kernenergie eine Verwerflichkeits-Präambel.

Doch die süße Zeit, als man noch ein einsamer Kämpfer für’s Gute war, gegen die Übermacht der Bösen mit den fetten Kassen, die hat den Herrn Döschner süchtig gemacht. Und daher hängt er an seiner Anti-Atom-Berichterstattung wie der Quartalssäufer am vierteljährlichen Alkohol-Exzess. Mangels deutscher Atomanlagen, die entweder abgeschaltet sind oder unspektakulär und störfallfrei ihren befristeten Dienst tun, hat sich Döschner eine neue Hassliebe gesucht, der er beständig hinterherstalkt: Die Kernenergie in Belgien. Er kann sich als Verdienst anrechnen, wesentlich zur behördlichen Anschaffung von Jodtabletten-Vorräten im Raum Aachen beigetragen zu haben. Denn in den Schlagzeilen des Herrn Döschner, die den öffentlichen Raum Nordrhein-Westfalens beschallen, muss das Wort „Super-GAU“ mindestens einmal vorkommen, und am liebsten fragt er gleich: „Wann knallt’s?“

Lange Zeit hatte Döschner es mit den „maroden“ Reaktordruckbehältern von Tihange-2  und Doel-3, die er zu „Bröckelreaktoren“ deklarierte. Bereits mit dieser Wortwahl signalisierte er, dass er von kerntechnischen oder materialwissenschaftlichen Zusammenhängen keine genaueren Vorstellungen hat. Wer wissen will, was es mit diesen Problemen rund um Wasserstoff-Flocken, Sprödbruch-Kennlinien und vorgeheiztes Notkühlwasser wirklich auf sich hat, kann sich hier informieren.

Hilfe, es ist stiller geworden um die Belgien-AKWs!

Nun ist es stiller geworden um Tihange-2 und Doel-3, denn die belgischen Behörden halten das Thema nach umfänglichen Prüfverfahren für umfänglich diskutiert, entschieden und abgeschlossen. Für den Quartalsbeitrag Jürgen Döschners zur deutschen Atom-Angstkultur taugen sie also derzeit nicht. Daher kam ein kürzliches Schreiben der belgischen Aufsichtsbehörde FANC wie gerufen, das dem WDR zugespielt wurde. In ihm geht es um die Anlage Tihange-1, wie ihre Nachbarblöcke ein Druckwasserreaktor französischen Typs. In dem Schreiben wurde dargelegt, dass es in dieser Anlage binnen zwei Jahren zu einer Häufung von sogenannten „precursor“-Ereignissen gekommen sei.

Precursor-Ereignisse (precursor events, precursor incidents) sind Störungen oder Störfälle in einem Kernkraftwerk, welche im Zusammenspiel mit etlichen anderen Folgeereignissen zu schweren Brennelementschäden führen könnten. Precursor-Analysen wiederum sind ein Spezialfall probabilistischer Sicherheitsanalysen, d.h. auf Wahrscheinlichkeitsberechnungen beruhender Einschätzungen, mit denen man Schwachstellen komplexer, eng gekoppelter technischer Systeme ausfindig machen kann. Wenn beispielsweise bei einer Wiederkehrenden Prüfung EINE KOMPONENTE EINES Sicherheitssystem, etwa eine Notkühlpumpe oder ein Druckspeicher, sich als nicht verfügbar erweist. sich als nicht verfügbar erweist, wird, ausgehend von diesem konkreten Ereignis, unter Einbeziehung möglichen Versagens anderer Systeme, die man für die Gewährleistung der Unterkritikalität des Reaktors und die sichere Nachzerfallswärme-Abfuhr benötigt, eine Wahrscheinlichkeit für eine Kerngefährdung errechnet. Nur wenn diese größer oder gleich 10 hoch -6 beträgt (d.h. die Wahrscheinlichkeit einer Kerngefährdung bei eins zu einer Million liegt), spricht man von einem precursor, einem Vorläufer-Ereignis.

Stellt man eine Langzeitanalyse an – beobachtet man also die Meldung von Vorläufer-Ereignissen über einen längeren Zeitraum hinweg –, dann können Häufungen von precursors in ein und derselben Anlage tatsächlich einen Hinweis auf ihr Sicherheitsniveau geben. Das ist gleichwohl noch keine Aussage über einen konkreten gegenwärtigen, gar gefährlichen Anlagenzustand. Um die genannte generalisierende Aussage zu machen, braucht man längere Zeitreihen und genauere Informationen darüber, welche Systeme betroffen waren, ob es Clusterungen gab, wie hoch die Schadenswahrscheinlichkeiten im einzelnen beziffert wurden.

Experten, die sich mit probabilistischer Sicherheitsanalytik beschäftigen, werden aufgrund des hohen Komplexitätsgrades ihres Geschäfts häufig missverstanden. So wurde ihnen in den 1970er Jahren, als diese Berechnungen dank immer besserer Rechnerleistungen aufkamen, angesichts der genannten Zahlenverhältnisse vorgeworfen, sie rechneten schwere Unfälle „klein“.

Störfall-Datenbanken und Weiterleitungs-Meldesystem

Dabei ist die Philosophie der PSA (Probability Safety Analysis) gerade anders – sie hält jeden Unfall prinzipiell für möglich und lediglich für eine Frage der Zeit. Wenn eine PSA zu dem Schluss kommt, ein bestimmter Unfall habe eine Wahrscheinlichkeit von eins zu einer Million, dann sagt sie damit keinesfalls aus, es käme erst in einer Million Reaktorbetriebsjahren zum Unfall, wie viele Atomkraftgegner unterstellten. Sie schließt nur nicht aus, dass es morgen, oder in viertausend, oder in einer Million Reaktorbetriebsjahren dazu kommen könnte. Aber sie schließt eindeutig aus, dass es dreimal oder zwanzigmal binnen einer Million Reaktorbetriebsjahren dazu kommen könnte.. Sie schließt nur nicht aus, dass es morgen, oder in viertausend, oder in einer Million Reaktorbetriebsjahrenahren dazu kommen könnte. Aber sie schließt eindeutig aus, dass es dreimal oder zwanzigmal binnen einer Million Reaktorbetriebsjahren dazu kommen könnte.

Im Falle der precursor incidents kommt hinzu, dass Unfälle in einer Anlage nicht notwendigerweise Vorläufer in derselben Anlage gehabt haben müssen – wohl aber in einer anderen Anlage, mitunter mit großem zeitlichen Abstand der Ereignisse. So gilt ein glimpflich abgelaufener Störfall im schweizerischen Beznau Anfang der 1970er Jahre als Vorläufer des Kernschmelz-Unfalls von Three-Mile Island-2 1979, und auch der Reaktivitäts-Unfall mit Leistungsexkursion in Tschernobyl-4 1986 hatte einen Vorläufer-Störfall, der elf Jahre vorher im KKW Leningrad-1 abgelaufen war.

Diese wichtige Information wurde aber im System der sowjetischen Kernenergiewirtschaft nicht analysiert und dann weitergegeben, sondern analysiert – und geheimgehalten. Auch die Anlagenfahrer von TMI-2 hatten 1979 keinerlei Kenntnis von dem Ereignis in Beznau. Aus diesem Grunde gibt es in der Kernenergiewirtschaft heute internationale Störfall-Datenbanken und Weiterleitungs-Meldesysteme: So können sicherheitstechnisch bedeutsame Ereignisse möglichst rasch auf ihre Relevanz für andere Anlagen überprüft werden.

Die Tagesschau und die üblichen Verdächtigen

Gleichwohl machte die ARD-Tagesschau aus dem vorliegenden Befund die Schlagzeile „Tihange-1 gefährlicher als bislang bekannt“, was unterstellt, es sei bereits vorher bekannt gewesen, dass die Anlage „gefährlich“ sei; nun sei sie eben „gefährlicher“. Das nicht für atomfreundliche Aussagen bekannte SPD-geführte Bundesumweltministerium beeilte sich daher klarzustellen, dass es sich hier um eine simplifizierende Fehlinterpretation handle. „In der aktuellen Berichterstattung entsteht der Eindruck, dass man auf Grundlage der Anzahl von sogenannten Precursor-Ereignissen auf die Sicherheit einer Anlage schließen könne. Das ist aber nicht der Fall. Sie sind vielmehr probabilistisch durchgerechnete Anlässe, die dabei helfen, sich ein bestimmtes Szenario genauer anzusehen. Diese sehr komplexen Precursor-Berechnungen sind ein Element einer umfassenden Sicherheitsarchitektur. Die Wahrscheinlichkeitsberechnungen können helfen, weitere Optimierungen an einem lernenden Sicherheitssystem dieser oder anderer Anlagen vorzunehmen.“

Der für den ARD-Beitrag verantwortliche Jürgen Döschner zitiert zwei Experten, die das ganz anders sehen: alte Bekannte, die in fast jedem Döschner-Beitrag auftreten, und die unschwer als in die Jahre gekommene Vertreter jener grünen Gegen-Expertise zu identifizieren sind, welche es erfolgreich von den Bauzaun-Protesten in die Ministerien und staatlichen Fachgremien schafften. Manfred Mertins ist ein ehemaliger Mitarbeiter der Gesellschaft für Reaktorsicherheit und tritt häufig als Gutachter für die Grünen und andere atomkritische Verbände auf. Der Ingenieur Dieter Majer war nach seinem erfolgreichen Marsch in die Institutionen Ministerialdirigent unter den Umweltministern Trittin (Grüne) und Gabriel (SPD) und wirkte dort als Leiter der Abteilung kerntechnische Sicherheit. Auch er machte nie einen Hehl aus seinen Überzeugungen.

Bei der Stillegung des KKW Krümmel nach einem Transformatorbrand im Sommer 2007 war Majer eine der treibenden Kräfte, welche wider besseres Wissen Zweifel und Angst über einen ernsthaften Störfall streuten – vermutlich sollte das der Profilierung des SPD-Umweltministers Gabriel in einer CDU-geführten Regierung dienen. Der SPIEGEL, der den Hintergrund dieser Geschichte recherchierte, konstatierte seinerzeit, dass alle Beteiligten von Anbeginn an wussten, dass der Brand auf die Sicherheit der Anlage keinerlei Auswirkungen gehabt und das Betriebspersonal richtig gehandelt und die Anlage sicher abgefahren hatte.

Wider besseres Wissen zum Kriminalfall aufgeblasen

Trotzdem wurde die Angelegenheit zum Kriminalfall und gefährlichen Nuklearstörfall aufgeblasen, was das Ende für Krümmel bedeutete. Nach Beendigung seiner Ministerialkarriere fungierte Dieter Majer, wie sein Experten-Kollege Mertins, als Berater atomkritischer Initiativen, etwa als „gemeinsamer Beobachter von Luxemburg, Rheinland-Pfalz und dem Saarland“, jener Länder und Bundesländer, die sich für die Stillegung des französischen KKW Cattenom stark machen.

Döschners Atomexperten liefern keine fachlichen Hintergründe zum besseren Verständnis und zur Einordnung des Schreibens, sondern die bestellte Panikorchester-Musik für einen Bericht, dessen Ergebnis vermutlich schon feststand, bevor sie überhaupt befragt wurden. Mertins lässt sich mit folgenden Worten zitieren: „Precursor kann man schon als einen Indikator für den Sicherheitszustand der Anlage einstufen“, und begibt sich mit dieser vereinfachenden Aussage in Widerspruch sowohl zu den Papieren seines Ex-Arbeitgebers GRS als auch zu den Aussagen des BMU. Dieter Majer, Gabriels Mann für’s nukleare Grobe unter Rot-Schwarz, tönt unisono. Er sieht in den Befunden ein Anzeichen, „dass die Anlage sicherheitstechnische Schwachstellen hat.“

Was bleibt zu sagen? Das Kernkraftwerk Tihange hat noch einen dritten Block, und wir erwarten, dass auch diese bislang noch nicht gewürdigte Anlage bald in den Fokus des Herrn Döschner gerät. Er muss nur noch einen Anlass finden – sagen wir, in einem Vierteljahr? Zweifelsfrei feststellbar ist jedoch, dass die ARD mit den Standards einer sachlichen und vorurteilsfreien öffentlich-rechtlichen Berichterstattung offensichtlich ein Problem hat, wenn sie Themen der Energieversorgung, insbesondere der Kernenergie, anspricht.

Würde der WDR dieselben Qualitätsmaßstäbe, die er bei seiner Atom-Berichterstattung setzt, bei der Diskussion über den Familiennachzug von Flüchtlingen anlegen, dann dürfte er ausschließlich Experten von Pegida, AfD und NPD zu Wort kommen lassen, und müsste mit Schlagzeilen von „Asylantenflut“ und „Volkstod“ den baldigen Super-GAU Deutschlands beschwören. Dieses Verständnis von Journalismus ist nur eines: gefährlicher als angenommen.

Dr. Anna Veronika Wendland ist Osteuropa-Historikerin am Herder-Institut für historische Ostmitteleuropaforschung in Marburg. Ihr Habilitationsprojekt „Atomgrad. Kerntechnische Moderne im östlichen Europa“ ist dem Sonderforschungsbereich SFB/TR 138 „Dynamiken der Sicherheit“ assoziiert. Sie lebt mit Mann und drei Söhnen in Leipzig. 

Übernommen von ACHGUT hier



Um Diesel ging es gar nicht

Die kleine Maus hatte keine Chance mehr. Sie bewegte sich unter einer Glasglocke, die, verschlossen, von außen keine Luft mehr hereinließ. Es kam, wie es kommen musste: Schon bald fiel das Versuchstier bewusstlos zu Boden und war tot. Das niedliche kleine Tier verbrauchte all den Sauerstoff, übrig blieb „schädliche Luft“, die weder Verbrennung noch Leben ermöglichte. Das Gleiche geschah mit einer Kerze; die ging im Glasbehälter ebenfalls aus. Daniel Rutherford, schottischer Chemiker, der dieses Experiment ausführte, nannte den Stoff „phlogistische Luft“, heute kennen wir den Stoff als Stickstoff. 78 Prozent, so wissen wir heute, sind in der Atmosphäre enthalten.

Das war 1772. Ein Tierversuch stand also am Anfang des Wissens um einen der wichtigsten Stoffe des Lebens. Es ist immer derselbe Ablauf: Am Anfang steht das Unwissen und macht daher ein Experiment, eine Frage an die Natur. Das beweist dann eine Erkenntnis – oder eben auch nicht. So gewinnt man Wissen, nicht durch Glauben.

Worum geht es heute? Es geht um die (Reiz-) Wirkung von NOx, aber ausdrücklich nicht im Zusammenhang mit dem Dieselskandal. Man weiß zwar grundsätzlich, wie Stickoxide auf den Organismus wirken. Es gibt eine ganze Reihe Stickstoff-Sauerstoff-Verbindungen, je nachdem, mit wieviel Sauerstoff-Atomen sich das Stickstoff-Molekül zu verbinden geruht. Wobei es sich eher nicht binden mag, es ist nicht besonders reaktiv, sagt man. Deswegen benutzt man es bei der Verpackung von Lebensmitteln beispielsweise, um die vor dem schädlichen Sauerstoff zu schützen und länger haltbar zu machen.

Je nachdem, wie sich die atomaren Legosteine zusammensetzen, entstehen vollkommen unterschiedliche Stoffe mit unterschiedlichen Wirkungen.
Eine lustige Wirkung kommt zum Beispiel zustande, wenn zwei Stickstoff-Atome mit einem Sauerstoff-Atom eine innige Beziehung eingehen. N2O heißt das dann, Lachgas. Früher, als die Menschen noch nicht solche Angst vor Chemie hatten, hat man auf Jahrmärkten Menschen Lachgas einatmen lassen und sich über die Reaktion gefreut: Ein zwanghaftes Lachen, eine Euphorie überfiel sie. Ähnliche Belustigungen hat man auch auf gesellschaftlichen Abenden veranstaltet, als vegane Ernährung und ähnliches noch nicht Gesprächsthemen dominiert haben. Üble Menschenversuche würden heute Kenntnisbefreite urteilen und zwar so lautstark, dass es gewiß Verbote hageln würde.

Lachgas wurde früher zur Betäubung beim Zahnarzt und vor Operationen verwendet. Wer sich heute Schlagsahne aus der Sprühdose auf den Kuchen spritzt, verbreitet damit auch Lachgas. Das dient als Treibgas.

Heute steigt der Gehalt an N2O in der Luft ausgerechnet dadurch an, dass Kohlekraftwerke „sauber“ gemacht werden sollen. Nicht nur der Übeltäter Nummer eins, Kohlendioxid, soll verschwinden, sondern auch die Stickoxide. Katalysatoren wurden in die Abgasstränge der Kohlekraftwerke eingebaut; die vermindern zwar die Stickoxide, sorgen aber ausgerechnet dafür, dass der Lachgasanteil ansteigt, und zwar ziemlich stark. Das gilt als viertwichtigstes Treibhausgas.

Die Welt kommt erst „in Ordnung“, wenn alle Kraftwerke abgeschaltet sind. Dann können nur noch Bakterien für erhebliche Stickstoff-Anreicherung der Luft sorgen.

Der menschliche Körper selbst stellt sogar Stickstoffmonoxid oder NO her. Das ebenfalls giftige Gas benutzt er als Botenstoff, als wichtigen Neurotransmitter im menschlichen Körper. Der sorgt dafür, dass sich Muskeln rund um Blutgefäße entspannen und der Blutfluß erhöht wird.

Um 1870 beobachtete man in den Dynamitwerken des Alfred Nobel, dass Arbeiter, die bei körperlicher Anstrengung aufgrund einer Herzkrankheit an Schmerzen in der Brust litten, eine Linderung ihrer Schmerzen erfuhren, wenn sie in der Woche wieder in der Fabrik arbeiteten. Die Fabrikluft enthielt Dämpfe von Nitroglycerin, denn diese Stickstoff-Verbindung ist der eigentliche Explosivstoff des Dynamits.

Diese hochexplosive Chemikalie benutzten dann Ärzte – stark verdünnt natürlich – als Standardarznei bei Angina pectoris. Menschenversuche?
Ganze 100 Jahre vergingen, bis man entdeckte, dass Nitroglycerin in der Muskulatur in NO umgewandelt wird – also in den Wirkstoff, der direkt für die Erweiterung der Blutgefäße verantwortlich ist.

Noch einmal 20 Jahre später erhielten drei Wissenschaftler den Medizin-Nobelpreis für ihre Erkenntnisse, auf welch komplizierte Weise NO die Herzgefäße beeinflußt. Verblüffend wiederum ist, dass sich der Organismus an NO-Gaben gewöhnt. Sie verlieren also ihre Wirkung. Herauszufinden wie genau dieser Prozeß der Desensibilierung verläuft, daran wird geforscht. Aber auch hier fallen die Früchte der Erkenntnis nicht vom Himmel, sondern mit harter detaillierter Arbeit und vielen Versuchen mit keinem brauchbaren Ergebnis. Und ja, mit Versuchen am lebenden Organismus. Anders geht es nicht.

Wenn sich aber – bei genügend Energie, sprich Hitze – zwei Sauerstoffatome mit einem Stickstoffatom verbinden, ergibt das jenes Stickstoffdioxid, NO2, das jetzt das Potential hat, den Schurkenstoff CO2 in der veröffentlichten Empörung abzulösen.

NO2 aus der Stickstoff-Sauerstoff-Connection ist für den Menschen tatsächlich schädlich. Es übt je nach Konzentration eine leicht bis stark ätzende Wirkung auf die Lunge aus, ist also in höheren Konzentrationen gefährlich. Wobei in der Fachwelt über Grenzwerte sehr heftig gestritten wird; sie beruhen selten auf Versuchen, sondern sind von Politik und Interessengruppen ausgehandelte Werte.

Die grün dominierte Weltgesundheitsorganisation WHO übrigens beruft sich auf aktuelle Tierstudien, die Gefahren schon bei niedrigen Dosierungen ergeben hätten. Also auch hier ging es nicht ohne Tierversuch.

Aus solchen Versuchsstudien leiteten Forscher eine Konzentration von 1,5 ppm oder 3000 μg/m3 als nicht gesundheitsschädlich ab. Basierend auf diesen Studien haben das Scientific Committee for Occupational Exposure Limits der Europäischen Kommission, die DFG-Arbeitsstoffkommission (MAK-Kommission) und der Ausschuss für Gefahrstoffe (AGS) für Arbeitsplätze einen noch niedrigeren Grenzwert für NO2, nämlich von nur von 0,5 ppm (950 μg/m3) festgelegt. 40 μg/m3 gelten laut EU für die Außenluft, am Arbeitsplatz 950 μg/m3, in Büroräumen 60 μg/m3. Arbeitenden Menschen wird mehr zugetraut. (Quelle: hier)

NO2 reagiert gern mit Wasser, wird zu „saurem Regen“, der nächste Regen aber wäscht die Luft wieder aus. NO2 entsteht bei vielen natürlichen Prozessen wie Gewittern, bei Verbrennungsprozessen aber auch zum Beispiel bei Betrieb von Elektromotoren und größeren Schweißarbeiten. Darauf hatten es die Aachener Forscher abgesehen. Denn erstaunlicherweise weiß man nicht sonderlich gut über die NO2-Wirkungen am Arbeitsplatz Bescheid. Die Grenzwerte wurden zwar in Deutschland im Gegensatz zu anderen Ländern deutlich abgesenkt, aber rein willkürlich, also ohne sie auf irgendeine Weise zu fundieren. Niemand kann also sagen, ob jene Grenzwerte sinnvoll sind oder nicht.

2013 und 2014, also lange vor dem „Diesel-Desaster“, haben die Aachener Forscher jene ominöse Studie erstellt; den Antrag dazu 2012 gestellt. Anlass war die Diskussion um die Absenkung der ‚Maximalen Arbeitsplatz-Konzentration‘ (MAK) für NO2. Denn wenn man über Grenzwerte redet, sollte man wissen, wie viel ist denn zu viel. Die Aachener wollten für neue Definitionen der maximalen Arbeitsplatzkonzentrationen mehr darüber herausfinden, wie NO2 wirkt. Die Versuche liefen nach den üblichen Prozeduren ab, also prüfen, ob Versuche notwendig sind, vorherige Ethikberatung, genaue medizinische Betreuung der Probanden.Soweit so normal. Grundlagenforschung, wie sie üblich und wichtig ist, um über neue Grenzwerte sinnvoll diskutieren zu können. Wer sie ablehnt, sorgt im Grunde für ein höheres Risiko für Menschen. Dass Menschen dabei bösen Diesel-Abgasen ausgesetzt oder gar „begast“ wurden ist, falsch. Es wurden die Aufnahmen von NO2 in verschiedenen geringen Konzentrationen gemessen, also nur von einem Bestandteil von Diesel-Abgasen.

Hier erklärt der Studienleiter der RWTH Aachen kurz gut verständlich seine Versuche:

Interview Prof. Dr. Thomas Kraus zur Aachener NO2 Studie

Die Ergebnisse wurden 2016 veröffentlicht, außer der Fachwelt nahm niemand Kenntnis. Nichts Geheimnisvolles, schon gleich gar nicht grausame Menschenversuche. Forschung über die Wirkung von Diesel-Abgasen gibt es schon länger. Dabei wurde gemessen, wie und was Menschen von Diesel-Abgasen aufnehmen. Auch die amerikanischen National Academies of Science betonen ausdrücklich, dass kontrollierte Experimente mit Freiwilligen, die Schadstoffen in der Luft ausgesetzt werden, berechtigt sind.

Kurz vor der Veröffentlichung der Aachener Geschichte hatte der Frankfurter Wirtschaftskorrespondent der New York Times über einen Versuch berichtet, Auswirkungen von Diesel-Abgasen auf einen Organismus zu erforschen, in diesem Fall an Affen. Diese Arbeiten haben nichts mit den Versuchen in Aachen zu tun.

2014, also auch bevor die Diesel-Affäre begann, sollen Wissenschaftler in einem Labor in Albuquerque als Beweis für die schädlichen Auswirkungen von Dieselabgasen auf die menschliche Gesundheit ein ungewöhnliches Experiment durchgeführt haben. Danach seien zehn Affen in luftdichte Kammern gesetzt worden. Sie hätten Abgase eines Diesel-VW-Käfers einatmen müssen, und durften dabei zur Unterhaltung Zeichentrickfilme anschauen.

Belege oder Quellen dafür werden nicht genannt, es wird lediglich auf Gerichtsakten und Regierungsdokumente Bezug genommen. Die Studie, um die es geht, liegt öffentlich nicht vor. Man kann daher nicht seriös Ziel und Arbeit der Forscher beurteilen. Das Labor Lovelace Respiratory Research Institute (LRRI) jedenfalls arbeitet seit langem in der Erforschung von Atemwegserkrankungen und untersucht Auswirkungen von Stoffen in der Luft auf die Atemwege und wird von der mächtigen Food and Drug Behörde (FDA) kontrolliert. Man darf davon ausgehen, dass keine Frankenstein-Scharlatane am Werk waren. Nur was genau geschah, ist nach außen hin nicht bekannt.

Automobilabgase haben wie Abgase bei allen Verbrennungsvorgängen zum Beispiel bei Heizungen bedenkliche Wirkungen. Nur würde niemand auf die Idee kommen, deswegen zu frieren. Die Autoabgase sind in den vergangenen Jahrzehnten erheblich „sauberer“ geworden. Doch die Absenkung eines Wertes zieht häufig die Erhöhung eines anderen Wertes mit sich. Erhöhen die Motorenbauer etwa die Verbrennungstemperaturen, so sinken zwar Verbrauch und CO2-Ausstoß, gleichzeitig steigt aber der NO2-Ausstoß an. Denn die höheren Temperaturen wiederum bewirken, dass sich Stickstoff und Sauerstoff besser verbinden.

Die Luft in den Städten wird immer sauberer. Stickoxid-Emissionen zum Beispiel wurden in Deutschland in den letzten Jahren mehr als halbiert. Sie sind von 1990 bis 2015 deutlich um immerhin 59 Prozent zurückgegangen. Diesel-PKW wiederum tragen zu den Stickoxiden in der Luft nur zu einem sehr geringen Anteil bei. Ein Verbot hätte also nur sehr geringe Auswirkungen. Von immer schlimmer verschmutzter Luft in den Städten zu reden, ist falsch.

Der Begriff „Schadstoff“ ist immer problematisch. Jeder Mensch gibt zum Beispiel mit den Darmgasen das faulig riechende Schwefelwasserstoffgas in die Luft ab. Es ist etwa so giftig wie Blausäure, nur riecht man es schon in weit kleineren, ungefährlichen Konzentrationen. Nur deshalb hat man nicht längst das Furzen verboten oder Gasfilter vorgeschrieben. Entscheidend sind immer die Konzentrationen etwaiger Schadstoffe. Daher will man Zahlen erfahren und wissen, vor allem, wenn man über Grenzwerte redet. Das geht nicht ohne Versuche. Sie sind Alltag. Dafür gibt es ausgefeilte Regularien, wie damit umgegangen werden muss. Sie wurden alle eingehalten.

Übrigens: Zu den nachweislich gefährlichsten Schadstoffquellen im Alltag zählt das Rauchen, worunter auch Passivraucher leiden. Hier ist die nachgewiesene Zahl an Toten (121.000 im Jahr 2013 allein in Deutschland) bei weitem höher als die den Diesel-Abgasen nachgesagte Opferzahl. Dazu gehört auch das immer beliebtere Shisha-Rauchen.

Die „Enthüllungen“ über angeblich grausamen Tierversuch kommen selbstverständlich nicht zufällig vor wichtigen Gerichtsentscheidungen. So steht am 22. Februar die Entscheidung des Bundesverwaltungsgerichtes über mögliche Fahrverbote von Dieselfahrzeugen an. Geklagt hatte der von Toyota unterstützte Abmahnverein Deutsche Umwelthilfe mit Vielflieger Jürgen Resch an der Spitze.

Der Beitrag erschien zuerst bei Tichys Einblick hier