1

Forscher: Ozon-Zerstö­rung, nicht Treibhaus­gase, ist die Ursache für globale Erwärmung

[*Im Original steht die Abkürzung CFC = Chlorofluorocarbon. Ich habe dafür in dieser Übersetzung die bei uns allgemein bekannte Abkürzung FCKW verwendet, in der Hoffnung, dass sie mit CFC identisch ist. Anm. d. Übers.]

Innerhalb von drei bis fünf Jahren, also der Zeit, von der wir wissen, dass FCKW die Stratosphäre erreicht, begannen die jährlichen mittleren globalen Temperaturen zu steigen. James Lovelock fand mittels seines neuen Elektronen-Detektors [electron capture detector] bedeutende Mengen von FCKW-11 in allen 50 Luftproben, die er von Pol zu Pol genommen hatte. Angeregt durch Lovelocks Arbeiten entdeckten Mario Molina und Sherwood Rowland im Jahre 1974, dass wenn die FCKW die Stratosphäre erreichen, sie durch die ultraviolette Strahlung der Sonne aufgebrochen werden, wobei ultimativ Chloratome freigesetzt werden. Ein Chloratom kann 100.000 Ozonmoleküle zerstören, und zwar mittels katalytischer Prozesse, die besonders effektiv sind in polaren Stratosphären-Wolken.

Ozon bildet sich, wenn die ultraviolette C-Strahlung ein Sauerstoff-Molekül in zwei Sauerstoff-Atome aufspaltet, welche dann mit anderen Sauerstoff-Molekülen das Ozon (O3) bilden. Ultraviolette B-Solarstrahlung verwandelt das Ozon wieder zurück in ein Sauerstoff-Atom und ein Sauerstoff-Molekül. Dieser Ozon-Sauerstoff-Zyklus, bekannt unter der Bezeichnung Chapman-Zyklus, ist kontinuierlich, so dass ein Ozon-Molekül normalerweise nur eine Lebensdauer von 8,3 Tagen hat. Die Ozonschicht, ca. 20 bis 30 km über der Erdoberfläche, ist der Bereich der Atmosphäre, in denen die günstigsten Bedingungen für den Ozon-Sauerstoff-Zyklus herrschen.

Wenn ein Molekül wie Sauerstoff oder Ozon zerfällt, fliegen die molekularen Bruchstücke mit hoher Geschwindigkeit auseinander, wobei sie die gesamte Bindungsenergie in kinetische Energie umwandeln. Die mittlere kinetische Energie aller Atome und Moleküle in einem Gas ist der kinetischen Theorie der Gase zufolge direkt proportional zur Temperatur eines Gases. Folglich zeigen hohe Ozon-Konzentrationen Regionen einer lokalen Erwärmung an. Dass diese Wetter und Klima beeinflussen, wurde erstmals von Gordon Dobson während der zwanziger Jahre des vorigen Jahrhunderts beobachtet.

Wenn Ozon zerfällt, wird in der Ozonschicht weniger Ultraviolett-B absorbiert, wodurch die Ozonschicht abkühlt. So wurde es von 1970 bis 1998 beobachtet. Mehr Ultraviolett-B erreicht dann die Erdoberfläche, wo es Dutzende Meter tief in die Ozeane eindringt und folglich sehr effizient absorbiert wird. Zunehmendes Ultraviolett-B sorgt auch in den bodennahen Luftschichten für Ozon-Verschmutzung, was die Luft in Industriegebieten erwärmt. Dies erklärt, warum die globale Erwärmung von 1970 bis 1998 auf der Nordhemisphäre doppelt so stark war wie auf der Südhemisphäre, enthält erstere doch 90% der Weltbevölkerung. Der Ozonzerfall ist in den Polargebieten im Winter am stärksten. Dies erklärt, warum die stärkste, von 1970 bis 1998 beobachtete Erwärmung in den Polargebieten erfolgte. Dieses Phänomen ist bekannt unter der Bezeichnung polar amplification.

Im Jahre 1985 entdeckten Joe Farman, Brian Gardiner und Jon Shanklin, dass die Zerstörung der Ozonschicht über der Antarktis bis zu 70% im Frühjahr der Südhalbkugel ausmacht. Wissenschaftler erkannten auf einmal, dass der Ozonzerfall ein viel größeres Problem war als ursprünglich gedacht. Innerhalb von zwei Jahren entwickelten Politiker und Wissenschaftler das Montreal-Protokoll, in welchem der Stopp der FCKW-Produktion ab Januar 1989 gefordert wurde.

Im Jahre 1993 endete die FCKW-Zunahme in der Atmosphäre. Bis 1995 war die Zunahme des Ozon-Zerfalls beendet. Ab dem Jahr 1998 hörte der globale Temperaturanstieg auf. Die Ozonschicht bleibt zerfallen, die Ozeane erwärmen sich weiter, Eis schmilzt weiterhin [?], der Meeresspiegel steigt weiter – aber die globalen Temperaturen änderten sich von 1998 bis 2013 kaum. Das war auch von 1945 bis 1970 der Fall. Folglich scheinen die Menschen aus Versehen die Erwärmung ab 1970 in Gang gesetzt zu haben mittels Herstellung großer Mengen von FCKW und diese Erwärmung im Zuge der Versuche, den Ozonzerfall aufzuhalten, genauso aus Versehen wieder zum Stehen gebracht zu haben.

Abbildung: Die Zunahme von Chlor in der Troposphäre (grüne Linie), verursacht durch die Herstellung von FCKW, führte zu einem zunehmenden Zerfall der Ozonschicht (schwarze Linie), was wiederum zu steigenden Temperaturen führte (rote Balken).

Gleichzeitig stieg die atmosphärische Konzentration von Kohlendioxid linear, jedoch mit stetig zunehmender Rate. Sie zeigt keine direkte Relation zu den Details der beobachteten globalen Erwärmung. Dutzende begutachteter Studien von führenden Atmosphären-Wissenschaftlern haben auf der Grundlage der Treibhausgas-Theorie versucht zu erklären, warum sich die globale Temperatur von 1998 bis 2013 kaum geändert hat. Bekannt ist dieses Phänomen unter der Bezeichnung Stillstand der globalen Erwärmung. In diesen Studien stecken viele interessante Gedanken, aber keiner davon fand allgemeine Akzeptanz.

Im Jahre 2014 schleuderte der isländische Vulkan Bárðarbunga basaltische Lava aus, welche innerhalb von sechs Monaten eine Fläche von ca. 85 km² überzog, das war der stärkste Ausbruch basaltischer Lava seit 1783. Ausbrüche dieser Art von Lava, welche Millionen Quadratkilometer überdeckten, gingen zeitgleich einher mit Perioden der stärksten globalen Erwärmung, Ozean-Versauerung und Massenaussterben von Spezies zu allen geologischen Zeiten. Zum Beispiel überdeckten vor 251 Millionen Jahren sibirische Basalte eine Fläche von ca. 7 Millionen Quadratkilometer, das ist so groß wie das US-Festland ohne Texas und Montana. Man stelle sich eine Fläche von New York bis San Francisco, von Seattle bis Miami vor, die von basaltischer Lava bedeckt ist. Die Eruption dieser Basalte erwärmte die Ozeane bis auf Sauna-Temperaturen [?] und löschte 95% aller damals existierenden Spezies aus. Basalte emittieren ungeheure Mengen Chlor und Brom, welche die Ursache für den Ozonzerfall zu sein scheinen. Jedoch sind die genauen chemischen Zusammenhänge noch unklar. Der Ausbruch des Bárðarbunga scheint eine sehr rapide globale Erwärmung von 2014 bis 2016 ausgelöst zu haben, welche sich 2017 abzuschwächen begann, so dass sich innerhalb eines Jahrzehnts die Werte des Jahres 2013 wieder einstellen dürften.

Während der achtziger Jahre des vorigen Jahrhunderts waren viele führende Wissenschaftler davon überzeugt, dass Treibhausgase die Ursache der globalen Erwärmung waren, dass die Erde Gefahr lief, sich im 21. Jahrhundert mit steigenden Treibhausgas-Emissionen zu überhitzen, und dass Wissenschaftler einen Konsens an den Tag legen müssen, um politische Führer davon zu überzeugen, teure Maßnahmen auf den Weg zu bringen. Diese seien erforderlich, um die Treibhausgas-Emissionen zu reduzieren. Mittels der WMO und der UNEP halfen sie, das IPCC im Jahre 1988 ins Leben zu rufen. Das IPCC hat Tausende Wissenschaftler beschäftigt, welche zehntausende Seiten Papier vollschrieben mit nachdenklicher Wissenschaft zur Stützung der Treibhausgas-Erwärmungs-Theorie. Das IPCC stellte nie die weit verbreitete Hypothese in Frage, dass Treibhausgase wirklich der primäre Grund für globale Erwärmung sind. Im Dezember 2015 trug diese Bemühung Früchte in Gestalt des Paris-Abkommens, in welchem Politiker fast aller Länder zustimmten, zusammen zu arbeiten, um Treibhausgas-Emissionen zu reduzieren.

Wissenschaft wird jedoch niemals mittels Abstimmungen durchgeführt. Wissenschaft wird nicht durch Konsens durchgeführt. Konsens ist politisches Zeug; Debatte ist das Werkzeug der Wissenschaft. Die Wissenschaft ist niemals settled. Michael Crichton drückte es im Jahre 2003 so aus: „In der Wissenschaft ist Konsens irrelevant. Relevant sind ausschließlich reproduzierbare Ergebnisse. Die größten Wissenschaftler der Geschichte sind genau deswegen groß, weil sie mit dem Konsens gebrochen haben. Es gibt so etwas wie Konsens in der Wissenschaft nicht. Falls es Konsens ist, ist es keine Wissenschaft. Falls es Wissenschaft ist, ist es kein Konsens. Punkt!“

IPCC-Wissenschaftler sind so besessen von ihrem Konsens und so unwillig, sich mit Klimaskeptikern zu streiten, dass sie sich weigern, allein schon den Gedanken bzgl. Ozonzerfall in Betracht zu ziehen. Ihre Modelle berechnen, dass Treibhausgase viel mehr terrestrische Infrarotstrahlung absorbieren als die geringe Menge ultravioletter B-Strahlung, welche die Erde beim Zerfall von Ozon erreicht. Was sie aber nicht erkennen ist, dass die Energie in thermischer Strahlung keine Funktion der Stärke dieser Strahlung ist, sondern eine Funktion der Frequenz. Ultraviolette B-Strahlung weist eine um 48 mal höhere Frequenz auf als die Frequenz infraroter Strahlung, welche am stärksten durch Kohlendioxid absorbiert wird [?]. 48 mal höher – das hat das Potential, die Temperatur des absorbierenden Körpers 48 mal wärmer zu machen. Ultraviolette B-Strahlung enthält genug Energie, um Sonnenbrand, Hautkrebs und Grauen Star auszulösen – was keine Menge infraroter Strahlung je vermag. Schließlich wird einem viel wärmer, wenn man im Sonnenlicht steht als nachts im Freien mit all der infraroten Strahlung ringsum. Ich kann jetzt zeigen, dass Treibhausgase einfach nicht genug Wärme absorbieren können, um als primäre Ursache für globale Erwärmung zu dienen.

Klimamodelle auf der Grundlage von Treibhausgas-Erwärmung haben seit 1998 die Temperaturen nicht mehr richtig prophezeit. Die große Erwärmung, zu welcher es den Ergebnissen dieser Modelle zufolge später in diesem Jahrhundert kommen soll, wird aller Voraussicht nach nicht eintreten. Wenn politische Führer nach Wegen suchen, die Treibhausgas-Konzentration zu reduzieren mit zu erwartenden Kosten in Billionenhöhe, müssen sie verstehen, dass dies keinerlei Auswirkung auf die Reduktion der globalen Erwärmung haben könnte.

Inzwischen wird sich der Ozean weiter erwärmen, solange das Ozon relativ zum Niveau des Jahres 1970 zerfallen bleibt. Die Erholung der Ozonschicht wird verzögert durch einen deutlichen schwarzen Mark von FCKW, weil es sich die Menschen in ärmeren Ländern nicht leisten können, ihre von FCKW abhängigen Kühlschränke und andere Einrichtungen zu ersetzen. Hinzu kommt: kurzlebigere Substanzen wie dichloromethanes haben eine stärkere negative Auswirkung auf das Ozon-Niveau als zuvor gedacht. Falls wir wirklich unseren negativen Einfluss auf das Klima [?] reduzieren wollen, müssen wir uns darauf konzentrieren, den Ozonzerfall zu stoppen. Wir müssen auch anfangen, über unsere Optionen im Falle großer Ausbrüche basaltischer Lava nachzudenken.

Dr. Peter L. Ward worked 27 years with the United States Geological Survey as research geophysicist, branch chief, and program manager. He helped develop and manage a major national research program, chaired a committee at the White House, testified before Congress, worked on a committee for Vice President Gore, published dozens of scientific papers, and won two national awards for explaining science to the general public. He retired in 1998, working intensely for the past twelve years, trying to resolve several enigmatic observations related to climate change.

Ward’s analysis and theory are explained in detail on his website, WhyClimateChanges.com, and in his new book: „What Really Causes Global Warming? Greenhouse Gases or Ozone Depletion?“

Link: https://www.rdmag.com/article/2018/04/ozone-depletion-not-greenhouse-gases-cause-global-warming-says-researcher

Übersetzt von Chris Frey EIKE

Kommentar des Übersetzers zu diesem Beitrag:

Mit diesem Beitrag wird nun eine weitere und meines Wissens nach völlig neue Ursache der globalen Erwärmung geliefert – so diese wirklich ein messbares Ausmaß erreicht hat. Die von mir im Artikel gesetzten Fragezeichen [?] sollen schon auf Ungereimtheiten hinweisen.

Es ist immer wieder interessant, mit welch immer neuen Ansätzen versucht wird, Klimaänderungen zu begründen. Die hier vorgestellte FCKW-Theorie scheint mir die gleiche zufällige Koinzidenz zu sein wie steigender CO2-Anteil in der Atmosphäre und steigende Temperatur. Oder wie die steigende Storchenpopulation und zunehmende Geburten in Deutschland. Oder wie… Mit einiger Phantasie lassen sich viele dieser Koinzidenzen finden, die aber alle eines gemeinsam haben: Sie können den immerwährenden Klimawandel seit vielen Millionen Jahren auf der Erde vor dem Auftritt des Menschen nicht erklären.Man muss sich doch nur fragen: Seit wann gibt es das FCKW-„Problem“ – und seit wann gibt es Klimawandel?

Hier wird nun der aktuelle Klimawandel mit einem Einzelereignis in Verbindung gebracht, nämlich einem Vulkanausbruch 2013. Die nachfolgende Wärmespitze soll diesem Ereignis geschuldet sein – und nicht dem Super-El Nino, der nicht einmal erwähnt wird. Damit schließt sich der Kreis unter dem Motto: Immer mal wieder etwas Neues. Das wird wohl unendlich so weitergehen – bis vielleicht das aktuelle Sonnenaktivitäts-Minimum Wirkung zeigt…




Klima­politik erzeugt eine Energie­krise

McConnell zufolge ist das Stromnetz der USA derzeit bis an den Rand des Zusammenbruchs belastet. Da reicht ein großes Wetterereignis oder ein Terroranschlag. Ursachen sind die Anti-Klima-Politik sowie die Subventionen und Vorschriften, welche betriebssichere Kern- und Kohlekraftwerke zu schließen zwingen und sie zu ersetzen durch zunehmende Mengen unsicherer, weniger belastbarer und weniger zuverlässiger Energiequellen wie Wind, Solar oder sogar Erdgas.

Die Warnung von McConnell hat besonderes Gewicht, weil sie von einem ehemaligen Staatssekretär am Energieministerium während der Obama-Regierung kommt. Die Maßnahmen derselben sind zum größten Teil verantwortlich für die Energiekrise, vor der die USA potentiell stehen.

McConnell weiter: „Kohle- und Kernkraftwerke sind unerreicht in ihrer Fähigkeit, unter allen Umständen zuverlässig Energie zu erzeugen. Aber diese Kraftwerke werden mit einer alarmierend zunehmenden Rate geschlossen, und zwar wegen einer Kombination von diesen abwürgenden Vorschriften, niedrigen Erdgaspreisen sowie Subventionen und Vorschriften seitens der Regierung für Erneuerbare“. Weiter merkt er an, dass unter Volllast laufende Kohle- und Kernkraftwerke im Mittleren Westen und im Nordosten entscheidend waren dafür, dass die Lichter und die Heizungen in den Wohnungen während der verheerenden Kältewelle 2014 nicht ausgingen.

Die meisten Amerikaner nehmen Strom als selbstverständlich hin. McConnell nennt diesen Glauben der Menschen an das US-Energiesystem „magisches Denken“, denn das System kann nicht so zuverlässig und widerstandsfähig gegen Störungen bleiben wie derzeit, wenn Klima-Vorschriften und Vorschriften bzgl. erneuerbarer Energie weitere Kohle- und Kernkraftwerke zum Schließen zwingen.

Strom kann nicht zuverlässig und billig gespeichert werden. Stattdessen muss er verfügbar sein, wenn die Verbraucher ihn nachfragen. Wind und Solar, welche Energie nur dann erzeugen, wenn die Natur mitspielt, können diesen Anspruch unmöglich erfüllen.

Ich selbst bin ein Fan von Energie aus Erdgas. Mit den rückläufigen Gaspreisen sind meine Stromrechnungen allgemein billiger geworden. Der Wettbewerb mit Erdgas-Kraftwerken ist der primäre Grund dafür, dass einige Kohle- und Kernkraftwerke jüngst geschlossen oder für die vorzeitige Schließung vorgesehen sind. Betrachtet man aber allein die Kosten, liegt Kohle um Längen vor Erdgas als langfristige Treibstoffquelle, wenn man hinsichtlich von Preisschwankungen Bedenken hat. Anders als Erdgas ist der Preis von Kohle viel weniger anfällig für Steigen oder Fallen als Reaktion auf Wettervorgänge oder einer steigenden Nachfrage nach alternativem Verbrauch. Diese Tatsache spiegelt sich in meinen monatlichen Energierechnungen, wo jeder Sprung der Gaspreise meine Gasrechnung im Winter bzw. meine Stromrechnung im Sommer verdoppeln kann.

Zu der Unbeständigkeit der Preise kommen McConnell zufolge noch Bedenken bzgl. der Unsicherheit, der Widerstandsfähigkeit und Zuverlässigkeit der Stromversorgung während einer Krise.

Erdgas ist weniger zuverlässig als Kohle und Kernkraft, weil es abhängig ist von Transporten durch Pipelines.

Ein grundlastfähiges Kraftwerk speichert normalerweise einen Kohlevorrat für 30 Tage. Das ist ausreichend für den Fall potentieller Störungen. Gaskraftwerke dagegen erfordern eine konstante Verfügbarkeit auf Nachfrage, um weiterhin Strom erzeugen zu können. Extremwetter, Reparaturen an den Pipelines, unvorhergesehene menschliche Fehler oder ein Terroranschlag können den Betrieb derartiger Kraftwerke augenblicklich zum Erliegen bringen.

Der Artikel von McConnell kommt gerade zur rechten Zeit, hat doch das Heartland Institute kürzlich eine Reihe von vier Studien veröffentlicht, wie fortgesetzt entscheidend Kohlekraftwerke sind für die Netz- und Preis-Stabilität. Diese Studien beleuchten detailliert die Myriaden vorgeschriebenen Faktoren und die politischen Machenschaften hinter den Kulissen, welche die vorzeitige Schließung Dutzender wertvoller Kohlekraftwerke erzwingen.

Fehlende regierungsamtliche Maßnahmen, welche dem Wert von Kohle und Kernkraftwerken Rechnung tragen, oder auch ein Ende der zahlreichen Subventionen und Vorschriften bzgl. Wind- und Solarenergie werden wahrscheinlich dazu führen, dass die Menschen aus ihren Träumen erwachen, in denen Strom wie von Zauberhand mit dem Umlegen eines Schalters fließt, und sich stattdessen in einer dunkleren, kälteren (oder wärmeren) Welt wiederfinden; eine Welt, wo Strom auf Nachfrage ein Luxus ist, auf den sich niemand verlassen kann.

Die Amerikaner sollten mal die Menschen in Venezuela, woher meine Frau stammt, fragen, wie sich das manifestiert.

H. Sterling Burnett

SOURCES: ForbesQuanta TechnologyThe Heartland Institute

Übersetzt von Chris Frey EIKE

Zur Überprüfung der Überstzung:

heartland




Bonn am 14.5.18 – „Klimaschutz“ auf dem Prüfstand

page1image1786592

Arbeitsgemeinschaft Energie und Umwelt www.ageu-die-realisten.com

AG E+U

„Klimaschutz“ auf dem Prüfstand

Einladung zur Vortragsveranstaltung/Diskussion in Bonn am 14. Mai 2018

Sehr geehrte Damen und Herren, liebe Freunde und Kollegen,

Der „Klimaschutz“ ist seit Jahren eines der wichtigsten politischen Ziele der Bundesregierung mit der Begründung, dass durch CO2-Emissionen, die bei der Verbrennung fossiler Energieträger entstehen, die Entwicklung des Klimas negativ beeinflußt wird.

Unsere Referenten werden zu den folgenden Fragen Stellung nehmen.

  •   Kann man das „Klima schützen“?
  •   Hat das Spurengas CO2 einen Einfluß auf die Entwicklung des Klimas?
  •   Hat die Verbrennung fossiler Energieträger eine klimabeeinflussende Auswirkung?Gemeinsam mit der Arbeitsgemeinschaft Energie und Umwelt (AGE+U) haben wir, der Verein Fortschritt in Freiheit e.V. (FiF), zwei sachkundige Persönlichkeiten zur Klimadiskussion gewinnen können. Es handelt sich um den Analysten und Leiter von KE Research, Klaus Ermecke, sowie den kanadischen Publizisten und einstigen Mitbegründer von Greenpeace, Dr. Patrick Moore (Vortrag Moore auf Englisch).Die Veranstaltung findet statt:

Wann? Am 14. Mai 2018, ab 17:00 Uhr

Wo? Dotty’s Sportsbar, im BTHV, Christian-Miesen-Straße 1, 53129 Bonn (U-Bahn-Haltestelle: Bonn UN Campus), kostenlose Parkplätze sind vorhanden

Sehr gern heißen wir Sie als geschätzten Teilnehmer und Diskutanten auf der Veranstaltung willkommen.
Wir würden uns sehr freuen, wenn wir mit Ihrer Teilnahme rechnen dürften. Interessenten aus Ihrem Umfeld sind ebenfalls herzlich willkommen.

Mit freundlichen Grüßen

Hannelore Thomas
Fortschritt in Freiheit e.V. (Hannelore Thomas) und AG E+U Die Realisten (Dr. Rainer Six)

page1image3730752page1image3730544

Damit wir die Teilnehmerzahl abschätzen können, bitten wir Sie, sich vorab unter dem Link anzumelden:

https://doodle.com/poll/r9xzuambc69ceyak

page1image5796912page1image5797120

Eingetragen im Vereinsregister des Amtsgerichts Köln. Registergericht: Köln Registernummer:VR 18479




„Staub des Todes“

„Staub des Todes“

Das ist ein beliebtes Prinzip in der Demagogie, denn der flüchtige Leser sieht in der Überschrift Tod und Verderben nach dem Motto „Bad News are good News“, im Text wird das ganze wieder zurückgenommen. Im vorliegenden Fall wird durch das Wort Uran die Botschaft verkündet: es geht um die Festigung der Strahlenangst, die ja letztlich die Triebkraft zu Deutschlands Ausstieg aus der besten Stromversorgung bildet.

 

Was ist mit „Staub des Todes“ gemeint?

Geschosse haben eine hohe Durchschlagskraft, wenn sie schwer sind und auf kleiner Fläche wirken. Daher sind in der Munition Elemente mit hohem spezifischem Gewicht sehr geeignet, also Blei. Einige Elemente haben aber noch etwa das doppelte spezifische Gewicht von Blei, das sind Wolfram, Rhenium, Osmium Iridium, Platin, Gold und auch Uran. Von diesen Stoffen ist gerade Uran verfügbar und zwar die abgereicherte Komponente aus den Anreicherungsanlagen, die nur noch eine Restmenge spaltbares U-235 enthält. Dieses ist zudem billig, daher hat man es in Munition eingebaut und diese in Kriegen auch benutzt. Es wird gesagt, daß Urangeschosse sich beim Aufprall pulverisieren und dieses Pulver in der Luft dann den tödlichen Staub ergibt. Der Bericht in DIE WELT sagt im Text klar und deutlich, daß bei der Verwendung uranhaltiger Munition in Kriegsgebieten noch nie eine Belastung der Luft oder gesundheitlicher Schaden bei den Soldaten festgestellt wurde.

 

Deutsche Fachleute haben Spurenanalytik des Urans betrieben und dazu berichtet [1].

Dieser exzellente Bericht der Fachleute vom GSF-Forschungszentrum (heute Helmholtz-Gesellschaft) enthält alle Meßdaten und gibt einen umfassenden Überblick zum Problem:

Uran ist als seltenes Element überall in der Umwelt vorhanden, in der Erdkruste kommt es mit einem mittleren Masseanteil von 3 bis 4 * 10-4% vor. Das bedeutet, in einem normalen Grundstück von 500 m² Fläche befinden sich in der obersten ein Meter dicken Bodenschicht 3 bis 4 kg Uran. Das allgegenwärtige Uran wird zu einem kleinen Anteil von Pflanzen aufgenommen, und wir finden es in unserem Speisen und Getränken. Im Mittel nimmt ein Mensch so täglich 1 Mikro-Gramm Uran in seinen Körper auf, und scheidet es auch wieder aus. Die Konzentrationen von Spurenelementen schwanken sehr stark in der Natur, daher können die hier genannten Werte für Uran im Einzelnen durchaus eine Größenordnung kleiner wie auch größer sein. Die Messungen in [1] belegen das.

 

Unsere Welt ist voller Radioaktivität.

Überall befinden sich radioaktive Nuklide. In der Luft ist es hauptsächlich das Edelgas Radon mit 20 Becquerel/m³ Luft im Freien und 50 Becquerel/m³ Luft in Innenräumen. Im Stollen des Heilbades Bad Kreuznach sind es 40 000 Becquerel/m³ im Stollen. Die alpha-Strahlung des Radons sorgt für die Heilwirkung.

Im Erdboden ist am meisten Radioaktivität enthalten, es sind ca. >2000 Becquerel/kg Erde.

Man kann berechnen, wie viel Radioaktivität der Mensch in einem Jahr von den wichtigsten Nukliden in seinen Körper aufnimmt:

durch Uran als Spurenelement in der Nahrung                     10 Becquerel

durch lebensnotwendiges Kalium-40 mit Nahrung    30 000 Becquerel

durch Kohlenstoff-14 mit Nahrung                             25 000 Becquerel

durch das Edelgas Radon in der Atemluft                 250 000 Becquerel

durch Radon-Zerfallsprodukte in der Atemluft                       350 000 Becquerel

Die Zahlen zeigen, daß die Strahlung des Urans neben den anderen Stoffen getrost vergessen werden kann.

In einem normalen Grundstück von 500 m² Fläche befinden sich in der oberen einen Meter dicken Bodenschicht 3 bis 4 kg Uran. Wenn man die Schwankungsbreite der Urankonzentration in der Erdkruste berücksichtigt, kann man auch von 0,3 kg bis 30 kg sprechen. Durch ein Urangeschoss auf dem Grundstück wird die gesamte Menge um etliche Gramm erhöht. Das ist angesichts des vorhandenen gesamten Urans meist im Bereich von kg belanglos.

Geschosse sind immer für Menschen extrem gefährlich, denn sie können davon getroffen werden. Das Material der Geschosse – Blei oder Uran – ist fast nebensächlich. Der „Staub des Todes“ ist eine konstruierte hypothetische Gefahr, die aus demagogischen Gründen erfunden wurde, um die Strahlenangst als treibende Kraft zum Ausstieg aus der Kernkraft zu erhalten.

In der Strahlenschutzverordnung [2] werden Grenzen die erlaubten Grenzwerte für die zulässige jährliche Aktivitätszufuhr durch Verspeisen angegeben, das sind 25gfür lösliche Uranverbindungen und 250gfür unlösliche Uranverbindungen (z.B. der Kernbrennstoff UO2). — Niemand wird jemals so viel Uran verspeisen, und Staub in der Luft im Bereich von Millionstel Gramm ist bedeutungslos.

 

Auch abgereichertes Uran ist ein Wertstoff

Im abgereicherten Uran ist nur noch eine kleine Restmenge von ca. 0,2% spaltbares Uran-235 enthalten, der Rest ist nicht spaltbares Uran-238. Häufig wird daher das abgereicherte Uran als Abfall bezeichnet. Diese Sichtweise ist falsch. Im Leichtwasserreaktor – wie er in Deutschland betrieben wird – wird aus dem U-238 durch Neutroneneinfang Plutonium erbrütet, und das ist auch spaltbar. Daher ist auch der Leichtwasserreaktor zu einem geringen Anteil ein Brüter, etwa ein Drittel der Energie wird im normalen Betrieb aus der Spaltung von Plutonium gewonnen.

Beim Schnellen Brüter und mit vollständigem Brennstoffkreislauf kann auch das abgereicherte Uran nach Überführung in Plutonium gespalten werden und die Reichweite des Urans auf über das 100-fache erhöht werden. In Deutschland sollte diese Technik entwickelt und benutzt werden, allerdings wurde das Programm von der Politik gestoppt (Kalkar, Wackersdorf).

Heute ist Rußland führend beim Brüterprogramm (Stichwort: BN-600 und BN-800), andere Staaten wie China und Indien folgen. In Rußland wird abgereichertes Uran aus westlichen Anreicherungsanlagen (z.B. in Gronau) gehortet und gelagert, bis es in ferner Zukunft im Brüter zum Einsatz kommen kann. Das ist eine kluge Wirtschaftspolitik, weil sie sehr weit voraus denkt.

 

Es ist klug, das abgereicherte Uran aufzuheben, und nicht durch Geschosse wieder in der Umwelt zu verteilen, aus der es ursprünglich durch Bergbau mit viel Aufwand entnommen worden ist.

 

Durch die direkte Endlagerung tief unter der Erdoberfläche von abgebrannten Brennelementen ohne Wiederaufarbeitung – wie es in Deutschland durch Gesetz festgelegt ist – wird in der Tiefe ein Rohstofflager für Energie geschaffen, das in ferner Zukunft wieder an die Oberfläche geholt werden muß, denn diese Energie ist zum Leben dringend notwendig. Der in Deutschland von der Politik favorisierte „Der Übergang vom atomaren und fossilen Zeitalter ins Solarzeitalter“ hat keine Aussicht, jemals gelingen zu können.

 

Literatur

[1] P. Roth, E. Werner, H.G. Paretzke; “Untersuchungen zur Uranausscheidung im Urin“, Deutsches Heereskontingent KFOR, Januar 2001, GSF-Bericht 3/01

[2] Strahlenschutzverordnung1989, wird demnächst durch ein Strahlenschutzgesetzabgelöst, mit vermutlich strengeren Bestimmungen

 




Frank Hennig im Interview mit kernenergie.de über Energiewende

In der Antwort der Bundesregierung auf eine kleine Anfrage nach den Kosten der Energiewende vom Dezember 2017 wird ausgeführt, dass diese nicht berechnet werden können. Was ist Ihre Einschätzung hinsichtlich der Kosten?

Die Antwort der Bundesregierung ist ein Eingeständnis der mangelnden Übersicht und Kontrolle über die weltweit einzigartige und nationalstaatlich angelegte Energiewende. Es gibt keinen Masterplan, somit keine Kostenkalkulation und -kontrolle. Professor Fratzscher vom DIW bezeichnete die Energiewende als „Experiment“ und hat damit eine meines Erachtens sehr treffende Bezeichnung gefunden. Nach der Methode des „Trial-and-Error“ tastet sich die Bundesregierung staatsplanerisch voran und hofft auf Erfolg. Experimenten ist allerdings eigen, dass ihr Ausgang offen ist.

Bei der im Grunde nur begonnenen Stromwende dürfte es in der Tat äußerst schwierig sein, alle Kostenbestandteile umfänglich zu erfassen. Neben den vergleichsweise leicht ermittelbaren Posten wie EEG-Umlage und Redispatchaufwand sowie Kosten für Netzstabilitätsanlagen, Reservekraftwerke und Sicherheitsbereitschaften gibt es weitere indirekte Kosten, die schwer zu erfassen sind.

Da ist zunächst die Fülle nicht überschaubarer direkter Subventionen und Förderungen auf allen Ebenen von der EU bis zu den Kommunen, von Förderprogrammen aus Brüssel bis hin zu Agenda-21-Zahlungen in Städten und Gemeinden für den Einsatz regenerativer oder emissionsarmer Energieanlagen. Die Auflistung KfW-geförderter Maßnahmen für den Einsatz von Ökoenergien ist umfangreich. Finanzspritzen für Ökoindustrieanlagen gibt es fast immer.

Die indirekten Kosten der Energiewende sind vielfältig und nicht in ihrer Gesamtheit darstellbar. Die Frage beispielsweise, welcher Netzausbau ohnehin erforderlich gewesen wäre und wie weit der Zubau dezentraler volatiler Erzeugung den Ausbau insbesondere der Mittel- und Niederspannungsebene zusätzlich erforderlich macht, ist nicht seriös zu beantworten. Ebenso die Bewertung der Verluste kommunaler Stadtwerke durch den verfallenen Börsenstrompreis und Investitionen von Kommunen und Bürgerenergiegesellschaften in Windindustrieparks, die in etlichen Fällen defizitär sind. Unterbliebene Investitionen in die konventionelle Energiebranche wie auch in der energieintensiven Industrie (siehe Abwanderung der Karbonfaserproduktion) sind ebenso monetär nicht erfassbar.

Betroffen vom niedrigen Großhandelspreis beim Strom sind die großen Versorger mit noch nicht abgeschriebenen Wärmekraftwerken und insbesondere Gaskraftwerken, die auf Grund des hohen Brennstoffpreises am Markt nicht mehr bestehen können. Dies ist aus Sicht der Emissionen kontraproduktiv, aber durch den Markteingriff des EEG logische Folge. Auch die verminderten Steuereinnahmen von Unternehmen der konventionellen Energiewirtschaft sind indirekte Kosten der Energiewende. Die deutschen Industrie- und Gewerbestrompreise für nicht umlagebefreite Kunden sind die zweithöchsten in Europa und kosten Wachstum und Beschäftigung.

Hinzu kommen die Wertverluste an Immobilien im ländlichen Raum, die nur noch unter Verlust oder gar nicht mehr verkäuflich sind, weil manche Gemeinden von Windkraftanlagen umzingelt sind.

Auch drastische Fehlsteuerungen des EEG, zum Beispiel die nach Überförderung 2012 geplatzte Solarblase, kosten Geld. Nicht zuletzt sind die Kosten des Kernenergieausstiegs für den Steuerzahler durch grobe handwerkliche Fehler der Bundesregierung im Rahmen des Atommoratoriums 2011 auf noch nicht bezifferbare Höhe gestiegen. Desweiteren könnten Kosten für den Steuerzahler daraus entstehen, dass Abschalttermine von Kernkraftwerken nicht mit den im Atomkompromiss 2002 vereinbarten Reststrommengen übereinstimmen.

Zudem gibt es keinerlei Anzeichen dafür, dass sich die Bundesregierung bemüht, die Endlagerkosten zu begrenzen.

Absehbar ist, dass im weiteren Verlauf der Energiewende die Kosten, direkte wie indirekte, weiter steigen werden. Wie schnell und wie weit, wird auch die Bundesregierung nicht vorhersagen können. Fakt ist: Wind und Sonne schicken keine Rechnung, sind aber nicht kostenlos – nach deutscher Energiewendemethodik nicht mal kostengünstig.

Für das Jahr 2017 melden deutsche Netzbetreiber zum Teil stark steigende Kosten für Noteingriffe ins Stromnetz. Was sind die primären Ursachen für diese Kosten und wie lassen sie sich aus Ihrer Sicht reduzieren?

Die steigenden Kosten für die Netzeingriffe sind verursacht durch die fehlende Koordinierung des Zubaus volatiler Erzeuger mit dem Netzausbau. Auch hier fehlt der Masterplan, der die 16 Energiestrategien der Länder mit der Bundesstrategie und den Netzausbauplänen zusammenführt.

Die Eigentümer regenerativer Anlagen müssten zeitnah unternehmerische Verantwortung und entsprechendes Risiko übernehmen. Bisher gilt: „Build and forget“, das heißt, nach dem Bau der Anlagen folgt das Kassieren. Um Ableitung, Vermarktung, Verkauf und Abrechnung des Stroms, inklusive der nötigen Netzdienstleistungen müssen sich andere kümmern. Und selbst bei netztechnisch nötigen Außerbetriebnahmen von Anlagen werden Einspeisevergütungen weitergezahlt. Dies ist ein krasser Webfehler im EEG, der dringend behoben werden muss.

Eine sinnvolle Lösung wäre die Abschaffung des EEG und die Verabschiedung eines Folgegesetzes, das Forschung fördert und grund- und regellastfähige Einspeisung anreizt.

Der steigende Anteil der regenerativen Energien an der Stromerzeugung in Deutschland scheint darauf hinzudeuten, dass die Energiewende in ihrer jetzigen Form erfolgreich sein könnte, trotz der voraussichtlichen Zielverfehlung hinsichtlich der Reduktion der Treibhausgase zum Jahr 2020. Würden Sie diese Deutung teilen?

Nein. Ich halte es für einen Trugschluss, auf der Basis zugebauter installierter Leistung den Trend einfach hochzurechnen bis zu 100 Prozent. Es wird vergessen, dass dazwischen ein Systemwechsel liegt. Bisher wird der volatile Strom in ein vorhandenes, durch konventionelle Erzeugung stabilisiertes Netz eingebettet und mit Netzdienstleistungen versehen. Künftig müssen diese Leistungen auch von den Erneuerbaren kommen, wobei weder technisch noch regulativ Entwicklungen in diese Richtung zu beobachten sind.

Der größte Teil erneuerbarer Einspeisung ist volatil und bringt etwa 35 Prozent an elektrischer Arbeit im Jahresdurchschnitt, schwankend zwischen etwa zehn bis fast hundert Prozent. Dies macht ein dauerhaftes Backup-System erforderlich. Der weitere unkoordinierte Ausbau volatiler Einspeiser würde zeitweise zu erheblichem Überangebot führen, das Backup aber nicht überflüssig machen. Bei Windstille ist die Anzahl stehender Windkraftanlagen uninteressant.

Die Finanzierung der Fixkosten beider Systeme ist ein volkswirtschaftlicher Ballast, der auf diese Weise nicht zu vermeiden ist und im Trend weiter steigen wird. Sollten konventionelle Kraftwerke künftig durch riesige Speicherkapazitäten ersetzt werden können, fallen auch für diese erhebliche Kosten an.

In jedem Fall besteht dringend die Aufgabe, die regenerativen Erzeuger an die Regelfähigkeit und die Erbringung von Netzdienstleistungen heranzuführen – schließlich sollen sie dereinst vollversorgen. Wann das soweit sein wird, sollte man nüchtern an Hand der weiteren Entwicklung bewerten und nicht von Wunschdenken geleitete Termine setzen.

Der Beitrag erschien zuerst auf Kernenergie.de




Klima­retter – Lebens­retter. Ärzte sollen Fossil-Ausstieg fordern

Es ist wichtig, auch das Gesundheitswesen in den Kampf gegen die Klimaerwärmung einzubinden …

… sagte der Präsidenten der Bundesärztekammer in einem Interview. Aufgespürt hat es eine bekannte (Des-)Informationsseite, durchgeführt wurde es vom Debattenmagazin der Umweltbewegung, movum:
KLIMARETTER.INFO, 30. März 2018: [1] Ärzte sollten Fossil-Ausstieg fordern
Dabei geht es um das Projekt „KLIMARETTER – LEBENSRETTER“, dessen Schirmherr der Präsidenten der Bundesärztekammer ist. Da dieses klimaalarmistisch angelegt ist, wird dieses Projekt selbstverständlich auch vom Umweltministerium gefördert.

Interview (sehr stark gekürzter Auszug):
[1] klimaretter.info: Herr Montgomery, Sie sind Schirmherr des Projekts Klimaretter – Lebensretter. Was sind Ihre Ziele? Ist der Klimaschutz ein Thema in der Ärzteschaft?
Frank Ulrich Montgomery: Natürlich ist er das, denn Klimaschutz geht uns alle an. Deshalb ist es wichtig, auch das Gesundheitswesen in den Kampf gegen die Klimaerwärmung einzubinden, von den Arztpraxen über die Krankenhäuser bis zu den Unternehmen im Gesundheitssektor.
Wir sprechen hier von rund 230.000 Einrichtungen – eine riesige Zahl, die wir über Multiplikatoren ansprechen wollen. Die Stiftung
Viamedica plant darüber hinaus auch einen nationalen Klimaretter-Tag und einen Preis für Klimaretter …

„Ärzte sollten Fossil-Ausstieg fordern“

Unverhohlen plädiert der Präsident der Bundesärztekammer dann für Agitation und Politisierung des Gesunheitswesen.
Interview (sehr stark gekürzter Auszug): [1] … Wie bewerten Sie die Gesundheitsgefahren durch den Klimawandel? Sollte sich die Ärzteschaft für den Ausstieg aus den fossilen Brennstoffen engagieren?
Montgomery: … Kein Zweifel: Der Klimawandel ist real, er ist von Menschen gemacht und gefährdet unsere Gesundheit. Nehmen Sie als Beispiel nur die Zunahme von Starkregen in vielen Ländern, auch in Deutschland. Das führt zu Überschwemmungen, verursacht großes Leid und kostet Menschenleben.
Deshalb sollte sich auch die Ärzteschaft für den Ausstieg aus den fossilen Brennstoffen engagieren. Nicht nur sie, sondern alle am Gesundheitswesen Beteiligten sollten sich für mehr Klimaschutz starkmachen.

Kein Zweifel: Der Klimawandel ist real, er ist von Menschen gemacht und gefährdet unsere Gesundheit

Wieder eine „Intelligenz“, welcher es ganz sicher weiß, so sicher, dass sie sich traut, es anderen vorzuschreiben.
Dazu nennt Herr Montgomery als Beleg: „ … Beispiel nur die Zunahme von Starkregen in vielen Ländern, auch in Deutschland …“

Wegen dieser Behauptung hat der Autor extra seine Sichtungen zum Starkregen in Deutschland aktualisiert und auf EIKE veröffentlicht:
EIKE 18.04.2018: [5] Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2) und Teil1

Es ist ziemlich sicher, dass Starkregenereignisse in Deutschland nicht zugenommen haben, nicht zunehmen und auch keinerlei Anzeichen dafür bestehen. „Schlimmer noch“, Starkregenereignisse nehmen in Deutschland seit Jahrhunderten ab. Alle „Zeichen“ für das Gegenteil stammen ausschließlich aus Computersimulationen, die das wahre Wetter und Klima ausblenden.
Während Staatsinstitute, wie der DWD und das Umweltbundesamt, wider besseren Wissens das behaupten, was die Politik hören will, gibt es ab und zu Medien, welche von der Wirklichkeit berichten:
wetteronline, Montag, 01.06.2015: Bericht des Umweltministeriums Mehr Wetterextreme als früher?
… Es ist jedoch sehr problematisch Wettererscheinungen mit dem Klimawandel in Verbindung zu bringen, denn Wetter und Klima sind zwei völlig verschiedene Dinge. Während sich Wetter auf einer Zeitskala von einigen Tagen bis wenigen Wochen vollzieht, findet Klima in Zeiträumen von Jahrzehnten statt. Klimaänderungen werden daher naturgemäß erst im Laufe vieler Jahrzehnte bis Jahrhunderte, größere Schwankungen sogar erst nach Jahrtausenden sichtbar. Daher sind Wetterkapriolen zur Begründung einschneidender Klimaschutzmaßnahmen gänzlich ungeeignet. … Ungeachtet der Tatsache, dass sich das Klima der Erde derzeit mit durchaus beunruhigender Geschwindigkeit erwärmt, gibt es bislang aber noch keine belastbaren Beweise dafür, dass die Zahl der Wetterextreme – wie von Klimawissenschaftlern befürchtet – bereits nachweislich zugenommen hat. Unwetter mit Starkregen oder großem Hagel sowie zerstörerische Stürme hat es seit Menschengedenken schon immer gegeben. Selbst starke Tornados sind in Europa keineswegs neu. Das gleiche gilt für längere Hitzewellen oder Ernteausfälle durch Dürren …
Und das gilt rund um die Welt, wie es der IPCC AR5 Langbericht detailliert ausweist [9].

Gefährdet der „Klimawandel“, oder eher typisches, weithin bestehendes Regierungsversagen in vielen Ländern die Gesundheit?

Herrn Montgomerys weitere Behauptungen: „ … er ist von Menschen gemacht und gefährdet unsere Gesundheit … “,
ist ebenfalls eine reine Floskel und hat mit der Wirklichkeit nichts zu tun. Lassen wir die Diskussion zu „menschengemacht“ beiseite, eine Gefährdung unserer Gesundheit durch den ausgerufenen AGW-Klimawandel konnte noch niemand wirklich belegen. Und die meisten und schlimmsten Seuchen der europäischen Geschichte waren weit vor dem Klimawandel. Eher glaubhaft ist immer noch das Gegenteil:
kaltesonne, 10. April 2018: Anzahl von klimabedingten Todesfällen nimmt weltweit weiter ab
EIKE 21.07.2015: Ruhestand im Süden kann tödlich sein – Wetterdienst glaubt Klimawandel tötet alte Menschen
EIKE 13.01.2016: [6] Munich Re Presseinfo: Natur fordert mehr Opfer – Naturkatastrophen wie Erdbeben, Überschwemmungen und Hitzewellen haben 2015 deutlich mehr Menschenleben gekostet als im Vorjahr

Vor allem eine der wirklich noch bestehenden, weltumspannenden großen Geißeln nimmt (wohl nicht durch den „Klimawandel“, aber damit eng korreliert) rasant ab, obwohl behauptet wird (zum Beispiel von M. Mann und Herrn Schellnhuber, PIK), sie müsse durch den Klimawandel zunehmen: Gemeint ist die Malaria.

In Ländern, welche mit Engagement Maßnahmen ergreifen, belegt sich, dass das Gegenteil der Aussagen von Klimasimulationen eintritt. Wie bei der Malaria, welche erfolgreich eingedämmt werden kann.
Grafiken und etwas Info dazu aus [3]:
WUWT Anthony Watts / May 22, 2010: [4] Mann’s 1.8 million Malaria grant – “where do we ask for a refund’?

Thomas Fuller of the San Francisco Examiner has a great piece which summarizes the issue of climate and malaria and Mann. Like with the imagined increase in hurricane frequency due to global warming, so it goes with malaria. There’s no correlation. The premise is false
The researchers —
whose work was published in Nature yesterday (20 May) — found that despite global warming, the prevalence of malaria decreased, which they attribute to disease and mosquito control programmes.

Bild 1 [3] Weltweite Abnahme der Malariaverbreitungsgebiete seit 1850
Bild 2 [3] Weltweite Abnahme der Malariafälle seit dem Jahr 2.000. Quelle: OUR WORLD IN DATA December 2017 : Malaria by Max Roser and Hannah Ritchie

Unter Klimaaktivisten hat es Methode, einfach Behauptungen in den Raum zu stellen …

weil sie wissen, dass solche von den Medien gerne und mit Eifer publiziert werden. Ein ganz schlimmes Beispiel lieferte dazu ein Gewinner des alternativen Nobelpreises:
EIKE 27.09.2016: [7] Der Krieg des Klimas gegen die Menschheit Über den weltweit bekanntesten (und wohl aggressivsten) Klimaaktivisten Bill McKibben
… der ohne eine Spur von Belegen behauptete: … „Der Feind
(gemeint ist der angeblich menschengemachte Klimawandel) setzt sogar Bio-Waffen ein, um psychologischen Terror zu verbreiten: Der Zika-Virus lässt auf einem ganzen Kontinent die Köpfe von Neugeborenen schrumpfen ... Die Krankheit ist der Grund, warum Regierungen in Lateinamerika und der Karibik ihren Bürgerinnen offiziell empfehlen, nicht schwanger zu werden. Wir haben es so weit kommen lassen, dass Kinder bekommen – die schönste und grundlegendste Sache der Menschheit – vom Klimawandel in Frage gestellt wird. Das kann ich einfach nicht fassen” ...
In einem Zeitungsartikel zu dieser Thematik ist der von McKibben genannte „ganze Kontinent“ auf sechs nachgewiesene Fälle geschrumpft:
[7] ZEIT ONLINE 29. Januar 2016: Zika-Virus: Das Märchen von den 4.000 geschädigten Babys
… Bei den verbleibenden 270 Meldungen besteht aufgrund von Ultraschall-, Röntgen- oder Laboruntersuchungen der begründete Verdacht auf eine Verkleinerung des Schädels oder eine infektiöse Schädigung des Nervensystems. Bei sechs dieser Fälle wurde das Zika-Virus nachgewiesen.
Warum die das Zikavirus (im Wesentlichen jedoch Gelbfieber) verbreitende Mücke in Brasilien einen guten Nährboden vorfindet, hat mit einem Klimawandel nichts zu tun:
[7] … Aedes aegypti hat sich an die Großstätte Lateinamerikas perfekt angepasst. Während der Malaria-Überträger Anopheles nur auf besonders sauberen Naturgewässern brütet, liebt Aedes schmutzige Pfützen in alten Autoreifen, vergammelten Blumentöpfen und weggeworfenen Coladosen. Als echter Großstädter ist Aedes tag- und nachtaktiv und so nervenstark, dass ihn auch verzweifeltes Wedeln und Schütteln kaum vertreiben kann. Das Versprühen von Insektiziden, das vor der Karnevalszeit an den touristisch wichtigen Punkten wie ein Ritual zelebriert wird, bringt langfristig nichts, solange die Nistplätze in den Favelas unbehelligt bleiben. Gegen die Aedes-Plage in Brasiliens Metropolen gibt es nur ein wirksames Mittel: gründlich Aufräumen. Doch mit den entsprechenden Aufrufen sind bereits mehrere Regierungen gescheitert.
Und natürlich nicht erwähnt wird, dass das durch diese Mücke übertragene Gelbfieber bezüglich der Gefährdung um Dimensionen schlimmer ist:
[7] … Dass das Zika-Virus neben den anderen, von dieser Mücke übertragbaren Krankheiten das wohl kleinste Problem ist, lässt sich auch nachlesen. Aber diese tödlichen Krankheiten kennt man als „alltägliche Tropenkrankheiten“, weshalb man dagegen keine Massen mobilisieren kann …
Mit dem von der gleichen Mücke übertragenen Dengue-Fieber haben sich in Brasilien alleine im Jahr 2016 ca. 1,5 Millionen Einwohner angesteckt, ca. 80 Personen sind daran gestorben [8].

Fazit

Der Präsidenten der Bundesärztekammer mutiert zum Aktivisten und hebt sich leider in keiner Weise von deren typischen Vorgehen ab, indem er um irgendwelcher Vorteile willen, in seiner Argumentation jegliche Seriosität vermissen lässt. Ihm reicht es, die gängigen, oft zu hörenden „Standardargumente“ nachzuplappern. Dabei würde man gerade bei Personen in solchen Positionen erwarten, dass sie irgendwann auch beginnen, solche zu hinterfragen.
Es bleibt erschütternd, mitzuerleben, wie unsere „Intelligenz“ in Deutschland zunehmend zu politischen Sprachbütteln einer vorgegebenen Einheitsmeinung degeneriert.

Eine der wohl dümmsten „Wissenschaftstaten“ der Geschichte: Auf Computern den Weltuntergang in beliebigen Varianten simulieren und dazu die Rettung versprechen, indem die Menschheit allen Grünpflanzen ihren lebensnotwendigen Luftdünger CO2 reduzieren soll, trägt ihre Früchte. Massenhysterie durch die Vorhersage von Weltuntergängen gab es zu allen, geschichtlichen Zeiten. Wichtig waren dabei immer einfach zu verstehende Erklärungen. Und einfacher als mit drei Buchstaben „CO2“ geht nimmer.
Und nicht selten ist nicht nur das Volk, sondern auch die „Intelligenz“ den sich dann ernennenden „Rettern“ blind hinterhergerannt. Warum sollte dieser auf Psychologie beruhende Kreislauf plötzlich zu Ende sein.

Quellen

[1] KLIMARETTER.INFO, 30. März 2018: Ärzte sollten Fossil-Ausstieg fordern

[2] viamedica – Stiftung für eine gesunde Medizin. Projekthomepage: Klimaretter – Lebensretter

[3] EIKE 29.03.2018: Klimaleugner befinden sich in der ersten Phase der Klimatraumatisierung

[4] EIKE 13.03.2018: Ärzte brauchen auf den Klimawandel medizinische Antworten

[5] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)

EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 1)

[6] EIKE 13.01.2016: Munich Re Presseinfo: Natur fordert mehr Opfer – Naturkatastrophen wie Erdbeben, Überschwemmungen und Hitzewellen haben 2015 deutlich mehr Menschenleben gekostet als im Vorjahr

[7] EIKE 27.09.2016: Der Krieg des Klimas gegen die Menschheit Über den weltweit bekanntesten Klimaaktivisten Bill McKibben

[8] Zeit Online 24. Januar 2017: Erst Zika, jetzt Gelbfieber: Wie gefährlich ist das?

[9] EIKE 25.11.2016: Das heißeste Jahr, aber die niedrigste Tornadorate – obwohl nach der Theorie beides gleichzeitig höher werden muss




Schadstoffhysterie fördert Mangelerkrankungen

Über Jahrzehnte habe ich zusammen mit einem Mediziner eine Vorlesung über Prothesen gehalten, die als „Ersatzteile“ in den Körper eingebaut werden. Ich habe die Hörer über die Werkstoffeigenschaften aufgeklärt und mein Partner hat die Operationsmethoden erläutert. Eines Tages kam er mit einem Problem, das ihn schon lange plagte. Er hatte nach einigen einfachen und problemlosen Operationen ungeklärte Todesfälle, als die Patienten zum ersten Mal wieder auf die Füße gestellt wurden. Er suchte immer noch nach der Todesursache. Die einzige signifikante Abweichung von der Norm war bei diesen Patienten ein geringer Zinkgehalt im Blut. Er fragte, wie kann man den Verdacht, Zinkmangel sei die Ursache für die Todesfälle, erhärten.

 

Zink

Diese Frage wurde als Diplomarbeit von einem Studenten bearbeitet. Er analysierte 800 Patientendaten mit Hilfe von Regressionsrechnungen. Er konnte nachweisen, dass die Todesrate bei Zinkmangel signifikant anstieg. Die medizinische Literatur gibt dann auch die Antwort auf das Warum?

Zink bildet in einer Reihe von Enzymen eine entscheidende Wirkungsgruppe. Enzyme sind Eiweiße, die als Katalysator wirken. „Katalysatoren sind Stoffe, die chemische Reaktionen ermöglichen oder beschleunigen, ohne sich selbst dabei nach Art und Menge zu verändern.“ Diese Definition mussten wir in der Schule auswendig lernen. Solche zinkaktiven Enzyme ermöglichen das Ausatmen von Kohlenstoffdioxid (CO2). Sie beschleunigen in der Lunge die Aufspaltung von Kohlensäure (H2CO3) in Kohlenstoffdioxid (CO2)und Wasser (H2O) um sechs Zehnerpotenzen.

Wenn nun Patienten nach einer Operation zum ersten Mal wieder aufstehen, ist das eine recht hohe Belastung. Der Körper verbraucht plötzlich mehr Sauerstoff. Im Blut wird Kohlensäure angereichert. Die Abscheidung von CO2  in der Lunge ist jedoch bei Zinkmangel zu langsam und damit unzureichend. Das Blut wird immer saurer. Dies ist ein Signal für den Körper, den Herzschlag zu beschleunigen. So wird die Verweilzeit des Blutes in der Lunge noch kürzer mit der Folge, dass noch weniger  CO2abgeschieden wird. Es kommt zu einer Todesspirale.

Zink ist vor allem in Muskelfleisch und Innereien. Vegetarier haben hier ein Problem, dem Körper genügend Zink zuzuführen. Es gibt nur wenige Gemüsesorten mit genügend Zink.

 

Spurenelemente

Mit dieser Darstellung von Mangelerscheinungen sind wir beim Thema. In unserem Körper sind alle Elemente in den gleichen Anteilen wie in der Erdrinde vorhanden. Das hat Prof. Dr. Michael Ungethüm, langjähriger Vorstandsvorsitzender der Aeskulap-Werke, in seiner Doktorarbeit nachgewiesen. Nur Zink ist in unserem Körper gegenüber der Erdrinde wesentlich angereichert.

Unser Körper muss mit den vielen Elementen und deren Verbindungen klar kommen. Er nimmt sie nicht nur auf und scheidet sie wieder aus, sondern er nutzt viele Stoffe, die im Überschuss schädlich wirken, für die Optimierung der Körperfunktionen. Dazu gehören natürlich auch die Umwelteinflüsse, wie Staub, Strahlung und die Zusammensetzung der Luft.

Im Prinzip reagiert der Körper auf alle Stoffe und Umwelteinflüsse nach dem gleichen Schema. Er nutzt die Stoffe und Einflüsse zur Regelung der Körperfunktionen. Wenn diese Stoffe fehlen, kommt es zu Mangelerscheinungen. Sind sie im Überfluss vorhanden, die der Körper nicht mehr verkraften kann, werden sie zum Gift.

 

 

Die Skizze (oben) zeigt das Prinzip vom Mangel zum Gift. Für einige Stoffe und Umwelteinflüsse sind Mangelerscheinungen bekannt.

Eisen

Eisen des Hämoglobins in den roten Blutkörperchen transportiert Sauerstoff von der Lunge zu den Zellen, wo er zu CO2 verbrennt. Bei Eisenarmut gibt es Sauerstoffmangel. Schlaffheit und Ermüdung sind die Folge.

Strahlung

Bekannt ist auch die Wirkung von ultravioletter Strahlung (UV-Strahlung) zur Eigenproduktion des Vitamins D. In der dunklen Winterzeit wird nicht genügend Vitamin D produziert. Daher suchen die Menschen im Frühling die stärker werdende  Sonne. Zuviel UV-Strahlung verbrennt allerdings die Haut und kann zu Hautkrebs führen. Dann ist die Strahlendosis im „giftigen“ Bereich.

Die härtere Gamma-Strahlung, auch als Röntgenstrahlung bekannt, dringt tief in den Körper ein. Trifft solche Strahlung auf einen Zellkern, wird die Zelle defekt. Da Strahlung aus dem Weltraum wie auch aus radio-aktiven Isotopen unserer Umwelt ständig auf uns einwirkt, hat sich der Körper auf die Beseitigung solcher Schäden eingestellt. Er repariert oder ersetzt die defekten Zellen. Der gleiche Mechanismus beseitigt auch infizierte Zellen. Erst wenn die Strahlendosis so hoch wird, dass der Körper mit der Beseitigung der Schäden nicht mehr mitkommt, gibt es gesundheitliche Probleme. Durch erhöhte Strahlendosen wird der Reparaturmechanismus verstärkt, niedrigere Dosen schwächen ihn. Menschen, die im Sommer an der See oder im Gebirge, also unter erhöhter Strahlenbelastung Urlaub machen, kommen besser durch den Winter. Auch eine Kur im Erzgebirge mit stärkerer Strahlung aus den Gesteinen oder in Radon Bädern hilft in gleicher Weise. In weiten Teilen Deutschlands ist die natürliche Strahlung gering. Viele medizinische Berichte zeigen, dass bei einer höheren Strahlenbelastung die Raten von Erkältungen und sogar Krebs sinken.

Bei dieser Sachlage ist es vom Bundesamt für Strahlenschutz unverantwortlich, vor jedem Strahlungsquant zu warnen. Das Amt beharrt auf der LNT-Hypothese (Linear, No-Threshold). Sie besagt, wenn der Körper eine bestimmte Strahlungsmenge aufgenommen hat, stirbt er. Es ist egal, in welcher Zeit diese Strahlenmenge absorbiert wurde. Übersetzt in das tägliche Leben heißt das: Zwei Flaschen Schnaps sind eine tödliche Menge, wenn ich den Schnaps an einem Abend trinke. Nach dem LNT Modell bin ich aber auch tot, wenn ich den Schnaps mit einem Gläschen pro Tag innerhalb eines Jahres trinke. Mit dem LNT-Modell haben das Bundesumweltamt, Greenpeace und andere Organisationen hunderttausende Tote durch radioaktive Strahlung nach Reaktorunfällen und Atombombenexplosionen errechnet, die es nie gegeben hat.

Mit anderen Stoffen wird ähnlich verfahren und damit nicht nur unsinnige, sondern auch gesundheitsgefährdende Umweltpolitik gemacht. Als schädlich eingeschätzte Stoffe werden gesetzlich bis an die Nachweisgrenze aus unserem Umfeld verbannt. Mit besseren Analysenmethoden werden die Konzentrationen immer weiter herabgesetzt. In immer mehr Fällen liegt man dann im Mangelbereich. Es treten Gesundheitsprobleme auf, deren Ursachen nicht erkannt werden, weil viele Mangelerscheinungen noch nicht erforscht sind. Die Zunahme von Allergien dürfte dazu gehören.

 

Kohlenstoffdioxid (CO2)

Auch das viel diskutierte Gas CO2führt zu Mangel und Vergiftungen. Es hat in der Luft einen Anteil von 0,04 Volumen-Prozent (1 CO2–Molekül auf 2500 Luftmoleküle). Direkte Mangelerscheinungen auf den Menschen durch zu geringe Anteile sind nicht bekannt.

Doch indirekt gibt es ein großes Problem. CO2in der Luft ist wesentlicher Bestandteil des Pflanzenwuchses und damit unserer Ernährung. Ohne  CO2gibt es keine Pflanzen und damit auch keine Nahrung für Tiere und Menschen. Höhere CO2-Gehalte in der Luft fördern den Pflanzenwuchs. Der Anstieg von 0,028 Prozent auf 0,04 Prozent in den letzten beiden Jahrhunderten hat dem Pflanzenwuchs um 20 bis 30 Prozent erhöht. Ein Teil der Pflanzen hat sich auf den geringen Gehalt an CO2eingestellt. Andere brauchen aber für ein optimales Wachstum deutlich höhere Anteile.

Ab etwa 5 Volumen-Prozent beeinträchtigt CO2die Atmung und führt bei 10 Prozent schnell zum Tod.  Wir brauchen also eine Optimierung für den optimalen Pflanzenwuchs einerseits und Vermeidung von Vergiftungen andererseits.

Strittig ist bei dieser Forderung die Wirkung des CO2auf die Erderwärmung. Tatsache ist, CO2trägt zur Erwärmung der Atmosphäre durch Absorption von Wärmestrahlung bestimmter Wellenlängen bei. Die geringen CO2-Anteile in der Atmosphäre reichen jedoch bereits aus, fast die gesamte absorbierbare Strahlung in Wärme umzusetzen. Mehr CO2in der Luft kann also nicht zu einer weiteren nennenswerten Erwärmung der Atmosphäre führen, weil keine zusätzliche Strahlung vorhanden ist.

Feinstaub

Ein weiteres Beispiel dazu ist die Feinstaub-Hysterie. Wir sind in vieler Hinsicht immer natürlichem Feinstaub ausgesetzt. Blütenpollen, Ruß oder winzige Wassertröpfchen gehören dazu. Dieser Staub dringt tief in die Lunge ein. Als Fremdkörper dürfte er Reize auslösen, die zum Abhusten des Schleims in der Lunge führen. Damit wird gleichzeitig auch der Feinstaub wieder ausgeschieden. Zu geringe Feinstaubbelastungen müssen nach diesem Modell zur Verschleimung der Lunge führen. Kohlenstaub verursacht keine Lungenprobleme. Bergleute, die Jahrzehnte im Kohlestaub gearbeitet haben, zeigen dies. Dagegen wurden Bergleute, die ständig Steinstaub ausgesetzt waren, wegen Atemprobleme vielfach zu Frührentnern. Art und Menge von Feinstaub reagieren offensichtlich ganz unterschiedlich. Auch hier kann eine staubfreie Luft zu Gesundheitsproblemen führen.

Stickstoffdioxid

Stickstoffdioxid (NO2) ist das neueste „Giftgas“. Die Motoren unserer Autos und speziell der Dieselmotor, sollen davon gesundheitsgefährdende Mengen in die Luft pusten. In den USA wurde von politischen Gremien die Stickstoffdioxid-Konzentration in Auspuffgasen so weit herabgesetzt, dass diese Forderung nur mit Abgasfiltern erfüllt werden kann. Die geforderten Werte liegen weit unterhalb einer Gesundheitsgefährdung. Medizinische Untersuchungen in der Schweiz haben keine gesundheitlichen Beeinträchtigungen gezeigt bei Konzentrationen, die 250-mal höher sind als die europäischen Grenzwerte. In jedem Raum, in dem ein paar Kerzen brennen, steigt die Stickstoffdioxid-Konzentration auf das 20-fache der in den Europäischen Städten erlaubten Werte. Vor einem gemütlichen Abend bei Kerzenschein wird aber nicht gewarnt. Doch gegen die viel geringeren Gehalte auf den Straßen der Städte wird geklagt.

Eine gesundheitsgefährdende Grenze wird in unserem Lebensbereich nicht erreicht. Kraftfahrzeuge  erhöhen die Konzentration von Stickstoffoxiden nur unwesentlich. Heizungen, Kamine, Blitze haben einen deutlich höheren Anteil. Aus der Luft wird dieses Gas dann bei Regen ausgewaschen und gelangt als wichtiger stickstoffhaltiger Dünger in den Boden. Die Pflanzen geben bei ihrer Verwesung oder Verbrennung Stickstoff wieder an die Luft ab. Dieser Kreislauf wird bei der derzeitigen Diskussion gar nicht beachtet. Nach meinen Kenntnissen ist unbekannt, ob Stickstoffdioxid auch wichtige Körperfunktionen steuert. Wenn dies der Fall ist, müsste auch eine Mindestkonzentration festgelegt werden, um Mangelerscheinungen zu vermeiden.

Übrigens, der europäische Grenzwert verlangt weniger als ein Stickstoffdioxid-Molekül auf 50 Millionen Luftmoleküle!

Unbekannte Stoffe

Auf synthetische Stoffe trifft das Modell von Mangel und Vergiftung nicht zu. Die neuen Stoffe kennt der Körper nicht. Viele werden dennoch im Körper abgebaut und ausgeschieden. Manche können jedoch im Körper bleiben und sich anreichern, bis es Probleme gibt. Hier würde dann das LNT-Modell zutreffen. Arzneien werden in langen Versuchsreihen auf ihre Körperverträglichkeit getestet. Für Kosmetika, Wasch- und Lösungsmittel trifft das aber nicht zu. Hier kann es zu Unverträglichkeiten, Allergien und anderen Beschwerden kommen. Es ist sicher noch viel Forschungsarbeit zu leisten, um diese ungünstigen Einflüsse zu beherrschen.

Hans-Günter Appel




Kopfschütteln – FBI Veteranen äußern Bedenken über Jim Comeys Interview

Das fast fünfstündige Interview des ehemaligen FBI-Direktors James Comey mit ABC News ‚George Stephanopoulos stößt auf Bedenken bei Veteranen des FBIs, erzählen drei ehemalige Agenten dem Daily Caller.

„Ich bin besorgt über das Timing des Buches und einige der Inhalte, die [Comey] berichtet, weil ich denke, dass es ihn herabzieht“, sagt der ehemalige stellvertretende Direktor des FBI Ron Hosko gegenüber TheDC. Hosko stoß sich besonders an Comeys detaillierter Beschreibung des Aussehens von Präsident Donald Trump, einschließlich seiner wahrscheinlichen Verwendung von Augenschutzbrillen [bei der Nutzung von Solarien], seiner Handgröße und der Länge seiner Krawatten.

„Für mich zieht sich Jim Comey durch diese Art von anzüglichen Kommentaren selbst herab, es, wirft mehr Fragen über sein wahres Verlangen auf“, fuhr Hosko fort. Er fügte hinzu, dass Comey ein „Repräsentant der FBI-Marke“ sei und die Arbeit des derzeitigen FBI-Direktors Wray viel schwieriger mache.

„Direktor Wray würde lieber Fragen über die aktuelle Arbeit des FBI, seine Mission, Prioritäten und Herausforderungen beantworten, anstatt diese Wolke an seinem Horizont zu haben mit Fragen zu Jim Comey.“ Hosko warnte auch, dass Comeys Feindseligkeit dem Präsidenten gegenüber in dem Interview zu erkennen ist. Das unterstützt die Beschuldigungen, dass ein „deep state“ [~Schattenregierung] versucht, Trump und seine Regierung zu untergraben.

Robert Anderson, ehemaliger leitender stellvertretender Direktor des FBI, bemerkte gegenüber TheDC, dass er Comey für einen „guten Mann“ hält, und er gerne für ihn gearbeitet hat“, äußerte sich jedoch besorgt über die Entscheidung von Comey, über eine laufende Untersuchung zu sprechen.

„Normalerweise gibt es beim FBI niemanden, der über laufende Ermittlungen spricht. Wenn Jim in einem Interview etwas sagt, dann beschreibt er es in seinem Buch ganz anders, dann gibt es in einem anderen [weiteren] Interview eine andere Version und sie benutzen ihn als Zeugen, davon bin ich sicher und dann könnte das ein Problem werden für die Untersuchung zu Russland“.

„Das Schlimmste, was mich an dem Interview stört, ist, dass Jim über einige der Themen spricht, die er vertraulich mit dem Präsidenten besprochen hat, das ist ein wenig schockierend … dass der ehemalige Chef des FBI das tut.“ Der ehemalige leitende stellvertretende Direktor merkte an, dass es für ihn eindeutig ist, dass Comey so überzeugt war, dass Trump nicht für das Amt geeignet sei, dass er bereit sei, die üblichen Verhaltensnormen für einen ehemaligen FBI-Direktor zu brechen.

Der frühere FBI-Spezialagent und 25-jährige Veteran Jack Garcia äußerte sich über Comeys Interview besonders vernichtend.

„Dieser Mann hat die Reputation eines Leiters des FBI befleckt, indem er eigene Positionen vertreten und den Präsidenten der Vereinigten Staaten angegriffen hat. … es sei „verrückt“ für den ehemaligen FBI-Direktor, eine Meinung darüber zu äußern, ob die russische Regierung kompromittierende Informationen über Präsident Trump habe oder nicht.

„Unsere Mission und unsere Aufgabe besteht nur darin, die Fakten festzustellen, wir behaupten keine eigenen Meinungen„, erklärte er und scherzte, dass „Meinungen wie Hintern sind, jeder hat einen“ und „ich habe Kontakt mit vielen aktuellen und früheren Agenten, sie schütteln alle nur die Köpfe.“

Garcia nahm auch Bezug auf Comeys Verwendung von persönlichen Memos, um sich an private Gespräche mit Trump zu erinnern und sie anschließend über eine dritte Partei an die New York Times zu senden. „Ein Mann mit Rückgrat würde einfach sich zurücknehmen und zuhören und eventuell sagen:, Was hier passiert ist, ist nicht richtig‘ oder es in einem richtigen Dokument verewigen“, sagte er und fügte hinzu

„Im FBI gibt es tolle Männer und Frauen die zuverlässig ihren Dienst tun, wenn Sie wirklich glauben, dass etwas ist los, dann sind sie krank über ihn [Comey].“

Erschienen auf The Daily Caller am 16.04.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/04/16/shaking-their-heads-fbi-veterans-share-concerns-on-comey-interview/

Der Focus berichtet widerliche Details aus dem Buch von Jim Comey über Präsident Trump.

Stimmen aus USA: Wir müssen aufhören, den Strafprozess zu nutzen, um uns von den Wahlsiegern zu befreien, die wir nicht mögen




TE: Große Leseraktion: Wie manipulieren Messstationen die Umweltbelastung in Ihrer Stadt? – Teil 8

Aus Potsdam schickt uns Leser Justus W. ein Bild der Messstation Zeppelinstraße zwischen Geschwister Scholl Straße und Nansenstraße. »Die Messstation steht im Prinzip an der ungünstigsten Stelle, also dort, wo die höchsten Werte zu erwarten sind: Nur an diesem letzten Ende vor der Einmündung in die Breite Straße ist die Zeppelinstraße (B1) so schluchtartig eng mit höheren Häusern bebaut. Das meiste andere der Straße ist recht offen und auch breiter (hinter der Kreuzung Kastanienallee Richtung Geltow).

Die Messstation steht an der engsten Stelle, nahe der Bahnlinie (nach vorne und durch den schrägen Verlauf auch seitlich), die Bäume (momentan nicht laubtragend) sorgen sicher auch noch dafür, dass die Abgase sich nicht verteilen können, sondern im Bereich der Messstation verbleiben und dort für falsch höhere Werte sorgen.

Als Konsequenz aus den abgeleiteten Maßnahmen, das heißt Verengung mit einspuriger Verkehrsführung für beide Richtungen einer Bundesstraße, also der B1, ergießt sich der Autoverkehr nun ins angrenzende Wohngebiet:

Nachfragen der Anwohner an die Stadt und das Landesumweltamt, nach welchen Kriterien die Messstationen genau dort und nicht woanders aufgestellt worden und die Messungen entstanden sind, ob sie validiert worden sind usw, blieben wegen Unwissenheit (!) unbeantwortet. Das Modell wird übrigens von der Stadt Potsdam gefeiert und als Vorbild für andere Kommunen gehandelt:«

Berlin, Hardenbergplatz

Wir müssen uns mit der Luft in jener Stadt befassen, die Hauptstadt zu sein beansprucht. Die Berliner Luft wird ja immer wieder gepriesen; für Außenstehende unverständlich, zeigt das doch höchstens deutlich »Wie kann man da für wenig Moos den Dicken Wilhelm machen!«

Die Luft ist zwar deutlich besser geworden, stellt die Senatsverwaltung für Umwelt, Verkehr und Klimaschutz fest. Auch ein Erfolg moderner Autoantriebe. Aber die Arbeit soll ja nicht ausgehen, Anforderungen im Zweifel erhöht werden, daher mit der Folge: Muss aber noch besser werden. Jetzt versucht die Verwaltung immerhin, den Verkehr wieder flüssiger zu machen und dadurch Staus mit höherem Abgasaufkommen zu vermeiden, genau das Gegenteil von dem also, was grüne Verkehrsplanung bisher bezweckte.

Unabhängig von der Frage, ob Standorte manipuliert wurden – die veröffentlichten Messwerte zeigen viel »Grün«, also keine Probleme mit der Luft. Der Monatsbericht für Januar 2018 stellt fest: »Insgesamt lag die Luftbelastung im Januar 2018 beim Stickstoffdioxid etwas unter dem Durchschnitt der Januar-Monate der vergangenen Jahre.« Die ach so fürchterliche Feinstaubbelastung »lag deutlich unter dem Durchschnitt.« Schlechte Zeiten für die Alarmisten von der ominösen Deutschen Umwelthilfe. Deren Geschäftsmodell gerät in Gefahr, zumal sie jetzt offenbar noch unter strenger Aufsicht internationaler NGOs wie ClientEarth zu stehen scheinen. Die wittern bekanntlich in Europa dicke Geschäftsmöglichkeiten mit Klagen im Umweltbereich und bezahlen zum Teil auch die DUH als Stoßtrupp für ihre Aktivitäten.

Heftig zieht die DUH gegen die so gesundheitsgefährdende Luft zu Felde in trauter Vereinigung mit den Medien. »Flächendeckend schlechte Luft in Berlin« schreibt eine Isabell in der »Morgenpost« und erzählt weiter im Artikel Unsinn: »Die Luft in Berlin ist noch viel stärker mit gesundheitsgefährdenden Stickoxiden belastet, als bisher bekannt.« Zu ihrer Kenntnis: Es gibt keinen Beleg dafür, dass Stickoxide in den Konzentrationen, um die es hier geht, gesundheitsgefährdend sind. Die amtlichen Messwerte jedenfalls ergeben zudem ein deutliches Absinken der als »Schadstoffe« bezeichneten Gase.

Sie beruft sich auf Messungen, die Aktivisten vom Rundfunk Berlin-Brandenburg (RBB) zusammen mit der Technischen Universität Berlin (TU) organisiert haben. Sie hatten im Herbst vergangenen Jahres mit sogenannten »Passivsammlern« Luftmessungen veranstaltet. Die können keine Spitzenwerte, sondern nur Mittelwerte über einen Zeitraum messen, sind preiswert, dafür nicht so genau und können in keiner Weise mit Messstationen verglichen werden. Morgenpost-Isabell schreibt hurtig: »Mit einer Messreihe hatten der RBB und die Technische Universität Berlin (TU) den Nachweis erbracht, dass die Berliner von der hohen Stickoxid-Belastung nahezu flächendeckend betroffen sind. Demnach liegen die Werte an 73 Standorten über dem zulässigen EU-Grenzwert. Insgesamt hatten die TU-Wissenschaftler an 110 Stellen die Konzentration von Stickoxid gemessen. Das Messnetz des Landes umfasst lediglich 39 Standorte.«»Die neuen Messergebnisse bestätigen, dass wir in Berlin an viel zu vielen Stellen viel zu hohe Werte haben«, sagte Berlins Umweltsenatorin Regine Günther voreilig der Berliner Morgenpost.

Weiß Isabell eigentlich, wie ein Nachweis korrekt erbracht wird? Immerhin gibt die TU in einem Anfall von Seriosität noch an, dass die Messunsicherheit zehn Prozent betrage. Bei einem Wert von 40µg/m3 sind also 44 µg/m3 noch im Rahmen der Messungenauigkeit. Es sind jedoch keine weiteren Dokumentationen bekannt, wie weit die Messenden sich an EU-Vorgaben wie Standorte, Höhe und Position der Ansaugöffnungen gehalten haben. Solche Messungen sollten nur mit dem eindeutigen Hinweis veröffentlicht werden, dass die Werte nicht den normgerechten Vorgaben entsprechen. So wurde auch nicht einmal ein komplettes Jahr der Verlauf für den vorgeschriebenen Jahresmittelwert registriert. Sie sind also nicht normgerecht und vergleichbar, sagen letztlich nicht viel aus und können von daher keine Aktivitäten wie Fahrverbote begründen. Wobei, der Gedanke, ein weitreichendes Fahrverbot im Moloch Berlin – der hätte schon etwas. Zumal angesichts des von rot-grün heruntergerockten öffentlichen Nahverkehrs. Die grüne Verkehrssenatorin wollte ja laut Tagesspiegel auch einmal ganz böse mit der S-Bahn schimpfen. Leider reportiert das Blatt nicht das laute Lachen aus den Reparaturhallen der S-Bahn.

Wie sehen die Messstationen aus? Aus Berlin schickt uns TE-Leser Erwin M.-E. Aufnahmen der Messstation am Hardenbergplatz 115. Die Messstelle ist eingeklemmt zwischen der stark befahrenen Hardenbergstraße und dem Buszufahrtsweg/-Abfahrtsweg am Hardenbergplatz. Neben dem Straßenverkehr vor dem Bahnhof starten und enden hier rund 13 BVG-Buslinien, die alle in geringem Abstand an der Messstation vorbeifahren. Trotzdem weist diese Station in diesem Jahr noch keine »Grenzwertüberschreitungen« auf, wie auch im vergangenen Jahr. Die Messwerte sind hier zu finden. Das dürfte eher ziemlich viel über den Alarmismus in Deutschland aussagen, den NGOs mit Fleiß betreiben.

Berlin, Schildhornstraße

Zwei TE-Leser schicken uns Bilder der Messstation in Berlin Steglitz, Schildhornstrasse 76. Es handelt sich um einen vierspurigen Autobahnzubringer. Die Messstation steht zwischen zwei Ampeln in kurzem Abstand mit häufigen Anfahrt- und Bremsvorgängen, zudem unter Bäumen, nach EU-Regelwerk nicht erlaubt: in einer vielbefahrene, enge Hauptverkehrsstraße, einer Parkbucht. Etwa 300m davor endet die Autobahnabfahrt. Ab Gritznerstraße handelt es sich um ein Tempo-30-Limit. Ein Tempoblitzer sowie zusätzlich ein Ampelblitzer stehen kurz vor der Messstation, so dass Tempo 30 weitgehend eingehalten wird. Insbesondere im Berufsverkehr wird dort oft noch langsamer gefahren, oft ist ein Halt an der Ampel Ecke Gritznerstraße erforderlich, Abbiegen (außerhalb des Berufsverkehrs  erlaubt) behindert den Verkehr an der Ecke zusätzlich. Dennoch veröffentlicht die Verwaltung den NO2-Meßwert für Januar 2018 von 44 µg/m3. Ziemlich wenig. Denn anmerken dazu muss man, dass die Nachweisgrenze für Chemoluminiszenzverfahren, mit denen die NO2 gemessen werden, bei 2,5µg/m3 liegt. In der Größenordnung dürfte auch der Messfehler der Anlagen liegen. Aus gesundheitlicher Sicht ist es gleichgültig, ob der Grenzwert von 40µg um 6 µg überschritten wird oder nicht. Die WHO sagt selbst dazu, dass es ein reiner Vorsorgewert ohne wissenschaftliche Basis ist.

Berlin, Wedding

Berliner Messstelle »010 Wedding (Hintergrund)«. Sie liegt ca. 20 m von der Amrumer Straße, einem Zubringer zur Stadtautobahn, entfernt und von einem Gebüsch verdeckt in der Limburger Straße. Die stark befahrene Luxemburger Str. ist ca. 50 m entfernt.

Duisburg, Kardinal-Galen-Straße

Hier steht die Station mit dem EU-Code DENW112 in der Kardinal-Galen-Straße auf dem Mittelstreifen der Straße. Zwei TE-Leser schicken uns Bilder dieser Station. Rechts und links fahren die Autos auf einer zweispurigen Straße durch die City zur Autobahn vorbei – nach EU-Richtlinien keine erlaubte Platzierung. Von der Messstation führt die Tabelle EU-Jahreskenngrößen für das Jahr 2017 keine Überschreitungen der NO2-Grenzwerte auf, übrigens auch nicht für Werte von Feinstaub. Auch die anderen Duisburger Messstationen melden keine signifikanten Überschreitungen – unabhängig von der Korrektheit der Aufstellung, Kalibrierung und Wartung. Das Ergebnis wird der DUH nicht gefallen.

Stralsund

Zum Abschluss eine gute Nachricht aus Stralsund. »Die Messstation in meiner Stadt befindet sich in Stralsund am Knieperdamm unmittelbar vor einer Ampelanlage und maximal 1,50 zur Fahrbahn.« Schreibt mit freundlichen Grüßen TE-Leser Manfred J. Die Station an diesem verkehrsreichen Ort liefert dennoch Werte unter den Grenzwerten. Die Luft in Mecklenburg-Vorpommern ist sauber. Schlechte Geschäftsbasis für die Deutsche Umwelthilfe. Mal sehen, was die sich einfallen lassen.

Die Luftqualität in Deutschland ist dank großer Anstrengungen und hoher Kosten zum großen Teil in Ordnung. Allzu durchsichtig sind die Interessen von Abmahntrupps wie der DUH.


Schicken Sie uns bitte aus Ihrer Stadt Fotos der Messstationen. Bitte notieren Sie den genauen Standort. Aus einem weiteren Foto sollte das Umfeld der Messstation ersichtlich sein. Bitte schicken sie die Fotos an redaktion@tichyseinblick.de; Sie erteilen uns damit automatisch das Recht, Ihr Foto zu veröffentlichen. Wir freuen uns auch über Beiträge aus der Lokalpresse zu diesem Thema.

Vielen Dank!


Hier geht es zu Teil 1 – Messstationen in Stuttgart, Leipzig, Fulda, Magdeburg, Rostock, Marburg und Tübingen

Hier geht es zu Teil 2 – Messstationen in Ludwigsburg, Hannover, München und Siegen

Hier geht es zu Teil 3 – Messstationen in Hamburg, Wiesbaden, Cottbus, Dortmund und München

Hier geht es zu Teil 4 – Messstationen in Berlin, Hannover, Halle an der Saale, Wuppertal und Göttingen 

Hier geht es zu Teil 5 – Messstationen in Darmstadt, Leonberg, Kiel und Gelsenkirchen

Hier geht es zu Teil 6 – Messstationen in München, Plauen/Vogtland, Osnabrück und Norderstedt

Hier geht es zu Teil 7 – Messstationen in Oldenburg, Köln, Leipzig, Nürnberg, Kassel und Essen

Der Beitrag wurde von TICHXS Einblick übernommen (hier)




Golfstrom mit Glatteis – oder, wie Müller Jung von der FAZ die Welt sieht.

Die Sonne kracht, die Biergärten sind rammelvoll, die Mädchen leicht bekleidet (außer in bereits Minirock-befreiten Zonen). Es besteht Grund zur Freude, die Erhitzung der Atmosphäre zeigt einmal mehr ihre schönsten Folgen. Selbst die Eisbären in den Zoos sind gut gelaunt, offenbar haben sie noch nicht mitgekriegt, dass sie demnächst aussterben sollen. Während die Süddeutsche Zeitung noch den ausgelutschten Drops von den verhungernden Bärchen serviert, ist der Tagesspiegel schon auf einem anderen Trip: Dem Eisbären stehen goldene Zeiten bevor!

Denn, so haben Ausflüge in die weite Welt der Klima-Hochrechungen ergeben, der Golfstrom verlangsamt sich, und Europa wird alsbald unter einer Eisdecke bibbern. Die FAZ meldet, der Klimawandel hinterließe „radikaler denn je seine Spur in den Datenreihen“. Der gleiche FAZ-Autor schrieb vor zehn Jahren zu zweifelhaften Studien auf diesem Gebiet „Wissenschaft funktioniert anders“.

Datenreihen sind bekanntlich geduldig, das Narrativ vom Ableben des Golfstroms ist prinzipiell seit Jahrzehnten genauso ausgelutscht wie das der Eisbären, die sterben, auch nur in den Datenreihen. Im richtigen Leben erfreuen sie sich bester Gesundheit und konnten sich sogar vermehren. Auch die Wahrscheinlichkeit für ein Versiegen des Golfstroms im 21. Jahrhundert liegt nahe bei null.

Der Golfstrom wird nämlich nicht nur von der sogenannten thermohalinen Zirkulation befördert, sondern auch vom Windsystem über dem Nordatlantik und von der Erdrotation in Schwung gehalten. Der Ozeanograf Carl Wunsch vom Massachusetts Institute of Technology sprach einmal die güldenen Worte: „Wer den Golfstrom wirklich zum Stillstand bringen will, muss entweder die Winde abschalten oder die Erde anhalten. Oder beides“.

Ohnmacht und Hybris – und nix dazwischen

Hat sich der FAZ-Autor in Sachen Golfstrom eines besseren belehren lassen? Oder ist er Teil einer zunehmenden Hysterisierung und Moralisierung von Wissenschaft, die er im oben bereits verlinkten Beitrag so beschreibt: „Tatsächlich motiviert die Klimaforschung derzeit mit ihren Datenanalysen so etwas wie eine ‚neue Radikalität‘ im ökologischen Denken. Ein Vokabular, das nicht nur auf Parteitagen auftaucht, sondern auch vom Generalsekretär der Vereinten Nationen, António Guterres, auf einer UN-Pressekonferenz jüngst verwendet wurde: Die Schlagzeilen würden dominiert von Spannungen und Konflikten auf der Welt, sagte Guterres in New York, ‚die Wahrheit aber ist, dass der Klimawandel die größte systemische Bedrohung für die Menschheit ist‘“.

Also sprach der Klima-Papst: Ihr sollt keine andere Katastrophe neben mir haben! Was sind schon kleinliche Problemchen wie Völkermord, Armut oder Rückfall ganzer Weltregionen in religiöse Wahnvorstellungen gegen das große Klima-Apokalypsen-Narrativ internationaler Apparatschiks. Das schöne an diesem Katastrophen-Alarm ist doch, dass man damit jede Zwangsmaßnahme im Hier und Jetzt begründen kann, die Erfolgskontrolle aber erst in 100 Jahren möglich ist. Die größte systemische Bedrohung für die Menschheit ist deshalb eine Nomenklatura, die die Menschheit ganz direkt und ohne Umweg über die CO2-Emissionen ins Unglück stürzt. In Deutschland haben sie sich beispielsweise mit großem Erfolg daran gemacht, im Namen künftiger Heilserwartungen die wirtschaftliche Grundlage dieses Landes und seinen Wohlstand zu zerstören. Ich sage nur: Energiewende.

Die drohende Klimakatastrophe wird zu einem Überzeugungs- und Glaubensystem, das gesellschaftlichen Sinn stiften soll. Eine von Glaubwürdigkeitskrisen geschüttelte Politik hat die Weltrettung zur neuen Utopie erkoren. Sie können nicht einmal die Grenzen des Landes bewachen, glauben aber, die Temperaturentwicklung des Planeten per ordre de Mufti begrenzen respektive steuern zu können. Die Herrschaften schwanken zwischen Ohnmacht und Hybris – und leider ist nichts mehr dazwischen.

Wenn man die sich widersprechenden „Narrative“ vom Ende des Golfstroms und vom Ende der Eisbären zusammen nimmt, dann zeigt dies im Übrigen nicht nur Hysterisierung und Moralisierung der Klima-Debatte, sondern auch eine religiöse Immunisierung gegen Botschaften, die dem herrschenden Dogma zuwiderlaufen könnten. Denn: Egal ob es kälter oder wärmer wird oder ob alles so bleibt wie es ist (die unwahrscheinlichste Variante, weil das Klima sich im Verlauf der Erdgeschichte immer wieder geändert hat), die Klima-Paniker werden in jedem Falle behaupten, sie hätten recht.

Wenn nicht nur eine Katastrophe, sondern auch ihr Ausbleiben als Folge des sündhaften menschlichen Treibens gedeutet werden, dann zeigt dies eine völlige Immunisierung gegen rationale Argumente. So entsteht eine sich selbst abdichtende Weltsicht, die sich schließlich zu einer prinzipiell nicht falsifizierbaren Annahme verhärtet. Die Logik erinnert ein wenig an den mittelalterlichen Gottesbeweis: Wenn eine gefesselte Hexe im Wasser unterging, war sie keine Zauberin, aber dennoch tot. Schwamm Sie obenauf, dann handelte es sich hingegen eindeutig um eine Hexe, woraufhin sie ebenfalls vom Leben in den Tod befördert wurde.

Zuerst erschienen auf ACHGUT hier




Die Industrie mit doppeltem Standard

Die US-Gesetzgeber sorgen sich, dass alles über dem gegenwärtig in der Atmosphäre vorhandenen Methan von 0,0001% einen katastrophalen Klimawandel auslösen wird und dass Pipelines Natur-Habitate stören. Also wenden sie sich gegen Fracking nach Erdgas in New York und gegen Pipelines, welche den sauberen Treibstoff aus Pennsylvanien importieren.

Aber dann drängen oder erzwingen sie, dass man in ländlichen Regionen und in Urlaubsgebieten Dutzende hoch aufragende Windräder akzeptiert, die Tausende Acres Land beeinflussen, die Landschaft zerstören, die jährlich tausende Vögel und Fledermäuse zerschreddern und die den Schlaf und die Gesundheit lokaler Anwohner beeinträchtigen – nur um teuren, unterbrochenen Strom zu erzeugen, der via Starkstromleitungen nach Albany, Manhattan und zu anderen entfernt liegenden Städten fließt.

Derzeit befindet sich eine 600 Meilen lange Pipeline [ca. 960 km] von West Virginia nach North Carolina im Bau, durch die Erdgas fließen soll, um Kraftwerke zu errichten, welche Strom rund um die Uhr zu niedrigen Preisen zur Verfügung stellen. Ein Teil der maximal 100 Fuß breiten Pipeline-Trasse [ca. 30 m] muss notwendigerweise durch Waldgebiete verlaufen, was die Fällung von Bäumen erforderlich macht.

Um Zugvögel und gefährdete Fledermäuse zu schützen, schreiben staatliche und lokale Behörden allgemein vor, dass das Fällen von Bäumen zwischen Mitte März und Mitte Oktober verboten wird. Weil die Atlantic Coast Pipeline im Zeitverzug ist, beantragten die Unternehmen eine Genehmigung, noch bis zum 15. Mai Bäume fällen zu dürfen. Damit soll einer weiteren Verzögerung ein Riegel vorgeschoben werden, würde eine solche doch zu zusätzlichen Kosten von 150 bis 350 Millionen Dollar führen. Der Antrag wurde abgelehnt.

Da ist es keine Überraschung, dass die Pipeline, das Fällen von Bäumen nebst dem entsprechenden Antrag während der Zugvogel- und Brutsaison die Planer, Gesetzgeber und Umweltaktivisten wie Dummköpfe aussehen lässt. Ein 16 Meilen langes Teilstück [ca. 26 km] verläuft durch den George Washington National Forest in Virginia, was besondere Aufmerksamkeit erregte.

Obwohl dieses vergleichsweise kurze Teilstück lediglich 200 der 1,1 Millionen Acres betreffen würde, behauptete das Virginia Wilderness Committee, dass jedwedes Fällen von Bäumen in dem Gebiet eine „industrielle Zone“ erzeugen würde und dass „einige der schönsten verbleibenden natürlichen Landschaften im Osten der USA ernsthaft beeinträchtigt werden“. Das Southern Environmental Law Center bezeichnete das gesamte Projekt als „riskant“ und „unnötig“. Sie und mit ihnen verbündete Gruppen ziehen es vor, „fossile Treibstoffe im Boden zu lassen“ und einen rapiden Übergang zu Solar- und Windenergie voranzutreiben.

Man muss sich fragen, wie sie auf die weitaus stärkeren Umweltauswirkungen reagieren würden, welche ihre „grüne“ Energiezukunft mit sich bringen würde. Werden sie ihren Überzeugungen treu bleiben oder weiterhin mit zweierlei Maß messen?

Zum Beispiel: Wenn Solarenergie allein den rund um die Uhr zur Verfügung stehenden Strom des Kernkraftwerkes am Lake Anna ersetzen soll, würde das fast 20.000 Acres Landverbrauch für Solarpaneele bedeuten (zweimal so groß wie Washington DC), welche dann Energie in 20% bis 30% der Zeit zur Verfügung stellen würden. Während der restlichen Zeit würde man fossile Energie oder den Backup von Batterien benötigen – es sei denn, Wohnungen, Fabriken, Krankenhäuser und Schulen wären froh, Strom nur dann nutzen zu können, wenn er gerade verfügbar ist, anstatt ihn dann zu haben, wenn sie ihn brauchen.

Diese Landfläche ist 100 mal so groß wie diejenige, welche für die Pipeline gebraucht würde, die außerdem im Untergrund verlaufen würde und fast unsichtbar wäre. Im Gegensatz dazu würden die stark ins Auge springenden Solarpaneele Jahrzehnte lang Landflächen überdecken, welche zuvor als Ackerland genutzt worden oder als Wild-Habitate geschützt waren.

Erdgas und Kohle erzeugen in Virginia etwa 55 Millionen Megawattstunden Strom jährlich. Das Ersetzen desselben durch Windenergie würde Tausende gigantische Turbinen erfordern, welche über eine halbe Million Acres von Wald-, Acker- und anderen Landschaftsformen verteilt wären. Teure Batterien-Konglomerate und Überlandleitungen von den Windparks zu entfernten städtischen Gebieten würden Tausende weitere Acres Land verbrauchen.

(Diese grobe Abschätzung berücksichtigt, dass viele Turbinen in Schwachwind-Gebieten errichtet werden müssten und daher nur während 15% bis 20% der Zeit Strom erzeugen könnten. Angenommen wird dabei auch, dass zwei Drittel der Erzeugung an windigen Tagen die Batterien für acht aufeinander folgende Tage mit Windstille aufladen würde und dass jede Turbine 15 Acres Land verbrauchen würde für den Aktionsradius der Rotorblätter, die notwendigen Abstände und Zugangswege).

Die Turbinen, Überlandleitungen und Batterien würden Millionen Tonnen Stahl, Beton, Kupfer, Neodym, Lithium, Kobalt, Kunststoffe auf der Grundlage von Petroleum und andere Rohmaterialien erfordern; man müsste Milliarden Tonnen Erde und Gestein bewegen, um die Metalle abzubauen; und man müsste ungeheure Mengen fossiler Treibstoffe verbrennen in enormen Schmelzöfen und Fabriken, um aus den Metallen die fertigen Komponenten herzustellen.

Die meisten dieser Arbeiten werden in Afrika, China oder anderen entfernt liegenden Orten ausgeführt – außer Sicht und außerhalb des Bewusstseins der meisten Virginianer, Amerikaner und Umweltaktivisten. Aber, wie uns oft mahnend auf den Weg gegeben wird, wir sollen lokal handeln, global denken und die horrenden umweltlichen Auswirkungen sowie die Bedingungen hinsichtlich Gesundheit und Sicherheit in Betracht ziehen, welche diese Aktivitäten in jenen fernen Ländern mit sich bringen.

[Siehe dazu auch den Beitrag auf Deutsch beim EIKE hier! Anm. d. Übers.]

Viele Turbinen werden auf Höhenzügen errichtet werden, wo der Wind am besten und häufigsten weht. Die Kammlagen werden entwaldet, Naturlandschaften ruiniert werden, und die Turbinen werden Zugvögel, Greifvögel und Fledermäuse häckseln, Zehntausende in jedem Jahr. Auch jene, die bisher noch nicht bedroht oder gefährdet sind, es aber bald sein werden.

Die Windindustrie und viele Gesetzgeber und Umweltaktivisten betrachten diesen Todes-Zoll als „nebensächlich“, als „akzeptable“ Verluste „entbehrlicher“ Wildnis. Dies sei notwendig für die Eliminierung fossiler Treibstoffe um des „Klimaschutzes“ willen. Die Todesfälle sind sicher nicht vorsätzlich – weshalb die Entscheidung des Innenministeriums im Dezember 2018, diese Fälle nicht mehr als kriminelle Verstöße gegen den Migratory Bird Treaty Act zu verfolgen, Sinn macht.

Allerdings ist es so, wenn Gesetzgeber zulassen, dass industriell Winderzeugungsanlagen inmitten oder nahe bei den Routen von Zugvögeln, in Brutgebieten und an anderen Stellen errichtet werden – wo sich eine große Zahl Adler, Habichte, Falken, Zugvögel und Fledermäuse versammelt – steigt die Todesrate weit über den Bereich „nebensächlich“ oder „akzeptabel“. Und mit der steigenden Anzahl von Windturbinen auf dem US-Festland, welche von 40.000 vor wenigen Jahren auf heute 52.000 gestiegen ist und potentiell die Millionen-Schwelle erreichen wird im Zuge der Forderung nach „lasst Kohle, Öl und Gas im Boden!“, steigt die Bedrohung der Dezimierung oder sogar des Aussterbens ins Unermessliche.

Einige sagen, dass wir künftige Windturbinen offshore installieren sollen, also in unseren küstennahen Meeresgebieten. Wahrhaft monströse 3,5-Megawatt-Turbinen würde sicher die Gesamtzahl reduzieren, welche erforderlich ist, um substantielle Mengen fossiler Energie zu ersetzen. Allerdings würden dabei landschaftliche ozeanische Ansichten zerstört, Meeres- und Küstenvögel-Populationen dezimiert (wobei die Kadaver bequemerweise unsichtbar im Meer versinken), ebenso wie Schweins- und andere Wale. Die Turbinen würden die Radarkontrolle des Schiffs- und Flugverkehrs beeinträchtigen sowie bedeutende Gefahren für Schiffe und U-Boote mit sich bringen.

Was aber noch schlimmer ist: Der Biologe Jim Wiegand und andere Experten haben festgestellt, dass die Windindustrie in großem Umfang dazu übergegangen ist, die tatsächlichen Todeszahlen zu verschleiern. Zum Beispiel schauen sie nur direkt unter den Türmen und Rotorblättern (obwohl Kadaver und verletzte Vögel durch die Geschwindigkeit an den Spitzen der Rotorblätter von 200 mph [ca. 320 km/h] Hunderte Meter weit fortgeschleudert werden können). Sie überprüfen die Gebiete nur einmal alle paar Wochen (in der Hoffnung, dass Aasfresser in der Zwischenzeit die Beweise auffressen), und sie sorgen dafür, dass Windparks für unabhängige Ermittler unerreichbar sind.

Das Töten von Vögeln und Fledermäusen mag nicht kriminell sein, aber der Betrug und die Verschleierung ist es auf jeden Fall.

Haltung, Vorschriften und Strafen im Zusammenhang mit Windturbinen stehen auch im scharfen Gegensatz zu der unflexiblen Handlungsweise ohne jedes Fingerspitzengefühl, welche Umweltaktivisten, Gesetzgeber und Gerichtshöfe normalerweise an den Tag legen, wenn es um Genehmigungen für Bohrungen, Pipelines, Grabungen und andere Aktivitäten geht, bei denen Salbei, Birkhühner und kleinere Prärievögel involviert sind – oder um den Antrag zu Baumfällungen bis zum 15. Mai, um eine Pipeline in Virginia fertig zu stellen.

Das Fish & Wildlife Service, das Center for Biological Diversity und die Audubon Society rasen vor Wut in solchen Fällen (Audubon war empört, dass das Innenministerium den zufälligen Tod von Vögeln auf Abfallhalden von Ölfeldern entkriminalisiert hat). Aber deren Schweigen zu den steigenden Opferzahlen von Vögeln und Fledermäusen war ohrenbetäubend.

Dieses Verhalten und diese Politik schreien „zweierlei Maß!“ Tatsächlich müsste ein konsistenter Schutz von Vögeln und Fledermäusen logischerweise den Bann von Turbinen in oder nahe bei Natur-Habitaten, in Rückzugsgebieten und Flugrouten enthalten – oder das Abregeln von Turbinen während der Brut- und Vogelflug-Zeiten.

Es ist an der Zeit, über all das neu nachzudenken. Ausreichende zuverlässige und bezahlbare Energie ermöglicht erst unsere Arbeitsplätze, Gesundheit, Lebensstandard und Zivilisation. Wenn es so weitergeht … dass Umweltaktivisten, Gesetzgeber und Richter Öl, Gas und Kohle heute blockieren … dass sie Kern- und Wasserkraft morgen blockieren … und Wind- und Solareinrichtungen während der nächsten Woche … dann wirft man uns um ein Jahrhundert oder mehr zurück. Es ist an der Zeit zu rufen: GENUG!

Link: http://www.cfact.org/2018/04/17/the-double-standards-industry/




Meeres­spiegel-Trends, Anfangs­zeitpunkte und Daten-Verschie­bungen

Apra Harbor auf Guam

Die Aufzeichnung des Tidenmesspunktes Apra Harbor, Guam (hier) wurde jüngst analysiert von Parker & Ollier (2018). Dabei stellte sich heraus, dass der PSMSL nach den jüngsten Erdbeben nur einen von zwei Daten-Sprüngen erwähnt hat, und zwar den weniger bedeutenden in den Daten. Dieser Datensprung wurde dann von der NOAA herangezogen zur Berechnung der Anstiegsrate des Meeresspiegels seit den niedrigen ENSO-Gewässern [?]. Die Berechnung wird auch beeinträchtigt durch den nicht entdeckten Datensprung, welcher die Rate des Meeresspiegel-Anstiegs offensichtlich verstärkt.

Hier in Abbildung 1 ist die monatliche und mittlere jährliche Höhe des Meeresspiegels nach dem PSMSL gezeigt:

Abbildung 1: monatlicher (Quelle) und jährlicher (Quelle) mittlerer Meeresspiegel nach PSMSL.

Die NOAA schreibt hier:

Der Relative Meeresspiegel-Trend beträgt 5,04 Millimeter pro Jahr mit einem Vertrauensintervall von 95% von ±4,15 mm pro Jahr auf der Grundlage der monatlichen Daten des mittleren Meeresspiegels von 1993 bis 2017. Dies ist äquivalent mit einem Anstieg von ca. 50 cm innerhalb von 100 Jahren.

In Abbildung 2 wurde der saisonale Zyklus aus den Daten des mittleren Meeresspiegels entfernt.

Abbildung 2. Quelle: Meeressiegel-Trendanalyse der NOAA (hier)

Der Meeresspiegel bei Guam wurde jüngst analysiert von Parker & Ollier (2018). Das Ergebnis zeigt Abbildung 3 des monatliche mittleren Meeresspiegels:

Abbildung 3: Monatlicher mittlerer Meeresspiegel in Apra Harbor. (a) lineare Anassungen, (b) gleitendes Mittel über 12 Monate. Daten von www.psmsl.org, Bild von Parker & Ollier (2018)

Aus den Abbildungen 1, 2 und 3 geht hervor:

Während der Monate Januar und Februar 1993 zeigt sich eine 2 Monate lange Lücke vor dem Erdbeben vom August 1993, jedoch keine Lücke nach dem Erdbeben. Es gab keine Unterbrechung der Messungen nach dem Erdbeben vom August 1993. Der Verlauf vor und nach dem Erdbeben scheint nur gering unterschiedlich zu sein.

Es gibt eine breite Lücke von 14 Monaten von Dezember 1997 bis Februar 1999. Sie folgt auf das Erdbeben vom April 1997, beginnt jedoch erst 6 Monate später. Danach folgen noch zwei weitere Lücken, und zwar im Juni und Juli 1999 bzw. September bis November 1999. Im Grunde gab es von Dezember 1997 bis Dezember 1999 kaum oder überhaupt keine Messungen. Während der Verlauf vor sowie unmittelbar nach dem Erdbeben ähnlich zu sein scheint, scheint er sich sehr stark zu unterscheiden nach Wiederaufnahme der Messungen nach der 14 Monate langen Unterbrechung.

Der Relative Meeresspiegel ist kontinuierlich von Januar 1948 bis August 1993 gefallen, und zwar mit einer Rate von –1,08 mm pro Jahr.

Im August 1993 kam es wahrscheinlich zu einer Daten-Verschiebung um 20 bis 30 mm, und zwar nach dem Erdbeben 7.8 Mw Mag., IX MMI.

Im Februar 1999 bei Wiederaufnahme der Messungen nach der Pause von 14 Monaten nach dem Erdbeben 6.5 Mw Mag. VII MMI vom April 1997 ergibt sich der Eindruck einer sogar noch stärkeren Daten-Verschiebung von nicht weniger als 30 bis 40 mm.

Der PSMSL berichtet nun am 16. Oktober 2002:

Guam – geschätzte Landbewegung von 2 bis 3 cm im Jahre 1993 nach dem Erdbeben. Dann heißt es in einem PSMSL-Report vom 18. Juli 2011, dass die Stabilität der Tidenmessung ein Problem ist. „Die Betreiber des Tidenmesspunktes Guam, also das Centre for Operational Oceanographic Products and Services (CO-OPS), der NOAA angegliedert, merken an, dass es nach dem Erdbeben in Guam des Jahres 1993 zu einer Änderung des Meeresspiegel-Trends gekommen war. Die Stabilität der Tidenmessdaten nach dem Erdbeben ist daher bedenklich. CO-OPS überwacht den Messpunkt weiterhin“.

Überraschenderweise gibt es bei PSMSL keinerlei Erklärung, aus welchen Gründen die Messungen 14 Monate lang unterbrochen und warum diese Messungen nach dem Erdbeben vom April 1997 so erratisch waren.

Genauso überraschend wird seitens PSMSL nicht eine mögliche zweite Datenverschiebung erwähnt, zu welcher es den Daten zufolge sehr wahrscheinlich gekommen ist. Die Wahrscheinlichkeit hierfür ist deutlich höher als beim ersten Mal.

Seit Januar 1999 ist der Meeresspiegel kontinuierlich gesunken mit einer Rate von –1,15 mm pro Jahr.

Berücksichtigt man die beiden Daten-Verschiebungen um 30 mm vom September 1993 und weiterer 30 mm seit Februar 1999, sowie die Landabsenkungen, zeigt der absolute MSL bei vollständiger Trendbereinigung lediglich Oszillationen seit Januar 1948 (Parker & Ollier 2018).

Der Meeresspiegel ist sich über alle drei Perioden nahezu kontinuierlicher Messungen gesunken, separiert durch die beiden sehr wahrscheinlichen Datenverschiebungen (break points).

Jedes Verfahren des Alignments, in welchem break points zur Analyse von Zeitreihen herangezogen werden, wird die Größenordnung der beiden Datenverschiebungen belegen, sobald deren Existenz eingeräumt wird.

Eine Datenverschiebung gab es wahrscheinlich im August 1993, zur gleichen Zeit wie das Erdbeben, und dann nochmals vor Wiederaufnahme der Messungen im Februar 1999, also nach einer Lücke von 14 Monaten nach dem Erdbeben vom April 1997. Die beiden nicht berücksichtigten Datenverschiebungen machen 20 bis 30 mm aus und nicht weniger als 30 bis 40 mm.

Mit der Vernachlässigung der Daten vor 1993 wegen der „vermuteten Landbewegung von 2 bis 3 cm im Jahre 1993 nach dem Erdbeben“, wie es die NOAA praktiziert hat, und bei Vernachlässigung der Datenverschiebung vom Februar 1999, zeigt die Analyse der kurzen Reihe mit Beginn zum Zeitpunkt des niedrigen ENSO-Wasserniveaus aus Abbildung 2 eine erhebliche und offensichtliche Anstiegsrate über 5 mm pro Jahr.

Diese Anstiegsrate wird dann als Beweis verkauft für die im EPA-Pamphlet (hier) behauptete Beschleunigung des Meeresspiegel-Anstiegs, wo es heißt:

Der Meeresspiegel ist relativ zur Küstenlinie von Guam seit 1993 um etwa 4 Inches [ca. 10 cm] gestiegen. Falls sich Ozeane und Atmosphäre weiterhin erwärmen, wird der Meeresspiegel rund um Guam im nächsten Jahrhundert wahrscheinlich um ein bis drei Fuß [ca. 30 bis 90 cm] steigen. Dieser Anstieg lässt tief liegende Gebiete versinken, erodiert Strände und verschlimmert küstennahe Überschwemmungen durch Taifune und Tsunamis. Küstennahe Häuser und Infrastruktur werden immer öfter überschwemmt, weil auch Sturmfluten immer höher auflaufen. Häuser, Büros, Straßen und der Hafen von Guam sind verwundbar gegenüber den Auswirkungen von Stürmen und Meeresspiegel-Anstieg.

Es scheint ihnen nicht angemessen, eine klare Datenverschiebung im Jahre 1993 anzusprechen, während die offensichtlichere Datenverschiebung im Jahre 1998 vernachlässigt wird. Das soll den Standpunkt der NASA stützen, die Rate des Anstiegs in Guam nur unter Berücksichtigung der Daten seit 1993 zu berechnen, also bei niedrigen ENSO-Gewässern. Die Behauptung der EPA eines Anstiegs des Meeresspiegels um vier Inches seit 1993 scheint nicht gerade jene „solide“ Wissenschaft zu sein.

References

[1] Parker, A. & Ollier, C.D. (2017). Is the Sea Level Stable at Aden, Yemen?, Earth Systems and Environment, 1(2), p.18.

[2] Parker, A. & O’Sullivan, J., (2018), The Need of an Open, Fair Peer Review of Sea Levels Data, accepted paper, in press.

[3] Parker, A. & Ollier, C., (2018), The sea level of Guam, accepted paper, in press. Also www.preprints.org/manuscript/201803.0196/v1

Link: https://wattsupwiththat.com/2018/04/18/sea-level-trends-starting-points-and-datum-shifts/

Übersetzt von Chris Frey EIKE




Grüner Schock: Ganze Wälder werden vernichtet, nur um Biomasse in Gestalt von Holz-Pellets herzu­stellen

Behauptung des Senders Channel 4: Laubholzwälder abgeholzt, um das Drax-Kraftwerk zu beliefern

Brendan Montague, 16. April 2018

Ermittlungen haben Beweise erbracht, dass Laubwälder abgeholzt werden, um UK mit „grüner Energie“ zu versorgen. Experten zufolge handelt es sich dabei um ganze Habitate mit artenreichem Leben. Sie sind bedroht, weil die Kraftwerke in UK von der Kohle- zur Holzverbrennung übergehen.

Riesige Gebiete mit Laubwäldern im US-Bundesstaat Virginia fallen der Motorsäge zum Opfer, um „Biomasse“-Energie in UK zu erzeugen, und zwar im Zuge von Versuchen der Regierung, die Ziele bzgl. der Reduktion von Treibhausgasen zu erreichen. Dies geht aus Recherchen von Channel 4 hervor.

Eine Schlüsselrolle bei den Bemühungen der Regierung, ihre Ziele bzgl. grüner Energie zu erreichen, war der Übergang der Stromerzeugung von der Kohle- zur Holzverbrennung – oder zur so genannten Biomasse. Dies ist eine Politik, die den Steuerzahler mit über 700 Millionen Pfund pro Jahr zu stehen kommt, und zwar in Gestalt einer zusätzlichen Abgabe auf die Stromrechnungen.

Die Biomasse-Industrie und die Regierung machen geltend, dass weil Holz eine erneuerbare Energiequelle ist und Bäume neu angepflanzt werden können, diese Politik gut für die Umwelt ist.

Der Kraftwerks-Gigant behauptet, dass die Verbrennung von Holz anstatt Kohle Einsparungen bzgl. Kohlenstoff-Emissionen um über 80 Prozent bringt.

In diesem Zusammenhang führte Channel 4 ein einfaches Experiment durch an der University of Nottingham, um die emittierten Kohlendioxid-Mengen bei der Verbrennung von Holz bzw. Kohle zu vergleichen.

Dutzende Wissenschaftler

Dabei kam heraus, dass die Verbrennung einer bestimmten Menge Holz-Pellets zur Erzeugung der gleichen Strommenge wie bei der Verbrennung von Kohle tatsächlich etwa acht Prozent mehr Kohlenstoff emittiert wird.

Mehr: https://theecologist.org/2018/apr/16/hardwood-forests-cut-down-feed-drax-power-plant-channel-4-dispatches-claims

Wollen wir hoffen, dass die nächste entsprechende Untersuchung einem Spezial einer Windturbine gilt. Titel [übersetzt]: Wohin sind all unsere Vögel verschwunden?

Link: https://wattsupwiththat.com/2018/04/18/green-shock-entire-forests-being-murdered-to-produce-wood-pellet-biomass/

Übersetzt von Chris Frey EIKE




Bald wird Brüssel die Klimavor­gaben setzen und sanktio­nieren. Dann ist es vollkom­men egal, was Deutsch­land entschei­det

Der EU-Kommission werden direkte Eingriffsrechte in nationale Energie- und Klimastrategien gewährt

Die den Länderparlamenten entzogenen Brüsseler Autokraten sind (mit Unterstützung durch Deutschland) konsequent weiter dabei, Länderhoheiten auszuhebeln. Und so ist es bald nicht mehr eine nationale, sondern EU-Vorschrift, die Welt vor dem Klima zu retten.
Und wer es dann nicht EU-vorschriftsgemäß durchführt, bekommt Sanktionen. Es wird mindestens ein Land in der EU geben, welches auch diese Vorgaben der EU akribisch umsetzt und einhält. Damit die Statisten von Abgeordneten im Parlament nicht noch dagegen „Mauern“, wurde im Koalitionsvertrag wurde extra bekräftigt, dass die GroKo EU-Vorgaben 1:1 umsetzt und das nationale Parlament dann nichts mehr zu sagen hat.
Und es wird Länder geben, welche dadurch (ihre geforderten) Vorteile bekommen: Frankreich kann seine Atomkraft behalten, doch Deutschland muss auf Vorgabe der EU alle Kohlekraftwerke abschalten.
BMWi, Staatssekretär Rainer Baake: [1] … „Das vom Energierat beschlossene Paket „Saubere Energie für alle Europäer“ ist ein Meilenstein. Es gestaltet fast den gesamten europäischen Energierahmen neu … Neue Kohlekraftwerke dürfen an diesen Kapazitätsmärkten ab Ende 2025 und Bestandsanlagen ab Ende 2030 nicht mehr teilnehmen …
Kernelement sind integrierte nationale Energie- und Klimapläne aller 28 Mitgliedstaaten und darüber hinaus ein Mechanismus für den Fall, dass die freiwilligen Beiträge der Mitgliedstaaten nicht ausreichen, um die EU-Ziele zu erreichen …
Staatssekretär Baake: „Ich freue mich, dass wir jetzt klare Spielregeln verabredet haben, wie wir gemeinsam die beschlossenen EU-Ziele auch tatsächlich erreichen. Die Bedeutung der neuen Governance für die Energieunion geht aber über die Erfüllung der 2030-Energie-und Klimaziele hinaus. Erstmals gibt sich hier einer der größten Wirtschaftsräume der Welt einen gemeinsamen Plan, wie die Mitgliedstaaten zur langfristigen Dekarbonisierung und Versorgungssicherheit Europas beitragen wollen.

Ob das (bei dann weiter steigenden Preisen) und bis tief in persönliche Bereiche hinein greifenden Restriktionen dem Volk wirklich gefallen wird, weiß man noch nicht, doch unsere Umweltverbände werden jubeln.

EU Vorgabe: Die Zahl der von Energiearmut betroffenen Menschen ist zu erheben, deren Unterstützung hat aber in fünf Jahren auszulaufen

Dem Gewerkschaftsbund ist dabei etwas mulmig zumute. Aber Opposition traut er sich nicht, nach dem Motto: Am Besten hat es ein Märtyrer, der seine Taten überlebt und sich später in deren Glanz sonnen kann.

Dabei hat er Schwachstellen gut erkannt:
– Deutschland wird immer mehr von der EU am Parlament vorbei zwangsgesteuert,
– der Haushaltsstrom wird durch die neuen Tarifgestaltungen vor allem noch teurer,
– Deutschland muss künftig von seinem Geld Projekte im Ausland (zwangs-)finanzieren,
– national darf keine „Wettbewerbsverzerrung“ erfolgen, indem zum Beispiel Strom für ärmere Haushalte subventioniert wird,
– Frankreich profitiert mit seinen Kernkraftwerken überproportional.
DGB,
25.09.2017: [2] Europa Saubere Energie für alle Europäer-Innen Das Energiepaket der Europäischen Kommission
In beiden Fällen hatte sich die Mehrheit der Mitgliedstaaten gegen nationale verbindliche Ziele ausgesprochen. Stattdessen soll die Erreichung des EU-weiten Zieles durch eine „Governance-Verordnung“ abgesichert werden. Danach werden der EU-Kommission direkte Eingriffsrechte in nationale Energie- und Klimastrategien gewährt, ergänzt durch „delegierte Rechtsakte“, die keine Mitbestimmung des EU-Parlamentes vorsehen. Eine deutliche Stärkung der EU-Exekutive also.
Die Vorstellung der EU-Kommission, wonach private Haushalte quasi zu „Strombörse-Händler-Innen“ werden und ihren Verbrauch in 15-Minuten-Intervallen flexibel an das schwankende Stromangebot anpassen, spiegelt aber nicht die Realität und den Alltag der Menschen wider. Die überwiegende Mehrheit der Haushaltskund-Innen kann die Vorteile zeitabhängiger, flexibler Strompreise nicht nützen und müssen künftig höhere Strompreise bezahlen, wenn sie in Zeiten hoher Stromnachfrage, wie am Morgen oder in den frühen Abendstunden, den meisten Strom benötigen.
Die EU-Kommission möchte die nationaleren Fördersysteme für den Ausbau von erneuerbaren Energie-Erzeugungsanlagen auch für grenzüberschreitende Projekte öffnen. Damit
könnten Fördergelder, die von den Stromverbraucher-Innen in einem Mitgliedstaat aufgebracht werden, für den Bau von Photovoltaik- oder Windkraftanlagen in anderen EU-Ländern eingesetzt werden.
Positiv ist die Verpflichtung der Mitgliedstaaten, die Zahl der von Energiearmut betroffenen Menschen zu erheben. Eine zentrale Voraussetzung, um zielgerichtet Maßnahmen ergreifen zu können. Bedauerlich ist allerdings, dass immer noch klarere Vorgaben zu effektiven Maßnahmen gegen Energiearmut fehlen, und
dass der Einsatz von Instrumenten zu ihrer Bekämpfung, wie etwa regulierte Preise eingeschränkt wird. Für energiearme Haushalte müssen diese in fünf Jahren auslaufen.
Last but not least: Kritisch zu bewerten ist die Berücksichtigung von Atomenergie zur Erreichung der EU-Klima- und Energieziele.

Deutschlands Abgeordnete lassen sich widerspruchslos entmachten

Deutschland hat eine vergleichsweise überbordende „Abgeordnetendichte“:
China: 427.000 Einwohner/Volkskongressabgeornetem
USA: 610.000 Einwohner/Kongressabgeordneten, zzgl. Senatoren
Deutschland: 117.000 Einwohner/Bundestagsabgeordnetem

Trotzdem scheint es unseren Abgeordneten zu viel Arbeit geworden zu sein, das Volk zu vertreten. Und so wurde Entlastung ersonnen, indem man die Souveränität an Brüssel abgibt und sich von dort (ohne parlamentarische Einflussnahme) vorschreiben lässt, was Deutschland machen darf und zu machen hat. Damit nicht jemand anfängt, darüber Diskussionen anzuzetteln, haben die GroKo-Parteien es gleich vertraglich festgelegt:
[3] Koalitionsvertrag zwischen CDU, CSU und SPD, 19. Legislaturperiode:
Zeile 2549 … eine konsequente 1:1-Umsetzung von EUVorgaben.
Zeile 2910 … EU-Regelungen werden wir 1:1 umsetzen
Zeile 6455 … EU-Recht setzen wir 1:1 um

Wie ist das mit dem Grundgesetz, Artikel 20 (2) vereinbar?

Screenshot

Nachtrag

Soeben kam die Information einer Rede unseres neuen Wirtschaftsministers auf der internationalen Energiewende-Konferenz in Berlin:
WELT
17.04.2018: Altmaier akzeptiert den wahren Zustand der Energiewende
In dieser Rede soll die Nachsprechpuppe der Kanzlerin „Bewegendes“ über die Deutsche Energiewende gesagt haben, indem er so etwas wie einen Realitätssinn äußerte.
Was er aber auch gesagt hat:Die Energiewende wird nur überleben, wenn sie global wird“ … Sie sei „keine Lösung für einzelne Länder.“
Überspitzt heißt das: Die Deutsche Energiewende ist so bescheuert, dass sie nur überlebt werden kann, wenn die Länder drum herum diese „Bescheuerung“ mitmachen. Nur unter gleich Blinden kann der Einäugige besser überleben.

Wie man sieht, hilf nun die EU aus diesem Desaster.
Eine Frage stellt sich dabei sofort: Was hat Deutschland „der EU“ dafür hintenrum wieder versprochen?

Quellen

[1] BMWi: Staatssekretär Baake zu den Ergebnissen des gestrigen Energierats in Brüssel – 28 EU-Energieminister stellen Weichen auf europäische Energiewende

[2] DGB, 25.09.2017: Europa Saubere Energie für alle Europäer-Innen Das Energiepaket der Europäischen Kommission

[3] Koalitionsvertrag zwischen CDU, CSU und SPD, 19. Legislaturperiode: Ein neuer Aufbruch für Europa Eine neue Dynamik für Deutschland Ein neuer Zusammenhalt für unser Land




Neue Studie: Batterie-Speiche­rung „keine ökono­mische Perspek­tive“

Allerdings enthüllt eine neue, von der Global Warming Policy Foundation (GWPF) veröffentlichte Studie, dass die Verbraucher Gefahr laufen, geprellt zu werden. Der Autor der Studie, der Energie-Ingenieur Dr. Capell Aris, hat die Ökonomie der Batteriespeicherung untersucht und herausgefunden, dass deren hohe Kosten in UK bedeuten, dass sie sich niemals rentieren werden. Er erklärt:

„Der Preis für die Batterien ist relativ hoch, aber die möglichen Einsparungen, wenn man sie einer Solar-Installation auf dem Dach zuschaltet, sind ziemlich begrenzt, vor allem als Bestandteil der normalen Stromrechnung. Führt man eine Kosten-Nutzen-Analyse durch, wird schnell klar, dass diese Batterien reine Geldverschwendung sind“.

Dies könnte sich ändern, falls der Preis der Batterien dramatisch sinken würde, aber die Lücke zwischen Kosten und Nutzen ist derzeit so riesig, dass ein solcher Preisrückgang in naher Zukunft sehr unwahrscheinlich ist. Aris erklärt weiter:

„Es gibt keinen Zweifel, dass die Batteriepreise sinken werden, aber selbst bei optimistischsten Schätzungen müssten die Preise um mindestens 50% sinken, um die Batterien rentabel zu machen. Soll damit ein Gewinn erwirtschaftet werden, muss der Preis sogar noch stärker sinken.Dass es dazu demnächst kommen wird, ist nicht erkennbar. Batteriespeicher für Solaranlagen auf dem Dach sind einfach keine ökonomische Perspektive, und das wird höchstwahrscheinlich so bleiben.

[Bemerkung des Übersetzers: Dies erinnert mich stark an das sog. „Kosten-Energie-Äquivalentgesetz“ von Dr. Heinz Schütte, wenn ich dieses richtig verstanden habe. Das jedoch hat er schon vor einigen Jahren veröffentlicht.]

Die ganze Studie (PDF) steht hier.