1

Die Menschen werden immer dümmer – und der Klima­wandel ist nicht schuld daran

Forschung: Menschen werden immer dümmer …

lautete die informative Überschrift einer renommierten Postille [1]. Wissenschaftler in Norwegen haben festgestellt, dass die Bewohner von Norwegen von 1905 bis heute dümmer geworden sind. Sie sind sich darin so sicher, dass sie die Vermutung äußern, der IQ der norwegischen Bevölkerung würde in den nächsten hundert Jahren um weitere sieben, bis zehn Prozent abfallen [5].
BUSINESS INSIDER: [1]Seit Jahren gibt es Anzeichen dafür, dass der durchschnittliche IQ weltweit sinkt. Die norwegischen Forscher Bernt Bratsberg und Ole Røgeberg vom Frisch Centre der Universität Oslo konnten das nun erstmals anhand der norwegischen Bevölkerung nachweisen.
Während der Schnitt seit der Entwicklung des ersten massentauglichen Intelligenztests im Jahr 1905 immer weiter anstieg und im Jahr 1975 sogar einen Durchschnittswert von 102 erreichte, sank er danach bis zum Jahr 1990 stetig auf unter 100 Punkte ab. Wie die Forscher vermuten, könnte der IQ innerhalb der nächsten hundert Jahre sogar um ganze sieben bis zehn Punkte abfallen.

Das sind nicht hoch genug zu achtende Forschungsergebnisse – wie man sie sonst nur aus der modernen Klima(Folgen)-Forschung kennt. Anhand genauer und mit heutigen IQ-Messungen bestimmt vergleichbaren Daten von 1905 wurden komplexe, statistische Analysen durchgeführt [6]. Mit erschreckendem Ergebnis und noch erschreckenderer, aber präziser Hochrechnung für die kommenden 100 Jahre.
Norwegens Bevölkerung ist dann mit einer – dank hochwertiger, wissenschaftlicher Arbeitsweise engen Vorhersage-Genauigkeit, um 8,5 +-1,5 (7 … 10) Intelligenzpunkte dümmer geworden.
Ein solcher „IQ-Proxy“ erlaubt auch eine Hochrechnung auf die Welt-Gesamtpopulation „ ,,, der durchschnittliche IQ weltweit sinkt“.

Nicht Klima- sondern Umweltfaktoren sollen der Grund dafür sein

Klar wurde mit wissenschaftlicher Akribie auch nach den Gründen gesucht. Und es fand sich kein Klimawandel darunter! Es sollen nun „Veränderungen im Bildungswesen“ und Mediennutzungen sein … Wer wäre bisher ohne neue Forschungen nur auf solche weit, weit weg vom Thema liegende Möglichkeiten gekommen?
BUSINESS INSIDER: [1]Für ihre Studie ermittelten die Wissenschaftler den Intelligenzquotienten von Testpersonen … und untersuchten außerdem genetische Veränderungen und Veränderungen, die verschiedenen Umweltfaktoren zuzuschreiben sind … Vielmehr sollen Umweltfaktoren für diesen negativen Trend verantwortlich sein. Dazu zählen den Forschern zufolge Veränderungen im Bildungswesen, bei der Nutzung verschiedener Medien sowie bei der Ernährung …

Statistik

Wenn man schon beim Nachsehen ist, anbei ein paar Daten [7]:
– Singapur hat Rang 1 mit einem IQ von 108
– Deutschland Rang 15 mit einem IQ von 100 (gleichauf mit Österreich)
– Norwegen Rang 19 mit einem IQ von 99
– Frankreich und USA Rang 26/27 mit einem IQ von 98
(der gleiche IQ wählt einmal Trump und einmal Macron. Vielleicht unterscheiden sich die Beiden gar nicht so stark)
– Äquatorialguinea steht an letzter Stelle mit Rang 109 und einem IQ von 56

Obwohl die Norweger also dümmer geworden sind, liegen sie lediglich einen einzigen, wohl kaum unterscheidbaren Punkt niedriger als Deutschland. Nun wäre es interessant zu wissen, wo Deutschland im Jahr 1905 stand.

Es gibt verschiedene Korrelationen

Anbei die Korrelation zwischen den Bildungsausgaben und IQ-Rang eines Landes (Rang 0 ist der Spitzenplatz). Leider ist nicht erkennbar, wie sich diese Bildungsausgaben zusammensetzen. Manche werden ahnen, welche Länder weit links stehen. Der Kontinent mit den meisten Länderprobanden liegt auf dem Globus in Südrichtung direkt unter uns.

Bild 1 Scatterdiagramm IQ-Länderrang (Rang 0 = bester Platz), Bildungsausgabe/Einwohner, logarithmische Regressionskurve. Datenquelle: [7] Grafik vom Autor erstellt
Fast identisch sieht das Diagramm zwischen dem IQ-Länder-Ranking und mittlerem Einkommen aus.

Bild 2 Scatterdiagramm IQ-Länderrang (Rang 0 = bester Platz), Einkommen/Einwohner, logarithmische Regressionskurve. Datenquelle: [7] Grafik vom Autor erstellt

Trotzdem war noch etwas mit Intelligenz und Klima

Laenderdaten.Info: [7]Ist Intelligenz abhängig vom Klima?
Schon seit 1991 besteht die Vermutung, dass über Generationen anhaltende Wärme sich auf den IQ auswirkt. Man ging zunächst davon aus, dass ein Leben in niedrigeren Temperaturen eine höhere körperliche Fitness voraus setzt und höhere soziale Anforderungen an das Leben stellt. Richard Lynn, Professor an der nordirischen University of Ulster geht zudem davon aus, dass die kälteren Temperaturen das Gehirnvolumen ansteigen lassen. Ob die Gehirngröße mit der Intelligenz überhaupt in Verbindung steht, ist allerdings umstritten.
Generell gilt ein heißes Klima als nachteilig für die Entwicklung von Intelligenz. Der Grund hierfür wird heutzutage vorwiegend in dem hohen körperlichen Energiebedarf und dem
dadurch entstehenden Stress gesehen. Insbesondere Kleinkinder verwenden bis zu 90% der Körperenergie für das Gehirn. Wenn in dieser für die Entwicklung wichtigsten Lebensphase die Energie anderweitig benötigt wird, kann sich das Gehirn nicht entsprechend entwickeln.

Dazu die Grafik mit dem Scatterdiagramm zwischen IQ-Rang (Rang 0 ist der Spitzenplatz) und der mittleren Tageshöchsttemperatur. Es zeigt sich ein eindeutiger Zusammenhang. Mehr Tageshitze macht das Landesranking und damit den IQ schlechter.
Nach anderen Ursachen braucht niemand mehr zu suchen, erlauben es sich Klimawandel-Forscher zu solch eindeutigen Diagrammen zu sagen. Diese „eindeutige“ Bild wird nur dadurch gestört, dass die schlimmen Ausreißer erfolgreiche, asiatische Staaten sind.

Bild 3 Scatterdiagramm IQ-Länderrang (Rang 0 = bester Platz), mittlere Tageshöchsttemperatur °C, Lineare Regressionskurve. Datenquelle: [7] Grafik vom Autor erstellt
Damit kann jeder relativ leicht entscheiden, ob das Klima (wie es Wissenschaftler vemuten), oder Anderes (mehr) am IQ „dreht“.

Noch etwas Interessantes findet sich auf der IQ-Infoseite. Der IQ schwankt je nach psychischer Verfassung mit einer Spanne von 20 (+-10) Punkten:
Laenderdaten.Info: [7]Der Intelligenzquotient wurde so bemessen, dass der Mittelwert bei 100 liegt. Bei einer Standardabweichung von 15% ist also ein IQ zwischen 85 und 115 als normal anzusehen. Je nach psychischer und physischer Verfassung des Probanden können zudem die Messergebnisse um bis zu 10 Punkte nach oben und unten schwanken.
Nun stelle man sich vor, die psychische Verfassung der Proband*innen hat sich die letzten Jahre durch die dauernde, mediale Klimawandelfolgen-Hysterie verändert. Dann ließen sich die wenigen Punkte „Verdummung“ und der minimale Abstand zu Deutschland leicht erklären.
Mit ganz geringem „Bildungsaufwand“ wäre es dann auch möglich, die Norweger vor dem 8,5 +-1,5 IQ-Punkteverlust in 100 Jahren durch einfache (psychische) Maßnahmen zu heilen.

Quercheck

Keine Sichtung ohne den obligatorischen Quercheck. Gibt es etwa in Deutschland Anzeichen, dass – wie in [7] berichtet wird -, die Temperatur im Babyalter Einfluss auf den IQ hat.
Es findet sich eine Quelle mit umfassender Information:
P.M. Magazin (gekürzt): [8] Der Geburtsmonat prägt unser Leben entscheidend
… Der Geburtsmonat eines Menschen hat nachweislich Einfluss auf seine Entwicklung, Gesundheit, Charakter und Beruf, berichtet die Zeitschrift P.M. MAGAZIN in ihrer Februar-Ausgabe. Eine große Rolle spielen dabei die äußeren Einflüsse, denen ein Kind zum Zeitpunkt der Geburt und in den Monaten zuvor im Mutterleib ausgesetzt ist.
Ausgewählte Merkmale für jeden Geburtsmonat:
Januar: höheres Risiko für Schizophrenie, Epilepsie und Alzheimer; tendenziell Frühaufsteher
Februar: höheres Risiko für Essstörungen und Pollenallergien
März: überdurchschnittlich früh einsetzende Wechseljahre bei Frauen; höheres Risiko für Alkoholismus und Kindheit-Diabetes
April: höhere Kinderzahl und Körpergröße bei Männern; tendenziell geringerer Intelligenzquotient
Mai: überdurchschnittlich viele Selbstmorde; erhöhtes Multiple-Sklerose-Risiko; eher Nachtmenschen
Juni: geringes Geburtsgewicht; viele Nobelpreisträger …

So wirklich Hilfreiches findet sich darin nicht. Im April geborene Männer haben einen geringeren Intelligenzquotient. Aber drei Monate später im Hochsommer Geborene können bereits Nobelpreisträger werden. Das war es aber schon über das gesamte Jahr mit einem Temperatureinfluss. Richtig zwingend Temperatur-korrelativ erscheint dies nicht.
Zur wichtigen Eigenanamnese vor Besuchen beim Arzt oder Psychologen ist diese Listung allerdings gut zu gebrauchen. Man kann sich damit als kompetenter Patient fühlen.

Quellen

[1] BUSINESS INSIDER Deutschland 14.06.2018, Jessica Dawid: Die Menschen werden immer dümmer — jetzt gibt es einen wissenschaftlichen Beweis

[2] EIKE 20.02.2018: Der Klimawandel macht dumm

[3] WUWT October 17, 2012: Claim: CO2 makes you stupid? Ask a submariner that question

[4] EIKE 14. Juni 2018: AfD Abgeordnete führen Ministerin Schulze vor – Auf klare einfache Fragen nur verschwiemelte, ausweichende Antworten

[5] Bernt Bratsberg and Ole Rogeberg, Studie: Flynn effect and its reversal are both environmentally caused

[6] Bernt Bratsberg and Ole Rogeberg: Supplementary Information for “The Flynn effect and its reversal are both environmentally caused” Authors:

[7] Laenderdaten.Info: Der IQ im Ländervergleich

[8] Gruner+Jahr, P.M. Magazin, 16.01.2014: Der Geburtsmonat prägt unser Leben entscheidend




Infraschallauswirkungen aufs Herz – Neues zur Vahl-Studie an der Uni Mainz

Lesen Sie dazu unseren Bericht über die vorausgegangenen Untersuchungen der Forscher um Prof. Vahl vom 06. März 2018:

Forschung in Mainz: Infraschall mindert Herzmuskelkraft um bis zu 20 Prozent

Video Ausschnitt der swr-aktuell Sendung vom 25.4.18 über die Gesundheitsgefährdung durch von Windrädern erzeugten Infraschall

Drei Infraschallstudien – drei unterschiedliche Herangehensweisen – drei gleiche Ergebnisse

Vahl-Studie: Beschallung lebender Präparate

Die im Interview der Allgemeinen Zeitung mit Prof. Christian-Friedrich Vahl angekündigte Beschallung des lebenden Präparats mit Infraschall konnte mittlerweile durchgeführt werden. Ergebnis: Die Aktivität der Herzfaser wird nachweislich beeinflusst.

Prof. Vahl:” Was wir als gesichert sehen ist, dass die Applikation von Schallwellen, also Vibrationen mit niedrigen Frequenzen zu einer Hemmung der Kraftentwicklung von Herzmuskelpräparaten führt.”

VAD-Forschungen: Nachweis durch pathologische Untersuchungen

Damit bestätigt er die eindrucksvollen jahrzehntelangen Arbeiten zur Vibro Acoustic Disease (VAD) von Prof. Mariana Alves-Pereira, die bereits seit den 80er Jahren  gemeinsam mit Dr. Nuno Castelo Branco in Portugal an der Lusofóna Universität Lissabon im Staatsauftrag  zu Gewebeveränderungen u.a. am Herzen forscht und Herzwand- und Gefäßverdickungen durch Collagenzunahme  unter dem Einfluß der Beschallung mit Infra und tieffrequentem Schall belegt.

Die VAD-Forschungen sind international bekannt und werden in Deutschland seit Jahren verleugnet – Ein Ritterschlag der WK-Lobby:
https://www.nhmrc.gov.au/_files_nhmrc/file/media/events/windfarms_science_forum_mariana_alves_pereira.pdf

Studie zur toxischen Wirkung: Beschallung im Tierversuch

Auch die bemerkenswerte Forschungsarbeit von Wissenschaftlern aus Kasachstan und Ägypten von 2010 zur toxischen Wirkung von Infraschall auf das Immunsystem,
von uns am 22.06.2014 auf www.windwahn.de veröffentlicht, weist im Tierversuch etliche Veränderungen nach, z.B.:


“Andere Frequenzen und Schalldrücke führen bei 4 verschiedenen Tierarten zu weiteren Schädigungen wie Arterienverengungen, Kern-Deformationen und mitochondriale Schädigungen, Pathologien der Herzmuskelzellen, reduziert kontraktile Funktion des Myokards, Mikrozirkulationsstörungen, Ischämie und mitochondriale Zerstörung in den Kapillaren, Störungen des Enzymniveaus der Mitochondrien.

“Infraschall – toxische Wirkung auf das Immunsystem”
Unbedingt noch einmal lesen und weitergeben!

Infraschall: Toxische Wirkung auf das Immunsystem

Diese Forschungen werden uns noch oft beschäftigen.

Übernommen von Windwahn e.V hier




Aktionismus in Hamburg und Forderung flächendeckender Fahrverbote in Deutschland

Fahrer müssen sich jetzt eine Ausweichroute um die Stresemannstraße suchen, die 4,8 km lang ist und damit länger als die eigentliche Route von 1,6 km. Ein erheblicher Umweg, der Zeit, Geld und Sprit plus Abgase kostet.

Tag eins der neuen Zeit in Deutschland: Hamburger Dieselfahrer retten das Klima und fahren seit Mitternacht des 31. Mai 2018 fortan nicht mehr über 580 Meter der Max-Brauer-Allee sowie über 1,6 Kilometer der Stresemannstraße. 55 Umleitungs- und 49 Verbotsschilder wurden aufgestellt. Das Bußgeld bei einem Verstoß beträgt 20 Euro für Pkw und bis zu 75 Euro für Lkw.

58 Mikrogramm pro Kubikmeter Luft an NO2 in der Luft an dieser Messstelle sollen auf 40 Mikrogramm pro Kubikmeter Luft gedrückt werden. Eine Gefahr für die Gesundheit besteht laut Aussage von Wissenschaftern nicht.

Die Luftmessstation in der Max-Brauer-Allee steht auf einem Mittelstreifen idyllisch unter Bäumen, die ein dichtes Dach bilden und den Luftaustausch stark einschränken. Das ergab unsere Leseraktion in der Folge im März dieses Jahres.

Ob diese Messstation korrekt misst, darf bezweifelt werden. Unter Bäumen darf laut Anhang 3, Buchstabe C der der 39. Bundesimmissionsschutzverordnung (BImSchgV) nicht gemessen werden, eine Station in der Mitte einer Allee verstößt gegen Anhang 3, Buchstabe A 2 c) der 39. BImSchgV.

Der Ingenieur Fred F. Mueller fand zudem heraus: »Bei amtlichen Kontrollmessungen zeigte sich, dass die NO2-Konzentrationen am Messpunkt GM-12 um 16 % niedriger waren, am Messpunkt GM-10 lag die Belastung sogar um volle 30 % tiefer. Ein Beleg dafür, wie massiv der Einfluss der Distanz des gewählten Messpunktes zum Maximalpunkt der Emissionen ist.«

Einen deutlichen Rückgang des Berufsverkehrs haben die Reporter von Bild am Morgen des Donnerstags nicht bemerkt. Sie sahen sich schon früh auf den beiden betreffenden Straßenabschnitten um. Allerdings berichteten sie von empörten Anwohnern der Umgehungsstraßen, durch die jetzt der Verkehr rollt. Denn die Fahrer müssen sich jetzt eine Ausweichroute um die Stresemannstraße suchen, die 4,8 km lang ist und damit länger als die eigentliche Route von 1,6 km. Ein erheblicher Umweg, der Zeit, Geld und Sprit plus Abgase kostet.

Laut Bild verwarnt die Polizei nur; sie kann nur stichprobenartig kontrollieren, denn einem Auto sieht man von außen nicht an, was für ein Motor unter der Haube steckt. Also: Auto anhalten lassen, Fahrzeugschein herausfummeln, Blick auf die erfüllten Norm – das kostet Zeit und Nerven. Doch die Polizei verspricht schon: »Großkontrollen sind in Planung. Zunächst wollen wir informieren statt sanktionieren.«Bild zitiert Anwohner, die an der Umgehungsroute wohnen und bereits jetzt die Nase voll haben: »Wir können unsere Fenster nachts nicht mehr aufmachen, unser kleines Kind hustet nachts.«

Der grüne Hamburger Umweltsenator Jens Kerstan verteidigt die Fahrverbote: »Es ist unser Ziel und unsere Verantwortung, die Bürgerinnen und Bürger vor schädlichen Abgasen zu schützen.«

Vielleicht sähen es die Bürgerinnen und Bürger Hamburgs lieber, wenn der Senat ihr Leben zuerst vor messernden Neuankömmlingen und ihr Eigentum vor Antifa-Chaoten schützen würde. Das klappt noch nicht so gut; das Abfackeln von Autos in einem hohen Flammenmeer mit dunklen Rußfahnen verhageln die Bilanzen in Portemonnaies und Schadstofftabellen.

Mit dem »Schutz« vor kaum vorhandenen Abgasen, für deren Schädlichkeit es keine Belege gibt, tut sich der Senat schon leichter. »Solange die Bundesregierung nicht handelt, werden wir diese Straßensperrungen aufrechterhalten.«

Gnädigerweise will der Umweltsenator das Fahrverbot nicht auf die gesamte Stadt ausweiten, dies sei nicht verhältnismäßig den Fahrern von Dieselfahrzeugen gegenüber.

Die einschlägigen NGOs und Umweltverbände betonten, dass die Sperrung beim Straßenabschnitt nicht ausreichend sei.

Die Grünen wollen das totale Dieselverbot und fordern gleich flächendeckende Fahrverbote in ganz Deutschland. Der Grüne Cem Özdemir will keinen „Flickenteppich an Maßnahmen“ in Deutschland, sondern pauschale Fahrverbote mit der »blauen Plakette«.

ALIBIPOLITIK

Hamburg: Diesel-Fahrverbot ab kommender Woche

»Wenn Sie künftig von Hamburg nach Stuttgart fahren, brauchen Sie vielleicht ein dickes Handbuch, wo drin steht, wo Sie mit welchem Fahrzeug reinfahren dürfen und wo nicht«, befürchtet der grüne Sozialpädagoge. Einfacher wäre aus seiner Sicht eine bundesweite blaue Plakette. »Dann gibt es eine klare Regelung. Der moderne Diesel darf rein, die anderen dürfen in der Zeit der Überschreitung nicht rein.«Hand in Hand gehen Grüne mit dem Abmahnverein Deutsche Umwelthilfe (DUH), der ebenfalls flächendeckende Dieselverbote will. Danach soll der Benziner dran sein, der ebenfalls verboten werden muss, geht es nach dem DUH-Chef Jürgen Resch.

Bereits jetzt sind die Grundlagen dafür gelegt worden, dass in drei Jahren unsere jetzigen Autos überhaupt nicht mehr fahren dürften. Zum Schutz der Umwelt – natürlich – müssen die Grenzwerte noch weiter herabgesetzt werden. Dasselbe Spiel wie aktuell deutet sich an: Die EU will ab 2021 neue Verbrauchstests für Pkw und leichte Lkw einführen. Diese Grenzwerte sind so niedrig, dass sie mit Fahrzeugen mit Diesel oder Benzinern nicht mehr erreicht werden können. Nur mit Luft und Liebe lässt sich eben kein Auto mehr antreiben.

Auf den Weg gebracht wurde dieser Vorschlag von Deutschland bei der EU. Die Einspruchsfrist bei der EU endete im Frühjahr. Deutschland hat auf sein Recht des Einspruchs verzichtet. Das bedeutet: In drei Jahren können solche Trupps wie die von der Deutschen Umwelthilfe, wenn es die dann noch gibt, ihre neuen Klagewellen lostreten. Alles völlig legal, steht dann so in den Vorschriften und Gesetzen.

Der Beitrag erschien zuerst bei TICHYS Einblick hier




Roda Verheyen II: Familie auf Langeoog verklagt EU für mehr Klimaschutz

von Michael Krüger,

Eine Familie von der Nordsee-Insel Langeoog hat die Europäische Union verklagt, damit der Staatenverbund mehr für den Klimaschutz tut.

Mit ihr fordern neun weitere Familien aus Europa, Kenia und Fidschi vor dem Gericht der Europäischen Union einen besseren Schutz ihrer Grundrechte, wie die Umwelt- und Entwicklungsorganisation Germanwatch am Donnerstag mitteilte. Ein Urteil wird 2019 erwartet.

Die klagende Familie Recktenwald wohnt seit vier Generationen auf der ostfriesischen Insel Langeoog. Sie sieht ihre Heimat und ihr als Familienbetrieb geführtes Hotel und Restaurant durch den steigenden Meeresspiegel bedroht. Was ist dran, an dieser Behauptung? Dem möchte ich nachgehen.

Zur Siedlungsgeschichte an der deutschen Nordseeküste

Vor 2.000 Jahren lebten die Stämme der Chauken auf Erdhügeln, wie aus den Chroniken der Römer hervorgeht. Die Chauken gehörten nach Tacitus zur Gruppe der von der Nordseeküste stammenden Ingaevonen.

Chauken

77 n. Chr. beschrieb der römische Chronist Plinius das Volk, das auf künstlich aufgeworfenen Erdhügeln im Küstenbereich, den Warften lebte, wie folgt:

„… Gesehen haben wir im Norden die Völkerschaften der Chauken, die die größeren und die kleineren heißen. In großartiger Bewegung ergießt sich dort zweimal im Zeitraum eines jeden Tages und einer jeden Nacht das Meer über eine unendliche Fläche und offenbart einen ewigen Streit der Natur in einer Gegend, in der es zweifelhaft ist, ob sie zum Land oder zum Meer gehört. Dort bewohnt ein beklagenswertes Volk hohe Erdhügel, die mit den Händen nach dem Maß der höchsten Flut errichtet sind. In ihren erbauten Hütten gleichen sie Seefahrern, wenn das Wasser das sie umgebende Land bedeckt, und Schiffbrüchigen, wenn es zurückgewichen ist und ihre Hütten gleich gestrandeten Schiffen allein dort liegen. Von ihren Hütten aus machen sie Jagd auf zurückgebliebene Fische. Ihnen ist es nicht vergönnt, Vieh zu halten wie ihre Nachbarn, ja nicht einmal mit wilden Tieren zu kämpfen, da jedes Buschwerk fehlt. Aus Schilfgras und Binsen flechten sie Stricke, um Netze für die Fischerei daraus zu machen. Und indem sie den mit den Händen ergriffenen Schlamm mehr im Winde als in der Sonne trocknen, erwärmen sie ihre Speise und die vom Nordwind erstarrten Glieder durch Erde.“ [Gekocht und geheizt wurde also mit Torf.] „Zum Trinken dient ihnen nur Regenwasser, das im Vorhof des Hauses in Gruben gesammelt wird …“

– Plinius: Naturalis historia XVI 1, 2–4

deichbau1

Um das Jahr 1100 kamen holländische Siedler an die deutsche Nordseeküste und machten das Land urbar. Deiche wurden gebaut und das Deichhinterland entwässert. Die Holländer wollten ihre überbevölkerte Heimat verlassen und beabsichtigten das Ödland zu entwässern und zu bewirtschaften, denn es handelte sich um fruchtbaren Marschenboden, den die Frühjahrs- und Herbsthochwasser herangeschwemmt hatten. Unsere Vorfahren mussten sich immer wieder den klimatischen Begebenheiten anpassen und mit Unwettern kämpfen. Aus dieser Zeit stammt auch der Spruch „Deichen oder weichen“.

Immer wieder wurde die norddeutsche Küste von verheerenden Fluten heimgesucht, wie die Erste Marcellusflut von 1219, die Zweite Marcellusflut, Erste Mandränke von 1362, die Burchardiflut, Zweite Mandränke von 1634. Seit 1634 (der Burchardiflut oder Zweite Grote Mandränke) sind keine größeren Landverluste mehr an der deutschen Nordseeküste aufgetreten. Im Gegenteil, man hat durch eingedeichte Polder das früher verschlungene Land dem Meere z. T. wieder abgerungen. Die Holländer leisteten dabei Pionierarbeit. Die Landverluste und die Küstenentwicklung der letzten Jahrhunderte an der deutschen Nordseeküste zeigen die folgenden Abbildungen.

sturmfluten3

ostfriesland-1595-heute2

Früher lagen Orte wie Jever und Carolinensiel direkt an der friesischen/ ostfriesischen Nordseeküste und wurden als Häfen genutzt. Heute liegen diese Orte Dank Landgewinnung, Deichbau und Entwässerung einige Kilometer im Landesinneren. An der nordfriesischen Küste wurde ebenfalls Land dem Meer abgerungen.

D0088_1_deutsch_D1-1_Web300RGB

Nach der Burchardiflut von 1634 kam es vermehrt zum Bau Oktroyierter Köge. Bekannte Köge sind beispielsweise:

Köge im Kreis Dithmarschen
Christianskoog
Delver Koog
Dieksanderkoog (ehemals Adolf-Hitler-Koog)
Friedrichsgabekoog
Friedrichskoog
Hedwigenkoog
Kaiser-Wilhelm-Koog
Karolinenkoog
Kronprinzenkoog
Neufelderkoog
Preiler Koog
Speicherkoog in der Meldorfer Bucht
Wesselburenerkoog
Westerkoog

Köge im Kreis Nordfriesland
Augustenkoog
Beltringharder Koog
Hauke-Haien-Koog (nach der Hauptfigur der Novelle Der Schimmelreiter von Theodor Storm benannt)
Friedrich-Wilhelm-Lübke-Koog – 1954 letzter zur Besiedlung eingedeichter Koog Schleswig-Holsteins.
Gotteskoog
Tümlauer-Koog (ehemals Hermann-Göring-Koog)
Norderheverkoog (ehemals Horst-Wessel-Koog)
Uelvesbüllerkoog (Gemeinde Uelvesbüll)
Bottschlotter Koog (Gemeinde Dagebüll)
Kleiseerkoog (Gemeinde Galmsbüll)
Herrenkoog
Köge der früheren Insel Nordstrand
Elisabeth-Sophien-Koog
Alter Koog
Osterkoog
Trendermarschkoog
Neukoog
Morsumkoog
Pohnshalligkoog
Köge der Gemeinde Reußenköge
Cecilienkoog
Desmerciereskoog
Louisen-Reußen-Koog
Reußenkoog
Sönke-Nissen-Koog
Sophien-Magdalenen-Koog

Köge im Kreis Pinneberg
Hetlinger Neuerkoog

Die wechselhafte Geschichte der ostfriesischen Inseln

Inselverlagerung

Die ostfriesischen Inseln wie Langeoog sind einer stetigen Verlagerung durch die Gezeitenströme unterlegen. Im Westen der Inseln wird Land weggespült und im Osten neues Land/ Sand angespült. Dadurch wandern die Inseln von West nach Ost. Ganze Orte gingen so auf den Inseln verloren und mussten neu aufgebaut werden. Der Westturm von Wangerooge wurde um 1600 an der Ostküste der Insel erbaut. 1793 stand er in der Inselmitte. Vor dem ersten Weltkrieg befand er sich im Westen bereits im Wasser.

norderney

Die Insel Juist wurde gar in zwei Teile geteilt. Im Verlauf der Petriflut 1651 trennte der sog. Hammer-Durchbruch die Insel in zwei Teile. Erst 1877 wurde der Durchbruch im Süden und 1927 bis 1932 im Norden durch Dünenbaumaßnahmen geschlossen. Zwischen den beiden Dünenketten entstand der ca. 30 ha große ausgesüßte Hammersee. Auch die Insel Langeoog war betroffen. Es ist zu lesen, dass die Petriflut am 22. Februar 1651 zu einem Durchbruch der Insel geführt haben soll. Die Weihnachtsflut von 1717 riss die Insel in der Nähe des Großen Schlopp (Grote Sloop; Sloop bezeichnet dabei einen linienhaften Dünendurchbruch) gar in zwei Teile. Die Kirche und das Pfarrhaus wurden dabei zerstört, das zu diesem Zeitpunkt wieder im Westteil der Insel befindliche Dorf beschädigt. Bis auf vier Familien verließen daraufhin die Bewohner die Insel. Nach einer weiteren schweren Sturmflut wurde die Insel im Jahr 1721 komplett verlassen. Und auch die Entstehunggeschichte von Norderney ist nicht weniger spektakulär. Die sog. „Zweite Marcellusflut“ von 1362 hat nach jetzigem Stand der Forschung die Insel Buise in zwei Teile zerbrochen. Der östliche Teil erhielt den Namen „Osterende“ und wurde stetig größer, während Buise selbst immer kleiner wurde und nach der Petriflut von 1651 in der Nordsee verschwand. Osterende wurde 1550 in einem Rechnungsbuch der Gräfin Anna erstmals unter dem Namen „Nordernye-Oog“ (Nordens neues Auge, später: „Norderney“) erwähnt. Solche Durchbrüche, Inselverluste und Inselverlagerungen treten heute nicht mehr auf, Dank Küstenschutz.

 

Karte_Insel_Juist

Durch die Gezeitenströme unterliegt die norddeutsche Küste aber einen stetigen Wandel. An einer Stelle verschwinden Land und Inseln, an anderer Stelle entsteht neues Land und neue Inseln. Das ist bis heute zu beobachten. Die Kachelotplate ist eine Sandbank bei Juist, die gerade zur Insel wird. Die sogenannte Kachelotplate war schon 1840 in einer Landkarte der Region eingezeichnet, doch erst 2006 wurde eindeutig klar, dass bei dieser Sandbank fünf Kilometer südwestlich von Juist und drei Kilometer westlich von Memmert enorm was im Gange ist. Schon vor 35 Jahren hatte sich auf der Plate soviel Sand aufgetürmt, dass selbst bei mittlerem Tidehochwasser immer noch eine Spitze davon zu sehen war. 2004 betrug diese Fläche dann schon stolze 230 Hektar und zwei Jahre später konnte Kachelot (leitet sich vom französischen Wort “cachalot” = Pottwal ab) schon 2,5 Meter hohe Dünen mit Grasbewuchs vorweisen. Die derzeit 150 Hektar große Kachelotplate westlich von Juist unterliegt weiterhin ständigen Veränderungen: Aufgrund der seit 2001 zu beobachtenden Ostwärtsverlagerung ist es nur eine Frage der Zeit, bis sich die Kachelotplate mit der Insel Memmert verbindet.

113113

Auch der aktuelle Meeresspiegelanstieg an der deutsche Nordseeküste ist alles andere als dramatisch, wie der Pegel von Norderney zeigt. Dort ist ein Meeresspiegelanstieg von ca. 25 cm in den letzten 100 Jahren zu verzeichnen, der sich nicht beschleunigt hat. Auch die Anzahl der Sturmfluten und schweren Sturmfluten hat in den letzten 100 Jahr nicht zugenommen.

Auch die Anzahl der Sturmfluten und schweren Sturmfluten hat in den letzten 100 Jahr nicht zugenommen.

Pegel-Norderney

Sturmfluten

Im Angesicht der letzten 2.000 Jahre, dem modernen Küstenschutz und dem aktuellen Meeresspiegelanstieg ist die Sorge der Familie Recktenwald also völlig unbegründet.

Der Beitrag erschien zuerst bei Science Sceptical hier

Auch Die kalte Sonne nimmt sich dieser dreisten Tatsachenverdrehung an und zitiert zunächst die Ehefrau der beiden Kläger

ZEIT ONLINE: Frau Recktenwald, warum beteiligen Sie sich an der Klage?

Maike Recktenwald: Wir nehmen den Klimawandel besonders wahr, weil wir hier mit der Natur leben. Wir wohnen hundert Meter vom Strand entfernt und der Meeresspiegel steigt. Auch wenn wir das noch nicht sehen können, so ist das doch eine langfristige Bedrohung für unser Dorf. Schon jetzt merken wir den Unterschied beim Wetter: Im vergangenen Winter hatten wir sehr viel Niederschlag und extrem viel Westwind. Normalerweise haben wir in den Wintermonaten Ostwind. Der Westwind drückte das Regenwasser in die deutsche Bucht hinein. Normalerweise leiten die Deichschleusen das Regenwasser über das Entwässerungssystem von der Insel ab. Dieses Mal aber war das System voll ausgelastet, beinahe ist das Regenwasser ungefiltert in die Süßwasserbrunnen gelaufen. Dann hätten wir auf der Insel keine Trinkwasserversorgung mehr gehabt. Das könnte man jetzt als Sonderfall abtun. Ich bin mir sicher: Es ist eine Folge des Klimawandels. Wenn der Meeresspiegel weiter steigt, ist die Entwässerung der ostfriesischen Inseln in hundert Jahren gar nicht mehr möglich. Dazu gibt es inzwischen Messungen.

Um dann die Behauptungen von Frau Rektenwald Stück für Stück auseinander zu nehmen




Deja Vu: Es lief doch so gut mit der Ethikkommission! Modell für die Kohleausstiegskommission.

Kohleausstiegskommission – Ergebnis schon klar!

Vorgestern, am 29.05.2018 wurde der Beschluss der Zusammensetzung der Kohleausstiegskommission ) euphemistisch „Kohlekommission“ genannt) erneut vertagt. Trotzdem sickerte die geplante Besetzungsliste bereits durch.

Link: https://www.lr-online.de/lausitz/cottbus/chaos-um-kohlekommission-zwei-lausitzer-sollen-rein_aid-23139137

Geplant lt. LR online:

Vorsitz:

Ronald Pofalla – Kommentar: Sozialpädagoge, Rechtsanwalt, CDU, Ex-Bundeskanleramt, Vorstand Deutsche Bahn

Matthias Platzeck – Kommentar: Kyberniter, Grüne, SPD, Landesminister, Ex-MP Brandenburg

Stanislaw Tillich – Kommentar: Konstruktionsingenieur, Unternehmer, CDU, Landesminister, Ex-MP Sachsen

Barbara Praetorius – Kommentar: Volkswirtin und Politikwissenschaftlerin, für schnellen Ausstieg aus „dreckiger“ Braunkohle, ehemals AGORA Energiewende

Mitglieder:

1 Prof. Dr. Jutta Allmendinger – FU Berlin – Kommentar: Soziologin, Gerechtigkeitsforscherin

2 Antje Grothus – Bürgerinitiative „Buirer für Buir“ – kein Kommentar

3 Christine Herntier – Sprecherin Lausitzrunde – Kommentar: Spremberger Bürgermeisterin, Diplomökonomin

4 Martin Kaiser – Geschäftsführer Greenpeace – kein Kommentar

5 Stefan Kapferer – Bundesverband Energie- und Wasserwirtschaft – Kommentar: Verwaltungswissenschaftler, FDP

6 Prof Dieter Kempf – Präsident Bundesverband der Deutschen Industrie – Kommentar: Diplom-Kaufmann, umfangreiche Führungspositionen in der Wirtschaft

7 Stefan Körzell – Deutscher Gewerkschaftsbund – Kommentar: Gewerkschaftslaufbahn, SPD, Fan der Energiewende, aber sozial verträglich und gerecht

8 Ingo Kramer – Bundesvereinigung der Deutschen Arbeitgeberverbände – Kommentar: Wirtschaftsingenieur, Geschäftsführer Familienunternehmen, FDP

9 Michael Kreuzberg – Landrat Rhein Erft Kreis – Kommentar: Sozialwissenschaflter, Germanistiker, Lehrer, CDU

10 Felix Matthes – Ökoinstitut – Kommentar: Studium E-Technik, Promotion Politik, Protagonist frühen Kohleausstiegs

11 Claudia Nemat- Telekom – Kommentar: Studium Physik, Philosophie und Mathematik, Lehrtätigkeit, Mc Kinsey, Telekom, Fan der Smart Grids

12 Kai Niebert – Universität Zürich – Kommentar: Studium Biologie, Chemie. Politik, Nachhaltigkeitswissenschaflter, Ausstiegsfan

13 Annekatrin Niebuhr – Uni Kiel – Kommentar: Volkswirtschaftlerin, Forschung im Bereich regionale Wachstumsstrukturen

14 Reiner Priggen -Landesverband EEG NRW – deutscher Politiker der Partei Bündnis 90/Die Grünen.

15 Katherina Reiche – Verband kommunaler Unternehmen – Kommentar: Diplom-Chemikerin, Ex-CDU-MDL, StaatssekretätinUmwelt, Realpolitikerin

16 Gunda Röstel – Geschäftsführerrin Stadtentwässerung Dresden – Kommentar: Sonderschulpädagogin, Vorstand Grüne, Vorstandsmitglied EnBW, BDEW, Realpolitikerin

17 Andreas Scheidt – Verdi – Kommentar: Elektriker, Leitstandsfahrer, Gewerkschafter, fordert sozial Verträglichen Umgang mit dem Ausstieg

18 Hans Joachim Schellnhuber – Potsdam-Institut für Klimafolgenforschung – kein Kommentar

19 Eric Schweitzer – Deutscher Industrie und Handelskammertag – Kommentar: Politologe, Vorstand Alba Group, fordert ökonomisch vertretbare Energiewende und echte Konkurrenz

20 Michael Vassiliadis – IG Bergbau, Chemie, Energie – Chemielaborant, SPD, Gewerkschaftler

21 Ralf Wehrspohn – Fraunhofer Institut für Mikrostruktur von Werkstoffen – Kommentar: Physiker, Forscher, Photovoltaik, Materialeffezienz

22 Hubert Weigner – BUND – kein Kommentar

23 Hannelore Wodtke – „Grüne Zukunft Welzow“ – kein Kommentar

Eine; sicherlich durchaus wenig objektive; Einschätzung der Zusammensetzung der Kommission, selbst wenn sich hier und da noch etwas ändert, zeigt ein zu erwartendes Ergebnis von

11 Stimmen für den schnellen bis direkten Kohleausstieg.  Hierzu Zitat Barbara Praetorius: „Kohle im Stromsektor, aber auch Öl und Gas im Verkehr und in der Wärmeversorgung müssen ersetzt werden. Die Perspektive lautet Elektromobilität und mehr Wärmepumpen, beides betrieben mit Strom aus Erneuerbaren Energien. Technisch ist das unbestritten möglich. Aber um die fossilen Energien zu ersetzen, müssen auch mehr Wind- und Sonnenstromanlagen gebaut und Braunkohlegruben geschlossen werden.“

8 Stimmen für ein Ja, aber nur wenn der Wandel sozialverträglich gestaltet wird. Hierzu Zitat Andreas Scheidt, Verdi: „Ein vorzeitiger Ausstieg aus der Kohleverstromung muss eine verbindliche Übereinkunft beinhalten, dass diese Beschäftigten keinerlei materielle Einbußen erleiden, wenn ihr Arbeitsplatz aufgrund von politischen Entscheidungen verloren geht.“

7 Stimmen für einen ökonomisch und sozial planbaren Ausstieg. Zitat Christine Herntier: „Deutschland ist ein wirtschaftlich sehr erfolgreiches Land, das auch über einen breit aufgestellten und innovativen Dienstleistungssektor verfügt. Doch die Grundlage für Dienstleistungen ist die industrielle Wertschöpfung. Und deren Voraussetzung wiederum ist bezahlbare und zuverlässig verfügbare Energie.“

Die Zusammensetzung der Kommission lässt also ein Ergebnis im Sinne der grünen Kanzlerin erwarten: „Wir schaffen das“; mit einer Prognose meinerseits mit 2030 als Datum zum kompletten Ausstieg, koste es, was es wolle. Die Berücksichtigung von NGO’s und Bürgerinitiativen für den direkten Ausstieg (Buirer für Buir, Grüne Zukunft Welzow) aus der Braunkohle bei gleichzeitigem Ignorieren des anderen Seite (Pro Lausitz, Unser Revier; die sich ebenfalls um einen Platz in der Kommission beworben hatten) zeigt diese Zielrichtung.

Gleichzeitig wird damit die grüne Kompetenz der GroKo gestärkt, um ähnlich wie beim Kernenergieausstieg Grünen und Linken den Wind aus den Segeln zu nehmen.

Der Schaden für die deutsche Wirtschaft wird irreparabel anwachsen.




Plutonium Vernichtung in den USA! Notbremse gezogen?

Die Vorgeschichte

Bereits vor dem Zusammenbruch der Sowjetunion setzte ein gewaltiges Abrüstungsprogramm zwischen den USA und Russland ein. Letztendlich wurden im Rahmen des ersten Vertrages zur Verringerung strategischer Waffen (START I) tausende Raketen und Sprengköpfe auf beiden Seiten vernichtet. Damit saß jeder der beiden Vertragspartner auf zig Tonnen waffengrädigem Materials, aus dem man zehntausende von neuen Sprengköpfen hätte bauen können. Im Zeitalter des aufkeimenden Terrorismus eine äußerst unbehagliche Situation, zumal die Sowjetunion in Auflösung begriffen war.

Die Mengen an hochangereichertem Uran stellten nur ein kleines Problem dar: Sie wurden mit abgereichertem Uran auf die Gehalte für Brennstoff verschnitten und nach und nach in Kernkraftwerken zur Stromerzeugung verbraucht. Gleichwohl waren die Mengen so gewaltig, daß für Jahre der Markt für Natururan nahezu zusammenbrach. Für sich genommen schon ein gewaltiger Schaden für die Uranbergwerke.

Ganz anders verhielt es sich mit dem Plutonium. Jeder der beiden Vertragspartner verfügte nun über einen Überschuß von 34 to waffengrädigem Plutoniums, der irgendwie aus der Welt geschafft werden mußte. Um zu verstehen, warum das gar nicht so einfach ist, muß man sich etwas näher mit Plutonium beschäftigen.

Das besondere Plutonium

Plutonium ist ein chemisches Element mit der Ordnungszahl 94 (94 Protonen im Kern), welches faktisch nicht in der Natur vorkommt. Es kann zwar in verschiedene chemische Verbindungen mit verschiedenen chemischen Eigenschaften überführt werden, nicht aber auf chemischen Wegen wieder aus der Welt geschafft werden. Es kommt in zahlreichen Isotopen (unterschiedliche Anzahl von Neutronen im Kern) — von Pu236 bis Pu244 — mit jeweils eigener Halbwertszeit und eigenem Einfangquerschnitt für Neutronen vor. Die einzige Möglichkeit es wieder aus der Welt zu schaffen, ist es mittels Neutronen zu spalten oder wenigstens in andere Isotopen um zu formen.

Schon in den Anfängen der Entwicklung von Kernwaffen hat man erkannt, daß Pu239ein idealer Kandidat für den Bau von Kernwaffen ist. Es ist recht einfach und preiswert in „speziellen Reaktoren“ in beliebigen Mengen aus Natururan herstellbar und es besitzt ein Optimum aus „Lebensdauer“ und Einfangquerschnitt im auftretenden Energiespektrum einer Kernexplosion.

Jede Kernwaffe altert durch spontane Zerfälle. Je kürzer die Halbwertszeit des Materials ist, desto schneller ist die Kernwaffe unbrauchbar. Jeder Kern, der schon zerfallen ist, steht für die Kettenreaktion im Ernstfall nicht mehr zur Verfügung. Dies ist leicht einsichtig. Jeder Spontanzerfall löst aber eine ganze Kette weiterer radioaktiver Produkte aus. Jedes Glied hat eigene, energieabhängige Einfangquerschnitte. Vereinfachend gesagt, viele verbrauchen nur Neutronen, die für eine Kettenreaktion nicht mehr zur Verfügung stehen können. Im Extremfall bricht die „Explosion“ sehr schnell in sich zusammen.

Der Zweck einer Kernwaffe ist Zerstörung (Druckwelle, Feuerball und Strahlung). Dafür braucht man eine hohe Leistung (Energie pro Zeiteinheit). Mit einfachen Worten: Man muß möglichst viele Kerne (ungefähr 200 MeV pro Spaltung) in nahezu „Null Sekunden“ spalten. Das Geheimnis des Bombenbaues liegt nun in der Beherrschung der Kettenreaktion: Mit jeder Spaltung werden weitere Neutronen frei, die von Generation zu Generation (jeweils etwa Verdoppelung) immer noch mehr Kerne spalten könnten — wenn sie nicht parasitär weggefangen werden oder den Ort des Geschehens einfach mit hoher Geschwindigkeit verlassen würden ohne überhaupt jemals einem spaltbaren Kern begegnet zu sein. Insbesondere für diesen „Verlust von Neutronen durch Austritt“ ist die schnelle Ausdehnung des Spaltmaterials durch die entstehende Hitze verantwortlich.

Waffengrädiges- oder Reaktorplutonium?

Von „Atomkraftgegnern“ wird immer wieder behauptet, man könne auch aus Reaktorplutonium „Bomben bauen“. Man möchte damit Plutonium aus der Wiederaufbereitung von Brennelementen aus Leichtwasserreaktoren gefährlicher erscheinen lassen, als es in Wirklichkeit ist. Bestenfalls steckt dahinter Wortklauberei. Natürlich kann man mit großem Aufwand unter Laborbedingungen auch mit Reaktorplutonium eine Kettenreaktion auslösen — bloß bringt man damit keine Fensterscheibe zum wackeln. Deshalb ist auch noch keiner so bescheuert gewesen, mit gewaltigem Aufwand eine „Atombombe“ aus Reaktorplutonium zu bauen, die trotzdem nur einem Knallfrosch gleicht, wenn er mit geringstem Aufwand aus Natururan waffengrädiges Plutonium erzeugen kann.

Damit ist auch ein Weg aufgezeigt, wie man „altes Bombenplutonium“ dauerhaft und sicher beseitigen kann. Setzt man es als Brennstoff in Leistungsreaktoren ein, wird dadurch ein erheblicher Teil der Ursprungsmenge „verbrannt“ und gleichzeitig der Rest durch die Bildung von anderen Isotopen verdorben. Denn nicht jeder Kern Pu239 wird durch das Einfangen eines Neutrons gespalten, sondern wird teilweise bloß in ein anderes Isotop (Pu240, Pu241 usw.) umgewandelt. Man kann das mit dem vergällen von trinkbarem Alkohol vergleichen: Der Zusatz von geringen Mengen ähnlicher Stoffe macht aus einer großen Menge Genussmittel einen für Menschen giftigen Industriealkohol. Der Trick ist der Gleiche: Der Aufwand zur Trennung wäre um ein vielfaches höher, als die erneute Herstellung von Trinkalkohol.

Grundsätzlich kann man „überschüssiges Bombenplutonium“ in schnellen Reaktoren oder in konventionellen Leichtwasserreaktoren einsetzen. Effektiver ist der von Rußland eingeschlagene Weg der Herstellung von Brennstoff für einen natriumgekühlten Reaktor mit schnellen Neutronen: Man kann größere Anteile (schnelle Reaktoren über 20%, LW bis rund 8%) verwenden. Dies vereinfacht schon mal die notwendige Überwachung bei der Produktion. Durch eine angepaßte Fahrweise (nicht die Energieerzeugung steht im Vordergrund, sondern die Erzeugung ungeeigneter Isotope) kann man recht schnell große Mengen Plutonium für eine Waffenproduktion dauerhaft unbrauchbar machen. So gibt es beispielsweise ein Konzept — bestehend aus zwei PRISM-Reaktoren — innerhalb von nur zwei Jahren alle Überschussbestände in Großbritannien für eine Waffenproduktion unbrauchbar zu machen. Elektrische Energie könnten diese Reaktoren mit diesem Plutonium dann trotzdem noch viele Jahrzehnte weiter produzieren.

Der Weg über MOX

Üblicherweise setzt man in Kernkraftwerken einen Brennstoff aus (nur) angereichertem Uran ein. Man kann aber auch einen Brennstoff aus einer Mischung aus Uranoxid und Plutoniumoxid verwenden. Keine neue Erfindung. Bereits 1972 wurde in Deutschland (!) erfolgreich ein Mischoxid in einem Reaktor verwendet. Heute sind rund 5% aller verwendeten Brennelemente weltweit vom Typ MOX. Führend in dieser Technologie ist mit großem Abstand Frankreich. Ursprünglich wollte man damit den Verbrauch von Natururan strecken. Es war daher nicht abwegig, über diese Schiene auch das „Überschuß-Plutonium“ aus der Rüstung vernichten zu wollen. Nur mußte aus politischen Gründen (Proliferation und Verträge mit Rußland) in USA erst einmal eine neue Anlage gebaut werden. Und damit nahm das Verhängnis seinen Lauf…

Wenn man eine verfahrenstechnische Großanlage in Auftrag gibt, sollte man vorher wissen, welches Produkt man eigentlich herstellen will, welche Vorschriften im eigenen Land gelten und welchen Rohstoff man genau einsetzen muß. Ganz offensichtlich für Politiker (per Eigendefinition Alleskönner) und öffentliche Verwaltungsapparate (zumindest, wenn sie sich auf einem neuen Gebiet bewegen sollen) eine unlösbare Aufgabe. Wie immer, wurde erst einmal — im Bewußtsein kein eigenes Geld, sondern das Geld der Steuerzahler zu verschwenden — eine Anlage für den Durchsatz von 3,5 to Plutonium pro Jahr bei Areva für 2,7 Milliarden Dollar in Auftrag gegeben. Baubeginn war 2007 mit einer geplanten Fertigstellung im Jahr 2016.

Nachdem der Baubeginn bereits erfolgt war, stellte man fest, daß der spezielle Eingangsstoff — besagtes Waffenplutonium zur Vernichtung in Leichtwasserreaktoren — anders, als das übliche Plutonium — Plutonium aus französischer Wiederaufbereitung von Kernbrennstoff— war. Flugs mußte noch ein kompletter zusätzlicher Verfahrensschritt zur Entfernung von Verunreinigungen eingeführt werden. Die Anlage — fast genau so groß, wie die bereits im Bau befindliche — wurde verniedlichend „Aqueous Polishing“ genannt. Die geplante Fertigstellung verschob sich auf 2019 und die geplanten Kosten schossen auf 4,9 Milliarden Dollar hoch.

Im Jahre 2012 führte man eine Untersuchung durch und aktualisierte die Kostenschätzung auf 7,7 Milliarden. Eine weitere Untersuchung im Jahre 2016 ergab eine Kostenschätzung von 17,2 Milliarden und eine Inbetriebnahme nicht vor 2025. Wie bei öffentlichen Projekten üblich — wir kennen das vom Flughafen BER in Berlin — wurschtelt man weiter vor sich hin. Jährlich versickerten zwischen 350 und 500 Millionen Dollar aus diversen Haushaltstiteln in diesem Sumpf. Ein schönes Auftragsvolumen, für das man schon etwas für die Politik tun kann.

Die Programmkosten

Mit dem Bau der Anlage ist es aber noch nicht getan. In einer Marktwirtschaft muß man auch noch Kunden für das Produkt finden. In diesem Fall, wegen der geltenden Abrüstungsverträge, ausschließlich in den USA. Die Kernkraftwerke in den USA müssen aber Genehmigungen für den Betrieb mit MOX-Brennelementen besitzen. Sie müssen geprüft und umgebaut werden. Mit anderen Worten, im Moment würden die Betreiber die Brennelemente nicht einmal geschenkt nehmen. Lange Rede, kurzer Sinn, das Energieministerium schätzt die Gesamtkosten für das Programm auf 50 Milliarden Dollar. Das entspricht einem Preis von über 1,4 Millionen Dollar für jedes Kilogramm Waffenplutonium. Selbst wenn man die Anlagen noch für andere Zwecke nutzen kann, ist das ein Irrsinn.

Dieser Vorgang zeigt sehr schön, was geschieht, wenn man Politikern solche komplexen technischen Herausforderungen überläßt. Man muß nur so ein verrücktes Programm starten und erschließt sich damit eine sprudelnde Geldquelle: In diesem Fall mit ursprünglich „etwa 1 Milliarde für ein tolles Abrüstungsprogramm“ oder einer „Eiskugel für eine Energiewende“ bei uns. Sind erstmal genug Laiendarsteller auf den Zug aufgesprungen, kann man sie beliebig ausquetschen. Der Politiker steht vor der Alternative: Ich verbrenne weiterhin das Geld fremder Leute (sprich unsere Steuern) oder gebe zu, gar nicht allwissend zu sein, was das Ende der eigenen Karriere bedeutet. Solche „Steuergelder-Verbrennungsanlagen“ werden erst gestoppt, wenn Kräfte an die Regierung kommen, die bisher nicht im etablierten Machtapparat tätig waren. Dies geschah mit der Wahl von Donald Trump zum 45. Präsidenten der USA, der schon in seinem Wahlkampf lieber vom „Sumpf“ sprach und ungern das etablierte Synonym „Washington“ benutzte.

Wie geht’s weiter

Allerdings ist mit dem Baustopp der Anlage noch lange nicht das Problem beseitigt. Dabei ist das Plutonium selbst das geringste Problem: Es schlummert weiterhin in den Tresoren vor sich hin. Was drückt, sind die Abrüstungsverträge mit Russland. Im Moment herrscht ein seltsames gegenseitiges „Wegsehen“: Die USA kommen nicht mit der Vernichtung ihres „Überschussplutonium“ voran, dafür regt man sich nicht sonderlich über den Bruch des Abrüstungsabkommens über Mittelstreckenwaffen (Landgestützte Cruise missile mit „Atomsprengköpfen“) durch Putin auf.

Es muß also eine Lösung her. Zumindest über einen weiteren Ansatz, wird hier demnächst berichtet…

Der Beitrag erschien zuerst bei NUKEKLAUS hier




Klima-Zerrbild wegen kleinster Nenner

Es gibt dieser Tage sehr viele Indizes, mit denen die Aufmerksamkeit der Menschen erregt wird, und zwar wegen der genannten großen Zahlen. Aber in der Realität stammen diese großen Zahlen samt und sonders aus sehr kleinen Nennern, wenn man ein Verhältnis berechnet. Drei prominente Beispiele dieser mathematischen Tatsache sind: Der Rückkopplungs-Effekt in den Globale-Erwärmung-Modellen; das „Globale-Erwärmung-Potential“ und der „Happy Planet Index“. Jeder dieser Indizes ist behaftet mit der enormen Verzerrung, zu der es kommt, wenn ein Divisor sehr klein ist.

A. Der „Happy Planet Index“ ist am einfachsten zu erklären: Er wird herangezogen, um verschiedene Länder miteinander zu vergleichen und hat folgende Form:

(a x b x c) / d.

In dieser Gleichung bedeuten:

a = Wohlergehen: „wie zufrieden sind die Einwohner eines jeden Landes mit ihrem Leben allgemein?“ (auf der Grundlage einer Gallup-Umfrage.)

b = Lebenserwartung

c = Ungleichheiten der Ergebnisse („die Ungleichheiten zwischen den Menschen innerhalb eines Landes hinsichtlich der Lebensdauer und wie glücklich sie sich fühlen auf der Grundlage der Verteilung und des Wohlergehens in jedem Land“)

d = ökologischer Fußabdruck („die mittlere Auswirkung eines jeden Einwohners eines Landes auf die Umwelt auf der Grundlage der Daten, die vom Global Footprint Network aufbereitet sind“).

Wie stehen die ausgewählten Länder nun da? Mit diesem Index ist Costa Rica mit einem Wert von 44,7 die Nummer 1, gefolgt von Mexiko mit einem Wert von 40,7 an Nummer 2. Bangla Desh rangiert mit einem Wert von 38,4 auf Rang 8, Venezuela mit einem Wert von 33,6 auf Rang 29 und die USA mit einem Wert von 20,7 auf Rang 108 – von 140 betrachteten Ländern.

Neben solchen auf der Hand liegenden Fragen wie „warum kommen so viele Menschen aus Mexiko in die USA, während kaum jemand den umgekehrten Weg nimmt?“ ist es instruktiv, einmal näher den Divisor (Faktor d in der Gleichung) zu betrachten beim Errechnen dieser numerischen Indexwerte.

Jedes Land mit einem sehr geringen Niveau ökonomischer Aktivitäten wird hinsichtlich des „ökologischen Fußabdrucks“ einen kleinen Wert aufweisen. Unbewohnter Dschungel oder Wüsten stehen in dieser Hinsicht weit unten. Mit einem sehr kleinen Wert des Faktors d spielt es keine große Rolle, welche Werte die Faktoren a bis c annehmen – der kleine Nenner garantiert, dass der Quotient groß ist. Daher der große Index für einige wirklich armselige Plätze.

Die zugrunde liegende Ursache, dass der „Happy Planet Index“ so irreführend ist, ist die Einbeziehung einer Division durch eine Zahl, die für einige Länder ziemlich dicht bei Null liegt.

B. Das zweite Beispiel für diesen Effekt ist der Parameter „Globale-Erwärmung-Potential“. Dieser wird herangezogen, um die relative Stärke der ausgewählten Treibhausgase zu vergleichen.

Die falsche Anwendung von Zahlen hierbei hat zu allen möglichen Arten grauenhafter Prophezeiungen geführt hinsichtlich der Notwendigkeit, sehr kleine Mengen von Spurengasen wie Methan (CH4), NO2 und Andere loszuwerden.

Der Terminus „Globale-Erwärmung-Potential“ ist erstmals im 2. IPCC-Zustandsbericht aufgetaucht. Er wurde später, genauer im 4. Zustandsbericht aus dem Jahr 2007 in eine Formel gekleidet. Dies wird beschrieben in Abschnitt 2.10.2 des Textes der Arbeitsgruppe 1. Um zu begreifen, was das bedeutet, ist es zunächst einmal erforderlich zu verstehen, wie Moleküle Strahlung absorbiert und emittiert werden.

Jedes Gas absorbiert Strahlung in bestimmten Spektralbändern. Je mehr dieses Gases vorhanden ist, umso mehr wird absorbiert. Stickstoff (N2) mit einem Anteil von 77% in der Atmosphäre absorbiert im nahen UV-Spektrum, aber nicht im sichtbaren oder infraroten Bereich. Wasserdampf (H2O) ist ein ausreichend starker Absorbierer im Infraroten, dass es den Treibhauseffekt verursacht und die Erde um über 30°C erwärmt, was unseren Planeten viel angenehmer zu bewohnen macht. An Stellen, wo nur wenig Wasserdampf vorhanden ist, gibt es weniger Absorption, weniger Treibhauseffekt, und bald wird es kalt (nachts in der Wüste).

Hat ein Molekül erst einmal ein Photon absorbiert, gewinnt es an Energie und wechselt in einen angeregten Zustand. Bis diese Energie wieder abgegeben wird (via Rückstrahlung oder Kollisionen), wird jenes Molekül kein weiteres Photon absorbieren. Die Folge hiervon ist, dass die Gesamt-Absorption durch jedwedes Gas allmählich saturiert, wenn die Menge jenes Gases zunimmt. Eine kleine Gasmenge absorbiert sehr effizient, aber wenn sich die Menge verdoppelt, wird die Absorption weniger als doppelt so groß sein wie zuerst. Und so weiter bei jeder weiteren Verdoppelung. Wir sagen, dass die Absorption logarithmisch abhängig ist von der Konzentration des jeweiligen Gases. Die Kurve, wie stark die Gesamt-Absorption abnimmt, variiert entsprechend der Exponential-Funktion exp (-X/A), wobei X für die präsente Gasmenge steht (normalerweise angegeben in ppm) und A für eine Konstante relativ zur Physik des Moleküls. Jedes Gas wird einen anderen Wert aufweisen, angegeben als B, C, D usw. Erhält man diese Zahlen innerhalb von 15%, wird das als ziemlich gut angesehen.

Es gibt so viel Wasserdampf in der Atmosphäre (variabel, über 10.000 ppm oder 1% als Konzentration), dass dessen Absorption vollständig gesättigt ist. Da gibt es nicht mehr viel zu diskutieren. Im Gegensatz dazu weist das Gas CO2 einen stetigen Wer um 400 ppm auf, und dessen Absorption ist zu 98% gesättigt. Das fällt zusammen mit dem Koeffizient A, der grob äquivalent zu 100 ppm ist.

Diese Exkursion in die Physik der Absorption zahlt sich aus, wenn wir auf die Mathematik schauen, mit der das „Globale Erwärmung Potential“ (GWP) eines Spurengases berechnet wird. GWP ist definiert als das Verhältnis der Steigung der Absorptions-Kurven für zwei Gase: hier die Steigung des interessierenden Gases dividiert durch die Steigung für Kohlendioxid. Die Steigung einer heden Kurve ist die erste Ableitung jener Kurve. Ökonomen sprechen von einer „marginalen“ Änderung in einer Funktion. Bei einer Änderung von 1 ppm der Konzentration, wie ändert sich dann die Strahlungs-Effizienz?

An diesem Punkt ist es entscheidend, sich vor Augen zu führen, dass jedes andere Gas mit CO2 verglichen wird, um dessen GWP-Wert zu bestimmen. Mit anderen Worten, welcher GWP-Wert auch immer für CO2 bestimmt ist, wird jener Wert rückgesetzt auf 1, damit die Berechnung des GWP für ein Gas eine Zahl im Vergleich zu CO2 erzeugt. Die Steigung der Absorptionskurve für CO2 wird zum Divisor der Berechnung des GWP jedes anderen Gases.

Jetzt wollen wir jenen Divisor berechnen: Wenn die Absorptions-Funktion lautet exp (-X/A), dann ist es eine mathematische Tatsache, dass die erste Ableitung lautet [-1/A][exp(-X/A)]. Im Falle der CO2-Konzentration von 400 ppm beträgt die Steigung, wenn A 100 ppm ist, [-1/100][exp (-4)] = –0,000183. Das ist eine mächtig flache Kurve mit einer extrem geringen Steigung, die leicht negativ ist.

Als Nächstes untersuchen wir das Gas, das mit CO2 verglichen werden soll, und berechnen den Dividend:

Man muss erwähnen, dass die Berechnung des GWP auch einen Faktor enthält, der mit der atmosphärischen Lebensdauer eines jeden Gases in Relation steht. Dazu mehr im Anhang [hier nicht übersetzt]. Hier wollen wir uns auf die Änderung der Absorption konzentrieren bei einer geringen Änderung der Konzentration. Die Steigung der Absorptionskurve wird vergleichsweise steil sein, weil jenes Molekül in niedriger Konzentration vorliegt und in der Lage ist, alle Photonen einzufangen, die auf seinem Weg liegen.

Um es numerisch zu erfassen, wollen wir Methan (CH4) mit einer atmosphärischen Konzentration von etwa Y = 1,7 ppm annehmen, die N2O-Konzentration mit Z = 0,3 ppm. Deren numerische Koeffizienten sind vielleicht B ~ 50 oder C ~ 150; sie werden nicht sehr weit entfernt liegen vom Wert von A für CO2. Die erste Ableitung ergibt dann [-1/B][exp{-Y/B)]. Man schaue genau hin: mit Y oder Z so dicht bei Null wird der Exponentialfaktor nahe 1 liegen. Damit wird die Ableitung lediglich zu 1/B (oder 1/C, usw). Vielleicht beträgt jene Zahl 1/50 oder 1/150 – aber sie wird nicht so klein sein wie 0,000183, also die Steigung, welche im Nenner erscheint.

Tatsächlich ist der Divisor (die Steigung der CO2-Kurve, wenn sie nahe der Sättigung ist) garantiert um einen Faktor von etwa [exp(-4)] kleiner als der Zähler – aus dem sehr einfachen Grund, weil es ~ 400 mal so viel CO2 gibt und dessen Job als Photonen-Absorbierer weitgehend getan ist.

Wenn ein normal großer Dividend durch einen kleinen Divisor geteilt wird, wird der Quotient immer größer. Das GWP für ausgewählte Gase ergibt dann sehr große Zahlen, wie etwa 25 für CH4 und 300 für N2O. Der Faktor der atmosphärischen Lebenszeit macht einige dieser Zahlen noch größer: einige FCKWs (Freon) haben gigantische GWPs: HFC-134a (verwendet in den meisten Auto-Air-Conditioners), schlägt mit einem GWP über 1300 zu Buche. Das IPCC nennt eine Fehler-Bandbreite von ±35% bzgl. dieser Schätzungen. Die Wirklichkeit jedoch ist, dass jeder einzelne der berechneten GWP-Werte enorm aufgebläht ist infolge der Division durch einen extrem kleinen Divisor assoziiert mit der Steigung der CO2-Absorptionskurve.

Die Berechnung des GWP ist nicht so sehr eine Warnung bzgl. anderer Gase, sondern eher eine Anklage gegen CO2, welches (bei 400 ppm) seine Absorption nicht nennenswert ändert, falls die CO2-Konzentration um 1 ppm ab- oder zunimmt.

C.Das dritte Beispiel sind die Schätzungen des „Rückkopplungs-Effektes“ in den Computermodellen der globalen Erwärmung

Der Terminus „Klimasensitivität“ drückt aus, wie stark die Temperatur steigen wird, falls sich die CO2-Konzentration verdoppelt. Ein relevanter Parameter bei der Berechnung ist der „Strahlungsantrieb“ [radiative forcing], welcher entweder mit oder ohne Rückkopplungseffekte assoziiert mit Wasserdampf in der Atmosphäre bearbeitet werden kann. Lässt man viele Details außen vor, involviert der Fall „keine Rückkopplung“ einen Faktor l, welcher die Stärke des Erwärmungseffektes von CO2 charakterisiert. Aber mit Rückkopplung ändert sich dieser Faktor zu [ l /(1 – bl)], wobei b die Summe ausgewählter Rückkopplungs-Terme ist wie etwa die Reflektion von Strahlung durch Wolken und andere physikalische Vorgänge; jedem davon wird eine numerische Quantität zugeteilt. Der Wert von 1 neigt dazu, etwa 0,3 zu betragen. Die gesammelte Summe der Rückkopplungs-Terme ist stark variabel und Gegenstand heißer Diskussionen, aber in den vom IPCC in früheren Jahren verwendeten Computermodellen neigt der Wert von b dazu, etwa b = 2,8 zu betragen.

Man beachte, dass wenn l ~ 1/3 und b ~ 3 der Nenner Null wird. Für den speziellen Fall von l = 0,3 und b = 2,8 wird der Nenner zu 0,16 und der „Rückkopplungs-Faktor“ zu 6,25. Es war jener kleine Nenner und der als Folge übertriebene Rückkopplungs-Faktor, welcher die Schätzung der „Klimasensitivität“ von unter 1°C ohne Rückkopplungen auf alarmierend große Schätzungen der Temperaturänderung getrieben hat. In einigen Zeitungen war von einer „Zunahme der globalen Temperaturen um 5°C“ die Rede. Niemand hatte auf die numerischen Details geachtet.

Während der letzten Jahre haben sich die Kenntnisse verschiedener positiver und negativer Beiträge zu Rückkopplungen verbessert, und der Wert der Summe b fiel auf etwa 1, was den Rückkopplungs-Faktor auf etwa 1,4 reduzierte. Der vor 30 Jahren geschätzte Wert der „Klimasensitivität“ betrug 3°C ± 1,5°C. Heute spricht das IPCC vorsichtig von einer projizierten Klimasensitivität als „nahe dem unteren Ende der Bandbreite“ liegend. Diese ernüchternde Revision kann zurückverfolgt werden auf die Änderung eines kleinen Divisors zu einem normalen Divisor.

Unter dem Strich: Aus all dem ergibt sich, dass man auf kleine Divisoren achten muss.

Jedweder am Fließband erstellte numerische Faktor ist zunehmend bedeutungslos, wenn der Divisor kleiner wird.

Wenn bei der Berechnung einiger Parameter (wie etwa „Klimasensitivität“ oder „Globale-Erwärmung-Potential“ oder „Happy Planet Index“) ein kleiner Divisor involviert ist, glaube man diese Werte nicht. Derartige Parameter haben keine Bedeutung und keinen anderen Zweck als die Erzeugung von Schlagzeilen und Alarm zu schlagen.

[Im Original folgt jetzt ein recht theoretischer Anhang über den Zeitfaktor im „Globale-Erwärmung-Potential“, auf dessen Übersetzung hier verzichtet wird. Das Wesentliche ist oben gesagt. Anm. d. Übers.]

Link: https://wattsupwiththat.com/2018/05/25/climatic-distortions-due-to-diminutive-denominators/

Übersetzt von Chris Frey EIKE




Der Mythos vom gefährlichen sauren Regen

Bei CBS und CNN gab es Schlagzeilen, denen zufolge saurer Regen als eine Gefahr durch den Kilauea-Ausbruch gelistet wird. US News meldet dazu: „Saurer Regen könnte die nächste Bedrohung sein, vor denen die Bewohner Hawaiis während der nächsten Tage stehen …“ Bei CNN hieß es: „Falls Sie in Kontakt mit saurem Regen kommen, waschen Sie ihn so schnell wie möglich ab!“

Das vom Kilauea emittierte Schwefeldioxid (SO2) ist ein Verschmutzer, der beim Einatmen schädlich sein kann. Das Einatmen von SO2 verursacht Reizungen in Nase und Hals und kann eine lebensbedrohende Ansammlung von Flüssigkeit in den Lungen mit hohen Konzentrationen bewirken. Im Gegensatz dazu gibt es aber keinen Beweis, dass irgendjemand jemals durch sauren Regen geschädigt worden ist.

Wissenschaftler messen den Säuregrad oder die Alkalinität mittels einer 14 Punkte enthaltenden logarithmischen Skala mit der Bezeichnung pH-Wert. Bei einem pH-Wert von 7 ist Wasser neutral. Batteriesäure weist einen pH-Wert von etwa 1 auf. Im Gegensatz dazu weist eine Lauge, die alkalisch oder basisch ist, einen pH-Wert bis 13 auf. Regenwasser ist aus natürlichen Gründen sauer, ebenso wie Milch und die meisten unserer Nahrungsmittel.

Sowohl Stickstoffdioxid (NO2) und Schwefelsäure-Gas reagieren in der Atmosphäre zu nitrogenischer und schwefliger Säure [nitric and sulfuric acid]. Diese Gase lösen sich in Wassertröpfchen und können den Säuregrad von Regen verstärken. Aber saurer Regen ist nur milde sauer mit einem pH-Wert von etwa 4, also etwa 100 mal weniger sauer als Zitronensaft.

Anfang der achtziger Jahre führte saurer Regen durch NO2– und SO2-Emissionen seitens der Industrie zu einer wesentlichen Sorge um die Umwelt. Saurer Regen wurde für die Versauerung von Seen und die Schädigung von Wäldern in Ostkanada, dem Nordosten der USA und Nordeuropa verantwortlich gemacht. Zeitungen und Zeitschriften zeigten Bilder von sterbenden Bäumen und machten dafür die industrielle Luftverschmutzung verantwortlich.

In Deutschland wurde der Begriff „Waldsterben“ geprägt, und man sagte dem sauren Regen nach, den Schwarzwald zu zerstören. Im Jahre 1981 prophezeite Prof. Bernhard Ulrich von der Universität Göttingen: „Die ersten großen Wälder werden während der nächsten 5 Jahre sterben. Sie können sich nicht mehr erholen“.

Das National Acid Precipitation Assessment Program (NAPAP), ein 500 Millionen Dollar teures Forschungsprogramm wurde im Jahre 1982 in den USA ins Leben gerufen, um sich dieses Problems anzunehmen. Die Genfer Konvention zu großräumiger, grenzüberschreitender Luftverschmutzung nahm im Jahre 1983 in Europa ihre Arbeit auf. Versauerung von Seen und Zerstörung von Wäldern durch Luftverschmutzung wurde zu einem weit verbreiteten Glauben, welcher in Universitäten auf der ganzen Welt gelehrt wurde. Saurer Regen wurde zum Auslöser von Bemühungen in den USA und Europa, Emissionen von NO2 und SO2 zu reduzieren.

Aber die tatsächlichen Auswirkungen von saurem Regen waren viel geringer als befürchtet. Ein NAPAP-Bericht aus dem Jahr 1990 mit dem Titel „Acidic Deposition: State of Science and Technology“ kam zu dem Ergebnis: „Es konnte nicht gezeigt werden, dass saure Ablagerungen einen signifikanten Beitrag zu gegenwärtigen Gesundheitsproblemen von Wäldern in Nordamerika leisten“, vielleicht mit Ausnahme des Fichtenbestandes in hohen Lagen der nördlichen Appalachen. Eine andere Studie kam zu dem Ergebnis, dass Schäden in den Fichtenwäldern der Appalachen auf einen Holzschädling zurückzuführen sind, nicht auf sauren Regen.

Aus der NAPAP-Studie geht außerdem hervor, dass nur etwa 4,2% aller Seen im Osten der USA sauer waren und dass die sauren Bedingungen in vielen dieser Seen natürlichen Faktoren oder dem Abfluss aus Bergbau geschuldet waren, aber nicht saurem Regen. Weiter ergab diese Studie, dass das Niveau des sauren Regen aufgrund von Luftverschmutzung nicht schädlich war für die Landwirtschaft oder die menschliche Gesundheit.

In Europa zeigten Folgeanalysen, dass die Schädigungen des Schwarzwaldes auf Krankheit, Wetter und andere Faktoren zurückzuführen waren, wobei saurer Regen nur eine unbedeutende Rolle spielte. Die großen Wälder in Europa gibt es heute immer noch.

Während der letzten vier Jahrzehnte waren die USA und die europäischen Länder bemerkenswert erfolgreich bei der Reduktion von NO2 und SO2 sowie anderer gefährlicher Verschmutzer. Daten der EPA zufolge sind die NO2-Emissionen in den USA im Zeitraum 1980 bis 2016 um 61%, diejenigen von SO2 um 87% zurückgegangen. Auch in Europa sind die Emissionen auf einen Bruchteil des Niveaus aus dem Jahr 1980 zurückgegangen.

Der möglicherweise schlagendste Beweis gegen schädliche Auswirkungen sauren Regens ist die Tatsache, dass saure Seen sich nicht „erholt“ haben, nachdem die meiste Schwefel- und Stickstoff-Verschmutzung aus der Atmosphäre verschwunden war. Im Report des NAPAP an den Kongress aus dem jahr 2011 wurde festgestellt, dass SO2– and NO2-Emissionen gesunken waren, dass die Konzentrationen in der Luft gesunken waren und dass saure Ablagerungen aus dem Regen gesunken waren. Nicht festgestellt wurde, dass der Säuregrad von Seen signifikant gesunken war. Im Report heißt es: „Wissenschaftler haben Verzögerungen festgestellt bei der Erholung des Ökosystems in den östlichen USA trotz des Rückgangs von Emissionen und Ablagerungen während der letzten 30 Jahre“. Mit anderen Worten, die Verschmutzung war weitgehend eliminiert worden, aber die Seen sind immer noch sauer.

Unglücklicherweise fahren die Nachrichtenmedien und Colleges damit fort, den Mythos zu proklamieren, dass saurer Regen ein gefährliches Problem ist. In jedem Falle sollten Sie es sofort abwaschen, falls Sie jemals mit Zitronensaft oder saurem regen in Berührung kommen.

Link: http://www.cfact.org/2018/05/24/the-myth-of-dangerous-acid-rain/

Übersetzt von Chris Frey EIKE




Roda Verheyen schlägt wieder zu: EUGH wird angerufen weil die EU Klimaziele nicht streng genug verfolgt werden!

Roda Verheyen ist eine Klimaaktivistin, die auch als Rechtsanwältin auftritt. Sie spielt bereits eine unrühmliche Rolle in dem Unsinnsprozess eines peruanischen Bauern, der – vertreten und angefeuert kann man -ohne die Unwahrheit zu sagen- feststellen- auf die Schnapsidee kam, (hier und hier) dass sein Land in den Anden durch einen evtl. Dammbruch gefährdet sei, weil die deutsche RWE zu viel CO2 emittiere. Der Fall ist derzeit beim Düsseldorfer Oberlandgericht anhängig.

Der ARD Sender rbb fand die Aktivitäten der Roda Verheyen so toll, dass er mit ihr im Hörfunk vor einigen Monaten ein Huldigungsinterview führte. Sie finden es hier.

Offensichtlich sind die Geldmittel, derer, welche de westlichen Staaten (von Klagen in Russland oder bspw. China hört man bisher nichts, von Auftritten dieser Aktivisten dort auch nichts) unbedingt der Quelle ihres Wohlstandes berauben wollen, so gewaltig, dass sie sich problemlos viele Klagen gleichzeitig, in Europa wie in den USA, leisten können.

Und die Kanzlei von Frau Roda Verheyen ist oft ganz vorne mit dabei. Es sind dies das Climate Action Network (CAN) und bspw. Die deutsche Nichtregierungsorganisation Protect the Planet und ein sog. wissenschaftlicher Thinktank namens Climate Analytics mit Sitz in Berlin. Schon dessen rund 30 köpfiger Mannschaft (Februar 2015) lässt erahnen mit welchen ungeheuren Geldmitteln – allen voran durch das deutsche Umweltministerium- diese Leute ausgestattet sind.

Geldgeber der Klimaanalytiker, Bild Climate Analytics

Partner der Klimaanalytiker, Bild Climate Analytics

So auch jetzt wieder bei einer Klage vor dem Luxemburger Europäischen Gerichtshof für Menschenrechte. Dort vertritt Frau Verheyen mit ihrer Klage 10 Familien aus 10 EU-Ländern, die vorgeben der „Klimawandel“ hätte in den letztem 5 Jahren ihre Lavendelernten gemindert, oder würde, wie die Familie aus Samen (Schweden) die Aufzucht ihrer Rentiere behindern.

Der Guardian nimmt sich dieser ergreifenden Story an und schreibt (Hervorhebung von mir) bspw:

Roda Verheyen, die Anwältin der Familien, sagte: „Der Klimawandel ist bereits ein Thema für die Gerichte in den europäischen Ländern und auf der ganzen Welt. „Die Klägerfamilien vertrauen auf die Gerichte und das Rechtssystem der EU, um ihre Grundrechte auf Leben, Gesundheit, Beruf und Eigentum, die vom Klimawandel bedroht sind, zu schützen. Die EU-Gerichte müssen jetzt auf diese Familien hören und sicherstellen, dass sie geschützt sind. „

Wissenschaftler des thinktank Climate Analytics stellen den Anwälten der Familien Experten zur Verfügung. Die deutsche Nichtregierungsorganisation Protect the Planet trägt alle mit dem Rechtsfall verbundenen Kosten. Das Climate Action Network (CAN), Europas größte NGO, die sich mit Klima- und Energiefragen befasst, unterstützt ebenfalls die Aktion.

Wendel Trio, CAN-Direktor in Europa, sagte:

„Dies ist Teil einer Strategie, um die EU-Institutionen dazu zu bringen, ihre Ziele zu erhöhen. 2015 vereinbarten die Länder im Rahmen des Übereinkommens von Paris, Anstrengungen zu unternehmen, um den Temperaturanstieg auf 1,5 ° C zu begrenzen. Es ist jedoch klar, dass das bestehende Klimaziel der EU bis 2030 nicht ausreicht, um die im Pariser Abkommen eingegangenen Verpflichtungen einzuhalten, und dass es erhöht werden sollte. Die EU muss nach dem Abkommen ihr Ziel bis 2020 bestätigen. Diese von normalen Familien, die vom Klimawandel betroffen sind, initiierten Klagen unterstreichen die Dringlichkeit und die Notwendigkeit, sie zu erhöhen. „

Mit dieser Klage, und der durchaus nicht geringen Wahrscheinlichkeit ihres Erfolges bei Gericht, wird einmal mehr deutlich, mit welchen Gegnern es die modernen westlichen Völker zu tun haben, und auch welches üble enge Gespinst von Gesetzen und Verordnungen die EU und ihre Mitgliedstaaten erlassen haben, die diesen unfassbaren, jeder ehrlichen Wissenchaft Hohn sprechenden Verhaltensweisen, erst ermöglichen ja Tür und Tor einladend öffnen.

Deutlich sichtbar wird auch, dass immer dieselben Stiftungen, und Organisationen hinter diesen Aktionen stehen, auch wenn sie unter immer neuen Namen auftauchen.

Die Rückkehr ins finstere Mittelalter dort mit Gottesurteilen, und Hexenverbrennungen nach dem Gesetzbuch des Hexenhammers, hier unter dem Nonsensewort Klimaschutz, alles unter der Tarnkappe der Wissenschaft, scheint unabwendbar.

Und der deutsche Steuerzahler – es geschieht ja nur zu seinem Besten- darf letztlich alles bezahlen. 




Große Leseraktion: Wie manipulieren Messstationen die Umweltbelastung in Ihrer Stadt? – Teil 9

Immer wieder stechen die angeblich lebensgefährlichen Grenzwertüberschreitungen aus Stuttgart und München hervor. Tausende von Toten durch Abgase von Dieselautos. Erhellend ist da ein Blick auf einen Bericht des Spiegel über die Lebenserwartungen der Menschen in unterschiedlichen Regionen Deutschlands. Vorweg genommen sei, dass Stuttgart und München zu den Gebieten mit der höchsten Lebenserwartung gehören. Ein Fall für die Statistiker.

Der Ingenieur Fred F. Mueller hat sich genauer in die Statistiken des Umweltbundesamtes vertieft und kommt aus dem Staunen nicht mehr heraus.

Vorab merkt Mueller an, dass »das Umweltbundesamt (UBA) im Rahmen seiner neuesten Veröffentlichung über angeblich 6.000 NO2-Tote und mehr als 400.000 angebliche Diabetesfälle durch NO2 im Jahre 2014 so freundlich war, eine Grafik zu veröffentlichen, die seine eigene ständige Panikmache als Fake-News entlarvt.«

Mueller weiter: »Diese vom UBA selbst in Auftrag gegebene Untersuchung dokumentiert, dass nur ein verschwindend kleiner Teil der deutschen Bevölkerung überhaupt an Orten wohnt, wo die Immissionsmesswerte den Jahresgrenzwert von 40 µg/m3 überschreiten. Schon seit 2010 zeigt sie selbst in der Kategorie zwischen 35 und 40 µg/m3 gar keine Farbbalken mehr, und die Kategorie über 40 µg/m3 wird gar nicht erst aufgeführt.“

Die in den Medien immer wieder kursierenden Behauptungen des UBA über angeblich viel zu hohe NO2-Werte in Städten beruht auf einem recht simplem, aber sehr wirksamem Trick: Man platziert seit vielen Jahren einen erheblichen Teil der Messstationen nicht etwa da, wo sie für den größten Teil des Stadtgebiets repräsentativ wären, sondern gezielt dort, wo man in eng begrenzten »Hot-Spot-Bereichen« die höchsten überhaupt aufzufindenden Messwerte auftreiben kann. So findet sich in einer Pressemeldung des Landesumweltamtes Baden-Württemberg der Hinweis, dass schon 2006 alle Gemeinden in Baden-Württemberg gebeten wurden, sogenannte straßennahe Belastungsschwerpunkte zu melden, an denen dann sogenannte Spotmessstellen eingerichtet wurden. Hiervon gibt es allein in Stuttgart vier Stück, das sind 50 % aller städtischen Messstellen.

Die „Belastung“ der Stuttgarter Bürger wird demnach zu einem geradezu grotesk überproportionalen Anteil aus Daten hergeleitet, die an vier räumlich eng begrenzten Hot-Spots erfasst werden. Zudem wurden diese Messstationen immer mal wieder anders platziert: Wenn die Belastungssituation an einer Messstelle unter den Grenzwert gefallen ist, wird ein anderer Ort gesucht und gefunden, wo man noch die gewünscht hohen NO2-Werte auftreiben kann. Vor diesem Hintergrund bekommen die jeweiligen oberen Kurven eine ganz neue Bedeutung.

Bild oben: So manipuliert das UBA die Öffentlichkeit mit »kreativ« neu selektierten Informationen seiner Messstationen. Das untere Bild wurde zwischenzeitlich von der Webseite entfernt. (Quelle: Umweltbundesamt)

Das dokumentiert eine gleich doppelte Manipulation durch das UBA. Einerseits sind im Prinzip nur die grünen und gelben Kurven der beiden Teilbilder maßgeblich für die tatsächliche Luftqualität für vermutlich mehr als 99,98 % der deutschen Bevölkerung. Die obersten Kurven gelten nur für die „Hot-Spot“-Messstellen, die nur für einen verschwindend kleinen Bruchteil der Bevölkerung relevant sind. Obwohl beide Bilder aus dem gleichen Kalenderjahr stammen, unterscheiden sich die jeweils oberen Kurven drastisch. Grund hierfür ist die Tatsache, dass man 2016 eine »Hintergrund«-Broschüre mit dem Titel »Luftqualität 2015 Vorläufige Auswertung« herausbrachte, deren Stoßrichtung betont alarmistisch war. Die Botschaft im Kapitel über NO2 war: »Stickstoffdioxid: Kaum Besserung gegenüber dem Vorjahr«. Da den Autoren die vorhandenen Grafiken wohl nicht dramatisch genug waren, wurden die Verläufe sowohl der mittleren als auch der oberen Kurve im oberen Bild durch kreative Auswahl der Datensätze nach oben frisiert, damit sie besser zur Botschaft passten (man beachte hierbei auch die Farbwahl). Das untere Bild wurde mittlerweile von der UBA-Webseite entfernt, es ist jedoch nahezu deckungsgleich mit einer Fassung aus dem Jahr 2017.

Reutlingen, Lederstraße 

Aus Reutlingen schickt uns TE-Leser Thomas A. Bilder der Messstelle in der Lederstraße, Höhe Matthäus Alber Haus an der B312. Den Aufstellungsort bezeichnet er als Skandal. Die Stadt Reutlingen wird aktuell von der Deutschen Umwelthilfe (DHU) verklagt. Es wurde bereits eine Pförtnerampel im westlichen Zugang von Reutlingen installiert, um 12.000 Fahrzeuge täglich umzuleiten. Ergebnis: Ausweichverkehr in Wohngebiete und Staus.

Ludwigshafen

Aus Ludwigshafen schreibt TE-Leser Andreas H: »Vielen Dank für diese Initiative. Sie wird ihre Wirkung nicht verfehlen, denke ich. Es ist aber ein weiteres Beispiel für das Versagen eines Staates, wenn sich die Bürger selbst um Dinge kümmern müssen, für die eben diese Bürger einen Beamtenapparat von ihren Steuern bezahlen. Auch in der Innenstadt von Ludwigshafen am Rhein steht eine Messstation an einem Ort, wo diese nicht hingehört: auf dem Grünstreifen inmitten einer 4-spurigen Straße, der Heinigstraße. Aber nicht nur, dass sie praktisch »im« Verkehr steht. Sie steht dazu noch im Einzugsbereich einer Kreuzung und im Berufsverkehr in deren Rückstau. Die Messstation stand übrigens jahrelang direkt vorne an der Kreuzung und wurde erst vor kurzem um 25 Meter versetzt. Von grottenfalsch nach falsch sozusagen. Die Messwerte sind im Jahresmittel mit 45 µg trotzdem nur gering über dem Grenzwert und wie praktisch überall sinken diese stetig weiter ab. Eine Klage der unseligen DUH ist trotzdem denkbar.«Er schließt: »Tun wir etwas, diesem unlauter handelnden Abmahnverein die Geschäftsgrundlage zu entziehen, wenn sich Stadt LU und Land RLP nicht dazu in der Lage sehen, Richtlinien einzuhalten.«

Dortmund

TE-Leser Reiner S. schickt Bilder aus Dortmund. Die SPD-regierte Stadt hat noch zwei weitere politisch gewollte Messtellen, einmal an der Steinstrasse ca. 20 Meter von der vielbefahrenen Kreuzung Münster-/Steinstrasse entfernt. Dieser Messpunkt liegt nur ca. 7,5 Meter von der Steinstrasse entfernt. Zum andereren die Messtelle Burgweg, sie liegt ca. 30 Meter von der ebenfalls vielbefahrenen Kreuzung Evingerstrasse/Burgweg entfernt. Der Abstand vom Burgweg zur Messtelle beträgt ca. 8 Meter, ist also viel zu klein.

Dresden

Mehrere Leser waren in Dresden unterwegs und haben Meßstellen fotografiert. Ralf L. zeigt die Messstation Schlesischer Platz in Dresden, direkt am Bahnhof DD-Neustadt:

»Direkt vor dem Bahnhof auf einem gepflasterten Platz und richtig schön mit dunkelgrauen Lamellen verkleidet, schwitzt sie so vor sich hin, damit ihr nicht zu heiß wird, hat man ihr wohl eine Klimaanlage spendiert. Die gehört aber wohl eher dem Türkischen Imbiss an der Stirnseite. In Fahrtrichtung links sind Haltestellen für vier verschiedene Straßenbahnlinien und Busse.

Messstation Winckelmannstr./Schnorrstr. in Dresden

An dieser Messstation gibt es wohl nichts zu meckern, außer dass die Fahrzeuge auch rückwärts dicht an die Station heranfahren könnten!

Messstation Bergstr. 78/80 in Dresden

Diese Station ist wohl die Ausgeburt/Planung eines absoluten Autohassers! Ungefähr fünf bis sechs Meter hinter der Station steht ein festinstallierter Passbildautomat, in diesem Starenkasten nisten selbige aber nicht, ich hab extra nachgeschaut. Meine Beobachtung: Kurz vor dem Blitzer wird stark abgebremst, um dann wieder sehr stark zu beschleunigen, da es ja bergauf geht! Auf diese Weise erhöhen sich der Bremsabrieb und der Abgaswert natürlich deutlich, ein Schelm der sich so was ausgedacht hat, oder?«

Thomas N. schickt uns seinen Beitrag über die Messstation in Dresden an der Bergstraße: »Die Bergstraße ist als Zubringerstraße zur Autobahn A17 sehr stark frequentiert mit PKW, LKW und auch Reisebussen. Die Autobahnzubringerrichtung der Bergstraße ist dort in diesem Bereich zusätzlich noch ansteigend, also bergauf, so dass LKW´s und Busse nach einem Stopp an der vorgelagerten Ampelkreuzung ordentlich aufs Gaspedal treten müssen, um halbwegs vernünftig vom Fleck zu kommen. In den Stoßzeiten ist dort regelmäßig mit Stau zu rechnen, zumal es auch nicht wirklich dort eine Grüne Welle gibt. Die Station steht direkt an der zweispurigen Zubringerstraße, 120 Meter hinter einer Ampelkreuzung und fünf Meter hinter einer kleineren ampellosen Ausfahrt. Es stehen Bäume an der Station, so dass dort sicherlich auch keine ordentliche Luftzirkulation bei vollen Blattwuchs gegeben ist.«

Fotos der Umweltmessstation Dresden-Bergstraße auch von Leser Ulrich A.: »Die starke Steigung der Straße ist gut an den Mauer- und Hausfluchten zu sehen. Die vorliegenden „verkehrsarmen“ Fotos entstanden am Ostersonntag gegen 14 Uhr. Zu sehen ist die Station, unmittelbar am Fahrbahnrand der steil ansteigenden Berg(!)straße plaziert, rund 100 m nach einer Ampelkreuzung bzw. 150 m hinter einer rege bedienten Bushaltestelle. Wie heutzutage üblich, schießen sich die Busse per Rot für alle anderen Verkehrsteilnehmer nach dem eigenen Halt die Strecke frei. Die Station misst deshalb auch (gewollt) keine normalen Werte, sondern die viel stärkeren Anfahremissionen bei Berganfahrt. Nebenbei lässt sich der Container, wie zu sehen, auch noch ausgezeichnet als Sichtschirm des unmittelbar dahinter stehenden Blitzers nutzen. Welch Zufall!«

Würzburg 

Aus Würzburg mailt Leser Werner S.: »Die von mir beigefügten Bilder zeigen eine der zwei Messstationen in Würzburg. Eine dritte Station in der Innenstadt wurde Ende 2011 außer Betrieb genommen. In den Bildern handelt sich um die Station am „Stadtring-Süd“, einem Teilstück der B19, eine der Hauptverkehrsstraßen durch Würzburg. Die Station ist in dem einen Bild mit einem Pfeil gekennzeichnet. Die Straße wird bei Störungen am nahegelegenen Autobahnkreuz Biebelried (A3 / A7) gerne als Ausweichroute für den Fernverkehr genutzt. Zu den Hauptverkehrszeiten kommt es im Bereich der Station stets zu zähfließendem Verkehr mit Stop-and-Go, bedingt durch die Ampel an der nachfolgenden Kreuzung. Auf dem größten Teil der Strecke verläuft parallel eine Bahnstrecke. Somit sind die ermittelten Messwerte nicht repräsentativ für das Stadtgebiet.«

Zum Schluss noch nach München. Leser Hubert G. schickt uns dieses Bild der merkwürdigsten Station, wenn sie denn eine sein sollte. »Anbei ein Foto vom Isartorplatz in München. Ich sehe des Öfteren, wie Techniker die Litfaßsäule über einer eingebauten Tür öffnen und Wartungsarbeiten durchführen. Hinter der Tür verbergen sich eine ganze Menge Hightech-Gerätschaften. Eigentlich eine gute Idee, so was Teures hinter einer Litfaßsäule zu tarnen. Kennt man aber den Sinn und Zweck des Ganzen, findet man das schon nicht mehr so lustig. Oben aus dem Dach ragt ein Ansaugstutzen. Ich nehme an, dass damit die entsprechenden Luftwerte gemessen werden. Ob diese Messstation allerdings das gleiche misst, was sonst üblicherweise im Rahmen der Feinstaubmessungen erfolgt, weiß ich nicht.«Wir konnten aus der Ferne nicht herausbekommen, um was es sich handelt. Früher hätte man vermutet, hier verkriechen sich die Spione des Bundesnachrichtendienstes. Die sind aber nicht mehr in München, sondern nach Berlin gezogen.


Schicken Sie bitte an Tichys Einblick aus Ihrer Stadt Fotos der Messstationen. Bitte notieren Sie den genauen Standort. Aus einem weiteren Foto sollte das Umfeld der Messstation ersichtlich sein. Bitte schicken sie die Fotos an redaktion@tichyseinblick.de; Sie erteilen uns damit automatisch das Recht, Ihr Foto zu veröffentlichen. Wir freuen uns auch über Beiträge aus der Lokalpresse zu diesem Thema.

Vielen Dank!


Hier geht es zu Teil 1 – Messstationen in Stuttgart, Leipzig, Fulda, Magdeburg, Rostock, Marburg und Tübingen

Hier geht es zu Teil 2 – Messstationen in Ludwigsburg, Hannover, München und Siegen

Hier geht es zu Teil 3 – Messstationen in Hamburg, Wiesbaden, Cottbus, Dortmund und München

Hier geht es zu Teil 4 – Messstationen in Berlin, Hannover, Halle an der Saale, Wuppertal und Göttingen 

Hier geht es zu Teil 5 – Messstationen in Darmstadt, Leonberg, Kiel und Gelsenkirchen

Hier geht es zu Teil 6 – Messstationen in München, Plauen/Vogtland, Osnabrück und Norderstedt

Hier geht es zu Teil 7 – Messstationen in Oldenburg, Köln, Leipzig, Nürnberg, Kassel und Essen

Hier geht es zu Teil 8 – Messstationen in Potsdam, Berlin, Duisburg und Stralsund

Übernommen von Tichys Einblick hier




Die NASA und die Deep State Creation bzgl. Klima und Umwelt

Aus persönlichen Gesprächen weiß ich, dass es schon früh Bedenken gab über die Rolle [der NASA] bzgl. des Hinzufügens von Gasen, vor allem Wasserdampf, in die untere Stratosphäre durch Fahrzeuge, was Erwärmung verursacht. Einige sagen, dass die Zunahme Leuchtender Nachtwolken eine Folge dieser Aktivitäten ist (siehe Bild oben).

Es gab auch Bedenken hinsichtlich der genauen Bestimmung der Höhe der Tropopause, zumeist eine Folge der globalen Temperatur, um den Reibungseffekt von Satelliten im niedrigen Orbit zu berechnen. Ich habe verstanden, dass man die Lage bzgl. des Skylab falsch beurteilt hatte und danach nicht mehr in der Lage war, die Station in einen höher gelegenen Orbit zu bringen. Das hatte katastrophale, aber zum Glück keine tödlichen Folgen. Es gab die Entscheidung im Jahre 1986, die Challenger ins All zu bringen, obwohl es Warnungen gab, dass „O“-Ringe [Dichtungsringe] bei niedrigen Temperaturen nicht funktionieren könnten (hier).

NASA-Wissenschaftler, Ingenieure und Administratoren operieren in einem Umfeld wie nur wenige andere. Man könnte denken, dass dieser Umstand ihnen mehr als anderen die Gefahr bewusst macht, Alarmismus zu praktizieren, Angst erzeugende Prophezeiungen des Untergangs und des globalen Kollapses hinaus zu posaunen ohne jeden Beweis. Traurigerweise ist das aber nicht der Fall, und trotz einer offenen Revolte von 50 ehemaligen NASA-Mitarbeitern, darunter auch Astronauten, welche einen Brief unterzeichnet hatten, in welchem sie gegen den Missbrauch von Wissenschaft für eine politische Agenda protestierten, geht das immer so weiter. Hier folgen Auszüge aus jenem Brief:

Als ehemalige NASA-Mitarbeiter denken wir, dass das Eintreten der NASA für eine Extremposition, bevor es sorgfältige Studien über den möglichen weit überwiegenden Einfluss natürlicher Klimatreiber gibt, unangemessen ist. Wir fordern, dass die NASA Abstand davon nimmt, unbewiesene und nicht gestützte Behauptungen in zukünftigen Veröffentlichungen und auf der NASA-Website zu diesem Thema aufzustellen. Es besteht die Gefahr einer exemplarischen Rufschädigung der NASA, der dort beschäftigten oder ehemals beschäftigten Wissenschaftler und Mitarbeiter und dem Ruf der Wissenschaft selbst.

Die uneingeschränkte Befürwortung, dass CO2 der Hauptgrund für Klimawandel ist, ist der NASA-Historie unwürdig, objektive Einschätzungen aller verfügbaren wissenschaftlichen Daten vorzunehmen, bevor man mit Entscheidungen oder öffentlichen Feststellungen aufwartet.

Das sind direkte, verurteilende und notwendige Feststellungen, dazu gedacht, den absichtlichen und beschämenden Missbrauch einer bedeutenden Agentur und der Wissenschaft für eine politische Agenda anzuprangern. Wie konnte es dazu kommen? Warum zieht man die Protagonisten nicht zur Verantwortung? Warum geht es immer weiter?

Am stärksten involviert waren die NASA und besonders deren Erfüllungsgehilfen in den Betrug, dass menschliches CO2 globale Erwärmung (AGW) verursacht. Eindeutig erkennen immer mehr Menschen den Betrug, besonders nach der Bloßstellung der Korruption durch Trumps Rückzug aus dem Paris-Abkommen, und der fabrizierten Wissenschaft zum Voranbringen der Agenda.

Das Problem für die deep-state players wie der NASA und deren Gehilfen ist die grundlegende Schwäche von Bürokraten allgemein und von Wissenschafts-Bürokraten im besonderen. Gründet man eine Regierungsagentur, um ein Problem zu ergründen und zu lösen, wird genau dies garantiert nicht passieren. Die Agentur wird nahezu sofort beginnen, das Problem aufzublähen und sicherzustellen, dass es nicht gelöst wird. Upton Sinclair drückte es so aus:

Es ist sehr schwierig, einen Menschen dazu zu bringen, etwas zu verstehen, wenn sein Gehalt davon abhängig ist, dass er es nicht versteht!

Es ist sogar noch viel schwieriger, wenn sie ihre Position zum Voranbringen einer politischen Agenda nutzen. Falls die Abtretung seiner Existenz unvermeidlich ist, wird man neue, irgendwie parallele Probleme dazu erzeugen. Genau dies war seit Längerem der Fall mit dem Betrug um die globale Erwärmung. Im jahre 2013 schrieb ich einen Beitrag mit dem Titel [übersetzt] „Wasser ersetzt das Klima als die nächste falsche, von den UN in Umlauf gebrachte Ressourcen-Angst“ (hier).

Die NASA liefert immer neue Beweise, dass genau dies jetzt im Gange ist. Man hat jüngst eine Studie veröffentlicht mit der Behauptung, dass die Menschen verantwortlich sind für grundlegende Änderungen der Verfügbarkeit irdischer Wasservorräte. Veröffentlicht in dem ob seiner Rolle im Klimagate-Skandal diskreditierten Journal Nature lesen wir:

Was wir erleben ist eine grundlegende hydrologische Änderung“. Das sagte Mitautor Jay Famigletti am Jet Propulsion Laboratory (JPL) in Pasadena, Kalifornien. „Wir erkennen eine markante Änderung dergestalt, dass die Feuchtgebiete der Erde noch feuchter werden – in hohen Breiten und in den Tropen – während die trockenen Gebiete dazwischen trockener werden. Inmitten der trockenen Gebiete erkennt man multiple Schwerpunkte als Folge von Grundwasser-Erschöpfung“.

Das kann er gar nicht wissen, weil gegenwärtige und historische Aufzeichnungen völlig ungeeignet für eine solche Schlussfolgerung sind. Viel wahrscheinlicher ist, dass es sich hierbei um einen natürlichen Trend handelt, weil das bei allen regierungsamtlichen Behauptungen über Änderungen so ist. Offensichtlich weiß er nicht, dass globale Temperaturdaten ungeeignet sind für jedwede vernünftige Messung von Verteilungen und Trends, aber hinsichtlich der Niederschlags-Daten ist es noch viel schlimmer. Schon im Jahre 2008 mahnten Tapio Schneider und Simona Bordoni:

…eine gründliche Überprüfung einer Theorie an als Ursache für die jahreszeitliche Abfolge starken Windes und Regens, welche im Wesentlichen seit über 300 Jahren gehalten hat.

Eine im Jahre 2006 in Science veröffentlichte Studie über Modell-Prophezeiungen des Monsuns in Afrika kam zu dem Ergebnis:

Klimawissenschaftler können nicht sagen, warum der Monsun in diesem Jahr so spät kommt oder ob die Verzögerung Teil eines größeren Trends ist. Auch verstehen sie nicht in vollem Umfang die Prozesse, welche die Regenmenge in der Sahel-Zone steuern. Am frustrierendsten jedoch ist vielleicht, dass ihre prognostischen Mittel – Computer-Simulationen des zukünftigen Klimas – nicht übereinstimmen hinsichtlich dessen, was vor uns liegt. „Wohin sich das Klima der Sahel-Zone bewegt, ist umstritten“, sagte Alessandra Giannini, eine Klimawissenschaftlerin an der Columbia University. Einige Modelle simulieren eine nassere, andere eine trockenere Zukunft. „Sie können nicht alle recht haben“.

Die Studie folgerte:

Ein offensichtliches Problem sind fehlende Daten. Das afrikanische Netzwerk von 1152 Wetterbeobachtungs-Stationen, welche Echtzeit-Daten liefern, die auch ihren Weg in internationale Klima-Archive finden, macht nur ein Achtel der von der WMO verlangten Mindest-Dichte aus. Außerdem gibt es bei allen bestehenden Stationen oft Ausfälle.

Die NASA-Behauptung ignoriert die Tatsache, dass das IPCC davon ausgeht, dass die der Atmosphäre seitens der Menschen hinzugefügte Wassermenge ohne Konsequenzen ist und also auch keine Auswirkung auf das Klima hat. Das IPCC räumt ein, dass dessen Modelle nicht in der Lage sind, die Rolle der Wolken bei der Energiebilanz zu bestimmen, aber natürlich bedeutet das, dass sie auch den Niederschlag nicht bestimmen können. Das IPCC zog Baumringdaten heran als Proxy für die Temperatur, siehe den ,Hockeyschläger‘, obwohl die Baumringe viel eher als Proxy für die Niederschlagsmenge taugen. Die Autoren dieses Artikels in Nature sollten die Arbeit von A.E. Douglas und dem Laboratory of Tree Ring Research an der University of Arizona durcharbeiten, welches er im Jahre 1937 ins Leben gerufen hat.

Ich kenne die Arbeit von Douglas, weil ich genau wie er eine sehr hohe Korrelation fand zwischen dem 22-jährigen Sonnenflecken-Zyklus und Dürren in den Großen Ebenen der USA. Natürlich steht die Arbeit von Douglas dem IPCC und seiner untergeordneten Agentur NASA GISS direkt entgegen, weil darin Variable des Klimawandels untersucht werden, die nicht in die politisch verzerrte Besessenheit bzgl. menschlichen CO2 passt. Douglas drückt die Illustration des Problems so aus:

Folglich gehen Astronomie, Meteorologie und Botanik in die Studie ein, wobei jeder Fachbereich wesentliche Teile beiträgt und wobei hoffentlich jeder Fachbereich ein wenig davon profitiert.

Aber das war in der guten alten Zeit, als Wissenschaft allgemein und Klimawissenschaft im besonderen noch nicht zu einer politischen Agenda pervertiert waren. Nur wenige Regierungsagenturen trugen mehr zur Pervertierung zum AGW-Betrug bei als die NASA.

Die NASA und vor allem die untergeordnete Agentur NASA GISS sowie das JPL waren Hauptakteure bei dem massiven Betrug der vom Menschen verursachten globalen Erwärmung AGW fast von Anfang an. Ich sagte ,fast‘, weil der Verfall von NASA GISS und der mächtigen öffentlichen Glaubwürdigkeit der NASA in Wirklichkeit schon im Jahre 1988 begann, doch war auch schon zuvor etwas in diese Richtung geschehen. Das war ein interessanter Aspekt in dem Betrug, welcher sich heute immer noch durch die Regierung zieht, aber besonders durch die NASA. Ein Politiker, der damalige Senator Tim Wirth, suchte einen Wissenschaftler, der sagen würde, was er hören wollte. Er fand James Hansen vom NASA GISS.

In einem Interview im Jahre 2007 wurde Wirth gefragt:

Frage: Das einzige, was Hansen unterlassen hat vor Ihrem Komitee ist, dass er nicht den Terminus „globale Erwärmung“ in den Mund genommen hat. Er sagte: „Meine Herren, ich bin zu 99% sicher, dass die Menschen zum Klimawandel beitragen“, aber er hatte nicht den Mut, weil er sich zu jener Zeit außerhalb des wissenschaftlichen Konsens‘ befand. …

Antwort: Oh, Hansen hat einen weiten Weg zurückgelegt. Das war ein sehr, sehr mutiges Statement. Er stand am Rande der Wissenschaft und war fast 20 Jahre jünger als heute, so dass er damals relativ neu in dem Bereich agierte. Er arbeitet für die [US-]Bundesregierung, und sicher war das, was er zusagen hatte, nicht mit der Linie abgestimmt. Folglich ist die Zusammenfassung der Äußerungen Hansens in jenem Jahr sowie die Tatsache, dass diesen Äußerungen so viel Medienaufmerksamkeit zuteil wurde, weit verbreitet worden sind. Er ging bis zum Äußersten, was man überhaupt hätte erwarten können, denke ich. Noch einmal, es war sehr mutig von ihm, das zu sagen.

Hansen ging dann dazu über, mittels des Gewichtes des Namens NASA seine Besessenheit, fossile Treibstoffe loszuwerden, immer weiter zu treiben. Besonders richtete er sich gegen Kohle. Wie viele deep-state-Menschen brach er jeden Teil des Hatch Act* und wurde sogar verhaftet, weil er vor dem Weißen Haus an einer Protestdemonstration teilgenommen hatte (hier). Er trat zurück, und zwar wie die meisten vor ihm mit vollen Bezügen und ohne für den Missbrauch seines Arbeitgebers zur Verantwortung gezogen zu werden. Hansens Nachfolger als Leiter der NASA GISS, Gavin Schmidt, ist offensichtlich gewählt worden wegen seiner verzerrten Ansichten und seiner Verwicklung in die Skandale um den Betrug der globalen Erwärmung, welche durch die Klimagate-E-Mails bekannt geworden waren. Eine Reihe von Beiträgen bei WUWT stellte seine Arbeit in die richtige Perspektive.

[*Ein Gesetz, dass öffentlich Bediensteten eigene politische Tätigkeiten verbietet. Anm. d. Übers.]

Die Unterorganisationen der NASA wurden beauftragt, Expertisen zu erstellen in Bereichen, die sich negativ auf das grundlegende Ziel auswirken würden, in das Weltall zu fliegen. Eigentlich keine gute Quelle, aber bei Wikipedia findet sich eine gute Zusammenfassung dessen, was sie zu tun beauftragt worden waren.

Forschungen am GISS empfehlen eine breit angelegte Studie zur globalen Änderung; den natürlichen und anthropogenen Änderungen in unserer Umwelt, welche die Bewohnbarkeit unseres Planeten betreffen.

Ich erinnere mich an die ersten Tage Ende der sechziger Jahre, bevor die Agentur in den achtziger Jahren politisiert worden ist. Man erstellte exzellente Veröffentlichungen wie etwa den Band von 1978 von Herman and Goldberg „Sun, Waether And Climate“. Seitdem wurde eine Kombination einer über die Maßen um sein öffentliches Image bedachten Agentur, die Notwendigkeit eines besseren Verständnisses von Wetter und Klima für die Arbeit im Weltraum zu einem fruchtbaren Boden für Politiker wie Timotyh Wirth, um angepasste Wissenschaftler zu finden. Erinnern wir uns, Wirth sagte auch:

Wir müssen das Thema globale Erwärmung hoch halten. Selbst wenn die Theorie der globalen Erwärmung falsch ist, werden wir das Richtige tun …“

Wirth war offensichtlich dermaßen überzeugt, dass er die Pfründe des Senats hinter sich ließ, um Präsident der United Nations Foundation zu werden, einer Agentur, die den Löwenanteil ihrer Finanzierung dem Vernehmen nach aus einer persönlichen Spende in Höhe von 1 Milliarde Dollar von Ted Turner bezog.

Es scheint, dass der Brief der 50 keinerlei Wirkung zeitigte. Hansen trat mit 72 Jahren zurück, nachdem er 46 Jahre lang seine politischen Ansichten zu Kohlendioxid propagiert hatte und ohne Konsequenzen den Hatch Act verletzt hatte, welches über politische Aktivitäten von Bürokraten befindet. Gavin Schmidt macht mit einer ganz ähnlichen Agenda weiter. Trotz aller Bemühungen scheitert der AGW-Betrug immer mehr, so dass ein neues, vom Menschen verursachtes Desaster beschworen werden muss.

Alles folgt auf dem gleichen Weg wie das verlogene Thema FCKW/OZON und dem sogar noch größeren Fake-Thema CO2/globale Erwärmung. Man behauptet, dass ein Umweltproblem droht, welches von den Akademien, meist an der US-Westküste, in Regierungskreise wandert. Dort wird dann eine falsche Wissenschaft fabriziert seitens unzähliger Bürokraten-Wissenschaftler. Sie kontrollieren die Politiker und bringen sie dazu, drakonische, ungemein teure und vollkommen unnötige Gesetze und Vorschriften zu erlassen. Dies war die Aufgabe der Arbeitsgruppe III, die unrichtig die Bezeichnung „Mitigation of Climate Change“ [mitigation = Abschwächung] trug. Das macht diese Arbeitsgruppe nicht. Sie versucht einzig, die falsche Behauptung einer durch CO2 induzierten Erwärmung abzuschwächen. Die Illusionen und Verzerrungen werden neu belebt durch übertriebene und irreführende Daten im Synthesis Report (Summary for Policymakers).

Diesmal ist das Thema das Wasser, wie die JPL-Studie bestätigt. Wasser wurde zum ausgeschlachteten Thema am Pacific Institute, gegründet von Peter Gleick in Oakland, Kalifornien.

Die Arbeit von Dr. Gleick hat das Wasser aus der Domäne von Ingenieuren in die Welt von Nachhaltigkeit, Menschenrechte und integriertem Denken gebracht. Gleick war führend beim Konzept des „soft path for water“, entwickelte den Gedanken von „peak water“ und hat sich schriftlich über die Notwendigkeit ausgelassen, eine „local water movement“ zu erschaffen.

Das IPCC ignorierte das wissenschaftliche Verfahren des Widerlegens einer Hypothese. Es konstruierte Computer-Modelle, obwohl es nur unzulängliche Daten gab.

Die Modelle wurden so programmiert, dass sie mit einer CO2-Zunahme eine Temperaturzunahme erzeugten, wenn die Daten genau das Gegenteil zeigen. Sie erzeugten Prophezeiungen und später Projektionen, die konstant falsch waren. Aber trotzdem machten sie der Welt weis, dass sie ihr Verhalten ändern müsse, zu massiven finanziellen und sozialen Kosten. All das haben die 50 Ehemaligen verurteilt. Jetzt fährt die NASA via JPL mit der gleichen Verzerrung der Wissenschaft fort mit ihren Behauptungen über das globale Süßwasser.

Sie machen, was Gleick befürwortet, und was das Echo der Worte von Tim Wirth ist. Ignoriere die Ingenieure und die Daten, weil man das Richtige tut. Es ist an der Zeit, diese Agenturen abzuschaffen oder sie zumindest dazu zu zwingen, etwas Sinnvolles zu tun, wie beispielsweise Daten gewinnen. Im besten Falle sollten sie sich auf das beschränken, was Hubert Lamp sagte, als er die CRU gründete:

„… es war klar, dass die erste und wichtigste Notwendigkeit darin bestand, die Fakten der Vergangenheit der natürlichen Klimate zu etablieren zu Zeiten, bevor irgendwelche Nebenwirkungen menschlicher Aktivitäten bedeutsam werden konnten“.

Link: https://wattsupwiththat.com/2018/05/20/nasa-and-the-deep-state-creation-of-alarmism-about-climate-and-environment/

Übersetzt von http://www.chris-frey-welt.de/ EIKE




Jetzt zetteln sie den Krieg gegen Plastik an!

Die fehlgeleitete Anti-Plastik-Kampagne vom Earth Day Network ist ein Anzeichen dafür, dass weiterer Unsinn kommen wird.

Das Earth Day Network (EDN) wählte „Ende der Plastik-Verschmutzung“ als ihr Thema zum Earth Day dieses Jahres am 22. April . Es ist die Speerspitze des Anti-Plastik-Aktivismus, welcher jetzt die Umwelt-Aktivisten umtreibt. Eine Google-Suchanfrage nach ,Plastik-Verschmutzer-Koalition‘ (Plastic Pollution Coalition) (einer Gruppe, die für sich in Anspruch nimmt, „über 500 Mitglieds-Organisationen zu repräsentieren“, welche sich „der Arbeit an einer Welt ohne Plastik-Verschmutzung und deren giftige Auswirkungen“ verschrieben hat) ergibt rund 90.000 Treffer einschließlich eines Video-Akteurs namens Jeff Bridges für die Kampagne.

Sogar die UN sind auf den Zug aufgesprungen, erkor man doch „Beat Plastic Pollution“ zum Motto des World Environment Day, einer „globalen Plattform für öffentliche Entrüstung, welche in über 100 Ländern gefeiert wird“.

Aber die Forderung nach tief greifenden Maßnahmen gegen vergleichsweise kleine Probleme wie Plastik macht keinen Sinn. Um der Öffentlichkeit zu helfen, diese Attacken gegen dieses Wunder-Material richtig einzuschätzen, wollen wir betrachten, was führende Umwelt-Denker über Themen wie das vom EDN auf den Schild gehobenen Earth Day sagen. Fangen wir an mit dem Terminus „Plastik-Verschmutzung“.

Der kanadische Ökologe und Mitbegründer von Greenpeace Patrick Moore betont, dass Plastik ungiftig ist. „Es ist Abfall, aber kein Verschmutzer. Viele Menschen finden es unansehnlich, und die Lösung besteht darin, den Menschen nahe zu bringen, es nicht in der Umwelt zu entsorgen, sondern dem Recycling zuzuführen“.

Das EDN behauptet weiter, dass Plastik „das maritime Leben vergiftet und verletzt“. Moore dazu: „Plastik ,vergiftet‘ gar nichts. Es ist ungiftig. Glauben sie, dass unsere Kreditkarten aus PVC-Plastik ,giftig‘ sind?“ Natürlich kann Plastik Giftstoffe freisetzen, wenn es verbrannt wird, aber nicht, wenn man es doch einfach in der Umwelt entsorgt. Man sollte es also unter sorgfältigsten Emissionskontrollen verbrennen.

Der Hauptgrund dafür, warum Vögel und Fische Plastikstückchen verschlucken ist die Nahrung, die auf diesen Stückchen wächst“, fügt Moore hinzu. „Aber beide Spezies haben keine Probleme, Knochen und andere natürliche größere Objekte durch ihren Verdauungstrakt laufen zu lassen und sie danach problemlos auszuscheiden“. Plastik ist da keine Ausnahme.

Paul Driessen, leitender Politik-Analyst für das Committee For A Constructive Tomorrow CFACT und Autor von Büchern und Artikeln über Umwelt- und Energiepolitik, weist darauf hin, dass „einige Tiere Plastik aufnehmen oder sich in Netzen aus Plastik verfangen. Aber die Auffassung, dass maritime Lebensformen (und Menschen) durch die Chemikalien in Plastik vergiftet werden, entbehrt jeder wissenschaftlichen Grundlage.

Als Nächstes beklagt sich das EDN über „das allgegenwärtige Plastik in unserer Nahrung“. Moore dazu: „Das ist kompletter Unsinn. Falls ein Stückchen Plastik in unsere Nahrung gerät, läuft es einfach durch unseren Verdauungstrakt, ohne irgendeinen Schaden anzurichten“.

„Plastik-Verpackungen helfen, Nahrung zu konservieren und halten Bakterien ab“, betont Driessen. „Was ist schlimmer? Kaum aufspürbare Spurenmengen von Chemikalien in unseren Körpern oder ernste Ausbrüche von Infektionskrankheiten durch Bakterien?“

Das EDN sorgt sich auch darum, dass Plastik „menschliche Hormone schädigt“. Der Physiker und Rechtsanwalt John Dale Dunn, Dozent für Notfall-Medizin am Carl R. Darnall Army Medical Center in Fort Hood in Texas, verwirft diese Bedenken. „Ängste über Hormonschädigungen … basieren auf Müll-Wissenschaft. Viele extensive Studien haben übereinstimmend keinerlei Vergiftungserscheinungen durch BPA ergeben. Dieses ist eine nützliche Chemikalie, welche den Fortschritt beschleunigt und die Entwicklung neuer Produkte ermöglicht hat, die sehr gut aufgenommen und sehr hilfreich sind“.

„Die Widerlegung von Behauptungen über Hormonschäden war definitiv und umfassend“, schreibt Dunn. Auch der Direktor von Www.JunkScience.com Steve Milloy war hinsichtlich seiner Kritik an der Müll-Wissenschaft bzgl. Hormonschäden sehr deutlich, wie er in diesem exzellenten Beitrag erklärt.

Bizarr und unglaublich kommt die Behauptung des EDN daher, dass Plastik „das Überleben unseres Planeten bedroht“. Unter Verweis darauf, wie der Komiker George Carlin sich über die Plastik-Angst lustig machte, verwirft Driessen diese Übertreibung. „Die Erde hat gewaltige Meteoriten-Einschläge, massive Eiszeiten, Massen-Aussterben im Devon und andere planetare Katastrophen überstanden. Und jetzt hat Plastik die Rolle des Klimawandels als Bedrohung des Planeten übernommen?!“

Das EDN kolportiert „globale Bemühungen, um primär die Einmal-Verwendung von Plastik zu eliminieren“. Steve Goreham, Direktor der Climate Science Coalition of America und Autor von „Outside the Green Box – Rethinking Sustainable Development“, erwidert: „ Plastik ist ein Segen für die Menschheit. Die Verpackung von Nahrungsmitteln in Plastik anstatt in Tierhäuten, Holz, Metall, Glas und Papier bringt erhebliche Hygiene, Bequemlichkeit und gesundheitliche Vorteile mit sich, ebenso wie niedrigere Kosten. Die Lösung ist biologisch abbaubare Plastik für Einmal-Produkte und nicht die Eliminierung von Plastik“.

Verhaftet seinem Klima-Alarmismus sagte das EDN, es wolle „Alternativen zu Materialien auf der Grundlage fossiler Treibstoffe“. Driessen antwortet: „ Es ist absurd zu fordern, dass Plastik ohne Öl und Gas besser werden würde – oder dass man es tun kann, ohne fast den gesamten Planeten in eine massive Biotreibstoff-Farm zu verwandeln, um Energie und Plastik herzustellen. Die Auswirkungen auf die Wasserversorgung, Ernten und Wildnis-Habitate wären verheerend“.

Der NASA-Ingenieur im Ruhestand Alex Pope erklärt: „fossile Treibstoffe und Produkte aus fossilen Treibstoffen haben das Leben für Milliarden Menschen auf dieser Erde besser gemacht … dieses bessere Leben ist zurückzuführen auf fossile Treibstoffe und Produkte aus denselben, vor allem Plastik … Der Krieg gegen fossile Treibstoffe und gegen Produkte aus ihnen ist ein und derselbe Krieg. Ich denke, dass sie wissen, dass sie einen großen Teil des Krieges gegen fossile Treibstoffe zur Energieerzeugung verlieren. Also führen sie ihren Krieg gegen vitale Produkte aus fossilen Treibstoffen, welche das Leben verbessern und gesünder machen“.

Das EDN will ein „Recycling von Plastik zu 100%“. Goreham wischte diesen Gedanken vom Tisch. „100% Recycling von Plastik ist keine ökonomische Perspektive. Einzig eine geordnete Deponierung, Verbrennung, Kompostierung oder Recycling ist das beste, basierend auf den Kosten und Machbarkeit. Die heutigen Deponien sind in modernen Ländern sehr umweltfreundlich“.

Das EDN will, dass die Menschen Plastik „reduzieren, ablehnen, wieder verwenden, recyceln und entfernen“. Driessen sagt dazu: „An einigen Stellen und in einigen Kulturen mag das funktionieren. Aber wo die Menschen keine Nahrung, keine sanitären Anlagen, kein sauberes Wasser, keine Arbeitsplätze, keinen Strom und keine Hoffnung für die Zukunft haben – glaubt man wirklich, dass sich diese Menschen fortwährend Sorgen bzgl. Plastik machen?“

Der erste Earth Day wurde am 22. April 1970 ausgerufen als Reaktion auf die legitimen Bedenken von Millionen Menschen, dass die Reduktion von Luft-, Land- und Wasserverschmutzung viel schneller vonstatten gehen muss. Die Bewegung erhielt immer mehr Zulauf, bis die heutige Präsidentin des EDN Kathleen Rogers schätzte, dass „derzeit über 1 Milliarde Menschen in 192 Ländern teilnehmen an etwas, was der größte Aktionstag der Zivilbevölkerung weltweit ist“.

Das sollte niemanden überraschen. Alle vernünftigen Menschen sind Umweltaktivisten. Wir wollen saubere Luft, sauberes Wasser und sauberes Land, und wir lieben den Gedanken, dass zukünftige Generationen in einer sogar noch besseren Umwelt leben. Das waren die ursprünglichen Ziele des Earth Day, und ich freue mich, dass ich selbst Anfang der neunziger Jahre auf Earth Day-Veranstaltungen Vorträge halten durfte.

Wie jedoch Henry Miller und Jeff Stier in einem Beitrag bei Fox News beobachten: „Während der letzten Jahre ist der Earh Day zu einer Gelegenheit für professionelle Aktivisten und Alarmisten verkommen, die vor Apokalypsen warnen und mit anti-technologischem Schmutz und Bekehrung der Menschen aufwarten. Leidenschaft und Inbrunst triumphieren jetzt über die Wissenschaft, und Beweisbarkeit nimmt den Rücksitz bei Plausibilität ein“. Damit wirft man Wissenschaft und rationales Denken hunderte Jahre zurück.

All dies zeigt, wie weise der Entwurf des Leiters der EPA Scott Pruitt ist vorzuschreiben, dass die wissenschaftlichen Studien zugrunde liegenden Daten öffentlich gemacht werden müssen zur Einsichtnahme und Bewertung, wenn diese Studien herangezogen werden, um die regierungsamtliche Umwelt- und Energiepolitik zu rechtfertigen. Dies bedeutet, dass tatsächliche Beweise, absolut unabhängige Begutachtungen der Daten, Verfahren, Computer-Codes und Algorithmen nicht länger geheim bleiben dürfen.

Sterling Burnett, Leiter der Abteilung Umwelt- und Energiepolitik am Heartland Institute, nennt den Vorschlag von Pruitt „einen kleinen Schritt hin zu einer Reform von Vorschriften, aber einen großen Schritt hin zu wissenschaftlicher Integrität und politischer Transparenz“. Das EDN und dessen alliierte Gruppen sollten den Beweis antreten, dass Plastik ein gefährlicher Verschmutzer ist, bevor Regierungen irgendwelche Maßnahmen dagegen ergreifen.

Inzwischen erinnert uns Goreham daran, wie wichtig Plastik ist hinsichtlich Gesundheit und Sicherheit in modernen Gesellschaften. „Es ist ein Wunder-Material. Wir stellen Verpackungen für Nahrungsmittel her, für Schuhe, Herzklappen, Rohre, Spielzeug, Schutzhelme und Smartphones aus Plastik“.

Sogar das EDN und andere Anti-Plastik-Aktivistengruppen scheinen zu erkennen, dass Plastik für zahlreiche Anwendungen unverzichtbar ist, fordern sie doch ebenfalls die weitere Herstellung dieser Produkte. Sie wollen lediglich, dass diese aus menschengemachten Kohlenwasserstoffen gefertigt werden (Biotreibstoffe usw.) anstatt aus dem Öl und Erdgas, welches Mutter Natur erschaffen und unter der Erdoberfläche gelagert hat – damit es von der Menschheit genutzt werden kann, um unser Leben auf unendliche Art und Weise zu verbessern.

Hoffentlich kommt Pruitts Vorschrift bald zur Anwendung und werden die grundlosen Behauptungen der Extrem-Öko-Aktivisten ignoriert. Dann kann sichergestellt werden, dass uns Plastik auch weiterhin und noch lange zur Verfügung steht.

Tom Harris is executive director of the Ottawa, Ontario-based International Climate Science Coalition.

Link: https://www.iceagenow.info/25685-2/

Übersetzt von Chris Frey EIKE




DSGVO – Der Bürger als Krimineller!

Bei Tichys Einblick lesen wir was wirklich auf uns zukommt:

Die neue Datenschutzgrundverordnung (DSGVO) ist ein Todesurteil für viele Blogger, eine Gefahr für jeden Handwerker, der Geburtstagsgrüße verschickt, ein Risiko für jeden Hobbyfotografen und Fußballverein. Mehr noch –  sie offenbart die Brüssler Haltung: jeder Bürger ein Krimineller. weiterlesen hier

weiter aus dem Text:

Dabei, persönliche und private Datensouveräntität, das ist eine wichtige Angelegenheit – wer will schon seine Daten den digitalen Kraken im Netz ausliefern? Doch was in der Woche nach Pfingsten auf Druck der EU über jeden im Netz aktiven Bürger oder Unternehmer hereinbricht, hat schon was Seltsames an sich: Es drohen für Selbstverständlichkeiten, die nichts mit Datenklau zu tun haben, drakonische Strafen. Kommunikation, die immer auch darin besteht, dass man Adressen austauscht, sich meldet, kontaktiert, ein Netzwerk aufbaut: all das wird unter Straftatverdacht gestellt – und der Beschuldigte hat seine Unschuld zu beweisen.

Zukünftig droht Strafe, wenn Handwerker die Daten ihrer Kunden aufschreiben, und ganz schlimm: Einen Geburtstagsglückwunsch schicken: das Geburtstagskind kann sich beschweren und im Zweifel, Anzeige bei der Datenschutzbehörde erstatten. Dann muss ermittelt werden, ist auf alle Fälle Strafe fällig. Eine neue Strafbehörde legt sich über Europa, mit weitreichenden Befugnissen und prinzipieller Schuldvermutung….

….Der Alltag eines Freiberuflers oder Selbständigen wird auf den Kopf gestellt und mit Bürokratie überhäuft:

Gefährdet sind:

Freiberufler, die ihre Dienste auf einer Homepage anbieten und auf Anfragen antworten;

Sportvereine, die die Rangfolge beim örtlichen Tennisturnier, dem Waldlauf oder den örtlichen Leichtathleten vor dem Vereinsheim anschlagen;

Opernhäuser, die ihre Besetzungslisten veröffentlichen.

Wir alle: Sie schicken Ihren Kunden gelegentlich Werbung für Ihr Produkt, gerne noch per Post? Sie haben noch Unterlagen früherer Mitarbeiter oder Kunden gespeichert, irgendwo in den gigantischen Tiefen ihres PCs?  Sie fotografieren digital? Haben eine What´s App-Gruppe? Dann sind Sie schon ein potentieller Straftäter.

Selbst Bundestagsabgeordnete brauchen einen Datenschutzbeauftragten.  (Wie immer haben die Damen und Herren im Reichstag nicht gewußt, worüber sie abgestimmt haben.)

Kurzum: Alle trifft es. Natürlich unsere Abgeordneten nicht ernsthaft – deren  Datenschutzbeauftragten zahlt am Ende doch der Steuerzahler…

Kriminalisierung der Bürger

Es ist eine Kriminalisierung auf breiter Ebene, die den Bürger sensibilisieren soll, im Umgang mit personbezogenen Daten – ihn aber faktisch zum Datendieb stempelt:

Schon eine simple Digital-Fotografie ist das „unerlaubte Anlegen eines personenbezogenen Datenspeichers“. Die DSGVO-Folge: wir werden unseren Kindern menschenleere Fotografien unserer Städte hinterlassen. Denn jeder, der auf einem Foto erkennbar ist, muss dafür eine ebenfalls schriftliche Erlaubnis abgeben. Fotografieren Sie also nie mehr Menschen. Auch nicht beim Sportfest, der Schulveranstaltung, der Firmung oder dem Klassentreffen. Wer das macht, macht sich bereits beim Druck auf den Auslöser strafbar. Es sei denn: schriftliche Einwilligung der Fotografierten. Gibt es in Zukunft noch Klassenfotos? Bilder der siegreichen Fußballmannschaft? Vergangenheit, Brüssel will es so…

Der Kampf gegen die Meinungsfreiheit

Und es geht um Einschränkung der Meinungsfreiheit, die sich mit der Erfindung von Blogs verbreitert hat.

Denn die DGSVO trifft Blogger – und die besonders hart. Auch jene, die noch nie im Traum daran dachten, dass sie Daten ihrer Leser weiterverwenden oder sogar verkaufen könnten: Aber die Standardprogramme von WordPress oder Google, Paperli und all die kleinen Helfer sind dem Datenschutz ein Dorn im Auge. Sie fordert, eigentlich zurecht, Transparenz darin, welche Daten erhoben werden, aus welchem Grund, wofür und den Speicherort, und zwingt damit jeden in seine Verantwortung. Viele Blogs haben schon ihr Erscheinen eingestellt. Weitere werden folgen, wenn die Behörden einen Grund suchen, sie still zu legen. Aber nicht nur darum geht es: Viele sind so sehr mit der DSGVO beschäftigt, statt diese Kraft und Zeit produktiv und kreativ zu investieren. Aber Qualität zählt nicht für Brüssel – nur die Erfüllung bürokratischer Forderungen. Denn die DSGVO eignet sich auch für politische Repressalien: So können ebenso idealistische wie lästige Abweichler vom Mainstream zum Verstummen gebracht werden. Der Preis ist hoch.  Wer kommuniziert, riskiert Bestrafung.

Newsletter, wie sie von Vereinen, Gemeinden, Kirchen oder Freundeskreisen heute wie selbstverständlich benutzt werden, können zu einer Gefahr für den Absender werden, wenn ein doppeltes Opt-In und der Hinweis auf die eigene Datenschutzerklärung fehlen. Alle Vergehen müssen verfolgt und bestraft werden, im ersten Schritt mittels (wohlwollender) Abmahnung, im Wiederholungsfall je nach Schwere bis zu EUR 20 Mio oder 4% des globalen Jahresumsatzes, je nachdem welcher Wert höher ist: Und das kann zur Eintrittskarte für den geschäftlichen oder auch privaten Ruin werden…

Die Täter der Politik sitzen nicht nur in Brüssel

Natürlich wird das so nicht gesagt. Einer der Haupttreiber ist Jan Philipp Albrecht, 35 Jahre alt, neun Jahre für die Grünen im Europaparlament. Als Verhandlungsführer des Europäischen Parlaments wirkte er zuletzt an der Grundverordnung der EU mit, die seit 2016 europaweite Standards im Datenschutz setzt und ab dem Mai dieses Jahres in Kraft tritt. Und er ist mächtig stolz darauf, denn endlich hat er die ganz großen Elefanten vor der Flinte, Google, VW, Amazon, wie sie alle heißen.

Sie sollen Angst vor ihm haben. Der kleine Jan macht auf David, allerdings erschlägt er nicht Goliath, sondern viele Bürger Davide.

Rotzig droht er: „Es sollte ihnen jedenfalls klar sein, dass ihnen sowohl gerichtliche Verfahren als auch Verfahren der Datenschutzbehörden drohen. Da wird es kein Pardon geben. Behörden und Gerichte sind verpflichtet, das neue Recht anzuwenden und auch Sanktionen zu verhängen, die schmerzhaft sein können – immerhin bis zu vier Prozent vom weltweiten Umsatz.“ weiterlesen hier

Bitte schreiben Sie an Ihren Bundestagsabegordneten aus Ihrem Wahlkreis und protestieren Sie dagegen.

In eigener Sache: Es wird uns wohl nichts weiter übrig bleiben als zunächst mal – nur als Einstieg – unseren beliebten Newsletter in der bisherigen Form einzustellen.Morgen oder übermorgen wird dann einer versandt werden, der alle Bezieher bittet sich neu bei EIKE anzumelden. Jeder der das nicht tut, aus welchen Gründen immer, muss vom Verteiler gestrichen werden.

Und das alles, weil  Brüssel und Jan-Phillip Albrecht, wie auch die Deutsche Regierung samt Parlament uns dazu zwingen.

Denn den Aufwand können wir insgesamt nicht leisten. Und die Strafen erst recht nicht.




Öko-Imperia­lismus in Nord­amerika und der Welt

Der Lunch wurde von Amy Ridenour, damals Präsidentin des National Center for Public Policy Research ausgerichtet. Viele dieser Leute, die zu sehr einflussreichen Sprechern gegen den AGW-Betrug wurden, traf ich zum ersten Mal. Marc Morano steckte mitten in Arbeiten für Senator James Inhofe, einen der wenigen Politiker, die sich nicht dem Betrug angeschlossen hatten. Seit Beginn seiner Arbeit für Senator Inhofe rief er seine sehr erfolgreiche Website Climate Depot ins Leben. Eine weitere Persönlichkeit, Paul Driessen, stellte sich mir vor und übergab mir eine Ausgabe seines damals gerade erschienen Buches Eco-Imperialism.

Die Scheinheiligkeit, dass die entwickelten Nationen fossile Treibstoffe verbrauche, um Länge und Qualität des Lebens ihrer Bürger zu verbessern, während sie anderen Nationen diese Gelegenheit verwehren, ist ungeheuerlich. Es wird aber noch schlimmer, weil wir genau wissen, dass die Entwicklung, gegen welche die Umweltaktivisten so schwer zu Felde ziehen, der beste Weg ist, den Bevölkerungszuwachs zu stoppen nebst der drückenden Probleme desselben. Ich habe zum demographic transition genannten Thema etwas geschrieben. Diese Scheinheiligkeit zieht sich durch sämtliche Maßnahmen seitens der Umweltaktivisten, erfreuen sie sich doch höchster Lebensstandards, während sie anderen predigen, in Armut zu leben.

Dies stand auch im Mittelpunkt beim Verbot von FCKWs. Unsere Nahrungsmittel waren mittels Kühlung viel länger haltbar. Jetzt dürfen wir FCKWs nicht mehr verwenden, weil wir beschlossen haben, dass sie die Umwelt schädigen. Indien und China steigerten diese Scheinheiligkeit in Opposition zum Montreal-Protokoll, einem Vorläufer des Kyoto-Protokolls, welches jüngst durch das Paris-Abkommen ersetzt worden ist. Premierminister Modi war einer der ersten Führer in der Welt, der eine Bresche in diese von den Umweltaktivisten praktizierte Scheinheiligkeit trieb. Er wies darauf hin, dass in seinem Lande Menschen verhungern, welche anderweitig gerettet werden könnten. Die Wahrheit ist, dass Kohle Milliarden Menschen vor dem Hungertod und Unterernährung errettet hat, während sich ihre Lebensqualität in jeder Hinsicht deutlich verbesserte. In jedem Land leben die Menschen heute länger und sind gesünder als jemals zuvor. Wie man so schön kryptisch sagt, als Mozart in meinem Alter war, war er bereits 44 Jahre tot.

Alles hiervon und auch die Absicht dieses Beitrags wurde ausgelöst durch einen Artikel, welcher in Kanada erschienen war. Darin ging es um die Klage einiger Ureinwohner. Diese sagten, sie seien von einer Umwelt- und Ökologie-Politik betroffen, ohne dass man sie konsultiert habe, was sie dazu dachten und was zu ihren kulturellen Belangen passte. Viele wollten Ressourcen auf ihrem Land entwickeln, aber die meisten Landgebiete der Ureinwohner sind unter Kontrolle der kanadischen Regierung. Sie sind Opfer genau des Öko-Imperialismus‘, den Driessen so treffend beschrieben hat. Aber natürlich kommt das nicht überraschend, sind die Ureinwohner doch die ,Verlierer‘ des Imperialismus‘. Tatsächlich geht es ihnen schlechter denn je, weil sie weiterhin unter kolonialem Imperialismus leben mussten, während man anderen Ländern ihre Freiheit gegeben hat.

Eine Klage seitens der Ureinwohner wurde in Manitoba gegen Manitoba Hydro eingereicht, ein Erfüllungsgehilfe der Regierungs-Organisation, welche die gesamte Energieerzeugung und -verteilung in der Provinz kontrolliert. Fast die gesamte Energie vor allem in den zentralen Gebieten der Provinz wird durch Wasserkraft erzeugt. Der Abfluss erfolgt nordwärts in die Hudson Bay. Die Ureinwohner machten geltend, dass ihre traditionelle Kultur durch die Entwicklung der Wasserkraft in der gesamten Provinz zerstört werde. Ihr Zorn wurde größtenteils durch das Buch As Long as The Rivers Run ausgelöst, in welchem definiert wird, was darin „Wasserkraft-Gemeinden“ [Hydro communities] genannt wird. In dem Buch wurde beschrieben, dass es in diesen Gemeinden Vergewaltigungen, Alkoholismus, Drogenprobleme und hohe Kriminalität gebe und dass das Schulsystem gescheitert ist. Hydro stimmte einer Untersuchung zu, und die Ureinwohner baten mich, den Vorsitz bei dieser Untersuchung zu übernehmen.

Ich rief ein Komitee ins Leben mit einem Historiker, einem Ökonom und einem Rechtsanwalt. Ich stimmte dem Ansinnen zu unter der Bedingung, dass nicht die Auswirkung auf ihren traditionellen Lebensstiel Gegenstand der Untersuchung ist, sondern wie sich ihr historischer Lebensstiel mit der Zeit geändert hat. Tradition kann das sein, was man gestern gemacht hat, und was wir wissen müssen ist, wie sich die Ureinwohner an all diese Änderungen angepasst haben und mit ihnen umgegangen sind.

Als Erstes rekonstruierte ich die Klima- und Umweltveränderungen vom Jahr 900 bis zur Gegenwart. Dieses Datum wurde mit Bedacht gewählt, markiert es doch den Beginn der Mittelalterlichen Warmzeit (MWP) und der Einwanderung der ersten Stämme der Ureinwohner (Cree, Ojibwyan und Chipewyan) in das Gebiet. Danach erkundeten und maßen wir die Auswirkungen aller großen kulturellen Änderungen, welche beispielsweise die Ankunft der Europäer, der Pelzhandel sowie politische und juristische Änderungen mit sich brachten. Sie konnten mit all diesen Änderungen mehr oder weniger erfolgreich umgehen – mit einer Ausnahme.

Im Jahre 1870 wurde der Staat Kanada gegründet, und das britische Nordamerika-Gesetz [the British North America (BNA) Act] löste alle zuvor bestehenden Einrichtungen ab einschließlich der riesigen Besitzungen und der Kontrolle der Hudson Bay Company HBC darüber. Teil des BNA war The Indian Act, und das allein machte die Gebiete der Ureinwohner zu Kolonien innerhalb von Kanada. Man steckte alle Ureinwohner in Reservate. Die Regierung versprach, alle grundlegenden Dienstleistungen zur Verfügung zu stellen einschließlich Bildung und Gesundheitsvorsorge. Falls man sich von den Auswirkungen der 148 Jahre Regierungs-Fürsorge überzeugen möchte, besuche man ein Reservat der Ureinwohner.

In unseren Studien konnten wir keinerlei anthropologische Standard-Termini finden, welche zum Verhalten dieser Menschen passten. Zentraler Punkt für ihr Überleben war ihre Fähigkeit zu wandern. Das war in keiner Weise eine normale Migration. Sie blieben in einem Gebiet, solange sie sich dort ernähren konnten, dann zogen sie weiter in ein Gebiet, das sie nach Informationen und Wissen erkundet hatten. Es war nichts vorbestimmt, außer die Anpassung an die natürlichen Zyklen. Während sie vordergründig an ihrer traditionellen Lebensweise festhielten, war es ein psychologischer Tiefschlag, ihnen zwangsweise das Recht der Wanderungen zu nehmen, den sie nicht überleben konnten.

Die Behauptung hinsichtlich „Hydro-Gemeinden“ war das, was wir eine point-of-impact-Studie nannten. Nachdem sie die Probleme erkannt hatten, machten sie geltend, dass diese die Folge der Hydro-Entwicklung waren. Wir schauten in die Historie und stellten fest, das alle Probleme bereits bestanden, bevor die Wasserkraft Einzug hielt. Der Gedanke, dass die Ureinwohner nicht für Entwicklung und Innovationen offen waren, ist falsch, wie schon Olive Dickason in ihrem Buch Canada’s First Nation erklärte. Sie hatten Kontrolle über die ersten 100 Jahre des Pelzhandels.

Vor einigen Jahren trug ich auf einer Konferenz von Pelzhändlern in Sun Peaks in British Columbia vor. Hauptredner war ein Mitglied der Ureinwohner aus Manitoba, welcher als Minister für Northern Affairs nominiert war. Er sprach über seine kürzliche Reise nach Europa, wo er die europäische Scheinheiligkeit beklagte. Er erklärte ihnen, dass sie zunächst den Pelzhandel und die Waldwirtschaft schufen und alles jetzt zum Stillstand bringen, nur weil sie von Umweltaktivisten drangsaliert wurden, welche keinerlei Beweise als Stütze für ihre Forderungen erbrachten. Interessant bei dieser Geschichte war, dass all dies in den Bereich der Regierung fallen sollte, aber die haben ihre Bevölkerung nicht geschützt. Das bedeutet, dass die Ureinwohner Opfer des Öko-Imperialismus‘ sind.

Denkt man über all dies im Zusammenhang mit jüngsten Klagen der Ureinwohner über Öko-Imperialismus und Anti-Entwicklung nach, erkannte ich, dass wir uns in negativer Weise fortschrittlich entwickelt hatten. Inzwischen ist die gesamte weltweite Mittelklasse zum Opfer des Öko-Imperialismus‘ geworden, weil die Anwendung der Begriffe Umweltaktivismus und Klimawandel dazu verwendet wurde, Macht und Kontrolle über das Leben der meisten Menschen zu erlangen seitens einer Minderheiten-Machtelite.

Imperialismus und jede andere Form von Macht und Kontrolle fußen auf dem Glauben, dass wir wissen, was gut für euch ist, also werden wir das als Rechtfertigung heranziehen, um euch unseren Willen und unsere Art aufzuzwingen. Schon vor Jahrzehnten sagte H. L. Mencken:

Der Drang, die Menschheit zu retten, ist fast immer nichts weiter als eine Verschleierung des Drangs, die Menschheit zu steuern. Es ist die Macht, nach welcher alle Messias‘ wirklich trachten – nicht die Gelegenheit zu dienen. Das gilt sogar für die Pius-Bruderschaft, welche ihre Prinzipien offensiv nach außen trägt.

Es ist immer eine nicht vorhandene Bedrohung, die kolportiert wird, um die Ausübung von Macht und Kontrolle zu rechtfertigen. Globale Erwärmung war eine Grenzen durchdringende Bedrohung, welche zu managen es jeder Einzelnation unmöglich machte. Nach fünf Tagen mit Maurice Strong von den UN, wo er die Bedrohung erzeugte und gleich auch die Lösung anbot, fasste Elaine Dewar seine Absichten so zusammen:

Strong nutzte die UN als Plattform, um eine globale Umweltkrise loszutreten, zusammen mit der Agenda der Weltregierung.

Er war damit so erfolgreich, dass die Mittelklasse seitdem fortwährend unter der Fuchtel des Öko-Imperialismus‘ stand. Im Falle des originalen, aus Europa stammenden Imperialismus‘ vor allem des Britischen Empires, wurde er gestützt durch Wachstum und die Presse. Die einzige Information für die britischen Bürger wurde von einer Zeitung vermittelt, der Times. Schon Edmund Burke (1729 bis 1797) erkannte die Macht der Presse, als er sagte:

Es gibt drei Teile im Parlament, aber auf der Reporter-Tribüne dort drüben sitzt der vierte Teil, der bedeutender ist als alle drei anderen zusammen (sic).

Die heutige Presse hat nichts darüber berichtet, dass die Menschen, die in jenen Reservaten gegen Pipelines und Entwicklung demonstrieren, organisiert sind und von der Tides Foundation für ihren Protest bezahlt werden (hier):

Tides zahlte insgesamt 35 Millionen US-Dollar im Zeitraum 2009 bis 2015 an fast 100 Anti-Pipeline-Gruppen. Ohne all dieses Geld von Tide gäbe es keine gut organisierten Proteste gegen Pipeline-Projekte.

In der Toronto Sun liest man:

Eine linksradikale Lobbygruppe in San Francisco überwies 55.000 Dollar auf das Bankkonto eines Indianerhäuptlings im nördlichen Alberta als Gegenleistung für seine Proteste gegen die Erschließung von Ölsanden.

Die Tides Foundation ist eine Schöpfung des Milliardärs George Soros, welcher sein Geld mit der Zerstörung nationaler Ökonomien macht. Er ist Mitglied im Club of Rome CoR, welcher auf dem Anwesen von David Rockefeller in Italien im Jahre 1968 ins Leben gerufen worden war, zusammen mit einem Vorläufer in Gestalt eines anderen Mitglieds, Maurice Strong vom IPCC. Man beachte die Ironie dahinter: Diese Herrschaften machen ihr Geld mit Kapitalismus und verwenden dieses Geld dann dazu, mittels des Betruges der globalen Erwärmung die Mittelklasse zu versklaven.

Die UN-Foundation wurde gegründet durch das Prominente CoR-Mitglied Ted Turner. Er zahlte eine Milliarde Dollar, um die Umweltaktivitäten der UN zu unterstützen. Ein bedeutender Anteil dieses Geldes war vorgesehen für „speziell den Klimawandel ansprechende Programme“ sowie zur Finanzierung des IPCC.

Die UN-Foundation rief dann die Global Leadership for Climate Action ins Leben, welche so beschrieben wird:

Global Leadership for Climate Action GLCA ist eine gemeinsame Initiative der UN-Foundation und des Club of Madrid. Dessen Ziel ist es, „ein Rahmenwerk zu entwerfen für ein neues erzwingbares internationales Abkommen bzgl. Klimawandel“. Die GLCA hat das Recht, Berichte und Zustandsbeschreibungen des IPCC zu editieren und stellt „technische Expertise zu den Implikationen und zur Kommunikation innerhalb der Klimawandel-Wissenschaft“ zur Verfügung. Mehr als zwei Drittel der GLCA-Mitglieder sind auch Mitglied im CoR, darunter: George Soros, Ted Turner, Timothy Wirth, Gro Harlem Brundtland, Mary Robinson, Sir Crispin Tickle, Kim Campbell, Wangari Maathai, Petra Roman und Richard Lagos. Und nun frage ich mich, durch was George Soros und Ted Turner qualifiziert sind, um technische Ratschläge bzgl. der Klimawissenschaft zu erteilen!

Die meisten dieser Namen waren den Personen bekannt, die ich im Monocle traf. Es müssen noch mehr Menschen auf sie aufmerksam werden und auf das, was sie der Mehrheit der Mittelklasse in jeder einzelnen Nation im Namen des Öko-Imperialismus‘ antaten.

Link: https://wattsupwiththat.com/2018/04/26/eco-imperialism-in-north-america-and-the-world/

Übersetzt von Chris Frey EIKE




Luftmess­stationen: Aktivisten entlarven Tricksereien

Vorab sei noch kurz angemerkt, dass das Umweltbundesamt (UBA) im Rahmen seiner neuesten Veröffentlichung über angeblich 6.000 NO2-Tote und über 400.000 angebliche Diabetesfälle durch NO2 im Jahre 2014 so freundlich war, eine Grafik zu veröffentlichen, die seine eigene ständige Panikmache als Fake-News entlarvt, Bild 2.

Bild 2. Diese Grafik beweist, dass die erdrückende Mehrheit der Bevölkerung an ihren Wohnorten nur geringen NO2-Immissionen ausgesetzt ist (Grafik: UBA)

Diese vom UBA selbst in Auftrag gegebene Untersuchung dokumentiert, dass nur ein verschwindend kleiner Teil der deutschen Bevölkerung überhaupt an Orten wohnt, wo die Immissionsmesswerte den Jahresgrenzwert von 40 µg/m3 überschreiten. Schon seit 2010 gibt es selbst in der Kategorie zwischen 35 und 40 µg/m3 gar keinen Farbbalken mehr, und die Kategorie über 40 µg/m3 wird gar nicht mehr aufgeführt.

Wie das UBA aus Mücken Elefanten macht

Die in den Medien immer wieder kursierenden Behauptungen des UBA über die viel zu hohen NO2-Wert2 in Städten beruht auf einem recht simplem, aber sehr wirksamem Trick: Man platziert seit vielen Jahren einen erheblichen Teil der Messstationen nicht etwa da, wo sie für den größten Teil des Stadtgebiets repräsentativ wären, sondern gezielt dort, wo man in eng begrenzten „Hot-Spot-Bereichen“ die höchsten überhaupt aufzufindenden Messwerte finden kann. So findet sich in einer Pressemeldung des Landesumweltamtes Baden-Württemberg der Hinweis, dass schon 2006 alle Gemeinden in Baden-Württemberg gebeten wurden, sogenannte straßennahe Belastungsschwerpunkte zu melden, an denen dann sogenannte Spotmessstellen eingerichtet wurden [SPOT]. Hiervon gibt es allein in Stuttgart vier Stück, das sind 50 % aller städtischen Messstellen. Die „Belastung“ der Stuttgarter Bürger wird demnach zu einem geradezu grotesk überproportionalen Anteil aus Daten hergeleitet, die an vier räumlich eng begrenzen „Hot-Spots erfasst werden. Zudem wurden diese Messstationen immer mal wieder anders platziert: Wenn die Belastungssituation an einer Messstelle unter den Grenzwert gefallen war, wurde ein anderer Ort gesucht und gefunden, wo man noch die gewünscht hohen NO2-Werte auftreiben konnte. Vor diesem Hintergrund bekommen die jeweiligen oberen Kurven in den Teilbildern von Bild 3 und Bild 4 eine ganz neue Bedeutung.

Bild 3. So manipuliert das UBA die Öffentlichkeit mit „kreativ“ neu selektierten Informationen seiner eigenen Messstationen. Das untere Bild wurde zwischenzeitlich von der Webseite entfernt (Grafik oben: [UBAHGP], Grafik unten [UBANO2])
Das Bild 3 dokumentiert eine gleich doppelte Manipulation durch das UBA. Einerseits sind im Prinzip nur die grünen und gelben Kurven der beiden Teilbilder maßgeblich für die tatsächliche Luftqualität für vermutlich mehr als 99,98 % der deutschen Bevölkerung. Die obersten Kurven gelten nur für die „Hot-Spot“-Messstellen, die nur für einen verschwindend kleinen Bruchteil der Bevölkerung relevant sind. Obwohl beide Bilder aus dem gleichen Kalenderjahr stammen, unterscheiden sich die jeweils oberen Kurven drastisch. Grund hierfür ist die Tatsache, dass man 2016 eine „Hintergrund“-Broschüre mit dem Titel „Luftqualität 2015 Vorläufige Auswertung“ [UBAHGP] herausbrachte, deren Stoßrichtung betont alarmistisch war. Die Botschaft im Kapitel über NO2 war: „Stickstoffdioxid: Kaum Besserung gegenüber dem Vorjahr“. Da den Autoren die vorhandenen Daten wohl nicht dramatisch genug waren, wurden die Daten sowohl der mittleren als auch der oberen Kurve durch kreative Auswahl der Datensätze nach oben frisiert, damit sie besser zur Botschaft passten (man beachte hierbei auch die Farbwahl der oberen Kurve). Das untere Bild wurde mittlerweile von der UBA-Webseite entfernt, es ist jedoch nahezu deckungsgleich mit einer Fassung aus dem Jahr 2017.

Abgesehen von den oben dokumentierten Manipulationen wird insbesondere bei den „Hot-Spot“-Messstationen auch durch diverse Tricks dafür gesorgt, dass diese höhere Messwerte liefern als nach EU-Richtlinien eigentlich vorgesehen, wie von unseren ehrenamtlichen Helfern nachfolgend dokumentiert wird.

Messtationen in absteigender Reihenfolge

Die jetzt vorgestellten Meldungen wurden nach der Höhe des im Jahre 2017 ermittelten NO2-Jahresmittelwerts in absteigender Reihenfolge ausgewählt. Da einige besonders fleißige Helfer uns gleich mehrere Stationen gemeldet hatten, werden diese dementsprechend öfter genannt.

DEHH068, Hamburg-Habichtstrasse, 58 µg NO2/m3, Rangfolge 6, gemeldet von Uli W., Hamburg

Bild 4. Die Messtation in Hamburg-Habichtstrasse (Bild: Institut für Hygiene und Umwelt)

Die Habichtstrasse ist eine Hauptverkehrsader und befindet sich östlich des Hafens. Bei den vorherrschenden südwestlichen Winden wird die Gegend durch die Emissionen der Schiffe beaufschlagt. Wie bei vielen anderen Hot-Spot-Stationen mit überhöhten Werten ist die Messanlage direkt unter Alleebäumen aufgestellt, was die Durchlüftung erschwert und den Abtransport von Abgasen behindert. Zudem ist sie direkt am Straßenrand aufgestellt, wo die Abgase noch ziemlich konzentriert sind.

DEBW117 Ludwigsburg Friedrichstraße, 51 µg NO2/m3, Rangfolge 13, gemeldet von Martin S, Ludwigsburg

Bilder 5 und 6. Die Messstation Ludwigsburg-Friedrichstrasse (Bilder: Martin S.)

Die Messstelle ist in eine Nische gequetscht, weder der Freiwinkel von 270° noch der erforderliche Gebäudeabstand von mehreren Metern wurden eingehalten. Noch im letzten Jahr lag der städtische NO2-Hintergrund bei 26 μg/m³, dem Verkehr bleiben als nur 16 μg/m³. Ergänzend ist noch anzumerken, dass man bei der Messstelle auch hinterfragen kann, ob sie für 100 m Straße repräsentativ ist, denn sie liegt in einer Steigung nahe einer „Mulde“. Nimmt man an, dass NO2 eher absinkt, dann ist der Messort auch diesbezüglich ungünstig.

DEHE112 Wiesbaden Schiersteiner Straße, 50 µg NO2/m3, Rangfolge 14, gemeldet von Franz N. M.

Bild 7. Die Messstation Wiesbaden Schiersteiner Straße (Bild: Hessisches Landesamt für Umwelt und Geologie)

Angaben der HLNUG: „Die Luftmessstation Wiesbaden-Schiersteiner-Straße ist eine „Verkehrsbezogene Messstelle“. Diese Messstellen zeichnen sich durch ihre Nähe zu Straßen mit hohem Verkehrsaufkommen sowie durch ihre Platzierung in Straßenschluchten aus, wodurch die Verteilung von Schadstoffen eingeschränkt ist und in der Regel hohe Konzentrationen erreicht werden“.

Ergänzend schreibt uns Franz N. M.: „Die Messstation steht direkt an der sechsspurigen Schiersteiner Str. Hier wird die 270 Grad Regel der EU verletzt. Außerdem ist die Messstation mit ihrem Fahrbahnabstand von 20 cm nicht repräsentativ für einen größeren Luftbereich“.

DEBE064 Berlin Neukölln Karl-Marx-Str. 49 µg NO2/m3, Rangfolge 17, gemeldet von Christian F.

Bilder 8 und 9. Die Messstation Karl-Marx-Str. in Berlin-Neukölln (Bilder: Christian F.)

Die Messstation befindet sich in unmittelbarer Nähe der Einmündung Karl-Marx-Str./ Flughafenstr. Beide Straßen sind sehr stark befahren.

Zusätzliche Recherchen zeigten, dass die Station direkt am Fahrbahnrand steht und vermutlich auch nicht 25 m von der Kreuzung entfernt stehen dürfte.

DEHE037 Wiesbaden Ringkirche, 49 µg NO2/m3, Rangfolge 17, gemeldet von Franz N.M.

Bild 10. Die Messstation Wiesbaden Ringkirche (Bild: Hessisches Landesamt für Umwelt und Geologie)

Angaben der HLNUG: „Die Luftmessstation Wiesbaden-Ringkirche ist eine „Verkehrsbezogene Messstelle“. Diese Messstellen zeichnen sich durch ihre Nähe zu Straßen mit hohem Verkehrsaufkommen sowie durch ihre Platzierung in Straßenschluchten aus, wodurch die Verteilung von Schadstoffen eingeschränkt ist und in der Regel hohe Konzentrationen erreicht werden“.

Franz N. M. schreibt uns: „Die Messstation steht direkt an der Kreuzung von der fünfspurigen Rheinstraße und dem 6 spurigen Kaiser-Friedrich-Ring. Abstand zum Kaiser-Friedrich-Ring 20 Zentimeter. Sie verstößt eindeutig gegen die 25 m EU-Abstandsregelung zu Kreuzungen“.

Wie man auf dem Bild außerdem sieht, steht die Station auf dem Mittelstreifen einer Allee mit einer Doppelreihe von großen alten Bäumen mit dichten Kronen, die vor allem im Sommer den Luftaustausch sehr stark behindern. Auch bei der kreuzenden Straße handelt es sich um eine Allee mit einer Doppelreihe großer, dicht belaubter Bäume.

DENW189 Wuppertal Gathe, 49 µg NO2/m3, Rangfolge 21, gemeldet von Arnd B.

Bilder 11 und 12. Die Messstation in Wuppertal-Gathe. Während vorne gerade ein Bus abfährt, kommt hinten schon der nächste (Bilder: Google Maps mit eingefügten Markierungen)

Zur Beschreibung verweist Arnd B. auf eine Dokumentation der Messstelle durch die Deutsche Autofahrerhilfe bei Facebook: „Die Messstation befindet sich neben einer Busspur und in unmittelbarere Nähe einer Haltestelle; sie ist so positioniert, dass sie quasi im “Abgasstrahl” der dort haltenden Busse liegt. Die Bus-Frequenz ist offenbar so hoch, dass das bei Google Maps verfügbare Bildmaterial gleich 2 ankommende bzw. abfahrende Busse zeigt….In der 39. BImSchV sind u.a. folgende Kriterien für Messstationen definiert: Der Messeinlass darf nicht in nächster Nähe von Emissionsquellen angebracht werden, um die unmittelbare Einleitung von Emissionen, die nicht mit der Umgebungsluft vermischt sind, zu vermeiden. Der Ort von Probenahmestellen ist im Allgemeinen so zu wählen, dass die Messung von Umweltzuständen, die einen sehr kleinen Raum in ihrer unmittelbaren Nähe betreffen, vermieden wird. Für die gemessene Verschmutzung sollte nicht eine einzelne Quelle vorherrschend sein, es sei denn, dies ist für eine größere städtische Fläche typisch. Die Probenahmestellen müssen grundsätzlich für eine Fläche von mehreren Quadratkilometern repräsentativ sein. Die Messstation Wuppertal Gathe (VWEL) verstößt gegen diese Kriterien [der 39. BImSchgV], denn sie ist unmittelbar neben einer bedeutenden NOx-Quelle positioniert – nämlich an einer Bushaltestelle, an der im Stand (Ein- und Aussteigen der Passagiere) sowie unter Last (Wiederanfahren/ Beschleunigen der Busse) laufende schwere Dieselmotoren für erhebliche Verschmutzungen sorgen. Die dortige Überschreitung der Grenzwerte ist also ein konstruiertes Ergebnis“ [DEAFH].

DEBE063 Berlin Neukölln, Silbersteinstraße, 48 µg NO2/m3, Rangfolge 23, gemeldet von Christian F.

Bilder 13 und 14. Die Messstation Silbersteinstrasse in Berlin Neukölln (Fotos: Christian F.)

Zur Messstelle gibt Christian F. folgende Hinweise: „Die Messstation befindet sich etwa 50 cm von der Fahrbahn entfernt. Die Silbersteinstr ist eine sehr stark befahrene Straße. Die Messstation befindet sich fast an der Kreuzung Silbersteinstr./ Karl-Marx-Str. Auch die Karl-Marx-Str. ist eine sehr stark befahrene Straße“.

Auch wurde der 25-m-Abstand zur Kreuzung augenscheinlich nicht eingehalten, dafür steht die Station in einem Bereich, wo Balkone den vertikalen Luftaustausch beeinträchtigen.

Berichterstattung wird fortgesetzt

Noch nicht aufgeführte Stationen werden noch in weiteren Folgen vorgestellt, wobei die Reihenfolge vom Jahresmittelwert für 2017 abhängt.

Allen Unterstützern und Helfern sei hiermit an dieser Stelle nochmals ausdrücklich gedankt.

Fred F. Mueller

Quellen

[DEAFH] https://www.facebook.com/notes/deutsche-autofahrerhilfe/wie-überschreitungen-des-nox-grenzwertes-durch-positionierung-der-messstationen-/234007083828775/

[SPOT] https://www.lubw.baden-wuerttemberg.de/presseservice/faq

[UBAHGP] https://www.umweltbundesamt.de/publikationen/luftqualitaet-2015

[UBANO2] https://www.umweltbundesamt.de/daten/luft/stickstoffdioxid-belastung#textpart-1

[UBASTU] https://www.umweltbundesamt.de/publikationen/quantifizierung-von-umweltbedingten