1

EEG-Neusprech erklärt: Solar­cloud und Sonnen­schein­garantie

Das Speicherproblem

EIKE Leser wissen es: Eines der ganz großen Probleme des EEG ist fehlender Speicher für den elektrischen Strom [5]. Dieses Problem resultiert nicht aus einem dummen Zufall, sondern ist den Elektrotechnikern seit weit über hundert Jahren bekannt, da es auf physikalischen Gesetzmäßigkeiten beruht.
Gegen diese Physik der Elektrotechnik kämpfen (oft von Parteien ernannte) Fachperson*innen zwar vehement an [2] und auch wirkliche Fachpersonen „erfinden“ für ausreichend Fördergeld (nicht durchführbare) Lösungen [4] [6] denen zumindest eines immer eigen ist: Sie sind, beziehungsweise wären, bei einer Umsetzung – sofern überhaupt möglich – mindestens unglaublich teuer.

SolarCloud: Der einzigartige, virtuelle Speicher …

Wie wohltuend ist es da, wenn eine Fachfirma wie E.ON publiziert, dass ihre fleissigen Erfinder eine Lösung gefunden haben:
E.ON: [1] Die E.ON SolarCloud: der einzigartige virtuelle Speicher, mit dem Sie Ihren Solarstrom unbegrenzt ansparen und bei Bedarf wieder abrufen können.
Und nicht nur speichern kann diese Lösung, nein, sie gibt auch eine Sonnenenergie-Garantie:
E.ON: [1] 22 % Wolken 78 % Sternenhimmel 100 % Sonnenenergie.
Im Werbevideo sieht man es im Detail und verfolgt eine Wolke mit eingezeichnetem Batteriesymbol, welche sich lädt und entlädt. Womit die „Speicherwolke“auch für jeden Laien sofort als Speichermedium erkennbar ist.

Bild 1 Screenshot vom E.ON Werbevideo. Speichern des privaten Solarstromes

Bild 2 Screenshot vom E.ON Werbevideo. Entladen des gespeicherten Solarstromes

Komischerweise heißt es dann jedoch:
E.ON: [1] … Entdecken Sie jetzt unseren virtuellen Speicher, der komplett ohne Batterie auskommt.
Auch dies liest man gerne und freut sich über den Erfindungsreichtum der E.ON Entwickler. Denn man weiß: Batteriespeicher gehören zu den teuersten Produkten, um elektrischen Strom zu speichern [5]:
EIKE 18.05.2017: Rechnerisch lohnt sich die solare Eigenversorgung nicht – so lange unser Versorgungsnetz stabil ist. Doch das wird sich ja ändern

… ist reiner „Zertifikatestrom“

Liest man sich tiefer in die E.ON Werbung ein, verflüchtigt sich der „Cloud-Speicher“ zu einem reinen, kommerziellen Angebotsmodell. Von einem realen Speicher bleibt keine Spur übrig. Kurz gesagt:
E.ON nimmt überschüssigen Solarstrom ab und liefert bei Bedarf „reinen Ökostrom“ als „Zertifikatestrom“ zurück. Dieser „Zertifikatestrom“ wird wie üblich, irgendwo auf der Welt erzeugt. Wo er gebraucht wird, wird er real dem dort aktuell erzeugten Strommix entnommen.
[1] … An sonnigen Tagen bauen Sie ein Guthaben auf, das Sie in der Nacht, bei Regentagen, in den Wintermonaten oder für Ihr Elektroauto nutzen können …

Sonnenscheingarantie

Wer das Premiumpaket ordert, bekommt zusätzlich eine Sonnenscheingarantie:

Bild 3 Screenshot [1] E.ON Solarcloud
In den FAQs wird sie erklärt:
Was ist die Sonnenscheingarantie?
… Mit der Sonnenscheingarantie sichern wir Ihnen über 10 Jahre 95% des prognostizierten Ertrags Ihrer Solaranlage zu. Sollten Ihre Stromerträge im Jahr niedriger sein als angenommen, gleicht E.ON den Verlust auf Basis der entgangenen EEG-Einspeisevergütung finanziell aus .
..
Wie zu erwarten war, ist es ebenfalls eine reine, kommerzielle Versicherungsleistung.

Sozial, unsozial, EEG

Keine Partei (mit einer Ausnahme) stört es, dass mit diesem Angebot auch E.ON aufzeigt, wie unsozial das EEG wirkt. Inzwischen ist es gelungen, den Haushalts-Strompreis so in die Höhe zu treiben, dass sich eine Solaranlage zum Eigenverbrauch langsam lohnt (eine Installation wegen der Einspeisevergütung lohnt sich längst nicht mehr). Es lohnt sich aber nur, wenn keine Speicherkosten anfallen:
EIKE 18.05.2017: Rechnerisch lohnt sich die solare Eigenversorgung nicht – so lange unser Versorgungsnetz stabil ist. Doch das wird sich ja ändern

Bild 4 Quelle: ZDF WISO

Der „nachhaltige“, betuchte Bürger erzeugt deshalb möglichst viel eigenen Strom. Nur wenn dessen Einspeisung fehlt, weil die Sonne nicht scheint, holt er ihn sich von den anderen. Diese dürfen aber die horrenden Nebenkosten der Backup-Kraftwerke, Leitungsgebühren, Netzausbau und und und über die gesamte Zeit voll bezahlen.
Einzige Entschuldigung: Die viel gepriesenen, „Autarken Gemeinden“ machen es auch so.
Die Politik interessiert es wenig, denn sie hat – wie immer – dafür durchschlagende Lösungen parat: [8]
LINKE: … Ein weiterer Vorschlag für ein soziales Stromtarifmodell schlägt die kostenlose Bereitstellung eines Grundkontingentes an Strom für jeden Haushalt vor, verbunden mit teureren Preisen für allen zusätzlich verbrauchten Strom.
CSU: Der CSU-Parteivorsitzende, Horst Seehofer, fordert einen staatlichen Fond, der die steigenden Stromkosten begrenzen soll. So sollen ab einem gewissen Betrag ansteigende Preise durch staatliche Gelder verhindert werden.
GRÜNE: Die Partei … sieht als einfachsten Weg, um die Stromkosten zu senken, den Stromverbrauch selbst zu senken.
CDU: Die CDU fordert in ihrem aktuellen Wahlprogramm sichere, bezahlbare und saubere Energie. Dabei setzt die CDU weiterhin auf den Ausbau erneuerbarer Energien …
Ein geschicktes Ineinandergreifen unterschiedlicher Elemente und Energieträger stabilisiert die Versorgung und entlastet die Verbraucher von Kosten.“
AfD: hält das EEG für nicht reformierbar … möchte das EEG abschaffen … kritisiert, dass Verbraucher die Kosten für die Energiewende tragen müssen

Beim EEG bekommen Fremdwörter neue Bedeutungen

Nicht nur neue Wortschöpfungen werden durch das EEG generiert, auch längst gängige werden umgedeutet.
Nach WIKIPEDIA bedeutet „vir·tu·ẹll“:
Philosophie: der Möglichkeit nach vorhanden.
Physik: nicht beobachtbar, aber erschließbar.
Dieser E.ON Cloud-Speicher ist nach Ansicht des Autors aber weder „der Möglichkeit nach vorhanden“, noch wäre er real „erschließbar“. Einen Speicher für elektrischen Strom gibt es bei E.ON ganz einfach nicht und er war auch nie als physikalische Realisierung angedacht.

Nun erschließt sich, warum der E.ON Vorsitzende des Vorstandes, Herr Teyssen (Volkswirt und Jurist) die Energiewende, durch die sein Konzern fast in die Pleite getrieben wurde, sogar „sexy“ findet:
Teyssen: [7] … Aber wir entwickeln für unsere Netze immer neue Lösungen, etwa um noch mehr Ökostrom transportieren zu können. Ich empfinde die Lösung des Speicherproblems als sexy …
Nur in dieser „physiklosen Scheinwelt“ des EEG lassen sich Marketingbegriffe und Bezahlmodelle wie physikalische Lösungen verkaufen. In anderen Geschäftsfeldern würden wohl lägst Abmahnvereine wegen Irreführung der Verbraucher klagen.

Fazit:
Kein Wunder, dass die Fachperson*innen einiger Parteien da ganz kirre werden und Strom und Stromspeicher überall vermuten, nur nicht dort, wo und wie sie die Elektrophysik zulässt.
EIKE: Eine grüne Stromversorgung Deutschlands
Zum Thema „Netze und Speicher“ präsentiert die Frau Annalena Baerbock, Vorsitzende der Grünen und eine ihrer Abgeordneten im Bundestag ihre Visionen zur künftigen Stromversorgung Deutschlands, zu einer gewaltigen Energiewende. weil angeblich ein dramatischer Klimawandel drohe.
EIKE 24.01.2018: GRÜNE Energieexpertin: Das Netz fungiert als Speicher
EIKE 15.08.2017: Cem Özdemir versucht sich in Energie

Es wird nur noch eine Frage der Zeit sein, bis solche „Fachexpert*innen erklären, dass ein großer Versorgerkonzern die Lösung des Speicherproblems gefunden hat. Einen Start-up Erfinderpreis für diese „Rettung des EEG“ bekommt E.ON sicher nur deshalb nicht, weil es schon ein etabliertes Unternehmen ist.

Quellen

[1] E.ON Solarcloud

[2] EIKE 24.01.2018: GRÜNE Energieexpertin: Das Netz fungiert als Speicher

[3] EIKE 2. Januar 2018: Das Elektroauto erzeugt nur Gewinner – und man verdient sogar Geld damit

[4] EIKE 30. Juli 2017: Der Visionär E. Musk (Tesla) rettet Südostaustralien für 32 Sekunden vor dem Blackout

[5] EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)

[6] EIKE 02.09.2016: Weltweit einzigartiger Stromspeicher im Pilotversuch: Der Naturstromspeicher – die von Berlin geförderte EEG-Naturvernichtung

EIKE 12.04.2017: Helden der Energiewende

[7] DERWESTEN 09.07.2016: Eon-Chef Teyssen: Ökostrombranche muss „raus aus dem Streichelzoo“

[8] RICHTUNGSFREI: Strompreis




Lesegewohnheiten und Korrekturen: Zombie-Fakes und geheime Absprachen, die sich weigern zu sterben

Man kommt nicht um die Tatsache herum, dass wir Nachrichten anders aufnehmen als unsere Großeltern. Die Online-Nachrichtenverbreitung hat ihre Vorteile (Geschwindigkeit, Interaktivität, Reichweite), weist aber auch Probleme auf, von denen die weitverbreitete und unkontrollierte Wiederholung von falschen Geschichten die vorherrschende ist. Die Medienkritikerin der Washington Post und frühere Redakteurin der New York Times, Margaret Sullivan, fasst das Problem klar zusammen:

 „Korrekturen sind wichtig und stellen oft die Trennlinie zwischen einer verantwortungsvollen Nachrichtenorganisation und einer unverantwortlichen dar. Aber sie bekommen selten einen Bruchteil der Aufmerksamkeit, die der ursprüngliche Fehler bekommt. Es ist unmöglich, den Geist in die Flasche zurückzubringen. „

 

Bring‘ Sensationen, keine Fakten

Die Unterschiede in der Aufmerksamkeit der Leser von Korrekturen gegenüber dem ursprünglichen Fehler erzählen die Geschichte, aber die Medien Think Tanks und Beobachter haben sich noch nicht auf dieses Thema konzentriert. Im Jahr 2009 versuchte die Harvards Nieman Foundation, Online-Korrekturen in den Griff zu bekommen, und wies lediglich auf die noch bestehende Legacy-Newsroom-Dynamik hin [m.e.: … die zu korrigierende Nachricht ist „schon alt“; der Übersetzer], nämlich: die Unwilligkeit zu erkennen, dass Fehler zahlreich sind; Zögern, Korrekturen anzubieten; und dass Leserbeschwerden oft ignoriert oder abgelehnt werden. Aber das sind seit langem bestehende Probleme, die nicht nur für Online-Inhalte typisch sind, sondern allgemein auch für die Kultur der Nachrichtenredaktionen gültig. (Als Nachrichtenredakteurin habe ich [Margaret Sullivan] einmal eine Geschichte in Auftrag gegeben, die korrigiert werden sollte, und der verärgerte Reporter, der sich geirrt hat, hat seitdem nicht mit mir gesprochen. Das war vor acht Jahren).

Der Bericht von Nieman von 2009 endete mit der Beobachtung, dass „… der mittlerweile legendäre Anspruch besteht, dass die interaktive Natur der digitalen Medien dazu führt, dass Fehler schneller identifiziert und korrigiert werden können. Diese Prämisse muss durch unabhängige Forschung getestet und bewertet werden. Leider wurde das durch die Medienbranche im Großen und Ganzen nicht durchgeführt.“

In einem 2014 mit dem Columbia Journalism Review (CJR) betitelten Interview mit dem Titel „Corrections Do not Go Viral“ [~ sind nicht medienwirksam] sagte David Mikkelson, Teil des Ehepaar-Teams, das die Faktencheck-Website Snopes betreibt: „Jeder weiß, die originellen sensationellen Geschichten sind viel interessanter als die banalen Korrekturen.“

Die Frage der Diskrepanz zwischen der Leserschaft des Originals und der einer korrigierten Geschichte ist nicht völlig unbemerkt geblieben. CJR wies in dem Artikel darauf hin:

„Jetzt, wo eine Geschichte entlarvt ist, ist sie bereits gereist, ohne dass die Leser zurück zur ursprünglichen Quelle navigieren – oder irgendeine Quelle – um eine korrigierte Version zu sehen. … Eine falsche Geschichte über eine Frau mit drei Brüsten wurde fast 190.000 Mal auf Facebook, Twitter und Google+ geteilt, aber Geschichten, die diese Sensation korrigierten, erzeugten nur etwa ein Drittel der ‚klicks‘“.

Ein Experiment zur Messung der Disparität heißt Emergent, das von Craig Silverman im Rahmen eines Stipendiums im Tow Center für digitalen Journalismus an der Columbia University durchgeführt wurde.

[Die Emergenz (lateinisch emergere „Auftauchen“, „Herauskommen“, „Emporsteigen“) ist die Herausbildung von neuen Eigenschaften oder Strukturen eines Systems infolge des Zusammenspiels seiner Elemente.]

Emergente Tracks bringen Gerüchte (hervor), die sich online manifestieren und messen die Diskrepanz zwischen Posts, die das Original akzeptieren, und Postkorrekturen. Während Emergent die großen Auswirkungen der Medien noch nicht berücksichtigt hat, unterstreichen einige ihrer Daten das Disparitätsproblem. Eine Falschmeldung über Kentucky Fried Chicken, die in das Marihuana-Geschäft eingestiegen sei, wurde 225.825 Mal geteilt, während Posts, die es enthüllten, nur 2.788 Mal geteilt wurden. Die Fehlinterpretation einer Breitbart-Geschichte mit der Schlussfolgerung, dass ein Gericht in Dallas nach dem Gesetz der Scharia urteilte wurde 2.048 Mal geteilt, während die Fehlinterpretation online nur 1,753 Mal angesehen wurde.

 

Ein Fehler, kein Wesensmerkmal

Das Problem könnte darin liegen, wie Online-Korrekturen oder Tweets aufbereitet (dargeboten) sind. Nur wenige Menschen sind so erfahren und haben die Einsicht der Journalistin und Unternehmerin Elizabeth Spiers, die so erfolgreich Websites wie Dealbreaker, AboveTheLaw, Fashionista und, am meisten berüchtigt, Gawker mitfinanziert, strukturiert und / oder bearbeitet hat. Auf die Frage nach Online-Korrekturen sagte mir Spires: „Historisch gesehen sind digitale Agenturen, die originale Nachrichten produzieren, ziemlich gut und in der Anfangszeit waren sie sogar besser als herkömmliche Medien, die nicht online waren, weil Korrekturen direkt angefügt wurden, während Zeitungen sie hintenanstellen, oft in einem ganz anderen Abschnitt des Zeitung unter der Überschrift „Korrekturen“ bringen und sie nicht sofort veröffentlicht werden.“

Während unsere Großeltern regelmäßig den Abschnitt „Korrekturen“ des Druckmediums überprüft hatten, erstellen nur wenige Nachrichtenplattformen einen Abschnitt „Korrekturen“, in dem korrigierte Geschichten markiert werden. Spiers erklärt die Logik dahinter: „In der Praxis achten die Nutzer nicht auf die Aufmacher, es sei denn, sie suchen explizit nach verwandten Informationen.“

Obwohl ich als Medienjurist und Ethikprofessor den Reportern vorschlage: Suchen Sie nach einer Korrektur, bevor Sie eine Meldung zitieren, hat Spiers Recht, dieser zusätzliche Schritt wird nicht von gewöhnlichen Lesern gemacht.

 

TL; DR [zu lang, nicht gelesen]

Die Platzierung von Korrekturen (und die Zeile, die den Lesern sagt, dass eine vorherige Geschichte korrigiert wurde, „trashline“ genannt) ist entscheidend für die Verbesserung der Zuverlässigkeit von Online-Publikationen. Spiers sagt: „Mein Ideal ist eine Notiz an der Spitze, dass der Artikel korrigiert oder aktualisiert wurde, [die trashline] und Erklärungen oder Korrekturen am Ende.“

Ohne trashlines führt das bloße Anhängen einer Korrektur an das Ende einer Geschichte zu dem Problem „TL; DR“: Internet-Kurzschrift für „zu lang; nicht gelesen“, genutzt um anzuzeigen, dass man nicht den ganzen Text gelesen hat. Angesichts der Tatsache, dass zu viele Menschen keinen ganzen Online-Artikel lesen, ist es für Leser – und faule Reporter oder Forscher – zu leicht, die Korrektur zu verpassen, die allzu oft nicht den gleichen Stellenwert hat wie das Original.

Zu ihrer Ehrenrettung, einige Web-basierte Nachrichten – Plattformen wie ProPublica stellen ihre trashline genau unter der Überschrift vor dem Text und können sogar das Wort „Korrektur“ zur neuen Überschrift hinzufügen. Aber viele Nachrichten – Plattformen haben entweder keine Richtlinien oder verdächtig schwammige Richtlinien. National Public Radio irrte in einer Geschichte vom 12. März 2018, in der Innenminister Ryan Zinke beschuldigt wurde, für den republikanischen -Kongresskandidaten Rick Saccone „Werbung zu machen“, eine mögliche Verletzung des Hatch Act [Beschränkung der parteipolitischen Aktivität von Regierungsangestellten] Aber die korrigierte Version hatte keine Trashline oder irgendeinen Hinweis darauf, dass die Geschichte überhaupt korrigiert wurde: Der Leser muss elf Seiten nach unten scrollen, um zu erfahren, dass Zinke ein offizielle Aussage macht, um ein Zuschussprogramm zur Rückgewinnung aufgegebener Kohleminen anzukündigen.

In ähnlicher Weise fügt The Guardian (eine britische Zeitung) lediglich am Ende der Geschichte Korrekturen hinzu, auch wenn die Korrektur den Tenor der (falschen) Geschichte fortsetzt. Letzten Monat veröffentlichte The Guardian eine Geschichte mit dem Titel „Ein Mann wurde für die Planung eines Terroranschlags auf Cumbrias Love Parade schuldig befunden“ Die ursprüngliche Geschichte, die die vorhersehbaren Anti-Waffen-Gefühle ihrer Leser ansprach, hatte berichtet, dass ein „Sturmgewehr“ in seiner Wohnung gefunden worden war. Ungeachtet der Schlüsselwörter „Angriffswaffe“, sagt die Korrektur – nicht bereits oben als Korrektur oder gar Update markiert – lediglich am Ende aus „Dieser Artikel wurde am 7. Februar 2018 geändert. In einer früheren Version wurde fälschlicherweise berichtet, dass ein Sturmgewehr in Stalls Schlafzimmer gefunden wurde. es war ein Luftgewehr.“ „Oh, nun, macht nichts.“

 

Zombie Fakten: Fehler oder Lügen, die nicht sterben werden

Bekannt für ihren gesunden Menschenverstand fügt Sullivan hinzu, dass der Unterschied zwischen der Leserschaft der Korrektur und der Leserschaft des ursprünglichen Fehlers darin besteht, „warum es so wichtig ist, alles zu tun, um es gleich richtig zu machen.“ Journalisten aller Art machen Fehler. Das ist nur menschlich. Das Problem ist, dass die Online-Nachrichtenübermittlung (größtenteils) nicht für Klarheit sorgt und Korrekturen werden so schlecht gehandhabt, dass falsche Nachrichten die Erzählung bestimmen und nur die unerschrockensten Leser oder Forscher werden sich durch die ursprüngliche Erzählung bis zur Wahrheit graben. Und damit beginnt die Schaffung der „Zombiefakten“.

Der vielleicht hartnäckigste Zombiefakt ist der immergrüne „Bush Kunststoff Truthahn„, den Bush bei einem Fototermin mit ihm und den Truppen im Irak 2003 serviert haben soll. Dieser Bericht ging online und wurde mindestens 70-mal von Bloggern, bekannten Journalisten und Politikern wie John F. Kerry, Howard Dean und Wesley Clark wiederholt. Auch die New York Times nahm den Köder auf und es dauerte eine Woche, bis die Times ihre Geschichte korrigierte. Bis dahin war es zu spät. Der australische Kolumnist Tim Blair hat in einem Interview darauf hingewiesen, dass er zu einem echten Thema in den Köpfen vieler Menschen wurde, mit einem fast religiösen Aspekt:

„Wenn du vom Anti-Bush-Glauben bist, ist das ein Prüfstein. Es ist die Mär vom Truthahn. Und natürlich gibt es heute immer noch Menschen, die glauben, dass Präsident Bush den amerikanischen Truppen aus Gründen der Publicity kaltblütig und oberflächlich einen Kunststoff-Truthahn serviert hat. Dieses Märchen wurde serviert, und der Schaden war angerichtet.“

„Der Geburtszombie“ (die Erzählung, dass Präsident Obama in Kenia geboren wurde) ist ein Zombie, der bis heute anhält. Es ist schwierig genau zu bestimmen, wo und wann er das erste Mal in den digitalen Nachrichtenstrom injiziert wurde, und die Antworten unterscheiden sich stark voneinander. Was als Gewissheit bekannt ist, ist, dass bereits 2004 eine Bowdlerisierte Version einer AP-Story, die in einer kenianischen Zeitung erschien, diese Behauptung aufstellte. Später und die Situation nicht verbessernd, fügte dann Senator Obamas eigener Literaturagent diesen Zombie hinzu, um für ein Buch über Obama zu werben.

[Thomas Bowdler war ein englischer Arzt, der eine nach moralischen Zensurkriterien bereinigte Ausgabe der Werke von William Shakespeare veröffentlichte. Dieses Vorgehen rief unter Zeitgenossen beträchtliche Kritik und Belustigung hervor. Wikipedia]

Die Hillary-Clinton-Kampagne fügte der Erzählung subtile Glaubwürdigkeit hinzu und musste sich nach dem Verteilen eines Fotos von Obama in einem indonesischen Kostüm entschuldigen. Die Obama-Kampagne beklagte sich – zu Recht -, dass dies eine „Hundepfeifen Politik“ sei, die das Feuer der Erzählung weiter schürte.

[Hundepfeife – produziert einen sehr hohen Ton, der von Menschen meist nicht gehört wird. Der Begriff bezeichnet einen politischen Code. Es werden Dinge gesagt, die ein klares Signal an eine bestimmte Gruppe aussenden, welches zumindest theoretisch, von anderen nicht gehört wird. So kann man gesellschaftlich eigentlich verpönte Positionen einnehmen. Insider verstehen sofort was gemeint ist. Für alle anderen hat man was in Geheimdienstkreisen als plausible deniability (Möglichkeit zur plausiblen Leugnung) bezeichnet wird, selbst wenn sie die eigentlich gemeinten Dinge trotzdem wahrgenommen haben. ]

Schließlich wurde die Erzählung zu einem der ersten Blickfänger für die Kampagne für Trump im Jahr 2016 und obwohl alle anderen es bereits aufgegeben hatten, verlangte Trump noch bis 2017 einen „Beweis“ für Obamas Staatsbürgerschaft. Wie die an Bush Kunststoff-Truthahn noch immer glaubenden, gibt es immer noch Leute, die glauben, dass der ehemalige Präsident kein in Amerika geborener Bürger ist. Die Geschichte wurde erzählt und der Schaden ist angerichtet.

Linke Nachrichtenorganisationen haben ein ganzes Geschäftsmodell rund um die Erzählung „Putin / Trump geheime Absprachen“ aufgebaut. Der letzte Zombie in diesem Zirkus ist die falsche Behauptung, dass WikiLeaks im letzten September (in Verbindung mit einem nicht benannten „Russen“) heimlich der Trump-Kampagne und Donald Trump selbst Zugang zu schädlichen E-Mails des Democratic National Committee (DNC) [Demokratische Partei] angeboten hatten, bevor sie (im Internet) veröffentlicht wurden. Glenn Greenwald von Intercept hat eine umfangreiche Nachforschung durchgeführt und festgestellt, dass dieses Angebot erst Stunden später gemacht wurde, nachdem CNN diese Geschichte bereits gesendet und dann immer und immer wieder hochgespielt hat. Die Washington Post berichtete, dass CNN die Hauptsache falsch verstanden habe: Die E-Mail war nicht vom 4. September, wie CNN behauptete, sondern eher vom 14. September – was bedeutet, dass es [an Trump] gesendet wurde, nachdem WikiLeaks bereits den Zugang zu den DNC-E-Mails online veröffentlicht hatte.

Obwohl CNN die Geschichte später korrigierte, lebt der Zombie im fieberhaften Geist von Adam Schiff [Politiker der DNC] und der #Resist-Trump Anhänger weiter. (Man kann nicht anders als an Dan Rathers „fake, aber genauen“ Journalismus erinnert zu werden, der immer noch von den anfeuernden Medienaktivisten praktiziert wird).

[Sag mir eine Tatsache, und ich werde lernen. Sag mir eine Wahrheit, und ich werde es glauben. Aber erzähle mir eine Geschichte, und sie wird für immer in meinem Herzen leben. „-– Steve Sabol, NFL Films]

Bis jetzt gibt es keine glaubwürdigen oder konkreten Fakten, die eine solche geheime Absprache zeigen, aber trotzdem wurde die Geschichte platziert und der Schaden ist angerichtet.

 

Ich möchte es glauben

In seinem Intercept Artikel über Trump / Wikileaks Medienente ist Greenwald skeptischer gegenüber der Art und Weise, wie Korrekturen ignoriert werden und verweist auf politische Aktivisten, die, obwohl sie wissen sollten, dass ihre „Quelle“ nicht korrekt ist, weitermachen und sie erneut veröffentlichen:

„Einmal damit angefangen, kann nicht übertrieben werden, wie schnell und wie weit diese falsche Geschichte verbreitete. Demokratische Parteisprecher, Aktivisten und Journalisten mit riesigen Social-Media-Plattformen sprangen sofort auf die Geschichte und verkündeten, dass es sich um eine geheime Absprache zwischen Trump und Russland (aufgedeckt durch WikiLeaks) handelte. Ted Lieu, ein Abgeordneter der Demokraten, tweetete, dass dies ein Beweis für kriminelle Absprachen sei, das wurde tausende Male in wenigen Stunden retweetet (Lieu löschte den Tweet geräuschlos, nachdem ich Mr. Lieu dessen Fake mitgeteilt hatte, aber lange nachdem dieses Fake bereits lebhaft aufgegriffen war und ohne seinen Anhängern mitzuteilen, dass die CNN-Geschichte und damit seine Anschuldigung entlarvt worden war.“

Greenwald berührt einen weiteren Aspekt des Ignorieren von Korrekturen, die weniger ruchlos sind, aber zu dem Gruppendenken passen, mit dem die heutigen Leser von politischen Berichterstattung infiziert werden: „Es ist schwer zu quantifizieren, wie viele Menschen durch die CNN-Geschichte mit falschen Nachrichten und Propaganda betrogen wurden. Aber dank demokratisch-loyaler Journalisten und Aktivisten, die jeden Trump-Russland-Anspruch für wahr erklären, ohne irgendwelche Beweise zu sehen, kann man mit Sicherheit sagen, dass viele hunderttausend Menschen, fast sicher Millionen, diesen falschen Behauptungen ausgesetzt waren. „

In einer Studie des Pew Research Centers aus dem Jahr 2014 wird deutlich, dass die Tendenz besteht, dass „diejenigen mit stärkeren ideologischen Tendenzen sich eher mit gleichgesinnten Meinungen abgeben“. Der Wunsch, dass etwas ohne wirkliche Beweise wahr ist, ist daher nichts Neues.

[Dabei fallen mir die Klimagläubigen ein, der Übersetzer]

Wenn Sie es nur stark genug glauben, dass Präsident Trump sich heimlich mit den Russen abgesprochen hat, um gewählt zu werden, dann sind Sie ziemlich geneigt Fehler zu ignorieren, die dieser Meinung entgegenstehen.

* * *

Charles Glasser war in den 1980er Jahren Journalist und studierte später an der New York University School of Law. Nach mehreren Jahren als First Amendment-Prozessanwalt wurde er der erste globale Medienberater von Bloomberg News Er ist Autor von „The International Libel and Privacy Handbook„, lehrt Medienethik und Mediengesetze an derNew York University und hält außerdem Vorträge weltweit und schreibt häufig über Medien und Redefreiheit für Instapundit und andere.

Erschienen auf The Daily Caller am 22.03.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/03/22/internet-corrections-and-zombie-facts/




Pariser Klima-Abkommen scheitert – CO2-Emis­sionen steigen weltweit – Trumps Rückzug gerecht­fertigt

Vor ein paar Tagen verkündete die International Energy Agency IEA, dass die Kohlenstoff-Emissionen im Jahre 2017 um 1,7% zugenommen haben (hier), nachdem Optimisten nach ein paar Jahren der Ungewissheit gehofft hatten, dass sie sich abschwächen oder zumindest ihren Höhepunkt überschritten haben. Stattdessen steigen die Emissionen weiter.

Selbst vor dem neuen Spitzenwert folgte nicht eine einzige große Industrienation den im Paris-Abkommen eingegangenen Verpflichtungen (hier). Um die Erwärmung des Planeten unter zwei Grad Celsius zu halten – ein Ziel, dass noch vor kurzem bei Überschreiten desselben als die Grundlage für eine Klimakatastrophe galt – sollen alle Nationen diese Verpflichtungen einhalten oder sogar unterbieten. Es haben 195 Staaten unterschrieben, von denen nur die Folgenden als „im Bereich der Paris-Vereinbarungen liegend“ angesehen werden (hier): Marokko, Gambia, Bhutan, Costa Rica, Äthiopien, Indien und die Philippinen.

Dies setzt Donald Trump in eine günstige Perspektive nach seinem Entschluss, sich aus dem Vertrag zurückzuziehen. Tatsächlich könnte sich sein Schritt ultimativ als pervers produktiv erweisen, scheint doch der Rücktritt der USA als Führer bzgl. Klima China mobilisiert zu haben. Dieses Land strebt danach, diese Rolle zu übernehmen und sehr viel konsequenter die Zukunft des Planeten im Auge zu haben, und zwar wegen seiner Größe und der relativen Armut. Das Land will eine viel aggressivere Haltung bzgl. Klima einnehmen. Natürlich sind diese bekräftigten Verpflichtungen Chinas zu diesem Zeitpunkt auch nur Rhetorik.

Mehr dazu hier.

——————————————

Aus dem jüngst veröffentlichten IEA-Report:

Die globalen, mit der Energieerzeugung anfallenden CO2-Emissionen sind im Jahr 2017 um 1,7% gestiegen, das ist eine Zunahme um 460 Millionen Tonnen (Mt). Damit wurden ein historischer Höchststand von 32,5 Gt erreicht. Zu der Zunahme des vorigen Jahres war es nach drei Jahren einer konstanten Emissionsmenge gekommen, und diese Zunahme steht im scharfen Kontrast zum Erreichen der Pariser Klimaziele.

Die Zunahme der Kohlenstoff-Emissionen, äquivalent zu den Emissionen von 170 Millionen zusätzlichen Autos, war die Folge eines starken globalen wirtschaftlichen Wachstums um 3,7%, geringerer Preise für fossile Treibstoffe und schwächerer Bemühungen bzgl. Energie-Effizienz. Diese drei Faktoren sorgten für einen Anstieg des globalen Energiebedarfs um 2,1% im Jahre 2017.

Der Trend zu steigenden Emissionen war jedoch nicht einheitlich. Während die Emissionen in den meisten großen Nationen zugenommen haben, gab es in einigen anderen einen Rückgang, wie etwa in den USA, UK, Mexiko und Japan.

Der stärkste Rückgang wurde in den USA verzeichnet, wo die Emissionen um 0,5% oder 25 Mt auf 4810 Mt CO2 gesunken waren. Dies war das dritte Jahr in Folge mit einem Rückgang. Während der Vorjahre spielte der Wechsel von Kohle zu Gas dabei eine Hauptrolle. Im vorigen Jahr war der Rückgang die Folge einer stärkeren Energieerzeugung mittels Erneuerbarer und einer sinkenden Energienachfrage. Der Anteil Erneuerbarer bei der Stromerzeugung erreichte mit 17% ein rekordhohes Niveau, während der Anteil der Kernkraft stabil 20% betrug.

Die Zunahme der Kohlendioxid-Emissionen im Zuge der Energieerzeugung im Jahre 2017 ist eine ernste Warnung hinsichtlich der globalen Bemühungen zum Kampf gegen den Klimawandel und zeigt, dass die gegenwärtigen Bemühungen unzureichend sind, um die Paris-Ziele zu erreichen.

——————————————

Es scheint, dass Präsident Trump recht hatte. Die USA sind nicht einmal mehr Teilhaber am Paris-Abkommen, seit Präsident Trump im vorigen Jahr aus dem Abkommen ausgestiegen ist. Aber dennoch sind die USA führend bei der Reduktion von CO2-Emissionen pro Nation.

Es ist abzusehen, dass die Warmisten nicht erfreut sein werden.

Link: https://wattsupwiththat.com/2018/03/26/parisagreement-climate-accord-fails-co2-emissions-growing-worldwide-trump-vindicated-for-pulling-out/

Übersetzt von Chris Frey EIKE




21 schlechte Tatsachen über Windenergie – und drei Gründe dafür

1: Windenergie wurde bzgl. der meisten kommerziellen und industriellen Anwendungen vor über 100 Jahren aufgegeben. Zum Ende des 19. Jahrhunderts war sie absolut unzureichend für die aufkeimenden moderneren Bedürfnisse bzgl. Energie. Wenn wir den Schalter umlegen erwarten wir, dass das Licht angeht – und zwar in 100% aller Fälle. Die Windenergie wird NIEMALS dazu in der Lage sein, und das ist der Hauptgrund dafür, dass die Windenergie der Sammlung antiquierter Technologien hinzugefügt worden ist (zusammen mit anderen, ähnlich ungeeigneten Energiequellen wie Pferde- und Ochsen-Kraft).

2: Jetzt ein Sprung in die Zeit vor einigen Jahren. Nachdem die Politiker davon überzeugt werden konnten, dass die anthropogene globale Erwärmung eine unmittelbar drohende Katastrophe darstellt, traten Lobbyisten Kampagnen los, um alles voranzutreiben, was vermeintlich Kohlendioxid reduzieren würde. Das war die Gelegenheit zur Vermarktung, welche die Windenergie-Industrie brauchte. Windenergie wurde aus dem Papierkorb antiquierter Energiequellen herausgeholt und wiederbelebt, posaunten doch deren Befürworter hinaus, dass Windturbinen Strom erzeugen ohne jeden CO2-Ausstoß.

3: Natürlich wäre dies allein noch kein bedeutender Anreiz gewesen, weshalb die Wind-Lobbyisten den Weg für einen Quantensprung bereiteten: Einspeisen von Windstrom in das Stromnetz könnte den CO2-Ausstoß jener „schmutzigen“ fossilen Stromerzeugungsquellen (vor allem Kohle) deutlich reduzieren. Dieses Argument wurden zur Grundlage vieler Staaten bei der Einführung eines Renewable Energy Standard (RES) oder Renewable Portfolio Standard (RPS). Jene undemokratischen Standards schrieben vor, dass die entsprechenden Versorger der Staaten eine bestimmte Menge Windenergie („Erneuerbare“) bis zu einem festgesetzten Datum verbrauchen (oder verkaufen) müssen.

Warum waren diese Vorschriften notwendig? Einfach weil die Realität der Integration von Windenergie eine sehr teure Option war. Daher würde kein Versorgungsunternehmen das aus eigenem Willen tun. Sie mussten dazu gezwungen werden. Weiteres zu den Kosten folgt weiter unten.

4: Obwohl es das explizite Hauptziel dieser RES/RPS-Programme war, CO2 zu reduzieren, hat interessanterweise nicht ein einziger Saat, welcher solche Programme aufgelegt hatte, jemals eine Verifikation der CO2-Reduktion durch irgendein Windprojekt angefordert, weder vorher noch hinterher. Die Politiker nahmen einfach die Versprechungen für bare Münze, dass CO2-Einsparungen realisiert werden würden.

5: Es dauerte nicht lange, bis die Versorgungsunternehmen sowie unabhängige Energie-Experten berechneten, dass die tatsächlichen CO2-Einsparungen minimal waren (falls es überhaupt derartige Einsparungen gibt). Dies war der inhärenten Natur der Windenergie geschuldet sowie den Realitäten der ständigen Ausbalancierung des Netzes Sekunde für Sekunde mit fossil erzeugtem Strom (typischerweise Gas). Die häufig zitierte Bentek-Studie (How Less Became More) kann beispielhaft als unabhängige Bewertung dieses Aspektes gelten. Wichtiger ist aber, dass es seitens der Windindustrie null wissenschaftliche, empirische Beweise gab, welche die Behauptungen einer konsequenten CO2-Einsparung stützten.

Von der Windindustrie zitierte Studien (über die CO2-Einsparungen der Windindustrie) sind fast durchweg Computermodelle. Als jemand, der einige 100.000 Programmierzeilen geschrieben hat, kann ich versichern, dass es sehr einfach ist, ein Modell zu konstruieren, welches „beweist“, dass Schweine fliegen können. Modelle mögen angemessen sein in Bereichen, in denen es keine echten Daten gibt. Da weltweit ein paar 100.000 Turbinen in Betrieb sind, gibt es aber empirische Daten. Falls wirklich CO2 eingespart wird, sollte die Windindustrie also in der Lage sein, mit realen Daten aufzuwarten.

6: In der offensichtlichen Erwartung, dass der CO2-Betrug bald auffliegen würde, griffen die Wind-Lobbyisten zu präventiven Maßnahmen. Sie führten eine weitere Begründung ein, um ihr Anliegen am Leben zu halten: Energie-Diversität. Da unser Stromsystem jedoch bereits eine merkbare Diversität aufweist (und viele fragen „noch mehr Diversität – zu welchen Kosten?“) nahm dieser Hype niemals wirklich Fahrt auf. Damit zurück zum Reißbrett…

Read the full story here at Master Resouce

Link: https://wattsupwiththat.com/2018/03/25/twenty-one-bad-things-about-wind-energy-and-three-reasons-why/

Übersetzt von Chris Frey EIKE




Das Ende des Verbrennungsmotors: Bundestag lässt Einspruchsfrist gegen EU verstreichen

Die Einspruchsfrist des Deutschen Bundestags gegen den Vorschlag der EU-Kommission (EU-Verordnung Ratsdokumentnummer 1421/17) zur Festlegung von Emissionsnormen für Personenkraftwagen (hier, hier, hier) ist inzwischen abgelaufen, ohne dass sich eine Bundestagspartei dieser, für die wirtschaftliche Zukunft unseres Autolandes entscheidenden, Angelegenheit annahm. Hierzu kann man nur Claude Juncker zitieren „Wenn es kein großes Geschrei gibt und keine Aufstände, weil die meisten gar nicht begreifen, was da beschlossen wurde, dann machen wir einfach weiter„. Der deutsche Bundestag gehört definitiv zu denen, die nichts begriffen haben.

Einzige Ausnahme von den Begriffstutzigen machte die AfD-Fraktion. Deren Anträge werden freilich undemokratisch, weil generell unabhängig von ihren Sachinhalten, von dem gegen sie gerichteten Parteien-Kartell abgelehnt. Die AfD wollte mit Ihrem Diskussionsantrag erreichen, dass eine Subsidiaritätsrüge ausgesprochen wird, so gemäß Dr. Ing. Dirk Spaniel, dem verkehrspolitischen Sprecher der AfD-Fraktion. Damit wäre der EU-Vorschlag zwar noch nicht vom Tisch, es wären aber wenigstens nicht alle Türen zugeschlagen worden.

Was bedeutet die EU-Intiative für unsere Autoindustrie, Zulieferer und Arbeitsplätze?

Die geplante EU-Verordnung will ab 2021 angeblich realitätsnähere Verbrauchstests für PKW und leichte Nutzfahrzeuge einführen. Das klingt zunächst vernünftig. Allerdings sind bei diesem Vorhaben die Grenzwerte so niedrig gewählt, dass technisch gar keine vernünftigen Fahrzeuge mit Verbrennungsmotoren mehr möglich sind. Verbrauchsminderungen sind hier ausgereizt. Um eine Vorstellung davon zu bekommen, was gemeint ist, müssten PKW mit Benzinmotoren einen Verbrauch von höchstens rund vier Litern pro 100 Kilometern einhalten.

Dazu führt Dr. Spaniel völlig korrekt aus: „Diese Grenzwerte sind vielleicht für Kleinstwagen unter Laborbedingungen erfüllbar, nicht aber mehr für heutige Mittelklasselimousinen unter realen Bedingungen. Der Verbrennungsmotor oberhalb eines unbedeutenden Kleinwagensegments müsste dann durch Elektroantriebe ersetzt werden. Dieses wird entscheidende Auswirkungen auf den Motorenbau und die Zulieferindustrie in Deutschland und die damit verbundenen Arbeitsplätze haben. Alle Fraktionen haben die letzte Chance verspielt, dieser für Deutschland wirtschaftlich desaströsen EU-Verordnung die Stirn zu bieten. Die Realität ihres Handelns wird sie einholen, wenn in wenigen Jahren die ersten Motorenwerke geschlossen und Mitarbeiter in die Arbeitslosigkeit geschickt werden“.

Ironisch an der EU-Initiative, die unverkennbar Elektromobilität par Ordre du Mufti durchdrücken will, ist nur, dass die CO2-Bilanz von Elektroautos nicht generell besser ist als die von Benzinern oder gar Dieselmotoren (hier). Elektromobilität besitzt zweifellos sinnvolle Nischen, wie auf Golfplätzen und im ausschließlichen Stadtverkehr (hier sogar vielleicht einmal in öffentlichen Bussen). Generell wird sie den Verbrennungsmotor aber niemals ersetzen können. Das verbietet die elektrochemische Spannungsreihe der Elemente, also schlichte Physik, an der die Batterieentwicklung und auch gutgemeinte Politik nun einmal nicht vorbeikommen.

Die EU-Initiative in Sachen Verbennungsmotoren schließt sich nahtlos an die EU-Ökodesignrichtlinien an (hier). Diese Richtlinien sind sehr einfach zu erklären, wenn man sich an das Hinrichtungsinstrument „Garrote“ erinnert, mit dem in Spanien noch bis 1974 die Todesstrafe vollstreckt wurde. Es handelt sich um ein Halseisen, das langsam zugedreht wird, so dass der Delinquent besonders qualvoll endet. Der Delinquent sind hier die energieintensiven Industrien der EU-Mitgliedsstaaten, die Garrote die EU-Ökodesignrichtlinien, die von Jahr zu Jahr fester angezogen werden.

Was steckt hinter der EU-Initiative?

Man lese einfach (hier). Im Grunde einziges Motiv ist die „Rettung“ vor dem gefährlichsten „Gift“ der Welt, dem anthropogenen CO2. Es gehört nicht viel Phantasie dazu, sich vorzustellen, wie solch ein ideologischer Schwachsinn, der alle naturwissenschaftlichen Fakten ignoriert, enden wird: Alle von Verrückten errichteten Diktaturen gehen an ihren inneren Widersprüchen zugrunde (hier ist es die Brüsseler Diktatur von misanthropen Weltrettern vor dem anthropogenen CO2). Dies ist die gute Nachricht. Nun die schlechte: Dieses Zugrundegehen kann leider so lange dauern, bis nur noch Schutt und Asche übrig geblieben ist.

terimakasiho, Pixabay

Großbritannien hat als erstes Land Lunte gerochen und die Notbremse gezogen. Hier war allerdings ein anderer Grund als die EU-Energiepolitik maßgebend, die EU-Migrantenpolitik. Andere EU-Länder werden sich Großbritannien spätestens dann anschließen, wenn der wirtschaftliche Niedergang aufgrund der Brüsseler Energie-, Finanz-, Umverteilungs- und Migrations-Politik spürbar wird und insbesondere Deutschland als Zahlmeister ausgefallen ist. Ausfallender Zahlmeister? Wir schaffen das, Kernkraftwerke weg, ordentliche Stromversorgung weg, Kohle und Verbrennungsmotoren fast schon weg, …. irgendwann wird es schon klappen.

Insbesondere die Visegrad Staaten werden den Brüsseler Affenzirkus nur so lange mitmachen, wie sich ihr bisheriger Nettogewinn aus der EU nicht in ein Verlustgeschäft gewandelt hat. Das kann schneller passieren, als man denkt. Um nun aber nicht immer alles negativ zu sehen, sondern auch einmal das Positive zu betonen, schließen wir mit „Alle sind gute Europäer, wir besonders gute EuroPayer und sind stolz darauf“.




Bundesverkehrsministerium: Luft-Messstellen werden überprüft

In der Debatte um mögliche Fahrverbote für Dieselautos in deutschen Innenstädten, stellt das Bundesverkehrsministerium jetzt die Standorte einzelner Messstationen in Frage. „Einige Standorte von Messtellen werden zurzeit kritisch hinterfragt, ob sie überhaupt den europäischen Vorgaben entsprechen“, sagte der Staatssekretär Steffen Bilger (CDU) der „Bild“-Zeitung (Samstag). „Zumindest für die Zukunft muss gelten: Neue Messstellen sollten objektive Werte ermitteln und nicht die schlechtestmöglichen.“ Zugleich stellte Bilger geltende Grenzwerte in Frage. „Wenn Grenzwerte unsinnig sind, müssen sie geändert werden. Darüber sollte auf europäischer Ebene diskutiert werden.“

Dank an unsere Leser für Ihre Hilfe

Wir danken noch einmal unseren Lesern, die sich mit viel Engagement und Mühe um die Bilder bemüht haben. Ohne dies und ohne Sie wäre die Aktion nicht möglich. Denn die Einsendungen zeigen: Viele der Messstellen sind fragwürdig gewählt. Dies können wir nicht im Einzelnen nachweisen, denn dafür fehlt einer Redaktion die technische Kapazität. Aber sichtbar wird: Durch Häuser und Mauern verengte Straßenräume kommt es in vielen Fällen zu einer Verzerrung der Messungen, die doch im Sinne der Verordnung „respräsentativ“ für einen größeren Stadt-Raum und der Belastung für die Einwohner sein sollen. Wer Messstellen unmittelbar an Steigungen oder Ampeln aufstellt, erhält an genau dieser Stelle wegen des notwendigen Abbremsens und Anfahrens Werte, die nicht repräsentativ für eine längere Strecke Straße sind – aber genau das ist erforderlich.Es ist eine etwas komplexe Materie, vor allem die Vorschriften sorgen leicht für Verwirrung. Sie sollen es auch ein wenig. Es gibt für alle EU-Mitgliedsstaaten die EU-Richtlinien »für saubere Luft«. Sie wird durch deutsche Verordnungen in nationales Recht umgesetzt. Die sind ähnlich, weisen aber doch häufig Unterschiede auf, sind häufig nicht eindeutig und widersprechen sich sogar teilweise.

Anpassung nach oben

Die deutschen Regeln haben die Tendenz, höhere Grenzwerte zu produzieren. So sagt die EU-Richtlinie zum Beispiel, dass der Luftstrom um den Einlass der Messöffnung in einem Umkreis von 270° nicht beeinträchtigt werden darf. Die deutsche Vorschrift macht daraus »Bei Probenahmestellen an der Baufluchtlinie soll die Luft in einem Bogen von mindestens 270 Grad oder 180 Grad frei strömen.«
Eine scheinbar unbedeutende Wortänderung, doch damit eröffnet sich eine Reihe von Messmanipulationsmöglichkeiten. Es ist außerdem keine »Muss«-Vorschrift wie die der EU, sondern eine »Kann«-Vorschrift. Abweichungen sind also erlaubt, Betroffene können dann nicht so ohne weiteres klagen.

Das muss man sich nicht freiwillig antun, deswegen haben wir in der ersten Folge kurz beschrieben und auf einen Text hingewiesen, der sich dieser Problematik politisch gesteuerter Meßverfahren annimmt, auf die jetzt Verkehrs-Staatssekretär Bilger hinweist.

Dann ist zu unterscheiden zwischen Hotspot-Messungen und repräsentativen Messungen. Selbst der Hotspot sollte für mindestens 100 Meter Strassenlänge gelten. Es gelten weiterhin unter anderem folgende Grundsätze: »Messstationen für den städtischen Hintergrund« sind Standorte in städtischen Gebieten, an denen die Werte repräsentativ für die Exposition der allgemeinen städtischen Bevölkerung sind. Die Probenahmestellen müssen grundsätzlich für ein Gebiet von mehreren Quadratkilometern repräsentativ sein.Der Ort von Probenahmestellen, an denen Messungen zum Schutz der menschlichen Gesundheit vorgenommen werden, ist so zu wählen, dass Daten gewonnen werden über Bereiche innerhalb von Gebieten und Ballungsräumen, in denen die höchsten Konzentrationen auftreten, denen die Bevölkerung wahrscheinlich direkt oder indirekt über einen Zeitraum ausgesetzt sein wird, der im Vergleich zum Mittelungszeitraum der betreffenden Grenzwerte signifikant ist.

Man kann das so interpretieren, dass die Messwerte nicht repräsentativ sind, wenn sich nicht stets die gleichen Leute stundenlang dort aufhalten – und genau das ist an Verkehrsbrennpunkten der Fall: Niemand wohnt oder arbeitet dort. Wer daran vorbeigeht, ist nur kürzeste Zeit der Belastung ausgesetzt – das ist ein anderer Zustand als eine Dauerbelastung.

Der Ort von Probenahmestellen ist zudem so zu wählen, dass die Messung nur sehr kleinräumiger Umweltzustände in ihrer unmittelbaren Nähe vermieden wird. Das bedeutet, dass der Ort der Probenahmestelle so zu wählen ist, dass die Luftproben – soweit möglich – für die Luftqualität eines Straßenabschnitts von nicht weniger als 100 Meter Länge bei Probenahmestellen für den Verkehr repräsentativ sind.
Deshalb ist beispielsweise die Station am Stuttgarter Neckartor ungeeignet und juristisch angreifbar. Schon auf der anderen Straßenseite gäbe es ganz andere Daten.

Die Vorgaben der EU im Hinblick darauf, dass die Messstationen repräsentativ sein soll, sind eindeutig. In Deutschland dagegen wird ein anderes Ziel verfolgt. Schon 2006 wurden in Baden-Württemberg etwa alle Gemeinden gebeten, sogenannte straßennahe Belastungsschwerpunkte zu melden, an denen dann sogenannte Spotmessstellen eingerichtet wurden.»Hiervon gibt es allein in Stuttgart vier Stück, das sind 50 Prozent aller städtischen Messstellen. Die »Belastung« der Stuttgarter Bürger wird demnach zu einem geradezu grotesk überproportionalen Anteil aus Daten hergeleitet, die auch an vier räumlich eng begrenzten Hot-Spots erfasst werden. Auch in anderen »schmutzigen« Städten mit angeblich hohen NO2-Werten wurde und wird mit dem gleichen Trick gearbeitet.«

Wohnen auf der Stadtautobahn?

So fand eine internationale Untersuchung 2015 heraus, dass entlang der Berliner Stadtautobahn die stärkste Belastung bei über 60µg/ m3 lag. Betroffen davon seien aber nur 0,02 Prozent der Bevölkerung einer Millionenstadt.

Die Messstelle Fulda ist so ein Fall, den wir in der ersten Folge vorgestellt hatten. Sie verstößt gegen die deutschen Bestimmungen, im 39. Bundesimmissionsschutzgesetzes. Dort steht ausdrücklich, dass keine Bäume abschattend wirken dürfen. Sie steht unmittelbar am Straßenrand, kein Wunder, dass sie hohe Messwerte liefert – die dann repräsentativ sein sollen? Genau hier liegt der Hase im Pfeffer: Aus extrembelasteten, kleinräumigen Situationen wird dann eine flächendeckende, repräsentative Belastung ermittelt.

Die Einstufung der Immissionsbelastung vor Ort lautet: hoch. Mit Daten einer solchen Meßstation soll dann eine repräsentative Übersicht ermöglicht werden? Die Bevölkerung wird über die aktuellen Belastungen laufend informiert.

Die Messstellen sollen dort aufgestellt werden, wo sich Menschen aufhalten, also nicht kurz vorbeilaufen. Das ist hier bei der Messstelle in der Petersberger Straße offenkundig nicht der Fall. Es sind auch keine weiteren Messungen bekannt, wie sich die Werte im Abstand der Station darstellen. Denn auch der Abstand hat erhebliche Auswirkungen auf die Konzentration.

Gefummel am Neckartor

Das wurde beispielhaft in Stuttgart untersucht. Daher nochmal zurück zur »berühmtesten« Messstelle Deutschlands, Stuttgart, Neckartor. Dort haben die Messungen von Ingenieuren des Karlsruher Instituts für Technologie (KIT) gezeigt, dass die Situation nur ein paar Meter von der Messstation entfernt vollkommen anders aussieht. Jürgen Pfeil vom KIT sagte gegenüber der »Welt«: »Unsere Messungen zeigen, dass sich die Stickoxidwerte schon 20 bis 25 Meter von den Straßen weg halbieren.«

An den beiden Messtagen ergab sich, verteilt über mehrere Stationen, ein Mittelwert von 35 Mikrogramm NO2, was innerhalb des Zulässigen ist. Und geht man in die Höhe, wird die Luft ebenfalls besser. Auf der Fußgängerbrücke, die die sechsspurige B14 überspannt, seien um ein Drittel geringere Werte als die offiziellen ermittelt worden. »Auch in den Straßen am Neckartor sind die Messwerte deutlich geringer.«Es gab auch stichprobenartigen Kontrollmessungen der Behörden in der Umgebung des Neckartors. Ergebnis: Die Stickoxid-Konzentration sind in der angrenzenden Schubartstraße 60 Prozent geringer ist als die an der Messstelle Neckartor.

Der Leiter des Institutes, Thomas Koch, zieht das Fazit: »Vor dem Hintergrund dieser Entwicklung muss man feststellen, dass die prinzipielle Diskussion über den Diesel absolut aus dem Ruder geraten ist und Fahrverbote völlig überzogen sind.«

Wissenschaftler des Institutes für Feuerungs- und Kraftwerkstechnik der Universität Stuttgart hatten sich ebenfalls mit der »räumlichen und zeitlichen Variabilität von NO2 und Partikeln entlang einer verkehrsreichen Bundesstraße in Stuttgart« befasst. Sie untersuchten auch, wie die Gaskonzentrationen mit jedem Schritt Entfernung von der Messstation abnehmen und ob die Grenzwerte an anderen Streckenabschnitten ebenfalls überschritten werden.

Das Ergebnis überrascht nicht wirklich:

  • Die Luftverunreinigungen nehmen mit Abstand zur Quelle (Straße) sehr schnell ab. Das gilt für NO2 stärker als für Partikel.
  • Es existiert ein starker vertikaler Gradient der NOx-/NO-/NO2-Konzentrationen.

Die Aussage des Umweltbundesamtes ist offenkundig falsch: »Stadtbewohner in Deutschland atmen weiter zu viel gefährliches Stickstoffdioxid ein.« Die Messungen sind zum großen Teil Unsinn! Darum geht es auch kaum. Die Welt zitiert auch Christoph Erdmenger, ursprünglich grüner Landeschef in Sachsen-Anhalt, den es in die oberen Etagen des Stuttgarter Verkehrsministerium gespült hat. Der sagt unverhohlen: »Ich denke nicht, dass wir um Verkehrsbeschränkungen herumkommen, wenn die Grenzwerte überall eingehalten werden sollen.«

Das sagt der Mensch ganz apodiktisch und man hört richtig seine Freude an Fahrverboten der ungeliebten Autos, und vor allem der freien Mobilität. Der Verkehr wohlgemerkt, trägt nur zu einem Teil der Luftkomponenten bei. Es geht, um das ganz klar zu sagen, nicht darum, keine saubere Luft zu wollen. Man muss jedoch feststellen, dass die Luftsituation hierzulande – abgesehen von den Staustrecken – sehr sauber ist. Es war sehr teuer, das zu erreichen. Jetzt tragen die Autofahrer die hohen Kosten für die aufwendige Chemiefabrik unter dem Wagenboden. Die ist mittlerweile fast so teuer wie der Motor, geht natürlich auch kaputt, verursacht Ausfälle und Kosten.Da ist sehr die Frage, was man noch zumuten kann und vor allem, welcher Nutzen damit erreicht werden kann. Diese Bilanz ist negativ. Ginge es den NGOs tatsächlich um die Rettung der Welt, wären die Gelder besser in den meisten Städten der Dritten Welt angelegt. Dort könnte mit diesen Mitteln, die hierzulande gerade für kaum messbare, aber teure Effekte herausgeschmissen werden, viel mehr in Sachen »sauberer Luft« erreicht werden.

Politik im Panikmodus

Modernere Fahrzeuge und Feuerstellen würden ziemlich rasch für bessere Luftverhältnisse sorgen. Aber dann könnten die NGOs hierzulande nicht so schön Ihr Panikmodus-Süppchen kochen.

Muss man übrigens dazu sagen, dass merkwürdigerweise 17 Prozent der Messstationen im Regierungsbezirk Stuttgart liegen?

Ein TE-Leser erinnert daran, dass für die Aufstellung der Messstation am Neckartor jener Überzeugungstäter verantwortlich war, der seinerzeit auch für den berühmten Ozonversuch bei Heilbronn verantwortlich war. Zur Erinnerung: Im Juni 1994 wurde die Autobahn bei Heilbronn gesperrt, die Produktion in Fabriken teilweise stillgelegt mit dem Ziel, die angeblich zu hohen Ozonwerte zu besiegen. Das hat natürlich nicht funktioniert, die Ozonwerte dachten nicht daran, sich an grüne Vorgaben zu halten, sondern stiegen teilweise sogar an. Erzeugt wurden Kosten in Millionenhöhe.

Der damals verantwortliche Überzeugungstäter, Geschäftsführer des früheren Zentrums für Umweltmessungen, Umwelterhebungen und Gerätesicherheit (UMEG), die so viel Geld herausgeworfen haben, dass sich sogar der Rechnungshof beschwerte, ist pensioniert, sprach sich natürlich für die Reduzierung, gemeint also Abschaffung, des Individualverkehrs aus, saß bis vor zwei Jahren noch für die Grünen im Ludwigsburger Kreistag, und betätigt sich als freiberuflicher Umweltberater.

Die Substanzen, mit denen Panik erzeugt wird, wechseln im Laufe der Jahre. Das Ziel bleibt gleich. Für Schäden wird niemand zur Verantwortung gezogen.

Der Beitrag erschien zuerst bei Tichys Einblick hier


Schicken Sie bitte an TICHYS Einblick aus Ihrer Stadt Fotos der Messstationen. Bitte notieren Sie den genauen Standort. Aus einem weiteren Foto sollte das Umfeld der Messstation ersichtlich sein. Bitte schicken sie die Fotos an redaktion@tichyseinblick.de; Sie erteilen uns damit automatisch das Recht, Ihr Foto zu veröffentlichen. Wir freuen uns auch über Beiträge aus der Lokalpresse zu diesem Thema.

Vielen Dank!


Hier geht es zu Teil 1 – Messstationen in Stuttgart, Leipzig, Fulda, Magdeburg, Rostock, Marburg und Tübingen

Hier geht es zu Teil 2 – Messstationen in Ludwigsburg, Hannover, München und Siegen

Hier geht es zu Teil 3 – Messstationen in Hamburg, Wiesbaden, Cottbus, Dortmund und München

Hier geht es zu Teil 4 – Messstationen in Berlin, Hannover, Halle an der Saale, Wuppertal und Göttingen 

Hier geht es zu Teil 5 – Messstationen in Darmstadt, Leonberg, Kiel und Gelsenkirchen




März in Deutsch­land: Seit 30 Jahren winter­licher und rauer statt lieblicher und wärmer

In aller Regel kann sich dieser DWD-Schnitt noch um ein/zwei Zehntel ändern, was aber für unsere Langzeitbetrachtung unwesentlich ist. Die endgültige Temperatur wird vom DWD dann nach Ostern veröffentlicht.

Zunächst fragen wir uns, wo dieser deutschlandweite DWD- Schnitt innerhalb der letzten 30 Jahre einzuordnen ist. Die Antwort gibt die nächste Grafik, gezeichnet nach den Archiv-Angaben des DWD. Leider fehlt diese Grafik im Artikel des DWD über den März, denn sie zeigt, dass es keine Erwärmung gibt. Im Gegenteil. Der März wird deutschlandweit kälter.

Abb. 1: Der Monat März, gezeichnet nach den Erhebungen des Deutschen Wetterdienstes zeigt eine deutliche Abkühlung von etwa einem Grad innerhalb der letzten 30 Jahre. Abkühlung ist das Gegenteil der überall behaupteten Erwärmung und das Gegenteil dessen, was uns täglich als Angstgeschrei verkündet wird.

Wir stellen fest: Nicht nur der Januar und Februar, sondern auch der März wurden in den letzten 30 Jahren kälter. Auch diese Grafik zeigt erneut, dass das angebliche Treibhausgas Kohlendioxid gar keine oder kaum eine Erwärmungswirkung hat. Die Faktoren der Klimaabkühlung überwogen in den letzten 30 Jahren bei weitem.

Dabei macht der Mensch das Klima durchaus wärmer und zwar mit allen Baumaßnahmen, die täglich durchgeführt werden, die Betonierung und Trockenlegung der Landschaft, sowie der stets steigende Wohlstand und Energieverbrauch führen zu einer stetigen Erwärmung, welche von den Thermometern automatisch mitgemessen wird. Durch die inzwischen fast 29 000 Windkraftanlagen sowie die dunklen, heizenden Solarpaneele und den damit verbundenen Stromnetzausbau trägt der Mensch zusätzlich Wärme in die Landschaft ein. Die neuen Leitungen dürfen bis zu 200°C heiß werden. Damit wird der Überschussstrom in die Landschaft geheizt. In Deutschland gibt es nicht nur Wärmeinseln, aus denen die Kälte rausgeheizt wird, sondern ganze Regionen sind zu Wärmeregionen geworden, inzwischen etwa 10 bis 15% der Gesamtfläche Deutschlands. Kurzum: Wäre alles so geblieben wie vor 30 Jahren, dann wäre die DWD-Trendlinie noch fallender.

Aus diesem Grunde greifen wir auf Wetterstationen auf dem Lande zurück, eben dort, wo sich nach unserer Meinung weniger wärmend verändert hat, weil sich die zusätzlichen Baumaßnahmen in Grenzen hielten. Entsprechend erschreckend sind die Temperaturgrafiken:

Die armen Amtsberger

Die Station steht im kleinen Teilort Dittersdorf am Fuße des Erzgebirges in Sachsen.

Abb. 2: Der März wurde auf dem Lande im Erzgebirge um 2 Grad kälter. Die deutliche Abkühlung ist das Gegenteil einer Klimaerwärmung. Der diesjährige kalte März im Erzgebirge war keine Ausnahme, er reiht sich lediglich ein um die fallende Trendlinie.

Fazit: Wie der Monat März sich weiter entwickelt, wissen wir natürlich nicht, denn zu viele Faktoren wirken auf das tägliche Wetter ein, manche erwärmend, manche abkühlend. Und in den letzten 30 Jahren überwogen deutlich die Abkühlungsfaktoren. Der Mensch mit seiner Wärmeinselzusatzwärme konnte die Abkühlung in den Städten lediglich abbremsen, die kalten Temperaturen aus den Straßen rausheizen, was jedermann mit dem Autothermometer leicht feststellen konnte.

Es gibt aber auch Städte, die sich im Betrachtungszeitraum weniger verändert haben. Aus dem DWD-Archiv heraus ist uns Hamburg aufgefallen. Dort war der Wiederaufbau nach dem Kriege wohl vor 30 Jahren bereits abgeschlossen und die Wärmeinselzusatzwärme stagniert auf einem hohen Niveau.

Abb. 3: Natürlich ist es in Hamburg deutlich wärmer als im Umland und im Erzgebirge. Vor allem die kalten Märzjahre sind wie erwartet weniger kalt. Betrachten wir aber den fallenden Verlauf der Trendlinie der letzten 30 Jahre dann fällt auf, dass diese in Hamburg fallender ist als der DWD-Schnitt für ganz Deutschland in Grafik 1.

Ähnliches wie in Hamburg beobachten wir auch in anderen Großstädten. Die menschengemachten Wärmeinseleffekte sind ausgereizt. Natürlich gilt das nicht für wachsende Zentren wie Frankfurt oder Berlin. In Berlin beträgt die Märzabkühlung nur ein halbes Grad.

Bleiben wir auf dem Lande. Auch die Oberlausitz in Ostsachsen ist in den letzten 30 Jahren zu keiner großen menschengemachten Wärmeinsel herangewachsen, was sich auch prompt im Märztemperaturverlauf in dem kleinen Ort Neugersdorf zeigt.

Abb. 4. Die Wetterstation in Neugersdorf an der polnisch/tschechischen Grenze bei einer der Spreequellen zeigt ebenso wie andere sehr ländliche Stationen eine deutliche Abkühlung des Monates März in den letzten 30 Jahren.

Ein wesentlicher Grund der aktuellen Märzabkühlung – kältere Großwetterlagen

Die Objektive Wetterlagenklassifikation des Deutschen Wetterdienstes (DWD) liegt seit 1980 vor und erlaubt Rückschlüsse, wie die Häufigkeitsverhältnisse der Großwetterlagen die Temperaturen beeinflussen. Im März sind zwei Wetterlagen- Cluster besonders kühl; und zwar alle in der Höhe zyklonalen Lagen sowie alle, die entweder ganz (ZZ- Lagen) oder teilweise (AZ- oder ZA- Lagen) zyklonal sind; Näheres zur Wetterlagenklassifikation unter https://www.dwd.de/DE/leistungen/wetterlagenklassifikation/beschreibung.html?nn=16102&lsbId=375412 . Im Folgenden seien die Häufigkeitsverhältnisse aller Lagen mit Z- Anteil seit 1989 im Vergleich zu den Märztemperaturen gezeigt:

Abb. 5: Die Häufigkeitszunahme kalter Lagen bewirkte seit 1989 eine Märzabkühlung in Deutschland. Der Zusammenhang ist signifikant.

Fazit: In den deutschen Medien werden wir keine Grafiken des Monates März finden. Wohl aber wird in wirren Worten das Lied von der bedrohlichen Klimaerwärmung gesungen. Es wird Zeit, dass endlich damit Schluss gemacht wird.

Der Monat März in anderen Ländern

Kritiker mögen einwenden, der seit 30 Jahren fallende deutsche Märztemperaturtrend sei ein Einzelfall. Doch auch in manchen anderen Regionen der Nordhalbkugel stehen, zumindest momentan, die Zeichen eher auf Märzabkühlung. Da die 2018er Werte international noch nicht vorliegen, wird im Folgenden der Zeitraum 1988 bis 2017 betrachtet. Zuerst schauen wir nach Zentralengland:

Abb. 6: Leichte Märzabkühlung in Zentralengland. Der März 2018 verlief dort merklich zu kalt, was den negativen Trend verstärken wird.

Abschließend noch ein Blick nach Nordamerika, wo sich zunächst ein Vergleich der WI- belasteten Bundeshauptstadt Washington mit dem etwa 100 Km entfernt liegenden, sehr ländlichen Dale Enterprise anbietet:

Abb.7: WI- Erwärmung in Washington, Abkühlung im ländlichen Dale Enterprise.

In Nordamerika fanden wir außerdem mit Harvard Forest eine weitere WI-arme Station, deren Werte leider erst seit 2001 vorliegen; aber auch dort zeigt sich zumindest aktuell eine minimale März-Abkühlung:

Abb. 8: Keine Märzerwärmung an der erst seit 2001 betriebenen, waldnahen Station Harvard Forest.

Zusammenfassung: Trotz merklich steigender CO2– Konzentrationen wurde der März in Deutschland und in einigen, klimatisch ähnlichen Regionen der Nordhalbkugel seit 1989 kälter. Verschiedenste Wärmeinseleffekte bremsten die Abkühlung; welche zumindest in Deutschland hauptsächlich von häufigeren, kalten Großwetterlagen verursacht wurde.

Josef Kowatsch, unabhängiger Natur- und Klimaforscher

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




EIKE wünscht allen Leserinnen und Lesern ein frohes Osterfest

Auch wenn Ostern saukalt ist, kann es nur an der Klimaerwärmung liegen. Das jedenfalls meint der Potsdamer Klimafolgenforscher Prof. Dr. Stefan Rahmstorf. Wir meinen hingegen „es kütt, wie es kütt“ und „et is noch immer jot jegange“.

In diesem Sinne wünscht die EIKE Redaktion allen ein frohes Osterfest. Und erfolgreiches Ostereiersuchen. Vielleicht ist ja auch noch eins vom letzten Jahr dabei.




Wetter … Witterung … Klima … : Verwirrung für alle Zeiten ?

Klaus-Eckart Puls    

=============

Anschauliche Begriffs-Erklärungen zu „Wetter – Witterung – Klima“ sind [1] :

(1) Wetter :

„Das Wetter charakterisiert den Zustand der Atmosphäre an einem bestimmten Ort und zu einem bestimmten Zeitpunkt. Kennzeichnend sind die meteorologischen Elemente Strahlung, Luftdruck, Lufttemperatur, Luftfeuchtigkeit und Wind, sowie die daraus ableitbaren Elemente Bewölkung, Niederschlag, Sichtweite etc. Das Wetter ist das augenblickliche Bild eines Vorganges (Wettergeschehen), das sich hauptsächlich in der Troposphäre abspielt. Es kann sich – im Gegensatz zur Wetterlage und Witterung – mehrmals täglich ändern.“

(2) Witterung :

„Der allgemeine, durchschnittliche oder auch vorherrschende Charakter des Wetters an einem Ort über einen Zeitraum mehrerer Tage oder Wochen betrachtet. Besonders in Betracht gezogen werden dabei die fühlbaren Wetterelemente wie Niederschlag, Temperatur, Wind und Luftfeuchtigkeit.“

Die Witterung in einer Region – z.B. in Mitteleuropa und damit in Deutschland – wird bestimmt durch so genannte Großwetterlagen, vom DWD wie folgt definiert [18] :

„Die Großwetterlage ist definiert durch eine mittlere Luftdruckverteilung in Meereshöhe und der mittleren Troposphäre in einem großen Gebiet (z.B. Europa plus Teile des Nordatlantiks) und über eine Dauer von mehreren Tagen. Die Großwetterlage bestimmt den wesentlichen Charakter eines Witterungsabschnittes…“

Typische Großwetterlagen für Europa sind u.a. [3] :

Zyklonale Westlage („atlantische West-Wind-Drift“) ; Antizyklonale Nordwestlage („Hoch Ostatlantik / Britische Inseln“) ; Hoch Mitteleuropa (im Sommer warm, im Winter kalt) ; Trog Mitteleuropa („Höhen-Tief mit anhaltendem Niederschlag“) ; Antizyklonale Nordostlage (im Winter anhaltend strenge Kälte, auch Schnee; z.B. März 2018!) ; … u.v.a.m. [3].

Im Volksmund sind derartige Witterungs-Abschnitte bekannt z.B. als Eisheilige, Schafkälte, Altweibersommer, Hundstage, Weihnachtstauwetter … , in der meteorologischen Fachsprache Singularitäten der Witterung. Diese sind jedoch jährlich sehr unzuverlässig und daher prognostisch nur sehr eingeschränkt brauchbar [4].

(3) Klima [1] :

„Der für eine Region (bzw. eine größere Klimazone) typische jährliche Ablauf der Witterung, zum Beispiel mildes, raues oder winterfeuchtes Klima. Detailliert beschreiben das Monatskurven von Temperatur und Niederschlägen, die sich aus Wetterstatistiken vieler Jahre bis Jahrzehnte ergeben.“

Seit etwa 100 Jahren gilt ein 30jähriges Mittel als Klima-Definition für bestimmte Zeiträume (derzeit 1961-1990), vorgegeben von der Weltorganisation für Meteorologie (WMO) [5] :

„Das Klima steht als Begriff für die Gesamtheit aller meteorologischen Vorgänge, die für die über Zeiträume von mindestens 30 Jahren regelmäßig wiederkehrenden durchschnittlichen Zustände der Erdatmosphäre an einem Ort verantwortlich sind.“

DWD [6] :

„Die Weltorganisation für Meteorologie (WMO) hat als zur Zeit gültige internationale klimatologische Referenzperiode den Zeitraum 1961 bis 1990 festgelegt. Davor galt die Periode 1931 bis 1960 als Bezugszeitraum.“

Aus dieser Klima-Definition wird klar:

Es handelt sich um 30jährige Rechen-Mittel-Werte einzelner Wetter-Elemente bzw. um deren Verknüpfung bei der Betrachtung von Klima-Zonen.

(4) Klima-Alarmisten: Aus WETTER wird flugs KLIMA

Besondere und extreme Wetterlagen und Wetter-Ereignisse gehören zum normalen Variations-Spielraum unserer Atmosphäre. Jedoch: Solche Ereignisse werden von Klima-Alarmisten und Medien sehr gerne als „Klima-Signale“ bezeichnet, mißbräuchlich und ohne Belege.

Aus Tausenden von derartigen Behauptungen nur diese:

NordseeZ. [16]:Was Katrina (Anm.: Hurrikan 2005) übrig ließ: Auf der Flucht vor dem Klima … Das Drama um den verheerenden Hurrikan … ist sinnbildlich für die Probleme, die im Zuge der Erderwärmung überall auf der Welt auf die Küstenregionen zukommen werden“ ,

u n d :

DIE ZEIT [12] : „Die Zahl verheerender Stürme, Regenfälle … hat sich in Deutschland seit den 1970er Jahren mehr als verdreifacht – und wird auch in Zukunft zunehmen Die Verbindung von Naturkatastrophen und Klimawandel ist dabei seit Jahren eines der Schwerpunktthemen… „,

u n d :

NZ [17] : „Im Norden war’s 2008 zu warm … Hans-Joachim Schellnhuber warnte gleichzeitig vor einer dramatischen Beschleunigung…“,

u n d :

RP-online [13] : „….die beiden schweren Stürme Christian und Xaver (Anm.: 2013) geben uns einen Vorgeschmack auf das, was wir im Rahmen des Klima-Wandels in den nächsten Jahrzehnten zu erwarten haben….“.

G e n u g !

Nahezu jedes etwas extremere Wetter-Ereignis wird von etlichen Alarmisten (nicht von allen) und den klima-hysterieformten und sensations-lüsternen Medien zum Klima-Trend-Ereignis „erklärt“. Eine solche Argumentation ist abenteuerlich, wissenschaftlich unhaltbar und eigentlich peinlich, d e n n :

Selbst der Klimarat IPCC findet in seinen Berichten keine Trends zum Extremwetter [15] :

“There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.” (“Es gibt [nur] begrenzte Anhaltspunkte zu Änderungen bei Extrem-Ereignissen, die mit anderen Klimavariablen seit der Mitte des 20. Jahrhunderts verbunden sind.“).              

Eine ausführliche Zusammenstellung von IPCC-Zitaten aus verschiedenen Berichts-Teilen beweist [14] :

„Die deutschen Medien schlagen anläßlich COP21 in Paris wieder täglich die Klima-Katatrophen-Trommel – fast alle, der Rest schweigt. Den größten und lautesten Unfug verbreiten wieder einmal die „öffentlich Rechtlichen“ ARD, ZDF, Deutschlandradio etc. Woran liegt es, dass die verantwortlichen Redakteure die gut zugänglichen Fakten ignorieren? Totale Unkenntnis, Leseschwäche, ideologische Verblendung? Wir wissen es nicht. Dabei: Man benötigt keine Skeptiker, um zu belegen: Die Wetterdienste dieser Erde finden keine Trends bei Extremwetter aller Art – es genügt, in den Original-Berichtendes IPCC zu lesen! Das haben wir in Folgendem getan. Weitere Einzelheiten mit zahlreichen Graphiken kann man den PDF-Anlagen entnehmen!“

(5) ElNino: Aus WITTERUNG wird KLIMA „gemacht“

Die gleiche Umdeutungs-Masche praktizieren die Klima-Alarmisten beim zyklischen Witterungs-Phänomen ElNino, das ca. alle 10-20 Jahre auch in den globalen Temperatur-Messungen zu finden ist (s.Abb.1).

Abb. 1  ElNino- und LaNina-Ereignisse

Das hörte sich jüngst 2015/16 so an :

(a) „2015 mit Abstand heißestes Jahr seit Aufzeichnungsbeginn“

„Für zehn der zwölf Monate hat die US-Klimabehörde im vergangenen Jahr Rekordtemperaturen gemessen. Forscher sehen bestätigt, dass der Klimawandel „ernste Realität“ ist. Die Erde hat 2015 laut US-Wissenschaftlern das mit Abstand heißeste Jahr seit Beginn der Aufzeichnungen im Jahr 1880 erlebt. Die US-Behörde für Wetter- und Meeresforschung (NOAA) teilte mit, dass die weltweite Durchschnittstemperatur 0,9 Grad Celsius über dem Mittel des 20. Jahrhunderts gelegen habe. Der bisherige Hitzerekord aus dem Jahr 2014 sei um 0,16 Grad übertroffen worden.“

… und was der NOAA recht ist, das ist dem PIK allemal billig :

„Wolfgang Lucht vom Potsdam-Institut für Klimafolgenforschung (PIK) sagte: „Nachrichten wie jene vom neuen Rekordjahr 2015 bestätigen, dass der stetige Klimawandel längst ernste Realität ist.“ [7]

Zu ElNino: Kein Wort !

(b) „2016 stellt Hitzerekord auf“ …

„Es war das dritte Rekordjahr in Folge: 2016 waren die Temperaturen weltweit so hoch wie nie seit Beginn der Aufzeichnungen.

Der Direktor des Potsdam-Instituts für Klimafolgenforschung, Hans Joachim Schellnhuber, warnte vor einer sich beschleunigenden Erwärmung: „Momentan sind wir schon nahe an der 1,5-Grad-Linie.“ [8]

Zu ElNino: Kein Wort !

(c) … und w e n n ElNino denn doch mal ein wenig schamhaft als „Mitverursacher“

für die hohen Temperaturen erwähnt wird, dann wird das Witterungs-Phänomen mal eben rasch zum „Klima-Phänomen“ hoch gejubelt :

„Als Hauptgrund für die Hitzerekorde der vergangenen Jahre benennen Wissenschaftler den menschengemachten Klimawandel. Auch das Klimaphänomen El Niño, das eine Erwärmung des Pazifischen Ozeans bewirkt, habe seinen Anteil – doch der Hauptfaktor sei der „menschliche Einfluss auf das Klima durch den Ausstoß von Treibhausgasen in die Atmosphäre“, sagte der britische Klimaforscher Peter Stott.“ [9]

J e d o c h :

Die sehr warmen Jahre 2015 und 2016 (s.Abb.2) sind wissenschaftlich eindeutig einem alle 10-20 Jahre auftretenden „Super-ElNino“ geschuldet, eben jüngst 2015/16 aufgetreten. Die Abbildungen 1 + 2 liefern den Beweis!

Abb. 2: Der schwarze „Balken“ (keine Regression) zeigt: Im Februar 2018 ist das Temperaturniveau wieder wie vor 20 Jahren

F o l g l i c h :

Die warmen Jahre 1998 und 2015/16 sind verursacht durch sehr starke ElNino-Witterungen (vgl. Klassifikation in Abb.1).

D e m g e g e n ü b e r :

Die Faktenverdrehung von Witterung zu Klima wird von den freiwillig gleich-geschalteten Medien willfährig unters Volk gebracht.

Und noch ein Taschen-Spieler-Trick der Klima-Alarmisten ist stets gut erkennbar: Ist es WARM, dann ist das KLIMA – ist es KALT, dann ist das WETTER !

J e d o c h  – ob Klima-Alarmisten oder Medien, sie sind in Not: Der Klimarat IPCC hatte in seinem jüngsten Bericht 2013/14 eine seit 15 Jahren andauernde Stagnation der Temperatur festgestellt:

„… Fifteen-year-long hiatus periods are common in both the observed and CMIP5 historical GMST time series“ [10].

Vgl. dazu auch Abb.2.

Nun war also der ElNino 2015/16 für die Alarmisten „Rettung in höchster Not“ :

Dieser hat die seit 1998 andauernde Stagnation der globalen Temperatur 2016/17 unterbrochen, genauer gesagt überlagert – zum „Warmen“ hin; von den Klima-Alarmisten bejubelt, zum „Klima-Signal“ hoch-gejubelt – wider eigenes besseres Wissen.

Nun kommt der „Kater“ – seit Anfang 2018 ist die Temperatur ist wieder da, wo sie vor 20 Jahren war; vgl. Abb. 2 !

Dazu gibt es vielfältig versachlichende Stimmen, wie z.B. Prof. Fritz Vahrenholt [11] :

„Der El-Nino-Anteil an der Temperaturentwicklung 2015-17 ist deutlich höher als bisher vermutet. Auch hier wurde uns wieder Wetter* (kurzfristige Temperatur-Beulen) als Klima verkauft. An die „Klima-Kommunikatoren“ noch ein abschließendes Wort: Macht Euch nicht noch mehr lächerlich! Die Bürger haben inzwischen ein feines Gespür dafür, wenn mit Wetter Propaganda gemacht wird. Sie werden keine Klima-Weltregierung akzeptieren, nur weil Ihr – offenbar in Not – jedes Wetter für Eure Ziele ausnutzen wollt.“

)* Anm.: Leider hat sich hier auch Fritz Vahrenholt in der alltäglichen Begriffs-Verwirrung verfangen: ElNino ist kein „Wetter-Phänomen“, genau so wenig wie es ein Klima-Phänomen ist, sondern es ist eben ein Witterungs-Phänomen (vgl. dazu Absatz 2), eine interaktive Rückkoppelung zwischen Atmosphärischer Zirkulation und Meeres-Strömen !

(6) Die Tücken der Mittelwerte

Wer seine Urlaubs- oder gar Wohnsitz-Planung nach Mittelwerten von Klima-Tabellen plant, der erlebt fast immer böse Überraschungen! Ob Temperatur, Niederschläge, Sonnenschein … , ob Monats- oder Jahres-Mittel, alle Mittelwerte dieser Art sind Rechenwerte – mehr nicht! Wer z.B. vom mediterranen Haifa (Jahresmittel 21,0°C) nach Berlin (Jahresmittel 13,1°C) umzieht, aus den Subtropen des Mittelmeers mit relativ geringen täglichen und saisonalen Wetter-Variationen in das kontinentale Brandenburg mit extremen Bandbreiten von Wetter und Witterung in Tagen, Wochen, Jahreszeiten – der wird sein „Blaues Wunder“ erleben.

Für die gemäßigten Klimate wie in Deutschland sind Mittelwerte dieser Art für Planungen aller Art NICHTS wert!

Das sei hier nicht weiter im Einzelnen ausgeführt, sondern nur an einem einzigen Beispiel skizziert – in der Abb.3. Hier sind die Klimawerte für Bonn für das beliebige Jahr 1982 aufgetragen: Ob Temperatur, Niederschlag oder Sonne – etwas vereinfacht gesagt:

Der Mittelwert wird „NIE“ getroffen !

Abb. 3

Das gilt ausgeprägt für die gemäßigten und polaren Klimate, aber auch in erster Näherung für die anderen.

Woran liegt das alles nun ?

Die Atmosphäre bietet ein riesiges Wechselspiel, eine enorme NATÜRLICHE(!!) Bandbreite bei Wetter … Witterung … Klima … D a s   führt zu großen Ausschlägen/Streuungen im Monat, im Jahr, in 30 Jahren … und darüber hinaus in Klima-Zeiträumen !

In der meteorologischen Fachsprache: „Die Atmosphäre hat unendlich viele Freiheitsgrade“. In der Statistik nennt man es auch das „Rauschen“ um den Mittelwert.

GENAU DAS ist auch der Grund, warum man einen Klimawandel bezüglich Temperatur und anderer Wetter-Elemente nicht an einzelnen Wetter-Ereignissen, an Mitteln einzelner Monate, Jahre … erkennen, festmachen kann – wissenschaftlich unsinnig. Genau DAS aber machen die Klima-Alarmisten im Wochen-Takt!

Abb. 4

(Graphik DWD; Textfelder und Trend-Geraden 2000-2017 eingefügt)

Auch diese Temperatur-Aufzeichnungen in Deutschland lassen die w.o. ausgeführten Aussagen erkennen:

(1) Die Streu-Breite der Jahres-Mittel-Temperatur um den Mittelwert ist erheblich,

(2) Aus 1…3… Einzeljahren lassen sich keine Trends ableiten,

(3) Auch hier ist erkennbar, daß der Temperatur-Trend seit dem Jahr 2000 nahezu stagniert   (IPCC: „Hiatus“).

Gegenüber all den oben ausgeführten Fakten und Analysen :

Es wird im Verbund von Klima-Alarmisten und Politikern weiter getrickst, geschummelt, die Öffentlichkeit in die Irre geführt – von den „freiwillig“ grün-gleich-geschalteten Medien wohlgefällig transportiert !

========================================================

Vorstehender Artikel als PDF zum Download; Abbildungen in Original-Qualität(!) :

Puls.Wetter-Witterung-Klima

================================================

Q u e l l e n :

[1] https://de.wikipedia.org/wiki/Wetter

[2] https://www.dwd.de/DE/service/lexikon/Functions/glossar.html?lv2=100932&lv3=101084

[3] https://www.dwd.de/DE/service/lexikon/begriffe/G/Grosswetterlage_pdf.pdf;jsessionid=12A84244321A69BFA35942E27C48B4BB.live11053?__blob=publicationFile&v=4

[4] Puls, K.E.: Singularitäten der Witterung, Naturwiss. Rundschau, 37. Jahrg.; Heft 2 (1984)

[5] https://de.wikipedia.org/wiki/Klima

[6] https://www.dwd.de/DE/service/lexikon/Functions/glossar.html?lv2=101334&lv3=101456

[7] http://www.zeit.de/wissen/2016-01/klima-2015-temperaturen-rekord

[8] http://www.zeit.de/wissen/umwelt/2017-01/klima-2016-temperatur-waermstes-jahr-deutschland

[9] https://www.n-tv.de/wissen/2016-knackt-alle-Hitzerekorde-article19585377.html

[10] IPCC, AR5, Climate Change 2013: Technical Summary, p.61; http://tinyurl.com/oxtcp4j           

[11] http://www.kaltesonne.de/die-sonne-im-dezember-2017-und-das-klima-wetter/

[12] DIE ZEIT online, 20.03.2012: http://www.zeit.de/wissen/umwelt/2012-03/extremwetter-kongress

[13] http://www.rp-online.de/panorama/deutschland/orkan-xaver-sturmfluten-drohen-der-sturm-laesstfluege-zuege-ausfallen-aid-1.3866302

[14] Pinocchiopresse? Lügenpresse? Die deutschen Medien und ihre „Klimakatastrophen“, 09.12.2015; http://tinyurl.com/h7zp7bw

[15] IPCC: AR5 (2013), WGI, Kapitel 2, Seite 219, pdf-Seite 235

[16] NorseeZ; 30.01.2009, S.13

[17] NZ, 30.12.2008, S.1

[18] https://www.dwd.de/DE/service/lexikon/Functions/glossar.html?lv2=100932&lv3=101084