1

PEINLICH: Klimawandel-Hysteriker beschwert sich beim PRESSERAT in Berlin!!

In diesen Tagen bemerkten wir auf Twitter folgenden Tweet vom 07.10.2017:Darin wurde auf zwei Seiten die Antwort des Presserats vom 14.09.2017 öffentlich gemacht. Der Presserat hat sich darin mit einer Beschwerde über einen WELT-ONLINE-MEINUNGS-Artikel von Prof. Josef H. Reichholf vom 28.05.2017 mit dem Titel „Schnell wird man als Klimaleugner abgestempelt“ befasst.

Zur besseren Lesbarkeit haben wir die Antwort des Presserates auch nochmal separat als .pdf-Datei zur Verfügung gestellt:

Die Indizien auf dem Twitter-Account von Andreas Lieb sprechen für die These, dass Andreas Lieb auch einer der beiden Beschwerdeführer der Presseratsbeschwerde gewesen ist, da die Fotos der beiden Antwortseiten des Presserates auch in seinem Twitter-Account hinterlegt sichtbar sind:

An dieser Beschwerde und der Antwort des Presserates sind nun mehrere Punkte interessant, weil die nun folgenden Kritikpunkte die Notwendigkeit auch früherer Blogtexte erneut bestätigen.

So führt der Beschwerdeführer folgende zwei Sätze von Prof. Reichholf an und es ist auch erkennbar, dass der Presserat diese zwei Sätze von Prof. Reichholf auch als den Kern der Beschwerde ansieht:

Die globale Temperatur steigt trotz wachsenden CO2-Ausstoßes nicht an.

und:

Die letzten eineinhalb Jahrzehnte lang stieg die globale Temperatur nicht mehr an.

Und der/die Beschwerdeführer argumentieren dann allen Ernstes, wie man in der Antwort vom Presserat vom 14.09.2017 lesen kann, wie folgt:

Ausschnitt aus Schreiben vom Presserat vom 14.09.2017

An dieser Begründung und den nachfolgenden Begründungen des Presserates wird erneut deutlich, wie seit Jahren und Jahrzehnten am eigentlichen Schwindel der Erderwärmung „vorbei-argumentiert“ wird, denn der Kern des globalen Temperaturschwindels bleibt jedesmal aussenvor. Kein Journalist, auch nicht der Presserat, hinterfragt den Absolut-Temperaturwert der Erderwärmung, obwohl der Chef-Redakteur von „DER WELT“ vom Presserat im Schreiben vom 14.09.2017 auf der Seite 2 wie folgt zitiert wird:

Sehe man im Internet nach, so würden die Spitzenwerte als Abweichungen vom Durchschnitt der Jahre 1961 – 1990 und nicht in Absolutwerten der Globaltemperaturen angegeben, was die Vergleichbarkeit sehr erschwere bzw. unmöglich mache.

Im Prinzip stimmt das, was er sagt, aber das ist trotzdem auch nur die halbe Wahrheit: Die WMO hat am 18.01.2017 sehr wohl einen Absolut-Globaltemperaturwert für das Jahr 2016 von 14,8(3) °C auf Basis von 1961 bis 1990 angegeben, was der ZDF-Wetterfrosch Benjamin Stöwe am 19.01.2017 – also einen Tag später – im „ZDF MORGENMAGAZIN“ eindrücklich präsentierte:

Video nicht mehr verfügbar

Das Problem ist nur – und dieses Problem verschweigen Politiker, Klima(folgen)forscher und auch Journalisten seit Jahren -, dass die angeblich gefährliche globale Erderwärmung vor und seit ca. 30 Jahren mit viel höheren Globaltemperaturen begründet worden ist, was die folgende 23-seitige Recherche-Liste dokumentiert:.pdf

Ein ganz grosses „Problem“ hat dabei „DER SPIEGEL„, was in dem folgenden 18-minütigen Video dokumentiert wird:

Aber nicht nur DER SPIEGEL. Auch die Journalisten bei ARD und ZDF können ihre Unwahrheiten aus der Vergangenheit offensichtlich nicht mehr verwalten, was in dem folgenden 18-minütigen Video insbesondere an dem ARD- (früher: ZDF-) Wissenschaftsjournalisten und Meteorologen Karsten Schwanke deutlich wird:

Wenn Sie den obigen Recherchen im Detail nachgehen, werden Sie feststellen, dass offensichtlich weder Klimafolgenforscher, noch Politiker, noch Journalisten begreifen, wie elementar-notwendig eine glaubwürdige globale Absolutmitteltemperatur ist, um überhaupt eine Globale Erderwärmung glaubwürdig auszuweisen.

Und vergleichen Sie ganz aktuell auch die folgende Grafik aus einem RBB-TV-Bericht über „25-Jahre PIK Potsdam“ vom 11.10.2017 bei Minute 2:49:
Sie erkennen: Es wird aktuell ein globaler Temperaturwert von ca. 14,5 °C ausgewiesen, jedenfalls erkennbar deutlich unterhalb von 15°C.

So, und nun schauen Sie, mit welchem globalen Temperaturwert für 1990 am 24.05.1990 die Enquete-Kommission des deutschen Bundestags in der Drucksache 11/8030 auf Seite 29 argumentiert hatte, um eine damals angeblich gefährliche Erderwärmung zu begründen, nämlich 15,5 °C :Und Hans Joachim Schellnhuber propagierte noch am 22.11.2009 (auf PHOENIX zeitversetzt ausgestrahlt einen Tag später am 23.11.2009) – auf der Bundespressekonferenz unmittelbar vor der Klimakonferenz von Kopenhagen – noch einen globalen Temperaturmittelwert von 15,3 °C:

Wer auch das nicht glaubt: Der O-Ton von Schellnhuber findet sich in diesem 5-minütigen Video !!

So kommt es, dass sogar in mehreren deutschen Schulbüchern Schulkindern die angebliche Notwendigkeit von Klimaschutz propagiert wird, obwohl man im gleichen Schulbuch durch Einsatz des gesunden Menschenverstandes feststellen kann, dass seit über 150 Jahren überhaupt keine gefährliche Erderwärmung existiert.

Glauben Sie nicht?

Dann schauen Sie auch noch das folgende, sehr informative 18-minütige Recherche-Video:

Die Argumentation, die in diesem aktuellen KLETT-GEOGRAPHIE-Schulbuch auf Seite 194 ausgewiesen wird, finden Sie auch in den Drucksachen der Enquete-Kommission des Deutschen Bundestages, die damals mit den gleichen Argumenten vor der Gefährlichkeit einer Erderwärmung Politiker und Öffentlichkeit gewarnt hatte, nur mit dem Unterschied, dass damals (1990) eine globale Absoluttemperatur von 15,5°C ausgewiesen worden ist. Sogar bis 1995 wurde nachweislich – und das belegen unsere eindrücklichen Recherchen in deutlicher Konsequenz – immer eine Globaltemperatur bei oberhalb von 15°C ausgewiesen. Und heutzutage werden für 2016 bekanntlich nur 14,8°C ausgewiesen, was wir oben im Blogtext dokumentiert haben.

Und damit ist auf einen Schlag die Gefährlichkeit der Erderwärmung als Schwindel entlarvt.

Ohne, dass wir und Sie dazu auch nur ein einziges vermeintlich klimaskeptisches Argument verwenden mussten: Das „unheilige Triumvirat“ aus Klimafolgenforschern, Politikern und Journalisten hat sich beim Thema „gefährliche Erderwärmung“ nach nunmehr 30 Jahren ganz alleine selbst „die Karten gelegt.“ Wirklich Pech, wenn man die eigenen Lügen nicht mehr verwalten kann.

Und ärgerlich wird es zusätzlich, wenn auch vermeintlich kritische Professoren diese Diskrepanz bei den globalen Temperaturwerten ebenfalls nicht erkennen (wollen).

Ähnlich agiert aber leider auch Prof. Josef Reichholf, der in seinem DIE WELT-Meinungsartikel am 28.05.2017 geschrieben hatte:

Die anscheinend nötigen Nachbesserungen bei den Berechnungen zur globalen Temperatur und die vielen Änderungen in den Vorhersagen zum Klimawandel drücken für mich als Wissenschaftler eines klar aus: Die letztgültige Weisheit gibt es nicht.

Auch Prof. Reichholf scheint die allzuvielen „Unschärfen“ der Klimafolgenforschung ebenfalls „weichzuspülen“, anstatt diese nachweisbaren Unschärfen konkret zu thematisieren und auf den Punkt zu bringen. Ärgerlich auch, dass Prof. Reichholf von „Vorhersagen zum Klimawandel“ spricht. Auch schreibt Prof. Reichholf:

Die globale Temperatur steigt trotz wachsenden CO2-Ausstoßes nicht an. Dies passt nicht in die Prognosen von Politik und Wissenschaft.

und

Die letzten eineinhalb Jahrzehnte lang stieg die globale Temperatur nicht mehr an. Diese Pause in der Erwärmung passte jedoch nicht zu den Prognosen.

Und dann schreibt auch noch der Presserat in der Beschwerdeablehnung am 14.09.2017 wortwörtlich:

Diese Forschungsergebnisse nimmt der Autor zum Anlass diese gängigen Klimaprognosen kritisch zu hinterfragen.

Denn es ist sogar in Schulbüchern nachzulesen, dass klimawirksame Prozesse nicht vorhersagbar sind und man deshalb von „Klimaprojektionen“ spricht und eben nicht von Prognosen:

Also, Fakt ist: Klimamodelle liefern gar keine Prognosen! Das wissen auch die Klima(folgen)forscher, was sich auch durch zahlreiche O-Ton-Nachweise belegen lässt. Denn die Klima(folgen)forscher werden wissen, dass man das komplexe und chaotische Atmosphärensystem der Erde nicht allein auf Basis von Daten der Vergangenheit vorhersagen lässt. Es funktioniert ja noch nicht mal die Ziehung der Lottozahlen oder den kommenden deutschen Meister der Fussball-Bundesliga auf der Datenbasis der Bundesliga-Vergangenheit vorherzusagen. Eine Vorhersage/Prognose auf Daten der Vergangenheit ist bei einem chaotischen System definitiv nicht möglich. Eine Prognose basiert zu 100% auf fixen, nicht-veränderbaren Daten aus der Vergangenheit, die dann linear in die Zukunft fortgeschrieben werden. Eine Prognose enthält also keine Zukunftsvariablen und keine zusätzlichen Annahmen über die Zukunft, im Gegensatz zu einer Projektion. Deshalb ist auch die „Sonntagsfrage“ über den Ausgang der Bundestagswahl KEINE Prognose, sondern eine Projektion, wie damals bei der Sonntagsfrage zur „Bremenwahl im 30. April 2015 in den „TAGESTHEMEN“, wo dem TV-Zuschauer deutlich zu verstehen gegeben wurde, dass dieser damalige „BremenTREND“ eben KEINE PROGNOSE darstellt:

und auch aktuell zur Bundestagswahl 2017 in den ARD „TAGESTHEMEN“ am 14.09.2017 um 22Uhr15 ein deutlicher Hinweis, dass das Ergebnis der „Sonntagsfrage“ eben KEINE PROGNOSE darstellt:

Rot-Markierungen durch KLIMAMANIFEST.CH

Und ein gutes #kurzerklärt-Video der TAGESSCHAU-Redaktion erklärt am 23.09.2017 – also unmittelbar vor der Bundestagswahl, wo es eigentlich schon für eine effektive Aufklärung zu spät ist – ebenfalls, dass die „Sonntagsfrage“ eben KEINE PROGNOSE (sondern per Definition eine PROJEKTION) ist:

und hier auch beim ZDF wird der korrekte Begriff „PROJEKTION“ (statt Prognose) verwendet:
Sie sehen, dass sogar die ZDF HEUTE+ Moderatorin Eva Maria Lemke den Unterschied zwischen „Projektion“ und „Prognose“ nun verstanden hat, denn zum Zeitpunkt der „Sonntagsfrage“ ist noch mindestens eine, nicht-fixe Variable vorhanden, denn die Wahllokale haben weder geöffnet gehabt, noch sind sie wieder geschlossen worden. Deshalb wird die erste (und einzige) Prognose (!) von ARD bzw. ZDF bei einer Landtags- und/oder Bundestagswahl erst 1 Sekunde nach 18Uhr erstellt, weil erst dann davon auszugehen ist, dass alle vorherigen Variablen fix sind und nicht mehr verändert werden können, weil u.a. die Wahllokale um Punkt 18Uhr geschlossen haben.

Und vergleichen Sie mal die obigen Werte der Projektion (!) des ZDF vom 20.07.2017 (!) über den damals angeblich „wahrscheinlichen“ Ausgang der Bundestagswahl mit dem vorläufigen amtl. Ergebnis der Bundestagswahl vom 24.09.2017 am 25.09.2017:


Dann verstehen Sie, was von Projektionen im Vergleich zu Prognosen zu halten ist, nämlich nix. Im Gegensatz zur Projektion vom 20.07.2017 war die 18-Uhr-Prognose des ZDF am 24.09.2017 im Vergleich zum Endergebnis dann relativ genau:

ZDF 18Uhr-Prognose zur BTW am 24.09.2017

Aber es kann auch eine definitive Prognose trotzdem beim Endergebnis vollends daneben liegen. Die Wahrscheinlichkeit aber, dass eine Projektion beim realen Endergebnis der Zukunft vollends daneben liegt, liegt bei einer Projektion bei weitem höher als bei einer Prognose.

Obwohl man bei der ARD eigentlich mittlerweile wissen müsste, dass die Klima(folgen)forscher mit ihren Szenarien/Projektionen keine Prognosen erstellen, behauptet die ARD „TAGESSCHAU“ trotzdem im Mai 2017 weiterhin FALSCH, der Meeresspiegelanstieg für das Jahr 2100 liesse sich angeblich „prognostizieren“:

Rot-Markierungen durch KLIMAMANIFEST.CH

Denn auch der Weltklimarat IPCC erstellt nachweislich KEINE „Prognosen“:

Wie oft sind die Worte „Projektion“, „Szenario“, „Prognose“ in den IPCC-Berichten (SPM) zu finden?

Denn auch der Weltklimarat IPCC weiss: ES KÖNNEN KEINE PROGNOSEN ÜBER DAS KLIMASYSTEM ERSTELLT WERDEN.

Warum?

Weil es sich um ein chaotisches Atmosphären-System handelt, was man nicht auf Basis historischer, fixer Daten vorhersagen kann. Das ist die ureigenste Eigenschaft eines chaotischen Systems. Auch die Ziehung der Lottozahlen, ein Billardspiel oder jedwede Fussball-Saison von Liga-Mannschaften sind chaotische Systeme, die definitiv nicht vorhersagbar sind.

Warum ärgert mich die Verwendung des Begriffs „Prognose“ so ausserordentlich?

Weil der Ausdruck „Prognose“ die Klima-Abschätzungen in ungerechtfertigter Weise wertschätzt und positiv überbewertet und eine angebliche Vorhersagbarkeit und Prognose-Fähigkeit suggeriert, die in Wirklichkeit bei einem solchen chaotischen System definitiv nicht existiert.

Deshalb müssen alle Behauptungen, die sich aus Klimacomputermodellberechnungen ergeben, abgeleitet und errechnet worden sind, konsequent als „szenarienbedingte Projektionen“ und/oder „Schätzungen“ oder „Abschätzungen“ bezeichnet werden, aber auf keinen Fall als „Prognose“ oder „Vorhersage“ tituliert werden. Denn das ist definitiv FALSCH.

Wenn Sie DAS dann alles wissen, welche Rolle auch Journalisten beim SPIEGEL und bei ARD und ZDF beim Schwindel mit der angeblichen Erderwärmung spielen, dann lesen Sie auch, wie der Presserat den WELT-Chefredakteur am 14.09.2017 ebenfalls zitiert:

Nochmals: In seinem [Reichholfs] Kommentar sei es darum gegangen, die Vorgehensweise im Umgang mit den Daten aufzuzeigen, und nicht um eine Infragestellung der globalen Klimaerwärmung.
(rot-Markierung www.klimamanifest.ch)

Was für eine scheinheilige Argumentation. Darin spiegelt sich auch deutlich die regelrechte Angst deutscher Journalisten wider, um die globale Klimaerwärmung überhaupt in Frage zu stellen.

Dabei stellen auch wir die globale Klimaerwärmung nicht in Frage, sondern wir stellen begründend in Frage, dass die globale Klimaerwärmung für irgendjemanden gefährlich ist.

Fragen Sie sich selbst einmal: Würden Sie sich selbst oder ihr Kind mit 36,8 °C Körpertemperatur zum Arzt schicken, weil angeblich erhöhtes Fieber vorliegen könnte?

Da durch historische Dokumente belegbar ist – was oben in diesem Blogtext umfangreich dokumentiert wurde – , dass eine gefährliche Erderwärmung seit 150 Jahren definitiv bis heute nicht stattgefunden hat, ist die Gefährlichkeit einer globalen Klimaerwärmung vehement in Frage zu stellen. Alle Thesen vom angeblichen Meeresspiegelanstieg, angeblich mehr Extremwettern, angeblich verstärkte Gletscherschmelze können nachweislich nicht auf eine gefährliche globale Erderwärmung zurückzuführen sein, weil die historischen Daten und Archive der Klima(folgen)forschung solche Thesen nicht stützen, sondern genau das Gegenteil dokumentieren.

Das liegt insbesondere auch daran, weil Klima(folgen)forscher, Journalisten und Politiker ihre Lügen nach ca. 30 Jahren nicht mehr verwalten konnten. Aber auch ein Presserat in Berlin und auch ein Prof. Reichholf weigern sich offenkundig, diese offensichtlichen Lügen (ohne Anführungszeichen) der Klimafolgenforschung – insbesondere beim PIK in Potsdam – zu thematisieren.

 

Zuerst veröffentlicht am 14.10.2017 auf www.klimamanifest.ch




Meeresspiegel: Steigen und fallen – Teil 2: Tidenmessungen

Wenn wir über SLR reden, müssen wir zunächst festlegen, was ,Meeresspiegel‘ überhaupt ist.

Was ist das, ,Meeresspiegel‘?

Wenn ich in diesem Beitrag den Begriff Meeresspiegel verwende, meine ich den lokalen, relativen Meeresspiegel – also das Niveau des Meeres dort, wo es an das Festland stößt, und zwar an jedem gegebenen Punkt. Falls wir von Meeresspiegel in New York City sprechen, meinen wir das Niveau der Meeresoberfläche, wo sie die Landmasse von Manhattan oder Long Island berührt, die Küsten von Brooklyn oder Queens. Dies ist der einzige Meeresspiegel von irgendeiner Bedeutung für irgendeine Stelle.

Es gibt ein zweites Konzept, ebenfalls Meeresspiegel genannt. Hierbei handelt es sich um einen globalen Standard, der zur Grundlage für Höhen des Festlandes genommen wird. Dies ist ein konzeptioneller Gedanke – ein standardisierter geodätischer Bezugspunkt – und hat nichts, aber auch gar nichts zu tun mit dem tatsächlichen Niveau des Wassers irgendwo in den Ozeanen der Erde. (Man mache sich nicht die Mühe, auf der Wiki-Seite für Meeresspiegel nachzusehen – dabei handelt es sich um ein Mischmasch von Missverständnissen. Es gibt dort auch einen 90 Minuten langen Film, in welchem die Komplexität der Höhenbestimmung aus modernen GPS-Daten erklärt wird – Informationen, die im nächsten Abschnitt dieses Beitrages eine Rolle spielen).

Und dann gibt es noch ein drittes Konzept mit der Bezeichnung absoluter oder globaler Meeresspiegel. Damit ist ein generalisierter Gedanke der mittleren Entfernung der Meeresoberfläche vom Erdmittelpunkt gemeint. Hierzu mehr in einem weiteren Beitrag dieser Reihe.

Da sich der Meeresspiegel in jedem Moment verändert infolge Tidenhub, Wellen und Wind gibt es in der Realität keinen einzelnen experimentellen Meeresspiegel, den wir den lokalen Meeresspiegel nennen können. Um diesem Wechsel Rechnung zu tragen, gibt es verschiedene Bezeichnungen wie Ebbe, Flut und in der Mitte den Mittleren Meeresspiegel. Es gibt weitere Termini für den Zustand der Meeresoberfläche, darunter Wellenhöhe und -frequenz sowie die Beaufort-Skala, welche sowohl die Windstärke als auch die zugehörigen Umstände der Wasseroberfläche beschreibt.

Das sieht so aus:

Eintägiger Gezeitenzyklus (links): Ein Gebiet erlebt einen eintägigen Gezeitenzyklus, falls es ein Hoch- und ein Tiefwasserstand an jedem Mondtag gibt (24 Stunden und 50 Minuten). An vielen Stellen im Golf von Mexiko ist diese Art Tidenwechsel zu erleben.

Halbtägiger Gezeitenzyklus (Mitte): Dieser liegt vor, wenn an einer Stelle im Laufe eines Mondtages zwei Hoch- und zwei Tiefwasserstände in etwa vergleichbarer Größenordnung auftreten. Diese Art Gezeitenzyklus tritt in vielen Gebieten an der Ostküste von Nordamerika auf.

Gemischter Gezeitenzyklus (rechts): Dieser tritt auf, wenn je zwei Hoch- und Niedrigwasserstände unterschiedlicher Größenordnung pro Mondtag auftreten. Diese Art Gezeitenzyklus tritt in vielen Gebieten an der Westküste von Nordamerika auf.

Das folgende Bild zeigt die Verteilung dieser unterschiedlichen Gezeitenzyklen:

Gezeiten werden hervorgerufen durch die Gravitationskräfte von Mond und Sonne auf die Ozeanoberfläche. Hierzu gibt es online viele gute, mehr oder weniger ausführliche Erklärungen, z. B. hier und hier.

Es gibt mehrere offiziell etablierte Zustände der Tide (welche einfach die numerischen mittleren relativen Wasserstände für jeden Zustand sind). Diese nennt man tidal datums und sind in Relation gesetzt zu einem Punkt auf dem Festland, normalerweise markiert durch ein in Fels oder Beton eingebettetes Schild, eine „bench mark”. Alle Gezeitenwerte für einen speziellen Tidenmesspunkt werden in Fuß über oder unter diesem Punkt gemessen. Hier folgt eine bench mark am Battery Park in New York, und ein Beispiel-Gezeitenwert für Mayport in Florida (repräsentativ für die Stadt Jacksonville, welche jüngst durch den Hurrikan Irma überflutet worden ist):

In Australien hat man etwas andere Bezeichnungen, wie die folgende Graphik zeigt (die US-Abkürzungen sind hinzugefügt):

Anmerkung zur Grammatik dieser Bezeichnungen: [Hier wird der Unterschied erklärt zwischen den englischen Begriffen ,datums‚ und ,data‚. Das lässt sich in deutscher Übersetzung aber nicht darstellen. Der Abschnitt lautet im Original: „They are collectively correctly referred to as “tidal datums” and not “tidal data”.  Data is the plural form and datum is the singular form, as in “Computer Definition. The singular form of data; for example, one datum. It is rarely used, and data, its plural form, is commonly used for both singular and plural.”  However, in the nomenclature of surveying (and tides), we say “A tidal datum is a standard elevation defined by a certain phase of the tide.“  and call the collective set of these elevations at a  particular place “tidal datums”.]

Die wesentlichen Punkt für die meisten Menschen sind die Hauptdaten [major datums] von oben nach unten:

MHHW [Mean High High Water] – mittlere Höhe des Hochwassers, also das Mittel des höheren der zwei Hochwasser pro Tag. An den meisten Stellen unterscheidet sich das kaum vom mittleren Hochwasser. Im Beispiel Mayport beträgt der Unterschied 8,5 cm. In einigen Fällen, wo gemischte Gezeitenzyklen auftreten, können die Unterschiede deutlich größer sein.

MSL [Mean Sea Level] – mittlerer Meeresspiegel, das Mittel von Hoch- und Niedrigwasser. Falls überhaupt keine Gezeiten auftreten, wäre dies einfach der lokale Meeresspiegel.

MLLW [Mean Low Low Water] – mittleres niedriges Niedrigwasser, das Mittel des niedrigeren der beiden täglichen Niedrigwasserstände. Im Beispiel Mayport beträgt der Unterschied 1,5 cm. Auch hier treten bei gemischten Gezeitenzyklen größere Unterschiede auf.

An einem Strand sieht das so aus:

An einem Strand wäre der Mittlere Meeresspiegel der vertikale Mittelpunkt zwischen MHW und MLW.

Die Hochwassermarke ist eindeutig erkennbar an diesen Pfosten eines Piers, wo nämlich das Wachstum von Muscheln und Seepocken aufhört:

Und Meeresspiegel? Im Moment ist der lokale relative Meeresspiegel offensichtlich – es ist die Wasseroberfläche. Es gibt nichts weiter Komplizierteres, wenn man jederzeit das Meer sehen und fühlen kann. Falls man die Hochwassermarke erkennt und das Wasser am niedrigsten Stand während des 12 Stunden und 25 Minuten langen Gezeitenzyklus‘ beobachtet, ist der Mittlere Meeresspiegel der Mittelpunkt zwischen beiden. Einfach!

(Unglücklicherweise ist Meeresspiegel in jeder anderen Hinsicht als Konzept erstaunlich komplizierter und komplexer). Im Moment wollen wir beim lokalen Relativen Mittleren Meeresspiegel bleiben (dem Niveau des Meeres, wo es das Festland berührt).

Wie wird der Mittlere Meeresspiegel an jeder Stelle gemessen oder bestimmt? Die Antwort lautet:

Tiden-Messgeräte.

Tidenmessung war früher ziemlich einfach – eine Skala, sehr ähnlich einem aus dem Wasser ragenden Lineal, an dem man die Wasserstände einfach ablesen konnte. Damit sollte vorüber fahrenden Schiffen gezeigt werden, wie viel Wasser sie noch unter dem Kiel haben in einer Bucht oder einem Hafen.

Aber Tidenmessgeräte sind inzwischen weiterentwickelt und anspruchsvoller geworden:

Das Bild oben zeigt schematisiert alte und neue Messverfahren. Die in den USA derzeit gebräuchlichen Verfahren hat die NOAA in einem PDF hier zusammengestellt. Bei den neuesten Geräten ergibt sich eine Unsicherheit von plus/minus 2 Zentimetern bei individuellen Messungen und plus/minus 5 Millimeter für monatliche Mittelwerte.

Um es so freundlich wie möglich auszudrücken, möchte ich darauf hinweisen, dass die Genauigkeit eines Monatsmittels ein mathematisches Phantasiegebilde ist. Falls jede Messung lediglich auf ± 2 cm genau ist, dann kann das monatliche Mittel nicht NOCH genauer sein – es muss die gleiche Fehler-/Unsicherheits-Bandbreite aufweisen wie die Originalmessungen, aus denen das Mittel gebildet wird. Eine Mittelung erhöht nicht Genauigkeit oder Präzision.

(Es gibt eine Ausnahme: Falls man 1000 Messungen des Wassersiegels durchführt an der gleichen Stelle zur immer gleichen Zeit, dann würde die Mittelung die Genauigkeit zunehmen lassen für jenen Zeitpunkt an jener Stelle, werden doch dann Zufallsfehler zwischen den Messungen reduziert, jedoch keine systematischen Fehler).

In praktischer Hinsicht erhalten wir also Messungen des Lokalen Mittleren Meeresspiegels mit den neuesten Messgeräten, die auf ± 2 cm genau sind. Dies ist weit genauer als notwendig für die ursprüngliche Absicht der Anwendungen von Tidenmessgeräten – mit welchen das Niveau der Wasseroberfläche zu verschiedenen Zeitpunkten der Tide bestimmt werden sollte. Dies sollte die Sicherheit für Schiffe und andere Wasserfahrzeuge erhöhen in Häfen und Flüssen mit Tidenhub. Die zusätzliche Genauigkeit ist nützlich für wissenschaftliche Bemühungen, Gezeiten und deren Bewegungen, Timing, Größenordnung und so weiter besser zu verstehen.

Ich möchte aber noch einmal betonen, dass dies später bedeutsam werden wird oder wenn wir Betrachtungen über die Verwendung dieser Daten anstellen, um den Globalen Mittleren Meeresspiegel zu ermitteln aus Daten von Tidenmessgeräten, obwohl behauptet wird, dass Zahlen über den Lokalen Monatlichen Mittleren Meeresspiegel auf ± 5 Millimeter genau sind. In Wirklichkeit sind sie begrenzt auf die Genauigkeit von ± 2 cm der Original-Messungen.

Wovon ist die Änderung des Lokalen Relativen Meeresspiegels abhängig?

Die von der Tidenmessstation am Battery Park gemessenen Änderungen des Lokalen Relativen Mittleren Meeresspiegels könnten auch eine Folge der Bewegung des Festlandes und nicht der steigende Meeresspiegel sein. In Wirklichkeit ist am Battery Park beides der Fall: das Land sinkt etwas ab, das Meer steigt ein wenig. Beide Bewegungen addieren sich zu einem wahrgenommenen Anstieg des lokalen Meeresspiegels. Ich ziehe das Beispiel Battery Park heran, wie ich es schon vielfach in Beiträgen bei WUWT beschrieben habe. Insgesamt sinkt die Landmasse mit Battery Park mit etwa 1,3 mm pro Jahr, also etwa 6 cm während der letzten 50 Jahre. Im gleichen Zeitraum ist der Meeresspiegel tatsächlich gestiegen, und zwar um ca. 8 cm – was sich addiert zu einem vermeintlichen Anstieg des lokalen mittleren Meeresspiegels am Battery Park um ca. 15 cm von 1963 bis 2015. In einem Bericht aus dem Jahr 2010 steht Näheres dazu.

Dies gilt für alle Tidenmesspunkte in der Welt, welche direkt auf einer Landmasse stehen (aber nicht für die ARGO-Bojen zum Beispiel). Die offenbare Änderung des lokalen relativen MSL ist die arithmetische Kombination der Änderung des tatsächlichen Meeresspiegels plus der Änderung durch die vertikale Bewegung der Landmasse.

Wir wissen durch die sorgfältige Arbeit der NOAA, dass der Meeresspiegel nicht überall gleichmäßig steigt:

(Anmerkung: Das Bild zeigt aus Satellitendaten abgeleitete Raten der Änderung des Meeresspiegels)

…und dass die Meeresoberfläche nicht überall glatt ist:

Dieses Bild zeigt eine maximale Differenz der Meeresoberfläche um über 2 Meter – sie liegt sehr hoch bei Japan und sehr niedrig nahe der Antarktis mit einer ziemlichen Zerstückelung im Atlantik.

Das NGS CORS-Projekt ist ein Netzwerk von Continuously Operating Reference Stations (CORS), die sich allesamt auf dem Festland befinden und die Daten des Global Navigation Satellite System (GNSS) liefern als Unterstützung einer dreidimensionalen Positionierung. Es repräsentiert den goldenen Standard einer geodätischen Positionierung einschließlich der vertikalen Bewegung von Landmassen an jedem Messpunkt.

Um die Daten der Tidenmesspunkte für die Bestimmung des absoluten SLR (nicht den relativen lokalen SLR) nutzbar zu machen – also das tatsächliche Steigen des Meeresspiegels relativ zum Erdmittelpunkt – müssen die Daten mit zuverlässigen Daten der Vertikalbewegungen des Festlandes an der gleichen Stelle gekoppelt werden.

Wie wir am Beispiel Battery Park in New York gesehen haben, die mit einer CORS-Station gekoppelt ist, ist die vertikale Bewegung des Landes von gleicher Größenordnung wie die tatsächliche Änderung der Höhe der Meeresoberfläche. An einigen Stellen einer deutlichen Landabsenkung wie etwa der Chesapeake Bay in den USA übertrifft das Absinken den steigenden Meeresspiegel (mehr hier und hier). An einigen Stellen der Küste von Alaska scheint der Meeresspiegel zu sinken, weil sich das Land nach 6000 Jahren Eisschmelze stärker hebt als der Meeresspiegel steigt.

Wer verfolgt den globalen Meeresspiegel mit Tiden-Messgeräten?

Der Permanent Service for Mean Sea Level (PSMSL) ist für die Zusammenstellung, Veröffentlichung, Analyse und Interpretation der Meeresspiegel-Daten verantwortlich, und zwar seit dem Jahre 1933 vom globalen Netzwerk von Tiden-Messgeräten. Im Jahre 1985 wurde das Global Sea Level Observing System (GLOSS) ins Leben gerufen, ein gut aufgemachtes, den Meeresspiegel in situ vermessendes Beobachtungs-Netzwerk hoher Qualität, um eine breite Plattform für Forscher und Nutzer zu bieten. Nahezu jede Studie zum Thema globaler Meeresspiegel bediente sich der Tidendaten des PSMSL. Man beachte, dass diese Daten aus der Ära vor Satelliten stammen – die Messungen der PSMSL-Datenbasis sind in situ-Messungen direkt an der Stelle des Messpunktes. Sie sind nicht aus Produkten der Satelliten-Altimetrie abgeleitet.

Diese Darstellung der PSMSL-Daten hat positive und negative Implikationen. Auf der Haben-Seite steht, dass die Daten direkt gemessen wurden und nicht anfällig sind für irgendwelche Verschiebungen und Fehler wegen Alterung der Instrumente. Gemessen werden sehr zuverlässige und genaue Daten (bis ± 2 cm) des Relativen Meeresspiegels – welches die einzigen Daten von Relevanz sind für die damit befassten Behörden vor Ort.

Auf der Soll-Seite steht, dass die Tiden-Messpunkte auf Landmassen stehen, von denen man weiß, dass sie sich heben und senken (oder sich auch horizontal verschieben). Diese Bewegungen sind konstant, wenn auch langsam. Gründe für diese Bewegungen sind u. A. isostatischer Ausgleich nach einer Vereisung, Absinken durch Abpumpen von Grundwasser, Gas- und Ölförderung sowie die natürlichen Prozesse der Ansammlung und des Setzens von Erde in Flussdeltas. Auch die Plattentektonik spielt eine Rolle.

Damit die PSMSL-Daten überhaupt brauchbar sind für die Bestimmung des absoluten SLR, müssen sie ganz offensichtlich um die vertikalen Landbewegungen korrigiert werden. Allerdings war es mir nicht möglich, auf der Website der PSMSL festzustellen, ob diese Korrekturen wirklich angebracht worden sind. Also sandte ich an PSMSL eine direkte E-Mail mit dieser einfachen Frage: Sind die PSMSL-Daten explizit korrigiert, um vertikalen Landbewegungen Rechnung zu tragen?

Die Antwort:

Die PSMSL-Daten werden zugeliefert bzw. heruntergeladen aus vielen Datenquellen. Darum lautet die kurze Antwort auf Ihre Frage: Nein. Allerdings fordern wir wo immer möglich, die PSMSL-Daten mit relevanten Abgleichungs-Informationen zu liefern, so dass wir die Stabilität des Messgerätes überwachen können“.

Man beachte: „Leveling“ bezieht sich nicht auf vertikale Landbewegungen, sondern auf den Versuch sicherzustellen, dass das Messgerät vertikal konstant bleibt hinsichtlich des assoziierten geodätischen Eckpunktes.

Falls die PSMSL-Daten korrigiert werden würden, um vertikalen Landbewegungen an dieser Stelle Rechnung zu tragen, dann könnten wir Änderungen der tatsächlichen oder absoluten Meeresoberfläche bestimmen, um damit dann etwas zu bestimmen, was man als wissenschaftliche Wiedergabe der Änderung des Globalen Meeresspiegels betrachten könnte. Ein derartiger Prozess würde sich komplizieren durch die Realität der geographisch unebenen Wasseroberfläche, geographischen Gebieten mit Änderungen mit entgegen gesetztem Vorzeichen und ungleichen Raten der Änderung. Unglücklicherweise kommen die PSMSL-Daten derzeit unkorrigiert daher, und nur sehr wenige (kaum mehr als eine Handvoll) Messpunkte sind assoziiert mit ununterbrochen operierenden GPS-Stationen.

Was all das bedeutet

Zusammengefasst lassen sich die in diesem Beitrag behandelten Punkte auf einige einfache Fakten bringen:

1. Die Daten von Tiden-Messgeräten sind unschätzbar für örtliche Gegebenheiten für die Bestimmung des Zustandes, der Meeresoberfläche relativ zum Festland und der Rate der Änderungen der Meeresoberfläche. Es sind die einzigen Daten zum Meeresspiegel, die für die lokale Bevölkerung von Belang sind. Allerdings sind diese Daten nur auf ±2 cm genau, das gilt sogar für die besten Stationsdaten des GLOSS-Netzwerkes. Alle aus diesen Daten abgeleiteten Mittelwerte, darunter tägliche, monatliche und jährliche Mittelwerte sind ebenfalls nur auf ±2 cm genau. Behauptungen einer Millimeter-Genauigkeit von Mittelwerten sind unwissenschaftlich und nicht zu unterstützen.

2. Die Daten von Tiden-Messgeräten sind wertlos zur Bestimmung des Globalen Meeresspiegels und/oder dessen Änderung, solange sie nicht explizit korrigiert worden sind hinsichtlich vertikaler Bewegungen des Festlandes, wie es bei den wenigen GPS-Referenzstationen der Fall ist. Da der gegenwärtige Standard der Daten von Tiden-Messgeräten, also PSMSL GLOSS, in dieser Hinsicht nicht korrigiert ist, beruhen die Ergebnisse aller Studien auf der Grundlage dieser unkorrigierten PSML-Daten zum Thema globaler SLR – Größenordnung oder Änderungsrate – auf nicht für diesen Zweck geeigneten Daten und können uns nicht zuverlässig Aufschluss geben über den Globalen Meeresspiegel und dessen Änderung.

Link: https://wattsupwiththat.com/2017/10/07/sea-level-rise-and-fall-part-2-tide-gauges/

Übersetzt von Chris Frey EIKE




Diesel-Verteu­felung: Krieg gegen das eigene Volk Diesel: Die Lücken­medien im Glashaus (6)

In den bisherigen Teilen dieses Aufsatzes wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten auf im Prinzip unbedeutende Werte zurückgegangen ist. Wichtiger Grund hierfür ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Auch wurde aufgedeckt, wie fragwürdig die Messmethoden sind und welche Tricks und Manipulationen zum Einsatz kommen. Im dritten Teil wurden die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie die offensichtliche Parteilichkeit sowohl der öffentlich-rechtlichen Medien als auch industriefeindlicher Behörden behandelt. Im vierten Teil wurde festgestellt, dass das Auto auch in der Stadt der Zukunft unverzichtbar bleibt und Elektromobilität zurzeit nicht realisierbar ist. Außerdem wurden Widersprüche in den Aussagen des Umweltbundesamtes beleuchtet und anrüchige Querverbindungen zwischen der Deutschen Umwelthilfe sowie Ministerien und Behörden aufgedeckt. Im fünften Teil wurde gezeigt, dass an der angeblichen Gesundheitsgefährdung selbst durch geringste NO2-Konzentrationen nichts dran ist und die Horror-Stories über zigtausende Tote durch Dieselabgase nicht wissenschaftlich fundiert sind. Zahlreiche Studien basieren sogar auf gefälschten Zahlenwerten. Die jetzt folgenden Teile untersuchen grobe Mängel bei den Studien, mit denen behauptete Gesundheitsgefahren von Stickoxiden „belegt“ werden sollen.

Auch unter Gleichen sind nicht alle gleich

Um Manipulationen mit Zahlen über angebliche „Todesfälle durch Stickstoffdioxid“ entgegentreten zu können, muss man sich zunächst ein wenig mit der Ermittlung von Lebenserwartungen beschäftigen. Die Bevölkerung ist kein einheitlicher Block identischer Individuen, die allesamt ein gesundes Leben bis zum Todestag führen und dann friedlich und ohne Leid entschlafen. Jeder Mensch ist unterschiedlich, zudem besteht die Gesellschaft aus unterschiedlichen Gruppen, die sich bezüglich Lebenserwartung, Gesundheitszustand, Lebensstil, Wohnort, Einkommen etc. von anderen Gruppen unterscheiden. Statistisch gesicherte Aussagen sind daher nur möglich, wenn man möglichst große und zugleich in sich einheitliche Gruppen selektiert und versucht, diese mithilfe statistischer Verfahren zu charakterisieren. Am bekanntesten ist sicherlich die Tatsache, dass Frauen in Deutschland durchschnittlich fast fünf Jahre älter werden als Männer. Es gibt jedoch noch viele weitere Einflussfaktoren. So scheint vordergründig der Wohnort erheblichen Einfluss auf die Lebenserwartung der jeweiligen Einwohner zu haben, Bild 2.

Bild 2. Unterschiede in der Lebenserwartung von neugeborenen Jungen und Mädchen in den verschiedenen Regionen Deutschlands (Grafik: [BBSR])
Die Unterschiede sind wesentlich größer als man als Laie erwarten würde: So haben neu geborene Jungen in Pirmasens (73,6 Jahre), Emden (74,1 Jahre) und Eisenach (74,3 Jahre) die geringste Lebenserwartung. Mit einem besonders langen Leben können dagegen Mädchen im Kreis Breisgau-Hochschwarzwald (85,0 Jahre), Dresden (84,9 Jahre) und München (84,8 Jahre) rechnen. Ein in Pirmasens geborener Junge stirbt demnach im Mittel mehr als elf Jahre vor einem zum gleichen Zeitpunkt im Breisgau zur Welt gekommenen Mädchen. Anders ausgedrückt liegt dessen Lebenserwartung um mehr als 15 % über der des Jungen.

Natürlich interessiert angesichts dieser doch recht erheblichen Unterschiede die Frage nach den Ursachen für diese regionalen Unterschiede. Der Blick auf Bild 2 zeigt sofort, dass Luftverschmutzung als Ursache ausscheidet, denn die kürzesten Lebenserwartungen findet man häufig in ländlichen Regionen mit wenig Industrie, mit einem deutlichen Schwerpunkt in den neuen Bundesländern. Umgekehrt leben die Menschen dort am längsten, wo die Luft, wenn man den Panikmachern der „Umwelt“-Verbände und ihren Verbündeten in Parteien, Ministerien und Medien Glauben schenken darf, am schmutzigsten und giftigsten ist, nämlich in Großstädten wie Stuttgart, München oder Frankfurt, Bild 3.

Bild 3. Entwicklung der Lebenserwartung von Einwohnern verschiedener deutscher Großstädte sowie für Deutschland insgesamt für die Geburtsjahrgänge 1995 und 2010 (Daten: [LEBE], Statista)
Der Blick auf Bild 3 offenbart zweierlei: Zum einen gibt es kein Absinken, sondern sogar einen erheblichen Anstieg der Lebenserwartung mit höherer Schadstoffbelastung der Luft. Die Lebenserwartung hat gerade in den Ballungszentren in den letzten Jahrzehnten noch stetig weiter zugenommen, obwohl uns die Presse und Herr Resch von der Deutschen Umwelthilfe (DUH) mitsamt seinen grünen Gesinnungsgenossen pausenlos einzureden versuchen, dass wir uns und unsere Kinder einem frühen Tod ausliefern, wenn wir nicht schnellstens unsere Autoindustrie vor die Wand fahren. Zum zweiten kann man daraus lernen, dass bei der Aufstellung von Statistiken Sorgfalt die erste Wissenschaftlerpflicht sein sollte. Rein mathematisch könnte man beispielsweise aus der Statistik herauslesen, dass gute Landluft schlecht für die Gesundheit ist und Abgase dagegen das Nonplusultra. Dass dies Unsinn ist, kann man den Zahlen selbst nicht entnehmen: Dazu muss man den gesunden Menschenverstand hinzuziehen, und hieran scheint es dem einen oder anderen Professor aus dem Lager der Epidemiologen etwas zu mangeln.

Um nicht falsch verstanden zu werden: Abgase fördern sicherlich nicht die Gesundheit, und ihre Reduzierung ist eine Aufgabe, die den Schweiß des Edlen wert ist. Hier sollte man den Hut vor dem ziehen, was die Entwickler der Automobilbranche in den letzten Jahren vollbracht haben, statt sie als Scharlatane und Betrüger darzustellen. Der Gegensatz von Bild 2 und Bild 3 beweist eindeutig, dass die Verhältnisse wesentlich komplizierter sind, als dies von den Medien dargestellt wird. Bei Studien über die Auswirkungen von Abgasen muss man daher sehr sorgfältig aufpassen, um nicht Äpfel und Birnen miteinander zu vergleichen und zu Pseudo-Zusammenhängen zu kommen.

Wer arm ist, stirbt früher…

Die Ursache für die unterschiedlichen Lebenserwartungen, die Bild 2 zeigt, ist schon sehr lange bekannt: Es ist die soziale Stellung der Betreffenden, charakterisiert durch z.B. Einkommen, Beschäftigungssituation, Lebensstil und Gesundheitsvorsorge. Der zusammenfassende Begriff hierfür lautet „sozioökonomische Faktoren“. Diese sind die mit Abstand wichtigsten Einflussgrößen auf die Lebenserwartung. Wirtschaftliches Wohlergehen und soziale Stellung sind eng miteinander verknüpft. Das trifft nicht nur auf Individuen zu, sondern auch auf der Ebene größerer Bevölkerungsgruppen. Eine schlechte wirtschaftliche Lage wirkt sich stark nachteilig auf Gesundheit und Lebensdauer aus. Dies ist beispielsweise in Pirmasens der Fall, das in seiner wirtschaftlichen Entwicklung deutlich hinterherhinkt. Gleiches gilt auch für das Ruhrgebiet sowie für viele Regionen in den neuen Bundesländern. Kurz gesagt: Wer arm ist, stirbt früher. Fachleute in zuständigen Stellen wie Sozial- und Gesundheitsämtern, Krankenkassen usw. wissen darum. So schreibt das Bundesinstitut für Bau-, Stadt- und Raumforschung: „Analysen des BBSR zeigen jedoch, dass sich die Lebenserwartung regional ähnlich verteilt wie die Bildungschancen, die qualifizierte Beschäftigung sowie ökonomische Belastungen und soziale Benachteiligung. Die Lebenserwartung ist in den Regionen höher, in denen der Anteil sozial und ökonomisch schwacher Bevölkerungsgruppen gering und der Arbeitsmarkt günstig und attraktiv für hoch qualifizierte und kreative Arbeitnehmer ist. Dieser Zusammenhang ist bei Männern deutlicher ausgeprägt als bei Frauen [BBSR]“. Warnend wird allerdings hinzugefügt, dass sich diese Zusammenhänge kleinräumig – auf Stadt- oder Kreisebene – nicht leicht ermitteln lassen: Dafür seien die Einflüsse auf die Lebenserwartung zu komplex und die regionalstatistischen Daten zu begrenzt. Im weiteren Verlauf dieses Beitrags wird noch deutlich werden, dass viele Verfasser epidemiologischer Studien diesbezügliche Hinweise entweder nicht verstanden oder nicht ernst genug genommen haben.

Die Wirkung dieser sozioökonomischen Faktoren im Zusammenhang mit der Arbeitsplatzsituation ist vielfach belegt, Bild 4, Bild 5 und Tabelle 1.

Bild 4. Gesundheitszustand von Männern in Abhängigkeit vom Beschäftigungsverhältnis (Grafik: [ARB])
Bild 5. Besonders erschreckend ist die starke Zunahme der Sterblichkeit bei lang dauernder Arbeitslosigkeit (Grafik: [ARB])
Tabelle 1. Lebenserwartung in Abhängigkeit vom Einkommen (Daten: [GBE])
Die Grafiken sowie die Tabelle zeigen anschaulich, dass vor allem Männer mit geringem Einkommen oder prekärer bis gar keiner Beschäftigung einen deutlich schlechteren Gesundheitszustand haben und bis zu mehr als 10 Jahre früher sterben als ihre Geschlechtsgenossen mit einem höheren sozioökonomischen Status. Würde man dies mit den Methoden quantifizieren, die bei manchen epidemiologischen Studien zur Beurteilung von Abgasen angewandt werden, so käme man voraussichtlich zu dem Schluss, dass Armut in Deutschland jährlich Millionen Tote verursacht. Das traut sich natürlich niemand zu sagen. Zunächst stellt sich jedoch die Frage, wie es denn überhaupt zu diesen drastischen Unterschieden bei Gesundheit und Lebenserwartung kommt.

lebt ungesünder…

Auch dieser Frage wurde natürlich schon seit langem sehr akribisch nachgegangen. Die Antworten sind eindeutig: Menschen mit schlechterem sozioökonomischem Status leben ungesünder, treiben weniger Sport und gehen seltener und später (d.h. wenn eine Erkrankung schon weit fortgeschritten ist) zum Arzt als diejenigen, die einen höheren Status haben. Auch hierzu gibt es zahlreiche statistische Unterlagen, Bild 6 und Tabelle 2.

Bild 6. Bei langzeitarbeitslosen Männern über 45 ist die Raucherquote mehr als doppelt so hoch wie bei Gleichaltrigen mit sicherer Beschäftigung (Grafik: [GESU])
Tabelle 2. Menschen mit niedrigerem sozialem Status verhalten sich deutlich weniger gesundheitsbewusst (Adipositas = Fettleibigkeit) (Daten: [GESU])
Die Gründe liegen einerseits in teils deutlich ungesünderer Lebensführung wie Rauchen, Bewegungsmangel, ungesunde Ernährung oder Alkoholkonsum sowie geringerer Bereitschaft, bei Beschwerden ärztlichen Rat einzuholen. Zudem informieren sich diese Personengruppen weniger über Gesundheitsgefahren und werden auch vom eigenen Umfeld wie Familie und Bekanntenkreis weniger zu gesundheitsförderlichem Verhalten angeregt.

und ist entsprechend kränker

Erwartungsgemäß wirkt sich diese Lebensweise entsprechend nachteilig auf die Gesundheit aus, wobei bestimmte Krankheitsbilder mit besonderer Häufigkeit auftreten. So berichtet z.B. die „Welt“, dass Mecklenburg-Vorpommern – eines der ärmsten Bundesländer – mit 9,6 % die zweithöchste Arbeitslosigkeit aufweist. Zugleich belegt das Land bei gleich fünf Krankheiten, darunter Diabetes, Asthma und Leberschäden, den schlechtesten Platz in der Statistik [WELT]. Eine qualitative Übersicht über die gerade bei Menschen aus unteren sozialen Schichten besonders häufig auftretenden Krankheitsbilder zeigt Tabelle 3.

Tabelle 3. Bei Menschen mit niedrigem Einkommen ist das Risiko für bestimmte Erkrankungen teils deutlich höher (Quelle: [GBE])
Betrachtet man mit diesem Wissen jetzt noch einmal die Karte (Bild 2) mit den regionalen Unterschieden der Lebenserwartungen, so versteht man, warum es nicht die Luftqualität ist, welche zu krassen Unterschieden der Lebenserwartung führt, sondern in erster Linie der Unterschied in der Prosperität und damit im sozialen Status erheblicher Teile der Bevölkerung. Der ungesündere Lebensstil der sozial schwächeren Schichten hat eine markante Häufung ganz bestimmter Krankheitsbilder zur Folge, welche zu einem früheren Tod führen. Dazu gehören auf den deutlich höheren Tabakkonsum zurückzuführende Krebsarten wie Lungen- und Darmkrebs, aber auch Diabetes und Tuberkulose sowie Herz-Kreislauf-Erkrankungen [RAUCH]. Hinzu kommen noch chronische Bronchitis, chronische Lebererkrankungen sowie Bluthochdruck mit allen damit verknüpften Risiken wie Schlaganfällen und Herzinfarkt.

Bild 7. Entlang stark befahrener Straßen bilden sich schmale Linienghettos (Foto: Pixabay)

Linienghettos entlang der Hauptverkehrswege

Bereits in früheren Folgen dieser Untersuchung wurde darauf hingewiesen, dass sich in großen Städten entlang der stark befahrenen Hauptverkehrsstraßen ein deutliches soziales Gefälle ausbildet. Dies betrifft insbesondere Wohnbebauungen, wo Häuser in mehrstöckiger geschlossener Front ohne Vorgärten direkt an der Straße stehen, so dass eine mehr oder weniger ausgeprägte „Straßenschlucht“ vorliegt. Hier ist die Wahrscheinlichkeit sehr groß, dass sich mehr oder weniger ausgeprägte „Linienghettos“ speziell entlang der am stärksten befahrenen Straßen ausbilden, in denen sich bevorzugt Menschen aus unteren sozialen Schichten ansiedeln. Grund hierfür ist die starke Beeinträchtigung des Wohnumfelds u.a. durch Verkehrslärm, Gerüche und die geringe Attraktivität von Ausblick und Umgebung. In Abhängigkeit von der Entfernung des Wohnorts zur Hauptverkehrsader wird man dann markante Zunahmen insbesondere der Krankheiten finden, die in der obigen Aufzählung enthalten sind.

Stellt man dem jetzt die Liste der Erkrankungen gegenüber, die von Epidemiologen dem NO2 zugeschrieben werden, so entdeckt man wesentliche Übereinstimmungen, Tabelle 4.

Tabelle 4. Auslösende Faktoren von typischerweise häufiger auftretenden Erkrankungen bei sozial schwächeren Bevölkerungsgruppen im Vergleich zu den von Epidemiologen behaupteten Folgen selbst geringer Gehalte von NO2 in der Atemluft (Angaben: [GBE], [HOSHO])

Um besser verstehen zu können, warum die in Tabelle 4 aufgeführten Angaben der Epidemiologen Mißtrauen erwecken sollten, muss man zunächst wissen, dass sich mögliche nachteilige Wirkungen von NO2 ausschließlich auf die Lunge beschränken. Bei der Absorption in der Lunge wird das NO2 über Zwischenstufen in Nitrat umgewandelt und mit dem Blut abtransportiert. Die dabei gebildete Nitratmenge ist zwar nachweisbar, fällt jedoch gegenüber derjenigen, die mit der Nahrung aufgenommen wird, kaum ins Gewicht [STICK]. Es gibt deshalb keinerlei Wirkzusammenhang, der eine Schädigung solcher Organe wie Herz, Adern, Leber oder Bauchspeicheldrüse (Diabetes) etc. durch NO2 erklären könnte. Auch Lungenkrebs kann nach bisherigem Kenntnisstand der Toxikologie nicht auf eine Belastung mit NO2 zurückgeführt werden. Deshalb ist NO2 in der offiziellen Liste krebserregender Substanzen gar nicht erst aufgeführt [TRGS]. Epidemiologische Untersuchungen, die NO2 mit Lungenkrebs in Verbindung bringen, sind daher eher unglaubwürdig.

NO2 wird zum Universal-Sündenbock gemacht

Eine Erklärung dafür, wieso bei vielen epidemiologischen Studien Effekte „gefunden“ werden, die toxikologisch nicht erklärbar sind, liefert ein Beitrag aus dem Tropen- und Public-Health-Institut der Schweiz. Dieses Institut arbeitet eng mit der WHO zusammen und berät sowohl die Schweizer Regierung als auch die EU. Dieses tritt auch als Sprachrohr der automobil-und dieselfeindlichen Kräfte in Deutschland auf [SMCE]. In der von seinem Institut erstellten Studie findet sich eine äußerst aufschlussreiche Passage: „Wichtige Erkenntnisse zur Beurteilung gesundheitlicher Wirkungen von Schadstoffen auf die Bevölkerung stammen aus epidemiologischen Studien[….]Dabei muss beachtet werden, dass die statistischen Zusammenhänge, welche zwischen Gesundheitsgrössen und Schadstoffbelastungen gefunden werden, isoliert kaum Aussagen über ursächliche Beziehungen zulassen[…..]Gefundene Zusammenhänge mit einem Schadstoff können daher ein Hinweis sein auf direkte (kausale) Wirkungen oder sie stehen stellvertretend für Schadstoffe, welche die gleiche Quelle haben und mit ihm korrelieren. Oftmals sind NO oder NO2 Indikatoren für das verkehrsbedingte Schadstoffgemisch. In diesem Sinne ist NO2 auch als Leitschadstoff in der Luftreinhalteverordnung reguliert“ [LUDOK]. Auf gut Deutsch gesagt: Wenn man die Wirkung von z.B. karzinogenen Luftschadstoffen aus älteren Benzinern statistisch nicht von derjenigen des NO2 aus Dieseln unterscheiden kann, schiebt man alle Wirkungen der anderen Schadstoffe dem NO2 in die Schuhe. In der EPA-„Bibel“ [EPA2] ist immer wieder der Satz „Effect of NO2 independent from traffic-related copollutants is uncertain….“ zu finden. Mehr ist dazu nicht zu sagen. Als Begründung für eine Kampagne, die darauf abzielt, eine deutsche Spitzenbranche zu vernichten, ist das eigentlich recht dünn.

Die Zweifelhaftigkeit vieler epidemiologischer Studien…

Zählt man Zwei und Zwei zusammen, so ergibt sich ein sehr begründeter Verdacht: Bei epidemiologischen Studien zum NO2, welche als Hauptkriterium die räumliche Entfernung zu stark frequentierten Straßen verwendet haben, ist die eigentlich unbedingt erforderliche Trennschärfe zwischen den unterschiedlichen Belastungsfaktoren nicht gegeben. Vielfach hat man es weder geschafft, die wichtigen sozioökonomischen Faktoren aus der Statistik herauszufiltern, noch die Wirkung der unterschiedlichen Schadstoffe sauber voneinander zu trennen. Vermutlich liegt dies daran, dass man diese Aspekte schon bei der Auswahl der jeweils untersuchten Gruppe sowie bei der Art der vorgenommenen Messungen nicht ausreichend beachtet hat. In diesem Fall ist es unwahrscheinlich, dass diese Studien selbst bei Neubearbeitung überhaupt belastbare Ergebnisse liefern können. Zweifelhaft sind generell alle Untersuchungen, die angeblich Auswirkungen von NO2 auf innere Organe festgestellt haben. Diese sollte man grundsätzlich mit einem Fragezeichen versehen und einer eingehenden und kritischen Nachprüfung bezüglich Methodik und Sauberkeit der Selektionskriterien der Probanden unterziehen. Auch bei den dann noch übrig bleibenden Arbeiten ist eine genaue Überprüfung empfehlenswert, was die Erfassung und korrekte Berücksichtigung sozioökonomischer Hintergrundinformationen der untersuchten Personengruppen angeht. Und last but not least sind geographische Aspekte zu beachten. Untersuchungen in der Luftschadstoff-Hölle vieler Millionenmetropolen der 2. und 3. Welt voller Abgasschwaden von zweitaktgetriebenen Tuk-Tuks wie in Indien oder mit Kraftwerkssmogverhältnissen wie in Beijing lassen sich nicht zwanglos auf mitteleuropäische Verhältnisse übertragen. Auch in Europa oder den USA durchgeführte Analysen älteren Datums können vermutlich nur in begrenztem Umfang herangezogen werden, da die Zusammensetzung der Abgase heutzutage nicht mehr die gleiche ist wie vor 10 oder gar 20 Jahren.

betrifft auch die daraus zusammengestellten „Bibeln“ von WHO und EPA

Aus den gleichen Gründen ist sicherlich auch ein Großteil der diversen Metaanalysen zum Thema nur bedingt vertrauenswürdig. In der Regel beziehen sich die Verfechter von Dieselverboten auf zwei Kompendien, in denen der „Stand der Wissenschaft“ bezüglich der Gefährdung der menschlichen Gesundheit durch NO2 zusammengeführt sein soll: Die Studien der WHO sowie der US-amerikanischen EPA [WHO2], [EPA2]. Beide Werke stützen sich jedoch bei ihren Schlussfolgerungen auf zahlreiche Arbeiten, die im Lichte der hier dargelegten Erkenntnisse nur als bedingt tauglich eingestuft werden können. So findet sich in der WHO-Studie beispielsweise eine Untersuchung mit 1,26 Mio. Teilnehmern in Rom (Cesaroni et al., 2013), bei der nicht einmal das Rauchverhalten der Probanden systematisch erfasst, sondern geschätzt wurde. Die 1148 Seiten dicke EPA-Studie führt gerade einmal 13 Untersuchungen mit einigermaßen realistischen Zielsetzungen auf, bei denen sozioökonomische Faktoren einbezogen wurden. Auch dürften nach aktuellem Stand der Erkenntnisse sogar direkt gefälschte Daten eingeflossen sein [DUKE]. Von daher sind auch bezüglich der Fundiertheit der in beiden Dokumenten getroffenen Schlussfolgerungen Zweifel geboten. Als nicht mehr verhandelbare „settled Science“ sind sie nicht glaubwürdig. In den nächsten Folgen werden noch andere methodische Fehler thematisiert, welche die Glaubwürdigkeit zahlreicher weiterer epidemiologischer Studien erschüttern dürften.

Fakten und „Faktenfinder“

Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichtet. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie bestimmte Bundesbehörden sowie die etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Medien, Journalisten oder Bloggern werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Die Vernichtung der deutschen Automobilindustrie wird anschließend auch beim Benziner weitergehen, und zwar alternativlos.

Fred F. Mueller

Demnächst folgt Teil 7

Quellen

[ARB] Gesundheitsberichterstattung des Bundes Heft 13 Arbeitslosigkeit und Gesundheit. Robert Koch Institut

[BBSR] http://www.bbsr.bund.de/BBSR/DE/Home/Topthemen/lebenserwartung.html

[DUKE] http://dailycaller.com/2017/07/03/epa-funded-research-lab-accused-of-fabricating-data-on-respiratory-illnesses/

[EPA2] U.S. EPA (2016): Integrated Science Assessment for Oxides of Nitrogen –Health Criteria. Final Report.

https://cfpub.epa.gov/ncea/isa/recordisplay.cfm?deid=310879

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html

[GBE] GBE Kompakt 5/2010, Zahlen und Trends aus der Gesundheitsberichterstattung des Bundes, Robert Koch Institut

[GESU] https://www.lzg.nrw.de/ges_foerd/ges_chanc_gl/arbeitslosigkeit_gesundheit/gesundheitsverhalten/index.html

[HOSHO] https://www.uni-duesseldorf.de/home/fileadmin/redaktion/Oeffentliche_Medien/Presse/Pressemeldungen/Dokumente/Kurzstellungnahme_Experten_Umweltepidemiologie.pdf

[LEBE] http://www.lebenserwartung.info/index-Dateien/ledeu.htm

[LUDOK] Kutlar Joss M, Dyntar D, Rapp R: Gesundheitliche Wirkungen der NO2-Belastung auf den Menschen: Synthese der neueren Literatur auf Grundlage des WHO-REVIHAAP Berichts. Basel

[RAUCH] https://www.krebsgesellschaft.de/onko-internetportal/basis-informationen-krebs/bewusst-leben/rauchen-zahlen-und-fakten.html

[SMCE] https://www.sciencemediacenter.de/alle-angebote/rapid-reaction/details/news/diesel-skandal-wissenschaftler-widersprechen-schlussfolgerungen-der-abgeordneten-zu-gesundheitlich/

[STICK] Bundesgesundheitsblatt 1/98, S. 9-12.

[TRGS] Technische Regeln für Gefahrstoffe, Verzeichnis krebserzeugender, erbgutverändernder oder fortpflanzungsgefährdender Stoffe, TRGS 905.

[WELT] https://www.welt.de/gesundheit/article144337205/So-krank-ist-Deutschland.html

[WHO2] WHO (2013): Review of evidence on health aspects of air pollution – REVIHAAP Project, Technical Report




Trump beendet Umweltregulierungen, während Deutschland sich für das Klimaziel verstümmelt

Die grünen Aktivisten scheinen zu ignorieren, was in Europa passiert, wo deutsche Beamte eingestanden haben, dass sie ihrem Klimaziel nirgendwo nahe kommen, obwohl sie 800 Milliarden Dollar für grüne Energie ausgegeben haben.

Deutschlands Energieministerium warnte, dass das Land auch das Ziel verfehlen kann, die Treibhausgas – Emissionen bis 2020 um 40 Prozent unter das Niveau von 1990 zu drücken. Das Ministerium sagte, das Land wird die Emissionen nur um etwa 31,7-32,5 Prozent reduzieren, nach einem Bericht von Clean Energy Wire.

Das Scheitern könnte ein „bedeutender Schlag für die deutsche Klimapolitik“ und „eine Katastrophe für Deutschlands internationale Reputation als Klimaführer“ sein, warnten die Behörden.

Nachrichten über Deutschlands Probleme mit der globalen Erwärmungspolitik kamen, als die Trumpf-Regierung anfingt, den Clean Power Plan (CPP) aufzuheben, eine Verordnung der Umweltschutzbehörde (EPA), um Kohlendioxidemissionen von Kraftwerken zu begrenzen.

Die Obama-Regierung hat den CPP in 2015 abgeschlossen und Präsident Barack Obama plante, die Regulierung zu nutzen, um die US-Emissionen gemäß dem Pariser Klimaabkommen zu senken.

Umweltaktivisten kritisierten Trumps jüngste Entscheidung, den CPP aufzuheben, doch Deutschlands Erfahrungen mit der bundesweiten Klimapolitik sollten den Aktivisten eine Atempause geben.

Die Energieprobleme Deutschlands gehen noch weiter. Die New York Times berichtete am Samstag [08, dass Deutschlands grüne Energiewende ein „De-facto-Klassensystem“ geschaffen habe, bei dem „eine Gruppe von Nichtmitgliedern durch höhere Stromrechnungen die Installation von Solarzellen und Windkraftanlagen anderer Investoren subventionieren“.

Lukrative Subventionen für Solar- und Windkraft haben das Wachstum von Green-Energy-Projekten in ganz Deutschland angeheizt, aber auch die Strompreise stiegen auf etwa das Dreifache, was der Durchschnittsamerikaner zahlt. Die Heizung ist so teuer, dass sie “ die zweite Miete “ genannt wird.

Der Großteil des Preisanstiegs geht auf die Steuern und Steuern auf Abgaben zurück, die auf die Energie und dazu auf Nebenkosten für den Anschluss und die Ausregelung der Erneuerbaren Elektrizität aufgeschlagen sind. Große Industrieunternehmen sind davon zum Teil befreit. Die Times berichtete: „Die Emissionen sind auf einem Niveau von etwa 2009 und sind im vergangenen Jahr weiter gestiegen, da Kohlekraftwerke die Lücke füllen, die die Entscheidung Deutschlands, die Kernkraft abzuschalten, hinterlassen hat“.

Steigende Energiepreise und keine Erreichung der gesteckten Ziele hatten auch politische Konsequenzen. Die Times berichtete, dass die rechtgerichtete Partei AfD – Alternative für Deutschland, bei den jüngsten Wahlen zum Parlament genügend Unterstützung erhalten hat. Die AfD fordert einen“ sofortigen Austritt „von der Energiewende.

Erschienen auf Tha Daliy Caller am 12.10.2017

Übersetzt durch Andreas Demmig

http://dailycaller.com/2017/10/12/trump-terminates-epa-regs-as-germanys-global-warming-scheme-runs-into-trouble/

 

Ergänzung durch Clean Energy Wire

Deutschland wird die Klimaziele weit verfehlen, warnt das Umweltministerium

….

Die meisten Experten glauben, dass in Deutschland nur die eine Möglichkeit hat, seine Emissionen drastisch zu senken, indem es kurzfristig seine schmutzigsten Braunkohlekraftwerke schließt. Dies ist einer der Hauptpunkte der Grünen bei den kommenden Koalitionsgesprächen mit Merkels Konservativen und der FDP.

„Das 40-Prozent-Ziel ist nur erreichbar mit weniger Kohleverstromung“  sagte Umweltministerin Barbara Hendricks in einer Erklärung. „Wir haben einen so großen Stromüberschuss, dass unser Energiesystem einen großen Schritt in Richtung einer kohlefreien Versorgung nehmen kann.“

….




Zu einigen Irrtümern der offiziellen Klimawissenschaft

Zunächst einmal: Wir alle haben Sinnesorgane für Wetterphänomene. Wir fühlen ob es warm oder kalt, nass oder feucht oder gar trocken ist. Wir können den Wind fühlen, oder auch ob es ein Sturm ist. Kurz, für die Wetterwahrnehmung sind wir auf beste ausgestattet, was auch unserem erfolgreichen Überleben in einer rauen, sich ständig ändernden Umwelt ein großer Vorteil ist. Der olle Darwin hatte auch hier recht: Survival oft the fittest!

Also haben alle Sinnesorgane für Wetterphänomene, doch keiner hat eines für das Klima. Damit hat uns die Natur nicht ausgestattet. Und deswegen wird fast immer Wetter mit Klima verwechselt. Was Wetter ist, weiß also jeder,. Und das erklärt auch, warum wir so bereitwillig glauben, dass die „Extremwetter“ dank des Klimawandels“ zugenommen hätten. Aber das stimmt nicht! Wir haben aber eben ein Gefühl für Wetter und glauben daher das einschätzen zu können.

Und es dürfte auch nach der offiziellen Treibhaushypothese gar nicht so sein. Denn nach dieser Hypothese erwärmen sich die polaren Gebiete stärker als die Tropen. Was bedeuten würde, dass die Temperaturunterschiede kleiner werden müssten. Die sind aber die Hauptantriebe für unser Wetter, auch für Extremwetter. Je größer, desto mehr Extremwetter. Doch da sie laut Hypothese kleiner werden sollen –würden auch die Antriebskräfte des Wetters schwächer = weniger Wetterextreme. Das weiß auch das IPCC . Denn, sowohl vom IPCC, als auch in der meteorologischen Fachliteratur ist das bis heute gültige Statement zu finden, welches sinngemäß lautet:

Es konnten keine Zunahmen in Stürmen, Hurrikanen, Extremniederschlägen, Dürren usw. aufgefunden werden, oft fand man sogar Abnahmen[1]. Die Entwarnung ist absolut eindeutig, maßgebende Veränderungen von Extremereignissen über 30 Jahre gibt es nicht, und ein Einfluss des Menschen ist schon gar nicht auffindbar.

Eine weitere Behauptung betrifft die Meeresspiegel: Richtig ist; Sie steigen seit der letzten Eiszeit an. Die Anstiegsgeschwindigkeit wird aber immer kleiner. Seit vielen Jahrhunderten liegt sie bei grob 1 bis 2 mm pro Jahr, ein zivilisatorisch völlig unkritischer Wert. Belege dafür sind viele tausend Pegelmessungen, in jüngerer Zeit auch Satellitenwerte.

Kommen wir zu den Alpen-Gletschern: In der überwiegenden Zeit der letzten 10.000 Jahre waren die Alpengletscher nachgewiesen kleiner als heute. Das erneute Schmelzen der Alpengletscher nach der langen Kaltzeit des 17./18. JH begann bereits Mitte des 19. Jahrhunderts, als es noch gar kein nennenswertes menschgemachtes CO2 gab. Die Eismassen außerhalb beider Polarzonen, dazu zählen u.a. die Alpen, umfassen im übrigen nur 2% des globalen Gesamteises. Generell gilt, auf der Nordhalbkugel wird es zur Zeit leicht wärmer, auf der Südhalbkugel dagegen leicht kälter. Daher schmilzt der grönländische Eispanzer ein wenig und das Eis am Südpol nimmt zu. Die Wissenschaft spricht von einer Klimaschaukel. Warum das CO2 sich diese merkwürdige – und der Treibhaushypothese völlig widersprechenden- Verteilung aussuchen sollte, bleibt eines der vielen ungelösten Rätsel dieser Hypothese.

All das – und das wird oft übersehen- sind jedoch übliche Wetter- und/oder Klimaphänomene. Allein ihre Existenz belegt überhaupt nicht, dass sie in irgendeiner Weise mit dem Anstieg der durch den Menschen verursachten CO2 Emission ursächlich verknüpft sind. Aber so wird es uns verkauft.

Doch was ist Klima? Klima ist ein künstlich erschaffener, nur statistisch ermittelbarer Begriff, und ist definiert als langjähriger Mittelwert lokaler Wetterdaten (also Temperatur, Niederschlag, Feuchte, Wind etc. etc etc) über mindestens 30 Jahre, besser länger z.B. 60 oder 100 Jahre. Alles andere ist Wetter, oder wenn es länger dauert, Witterung. Eine Klimaperiode umfasst per Definition der Weltorganisation für Meteorologie (WMO) also mindestens 30 Jahre. Erst nach 90 Jahren können wir z.B. drei Klimaperioden, und damit Unterschiede, beurteilen. Allein schon aus dieser von der WMO gemachten Definition lässt sich erstens ableiten, dass die Verengung des Begriffs auf ein einziges Weltklima Unsinn ist und zweitens. jeder der das Klima schützen will, dies zuerst mit seinem Wetter tun müsste. Ein offensichtlich absurder Gedanke.

Schon diese Feststellungen bedeuten, und das ist belegbar : „Climate Science is not settled. Wenn ein Obama öffentlich behauptet, dass 97 % aller Wissenschaftler im Sinne der „offiziellen“ Klimawissenschaft diese als „ settled“ ansehen, dann ist das falsch. Und sie wurde auch sofort widerlegt. Und sie bedeuten auch, dass man auf Grund unsicherer – und jeden Tag sich als mehr falsch herausstellender Prognosen – auch nicht bei verständlicher Anwendung des Vorsorgeprinzips- eine ganze Volkswirtschaft „transformieren“ darf. Das aber ist hierzulande offizielle Staatsdoktrin. Das Wort „Transformation“ kommt im Klimaschutzplan 2050 mehr als 40 x vor. Meiner Meinung nach ist das eine Fahrt ins Ungewisse mit voraussehbar bösem Ende. Und das soll im Folgenden noch ausführlicher belegt werden.

Doch abgesehen davon ist entscheidend, dass Wissenschaft kein demokratischer Prozess ist, in der die Mehrheit bestimmt, was wahr oder falsch ist. Es zählt allein der Beweis , der durch Beobachtungen und Messungen der realen Welt erbracht wird. Und dieser liegt trotz dreißigjähriger, viele Zehner-Milliarden kostende Forschung, nicht vor.

Denn, ob Sie es glauben oder nicht: In keinem der bisher 5 IPCC Berichte – in keiner der dort zitierten begutachteten Studien- und es werden dort leider nicht nur begutachteten Studien ausgewertet und zitiert, sondern auch jede Menge ideologisch gefärbter Artikel von z.B. Greenpeace, WWF oder einer ihrer unzähligen Hilfsorganisationen- ist ein solcher Beweis erbracht worden. Und es kommt noch dicker: es gibt aber weltweit tausende von fähigen und seriösen Wissenschaftlern, die genau das sagen, in begutachteten Fachartikeln auch schreiben und gut begründen, was wir soeben festgestellt haben. Sie kamen aber bislang nur selten zu Wort. Und so gut wie nie in den öffentlichen Medien und damit der öffentlichen Wahrnehmung. Das ändert sich nun gerade und nicht nur in Deutschland. Bleibt festzuhalten: Es gibt kein Signal, keinen Befund, kein Experiment, dass die Behauptung stützt, dass anthropogenes CO2 einen erkennbaren Einfluss auf unsere Lufttemperatur hätte.

Diese Behauptung stützt sich also allein auf eine Hypothese, die – über den Umweg komplizierter Computer-Klima-Modelle- den Rang eines objektiven Beweises beansprucht. Doch diese Computer-Klima-Modelle können nicht einmal die Klimavergangenheit richtig nachbilden, noch die bereits begonnene Klimazukunft. Sie liegen chronisch daneben! Die letzten 20 Jahre prognostizierten sie im Mittel um glatte 0,4 Grad zu hoch. Das ist immerhin die Hälfte der Erwärmung des vorigen Jahrhunderts!

Und sie liegen nicht nur deswegen chronisch daneben, weil Klima- als chaotisches System-sich grundsätzlich einer Prognose entzieht, wie es das IPCC in seinem 3. Bericht (TAR) selber feststellte, sondern weil sie außerdem für ihre Durchrechnung Annahmen – Parameter, Anfangsbedingungen etc.- bedürfen, die kein Wissenschaftler wirklich kennt. Man muss sich nicht mit den Feinheiten dieser komplexen, man kann sogar sagen, schwarzen Kunst, im Detail auseinandersetzen, es genügen zwei relativ einfache Fakten die erläutern, warum man zum Schluss kommen muss, dass die Klimaforschung erst ganz am Anfang steht und daher Prognosen mit dem Unterton absoluter Wahrheiten tunlichst unterlassen sollte.

Schauen wir uns dazu zunächst die sog. Weltmitteltemperatur an.

Wer erinnert sich nicht – und jüngst ging es wieder durch fast alle Medien- 2016 war das heißeste Jahr seit Beginn der Aufzeichnungen! Landauf, landab wurde uns diese Meldung um die Ohren gehauen und von den „führenden“ Klimaforschern des Landes, ehrenwerten Männern wie Mojib Latif, Hans-Joachim Schellnhuber, oder Stefan Rahmstorf – ernst nickend, sogleich dem menschgemachten Klimawandel zugeschoben.

Doch was hat es mit der „hottest temperature ever“ auf sich? Wie hoch ist sie?

Nun, sie wurde mit 14,8 ° gemeldet“ In Worten: vierzehn komma acht Grad!

Ich zumindest, und vermutlich die Mehrzahl der Leser auch, würde bei dieser Temperatur eher eine warme Jacke anziehen, so warm ist das im täglichen Leben jedenfalls doch wieder nicht, aber es ist auch nicht so warm, wenn man diese „hottest temperature ever“ mit früheren Angaben, tlw. derselben „führenden“ Klimaforscher aus den dafür zuständigen Instituten vergleicht.

Nur gut 20 Jahre früher -also 1995[2]– wurde ebenfalls lautstark, das heißeste Jahr seit Beginn der Aufzeichnungen ausgerufen! Und wieder wurde es uns landauf, landab wurde als Menetekel um die Ohren gehauen. „Führende“ Klimaforschern, durften , dies im SPIEGEL ausführlich dem menschgemachten Klimawandel anlasten – verbunden mit schrillen Warnungen vor einer schrecklichen Katastrophe, der durch sofortiges Handeln – das Kyotoprotokoll sollte unbedingt abgeschlossen werden- begegnet werden müsse.

Und wissen Sie, wie hoch die 1995 genannte Weltmitteltemperatur – hottest ever- war? Nun gut, ich verrate es Ihnen: es waren sage und schreibe 15,4 °C

Immer noch ein bisschen kühl meiner Meinung nach, aber eindeutig wärmer als die von 2016! Oder? Und zwar um 0,6 °C. Das sind immerhin ¾ der gesamten Erwärmung des vorigen Jahrhunderts von 0,8 ° und setzt daher ein gewaltiges Fragezeichen.

Die globale Maximaltemperatur ist also gesunken! Nicht gestiegen!!

Aber haben Sie darüber jemals etwas gelesen oder gehört? Hatte das irgendeinen Einfluss auf die Pariser Verhandlungen? Nein, dass hatte es nicht.

Und damit komme ich zum zweiten wichtigen Wert, der etwas über die Geschwindigkeit und das Potenzial der denkbaren Erwärmung aussagt. Denn – ohne, dass es explizit im Pariser Text erwähnt wird-, basiert die 1,5°/2° Grenze, bzw. davon abgeleitet, die Menge an CO2, die die Menschheit noch emittieren darf, auf einer einzigen Zahl: der sog. Klimasensitivität! ECS oder Equilibrium Climate Sensitivity.

Das ist die wichtigste theoretische Größe der Treibhaushypothese, die bestimmt, um wie viel Grad Celsius – oder genauer Kelvin- die Temperatur zunehmen würde, wenn das CO2 verdoppelt wird. Also von vorindustriell vermuteten 0,02 Vol. %, oder in einer anderen Maßeinheit 200 ppm (part per million), auf heute ca. 0,04 Vol. % bzw. 400 ppm. Oder zukünftig auf vielleicht 0,08 % = 800 ppm. Und die ist deshalb so extrem wichtig, weil man glaubt, damit die noch zulässige CO2 Emissionsmenge bestimmen zu können, die es uns erlaubt, eine bestimmte Temperatur-Obergrenze – z.B. das nebulöse Pariser 2 Grad Ziel nicht zu überschreiten.

Und diese Größe, bzw. die Versuche sie zu bestimmen, ist seit vielen Jahren Gegenstand intensiver weltweiter Forschung.

Das IPCC setzt für die CO2-Klimasensitivität seit Jahrzehnten den Wert von 3,2 °C an, also bei Verdopplung von z.B. 0,04 % auf 0,08 % würde die Temperatur nach der Treibhaushypothese um rd. 3 ° C von 14,8 auf rund 18,0 ° steigen, wenn wir 2016 als Basis nehmen.

Und das IPCC rechnet mit diesen 3 oder 3,2 °, obwohl es in der Summary for Policy Makers (SPM), allerdings nur in einer von fast allen überlesenen Fußnote, frei übersetzt schrieb.

„Wir können keinen aktuellen Wert für die ECS angeben, weil wir uns nicht auf einen gemeinsamen Wert verständigen konnten!“

Der Grund für dieses versteckte Eingeständnis ist, dass sich dieser Wert in den wiss. Publikationen im freien Fall befindet. Von ehemals 3 ° über 2 ° dann 1 ° jetzt auf 0,3 -also eine ganze Größenordnung geringer. Eine echte Dezimierung.

Sie ahnen vielleicht nicht so richtig, was das bedeutet?

Selbst wenn wir alle vorhandenen fossilen Brennstoffe aufspüren, fördern und verbrennen würden, ist eine Verdopplung der gegenwärtigen CO2 Konzentration unrealistisch hoch. Und jede Absenkung dieses ECS-Wertes – und wie gesagt, er ist derzeit nahezu ein Zehntel des bisherigen- lässt die Gefahr einer Klimakatastrophe rapide verschwinden. Sie wird zum NoProblem!!!

Deshalb, so meine ich, haben wir allen Grund, an der Behauptung vom menschgemachten Klimawandel zu zweifeln. Wir sollten, nein wir müssen daher die hochriskante Therapie der Dekarbonisierung für die an der Menschheit erkrankten Erde sofort absetzen, weil deren Basis, die CO2-Hypothese nicht nur hochumstritten bleibt, sondern jeden Tag auf Neue ad absurdum geführt wird.

Was aber unbestritten gilt ist: Das Spurengas Kohlenstoffdioxid (CO2) ist kein Schadstoff, sondern eine unverzichtbare Voraussetzung für alles Leben. Es ist der beste Dünger für Pflanzen und sorgt dafür, dass die Erde in den vergangenen jahrzehnten deutlich grüner wurden. Die Welternährung wurde spürbar besser.

Wir sollten uns der beabsichtigten nationalen wie weltweiten Dekarbonisierung auch deshalb verweigern, weil sie weder geo- noch sozialpolitisch- denkbar ist und Deutschlands Anteil an einer Weltklimarettung – so oder so- mikroskopisch und damit vernachlässigbar klein bleiben wird.

 

Hier noch ein paar Meinungen und Motive der führenden Personen der Politik & offiziellen Klimawissenschaft.

[1] Wörtlich lautet es in der Zusammenfassung des IPCC von 2013 im AR5, WGI, Kapitel 2.6 auf Seite 219 in dem bekannt verklausuliertem IPCC-Originalton “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”

[2] Eigentlich schon seit 1988 von James Hansen! Quelle http://iridl.ldeo.columbia.edu/SOURCES/.Indices/.HANSEN/.Global/figviewer.html?plottype=oneline&variable=Annual+.Temperature, und dann immer wieder bis 1995. Siehe z.B. auch Schönwiese „Klima im Wandel“ 1992 Seite 73 Liste der Quellen hier https://www.klimamanifest-von-heiligenroth.de/wp/wp-content/uploads/2016/06/Bundesregierung_Klimaschutz_hat_Prioritaet_20150226_DerWahreGrund_Stand20150623_15_5Grad.pdf




Die Polizei ist perplex: Wütende Bewohner schießen weiterhin auf laute Windräder

„Kann zum Tod führen“: Schüsse auf Waubra Windturbinen
The Courier
Derrick Krusche; 27 Sep 2017

Die Polizei vermutet, dass vor kurzem beim Waubra-Windpark nordwestlich von Ballarat, mit einer Waffe mit langen Lauf, z.B. ein Gewehr, auf Windturbinen geschossen wurde.

Die Beamten der Kriminalpolizei  haben eine Untersuchung eingeleitet, nachdem Techniker Einschusslöcher auf einigen der großen Anlagen gefunden haben, die sich auf privaten Windpark Gelände befinden.

Die Straftat könnte im Zeitraum von Ende des letzten Jahres bis vor kurzen geschehen sein, bis zur Entdeckung des Schadens durch Acciona, ein Unternehmen für erneuerbare Energien.

Seit der Eröffnung des Windparks im Jahr 2010 gab es sechs ähnliche Vorfälle.

Detective Senior Sergeant David Hermit sagte, Acciona Mitarbeiter waren in Gefahr, da sie für Wartungszwecke regelmäßig in die Türme der Windturbinen einsteigen,.

[Hinweis: Mitgliedern der Kriminalpolizei wird die Bezeichnung „Detective“ statt „Police“ vorangestellt]

„Diese Art von rücksichtslosem Verhalten hätte eine schwere Verletzung oder den Tod eines Mitarbeiters zur Folge haben können“, sagte er.

[Die Türme der Windräder bestehen aus Stahl oder Beton;  Siehe Link Acconia der Übersetzer]

Die Windturbinen haben oft Kontroversen über die Verschandelung der Natur und auch über gesundheitliche Bedenken ausgelöst. Aber Detective Senior Sergeant Hermit konnte zum Motiv nichts sagen.

Die Polizei hat Verdächtigte bereits verhört, aber keine Anklage erhoben. Sie untersucht, ob die Waffe von einer Weidekoppel oder einer Straße her abgefeuert wurde.

„Es ist wahrscheinlich eine Waffe mit langen Lauf, der Entfernung wegen“, so Detective Senior Sergeant Hermit.

„Diese Einschusslöcher und den Schaden der angerichtet wurde zu finden, ist ziemlich erschreckend“ Acciona Turbinentechniker Frank Cartledge.

The Courier

 

Hier ist ein weiterer Blick auf diese Geschichte.

Jemand schiesst weiterhin auf einem bekannten Windpark in Viktoria.
Business Insider Australien; Simon Thomson; 7 September 2017

Auf einen der bekanntesten Windparks von Victoria, Waubra, 35 km nordwestlich von Ballarat, wurde in den letzten Jahren mehrmals erschossen, wie die Polizei berichtet. Die Details haben sich herauskristallisiert, als Beamte der Kriminalabteilung Ballarat den jüngsten Bericht über zahlreiche Schüsse auf eine der Turbinen untersuchen.

Waubra ist Australiens viertgrößter Windpark mit 128 Turbinen, die zusammen 192 Megawatt Leistung erzeugen könn[t]en – rund ein Achtel des nun geschlossenen Hazelwood-Kohlekraftwerks.

Aber die Website hat den Zorn der Gegner von Windparks erregt, die behaupten, dass sie [die Windräder] die Gesundheit der in der Nähe wohnenden Menschen schädigen. Die Waubra-Stiftung ist eine Interessenvertretung, die zu der Zeit gegründet wurde, als der Windpark eröffnet wurde und gegen die Entwicklungen kämpft, die eine Reihe gesundheitlicher Probleme verursachen.

Die Polizei sagt, dass sie sich nicht sicher sind, wann der jetzige Schaden an der Turbine aufgetreten ist – es könnte bereits im letzten Jahr gewesen sein – seit 2010 wurden sechs ähnliche Vorfälle gemeldet.

Detective Senior Sergeant David Hermit sagte, diese Vorfälle sind unglaublich gefährlich für Mitarbeiter sind, die regelmäßig an der Wartung der Turbinen arbeiten.

„Diese Art von rücksichtslosem Verhalten hätte eine schwere Verletzung oder den Tod eines Mitarbeiters zur Folge haben können“, sagte er. „Es ist nicht immer offensichtlich, dass jemand in[nerhalb[ den Windkraftanlagen arbeitet. Wenn Sie auf diese Windkraftanlagen schießen, besteht die Chance, dass Sie einen Mitarbeiter treffen könnten. „

Die Polizei glaubt, dass jemand in der örtlichen Gemeinde weiß, wer verantwortlich ist und appelliert an die Leute, die Kriminalpolizei zu informieren.
Business Insider Australien

 

* * *

Stopthesethings

Simon Thomson repräsentiert die Art von dämlichen Fatzke, der in Australien als Journalist durchgeht.

Im Jahr 2017 – nach der Katastrophe, durch Südaustraliens im Wind-Energie, haben die Kerle den Glauben, dass ein denkendes Wesen über [den Windpark] Waubra schreiben könne:

„128 Turbinen, die in der Lage sind, eine kombinierte Leistung von 192 Megawatt zu erzeugen – rund ein Achtel des nun geschlossenen Hazelwood-Kohlekraftwerks.“

Simon beginnt diesen Unsinn mit den Worten „die in der Lage sind „, aber er will seinen Lesern eindeutig den irreführenden Eindruck vermitteln, dass Waubras 128 Wirbelwunder ein Kopf-an-Kopf-Rennen mit einem konventionellen Generatorsystem ausführen können, wie das heute nicht mehr existierende Kohlekraftwerk Hazelwood. Warum sonst, macht er so einen Vergleich?

Wenn Waubra wirklich rund um die Uhr 192 MW liefern würde (wie das Kohlekraftwerk an jeden Tag des Jahres), würde es in den Aufzeichnungen erscheinen – aber aus irgendeinem seltsamen Grund steht dort nichts. (Hinweis an Simon, wenn Sie Ihren nächsten Drachenfliegerurlaub planen, planen Sie ihn nicht zu weit voraus – das Wetter könnte den Spaß den Sie sich erhofft hatten, nicht erfüllen.)

Die Grafiken die oben (und unten) zu sehen sind, stammen von der Website von Aneroid Energy und zeigt die gesamte Leistung aller Windkraftanlagen, die an das Östliche Stromnetz in Australien angeschlossen sind, vom Juni dieses Jahres.

Und doch war die Gesamtproduktion aller Anlagen [bei 192 MW Nennleistung], öfter als 13 mal im Monat Juni geringer als 200 MW (oder weniger als 4% der Gesamtkapazität); mindestens 6 mal weniger als 100 MW (oder 2% der Kapazität); und bei mehr als einer Gelegenheit weniger als 20 MW.

Der Rückgang der tatsächlichen Produktion von Waubra im Juni zeigt, dass der Vergleich ihrer „Leistung“ mit einem Kohlekraftwerk einfach lächerlich ist:

„Produktion“ des Waubra Windparks allein

 

Einschusslöchern an Windkraftanlagen ist ein Phänomen, das nicht auf Australien oder Western Victoria beschränkt ist:

Angry Wind Farm Victims Pull the Trigger: Turbines Shot-Up in Montana and Victoria

Angry Neighbours Shoot-Up Wind Turbines; as Hosts Hit With $Millions in Developers’ Debts

Wind Industry Goons Beating Up On Women, as Furious Community Defenders Shoot Up Turbines (Again)

Es gibt eine Reihe von Gründen, warum jemand wütend genug werden kann, um diese Dinger zum Teufel zu wünschen.

Zu dem Offensichtlichen – wie die Verhinderung des gesunden Schlafes bei den Anwohnern durch niederfrequente Geräusche und Infraschall – kann die Frustration über unterbelichtete Journalisten hinzukommen, die von der Wut und der Feindseligkeit verwirrt sind, dass ein paar hundert dieser Dinger [Windkraftanlagen] in der Nachbarschaft [der Windparks] so etwas hervorrufen können.

Die „noch-feucht-hinter-den-Ohren“Reporter haben sich mit der Propaganda der Windindustrie beschäftigt, wie etwa „dieser Windpark versorgt 100.000 Haushalte und spart eine Million Tonnen CO2 aus der Atmosphäre“ oder – unter Berufung auf einen ehemaligen Tabak-Guru – die „Windpark-Gesundheitsprobleme wurden von Experten“ abgewiesen, fügt der Beeinträchtigung lediglich eine Beleidigung hinzu.

Diese Art von Müll wird nur vorgebracht, um die Leiden zu rechtfertigen, die Acciona in Waubra an Leuten verschuldet hat,  wie an Carl und Samantha Stepnell, Andrew und Maggie Reid, Noel und Janine Dean, Robyn und Glenn Brew, Berni Janssen, Enid Thomas und Donald Thomas. Wofür sich Acciona hätte einsetzen müssen, siehe unseren Beitrag hier . Das tragische und unnötige Leiden [der Betroffenen] ist öffentlich dokumentiert und mehrfach dem Bundessenat vorgelegt worden .

Was diese faulen Hacks nicht offenbaren, ist die Tatsache, dass Acciona seit Juli 2009, als ihre Turbinen in Betrieb genommen wurden, acht der elf Häuser in der Umgebung von Waubra heimlich gekauft haben,  die von ihren Besitzern aufgegeben wurden; Häuser, die durch das niederfrequente Geräusch ihrer Turbinen unbewohnbar gemacht wurden.

Acciona zwang die unfreiwilligen Verkäufer dazu, bombensichere „Knebel“ -Klauseln zu unterzeichnen, die verhindern, dass sie jemals über den „Verkauf“ sprechen ( siehe unseren Beitrag hier ). Trish Godfrey ist nur ein tragisches Beispiel (siehe diesen Artikel und unsere Beiträge hier und hier ).

Auch verfolgen diese intellektuellen Pygmäen die Akustik Berater von Acciona, MDA, nicht, die betrügerische akustische Berichte präsentieren, mit denen sie die Einhaltung der Lärmbedingungen zur Planungsbewilligung behaupten. Ungeachtet dessen, dass der Windpark diese Bedingungen nie erfüllt hat.

Im normalen Verlauf von menschlichen Angelegenheiten, wenn jemandes Leiden von anderen zur Lächerlichkeit herabgezogen wird oder von denjenigen, die etwas dagegen tun können (darunter sogenannte „Journalisten“ wie Derrick Krusche und Simon Thomson) abgestritten werden, Wut und Frustration folgen wie die Nacht dem Tag.

Dass ein verärgerter Nachbar, der durch Windparkentwickler mit praktizierender Geringschätzung behandelt, von den Behörden verlassen und von Schmalspur Journalisten ständig verspottet wird, sein Recht in einem Zuhause zu leben und es zu genießen selbst wahrnimmt, sollte keine Überraschung sein, auch nicht wenn er irgendwann heißes Blei in seine Peiniger jagt. Während diese Art von unternehmerischer und institutioneller Bösartigkeit gegen Windpark-Nachbarn vorherrschend ist, können die Verantwortlichen von Acciona erwarten, dass die Nachbarn in gleicher Art reagieren.

Dies ist nicht das erste Mal, dass Bewohner auf Windkraftanlagen geschossen haben, und es wird nicht das letzte Mal sein.

STT; Windflügel mit Einschusslöchern

Erschienen auf StopTheseThings am 10.10.2017

Übersetzt durch Andreas Demmig

Victorian Police Perplexed: Furious Neighbours Continue to Shoot-Up Noisy Wind Turbines




Meeresspiegel: Anstieg und Absinken – Teil 1

Anstieg des Meeresspiegels: Ist das die größte aktuelle Bedrohung durch den Klimawandel?

Die Presse sagt uns, dass dem so ist:

Die derzeitigen Best Estimates prophezeien, dass der Meeresspiegel bis zum Jahr 2100 um 2 Meter steigen wird“. — The Climate Institute, “Sea Level Rise: Risk and Resilience in Coastal Cities” von Erin A. Thead

Ein rasches Abschmelzen der Antarktis könne im schlimmsten Fall dazu führen, dass der Meeresspiegel so schnell steigt, dass Abertausende Flüchtlinge aus küstennahen Gebieten in das Landesinnere fliehen müssen, was potentiell die Gesellschaften bis zum Zusammenbruch belasten könnte. Klimawissenschaftler hielten dieses Szenario bislang nur für Katastrophenfilme aus Hollywood als passend. Aber heutzutage können sie das nicht mehr mit großem Vertrauen ausschließen. Das Risiko ist eindeutig: Der Kollaps der Antarktis hat das Potential, küstennahe Städte auf der ganzen Welt zu überfluten. … Falls jener Eisschild sich auflösen würde, könnte dies zu einem Anstieg des Meeresspiegels um 160 Fuß führen [ca. 49 Meter*] – eine potentielle Apokalypse, abhängig davon, wie schnell das Abschmelzen erfolgt. The NY Times, Looming Floods, Threatened Cities, eine dreiteilige Serie von Justin Gillis

[*Bei allem bekannten Alarmismus dieses Blattes: diese 160 Fuß/49 m habe ich noch nirgendwo gesehen. Liegt hier vielleicht ein Schreibfehler von irgendjemandem vor? Anm. d. Übers.]

Aber stimmt das auch?

Der Meeresspiegel ist seit zehntausend Jahren gestiegen, nämlich seit der letzten Eiszeit … die Frage lautet, ob sich dieser Anstieg aufgrund menschlicher Emissionen beschleunigt. Es sieht nicht so aus, als ob es bisher irgendeine größere Beschleunigung des Anstiegs gibt in Verbindung mit anthropogener Erwärmung. Diese Prophezeiungen eines alarmierenden Anstiegs hängen ab von einem massiven Abschmelzen der großen kontinentalen Gletscher – Grönland und die Antarktis. Der antarktische Eisschild wächst derzeit. Der grönländische Eisschild zeigt eine große multidekadische Variabilität. … Es gibt bisher keinerlei Beweise, dass die Menschen in irgendeiner besorglichen Weise zum Anstieg des Meeresspiegels beitragen. Dr. Judith Curry, video interview vom 9. August 2017.

Der Anstieg ds Meeresspiegels (im Folgenden mit SLR abgekürzt) wird in der Presse – in Zeitungen, Zeitschriften und Fernsehberichten – als die jüngste und größte Bedrohung der Menschheit charakterisiert, verursacht durch den anthropogen verursachten Klimawandel.

Warum? Es ist immer schwierig, bei sozialen Belangen eine Motivation auszumachen, aber es ist nicht verboten zu spekulieren. Das Szenario einer Bedrohung durch die Globale Erwärmung ruft in der allgemeinen Öffentlichkeit kaum noch Aufmerksamkeit hervor – die Temperaturen sind einfach nicht so gestiegen, wie es vor 30 Jahren von James Hansen als Bedrohung an die Wand gemalt worden war, trotz der geänderten Instrumente, sie zu messen und zu verbreiten, und gerade heraus gesagt, es sieht nicht so aus, als würde sich ein solcher Anstieg demnächst wieder einstellen. Ich muss hier nicht die Liste der gescheiterten Modell-Prophezeiungen des IPCC wiederholen, und auch nicht das Zurückbleiben der aktuellen globalen Temperaturen hinter deren alarmierenden Projektionen. Bekanntlich änderte man während der letzten 20 Jahre den Begriff Globale Erwärmung mit gefährlich steigenden Lufttemperaturen zu Klimawandel (einschließlich Extremwetter und Anstieg des Meeresspiegels) – obwohl die wissenschaftliche Gemeinschaft immer beide Termini als ein und dasselbe verwendet. Aber immer weniger Frontseiten von Zeitschriften werden durch eine brennende Erde geziert – stattdessen erscheinen viel öfter Bilder von Superstürmen und New York City unter Wasser, wobei die Freiheitsstatue noch zur Hälfte herausragt.

Ich habe bereits hier, hier, hier, hier und hier über SLR geschrieben [einige Beiträge sind auch auf der EIKE-Website in deutscher Übersetzung erschienen. Einfach in das Suchwortfenster „Meeresspiegel“ eingeben. Anm. d. Übers.] Diese früheren Beiträge zu lesen ist keine Vorbedingung, stellen aber interessante spezielle Beispiele dar.

Es gibt zwei wichtige Punkte, die Leser beachten müssen, wenn sie sich das erste Mal mit SLR befassen:

1. SLR ist eine reale unmittelbare Bedrohung für Küstenstädte sowie tief liegende küstennahe und dicht besiedelte Gebiete.

2. SLR ist keine Bedrohung für alles andere – jetzt nicht, nicht in einhundert Jahren – wahrscheinlich auch nicht in eintausend Jahren – vielleicht niemals.

Der erste dieser beiden Punkte ist ein bequemes Werkzeug für Propagandisten – also für all jene, welche den Alarm der Öffentlichkeit erregen wollen, dass „Klimawandel“ eine bereits stattfindende Katastrophe ist.

Es ist einfach, auf dem Planet Stellen zu finden, an denen man so töricht war, sich in Gebieten anzusiedeln, die in der Vergangenheit immer wieder überflutet worden waren durch den lokalen relativen Meeresspiegel, vor allem bei Springfluten und Flutwellen durch Stürme. Angesichts des Umstandes, dass der Anstieg während des vorigen Jahrhunderts (oder über die Gesamtlänge instrumenteller Aufzeichnungen) etwa 8 bis 12 Inches betragen hatte [ca. 20 bis 30 cm], beträgt die Wahrscheinlichkeit, dass diese Örtlichkeiten erneut überschwemmt werden, fast 100%.

Diese Gelegenheit für Propaganda ist so günstig, dass eine PR-Firma das King Tides Project [= Springflut-Projekt] ins Leben gerufen hat, um diese natürlich auftretenden „höchsten Tiden“ zur Erzeugung von Alarm bzgl. globaler SLR zu nutzen.

SLR ist für Küstenstädte eine reale Bedrohung – heute

Zunächst wollen wir ehrlich sein: Das Meer selbst, ob nun steigend oder nicht, ist eine reale unmittelbare Bedrohung – eine klare und allgegenwärtige Gefahr – für viele küstennahe Städte und dicht besiedelte Gebiete auf der Erde, welche auf gleicher Höhe wie der lokale mittlere Meeresspiegel liegen.

In meinen kürzlich erschienenen Beiträgen über Miami Beach und Guangzhou–Canton verweise ich auf gegenwärtige Beispiele, wo ganze Städte dem Risiko des heutigen Meeresspiegels ausgesetzt sind, heutigen Fluten und bereits aufgetretene Sturmfluten. Straßen und Siedlungen wurden unter der Mittleren Hochwassermarke gebaut, und unterirdische Infrastruktur (Wasser- und Abwasserleitungen, U-Bahnen, Garagen etc.) befinden sich weit unter dem Meeresspiegel, was Pumpen erforderlich macht, um das alles trocken und funktionsfähig zu halten.

Es gibt nicht nur Städte, die unter dem Meeresspiegel liegen (New Orleans, Amsterdam, Georgetown/Guayana), sondern auch große Gebiete ganzer Nationen (die Niederlande sowie Teile von UK und Irland). In Asien liegt Bangladesh, zumeist ein Gebiet im Bereich eines Flussdeltas, weniger als 12 m über dem Meeresspiegel. Etwa 10% des Landes würden überflutet durch Sturmfluten oder wenn der Meeresspiegel um 1 m steigen würde.

Jede küstennahe Stadt mit bedeutenden Liegenschaften innerhalb von zehn Fuß [ca. 3 m] im Bereich des gegenwärtigen Meeresspiegel-Niveaus sind heute gefährdet, und wenn keine Maßnahmen zur Abschwächung dieser Risiken ergriffen werden, sollte man auf die Zukunft derartiger Örtlichkeiten keine Wetten abschließen. Die Neigung von Gesellschaften, in gefährdeten Gebieten zu bauen, scheint unerschöpflich – und unerklärlich.

Ein Beispiel

Die Megastadt Los Angeles ist eine der größten Städte des Landes. Sie liegt eingebettet im Los Angeles-Becken und ist von Küstengebirgen umgeben.

Eine Überflutung des Los Angeles-Gebietes wäre eine wirkliche Katastrophe von Weltrang. Schließlich leben dort über 18 Millionen Menschen.

Der Sea Level Rise Viewer der NOAA, der uns über die Bedrohung von SLR informieren soll, gestattet die Kartierung der Überschwemmungen, zu welchen es bei einem SLR von 2 m kommen würde. Schauen wir mal, wie das aussehen würde, falls es in LA dazu kommen würde – hier das Aussehen des LA-Beckens bei einem knapp 2m höheren Meeresspiegel:

Und siehe da – es passiert fast nichts! Von Santa Monica im Norden bis ganz hinunter nach San Pedro im Süden passiert fast genau gar nichts. Oben sieht man ein grün gefärbtes „tief liegendes Gebiet“, vor allem ein Gebiet namens Venice (ein Architekt baute Kanäle mit Häusern daran entlang – Häuser an der Wasserlinie). Ein wenig überflutet wird ein Gebiet nahe Marina Del Rey und Playa Del Rey. Marinas [= Yachthäfen] werden logischerweise in Höhe des Meeresspiegels erbaut – Marina Del Rey in einer Flussmündung in einem kleinen sumpfigen Feuchtgebiet. Dann tut sich absolut nichts bis zur Palos Verdes-Halbinsel (Green Hills) bis nach San Pedro, dem Meereshafen von Los Angeles.

Vergrößern wir einmal diesen Teil der Landkarte:

Schiebt man den Marker im sea level rise viewer bis auf 2 Meter, ergeben sich kleine Überflutungen im Hafen – wurden doch dort die Docks und Lagerhäuser absichtlich nur wenig höher als das mittlere Hochwasser errichtet, damit Schiffe bequem entladen werden können. Rot eingekreist ist ein Gebiet mit kleineren Industriegebäuden in Verbindung mit den Docks und der Transportindustrie. Der neuere Long Beach Harbor bleibt unbehelligt.

Weiter im Südosten sieht es schlimmer aus. Gelb eingekreist sind Gebiete mit Einfamilienhäusern, gebaut auf ehemaligen Salzmarschen und einer mit dünnem Unterholz überzogenen Sandbank. Kanäle durchziehen dieses Gebiet, damit mehr Häuser ihre eigenen Bootsliegeplätze am Wasser haben. Leisure World, ein großer mobiler Vergnügungspark, der ebenfalls in einer aufgefüllten Salzmarsch errichtet worden ist, wird bei 2 m komplett überflutet. Sunset Beach ist ähnlich gebaut wie Miami, also mit Kanälen und Häusern am Wasser, die sich gerade mal über dem Niveau des mittleren Hochwassers befinden.

Das Speichergebäude für Waffen der Marine in Höhe des Meeresspiegels wird überflutet, nicht aber das Speichergebiet selbst. Die flutanfälligen Teile bilden ein damit in Verbindung stehendes Naturschutzgebiet, das für die Öffentlichkeit nicht zugänglich ist. Schaut man näher, erkennt man die Bunker mit eingelagerter Munition auf künstlichen Hügeln, weit entfernt von zivilen Ansiedlungen.

Das orange eingekreiste Gebiet kennzeichnet ein Gebiet, dass während Springfluten schon jetzt immer wieder überflutet wird. Ich möchte dieses Bild hier der Erinnerung halber noch einmal zeigen:

Direkt an der Küste in diesem Abschnitt findet sich ein State Marine Conservation-Gebiet, aber weiter landeinwärts würden sich buchstäblich tausende Einfamilienhäuser im Wasser befinden.

Direkt im Anschluss weiter südlich würde die Hälfte von Huntington Beach überflutet. Das jetzt mit Häusern bebaute Gebiet war in den zwanziger und dreißiger Jahren Teil des großen Kalifornischen Ölbooms und sah so aus:

In den fünfziger Jahren endete der Ölboom, und die tief liegenden Landschaften wurden für die Besiedlung vorbereitet. Wie wir der Flutkarte entnehmen können, schenkte man der Seehöhe oder Bedenken hinsichtlich des Meeres kaum Aufmerksamkeit. Flussbetten mit Mündungen in das Meer tragen die steigenden Tiden landeinwärts, wo das Land nicht durch Deiche geschützt ist – man kann den Deich rechts im Bild oben erkennen – aber weiter nördlich (links im Photo) existiert der Deich nicht.

Was ist da passiert?

Benennen wir eindeutig, was man hier zugelassen hat. Menschen waren in der Lage, die relative Seehöhe seit mindestens 150 Jahren zu messen, seit etwa dem Jahr 1850, als spirit leveling [?] erstmals angewendet wurde.

Dies bedeutet, dass wenn Land nahe einem Gewässer wie dem Pazifischen Ozean oder seinen Randmeeren erschlossen wird, man annehmen darf, dass es möglich ist, die Differenzen zwischen dem Meeresspiegel und der Seehöhe des Festlandes in Erfahrung zu bringen. Zu jeder Zeit, in der moderne Infrastruktur – Gebäude, Wohnungen, Fabriken, Lagerhäuser – gebaut wird, wissen die Erbauer (oder sind verpflichtet zu wissen), wie hoch das Festland über dem Niveau des Meeresspiegels liegt.

Man geht allgemein davon aus, dass der Meeresspiegel im vorigen Jahrhundert um 8 bis 12 Inches [ca. 20 bis 30 cm] gestiegen ist. … [Es folgen diverse Einzelheiten hierzu, die aber nur lokal von Bedeutung sind. Daher werden ein paar Absätze in der Übersetzung übersprungen. Weiter geht es mit den Erwartungen des Autors hinsichtlich der zukünftigen Entwicklung. Anm. d. Übers.]

Wie stark kann der Meeresspiegel noch steigen?

Was erwarten wir hinsichtlich des steigenden Meeresspiegels? Allgemein akzeptiert ist die Aussage „mehr des Gleichen“ – also etwa 1 Fuß [ca. 30 cm] pro Jahrhundert. Falls die Temperaturen noch etwas weiter steigen [eher sieht es ja nach dem Gegenteil aus! Anm. d. Übers.], könnte dieser Anstieg auf 18 Inches [ca. 46 cm] während der nächsten 100 Jahre zunehmen.

Obwohl der Grundstein für Los Angeles bereits im Jahre 1781 gelegt worden ist, wurde die Stadt erst während der zwanziger Jahre zu einer Mega-Metropole, also vor etwa 100 Jahren. Ein Fuß SLR hat man dort während der letzten 100 Jahre also schon hinter sich, aber einen SLR von 6 Fuß [ca. 1,8 m] wird es nicht geben während der nächsten paar hundert Jahre. Man hat also genügend Zeit, sich anzupassen und vorzubereiten.

Die Lage in den tief liegenden Risikogebieten von LA wird sich in absehbarer Zukunft wegen SLR kaum verschlechtern. Aber mit der Erkenntnis, dass einige Gebiete schon beim derzeitigen Niveau des Meeresspiegels gefährdet sind, wird alles andere als ein Sinken des Meeresspiegels die Lage in jenen Gebieten verschärfen.

Ansiedlungen an Wasserläufen auf dem Niveau des Meeresspiegels, die lediglich um 1 bis 2 Fuß [ca. 30 bis 60 cm] über dem Meeresspiegel liegen, werden langfristig vermutlich aufgegeben werden müssen. Es werden Maßzahlen für Gebäude gebraucht, bei dessen Überschreitung Bauten in tiefliegenden Gebieten mit der Gefahr von Überflutungen verboten werden können. …

In Südflorida hat man während der letzten 10 Jahre bereits derartige bauliche Veränderungen und Vorschriften des Ausbaus eingeführt, wobei neue Häuser mindestens ein Fuß über den kartierten Fluthöhen liegen müssen. Deiche müssen laut Vorschrift bei Ausbesserungen oder Neubau so hoch errichtet werden, dass sie mit dem erwarteten Niveau von Fluten mithalten können. Neue Häuser im Gebiet von Beaufort in North Carolina (und überall im Tiefland, wie man es nennt) werden bereits den neuen Erfordernissen und Vorschriften entsprechend höher oder auf Stützen gebaut – wobei das darunter liegende Terrain als Garage oder Speicher dient. Das folgende Bild zeigt hellblau, wie viel Land bei einem SLR von 6 Fuß [ca. 1,8 m] oder einer entsprechenden Flutwelle unter Wasserstehen würde:

Die Zukunft

Die tief liegenden Länder Europas haben schon vor langer Zeit die ingenieurtechnischen Erfahrungen entwickelt, um Irrtümern der Vergangenheit bzgl. zu nahe dem Meeresspiegel errichteter Bauten zu begegnen. Die anderen Länder und Städte der Welt sollten es ihnen gleichtun und Pläne zur Abschwächung der gegenwärtigen Lage und dem erwarteten weiteren Anstieg des Meeresspiegels im nächsten Jahrhundert zu entwickeln – Pläne zur Abschwächung, mit denen Fehler der Vergangenheit korrigiert werden sowie zum kurz- und langfristigen Küstenschutz.

Schlussbemerkung des Autors:

Weitere Teile in dieser Reihe folgen. Der Anstieg des Meeresspiegels ist Gegenstand einer anhaltenden wissenschaftlichen Kontroverse. Dies bedeutet, dass man sehr sorgfältig bei der Lektüre und Interpretation neuer Studien vorgehen muss, vor allem, wenn es um die Berichterstattung in den Medien zu diesem Thema geht. Bias und Ideologie wuchern wild, opponierende Kräfte feuern in den Journalen Salven aufeinander ab, und der Konsens kann sehr gut eine genaue Maßzahl des vorherrschenden Bias‘ auf diesem Gebiet sein (h/t John Ioannidis).

Link: https://wattsupwiththat.com/2017/09/13/sea-level-rise-and-fall-part-1/

Übersetzt von Chris Frey EIKE




Maischberger fragt: Kippt unser Klima? Antwort: Nein – wohl aber die Kompetenz der meisten Talkgäste?

Die Talkrunde (hier kann sie bis zum 10.10,2018 nochmals angesehen werden) begann so:

Jörg Kachelmann, ist beim Wetter von nichts mehr überrascht!

Der „bekannteste Kimaforscher Deutschlands“ Prof. H.J. Schellnhuber sieht die Sahara bereits bis nach Europa vordringen.

Der Wissenschaftsjournalist Alex Reichmuth, studierter Mathematiker und Physiker und bekennender „Klimaleugner“ sieht die versuchte Bekämpfung des Klimawandels als viel gefährlicher an, als die Folgen desselben. Radikale Klimaabkommen bewirken Hungersnöte und den Zusammenbruch der Energieversorgung

Bärbel Höhn – inzwischen Öko-Oma der Grünen- tadelt die Klima-Bilanz der großen Koalition und deren Chefin – Angela Merkel- gleich mit. Sie hätte für den Klimaschutz Null erreicht. Eine neue Regierung müsse sofort alle „alten“ Kohlekraftwerke abschalten.

Dorothee Bär CSU Staatsekretärin im Verkehrsministerium findet im Prinzip alles richtig nur dürften die Maßnahmen nicht zu Lasten der Bürger dieses Landes gehen.

Mit dieser illustren Truppe ging die Moderatorin Sandra Maischberger die drückende Frage an: Xavier und die Wetterextreme: Kippt unser Klima?

 

Video der Maischbergersendung vom 11.10.17 in voller Länge. Mit Dank an Maischberger TV

Nun, ohne den munteren Inhalt dieser Talkshow vorwegnehmen zu wollen, diese hochwichtige Doppel- Frage – wurde je nach Couleur der Befragten – mit ja und auch mit nein beantwortet. Obwohl öfter mal sowohl Kachelmann wie auch Schellnhuber darauf hinwiesen, dass Klima und Wetter zwei paar Schuhe sind und tunlichst nicht miteinander vermengt werden sollten, hielt sich kaum einer der Anwesenden daran, die Mahner eingeschlossen, und taten genau das und immer wieder. Fröhlich angeregt durch manche Einspieler Maischbergers, die jedes Wetterextrem der letzten Jahre dem Klimawandel andichtete.

Es wäre journalistische Schwerstarbeit auch nur die gröbsten Schnitzer vieler Beteiligter hier im Detail aufzulisten, deswegen beschränke ich mich hier auf einige „Lowlights“ , die, wie sollte es anders sein, insbesondere vom größten Klimaforscher alle Zeiten (GröKaZ?) H. J. Schellnhuber, und seiner politischen Erfüllungsgehilfin Bärbel Höhn zum Besten gegeben wurden.

Schellnhuber gestand, als es um den Vorschlag Stockholmer „Klimaforscher“ ging, zur Rettung des Weltklimas u.a den Individualverkehr mit samt dem Fliegen einzustellen, dass er leider und offensichtlich widerwillig mit dem Flugzeug nach Köln anreisen musste, weil er ja zuvor noch in Potsdam seine eigene Konferenz zu leiten hatte. Bei der ging es ebenfalls um die Weltrettung.

Allein deswegen, so mein Eindruck, müssten wir Zuschauer ihm doch dankbar sein, und ihm auch das Flugzeugnehmenmüssen verzeihen! Tun wir! Wer so Großes leistet sollte nicht an kleinliche Vorgaben gebunden werden.

Das alles beflügelte den Professor dann noch so einiges an Katastrophen auf die Zuschauer loszulassen, die, hoch genau berechnet, uns Erdenbürger ereilen, wenn die Erwärmung ungebremst z.B. 5 ° C erreichte. Dann, so die schnelle und ausführliche Antwort – und das wäre keineswegs ausgeschlossen- würde der Meeresspiegel- und alle nickten verständig, denn jeder glaubt zu wissen was das ist (wer das nicht so genau weiß, kann ja hier und hier mal nachschauen)- doch um sage und schreibe 60 bis 70 m ansteigen. Das schöne Florida zum Beispiel würde in den Fluten versinken. Auf die trockene Frage von Alex Reichmuth, wann das denn eintreten würde, sagte der GröKaZ nur: Bis zum Jahr 3000.

Also in 1000 Jahren kommentierte Reichmuth ungerührt, .. und sie glauben Sie könnten das berechnen?“ Das sei doch nur einfache Physik warf der Professor ein und schob nach … „aber um 1 m bis zum Ende des Jahrhunderts“. Doch da waren die Anwesenden schon beim nächsten Thema und niemand fürchtete sich mehr über die 1 m. Bemerkenswert nur, dass niemand der Anwesenden sich dazu äußerte, bzw. an den Kopf fasst und „Herr lass Hirn regnen“ erbat, wie jemand der sich Wissenschaftler nennt, „genau berechnen“ kann wie hoch der Meeresspiegel in tausend Jahren sein würde.

Von ähnlicher Qualität war die Behauptung des Professors aus Potsdam, dass „die Wissenschaft“ mit 99,999 % Wahrscheinlichkeit berechnet hätte, dass der Mensch zu 60 % zum „Klimawandel“ (gemeint ist die leichte Erwärmung des vergangenen Jahrhunderts um ca. 0,8 K, wenn man den vielfach manipulierten Berechnungen des GISS, der NOAA und des Hadley Centers weiterhin Glauben schenken möchte) beigetragen hätte. Es lag wohl an der mangelnden Kompetenz so mancher Teilnehmer, vielleicht auch am Druck den die Moderatorin machte, um ihre vorbereiteten Einspieler abarbeiten zu können, dass niemand den Professor fragte, wie denn „die Wissenschaft“ zu dieser Präzisionsaussage gekommen sei. Falls er wahrheitsgemäß geantwortet hätte, wäre herausgekommen, dass er Modelle meinte, die, eigens für diesen Zweck gemacht, nachwiesen, dass die anthropogenen Treibhausgase – mit Riesenvorsprung das CO2- der Hauptantrieb der Erwärmung seien. Das zeigen 99,999 % der Modellläufe. Doch der alleinige Grund ist nicht das CO2, sondern die Konstruktion der Modelle als virtuellem Beweisersatz– die können gar nicht anders!

Denn wenn man das CO2 als Hauptantrieb einbaut, wird das Weglassen dieses Antriebs automatisch eine geringere bis zu gar keiner Erwärmung führen müssen. Das ist exakt dasselbe, als wenn man ein Auto mit Benzinmotor baut, um zu beweisen, dass Autos generell nur mit Benzin betrieben werden können. Füllt man Benzin in den Tank, dann läuft der Motor, das Auto fährt. Lässt man das Benzin weg, oder ersetzt es durch Diesel, Gas, Wasserstoff o.ä. dann bleibt der Motor stehen und das Auto fährt nicht mehr. Und die Wahrscheinlichkeit dafür liegt sogar bei 100 %.

Von ähnlicher – auch trickreicher- Qualität der Ausnutzung der Unwissenheit seiner meisten Zuschauer, gepaart mit tiefer Gläubigkeit an die Kompetenz des „bekanntesten Klimaforschers Deutschlands“ (ein Titel, der ihm unzweifelhaft gebührt, aber ein sehr schlechtes Licht auf alle anderen in diese Kohorte wirft) – sind die anderen „genauen“ Berechnungen diese Professors, die er bei jeder sich bietenden Gelegenheit seinen beeindruckten Zuschauern an den Kopf wirft. Das Team vom Klimamanifest von Heiligenroth hat hier einige dieser Stilblüten zusammen gestellt. Da spielte es auch keine große Rolle mehr, dass er später behauptete, dass eine Dunkelflaute in Deutschland durch große Batterien verhindert werden, wie sie EON zur Zeit baue. Es sind ja nur im Mittel 1,64 TWh, die Deutschland derzeit täglich benötige. Dafür würden immerhin schon 16,4 Millionen Superbatterien a 100 kWh der Teslaklasse ausreichen. Das sagte er allerdings nicht.

Kümmern wir uns noch ein wenig um die anderen Teilnehmer. Kachelmann hält mit überzeugenden Argumenten den Sturm Xavier für Wetter, wie alle anderen aufgezählten extremen Wetterphänomene auch. Ein Bezug zum Klimawandel, gar zum menschgemachten, sieht er nicht. Glaubt aber trotzdem daran, dass – weil er einen dreijährigen Sohn hat, und bezieht auf Nachfrage den zehnjährigen Sohn der Moderatorin mit ein- dass die Regierung , und schaut zu den beiden zukünftigen Regierungsmitgliedern oder –macherinnen hinüber, unbedingt etwas gegen den Klimawandel machen müsse.

Eine davon, das grüne Urgestein Bärbel Höhn, hatte zuvor – wenn auch unfreiwillig- im Drang die Schließung zunächst „alter“, dann aller Kohlekraftwerke, auch als sozial berechtigt darzustellen, ein klassisches Eigentor geschossen. Weil ja – so Höhn- immerhin 370.000 Arbeitsplätze bei den „Erneuerbaren“ schon für 35 % des Stroms hierzulande sorgen würden, während nur 20.000 Arbeitsplätze bei den Kohleverstromern, allerdings 40 % des Stroms erzeugten. Sie wollte verdeutlichen, dass die Arbeitsplätze der Erneuerbaren doch um soviel wertvoller, weil zahlreicher seien, als die wenigen 20.000 Arbeitsplätze bei den Kohleverstromern, die nun leider, leider – was soll man machen- wegfallen müssten. Abgesehen von der auch nicht unwesentlichen Tatsache, dass beide Zahlen von den Arbeitsplätzen falsch sind, zeigte sie damit auf, dass die Erzeugung von Kohlestrom um fast den Faktor 20 x produktiver ist (370.000: 20.000), als die von Zappelstrom.

Und wenn man dann noch weiß, dass die Vergütung für den Erzeuger einer kWh für Kohlestrom nur ca. 3 – 4 Cent beträgt, während für Zappelstrom im Mittel 16 Cent/kWh bezahlt werden müssen, dann muss jedem klar werden, dass die bereits heute irrsinnig hohe Zweitkapazität an Zappelstromerzeugung nichts weiter als ein ausschließlich ideologisch begründeter aber extrem teurer Irrweg ist. Doch leider wurde auch dieses Eigentor nicht zum Thema, sondern ging im Getümmel der lebhaften Aussprache unter. Ebenso wie der zaghafte Hinweis der Staatssekretärin im Verkehrsministerium Dorothee Bär, die zwar alles gut und richtig fand, was der Professor und ihre vielleicht zukünftige Koalitionärin zum Klimawandel so sagten, und auch fest zum Pariser Abkommen steht, wie sie sagte, aber all dies nur machen wollte, wenn es nicht zu Lasten der Menschen gehen würde. Wie das gehen sollte, sagte sie allerdings nicht. Jedenfalls, so warf sie schüchtern ein, stünde ja Deutschland nur für 2 % der weltweiten Emissionen. Und damit – wollte sie wohl sagen- im weltweiten Ringen um den „Klimaschutz“ völlig unbedeutend. Und, hätte sie ergänzen müssen, auch wenn Deutschland komplett auf seine CO2 Emissionen verzichtete – im Vorgriff auf die Forderungen der Stockholmer „Wissenschaftler“ die auch noch die Einkind-Politik á la Mao dem Westen empfahlen- dann China und Indien zusammen diese Menge in wenigen Monaten zusätzlich in die Atmosphäre bliesen. Also total irrelevant ist, was wir hier machen oder nicht machen. Aber auch dieser schüchterne Einwand mit dem Ziel doch wieder etwa mehr Vernunft walten zu lassen, ging unkommentiert unter.

So bleibt nur noch das Schlusswort von Alex Reichmuth erwähnenswert, der tapfer gegen den Mainstream schwimmend allen sagen durfte, dass er jeglichen Versuch der Menschheit das Klima der Welt zu ändern für Hybris halte, allerdings gepaart mit einem entsetzliche Verlust an Wohlstand bzw. die Aussicht darauf. „Man würde hunderte Millionen Menschen zurückbringen ins tiefste Mittelalter, es gäbe Hungersnöte“ Wohl wahr! Freunde in der Runde hat er sich aber damit nicht gemacht.

 




Wohin fährt das Auto? Teil 1 Mobilität: Das letzte Gefecht?

 Es rappelt im Automobilsektor: Politik und NGOs nehmen den Diesel immer mehr unter Beschuss, die Autoindustrie macht ihren Kunden Geschenke, und in den kommenden Jahren wollen die Autohersteller neue Elektroauto-Modelle zu Dutzenden auf den Markt werfen. Bisher allerdings wollte kaum jemand die schönen Elektromobile kaufen. Jetzt hat die Politik gesagt: Wir wollen Elektro-Mobilität auf unseren Straßen.

Doch für Autohersteller gestaltet es sich schwierig, die betriebswirtschaftliche Seite der Elektroauto-Produktion sinnvoll zu gestalten, wenn keiner die Autos kauft. Denn bisher deutet nichts daraufhin, dass sich die Autokäufer so entscheiden, wie das eine ehemalige Umweltministerin, eine Bundeskanzlerin und ein Haufen grüner Ideologen in Ministerien wollen. Wer im Dienstwagen sitzt, unterschätzt chronisch die Bedeutung der Freiheit der Mobilität für die allermeisten Bürger.

In Zukunft sollen wir überhaupt nicht mehr selbst Auto fahren. Das Auto fährt uns, und die Autohersteller bereiten uns damit ein Geschenk: »Wir schenken jedem von uns 38.000 Stunden, die wir heute im Auto über unser gesamtes Leben verbringen. Man kann lesen, lernen, Spiele spielen, mit der Familie reden. Sehr gute Sache!«

Noch nie stand das althergebrachte Automobil so unter Beschuss wie jetzt. Die Grünen würden es lieber heute als morgen abschaffen. Doch was dann? Zuhause bleiben? Nur sie selbst und NGO-Chefs sollen frei fahren dürfen.

Das bewährte Prinzip des Autoantriebes steht auf dem Prüfstand, der Motor, also das Herz aller Verbrennungskraftmaschinen, das Maschinen, Autos, Flugzeuge, Schiffe und Generatoren antreibt – kurz die universelle Maschine, die Pferd und Ochse abgelöst hat und dem Menschen eine neue gewaltige Quelle für die Krafterzeugung gab und die Mobilität. Die war zudem immer verfügbar im Gegensatz zu den trügerischen Kraftquellen Wasser- und Windkraft.

Mit Hilfe des Verbrennungsmotors wurde es möglich, schnell weite Strecken zu überwinden und schwere Lasten rund um die Welt zu transportieren und sogar zu fliegen. Und  – ja – dabei entstehen auch Abgase. Das geschieht bei jeder Verbrennung. Umsonst, also ohne Nebenwirkungen, gibt es nichts.

Diese Maschine also, die seit 120 Jahren erfolgreich den Menschen unterstützt, soll jetzt weg – zumindest in Deutschland. Ihr stürmt ein politischer Gegenwind entgegen so heftig wie noch nie. Die Autoindustrie kennt zwar Krisen. Vor 35 Jahren sahen sich die Autohersteller ihrer bis dahin schwersten Krise gegenüber, die Produktion brach ein, die Unternehmensbilanzen sanken ins Dunkelrote, zu Tausenden wurden Mitarbeiter entlassen. Solche Krisen aber waren der Konjunktur geschuldet. Die erholte sich wieder, Autohersteller reagierten mit Verbesserung der Produktion, bauten Roboter in die Fabriken und schafften mit neuen Produkten den Wiederaufstieg.Doch jetzt weht ein politischer Gegenwind, dem die Autohersteller nicht mit technischen und organisatorischen Verbesserungen entkommen können. Das komplette Modell »Auto« steht scheinbar zur Disposition. Es soll verschwinden ebenso wie die individuelle Mobilität. »Ein Volk ohne Wagen«, wie ein Buchtitel eines Professors für „Social Sciences“ lautet, soll sich nur noch nach Planvorgaben für die Mobilität und irgendwann nur mit Sondererlaubnis fortbewegen dürfen. Weniger Autos schaden weder Bürger noch der Autoindustrie – so die Schlagworte. Das allerdings haben die Autonutzer über 100 Jahre in aller Welt bisher anders gesehen.

Begonnen hatte der Siegeszug der Automobilisierung in einer Garage in Stuttgart Bad Cannstatt. Dort hatte Gottlieb Daimler 1885 den ersten Motorwagen gebaut – zehn Jahre zuvor hatte Nikolaus Otto seinen Viertaktmotor zum Laufen gebracht und damit die Grundlage für die Motorisierung gelegt. Er war aber nur einer von vielen Erfindern, die gleichzeitig an Gaskraftmaschinen arbeiteten. Das Prinzip Verbrennungsmotor lag seinerzeit gewissermaßen in der Luft. Doch sein Sieg stand nicht von vornherein fest. Denn die ersten Automobile wurden elektrisch angetrieben.
Das war bequem: Strom geben und losrollen. Die Apparate der Herren Daimler und Kollegen dagegen waren mechanisch anfällige Maschinen, kompliziert zu bedienen und laut.Der erste Porsche war ein Elektroauto. Ferdinand Porsche baute einen großen Bleiakku in einen Kutschenwagen, dazu in die Radnaben Elektromotoren. Die ersten Kunden waren begeistert: Dieser kräftige Antrieb verursachte keinen Lärm, keinen Dreck, ein beschwerliches Anlassen mit einer Handkurbel und teilweise gebrochenen Fingern wie bei den frühen Benzinautos war unnötig. Die waren noch unzuverlässig; das Benzin dafür musste in kleinen Fläschchen aus der Apotheke geholt werden.

Doch die Elektrowagenlenker beschwerten sich rasch: Zu geringe Reichweite! Nach nur 50 km war die Batterie leer. Ferdinand Porsche vergrößerte die Bleibatterie und baute eine Batterie mit dem sagenhaften Gewicht von zwei Tonnen ein. Doch auch die reichte immer noch nicht aus, deshalb fügte Porsche einen kleinen Benzinmotor dazu, der einen Stromgenerator antrieb, der wiederum die Batterie laden sollte. Der erste Hybridmotor. Doch zwei Antriebe in einem Auto bedeuten einen hohen technischen Aufwand mit entsprechenden Kosten und Fehlerquellen. Durchgesetzt hat er sich nicht.

Der Grund ist einfach: Benzin hat einen viel höheren Gehalt an Energie als eine Batterie. Die Energiedichte ist deutlich höher – mit entscheidenden Auswirkungen auf die Reichweite: ein Benzinauto kommt heute mit 60, 70 l Benzin rund 1.000 km weit, das Elektroauto mit einem Akku von rund 100 kWh Kapazität macht dagegen maximal 350 bis 400 km. Im Winter werden deutlich weniger Kilometer erreicht, denn die Temperatur hat einen erheblichen Einfluss darauf, wie viel elektrische Energie eine Batterie speichern kann.

Bei minus sieben Grad hat eine Batterie nur noch die Hälfte ihrer Kapazität. Zudem will man es im Winter im Innenraum warm haben, daher muss zusätzlich auch noch Strom für die Heizung des Innenraumes abgezweigt werden. Das Auto verliert weiter an Reichweite. Beim Verbrennungsmotor gibt es diese Wärme gratis dazu, denn die Abwärme des Motors heizt den Innenraum.

Die Autobauer können nichts anderes tun, als noch mehr Akkus in ihre Elektroautos zu packen, um die Reichweite zu erhöhen. Das bedeutet deutlich mehr Gewicht; man sollte eigentlich besser »rollende Batterie« dazu sagen. Auch heute ist noch keine Lösung für Akkumulatoren mit deutlich höherem Energiegehalt in Sicht – trotz großer Anstrengungen der Forschung. Es ist wie bei der Kuh: Auch mit modernen computergesteuerten Melkmaschinen kann der Bauer nicht mehr Milch herausholen, als im Euter drin ist.Das Wundermittel Benzin und Diesel als kraftvolle und gut transportierbare Energiequelle erst versetzte Autokonstrukteure in die Lage, eine sehr breite Palette an völlig verschiedenen Modellen auf die Beine zu stellen. In den rasanten Jahren des technischen Aufschwunges erprobten viele kleine Hersteller die unterschiedlichsten Konstruktionskonzepte.

Eine lange Entwicklung hat das Automobil hinter sich, in der sich die technisch besten Lösungen durchsetzten – und die für die persönliche, freie Mobilität. Darunter ist auch der Motor des Rudolf Diesel. Der befasste sich vor 120 Jahren mit Kältemaschinen, also auch mit Kompression und kam auf einen genialen Gedanken, wie der Kraftstoff besser ausgenutzt werden kann.

Doch sein Motor ist heute ins Schussfeld geraten. Das ist zwar der effektivste Motor, den wir haben. Er geht mit dem Kraftstoff besonders sparsam um und ist deshalb beliebt. Heute haben ihn die Autoingenieure so sauber bekommen, dass hinten aus dem Auspuff kein Feinstaub und nur noch sehr wenige Stickoxide herauskommen. Dennoch soll er weg, weil er angeblich zu unfreundlich gegenüber der Umwelt ist.
Wie funktioniert denn die Reinigung der Abgase genau und was bedeutet das für die Schadstoffklassen? Antworten in der ersten Folge einer dreiteiligen Filmserie über Motoren, Maschinen, ungebändigte Kraft – und der Zukunft.

Übernommen von Tichys Einblick




Der Inzest Charakter der IPCC Berichte

(Offenlegung: Ich habe zum NIPCC-Bericht [der oppositionelle Bericht gegen die Verlautbarungen des IPCC, speziell der „Zusammenfassung für Endscheidungsträger“; der Übersetzer]  beigetragen). Der o.g. Artikel von Idso ist eine Überprüfung und Analyse eines Artikels mit fast gleichen Titel in Scientometrics , Jankó et al . (2017).  Idso schrieb:

Ein weiterer interessanter Befund ergibt sich aus der Untersuchung, wen die einzelnen Organisationen zitiert haben. In einer Textanalyse des AR5-Berichts des IPCC zeigte sich, dass 19 der 20 am häufigsten zitierten Autoren in diesem Bericht direkt an der Zusammenstellung beteiligt waren. Und obwohl die verbliebene Person, J. Hansen, offiziell nicht an der Produktion von AR5 beteiligt war, nahm er an der Inszenierung  von mindestens einem früheren IPCC-Bericht (Third Assessment) als beitragender Autor teil. Eine ähnliche Analyse des AR4-Berichts ergab, dass 14 der 16 am häufigsten zitierten IPCC-Autoren an der Erstellung dieses Berichts beteiligt waren. Aber auch hier waren die verbleibenden zwei Personen direkt an der Erstellung des vorangegangenen dritten Sachstandsberichts des IPCC beteiligt. Solche Erkenntnisse deuten darauf hin, dass die Autoren des IPCC die Absicht haben, ihre eigene Arbeit zu promoten.

So wie Idso die Schlussfolgerung von Janko et al erst am Ende enthüllte, werde auch ich die Auflösung gegen Ende bringen.

Diese Art von gegenseitiger Bevorzugung [oder auch „eine Hand wäscht die andere“, im Original: Inzest] ist für viele, die mit der Akademie zu tun haben sind, keine Überraschung. Eines der wenigen intelligenten Dinge, von denen Prinz Philip berichtet, ist, dass Universitäten die einzigen wirklich inzestuösen Organisationen in unserer Gesellschaft sind. Fast jeder, der an einer Universität unterrichtet, ist ein Produkt davon. Meistens wird die Universität geführt, indem sie den akademischen Senat kontrollieren, so dass die Gefangenen ihr Gefängnis selbst und effektiv führen.

Die meisten Universitätspräsidenten und Dekane sind Gefangene mit Begünstigungen. Es gibt viele Beispiele für nicht-akademische Präsidenten und Abteilungsvorsitzende, die von den Akademikern in eine Schablone gedrängt wurden, die an den Sumpf der Politiker erinnert, die den Nichtpolitiker Trump ablehnen. Es ist fast unvermeidlich, dass jede Gruppe jede Person ablehnt, die sie für nicht qualifiziert hält. Die für diese Entscheidung zu Grunde liegenden Qualifikationen sind dieselben, die sie geschaffen und geschützt haben. Wenn Sie jemanden einstellen, der „nicht qualifiziert“ ist und sich herausstellt, dass er so gut oder sogar besser arbeiten kann, werden Ihre eigenen Qualifikationen und Ihre Kontrolle untergraben. Zu dieser Liste können das IPCC hinzufügen.

Alle Berichte, die der IPCC produziert, das sind die eigentliche Forschung und schriftliche Dokumente, sind vorher ausgewählt und von ihren heimatlichen, nationalen Wetterämtern bestimmt. Dieses Verfahren wurde von Maurice Strong im Zusammenhang mit der Klimarahmenkonvention der Vereinten Nationen (UNFCCC) und der UN-Agentur World Meteorological Organization (WMO) aufgestellt, die sich aus den Bürokraten und Wissenschaftlern aller nationalen Wetterämter zusammensetzt.

Wie Richard Lindzen, Atmosphärenphysiker und Alfred P. Sloan, Professor für Meteorologie am Massachusetts Institute of Technology sagten:

Der Schwerpunkt des IPCC liegt jedoch nicht auf der Qualifizierung von Wissenschaftlern, sondern auf Auswahl von Vertretern aus über 100 Länder. Die Wahrheit ist, dass nur eine Handvoll Länder qualitativ hochwertige Klimaforschung durchführen. Die meisten der sogenannten Experten dienten lediglich dazu, die Zahlen aufzupolstern.

 Es ist keine Geringfügigkeit, dass routinemäßige Wetterdienstfunktionäre von Neuseeland bis Tansania als „die weltweit führenden Klimawissenschaftler“ bezeichnet werden. Es sollte keine Überraschung sein, dass sie den Prozess [der Auswahl von nicht-Qualifizierten] entschlossen unterstützen.

Ein weiteres Problem mit politisch motivierter Forschung und der Inzidenz von Wissenschaft und IPCC besteht darin, dass sie Regeln oder Informationen ignorieren, insbesondere solche, die nicht in die Tagesordnung passen. Wieder identifizierte Lindzen das Problem:

 Der IPCC behauptet, seine Berichte sei peer-reviewed, was einfach nicht stimmt. Nach den Peer-Review Regeln, muss eine Gutachtergruppe eine Studie [zuerst] akzeptieren, bevor sie in einer wissenschaftlichen Zeitschrift veröffentlicht werden könne. Wenn die Rezensenten Einwände haben, muss der Autor sie beantworten oder den Artikel ändern, um die Einwände der Rezensenten zu berücksichtigen.

Im Rahmen des IPCC-Überprüfungsprozesses sind die Autoren dagegen in der Lage Kritik zu ignorieren. Nachdem er seine vom IPCC in den Jahren 1990 und 1995 ignorierten Überprüfungskommentare kommentiert hatte, bat Lindzen darum, seinen Namen aus der Liste der Gutachter zu entfernen. Die Gruppe lehnte es ab. [Hervorhebung durch Üb.s.]

 Manche behaupten, dass das IPCC nach frühen Kritiken von Lindzen, Vincent Gray und anderen ein System der Überprüfung durch Aussenstehende eingeleitet hat. Die Studie von Janko et al. zeigt jedoch, dass es sich um eine Farce handelt, die lediglich die Behauptung stützen soll – es wurde reagiert [hier einer der vielen Beiträge von Donna Laframboise – auch in deutsch auf Eike, einfach mal auf Eike mit dem Namen suchen] . Es ist die Natur der inzestuösen Gruppen, dass die Lösung von Problemen intern ist und selten effektiv umgesetzt wird.

 

Die Auflösung

Idsos Analyse liefert ein perfektes Beispiel für Lindzens Kritik. In dem Konflikt zwischen Michael Manns „Hockeyschläger“-Forschung und der Analyse seiner Unzulänglichkeiten durch McIntyre und McKitrick, taten sich zwei Mitglieder des  Kongresskomitees zusammen, um das zu untersuchen.

Dieses wurde als das Barton-Komitee bekannt und war eine gemeinsame Anstrengung zwischen dem Hausausschuss für Energie und Handel und dem Unterausschuss für Aufsicht und Ermittlungen. Briefe wurden an den IPCC-Vorsitzenden Rajendra Pachauri, den Direktor der National Science Foundation, Arden Bement, Michael Mann , Raymond Bradley und Malcolm Hughes geschickt. Es forderte von den drei Wissenschaftlern, ihre Daten und Methoden und Computercodes bereitzustellen, um ihre Ergebnisse nachzuvollziehen.

Die Politiker wussten, dass sie von der Wissenschaft und Statistik verwirrt werden würden, und so schufen sie eine unabhängige Gruppe von Spezialisten, die nachforschten und einen Bericht vorlegten, der ihre Schlussfolgerungen unterstützt. Diese Gruppe wurde mit dem Wegman Report bekannt, der nach ihrem Vorsitzenden Edward Wegman von der George Mason University benannt wurde.

In seinen Empfehlungen an den Barton-Ausschuss und damit vermutlich an jeden zukünftigen IPCC-Bericht schrieb Wegman,

 

  1. Schlussfolgerungen und Empfehlungen (Seite 51)

 Empfehlung 1 . Besonders wenn es um massive öffentliche Gelder und das Leben der Menschen geht, sollte die akademische Arbeit intensiver kontrolliert und überprüft werden. Vor allem sollten die Autoren politikbezogener Dokumente wie der IPCC-Bericht Climate Change 2001: The Scientific Basis nicht die gleichen sein , wie diejenigen, die die wissenschaftlichen Arbeiten erstellt haben.

 

Das IPCC hat dem keine Aufmerksamkeit gewidmet, wie Janko et al. feststellte und Idso unterstrich. Sie sind eine weitere inzestuöse Gruppe, die der akademischen Tradition folgt.

Erschienen auf WUWT am 07.10.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/10/07/the-incestuous-nature-of-the-ipcc-reports/

*  * *

 

Ergänzung durch den Übersetzer.
Hier erst noch ein paar Worte aus o.g. Bericht und demgegenüber orientierende Recherchen bei den Unterstützern von Dr. Mann

Folgend ein paar wesentliche Feststellungen aus o.g. Wegman Report. (..pdf)

AD HOC COMMITTEE REPORT ON THE ‘HOCKEY STICK’ GLOBAL CLIMATE RECONSTRUCTION

Bericht des Ad-hoc-Ausschuss über die Rekonstruktion der Hockeyschlägerkurve als Darstellung des globalen Klimas

  1. Feststellungen (Seite 48)

  1. Im Allgemeinen fanden wir das Schreiben von MBH98 [Abkürzung für: Mann Bradley and Hughes’ 1998 paper] etwas unklar und unvollständig. Die Tatsache, dass MBH98 eine weitere Klärung in Form einer Korrektur ausgegeben werden; in Nature veröffentlicht (Mann et al., 2004) … Dies legt nahe, auch dass das Begutachtungsverfahren nicht so gründlich war, wie es hätte sein können.
  2. In der Regel finden wir die Kritik von MM03 und MM05b und MM05a gültig und ihre Argumente überzeugend. Wir waren in der Lage, ihre Ergebnisse zu reproduzieren und sowohl theoretische Erklärungen (Anhang A) und Simulationen zu überprüfen, ob ihre Beobachtungen korrekt waren. Wir kommentieren, dass sie versuchen,… die Aufmerksamkeit auf die Mängel der MBH98-Typ Methoden und nicht versuchten, die paläoklimatische Temperaturen zu rekonstruieren.
  3. Wie bereits erwähnt, ist es üblich, dass für die Datenanalyse und die Erkennung von Mustern durch andere Experten eine Trainingsprobe zur Kalibrierung verwendet wird. Normalerweise würde man versucht haben, die Trainingsdaten als repräsentativ für den gesamten Dataset darzustellen. Das Temperaturprofil in den Jahren 1902-1995 ist ein zunehmender Trend und daher mit dem Temperatur Profil im Millennium nicht vergleichbar ist und daher für die Kalibrierung nicht geeignet. In der Tat führt das zum Missbrauch der hauptsächlichen Komponentenanalyse. Allerdings klingt die Erzählung in MBH98 zur Kalibrierung oberflächlich ganz vernünftig, … und könnte von jemand, der nicht ausführlich in der statistischen Methodik geschult ist, leicht übersehen werde. Dr. Mann hat enge Beziehungen sowohl zur Yale University als auch der Pennsylvania State University. Wir können nebenbei feststellen fest, dass sowohl die Yale University und die Pennsylvania State University jeweils Institute für Statistik mit ausgezeichnetem Ruf haben.
    Auch wenn ihren Arbeiten sehr wichtige statistische Komponenten auf der Grundlage ihrer Literaturzitate angeben, gibt es keine Hinweise darauf, dass Dr. Mann oder eine der anderen Autoren … signifikante Wechselwirkungen mit Mainstream-Statistiker gesucht haben.
  4. Als Antwort auf das Schreiben der Vorsitzenden Barton und Whitfield an den Vorsitzenden Dr.Mann, übermittelte dieser mehrere Websites mit umfangreichen Materialien, einschließlich Daten Code. Das Material ist nicht organisiert oder dokumentiert, so dass es für einen Außenstehenden nicht praktikabel ist, die MBH98 / 99 Ergebnisse zu replizieren. Zum Beispiel, die Verzeichnis- und Dateistruktur die von Dr. Mann verwendet wird, ist in dem Code eingebettet. es würde eine umfangreiche Umstrukturierung des Codes erfordern, um es für eine lokalen Rechner kompatibel zu machen.. Darüber hinaus bedeutet die kryptische Natur einiger der MBH98 / 99 Erzählungen [narratives], dass Außenstehende nur Vermutungen … machen könnten.
  5. Wie in der Einleitung erwähnt, wird ein großer Teil der Diskussion über den „Hockeyschläger“ in konkurrierenden Web-Blogs gemacht. Unser Ausschuss ist der Ansicht, dass Web Blogs keine geeignete Art und Weise sind, um Wissenschaft zu betreiben. Damit nähren die Blogs den Glauben an die Tatsache, dass diese Probleme von globaler Erwärmung, aus dem Reich des rationalen wissenschaftlichen Diskurses entfernt wurden. Leider sind die beteiligten Fraktionen leidenschaftlich und heftig polarisiert.
  6. Generell gesprochen … konnte die Gültigkeit der MM05 Studie nicht erkannt werden und ihre Ergebnisse sind eher als Entwicklungen von voreingenommenen Amateuren … anzusehen …
  7. Unser Ausschuss ist der Auffassung, dass die Bewertungen, die das Jahrzehnt der 1990er Jahre als das wärmste Jahrzehnt in einem Jahrtausend und das 1998 das wärmste Jahr in einem Jahrtausend zeigen, nicht durch die MBH98 / 99 Analyse unterstützt werden kann. Wie bereits in unserem Abschnitt über Hintergründe erwähnt, sind Proxys von Baumringen typischerweise geeicht, um niedrige Frequenzänderungen zu entfernen. Die Mittelalterliche Warmzeit und die Kleine Eiszeit, ein Zyklus der weit über das Jahr 1990 anerkannt wurde,  ist aus den MBH98 / 99 Analysen verschwunden, um die Ansprüche auf das wärmste Jahrzehnt / das heißeste Jahr möglich zu machen. Die Methodik der MBH98 / 99 unterdrückt diese niedrigen Frequenzinformationen. Der Mangel an Daten der entfernteren Vergangenheit macht die Ansprüche auf „die-heißesten-in-einem-Millennium“ im Wesentlichen nicht verifizierbar.
  8. ….
  9. Wir stellen fest, dass wir Statistiker / Mathematiker sind, die gebeten wurden, die die Richtigkeit der in MBH98 / 99 gefunden Methodik zu kommentieren. Hier [in unseren Bericht] konzentrieren wir uns auf die Beantwortung dieser Frage und nicht auf, ob sich das globale Klima verändert.

* * *

Von Webseiten der Befürworter von Dr.Mann

  • Das deutsche Wikipedia bezieht zu Dr. Mann und dem Wegmann Report völlig gegensätzliche Positionen, ohne auf die Kritikpunkte des Berichts einzugehen.

 

„However, at this point, it is not yet possible to say whether, on a hemispheric scale, temperatures declined from the 11-12th to the 16-17th century. Nor, therefore, is it possible to conclude that global temperatures in the Medieval Warm Period were comparable to the warm decades of the late 20th century.”

Kurz gesagt Man kann nicht sagen, ob die Temperaturen vom 11ten … bis 17ten Jahrhundert zurückgegangen sind. Daher man auch die M. Warmzeit nicht mit dem späten 20ten Jahrhundert vergleichen.

 

  • Science Blogs, für mich die amerikanische Seelenverwandtschaft zu „Klimaretter“ beschreibt als schlimmsten Fehler im Wegmann Report:

Der gravierendste Fehler der Autoren Wegman, Scott and Said ist die Behauptung:
„Unser Ausschuss ist der Ansicht, dass Web Blogs keine geeignete Art und Weise sind, um Wissenschaft zu betreiben.“

und weiter oben wird zugegeben:  “ … both reports find that “off-centre” method used in Mann Bradley and Hughes’ 1998 paper (MBH98) tended to produce hockey stick shapes …  Unfortunately, WSS stop there and do not address the question of what difference this makes to the reconstruction. The NRC panel did address this question and found that it made little difference“

Kurz: „…. das die Methoden von Dr. Mann dazu tendieren, Hockey Sticks zu erzeugen, … aber das macht nur geringe Unterschiede“

 * * * *

 




Xavier-Nachlese: Die windigen Behaup­tungen des Mojib Latif – Erwide­rungen auf ein NDR- Fernseh­interview

Stefan Kämpfe, Josef Kowatsch, Klaus-Eckart Puls
Am 5. Oktober 2017 fegte der Orkan „XAVIER“ durch Deutschland. Unser Mitgefühl gilt den Angehörigen der Opfer und allen, die Sachschäden erlitten haben. Doch kaum hatte „XAVIER“ sein zerstörerisches Werk vollendet, meldete sich der Alarmist Mojib Latif zu Wort und deutete in der NDR- Talkshow vom 6. Oktober das Orkantief als Folge des Klimawandels. Doch so schlimm die Auswirkungen von XAVIER auch waren- Stürme gehören in der Westwindzone der gemäßigten Breiten, in denen Deutschland liegt, zum Alltag.Sie sind der Preis, den wir für ein insgesamt angenehmes Klima ohne extreme Hitze oder Kälte und mit meist ausreichenden Niederschlägen bezahlen müssen, denn sie gleichen – besonders vom Herbst bis zum Frühling – die Temperaturunterschiede zwischen heißen und kalten Regionen aus. Und um es vorweg zu nehmen: Stürme und Unwetter werden nicht häufiger, und der leichte, insgesamt angenehme Temperaturanstieg der vergangenen 100 Jahre in Deutschland lässt sich ganz ohne die zunehmende CO2- Konzentration erklären.

Das Interview finden Sie hier http://www.ndr.de/fernsehen/sendungen/ndr_talk_show/Klimaforscher-Prof-Dr-Mojib-Latif,ndrtalkshow4272.html

 

Video nicht mehr verfügbar
.

Interview von Prof. Dr. Mojib Latif zum Wirbelsturm Xavier und Klimawandel in der ndr-Talkshow vom 6.10.17

Gibt es mehr oder weniger Wind, Stürme und Sturmfluten in Norddeutschland?

Abb. 1: Abnehmende Windgeschwindigkeit in Norddeutschland (Mittel aus 25 DWD- Stationen) seit 1992 im Jahresmittel, weil Großwetterlagen mit unbestimmter Anströmrichtung (XX- Lagen der Objektiven Wetterlagen- Klassifikation des DWD) häufiger wurden.

Abb. 2: Abnehmende Windgeschwindigkeit in Norddeutschland (Mittel aus 25 DWD- Stationen) seit 1992 auch im Oktobermittel. „Xavier“ war ein Einzelfall, der so leider stets unregelmäßig als Herbststurm auftreten kann und nichts über die langfristige Klimaentwicklung aussagt!

Abb. 3: Auch langfristig wurde der Wind, hier ist der geostrophische Wind für die Deutsche Bucht dargestellt, schwächer. Grafik: Klaus Puls

Abb. 4: Nachdem die Anzahl atlantischer Orkantiefs zu Beginn der 1990er Jahre einen Höhepunkt erreichte, nahm sie wieder deutlich ab. Die Aussage des Herrn Latif, es gäbe immer mehr Stürme, ist falsch! Grafik: Klaus Puls

Abb. 5: Auch wegen der angeblichen Zunahme von Sturmfluten müssen wir uns keine Sorgen machen. Zwar erreichte deren Anzahl 1990 ein auffälliges Maximum, doch seitdem nahm ihre Häufigkeit wieder stark ab. Grafik: Klaus Puls

Gibt es mehr schwere Hurrikane (Tropische Wirbelstürme des Atlantiks), wie das Herr Latif im Interview am 06.10.2017 (NDR- Talkshow 22:00 Uhr) behauptete?

Abb. 6: Erst seit etwa 1950 kann man davon ausgehen, dass Anzahl und Intensität der Hurrikane einigermaßen korrekt erfasst wurden (zunehmende See- und Luftfahrt; Wettersonden und Wetterballone). Und da Zeigt sich Überraschendes: Schwere Hurrikane ab der Kategorie 3 auf der Saffir- Simpson- Skala wurden etwas seltener; zwar ist der Abnahmetrend nicht signifikant; eine „besorgniserregende Zunahme“ fehlt jedoch eindeutig.

Abb. 7: Die durch alle Hurrikane pro Jahr freigesetzte Energiemenge (ACE) blieb seit 1950 praktisch gleich. Die zunehmenden finanziellen Schäden durch Hurrikane resultieren nicht aus mehr Hurrikan- Energie, sondern sind eine Folge der immer stärkeren Besiedlung der Küsten, bei steigendem Wohlstand, was zu immer mehr Bebauung führt.

Mildere Winter mit immer weniger Eis und Schnee in Deutschland?

Hierbei handelt es sich um eine halbwahre Aussage des Herrn Latif. Zwar wurden die Winter seit 1950 um beachtliche fast 1,8 Kelvin milder (DWD- Mittel), allerdings endete diese Erwärmung nach der 2. Hälfte der 1980er Jahre. Eine wesentliche Ursache der winterlichen Erwärmung Deutschlands (und der Erwärmung besonders im Frühling und Sommer) ist nicht die CO2- Zunahme, sondern neben geänderten Großwetterlagenhäufigkeiten und mehr Sonnenschein (nur im Sommerhalbjahr!) der so genannte Wärmeinsel- Effekt (WI):

Abb. 8: Der Winter erwärmte sich in Deutschland seit den 1950er Jahren, an welche Herr Latif in dem Interview seine Kindheits- und Jugenderinnerungen hing, auch deshalb stark, weil das DWD- Mittel stark WI- belastete Stationen enthält und bis Anfang der 1980er Jahre eine Abkühlungsphase herrschte; hier Frankfurt/Main- Flughafen mit starker Zunahme an Besiedlungsdichte, Bebauung und Verkehr. Die ländliche Station Schneifelforsthaus/Eifel (grün) erwärmte sich deutlich weniger stark. Und seit den späten 1980er Jahren wurden die Winter überall wieder ein wenig kälter.

Abb. 9: Böse Überraschung für Herrn Latif: Seit 30 Jahren werden die Winter in Deutschland nicht milder, sondern etwas kühler.

Abb. 10: Unter Hinzunahme des sehr kalten Winters 1986/87 ergibt sich im DWD- Mittel noch eine Temperaturstagnation; doch an WI- armen Orten (Amtsberg- Dittersdorf/Erzgebirge, blau, sehr ländlich) bereits eine merkliche Abkühlung.

Weniger Schnee im Winter?

Daten liegen hierzu nur sehr wenige vor; immerhin dürfte die Anzahl der Tage mit einer Schneedecke von mind. 1 cm Höhe in Potsdam seit 1893/94 einigermaßen korrekt beobachtet worden sein:

Abb. 11: Seit dem Ende des 19. Jh. nahm die Anzahl der Schneedeckentage nur minimal ab. Betrachtet man das Gleitende Mittel, so steht schneeärmeren Phasen um 1920 und heute eine schneereichere um 1970 gegenüber – mit „Klimawandel“ hat das nichts zu tun.

Abb. 12: Betrachtet man die Zeit seit der Mitte der 1920er Jahre, so blieb die Anzahl der Schneedeckentage völlig unverändert; die wenigsten gab es mit nur einem(!) Tag 1948/49 und 1974/75 (3 Tage).

Erwärmung um etwa 1 Grad in ca. 100 Jahren in Deutschland – warum?

Auch hier helfen- weil langfristig vorhanden und relativ zuverlässig- die Daten aus Potsdam weiter. Sie zeigen, dass die Erwärmung des Sommerhalbjahres zu gut 56% allein mit der zunehmenden Sonnenscheindauer erklärbar ist:

Abb. 13: Enge Verzahnung des Gangs der Sonnenscheindauer (gelb) und der Temperatur (pink) im Sommerhalbjahr (April bis September).

Leider liegt ein DWD- Mittel der Sonnenscheindauer erst seit 1951 vor, doch seit dieser Zeit zeigt sich auch da ein deutlicher Zusammenhang:

Abb. 14: Selbst im Jahresmittel (von Oktober bis Februar wärmt die Sonne kaum) zeigt sich eine merkliche Verzahnung von Sonnenscheindauer und Temperatur, knapp 21% der Temperaturvariabilität lassen sich schon mit der Sonnenscheindauer erklären.

Werfen wir als nächstes einen Blick auf die Entwicklung der Großwetterlagenhäufigkeiten:

Abb. 15: Seit 1881 wurden Großwetterlagen mit südlichem Strömungsanteil enorm häufiger; diese wirken erwärmend. In 2014, dem bislang wärmsten Jahr in Deutschland mit 10,3°C (DWD- Mittel), erreichte ihre Häufigkeit mit 134 Tagen den bislang höchsten Wert (in den Kaltjahren 1887, 1908 und 1919 gab es diese erwärmend wirkenden Lagen mit Südanteil nur an 22, 27 und 23 Tagen). Die Wetterlagen-Klassifikation erfolgte nach HESS/BREZOWSKY. Wegen der sehr unterschiedlichen Größe der Daten mussten Indexwerte berechnet werden, um beide Werte in einer Grafik anschaulich darstellen zu können.

5 Grad Erwärmung in Deutschland bis 2100- wie realistisch sind die apokalyptischen Erwärmungsprognosen des Herrn Latif?

In dem Interview nannte Herr Latif keinen konkreten Startpunkt, ab dem die Erwärmung von 5 Grad (entspricht 5 Kelvin) gelten soll. Da ein verlässliches Deutschland- Mittel seit 1881 vorliegt, ergibt sich seitdem eine Erwärmung (Jahresmitteltemperatur) um gut 1,4 Grad; in den bis 2100 verbleibenden gut 8 Jahrzehnten müsste es sich also um 3,6 Grad erwärmen- völlig unrealistisch:

Abb. 16: In den 136 Jahren seit 1881 bis 2016 sind erst 1,4 Grad der 5 Grad Erwärmung erfolgt. Um diese 5 Grad zu schaffen, müsste sich die Erwärmung in den verbleibenden gut 8 Jahrzehnten auf mehr als 0,4 Grad je Jahrzehnt beschleunigen – mehr als unrealistisch. An der fetten, grauen Trendmittel- Linie erkennt man, dass sie jedoch ganz am Ende flacher wird. Eine weitere, wesentliche Erwärmungsursache ist nämlich die AMO (in deren Warmphasen, wie zur Mitte des 20. Jahrhunderts und heuer, es in Deutschland tendenziell wärmer war; doch nun wird erwartet, dass bald eine AMO- Kaltphase beginnt).

Obwohl statistisch nicht signifikant, lohnt sich ein Blick auf die Temperaturentwicklung der letzten 20 Jahre; denn sie zeigt eine merkliche Abschwächung des Erwärmungstrends:

Abb. 17: Seit 2 Jahrzehnten scheint sich die Deutschland- Erwärmung zu verlangsamen – keine guten Voraussetzungen, dass die Prognosen des Herrn Latif für das Jahr 2100 auch nur annähernd eintreten. Und hierbei wurde 2017 schon sehr optimistisch auf 9,6°C geschätzt – vermutlich wird es noch 1 bis 3 Zehntelgrad kühler als diese Schätzung ausfallen. Wegen der nachlassenden Sonnenaktivität wird hingegen eine Stagnations- oder Abkühlungsphase immer wahrscheinlicher.

Fazit: Die Behauptungen des Mojib Latif lassen sich anhand der Daten widerlegen. Die mittleren Windgeschwindigkeiten in Norddeutschland nahmen sowohl langfristig als auch seit den 1990er Jahren ab. Die Anzahl der atlantischen Orkantiefs und der Sturmfluten (Nordsee) erreichte in den frühen 1990er Jahren zwar ein markantes Maximum; anschließend sank ihre Zahl aber wieder auf das Niveau der 1950er bis 1970er Jahre. Seit fast 70 Jahren lässt sich auch keine Zunahme der schweren Hurrikane (ab Kategorie 3) beobachten; eher wurden sie etwas seltener. Dass Unwetterschäden zunahmen, ist eine Folge des gestiegenen Wohlstands (mehr, größere und wertvollere Gebäude oder Anlagen, teils in dafür ungeeigneten Gebieten wie Meeresküsten, Bach- und Flusstälern); nicht eine Folge des Klimawandels. Und die in Deutschland tatsächlich gestiegenen Lufttemperaturen haben ihre Hauptursachen in geänderter Landnutzung (WI- Effekte), zunehmender Sonnenscheindauer und häufigerer Großwetterlagen mit südlichem Strömungsanteil. Die von Herrn Latif befürchtete Erwärmung um 5 Grad bis 2100 ist mehr als unrealistisch, zumal sich der Erwärmungstrend zu verlangsamen scheint; er könnte gar in eine Stagnations- oder Abkühlungsphase übergehen.

Stefan Kämpfe, unabhängiger Natur- und Klimaforscher

Klaus Puls

Josef Kowatsch

Wer dem ndr-Fernsehen seine Meinung dazu schreiben möchte hier die Mail-Adresse fernsehen@ndr.de




Solidar­zuschlag für die Ökokirche

Erste „Erfolge“ zeigen sich schon: Bei den sich immer höher schraubenden Haushaltsstromkosten lohnt es sich langsam, eigenen Solarstrom selbst zu verbrauchen. Dass die ganzen EEG-Kosten dann die übrigen Bezieher zu bezahlen haben, die „Selbstversorger“ bei Bedarf jedoch weiterhin beliebig ohne Aufschlag beziehen dürfen, ist von der Politik zumindest geduldet, von den Versorgern sowieso, denn die verkaufen oft als „Nebenerwerb“ die Solaranlagen dazu [12].

Experten fordern CO2-Preis

Für unsere Medien ist scheinbar jeder Experte, der lautstark etwas fordert, was ihm selbst Nutzen bringt Es muss nur irgendwie mit „nachhaltig“ umschrieben sein.
KLIMARETTER.INFO, 06. Oktober 2017: [1] Experten fordern CO₂-Preis
Kern des Vorschlags ist es, die CO2-Emissionen in allen Bereichen – von Industrie über Haushalte bis Verkehr – mit einem einheitlichen Mindestpreis zu belegen, also auch in den Sektoren, die bisher nicht (wie Energie und Industrie) im EU-Emissionshandel erfasst sind. Die konkrete Höhe solle am besten abgestimmt mit Frankreich und weiteren EU-Partnern festgelegt werden.

Inzwischen ist auch Frankreich häufig mit im Spiel. Macron hat erkannt, dass die deutsche Politik mit ihrer sich selbst verordneten Klimahysterie bereit ist, fast jede „Klimakostengeisel“ auf sich zu nehmen, die man ihnen vorschlägt und zur „Klimarettung“ der Welt fast beliebig Geld an andere Länder auszuteilen. Da CO2-Bepreisung Frankreich wegen seinem hohen Kernkraftanteil [3] fast nicht trifft, lässt sich damit (auf Kosten von Deutschland) gut leben.
Entsprechend positioniert sich dieser Präsident als der „neue Obama“. Wer im eigenen Land nicht viel erreicht, weiß, auf welchem Gebiet sich derzeit fehlender Erfolg leicht gewinnen lässt:
oekonews.at 21.9.2017: [9] Macron fordert Menschenrecht auf intakte Umwelt
… „Jeder Mensch hat das Recht, in einer ökologisch intakten Umwelt zu leben.“ Dies ist der erste Artikel eines Entwurfs des „Pakts für die Umwelt“. Eine weitere Forderung „Die gegenwärtigen Generationen müssen gewährleisten, dass ihre Handlungen nicht die Möglichkeiten zukünftiger Generationen beeinträchtigen.“ Der Pakt kodifiziert zudem das Prinzip, dass VerschmutzerInnen für Schäden zahlen sollen. Um die Durchsetzung zu überwachen, soll ein ExpertInnenrat eingerichtet werden …

Für die Zukunft verzichten

Welcher Unsinn alleine in der Formulierung: „ … Die gegenwärtigen Generationen müssen gewährleisten, dass ihre Handlungen nicht die Möglichkeiten zukünftiger Generationen beeinträchtigen …“ steckt, erschließt sich nur jemandem, der in der Geschichte nachsieht, zu welchem Leid solche Vorgaben in der entfernten und jüngeren Vergangenheit geführt haben. „ExpertInnenrat“ hat da auch ohne Gendern nie geholfen, nur immer verhindert, dass Fehler erkannt werden durften. Leider kennt auch der Autor in seinem Bekanntenkreis Personen, welche überzeugt sind, heute genau zu wissen, was in hundert oder tausend Jahren „die Möglichkeiten beeinträchtigt“.
Gedanken dazu finden sich bei:
Achgut: Erbarmen! Das Lied von der Nachhaltigkeit
und [14] Formel zur Erlösung.

Wer es skurril mag und lesen will, zu welcher Abstrusität sich unsere Qualitäts-Medien versteigen können, oder was uns bevorsteht, wenn solche „Vordenker“ die Macht bekommen, der lese den begeisterten Artikel über das Musterland Cuba, welches uns schon weit voraus ist. Nicht zufällig kommt einem manches bekannt vor – ein großer Ideenspender war Deutschland:
SPIEGEL ONLINE 12.08.2012: Nachhaltigkeit Wie Kuba zur Insel der Energiesparer wurde
Kuba feiert eine neue Revolution: Die Regierung hat Petroleumkochern, Strom fressenden Kühlschränken und Glühlampen den Kampf angesagt. Die Insel, die in Industrienationen noch immer als rückständig gilt, wurde so zum nachhaltigsten Land der Welt.
Castro erzog sein Volk mit neuen Stromtarifen zum Energiesparen
Endlich. Mehr als 60 Jahre lang litt Kuba unter einer Energiekrise, die mit dem US-Embargo begann und Anfang der neunziger Jahre in eine akute Notlage mündete. Nach dem Fall des Eisernen Vorhangs fiel die Hilfe sozialistischer Bruderstaaten wie der Sowjetunion und der DDR aus, für den Import von Rohstoffen und Öl fehlten Devisen. In der Folge lagen Kraftwerke still, der Verkehr brach zusammen, ebenso die Produktion vieler Fabriken. Stundenlange Stromsperren legten jeden Tag die Fernseher, Ventilatoren und Kühlschränke lahm. Gegen Abend versanken Straßen und Häuser in Dunkelheit.
… Aus der Not der vergangenen Jahre, so befahl Regierungschef
Fidel Castro schon vor sechs Jahren, solle eine Tugend werden … Castro verkündete damals in einer Fernsehansprache: „Wir warten nicht, bis Treibstoff vom Himmel fällt, denn wir haben etwas Wichtigeres entdeckt: Energie sparen. Das ist so, als würde man auf ein riesiges Ölvorkommen stoßen.“
… Seitdem werben überall auf der Insel riesige Propagandaplakate fürs Energiesparen. Die „Granma“, offizielle Zeitung des Zentralkomitees der Kommunistischen Partei Kubas, lobpreist in fast jeder Ausgabe erneuerbare Energien, auf Cubavisión läuft einmal die Woche eine Fernsehshow rund um Energiefragen. Schon 2005 verbot der „Máximo Lider“ den Gebrauch herkömmlicher Glühbirnen. Innerhalb von nur sechs Monaten gelang es Castros Sozialarbeitern, über neun Millionen Glühlampen in privaten Haushalten, Ämtern oder Fabriken aus Lampenfassungen zu schrauben und durch Energiesparlampen zu ersetzen. In nur zwei Jahren wurden zwei Millionen Kühlschränke entsorgt, dazu eine Million Ventilatoren, 180.000 Klimaanlagen und 260.000 Wasserpumpen. Die Kubaner mussten sich die neuen Energiespargeräte, die meist aus China stammten, auf Pump kaufen, ob sie wollten oder nicht.
Die Energie-Revolution hat Kuba zum nachhaltigsten Land der Welt gemacht
… Während dort der Busverkehr nach wie vor lahmt, herrscht in Cárdenas fließender Verkehr … „Wir haben Hunderte Pferdekutschen, die feste Routen fahren und jeweils zwölf Personen fassen. Dazu Ochsenkarren, die Lasten transportieren und schätzungsweise 100.000 Fahrräder, die unsere Einwohner mobil machen …
Energiesparen gehört schon zum Bildungsprogramm von Kindergärten
… „Jedes Kind weiß doch, dass die fossilen Brennstoffe zu Ende gehen und wir den Klimawandel aufhalten müssen!“ …

Nicht (nach-)denken, handeln

Wenn sich alle einig sind, braucht auch die „Intelligenz“ nicht weiter nachzudenken [4], mitlaufen ist auf einmal wieder „intelligent“ genug. Eingängige Sprüche „ … Wollen wir einen wirksamen Klimaschutz“ führen zu (den) bekannt spontanen Antworten, natürlich „intelligenter“ vorgebracht in Form von Ergebenheitsbekundungen [11] wie:
dena Positionspapier: [8] Der von der Bundesregierung 2016 verabschiedete Klimaschutzplan 2050 beinhaltet ein klares politische Versprechen, dass über Parteigrenzen hinweg mitgetragen wird: Deutschland will seinen Beitrag zur Umsetzung des Pariser Klimaschutzabkommens leisten Wollen wir einen wirksamen Klimaschutz, müssen die Rahmenbedingungen dazu führen, dass der Ausstoß klimaschädlicher Treibhausgase in allen wichtigen Sektoren wie Strom-, Wärme und Mobilität massiv gesenkt wird.

Damit werden Energiesparmaßnahmen in armen Haushalten finanziert

Extra ausgewiesen ist, diesmal auch die bisher von den EEG-Kosten eher gebeutelten „kleinen Leute“ durch eine „soziale Komponente“ der Kostenerhöhungen zu berücksichtigen, wie es schon im Artikel [2] Die Ökokirche übt sich wie Robin Hood in Nächstenliebe beschrieben wurde.
Jedoch ist die Definition „Arm“ dabei recht sonderbar festgelegt: Alle, welche einen CO2-emittierenden Stoff nutzen, sind auf einmal „Reich“, wie zum Beispiel alle Bürger, welche sich noch erdreisten, mit Öl zu heizen.

Solche Details sind aber unwichtig, denn „sozial austariert“ wird es auf jeden Fall:
[1] Die zusätzlichen Einnahmen könnten danach zum Beispiel verwandt werden, um bestehende Steuern oder Umlagen abzulösen, die Lohnnebenkosten zu senken oder auch gleichmäßig pro Kopf an die Bürger zurückzuerstatten. Die Bepreisung von CO2 müsse „sozial austariert“ sein, wird in dem Papier betont. Sie könnte teilweise dazu genutzt werden, um Energiesparmaßnahmen in armen Haushalten zu finanzieren.

Beispiele dafür gibt es bereits. Arme Haushalte, welche an der Grenze angekommen sind, sich den Strom nicht mehr leisten zu können, bekommen von Energieberater*innen Tipps und „wertvolle“ Geschenke. Bestimmt können sie sich nach einer solchen Schulung, unterstützt durch modernstes, technisches Equipment, wieder langfristig den immer teurer werdenden Strom leisten. Schließlich sind dabei 30 % Ersparnis immer drin [5] (gespart wird von armen Leuten vor einer solchen Beratung ja nicht) und wenn man die Beratung dann drei Mal wiederholt … kostet der Strom gar nichts mehr. Was man nicht braucht, muss man auch nicht bezahlen; dann macht es nichts mehr aus, wenn es unbezahlbar ist – so einfach ist die Logik.
AWO München: Energieberatung für Münchner Haushalte mit geringem Einkommen
Gemeinsam mit anderen Münchner Wohlfahrtsverbänden und der SWM möchte die AWO München-Stadt Haushalten mit geringem Einkommen helfen Strom- Energiekosten einzusparen: Unsere ehrenamtlichen Energieberater/Innen besuchen Sie zu Hause, geben Ihnen Energiespar-Tipps und beantworten Ihre Fragen rund um das Energiesparen. Bei Bedarf können Energieverbrauchs-messungen vor Ort durchgeführt werden.
… Bei der Beratung erhält jeder Haushalt eine durch SWM finanzierte Energiesparbox (Inhalt: Energiesparlampen, Kühlschrankthermometer, abschaltbare Steckdosenleiste).

Eigentlich gibt es nur Gewinner …

Solche Konstellationen sind typisch für zukunftsweisende WIN-WIN Situationen, die es nur noch „zu heben“ gilt. Peter Altmaier war bei der Vorstellung eines solchen Konzeptes (und seiner Lösungskompetenz) einstmals sichtlich begeistert:
FOCUS ONLINE, 16.08.2012: [5] Arbeitslose als Energieberater Altmaier will Bürgern beim Stromsparen helfen
Die Stromrechnungen der Bürger sollen durch die Energiewende nicht unnötig steigen. Nach dem Willen von Umweltminister Peter Altmaier soll das mit kostenlosen Energieberatungen klappen … Insbesondere einkommensschwache Haushalte und Rentner sollen auf diese Weise unterstützt werden, sagte Altmaier am Donnerstag bei der Vorstellung seines 10-Punkte-Programms … Hier könne über 30 Prozent an Strom gespart werden. „Das wäre eine Möglichkeit, steigende Strompreise auszugleichen“, betonte Altmaier.

Als Jurist weiß er, wie die EEG-Zukunft problemlos gelöst wird:
FRANKFURTER ALLGEMEINE, 01.09.2017: Förderkosten für Erneuerbare noch jahrelang beträchtlich
Interviewer: … Wir brauchen dafür vielleicht sechs- oder siebenmal mehr Ökostrom als heute. Können Sie sich vorstellen, die Zahl der Windräder bis 2040 auch nur zu verfünffachen?
P. Altmaier: … Das ist nicht zwangsläufig die Folge. Zum einen dürften auf hoher See viele neue Windparks entstehen, die niemanden stören. Im Übrigen wird es nicht zu einer Verfünffachung der Zahl der Windkraftwerke kommen, weil die einzelnen Anlagen leistungsfähiger werden. Es wird keine „Verspargelung der Landschaft“ geben. Es gibt nach wie vor Regionen, in denen die Leute den Ausbau der Windenergie wollen.
… Heute können wir davon ausgehen, dass die Energiewende gelingen wird.

… mindestens ein Beschäftigungswunder

FOCUS ONLINE: [5] (P. Altmaier) … Dabei sollen Arbeitslose als Stromsparhelfer die Haushalte besuchen … Womöglich könnten auch Rentner als ehrenamtliche Energieberater gewonnen werden ...
Nach dem Motto: „Wenn alle Arbeitslosen zu Friseuren umgeschult werden und sich gegenseitig die Haare schneiden, haben alle eine Beschäftigung und der Staat Steuereinnahmen …“, löst ein typischer Vertreter unserer Politikelite elegant dieses Problem und denkt dabei auch noch richtungsweisend daran, wie man „nutzlose Rentnerzeit“ zum Volkswohl einbinden könnte.

Rechtlich ist bereits geklärt: Der Staat darf den Bürger weiter schröpfen

Nach dem Sinn fragt unsere „Elite“ nicht (mehr). Wichtig ist jedoch, dass das weitere Schröpfen der Untertanen für den Ökowahn nicht doch noch verboten werden könnte. Diese wichtige Frage wurde sorgfältig geklärt:
[6] … Weder das geltende Europa- noch das Verfassungsrecht hindern die zukünftige Koalition daran, eine nationale CO2-Bepreisung einzuführen.“ Diese Schlussfolgerung zieht Thorsten Müller, Stiftungsvorstand, aus der jüngsten Studie der Stiftung Umweltenergierecht.
… Eine Steuer ist in Deutschland verfassungsrechtlich zwar nicht möglich, wohl aber über eine Sonderabgabe oder eine Ressourcennutzungsgebühr nach Vorbild des „Wasserpfennigs“ für Anlagen, die dem ETS unterliegenden …

Unsere „Rettungselite“

Erarbeitet und unterzeichnet haben den Vorschlag die „bekannten Personen“ aus NGOs und halbstaatlichen Organisationen, teils sogar von Ministerien, welche ohne die CO2-Hysterie in der Bedeutungslosigkeit versinken würden, oft auch kein adäquates Einkommen mehr hätten. Hoffen wir, dass es in Berlin im künftigen Politikzirkus dagegen doch noch etwas Opposition gibt:
[1] Ein Hauptinitiator des neuen Vorschlags ist der Chef der Deutschen Energieagentur (Dena) A. Kuhlmann:
Als „Agentur für angewandte Energiewende“ (Eigenwerbung) will die Dena zum Erreichen der energie- und klimapolitischen Ziele der Bundesregierung beitragen. Gesellschafter der Agentur sind die Bundesrepublik Deutschland und die KfW Bankengruppe.
Zufügung: Herr Kuhlmann war auch Mitglied im SPD Parteivorstand.

dena 04.10.2017 Pressemitteilung: [7] Zu den Unterstützern der Initiative gehören
Christoph Bals, Politischer Geschäftsführer von Germanwatch e.V.,
Prof. Dr. Ottmar Edenhofer, Direktor des Mercator Research Institutes on Global Commons and Climate Change (MCC),
Prof. Dr. Manfred Fischedick, Vizepräsident des Wuppertal Instituts,
Dr. Patrick Graichen, Direktor der Agora Energiewende,
Björn Klusmann, Geschäftsführer des Forums Ökologisch-Soziale Marktwirtschaft e.V. (FÖS),
Jörg Lange, Vorstand von
CO2-Abgabe e.V.,
Prof. Dr. Stephan Lessenich, Institut für Soziologie München sowie Beirat von
CO2-Abgabe e.V.,
Prof. Dr. Andreas Löschel, Universität Münster,
(Zufügung: Vorsitzender der Expertenkommission „Moitoring der Energiewende“)
Dr. Felix Matthes, Forschungskoordinator Energie- und Klimapolitik am Öko-Institut,
Prof. Karsten Neuhoff, Abteilungsleiter Klimapolitik am Deutschen Institut für Wirtschaftsforschung (DIW),
Dr. Joachim Nitsch, ehemaliger Leiter „Systemanalyse“ am Deutschen Zentrum für Luft- und Raumfahrt (DLR) in Stuttgart sowie Beirat von
CO2-Abgabe e.V.,
Franzjosef Schafhausen, bis 2016 Abteilungsleiter „Klima, Europa und Internationales“ im Bundesumweltministerium,
(Zufügung: Leiter der Arbeitsgruppe „Emissionshandel“ im Ministerium)

Reinhard Schultz, Inhaber und Geschäftsführer von Schultz projekt consult sowie Vorsitzender von EnergieDialog2050 e.V.,
(Zufügung, Firmenwerbung: Als Unternehmensberatung sind wir für unsere Kunden Ansprechpartner in internen und externen Krisen, wir sortieren und öffnen für sie die Märkte und stellen wichtige Geschäftsbeziehungen im In- und Ausland her. Wir beeinflussen die regulatorischen Rahmenbedingungen für Ihr Geschäft. Und wir organisieren Ihnen einen wirkungsvollen Auftritt im politischen Berlin und in Brüssel. Wir produzieren keine Stapel von Papier, sondern liefern Ergebnisse.)
Dr. Christoph Wolff, Managing Director der European Climate Foundation

Nachtrag

Weil es zum Thema passt, dazu die letzte Meldung unserer Medien:
WELT N24 08.10.2017: [10] Deutschland verliert die Kontrolle über den Strompreis

Bild 2 Kostendarstellung Stromversorgung [10]
Quellen

[1] KLIMARETTER.INFO, 06. Oktober 2017: Experten fordern CO₂-Preis

[2] EIKE 23. September 2017: Die Ökokirche übt sich wie Robin Hood in Nächstenliebe

[3] EIKE 03.10.2017: Deutschland ohne Erneuerbare Energien – Energiewende im Faktencheck

[4] EIKE 7. Oktober 2017: Klima : Entwarnung der Alarmisten

[5] FOCUS ONLINE, 16.08.2012: Arbeitslose als Energieberater Altmaier will Bürgern beim Stromsparen helfen

[6] topagraronline 06.10.2017: Die Zeit ist reif für eine CO2-Abgabe

[7] dena 04.10.2017 Pressemitteilung, Berlin: Energie- und Klimaschutzexperten fordern stärkere CO2-Bepreisung

[8] dena Positionspapier: Stärkere CO2-Bepreisung: Neuer Schwung für die Klimapolitik Deutschlands ökonomischer Rahmen zur Erreichung der Klimaziele

[9] oekonews.at 21.9.2017: Macron fordert Menschenrecht auf intakte Umwelt

[10] WELT N24 08.10.2017: Deutschland verliert die Kontrolle über den Strompreis

[11] EIKE 03.10.2017: Deutschland ohne Erneuerbare Energien – Energiewende im Faktencheck

[12] EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten

[13] EIKE 22.11.2016: Energieversorger helfen ihren Kunden gegen teuren EEG-Strom! Aktion lokaler Versorger in Bayern: Energiewende bezahlbar

[14] WELT N24, 14.05.2011 : Formel zur Erlösung




Deutschland auf der Geisterbahn der Angst

Insbesondere durch Opfer wurde das Volk dazu gebracht, die höheren Wesen gnädig zu stimmen. Die häufig erfolgende Bestrafung der Sünder äußerte sich in Katastrophen verschiedenster Art: Seuchen, Missernten, Sintfluten , Erdbeben oder auch das längere Ausbleiben von Regen und andere schmerzliche Ereignisse, die den Menschen ihre Machtlosigkeit gegen die Götter vor Augen führte.
Die christlichen Religionen hatten für diesen Zweck die Hölle eingeführt. Während die Evangelischen kaum Chancen haben, angesichts ihrer Sünden der Hölle zu entkommen, hat die katholische Kirche ein kluges System etabliert, mit dem sich die Sünder freikaufen können: Im Mittelalter buchstäblich mit Geld (der von Martin Luther bekämpfte Ablasshandel), heute mit dem Absolvieren bestimmter Rituale (Wallfahrten, Rosenkränze beten etc.).

Im Grunde hat sich auch in unseren angeblich aufgeklärten Zeiten nicht viel an dieser Methode der Kontrolle und Steuerung einer Bevölkerung geändert, denn die Benutzung von Angst zur Erreichung politischer Ziele war und ist unübertroffen wirksam. Die Priesterschaft vergangener Zeiten ist heute durch eine enge Arbeitsgemeinschaft von Regierenden und Medien ersetzt worden; (Anmerkung der Redaktion: „Die Wissenschaftler“ nicht zu vergessen, deren Autorität von den Regierenden und Medien genutzt werden, um ihre Behauptungen udn Forderungen unangreifbar zu machen, die aber auch oft selber in einer Doppelrolle: Verkünder der letzten Weisheit und politischer Vollstrecker – Beispiel unter vielen H.J. Schellnhuber & Cie- diese Rolle übernehmen) die Götter haben zumindest in unserem Lande nicht mehr viel zu melden, aber die Dämonen sind geblieben. An die Stelle der Götter sind flexibel nutzbare Begriffswolken wie Umwelt, Klima und Natur getreten; seltener die Mutter Erde persönlich in Gestalt von Gaia.
Was aber im Vergleich zum Mittelalter sehr viel stärker in der Angstpolitik genutzt wird, ist der Ablasshandel. Er hat viele Erscheinungsformen:

– Bioprodukte kaufen,
– Ökostrom nutzen,
– vorbildliche Mülltrennung,
– Photovoltaik-Paneele auf dem Dach,
– Elektroauto oder Hybridauto fahren,
– Jute-Tragetaschen,
– Fair-Trade-Artikel kaufen;

das sind nur einige Beispiele für Handlungsweisen, die ein sog. Gutmensch praktizieren muss, damit er als solcher von Seinesgleichen auch anerkannt wird. An die Stelle der Hölle ist die Ächtung durch die Medien, also die angebliche Öffentlichkeit, getreten; was nach dem Tode folgt, spielt keine Rolle mehr. Dieses System hat den Vorteil, dass die Strafe für Ungläubige und Ketzer bereits im Diesseits und nicht mehr im dubiosen Jenseits erfolgt. Auch muss man sich nicht mehr Sonntags in eine Kirche bemühen, um vom Dorfpfarrer zusammengestaucht zu werden. Das erledigen die täglich präsenten Medien mit Schreckensnachrichten aus aller Welt, mit den haaresträubenden Berichten und nicht sofort nachprüfbaren Prophezeiungen angeblicher Wissenschaftler sowie den mahnenden Ansprachen von Politikern, die ihrerseits das von den Medien vorsortierte und von Kritik gesäuberte Faktenmaterial als ihre Meinung vortragen.

Damit auch die Ungläubigen, die den Ablasshandel boykottieren, in das Ablass-System einzahlen müssen, gibt es spezielle Steuern, Abgaben und Umlagen, durch die sie als Sünder gegen die Umwelt bestraft werden, wodurch auch gleichzeitig der Finanzminister profitiert. Wie man die Gutmenschen davon verschont, ist noch nicht geklärt; schließlich braucht der Finanzminister auch deren Geld.
.
Weil sich die Natur des Menschen im Laufe der kurzen Zeitspanne seiner Existenz in keiner Weise verändert hat, gehört auch heute zum politischen System der Angstmacherei immer das Verdienen von Geld in großem Stil. Die Profiteure der Angst stellen sich rasch auf diese mit Subventionen gefüllten Rendite-Goldgruben ein und stellen eine die Politik stützende Lobby dar. Zum Beispiel mit der Produktion von politisch begünstigten Anlagen, die normalerweise niemand kaufen und installieren würde – gigantische Windräder, deren „Zappelstrom“ völlig unbrauchbar ist oder Photovoltaik-Paneele auf dem Dach, die nachts und bei schlechtem Wetter funktionslos vor sich hingammeln – aber bei den Nachbarn Eindruck machen.

Die sogenannte Energiewende und der ebenfalls sogenannte Klimaschutz – verstärkt durch den Kernkraft-Ausstieg – haben speziell in Deutschland einen quasi-religiösen Charakter erhalten. Kritik durch Fachleute gab es von Anfang an, aber im Parlament, wo angeblich nur ihrem Gewissen verpflichtete Abgeordnete sitzen, gab es bis heute keine vernehmliche kritische Stimme – von keiner einzigen Partei.

Die insbesondere durch die Umwelt- und Energiepolitik zwangsläufig und unvermeidbar entstandenen riesenhaften Probleme sind bereits in zahlreichen klugen Artikeln beschrieben worden. Die liest nur leider nicht jeder.
Dass die Gesetze der Physik die Todfeinde der Energiewende sind, ist zum Beispiel in einem Artikel vor nicht allzu langer Zeit dargestellt worden. Diese Tatsache hätte zwar den Politikern und insbesondere den Ministerialbeamten rechtzeitig zu denken geben müssen, aber wenn man von der Physik keine Ahnung hat, dann gibt es auch keine Bedenken,

Die Ahnungslosigkeit in Bezug auf die Physik betrifft auch die Mehrheit der Bevölkerung, was an der vor allem in den westlichen Bundesländern jahrelang und bis heute miserablen Schulausbildung liegt. Ausnahmen sind Bayern und die Ost-Länder; letztere hatten in DDR-Zeiten eine wirklich gute Schulausbildung in den naturwissenschaftlichen Fächern – was auch dafür der Grund sein mag, dass sich die „Ossis“ deutlich weniger von fragwürdigen Weltuntergangstheorien wie die angebliche Klimakatastrophe oder von pseudotechnologischen Heilslehren wie die Segnungen durch „erneuerbare Energien“ beeindrucken lassen. Außerdem haben sie gelernt, in einer manipulierten Presse zwischen den Zeilen zu lesen, was ihnen heute angesichts einer abermals regierungsfrommen, nun aber links-grün ausgerichteten Presse nach wie vor zu Gute kommt.

Ein beeindruckendes Beispiel für die nach DDR-Muster erzeugte typische Jubel-Staatspropaganda bot der im Januar 2017 von der Bundesregierung (BMWi) veröffentlichte Bericht „Die Energiewende: unsere Erfolgsgeschichte“. Er ist wie folgt in Abschnitte gegliedert:

– Nachhaltig und sicher
– Bezahlbar und planbar
– Verlässlich und intelligent
– Effizient
– Wettbewerbsfähig

– Weltweit wegweisend (!).

In Anbetracht der Tatsachen ist dieser Bericht unbeabsichtigt eine grausame Parodie; er zeigt aber auch eine klare Verachtung der Bürger, denen damit eine kaum fassbare Konzentration von geradezu devoter Schönfärberei, Faktenunterdrückung, Verdrehungen und nicht zuletzt peinlichem Größenwahn („weltweit wegweisend“) zugemutet wird.
Dennoch ist dieser Bericht wertvoll. Er beschreibt das Niveau einer Regierung und erinnert an die legendäre Pressekonferenz des irakischen Propagandaministers, Journalistenbezeichnung „Chemical Ali“, der frohgemut Siegesmeldungen in die TV-Kamera verkündete, während man durch sein Bürofenster im Hintergrund bereits US-Panzer sehen konnte.

Es gibt eine Menge Leute, die genau wissen, dass die Energiewende von Frau Merkel unweigerlich auf ein Scheitern hinläuft. Es gibt über 1000 Bürgerinitiativen, die gegen Windparks, gegen die Zerstörung von Waldgebieten und gegen neue Stromtrassen kämpfen. Aber es gibt eine offenbar deutlich größere Anzahl von Bürgern, die mangels Wissen, aus Desinteresse und wohl auch, weil die Kosten noch nicht schmerzhaft genug sind, Merkels staatliche Umwandlungspläne kritiklos hinnehmen.

Aber es gibt ein noch weitaus stärkeres Motiv für die Zurückhaltung: Es ist die Angst.

Die Angst ist seit Menschengedenken ein probates Mittel, um die Untertanen von ketzerischen Gedanken oder gar Widerstand abzuhalten. Und Angst ist auch heute noch aus den gleichen Gründen ein Mittel der Politik. Gelingt es erst einmal, in großem Ausmaß Angst zu erzeugen, dann kann man sogar sehr fragwürdige politische Entscheidungen durchsetzen, die in einer funktionierenden Demokratie sofort blockiert und unterbunden worden wären.

Ohne das Erzeugen von Ängsten wäre die Energiewende mit dem Ziel eines radikalen Umbaus großer Teile der Wirtschaft nicht möglich. Als sie beschlossen wurde, war so ziemlich allen fachkundigen Menschen in der Industrie und in der Wissenschaft klar, was das für ein Unsinn war. Man sollte annehmen, dass sich sofort ein Sturm der Entrüstung erhob, der die Regierung hinwegfegte. Aber so war es nicht. Aus der Industrie kam fast kein Protest; von den Verbänden überhaupt keiner. Auch die Wissenschaft verhielt sich sehr ruhig.
Bei näherem Hinsehen zeigte sich, dass mehrere Varianten von Angst am Werk waren: Bei der Industrie eine Mischung von kritikloser Politikfrömmelei („Es ist schließlich von der Regierung so beschlossen und die werden es schon richtig machen“) , verbunden mit der Erwartung von Subventionen, falls es schief zu gehen drohte, womit man wohl rechnete. Außerdem versprach die vorübergehende Eröffnung eines durch Planwirtschaft gesteuerten „Marktes“ für politisch erwünschte Produkte und Anlagen gute Renditen – wenn auch nur auf Zeit.

Bei den gänzlich unpolitischen Natur- und Ingenieurwissenschaften war die Angst vor der Abkoppelung vom warmen Regen der Fördergelder ausschlaggebend, für deren Bewilligung man jede kritische Anwendung physikalischer Gesetze und damit auch jede Scham fallen lassen musste.
In beiden Fällen war es also die Furcht vor dem Verlust von Geld.

Eine besondere Rolle kam der sogenannten öffentlichen Meinung zu. So werden hier Presse und Fernsehen bezeichnet, aber es liegt eine massive Täuschung darin. Mehrere Recherchen ergaben, dass in den zugehörigen Redaktionen zu ca. 70 Prozent parteipolitisch festgelegte Personen saßen, die sich selbst als Anhänger der Grünen und der SPD bezeichneten. Diese Personen interpretierten ihre Arbeit als legitime Unterstützung ihrer Partei, wozu politisch missliebige, wenn auch wichtige und zutreffende Informationen unterdrückt werden mussten. Im Fernsehen fielen diese Manipulationen deutlicher auf, weil ständig die gleichen „Experten“ zu den Interviews und Talkrunden eingeladen wurden. So gibt es in Deutschland genau eine einzige Energieexpertin und zwei Klimafachleute – Sie kennen die zur Genüge (Anmerkung der Redaktion: Genau genommen gibt es 2 1/2 hier einer davon). Kritiker werden fern gehalten, was kontroverse Debatten vermeiden hilft und vor allem die Verbreitung ihrer Argumente in der Öffentlichkeit verhindert.

Diese Selbstzensur der Redaktionen erzeugte eine rot-grüne Medienmacht, die zwar mit einer öffentlichen Meinung nur noch wenig zu tun hatte, die aber von der Politik zunehmend gefürchtet wird.
In Ostdeutschland, wo man über 40 Jahre von den Medien systematisch belogen wurde, hat man wesentlich empfindlichere Antennen für Manipulationen und Falschmeldungen, was die dortige harte Kritik an den Medien erklärt.

Die Methode der gezielten Informationsunterdrückung verliert allerdings stetig an Kraft, weil das politisch unkontrollierbare Internet – man ist ja (noch) nicht in China – speziell unter den Jüngeren immer mehr zur einzig genutzten Informationsquelle wird.
                                  

Die Angstthemen der Regierung

 

Die Angst vor dem Weltuntergang durch menschengemachte CO2-Emissionen.

In der Naturwissenschaft gilt ein unumstößliches Gesetz: Jede Theorie ist nur dann richtig, wenn sie durch ein überzeugendes Experiment bewiesen wird. Und über dieses Experiment muss vollständig berichtet werden, um anderen Forschern die Möglichkeit zu geben, das Experiment zu wiederholen und dessen Ergebnisse mit der vorgestellten Theorie zu vergleichen. Erst wenn das erfolgreich geschehen ist, gehört die Theorie zur wissenschaftlichen Erkenntnis.

Einen derartigen Beweis für die Theorie vom menschengemachten Klimawandel, dessen Ursache die von den Menschen verursachten Kohlendioxid- (CO2)-Emissionen sein sollen, hat es bis heute nicht gegeben. Es handelt sich deshalb um eine unbewiesene Theorie, die daher auch von sehr vielen Wissenschaftlern angegriffen wird. Einen Konsens der Forscher hat es niemals gegeben; im Gegenteil. Im Übrigen genügt in der Wissenschaft ein einziger fundierter Gegenbeweis, um eine falsche Theorie zu „kippen“. Die wissenschaftliche Literatur ist inzwischen voller derartiger Gegenbeweise, was aber die politische Klimarats-Organisation IPCC nicht daran hindert, ihre allein auf Computer-Simulationen beruhende Theorie weiter zu vertreten.

Dass die internationale Politik jemals bereit war, dieses unbewiesene und umstrittene Stück erfolgloser Wissenschaft zu glauben und daraus eine weltweite Rettungsaktion zur Verhinderung des angeblich bevorstehenden Untergangs dieses Planeten zu machen, ist zwar ein Meisterstück politischer Manipulation, aber sonst nichts.

Die wichtigste Triebkraft dieser Klimapolitik ist wieder die Angst, das bewährte Druckmittel. Es ist nicht weiter verwunderlich, dass Deutschland als die Nation, deren Politik schon lange besonders bedenkenlos die Angstverbreitung zu einem der wichtigsten politischen Instrumente gemacht hat, in der internationalen Klimapanik an vorderster Front steht.

Immer deutlicher stellt sich heraus, dass die von Menschen verursachten Emissionen von CO2 keinen bedeutenden Einfluss auf das Erdklima haben. Seit nunmehr fast 20 Jahren ändert sich die globale Durchschnittstemperatur der Erde nicht mehr, obwohl die CO2-Emissionen – insbesondere durch China – gerade in diesem Zeitraum immer weiter angestiegen sind.

Ein Politiker muss keineswegs ein Wissenschaftler sein, um die ganze Sinnlosigkeit dieser Klimapanik und insbesondere die winzige und vollkommen unmaßgebliche Rolle des kleinen Deutschlands bei den angeblich notwendigen Gegenmaßnahmen – die weltweite Vermeidung von CO2-Emissionen – zu erkennen.
Es genügt das Lesen der regelmäßig erscheinenden Berichte über die Emissionen der Staaten und etwas Schulmathematik aus der 3. oder 4. Klasse.
Dann sieht man, dass China mit 30 Prozent Anteilen an der weltweiten Emission der sog. Treibhausgase aus der energetischen Verwendung fossiler Brennstoffe den Löwenanteil hat, während Deutschland mit gerade einmal 2,2 Prozent eine winzige Rolle spielt. Jeder kann ausrechnen, dass selbst eine Verringerung der deutschen Emissionen um den zehnten Teil nur 0,2 Prozent an weltweiter Reduzierung bringen würde. Aber tatsächlich schafft Deutschland überhaupt keine Reduzierung, sondern erhöht sogar seinen Ausstoß. Und das wird sich mit jedem neu abgeschalteten Kernkraftwerk fortsetzen, denn dessen Strom wird durch Kohlekraftwerke ersetzt werden müssen. Erneuerbare Energien können das nicht, so viele Windräder man auch in die Landschaft und in die Wälder stellt.

Dieses Thema wird für Deutschland und seine Regierung noch peinlicher, wenn man die Wirkung des europäische Zertifikatssystems für Treibhausgas-Emissionen betrachtet. Es setzt die erlaubte Höchstmenge dieser Emissionen fest und der Handel mit diesen sog. Verschmutzungsrechten führt zu einem Preis für diese. Wenn ein Land wie Deutschland eine eigene, in Europa nicht vorgesehene zusätzliche Emissionsminderung mit Subventionen wie die EEG-Zulage installiert, dann werden Zertifikate sowohl frei als auch billiger, die dann ein anderes EU-Land kaufen kann, um seine Emissionen erhöhen zu können. Das bedeutet, dass alle zusätzlichen Minderungsmaßnahmen der Energiewende durch ausländische Mehr-Emissionen vollständig ausgeglichen werden: Der Effekt für die europäische Treibhausgas-Bilanz ist gleich Null. Die Regierung weiß das selbstverständlich, denn sie beherrscht die Viertklässler-Schulmathematik auch. Aber sogar die Kritik an der Nutzlosigkeit dieser deutschen Extra-Aktivitäten im letzten Klimabericht des IPCC hat nichts bewirkt.

Und der dänische Politiloge und Statistiker Björn Lomborg macht sich regelmäßig einen Spaß daraus, den Deutschen auf der Grundlage der IPCC-Formeln vorzurechnen, um wie viele Stunden oder Tage sämtliche über die vielen Jahre ihrer Anwendung ausgegebenen Energiewende-Milliarden die angeblich in einigen Jahrzehnten bevorstehenden Klimaerwärmung zeitlich hinausschieben würden – wenn dieser Unsinn überhaupt stimmt.
Er veröffentlichte am 15. Mai 2015 in der FAZ einen ausführlichen Artikel zu dem Thema „Deutschlands gescheiterte Klimapolitik“ (3).
Er schrieb darin zu der Wirkung der deutschen Klima-Milliarden:

„Sämtliche Anstrengungen, die Deutschland zur Förderung der erneuerbaren Energien unternimmt, werden geschätzt zu einer Senkung der Emissionen um jährlich 148 Megatonnen (Millionen Tonnen) führen. Im Standard Klimamodell führt die gesamte Förderung der nächsten 20 Jahre zu einer Reduktion um gerade einmal 0,001 Grad Celsius bis zum Ende des Jahrhunderts oder einer Hinauszögerung des Temperaturanstiegs bis zum Jahr 2100 um weniger als 18 Tage.
Es sollte kaum verwundern, dass eine derart teure Klimapolitik , die so wenig Auswirkung auf das Klima hat, für die restliche Welt kaum nachvollziehbar ist.“
(Ende des Zitats).

 

Die Angst vor der atomaren Vernichtung durch die eigene Kernkraft

Als die Regierung 2011 mit dem Ausstiegsbeschluss aus der Kernkraft der Energiewende eine unerwartete Richtungskorrektur gab, die aber – ohne das es die Regierung begriff – gleichzeitig das Scheitern der Energiewende beschleunigte, zeigte sich, dass das Aufeinandersetzen zweier apokalyptischer Ängste das Erreichen des ursprünglichen Ziels zuverlässig verhindert. Unter allen schweren Fehlern der Regierung war der Kernkraftausstieg der folgenreichste. Es war nicht nur ein katastrophaler Schaden für das Industrieland Deutschland, sondern auch gleichzeitig der Sargnagel Nr.2 für Merkels Lieblingsprojekt Energiewende.
Wir erinnern uns: Sargnagel Nr.1, der allein schon für deren Scheitern völlig ausreicht, ist das dauerhafte Fehlen einer erforderlichen, enormen Anzahl großer Pumpspeicherkraftwerke.

Der Fortfall eines großen Teils der Strom-Grundlastversorgung erzwingt deren Ersatz durch eine andere Grundlastquelle – und das ist alleine Kohlestrom, der nur mit Braunkohlekraftwerken kostengünstig produziert werden kann. Allerdings ist es nun eine eher unwichtige Eigenschaft der Kernkraftstrom-Erzeugung, dass sie praktisch keine sog. Treibhausgas-Emissionen verursacht. Und diese mächtige Stromerzeugungs-Kapazität musste nun als Folge der nur in Deutschland propagierten Angst vor den eigenen Kernkraftwerken stillgelegt werden. Damit steigen die CO2-Emissionen an und es geschieht damit das Gegenteil der nun zur Makulatur gewordenen vollmundigen „Klimaschutz“-Ankündigungen. Dass das Spurengas CO2 nahezu nichts mit dem Klimawandel zu tun hat, gehört wiederum zum Angstthema „Weltuntergang durch menschengemachte CO2-Emissionen“.

Weder der Unfall von Tschernobyl noch der von Fukushima gaben Deutschland einen Anlass, die Sicherheit der eigenen Kernkraftwerke in Frage zu stellen. In Tschernobyl explodierte ein veralteter Reaktortyp (Druckröhren-Reaktor), der wegen seiner prinzipiell großen Gefährlichkeit – und noch dazu fehlender Sicherheitsvorkehrungen wie eine stabile Schutzhülle – niemals im Westen gebaut worden ist. Dass die Sowjetunion die wenigen Reaktoren dieses Typs nicht längst stillgelegt hatte, führte letztlich zu dieser leider durchaus möglichen und wahrscheinlichen Katastrophe.
In Fukushima standen 4 alte Reaktoren eines US-Typs, die – im Gegensatz zu allen deutschen Raktoren – niemals während ihres jahrzehntelangen Betriebs sicherheitstechnisch nachgerüstet worden waren. Nicht genug damit: Sie waren völlig unzureichend gegen Tsunamis geschützt, die im Durchschnitt alle 30 Jahre deutlich höhere Flutpegel als die viel zu niedrige Sperrmauer aufwiesen, was zur Überschwemmung des unteren Teils der Anlagen führte, in denen ausgerechnet die für den Ausfall der externen Stromversorgung und damit der Reaktorkühlung vorgesehenen Notstromdiesel wiederum ungeschützt eingebaut waren – und absoffen. Die Stromversorgung von Land aus war durch das Erdbeben unterbrochen. Daraufhin fiel die Nachkühlung der abgeschalteten Reaktoren aus. Dieser Unfall war somit die Folge einer kaum glaublichen Verantwortungslosigkeit der unfähigen Chefs und Aufsichtspersonen der Betreiberfirma TEPCO. Es ist nicht bekannt, ob auch nur einer von ihnen zur Verantwortung gezogen worden ist.
Obwohl durch diesen Unfall keine Person ihr Leben verlor, verstanden es die deutschen Medien, die Unfallfolgen so darzustellen, als ob alle über 18.000 Toten, die Japan als Folge der Flutwelle zu beklagen hatte, durch die beschädigten Reaktoren verursacht worden seien. Es gab jedoch keinen einzigen Todesfall durch Strahlung. Diese Falschmeldungen sind international stark kritisiert worden.

In Deutschland wiederum waren alle Kernreaktoren regelmäßig mit den neuesten Sicherheitstechniken nachgerüstet worden und es bestanden insofern keinerlei Bedenken in Bezug auf ihre Sicherheit, wie die Reaktorsicherheits-Kommission der Regierung bescheinigte. Und eine Tsunami-Gefahr gab es ebenfalls nicht. Frau Merkel ersetzte daher das Votum der Experten durch eine sog. Ethik-Kommission, die auch das erwünschte Ergebnis – die Empfehlung zur Stilllegung aller Kernkraftwerke – lieferte. Und das Parlament stimmte dieser geradezu absurden Manipulation zu – ein Versagen, das es zuvor so noch nicht gegeben hatte.
Seither wird wie geplant stillgelegt. Woher die südlichen Bundesländer nach dem Abschalten ihrer letzten Kernkraftwerke den für eine zuverlässige Versorgung zwingend erforderlichen Grundlaststrom bekommen sollen, weiß im Moment niemand.

Die Regierung hatte zur Lösung dieses offensichtlichen ernsten Problems eine zusätzliche, ebenfalls teure Investition in die Wege geleitet: Den Neubau mehrerer Höchstspannungsleitungen, die von Norddeutschland ausgehend den dort – nur gelegentlich und wetterabhängig – erzeugten Windstrom in den Süden zu leiten. Es entstanden viele Bürgerinitiativen, die diese Pläne bekämpften und die eine erstaunliche Entdeckung machten: Die östliche Trasse, die Bayern mit Windstrom versorgen sollte, endete bereits bei Bad Lauchstädt bei Leipzig. Also mitten im Braunkohlerevier mit seinen Kohlekraftwerken – und mit dem zweiten Braunkohlerevier an der polnischen Grenze und den dort zugehörigen Kohlekraftwerken mit Leitungen verbunden. Niemand wollte ernsthaft Windstrom aus dem Norden nach Bayern transportieren. Die Bürgerinitiativen entdeckten die Täuschung und die bayrische Landesregierung sah sich gezwungen, den Bau dieser Trasse zu stoppen. Später erschien eine neue Landkarte des Netzausbaus und dieses Mal ging die Osttrasse weiter bis Norddeutschland…Auch die westliche Trasse führt recht nahe am rheinischen Braunkohlerevier vorbei.
Aber alle wissen, dass der völlig unzuverlässige, stark schwankende und auch gerne einmal für zwei Wochen ausfallende Windstrom niemals irgendein Bundesland sicher versorgen kann. Und die Bundesnetzagentur weiß es auch. Deshalb sorgte sie mit ihrer Planung für ausreichend Braunkohlestrom für Süddeutschland, tat aber so, als wäre es grüner Windstrom…Wieder eine Täuschung, hier aber sinnvoll – und im Grunde ein Akt der Verzweiflung.
Schließlich entschied noch Minister Gabriel, dass alle neuen Höchstspannungsleitungen als Erdkabel gebaut werden müssen. Das tröstete die Bürgerinitiativen etwas, führt aber zu mindestens zwei weiteren Jahren der Verzögerung; von den Mehrkosten ganz zu schweigen.
Der gesamte Netzausbau ist daher nur ein unnötiges, extrem teures Hilfsprojekt, mit dem den Bürgern eine sinnvolle Verwendung des vom Wetter gesteuerten und daher überwiegend unbrauchbaren oder auch vollkommen ausfallenden Windstroms vorgegaukelt werden soll.

Mit der Entscheidung für den Kernkraftausstieg hat die Regierung ihrer Energiewende selbst die Grundlage entzogen und ihre nach wie vor betonte Rolle als „Vorreiter“ ist zur internationalen Lachnummer geworden.

Wenn eine Angst nicht mehr wirkt – dann eben eine Ersatzangst

Manchmal muss man tatsächlich eine Rede der Bundeskanzlerin nachlesen – und dann muss man sie noch einmal lesen, weil man es einfach nicht glauben will. Vom Glauben spricht die Kanzlerin übrigens in ihrer hier behandelten Rede beim Internationalen WBGU-Symposium am 9. Mai 2012 in Berlin mehrfach. Ein Zitat ist erforderlich, um die eigentümliche Denkweise zu verstehen und die merkwürdigen Schlussfolgerungen bewerten zu können.

Merkel: „Ich nenne immer Klimawandel und Ressourceneffizienz oder Endlichkeit der Ressourcen in einem Zusammenhang, weil ich keine Lust habe, mich immer mit Zweiflern auseinanderzusetzen, ob der Klimawandel nun wirklich so schwerwiegend sein wird…Allein die Tatsache, dass wir in die Richtung neun Milliarden Menschen auf der Welt zugehen, zeigt uns, dass auch diejenigen, die an den Klimawandel nicht glauben, umdenken müssen. Damit hier kein Zweifel aufkommt: Ich gehöre zu denen, die glauben, dass etwas mit dem Klima passiert. Aber damit wir nicht über das Ob so lange Zeit verlieren, sage ich einfach: Wer nicht daran glauben mag, wer immer wieder Zweifel sät, wer die Unsicherheiten in den Vordergrund stellt, sollte sich einfach daran erinnern, dass wir in Richtung auf neun Milliarden Menschen auf der Welt zusteuern, und er sollte sich die Geschwindigkeit des Verbrauchs fossiler Ressourcen anschauen. Dann kommt er zu dem gleichen Ergebnis, dass nämlich derjenige gut dran ist, der sich unabhängig davon macht, Energie auf die herkömmliche Art und Weise zu erzeugen. Deshalb sind eine andere Energieversorgung, also durch erneuerbare Energien, und ein effizienterer Umgang mit der Energie und den Ressourcen die beiden Schlüsselfaktoren.“

(Ende des Zitats)

Wäre dies ein Schulaufsatz gewesen, die rote Tinte wäre reichlich geflossen. Wo soll man anfangen? Die mehrfache Verwendung des Verbums „glauben“ ist bezeichnend. Tatsächlich geht es ja um Naturwissenschaft, und da wird nicht geglaubt, sondern bewiesen und widerlegt- siehe oben. Nur Politiker und Kirchenleute legen Wert auf den Glauben. Natürlich nur den richtigen.
Die Kritik an denen, die an den Klimawandel nicht glauben wollen, ist vollkommen daneben, denn von den zweimal genannten demnächst 9 Milliarden Menschen weiß nahezu jeder, dass Klimawandel etwas Normales ist, was seit etlichen 100 Millionen Jahren geschieht – und zwar durch die Sonne gesteuert. Mit „Zweiflern“ meint sie Wissenschaftler, die die unbewiesenen Theorien des IPCC als falsch betrachten und andere Theorien bevorzugen. Das ist deren Job. Und eine der Kritiker-Gruppen hat sogar ein Experiment zur Wolkenbildung durch die kosmische Höhenstrahlung erfolgreich durchgeführt, was zur Erklärung der atmosphärischen Prozesse beiträgt und in dem das Spurengas CO2 überhaupt nicht vorkommt. Das ist bisher das einzige Experiment in der ganzen theoretischen Debatte. Und das sind eben keine „Zweifler“. Man beachte die Wortwahl. Dass sie „keine Lust hat“, sich mit diesen „Zweiflern“ auseinanderzusetzen, kann man verstehen. Sie würde dabei untergehen.

Und dann kommt der doppelte Rittberger: Eine neue Angst an Stelle einer alten, deren Wirkung nachzulassen scheint. Die Frage der Verfügbarkeit der Vorräte und der Reserven sei ganz einfach die gleiche, wie die nach der Glaubwürdigkeit der Theorien des IPCC, weil es schliesslich immer nur um das CO2 geht. Und nach diesem Salto braucht man nur noch über die Ressourcen sprechen. Aber Merkel liegt auch damit wieder falsch. Ihre Bundesanstalt für Geologie und Rohstoffe BGR hat in seriösen Berichten den Beweis geführt, dass fossile Ressourcen noch sehr lange reichen; insbesondere die Kohle.
In ihrem letzten Satz braucht man übrigens nur die Worte „erneuerbare Energien“ durch „Kernkraft“ zu ersetzen und hat dann eine richtigere Aussage, denn mit den in der Entwicklung befindlichen Reaktortypen der 4. Generation vergrößert man den Vorrat an nutzbarem Uranbrennstoff um das 60-fache – auf Jahrtausende. Und dann ist die Kohle längst überflüssig als Energiequelle.
Bei aller Fehlerkonzentration und logikfreien Analogie von Klima und Rohstoffen ist Merkels Aussage doch vielsagend und wertvoll: So denkt Deutschlands führende Politikerin.


Eine begründete Angst, die im Angst-Arsenal fehlt: Der große Blackout

Die durch die unkontrollierbaren Störungen immer kritischer werdende Situation im Stromnetz – verursacht vor allem durch die Windräder – kann von den Netzbetreibern mit ihren Redispatch-Maßnahmen kaum noch beherrscht werden. Der große Blackout droht im Winter bei „Dunkelflaute“.

Auch im Januar 2017 befand sich das deutsche Stromnetz am Rande des Zusammenbruchs. Der Grund dafür war die klägliche Leistung von Windkraftanlagen (WKA) und Solarstromerzeugern, die zusammen eine sogenannte Dunkelflaute erlitten – ein im Winter nicht seltener Zustand, in dem die schon damals riesenhafte gemeinsame installierte Leistung von 83.900 MW auf praktisch Null – wie 20 oder 30 MW von WKA in ganz Deutschland – zusammenschrumpfte. Dieser Zustand kann ohne weiteres mehrere Tage anhalten. Während dieser Zeit muss die gesamte notwendige Erzeugungsleistung, die im Winter mindestens 80.000 Megawatt beträgt, von den konventionellen Kraftwerken kommen – also von Kohle- und Kernkraftwerken sowie von Gaskraftwerken.

Der 24. Januar 2017 war nun wieder einmal ein Tag, an dem der Ernstfall – der völlige Zusammenbruch der deutschen Stromversorgung – gefährlich nahe kam. Dieser große Blackout wurde gerade noch vermieden, weil die Energieversorger „auch noch das letzte Reservekraftwerk heranzogen“, wie Michael Vassiliadis, der Chef der für die Kraftwerkswirtschaft zuständigen IG Bergbau, Chemie, Energie Reportern mitteilte (1).
Nach dem Bericht von RP-Online führte Vassiliadis auf einer Veranstaltung in Haltern am See vor Journalisten aus, dass „der Zustand am 24. Januar kritisch wurde. Energieunternehmen und Netzbetreiber hätten an diesem Tage die Stromversorgung nur mit größter Mühe aufrechterhalten können.“ Denn die Deutschen forderten – wie an anderen Tagen auch – mehr als 80.000 MW Leistung ab. Vassiliadis: „Die Erneuerbaren konnten nicht einmal fünf Prozent davon bieten“.

Den meisten Bürgern ist nicht klar, was ein großer Blackout bedeutet, stellten die Fachleute des Büros für Technologiefolgen-Abschätzung beim Deutschen Bundestag (TAB) in einem sehr ausführlichen Bericht (4) fest, der zwar bereits 2011 erstellt wurde, dessen Aktualität jedoch heute mit jedem Monat zunimmt.

 

Aus diesem Bericht werden hier wichtige Ergebnisse zitiert:

„Aufgrund der Erfahrungen mit bisherigen nationalen und internationalen Stromausfällen sind erhebliche Schäden zu erwarten. Für den Fall eines mehrwöchigen Stromausfalls sind Schäden zu erwarten, die um Größenordnungen höher (als mehrere Milliarden €) liegen.

Telekommunikations- und Datendienste fallen teils sofort, spätestens aber nach wenigen Tagen aus. Die für zentrale Kommunikationseinrichtungen vorgehaltenen Reservekapazitäten wie »Unterbrechungsfreie Stromversorgung« und Notstromaggregate sind nach wenigen Stunden oder Tagen erschöpft bzw. aufgrund ausgefallener Endgeräte wirkungslos. Damit entfällt innerhalb sehr kurzer Zeit für die Bevölkerung die Möglichkeit zur aktiven und dialogischen Kommunikation mittels Telefonie und Internet.

Im Sektor »Transport und Verkehr« fallen die elektrisch betriebenen Elemente der Verkehrsträger Straße, Schiene, Luft und Wasser sofort oder nach wenigen Stunden aus. Zu Brennpunkten werden der abrupte Stillstand des Schienenverkehrs und die Blockaden des motorisierten Individual- und öffentlichen Personennahverkehrs in dichtbesiedelten Gebieten….Der Straßenverkehr ist unmittelbar nach dem Stromausfall besonders in großen Städten chaotisch. Es ereignen sich zahlreiche Unfälle, auch mit Verletzten und Todesopfern. Rettungsdienste und Einsatzkräfte haben erhebliche Schwierigkeiten, ihren Aufgaben gerecht zu werden. Durch den Ausfall der meisten Tankstellen bleiben zunehmend Fahrzeuge liegen, der motorisierte Individualverkehr nimmt nach den ersten 24 Stunden stark ab. Der Öffentliche Personennahverkehr kann wegen knappen Treibstoffs allenfalls rudimentär aufrechterhalten werden.

Die Wasserversorgung benötigt elektrische Energie in der Wasserförderung,
-aufbereitung und -verteilung. Fallen diePumpen aus, ist die Grundwasserförderung nicht mehr möglich, die Gewinnung von Wasser aus Oberflächengewässern zumindest stark beeinträchtigt.

Eine Unterbrechung der Wasserversorgung wirkt sich umfassend auf das häusliche Leben aus: Die gewohnte Körperpflege ist nicht durchführbar; für die Mehrzahl der Haushalte gibt es kein warmes Wasser. Das Zubereiten von Speisen und Getränken ist nur reduziert möglich, und die Toilettenspülung funktioniert nicht.

Da als Folge der reduzierten oder ausgefallenen Wasserversorgung die Brandbekämpfung beeinträchtigt ist, besteht insbesondere in Städten wegen der hohen Besiedelungsdichte die Gefahr der Brandausbreitung auf Häuserblöcke und möglicherweise sogar auf ganze Stadtteile.

Als Folge des Stromausfalls ist die Versorgung mit Lebensmitteln erheblich gestört; deren bedarfsgerechte Bereitstellung und Verteilung unter der Bevölkerung werden vorrangige Aufgaben der Behörden. Von ihrer erfolgreichen Bewältigung hängt nicht nur das Überleben zahlreicher Menschen ab, sondern auch die Aufrechterhaltung der öffentlichen Ordnung. Die weiterverarbeitende Lebensmittelindustrie fällt zumeist sofort aus, sodass die Belieferung der Lager des Handels unterbrochen wird. Trotz größter Anstrengungen kann aber mit hoher Wahrscheinlichkeit die flächendeckende und bedarfsgerechte Verteilung der Lebensmittellieferungen nur ungenügend gewährleistet werden.

Das dezentral und hocharbeitsteilig organisierte Gesundheitswesen kann den Folgen eines Stromausfalls nur kurz widerstehen. Innerhalb einer Woche verschärft sich die Situation derart, dass selbst bei einem intensiven Einsatz regionaler Hilfskapazitäten vom weitgehenden Zusammenbrechen der medizinischen und pharmazeutischen Versorgung auszugehen ist. Bereits nach 24 Stunden ist die Funktionsfähigkeit des Gesundheitswesens erheblich beeinträchtigt. Krankenhäuser können mithilfe von Notstromanlagen noch einen eingeschränkten Betrieb aufrechterhalten, Dialysezentren sowie Alten- und Pflegeheime aber müssen zumindest teilweise geräumt werden und Funktionsbereiche schließen. Arzneimittel werden im Verlauf der ersten Woche zunehmend knapper, da die Produktion und der Vertrieb pharmazeutischer Produkte im vom Stromausfall betroffenen Gebiet nicht mehr möglich sind und die Bestände der Krankenhäuser und noch geöffneten Apotheken zunehmend lückenhaft werden. Dramatisch wirken sich Engpässe bei Insulin, Blutkonserven und Dialysierflüssigkeiten aus.

Dieser dezentral strukturierte Sektor ist schon nach wenigen Tagen mit der eigenständigen Bewältigung der Folgen des Stromausfalls überfordert. Der Zusammenbruch der in Krankenhäusern konzentrierten Versorgung droht.

Spätestens am Ende der ersten Woche wäre eine Katastrophe zu erwarten, d.h. die gesundheitliche Schädigung bzw. der Tod sehr vieler Menschen sowie eine mit lokal bzw. regional verfügbaren Mitteln und personellen Kapazitäten nicht mehr zu bewältigende Problemlage. Ohne weitere Zuführung von medizinischen Gütern, Infrastrukturen und Fachpersonal von außen ist die medizinisch-pharmazeutische Versorgung nicht mehr möglich.

FAZIT: Wie die zuvor dargestellten Ergebnisse haben auch die weiteren Folgenanalysen des TAB gezeigt, dass bereits nach wenigen Tagen im betroffenen Gebiet die flächendeckende und bedarfsgerechte Versorgung der Bevölkerung mit (lebens)notwendigen Gütern und Dienstleistungen nicht mehr sicherzustellen ist. Die öffentliche Sicherheit ist gefährdet, der grundgesetzlich verankerten Schutzpflicht für Leib und Leben seiner Bürger kann der Staat nicht mehr gerecht werden. Die Wahrscheinlichkeit eines langandauernden und das Gebiet mehrerer Bundesländer betreffenden Stromausfalls mag gering sein. Träte dieser Fall aber ein, kämen die dadurch ausgelösten Folgen einer nationalen Katastrophe gleich. Diese wäre selbst durch eine Mobilisierung aller internen und externen Kräfte und Ressourcen nicht »beherrschbar«, allenfalls zu mildern“.

(Ende des Zitats)


Die Netzbetreiber wissen das selbstverständlich alles. Niemand wagt es derzeit, die einzig sinnvolle und bezahlbare Lösung vorzuschlagen: Den Verzicht auf die Stilllegung der letzten Kernkraftwerke – verbunden mit einer mindestens 15 Jahre langen Laufzeitgarantie. Eher würden wohl die für die deutsche Energiepolitik Verantwortlichen einen Tabu-Tod erleiden, wie er bei den Menschen einiger Naturvölker eintritt, wenn sie es wagen, eine vom Schamanen gekennzeichnete verbotene Zone zu betreten.
Die Absicht der Netzbetreiber ist viel bescheidener: Sie sehen so deutlich wie sonst niemand den großen Blackout auf sie zukommen. Genauso, wie auch U. Kaussen von Tennet auf die gestellte Frage „Droht uns ein Blackout ?“ mit einem klaren „Ja“ geantwortet hat (2). Und sie kennen auch die übliche Reaktion der Politik, wenn es darum geht, sich für ihr Versagen zu rechtfertigen: Sie haben bereits heute die Sündenböcke identifiziert. Es sind natürlich die Netzbetreiber, die bei ihrem Redispatch versagt haben. Auch die Bundesnetzagentur – dem Wirtschaftsministerium unterstellt – wird ins gleiche Horn stoßen.

Das Waldsterben

Das Märchen vom bevorstehenden Absterben des Waldes ist ein extremes Beispiel von der Entstehung und der staatlich betriebenen Aufblähung einer falschen Theorie, die insbesondere der Presse, aber auch bestimmten staatlichen Stellen sehr gut gefiel. Im Jahre 1979 berichtete ein Forstprofessor aus Göttingen, dass er in Laborversuchen festgestellt hätte, dass eine Beregnung von kleinen Nadelbäumen mit „saurem Regen“ erhebliche Schäden verursachte, die letztlich zu deren Absterben führten. Er verstieg sich dabei zu der Prognose, dass in wenigen Jahren der deutsche Wald vernichtet werde.
Anlass für seine Untersuchungen waren die immer noch vorhandenen Schwefeldioxidemissionen aus Kraftwerken, die zwar längst durch sehr wirksame Maßnahmen der Rauchgasentschwefelung, die von früheren Regierungen angeordnet wurden, drastisch verringert worden waren und weiter sanken. Aber immer noch hatten Niederschläge einen zu kleinen pH-Wert, waren also sauer anstatt neutral.
Schon in den siebziger Jahren gab es eine internationale Debatte über den sauren Regen und seine Folgen. Der Säureregen zerfraß Gebäude, ließ vitale Seen absterben, schädigte Pflanzen und bedrohte auch die Gesundheit der Menschen. Bereits im 1.Umweltprogramm der Regierung Brandt von 1971 wurde dieses Problem detailliert samt entsprechenden Aktionen vorgestellt. Die Stockholmer UN-Umweltkonferenz von 1972 und das Genfer Übereinkommen 1979 führten zu internationalen Verträgen mit weitreichenden Maßnahmen. Bereits im März 1974 konnte Bundesinnenminister Werner Maihofer beachtliche Erfolge vorzeigen: Die Schwefeldioxid-Emissionen waren drastisch zurückgegangen und sanken weiter.

Unterstützung erhielt der Göttinger 1981 von einem Professor aus München; das war aber schon alles an Beistand aus der Forschung. Die gesamte übrige Forstforschung lehnte diese Theorie ab. Aber es half schon nichts mehr: Die Medien hatten dieses wunderbare Panikthema aufgegriffen. Eine Art Himmelsgeschenk erhielten sie durch eine recht flapsige Bezeichnung für Waldschäden, die von den Forstleuten selbst erfunden worden war: Wenn in einem Waldgebiet irgendeine Schädigung im Gange war – sei es durch Insekten, Pilze oder andere Ursachen – pflegte man dafür einen Begriff zu wählen, der die betroffene Baumart und den Anhang „-sterben“ zusammenfügte. Also z.B. Eichensterben. Gab es mehrere derartige Schadfaktoren oder waren gleichzeitig mehrere Baumarten betroffen, nannte man es ungerührt und im Grunde leichtfertig „Waldsterben“. Damit hatte die Presse den besten Angstbegriff für eine Medienkampagne.
Die Sache wäre normalerweise innerhalb der Wissenschaft geklärt worden und man hätte dann nichts mehr von der falschen Theorie gehört. Aber die Presse gab keine Ruhe. Und dann geschah etwas, das aus einer Theorie eine staatliche Großaktion machte, die sogar auf andere Länder übergriff: Das Bundeslandwirtschafts-Ministerium BML, in dem nur eine sehr kleine Abteilung, die keinerlei Kompetenzen aber eine inhaltlose Zuständigkeit für Waldangelegenheiten hatte, vor sich hin dämmerte. Bundes-Staatswald gab es nicht. Wald, Forstämter, Forstforschungseinrichtungen, weitere Kompetenzen und vor allem Geld hatten allein die Länder.
In dieser Situation war die Waldsterbepanik ein Geschenk des Himmels für das BML. Es winkten endlich Geld, neue Pöstchen, großartige Koordinierungsaktionen mit den Ländern und damit endlich eine Erlösung aus der Bedeutungslosigkeit.
Es folgte ein gewaltiger Aktionismus, eine bundesweite Waldschadenserhebung wurde geboren – mit ungeeigneten Kriterien dafür, was eigentlich ein Waldschaden sei. Die Kritik von sämtlichen Forstwissenschaftlern (außer die in Göttingen) wurde beiseite gewischt. Man wollte sich das großartige Waldsterben nicht nehmen lassen.
Die Wissenschaft witterte das Geld und Forschunganträge begannen hereinzuströmen. Viele Forscher schreckten auch nicht vor völlig unsinnigen Theorien zurück: So wollt man z.B. Kernkraftwerke als Schuldige überführen. Auch die Grünen beteiligten sich fleißig an der Angsterzeugung: Sie starteten 1990 eine Kleine Anfrage im Parlament: »Zu den Problemen von Waldsterben … durch Einwirkung von Richtfunk und Radarwellen«. Es erwies sich ebenfalls als Unsinn.

Am 2. Februar 1993 – also immerhin 10 Jahre nach der Einführung der unbrauchbaren Waldschadenserhebung durch das BML – veröffentlichte das Bundesforschungsministerium (BMFT) eine Zwischenbilanz mit einer Stellungnahme seines Expertenkreises. Dieses Gremium, dem auch der o.e. Göttinger Professor angehörte, kam zu der klaren Aussage, »dass ein Absterben ganzer Wälder in Zukunft nicht mehr zu befürchten« sei. Er räumte damit in respektabler Manier ein, dass er damals mit seiner Prognose zu weit gegangen war. Nur 4 von 54 Tageszeitungen brachten diese Nachricht. Man wollte sich die Panik nicht durch die Forstforscher vermiesen lassen.

Die politischen Parteien hielten noch viel länger unverdrossen am Waldsterben fest. Noch im Mai 2000 stellten die Fraktionen der CDU/CSU und der SPD gleichlautend fest, »dass es keinen Grund zur Entwarnung gibt«. Dieser Satz dient seit Jahren der umweltpolitischen Geisterbeschwörung – vor allem für die Umweltverbände, die auf Entwarnungen allergisch reagierten. Im März 2001 erklärte Landwirtschafts-Staatssekretär Berninger im Parlament, »dass wir zusätzliche Strategien gegen das Waldsterben entwickeln«. Und im Januar 2002 forderten die Fraktionen der SPD und der Grünen, die Anstrengungen zur Reduktion und Beseitigung der »neuartigen Waldschäden« zu verstärken.

Dann kam die Überraschung: Im Sommer 2003 – also ganze 10 Jahre nach dem wissenschaftlichen Todesurteil der Waldsterbe-Theorie im Februar 1993 und 20 Jahre nach der Einführung der unbrauchbaren Waldschadenserhebung (heute Waldzustandserhebung) – erklärte Ministerin Renate Künast das Waldsterben für beendet. Die fachliche Kritik und wohl auch der Spott waren offenbar unerträglich geworden. Die Franzosen, die deutsche Ängste seit je nicht ganz ernst nehmen, fügten ihrem Vokabular le waldsterben hinzu, nachdem sie bereits le angst aufgenommen hatten.

Der Autor nahm damals im Bundesforschungs-Ministerium am Kampf gegen die BML-Panikfraktion teil – vergebens, denn die hatten die Zuständigkeit. Seltsamerweise bekam der BML-Minister, immerhin ein CSU-Mitglied, nichts von alledem mit. Die Regierung selbst verhielt sich vollkommen passiv. So dauerte es 10 Jahre, bis die grundlegenden Fehler in der Göttinger Theorie aufgedeckt wurden und die gesamte Waldsterbepanik in sich zusammen brach und weitere 10 Jahre, bis die Politik das Thema aufgab.
Am Ende war das Waldsterben nur noch ein sicherer Lacher in Kabaretts. Für die Steuerzahler gab es dagegen wenig zu lachen, denn die staatliche Förderung der Forschung über die vermeintlichen Ursachen des nicht existierenden Waldsterbens hatte allein im Bereich der Bundesregierung über 600 Millionen DM gekostet – die Ausgaben der Länder nicht gerechnet.

Eine ausführliche Schilderung der deutschen Waldsterbe-Angst und ihrer Folgen hat der Autor 2004 in der ZEIT veröffentlicht (5).

Der belgische Reaktor Tihange

Eine Variante der Nuklearangst ist die Schreckensvision von einer Reaktorkatastrophe im belgischen Tihange. Von Umweltschützern und inzwischen auch von westdeutschen Landesregierungen wird behauptet, dass der Stahl des Reaktordruckgefäßes von Rissen durchzogen und damit unsicher sei. Damit wäre ein großes Unglück wahrscheinlich. Seltsamerweise sehen das die dem Kraftwerk viel näher lebenden Belgier ganz anders. Die zuständigen Behörden des Landes betonen auch, man habe alles geprüft und es bestünde keine Gefahr.
Aber die deutsche Politik muss auf Ängste – echte oder nur behauptete – reagieren und so gab es böse Briefe der NRW-Landesregierung nach Belgien und die Stadt Aachen setzte noch eins drauf und verteilte Jodtabletten, die im Falle einer Explosion des Reaktors sofort zu schlucken wären.
Im Grunde laufen diese Aktionen darauf hinaus, der belgischen Atomaufsicht Leichtfertigkeit und Verantwortungslosigkeit und der belgischen Bevölkerung Leichtsinn und Dummheit zu unterstellen. Auch hierbei spielen die deutschen Medien eine fragwürdige Rolle.

 

Die Geisterbahn hat noch viele Nischen, in denen Angst lauert

Es gibt noch den Rinderwahnsinn, von dem bislang nicht behauptet werden kann, dass er auf den Menschen übertragbar ist. Gab es hierzu eine endgültige Entwarnung ?
Es gibt die Angst vor der Strahlung von Mobiltelefonen, die eigentlich wie alle Hochfrequenzstrahlung nur Wärme im Gewebe erzeugen kann, bei der sich die Wissenschaft aber auf die übliche Floskel „weitere Untersuchungen sind aber nötig“ zurückzieht. In diesem Falle ist aber der Wunsch der Kunden, unbedingt so ein Gerät zu besitzen, derart übermächtig, dass jegliche Angsterzeugung unbeachtet bleibt.

Die Bürger sollten vielleicht einmal den Katalog ihrer Ängste prüfen. Im Grunde können sie sämtliche von der Regierung verbreiteten Ängste streichen.
Vor dem großen Blackout aber dürfen sie sich mit Recht grausen.

Angst ?

Dass hier so über die Angstmacher und die Angsthasen gschrieben wird, liegt daran, dass der Autor keine dieser Ängste (mit Ausnahme des Großen Blackouts) ernst nimmt. Eigentlich bleibt dann nur die berechtigte Angst vor dem Zahnarzt übrig.
Allerdings gibt es doch vielleicht eine Sache, die mir etwas Sorge bereitet. Wenn in der näheren Umgebung unseres Hauses eine Wasserstoff-Tankstelle eröffnet wird, ziehe ich um. Den gewaltigen Explosionskrater kann ich mir gut vorstellen. Natürlich habe ich keine Angst. Aber dieses mulmige Gefühl…….

 

Quellen
(1): Michael Vassiliadis, der Chef der für die Kraftwerkswirtschaft zuständigen IG Bergbau, Chemie, Energie; Kommentar zu den Vorgängen am 24.1.2017; Veranstaltung in Haltern am See vor Journalisten
(2): Urban Kaussen: „Droht uns ein Blackout ?“, Technology Review – TR Online, 08.07.2015; https://www.heise.de/tr/droht-uns-ein-blackout-2639922.hmtl

(3): Björn Lomborg: „Deutschlands gescheiterte Klimapolitik“, FAZ, 15.05.2015;
www.faz.net/aktuell/wirtschaft/energiepolitik/bjoern-lomborg-ueber-klimawandel-und-gescheiterte-klimapolitik-13580487-p3.html
(4): Thomas Petermann, Harald Bradtke, Arne Lüllmann, Maik Poetzsch, Ulrich
Riehm: „Gefährdung und Verletzbarkeit moderner Gesellschaften – am Beispiel
eines   großräumigen und langandauernden Ausfalls der Stromversorgung“,
17.5.2011; Arbeitsbericht Nr. 141; Publikation: „Was bei einem Blackout geschieht“, Studie des Büros für Technikfolgenabschätzung beim Deutschen Bundestag, Bd. 33, 2011, Verlag edition sigma, Berlin, ISBN 9783836081337, Volltext:
http://www.tab-beim-bundestag.de/de/pdf/publikationen/berichte/TAB-Arbeitsbericht- ab141.pdf

(5): Günter Keil: „Chronik einer Panik“, DIE ZEIT, 9.12.2004;
www.zeit.de/2994/51/N-Waldsterben




Elektromobilität? Politiker-Beschwichtigungs-Karossen!

Die nordrhein-westfälische Umweltministerin Christina Schulze Föcking machte unlängst Schlagzeilen, als sie einen erst kurz vorher von ihrem Vorgänger angeschafften Tesla-S-90D-Elektro-Dienstwagen wieder ausmustern ließ. Wer hier vermutet, dass man das nicht gerade ökologisch korrekte Image einer 110.000 Euro teuren und 422 PS leistenden Luxuskarosse scheute, beweist damit nur sein Alter. Moderne Öko-Hipster denken im Traum nicht mehr daran, ihre Doppelmoral schamvoll zu verbergen und zumindest nach außen hin eine Fassade von Frugalität zu bewahren; sie haben keine Hemmungen, ihren ressourcenfressenden Lebensstil ungeniert zur Schau zu stellen, solange sich irgendein Gimmick finden lässt, mit dem sie ihre öko-moralische Überlegenheit demonstrieren können. Nein, man war schlicht und ergreifend mit der Leistung der Rennsemmel unzufrieden, die Reichweite habe sich im Praxisbetrieb mit weniger als 300 Kilometern als zu gering herausgestellt. Als Ersatz gönnt sich die Ministerin jetzt einen noch dickeren Mercedes-S500-Verbrenner mit 442 PS (aber immerhin in der besonders teuren Hybridversion mit zusätzlichem Alibi-Elektromotörchen).

Also ein weiteres typisches Beispiel des Wasser-predigen-aber-Wein-saufen-Verhaltens der bundesrepublikanischen politischen Klasse, der die von ihr gepuschte Elektromobilität für den Eigengebrauch nicht gut genug ist, nicht einmal in einer High-End-Luxusausführung.

Wir wollen erst gar nicht die Frage aufwerfen, warum unsere Öko-Politokraten überhaupt dem bösen Individualverkehr frönen und nicht die vielgelobten (und subventionierten) öffentlichen Verkehrsmittel benutzen, die sie uns Normaluntertanen aufzwingen wollen.

Die Episode zeigt aber insbesondere auch in aller Deutlichkeit, dass trotz allen Hypes Elektroautos Lichtjahre von einer Wettbewerbsfähigkeit mit den uncoolen Verbrennern entfernt sind. Was das Reichweitenproblem angeht, so ergibt sich dies schon unmittelbar aus harten physikalischen Tatsachen: Die spezifische Energie eines Bleiakkus beträgt etwa 35 Wattstunden pro Kilogramm, moderne Lithium-Ionen-Akkus liegen hier deutlich besser bei etwa 150 Wattstunden pro Kilogramm. Aber: Benzin hat einen Energiegehalt von 12.800 Wattstunden pro Kilogramm, also 85 Mal soviel!

Eine Speicherkapazität von einer Kilowattstunde benötigt also einen Lithium-Ionen-Akku mit einer Masse von 6,67 Kilogramm; dies entspricht gerade einmal 0,08 Kilogramm oder 0,1 Liter Benzin. Hier muss man noch die unterschiedlichen Wirkungsgrade berücksichtigen: Im optimalen Drehzahlbereich erreicht beim heutigen Serienstand der Technik ein Saugbenziner 30 bis 35 Prozent, ein Turbobenziner 35 bis 40 Prozent und ein Diesel 40 bis 45 Prozent, während ein Elektromotor 90 Prozent und mehr erreichen kann (wobei aber etwa zehn Prozent Verlust in der Leistungselektronik zwischen Akku und Motor abgezogen werden müssen). Aber selbst wenn wir sehr großzügig aufrunden und von einer durchschnittlichen dreifachen Effizienz des Elektroantriebs gegenüber einem Benziner oder einer 2,5-fachen gegenüber einem Diesel ausgehen, so würden 6,67 Kilogramm Akkumasse doch immer noch lediglich etwa 0,24 Kilogramm oder 0,3 Litern Benzin entsprechen.

Der 90-Kilowattstunden-Akku des verschmähten Tesla entspricht also gerade einmal 27 Litern Benzin; dass die Reichweite des Wagens unter diesen Umständen zu wünschen übrig lässt, verwundert nicht wirklich, denn das ist recht mager für ein Zwei-Tonnen-Fahrzeug, woran der Akku mit mehr als einer halben Tonne wesentlich beteiligt ist. Das hohe Gewicht der Batterie wirkt sich natürlich auch negativ auf den Verbrauch aus: Bei Benzinern rechnet man für alle 100 Kilogramm mehr Gewicht mit einem Mehrverbrauch von etwa 0,3 bis 0,4 Litern je 100 Kilometer, was als Vorwand für staatliche Vorschriften genommen wird, die den Automobilherstellern strikte Gewichtsbeschränkungen bei neuen Verbrenner-Automodellen auferlegen; die Automobilhersteller sehen sich bei diesen deshalb gezwungen, um jedes Gramm zu kämpfen und vom technischen Standpunkt aus gesehen unnötige Kompromisse einzugehen. Bei den heiligen Elektro-Kühen, wo, wie wir hier sehen, das zusätzliche Gewicht allein durch die Batterie eine halbe Tonne mehr als bei einem äquivalenten Verbrenner betragen kann, kräht kein Hahn danach. Und die 90 Kilowattstunden gelten wohlgemerkt für ein extrem teures High-End-Modell, Elektromobile in für Normalverdiener halbwegs erschwinglichen Preisbereichen müssen mit Akkus von deutlich geringerer Kapazität auskommen. Üblich sind derzeit Kapazitäten im Bereich von etwa 30 Kilowattstunden, was nach unserer obigen Rechnung eine Tankgröße von gerade neun Litern ergibt.

Das Problem der geringen Reichweite wird noch wesentlich verschärft durch das zweite technische Hauptmanko der Elektrofahrzeuge, nämlich die langen Ladezeiten. Diese sind bedingt durch die sehr begrenzte Rate, mit der Batterien geladen werden können, ohne sie zu beschädigen. Heutige Ladestationen haben in der Regel eine Laderate von elf oder 22 Kilowatt; die „Supercharger“ von Tesla schaffen immerhin bis zu 120 Kilowatt. Für die fernere Zukunft wird von 350 Kilowatt gemunkelt, obwohl noch nicht klar ist, welche Fahrzeuge diese überhaupt werden nutzen können. Der Verbrennerfahrer kann über solche Zahlen nur müde lächeln; eine normale Pkw-Benzinzapfsäule mit einer Durchflussmenge von 35 Litern pro Minute hat, in Elektronomenklatur ausgedrückt, eine „Laderate“ von gigantischen 21 Megawatt oder immer noch von sieben Megawatt, wenn wir unseren großzügigen Umrechnungsfaktor benutzen.

Während man so einen Kraftstofftank in höchstens zwei bis drei Minuten auffüllen kann, dauert dies bei einem Elektromobil typischerweise mindestens fünf bis sechs Stunden, weshalb es in der Praxis zumeist erforderlich ist, in eine eigene häusliche Ladestation zu investieren, um über Nacht „nachtanken“ zu können. Inzwischen gibt es bei einigen Modellen auch „Schnelladung“; auch hier wird die Wartezeit an der Stromtankstelle aber ganz schön lang, da es die Ladezeit bestenfalls auf etwa 20 bis 30 Minuten verkürzt. Zudem setzen so hohe Ladeströme die Lebensdauer des Akkus herab, weshalb etwa bei Tesla die Anzahl der Schnelladezyklen über die Fahrzeugsoftware begrenzt wird. Ohnehin kommt man mit Schnelladung nur bis zu etwa 80 Prozent der Nennkapazität, wer volltanken will, muss die restlichen 20 Prozent im normalen Ultra-Schneckentempo absolvieren.

Aber auch unabhängig vom „Schnelladen“ wird empfohlen, nicht mehr als bis auf 80 Prozent der Nennkapazität aufzuladen und auf nicht weniger als 20 Prozent zu entladen, um die Lebensdauer des Akkus nicht herabzusetzen. Dies bedeutet natürlich effektiv, nur 60 Prozent der ohnehin unzureichenden Akkukapazität zu nutzen. Generell sind bislang kaum belastbare Erfahrungsdaten darüber publik geworden, wie gut es um die Langzeit-Haltbarkeit der Fahrzeugakkus steht; man geht von im Normalfall etwa sieben bis zehn Jahren aus, bis der Kapazitätsverlust einen Austausch nötig macht.

Ein weiteres ernstes Problem ist die starke Temperaturabhängigkeit der Akkus, die angegebenen Nennwerte erreichen sie nämlich nur in einem recht engen Temperaturbereich von etwa 20 bis 30 Grad Celsius. Außerhalb dessen sind negative Auswirkungen sowohl auf Kapazität als auch auf Ladezeit und Effizienz sowie Lebensdauer zu erwarten. So ist etwa bereits bei minus fünf Grad mit Kapazitätsverlusten im Bereich von 50 Prozent zu rechnen. Oftmals besitzen Elektroautos deshalb eine Heizung und eine Klimaanlage für die Batterie, was aber nicht nur ein Kostenfaktor ist, sondern auch für einen hohen zusätzlichen Energieverbrauch sorgt.

Aber mindestens ebenso bedeutsam wie die massiven technischen Nachteile des Elektroautos sind seine Kosten. Staatliche Subventionen und die für die Hersteller nicht kostendeckenden Preise (die letztendlich zumeist von den Käufern der normalen Modelle getragen werden müssen) verschleiern oftmals, wie exorbitant der Kostenaufschlag für die Elektromobilität eigentlich ausfällt.

Eine sehr gute Basis für einen realistischen Vergleich der Produktionskosten von Elektrikern und Verbrennern bietet der Chevrolet Bolt von General Motors, da er in relativ hohen Stückzahlen produziert wird und bis auf seinen elektrischen Antriebsstrang weitgehend identisch mit dem Benziner Sonic ist: Der Bolt hat einen Listenpreis von 37.000 US-Dollar (durch Subventionen kann dies für den Käufer natürlich deutlich weniger werden), einen Sonic mit vergleichbarer Ausstattung bekommt man schon für 19.000 US-Dollar. Allerdings macht GM etwa 8.000 bis 9.000 US-Dollar Verlust für jeden produzierten Bolt, womit sich die tatsächlichen Kosten auf mindestens 45.000 US-Dollar belaufen, was satte 26.000 US-Dollar oder 137 Prozent Mehrkosten im Vergleich zur Benziner-Version bedeutet. Dazu müsste man natürlich eigentlich noch die Gewinnspanne für die Benziner-Version aufschlagen, auf die GM bei seinen „normalen“ Fahrzeugen wohl kaum verzichten wird (auch wenn sie, da es sich um einen Kompaktwagen handelt, vermutlich nicht allzu üppig ausfallen wird).

Bei anderen Anbietern kommt man auf ganz ähnliche Zahlenwerte. So bietet etwa auch Fiat aufgrund der „Zero Emission“-Gesetze im US-Bundesstaat Kalifornien, die Elektro-unwilligen Automobilherstellern heftige Strafzahlungen androhen, eine Stromer-Version des Fiat 500 an. Sie kostet happige 33.000 US-Dollar im Vergleich zu etwa der Hälfte für eine entsprechende Benziner-Version. Einen Gewinn macht Fiat damit aber genauso wenig wie GM, wie Fiat-Chrysler-Chef Sergio Marchionne auf einer Konferenz mit folgender, wenig enthusiastischer „Werbebotschaft“ für das ungeliebte Produkt klarmachte: „Ich hoffe, Sie kaufen es nicht, denn jedes Mal, wenn ich eines verkaufe, kostet es mich 14.000 Dollar.“

Die Kosten für ein Elektroauto betragen also deutlich mehr als das Doppelte eines ansonsten vergleichbaren Verbrenners (vergleichbar heißt aber nicht gleichwertig, da natürlich die Gebrauchsnachteile des Elektrikers berücksichtigt werden müssen). Wie kommt diese gewaltige Kostenkluft zustande? Zum einen ist da natürlich der Preis für den notwendigen massiven Akku. Das kann aber nicht alles sein, wie ein weiterer Blick auf das Beispiel Chevrolet Bolt klarmacht. Der Einkaufspreis der Zellen für den dort verbauten 60-Kilowattstunden-Akku beträgt laut GM 8.700 US-Dollar, die Kosten für den gesamten Akku werden auf etwa 12.0000 bis 13.000 US-Dollar geschätzt. Der Akku ist also nur für etwa die Hälfte der Mehrkosten verantwortlich, offensichtlich sind auch andere Bestandteile des Antriebsstrangs an der Elektro-Kostenexplosion beteiligt.

Diese Feststellung ist insofern bemerkenswert, als sie in direktem Widerspruch zu den oft gehörten Behauptungen über vermeintliche Kostenvorteile für Elektrofahrzeuge wegen ihrer geringeren mechanischen Komplexität steht. Wirklich überraschend ist sie jedoch nicht, denn es ist ohne weiteres einsichtig, dass die vielbeschworenen Einsparungen für mechanische Komponenten in der Realität nicht sonderlich stark ins Gewicht fallen; ein Motor ist natürlich weiterhin vorhanden, und Elektrofahrzeuge benötigen entgegen einem weit verbreiteten Irrglauben durchaus ein Getriebe, auch wenn nur ein oder zwei Fahrstufen nötig sind und es daher etwas einfacher als bei einem Verbrenner ausfallen kann. An anderen Stellen muss dafür aber erheblich mehr Aufwand getrieben werden: So ist etwa eine umfangreiche Leistungselektronik für die Handhabung der hohen Ströme erforderlich, die für den Elektromotor notwendige Regelungselektronik fällt weitaus komplexer als für einen Verbrennungsmotor aus, und die geringe Verlustwärme des Motors hat auch Nachteile, da eine zusätzliche elektrische Heizung notwendig ist; die dringend zu empfehlende Batterieheizung/Klimatisierung haben wir schon erwähnt.

Angesichts der gravierenden Nachteile von Elektrofahrzeugen ist es kein Wunder, dass sie völlig von staatlichen Subventionen abhängig sind. Höhere Marktanteile – wofür schon der obere einstellige Prozentbereich gelten kann – erreichen sie nur dort, wo die Bevorzugung gegenüber Verbrennerfahrzeugen extreme Ausmaße von 100 Prozent des Fahrzeugwertes und mehr erreicht. In der Praxis geschieht dies dort, wo normale Autos besonders hoher steuerlicher Belastung ausgesetzt sind und Elektrofahrzeuge davon befreit werden. Sehr aufschlussreich ist es, zu beobachten, was geschieht, wenn diese Vergünstigungen wieder reduziert werden. In Hongkong erreichten Elektroautos, da sie von der dortigen hohen Anmeldesteuer befreit waren, durchaus ansehnliche monatliche Verkaufszahlen im dreistelligen Bereich. Vorwiegend handelte es sich um hochpreisige Teslas – die Firma machte 2015 etwa zehn Prozent ihres Auslandsumsatzes in Hongkong. Als die Steuerbefreiung schließlich auf einen Fahrzeugpreis von umgerechnet etwa 12.000 Euro gedeckelt wurde, waren die Auswirkungen dramatisch: Von einem Rekordwert von 2.964 Fahrzeugen im März 2017 sank die Zahl der Anmeldungen im Folgemonat auf buchstäblich Null – was sich in den Folgemonaten nur minimal auf knapp zweistellige Werte „erholte“. In Dänemark hatten Elektrofahrzeuge dank der Nichterhebung der für Autos sonst fälligen bis zu 180-prozentigen Importsteuer einen Marktanteil von immerhin 2,2 Prozent erreicht. Als aber 2016 Elektrofahrzeuge wieder steuerpflichtig wurden, sackten ihre Verkaufszahlen um gut 60 Prozent ab – und das, obwohl für Fahrzeuge unter umgerechnet etwa 100.000 Euro die Steuer nur auf moderate 20 Prozent der regulären Rate festgelegt wurde. Wie man sieht, ist es notwendig, die massiven Vergünstigungen auf Dauer aufrechtzuerhalten; das schließt diesen Weg zur Durchsetzung der schönen neuen Elektrowelt praktisch aus, da wohl kaum ein Finanzminister bereit sein wird, auf die ergiebige Melkkuh Autofahrer zu verzichten.

Aber wie sieht es mit der Zukunft aus? Wenn wir ihren Evangelisten Glauben schenken wollen, schreitet die elektromobile Revolution mit exponentieller Geschwindigkeit fort, und wenn die Fahrzeuge auch heute noch weit entfernt von jeglicher Wettbewerbsfähigkeit sein sollten, so werden sie sie in jedem Fall in wenigen Jahren erreicht haben. Aber auch hier sehen die harten Fakten anders aus: Signifikante Verbesserungen, sowohl was Leistung als auch was Kosten angeht, sind in absehbarer Zukunft nicht zu erwarten.

Zum Teil liegt dies daran, dass erst für die Zukunft prognostizierte positive Effekte schon eingetreten sind. Das gilt insbesondere für die „Skaleneffekt“-Entschuldigung der hohen Kosten elektrischer Fahrzeuge: Demnach würden diese bislang nur in vergleichsweise niedrigen Stückzahlen hergestellt, wenn erst ähnlich hohe Produktionsziffern wie bei der Verbrennerkonkurrenz erreicht seien, so würden sich auch die Kosten angleichen. Angesichts der Tatsache, dass schon heute mehrere Elektromodelle mit jährlichen Produktionszahlen im Zehntausenderbereich existieren, erscheint diese Argumentation jedoch wenig überzeugend. Um einmal mehr den Chevrolet Bolt und sein Benziner-Geschwister Sonic als Beispiel heranzuziehen: Vom Sonic wurden 2016 etwa 60.000 Stück gebaut, für den Bolt, der seit November 2016 auf derselben Produktionslinie gebaut wird, ist eine Jahresproduktion von 25.000 bis 30.000 Stück vorgesehen. Das ist wohl kaum ein größenordnungsmäßig entscheidender Unterschied. Mehr noch: Die Verfügbarkeit des Opel Ampera-e, der Version des Bolts für den europäischen Markt, wird künstlich auf wenige Tausend Stück im Jahr beschränkt, obwohl man, insbesondere aufgrund so extrem hoch subventionierter Märkte wie Norwegen, wesentlich mehr absetzen könnte. Es wäre sicherlich kein Problem, mit den Absatzzahlen für den nordamerikanischen Markt zumindest gleichzuziehen. Man sieht jedoch offensichtlich bei GM keine Möglichkeit, selbst bei einer wesentlichen Erhöhung der Stückzahlen das Fahrzeug kostendeckend produzieren zu können.

Auch beim Elektro-Wunderkind Tesla ist nichts von der Wirkung der wundersamen „Skaleneffekte“ zu spüren, denn dort verzeichnet man trotz einer inzwischen erreichten Jahresproduktion von annähernd 100.000 Fahrzeugen weiterhin horrende Verluste. Dies wiegt umso schwerer, als Tesla die durchaus clevere Strategie verfolgte, zunächst einmal gerade eben nicht ökologisch korrekt auf das Kleinwagensegment abzuzielen, wie das die etablierte Konkurrenz mit ihren E-Mobilen vorwiegend tat, sondern stattdessen extrem teure Luxus-Spaßmobile anzubieten, deren hohe Margen bessere Chancen boten, den Elektromobilitäts-Kostennachteil auszugleichen. Dass man aber auch so die Fahrzeuge, trotz hoher staatlicher Subventionierung, nur mit massiven Verlusten absetzen konnte, zeigt drastisch, wie extrem weit entfernt Elektroautos von einer Konkurrenzfähigkeit mit Verbrennern sind. Und nicht einmal eine Tendenz zum Besseren ist zu erkennen, denn aus einem Blick in die Tesla-Bilanzen lässt sich schließen, dass, obwohl sich die Produktionszahlen zwischen 2014 und 2016 fast verdreifachten, dies zu keiner Senkung der Produktionsstückkosten geführt hat, eher im Gegenteil.

Auch was speziell die Schlüsselkomponente des Elektromobils, den Akku, angeht, ist das Rationalisierungspotential bereits weitgehend ausgeschöpft. Eine Studie der University of Michigan etwa sieht das Optimum, ab dem eine weitere Erhöhung des Ausstoßes kaum noch zusätzliche Kostenvorteile mit sich bringt, bei einer jährlichen Produktionsrate von 200 bis 300 Megawattstunden. Diese Zahlen werden etwa beim Nissan Leaf, beim Chevrolet Bolt und von Tesla bereits überschritten. Weiterhin ist zu beachten, dass ein beträchtlicher Teil der von Elektro-Enthusiasten viel bejubelten starken Preissenkungen für Lithium-Ionen-Akkuzellen der letzten zehn Jahre nicht auf niedrigere Produktionskosten zurückzuführen ist, sondern auf das Schrumpfen der Gewinnspannen der Zellenhersteller, die in Erwartung des vermeintlichen riesigen Elektromobilitätsmarktes gewaltige Überkapazitäten aufgebaut haben und jetzt nur mehr mit hauchdünnen Margen oder mit Verlust arbeiten. Es ist kein Wunder, dass unter diesen Umständen inzwischen auch der letzte deutsche Zellenhersteller das Handtuch schmeißen musste. Bei den verbliebenen Herstellern handelt es sich vorwiegend um große asiatische Konglomerate, die die Zellenherstellung über andere, profitable Geschäftsbereiche quersubventionieren können. Es ist aber nicht anzunehmen, dass sie diesen Aderlass unbegrenzt tolerieren werden, wenn sich nicht in absehbarer Zeit der versprochene Bedarf auftut.

In der Propaganda der Elektro-Enthusiasten wird versucht, für die Entwicklung der Akkutechnologie einen ähnlich rasanten Fortschritt wie den durch das berühmte Mooresche Gesetz beschriebenen in der Mikroelektronik zu suggerieren. Aber alle Erfahrungen der Vergangenheit zeigen, dass die Entwicklung in der Batterietechnik nur relativ langsam fortschreitet, sowohl was die Verbesserung bestehender als auch was die Einführung neuer Technologien angeht. Der Bleiakkumulator etwa erfuhr in den mehr als 150 Jahren seiner Geschichte in seinen grundlegenden Eigenschaften nur recht moderate Verbesserungen.

Auch beim Lithium-Ionen-Akku ist der behauptete rasante Fortschritt eher nicht zu erkennen und verlangsamt sich in den letzten Jahren sogar noch. Das ist nicht weiter verwunderlich, denn die Technologie gilt als weitgehend ausgereizt, sowohl was Kosten als auch was Leistung betrifft. So geht Panasonic, der Lieferant für die Batteriezellen des Elektro-Vorzeigeherstellers Tesla, von lediglich 20 Prozent bis 30 Prozent mehr an spezifischer Energie aus, die sich noch aus der Lithium-Ionen-Zellentechnologie herausholen lassen würden. Das zeigt sich auch an den neuen Batteriezellen, die in der neuen Tesla-„Gigafabrik“ hergestellt werden und zwar eine höhere Kapazität aufweisen, gleichzeitig jedoch auch entsprechend größer sind, womit sich die Energiedichte also nicht verbessert hat. Diese Stagnation macht sich dann entsprechend auch in den Gesamt-Akkupaketen bemerkbar: Die Batterie des 2007 erschienenen ersten Fahrzeugs, des Roadster, wies eine spezifische Energie von 127 Wattstunden pro Kilogramm auf, was sich schrittweise bis auf 170 Wattstunden pro Kilogramm für das Model S von 2016 erhöhte. Bei den Batterien für das aktuelle Model X und das Model 3 von 2017 ist jedoch nicht nur keine weitere Erhöhung, sondern sogar eine Regression auf 150 Kilowattstunden pro Kilogramm festzustellen.

Mit dem Lithium-Ionen-Akku wird die elektromobile Revolution also nicht zu machen sein. Doch was ist mit den ganzen revolutionären neuen Batterietechnologien, die alle naselang verkündet werden? Zunächst einmal ist festzustellen, dass, wie üblich, die große Mehrheit dieser neuen Wundertechnologien scheitern und sang- und klanglos in der Versenkung verschwinden wird. Aber selbst bei denjenigen von ihnen, die sich als grundsätzlich realisierbar herausstellen sollten, wird es noch eher Jahrzehnte als Jahre dauern, bis sie für den Einsatz in Fahrzeugen relevant werden. Erste Versuchsmuster von Lithium-Ionen-Akkus wurden bereits in den 70er Jahren entwickelt, aber erst Anfang der 90er Jahre kamen die ersten kommerziellen Anwendungen auf den Markt. Es dauerte ein weiteres Jahrzehnt, bis sie einen solchen Reifegrad erreicht hatten, dass an einen Einsatz in automobilen Anwendungen gedacht werden konnte. Und erst heute, also noch ein weiteres Jahrzehnt später, kann man von einem leistungs- und kostenoptimierten Stand der Technik sprechen. Es gibt keinen Grund dafür, anzunehmen, dass zukünftige neue Batterietechnologien wesentlich kürzere Entwicklungszeiträume aufweisen werden.

Weiterhin muss kritisch geprüft werden, wie relevant die potentiellen Verbesserungen neuer Batterietechnologien tatsächlich für die Frage nach der Wettbewerbsfähigkeit von elektrischen Fahrzeugen sind. Nehmen wir etwa die Lithium-Schwefeltechnologie, die wohl die am weitesten fortgeschrittene unter den neuen Batterietechnologien ist: Hier wird euphorisch mit einer spezifischen Energie von 500 Wattstunden pro Kilogramm geworben, die sich bei den neuesten Labormustern schon erzielen lassen würden, für die fernere Zukunft wird sogar von zumindest theoretisch erzielbaren mehr als 2.000 Wattstunden pro Kilogramm gemunkelt. Das klingt zunächst sehr gut, bis man sich auch einmal die Energiedichte ansieht – diese ist nämlich nicht besser, tendenziell sogar eher etwas schlechter, als bei den etablierten Lithium-Ionen-Akkus. Im Klartext: Ich benötige weiterhin eine Batterie vergleichbarer Größe und Komplexität, mit einer vergleichbaren Anzahl von Einzelzellen, um eine bestimmte Energiemenge zu speichern; der einzige Vorteil ist, dass diese leichter sein wird. Nun wäre es sicherlich sehr willkommen, wenn die Batterie in meinem Elektrofahrzeug nur noch 100 oder 200 Kilogramm statt einer halben Tonne wiegt; aber das hohe Batteriegewicht ist unter den zahlreichen Problemen, die die Elektromobilität plagen, noch ein vergleichsweise harmloses. Es ist klar, dass sich bei den Hauptproblemen, den hohen Kosten und der geringen Reichweite, nur durch Verbesserung auch der Energiedichte echte Fortschritte erzielen lassen – eine Einzelzelle vergleichbarer Größe muss eine höhere Energiespeicherkapazität aufweisen.

Bis eine neue, wesentlich leistungsfähigere, Batterietechnologie einigermaßen ausgereift und zu vertretbaren Kosten verfügbar ist, wird es also selbst optimistisch gesehen eher noch 20 als zehn Jahre dauern. Die Kosten für Elektrofahrzeuge werden aber auch dann weiterhin höher sein, die Batterie wird immer einen signifikanten Zusatzaufwand bedeuten, der bei einem Verbrenner schlichtweg nicht existiert. Immerhin könnten sie dann einigermaßen deren Leistungsniveau erreichen.

Aber zumindest bis dahin ist jegliche Investition in elektrische Massenmarktmodelle und entsprechende Infrastruktur nichts weiter als sinnlos verschleudertes Geld. Unter diesem Gesichtspunkt kann man die von den rückgratlosen Managern der deutschen Automobilindustrie diensteifrig gegenüber der Politik versprochenen Milliardeninvestitionen in Elektrofahrzeuge nur mit Entsetzen betrachten, denn dieses Geld fehlt dann natürlich für Investitionen in die Weiterentwicklung von Verbrennungsmotoren. Als Beispiel sei hier die sogenannte homogene Kompressionszündung erwähnt, auch „Diesotto“ genannt, weil einem Ottomotor die Fähigkeit verliehen wird, in bestimmten Betriebszuständen alternativ auch die Selbstzündung eines Diesels zu nutzen, mit massiven Effizienzvorteilen. Die deutschen Hersteller haben die weitere Entwicklung dieser Technologie zugunsten der allgemeinen „Elektrifizierung“ aufgegeben und damit der Konkurrenz das Feld überlassen. Und die schläft nicht: Der japanische Hersteller Mazda hat für 2019 das erste Serienfahrzeug mit Diesotto-Motor angekündigt. Und so wird es wohl in einigen Jahren so aussehen, dass deutsche Hersteller mit ihren weitgehend unverkäuflichen (insbesondere zu kostendeckenden Preisen) Politiker-Beschwichtigungs-E-Karossen dastehen, während sie im tatsächlichen Massenmarkt gezwungen sind, mit veralteter Motorentechnologie gegen andere, weniger kurzsichtige, Konkurrenten anzutreten.

Diese Tatsache, nämlich dass sich die Verbrennertechnologie auch weiterentwickelt, ist im übrigen ein bei Betrachtungen über die Fortschritte in der Batterietechnologie gern vergessener Aspekt. Deshalb auch der Konjunktiv in der obigen Einschätzung, es ist nämlich durchaus nicht ausgeschlossen, dass wie in der Fabel vom Hasen und vom Igel bei der Einführung der schönen neuen Batterietechnik „Ück bün schon da“ ertönt, weil nämlich der Verbrennungsmotor inzwischen so große Fortschritte gemacht hat, dass sich der Abstand zwischen beiden Technologien nicht entscheidend vermindert hat.

Durchaus möglich ist auch, dass es letztendlich nicht die galvanische Zelle sein wird, die das ersehnte Energiespeichermedium für die Ablösung des Verbrennungsmotors liefern wird. Als Alternative kommt hier insbesondere die Kondensatortechnik in Frage – Physik statt Chemie. Aber die Erzielung brauchbarer Energiedichten für Hochleistungskondensatoren liegt in noch fernerer Zukunft als die Entwicklung einer neuen Generation von Batterien.

Aber stellen wir einmal die ketzerische Frage, aus welchem Grund wir eigentlich so ungeduldig das Kommen der elektromobilen Offenbarung auf Biegen und Brechen herbeiführen sollen. Wegen ihrer „Umwelt“-Freundlichkeit? Aber in welcher Beziehung haben die E-Mobile überhaupt einen „Umwelt“-Vorteil gegenüber Verbrennern? Diese Frage zu beantworten ist gar nicht so einfach, da, was als „Umwelt“-freundlich oder -feindlich zu gelten hat, sehr vage definiert ist und je nach politischem Einsatzzweck sehr unterschiedlich oder gar gegensätzlich interpretiert wird. Fangen wir einmal mit den „klassischen“ Kritikpunkten am motorisierten Straßenverkehr an, die Belästigung und Gesundheitsgefährdung durch Abgase. Hier wird bekanntlich bereits seit Jahren eine massive Kampagne insbesondere gegen den Diesel gefahren. Mit der Realität hat das nicht das Geringste zu tun, sowohl Diesel als auch Benziner haben in den letzten Jahrzehnten, was Abgasqualität betrifft, dramatische Fortschritte erzielt; keine durch Autoabgase verursachten Schadstoffe erreichen auch nur annähernd als gesundheitsschädlich einzustufende Konzentrationen.

Heutige Fahrzeuge erreichen, was Abgasreinigung betrifft, einen derart hohen Stand, dass es in einigen Kategorien sogar vorkommen kann, das aus dem Auspuff weniger Schadstoffe kommen, als in der Luft waren, die vorher eingesaugt wurde. Dies gilt etwa für den berühmt-berüchtigten Feinstaub, was der entsprechenden Kampagne einen ganz besonders absurden Zug verleiht. Abgesehen davon, dass es keinerlei Beleg dafür gibt, dass der Feinstaub, wie er in üblichen Konzentrationen vorkommt, gesundheitsschädliche Auswirkungen hat (die Konzentrationen in Innenräumen sind in der Regel weit höher), wird nur ein unbedeutender Anteil – etwa zehn Prozent – durch den Straßenverkehr verursacht. Wer Feinstaub als Problem ansieht, sollte als Abhilfemaßnahme vielleicht eher dafür plädieren, künftig den Staub auf den Straßen mit Wasserschläuchen abzuspritzen, wie man es früher gemacht hat. Und selbst wenn man speziell den Straßenverkehr betrachtet, so sind Reifen- und Bremsenabrieb weitaus bedeutendere Quellen für Feinstaub als der Motor: Ein moderner Dieselmotor produziert pro gefahrenem Kilometer etwa 0,2 bis 0,5 Milligramm Feinstaub, ein Fahrrad aber allein durch Bremsenabrieb etwa fünf bis zehn Mal soviel – Wo bleiben die Fahrradfahrverbote?

Das generelle Problem bei Schadstoff-Grenzwerten ist, dass sie, völlig unbeschwert von irgendwelchen wissenschaftlichen Fakten, nach Gutdünken von Bürokraten und Politikern gemäß deren politisch-ideologischer Agenda festgelegt werden können, sei es eine „öko“-sozialistische, oder wie bei den US-Grenzwerten, die VW zum Verhängnis wurden, eine ökonomische Kriegsführung gegen die bei der Dieseltechnologie führenden deutschen Unternehmen. So lassen sich etwa bei den neben dem Feinstaub besonders im Fadenkreuz der Anti-Diesel-Kampagne stehenden Stickoxiden in toxikologischen Experimenten keinerlei schädliche Auswirkungen bei Konzentrationen unterhalb von zwei bis drei Milligramm pro Kubikmeter Luft feststellen. Entsprechend wurde der Grenzwert für erlaubte Konzentrationen am Arbeitsplatz mit einem großzügigen Sicherheitsabstand auf 0,95 Milligramm pro Kubikmeter festgelegt, für besonders empfindliche Personen wie Kranke und Kinder ging man noch einmal auf 0,2 Milligramm pro Kubikmeter herab. Die höchsten in Deutschland im Straßenverkehr gemessenen Konzentrationen liegen bei etwa 0,07 bis 0,08 Milligramm pro Kubikmeter, also weniger als die Hälfte dessen, was man in Innenräumen selbst für besonders empfindliche Personen als unbedenklich ansieht. Kein Problem, sollte man meinen – bis auf die Tatsache, dass der Grenzwert für den Straßenverkehr von EUkraten völlig willkürlich auf den buchstäblich aus der Luft gegriffenen Wert von 0,04 Milligramm pro Kubikmeter festgelegt wurde.

Wenn möglich aber noch absurder wird es, wenn wir die angeblich entscheidende Umwelt-Trumpfkarte der Elektrofahrzeuge angehen, nämlich ihre „Klimafreundlichkeit“. Denn egal, ob man die CO2-Klima-Mythologie ernst nimmt oder nicht (oder zumindest vorgibt, sie ernst zu nehmen), Tatsache bleibt, dass der elektrische Strom, mit dem man ein Elektroauto auflädt, erst einmal produziert werden muss. Und das heißt, abgesehen von geringen und regional beschränkten Mengen an Wasserkraft und Geothermie sowie der Kernenergie, die man ja auf gar keinen Fall haben will, fossile Energie. Dies gilt natürlich ebenso für die Lieblinge der Energiewende, Windkraft und Solar, da es deren sattsam bekannte Unfähigkeit, kontinuierlich Strom zu liefern, erforderlich macht, ihre „Zappelstrom“-Produktion zu 100 Prozent mit konventionellen Kraftwerken abzusichern. Und da ein Kohlekraftwerk etliche Stunden zum Anfahren braucht, müssen diese nicht nur bereitgehalten, sondern auch ständig beheizt werden, damit sie bei einer Flaute rechtzeitig einspringen können.

Das heißt, dass ein Elektroauto in Deutschland, selbst bei der Verwendung von sogenanntem „Ökostrom“, de facto mit Kohle betrieben wird. Das könnte man freilich weitaus billiger und effektiver haben, wenn man wie im Zweiten Weltkrieg die Kohle verflüssigen und damit die Autos ganz normal betreiben würde (mit heutiger Technik wäre der Kostennachteil gegenüber Erdöl sogar nur noch moderat).

Weiter oben haben wir eine höhere Effizienz des Elektromotors im Vergleich zum Verbrenner festgestellt. Das gilt aber nur für eine isolierte Betrachtung, bei einem Blick auf das Gesamtsystem sieht die Bilanz weitaus weniger rosig aus. Zunächst einmal muss der Brennstoff natürlich in einem Kraftwerk in Elektrizität umgewandelt werden: Bei Kohle haben wir üblicherweise einen Wirkungsgrad von 30 Prozent bis 40 Prozent, bei den modernsten Kraftwerken bis zu 45 Prozent, also ähnlich wie bei einem Automotor. Normalerweise könnte man hier dennoch von einem gewissen Vorteil des Kraftwerks ausgehen, da es die meiste Zeit mit einem optimalen Auslastungsgrad gefahren werden kann, während man bei einem Automotor damit rechnen muss, dass er längere Zeit in eher ungünstigen Drehzahlbereichen betrieben wird. Das ist natürlich kein Argument für das Elektroauto, denn der Effizienzverlust bei ungünstigen Drehzahlen gilt selbstverständlich auch für Elektromotoren. Es kommt aber noch hinzu, dass die aktuelle Situation alles andere als normal ist, da die Kohlekraftwerke als Zappelstrom-Lückenbüßer herhalten müssen, womit von einer optimalen Auslastung zumeist keine Rede mehr sein kann. Und wenn der Strom erst einmal erzeugt ist, muss man noch etwa zehn Prozent Verlust für die Übertragung und etwa 20 Prozent für den Batterie-Ladevorgang, bei Schnelladung eher 30 Prozent, dazurechnen. Kaltes Wetter ist auch in dieser Beziehung ein schwerwiegendes Problem, bei Minusgraden kann der Ladeverlust durchaus auf 50 Prozent ansteigen.

Ein weiterer höchst problematischer (und deshalb zumeist unter den Teppich gekehrter) Aspekt von vorgeblichen CO2-Reduzierungstechnologien ist der bei ihrer Produktion anfallende CO2-Ausstoß. Wenn man etwa das bei der Herstellung von Solar- und Windkraftanlagen erzeugte CO2 mitberücksichtigt, so ergibt sich für die „Energiewende“ nicht nur keine Verminderung, sondern vielmehr eine Erhöhung des CO2-Ausstoßes. Bei der Elektro-Mobilität sieht es ähnlich aus: So wurde in einer Studie des schwedischen Umweltministeriums festgestellt, dass die Produktion allein des Akkus für einen Tesla Model S so viel CO2 freisetzt, dass selbst wenn man den zum Laden verwendeten Strom vernachlässigt, es mehr als acht Jahre dauern würde, bis man diese Menge CO2 wieder eingespart hätte; nach dieser Zeitspanne kann man davon ausgehen, dass die Batterie reif für die Verschrottung ist.

Die Elektromobilität reiht sich also nahtlos in den illustren Reigen von „Klimarettungs“-Gimmicks ein, die zwar horrende Kosten und immensen Schaden verursachen, deren Auswirkung auf den CO2-Ausstoß aber praktisch gleich null ist (und das oftmals auch noch in der falschen Richtung). Es führt kein Weg daran vorbei: Die einzige in absehbarer Zukunft verfügbare Technologie, die in der Lage ist, fossile Energie in nennenswertem Umfang zu ersetzen, ist die Kernenergie. Die Alternative ist eine Politik der extremen Energie-„Nachfragevernichtung“, die einen großen Teil der Bevölkerung in nach heutigen Maßstäben dermaßen bittere Armut treiben würde, dass wohl selbst der schlafmützige, obrigkeitshörige deutsche Untertan aufbegehren würde.

Wer keine dieser beiden Optionen haben will, wählt damit automatisch die einzige mögliche Alternative, nämlich den weiteren (und, aufgrund der Abschaltung der Kernkraftwerke, sogar verstärkten) Einsatz fossiler Brennstoffe, egal ob sie in Kraftwerken oder in Automobilen verbraucht werden.

Im Wettstreit zwischen wissenschaftlich-technischer Realität und politisch-ideologischem Dogma hat erstere eine Erfolgsquote von 100 Prozent, und es ist kaum davon auszugehen, dass die E-Mobilität hier eine Ausnahme darstellen wird. Wie lange wird es dauern, bis die Blase platzt? Diese Frage ist für mich auch persönlich direkt relevant: Mein Arbeitgeber, ein Entwickler von elektronischen Steuergeräten für die Automobilindustrie, wurde von einem großen Zulieferer übernommen, vorwiegend um einem neu gegründeten Geschäftsbereich zuzuarbeiten, der die vermeintliche Goldgrube E-Mobilität beackert. Als erstes Projekt wird jetzt an einer Elektroauto-Ladestation gebastelt.

Es stellt sich ein gewisser Déjà-vu-Effekt ein – vor einigen Jahren war ich bei einer Firma beschäftigt, die ein Entwicklungsprojekt für die Solartechnik-Sparte eines großen deutschen Elektrokonzerns unterstützte. Als die Investition in die vermeintliche Zukunftstechnologie sich als Milliardengrab herausstellte und das Projekt (und dann die gesamte Sparte) eingestampft wurde, erwies es sich leider als erforderlich, nach einer neuen Arbeitsstelle Ausschau zu halten. Man sagt zwar, dass sich die Geschichte nie exakt gleich wiederholt, es ist aber wohl vielleicht doch eine gute Idee, die Bewerbungsunterlagen aktuell zu halten.

Dieser Beitrag wurde vom Blog eigentümlich frei übernommen




Mainstream-Journalisten wachen endlich auf, beim größten Betrug aller Zeiten: Subventionierte Windenergie

Original des Aufmacher gefunden: Screenshot des Komikerduos “Cheet & Chong smoke-up the car”

Hier war eine Mammut-Geschichte im Entstehen: Die Bundesregierung hatte 60 Milliarden Dollar an Subventionen gesperrt, die für ein völlig wetterabhängiges Stromerzeugungssystem herausgeworfen werden sollten, welches vor Jahrhunderten aus recht offensichtlichen Gründen aufgegeben wurde. Und doch schien keiner von ihnen das geringste Interesse daran zu haben, die Fakten herauszubekommen.

Es gibt immer noch viele Leichtgewichte, die überhaupt nicht denken, sprechen, geschweige denn schreiben, was man als Kritik an Wind und Sonnenenergie bezeichnen könnte. Jetzt, wo Rendite-Suchende mit Erneuerbaren die massiven black-outs und den Lastabwurf durch wetterbedingte Leistungseinbrüche an Orten wie Australiens Windkraftzentrum in Südaustralien nicht mehr vertuschen können oder einen Blick erhaschen, dass der von „Wind“ angetriebene Staat derzeit die höchsten Strompreise der Welt erleidet, beginnen die Mainstream-Journalisten nicht nur den größten Wirtschafts- und Umweltbetrug aller Zeiten in Frage zu stellen, sondern auch die mangelnde journalistische Integrität und Objektivität unter ihren Kollegen.

Es stimmt, die Ausarbeitung von Peter Hannams im Sydney Morning Herald mutet eher an, wie eine Kreuzung zwischen den Gekritzel eines geistesgestörten religiösen Eiferers und den infantilen Schmierereien eines boshaften Kindes. Journalisten haben jedoch die Verantwortung, die Tatsachen in den Griff zu bekommen und sie weiterzugeben, ohne sie bis zur Unkenntlichkeit zu verstümmeln.

Wie George Orwell es ausdrückt: „Journalismus druckt, was jemand anders nicht drucken will: alles andere ist Public Relations.“

Hier ist eine Beschreibung, die der australische Chris Mitchell gut gemacht hat.

 

Die Klimahysterie übertrifft die Spitze der Blödheit in dieser Hurrikansaison

Chris Mitchell vom 18 September 2017, The Australian

Das ist die Geschichte der Hurrikane, mit der sich die Linken blamierten

Die Medienklima-Hysterie erreichte ihre Spitze der Blödheit in dieser US-Hurrikansaison, indem Phillip Adams von ABC Radio Nationals Late Night Live seinen US-Korrespondenten Bruce Shapiro fragte , ob Floridas Gouverneur Rick Scott, aus religiösen, fundamentalistischen Gründen ein Klimawandel-Leugner sei. Hintergrund waren die Linken und ihre Arroganz, indem sie jeden dickfellig nannten, der nur den leisesten Zweifel an der Notwendigkeit äußerte, alles was an Subventionen verfügbar wäre, gegen den Klimawandel einzusetzen.

Hey, nicht so die linke Schauspielerin Jennifer Lawrence, die sich mit der Gaia-Theorie des britischen Umwelt-Elder-Staatsmannes James Lovelock einfach nur lächerlich machte. Sie ist eine weitere Berühmtheit, die den Rummel über Hurrikan Irma als Beweis für die Rache der Natur gegen Präsident Donald Trump nutzte, weil dieser für die USA das Pariser Klimaabkommen kündigte.

Wie fantastisch, dass James Delingpole von The Spectator am 9. September 2017 sein Interview mit James Lovelock veröffentlichte [leider hinter Bezahlsperre]. Man erfuhr, dass Lovelock die „Natur-schlägt-zurück-Story“ aus seinem 2006 erschienenen Buch The Revenge of Gaia in Bezug auf die Hurrikane zurückgewiesen hat. Der Vater der Umweltbewegung sagt, er hasst Windenergie, er denkt, es sei ein finanzieller Betrug und ist für die bescheidene Ausbeute von Schiefergas. Er favorisiert [inzwischen] sehr die Kernenergieerzeugung und glaubt, dass die Gefahren von Grünen aus Gründen, die mehr mit quasi-religiöser Ideologie als mit Wissenschaft zu tun haben, grotesk übertrieben wurden.

Sogar die New York Times widersetzte sich der Hurrikan-Hysterie und veröffentlichte am 6. September eine Erklärung von Henry Fountain, das darauf hinwies, dass es an dieser US-Hurrikansaison nichts Ungewöhnliches gibt.

Wenn nur die australischen ideologischen Verwandten der NYT bei The Age und dem The Sydney Morning Herald davon Notiz nehmen würden. Fairfax-Umweltredakteur Peter Hannam und die Stammgäste Peter Fitz Simons und Jane Caro waren sich sicher, dass die Ankunft von Hurrikan Irma mit dem Klimawandel zusammenhängt und benutzen die Gaia-Analogie, um die Regierung anzugreifen, weil diese versuchte, „das Licht anzulassen“.

Graham Lloyd, Umweltredakteur, hat am vergangenen Montag in einem langen Beitrag die Fakten festgehalten. Lloyd wies darauf hin, dass sich Irma in einem Teil des Atlantiks mit ungewöhnlich kühler Ozean Oberflächentemperatur von durchschnittlich 26,5 ° C gebildet hatte, etwa zwei Grad weniger als sonst, bei solch einem intensiven Sturm.

Er spießte auch das neueste Bulletin des Klimarats unter der Leitung des Paläontologen und Klimaaktivisten Tim Flannery auf, betitelt: „Fingerabdrücke des Klimawandels mit dem tropischen Sturm Harvey“. Die Leiterin des Klimarats, Amanda McKenzie, hatte behauptet, „der Klimawandel beschleunigt extreme Wetterereignisse“.

Lloyd zitierte die neueste wissenschaftliche Studie der National Oceanic and Atmospheric Administration, dass es verfrüht sei zu vermuten, dass menschliche Aktivitäten bereits eine nachweisbare Auswirkung auf die Aktivität der Hurrikans im Atlantik oder die globale Aktivität des tropischen Wirbelsturms hätten.

Die grünen Extremisten proklamieren lautstark, man soll die Wissenschaft akzeptieren, aber selbst machen sie das nicht wirklich. Dies ist die Art von Fundamentalismus, den Phillip Adams verspottet, die aber normalerweise zu seinen eigenen Argumenten gehört. Er ist von der Überzeugung geprägt, dass der Klimawandel das wichtigste Thema auf der Erde ist und es sollte keine Begrenzung der Menge an CO2-Emissionsminderungen geben, auch wenn es unsere Industrien vertreibt und finanzielles Chaos bei denjenigen anrichtet, die ihre Energierechnungen nicht mehr zahlen können.

Wie Redakteur Simon Benson von The Australian in seinem Bericht in Wochenmitte schrieb, werden hunderte von Kohlekraftwerken auf der ganzen Welt gebaut. Und die USA können ihre CO2-Verpflichtungen trotzdem noch erfüllen. Die USA reduzierten 2015 ihre Emissionen um 145 Millionen Tonnen, den größten jährlichen Rückgang aller Zeiten. Dies kam nicht durch die Nutzung erneuerbarer Energien. Nein, es ist das Gas aus Fracking, das sowohl die Energiepreise als auch die Emissionen senkt.

Es ist das erste Mal, das Gas (mit 33 Prozent) die Kohle (mit 32 Prozent) als den primären Brennstoff für die Stromerzeugung in den USA abgelöst hat. Erneuerbare belaufen sich auf 15 Prozent, aber die Hälfte davon ist Wasserkraft. Auf Wind entfallen 6 Prozent und auf Solar 1 Prozent. Der Rest ist Kernkraft. In 1990 entfielen 60% der Energie in USA auf Kohlekraft.

Die Grünen und die Labor Party Anhänger hier in Australien sagen, die Kohle wäre tot, aber wenn man die Projekte für Energieerzeugung weltweit betrachtet, die geplant oder im Bau sind, so summiert sich das auf 1600 neuer Kohlekraftwerke. Sie sagen auch, Kohle in China ist tot. Es ist wahr, das über 100 neue Kohlekraftwerke verzögert worden sind, aber das Land eröffnet noch immer zwei neue Kohlekraftwerke in der Woche. China schlug Obama auf dem G20 Treffen in Brisbane Jahr 2015 vor, die Spitze der Emissionen im Jahr 2030 zu erreichen. Es ist also wie gewohnt die Kohle, um die es geht.

Indien plant oder baut 370 neue Kohlekraftwerke. In Südostasien sind 400 geplant und 170 im Bau, einschließlich in den fortgeschrittenen Ländern Südkorea und Japan. Deutschland hat dieselben Zuverlässigkeitsprobleme mit erneuerbaren Energien wie Südaustralien und baut mehr Kohlekraftwerke [??]. Erneuerbare Energien machen ein Drittel seiner elektrischen Energie aus und das Ziel sind 40 Prozent, aber die Probleme mit der Zuverlässigkeit kosten zusätzlich. Gibt es da eine Botschaft für die Turnbull-Regierung?

Während führende linke Journalisten in den Fairfax Media, The Guardian und das ABC [öffentlich-rechtliche Sender] sich letzte Woche bestürzt zeigten, dass Malcolm Turnbull, [der Premierminister von Australien] versuchte Druck auf AGL zu machen, den Energieversorger und der Eigentümer der Liddell Kraftwerke im NSW Hunter Valley, damit diese das Kraftwerk länger in Betrieb halten, als bis zur geplanten Stilllegung in 2022 – oder es an jemanden zu verkaufen, der es in Betrieb halten würde. Es gibt jeden Grund zu glauben, dass die Regierung jetzt einem praktikablen Plan nahe kommt, der die Kosten für erneuerbare Energien einschränken könnte und sogar Arbeitsplätze in der Industrie retten, was alles aufgrund der Aktionen der Labour-Regierungen in den Bundesstaaten entstand.

Die jüngste Aktion kommt im Zusammenhang mit der Veröffentlichung von vor zwei Wochen, durch die Chefin von AEMO [Australian Energy Market Operator – Energieversorger], Frau Audrey Zibelman, in dem Australien vor dem Risiko eines ernsthaften Defizits bei back-up Energien warnt, es fehlt Energie aus Gas oder Wasserkraft und theoretisch Batteriestrom für „Dispatch Maßnahmen“, aber Solar und Wind können nicht helfen. Bei der Summe, die South Australien für die 100-Megawatt-Batterie von Elon Musk zahlt, die diesen Staat in einer Krise nur für ein paar Minuten antreiben wird, denke ich, dass keine Regierung das innerhalb eines Jahrzehnts mit einem Blick auf die Strompreise nachahmen wird.

Jetzt kritisieren Journalisten Turnbull für das, was wie ein Rückzug von den im Finkel-Bericht empfohlenen 42-prozentigen Ziels Erneuerbarer-Energien bis zum Jahr 2030 aussieht. Die eindeutigen Beweise für den Schaden, den das jetzige 28-Prozent-Ziel bereits anrichtet und damit den Interessen der Verbraucher entgegenläuft, kommen bei dem grünen Fundamentalisten erst an zweiter Stelle.

Mark Kenny, Redakteur für nationale Angelegenheiten beim Sydney Morning Herald and The Age, hatte am Freitagmorgen sogar den Verdacht, dass Turnbull von dem politischen Wunsch motiviert werden könnte, Bill Shorten, den Führer der Labor Party, auch „Blackout Bill“ und „Geißel der Bergbauarbeiter“ genannt, politisch zu schädigen. Gott bewahre.

Viele Journalisten scheinen zu skandalisieren, dass Finkel die so genannte „saubere Kohle“ in dem Ziel für saubere Energien einschließen könnte. Diese Journalisten sollten die Arbeit der US-Umweltschützerin Amory Lovins lesen, die seit mehr als einem Jahrzehnt den Kohlekraftwerken in den USA gezeigt hat, wie sie die Emissionen durch Nachrüstung sauberer Filter und Produktionsmethoden senken können.

Frau Zibelman von AEMO berichtete in einer Anhörung in Canberra, dass die Antwort auf das Problem der back-up Energien ein separates Auktionssystem für Strom sein könnte, der schnell ein- und ausgeschaltet werden kann. Deutschland geht den gleichen Weg. Verstanden? Wir brauchen mehr Zuverlässigkeit, als Wind und Sonne bieten können.

Zum Schluss noch die Kritik an Sky News und das ABC, die weiterhin den ehemaligen Oppositionsführer John Hewson als Kommentator für das Energieproblem einzuladen, ohne zu erklären, dass er ein bedeutender Investor in Energietechnologien war.

The Australian

 

Gefunden auf stopthesethings vom 23.09.2017

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2017/09/23/mainstream-journalists-finally-wake-up-to-the-greatest-fraud-of-all-time-subsidised-wind-power/