1

Häufig gestellte Fragen 9.1*: Eine Kritik

Im AR 5 des IPCC heißt es unter FAQ 9.1 (Seite 824):

Die Komplexität von Klimamodellen … hat seit dem AR 1 aus dem Jahr 1990 substantiell zugenommen. In dieser Hinsicht sind also gegenwärtige Modelle des Erdsystems deutlich ,besser‘ als die Modelle von damals.

Sie definieren „besser“ explizit als ,komplexer‘. Was die Politiker jedoch wissen müssen ist, ob diese Prophezeiungen präziser und zuverlässiger sind! Das heißt, sind sie überhaupt brauchbar?

Bei FAQ 9.1 heißt es weiter:

Ein wichtiger Gedanke ist, dass die Modellgüte nur evaluiert werden kann relativ zu Beobachtungen aus der Vergangenheit, wobei man die natürliche interne Variabilität berücksichtigen muss.

Dies stimmt nur dann, wenn die Modelle so angepasst werden, dass sie zum Wetter der Vergangenheit passen, besonders hinsichtlich Temperatur und Niederschlag. Allerdings ist dieses Pseudo-Modellverhalten kaum besser als das Anpassen einer Kurve mittels eines Polynoms höherer Ordnung. Was man tun sollte ist, den Verlass auf historische Daten zu minimieren, wobei man eher Grundsätzen folgen sollte als dem, was derzeit gemacht wird, nämlich eine Projektion zu simulieren und dann 5 bis 10 Jahre warten, um abzuschätzen, wie gut die projizierte Vorhersage zu tatsächlichen zukünftigen Temperaturen passt. So wie man es derzeit macht – trotz der Anwendung von Grundsätzen – dürfte es kaum besser sein als die Verwendung eines neuralen ,Black Box‘-Netzwerkes für Vorhersagen wegen der Stützung auf das, was Ingenieure „Toffee-Faktor“ [fudge factors] nennen bei der Anpassung an die Historie.

Weiter bei FAQ 9.1:

Um Vertrauen in die Zukunfts-Projektionen derartiger Modelle zu haben, muss das historische Klima – nebst dessen Variabilität und Änderung – gut simuliert sein.

Offensichtlich ist, dass falls die Modelle das historische Klima nicht gut simulieren man kein Vertrauen in ihre Fähigkeit zu Vorhersagen setzen würde. Allerdings reicht die Anlehnung an die Historie nicht aus, um zu garantieren, dass Projektionen korrekt sind. Polynom-Anpassungen der Daten kann hohe Korrelations-Koeffizienten haben, sind jedoch dafür bekannt, in das Nirwana zu entfleuchen, wenn man über die Datensequenz hinaus extrapoliert. Darum sage ich oben, dass der Wahrheits-Test darin besteht, die Modelle tatsächlich die Zukunft vorhersagen zu lassen. Ein anderes Verfahren, das man anwenden könnte wäre, die Modelle nicht an alle historischen Daten anzupassen, sondern nur an die Daten aus vorindustrieller Zeit oder vor dem Zweiten Weltkrieg. Dann lasse man sie laufen und begutachte, wie gut sie die zweite Hälfte des vorigen Jahrhunderts simulieren.

Eines der Probleme bei der Anpassung an historische Daten ist, dass falls die bestehenden Modelle nicht alle Faktoren enthält, welche das Wetter beeinflussen (und das ist fast mit Sicherheit der Fall), dann wird der Einfluss der fehlenden Parameter ungeeignet durch andere Faktoren approximiert. Das heißt, falls es in der Vergangenheit eine ,Störung beim Forcing‘ unbekannter Natur und Größenordnung gegeben hat und man die Daten entsprechend korrigiert, wäre es erforderlich, die Variablen zu korrigieren, die in dem Modellen enthalten sind. Können wir sicher sein, dass wir alle exogenen Inputs bzgl. Klima ausgemacht haben? Können wir sicher sein, dass alle feedback loops mathematisch korrekt sind?

Unbequemerweise wird in Kasten 9.1 (Seite 750) angemerkt:

Zumindest für ein Modell wurde gezeigt, dass der Anpassungsprozess nicht notwendigerweise einen einzelnen, einheitlichen Satz von Parametern für ein gegebenes Modell ergibt, sondern dass verschiedene Kombinationen von Parametern gleich plausible Modelle ergeben können (Mauritsen et al. 2012)

Diese Modelle sind so komplex, dass es unmöglich ist vorherzusagen, wie eine Unendlichkeit von Parameter-Kombinationen die verschiedenen Outputs beeinflussen könnten.

Die Art der in modernen Daten verfügbaren meteorologischen Details steht für historische Daten nicht zur Verfügung, besonders in der Zeit vor dem 20. Jahrhundert! Folglich würde es eine voreilige Schlussfolgerung sein, dass fehlende Forcing-Informationen auf andere Faktoren übertragen werden, die in den Modellen sind. Klarer beschrieben: wir kennen die Zeitpunkte von fast allen Vulkanausbrüchen in der Vergangenheit. Allerdings kann die Dichte der vulkanischen Asche in der Atmosphäre im besten Falle nur geschätzt werden, während die Dichte von Asche und Aerosolen bei aktuellen Ausbrüchen gemessen werden kann. Historische Eruptionen in dünn bevölkerten Gebieten können auch nur Spekulation sein auf der Grundlage eines plötzlichen Rückgangs der globalen Temperaturen zumindest ein paar Jahre lang. Wir haben lediglich qualitative Schätzungen bzgl. außerordentlicher Ereignisse wie z. B. das Carrington-Ereignis, ein koronaler Massenauswurf im Jahre 1859. Wir können uns nur fragen, was alles eine solche massive Injektion von Energie in die Atmosphäre anrichten kann.

Jüngst wurden Bedenken laut, wie der Ozon-Abbau das Klima beeinflussen könnte. Tatsächlich waren Einige so kühn zu behaupten,, dass das Montreal-Protokoll einen unerwünschten Klimawandel verhindert hat. Wir können nicht sicher sein, dass einige Vulkane wie etwa der Mount Katmai in Alaska keinen signifikanten Effekt auf die Ozonschicht hatten, bevor wir überhaupt von Variationen des Ozons wussten. Dieser Vulkan ist bekannt für seine anomalen Emissionen von Salzsäure und Fluorwasserstoff (siehe Seite 4). Weiteres hierzu findet man hier.

Fortsetzung von FAQ 9.1:

Unvermeidlich machen sich einige Modelle hinsichtlich bestimmter Klima-Variablen besser als andere, aber kein Modell zeichnet sich eindeutig als das ,insgesamt beste Modell‘ aus.

Dies liegt zweifellos daran, dass die Modellierer unterschiedliche Hypothesen hinsichtlich Parametrisierungen zugrunde legen, und die Modelle werden an die Variable ihres Interesses angepasst. Dies zeigt, dass die Anpassung die Grundprinzipien außer Kraft setzt und die Ergebnisse dominiert!

Meine Vermutung wird gestützt durch die nachfolgende Anmerkung in FAQ 9.1:

…Klimamodelle basieren in erheblichem Umfang (Hervorhebung von mir [=dem Autor]) auf verifizierbaren physikalischen Grundsätzen und sind in der Lage, bedeutende Aspekte von externen Forcings in der Vergangenheit zu reproduzieren.

Man würde denken, dass dieses Anpassen eine erhebliche Schwäche ist bei den gegenwärtigen Modellierungs-Bemühungen zusammen mit der Notwendigkeit, Energie-Austauschprozesse zu parametrisieren (Konvektion und Wolken), welche räumlich zu klein sind, um direkt modelliert zu werden. Anpassen ist der ,Elefant im Raum‘, der kaum einmal beachtet wird.

Die Autoren von Kapitel 9 räumen in Box 9.1 (Seite 750) ein:

…die Notwendigkeit der Modellanpassung könnte die Modell-Unsicherheit zunehmen lassen.

Verschlimmert wird die Lage durch die Anmerkung in diesem gleichen Abschnitt (Box 9.1, Seite 749):

Mit sehr wenigen Ausnahmen beschreiben die Modellierer nicht detailliert, wie sie ihre Modelle anpassen. Daher ist eine vollständige Liste von Widersprüchen zu Beobachtungen, an welche ein bestimmtes Modell angepasst wird, allgemein nicht verfügbar.

Und schließlich stellen die Autoren eindeutig in Frage, wie das Anpassen den Zweck der Modellierung beeinflusst (Box 9,1, Seite 750):

Die Erfordernis von Anpassungen wirft die Frage auf, ob Klimamodelle für Klimaprojektionen der Zukunft überhaupt brauchbar sind.

Ich denke, dass es wichtig ist anzumerken, dass sich vergraben im Kapitel 12 des AR 5 (Seite 1040) das folgende Statement findet:

Insgesamt gesehen gibt es derzeit kein allgemein anerkanntes und robustes formales Verfahren, um quantitative Schätzungen der Unsicherheit zu liefern bzgl. zukünftiger Änderungen aller Klimavariablen … „

Dies ist wichtig, weil es impliziert, dass die unten gezeigten quantitativen Korrelationen nominelle Werte sind ohne Verankerung in inhärenter Unsicherheit. Das heißt, falls die Unsicherheiten sehr groß sind, dann sind die Korrelationen selbst mit großen Unsicherheiten behaftet und sollten zurückhaltend aufgenommen werden.

Auch das folgende Zitat sowie die nachfolgende Illustration aus FAQ 9.1 gilt dem Thema Zuverlässigkeit:

Ein Beispiel von Änderungen der Modellgüte mit der Zeit wird in FAQ 9.1 gezeigt und illustriert die stattfindende, wenn auch mäßige Verbesserung (Hervorhebung von mir [=dem Autor]).

Allgemein sollte man eine hohe, nicht lineare Korrelation zwischen Temperatur und Niederschlag erwarten. In Wüsten regnet oder schneit es nicht viel, ebenso wie an den Polen (effektiv Kältewüsten). Warme Gebiete, also z. B. die Tropen, sind gekennzeichnet durch gewaltige Verdunstung aus den Ozeanen und Feuchtigkeitsanreicherung durch die Vegetation. Sie stellen also gewaltige niederschlagbare Mengen von Wasserdampf zur Verfügung. Daher bin ich kaum überrascht, dass die folgenden Graphiken eine höhere Korrelation zwischen Temperatur und deren räumlicher Verteilung zeigen als für Niederschlag und dessen räumlicher Verteilung. Bzgl. Temperatur werden Gebiete gezeigt, in denen die modellierte Temperatur höher ist als die gemessenen Temperaturen, dann muss es aber auch Gebiete geben, in denen es kühler als gemessen ist, um den Anpassungen an das globale Temperaturmittel zu genügen. Daher bin ich nicht vollständig überzeugt von Behauptungen hoher Korrelationen zwischen Temperaturen und der räumlichen Verteilung. Könnte es sein, dass die „Oberflächen-Temperaturen“ auch die Wassertemperatur der Ozeane enthalten, und weil die Ozeane über 70% der Erdoberfläche bedecken und nicht die Temperaturextreme des Festlands aufweisen, und dass daher die Temperaturverteilung stark durch Wassertemperaturen gewichtet sind? Das heißt, würden die Korrelations-Koeffizienten fast genauso hoch sein als wenn man ausschließlich Temperaturen auf dem Festland heranzieht?

Bildinschrift: FAQ 9.1, Abbildung 1: Fähigkeit der Modelle, die jährliche mittlere Temperatur und die Verteilung von Niederschlag zu simulieren, illustriert durch die Ergebnisse von drei jüngeren Phasen der CMIP-Modelle (CMIP2 um das Jahr 2000, CMIP3 aus dem Jahr 2005 und CMIP5, die jetzige Modellgeneration). Die Abbildung zeigt die Korrelation zwischen gemessener und modellierter Temperatur (oben) und des Niederschlags (unten). Größere Werte deuten auf eine bessere Korrespondenz zwischen modellierten und beobachteten räumlichen Verteilungen. Die schwarzen Symbole deuten auf Korrelations-Koeffizienten individueller Modelle, und die großen grünen Symbole zeigen den Median-Wert (d. h. die Hälfte der Modellergebnisse liegt über, die andere Hälfte unter diesem Wert. Die Verbesserung des Modellverhaltens wird deutlich durch die Zunahme der Korrelation bei aufeinanderfolgenden Modell-Generationen.

Man sollte beachten, dass die behaupteten Korrelations-Koeffizienten sowohl für CMIP3 als auch für CMIP5 implizieren, dass lediglich 65% des Niederschlags vorhergesagt werden können durch den Ort oder die räumliche Verteilung. Falls Verteilungen des Niederschlags so schlecht erklärt sind im Vergleich zur mittleren Temperatur, gewinne ich kein Vertrauen, dass regionale Temperaturverteilungen Korrelations-Koeffizienten aufweisen, die so hoch sind wie das globale Mittel.

Der AR 5 des IPCC steht hier.

*Intergovernmental Panel on Climate Change, Fifth Assessment Report: Working Group 1; Climate Change 2013: The Physical Science Basis: Chapter 9 – Evaluation of Climate Models

Link: https://wattsupwiththat.com/2017/09/27/frequently-asked-questions-9-1-a-critique-2/

Übersetzt durch Chris Frey EIKE




Es reicht! Hört auf, Harvey und Irma auszuschlachten!

Irma war tatsächlich ein sehr starker Hurrikan der höchsten Kategorie 5, als er über die Leeward Islands zog. Die Windgeschwindigkeit von 185 mph [ca. fast 300 km/h], ermittelt mit einem Hurrikan-Flugzeug in einer Höhe von 10.000 Fuß [ca. 3000 m], war wirklich eine der höchsten jemals in atlantischen Hurrikanen. Wie aber steht Irma im Vergleich zu anderen starken atlantischen Hurrikanen da? Um diese Frage zu beantworten, müssen wir zunächst die Verfahren betrachten, mittels welcher die Stärke eines Hurrikans bestimmt wird, weil seit Anfang dieses Jahrhunderts ein anderes Verfahren angewendet wird.

Es gibt zwei Möglichkeiten, die Stärke eines Hurrikans zu bestimmen. Eine davon ist, die Windgeschwindigkeit mittels eines Flugzeuges zu messen. Die Air Force fliegt immer in Höhen um 10.000 Fuß, und empirische Beziehungen werden angewendet, um die Windgeschwindigkeit in 10.000 Fuß auf die Windgeschwindigkeit am Boden hochzurechnen. Die andere Methode ist, ein Barometer im Auge abzuwerfen und den Luftdruck zu messen. Da es eine direkte Relation zwischen Luftdruck [genauer: Luftdruckgradient, Anm. d. Übers.] und Windgeschwindigkeit gibt, kann man mit Kenntnis der einen Größe die andere Größe berechnen.

Historisch war der Kerndruck im Zentrum des Hurrikans der dominante Faktor bei der Bestimmung der Stärke eines Hurrikans. Nach Einführung der Saffir/Simpson-Hurrikan-Skala Anfang der siebziger Jahre wurden alle Hurrikane der Vergangenheit mittels ihres Kerndrucks in dieser Skala nach Stärke kategorisiert. Heute hat sich das geändert,und Hurrikane werden ausschließlich nach Windgeschwindigkeit kategorisiert. Darum war es möglich, Hurrikan Irma zum stärksten jemals im Atlantik beobachteten Hurrikan zu erklären mit der vom Flugzeug ermittelten Windgeschwindigkeit von 185 mph. Aber wie steht Irma hinsichtlich des Kerndrucks da?

Für alle, die mit der Größe Luftdruck nicht so vertraut sind: Eine der Standardeinheiten des Luftdrucks sind Millibar (mb). [In Europa ist die Einheit seit Jahren als Hektopascal hpa definiert. Da die Zahlenwerte beider Einheiten identisch sind, verwende ich in dieser Übersetzung im Folgenden die Bezeichnung hpa. Anm. d. Übers.] Der normale Luftdruck in den USA liegt gewöhnlich zwischen 1010 und 1030 hpa. Falls der Luftdruck in den Tropen unter 1000 hpa fällt, bedeutet dies allgemein, dass sich ein Hurrikan der Kategorie 1 entwickelt hat. Der Kerndruck in einem Hurrikan der Kategorie 3 liegt normalerweise um 950 hpa, und ein Hurrikan der Kategorie 5 liegt vor, wenn der Luftdruck unter 920 hPa fällt. Sinkt der Luftdruck gar unter 900 hPa, handelt es sich um einen Super-Hurrikan, der vergleichbar ist mit den stärksten Taifunen im Pazifik.

Wie steht nun Irma in dieser Hinsicht im Vergleich mit anderen starken Hurrikanen in der Vergangenheit da, wenn wir den Kerndruck zur Bestimmung der Stärke heranziehen anstatt die Windgeschwindigkeit? Der niedrigste Kerndruck von Irma betrug 914 hpa. Der tiefste Kerndruck jemals in einem atlantischen Hurrikan war 2005 im Hurrikan Wilma mit 882 hpa aufgetreten, als dieser die nordwestliche Karibik heimsuchte. Der niedrigste Kerndruck eines auf das [US-]Festland übergreifenden Hurrikans betrug 892 hpa, aufgetreten im Hurrikan von 1935, als dieser über die Florida Keys hinweg gezogen war. Es gab 10 Hurrikane mit einem Kerndruck unter 910 hpa, davon 5 sogar unter 900 hpa. In dieser Hinsicht schaffte es Irma nicht einmal in die Top 10 und war damit folglich nicht einmal annähernd der stärkste jemals im Atlantik aufgetretene Hurrikan.

Wenden wir uns jetzt dem Hurrikan Harvey zu. Harvey war als der regenreichste Hurrikan der Historie apostrophiert worden. Allerdings steht die Regenmenge von 50 Inches [ca. 1270 l/m²] nicht in Relation zur globalen Erwärmung. Der Grund für die hohe Regenmenge ist vielmehr, dass sich der Hurrikan drei Tage lang praktisch nicht von der Stelle bewegte, was unglücklicherweise gerade im Südosten von Texas der Fall war.

Die Regenmenge in einem tropischen Wettersystem ist nicht abhängig von der Windgeschwindigkeit, sondern von der Verlagerungsgeschwindigkeit. Bevor es ausgeklügelte numerische Modelle zur Simulation der Regenmenge in einem Wettersystem gab, verwendeten wir eine einfache empirische Gleichung, die gute Ergebnisse lieferte: Man berechne die Zuggeschwindigkeit und teile sie in 100 ein.

Verlagert sich ein tropisches Wettersystem mit 10 mph [ca. 16 km/h], erwarte man 10 Inches [254 l/m²]. Ein System mit einer Verlagerung von 5 mph [ca. 8 km/h] würde demnach 20 Inches [508 l/m²] bringen. Sollt die Verlagerungsgeschwindigkeit lediglich 2 mph betragen, erwarte man 50 Inches [1270 l/m²] Regen. Genau das war bei Harvey der Fall. Der Hurrikan bewegte sich 3 Tage lang mit etwa 2 mph und brachte in großen Gebieten vom südöstlichen Texas und dem südwestlichen Louisiana Regenmengen zwischen 40 und 50 Inches.

Es gibt zahlreiche Beispiele zum Stehen gekommener tropischer Systeme, wobei jedes Mal exzessive Regenmengen auftraten. Beispielsweise verharrte der Tropische Sturm Claudette 2 Tage an Ort und Stelle und brachte über 40 Inches [1016 l/m²] Regen in einem ausgedehnten Gebiet südlich der Innenstadt von Houston. Die 42 Inches [1069 l/m²] in Alvin innerhalb von nur 24 Stunden ist für diesen Zeitraum Rekordhalter in den USA. Ein Jahr zuvor brachte der Tropische Sturm Amelia 48 Inches [1220 l/m²] im zentralen Texas. Im Jahre 1967 erreichte der sich nur langsam bewegende Hurrikan Beulah das südliche Texas und brachte Regenmengen zwischen 30 und 40 Inches [762 bis 1016 l/m²] landeinwärts der Stadt Brownsville.

Falls es im Gebiet östlich der Bahamas ein Messgerät für Regenmengen gegeben hätte, wo der Hurrikan José vier Tage lang verharrte, dann bin ich sicher, dass dort über 60 Inches [über 1500 l/m²] Regen gemessen worden wären.

In den USA gibt es eine lange Historie verheerender Hurrikane. Im Folgenden sind einige der intensiven Hurrikane aufgelistet, zu welchen es zum Ende des 19. Jahrhunderts gekommen war, also lange, bevor es eine CO2-Zunahme gab:

Das aktivste Jahr auf das Festland übertretender Hurrikane war das Jahr 1886, als gleich 7 Hurrikane die Küste erreichten. Vier davon erreichten Texas, und zwei davon waren hoch kategorisiert. Der Hurrikan der Kategorie 4 im August 1886 zerstörte alles, was von der Stadt Indianola noch übrig geblieben war. Diese Stadt war Mitte der 1850-ger Jahre ein blühender Handelshafen an der Südküste der Matagorda Bay, bevor ein Kategorie-4-Hurrikan im Jahre 1875 die Stadt nahezu zerstörte. Man befand sich mitten im Wiederaufbau, als der Hurrikan 1886 zuschlug.

Im Jahre 1893 waren zwei Kategorie-4-Hurrikane aufgetreten. Der eine forderte in Louisiana 1800 Todesopfer auf einer der Küste vorgelagerten Insel. Der zweite forderte weitere 1800 Todesopfer, als eine 16 Fuß [ca. 4,90 m] hohe Flutwelle die Hilton Head Insel vor South Carolina zerstörte.

Der tödlichste Hurrikan in der US-Geschichte ereignete sich im Jahre 1900, als eine vom Sturm aufgeworfene Flutwelle über die Galveston Insel hinweg schwappte und 10.000 Menschen in den Tod riss.*

[*Die Flutwellen in einem Tropischen Wirbelsturm gehen nicht auf die Windgeschwindigkeit selbst zurück. Dazu ist die vom Orkan in einer Richtung überstrichene Meeresfläche zu klein. Ursache ist vielmehr der hydrostatisch durch den tiefen Luftdruck höhere Meeresspiegel im Auge des Sturmes. Anm. d. Übers.]

Der Hurrikan des Jahres 1900 war einer der Kategorie 4.

Schlussfolgernd lässt sich sagen, dass die Hurrikane Harvey und Irma typische starke atlantische Hurrikane waren. Beide entwickelten sich aus aus Afrika auf den Atlantik hinaus ziehende Störungen während des Höhepunktes der Hurrikan-Saison. Die Stärke von Irma, wie sie sich aus dem Kerndruck ergibt, war konsistent mit einer ganzen Reihe anderer Hurrikane in der Vergangenheit. Der starke Regen im Zuge von Harvey war die Folge des zum Stehen gekommenen Sturmes und nicht die Folge einer höheren atmosphärischen Feuchtigkeit in Assoziation mit globaler Erwärmung.

Es gibt nichts an diesen beiden Hurrikanen, was die Dringlichkeit sofortiger Maßnahmen zur Begrenzung der globalen Erwärmung rechtfertigen würde. Es ist traurig, dass jene, die diese Maßnahmen fordern und unterstützen, so brutal und rücksichtslos gegen die zerrissenen Gefühle hunderttausender Menschen in Texas, Louisiana und Florida sind, haben diese doch soeben alptraumhafte Verluste erlitten – und jetzt werden sie für die Hurrikane verantwortlich gemacht, weil sie nicht die Maßnahmen zur Reduktion von CO2 unterstützt haben.

Da wir gerade von CO2 sprechen, es gibt eine intensive Debatte über die Gründe der Erwärmung der Erde. Diese erwärmt sich seit über 150 Jahren, das ist unstrittig. Strittig ist die Ursache. Ist CO2 für das „Wärmste“ verantwortlich, oder sind es andere natürliche Zyklen? Solarexperten in Asien, dem Nahen Osten und Teilen von Europa sehen die Sonne als Ursache. Während der letzten dreieinhalb Jahre haben sie über 400 Studien veröffentlicht, die das CO2 als Ursache verwerfen und stattdessen natürliche Zyklen der Sonne anführen. Falls dies so ist, warum gibt es dann den intensiven Druck, Milliarden über Milliarden Dollar für grüne Energie aufzuwenden? [Von den verheerenden Umweltschäden ganz zu schweigen. Anm. d. Übers.]

Zu was will sie das „Wärmste“ also bringen? Zuerst und am dringlichsten fordern sie, dem Pariser Klima-Abkommen vom Dezember 2015 zu folgen, dem 194 Länder zugestimmt haben. Präsident Trump hat die USA aus diesem Abkommen zurückgezogen, und das „Wärmste“ schäumt vor Wut. Das ausdrückliche Ziel des Abkommens ist es, CO2 zu reduzieren und grüne Energie zu entwickeln.

Eines der Ziele des Abkommens ist die Einrichtung eines Green Climate Fund, dessen Gelder an Entwicklungsländer verteilt werden sollen, um diesen beim Übergang zu grüner Energie zu helfen. Es ist beabsichtigt, bis zum Jahr 2020 100 Milliarden Dollar in diesem Fund zu haben. Woher soll das Geld kommen? Etwa 45 Nationen waren als Geldgeber ausersehen, was bedeutet, dass es rund 150 Empfängernationen gibt, darunter auch China.

Auf dem Pariser Treffen versprachen die Gebernationen 10 Milliarden Dollar, wovon über 80% aus 6 Nationen kommen sollten: England, Deutschland, Frankreich, Schweden, Japan und die USA. Die USA versprachen den größten Betrag mit 3,5 Milliarden Dollar, die anderen 5 Länder jeweils zwischen 1 und 1,5 Milliarden Dollar. Bis heute haben die USA 1 Milliarden Dollar als Anzahlung an die UN überwiesen, die anderen 5 Nationen jeweils rund 0,5 Milliarden Dollar. Die UN hat 156 Mitarbeiter eingestellt, um den Plan zu überwachen. Jährliche Lohnkosten: 29 Millionen Dollar.

Und das ist erst der Anfang. Christiana Figueires, Leiterin der Pariser Konferenz, sagte kürzlich, dass der Plan während der nächsten 3 Jahre über 1,5 Billionen kosten würde, falls jede Nation dem Programm folgt.

Sollte Präsident Trump wirklich seine Entscheidung widerrufen und die USA erneut in das Paris-Abkommen einfügen, würden wir den UN unserem Versprechen folgend augenblicklich 2,5 Milliarden Dollar schulden. Da wäre es höchstwahrscheinlich besser, mit diesem Geld den 150.000 Menschen zu helfen, deren Wohnungen in SE-Texas im Zuge von Harvey weggespült worden sind.

Noch eine letzte Anmerkung. Was ist der wirkliche Grund für das Paris-Abkommen? Eine der aufschlussreichsten Bemerkungen, die ich gesehen habe, stammt von einem führenden UN-Funktionär. Ottmar Edenhofer sagte: „De facto verteilen wir den Wohlstand der Welt völlig neu. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist“. Mit anderen Worten, es handelt sich um ein internationales Programm zur Umverteilung von Wohlstand. Wessen Wohlstand? Unser Wohlstand!

Link: https://wattsupwiththat.com/2017/09/25/enough-is-enough-stop-hyping-harvey-and-irma/

Übersetzt von Chris Frey EIKE




Energiepolitik und Wahlkampf

Jetzt werden sie wieder anfangen, die endlosen Debatten um Themen wie Flüchtlingspolitik, Wohnraum, soziale Probleme, Armut… All diese Themen mögen ja in einem Hochindustrieland und einer sich als fortschrittlich gerierenden Gesellschaft wichtig sein – aber die Grundlage, die ureigene Basis all dessen, was unsere Gesellschaft, unseren relativen Wohlstand und alles ausmacht, was wir als ,schön‘ ansehen – diese Grundlage war mit keinem einzigen Wort in den politischen Debatten zu vernehmen, weder vor noch nach der Wahl.Gemeint ist natürlich Energie und Energiepolitik.

Wenn man sich so umhört im Bekanntenkreis oder wo auch immer – es ist erschreckend, wie wenig Menschen wirklich wissen, was Energie eigentlich ist. Das heißt nicht, dass ich es weiß! Da gibt es Experten zu diesem Thema wie die EIKE-Autoren Fred F. Mueller, Dr. Günter Keil und auch den Vizevorsitzenden des EIKE Michael Limburg. Aber wenn man sich vor Augen führt, dass die Fragen bzgl. Flüchtlingen, bezahlbare Wohnungen usw. vollkommen gegenstandslos sind, wenn es zum Großen Blackout kommt, dann sollte man sich zumindest etwas zu diesem Thema informieren.

Für mich ist es ein Skandal aller bisher im Bundestag vertretenen Parteien und noch mehr der Medien, dass dieses Thema in keinem Forum, bei keiner Gelegenheit auch nur ansatzweise ein Rolle spielt. Der Faden, an dem alles hängt, was unser Land und unsere Gesellschaft ausmacht, wirklich alles, wird immer dünner und droht zu reißen – und niemand an relevanten Stellen spricht es an. Und wenn doch, wie es eine sich endlich in Deutschland wohl etablierende alternative politische Kraft tut, dann wird es in den Medien boykottiert.

Was ist Energiedichte, Erntefaktoren, Redispatch-Maßnahmen, Lastgangverläufe, … über all das kann man sich im Internet informieren. An sich wäre das die Aufgabe der Medien, aber – nichts ist!

Fazit: Welche Bedeutung hat all das Gezerre, Gezänk und Gerede nach der Wahl, welches täglich viele Zeitungsseiten füllt – welche Bedeutung hat das alles, wenn der Blackout kommt?

Es wird höchste Zeit, dass die Energie-Problematik im Bundestag angesprochen wird – und zwar so fachgerecht, wie es in einigen Landtagen schon der Fall war. Und das sehr, sehr schnell! Alles Andere ist dagegen reine Makulatur! Oder nicht?

© Chris Frey, September 2017




Haben Sonnen­wind und Planeten­stellungen Einfluss auf unser Wetter bzw. Klima?

Beobachtungen:

  • Einfluss des Sonnenwindes auf unser Wetter

  • Einfluss der Planetenstellungen auf den Sonnenwind

Voraussage:

  • Abkühlung bis nach 2040 durch 3- und 4-fache Planetenstellungen

Dr. Borchert (12. Nov. 2015 verstorben; ehem. EIKE Mitglied) hat dieses Verhalten in der letzten Erwärmungsdekade (bis 1998) in allen Einzelheiten untersucht und seine Arbeit – Using Satellite Measurements to study the Influence of Sun Activity on Terrestrial Weather – zu der Tagung der „Amerikanischen Meteorologie“ 2010 eingereicht.

Sein dortiger Vortrag über diese Arbeit stieß auf eine breite positive Resonanz und Anerkennung.

Auszug aus „Die Wirkungsweise von Emissionen der Sonnenflecken auf unsere Erde“ (Dr. Borchert, 2013):

Da der Mechanismus der Klimawirkung von CO2 als falsch erkannt worden ist, sollte der Mechanismus der Klimabeeinflussung und auch anderer Störungen auf der Erde durch die Sonnenaktivität genauer bekannt sein. Aus den Messungen solarer Protonen, Elektronen und Röntgensignalen, die von Satelliten der NOAA gewonnen werden, und aus Messergebnissen des weltweiten Neutronenmessnetzes kann ein Weg der Einwirkung von Partikelemissionen der Sonne auf die Erde gezeigt werden.

Die Periodizitäten der Sonnenflecken werden nach gängiger Meinung verursacht durch stochastisch bedingte Magnetströme im Inneren der Sonne. In letzter Zeit wird eine systematische Steuerung dieser Periodizitäten durch die Konstellation der Planeten zur Sonne nicht mehr ausgeschlossen. Der von P. Jose-Havard 1964 berechnete zeitliche Verlauf des Drehimpulses der Sonne, bezogen auf den Schwerpunkt des Sonnensystems in Abhängigkeit von der jeweiligen Stellung der vier großen Gasplaneten Jupiter, Saturn, Neptun und Uranus ist von Jose festgestellt worden mit einem Zyklus der vier großen Planeten von 178,8 Jahren (auch von Landscheidt 2004, ETH, Solheim, Scafetta, Frau Präsidentin Prof. Dr. Richards der Internationalen Astronomischen Union 2015).

Mittels einer Planetensoftware wurde nun von mir dieser 178,8 Zyklus über ca. 2.800 Jahre untersucht. Nach ca. 19,866 Jahren stehen sich Jupiter und Saturn immer wieder in einer Reihe gegenüber. Die Umlaufzeiten schwanken von 6.912 bis 7.492 Tagen, jeweils bezogen darauf, ob die beiden Planeten näher (Erde = kühler) oder ferner (Erde = wärmer) zur Sonne stehen.

Grundsätzlich gibt es zwei aufsteigende und dann einen absteigenden Knoten – siehe Abb. 11 (Graphik oben). Nach 23 solcher Umläufe von ca. 460 Jahren erfolgt eine Umkehrung. Nach ca. 920 Jahren stellt sich der erste Zustand wieder ein. Interessant ist, dass der 59,6 Jahre-Zyklus (3×19,866 Jahre) mit der atlantischen Oszillation deckungsgleich ist.

Neben den 2-fachen Planetenstellungen gibt es auch 3-fache Stellungen sowie alle 178,8 Jahre die große 4-fache Stellung, die nach 9 Umläufen von Jupiter und Saturn immer wieder präzise erscheinen. Grundsätzlich gibt es einen durchgehenden nachweisbaren Zyklus über die 2800 Jahre mit den Planetenstellungen Jupiter + Uranus und Saturn + Neptun. Zusätzlich wurden zwei weitere parallele Zyklen festgestellt, der zweite 4-fache Zyklus ist nachweisbar bis 1140, macht dann eine Pause und ist ab 629 wieder vorhanden. Der dritte 4-fache Zyklus ist nur bis 1268 nachweisbar (Abb. 9-2).

Im Bereich von 800 bis um 1350 n.Chr. waren in der mittelalterlichen Warmzeit nur sehr wenige 3-fache und 4-fache Planetenstellungen zu beobachten – die Parallelste um 1306,61. Ganz anders in der „Kleinen Eiszeit“ von ca. 1620 bis 1710; hier wurden nur geringe oder keine Sonnenflecken auf der Sonne beobachtet und wir hatten zusätzlich in diesem Zeitraum sieben 3- und 4-fache Planetenstellungen, die einen nicht unwesentlichen Einfluss auf den beschriebenen Forbush-Effekt ausübten!

Nach Borchert: Ein Vergleich der meteorologischen Zeitreihen mit dem Verlauf der in Moskau gemessenen Neutronenstrahlung der Sekundärstrahlung ergab einen um etwa 7 Tage verzögerten Rückgang der Bewölkung gegenüber der Forbush-Reduktion.

Nach meinen Untersuchungen/Beobachtungen ist die Zeitverschiebung bzgl. der Abnahme der Bedeckungen abhängig von der Intensität des Sonnenwindes, ob es sich um einen CME, einen Flare oder wie in den letzten Monaten um ein Black Hole handelt. Ich habe schon bei einem CME nur 3 bis 5 Tage an Zeitverzögerung festgestellt, bei Black Hols ergeben sich erheblich größere Zeitverschiebungen!

Abb. 1: Sonnen-Protonen und Abnahme der kosmischen Strahlung nach Borchert.

Abb. 2: Sonnen-Protonen und Abnahme der kosmischen Strahlung nach Borchert, Reduzierung der Bedeckungen und ZUNAHME der Sonnenscheindauer!

Der Forbush-Effekt ist dafür verantwortlich, dass die kosmische Strahlung, wenn sie auf den Sonnenwind trifft, einen reduzierten energetischen Schauer über der Erde erzeugt, der durch den Neutronen-Monitor zB. Moskau – Boulder (USA) messtechnisch erfasst wird.

Abb. 3. Kosmische Strahlung seit 1958 bis 07.2017: (http://cr0.izmiran.ru/mosc/)

1958 – 2010 bis zu 40% Abnahme der kosmischen Strahlung – dadurch Abnahme der Erdwolkenfläche – Zunahme der Erd-Temperatur durch höhere Einstrahlung

Im Jahre 1984,25 hatten wir einen 4-fachen Planetenzyklus von 178,8 Jahren, entsprechend der dritten Planetenstellungen – Jupiter + Neptun – Saturn + Uranus. DAS führte zu einer Zunahme der kosmischen Strahlung von ca. 18%. Über mehrere Jahre musste ich große Schneemengen von meinem Grundstück beseitigen (Kältedauer ca. 3-4Jahre)!

Abb. 4. Kosmische Strahlung bei 4-facher Planetenstellung von 1984

Im Jahre 1996,91 hatten wir einen weiteren 4-fachen Planetenzyklus von 178,8 Jahren entsprechend der ersten Planetenstellung -Jupiter + Neptun – Saturn + Uranus. DAS führte zu einer Zunahme der kosmischen Strahlung von ca. 14%, in der Warmdekade. Die Abkühlung war messtechnisch erkennbar, war aber nicht sehr stark (Kältedauer ca. 3Jahre)!!

Abb. 5. Kosmische Strahlung bei 4-facher Planetenstellung von 1996

Im Jahre 2009,7 wurde ein 3-facher Planetenzyklus entsprechend der Planetenstellung – Jupiter + Saturn + Uranus festgestellt. DAS führte zu einer Zunahme der kosmischen Strahlung von ca. 12%, in der ausklingenden Warmdekade. Diese Abkühlung wurde von mir Anfang 2009 vorhergesagt, mit einer Zeit von ca. 3Jahren. Von 2009 auf 2010 hatten wir mehrere Wochen eine Schneehöhe von ca. 25cm und eine Temperatur von bis zu minus 24 C°. (Kältedauer ca. 3 Jahre)!

Abb. 6. Kosmische Strahlung bei einer 3-fachen Planetenstellung von 2009

Seit 2000 gab es eine Zunahme der kosmischen Strahlung um ca. 19%. Es deckt sich mit der direkt gemessenen kosmischen Strahlung vom 03.2015 bis 06.2017 um ca. 13%!

Abb. 7. Kosmische Strahlung von 2000 bis 05.2017 und die Direktmessung

Abb. 8. Messungen der NASA zeigen, dass sich die kosmischen Strahlen mit einer Zunahme von mehr als 13% seit 2015 verstärken. Warum werden kosmische Strahlen intensiviert? Der Hauptgrund ist die Sonne. Solare Sturmwolken wie koronale Massenauswürfe (CMEs) fegen die kosmischen Strahlen weg, wenn sie an der Erde vorbeifliegen. Während eines Solar-Maximums sind CMEs reichlich vorhanden und kosmische Strahlen werden in Schach gehalten. Nun aber schwingt der Sonnenzyklus auf das Solar-Minimum, so dass kosmische Strahlen zurückkehren können. Ein weiterer Grund könnte die Schwächung des Magnetfeldes der Erde sein, die uns vor der Tiefenstrahlung schützt.

http://www.spaceweather.com/archive.php?view=1&day=20&month=07&year=2017

Zusammenfassung:

Auf Grund der oben festgestellten zusätzlichen Auswirkungen der Sonnenmagnetfelder durch die 3- und 4-fachen Planetenstellungen wird eine Zunahme der kosmischen Strahlung erfolgen und damit verbunden eine Abkühlung auf der Erde. Für die 4-fachen Planetenstellungen um 2024,33 und um 2035,21 (Kältedauer ca. 3-4Jahre) können wir mit einer erheblich GRÖSSEREN Abkühlung als von 1984 rechnen!

Wie schon Herr Dr. Borchert feststellte: Aus den Chroniken von Wikipedia ist klar erkennbar, dass bei einer Abkühlung die Erdwolkenfläche um ca. 4-6% zunimmt. Die Folgen sind Jahre mit erheblich höheren Regenmengen!

Der Abkühlungsprozess wird sich nach 2040 wieder reduzieren, zumal 2060 und 2080 nur mit einer 3-fachen Stellung zu rechnen ist.

Eine weiterführend Graphik in der Grösse von 650mm Breite und 870mm Höhe kann auf Wunsch per Mail zugestellt werden – Datenfile ca. 5MB.

  1. 2-, 3-, und 4-fache Planetenstellung von 0 bis 2100 n. Chr.1. 4-Fach-System 2022 bis 2026; 2024 Max., Opposition zur Erde mit Jupiter, Jupiter 2024 nur 3,986AU.

  2. 4-fach System 2033 bis 2037; 2035 Max., Opposition zur Erde durch Jupiter dann Saturn 2041; Jupiter 2034 nur 3,9AU.

Darstellung der Verschiebung des Sonnen-Drehmomentmittelpunktes bei den 2-, 3-, und 4-fach Planetenstellungen um max. > 1.000.000 km. Herr Borchert hat in seinen Untersuchen auf den stochastischen Zusammenhang der Mehrfach-Planetenstellung und der Reduzierung des Sonnenmagnetfeldes hingewiesen!

  1. Das Gravitationsverhältnis der Sonne zu alle Planeten beträgt ca. 750:1

  2. Das Drehmomentverhältnis aller Planeten zur Sonne beträgt ca. 88:1




Diesel-Verteu­felung: Krieg gegen das eigene Volk: Diesel: Die Lücken­medien im Glashaus (4)

In den bisherigen Teilen dieses Aufsatzes wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten auf im Prinzip unbedeutende Werte zurückgegangen ist. Wichtiger Grund hierfür ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Auch wurde aufgedeckt, wie fragwürdig die Messmethoden sind und welche Tricks und Manipulationen zum Einsatz kommen. Im dritten Teil wurden die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie die offensichtliche Parteilichkeit sowohl der öffentlich-rechtlichen Medien als auch industriefeindlicher Behörden behandelt. Auch der jetzige vierte Teil wird sich mit diesem Aspekt nochmals vertieft beschäftigen müssen. Vorher allerdings müssen noch zwei Mythen angegangen werden, die von den Verfechtern der Heilslehre vom alleinseligmachenden Elektromobil pausenlos und mit ebensoviel Aggressivität wie Unkenntnis der Fakten hinausposaunt werden: Die Märchen vom alleinseligmachenden Öffentlichen Personennahverkehr und von der unendlich verfügbaren (selbstfahrenden) Elektromobilität.

Ist das Auto in der Stadt der Zukunft verzichtbar?

Es gibt vor allem in den großen Städten gutsituierte Schichten im sportlichen Alter, die das Glück haben, bei gutem Aus- oder Einkommen in geringer Entfernung zum Ausbildungs- oder Arbeitsplatz wohnen zu können. Diese oft höher gebildeten und entsprechend sprachgewandten Zeitgenossen machen sich in den Medien sowie in vielen Kommentaren und Blogs mit einer Lautstärke bemerkbar, die weit höher ist als ihr Anteil an der Gesamtbevölkerung. Defizite haben sie dagegen oft mit Blick auf Sachkunde und Verantwortungsbewusstsein. Sie lehnen das Auto ab und verzichten oft demonstrativ darauf, den Führerschein zu machen. Da die Bevölkerung jedoch nicht nur aus Fahrradkurieren mit überentwickeltem Geltungsdrang besteht, sollte man sich bei solchen Fragen eher an Fachleute wenden, welche sich beruflich mit den täglichen Realitäten der Mobilität beschäftigen müssen: Den Stadtplanern und ihrer Detailarbeit, Bild 2.

Bild 2. Ohne detaillierte Planung würde die Verkehrsprobleme in unseren Städten zu völligem Chaos führen (Grafik: [STPL])
Wie sehr sich deren Gedankenwelt von „grünen“ Vorstellungen unterscheidet, zeigt eine Analyse von Dr. Gerd Held [GEHE], die sich auch auf Ergebnisse der Gesamtverkehrsprognose 2025 für die Länder Berlin und Brandenburg [VERK] stützt. Dabei ist festzuhalten, dass man menschliche Aktivitäten räumlich nicht beliebig komprimieren kann. Der teure Raum in Hochhaustürmen ist nur noch für große, finanzstarke Verwaltungseinheiten erschwinglich. Industriebetriebe, kleinere Gewerbe und erst recht Normalverdiener werden verdrängt. Bezahlbar bleiben Wohn- und Gewerberaum deshalb nur bei multizentralen Konzepten. Dementsprechend weiträumig muss auch das Verkehrssystem ausgelegt werden. Doch wenn sich Besiedlung und menschliche Aktivitäten auf eine größere Fläche verteilen, kann man nicht alles mit den Linienkonzepten des ÖPNV abdecken. Vor allem dann nicht, wenn nicht nur Arbeitswege, sondern auch Einkäufe, Dienstleistungen, Ver- und Entsorgung sowie Sport und Freizeit einzubeziehen sind. Beurteilungsgrundlage ist sinnvollerweise dabei die Verkehrsleistung, weil diese auch die Entfernungen berücksichtigt. Kernaussagen der Analyse zeigt die folgende Tabelle:

Trotz steigenden Anteils der Rad- und Fußwege sowie des ÖPNV bleibt das Auto die entscheidende Grundlage der Mobilität. Würde man beispielsweise die Ausweichmöglichkeiten an die Peripherie durch massive Beschränkungen des motorisierten Individualverkehrs (MIV) unterbinden, so käme es auf den bereits jetzt angespannten innerstädtischen Wohnungsmärkten zu untragbaren Zuständen. Das Fahrrad ist kein barrierefreies Verkehrsmittel und stößt mit zunehmenden Entfernungen an „harte“ Grenzen, vor allem wenn es um größere Lasten bzw. um Personen mit Einschränkungen bezüglich Fitness oder Gesundheitszustand geht. Noch realistischer statt der „Verkehrsleistung“ wäre es, wenn man auch die Sachleistung des Transports (mitgeführte Dinge, z.B. bei Großeinkauf) einbeziehen würde. Spätestens, wenn man den Gewerbeverkehr von Handwerk und Lieferdiensten in die Betrachtung mit einbezieht, macht sich diese Dienstleistungsfunktion des Verkehrs deutlich bemerkbar. Die autofreie Stadt ist und bleibt eine Utopie.

Elektromobilität – Utopien ohne Substanz

Als eine Art Allheilmittel für alle Probleme der Mobilität werden derzeit Autos mit elektrischen Antrieben sowie selbstfahrende Fahrzeuge propagiert, die man anfordern und verlassen kann, damit sie sich fahrerlos zum nächsten Kunden begeben und diesen dann zum gewünschten Ziel transportieren können. Beides sind reine Utopien, in die dennoch auf Druck der Politik ungeheure Summen investiert werden. Während der Diesel-Skandal VW wohl so um die 25 Mrd. € gekostet hat, investiert der Konzern jetzt „freiwillig“ weitere 70 Mrd. in die beschleunigte Entwicklung des elektrischen Fahrens. Dieses Geld ist zum Fenster hinausgeworfen. Es gibt:

  1. Zuwenig Lithium auf der Welt. Bergbaulich gewinnbar sind nach aktuellen Schätzungen vermutlich lediglich knapp 40 Mio. Tonnen [GREE]. Bei einem Kfz-Bestand von derzeit um 1,5 Mrd. Stück und einem Lithiumbedarf von ca. 10 kg/ Fahrzeug (einschl. LKW) würde man demnach 1,7 Mal den derzeitigen weltweiten Kfz-Bestand mit Batterien ausrüsten können. Danach wäre Schluss, es gibt derzeit kein praktikables Recycling für Lithium.
  2. Zuwenig Strom in Deutschland. Die Umstellung der gesamten deutschen Fahrzeugflotte auf Batteriebetrieb würde einen zusätzlichen Strombedarf von knapp 340 Terawattstunden (TWh) bedingen. Die gesamte Stromerzeugung lag 2016 bei 648 TWh. Wo soll der Strom herkommen, wenn wir außerdem noch Kohle- und Kernkraftwerke abschalten und die Regierung sich darauf festgelegt hat, bis 2050 den Gesamt-Stromverbrauch von 524 TWh/ Jahr auf 393 TWh/ Jahr [ELMO] zu senken?
  3. Zuwenig Leitungen. Um den gesamten Kfz-Verkehr zu elektrifizieren, muss praktisch das gesamte deutsche Stromnetz erneuert und verstärkt werden, bis herab zum einzelnen Hausanschluss und mitsamt aller Trafostationen und Umspannwerken. Das Netz besteht zurzeit aus ca 35.000 km Höchstspannungsleitungen (Bild 3), deren Umbau bzw. Erweiterung je nach Ausführung zwischen 1,2 und 11,2 Mio €/ km kosten dürfte [CLEA]. Dazu kommen ca. 77.000 km Hochspannungsleitungen (110.000 V), 479.000 km Mittelspannungsleitungen (20.000 V) sowie 1,2 Mio km Niederspannungsnetz bis zu den Haushalten. Die Kosten für die erforderliche Verstärkung der Netze lassen sich kaum abschätzen, könnten jedoch sogar den dreistelligen Milliardenbereich überschreiten. Zahlen müsste die Allgemeinheit.

Bild 3. Das deutsche Höchstspannungsnetz hat eine Länge von ca. 35.000 km. Jeder Kilometer Neubau kostet zwischen 1,2 und 11,2 Mio. €.

Um nicht falsch verstanden zu werden: Ein gewisses Marktsegment für rein elektrische Fahrzeuge gab es schon immer und wird es auch in Zukunft geben. Aber die Vorstellung einer flächendeckenden Umstellung des Verkehrs von Verbrenner auf Strom ist für die absehbare Zukunft weder durchführ- noch bezahlbar. Bei den Ländern, die derzeit mit teils extremen Zielen vorpreschen wie die Niederlande oder Norwegen, könnte man fast den Verdacht haben, dass es hier Kräfte gibt, die auf ein Ende mit Schrecken hinarbeiten, weil es die einzige Möglichkeit zu sein scheint, einem Schrecken ohne Ende zu entgehen.

Und was das viel gerühmte selbstfahrende Auto angeht: Das kann klappen. In Städten ohne menschliche Fahrer, ohne Radfahrer und ohne spielende Kinder wäre es auch heute schon denkbar. Bei 6-10 km/h alles kein Problem. Doch ein fahrerloses Auto, das bei heutigen Verkehrsverhältnissen den Arc de Triomphe umrundet, ohne halb Paris lahmzulegen? Da glaubt man wohl besser an den Weihnachtsmann.

Zurück zum „Faktenfinder“

Hierin knöpfen sich die Autoren nach ihren Ausführungen über die angeblichen Gesundheitsgefahren durch NO2 nochmals die Wissenschaftliche Gesellschaft für Kraftfahrzeug- und Motorentechnik vor. Diese hatte in einem Statement vom Juni 2017 behauptet, dass das NOx-Emissionsproblem technisch gelöst und Diesel-PKW künftig nicht mehr als Problem anzusehen seien. Gemeint war damit die neueste Euronorm (Euro6dtemp) zur Harnstoff-Einspritzung, die für Neuzulassungen ab dem 1.1.2019 gelten wird. Dem widerspricht der von den Verfassern zitierte Sprecher des „Bundesumweltamtes“ (das zwar eigentlich Umweltbundesamt heisst, aber Schwamm drüber) wie folgt: „Lastwagen halten schon jetzt die Grenzwerte ein, weil deren Harnstoff-Einspritzanlagen ausreichend dimensioniert sind. Für Autos, die derzeit auf der Straße sind, gilt das natürlich nicht. Und genau die sind ja für die hohen NOx-Werte verantwortlich und werden noch lange im Land unterwegs sein“. Die Grafik aus seinem eigenen Amt (UBA-Telegramm 1/2016, Bild 4) stützt diese pessimistische Einschätzung allerdings nicht wirklich, dokumentiert sie doch einen kontinuierlichen Rückgang der NO2-Immissionswerte an allen Messstellen, selbst an denen in den so genannten Hot-Spots. Auf den „kleinen“ Versprecher mit NOx statt NO2 wird in einer späteren Folge dieser Reihe noch näher eingegangen.

Bild 4. NO2-Jahresmittelwerte 2005 bis 2015 (Grafik: UBA)

Dann gibt es jedoch noch eine zweite Grafik zum gleichen Sachverhalt und aus dem gleichen Jahr, die etwas anders aussieht, Bild 5.

Bild 5. Darstellung der NO2-Immissionswerte an Messstationen mit gegenüber Bild 4 geänderter Zeitspanne (Grafik: UBA)

Bild 4 und Bild 5 zeigen verblüffend unterschiedliche Verläufe der an verkehrsnahen Messstellen in Städten gemessenen Werte. Beim UBA wird man sich darüber Gedanken machen müssen, wie sich derartige Diskrepanzen auf die Glaubwürdigkeit der Aussagen der Behörde auswirken könnten.

Ungeachtet dessen ist das Interessante an der Aussage des UBA-Sprechers, dass er geschickt eine unbestreitbare Tatsache dazu benutzt, um einen Sachverhalt irreführend darzustellen. Dass es immer Autos geben wird, die nach dem Kauf noch viele Jahre länger als üblich benutzt werden, ist eine Binsenweisheit. Schließlich brummen auch heute noch diverse Oldtimer aus den 30er Jahren über unsere Straßen. Entscheidend für das Abgasgeschehen ist jedoch der ständige Generationswechsel, bei dem vor allem die ältesten Fahrzeuge mit dem schlechtesten Emissionsstandard ausgetauscht werden. Und trotz aller Kritik ist auch beim Diesel EURO-4 besser als EURO-3, EURO-5 besser als EURO-4 und EURO-6 besser als EURO-5. Zur künftigen Entwicklung gibt es eine anschauliche Grafik aus einer Mittelfristprognose des ifeu Institut für Energie- und Umweltforschung Heidelberg GmbH [TREM], Bild 6.

Bild 6. Prognostizierte Entwicklung des PKW-Bestandes nach Emissionsstandards (Grafik: [TREM])
In die gleiche Richtung zielt auch eine Prognose aus den Hintergrundinformationen zur neuesten Version 3.3 des HBEFA-Handbuchs [HBEFA], Bild 7.

Bild 7. Detailliertere Prognose zur Ablösung älterer Dieselfahrzeuge durch Modelle mit den verschiedenen Varianten der EURO-6-Abgasnorm (Grafik: [HBEFA])
Diese neuere Untersuchung aus dem Jahre 2017 geht detaillierter auf die verschiedenen Unterkategorien der EURO-6-Kategorie bei Dieselfahrzeugen ein. Auch nach dieser Prognose ist mit einer vergleichsweise schnellen Ablösung vor allem der Fahrzeuge mit EURO-4 und EURO-5 zu rechnen. Beide Untersuchungen sind sowohl im Umweltministerium als auch im UBA, die zu den Auftraggebern der Studien gehören, bestens bekannt. Dass Fr. Hendricks nebst ihren Untergebenen ungeachtet der ihr bekannten Fakten so lautstark gegen die Autohersteller wettern, ist nicht mehr mit Vorsorgedenken für die Bevölkerung zu erklären. Erklärbar ist dies nur durch die offene Industriefeindlichkeit der Akteure. Einen interessanten Einblick in die dahinter steckenden rot-grünen Netzwerke gibt ein kürzlich in den „Stuttgarter Nachrichten“ erschienener Artikel [MAFI]. Da erfährt man interessante Details wie z.B. die Tatsache, dass ein früherer Chef des Vereins Deutsche Umwelthilfe (das ist der Verein, der aktuell versucht, Deutschlands Autoindustrie kaputt zu klagen) bis heute als Staatssekretär an prominenter Stelle in deutschen Ministerien sein Unwesen treiben darf. Zum gleichen Dunstkreis gehört auch Matthias Machnig, der im Bundesumweltministerium Staatssekretär war, als in Brüssel die Luftreinhaltungsrichtlinie beschlossen wurde, auf die sich die DUH bei ihren Klagen stützt. Interessanterweise ist es auch der gleiche Personenkreis, der bereits die Abwicklung der deutschen Stromkonzerne zugunsten der „Energiewende“ managte. Umso schwerer fällt es daher zu verstehen, was denn die Betriebsräte der Autobranche dazu treibt, mit einer solchen Organisation zu paktieren. Was man dort mit der Automobilbranche vorhat, kann sich doch jeder an fünf Fingern abzählen. Im Unterschied zu den Mitarbeitern bei Daimler, Bosch oder Audi muss sich niemand von diesen hohen Herrschaften Sorgen wegen Arbeitsplatz oder Rente machen. Diesen Leuten geht es um Ideologie – und ganz nebenher hat man ja auch nichts dagegen, wenn sich dadurch die Taschen füllen. Seltsamerweise scheinen derartige Recherchen nicht zum Aufgabengebiet der öffentlich gefütterten deutschen Sendeanstalten zu gehören. Das müssen die unterbezahlten Redakteure von lokalen Zeitungen ohne jegliche Unterstützung oder Anerkennung aus eigenem Antrieb erledigen.

Fakten und „Faktenfinder“

Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichten. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie die Bundesbehörden sowie die etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Medien, Journalisten oder Bloggern werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Es wird danach weitergehen, und zwar alternativlos.

Fred F. Mueller

Demnächst folgt Teil 5

Quellen

[CLEA] https://www.cleanenergy-project.de/stromtrassen-erdkabel-kosten-stromkunden-milliarden/

[ELMO] https://eike.institute/?s=Das+deutsche+Energiewende-Wunder%3A+Elektromobilit%C3%A4t+ganz+ohne+Strom

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html

[GEHE] http://wordpress.gerdheld.de/?p=1667

[GREE] https://www.greentechmedia.com/articles/read/Is-There-Enough-Lithium-to-Maintain-the-Growth-of-the-Lithium-Ion-Battery-M

[HBEFA] HBEFA Version 3.3 Background Documentation Berne, 25. April 2017

[MAFI] http://www.stuttgarter-nachrichten.de/inhalt.umwelthilfe-in-ministerien-das-netzwerk-der-diesel-gegner.ce6d4b7e-2a2a-4379-87f9-70b5feeb5845.html

[STPL] http://fbinter.stadt-berlin.de/fb/index.jsp?loginkey=showMap&mapId=verkehr_strnetz@senstadt

[TREM] Aktualisierung „Daten- und Rechenmodell: Energieverbrauch und Schadstoff-Emissionen des motorisierten Verkehrs in Deutschland 1960-2030“ (TREMOD, Version 5.3) für die Emissionsberichtserstattung 2013 (Berichtsperiode 1990-2011) ifeu Institut für Energie- und Umweltforschung Heidelberg GmbH




Deutschland wird seine Ziele bzgl. globaler Erwärmung wohl nicht erreichen…

Die deutsche Kanzlerin Angela Merkel steht am Sonntag vor ihrer Wiederwahl, aber der unbequeme Report der Gruppe Agora Energiewende zu den Zielen ihrer Regierung bzgl. globaler Erwärmung dürfte ihr trotz ihres Sieges ganz und gar nicht gefallen.

Aber man erwarte nicht, dass Merkel zurücksteckt. Tatsächlich sagte sie vor ein paar Tagen, dass ihre Regierung „Wege finden werde, um das Klimaziel 2020 zu erreichen“, worunter auch die fortgesetzte Schließung von Kohlekraftwerken fällt.

„Ich bezweifle, dass sich in Deutschland kurzfristig sehr viel ändern wird“, sagte Benny Peiser, Direktor der in UK ansässigen GWPF.

Trotz der Kosten „steht die große Mehrheit der Deutschen nach wie vor hinter der Energiewende“, sagte Peiser mit Verweis auf Deutschlands Transitions-Pläne.

Die „Energiewende“ ist nur ein Teil des deutschen Planes, seine Wirtschaft zu dekarbonisieren. Mittels der Energiewende hofft Deutschland, wegzukommen von fossilen Treibstoffen, vor allem Kohle, hin zu Solar- und Windenergie.

Agora Energiewende zufolge wird das Verfehlen der Emissionsziele „nicht nur knapp, sondern ein grandioses Scheitern sein“. 40% des in Deutschland im Jahre 2016 verbrauchten Stromes wurde mit Kohle erzeugt, wogegen Wind und Solar verblassen.

„Das Grüne-Energie-Fiasko ist jedoch in keiner Weise Wahlkampfthema – nicht zuletzt, weil es einen All-Parteien-Konsens gibt hinsichtlich von etwas, das sich als die katastrophalste Entscheidung von Angela Merkel herausstellen dürfte“, sagte Peiser. [Da hat er wohl noch nichts von der AfD gehört. Wie nannte es Herr Gauland so treffend: die „Konsensparteien“. Anm. d. Übers.]

Deutschland begann im Jahre 2011 mit der Subvention grüner Energiequellen nach der Havarie des Kernkraftwerkes in Fukushima. Merkel startete eine aggressive Verschiebung hin zu Solar- und Windenergie, um die Kernkraftwerke des Landes zu ersetzen.

Aber das kommt die Deutschen teuer zu stehen.

Bloomberg zufolge hat Deutschland während der letzten Jahrzehnte 780 Milliarden Dollar ausgegeben, und doch reicht das immer noch nicht aus, um das Land seinem nationalen Ziel nahezubringen, die CO2-Emissionen bis zum Jahr 2020 um 40% zu reduzieren. „Wir erwarten, dass die Kosten der Energiewende ab Anfang 2020 sinken werden – erneuerbare Energie durch neu errichtete Wind- und Solar sind jetzt die billigste Energiequelle in Deutschland“, sagte Christoph Podewils, Direktor bei Agora [wo hat er denn das her?! Anm. d. Übers.]. „Natürlich gibt es noch viele Unwägbarkeiten – Marktdesign, Vorschriften, Netzausbau und Erweiterung, Akzeptanz und Dekarbonisierung von Wärme und Transport – aber die Kosten spielen keine Rolle mehr“.

Allerdings fühlt der durchschnittliche Deutsche den Schmerz. Die Stromkosten sind dreimal so hoch wie in den USA, hauptsächlich wegen gestiegener Steuern auf Energie, um die Subventionen für grüne Energie stemmen zu können. Wärme ist so teuer geworden, dass sie „die zweite Miete“ genannt wird.

Die Industrie in Deutschland andererseits ist von den gesetzlich vorgeschriebenen Abgaben ausgenommen aus Angst, dass sie anderenfalls nicht mehr wettbewerbsfähig sind. Das bedeutet noch höhere Kosten für Bürger und den Mittelstand.

Deutschlands Emissionen liegen derzeit um 27% unter dem Niveau des Jahres 1990, was führend ist im Vergleich mit anderen europäischen Ländern, aber immer noch weit hinter dem zurückbleibt, was zur Erreichung des Zieles erforderlich ist.

Emissionen sind gesunken, während Kohlekraftwerke aufblühen. Kohle, besonders Braunkohle, ist eine billige Energiequelle in Deutschland, welches grüne Energiequellen subventioniert hat, damit diese wettbewerbsfähig bleiben. Kohle ist außerdem eine viel zuverlässigere Energiequelle, ist sie doch nicht von Wind und Sonne abhängig.

„Deutschlands CO2-Emissionen im Stromsektor sind seit 1995 nicht gesunken“, sagte Peiser. „Das Land wird fast mit Sicherheit seine Klimaziele bis 2020 weit verfehlen. Alles, was man mit den Erneuerbaren erreicht hat ist, die Null-Kohlenstoff-Kernenergie und die Niedrig-Kohlenstoff-Gasenergie aus dem Markt zu drängen, während die Erzeugung von Energie mittels Kohle zunehmend wettbewerbsfähig ist und aufblüht“.

Link: https://wattsupwiththat.com/2017/09/23/germany-probably-wont-meet-its-global-warming-goal-despite-shelling-out-800-billion-for-green-energy/

Übersetzt von Chris Frey EIKE




Globale Erwärmung: Wer sind jetzt die Leugner?

Eine neue, im Journal Nature Geoscience veröffentlichte Studie gibt vor, Maßnahmen der globalen Regierungen zur Reduktion des CO2-Ausstoßes zu stützen, um das Potential für globale Erwärmung während der nächsten 100 Jahre oder so abzumildern. Aber was die Studie in Wirklichkeit tut ist, praktisch jedes aktuelle Argument für radikale Maßnahmen gegen die Erwärmung zu untergraben.

Warum? In der Studie wird eingeräumt, dass 12 führende Universitäten und Modelle der Regierung, auf welche sich die Prophezeiungen der Klimaerwärmung stützen, fehlerhaft sind.

„Es gab einfach nicht die beschleunigte Erwärmung nach dem Jahr 2000, die in den Modellen zu sehen war“, sagt Myles Allen, Professor für Geowissenschaften bei Oxford und einer der Autoren der Studie. „Aus den Beobachtungen geht das einfach nicht hervor“.

Und natürlich hat er recht. Wie wir hier schon oft geschrieben haben, scheint der so gefürchtete Trend der „globalen Erwärmung“ irgendwann um das Jahr 1998 zum Stehen gekommen zu sein. Wir wissen, dass das so ist, weil die Temperaturmessungen via Satelliten zeigen, dass es seitdem praktisch keine Änderung mehr gegeben hat. Und Satellitenmessungen sind die genauesten Messungen der gesamten Atmosphäre und nicht nur aus Teilen davon.

Den UN-Modellen zufolge hätte die Temperatur um das Jahr 1995 stark zu steigen beginnen sollen. Bis zu diesem Jahr sollten wir demnach einen Temperaturanstieg von fast 1°C erreicht haben, was in geologischen Zeiträumen gedacht ein extrem kurzer Zeitraum wäre. Es waren jene Modelle, aufgrund derer der Welt das Narrativ übergestülpt wurde, dass sich unsere globalen ökonomischen Prioritäten schleunigst ändern müssen.

Die Wirklichkeit: Praktisch keine Änderung der Temperatur. Schlicht und ergreifend: die Modelle sind falsch!

Und doch fahren die Befürworter des Dogmas der globalen Erwärmung ungebremst damit fort, die Karrieren wissenschaftlich Abtrünniger zu ruinieren und Beleidigungen zu verbreiten wie etwa die Skeptiker als „Leugner“ zu bezeichnen – womit all jene, die mit der Wissenschaft der globalen Erwärmung nicht übereinstimmen, mit „Leugnern“ des Holocausts gleichgestellt werden sollen – während sie selbst nur allzu offensichtliche Fakten über „Klimawandel“ leugnen.

Wie wir schon im Mai geschrieben hatten, hatte der Sunday Telegraph in UK berichtet, dass die Temperaturen Anfang dieses Jahres stark zurückgegangen waren, nachdem zuvor 2016 das „heißeste Jahr jemals“ aufgetreten war. Wie kann das sein? 2016 war ein El Nino-Jahr, die immer besonders warm ausfallen.

„Während der letzten Monate sind die globalen Temperaturen um über 0,6°C gefallen: genau wie es vor 17 Jahren nach einem ähnlich starken El Nino der Fall war“. Nicht nur das, denn trotz der doom-and-gloom-Prophezeiungen durch bezahlte „Wissenschafts“-Prognostiker ist das Eis sowohl in der Arktis als auch in Grönland in diesem Jahr gewachsen [teilweise rekordverdächtig, wie man hier erkennen kann {deutschsprachig!}. Anm. d. Übers.].

Die jüngsten Revisionen von Klimadaten gingen allesamt nur in eine Richtung: Ältere Daten wurden zu kühleren Temperaturen hinab korrigiert, während Temperaturen aus jüngerer Zeit nach oben korrigiert worden sind. In einer ordentlichen Statistik würde Rauschen nicht durchweg nur in eine Richtung zeigen.

Aus all dem folgt: es sieht verdächtig danach aus, als ob Wissenschafts-Statistiker, welche große, fette Schecks von Regierungen erhalten, jedes nur denkbare Interesse daran haben, den Gedanken einer unvermeidlichen und katastrophalen Erwärmung weiter zu verbreiten, oder, wenn man so will, Geschäftsbücher zu fälschen.

Link: https://www.thegwpf.com/global-warming-who-are-the-deniers-now/

Übersetzt von Chris Frey EIKE




Ganz(?) München steht Kopf, denn die Stadt verfehlt ihre Ziele beim Kampf gegen den Klimawandel

Die Umwelt-Akademie e.V. und Netzwerk Klimaherbst e.V., Mittwoch, 27.09.2017, 19:00h: Die umweltpolitischen Sprecher der Parteien im Münchner Stadtrat: Sebastian Schall (Anmerkung: Studium Druck und Medientechnik), CSU Jens Röver, (Anmerkung: Dipl.-Politikwissenschaftler), SPD Sabine Krieger (Anmerkung: Lehramt an Gymmasien Sport und Sozialkunde, Studium Geografie), GRÜNE debattieren, wie die Stadt München ihre sich selbst gesteckten Klimaschutzziele erreichen will.

Anlass der Aktionen ist die schonungslos aufgedeckte Gefahr, die Stadt München könnte ihre CO2-Reduktionsziele nicht erreichen und damit Mitschuld am sich verschlimmernden Klima tragen. Jeder wird verstehen, dass Stadträte, welche aufgrund der Studie nun von ihrer möglichen Zukunftsschuld wissen, Entlastung brauchen. Und wie diese nur aussehen kann, wurde bereits verkündet.
[2] … Das Klimaziel müsse „in allen Bereichen zur Chefsache erklärt werden“, sagte Timpe bei der Vorstellung des Münchner Gutachtens am Donnerstagabend. Ob Oberbürgermeister, Firmenchefs, Bauunternehmer oder die Münchner Bürger – alle müssten aktiv in die Problematik einbezogen werden …

Der Anspruch

Stolz, wie es alle Stadtoberen sind (wenn die Bürger es bezahlen dürfen), will sich die bayerische Landeshauptstadt global positionieren. Und das nicht nur mit dem Oktoberfest, sondern mit wirklichen, höheren Werten:
[2] …angesichts des Anspruchs der Landeshauptstadt München, zu den Vorreitern beim Klimaschutz unter deutschen und internationalen Kommunen und Metropolen zu gehören …
Das ist verständlich und auch erforderlich, denn der Konkurrenzdruck ist enorm:

[2] … Ein vergleichbares Ziel haben sich in Deutschland zum Beispiel schon die 41 Kommunen gesetzt, die als sogenannte Masterplankommunen „100 Prozent Klimaschutz“ von der Bundesregierung gefördert werden …
Beispielhaft wurden die Stadtwerke München mit einem erklecklichen Budget ausgestattet, um dem CO2-Neutralitätsanspruch näher zu kommen:

WIKIPEDIA: Stadtwerke München
Die Ausbauoffensive Erneuerbare Energien ist mit einem Budget von rund neun Milliarden Euro ausgestattet worden.
München kann sich das allerdings problemlos aus der Portokasse leisten, denn ihr Schuldenstand ist im bundesweiten Vergleich zu vernachlässigen. Alleine bis zum „normalen Mittelwert“ ist unglaubliche „Schuldenluft“ nach oben frei:

SZ, 4. Januar 2017: Haushalt Theoretisch hat jeder Münchner knapp 500 Euro Schulden
Die Stadt verzeichnet einen neuen Rekord bei den Gewerbesteuern – und gibt trotzdem mehr Geld aus, als sie einnimmt
.

Im Vergleich: Die Summe der 103 deutschen kreisfreien Städte ist (im Mittel) mit 5.316 Euro je Einwohner verschuldet, Berlin hatte im Jahr 2014 einen Schuldenstand von 17.371 EUR / Einwohner [7].

Problemerkennung und Weg zur Lösungsfindung

Wenn in kommunalen Verwaltungen Probleme erkennbar werden, sind diese oft plötzlich hilflos. Warum sollte das beim Klimamanagement anders sein. Die 11 Klimaschutzmanager*innen der Stadt München sind mit Projektarbeiten voll ausgelastet und die Umweltreferentin ausgebildete Juristin. Wer wäre da noch übrig gewesen, das schon länger bekannte Problem zu analysieren?

Bild 1 Stadt München, Klimaschutzprojekt der Klimaschutzmanager*innen [8]. Bildquelle: Screenshot aus der Broschüre
Zum Glück gibt es jedoch immer „Helferlein“, welche so etwas gegen einen Obolus lösen, zumindest viele Wege dahin weisen. Genau so machte es die Stadt und befragte ein ausgewiesen Klimawandel-affin eingestelltes Institut.

Die Studie

Wie angedeutet: Wer bei einem Öko-Institut e.V. eine Studie beauftragt, wird sicher nicht erwartet haben, eine neutrale Analyse über Sinn und Unsinn seiner Klimaschutzmaßahmen zu erhalten. Entsprechend ist das Ergebnis der Studie und sie geht mit der Stadt auch hart ins Gericht.
Öko-Institut e.V., Juli 2017: [1] Klimaschutzziel und –strategie München 2050 Endbericht
[2] … München dürfte theoretisch von Juni 2019 an überhaupt keine Emissionen mehr ausstoßen, wenn es bis dahin einen gleichbleibenden Energiebedarf gibt.
Ganz so schlimm wurde es dann doch nicht. Etwas kompromissfähig muss man auch beim Verhindern des Klimauntergangs sein:

[6] … Die Gutachter raten der Stadt, die Anstrengungen zu verschärfen, sodass im Jahr 2030 nur noch drei Tonnen CO2 pro Person in die Atmosphäre geblasen werden (2013 waren es noch 11,8 Tonnen) und 2050 nur noch drei Tonnen pro Person,
allerdings versehen mit dem Hinweis, welche Konsequenzen dies hat:

Studie: [1] … Selbst das ambitionierte Ziel von 0,3 t Treibhausgas-Emissionen pro Kopf und Jahr ist zusammen mit dem in Tabelle 6-1 vorgeschlagenen zeitlichen Verlauf nicht kompatibel mit dem 1,5°-Ziel der internationalen Klimapolitik (vgl. Kapitel 6.2). Zur Erreichung des 1,5°-Zieles müsste die Reduktion der Emissionen sehr viel schneller erfolgen.

Stadt München: Ermittlung des Emissionsbudgets

Studie: [1] … Für die folgende Betrachtung wurde der Ansatz gewählt, dass das Emissonsbudget für die LH München entsprechend der Münchner Bevölkerung festgelegt wird. D.h., der Anteil der LH München am Gesamtbudget entspricht dem Anteil der Müncher Bevölkerung an der Weltbevölkerung im Jahr 2014. Da die Weltbevölkerung und die Münchner Bevölkerung nach aktuellen Schätzungen in einem ähnlichen Maße ansteigen, ist die Verwendung der Bevölkerungszahl aus dem Jahr 2014 ausreichend. Weitere Faktoren, wie zum Beipiel der größere Wohlstand in den Industriestaaten (und damit auch in München) gegenüber den Schwellen- und Entwicklungsländern, werden in diesem Ansatz nicht berücksichtigt.

Bild 2 Budgetszenarien München für das 1,5 Grad-Ziel [1]

Stadt München: Klimanutzen und CO2-Vermeidungskosten

Leider beinhaltet die Studie keine globalen Kostenaussagen oder Gesamt-Zusammenfassungen. Es wird deshalb von den öfters als Mittelwert gelisteten 20 EUR / t CO2 ausgegangen.
Damit wurde vom Autor ganz grob abgeschätzt, welchem „Klimanutzen“ welche Kosten gegenüberstehen. Berücksichtig wurde mit dem Faktor 0,75 die endliche Verweildauer des CO2 in der Atmosphäre von ca. 100 Jahren. Gerechnet wurde mit dem (noch) vom IPCC angegebenen Forcing von +3 Grad / CO2-Verdopplung, wie auch mit dem inzwischen als realistischer angesehenen Forcing von maximal +1 Grad / CO2-Verdopplung.

Bild 3 Anhand der Werte [1] Tabelle 6-3 abgeschätzte Klimawirkung und CO2-Vermeidungskosten der Szenarien (vom Autor erstellt)

Stadträte von München: Diesen Absatz bitte lesen

Damit ist dieser Artikel beim Kernpunkt angekommen. Die Stadträte von München sollten sich gut überlegen, ob man mit diesem vielen Geld auf der Welt nicht wesentlich mehr Nutzen erzielen kann, als über die vorgesehene, nutzloseste Art die Temperatur verringern zu wollen, wie es die CO2-Vermeidung darstellt. Nur, weil es andere Städte ebenfalls vormachen, wird es nicht sinnvoller:
EIKE 25.04.2017: [1] Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr
Auch den Bewohner von München bringt es überhaupt nichts, außer, dass ein Teil der städtischen Ausgaben mit CO2-Weihwasser bespritzt ist und dem Bau von Ökokathedralen dient.

München erwärmt sich gegenüber dem Umland um bis zu 10 °C. Da ist ein „Temperatur-Reduzierungsversuch“ durch CO2-Vermeidung erkennbar das Sinnloseste, was sich selbst klimahysterische Träumer überhaupt vorstellen können. Scheinbar träumen diese aber nicht.

Nur nebenbei sei noch erwähnt, dass CO2 ein lebensnotwendiger Pflanzendünger ist und der Planet sich aktuell seit 300 Mio. Jahren wieder am CO2-Minimum der letzten Milliarden Jahre befindet, alle Grünpflanzen dieser Erde somit buchstäblich „am Hungertuch“ nagen und nach mehr CO2 lechzen. Die Grünpflanzen haben beim IPCC jedoch keine Stimme.

Exkurs: Die Ableitung des globalen „1,5°-Ziels“ für München

Studie: [1] Die Weltgemeinschaft hat sich im November 2015 auf dem Weltklimagipfel in Paris darauf geeinigt, die Erwärmung der Erdatmosphäre auf einen Wert deutlich unterhalb von 2 Grad zu begrenzen. Die Begrenzung der Erderwärmung um 1,5 Grad gegenüber dem vorindustriellen Wert ist als Maximalziel im Beschluss enthalten.
Zur Begrenzung der Erderwärmung ist nach wissenschaftlichen Erkenntnissen des Weltklimarats (www.wri.org/ipcc) eine Begrenzung der CO2-Menge in der Atmosphäre erforderlich. Je geringer die angestrebte Erderwärmung, desto geringer ist die zulässige CO2-Konzentration in der Atmosphäre und demnach die Menge an CO2, die insgesamt in die Atmosphäre emittiert werden darf.
Die mögliche absolute Menge, die noch emittiert werden kann, das sogenannte Emissionsbudget, wurde vom International Panel of Climate Change (IPCC) in mehreren Modellierungsläufen für verschiedene Klimaziele berechnet. Demnach ist es für den weltweiten Klimaschutz nicht nur wichtig, bis zu einem Zieljahr 2050 ein bestimmtes relatives Minderungsziel gegenüber einem Ausgangsjahr zu erreichen. Vielmehr ist letztlich entscheidender, welche kumulierten Emissionen ab heute bis zum Jahr 2050 insgesamt erzeugt werden.
In Abbildung 6-1 ist das verbleibende CO2-Emissionsbudget für die Klimaziele „Begrenzung der Erderwärmung auf maximal 2 Grad“ (links) und „Begrenzung der Erderwärmung auf maximal 1,5 Grad“ (rechts) gegenübergestellt. Demnach beträgt das insgesamt verbleibende CO2-Budget, wenn die Erderwärmung mit 66 %iger Wahrscheinlichkeit auf 2 Grad begrenzt werden soll, ab dem Jahr 2015 noch 850 Gt CO2. Bei einer Begrenzung mit 66 %iger Wahrscheinlichkeit auf 1,5 Grad sind es nur noch 240 Gt CO2, die ab 2015 von der Weltgemeinschaft emittiert werden können.

Bild 4 Budgetszenarien Welt bis zum Jahr 2050 [1]
Studie: [1] Über eine Methode zur Verteilung des verbleibenden Budgets innerhalb der Staatengemeinschaft gibt es noch keine Festlegungen. In der Wissenschaft werden verschiedene Ansätze diskutiert.
Denkbar sind zum Beispiel Verteilungsansätze, die zur Berechnung nationaler Emissionsbudgets von einer gleichen Menge kumulierter Emissionen pro Kopf über einen bestimmten Zeitraum ausgehen. Weitere Ansätze gehen davon aus, dass Staaten, die bereits stärker zur Belastung der Atmosphäre beigetragen haben, auch stärker zur Eindämmung der Emissonen beitragen müssen (Verursacherprinzip). Die Verteilung der Minderungsverpflichtungen entsprechend dem Wohlstand der verschiedenen Länder wird bei Anwendung eines „Leistungsfähigkeitsprinzips“ angestrebt. Für weitere Ausführungen zu weiteren Optionen für die Verteilung des Emissionsbudgets, deren unterschiedliche Ausgestaltung sowie Vor- und Nachteile vergleiche zum Beispiel Marina Cazorla and Michael Toman (2000) und Kleber (2011).

Anhang: Wie (un-)genau kennt man das globale CO2-Budget?

In der Studie ist das CO2-Budget gelistet und so getan, als wäre dieses diskussionslos. Wie alles beim AGW-Klimawandel ist es aber nicht so. Das vom IPCC angegebene Budget basiert lediglich auf Vermutungen und den üblichen Computer-Simulationen.
Folgerichtig wird auch von Fachleuten darüber immer noch heiß diskutiert und man ist meilenweit von einem Konsens entfernt. Auszüge zu solchen Diskussionen anbei:

kaltesonne, Uli Weber, 29. April 2017 (sehr stark gekürzt): [9] Prozentrechnung müsste man können: Das en(t)liche CO2-Budget
Auf dem Internetblog „Klimalounge“ war am 11. April 2017 ein Artikel mit dem Titel „Können wir die globale Erwärmung rechtzeitig stoppen?“ erschienen. Mit der Aussage, ein befürchteter Temperaturanstieg von 1,5 bis 2 Grad erlaube nur noch ein globales CO2-Budget von 150 bis 1050 Gigatonnen (Gt), wird dann über Ausstiegszenarien aus den kohlenstoff-basierten fossilen Energieträgern schwadroniert. Dort wird behauptet, das Temperaturniveau, auf dem die globale Erwärmung später zum Halten käme, wäre in guter Näherung proportional zu den kumulativen CO2-Emissionen und um die globale Erwärmung zu stoppen, müssten noch vor 2050 globale Nullemissionen für CO2 erreicht werden.
… Bis zum Jahre 2015 hatte der Mensch aus der Nutzung fossiler Energieträger etwa 1400 Gt CO
2 zusätzlich in die Atmosphäre eingebracht (Quelle) und damit den CO2-Gehalt der Atmosphäre auf 400 ppm erhöht. Hier die IPCC-Abbildung aus dem Klimalounge-Artikel vom 11. April 2017:

Bild 5 [9] CO2-Budgetgrafik aus dem IPCC Synthesebericht (2014)
… Die Aussagen über das verbleibende globale CO2-Budget basieren offenbar auf dem Blasenwert aus der obigen IPCC-Grafik mit (480-530 ppm = 3.000 Gt CO2 = 1,75-2,0 dT °C).
… Wir können aus dem IPCC-Blasenwert mit (480-530 ppm = 3.000 Gt CO
2 = 1,75-2,0 DT °C) einmal ganz vorsichtig eine mittlere CO2-Konzentration von 510 ppm für einen maximalen anthropogenen Temperaturanstieg unter 2 Grad entnehmen. Diese 510 ppm entsprechen dann knapp 6.000 Gt CO2. Abzüglich der natürlichen atmosphärischen CO2-Menge ergibt sich daraus also ein ursprüngliches globales Emissionsbudget von 2.800 Gt CO2 für eine Temperaturerhöhung unter 2 Grad, das sogar noch um 200 GT CO2 kleiner ist, als im IPCC-Bubble angegeben wird. Von diesem ursprünglich verfügbaren globalen CO2-Budget von 2.800 Gt CO2 wären bereits 1.400 Gt CO2 „verbraucht“. Dieser Wert stimmt übrigens auch recht gut mit den Angaben der Bundeszentrale für politische Bildung überein, nach denen sich die Konzentration von CO2 seit Beginn der Industrialisierung um ca. 40 Prozent erhöht haben soll.
… Die Aussage über eine kumulative Wirkung von CO
2 zur Bemessung des verfügbaren CO2-Budgets in dem zitierten Klimalounge-Artikel ist aber nur insoweit korrekt, wie sich dieses CO2 auch noch in der Atmosphäre befindet. Das anthropogene CO2 hat in unserer Atmosphäre nämlich eine Verweildauer von nur etwa 120 Jahren (hier unter dem Stichwort „Kohlendioxid“).
Das globale CO2-Budget ist also gar nicht kumulativ, sondern fortlaufend „erneuerbar“! Mit dieser Verweildauer von etwa 120 Jahren für das anthropogene CO2 in unserer Atmosphäre beträgt das fortlaufende globale CO2-Budget für den anthropogenen CO2-Ausstoß also etwa 2.800 Gt CO2 pro 120 Jahre. Damit dürfte dann ein vorgeblich menschengemachter Temperaturanstieg sicher unter 2 Grad bleiben. Wir haben also eigentlich bis zum Jahre 2060 Zeit, um den anthropogenen CO2-Ausstoß auf jährlich 23 Gigatonnen (=2.800 Gt CO2 / 120 Jahre) zu begrenzen und damit das ominöse 2-Grad Ziel dauerhaft zu abzusichern. Von Null-Emissionen ab 2050 kann also selbst dann keine Rede sein, wenn man tatsächlich an einen menschengemachten Klimawandel durch CO2-Emmissionen glauben will.
… Die Dekarbonisierung der Welt erweist sich damit zum wiederholten Male als eine völlig unnötige Selbstkasteiung der Menschheit. Und aufgrund dieser religiös anmutenden Agenda will die westliche Welt jetzt freiwillig ihre kohlenstoff-basierte Lebensgrundlage zerstören und unseren daraus resultierenden Lebensstandard vernichten.

Selbstverständlich gibt es auch die genau gegensätzliche Extrem-Darstellung:
KLIMARETTER.INFO, 26. Juli 2017 (gekürzt): [10] CO₂-Budget vielleicht überschätzt
Möglicherweise muss sich die Weltgemeinschaft an ein noch knapperes CO2-Budget gewöhnen. Das hat jedenfalls eine neue Studie ergeben, die in dieser Woche im Fachmagazin Nature Climate Change erschienen ist. ….
Eine Studie von Klimaforschern wirft die Frage auf, wie das Zwei-Grad-Ziel eigentlich zu verstehen ist.
Genau genommen ist es nur eine Definitionsfrage … Wann aber die vorindustrielle Periode überhaupt anfängt, steht nicht in dem Vertrag. Ist die Zeit unmittelbar vor dem Durchbruch der Industrialisierung gemeint, also das Ende des 19. Jahrhunderts, oder schon eine frühere Phase? … Dass das einen Unterschied macht, zeigt die neue Studie: Schon in der Periode zwischen 1401 und 1800, so schreiben die Autoren, habe sich das Erdsystem durch menschliche Einflüsse um 0,2 Grad erwärmt …
Bezieht man das
Zwei-Grad-Ziel nun auf diese längere Periode, muss man den Status quo anders als bislang üblich beschreiben: Dann hat sich die Erde nicht „nur“ um das eine Grad erwärmt, das seit Ende des 19. Jahrhunderts durch die Industrialisierung und alles Folgende hinzugekommen ist, sondern schon um 1,2 Grad. Die Differenz zur Zwei-Grad-Marke verringert sich entsprechend – und so auch das CO2-Budget, bei einem Startpunkt im Jahr 1401 sogar um ganze 40 Prozent. Im Jahr 2014 hatte der Weltklimarat IPCC ein globales Budget von 3.000 Milliarden Tonnen CO2 ermittelt, das dann auf 1.800 Milliarden Tonnen zusammenschrumpfen würde. ..

Beim Klimawandel ist Desinformation alltäglich

Leider zeigt der Artikel auf Klimaretter.info [10] nur, wie von einer „Klimaintelligenz“ konsequent auch Desinformation verbreitet wird. Dass es aufgrund der vorhandenen, aber viel zu ungenauen Daten nicht möglich ist, vor der Industrialisierung einen angeblichen, anthropogenen Einfluss zu extrahieren, wurde in zwei Artikel aus ähnlichem Anlass bereits dargestellt:
EIKE 04.01.2017: Hat Kolumbus versehentlich die kleine Eiszeit angestoßen?
EIKE 09.09.2016: Hat die barbusige Dame um 1830 gegen den Klimawandel gekämpft? Eine ganz aktuelle Studie legt es nahe
Zudem ist der Klimavertrag zwar sehr ungenau und sagt wirklich nicht, wann die „vorindustrielle Zeit“ beginnt. Er sagt nicht einmal, welche Starttemperatur anzunehmen ist (Anmerkung: Die Differenz der möglichen Angaben beträgt immerhin 0,46 Grad, also so viel, wie der Unterschied zwischen dem 1,5 und 2 Grad Ziel), was bereits Anlass für einen detaillierten Artikel darüber war:

EIKE 04.10.2016: [4] Klimavertrag von Paris im Bundestag erreicht 100 % Zustimmung
Dass sich daraus jedoch ableiten ließe, es wäre eine Zeit zwischen 1400 … 1800 gemeint oder denkbar, ist vollkommener Schwachsinn und nur der Publizierwut der Autor*innen und der Hysterieschürung geschuldet.

Eher bemerkenswert am Artikel ist das Eingeständnis, dass die aktuelle Erwärmung bereits mehrere Hundert Jahre früher begann, als es immer berichtet wird. Diese Feststellung ist nicht neu und wurde auch öfters thematisiert:
EIKE 26.03.2016: Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende
EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES2k

Die Folgerung des Artikels von klimaretter.info hätte deshalb auch lauten können: Damit ist belegt, dass der Mensch nicht die wesentliche Ursache der aktuellen Erwärmung sein kann.
Mit diesem Eingeständnis bräche aber eine sorgfältig konstruierte (und computersimulierte) Gedankenwelt und Einkommensquelle für zig-tausend Klimaforscher und –Verwalter zusammen.

Warum reklamiert dieses (offensichtliche) Datenchaos dann niemand?

Antwort:
-Die meisten der 195 im IPCC paritätisch vertretenen Länder sind potentielle Empfänger künftiger Klimahilfsgelder. Diese werden den Teufel tun, es zu reklamieren. Vielleicht haben sie sogar dafür gesorgt, dass der Vertrag so ungenau geblieben ist und nur das Geldausschütten konkretisiert [4].
-Die Vertreter der das Geld gebenden Nationen haben teils fachliche Qualitäten, die jeglicher Beschreibung spotten [11]. Zudem sind deren Maßnahmen durch die Wünsche von Staatsführer*innen, – vollkommen unabhängig von Fakten, durch eine Klimarettung in die Geschichte eingehen zu wollen – vorgegeben.

Eine bekannte Erscheinung lässt sich in Deutschland dabei ebenfalls (wieder) beobachten. Wenn der / die große Vorsitzende den Weg gewiesen hat und alle Probleme mit wenigen Buchstaben behauptet zu lösen, folgen viele, gerade auch aus der „Intelligenz“ bedingungslos.

Quellen

[1] Öko-Institut e.V., Juli 2017: Klimaschutzziel und –strategie München 2050 Endbericht

[2] SZ 16. September 2017: Klimaschutz So wird München seine Klimaziele nicht einhalten

[3] BR24 15.09.2017: Klimaziele 2030 unerreichbar Bei Kohlendioxid-Reduzierung braucht München mehr Zeit

[4] EIKE 04.10.2016: Klimavertrag von Paris im Bundestag erreicht 100 % Zustimmung

[5] EIKE 17. September 2017: Reiche Länder hinsichtlich Extremwetter belastbarer

[6] SZ Printausgabe vom 16. / 17. September 2017, S. 81: Gefährliches Luftschloss

[7] berlin.de, Senatsverwaltung: Schulden des Landes Berlin

[8] Landeshauptstadt München, Broschüre: Die Klimaschutzmanagerinnen und Klimaschutzmanager der Landeshauptstadt München Tätigkeitsfelder und Projekte

[9] kaltesonne, Uli Weber, 29. April 2017: Prozentrechnung müsste man können: Das en(t)liche CO2-Budget

[10] KLIMARETTER.INFO, 26. Juli 2017: CO₂-Budget vielleicht überschätzt

[11] EIKE 21. August 2017: POLITISCHE BILANZ: Nicht „ob“, sondern „wie schnell“
EIKE 20.07.2017: Randalen von Atomfrontkämpfern werden von Frau Hendricks ausdrücklich als „Freunde des Staates und der Gesellschaft“ gelobt

EIKE 13. Juli 2017: Wie viele Unterschriften zum Klimavertrag wurden mit Geldversprechungen gekauft?

EIKE 27.03.2017: Nee, bei uns gibt´s keine Klimaleugner

EIKE 08.03.2017: In einer Zeit, die immer mehr von Unsicherheit und Ängsten geprägt ist, macht Klimaschutz Mut

[1] EIKE 25.04.2017: Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr




Temperaturen der letzten 150 Jahre: Wenn harte Messdaten nachträglich verändert werden

Ein Schmuddelthema der Klimadiskussion ist die nachträgliche Veränderung von Messdaten in den offiziellen Temperaturzeitreihen. Während die entsprechenden Forscher ihren regelmäßigen Eingriff in die Datenbanken als “Korrektur” und “notwendige Anpassung” bezeichnen, sehen einige Skeptiker darin plumpe Manipulation. Wie so immer im Leben, findet sich die Wahrheit wohl irgendwo in der Mitte. Wir haben bereits mehrfach über die Problematik hier im Blog berichtet. Im heutigen Beitrag wollen wir neue Analysen und Publikationen aus diesem hochsensiblen Bereich vorstellen.

Im Juni 2017 fasste eine Gruppe um James Wallace III ihre Untersuchungsergebnisse zu Datenveränderungen in den wichtigsten Temperaturdatenbanken zusammen. Dabei erkannten sie, dass im Laufe der Zeit natürliche Zyklen in der Temperaturentwicklung der letzten 150 Jahre systematisch händisch abgemildert wurden, was das Vertrauen in die Daten untergräbt. Das pdf der Studie finden Sie hier. Die Bedenken der Wallace-Gruppe bekräftigen Kritikpunkte, die Ross McKitrick bereits 2010 auf SSRN vorbrachte.

Der HadCRUT-Datensatz wird vom Hadley Centre des UK Met Office sowie der Climatic Research Unit (CRU) of the University of East Anglia und bezieht sich auf die globale Temperaturentwiclung de letzten 150 Jahre. Immer wieder werden neue Versionen erstellt, mittlerweile ist man bei HadCRUT4 angelangt. Die Tendenz der nachträglichen Datenveränderungen wird in einem direkten Vergleich von HadCRUT3 und HadCRUT4 deutlich (via Woodfortrees) (Abb. 1):

Abb. 1: Entwicklung der globalen Temperaturen gemäß früherer Version HadCRUT3 im Vergleich zum aktuellen HadCRUT4-Datensatz. Graphik: Woodfortrees.

Gut zu sehen: Die nachträglichen Veränderungen der Archivdaten haben den “Hiatus” der letzten 15 Jahre in eine Phase leichter Erwärmung von etwa 0,1°C verwandelt. Nicht gerade die feine englische Art, um die unbequeme Erwärmungspause aus der Welt zu schaffen. Leider enden die HadCRUT-Daten im Jahr 2015, so dass man den Vergleich nicht bis heute (2017) verlängern kann. Im Jahr 2012 brachte die IPCC-nahe Plattform Realclimate einen weiter zurückreichenden Vergleich von HadCRUT3 und HadCRUT4 (Abb. 2):

Abb. 2: Entwicklung der globalen Temperaturen gemäß früherer Version HadCRUT3 im Vergleich zum aktuellen HadCRUT4-Datensatz. Graphik: Realclimate.

Zu erkennen: Die modernen Temperaturen wurden um etwa ein Zehntel Grad hochgesetzt, während die Temperaturen um 1900 nahezu unverändert blieben. Unterm Strich führte dies zu einer nachträglich produzierten Versteilung der Erwärmung, sozusagen “anthropogen”, denn von Wissenschaftlern selber am Schreibtisch erzeugt.

Die Datenveränderungen gehen unterdessen weiter, auch nach 2015. Im Stil der Salamitaktik wird die Erwärmung immer weiter künstlich versteilt. Ole Humlum bringt in seinem monatlichen Newsletter Climate4You die jeweils aktuellen Klimadaten. Unter anderem vergleicht er die verschiedenen Versionen der Datensätze miteinander. Hier die kürzlichen Veränderungen des GISS-Datensatzes, der vom bekennenden Klimaaktivisten Gavin Schmidt verantwortet werden. In rot die Vorversion aus dem Mai 2015, in blau die aktuellen Daten (Abb. 3). Ergebnis: Wieder eine Salamischeibe: Erwärmung um ein halbes Zehntelgrad versteilt.

Abb. 3: Entwicklung der globalen Temperaturen gemäß früherer GISS-Version aus dem Mai 2015 (rot) im Vergleich zum aktuellen GISS-Datensatz (blau). Graphik: Climate4You.

Nächstes Beispiel: NCDC-Datensatz, wo sich das gleiche Bild bietet (Abb. 4).

Abb. 4: Entwicklung der globalen Temperaturen gemäß früherer NCDC-Version aus dem Mai 2015 (rot) im Vergleich zum aktuellen NCDC-Datensatz (blau). Graphik: Climate4You.

Lange galten die Satellitendatensätze UAH und RSS als zuverlässiger als die Bodendatensätze, die ständig nachjustiert werden. Zumindest für die RSS-Daten gilt dies mittlerweile nicht mehr, denn auch hier hat man nun mit dem Verändern der Daten begonnen (Abb. 5). Auch hier beträgt die künstliche Versteilung jetzt 0,1°C. Man wundert sich, dass ähnliche Korrekturen durchgeführt wurden, obwohl die Messverfahren und Begründungen äußerst unterschiedlich sein sollten. Die RSS-Änderungen wurden in einem Paper von Mears & Wentz (2017) u.a. mit dem Absinken der Satellitenbahn begründet.

Abb. 5: Entwicklung der globalen Temperaturen gemäß früherer RSS-Version aus dem Mai 2015 (rot) im Vergleich zum aktuellen RSS-Datensatz (blau). Graphik: Climate4You.

Die RSS-Datenveränderungen kommen nicht ganz unerwartet. Der UAH-Satellitendatenexperte Roy Spencer hatte bereits zu Jahresbeginn 2017 vermutet, dass RSS auf Druck der anderen Temperaturdatenbanken Änderungen durchführen würde. Um die Unabhängigkeit der verschiedenen Temperaturdatensysteme ist es offenbar nicht gut bestellt. Vielmehr herrscht Gruppendenken vor. In einem unaufgeregten, lesenswerten Blogbeitrag kommentierte Roy Spencer die RSS-Veränderungen und erläuterte, weshalb er ihnen kritisch gegenübersteht.

Die Temperaturdatenveränderungen der verschiedenen Systeme ist bedenklich. Letztendlich handelt es sich um einen Änderungsbetrag von vielleicht ein oder maximal zwei Zehntelgrad. Irgendwann werden die Justierungen aufhören müssen. Bei einer von den Modellen prognostizierten Erwärmung von zwei Zehntelgrad pro Jahrzehnt wird der Zeitpunkt kommen, wo der Spielraum der Datenmassage voll ausgereizt ist. Bis dahin sollten wir die Vorgänge kritisch begleiten, die in den Medien unbeachtet bleiben.

Link: http://www.kaltesonne.de/temperaturen-der-letzten-150-jahre-wenn-messdaten-nachtraglich-geandert-werden/

Dieser Beitrag ist zuerst im Blog „die Kalte Sonne“ erschienen.




Die Ökokirche übt sich wie Robin Hood in Nächsten­liebe

Die EEG-Subventionierungen der Energieversorgung reichen der Lobby noch nicht. Es gibt ja noch die viel umfangreicheren, restlichen Energieträger, welche noch weitgehend „Ökokosten-frei“ geblieben sind. Der Bundesverband Erneuerbare Energie e.V. (BEE) hat diese Lücke erkannt und überlegt, wie dem Mangel abgeholfen werden kann. Herausgekommen ist ein System, an dem „Die Linken“ ihre helle Freude haben müssten: Man nehme das Geld von den Reichen und verschenke es an die Armen.
KLIMARETTER.INFO, 14. Januar 2016: [3] CO₂-Steuer als Sozialprojekt

Der „CO2-Büßerpfennig“

Wie das funktioniert? Die Reichen emittieren mehr CO2 als der arme Bevölkerungsanteil (man denke an Al Gore mit seinen Villen und Privatflugzeug). Damit schädigen diese das Klima überproportional. Konsequenter Weise müssen diese zukünftig einen „Büßerpfennig“ in Form von CO2-Abgaben bezahlen und nun kommt der Clou: Dieser wird den Armen gegeben.
In der BEE Pressemitteilung wird es etwas weitschweifiger beschrieben:
Berlin, 18.09.2017. [1] Der Bundesverband Erneuerbare Energie (BEE) hat am heutigen Montag einen Vorschlag für eine CO2-Bepreisung im Wärmemarkt vorgestellt. „Bislang gibt es im Wärmemarkt nicht die richtigen Anreize, moderne Technologien und Erneuerbare Energie einzusetzen, da die Kosten für eine Entsorgung der Emissionen in der Atmosphäre nach wie vor nicht beim Anlagenbetrieb anfallen, sondern stillschweigend vergesellschaftet werden.
… Derzeit werden sogar wieder mehr Ölheizungen installiert. Dabei werden die gesetzten Emissionsminderungsziele der Bundesregierung nicht erreicht und das Potenzial des Wärmesektors weit unterschätzt“, sagt Dr. Peter Röttgen, Geschäftsführer Bundesverband Erneuerbare Energie. Um dem entgegen zu wirken, hat der BEE das Wirtschaftsforschungs- und Beratungsunternehmen Prognos mit einer Studie beauftragt, um einen Lösungsvorschlag zu erarbeiten. Im Ergebnis wird die Ergänzung der Energiesteuer um eine CO2-Komponente inklusive eines Rückerstattungsmodells vorgeschlagen. „Dieser Ansatz sorgt für eine fairere Energiewende im Wärmesektor, technologisch und auch sozial“, so Röttgen.
Es wird eine vollständige Rückvergütung der zusätzlichen Steuereinnahmen an die Haushalte vorgeschlagen. „Die CO2-Bepreisung soll eine klimafreundliche Wärmeversorgung auf Basis Erneuerbarer Energien belohnen. Je mehr Emissionen eingespart werden, desto mehr Geld verbleibt unterm Strich beim Verbraucher“, so Röttgen. Dabei sei es besonders wichtig, dass die Rückverteilung gerecht ist, besonders mit Blick auf einkommensschwächere Haushalte.

Wer es noch nicht wusste: Neu ist dieser Vorschlag nicht. Die Schweiz, ebenfalls immer mehr dem Ökowahn verfallend, hat ein solches Modell bereits. Dort nennt es sich „Lenkungsabgabe“, was den Sinn treffend beschreibt:
WIKIPEDIA: [2] Lenkungsabgabe (Schweiz)

Die Begriffe „arm“ und „einkommensschwächer“ werden vom BEE recht weit gefasst. Jeder, der eine Ölheizung betreibt, fällt schon einmal nicht darunter. Scheinbar machen Ölheizungen automatisch reich oder verhindern zumindest „Einkommensschwäche“.
Es ist anzunehmen, dass unsere Regierung, egal welche es wieder wird, solche Vorschläge dankenswert aufgreift. Beim Durchschleifen von Geld bleibt immer etwas hängen und die Verteilung lässt sich werbe- und wählerwirksam lenken.

DER BEE: [1] Als Dachverband der Erneuerbare-Energien-Branche in Deutschland bündelt der BEE die Interessen von 49 Verbänden und Unternehmen mit 30 000 Einzelmitgliedern, darunter mehr als 5 000 Unternehmen. Im Wärmesektor gehören der Bundesverband Bioenergie e.V., der Bundesverband Solarwirtschaft, der Bundesverband Wärmepumpe e.V., der Deutsche Energieholz- und Pellet-Verband e.V. und der Fachverband Biogas zu unseren Mitgliedern. Wir vertreten auf diese Weise 330 000 Arbeitsplätze und mehr als 3 Millionen Kraftwerksbetreiber. Unser Ziel: 100 Prozent Erneuerbare Energie in den Bereichen Strom, Wärme und Verkehr.

Die GRÜNEN finden die Idee ebenfalls gut, wollen den „Nutzen“ aber ausschließlich an ihr Klientel „zurückgeben“. Arme interessieren sie nicht

Noch „rechtzeitig“ vor der Wahl stöberten die GRÜNEN in ihren Rumpelkammern, um zu finden, was im Klimakampf bisher vielleicht übersehen wurde, fanden Einiges und fassten es gleich in ein Wahl-Zusatzprogramm:
GRÜNES SOFORTPROGRAMM FÜR KLIMASCHUTZ UND SAUBERE ENERGIE
Die globale Erwärmung schreitet voran, eine massive Eisschmelze an den Polen lässt den Meeresspiegel steigen und bedroht ganze Regionen und Städte weltweit. Trockenheit und Waldbrände wüten im Süden Europas, während zeitgleich in Teilen von Amerika, Asien und Afrika Starkregen für Überschwemmungen und Verwüstungen sorgt. Allein in Deutschland hat die Klimakrise zwischen 1970 und 2014 bereits mehr als 90 Mrd. Euro an volkswirtschaftlichen Schäden verursacht.

Ein GRÜNER Lösungspunkt dazu
einen gesetzlichen CO2-Mindestpreis im Emissionshandel einführen und außerhalb des Emissionshandels eine CO2-Bepreisung auf fossile Energieträger einführen, damit sich Investitionen in Klimaschutz betriebswirtschaftlich unmittelbar lohnen
Was bedeutet das?

Öl durch die CO2-Zusatzkosten so verteuern, dass es sich lohnt, mit teureren Ökolösungen zu heizen, beziehungsweise die teuren Zusatzinvestitionen zu tragen.

Gleichzeitig belegen die GRÜNEN, dass der Klimawandel bisher keinen messbaren, volkswirtschaftlichen Nachteil, gebracht hat

Eigentlich immer beim Rechnen und Vergleichen versagt die GRÜNE Führungselite hoffnungslos, Man denke an die „eine Kugel EIS“ des Herrn Tritti(h)n, oder Herrn Özdemirs EEG-Unwissen:
[4] EIKE 18.09.2017: Kleine Energierückschau 2016, oder: Was ist Zappelstrom

Nicht anders ist es in diesem „Strategiepapier“.
Angegeben sind seit 1970 ca. 90 Milliarden EUR an Klimaschäden. Komisch, dass die Rechnung zu einer Zeit beginnt, als die Klimawissenschaft vor der sicher bevorstehenden Eiszeit warnte.
Rechnet man jedoch spasseshalber volkswirschaftliche Kosten mit der durchschnittlichen Inflationsrate von 3,07 … 3,45 % zurück, sieht man, dass diese Kosten im Rauschen verschwinden und es niemandem möglich ist, einen „Klimawandelverlust“ abzuleiten

Der Anteil von (angeblich) 90 Milliarden jährlichen Klimakosten in Deutschland hat zurückgerechnet den folgenden Anteil:
An den Kosten des Rauchens (2012: 35 Milliarden EUR): 9,2 %,
an den Kosten der Straßenunfälle (2012: 35 Milliarden EUR): 10 %
anteilig am Steueraufkommen (2016: 648 Milliarden EUR): 0,6 %
An diesen Kosten gesamt, anteilig: 0,14 %

Nimmt man das Bruttoinlandsprodukt (2016: 3026 Milliarden EUR) betragen die (angeblichen) Klimawandelkosten ebenfalls nur ca. 0,13 %
Da wohl niemand zwischen wetterbedingten und „klimawandel-„ bedingten Kosten unterscheiden kann, ist der Anteil mit Sicherheit noch wesentlich niedriger. Er „belastet“ die Volkswirtschaft damit nicht im Geringsten. Damit darf es kein Grund sein, deshalb Deutschlands Energiesystem in Grund und Boden zu rammen oder Ölheizungen zu verbieten.

Den nicht messbaren (angeblichen) Kosten stehen jedoch enorme Vorteile gegenüber.

… den Pflanzen (und Bauern) aber enorme Vorteile

Anbei die Steigerung des Getreideertrags Gesamtdeutschland.
1970: 3180 kg / Hektar
2014: 8014 kg / Hektar;
das sind seitdem +250 % Ertragssteigerung. Den Pflanzen gefällt das Klima.


Quellen

[1] Bundesverband Erneuerbare Energie e.V.: Energiesteuer mit CO2-Komponente plus Rückverteilung schafft Fairness auf dem Wärmemarkt

[2] WIKIPEDIA: Lenkungsabgabe (Schweiz)

[3] KLIMARETTER.INFO, 14. Januar 2016: CO₂-Steuer als Sozialprojekt




Wo eine GRÜNE Vorahnung bereits Wirklichkeit geworden ist

Jetzt überleg dir mal: Es fahren 5 Millionen Elektroautos rum … wo tanken die?

Zur Erinnerung, EIKE, 26.06.2017: Ein GRÜNER Spitzenpolitiker denkt heimlich
Kretschmann: … kommt der Hofreiter immer mit seiner tollen Story vom Tesla … jetzt überleg dir mal:
Es fahren 5 Millionen Elektroautos rum … wo tanken die?
Jetzt erzählt er dann, wie er tankt und dass er dem sagt, wie er tanken soll. Jetzt nehmen wir mal eine ganz normale Tankstelle, wie wir sie heute haben. Wir haben an großen Tankstellen vielleicht Platz für zehn Autos, die da auf einmal tanken … So, jetzt dauert das aber bei denen zwanzig Minuten.
Jetzt: Wie soll das funktionieren? Ihr habt keine Ahnung! Aber die Leute sagen, ab
(dem Jahr) 2030 kann man das alles machen. Das sind doch Schwachsinns-Termine!
Wenn mich einer fragt: Erklären Sie mir mal, wie Sie das machen zu diesem Termin … das kann ich nicht ansatzweise
(erklären). Wie kann man denn so ein Zeug verzapfen? … ich weiß es nicht.

In Norwegen stellen sich viele E-Auto Besitzer diese Frage bereits heute

Inzwischen kann man das vorhergesagte Zukunftsproblem des Herrn Kretschmann in einem Land bereits live erleben und muss nicht mehr bis zum Jahr 2030 bei uns darauf warten:
Süddeutsche Zeitung, 18. September 2017 (gekürzt): Elektroauto Norwegen hat ein E-Auto-Problem
Norwegen ist Vorreiter bei der E-Mobilität. Die Autos sind allerdings so beliebt, dass sie die Infrastruktur zunehmend überfordern.
… Es gibt vor allem zu wenig Ladesäulen. Ein Verband rät schon vom Kauf eines Stromfahrzeugs ab.
… ist eine von vielen frustrierten Osloern, die keine Ladestation für ihren Wagen finden. Zu viele Batterieautos fahren durch die Stadt, zu langsam baut die Verwaltung Parkplätze mit Steckdose. Der Verband für E-Auto-Fahrer, Norsk Elbilforening, rät den Hauptstädtern sogar davon ab, sich ein E-Auto anzuschaffen, sofern sie keinen eigenen Ladeplatz daheim oder am Arbeitsplatz haben. „Es ist schwierig, eine öffentliche Station zu finden“, sagt Verbandssprecher Petter Haugneland.
… Als sie das Auto vor zwei Jahren gekauft habe, sei das eine gute Idee gewesen, sie habe sich modern gefühlt … Aber dann hätten zu viele Menschen denselben Einfall gehabt. Nun sei es nahezu unmöglich, an öffentlichen Parkplätzen aufzuladen. Sie fühlt sich von der Politik im Stich gelassen.
Die norwegische Regierung fördert E-Autos massiv, erlässt Mehrwert- und Registrierungssteuer, sodass die Autos oft mehrere Tausend Euro billiger sind als vergleichbare Modelle mit Benzin- oder Dieselmotor. In vielen Städten parken und laden Elektroautos kostenlos. In Oslo war anfangs ein großer Erfolg, dass E-Autos auf der Busspur fahren durften. Irgendwann durften das so viele, dass sie sich in der Stoßzeit dort stauten.
Etwa
124 000 Elektroautos und knapp 55 000 aufladbare Hybride fahren laut Verband schon durch Norwegen. … Bis 2025 soll dieser Anteil bei hundert Prozent liegen, lautet das politische Ziel. Der E-Auto-Verein wünscht sich einen öffentlichen Ladeplatz für jeden zehnten Wagen, das entspräche schon heute 17 900 Stationen. Tatsächlich gibt es nur 7 300 normale Ladepunkte.

Norwegen bezahlt seine vorbildliche „Klimarettung“ durch den Verkauf klimaschädlichen Erdöls und dem Gängeln seiner Bürger

So nebenbei ist Norwegen auch ein Musterbeispiel, wie locker der Politik Segnungen einfallen, um eine Vision Wirklichkeit werden zu lassen und für politische Öko-Scheinheiligkeit. Auch dies sicher ein Thema neuer Vorahnungen bei uns.
DEUTSCHE WIRTSCHAFTSNACHRICHTEN, 08.02.2016: Staatsfonds stößt Anteile ab: Norwegen wegen Ölpreis-Verfall unter Druck
Der Verkauf von Erdöl ist Norwegens wichtigste Einnahmequelle. Die anhaltend tiefen Preise bedrohen allmählich den Staatshaushalt und erfordern viel zusätzliches Kapital.
Mit dem Finanzierungsproblemen hängt warscheinlich auch die teilweise
Abschaffung von Bargeld in Norwegen zusammen. Vor einigen Wochen kündigte die größte Bank des Landes an, fortan keine Kundengeschäfte mit Bargeld mehr abzuwickeln. Andere Banken betreiben schon länger ein rein digitales Geschäft. Die Umgehung von Bargeld erlaubt es der Regierung, die Bürger mit Negativzinsen zum Konsum zu zwingen oder durch Sonderabgaben auf Bankvermögen zu besteuern.
Weitere (wenige) Beispiele, was Politikern (bestimmt nicht nur in Norwegen) sonst noch alles einfällt, um in den Ökohimmel zu kommen:

EIKE 23.10.2016: CCS-Speicherung ist Klimarettung mittels Homöopathie
EIKE 20.06.2016: CO2 Absurdistan in Norwegen – das Vorbild für Deutschland?




Eine Studie belegt, dass der Klimawandel nur 3,4 % Anteil an der Suizidrate der Bauern in Indien hat

Solche Berichte über schlimme Einflüsse des Klimawandels publiziert eine bekannte (Des-)Informationsseite sofort und so lässt es sich dort nachlesen:
KLIMARETTER.INFO, 11. August 2017: [1] Klimawandel erhöht Selbstmord-Rate
Rund 60.000 der Selbstmorde, die in Indien im Verlauf der letzten 30 Jahre zu beklagen waren, lassen sich nach einer Studie der Universität von Kalifornien in Berkeley mit dem Klimawandel in Zusammenhang bringen.,

Recherchiert man aufgrund der Studie, stellt man fest, dass die Suizidrate bei den Bauern in vielen Ländern deutlich höher als bei der übrigen Bevölkerung. Und das nicht nur in Indien – wovon die Studie berichtet –, sondern sogar in der Schweiz mit ihren angeblich so glücklichen Bewohnern:
CH Tages Anzeiger: [4] Druck soll Schweizer Bauern in den Suizid treiben Suizidrate steigt
Viele Bauern halten dem Druck nicht stand. In den letzten 20 Jahren starben pro Jahr über 1300 Betriebe weg. 2016 haben sich allein im Kanton Waadt acht Bauern das Leben genommen – doppelt so viel wie im Jahr davor. Der Kanton setzte nun einen Seelsorger ein, der zu helfen versucht …
Wobei die Schweiz wiederum nach Frankreich blickt, da es dort bei den Bauern mit den Suiziden noch viel schlimmer ist:
CH Blick: [5] Bauern sehen keinen Ausweg mehr Selbstmord aus Verzweiflung
… Alarm: Man müsse alles unternehmen, damit man nicht bald französische Zustände habe. Laut einer Statistik des französischen Instituts für Gesundheitsüberwachung nimmt sich jeden zweiten Tag ein Bauer in Frankreich das Leben.

Nachdem dieser Artikel fertig geschrieben war, publizierte die Landwirtschaftsorganisation der Vereinten Nationen (FAO) ihren „Hungerbericht“. Selbstverständlich ist darin auch vom Klimawandel als Ursache die Rede. Während in der Tageszeitung des Autors darüber noch vergleichsweise moderat berichtet wurde und stand, dass Ursachen überwiegend auf Konflikten beruhen und beim Klima sogar der El Nino Erwähnung fand, war für die SZ der Hauptschuldige klar: [9] „… Besonders verheerend ist die Not in Ländern, die die von wetterbedingten Katastrophen geplagt werden … die mit dem Klimawandel noch gravierender werden … „.
In der Pressemitteilung der UN selbst lautet dies allerdings wie folgt:
UN News Centre: „ … Even in regions that are more peaceful, droughts or floods linked in part to the El Niño weather phenomenon, as well as the global economic slowdown, have also seen food security and nutrition deteriorate, added the agencies“

Somit kommt diese Sichtung der Studie gerade richtig, um (wieder [10]) zu zeigen, wie „wissenschaftlich“ darüber entschieden wird, ob man etwas dem Klimawandel anlasten kann.

Den Bauern geht es, zumindest nach den Erträgen, so gut wie noch nie in der dokumentierten Geschichte

Bild 1 [6] Schweiz Erträge Langfristdarstellung 1850 – 2002
Etwas ist man überrascht, dass ausgerechnet der Klimawandel speziell für Probleme der Bauern in Indien verantwortlich sein soll. Weltweit sind erst mit dem Beginn des Klimawandels die Ernteerträge auf ein vorher undenkbares Maß angestiegen (Anmerkung: Der Ertragsverlauf von Bild 1 gilt ähnlich auch für die anderen Länder, welche technologisierte Landwirtschaft betreiben):
EIKE 30.06.2015: [6] Ernteerträge und Klimawandel Und Indien zeigt, dass es dort nicht viel anders ist.

Bild 2 Indien, Erträge Hirse seit 1961. Quelle: Factfish, FAOSTAT

Bild 3 Indien, Erträge geschliffener Reis seit 1961. Quelle: Factfish, FAOSTAT

Bild 4 Indien, landwirtschaftliche Wertschöpfung pro Arbeiter seit 1961. Quelle: Factfish, FAOSTAT

Im folgenden Ertragsbild für Baumwolle sieht man einen extremen Anstieg ab dem Jahr 2002. Dies ist der Zeitpunkt, seit dem in Indien massiv Genbaumwolle angepflanzt wird. Diese führte zu einer drastischen Ertragssteigerung – allerdings auch Bewirtschaftungszwängen, denen nicht finanzkräftige und ungenügend ausgebildete Bauern oft nicht gewachsen sind. Ein Effekt, welcher allerdings weltweit vorliegt.

Bild 5 Indien, Erträge Baumwollsamen seit 1961. Quelle: Factfish, FAOSTAT

Indien hat dieses Jahr sogar ein Allzeithoch an Ernteergebnis

THE TIMES OF INDIA, Aug 17, 2017: Govt revises foodgrain output to record 275.68 million tonnes

Bild 5.1 Indien, Allzeithoch-Erntehoch 2017. Quelle: THE TIMES OF INDIA

Warum soll der Mörder dann der auch in Indien so ausnehmend Ernte-positiv wirkende Klimawandel sein?

Die für die Studie verantwortlich zeichnende Umweltökonomin Tamma Carleton ging in ihrer Analyse der Frage nach: „ … warum die Selbstmordrate in Entwicklungsländern überdurchschnittlich hoch ist …“ [1].
Klickt man auf die Webseite von Frau TAMMA CARLETON, dann sieht man, dass von den dort gelisteten fünf Veröffentlichungen, alle fünf über den schlimmen Einfluss des Klimawandels handeln. Erkennbar hat sie Übung im Erkennen negativer Klimawandel-Einflüsse und es verwundert nicht, dass sie bei der Mortalitätsanalyse der indischen Bauern vorwiegend nach solchen gesucht hat.

Wer Korrelationen sucht, findet immer welche

Bei der Suche ist sie systematisch vorgegangen;
[1] … Carleton verglich die indischen Daten zu Suiziden mit Klimadaten. In ihrer Studie kommt sie zum Ergebnis, dass es einen Zusammenhang gibt. Bei steigenden Temperaturen in der Zeit des Jahres, in der die Pflanzen in der Wachstumsphase sind, steigt auch die Selbstmordrate. Denn wenn die Ernte geringer ausfällt oder komplett vernichtet wird, verlieren die Menschen ihre Lebensgrundlage.
Ernteausfälle und sich dadurch verschärfende Armut sind die wichtigsten Ursachen hinter den Selbsttötungen. In Indien leben über 70 Prozent der Bevölkerung auf dem Land. Mehr als die Hälfte der Menschen ist hier von der Landwirtschaft abhängig, ein Sozialsystem gibt es für sie nicht. Viele Bauern sind verschuldet, vor allem für teures Saatgut, um etwa Genbaumwolle anzubauen.
Die Wissenschaftlerin betrachtete für ihre Studie die Tage, an denen es wärmer als 20 Grad ist. Nach ihren Berechnungen kommt es dann im Durchschnitt für jedes Grad Temperaturerhöhung landesweit zu 65 bis 70 zusätzlichen Suiziden. In den Folgejahren wiederholt sich der Effekt in abgeschwächter Form.
Seit 1980 hat sich in Indien die Selbstmordrate verdoppelt. Laut Studie sind die Folgen des Klimawandels für 6,8 Prozent dieses Anstiegs verantwortlich.

Im Abstract steht dazu noch ergänzend:
[2] Abstract: … I find no evidence that acclimatization, rising incomes, or other unobserved drivers of adaptation are occurring. I estimate that warming over the last 30 y is responsible for 59,300 suicides in India, accounting for 6.8% of the total upward trend. These results deliver large-scale quantitative evidence linking climate and agricultural income to self-harm in a developing country.
Ganz grob übersetzt: … Ich finde keinen Beleg, dass Akklimatisierung, steigende Einkommen oder andere, nicht berücksichtigte Anpassungs-Parameter vorhanden wären. Meine Abschätzungen ergeben, dass die Erwärmung in den letzten 30 Jahren für 59.300 Selbstmorde in Indien verantwortlich ist, was 6,8% des gesamten Aufwärtstrends entspricht. Diese Ergebnisse liefern in großem Maßstab quantitative Beweise zur Verknüpfung zwischen Klima und Agrareinkommen zu Suiziden in einem Entwicklungsland.

96,6 % aller zugeordneten Suizide haben eine andere Ursache

Leider ist die Studie bezahlpflichtig. Kaufen will sie der Autor nicht, aber die Angaben im Summary und im Supplement [7] (dazu hat jemand bei Klimaretter im Blog freundlicher Weise den Link eingestellt) reichen für eine Plausibilitätsabschätzung der Aussagen aus.

Klimaretter.Info listet die wohl wichtigste Aussage der Studie ganz zum Schluss als allerletzten Satz:
[1] … Laut Studie sind die Folgen des Klimawandels für 6,8 Prozent dieses Anstiegs verantwortlich.
Ergänzt man diesen Satz mit den fehlenden Daten, berechnet sich: Der Klimawandel hat von der Verdopplung der Suizidrate der letzten 30 Jahre einen Anteil von 6,8 %. Das ist dann von aktuellen 100 %, ein Anteil von 3,4 % der Gesamtsuizide und bedeutet im Umkehrschluss: 96,6 % aller zugeordneten Suizide haben eine andere Ursache.

Der denkbare – aber wohl immer noch übertrieben hoch dargestellte „Klimawandeleinfluss“ – ist damit so gering, dass man sich fragt, warum sich überhaupt jemand ausgerechnet mit den erkennbar unwichtigen und nicht den wichtigeren, 96,6 % der Gründe beschäftigt hat.

Sollte bewiesen werden, dass der Klimawandel-Einfluss so gering ist?

Vielleicht sollte auch bewiesen werden, dass der Klimawandel-Einfluss wirklich so gering ist. Dies würde jedoch „niemanden“ interessieren. Also musste die Überschrift ausgewechselt werden, um eine Publizierung zu erreichen. Es wäre ja nicht anzunehmen, dass beispielsweise Klimaretter die Studie sonst überhaupt erwähnt hätte. Jedoch: Dies ist nur eine rein hypothetische Vermutung.

Kleine Sichtung der Studie

Nachdem die Studie belegt, dass der Klimawandel auch in Indien – wenn überhaupt – einen vollkommen unbedeutenden Anteil der bäuerlichen Suizide zur Folge hat, der im statistischen Rauschen verschwindet, könnte man aufhören. Doch sollen, um die Problematiken solcher Studien zu zeigen, ergänzend ein paar Angaben auf Plausibilität gesichtet werden.

Selbstmordraten

Ausgangspunkt für die Studie der Umweltökonomin Tamma Carleton war die Frage, warum die Selbstmordrate in Entwicklungsländern überdurchschnittlich hoch ist.
Dazu eine Statistik der WHO (*Hinweis: Da die Quelle nicht absolut sicher ist, sind die Daten unter Vorbehalt).
Nach diesen Daten haben die männlichen Einwohner hochentwickelter Länder höhere Selbstmordraten als solche, welche vom Klimawandel (angeblich) schwer betroffen sind.

Bild 6 Selbstmordraten weltweit, nur Männer, im Jahr 2015. Vom Autor aus dem Datensatz erstellt. Quelle: WHO*

Es wäre eine Studie wert, zu ergründen, woran das liegen könnte. Vielleicht ist es bei uns der dauernde, mediale Beschuss durch den „Klimakampf“ mit der Angst vor dem Kipppunkt. Der Autor hat persönlich in einer Fernsehdiskussion mit ansehen können, wie einem sehr bekannten Mitglied des BUND bei seiner Erwähnung wirklich fast die Tränen flossen, so felsenfest war sein Glaube daran, dass er bald überschritten würde und damit seine Enkel und den Globus dem sicheren Klimatod preisgibt.

Die Studie beginnt mit der Auswertung vor dreißig Jahren. Da die Auswertung mit dem Jahr 2010 endet, also mit dem Jahr 1980. Bild 7 zeigt dazu die Suizidraten aus der Studie. Man ahnt, dass wenn die Studie zum Beispiel den Zeitraum der letzten 20 Jahre untersucht hätte, das Ergebnis vollkommen anders aussehen könnte. Vielleicht wären alleine dadurch die 3,4 % „Klimawandelanteil“ sogar negativ geworden.

Bild 7 Suizidraten in Indien und in Regionen davon. Gestrichelte Linien vom Autor zugefügt. Quelle: [7] Supplement

Die Suizidstatistik in Indien – verlässliche Daten gibt es nur von 1997 – 2005

Die Studie beginnt mit dem Jahr 1980 und endet mit dem Jahr 2010. Doch wann hatte oder hat man ausreichend genaue Zahlen in Indien zur Verfügung? Eine Webseite klärt auf:
[8]… Erst seit 1995 fing man an, die Daten über die Landwirte zu speichern,“ sagt Professor Nagaraj. „Aber einige wichtige Staaten begannen erst zwei Jahre später mit solchen Aufzeichnungen. Aus diesem Grund beginnt die Studie im Jahr 1997. Und das Jahr 2005 ist das letzte, für das Zahlen für ganz Indien zur Verfügung stehen.“

Die Zahl der Inder, die sich selbst töteten, stieg von ungefähr 96.000 im Jahr 1997 auf ungefähr 114.000 im Jahr 2005. Im selben Zeitraum stieg die Zahl der Bauern, die sich das Leben nahmen dramatisch an: von weniger als 14.000 im Jahr 1997 auf über 17.000 in 2005. Während der Anstieg der Selbsttötungen unter Bauern insgesamt nun schon über ein Jahrzehnt andauert, wurden in einigen Jahren Höchstzahlen registriert. So kam es im Jahr 2004 zu weit über 18.000 Suiziden unter Indiens Landwirten ...
Nach dieser Quelle gibt es verlässliche Daten nur vom Zeitraum 1997 … 2005. Trotzdem rechnet die Studie von 1980 … 2010. Es liegen also nur für ca. 27 % des Untersuchungszeitraumes verlässliche Daten vor. Doch selbst diese stimmen nicht, da sie den Begriff „Bauer“ nicht vollständig repräsentieren.

Auch die Zuordnung „Bauer“ ist nicht eindeutig und damit verfälschend

[8]… Da die Zahlen der Nationalen Behörde zur Dokumentation von Verbrechen (NCRB) auf örtlichen Daten basieren, bei denen große Bevölkerungsgruppen ausgeschlossen sind, gibt es ernsthafte inhärente Ungenauigkeiten„… Das größte Problem liegt in der Definition, was ein Landwirt ist: jemand, der einen Eigentumsanspruch auf sein Land hat. Nach dieser Definition werden etwa Pächter oder ganz besonders auch die Bäuerinnen nicht erfaßt.“

Einflüsse, welche Suizid-Daten zusätzlich verfälschen

In Indien bekommt die Witwe eines Bauern nach dessen Suizid von der Regierung eine Zahlung. Dies führt dort sogar dazu, dass manchmal „normales“ Ableben als Suizid dargestellt wird. Nachzulesen in:
WELT SICHTEN, Malcolm Harper, 25. November 2013 (Auszüge): Tödliche Mischung
Die indische Zentralregierung und die Regierungen der einzelnen Bundesstaaten vergeben üblicherweise sogenannte ex gratia-Zahlungen von umgerechnet etwa 2000 US-Dollar an Familien, deren Angehörige auf tragische Weise und unter öffentlicher Anteilnahme zu Tode gekommen sind. Solche Zuwendungen gehen auch an die Witwen der Selbstmörder und werden ebenfalls publik. Das spielt wohl manchmal eine gewisse Rolle, wenn sich ein Bauer schließlich für den Selbstmord entscheidet. Das geht so weit, dass Angehörige einen Suizid vortäuschen, nachdem ein Bauer eines natürlichen Todes gestorben ist. Mir wurde von einem Fall berichtet, in dem eine Witwe vergeblich versucht hatte, eine Beihilfe zu bekommen, indem sie ihrem toten Ehemann eine leere Pestizidflasche in den Mund schob.
Nicht auszudenken, wenn es für Suizid durch „Klimawandel“ auch einmal Geld vom „Westen“ gibt. Es wird in solchen Ländern zu einem „Anstieg“ an „Klimawandelopfern“ führen und bei uns – mit gefordert von NGOs und Kirchen – ganz sicher zu einer massiven Erhöhung der Klimaschutzmaßnahmen und Ausgleichszahlungen.

Die Sommertemperaturen haben sich seit 1900 praktisch nicht verändert und seit 1880 schon gar nicht

Studie:[1] Die Wissenschaftlerin betrachtete für ihre Studie die Tage (Anm.: während der Wachstumszeit im Sommer), an denen es wärmer als 20 Grad ist. Nach ihren Berechnungen kommt es dann im Durchschnitt für jedes Grad Temperaturerhöhung landesweit zu 65 bis 70 zusätzlichen Suiziden.

Nun schaue man die Temperaturverläufe während der Wachstumszeit im Sommer in Baumwoll-Anbaugegenden in den drei folgenden Grafiken an. Seit Anfang des letzten Jahrhunderts! haben die Sommertemperaturen ein Grad Temperaturänderung nicht überschritten, in zwei Fällen ist die mittlere Sommertemperatur eher niedriger geworden.

Bild 8 Sommertemperatur Indien, Bangalore von 1881 … 2015. Quelle: RIMFROST Viewer

Bild 9 Sommertemperatur Indien, Hyderabad von 1893 … 2015. Quelle: RIMFROST Viewer

Bild 10 Sommertemperatur Indien, Akola von 1880 … 2015. Quelle: RIMFROST Viewer

Ergänzend die Tageswerte der Sommertemperaturen von Bangalore abschnittsweise von 1982 (früheste, im Viewer einstellbare Zeit) bis 2016. Es ist nicht erkennbar, dass sich im Zeitraum der Studie die Tageswerte deutlich erhöht hätten. Und gerade im Jahr 2004, in dem die Suizidrate besonders hoch war [8], waren die Sommertemperaturen besonders „moderat“.

Bild 11 Tageswerte Sommer (Juni … Sept) von Bangalore. Quelle: wetteronline, Viewer

Da stellt sich die Frage, wie die sich nicht signifikant verändernden Sommer-Tagestemperaturen einen signifikanten Einfluss haben sollen.

Fazit

Es mag gelungen sein, mit viel Akribie, Statistik und ergänzenden Simulationen irgendwelche, kurzen Korrelationen zu finden. Solche finden sich irgendwo immer und lassen sich mit beliebigen Parametern – hier dem „Klimawandel“ verknüpfen.
Aufgrund der mehr als ungenauen – teils sogar unsicheren – Datenbasis, dem Sommer-Temperaturverlauf seit 1880 und 1982 im Untersuchungszeitraum, der fast keine Änderungen zeigt, sowie der sehr geringen Beeinflussungsrate kann man jedoch getrost annehmen, dass die Ergebnis-Ungenauigkeiten weit größer sind, als die berechnete Ergebnisrichtung, auch wenn der Computer (im Supplement der Studie) stur andere Wahrscheinlichkeitsaussagen berechnet. Wohl eher hätte man die Studie ergebnislos, da trendlos, abbrechen müssen.
Doch positiv gesehen: Alle Daten und das „Ergebnis“ der Studie zeigen, dass ein Klimawandeleinfluss – wenn überhaupt – so gering ist, dass er vernachlässigt werden kann und wieder belegt wurde, dass der teure Kampf gegen CO2 den unsinnigsten Versuch darstellt, Probleme des Planeten lösen zu wollen.

Die folgenden Ausführungen in den Fundstellen zeigen vor allem, wie komplex scheinbar einfache Probleme und Wirkungsmechanismen oft sind. Wie viel einfacher ist es da, solches bequem auf die drei Buchstaben CO2 zu beschränken und über Zertifikatepreise und Gewichtstonnen angeblichen Schaden und Nutzen auszuweisen und dafür von jeder Tageszeitung, Kommunen und Vereinen Lob und Preise zu erhalten, weil man mithilft, den Globus zu erretten.

Für interessierte Leser etwas Information zu den Problemen der Bauern in Indien

Bei Recherchen „fällt“ immer teils recht interessantes Material an, welches dann im Datenarchiv verschwindet. Solches einfach informativ anbei. Wer sich „durchliest“, wird feststellen, dass nirgens ein Klimawandel verantwortlich gemacht wird. Diese Zuweisung blieb einer Studienverfasserin und der sofort darüber informierenden (Des-)Informationsseite [1] der Politikberaterin für Klima und Energie vorbehalten.
Umfangreich ist jedoch der Einfluss von NGOs, welche wie bei uns überall auf der Welt zu finden sind und meinen, Regierungen vorschreiben zu dürfen, wie sie sich zu verhalten haben.
Weiterführung der Fundstelle [8]: Das Preisschild des Neoliberalismus.
.. Diese Selbsttötungen werden häufig mit der Krise in der Landwirtschaft in Verbindung gebracht, wobei Pestizide für den Bauern das naheliegendste Mittel zum Suizid sind …
… Die Daten über Selbsttötungen sind komplex und mitunter irreführend. Dies liegt nicht nur an der fehlerhaften Weise, in der sie zusammengestellt werden oder daran, wer sie zusammengestellt hat … Es ist schwierig, die Selbsttötungen von Bauern als prozentualen Anteil der Bauern insgesamt auf jährlicher Basis auszurechnen. Eine unzweideutige landesweite Suizidrate von Bauern läßt sich nur für das Jahr 2001 errechnen. Das liegt daran, daß in jenem Jahr eine Volkszählung stattfand, aus der hervorgeht, wieviele Landwirte es in jenem Jahr im ganzen Land gab. Für alle anderen Jahre muß diese Zahl eine Hochrechnung sein – wie plausibel auch immer.
Es ist wichtig, daß die Zahl von 150.000 Selbstmorden von Landwirten nur eine grobe konservative Schätzung ist. Sie ist keinesfalls akkurat oder abschließend. Da die Zahlen der Nationalen Behörde zur Dokumentation von Verbrechen (NCRB) auf örtlichen Daten basieren, bei denen große Bevölkerungsgruppen ausgeschlossen sind, gibt es ernsthafte inhärente Ungenauigkeiten. Wie Professor Nagaraj es ausdrückt: „… Das größte Problem liegt in der Definition, was ein Landwirt ist: jemand, der einen Eigentumsanspruch auf sein Land hat. Nach dieser Definition werden etwa Pächter oder ganz besonders auch die Bäuerinnen nicht erfaßt.“
… „Insgesamt,“ sagt Professor Nagaraj, „gibt es seit Mitte der 90er Jahre eine akute Krise in der Landwirtschaft. Das gilt für ganz Indien. In den ‚Großen Vier‘ und einigen anderen Staaten, kommen spezifische Faktoren hinzu. Es handelt sich um Gebiete mit hochgradig diversifizierter und kommerzialisierter Landwirtschaft. Überwiegend werden finanziell einträgliche Pflanzen angebaut. (Und in geringerem Maße grobkörnige Getreidesorten). Wassermangel ist ein allgemeines Problem – und die Schwierigkeiten im Hinblick auf Anbauflächen und Wasser haben sich in dem Maße verschlimmert, in dem staatliche Investitionen in die Landwirtschaft verschwinden. Die Anbaukosten sind in diesen Gebieten mit intensivem Anbau in die Höhe geschossen, bei einigen Kulturen um mehrere hundert Prozent. Die fehlende Regulierung dieser und anderer Aspekte der Landwirtschaft haben die Probleme verschärft. Gleichzeitig sind die Preise für die Erzeugnisse stark gefallen …
„Von Mitte der 90er Jahre an,“ so betont Professor Nagaraj, „sind die Preise und die Erträge in der Landwirtschaft dramatisch zurückgegangen. In dem Maße, in dem die Kosten stiegen – auch als die Banken keine Kredite mehr gaben – stieg auch die Verschuldung. Sogar als die Subventionen für die von Konzernen beherrschte Landwirtschaft im Westen stiegen, strichen wir die wenigen und geringfügigen Lebenshilfen und Subventionen für unsere eigenen Bauern. Das nahezu vollständige Ausbleiben von Investitionen in die Landwirtschaft bedeutet auch, daß es äußerst schwierig ist, aus dieser Falle wieder herauszukommen.“

Nun ein Hinweis zu einem Bericht der Firma Monsanto.
Monsanto: Selbstmorde bei Landwirten in Indien – Gibt es eine Verbindung zu Bt-Baumwolle? Tragische Selbstmorde haben komplexe soziökonomische Gründe
Dazu die Anmerkung: Im Bild 12 kann man sehen, wie die Hektarerträge in Indien zugenommen haben, nachdem ab dem Jahr 2002 „Monsanto“-Baumwolle angebaut wird.

Bild 12 Indien, Erträge Baumwollsamen seit 1961. Quelle: Factfish, FAOSTAT

DONNER+Doria, Ulli Kulke, 1. August 2012 (sollte man im Original vollständig lesen): [3]: Langzeitstudie: Gentechnik hilft Indiens Kleinbauern
Lange Jahre behauptete ein internationaler Umweltstar, dass die grüne Gentechnik indische Baumwollfarmer in den Ruin und in den Selbstmord treibe. Was sich längst abzeichnete, bestätigt jetzt eine Langzeitstudie: Die Behauptung ist zynischer Unfug. Das Gegenteil ist wahr
Man darf hoffen, dass Matin Qaim, renommierter Agrarökonom an der Göttinger Universität, ein Exemplar seiner jüngsten Studie an die indische Ökofeministin Vandana Shiva geschickt hat, mit besonderer Widmung. Bei allen Umweltkonferenzen, zu denen Shiva, lange Jahre einer der großen internationalen Stars der Szene, geladen war, wurde sie nicht müde, von den indischen Baumwollfarmern zu berichten, die – so behauptete sie – durch den Anbau genveränderter Pflanzen (GVO) in den Selbstmord getrieben worden seien. Die angeblich immer größere Abhängigkeit der Bauern von den Saatgutkonzernen und Banken würde sie wirtschaftlich strangulieren.
Ein gegenüber ihren Landsleuten äußerst zynisches Vorgehen, denn Shiva nutzte die seit vielen Jahrzehnten tatsächlich bestehende hohe Suizidrate der Kleinbauern in Indien kaltschnäuzig für ihre haltlose Argumentation. In den letzten Jahren hat sie ihre These nicht mehr so lautstark wie einst vertreten, denn aus Indien selbst kamen immer lautere Stimmen, die auf die Vorteile der genveränderten Baumwollsorten gerade für die ärmeren Bauern hinwiesen. Mitnichten hat ihr Gebrauch die Selbstmordrate erhöht. Die Abhängigkeit der Bauern von Kredithaien sorgt allerdings dafür, dass immer noch viele von ihnen keinen anderen Ausweg als den Freitod sehen.
Qaim und seine Kollegen haben nun in ihrer
Studie eine große Lücke geschlossen …
Bleibt abzuwarten, ob Vandana Shiva und ihre nach wie vor (besonders in den satten Industrieländern) große Verehrerschaft nun wenigstens etwas vorsichtiger umgehen mit ihren unanständigen Argumenten. Es steht zu befürchten, dass die Mär von den Bauern, die durch die GVO-Pflanzen in den Tod getrieben werden, trotz allem nicht aus der Welt zu schaffen ist. Sie passt einfach zu gut ins Weltbild.

Ein umfangreicher Artikel mit vielen interessanten Details. Sollte man vollständig im Original lesen, da durch das Kürzen wichtige Information verloren geht:
WELT SICHTEN, Malcolm Harper, 25. November 2013 (Auszüge): Tödliche Mischung Die zahlreichen Bauernselbstmorde in Indien haben vielfältige Ursachen
… Selbstmorde kommen bedauerlicherweise auf der ganzen Welt häufig vor, sind aber laut der Weltgesundheitsorganisation (WHO) in manchen Ländern stärker verbreitet als in anderen. … Für 2005 waren es in Mexiko und Brasilien 4, in Japan dagegen 22 und in Russland 32. In Deutschland, Indien und den USA waren es um die zwölf.
Innerhalb Indiens gehen die Zahlen ebenso weit auseinander. In Bihar, dem ärmsten Bundesstaat mit etwa 90 Millionen Einwohnern, gab es rund 2 Selbstmordfälle auf 100.000 Menschen, in den wohlhabenderen südindischen Staaten Andhra Pradesh und Maharashtra 14 und in Kerala mehr als 30. Bauern sind zudem stärker suizidgefährdet als andere Gruppen. So begingen in Großbritannien zwischen 1993 und 2004 stets mehr Landwirte Selbstmord als Landarbeiter oder andere abhängig Beschäftigte.

Daher stellt sich die Frage, ob die zunehmende Zahl der Selbstmorde unter Bauern in Indien tatsächlich aus dem Rahmen fällt. Daten aus einigen indischen Verwaltungsbezirken legen das nahe. …
Kommentatoren machen für diese Selbstmorde jeweils die Faktoren verantwortlich, die ihrer vorgefassten Meinung am ehesten entsprechen. … Als Ursache der Suizide wurden deshalb bestimmte Aspekte der Baumwollproduktion ausgemacht, darunter das genetisch modifizierte Saatgut. Prinz Charles etwa sprach von der „tragisch hohen Zahl an Selbstmorden unter den indischen Kleinbauern, die zum Teil durch das Versagen vieler genetisch modifizierter Sorten bedingt waren“.
Doch laut einem Gutachten des International Food Policy Research Institute (IFPRI) in Washington gab es Selbstmorde unter den Baumwollfarmern bereits vor der Einführung von genetisch verändertem Saatgut im Jahr 2002, und ihre Zahl hat seitdem nicht zugenommen. Nicht das Saatgut als solches bringt also die Bauern in Bedrängnis. Allerdings erfordert es genau wie andere hochgezüchtete Sorten oft höhere Investitionen, eine zuverlässigere Bewässerung und anspruchsvollere Anbaumethoden. Wenn die Bauern die entsprechenden Mittel nicht aufbringen können oder wenn es ihnen an Wasser oder den erforderlichen Kenntnissen fehlt, kann ihre Entscheidung für die neuen Sorten Verluste zur Folge haben.
Minderwertiges Saatgut ist ein weiteres Problem. Im Jahr 2006 machte die Gen-Baumwolle bereits an die 40 Prozent des gesamten indischen Baumwollanbaus aus. Seit der Einführung der genmodifizierten Saaten hatten die Erträge sich beinahe verdoppelt; Indien hat die USA überholt und ist nach China der zweitstärkste Baumwollproduzent der Welt geworden.
Angesichts der enormen Beliebtheit der neuen Sorten, des geringen Bildungsniveaus vieler indischer Bauern und unzureichender Schutz- und Urheberrechte ist es kein Wunder, dass massenhaft gefälschtes Saatgut auf den Markt gelangt.

Nach Schätzungen ist etwa ein Drittel der modifizierten Baumwollsamen nicht echt, und davon ist wiederum etwa ein Drittel minderwertig. Die geringeren Erträge aus solchen Saaten stehen nicht im Verhältnis zu den erhöhten Kosten für das Saatgut selbst und die übrigen Investitionen. …
Kurz: Indirekt mag die Gen-Baumwolle zu der Notlage und den Selbstmorden der Bauern beigetragen haben, aber die direkteren Ursachen sind geringe Bildung, der unverantwortliche Vertrieb der Saaten und unzureichende Kreditgewährung. Vielleicht ist die Gen-Baumwolle nicht für alle indischen Kleinbauern das Richtige, aber das Saatgut kann nicht allein für den Missbrauch verantwortlich gemacht werden, der mit ihm getrieben wird. Schlagworte wie „GM-Genozid“, das vom kalifornischen Forschungsinstitut Center for Research on Globalization geprägt wurde, täuschen über die eigentlichen Probleme hinweg.
… Die indischen Stützpreise liegen seit einigen Jahren deutlich über den Weltmarktpreisen. Indien und China haben seit 2005 ihre gesamte Jahresproduktion an Baumwolle um jeweils etwa 13 Millionen Ballen gesteigert, während die Produktion in Pakistan, den Vereinigten Staaten, Burkina Faso, Mali, Niger und Tschad etwa in demselben Umfang zurückgegangen ist. Die ausländischen Einflüsse, denen am häufigsten die Schuld an den Bauernselbstmorden in Indien gegeben wird, müssen also etwas differenzierter gesehen werden.
Fest steht, dass die Bauern, die Selbstmord begingen, überwiegend hoch verschuldet waren. In den meisten Fällen schuldeten sie das Geld zu mehr als 75 Prozent nicht offiziellen Geldinstituten, sondern privaten Geldverleihern …
… Leider besteht zudem ein direkter Zusammenhang zwischen den Selbstmorden und manchen Formen der finanziellen Unterstützung. Die indische Zentralregierung und die Regierungen der einzelnen Bundesstaaten vergeben üblicherweise sogenannte ex gratia-Zahlungen von umgerechnet etwa 2000 US-Dollar an Familien, deren Angehörige auf tragische Weise und unter öffentlicher Anteilnahme zu Tode gekommen sind. Solche Zuwendungen gehen auch an die Witwen der Selbstmörder und werden ebenfalls publik. Das spielt wohl manchmal eine gewisse Rolle, wenn sich ein Bauer schließlich für den Selbstmord entscheidet. Das geht so weit, dass Angehörige einen Suizid vortäuschen, nachdem ein Bauer eines natürlichen Todes gestorben ist. Mir wurde von einem Fall berichtet, in dem eine Witwe vergeblich versucht hatte, eine Beihilfe zu bekommen, indem sie ihrem toten Ehemann eine leere Pestizidflasche in den Mund schob.
Ende 2007 stellte die indische Landwirtschaftsbank NABARD auf Wunsch des Landwirtschaftsministers erneut ein kleines Expertengremium zusammen, das Vorschläge erarbeiten sollte, um die Zahl der Bauernselbstmorde zu verringern. Gemeinsam mit vier weiteren Fachleuten untersuchte ich bereits vorliegende Gutachten und sprach sowohl mit Frauen, deren Männer sich das Leben genommen hatten, als auch mit Vertretern der Banken, denen sie Geld schuldeten. Wir entwickelten Empfehlungen zu Finanzierung, Versicherung, Sozialfonds und Anbaumethoden.

Ein besonders attraktives populistisches Instrument ist ein Schuldenerlass für Bauernfamilien. Bereits 1989 hatte die Regierung den Bauern alle offenen Schulden erlassen, sofern sie gewissen Kriterien genügten. Das hatte allerdings schlimme und vorher nicht bedachte Folgen: Viele Bauern zahlten Kredite nicht mehr wie vereinbart zurück, und so schwand die Bereitschaft der Banken, neue Kredite zu gewähren. Unserem Gremium wurde zugesichert, dass dieser Fehler sich nicht wiederholen sollte. Doch sahen wir ein, dass das Verlangen der Öffentlichkeit nach einer spektakulären und hoffentlich weniger kontraproduktiven Intervention dieser Art nicht enttäuscht werden durfte. Deshalb empfahlen wir eine „einmalige Bereinigung“ der Bankschulden, durch die in den Bezirken mit den meisten Selbstmorden 90 Prozent der Schulden der Bauern gelöscht worden wären, 70 Prozent in den weniger betroffenen und 30 Prozent in den am geringsten betroffenen Bezirken….
Zusätzlich empfahlen wir die Einführung und den Ausbau einer wetterbezogenen Ernteversicherung, um Risiken wie Ausfälle infolge von Dürre oder Überschwemmungen zu begrenzen. Das hatte sich in Andhra Pradesh bereits bewährt. Dazu wären umfangreiche Investitionen in Wetterstationen und die dazugehörige Infrastruktur notwendig. Wir plädierten zudem dafür, dass die bereits bestehenden und erfolgreichen Programme zur Förderung nachhaltiger Landwirtschaft in breitem Umfang umgesetzt würden. Denn viele Bauern verschulden sich vor allem, weil sie in Düngemittel, Herbizide und Pestizide investieren müssen. Der ökologische Anbau macht deren Einsatz weitgehend überflüssig.
Die Verwirklichung all dieser Vorschläge hätte insgesamt etwas über 2,5 Milliarden US-Dollar gekostet, wovon der größte Teil auf die einmalige Schuldentilgung entfallen wäre. Doch obwohl unser Gutachten dem Landwirtschaftsministerium ordnungsgemäß vorgelegt worden war, wurde es dort vollständig ignoriert. Stattdessen enthielt der Haushaltsplan für Februar 2008, für den unsere Vorschläge gedacht waren, einen riesigen Schuldenerlass, der um die 15 Milliarden US-Dollar kostete. Dieser erwies sich schon bald als Fehlschlag: Die Zahl der Bauern, die ihren Zahlungen an die Banken auf dem Land nicht nachkamen, nahm dramatisch zu. Die ärmsten Bauern hatten aber nichts von dem Erlass, weil er Schulden bei privaten Geldverleihern nicht abdeckte…. Unterdessen setzt sich die Selbstmordwelle unvermindert fort.
Aus dem Englischen von Anna Latz.
Malcolm Harper ist Experte für Mikrofinanzierung und hat dazu zahlreiche Bücher verfasst. Er gehörte einem Expertengremium an, das im Auftrag der indischen Regierung Ende 2007 Vorschläge zur Verbesserung der Lage der Bauern erarbeitete.

Quellen

[1] KLIMARETTER.INFO, 11. August 2017: Klimawandel erhöht Selbstmord-Rate

[2] Agricultural & Resource Economics, University of California, Tamma A. Carleton: Crop-damaging temperatures increase suicide rates in India

[3] DONNER+Doria, 1. August 2012: Langzeitstudie: Gentechnik hilft Indiens Kleinbauern

[4] CH Tages Anzeiger: Druck soll Schweizer Bauern in den Suizid treiben

[5] CH Blick: Bauern sehen keinen Ausweg mehr Selbstmord aus Verzweiflung

[6] EIKE 30.06.2015: Ernteerträge und Klimawandel

[7] Tamma A. Carleton: Crop-damaging temperatures increase suicide rates in India, Supporting Information

[8] Counterpunch, Palagummi SAINATH: Das Preisschild des Neoliberalismus

[9] Süddeutsche Zeitung, 16. / 17. September, Seite Politik 9, Artikel : 2017: 815 000 000

[10] EIKE 09.09.2017: Immer wieder muss der Tschad-See unter dem Klimawandel leiden, oder: Warum steht in Studien der GRÜNEN häufig so viel Falsches drin?
EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
EIKE 31.07.2017: G20 Klimafakten ohne Hysterie betrachtet Teil 4 (4)
EIKE, 11.07.2017: Der dürregebeutelte Sahel wird grün – ein schlimmes Anzeichen des Klimawandels




Wie man zum Skeptiker wird – an der Universität

Gastbeitrag von Clair Masters

Die Klasse war lustlos, die Meisten spielten mit ihren Smartphones oder surften bei Facebook auf ihren Laptops. Ich saß mit meinem geöffneten Notebook vor mir, welches leer war außer dem Titel der Vorlesung oben auf der Seite. Der Professor legte eine Folie auf mit einer Graphik, die den Verlauf von CO2 und Temperatur über ein paar Millionen Jahre im Vergleich zeigte und welche wir alle inzwischen gesehen haben. Die CO2-Kurve läuft der Temperaturkurve hinterher, und jeder, der diese Graphik zum ersten Mal sieht, würde vermutlich zu der Erkenntnis kommen, dass die Temperatur die CO2-Änderungen treibt und nicht umgekehrt, falls es überhaupt irgendeinen Trend gibt. Ich wurde etwas munterer, war es doch neu für einen Professor, alternative Daten zu zeigen, und sah mich erwartungsvoll um zu den anderen Studenten in der Erwartung irgendwelcher Reaktionen – Konfusion, gerunzelte Stirnen oder irgendetwas, das ihre Überraschung zeigt für etwas, das das Gegenteil von dem ist, was uns seit der Grundschule eingetrichtert worden ist. Ich sah ein paar gähnen, leere Blicke, Leute an ihren Handys, obwohl ein lautes Mädchen, die eine religiöse Fanatikerin bzgl. globaler Erwärmung war, auf die Folie starrte, krumm auf ihrem Sitz hockte, so dass ihre Hand ihren (zweifelhaft erzogenen) Schoßhund streicheln konnte.

Außer ihr scherte sich niemand darum, und ich war mit Sicherheit die einzige, die überrascht aufsah, als unser Professor über die Graphik zu sprechen begann, als ob diese keine Rolle spielte, etwas wie „dieser Trend zeigt das Gegenteil dessen, von dem wir wissen, dass es wahr ist“, bevor er fortfuhr. Ich sah auf mein Notebook hinab – meine Freunde und meine Familie sagen mir immer wieder, dass ich meine Emotionen schlecht verbergen kann, und ich wollte meinen Professor nicht wissen lassen, dass ich verärgert war. Ich weiß nicht, warum er diese Graphik überhaupt in seiner Vorlesung gezeigt hat, aber das passiert manchmal in diesen Kursen. Zu jener Zeit schien es mir unglaublich, aber meine Professoren zeigten öfters Beweise, die das Gegenteil der Theorie vom anthropogenen Klimawandel belegen, bevor sie diese rasch mit irgendeiner kurzen Bemerkung beiseite wischten. Es spielt keine Rolle, dass es diese Daten gibt; es spielt keine Rolle, dass es in der Gemeinschaft der Klimawissenschaftler Debatten gibt – nicht hier. Schließlich ist das hier eine Universität.

Es war nicht das College, auf dem ich zum ersten Mal die „akzeptablen“ Ansichten zu Klimawandel in Frage stellte. Schon in der Mittelstufe der Schule war ich ein harter Brocken für Lehrer, welche die globale Erwärmung predigten. Es war damals im Jahre 2008 in Mode, fanatisch das Narrativ „Eisbären ertrinken!“ zu lehren nach jenen Photographien aus dem Jahr 2007, welche einen Eisbär auf einer kleinen einzelnen Scholle zeigten. Tragisch! Ein Bild wie dieses war alles, das es brauchte, um die meisten meiner Klassenkameraden feierlich nicken zu lassen, während unserer Lehrer uns etwas über unseren Kohlenstoff-Fußabdruck erzählten – darüber, wie wir zu der Misere der armen Eisbären betrugen mit unserem gefräßigen Stromverbrauch und durch unsere Eltern, welche mehr als ein Auto besitzen.

Als fanatische Tierschützerin habe ich danach Stunden damit zugebracht, alle meine zoologischen Bücher und Tier-Enzyklopädien durchzuackern und alles über Eisbären in Erfahrung zu bringen. Eine Zahl sprang mir ins Auge: 60 Meilen [ca. fast 100 km]. Eisbären schwimmen oft so weit, um von einem festen Boden zum nächsten zu gelangen. Stolz auf mich selbst wurde ich damit bei meiner Fachlehrerin vorstellig, aber statt warm empfangen zu werden, wie es öfter der Fall war, wenn ich über den Lehrstoff hinaus selbst Nachforschungen angestellt hatte, wurde ich beschimpft.

„Du hast unrecht“, sagte sie und sah überraschend ärgerlich aus, „Eisbären können nicht so weit schwimmen. Die globale Erwärmung schmilzt ihnen das Eis unter ihren Pfoten, und sie sterben aus“.

Zu jener Zeit dachte ich, ein Liebling meiner Lehrer zu sein, die gute Schülerin, und darum überraschte mich ihr Tonfall vollkommen. Ich versuchte nicht zu sagen, dass die globale Erwärmung nicht die Eisbären tötet, obwohl ich wusste, dass es so war. Meine Lehrer sagten mir das, also musste es stimmen. Ihr Leugnen hinsichtlich der Schwimmfähigkeiten der Bären war es, das mich wirklich umwarf, und zum ersten Mal sah ich mich damit konfrontiert, an einem Lehrer zu zweifeln. Wem soll ich trauen – den Büchern, die ich gelesen hatte, oder den Lehrern? Irgendetwas hat sich bei mir innerlich geändert damals, und diese Saat des Zweifels, welche die Lehrerin in mir geweckt hatte, machte mich zu dem, was ich heute bin – eine Skeptikerin. Nicht nur für Klimawandel und Co., sondern für alles! Ich habe abrupt aufgehört, alles zu glauben, was mir meine Lehrer sagten, und es war ein sehr harter Weckruf aus der realen Welt, als ich erkannte, dass Erwachsene Agenden folgen.

Dieser Gedanke wurde verstärkt, als in einer von Jugendlichen geliebten Serie von James Patterson der ursprüngliche Plot verworfen wurde und man stattdessen den Kampf gegen globale Erwärmung zum Gegenstand der Serie machte. Ich war entsetzt und angewidert, dass diese Charaktere viel eher jene (zu jenem Zeitpunkt verdammten) Eisbären schützten als gegen die verrückte wissenschaftliche Bedrohung vorzugehen. Ich erkannte das wirkliche Propaganda-Element dieser ganzen Globale-Erwärmung-Faselei. Ich begann, in kleinen Schritten zurückzuschlagen, zumeist dergestalt, dass ich Fragen stellte: „Atmen wir kein CO2 aus?“, „Wärmeres Wetter hilft einigen Tieren, oder?“. Ich war nicht beliebt bei meinen Lehrern der siebenten Klasse. Meine Freunde waren sich meiner kleinen Revolte nicht bewusst, war ich doch schon immer die Schülerin, die ihre Hand zu allem in der Klasse erhob.

Es dauerte bis zu meinem letzten Jahr auf der High School, bis ich endlich den wissenschaftlichen Hintergrund verstanden hatte, gegen die Gedanken vorzugehen, die mir aufoktroyiert wurden. Ich belegte eine hochrangige Vorlesung zum Thema Umweltwissenschaft, welche mich dazu brachte, tiefer zu schauen und in Frage zu stellen, was ich über die Art und Weise zu wissen glaubte, wie unser Klima funktioniert. Ich war gerne in dieser Vorlesung, hatte ich doch dabei eine Dozentin, welche nicht versuchte, mich zum Schweigen zu bringen. Sie erkannte mich an und ermutigte mich, wischte meine Fragen nicht einfach vom Tisch, und jedes Jahr seit meinem Abschluss der High School hielt ich via Skype einen kurzen Vortrag vor ihrem Kurs über Petroleum-Technologie, -Geologie, ein wenig Paläontologie und das Leben am College.

Ich erinnere mich deutlich an zwei besondere Momente bei jener Vorlesung, die für mich Aha-Erlebnisse waren. Da war einmal die vorgeschriebene Dokumentation Gasland. Einige darin aufgestellte Behauptungen waren jenseits des Absurden, und als die skeptische Närrin, die ich nun einmal war, unterzog ich diese Behauptungen noch während der Vorführung einem Faktencheck. Auf dem von der Schule betriebenen iPad googelte ich nach allem und jedem, das Josh Fox präsentierte und das mich kribbelig machte. Antilopen in Wyoming würden aussterben? Nicht einmal ansatzweise. Fracking-Flüssigkeit findet sich im Trinkwasser, so dass man es in Brand setzen konnte? Das war natürlich vorkommendes Methan. Zu diesem Zeitpunkt spielte ich bereits mit dem Gedanken, in einen Bereich der Geologie einzusteigen, und ich war fasziniert von der Fracking-Technologie. Wir führten in jener Vorlesung einen kurzen Versuch durch, in dem wir versuchten, Öl aus Sand zu gewinnen,, und ich hielt das für cool. Von allen Bereichen der Wissenschaft war dies mein Lieblingsfach, und nicht zu vergessen den Nervenkitzel, in solch eine schurkische Industrie involviert zu sein. Dies verhalf mir zu meinem Entschluss, mich mit der Petroleum-Technologie zu befassen.

Zum Anderen war da das Momentum, als wir uns auf alternative Energie konzentrierten einschließlich einer erschöpfenden Diskussion über mit Wasserstoff betriebene Autos. Rasch hob ich meine Hand.

„Falls wir uns Sorgen wegen des globale Erwärmung verursachenden CO2 machen, wäre es nicht viel schlimmer, wenn wir alle Autos fahren würden, bei denen Wasserdampf aus dem Auspuff kommt?“

Sie war einen Moment still und dachte nach. „Ich denke, dass du recht haben könntest, das ist eine sehr interessante Beobachtung“. Bevor sie der Zuhörerschaft erklärte, von was ich redete, wie Wasserdampf viel mehr Wärme einfängt als Kohlendioxid, hatte ich ein erhebendes Gefühl, mit dem, was ich über Klima und unsere Atmosphäre gelernt hatte, die populären „grünen“ Narrative herauszufordern. Am besten war, dass meine Lehrerin so unterstützend agierte und willens war einzuräumen, dass irgendetwas in unserem Lehrbuch nicht der vollen Wahrheit entsprach.

Im College ging es dann völlig anders zu. Es war mühsam, war ich doch jetzt umgeben von Professoren und Studenten, welche den anthropogen verursachten Klimawandel mit solcher Inbrunst vorantrieben, dass dagegen die eifrigsten Kult-Fanatiker ruhig und vernünftig schienen. Wieder und immer wieder bin ich überrascht, die Reaktionen meiner Fachkollegen auf meinen Skeptizismus zu erleben, manchmal sogar bis hin zu zornigen Reaktionen von so manchem. Ein Kerl aus der Geologie [a crunchy granola geology guy] verwickelte mich in eine Konversation über alternative Energie. Er versuchte mir klarzumachen, dass Hanf-Öl schon bald unseren Bedarf an fossilen Treibstoffen decken werde. Richtig. Irgendwie kamen wir dann auf den Landverbrauch zu sprechen, und ich äußerte eine Meinung, dass die [US-]Staaten möglicherweise mit ihren Umweltproblemen fertig werden und das Land besser nutzen als Regierungsagenturen – er zitierte irgendetwas von den Koch Brothers, und ich verabschiedete mich dann zur nächsten Vorlesung. Vielleicht eine Woche später übergab er mir einen Teil einer Notebook-Studie mit der Aufschrift „Forschung“ darauf – zumeist eine Reihe von Aufzählungen über das American Lands Council, welches er irgendwie in Verbindung brachte mit weißer Überlegenheit und Rechts-Fanatismus. Ich konnte nicht glauben, dass jemand, der ein „wissenschaftliches“ Individuum war, sich genötigt fühlte, die Schuld einer Extremistengruppe zu instrumentalisieren, und fragte mich, was das Unsinns-Geschrei der Linken „Rassisten! Sexisten! Homophobe!“ in einer Diskussion über Landverbrauch zu suchen hatte anstatt Argumente auszutauschen. Für so etwas habe ich keine Zeit – ich muss mich um mein Studium kümmern.

Immer wieder habe ich mich gefragt, ob vielleicht meine Perspektive die Falsche ist. Ich habe mich einer Selbstanalyse unterzogen betreffs der Themen, für die ich mich brennend interessiere. Das College hat meine Standpunkte herausgefordert, während es nur die Gedanken zu bestätigen scheint, welche die „Warmisten“ von sich geben. Einiges von dem, was ich früher dachte, hat sich verändert wie vieles von dem, was ich über Klima verstand (oder zu verstehen glaubte), aber mir fehlt immer noch ein solider Beweis für den primären anthropogenen Klimawandel, der nicht von einer anderen Studie widerlegt ist oder gestützt wird durch Anklagen wie jenes Geologie-Kerls, der meinen Weg kreuzte. Ich habe aufgehört, mich über die Art und Weise zu erschrecken, mit der meine Professoren gehorsam der Parteilinie folgen – hatte ich doch vor ein paar Jahren erfahren, dass zumindest hier die öffentliche Förderung abhängig ist von einem bestimmten Umfang der Akzeptanz der globalen Erwärmung. Ich bin dankbar für die Ingenieurs-Vorlesungen, weil: falls meine Geologie und Erdwissenschaften nicht ausgewogen sind durch die trockenen technischen Berechnungen des Ingenieurwesens, würde ich möglicherweise den Verstand verlieren. (Man stelle sich einfach mal vor, wie schlimm es wäre, falls ich Soziologie oder Frauen-Studien betreiben würde!). Ich bin enttäuscht über die Qualität, der an der Universität gelehrten „Wissenschaft“ – wo Theorien als Fakten präsentiert und Computermodelle als Evangelien betrachtet werden trotz ihrer infamen Unzuverlässigkeit – das ist keine wirkliche Wissenschaft.

Es ist Propaganda – genauso dogmatisch wie jede Religion.

Ich bin in meinem fünften Jahr des Ingenieur-Studiums. Dieses Jahr werde ich eine Handvoll großartiger kleiner Petroleum-Vorlesungen belegen und mein Nebenfach Geologie beenden. Natürlich ist es meine Geologie-Vorlesung, die mir Kopfschmerzen macht. Eine Vorlesung über Mineral-Ressourcen, das klingt erst einmal aufrichtig … außer natürlich, dass unser Professor es fertig brachte, diese Vorlesung zu verwandeln in eine Vorlesung zu Klimawandel/die Menschen töten alles/wir werden alle sterben. Zum Ende des Semesters war die Vorlesung sogar der sozialen Gerechtigkeit gewidmet, weil das der Grund ist, einen akademischen Grad zu erwerben. In der Rückschau hätte ich viel eher erkennen müssen, in was ich geraten war, als ich mich umschaute und viele Studenten sah entweder mit halb rasierten Köpfen oder mit Haarfarben, die in der Natur dem Aufschrei „Ich bin giftig“ gleichkamen.

Es wird ein lustiges Semester, und ich werde alle auf dem Laufenden halten.

Link: https://wattsupwiththat.com/2017/09/07/the-making-of-a-climate-skeptic-at-university/

Übersetzt von Chris Frey EIKE




An Martin Schulz, Klimaalarm: Die Branden­burgische Ministerin Diana Golze…

NAEB Vereinslogo. WEB

Im gerade verteilten Newsletter findet sich die Information zu einem offenen Brief an Martin Schulz. In diesem wird von einer langen Liste an NGOs, wohl unter Federführung eines Solarenergie Fördervereins [2], die Forderung an den Kanzlerkandidaten der SPD erhoben, die Klimaschutzziele dringend zu aktualisieren.

Solarenergie-Förderverein Deutschland e.V. (SFV):[2] Offener Brief an Martin Schulz
Sehr geehrter Herr Schulz,
in den Antworten auf die von 21 Energiewende-Organisationen am 2. Juni 2017 vorgelegten Wahlprüfsteine hat Ihre Partei angegeben, dass
bis 2050 nur ein Anteil von 80 bis 95% der Energie aus Erneuerbaren Quellen angestrebt wird. Die bestehenden Ausbaudeckel für Erneuerbare Energien (EE) werden bekräftigt. Ein Termin für den Kohleausstieg, um damit einen entsprechenden Speicherausbau anzureizen, wird nicht genannt. Das sind Positionen, die das Wirtschaftsministerium, bzw. die schwarz-rote Regierungskoalition vor Jahren festgelegt hat und weiterhin aufrecht erhält. Inzwischen hat sich aber die Welt verändert.
Wir werden konfrontiert mit Nachrichten wie
Ungewöhnliche Hitze- und Trockenheit im gesamten Mittelmeerraum.
Trinkwassernotstand in Italien. Die Wasserentnahme aus dem Reservoir Roms wird um mehr als die Hälfte reduziert.
In Griechenland Einrichtung kühlbarer Hallen für Menschen, die es in ihren Wohnungen bei über 30 Grad Nachttemperatur nicht mehr aushalten.
Waldbrände nehmen überhand. Wieviel Wasser geht für das Löschen verloren?
Welche Auswirkungen auf die Ernte sind von all dem zu erwarten?
Und, und…?
Im Alpenbereich Unwetter mit Starkregen, Erdrutschen und Todesopfern. Ganze Täler sind tageweise von der Außenwelt abgeschlossen.
Die Brandenburgische Ministerin Diana Golze wurde in ihrem Norditalien-Urlaub von einem umstürzenden Baum schwer verletzt.
Bilder, wie man sie nur aus Asien kannte, kommen jetzt aus Deutschland: Schlammlawinen, Überflutungen, Unwetter mit Todesopfern sind an der Tagesordnung.
Quote der überflutungsgefährdeten Grundstücke in Sachsen-Anhalt von 1,83% im letzten Jahr auf 2,48% erhöht. Damit fallen 16 934 Grundstücke in die höchsten ZÜRS-Gefährdungsklassen 3 und 4 (ZÜRS = Zonierungssystem für Überschwemmung, Rückstau und Starkregen). Elementarschadenversicherungen werden teurer – oder sind gar nicht mehr abzuschließen.
Hinzu kommen die Meldungen über einen riesigen Eisabbruch in der Antarktis, dessen Auswirkungen noch nicht abzusehen sind.
Wer sich nicht die Augen zuhält, muss feststellen: der Klimawandel hat ein neues Stadium erreicht! Die alten Zielsetzungen für Klimaschutz und Energiewende sind nicht mehr ausreichend! Wenn wir den Klimawandel noch beeinflussen wollen, bevor er ins Stadium rapider Selbstverstärkung eintritt, muss die Energiewende gravierend beschleunigt werden

Begründet werden die Sorgen – unter anderem:
[2] Bereits heute bringen die Auswirkungen des Klimawandels, zu denen auch die Migrationsströme – gerade auch aus Afrika – gehören, unser Gemeinwesen an den Rand dessen, was es verkraften kann. Wenn wir nicht erkennen, dass die Energiewende das Projekt Nr. 1 sein muss, wird es zu einem Chaos kommen, das weder technisch noch politisch in irgend einer Weise „beherrscht“ werden kann.

Auf diesen Schluss: Dass unsere Energiewende die Migrationsströme aus Afrika bestimmt, muss man kommen. Leider lässt sich nicht nachprüfen, ob die Vorstände der unterzeichnenden Verbände das Unterschriebene wirklich glauben. Sicher ist jedoch: Der wesentliche Teil profitiert direkt davon und ein erheblicher Teil dürfte das Thema gar nicht richtig verstanden haben.

Unterzeichnet ist dieser offene Brief von einer ganzen Liste an Interessensverbänden,
Unterzeichner: [2]
Solarenergie-Förderverein Deutschland e.V.,
Bündnis Bürgerenergie e.V.,
Deutsche Gesellschaft für Sonnenenergie e.V.,
Freunde von Prokon e.V.,
BürgerEnergieAltmark eG,
Sonnenkraft Freising e.V.,
Solarverein Goldene Meile e.V.,
VEE Sachsen e.V.,
terra-solar e.V.,
Mittelhessische Energiegenossenschaft,
Energiewende ER(H)langen e.V.,
Energiebündel Roth-Schwabach e.V.,
VERENA -Verein für erneuerbare Energien Aalen,
Sonnenernte e.V. Ketsch,
E-W-Nord, SolarLokal Kirchhorst,
IVaN e.V.,
Bürgerenergie Berlin e.G.,
Bendorfer Bürgerinitiative gegen das AKW Mülheim-Kärlich,
LaNEG e.V.,
Bürgerinitiative Hände weg vom Schwedeneck,
Bürgerinitiative Fracking freies Hessen,
Aktionsbündnis gegen die Süd-Ost-Trasse,
Bürgerinitiative Umweltschutz Uelzen,
SunOn Sonnenkraftwerke Lüneburg e.V.,
Bürgerinitiative CO2-Endlager stoppen ?
Umwelt schützen e.V.,
Bürgerinitiative gegen CO2-Endlager e.V.,
Bürgerinitiative Lebensraum Vorpommern

Quellen

[1] NAEB-Strom-Newsletter 2017/09

[2] Solarenergie-Förderverein Deutschland e.V. (SFV): SPD-Klimaschutzziele müssen aktualisiert werden Offener Brief an Martin Schulz


Nachtrag

Zu genau diesem Brief an Herrn Schulz hat Herr Lüdecke bereits die umfangreiche Darlegung: „EIKE gratuliert dem Solarenergie Förderverein SFV und 29 NGOs zu ihrem gemeinsamen Guinness-Rekord der Bescheuerten und Bekloppten“ geschrieben. Darin sind auch konkrete Darlegungen des umfangreichen Unsinns dieses Briefes enthalten.




Auswirkungen von Windtur­binen: neue umfas­sende Bewertung

[Vorbemerkung des Übersetzers: Alle folgenden Zahlenangaben und Verhältnisse beziehen sich auf die USA. Ich denke aber, dass Gleiches im Verhältnis auch für Deutschland und/oder Mitteleuropa gilt. Ende Vorbemerkung].

Es ist erstaunlich, wenngleich auch wenig überraschend, wie schnell einige Chaoten bei der Hand waren und die Schäden durch Hurrikan Harvey als Grundlage für Behauptungen heranzogen, dass Emissionen fossiler Treibstoffe eine katastrophale Klimaänderung und Wettervorgänge auslösen. Ihre angebotene Lösung ist natürlich, jene fossilen Treibstoffe zu ersetzen durch „saubere, nachhaltige, erneuerbare“ Energie.

Ich habe diese vorgebrachte Lösung immer wieder kritisiert, aus vielen Gründen. Unglücklicherweise war eine übereilte diesbezügliche numerische Berechnung von mir für eine jüngst erschienene Kolumne falsch, was meine Leser mir auch sofort mitteilten. Allerdings boten mir meine Begutachter auch viele „korrekte“ Zahlen an.

Ihre vorgebrachten Zahlen rangierten zwischen 2 Millionen bis 4, 10, 12 Millionen Turbinen; ihre Zahlen bzgl. Landverbrauch von 0,5 bis 40, 60 und sogar 247 Acres pro Turbine. Der Gesamt-Landverbrauch für alle Turbinen sollte mal die Größe von Frankreich und Texas, mal die Hälfte von Nordamerika betragen. Der Energiefachmann Cork Hayden leistete großzügigerweise analytische Hilfe.

Unter dem Strich: Hypothesen sind der Schlüssel – hinsichtlich Größe der Turbinen; Anzahl Örtlichkeit und Ausmaß guter Wind-Standorte; Möglichkeit der Errichtung von Turbinen an diesen Stellen: Kapazitätsfaktoren von Turbinen in mittlere Anzahl von Stunden mit Stromerzeugung pro Tag; Dauer und Qualität von Windenergie pro Jahr, vor allem, wenn sich Turbinen in Gebiete mit schlechten Windverhältnissen ausbreiten; und die zum Aufladen riesiger Batterien benötigte Energieerzeugung, um die Energieversorgung auch an vielen windschwachen Tagen (2, 7, 14 oder mehr) sicherzustellen, wenn die Turbinen keine Energie erzeugen.

Eine weitere Variable ist natürlich die Strommenge, welche durch Wind ersetzt werden soll. Im Jahre 2016 verbrauchte die Welt 25 Milliarden Megawattstunden (MWh) Strom, erzeugt durch fossile Treibstoffe, Wasserkraft und Kernkraftwerke. Minimale Beiträge kamen durch Biomasse, noch geringere durch Wind und Solar. Die durchschnittliche Energieerzeugung über das Jahr betrug 2,85 Millionen Megawatt (MW) oder 2,85 Terawatt (TW) – verglichen mit Null Erzeugung im Jahre 1881.

Strom macht unsere Industrien, Arbeitsplätze, Reisen, Kommunikation, Lebensstandard, Gesundheit und Sicherheit erst möglich, und die Nachfrage wird wird mit Sicherheit steigen, wenn sich immer mehr Nationen elektrifizieren und mehr Fahrzeuge von Batterien angetrieben werden.

Meine grundlegenden Annahmen sind Folgende: Windturbinen ersetzen an irgendeinem Tag in der Zukunft die heutige globale Stromerzeugung von 2,85 TW zu 100% – wobei viele Aktivisten und Politiker darauf bestehen, dass wir das tun müssen (und können). Die Turbinen haben allesamt eine Nennleistung [nameplate power] von 1,8 MW. Der mittlere Kapazitäts-Faktor geht allmählich von 33% auf 16,5% zurück, wenn die besten Windstandorte bereits belegt sind und man ungünstigere Standorte zupflastern muss.

In den USA befinden sich die besten Wind-Standorte an den Küsten von Washington State bis Kalifornien bzw. von Maine bis Georgia – aber auch im Gebiet der Großen Seen. Dort allerdings macht es die große Wassertiefe und eine starke lokale Opposition unmöglich, viele Turbinen zu installieren. Die Größe von Turbinen auf dem Festland ist begrenzt durch die Größe der Rotorblätter, welche von Lastwagen über kurvenreiche Straßen transportiert werden müssen. In den meisten Gebieten des Globus‘ ist es wohl genauso.

Weitere Annahmen: Ein Drittel des Turbinen-Outputs versorgt die Gesellschaft, zwei Drittel laden Batterien auf, welche für 48 Stunden alle 72 Stunden Energie liefern, wenn der Wind nicht weht. Und Winde arbeiten immer zugunsten dieses Schemas – er ist immer zur Stelle, wenn die Batterien leer sind, und verschwindet nie länger als zwei Tage, auch nicht während heißer Sommer und eisiger Winterkälte, wenn der Bedarf sprunghaft steigt, aber der Wind verschwindet.

Natürlich existieren die meisten dieser Annahmen nur im Reich von Feen, Zauberstaub, Grünenergie-Utopia und bei grober Vereinfachung. Sie sind dazu gedacht, wichtige Analysen auf den Weg zu bringen, ebenso wie Debatten, welchen sich Klimaalarmisten, Befürworter erneuerbarer Energie, Gesetzgeber und Politiker niemals gestellt haben.

Auf der Grundlage dieser Annahmen würde die Erzeugung von 25 Milliarden MWh 1,6 Millionen 1,8-MW-Turbinen erfordern, die alle mit voller 1,8 MW-Kapazität bei starkem Wind laufen, jeden Tag ohne Bedenken hinsichtlich Speicherung. Falls sie nur 8 Stunden am Tag laufen (33% der Kapazität), dürfen wir Strom nur dann verbrauchen, wenn er gerade verfügbar ist, und nicht, wenn wir ihn brauchen. Aber das ist schrecklich unbequem und störend.

Also wenden wir stattdessen das System von Dr. Hayden an. Wir errichten 4,8 Millionen Turbinen, die stetig acht Stunden lang laufen, ein Drittel ihres erzeugten Stromes in das Netz einspeisen und mit den anderen zwei Dritteln Batterien aufladen. Das würde 8 Stunden direkte Energie bedeuten, während der Wind weht (Kapazitäts-Faktor 33%) – und es liefert uns Energie von den Batterien während der folgenden 16 Stunden, bis der Wind wieder auffrischt. „Ich liebe Zauberei“, sagt er.

Das würde eindeutig nicht funktionieren. Wir brauchen in Wirklichkeit mindestens für 48 Stunden Speicher – und folglich drei mal so viele Turbinen unter diesem Arrangement. Aber um flexibler sein zu können und den unvorhersagbaren Windverhältnissen Rechnung zu tragen, wobei durchaus auch mal zwei windstille Tage hintereinander auftreten können, bräuchten wir 14,4 Millionen 1,8-MW-Turbinen.

Wollen wir eine noch bessere Sicherheit? Um uns gegen sieben windstille Tage zu wappnen? Nun, 50 Millionen Turbinen sollten dafür reichen.

Aber dann würden wir wirklich auf zweit- und drittklassige Windstandorte zurückgreifen müssen. Die Kapazität fällt auf 16,5% oder so. Vielleicht werden 100 Millionen Turbinen dann ausreichen. Beten wir dafür, dass eine Windstille nie länger als eine Woche dauert. Oder man schicke die Armee zu jenen unversöhnlichen, unpatriotischen Küstengemeinden, die dann mit Gewalt Turbinen installiert an ihren windigen Standorten.

Dies würde auch sicherstellen, dass die Stromerzeugung nahe unserer großen urbanen Zentren erfolgt – was kürzere Überlandleitungen und weniger Zement, Stahl, Kupfer und so weiter benötigen würde, um die Leitungen zu errichten. Es ist eine Win-Win-Situation, außer natürlich für all jene, die den Anblick der Turbinen und Leitungen ertragen müssen oder in der Nähe wohnen.

Von welcher Landfläche reden wir, wenn wir 25 Milliarden MWh jährlich global Strom erzeugen wollen? Legt man Spitzen-Windstandorte zugrunde mit 5 KW pro Acre (mittlerer Output pro Landgebiet für jede Turbinen an den windreichsten Standorten) würde man auf dem Festland etwa 570 Millionen Acres [ca. 2.280.000 km²] Land brauchen für den Betrieb an 24 Stunden pro Tag, 7 Tagen die Woche und 365 Tagen pro Jahr.

Das sind 25% der Landfläche der USA – oder 48% der Lower 48 US-Staaten. Das ist fast die gesamte Landfläche von Washington, Oregon, California, Idaho, Nevada, Montana, Wyoming, Utah und Arizona zusammen!

Man ändere die Annahmen, dann ändern sich die Zahlen. Um Strom für windstille Tage zu speichern, wird die Gesamt-Stromerzeugung (und folglich die Anzahl von Turbinen und der Landverbrauch) rasant zu steigen beginnen. Für 48 Stunden Backup verdreifache man die Energieerzeugung; das macht dann die Gesamtfläche der Lower 48 aus. Für eine ganze Woche Backup nehme man noch Kanada dazu.

Und nicht zu vergessen die Übertragungsleitungen und Batterien. Auch diese brauchen Landflächen (und Rohmaterialien).

Wie viele Batterien? Für die Speicherung von 1 GWh Strom – um eine Stadt in den USA mit 700.000 Einwohnern 48 windstille Stunden lang mit Strom zu versorgen – würde man 480.000 der neuen Tesla-100-kWh-Lithium-Ionen-Batterien benötigen. Der Backup von 2,85 TW für nur zwei windstille Tage würde 1,4 Billionen Tesla-Einheiten erfordern! Und dies auch noch unter der Voraussetzung, dass die Batterien auf- und entladen werden mit einer Effizienz von 100%.

Man stelle sich einfach mal den Landverbrauch, die Massen von Rohmaterialien, Bergbau, Herstellung und die Energie vor, die für die Herstellung all dieser Batterien erforderlich sind [darunter der massenhafte Abbau hochgiftigen Kobalts z. B. im Kongo durch Kinder, die teils kaum fünf Jahre alt sind! Siehe u. A. hier! Anm. d. Übers.]. Außerdem müssen diese Batterien alle paar Jahre erneuert werden. Wie der Energie- und Technologie-Analyst Mark Mills gesagt hat: alle derzeit in der Welt bestehenden Lithium-Batterien-Fabriken zusammen stellen nur einen Bruchteil davon her.

Ich bin absolut sicher, dass die Batterie-Hersteller der Welt nur zu glücklich sein werden, für unsere hart erarbeiteten Steuergelder und auf Kosten der Verbraucher mehr Fabriken zur Herstellung all dieser Batterien zu errichten – um uns vor einem gefährlichen Klimawandel zu bewahren, der nicht mehr von der Sonne und anderen mächtigen natürlichen Kräften gesteuert wird.

Werden wir konkret. Es ist an der Zeit aufzuhören, mit Feenstaub und Programmen erneuerbarer Energien aus Utopia zu agieren. Es ist an der Zeit, unsere Schulen und unsere Legislative zum Nachdenken zu bringen über Energie, Nachhaltigkeit, Klimawandel und alles, was unsere Arbeitsplätze, Gesundheit und Lebensstandard sichert. Es ist an der Zeit für umfassende Studien und legislative Anhörungen zu all diesen Themen – in den USA, der EU, UK und überall in der Welt! [Und doch treten sämtliche, um die Wiederwahl streitenden Parteien hier in D mit einer alternativen Ausnahme für genau das ein, was Driessen hier so eindrucksvoll an die Wand malt!! Anm. d. Übers.]

Behauptungen bzgl. Nachhaltigkeit und erneuerbare Energie wurzeln viel zu stark in Ideologie, Zauberei und Politik. Wind- und Solarstrom-Vorhersagen ignorieren die Notwendigkeit, riesige neue Metall- und Mineral-Lagerstätten zu finden und auszubeuten – und US-Landgebiete zu opfern, die jetzt noch tabu sind, wenn wir nicht alle unsere Windturbinen, Solarpaneele und Batterien importieren wollen. Sie gehen davon aus, dass Auswirkungen des Landverbrauchs einfach nicht existieren, falls es um den Hinterhof von anderen Menschen geht.

Schlimmer noch, viel zu oft wird jeder, der versucht, diese unbequemen Wahrheiten anzusprechen, niedergeschrien, ruhig gestellt und ignoriert [allem voran diesbezüglich die „Süddeutsche Zeitung“. Anm. d. Übers.]. Das muss aufhören! Es geht um zu viel, als dass man Ideologie und Feenstaub als Treiber für fundamentale Politik heranzieht.

Link: http://www.cfact.org/2017/09/04/revisiting-wind-turbine-impacts/

Übersetzt von Chris Frey EIKE