1

Was ist nun wirklich mit der Wissenschaft passiert?

Die Standardantwort auf diese Frage lautet, dass die Unsicherheiten evaluiert worden sind und peripher erscheinen gegenüber dem zentralen Punkt: wir wissen, dass es schlimm werden wird, und wir sind nur unsicher, wie schlimm es wird. Allerdings sind die Unsicherheiten, die ich hier im Sinn habe, zu fundamental für diese Erklärung, als dass man sie akzeptieren kann. Ich habe den Verdacht, das Problem besteht darin, dass Klimatologen Prophezeiungen abgeben, die nicht falsifiziert werden können mittels geeigneter Experimente. Erkenntnisse aus einem Experiment sind ein bedeutendes Mittel, um erkenntnistheoretische Unsicherheiten (das heißt Ignoranz) zu reduzieren, und es sind derartige Reduktionen, die man sich wünschen möchte, um eine Konvergenz der Meinungen zu erreichen. Aber innerhalb der Klimatologie kommt es zu einem Konsens durch Folgerungen und Disput, wobei Logik und Objektivität im Wettbewerb stehen mit Rhetorik, Ideologie, Politik und Berechnung. Die Soziologie der Wissenschaft ist bedeutend dafür, Gewissheit zu etablieren ohne dass man die Ungewissheit reduzieren muss.

Zurück zu den Grundlagen

Niemand wird in Frage stellen, dass Klimatologie eine Wissenschaft ist. Daher profitieren Klimatologen von der Glaubwürdigkeit, die jeder vernünftige Mensch in den Proklamationen der Wissenschaftler sieht. Darum scheint es so einfach zu sein, jeden als ,anti-wissenschaftlich‘ zu brandmarken, der den ,überwältigenden‘ Konsens unter den Klimatologen in Frage stellt. Schließlich – um Präsident Obama zu zitieren – „sind die Wissenschaft über alle Zweifel erhaben und die Fakten eindeutig“. Die gleiche Prämisse unzweifelhafter Integrität liegt hinter den Empfehlungen von Öko-Psychologen an der University of South West England, denen zufolge jeder, der die Wahrheit hinter Catastrophic Anthropogenic Global Warming (CAGW) in Frage stellt, als unter Geistesverwirrung leidend behandelt werden sollte (1). Außerdem, die Zeit, die man mit Diskussionen mit solchen Skeptikern verschwendet (oder ,Flat Earthers‘, wie Al Gore sie nennt), könnte zu entscheidenden Verzögerungen der Einführung notwendiger Maßnahmen führen. Derartiger Skeptizismus ist daher in jeder Einzelheit so irrational und unmoralisch wie die Leugnung des Holocaust, so dass man dagegen wirklich ein Gesetz erlassen sollte, oder? Aber bevor wir völlig darin aufgehen (buchstäblich), sollten wir uns ins Gedächtnis zurückrufen, warum wir den Wissenschaftlern so vertrauen, und wir sollten uns fragen, ob unser Verständnis für die Ursache dieses Vertrauens es rechtfertigt, hinsichtlich des vermeintlichen Konsens‘ unter Klimatologen auf der Hut zu sein.

Es ist allgemein akzeptiert, dass die prinzipielle Stärke hinter der wissenschaftlichen Methode die Objektivität ist, die daraus resultiert, dass man sich selbst strikt daran hält, nur falsifizierbare Statements abzugeben, besonders hinsichtlich praktischer Experimente. Zumindest sollte man nur Statements abgeben, welche Prophezeiungen enthalten, die mit Referenz zur Natur verifiziert werden können. Nur so sollte ein Konsens erreicht werden. Wissenschaft ist keine Demokratie – Fakten entscheiden, nicht eine wissenschaftliche Wählerschaft. Aber selbst in der reinsten aller Wissenschaften kann man gelegentlich Bereiche von Spekulation finden, die nicht offensichtlich einem genauen Experimentieren unterzogen werden können. Wenn dies passiert, ist das Aufblühen eines Disputes fast unvermeidlich. Schließlich sind auch Wissenschaftler nur Menschen. Falls jemand dieser Mischung eine Frage von vitaler Bedeutung hinzufügt, etwa wenn es um das Überleben der menschlichen Rasse geht, kann man fast dafür garantieren, dass Medien und Politik sich des Themas annehmen. Und danach sind dich Chancen einer ruhigen, sachlichen Debatte praktisch gleich Null. Was noch wichtiger ist, das Fehlen der Falsifizierbarkeit bildet den Rahmen für das erreichen eines Konsens‘ mit anderen Mitteln, was zu einer Gewissheit führt, die man nicht als Nennwert betrachten kann. In der Causa Klimatologie kommt der erste Hinweis darauf, dass der Konsens keineswegs das ist, was er zu sein scheint, aus der außerordentlichen Signifikanz. Der Konsens innerhalb der Klimatologie, so sagt man uns, spiegelt das Erreichen eines Niveaus der Gewissheit, welches in der Wissenschaft einmalig ist. Offensichtlich ist Klimatologie die einzige wissenschaftliche Disziplin in der Geschichte, bei der die Wissenschaft ,settled‘ ist!

Zugegeben, die Theorie von CO2 als einem Treibhausgas ist im Labor leicht zu bestätigen, und die Tatsache, dass es während der Industrialisierung einen signifikanten Anstieg von CO2 in der Atmosphäre gegeben hat, ist durch Messungen bestätigt. Bis hierhin ist das Narrativ, dass die Menschheit derzeit zum Klimawandel beiträgt, leicht zu akzeptieren. Aber nichtsdestotrotz ist das nicht der Punkt. Die Frage lautet, ob gegenwärtige Trends herangezogen werden können, um zu prophezeien, dass es die realistische Aussicht auf irreversible und katastrophale Umweltschäden in nicht sehr ferner Zukunft gibt [Durch Windräder und Solarpaneele jedenfalls ist diese Zukunft schon Gegenwart! Anm. d. Übers.]

Vergisst man nicht, dass eine wissenschaftliche Aussage falsifizierbar sein muss – gibt es da ein legitimes Experiment, mit dem man die spezifischen Prophezeiungen im Namen der Klimatologie falsifizieren kann? Nun, ich fürchte, die Antwort lautet nein. Das Experiment würde erfordern, einen repräsentativen Planeten zu betrachten (den Planeten Erde zum Beispiel), den man genau der Art CO2-Zunahme aussetzt, der uns Sorgen macht, und dann abzuwarten, was passiert. Ein solches ,Experiment‘ ist im Gange, aber es wurde von den Klimatologen noch nicht in Anspruch genommen. Auf der ,World Conference on the Changing Atmosphere’ im Jahre 1988 wurde es so ausgedrückt: „Die Menschheit führt ein unbeabsichtigtes, unkontrolliertes global allgegenwärtiges Experiment durch, dessen ultimative Konsequenzen nur noch von einem Atomkrieg übertroffen werden können“.

Das wolle wir mit Sicherheit nicht, aber angesichts des Fehlens eines verantwortungsvollen, beabsichtigten und kontrollierten Experiments muss man sich mit Theoretisieren zufrieden geben auf der Grundlage des Verständnisses, wie das Klimasystem der Erde agiert. Dies bedingt Feldstudien zum Erlangen von Informationen hinsichtlich gegenwärtiger und historischer Klimawandel, kombiniert mit mathematischer Modellierung, um die Bandbreite zukünftiger Möglichkeiten zu erkunden. Unglücklicherweise bietet dies unabhängig davon, wie sinnvoll dies ist, breiten Raum für Spekulation.

Erstens, man muss vorsichtig sein bei dem Versuch, die Historie der Temperaturänderungen auf der Erde zu unterscheiden, vor allem, wenn dies Interpretation und Manipulation von Proxies erfordert. Dieser Bereich ist tief in Kontroversen verstrickt, worauf ich später noch einmal zurückkommen werde, wenn wir der infamen Hockeyschläger-Graphik begegnen.

Zweitens, man muss sehr vorsichtig sein hinsichtlich der Natur der mathematischen Modelle, mittels welcher die Evolution des Klimasystems der Erde prophezeit wird – ein System, von dem man weiß, dass es offen, nicht linear, ungeheuer komplex und chaotisch ist. Das Ausmaß der Glaubwürdigkeit,welche man diesen Modellen entgegenbringen kann, hängt davon ab, wie gut sie die relevanten Faktoren erfassen, die hier im Spiel sind, und wie realistisch und akkurat derartige Faktoren parametrisiert worden sind. Außerdem beruht die Vorhersagefähigkeit selbst für ein umfassendes und akkurates Modell auf dem Ausmaß, mit dem Rauschen und die dissipativen Kräfte das Klima langfristig stabilisieren können (2). Unglücklicherweise kann es angesichts der signifikanten strukturellen und parametrischen Ungewissheit innerhalb der Modelle eine Wahnidee sein, ein gewisses Vertrauensniveau in die Hypothesen einer gut definierten Unsicherheit von der Art eines Würfels zu setzen (3):

Nichts von oben Gesagtem scheint jedoch das IPCC zu stören. Für all jene, die sich rückversichern wollen, dass der bestehende Satz von Klimamodelle valide ist, erschien im 4. IPCC-Zustandsbericht die folgende Beteuerung an prominenter Stelle:

Dieses Vertrauen stammt aus dem Fundament physikalischer Prinzipien der Modelle und aus deren Fähigkeit, beobachtete Phänomene von Klimaänderungen in Gegenwart und Vergangenheit zu reproduzieren“.

Nun ist es beruhigend zu erfahren, dass die Modelle auf allgemeinen physikalischen Prinzipien beruhen, obwohl dies ein wenig so daherkommt, als ob man sagt, dass ein Zeuge zuverlässig ist, weil er eine reale Person und nicht ein Harry-Potter-Charakter ist – das ist kaum etwas, mit dem man prahlen kann. Was die Reproduktion von Klimaänderungen in Gegenwart und Vergangenheit angeht, habe ich zwei Bedenken:

Erstens, die Tatsache, dass ein Modell die Vergangenheit reproduzieren kann, ist nur dann eindrucksvoll, falls es das einzige verfügbare Modell ist welches das kann, und da man eine Vielfalt von Modellen erstellen kann, welche zu den Aufzeichnungen mittels eines vernünftigen ,Tunings‘ passen, ist das eindeutig nicht der Fall (4). Folglich ist das Passen zu Klima-Aufzeichnungen nicht die wahre Metrik für Vertrauen in ein Modell. Stattdessen kommt Vertrauen aus der Plausibilität und der Legitimität der Parameter-Werte, auf welche die Modellierer zurückgegriffen haben, um das Passen zu erreichen. Sogar das IPCC höchstselbst räumt ein: „Falls ein Modell frisiert worden ist, um gut zu einer tatsächlich beobachteten Quantität zu passen, dann kann die Übereinstimmung mit der Beobachtung nicht herangezogen werden, um Vertrauen gegenüber diesem Modell zu haben“. Ist also diese Strategie allgemeine Praxis? Wer weiß das schon? Die Modellierer veröffentliche ihre Tuning-Verfahren nicht.

Zweitens ist es mit Sicherheit ein logischer Trugschluss zu folgern, dass ein Modell, welches gut in der ,Nachhersage‘ ist, notwendigerweise auch zuverlässig ist zum Zwecke des Ausgebens von Prophezeiungen. Zum Beispiel könnte ein Modell, welches unrichtig die Auswirkungen Wasserdampf und Wolken-Rückkopplung abbildet, diese Schwäche nicht zeigen, bis die Auswirkungen signifikant werden.

Das letzte Wort hierzu soll ein Statement sein, welches tief vergraben ist in den Details des 4. IPCC-Zustandsberichtes: „Was sagt die Genauigkeit einer Klimamodell-Simulation des Klimas in Vergangenheit und Gegenwart über die Genauigkeit seiner Projektionen von Klimawandel? Diese Frage anzusprechen steht gerade erst am Anfang…“. Es stellt sich also heraus, dass IPCC schon vertrauensvoll hinsichtlich seiner Modelle war, obwohl die entscheidende Frage ,gerade erst am Anfang steht, angesprochen zu werden‘. Übersehe ich hier etwas?

Aber jenseits aller meiner Bedenken steht der Kernpunkt, den ich deutlich machen möchte, dass nämlich die Verwendung eines mathematischen Modells für eine Prophezeiung ein ärmlicher Ersatz ist für die Durchführung eines Experimentes. Klimatologen mögen jeden Lauf eines Klimamodells als ein ,mathematisches Experiment‘ betrachten, aber wenn sie das tun, scheinen sie sich selbst zu betrügen. In jeder anderen wissenschaftlichen Disziplin wäre ein derartiges Verhalten als ,hypothetisieren‘ bezeichnet werden. Es ist kein Experiment, welches die Fakten der Natur etabliert (wie es bei einem echten Experiment der Fall wäre), sondern es ermöglicht Klimatologen einfach, den Charakter ihrer Spekulationen besser zu verstehen.

Keinen Spielraum für Zweifel

Bislang läuft alles, was ich zur Erklärung der Koexistenz von Ungewissheit und Sicherheit im Bereich Klimatologie gesagt habe, auf einen irgendwie halb fundierten Verdacht hinaus, dass die betroffenen Wissenschaftler der professionellen Fehlbeurteilung schuldig sind; dass sie dem verfügbaren wissenschaftlichen Arsenal zu viel Vertrauen entgegen bringen. Allerdings sollte man nicht die Tatsache aus dem Auge verlieren, dass Klimatologie schwerstens politisiert ist und dass Ideologien ebenso wie wissenschaftliches Verstehen auf dem Spiel stehen. Es sind diese Umstände, welche die Debatte korrumpieren können. Falls also Beweise auftauchen, die belegen, dass die Unsicherheiten absichtlich heruntergespielt worden sind, kann man durchaus argumentieren, dass eine solche Korruption erfolgt ist. Ich stütze dieses Argument auf die folgenden beiden Beispiele:

Das erste Beispiel ist der Vorwurf, dass das IPCC sich einer grob vereinfachenden Darstellung der Wissenschaft schuldig gemacht hat, und dass die in den Executive Summaries vorgebrachte Sicherheit nicht die Unsicherheit reflektiert, auf welche die zu Rate gezogenen Wissenschaftler hingewiesen hatten. Dieser Verdacht erhob sich bereits bei der Veröffentlichung des 1. IPCC-Berichtes im Jahre 1990. Während eine Arbeitsgruppe eingesetzt worden ist, das Gremium bzgl. der Unsicherheiten zu beraten, tauchten diese in der Executive Summary gar nicht erst auf. Beispielsweise erschien das folgende Statement in dem Bericht der Arbeitsgruppe: „Eine globale Erwärmung größeren Ausmaßes gab es mindestens einmal seit dem Ende der letzten Eiszeit ohne jede merkliche Zunahme von Treibhausgasen. Weil wir die Gründe für dieser Erwärmungs-Ereignisse in der Vergangenheit nicht verstehen, ist es noch nicht möglich, einen bestimmten Anteil der jüngsten, geringeren Erwärmung einer Zunahme von Treibhausgasen zuzuordnen“.

Trotz dieser Vorbehalte war die Executive Summary des Berichtes eindeutig hinsichtlich seiner Schlussfolgerungen und riet dazu, dass weil die Beweise für potentielle Schäden durch AGW so stark waren, „sofortige Reduktionen von Emissionen durch menschliche Aktivitäten erforderlich sind, und zwar um über 60%, um die Konzentrationen auf dem gegenwärtigen Niveau zu stabilisieren“. Auch sagte die Executive Summary nichts hinsichtlich der Grobheit der ersten mathematischen Modelle, die als Grundlage für die Klimawandel-Prophezeiungen bemüht worden waren.

Ohne dass ich jetzt darüber theoretisieren will, warum es zu einem solchen Herunterspielen der Unsicherheiten gekommen ist, spricht die Tatsache, dass dies überhaupt möglich war, Bände über das Vertrauen, das man dem Konsens gegenüber haben kann in der Form, wie es das IPCC zu verbreiten trachtete. Das IPCC hat seitdem eine ganze Reihe von Berichten veröffentlicht, aber die Vorwürfe bzgl. falscher Angaben zur Gewissheit wollten nicht verstummen. Zum Beispiel wurden viele Abschnitte im 2. Zustandsbericht des IPCC, in welchen vor den Unsicherheiten gewarnt worden ist, offensichtlich entfernt, nachdem man die Begutachtung für beendet gehalten hatte. Hierzu bemerkte Prof. Frederick Seitz: „Aber dieser Report ist nicht das, was er zu sein scheint – es ist nicht die Version, welche von den auf der Titelseite gelisteten beitragenden Wissenschaftlern geschrieben worden war. Während meiner über 60-jährigen Mitgliedschaft in der amerikanischen wissenschaftlichen Gemeinschaft, einschließlich meiner Funktion als Präsident sowohl der National Academy of Sciences als auch American Physical Society habe ich niemals eine schlimmere Korruption des Begutachtungsprozesses erlebt als bei den Vorkommnissen, welche zu diesem IPCC-Bericht führten“ (5).

Für mein zweites Beispiel der Vortäuschung einer nicht vorhandenen Gewissheit möchte ich die berüchtigte Hockeyschläger-Graphik heranziehen. Sie wurde erzeugt von einem Team unter Leitung von Dr. Michael Mann und im 3. IPCC-Zustandsbericht kolportiert, um die Causa voranzutreiben. Die Graphik zeigt eine unspektakuläre Abkühlung der Temperatur während des vorigen Milleniums, welche mit einem dramatischen Anstieg endete, der zusammenfiel mit dem Beginn der Industrialisierung. Als solche war es eine immens signifikante Graphik vertrieb sie doch die unwillkommenen Erwärmungen in vorindustrieller Zeit, welche im 1. Zustandsbericht angesprochen worden waren. Im besonderen war die Mittelalterliche Warmzeit auf einmal völlig verschwunden. Mit diesem Hockeyschläger zur Hand brauchte das IPCC nicht mehr die Unsicherheit im Inneren seiner Berichte zu vergraben, bewies doch die Graphik, dass die Unsicherheit einfach nicht existierte. Sie zeigt, dass die gegenwärtigen Temperaturen beispiellos sind und dass es keinen Beweis für eine Erwärmung in vorindustrieller Zeit gibt, zumindest nicht im globalen Maßstab. Der Hockeyschläger war der schlagende Beweis, welcher diew AGW-Theorie bestätigte, und damit war die Wissenschaft ,settled‘. Oder doch nicht?

Irgendwie war es überraschend, dass niemand im Bereich Klimatologie sich veranlasst sah zu versuchen, eine Rekonstruktion der Analyse durchzuführen, welche von Mann et al. durchgeführt worden ist, es schien kein Thema zu sein. Stattdessen blieb es einem halb im Ruhestand befindlichen Bergbau-Berater vorbehalten, Steve McIntyre, ein solches Audit durchzuführen – und die Ergebnisse waren verheerend. Ich möchte mich in diesem Beitrag nicht zu Details hierzu verlieren, dazu ist anderswo viel zu lesen. Um meine Bedenken zu rechtfertigen, muss ich mich nicht unbedingt auf eine Seite der Debatte schlagen; es ist ausreichend zu bemerken, dass es diese Debatte gibt. Wenn man aber erst einmal die statistischen Betrügereien erkennt, welche dem Hockeyschläger zugrunde liegen, ist es nichtsdestotrotz schwierig, nicht zu der Schlussfolgerung zu kommen, dass die Daten gnadenlos zur Bestätigung eines Glaubens vergewaltigt worden waren. Aus der Analyse entstand Gewissheit, aber nur auf Kosten der Integrität. Angesichts der gewaltigen Unterstützung und Publicity, welche das IPCC der Studie ursprünglich verliehen hatte, müssten die nachfolgenden Enthüllungen und ultimative Widerlegung eigentlich größte Empörung hervorrufen. Oder zumindest sollte man das annehmen.

Natürlich nehme ich hier die Position der Skeptiker ein. Da gibt es diejenigen, die auf Studien aus jüngerer Zeit verweisen, wie etwa das PAGES 2K-Konsortium, die eine unabhängige Bestätigung des Hockeyschlägers darstellen. Also war am Ende vielleicht Dr. Manns statistische List gar nicht notwendig, um über die korrekte Antwort zu stolpern. Die Schwierigkeit für mich, dieses Argument zu akzeptieren, besteht darin, dass es die Variation eines Themas zu sein scheint: Man nehme viele Proxydaten, drehe sie durch die Mangel mittels Manipulation und statistischer Analysen so lange, bis sie tot sind, aber dennoch die gewünschte Antwort zeigen; und man hoffe, dass niemand die Unsicherheiten und falschen Hypothesen bemerkt, die im Detail stecken. Schon jetzt müssen die PAGES 2K-Ergebnisse aktualisiert werden angesichts der Kritik (6) und der Variabilität niedriger Frequenz in der Temperatur-Rekonstruktion, welche mit jeder Änderung prominenter hervortreten. Je mehr die Paläo-Klimatologen sich bemühen, die Mittelalterliche Warmzeit los zu werden, desto mehr scheinen sie die Unsicherheiten hervorzuheben zu versuchen, eine zuverlässige globale Temperaturreihe zu erstellen aus Zusammenstellungen lokalisierter Proxy-Messungen.

Die echte Ironie hinter all dem ist, dass die politische Bedeutung des Hockeyschlägers immer weit größer war als dessen wissenschaftliche Relevanz. Die AGW-Hypothese wird durch die Existenz der Mittelalterlichen Warmzeit nicht falsifiziert. In der politisierten Arena, in welchem Klimatologie durchgeführt wird, war jedoch die Versuchung groß für das IPCC zu behaupten, dass die Wissenschaft ,settled‘ sei und als Konsequenz ein Pferd aufzuzäumen, welches den Drogentest nicht bestanden hat. Das wäre schon schlimm genug, aber die Intensität und zeitliche Dauer, mit der der Hockeyschläger verteidigt wurde und wird, enthüllt eine sogar noch besorglichere Eigenschaft. Selbst in Bereichen, wo eine Falsifizierung besonders leicht möglich ist, scheint es innerhalb der Klimatologie eine Kultur zu geben, die darauf abzielt, in dieser Hinsicht frustriert zu werden. An jeden, der bezweifelt, dass all dies es erforderlich macht, den Enthüllungen von Klimagate mehr Aufmerksamkeit zu schenken: Die illegale Löschung von E-Mails, welche Gegenstand einer Anforderung im Rahmen des Informationsfreiheits-Gesetzes sind, bildet eine Konspiration, die Herausgeber wissenschaftlicher Veröffentlichungen einschüchtert, die den IPCC-Begutachtungsprozess korrumpiert, die Daten zensiert, welche nicht die zentralen Botschaft stützen. Es gibt permanente Bemühungen zu verhindern, dass Daten der öffentlichen Überprüfung zugänglich gemacht werden sowie eklatante Falschinterpretationen der Daten, um eine gewünschte politische Auswirkung zu erhalten. Und doch ist all dies danach als nichts weiter vom Tisch gewischt worden als der ,robuste‘ Dialog, den man zwischen ehrlichen und fähigen Wissenschaftlern erwarten kann, die ihrer täglichen Routine nachgehen!

Jedoch bedurfte es Klimagate nicht für die Enthüllung, dass die Klimatologie von einer hässlichen Kultur von Einschüchterung, Verzerrung und Zensur umgeben ist, gibt es doch Viele in dem Bereich, die Folgendes aussagen können: Entzug der IPCC-Mitgliedschaft für all jene, die Kontrarians zu sein scheinen; Zurückweisung von Einzelbeiträgen aus fadenscheinigen Gründen; Entzug von Forschungsförderung oder die Androhung desselben; Vorwürfe, dass eine bestimmte Finanzierungsquelle die wissenschaftliche und persönliche Integrität eines Einzelnen unterminiert; Vorwürfe von Inkompetenz und Dummheit; und Verunglimpfung mittels abfälliger Bezeichnungen wie ;Leugner‘ oder ,Wissenschafts-Söldner‘. Viele Beobachter können behaupten, dass derartige Taktiken notwendig sind, um einen legitimen wissenschaftlichen Konsens zu verteidigen, welcher Angriffen ausgesetzt ist seitens einer Armee von Zweiflern mit üblen Absichten, obwohl ich es vorziehe zu sagen, dass ein solches Verhalten wenig dazu beiträgt, die gegenwärtige Krise der Wissenschaft zu mildern (7).

Es ist vielleicht nur fair zu erwähnen, dass einige der Gewissheits-Apostel wie Dr. Mann gleichermaßen gekränkt sind durch den Tonfall der Debatte, und dass sie sich gerne selbst als die wirklichen Helden präsentieren, als Wächter der Wahrheit, umgeben von rasenden und fanatischen Neinsagern. Ich wage zu sagen, dass Dr. Mann Missbrauch erlitten hat, aber der Gedanke, dass er ein Licht ist in einer Wildnis aggressiver Ignoranz ist etwas schwierig zu akzeptieren, wenn er auch behauptet, dass alle richtig denkenden Wissenschaftler ihm zustimmen. Alles, was ich sagen kann ist, dass es eine Menge falsch denkender Wissenschaftler da draußen geben muss.

Aber genug der Schlammschlacht. Wenn es darum geht, könnte das wirkliche Problem der Klimatologie nichts zu tun haben mit Möchtegern-Verschwörungen. Das Problem kann das Ausmaß sein, mit dem der Konsens einem direkten Auswahleffekt geschuldet ist. Es ist eine unbestrittene Tatsache, dass Regierungen auf der ganzen Welt von Anfang an stark in Forschungen der AGW-Hypothese investiert haben, oftmals unter Ausschluss potentieller Alternativen. Ich stelle hier nicht deren Motivation in Frage; die ist unwichtig. Alles was zählt ist, dass falls Forschungsförderung strikt begrenzt ist auf das Voranbringen eines Interesses an einer Vermutung in einem bestimmten Gebiet, man nicht überrascht sein darf, wenn die wissenschaftliche Gemeinschaft, die jemand als Berater installiert hat, mit Einstimmigkeit zu sprechen anfängt.

Es gibt keinen Grund, hier eine Verschwörung zu vermuten. Ich kann ziemlich gut akzeptieren, dass Wissenschaftler ernste und ehrliche Sorgen bekommen angesichts der extremen Möglichkeiten von AGW, und es gibt die Chance, dass sie recht haben. Allerdings kann es genauso gut sein, dass sie nur deswegen so im Vordergrund stehen, weil sie jene Klimatologen, die alternative Standpunkte vertreten, entweder zum Mitmachen bei ihnen nötigen oder sie aus dem Spiel drängen – die Tage des selbstlos forschenden Gentleman-Wissenschaftlers, der an seiner Studie schuftet, sind längst vorbei. Es ist daher denkbar, dass der Konsens, anstatt das Ergebnis von Umdenken im Verlauf der Debatte zu sein, stattdessen aus einer Form soziologischer natürlicher Selektion resultiert.

Man könnte versucht sein, diesen Gedanken als abstrus zurückweisen. Sicher ist es höchst unwahrscheinlich, dass eine ganze Gemeinschaft von Wissenschaftlern unbekümmert signifikante Untersuchungslinien ignorieren. Nun, es mag unwahrscheinlich aussehen, wäre da nicht die Tatsache, dass genau das die ganze Zeit im Gange ist. Alles, was man braucht, ist die richtige Mischung aus Überzeugung, sozialer Druck und die Unfähigkeit, mittels Experimenten etwas zu falsifizieren. Man nehme beispielsweise eine wissenschaftliche Disziplin, von der jedermann glaubt, dass sie ein Ausbund wissenschaftlicher Integrität ist – die Physik hoch energetischer Partikel.

String Wars

Ende der siebziger und Anfang der achtziger Jahre begannen theoretische Physiker, sich Gedanken zu machen, welche nicht nur in unmittelbarer, sondern auch weitester Zukunft nicht falsifizierbar sind. Diese Gedanken wurden unter dem Begriff String-Theorie zusammengefasst, um bald darauf von einem supersymmetrischen Äquivalent ersetzt zu werden, nämlich der Superstring-Theorie. Der Grundgedanke ist, dass Elementarteilchen, einschließlich der Ladung tragenden [force-carrying] Partikel der Quantenfeld-Theorie, keine Punktobjekte sind , sondern stattdessen Manifestationen der Vibration offener Strings oder Energie-Loops [?]. Jeder Vibrations-Zustand ist messbar als ein Partikel einer gegebenen fundamentalen Art. Das Problem bei der String-Theorie ist jedoch, dass die Strings so klein sind (in der Größenordnung der so genannten Planck-Länge von 10-35 m), dass die Energie zur Erkundung derartig kleiner Details in der Natur buchstäblich astronomisch ist – man bräuchte einen Teilchen-Beschleuniger, der so stark ist, dass er die Größe einer mittleren Galaxie haben müsste. Daher wurde vermutet, dass die Theorie bislang dabei versagt hat, auch nur eine einzige Vorhersage zu machen, die in einem Labor überprüfbar ist.

Dieses Problem hat eine Anzahl Beobachter dazu gebracht, in Frage zu stellen, ob die String-Theorie tatsächlich überhaupt eine Wissenschaft ist. Zum Beispiel hat Peter Woit in seinem Buch mit dem Titel ,Not Even Wrong‘ [etwa: Nicht einmal falsch] das Fehlen der Falsifizierbarkeit der String-Theorie beklagt: „Es ist eine niederschmetternde Tatsache, dass es absolut keinen Beweis irgendeiner Art gibt für diese komplexe und unattraktive Theorie“. Nichtsdestotrotz hat dies nicht verhindert, dass die Theorie von Anfang an in den Ruhmeshallen dominierte, zum Verdruss all jener, welche alternative Gedanken zur grundlegenden Struktur der Natur einbringen wollten. Das Problem: wenn eine Lehrmeinung erst einmal von denen übernommen wird, welche in der Lage sind, die zukünftige Richtung der Forschung zu diktieren, ist es sehr schwierig, diese Lehrmeinung zu überwinden. Zu Beginn war der Enthusiasmus für die String-Theorie verständlich, weil sie offenbar sehr vielversprechend war (8). Hat sich jedoch eine Theorie erst einmal eingenistet, kann der Enthusiasmus für sie genauso gut erklärt werden mit dem Wunsch, den Ruf und die Lebensweise derjenigen Individuen und Organisationen zu schützen, die so viel in die Entwicklung dieser Theorie investiert haben. Ein weniger zynisches Gefühl beschreibt der mathematische Physiker Roger Penrose in seinem Buch ,The Road to Reality‘ mit den Worten: „Der oftmals wilde Wettbewerb … führt zu Mitläufereffekten, wobei die Forscher fürchten zurückzubleiben, falls sie nicht mitmachen“.

Es ist heutzutage in Mode zu schreien „Verschwörungs-Theoretiker!“, wenn jemand die Legitimität der herrschenden Glaubensrichtung in Frage stellt. Allerdings braucht man nicht Zuflucht zu Täuschung zu nehmen, um die Dominanz der String-Theorie zu erklären. Eine solche Dominanz ist ein sich entwickelndes Phänomen, welches man erwarten sollte unter der Voraussetzung, dass die Dekane der Fakultäten natürlich all jene um sie herum fördern, welche ihre eigenen theoretischen Neigungen teilen. Und angesichts des involvierten Drucks ist es unwahrscheinlich, dass angehende Wissenschaftler das Fehlen irgendwelcher Integrität hinter ihrem gewählten Studienfach sehen. Nichtsdestotrotz bleibt die Tatsache bestehen, dass viele Universitäten an einem Punkt angekommen sind, an dem es extrem schwierig ist, Forschungsgelder zu bekommen für die Erforschung irgendeiner anderen Theorie außer der String-Theorie. (9).

Als Nicht-Experten in einer bestimmten wissenschaftlichen Disziplin kann der Rest von uns sich nur auf einen wissenschaftlichen Konsens verlassen, um zu bestimmen, wo möglicherweise die Wahrheit liegt. In unserem Beispiel, falls jemand eine Umfrage unter unter theoretischen Teilchen-Physikern durchführen und sie fragen würde, welche der miteinander konkurrierenden Theorien der vielversprechendste Kandidat als Theorie für Alles ist, würde das Ergebnis der Umfrage unweigerlich zugunsten der String-Theorie ausfallen. Allerdings reflektiert dies lediglich die Vorherrschaft von String-Theoretikern innerhalb dieses Bereiches.

Natürlich können wir auch den Praktikern beim Diskutieren zuhören und entscheiden, wer das schlagende Argument vorbringt. Unglücklicherweise jedoch kann man Argumente nur mit anderen Mitteln zusammentragen als mit der Referenz zu unwiderlegbaren Fakten. Angesichts des Fehlens überzeugender experimenteller Beweise beginnen derartige Diskussionen oftmals mit besten Absichten hinsichtlich von Werten wie mathematischer Eleganz, bevor das Ganze in die Art von miesem Spiel degeneriert, das Akademiker anscheinend auszeichnet. Und wehe denjenigen, welche es wagen, die Integrität des betreffenden Forschungsbereiches in Frage zu stellen. In seinem Buch ,The Trouble With Physics: The Rise of String Theory, the Fall of Science and What Comes Next’ beschreibt der theoretische Physiker Lee Smolin einen leidenschaftlichen Aufruf zu einer frischen und ehrlichen Bewertung des State of Affaires innerhalb der theoretischen Teilchen-Physik. Dafür erhielt er die folgende Beurteilung von Luboš Motl (10):

…Die Konzentrierung irrationaler Statements und anti-wissenschaftlicher Gefühle hat meine Erwartungen übertroffen…

Antiwissenschaftlich? Wo habe ich das schon einmal gehört? Es scheint eine seltsame, einer Erklärung bedürfende Tatsache zu sein, dass jedem, der sich für die Rückbesinnung auf wissenschaftliche Prinzipien einsetzt, schließlich der Vorwurf gemacht wird, er sei antiwissenschaftlich. Zumindest, soweit ich das sehe, ist noch niemandem der Vorwurf gemacht worden, ein ,String-Leugner‘ zu sein. Aber selbst ohne das ist die Debatte hitzig genug, um den Terminus ,String Wars‘ aufzuwerfen.

Ich sollte darauf hinweisen, dass selbst jene, die hinsichtlich des Zustandes der theoretischen Physik am meisten besorgt sind, nicht fordern, die String-Theorie zu verwerfen. Vielmehr lenken sie einfach Aufmerksamkeit auf die Probleme der experimentellen Verifikation und warnen, dass diese Ergebnisse in einem Freiraum der Spekulation führen, der nicht ganz gesund ist. Hinsichtlich des Überlebens von Theorien, wenn es keine natürliche Selektion mittels Experimente gibt, wird oftmals die Selektion mit soziologischen Mitteln an die Stelle treten. Die Folge davon ist, dass Konsens nicht länger erreicht wird durch Reduktion epistemischer Unsicherheit, sondern durch eine Verengung des Blickwinkels.

Vorsicht vor dem Bias

Klimatologen, die hinsichtlich düsterer AGW-Prophezeiungen übereinstimmen, sind also nicht mehr (oder weniger) fehlgeleitet oder unaufrichtig als die Horden theoretischer Teilchen-Physiker, welche die String-Theorie vorantreiben und erforschen. Auch hier wollen wir ehrlich sein, wenn man es isoliert betrachtet, ist etwas dran an dem AGW-Argument, trotz der zentralen Rolle von Prophezeiungen, welche nicht innerhalb des erforderlichen Zeitrahmens falsifiziert werden können. Allerdings würde man sich sehr viel wohler fühlen, wenn man das als Nominalwert [face value] akzeptiert, falls man nicht den Verdacht hegt, dass die Gelegenheit zur Entwicklung von Gegenargumenten durch nicht wissenschaftliche Mittel vereitelt worden wäre. Es ist sehr beunruhigend, dass das AGW-Argument künstlich gestärkt worden sein könnte durch Bestätigungs-Verzerrung [confirmation bias]. Können wir unter diesen Umständen sicher sein, dass wir nicht unsere eigene Ignoranz ignorieren?

Außerdem gab es keine andere wissenschaftliche Kontroverse, die so viel politische Einmischung über sich ergehen lassen musste oder der auch nur annähernd so viel Medienaufmerksamkeit zuteil wurde als es bei der Klimatologie der Fall ist. Ich sage ,über sich ergehen lassen musste‘, weil trotz eines erbärmlichen Fehlens von Qualifikationen dafür es niemanden in der Politik oder im Medienbereich zu geben scheint, der einem nicht mit Sicherheit sagen kann, welche Seite der Debatte recht hat: Alle düsteren Warnungen vor AGW sind die Wahrheit, und jedermann der dies bezweifelt, ist ein Lümmel. Da man von allen Bürgern fordert, die Wissenschaftler zu unterstützen (die wirklichen Wissenschaftler), sind wir doch alle glücklich, dass wir die Medien und Politiker haben, welche uns durch die Feinheiten der Debatte führen. Wir können nicht hoffen, zwei zuverlässigere und vertrauenswürdige Sektoren der Gesellschaft zu haben, die uns über die Stärke des Konsens‘ aufklären und genau beschreiben, wer die Spinner, Amateure oder verlogenen Skeptiker sind.

Und natürlich sei Gott Dank für das Internet. Der kleine Teil davon, der sich nicht der Pornographie verschrieben hat, scheint dominiert zu sein durch vermeintlich unwiderlegbare Argumente für die eine oder andere Seite der ,CAGW-wird-uns-töten‘-Debatte. Für jemanden mit einem offenen Geist, der die Wahrheit zu finden versucht, ist es zu naheliegend, verzweifelt aufzugeben. Und für den Rest von uns, wir bilden unsere Ansichten auf der Grundlage emotionaler Impulse und bringen den Rest unserer Leben damit zu, uns in Post-Hoc-Rationalisierung zu üben und nach den Informationen zu schauen, welche den von uns gewählten Bias bestätigen. Im Falle globale Erwärmung ist es unglücklicherweise so, dass Individuen aller Glaubensrichtungen immer in der Lage sein werden, die Ermutigung zu finden, nach der sie suchen.

Wenn die Einsätze steigen

Ich habe hier argumentiert, dass es in der CAGW-Kontroverse kaum etwas gibt, das man nicht auch anderswo innerhalb der Wissenschaft findet, wenn erst einmal der feste experimentelle Griff gelockert ist. Sowie dies der Fall ist, brechen bittere Debatten aus zwischen den beiden Seiten der gegensätzlichen Positionen. Trotzdem entwickelt sich ein Konsens, aber der Konsens ist von fragwürdigem Wert, weil es gute Gründe gibt für den Verdacht, dass Auswahleffekte signifikant sind. Individuen, welche den Konsens in Frage stellen, werden als antiwissenschaftlich gebrandmarkt, selbst wenn deren wissenschaftliche Leistungen über alle Zweifel erhaben sind. Wissenschaftler fühlen sich angegriffen, obwohl sie sich selbst deutlich helfen würden, sorgfältiger zu sein bei der Vermeidung unfalsifizierbarer Spekulationen.

Es gibt natürlich Unterschiede zwischen Physik und Klimatologie. Zum Beispiel wird die Lage in der Klimatologie verschlimmert durch ein politisch motiviertes Leugnen der Unsicherheiten und einem Fehlen von Überzeugung gegenüber Offenheit und Reproduzierbarkeit von Ergebnissen. Auch die Einsätze sind viel höher, und da liegt es in der Natur der Sache, dass wir alle eingeladen werden, an der Teegesellschaft teilzunehmen. Allerdings fühle ich mich genau wie bei der Super-Symmetrie-String-Theorie nicht qualifiziert, als Schiedsrichter zu fungieren. Alles, was ich sagen kann ist, dass es so zu sein scheint, als ob Argumente bestehen bleiben, weil alle Seiten so hoch motiviert und keine Experimente zur Beilegung verfügbar sind. Unter diesen Umständen hätte ich gedacht, ein offener Geist sei eine vernünftige Haltung, die ein Laie einnehmen kann. Unglücklicherweise steht die Toleranz von Skeptizismus nicht mehr auf der Tagesordnung, und jeder, der wissenschaftliche Autorität in Frage stellt, wird als unvernünftig angesehen. Die wirkliche Verletzung wissenschaftlicher Prinzipien ist jedoch, dass Wissenschaft ,settled‘ sein kann, ohne dass man darauf warten muss, dass Prophezeiungen eintreffen.

Ursprünglich umgingen Politiker das Problem der fehlenden Falsifizierungs-Möglichkeit, indem sie das Vorsorgeprinzip auf den Schild hoben, wobei die Plausibilität eines Gedankens ausreicht, ihn so zu behandeln, als ob es sich um eine bestätigte Tatsache handelt. In der Klimatologie war also nicht nur die Falsifizierung von Gedanken technisch schwierig, es wurde nicht einmal für notwendig erachtet. Aber dies war eine offenkundige politische Haltung: Eine Entscheidung zu verschieben, bis alle Unsicherheiten beseitigt sind, enthält ein existentielles Risiko, und darum ist es politisch weise, die Entscheidung jetzt zu fällen. Nichtsdestotrotz ist das Vorsorgeprinzip für seine sich selbst zerstörende Logik berüchtigt. Wenn der Preis für eine Maßnahme potentiell katastrophal ist (was durchaus sein kann, wenn man sich die von den CAGW-Befürwortern geforderten drastischen Aktionen vor Augen führt), dann kann das Vorsorgeprinzip auch herangezogen werden, um gegen derartige Maßnahmen vorzugehen. Unsicherheit schneidet beide Wege, und vielleicht ist dies der Grund, warum die Leugnung von Unsicherheit das Vorsorgeprinzip in den Köpfen vieler Menschen usurpiert zu haben scheint als bevorzugte Politik.

Mark Twain hat besser als die meisten Anderen verstanden, wie einfach es ist, von Vermutungen hinweg getragen zu werden, wenn Beweise selten sind, aber ich bezweifle, dass selbst er voll erkannt hatte, wie einfach derartige Vermutungen auf mysteriöse Weise zu Wahrheiten werden können, falls die Einsätze steigen. Man braucht keine Tricks, um dies zu erreichen, obwohl es überraschend ist, zu was sich einige Befürworter hinreißen lassen um sicherzustellen, dass die ,rechtschaffene‘ Seite der Argumentation gewinnt. Falls man mich fragt, ich würde die Unsicherheiten jedoch akzeptieren und das gefürchtete Vorsorgeprinzip aktivieren. Obwohl alles andere als ideal ist dies eine bessere Option als das Herunterspielen von Unsicherheiten bis zu einem Ausmaß, dass ein offener Geist hinsichtlich eines fragwürdigen Konsens‘ als ein Zeichen krimineller Dummheit angesehen wird. Schließlich ist Skeptizismus der Kompass für wissenschaftliche Geister. Also frage ich noch einmal: Was ist mit der Wissenschaft passiert?

Der Autor John Ridgway ist Absolvent der Physik, der bis vor Kurzem in UK als Software-Experte und als Analyst für das Transportwesen gearbeitet hat. Er ist kein Klimawissenschaftler und nicht Mitglied des IPCC, fühlt sich aber als Repräsentant der vielen gebildeten und rationalen Zuschauer, die glauben, dass das hysterische Geschrei gegen Laien-Skeptizismus sowohl unberechtigt als auch kontraproduktiv ist.

Anmerkungen:

1.Siehe http://www.spiked-online.com/newsite/article/6320#.WWu5mGeWzZ4

2. Für weitere Informationen siehe Storch, Hans von; Zwiers, Francis (1999). Statistical Analysis in Climate Research. Cambridge University Press. ISBN 0 521 45071 3.

3. Ich sollte erklären, dass Unsicherheit nach Art eines Würfels aus Zufalls-Fluktuation resultiert. Sie reflektiert die Variabilität der realen Welt und kontrastiert als solche mit der epistemischen Unsicherheit (unsere Wissenslücken) und ontologischer Unsicherheit (Unsere Wissenslücken hinsichtlich unserer Wissenslücken).

4. Diejenigen, die in Frage stellen, dass das Frisieren von Klimamodellen im Nachhinein allgemeine Praxis ist, sollten schauen bei Hourdin Frédéric, et al (2017). The Art and Science of Climate Model Tuning. American Meteorological Society, Journals Online.

5. Viel wurde aus der Tatsache gemacht, dass das IPCC erfolgreich gegen den Artikel in der Wasington Post geklagt hat, in welcher dieses Zitat erschienen war. Die Grundlage der Klage war, dass im Artikel nicht erwähnt worden war, dass Seitz kein Klimatologe war, kein Mitglied des IPCC, auf der Lohnliste einer Ölgesellschaft stand und dass zuvor ihm jemand Senilität vorgeworfen hatte. Weil sie keinen Ad-Hominem-Angriff auf ihren Interviewpartner geführt hatte, hat die Washington Post die journalistische Ausgeglichenheit fehlen lassen, welche vom IPCC verlangt wird! Noch relevanter ist, dass das IPCC auch erfolgreich geltend gemacht hat, dass die Änderungen keine Korruption ihres Begutachtungsprozesses darstellen. Damit wird natürlich stillschweigend zugegeben, dass solche Änderungen vorgenommen worden waren.

6. Siehe Steve McIntyre auf seiner Website Climate Audit.

7. Anders als die Fähigkeit zur Falsifizierung steht die Reproduzierbarkeit von Ergebnissen als prinzipielle Erfordernis des wissenschaftlichen Verfahrens. In dieser Hinsicht scheitern viele wissenschaftliche Disziplinen derzeit grandios; darum die Krise. Die meisten, wenn nicht alle Erklärungen hierfür sind auf Klimatologie anwendbar. Bei dieser Gelegenheit habe ich als mein Hauptthema Falsifizierbarkeit gewählt anstatt Reproduzierbarkeit der Ergebnisse. Vielleicht beim nächsten Mal…

8. In particular, superstring theory equations predict the existence of a spin-2 boson that has all of the properties expected of the force-carrying particle posited by a quantum field theoretic description of gravity (namely, the graviton). This prediction paves the way for an understanding of gravity that is unified with the so called Standard Model of particle physics. [Man sehe mir nach, dass ich das nicht übersetze! Anm. d. Übers.]

9. Weitere Informationen: Woit, Peter (2006). Not Even Wrong: The Failure of String Theory and the Search for Unity in Physical Law. Basic Books. Ch. 16. ISBN 0-465-09275-6.

10. Motl, Luboš (2004).Lee Smolin: The Trouble with Physics”: a review on The Reference Frame.

Link: https://wattsupwiththat.com/2017/08/10/so-what-happened-to-the-science/

Übersetzt von Chris Frey EIKE




Die Arbeitsplatz-Illusion von der Energiewende

 Als „System-Medium“ macht die FAZ die Merkel’sche Energiewende samt Klimaschutzwahn stets brav mit. Aber gelegentlich finden sich in dem Blatt dazu auch lichte Momente. Zwar bleiben Zweifel am Glauben oder gar der blasphemische Unglaube, das Klima vor Erwärmen schützen zu können, nach wie vor ausgespart, doch liest man dort zuweilen, was der Schwindel teilweise kostet und dass der menschenverursachte CO2-Ausstoß in Deutschland trotz aller Aufwendungen nahezu unverändert bleibt. Einen dieser lichten Momente hat die FAZ den Lesern neulich in ihrem Wirtschaftsteil beschert und dem Ökonomen Manuel Frondel eine ganze Seite eingeräumt, um vorzuführen, dass die vielen zusätzlichen Arbeitsplätze der abenteuerlichen Stromerzeugungspolitik mittels Wind, Sonne und Pflanzenmasse eine Illusion sind. Das zu tun, ist notwendig und für Ökonomen geradezu verpflichtend, denn in Deutschland pflegt die Energiewende-Lobby und die ihr hörige politische Führung Energiewende und Klimaschutz von jeher als „Job-Motor“ anzupreisen. Noch im Juni 2017 hat das Bundesministerium für Wirtschaft in einem Newsletter  die „erneuerbaren“ Energien als „Jobmotor“ bezeichnet. Auch das Wort „Job-Wunder“ hat man in diesem Zusammenhang schon vernommen.

 

Was schlechte und gute Ökonomen unterscheidet

„Was man sieht und was man nicht sieht“, war ein Essay überschrieben, den 1848 der französische Ökonom Frédéric Bastiat verfasst hat. Als einer der Klassiker seiner Zunft unterschied er zwischen schlechten und guten Ökonomen. Die schlechten nähmen nur das offenkundig Sichtbare von Maßnahmen wahr, aber nie – wie die guten – deren (zunächst) verborgenen Wirkungen. Zu den schlechten Ökonomen gehören meist auch die Politiker und die übrigen Menschen. Darum ist schlechte Politik mit ökonomischen Fehlschlüssen und ungewollten wirtschaftlichen Folgewirkungen so populär.

Was eine ehrliche Beschäftigungsbilanz ausmacht

Zu den in diesem Sinn guten Ökonomen kann man also auch Manuel Frondel*) zählen. Er nämlich legt dar, warum die Subventionierung der Stromerzeugung mit Wind, Sonnenlicht und „Biogas“  (alternative oder „erneuerbare“ Energien) als Arbeitsplatzargument ebenso wenig taugt wie einst die subventionierte deutsche Steinkohle.  Eine ehrliche Beschäftigungsbilanz dürfe nicht nur die durch Subventionen erkauften  n e u e n  Arbeitsplätze ins Blickfeld rücken, sondern auch die Subventionsfolgen auf die  b i s h e r i g e n  Arbeitsplätze und  a n d e r e  Wirtschaftsbereiche.

Die Arbeitsplätze, die man sieht

Was man zunächst sieht, sind die Arbeitsplätze, die durch die alternative Stromerzeugung entstehen: Windkraftanlagen sind zu bauen, ebenso Fotovoltaik- und Biogasanlagen. Die Teile dafür müssen produziert und zugeliefert, sie müssen montiert und die fertigen Anlagen gewartet werden. Die Investitionen dafür benötigen eine Finanzierung und Kreditverträge. Das verschafft zusätzliche Beschäftigung in Banken und Anwaltskanzleien. Subventionierung muss gesetzlich geregelt und überwacht werden, und es sind – wie stets bei staatlicher Intervention – immer mehr Folgeregulierungen nötig, was zu noch mehr Arbeitsplätzen in der behördlichen Bürokratie führt und zu zusätzlicher Freude in Anwaltskanzleien.

Die Arbeitsplätze, die man zu sehen vermeidet

Was man nicht gleich sieht (oder vielleicht auch zu sehen vermeiden will), sind jene Arbeitsplätze, die als Folge der Subventionierung verloren gehen. Das sind zuerst jene in der bisherigen, der herkömmlichen Stromerzeugung mit Kohle, Erdgas und Kernkraft. Die staatliche Intervention führt dazu, dass diese konventionellen Kraftwerke nur zeitweise Strom liefern dürfen und daher unwirtschaftlich werden oder – wie Kernkraftwerke – ganz verschwinden sollen. Später soll es selbst Braunkohlekraftwerke nicht mehr geben dürfen. Frondel schreibt: „Daher ist seit Jahren bei den großen Stromversorgern ein deutlicher Rückgang der Beschäftigung um Tausende von Stellen zu verzeichnen. Negative Beschäftigungswirkungen sind darüber hinaus in den der konventionellen Stromerzeugung vorgelagerten Sektoren wie dem konventionellen Kraftwerksbau zu erwarten. Die so verlorenen Arbeitsplätze müssen den im Erneuerbaren-Sektor entstandenen Stellen gegenübergestellt werden, wenn eine ehrliche Bilanz gezogen werden soll.“

Wenn eine ehrliche Arbeitsplatz-Bilanz gezogen werden soll

Ferner, so Frondel, sei auch jene fiktive Zahl an Arbeitsplätzen zu berücksichtigen, die hypothetisch geschaffen worden wären, wenn es die Subventionierung der alternativen Stromerzeugung nicht geben würde, und dieser fiktive Wert sei von der Zahl der tatsächlich entstandenen Stellen in der alternativen Stromherstellung abzuziehen. Dadurch, dass diese nachteiligen Wirkungen unberücksichtigt blieben, würden sie die wahren Folgen für die ökonomische Wohlfahrt einer Gesellschaft verschleiern. Nur die mit dem Alternativstrom geschaffenen und vorhergesagten Arbeitsplätze herauszustellen, zeichne in vieler Hinsicht ein verzerrtes Bild. Damit gäbe man nur die Brutto- und nicht die Nettobeschäftigungseffekte wieder. Die verlorenen Arbeitsplätze müssten den in der subventionierten Stromerzeugung entstandenen Stellen gegenübergestellt werden, wenn eine ehrliche Bilanz gezogen werden solle. In diesem Zusammenhang hält Frondel zwei Aspekte für besonders wichtig:

Investitionen, die wegen höherer Strompreise unterbleiben

„Erstens: Mit Ausnahme der von der EEG-Umlage weitgehend verschonten rund 2500 energieintensiven Betriebe fallen auch die Investitionen der industriellen Stromverbraucher infolge höherer Strompreise um Milliarden Euro geringer aus als ohne Subventionierung der alternativen Energietechnologien.“

Der addierte Kaufkraftverlust und seine Milliarden-Folgen

„Zweitens: Der Kaufkraftverlust der privaten Verbraucher infolge höherer Strompreise addiert sich über die jahrzehntelange Förderdauer hinweg auf dreistellige Milliardenbeträge – auch wenn sich die Belastung eines einzelnen Haushalts vergleichsweise gering ausnimmt. Nach langjährigen RWI-Erhebungen für das Bundeswirtschaftsministerium verbraucht ein Drei-Personen-Haushalt im Durchschnitt jährlich rund 4000 Kilowattstunden. Das macht bei der derzeitigen EEG-Umlage von 6,88 Cent pro Kilowattstunde rund 330 Euro pro Jahr (inklusive Mehrwertsteuer).“

Was den Stromverbrauchern an zusätzlichen Milliarden abgeknöpft wird

Frondel rechnet vor: Seit die Subventionierung über das Erneuerbare-Energien-Gesetz im Jahr 2000 eingeführt worden sei, hätten die Stromverbraucher mehr als 150 Milliarden Euro mit ihren Stromrechnungen bezahlt. Da die EEG-Vergütungen noch bis zu zwei Jahrzehnte lang gesetzlich festgeschrieben seien, ergäben sich, grob überschlagen, weitere Subventionskosten von 400 Milliarden Euro. Dabei geht er davon aus, dass die EEG-Subventionen von durchschnittlich 20 Milliarden Euro im Jahr über die nächsten zwanzig Jahre hinweg weiterlaufen.

Was die Verbraucher für Strom mehr bezahlen müssen, fehlt ihnen zum Ausgeben woanders

Dadurch, dass die staatlich nach oben getriebenen Strompreise den privaten Verbrauchern Kaufkraft entziehen, entstehen negative Arbeitsplatzeffekte zu Lasten anderer Wirtschaftszweige: Was die Verbraucher für Strom mehr ausgeben müssen, fehlt ihnen für den Kauf anderer Dinge. Und den davon nachteilig betroffenen Unternehmen entziehen sie sonst mögliche Einnahmen und damit Kapital für Investitionen, was ebenfalls auf negative Arbeitsplatzeffekte hinausläuft. Zu Arbeitsplatzverlusten kommt es wegen der hohen Subventionierung also auch außerhalb der Stromerzeugung.

Die stets vergessenen Opportunitätskosten

Darüber hinaus würden bei der Subventionierung von Alternativstrom, wie Frondel kritisiert, deren „Opportunitätskosten“ vergessen. Das sind Kosten, die aus dem entgangene Nutzen von Investitionen  resultieren und wegen dieser Subventionierung  nicht getätigt werden, aber eventuell profitabler sind als die Investitionen in den Alternativstrom. So müsse zum Beispiel für alle seit 2000 in Deutschland mit realen Nettokosten von mehr als 110 Milliarden Euro installierten Solaranlagen „die Frage gestellt werden, ob diese gewaltige Summe nicht besser hätte investiert werden können. Dazu zählen beispielsweise Ausgaben für Bildung oder für Forschung und Entwicklung von Energiespeichertechnologien, für welche wesentlich mehr Geld zur Verfügung gestanden hätte, wenn auf die starke Förderung der Photovoltaik verzichtet worden wäre“.

Investitionen in Bildung und Forschung bringen mehr Arbeitsplätze als Subventionen

Frondel abschließend: „Die Frage, was eine Nation dafür aufgeben muss, also die Frage nach der Verwendung substantieller Mittel für alternative Zwecke, wird von der Politik selten gestellt. Dies ist umso bedauerlicher, als zu erwarten ist, dass Investitionen in Bildung und Forschung die Wohlfahrt und Beschäftigung eines Landes langfristig wesentlich stärker steigern als die flächendeckende Verbreitung noch längst nicht ausgereifter alternativer Technologien, die aufgrund von Effizienz- und Kostennachteilen auch zum jetzigen Zeitpunkt noch immer nicht wettbewerbsfähig sind.“

Eine Frage, die sich die Politiker stellen müssten, aber zu stellen vermeiden

Frondel mahnt, bei allen ökologischen Vorteilen, die das Subventionieren von Alternativstrom durch das Verdrängen fossiler Stromerzeugung und das damit einhergehende Verringern negativer externer Umwelteffekte bringe, müssten sich Politik, Befürworter und Verbraucher die Frage stellen, welchen Preis sie dafür bezahlen – und welchen sie zu zahlen bereit sind. Ja, das müssten sie. Aber Politiker und Befürworter (Subventionsprofiteure) wollen diese Fragen nicht stellen, und die Masse der Verbraucher stellt sie noch nicht, weil sie desinformiert sind und der Schaden für sie bisher nicht spürbar genug ist.

Die Energiewende-Kosten sind sinnlos rausgeschmissenes Geld

Zu bestreiten ist, dass der Alternativstrom überhaupt ökologische Vorteile hat. Frondel sieht sie offenkundig im Verdrängen der Stromerzeugung aus fossilen Brennstoffen (Kohle, Erdgas, Erdöl), also im Einsparen von anthropogenem CO2 aus (vorgeblichen) Klimaschutzgründen. Warum sich das Klima mit diesem Einsparen gar nicht schützen lässt, ist die letztlich entscheidende Frage. Diese Frage müsste sich Frondel selbst stellen. Da dieses CO2 auf das Klima, wie vielfach plausibel belegt, nahezu keinen Einfluss hat, sind das Subventionieren und die Kosten des Alternativstroms sinnlos rausgeschmissenes Geld.

Der ganze FAZ-Beitrag von Frondel hier.

__________________________________________________________________________

*) Manuel Frondel ist Professor für Energieökonomik und angewandte Ökonometrie.Näheres über ihn hier.

PS.  Darüber, wie EEG und Energiewende Arbeitsplätze vernichten und dass dieser Zusammenhang unterdrückt wird, weil es (klima)politisch nicht opportun ist, habe ich anhand von Beispielen schon am 14. November 2013 etwas geschrieben (hier).

Zum Argument, der Alternativstrom schaffe zahlreiche neue Arbeitsplätze hat der Wirtschaftswissenschaftler Carl Christian von Weizsäcker schon 2008 knapp und kühl befunden: „Das Argument halte ich für Unsinn. Damit könnte man sagen: je ineffizienter eine Technik ist, desto mehr Arbeitsplätze schafft sie. Denn eine ineffiziente Technologie benötigt pro Output-Einheit mehr Arbeitskräfte als eine effizientere Technologie. Unser Wohlstand beruht darauf, dass seit Jahrhunderten ineffiziente Technologien im Wettbewerb mit effizienteren Technologien ausgemerzt wurden. Nun zu sagen, dass Technologien, die nur durch die enorm überteuerte Einspeisevergütung existieren, wettbewerbsfähige Arbeitsplätze schaffen, ist volkswirtschaftlich unsinnig. Das lehrt auch die Geschichte: Unsere heutige Volkswirtschaft ist etwa 40mal produktiver als vor zweihundert Jahren. Das heißt aber nicht, dass wir heute nur 1/40 der Zahl der damaligen Arbeitsplätze haben. Daraus folgt, dass das Argument, ineffiziente Technologien würden Arbeitsplätze schaffen, nicht stimmen kann.“  (Im Interview mit Welt Online  am 8. Dezember 2008. Das ganze Interview hier).

Dort hat Weizsäcker auch dies geäußert: „Ich halte die ganze Politik der Erneuerbaren Energiequellen für schlecht durchdacht. Aber das ist natürlich eine Lobby-Geschichte. Die Art und Weise, wie Energien am Haushalt vorbei gefördert werden, führt dazu, dass sich bestimmte Interessengruppen durchsetzen und für ihre Klientel elegant absahnen können. Der Staat missbraucht die Tatsache, dass der Konsument auf das Stromnetz angewiesen ist, um dem Bürger allerhand Lasten aufzulegen. Das nennt man Steuer. Steuern werden immer da erhoben, wo der Mensch nicht ausweichen kann.“

Zur Frage, ob es zwischen dem einstigen Kohlepfennig und der EEG-Einspeisevergütung Parallelen gebe, weil das Bundesverfassungsgericht 1994 den Kohlepfennig für verfassungswidrig erklärt habe, meinte Weizsäcker unter anderem: „Kohlepfennig und EEG-Einspeisevergütung sind wirtschaftlich genau das Gleiche.“ Daher seien Verfassungsklagen auch gegen diese Vergütung versucht worden, „doch hat das Bundesverfassungsgericht die Klage nicht einmal angenommen. Das ist erstaunlich, denn sowohl beim Kohlepfennig damals als auch bei der Einspeisevergütung heute handelt es sich um eine Sonderabgabe, letztlich eine Steuer, unter Umgehung unseres Haushaltsrechtes. Vermutlich war die Klage schlecht vorbereitet oder die Kläger nicht seriös genug“.

Zur Frage „Warum gibt es keine seriösen Kläger?“ lautet Weizsäckers Antwort: „Das EEG ist inzwischen gut verankert. Sehr viele Gruppen profitieren davon. Die Grünen sind sowieso dafür, die Bauern auch. Die Zustimmung reicht von konservativ bis links, vom Wähler in Freiburg bis zum Wähler im Kaiserstuhl. Die Energiewirtschaft ist in der Defensive; sie wird von links angeschossen, weil sie Kernkraftwerke betreibt, von der anderen Seite, weil die Strompreise zu hoch seien. Zudem haben sie von der Einspeisevergütung unmittelbar keinen Schaden; sie leiten den teuren Strom nur weiter und lassen die Stromkunden zahlen. Inzwischen haben sie die Erneuerbaren auch als Markt entdeckt, auf dem sich, gesetzlich garantiert, gutes Geld verdienen lässt.“

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Autoindustrie am Gängelband der Politik – Planwirtschaft läßt grüßen

Daß man nur ein weiteres überschaubares Lösegeld an die Umverteilungspolitiker bezahlen muß und Massenenteignungen der Kunden durch Fahrverbote nochmal abgewendet werden konnten, feiern sie schon als Erfolg.

Nach der faktenfreien Panik, mit der zuletzt Atomausstieg und „Energiewende“ inszeniert und übers Knie gebrochen wurden, offenbart die geschürte Hysterie um Feinstaub und Diesel­emissionen ein weiteres Mal den bedenklichen Geisteszustand der tonangebenden Kräfte in einem Land, das immer noch zu den führenden Industrienationen der Welt zählt.

Der „Diesel-Skandal“ ist ein Phantomproblem

Die Zutaten sind skrupellose Öko-Lobbyisten und bornierte Sektierer in Politik und Medien, die bedenkenlos den industriellen Kern demontieren; eine opportunistische Regierungspartei, die vom Fürsprecher ökonomischer Vernunft und unternehmerischer Freiheit zum Handlanger ideologiegetriebener Wirtschaftshasser und Technikfeinde geworden ist; hasenfüßige Fachleute und Konzernlenker, die sich in ihrer Subventionsmentalität weiter an die Politik klammern und vor dem grün-linken Zeitgeist einen Kotau nach dem anderen vollführen, statt seinen Zumutungen energisch und rational zu widersprechen.

Der „Diesel-Skandal“ ist ein Produkt dieser Konstellation. Nüchtern betrachtet ist er ein Phantomproblem: Die Luft in Deutschland ist rein wie nie zuvor in einem Industrieland, die Autoabgase schadstoffärmer denn je, allein die vor allem bei Dieselaggregaten anfallenden Stickoxid-Emissionen sind im letzten Vierteljahrhundert um 70 Prozent gesunken.Trotz aller Erfolge mißbrauchen Lobbyisten mit Öko-Etikett und die von ihnen getriebene Politik ihre gewachsene Macht, um die Autoindustrie mit immer schärferen Grenzwerten zu treiben, die längst jedes vernünftige Maß hinter sich gelassen haben. Die zulässige Stickoxid-Belastung im Straßenverkehr ist inzwischen zwanzigmal niedriger als am Arbeitsplatz.

Die Autos, die die Kunden kaufen wollen und mit denen die Industrie Geld verdienen kann, können diese Anforderungen objektiv kaum erfüllen. Die Hersteller haben sich trotzdem auf das Spiel eingelassen und das Nicht-Machbare versprochen. Mit dem Hintergedanken, sich mit Tricksereien aus der Affäre zu ziehen, und in der Hoffnung, die Politik werde sie schon decken, um die Kuh nicht zu schlachten, an der die wichtigste Wertschöpfungskette im Lande hängt.

Auf dem Weg in die automobile Planwirtschaft

Diese Strategie ist an der Gnadenlosigkeit der Öko-Lobbyisten und Grün-Ideologen und an der Unterwürfigkeit der Politik gegenüber ihrer medialen Deutungsmacht grandios gescheitert. Denn bei der Panikmache mit absurden Grenzwerten und aus fiktiven Annahmen errechneten Horrorstatistiken über „Feinstaub“- und „Dieseltote“, die in letzter Konsequenz jedes Fahrzeug zur mörderischen Dreckschleuder stempeln, geht es längst nicht mehr um vorgeschobene hehre Ziele wie Luftreinhaltung und öffentliche Gesundheit.

Mit der massiven Kampagne gegen den Diesel­antrieb ist Deutschland auf Siebenmeilenstiefeln auf dem Weg in die automobile Planwirtschaft. Nicht nur ein vermeintlich „umweltschädlicher“ Antrieb soll verdrängt und aus dem Verkehr gezogen werden, die individuelle Mobilität und damit ein wesentliches Stück Bürgerfreiheit selbst steht zur Disposition. Die Bürger sollen umerzogen und gezwungen werden, bestimmte Fahrzeuge zu kaufen und andere nicht, und die Hersteller sollen ebenfalls ans Gängelband gelegt werden und ihr Angebot an ideologischen und politischen Vorgaben ausrichten.

Dem gelernten „DDR“-Bürger mag das seltsam bekannt vorkommen. Der „Trabant“ der grünen Planwirtschaft ist das Elektroauto. Unter marktwirtschaftlichen Bedingungen bleibt es ein Prestigespielzeug für Wohlhabende, das noch dazu von der Allgemeinheit zwangssubventioniert werden muß. In Flexibilität, Reichweite und individueller Bewegungsfreiheit ist der E-Antrieb dem Verbrennungsmotor unterlegen und wird es auf absehbare Zeit auch bleiben.

China ist kein Vorbild

Man mag den Furor belächeln, mit dem von Lehrern, Politologen und Studienabbrechern dominierte Grünen-Parteitage Totalverbote für Verbrennungsmotoren fordern oder der Sozialpädagoge Cem Özdemir der Autoindustrie erklären will, wie das Auto der Zukunft aussehen soll, und Bundeskanzlerin Merkel noch vor kurzem das Planziel von einer Million Elektroautos in ein paar Jahren ausgegeben hat.

Der rasante Vormarsch des Ungeists der sozialistischen Planwirtschaft in Politik und Öffentlichkeit sollte indes ebenso entschiedenen Widerspruch wecken wie die Begeisterung, mit der die Propagandisten der Elektromobilität die kommunistische Einparteiendiktatur China als Vorbild preisen. Peking geht es um handfeste wirtschaftliche Interessen: Ein Drittel der Wertschöpfung beim Bau eines Elektroautos findet in der Akkuproduktion statt. Und da hat das Reich der Mitte gegenüber den europäischen Motorenherstellern die Nase vorn.

Wie der Autoantrieb der Zukunft aussehen könnte, wird nicht in Politbüros und staatlichen Planungskommissionen entschieden, sondern im von dirigistischen Bevormundern möglichst ungehinderten freien Spiel von Markt und Forschergeist. Kaiser Wilhelm II. glaubte noch, die Zukunft gehöre dem Pferd; er war aber klug genug, nicht alles andere verbieten zu wollen. Planwirtschaft bedeutet schlechtere Versorgung zu höheren Preisen, das können die Nachwendedeutschen gerade an der „Energiewende“ lernen. Diesem Fehlgriff auch noch eine verordnete „Mobilitätswende“ folgen zu lassen, könnte Deutschland das industrielle Rückgrat brechen.

Dieser Beitrag erschien zuerst bei Junge Freiheit hier




Die ökologische Korrektheit hat offenbar sehr kurze Beine

In dem betreffenden Artikel wird eine Karte der Nitratbelastung in Deutschland gezeigt, die diese Aussagen beweisen soll (aus Gründen des Copyrights muss hier auf den SZ-Link verwiesen werden). Das Thema Nitratbelastung des Grundwassers ist nicht neu und kocht immer wieder einmal hoch. Unter der Überschrift „Nitrat und die Folgen der Massentierhaltung“ stellte der WDR bereits am 18.November 2015 die existenzielle Frage, „Günstiges Fleisch oder günstiges Wasser?“, Zitat:

Nitrat belastet unser Wasser, Schuld daran ist, so die Experten, vor allem die Massentierhaltung. Viele Tiere produzieren viel Gülle und dadurch kommen viele Schadstoffe ins Wasser…“

Und damit ist eindeutig die Massentierhaltung als Schuldiger für eine vorgeblich steigende Nitratbelastung des Grundwassers in Deutschland identifiziert. Die EU-Vertretung in Deutschland meldete dann am 28. April 2016, Zitat mit Hervorhebungen:

Die Europäische Kommission verklagt Deutschland wegen der anhaltenden Verunreinigung der deutschen Gewässer durch Nitrat vor dem Gerichtshof der EU. Das hat sie heute (Donnerstag) bekanntgegeben. Trotz der weiter hohen Nitratbelastung hat Deutschland keine strengeren Gegenmaßnahmen ergriffen. Dazu ist das Land laut geltendem EU-Recht jedoch verpflichtet. Die von der Bundesrepublik zuletzt im Jahr 2012 übermittelten Zahlen sowie mehrere Berichte deutscher Behörden aus jüngster Zeit zeigen eine wachsende Nitratverunreinigung des Grundwassers und der Oberflächengewässer, einschließlich der Ostsee.“

Also, dieses Verfahren der EU-Kommission gegen Deutschland basiert offenbar auf denjenigen Daten, die Deutschland nach der EU-Nitratrichtlinie selber an die EU gemeldet hatte.

Wie kann es nun aber sein, dass in Deutschland die Verunreinigung von Grund- und Oberflächenwasser mit Nitraten plötzlich wieder zunehmen soll?

Das Problem von landwirtschaftlichen Nitrateinträgen in Grund- und Oberflächenwässer ist doch schon seit mehr als 3 Jahrzehnten bekannt. Nach einer Übergangsphase von etwa einem Jahrzehnt schien das Nitratproblem der Landwirtschaft dann ab Anfang 2000 auf dem Wege zu einer wasserwirtschaftlich befriedigenden Lösung zu sein, zumal die moderne Großlandwirtschaft mit Luftbildanalysen und GPS-gesteuerten Maschinen inzwischen die Düngerzufuhr sehr genau nach dem örtlichen Bedarf zu steuern vermag. Insbesondere der Nitrateintrag in Oberflächengewässer wurde damals durch die Einrichtung von speziellen Gewässerschutzzonen nachhaltig reduziert.

Es fragt sich also, warum sich die Nitratproblematik in Deutschland trotz frühzeitig eingeleiteter Gegenmaßnahmen nun seit geraumer Zeit wieder zunehmend verschärfen soll.

Das Deutsche Maiskomitee e. V. , stellt zu dieser Problematik einige sehr interessante Grafiken bereit (wegen Copyright hier ebenfalls nicht dargestellt). Dort wird sofort deutlich, dass sich Massentierhaltung und Maisanbau in Deutschland auf dieselben Regionen konzentrieren. Beim Statistischen Bundesamt findet man dann die nachfolgenden Daten über den Maisanbau auf landwirtschaftlichen Flächen:

Anbaufläche (1 000 ha) 2010 2012 2013 2014 2015

Silomais / Grünmais 1 828,9 2 038,0 2 003,2 2 092,6 2 100,4

Bundesweit hat sich also allein zwischen den Jahren 2010 und 2015 der Maisanbau um fast 15 Prozent ausgeweitet. Die Anbaufläche für Energiepflanzen hat sich in dieser Zeit aber lediglich um insgesamt etwa ca. 3 Prozent erhöht, sodass es hier zu einer massiven Verdrängung anderer Feldfrüchte durch den Mais gekommen sein muss. Nun könnte man sagen, dass die Ausweitung des Maisanbaus eben auf der Futterbeschaffung für die Massentierhaltung beruht. An dieser Stelle hilft uns wiederum das Deutsche Maiskomitee weiter, Zitat:

Ende 2016 sind in Deutschland 9.004 Anlagen in Betrieb. Durch die Zunahme der Biogasanlagen, (vor allem in reinen Ackerbauregionen) steigt der Flächenbedarf deutlich an. Während 2006 noch knapp 160.000 Hektar Mais für die Biogaserzeugung angebaut wurden, waren es im Jahr 2008 knapp 300.000 Hektar Mais und im Jahr 2016 ca. 1.000.000 Hektar, welche in Biogasanlagen verwertet wurden…“

Der Anbau von Mais für Biogasanlagen hat sich also in den 10 Jahren von 2006 auf 2016 mehr als versechsfacht. Biogasanlagen sind für die Umwelt ja nicht ganz unproblematisch, allein in Bayern sollen zum Stand 2015 Leckagen von Biogas-Anlagen in 650 Fällen zur Verschmutzung von Oberflächengewässern geführt haben. Wenn solche Vorfälle zu einem Fischsterben führen, sind sie natürlich schwer zu verheimlichen. Es sei die Frage gestattet, ob die Öffentlichkeit auch etwas davon erfahren würde, wenn das corpus delicti einfach so in der Landschaft versickert…

Der verstärkte Anbau von Mais birgt übrigens noch eine weitere Gefährdung des Grundwassers mit sich, Zitat mit Hervorhebungen:

Als Kurztagspflanze kommt Mais aber erst spät mit dem Wachstum zu Gange, verlangt aber schon zur Saat eine hohe Düngung, die dann zwei Monate wenig genutzt werden kann. Deshalb hat Mais ein Nitratproblem im Grundwasser

Die artspezifische Düngung von Mais führt also zwangsläufig zu einem Nitratproblem im Grundwasser. Und dieses Nitratproblem im Grundwasser hat sich offenbar in den vergangenen Jahren durch den Anbau von Energiemais für Biogasanlagen weiter verschärft. Aber warum benennt man dann der Öffentlichkeit gegenüber nicht einfach korrekt Ross und Reiter?

Damit stellt sich die Zwischenfrage: Wer ist hier der eigentliche Verursacher der steigenden Nitratbelastung des Grundwassers, die Massentierhaltung oder der EEG-Maisanbau für Biogasanlagen?

Durch eine vorzeitige Schuldzuweisung an die Massentierhaltung wird eine offene Diskussion über dieses Nitratproblem von vorn herein ausgeschlossen. Und an der Fraktierung der tatsächlichen Zusammenhänge sind offenbar auch steuerfinanzierte Bundesbehörden beteiligt.

Die Broschüre des Umweltbundesamtes „Grundwasser in Deutschland“ weist mit der Karte oben am Ende nach, dass sich die wenigen Meßstellen des deutschen EU-Nitratmessnetzes in denselben Regionen verdichten, in denen Massentierhaltung und Maisanbau betrieben werden.

Wobei die vereinzelten blauen Punkte des offiziellen Nitratmessnetzes eigentlich gar keine flächendeckenden Aussagen für ganz Deutschland zulassen. Denn im europäischen Vergleich hat dieses Messnetz eine vergleichbare Dichte wie das landwirtschaftlich nur sehr schwach geprägte Nordskandinavien.

Dabei stellt sich nebenbei die Frage, warum eigentlich in Deutschland ganz unterschiedliche Grundwassermessnetze betrieben werden. Bei einer komplexen Ursachenforschung dürfte der Abgleich unterschiedlicher Analyseergebnisse dadurch nicht unbedingt gefördert werden. Eigentlich wäre hier ein einheitliches und möglichst gleichabständig dichtes nationales Messnetz erforderlich. Andererseits eröffnen mehrere heterogene Messnetze natürlich viel mehr Möglichkeiten, um bei vorgegebenen Zielsetzungen die passenden Antworten zu finden.

Könnte es vielleicht sein, dass man genau das gemessen hat, was man auch messen wollte?

Bauer Willi meint dazu jedenfalls, Zitat:

„…ist ein Skandal. Dass Deutschland seine Messnetze bezüglich Nitrat im Grundwasser so selektiert, damit besonders hohe Messwerte herauskommen, ist es auch. Wie anders ist es zu erklären, dass Deutschland deutlich schlechter sein sollen als die Niederlande. Ein bloßer Blick auf die Anzahl der gemeldeten Messstellen in den Niederlanden und in Deutschland zeigt selbst dem Laien, dass hier etwas nicht stimmen kann. Denn es gibt viel mehr Messstellen, als es diese Karte erscheinen lässt.“

Hier die von Bauer Willi kritisierte EU-Karte über die Nitratbelastung 2008-2011:


Der Vergleich der Nitrat-Messnetzdichte zwischen Deutschland und dem landwirtschaftlich unterentwickelten Nordskandinavien wird hier voll bestätigt. Verglichen mit den direkten Nachbarstaaten macht das deutsche Nitrat-Messnetz einen armseligen Dritte-Welt Eindruck, selbst in Osteuropa ist die Messdichte deutlich höher.

Muss hier die bereits heftig skandalisierte Massentierhaltung etwa für ein selbstgemachtes EEG-Umweltproblem herhalten, um die verbrauchersubventionierte EEG-Staatsreligion einer planwirtschaftlichen Energiewende nicht zu beschädigen?

Auf der Suche nach dieser EU Nitratkarte (2008-2011) in besserer Qualität ist der Autor dann zufällig über den EU Nitratreport für den Zeitraum 2004 bis 2007 gestolpert:

Und siehe, niemand kann dauerhaft gegen die Gesetze von Murphy verstoßen, ohne schließlich erwischt zu werden: Im Zeitraum 2004-2007 verfügte das deutsche Nitratmessnetz noch über wesentlich mehr Nitratmeßstellen als im nachfolgenden Zeitraum 2008-2011, mehr sogar als damals beispielsweise Frankreich und Spanien ausgewiesen hatten. Und im Zeitraum 2004-2007 erscheint das Ergebnis für die Grundwasserqualität in Deutschland bei überwiegend grünen Farbpunkten flächendeckend noch sehr viel positiver; besser jedenfalls als für Frankreich und Spanien. Es gab für die Bundesrepublik Deutschland also gar keinen Grund für irgendwelche Veränderungen dieses Netzes. Während nun aber Frankreich und Spanien ihr Ergebnis im Folgezeitraum 2008-2011 offenbar durch zusätzliche unbelastete Meßstellen aufgehübscht hatten, wurde das deutsche Nitratmessnetz plötzlich drastisch reduziert, und zwar offenbar ausgerechnet auf nitratbelastete Meßstellen.

Was also ist der fachlich fundierte Grund für diese Reduzierung des deutschen EU-Nitratmessnetzes – oder muss man dieser Reduzierung eine tiefere Absicht unterstellen?

Es wäre jedenfalls hoch interessant zu erfahren, durch wessen Entscheidungen aus dem deutschen EU-Nitratmessnetz von 2004-2007 das offizielle EU-Nitratmessnetz für den Zeitraum 2008-2011 herausgeschrumpft worden ist und welche qualifizierte Begründung dafür ausschlaggebend war. Mehr Schutz für den deutschen Bürger und eine bessere Vergleichbarkeit innerhalb der EU können es ja wohl kaum gewesen sein.

Haben deutsche Behörden durch die Reduzierung des offiziellen EU-Nitratmessnetzes für den Zeitraum 2008-2011 etwa absichtlich ein offizielles Klageverfahren der EU-Kommission gegen Deutschland provoziert, um dann mit einer von der EU zu fordernden Gegenmaßnahme gesetzlich gegen die ökologisch unerwünschte Massentierhaltung vorgehen zu können?

Aus einem solchen Vorgehen ergäbe sich jedenfalls eine ökodynamische Win-Win-Situation:
Eine zielgerichtete Reduzierung von Daten und die Fraktierung von Zusammenhängen würden es ermöglichen, der Öffentlichkeit gegenüber einen wesentlichen gesetzgeberischen Schritt in Richtung auf eine ökologische Landwirtschaft hin zu begründen. Und weil man den EEG-Energiemais ja nicht als wahren Schuldigen für eine steigende Nitratbelastung des Grundwassers identifiziert hat, würde man diese Nitratkeule in Zukunft jederzeit weiter zu Lasten der industrialisierten Landwirtschaft einsetzen können – das Perpetuum Mobile der ökologischen Transformation wäre erfunden.

Ein solcher Vorgang kann natürlich nicht ohne eine implizite Zustimmung der EU ablaufen. Denn selbst den Bürokraten der EU muss die skandalöse Reduzierung des deutschen EU-Nitratmessnetzes vom Zeitraum 2004-2007 auf den Nachfolgezeitraum 2008-2011 aufgefallen sein. Damit hätte die EU das Machwerk für den Zeitraum 2008-2011 einfach zurückweisen und auf einer korrekten flächendeckenden Berichterstattung bestehen können. Stattdessen machen hier offenbar die EU-Kontrolleure gemeinsame Sache mit den deutschen Messnetzreduzierern.

Eine abschließende Frage an alle ökologischen EEG&EU-Moralisten: Darf man das angeblich „Böse“ manipulativ verleumden, um das vorgeblich „Gute“ gezielt voranzubringen?

Am Ende bezahlt der deutsche Bürger die gesamte Zeche dieser ökologischen Amateurveranstaltung, also anteilig die EU-Kontrolleure, das EU-Nitrat-Strafverfahren, die EEG-Subventionen für den Energiemais, das Umweltbundesamt mitsamt seinem eigenwilligen Nitrat-Messnetz und schließlich, nach einer möglichen Einschränkung der Massentierhaltung, auch noch höhere Verbraucherpreise…

Also zieh Dich warm an, deutscher EU-EEG-Zahlmichel – oder mach‘ endlich mal Deine Augen auf!




Schamloses Angst-Schüren – versus Wirklichkeit

Al Gore dreht weiter am Klima- und Wetterbetrug. Ein CFACT-Film und ein australisches Buch präsentieren Klimafakten.

Bevor ich mir vorige Woche das Vergnügen gönnte, einen Film anzuschauen, wurde ich gezwungen, zuvor fünf Minuten Angstmache bzgl. Klima und Wetter über mich ergehen zu lassen, als in dem Kino eine Vorschau auf Al Gores neuen Film „Inconvenient Sequel” gebracht wurde. Sein Versuch, jede Wetterkatastrophe des vorigen Jahrzehnts dem Verbrauch fossiler Treibstoffe seitens der Menschen in die Schuhe zu schieben, fühlte sich wie fünfzig Minuten Folter an.

Mr. Gore hat Zehnermillionen Dollar mit seinem Unsinn und seiner Forderung verdient, dass die moderne Gesellschaft eine „bittere Transformation“ vollziehen müsse, weg von Öl, Erdgas und Kohle hin zu einer utopischen Möchtegern-Welt, die von Biotreibstoffen, Wind- und Solarenergie sowie Elektrofahrzeugen und Batterien abhängig ist.

Noch jede alarmistische Prophezeiung wurde bislang durch tatsächliche Ereignisse falsifiziert: von rapide steigender Temperatur über eine eisfreie Arktis bis zu monströsen Hurrikanen, zu denen es in den USA seit dem Jahr 2005 nicht mehr gekommen war. Sein Versuch, die Überschwemmungen in New York City seinerzeit dem Superstorm Sandy in die Schuhe zu schieben, ignorierte Wahrheiten wie den Umstand, dass Bauwerke, welche den Hudson River um Hunderte Fuß einengten, dafür sorgten, dass jedwedes hinzu kommende Wasser den Wasserspiegel höher steigen ließ und schließlich Manhattan unter Wasser setzte. Mr. Gore ignorierte desgleichen sogar wohlbekannte Klimawandel- und Wetterereignisse während vergangener Jahrhunderte. Kein Wunder, das diese Meschpoke aus Anhängern von SUVs, Privatjets und vielfachem Immobilienbesitz nicht das Rückgrat hat, mit irgendjemandem über diese Dinge zu diskutieren. Wenn er uns Vorträge hält, nimmt er nicht einmal Fragen zur Kenntnis, denen er nicht zuvor zugestimmt hat.

Glücklicherweise haben all jene, die als Gegenmittel nach einer gesunden Portion Realität trachten, Alternativen. Der Dokumentarfilm Climate Hustle widerlegt reihenweise exzentrische Prophezeiungen, die niemals wahr geworden sind, und präsentiert solide, auf Beweisen beruhende Wissenschaft von Dutzenden Wissenschaftlern, die Behauptungen von einer „vom Menschen verursachte Klimakrise“ nicht akzeptieren. Ein neues Buch aus Australien präsentiert detailliert und sachkundig, jedoch hektisch zusammengestellt, lesenswertes Material zu zentralen Aspekten bzgl. Klima.

Das Buch Climate Change: The Facts 2017 ist das Dritte in einer Reihe. Dem jüngst verstorbenen, bedeutenden australischen Geologen und Klimawissenschaftler Bob Carter gewidmet beschreiben dessen 22 Kapitel den Klimawandel im Verlauf der Zeitalter, die multiplen natürlichen Kräfte, die primär Klima- und Wetterfluktuationen treiben, die krummen Tricks, mit denen alarmistische Forscher tatsächliche Temperaturdaten modifiziert und „homogenisiert“ haben, die Versuche, Experten zum Schweigen zu bringen, die sich mit den natürlichen Ursachen von Klimawandel befassen oder die eine Anpassung für viel besser halten als kostspielige „Prävention“, den historischen Zusammenhang hinter Klima-Debatten und die Widerstandsfähigkeit von Korallenriffen gegen eine vermeintliche „Versauerung“ der Ozeane.

Hypothetische vermeintliche Katastrophen bzgl. Korallen, Schalentiere und anderen Spezies selbst durch geringfügige Änderungen des ozeanischen pH-Wertes basieren auf Computersimulationen, welche oftmals nur aus Laborexperimenten abgeleitet sind. John Abbott, Peter Ridd und Jennifer Marohasy belegen, dass in einigen dieser Experimente tatsächlich in Fischbecken Salzsäure hinzugefügt [hydrochloric acid] wurde, um eine Versauerung zu simulieren, welche vermeintlich aus einer leichten Zunahme des atmosphärischen Kohlendioxids resultieren soll!

Kohlendioxid wurde dämonisiert, weil es ein Nebenprodukt des Verbrauchs fossiler Treibstoffe ist, und viele Aktivisten wollen Öl, Erdgas und Kohle eliminieren, welche über 80% der Energie in den USA und weltweit erzeugen. Außerdem ist es das direkte Gegenteil eines „gefährlichen Verschmutzers“.

CO2 ist ein für Pflanzen überlebenswichtiges Nahrungsmittel und Dünger und bildet die Grundlage für Photosynthese. Ohne dieses Spurengas würde das Leben auf der Erde aufhören zu existieren. Zusammen mit etwas höheren Temperaturen seit dem Ende der Kleinen Eiszeit (und dem Beginn der modernen industriellen Ära) half das steigende atmosphärische CO2-Niveau, den Planeten „ergrünen“ zu lassen, indem Getreide, Wälder und Grasland-Pflanzen schneller und besser gediehen. 25% bis 50% der Gebiete unserer Erde mit Pflanzenbewuchs sind während der letzten 33 Jahre grüner geworden, von den Tropen bis zur Arktis, und 70% dieser Ergrünung geht auf das Konto höherer CO2-Niveaus in der Atmosphäre. Nur in 4% der Gebiete ist es brauner geworden.

Ian Plimer, Ken Ring und Nicola Scafetta besprechen natürliche Klimazyklen und die lange planetarische und menschliche Erfahrung mit großen Klimaänderungen und Wetterereignissen. Nichts, was wir heute erleben, ist ohne Beispiel, und vielfach waren diese Vorgänge heute viel günstiger für uns als in der Vergangenheit. Björn Lomborg und andere Autoren erklären, warum wir unsere Besessenheit von der „Klimakrise“ und anderen übertriebenen Bedrohungen loswerden und uns von den falschen Lösungen für herbei phantasierte Klimakatastrophen Abstand nehmen müssen. Wir müssen unsere begrenzten Zeit-, Geld- und andere Ressourcen zum Kampf gegen viele reale, drückende Probleme verwenden, vor denen die Menschen in Entwicklungsländern und der entwickelten Welt gleichermaßen stehen.

In meinem Kapitel in The Fact spreche ich diese drückenden humanitären Probleme an, großenteils im Zusammenhang mit der Enzyklika Laudato Si von Papst Franziskus. Über alle Jahrtausende, schrieb ich, litten die Menschen unter brutalem und das Leben verkürzendem Hunger und Mangelernährung, unter Kälte und Armut, schlechter Luft, schmutzigem Wasser, einer Myriade von Krankheiten, fehlenden sanitären Einrichtungen und einfachen Wunden, die sich entzündeten bis hin zu Tetanus, Amputation und Tod.

Dann kam es im Verlauf von nur zwei Jahrhunderten zu einer Verdoppelung der Lebensspanne von Milliarden Menschen via der Entdeckungen und Fortschritte, welche angetrieben wurden durch fossile Treibstoffe. Die Menschen wurden gesünder, besser ernährt, wohlhabender, mobiler und entwickelten wunderbare medizinische und andere Technologien, Nahrungsmittel, Dienstleistungen, Reichtümer und Freizeitaktivitäten, die sich frühere Generationen nicht einmal vorstellen konnten.

Mechanisierte Landwirtschaft – zusammen mit modernen Düngemitteln, Hybrid- und GMO-Samen, Bewässerung und anderen Vorteilen – führte dazu, dass weniger Landwirte Rekordernten einfahren konnten, welche Milliarden ernähren, mit weniger Land- und Wasserverbrauch. Verbesserte Bauweisen von Gebäuden hielten Kälte, Krankheiten tragende Nagetiere und Insekten außen vor und überstanden auch viel besser Erdbeben und Extremwetter-Ereignisse. Elektrischer Strom veränderte jeden Aspekt unseres Lebens.

„Wie können wir es uns leisten, Dankbarkeit für und Anerkennung dieser Fortschritte zu ignorieren, besonders in den Bereichen Medizin, Ingenieurswesen und Kommunikation?“ fragt Seine Heiligkeit. Unglücklicherweise präsentiert er dann romantisierte Bezüge zu konsistent milderen Klimaten, gütige natürliche Umwelten und idyllische ländliche Lebensweisen, die niemals existierten. Er besteht darauf, dass die ärmsten Menschen der Erde demnächst vor „gravierenden existenziellen Risiken“ stehen werden durch die planetarische Erwärmung, falls wir nicht sofort und signifikant unseren Verbrauch fossiler Treibstoffe reduzieren.

Er ignoriert das Fehlen von Beweisen in der Realen Welt dafür, dass Treibhausgase Klimachaos verursachen – und die überzeugenden Beweise dafür, dass fossile Treibstoffe enorme Vorteile mit sich bringen.

Während der letzten drei Jahrzehnte haben Öl, Gas und vor allem Kohle dabei geholfen, 1,3 Milliarden Menschen Zugang zu Strom zu verschaffen sowie Energie- und ökonomischer Armut zu entkommen. China brachte 99% seiner Bevölkerung an das Netz, zumeist mittels Kohle. Der durchschnittliche Chinese ist heute zehnmal reicher und lebt 32 Jahre länger als seine Vorfahren noch vor fünf Jahrzehnten. Indien errichtet zahlreiche Kohlekraftwerke, um seine riesigen Gebiete zu elektrifizieren.

Aber über 1,2 Milliarden Menschen (mehr als in den USA, Kanada, Mexiko und Europa zusammen) haben immer noch keinen Zugang zu Strom; weitere 2 Milliarden Menschen bekommen Strom nur sporadisch und unvorhersagbar. Im Afrika südlich der Sahara kochen und heizen immer noch 700 Millionen Menschen mit „erneuerbarem“ Holz, Holzkohle und dem Dung von Tieren.

Hunderte Millionen werden schrecklich krank – und fünf Millionen sterben – in jedem Jahr durch Lungen- und Darmkrankheiten, weil sie den Rauch offener Feuer einatmen und keine Kühlmöglichkeiten haben; kein sauberes Wasser und keine sicheren Nahrungsmittel. Hunderte Millionen hungern oder sind unterernährt. Fast drei Milliarden überleben mit lediglich ein paar Dollars pro Tag.

Diese bettelarmen und hilflosen Massen wollen einfach ihren rechtmäßigen, von Gott gegebenen Platz unter den gesunden und wohlhabenden Menschen dieser Welt einnehmen. In Wirklichkeit aber sagt man ihnen, dass dies „nicht nachhaltig wäre“. Man sagt ihnen, dass die Verbesserung ihrer Gesundheit, ihres Lebensstandards und die Verlängerung ihrer Lebensspanne weniger wichtig ist als der „drohende Klima-Kataklysmus“, welcher das „bloße Überleben bedroht“ unserer Wildnis, unserer Zivilisation und unseres Planeten.

Diese Behauptungen – und die falschen Lösungen für diese nur in alarmistischen Filmen, Presseerklärungen und Computermodellen existierenden düsteren Probleme – ziehen lediglich weit hergeholte Risiken heran, die fossile Treibstoffe vermeintlich verursachen könnten. Sie betrachten niemals die zahllosen Gefahren und Schäden, welche jene Treibstoffe verringern, eliminieren oder verhindern. Diese Haltung ist anti-wissenschaftlich, anti-human, ungerecht, unethisch – und völkermörderisch [genocidal].

Der bekannte Beobachter populärer Kultur Clive James fasst den Inhalt dieses faszinierenden Buches so zusammen: Befürworter einer vom Menschen verursachten Klimakatastrophe forderten von uns so viel Vertrauensvorschuss, dass sie unweigerlich am Ende jede Glaubwürdigkeit verloren haben werden. Und doch wäre es unklug zu denken, dass die Anfälligkeit der Menschheit für den Glauben an modischen Unsinn in naher Zukunft geheilt werden kann. Wenn diese „Bedrohung“ eines Tages kollabiert, wird sie durch eine andere Bedrohung ersetzt. [Ist es nicht schon soweit? Eier-, Dieselskandal, Feinstaub …]

Al Gore, das IPCC, alarmistische Modellierer und Forscher sowie das EPA-Programm „soziale Kosten von Kohlenstoff“ und die Kohlendioxid-„Gefährdungs“-Entscheidung hängen allesamt mit dem Klimabetrug zusammen. Ewige Wachsamkeit, Bildung und Abwehr durch den Rest von uns werden noch viele Jahre lang gebraucht werden.

Link: https://www.heartland.org/news-opinion/news/shameless-fear-mongering–versus-reality

Übersetzt von Chris Frey EIKE




Offiziell bestätigt: rbb – Kontraste darf weiter Fakenews verbreiten

Die hiesigen Medien stehen schon lange unter dem begründeten Verdacht, dass sie ihre Leser, Hörer und/oder Zuschauer häufig weder objektiv, noch neutral, noch umfassend, oder auch nur wahrheitsgemäß über bestimmte Themen informieren. Dazu gehören u.a. alles was den menschgemachten Klimawandel betrifft, oder die von allen in den Himmel gelobte Energiewende . Mit ihren Unterthemen E-mobilität und oder in jüngster Zeit dem „Dieselskandal“. Von anderen wichtigen Themen wie der ungebremsten und ungesteuerten Zuwanderung aus muslimischen Ländern gar nicht erst zu reden. Besonders hervor tun sich dabei die Öffentlich Rechtlichen Sender, seien sie bei der ARD organisiert oder dem ZDF. Darin bildet auch der Rundfunk-Berlin-Brandenburg (rbb) keine Ausnahme. EIKE berichtete schon des Öfteren darüber.

Eine neue Qualität erreichte jetzt aber der rbb – über seine Magazinsendung Kontraste. Auf der Webseite der Redaktion liest man so erbauliche Vorhaben (Hervorhebungen von mir) wie

„KONTRASTE – das kritische Magazin aus Berlin. KONTRASTE bringt Gegensätze auf den Punkt. Keine Politikerphrasen, kein Infotainment: Das Magazin geht den Dingen auf den Grund, neugierig und mit sorgfältiger Recherche. KONTRASTE deckt Hintergründe auf, erklärt Zusammenhänge und bezieht Stellung. KONTRASTE steht für seriöse Information des öffentlich-rechtlichen Rundfunks: investigativ, analytisch, kritisch.“

Na dann, schauen wir mal, dann sehen wir schon, pflegte einst der Kaiser Franz Beckenbauer zu sagen. Gucken wir uns also eine der investigativ, analytisch, kritisch erarbeiteten Informationen an, die mit sorgfältiger Recherche erarbeitet wurden.

Worum geht es?

Es geht um den Beitrag in der Sendung vom 1.6.17 mit dem Teilinhalt „Der US-Präsident als Verschwörungstheoretiker“.

Video nicht mehr verfügbar
Video Ausschnitt mit Kommentaren der Kontraste-Sendung vom 1.6.17 über Trump und seine Klimapläne, das Original samt Text finden Sie hier

Wir berichteten darüber hier.

Dieser Beitrag, vom Autorenteam Adrian Bartocha, Chris Humbs, Markus Pohl und Axel Svehla, ist nicht nur schlechter Journalismus, weil er von Spekulationen, Un- wie Halbwahrheiten, angereichert mit irreführender Rhetorik, nur so strotzt, (man staunt immer wieder was clevere Leute in knapp 4 Minuten alles so behaupten können) sondern enthält auch tlw. schiere Propaganda. Darüber hatte ich ja nun schon ausführlich berichtet. Der geneigte Leser möge das bei Interesse hier nachlesen. Weil, das ist nicht Thema dieses Beitrages. Thema ist die Geschichte, die sich danach abspielte. Basierend auf meinem Mailwechsel zunächst mit Chef vom Dienst Herr Althammer und dann der Intendanz des rbb in Gestalt des stellvertretenden Intendanten Herrn Hagen Brandstäter. (voller Text siehe Kontraste Mailwechsel Althammer rbb-EIKE Limburg)

Zum besseren Verständnis dessen, was sich inzwischen abspielte, muss ich etwas ausholen.

Aufgrund meiner wohlbegründeten Beschwerde beim Chef vom Dienst der Kontraste Sendung, Herrn Althammer, über den Inhalt, sowie meine Bitte, diese misslungene – nicht einmal als Satire gekennzeichnete- Stück und nur als Propaganda einzustufende Arbeit aus der ARD Mediathek zu entfernen, und zusätzlich eine Korrektursendung auszustrahlen, erhielt ich von Herrn Althammer die abschließende Verweigerung meiner Bitte mit der umwerfenden Begründung:

Althammer rbb: Unsere Grundposition ist und bleibt, dass die Erderwärmung seit dem Industriezeitalter auch durch menschliche Faktoren beeinflusst wird. Diesen Einfluss zu begrenzen sehen wir als politische Aufgabe in Verantwortung gegenüber den zukünftigen Generationen an.

Zunächst war ich über dieses unverblümte Eingeständnis des unbedingten Willens des rbb seine vorgefasste Meinung, den Zuschauern als Faktum unterzujubeln, überrascht. Ich dachte: Oh Gott, was ist passiert, dass diesem Mann so die Feder ausgerutscht ist? Wir wissen zwar schon seit langem, dass viele Mitarbeiter in den Medien so ticken, ihren journalistischen Beruf als Berufung so verstehen, den anderen ungeniert ihre Meinung, wenn´s sein muss, auch mit dem medialen Holzhammer einzuprügeln. Gerade und immer wieder bei den Öffentlich Rechtlichen Sendern. Aber dann, dieses frische Eingeständnis! Dermaßen ehrlich! Seht her, ich stehe dazu, ich kann nicht anders, denn das ist unsere Aufgabe. Ob Dir das passt oder nicht. Wir wollen nicht anders!

Das ist zwar weit ab von der eisernen Richtschnur eines Hans-Joachim Friedrich bzw. seine englischen Vorbildes – dessen Name mir gerade nicht einfällt- für gutes journalistisches Selbstverständnis, das da lautet: „ein guter Journalist macht sich mit keiner Sache gemein; auch nicht mit einer guten!“ Aber was soll´s!

Diese plötzlich Ehrlichkeit; vielleicht war es ja auch nur unbekümmerte Frechheit, das überraschte dann doch!

Trotzdem war die Sache damit ja nicht vom Tisch, sondern nur das Motiv für diese Fakenews-Berichterstattung benannt. Und da ich vermutete, dass die Intendanz bestimmt nicht über jeden Ausrutscher informiert ist, dies aber auch für sie ein solcher sein könnte, deshalb interessiert sein müsse, die anfangs benannten journalistischen Grundsätze, sowohl den allgemeinen von H.J. Friedrich, als auch die besonderen der Kontraste-Reaktion (s.o.) und vielleicht eine wenig auch die, die das Rundfunkgesetz vorschreibt, einzuhalten, schrieb ich am 4.7.17 eine Beschwerde an die Intendantin Patrizia Schlesinger, von Beruf und Ausbildung her ebenfalls Journalistin. Vielleicht hat sie den früh verstorbenen Hans-Joachim Friedrich ja noch gekannt, dachte ich.

Nach gut vier Wochen, also gerade noch in der zulässigen Frist, in der die Intendanz auf formale Beschwerden reagieren muss, erhielt ich Antwort und die haute mich fast vom Hocker. (voller Text siehe Programmbeschwerde_Limburg_Kontraste). Sie kam vom stellvertretenden Intendanten, einem Herrn Brandstätten.

Der versuchte zunächst mir und evtl. auch seinem Mitarbeiter Althammer, das Wort im Munde zu verdrehen, uns beiden, im wahrsten Sinne des Wortes, ein x für ein u vorzumachen. Er schrieb nämlich ziemlich am Anfang

„Gestatten Sie mir zunächst, ein sprachliches Missverständnis aufzulö­sen: In seiner Antwort meint Herr Althammer nicht, dass der rbb einen politischen Auftrag habe, sondern es Auftrag der Politik ist, sich mit den Folgen des Klimawandels auseinanderzusetzen.“

Da versucht doch einer tatsächlich dem, geschliffenes Deutsch schreibenden und sich auch dessen voll bewussten, Herrn Althammer – oder auch mir- diese ehrliche und sowohl sprachlich wie inhaltlich klare Meinung als „sprachliches Missverständnis“ anzudrehen.

Welche Chuzpe oder Unverschämtheit gehört dazu? Was bildet sich dieser Mann ein, von wem und mit wem er da spricht? Schließlich leben wir schon länger hier und sind ziemlich firm im Deutschen, unserer Muttersprache. Eine solche Verdrehung einem Zuschauer auch zu schreiben, das muss man sich erst mal trauen.

Aber es kommt noch besser! Nach weiteren längeren Einlassungen über das journalistische Selbstverständnis und Aufgaben des rbb, in welchem er sich an dem von mir ebenfalls genannten Zitat (wenn auch häufig von ihm nicht eingehalten) des Kai Gniffke, seines Zeichens (immer noch) Chefredakteur der Tagesschau  löblich und vor allem wohlklingend abarbeitet, kommt der Hammer.

Denn Herr Brandstäter traut sich auch tatsächlich zu formulieren:

Der von Ihnen monierte Beitrag erfüllt unsere Anforderungen an journalistische Sorgfalt und Qualität im rbb. Ihre Einschätzung, es handle sich um eine Mischung aus Falschinformationen und Propa­ganda, kann ich nicht teilen. Deshalb gibt es auch keinen Grund für den rbb, den Beitrag aus der Mediathek zu entfernen und gleichzeitig einen Korrekturbeitrag zu senden.

Da ist er also. Ohne jede Begründung, nicht einmal in einem Halbsatz, wischt er meine Belege vom Tisch. So also schätzt ein stv. Intendant eines Öffentlich-Rechtlichen Rundfunk- und Fernsehsender, die mit offensichtlichen Fakenews, Halbwahrheiten und Irreführungen allg. nur als Propaganda zu verstehendes Machwerk ein. Der„von Ihnen monierte Beitrag erfüllt unsere Anforderungen an journalistische Sorgfalt und Qualität im rbb.“ Damit hatte der Mitarbeiter Althammer doch recht. Wir ticken so! Wir handeln so!

Video nicht mehr verfügbar
Daher bekommt die jüngste Aussage der Tagesthemen Moderatorin Carmen Miosga eine ganz besondere herbe Duftnote:

Journalismus kennt keine alternativen Fakten.

„Und ein Blinder keine Farben!“ möchte man ergänzen. Nur die können nichts dafür. Diese Journalisten schon.

Für eine Realsatire ist das alles leider nicht lustig genug!

Deswegen reichte ich erneut Beschwerde beim rbb Rundfunkrat ein. Ob´s was nützt?

 

 




EXKLUSIV: Forscher behauptet, Beweise dafür zu haben, dass eines der erfolgreichsten EPA-Gesetze bzgl. sauberer Luft auf der Grundlage künstlich fabrizierter Daten beruht

Der Toxikologe Albert Donnay sagt, er habe Beweise zusammengetragen dafür, dass eine im Jahre 1989 von der EPA in Auftrag gegebene Studie über die Auswirkungen von Kohlenmonoxid auf die Gesundheit auf falschen Daten beruht. Falls das stimmt, wären 25 Jahre des Erlasses von Vorschriften und Milliarden Dollar für Auto-Katalysatoren in Frage gestellt.

„Sie behaupteten, eine Auswirkung gefunden zu haben, obwohl es gar keine gab“, sagte Donnay. „Sie haben sogar die Verfahren fabriziert, mit denen sie zu ihren Ergebnissen gekommen sind. Sie haben sich all das erdacht, um der EPA das zu geben, was sie haben wollte und in Auftrag gegeben hat. Die dargestellten Ergebnisse können nicht von Menschen stammen“.

Weniger Hervorhebung der Ausrüstung. Weniger Stress für Sie. Siehe die Nebenleistungen für variable frequency drives [?]

Die EPA stufte die Studie als „primär zu berücksichtigen“ ein. Zusammengestellt wurde sie vom Health Effects Institute (HEI), um eine Vorgängerstudie aus dem Jahr 1981 zu ersetzen, welche auf fabrizierten Daten beruhte. Im Jahre 2011 hat die EPA das getan, was sie seit 1971 getan hat, nämlich den Standard von 9 ppm gemessen während eines 8-stündigen Zeitraumes und 35 ppm während 1 Stunde unverändert gelassen.

Und warum auch nicht? Die EPA war über die Jahre sehr erfolgreich bei der Reduktion von Kohlenmonoxid, was es an die zweite Stelle der am meisten reduzierten Verschmutzer stellte. Dies geht aus Daten der Agentur hervor. „Kohlenmonoxid ist ein farb- und geruchloses Gas, das bei Verbrennungsprozessen freigesetzt wird“. Bei einem extrem hohen Niveau kann es ernste Gesundheitsprobleme und sogar Todesfälle mit sich bringen. Bei Unfällen mit einer Kohlenmonoxid-Vergiftung kommen pro Jahr 400 bis 500 Menschen ums Leben, wie Daten der Regierung zeigen.

Hier folgt ein Poster der Forschung, welches Donnay auf dem Treffen der Gesellschaft für Toxikologie 2015 gezeigt hat:

 

Nach Albert Donnay

[Der Link zu dem Poster steht unten {research poster}. Wenn man in dem PDF auf vergrößern klickt, kann man alles deutlich lesen. Anm. d. Übers.]

Dr. Aronow

Aber Donnay sagte, dass seinen Forschungen zufolge die HEI-Studie voller „wissenschaftlichem Betrug“ steckt, welcher von der EPA und dem HEI näher untersucht werden sollte. „Falls man jemanden beauftragt, einen Betrug zu replizieren, muss man betrügen, um das zu tun“, sagte Donnay bei der Diskussion der Ergebnisse seiner Re-Analyse.

Im Jahre 1983 erkannte die EPA, dass ihr Kohlenmonoxid-Standard „auf fragwürdigen, vielleicht gefälschten Forschungen“ beruhte, durchgeführt von Dr. Wilbert Aronow in den siebziger Jahren. Die New York Times berichtete seinerzeit darüber. Die Federal Drug Administration FDA fand heraus, dass Nachweise der Wirkung von Medikamenten bei Patienten am Veterans Affairs Hospital bei Los Angeles gefälscht worden waren.

Die Agentur handelte rasch und ersetzte Aronows betrügerische Daten und finanzierte eine massive human exposure study mit dem HEI – eine Forschungsgruppe, ins Leben gerufen von der EPA und der Autoindustrie.

Das HEI stellte eine Studie zusammen, um die Auswirkungen von Kohlenmonoxid auf Männer mit Kranzgefäß-Krankheiten zu untersuchen und um festzustellen, wie lange es dauert, bis sie Angina bekamen, nachdem sie dem Gas ausgesetzt waren. Das HEI heuerte drei Teams von verschiedenen Universitäten an, um bei der Forschung zu helfen.

Die HEI-Studie wurde im Jahre 1989 veröffentlicht und kostete 2,5 Millionen Dollar. Auch das New England Journal of Medicine veröffentlichte die Studie 1989, das Medizinjournal Environmental Health Perspectives veröffentlichte sie zwei Jahre später.

Environmental Health Perspectives lehnte es ab, Donnays Anfrage weiter zu bearbeiten. Weder das HEI noch das New England Journal of Medicine antworteten auf die Nachfrage der Daily Caller News Foundation DCNF.

Die HEI-Forscher fanden wenig überraschend, dass „niedrige Niveaus von Kohlenmonoxid Angina-Erkrankungen bei Personen mit Kranzgefäß-Krankheiten verschlimmerten“.

Die EPA rühmte die HEI-Studie und stützte sich darauf, als sie 1994 ihren Kohlenmonoxid-Standard bekannt gab. Die Agentur räumte der HEI-Studie „primäre Berücksichtigung“ ein bei ihrer Überarbeitung der Vorschriften bzgl. Kohlenmonoxid im Jahre 2011.

Donnay trat einer juristischen Klage seitens Umweltaktivisten bei, um die Entscheidung der EPA bzgl. Kohlenmonoxid anzufechten. Die Gerichte urteilten gegen die Aktivisten, so dass sich Donnay im Jahre 2014 entschloss, die Eckpunkte-Studie nachzuvollziehen, auf die sich die EPA während all der Jahre stützte. „Ich brannte darauf, jene Vorschrift anzufechten!“, sagte er.

Extensive Beweise für Daten-Fabrikation

Zunächst benötigte Donnay die Rohdaten der HEI-Forscher, welche sie für ihre Studie herangezogen hatten, aber diese zu bekommen erwies sich als schwieriger als erwartet. HEI-Präsident Daniel Greenbaum sagte Donnay, dass man die Rohdaten für die HEI-Studie 2008 „gelöscht“ habe, weil weder die EPA noch irgendein anderer Forscher deren Ergebnisse in Frage gestellt hatten.

Also trug er die Rohdaten von den drei Journalen zusammen, welche die HEI-Studie veröffentlicht hatten, und stützte sich außerdem auf einige Rohdaten, welche im Jahresbericht 1985 des HEI vorgestellt worden waren.

Im Jahre 2014 hatte Donnay seine Re-Analyse schließlich fertig und konnte sie veröffentlichen. Er fand „extensive Beweise für Daten-Fabrikation und Datenfälschung“, schrieb er im Entwurf eines Abstracts, welchen er seinen Beratern an der University of Maryland vorstellte. „Der offensichtlichste Beweis absichtlichen wissenschaftlichen Betrugs in der HEI-Studie war, dass Allred et al. zwei verschiedene Zusammenfassungen der Ergebnisse in ihrem HEI-Report erstellten und eine dritte Version in ihrem Artikel im New England Journal of Medicine, welcher in der gleichen Woche erschienen war“, erklärte Donnay. „In keiner dieser Versionen erklären sie, wie sie zu den unterschiedlichen Ergebnissen gekommen waren oder räumten diesen Tatbestand auch nur ein. Betrachtet man das, was sie zu bringen und nicht zu bringen gewählt haben, ergibt sich zwangsläufig, dass sie etwas verbergen“, sagte er.

Donnays Berater an der University of Maryland jedoch sagten ihm, dass er seine Verbindung mit der Universität nicht erwähnen dürfe, falls er seine Ergebnisse veröffentlichen würde. Der für Forschungsintegrität zuständige Beamte an der Schule sagte ihm sogar, dass seine Arbeit „UMB gefährde“. Dies geht aus E-Mails hervor, welche der DCNF vorliegen.

„Es gab viel Widerstand gegen die Tatsache, dass dies alles Betrug sein könnte“, sagte Donnay. „Ich erkannte, dass es schwierig werden würde, diese Ergebnisse zu veröffentlichen“.

Aber Donnay ließ nicht locker und sandte im Mai 2014 einen Brief an alle drei akademischen Journale, welche die Allred-Studie veröffentlicht hatten, und forderte sie auf, diese Studie zurückzuziehen. Donnay informierte auch das Büro für Forschungsintegrität der EPA und den Generalinspekteur.

Alle drei Journale lehnten seine Forderung ab. Der Generalinspekteur der EPA war der Ansicht, dass die Vorwürfe Donnays nicht ein kriminelles Niveau erreichten, und die für wissenschaftliche Integrität zuständige EPA-Beamtin Francesca Grifo lehnte es ab, Donnays Arbeit überhaupt anzusehen, war doch die HEI-Studie vor dem Jahr 2012 geschrieben worden – bevor die Polizei der wissenschaftlichen Integrität bei der EPA ins Leben gerufen worden war.

„Angesichts der außerordentlichen Sorgfalt, mit der die Studie durchgeführt und unabhängig begutachtet worden war, haben sie empfohlen, und dem stimmen wir zu, dass es keinen Grund gibt, diese Studie zurückzuziehen“, schrieb der HEI-Vorsitzende Richard Celeste als Antwort an Donnay.

Aber Donnay blieb bei seinen Ergebnissen und trachtete nach Input von Roger McClellan, dem ehemaligen Vorsitzenden des EPA-Wissenschaftskomitees, welches sich auf das HEI stützte, um den Kohlenmonoxid-Standard im Jahre 1992 festzulegen. McClellan war auch im HEI-Übersichtskomitee für die Kohlenmonoxid-Studie tätig.

McClellan sagte Donnay, dass die HEI-Studie zwar „Auswüchse und Fehler“ enthalte, dass aber die „Kern-Ergebnisse der Studie weiterhin fundiert sind. Das einzige ernste Ergebnis ihrerseits, von denen Sie berichteten und welches für mich enttäuschend war, ist meine Erfahrung, dass die Original-Aufzeichnungen der Studie vom HEI im Jahre 2008 gelöscht wurden“.

Donnay präsentierte seine Forschungen in Gestalt eines Posters auf dem Treffen der Society for Toxicology im Jahre 2015 und erntete dafür ein paar „oberflächliche Reaktionen“, aber „niemand war willens, meine Ergebnisse anzusprechen“.

McClellan hat auf die Forderung nach einer Stellungnahme seitens der DCNF nicht geantwortet.

Die Links zu Donnays Beweisen sind diese: [alle drei als PDF]

Research Poster

Roger McClellan’s Letter — Feb 23, 2015

Summary Of Responses To Donnay’s Work

Link: https://wattsupwiththat.com/2017/08/08/exclusive-researcher-claims-to-have-evidence-one-of-epas-most-successful-clean-air-rules-is-based-on-fabricated-data/

Übersetzt von Chris Frey EIKE




Die Gesetze der Mittelwerte: Teil 2, Information der Verschleierung

Durchschnittliches

Sowohl das Wort als auch das Konzept „Durchschnitt“  sind in der breiten Öffentlichkeit sehr viel Verwirrung und Missverständnis unterworfen und sowohl als Wort als auch im Kontext ist eine überwältigende Menge an „lockerem Gebrauch“ auch in wissenschaftlichen Kreisen zu finden, ohne die Peer-Reviewed-Artikel in Zeitschriften und wissenschaftlichen Pressemitteilungen auszuschließen.

In Teil 1 dieser Serie [Eike, übersetzt] lasen Sie meine Auffrischung über die Begriffsinhalte von Durchschnitten, Mittelwerten und Beispiele dazu. Wenn Ihnen diese Grundlagen nun geläufig sind, dann können wir mit den weiteren Gedankengängen weitermachen.

Wer es vorher oder nochmal lesen möchte, hier ist der Link zum Original [Part 1 of this series]

 

Ein Strahl der Finsternis in das Licht [Übersetzung des Originaltitels] 

oder: Informieren um zu Verschleiern

Der Zweck, zu einem Datensatz verschiedene Ansichten darzustellen – oder über jede Sammlung von Informationen oder Messungen, über eine Klasse von Dingen oder ein physikalisches Phänomen – ist es, dass wir diese Informationen aus verschiedenen intellektuellen und wissenschaftlichen Winkeln sehen können – um uns einen besseren Einblick in das Thema unserer Studien zu geben, was hoffentlich zu einem besseren Verständnis führt.

Moderne statistische Programme erlauben es sogar Gymnasiasten, anspruchsvolle statistische Tests von Datensätzen durchzuführen und die Daten auf unzählige Weise zu manipulieren [bzw. zu sortieren] und zu betrachten. In einem breiten allgemeinen Sinne, ermöglicht die Verfügbarkeit dieser Softwarepakete nun Studenten und Forschern, (oft unbegründete) Behauptungen für ihre Daten zu machen, indem sie statistische Methoden verwenden, um zu numerischen Ergebnissen zu gelangen – alles ohne Verständnis weder der Methoden noch der wahren Bedeutung oder Aussagekraft der Ergebnisse. Ich habe das erfahren, indem ich High School Science Fairs beurteile [zu vergleichen mit „Jugend forscht“] und später die in vielen Peer-Review-Journalen gemachten Behauptungen gelesen habe. Eine der derzeit heiß diskutierten Kontroversen ist die Prävalenz [allgemeine Geltung] der Verwendung von „P-Werten“ [probability value ~ Wahrscheinlichkeitswert], um zu beweisen, dass [auch] triviale Ergebnisse irgendwie signifikant sind, weil „das die Aussage ist, wenn die P-Werte geringer als 0,05 sind“. Die High School Science Fair Studenten bezogen auch ANOVA Testergebnisse über ihre Daten mit ein –jedoch konnte keiner von ihnen erklären, was ANOVA ist oder wie es auf ihre Experimente angewendet wurde.

[Als Varianzanalyse (ANOVA von englisch analysis of variance) bezeichnet man eine große Gruppe datenanalytischer und strukturprüfender statistischer Verfahren, die zahlreiche unterschiedliche Anwendungen zulassen; Quelle Wikipedia]

 

Moderne Grafik-Tools ermöglichen alle Arten von grafischen Methoden um Zahlen und ihre Beziehungen anzuzeigen. Das US Census Bureau [statistisches Amt] verfügt über einen große Anzahl von Visualisierungen und Graphikwerkzeugen. Ein Online-kommerzieller Service, Plotly, kann in wenigen Sekunden eine sehr beeindruckende Reihe von Visualisierungen Ihrer Daten erstellen. Sie bieten einen kostenlosen Service an, dessen Niveau mehr als ausreichend für fast alle meine Verwendungen war (und eine wirklich unglaubliche Sammlung von Möglichkeiten für Unternehmen und Profis mit einer Gebühr von etwa einem Dollar pro Tag). RAWGraphs hat einen ähnlichen kostenlosen Service.

Es werden komplexe Computerprogramme verwendet, um Metriken wie die globalen Durchschnittlichen Land– und Meerestemperaturen oder die globale mittlere Höhe des Meeresspiegels zu erstellen. Ihre Schöpfern und Promotoren glauben daran, das damit tatsächlich ein einziger aussagekräftiger Wert produziert werden kann, der eine durchschnittliche Genauigkeit bis zu einem Hundertstel oder Tausendstel oder eines Millimeters erreicht. Oder, wenn schon nicht aktuelle quantitativ genaue Werte, so werden zumindest genaue Anomalien oder gültige Trends berechnet. Die Meinungen zu diesen Werten variieren sehr stark, betreffend der Gültigkeit, der Fehlerfreiheit und der Genauigkeit dieser globalen Durchschnittswerte.

Die Mittelwerte sind nur eine von unterschiedlichsten Möglichkeiten, die Werte in einem Datensatz zu betrachten. Wie ich in den Grundlagen für den „Durchschnitt“ erklärt habe, gibt es drei primäre Arten von Mittelwerten – Mittel, Median und Mode – sowie weitere exotische Typen.

In Teil 1 dieser Reihe erklärte ich die Fallstricke von Mittelwerten von heterogenen, nicht miteinander zu vergleichenden Objekten oder Daten über Gegenstände. Solche Versuche enden mit „Obstsalat“, ein Durchschnitt aus Äpfeln und Orangen ergibt unlogische oder unwissenschaftliche Ergebnisse, mit Bedeutungen, die illusorisch, imaginär oder von so geringer Aussage und damit nicht sehr nützlich sind. Solche Mittelungen werden oft von ihren Schöpfern mit Bedeutung – Sinn – erfüllt, die sie nicht haben.

Da der Zweck, Daten auf unterschiedliche Weise zu betrachten – wie das Betrachten eines Durchschnitts, ein Mittelwert oder ein Modus des numerischen Datensatzes – zu einem besseren Verständnis führen soll, ist es wichtig zu verstehen, was tatsächlich passiert, wenn numerische Ergebnisse gemittelt werden und in welcher Weise sie zu einem besseren Verständnis führen und in welcher Weise sie aber auch zu einem reduzierten Verständnis führen können.

Ein einfaches Beispiel:

Betrachten wir die Größe der Jungs in Frau Larsens hypothetischer 6. Klasse an einer Jungenschule. Wir wollen ihre Größe kennenlernen, um eine horizontale Klimmzugstange zwischen zwei starken, aufrechten Balken platzieren, damit sie trainieren können (oder als leichte konstruktive Strafe – „Jonny – Zehn Klimmzüge bitte!“). Die Jungs sollten in der Lage sein, sie leicht zu erreichen, indem man ein bisschen hochspringt, so dass beim Hängen an den Händen ihre Füße nicht den Boden berühren.

Die ärztliche Station liefert uns die Größen der Jungs, die gemittelt werden, und wir erhalten das arithmetische Mittel von 65 Zoll [ = 165 cm; für den weiteren Vergleich lasse ich Zoll (= Inch) stehen].

Mit diesen Durchschnittsgrößen rechnen wir weiter, um die benötigte Stangenhöhe in Zoll zu ermitteln:

Größe / 2.3 = Armlänge (Schulter zu den Fingerspitzen)

= 65 / 2.3 = 28 (ungefähre Armlänge)

= 65 + 28 = 93 Zoll = 7,75 Fuß oder 236 cm

Unsere berechnete Höhe der Stange passt gut in ein Klassenzimmer mit 8,5 Fuß Decken, also sind wir gut. Oder sind wir gut? Haben wir genügend Informationen aus unserer Berechnung der Mittleren Höhe?

Lassen Sie es uns überprüfen, indem wir ein Balkendiagramm aller Größen aller Jungs betrachten:

Diese Visualisierung, gibt uns eine andere Sicht als unser berechneter Durchschnitt – um die vorhandenen Informationen zu betrachten – um die Daten der Größen der Jungen in der Klasse auszuwerten. Mit der Erkenntnis, dass die Jungen von nur fünf Fuß groß (60 Zoll) bis hin zu fast 6 Fuß (71 Zoll) groß sind, werden wir nicht in der Lage sein, eine Stangenhöhe festzulegen, die ideal für alle ist. Allerdings sehen wir jetzt, dass 82% der Jungs innerhalb der Mittelhöhe von 3 Inch liegen und unsere berechnete Stangenhöhe wird gut für sie sein. Die 3 kürzesten Jungs könnten einen kleinen Tritt brauchen, um die Stange zu erreichen, und die 5 längsten Jungs können ihre Knie ein bisschen beugen, um Klimmzüge zu machen. Also können wir es so machen.

Aber als wir den gleichen Ansatz in Mr. Jones ‚Klasse versuchten, hatten wir ein Problem.

Es gibt 66 Jungen in dieser Klasse und ihre durchschnittliche Größe (Mittelwert) ist auch 65 Zoll, aber die Größen sind anders verteilt:

Jungens, die zweite Klasse

Herr Jones Klasse hat eine andere Mischung, die zu einer ungleichen Verteilung führt, viel weniger um den Mittelwert zentriert. Mit dem gleichen Durchschnitt: +/- 3 Zoll (hellblau), der in unserem vorherigen Beispiel verwendet wurden, erfassen wir nur 60% der Jungs anstatt 82%. In Mr. Jones Klasse, würden 26 von 66 Jungs die horizontale Reckstange bei 93 Zoll nicht bequem finden. Für diese Klasse war die Lösung eine variable Höhenleiste mit zwei Einstellungen: eine für die Jungen 60-65 Zoll groß (32 Jungen), eine für die Jungen 66-72 Zoll groß (34 Jungen).

 

Für die Klasse von Herrn Jones war die durchschnittliche Größe, die mittlere Größe, nicht dazu geeignet, um uns ein besseres Verständnis die Informationen über die Höhe der Jungen zu beleuchten, zu ermöglichen. Wir brauchten einen genaueren Blick auf die Informationen, um unseren Weg durch die bessere Lösung zu sehen. Die variable Höhenleiste funktioniert auch für Mrs. Larsens Klasse gut, mit der unteren Einstellung für 25 Jungen und die höhere Einstellung gut für 21 Jungen.

 

Die Kombination der Daten aus beiden Klassen gibt uns diese Tabelle:

Dieses kleine Beispiel soll veranschaulichen, dass Mittelwerte, wie unsere mittlere Höhe, unter Umständen von Nutzen sind, aber nicht in allen Fällen.

In der Klasse von Herrn Jones war die größere Anzahl kleinerer Jungen verdeckt, versteckt, gemittelt, man kann sich auf die mittlere Höhe verlassen, um die besten Lösungen für die horizontale Klimmstange zu bekommen.

Es ist erwähnenswert, dass in Frau Larsens Klasse, die Jungens eine Verteilung der Größen haben – siehe erstes Diagramm oben, die der sogenannten Normalverteilung ähnlich ist, ein Balkendiagramm wie folgend gezeigt:

WUWT

Normalverteilung

Die meisten Werte ergeben einen Gipfel in der Mitte und fallen mehr oder weniger gleichmäßig davor und dahinter ab. Durchschnitte sind gute Schätzungen für Datensätze, die so aussehen. Dabei muss man dann darauf achten, auch die Bereiche auf beiden Seiten des Mittels zu verwenden.

Mittel sind nicht so gut für Datensätze wie es Herr Jones‘ Klasse zeigt oder für die Kombination der beiden Klassen. Beachten Sie, dass das Arithmetische Mittel genau das gleiche für alle drei Datensätze der Größe der Jungen ist – die beiden Klassen und die kombinierten – aber die Verteilungen sind ganz anders und führen zu unterschiedlichen Schlussfolgerungen.

 

Das durchschnittliche Haushaltseinkommen in USA

Eine häufige angewandte Messgröße für das wirtschaftliche Wohlbefinden in den Vereinigten Staaten ist die jährliche Ermittlung des durchschnittlichen Haushaltseinkommens durch das statistische Amt [US Census Bureau].

Erstens, dass es als MEDIAN gegeben wird – was bedeutet, dass es eine gleich große Anzahl von Familien mit einem größeren Einkommen sowie auch Familien unter diesem Einkommensniveau geben sollte. Diese Grafik hier, von der jeweils regierenden Partei veröffentlicht – unabhängig davon, ob es die Demokraten oder die Republikaner sind – wird vom Oval Office (US-Präsident) und den beiden Häusern des Kongresses gerne als Argument [für ihre gute Arbeit] genutzt:

Das ist die gute Nachricht!
Grafik: Das mediane Familien Einkommen zeigt über die Jahre einem schönen stetigen Aufstieg und wir singen alle zusammen mit dem Beatles: “I’ve got to admit it’s getting better, A little better all the time…” [Sgt. Pepper’s Lonely Hearts Club Band]

Die nächste Grafik zeigt die nicht so gute Nachricht:

Die Zeitachse ist auf 1985 bis 2015 verkürzt, aber wir sehen, dass die Familien seit etwa 1998 nicht viel, wenn überhaupt, an realer Kaufkraft gewonnen haben, bereinigt um die Inflation.

Und dann gibt es die Grafik der Wirklichkeit:

Trotz der guten Nachrichten! und der Anerkennung der ersten Grafik und der so genannten Neuigkeiten der zweiten, sehen wir, wenn wir tiefer schürfen, eine andere Geschichte – die bislang verdeckt ist. Diese Grafik ist das Durchschnitts Haushalt Einkommen der fünf Quintile des Einkommens, plus die Top 5%, so dass die Zahlen ein bisschen anders sind und eine andere Geschichte erzählen.

Man unterteilt die Bevölkerung in fünf Teile (Quintil), dafür stehen die fünf bunten Linien. Die unteren 60% der Familien mit geringen Haushaltseinkommen, die grünen, braunen und roten Linien, haben in realer Kaufkraft seit 1967 praktisch keine Verbesserung erreicht, die Mitte / das Großbürgertum in lila Linie, hat einen moderaten Anstieg gesehen. Nur die besten 20% der Familien (blaue Linie) haben eine solide, stetige Verbesserung erreicht – und wenn wir die Top 5% herausnehmen, die gestrichelte schwarze Linie, sehen wir, dass sie nicht nur den Löwenanteil der US-Dollar verdienen, Sie haben auch prozentual am meisten davon profitiert .

 

Wo sind die gefühlten Vorteile?

Oben ist, was uns der nationale Durchschnitt mitteilt, die US Median Haushalts Einkommens Metrik. Wenn wir das ein bisschen näher untersuchen, erkennen wir:

Median Haushaltseinkommen nach Bundesstaaten

Neben einigen Überraschungen, wie Minnesota und North Dakota, zeigt es das, was wir vermuten können. Die Bundesstaaten New York, Massachusetts, Connecticut, New Jersey, Maryland, Virginia, Delaware – kommen alle auf das höchste Niveau des durchschnittlichen Haushaltseinkommen, zusammen mit Kalifornien, Washington. Utah war schon immer die Heimstätte der wohlhabenderen Latter-Day Saints [Kirche Jesu Christi der Heiligen der Letzten Tage] und ist zusammen mit Wyoming und Colorado ein Ruhestand Ziel für die Reichen geworden. Die Bundesstaaten, deren Abkürzungen eingekreist sind, haben Haushalte mit Einkommen in der Nähe des nationalen Medians.

 

Lassen Sie uns das vertiefen:

Median Haushaltseinkommen nach Landkreisen

Die dunkleren grünen Kreise haben die höchsten Median Haushaltseinkommen. San Francisco / Silicon Valley im Westen und die Washington DC-bis-New York City-zu-Boston Megapolis im Osten, sind leicht zu erkennen.

Diese Karte beantwortete meine große Frage: Wieso hat North Dakota so ein hohes Median Einkommen? Antwort: Es ist ein Bereich, umkreist und markiert „?“, Zentriert durch Williams County, mit Williston als Hauptstadt. Hier wohnen weniger als 10.000 Familien. Und „Williston sitzt auf der Bakken-Formation, der bis Ende 2012 vorausgesagt wurde, mehr Öl zu produzieren als jeder andere Standort in den Vereinigten Staaten“, es ist das Gebiet von Amerikas neustem Öl-Boom.

 

Und wo ist das große Geld? Meistens in den großen Städten:

Median Haushaltseinkommen nach Städten

 

Und wo ist das Geld knapp? Alle jene hellgelben Landkreise sind Gebiete, in denen viele bis die meisten Familien an oder unterhalb der föderalen Armutsgrenze für vierköpfige Familien leben.

Median niedrigste Haushaltseinkommen nach Landkreisen

 

Einkommen der restlichen Haushalte

Eine Auswertung der Gebiete der US-Indianer Reservate zeigt, dass diese im Westen vor allem die niedrigsten und zweithöchsten Einkommensgruppen repräsentieren. (Ein eigenes Interesse von mir, mein Vater und seine 10 Brüder und Schwestern wurden in Pine Ridge im südwestlichen South Dakota geboren, das rote Oval.) Man findet viel von dem alten Süden in dem untersten Kreis (hellgelb) und den Wüsten von New Mexico und West Texas und den Hügeln von West Virginia und Kentucky.

 

Eine weitere Grafik:

Prozentuale Verteilung der Haushaltseinkommen

Was sagt uns das?

Es sagt uns, dass das nationale Median Haushaltseinkommen, als Einzelwert – vor allem in Dollar, der nicht Inflation bereinigt ist – die Ungleichheiten und Unterschiede, die wichtige Fakten dieser Metrik sind, verdecken. Der Einzelwert des nationalen Median Haushaltseinkommen ergibt nur eine sehr unzureichende Information – es sagt uns nicht, wie amerikanische Familien  einkommensmäßig einzuordnen sind. Es informiert uns nicht über das wirtschaftliche Wohlergehen der amerikanischen Familien – vielmehr verbirgt es den wahren Sachverhalt.

Daher sage ich, dass das veröffentlichte durchschnittliche Haushaltseinkommen, anstatt das wirtschaftliche Wohlergehen der amerikanischen Familien zu beleuchten, buchstäblich die wirklichen signifikanten Daten über das Einkommen der amerikanischen Haushalte verbirgt. Wenn wir uns erlauben, von dem Strahl der Verschleierung [Im Original „shines a Beam of Darkness“] verblendet zu werden, die diese Art von Wahrheit versteckenden Durchschnittswerten repräsentieren, dann scheitern wir in unserer Pflicht als kritische Denker.

 

Bedeutet das, dass Durchschnittswerte schlecht sind?

Nein natürlich nicht. Sie sind nur eine Möglichkeit, eine Reihe von numerischen Daten zu betrachten. Das bietet aber nicht immer die beste Information. Es sei denn, die Daten, die man betrachtet, sind fast normal verteilt und Änderungen werden durch bekannte und verstandene Mechanismen verursacht. Mittelwerte aller Art führen uns häufiger in die Irre und verdecken die Informationen, die wir wirklich betrachten sollten. Durchschnittswerte sind die Ergebnisse von faulen Statistikern und führen selten zu einem besseren Verständnis.

Der häufigste logische und kognitive Fehler ist es, das es das Verständnis beeinflusst, es eine Meinung suggestiert, indem man nur diese eine sehr schmale Sicht auf die Daten anbietet – man muss unbedingt erkennen, dass sich die Information hinter irgendeiner Art von Durchschnitt versteckt und alle anderen verfügbaren Informationen verdeckt und diese damit nicht wirklich repräsentativ für das gesamte, große Bild sein kann.

Es gibt viele bessere Methoden der Darstellung von Daten, wie das vereinfachte Balkendiagramm, das im Beispiel der Schuljungen verwendet wird. Für einfache numerische Datensätze, Diagramme und Grafiken, sind diese oft angemessen, wenn sie verwendet werden, um Informationen zu zeigen, anstelle diese zu verstecken).

Wie Mittelwerte, können auch Visualisierungen von Datensätzen für gute oder schlechte Informationen verwendet werden – die Propaganda durch Nutzung von Datenvisualisierungen, die heutzutage PowerPoint-Folien und Videos beinhalten, ist Legion.

Hüten Sie sich vor jenen, die Mittelwerte wie Schlagstöcke oder Knüppel handhaben, um öffentliche Meinung zu bilden.

 

Und Klima?

Die Definition des Klimas ist, dass es ein Durchschnitt ist – „diese Wetterbedingungen herrschen in einem Gebiet im allgemeinen oder über einen langen Zeitraum.“ Es gibt keine einzige „Klima Metrik“ – keine einzelner Wert, der uns sagt, was „Klima“ tut.

Mit dieser vorgenannten Definition, zufällig aus dem Internet über Google – gibt es kein Erd-Klima. Die Erde ist kein Klimabereich oder Klimaregion, die Erde hat Klimaregionen, ist aber kein Klimabereich.

Wie in Teil 1 erörtert, müssen die im Durchschnitt gemittelten Objekte in Sätzen homogen und nicht so heterogen sein, dass sie inkommensurabel sind. So werden bei der Erörterung des Klimas einer Region mit vier Jahreszeiten, Allgemeinheiten über die Jahreszeiten gemacht, um die klimatischen Bedingungen in dieser Region im Sommer, Winter, Frühjahr und Herbst einzeln darzustellen. Eine durchschnittliche Tagestemperatur ist keine nützliche Information für Sommerreisende, wenn der Durchschnitt für das ganze Jahr einschließlich der Wintertage genommen wird – solch eine durchschnittliche Temperatur ist Torheit aus pragmatischer Sicht.

Ist es aus der Sicht der Klimawissenschaft ebenfalls Dummheit? Dieses Thema wird in Teil 3 dieser Serie behandelt.

 

Schlussfolgerung:

Es reicht nicht aus, den Durchschnitt eines Datensatzes korrekt mathematisch zu berechnen.

Es reicht nicht aus, die Methoden zu verteidigen, die Ihr Team verwendet, um die [oft-mehr-missbrauchten-als-nicht] globalen Mittelwerte von Datensätzen zu berechnen.

Auch wenn diese Mittelwerte von homogenen Daten und Objekten sind und physisch und logisch korrekt sind, ein Mittelwert ergibt eine einzelne Zahl und kann nur fälschlicherweise als summarische oder gerechte Darstellung des ganzen Satzes, der ganzen Information angenommen werden.

Durchschnittswerte, in jedem und allen Fällen, geben natürlicherweise nur einen sehr eingeschränkten Blick auf die Informationen in einem Datensatz – und wenn sie als Repräsentation des Ganzen akzeptiert werden, wird sie als Mittel der Verschleierung fungieren, die den Großteil verdecken und die Information verbergen. Daher, anstatt uns zu einem besseren Verständnis zu führen, können sie unser Verständnis des zu untersuchenden Themas reduzieren.

Durchschnitte sind gute Werkzeuge, aber wie Hämmer oder Sägen müssen sie korrekt verwendet werden, um wertvolle und nützliche Ergebnisse zu produzieren. Durch den Missbrauch von Durchschnittswerten verringert sich das Verständnis des Themas eher, als das es die Realität abbildet.

Erschienen auf WUWT am 19.06.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/06/19/the-laws-of-averages-part-2-a-beam-of-darkness/

 

Für unsere Leser in Deutschland, hier eine Grafik des statistischen Bundesamtes

© Statistischen Ämter des Bundes und der Länder, Deutschland, 2017. Dieses Werk ist lizensiert unter der Datenlizenz Deutschland – Namensnennung – Version 2.0.




Kinder-Bergar­beiter im Alter von vier Jahren erleben die Hölle auf Erden, damit SIE ein Elektro­auto fahren können

Sky News recherchierte in den Katanga-Minen und fand Dorsen, 8 Jahre alt, und Monica, 4 Jahre alt.

Das Paar schuftete in den riesigen Minen der Demokratischen Republik Kongo

Es sind zwei der 40.000 Kinder, die täglich in den Minen arbeiten, indem sie Felsen auf Kobalt untersuchen

Indem er sich durch einen Berg riesiger Felsen mit seinen kleinen nackten Händen wühlt, ist der erschöpfte kleine Junge einen Mitleid erregender Anblick.

Er heißt Dorsen und ist einer aus einer ganzen Armee von Kindern, einige davon gerade mal vier Jahre alt, die in den riesigen schmutzigen Minen der Demokratischen Republik Kongo arbeiten. Giftiger roter Staub brennt dort in ihren Augen, und sie sind der Gefahr von Hautkrankheiten und tödlichen Staubansammlungen in der Lunge ausgesetzt. Hier werden die Kinder für 8p pro Tag eingesetzt, um die Felsen auf Anzeichen für die schokoladenbraunen Adern von Kobalt zu untersuchen – eine absolut notwendige Zutat für die Batterien, welche Elektroautos antreiben sollen.

Und es wird befürchtet, dass tausende weitere Kinder in diese höllische tägliche Existenz getrieben werden – nach der historischen Versprechung seitens UK, den Verkauf von Benzin- und Dieselautos ab 2040 zu verbieten und nur noch Elektrofahrzeuge zuzulassen [siehe unten am Ende des Beitrags]

Abgebildet ist hier der achtjährige Dorsen, der sich unter der zum Schlag erhobenen Hand eines Aufsehers duckt. Dieser warnt ihn, ja keinen Felsen zu verlieren.

Damit soll eine Zukunft sauberer Energie frei von Verschmutzung eingeläutet werden – und es besteht kein Zweifel hinsichtlich der guten Absichten hinter der Demarche von Energieminister Michael Grove – doch bedeuten derartige Ideale nichts für die Kinder, die zu einem Leben in höllischem Elend verdammt sind in dem Bestreben, Groves Ziel zu erreichen.

Dorsen, gerade acht Jahre alt, ist einer von 40.000 Kindern, die täglich in den Minen der Demokratischen Republik Kongo (DRC) arbeiten. Der schreckliche Preis, den sie für unsere saubere Luft [?] bezahlen, besteht aus ruinierter Gesundheit und einem wahrscheinlichen frühen Tod.

Fast jeder große Motorbauer kauft sein Kobalt von diesem verarmten afrikanischen Staat – in dem Bestreben, Millionen Elektrofahrzeuge herzustellen. Das Land ist der größte Exporteur des Minerals und hält 60% aller Reserven weltweit.

Das Kobalt wird in ungeregelter Arbeit abgebaut und nach Asien transportiert, wo Batterie-Hersteller es verwenden, um ihre Produkte leichter, langlebiger und wieder aufladbar zu machen.

Der geplante Wechsel zu Fahrzeugen mit sauberer Energie [?] hat zu einer exorbitanten Steigerung der Nachfrage geführt. Während eine Smartphone-Batterie nicht mehr als 10 Gramm raffiniertes Kobalt benötigt, braucht ein Elektroauto 15 kg davon.

Dann bricht er fast zusammen unter dem Gewicht eines Sacks, den er durch strömenden Regen 60 Fuß [ca. 18 m] weit schleppen muss

Die Handelsbank Goldman Sachs nennt Kobalt ,das neue Benzin‘, aber es gibt keinerlei Anzeichen neuen Wohlstands in der DRC, wo die Kinder das Gestein aus von Hand gegrabenen Tunneln an das Tageslicht befördern.

Erwachsene Bergleute graben bis zu 600 Fuß [ca. 180 m] unter der Oberfläche unter Verwendung einfachster Werkzeuge, ohne Schutzkleidung oder moderne Maschinen. Manchmal werden die Kinder in kleine Behelfskammern geschickt, die ständig zu kollabieren drohen.

Kobalt ist eine solche Gesundheitsgefahr, dass danach sogar eine Lungenkrankheit danach benannt worden ist – die Kobaltlunge, eine Form der Lungenentzündung, die zu Husten, permanenter Krankheit und sogar zum Tode führt.

Selbst der Verzehr von lokal angebautem Gemüse kann zu Erbrechen und Durchfall führen, zu Schilddrüsenschäden und tödlichen Lungenkrankheiten, während Vögel und Fische in derartigen Gebieten nicht überleben können.

Niemand weiß, wie viele Kinder beim Abbau von Kobalt aus den Minen im Katanga-Gebiet im Südosten des Landes bereits gestorben sind. Die UN schätzen 80 pro Jahr, aber viele Todesfälle werden gar nicht aufgezeichnet, wobei die Körper einfach im Schutt eingebrochener Gänge begraben werden. Andere überleben mit chronischen Krankheiten, welche ihre jungen Leben ruinieren. Mädchen sind bereits im Alter von zehn Jahren sexuellen Übergriffen ausgesetzt, und viele werden schwanger.

Abgebildet sind hier Dorsen und der 11-jährige Richard. Nach dem Tod seiner Mutter lebt Dorsen mit seinem Vater im Busch, und die beiden müssen täglich in der Kobaltmine arbeiten, um Geld für Nahrung zu verdienen.

Als Sky News in den Katanga-Minen recherchierte, fand es Dorsen, der an einem Tag mit strömendem Regen neben einem kleinen Mädchen namens Monica arbeitete. Monica ist vier Jahre alt.

Monica, erst vier Jahre alt, arbeitet in der Mine an der Seite von Dorsen und Richard (Ausschnitt). Quelle

Dorsen schleppte schwere Säcke mit Gestein vom Eingang der Mine zu einem wachsenden Haufen 60 Fuß [ca. 18 m] entfernt. Ein prall gefüllter Sack wurde auf Dorsens Kopf gehievt, und er stolperte damit zu dem Haufen. Ein brutaler Aufseher stand über ihn gebeugt, brüllend und die Hand drohend zum Schlag erhoben, sollte er irgendwelche Steine verlieren.

Dorsens Freund Richard, 11 Jahre alt, sagte, dass ihm am Ende eines Arbeitstages ,alles wehtut‘.
In einem Land, in dem bei Bürgerkriegen Millionen Menschen ums Leben gekommen waren, gibt es keinen anderen Weg für Familien, um zu überleben. Das Department for International Development (DFID) in UK [etwa: Ministerium für Entwicklungshilfe] spendete zwischen Juni 2007 und Juni 2018 10,5 Millionen Pfund für die Steigerung der Transparenz und um verantwortungsbewusste Aktivitäten in großem und geringerem Umfang bei dem handwerklichen Bergbau zu stärken – ,damit die Armen in DRC davon profitieren‘.

Es gibt bislang keinerlei Anzeichen dafür, dass diese Bemühungen fruchten. Es gibt in der DRC ein Gesetz, das Kinderarbeit verbietet, aber niemand setzt es durch.

Die International Labour Organisation der UN haben den Kobalt-Abbau in der DRC wegen der Gesundheitsrisiken als ,eine der schlimmsten Formen von Kinderarbeit‘ beschrieben.

Bodenproben aus dem Bergbaugebiet, welche von Ärzten an der University von Lubumbashi, der nächsten größeren Stadt, genommen worden waren, wiesen das Gebiet als eines der zehn am stärksten verschmutzen Gebiete der Welt aus. Anwohner nahe den Minen im südlichen DRC hatten in ihrem Urin einen Kobaltgehalt, der 43 mal höher war als normal. Der Bleigehalt war fünf, der Kadmium- und Urangehalt vier mal höher.

Das weltweite Programm, Millionen Elektrofahrzeuge auf unsere Straßen zu bringen, hat jenen gigantischen Herstellern einen großen Vorteil eingebracht, welche diese Goldgrube haben kommen sehen und in die Entwicklung von batteriegetriebenen Elektroautos investiert haben, darunter General Motors, Renault-Nissan, Tesla, BMW und Fiat-Chrysler.

Read the full story here.

Daraus auch dieser Einschub:

Verbot des Verkaufs von Benzin- und Dieselfahrzeugen von 2040 an

Befürworter von Elektroautos – welche man nach 2040 ausschließlich nur noch kaufen können wird – verweisen auf deren Vorteile, sind sie doch frei von Verschmutzern, und deren geringerer Kohlenstoff-Ausstoß wird dabei helfen, die Bedrohung der globalen Erwärmung zu mindern.

Aber die Fahrzeuge erfordern ein erheblich ausgeweitetes Netz von Ladestationen, um ihre Batterien aufzuladen. Diese Batterien benötigen zu ihrer Herstellung große Mengen Kobalt und Lithium.

Der Wechsel zu Elektrofahrzeugen in UK und auf der ganzen Welt wird zu einer außerordentlichen Steigerung der Nachfrage nach beiden Mineralien führen – mit potentiell verheerenden Konsequenzen für die Arbeiter in armen ändern, welche giftigen Materialien ausgesetzt sind und welche unter gefährlichen medizinischen Umständen leiden wie der ,Kobaltlunge‘.

Link: https://tinyurl.com/yasc29t5

Übersetzt von Chris Frey EIKE




Hitzerekorde aus dem Computer! UN-Klimaschutzpolitik ändert nichts am weltweiten Wettergeschehen

Überall in den Klimarechenzentren auf der Welt laufen derzeit die Computer heiß, um „warme Luft“ zu generieren für künftige Klima-Schreckensszenarien. Zu tief sitzt die Schmach darüber, dass die Weltmacht und mächtigste Industrienation der Erde nicht zu bewegen war, den „Ausstieg“ aus dem Pariser Klimaabkommen wieder rückgängig zu machen. In Erinnerung sind noch die Worte des US-Präsidenten Donald Trump, „die Wissenschaft liege mit ihrem Weltuntergangsszenario falsch“. Die Entgegnung des EU-Präsidenten Jean-Claude Juncker lautete, „Trump habe die Dimensionen des Pariser Klimaabkommens nicht voll verstanden“. Bundeskanzlerin Angela Merkel reagierte voll Trotz: Was sich die Weltgemeinschaft zum Klimaschutz einmal vorgenommen habe, sei „unumkehrbar und nicht verhandelbar“. Hätte sie das Wetter gemeint, hätte sie richtig gelegen: Das Wetter ist nicht verhandelbar und unumkehrbar!

Nun müssen die Computer ran, werden die Klimamodelle auf „Katastrophe“ justiert. Sie sind gehorsam, schnell und gehorchen jedem Befehl. Wer an den Schalthebeln sitzt, der bestimmt das Bild der Zukunft. Für seinen letzten Bericht hat der Weltklimarat rund 900 verschiedene „Zukünfte“ durchgerechnet. Es wimmelt nur so von „Konjunktiven“ und wenn-dann-Annahmen, denn niemand kennt die Zukunft und schon gar nicht die des Jahres 2100. Forscher von der Universität Edinburgh errechneten anhand von Klima-Simulationen, so die Süddeutsche Zeitung am 31. Juli 2017, dass „im Zeitraum von 1400 bis 1800 die Durchschnittstemperatur um 0,03 bis 0,19 Grad niedriger lag als am Ende des 19. Jahrhunderts“. Dies hätte zur Folge, dass entsprechend das Zwei-Grad-Ziel näher rücke und praktisch nicht einzuhalten ist, vom 1,5-Grad-Ziel ganz zu schweigen. Modelle schaffen schon wahre Wunder. Damals gab es „Klima“ noch nicht und die Celsius-Skala datiert von 1742. Auch wenn die Ablesegenauigkeit eines Quecksilberthermometers nur bei +/- 0,1 Grad liegt, schaffen es Computer, eine „Globaltemperatur“ auf exakt 0,03 Grad zu berechnen.

Weltorganisation für Meteorologie (WMO) macht Jagd auf Temperaturrekorde

 Nachdem das Jahr 2016 zum „wärmsten Jahr“ seit 130 Jahren deklariert wurde, ist die Jagd nach neuen Rekorden voll im Gange, mitten im Hochsommer der Nordhalbkugel. Noch gilt der Rekord vom 10. Juli 1913 mit +56,7°C im „Tal des Todes“ in Kalifornien. Die WMO fand in Granada/Spanien einen Wert von +41,5, in Phoenix/Arizona einen Wert von +47,8 und in Turbat/Pakistan einen Wert von +54°C. Dann wurden die Computer angeschmissen und Hochrechnungen angestellt. Heraus kam, dass bisher nur 30% der Weltbevölkerung an mehr als 20 Tagen im Jahr „bedrohlichen Hitzewellen“ ausgesetzt seien. Im Jahre 2100 werden es 48% der Weltbevölkerung sein und sogar 74% ohne „Klimaschutzmaßnahmen“. Nicht definiert wurde, was als „bedrohliche Hitzewellen“ zu verstehen ist. Wenn nichts geschehe, stünden wir vor dem „Ende der Welt, wie wir sie kannten“. Wer kann bei solchen Warnungen einen „kühlen Kopf“ bewahren?

Um die Gefühle noch mehr aufzuheizen, wird seitens der WMO gedroht, der „Globus könne sich um bis zu 50-mal schneller erwärmen, als es beim schnellsten bekannten natürlichen Klimawandel geschah“. Das muss wahr sein, denn eine UN-Institution kann nicht lügen, oder doch? Es gibt ein Sprichwort, das lautet: „Allzu klug ist dumm“. Dumm, dass diese Behauptung falsch ist und den Verdacht eines bewussten Betruges weckt. Jeder Meteorologe und Paläoklimatologe kennt den Begriff „Dansgaard-Oeschger-Ereignis“. In der letzten Eiszeit von etwa 115.000 bis 12.000 v. Chr. gab es anhand von Eisbohrkern-Untersuchungen etwa 26 solcher Ereignisse. Sie zeichneten sich dadurch aus, dass innerhalb eines Jahrzehnts, also von 10 Jahren, die Temperaturen um 6 bis 10°C anstiegen. Erklären kann man dieses Phänomen nicht, aber auf die abstruse Idee, den „Neandertaler“ dafür verantwortlich zu machen, ist noch kein Mensch gekommen. Die Behauptung der WMO, „der Globus könne sich bis zu 50-mal schneller“ erwärmen, ist frei aus der Luft gegriffen.

Die Medien sollten sich strikt weigern, solch einen „Unsinn“ zu verbreiten, denn für jede ungeprüfte Weitergabe von solchen Horrornachrichten ernten sie den Vorwurf „Lügen-Presse“. Nicht sie erfinden die „Lügen“, aber sie verletzen ihre Sorgfaltspflicht, wenn sie „alles und jedes“ unkritisch verbreiten. Am 4. August 2017 wurde eine Meldung von der ETH Zürich über ‚dpa’ verbreitet, „selbst mit den größten Anstrengungen zur CO2-Verringerung würden 80 bis 90 Prozent der Eismassen bis 2100 schmelzen“. Für die Schweizer Gletscher käme eine „Verlangsamung der Erderwärmung“ zu spät. „1973 zählte die Schweiz 2150 Gletscher, heute sind es noch rund 1400.“ Auch hier hätte ein Blick in die Geschichte des Holozän gezeigt, dass die Gletscher „kommen und gehen“, ohne Einfluss der modernen Industriegesellschaften.

Der Einfallsreichtum der „Klimaexperten“ kennt weder Grenzen noch Schranken. Aus dem Joint Research Center der Europäischen Kommission im italienischen Ispra kam wieder über ‚dpa’ die Meldung, dass „wetterbedingte Katastrophen“ um 2100 „jedes Jahr etwa zwei Drittel der Europäer beeinträchtigen. „Durch extreme Wetterereignisse könnten von 2071 bis 2100 in der Europäischen Union, der Schweiz, Norwegen und Island jährlich sogar 80.000 bis 240.000 Menschen starben.“ Fazit: „Der Klimawandel ist eine der größten globalen Bedrohungen für die menschliche Gesundheit im 21. Jahrhundert.“ Ja, wer bedroht uns nun, der „Klimawandel“ oder das Wetter, dessen Zukunft wir nicht einmal für die nächsten 24/48 Stunden exakt vorhersagen können? Hängen uns diese mit einer Penetranz ohnegleichen gebetsmühlenartig vorgetragenen Drohungen und Warnungen der „Klimaexperten“ nicht langsam zum Halse raus? Wann begehrt gegen diese unsägliche Angstmacherei der Bürger endlich auf?

Wir Bürger sollten etwas mutiger auftreten und uns gegen unbotmäßige und unhaltbare Vorwürfe wehren. Wo war unser Widerstand, als wir vor etwa 30 Jahren mit der „Warnung vor der drohenden Klimakatastrophe“ urplötzlich wie aus heiterem Himmel zu „Klimakillern“ abgestempelt wurden? Die Schlagzeile der Allgemeinen Zeitung Mainz vom 5. August 2017 lautet: „Klimawandel wird zum Killer“! Darunter: „Wissenschaft – Bis Ende des Jahrhunderts könnte das Wetter Hunderttausende Tote verursachen“. Auch hier erweist sich: Logisch ist dies nicht, aber „ideologisch“!

 

Angst vor dem „unbekannten Wesen“ Wetter hatte schon der Urmensch

Als der Mensch die irdische Bühne betrat, war die Erde belebt und überall gab es Wetter, sehr unterschiedliches Wetter. Der Mensch war gezwungen, sich dem Wetter zu fügen und anpassen, wollte er überleben. Ändern konnte er es damals wie heute nicht. Der Mensch meisterte Eis- und Warmzeiten und breitete sich über die Erde aus. Spielte das Wetter verrückt, bescherte es Hitze oder Kälte, Dürren, Fluten, Gewitter oder Tornados, dann wurde ihm das von „Weisen“ als „Strafe der Götter“ erklärt Der mächtigste unter ihnen war stets der „Wettergott“, bei den Griechen Zeus, bei den Römern Jupiter, bei den Germanen Wotan.

An der Ohnmacht des Menschen vor dem Wetter hat sich nichts geändert, an dessen Unbeständigkeit, Launenhaftigkeit, wie Unberechenbarkeit. Das Wetter schläft nie und bietet jeden Morgen neuen Gesprächsstoff. Man kann sich über das Wetter aufregen, es beschimpfen oder verdammen. Es reagiert nicht, nimmt keine Wünsche an, rächt sich aber auch nicht an uns. Kein Mensch ist „schuld“ am Wetter. Er muss es überall auf der Erde nehmen, wie es kommt, muss sich mit ihm arrangieren. Seine Bekleidung, seine Behausung, der Feldanbau, der Ernteertrag, alles richtet sich nach dem Wetter. Es ist politisch absolut neutral, so dass ideologisch verfeindete Politiker sich beim Gespräch über das Wetter näher zu kommen versuchen.

Gespräche über das Wetter entwickeln sich aber mehr und mehr zum Politikum. Es ging los im Mittelalter, als man begann, Menschen für das Wetter verantwortlich machen zu wollen. Viele Frauen mussten diesen Irrglauben als Hexen auf dem Scheiterhaufen mit ihrem Leben bezahlen. Geholfen hat es nichts, aber der Mensch ist immer auf der Suche nach Schuldigen. „Wissenschaftler“ verkündeten, dass das „Klima“ das Wetter steuere, das „Klima“ aber wieder durch den Menschen gesteuert werde, ob seines unnatürlichen und luxuriösen Lebensstils. Die „Industrienationen“ würden die Natur ausbeuten, fossile Rohstoffe verbrennen, mit „Treibhausgasen“ die Luft verpesten, eine „Klimakatastrophe“ auslösen. Glaubte man dieser These, wären wir kollektiv schuld am Wetter.

Das Wetter der letzten Monate war sehr günstig für die „Klima-Katastrophen-Jünger“. Jeder Blitz durchzuckte uns, jeder umgestürzte Bau, jeder vollgelaufene Keller weckte Schuldgefühle. „Klimaexperten“ dominieren die Schlagzeilen, haben die totale mediale Deutungshoheit. Der Chef des Berliner-Mercator-Instituts für Klimafolgenforschung, Ottmar Edenhofer sagte: „Aufgehalten werden kann der Klimawandel nicht mehr. Aber er kann noch gebremst werden.“ Hört sich „gut“ an, aber wenn der „Klimawandel“ nicht aufgehalten werden kann, dann kann er auch nicht gebremst werden. Und außerdem muss ein „Klimaökonom“ so viel Ahnung von Statistik haben, dass er eine abgeleitete Größe von den vielen Anfangswerten abhängt und nicht umgekehrt. Korrekt wäre zu sagen, dass der ewige Wandel des Wetters in der Geschichte einen Wandel des „Klimas“ ergibt, wobei sich kein Ding namens „Klima“ aktiv wandelt, sondern nur den Wandel „mittlerer Wetterzustände“ beschreibt.

 

Und was uns sonst noch alles von „Wissenschaftlern“ erzählt wird!

 

Ein möglicher Weg aus der Sackgasse „Klimawandel“ sei, so Otmar Edenhofer, die CO2-Bespreisung, denn diese bewirke höhere Einnahmen für die Staaten. Ja, „Geld regiert die Welt“ und davon können die Staaten nie genug bekommen! Hat dieser „Experte“ sich einmal gefragt, ob das Wetter bestechlich ist und wie viel es kosten würde, ein „Gewittertief mit Unwetterpotential“ aufzulösen oder zu verhindern, dass feuchtwarme Luft aus Südwest mit nasskalter Luft aus Nordwest über Deutschland „zusammenstößt“? Glaubt der „Herr Professor“, der als Volkswirt auch Chefökonom des Potsdam-Instituts für Klimafolgenforschung (PIK) ist, dass man mit Geld einen Westwind in einen Ostwind oder einen Südwind in einen Nordwind verwandeln könnte?

Der „Klimaexperte“ Peter Hoffmann vom PIK sagte: „Ganz „normale“ Bilderbuchsommer, trocken und mit Temperaturen um die 25 bis 30°C über Wochen, werden immer seltener. Normal werden zunehmend längere Trockenperioden und Hitzephasen, gefolgt von Stark- und Dauerregen.“ Diese immer wieder unterstellte „Normalität“ gibt es beim Wetter nicht. Berechnet man an einem Ort über 100 Jahre die Jahresmitteltemperatur und bildet daraus ein „Jahrhundertmittel“, so kann man davon ausgehen, dass dieser keinem einzigen Mittel der 100 Jahre entspricht. Wenn schon ein „normaler“ Bilderbuchsommer nicht „normal“ ist, dann kann er noch weniger als „Norm“ angesehen werden, die sich einstellen wird, wenn wir „Autofasten“, uns nur „vegetarisch“ ernähren, nur zu Fuß gehen. Der „Klimaexperte“ Mojib Latif sieht die Zunahme der „Gefahr extremer Wetterlagen“ im „Klimawandel“, obgleich er genau die Definition von „Klima“ kennt. Um zu einem „Klimawert“ zu kommen, muss man 30 Jahre an einem Ort Wetterdaten erheben und sie dann statistisch zu einem „Klimawert“ verdichten. „Klima“ ergibt sich aus dem Wettergeschehen! Der Wetterwandel bedingt den Klimawandel! Es ist unwahr zu sagen, der „Klimawandel“ verursacht den Wandel des Wetters, eine Zunahme der Wetterextreme.

Die Floskel „Rettet das Klima“ klingt wie ein Ruf nach einer Wettervergangenheit, die sich nicht zurückholen lässt. Wetter ruht nie wie auch die Zeit nicht. Beide, Wetter wie Zeit“, sind irreversible Naturvorgänge, sind unumkehrbar. Was es heute alles an Wetter gibt, auch an Wetterextremen oder „Unwettern“, ist alles schon mal da gewesen, wenn auch in chaotischer Reihenfolge. Wir wissen weder, wann der nächste Orkan kommt, noch wann und wo der nächste Tornado wütet. Wenn Experten verkünden „zu heiß, zu kalt, zu nass – Wetterextreme in Deutschland nehmen zu!“, dann ist dies ganz billige Wahrsagerei, Spökenkiekerei! Alle Hochwasser, 2010 an der Oder und Weichsel, 2006 an der Elbe, 2005 an der Donau, 2002 an der Elbe, 2001 an der Weichsel, 1999 an der Donau, 1997 an der Oder, 1995 und 1993 am Rhein haben nichts mit dem „Klimawandel“ zu tun. Alles ist Folge von Tiefdruckgebieten, die ihren Ursprung über dem Golf von Genua haben. Von 1970 bis 2005 hat es in Europa 222 Hochwässer gegeben! Noch verheerender waren 1362 und 1634 die beiden „Großen Manntränken“. Auch das Rheinhochwasser 1784 ist nicht auf die „Dampfmaschine“ zurückzuführen.

Waren die 15.000 Salzburger, die 1732 nach Ostpreußen auswanderten, etwa „Schuld“, dass sich dort das Wetter verschlechterte? Es waren schwere Zeiten: „Der Winter 1742 war besonders hart, dass die Obstbäume ruiniert waren; 1745 herrschte eine extreme Missernte; 1750 hat eine Viehseuche die Bestände bis auf 10% reduziert; 1755 herrschte so starker Frost, dass sogar Menschen erfroren; 1756 machte der Wassermangel besonders zu schaffen“. Sind das die „vorindustriellen Zeiten“, in die uns die Politik mit der Reduktion der „Treibhausgase“ zurückführen will? Es ist höchste Zeit, dass wir nicht blind dem „Wissen“ der Elite in Politik und Wissenschaft glauben. Seien wir kritischer und haben wir nach Immanuel Kant den Mut, unseren eigenen Verstand einzusetzen und auf unser logisches Urteilsvermögen zu bauen. Dann werden wir sehen, dass viel „Wissen“ auf haltlosen Vermutungen und nicht auf Fakten beruht, geglaubt werden muss.

Ein Wegbereiter der Aufklärung war René Descartes (1596-1650), der den Spruch prägte. „Ich denke, also bin ich“ (Cogito ergo sum!). Wer nicht denkt und denken lässt, ist nicht, sondern lässt sich passiv durch das Leben führten, als ängstliches „Schaf“ am „Nasenring“. Befreien wir uns vom Nasenring. Das ist leicht bei der Drohung mit der „Klimakatastrophe“. Man denke einfach nur an die Definition von „Klima“. „Klima“ ist eine vom Wetter abgeleitete Größe, ein Konstrukt des Menschen und kein Naturvorgang. Das Wetter ist ein realer Vorgang, das „Klima“ dagegen ein imaginärer Vorgang, ein „vorgestelltes Ding“. Das Bild von der „Klimakatstrophe“ ist ein Trugbild oder Gespenst. Es wurde konstruiert, um uns Angst einzujagen und Bußgeld für unsere „Klimasünden“ einzutreiben.

Dipl.-Met. Dr. phil. Wolfgang Thüne

 




Rechtferti­gungen für Biotreib­stoff sind illusorisch

Der Renewable Fuel Standard (RFS), ins Leben gerufen im Rahmen eines Energiegesetzes 2005 und 2007 erweitert zum Energy Independence and Security Act [etwa: Gesetz zu Energie-Unabhängigkeit und -Sicherheit] ist dafür ein perfektes Beispiel. Es hat mehr Leben als Freddy Krueger [eine Filmgestalt].

Die Gesetze verlangen, dass Raffinierer ihr Benzin mit stetig steigenden Mengen von Äthanol anreichern müssen, und es wird erwartet, dass der private Sektor zunehmende Mengen „zellulosischen“ Treibstoff, auf „Biomasse basierenden Diesel“ und „fortschrittliche“ Biotreibstoffe erzeugt. Außer für Äthanol aus Mais haben sich die Erwartungen hinsichtlich Erzeugung zumeist als Fantasien erwiesen. Die Rechtfertigungen für erneuerbare Treibstoffe waren demnach Angst erzeugende Übertreibungen und sind jetzt reine Illusionen.

Fangen wir an mit Behauptungen zur Rechtfertigung der RFS-Posse. Man sagte uns, dass es die Verschmutzung reduzieren würde. Aber die Autos sind schon jetzt zu 95% sauberer als ihre Vorgänger im Jahre 1970. Folglich bringt es keine wirklichen Vorteile.

Die USA beuteten ihre Petroleum-Reserven aus, und das RFS würde die Einfuhr von Öl aus instabilen, feindlichen Ländern reduzieren. Aber die Revolution in Gestalt horizontaler Bohrungen und Fracking hat den USA mindestens ein Jahrhundert lang neue Reserven verschafft. Amerika exportiert jetzt mehr Öl und raffinierte Produkte als es importiert, und der Verbrauch von Öl aus dem Ausland in den USA ist der niedrigste seit 1970.

Auch sagte man uns, dass erneuerbare Treibstoffe helfen würden, einen gefährlichen, vom Menschen verursachten Klimawandel zu verhindern. Dies setzt voraus, dass das Klima getrieben wird durch anthropogenes Kohlendioxid – und nicht durch Änderungen des solaren Outputs, kosmische Strahlen, Meeresströme und andere mächtige natürliche Kräfte, welche Eiszeiten, Kleine Eiszeiten, Warmzeiten Dürren und Überschwemmungen mit sich brachten. Es setzt voraus, dass Biotreibstoffe kein CO2 emittieren oder zumindest deutlich weniger als Benzin – in Wirklichkeit emittieren sie über ihre gesamte Lebensdauer mindestens genauso viel, wenn nicht mehr, dieses Pflanzen düngenden Moleküls.

Außerdem erlebt die Menschheit im Gegensatz zur von Al Gore und den Computermodellen sowie Al Gores neuem Film geschürten Hysterie keine ungewöhnlichen oder beispiellosen Klima- und Wettervorgänge. Sehr unbequem für das, was Mr. Gore so hinaus posaunt: Tatsächlich ist seit Oktober 2005 kein einziger Hurrikan der Stärke 3 bis 5 mehr auf das US-Festland übergetreten, das sind rekordhafte 11 Jahre und 9 Monate. Er präsentiert einfach eine scheinbar endlose Folge von Wetter-Kalamitäten – was die australische Wissenschaftsautorin Jo Nova treffend als „primal weather porn” bezeichnet. Die Behauptung reflektiert absichtliche Verzerrung der Wahrheit und einen abgrundtiefen Angriff auf die Wissenschaft (seitens eines Mannes, der die Noten C und D [entspricht den Noten 3 bzw. 4 in D] in seinen einzigen beiden Wissenschafts-Vorlesungen am College erhalten hat).

Um eine weitaus vollständigere, faktischere und ehrlichere Klimawissenschaft zu bekommen, schaue man sich stattdessen den Dokumentarfilm Climate Hustle an.

Und außerdem – angesichts des Umstandes, dass China, Indien, das übrige Asien, Afrika, Polen und sogar Deutschland immer mehr Kohle verbrennen – und mehr Benzin und Erdgas – steigen die atmosphärischen CO2-Konzentrationen immer weiter. Aber inzwischen verzeichnete Grönland die kälteste Juli-Temperatur jemals [auf Deutsch auch hier]. Außerdem sind die globalen Temperaturen nach dem El Nino von 2015/16 wieder auf das Niveau des Stillstands von 1998 bis 2017 gesunken.

Davon unbehelligt wird uns das unsterbliche RFS aber erhalten bleiben. Allerdings hat die EPA einen zuvor noch nie vernehmbaren Vorschlag in die Welt gesetzt: das RFS-Gesamtziel zu reduzieren, und zwar für 2018 unter dem Niveau von 2017. Das ist eine winzige Reduktion, und die EPA hat nicht vor, die 15-Milliarden-Gallonen-Verpflichtung für „konventionellen“ Treibstoff zurückzufahren, zumeist für Mais. Aber der Vorschlag zeigt, dass ein kleiner, gesunder Keimling von Realismus wurzelt..

Die Reduktion gilt für Zellulose-Biotreibstoff. Das politische Ziel sind 4,25 Milliarden Gallonen [1 Gallone = ca. 4 Liter] im Jahre 2018. (Setzt man ein Ziel, erreicht man es auch – scheint man zu denken). Die EPA schlägt vor, das gesetzliche Ziel für 2018 um 24 Millionen zu reduzieren, zuvor waren es 31 Millionen für das Jahr 2017. Aber die tatsächliche Produktion und der Verbrauch dieses Treibstoffes belief sich im Jahr 2015 auf magere 2,2 Millionen Gallonen. Diese minimale Reduktion ist ein richtiger erster Schritt, aber weit größere Reduktionen der gesetzlichen Ziele sind realistisch und werden gebraucht, zusammen mit einer vollständigen Überarbeitung des RFS-Programms.

Etwas über 15 Milliarden Gallonen Bio-Äthanol aus Mais ist im Jahre 2016 erzeugt worden – aber 143 Milliarden Benzin sind verkauft worden. Das bedeutet, dass das gesamte Äthanol Anreicherungen über 10% erfordern würden (E10-Benzin) – weshalb Big Ethanol harte Lobbyarbeit leistet für Vorschriften der Regierung (oder zumindest Genehmigung) für mehr E15-Benzin (15% Äthanol). Raffinierer bezeichnen die derzeitige Lage als die „blend wall.”

Aber E15 schädigt Motoren und Treibstoff-Systeme in älteren Autos und Motorrädern, ebenso wie kleine Motoren für Boote und Gartengeräte, und der Verbrauch von E15 macht deren Garantien ungültig. Man findet bereits E15-Pumpen, aber Null-Äthanol-, also reine Benzinpumpen, is a tall order. Außerdem verbrauchen die USA zur Herstellung von Äthanol bereits 40% seiner Maisernte, angebaut auf fast 40 Millionen Acres – unter Verwendung von Milliarden Gallonen Wasser zur Bewässerung der Maisfelder. Außerdem kommen noch gewaltige Mengen Dünger, Pestizide und fossile Treibstoffe dazu.

Vieles des Überbleibsels aus der Äthanol-Destillation wird als Tierfutter verkauft. Allerdings bereichert das RFS-Programm relativ wenige Maisbauern, während die Kosten für die Produzenten von Rind- und Schweinefleisch, Geflügel und Fisch steigen – ebenso wie für Arme, Minderheiten, die Arbeiterklasse und afrikanische Familien. Mit Äthanol ist auch die Reichweite im Vergleich zu Benzin um ein Drittel geringer. Man kann also mit einer Tankladung E10 nicht so weit fahren wie mit Benzin und mit E15 noch weniger weit.

Äthanol-Verkäufe involvieren auch viele Komplexitäten – und manchmal betrügerische Praktiken – beim Kauf und Verkauf von Erneuerbaren-Identifikationsnummern [Renewable Identification Numbers, or RINs]: Zertifikate und Zuschüsse für Äthanol. Große integrierte Ölgesellschaften reichern mehr Benzin damit an als sie raffinieren, damit sie mehr RINs einheimsen können als sie brauchen. Dies wiederum erlaubt es ihnen, RINs zu horten und die Preise in die Höhe zu treiben, welche unabhängige Raffinierer zahlen müssen. Sie müssen diese RINs kaufen, um dem Gesetz Genüge zu tun. Große Einzelhandelsketten wie Cumberland Farms, Sheetz, Wawa und Walmart reichern Treibstoff an und sammeln RINs, sind aber dazu gar nicht verpflichtet: sie verwenden RINs als Subventionen und die großen Mengen davon, um niedrigere Preise von den Raffinierern anzuordnen. Dies verschafft ihnen einen unfairen Vorteil gegenüber den Eigentümern kleiner Tankstellen.

Unter dem Strich steht dabei, dass kleine Tankstellen hart in Bedrängnis geraten und oftmals in die Pleite getrieben werden. Kleine Raffinierer und jene an der Ostküste, welche keine großen Handels- und Einkaufsketten besitzen, sind gezwungen, teure RINs von integrierten Ölgesellschaften, mit denen sie im Wettbewerb stehen, zu kaufen. Dies macht deren kleiner Outfits zu einem Nachteil und bedroht ihre Fähigkeit, im Geschäft zu bleiben. Das bedeutet, dass Arbeitsplätze im Bereich Stahl und Raffinerien ebenso wie Profite der Arbeiter in Gefahr sind. Alles in allem bereitet RFS eine Fülle von Problemen für illusorische Vorteile.

All diese harten Fakten überzeugten das Umweltkomitee des US-Senats beinahe davon, für eine Gesetz zu stimmen, welches einige der ausufernden RFS-Vorschriften revidiert hätte. Dazu kam es nicht, aber die politischen Machenschaften zeigen, dass selbst einige fortschrittliche Demokraten anfangen, das RFS in Frage zu stellen.

Euthanasie und begleiteter Selbstmord werden zunehmend populär in einigen Staaten und Ländern. Die Perspektive „progressiver Ethiker“ wie Peter Singer lautet, dass es wohl an der Zeit ist, die gleichen Prinzipien auf Regierungsprogramme anzuwenden, deren Sinn abhanden gekommen ist oder die niemals hätten ins Leben gerufen werden dürfen.

Und schließlich sollten politisch erzeugte, politisch korrekte Energieprogramme – auf einer fragwürdigen Grundlage übertriebener oder künstlich herbeigeredeter Klima-, Umwelt-, Verbraucher- oder Sicherheitsängste – nicht länger einfach so Auswirkungen auf Landverbrauch, Habitate, Natur und Umweltqualität haben, ebensowenig wie auf Verbraucher- und Beschäftigungsangelegenheiten. Sie müssen das gleiche legislative, regulative, aktivistische und judikative Verfahren durchlaufen, das auch für Öl, Gas, Kohle und Kernkraft gilt.

Diese Verfahren sollten auch angewendet werden auf Wind- und Solarprogramme, auf Elektrofahrzeuge und Batterien ebenso wie auf RFS. Dies würde unserer Regierung einige dringend benötigte Integrität und Zuverlässigkeit zurückbringen.

Link: http://www.cfact.org/2017/07/29/biofuel-justifications-are-illusory/

Übersetzt von Chris Frey EIKE




Wie viel CO2 dürfen wir noch emittieren bis zur Klimakatastrophe? Oder, ist die Atmosphäre das Endlager für alles emittierte CO2?

Täglich können wir in unseren Zeitungen lesen: „ Es bleibt uns nur wenig Zeit. Die Wissenschaftler haben berechnet, dass wir nur noch 700 Gigatonnen CO2 emittieren dürfen bis zum Überschreiten des 2 Grad Ziels. Dies wird schon 2030 erreicht sein. Darüber erfolgt bekanntlich die Klimakatastrophe. Also müssen wir den allergrößten Teil, 80% der Vorräte an Kohle, Gas, Öl in der Erde lassen. Wir können nicht so weiter machen wie bisher!“

Das kann so nicht stimmen. Kein Wissenschaftler kann so dumm sein so etwas zu „berechnen“. Es gibt bekanntlich „Quellen“ und „Senken“ von CO2, z. B. natürliche und industrielle Emission von CO2 als Quellen und z. B. die Lösung von CO2 im Meer mit letztendlicher Verwandlung von CO2 in Kalkstein durch Mikroorganismen im Meer als Senken. Die AufnahmeRATE der Senken ist proportional dem Angebot aus den Quellen – RATE bedeutet Gigatonnen pro Jahr. Die Differenz bestimmt den CO2 Gehalt der Atmosphäre. Der CO2 Gehalt der Atmosphäre wird also nicht durch die Emissionsmenge, also Gigatonnen, bestimmt, wie behauptet, sondern durch die EmissionsRATE, also Gigatonnen pro Jahr.

Was heißt das? Zu jeder EmissionRATE ergibt sich eine bestimmte atmosphärische CO2 Konzentration. Also : wenn wir mit konstanter RATE emittieren, bleibt die atmosphärische CO2 Konzentration konstant. Bei konstanter Emission ändert sich der CO2 Gehalt der Atmosphäre ÜBERHAUPT NICHT, selbst wenn wir im Laufe der Zeit beliebig große Mengen emittieren.

Also ist die Aussage „Wir können nicht so weitermachen wie bisher“ schlichter Unsinn. Wir können selbstverständlich so weitermachen wie bisher und unseren Lebensstandard halten, ohne dass der CO2 Gehalt der Atmosphäre steigt. Sogar unendlich lange. Und kein Wissenschaftler würde das Gegenteil berechnen.

Fazit: Der Quatsch von der Dekarbonisierung „is just that“ Quatsch. Wir können beliebig CO2 emittieren und damit unseren Lebensstandard beibehalten, wenn wir konstant emittieren.

Dass im Übrigen die CO2 Konzentration mit der Erdtemperatur nichts zu tun hat, und dass eine Erhöhung des CO2 Gehalts der Atmosphäre für die Welternährung ungeheuer wichtig ist, ist in über 1000 wissenschaftlichen Arbeiten immer wieder belegt worden, wohingegen es für einen wesentlichen Einfluss von CO2 auf die Erdtemperatur bis heute keinerlei wissenschaftliche Belege gibt. Letzteres bestätigt selbst der Weltklimarat IPCC.

Diese Fakten sind den Fachleuten der Klimaforschung natürlich bekannt und unserer Regierung natürlich auch. Deswegen wehrt sich die „offizielle“ Klimaforschung so heftig in allen Medien in den USA gegen die in USA jetzt geplante öffentliche Diskussion der Argumente zum Klimawandel: Darüber herrscht in deutschen Medien selbstverständlich Schweigen. Eine öffentliche Diskussion würde ja die Medien umgehen und den Bürger direkt die Fakten wissen lassen…

Die hier geschilderten Zusammenhänge sind der Fachpublikation „H.-J. Lüdecke and C. O. Weiss: Simple model for the anthropogenically forced CO2 cycle tested on measured quantities, Journal of Geography, Environment and Earth science international, 8(4), p. 1-12, 2016 zu entnehmen (hier).




Meerespegel­anstieg: Europa kann nicht alle (vor Klima­wandel-Desinfor­mation) schützen T1 (2)

Im britischen Medmerry hat nun erstmals eine Kommune aufgehört, die Deiche zu verstärken – und Land dem Meer zurückgegeben. Ein Schicksal, das vielen Küsten bevorsteht

So berichtet es Klimaretter.Info mit einem Artikel des Rechercheinstitutes Correctiv Org.
[1] Teil 24 der klimaretter.info-Serie: Strategien gegen den Anstieg des Meeresspiegels.
… Auch an Europas Küsten lässt der Klimawandel den Meeresspiegel ansteigen, allerdings höchst unterschiedlich. Im britischen Medmerry hat nun erstmals eine Kommune aufgehört, die Deiche zu verstärken – und Land dem Meer zurückgegeben. Ein Schicksal, das vielen Küsten bevorsteht …
Aber Klimaforscher sind sich einig: All dies ist zu wenig, um die 200 Millionen Menschen zu schützen, die laut EU-Statistik in Küstennähe leben.

So erschütternd liest sich das Schicksal der ersten Küstengemeinde in Europa, welche wohl bald im Atlantik versinkt. Und es kommt noch schlimmer:
Klimaretter.Info: [1] … Gerade an den Binnenmeeren wird Europa Land verlieren. „Das sind Regionen, die am wenigsten auf einen schwankenden Meeresspiegel ausgerichtet sind“Die Folge wird sein: Gerade Menschen in dünn besiedelten und weniger geschützten Gegenden Europas müssen langfristig umgesiedelt werden. So wie in Medmerry am Ärmelkanal südwestlich von London, das seine ständig zerstörten Deiche aufgegeben und stattdessen dem Meerwasser inlandig 500 Hektar zum Überschwemmen überlassen hat.

Nicht nur die Nordsee-, auch die Ostseeanlieger sind betroffen:
Ein Herr Dr. Hans-Martin Füssel, Leiter der Klimaprojekte bei der Europäischen Umweltagentur EEA (Dr. F. erhielt einen Teil seiner Ausbildung beim PIK, Potsdam) kommt zu Wort: [1] … Kürzlich aßen wir mit Kollegen am Hafen von Kopenhagen und die Dänen sagten: Wo sollen wir denn hier noch einen Deich bauen?“, erzählt Füssel. Derzeit steht der Pegel vor der Hauptstadt rund zehn Zentimeter höher als vor 30 Jahren…
Und das Mittelmeer dazu:
Klimaretter.Info: [1] … Städte am Mittelmeer, wie das französische Nizza oder das griechische Lefkada, verzeichnen sogar schon rund 20 bis 30 Zentimeter gestiegene Pegel. Mit dem Klimawandel wird das Meer in Zukunft noch viel schneller ansteigen. Nach Daten des Weltklimarates IPCC zwischen 20 und 80 Zentimetern bis zum Jahr 2100 – die Prognosen variieren stark.

Es muss zwei Meere geben: Ein alarmistisch steigendes (in Computern) und ein ganz normales

Eben wurde vom Autor in mehreren Artikeln berichtet, dass der Meerespegel nirgendwo unnatürlich ansteigt [3] – schon gar nicht in der Nordsee [2] – und nun berichtet die (Des-)Informationsseite der Politikberaterin fürs Klima das Gegenteil. Natürlich ein Muss, diese neue Information nachzuprüfen. Es könnte ja sein, dass vollkommen neue, bisher unbekannte Daten vorliegen.

Bereits vorab zum Schlussstatement am Ende sei erwähnt, dass dieser erschütternde Bericht des „Rechercheinstituts“ auf „Klimaretter“ eines der ganz schlimmen – aber lehrreichen – Beispiele ist, wie Daten bewusst und konsequent missbräuchlich dargestellt und beschrieben werden. Und damit ein Musterbeispiel der Klimawandel-Desinformation durch unsere „Eliten“.

Zur Erinnerung. Der anhand von Tidenpegeln berechnete, globale – und als natürlich geltende – Pegelanstieg verläuft abhängig von Autor / Methode mit 1,3 … 1,93 mm / pa.
Anmerkung: Ganz am Schluss des Artikels sind die Daten detailliert dargestellt und erklärt.

Bild 1 Globaler Pegelverlauf (Varianten) seit 1880, ermittelt aus Tidenpegeln. Quelle: Energie Matters, November 9, 2015, Roger Andrews: How much have sea levels really risen?

Kopenhagen, wird es untergehen?

Was sollen dem Leser solche Sätze und das (verlinkte) Pegelbild (Bild 2) sagen:
Klimaretter.Info: [1] … Wo sollen wir denn hier noch einen Deich bauen?“, erzählt Füssel. Derzeit steht der Pegel vor der Hauptstadt rund zehn Zentimeter höher als vor 30 Jahren..

Bild 2 [1] Pegel Kopenhagen 1889 – 2012. Quelle: Searise corretive.org
Doch sicher, dass Kopenhagen durch einen vom unerbittlichen Klimawandel erzeugten Pegelanstieg bedroht ist – und sich dagegen nicht einmal wehren kann.

Manche erinnern sich vielleicht, dass die Ostseeanlieger praktisch keinen Pegelanstieg kennen (dürfen), da sich das Land, seit es mit dem Ende der letzten Eiszeit von einer tausende Meter dicken Eisdecke „befreit wurde“, immer noch hebt (wie es, allerdings erst später, im Klimaretter-Artikel dann auch erwähnt wird).
Leibniz-Institut für Ostseeforschung Warnemünde: … Als während der Eiszeiten einige tausend Meter mächtiges Inlandeis auf der skandinavischen Landmasse lag, bewirkte diese Masse ein Einsinken der Erdkruste in die darunter befindlichen quasiflüssigen Bereiche des Erdmantels. Das Abschmelzen der Eiskappen setzte dann einen Wiederaufstieg der entlasteten Erdkruste in Gang. Gegenwärtig sind solche isostatische Hebungsvorgänge vor allem in Skandinavien zu beobachten. Am intensivsten sind sie mit 8 mm pro Jahr an der Westküste des Bottnischen Meerbusens im Zentrum des ehemaligen Eisschildes.

… bestimmt nicht durch den Klimawandel!

Der Text meldet mit den 10 cm in dreißig Jahren zum Bild 2 einen Pegelanstieg für Kopenhagen von 3,3 mm / pa. Das ist ein deutlicher Anstieg. Jeden Kenner von Pegeldarstellungen verleitet dies allerdings weniger zu Alarm (wie es ein Herr Dr. Füssel berichtet), sondern zu der Frage, ob die Daten nicht ganz bewusst und selektiv ausgewählt wurden – und den wirklichen Sachverhalt gar nicht darstellen.

Dazu zuerst die Pegeldaten von Bild 2 in der vollen Länge und in Monatsauflösung: Der schlimme Anstieg ist schon einmal in der Pegelvarianz verschwunden.

Bild 3 Pegelverlauf Kopenhagen 1889 – 2012 in Monatsauflösung. Quelle: PSMSL Viewer

NOAA berechnete dazu die lineare Regression und kommt auf einen Pegelanstieg von 0,67 mm / pa.

Bild 4 Kopenhagen, Pegeldarstellung 1889 – 2012 mit Regressionsgerade. Quelle: NOAA Tides and Currents

Nach der vollständigen Pegeldarstellung steigt die Ostsee bei Kopenhagen also um 0,67 mm / pa und nicht um die bewusst selektiv angegebenen 3,3 mm / pa. Das ist definitiv nichts, beziehungsweise deutlich unter dem natürlichen Restanstieg seit der letzten Eiszeit, da der natürliche, weltweite Tiden-Pegeltrend-Mittelwert irgendwo zwischen 1,4 … 1,6 mm / pa beträgt.

Noch deutlicher wird es, wenn man etwas genauer nachsieht. Komischer Weise endet der Pegel von Kopenhagen mit dem Jahr 2012, kurz nachdem er am höchsten war! Der Pegel gegenüber auf der schwedischen Seite reicht aber bis ins Jahr 2016. Und darin sieht man, dass diese Pegelspitze längst in der Pegelvariabilität verschwunden ist und der Zeitbereich zwischen 1985 und 2012 vor allem keinen Trend anzeigt. Zur Zeit liegt der Pegel beim Wert von 1930! Der „Klimafachmann“, Dr. Füssel bezieht sich in seinem Statement somit genau auf die Jahre, als der Pegel (wahrscheinlich durch einen Zyklus bedingt) stärker anstieg. Ein Effekt, welcher sich bei fast jedem längerfristigen Pegelverlauf finden lässt.

Bild 5 Pegelverlauf Klagsham 1929 – 2016 auf der Kopenhagen gegenüberliegenden, schwedischen Seite. Vom Autor aus den PSLM-Daten gezeichnet. Datenquelle: PSMSL Viewer

NOAA gibt für den Pegelanstieg von Klagsham 0,64 mm / pa an, reicht aber nur bis zum Jahr 2012. Nimmt man die weiteren vier Jahre dazu, zeigt die Regressionsgerade 0,4 mm / pa.

Bild 5.1 Pegelverlauf von Kopenhagen seit 1889 (schwarz) und Klagsham ab 1929 – 2016 (gelb) auf den gleichen Endwert normiert und übereinander gelegt. Jahresmittelwert Kopenhagen (rot). Fehlender Pegel Kopenhagen ab 2013 durch den (dazu normierten) Pegel von Klagsham ergänzt Datenquelle: PSMSL Viewer

Übereinandergelegt, zeigen beide Pegel eine gute Übereinstimmung und die Regressionsgeraden laufen absolut parallel (in Bild 5.1 nicht eingezeichnet). Ende 2016 hatte der Jahresmittelwert von Kopenhagen genau den Wert von 1890- Dass der von correcti.org angegebene, steile Anstieg vollkommen im Pegelrauschen verschwindet und keinen Trend markiert, sieht man dadurch noch viel deutlicher. Kopenhagens Pegelanstieg nach Bild 5.1 beträgt seit dem Jahr 1889 gerade einmal 60 mm und somit 0,473 mm / pa.

Und damit lässt sich der Pegelanstieg vor der Küste von Kopenhagen gut begründet zwischen 0,40 … 0,67 mm / pa festlegen – und genau so begründet feststellen, dass der „Klimafachmann“ Dr. Füssel eine ganz bewusste Desinformation verbreitet, welche weder Correctiv Org, noch das große Redakteursteam von Klimaretter erkennen (wollten).
Jedenfalls können die Bürger von Kopenhagen, welche nicht am Frühstück teilgenommen haben, unbesorgt (vom Meeerespegelanstieg) weiter die restlichen Probleme der Stadt lösen.

Ein Bild sagt mehr als viele Worte

Im Klimaretter-Artikel ist zum Text über den steigenden Meerespegel von Kopenhagen das folgende Bild eingefügt:

Bild 6 [1]
Jeder wird anhand des Kapitelinhalts und des Bildtextes von Bild 6 wohl sofort an das Foto einer Überschwemmung durch das nahe Meer denken und es als eine Bestätigung für den dort so schlimm berichteten Meerespegelanstieg finden. Betrachtet man jedoch die Zeitangabe „ … vor sechs Jahren … „ und zählt zurück, kommt man auf das Jahr 2011. Und dann findet sich eine ganz andere Erklärung dafür:
Institut für Landschaftsplanung und Ökologie Universität Stuttgart, INTERNATIONALE ANSÄTZE UND REFERENZPROJEKTE ZU KLIMAANPASSUNGSSTRATEGIEN: … Als Antwort auf die verheerenden Regenfälle am 2. Juli 2011, die in Kopenhagen Schäden von ca. 1 Milliarde Euro verursachten, wurde ein Wolkenbruch-Masterplan entwickelt.
Stadt + Grün, 24.08.2013: „Skybrud“ – Wolkenbruch. So bezeichnet man in Dänemark sintflutartige Regenfälle wie die vom 2. Juli 2011, als der Himmel seine Schleusen öffnete und die Stadt Kopenhagen in den Fluten versank. In der Stadtmitte stieg das Hochwasser bis zu einem Meter

Der Autor nimm an, dass nicht viele Leser eine solche, unverfrorene Falschdarstellung wie mit diesem Bild in einer von einem angeblichen „Rechercheinstitut“ erstellten und über die Plattform der Regierungsberaterin für Klima und Energie verbreiteten „Klimawandel-Information“ erwartet hätten. Aber es vervollständigt das Bild:
Nicht nur der befragte Dr. Hans-Martin Füssel vom EEA versucht ganz bewusst, die Leser in die Irre zu führen. Das (klimaalarmistische) Correctiv.org zeigt ebenfalls in seiner Verlinkung dazu nur den veralteten Pegeltrend von Kopenhagen, daneben vorhandene mit aktuellen Werten, die den Verlaufstrend richtig darstellen, wurden weggelassen. Das Bild 6 soll die Leser dann noch vollkommen desinformieren, indem es falsche Tatsachen andeutet.

Wie ist es im Mittelmeer?

Nizza

Im Artikel [1] werden weitere Pegeldarstellungen genannt.
Klimaretter.Info: [1] … Städte am Mittelmeer, wie das französische Nizza … verzeichnen sogar schon rund 20 bis 30 Zentimeter gestiegene Pegel…

Bild 7 [1] Pegel Nizza. Quelle: Searise corretive.org
Wieder die Meldung eines steigenden Pegels, noch schlimmer und diesmal am Mittelmeer. Und wieder ist man etwas überrascht, denn ausgerechnet am Mittelmeer – dem der Atlantik Wasser zuführen muss – sollen die Pegel (Klimawandel-bedingt) stark steigen.

Man stellt fest. Der Pegel von Nizza beginnt mit dem Jahr 1985. Wenige Kilometer von Nizza entfernt in Monaco findet sich jedoch ebenfalls ein Pegel (Bild 9) und der beginnt mit dem Jahr 1956. Wie so oft bei Pegeln – selbst in „Technologieländern“ – ist dieser Pegel zwar unglaublich lückenhaft, es zeigt sich aber, das er zur Ergänzung gut verwendet werden kann.

Bild 8 Pegelverlauf Monaco 1956 – 2016 (direkt neben Nizza gelegen) in Monatsauflösung. Quelle: PSMSL Viewer

Normiert man den von Monaco auf den Endwert dessen von Nizza und legt beide übereinander, stellt man fest, dass Pegel von Monaco (wo solche vorhanden sind), mit den Werten von Nizza gut übereintimmn – also als Referenz verwendbar sind. Und der Pegelverlauf, erweitert um die „Monaco-Reihe“, ergibt einen Wert von 0,45 mm / pa, liegt also wieder weit unter dem“ natürlichen“ Anstieg.

Bild 9 Pegelverlauf von Nizza (orange) und Monaco (schwarz) auf den gleichen Endwert normiert und übereinander gelegt. Datenquelle: PSMSL Viewer

Verblüfft stellt man fest, dass Correctiv.org genau den Trick angewendet hat, den man schon von WIKIPEDIA kennt:
EIKE 17.07.2016: [9] Wie man den Meerespegel-Verlauf in die richtige Richtung dreht Aus dem Lehrbuch für (Klima-)Statistikbetrug

Bild 10 [9] Pegelverlauf von Booby Island (Bild 3). Monatswerte blau, Jahres-Mittelwert grün und Werte von Bild 1, Mittelwert rot, übereinander gelegt
Die Aussage:
Klimaretter.Info: [1] … Städte am Mittelmeer, wie das französische Nizza … verzeichnen sogar schon rund 20 bis 30 Zentimeter gestiegene Pegel…
zeigt sich jedenfalls wieder als eine bewusste – und gekonnte – Falschdarstellung. Jedenfalls war der Pegel auch in Nizza mit ziemlicher Sicherheit im Jahr 2016 nicht höher, als zu Beginn der Messreihe von Monaco in den 1956er Jahren. Das Pegelbild vom auch nicht allzu weit entfernten Toulon (Bild 11) bestätigt es.

Bild 11 Pegelverlauf Toulon 1961 – 2016 in Monatsauflösung. Quelle: PSMSL Viewer

Will man den Pegelverlauf dieser Mittelmeerküste wirklich recherchieren, muss man sich geeignetere Verläufe suchen. Der nächst-gelegene dafür findet sich mit Marseille (der leider den Abstieg der letzten Jahre nicht mehr zeigt).

Bild 12 Pegelverlauf Marseille 1885 – 2016 in Monatsauflösung. Quelle: NOAA Tides and Currents

Deren langfristiger Pegeltrend weist einen Wert von 1,25 mm / pa aus, wieder unter dem globalen, natürlichen Trendwert und mit keinerlei Beschleunigung. Somit dürfte der Pegeltrend dieses Küstenbereiches irgendwo zwischen 0,5 … 1,25 mm / pa liegen und die Bewohner dieser Mittelmeerküste dürfen sich ebenfalls beglückwünschen, dass „ihr“ Pegel nicht einmal mit dem natürlichen Wert ansteigt.

Griechenland

Levkas

Klimaretter.Info: [1] … Städte am Mittelmeer, wie … das griechische Lefkada, verzeichnen sogar schon rund 20 bis 30 Zentimeter gestiegene Pegel.

Bild 13 [1] Pegel Levkas, Griechenland Westküste. Quelle: Searise corretive.org
Was von Lekas berichtet wird, ist noch viel mehr Klimawandel als bei den vorherigen Pegelmeldungen: Eine Anstiegsgeschwindigkeit von bis zu 6,4 mm / pa soll es dort sein, also so viel, wie an den schlimmsten Stellen des Süd-Pazifik (vorkommen soll).

Es beginnt somit wieder das gleiche Spiel: Pegelverläufe in der Umgebung, wie Preveza, wenige Kilometer von Levkas entfernt ansehen.
In Preveza relativiert sich der vermeintliche Anstieg von Lefkas.

Bild 14 Pegelverlauf Preveza 1968 – 2016 in Monatsauflösung. Quelle: PSMSL Viewer

Das Mittelwert- Pegelbild von Preveza aus dem corrective.org-Viewer (Bild 15) zeigt gerade hier, wie unterschiedlich bei Pegelbildern die optische Wahrnehmung zwischen Bildern mit verdichtetem Mittelwert und solchen in Monatsauflösung (Bild 14) ist.

Bild 15 Pegelverlauf Preveza. Quelle: Searise corretive.org

Wieder legt der Autor die zwei Pegelverläufe auf den Endwert normiert übereinander:

Bild 16 Pegel von Levkas (ocker) und Preveza (schwarz) auf den gleichen Endwert normiert und übereinander gelegt. Datenquelle: PSMSL Viewer

Und stellt (wieder) fest, dass wenige Kilometer Abstand darüber entscheiden, ob „die Welt“ im Meer mit 6,44 mm / pa untergeht, oder ob die Küstenbewohner seit 1969 mit einer Pegel-Änderungshorizontalen beruhigt weiter leben können.

Vielleicht werden solche „unnatürlich“ verlaufenden Pegeldaten demnächst als „erwiesenermaßen fehlerhaft“ aus dem WEB verschwinden, oder zumindest zum „klimaalarmistisch richtigen“ Verlauf korrigiert, wie es bei den Temperaturdaten regelmäßig geschieht.?

Um zu entschieden, was davon richtig sein könnte, muss man wieder weitere Pegelverläufe ansehen. Hier ist es nicht einfach, da in diesem Mittelmeerbereich Stationen mit brauchbaren Pegeldaten nur sehr weit auseinander liegend zu finden sind. Wie schon oft festgestellt: Gerade bei (angeblich) schlimm vom Klimawandel betroffenen Weltgegenden ein häufiger Fall.

Bild 17 Pegelverlauf Katakolon 1969 – 2015 (Peloponnes, nahe Olympia, nächstgelegene NOAA-Pegelangabe). Quelle: NOAA Tides and Currents

Bild 18 Pegelverlauf Piräus (Athen) 1969 – 2015 in Monatsauflösung. Quelle: PSMSL Viewer

Man ist nicht mehr überrascht: Der schlimm aussehende, extrem ansteigende Trend von Lefkas findet sich in den anderen Stationen nicht, weder direkt daneben, noch bei dem von Athen (der für die Westseite des Peloponnes natürlich nicht repräsentativ ist). Vielleicht ist es der von Katakolon (Bild 17) mit 1,81 mm / pa – also im Bereich des natürlichen Anstiegs und 28 % des alarmistischen Wertes von Lefkas.

Der SPIEGEL wusste im Jahr 2000 dazu sogar etwas ganz seltsames:
SPIEGEL ONLINE, 27.06.2000: Geoforschung: Das Mittelmeer trocknet langsam aus
… Während die Wasserstände der Weltmeere jährlich steigen, sinken die Pegel im Mittelmeer…. Um drei bis fünf Zentimeter ist der Wasserstand in den Küstenregionen des Mittelmeeres in den letzten 40 Jahren gefallen, sagt der griechische Meeresforscher Michalis Tsiblis. In einer Studie, die in der griechischen Presse veröffentlicht wurde, macht Tsiblis die schnellere Verdampfung und den erhöhte Salzgehalt des Mittelmeeres dafür verantwortlich. Am stärksten wird das Phänomen der Studie zufolge entlang der dalmatinischen Küste registriert. Dort ist das Wasser im Vergleich zum Ende des 19. Jahrhunderts um fünf Zentimeter gesunken, hieß es.

Pegelverläufe in der Ägäis könnten darauf hindeuten. Es muss aber gesagt werden, dass der von Siros der einzige bei PSMSL hinterlegte der Ägäis ist, welcher es so ausgeprägt zeigt.

Bild 19 Pegelverlauf Insel Siros (zwischen Athen und Kreta) 1969 – 2015 in Monatsauflösung. Quelle: PSMSL Viewer

Allerdings gehen im Mittelmeerraum viele Küsten wirklich unter – während sich andere heben und das seit historischen Zeiten: Aber natürlich nicht wegen eines Klimawandels. Das als mögliche Ursache zu berichten, wäre aber nicht zeitgemäß:

Bild 20 Textauszug zu Senkungen und Hebungen im Mittelmeer. Quelle: Hans-Günter, Gierloff-Emden: Geographie des Meeres – Ozeane und Küsten, Teil 2

Fazit
Der bei Levkas gemessene – und berichtete – Pegelanstieg von 6,4 mm / pa kann auch für diesen Mittelmeerbereich – nicht einmal für die nähere Umgebung – repräsentativ sein. Der Anstieg dürfte unter Betrachtung der anderen Pegelverläufe irgendwo zwischen 0 … 1,8 mm / pa liegen. Bewusst wurden andere Information zu den besonderen – nicht Klimawandel-basierenden – Pegelverhalten des Mittelmeeres weggelassen.

Damit ist Teil 1 zu ende. Im Teil 2 geht es um die Südküste von England, an der der Ort Medmerry wohl gerade untergeht.

Zusatzinfo: Wann ist ein Pegelanstieg un-natürlich?

Nachdem die Bewertung der Pegeldaten davon abhängt, ob es natürlich verlaufende, oder Klimawandel-bedingt abweichende sein könnten, eine kurze, informelle Darstellung.

Seit der letzten Eiszeit erhöhte sich der Meerespegel um ca. 130 m.

Bild 21 Meerespegelanstieg seit der letzten Eiszeit

Wie man im folgenden Bild sehen kann, verläuft dieser Anstieg in der Nordsee seit der Bronzezeit mit ca. 20 cm in 100 Jahren und ist auch noch nicht beendet. Jeder „Klimafachmann“, der von einem stabilen Meerespegel faselt und mm / pa Pegeländerung als vom Menschen verursachten Weltuntergang darstellt, betreibt reine Propaganda. Dies führt zu der Feststellung:
Meerespegel steigen weiter, weil sie es seit der letzten Eiszeit so gemacht haben. Dieser Anstieg ist nicht zu Ende. Es wird also auch Küsten geben, die unter diesem vollkommen natürlichen Anstieg irgendwann leiden. Aber eine CO2-Verhinderung hilft dagegen überhaupt nichts.

Bild 22 Meerespegelverlauf der südlichen Nordsee in den letzten 7500 Jahren. Aus Behre (2004)

Der reduzierte Anstieg seit ca. 4.000 Jahren erfolg nicht als „Gerade“, sondern es gibt dazwischen Wellenbewegungen der Pegel, welche selbst in historischer Zeit einen Meter erreichen konnten und abrupt kamen und gingen. Es ist vollkommen unrealistisch, anzunehmen, dass es solche Änderungen in Zukunft nicht mehr geben kann.

Bild 23 Pegeländerungen bei den Malediven innerhalb der letzten 5000 Jahre. Quelle: Mörner, Sea level curve for the last 5000 years for the Maldives.

Seit ca. 1850 verläuft der Tidenpegelanstieg relativ konstant steigend und zum Glück ohne die historisch oft aufgetretene Varianz. Alleine anhand dieser Daten wird ein Tiden-Pegelanstieg bis ca. 2 mm / pa als „natürlich“ angenommen.

Bild 24 [6] Verlauf Tidenpegel global seit 1800
Bild 25 [6] Tidenpegel global, Pegel-Änderungsrate seit 1800
Eine Aussage wie:
Klimaretter.Info: [1] … Das britische Forschungsinstitut CSIR hat Messgeräte an 180 europäischen Häfen aufgestellt, so viele gibt es auf keinem anderen Kontinent. Das Recherchezentrum Correctiv hat die Daten ausgewertet. Das Fazit: An den meisten Messpunkten steigt der Meeresspiegel.
-ist damit zwar richtig, aber – gewollter – Unsinn, da man das Ergebnis ohne alle Maßnahmen vom Schreibtisch aus hätte vorhersagen können. Der Pegel „muss“ an den Messpunkten ansteigen, sonst wäre das Meer nicht in Ordnung, oder die Pegelstationen defekt. Ohne die Zusatzanalyse, ob es eine unnatürlich starke Pegeländerung ist, kann man keine informative Aussage treffen.

Anmerkung: Der Autor konnte kein „britisches Forschungsinstitut CSIR“ googeln.

Was den Autor wundert ist, dass es neuer Messstationen bedarf, um Tidenpegel auswerten zu können. Das Problem sind nicht zu wenige Stationen, sondern grottenschlechte Daten (wie es in diesem Artikel gezeigt wurde) mit teils extremen Datenlücken selbst in „Industrieländern“. Man müsste die Datenqualität verbessern und nicht die Stationsanzahl. Noch mehr so schlechte Daten (wie bisher) bringen keinen Gewinn. Bis neue Stationen erste Erkenntnisse bringen (können), vergehen mindestens 30 … 60 Jahre, wie es Bild 17 zeigt. Zudem müssten erst einmal die gravierenden Differenzen zwischen Tidenpegel und von Satelliten gemessenen Pegeln klären und bereinigen [8].

Noch nicht geklärt ist damit jedoch, wie Anstiegsänderungen zuzuordnen sind. Wie Bild 23 zeigt, können solche ziemlich regellos, aber mit erheblichen Pegeldifferenzen und Geschwindigkeiten ablaufen.

Die Klimawandler mache es sich deshalb einfacher und simulieren fehlendes Wissen (weg)

Der behauptete Einfluss des Klimawandels auf die Meerespegel erfolgt durch die Erwärmung des Meerwassers, vor allem aber dem (simulierten) und auch hier wieder – mehr als natürlich erfolgendem Schmelzen – des Grönland- und Antarktiseises.
Ausschließlich aufgrund dieser Klimasimulationen wird ein unnatürlicher, beschleunigter Meerespegel-Anstieg vorhergesagt.

Bild 26 [7] Pegel-Zukunfts-Vermutungen zweier deutscher PIK Klimawissenschaftler und vom Rest der Welt
Quellen

[1] Klimaretter.Info, 29. Juli 2017: Europa kann nicht alle schützen

[2] EIKE 01.06.2017: Der Meerespegel steigt drei Mal so stark an – ohne dass sich an dessen Verlauf etwas verändert hat

[3] EIKE 27. Juli 2017: G20 Klimafakten ohne Hysterie betrachtet Teil 2 (4): Die Meerespegel steigen und steigen …(aber keinesfalls unnatürlich)

[4] WWF Klimaanpassung an weichen Küsten Fallbeispiele aus Europa und den USA für das schleswig-holsteinische Wattenmeer

[5] Zong, Y. and Tooley, M. J. (2003): A historical record of coastal floods in Britain : frequencies and associated storm tracks.‘, Natural hazards., 29 (1). pp. 13-36

[6] WUWT, David Middleton, July 20, 2017: More Fun With Sea Level

[7] EIKE 07.04.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

[8] EIKE 27. Juli 2017: G20 Klimafakten ohne Hysterie betrachtet Teil 2 (4): Die Meerespegel steigen und steigen …(aber keinesfalls unnatürlich)

[9] EIKE 17.07.2016: Wie man den Meerespegel-Verlauf in die richtige Richtung dreht Aus dem Lehrbuch für (Klima-)Statistikbetrug




Das ABC von Energiewende und Grünsprech! Hier: Die Glättung

Täglich werden wir mit Begriffen konfrontiert, die im Ergebnis einer als alternativlos gepriesenen Energiewende verwendet werden oder durch sie erst entstanden sind. Wir greifen auch Bezeichnungen auf, die in der allgemeinen Vergrünung in den Alltagsgebrauch überzugehen drohen – in nichtalphabetischer Reihenfolge.

G wie

Glättung, die

Die „Glättung“ ist ein von der Erneuerbaren-Branche gern benutztes Zauberwort. Es soll den Eindruck erwecken, dass durch weiteren, möglichst umfangreichen Zubau von Windkraftanlagen die unvermeidbar volatile Stromeinspeisung vergleichmäßigt werden kann. Über die Jahre gelang es der Lobby, politischen Entscheidungsträgern einzuflüstern, dass man nur den Ausbau weiter treiben müsste, um eine Verstetigung der Lieferungen zu erreichen. Fürs Volk gibt es die Sprüche: „Irgendwo ist immer Wind“ oder dass sich Wind und Sonne ergänzen würden.

Der Bundesrat ging der Lobby offenbar ungeprüft auf den Leim und formuliert:

„Der Bundesrat fordert die Bundesregierung auf, dafür Sorge zu tragen, dass der nationale Ausbau der Windenergie an Land auch weiterhin angemessen in ganz Deutschland regional verteilt fortschreiten kann. Eine solche angemessene Verteilung dient der Netzstabilität wie auch der Versorgungssicherheit insgesamt und bietet allen Ländern die Chance, von der Energiewende zu profitieren und ihren unverzichtbaren Beitrag dazu zu leisten, dass das volle Potenzial der Erneuerbaren Energien erschlossen und die damit einhergehenden Nutzen und Lasten der Energiewende angemessen verteilt werden können.“

Gewinne zu steigern und Lasten zu verteilen ist das eigentliche Ziel der Sage von der Verstetigung. Der Gesetzgeber entsprach der Forderung des Bunderates und beschloss im EEG 2017 im Paragrafen 36h und der zugehörigen Anlage das „Referenzertragsmodell“ (siehe auch „Dunkelflaute“, S. 134). Neue, vom Windaufkommen her uninteressante Flächen sollen für Investitionen in Windkraftanlagen reif gemacht werden, um der Branche den Absatz zu sichern. Im Norden sind die Flächen knapp, der Strom kann immer schlechter abtransportiert werden und das Volk wird mürrisch im Schatten der Rotoren. So geht man mit erhöhter Vergütung weiter in den Süden und lässt dort Geld drucken. Folge dieser Politik: Immer weniger Stromertrag pro installierter Leistung und damit volkswirtschaftlicher Schaden, indem weniger effektiv erzeugter Strom von der Kundengemeinschaft bezahlt  werden muss.

Das Mäntelchen der dadurch erreichten angeblichen Glättung des Windstroms über die ganze Republik ist zu dünn, um nicht die Realitäten durchblicken zu lassen.

Frische Brise

Die Offshore-Windenergie ist im Kommen. Als Vattenfall und andere 2011 den ersten Offshore-Windpark Alpha-Ventus (60 Megawatt) in die Nordsee pflanzten, ging das Unternehmen von einer „grundlastnahen“ Stromerzeugung aus. Gut, damals gab es noch keine Betriebserfahrungen und gesicherte Messreihen.

Sechs Jahre später ist man klüger, aber kaum jemand spricht darüber. Auch der Seewind glättet nicht, wie wir hier sehen:

Er weht sogar ziemlich exakt in der gleichen Weise wie der Wind an Land. Der Unterschied besteht darin, dass der Seewind kräftiger weht und daher die Volllaststunden der Anlagen auf See höher sind (ca. 3.800 Stunden pro Jahr) gegenüber Anlagen an Land (ca. 2.200 Stunden pro Jahr in Schleswig-Holstein, 1.000 in Bayern). Stunden und Tage mit Schwachwind und Flaute gibt es aber auch hier. Trotz einer Fast-Verdopplung der installierten Windleistung seit 2010 auf 50.019 Megawatt im Jahr 2016 liegen die Leistungsminima unverändert im sehr niedrigen Bereich:

2010: 117 MW
2011:   86 MW
2012: 115 MW
2013: 118 MW
2014:   24 MW
2015: 105 MW
2016: 141 MW

Wenn die Maxima auf Grund des Zubaus steigen, die Minima aber nicht, ist dies das Gegenteil einer Glättung. Eine Steigerung der volatilen Einspeisung verringert nicht die Schwankungsbreite. Dies ist auch durch die mathematische Statistik nachweisbar, wie Interessenten hier nachlesen können.

Im folgenden Bild ist gut zu erkennen, dass eine stark steigende installierte Leistung von Windkraftanlagen nicht die entsprechenden Anstiege der Maximal-, weniger noch der Durchschnittsleistung nach sich zieht. Und eben keinen Anstieg der Minimallast.

Wissenschaft und Politik

Die Thinktanks der Erneuerbaren wie Agora oder das IWES (Fraunhofer-Institut für Windenergie und Energiesystemtechnik) ignorieren nach Möglichkeit die gemessenen Realitäten, denn sie haben ein politisches Ziel ihrer Auftraggeber umzusetzen. Worin dieses besteht, beschrieb Frank Drieschner in der ZEIT: „Rund um die Erneuerbaren-Energien-Branche ist ein regelrechter politisch-ökonomischer Komplex herangewachsen  . . .  Alle Akteure in diesem Komplex verbindet ein Interesse: Probleme der Energiewende müssen lösbar erscheinen, damit die Wind- und die Sonnenbranche weiter subventioniert werden.“

Dennoch kommt IWES sie nicht umhin, einzugestehen,  „ . . . dass es generell eine große Korrelation der Windstromeinspeisung in ganz Deutschland gibt. Tendenziell lässt sich sagen, dass es Wochen gibt, in denen in allen Teilen Deutschlands viel Wind weht, wie auch Wochen, in denen die Einspeisung in allen Teilen Deutschlands gering ist.“

Aber nicht nur das. Das folgende Bild zeigt die Windstromproduktion in 14 europäischen Ländern, auch hier gehen die Schwankungen weitgehend synchron.

Verläufe, die zu einer Sockelbildung – und damit zu einer Grundlastabsicherung – führen würden, sind beim besten Willen nicht zu erkennen.

Auch die angeführte Glättung der gesamten Windeinspeisung durch den vermehrten Einsatz von Schwachwindanlagen tritt nicht ein. Statistisch laufen fast alle Windkraftanlagen zeitanteilig am häufigsten im Schwachlastbereich, hier als Beispiel der Monat Mai 2017:

[Quelle: Rolf Schuster]

Knapp 88 Prozent der Betriebsstunden verbrachten Windkraftanlagen in Deutschland in diesem Monat im Leistungsbereich unterhalb 30 Prozent. Dabei unterscheiden sich die Kennlinien von Schwach- und Starkwindanlagen kaum.

Die sicher zur Verfügung stehende elektrische Leistung aus Windkraftanlagen ist unwesentlich größer als null. Dass eine Glättung selbst über Jahreszeiträume nicht eintritt, zeigt die Windstromproduktion des Jahres 2016, die trotz eines Zubaus an installierter Leistung von 4.970 Megawatt deutlich unter der von 2015 lag (77,4 zu 79,2 Terawattstunden). Der Wettergott ist kein Grüner.

Öko-Grundlast nicht in Sicht

Fazit: Da die Minima auch bei weiterem Ausbau von Wind- und Sonnenkraft nur kurz über null bleiben, die Maxima jedoch steigen, wird die durch Konventionelle als Backup vorzuhaltende Leistung mit weiterem Zubau an Windkraftanlagen größer, nicht kleiner. Die Regelkapazität könnte reduziert werden durch afrikanische Windparks (DESERTEC lässt grüßen,  siehe „Dunkelflaute“, S.53) und ein europäisch dicht ausgebautes Supergrid bis hinter den Ural, dessen Kosten astronomische Höhen erreichen würde. Die Bürgerinitiativen der Trassengegner wären noch vor dem ersten Spatenstich gegründet, von regionalpolitischen Widerständen ganz zu schweigen.

Da die Wind- wie die Sonnenenergie zu einem stark fluktuierenden Einspeiseprofil führen, dessen Prognosen immer mit Unsicherheiten behaftet bleiben werden, sind sie nicht in der Lage, Versorgungsaufgaben zu erfüllen. Sollten sie durch ausreichend große Speicherkapazitäten dazu in die Lage versetzt werden, würden die Speicherkosten natürlich bilanziell diesen Erzeugungstechnologien zuzuschlagen sein.

Nennenswert große Stromspeicher existieren kaum und auch in den nächsten Jahren können absehbar keine eingesetzt werden. Damit stellen die konventionellen Erzeuger die nötige und immer stärker schwankende Residuallast bereit, die ergänzend für das Gleichgewicht von Erzeugung und Verbrauch nötig ist. Nur sie können den Wind- und Sonnenstrom noch glätten.

Der Beitrag erschien zuerst auf Tichys Einblick hier




Deutschlands Fiasko bzgl. grüner Energie führt zu Abhängigkeit von russischem Gas

Versteckt in Kiefernwäldern nahe der verödeten Stelle, an dem einst der größte Kernreaktor Ostdeutschlands stand, tauchen zwei kleine Pipelines aus der Ostsee auf. Sie markieren die Stelle, wo Angela Merkel versucht, die Energiezukunft ihres Landes zu sichern.

Nicht weit von der Hansestadt Greifswald – ein Gebiet, welches Merkel als Abgeordnete im Parlament vertritt – will die Kanzlerin eine Erweiterung der Pipeline für 10 Milliarden Dollar, um die aus Sibirien importierte Menge Erdgas erhöhen zu können – aus einer Entfernung von über 3000 km.

Das Projekt unter Federführung der staatlich russischen Gazprom PJSC hat zum Ziel, Deutschlands Vertrauen zu stärken, dass es genug Gas gibt, um einen beispiellosen Übergang von Kohle- und Kernkraftwerken, welche zur Schließung anstehen, durch eine von erneuerbarer Energie dominierte Zukunft durchzuführen.

Aber der Plan hat Gegner, sowohl bei Deutschlands Nachbarn als auch darüber hinaus.

Die in dem dünn besiedelten Gebiet lebenden Menschen haben inzwischen fast 160 Eingaben gemacht. Die Zustimmung vor Ort ist immer noch unsicher, und an der Stelle selbst müssen noch zwei Wracks von Schiffen geräumt werden, die von der schwedischen Marine im 18. Jahrhundert versenkt worden waren. Die europäischen Verbündeten haben ebenfalls dagegen votiert – und zwar in der Sorge, dass das Projekt die Abhängigkeit bei der Versorgung von einem zunehmend antagonistischen Russland verstärkt – und in den USA wurden Energieunternehmen, welche Handel mit Russland treiben, mit noch härteren Sanktionen belegt.

Quelle: Nord Stream 2

„Es gibt außer Russland nicht viele Orte, von wo Deutschland rasch große Mengen Gas bekommen kann“, sagte Jonathan Stern, Vorsitzender und Forschungsleiter am Natural Gas Research Programme des Oxford Institute for Energy Studies.

Als schon jetzt größter Gasverbraucher Europas bekommt Deutschland etwa 40% seines Gasbedarfs aus Russland, dem weltgrößten Exporteur. Diese Abhängigkeit wird bis 2025 um über 50% zunehmen, vor allem angesichts des erwarteten Rückgangs des Outputs der Niederlande während der kommenden Jahre.

Das Gazprom-Projekt mit der Bezeichnung Nord Stream 2, wird auch Lieferungen in andere Gebiete Europas ermöglichen, was Deutschland zu einem sogar noch wichtigeren Knotenpunkt für die Verteilung im ganzen Kontinent macht. Russland versorgt bereits über 20 Länder mit Gas zum Betrieb von Kraftwerken, zum Heizen der Wohnungen und zur Herstellung von Chemikalien.

Verdoppelung der Transporte

Der bestehende Link wurde 2011 in Betrieb genommen und verläuft 1224 km unter der Ostsee hindurch von Vyborg, Russland, nach Lubmin. Damit können 55 Milliarden Kubikmeter Gas geliefert oder zwei Drittel des deutschen Bedarfs gedeckt werden. Die Erweiterung wird dies verdoppeln.

„Nord Stream 2 dient nicht nur zum Decken einer zusätzlichen Nachfrage, sondern auch dazu, die Gasversorgung an die kosteneffizientesten Transportwege anzupassen“, sagte Gergely Molnar, ein Analyst bei Wood Mackenzie in London.

Abbildung: Rohre warten auf das Verlegen bei Lubmin. Quelle: Nord Stream AG

Der Gastransport via Nord Stream nach Deutschland ist um 40% billiger als via Festlands-Pipelines durch die Ukraine, sagt Molnar. Im Mai kostete russisches Gas an der Grenze zu Deutschland 5,07 Dollar pro Millionen thermischer Einheiten und damit 28% mehr als zu einem 12-Jahre-Tief im September, aber 45% unter dem zehnjährigen Mittel. Das geht aus Daten des International Monetary Fund hervor.

Deutschland, UK, Frankreich, Belgien und die Niederlande werden wahrscheinlich von den niedrigeren Preisen profitieren. Gazprom würde auch die Transitgebühren einsparen, welche für die Benutzung von Pipelines in der Ukraine und in Polen gezahlt werden müssen. Nach dem Jahr 2019 plant das Unternehmen, den Durchfluss über die Ukraine zu reduzieren.

Deutschlands Genehmigungsprozedur bedeutet, dass Infrastrukturprojekte durch lokale Opposition verzögert werden können. Dazu soll es am 17. Juli in Stralsund eine Anhörung gegeben haben*. Inzwischen läuft Merkel die Zeit davon, noch die Klimaziele Deutschlands bis zum Jahre 2020 zu erreichen. Trotz der Energiewende wird das Land das Ziel der Kohlenstoff-Emissionen um 40% zu reduzieren wohl kaum erreichen.

Nach den Bundestagswahlen im September könnte die neue Regierung in der Pflicht stehen, Vorschläge zur Schließung von Kohlekraftwerken vorzulegen, welche noch etwa 40% des Stromes in Deutschland erzeugen. Einem 76 Seiten starken Manifest zufolge sieht Merkels regierende CDU einen „mittel- bis langfristigen Ausstieg“ aus Braunkohle und Kohle vorher.

[*Der Beitrag wurde vor diesem Termin geschrieben, deshalb steht die Ankündigung im Original im Futur. Was dabei herausgekommen ist, wird man wohl wieder nur im Internet erfahren, wenn überhaupt. Anm. d. Übers.]

Ausstieg aus der Kernkraft

Gas kann in fünf Jahren ein Fünftel der Energie in Deutschland erzeugen, was in etwa eine Verdoppelung des gegenwärtigen Niveaus wäre.

Deutschlands Weg zu einem System erneuerbarer Energie begann vor fast zwei Jahrzehnten. Der politische Impuls verstärkte sich nach der Kernkraft-Havarie in Fukushima im Jahre 2011, was Merkel zu der Entscheidung veranlasste, den Ausstieg aus der Kernkraft bis zum Jahre 2022 zu vollziehen.

„Langfristig braucht Europa ganz andere Mengen importierten Gases von zuverlässigen Lieferanten, und das Nord Stream-Projekt wird zum Rettungsring“, sagte Gazprom-Vize Alexander Medwedjev am 15. Juni…

„Wir brauchen unabdingbar eine Versorgung mit Gas, wenn Kohle nicht mehr verwendet wird“, sagte Klaus-Peter Trapp, ein Politiker aus Greifswald. „Dies kann Konsequenzen haben, falls sich das Verhältnis zwischen Russland und Deutschland verschlechtern sollte.

Full story

Link: https://www.thegwpf.com/germanys-green-energy-fiasco-leads-to-dependence-on-russian-gas/

Übersetzt von Chris Frey EIKE