1

Was ist nun wirklich mit der Wissenschaft passiert?

Die Standardantwort auf diese Frage lautet, dass die Unsicherheiten evaluiert worden sind und peripher erscheinen gegenüber dem zentralen Punkt: wir wissen, dass es schlimm werden wird, und wir sind nur unsicher, wie schlimm es wird. Allerdings sind die Unsicherheiten, die ich hier im Sinn habe, zu fundamental für diese Erklärung, als dass man sie akzeptieren kann. Ich habe den Verdacht, das Problem besteht darin, dass Klimatologen Prophezeiungen abgeben, die nicht falsifiziert werden können mittels geeigneter Experimente. Erkenntnisse aus einem Experiment sind ein bedeutendes Mittel, um erkenntnistheoretische Unsicherheiten (das heißt Ignoranz) zu reduzieren, und es sind derartige Reduktionen, die man sich wünschen möchte, um eine Konvergenz der Meinungen zu erreichen. Aber innerhalb der Klimatologie kommt es zu einem Konsens durch Folgerungen und Disput, wobei Logik und Objektivität im Wettbewerb stehen mit Rhetorik, Ideologie, Politik und Berechnung. Die Soziologie der Wissenschaft ist bedeutend dafür, Gewissheit zu etablieren ohne dass man die Ungewissheit reduzieren muss.

Zurück zu den Grundlagen

Niemand wird in Frage stellen, dass Klimatologie eine Wissenschaft ist. Daher profitieren Klimatologen von der Glaubwürdigkeit, die jeder vernünftige Mensch in den Proklamationen der Wissenschaftler sieht. Darum scheint es so einfach zu sein, jeden als ,anti-wissenschaftlich‘ zu brandmarken, der den ,überwältigenden‘ Konsens unter den Klimatologen in Frage stellt. Schließlich – um Präsident Obama zu zitieren – „sind die Wissenschaft über alle Zweifel erhaben und die Fakten eindeutig“. Die gleiche Prämisse unzweifelhafter Integrität liegt hinter den Empfehlungen von Öko-Psychologen an der University of South West England, denen zufolge jeder, der die Wahrheit hinter Catastrophic Anthropogenic Global Warming (CAGW) in Frage stellt, als unter Geistesverwirrung leidend behandelt werden sollte (1). Außerdem, die Zeit, die man mit Diskussionen mit solchen Skeptikern verschwendet (oder ,Flat Earthers‘, wie Al Gore sie nennt), könnte zu entscheidenden Verzögerungen der Einführung notwendiger Maßnahmen führen. Derartiger Skeptizismus ist daher in jeder Einzelheit so irrational und unmoralisch wie die Leugnung des Holocaust, so dass man dagegen wirklich ein Gesetz erlassen sollte, oder? Aber bevor wir völlig darin aufgehen (buchstäblich), sollten wir uns ins Gedächtnis zurückrufen, warum wir den Wissenschaftlern so vertrauen, und wir sollten uns fragen, ob unser Verständnis für die Ursache dieses Vertrauens es rechtfertigt, hinsichtlich des vermeintlichen Konsens‘ unter Klimatologen auf der Hut zu sein.

Es ist allgemein akzeptiert, dass die prinzipielle Stärke hinter der wissenschaftlichen Methode die Objektivität ist, die daraus resultiert, dass man sich selbst strikt daran hält, nur falsifizierbare Statements abzugeben, besonders hinsichtlich praktischer Experimente. Zumindest sollte man nur Statements abgeben, welche Prophezeiungen enthalten, die mit Referenz zur Natur verifiziert werden können. Nur so sollte ein Konsens erreicht werden. Wissenschaft ist keine Demokratie – Fakten entscheiden, nicht eine wissenschaftliche Wählerschaft. Aber selbst in der reinsten aller Wissenschaften kann man gelegentlich Bereiche von Spekulation finden, die nicht offensichtlich einem genauen Experimentieren unterzogen werden können. Wenn dies passiert, ist das Aufblühen eines Disputes fast unvermeidlich. Schließlich sind auch Wissenschaftler nur Menschen. Falls jemand dieser Mischung eine Frage von vitaler Bedeutung hinzufügt, etwa wenn es um das Überleben der menschlichen Rasse geht, kann man fast dafür garantieren, dass Medien und Politik sich des Themas annehmen. Und danach sind dich Chancen einer ruhigen, sachlichen Debatte praktisch gleich Null. Was noch wichtiger ist, das Fehlen der Falsifizierbarkeit bildet den Rahmen für das erreichen eines Konsens‘ mit anderen Mitteln, was zu einer Gewissheit führt, die man nicht als Nennwert betrachten kann. In der Causa Klimatologie kommt der erste Hinweis darauf, dass der Konsens keineswegs das ist, was er zu sein scheint, aus der außerordentlichen Signifikanz. Der Konsens innerhalb der Klimatologie, so sagt man uns, spiegelt das Erreichen eines Niveaus der Gewissheit, welches in der Wissenschaft einmalig ist. Offensichtlich ist Klimatologie die einzige wissenschaftliche Disziplin in der Geschichte, bei der die Wissenschaft ,settled‘ ist!

Zugegeben, die Theorie von CO2 als einem Treibhausgas ist im Labor leicht zu bestätigen, und die Tatsache, dass es während der Industrialisierung einen signifikanten Anstieg von CO2 in der Atmosphäre gegeben hat, ist durch Messungen bestätigt. Bis hierhin ist das Narrativ, dass die Menschheit derzeit zum Klimawandel beiträgt, leicht zu akzeptieren. Aber nichtsdestotrotz ist das nicht der Punkt. Die Frage lautet, ob gegenwärtige Trends herangezogen werden können, um zu prophezeien, dass es die realistische Aussicht auf irreversible und katastrophale Umweltschäden in nicht sehr ferner Zukunft gibt [Durch Windräder und Solarpaneele jedenfalls ist diese Zukunft schon Gegenwart! Anm. d. Übers.]

Vergisst man nicht, dass eine wissenschaftliche Aussage falsifizierbar sein muss – gibt es da ein legitimes Experiment, mit dem man die spezifischen Prophezeiungen im Namen der Klimatologie falsifizieren kann? Nun, ich fürchte, die Antwort lautet nein. Das Experiment würde erfordern, einen repräsentativen Planeten zu betrachten (den Planeten Erde zum Beispiel), den man genau der Art CO2-Zunahme aussetzt, der uns Sorgen macht, und dann abzuwarten, was passiert. Ein solches ,Experiment‘ ist im Gange, aber es wurde von den Klimatologen noch nicht in Anspruch genommen. Auf der ,World Conference on the Changing Atmosphere’ im Jahre 1988 wurde es so ausgedrückt: „Die Menschheit führt ein unbeabsichtigtes, unkontrolliertes global allgegenwärtiges Experiment durch, dessen ultimative Konsequenzen nur noch von einem Atomkrieg übertroffen werden können“.

Das wolle wir mit Sicherheit nicht, aber angesichts des Fehlens eines verantwortungsvollen, beabsichtigten und kontrollierten Experiments muss man sich mit Theoretisieren zufrieden geben auf der Grundlage des Verständnisses, wie das Klimasystem der Erde agiert. Dies bedingt Feldstudien zum Erlangen von Informationen hinsichtlich gegenwärtiger und historischer Klimawandel, kombiniert mit mathematischer Modellierung, um die Bandbreite zukünftiger Möglichkeiten zu erkunden. Unglücklicherweise bietet dies unabhängig davon, wie sinnvoll dies ist, breiten Raum für Spekulation.

Erstens, man muss vorsichtig sein bei dem Versuch, die Historie der Temperaturänderungen auf der Erde zu unterscheiden, vor allem, wenn dies Interpretation und Manipulation von Proxies erfordert. Dieser Bereich ist tief in Kontroversen verstrickt, worauf ich später noch einmal zurückkommen werde, wenn wir der infamen Hockeyschläger-Graphik begegnen.

Zweitens, man muss sehr vorsichtig sein hinsichtlich der Natur der mathematischen Modelle, mittels welcher die Evolution des Klimasystems der Erde prophezeit wird – ein System, von dem man weiß, dass es offen, nicht linear, ungeheuer komplex und chaotisch ist. Das Ausmaß der Glaubwürdigkeit,welche man diesen Modellen entgegenbringen kann, hängt davon ab, wie gut sie die relevanten Faktoren erfassen, die hier im Spiel sind, und wie realistisch und akkurat derartige Faktoren parametrisiert worden sind. Außerdem beruht die Vorhersagefähigkeit selbst für ein umfassendes und akkurates Modell auf dem Ausmaß, mit dem Rauschen und die dissipativen Kräfte das Klima langfristig stabilisieren können (2). Unglücklicherweise kann es angesichts der signifikanten strukturellen und parametrischen Ungewissheit innerhalb der Modelle eine Wahnidee sein, ein gewisses Vertrauensniveau in die Hypothesen einer gut definierten Unsicherheit von der Art eines Würfels zu setzen (3):

Nichts von oben Gesagtem scheint jedoch das IPCC zu stören. Für all jene, die sich rückversichern wollen, dass der bestehende Satz von Klimamodelle valide ist, erschien im 4. IPCC-Zustandsbericht die folgende Beteuerung an prominenter Stelle:

Dieses Vertrauen stammt aus dem Fundament physikalischer Prinzipien der Modelle und aus deren Fähigkeit, beobachtete Phänomene von Klimaänderungen in Gegenwart und Vergangenheit zu reproduzieren“.

Nun ist es beruhigend zu erfahren, dass die Modelle auf allgemeinen physikalischen Prinzipien beruhen, obwohl dies ein wenig so daherkommt, als ob man sagt, dass ein Zeuge zuverlässig ist, weil er eine reale Person und nicht ein Harry-Potter-Charakter ist – das ist kaum etwas, mit dem man prahlen kann. Was die Reproduktion von Klimaänderungen in Gegenwart und Vergangenheit angeht, habe ich zwei Bedenken:

Erstens, die Tatsache, dass ein Modell die Vergangenheit reproduzieren kann, ist nur dann eindrucksvoll, falls es das einzige verfügbare Modell ist welches das kann, und da man eine Vielfalt von Modellen erstellen kann, welche zu den Aufzeichnungen mittels eines vernünftigen ,Tunings‘ passen, ist das eindeutig nicht der Fall (4). Folglich ist das Passen zu Klima-Aufzeichnungen nicht die wahre Metrik für Vertrauen in ein Modell. Stattdessen kommt Vertrauen aus der Plausibilität und der Legitimität der Parameter-Werte, auf welche die Modellierer zurückgegriffen haben, um das Passen zu erreichen. Sogar das IPCC höchstselbst räumt ein: „Falls ein Modell frisiert worden ist, um gut zu einer tatsächlich beobachteten Quantität zu passen, dann kann die Übereinstimmung mit der Beobachtung nicht herangezogen werden, um Vertrauen gegenüber diesem Modell zu haben“. Ist also diese Strategie allgemeine Praxis? Wer weiß das schon? Die Modellierer veröffentliche ihre Tuning-Verfahren nicht.

Zweitens ist es mit Sicherheit ein logischer Trugschluss zu folgern, dass ein Modell, welches gut in der ,Nachhersage‘ ist, notwendigerweise auch zuverlässig ist zum Zwecke des Ausgebens von Prophezeiungen. Zum Beispiel könnte ein Modell, welches unrichtig die Auswirkungen Wasserdampf und Wolken-Rückkopplung abbildet, diese Schwäche nicht zeigen, bis die Auswirkungen signifikant werden.

Das letzte Wort hierzu soll ein Statement sein, welches tief vergraben ist in den Details des 4. IPCC-Zustandsberichtes: „Was sagt die Genauigkeit einer Klimamodell-Simulation des Klimas in Vergangenheit und Gegenwart über die Genauigkeit seiner Projektionen von Klimawandel? Diese Frage anzusprechen steht gerade erst am Anfang…“. Es stellt sich also heraus, dass IPCC schon vertrauensvoll hinsichtlich seiner Modelle war, obwohl die entscheidende Frage ,gerade erst am Anfang steht, angesprochen zu werden‘. Übersehe ich hier etwas?

Aber jenseits aller meiner Bedenken steht der Kernpunkt, den ich deutlich machen möchte, dass nämlich die Verwendung eines mathematischen Modells für eine Prophezeiung ein ärmlicher Ersatz ist für die Durchführung eines Experimentes. Klimatologen mögen jeden Lauf eines Klimamodells als ein ,mathematisches Experiment‘ betrachten, aber wenn sie das tun, scheinen sie sich selbst zu betrügen. In jeder anderen wissenschaftlichen Disziplin wäre ein derartiges Verhalten als ,hypothetisieren‘ bezeichnet werden. Es ist kein Experiment, welches die Fakten der Natur etabliert (wie es bei einem echten Experiment der Fall wäre), sondern es ermöglicht Klimatologen einfach, den Charakter ihrer Spekulationen besser zu verstehen.

Keinen Spielraum für Zweifel

Bislang läuft alles, was ich zur Erklärung der Koexistenz von Ungewissheit und Sicherheit im Bereich Klimatologie gesagt habe, auf einen irgendwie halb fundierten Verdacht hinaus, dass die betroffenen Wissenschaftler der professionellen Fehlbeurteilung schuldig sind; dass sie dem verfügbaren wissenschaftlichen Arsenal zu viel Vertrauen entgegen bringen. Allerdings sollte man nicht die Tatsache aus dem Auge verlieren, dass Klimatologie schwerstens politisiert ist und dass Ideologien ebenso wie wissenschaftliches Verstehen auf dem Spiel stehen. Es sind diese Umstände, welche die Debatte korrumpieren können. Falls also Beweise auftauchen, die belegen, dass die Unsicherheiten absichtlich heruntergespielt worden sind, kann man durchaus argumentieren, dass eine solche Korruption erfolgt ist. Ich stütze dieses Argument auf die folgenden beiden Beispiele:

Das erste Beispiel ist der Vorwurf, dass das IPCC sich einer grob vereinfachenden Darstellung der Wissenschaft schuldig gemacht hat, und dass die in den Executive Summaries vorgebrachte Sicherheit nicht die Unsicherheit reflektiert, auf welche die zu Rate gezogenen Wissenschaftler hingewiesen hatten. Dieser Verdacht erhob sich bereits bei der Veröffentlichung des 1. IPCC-Berichtes im Jahre 1990. Während eine Arbeitsgruppe eingesetzt worden ist, das Gremium bzgl. der Unsicherheiten zu beraten, tauchten diese in der Executive Summary gar nicht erst auf. Beispielsweise erschien das folgende Statement in dem Bericht der Arbeitsgruppe: „Eine globale Erwärmung größeren Ausmaßes gab es mindestens einmal seit dem Ende der letzten Eiszeit ohne jede merkliche Zunahme von Treibhausgasen. Weil wir die Gründe für dieser Erwärmungs-Ereignisse in der Vergangenheit nicht verstehen, ist es noch nicht möglich, einen bestimmten Anteil der jüngsten, geringeren Erwärmung einer Zunahme von Treibhausgasen zuzuordnen“.

Trotz dieser Vorbehalte war die Executive Summary des Berichtes eindeutig hinsichtlich seiner Schlussfolgerungen und riet dazu, dass weil die Beweise für potentielle Schäden durch AGW so stark waren, „sofortige Reduktionen von Emissionen durch menschliche Aktivitäten erforderlich sind, und zwar um über 60%, um die Konzentrationen auf dem gegenwärtigen Niveau zu stabilisieren“. Auch sagte die Executive Summary nichts hinsichtlich der Grobheit der ersten mathematischen Modelle, die als Grundlage für die Klimawandel-Prophezeiungen bemüht worden waren.

Ohne dass ich jetzt darüber theoretisieren will, warum es zu einem solchen Herunterspielen der Unsicherheiten gekommen ist, spricht die Tatsache, dass dies überhaupt möglich war, Bände über das Vertrauen, das man dem Konsens gegenüber haben kann in der Form, wie es das IPCC zu verbreiten trachtete. Das IPCC hat seitdem eine ganze Reihe von Berichten veröffentlicht, aber die Vorwürfe bzgl. falscher Angaben zur Gewissheit wollten nicht verstummen. Zum Beispiel wurden viele Abschnitte im 2. Zustandsbericht des IPCC, in welchen vor den Unsicherheiten gewarnt worden ist, offensichtlich entfernt, nachdem man die Begutachtung für beendet gehalten hatte. Hierzu bemerkte Prof. Frederick Seitz: „Aber dieser Report ist nicht das, was er zu sein scheint – es ist nicht die Version, welche von den auf der Titelseite gelisteten beitragenden Wissenschaftlern geschrieben worden war. Während meiner über 60-jährigen Mitgliedschaft in der amerikanischen wissenschaftlichen Gemeinschaft, einschließlich meiner Funktion als Präsident sowohl der National Academy of Sciences als auch American Physical Society habe ich niemals eine schlimmere Korruption des Begutachtungsprozesses erlebt als bei den Vorkommnissen, welche zu diesem IPCC-Bericht führten“ (5).

Für mein zweites Beispiel der Vortäuschung einer nicht vorhandenen Gewissheit möchte ich die berüchtigte Hockeyschläger-Graphik heranziehen. Sie wurde erzeugt von einem Team unter Leitung von Dr. Michael Mann und im 3. IPCC-Zustandsbericht kolportiert, um die Causa voranzutreiben. Die Graphik zeigt eine unspektakuläre Abkühlung der Temperatur während des vorigen Milleniums, welche mit einem dramatischen Anstieg endete, der zusammenfiel mit dem Beginn der Industrialisierung. Als solche war es eine immens signifikante Graphik vertrieb sie doch die unwillkommenen Erwärmungen in vorindustrieller Zeit, welche im 1. Zustandsbericht angesprochen worden waren. Im besonderen war die Mittelalterliche Warmzeit auf einmal völlig verschwunden. Mit diesem Hockeyschläger zur Hand brauchte das IPCC nicht mehr die Unsicherheit im Inneren seiner Berichte zu vergraben, bewies doch die Graphik, dass die Unsicherheit einfach nicht existierte. Sie zeigt, dass die gegenwärtigen Temperaturen beispiellos sind und dass es keinen Beweis für eine Erwärmung in vorindustrieller Zeit gibt, zumindest nicht im globalen Maßstab. Der Hockeyschläger war der schlagende Beweis, welcher diew AGW-Theorie bestätigte, und damit war die Wissenschaft ,settled‘. Oder doch nicht?

Irgendwie war es überraschend, dass niemand im Bereich Klimatologie sich veranlasst sah zu versuchen, eine Rekonstruktion der Analyse durchzuführen, welche von Mann et al. durchgeführt worden ist, es schien kein Thema zu sein. Stattdessen blieb es einem halb im Ruhestand befindlichen Bergbau-Berater vorbehalten, Steve McIntyre, ein solches Audit durchzuführen – und die Ergebnisse waren verheerend. Ich möchte mich in diesem Beitrag nicht zu Details hierzu verlieren, dazu ist anderswo viel zu lesen. Um meine Bedenken zu rechtfertigen, muss ich mich nicht unbedingt auf eine Seite der Debatte schlagen; es ist ausreichend zu bemerken, dass es diese Debatte gibt. Wenn man aber erst einmal die statistischen Betrügereien erkennt, welche dem Hockeyschläger zugrunde liegen, ist es nichtsdestotrotz schwierig, nicht zu der Schlussfolgerung zu kommen, dass die Daten gnadenlos zur Bestätigung eines Glaubens vergewaltigt worden waren. Aus der Analyse entstand Gewissheit, aber nur auf Kosten der Integrität. Angesichts der gewaltigen Unterstützung und Publicity, welche das IPCC der Studie ursprünglich verliehen hatte, müssten die nachfolgenden Enthüllungen und ultimative Widerlegung eigentlich größte Empörung hervorrufen. Oder zumindest sollte man das annehmen.

Natürlich nehme ich hier die Position der Skeptiker ein. Da gibt es diejenigen, die auf Studien aus jüngerer Zeit verweisen, wie etwa das PAGES 2K-Konsortium, die eine unabhängige Bestätigung des Hockeyschlägers darstellen. Also war am Ende vielleicht Dr. Manns statistische List gar nicht notwendig, um über die korrekte Antwort zu stolpern. Die Schwierigkeit für mich, dieses Argument zu akzeptieren, besteht darin, dass es die Variation eines Themas zu sein scheint: Man nehme viele Proxydaten, drehe sie durch die Mangel mittels Manipulation und statistischer Analysen so lange, bis sie tot sind, aber dennoch die gewünschte Antwort zeigen; und man hoffe, dass niemand die Unsicherheiten und falschen Hypothesen bemerkt, die im Detail stecken. Schon jetzt müssen die PAGES 2K-Ergebnisse aktualisiert werden angesichts der Kritik (6) und der Variabilität niedriger Frequenz in der Temperatur-Rekonstruktion, welche mit jeder Änderung prominenter hervortreten. Je mehr die Paläo-Klimatologen sich bemühen, die Mittelalterliche Warmzeit los zu werden, desto mehr scheinen sie die Unsicherheiten hervorzuheben zu versuchen, eine zuverlässige globale Temperaturreihe zu erstellen aus Zusammenstellungen lokalisierter Proxy-Messungen.

Die echte Ironie hinter all dem ist, dass die politische Bedeutung des Hockeyschlägers immer weit größer war als dessen wissenschaftliche Relevanz. Die AGW-Hypothese wird durch die Existenz der Mittelalterlichen Warmzeit nicht falsifiziert. In der politisierten Arena, in welchem Klimatologie durchgeführt wird, war jedoch die Versuchung groß für das IPCC zu behaupten, dass die Wissenschaft ,settled‘ sei und als Konsequenz ein Pferd aufzuzäumen, welches den Drogentest nicht bestanden hat. Das wäre schon schlimm genug, aber die Intensität und zeitliche Dauer, mit der der Hockeyschläger verteidigt wurde und wird, enthüllt eine sogar noch besorglichere Eigenschaft. Selbst in Bereichen, wo eine Falsifizierung besonders leicht möglich ist, scheint es innerhalb der Klimatologie eine Kultur zu geben, die darauf abzielt, in dieser Hinsicht frustriert zu werden. An jeden, der bezweifelt, dass all dies es erforderlich macht, den Enthüllungen von Klimagate mehr Aufmerksamkeit zu schenken: Die illegale Löschung von E-Mails, welche Gegenstand einer Anforderung im Rahmen des Informationsfreiheits-Gesetzes sind, bildet eine Konspiration, die Herausgeber wissenschaftlicher Veröffentlichungen einschüchtert, die den IPCC-Begutachtungsprozess korrumpiert, die Daten zensiert, welche nicht die zentralen Botschaft stützen. Es gibt permanente Bemühungen zu verhindern, dass Daten der öffentlichen Überprüfung zugänglich gemacht werden sowie eklatante Falschinterpretationen der Daten, um eine gewünschte politische Auswirkung zu erhalten. Und doch ist all dies danach als nichts weiter vom Tisch gewischt worden als der ,robuste‘ Dialog, den man zwischen ehrlichen und fähigen Wissenschaftlern erwarten kann, die ihrer täglichen Routine nachgehen!

Jedoch bedurfte es Klimagate nicht für die Enthüllung, dass die Klimatologie von einer hässlichen Kultur von Einschüchterung, Verzerrung und Zensur umgeben ist, gibt es doch Viele in dem Bereich, die Folgendes aussagen können: Entzug der IPCC-Mitgliedschaft für all jene, die Kontrarians zu sein scheinen; Zurückweisung von Einzelbeiträgen aus fadenscheinigen Gründen; Entzug von Forschungsförderung oder die Androhung desselben; Vorwürfe, dass eine bestimmte Finanzierungsquelle die wissenschaftliche und persönliche Integrität eines Einzelnen unterminiert; Vorwürfe von Inkompetenz und Dummheit; und Verunglimpfung mittels abfälliger Bezeichnungen wie ;Leugner‘ oder ,Wissenschafts-Söldner‘. Viele Beobachter können behaupten, dass derartige Taktiken notwendig sind, um einen legitimen wissenschaftlichen Konsens zu verteidigen, welcher Angriffen ausgesetzt ist seitens einer Armee von Zweiflern mit üblen Absichten, obwohl ich es vorziehe zu sagen, dass ein solches Verhalten wenig dazu beiträgt, die gegenwärtige Krise der Wissenschaft zu mildern (7).

Es ist vielleicht nur fair zu erwähnen, dass einige der Gewissheits-Apostel wie Dr. Mann gleichermaßen gekränkt sind durch den Tonfall der Debatte, und dass sie sich gerne selbst als die wirklichen Helden präsentieren, als Wächter der Wahrheit, umgeben von rasenden und fanatischen Neinsagern. Ich wage zu sagen, dass Dr. Mann Missbrauch erlitten hat, aber der Gedanke, dass er ein Licht ist in einer Wildnis aggressiver Ignoranz ist etwas schwierig zu akzeptieren, wenn er auch behauptet, dass alle richtig denkenden Wissenschaftler ihm zustimmen. Alles, was ich sagen kann ist, dass es eine Menge falsch denkender Wissenschaftler da draußen geben muss.

Aber genug der Schlammschlacht. Wenn es darum geht, könnte das wirkliche Problem der Klimatologie nichts zu tun haben mit Möchtegern-Verschwörungen. Das Problem kann das Ausmaß sein, mit dem der Konsens einem direkten Auswahleffekt geschuldet ist. Es ist eine unbestrittene Tatsache, dass Regierungen auf der ganzen Welt von Anfang an stark in Forschungen der AGW-Hypothese investiert haben, oftmals unter Ausschluss potentieller Alternativen. Ich stelle hier nicht deren Motivation in Frage; die ist unwichtig. Alles was zählt ist, dass falls Forschungsförderung strikt begrenzt ist auf das Voranbringen eines Interesses an einer Vermutung in einem bestimmten Gebiet, man nicht überrascht sein darf, wenn die wissenschaftliche Gemeinschaft, die jemand als Berater installiert hat, mit Einstimmigkeit zu sprechen anfängt.

Es gibt keinen Grund, hier eine Verschwörung zu vermuten. Ich kann ziemlich gut akzeptieren, dass Wissenschaftler ernste und ehrliche Sorgen bekommen angesichts der extremen Möglichkeiten von AGW, und es gibt die Chance, dass sie recht haben. Allerdings kann es genauso gut sein, dass sie nur deswegen so im Vordergrund stehen, weil sie jene Klimatologen, die alternative Standpunkte vertreten, entweder zum Mitmachen bei ihnen nötigen oder sie aus dem Spiel drängen – die Tage des selbstlos forschenden Gentleman-Wissenschaftlers, der an seiner Studie schuftet, sind längst vorbei. Es ist daher denkbar, dass der Konsens, anstatt das Ergebnis von Umdenken im Verlauf der Debatte zu sein, stattdessen aus einer Form soziologischer natürlicher Selektion resultiert.

Man könnte versucht sein, diesen Gedanken als abstrus zurückweisen. Sicher ist es höchst unwahrscheinlich, dass eine ganze Gemeinschaft von Wissenschaftlern unbekümmert signifikante Untersuchungslinien ignorieren. Nun, es mag unwahrscheinlich aussehen, wäre da nicht die Tatsache, dass genau das die ganze Zeit im Gange ist. Alles, was man braucht, ist die richtige Mischung aus Überzeugung, sozialer Druck und die Unfähigkeit, mittels Experimenten etwas zu falsifizieren. Man nehme beispielsweise eine wissenschaftliche Disziplin, von der jedermann glaubt, dass sie ein Ausbund wissenschaftlicher Integrität ist – die Physik hoch energetischer Partikel.

String Wars

Ende der siebziger und Anfang der achtziger Jahre begannen theoretische Physiker, sich Gedanken zu machen, welche nicht nur in unmittelbarer, sondern auch weitester Zukunft nicht falsifizierbar sind. Diese Gedanken wurden unter dem Begriff String-Theorie zusammengefasst, um bald darauf von einem supersymmetrischen Äquivalent ersetzt zu werden, nämlich der Superstring-Theorie. Der Grundgedanke ist, dass Elementarteilchen, einschließlich der Ladung tragenden [force-carrying] Partikel der Quantenfeld-Theorie, keine Punktobjekte sind , sondern stattdessen Manifestationen der Vibration offener Strings oder Energie-Loops [?]. Jeder Vibrations-Zustand ist messbar als ein Partikel einer gegebenen fundamentalen Art. Das Problem bei der String-Theorie ist jedoch, dass die Strings so klein sind (in der Größenordnung der so genannten Planck-Länge von 10-35 m), dass die Energie zur Erkundung derartig kleiner Details in der Natur buchstäblich astronomisch ist – man bräuchte einen Teilchen-Beschleuniger, der so stark ist, dass er die Größe einer mittleren Galaxie haben müsste. Daher wurde vermutet, dass die Theorie bislang dabei versagt hat, auch nur eine einzige Vorhersage zu machen, die in einem Labor überprüfbar ist.

Dieses Problem hat eine Anzahl Beobachter dazu gebracht, in Frage zu stellen, ob die String-Theorie tatsächlich überhaupt eine Wissenschaft ist. Zum Beispiel hat Peter Woit in seinem Buch mit dem Titel ,Not Even Wrong‘ [etwa: Nicht einmal falsch] das Fehlen der Falsifizierbarkeit der String-Theorie beklagt: „Es ist eine niederschmetternde Tatsache, dass es absolut keinen Beweis irgendeiner Art gibt für diese komplexe und unattraktive Theorie“. Nichtsdestotrotz hat dies nicht verhindert, dass die Theorie von Anfang an in den Ruhmeshallen dominierte, zum Verdruss all jener, welche alternative Gedanken zur grundlegenden Struktur der Natur einbringen wollten. Das Problem: wenn eine Lehrmeinung erst einmal von denen übernommen wird, welche in der Lage sind, die zukünftige Richtung der Forschung zu diktieren, ist es sehr schwierig, diese Lehrmeinung zu überwinden. Zu Beginn war der Enthusiasmus für die String-Theorie verständlich, weil sie offenbar sehr vielversprechend war (8). Hat sich jedoch eine Theorie erst einmal eingenistet, kann der Enthusiasmus für sie genauso gut erklärt werden mit dem Wunsch, den Ruf und die Lebensweise derjenigen Individuen und Organisationen zu schützen, die so viel in die Entwicklung dieser Theorie investiert haben. Ein weniger zynisches Gefühl beschreibt der mathematische Physiker Roger Penrose in seinem Buch ,The Road to Reality‘ mit den Worten: „Der oftmals wilde Wettbewerb … führt zu Mitläufereffekten, wobei die Forscher fürchten zurückzubleiben, falls sie nicht mitmachen“.

Es ist heutzutage in Mode zu schreien „Verschwörungs-Theoretiker!“, wenn jemand die Legitimität der herrschenden Glaubensrichtung in Frage stellt. Allerdings braucht man nicht Zuflucht zu Täuschung zu nehmen, um die Dominanz der String-Theorie zu erklären. Eine solche Dominanz ist ein sich entwickelndes Phänomen, welches man erwarten sollte unter der Voraussetzung, dass die Dekane der Fakultäten natürlich all jene um sie herum fördern, welche ihre eigenen theoretischen Neigungen teilen. Und angesichts des involvierten Drucks ist es unwahrscheinlich, dass angehende Wissenschaftler das Fehlen irgendwelcher Integrität hinter ihrem gewählten Studienfach sehen. Nichtsdestotrotz bleibt die Tatsache bestehen, dass viele Universitäten an einem Punkt angekommen sind, an dem es extrem schwierig ist, Forschungsgelder zu bekommen für die Erforschung irgendeiner anderen Theorie außer der String-Theorie. (9).

Als Nicht-Experten in einer bestimmten wissenschaftlichen Disziplin kann der Rest von uns sich nur auf einen wissenschaftlichen Konsens verlassen, um zu bestimmen, wo möglicherweise die Wahrheit liegt. In unserem Beispiel, falls jemand eine Umfrage unter unter theoretischen Teilchen-Physikern durchführen und sie fragen würde, welche der miteinander konkurrierenden Theorien der vielversprechendste Kandidat als Theorie für Alles ist, würde das Ergebnis der Umfrage unweigerlich zugunsten der String-Theorie ausfallen. Allerdings reflektiert dies lediglich die Vorherrschaft von String-Theoretikern innerhalb dieses Bereiches.

Natürlich können wir auch den Praktikern beim Diskutieren zuhören und entscheiden, wer das schlagende Argument vorbringt. Unglücklicherweise jedoch kann man Argumente nur mit anderen Mitteln zusammentragen als mit der Referenz zu unwiderlegbaren Fakten. Angesichts des Fehlens überzeugender experimenteller Beweise beginnen derartige Diskussionen oftmals mit besten Absichten hinsichtlich von Werten wie mathematischer Eleganz, bevor das Ganze in die Art von miesem Spiel degeneriert, das Akademiker anscheinend auszeichnet. Und wehe denjenigen, welche es wagen, die Integrität des betreffenden Forschungsbereiches in Frage zu stellen. In seinem Buch ,The Trouble With Physics: The Rise of String Theory, the Fall of Science and What Comes Next’ beschreibt der theoretische Physiker Lee Smolin einen leidenschaftlichen Aufruf zu einer frischen und ehrlichen Bewertung des State of Affaires innerhalb der theoretischen Teilchen-Physik. Dafür erhielt er die folgende Beurteilung von Luboš Motl (10):

…Die Konzentrierung irrationaler Statements und anti-wissenschaftlicher Gefühle hat meine Erwartungen übertroffen…

Antiwissenschaftlich? Wo habe ich das schon einmal gehört? Es scheint eine seltsame, einer Erklärung bedürfende Tatsache zu sein, dass jedem, der sich für die Rückbesinnung auf wissenschaftliche Prinzipien einsetzt, schließlich der Vorwurf gemacht wird, er sei antiwissenschaftlich. Zumindest, soweit ich das sehe, ist noch niemandem der Vorwurf gemacht worden, ein ,String-Leugner‘ zu sein. Aber selbst ohne das ist die Debatte hitzig genug, um den Terminus ,String Wars‘ aufzuwerfen.

Ich sollte darauf hinweisen, dass selbst jene, die hinsichtlich des Zustandes der theoretischen Physik am meisten besorgt sind, nicht fordern, die String-Theorie zu verwerfen. Vielmehr lenken sie einfach Aufmerksamkeit auf die Probleme der experimentellen Verifikation und warnen, dass diese Ergebnisse in einem Freiraum der Spekulation führen, der nicht ganz gesund ist. Hinsichtlich des Überlebens von Theorien, wenn es keine natürliche Selektion mittels Experimente gibt, wird oftmals die Selektion mit soziologischen Mitteln an die Stelle treten. Die Folge davon ist, dass Konsens nicht länger erreicht wird durch Reduktion epistemischer Unsicherheit, sondern durch eine Verengung des Blickwinkels.

Vorsicht vor dem Bias

Klimatologen, die hinsichtlich düsterer AGW-Prophezeiungen übereinstimmen, sind also nicht mehr (oder weniger) fehlgeleitet oder unaufrichtig als die Horden theoretischer Teilchen-Physiker, welche die String-Theorie vorantreiben und erforschen. Auch hier wollen wir ehrlich sein, wenn man es isoliert betrachtet, ist etwas dran an dem AGW-Argument, trotz der zentralen Rolle von Prophezeiungen, welche nicht innerhalb des erforderlichen Zeitrahmens falsifiziert werden können. Allerdings würde man sich sehr viel wohler fühlen, wenn man das als Nominalwert [face value] akzeptiert, falls man nicht den Verdacht hegt, dass die Gelegenheit zur Entwicklung von Gegenargumenten durch nicht wissenschaftliche Mittel vereitelt worden wäre. Es ist sehr beunruhigend, dass das AGW-Argument künstlich gestärkt worden sein könnte durch Bestätigungs-Verzerrung [confirmation bias]. Können wir unter diesen Umständen sicher sein, dass wir nicht unsere eigene Ignoranz ignorieren?

Außerdem gab es keine andere wissenschaftliche Kontroverse, die so viel politische Einmischung über sich ergehen lassen musste oder der auch nur annähernd so viel Medienaufmerksamkeit zuteil wurde als es bei der Klimatologie der Fall ist. Ich sage ,über sich ergehen lassen musste‘, weil trotz eines erbärmlichen Fehlens von Qualifikationen dafür es niemanden in der Politik oder im Medienbereich zu geben scheint, der einem nicht mit Sicherheit sagen kann, welche Seite der Debatte recht hat: Alle düsteren Warnungen vor AGW sind die Wahrheit, und jedermann der dies bezweifelt, ist ein Lümmel. Da man von allen Bürgern fordert, die Wissenschaftler zu unterstützen (die wirklichen Wissenschaftler), sind wir doch alle glücklich, dass wir die Medien und Politiker haben, welche uns durch die Feinheiten der Debatte führen. Wir können nicht hoffen, zwei zuverlässigere und vertrauenswürdige Sektoren der Gesellschaft zu haben, die uns über die Stärke des Konsens‘ aufklären und genau beschreiben, wer die Spinner, Amateure oder verlogenen Skeptiker sind.

Und natürlich sei Gott Dank für das Internet. Der kleine Teil davon, der sich nicht der Pornographie verschrieben hat, scheint dominiert zu sein durch vermeintlich unwiderlegbare Argumente für die eine oder andere Seite der ,CAGW-wird-uns-töten‘-Debatte. Für jemanden mit einem offenen Geist, der die Wahrheit zu finden versucht, ist es zu naheliegend, verzweifelt aufzugeben. Und für den Rest von uns, wir bilden unsere Ansichten auf der Grundlage emotionaler Impulse und bringen den Rest unserer Leben damit zu, uns in Post-Hoc-Rationalisierung zu üben und nach den Informationen zu schauen, welche den von uns gewählten Bias bestätigen. Im Falle globale Erwärmung ist es unglücklicherweise so, dass Individuen aller Glaubensrichtungen immer in der Lage sein werden, die Ermutigung zu finden, nach der sie suchen.

Wenn die Einsätze steigen

Ich habe hier argumentiert, dass es in der CAGW-Kontroverse kaum etwas gibt, das man nicht auch anderswo innerhalb der Wissenschaft findet, wenn erst einmal der feste experimentelle Griff gelockert ist. Sowie dies der Fall ist, brechen bittere Debatten aus zwischen den beiden Seiten der gegensätzlichen Positionen. Trotzdem entwickelt sich ein Konsens, aber der Konsens ist von fragwürdigem Wert, weil es gute Gründe gibt für den Verdacht, dass Auswahleffekte signifikant sind. Individuen, welche den Konsens in Frage stellen, werden als antiwissenschaftlich gebrandmarkt, selbst wenn deren wissenschaftliche Leistungen über alle Zweifel erhaben sind. Wissenschaftler fühlen sich angegriffen, obwohl sie sich selbst deutlich helfen würden, sorgfältiger zu sein bei der Vermeidung unfalsifizierbarer Spekulationen.

Es gibt natürlich Unterschiede zwischen Physik und Klimatologie. Zum Beispiel wird die Lage in der Klimatologie verschlimmert durch ein politisch motiviertes Leugnen der Unsicherheiten und einem Fehlen von Überzeugung gegenüber Offenheit und Reproduzierbarkeit von Ergebnissen. Auch die Einsätze sind viel höher, und da liegt es in der Natur der Sache, dass wir alle eingeladen werden, an der Teegesellschaft teilzunehmen. Allerdings fühle ich mich genau wie bei der Super-Symmetrie-String-Theorie nicht qualifiziert, als Schiedsrichter zu fungieren. Alles, was ich sagen kann ist, dass es so zu sein scheint, als ob Argumente bestehen bleiben, weil alle Seiten so hoch motiviert und keine Experimente zur Beilegung verfügbar sind. Unter diesen Umständen hätte ich gedacht, ein offener Geist sei eine vernünftige Haltung, die ein Laie einnehmen kann. Unglücklicherweise steht die Toleranz von Skeptizismus nicht mehr auf der Tagesordnung, und jeder, der wissenschaftliche Autorität in Frage stellt, wird als unvernünftig angesehen. Die wirkliche Verletzung wissenschaftlicher Prinzipien ist jedoch, dass Wissenschaft ,settled‘ sein kann, ohne dass man darauf warten muss, dass Prophezeiungen eintreffen.

Ursprünglich umgingen Politiker das Problem der fehlenden Falsifizierungs-Möglichkeit, indem sie das Vorsorgeprinzip auf den Schild hoben, wobei die Plausibilität eines Gedankens ausreicht, ihn so zu behandeln, als ob es sich um eine bestätigte Tatsache handelt. In der Klimatologie war also nicht nur die Falsifizierung von Gedanken technisch schwierig, es wurde nicht einmal für notwendig erachtet. Aber dies war eine offenkundige politische Haltung: Eine Entscheidung zu verschieben, bis alle Unsicherheiten beseitigt sind, enthält ein existentielles Risiko, und darum ist es politisch weise, die Entscheidung jetzt zu fällen. Nichtsdestotrotz ist das Vorsorgeprinzip für seine sich selbst zerstörende Logik berüchtigt. Wenn der Preis für eine Maßnahme potentiell katastrophal ist (was durchaus sein kann, wenn man sich die von den CAGW-Befürwortern geforderten drastischen Aktionen vor Augen führt), dann kann das Vorsorgeprinzip auch herangezogen werden, um gegen derartige Maßnahmen vorzugehen. Unsicherheit schneidet beide Wege, und vielleicht ist dies der Grund, warum die Leugnung von Unsicherheit das Vorsorgeprinzip in den Köpfen vieler Menschen usurpiert zu haben scheint als bevorzugte Politik.

Mark Twain hat besser als die meisten Anderen verstanden, wie einfach es ist, von Vermutungen hinweg getragen zu werden, wenn Beweise selten sind, aber ich bezweifle, dass selbst er voll erkannt hatte, wie einfach derartige Vermutungen auf mysteriöse Weise zu Wahrheiten werden können, falls die Einsätze steigen. Man braucht keine Tricks, um dies zu erreichen, obwohl es überraschend ist, zu was sich einige Befürworter hinreißen lassen um sicherzustellen, dass die ,rechtschaffene‘ Seite der Argumentation gewinnt. Falls man mich fragt, ich würde die Unsicherheiten jedoch akzeptieren und das gefürchtete Vorsorgeprinzip aktivieren. Obwohl alles andere als ideal ist dies eine bessere Option als das Herunterspielen von Unsicherheiten bis zu einem Ausmaß, dass ein offener Geist hinsichtlich eines fragwürdigen Konsens‘ als ein Zeichen krimineller Dummheit angesehen wird. Schließlich ist Skeptizismus der Kompass für wissenschaftliche Geister. Also frage ich noch einmal: Was ist mit der Wissenschaft passiert?

Der Autor John Ridgway ist Absolvent der Physik, der bis vor Kurzem in UK als Software-Experte und als Analyst für das Transportwesen gearbeitet hat. Er ist kein Klimawissenschaftler und nicht Mitglied des IPCC, fühlt sich aber als Repräsentant der vielen gebildeten und rationalen Zuschauer, die glauben, dass das hysterische Geschrei gegen Laien-Skeptizismus sowohl unberechtigt als auch kontraproduktiv ist.

Anmerkungen:

1.Siehe http://www.spiked-online.com/newsite/article/6320#.WWu5mGeWzZ4

2. Für weitere Informationen siehe Storch, Hans von; Zwiers, Francis (1999). Statistical Analysis in Climate Research. Cambridge University Press. ISBN 0 521 45071 3.

3. Ich sollte erklären, dass Unsicherheit nach Art eines Würfels aus Zufalls-Fluktuation resultiert. Sie reflektiert die Variabilität der realen Welt und kontrastiert als solche mit der epistemischen Unsicherheit (unsere Wissenslücken) und ontologischer Unsicherheit (Unsere Wissenslücken hinsichtlich unserer Wissenslücken).

4. Diejenigen, die in Frage stellen, dass das Frisieren von Klimamodellen im Nachhinein allgemeine Praxis ist, sollten schauen bei Hourdin Frédéric, et al (2017). The Art and Science of Climate Model Tuning. American Meteorological Society, Journals Online.

5. Viel wurde aus der Tatsache gemacht, dass das IPCC erfolgreich gegen den Artikel in der Wasington Post geklagt hat, in welcher dieses Zitat erschienen war. Die Grundlage der Klage war, dass im Artikel nicht erwähnt worden war, dass Seitz kein Klimatologe war, kein Mitglied des IPCC, auf der Lohnliste einer Ölgesellschaft stand und dass zuvor ihm jemand Senilität vorgeworfen hatte. Weil sie keinen Ad-Hominem-Angriff auf ihren Interviewpartner geführt hatte, hat die Washington Post die journalistische Ausgeglichenheit fehlen lassen, welche vom IPCC verlangt wird! Noch relevanter ist, dass das IPCC auch erfolgreich geltend gemacht hat, dass die Änderungen keine Korruption ihres Begutachtungsprozesses darstellen. Damit wird natürlich stillschweigend zugegeben, dass solche Änderungen vorgenommen worden waren.

6. Siehe Steve McIntyre auf seiner Website Climate Audit.

7. Anders als die Fähigkeit zur Falsifizierung steht die Reproduzierbarkeit von Ergebnissen als prinzipielle Erfordernis des wissenschaftlichen Verfahrens. In dieser Hinsicht scheitern viele wissenschaftliche Disziplinen derzeit grandios; darum die Krise. Die meisten, wenn nicht alle Erklärungen hierfür sind auf Klimatologie anwendbar. Bei dieser Gelegenheit habe ich als mein Hauptthema Falsifizierbarkeit gewählt anstatt Reproduzierbarkeit der Ergebnisse. Vielleicht beim nächsten Mal…

8. In particular, superstring theory equations predict the existence of a spin-2 boson that has all of the properties expected of the force-carrying particle posited by a quantum field theoretic description of gravity (namely, the graviton). This prediction paves the way for an understanding of gravity that is unified with the so called Standard Model of particle physics. [Man sehe mir nach, dass ich das nicht übersetze! Anm. d. Übers.]

9. Weitere Informationen: Woit, Peter (2006). Not Even Wrong: The Failure of String Theory and the Search for Unity in Physical Law. Basic Books. Ch. 16. ISBN 0-465-09275-6.

10. Motl, Luboš (2004).Lee Smolin: The Trouble with Physics”: a review on The Reference Frame.

Link: https://wattsupwiththat.com/2017/08/10/so-what-happened-to-the-science/

Übersetzt von Chris Frey EIKE




Die Arbeitsplatz-Illusion von der Energiewende

 Als „System-Medium“ macht die FAZ die Merkel’sche Energiewende samt Klimaschutzwahn stets brav mit. Aber gelegentlich finden sich in dem Blatt dazu auch lichte Momente. Zwar bleiben Zweifel am Glauben oder gar der blasphemische Unglaube, das Klima vor Erwärmen schützen zu können, nach wie vor ausgespart, doch liest man dort zuweilen, was der Schwindel teilweise kostet und dass der menschenverursachte CO2-Ausstoß in Deutschland trotz aller Aufwendungen nahezu unverändert bleibt. Einen dieser lichten Momente hat die FAZ den Lesern neulich in ihrem Wirtschaftsteil beschert und dem Ökonomen Manuel Frondel eine ganze Seite eingeräumt, um vorzuführen, dass die vielen zusätzlichen Arbeitsplätze der abenteuerlichen Stromerzeugungspolitik mittels Wind, Sonne und Pflanzenmasse eine Illusion sind. Das zu tun, ist notwendig und für Ökonomen geradezu verpflichtend, denn in Deutschland pflegt die Energiewende-Lobby und die ihr hörige politische Führung Energiewende und Klimaschutz von jeher als „Job-Motor“ anzupreisen. Noch im Juni 2017 hat das Bundesministerium für Wirtschaft in einem Newsletter  die „erneuerbaren“ Energien als „Jobmotor“ bezeichnet. Auch das Wort „Job-Wunder“ hat man in diesem Zusammenhang schon vernommen.

 

Was schlechte und gute Ökonomen unterscheidet

„Was man sieht und was man nicht sieht“, war ein Essay überschrieben, den 1848 der französische Ökonom Frédéric Bastiat verfasst hat. Als einer der Klassiker seiner Zunft unterschied er zwischen schlechten und guten Ökonomen. Die schlechten nähmen nur das offenkundig Sichtbare von Maßnahmen wahr, aber nie – wie die guten – deren (zunächst) verborgenen Wirkungen. Zu den schlechten Ökonomen gehören meist auch die Politiker und die übrigen Menschen. Darum ist schlechte Politik mit ökonomischen Fehlschlüssen und ungewollten wirtschaftlichen Folgewirkungen so populär.

Was eine ehrliche Beschäftigungsbilanz ausmacht

Zu den in diesem Sinn guten Ökonomen kann man also auch Manuel Frondel*) zählen. Er nämlich legt dar, warum die Subventionierung der Stromerzeugung mit Wind, Sonnenlicht und „Biogas“  (alternative oder „erneuerbare“ Energien) als Arbeitsplatzargument ebenso wenig taugt wie einst die subventionierte deutsche Steinkohle.  Eine ehrliche Beschäftigungsbilanz dürfe nicht nur die durch Subventionen erkauften  n e u e n  Arbeitsplätze ins Blickfeld rücken, sondern auch die Subventionsfolgen auf die  b i s h e r i g e n  Arbeitsplätze und  a n d e r e  Wirtschaftsbereiche.

Die Arbeitsplätze, die man sieht

Was man zunächst sieht, sind die Arbeitsplätze, die durch die alternative Stromerzeugung entstehen: Windkraftanlagen sind zu bauen, ebenso Fotovoltaik- und Biogasanlagen. Die Teile dafür müssen produziert und zugeliefert, sie müssen montiert und die fertigen Anlagen gewartet werden. Die Investitionen dafür benötigen eine Finanzierung und Kreditverträge. Das verschafft zusätzliche Beschäftigung in Banken und Anwaltskanzleien. Subventionierung muss gesetzlich geregelt und überwacht werden, und es sind – wie stets bei staatlicher Intervention – immer mehr Folgeregulierungen nötig, was zu noch mehr Arbeitsplätzen in der behördlichen Bürokratie führt und zu zusätzlicher Freude in Anwaltskanzleien.

Die Arbeitsplätze, die man zu sehen vermeidet

Was man nicht gleich sieht (oder vielleicht auch zu sehen vermeiden will), sind jene Arbeitsplätze, die als Folge der Subventionierung verloren gehen. Das sind zuerst jene in der bisherigen, der herkömmlichen Stromerzeugung mit Kohle, Erdgas und Kernkraft. Die staatliche Intervention führt dazu, dass diese konventionellen Kraftwerke nur zeitweise Strom liefern dürfen und daher unwirtschaftlich werden oder – wie Kernkraftwerke – ganz verschwinden sollen. Später soll es selbst Braunkohlekraftwerke nicht mehr geben dürfen. Frondel schreibt: „Daher ist seit Jahren bei den großen Stromversorgern ein deutlicher Rückgang der Beschäftigung um Tausende von Stellen zu verzeichnen. Negative Beschäftigungswirkungen sind darüber hinaus in den der konventionellen Stromerzeugung vorgelagerten Sektoren wie dem konventionellen Kraftwerksbau zu erwarten. Die so verlorenen Arbeitsplätze müssen den im Erneuerbaren-Sektor entstandenen Stellen gegenübergestellt werden, wenn eine ehrliche Bilanz gezogen werden soll.“

Wenn eine ehrliche Arbeitsplatz-Bilanz gezogen werden soll

Ferner, so Frondel, sei auch jene fiktive Zahl an Arbeitsplätzen zu berücksichtigen, die hypothetisch geschaffen worden wären, wenn es die Subventionierung der alternativen Stromerzeugung nicht geben würde, und dieser fiktive Wert sei von der Zahl der tatsächlich entstandenen Stellen in der alternativen Stromherstellung abzuziehen. Dadurch, dass diese nachteiligen Wirkungen unberücksichtigt blieben, würden sie die wahren Folgen für die ökonomische Wohlfahrt einer Gesellschaft verschleiern. Nur die mit dem Alternativstrom geschaffenen und vorhergesagten Arbeitsplätze herauszustellen, zeichne in vieler Hinsicht ein verzerrtes Bild. Damit gäbe man nur die Brutto- und nicht die Nettobeschäftigungseffekte wieder. Die verlorenen Arbeitsplätze müssten den in der subventionierten Stromerzeugung entstandenen Stellen gegenübergestellt werden, wenn eine ehrliche Bilanz gezogen werden solle. In diesem Zusammenhang hält Frondel zwei Aspekte für besonders wichtig:

Investitionen, die wegen höherer Strompreise unterbleiben

„Erstens: Mit Ausnahme der von der EEG-Umlage weitgehend verschonten rund 2500 energieintensiven Betriebe fallen auch die Investitionen der industriellen Stromverbraucher infolge höherer Strompreise um Milliarden Euro geringer aus als ohne Subventionierung der alternativen Energietechnologien.“

Der addierte Kaufkraftverlust und seine Milliarden-Folgen

„Zweitens: Der Kaufkraftverlust der privaten Verbraucher infolge höherer Strompreise addiert sich über die jahrzehntelange Förderdauer hinweg auf dreistellige Milliardenbeträge – auch wenn sich die Belastung eines einzelnen Haushalts vergleichsweise gering ausnimmt. Nach langjährigen RWI-Erhebungen für das Bundeswirtschaftsministerium verbraucht ein Drei-Personen-Haushalt im Durchschnitt jährlich rund 4000 Kilowattstunden. Das macht bei der derzeitigen EEG-Umlage von 6,88 Cent pro Kilowattstunde rund 330 Euro pro Jahr (inklusive Mehrwertsteuer).“

Was den Stromverbrauchern an zusätzlichen Milliarden abgeknöpft wird

Frondel rechnet vor: Seit die Subventionierung über das Erneuerbare-Energien-Gesetz im Jahr 2000 eingeführt worden sei, hätten die Stromverbraucher mehr als 150 Milliarden Euro mit ihren Stromrechnungen bezahlt. Da die EEG-Vergütungen noch bis zu zwei Jahrzehnte lang gesetzlich festgeschrieben seien, ergäben sich, grob überschlagen, weitere Subventionskosten von 400 Milliarden Euro. Dabei geht er davon aus, dass die EEG-Subventionen von durchschnittlich 20 Milliarden Euro im Jahr über die nächsten zwanzig Jahre hinweg weiterlaufen.

Was die Verbraucher für Strom mehr bezahlen müssen, fehlt ihnen zum Ausgeben woanders

Dadurch, dass die staatlich nach oben getriebenen Strompreise den privaten Verbrauchern Kaufkraft entziehen, entstehen negative Arbeitsplatzeffekte zu Lasten anderer Wirtschaftszweige: Was die Verbraucher für Strom mehr ausgeben müssen, fehlt ihnen für den Kauf anderer Dinge. Und den davon nachteilig betroffenen Unternehmen entziehen sie sonst mögliche Einnahmen und damit Kapital für Investitionen, was ebenfalls auf negative Arbeitsplatzeffekte hinausläuft. Zu Arbeitsplatzverlusten kommt es wegen der hohen Subventionierung also auch außerhalb der Stromerzeugung.

Die stets vergessenen Opportunitätskosten

Darüber hinaus würden bei der Subventionierung von Alternativstrom, wie Frondel kritisiert, deren „Opportunitätskosten“ vergessen. Das sind Kosten, die aus dem entgangene Nutzen von Investitionen  resultieren und wegen dieser Subventionierung  nicht getätigt werden, aber eventuell profitabler sind als die Investitionen in den Alternativstrom. So müsse zum Beispiel für alle seit 2000 in Deutschland mit realen Nettokosten von mehr als 110 Milliarden Euro installierten Solaranlagen „die Frage gestellt werden, ob diese gewaltige Summe nicht besser hätte investiert werden können. Dazu zählen beispielsweise Ausgaben für Bildung oder für Forschung und Entwicklung von Energiespeichertechnologien, für welche wesentlich mehr Geld zur Verfügung gestanden hätte, wenn auf die starke Förderung der Photovoltaik verzichtet worden wäre“.

Investitionen in Bildung und Forschung bringen mehr Arbeitsplätze als Subventionen

Frondel abschließend: „Die Frage, was eine Nation dafür aufgeben muss, also die Frage nach der Verwendung substantieller Mittel für alternative Zwecke, wird von der Politik selten gestellt. Dies ist umso bedauerlicher, als zu erwarten ist, dass Investitionen in Bildung und Forschung die Wohlfahrt und Beschäftigung eines Landes langfristig wesentlich stärker steigern als die flächendeckende Verbreitung noch längst nicht ausgereifter alternativer Technologien, die aufgrund von Effizienz- und Kostennachteilen auch zum jetzigen Zeitpunkt noch immer nicht wettbewerbsfähig sind.“

Eine Frage, die sich die Politiker stellen müssten, aber zu stellen vermeiden

Frondel mahnt, bei allen ökologischen Vorteilen, die das Subventionieren von Alternativstrom durch das Verdrängen fossiler Stromerzeugung und das damit einhergehende Verringern negativer externer Umwelteffekte bringe, müssten sich Politik, Befürworter und Verbraucher die Frage stellen, welchen Preis sie dafür bezahlen – und welchen sie zu zahlen bereit sind. Ja, das müssten sie. Aber Politiker und Befürworter (Subventionsprofiteure) wollen diese Fragen nicht stellen, und die Masse der Verbraucher stellt sie noch nicht, weil sie desinformiert sind und der Schaden für sie bisher nicht spürbar genug ist.

Die Energiewende-Kosten sind sinnlos rausgeschmissenes Geld

Zu bestreiten ist, dass der Alternativstrom überhaupt ökologische Vorteile hat. Frondel sieht sie offenkundig im Verdrängen der Stromerzeugung aus fossilen Brennstoffen (Kohle, Erdgas, Erdöl), also im Einsparen von anthropogenem CO2 aus (vorgeblichen) Klimaschutzgründen. Warum sich das Klima mit diesem Einsparen gar nicht schützen lässt, ist die letztlich entscheidende Frage. Diese Frage müsste sich Frondel selbst stellen. Da dieses CO2 auf das Klima, wie vielfach plausibel belegt, nahezu keinen Einfluss hat, sind das Subventionieren und die Kosten des Alternativstroms sinnlos rausgeschmissenes Geld.

Der ganze FAZ-Beitrag von Frondel hier.

__________________________________________________________________________

*) Manuel Frondel ist Professor für Energieökonomik und angewandte Ökonometrie.Näheres über ihn hier.

PS.  Darüber, wie EEG und Energiewende Arbeitsplätze vernichten und dass dieser Zusammenhang unterdrückt wird, weil es (klima)politisch nicht opportun ist, habe ich anhand von Beispielen schon am 14. November 2013 etwas geschrieben (hier).

Zum Argument, der Alternativstrom schaffe zahlreiche neue Arbeitsplätze hat der Wirtschaftswissenschaftler Carl Christian von Weizsäcker schon 2008 knapp und kühl befunden: „Das Argument halte ich für Unsinn. Damit könnte man sagen: je ineffizienter eine Technik ist, desto mehr Arbeitsplätze schafft sie. Denn eine ineffiziente Technologie benötigt pro Output-Einheit mehr Arbeitskräfte als eine effizientere Technologie. Unser Wohlstand beruht darauf, dass seit Jahrhunderten ineffiziente Technologien im Wettbewerb mit effizienteren Technologien ausgemerzt wurden. Nun zu sagen, dass Technologien, die nur durch die enorm überteuerte Einspeisevergütung existieren, wettbewerbsfähige Arbeitsplätze schaffen, ist volkswirtschaftlich unsinnig. Das lehrt auch die Geschichte: Unsere heutige Volkswirtschaft ist etwa 40mal produktiver als vor zweihundert Jahren. Das heißt aber nicht, dass wir heute nur 1/40 der Zahl der damaligen Arbeitsplätze haben. Daraus folgt, dass das Argument, ineffiziente Technologien würden Arbeitsplätze schaffen, nicht stimmen kann.“  (Im Interview mit Welt Online  am 8. Dezember 2008. Das ganze Interview hier).

Dort hat Weizsäcker auch dies geäußert: „Ich halte die ganze Politik der Erneuerbaren Energiequellen für schlecht durchdacht. Aber das ist natürlich eine Lobby-Geschichte. Die Art und Weise, wie Energien am Haushalt vorbei gefördert werden, führt dazu, dass sich bestimmte Interessengruppen durchsetzen und für ihre Klientel elegant absahnen können. Der Staat missbraucht die Tatsache, dass der Konsument auf das Stromnetz angewiesen ist, um dem Bürger allerhand Lasten aufzulegen. Das nennt man Steuer. Steuern werden immer da erhoben, wo der Mensch nicht ausweichen kann.“

Zur Frage, ob es zwischen dem einstigen Kohlepfennig und der EEG-Einspeisevergütung Parallelen gebe, weil das Bundesverfassungsgericht 1994 den Kohlepfennig für verfassungswidrig erklärt habe, meinte Weizsäcker unter anderem: „Kohlepfennig und EEG-Einspeisevergütung sind wirtschaftlich genau das Gleiche.“ Daher seien Verfassungsklagen auch gegen diese Vergütung versucht worden, „doch hat das Bundesverfassungsgericht die Klage nicht einmal angenommen. Das ist erstaunlich, denn sowohl beim Kohlepfennig damals als auch bei der Einspeisevergütung heute handelt es sich um eine Sonderabgabe, letztlich eine Steuer, unter Umgehung unseres Haushaltsrechtes. Vermutlich war die Klage schlecht vorbereitet oder die Kläger nicht seriös genug“.

Zur Frage „Warum gibt es keine seriösen Kläger?“ lautet Weizsäckers Antwort: „Das EEG ist inzwischen gut verankert. Sehr viele Gruppen profitieren davon. Die Grünen sind sowieso dafür, die Bauern auch. Die Zustimmung reicht von konservativ bis links, vom Wähler in Freiburg bis zum Wähler im Kaiserstuhl. Die Energiewirtschaft ist in der Defensive; sie wird von links angeschossen, weil sie Kernkraftwerke betreibt, von der anderen Seite, weil die Strompreise zu hoch seien. Zudem haben sie von der Einspeisevergütung unmittelbar keinen Schaden; sie leiten den teuren Strom nur weiter und lassen die Stromkunden zahlen. Inzwischen haben sie die Erneuerbaren auch als Markt entdeckt, auf dem sich, gesetzlich garantiert, gutes Geld verdienen lässt.“

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Autoindustrie am Gängelband der Politik – Planwirtschaft läßt grüßen

Daß man nur ein weiteres überschaubares Lösegeld an die Umverteilungspolitiker bezahlen muß und Massenenteignungen der Kunden durch Fahrverbote nochmal abgewendet werden konnten, feiern sie schon als Erfolg.

Nach der faktenfreien Panik, mit der zuletzt Atomausstieg und „Energiewende“ inszeniert und übers Knie gebrochen wurden, offenbart die geschürte Hysterie um Feinstaub und Diesel­emissionen ein weiteres Mal den bedenklichen Geisteszustand der tonangebenden Kräfte in einem Land, das immer noch zu den führenden Industrienationen der Welt zählt.

Der „Diesel-Skandal“ ist ein Phantomproblem

Die Zutaten sind skrupellose Öko-Lobbyisten und bornierte Sektierer in Politik und Medien, die bedenkenlos den industriellen Kern demontieren; eine opportunistische Regierungspartei, die vom Fürsprecher ökonomischer Vernunft und unternehmerischer Freiheit zum Handlanger ideologiegetriebener Wirtschaftshasser und Technikfeinde geworden ist; hasenfüßige Fachleute und Konzernlenker, die sich in ihrer Subventionsmentalität weiter an die Politik klammern und vor dem grün-linken Zeitgeist einen Kotau nach dem anderen vollführen, statt seinen Zumutungen energisch und rational zu widersprechen.

Der „Diesel-Skandal“ ist ein Produkt dieser Konstellation. Nüchtern betrachtet ist er ein Phantomproblem: Die Luft in Deutschland ist rein wie nie zuvor in einem Industrieland, die Autoabgase schadstoffärmer denn je, allein die vor allem bei Dieselaggregaten anfallenden Stickoxid-Emissionen sind im letzten Vierteljahrhundert um 70 Prozent gesunken.Trotz aller Erfolge mißbrauchen Lobbyisten mit Öko-Etikett und die von ihnen getriebene Politik ihre gewachsene Macht, um die Autoindustrie mit immer schärferen Grenzwerten zu treiben, die längst jedes vernünftige Maß hinter sich gelassen haben. Die zulässige Stickoxid-Belastung im Straßenverkehr ist inzwischen zwanzigmal niedriger als am Arbeitsplatz.

Die Autos, die die Kunden kaufen wollen und mit denen die Industrie Geld verdienen kann, können diese Anforderungen objektiv kaum erfüllen. Die Hersteller haben sich trotzdem auf das Spiel eingelassen und das Nicht-Machbare versprochen. Mit dem Hintergedanken, sich mit Tricksereien aus der Affäre zu ziehen, und in der Hoffnung, die Politik werde sie schon decken, um die Kuh nicht zu schlachten, an der die wichtigste Wertschöpfungskette im Lande hängt.

Auf dem Weg in die automobile Planwirtschaft

Diese Strategie ist an der Gnadenlosigkeit der Öko-Lobbyisten und Grün-Ideologen und an der Unterwürfigkeit der Politik gegenüber ihrer medialen Deutungsmacht grandios gescheitert. Denn bei der Panikmache mit absurden Grenzwerten und aus fiktiven Annahmen errechneten Horrorstatistiken über „Feinstaub“- und „Dieseltote“, die in letzter Konsequenz jedes Fahrzeug zur mörderischen Dreckschleuder stempeln, geht es längst nicht mehr um vorgeschobene hehre Ziele wie Luftreinhaltung und öffentliche Gesundheit.

Mit der massiven Kampagne gegen den Diesel­antrieb ist Deutschland auf Siebenmeilenstiefeln auf dem Weg in die automobile Planwirtschaft. Nicht nur ein vermeintlich „umweltschädlicher“ Antrieb soll verdrängt und aus dem Verkehr gezogen werden, die individuelle Mobilität und damit ein wesentliches Stück Bürgerfreiheit selbst steht zur Disposition. Die Bürger sollen umerzogen und gezwungen werden, bestimmte Fahrzeuge zu kaufen und andere nicht, und die Hersteller sollen ebenfalls ans Gängelband gelegt werden und ihr Angebot an ideologischen und politischen Vorgaben ausrichten.

Dem gelernten „DDR“-Bürger mag das seltsam bekannt vorkommen. Der „Trabant“ der grünen Planwirtschaft ist das Elektroauto. Unter marktwirtschaftlichen Bedingungen bleibt es ein Prestigespielzeug für Wohlhabende, das noch dazu von der Allgemeinheit zwangssubventioniert werden muß. In Flexibilität, Reichweite und individueller Bewegungsfreiheit ist der E-Antrieb dem Verbrennungsmotor unterlegen und wird es auf absehbare Zeit auch bleiben.

China ist kein Vorbild

Man mag den Furor belächeln, mit dem von Lehrern, Politologen und Studienabbrechern dominierte Grünen-Parteitage Totalverbote für Verbrennungsmotoren fordern oder der Sozialpädagoge Cem Özdemir der Autoindustrie erklären will, wie das Auto der Zukunft aussehen soll, und Bundeskanzlerin Merkel noch vor kurzem das Planziel von einer Million Elektroautos in ein paar Jahren ausgegeben hat.

Der rasante Vormarsch des Ungeists der sozialistischen Planwirtschaft in Politik und Öffentlichkeit sollte indes ebenso entschiedenen Widerspruch wecken wie die Begeisterung, mit der die Propagandisten der Elektromobilität die kommunistische Einparteiendiktatur China als Vorbild preisen. Peking geht es um handfeste wirtschaftliche Interessen: Ein Drittel der Wertschöpfung beim Bau eines Elektroautos findet in der Akkuproduktion statt. Und da hat das Reich der Mitte gegenüber den europäischen Motorenherstellern die Nase vorn.

Wie der Autoantrieb der Zukunft aussehen könnte, wird nicht in Politbüros und staatlichen Planungskommissionen entschieden, sondern im von dirigistischen Bevormundern möglichst ungehinderten freien Spiel von Markt und Forschergeist. Kaiser Wilhelm II. glaubte noch, die Zukunft gehöre dem Pferd; er war aber klug genug, nicht alles andere verbieten zu wollen. Planwirtschaft bedeutet schlechtere Versorgung zu höheren Preisen, das können die Nachwendedeutschen gerade an der „Energiewende“ lernen. Diesem Fehlgriff auch noch eine verordnete „Mobilitätswende“ folgen zu lassen, könnte Deutschland das industrielle Rückgrat brechen.

Dieser Beitrag erschien zuerst bei Junge Freiheit hier




Cem Özdemir versucht sich in Energie

Voller Text des Videos
Sprecher: Kritiker sagen: Dann geht in Deutschland entweder das Licht aus, oder der Strom wird viel teurer. Sehen Sie das auch so?
C. Özdemir: Ach wissen Sie, wir kennen die Argumente. Die Argumente sind ja nicht ganz neu. Im Spitzenlastbereich, also nicht im Normallastbereich. Dann wenn der Energieverbrauch am Höchsten in Deutschland ist, ungefähr mittags zwischen 11 und 12, verbrauchen wir ungefähr 80 Gigabyte. Wir produzieren aber ungefähr 140 Gigabyte. Das heißt, das anderthalb-Fache dessen haben wir immer noch übrig, was wir brauchen. Selbst wenn wir die sieben ältesten Meiler abschalten würden, hätten wir immer noch mehr Strom als wir selbst im Spitzenlastbereich gebrauchen.

Ein Hinweis sei angemerkt: Herr Özdemir sagt im Video wirklich Gigabyte anstelle Gigawatt zur elektrischen Leistung.
Damit wollte er vielleicht ausdrücken, dass die Kenntnis von ein paar modernen (aber nicht verstandenen) Fachausdrücken für Politiker mindestens so weit zum Verständnis eines landesweiten Energiesystems ausreicht, um weichenstellende Entscheidungen (zu dessen Zerstörung) einleiten zu dürfen.

Das Interview wurde Anfang 2011 aufgezeichnet. Zur Rezension muss man deshalb die damals bekannten Daten des Jahres 2010, teilweise eventuell vom Jahr 2011 betrachten.
Dazu die Energieganglinien Deutschlands im Jahr 2012 (leider kann man bei Agora kein früheres Datum aufrufen).
Das mit den 80 Gigawatt Spitzenbedarf stimmt so im Ansatz und dürfte im Jahr 2010 nicht wesentlich abgewichen haben.

Bild 1 Energieganglinie 2012. Quelle: Agora Viewer

Wie Herr Özdemir allerdings darauf kommt, dass 140 Gigawatt produziert würden, bleibt ein Rätsel. Bestimmt hat Herr Özdemir auch dabei wieder eines seiner auswendig gelernten, technischen Fremdwörter verwechselt und die installierte Leistung gemeint.

Bild 2 Installierte Netto-Leistungen der verschiedenen Energieerzeuger 2002 – 2017. Quelle: Fraunhofer ISE Viewer

Die installierte Nettoleistung im Jahr 2010 betrug ca. 155 MW. Die der konventionellen Kraftwerke betrug davon 98,2 GW und Ökoenergie hatte die Anschlussleistung von ca. 57 GW

Bild 3 Installierte Nettoleistungen im Jahr 2010 und 2011. Quelle: Fraunhofer ISE Viewer

Da Herr Özdemir im Video behauptet: … Das heißt, das anderthalb-Fache dessen haben wir immer noch übrig, was wir brauchen …,
zeigt es, dass er die Problematik zwischen installierter Leistung und wirklich verfügbarer Energie auch nicht verstanden hat.
Die „Erneuerbaren Energien“ haben immer noch die dumme Eigenschaft, dass ihre wirklich lieferbare Energie für verblüffend lange Zeit fast auf Null sinken kann [1].
Bei Solar akzeptieren es schon immer mehr der „Energiefachpersonen“, weil es einfach zu offensichtlich ist, dass die Sonne nachts nicht scheint. Beim Wind gilt es als strittig [2] [1]. Schließlich kann man niemanden zwingen, die Ganglinie im Agora-Viewer anzusehen und willigste „Energieforscher“ integrieren dann halt schnell einmal ganz Europa ins deutsche Stromsystem [3].

Nach dem Agorameter, welches die Energieflüsse von Deutschland zeigt, „verschwindet“ jedenfalls auch der Windstrom recht regelmäßig und dann müssen die konventionellen Erzeuger die gesamte Energie liefern, da sonst das Netz zusammenbricht, oder afrikanische (Stromausfall-)Verhältnisse auch bei uns eintreten.

Nimmt man an, dass von den konventionellen Kraftwerken kurzfristig immer 90 % der installierten Leistung verfügbar ist, und zählt man Biomasse zur sicheren Grundlast, dann betrug der Worst-Case „Energieüberhang“:
Im Jahr 2010:
„Energieüberhang“ +18 % (ohne Biomasse +10 %, zusätzlich ohne Kernkraftwerke -6 %)
Im Jahr 2011:
„Energieüberhang“ +4 % (ohne Biomasse -4 %, zusätzlich ohne Kernkraftwerke -10 %)

Das ist wirklich nicht viel und es ist bestimmt nichts „Übriges“ dabei, im Jahr 2011 war es sogar eher zu niedrig. Besser geeignet ist es als Beispiel, wie eine sachgerechte Planung früher für unser Energiesystem zuständiger Fachpersonen durch Politiker, die irgendwelche Fachbegriffe wie manche Schüler (falls dieser Vergleich diskriminierend sein sollte, einfach nicht lesen) auswendig lernen, zerstört werden darf.

Nicht einmal auf den genannten Zeitraum für die Spitzenlast kann man sich beim GRÜNEN Energiefachmann verlassen. Im Winter verschieben sich naturgemäß die Spitzenlastzeiten. Und zwar in Zeiten, zu denen das (im Winter sowieso „mickrige“ Solarangebot – und das vom Wind manchmal auch – nicht vorhanden sind.

Bild 4 Stromverbrauch 1. Januar 2017. Quelle: Agora Viewer

Bild 5 Stromverbrauch 18. Dezember 2016. Quelle: Agora Viewer

Quellen

[1] EIKE 11.01.2017: Der Wind weht überhaupt nicht immer irgendwo: Ein Nachtrag zum Märchen von der Wind-Grundlastfähigkeit

[2] EIKE 28.01.2016: Ein EEG-Märchen wird zum Öko-Dogma – Offshore Windkraft sei grundlastfähig

[3] KLIMARETTER.INFO, 20. Juli 2017: Europa kann Windstrom glätten




Einige der größten Gletscher außerhalb der Polar­gebiete stoßen vor, trotz globaler Erwär­mung

Der Studie zufolge waren Klimamodelle bislang nicht in der Lage, das Phänomen zu reproduzieren, welches verhindert, dass die Gletscher im Karakorum-Gebirge nicht wie die meisten anderen Gletscher in der Welt schrumpfen.

„Während sich die meisten Gletscher als Folge globaler Erwärmung zurückziehen, sind die Gletscher im Karakorum stabil oder wachsen sogar“, sagte Hayley Fowler, Mitautor der Studie und Professor an der Newcasle University.

Der Karakorum ist eines der am stärksten vergletscherten Gebirge der Welt außerhalb der Pole und enthält die zweit- und drittgrößten nicht polaren Gletscher. Auch der zweithöchste Berg der Welt, der K2 [oder Mount Godwin Austen, Anm. d. Übers.] befindet sich dort — Vertical Limit, anyone?

Der Studie zufolge könnte eine ,anomale Abkühlung‘ im Karakorum einen Einfluss auf die Flüsse haben, welche stark von der Eisschmelze abhängen. Sie nennen es den ,Karakorum Vortex‘.

Fowler: „Die meisten Klimamodelle zeigen sowohl sommers als auch winters im gesamten Gebiet Erwärmung. Allerdings hat unsere Studie ergeben, dass großräumige Zirkulationen die regionale Variabilität der Lufttemperaturen kontrollieren mit einer Abkühlung der Sommertemperaturen in jüngster Zeit. Dies zeigt, dass Klimamodelle dieses Phänomen nicht gut abbilden“.

Fowler ist nicht der Erste, der sich fragt, warum die Karakorum-Gletscher nicht wie von den Modellen prophezeit abschmelzen. Während der letzten Jahre sind diesbezüglich viele Studien veröffentlicht worden, in denen die gleiche Frage gestellt wird. Was ist da los?

Eine Studie aus dem Jahr 2014 zeigte, dass Klimamodelle dazu neigen, die Erwärmung im Karakorum zu übertreiben, das heißt, sie unterschätzten den Schneefall in der Region. Die Region erreichen kältere westliche Winde aus Afghanistan mit im Winter zunehmenden Schneefällen. In anderen Berggebieten regnet es mehr.

Die meisten anderen großen Gletscher ziehen sich Fowler zufolge zurück, was die Causa Karakorum nur noch interessanter macht. Dabei zeigen sich auch die Schwächen von Modell-Prophezeiungen [eigentlich zeigen die sich überall! Anm. d. Übers.]

Fowler weiter: „Aber das Zirkulationssystem bewirkt derzeit einen dämpfenden Effekt auf die globale Erwärmung [gibt es die überhaupt noch? Der Autor der Studie scheint doch stark alarmistisch angehaucht zu sein. Anm. d. Übers.], was die Gletscherschmelze im Karakorum reduziert, und jede Änderung hat sofort signifikante Auswirkungen auf Schmelzraten, welche wiederum ultimativ Auswirkungen auf die Flüsse der Region zeitigen“.

Link: https://wattsupwiththat.com/2017/08/12/some-of-the-worlds-largest-non-polar-glaciers-are-expanding-despite-global-warming/

Übersetzt von Chris Frey EIKE




Enthüllt: Ein Jahrzehnte alter Report der Regierung mit Klima­daten war völlig unge­eignet für den Zweck

Darin hieß es über diese Daten:

Es gibt darin Defizite hinsichtlich Genauigkeit, Qualität und Kontinuität der Aufzeichnungen“, welche „dem in die Forschungsergebnisse gesetzten Vertrauen enge Grenzen ziehen“.

Die Personen, welche zu diesen Schlussfolgerungen gekommen waren, und deren Zugehörigkeit sind hier gelistet:

  • THOMAS R. KARL (Chair), National Climatic Data Center, Asheville, North Carolina
  • ROBERT E. DICKINSON,University of Arizona, Tucson
  • MAURICE BLACKMON,National Center for Atmospheric Research, Boulder, Colorado
  • BERT BOLIN,University of Stockholm, Sweden
  • JEFF DOZIER,University of California, Santa Barbara
  • WILLIAM P. ELLIOTT, NOAA/Air Resources Laboratory, Silver Spring, Maryland
  • JAMES GIRAYTYS, Certified Consulting Meteorologist,Winchester, Virginia
  • RICHARD E. HALLGREN,American Meteorological Society, Washington, D.C.
  • JAMES E. HANSEN, NASA/Goddard Institute for Space Studies, New York, New York
  • SYDNEY LEVITUS, NOAA/National Oceanic Data Center, Silver Spring, Maryland
  • GORDON MCBEAN, Environment Canada, Downsview, Ontario
  • GERALD MEEHL, National Center for Atmospheric Research, Boulder, Colorado
  • PHILIP E. MERILEES, Naval Research Laboratory, Monterey, California
  • ROBERTA BALSTAD MILLER, CIESIN, Columbia University, Palisades, New York
  • ROBERT G. QUAYLE, NOAA/National Climatic Data Center, Asheville, North Carolina
  • S. ICHTIAQUE RASOOL, University of New Hampshire, Durham
  • STEVEN W. RUNNING, University of Montana, Missoula
  • EDWARD S. SARACHIK, University of Washington, Seattle
  • WILLIAM H. SCHLESINGER, Duke University, Durham, North Carolina
  • KARL E. TAYLOR, Lawrence Livermore National Laboratory, Livermore, California
  • ANNE M. THOMPSON, NASA/Goddard Space Flight Center, Greenbelt, Maryland
  • Ex Officio Members
  • W. LAWRENCE GATES, Lawrence Livermore National Laboratory, Livermore, California
  • DOUGLAS G. MARTINSON, Lamont-Doherty Earth Observatory, Columbia University, Palisades, New York
  • SOROOSH SOROOSHIAN, University of Arizona, Tucson
  • PETER J. WEBSTER, University of Colorado, Boulder

Das sind prominente Namen. Viele dieser Personen hatten bedeutende Positionen im IPCC inne sowie bei der Ausbreitung von deren Verlautbarungen. Zum Beispiel war Gordon McBean der Vorsitzende des Informations-Treffens des IPCC in Villach in Österreich im Jahre 1985. Bert Brolin wurde zusammen mit Sir John Houghton zu den ersten stellvertretenden Vorsitzenden des IPCC berufen. Thomas Karl und James Hansen waren zwei dominante Persönlichkeiten hinsichtlich Datenkontrolle und Datenmanipulation bis zu ihrem gerade erfolgten Abgang.

Karl leitete die Studie und wusste daher besser als jeder andere, dass das Erreichen der gewünschten Ergebnisse, nämlich eine stetig steigende Temperatur während der über 120 Jahre instrumenteller Aufzeichnungen, durch die Unzulänglichkeit der Daten wesentlich vereinfacht wird. Sie ignorierten die Tatsache, dass die Unzulänglichkeit der Daten die von ihnen geplanten und durchgeführten Arbeiten völlig wertlos machte. Beispiel: Ausmaß, Dichte und Kontinuität der Daten sind vollkommen ungeeignet als Grundlage für ein mathematisches Computermodell des globalen Klimas. Kurz gesagt, sie wussten, dass sie Daten erzeugen, frisieren oder modifizieren mussten, um auch nur ein ungefähres Ergebnis zu erhalten. Die Schwierigkeit bestand darin, dass die Daten so schlecht waren, dass selbst nach deren Bearbeitung die Ergebnisse der Realität nicht nahegekommen waren.

Trotzdem blieb das IPCC diesen Daten verhaftet, obwohl an anderer Stelle entschieden worden war, die Anzahl der Stationen zu reduzieren und damit die Abdeckung noch weiter zu begrenzen. Es gab zwei Hauptgründe für diese Reduktion, nämlich die zunehmende Umleitung von Geldern zugunsten der Forschung bzgl. globaler Erwärmung und extensiver Computermodelle sowie die Vorgriffe auf Satelliten-Wetterdaten. NASA GISS erzeugte eine Graphik (Abbildung 1), um zu zeigen, was vor sich ging. Ich habe jede Graphik erweitert, um die wichtigen Details zu zeigen (Abbildungen 2, 3 und 4).

Abbildung 1

Löblicherweise haben sie die Daten aufbereitet, aber alles, was sich daraus ergab, war eine Betonung der Anomalien.

Abbildung 2

Wichtige Punkte:

Es gibt keine Station mit Aufzeichnungen über 130 Jahre hinaus

Es gibt etwa 300 Stationen mit Aufzeichnungen über 120 Jahre

Nahezu alle Stationen mit einer Länge der Reihen über 100 Jahre liegen im Ostteil der USA oder in Westeuropa

Abbildung 3

Wichtige Punkte:

Erste signifikante Abnahme nach dem Jahr 1960 in Erwartung von Satellitendaten.

Zweite Abnahme um 1995 in Verbindung mit einer Änderung der Finanzierung weg von Datensammeln und hin zu globaler Erwärmung sowie Reduktion der herangezogenen Stationen

Abbildung 2 zeigt ein Maximum der Stationsanzahl von etwa 7200, aber Abbildung 3 zeigt nur etwa 5500.

Abbildung 4

Wichtige Punkte:

Trotz der Reduktion der Anzahl der Stationen verringert sich die Abdeckung nur geringfügig. Wissenschaftlich ist das unmöglich.

Gegenwärtig sind 20% der Nordhemisphäre und 25% der Südhemisphäre nicht mit Daten abgedeckt.

Die Qualität der Abdeckung ist entscheidend, jedoch sehr variabel, wie Thomas Karl anmerkt: „Anders als in anderen Wissenschaftsdisziplinen, wo strikte Laborkontrollen die Regel sind, müssen sich Klimaforscher auf Beobachtungen verlassen, welche in verschiedenen Ländern mit unterschiedlichen Instrumenten durchgeführt werden“. Man erinnere sich, die Abdeckung in den USA ist bislang die beste, aber nur 7% ihrer Stationen sind genau bis auf weniger als 1°C. Hier folgt ein Beispiel aus dem Vorwort zu den ,Canadian Climate Normals‘, von denen Karl spricht. „Im digitalen Archiv gibt es vor dem Jahr 1953 keine Daten, und die Mittelwerte dieser Ausgabe wurden aus allen ,stündlichen‘ Beobachtungen zu ausgewählten Stunden für den Zeitraum 1953 bis 1980 abgeleitet. Dabei sollte man beachten, dass viele Stationen weniger als 28 Jahre lange Reihen haben bei der vollständigen Mittelung“.

Obwohl er nichts zu der Studie beigetragen hatte, kommentierte Kevin Trenberth deren Veröffentlichung so:

Es ist ganz klar, wir haben kein Klima-Beobachtungssystem … dies mag für viele Menschen ein Schock sein, welche davon ausgehen, dass wir angemessen wissen, was mit dem Klima vor sich geht, aber das wissen wir nicht“.

Dennoch erzeugte Trenberth ein Energiebilanzmodell, dass im Mittelpunkt sämtlicher Behauptungen bzgl. des Treibhauseffektes auf das Klima steht.

Die Studie des National Research Councils konzentrierte sich auf die Unzulänglichkeiten der instrumentellen Aufzeichnungen. Die Studie erschien kurz nachdem H. H. Lamb seine Autobiographie veröffentlichte (1997), in welcher er sich über die breiteren Begrenzungen für die Klimaforschung ausließ. Er schrieb, dass er die Climatic Research Unit ins Leben gerufen hatte, weil

…es eindeutig klar war, dass die erste und größte Notwendigkeit die Etablierung der Fakten der Aufzeichnungen bzgl. des natürlichen Klimas aus der Vergangenheit war, und zwar zu Zeiten, bevor irgendwelche Nebeneffekte durch menschliche Aktivitäten von Bedeutung geworden sein könnten“.

Folglich wussten die Personen, welche das IPCC geschaffen und kontrolliert haben, bereits im Jahre 1999 um die Unzulänglichkeit der Daten während der 120 Jahre menschlicher Aktivitäten. Das hat sie nicht aufgehalten, aber es bedeutet, dass sie genau wussten, dass sie Daten, die sie brauchten, selbst erzeugen mussten, und sie wussten, wie man das macht.

Das IPCC konnte die Story sowie die Daten, welche seine Behauptungen einer vom Menschen verursachten globalen Erwärmung (CAGW) nur am Leben halten, falls sie Kontrolle über alle Datenquellen hatten. All dies begann sich nach dem Jahr 2000 herauszuschälen.

1.Die von Ballonmessungen bestätigten Satellitendaten erreichten eine Länge, die sie nicht länger ignorieren konnten. Im Jahre 2007 schrieb das IPCC folgenden Kommentar in ihren 4. Zustandsbericht:

Neue Analysen von Ballon- und Satellitenmessungen der Temperatur in der unteren und mittleren Troposphäre zeigen Erwärmungsraten ähnlich denen der Temperaturmessungen an der Oberfläche und sind konsistent innerhalb ihrer jeweiligen Unsicherheiten, was eine im TAR [AR3] aufgetretene Diskrepanz weitgehend beilegte“.

2.Sehr kalte Winter und verstärkter Schneefall errangen öffentliche Aufmerksamkeit, wie viele Cartoons belegen:

[Im Original ist an dieser Stelle ein solcher Cartoon gezeigt, der aus urheberrechtlichen Gründen hier aber nicht reproduziert werden darf. Hier kann man sich diesen im Original anschauen, was ich dringend empfehle. Anm. d. Übers.]

3.Der Stillstand ging über die 17 Jahre hinaus, welche Ben Santer für erforderlich hielt, bevor er überhaupt über das Ganze neu nachdachte.

4.Die Lücke zwischen dem zunehmenden atmosphärischen CO2-Niveau und der tatsächlichen Temperatur wurde fortwährend immer größer.

Aber nichts davon konnte die Suche nach Stützung aufhalten. Thomas Karl erzeugte eine Datenreihe und schrieb zusammen mit Tom Peterson eine Studie, in der behauptet wurde, dass der Stillstand nicht auftritt, wenn man Daten und Verfahren mit ernsthaften Begrenzungen heranzieht. Nach der Bloßstellung des Missbrauchs lehnten es die Ko-Autoren ab, einer Vorladung des Kongresses zu folgen und die Daten und angewandten Verfahren öffentlich zu machen.

Karl und andere, welche in den AGW genannten Betrug verwickelt sind, wussten von Anfang an und besser als jeder andere um die bedeutenden Begrenzungen des instrumentellen Datensatzes. Wahrscheinlich wussten sie durch die Arbeiten von Lamb auch um die Begrenzungen der historischen Aufzeichnung. Trotzdem, oder vielmehr gerade deswegen, überwachten sie die Konstruktion von Computermodellen, schrieben Studien, erzeugten ,offizielle‘ Berichte und überzeugten die Welt, dass sie vor dem drohenden Untergang steht durch eine Runaway-globale Erwärmung. Ihre Arbeiten auf der Grundlage von etwas, von dem sie von Anfang an wussten, wie unzulänglich es war, erlangte universelle Akzeptanz. Natürlich wussten sie auch besser als alle anderen, wie man Daten auswählt und manipuliert, um Argumente zu finden, welche ihre falsche Hypothese stützen; zumindest bis Satellitendaten wissenschaftlichen Status erreichten. Aber selbst dann noch machten sie mit ihrem Betrug weiter. Sie beweisen, dass sie Gründungsmitglieder der postfaktischen Gesellschaft sind. Das jüngste Beispiel wurde ausgelöst durch die Panik wegen Trumps Rückzug aus dem Paris-Abkommen und analysiert durch Tony Heller.

Link: https://wattsupwiththat.com/2017/08/12/uncovered-decades-old-report-showing-climate-data-was-bad/

Übersetzt von Chris Frey EIKE




Die ökologische Korrektheit hat offenbar sehr kurze Beine

In dem betreffenden Artikel wird eine Karte der Nitratbelastung in Deutschland gezeigt, die diese Aussagen beweisen soll (aus Gründen des Copyrights muss hier auf den SZ-Link verwiesen werden). Das Thema Nitratbelastung des Grundwassers ist nicht neu und kocht immer wieder einmal hoch. Unter der Überschrift „Nitrat und die Folgen der Massentierhaltung“ stellte der WDR bereits am 18.November 2015 die existenzielle Frage, „Günstiges Fleisch oder günstiges Wasser?“, Zitat:

Nitrat belastet unser Wasser, Schuld daran ist, so die Experten, vor allem die Massentierhaltung. Viele Tiere produzieren viel Gülle und dadurch kommen viele Schadstoffe ins Wasser…“

Und damit ist eindeutig die Massentierhaltung als Schuldiger für eine vorgeblich steigende Nitratbelastung des Grundwassers in Deutschland identifiziert. Die EU-Vertretung in Deutschland meldete dann am 28. April 2016, Zitat mit Hervorhebungen:

Die Europäische Kommission verklagt Deutschland wegen der anhaltenden Verunreinigung der deutschen Gewässer durch Nitrat vor dem Gerichtshof der EU. Das hat sie heute (Donnerstag) bekanntgegeben. Trotz der weiter hohen Nitratbelastung hat Deutschland keine strengeren Gegenmaßnahmen ergriffen. Dazu ist das Land laut geltendem EU-Recht jedoch verpflichtet. Die von der Bundesrepublik zuletzt im Jahr 2012 übermittelten Zahlen sowie mehrere Berichte deutscher Behörden aus jüngster Zeit zeigen eine wachsende Nitratverunreinigung des Grundwassers und der Oberflächengewässer, einschließlich der Ostsee.“

Also, dieses Verfahren der EU-Kommission gegen Deutschland basiert offenbar auf denjenigen Daten, die Deutschland nach der EU-Nitratrichtlinie selber an die EU gemeldet hatte.

Wie kann es nun aber sein, dass in Deutschland die Verunreinigung von Grund- und Oberflächenwasser mit Nitraten plötzlich wieder zunehmen soll?

Das Problem von landwirtschaftlichen Nitrateinträgen in Grund- und Oberflächenwässer ist doch schon seit mehr als 3 Jahrzehnten bekannt. Nach einer Übergangsphase von etwa einem Jahrzehnt schien das Nitratproblem der Landwirtschaft dann ab Anfang 2000 auf dem Wege zu einer wasserwirtschaftlich befriedigenden Lösung zu sein, zumal die moderne Großlandwirtschaft mit Luftbildanalysen und GPS-gesteuerten Maschinen inzwischen die Düngerzufuhr sehr genau nach dem örtlichen Bedarf zu steuern vermag. Insbesondere der Nitrateintrag in Oberflächengewässer wurde damals durch die Einrichtung von speziellen Gewässerschutzzonen nachhaltig reduziert.

Es fragt sich also, warum sich die Nitratproblematik in Deutschland trotz frühzeitig eingeleiteter Gegenmaßnahmen nun seit geraumer Zeit wieder zunehmend verschärfen soll.

Das Deutsche Maiskomitee e. V. , stellt zu dieser Problematik einige sehr interessante Grafiken bereit (wegen Copyright hier ebenfalls nicht dargestellt). Dort wird sofort deutlich, dass sich Massentierhaltung und Maisanbau in Deutschland auf dieselben Regionen konzentrieren. Beim Statistischen Bundesamt findet man dann die nachfolgenden Daten über den Maisanbau auf landwirtschaftlichen Flächen:

Anbaufläche (1 000 ha) 2010 2012 2013 2014 2015

Silomais / Grünmais 1 828,9 2 038,0 2 003,2 2 092,6 2 100,4

Bundesweit hat sich also allein zwischen den Jahren 2010 und 2015 der Maisanbau um fast 15 Prozent ausgeweitet. Die Anbaufläche für Energiepflanzen hat sich in dieser Zeit aber lediglich um insgesamt etwa ca. 3 Prozent erhöht, sodass es hier zu einer massiven Verdrängung anderer Feldfrüchte durch den Mais gekommen sein muss. Nun könnte man sagen, dass die Ausweitung des Maisanbaus eben auf der Futterbeschaffung für die Massentierhaltung beruht. An dieser Stelle hilft uns wiederum das Deutsche Maiskomitee weiter, Zitat:

Ende 2016 sind in Deutschland 9.004 Anlagen in Betrieb. Durch die Zunahme der Biogasanlagen, (vor allem in reinen Ackerbauregionen) steigt der Flächenbedarf deutlich an. Während 2006 noch knapp 160.000 Hektar Mais für die Biogaserzeugung angebaut wurden, waren es im Jahr 2008 knapp 300.000 Hektar Mais und im Jahr 2016 ca. 1.000.000 Hektar, welche in Biogasanlagen verwertet wurden…“

Der Anbau von Mais für Biogasanlagen hat sich also in den 10 Jahren von 2006 auf 2016 mehr als versechsfacht. Biogasanlagen sind für die Umwelt ja nicht ganz unproblematisch, allein in Bayern sollen zum Stand 2015 Leckagen von Biogas-Anlagen in 650 Fällen zur Verschmutzung von Oberflächengewässern geführt haben. Wenn solche Vorfälle zu einem Fischsterben führen, sind sie natürlich schwer zu verheimlichen. Es sei die Frage gestattet, ob die Öffentlichkeit auch etwas davon erfahren würde, wenn das corpus delicti einfach so in der Landschaft versickert…

Der verstärkte Anbau von Mais birgt übrigens noch eine weitere Gefährdung des Grundwassers mit sich, Zitat mit Hervorhebungen:

Als Kurztagspflanze kommt Mais aber erst spät mit dem Wachstum zu Gange, verlangt aber schon zur Saat eine hohe Düngung, die dann zwei Monate wenig genutzt werden kann. Deshalb hat Mais ein Nitratproblem im Grundwasser

Die artspezifische Düngung von Mais führt also zwangsläufig zu einem Nitratproblem im Grundwasser. Und dieses Nitratproblem im Grundwasser hat sich offenbar in den vergangenen Jahren durch den Anbau von Energiemais für Biogasanlagen weiter verschärft. Aber warum benennt man dann der Öffentlichkeit gegenüber nicht einfach korrekt Ross und Reiter?

Damit stellt sich die Zwischenfrage: Wer ist hier der eigentliche Verursacher der steigenden Nitratbelastung des Grundwassers, die Massentierhaltung oder der EEG-Maisanbau für Biogasanlagen?

Durch eine vorzeitige Schuldzuweisung an die Massentierhaltung wird eine offene Diskussion über dieses Nitratproblem von vorn herein ausgeschlossen. Und an der Fraktierung der tatsächlichen Zusammenhänge sind offenbar auch steuerfinanzierte Bundesbehörden beteiligt.

Die Broschüre des Umweltbundesamtes „Grundwasser in Deutschland“ weist mit der Karte oben am Ende nach, dass sich die wenigen Meßstellen des deutschen EU-Nitratmessnetzes in denselben Regionen verdichten, in denen Massentierhaltung und Maisanbau betrieben werden.

Wobei die vereinzelten blauen Punkte des offiziellen Nitratmessnetzes eigentlich gar keine flächendeckenden Aussagen für ganz Deutschland zulassen. Denn im europäischen Vergleich hat dieses Messnetz eine vergleichbare Dichte wie das landwirtschaftlich nur sehr schwach geprägte Nordskandinavien.

Dabei stellt sich nebenbei die Frage, warum eigentlich in Deutschland ganz unterschiedliche Grundwassermessnetze betrieben werden. Bei einer komplexen Ursachenforschung dürfte der Abgleich unterschiedlicher Analyseergebnisse dadurch nicht unbedingt gefördert werden. Eigentlich wäre hier ein einheitliches und möglichst gleichabständig dichtes nationales Messnetz erforderlich. Andererseits eröffnen mehrere heterogene Messnetze natürlich viel mehr Möglichkeiten, um bei vorgegebenen Zielsetzungen die passenden Antworten zu finden.

Könnte es vielleicht sein, dass man genau das gemessen hat, was man auch messen wollte?

Bauer Willi meint dazu jedenfalls, Zitat:

„…ist ein Skandal. Dass Deutschland seine Messnetze bezüglich Nitrat im Grundwasser so selektiert, damit besonders hohe Messwerte herauskommen, ist es auch. Wie anders ist es zu erklären, dass Deutschland deutlich schlechter sein sollen als die Niederlande. Ein bloßer Blick auf die Anzahl der gemeldeten Messstellen in den Niederlanden und in Deutschland zeigt selbst dem Laien, dass hier etwas nicht stimmen kann. Denn es gibt viel mehr Messstellen, als es diese Karte erscheinen lässt.“

Hier die von Bauer Willi kritisierte EU-Karte über die Nitratbelastung 2008-2011:


Der Vergleich der Nitrat-Messnetzdichte zwischen Deutschland und dem landwirtschaftlich unterentwickelten Nordskandinavien wird hier voll bestätigt. Verglichen mit den direkten Nachbarstaaten macht das deutsche Nitrat-Messnetz einen armseligen Dritte-Welt Eindruck, selbst in Osteuropa ist die Messdichte deutlich höher.

Muss hier die bereits heftig skandalisierte Massentierhaltung etwa für ein selbstgemachtes EEG-Umweltproblem herhalten, um die verbrauchersubventionierte EEG-Staatsreligion einer planwirtschaftlichen Energiewende nicht zu beschädigen?

Auf der Suche nach dieser EU Nitratkarte (2008-2011) in besserer Qualität ist der Autor dann zufällig über den EU Nitratreport für den Zeitraum 2004 bis 2007 gestolpert:

Und siehe, niemand kann dauerhaft gegen die Gesetze von Murphy verstoßen, ohne schließlich erwischt zu werden: Im Zeitraum 2004-2007 verfügte das deutsche Nitratmessnetz noch über wesentlich mehr Nitratmeßstellen als im nachfolgenden Zeitraum 2008-2011, mehr sogar als damals beispielsweise Frankreich und Spanien ausgewiesen hatten. Und im Zeitraum 2004-2007 erscheint das Ergebnis für die Grundwasserqualität in Deutschland bei überwiegend grünen Farbpunkten flächendeckend noch sehr viel positiver; besser jedenfalls als für Frankreich und Spanien. Es gab für die Bundesrepublik Deutschland also gar keinen Grund für irgendwelche Veränderungen dieses Netzes. Während nun aber Frankreich und Spanien ihr Ergebnis im Folgezeitraum 2008-2011 offenbar durch zusätzliche unbelastete Meßstellen aufgehübscht hatten, wurde das deutsche Nitratmessnetz plötzlich drastisch reduziert, und zwar offenbar ausgerechnet auf nitratbelastete Meßstellen.

Was also ist der fachlich fundierte Grund für diese Reduzierung des deutschen EU-Nitratmessnetzes – oder muss man dieser Reduzierung eine tiefere Absicht unterstellen?

Es wäre jedenfalls hoch interessant zu erfahren, durch wessen Entscheidungen aus dem deutschen EU-Nitratmessnetz von 2004-2007 das offizielle EU-Nitratmessnetz für den Zeitraum 2008-2011 herausgeschrumpft worden ist und welche qualifizierte Begründung dafür ausschlaggebend war. Mehr Schutz für den deutschen Bürger und eine bessere Vergleichbarkeit innerhalb der EU können es ja wohl kaum gewesen sein.

Haben deutsche Behörden durch die Reduzierung des offiziellen EU-Nitratmessnetzes für den Zeitraum 2008-2011 etwa absichtlich ein offizielles Klageverfahren der EU-Kommission gegen Deutschland provoziert, um dann mit einer von der EU zu fordernden Gegenmaßnahme gesetzlich gegen die ökologisch unerwünschte Massentierhaltung vorgehen zu können?

Aus einem solchen Vorgehen ergäbe sich jedenfalls eine ökodynamische Win-Win-Situation:
Eine zielgerichtete Reduzierung von Daten und die Fraktierung von Zusammenhängen würden es ermöglichen, der Öffentlichkeit gegenüber einen wesentlichen gesetzgeberischen Schritt in Richtung auf eine ökologische Landwirtschaft hin zu begründen. Und weil man den EEG-Energiemais ja nicht als wahren Schuldigen für eine steigende Nitratbelastung des Grundwassers identifiziert hat, würde man diese Nitratkeule in Zukunft jederzeit weiter zu Lasten der industrialisierten Landwirtschaft einsetzen können – das Perpetuum Mobile der ökologischen Transformation wäre erfunden.

Ein solcher Vorgang kann natürlich nicht ohne eine implizite Zustimmung der EU ablaufen. Denn selbst den Bürokraten der EU muss die skandalöse Reduzierung des deutschen EU-Nitratmessnetzes vom Zeitraum 2004-2007 auf den Nachfolgezeitraum 2008-2011 aufgefallen sein. Damit hätte die EU das Machwerk für den Zeitraum 2008-2011 einfach zurückweisen und auf einer korrekten flächendeckenden Berichterstattung bestehen können. Stattdessen machen hier offenbar die EU-Kontrolleure gemeinsame Sache mit den deutschen Messnetzreduzierern.

Eine abschließende Frage an alle ökologischen EEG&EU-Moralisten: Darf man das angeblich „Böse“ manipulativ verleumden, um das vorgeblich „Gute“ gezielt voranzubringen?

Am Ende bezahlt der deutsche Bürger die gesamte Zeche dieser ökologischen Amateurveranstaltung, also anteilig die EU-Kontrolleure, das EU-Nitrat-Strafverfahren, die EEG-Subventionen für den Energiemais, das Umweltbundesamt mitsamt seinem eigenwilligen Nitrat-Messnetz und schließlich, nach einer möglichen Einschränkung der Massentierhaltung, auch noch höhere Verbraucherpreise…

Also zieh Dich warm an, deutscher EU-EEG-Zahlmichel – oder mach‘ endlich mal Deine Augen auf!




Haben Sie ein Haustier? Dann müssen wir ehrlich mal darüber reden!

SPIEGEL ONLINE lieferte dafür gerade ein Beispiel:
SPON 07.08.2017: US-Analyse Hunde und Katzen sind schlecht fürs Klima
Niedlich, ein Seelentröster – und schlecht für die Umwelt. Hunde und Katzen verursachen vor allem über ihren Fleischkonsum einen beträchtlichen jährlichen Treibhausgas-Ausstoß. Allein in den USA entspreche dieser der Klimawirkung von rund 64 Millionen Tonnen Kohlendioxid jährlich, ergab eine im Fachmagazin „PLOS ONE“ vorgestellte Hochrechnung. Der Wert entspricht in etwa der Klimabilanz aller Einwohner von Berlin und Hamburg….
In Berechnungen zum Umwelteinfluss des Nahrungsmittelkonsums im Land flössen Haustiere aber bisher nicht ein, erklärt Gregory Okin von der University of California in Los Angeles (UCLA) … „Aber ich denke, wir sollten uns klar sein über die Auswirkungen, die Haustiere haben, und ehrlich darüber reden.“

Nun sind 64 Milllionen Tonnen CO2 eine Klimagefahr zwischen 0,000021 … 000064 °C / pa. Man hat also je nach Forcingannahme ca. 3.100 … 9.500 Jahre Zeit, bis der Einfluss aller Haustiere der USA mit einem Thermometer überhaupt signifikant als Temperaturunterschied von 0,2 Grad (Messungenauigkeit einer modernen, sauber geeichten und aufgestellten Temperaturstation) gemessen werden kann. An Pedanten der CO2-Klimatheorie gerichtet: Dabei ist nicht eingerechnet, dass das anthropogene CO2 ca. alle 100 Jahre resorbiert ist und damit neu eingebracht werden kann, was die Zeit nochmals um mehrere Multiplikatoren verlängert.

Trotz solch ungeklärter Detaildiskussionen. Diese gerade noch verbleibende Zeit von vielen, vielen Tausend Jahren sollte man unbedingt nutzten, um sich harte Maßnahmen endlich auch für Haustierbesitzer zu überlegen, damit die Welt auch an diesem brisantem Klimazipfel noch gerettet werden kann. Und SPON muss man wirklich danken, gerade noch rechtzeitig darauf hingewiesen zu haben.

Denn es führt ja nun zu dem Entscheidungszwang, welche Rettungsmaßnahme die bessere ist:
Alle Haustiere in den USA aus Klimaschutzgründen verbieten – was mit Trump dort nicht mehr gelingt, oder alternativ die Bewohner von Hamburg und Berlin abschaffen, was ganz ohne Blutvergießen gelingen könnte, indem man zum Beispiel einfach das Kopulieren dort für den Zeitraum einer Generation verbietet (natürlich nur für Personen, welche schon länger im Land leben, sonst wäre es ja diskriminierend).

Vorab könnte man zumindest für die Katzen schon mal das Dosenfutter verbieten und nur noch die Ernährung durch nachhaltig in der freien Natur aufgewachsene Mäuse erlauben (durch Zufüttern nicht nachhaltig aufgewachsene Gartenvögel kommen nicht in Frage). Mancher Katzenbesitzerin mag davor grausen, doch früher wurde genau das gemacht (und trotzdem ist die Temperatur angestiegen – was aber ein anderes Thema wäre).
Für Hunde fällt dem Autor aktuell nichts wirklich Nachhaltiges ein. Seit dem Mailverkehr kommt der Briefträger zu selten und der vom UPS noch zu selten, nachhaltig ernährte Katzen erwischt ein träger Wohlstandshund kaum. Allerdings können Hunde bedenkenlos Regenwürmer, Schnecken, Käfer, Fliegen und Ähnliches verspeisen. Für Gartenbesitzer also problemlos und für Stadtwohnungen wird irgendein Startup dazu schon Lösungen finden. Schnittlauch lässt sich ja auch auf der Fensterbank ziehen und Frauen leidenschaftlicher Angler können Bände voller Schauergeschichten darüber erzählen, was für madiges Gekreuch im Kühlschrank aufgezogen werden kann.
Langfristig wäre ein „Umbau“ zum veganen Tier durch Genmanipulation denkbar. Zur Rettung des Klimas werden die Gutmenschen sicher alle Bedenken dagegen fallenlassen und für Fördermittel finden sich auch genügend Forscher, welche es schaffen (könnten).
Jedenfalls: Die Hoffnung auf Nachhaltigkeit braucht man auch dafür nicht aufzugeben.

Und man stellt fest, dass unsere Medien wissen, was dem Globus weht tut und zu wahren Lösungsbringern mutieren. Wenn es irgendetwas zu verbieten gibt, nehmen sie es sofort auf und zeigen die richtigen Wege aus dem Dilemma. Das ist beim Dieselproblem so und nun auch mit dem der Haustiere.

Ein Problem ist aber noch ungelöst. Wenn man schon auf Kinder verzichtet hat:
EIKE 18.07.2017: Die wirksamste Bekämpfung des Klimawandels ist der Verzicht auf Kinder,
darf man dann wieder ein Haustier haben? Oder könnte man einen Verzicht auf Haustiere per Zertifikat mit einem Kinderwunsch gegenrechnen? Bestimm kommt bald aus den USA oder von sonst woher bald eine Studie, welches auch dieses Problem fundiert klärt. SPON wird bestimmt darüber berichten.

Anmerkung: Der Hinweis zum SPON-Artikel kam von Achgut, 10.08.2017: Hunde und Katzen killen das Klima




Manila versinkt durch Wasserent­nahme im austrock­nenden Unter­grund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen

In der philippinischen Hauptstadt Manila ist der Meeresspiegel, relativ zur Küste, in den vergangenen Jahrzehnten um 80 Zentimeter gestiegen

klimaretter.info, 07. August 2017: [2] Jacque Manabat, Philippinen: Alleingelassen im Klimawandel
Die Philippinen leiden besonders stark unter dem steigenden Meeresspiegel. Auf den Kosten bleiben sie sitzen, denn von den Industrienationen, den Verursachern des Klimawandels, kommt keine Hilfe. Teil 26 der klimaretter.info-Serie: Strategien gegen den Anstieg des Meeresspiegels.
In der philippinischen Hauptstadt Manila ist der Meeresspiegel, relativ zur Küste, in den vergangenen Jahrzehnten um 80 Zentimeter gestiegen. Im zentralen Legazpi sind es 30 Zentimeter und in der südlichen Davao-Bucht immerhin noch 24 Zentimeter.
… Der Weltklimarat geht davon aus, dass der Anstieg des Meeresspiegels das Wachstum von Pflanzen beeinträchtigt, dass Getreidefelder überschwemmt werden und sich durch stehendes Wasser Krankheiten wie Dengue-Fieber stärker ausbreiten können. Aber bis heute haben die Philippinen noch keine Antwort auf die Bedrohungen für Mensch und Tier. Sie haben keine Ressourcen, um diese Gefahren abzuwenden.
Und die internationale Gemeinschaft tut wenig, um den ersten Opfern des Klimawandels zu helfen.
„Wir haben von den reichen Ländern kein Geld gesehen, um uns zu helfen, uns anzupassen. So können wir nicht weitermachen. Das ist kein Leben, wenn wir am Ende immer vor Stürmen davonlaufen müssen, sagt Naderev Saño, der die Philippinen auf den UN-Klimakonferenzen vertritt.
Jacque Manabat ist Journalistin beim großen philippinischen Nachrichtensender ABS-CBN. Als Fellow der Konrad-Adenauer-Stiftung schrieb sie in Berlin für das Rechercheportal Correctiv, das bei seinem Meeresspiegel-Projekt mit klimaretter.info kooperierte.

Manila erleidet einen Pegelanstieg von ca. 16 mm / pa

Manila auf den Philippinen ist eine Kernstadt mit 1,7 Millionen Einwohnern und einer Stadtumgebung mit (inclusive der Kernstadt) ca. 12,9 Millionen Einwohnern (WIKIPEDIA). Im Jahr 2050 wird mit 19 Millionen Einwohnern gerechnet (Weltbank [8]).
Und an deren Küste gibt es ein Phänomen: Der Küstenpegel steigt seit dem Jahr 1960 mit schier unglaublicher Geschwindigkeit.
[2] … In der philippinischen Hauptstadt Manila ist der Meeresspiegel, relativ zur Küste, in den vergangenen Jahrzehnten um 80 Zentimeter gestiegen.

Wie das aussieht, zeigt das folgende Bild 1: Seit 1960 steigt dort der Küstenpegel massiv. In den letzten 50 Jahren um ca. 80 cm, also ungefähr mit 16 mm Pegelanstieg pro Jahr.

Bild1 Pegelverlauf Manila Hafen. Quelle: correctiv.org Pegelviewer

Dieser Pegelanstieg führt vor Ort zu massivsten Problemen und bei einer Multi-Millionenstadt auch zu extremen Kosten.
Da die Verfasserin des Berichtes, Frau Manabat, vom interviewten Herrn Saño – der die Philippinen auf den Klimakonferenzen vertritt – weiß, dass der Meerespegel nur aufgrund des vom Westen eingebrachten CO2 so ansteigt, teilt sie deshalb die anklagende Aussage mit:
[2] … Die Philippinen leiden besonders stark unter dem steigenden Meeresspiegel. Auf den Kosten bleiben sie sitzen, denn von den Industrienationen, den Verursachern des Klimawandels, kommt keine Hilfe.

Ist solch ein Pegelanstieg durch einen Klimawandel überhaupt möglich?

Wer sich mit Tidenpegel beschäftigt, weiss, dass dieser global mit ungefähr 1,5 mm / pa natürlich steigt [4]. Es erscheint alleine dadurch irgendwie unwahrscheinlich, dass ein kleiner Fleck im Pazifik über so lange Zeit so stark davon abweichen sollte. Liest man zum Pegelbild von Manila den Bildtext von correctiv.org, ahnt man auch schon etwas: Das Problem könnten Landsenkungen sein:
correctiv.org Pegelviewer, Manila: Über den Meeresanstieg am Pegel Manila, S. Harbor haben wir keine gesicherten Daten. Während das Wasser ansteigt, senkt sich zugleich die Landmasse in der Bucht stark ab – beide Effekte zusammen führen dazu, dass in der philippinische Hauptstadt das Meer so schnell anwächst wie an kaum einem anderen Ort der Welt.

Es gibt auf correctiv.org zwei Artikel zur gleichen Zeit zum gleichen Thema. Einer davon erschien auf “Klimaretter“, der zweite über das Problem der Landsenkung erschien dort nicht – wurde nicht einmal erwähnt

Correctiv.org hat von der Journalistin, Frau Manabat, zeitgleich zwei Artikel über Manila veröffentlicht.
Den auf klimaretter erschienen Artikel:
Correctiv.org, Jacque Manabat, 28. Juli 2017: [6] Philippinen: Allein gelassen Warum arme Länder durch den Klimawandelt noch ärmer werden,
in dem der Klimawandel als Ursache des Pegelanstiegs „angeklagt“ wird. Und den Zweiten, in dem die Landsenkung von Manila beschrieben wird:
Correctiv.org, Jacque Manabat, 28. Juli 2017: [7] Manila: Trauriger Spitzenreiter Schon in wenigen Jahren könnten große Teile der Metropole unter Wasser stehen

Im ersten, – dem auf Klimaretter veröffentlichten Artikel [6] [2] – ist kein Hinweis zur Landabsenkung enthalten. Zwar kommt in der Überschrift das Wort „ … relativ zur Küste …“ vor. Dahinter wird ein Laie aber wohl kaum vermuten, dass genau dieses Wort den gesamten Artikel negiert. Der Link zur Weltbankstudie (siehe dazu [7]) ist ebenfalls so „getextet“, dass wohl niemand darauf kommen würde, dass gerade in dieser Studie eine Information zur Landabsenkung hinterlegt ist:
[6] …
Laut einer Studie der Asiatischen Entwicklungsbank von 2012 gehören die Philippinen zu den fünf am meisten vom Klimawandel bedrohten Ländern …

Im zweiten Artikel ist die Landabsenkung dagegen direktes Thema:
[7] … Der Anstieg des Meeresspiegels begann in den 1960er Jahren, zeitgleich mit der Industrialisierung der Philippinen. Viele Infrastrukturmaßnahmen wurden in Angriff genommen. Die Immobilienpreise stiegen rasant, der Platz wurde knapp. Häuser und Bürogebäude wurden in überschwemmungsgefährdeten Gebieten errichtet. Sie sind heute besonders anfällig für den steigenden Meerespegel.
Zugleich senkt sich der Boden immer weiter ab. Das beschreibt eine von der Weltbank veröffentlichte
Studie. In der Studie warnen die Wissenschaftler, dass eine Jahrhundertflut in den nächsten Jahren mehr als 2,5 Millionen Menschen treffen und obdachlos machen könnte.
Sollte die Regierung die Küsten nicht besser schützen, könnte das Waten durch hüfthohe Überschwemmungen während der Regenzeit in Manila bald alltäglich werden.

In der (auch im ersten Artikel) verlinkten Weltbankstudie steht es noch deutlicher:
THE WORLD BANK, September 2010: Climate Risks and Adaptation in Asian Coastal Megacities
… Recent analysis points to mostly anthropogenic causes behind the extreme flood event, including (a) a decrease in river channel capacity through encroachment of houses, siltation from deforestation, and garbage; (b) disappearance of 21 km of small river channels; (c) urbanization accelerating runoff concentration and reducing infiltration losses; (d) loss of natural retention areas; and (e) land subsidence. Among these, land subsidence is the least understood but important cause. It is being driven by groundwater pumping and possibly geologic processes associated with the West Marikina Valley Fault (Siringan 2009). Land subsidence continues decades after the groundwater pumping stops, as illustrated by the Bangkok city case study.

Warum diese zwei – sich gegenseitig argumentativ widersprechenden – Artikel von Frau Manabat erstellt wurden und diesesdazu noch zeitgleich auf correctv.org erschienen, erschließt sich (dem Autor) nicht. Vielleicht wollte man bewusst zwei Zielgruppen „versorgen“, wie es Klimaretter auch genutzt hat.

Jedenfalls ist die Erklärung im zweiten Artikel deutlich und erklärt den vollkommen unglaubhaften Pegelanstieg. Und wenn man danach weiter recherchiert, wird man auch fündig – und über die Dimension überrascht.

Manila pumpt sich selbst sprichwörtlich in den Sumpf

Eine Stadt mit (inclusive der Randbezirke) ca. 13 Millionen Einwohnern benötigt viel Wasser. Und in Manila wird dieses aus dem die Stadt tragenden Boden gepumpt. Als direkte Folge versinkt diese Metropole darin mit rasender Geschwindigkeit. Publiziert wird es jedoch (immer noch) als vom Klimawandel verursachter Pegelanstieg.
Diese Kenntnis ist nicht neu, sondern wurde bereits im Jahr 2003 in einer Studie beschrieben:

Bild Text aus einer Studie zu Manila von 2003 [9]
In dieser Studie wurde es noch weiter ausgeführt und mit einem Bild abgerundet.

Studie [9]
Bild 2 Zusammenhang zwischen Tidenpegel und Grundwasserentnahme in Manila [9]

In Wirklichkeit stieg der Tidenpegel nur um 1,7 mm / pa

Auch eine neuere Studie hat sich des Pegel-Rekonstruktionsproblems von Manila detailliert angenommen. Danach stieg der wahre Meerespegel auch dort seit 1960 nur mit dem natürlichen Wert von 1,7 mm / pa an.

Bild 3 Land-Hebungen und -Senkungen in der Bucht von Manila [1]
[1] … Changes in the location and rates of groundwater extraction are a plausible explanation for this migration of the deformation maxima. As reported by Clemente et al. (2001), groundwater pumping in Manila has been multiplied by a factor of five since the 1970s because of population growth. This has resulted in a lowering of the groundwater table by several tens of meters. The authors also suggest land subsidence as a possible consequence of pumping. Clemente et al. (2001) provide piezometric maps which show that the deformation maps generated in this study are consistent with the locations of very low water table levels in the 1990s. For instance, they reported that groundwater was intensively extracted in Muntilupa and Valenzuela, where high ground-motion velocities in the 90’s were observed in this research. This suggests that many ground deformations observed using DInSAR in this research are direct consequences of groundwater pumping in the Manila metropolitan area.

,,, is valuable to estimate past land motion for at least 50 years. If the differential movements affecting the instruments remained linear, advanced techniques such as PSI could be used as supplemental data to reach the accuracy required of (~ 0.5 mm/yr) and subsequently to assess estimates of global sea-level rise (approximately 1.7 mm/yr between 1950 and 2010, Wöppelmann et al., 2013)
… Displacements up to 15 cm/yr with temporal and spatial variability have been observed. These ground motions are very likely related to groundwater pumping because the Manila urban area is known to be affected by subsidence due to intensive groundwater extraction (Clemente
et al., 2001) and due to ground motion along the fault. Although the origin of this latter motion could be tectonic, it is suggested here that the observed ground motion along the fault is actually likely to be related to groundwater pumping as well (except on the Sucat-Binan segment).

In den nicht isostatisch korrigierten PMSL Daten sieht man es nicht, kann es aber lesen

Wer Tidenpegel sucht, schaut im PMSL-Viewer nach. Dort sehen die Pegelverläufe von Manila wie in den folgenden Bildern aus. Und in beiden Bildern steht ein (kleiner) Hinweis auf die Möglichkeit vertikaler Landverschiebungen.

Bild 4 Pegelverlauf Manila im PMSL-Viewer. Bildtext dazu: Increase in trend in MSL rise suspected to be due to deposition from the river discharges and excessive reclamation although subsidence not totally discarded see letter from coast and Geodetic survey (13/5/1987).

Bild 5 Pegelverlauf Manila bei der NOAA

Nimmt man aus dem PMSL-Viewer Stationsdaten von den Philippinen mit langen Verlaufsreihen und trägt sie parallel auf, sieht man sofort, dass auch in dieser Pazifikgegend der Tidenpegel keinen „Klimawandel-Sprung“ macht.

Das hat jemand auf WUWT bereits durchgeführt:
WUWT, March 29, 2017: Recent Sea-Level Change at Major Cities
… Manila is on sedimentary and volcanic terrane. The Manila gauge has QCFLAGs for river discharges and land reclamation. The gauge was moved in 2002. The trend (M62) from 1902 to 1962 was 1.6 mm/y. Subsequently the trend (M63) increased abruptly and has continued to the present at 15 mm/y. The Cebu gauge, 600 km to the south-southeast, is on similar terrane, has a record of comparable length and no noted adjustments or disturbances. Its trend since 1936 has been 1.2 mm/y.
… The effect of urban activity is clear in apparent rises of 15 mm/y at Manila and 18 mm/y at Bangkok.

Bild 6 Pegelverlauf Manila und Cebu. Quelle: WUWT

-Und wurde vom Autor mit auf den Pegel von Manila normierten Daten wiederholt, um es noch etwas deutlicher zu zeigen.

Bild 7 Pegelverläufe Manila (blau), Cebu (rot), San Jose (grün). Pegel an den Startzeitpunkten auf den Pegel Manila normiert. Grafik vom Autor erstellt. Datenquelle: PSML Viewer

Der nächste Klimagipfel naht. Die Publikationen zum Weltuntergang nehmen zu und damit verbunden die Forderungen nach dem Geld der reichen Länder

Nach dem Betrachten der Daten und der wahren Ursache für den Pegelanstieg in Manila erkennt man erst, mit welcher Unverfrorenheit und an Betrug grenzendem Vorgehen der Bürger beim Klimawandel von allen Seiten desinformiert wird:
Vom Vertreter der Philippinen auf den Klimakonferenzen (der sich damit in die lange Reihe solcher Forderlobbyisten einreiht [10]):
[2] „Wir haben von den reichen Ländern kein Geld gesehen, um uns zu helfen, uns anzupassen. So können wir nicht weitermachen. Das ist kein Leben, wenn wir am Ende immer vor Stürmen davonlaufen müssen, sagt Naderev Saño, der die Philippinen auf den UN-Klimakonferenzen vertritt.
Von Correctiv.org, welche den Artikel zu Manila auch in einer Variante ohne die Information zur Landsenkung hinterlegte [2] und vor allem von der Politik-Beraterin und damit „Fachperson“ für Klimawandel – Frau Professorin C. Kemfert -, welche anscheinend nichts dagegen hat, dass der Artikel ohne Zusatzinformation ausgewählt wurde und den Bürgern als angebliche Information in ihrem „Fachportal“ präsentiert wird.

Klimaretter.Info: [2] Teil 26 der klimaretter.info-Serie Alleingelassen im Klimawandel
Die Philippinen leiden besonders stark unter dem steigenden Meeresspiegel. Auf den Kosten bleiben sie sitzen, denn von den Industrienationen, den Verursachern des Klimawandels, kommt keine Hilfe

In der einschlägigen Literatur kann man nachlesen, dass weltweit viele Küstenstädte von diesem Problem der vom Menschen verursachten Landsenkung betroffen sind. Man ahnt, wer dafür auf den Klimagipfeln durch die vertretenden Aktivisten als allein-Schuldiger benannt wird und es bezahlen soll. Vielleicht hilft Frau Hendricks (so sie in der nächsten Legislaturperiode wieder Umweltministerin sein sollte) auch, dass die „Betroffenen“ – wie die der Inselstaaten [12] – eine Allianz zur Durchsetzung der Ansprüche gegenüber dem Westen (und Deutschland) gründen.

Damit unsere Regierung das Geld der Bürger problemlos in die Welt verschenken kann, belohnt sie ihre willigen Helfer

Der Artikel von correctiv.org und dessen Publizierung als „Wissensartikel“ auf „Klimaretter“ reiht sich damit (wieder) in die lange Reihe der bewussten Desinformationen zum Klimawandel ein – und in die Erkenntnis, dass dies inzwischen hemmungslos und offiziell geschieht und die den Bürger bewusst falsch informierende „Intelligenz“ anstelle mit Rügen, mit Ämtern und Preisen überhäuft werden:
WIKIPEDIA: Seit Juli 2016 ist Kemfert im Sachverständigenrat für Umweltfragen tätig.[3] Sie beriet EU-Kommissionspräsident José Manuel Barroso sowie die Weltbank und die UN.[4] Kemfert ist Gutachterin des Intergovernmental Panel on Climate Change (IPCC). Außerdem war sie Mitglied der Wissenschaftlichen Kommission Niedersachsen[5] und war Mitglied im Nachhaltigkeitsbeirat Brandenburg.[6]
Sie ist Mitglied des wissenschaftlichen Beirates des
Österreichischen Instituts für Wirtschaftsforschung (WIFO)[7] sowie des Frankfurter Zukunftsrates[8] und des TU-Campus EUREF gGmbH.[9][10] Sie ist auch Mitglied im wissenschaftlichen Beirat des Energie Campus Nürnberg sowie des Deutschen Biomasseforschungszentrums(DBFZ)[11], im Kuratorium der Technologiestiftung Berlin[12], der Deutschen Klimastiftung[13], bei B.A.U.M.[14] sowie beim Deutschen Studienpreis der Körberstiftung[15]. Seit 2010 ist sie Mitglied im Beirat der Deutschen Umweltstiftung[16] und seit 2011 ist sie in der Jury der GreenTec Awards[17]. Ferner ist sie Jurorin des Deutschen Umweltpreises.[18] 2009 war sie auch Jurorin des Deutschen Nachhaltigkeitspreises.[19]

Es ist erschreckend mitzuerleben, mit welcher Manie im Politikumfeld Berlin daran gearbeitet wird, das Geld der Bürger an reiche und korrupte Länder und deren Potentaten zu verschleudern. Personen in der hohen Politik wollen sich damit wohl durch Ablasskauf ein späteres Leben im „Ökohimmel“ – oder in internationalen Gremien – sichern. Bezahlt wird der Eintritt ja von den Untertanen.
EIKE 13. Juli 2017: Wie viele Unterschriften zum Klimavertrag wurden mit Geldversprechungen gekauft?

Unsere Medien – sind vollkommen gleichgeschaltet

Früher hätte man darauf vertrauen können, dass dies unseren Medien (irgendwann) auffällt und dagegen opponiert wird. Es ist der großen Meinungs-Einheitspartei-Vorsitzenden in Berlin aber gelungen, diese wirklich vollkommen gleichzuschalten.

Eine ganz aktuelle Episode dazu:
Der ideologische, nordbayerische Ableger der süddeutschen Alpenprawda, die Nordbayerischen Nachrichten, brachten am 11. August einen fast seitengroßen Artikel:
Die entscheidende Trendwende im Klimaschutz ist nahe“, Interview mit Al Gore, Ex-Außenminister der USA, über seinen neuen Film, US-Präsident Trump und Maßnahmen zur Rettung des Planeten.
Im Interview selbst stellt die Redakteurin, Frau Herdegen,

Bild 8 Ausbildungs- und Tätigkeitsvita einer redaktionellen Klimawandel-Fachperson. Quelle: ECHT Oberfranken – Ausgabe 25

an Al Gore die folgenden, ihre vollkommen kritiklose Gläubigkeit zum „großen Klimaguru“ bestätigenden – für die Leser damit ganz wichtigen – Fragen:
Redakteurin: Herr Gore, was hat sich verändert seit dem ersten Teil von „Eine unbequeme Wahrheit“?
Dazu ergänzen ein Kommentar der Redakteurin: „ … im ersten Teil standen Fakten klar im Vordergrund
Redakteurin: Sind wir dann also schon über den Berg?
Redakteurin: Schon heute sind, wie Ihr Film zeigt, Millionen Menschen wegen des Klimawandels auf der Flucht. Werden Sie den Druck hin zu schnellen Entscheidungen für den Klimaschutz weiter erhöhen?
Redakteurin: Wie bewerten Sie es, dass US-Präsident Donald Trump das „Gerede vom Klimawandel“ für Quatsch hält und das Pariser Klimaabkommen aufgekündigt hat?
Redakteurin: Ohne die US-Regierung wird die Klimarettung dennoch schwerer werden, oder?
Redakteurin: Sie waren über die Jahre immer wieder massiver Kritik ausgesetzt, zuletzt vor allem – und auf sehr persönliche Weise – von Präsident Trump. Wie gehen Sie damit um?

Solch tiefschürfende Interviews kenn man nur noch vom Sonntags-Kirchenblatt, wenn der Bischoff allergnädigst ein Interview für seine Schäfchen erlaubt und so stellt man sich auch „investigativen“ Journalismus in Nordkorea vor. Zum Glück kann man im Internet noch wirklichen Journalismus lesen:
Achgut, Ulli Kulke, 10.08.2017: Al Gott vom Planeten Ich

Minister Maas(los) hat das Problem erkannt. Das Internet verführt zum falschen Informieren und in Folge auch zum falsch wählen – und muss für die Untertanen schnellstens auf erlaubbare Information eingeschränkt werden.

Quellen

[1] Daniel Raucoules, at al.: High nonlinear urban ground motion in Manila(Philippines) from 1993 to 2010 observed by DInSAR: implications for sea-level measurement. Remote Sensing of Environment, Elsevier, 2013, 139, pp.386-397

[2] klimaretter.info, 07. August 2017: Philippinen: Alleingelassen im Klimawandel

[3] EIKE 08.08.207: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T2 (2)

[4] EIKE 27. Juli 2017: G20 Klimafakten ohne Hysterie betrachtet Teil 2 (4): Die Meerespegel steigen und steigen …(aber keinesfalls unnatürlich)
[5] EIKE 06.06.2017: Crashinformation zu den „untergehenden“ Pazifikinseln, Teil 1: Pegelinformationen

[6] Correctiv.org, Jacque Manabat, 28. Juli 2017: Philippinen: Allein gelassen Warum arme Länder durch den Klimawandell noch ärmer werden

[7] Correctiv.org, Jacque Manabat, 28. Juli 2017: Manila: Trauriger Spitzenreiter Schon in wenigen Jahren könnten große Teile der Metropole unter Wasser stehen

[8] THE WORLD BANK, September 2010: Climate Risks and Adaptation in Asian Coastal Megacities

[9] University of the Philippines, University of Illinois, F. P. Siringan, K.S. Rodofo, 2003: Relative Sea Level Changes and Worsening Floods in the Western Pampanga Delta: Causes and Some Possible Mitigation Measures

[10] EIKE 08.06.2017: Crashinformation zu den „untergehenden“ Pazifikinseln, Teil 2: Zusatzinformationen

[11] EIKE 11. August 2017: ARTE-Film zum Senegal: Eine Insel versinkt – und mit ihr (wieder) jegliche Glaubwürdigkeit der Klimawandel-Berichterstattung. Deshalb eine Rezension mit sarkastischem Schluss

[12] EIKE 13. Juli 2017: Wie viele Unterschriften zum Klimavertrag wurden mit Geldversprechungen gekauft?




Schamloses Angst-Schüren – versus Wirklichkeit

Al Gore dreht weiter am Klima- und Wetterbetrug. Ein CFACT-Film und ein australisches Buch präsentieren Klimafakten.

Bevor ich mir vorige Woche das Vergnügen gönnte, einen Film anzuschauen, wurde ich gezwungen, zuvor fünf Minuten Angstmache bzgl. Klima und Wetter über mich ergehen zu lassen, als in dem Kino eine Vorschau auf Al Gores neuen Film „Inconvenient Sequel” gebracht wurde. Sein Versuch, jede Wetterkatastrophe des vorigen Jahrzehnts dem Verbrauch fossiler Treibstoffe seitens der Menschen in die Schuhe zu schieben, fühlte sich wie fünfzig Minuten Folter an.

Mr. Gore hat Zehnermillionen Dollar mit seinem Unsinn und seiner Forderung verdient, dass die moderne Gesellschaft eine „bittere Transformation“ vollziehen müsse, weg von Öl, Erdgas und Kohle hin zu einer utopischen Möchtegern-Welt, die von Biotreibstoffen, Wind- und Solarenergie sowie Elektrofahrzeugen und Batterien abhängig ist.

Noch jede alarmistische Prophezeiung wurde bislang durch tatsächliche Ereignisse falsifiziert: von rapide steigender Temperatur über eine eisfreie Arktis bis zu monströsen Hurrikanen, zu denen es in den USA seit dem Jahr 2005 nicht mehr gekommen war. Sein Versuch, die Überschwemmungen in New York City seinerzeit dem Superstorm Sandy in die Schuhe zu schieben, ignorierte Wahrheiten wie den Umstand, dass Bauwerke, welche den Hudson River um Hunderte Fuß einengten, dafür sorgten, dass jedwedes hinzu kommende Wasser den Wasserspiegel höher steigen ließ und schließlich Manhattan unter Wasser setzte. Mr. Gore ignorierte desgleichen sogar wohlbekannte Klimawandel- und Wetterereignisse während vergangener Jahrhunderte. Kein Wunder, das diese Meschpoke aus Anhängern von SUVs, Privatjets und vielfachem Immobilienbesitz nicht das Rückgrat hat, mit irgendjemandem über diese Dinge zu diskutieren. Wenn er uns Vorträge hält, nimmt er nicht einmal Fragen zur Kenntnis, denen er nicht zuvor zugestimmt hat.

Glücklicherweise haben all jene, die als Gegenmittel nach einer gesunden Portion Realität trachten, Alternativen. Der Dokumentarfilm Climate Hustle widerlegt reihenweise exzentrische Prophezeiungen, die niemals wahr geworden sind, und präsentiert solide, auf Beweisen beruhende Wissenschaft von Dutzenden Wissenschaftlern, die Behauptungen von einer „vom Menschen verursachte Klimakrise“ nicht akzeptieren. Ein neues Buch aus Australien präsentiert detailliert und sachkundig, jedoch hektisch zusammengestellt, lesenswertes Material zu zentralen Aspekten bzgl. Klima.

Das Buch Climate Change: The Facts 2017 ist das Dritte in einer Reihe. Dem jüngst verstorbenen, bedeutenden australischen Geologen und Klimawissenschaftler Bob Carter gewidmet beschreiben dessen 22 Kapitel den Klimawandel im Verlauf der Zeitalter, die multiplen natürlichen Kräfte, die primär Klima- und Wetterfluktuationen treiben, die krummen Tricks, mit denen alarmistische Forscher tatsächliche Temperaturdaten modifiziert und „homogenisiert“ haben, die Versuche, Experten zum Schweigen zu bringen, die sich mit den natürlichen Ursachen von Klimawandel befassen oder die eine Anpassung für viel besser halten als kostspielige „Prävention“, den historischen Zusammenhang hinter Klima-Debatten und die Widerstandsfähigkeit von Korallenriffen gegen eine vermeintliche „Versauerung“ der Ozeane.

Hypothetische vermeintliche Katastrophen bzgl. Korallen, Schalentiere und anderen Spezies selbst durch geringfügige Änderungen des ozeanischen pH-Wertes basieren auf Computersimulationen, welche oftmals nur aus Laborexperimenten abgeleitet sind. John Abbott, Peter Ridd und Jennifer Marohasy belegen, dass in einigen dieser Experimente tatsächlich in Fischbecken Salzsäure hinzugefügt [hydrochloric acid] wurde, um eine Versauerung zu simulieren, welche vermeintlich aus einer leichten Zunahme des atmosphärischen Kohlendioxids resultieren soll!

Kohlendioxid wurde dämonisiert, weil es ein Nebenprodukt des Verbrauchs fossiler Treibstoffe ist, und viele Aktivisten wollen Öl, Erdgas und Kohle eliminieren, welche über 80% der Energie in den USA und weltweit erzeugen. Außerdem ist es das direkte Gegenteil eines „gefährlichen Verschmutzers“.

CO2 ist ein für Pflanzen überlebenswichtiges Nahrungsmittel und Dünger und bildet die Grundlage für Photosynthese. Ohne dieses Spurengas würde das Leben auf der Erde aufhören zu existieren. Zusammen mit etwas höheren Temperaturen seit dem Ende der Kleinen Eiszeit (und dem Beginn der modernen industriellen Ära) half das steigende atmosphärische CO2-Niveau, den Planeten „ergrünen“ zu lassen, indem Getreide, Wälder und Grasland-Pflanzen schneller und besser gediehen. 25% bis 50% der Gebiete unserer Erde mit Pflanzenbewuchs sind während der letzten 33 Jahre grüner geworden, von den Tropen bis zur Arktis, und 70% dieser Ergrünung geht auf das Konto höherer CO2-Niveaus in der Atmosphäre. Nur in 4% der Gebiete ist es brauner geworden.

Ian Plimer, Ken Ring und Nicola Scafetta besprechen natürliche Klimazyklen und die lange planetarische und menschliche Erfahrung mit großen Klimaänderungen und Wetterereignissen. Nichts, was wir heute erleben, ist ohne Beispiel, und vielfach waren diese Vorgänge heute viel günstiger für uns als in der Vergangenheit. Björn Lomborg und andere Autoren erklären, warum wir unsere Besessenheit von der „Klimakrise“ und anderen übertriebenen Bedrohungen loswerden und uns von den falschen Lösungen für herbei phantasierte Klimakatastrophen Abstand nehmen müssen. Wir müssen unsere begrenzten Zeit-, Geld- und andere Ressourcen zum Kampf gegen viele reale, drückende Probleme verwenden, vor denen die Menschen in Entwicklungsländern und der entwickelten Welt gleichermaßen stehen.

In meinem Kapitel in The Fact spreche ich diese drückenden humanitären Probleme an, großenteils im Zusammenhang mit der Enzyklika Laudato Si von Papst Franziskus. Über alle Jahrtausende, schrieb ich, litten die Menschen unter brutalem und das Leben verkürzendem Hunger und Mangelernährung, unter Kälte und Armut, schlechter Luft, schmutzigem Wasser, einer Myriade von Krankheiten, fehlenden sanitären Einrichtungen und einfachen Wunden, die sich entzündeten bis hin zu Tetanus, Amputation und Tod.

Dann kam es im Verlauf von nur zwei Jahrhunderten zu einer Verdoppelung der Lebensspanne von Milliarden Menschen via der Entdeckungen und Fortschritte, welche angetrieben wurden durch fossile Treibstoffe. Die Menschen wurden gesünder, besser ernährt, wohlhabender, mobiler und entwickelten wunderbare medizinische und andere Technologien, Nahrungsmittel, Dienstleistungen, Reichtümer und Freizeitaktivitäten, die sich frühere Generationen nicht einmal vorstellen konnten.

Mechanisierte Landwirtschaft – zusammen mit modernen Düngemitteln, Hybrid- und GMO-Samen, Bewässerung und anderen Vorteilen – führte dazu, dass weniger Landwirte Rekordernten einfahren konnten, welche Milliarden ernähren, mit weniger Land- und Wasserverbrauch. Verbesserte Bauweisen von Gebäuden hielten Kälte, Krankheiten tragende Nagetiere und Insekten außen vor und überstanden auch viel besser Erdbeben und Extremwetter-Ereignisse. Elektrischer Strom veränderte jeden Aspekt unseres Lebens.

„Wie können wir es uns leisten, Dankbarkeit für und Anerkennung dieser Fortschritte zu ignorieren, besonders in den Bereichen Medizin, Ingenieurswesen und Kommunikation?“ fragt Seine Heiligkeit. Unglücklicherweise präsentiert er dann romantisierte Bezüge zu konsistent milderen Klimaten, gütige natürliche Umwelten und idyllische ländliche Lebensweisen, die niemals existierten. Er besteht darauf, dass die ärmsten Menschen der Erde demnächst vor „gravierenden existenziellen Risiken“ stehen werden durch die planetarische Erwärmung, falls wir nicht sofort und signifikant unseren Verbrauch fossiler Treibstoffe reduzieren.

Er ignoriert das Fehlen von Beweisen in der Realen Welt dafür, dass Treibhausgase Klimachaos verursachen – und die überzeugenden Beweise dafür, dass fossile Treibstoffe enorme Vorteile mit sich bringen.

Während der letzten drei Jahrzehnte haben Öl, Gas und vor allem Kohle dabei geholfen, 1,3 Milliarden Menschen Zugang zu Strom zu verschaffen sowie Energie- und ökonomischer Armut zu entkommen. China brachte 99% seiner Bevölkerung an das Netz, zumeist mittels Kohle. Der durchschnittliche Chinese ist heute zehnmal reicher und lebt 32 Jahre länger als seine Vorfahren noch vor fünf Jahrzehnten. Indien errichtet zahlreiche Kohlekraftwerke, um seine riesigen Gebiete zu elektrifizieren.

Aber über 1,2 Milliarden Menschen (mehr als in den USA, Kanada, Mexiko und Europa zusammen) haben immer noch keinen Zugang zu Strom; weitere 2 Milliarden Menschen bekommen Strom nur sporadisch und unvorhersagbar. Im Afrika südlich der Sahara kochen und heizen immer noch 700 Millionen Menschen mit „erneuerbarem“ Holz, Holzkohle und dem Dung von Tieren.

Hunderte Millionen werden schrecklich krank – und fünf Millionen sterben – in jedem Jahr durch Lungen- und Darmkrankheiten, weil sie den Rauch offener Feuer einatmen und keine Kühlmöglichkeiten haben; kein sauberes Wasser und keine sicheren Nahrungsmittel. Hunderte Millionen hungern oder sind unterernährt. Fast drei Milliarden überleben mit lediglich ein paar Dollars pro Tag.

Diese bettelarmen und hilflosen Massen wollen einfach ihren rechtmäßigen, von Gott gegebenen Platz unter den gesunden und wohlhabenden Menschen dieser Welt einnehmen. In Wirklichkeit aber sagt man ihnen, dass dies „nicht nachhaltig wäre“. Man sagt ihnen, dass die Verbesserung ihrer Gesundheit, ihres Lebensstandards und die Verlängerung ihrer Lebensspanne weniger wichtig ist als der „drohende Klima-Kataklysmus“, welcher das „bloße Überleben bedroht“ unserer Wildnis, unserer Zivilisation und unseres Planeten.

Diese Behauptungen – und die falschen Lösungen für diese nur in alarmistischen Filmen, Presseerklärungen und Computermodellen existierenden düsteren Probleme – ziehen lediglich weit hergeholte Risiken heran, die fossile Treibstoffe vermeintlich verursachen könnten. Sie betrachten niemals die zahllosen Gefahren und Schäden, welche jene Treibstoffe verringern, eliminieren oder verhindern. Diese Haltung ist anti-wissenschaftlich, anti-human, ungerecht, unethisch – und völkermörderisch [genocidal].

Der bekannte Beobachter populärer Kultur Clive James fasst den Inhalt dieses faszinierenden Buches so zusammen: Befürworter einer vom Menschen verursachten Klimakatastrophe forderten von uns so viel Vertrauensvorschuss, dass sie unweigerlich am Ende jede Glaubwürdigkeit verloren haben werden. Und doch wäre es unklug zu denken, dass die Anfälligkeit der Menschheit für den Glauben an modischen Unsinn in naher Zukunft geheilt werden kann. Wenn diese „Bedrohung“ eines Tages kollabiert, wird sie durch eine andere Bedrohung ersetzt. [Ist es nicht schon soweit? Eier-, Dieselskandal, Feinstaub …]

Al Gore, das IPCC, alarmistische Modellierer und Forscher sowie das EPA-Programm „soziale Kosten von Kohlenstoff“ und die Kohlendioxid-„Gefährdungs“-Entscheidung hängen allesamt mit dem Klimabetrug zusammen. Ewige Wachsamkeit, Bildung und Abwehr durch den Rest von uns werden noch viele Jahre lang gebraucht werden.

Link: https://www.heartland.org/news-opinion/news/shameless-fear-mongering–versus-reality

Übersetzt von Chris Frey EIKE




Offiziell bestätigt: rbb – Kontraste darf weiter Fakenews verbreiten

Die hiesigen Medien stehen schon lange unter dem begründeten Verdacht, dass sie ihre Leser, Hörer und/oder Zuschauer häufig weder objektiv, noch neutral, noch umfassend, oder auch nur wahrheitsgemäß über bestimmte Themen informieren. Dazu gehören u.a. alles was den menschgemachten Klimawandel betrifft, oder die von allen in den Himmel gelobte Energiewende . Mit ihren Unterthemen E-mobilität und oder in jüngster Zeit dem „Dieselskandal“. Von anderen wichtigen Themen wie der ungebremsten und ungesteuerten Zuwanderung aus muslimischen Ländern gar nicht erst zu reden. Besonders hervor tun sich dabei die Öffentlich Rechtlichen Sender, seien sie bei der ARD organisiert oder dem ZDF. Darin bildet auch der Rundfunk-Berlin-Brandenburg (rbb) keine Ausnahme. EIKE berichtete schon des Öfteren darüber.

Eine neue Qualität erreichte jetzt aber der rbb – über seine Magazinsendung Kontraste. Auf der Webseite der Redaktion liest man so erbauliche Vorhaben (Hervorhebungen von mir) wie

„KONTRASTE – das kritische Magazin aus Berlin. KONTRASTE bringt Gegensätze auf den Punkt. Keine Politikerphrasen, kein Infotainment: Das Magazin geht den Dingen auf den Grund, neugierig und mit sorgfältiger Recherche. KONTRASTE deckt Hintergründe auf, erklärt Zusammenhänge und bezieht Stellung. KONTRASTE steht für seriöse Information des öffentlich-rechtlichen Rundfunks: investigativ, analytisch, kritisch.“

Na dann, schauen wir mal, dann sehen wir schon, pflegte einst der Kaiser Franz Beckenbauer zu sagen. Gucken wir uns also eine der investigativ, analytisch, kritisch erarbeiteten Informationen an, die mit sorgfältiger Recherche erarbeitet wurden.

Worum geht es?

Es geht um den Beitrag in der Sendung vom 1.6.17 mit dem Teilinhalt „Der US-Präsident als Verschwörungstheoretiker“.

Video nicht mehr verfügbar
Video Ausschnitt mit Kommentaren der Kontraste-Sendung vom 1.6.17 über Trump und seine Klimapläne, das Original samt Text finden Sie hier

Wir berichteten darüber hier.

Dieser Beitrag, vom Autorenteam Adrian Bartocha, Chris Humbs, Markus Pohl und Axel Svehla, ist nicht nur schlechter Journalismus, weil er von Spekulationen, Un- wie Halbwahrheiten, angereichert mit irreführender Rhetorik, nur so strotzt, (man staunt immer wieder was clevere Leute in knapp 4 Minuten alles so behaupten können) sondern enthält auch tlw. schiere Propaganda. Darüber hatte ich ja nun schon ausführlich berichtet. Der geneigte Leser möge das bei Interesse hier nachlesen. Weil, das ist nicht Thema dieses Beitrages. Thema ist die Geschichte, die sich danach abspielte. Basierend auf meinem Mailwechsel zunächst mit Chef vom Dienst Herr Althammer und dann der Intendanz des rbb in Gestalt des stellvertretenden Intendanten Herrn Hagen Brandstäter. (voller Text siehe Kontraste Mailwechsel Althammer rbb-EIKE Limburg)

Zum besseren Verständnis dessen, was sich inzwischen abspielte, muss ich etwas ausholen.

Aufgrund meiner wohlbegründeten Beschwerde beim Chef vom Dienst der Kontraste Sendung, Herrn Althammer, über den Inhalt, sowie meine Bitte, diese misslungene – nicht einmal als Satire gekennzeichnete- Stück und nur als Propaganda einzustufende Arbeit aus der ARD Mediathek zu entfernen, und zusätzlich eine Korrektursendung auszustrahlen, erhielt ich von Herrn Althammer die abschließende Verweigerung meiner Bitte mit der umwerfenden Begründung:

Althammer rbb: Unsere Grundposition ist und bleibt, dass die Erderwärmung seit dem Industriezeitalter auch durch menschliche Faktoren beeinflusst wird. Diesen Einfluss zu begrenzen sehen wir als politische Aufgabe in Verantwortung gegenüber den zukünftigen Generationen an.

Zunächst war ich über dieses unverblümte Eingeständnis des unbedingten Willens des rbb seine vorgefasste Meinung, den Zuschauern als Faktum unterzujubeln, überrascht. Ich dachte: Oh Gott, was ist passiert, dass diesem Mann so die Feder ausgerutscht ist? Wir wissen zwar schon seit langem, dass viele Mitarbeiter in den Medien so ticken, ihren journalistischen Beruf als Berufung so verstehen, den anderen ungeniert ihre Meinung, wenn´s sein muss, auch mit dem medialen Holzhammer einzuprügeln. Gerade und immer wieder bei den Öffentlich Rechtlichen Sendern. Aber dann, dieses frische Eingeständnis! Dermaßen ehrlich! Seht her, ich stehe dazu, ich kann nicht anders, denn das ist unsere Aufgabe. Ob Dir das passt oder nicht. Wir wollen nicht anders!

Das ist zwar weit ab von der eisernen Richtschnur eines Hans-Joachim Friedrich bzw. seine englischen Vorbildes – dessen Name mir gerade nicht einfällt- für gutes journalistisches Selbstverständnis, das da lautet: „ein guter Journalist macht sich mit keiner Sache gemein; auch nicht mit einer guten!“ Aber was soll´s!

Diese plötzlich Ehrlichkeit; vielleicht war es ja auch nur unbekümmerte Frechheit, das überraschte dann doch!

Trotzdem war die Sache damit ja nicht vom Tisch, sondern nur das Motiv für diese Fakenews-Berichterstattung benannt. Und da ich vermutete, dass die Intendanz bestimmt nicht über jeden Ausrutscher informiert ist, dies aber auch für sie ein solcher sein könnte, deshalb interessiert sein müsse, die anfangs benannten journalistischen Grundsätze, sowohl den allgemeinen von H.J. Friedrich, als auch die besonderen der Kontraste-Reaktion (s.o.) und vielleicht eine wenig auch die, die das Rundfunkgesetz vorschreibt, einzuhalten, schrieb ich am 4.7.17 eine Beschwerde an die Intendantin Patrizia Schlesinger, von Beruf und Ausbildung her ebenfalls Journalistin. Vielleicht hat sie den früh verstorbenen Hans-Joachim Friedrich ja noch gekannt, dachte ich.

Nach gut vier Wochen, also gerade noch in der zulässigen Frist, in der die Intendanz auf formale Beschwerden reagieren muss, erhielt ich Antwort und die haute mich fast vom Hocker. (voller Text siehe Programmbeschwerde_Limburg_Kontraste). Sie kam vom stellvertretenden Intendanten, einem Herrn Brandstätten.

Der versuchte zunächst mir und evtl. auch seinem Mitarbeiter Althammer, das Wort im Munde zu verdrehen, uns beiden, im wahrsten Sinne des Wortes, ein x für ein u vorzumachen. Er schrieb nämlich ziemlich am Anfang

„Gestatten Sie mir zunächst, ein sprachliches Missverständnis aufzulö­sen: In seiner Antwort meint Herr Althammer nicht, dass der rbb einen politischen Auftrag habe, sondern es Auftrag der Politik ist, sich mit den Folgen des Klimawandels auseinanderzusetzen.“

Da versucht doch einer tatsächlich dem, geschliffenes Deutsch schreibenden und sich auch dessen voll bewussten, Herrn Althammer – oder auch mir- diese ehrliche und sowohl sprachlich wie inhaltlich klare Meinung als „sprachliches Missverständnis“ anzudrehen.

Welche Chuzpe oder Unverschämtheit gehört dazu? Was bildet sich dieser Mann ein, von wem und mit wem er da spricht? Schließlich leben wir schon länger hier und sind ziemlich firm im Deutschen, unserer Muttersprache. Eine solche Verdrehung einem Zuschauer auch zu schreiben, das muss man sich erst mal trauen.

Aber es kommt noch besser! Nach weiteren längeren Einlassungen über das journalistische Selbstverständnis und Aufgaben des rbb, in welchem er sich an dem von mir ebenfalls genannten Zitat (wenn auch häufig von ihm nicht eingehalten) des Kai Gniffke, seines Zeichens (immer noch) Chefredakteur der Tagesschau  löblich und vor allem wohlklingend abarbeitet, kommt der Hammer.

Denn Herr Brandstäter traut sich auch tatsächlich zu formulieren:

Der von Ihnen monierte Beitrag erfüllt unsere Anforderungen an journalistische Sorgfalt und Qualität im rbb. Ihre Einschätzung, es handle sich um eine Mischung aus Falschinformationen und Propa­ganda, kann ich nicht teilen. Deshalb gibt es auch keinen Grund für den rbb, den Beitrag aus der Mediathek zu entfernen und gleichzeitig einen Korrekturbeitrag zu senden.

Da ist er also. Ohne jede Begründung, nicht einmal in einem Halbsatz, wischt er meine Belege vom Tisch. So also schätzt ein stv. Intendant eines Öffentlich-Rechtlichen Rundfunk- und Fernsehsender, die mit offensichtlichen Fakenews, Halbwahrheiten und Irreführungen allg. nur als Propaganda zu verstehendes Machwerk ein. Der„von Ihnen monierte Beitrag erfüllt unsere Anforderungen an journalistische Sorgfalt und Qualität im rbb.“ Damit hatte der Mitarbeiter Althammer doch recht. Wir ticken so! Wir handeln so!

Video nicht mehr verfügbar
Daher bekommt die jüngste Aussage der Tagesthemen Moderatorin Carmen Miosga eine ganz besondere herbe Duftnote:

Journalismus kennt keine alternativen Fakten.

„Und ein Blinder keine Farben!“ möchte man ergänzen. Nur die können nichts dafür. Diese Journalisten schon.

Für eine Realsatire ist das alles leider nicht lustig genug!

Deswegen reichte ich erneut Beschwerde beim rbb Rundfunkrat ein. Ob´s was nützt?

 

 




EXKLUSIV: Forscher behauptet, Beweise dafür zu haben, dass eines der erfolgreichsten EPA-Gesetze bzgl. sauberer Luft auf der Grundlage künstlich fabrizierter Daten beruht

Der Toxikologe Albert Donnay sagt, er habe Beweise zusammengetragen dafür, dass eine im Jahre 1989 von der EPA in Auftrag gegebene Studie über die Auswirkungen von Kohlenmonoxid auf die Gesundheit auf falschen Daten beruht. Falls das stimmt, wären 25 Jahre des Erlasses von Vorschriften und Milliarden Dollar für Auto-Katalysatoren in Frage gestellt.

„Sie behaupteten, eine Auswirkung gefunden zu haben, obwohl es gar keine gab“, sagte Donnay. „Sie haben sogar die Verfahren fabriziert, mit denen sie zu ihren Ergebnissen gekommen sind. Sie haben sich all das erdacht, um der EPA das zu geben, was sie haben wollte und in Auftrag gegeben hat. Die dargestellten Ergebnisse können nicht von Menschen stammen“.

Weniger Hervorhebung der Ausrüstung. Weniger Stress für Sie. Siehe die Nebenleistungen für variable frequency drives [?]

Die EPA stufte die Studie als „primär zu berücksichtigen“ ein. Zusammengestellt wurde sie vom Health Effects Institute (HEI), um eine Vorgängerstudie aus dem Jahr 1981 zu ersetzen, welche auf fabrizierten Daten beruhte. Im Jahre 2011 hat die EPA das getan, was sie seit 1971 getan hat, nämlich den Standard von 9 ppm gemessen während eines 8-stündigen Zeitraumes und 35 ppm während 1 Stunde unverändert gelassen.

Und warum auch nicht? Die EPA war über die Jahre sehr erfolgreich bei der Reduktion von Kohlenmonoxid, was es an die zweite Stelle der am meisten reduzierten Verschmutzer stellte. Dies geht aus Daten der Agentur hervor. „Kohlenmonoxid ist ein farb- und geruchloses Gas, das bei Verbrennungsprozessen freigesetzt wird“. Bei einem extrem hohen Niveau kann es ernste Gesundheitsprobleme und sogar Todesfälle mit sich bringen. Bei Unfällen mit einer Kohlenmonoxid-Vergiftung kommen pro Jahr 400 bis 500 Menschen ums Leben, wie Daten der Regierung zeigen.

Hier folgt ein Poster der Forschung, welches Donnay auf dem Treffen der Gesellschaft für Toxikologie 2015 gezeigt hat:

 

Nach Albert Donnay

[Der Link zu dem Poster steht unten {research poster}. Wenn man in dem PDF auf vergrößern klickt, kann man alles deutlich lesen. Anm. d. Übers.]

Dr. Aronow

Aber Donnay sagte, dass seinen Forschungen zufolge die HEI-Studie voller „wissenschaftlichem Betrug“ steckt, welcher von der EPA und dem HEI näher untersucht werden sollte. „Falls man jemanden beauftragt, einen Betrug zu replizieren, muss man betrügen, um das zu tun“, sagte Donnay bei der Diskussion der Ergebnisse seiner Re-Analyse.

Im Jahre 1983 erkannte die EPA, dass ihr Kohlenmonoxid-Standard „auf fragwürdigen, vielleicht gefälschten Forschungen“ beruhte, durchgeführt von Dr. Wilbert Aronow in den siebziger Jahren. Die New York Times berichtete seinerzeit darüber. Die Federal Drug Administration FDA fand heraus, dass Nachweise der Wirkung von Medikamenten bei Patienten am Veterans Affairs Hospital bei Los Angeles gefälscht worden waren.

Die Agentur handelte rasch und ersetzte Aronows betrügerische Daten und finanzierte eine massive human exposure study mit dem HEI – eine Forschungsgruppe, ins Leben gerufen von der EPA und der Autoindustrie.

Das HEI stellte eine Studie zusammen, um die Auswirkungen von Kohlenmonoxid auf Männer mit Kranzgefäß-Krankheiten zu untersuchen und um festzustellen, wie lange es dauert, bis sie Angina bekamen, nachdem sie dem Gas ausgesetzt waren. Das HEI heuerte drei Teams von verschiedenen Universitäten an, um bei der Forschung zu helfen.

Die HEI-Studie wurde im Jahre 1989 veröffentlicht und kostete 2,5 Millionen Dollar. Auch das New England Journal of Medicine veröffentlichte die Studie 1989, das Medizinjournal Environmental Health Perspectives veröffentlichte sie zwei Jahre später.

Environmental Health Perspectives lehnte es ab, Donnays Anfrage weiter zu bearbeiten. Weder das HEI noch das New England Journal of Medicine antworteten auf die Nachfrage der Daily Caller News Foundation DCNF.

Die HEI-Forscher fanden wenig überraschend, dass „niedrige Niveaus von Kohlenmonoxid Angina-Erkrankungen bei Personen mit Kranzgefäß-Krankheiten verschlimmerten“.

Die EPA rühmte die HEI-Studie und stützte sich darauf, als sie 1994 ihren Kohlenmonoxid-Standard bekannt gab. Die Agentur räumte der HEI-Studie „primäre Berücksichtigung“ ein bei ihrer Überarbeitung der Vorschriften bzgl. Kohlenmonoxid im Jahre 2011.

Donnay trat einer juristischen Klage seitens Umweltaktivisten bei, um die Entscheidung der EPA bzgl. Kohlenmonoxid anzufechten. Die Gerichte urteilten gegen die Aktivisten, so dass sich Donnay im Jahre 2014 entschloss, die Eckpunkte-Studie nachzuvollziehen, auf die sich die EPA während all der Jahre stützte. „Ich brannte darauf, jene Vorschrift anzufechten!“, sagte er.

Extensive Beweise für Daten-Fabrikation

Zunächst benötigte Donnay die Rohdaten der HEI-Forscher, welche sie für ihre Studie herangezogen hatten, aber diese zu bekommen erwies sich als schwieriger als erwartet. HEI-Präsident Daniel Greenbaum sagte Donnay, dass man die Rohdaten für die HEI-Studie 2008 „gelöscht“ habe, weil weder die EPA noch irgendein anderer Forscher deren Ergebnisse in Frage gestellt hatten.

Also trug er die Rohdaten von den drei Journalen zusammen, welche die HEI-Studie veröffentlicht hatten, und stützte sich außerdem auf einige Rohdaten, welche im Jahresbericht 1985 des HEI vorgestellt worden waren.

Im Jahre 2014 hatte Donnay seine Re-Analyse schließlich fertig und konnte sie veröffentlichen. Er fand „extensive Beweise für Daten-Fabrikation und Datenfälschung“, schrieb er im Entwurf eines Abstracts, welchen er seinen Beratern an der University of Maryland vorstellte. „Der offensichtlichste Beweis absichtlichen wissenschaftlichen Betrugs in der HEI-Studie war, dass Allred et al. zwei verschiedene Zusammenfassungen der Ergebnisse in ihrem HEI-Report erstellten und eine dritte Version in ihrem Artikel im New England Journal of Medicine, welcher in der gleichen Woche erschienen war“, erklärte Donnay. „In keiner dieser Versionen erklären sie, wie sie zu den unterschiedlichen Ergebnissen gekommen waren oder räumten diesen Tatbestand auch nur ein. Betrachtet man das, was sie zu bringen und nicht zu bringen gewählt haben, ergibt sich zwangsläufig, dass sie etwas verbergen“, sagte er.

Donnays Berater an der University of Maryland jedoch sagten ihm, dass er seine Verbindung mit der Universität nicht erwähnen dürfe, falls er seine Ergebnisse veröffentlichen würde. Der für Forschungsintegrität zuständige Beamte an der Schule sagte ihm sogar, dass seine Arbeit „UMB gefährde“. Dies geht aus E-Mails hervor, welche der DCNF vorliegen.

„Es gab viel Widerstand gegen die Tatsache, dass dies alles Betrug sein könnte“, sagte Donnay. „Ich erkannte, dass es schwierig werden würde, diese Ergebnisse zu veröffentlichen“.

Aber Donnay ließ nicht locker und sandte im Mai 2014 einen Brief an alle drei akademischen Journale, welche die Allred-Studie veröffentlicht hatten, und forderte sie auf, diese Studie zurückzuziehen. Donnay informierte auch das Büro für Forschungsintegrität der EPA und den Generalinspekteur.

Alle drei Journale lehnten seine Forderung ab. Der Generalinspekteur der EPA war der Ansicht, dass die Vorwürfe Donnays nicht ein kriminelles Niveau erreichten, und die für wissenschaftliche Integrität zuständige EPA-Beamtin Francesca Grifo lehnte es ab, Donnays Arbeit überhaupt anzusehen, war doch die HEI-Studie vor dem Jahr 2012 geschrieben worden – bevor die Polizei der wissenschaftlichen Integrität bei der EPA ins Leben gerufen worden war.

„Angesichts der außerordentlichen Sorgfalt, mit der die Studie durchgeführt und unabhängig begutachtet worden war, haben sie empfohlen, und dem stimmen wir zu, dass es keinen Grund gibt, diese Studie zurückzuziehen“, schrieb der HEI-Vorsitzende Richard Celeste als Antwort an Donnay.

Aber Donnay blieb bei seinen Ergebnissen und trachtete nach Input von Roger McClellan, dem ehemaligen Vorsitzenden des EPA-Wissenschaftskomitees, welches sich auf das HEI stützte, um den Kohlenmonoxid-Standard im Jahre 1992 festzulegen. McClellan war auch im HEI-Übersichtskomitee für die Kohlenmonoxid-Studie tätig.

McClellan sagte Donnay, dass die HEI-Studie zwar „Auswüchse und Fehler“ enthalte, dass aber die „Kern-Ergebnisse der Studie weiterhin fundiert sind. Das einzige ernste Ergebnis ihrerseits, von denen Sie berichteten und welches für mich enttäuschend war, ist meine Erfahrung, dass die Original-Aufzeichnungen der Studie vom HEI im Jahre 2008 gelöscht wurden“.

Donnay präsentierte seine Forschungen in Gestalt eines Posters auf dem Treffen der Society for Toxicology im Jahre 2015 und erntete dafür ein paar „oberflächliche Reaktionen“, aber „niemand war willens, meine Ergebnisse anzusprechen“.

McClellan hat auf die Forderung nach einer Stellungnahme seitens der DCNF nicht geantwortet.

Die Links zu Donnays Beweisen sind diese: [alle drei als PDF]

Research Poster

Roger McClellan’s Letter — Feb 23, 2015

Summary Of Responses To Donnay’s Work

Link: https://wattsupwiththat.com/2017/08/08/exclusive-researcher-claims-to-have-evidence-one-of-epas-most-successful-clean-air-rules-is-based-on-fabricated-data/

Übersetzt von Chris Frey EIKE




Die Gesetze der Mittelwerte: Teil 2, Information der Verschleierung

Durchschnittliches

Sowohl das Wort als auch das Konzept „Durchschnitt“  sind in der breiten Öffentlichkeit sehr viel Verwirrung und Missverständnis unterworfen und sowohl als Wort als auch im Kontext ist eine überwältigende Menge an „lockerem Gebrauch“ auch in wissenschaftlichen Kreisen zu finden, ohne die Peer-Reviewed-Artikel in Zeitschriften und wissenschaftlichen Pressemitteilungen auszuschließen.

In Teil 1 dieser Serie [Eike, übersetzt] lasen Sie meine Auffrischung über die Begriffsinhalte von Durchschnitten, Mittelwerten und Beispiele dazu. Wenn Ihnen diese Grundlagen nun geläufig sind, dann können wir mit den weiteren Gedankengängen weitermachen.

Wer es vorher oder nochmal lesen möchte, hier ist der Link zum Original [Part 1 of this series]

 

Ein Strahl der Finsternis in das Licht [Übersetzung des Originaltitels] 

oder: Informieren um zu Verschleiern

Der Zweck, zu einem Datensatz verschiedene Ansichten darzustellen – oder über jede Sammlung von Informationen oder Messungen, über eine Klasse von Dingen oder ein physikalisches Phänomen – ist es, dass wir diese Informationen aus verschiedenen intellektuellen und wissenschaftlichen Winkeln sehen können – um uns einen besseren Einblick in das Thema unserer Studien zu geben, was hoffentlich zu einem besseren Verständnis führt.

Moderne statistische Programme erlauben es sogar Gymnasiasten, anspruchsvolle statistische Tests von Datensätzen durchzuführen und die Daten auf unzählige Weise zu manipulieren [bzw. zu sortieren] und zu betrachten. In einem breiten allgemeinen Sinne, ermöglicht die Verfügbarkeit dieser Softwarepakete nun Studenten und Forschern, (oft unbegründete) Behauptungen für ihre Daten zu machen, indem sie statistische Methoden verwenden, um zu numerischen Ergebnissen zu gelangen – alles ohne Verständnis weder der Methoden noch der wahren Bedeutung oder Aussagekraft der Ergebnisse. Ich habe das erfahren, indem ich High School Science Fairs beurteile [zu vergleichen mit „Jugend forscht“] und später die in vielen Peer-Review-Journalen gemachten Behauptungen gelesen habe. Eine der derzeit heiß diskutierten Kontroversen ist die Prävalenz [allgemeine Geltung] der Verwendung von „P-Werten“ [probability value ~ Wahrscheinlichkeitswert], um zu beweisen, dass [auch] triviale Ergebnisse irgendwie signifikant sind, weil „das die Aussage ist, wenn die P-Werte geringer als 0,05 sind“. Die High School Science Fair Studenten bezogen auch ANOVA Testergebnisse über ihre Daten mit ein –jedoch konnte keiner von ihnen erklären, was ANOVA ist oder wie es auf ihre Experimente angewendet wurde.

[Als Varianzanalyse (ANOVA von englisch analysis of variance) bezeichnet man eine große Gruppe datenanalytischer und strukturprüfender statistischer Verfahren, die zahlreiche unterschiedliche Anwendungen zulassen; Quelle Wikipedia]

 

Moderne Grafik-Tools ermöglichen alle Arten von grafischen Methoden um Zahlen und ihre Beziehungen anzuzeigen. Das US Census Bureau [statistisches Amt] verfügt über einen große Anzahl von Visualisierungen und Graphikwerkzeugen. Ein Online-kommerzieller Service, Plotly, kann in wenigen Sekunden eine sehr beeindruckende Reihe von Visualisierungen Ihrer Daten erstellen. Sie bieten einen kostenlosen Service an, dessen Niveau mehr als ausreichend für fast alle meine Verwendungen war (und eine wirklich unglaubliche Sammlung von Möglichkeiten für Unternehmen und Profis mit einer Gebühr von etwa einem Dollar pro Tag). RAWGraphs hat einen ähnlichen kostenlosen Service.

Es werden komplexe Computerprogramme verwendet, um Metriken wie die globalen Durchschnittlichen Land– und Meerestemperaturen oder die globale mittlere Höhe des Meeresspiegels zu erstellen. Ihre Schöpfern und Promotoren glauben daran, das damit tatsächlich ein einziger aussagekräftiger Wert produziert werden kann, der eine durchschnittliche Genauigkeit bis zu einem Hundertstel oder Tausendstel oder eines Millimeters erreicht. Oder, wenn schon nicht aktuelle quantitativ genaue Werte, so werden zumindest genaue Anomalien oder gültige Trends berechnet. Die Meinungen zu diesen Werten variieren sehr stark, betreffend der Gültigkeit, der Fehlerfreiheit und der Genauigkeit dieser globalen Durchschnittswerte.

Die Mittelwerte sind nur eine von unterschiedlichsten Möglichkeiten, die Werte in einem Datensatz zu betrachten. Wie ich in den Grundlagen für den „Durchschnitt“ erklärt habe, gibt es drei primäre Arten von Mittelwerten – Mittel, Median und Mode – sowie weitere exotische Typen.

In Teil 1 dieser Reihe erklärte ich die Fallstricke von Mittelwerten von heterogenen, nicht miteinander zu vergleichenden Objekten oder Daten über Gegenstände. Solche Versuche enden mit „Obstsalat“, ein Durchschnitt aus Äpfeln und Orangen ergibt unlogische oder unwissenschaftliche Ergebnisse, mit Bedeutungen, die illusorisch, imaginär oder von so geringer Aussage und damit nicht sehr nützlich sind. Solche Mittelungen werden oft von ihren Schöpfern mit Bedeutung – Sinn – erfüllt, die sie nicht haben.

Da der Zweck, Daten auf unterschiedliche Weise zu betrachten – wie das Betrachten eines Durchschnitts, ein Mittelwert oder ein Modus des numerischen Datensatzes – zu einem besseren Verständnis führen soll, ist es wichtig zu verstehen, was tatsächlich passiert, wenn numerische Ergebnisse gemittelt werden und in welcher Weise sie zu einem besseren Verständnis führen und in welcher Weise sie aber auch zu einem reduzierten Verständnis führen können.

Ein einfaches Beispiel:

Betrachten wir die Größe der Jungs in Frau Larsens hypothetischer 6. Klasse an einer Jungenschule. Wir wollen ihre Größe kennenlernen, um eine horizontale Klimmzugstange zwischen zwei starken, aufrechten Balken platzieren, damit sie trainieren können (oder als leichte konstruktive Strafe – „Jonny – Zehn Klimmzüge bitte!“). Die Jungs sollten in der Lage sein, sie leicht zu erreichen, indem man ein bisschen hochspringt, so dass beim Hängen an den Händen ihre Füße nicht den Boden berühren.

Die ärztliche Station liefert uns die Größen der Jungs, die gemittelt werden, und wir erhalten das arithmetische Mittel von 65 Zoll [ = 165 cm; für den weiteren Vergleich lasse ich Zoll (= Inch) stehen].

Mit diesen Durchschnittsgrößen rechnen wir weiter, um die benötigte Stangenhöhe in Zoll zu ermitteln:

Größe / 2.3 = Armlänge (Schulter zu den Fingerspitzen)

= 65 / 2.3 = 28 (ungefähre Armlänge)

= 65 + 28 = 93 Zoll = 7,75 Fuß oder 236 cm

Unsere berechnete Höhe der Stange passt gut in ein Klassenzimmer mit 8,5 Fuß Decken, also sind wir gut. Oder sind wir gut? Haben wir genügend Informationen aus unserer Berechnung der Mittleren Höhe?

Lassen Sie es uns überprüfen, indem wir ein Balkendiagramm aller Größen aller Jungs betrachten:

Diese Visualisierung, gibt uns eine andere Sicht als unser berechneter Durchschnitt – um die vorhandenen Informationen zu betrachten – um die Daten der Größen der Jungen in der Klasse auszuwerten. Mit der Erkenntnis, dass die Jungen von nur fünf Fuß groß (60 Zoll) bis hin zu fast 6 Fuß (71 Zoll) groß sind, werden wir nicht in der Lage sein, eine Stangenhöhe festzulegen, die ideal für alle ist. Allerdings sehen wir jetzt, dass 82% der Jungs innerhalb der Mittelhöhe von 3 Inch liegen und unsere berechnete Stangenhöhe wird gut für sie sein. Die 3 kürzesten Jungs könnten einen kleinen Tritt brauchen, um die Stange zu erreichen, und die 5 längsten Jungs können ihre Knie ein bisschen beugen, um Klimmzüge zu machen. Also können wir es so machen.

Aber als wir den gleichen Ansatz in Mr. Jones ‚Klasse versuchten, hatten wir ein Problem.

Es gibt 66 Jungen in dieser Klasse und ihre durchschnittliche Größe (Mittelwert) ist auch 65 Zoll, aber die Größen sind anders verteilt:

Jungens, die zweite Klasse

Herr Jones Klasse hat eine andere Mischung, die zu einer ungleichen Verteilung führt, viel weniger um den Mittelwert zentriert. Mit dem gleichen Durchschnitt: +/- 3 Zoll (hellblau), der in unserem vorherigen Beispiel verwendet wurden, erfassen wir nur 60% der Jungs anstatt 82%. In Mr. Jones Klasse, würden 26 von 66 Jungs die horizontale Reckstange bei 93 Zoll nicht bequem finden. Für diese Klasse war die Lösung eine variable Höhenleiste mit zwei Einstellungen: eine für die Jungen 60-65 Zoll groß (32 Jungen), eine für die Jungen 66-72 Zoll groß (34 Jungen).

 

Für die Klasse von Herrn Jones war die durchschnittliche Größe, die mittlere Größe, nicht dazu geeignet, um uns ein besseres Verständnis die Informationen über die Höhe der Jungen zu beleuchten, zu ermöglichen. Wir brauchten einen genaueren Blick auf die Informationen, um unseren Weg durch die bessere Lösung zu sehen. Die variable Höhenleiste funktioniert auch für Mrs. Larsens Klasse gut, mit der unteren Einstellung für 25 Jungen und die höhere Einstellung gut für 21 Jungen.

 

Die Kombination der Daten aus beiden Klassen gibt uns diese Tabelle:

Dieses kleine Beispiel soll veranschaulichen, dass Mittelwerte, wie unsere mittlere Höhe, unter Umständen von Nutzen sind, aber nicht in allen Fällen.

In der Klasse von Herrn Jones war die größere Anzahl kleinerer Jungen verdeckt, versteckt, gemittelt, man kann sich auf die mittlere Höhe verlassen, um die besten Lösungen für die horizontale Klimmstange zu bekommen.

Es ist erwähnenswert, dass in Frau Larsens Klasse, die Jungens eine Verteilung der Größen haben – siehe erstes Diagramm oben, die der sogenannten Normalverteilung ähnlich ist, ein Balkendiagramm wie folgend gezeigt:

WUWT

Normalverteilung

Die meisten Werte ergeben einen Gipfel in der Mitte und fallen mehr oder weniger gleichmäßig davor und dahinter ab. Durchschnitte sind gute Schätzungen für Datensätze, die so aussehen. Dabei muss man dann darauf achten, auch die Bereiche auf beiden Seiten des Mittels zu verwenden.

Mittel sind nicht so gut für Datensätze wie es Herr Jones‘ Klasse zeigt oder für die Kombination der beiden Klassen. Beachten Sie, dass das Arithmetische Mittel genau das gleiche für alle drei Datensätze der Größe der Jungen ist – die beiden Klassen und die kombinierten – aber die Verteilungen sind ganz anders und führen zu unterschiedlichen Schlussfolgerungen.

 

Das durchschnittliche Haushaltseinkommen in USA

Eine häufige angewandte Messgröße für das wirtschaftliche Wohlbefinden in den Vereinigten Staaten ist die jährliche Ermittlung des durchschnittlichen Haushaltseinkommens durch das statistische Amt [US Census Bureau].

Erstens, dass es als MEDIAN gegeben wird – was bedeutet, dass es eine gleich große Anzahl von Familien mit einem größeren Einkommen sowie auch Familien unter diesem Einkommensniveau geben sollte. Diese Grafik hier, von der jeweils regierenden Partei veröffentlicht – unabhängig davon, ob es die Demokraten oder die Republikaner sind – wird vom Oval Office (US-Präsident) und den beiden Häusern des Kongresses gerne als Argument [für ihre gute Arbeit] genutzt:

Das ist die gute Nachricht!
Grafik: Das mediane Familien Einkommen zeigt über die Jahre einem schönen stetigen Aufstieg und wir singen alle zusammen mit dem Beatles: “I’ve got to admit it’s getting better, A little better all the time…” [Sgt. Pepper’s Lonely Hearts Club Band]

Die nächste Grafik zeigt die nicht so gute Nachricht:

Die Zeitachse ist auf 1985 bis 2015 verkürzt, aber wir sehen, dass die Familien seit etwa 1998 nicht viel, wenn überhaupt, an realer Kaufkraft gewonnen haben, bereinigt um die Inflation.

Und dann gibt es die Grafik der Wirklichkeit:

Trotz der guten Nachrichten! und der Anerkennung der ersten Grafik und der so genannten Neuigkeiten der zweiten, sehen wir, wenn wir tiefer schürfen, eine andere Geschichte – die bislang verdeckt ist. Diese Grafik ist das Durchschnitts Haushalt Einkommen der fünf Quintile des Einkommens, plus die Top 5%, so dass die Zahlen ein bisschen anders sind und eine andere Geschichte erzählen.

Man unterteilt die Bevölkerung in fünf Teile (Quintil), dafür stehen die fünf bunten Linien. Die unteren 60% der Familien mit geringen Haushaltseinkommen, die grünen, braunen und roten Linien, haben in realer Kaufkraft seit 1967 praktisch keine Verbesserung erreicht, die Mitte / das Großbürgertum in lila Linie, hat einen moderaten Anstieg gesehen. Nur die besten 20% der Familien (blaue Linie) haben eine solide, stetige Verbesserung erreicht – und wenn wir die Top 5% herausnehmen, die gestrichelte schwarze Linie, sehen wir, dass sie nicht nur den Löwenanteil der US-Dollar verdienen, Sie haben auch prozentual am meisten davon profitiert .

 

Wo sind die gefühlten Vorteile?

Oben ist, was uns der nationale Durchschnitt mitteilt, die US Median Haushalts Einkommens Metrik. Wenn wir das ein bisschen näher untersuchen, erkennen wir:

Median Haushaltseinkommen nach Bundesstaaten

Neben einigen Überraschungen, wie Minnesota und North Dakota, zeigt es das, was wir vermuten können. Die Bundesstaaten New York, Massachusetts, Connecticut, New Jersey, Maryland, Virginia, Delaware – kommen alle auf das höchste Niveau des durchschnittlichen Haushaltseinkommen, zusammen mit Kalifornien, Washington. Utah war schon immer die Heimstätte der wohlhabenderen Latter-Day Saints [Kirche Jesu Christi der Heiligen der Letzten Tage] und ist zusammen mit Wyoming und Colorado ein Ruhestand Ziel für die Reichen geworden. Die Bundesstaaten, deren Abkürzungen eingekreist sind, haben Haushalte mit Einkommen in der Nähe des nationalen Medians.

 

Lassen Sie uns das vertiefen:

Median Haushaltseinkommen nach Landkreisen

Die dunkleren grünen Kreise haben die höchsten Median Haushaltseinkommen. San Francisco / Silicon Valley im Westen und die Washington DC-bis-New York City-zu-Boston Megapolis im Osten, sind leicht zu erkennen.

Diese Karte beantwortete meine große Frage: Wieso hat North Dakota so ein hohes Median Einkommen? Antwort: Es ist ein Bereich, umkreist und markiert „?“, Zentriert durch Williams County, mit Williston als Hauptstadt. Hier wohnen weniger als 10.000 Familien. Und „Williston sitzt auf der Bakken-Formation, der bis Ende 2012 vorausgesagt wurde, mehr Öl zu produzieren als jeder andere Standort in den Vereinigten Staaten“, es ist das Gebiet von Amerikas neustem Öl-Boom.

 

Und wo ist das große Geld? Meistens in den großen Städten:

Median Haushaltseinkommen nach Städten

 

Und wo ist das Geld knapp? Alle jene hellgelben Landkreise sind Gebiete, in denen viele bis die meisten Familien an oder unterhalb der föderalen Armutsgrenze für vierköpfige Familien leben.

Median niedrigste Haushaltseinkommen nach Landkreisen

 

Einkommen der restlichen Haushalte

Eine Auswertung der Gebiete der US-Indianer Reservate zeigt, dass diese im Westen vor allem die niedrigsten und zweithöchsten Einkommensgruppen repräsentieren. (Ein eigenes Interesse von mir, mein Vater und seine 10 Brüder und Schwestern wurden in Pine Ridge im südwestlichen South Dakota geboren, das rote Oval.) Man findet viel von dem alten Süden in dem untersten Kreis (hellgelb) und den Wüsten von New Mexico und West Texas und den Hügeln von West Virginia und Kentucky.

 

Eine weitere Grafik:

Prozentuale Verteilung der Haushaltseinkommen

Was sagt uns das?

Es sagt uns, dass das nationale Median Haushaltseinkommen, als Einzelwert – vor allem in Dollar, der nicht Inflation bereinigt ist – die Ungleichheiten und Unterschiede, die wichtige Fakten dieser Metrik sind, verdecken. Der Einzelwert des nationalen Median Haushaltseinkommen ergibt nur eine sehr unzureichende Information – es sagt uns nicht, wie amerikanische Familien  einkommensmäßig einzuordnen sind. Es informiert uns nicht über das wirtschaftliche Wohlergehen der amerikanischen Familien – vielmehr verbirgt es den wahren Sachverhalt.

Daher sage ich, dass das veröffentlichte durchschnittliche Haushaltseinkommen, anstatt das wirtschaftliche Wohlergehen der amerikanischen Familien zu beleuchten, buchstäblich die wirklichen signifikanten Daten über das Einkommen der amerikanischen Haushalte verbirgt. Wenn wir uns erlauben, von dem Strahl der Verschleierung [Im Original „shines a Beam of Darkness“] verblendet zu werden, die diese Art von Wahrheit versteckenden Durchschnittswerten repräsentieren, dann scheitern wir in unserer Pflicht als kritische Denker.

 

Bedeutet das, dass Durchschnittswerte schlecht sind?

Nein natürlich nicht. Sie sind nur eine Möglichkeit, eine Reihe von numerischen Daten zu betrachten. Das bietet aber nicht immer die beste Information. Es sei denn, die Daten, die man betrachtet, sind fast normal verteilt und Änderungen werden durch bekannte und verstandene Mechanismen verursacht. Mittelwerte aller Art führen uns häufiger in die Irre und verdecken die Informationen, die wir wirklich betrachten sollten. Durchschnittswerte sind die Ergebnisse von faulen Statistikern und führen selten zu einem besseren Verständnis.

Der häufigste logische und kognitive Fehler ist es, das es das Verständnis beeinflusst, es eine Meinung suggestiert, indem man nur diese eine sehr schmale Sicht auf die Daten anbietet – man muss unbedingt erkennen, dass sich die Information hinter irgendeiner Art von Durchschnitt versteckt und alle anderen verfügbaren Informationen verdeckt und diese damit nicht wirklich repräsentativ für das gesamte, große Bild sein kann.

Es gibt viele bessere Methoden der Darstellung von Daten, wie das vereinfachte Balkendiagramm, das im Beispiel der Schuljungen verwendet wird. Für einfache numerische Datensätze, Diagramme und Grafiken, sind diese oft angemessen, wenn sie verwendet werden, um Informationen zu zeigen, anstelle diese zu verstecken).

Wie Mittelwerte, können auch Visualisierungen von Datensätzen für gute oder schlechte Informationen verwendet werden – die Propaganda durch Nutzung von Datenvisualisierungen, die heutzutage PowerPoint-Folien und Videos beinhalten, ist Legion.

Hüten Sie sich vor jenen, die Mittelwerte wie Schlagstöcke oder Knüppel handhaben, um öffentliche Meinung zu bilden.

 

Und Klima?

Die Definition des Klimas ist, dass es ein Durchschnitt ist – „diese Wetterbedingungen herrschen in einem Gebiet im allgemeinen oder über einen langen Zeitraum.“ Es gibt keine einzige „Klima Metrik“ – keine einzelner Wert, der uns sagt, was „Klima“ tut.

Mit dieser vorgenannten Definition, zufällig aus dem Internet über Google – gibt es kein Erd-Klima. Die Erde ist kein Klimabereich oder Klimaregion, die Erde hat Klimaregionen, ist aber kein Klimabereich.

Wie in Teil 1 erörtert, müssen die im Durchschnitt gemittelten Objekte in Sätzen homogen und nicht so heterogen sein, dass sie inkommensurabel sind. So werden bei der Erörterung des Klimas einer Region mit vier Jahreszeiten, Allgemeinheiten über die Jahreszeiten gemacht, um die klimatischen Bedingungen in dieser Region im Sommer, Winter, Frühjahr und Herbst einzeln darzustellen. Eine durchschnittliche Tagestemperatur ist keine nützliche Information für Sommerreisende, wenn der Durchschnitt für das ganze Jahr einschließlich der Wintertage genommen wird – solch eine durchschnittliche Temperatur ist Torheit aus pragmatischer Sicht.

Ist es aus der Sicht der Klimawissenschaft ebenfalls Dummheit? Dieses Thema wird in Teil 3 dieser Serie behandelt.

 

Schlussfolgerung:

Es reicht nicht aus, den Durchschnitt eines Datensatzes korrekt mathematisch zu berechnen.

Es reicht nicht aus, die Methoden zu verteidigen, die Ihr Team verwendet, um die [oft-mehr-missbrauchten-als-nicht] globalen Mittelwerte von Datensätzen zu berechnen.

Auch wenn diese Mittelwerte von homogenen Daten und Objekten sind und physisch und logisch korrekt sind, ein Mittelwert ergibt eine einzelne Zahl und kann nur fälschlicherweise als summarische oder gerechte Darstellung des ganzen Satzes, der ganzen Information angenommen werden.

Durchschnittswerte, in jedem und allen Fällen, geben natürlicherweise nur einen sehr eingeschränkten Blick auf die Informationen in einem Datensatz – und wenn sie als Repräsentation des Ganzen akzeptiert werden, wird sie als Mittel der Verschleierung fungieren, die den Großteil verdecken und die Information verbergen. Daher, anstatt uns zu einem besseren Verständnis zu führen, können sie unser Verständnis des zu untersuchenden Themas reduzieren.

Durchschnitte sind gute Werkzeuge, aber wie Hämmer oder Sägen müssen sie korrekt verwendet werden, um wertvolle und nützliche Ergebnisse zu produzieren. Durch den Missbrauch von Durchschnittswerten verringert sich das Verständnis des Themas eher, als das es die Realität abbildet.

Erschienen auf WUWT am 19.06.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/06/19/the-laws-of-averages-part-2-a-beam-of-darkness/

 

Für unsere Leser in Deutschland, hier eine Grafik des statistischen Bundesamtes

© Statistischen Ämter des Bundes und der Länder, Deutschland, 2017. Dieses Werk ist lizensiert unter der Datenlizenz Deutschland – Namensnennung – Version 2.0.




Die Starkregen vom Juli 2017 in Deutsch­land sind (keine) Menetekel eines Klima­wandels

Damit nicht jemand im Blog süffisant nachfragt, „wer“ den bitte behauptet hat, diese Ereignisse waren vom Klimawandel verursacht, anbei als Vorspann die Information des Zwangs-GEZ finanzierten, grün gestrichenen, bayerischen Partei- und Propagandasenders:
BR.de, Rubrik Wissen, 26.07.2017: [1] Extremwetter durch Klimawandel Mehr Starkregen, Dürren, Hitzewellen und Orkane
Extreme Wetterphänomene treten weltweit immer häufiger auf, auch in Deutschland. Wissenschaftler machen auch die Klimaerwärmung dafür verantwortlich. Und sie zeichnen nach dem globalen Hitzerekord 2016 auch für 2017 ein düsteres Szenario.

… Im Juni und Juli 2017 hat es Teile Deutschlands erwischt: Ausnahmezustand wegen sintflutartiger Regenfälle, die das Leben nicht nur in Berlin zeitweise lahm legten. Auch Niedersachsen und Thüringen machte extremer Dauerregen zu schaffen, in Hildesheim musste ein ganzes Wohngebiet evakuiert werden. Der Kieler Klimaforscher und Meteorologe Mojib Latif sieht auch den Klimawandel als Ursache für diese Wetterextreme.

Zwar haben nicht wenige Wetterpäpste das Thema richtiggestellt und auf natürliche Variabilitäten hingewiesen. Analysen (auch von eher klimawandel-affinen) Wissenschaftlern zeigen zudem, dass im Sommer die Starkniederschläge bisher abnahmen:
[8] … Eine Auswertung von mehr als 2000 westdeutschen Niederschlagsstationen zeigt eine deutliche Zunahme in den winterlichen Starkregenereignissen (abhängig von der Region bis zu über 10% pro Dekade) und eine deutliche Abnahme für die sommerlichen Ereignisse (Zolina et al. 2008)
[10] … Im Wintermonat Januar wie auch in den Monaten März und November der Übergangsjahreszeiten ist die Neigung zu extrem viel Niederschlag angestiegen, nicht dagegen in den Sommermonaten Juli und August …
[11] Im Sommer hingegen wurde ein Trend zu einer verringerten Variabilit¨at gefunden, wodurch auch extrem hohe monatliche und saisonale Niederschlagssummen in weiten Teilen Mitteleuropas in dieser Jahreszeit seltener geworden sind. Entsprechend haben Tage mit hohen (¨uber dem 10%-Perzentil) und auch extrem hohen (¨ uber dem 5%- und 2%-Perzentil) Niederschlagssummen im Sommer verbreitet abgenommen …

-doch sobald man einen M. Latif zitieren kann – der mit schlafwandlerischer Sicherheit zu jedem Wetterereignis die treffenden, klimaalarmistischen Worte findet -, ist man klima(hysterisch) auf der politisch sicheren Seite. Diese ist inzwischen auch in Bayern sorgfältig zu beachten, seitdem der Landesvater, Herr Seehofer, eine Koalition mit den Grünen nicht mehr ausschließt [2]. GRÜN kennt bei abweichender Meinung kein Erbarmen, und deshalb muss ein Staats-Propagandafunk darauf vorbereitet sein.

So viel Regen dürfte es eigentlich nicht geben, da es im Sommer trockener wird

Das sagen alle bisherigen Klimasimulationen [3] und der DWD:

Der DWD Klimaatlas zeigt den Sommerniederschlag. Der verhält sich seit 1881 so normal, dass es fast schon grausam ist.

Bild 1 Deutschland Niederschlag Sommer von 1881 – 2016. Quelle: DWD Klimaatlas

Der Niederschlagsverlauf im Monat Juli seit dem Jahr 1881 ist auch nicht alarmistischer. Einzig wird in seinem Bild deutlicher, wie hoffnungslos die Klimasimulationen daneben liegen und was Aussagen des ganz großen Klima(Alarm)Forschers, M. Latif wirklich „wert“ sind:
M. Latif: [1] … Forscher haben sich lange schwer getan, extreme Wetterverhältnisse in einen direkten Zusammenhang mit dem Klimawandel zu bringen. Doch neue Methoden der statistischen Auswertung, verfeinerte Klimamodelle und bessere Computertechnik machen Aussagen über Zusammenhänge heute eher möglich.
… denn nicht eine der vielen Simulationsversuche trifft derzeit den wahren Mittelwert.
Macht aber nichts. Mit diesen hoffnungslos falsch liegenden Simulationen wird vom DWD (auf des Bürgers Kosten) Deutschland in 25 Kilometer-Quadraten „klimaberechnet“. Die Kommunen sollen nach diesen Zufallsdaten ihre teuren „Klima“Investitionen budgetieren und natürlich auch ausgeben. Man liegt nicht weit daneben mit der Behauptung: Eine billige Glaskugel mit Sicht auf die historischen Daten wäre wohl nicht ungenauer, aber um Welten billiger [6] [7].

Bild 2 Deutschland Niederschlag Juli 1881 – Juli 2017. Die rote, horizontale Linie kennzeichnet den Wert vom Juli 2017 (vom Autor zugefügt). Quelle: DWD Klimaatlas

Nun noch der Niederschlagsverlauf Juli der zwei stark von den Unwettern betroffenen Bundesländer. Der Juliniederschlag war hoch, aber bei Weitem „noch nie dagewesen“ und auch nicht als sich verstärkender Trend erkennbar.

Bild 3 Niedersachsen Niederschlag Juli 1881 – Juli 2017. Die rote, horizontale Linie kennzeichnet den Wert vom Juli 2017 (vom Autor zugefügt). Quelle: DWD Klimaatlas

Bild 4 Thüringen Niederschlag Juli 1881 – Juli 2017. Die rote, horizontale Linie kennzeichnet den Wert vom Juli 2017 (vom Autor zugefügt). Quelle: DWD Klimaatlas 

Fazit

Der Niederschlag hat eine unglaublich hohe Variabilität – die sich ständig in beide Richtungen wiederholt -, aber immer neu „vergessen“ wird. Eine Erhöhung des Juliniederschlages durch einen Klimawandel ist nicht erkennbar. Und praktisch alle! Niederschlagssimulationen liegen hoffnungslos falsch.
Es ist kein Zufall, dass der dicke, „Deutsche Klimamonitoringbericht 2015“ des Umweltbundesamtes auf seinen 258 Seiten Starkregen zwar 30-mal zitiert, aber keinerlei Daten dazu listet. Auch dessen Verfasser*innen ist es nicht gelungen, beim Starkniederschlag Klimawandel-Einfluss zu belegen und sie haben deshalb die (Klimawandel-negierenden) Informationen lieber weggelassen, um die Bürger nicht zu verwirren.

Klimarückblick Juli

Die Extremwetter dürfte es nicht geben, da sie durch die zunehmende Wärme entstehen (sollen) die zu dem Zeitpunkt im Juli jedoch fehlte

Dass die häufig gebrachte, einfache Erklärung – mehr Wärme ist mehr Stark-Niederschlag – falsch ist, hat Herr Kowatsch bereits in [3] beschrieben.
Dazu eine Erklärung eines anderen Experten: [8] Allgemein sollte es in vielen Regionen durch die globale Erwärmung eine Abnahme von leichten und moderaten Regenfällen geben und/oder eine Abnahme in der Häufigkeit von Niederschlagsereignissen, aber häufigere und intensivere Starkregen. Diese theoretischen Überlegungen können jedoch bisher vor allem quantitativ weder durch Daten noch durch Klimamodellrechnungen hinreichend bestätigt werden

Nun steigt die Lufttemperatur im Sommer an (beziehungsweise verharrt seit ein paar Jahrzehnten auf hohem Niveau),

Bild 5 Deutschland Lufttemperatur Sommerquartal 1881 – 7.2017. Quelle: DWD Klimaatlas

… doch der Juli zeigt in der Langzeitdarstellung ein ganz sonderbares Bild, welches wohl niemand mit dem steigenden CO2-Eintrag erklären kann.

Im DWD-Bild, welches erst mit dem Jahr 1881 beginnt, fällt es noch kaum auf, dass der gerade vergangene Juli unter der Temperatur vom Jahr 1881 lag.

Bild 6 Deutschland Lufttemperatur Juli 1881 – 7.2017. Quelle: DWD Klimaatlas

In der Langzeitdarstellung mit den DWD-Daten ist es aber nicht mehr zu übersehen: Der vergangene Juli lag nicht nur unter der Temperatur im Jahr 1881, sondern hatte die des Jahres 1750. Auch lässt sich mit diesem Verlauf schön sehen, warum in Deutschland die Temperaturen (bisher) seit 1881 fast immer anstiegen.

Bild 7 Deutschland Lufttemperatur Juli 1750 – 7.2017. Rot gekennzeichnet der Beginn der DWD Datenbilder (1881). Roter Pfeil vom Autor hinzugefügt. Quelle: DWD Daten

Anhand dieser Daten lässt sich feststellen: Die „stetige Temperaturerhöhung“ durch einen AGW-Klimawandel kann nicht die Ursache der Juli Unwetter gewesen sein – vor denen man angeblich früher verschont war -, denn der vergangen Juli war so kalt wie der vom Jahr 1881 und kälter als der von 1750 (ziemlich sicher zumindest im ebenfalls stark vom Unwetter gebeutelten Berlin). Die Unwetter geschahen auch bei einer kühlen Wetterlage, denn zu dem Zeitpunkt bestand eine zirkulierende Nord-Strömung [3].

Bild 8 Wetterstation Brocken. Temperaturverlauf und Niederschlag übereinander gelegt. Daten: WetterOnline

Was sagen die Experten dazu:
[8]… Eine Auswertung von mehr als 2000 westdeutschen Niederschlagsstationen zeigt eine deutliche Zunahme in den winterlichen Starkregenereignissen (abhängig von der Region bis zu über 10% pro Dekade) und eine deutliche Abnahme für die sommerlichen Ereignisse (Zolina et al. 2008).

Ausgewählte Niederschlagsdaten aus von dem Unwetter stark betroffenen Gegenden

Erst wenn man sich Einzeldaten von Messstationen ansieht, erkennt man die unglaubliche Spanne der (täglichen und mehrtägigen) Regenmengen und deren chaotisches Verhalten, hinter denen man anhand der Bilder jedoch auch eine dominierende Zyklik vermuten würde. Der Autor hat aus stark betroffenen Gegenden ein paar Daten nahe liegender Messstationen mit längerem, historischem Verlauf herausgesucht um zu zeigen, wie und wie unterschiedlich die Trendverläufe von Extremereignissen zwischen verschiedenen Stationen ausfallen.

Berlin Tempelhof

Zuerst die Station Tempelhof aus dem im Juliunwetter fast „abgesoffenem“ Berlin. Man nehme die folgenden vier Bilder und überlege, ob bei diesem erkennbar chaotisch – zyklischem Verhalten Vorhersagen möglich sind, wenn aus dem „Nichts“ heraus und ohne irgend eine erkennbare Vorwarnung das Wasser plötzlich kübelweise vom Himmel schüttet.
Je nach betrachtetem Zeitbereich lässt sich jeder vermeintliche Trend „erkennen“, bis dieser plötzlich und ohne Vorwarnung vorbei ist.

Dazu noch die Anmerkung, dass man gerade Regen-Messdaten nicht blind vertrauen sollte: Die Messstation Simbach fiel beim großen Unwetter vor zwei Jahren zuerst einmal aus. Seitdem „fehlen“ dort diese Regenmengen. Warum soll so etwas nicht früher auch schon passiert sein und historische Datenspitzen niedriger machen?

Berlin Tempelhof

Bild 9 Berlin Tempelhof 1948 – 8.2017 Tagesniederschlag. Quelle: DWD, Station 433

Bild 10 Berlin Tempelhof 1948 – 8.2017 2-Tages-Niederschlagsmenge. Quelle: DWD, Station 433

Bild 11 Berlin Tempelhof 1948 – 8.2017 3-Tages-Niederschlagsmenge. Quelle: DWD, Station 433

Bild 12 Berlin Tempelhof 1948 – 2016 Jahressumme Starkregen-Ereignisse > 30 mm / Tag. Quelle: DWD, Station 433

Brocken Sorge

Bild 13 Brocken – Sorge Tages-Niederschlag 1951 – 8.2017. Quelle: DWD Daten, Station 351

Bild 14 Brocken – Sorge 2-Tages-Niederschlag 1951 – 8.2017. Quelle: DWD Daten, Station 351

Bild 15 Brocken – Sorge Jahressumme Starkregen-Ereignisse 1951 – 2016. Quelle: DWD Daten, Station 351

Helbedündorf

Bild 16 Helbedündorf Tages-Niederschlag 1951 – 8.2017. Quelle: DWD Daten, Station 2562

Bild 17 Helbedündorf Tages-Niederschlag 1951 – 8.2017. Quelle: DWD Daten, Station 2562

Bild 18 Helbedündorf Jahressumme Starkregen-Ereignisse 1951 – 2016. Quelle: DWD Daten, Station 2562

Einem DWD „Klimafachmann“ reichen 15 Jahre für eine Trendaussage

Es sei anbei an einen Beitrag auf kaltesonne erinnert, in dem das Problem der kurzfristigen Betrachtung anhand eines Beispiels thematisiert wurde. Ein DWD „Klimaexperte“ behauptete, anhand einer 15-jährigen Messreihe wäre es bereits möglich, beim Starkniederschlag Trendaussagen zu machen.:
kaltsonne, 1. Februar 2017: Starkregen in Deutschland ohne Langzeittrend: 15 Jahre sind kein Klima
„Das sind auch die Folgen des Klimawandels“, sagt der Diplom-Meteorologe [Andreas] Friedrich vom Deutschen Wetterdienst (DWD) in Offenbach dezidiert … „Auf Basis unserer Radardaten flächendeckend über Deutschland haben wir ausgewertet, dass Stark-Niederschläge in den letzten 15 Jahren häufiger auftreten …

Zeigen die bisherigen Niederschlagsbilder schon deutlich, dass selbst über 60 Jahre Beobachtungszeit für eine Trendaussage nicht ausreichen, soll dies anhand von Messreihen mit weit über 100 Jahren bekräftigt werden.

Ganz lange DWD-Niederschlagsreihen zeigen das Risiko kurzfristiger Fortschreibungen und den extremen Zeitraum zur Trendermittlung

Es gibt in Deutschland Niederschlagsreihen, welche bis zum Anfang des letzten Jahrhunderts zurückreichen. An solchen sei gezeigt, wie die Problematik der Fortschreibung von Niederschlags-Trendverläufen exemplarisch aussieht.

Viele „lange“ DWD Datenreihen von Deutschland beginnen so um 1941 … 1951.
Davor gab es, wie zu vermuten war, aber auch schon (Un)Wetter. Und das zeigt beispielhaft die Langzeit-Messreihe von Bild 19.

Startet man mit dem „typischen“ Beginn der DWD Langzeitreihen, stieg der Extremniederschlag bis 2003 immer nur an:
-Ein typischer „Klimawandelbeleg“.
Berücksichtig man auch die Zeit davor, dann nahm der Starkniederschlag von 1906 … 2003 immer nur ab:
-Ein Beleg des Gegenteils.
Nimmt man mit 30 Jahren Länge meteorologisch „ausreichen lange“ Zeiteinheiten, lassen sich beliebige Trends konstruieren.

Bild 19 Annaburg, Sachsen-Anhalt, Tagesniederschlag 1901 – 8.2017. Quelle: DWD Daten, Station 170

Bild 20 Annaburg, Sachsen-Anhalt, 2-Tagesniederschlag 1901 – 8.2017. Quelle: DWD Daten, Station 170

Betrachtet man für diese Station (und die weiteren) den Verlauf der Starkregenereignisse, zeigt sich am 30-Jahre-Mittelwert ein interessantes Bild, welches man so sicher nicht erwartet hätte.

Bild 21 Annaburg, Sachsen-Anhalt, Jahressumme Starkregen-Ereignisse und gleitende 30-Jahressumme 1901 – 2016. Quelle: DWD Daten, Station 170

Weitere Langzeit-Messreihen

Bild 22 Fürstenwalde – Spree, Tagesniederschlag 1893 – 8.2017. Quelle: DWD Daten, Station 1517

Bild 23 Fürstenwalde – Spree, 3-Tagesniederschlag 1893 – 8.2017. Quelle: DWD Daten, Station 1517

Bild 24 Fürstenwalde – Spree, Jahressumme Starkregenereignisse und gleitende 30-Jahressumme 1893 – 8.2017. Quelle: DWD Daten, Station 1517

Bild 25 Achim-Embsen Niedersachsen, Tagesniederschlag 1891 – 8.2017. Quelle: DWD Daten, Station 23

Bild 26 Achim-Embsen Niedersachsen, Jahressumme Starkregenereignisse und gleitende 30-Jahressumme 1891 – 8.2017. Quelle: DWD Daten, Station 23

Bild 27 Eisenbach Baden-Württemberg, Niederschlag Tageswerte 1901 – 8.2017. Quelle: DWD Daten, Station 1176

Bild 28 Eisenbach Baden-Württemberg, Jahressumme Starkregenereignisse und gleitende 30-Jahressumme 1901 – 8.2017. Quelle: DWD Daten, Station 1176

Beim Starkniederschlag lässt sich schwer etwas über Trends aussagen, leichter sind Wahrscheinlichkeiten anzugeben

Statistisch gesehen, steckt man beim Starkregen damit in einem Dilemma. Die „Klimawandler“ benötigen möglichst stabile Trends, um ihre Theorie zu belegen. Wie schwierig und widersprüchlich dies für Niederschlags-Extremereignisse ist – die keinerlei stabile CO2-Korrelation aufweisen, zeigten die bisherigen Verlaufsbilder und lässt sich in [11] nachlesen.
Deutlich ist auch erkennbar, dass die Starkregen-Ereignisanzahl (im 30-Jahres-Mittelwert) über die Belastung durch wirkliche Extremregenfälle nichts aus- oder vorhersagt.

Sehr stark vereinfachend kann man aus den Rohdaten jedoch zumindest grobe Häufigkeitsabschätzungen herauslesen (Hinweis: Um daraus weitere, statistische Ableitungen zu berechnen, wären die Häufigkeiten zuerst in die richtige Verteilung zu transformieren). Natürlich nur unter der Annahme, dass ein Auftreten zu jedem Zeitpunkt gleich Wahrscheinlich ist und sich die Verteilungsparameter über die Jahre nicht verändert haben (Hinweis: Laut [11] haben sich die Verteilungsparameter zu größeren Streuungen hin verändert).
Dann weiss man zwar nicht, wann ein Starkregen mit bestimmtem Pegel eintritt, man weiss aber ganz grob, ob innerhalb welcher Zeiträume es eintreten kann.

Um ein Gefühl für solche Ereignishäufigkeiten und Jahresabstände zu vermitteln, sind für die Messstelle Annaburg anbei die historischen Häufigkeiten des Tagesniederschlags im Bild 29 tabelliert.
Betrachtet man nur den vom DWD-Mitarbeiter genannten Zeitraum von 15 Jahren, dann sind mit diesem 99,97 % der Ereignisse abgedeckt. Das erscheint viel.
Wegen der extremen Ausläufer der Verteilung verstecken sich in den restlichen 0,02x % leider immer noch 13 Ereignisse, deren Niederschlagsextreme fast bis zur Verdopplung reichen und das alle 23 … 57 Jahre. Die möglichen Streuungen und Ereignishäufigkeiten aus der Verteilung zu berechnen, kann problemlos dicke Studien füllen [11]. Aber alleine die Tabelle zeigt, dass richtig schlimme Starkregen eine Generation auseinander liegen können, aber eben nicht müssen.
Die oft beim Klimawandel zitierten „Erlebnisaussagen“ von „Einheimischen“ [13 sind somit erkennbar wertlos.

Bild 29 Messstation Annaburg, Tagesniederschlag, Klassenhäufigkeiten 1901 – 8.2017

Ein Hinweis zur Niederschlagsanalyse Deutschland in [11] sei angemerkt:
In der Studie wird berechnet, dass sich die Verteilungsparameter der Starkniederschläge seit 1900 verändert haben und extremere Ereignisse damit wahrscheinlicher geworden sind. Wie die bisherigen Verlaufsbilder zeigen, kann man jedoch im Verlauf Zyklen vermuten. Sofern die zutrifft, wäre diese Aussage in der Studie nicht haltbar (man hätte dazu die zyklischen Verteilungs-Parameterveränderungen vergleichen müssen und nicht nur – wie geschehen – die Verteilungen um 1900 und aktuell. Auf dieses Thema ist die wirklich umfangreiche Untersuchung jedoch nicht eingegangen.

Eigentlich „entziehen“ sich Extremereignisse dem CO2-Einfluss

[8] … Das Wissen über Extremereignisse ist in vielerlei Hinsicht immer noch ungenügend. Weder sind die Ursachen von Niederschlagsextremen und ihre Beziehung zur globalen Erwärmung endgültig geklärt noch wissen wir genügend über regionale Trends im 20. und noch weniger über künftige Entwicklungen im 21. Jahrhundert. Dennoch spricht einiges für die Möglichkeit, dass die Hochwasser der jüngsten Vergangenheit, und eventuell auch die Hitzewellen, Dürren und Waldbrände, nicht nur eine Laune der Natur waren, sondern auch durch die globale Erwärmung infolge der gestiegenen Treibhausgaskonzentration mit beeinflusst wurden.
[11] … den Schluss nahe … dass das Elbe-Hochwasser 2002 ein seltenes Ereignis war, das sich nicht dem Trend beobachteter Klimaänderungen zuordnen lässt.

Auch in der umfangreichen (und gut darstellenden) Forschungsstudie [11] ist man sich der Problematik bewusst:
[11] … Die Ergebnisse sind überaus vielfältig und zeigen einmal mehr, dass komplizierte klimatologische Fragen nicht einfach mir ja oder nein beantwortbar sind. Das Klima ist in Deutschland im Beobachtungszeitraum somit je nach Klimaelement, Jahreszeit und Region teils extremer, teils aber auch weniger extrem geworden, und teils sind deutliche Änderungen gar nicht erkennbar
… Mit aller Vorsicht lässt sich aber sagen (vgl. dazu Kap. 1), dass bei der großräumigen Erwärmung der Klimafaktor Mensch dominiert (”anthropogener Treibhauseffekt“ ) und dass damit zusammenhängende Änderungen der Extremereignisse möglicherweise auch dieser Ursache zuzuordnen sind.

Und man muss den IPCC loben, der im letzten Sachstandsbericht (allerdings nur in der Langfassung) zugegeben hat, dass die in früheren Berichten angegebene „Sicherheit“ der Extremereignis-Zunahme durch einen AGW-Klimawandel für die meisten Fälle nicht mehr bestätigt werden kann [9].

Fazit

Bei solchen Datenvariabilitäten der wahren Natur wird klar, warum man sich beim „Klimawandel“ mit Belegen selbst im (angeblich) mit Klimadaten „vollversorgten“ Deutschland so schwer tut. Daran wird daran auch deutlich, dass Stark-Niederschlagstrends noch gar nicht erklärt werden können. Weltweit kann unbesehen ausgeschlossen werden, dass bessere Daten vorhanden wären.
Die Temperaturen zeigen da etwas mehr trendverhalten. Ein Grund, warum sich das ganze „Klimagezeter“ vorwiegend darauf konzentriert (obwohl die Temperaturen in langen Zeiträumen betrachtet, genau so unsicher sind [12]).

Anstelle sich jedoch damit auseinander zu setzen und die Schwächen zuzugeben, ist es viel einfacher, der CO2-Religion voll zu vertrauen und sich alleine auf CO2-Verhinderung zu konzentrieren. Dort gilt alles als Erfolg, was sich in CO2-Kilogramm-Äquivalenten ausdrücken lässt und Belege sind nicht erforderlich:
EIKE, 22.03.2017: Klimamönche*, alternativ: die Klimaelite unserer Behörden

Wie kann man mit ungenauen Daten Simulationen kalibrieren, die dann die ungenauen Daten „richtig“ berechnen

Die etwas sperrige Überschrift soll ein Phänomen beschreiben, welches sich in der „Klimawissenschaft“ findet. Wie es Herr Thüne in EIKE 10. August 2017: Hitzerekorde aus dem Computer! UN-Klimaschutzpolitik ändert nichts am weltweiten Wettergeschehen
kurz beschrieb, werden inzwischen die fehlenden und ungenauen Klimadaten historischer Zeiten durch Klimasimulationen rückberechnet und als die „wahren Daten“ erklärt.

Wer sich öfters Klimadaten ansieht merkt: Man kennt nicht einmal die kurzfristig-historischen Daten genau.
Mit diesen ungenauen Daten werden nun die Klimasimulationen „kalibriert“ und „können“ berechnen, wie die ungenauen Daten der weiteren Vergangenheit „wirklich“ gewesen seinen.
Dass sie es nicht einmal für den aktuellen Zeitraum können, zeigen die DWD Simulationsbilder am Anfang dieses Artikels.

In jeder Wissenschaft würde man darüber laut lachen – aber nicht beim AGW-„Klimaforschen“, wie es Herr Latif bestätigt.
M. Latif: [1] … Forscher haben sich lange schwer getan, extreme Wetterverhältnisse in einen direkten Zusammenhang mit dem Klimawandel zu bringen. Doch neue Methoden der statistischen Auswertung, verfeinerte Klimamodelle und bessere Computertechnik machen Aussagen über Zusammenhänge heute eher möglich …
Quellen

[1] BR.de, Rubrik Wissen, 26.07.2017: Extremwetter durch Klimawandel Mehr Starkregen, Dürren, Hitzewellen und Orkane

[2] DER TAGESSPIEGEL, 23.07.2017: Bundestagswahl : Horst Seehofer kann sich jetzt Koalition mit Grünen vorstellen

[3] EIKE 3. August 2017: Die reichlichen Sommer-Niederschläge 2017 in Deutschland stehen im Widerspruch zur gängigen CO2-Erwärmungstheorie

[4] Berlinjörg (Pseudonym) 17. August 2006: Die homogene 300jährige Berliner Klimareihe(lang!)

[5] EIKE 14.06.2017: Fake News: Diesmal Pfingstunwetter um Hildesheim – neue Einschläge des Klimawandels?

[6] EIKE 18.06.2016: Die Niederschlagsentwicklung in Deutschland und weltweit zeigt keinen Klimawandel-Einfluss

[7] EIKE 20.04.2016: Klimamodelle rekonstruieren Niederschlagsentwicklungen nur mit gröbsten Fehlern

[8] Warnsignal Klima, Kap3.1-3.1.13, Kasang, Kasper: Veränderung regionaler Niederschlagsextreme

[9] EIKE 25.11.2016: Das heißeste Jahr, aber die niedrigste Tornadorate – obwohl nach der Theorie beides gleichzeitig höher werden muss

[10] Christian-D. Schönwiese, Frankfurt/M: WIRD DAS KLIMA EXTREMER? EINE STATISTISCHE PERSPEKTIVE.

[11] Abschlussbericht zum Forschungsvorhaben 201 41 254 im Auftrag des Umweltbundesamtes, Martin Jonas, Tim Staeger und Christian-D. Schönwiese, 2005: Berechnung der Wahrscheinlichkeiten für das Eintreten von Extremereignissen durch Klimaänderungen – Schwerpunkt Deutschland –

[12] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES2k

[13] EIKE 10.05.2017: Die Volkshochschule Hannover und ihre Ausstellung: Wir alle sind Zeugen – Menschen im Klimawandel




NYT ertappt: Dokumente aussortiert, um einen vermurk­sten Artikel zu Klima­wandel nicht zu gefährden

[Einschub des Übersetzers: Dies war am Mittwoch, dem 9. August, also nur einen Tag später, auch die große Titelschlagzeile in der „Süddeutschen Zeitung“, gefolgt von einem Artikel, der fast die ganze Seite eingenommen hat. Man sehe mir nach, dass ich diesen Unsinn nicht gelesen habe. Aber das ist wie im „Neuen Deutschland“ zu DDR-Zeiten oder in der „Prawda“ zu Sowjet-Zeiten: Man werfe der Gegenseite genau das vor, was man selbst tut! Offenbar haben die Redakteure der „Süddeutschen“ in der DDR-Kaderschmiede damals sehr gut aufgepasst!

Alles jetzt Folgende kann also direkt auch für die „Süddeutsche Zeitung“ angenommen werden. Und diese Zeitung wirbt mit dem Slogan „Seien Sie anspruchsvoll!“ für sich!

Ende Einschub.]

Die NYT berichtete, dass ihr ein unveröffentlichter Entwurf des National Climate Assessment NCA [vielleicht ,Bericht zur Klimalage der Nation‘] vorliege, der für das Jahr 2018 zur Veröffentlichung vorgesehen ist. Die Zeitung behauptete, dass der Entwurf „noch nicht öffentlich bekannt gemacht worden sei“ und folgert, dass „die Amerikaner die Auswirkungen des Klimawandels schon jetzt spüren“.

Allerdings veröffentlichte die NYT einen „Entwurf dritter Ordnung“ [a ,third order draft‘] der NCA, welcher bereits seit Januar online geschaltet war. Die NOAA stellte den Entwurf im März online.

Die Zeitung druckte keine formelle Korrektur zu der Zeit, als der Artikel veröffentlicht wurde, und hat auch nicht auf die Nachfrage der The Daily Caller News Foundation DCNF geantwortet, ob noch eine Korrektur veröffentlicht werden würde oder nicht.

„Wir stellen in der Story eindeutig klar, dass dies von der NAS begutachtet worden ist und innerhalb der wissenschaftlichen Gemeinschaft kein Geheimnis war“, sagte NYT-Reporterin Lisa Friedman der DCNF hinsichtlich der Inkonsistenzen. „Der jüngste Entwurf war jedoch nicht öffentlich“.

Dann lud die NYT einen zuvor noch nie gesehenen „fifth order draft“ [etwa: Entwurf fünfter Ordnung] des NCA auf seine Website, jedoch ohne jede Korrektur oder Aktualisierung des Original-Artikels.

Ein genauer Blick auf den Artikel von Friedman zeigt immer noch den öffentlich zugänglichen „Entwurf dritter Ordnung“ als das, was durchgesickert war. Klickt man jedoch auf den Link, erhält man den „Entwurf fünfter Ordnung“.

Quelle: Screenshot der New York Times

„Es ist sehr enttäuschend zu erfahren, wenngleich es auch vollkommen vorhersehbar war, dass die NYT den Bericht eines Entwurfes abschreiben würde, ohne dass zuerst dessen Inhalt mit dem Weißen Haus oder irgendeiner direkt in Klima- und Energiepolitik involvierten Agentur verifiziert worden ist“, sagte ein Mitarbeiter des Weißen Hauses der DCNF. „Wie schon von anderer Seite angemerkt – und das sollte die NYT mitbekommen haben – wurden Entwürfe dieses Reports schon vor Monaten veröffentlicht und weit verbreitet während des Zeitraumes der Kommentierung seitens der Öffentlichkeit. Das Weiße Haus wird sich eines Kommentars vor dem geplanten Termin der Veröffentlichung enthalten“. Soweit der Beamte des Weißen Hauses.

Nach all dem hat die NYT einen „durchgesickerten“ Report gebracht. Aber an der NCA beteiligte Klimawissenschaftler haben gesagt, dass es zwischen den beiden Entwürfen kaum substantielle Unterschiede gebe. Die endgültige Fassung wird nicht vor dem nächsten Jahr erwartet.

Die Washington Post fügte zu den Bemerkungen Hayhoes hinzu, dass „die Version beim Weißen Haus der fünfte Entwurf ist, aber Personen, die beide Versionen kennen sagen, dass es keinen substanziellen Unterschied gibt.“

Link: https://wattsupwiththat.com/2017/08/09/nyt-caught-switching-out-documents-to-fix-botched-climate-change-article/

Übersetzt von Chris Frey EIKE