1

Politische Korrektheit und Neusprech: Werkzeug des Totalitarismus

Dave Ball

Politische Korrektheit ist eine linke Strategie der Gedankenkontrolle, um jegliche Gedanken oder Handlungen zu unterdrücken, die im Widerspruch zum radikalen Sozialismus stehen. Es ist die Aufhebung der Meinungsfreiheit und das Recht, eine Meinung zu vertreten, die der etablierten linkssozialistischen Doktrin zuwiderläuft.

Politische Korrektheit kam nicht einfach so; Es wurde im Laufe der Zeit sorgfältig ausgearbeitet. Radikale Linke haben vor langer Zeit erkannt, dass ihr auf Emotionen basierendes Dogma einer logischen Prüfung nicht standhalten kann. Die einzige Lösung, um den radikalen Sozialismus zu schützen, bis er seine volle Entwicklung zum Totalitarismus vollzogen hat, bestand darin, alle gegensätzlichen Gedanken und Äußerungen auszublenden. In diesem Fall setzte die linke Kabale aus Küsteneliten [hier Anspielung auf die großen Städte in USA: New York, Washington, Los Angeles …] Akademikern und Profit-Centern der selbst behaupteten Opfer, die von den stets treuen Mainstream-Medien unterstützt wurde, gut geschliffene Waffen wie Indoktrination von Kindern, Massenscham und Schreien gegen Dissens ein, während sie mit gespielter konservativer Apathie die politische Korrektheit fest in der Massenpsyche verankert.

Es ist nicht nur die Unterdrückung der gegenteiligen Rede, was an politischer Korrektheit und ihren radikalen Praktizierenden so beunruhigend ist. Es auch die Absicht, die Fähigkeit zu eliminieren, gegenteilige Gedanken überhaupt zu denken.

Für diejenigen, die mit George Orwells klassischem dystopischen Roman 1984 [fiktionale, in der Zukunft spielende Erzählung o. Ä. mit negativem Ausgang] nicht vertraut sind. Ozeanien ist ein Megastaat, einer von drei Staaten, die nach einem globalen Krieg auf der Erde existieren. Es wird von „Der Partei“ regiert. Ozeanien ist eine Metapher für das, was unter einer Einparteien-Herrschaft passieren könnte. Die Regierung, die die Partei ist, ist das Modell der Regierung, die sich bis hin zum Totalitarismus entwickelt. Das individuelle Denken und sogar das Individuum werden vollständig unterdrückt. Die Gesellschaft wird vollständig von ihrem Herrscher(n), der Partei, bestimmt. Die Gedankenpolizei sorgt dafür, dass sich alle an die Befehle von Big Brother und der Partei halten.

Das Hauptwerkzeug, mit dem das individuelle Denken beseitigt wird, ist eine neue Sprache namens „Newspeak“ (Neusprech). In einem Anhang zum Buch beschreibt Orwell das Neusprech und seine Prinzipien. Von Bedeutung ist das Konzept, dass „das Denken die Sprache korrumpiert, die Sprache auch das Denken korrumpieren kann“. In 1984 wird Neusprech verwendet, um die Sprache einzuschränken, anstatt die Gedanken und Ideen zu erweitern. Die Quintessenz ist, dass etwas nicht existiert, wenn es kein Wort für dafür gibt. Beispielsweise gibt es in Neusprech kein Wort für Freiheit, so dass das Konzept der Freiheit nicht existieren kann. Unsere Sprache existiert, um das zu beschreiben, was wir als Realität betrachten. Wenn diese Sprache durch eine sich verengende Sprache ersetzt wird, erobert die Sprache die Kontrolle über die Realität. Wenn Wörter die Kontrolle über die Realität haben, wird rationales Argumentieren unmöglich.

Die Funktionsweise der politischen Korrektheit ähnelt unheimlich Neusprech. Wörter, die nicht-Linke Konzepte widerspiegeln, werden geächtet und oft durch bedeutungslose und nicht definitive Wörter ersetzt.

Die Verteidiger der politischen Korrektheit (PC) werden Ihnen mitteilen, dass Begriffe egalitär, inklusiv und nicht verletzend sein sollen („verletzend“ ist selbst ein PC-Wort). Die Praktiker werden Ihnen freimütig sagen, dass das größere PC-Konzept darin besteht, eine neue Denkweise zu entwickeln, die zu neuen Handlungsweisen führt. Sprache verändert Gedanken und Gedanken verändern Handlungen. Die Befürworter von PC werden Ihnen sagen, dass immer mehr Menschen, die mit PC-Begriffen sprechen, eine neue Art und Weise akzeptieren, Dinge zu tun. Natürlich ist das deren Umschreibung für das Ziel, dass die Leute akzeptieren werden, Dinge auf ihre Weise zu tun.

Die Befürworter der politischen Korrektheit werden Ihnen sagen, dass die Absicht der gewünschten Verhaltensänderung darin besteht, den Sexismus zu beseitigen; Rassismus; Homophobie; Transgenderphobie; und viele andere Phobien und Ismen, zu denen vermutlich Konservatismus, Patriotismus, Nationalismus, Christentum und jede andere nicht-linke Doktrin gehören ebenfalls. Die Anmaßung ist, dass die Verhaltensweisen oder Denkprozesse, die sie beseitigen wollen, tatsächlich existieren und schlecht sind.

Es gibt in dieser Nation viele rationale Menschen, die zum Beispiel nicht der Meinung sind, dass Homosexualität und Transgenderismus entweder angeboren oder gut sind und dass es diese Verhaltensweisen sind, die modifiziert und nicht angenommen werden sollten.

Rassismus ist möglicherweise das am häufigsten verwendete Wort in den Medien und bedeutet daher so gut wie nichts, da es sich um einen Begriff handelt, der für Kommentare oder Kritik verwendet wird, die Linke nicht mögen oder auf die sie keine Antwort haben. Das gleiche gilt für Sexismus. Die Leute sind männlich und weiblich. Sie sind er und sie. Warum nicht auf jeden als solchen verweisen?

Andere Begriffe werden von der PC-Polizei als „verletzend“ definiert. Was genau ist das? Die Verbindung zwischen vielen Begriffen und ihrem angeblichen „Schaden“ ist oft zu abstrakt, um sich das überhaupt vorstellen zu können.

Wir haben unseren Sinn für Humor verloren, weil es jetzt politisch inkorrekt ist, sich über etwas lustig zu machen. PC-Leute haben vergessen, wie man lächelt und lacht. Überempfindlichkeit wird unserer Bevölkerung von Kindheit an eingeimpft. Es ist ein notwendiger Vorläufer des Glaubens an die politische Korrektheit.

Beispiele für PC-Lächerlichkeit gibt es zuhauf. Warum zum Beispiel sind die Namen der Baseballteams von Atlanta und Cleveland, die „Braves“ und die „Indians“ für die Indianer schmerzhaft? Warum werden Indianer „Native Americans“ genannt, obwohl sie von woanders her kamen? Warum wird jemand als Rassist bezeichnet, weil er den Abgeordneten Elijah Cummings darauf hingewiesen hat, dass der Teil von Baltimore, den dieser vertritt, ein abscheuliches Drecksloch ist? Denn das ist es. [Rattenplage, Unrat, hohe Selbstmordrate und Kriminalität]. Die Gegend würde genauso heruntergekommen sein, egal ob Cummings schwarzer Hautfarbe ist oder nicht. Warum werden Hinweise darauf, wie lächerlich und irreführend die „Squad“, der vier frischgebackenen demokratischen Vertreterinnen ist, als rassistisch bezeichnet? Sie sind lächerlich und irregeführt, egal welche Farbe oder welches Erbe sie haben. Warum müssen sexuell dysphorische Personen, die sich fälschlicherweise als transgender bezeichnen, mit einem Dutzend Personalpronomen angerufen werden, die sich auch noch häufig ändern, wenn ihr tatsächliches Geschlecht entweder männlich oder weiblich ist und es dafür gut etablierte Pronomen gibt?

Die politische Korrektheit erreicht auf unseren Hochschulen neue und lächerliche Höhen. Zu den Wörtern, die jetzt in verschiedenen College-Handbüchern verboten sind, gehören „Suppennazi“, „illegaler Einwanderer“, „Dritte Welt“, „lahme Ausrede“, „man-up“ [~ sei ein Mann], „verrückt“, „Psycho“, „Kreuzritter“, „Zwerg“. Eskimo „und“ Großvater „. Ebenfalls auf der gesperrten Liste stehen „Amerika“ und „Amerikaner“ [In Deutschland …]. Einen Nicht-PC-Begriff zu verwenden, ist verrückt.

Während einige der spezifischen Wörter für rationale Menschen amüsant sein mögen, ist das Konzept von Bedeutung. Indem die Linken männliche und weibliche Pronomen eliminieren, schaffen sie eine Unisex-Gesellschaft, die die tatsächlichen Unterschiede zwischen Männern und Frauen verwischt. Die Normalisierung von Homosexualität und Transgenderismus ist ebenfalls ein Schritt in diese Richtung. Wenn wir Wörter wie „Fremde“ eliminieren, bewegen wir uns in Richtung des begehrten Ein-Welt-Konzepts der Linken. „Rassistisch“ und „hasserfüllt“ wird auf alles angewendet, was nicht den linken Vorlieben und deren Standpunkten entspricht.

Schließlich wird Neusprech das Normale sein. Neusprech ermutigt Männer, sich um die Teilnahme am Frauensport zu bemühen. Neusprech lässt Männer [die behaupten, sich als Frauen zu fühlen,] in weibliche Umkleideräume und Badezimmer. Neusprech verbietet konservative und traditionelle Sprecher an unseren Standorten. Neusprech ist eine unüberwindliche Mauer zwischen Gruppen polarisierter Menschen. Neusprech ist die Sprache des Totalitarismus.

Wenn Wörter verschwinden, wird die Breite des Denkens verengt. Erinnern Sie sich, als die große Diskussion über „Miss“, „Mrs.“ und „Ms.“ ging? [Fräulein, Frau, Frau] Wie lange wird es dauern, bis wir in den Neusprech Zustand des doubleplusungood [~doppeltes-Plus-ungutes] gelangen?

Dave Ball ist Autor konservativer politischer Kommentare, Gast in politischen Talkshows, gewählter Beamter und gehört dem Kreisparteitag an.

Gefunden auf The American Thinker vom 01.08.2019

Übersetzt durch Andreas Demmig

https://www.americanthinker.com/articles/2019/08/political_correctness_tool_of_totalitarianism.html

 

***

Wer im Web nach dem Wort „Neusprech“ recherchiert, bekommt inzwischen eine große Auswahl angeboten.

Ich habe mir nur die ersten davon oberflächlich angesehen, hier eine mir aufgefallene Auswahl

 

2016 – „Neusprech“ neu

Gedankenkontrolle demokratisch: Die Tyrannei des Gutdenk. – Josef Joffe

https://www.zeit.de/2016/04/sprache-george-orwell-kontrolle-denkverbote-zeitgeist

 

2013 – Neusprech – Wie man ohne Argumente überzeugt

http://elfenbeinbungalow.de/2013/05/26/neusprech-wie-man-ohne-argumente-uberzeugt/

 

Ein Buch dazu:

2012 – Sprachlügen: Unworte und Neusprech von »Atomruine« bis »zeitnah

von Kai Biermann  (Autor), Martin Haase  (Autor)

https://www.amazon.de/Sprachl%C3%BCgen-Unworte-Neusprech-%C2%BBAtomruine%C2%AB-%C2%BBzeitnah%C2%AB/dp/3596194970/ref=sr_1_1?ie=UTF8&qid=1353076441&sr=8-1

der vorgenannte, erste Autor, betreibt auch einen Blog dazu

https://neusprech.org/




Wasser­knappheit? Wie die F.A.Z. ihren Ruf selbst zerstört

Noch fließt Wasser aus dem Hahn“ lautete die Überschrift eines „F+“-Artikels der FAZ-Journalistin Mechthild Harting, der am 07.08.2019 an prominenter Stelle in der Online-Ausgabe der FAZ erschien. Wobei die Dachzeile „Klimawandel“ dem Leser sofort suggeriert, dass es sich auch hierbei schwerpunktmäßig um eine Folge des Klimawandels handelt. Denn dieser, so wird der FAZ-Redakteur Joachim Müller-Jung nicht müde zu betonen, bedroht nicht nur unsere Existenz, sondern sogar unseren Planeten als Ganzes.

Gefährdet der Klimawandel die Wasserversorgung der Metropolregion?

Liest man in die als „Lockspeise“ freigegebenen Zeilen hinein, so steht dort allerdings etwas ganz anderes: Grund für die befürchtete Wasserknappheit sind nämlich offenkundig andere Ursachen. Die Rhein-Main-Region wächst und damit eben auch ihr Bedarf an Wasser. Doch schon bevor das erwähnt wird, beginnt der zweite Satz schon wieder mit den Worten: „Mit Blick auf den Klimawandel…“ Erst danach wird darauf hingewiesen, dass die Zahl der Einwohner allein in den letzten fünf Jahren um rund 130.000 gewachsen ist und auch für die nächsten Jahre kräftiger Zuzug erwartet wird. Wenn dann noch hintereinander zwei trockene Sommer drohen, müsse man sich Sorgen um die Trinkwasserversorgung machen.

Oder liegt es eher an der Übernutzung der Wasservorräte?

Weiter unten erfährt man dann, dass die Trinkwasserversorgung der Region letztmals in den 90er Jahren an ihre Grenzen stieß, als starkes Bevölkerungswachstum und gleichzeitig mehrere trockene Sommer zusammenfielen. Seither war alles im Lot, selbst im extrem niederschlagsarmen Jahr 2003, als in Deutschland nur knapp über 600 mm/a Niederschlag fielen (statt der im Mittel üblichen 800 mm/a). Die jetzt geäußerten Befürchtungen haben daher damit zu tun, dass die Bevölkerung und damit ihr Verbrauch stark zugelegt haben. Dennoch wurde in diesem Zusammenhang der Klimawandel als Ursache für Wasserverknappung in den Vordergrund gerückt.

Die weitere Lektüre hinter der Bezahlschranke kann man sich nach dieser Einleitung schenken. Getreu der üblichen journalistischen Vorgehensweise, dass das Wesentliche eines Beitrags ganz vorne steht und man die hinteren Abschnitte je nach Platzbedarf getrost „abschneiden“ kann, braucht man sich den Rest nicht mehr anzutun und kann dadurch Geld sparen. Konfrontieren wir einfach das offensichtliche Hauptargument „Klimawandel“ mit den nachprüfbaren Fakten.

Der Klimatrend bringt….mehr Regen und mehr Wasser!

Die FAZ-Autorin Mechthild Harting ist offenkundig von der Korrektheit jedweder Klage, die von interessierter Seite mit dem Argument „Folge des Klimawandels“ vorgetragen wird, so überzeugt, dass sie die Pflicht jedes Journalisten – die sorgfältige, kritische und erforderlichenfalls investigative Überprüfung der Fakten – nicht mehr wahrnimmt. Hätte sie sich beispielsweise beim Umweltbundesamt umgesehen, so hätte sie sofort feststellen können, dass die Niederschläge in Deutschland in den Jahren seit 1881 keinesfalls zurückgegangen sind. Im Gegenteil, sie haben sogar deutlich zugelegt, wie die Trendlinie in Bild 2 zeigt.

Bild 2. Seit 1881 hat die durchschnittliche jährliche Niederschlagsmenge um rund 9 % zugenommen und liegt jetzt bei etwa 800 mm/a (Grafik: UBA)

Ein einziger Blick hätte also genügt, um das „Klimawandel“-Argument als vorgeschoben zu erkennen. Das Klima wird in Deutschland seit 138 Jahren immer regnerischer. Was wir mit dem trockenen Jahr 2018 und den beiden Hitzewellen 2019 aktuell haben, ist dagegen Wetter. Und Wetter ist nun einmal instabil, chaotisch und nicht langfristig vorhersehbar. Das hat man schon in biblischen Zeiten erkannt, nachzulesen im Gleichnis von den sieben fetten und den sieben mageren Jahren. Klima ist dagegen der langfristige statistische Trend über Zeiträume von mindestens 30 Jahren. Beides sollte nicht verwechselt werden. Ist das jetzt nur ein nebensächlicher Lapsus der Redaktion oder steckt mehr dahinter?

Auf dem Weg zum „Neuen Deutschland“ der Rhein-Main-Region?

Wer die FAZ regelmäßig liest, kann erkennen, dass sich in der Redaktion seit Jahren schleichend eine Tendenz ausgebreitet hat, die man als Meinungsjournalismus bezeichnen kann. Auch im „Neuen Deutschland“ der DDR durften in keinem nennenswerten Beitrag Hinweise auf die Überlegenheit und die Erfolge der kommunistischen Staatsdoktrin fehlen. Fakten, die diesem Weltbild nicht entsprachen, wurden entweder negiert oder so hingebogen, dass es zur vorgefassten Meinung passte.

Mit Blick auf das Klima ist bei der FAZ die gleiche Art von Meinungsjournalismus zu beobachten. Die Klimaentwicklung wird unter Wissenschaftlern durchaus unterschiedlich beurteilt, seitens der Redaktion werden aber fast nur solche Aussagen aufgegriffen, die in das aktuell vorherrschende Stimmungsbild passen. Man kann mit Fug und Recht von „Klima-Populismus“ der FAZ sprechen. Dass die Gegenargumente von teils namhaften Wissenschaftlern kommen, wird ignoriert. Stattdessen kommen sogar „Fridays for Future“ Youngster als Artikelautoren zu Wort.

Die anhand des hier besprochenen Artikels aufgezeigte ideologisch verfälschte Darstellung ist deshalb kein Lapsus, sondern hat Methode. Sie entspricht einer politisch-ideologischen Agenda der Blattmacher, die ihre Journalisten in dieser Richtung „motivieren“. Anders ausgedrückt: Die FAZ wandelt sich zusehends zu einem Agitprop-Organ der Verkünder der Klimaapokalypse. Und stuft so entstandene Beiträge zugleich als so wertvoll ein, dass man dafür eine Bezahlung erwartet.

Fred F. Mueller




Die Infantilisierung Deutschlands

Am 3.8.2109 um 15:26 meldete ZDF-heute Erhellendes über einen nobelpreiswürdigen Ansatz von Alexander Dobrindt, als ehemaligem Verkehrsminister der GroKo und Vorsitzenden der CSU-Landesgruppe: Die CSU will CO2-Einsparungen mit Anreizen für  Konjunkturwachstum verbinden.

Zitat ZDF: Das Ziel sei: „Mehr Wachstum und weniger CO2.“ Das sagte der CSU-Landesgruppenchef im Bundestag, Alexander Dobrindt, der „Welt“. Die doppelte Herausforderung von Konjunktur und Klima könne „zu einer doppelten Chance werden, wenn wir beides miteinander verbinden.“ Die CSU will Arbeitnehmer entlasten und nachhaltige Mobilität fördern. Zudem sollen Milliarden in Klimainnovationen und Klimainvestitionen gesteckt werden. Zitatende ZDF.

Bei diesem genialen Plan kann nur göttliche Eingebung im Spiel sein, so wie sie schon der Dienstmann Aloisius nach seinem Ableben erfuhr. „Ha-ha-lä-lä-lu-u-uh – – Himmi Herrgott – Erdäpfi – Saggerament – – lu – uuu – iah!“ sang er im Himmel auf der Harfe so lange, bis ihn der Herrgott wieder ins Hofbräuhaus ließ, wo er noch heute zu finden ist.

Lieber Herr Dobrindt, falls Sie diese Zeilen lesen sollten, bedenken Sie bitte, dass Wachtum stets mit mehr Energieverbrauch verbunden ist – das ist so etwas wie naturgesetzlich. Und mehr Energieverbrauch, also, naja, naja, .. haben Sie’s? Ja, Heureka, Sie haben es, das bedeutet stets und unvermeidbar mehr CO2-Emissionen. Allenfalls mit weitgehend emissionsfreien Kernkraftwerken ließe sich das deichseln, aber die sind schließlich Teufelswerk – auch in Bayern. Lieber Herr Dobrindt, wir gratulieren daher schon einmal für Ihre göttliche Eingebung dieser genialen Verbindung von Weihwasser (CO2) mit dem Teufel (Wirtschaftswachstum). Hätte Sie damals bei der Maut doch auch die göttliche Eingebung geleitet – aber man kann ja nicht alles haben. Wir würden uns natürlich freuen, wenn Sie uns die technischen Details Ihres göttlichen Ratschlags mitteilten und gratulieren Ihnen schon einmal zum sicher kommenden Doppel-Nobelpreis in Physik-Ökonomie.

Nun zu Ihrem neuen Landesvater Markus Thomas Theodor Söder: In der Tagesschau 29.07.2019, Inland, Söders grüne Agenda verlangt Ihr Landesvater die Verankerung von Klimaschutz im Grundgesetz und folgt damit einer gleichlautenden Forderung der Grünen. Zur letztgenannten Partei fällt dem Autor nur noch der schöne Beitrag von „Robert von Loewenstern, Jede Batterie hat zwei Polen: Kathole und Synode“ in Achgut vom 04.08.2019 (hier) ein.

Lieber Herr Söder, wir erlauben uns nun in aller Höflichkeit, der bei einem Bayerischen Landesfürsten geboten ist, an ein paar unwesentlichen Einschränkungen Ihres Plans zu erinnern: Klima ist leider kein Wetter, sondern der lokale statistische Mittelwert von Wetter über mindestens 30 Jahre, so gemäß der Weltmeteorologieorganisation (WMO). Ein Globalklima gibt es nicht, nur Klimazonen von tropisch, subtropisch, gemäßigt bis polar. Welches Klima, lieber Herr Söder, gedenken Sie durchs Grundgesetz zu schützen? Das Bayerische oder das Deutsche, das der Sahara, das Sibirische, oder …..?

Dummerweise ändern sich die Klimata unterschiedlicher Erdregionen nicht einmal gleichsinnig. So wird die Antarktis aktuell kälter, die Arktis dagegen wärmer [1]. Immerwährender Klimawandel ist naturgesetzlich, konstantes Klima gab es noch nie. Weil diese Einwände ewiger Nörgler leider doch einige noch mitdenkende Verfassungsrichter in unserer Republik stören könnten, erlauben wir uns Ihren Grundgesetzvorschlag dahingehend zu vervollkommnen, besser den Schutz des Wetters im Grundgesetz zu verankern – denn Klima ist schließlich dessen statistisches Mittel. logisch, oder nicht, Lieber Herr Söder? Wir hoffen sehr, Ihnen damit weitergeholfen zu haben.

Da, ebenso wie bei Ihrem geschätzten Kollegen Dobrindt, auch bei Ihnen nur göttlicher Ratschlag à la Aloisius im Spiel gewesen sein konnte, wären wir Ihnen dankbar, wenn Sie uns mitteilten, wie diese himmlische Eingebung im Detail verwirklicht werden soll. Leider müssten Sie bei grundgesetzlicher Wirkung auch noch Fachleute, wie Prof. Dr. Heinz Miller, ehemaligen Vize-Direktor des Alfred-Wegener Instituts (AWI) in Bremerhaven wegen Widerspruch gegen das Grundgesetz einsperren lassen, der zu Klimaschutz sagte [2]:

Wer von Klimaschutz redet, weckt Illusionen. Klima lässt sich nicht schützen und auf einer Wunschtemperatur stabilisieren. Es hat sich auch ohne Einwirkungen des Menschen oft drastisch verändert. Schlagworte wie Klimakollaps“ oder Klimakatastrophe“ sind irreführend. Klima kann nicht kollabieren, die Natur kennt keine Katastrophen“.

Quellen:

[1] P. Chylek et al., Geophys. Res. Lett. 37, L08703, 2010 (https://tinyurl.com/y8yg4nfw)

[2] ZEIT Online, 7.Juni 2007 (http://www.zeit.de/2007/24/P-Heinz-Miller)




Infantilität, Extremismus und Hysterie – Greta Thunbergs „Smile for future“-Klimagipfel in Lausanne

Kürzlich tagte eine Strategie-Konferenz der Fridays for future-Demonstranten in der französischen Schweiz mit etwa 450 Teilnehmern aus 37 Ländern. Interessanterweise berichten viele Medien nicht nur wie üblich affirmativ, sondern beleuchten auch interne Streitigkeiten. Die Schweizer Presse, das neue „Westfernsehen“, ist erwartungsgemäß am besten. Hier: der Blick.

Das Blatt berichtet, daß die Teilnehmer nicht nur inhaltlich erbittert über delikate Punkte stritten. So wollten einige FFFler unbedingt radikaler werden und wie andere Organisationen, z.B. Extinction Rebellion, kriminell werden (wir berichteten).

Offenbar sind große Teile der Bewegung nicht nur Klimaschützer, sondern wollten auch noch andere revolutionäre Objekte „retten“. Ein deutscher Teilnehmer meint daher:

„Der Konsens ist: Der Kapitalismus muß weg.“

Zum Glück sind die Osteuropäer unter den Konferenzteilnehmern, wenn man von ihrer fixen Klima-Idee absieht, noch bodenständig und äußerten ihre historisch bedingten Ängste vor deutschen Kommunismus-Ideen.

Auch ganz allgemein schienen die Anwesenden politisch recht heterogen zu sein. Es gab sehr viele, teils sehr spezielle Forderungen, auf die man sich kaum einigen konnte.

Eher amüsant war die Kritik am Tagungsland Schweiz, das bekanntermaßen eines der teuersten Europas ist. Warum man daher gerade Lausanne als Konferenzort wählte, ist schwer nachvollziehbar. Vielleicht, um das Gefühl des Eliteseins zu erzeugen? Die UNO und das Weltwirtschaftsforum schätzen ja eidgenössische Schauplätze. Übersehen hatte man dabei allerdings die meist sehr beschränkten Mittel gerade der Osteuropäer und die Tatsache, daß die Schweiz nicht Mitglied der Europäischen Union ist und daher kaum bezahlbare sogenannte Roaming-Gebühren fürs mobile Internet anfielen. Das Essen immerhin war für die Teilnehmer wohl gratis oder in der Konferenzgebühr enthalten. Dafür schmeckte es den verwöhnten Kindern nicht, weil nicht „abwechslungsreich“ genug.

Ein weiterer grotesk-amüsanter Punkt in der Berichterstattung war das Bedürfnis der Teilnehmer, über ihre Gefühle statt über die Planung zu sprechen. Das geht soweit, daß jeder, der sich „unwohl“ fühlte und mit den Händen ein Dächlein formte, sofort seine Befindlichkeiten kundtun durfte. Offenbar gab es auch viel Anlaß für emotionale Konflikte, da ein Mädchen weinend aus dem Plenum lief und sich im Flur auf den Boden warf. Greta und andere folgten ihr und trösteten die Mitstreiter. Damit die Journalisten davon nicht allzu viel mitbekamen, wurden sie laut Welt auf Gretas persönliche Weisung „aus dem Saal geworfen“. Konkret meldet das Blatt:

Sie machte die Medien für die schlechte Stimmung auf dem Kongress verantwortlich und rief deshalb dazu auf, die Journalisten auszuschließen, „weil sie es sonst so darstellen, als hätten wir Streit“.

Nun, hatten sie ja auch. Greta Thunberg scheint trotz ihrer 16 Lenze schon einiges über postdemokratische PR gelernt zu haben. Aber bitte: Uns „Klimaleugnern“ kann es nur recht sein, wenn die Totengräber unserer Industriezivilisation sich bei den ihnen sonst treu ergebenen Medien selbständig unbeliebt machen. Vielleicht merken die Aktivisten in den Redaktionen ja dann etwas.

Nebenbei: Der Pro7-Star Joko Winterscheidt schaute auch kurz bei der Konferenz vorbei. Die Kollegen von Große Freiheit TV haben seine Stippvisite zum Anlaß genommen, sich anzuschauen, ob er selber klimafreundlich lebt. Instagram lieferte hier ähnlich wie im Fall von #langstrecken-Luisa höchst interessante Resultate.

Fazit: Die Teilnehmer der Konferenz zeigten das typische Verhalten verzogener Millennials, das wir von den FFF-Kindern in Deutschland kennen. Ichbezogen, konsumverwöhnt, undiszipliniert, unkritisch gegenüber extremistischen Gesinnungen, und hysterisch. Mit solchen Persönlichkeiten ist kein Staat zu machen, nur eine Krise. Man fragt sich allerdings, wie derart labile und unselbständige Menschen die kommende hausgemachte Krise meistern wollen.

Greta schaute sich nach Lausanne unser Hambach an und macht sich nun per Hochseeyacht auf den Weg in die USA, wo sie Präsident Donald Trump nicht treffen will. Wir berichten noch.

Auch der kritische Philosoph Dushan Wegner, ein gebürtiger Osteuropäer und somit bodenständig, analysiert die Gretakonferenz auf seiner Seite sehr schön:

Lasset die Kinder doch Kinder sein!




Ist die institutionalisierte Wissenschaft tot?

“Intellectual freedom is so important. It allows academics to express their opinions without fear of reprisals. It allows a Charles Darwin to break free of the constraints of creationism. It allows an Albert Einstein to break free of the constraints of Newtonian physics. It allows the human race to question conventional wisdom in the never-ending search for knowledge and truth.”

Judge Salvatore Vasta, Brisbane, Australia

“Intellektuelle Freiheit (Wissenschaftsfreiheit) ist sehr wichtig. Sie ermöglicht es, dass Akademiker ihre Meinung sagen, ohne Angst vor Repressalien haben zu müssen. Sie hat es Charles Darwin erlaubt, die Fesseln des Kreationismus zu sprengen. Sie hat es Albert Einstein erlaubt, die Zwänge von Newtons Physik hinter sich zu lassen. Sie erlaubt es der Menschheit konventionelle Wahrheiten zu hinterfragen in ihrer nicht endenden Suche nach Wahrheit.“

Der australische Richter Salvatore Vasta hat dies im Verfahren Peter Ridd gegen James Cook University gesagt, das Peter Ridd gewonnen hat.

Peter Ridd war lange Jahre der Leiter der Physik-Abteilung an der Jams Cook University in Middlesbrough, Queensland, Australia. Er wurde unter einer Reihe von Vorwänden entlassen, weil er es gewagt hat, der Mythe, nach der das Great Barrier Reef infolge des von Menschen verursachten Klimawandels stirbt oder längst gestorben sei, zu widersprechen und die Fakten gegen die Ideologie zu setzen. Dazu kommen wir unten.

Wenn Richter Institutionen der Wissenschaft an die Bedeutung von intellektueller Freiheit, von der Freiheit erinnern müssen, vom Mainstream abweichende Ideen nicht nur zu haben, sondern auch zu formulieren, zu prüfen und gegebenenfalls gegen den Mainstream zu stellen, dann ist es nicht mehr fünf vor Zwölf, dann ist es fünf nach Zwölf und die Frage: „Ist die institutionalisierte Wissenschaft den ideologischen Tod gestorben?“, sie ist mehr als berechtigt.

Die Indikatoren, die dafür sprechen, dass das, was an Institutionen der Wissenschaft, was an Hochschulen betrieben wird, nicht Wissenschaft, sondern Ideologie ist, sind zahlreich. Wir wollen nur einige davon nennen, die wir für Deutschland gesammelt haben:

Hochschulen haben sich zu sozialistischen Gefängnissen entwickelt. Wer den herrschenden Glauben nicht teilt, der wird vom in ASten organisierten Studentenmob attackiert und neuerdings vor Amtsrichter gezerrt, wie dies Ulrich Kutschera widerfahren ist.

Politdarsteller bedienen sich willfähriger Mitglieder der institutionalisierten Wissenschaft, um ihren Ideologien einen vermeintlich wissenschaftlichen Segen zu verschaffen, so dass Junk, wie die Mitte-Studien genutzt werden kann, um den politischen Gegner zu bekämpfen. Institutionalisierte Wissenschaft ist zum Legitimationsbeschaffer für ideologische Zwecke verkommen.

Angeblich wissenschaftliche Zeitschriften haben ein peer review System aufgebaut, das vornehmlich als Gatekeeper und Kontrollinstanz wirkt, um die Publikation vom Mainstream abweichender Beiträge zu verhindern. Die Klimawandelmafia, zu der wir noch kommen, ist dafür bekannt.

Das Peer Review System wird gegen jede Realität als Qualitätsmerkmal von Beiträgen aufgebaut, ungeachtet der Tatsache, dass es in unzähligen Fällen gelungen ist, willkürlich von Textprogrammen zusammengeschnipselte Texte als „wissenschaftliche Texte“ auszugeben und den angeblichen „Peer Reviewed Zeitschriften“ unterzuschieben.

Die Hochschulen sind voller angeblicher Fächer, deren Vertreter keinerlei Idee davon haben, welches Erkenntnisinteresse sie verfolgen oder welche Fragestellung sie überhaupt bearbeiten. Es handelt sich dabei um Schwätzperten-Fächer, die installiert wurden, um ernsthafte Wissenschaft in einem Meer von Blödsinn zu ertränken. Der prominenteste Vertreter der Schwätzperten-Fächer sind die Gender Studies, deren Angehörige nicht einmal Beiträge, die offenkundiger Blödsinn sind, erkennen.

In den Naturwissenschaften ist es der Klimawandelmafia in Zusammenarbeit mit Regierungsstellen in vielen Ländern gelungen, eine Dynamik des Opportunismus in Gang zu setzen, die es Forschern, die unter normalen Umständen nie ein Funding erhalten hätten, erlaubt, ein solches zu erhalten, einfach durch den Zusatz „Klimawandel“. Wer sich daran beteiligt, den Hoax vom menschengemachten Klimawandel zu verbreiten, dem ist eine staatliche Finanzierung seiner angeblichen Forschungsarbeiten ebenso sicher wie Geschenke in materieller (Zusatzgehalt durch Mitgliedschaft in Gremien, die den Klimawandel einschätzen sollen) und immaterieller Art (Nachfrage von Mainstreammedien und dergleichen) sicher. Der Gravy Train rollt, die Klimawandelindustrie ist ein Geschäft im Bereich von dreistelligen Milliardenbeträgen.

Wenn sich Organisationen, wie die institutionalisierte Wissenschaft zu ideologischen Gefängnissen entwickelt haben, deren Insassen Legitimationsdienste für Politdarsteller erbringen, und ansonsten die politischen Moden mit ihrer vermeintlichen Forschung bedienen, wenn also immer mehr institutionalisierte Wissenschaftler ein Interesse daran haben, den Zustand der Polit-Prostitution aufrecht zu erhalten, dann sind Abweichler, Querdenker, dann sind Wissenschaftler, also Individuen, die an einer Fragestellung arbeiten und eine Lösung für reale Probleme suchen, nicht nur störend, sie werden zur Gefahr, denn mit ihnen kommt die Drohung, die Pseudo-Wissenschaft der Andienenden bloßzustellen und damit die Gefährdung des eigenen (zumeist eingebildeten) Status und vor allem Einkommens.

Deshalb gibt es an Hochschulen Kontrollmechanismen, die in der Tradition des Abklopfens von Inhalten auf Wort- und Bedeutungstreue mit den Aussagen des Marxismus-Leninismus in DDR und Sowjetunion stehen. Blockwarte und selbsternannte Sauberfrauen (Es sind heute in der Mehrzahl Frauen mit einem „Gender“-Hintergrund) versuchen, die Einheitsfront der Gläubigen aufrechtzuerhalten und Zweifler gleich im Keim zu ersticken. Die folgende Geschichte von Peter Ridd, die er selbst zu einem Zeitpunkt erzählt hat, zu dem er den Rechtsstreit, den wir zum Einstieg in diesen Post thematisiert haben, noch nicht gewonnen hatte, ist ein Beispiel für das, was Dr. habil. Heike Diefenbach „Schließungsprozesse“ nennt, die letztlich in der Übernahme von Hochschulen durch Ideologen ihren Niederschlag finden und dazu führen, dass Wissenschaft langsam verendet.

Denken Sie bitte nicht, die Geschichte sei eine australische Geschichte, eine Geschichte, die sich in Deutschland nicht ereignen kann. Ein Beispiel: Vor einigen Jahren erhielten wir eine eMail von einem Wissenschaftler, dessen Kritik am Genderismus und dessen Arbeiten, in denen einige Mythen des Genderismus zerstört wurden, wir auf ScienceFiles besprochen hatten, positiv besprochen hatten, mit der Bitte, seinen Namen doch aus den „Tags“ zu nehmen, weil die Beiträge von ScienceFiles das Erste seien, was man im Internet finde, wenn man nach ihm suche. Darauf sei er von einer Genderista an einer Hochschule in Frankfurt, die den Namen eines großen Dichters und Philosophen trägt, angesprochen worden, verpackt in die unverhohlen ausgesprochene Drohung, dass derartige Beiträge seiner Karriere nicht förderlich seien.

Offenkundig ist es an bestimmten akademischen Anstalten nicht mehr möglich, seine Karriere zu verfolgen und ordentliche Forschung zu produzieren, die den ideologischen Vorgaben widerspricht. Wer es dennoch tut, öffentlichkeitswirksam tut, wer, weil das öffentlich-rechtliche Schweigekartell sein Meinungsmonopol verloren hat, die Öffentlichkeit erreicht und damit demonstriert, dass es noch Wissenschaftler in Deutschland gibt, dem drohen in Teilen der institutionalisierten Wissenschaft Konsequenzen, denn dort werden nur noch Ideologen geduldet. Wir haben den Tag übrigens nicht entfernt und dem Wissenschaftler empfohlen seine Karriere als Wissenschaftler zu verfolgen und nicht den Drohungen, dem Zwang, dem Gendergegeifer der Totengräber von Wissenschaft nachzugeben. Offenkundig hat er sich an den Rat gehalten und eine Stelle auf einer der ideologiefreien Inseln, die es hie und da auch in der institutionalisierten Wissenschaft, außerhalb von Frankfurt allerdings, noch gibt, gefunden.

Das war vor einigen Jahren. In der Zwischenzeit ist es an deutschen Hochschulen sicherlich nicht freiheitlicher geworden.

Nun zu Peter Ridd. Er erzählt seine Geschichte in Englisch. Das Video ist mit deutschen Untertiteln, die automatisch generiert werden, versehen worden.

Bei wem die Untertitel nicht erscheinen, der kann sie durch einen Klick auf Settings (das Rädchen), dann Subtitles/CC anklicken und „english (automated Subtitles) einstellen. Im nächsten Schritt nochmals Settings, „automated Subtitles“ -> Autotranslate anklicken und „German“ einstellen.

Der Beitrag erschien zuerst bei ScienceFiles hier




Klima: Über welche Temperatur reden wir eigentlich?

1. Messfehler

Temperaturen wurden seit etwa 250 Jahren mit Thermometern  (darunter solche im englisch sprachigen Raum, die Max und Min Temperaturen anzeigen) gemessen und seit einigen Jahrzehnten mittels elektronischer Sensoren oder Satelliten. Hinsichtlich noch älterer Daten muss man sich auf „Proxys“ verlassen (Baumringe, Stomata oder andere geologische Belege, welche eine Kalibrierung bzgl. Zeit und Amplitude benötigen, historische Chroniken oder Almanache usw.). Jedes Verfahren weist einen gewissen experimentellen Fehler auf. Bei einem Thermometer sind es etwa 0,1°C, bei Proxys noch viel mehr. Springt man von einem Verfahren zu einem anderen (z. B. von Thermometer-Messungen zu elektronischen Sensoren oder von elektronischen Sensoren zu Satellitendaten), müssen die Daten kalibriert und adjustiert werden, was in den Aufzeichnungen nicht immer sauber dokumentiert wird. Wie in dieser Studie ebenfalls gezeigt wird, ist die Länge des Zeitfensters für Messungen von ultimativer Bedeutung, um Schlussfolgerungen zu ziehen hinsichtlich eines möglichen gemessenen Trends in Klimadaten. Es müssen gewisse Kompromisse eingegangen werden zwischen der Genauigkeit der Daten und deren Repräsentativität.

2. Zeitliche Mittelungs-Fehler

Falls jemand ausschließlich Thermometermessungen für „zuverlässig“ hält, muss man täglich, wöchentlich, monatlich und jährlich definieren, was die Mitteltemperatur ist. Aber vor der Einführung elektronischer Sensoren, welche eine kontinuierliche Registrierung der Daten gestatteten, wurden diese Messungen von Hand, punktuell und einige Male über den Tag verteilt durchgeführt. Der Algorithmus zur Errechnung der täglichen Mitteltemperatur war Gegenstand von Änderungen von Land zu Land und mit der Zeit, und zwar auf eine Art und Weise, die in den Datensätzen nicht perfekt dokumentiert ist und wobei einige Fehler enthalten sind (Limburg, 2014). Auch folgte die Temperatur saisonalen Zyklen, verbunden mit der Sonnenaktivität und der lokalen Exposition in dieser Hinsicht. Das bedeutet, dass wenn man monatliche Daten mittelt, man Temperaturen vergleicht (von Beginn bis zum Ende des Monats) welche mit unterschiedlichen Punkten im saisonalen Zyklus korrespondieren. Und schließlich, wie jeder Gärtner weiß, haben auch die Mondzyklen einen gewissen messbaren Einfluss auf die Temperatur (ein 14-Tage-Zyklus ist in lokalen Temperaturdaten offensichtlich, was korrespondiert mit der Harmonic 2 des Mondes Frank, 2010). Es gibt etwa 28 Mondzyklen über jeweils 28 Tage innerhalb eines solaren Jahres von 365 Tagen, aber das solare Jahr ist in 12 Monate unterteilt, was einige Verzerrungen und falsche Trends induziert (Masson, 2018).

3. Räumliche Mittelung

Zuallererst, das IPCC betrachtet global gemittelte Temperaturen über den gesamten Globus, trotz der Tatsache, dass die Temperatur eine intensive Variable ist, und zwar von einer Kategorie von Variablen, die nur eine lokale thermodynamische Bedeutung haben, und trotz der Tatsache, dass es auf der Erde mehrere gut definierte Klimazonen gibt.

Die verwendeten Daten stammen von Aufzeichnungen meteorologischer Stationen und sollen repräsentativ sein für ein Gebiet um jede der Stationen. Das Gebiet soll alle Punkte umfassen, die näher an der jeweiligen Station als an irgendeiner anderen Station liegen (Voronoi-Algorithmus). Da die Stationen nicht gleichmäßig verteilt sind und da deren Anzahl erheblich mit der Zeit geschwankt hat, sind mit diesem Verfahren der räumlichen Mittelung „Algorithmus-Fehler“ verbunden.

Voronoi Diagramm

„In der Mathematik ist ein Voronoi Diagramm die Partitionierung einer Fläche in Regionen auf der Grundlage der Distanz zu Punkten in einem spezifischen Untergebiet der Fläche. Dieser Satz von Punkten (mit den Bezeichnungen seeds, sites oder generators) ist zuvor spezifiziert, und für jedes seed gibt es eine korrespondierende Region, die alle Punkte enthält, welche näher an diesem seed liegen als an jedem anderen. Diese Regionen nennt man Voronoi-Zellen (Quelle).

Da sich die Anzahl der seed-Punkte ändert ändert sich auch Größe, Anzahl und Aussehen der korrespondierenden Zellen (Abbildungen 1 und 2):

Abbildungen 1 und 2: Beispiel eines Voronoi-Diagramms, in Abb. 2 mit einer reduzierten Anzahl von seeds (konstruiert mit http://alexbeutel.com/webgl/voronoi.html).

In der Klimatologie sind die seed-Punkte die meteorologischen Stationen, und deren Anzahl hat sich mit der Zeit signifikant reduziert. Dadurch änderten sich Anzahl und Größe der korrespondierenden Zellen (siehe die Abbildungen 3, 4 und 5).

Abbildungen 3 und 4: Anzahl der Stationen nach der Zeit (links) und Ort vs. Zeit (rechts). Die Daten in Abb. 3 stammen von der GISS Surface Temperature Analysis (GISTEM v4). Quelle: https://data.giss.nasa.gov/gistemp/station_data_v4_globe/

Abbildung 5: Entwicklung von Landstationen und globaler Temperatur. Ab dem Jahr 1990 sind 1000 in kühleren ländlichen Gebieten stehende meteorologische Stationen (z. B. in Sibirien und Nordkanada) ausgesondert worden (Quelle: ftp://ftp.ncdc.noaa.gov/pub/data:ghcn/v2/v2.temperature.readme). Man beachte, dass Abbildung 3 auf GHCNv4 (Juni 2019) beruht und Abbildung 5 auf GHCNv2 (vor 2011). Alle Stationen wurden re-analysiert, und das ist auch der Grund für die Unterschiede in den beiden Abbildungen.

Mitteltemperatur

Die Mitteltemperatur (genauer deren Anomalie, siehe weiter unten) wird berechnet durch Aufsummierung der individuellen Daten von unterschiedlichen Stationen, wobei jeder Datenpunkt gewichtet wird proportional zu dessen korrespondierender Zelle (gewichtetes Mittel).

Da sich die Größen der Zellen mit der Zeit geändert haben, hat sich auch die Wichtung der seed-Punkte geändert. Dies induziert einen Bias in der Berechnung des globalen Wertes der Mitteltemperatur.

4. Der städtische Wärmeinseleffekt UHI

Außerdem sind viele ursprünglich in ländlicher Umgebung aufgestellten Messpunkte in zwischen Schauplatz einer progressiven Verstädterung gewesen, was zum „städtischen Wärmeinsel“-Effekt führte, welcher die gemessenen Temperaturwerte künstlich beeinflusste (Abbildungen 6 und 7)

Abbildungen 6 und 7: Gründe und Illustration des UHI

Es ist also unabdingbar bei Landstationen, dass jedwede nicht-klimatischen Temperatursprünge wie der UHI eliminiert werden. Derartige Sprünge können auch induziert werden durch Änderung des Aufstellortes der Stationen oder durch eine Aktualisierung der Instrumentierung. In den adjustierten Daten von GISTEMP v4 sind die Auswirkungen solcher nicht-klimatischen Einflüsse eliminiert wo immer möglich. Ursprünglich wurden nur dokumentierte Fälle adjustiert. Das gegenwärtig von NOAA/NCEI angewendete Verfahren jedoch appliziert ein automatisiertes System auf der Grundlage eines systematischen Vergleichs mit benachbarten Stationen. Damit soll dokumentierten und nicht dokumentierten Fluktuationen Rechnung getragen werden, die nicht direkt Bezug zum Klimawandel haben. Die Verfahren nebst deren Evaluierungen sind Gegenstand vieler Veröffentlichungen.

5. Wassertemperatur

Und was ist mit der Temperatur über den Ozeanen (welche etwa 70% der Erdoberfläche bedecken)? Bis vor Kurzem wurden diese Temperaturen kaum gemessen, kamen sie doch von Schiffen, die eine begrenzte Anzahl kommerzieller Seewege befuhren.

In jüngerer Zeit wurden ARGO-Bojen in allen Ozeanen ausgebracht, was eine repräsentativere räumliche Abdeckung dieser Daten ermöglichte.

6. Temperaturanomalien

Zweitens, zu jedem gegebenen Zeitpunkt kann die Temperatur auf der Erde um bis zu 100°C variieren (zwischen Messpunkten in polaren bzw. tropischen Regionen). Um diesem Problem zu begegnen, bezieht sich das IPCC nicht auf absolute Temperaturwerte, sondern auf etwas, das man „Anomalien der Temperatur“ nennt. Dafür berechnet man zunächst die mittlere Temperatur über einen festgelegten Zeitraum von 30 Jahren: 1931 bis 1960, 1961 bis 1990. Die nächste Periode wird der Zeitraum 1991 bis 2020 sein. Dann wird jede jährliche Temperatur mit der mittleren Temperatur der nächstgelegenen zeitlichen Periode verglichen. Gegenwärtig und bis zum Jahr 2012 ist die Anomalie die Differenz zwischen der Temperatur und dem Mittelwert des Zeitraumes 1961 bis 1990.

Dieses Verfahren fußt auf der impliziten Hypothese, dass die „natürliche“ Temperatur konstant bleibt und dass jedweder erkannte Trend anthropogenen Aktivitäten geschuldet ist. Aber selbst dann würde man erwarten, dass einige Adjustierungen vorgenommen werden, wenn man von einer Referenzperiode auf eine andere übergeht. Das berührt die Kompensation eines eventuellen UHI oder die Änderung der Anzahl von Stationen – und wir haben beide als Quellen von Fehlern und Verzerrungen ausgemacht.

Aber das Schlüsselproblem ist tatsächlich der Umstand, dass die Temperaturaufzeichnungen Gegenstand lokaler natürlicher, polyzyklischer Fluktuationen sind, die nicht genau periodisch und nicht synchronisiert sind. Die Tatsache, dass der artige Fluktuationen nicht genau periodisch sind, macht es mathematisch unmöglich, dass man die Daten trendbereinigen kann mittels Subtraktion eines Sinusoids, wie es beispielsweise allgemein üblich ist bei der Eliminierung jahreszeitlicher Effekte aus den Daten.

Die Länge dieser Zyklen variiert von einem Tag bis zu jährlichen, dekadischen, hundert- oder tausendjährigen Komponenten und über zehntausende von Jahren hinaus (Milankovitch-Zyklen).

Von besonderem Interesse für unsere Diskussion sind dekadische Zyklen, weil deren Präsenz dreifach Konsequenzen hat:

Erstens, da sie wegen ihrer Aperiodizität nicht direkt trendbereinigt werden können, beeinflussen oder verstärken sie eventuelle anthropogene Effekte, welche in den Anomalien zutage treten.

Zweitens, die Zyklen induzieren Verzerrungen und falsche Anomalien bei der Berechnung der mittleren Temperatur des Referenz-Zeitraumes, wie die folgende Abbildung zeigt (nach Masson):

Abbildung 9: Anomalien und periodische Signale des Zeitraumes, der vergleichbar ist mit der Länge des Referenz-Zeitraumes.

Kommentar zu Abbildung 9:

Die Abbildung zeigt die Probleme zur Festlegung einer Anomalie, wenn das Signal ein periodisches Signal mit einer Länge vergleichbar mit der Länge des Referenz-Zeitraumes aufweist, der zu Berechnung dieser Anomalie herangezogen wird. Zur Vereinfachung denke man sich ein Sinusoid mit einer Periode gleich 180 Jahre (eine allgemein in Klima-bezogenen Signalen erkannte Periodizität). Folglich ist 360° = 180 Jahre und 60° = 30 Jahre (also die Länge der vom IPCC herangezogenen Referenzperioden zur Berechnung der Anomalien). Für unseren Zweck werden drei Referenzperioden mit jeweils 60° (30 Jahre) entlang des Sinusoids betrachtet (die roten horizontalen Linien markieren die Referenzen 1, 2 und 3). Auf der rechten Seite der Abbildung sind die korrespondierenden Anomalien dargestellt (Messung über die nächsten 30 Jahre minus dem Mittelwert über die Referenzperiode). Man erkennt offensichtlich, dass die Anomalien unterschiedliche Trends zeigen. Ebenfalls offensichtlich tritt hervor, dass alle diese Trends ein Fake sind, weil das reale Signal ein Sinusoid des Mittelwertes insgesamt gleich Null ist. Mit anderen Worten, es gibt gar keinen Trend, sondern nur ein periodisches Verhalten.

Der dritte fundamentale Schwachpunkt, wie das IPCC mit den Temperaturdaten umgeht, betrifft die Entscheidung, sich ausschließlich auf lineare Regressions-Trendlinien zu stützen, trotz der Tatsache, dass jeder Daten-Wissenschaftler weiß, dass man zumindest ein Zeitfenster berücksichtigen muss, das mehr als 5 mal über die Periode einer zyklischen Komponente in den Daten hinausgeht, um „border effects“ zu vermeiden. Pech für das IPCC: die meisten Klimadaten zeigen signifikante zyklische Komponenten mit (angenähert) Perioden von 11, 60 und 180 Jahren, während sie andererseits ein 30-Jahre-Fentser heranziehen, um ihre Anomalien zu berechnen.

Und so erzeugt das IPCC eine künstliche „Beschleunigung der globalen Erwärmung“, weil es kurzfristige lineare Trends aus Daten berechnet, welche eine zyklische Signatur aufweisen. Mittels Abbildung 10, entnommen FAQ 3.1 aus Kapitel 3 des IPCC-AR 4 (2007) erklärt das IPCC: „Man beachte, dass sich die Steigung über kürzere Perioden vergrößert, was auf eine beschleunigte Erwärmung hinweist“.

Abbildung 10: Fake-Schlussfolgerungen des IPCC

Die folgende Graphik (Abbildung 11) illustriert das Ganze:

Abbildung 11: Globale Temperaturen im Vergleich zur mittleren globalen Temperatur über den Zeitraum 1901 bis 2000

Kommentar zu Abbildung 11

Die Graphik zeigt die mittlere jährliche globale Temperatur seit dem Jahr 1880, aber nicht verglichen mit einer 30-jährigen Referenzperiode (wie es bei der Berechnung von Anomalien üblich ist), sondern im Vergleich zum langfristigen Mittel im Zeitraum 1901 bis 2000. Die Null-Linie repräsentiert das langfristige Mittel für den gesamten Planeten, die Balken zeigen die globalen (aber langfristigen) „Anomalien“ über oder unter dem langfristigen Mittelwert mit der Zeit. Der behauptete lineare Trend im linken Teil der Abbildung ist (mehr als wahrscheinlich) ebenso wie der Trend im rechten Teil der Abbildung nichts weiter als der steigende Ast eines Sinusoids von 180 Jahren. Dies ist auch ein anderer Weg (der richtige und einfachste?), den „Stillstand“ zu erklären, welcher während der letzten 20 Jahre beobachtet worden ist. Der „Stillstand“ korrespondiert mit dem Maximum des Sinusoids, und als Konsequenz kann man eine globale Abkühlungsperiode während der nächsten Jahre erwarten.

7. Lineare Trendlinien und Daten, die eine zyklische Signatur aufweisen

Schließlich illustrieren die folgenden Graphiken (Abbildungen 12, 13 und 14) von Masson den „border effect“, der weiter oben schon einmal für einen schematischen Fall erwähnt worden ist. Sie zeigen die potentiellen Fehler, die man bei der Anwendung linearer Regressions-Verfahren macht, wenn Daten eine zyklische Komponente aufweisen mit einer (pseudo-)Periode von einer Länge, die vergleichbar ist mit dem betrachteten Zeitfenster. Das Sinusoid bleibt genau gleich (und zeigt keinen Trend), aber falls man die lineare Regression berechnet (mittels des Verfahrens kleinster Quadrate) über eine Periode des Sinusoids, wird eine FAKE-Trendlinie erzeugt, dessen Steigung abhängig ist von der Anfangsphase des betrachteten Zeitfensters.

Abbildungen 12,13 und 14: Lineare Regressions-Linie über eine einzelne Periode eines Sinusoids.

Regressions-Linie für ein Sinusoid

Um das Problem im Zusammenhang mit dem „border effect“ zu illustrieren, wenn man für ein Sinusoid eine Regressions-Linie zeigt, wollen wir ein einfaches Sinusoid heranziehen und die Regressions-Linie über ein, zwei, fünf, … X Zyklen berechnen (Abbildungen 15, 16 und 17).

Das Sinusoid ist stationär, die wahre Regressions-Linie verläuft horizontal (Steigung = Null).

Nimmt man eine Initial-Phase von 180° (um eine Regressions-Linie mit positiver Steigung zu erzeugen), wollen wir feststellen, wie sich die Steigung der Regressions-Linie in Abhängigkeit der Anzahl von Perioden ändert:

Abbildungen 15, 16 und 17: Regressions-Linien für Sinusoids mit einem, zwei, fünf Zyklen.

Abbildungen 15, 16 und 17: Regressions-Linien für Sinusoids mit einem, zwei, fünf Zyklen.

Die korrespondierende Regressions-Gleichung ist in jeder Graphik genannt. In dieser Gleichung ergibt der Koeffizient von x die Steigung der „Fake“-Regressions-Linie. Der Wert dieser Steigung ändert sich mit der Anzahl der Perioden, wie in Abbildung 18 gezeigt. Als Faustregel nennen Daten-Wissenschaftler eine Mindestzahl von 6 Perioden, die betrachtet werden müssen.

Abbildung 18: Steigung der Regressionslinie im Vergleich zur Anzahl der Zyklen. Dazu gibt es hier auch eine Excel-Illustration.

8. Ein exemplaarischer Fall

Die Überlegungen in dieser Studie mögen für erfahrene Daten-Wissenschaftler offensichtlich sein, aber es scheint, als ob die meisten Klimatologen sich der Probleme nicht bewusst sind (oder versuchen sie vielleicht, diese Probleme unter den Teppich zu kehren?), die sich aus der Länge des betrachteten Zeitfensters und dem Ausgangswert ergeben. Als finale Illustration wollen wir die „offiziellen“ Klimadaten betrachten und sehen, was passiert, wenn man die Länge des Zeitfensters sowie den Ausgangswert verändert (Abbildungen 19 bis 21). Aus diesem Beispiel geht eindeutig hervor, dass lineare Trends, die auf (poly-)zyklische Daten einer Periode ähnlich der Länge des Zeitfensters die Tür weit aufstoßen zu jeder Art von Fake-Schlussfolgerungen, falls nicht Manipulationen zugunsten einer bestimmten politischen Agenda vorgenommen werden.

Abbildung 19: Beispiel einer „offiziellen“ Anomalie einer globalen Temperaturreihe

Abbildung 20: Auswirkung der Länge und des Ausgangswertes eines Zeitfensters auf lineare Trendlinien

Abbildung 21: Auswirkung der Länge und des Ausgangswertes eines Zeitfensters auf lineare Trendlinien (fortgesetzt)

[Wegen der Bedeutung dieser Graphik folgt hier die Übersetzung der Bildinschrift:

obere Graphik: Ein globaler Abkühlungstrend (etwa 0,35 Grad pro Dekade) während der 11 Jahre von 1998 bis 2009. Realistisch? Nein!

Mittlere Graphik: Ein globaler Erwärmungstrend (etwa 0,12 Grad pro Dekade) während der 30 Jahre von 1979 bis 2009. Realistisch? Nein!

Untere Graphik: Was also ist realistisch? Die jährliche Varianz in den Daten ist groß im Vergleich zu jedwedem Trend. Es gibt eindeutig erkennbare Zyklen in den Daten (ein solcher von etwa 4 Jahren ist in der mittleren Graphik erkennbar). Was zeigen nun also die Daten während der Satelliten-Ära? Keine Erwärmung von 1979 bis 1997; ein signifikantes El Nino-Ereignis 1997-98 führte zu einer sprunghaften Änderung von etwa 0,3 Grad; keine Erwärmung von 1999 bis 2009. Die gesamte Erwärmung der letzten 30 Jahre ereignete sich in einem einzigen einzelnen Jahr!

Ende Übersetzung der Inschrift.]

Schlussfolgerungen:

1. IPCC-Projektionen resultieren aus mathematischen Modellen, welche der Kalibrierung bedürfen, indem man Daten aus der Vergangenheit einfließen lässt. Die Genauigkeit der Kalibrierungs-Daten ist von ultimativer Bedeutung, ist doch das Klimasystem höchst nicht-linear, und das gilt auch für die (Navier-Stokes)-Gleichungen und die (Runge-Kutta Integrations-) Algorithmen, welche in den IPCC-Computermodellen angewendet werden. Als Konsequenz daraus ist das System und auch die Art, wie das IPCC dieses präsentiert, hoch sensitiv gegenüber winzigen Änderungen des Wertes der Parameter oder der Ausgangsbedingungen (die Kalibrierungs-Daten im gegenwärtigen Fall). Sie müssen mit höchster Genauigkeit bekannt sein. Das ist aber nicht der Fall, was ernste Zweifel an jedweder Folgerung aus den Modellprojektionen aufwirft.

2. Die meisten vom IPCC herangezogenen Mainstream-Daten mit Klimabezug sind tatsächlich erzeugt aus Daten von Messpunkten auf dem Festland. Dies hat zwei Konsequenzen:

i) Die räumliche Verteilung der Daten ist höchst fragwürdig, weil die Temperatur über den Ozeanen, die 70% der Erdoberfläche bedecken, zumeist unbeachtet bleiben oder „guestimated“ werden mittels Interpolation;

ii) Die Anzahl und die Aufstellungsorte dieser Landstationen hat sich mit der Zeit deutlich verändert, was Verzerrungen und Fake-Trends induzierte.

3. Der Schlüssel-Indikator des IPCC ist die globale Temperatur-Anomalie, errechnet aus räumlicher Mittelung, ebenso wie mögliche lokale Anomalien. Lokale Anomalien sind der Vergleich der gegenwärtigen lokalen Temperatur mit der gemittelten lokalen Temperatur über einen festgesetzten Zeitraum von 30 Jahren, der sich alle 30 Jahre ändert (1930-1960, 1960-1990, etc.). Das Konzept der lokalen Anomalien ist höchst fragwürdig wegen der Präsenz poly-zyklischer Komponenten in den Temperaturdaten einschließlich deutlicher Verzerrungen und falschen Trends, wenn das Zeitfenster kürzer ist als mindestens 6 mal die längste, aus den Daten hervorgehende Periode. Unglücklicherweise ist bzgl. der Temperaturdaten genau das der Fall.

4. Lineare Trends, die auf (poly-)zyklische Daten einer Periode ähnlich der Länge des Zeitfensters stoßen die Tür weit auf zu jeder Art von Fake-Schlussfolgerungen, falls nicht Manipulationen zugunsten einer bestimmten politischen Agenda vorgenommen werden.

5. Als Folge davon ist es dringend geraten, das Konzept der globalen Temperatur-Anomalie zu verwerfen und sich auf unverzerrte lokale Daten zu stützen, um eine mögliche Änderung des lokalen Klimas aufzufinden. Das wäre ein physikalisch bedeutungsvolles Konzept, und das ist schließlich das, was für die lokalen Anwohner, für Landwirtschaft, Industrie, Dienstleistungen, Geschäftsbereiche, Gesundheit und Wohlergehen allgemein von Bedeutung ist.

Notes

[1] The GISS Surface Temperature Analysis (GISTEMP v4) is an estimate of global surface temperature change. It is computed using data files from NOAA GHCN v4 (meteorological stations), and ERSST v5 (ocean areas), combined as described in Hansen et al. (2010) and Lenssen et al. (2019) (see : https://data.giss.nasa.gov/gistemp/). In June 2019, the number of terrestrial stations was 8781 in the GHCNv4 unadjusted dataset; in June 1880, it was only 281 stations.

[2] Matthew J. Menne, Claude N. Williams Jr., Michael A. Palecki (2010) On the reliability of the U.S. surface temperature record. JOURNAL OF GEOPHYSICAL RESEARCH, VOL. 115, D11108, doi:10.1029/2009JD013094, 2010.

[3] Venema VKC et al. (2012) Benchmarking homogenization algorithms for monthly data. Clim. Past, 8, 89-115, 2012.

[4] F.K. Ewert (FUSION 32, 2011, Nr. 3 p31)

[5] H. Masson,Complexity, Causality and Dynamics inside the Climate System (Proceedings of the 12thannual EIKE Conference, Munich November  2018.

[6] IPCC, http://www.ipcc.ch/pdf/assessment-report/ar4/wg1/ar4-wg1-chapter3.pdf]

Link: http://www.science-climat-energie.be/2019/07/24/climate-about-which-temperature-are-we-talking-about/

———————————————

Autoren: Samuel Furfari,  Professeur à l’Université libre de Bruxelles et Henri Masson, Professeur (émérite) à l’Université d’Antwerpen

Übersetzt von Chris Frey EIKE




Was Sie schon immer über CO2 wissen wollten: Teil 3 – der globale CO2-Kreislauf

Teil 2 befasste sich mit dem Konzentrationsverlauf von CO2 in der Atmosphäre. Zumindest zwischen einer Million Jahre zurück bis zum Beginn der Industrialisierung um 1850 folgte der armosphärische CO2-Gehalt den Ozeantemperaturen (SST). Die maximale CO2-Konzentrationsspanne zwischen dem Temperaturhöhepunkt eines Zwischenglazials und dem Temperaturtiefpunkt einer Eiszeit betrug grob 100 ppm (Bild 2 in Teil 2). Seit Ende der jüngsten Eiszeit betrugen dann die CO2-Schwankungen, entsprechend den geringen SST-Schwankungen, nur noch wenige ppm (Bild 2 ganz rechts). Erst die anthropogenen CO2-Emissionen haben dieses Gleichgewicht verschoben (s. Bild 1 in Teil 1). Im Folgenden geht es um die Folgen dieser Verschiebung für den globalen CO2-Kreislauf, dessen Quellen und Senken die drei Hauptakteure „Atmosphäre, „Ozeane“ und „Biospäre“ sind. Die Einzelheiten des globalen CO2-Kreislaus sind zwar beliebig komplex, dennoch stellt sich heraus, dass seine groben Züge recht gut mit einfachen physikalischen Modellen erfassbar sind.

Beginnen wir mit einer unzutreffenden Angstvorstellung, wie sie immer wieder nicht nur von den Medien, sondern sogar von Fachwissenschaftlern geschildert wird, die es in Wirklichkeit besser wissen: Weitere Kohleverbrennung der Menschheit würde den CO2-Gehalt der Atmosphäre generell immer weiter erhöhen. Das ist falsch. Die Schlüsselrolle beim CO2-Kreislauf spielen nämlich die Ozeane, die knapp die vierzigfache Menge der Atmosphäre an frei gelöstem CO2 enthalten [1]. Zwischen Ozeanen und Atmosphäre fand vor der Industrialisierung laufend ein in etwa gleichgewichtiger CO2-Austausch statt, wobei die Verweilzeit eines CO2-Moleküls in der Luft nur wenige Jahre beträgt. Dieses Gleichgewicht wurde durch die menschgemachten CO2-Emissionen immer stärker in Richtung ansteigender CO2-Konzentration der Atmosphäre verschoben.

Die Konsequenz dieses Anstiegs ist ein ansteigender CO2-Partialdruck in der Luft im Vergleich mit dem CO2-Partialdruck der Ozeane. Der CO2-Partialdruck der Ozeane bleibt nämlich konstant, denn die Ozeane enthalten, frei gelöst, etwa die vierzigfache Menge des in der Atmosphäre enthaltenen CO2. Die Ozeane „spüren“ das menschgemachte CO2 nicht, es ist für sie vernachlässigbar. Der stetig ansteigende CO2-Partialdruck der Luft drückt aber immer mehr CO2 in die Ozeane und das Pflanzenwachstum. Zu Beginn der Industrialisierung, als die CO2-Partialdrücke von Luft und Ozeanen noch im Gleichgewicht standen, wurden die ersten anthropogenen CO2-Emissionen ausschließlich von der Luft aufgenommen. Heute hat sich diese Situation grundlegend geändert. Von jeder Tonne anthropogenem CO2 verbleiben nur noch eine halbe Tonne in der Atmosphäre, eine viertel Tonne geht bereits in die Ozeane und das restliche Viertel wird von den Pflanzen aufgenommen (Bild 1).

Bild 1: Schematische, vereinfachte Darstellung der Quellen und Senken des globalen CO2-Kreislaufs zu Beginn der Industrialisierung A) verglichen mit heute B).

Die aus Bild 1 hervorgehende Entwicklung verschiebt sich mit weiter zunehmenden anthropogenen CO2-Emissionen hin zu einer immer stärkeren CO2-Senke „Ozeane“ und einer immer schwächeren CO2-Senke „Atmosphäre“. Die sich in dieser Richtung ändernden Werte des globalen CO2-Kreislaufs, d.h. die Quellen und Senken über die letzten Jahrzehnte werden seit wenigen Jahrzehnten vom Carbon Dioxide Information Analysis Center (CDIAC) akribisch gemessen und dokumentiert [2].

Was bedeutet nun die immer höhere CO2-Aufnahme von Ozeanen und Pflanzen konkret für die zukünftige CO2-Konzentration der Atmosphäre? Die Antwort: Um den CO2-Gehalt der Luft weiter zu erhöhen, müssen die CO2-Emissionen der Menschheit ebenfalls immer weiter erhöht werden! Würde die Menschheit ihre CO2-Emissionen dagegen einmal (hypothetisch) konstant halten, würde der CO2-Gehalt der Atmosphäre nach einer Einschwingzeit von mehreren Jahrzehnten ebenfalls konstant bleiben. Wohlgemerkt konstant, obwohl weiter anthropogenes CO2 erzeugt wird. Es stellt sich ein Gleichgewichtszustand ein, in welchem bei einem gleichbleibenden anthropogenen „CO2-Nachschub“ die gleichbleibende CO2-Partialdruckdifferenz zwischen Luft und Ozean für einen ebenfalls gleichbleibenden Zustrom von CO2 in die Ozeane sorgt. Dieser Zustand ändert sich auch nicht, denn die Ozeane können praktisch beliebig viel CO2 aufnehmen, ohne dass sich ihr CO2-Partialdruck verändert. Dies nicht nur ihrer riesigen Menge an gelöstem CO2 wegen, sondern weil das Kohlendioxid von Meereslebewesen zum Aufbau ihrer Kalkskelette verbraucht wird, zum Meeresboden absinkt und damit dem CO2-Kreislauf für immer entzogen wird.

Die hier in groben Zügen geschilderten Zusammenhänge sind in der Fachliteratur in detaillierter Beschreibung aufzufinden, wie zum Beispiel in [3] und weiteren Zitierungen in dieser Arbeit. Weil zum CO2-Kreislauf auch der Autor mit begutachteten Fachveröffentlichungen beteiligt war [4], seien einige weiteren Anmerkungen erlaubt. Die Messbasis aller Publikationen wird, wie bereits erwähnt, vom Carbon Dioxid Information Analysis Center (CDIAC) zur Verfügung gestellt in Form von EXCEL-Tabellen [5]. In ihnen sind ab dem Jahre 1959, mit Angabe der Fehlerbreiten, die folgenden fünf jährlichen Werte angegeben für: fossil fuel and cement emissions, land use change, atmospheric growth, ocean sink und land sink. Alle Fachpublikationen verwenden unterschiedliche Modelle und testen ihre Modellparameter am gemessenen CO2-Verlauf der Atmosphäre: Dies hat allerdings den Nachteil, dass mit dieser einzigen Messbasis (CO2-Anstieg) keine Unterscheidung möglich ist, welches Modell am besten die Realität wiedergibt. Die einzige Ausnahme davon macht die Publikation des Autors mit Koautoren [4], in welchem die hier zwei Modellparameter zusätzlich zum atmosphärischen CO2-Gehalt auch noch aus den gemessenen ocean-sink- und land sink-Daten von CDIAC ermittelt werden.

Ein Vergleich nur mit dem CO2-Anstieg der Atmosphäre erlaubt dagegen sogar Modelle, welche den rezenten CO2-Anstieg allein auf Ozeantemperatur-Werte (SST) zurückführen, siehe [6] und weitere Zitierungen in dieser Arbeit. Ob diese Modelle realistisch sind, kann nur die begutachtete Fachdiskussion entscheiden. Dennoch seien die am meisten ins Auge springenden Caveats zumindest erwähnt:

Wären die „SST-Modelle“ zutreffend, müssten sich in den Warmzeiten der letzten 10.000 Jahre, also in den beiden extrem warmen Holozän-Temperaturmaxima sowie dem römischen und mittelalterlichen Temperaturmaximum, ungewöhnliche atmosphärische CO2-Steigerungen zeigen. Solche sind aber weder in CO2-Messungen von Eisbohrkernen noch in Blatt-Stomata-Messungen auffindbar. Es erscheint ferner unwahrscheinlich, dass ausgerechnet in Zeiten von anthropogenen CO2-Emissionen der CO2-Gehalt der Atmosphäre in Schnelligkeit und Stärke auf natürliche Weise angestiegen sein soll, wie es in der letzen Million Jahre noch nie vorkam. Andere CO2-Quellen, wie Vulkanismus am Meeresboden etc., die solches natürlich ermöglicht könnten, werden zwar oft vermutet, sind aber bis heute nicht nachgewiesen.

Das für uns wichtigste Ergebnis des globalen CO2-Zyklus ist dagegen sehr leicht zu verstehen. Der CO2-Gehalt der Atmosphäre kann eine obere Grenze von etwa 800 ppm grundsätzlich niemals überschreiten, weil, wie hier beschrieben, zu immer höherem CO2-Anstieg in der Atmosphäre zwangsweise auch immer höhere(!) anthropogenen CO2-Emissionen erforderlich sind. Damit hat es aber spätestens dann ein Ende, wenn die Kohle zu teuer geworden ist oder gar alle Kohleressourcen aufgebraucht wurden. Dann haben längst Kernkraftwerke der Generation IV die Energieversorgung der Menschheit übernommen.

Es gibt daher absolut keinen Grund, einen zu großen CO2-Anstieg der Atmosphäre zu befürchten.

 

Quellen

[1] W.M. Post et al, The global carbon cycle, http://www.as.wvu.edu/biology/bio463/globalcarbon.pdf

[2] https://cdiac.ess-dive.lbl.gov/

[3] Joos et al., Carbon dioxide and climate impulse response functions .., https://www.atmos-chem-phys.net/13/2793/2013/acp-13-2793-2013.pdf

[4] W. Weber, H.-J. Lüdecke and C.O. Weiss: A simple model of the anthropogenically forced CO2 cycle, Earth System Dynamics Discussion, 6, 1-20 (2015),  http://www.earth-syst-dynam-discuss.net/6/2043/2015/esdd-6-2043-2015.pdf sowie H.-J. Lüdecke and C. O. Weiss: Simple Model for the Antropogenically Forced CO2 Cycle, Tested on Measured Quantities,  Journal of Geography, Environment and Earth Science International, 8(4), 1-12, 2016, DOI: 10.9734/JGEESI/2016/30532, http://www.sciencedomain.org/download/MTc0MzRAQHBm.pdf

[5] https://cdiac.ess-dive.lbl.gov/GCP/carbonbudget/2016/

[6] H. Harde, What Humans Contribute to Atmospheric CO2: Comparison of Carbon Cycle Models with Observations, Earth Sciences, 8(3), 139-159, 2019 (hier)




Menschengemachte Schwankungen*

Die Hitzewelle der letzten Juniwoche liess die Schweizer schwitzen, aber zumeist die Temperaturrekorde nicht fallen. Als historisch höchsten Wert in der Stadt Zürich massen die Meteorologen des Bundes, wie sie auf dem Blog von Meteo Schweiz bekanntgaben, 37,7 Grad Celsius – im Juli 1947. Damals, vier Jahrzehnte vor der angeblich menschengemachten Klimaerwärmung in den achtziger Jahren, erlebte die Schweiz einen denkwürdigen Hitzesommer, der den Rhein zum Rinnsal austrocknen und das Bauernland zur Steppe veröden liess. Doch dieser Rekord gilt für die Meteorologen nicht.

Denn bis 1949 stand die Zürcher Station der Meteorologischen Zentralanstalt bei der ETH, auf 475 m ü. M. in Zentrumsnähe; dann kam sie nach Fluntern, 80 Meter höher gelegen an den Stadtrand. Nicht nur die Höhenlage wirkt sich aber auf die Messungen aus, sondern auch die Distanz zur Stadt. Denn dort staut sich die Hitze, ein Phänomen, das die Meteorologen alsurban heat islandskennen. Kritiker führen einen Teil der gemessenen Erwärmung darauf zurück, dass in den USA oder in China Wetterstationen, die sich früher auf dem Land fanden, jetzt in Stadtzentren oder neben Flughäfen stehen. Wer zu historischen Temperaturdaten forscht, muss sie also korrigieren. Aber wie?

Immer wieder korrigieren

Schon beim Messen – der Grundlage der Klimaforschung wie in jeder Naturwissenschaft – zeigt sich, dass es keine eindeutigen, sondern nur menschengemachte Fakten gibt. Wir Menschen sehen, aufgrund der menschlichen Schwäche des confirmation bias, aber am liebsten jene Daten, die unsere Sicht bestätigen. Und wir biegen die Daten, wenn sie dies nicht tun, notfalls zurecht.

Sogar auf die Messwerte des landesweiten Netzes von Wetterstationen, die seit 1864 sorgfältig dokumentiert sind, können wir uns nicht blind verlassen. Denn die Umstände haben sich gewandelt: andere Messinstrumente, andere Umgebungsverhältnisse, manchmal gar ein anderer Standort. Die Meteorologen des Bundes mussten die Daten deshalb immer wieder korrigieren, in der Fachsprache: homogenisieren. Zuletzt taten sie es 2003 – mit einem spektakulären Resultat.

Die Temperaturkurven zeigten jetzt, wie nie zuvor, die «unnatürlich» schnelle Erwärmung seit den achtziger Jahren, vor der die Klimaforscher warnen. Die Temperaturen seit 1864 stiegen nach der Korrektur in Zürich statt um 0,7 um 1,6 Grad Celsius, auf dem Chaumont statt um 0,7 um 1,7 Grad und in Château-d’Œx statt um 1,2 um 2,0 Grad. Und Sion, das seit dem 19. Jahrhundert kaum eine Erwärmung mass, fiel jetzt mit einem Anstieg um 2 Grad Celsius auf. So kamen die Meteorologen auf eine mittlere Zunahme der Temperatur im 20. Jahrhundert um rund 1,2 Grad. Sie räumten in ihrer Studie jedoch selber ein, der Anstieg «würde bei der Verwendung von Originalwerten im Mittel nur etwa halb so gross ausfallen».

Eine Erwärmung um 0,6 Grad wäre aber die Aufregung nicht wert, sondern ein Segen: Die Meteorologische Zentralanstalt der Eidgenossenschaft baute ihr Messnetz 1863 auf – drei Jahre nach dem Ende der «ausgeprägtesten Kaltperiode seit 1520», wie der Klimahistoriker Christian Pfister diese unwirtliche Zeit nannte. Der Verdacht drängt sich deshalb auf, dass die Forscher bei ihren Eingriffen nachhalfen, weil sie eine unnatürlich schnelle Erwärmung in den letzten Jahrzehnten sehen wollten.

Er lässt sich begründen, denn in den letzten Jahren flogen immer wieder Skandale auf. So sorgten die australischen Meteorologen bei einer Temperaturreihe mit ihren «Anpassungen» dafür, dass statt einer Abkühlung von 1 Grad pro Jahrhundert eine Erwärmung von 2,3 Grad herauskam. Und so feierte das Nasa-Institut GISS 2014 globale Rekordwerte, weil es unter anderem den Trend der Messwerte von abgelegenen Messstationen in Lateinamerika gedreht hatte. Der britische Wissenschaftsjournalist Christopher Booker hält das Manipulieren der Temperaturdaten deshalb für «the biggest science scandal ever» (den grössten je erlebten Wissenschaftsskandal).

Die Frage stellt sich deshalb: Waren die Korrekturen an den Originaldaten korrekt? Ein Blick auf die Grafik mit den «Homogenisierungsbeiträgen», also den aggregierten Änderungen an den Daten, schürt den Verdacht weiter: Mit ihren Eingriffen senkten die Meteorologen die Werte vor 1978 um 0,4 bis 0,8 Grad; erst dies führte dazu, dass die Temperaturkurve in den achtziger Jahren eine Erwärmung zeigte. Der Graph sieht so aus, wie sich der Weltklimarat (IPCC) die Temperaturentwicklung seit dem 19. Jahrhundert vorstellt – allerdings zeigt er nicht den Verlauf der tatsächlich gemessenen Werte, sondern die Änderungen daran.

Das Senken der Temperaturen vor 1978 lässt sich gemäss Meteo Schweiz damit erklären, dass die Meteorologen damals ihr Messnetz von konventionellen auf automatisierte Wetterstationen umstellten: Die neuen Thermometer massen leicht tiefere Werte. Allerdings stellte der deutsche Meteorologe Klaus Hager bei Parallelmessungen fest, dass die elektronischen Geräte höhere Temperaturen anzeigten; die Werte vor 1978 hätten also nicht gesenkt, sondern angehoben werden müssen. So wäre von der Erwärmung nichts geblieben. Die Debatte um seine brisanten Erkenntnisse schloss der Deutsche Wetterdienst mit einer Stellungnahme ab, die festhielt: «Bei der Messung der Lufttemperatur sind die Differenzen der Terminwerte in den meisten Fällen so gering, dass die Homogenität einer Messreihe beim Wechsel des Messverfahrens nicht gestört wird.»

Schraubten die Schweizer Meteorologen also zu Unrecht an ihren Kurven herum? Meteo Schweiz wehrt sich, der Deutsche Wetterdienst verwende andere Instrumente, seine Feststellungen liessen also keine Schlüsse auf die Unterschiede von konventionellen und automatisierten Messungen in der Schweiz zu. Zu diesen Unterschieden forschten allerdings Meteorologen in Bundesdiensten schon früher, gerade weil sie klären wollten, ob sich die Temperaturreihen nach der Umstellung der Stationen weiterführen liessen: Gerhard Müller (bereits 1984) und Othmar Gisler (1992)kamen zum Schluss, es gebe dabei kein Problem, weil sich die gemessenen Temperaturen kaum unterschieden – jedenfalls nicht so, dass die Umstellung eine generelle Korrektur rechtfertigen würde.

Erklärungsbedürftig bleiben auch die extremen Änderungen auf dem Chaumont und in Château-d’Œx, denn dort massen die Meteorologen die ganze Zeit mit konventionellen Wetterhütten. «Grund für die relevanten Inhomogenitäten sind Stationsverschiebungen», behauptet Meteo Schweiz auf Nachfrage. Tatsächlich wurde die Station auf dem Chaumont sechsmal verschoben, jene in Château-d’Œx gar zehnmal. Auf dem Chaumont betrug die grösste Distanz zwischen zwei Standorten aber drei Kilometer entlang des Bergrückens, sie waren also auf derselben Höhe; bei Château-d’Œx hält die Studie von 2003 selber fest, dass sich die zehn Standorte «bezüglich ihrer Lage nur geringfügig unterschieden». Es gab also keine Rechtfertigung, die Daten jeweils zu korrigieren – schon gar nicht zu einer in der Summe so massiven Differenz.

Der krasseste Fall

Mysteriös mutet auch der krasseste Fall an: Sion, wo die Homogenisierer aus einem kaum messbaren Anstieg um 0,2 Grad seit 1864 eine gefährliche Erwärmung von 2,0 Grad machten. Meteo Schweiz erklärt dies damit, dass es mehrere Hüttenwechsel und Stationsverschiebungen gegeben habe. Die Studie von 2003 hält allerdings fest, dass die Station von 1873 bis 1977 beim Kapuzinerkloster (542 m ü. M.) stand, und sie weiss nichts von einem Wechsel des Hüttentyps. Ab 1978 stand die automatisierte Station beim Flughafen im Talboden (483 m ü. M.); dort herrschen gemäss den Meteorologen tiefere Temperaturen als beim sechzig Meter höher gelegenen Kloster.

In den Publikationen von Meteo Schweiz findet sich jedoch eine Dissertation, die nur sechs Jahre vor der Studie von 2003 erschien. Mathias Baudenbacher wollte damit, in einem Programm des Nationalfonds, eine «allgemeine technische Anleitung zur Bereinigung und Homogenisierung langer Temperaturmessreihen in der Schweiz» liefern. Als Beispiel bearbeitete er auch die Daten von Sion, und er fand dabei keine Erwärmung: Auf seinen Grafiken ist nicht zu erkennen, dass die Temperaturen seit dem 19. Jahrhundert stiegen – sondern dass sie vor den Eingriffen der Homogenisierer zeitweise sogar höher lagen als nach der schnellen Erwärmung ab 1980.

Fazit :

Die Frage, ob Meteo Schweiz die Temperaturdaten korrekt bearbeitete, lässt sich nicht klar beantworten; sie ruft – angesichts ihrer Relevanz für die Klimadebatte – nach einer unabhängigen Untersuchung.

Gewiss ist nur : Die unnatürliche Erwärmung seit 1980 ist tatsächlich menschengemacht.

=================================================================

)*  Anmerkung der EIKE-Redaktion  :

Dieser Artikel ist zuerst erschienen in der WELTWOCHE Zürich :  Markus Schär, „Menschgemachte Schwankungen  Sonderheft „Klimawandel für die Schule“, (11.07.2019) ;  http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Markus Schär für die Gestattung der ungekürzten Übernahme des Beitrages.

=================================================================




Warnte Hans Rosling vergebens?

Verlegt in vielen Sprachen, auch in Deutsch bei Ullstein 2018 , erhielt sein Buch enthusiastische Zustimmung. Lieferte es doch ein durchweg optimistisches, und trotzdem ungeschönt realistisches Weltbild aus statistisch gesicherten Belegen. Es ist ein wertvolles, weil aufklärendes Buch gegen eine medial verzerrte alarmistische Weltsicht. Es liest sich gut. Es bildet. Es erheitert. Wer es kürzer braucht, schaue in die informative Rezension von Kip Hansen unter:

https://eike.institute/2018/11/17/factfulness-eine-buchrezension/

Mahnte Rosling vergebens vor Panikmache? Ja, wenn man die globale Pandemie erkennt, die gerade auch von  schwedischen Eliten angezettelt, die Welt  infiziert. Sie trägt den Namen eines psychisch erkrankten skandinavischen Kindes „Greta Thunberg“.

Hans Rosling, der Professor für Internationale Gesundheit am schwedischen Karolinska-Institut, Arzt und erfahrener Bekämpfer von Infektionskrankheiten, ist leider zu früh verstorben, um gegen das Panikorchester seines Landsmädchens eingreifen zu können. Tun wir es, indem wir seine Mahnungen auffrischen. Er schreibt in „Urgency instinct“ salopp „ Panikmache“

  • tritt ein Problem auf, ist es das Erste eben nicht zu rufen „Der Wolf kommt“, sondern die Sachlage zu prüfen. Es geht nur im akuten Notfall um „Jetzt oder Nie“
  • Bestehe auf validen und detaillierten Daten. Wenn irgendetwas wichtig und dringlich ist, muss dazu auch eine Datengrundlage bestehen. Sei vorsichtig, wenn Daten relevant, aber ungenau sind, oder umgedreht. Es braucht beides!
  • Hüte Dich vor Horror-Darstellungen! Jede Vorhersage ist unsicher. Fordere Szenarien, wenn es „alternativlos“ heißt! Kommentar: Rosling forderte von Al Gore die Darstellung aller Klimaszenarien, was dieser mit seinem Motto: „ Wir müssen Furcht erzeugen“ verweigerte
  • Hüte Dich vor drastischen Aktionen! Frage nach deren Nebenwirkungen! Frage nach Erfahrungen damit!
  • Strebe ein stufenweises Herangehen mit parallelem Monitoring an!

Um Rosling nicht komplett zu vereinnahmen: er glaubt an den  menschengemachten Klimawandel in Form der AGW-Hypothese. Aber er ist als erfahrener Arzt klug genug, um zu erkennen, ob die Diagnose tragfähig ist.

„Unser Problem ist, dass wir nicht wissen, was wir nicht wissen, und selbst unsere Vermutungen basieren auf ungewissen und vorhersehbaren Verzerrungen.“

„Was ich für besonders bedenklich halte, ist der Versuch mit der Erfindung des Klimaflüchtlings Aufmerksamkeit zu erzeugen….Die Klimaaktivisten sind inzwischen leider überzeugt, dass der Zweck die Mittel heiligt, aber wer zu oft ruft“ der Wolf kommt“ setzt seine Glaubwürdigkeit und seinen Ruf als seriöser Klimaforscher aufs Spiel.

Die Rolle des Klimawandels zu überzeichnen und ihn mit Kriegen  und Konflikten , mit Armut und Migration in Zusammenhang zu bringen bedeutet auch, andere wichtige Ursachen dieser globalen Problematik zu ignorieren und unsere Fähigkeiten, diesen zu  begegnen, zu schwächen.

Wir dürfen nicht in eine Situation geraden, in der wir einander nicht mehr zuhören. ….

Wer sich seriös mit dem Klimawandel  befassen will, muss immer zwei Dinge im Kopf behalten. Man darf nie zum Opfer der eigenen frustrierten und alarmierenden Botschaften werden . Man darf einerseits die Augen  vor den Worst-Case-Szenarien nicht verschließen, muss aber andererseits auch um die Unsicherheiten der Datenlage wissen. Und wer anderen Dampf machen will, muss trotzdem eine kühlen Kopf behalten, um kluge Entscheidungentreffen zu können und seine Glaubwürdigkeit nicht aufs Spiel zu setzen…

Der Klimawandel ist dafür zu wichtig. Er verlangt systematische Analyse, gut durchdachte Entscheidungen , abgestufte Aktionen und sorgfältige Bewertungen.

Mit einem Wort: Vernunft.

 




Solar und Batteriestrom so günstig wie noch nie – es sei denn, Sie rechnen nach

Die Kurzfassung: Ohne Subventionen und ohne Verlustabschreibungen funktioniert das Ganze nicht – also nicht ohne dem Strombezieher anderweitig in die Tasche zu greifen. Zusätzlich ist zu wissen, in USA werden Stromanteile im Strommix vorgeschrieben, Strom aus Erneuerbaren Energien wird in „Abnahme- / Liefermenge“ vertraglich geregelt. Wo die MWh dann bei fehlendem Grünstrom letztendlich tatsächlich generiert werden, interessiert nicht, wenn es sich bei dem Vertragspartner (~Zwischenhändler) um einen „grünen Stromanbieter“ handelt.

****

Gastbeitrag von David Middleton

Der neue Solar- und Batteriepreis zermalmt fossile Brennstoffe und begräbt die Kernenergie

Jeff McMahon Mitherausgeber, Grüne Technik,

Aus Chicago schreibe ich über Klimawandel, grüne Technologie und Energie.

Die Verantwortlichen für Energie und Wasser in Los Angeles, haben einen Vertrag über das größte und billigste Solar- und Batteriespeicherprojekt der Welt abgeschlossen, zu Preisen, die fossile Brennstoffe im Staub belassen und möglicherweise die Kernenergie in den Mülleimer verlagern.

Noch für diesem Monat wird erwartet, dass der Aufsichtsrat der Los Angeles Wasser- und Energiewerke einen 25-Jahres-Vertrag genehmigt, der 7 Prozent des Strombedarfs der Stadt mit 1,997 ¢ / kWh für Solarenergie und 1,3 ¢ für Batteriestrom abdeckt.

„Dies ist der niedrigste Preis für Strom aus Solar- / Photovoltaik in den USA“, sagte James Barner, Manager der Agentur für strategische Initiativen. „Es ist das größte und kostengünstigste Solar- und Hochleistungs-Batteriespeicherprojekt in den USA und wir glauben an die Welt von heute. Ich glaube, das ist wirklich revolutionär in der Branche. “

Es ist die die Hälfte der geschätzten Stromkosten einer neuen Erdgasanlage .

Mark Z. Jacobson, Stanford-Professor…

[…]

Forbes

An dieser Stelle hörte ich auf, obigen Forbes- Artikel zu lesen.

Kohle und Gas unter Druck, da großes US-amerikanisches Solar- und Batteriegeschäft den Markt verblüfft

Renew Economy [einschlägige Webseite aus Australien], Autor Sophie Vorrath 3. Juli 2019

Ein Kaufvertrag für Solar- und Batteriespeicherstrom in Kalifornien setzt neue Maßstäbe für die Kosten von Solarstrom – 1,99 c / kWh für 400 MW PV (Solar) und 1,3 c / kWh für gespeicherten Solarstrom von 400 MW / 800MWh Batteriespeichersystem in gleicher Region.

Der Rekordvertrag, den die Verantwortlichen für Energie und Wasser in Los Angeles (LADWP) mit „8minute“, einem Anbieter von Erneuerbaren Solarstrom abgeschlossen hat, soll einen zweistufigen Vertrag mit einer Laufzeit von 25 Jahren abschließen, um 7 Prozent des Strombedarfs von LA zu decken.

Das Projekt mit dem Namen Eland Solar and Storage Cente, das im Kern County nördlich von Los Angeles realisiert wird, in zwei Schritten a‘ 200-MW. Optional können weitere 50 MW / 200 MWh Energiespeicher für 0,665 Cent pro kWh mehr hinzugefügt werden.

[…]

„Dies ist der niedrigste Preis für Strom aus Solar-Photovoltaik in den USA und das größte und kostengünstigste Hochleistungs-Batteriespeicherprojekt in den USA. Wir glauben an die heutige Welt“, sagte der Leiter der LADWP für strategische Initiativen, James Barner. „Ich glaube, das ist wirklich revolutionär in der Branche.“

Barner hat auch festgestellt, dass das Projekt in der Lage ist, eine „erhebliche“ Steuergutschrift für Solarinvestitionen des Bundes „voll auszuschöpfen“, die sich auf rund 30 Prozent belief und „im Grunde genommen die Kapitalkosten des Projekts senkte“.

 […]

Dieses Projekt wäre ohne die Investitionssteuergutschrift (ITC) nicht realisierbar. 30% der Investition auf Kosten des Steuerzahlers zu bekommen, ist hier ein wichtiger Faktor. Steuergutschriften sind nicht dasselbe wie Steuerabzüge. Die ITC [für Erneuerbare] sollen in den nächsten Jahren zurückgefahren werden.

Es gibt auch einige Verwirrung über den Stromabnahmevertrag.

Los Angeles strebt Rekordpreis für Solarstrom unter 2 ¢ / kWh an. Die Stadtwerke haben einen 25-jährigen Strombezugsvertrag für 400 MWac Solarstrom bei 1,997 ¢ / kWh und 200 MW / 800 MWh Energiespeicher bei 1,3 ¢ vor / kWh.

  1. JUNI 2019 JOHN WEAVER

[…]

Das Team teilte den Kommissaren mit, dass sie am 23. Juli die Genehmigung eines zweiphasigen 25-Jahres-Strombezugsvertrags (PPA) mit einem Preis von 1,997 ¢ / kWh für 400 MWac / 530 MWdc Solarstrom, der zum Zeitpunkt der Erzeugung zuzüglich gespeicherten Solarstrom zu 1,3 ¢ / kWh für den überschüssigen Strom, der später aus einem gemeinsam installierten Energiespeichersystem mit 400 MW / 800 MWh geliefert wird.

Quelle PV Magazine

Die grünen Cheerleader gehen davon aus, dass der direkt durch Sonnenenergie erzeugte Strom für 1,997 ¢ / kWh und der im Batteriesystem gespeicherte Strom als separates Produkt für 1,3 ¢ / kWh verkauft wird. Aus dem Kommentarbereich des PV Magazine-Artikels:

NickM
28. Juni 2019 um 11:00 Uhr.
Wäre die Batterieleistung nicht zusätzlich 1,3 Cent / kWh, also insgesamt ~ 3,3 Cent? Ansonsten wird die gespeicherte Energie für weniger als der direkt erzeugte Sonnenstrom verkauft – das klingt merkwürdig.

John Weaver
28. Juni 2019 um 11:03 Uhr
Separates Produkt, wird also nicht hinzugefügt

[ein dritter schreibt: ~überschüssiger Strom ins Netz gespeist ist einfach weg, daher kostet der auch nichts extra…]

[…]

PV Magazine

 

Die Mathematik eines „separaten Produkts, also nicht darüber hinzugefügt“ funktioniert einfach nicht.

Ich konnte keine Zahlen für den Bau dieses Kraftwerks finden. Es scheint, dass sie heutzutage selten veröffentlicht werden. Alles, was jemals angekündigt wurde, sind lächerlich niedrige Preise in Stromabnahmeverträgen.

Wenn wir davon ausgehen, dass sie die Installationskosten auf 1 USD / W senken und einen Kapazitätsfaktor von 33% schaffen, wie die nahe gelegene Springbok 1-Anlage , würde die 200 MW Eland Phase 1-Solaranlage 200 Mio. USD kosten. Nach der neuesten Schätzung von NREL zu den Batteriespeicherkosten würde ein System mit 100 MW, das 4 Stunden liefern kann [also 400MWh] einen Umsatz von ca. 132 Mio. USD (bei 93 Mio. USD Investionssteuergutschrift ITC) erbringen. Sie würden Geld für den Verkauf von batteriegepeichertem Strom mit 1,3 t / kWh verlieren.

Solar mit Steuergutschrift.

Batterie mit Steuergutschrift

Solar + Batterie mit Steuergutschrift

Zusammen ergibt sich für das Projekt über einen Zeitraum von 25 Jahren ein einfacher ROI [Return of Investment] von 144% bei einer Auszahlung von 17 Jahren. Dies schließt jedoch die Betriebs- und Wartungskosten sowie den Austausch der Batteriezellen nicht ein. Kein vernünftiges Geschäft würde ein solches Risiko eingehen. Sie könnten mit 30-jährigen Staatsanleihen einen ROI von 190% erzielen, praktisch ohne Risiko. Das verlustreiche Hinzufügen des Akkus macht keinen Sinn. Wenn dies die tatsächliche Preisstruktur wäre, würde der Nettopreis mit mehr Batteriespeicher sinken … Dies trotzt einfach der Glaubwürdigkeit.

Das Projekt beinhaltet die Option, 50 MW / 200 MWh Energiespeicher für einen zusätzlichen Preis von 0,665 ¢ / kWh hinzuzufügen.

PV Magazine

 

Wenn sich die Batteriekosten zum Grundpreis addieren, wäre das Projekt mit dem Batteriespeichersystem rentabler als ohne. Eine Erhöhung des Batteriespeichers würde den Nettopreis pro kW / h erhöhen und die Projektökonomie verbessern, anstatt sie zu verschlechtern.

Solar Phase 1 + 100MW BESS/4-hr –> 3.297¢/kWh.

100MW/4hr Batteriespeicher mit Steuergutschrift.

Solar Phase 1 + 150MW BESS/6-hr –> 3.962¢/kWh.

150MW/6hr Batteriespeicher mit Steuergutschrift.

Übersicht mit Subventions-Steuer-Gutschrift ITC

Diese Preise sind zwar mit erdgasbetriebenen Kombikraftwerken „konkurrenzfähig“, jedoch völlig von Subventionen abhängig. Selbst dann sind die Renditen marginal. Ein Rabatt von 7% würde sogar das Solar + 150MW BESS / 6hr-Projekt zum Erliegen bringen. Es muss einen anderen Blickwinkel geben.

 

Der andere Blickwinkel

Wie setzen Projektentwickler die Steuergutschriften ein?

Viele Projektentwickler haben nicht genügend zu versteuerndes Einkommen, um die Steuergutschriften voll auszunutzen. Anstatt sie zur Senkung ihrer eigenen Steuern zu verwenden, sichern sie sich damit Investitionsgelder von Steuerbeteiligungsinvestoren (in der Regel große Finanzinstitute und gelegentlich vermögende Privatpersonen). Steuerliche Eigenkapitalinvestoren stellen dem Bauträger eine Finanzierung im Austausch für einen Anteil [am Wert] des Projekts zur Verfügung. Dies ermöglicht es den Anlegern, Steuergutschriften für jeden investierten Dollar zu erhalten (Reduzierung der zukünftigen Steuerschuld) UND eine Rendite für ihre Investition vom Bauträger zu erhalten.

Typischerweise werden alle Einnahmen in den ersten fünf Jahren des Projektlebens für die Rückzahlung von Steuerbeteiligungen verwendet, bis sie ihre Rendite erreicht haben. Zu diesem Zeitpunkt kauft der Bauträger den Anteil des Investors am Projekt auf. Steuerliche Eigenkapitalinvestitionen sind bedeutend: Laut  Greentech Media entfallen 40 bis 50 Prozent der Finanzierung auf Solarprojekte und 50 bis 60 Prozent auf Windprojekte. Der Rest des Projektkapitals stammt von Eigenkapital- und Fremdkapitalgebern.

 

Level 10 Energy Blog

Selbst wenn das Solarstromprojekt unrentabel ist und keine oder nur eine geringe Steuerschuld des Bundes hat, kann der ITC effektiv an Anleger verkauft werden, die die Steuergutschrift in vollem Umfang nutzen können.

Streichen Sie die Steuergutschrift und das ist ein Verlustgeschäft

Barner hat auch festgestellt, dass das Projekt in der Lage war, eine „erhebliche“ Steuergutschrift für Solarinvestitionen des Bundes „voll auszuschöpfen“, die sich auf rund 30 Prozent belief und „im Grunde genommen die Kapitalkosten des Projekts senkte“.

Renew Economy

Tabelle ohne Steuergutschrift ITC

Eine Discounted-Cashflow-Analyse [… discounted = ~zusätzlicher Rabatt?] würde dieses Projekt sofort zum Erliegen bringen, wenn nicht die Investitionssteuergutschrift (ITC) helfen würde. Ohne die ITC könnten sie keine solchen Low-Ball-PPAs bieten, und es wäre viel schwieriger, sich die Finanzierung zu sichern. [PPA Purchase Price Allocation]

Wie wirkt sich das Auslaufen von Steuergutschriften für erneuerbare Energien auf die Preise aus?

Ohne Steuergutschriften müssen sich die Bauträger an teurere Finanzierungsquellen wenden, um ihr Projekt zu realisieren, was zu einem Preisanstieg führen könnte. Darüber hinaus können sie die Preise aufgrund von Produktionssteuergutschriften PTC [… für „Erneuerbare“] nicht senken.

In vielen Fällen sind Steuergutschriften die treibende Kraft dafür, dass erneuerbare Energien billiger wurden als Kohle. Es bleibt abzuwarten, ob sich das Auslaufen von ITC und PTC dramatisch auf die Preise für erneuerbare Energien auswirken wird. Während es wahrscheinlich ist, dass die Preise steigen werden, gibt es mehrere Faktoren, die ihren Anstieg abschwächen könnten:

Geringere Kosten: Durch technologische Fortschritte konnten die Kosten für den Bau von Windkraftanlagen, Photovoltaikzellen und anderen wichtigen Komponenten für Projekte im Bereich erneuerbare Energien gesenkt werden. Darüber hinaus könnten die Ausrüstungskosten sinken, wenn die Zölle für Solarprodukte und Stahl abgeschafft werden.

Erhöhte Nachfrage: Die Unternehmensnachfrage nach erneuerbaren Energien und Standards für erneuerbare Stromerzeugung für Stadt- und Landesregierungen erhöhen die Anzahl der Käufer auf dem Markt und die Gesamtnachfrage nach sauberer Energie [aufgrund gesetzlicher bestimmter Zwangsanteile im Strommix]. Darüber hinaus könnten politische Änderungen wie eine Kohlenstoffsteuer oder die Verabschiedung des Green New Deal die Nachfrage erhöhen.

Level 10 Energy [Blog für Erneuerbare]

Realität

Der größte Teil der USA eignet sich nicht so gut für Solar oder PV Anlagen wie die Mojave-Wüste. Abgesehen von Staaten mit Pipeline-Phobie und Hawaii, liefert Erdgas fast überall zuverlässige Energie … Selbst nachts und an bewölkten Tagen.

Während Wind und Sonne in einigen Bereichen wettbewerbsfähig sein könnten…

EIA Levelized Cost and Levelized Avoided Cost of New Generation Resources in the Annual Energy Outlook 2019

Unabhängig davon, wie niedrig der LCOE-Wert ist, hängen Wind und Sonne immer von der Stärke des Windes und des Sonnenscheins ab. Hinweis: Die EIA-LCOE-Zahlen enthalten keine Speicherung oder Back-up Kraftwerke und gehen von einem Anstieg der Erdgaspreise zwischen 2023 und 2040 aus.

EIA Levelized Cost and Levelized Avoided Cost of New Generation Resources in the Annual Energy Outlook 2019

EIA Levelized Cost and Levelized Avoided Cost of New Generation Resources in the Annual Energy Outlook 2019

[Aus vorstehendem Link: Nivellierte Stromkosten

Die Stromniveaukosten (LCOE) geben die durchschnittlichen Einnahmen pro erzeugter Energieeinheit [Strom in MWh] an, die erforderlich sind (.. wären), um die Kosten für den Bau und den Betrieb eines Kraftwerks, während eines angenommenen finanziellen- und Betriebszeitraums zu decken. ..]

Und wenn die Reduzierung der CO2-Emissionen wirklich so wichtig wäre …

Netto Kosten und Vorteile pro Jahr per MW mit Grundlastabdeckung durch Kohlekraftwerke. Nuclear und Gas bringen große Vorteile, Wind ist ausgeglichen und Solar ist ein Verlierer [Zusatzkosten wegen unzuverlässigen Stromproduktion.]

Real Clear Energy.

[… Wind und Sonne benötigen unter Berücksichtigung der Unstetigkeit irgendwo am Netz Subventionen oder versteckte back-up – standby Stromquellen, während sich Wasser, Wind und Erdgas amortisieren und wirtschaftliche Vorteile schaffen. Kernkraft ist die große Überraschung, da es die höchsten Baukosten hat, die es normalerweise am teuersten erscheinen lassen. Aufgrund seines außergewöhnlichen Kapazitätsfaktors – Reaktoren laufen in mehr als 90 Prozent der Zeit – erfordert seine extreme Zuverlässigkeit kein Backup und senkt die Kosten für das Netz. Erdgas [-kraftwerke] kann sogar noch besser sein, vor allem, weil es am geeigneten ist, schnell auf Schwankungen der Stromerzeugung zu reagieren (Sonne oder Wind).]

Obwohl die Kosten für Wind und Sonne seit Veröffentlichung dieser Grafik im Jahr 2014 gesunken sind, hat sich nichts geändert: Kernkraft- und Erdgas können Kohle 1 : 1 direkt ersetzen. Wind und Sonne werden das niemals können. Dies setzt voraus, dass Kohle überhaupt ersetzt werden soll.

 

Aber, aber, aber … Was ist mit Subventionen für fossile Brennstoffe?

Was ist mit denen?

Direkte finanzielle Interventionen und Subventionen des Bundes für Energie im Geschäftsjahr 2016

 

Wie der Gipper sagen würde …

[u.a. Spitzname für Ronald Reagan, auch Anfeuerungsruf für ein Spielerteam, das letzte zu geben, um einen Punkt zu machen]

Der Blick der Regierenden auf die Wirtschaft kann in kurzen Phrasen zusammengefasst werden:
Wenn es läuft, besteure es; Wenn es weiter läuft, reguliere es; und wenn es aufhört zu laufen, subventioniere es.

Gefunden auf WUWT vom 15.07.2019

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2019/07/15/new-solar-battery-price-crushes-fossil-fuels-buries-nuclear-until-you-do-the-math/




So heiß, dass man städtische Wärmeinseln vom Weltall aus sieht

Die Wärme der Rollbahnen des Flughafens Charles DeGaulle in Paris-Orly sind vom Weltall aus leicht erkennbar. (Ebenso wie alle anderen idealen Aufstell-Orte für Klimawandel-Thermometer). Die Rollbahnen des Flughafens Charles DeGaulle befinden sich (glaube ich) oben rechts auf der Wärmekarte.

Abbildung 1: Die Ökostress-Karte der NASA von Paris. Quelle: NASA/JPL-Caltech

Bitte um Handzeichen: Wer glaubt, dass die Thermometer im Jahre 1880 zu hohe Werte zeigten? Irgendwer?

Die Fotos wurden am frühen Morgen gemacht. Sie zeigen, wie es wegen des UHI in den Zentralbereichen einer jeden Stadt viel wärmer ist als in der umgebenden natürlichen Landschaft – eine Folge davon, dass Stadtflächen Wärme über den Tag speichern, die sie dann nur sehr langsam wieder abgeben.

Die Tatsache, dass die Temperatur am frühen Morgen 25 bis 30°C betragen hatte, zeigt, dass ein großer Teil der Wärme der Vortage gespeichert worden war von Oberflächen mit hoher Wärmekapazität (Asphalt, Beton und Gewässer). Diese Oberflächen waren nicht in der Lage, die Wärme bis zum nächsten Tag vollständig abzustrahlen. Die eingefangene Wärme resultierte an einigen Stellen in sogar noch höheren Mittagstemperaturen in den hohen 40-er Grad Celsius, als sich die Hitzewelle fortsetzte.

Zwar hatten all diese Wärmesenken die ganze Nacht Zeit, ihre Extra-Wärme loszuwerden, und doch strahlten sie immer noch – sogar noch am nächsten Tag zur Mittagszeit.

Abbildung 2: Ökostress-Wärmekarte von Rom. Quelle wie oben.

Nett, dass man die Flughäfen gekennzeichnet hat.

Hier noch die gleichen Karten von Mailand und Madrid:

Abbildung 3: Mailand, Ökostress-Wärmekarte. Quelle wie oben

Abbildung 4: Ökostress-Wärmekarte von Madrid. Quelle wie oben

Die COSTRESS-Sonde wurde im vorigen Sommer zur Weltraumstation geschossen und sammelte ihre ersten Daten schon wenige Tage nach der Installation. Das Instrument misst Variationen der Oberflächentemperatur bis auf wenige Zehntelgrad genau, und das mit beispiellosem Detailreichtum: Es kann Temperaturänderungen zu verschiedenen Tageszeiten auf Flächen von der Größe eines Football-Feldes erkennen. Diese Messungen helfen den Wissenschaftlern bei der Abschätzung des Wohlergehens von Pflanzen und Reaktionen auf Wasserknappheit, was ein Indikator für eine bevorstehende Dürre sein kann. Das Instrument kann auch zur Messung von Wärmetrends herangezogen werden, zum Aufspüren von Waldbränden und Steigerungen vulkanischer Aktivitäten.

Mehr zu ECOSTRESS findet man hier.

Link: http://joannenova.com.au/2019/08/we-can-see-the-urban-heat-islands-from-space/

Übersetzt von Chris Frey EIKE




Kinderpro­pheten und Missionare der Klima-Katastrophe

Die Rolle von Kindern in der Kultur des Klima-Katastrophismus‘

1. Ernste Szenarien für Kinder: real oder kulturell erzeugt?

1.1 Ängstigung unserer Kinder: Ab wann finden wir es akzeptabel, Kinder institutionell zu ängstigen? Während unser erster spontaner Gedanke lautet, dass das niemals geschehen sollte, gibt es in der Praxis mindestens zwei Szenarien, in denen genau das als moralisch akzeptabel eingeschätzt wird. Das erste Szenario ist, wenn gefährliche, harte Realitäten jenseits der Kontrolle von Erwachsenen es erforderlich machen, dann muss man den Kindern die Achtung vor derartigen Realitäten beibringen. Oftmals kann dies auch eine gewisse Ängstigung mit sich bringen in der Hoffnung, dass diese den Kindern hilft, sich sicher zu fühlen. Ein Beispiel hierfür ist das Training mit Gasmasken im 2. Weltkrieg, weil Erwachsene nicht sofort überall sein können, um den Kindern mit den Masken im Ernstfall zu helfen. Das zweite Szenario ist, wenn es moralisch akzeptabel ist, die Werte einer Kultur zu stützen, welche die moralische Landschaft definiert (oder eine neue aufstrebende Kultur, welche versucht, genau eine solche Landschaft zu definieren). In diesem zweiten Fall wird das Einträufeln erkannter Ängste als normativ angesehen, um ein bestimmtes soziales Verhalten zu erreichen, den Zugang zu Vorteilen zu gewähren und vermeintliche kulturelle Belohnungen zu erhalten. Ein Beispiel hierfür ist die Ängstigung von Kindern über Sünden oder die Hölle oder die Kreuzigung, um christliches, soziales Verhalten zu erzwingen und das Lockmittel auszubreiten, bei willfährigem Verhalten in den Himmel zu kommen (anstatt in die Hölle).

1.2 Protestierende Kinder: Wann finden Kinder zueinander, um zu versuchen, ihre gemeinsame Stimme des Protestes zu erheben, damit sie von der Gesellschaft gehört wird? Wie oben gibt es auch hier mindestens zwei Szenarien, unter denen das geschieht. Das erste Szenario ist eine Reaktion auf eine bestehende und weit verbreitete und irgendwie geartete ernste Benachteiligung von Kindern (und vielleicht auch von Erwachsenen). Das zweite Szenario ist eine Reaktion auf starke, an die Wand gemalte Gefahren kultureller Art, welche fälschlich interpretiert worden sind als eine reale und präsente Bedrohung oder Schädigung. In beiden Fällen werden Maßnahmen seitens der Erwachsenen erwartet, um das Problem abzuschwächen oder aus der Welt zu schaffen. Einige Erwachsene sind typischerweise involviert in die Organisation einer Kinder-Bewegung, wobei sie angeglichene Interessen haben; irgendetwas von echtem Schutz ihrer Kinder (oder der Interessen derselben) bis hin zu virtue signaling. Hierzu folgen später ein paar Beispiel-Szenarien.

1.3 Kinder in der Verantwortung: Wann befürworten die Führer einer Gesellschaft, dass wesentlichen politischen Anliegen von Kindern Ausdruck verliehen wird, und implementieren so etwas (oder versuchen es zumindest)? Und wieder gibt es mindestens zwei Szenarien, bei denen das geschieht. Im ersten Szenario geht es um eine weit verbreitete Benachteiligung wie im Abschnitt oben beschrieben, wobei für die soziale Führung ein repräsentatives Opfer-Kind an die Front geschoben wird, so dass der Schrei nach Wiedergutmachung besonders laut zu vernehmen ist. Egal ob Kinder nun wirklich ernsthaft benachteiligt sind oder psychologisch und/oder physisch unter diesen Nachteilen leiden oder nicht, egal ob unter den Ursachen kulturelle Elemente sind oder nicht, ist dies essentiell ein Thema harter Realität der gegenwärtigen Schädigung. Im zweiten Szenario sind Führer emotional behindert, um der Politik eines Kindes zu widerstehen oder zu widersprechen, selbst wenn die Auswirkungen wahrscheinlich insgesamt sehr negativ sind, weil dies einigen kulturell vorgegebenen Ängsten Ausdruck verleiht. Oder zumindest ist Widerstehen in einer neu aufkeimenden Kultur immer noch eine zentrale Herausforderung der Führung. Kultureller Bias macht die Menschen blind für Nachteile, und unsere in uns verwurzelten Instinkte, ein Stigma zu vermeiden, werden wahrscheinlich bei jenen verstärkend zum Tragen kommen, die ihre Führungsmacht erhalten wollen. Fehlende Unterstützung beschwört das Risiko eines ernsten kulturellen Stigmas herauf, einschließlich der Schande durch Nichtanerkennung eines moralischen Anspruchs durch ein ,benachteiligtes‘ Kind (benachteiligt jedenfalls dem akzeptierten kulturellen Narrativ zufolge). Beispiele hierfür folgen weiter unten.

1.4 Was ist was? Eine säkulare, vernünftige Gesellschaft sollte sich bemühen, die kulturellen Szenarien all dieser Fälle zu vermeiden, führen sie doch zu sinnlosen Ängsten, Traumata, falschen Hoffnungen und ungeeigneten sozialen Maßnahmen. Eine vernünftige religiöse Gesellschaft sollte sich bemühen, den Zusammenhang mit Kernwerten zu begrenzen, und verhindern, dass unsere emotionalen Gedanken für Kinder auf ein alarmistisches/extremistisches Niveau gehoben werden. Und sie sollte verhindern, dass Kinder, die zu mehr als einer schwachen religiösen Anteilnahme gezwungen werden, zu Schaden kommen.

Und doch, für jeden gegebenen Protest oder politische Vorgaben oder die Verbreitung von Ängsten – wie können wir erkennen, um welches Szenario es sich handelt? Wie sollen wir herausfinden, ob die unseren Kindern konstant eingeträufelte Angst bzgl. Klimawandel, die daraus folgenden KlimaStreiks der Kinder sowie die dramatischen, von einer Greta Thunberg geäußerten Bestrebungen in den Bereich Realität oder in den Bereich Kultur fallen? Basiert Gretas Auftritt vor den UN genauso auf Realität wie der Auftritt von Malala Yousafzai ebendort? Brauchen beide die gleiche weltweite Unterstützung für eine Änderung? Ist die Natur der Schul-Klimastreiks ultimativ genauso materiell und gerechtfertigt wie der Kinder-Kreuzzug im Jahre 1963, auch wenn die Bandbreite des Problems, welches heute den Kinderprotesten zugrunde liegt, drastisch teurer ist? Große Schichten der Bevölkerung stehen enthusiastisch hinter den Schulstreiks und Greta; sie werden die letzten beiden Fragen sicher mit ,ja‘ beantworten. Aber wie sieht der direkte Vergleich beider Ereignisse aus?

2.Vergleichbare Fälle von Kindern in der Verantwortung: Malala und Greta

In dem Artikel Child Soldiers in the Culture Wars [etwa: Kindersoldaten im Kulturkrieg] heißt es: Die von politisch aktiven Kindern repräsentierten Wertvorstellungen sind offensichtlich. Sensible Themen, die bei leidenschaftsloser Behandlung verkümmern, blühen auf, wenn diese Art der Analyse tabu ist. Hinzu kommt der emotionale Einfluss des Umstandes, dass Kinder mit ihrem Unschuldsanspruch besondere Einsichten/Wahrheiten haben, was die Überzeugungskraft dieser Mädchen mächtig verstärkt. (Trotz der Tatsache, dass dieser Umstand falsch ist und auch irrelevant bzgl. persönlicher Aspekte ist wie Gretas Asperger-Syndrom). Diese Faktoren erzeugen eine emotionale Nebelwand, welche die Irrationalität unserer Empfindungen verstärken kann. Um wie in Abschnitt 1 beschrieben herauszufinden, ob Realität oder Kultur die Auftritte dieser beiden Mädchen vor den Führern der Welt dominieren hinsichtlich grundlegender und komplexer sozialer Zusammenhänge, müssen ein paar Fragen gestellt werden:

a. Wird das Kind moralisch durch eine Kultur gestützt?

b. Falls ja, wurzelt der Auftritt des Kindes im Haupt-Narrativ dieser Kultur oder wird sie von demselben getrieben?

c. Repräsentiert der Auftritt einen Aspekt gegenwärtiger oder zukünftiger Nachteile? Zukunft bedeutet wahrscheinlich kulturell.

d. Diktiert das Kind eine bestimmte Lösung (innerhalb eines bestimmten Zeitrahmens)? Selbst bei großer Komplexität könnte eine Kultur das.

e. Falls ja zu Frage 4, und egal, wie man die Fragen 1 und 2 beantwortet – scheint diese Lösung irrational? Starke kulturelle Lösungen sind es jedenfalls.

f. Wie groß ist der Aufwand (bzgl. Änderung des Verhaltens oder von Infrastruktur). Kultureller Aufwand kann astronomisch sein.

(Das Niveau der Achtung ist ebenfalls von Interesse. Ein starker Glaube respektiert ultimativ keine Autorität außer seiner eigenen). Die Antworten sagen uns, ob eine emotionale Verstärkung einer schon etablierten Realität einen Zusatzschub verleiht, oder ob es sich um ein entscheidendes Mittel handelt, die Auslösung kultureller Ängste zu gewährleisten.

[Es folgt das Beispiel von Malala bei ihrem Auftritt vor den UN. Der Autor beschreibt detailliert ihr religiöses Umfeld und auch, dass sie selbst religiös motiviert ist {im Islam}. Ihre Forderungen nach Bildung für Mädchen und Frieden ist sicher kulturell getrieben, aber auch säkular, weil sie einen echten Notstand anprangert. Als Nächstes folgt das Beispiel von Greta Thunberg, deren Aktivitäten ganz anders gelagert sind. Als Drittes bringt der Autor noch das Beispiel eines Mädchens des Xhosa-Stammes in Südafrika, das hier der Länge wegen nicht übersetzt wird. – Anm. d. Übers.]

Die Kultur hinter Gretas Auftritt vor dem Machtapparat der Welt ist hier charakterisiert. Im Mittelpunkt dieser Kultur steht etwas, das seit Jahrzehnten von höchsten Machtapparaten der ganzen Welt propagiert wird, nämlich eine hohe Sicherheit einer baldigen (nach Jahrzehnten) globalen Klima-Katastrophe. Gretas Worte lassen keine Zweifel daran aufkommen, dass ihr Auftreten durch dieses Narrativ getrieben wird, so dass die Antwort zu b) lautet ,ja‘. Neben sekundären Behauptungen gegenwärtiger Schäden behandelt Greta hauptsächlich Ängste in der Zukunft und einen erheblich größeren Schaden, wenngleich sie auch das ,unmittelbar‘ betont (bis ,irreversibel‘). Also lautet c) ,Zukunft‘. Wenn das Hauptereignis bereits im Gange ist, kann dies keine kulturell erzeugte Angst sein; für eine projizierte zukünftige Angst kann es das aber sehr wohl sein. Hinsichtlich d) fordert Greta eine Lösung und gibt sogar den Zeitrahmen vor. Bei der Antwort zu e) kommen subjektive Ansichten ins Spiel. Greta bezeichnet die Klimakatastrophe, das ,Opfern der Zivilisation und der Biosphäre‘ als mit Sicherheit eintretend. Bei längeren Auftritten in UK und Frankreich zitiert sie das IPCC, welches diese Katastrophe bestätigt hätte. Aber die IPCC-Wissenschaft stützt nicht eine hohe Sicherheit des Eintretens einer globalen Klimakatastrophe innerhalb von Jahrzehnten. Dies bestätigt, dass ihr politisiertes, zentrales Narrativ des Katastrophismus‘ emotional getrieben, das heißt falsch ist. Folglich richtet sich Gretas Lösung an emotionale Inventionen und nicht an Realitäten. Das ist wirklich irrational; e) ist ein ,ja‘. Zu f), Greta tritt vor den Führern der Welt auf, und ihre Forderung an die Welt ist astronomisch. Um der unmittelbar bevorstehenden globalen Apokalypse zu entgehen, ist die größte Anpassung des Verhaltens und der Infrastruktur der Menschheit seit der industriellen Revolution erforderlich, vielleicht sogar seit des Aufkommens von Landwirtschaft, innerhalb kürzester Zeit. Was immer die Mainstream-Wissenschaft der Politik vorgibt, es rechtfertigt nicht diese Radikalität. Greta zeigt keinerlei Respekt vor den Führern und behauptet außerdem, dass sie alle lügen. Emotionale Überzeugung bzgl. der Katastrophe lässt diese als unvermeidlich erscheinen.

[…]

Tabelle 1: Sie zeigt, dass Malalas Kampagne auf Realität beruht, Gretas Kampagne dagegen auf kultureller Angst.

Tabelle 1: Sie zeigt, dass Malalas Kampagne auf Realität beruht, Gretas Kampagne dagegen auf kultureller Angst.

[…]

3. Vergleichbare Fälle von Kinderprotesten: Der Kreuzzug 1963 und die Schul-Klimastreiks

Hinsichtlich der Massenproteste von Kindern geben die Fragen in Abschnitt 2 auch Aufschluss darüber, ob die Ereignisse auf Realität oder auf kulturellen Säulen beruhen. Der Kinder-Kreuzzug im Jahre 1963 in Birmingham (USA, Alabama) war eingebettet in eine größere Kampagne zur Aufhebung der Rassentrennung in der Stadt und um dem Rassismus größere Aufmerksamkeit zuteil werden zu lassen. Obwohl der Protest nicht von Gewalt gekennzeichnet war, wurde das Auftreten von Kindern von Vielen kontrovers angesehen, einschließlich einiger Erwachsener in der Kampagne selbst. Am Ende war es für die Campaigner ein Glücksspiel, dass der geschützte soziale Status von Kindern, die Bloßstellung von Autoritäten sowie emotionale Reaktionen in potentiell breiteren Kreisen ihnen einen signifikanten Vorteil einräumen werden. Aber sie setzen die Kinder damit dem Risiko aus, dass falls das Vorgehen als zynisch bewertet wird, die Kritik vernichtend ist. Präsident Kennedy war dagegen, fügte aber hinzu, dass Missstände beseitigt werden müssen. Kirchen waren physikalische Stützpunkte und die Protestierer unterstützt durch ihren Glauben – es gab also einen kulturellen Sponsor. Und trotzdem, die Ziele des Kreuzzuges waren genau wie Malalas Auftritt säkularer Natur. Die Kinder waren selbst benachteiligt (ein entscheidender Faktor), während sie gegenwärtig nur für die Erwachsenen sprechen. Die damaligen Kinder waren keine Schachfiguren, sondern waren direkt und indirekt Ungerechtigkeiten ausgesetzt, und ihr Widerstand war echt. Sie forderten Verhandlungen und ultimativ eine spezifische Lösung, das Ende der Rassentrennung. Aus heutiger Sicht und im Vergleich zu den damaligen Prinzipien der USA und der Welt waren ihre Forderungen mit Sicherheit nicht irrational. Und definitiv nicht astronomisch, wenngleich auch von einer mächtigen Minderheit eine Änderung von deren Verhalten verlangt wurde.

Heute ist Greta die führende Sprecherin der Kinder-Klimastreiks, und ihre Antworten stehen ebenfalls für sie:

Würde ein Roboter vom Mars die gleichen Antworten finden? Das können wir nicht wissen, es ist unmöglich, uns selbst von Bias zu lösen. Die Klimastreik-Kinder sind größtenteils privilegiert und derzeit bestimmt nicht benachteiligt; ihre Furcht ist ein nicht von Erwachsenen abgewürgter Mythos. Es besteht für sie nicht das Risiko scharfer Reaktionen. Das allein validiert noch nicht ihre Causa, aber es scheint, als ob sie eine schon offen stehende kulturelle Tür einrennen. Es gab viel Unterstützung im globalen Maßstab seitens der Erwachsenen und praktisch keine formale Opposition seitens der Obrigkeit. Offene Türen einzurennen scheint für einen Protest paradox zu sein. Das ist so, weil kulturelle Ängste nicht real sind. … Sie sind im Wesentlichen emotionale Bekehrer eines kulturellen Narrativs, hier Klima-Katastrophismus, und diese Kultur wird sie als Keil in die Mächtigen treiben. Zum Vergleich: die Kinder von 1963 waren sehr harten Reaktionen ausgesetzt: Wasserwerfern, Hunden und Gefängnis. Sie rannten definitiv gegen verschlossene Türen an, was wir heute in der Rückschau als verschlossen von einer lokalen Subkultur ansehen. … Sie repräsentierten Gleichheit und Vernunft bzgl. etwas, das eine tief verwurzelte Subkultur des Rassismus‘ war. Die Historie hat gelächelt ob ihres Pokers damals im Jahre 1963, aber das kann man nicht vorhersehen.

[Im Folgenden führt der Autor sein Anliegen in weiteren langen Absätzen aus, die hier nicht übersetzt werden. Aber erzieht dann ein interessantes Schluss-Resumee:]

Heerscharen verängstigter Kinder und die Natur der Kinder-Klimastreiks, absolute Forderungen eines Kindes an die Führer der Welt, welches diese Führer instruiert, bzgl. einer unmittelbar bevorstehenden Apokalypse in Panik zu geraten (ohne diese wesentlich in Frage zu stellen) – diese Phänomene sollten mit einer großen roten Flagge versehen werden mit der Aufschrift ,Kultur‘. Aber jene Wissenschafts-Disziplinen, welche diese Phänomene studieren, scheinen in Massen das kulturelle Narrativ zu glauben, welches (ohne dramatische Gegenmaßnahmen) eine unmittelbar bevorstehende (Jahrzehnte) Klimakatastrophe propagiert, und zu glauben, dass es ein Ergebnis exakter Wissenschaft ist. Das ist falsch; die Mainstream-Wissenschaft stützt dieses Narrativ nicht. Die Gesellschaft ängstigt unnötigerweise Millionen Kinder.

Eine Frage erhebt sich angesichts des Jahrtausend-Aspektes einer katastrophischen Klima-Kultur und deren Kreuzzug, unser derzeitiges Verhalten und unsere derzeitige Klima-Infrastruktur im ,Notfall‘-Tempo zu ändern: „Unter welchem Stress stehen wir, dass derartige Maßnahmen rechtfertigt?“ Plus: „Wie viel davon ist real, und wie viel einfach nur wahrgenommen?“. Kulturen können potentiell künstlichen Stress hervorrufen und/oder reale/künstliche Ängste erzeugen.

Link: https://wattsupwiththat.com/2019/07/29/child-prophets-and-proselytizers-of-climate-catastrophe/

Übersetzt von Chris Frey EIKE




Aufruf zur Besonnenheit: Keine CO2-Steuer – Samstage für Vernunft!

Keine CO2-Steuer!

von Rüdiger Rauls und Egon Heinz

Die Diskussion um den Klimawandel erhitzt die Gemüter. Dabei bleibt die Sachlichkeit oft auf der Strecke. Greta Thunberg und ihre Anhänger wollen uns nach ihren eigenen Worten „in Panik versetzen“. Nun ist aber Panik ein schlechter Berater, wenn Maßnahmen zum Schutz der Umwelt beschlossen werden, die nicht nur erhebliche Summen verschlingen, sondern vielleicht unnötige Opfer von den Menschen verlangen.

So ist es erst wenige Jahre her, dass Klima-Aktivisten forderten, fossile Treibstoffe durch klimaneutrale aus Pflanzen zu ersetzen. Die Folge waren ein starker Anstieg der Lebensmittelpreise besonders in der Dritten Welt und das Abholzen von Regelwald zum Anlegen von Ölfrucht-Plantagen. Die entstandenen Monokulturen führten zu Artensterben und laugten die Böden aus. Aber davon spricht kein Klima-Schützer mehr und schon gar nicht wollen sie daran heute erinnert werden, welcher Schaden in der Dritten Welt durch vorschnelles Handeln angerichtet wurde.

Der Schutz der Umwelt liegt jedem am Herzen, nicht nur Umwelt-Aktivisten. Deshalb fordern wir von der Politik wohl überlegte und vernünftige Schutzmaßnahmen statt Schnellschüssen, die nur zu Lasten von Umwelt und Bürger gehen.

Denn im September will die Regierung über die „Bepreisung“ von CO2 entscheiden, was nichts anderes ist als ein harmlos klingender Ausdruck für eine CO2-Steuer. Man überlegt also, die Bürger noch weiter zu belasten, nur um diejenigen zu beruhigen, die Panik verbreiten. Über Sinn und Unsinn einer solchen Steuer wird schon gar nicht mehr diskutiert.

Aber was hat es auf sich mit diesem CO2, dessen Anstieg nach den Worten der Umwelt-Aktivisten das Leben auf unserem Planeten bedroht. Aus der Panik, die verbreitet wird, könnte man schließen, dass er einen gewaltigen Anteil an unserer Atemluft ausmacht. In Wirklichkeit beträgt er aber nur 0,04%. Wussten SIE das? Das wissen viele der Klima-Aktivisten selbst nicht, wenn sie darauf angesprochen werden.

Die wenigen, die es wissen, verweisen dann auf den Anstieg der CO2-Emissionen seit dem Beginn der Industrialisierung. Sie schließen daraus, dass dieser Anstieg nur menschengemacht sein könne. (Das soll hier nicht bestritten werden, wenn es denn auf wissenschaftlichen Erkenntnissen beruht statt auf Annahmen und Vermutungen.)

Innerhalb von ca. 200 Jahren stieg demnach der CO2-Anteil der Luft von 0,03% auf heute 0,04%. Das sind 33% in fast 200 Jahren. Das halten Klima-Aktivisten für viel und sehen darin eine Bedrohung. Frage an SIE: „Würden Sie einen Lohnanstieg von 33% in 200 Jahren auch für „viel“ halten?“

Sie sehen: „Viel“ ist ein sehr dehnbarer Begriff und nicht zu trennen von der Sichtweise des Betrachters und seinen Interessen. Denn bei einer Veränderung von 0,03% auf 0,04% innerhalb von 200 Jahren könnte man genau so gut von konstanten Werten sprechen, zumal wenn man bedenkt, dass Temperaturen und die Zusammensetzung der Atmosphäre immer Schwankungen unterlegen haben.

Hinzu kommt, dass die Natur selbst durch die Pflanzen CO2 produziert. Andererseits aber brauchen Pflanzen zu ihrem Wachstum auch CO2. Sie nehmen es in der Photosynthese auf und wandeln es um in Sauerstoff. Ohne CO2 gibt es keine Photosynthese und folglich keine Pflanzen, d. h. es ist lebensnotwendig. Indem die Pflanzen tagsüber CO2 verbrauchen und nachts wieder abgeben, regulieren sie dessen Anteil in der Luft. Das müssten eigentlich auch die Klima-Aktivisten wissen, wenn sie im Biologie-Unterricht aufgepasst haben.

Die wenigen, die diese Fakten kennen, verweisen dann aber auf das so genannte menschengemachte CO2. Was schätzen SIE, wie hoch der Anteil des Menschen an dessen Produktion ist? Die Natur selbst verursacht 96%, der Mensch nur 4%.

Damit beträgt der Anteil des menschengemachten CO2 der Luft 4% von 0,04%. Das sind 0,0016%. Der Anteil Deutschlands daran liegt dann noch einmal bei 3,1%, also etwa 0,00005%. Und dafür sollen wir mit einer CO2-Steuer belastet werden? (Alle hier verwendeten Zahlen sind öffentlich zugänglich, und bezüglich ihrer Richtigkeit bestehen in der Wissenschaft keine Differenzen – anders als beispielsweise in Fragen des Klimawandels.)

Wenn die Tatsachen also so sind, wieso setzt sich dann nicht eine besonnenere Haltung gegenüber dem CO2-Problem und dem gesamten Thema Klimawandel durch?

Erstens kennen viele Menschen diese Zahlen nicht, weil die Diskussion um das Klima nicht bestimmt ist von Sachlichkeit sondern von Stimmungsmache und Manipulation. Dadurch wird ein Klima der Bevormundung und des Vorwurfs in der Gesellschaft geschaffen. Menschen werfen sich gegenseitig klimaschädliches Konsumverhalten vor. Jeder versucht, dem anderen Vorschriften zu machen: Man soll kein Fleisch mehr essen, nicht mehr mit dem Auto fahren, nicht mehr fliegen, Kreuzfahrten meiden, weniger Kleidung kaufen, weniger grillen. All diese Appelle betreffen in erster Linie die Lebensgestaltung und Lebensführung der so genannten kleinen Leute.

Man greift also vonseiten der Klima-Aktivisten nicht die Produzenten an sondern die Konsumenten. Aber diese können ja letztlich nur das kaufen, was die Produzenten anbieten, und was der Geldbeutel hergibt. Man meidet den Konflikt mit den Mächtigen, auch wenn einige Aktivisten vorgeben, gegen das System zu sein. Stattdessen greift man die „kleinen“ Leute an, macht ihnen Vorwürfe und Schuldgefühle. Erhöhte Flugpreise werden es manchem Arbeitnehmer nicht mehr erlauben, mit seiner Familie in Urlaub zu fliegen. Die Flüge der Unternehmensvertreter werden dadurch aber nicht weniger werden. Sie schlagen die Mehrkosten auf die Preise drauf.

Zweitens setzen die Forderungen der Klima-Aktivisten sich nicht wegen der besseren Argumente durch, sondern weil sie öffentlich mehr Druck ausüben. Sie organisieren sich, handeln organisiert und setzen sich mit Demonstrationen und Veranstaltungen für ihre Belange ein. Besonders Fridays for Future (FfF) setzt die Politik unter Druck und treibt die Politiker mit ihren Forderungen vor sich her. Die Regierungsparteien stehen dieser Entwicklung hilflos gegenüber. Statt für Sachlichkeit und Besonnenheit zu sorgen, versuchen sie, die Klima-Aktivisten auf dem Grünstreifen zu überholen mit voreiligen Beschlüssen wie einer CO2-Steuer. Sie haben keinen eigenen Standpunkt zu dem Thema mehr.

Es ist FfF nicht zu verdenken, dass sie sich für ihre Interessen einsetzen. Es ist auch das Vorrecht der Jugend, aus der sich FfF überwiegend zusammensetzt, ungeduldig und fordernd zu sein. So war Jugend immer, wenn auch die Themen andere waren. Es geht um die Abgrenzung von der älteren Generation und die Entwicklung eigener Lebenspläne und Wertvorstellungen.

Aber es ist Recht und Aufgabe der Älteren, zur Besonnenheit zu mahnen, um Schaden abzuwenden, den jugendliches Ungestüm verursachen kann. Deshalb fordern wir, eine sachliche Diskussion zum Thema Klima. Es muss Schluss sein mit der Panikmache, emotionalen Aufheizung und Manipulation der gesellschaftlichen Diskussion. Keine voreiligen Beschlüsse, die zu negativen Auswirkungen für Bürger und Umwelt führen. Deshalb:

Keine CO2-Steuer! Es ist an der Zeit, dass der Panikmache von Fridays for Future die Stimme der Vernunft und Sachlichkeit entgegen gesetzt wird. Dazu sollten die Besonnenen, die Vernünftigen, die Ruhigen sammeln und organisieren, jenigen die bisher sich kaum bemerkbar gemacht haben, nicht gehört wurden, nicht zu Wort kamen.

Solch wichtige Fragen, die die Existenz vieler Menschen betreffen, sollten nicht Jugendlichen überlassen werden, auch wenn sie noch so engagiert sind und sicherlich auch gute Absichten haben. Es sind Fragen, die in die Verantwortung der Politik fallen. Aber diese hat keine Rezepte und keine Antworten. Sie kann selbst die eigenen Wähler nicht mehr überzeugen. Stattdessen holen sie sich Rat und Orientierung bei einer Sechzehnjährigen. Welch ein Armutszeugnis!

Aber wenn die Politik die Interessen der Bevölkerung nicht mehr schützen kann, dann ist die Bevölkerung selbst aufgerufen, ihre Interessen zu formulieren und sich dafür einzusetzen.

Klima-der-Vernunft@web.de oder Klima der Vernunft




Ver.di-Chef Frank Bsirske ruft Gewerkschafter zur Teilnahme an „Fridays for future“ auf

Jan Fleischhauer führte 2010 den Gewerkschaftsboß Frank Bsirske kongenial vor, als er ihn im Interview als betonköpfigen Linken mit Luxuslimousine demaskierte. Seitdem hat der sich wahrscheinlich nicht verändert; da er gerade ankündigte, seine zwei Millionen Mitglieder im staatssozialistischen Sinne zur Teilnahme an einer bundesweiten Fridays-for-future-Aktion am 20. September in 100 Städten aufzurufen.

„Wir werden zur Teilnahme an den Veranstaltungen aufrufen. Es geht darum, Flagge zu zeigen – wir brauchen ein deutlich konsequenteres Handeln der Politik beim Klimaschutz.“

Ob ihm das auf die Füße fallen wird? Immerhin dürften die werktätigen Malocher von der Gewerkschaft mit den selbstgefälligen Akademikerkindern aus der Klimarevoluzzer-Szene nicht allzu viel gemein haben. Das kennen wir schon aus der 68er Zeit. Immerhin verlangt Bsirske von seinen Arbeitern, nach der Schicht zur Klimademo zu gehen; ein Streik ist nicht geplant. Den würden die Malocher und die Industrie wohl auch nicht mitmachen. Daher dürfen wir gespannt sein, wieviele Gewerkschafter sich zu den Gymnasiasten und Studenten gesellen.




Warum man in Graphiken keine Trendlinien legen sollte

Wir sehen hier bei WUWT (und EIKE Anmerkung des Übersetzers) sehr viele Graphiken – alle Arten von Graphiken von vielen verschiedenen Datensätzen. Beispielhaft sei hier eine allgemein gezeigte Graphik der NOAA gezeigt, die aus einem Stück bei Climate.gov stammt und die Bezeichnung trägt „Did global warming stop in 1998?” von Rebecca Lindsey, veröffentlicht am 4. September 2018:

Die Details in dieser Graphik interessieren mich nicht – das Ganze qualifiziert sich selbst als „dümmlich“. Die vertikale Skala ist in Grad Fahrenheit angegeben und die gesamte Bandbreite über 140 Jahre liegt größenordnungsmäßig bei 2,5°F oder etwa 1,5°C. Interessant in der Graphik ist die Mühe, „Trendlinien“ über die Daten zu legen, um den Leser etwas über die Daten zu vermitteln, was der Autor der graphischen Repräsentation übermitteln will. Dieses „etwas“ ist eine Meinung – es ist immer eine Meinung – es ist nicht Teil der Daten.

Die Daten sind die Daten. Wenn man die Daten in eine graphische Darstellung zwängt, hat man bereits Meinung und persönliche Beurteilung einfließen lassen in Gestalt der Wahl von Anfangs- und Endzeitpunkt, vertikalen und horizontalen Skalen und, in diesem Falle, die Schattierung eines 15-Jahre-Zeitraumes an einem Ende. Manchmal übernimmt irgendeine Software die Entscheidung der vertikalen und horizontalen Skala – und nicht rationale Menschen – was sogar zu noch größerer Konfusion führt und manchmal zu großen Fehlinterpretationen.

Jeder, der die Daten in der oberen Graphik nicht eindeutig erkennt ohne die Hilfe der roten Trendlinie sollte sich ein anderes Studienfeld suchen (oder seinem Optiker einen Besuch abstatten). Die untere Graphik ist in ein Propaganda-Werkzeug verwandelt worden mittels Addition von fünf Meinungen in Gestalt von Mini-Trendlinien.

Trendlinien ändern die Daten nicht – sie können lediglich die Sichtweise auf die Daten verändern (hier). Trends können manchmal nützlich sein (bitte mit einem großen vielleicht versehen), aber sie bewirken in den Graphiken der NOAA oben nichts Anderes als zu versuchen, den vom IPCC sanktionierten Gedanken des „Stillstands“ zu verunglimpfen. Damit wollen der Autor und die Herausgeber ihre gewünschte Meinung bei Climate.gov unterstreichen. Um Rebecca Lindsey aber etwas gerecht zu werden – sie schreibt „wie viel langsamer der Anstieg erfolgt, hängt vom Kleingedruckten ab: nämlich welchen Datensatz der globalen Temperatur man betrachtet“ (hier). Dazu hat sie sicher das Recht. Hier folgt die globale mittlere Temperatur der unteren Troposphäre von Spencer an der UAH:

Man braucht hier keinerlei Trendlinien, um den Stillstand zu erkennen, welcher sich vom Ende des Super El Nino 1998 bis zum Beginn des El Nino 2015-2016 erstreckt. Dies illustriert zweierlei: Hinzugefügte Trendlinien liefern zusätzliche Informationen, die nicht Bestandteil des Datensatzes sind, und es ist wirklich wichtig zu wissen, dass es für jedwedes wissenschaftliches Konzept mehr als nur einen Datensatz gibt – mehr als eine Messung – und es ist entscheidend wichtig zu wissen „What Are they Really Counting?“, wobei der zentrale Punkt Folgender ist:

Also haben wir bei allen gezeigten Messungen, die uns als Informationen angeboten werden, besonders wenn sie von einer behaupteten Signifikanz begleitet werden – wenn man uns also sagt, dass diese Messungen/Zahlen dies oder das bedeuten – eine grundlegende Frage: Was genau registrieren sie da eigentlich?

Natürlich erhebt sich da eine Folgefrage: Ist das, was sie registriert haben, wirklich eine Messung dessen, über was sie berichten?

Jüngst kam mir ein Beispiel aus einem anderen Bereich vor Augen, wie intellektuell gefährlich die kognitive Abhängigkeit (fast schon eine Überzeugung) zu Trendlinien für die wissenschaftliche Forschung sein kann. Man erinnere sich, Trendlinien in aktuellen Graphiken sind oftmals berechnet und von Statistik-Softwarepaketen gezeichnet, und die Ergebnisse dieser Software werden viel zu oft als eine Art enthüllter Wahrheit angesehen.

Ich habe nicht den Wunsch, irgendeine Kontroverse loszutreten über das aktuelle Thema einer Studie, welche die folgenden Graphiken produziert hat. Ich habe die genannten Bedingungen in den Graphiken abgekürzt. Man versuche, mir zu folgen, aber nicht um die medizinische Thematik zu verstehen, um die es geht, sondern um die Art und Weise, mit der Trendlinien die Schlussfolgerungen der Forscher beeinflusst haben.

Hier folgt ein großer graphischer Datensatz aus den Begleitinformationen der Studie:

Man beachte, dass dies Darstellungen der Häufigkeits-Raten sind, also die Frage „wie viele Fälle dieser Krankheit pro 100.000 Menschen sind berichtet worden?“ – hier gruppiert um 10-Jahre-Altersgruppen. Man hat farbige Trendlinien hinzugefügt, wo sie glauben (Meinung!), dass signifikante Änderungen der Anzahl der Fälle aufgetreten sind.

(Einige wichtige Details, über die später noch gesprochen wird, können im Großbild eingesehen werden.)

Wichtige Anmerkung: Die in dieser Studie untersuchte Bedingung ist nichts, was irgendwie von Jahreszeiten oder Jahren abhängig ist wie etwa Grippe-Epidemien. Es ist eine Bedingung, die sich in den meisten Fällen über Jahre hinweg entwickelt, bevor sie entdeckt und besprochen werden kann – etwas, das nur entdeckt werden kann, wenn es beeinträchtigend wird. Es kann auch durch regelmäßige medizinische Untersuchungen entdeckt werden, welche nur bei älteren Menschen durchgeführt werden. Also könnte „jährliche Fallzahl“ keine ordentliche Beschreibung dessen sein, was registriert wurde – es ist tatsächlich eine Maßzahl von „jährlichen entdeckten und bekannt gemachten Fällen“ – nicht tatsächlich Häufigkeit, was etwas ganz Anderes ist.

In der veröffentlichten Studie erscheint eine kondensierte Version der Graphiken:

Die älteren Frauen und Männer sind in den Graphiken in der oberen Reihe gezeigt, wobei die Fallzahlen glücklicherweise seit den 1980-er Jahren bis heute rückläufig sind. Durch das mit Bedacht vorgenommene Hinzufügen farbiger Trendlinien steigen die Fallzahlen bei Frauen und Männern jünger als 50 Jahre ziemlich steil. Auf dieser Grundlage (und einer Menge anderer Überlegungen) ziehen die Forscher folgende Schlussfolgerung:

Schlussfolgerungen und Relevanz: Diese Studie fand ein zunehmendes Vorkommen von CRC-Diagnosen [= Darmkrebs] unter kanadischen Frauen und Männern unter 50 Jahren. Diese Zunahme der Fallzahlen unter einer Low Risk-Bevölkerung verlangt nach zusätzliche Forschungen bzgl. möglicher Risikofaktoren für diese jüngere Bevölkerungsgruppe. Es scheint, dass primäre Prävention höchste Priorität haben sollte, um die Anzahl jüngerer Erwachsener mit Darmkrebs künftig zu reduzieren.

Noch einmal: Es geht mir in keiner Weise um das medizinische Thema hier … sie mögen ja recht haben aus Gründen, die hier keine Rolle spielen. Der Punkt, den ich herüber bringen möchte, ist vielmehr Folgender:

Ich habe zwei der Teilgraphiken mit Kommentaren versehen, in denen es um Fallzahlen bei Männern über 50 Jahre bzw. unter 50 Jahren geht. Über eine Datenlänge von 45 Jahren verläuft die Bandbreite bei Männern älter als 50 Jahre zwischen 170 und 220 Fällen pro Jahr mit einer Varianz von über 50 Fällen pro Jahr. Bei Männern jünger als 50 Jahre lagen die Fallzahlen ziemlich stetig zwischen 8,5 und 11 Fällen pro Jahr pro 100.000 Menschen über einen Zeitraum von 40 Jahren. Erst ganz zuletzt, bei den letzten 4 Datenpunkten, zeigte sich ein Anstieg auf 12 bis 13 Fälle pro 100.000 pro Jahr – eine Zunahme um ein oder zwei Fälle pro Jahr pro 100.000 Menschen. Es kann die Trendlinie für sich sein, die eine Art Signifikanz erzeugt. Für Männer älter als 50 Jahre zeigte sich zwischen 1970 und Anfang der 1980-er Jahre eine Zunahme um 60 Fälle pro 100.000 Menschen. Und doch wird die entdeckte und berichtete Zunahme um einen oder zwei Fälle bei Männern unter 50 Jahren als eine Sache „höchster Priorität“ eingestuft – was jedoch in der Realität tatsächlich signifikant sein kann oder auch nicht – und alles könnte sehr gut auch innerhalb der normalen Varianz der Entdeckung und Meldung dieser Art Krankheit liegen.

Die Bandbreite der Fallzahlen bei Männern unter 50 Jahren blieb von Ende der 1970-er Jahre bis Anfang der 2010-er Jahre gleich – das ist ziemlich stabil. Dann gibt es vier etwas höhere Ausreißer hintereinander – mit Zunahmen von 1 oder 2 Fällen pro 100.000 Menschen. Soweit die Daten.

Falls es meine Daten wären – und mein Thema – sagen wir die Anzahl von Monarchfaltern in meinem Garten pro Monat oder so, würde ich aus dem Paneel mit den sieben Graphiken oben entnehmen, dass die Trendlinien alles konfus machen. Hier noch einmal:

Falls wir mal versuchen, die Trendlinien zu ignorieren, erkennt man in der ersten Teilgraphik, dass die Fallzahlen im Alter von 20 bis 29 Jahren im derzeitigen Jahrzehnt gleich hoch sind wie in den 1970-er Jahren – es gibt keine Änderung. Die Bandbreite liegt hier unter 1,5 Fälle pro Jahr.

Betrachtet man die Untergraphik 40 bis 49 Jahre, erkennt man, dass die Bandbreite etwas gesunken ist, aber die gesamte Größenordnung der Bandbreite beträgt weniger als 5 Fälle pro Jahr pro 100.000 Menschen. In dieser Altersgruppe wurde eine Trendlinie gezogen, welche eine Zunahme während der letzten 12 bis 13 Jahre aufweist, aber die Bandbreite ist gegenwärtig niedriger als während der 1970-er Jahre.

In den übrigen vier Teilgraphiken erkennt man Daten mit der Form eines „Buckels“, welche über 50 Jahre in jeder Altersgruppe die gleiche Bandbreite zeigen.

Es ist wichtig, sich daran zu erinnern, dass es hier nicht um eine Krankheit geht, deren Ursachen bekannt sind oder für die es eine Präventionsmethode gibt, obwohl man behandelt wird, wenn die Krankheit früh genug erkannt wird. Es ist eine Klasse von Krebs, und dessen Vorkommen wird nicht durch Maßnahmen bzgl. der öffentlichen Gesundheit kontrolliert, um diese Krankheit zu verhindern. Derartige Maßnahmen führen nicht zu einer Änderung der Fallzahlen. Man weiß, dass es altersabhängig ist und öfter bei Männern und Frauen auftritt, wenn sie altern.

Es ist diese eine Teilgraphik der Altersgruppe von 30 bis 39 Jahren, welche eine Zunahme der Fallzahlen um 2 Fälle pro Jahr pro 100.000 Menschen zeigt, was den Faktor kontrolliert, durch welchen sich bei Männern jünger als 50 Jahre diese Zunahme zeigt:

Man erinnere sich, im Abschnitt Schlussfolgerung und Relevanz der Studie wurde dies so beschrieben: „Diese Zunahme der Fallzahlen unter einer Low Risk-Bevölkerung verlangt nach zusätzliche Forschungen bzgl. möglicher Risikofaktoren für diese jüngere Bevölkerungsgruppe. Es scheint, dass primäre Prävention höchste Priorität haben sollte, um die Anzahl jüngerer Erwachsener mit Darmkrebs künftig zu reduzieren“.

In diesem Beitrag geht es nicht um das Vorkommen dieser Krebsart bei verschiedenen Altersgruppen – sondern es geht darum, wie statistische Software Trendlinien über die Daten legt, welche zu Konfusion und möglichen Missverständnissen der Daten selbst führen können. Ich gebe zu, dass es auch möglich ist, Trendlinien aus rhetorischen Gründen über die Daten zu legen (mit der Absicht, Eindruck zu schinden) wie im Beispiel von Climate.gov (und Millionen anderer Beispiele in allen Bereichen der Wissenschaft).

Unter dem Strich:

1. Trendlinien sind nicht Bestandteil der Daten. Die Daten sind die Daten.

2. Trendlinien sind immer Meinungen und Interpretationen, welche den Daten hinzugefügt werden. Sie sind abhängig von der Definition (Modell, statistische Formel, Software, was auch immer), der man den „Trend“ verpasst. Diese Meinungen und Interpretationen können valide sein oder auch nicht oder auch unsinnig (und alles dazwischen ebenfalls).

3. Trendlinien sind KEINE Beweise – die Daten können Belege sein, sind aber nicht notwendigerweise Belege für das, was behauptet wird (hier).

4. Trends sind keine Ursachen (hier), es sind Auswirkungen. Trends der Vergangenheit haben nicht die gegenwärtigen Daten erzeugt. Gegenwärtige Daten werden keine zukünftigen Daten erzeugen (hier).

5. Falls die Daten mittels statistischer Software bearbeitet werden müssen, um einen „Trend“ zu bestimmen, dann würde ich vorschlagen, dass man weitere oder andere Forschungen durchführt oder dass die Daten so hohes Rauschen aufweisen, dass ein Trend irrelevant wäre.

6. Berechneten Trends eine „Signifikanz“ zuzuordnen auf der Grundlage eines P-Wertes ist statistisch invalid.

7. Man lege keine Trendlinien in die Graphiken seiner Daten. Falls die Daten nach bestem Wissen valide sind, braucht es keine Trendlinien, um anderen die Daten zu „erklären“.

Link: https://wattsupwiththat.com/2019/08/06/why-you-shouldnt-draw-trend-lines-on-graphs/

Übersetzt von Chris Frey EIKE