1

Der ultimative Beweis: Gleichgeschaltete Presse – „Covering Climate Now“

Die Kampagne, zu der sich diese Medien zusammengeschlossen haben, verfolgt als Ziel, den angeblich menschengemachten Klimawandel als unumstößliche Gewißheit in den Köpfen der Leser, Zuhörer und Zuschauer zu verankern. Es wird darüber nachgedacht, wie man bald jede Meldung in einen Bezug zum „menschengemachten Klimawandel“ setzen kann, um die Botschaft auch dann zu transportieren, wenn das Klima nicht zentrales Thema eines Berichts ist. Sehr schön war diese Vorgehensweise dieser Tage in der „ZEIT“ zu betrachten, als es um das diesjährige Herbsthochwasser („acqua alta“) in Venedig ging. Es gibt eine Vielzahl altbekannter Ursachen für das fast jährlich auftretende Hochwasser in der Lagunenstadt am nördlichen Ende der Adria, angefangen vom Ausbaggern der Lagune für den Ölhafen und das Abpumpen von Grundwasser unter der Stadt bis hin zu den natürlichen Schwankungen des Meeresspiegels, die schon in früheren Jahrhunderten regelmäßig für Überschwemmungen auf dem Markusplatz gesorgt hatten. Aber warum gibt es dieses Jahr das traditionelle Hochwasser? – Tärä, wegen des „menschengemachten Klimawandels“. Interviewt worden war ein „Experte“ vom „Potsdam-Institut für Klimafolgenforschung“ (PIK), bekanntlich das neutralste wissenschaftliche Institut auf dem gesamten Erdenrund, in seiner Neutralität allenfalls noch übertroffen von Herrn Direktor Dr. Matthias Quents außeruniversitär forschendem „Institut für Demokratie und Zivilgesellschaft“ in Trägerschaft der überaus neutralen Amadeu-Antonio-Stifung, der ultraneutralsten Stiftung, die jemals von einer ehemaligen Stasi-Zuträgerin geleitet worden ist.

Covering Climate Now

Frei übersetzt heißt „Covering Climate Now“ auf Deutsch: „Das Klima(thema) jetzt abdecken“. Interessant, um nicht zu sagen lächerlich, ist die stolze Beschreibung ihres Tuns durch die „Kampagneros“. Auf ihrer Seite heißt es: „Our initiative includes more than 350 outlets worldwide, and dozens of institutional and independent partners, with a combined audience of more than 1 billion people. We’re growing every day.“ (Unsere Initiative umfaßt mehr als 350 Medienerzeugnisse weltweit und dutzende von institutionellen und unabhängigen Partnern mit einem kombinierten Publikum von mehr als einer Milliarde Menschen. Wir wachsen jeden Tag.) Unterstützt wird die Kampage von der einflußreichen Nichtregierungsorganisation „Climate Central“, die selbst ebenfalls „journalistische Partnerschaften“ unterhält.

Aus der weitgehend gleichgeschalteten deutschen Presselandschaft sind in die „Covering Climate Now“-Kampagne involviert: „taz“, „correctiv“ und „stern“, sowie „klimareporter“, „globalmagazin“, „Edison“, „Spektrum der Wissenschaft“ und „KlimaSocial“. Involvierte deutsche Institute sind das „Netzwerk Weitblick“ und die Technische Universität Berlin. Die prominentesten Nachrichtenagenturen als Partner dieser Kampagne sind Agence-France Press (AFP), Bloomberg und Getty Images.

Wie die Nachrichtenseite Daily Caller berichtet, haben es unter den großen Nachrichtenseiten mindestens zwei unterlassen, ihre Leser darüber zu informieren, daß sie Teil der „Covering Climate Now“-Kampagne sind: Die Huffington Post und Buzz Feed. Generell stelle sich die Frage, wie sich journalistische Unabhängigkeit und die Zusammenarbeit mit KLimaaktivisten unter einen Hut bringen lassen.

Erwähnt werden sollen allerdings auch die Medien, die dem „Covering Climate Now“-Projekt eine Abfuhr erteilt haben. Es handelt sich etwa um die „New York Times“, die „Washington Post“ und das „Wall Street Journal“. Auch die Nachrichtenagentur „Reuters“ zeigte kein Interesse, sich in die Kampagne einbinden zu lassen.

Gesteuerte Meinung

Daß es sich bei Greta Thunberg und Fridays-For-Future mitnichten um „zivilgesellschaftliches Engagement“ handelte, sondern um multimillionenschwere, hochprofitable Kampagnen, bestreitet inzwischen auch im Medien-Mainstream kaum noch jemand. Das dürfte auch der Grund dafür sein, daß Greta Thunberg als „Propagandawaffe“ inzwischen als „verbrannt“ gilt und dementsprechend nur noch selten in den Medien vorkommt. Vor dem Hintergrund allerdings, daß es sich keiner der Propagandisten des „menschengemachten Klimawandels“ noch leisten kann, von seinen Positionen abzurücken, selbst dann, wenn sie sich als evident falsch herausstellen, – und nur, weil das Eingeständnis eines Irrtums seinen persönlichen Ruin bedeuten würde -, darf man gespannt sein, was den „Machern des menschlich gemachten Klimawandels“ noch alles einfällt, um ihre Haut zu retten. Es gilt heute mehr denn je: Wo immer im Medien-Mainstream irgendwelche „Experten“ und „Klimaforscher“ auftauchen, ist allergrößtes Mißtrauen angezeigt. (RB)

Der Beitrag erschien zuerst bei Jouwatch hier




Die Unterdrücker der Wirklichkeit*

Wolfgang Kaufmann* :

Die Unterdrücker der Wirklichkeit
Warum die Mainstream-Medien treiben, was sie tun:

Ein Blick auf die beklemmenden Hintergründe

In einer Demokratie sollen die Medien eigentlich die „Vierte Gewalt“ repräsentieren und den Bürgern verlässliche Informationen über Staat, Politik und Gesellschaft liefern. Aus diesem Informationsjournalismus ist hierzulande jedoch vielfach ein Haltungsjournalismus geworden. Schuld daran sind die Vertreter der Mainstream-Medien, welche nun vorrangig danach streben, das Volk zu erziehen – sogar um den Preis des Verlustes an Glaubwürdigkeit. Wieso aber tun sie das?

Zum Mainstream (von englisch: Hauptströmung) ihrer Branche gehören all jene Journalisten, welche bei den relativ reichweitestarken Massen- beziehungsweise Leitmedien arbeiten und durch einen weitgehenden Konsens in zentralen politischen oder gesellschaftlichen Fragen auffallen, der zu Einseitigkeit und Homogenität in der Berichterstattung führt. Typische Mainstream-Medien der Bundesrepublik sind nach Ansicht von Fachwissenschaftlern wie Uwe Krüger vom Lehr- und Forschungsbereich Journalismus des Instituts für Kommunikations- und Medienwissenschaft der Universität Leipzig die Nachrichtensendungen und -magazine von ARD und ZDF, die Tageszeitungen „Süddeutsche Zeitung“, „Frankfurter Allgemeine Zeitung“, „Die Welt“, „Frankfurter Rundschau“, „Taz“ und „Bild“, die Wochenzeitung „Die Zeit“, die Nachrichtenmagazine „Der Spiegel“ und „Focus“, die Illustrierte „Stern“ sowie die Online-Plattformen dieser Medien.

Die Gründe für die mangelnde Meinungsvielfalt unter den dort tätigen Journalisten in Kombination mit einem Hang zur „Volkspädagogik“ und Faktenresistenz sind dabei immer die gleichen: vorgefasste Werturteile, durch die viele mögliche Perspektiven von vornherein ausgeblendet werden, Orientierung an höchst selektiv ausgewählten Quellen und eine nahezu monolithische politische Haltung.

Die übergroße Mehrheit der deutschen Mainstream-Journalisten sympathisiert mit linken Positionen – das ergab erst im September dieses Jahres wieder eine Untersuchung des „Reuters Institute for the Study of Journalism“ der britischen Elite-Universität von Oxford, welches nicht in dem Ruf steht, „rechte Mythen“ zu verbreiten. Viele Medienschaffende kommen sogar von ganz linksaußen, so wie etwa Patrick Gensing und Georg Restle von der ARD.

Auffällig ist des Weiteren der hohe Grad der Akademisierung: Während weniger als 20 Prozent der Bevölkerung einen Hochschulabschluss besitzen, beträgt diese Quote bei den Mainstream-Journalisten nahezu 100 Prozent. Sie gehören also samt und sonders zur Bildungselite unseres Landes, was auch einen relativ hohen sozialen Status bedingt.

Damit fehlt dann aber das Verständnis für konservativ-kleinbürgerliche Positionen und prekäre Lebenslagen. Zumal zwei Drittel der deutschen Mainstream-Journalisten gutsituierten Angestellten- oder Beamtenfamilien entstammen, während Arbeiterkinder unter ihnen eine sehr kleine Minderheit darstellen.

Aufgrund der weitgehenden sozialen und geistigen Homogenität orientieren sich die Angehörigen der großen Medienanstalten vorrangig an ihren Kollegen und kaum an ihren Lesern oder Zuschauern und Hörern. Das schützt zugleich davor, etwas falsch zu machen, denn vorauseilender Gehorsam als Reaktion auf den allgegenwärtigen Konformitätsdruck ist ebenfalls an der Tagesordnung.

In einer Branche, welche sich vielfach im freien Fall befindet, weil ihr die zahlenden Kunden in Scharen davonlaufen, geht natürlich immer die Angst um, irgendwie negativ aufzufallen und hernach für den wirtschaftlichen Misserfolg des eigenen Mediums verantwortlich gemacht zu werden.

Ansonsten sind die Main­stream-Journalisten „Politik-Versteher“, das heißt, die Deutungsmuster der jeweils Herrschenden sind auch die ihren. Sie orientieren sich stets nach oben und nicht nach unten, weil sie dem Establishment angehören wollen. Und tatsächlich besteht inzwischen eine große soziale Nähe zwischen der Mehrheit der Mainstream-Journalisten und der Politik. Man feiert und reist gemeinsam auf feudale Weise oder trifft sich in Edel-Lokalen zu „Hintergrundgesprächen“.

Welche Konsequenzen das haben kann, schilderte der 2013 verstorbene frühere Leiter des Hauptstadtbüros des „Spiegel“, Jürgen Leinemann: „Je länger und enger ich … das politische Geschehen und dessen journalistische Verarbeitung miterlebte, desto unbehaglicher fühlte ich mich als Teil einer professionell betriebenen Verschwörung zur Unterdrückung von Wirklichkeit.“

Im Gegenzug gibt es kaum Kontakte zur Normalbevölkerung oder gar zur Unterschicht. Das nährt die Arroganz gegenüber den Menschen „da draußen“ – Respekt vor deren Lebensleistung und Verständnis für deren Alltagsnöte muss man oftmals mit der Lupe suchen. Stattdessen obsiegt das Bestreben, den „Erziehungsberechtigten“ dieser „einfachen Leute“ zu mimen. Die wiederum „bedanken“ sich für so viel Paternalismus, indem sie die Mainstream-Medien verachtungsvoll ignorieren, was die gegenseitige Entfremdung noch vertieft.

Aus Enttäuschung hierüber reagieren nicht wenige Vertreter des Mainstreams mit Verhaltensweisen, welche man mit Fug und Recht als Pervertierung des Journalismus bezeichnen kann. So fangen sie an, Politik zu sakralisieren: Nun zählen nicht mehr die lästigen Fakten, sondern der feste Glaube an links-grüne Dogmen, deren Richtigkeit niemand hinterfragen darf, ohne als Ketzer auf dem virtuellen Scheiterhaufen zu landen. Deshalb auch die kritiklose Verehrung von modernen Quasi-Erlösern wie Greta Thunberg. Parallel dazu wird die Religion entsakralisiert, woraus dann beispielsweise der absurde Vorwurf resultiert, Islamkritik sei „rassistisch“.

Ein weiterer Teil der frustrierten Mainstream-Journalisten verlegt sich auf das Erfinden von volkspädagogisch „wertvollen“ Lügengeschichten. Denn die Märchen à la Claas-Hendrik Relotius, Dirk Gieselmann und Co. bilden ja nur die Spitze des Eisbergs und werden auch schon seit Längerem unters Volk gestreut. Bereits im Jahre 2000 täuschte Tom Kummer die „Süddeutsche Zeitung“ mit erfundenen Interviews und nannte dies „Borderline-Journalismus“, ohne dass er danach etwa zum Paria der Branche geworden wäre.

Oder nehmen wir den „Spiegel“-Korrespondenten René Pfister, dem 2011 der Henri-Nannen-Journalistenpreis wieder entzogen wurde, weil er sich Teile einer Reportage über den CSU-Chef Horst Seehofer aus den Fingern gesogen hatte: Pfister arbeitet noch heute für den „Spiegel“ und berichtet derzeit aus der US-Hauptstadt Washington. Ebenso ohne Folgen blieb der „Fehltritt“ von Heribert Prantl, damals Mitglied der Chefredaktion der „Süddeutschen Zeitung“, welcher 2012 zugeben musste, eine Szene in seinem Text über den Präsidenten des Bundesverfassungsgerichts erfunden zu haben.

Hierdurch wurden Nachwuchsjournalisten wie Relotius natürlich enorm ermutigt, „alternative Fakten“ zu liefern und damit die Lüge zum Mittel der Selbstprofilierung zu erheben. Denn Unwahrheiten sind innerhalb der Mainstream-Medien offenbar legitim, wenn sie dazu taugen, das Weltbild der Kollegen oder Vorgesetzten zu bestätigen und gegen Kritik von außen zu immunisieren.

Durch all diese Denk- und Verhaltensweisen machen sich die Mainstream-Journalisten zunehmend selbst überflüssig. Deshalb dürfte ihre nur schlecht kaschierte Angst, immer weniger Gehör im Volke zu finden, tatsächlich wahr werden. Denn die Trendwende bei den Auflagen- oder Zuschauerzahlen bleibt definitiv aus. Rettung könnte hier nur ein totales Umsteuern, das heißt die Rückkehr zum ideologiefreien Informationsjournalismus bringen, der konsequent zwischen Meldung und Meinung trennt und auf erzieherische Attitüden verzichtet.

Aber das begreifen leider die Allerwenigsten.

=================================================================

)*  Anmerkung der EIKE-Redaktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung; 22. November 2019, S.12; EIKE dankt der PAZ-Redaktion sowie dem Autor Wolfgang Kaufmann für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln :   https://www.preussische-allgemeine.de/

=================================================================




(So gut wie) Niemand stirbt am Klimawandel

Die folgende Abbildung, die Björn Lomborg erstellt hat, zeigt, dass die Anzahl der Menschen, die durch Flutwellen, Brände, Stürme oder extreme Temperaturen sterben, seit Jahrzehnten rückläufig ist. Ganz im Gegensatz zu dem, was uns die Klimaalarmisten erzählen wollen.

Das “r”, das Lomborg vergessen hat, muss man sich dazu denken …

Hinzu kommt, dass jährlich mehr Menschen an den Folgen von Kälte sterben als Menschen an den Folgen von Hitze sterben. So veröffentlicht z.B. das Britische Office of National Statistics jährlich eine Aufstellung der “Excess Death”, also der Anzahl von Toten, die auf die Witterung (die Kälte) zurückgeführt werden können.

Die veröffentlichten Ergebnisse stehen in krassem Gegensatz zu dem, was Klimahysteriker behaupten und das obwohl das Vereinigte Königreich nicht als Land bekannt ist, in dem Winter mit großer Kälte einhergehen:

  • 50.100 Menschen sind im Winter 2017/2018 in England und Wales an den Folgen von Kälte gestorben;
  • Das ist die höchste Anzahl seit dem Winter von 1975/76;
  • Vor allem Männer im Alter zwischen 0 und 64 Jahren sterben infolge von Kälte.
  • Mehr als ein Drittel der auf die Kälte attribuierbaren Toten sind an den Folgen von Atemwegserkrankungen verstorben.

Es ist ein Markenzeichen von Hysterie, dass Winzlinge zu Giganten aufgeblasen werden, während die tatsächlichen Probleme, die eine Gesellschaft plagen, z.B. wenn es um Todesursachen und klimatisch bedingte Tote geht, unbearbeitet bleiben. So sind die Ursachen dafür, dass vor allem Männer an den Folgen von Kälte sterben, in den Berufen zu suchen, die Männer ausüben und in der Tatsache begründet, dass Obdachlose zu zwei Drittel Männer sind. Ein Platz für einen Obdachlosen in einem Frauenhaus würde also Leben retten, aber natürlich lassen Genderista Frauenhäuser lieber leer stehen, als dass sie männliches Leben retten.

Wie die folgende Abbildung zeigt, die wir als Verlauf darstellen, so dass jeder die Veränderung von 1990 bis 2017 nachvollziehen kann, muss man die Toten, die dem “Klima” zum Opfer fallen, mit einer Lupe suchen. Die berühmte Nadel im Heuhaufen ist dagegen leicht zu finden, wie unsere Leser sehen werden, denn wir lassen sie mit der Aufgabe, die Toten, die das Klima auf dem Gewissen hat, selbst zu finden, alleine.

Der Beitrag erschien zuerst bei ScienceFiles hier





Klimagate: Zehn Jahre später

Nur wenige Menschen kennen die unbequemen Fakten hinsichtlich der vermeintlichen, vom Menschen verursachten Klimakrise. Zum Beispiel ist die Temperatur seit dem Jahr 1998 um lediglich wenige Hundertstel Grad gestiegen und während der letzten Jahr sogar leicht gesunken. Aber trotzdem dreht es sich bei allem, was wir hören, nur um die Angstmache bzgl. menschlichem Kohlendioxid, welches angeblich eine globale Erwärmung und Klimawandel auslösen soll, der wiederum eine existentielle Gefahr für Menschheit, Natur und den Planeten darstellen soll. Auf dieser Grundlage werden wir gedrängt, den Verbrauch fossiler Treibstoffe zu beenden, um unseren Lebensstandard zu verbessern. Das sind schlechte Nachrichten für Afrika und die Entwicklungsländer allgemein.

Unablässig hören wir vom steigenden atmosphärischen Kohlendioxid-Niveau und dem dadurch ausgelösten Anstieg der globalen Temperatur, aber Satellitendaten zeigen nichts Derartiges. Die Computermodell-Simulationen für das Jahr 2019 liegen schon jetzt bereits ein halbes Grad Celsius über den tatsächlichen Satellitenmessungen. Und ist es so, dass wann immer ein Wissenschaftler Fragen stellt hinsichtlich der Vermeintlichen Krise, wird er oder sie sofort als „Klimawandel-Leugner“ verunglimpft.

Eine Hauptquelle von Daten, welche die vom Menschen verursachte, durch Kohlendioxid induzierte Erwärmung stützt, ist die Climate Research Unit CRU an der University of East Anglia, UK.

Am Morgen des 17. November 2009 explodierte die Büchse der Pandora, und Massen von empörenden CRU-Informationen ergossen sich über die Welt. Ein Hacker hatte das Computersystem der Universität geknackt und 61 Megabyte Material abgegriffen. Dieses Material zeigte, wie die CRU und die mit ihr verbundenen auswärtigen Wissenschaftler zusammenarbeiteten, um wissenschaftliche Informationen so zu manipulieren, dass sie die globale Erwärmung den Menschen in die Schuhe schoben, besonders dem vom Menschen erzeugten Kohlendioxid. Neben vielen anderen Skandalen zeigten die durchgesickerten E-Mails, wie der damalige Direktor der CRU Phil Jones damit prahlte, mit welchen großartigen statistischen „Tricks“ er die Belege eines beobachteten Rückgangs der globalen Temperaturen entfernte.

In einer anderen E-Mail befürwortete Jones das Löschen von Daten, anstatt diese Wissenschaftlern zugänglich zu machen, die seine Standpunkte nicht teilten und seine Analysen hätten kritisieren können. Nicht-alarmistische Wissenschaftler mussten das Informationsfreiheitsgesetz von UK bemühen, um die Daten zu erhalten. Jones wurde später entlassen, und der ehemalige britische Kanzler Lord Lawson forderte eine regierungsamtliche Untersuchung bzgl. dieses empörenden Vorgangs.

Die Affäre wurde rasch unter der Bezeichnung Klimagate bekannt. Eine Gruppe amerikanischer Studenten brachte sogar einen YouTube-Song in Umlauf mit dem Titel „Hide The Decline“, in welchem man sich über die CRU und den Klima-Modellierer Dr. Michael Mann lustig machte – fand sich doch die Phrase „hide the decline“ bzgl. der Temperatur wiederholt in den gehackten E-Mails.

Seit Kalifornien zu einem Staat wurde, lag der gemessene Anstieg der globalen Temperatur unter 1,0 Grad Celsius, wobei der Hauptanteil dieses Anstiegs bereits vor dem Jahr 1940 erfolgt war. Von 1943 bis 1978 sanken die mittleren planetaren Temperaturen, was zu einer Angstmache bzgl. globaler Abkühlung führte. Bis zum Jahr 1998 waren die Temperaturen dann wieder etwas gestiegen und danach stabil geblieben, trotz des unverändert steigenden Kohlendioxid-Niveaus. Änderungen des Kohlendioxidgehalts und der Temperatur korrelieren nicht gerade sehr gut.

Während der vielfach und gut dokumentierten Mittelalterlichen Warmzeit (MWP) von etwa 950 bis etwa 1350 erlaubten es höhere Temperaturen den Wikingern, in Grönland Ackerbau und Viehzucht zu betreiben. Die genauso gut belegte, etwa 500 Jahre währende Kleine Eiszeit (LIA) vertrieb die Wikinger wieder aus Grönland durch Hunger und Kälte. Zwischen 1645 und 1715 erreichte die LIA mit dem Maunder-Minimum ihren Tiefpunkt. Damals war die Themse in England zugefroren, norwegische Landwirte verlangten Ausgleich für ihr unter Gletschern begrabenes Land, und Priester übten Exorzismus-Rituale aus, um Gletscher in den Alpen daran zu hindern, Dörfer zu überrollen. Gemälde aus jener Zeit Zeit zeigten Schlittschuhläufer und Pferdefuhrwerke auf der Themse.

Industrie und Emissionen von Autos können offensichtlich weder bei der MWP noch bei der LIA irgendeine Rolle gespielt haben.

Diese dramatischen Ereignisse sollten die Alarmglocken klingen lassen bei jedwedem kompetenten, ehrlichen Wissenschaftler. Falls es zu der MWP ohne jede industrielle Kohlendioxid-Emissionen gekommen war, warum sollten diese Emissionen dann heutzutage die beobachtete Erwärmung ausgelöst haben? Während der Kleinen Eiszeit verschwand fast ein Viertel der damaligen Bevölkerung in Europa. Die Warmphase hingegen brachte Wohlstand und Rekordernten mit sich, während die Kaltphase geprägt war durch Elend, Hunger und Tod.

Zehn Jahre vor Klimagate veröffentlichte Mann eine im Computer erzeugte Graphik, welche vermeintlich den Temperaturverlauf der letzten 1500 Jahre zeigen sollte. Auf wundersame Weise waren aus seiner Graphik plötzlich sowohl die MWP als auch die LIA samt deren Maunder-Minimum verschwunden. Stattdessen zeigte sie einen plötzlichen und dramatischen Anstieg der globalen Temperatur während der letzten paar Jahrzehnte des 20. Jahrhunderts. Diese Graphik wurde zu dem berüchtigten „Hockeyschläger“ und rückte ins Zentrum des IPCC.

Vielen Wissenschaftlern kam diese Hockeyschläger-Graphik von Anfang an höchst verdächtig vor. Zwei der Wissenschaftler, nämlich Steven McIntyre und Ross McKitrick konnten das Computerprogramm von Mann zur Erzeugung der revisionistischen Historie dieser Graphik vollständig diskreditieren. Dies hielt jedoch den ehemaligen Vizepräsidenten der USA Al Gore nicht davon ab, diese diskreditierte Graphik in seinem Doom-and-Gloom-Klimawandelfilm An Inconvenient Truth an vorderste Stelle zu rücken.

Die gehackten CRU-E-Mails zeigten auch den Austausch zwischen Mann und Jones, wie man Herausgeber unter Druck setzen könnte, welche wissenschaftliche Standpunkte veröffentlichen wollten, die im Gegensatz zu Mann und Jones standen. In einer E-Mail verlieh Jones seinem Wunsch Ausdruck, den „Ärger bereitenden Herausgeber“ des Journals Climate Research loszuwerden, weil der es gewagt hatte, abweichende Standpunkte zu veröffentlichen. Der Herausgeber wurde kurz danach entlassen.

Als der Professor an der University of Colrado Roger Pielke Jr. die CRU aufforderte, ihm die Original-Temperaturmessungen zur Verfügung zu stellen, erhielt er zur Antwort, dass diese Daten verloren gegangen seien. Verloren! Verlieren Profis etwas so wertvolles wie Originaldaten? Bei vielen Beobachtern verstärkte sich der Eindruck, dass die Verantwortlichen einfach verhindern wollten, dass Außenstehende auf ihre Fabrikationen und Fälschungen aufmerksam wurden.

Womöglich noch schlimmer ist aber noch etwas Anderes: Nach dem Bekanntwerden von Klimagate tönte die Campaignerin für „Klima-Gerechtigkeit“ bei Friends of the Earth lauthals, dass „eine Reaktion auf den Klimawandel eine Umverteilung von Wohlstand und Ressourcen im Mittelpunkt haben muss“. Nicht um den Schutz der Erde vor menschengemachten Kohlendioxid-Emissionen oder vor dem natürlichen oder anthropogenen Klimawandel sollte es gehen, sondern um die Umverteilung von Wohlstand und Ressourcen, wobei selbst ernannte Eliten wie sie selbst entscheiden, was „sozial gerecht“ ist und was nicht.

Klima-Campaigner opponieren gegen den Bau moderner Wohnungen für Afrikaner, wobei einige sogar verlauten lassen, dass die Afrikaner weiterhin in Lehmhütten wohnen und den Verbrauch von Strom sowie moderne landwirtschaftliche Technologien vermeiden müssen. Der Schauspieler Ed Begley sagte: „Afrikaner sollten Solarenergie dort nutzen, wo sie diese am meisten brauchen: auf ihren Hütten“. Diese Aktivisten sowie ihre Meinungs-Rädelsführer wie Al Gore, Phil Jones und Mike Mann sind natürlich von diesen Restriktionen ausgenommen.

Wirkliche soziale Gerechtigkeit und Menschenrechte bedeuten, dass jedermann Zugang zu ausreichender, bezahlbarer und zuverlässiger Energie hat, besonders zu Strom, und das nicht von teuren, wetterabhängigen Windrädern und Solarpaneelen, sondern durch fossile Treibstoffe, Wasser- und Kernkraftwerke.

Wir hier in der entwickelten Welt sollten nicht länger tatenlos zusehen, wie der Klima-Betrug durch laute und radikale Aktivisten der Entwicklung der afrikanischen Ökonomie, Arbeitsplätzen und verbesserten Gesundheits- und Lebensstandards Bremsen anlegen.

Kelvin Kemm, Ph.D., ist Kerphysiker und Direktor von Nuclear Africa.

Quellen: Climate Etc.; Economics

Link: https://www.heartland.org/news-opinion/news/climategate-ten-years-later-1

Übersetzt von Chris Frey EIKE

===========================================================

Anmerkung EIKE-Redaktion:

Kürzlich DAZU auch erschienen auf EIKE: https://eike.institute/2019/09/07/10-jahre-climategate-2009-2019-alles-schon-vergessen/

PDF  DAZU :

Puls.19.9.Zehn.Jahre.ClimateGate.Puls

===========================================================

 

 




GAU im Illusionsreaktor: Das 10-Punkte-Desaster

1. Die Energiewende wurde vergurkt, sie ist ein Super-GAU (Größter Anzunehmender Unfug). Die lecke Kuppel des Illusionsreaktors ist das Dach über dem Plenarsaal im Bundestag. Nach 20 Jahren EEG ist die Zielerreichung schlichtweg „unrealistisch“. Eine halbe Billion Euro wurde ausgegeben. Die Strom-Infrastruktur kommt dem Blackout näher. Deutschland ist Strompreismeister. Die Industrie verabschiedet sich. Dem Weltklima nützt das alles gar nichts.

2. Die Energiewende hat viele Mütter, Väter, Onkel, Tanten und noch mehr Paten. Die Mutter der Energiewende ist eine grüne Bundeskanzlerin, die sich wider besseres Wissen weigert, dem Unfug Einhalt zu gebieten, sondern ihn durch den gleichzeitigen Ausstieg aus Atom und Kohle ohne großtechnische Speicher vergrößert. Die Väter der Energiewende sind die ehemaligen Umweltminister Töpfer, Trittin, Röttgen und der ehemalige Strompreisbremser Altmaier. Das sind kluge Menschen, von denen ich allerdings fürchte, dass sie es lieber nicht besser wissen wollen. Die Onkel und Tanten sind die Grünen, Journalisten und Lehrer. Das sind die, die es wirklich nicht besser wissen. Die oberste Patentante der Energiewende ist Professorin und Märchenerzählerin Claudia Kemfert, die uns stets berichtet, wie hoffnungsvoll ihr Patenkind sich entwickelt und wie genügsam es ist. Da ist ihr jede Halbwahrheit recht, denn dies ist ihr gut bezahlter Job. Die Energiewende hat auch ein Gesicht, nämlich das der naturwissenschaftlich eher schlichten Annalena Baerbock.

3. Die Nutznießer der Energiewende sind Investoren, Windbarone, Solarkönige, Bioreaktorbauern und unzählige andere Abgreifer von Subventionen, von Wissenschaftlern über Umweltvereine bis hin zu ihren Lobbyisten. Dass es viel zu holen gibt, hat auch die Industrie erkannt und springt auf den Geldregenzug auf. Alle zusammen bilden den Klima-Industriellen Komplex, einen Wiedergänger des Militär-Industriellen Komplexes, mit dem Ziel der Umverteilung des Weltvermögens von unten nach oben.

4. Die Opfer der Energiewende sind die Steuerzahler und Stromkunden. Wenn die volkswirtschaftlichen Folgen der Energiewende eintreten, dann wird sich der Opferkreis um die Arbeitslosen und ihre Familien erweitern. Mitglieder der Mittelklasse laufen Gefahr, ins Prekariat abzurutschen. Kommt es zu einem Blackout, werden die Opfer der Energiewendefolge die Schwächsten der Gesellschaft sein: Kranke, Alte und Kinder. Opfer sind auch die leichtgläubigen Jugendlichen, die sich instrumentalisieren lassen und allen Ernstes meinen, dass sie mit Unterstützung ihrer Eltern, Lehrer, der Medien und der Regierung „gegen den Staat“ demonstrieren.

5. Seit 20 Jahren vertieft ein Trommelfeuer von Propaganda die Unwissenheit über die Zusammenhänge der Energiewende und verkleistert die Hirne der Bevölkerung. Es wurde ein Tsunami von Halbwahrheiten, Schönrechnerei, Nebelbomben und Falschmeldungen erzeugt, auf dem nun die Volksmeinung in Richtung Riff surft. Im Ergebnis haben die meisten Menschen in Deutschland ein völlig verklärtes Bild über den Zustand der Energiewende im Kopf. Unliebsame Nachrichten sind nicht willkommen, werden nicht verbreitet. In den Führungsetagen der Industrie macht sich Duckmäusertum breit. Wenn man über die Zukunft nachdenken will, muss man doch zuerst die Gegenwart zur Kenntnis nehmen. Da dies nicht stattfindet, geht der GAU immer weiter.

6. Wenn es wirklich um die Umwelt ginge, würden die Klimaretter solche Maßnahmen ergreifen, die am effektivsten zur Vermeidung des verdächtigten Spurengases CO2 beitragen, anstatt die Kraftanstrengungen der Energiewende in mittelalterliche Energieträger mit viel zu niedriger Energiedichte zu investieren. Nun ist das Geld halt weg und die Windmühlen stehen da und tragen ganze drei Prozent zur Primärenergie-Erzeugung bei. Für die vergeudeten Mittel hätte Deutschland eine ganze Flotte sicherer Kernkraftwerke der neuesten Generation bauen können. Deren Energie hätte genügt, eine Dekarbonisierung Deutschlands herbeizuführen. Deutschland wäre heute wirklich Vorreiter und würde sich nicht vor aller Welt als irrlichternder Geisterreiter lächerlich machen. Aber den Klimarettern geht es womöglich um etwas ganz Anderes – nämlich um die „Große Transformation“. Das erinnert an Chinas Großen Sprung nach vorn.

7. Die Energiewende gehört zur Klimareligion – das neue Opium für’s Volk. Wie einst werden Häretiker exkommuniziert, kriechen Wissenschaftler zu Kreuze. Wann immer Kinderglaube auf Wirklichkeit stößt, geht die Moral als Sieger hervor. Wer nicht rückfragelos mitglaubt, wird als unmoralisch gebrandmarkt und hat kein Mitgefühl für Eisbärenbabys. So geht zugunsten der Moral der Realismus verloren. Aber die Wirklichkeit bleibt natürlich die Wirklichkeit, Physik bleibt Physik. Das Erwachen aus den Illusionen wird zur Kollision mit der Realität. Um das zu vermeiden, muss wieder einmal „einmarschiert“ werden – Deutschland ist dabei, ins Land der Illusionen einzumarschieren. Zum Glück braucht man dafür keine funktionierenden Panzer. Ich habe den Eindruck, dass diejenigen, die das energetische Landesschiff steuern, womöglich über keine nautische Ausbildung verfügen.

8. Mit Kopfschütteln beobachten unsere Nachbarn, wie Deutschland eine Politik mit einem völlig unverständlichen Starrsinn weiterbetreibt, die eine Gesellschaft in Energiearmut führt, in der bei einem Blackout oder Wirtschaftskrisen schwerste Verteilungskämpfe ausbrechen können. Solange weder eine Eurokrise sichtbar wird, noch Deutschland in eine Rezession rutscht, lässt sich die Mär vom „Wir können uns das leisten“ aufrechterhalten. Experten hegen keinen Zweifel daran, dass sowohl der Euro als auch die Wirtschaft in Turbulenzen geraten werden – und zwar in den nächsten zwei bis fünf Jahren.

9. Ob der Chuzpe der Politik bleibt man fassungslos. Mit dem Wegfall des Soli für Geringverdiener wird dem Volk ein „Steuergeschenk“ gemacht. Es wurde sogar behauptet, dass es keine „Gegenfinanzierung“ geben würde. In derselben Woche beschließt die Regierung die Einführung der CO2-Bepreisung, genau wissend, dass für Herstellung jeglichen Produktes CO2 anfällt und die Unternehmen die Kosten an die Kunden weitergeben müssen. Sie schaffen den Soli ab und ersetzten ihn durch die „CO2-Bepreisung“ – ein Euphemismus, der nichts weiter ist als eine langsam wachsende Mehrwertsteuer, obendrauf auf die schon existierende. Die Tastaturbücklinge und Bildschirmschranzen rufen „Hosianna!“ dazu.

10. Die Politik hat sich mit der Energiewende in ein unlösbares Dilemma manövriert. Was auch immer sie von jetzt an tut, es ist falsch. Kehrt sie mit der Energiewende um, merkt das Volk, dass es um ungeheuerliche Summen Steuergeld betrogen wurde. Macht sie weiter mit noch mehr vom Selben, was schon bisher nicht funktionierte, machen ihr Physik und Ökonomie einen Strich durch die Rechnung. Auch wenn sie ruft: CO2 ist der Teufel, die Hölle ist die „Erde plus zwei Grad“ und nur wer verzichtet, kommt ins Paradies der Nachhaltigkeit. Die Geschichte lehrt: Bisher war es leider immer so, alle falschen Paradiesversprechen endeten in der echten Hölle.

Teil 1 finden Sie hier.

Teil 2 finden Sie hier.

Teil 3 finden Sie hier

Teil 4 finden Sie hier

Teil 5 finden Sie hier

Der Beitrag erschien zuerst bei ACHGUT hier




Die apokalyptischen Reiter der Klimapolitik – zum ersten

Wer sich seinen eigenen Weg in der großen Klima-Verwirrung finden will, kommt nicht umhin sich ein paar grundsätzliche Gedanken über Wissen und Bildung zu machen und sich beispielsweise den kleinen Unterschied zwischen Fakten und Daten klar zu machen. Beginn einer kleinen Serie zur geisteswissenschaftlichen Ertüchtigung des staunenden Publikums im großen Klima-Theater.

„Der anthropogene (durch den Menschen verursachte) Treibhauseffekt ist seit über drei Jahrzehnten zunehmend Gegenstand wissenschaftlicher Untersuchungen und öffentlicher Diskussionen. Trotz der mittlerweile fundierten wissenschaftlichen Basis melden sich immer wieder Skeptiker zu Wort, die den anthropogenen Treibhauseffekt anzweifeln oder sogar leugnen.“ (Umweltbundesamt)

„Es kommt die Zeit, da wir alle fort und vergessen sind, und das Einzige, was dann von uns übrig ist, sind die Treibhausgase, die wir mehr oder weniger unwissentlich in die Atmosphäre gepustet haben.“ (Szenen aus dem Herzenvon Greta Thunberg, Svante Thunberg, Malena Ernman, Beata Ernman)

Fanatismus, meine Damen und Herren, Fanatismus … – Kennen Sie Greta? Alle kennen Greta, „wir alle“ kennen sie, vielleicht nicht gerade in Person, aber ganz gewiss ihr Medien-Abziehbild. Dieses Bild, über das separat zu sprechen wäre, hat, so scheint es mittlerweile, durch die Heftigkeit des New Yorker UN-Auftritts vom 23. September einen Knacks bekommen. Das muss nicht schlecht sein. Der Ikone der Klimabewegung widerfährt damit nur, was schon Andere vor ihr hinnehmen mussten. Sie spaltete die Wohlmeinenden, und die Bewegung geht über sie hinweg. Genug ist nicht genug. Der Leitsatz der Bewegung gilt nicht bloß im Reich der PS-Boliden und Fernreisen, er gilt genauso für Exponenten einer Weltsicht, in der für derlei Luxus kein Platz vorgesehen ist.

Der Star, der, wie man hier und da lesen konnte, „seine Emotionen nicht im Griff hat“, ist plötzlich wieder Kind: Wer sind die Eltern? Wo sind die Eltern? Die seriöse Welt, in der Entscheidungen gefällt und Mehrheiten organisiert werden müssen, trennt sich, die Gelegenheit nutzend, ostentativ von den lunatics, den überspannten Rebellen des Weltgewissens, das bekanntlich bei Bedarf in jedem Mainstream-Politiker tickt. Und die Rebellen? Sagen wir, die Situation kommt ihnen entgegen, nachdem „Greta“ erfolgreich die Botschaft vom drohenden Untergang in den Köpfen der Mehrheitsgesellschaft und der ihr verpflichteten Politik verankert hat. Konkurrenz belebt das Geschäft und Feindschaft gegen das System garantiert einen langen Atem. Währenddessen wird die Ikone, ausstaffiert mit allerlei Auszeichnungen, ins öffentliche Nirwana all der Kämpfer für eine bessere Zukunft entrückt, an die von Zeit zu Zeit ein bebilderter Zeitungsartikel erinnert.

Fanatismus der Unwissenheit

Die junge Dame, die, wie sie bereits mehrfach andeutete, ihre Bildung auf dem Altar der Menschheit opfert, da sie etwas weiß oder zu wissen glaubt, das keinen Aufschub duldet, weiß offenbar nicht, dass Bildung und Wissen in einem engen Zusammenhang stehen oder, um es weniger schlicht zu formulieren, einander bedingen: keine Bildung ohne Wissen, kein Wissen ohne Bildung. Vor allem der letzte Teil dieses Satzes verdient Beachtung. Man muss wissen – oder eine Ahnung davon haben –, was Wissen heißt und wie es zustande kommt, um sich seiner halbwegs angemessen bedienen zu können. Es gibt einen Fanatismus der Unwissenheit und des Wissens, die einander in ihren Folgen nicht nachstehen – allein schon deshalb nicht, weil letzterer gleichfalls auf Unwissenheit beruht (den Fall der wissentlichen Unwissenheit, des Selbstbetrugs oder der bösen Absicht einmal beiseitegesetzt).

Daher kann keine Unterrichtseinheit den Bildungsgang ersetzen, innerhalb dessen sie angesetzt wurde: Eine Banalität unter Pädagogen, zusehends ausgehebelt durch die grassierende Bildungsverachtung von Leuten, die der Ansicht sind, sie wüssten genug, um die Welt von ihrem schlimmen Tun abhalten zu müssen – hier und jetzt, denn die Sache selbst duldet … siehe oben. Die Sache selbst. Ganz recht, die sechzehnjährige Greta kann es nicht wissen, da eine skrupellos agierende Umgebung ihr ein Dasein als Medium nahelegt, dazu verurteilt, anderer Leute Wahrheiten unter die Leute zu bringen – flächige Projektionen eines „Wissens“, das in seinem Kern vielleicht Wissenschaft, vielleicht ein Hoax (oder ein guter Mix aus beidem) ist, in jedem Fall aber über eine Tiefendimension verfügt, die sich ihr und ihren Mitkämpferinnen entzieht.

Falls dieses Kind, das kein Kind mehr ist, ein „Missbrauchsopfer“ genannt zu werden verdient, so weniger wegen einer ausgeplauderten Asperger-Diagnose als deswegen, weil ihm die akklamierende Erwachsenenwelt, in der es sich offensichtlich bewegt, das Recht auf Bildung abschneidet. Damit scheint es das Schicksal einer Generation von Jugendlichen zu teilen, deren Erzieher und Lehrer es vorziehen, einem wahnhaften Purismus die Ehre zu geben, statt ihren Schützlingen die elementare Kenntnis dessen zu vermitteln, was eine frühere Generation „la condition humaine“ nannte, die menschliche Weise, in der Welt zu sein und, unter anderem, eine Flut widersprüchlicher Gewissheiten zu generieren, deren Schicksal darin besteht, wieder kassiert zu werden, sobald es an der Zeit ist. Denn noch immer ist der Mensch das Tier, das tief in seinem Inneren weiß, dass es nichts weiß, während es fest zu wissen glaubt, was Andere ihm suggerieren.

Fakten werden gemacht

Die Berufung auf Fakten besitzt, zumindest in der Wirkung auf Laien, etwas Furchteinflößendes. Sie erscheinen ihnen unumstößlich gegeben: „Widerstand zwecklos!“ Das freut die Blender unter den Wissenschaftlern, die sich gern im Licht der Öffentlichkeit sonnen. Denn sie wissen: Nichts in ihren Disziplinen ist so umkämpft wie just diese „Fakten“. Wie das Wort bereits andeutet: Fakten werden gemacht. Sie sind das Ergebnis einer praktischen („Fakten schaffen!“) oder theoretischen Anstrengung. Das unterscheidet sie von „Daten“, die erhoben und interpretiert werden müssen, um auf irgendeine Weise (zum Beispiel in Archiven, etwa zum Klimawandel, wo sie, rein theoretisch, auch zurechtgebogen werden könnten) auf Abruf gegeben zu sein.

Wer demnach, öffentlich sein Renommee als Wissenschaftler in Anspruch nehmend,  behauptet, jene einer wissenschaftsfernen Umgebung aufs Auge gedrückten „Fakten“ seien – bloß gleichsam für Laien verständlich aufbereitet – die Daten selbst, der beurlaubt sich – an dieser Stelle wenigstens – aus dem wissenschaftlichen Diskurs. Manche seiner Kollegen dürften es mit Erleichterung quittieren. Einige allerdings auch mit verstecktem oder offenem Groll, weil sie gern beides hätten: die wissenschaftliche Reputation und das öffentliche Etikett des/der „führenden Forscher(s)*in“.

Wie eine Probe auf diesen Mechanismus liest sich die Karriere der neueren Klimaforschung, deren „führende Vertreter“ seit Jahr und Tag einer dankbar-betroffenen Öffentlichkeit ihre unumstößlichen Fakten präsentieren und dabei nicht selten auf ihre Vergesslichkeit spekulieren, da gerade die furchterregendsten unter den aufgebotenen „Fakten“ alle naslang nachjustiert werden müssen.

Immerhin könnte die Behauptung der Forschesten unter ihnen, irgendwer habe „das Schlimmste“ schon seit Jahrzehnten vorhergesagt, bei klügeren Zeitgenossen eher Zweifel am Fleiß und an der Gewissenhaftigkeit der über allerlei Disziplinen verstreuten, aber im politischen Impetus vereinten Zunft erwecken. Also wird ein gewisser Teil der durch Forschungsfortschritte notwendig werdenden Korrekturen am obligaten Horrorszenario mit der Maßgabe publiziert, in Wahrheit sei alles viel schlimmer, als bisher angenommen. Das imponiert aufmerksameren Zeitgenossen zwar nicht sonderlich. Aber angesichts der allgemeinen Betroffenheit verschließt es ihnen den Mund.

Dies ist der erste Teil einer vierteiligen Serie. Zuerst veröffentlicht auf der Achse des Guten. Mit freundlicher Genehmigung des Autors.




Die 13. Internationale Klima- und Energiekonferenz wurde erfolgreich beendet! Antifa und Klimakrakeeler produzierten sich als Volltrottel!

Zwei dichtgepackte Tage lang lauschten ca. 250 Teilnehmer, darunter viele Dutzend erstklassige Wissenschaftler und Experten, den Vorträgen der Referenten, die über den aktuellen Stand ihrer Forschungen, oder die naturgesetzlichen Grenzen der  „Energiewende“, oder die Schwächen und Fehler der gegenwärtigen Klimawissenschaften referierten.

Video der mickrigen Demo der Teilnehmer vom offenen Antikapitalistischem Klimatreffen München. Aufnahme EIKE gegen 19:05 Uhr 23.11.19

Auch dank der nützlichen Idioten von der Münchner Antifa war die öffentliche Aufmerksamkeit und damit die Teilnehmerzahl größer denn je. Noch niemals hatten sich so viele angemeldet, noch niemals baten so viele Medienvertreter um Akkreditierung.

Auch der neue, vorzüglich geeignete neue Tagungsort in der Münchner Wappenhalle, wäre ohne vorher gegangene Denunziation des Berliner Tagesspiegel beim ursprünglich gebuchten Tagungshotel (NH Conference Center München Ost Aschheim), mit anschließender Kündigung durch dessen Geschäftsleitung wegen vorauseilendem Opportunismus, und wegen eines müden Häufleins der Münchner Antifa, nicht gefunden und gebucht worden. Über die daraus entstehenden Mehrkosten, die EIKE als Schaden dennoch zu verkraften hatte, wird mit den Verursachern allerdings noch zu reden sein.

Doch abgesehen davon, kann man nur sagen:

Danke ihr nützlichen Idioten der Antifa, die ihr euch unter dem Decknamen „
„Offenes Antikapitalistisches Klimatreffen München“ und Umweltinstitut München, um unsere Konferenz verdient gemacht habt.

Die gesamte Konferenz wurde über Video als Livestream veröffentlicht. Sie sind jetzt eine Zeitlang auf dem EIKE Youtube Kanal zu sehen

  1. Teil hier
  2. Teil hier
  3. Teil hier
  4. Teil hier

Wollte man einige Highlights hervorheben, so täte man sich angesichts der vielfach brillianten Inhalte, oft auch brilliant vorgetragen, sehr schwer. Trotzdem verdient der Vortrag von Lord Christopher Monckton Viscount of Brenchley besonders erwähnt zu werden. Nicht nur deswegen, weil er die offensichtlich vorhandenen Bezüge zwischen der Tagesspiegel – Antifa Kampagne zur Nazizeit und anschließender sozialistischer Unterdrückung herstellte, sondern auch, weil er, einmal mehr den immensen Schaden benannte den die „Klimaschutzpolitik“ der Staaten allen Menschen dieser Welt, besonders aber den Ärmsten der Armen in Afrika, weiten Teilen Asiens und Südamerikas bloßlegte. Das Publikum dankte es ihm mit standing Ovations.

Hier ab Minute 4:24:16

Wie üblich werden alle Vorträge einzeln demnächst als Videos auf unserem Videokanal zu sehen und zu hören sein.

Allen Mitwirkenden, besonders aber dem EIKE Team, den Mitarbeitern der beiden Technik-Teams, dem Sicherheitsteam, dem Vermieter und seiner Mannschaft, den Referenten und vor allem den drei Synchron-Dolmetscherinnen sei herzlich gedankt.

Spenden zur Abdeckung der nicht unbeträchtlichen Mehrkosten sind sehr erwünscht. Bitte hier die Kontonummer aufrufen




Der Klimawandel: Zwischen Apokalyptikern und Sonnen-Schnatterern

Dort war zu lesen (hinter Bezahlschranke):

„Das Bescheuerte hat zwei Pole: Während die ein˟innen dem Globus lediglich noch ein paar Jahre geben, schnattern andere davon, dass alles so weitergehen könne wie bisher, die Sonne schuld am Klimawandel sei und jeder seinen SUV zum Brötchenholen anwerfen solle. Doch zwischen Alarmismus und Hartleibigkeit sitzt das Reich der Vernunft und des gesunden Menschenverstandes, und der kann nicht anders, als….“.

Danach ging es mit dem Müll weiter.
Mein Problem ist, dass ich in der Tat eine Meinung zum Klimawandel habe und mir nun aussuchen darf, ob ich zu der Bescheuerten-Fraktion der Weltuntergangs-Alarmisten oder zu der ebenso bescheuerten Gruppe der Schnatterer gehöre.

Ich gestehe hiermit, dass ich ein Schnatterer bin, muss aber betonen, dass ich keinen SUV habe. Obwohl ich Brötchen mag.
Was mich aber sowohl tröstet, aber auch ratlos macht, ist Herrn Poschardt‘s Ansage, dass der „dazwischen sitzende gesunde Menschenverstand“, zu dem er offensichtlich einen bevorzugten Zugang hat, die Wahrheit kennt.
Eine harte Ohrfeige für die Wissenschaft, die bislang eigensinnig experimentelle Beweise für naturwissenschaftliche Hypothesen verlangt, die auch noch durch die Wiederholung dieser Experimente durch andere Forscher bekräftigt werden müssen, bevor die Hypothese als bewiesen gilt.
Nun ist das leider in der Klimaforschung bisher nicht gelungen, was an den extrem komplizierten, nichtlinearen und zufälligen Variablitäten der beteiligten physikalischen Prozesse und der mehrfach beklagten grundsätzlichen Unmöglichkeit liegt, das überhaupt berechnen zu können – weshalb auch keine Prognosen erstellt werden können, die wenigstens das bedruckte Papier wert sind.
Bleibt leider den Anhängern der Katastrophen-Theorie nur eins übrig: Sie müssen daran glauben. Wie das auch in Sekten üblich ist.
Doch nun kommt der Poschardt’sche gesunde Menschenverstand ins Spiel, der nach seinen Worten „dazwischensitzt“ – was wohl auf eine Art von Mittelwertfindung zwischen den Extremen „Untergang“ und „Garnichts“ hinausläuft. Die über den angeblich durch die Menschen verschuldeten Klimawandel streitende Wissenschaft sollte einpacken und die Veröffentlichung der  – noch vertraulichen – Mittelwerte der WELT-Chefredaktion abwarten. Das Ergebnis könnte also zum Beispiel lauten:
10 Prozent Sonneneinfluss und 90 Prozent vom Menschen verschuldeter Untergang. Oder auch umgekehrt. Wir warten.
Im Übrigen finde ich es als Solarschnatterer unangemessen, die Sonne als am Klimawandel schuldig zu bezeichnen. Sie hat seit Jahrmillionen einen guten Job gemacht, das sollte man ihr zugutehalten.




Was ist grün, beschäftigt zehnmal so viele Menschen wie die „fossile-Brennstoffe-Industrie“ und fälscht?

[Im Original folgt zunächst ein Ausschnitt aus dem New Fake Scientist, in welchem sich ein Adam Vaughan darüber auslässt, dass die „grüne Ökonomie rund 10 mal so viele Menschen beschäftigt wie die Industrie fossiler Treibstoffe“. Autor Middleton schreibt dazu]:

Das Geschrei um eine „Ökonomie“, die größer sein soll als eine „Industrie“ ist genauso dämlich wie das Geschrei darüber, dass ein Jahrhundert länger ist als ein Tag. In den meisten Ökonomien dürften mehr Menschen in Arbeit sein als in den meisten Industrien. Ökonomien neigen dazu, aus vielen Industrien zusammengesetzt zu sein, welche für die Verbraucher Güter herstellen und Dienstleistungen anbieten.

Wer verschwendet auch nur einen Gedanken an eine wie auch immer geartete „Ökonomie“, welche mehr Menschen beschäftigt als eine spezielle „Industrie“? Außerdem gibt es so etwas wie *eine* fossile Industrie nicht. Öl und Gas werden gefördert, erzeugt, verarbeitet und verkauft von der Öl- und Gasindustrie. Kohle wird gefördert und verkauft von der Kohlenindustrie. Abgesehen von einer Handvoll Unternehmen wie etwa BHP gibt es zwischen diesen beiden Industriezweigen kaum Überlappungen. Die Versorger-Industrie erzeugt mittels eines Teils der Kohle, des Erdgases und des Öls elektrischen Strom. Die Stahlindustrie verbraucht Kohle zur Herstellung von Stahl. Die petrochemische Industrie verbraucht Öl und Erdgas, um Plastik, Radiergummi, Harze, synthetische Fasern, Klebstoff, Farben, Lösungsmittel, Pestizide und Ölfarben herzustellen (hier). Nicht zu vergessen natürlich Kunstdünger, welcher die Hälfte der menschlichen Population ernährt.

Abbildung 1: Petrochemisches Flussdiagramm. Quelle

Abbildung 2: Nach Erisman et al., 2008: „Trends der menschlichen Population und Stickstoff-Verbrauch im Verlauf des 20. Jahrhunderts (durchgezogene Linie). Schätzung der Anzahl von Menschen, welche ohne reaktiven Stickstoff aus dem Haber-Bosch-Verfahren auskommen (lang gestrichelte Linie), auch dargestellt als Prozentanteil der globalen Bevölkerung (kurz gestrichelte Linie). Die verzeichnete Zunahme des mittleren Verbrauchs von Kunstdünger pro Hektar Ackerbau (blaue Symbole) sowie die Zunahme des Pro-Kopf-Fleischverbrauchs (grüne Symbole) sind ebenfalls dargestellt“.

Fossile Treibstoffe ermöglichen 100% Beschäftigung in den meisten Industrien. Die Industrie fossiler Treibstoffe hat buchstäblich Menschen aus der Armut befreit – seit über 150 Jahren.

Die „grüne Ökonomie“ – jedenfalls soweit man sie definieren kann – zwingt der realen Ökonomie einen Markt auf mit dem Ziel, eigene Güter und Dienstleistungen bereitzustellen, die zu nutzen uns von Bürokraten der Regierung vorgeschrieben wird.

Die grübe Ökonomie „gibt den Menschen das, was sie einer speziellen Gruppe zufolge zu verbrauchen haben“.

Eine Hauptquelle der Ablehnung einer freien Ökonomie ist genau das – sie gibt den Menschen, was sie haben wollen anstatt das, was sie einer speziellen Gruppe zufolge zu verbrauchen haben. Den meisten Argumenten gegen den freien Markt liegt ein Fehlen des Glaubens an Freiheit selbst zugrunde.“

Milton Friedman

Während es zumindest einen begrenzten Markt für „erneuerbare Energie“ auch ohne Diktate der Regierung geben würde, wird die Nachfrage nach „umweltlicher Beratung“ ausschließlich von Diktaten der Regierung gesteuert. Das macht es nicht unbedingt schlecht, aber es wird nichts produziert. In der Öl- und Gasindustrie müssen wir Myriaden von regierungsamtlichen Vorschriften folgen. Je größer ein Unternehmen wird, umso größer werden die Departments Gesundheit, Sicherheit und Umwelt derselben und auch die Abteilung den Vorschriften genügen. Das sind wichtige Dinge … aber es sind zu 100% Kostenpunkte.

Größenordnung:

Falls die „grüne Ökonomie“ wirklich 10 mal so viele Menschen beschäftigt wie die „Fossile-Treibstoffe-Industrie“, dann beschäftigt die reale Ökonomie 15 mal mehr Menschen als die Fake-Ökonomie.

● US non-farm employees = 151.9 million

● US “green economy” employees = 9.4 million

● 151.9 – 9.4 = 142.5

142.5 / 9.4 = 15.2

Der Zweck von Geschäftsbereichen und Industrien

Industrien setzen sich aus Firmen zusammen, welche Güter und Dienstleistungen erzeugen bzw. anbieten, um den Eigentümern der Geschäfte Profite zu verschaffen.

Es gibt eine und nur eine einzige soziale Verantwortung der Industrie – nämlich deren Ressourcen zu nutzen und sich in Aktivitäten zu engagieren, womit die Profite gesteigert werden sollen, solange das den Spielregeln folgt, das heißt, solange man sich in einem offenen und freien Wettbewerb bewegt ohne Betrug oder Täuschung“.

Milton Friedman

Hier gibt es nichts, was Arbeitsplätze bietet. Die Geschäfte beschäftigen die Anzahl von Menschen, die sie brauchen, um ihrem Geschäftsmodell zu folgen.

Öffentliche Diskussionen neigen dazu, mehr mit Bezug auf Arbeitsplätze durchgeführt zu werden als neue Arbeitsplätze zu schaffen. Das ist überhaupt nicht unsere Zielsetzung. Es gibt kein Problem hinsichtlich der Schaffung von Arbeitsplätzen. Wir können beliebig viele Arbeitsplätze schaffen, einfach indem wir die Menschen Löcher graben lassen, um diese später wieder aufzufüllen. Wollen wir derartige Arbeitsplätze haben? Nein! Arbeitsplätze sind ein Preis, und wir müssen arbeiten um zu leben. Hört man nur auf die Terminologie, könnte man denken, wir leben um zu arbeiten. Bei Einigen unter uns ist das der Fall. Es gibt Workaholics genauso wie es auch Alkoholiker gibt, und einige von uns leben um zu arbeiten. Aber zuallermeist wollen wir nicht einfach nur Arbeitsplätze, sondern produktive Arbeitsplätze. Wir wollen Arbeitsplätze, um die Güter und Dienstleistungen herzustellen, die wir mittels eines Minimums an Aufwand und Mühe verbrauchen können. In gewisser Weise ist es eine angemessene nationale Zielsetzung, so wenig Arbeitsplätze wie möglich zu haben. Das heißt, der geringste Aufwand an Arbeit für die größtmögliche Menge von Produkten“.

Milton Friedman

,Produktivität‘ – was ist das?

Produktivität ist eine ökonomische Maßzahl des outputs per unit of input*. Die Eingänge enthalten u. A. Arbeit und Kapital, während der Output typischerweise als Umsatz/Einkommen [revenues] und andere BIP-Komponenten erfasst wird wie etwa business inventories. Maßzahlen der Produktivität können kollektiv betrachtet werden (über die gesamte Ökonomie) oder von Industrie zu Industrie, um Trends der Zunahme von Arbeit, des Lohnniveaus und von technologischen Verbesserungen zu untersuchen.

[*Hinweise, wie man das am besten übersetzt, sind willkommen! Anm. d. Übers.]

,Produktivität‘ HERUNTERBRECHEN

Produktivitäts-Steigerungen sind für eine Ökonomie unabdingbar, bedeuten sie doch, dass mehr mit weniger erreicht wird. Sowohl Kapital als auch Arbeit sind knappe Ressourcen, so dass deren Maximierung im Zentrum aller Bemühungen moderner Industrien steht. Zu Steigerungen der Produktivität kommt es durch technologische Fortschritte wie Computer und Internet, durch Verbesserungen der Versorgungsketten und der Logistik sowie einem zunehmenden Erfahrungsniveau unter der Arbeiterschaft.

Investopedia

Der Artikel im New Fake Scientist macht geltend, dass in der „Fossile-Treibstoffe-Industrie“ nur etwa 900.000 Menschen arbeiten. Dem U.S. Energy and Employment Report aus diesem Jahr zufolge sind in diesem Bereich allein in den USA über 1,1 Millionen Menschen beschäftigt. Bzgl. Produktivität gibt es keinen Vergleich zwischen „Erneuerbaren“ und realer Energie:

Abbildung 3: Produktivität der Energie-Industrie, dargestellt als Tonnen Öl-Äquivalent (TOE) pro Arbeitsplatz. Die Beschäftigtenzahlen stammen aus dem U.S. Energy and Employment Report 2019, die MTOE-Zahlen aus der Statistical Review of World Energy 2019 von BP.

In einem früheren Beitrag schrieb einer der Kommentatoren, dass es unfair sei, Primärenergie zu vergleichen, weil nur etwa 25% der Primärenergie aus fossilen Stoffen als Strom geliefert wird. Im Falle Öl ist es sogar noch weniger. Das meiste Erdgas wird für andere Zwecke als für die Stromerzeugung verbraucht, und Erdgas ist immer noch der führende Treibstoff der Stromerzeugung in den USA.

Im Jahre 2018 betrug die vermarktete Erdgas-Erzeugung in den USA 32.823 Bcf. Der Gesamtexport summierte sich auf 691 Bcf. Nur etwa 32% des erzeugten Erdgases wurden für die Stromerzeugung verbraucht.

Trotz der Tatsache, dass >99% des Rohöls und 68% der Erdgas-Erzeugung nicht für die Stromerzeugung genutzt werden, erzeugen Öl und Gas 2,5 mal mehr Strom pro Arbeitsplatz als Wind und 6,75 mal mehr als Solar.

Die „grüne Ökonomie“ ist von fossilen Treibstoffen abhängig

Ich liebe Ironie. Texas ist in der Nation (und vermutlich hinsichtlich der meisten Länder) führend bei der Erzeugung von Windenergie. Ich fahre oftmals zwischen Houston und Dallas hin und her. Ich sehe die Dinger jetzt genauso oft wie damals in 2000er Jahren, aber gelegentlich sehe ich sie immer noch:


Mag jemand raten, mit welchem Treibstoff jener Traktor nebst Anhänger fährt? Und was ist mit den Schiffen, welche die Rotorblätter an ihre Bestimmungsorte bringen?

Wie viel Stahl und Beton braucht man für einen typischen Windpark?

Beispiel: Ein MW installierter Windenergie-Kapazität erfordert 460 Tonnen Stahl und 870 m³ Beton – und das im Vergleich zu den 98 Tonnen Stahl und 160 m³ Beton für Kohle. Sogar noch niedriger sind die Zahlen für Kernkraft: 40 Tonnen Stahl und 90 m³ Beton. Erdgas kommt am niedrigsten weg, braucht man doch kaum mehr als 3 Tonnen Stahl und 27 m³ Beton pro MW. Deshalb sind Gaskraftwerke auch am billigsten und am einfachsten zu bauen.

Forbes

Wie viel Kohle braucht man für jedes MW Windmühlen-Kapazität?

Stahl ist ein grundlegendes Material für das moderne Leben. Die Herstellung von Stahl liefert die Güter und Dienstleistungen, die unsere Gesellschaften brauchen – Gesundheitsvorsorge, Telekommunikation, verbesserte landwirtschaftliche Verfahren, besseres Transportwesen, sauberes Wasser und Zugang zu zuverlässiger und bezahlbarer Energie. Die globale Stahlerzeugung ist von Kohle abhängig. Für 70% der Stahlerzeugung wird heutzutage Kohle verbraucht. Metallurgische Kohle – oder Kokskohle – ist eine vitale Zutat bei der Stahlherstellung. Die Welt-Rohstahlproduktion belief sich im Jahre 2010 auf 1,4 Milliarden Tonnen. Rund 721 Millionen Tonnen Kokskohle wurden für die Stahlherstellung verbraucht.

Ram River Coal Corp.

Kohle wird als Energiequelle bei der Herstellung von Zement genutzt. Für die Zementherstellung sind große Mengen Energie erforderlich.Man braucht etwa 200 kg Kohle, um eine Tonne Zement herzustellen, und etwa 300 bis 400 kg Zement braucht man, um einen Kubikmeter Beton herzustellen (hier),

World Coal Association

Das macht zusammen etwa 267 Tonnen Kohle pro MW installierter Windenergie-Kapazität.

Sogar noch komischer…

,Deep Electrification‚ bedeutet mehr Erdgas

Jude Clemente

Aus Umweltgründen gibt es einen anhaltenden Schub, „alles zu elektrifizieren“, von Autos über Betriebs-Operationen bis zum Heizen.

Der Gedanke dahinter: eine ,deep electrification‚ wird zu niedrigeren Treibhausgas-Emissionen führen und helfen, den Klimawandel zu bekämpfen.

Die Realität jedoch ist, dass mehr Elektrifizierung den Stromverbrauch gewaltig ankurbeln wird. Dieses auf der Hand liegende Faktum scheint man vergessen zu haben.

Den Hauptanteil dieser Zunahme wird es im Transportsektor geben: Elektrofahrzeuge können zu einer Steigerung des häuslichen Energieverbrauchs um 50% oder mehr führen.

Das U.S. National Renewable Energy Laboratory (NREL) sagt, dass die „Elektrifizierung das Potential hat, die Gesamtnachfrage nach Strom bedeutend zunehmen zu lassen“.

Das NREL berichtet, dass ein „hohes“ Elektrifizierungs-Szenario unsere Energienachfrage bis zum Jahr 2050 um rund 40% wird steigen lassen.

Ein hohes Elektrifizierungs-Szenario würde unseren jährlichen Energieverbrauch um 80 TWh pro Jahr erhöhen.

Ultimativ verlangt eine viel höhere Stromnachfrage, alle Quellen zur Stromerzeugung zu nutzen.

Aber im Einzelnen ist Gas der bevorzugte Energieträger, deckt es doch fast 40% der Stromerzeugung in den USA. Vor einem Jahrzehnt betrug der Anteil 20%.

Und wirklich, das EPRI modelliert, dass die Zunahme des Gasverbrauchs in den USA bei „allen“ Elektrifizierungs-Szenarien zunehmen wird, selbst wenn sich die Gaspreise auf 6 Dollar pro MMBtu mehr als verdoppeln.

Manch einer vergisst, dass eindeutige Wachstums-Bereiche der US-Gasindustrie ein Dreigespann sind: Flüssiggas-Exporte, Strom, produzierendes Gewerbe, in dieser Reihenfolge.

Forbes

Ironie kann so … ironisch sein. Die „grüne Ökonomie“ ist zu 100% abhängig von der „das Klima zerstörenden“ Industrie …

Die folgenden Videos bringen noch mehr von Milton Friedman:


Und allgemein:

 

Link: https://wattsupwiththat.com/2019/11/18/whats-green-fake-and-employs-ten-times-as-many-people-as-the-fossil-fuel-industry/

Übersetzt von Chris Frey EIKE




Artikel-Krieg auf Wikipedia – Andreas „Andol“ Lieb übt bittere Vergeltung

Daß EIKE-Repräsentanten überhaupt eigene Artikel bei Wikipedia haben, ist ja eigentlich eine Ehre – viele Normalverbraucher kennen uns nicht einmal, weil die Medien solche Uruk-Hais (siehe Foto) wie uns sonst eher verschweigen; es könnte ja jemand unsere Informationen lesen und nachdenken. Werden wir doch einmal in den Quantitätsmedien erwähnt, fehlt natürlich nie die „richtige“ Einordnung unseres Wirkens, damit das Denken der Zuschauer auch gut betreut ist. Ein hervorragendes Beispiel ist der aktuelle ORF-Beitrag über „Gretas Feinde“, zu dessen Erstellung eine junge politisch zuverlässige Journalistin aus Wien nach Potsdam eilte (mutmaßlich per Flugzeug), um mit dem leicht angewiderten Gesichtsausdruck der Rechtgläubigen den Häretiker Limburg zu interviewen.

Ein eher im Hintergrund tätiger Kollege des ORF-Klimateams, politisch aber genauso zuverlässig, ist der wohl weniger kamerataugliche Andreas Lieb, der als Andol richtig gute PR-Arbeit für die Church of Global Warming leistet. Wie Kollege Baur herausfand, ist Lieb rund acht Stunden täglich und mehr in der „demokratischen“ Wikipedia unterwegs, um die ihm verhaßten Klimaleugner und ihre Aussagen möglichst schlecht dastehen zu lassen. Die Gründer von Wiki (hawaiianisch für „schnell“) warben damit, daß ihre Internet-Enzyklopädie jedem offenstehe und das Wissen der Welt zusammentrage. Die Realität sieht wie immer ganz anders aus: Die Wikipedia ist nicht demokratisch, sondern im schlechtesten Sinne politisch: Wer am lautesten schreit, gewinnt. Dabei zeigt sich, daß eine alte Erfahrung aus Parteien auch beim Schreiben von Wiki-Artikeln gemacht werden kann. Jan Fleischhauer beschrieb einmal, daß sich marxistische Studenten in der SPD durchsetzen konnten, weil die wohlhabenden Bürgerkinder im Gegensatz zu den bodenständigen Arbeiter-Genossen auf Parteitreffen ewig ausharren und somit Abstimmungen dominieren konnten. War der Genosse Arbeiter abends gegangen, machten die Edelmarxisten, was sie wollten. Morgens um sechs arbeiten mußten sie nicht; und Geld hatten sie genug.

Ähnlich läuft es in der Wikipedia: Die „Offenheit“ zieht zahlreiche Weltanschauungskrieger geradezu magisch an. Da sie mutmaßlich vom Sozialstaat und/oder von linken NGOs mit Steuergeld vollversorgt werden, haben sie 24 Stunden am Tag Zeit, gemeinschaftlich aus ihrer Sicht falsche Ansichten oder Informationen aus Artikeln herauszulöschen und stattdessen exklusiv ihre Weltsicht zu verewigen. Die deutsche Wikipedia ist (noch) die zweitgrößte der Welt – was für eine Macht! Ein gescheiterter grüner Kandidat ohne (klassischen) Job aus einer Provinz-Ortschaft kann bestimmen, was deutschsprachige Leser auf der ganzen Welt über böse Klimaleugner wissen und denken sollen.

Wie sieht das aus? Im persönlichen Artikel von Michael Limburg versuchte ein Klimaskeptiker mit dem Pseudonym Schnappi92, der Kontakt zu uns aufnahm, wenigstens etwas Schärfe aus dem diffamierenden Text zu nehmen, indem er Formulierungen wie „Leugnung der menschgemachten Erwärmung/ Abstreiten der menschgemachten globalen Erwärmung“ durch „Kontroverse um die globale Erwärmung“ ersetzte. Außerdem wurden Beschimpfungen wie „Klimaleugner“ (das nicht von ungefähr wie „Holocaustleugner“ klingt), durch „Klimaskeptiker“ ersetzt. Und „Verein zur Klimaleugnung“ (wir) wurde gelöscht. Andol-Lieb machte das per Revert-Taste ganz bequem rückgängig. Änderte Schnappi92 den Text erneut, wird das als Editwar, sinngemäß Artikel-Krieg, gewertet und die Bearbeitung von den Admins, den Schiedsrichtern der unteren Ebene, daraufhin gesperrt. Da die Admins mittlerweile zum Gutteil auch schon Vollzeit-Schreibaktivisten sind, wird das Schnappi-Konto gleich mitgesperrt. Schreibt ein Kritiker wie Schnappi dann mit anderem Konto weiter, wird seine IP-Adresse, die einmalige Identifizierung eines Rechners im Internet, von einem Admin ausgelesen und ebenfalls gesperrt. Es mag auch noch neutrale oder kritische Admins geben; aber die halten sich von den politisch „heißen“ Artikeln meist fern. Vor allem, wenn sie einmal erlebt mußten, daß radikale Gruppen aus lauter dauerpräsenten Andols nach einer unliebsamen Entscheidung sie stunden- und tagelang, gern auch bis spät in die Nacht nervten. Hinzu kommt, daß die Schiedsrichter nicht ernannt, sondern „demokratisch“ gewählt werden. Der geneigte Leser kann leicht erraten, wer den Wahltermin einmal im Jahr garantiert nicht verpaßt und vorher ganz spezielle „Wahlwerbung“ macht. Neben der turnusgemäßen Wahl gibt es außerdem noch die Möglichkeit, eine Art Absetzungsverfahren zu initiieren, wie das Impeachment bei Donald Trump.

Legt sich ein unparteiischer Admin also mit Lieb oder einem anderen Schreibaktivisten an, macht er danach keine normale Arbeit in Artikeln mehr, sondern muß sich laufend mit nervtötenden Beschwerden einer ganzen Schar konzertiert handelnder Gläubiger und diversen Absetzungs- und Verwaltungsverfahren herumärgern. Ist der/die neutrale Admin nicht selber ein NGO-steuerfinanzierter Zeitbesitzer, sondern ein Hobby-Enzyklopädist mit Job, Familie, Haus und eigenem Leben in der wirklichen Welt, ist klar, daß er (oder sie) schnell keine Lust mehr hat und aufgibt oder sich in ruhigere Gewässer zurückzieht.

Einen Eindruck, wie Andol-Lieb und seine Mitstreiter arbeiten, gibt die aktuelle Diskussionsseite zu „Michael Limburg“. Auf einer solchen Hintergrund-Plattform können Interessierte Vorschläge machen und Probleme klären. Mit Kalibern wie Andol ist das Diskutieren natürlich sinnlos, weil die Aktivisten entweder mit ihrer unbegrenzten Zeit meterweise Seiten füllen, oder politisch zuverlässige Admins mit ihrem besonderen Gewicht jede Kritik sofort abschmettern.

Beispiel:

„Es gab von mehreren Usern Kritik an dem tendenziös formulierten Artikel über Michael Limburg. Anstatt sachlich darauf einzugehen, gab es persönliche Angriffe, falsche Unterstellungen von Andol & Co. Und dann wurde der Diskussionsabschnitt kommentarlos gelöscht. Ich bitte um Klärung, wie ein Konsens auf der Diskussionsseite, bei solch einem fragwürdigen Vorgehen, erreicht werden kann. Danke.“–Schnappi92 (ein Klimaskeptiker)

„Hast du die Kontrahenten daraufhin angesprochen? Ich kann das leider nicht erkennen. Das ist aber vor dem Beginn eines Editwar notwendig. Hier auf dieser Diskussionsseite geht es um die Verbesserung des Artikels, hier können auch Wünsche und sonstige Unzulänglichkeiten angesprochen werden, damit ein Konsens mit den Autoren hergestellt werden kann. Gruß“ —Regi51  (ein Admin)

„Gleich in deinem ersten Beitrag hier hast du glatt die Existenz des Treibhauseffektes bestritten, eines wissenschaftlich völlig unstrittigen Faktes, der bereits im 19. Jahrhundert entdeckt wurde. Anschließend wurden deine Beiträge noch deutlich absurder. Auf solch einer Basis kann hier kein Konsens möglich sein. Der kann nur auf dem Fundament der Wissenschaft beruhen. Solange du wissenschaftlich eindeutige Sachverhalte kategorisch bestreitest werden wir und nie annähern.“ Andol

Schauen Sie sich den aktuellen Personenartikel von Michael Limburg an – die Diffamierungen wie „Klimaleugner“ stehen immer noch drin – gleich mehrfach.

Was kann man gegen solche üblen Nachreden im Netz-Lexikon tun? Zum Beispiel juristisch klagen, und zwar laufend, weil jede herausgeklagte Diffamierung von der Aktivistenschar schnell ersetzt wird. Das ist teuer und zeitaufwändig, da sitzen die über diverse Töpfe steuerfinanzierten Schreibkrieger am längeren Hebel.

Die Wikipedia-Organisation könnte schon einiges tun, um ihre Artikel neutral zu halten, was seit Jahren auch gefordert wird. Ein guter Ansatz wäre die Abschaffung des anonymen Schreibens. Wenn alle Redakteure, Admins und höheren „Beamten“ von Wikipedia gezwungen wären, unter Klarnamen zu schreiben; und zudem ihre angemeldete Wohnadresse ähnlich wie bei Ebay hinterlegen müßten, wäre das anonyme Beleidigen aus dem virtuellen Hinterhalt zumindest deutlich schwieriger. Typen wie Lieb, dessen Identität, Parteizugehörigkeit und Herkunft von Rechercheuren wie Alex Baur schon lange publiziert wurden, kann man damit natürlich nicht bremsen. Sie wären dann aber alleine in ihrem Bereich, weil viele virtuelle Heckenschützen wie auch Antifaschläger und Hooligans letztlich nicht den Schneid haben, als Individuum mit offenem Visier zu fechten.

Und nicht zu vergessen: Sind Adressen und Klarnamen bekannt, kann man wegen übler Nachrede auch persönlich verklagt werden. Das könnte richtig teuer werden und sogar zu Haft führen, aber nur in einem Rechtsstaat.

 

 




Livestream Übertragung der 13. IKEK in München

Live-Stream der 13. EIKE-Konferenz 2. Tag aus München:

<




170 Jahre Temperatur­daten von der Erdober­fläche zeigen keinen Beleg für eine signifi­kante Erwärmung

Abstract

In dieser Studie geht es um die Beziehungen zwischen der Temperatur an der Erdoberfläche von 1850 bis heute und den langfristigen Temperatur-Prophezeiungen globaler Erwärmung. Eine entscheidende Komponente dieser Analyse ist die Berechnung des Verlaufs der Erwärmung. Die Berechnung entfernt aus den aufgezeichneten Daten Fehler bei den Temperaturmessungen und -fluktuationen infolge kurzfristiger Wetterereignisse. Die Ergebnisse zeigen, dass die mittlere Erwärmungsrate an der Erdoberfläche über die letzten 170 Jahre weniger als 0,07°C pro Dekade beträgt. Die Erwärmungsrate an der Erdoberfläche korreliert nicht mit der Rate der Zunahme von CO2 durch Emissionen fossiler Treibstoffe. Die eingebildete Bedrohung exzessiver zukünftiger Temperaturen könnte aus der Falschinterpretation von 40 Jahren zunehmender Intensität des Klimatreibers ENSO im östlichen Pazifik resultieren. Die ENSO-Aktivität erreichte im Jahre 2016 mit der höchsten jemals aufgezeichneten Temperatur-Anomalie. Die Erwärmungsrate der Erdoberfläche ist seit dem Jahr 2006 um 41 Prozent gesunken.

Abschnitt 1 – Introduction

Die Ergebnisse dieser Studie zeigen, dass die gegenwärtige Bewegung zur Abschwächung der globalen Erwärmung voreilig sein kann. Sowohl die höchsten Wärmeströmungen, die jemals im östlichen Pazifik aufgezeichnet worden waren, als auch technologisch fortgeschrittene Verfahren zur Messung der Ozean-Temperaturen begannen zufällig beide Ende der 1970er Jahre. Diese Studie beschreibt, wie beides zusammen gespielt haben könnte, um zu langfristigen Temperatur-Prophezeiungen zu führen, die zu hoch sind.

Monatliche Temperatur-Anomalien von HadCRUT4

Für diese Analyse wurden sowohl die Version HadCRUT4.6.0.0 monatlicher globaler Zeitreihen von Temperatur-Anomalien herangezogen als auch der NASA-Datensatz des Goddard Institute for Space Studies der globalen mittleren jährliche Land- und Wassertemperatur-Anomalien von 1880 bis 2018. Die Ergebnisse gleichen sich im Wesentlichen. Danach wurde mit den HadCRUT4-Daten gearbeitet, weil die Zeitreihe länger ist und weil die monatlichen globalen Temperatur-Anomalien leichter nach Excel transferiert werden können.

Erst während der letzten Jahre haben hoch auflösende Satelliten gleichzeitig gemessene Daten vom Festland, dem Ozean und der Atmosphäre erfasst (Palmer, P.I. 2018). Die Satelliten NOAA-6 und NOAA-7 wurden im Dezember 1979 bzw. im Jahre 1981 gestartet. Beide waren mit speziellen Mikrowellen-Sensoren ausgestattet, um präzise Anomalien der Wassertemperatur im Gebiet des Ostpazifik und in den ENSO-Regionen zu messen (Spencer et al. 1990).

Die ersten Analysen der hoch aufgelösten Satellitendaten zeigten ein bemerkenswertes Ergebnis. Spencer et al. (1990) folgerten daraus: „Der Zeitraum der Analyse (1979 bis 1984) zeigt, dass die nord- und südhemisphärischen troposphärischen Temperatur-Anomalien (aus dem sechs-Jahre-Mittel) in längerzeitlichen Maßstäben positiv und über kürzere Zeiträume negativ korrelieren. Die ENSO von 1983 dominiert die Aufzeichnung, wobei die Anfang 1983 zonal gemittelten Temperaturen in den Tropen bis zu 0,6°C über dem Mittelwert der verbleibenden Jahre lagen. Diese natürlichen Variationen sind viel größer als man sie von verstärkten Treibhausgas-Anteilen erwartet, und daher ist es wahrscheinlich, dass eine deutlich längere Periode mit Satellitenmessungen sich akkumulieren muss, um Aufschluss über längerfristige Trends zu geben“.

Karl et al. (2015) behaupteten, dass die vergangenen 18 Jahre mit stabilen globalen Temperaturen dem Gebrauch von verzerrten Bojen-Daten in den Ozeanen geschuldet ist. Die Autoren schreiben, dass eine „Bias-Korrektur die Berechnung der mittleren Differenz zwischen gesammelten Bojen- und Schiffsmessungen involvierte. Die mittlere Differenz betrug global -0,12°C. Diese Korrektur wurde an die Bojen-Messwerte der Wassertemperatur in jedem Gitterquadrat in der ERSST-Version 4 angebracht“. Diese Analyse ist nicht konsistent mit der Interpretation des nunmehr 18-jährigen Stillstandes bzgl. globaler Erwärmung. Die hier folgende Diskussion des ersten Derivativs einer Trendlinie der Temperatur-Anomalie zeigt die Rate der Erwärmung relativ stabil und nahezu frei von Rauschen, die im Jahre 2006 ihren Höhepunkt erreichte und seitdem eine Abnahme des Anstiegs bis heute.

[Es folgen zwei Absätze mit längeren Ausführungen zu den einzelnen Temperatur-Auswertungen, die hier übersprungen werden.]

Analyse von Temperatur-Anomalien

Alle in dieser Studie herangezogenen Temperaturmessungen sind berechnete Temperatur-Anomalien und keine absoluten Temperaturen. Eine Temperatur-Anomalie ist hier die Differenz der gemessenen absoluten Temperatur zu einer zugrunde liegenden Mitteltemperatur – in diesem Falle die mittlere jährliche Temperatur von 1961 bis 1990. Mit diesem Konversionsverfahren sollen die Auswirkungen auf Temperaturen relativ zur Umgebung der Messstation minimiert werden (d. h. Tallagen oder Bergspitzen). Damit sollen regionale Temperaturtrends besser erkannt werden.

In Abbildung 1 stellt die schwarze Kurve die monatliche mittlere Temperatur-Anomalie an der Erdoberfläche dar. Der gezackte Verlauf der schwarzen Temperatur-Anomalie-Kurve ist dem Rauschen in den Daten geschuldet (Ungenauigkeiten der Messungen und zufällige kurzzeitige Wetterereignisse). Die rote Kurve repräsentiert eine Excel sixth-degree polynomial best fit-Trendlinie der Temperatur-Anomalien. Bei diesem Verfahren wird das hochfrequente Rauschen entfernt. Die grüne Kurve, aus der Trendlinie abgeleitet, ist die wichtigste Kurve, die aus den globalen mittleren Temperatur-Anomalien abgeleitet worden ist. Die Kurve ist eine Zeitreihe der Differenzen von Monat zu Monat der mittleren Temperatur mit der Einheit Änderung in Grad Celsius pro Monat. Diese sehr kleinen Zahlen sind mit 120 multipliziert worden, um die Einheiten in Grad pro Dekade umzurechnen (linke vertikale Achse der Graphik). Grad pro Dekade ist eine Maßzahl der Rate, mit welcher die Temperatur auf der Erde steigt oder sinkt. Manchmal wird das auch als die Kurve der Erwärmung (oder Abkühlung) der Erdoberfläche angesehen. Die Temperaturwerte der grünen Kurve sind hinsichtlich der Größenordnung ähnlich der Größenordnung der rauschbefreiten Temperaturschätzungen seitens der University of Alabama in Huntsville UAH (Christy, J. R., 8. Mai 2019). Die grüne Kurve wurde zuvor nicht bekannt gemacht und ist entscheidend für die Analyse langzeitlicher Temperaturtrends.

Abbildung 1: Die schwarze Kurve repräsentiert die HadCRUT4-Zeitreihe der mittleren monatlichen globalen Anomalien der Land- und Wassertemperaturen (1850 bis zur Gegenwart). Anomalien sind Abweichungen der monatlichen mittleren Temperaturen vom Mittel der Jahre 1961 bis 1990 in Grad Celsius. Die rote Kurve ist die Trendlinie im HadCRUT4-Datensatz, ein Excel sixth-degree polynomial best fit der Temperatur-Anomalie. Die grüne Kurve ist die erste Ableitung der Trendlinie, welche sich aus der Konversion der Einheit Grad pro Monat zu Grad C pro Dekade ergibt, das heißt, es ist die Steigung der Trendlinien-Kurve.

Eine Erwärmung um 0,038°C pro Dekade müsste signifikant zu- oder abnehmen, um für eine Prognose einer langfristigen Änderung der Erdtemperatur zu taugen. Falls die Temperatur an der Erdoberfläche kontinuierlich von heute an mit einer Rate von 0,038°C pro Dekade steigen würde, gäbe es in 100 Jahren einen Anstieg von nur 0,4°C, was nicht gerade eine Bedrohung für die Menschheit darstellt.

Die Schätzung der 0,038°C pro Dekade liegt wahrscheinlich jenseits der Genauigkeit von Temperaturmessungen von 1850 bis 1979. Jüngsten statistischen Analysen zufolge bewegt sich die 95%-Bandbreite der Unsicherheit der globalen mittleren Temperatur während der letzten 140 Jahre zwischen 0,05°C bis 0,15°C. Das heißt, dass 95 von 100 Messungen innerhalb der Bandbreite der Unsicherheits-Schätzungen liegen (Lenssen, N. J. L., et al. 2019). Von 1850 bis 1979 war es nur zu einer sehr geringen Erwärmung gekommen.

In Abbildung 2 zeigt die grüne Kurve die Erwärmungskurve, das heißt eine Zeitreihe der Änderungsrate der Temperatur auf der Erde in Grad Celsius pro Dekade. Die blaue Kurve ist eine Zeitreihe der CO2-Konzentration in ppm in der Atmosphäre. Die grüne Kurve verläuft von 1900 bis 1979 in etwa glatt und steigt dann leicht infolge des niederfrequenteren Rauschens, welches in den Temperatur-Anomalien von 40 Jahren El Nino-Aktivität verbleibt. Die Erwärmungskurve ist seit dem Jahr 2000 bis heute leicht rückläufig. Die CO2-Konzentration nahm von 1943 bis 2019 stetig zu. Es gibt keine Korrelation zwischen einer steigenden CO2-Konzentration in der Atmosphäre und einer relativ stabilen, geringen Erwärmungsrate an der Erdoberfläche von 1943 bis 2019:

Abbildung 2: Die grüne Kurve ist das erste Derivativ der Trendlinie, übertragen in die Einheit Grad Celsius pro Dekade. Es ist also die Rate der Temperaturänderung an der Erdoberfläche. Siehe Abbildung 1 mit der gleichen Kurve zusammen mit dem Verlauf der Temperatur-Anomalien und der Trendlinie. Die blau gepunktete Kurve zeigt die Gesamt-CO2-Emissionen durch fossile Treibstoffe in der Atmosphäre. Der Zeitrahmen zeigt lediglich Emissionen ab dem Jahr 1900, und die insgesamt erfassten Millionen Tonnen Kohlenstoff sind konvertiert zu ppm CO2 für die Graphik. Der einzelne blaue Punkt ist dem jüngsten NOAA-Report entnommen und repräsentiert den Wert von 414,7 ppm CO2 im Mai 2019. Es gibt keine Korrelation zwischen den beiden Kurven.

In Abbildung 3 ist die Temperaturspitze vom Dezember 1979 (Punkt A) verbunden mit einem schwachen El Nino-Ereignis. Während der folgenden 39 Jahre war es zu fünf sehr starken derartigen Ereignissen gekommen, wobei das letzte davon 2015-16 die höchste, jemals aufgezeichnete El Nino-Intensität aufwies. Die höchste monatliche globale Temperatur-Anomalie jemals war mit 1,111°C im Februar 2016 aufgetreten. Seitdem zeigten die monatlichen globalen Temperatur-Anomalien einen Rückgang um 35 Prozent auf 0,724°C im August 2019, nachdem der El Nino sich in seiner Intensität abgeschwächt hatte.

Abbildung 3: Ein vergrößerter Ausschnitt aus Abbildung 1 von 1963 bis 2019 mit modifizierten vertikalen Skalen, um bedeutende Änderungen des Verlaufs der grünen Kurve hervorzuheben.

Die Punkte A, B und C markieren sehr signifikante Änderungen des Verlaufs der grünen Erwärmungskurve (Werte auf der linken vertikalen Achse).

1. Die Werte der grünen Kurve nahmen in jedem Monat von 0,085°C pro Dekade im Dezember 1979 (Punkt A) auf 0,136°C im Juli 1988 zu (Punkt B). Das ist eine Zunahme der Erwärmungsrate um 60% innerhalb von fast 9 Jahren. Die Erwärmungkurve ist aufwärts konkav. Punkt A markiert einen schwachen El Nino und den Beginn zunehmender ENSO-Intensität.

2. Von Juli 1988 bis September 2006 nahm die Erwärmungsrate zu von 0,136°C pro Dekade auf 0,211°C pro Dekade (Punkt C). Das ist eine Zunahme um 55% innerhalb von 18 Jahren, aber nur etwa die Hälfte der Rate insgesamt der 9 Jahre zuvor infolge einer Abnahme der Zunahme-Rate jeden Monat. Der Punkt Juli 1988 auf der X-Achse ist ein Wendepunkt, an welchem die Erwärmungkurve abwärts konkav verläuft.

3. Punkt C (September 2006) markiert ein sehr starkes El Nino-Ereignis und den Spitzenwert des fast 40 Jahre langen vorübergehenden ENSO-Erwärmungstrends, was der grünen Kurve das Aussehen eines stilisierten S verleiht. Die Erwärmungsrate hat jeden Monat abgenommen seit dem Spitzenwert von 0,211°C im September 2006 auf 0,125°C im August 2019, das ist eine Abnahme um 41 Prozent innerhalb von 13 Jahren.

Abschnitt 2: Wahrheit und Konsequenzen

Die „Hockeyschläger-Graphik“, welche von den Medien häufig als Beleg für eine außer Kontrolle geratene globale Erwärmung während der letzten 20 Jahre herangezogen worden ist, wird durch die gegenwärtigen Temperaturaufzeichnungen nicht gestützt. Die Graphik taucht in den Printmedien auch nicht mehr auf.

Keines der 102 Klimamodelle der Mitteltemperatur der mittleren Troposphäre zeigt in ausreichender Art und Weise eine Prognose zukünftiger Temperaturen, welche zu Änderungen der Umweltpolitik Anlass geben. Die Modelle beginnen in den 1970er Jahren, also zu Beginn eines Zeitraumes, in welchem die stärkste ENSO jemals kulminierten, und bis zum Jahr 2015 liegt die mittlere prognostizierte Temperatur aller Modelle fast 2,4 mal höher als die gemessene troposphärische Temperatur-Anomalie im Jahre 2015 (Christy, J. R. May 8, 2019). Die wahre Geschichte der globalen Klimaänderung muss erst noch geschrieben werden.

Die höchste Erwärmung während der ENSO war im September 2006 mit 0,211°C pro Dekade aufgetreten. Die höchste jemals gemessene mittlere globale Temperatur betrug 1,111°C im Februar 2016. Diese Fälle sind möglicherweise verbunden mit einer Zunahme von Qualität und Messdichte von Ozean-Temperaturen der beiden zuvor erwähnten erdumlaufenden MSU-Satelliten. Frühere ENSO-Ereignisse hoher Intensität könnten wegen des Fehlens fortschrittlicher Satellitenbeobachtungen über den Ozeanen nicht erfasst worden sein.

Der Gebauch einer Temperatur-Trendlinie zur Entfernung hochfrequenten Rauschens eliminiert nicht die vorübergehenden Auswirkungen von Komponenten der ENSO-Erwärmung mit längeren Wellenlängen während der letzten 40 Jahre. Daher wird bei den Schätzungen der Ewärmungsrate jenes Zeitraumes in dieser Studie immer noch Hintergrund-Rauschen des ENSO vorhanden sein. A noise-free signal for the past 40 years probably lies closer to 0.038 degrees C per decade, the average rate of warming from 1850 to the beginning of the ENSO in 1979 than the average rate from 1979 to the present, 0.168 C degrees per decade.* Die höhere Zahl enthält unkorrigierte Residual-ENSO-Effekte.

[*Für diesen Ausschnitt aus dem Original habe ich keine vernünftige Übersetzung zustande bekommen. Anm. d. Übers.]

Foster und Rahmstorf (2011) zogen mittlere jährliche Temperaturen aus fünf Datensätzen heran, um die mittlere Erderwärmung von 1979 bis 2010 abzuschätzen. Das aus dem Rohmaterial entfernte Rauschen wird ENSO-Aktivitäten, Vulkanausbrüchen und solaren Variationen zugeordnet. Vom Ergebnis heißt es, dass es ein Rauschen-adjustierter Verlauf der Temperatur-Anomalie ist. Die mittlere Erwärmung der fünf Datensätze über 32 Jahre beläuft sich auf 0,16°C pro Dekade im Vergleich zu den 0,17°C pro Dekade in dieser Studie aus 384 monatlichen Punkten, abgeleitet aus dem Derivativ der Temperatur-Trendlinie. Foster und Rahmstorf (2011) nehmen an, dass der Erwärmungstrend linear ist auf der Grundlage nur einer mittleren Schätzung, und ihre Daten überdecken auch nur 32 Jahre. Dreißig Jahre wird allgemein als der minimale Zeitraum angesehen, um einen Punkt in einem Trend zu definieren. Dieser Zeitraum von 32 Jahren enthält die höchste beobachtete ENSO-Aktivität jemals und ist nicht lang genug, um einen Trend zu definieren. Die Erwärmungskurve in dieser Studie über fast 170 Jahre ist gekrümmt (grüne Kurven in den Abbildungen 1 und 3). Sie wird definiert durch 2032 monatliche Punkte, abgeleitet aus dem Derivativ der Temperatur-Trendlinie. Von 1979 bis 2010 variiert die Erwärmung zwischen 0,08°C und 0,20°C pro Dekade. Der Erwärmungstrend ist nicht linear.

Die vermeintliche Bedrohung durch exzessive zukünftige Temperaturen kann einer Unterschätzung der ungewöhnlich großen Auswirkungen der jüngsten ENSO auf natürliche globale Temperaturanstiege geschuldet sein. Fast 40 Jahre einer natürlichen, vorübergehenden Erwärmung durch den höchsten jemals beobachteten ENSO könnte fehlinterpretiert worden sein dahingehend, dass eine Erwärmung aufgrund anthropogener Aktivitäten angenommen wurde. Es gibt keinerlei Beweise für einen signifikanten anthropogenen Beitrag zu den gemessenen Temperaturen während der letzten 40 Jahre.

Caltech verkündete jüngst den Beginn eines 5-Jahre-Projektes zusammen mit vielen anderen Forschungszentren zur Entwicklung eines neuen Klimamodells „von der Grundlinie an“ (Perkins 2018). Während dieser fünf Jahre sollte sich das Verständnis der Welt bzgl. der Ursachen von Klimawandel erheblich verbessern.

Das wissenschaftliche Zielt muss es sein, die Bandbreite der Unsicherheit von Prognosen mittels besserer Daten und besseren Modellen immer mehr einzuengen, bis eine menschliche Intervention sinnvoll erscheint. Wir haben Zeit, das hinzubekommen. Ein rationales Umweltschutz-Programm und eine dynamische Ökonomie können koexistieren. Die Herausforderung besteht darin, den Wissenschaftlern die Zeit und die Freiheit zu gewähren, ohne Einmischung von Interessengruppen zu arbeiten.

[Hervorhebung vom Übersetzer]

Acknowledgments and Data

All the raw data used in this study can be downloaded from the HadCRUT4 and NOAA websites. http://www.metoffice.gov.uk/hadobs/hadcrut4/data/current/series_format.html

https://research.noaa.gov/article/ArtMID/587/ArticleID/2461/Carbon-dioxide-levels-hit-record-peak-in-May

References

1. Boden, T.A., Marland, G., and Andres, R.J. (2017). National CO2 Emissions from Fossil-Fuel Burning, Cement Manufacture, and Gas Flaring: 1751-2014, Carbon Dioxide Information Analysis Center, Oak Ridge National Laboratory, U.S. Department of Energy, doi:10.3334/CDIAC/00001_V2017.

2. Christy, J. R., May 8, 2019. The Tropical Skies Falsifying Climate Alarm. Press Release, Global Warming Policy Foundation. https://www.thegwpf.org/content/uploads/2019/05/JohnChristy-Parliament.pdf

3. Foster, G. and Rahmstorf, S., 2011. Environ. Res. Lett. 6 044022

4. Golden Gate Weather Services, Apr-May-Jun 2019. El Niño and La Niña Years and Intensities. https://ggweather.com/enso/oni.htm

5. HadCrut4 dataset. http://www.metoffice.gov.uk/hadobs/hadcrut4/data/current/series_format.html

6. Karl, T. R., Arguez, A., Huang, B., Lawrimore, J. H., McMahon, J. R., Menne, M. J., et al.

Science 26 June 2015. Vol. 348 no. 6242 pp. 1469-1472. http://www.sciencemag.org/content/348/6242/1469.full

7. Mann, M., Bradley, R. and Hughes, M. (1998). Global-scale temperature patterns and climate forcing over the past six centuries. Nature, Volume 392, Issue 6678, pp. 779-787.

8. Mckitrick, R. Department of Economics, University of Guelph. http://www.rossmckitrick.com/uploads/4/8/0/8/4808045/mckitrick_comms_on_karl2015_r1.pdf, A First Look at ‘Possible artifacts of data biases in the recent global surface warming hiatus’ by Karl et al., Science 4 June 2015

9. Mears, C. and Wentz, F. (2016). Sensitivity of satellite-derived tropospheric
temperature trends to the diurnal cycle adjustment. J. Climate. doi:10.1175/JCLID-
15-0744.1. http://journals.ametsoc.org/doi/abs/10.1175/JCLI-D-15-0744.1?af=R

10. Morice, C. P., Kennedy, J. J., Rayner, N. A., Jones, P. D., (2012). Quantifying uncertainties in global and regional temperature change using an ensemble of observational estimates: The HadCRUT4 dataset. Journal of Geophysical Research, 117, D08101, doi:10.1029/2011JD017187.

11. Lenssen, N. J. L., Schmidt, G. A., Hansen, J. E., Menne, M. J., Persin, A., Ruedy, R, et al. (2019). Improvements in the GISTEMP Uncertainty Model. Journal of Geophysical Research: Atmospheres, 124, 6307–6326. https://doi.org/10. 1029/2018JD029522

12. NOAA Research News: https://research.noaa.gov/article/ArtMID/587/ArticleID/2461/Carbon-dioxide-levels-hit-record-peak-in-May June 4, 2019.

13. Palmer, P. I. (2018). The role of satellite observations in understanding the impact of El Nino on the carbon cycle: current capabilities and future opportunities. Phil. Trans. R. Soc. B 373: 20170407. https://royalsocietypublishing.org/doi/10.1098/rstb.2017.0407.

14. Perkins, R. (2018). https://www.caltech.edu/about/news/new-climate-model-be-built-ground-84636

15. Spencer, R. W., Christy, J. R. and Grody, N. C. (1990). Global Atmospheric Temperature Monitoring with Satellite Microwave Measurements: Method and Results 1979–84. Journal of Climate, Vol. 3, No. 10 (October) pp. 1111-1128. Published by American Meteorological Society.

——————

Link: https://wattsupwiththat.com/2019/11/14/170-years-of-earth-surface-temperature-data-show-no-evidence-of-significant-warming/

Übersetzt von Chris Frey EIKE




„Wie ich klimagläubig wurde!“ Große Freiheit TV auf Abwegen?

Nachdem ich in den letzten Monaten mit sehr vielen Klimaalarmisten gesprochen habe und tiefer in das Thema eingestiegen bin, muss ich hier öffentlich meine Position revidieren. Wie ich genau dazu gekommen bin, siehst du in diesem Video.


 




Unsichere Zukunft: Die atemberaubenden Kosten für die Beseitigung der Überreste „sauberer“ Energie

Der übliche Dummspruch der Investoren

Mit einer wirtschaftlichen Lebensdauer von oft nur 10-12 Jahren  (anstatt  der von Herstellern und Befürwortern propagierten 25 Jahre für die wirtschaftliche Nutzung ) werden in den nächsten zehn Jahren in Ländern wie Deutschland Hunderttausende Tonnen „Problemmüll“ zurückbleiben, die die Landschaft verschandeln. Mit Hunderten von WKAs, die völlig kaputt sind, sind die Deutschen bereits von der harten und giftigen Realität der sogenannten „grünen“ Besessenheit ihrer Regierung getroffen worden.

Und sie sind damit nicht die einzigen.

Die Windindustrie in Iowa hat kaum ein Jahrzehnt überdauert und die alten Windkraftanlagen liefern bereits Tausende Tonnen Sondermüll auf Deponien .

Zusätzlich zu 10-15 Tonnen Kunststoff- und Glasfaserflügeln befinden sich im Turm und in der Gondel eine Ansammlung ungesunder Kunststoffe, Öle, Schmiermittel, Metalle und noch mehr Glasfasern. Im Fundament ein 400-500 m³ großes Stück Stahlbeton.

Wie Isaac Orr weiter unten ausführlich ausführt, hat die Verschrottung der umweltzerstörenden, schmutzigen und oft auch giftiger sogenannte „sauberer Energieerzeugung“ einen atemberaubenden Preis.

 

Die Beseitigung einer einzelnen Windkraftanlage rechnet sich auf über 500.000 USD

Center of the American Experiment
Isaac Orr; 3. Oktober 2019

Es sieht so aus, als ob in Minnesota ein sehr teures Durcheinander zu beseitigen ist, wenn die derzeit im Bundesstaat betriebenen Windkraftanlagen das Ende ihrer auf 20 Jahre angesetzten Nutzungsdauer erreichen.

Laut den von Xcel Energy für den Nobles Wind-Park eingereichten Unterlagen wird für die Stilllegung pro WKA etwa 445.000 US-Dollar angesetzt, in Preisen für 2009. Auf das Jahr 2019 hochgerechnet, bedeutet das inzwischen rund 532.000 USD für jede der 134 in Betrieb befindlichen Windkraftanlagen. Damit ergeben sich die Gesamtkosten für die Stilllegung des Nobles-Projekts auf USD 71 Millionen. Xcel gab jedoch auch an, dass diese Schätzungen konservativ waren, was hoffen lässt, dass dies die High-End-Kosten für die Stilllegung darstellt.

Auch bei anderen Windenergieanlagen fallen sechsstellige Stilllegungskosten an. Den Unterlagen für die Windparkanlagen Palmer’s Creek in Chippewa County, Minnesota, zufolge würde die Stilllegung der 18 an diesem Standort betriebenen Windturbinen 7.385.822 USD kosten, was 410.000 USD pro WKA entspricht.

Man würde meinen, eine solche Summe würde zu einem gründlichen Rückbau führen, aber man kann sich irren.

Laut dem Nobles Wind-Dokument umfassen „die Restaurierungsarbeiten die Entfernung sämtlicher mit dem Projekt in Zusammenhang stehender Materialien und Ausrüstungsgegenstände bis zu einer Tiefe von 48 Zoll [~ 1,22 m]und sind nicht auf diese beschränkt.“

Dies bedeutet, dass Xcel die Baustelle nur bis zu einer Tiefe von vier Fuß [~ 1,2 m]saniert und die meisten massiven Betonfundamente, die bis zu 15 Fuß [~4,5m] tief sind und zur Verankerung der Windanlagentürme verwendet werden, auf unbestimmte Zeit im Boden verbleiben.

Die Website Renewable Technology gibt an, dass Nobles Wind ein umfangreiches unterirdisches Kabelsystem nutzt , das in einer Tiefe von vier Fuß verlegt ist und die Generatoren mit einem zentralen Umspannwerk verbindet. Die Dokumente von Xcel waren nicht spezifisch genug, um zu bestimmen, ob diese Kabel entfernt werden, aber das Windparkprojekt von Palmer gibt ausdrücklich an, dass Kabel, die tiefer als 4 Fuß sind, nicht entfernt werden:

Windenergieanlagen und Sonnenkollektoren erhalten häufig eine Ausnahmegenehmigung, obwohl sie erhebliche Umweltschäden verursachen können. Im Gegensatz dazu, haben liberale Politiker und Interessengruppen den Ersatz einer alternden Ölpipeline durch einen neueren und sichereren Ersatz weiterhin verzögert.

Diese Doppelmoral ist ein Nachteil für die Minnesotaner, die mehr für ihre Energie und auch für die Umwelt zahlen müssen.

American Experiment

Übersetzt durch Andreas Demmig

Filthy Future: The Staggering Cost of Cleaning Up ‘Clean’ Energy’s Toxic Mess

Zum Thema

https://eike.institute/2014/12/30/wind-und-solar-nichts-als-vergeudung-von-energie-und-ressourcen/

Teure Hinterlassenschaften – Die Rückbaukosten von Windrädern




Ist die Freiheit der Forschung in Deutschland noch gegeben?

Als Naturwissenschaftler, der sich gern in sein Studierstübchen zurückzieht, ist man doch sehr überrascht, plötzlich im Mittelpunkt zu stehen und als Übeltäter, Unbelehrbarer, Rechter oder sogar Nazi beschimpft zu werden.

Die Sprachlosigkeit der öffentlich rechtlichen Medien, das Verständnis der obersten Staatsführung und der meisten Parteien für Schulschwänzen und Blockaden des öffentlichen Raumes provozieren  mich zur Frage „Ist die Freiheit der Forschung in Deutschland noch gegeben?

Journalisten, Aktivisten, Wikipedia und sogar Politiker gehen locker mit Begriffen um, die an dunkle Zeiten deutscher Geschichte erinnern. An diesen Personenkreis und ihren Jüngern auf den Straßen möchte ich mich wenden. Es geht mir um den Begriff „Klima-Leugner“.

Dieser Begriff überschreitet eine rote Linie. Ihr wollt Antifaschisten sein, aber warum benutzt Ihr eine Formulierung, die auch aus der Nazizeit stammen könnte?

Ich denke es ist Zeit, dass ich mich hier als Wissenschaftler zu Wort melde und einmal beschreibe wie der Wissenschafts-Betrieb funktioniert. Doch zunächst: Warum ist „Klima-Leugner“  eine Diffamierung/Verleugnung, eine herabsetzende Bezeichnung anders denkender Wissenschaftler!

Was zeichnet einen Leugner aus:
„Der Leugner erklärt etwas Offenkundiges wider besseres Wissen für unwahr oder nicht vorhanden.“

Um diesen Tatbestand zu erfüllen, müssen zwei Bedingungen zutreffen: Der Betreffende ist ein Lügner (wider besseren Wissen) und der anthropogen bedingte Klimawandel ist eine Tatsache (Offenkundiges)!

Ist der anthropogen bedingte Klimawandel eine Tatsache?  Nein, es ist nur eine naturwissenschaftliche These und kein mathematisches Gesetz.

Aus der Korrelation von Ereignissen können Wissenschaftler Hypothesen aufstellen, die bei der mehrfachen Wiederholung durch andere Wissenschaftler zu einer bestätigten These werden können.

In dieser Phase befinden wir uns gerade. Es spielt keine Rolle wie viele Zustimmungen und wie viele Ablehnungen es gibt, bei der Wissenschaft geht es immer, oder sollte es zumindest, um Wahrheit und nicht um Demokratie.

Schon allein das Argument einer 97-99%igen Zustimmung zum Klimawandel zeigt Euren deutlichen Wunsch nach einer Diktatur.  Gab es in der DDR nicht immer Wahlergebnisse von 99,X %? Wollt ihr eine Gleichschaltung der Wissenschaft mit 100%iger Zustimmung?

Fakt, es gibt Zustimmung zur These „Der menschengemachten globalen Erwärmung“.  Es gibt (erhebliche) Forschungsgelder für etablierte Klima-Institute und gemeinnützige Vereine, als selbsternannte Retter der Welt (großzügig mit Steuergeldern ausgestattet). Das reicht völlig aus für den letzten Schritt.

(Nur am Rande, Klima-Skeptiker müssen sich aus eigene Tasche oder durch Spenden finanzieren und müssen um ihre Anstellung bangen, wenn Sie noch in Lohn und Brot sind.)

Ob aus dieser These ein naturwissenschaftliches „Gesetz“ wird, entscheidet nun ein Praxis-Test über einen sehr langen Zeitraum.

Und hier liegt die Krux in der Klimatologie. Wir sprechen hier von sehr langen Zeiträumen. Vielleicht wird erst in 100 oder 200 Jahren endgültig entschieden sein, wer hier Recht hatte. Und auch das angeblich 30-jährige Kriterium als Abtrennung des Klimas gegenüber dem Wetter verdient einer Klarstellung.  Bei Warmzeiten von 10.000 und Kaltzeiten von 100.000 Jahren sind 30 Jahre nur eine Sekunde in der Zeitskala der Klimatologen. Ich bin kein Prophet, aber es kann noch viele Jahre dauern, bis hier eine Klärung eintritt.

Selbst allgemein anerkannte naturwissenschaftliche „Gesetze“ sind nicht in Stein gemeißelt und es gibt keine Garantie für die Ewigkeit. Es reicht ein einziger Wissenschaftler, der alles einreißen kann, bemerkte einst Albert Einstein. Und er musste das doch wissen, stand er Anfang des 20. Jahrhunderts mit seiner allgemeinen Relativitätstheorie noch sehr einsam in der Welt der Physik.

Ich könnte noch viele andere Thesen aufführen, wie die „Vitalismus-Theorie  (vis vitalis)“ in der Chemie oder die „Lorentzsche Äthertheorie“ in der Physik, die sang und klanglos untergingen.  Oder, wie viele Jahrhunderte mussten Schüler das geozentrische Weltbild als allgemein anerkanntes „Gesetz“ pauken? Waren Johannes Kepler und Galileo Galilei auch Leugner, also Lügner?

Warum also die Verleugnung, Diskriminierung und die offensichtliche Angst vor Klima-Skeptikern? Der Zug zur Energiewende ist in der Bundesrepublik Deutschland doch längst abgefahren. Die wenigen, größtenteils in die Jahre gekommenen Klima-Skeptiker werden ihn nicht aufhalten können. Es ist zu befürchten, dass alles so kommt wie in deutscher Geschichte zuvor. Erst wenn alles in Scherben liegt, werden die „Aktivisten“ von einst begreifen, dass sie den falschen Propheten gefolgt sind, und natürlich ist dann immer nur der andere schuld.

An der Sprache erkennt man die Diktatur. Habt Ihr nichts aus Victor Klemperers Buch „LTI“ zur Sprache des Dritten Reiches gelernt? Wieso kann die Grünen-Chefin, Annalena Baerbock, fordern, dass „Klima-Leugner“ aus den Medien zu verbannen sind, ohne Euren Aufschrei?

Der Flyer der „Klima-Aktivisten“ zeigt „EIKE“ in Flammen. Nur die  EIKE-Seite? Eine Wiederholung der Bücherverbrennung? Oder sogar die Klima-Skeptiker selbst?

Die Antifa-Demonstranten fordern ganz offen die „Planwirtschaft“. Habt Ihr denn gar nichts aus der Geschichte gelernt? Glaubt Ihr wirklich eine grüne DDR.2 ist eine bessere Welt und was ist mit Bündnis 90 innerhalb der Grünen? Schon vergessen? Tristesse, Spitzel, Stasi und eine allwissende und allmächtige Partei. Die Partei, die Partei hat immer Recht! Ist es das, was Ihr wollt?