Wenn es um Weltuntergang geht, sind die Deutschen vorn
|
Als einen solchen kann man den folgenden von Herrn G. Ederer aus dem Jahr 2011 betrachten, eine Zeit, als in den Medien wenigstens noch ab und zu investigativ berichtet werden durfte. Zur Rückschau Auszüge davon (oder über den Link das Original mit einer angegebenen Lesezeit von 6 Minuten).
Anbei dieses Bild aus dem Artikel vom Autor durch eine Darstellung der letzten 2000 Jahre ergänzt, um den Propagandaeffekt zu zeigen und darauf hinzuweisen, dass die Erwärmung (entgegen den Aussagen der Klimaalarmisten) bereits weit vor der Industrialisierung begann.
Dass dies nicht nur die Überzeugung des Autors ist, sei anhand von Auszügen einer Dissertation gezeigt [5]:
In der Dissertation fiel dem angehenden Wissenschaftler ebenfalls auf, dass der aktuelle Temperaturanstieg zwischen 1600 und 1700 begonnen haben muss. Er wagte es jedoch nicht, die Konsequenz daraus auszusprechen. Auch fiel ihm auf, dass es nicht heißer geworden ist (als zur mittelalterlichen Warmzeit), sondern die Winter nicht mehr so kalt. Ein Effekt, der sich mit der CO2-Theorie nicht erklären lässt. Auch sagt er ehrlich, dass die Proxis die Temperaturvariablilität nicht abbilden (und die historischen Verläufe deshalb zu flach verlaufen, was in Ergänzung der Reihenenden mit der gemessenen Temperatur – siehe die graue Endlinie in Bild 3 – zu dem typischen, alarmistischen Temperaturverlauf am Ende führt).
Dissertation: [5] … Als Temperaturminimum der Jahrestemperaturen des letzten Jahrtausends fällt neben dem bekannten Maunderminimum um 1700 ein weiteres Minimum um 1600 auf, welches für die Multi-Proxy-Rekonstruktion die Phase der größten Abkühlung markiert …
Da die Amplitude der Variabilität der Wintermonate deutlich höher ist als die der Sommermonate, unterschätzen viele natürliche Proxies, welche nur für das Sommerhalbjahr Daten liefern, die natürliche Variabilität des Klimas …
Danach übersteigen die Jahresmittel seit ca. 1980 die Temperaturen des letzten Jahrtausends. Auffällig ist dabei jedoch, dass dieser Anstieg vor allem auf eine Zunahme der Wintertemperaturen zurückzuführen ist. Die Sommertemperaturen weisen für das letzte Jahrtausend eine gleichbleiben hohe mittelfristige Variabilität auf, welche auch in der Zeit seit ca. 1980 keinen ungewöhnlich Anstieg aufweist.
Auf die Idee des menschengemachten Klimawandels baut die Politik eine preistreibende Energiepolitik auf. Dabei sind die Treibhaus-Thesen längst widerlegt
[1] Alle Parteien der Industriestaaten, ob rechts oder links, werden die CO2- Erderwärmungstheorie übernehmen. Dies ist eine einmalige Chance, die Luft zum Atmen zu besteuern. Weil sie damit angeblich die Welt vor dem Hitzetod bewahren, erhalten die Politiker dafür auch noch Beifall. Keine Partei wird dieser Versuchung widerstehen.“
Dies prophezeite mir schon 1998 Nigel Calder, der vielfach ausgezeichnete britische Wissenschaftsjournalist, jahrelanger Herausgeber vom „New Scientist“ und BBC-Autor … Er hat mit seiner Einschätzung der Parteien Recht behalten.
Die Ergebnisse der Forscher, die wissenschaftliche Arbeiten über die Auswirkungen der Sonne und der Strahlungen aus dem Weltall auf unser Klima beinhalten, aber werden weitgehend totgeschwiegen. Damit können die Politiker nichts anfangen. Das würde bedeuten, dass die Flut von Gesetzen, mit denen die Bürger zu immer neuen Abgaben und Steuern gezwungen werden, um die Welt zu retten, nicht mehr zu rechtfertigen wäre …
Es gibt keine Debatte über die Ursachen für den Klimawandel
[1] Eine Debatte über die Ursachen für den Klimawandel gibt es im politischen Deutschland nicht … Die Partei der Grünen , die die von Menschen gemachte Klimahybris zum Parteiprogramm erhoben hat, empörte sich in einer Anfrage an die Bundesregierung, ob sie wisse, dass Klimaleugner in den Räumen des Bundestags sprechen durften.
… (doch) Es gibt aus den letzten Jahren cirka 800 wissenschaftliche Veröffentlichungen, die die CO2-Treibhausthesen widerlegen.
Der Hauptunterschied zu den Klimamodellierern: Sie legen Versuche mit Messungen vor, während die vom IPCC (der gern als „Weltklimarat“ bezeichneten internationalen Behörde) veröffentlichten Studien auf Computermodellen und Berechnungen basieren. Auf einen kurzen Nenner gebracht, lautet der Gegensatz: Fakten gegen Berechnungen.
Als Beleg für die endgültige Treibhausgastheorie wird immer wieder vorgebracht: 97 Prozent der Wissenschaftler seien sich einig. Nachzulesen im Spiegel, wiederholt im ZDF in „Frontal 21“ und von Guido Knopps History. „97 Prozent!“ Anmerkung: Anstelle der Ausführungen im Artikel sei die aktuellere Darstellung in: EIKE 01.01.2017: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor, empfohlen.
Arrhenius hielt die CO2-Erwärmung für einen Segen
[1]… (Es) wird auf … Svente Arrhenius verwiesen, der rein hypothetisch, ohne Beweise, davon ausging, dass CO2 das Klima erwärmen würde, was er allerdings für einen großen Segen für die Menschheit hielt. Außer Hochrechnungen haben die CO2-Klimaerwärmer bis heute nichts Handfestes zu bieten.
Die Bepreisung von CO2 hat nichts mit Umweltschutz zu tun
[1] Gleichwohl baut die Bundesregierung samt Opposition auf dem Modell eines menschengemachten Klimawandels eine preistreibende Energiepolitik auf, die die deutsche Volkswirtschaft dreistellige Milliardenbeträge kostet. Dass sie damit zunehmend allein in der Welt steht, macht ihr nichts aus. … … (Es) verabschiedet sich der Rest der Welt so langsam aus diesem neuen babylonischen Turmbau, der die Zentrale Planungsbehörde der UdSSR marginalisiert hätte.
In den USA ist die CO2-Börse geplatzt, in Asien wurde sie gar nicht erst eingeführt, in Australien stürzen darüber Regierungen – nur in Europa und unter der Führung Deutschlands soll CO2 einen Preis haben. Es ist eine echte Luftnummer. Tragisch nur: Selbst wenn keiner mehr mitmacht, so sind die deutschen Parteien trotzdem entschlossen, die Bepreisung von CO2 durchzuziehen. Als Vorbild für die ganze Welt … Zufügung des Autors: Inzwischen hat der neue französische Präsident erkannt, dass man damit die Kosten in Deutschland erhöhen kann und fordert 30 EUR / t CO2. Frankreich wäre aufgrund des extremen Kernkraft- und Wasserkraftanteils nicht betroffen, Deutschland aber in erheblichem Maß [4].
Wenn es um Weltuntergang geht, sind die Deutschen vorn
[1] Nigel Calder hatte dafür 1998 auch schon eine Begründung. „Am Anfang war die CO2- und Erderwärmungstheorie eine angelsächsische Erfindung, die nicht zuletzt von der Nuklearindustrie gefördert wurde, die für sich eine Wiederbelebung erhoffte. Aber dann wurde daraus mehr und mehr ein Szenarium für den Weltuntergang und das widerstrebt den nüchternen Angelsachsen.
Da erinnerte man sich im IPCC: The Germans are best for doomsday theories“! Wenn es um den Weltuntergang geht, sind die Deutschen am Besten. So wurde die Klima-Treibhaus-Untergangstheorie den Deutschen übergeben. Ich fürchte: Nigel Calder hat hier auch wieder Recht.
Ergänzend dazu vom Autor ein Werbeplakat der GRÜNEN JUGEND für die autolose Stadt. Dieses kann wirklich richtungsweisend sein. Am 03.10.2017 las der Autor in seiner „Heimatzeitung“ die „Erlebnisse“ einer Studentin in Kopenhagen (man erinnre sich: Dänemark hat den höchsten Strompreis Europas). Kopenhagen ist bereits eine Fahrradstadt. Die Studentin berichtete, warum: Der öffentliche Nahverkehr ist so teuer, dass man ihn sich kaum leisten kann (das mit dem „teuer“ gilt natürlich für noch mehr in Dänemark). Ein behördliches Vorgehen, welches auch in Deutschland anscheinend als Richtungsweisend zur Volkserziehung angenommen wurde, um die Untertanen zum Fahrradfahren zu zwingen [6].
[3] Clim. Past, 8, 765–786, 2012. Christiansen and Ljungqvist, 18.04.2012: The extra-tropical Northern Hemisphere temperature in the last two millennia: reconstructions of low-frequency variability
[5] Fakultät für Forst- und Umweltwissenschaften der Albert-Ludwigs-Universität Freiburg i. Brsg., Dissertation 2010: Methoden zur Klimarekonstruktion aus historischen Quellen am Beispiel Mittele
Zitat der Woche: ,Anonyme Feiglinge‘, bitte mal herhören!
|
„Laufe zum Feuer. Kümmere dich nicht darum, wie sie dich nennen. All jene Dinge gegen dich werden gesagt, weil sie dich auf deinem Weg stoppen wollen. Aber wenn du weitergehst, sendest du eine Botschaft an Menschen, die dich anspornen und die mit dir übereinstimmen. Die Botschaft lautet, dass sie es auch tun können!“ ― Andrew Breitbart
Seit ich zum regelmäßigen Ziel von Hass-Mails, Hass-Tweets und Hass-Beiträgen geworden bin, nur weil ich es wage, eine dem Konsens entgegen stehende Meinung bzgl. Klima zu äußern, möchte ich noch einen eigenen Gedanken hinzufügen: Online brütet Anonymität Missachtung aus.
Das Internet machte es einfach und sicher für Menschen, mit Beleidigungen, Hässlichkeiten, Verleumdungen, übler Nachrede und höhnischen Bemerkungen um sich zu werfen, ohne dass sie sich den Konsequenzen oder sozialer Ächtung stellen müssen, die es unweigerlich nach sich ziehen würde, falls Derartiges in ruhigem Ton vorgebracht wird. Wirklich, derartige Spötter umfassen eine Armee von Kriegern der sozialen Gerechtigkeit, welche anonyme Feiglinge sind.
Was die Rolle von WUWT hierbei betrifft, wird es m. E. sehr gut durch den folgenden, kürzlich geposteten Kommentar von drednicolson auf den Punkt gebracht [und ich denke, dass das in vollem Umfang im deutschsprachigen Raum auch auf die EIKE-Website zutrifft!! Anm. d. Übers.]:
Dass Alarmisten überhaupt bei WUWT zu Wort kommen, hebt die Website weit über den Durchschnitt hinaus. Skeptikern wird auf alarmistischen Sites kaum einmal der gleiche Raum geboten.
Und Alarmismus kommt schwer verpackt als identische Politik daher, so dass jeder Widerspruch, egal wie höflich er vorgetragen wird, sofort als persönlicher Angriff gewertet wird.
Und die Verwendung einer passiv-agressiven, pseudo-höflichen Sprache, um Feindseligkeit zu provozieren und sich dann über die Gemeinheit von Personen zu beschweren, sind die üblichen Machenschaften der hinterlistigsten Trolle.
Manchmal (eher öfter als seltener) müssen wir derartige Individuen sperren, wenn diese ihren Ärger eskalieren lassen und mit persönlichen Beleidigungen unseren Kommentar-Bedingungen zuwider laufen. Aber es gibt auch all jene Alarmisten, die ihre Sicht der Dinge darstellen, ohne ausfallend oder beleidigend zu werden. …
[Hier führt Watts namentlich ein Beispiel an. Aber auch auf der EIKE-Website kommentieren ja manchmal Alarmisten, die ebenfalls stets höflich und sachlich bleiben. So sehr man deren Einwände auch ablehnt, wäre es ungut, derartigen Äußerungen anders als ebenfalls höflich entgegenzutreten. Anm. d. Übers.]
Während manchmal Anonymität erforderlich ist, wie etwa bei Whistleblowern, Informanten aus der Kriminalszene und Personen, deren Lebensweise in Gefahr ist, falls sie sich äußern, verdienen die meisten dieser Spötter auf Twitter und Blogs die Arkell v. Pressdram-Antwort. Tatsächlich scheint dies der beste Weg, auf Beleidigungen etc. zu reagieren.
…
Am besten ist es, die Bewohner des „Anonyversums“ einfach zu ignorieren, wenn diese einen niedermachen wollen ohne den Mumm zu besitzen, ihren eigenen Namen unter ihre kindischen Hohn zu setzen. Erfüllen wir ihnen nicht ihren Wunsch, Aufmerksamkeit zu erregen.
Ein russisches Team hat nun eine Chronologie von Deuterium zusammengestellt aus Schneeablagerungen nahe der Station Wostok (A.A. Ekaykin, et al., 2014). Eine Zusammenfassung mit digitalen Daten stand ab Mai 2017 zur Verfügung. Die Daten enthalten u. A. jährliche Messungen von 1654 bis 2010 und stellen so eine Überlappung dar mit dem Eisbohrkern, der eine Abschätzung gegenwärtiger Bedingungen aus der Perspektive von Eisbohrkernen gestattet.
Vergleich von Eisbohrkernen und Schneeablagerungen
Die folgende Graphik zeigt die Anteile von Deuterium aus dem Wostok-Eisbohrkern in den Abschnitten 1669, 1692, 1716, 1737, 1760, 1780 und 1801. Diese korrespondieren im Zeitraum 1658 bis 1811 mit den Aufzeichnungen aus den Schneeablagerungen. Deuterium in Eisbohrkernen scheint ein wenig höher zu sein als in Schnee, und das Mittel der 7 Abschnitte im Eisbohrkern liegt um 2,92 ‰ über dem Mittel der 155 korrespondierenden Jahre der Schneeablagerungen.
Die Deuterium-Skala in den Graphiken ist eingeteilt in 9 ‰-Intervalle, sind doch 9 ‰ pro Grad Celsius der grundlegende Deuterium-Temperatur-Konversionsfaktor im Wostok-Kern, wie er von Petit et al. (ibid.) festgelegt worden ist.
Derzeitige Werte im Zusammenhang
Jeder Abschnitt im Bohrkern überdeckt im Überlappungs-Intervall 20 bis 23 Jahre, und deren Deuterium-Werte zeigen weit weniger Variabilität als die jährlichen Schnee-Werte. Für eine bessere Vergleichbarkeit in der folgenden Graphik wurden die Schnee-Werte in Gruppen von 20 Jahren gemittelt mit Ausnahme der ersten 26-Jahre-Gruppe (1654 bis 1680). jeder Mittelwert wurde um 2,92 ‰ aufwärts adjustiert entsprechend dem Vergleich bei den Überlappungen.
Die Graphik zeigt das Deuterium im Wostok-Eisbohrkern zusammen mit den adjustierten Schnee-Werten, was eine detaillierte Information der Temperatur von 140.000 v. Chr. bis zum Jahr 2000 bedeutet. Besonderheiten in der Graphik sind das kalte Ende einer Vereisung vor 139.000 Jahren, eine Erwärmung bis zur zweithöchsten Spitze in der Wostok-Aufzeichnung (-416,3 ‰ vor 127.374 Jahren), eine episodische, aber allgemeine Abkühlung in eine Vereisung mit dem niedrigsten Wert in der Aufzeichnung (-488,3 ‰ vor 22.413 Jahren), Erwärmung während des Jüngeren Dryas (vor 11.000 Jahren) bis zum Optimum im Holozän (vor 9200 Jahren). Danach folgt eine moderate und variable Abkühlung bis zur Gegenwart.
CO2-Messungen von Luftbläschen in den Wostok-Bohrkernen (Petit, ibid.), Taylor Dome (A. Indermühle, et al., 1999) und Law Dome (D.M. Etheridge, et al. 1996) ebenso wie in der Luft am Südpol (C.D. Keeling, et al., 2001) zeigen einen CO2-Gehalt der regionalen Luft von 412.000 v. Chr. bis zum Jahr 2000.
Bis zum Jahr 6000 v. Chr. laufen Änderungen des CO2-Gehaltes den Änderungen von Deuterium proportional hinterher. Die Verzögerung neigt dazu, bei geringeren Werten von Deuterium am kürzesten zu sein und am längsten nach thermischen Spitzen. Beispielsweise geht aus der Graphik hervor, dass die CO2-Abnahme von vor 117.000 bis vor 104.000 Jahren einer proportionalen Abnahme von Deuterium folgt, zu welcher es etwa 9000 Jahre früher gekommen war. Die moderne Klimawissenschaft kolportiert, dass CO2 ein starkes Treibhausgas ist, welches die atmosphärische Temperatur kontrolliert. Da die Ursache aber der Auswirkung vorangehen muss, zeigt die Verzögerung, dass ein CO2-Gehaltüber dem Minimum-Niveau von 180 ppm im Wostok-Kern keine signifikante Auswirkung auf die Temperatur hat.
Vor 6000 Jahren begann der CO2-Gehalt zu steigen auf Konzentrationen weit über denen, die zuvor in den Eisbohrkernen auftauchten. Das Fehlen jedweden korrespondierenden Anstiegs des Deuteriums während der letzten 8000 Jahre zeigt erneut, dass CO2 auf die atmosphärische Temperatur keine Auswirkung hat.
Der Schnee um Wostok weist von 1990 bis 2010 einen adjustierten Deuterium-Wert von -433,7 ‰ auf. Dies liegt um 18,9 ‰ unter dem höchsten Wert, welcher in einem Abschnitt des Bohrkerns 219 Jahre repräsentiert. Er liegt um 54,6 ‰ über dem niedrigsten Wert, welcher 91 Jahre repräsentiert. Folglich ist aus der Wostok-Perspektive unser Klima derzeit etwa 2°C kälter als das wärmste der letzten 420.000 Jahre und etwa 6°C wärmer als das kälteste Jahr.
Schlussfolgerungen
Die allgemeine CO2-Verzögerung in den Eisbohrkern-Aufzeichnungen sowie das Fehlen von Erwärmung während der letzten 8000 Jahre einer außerordentlichen Zunahme des CO2-Gehaltes zeigen, dass die Hypothese einer signifikanten Erwärmung der Atmosphäre durch CO2 während des vorige Jahrhunderts absurd ist. Die Zuordnung abgeleiteter Auswirkungen (d. h. „Klimawandel“) zu CO2 ist daher lächerlich. Diese Fiktionen, die damit einher gehenden düsteren Prophezeiungen und die Verunglimpfung aller, die diese Prophezeiungen in Frage stellen, werden jedoch energisch vorangetrieben und sind weithin akzeptiert. Sie scheinen gesellschaftlich genauso wichtig zu sein wie sie wissenschaftlich falsch sind.
Während jüngste Schneedaten bei Wostok die Falsifizierung der Hypothese eines „gefährlichen, vom Menschen verursachten Klimawandels durch Kohlendioxid, welches ein starkes Wärme speicherndes Treibhausgas ist“ bekräftigen, waren derartige Falsifizierungen bereits in den 1999 veröffentlichten Daten aus Eisbohrkernen offensichtlich, und sie waren immer logisch offensichtlich für jeden, der den Kohlenstoff-Kreislauf auf der Erde verstand.
——————————-
References
Ekaykin, A.A.; Kozachek, A.V.; Lipenkov, V.Ya.; Shibaev, Yu.A. 2014. Multiple climate shifts in the Southern Hemisphere over the past three centuries based on central Antarctic snow pits and core studies. Annals of Glaciology, 55(66), 259-266. doi: 10.3189/201AoG66A189
Etheridge, D.M., L.P. Steele, R.L. Langenfelds, R.J. Francey, J-M. Barnola, and V.I. Morgan. 1996. Natural and anthropogenic changes in atmospheric CO2 over the last 1000 years from air in Antarctic ice and firn. Journal of Geophysical Research 101:4115-4128.
Indermühle, A., T.F. Stocker, F. Joos, H. Fischer, H.J. Smith, M. Wahlen, B. Deck, D. Mastroianni, J. Tschumi, T. Blunier, R. Meyer, B. Stauffer. 1999. Holocene carbon-cycle dynamics based on CO2 trapped in ice at Taylor Dome, Antarctica. Nature 398:121-126.
Keeling, C.S., S. C. Piper, R. B. Bacastow, M. Wahlen, T. P. Whorf, M. Heimann, and H. A. Meijer, Exchanges of atmospheric CO2 and 13CO2 with the terrestrial biosphere and oceans from 1978 to 2000. I. Global aspects, SIO Reference Series, No. 01-06, Scripps Institution of Oceanography, San Diego, 88 pages, 2001.
Petit, J.R., J. Jouzel, D. Raynaud, N.I. Barkov, J.M. Barnola, I. Basile, M. Bender, J. Chappellaz, J. Davis, G. Delaygue, M. Delmotte, V.M. Kotlyakov, M. Legrand, V. Lipenkov, C. Lorius, L. Pépin, C. Ritz, E. Saltzman, and M. Stievenard. 1999. Climate and atmospheric history of the past 420,000 years from the Vostok Ice Core, Antarctica. Nature 399:429-436.
Amprion aus Dortmund versorgt Nordrhein-Westfalen, Rheinland-Pfalz und das Saarland mit Strom und hat gegenüber der FAZ eine Steigerung der Preise um sage und schreibe 45 Prozent angegeben. Im Vorjahr erhob Amprion „nur“ 12 Prozent mehr.
Für das nächste Jahr deuten sich weitere drastische Erhöhungen der Strompreise an. Denn jetzt im Oktober werden die Umlagen für den Strompreis im kommenden Jahr festgelegt. Noch ist es für eine Schätzung des gesamten Strompreises zwar etwas früh. Aber die FAZ hat dennoch einmal vorgerechnet, was auf die Verbraucher zukommen wird.
Sie hat sich für die Kalkulation einer der wichtigsten Größen des Strompreises, des „Netzentgeltes“, bei den vier Netzbetreibern umgesehen. Die haben ihre Preise für das kommende Jahr bereits veröffentlicht. Etwas sang- und klanglos, empfindet die FAZfeinsinnig, aber den Netzfirmen war wohl nicht nach viel Öffentlichkeit.
Amprion aus Dortmund versorgt Nordrhein-Westfalen, Rheinland-Pfalz und das Saarland mit Strom und hat gegenüber der FAZ eine Steigerung der Preise um sage und schreibe 45 Prozent angegeben. Im Vorjahr erhob Amprion „nur“ 12 Prozent mehr.
Tennet wird im kommenden Jahr laut FAZ 9 Prozent mehr verlangen. Gegenüber der Steigerung von 80 Prozent im Vorjahr geradezu ein Klacks. Transnet-BW in Baden-Württemberg wird um 13 Prozent erhöhen, und nur 50Hertz senkt seinen Preis um 11 Prozent. Diese Netzkosten machen inzwischen fast ein Viertel des Strompreises aus. Bezahlen müssen ihn die Endkunden, die Stromverbraucher.
Dramatische Folgen jenes Irrsinnsprojektes „Energiewende“. Denn in diese Netzkosten fließen zum Beispiel die Kosten des Parallelbetriebes von bisherigen Großkraftwerken ein. Die stehen neben den Wind- und der Photovoltaikanlagen bereit, um bei „Dunkelflaute“ einzuspringen, wenn die netten „Erneuerbaren“ mal wieder zu wenig bis gar keine Energie liefern. Vor allem das stark schwankende Angebot macht den Betreibern der Übertragungsnetze zu schaffen. Denn sehr rasch müssen gewaltige Energiemengen herangeschafft werden, wenn zum Beispiel an einem sonnigen Tag eine Wolkenfront quer über das Land zieht und die Stromerzeugung sämtlicher Photovoltaikanlagen zusammenbrechen läßt.Umgekehrt wird es ebenso teuer, wenn starke Winde auf der Nordsee die Windräder viel Strom liefern lassen und die Übertragungsnetzbetreiber nicht wissen, wohin damit, weil gerade kein Abnehmer da ist. Eine typische Situation an Weihnachtsfeiertagen, die dann sehr teuer wird. Denn diese Strommengen können meist nur verschenkt, wenn sie mit einer gehörigen Mitgift versehen werden. Die beträgt schon mal 20, 25 Millionen Euro, die an die Abnehmer zum Strom dazu geliefert werden! Ein Tagträumer derjenige, der glaubt, mit Stromexport wird Geld verdient. Diese Kosten muss der deutsche Stromverbraucher bezahlen; auch sie fließen in jene „Netzentgelte“.
Trotzdem fürchten sich unsere europäischen Nachbarn langsam vor den Folgen, die die spinnerten Deutschen mit ihrer „Energiewende“ angerichtet haben. Sie können meist nichts mit den gewaltigen Energiemengen anfangen, die da zur falschen Zeit über die Grenzen geliefert werden. Länder wie Polen verbarrikadieren sich bereits – elektrisch gesehen. Sie können die Strommengen nicht gebrauchen.
Zu den Netzentgelten gehören auch die Kosten, die an die Betreiber der Windräder gezahlt werden müssen, wenn sie zwar Strom liefern, den ebenso gerade keiner gebrauchen kann, weil er zur falschen Zeit anfällt. Die Windräder stehen zwar still, die Betreiber aber werden dennoch so bezahlt, als ob sie Strom geliefert hätten. Modell für Ihren Bäcker: Gib mir Geld, Du hättest ja meine Brötchen haben können! Diese grünen Wirtschaftsmodelle der Zukunft also kosten horrende Summen, die Stromkunden bezahlen müssen – ungefragt. Trittins Eiskugel ist für sie damit ziemlich teuer geworden.Der Interessensverband Bundesverband Energie- und Wasserwirtschaft BDEW (lange Jahre an der Spitze Merkels ehemalige rechte Hand Hildegard Müller, jetzt sinnigerweise RWE) jedoch hat jetzt den Schuldigen herausgefunden. Die FAZ berichtet weiter, dass die Bauern zu hohe Entschädigungen fordern. Sie verlangten nämlich eine „Maut“ dafür, dass durch ihre Felder und Fluren Stromtrassen gepflügt werden. Ein Rechtsgutachten des BDEW hat laut FAZ ergeben: Die Forderungen der Bauern für Nutzungs- und Einnahmeausfälle seien „unverhältnismäßig und verfassungswidrig“. Es ist immer viel Aufregung, wenn die Geier über dem Aas untereinander in Streit geraten.
Aber am Horizont zeichnet sich Besserung ab, versprechen jedenfalls die Energiewende-Ideologen in ihren Planungsstuben. Wenn erst einmal die Nord-Süd-Stromautobahn ausgebaut ist, dann ist das Energiewende-Endziel erreicht. Dann haben die Bayern wieder Strom. Denn sie müssen bald ihre letzten Atommeiler abschalten, noch ehe der versprochene Windstrom aus dem Norden fließt. Dann fehlt ihnen ziemlich viel Strom, denn die Leitungen für Windstrom aus dem Norden gibt es nicht. Blöde Zeiten für Audi und BMW.Die Leitungen wird es auch längere Zeit nicht geben. Denn die Technik ist längst nicht einsatzreif. Sie sollen als Hochspannungsgleichstromleitungen ausgeführt werden. Die funktionieren in China; allerdings hängen sie dort an hohen Strommasten, die sich in Trassen durchs Land ziehen.
Die will hier niemand. Deshalb sollen sie unter die Erde verlegt werden. Sie sollten also einigermaßen gut isoliert sein, um Spannungen von ein paar Hunderttausend Volt möglichst sicher gegenüber dem Erdreich zu isolieren. Ob das funktioniert, weiß niemand. Ebenso weiß niemand, welche Auswirkungen diese bis zu fast 80, 90 Grad heißen Heizkörper in der Erde haben werden. Der Bauer, unter dessen Hof eine solche Leitung läuft, braucht keinen Schnee mehr zu kehren.
Ebenso weiß niemand, was tun, wenn diese zentrale Leitung, die die wichtige Energie für Bayern von Nord nach Süd transportiert, mal wieder ausfällt. Aber das kennen wir ja aus dem Zugverkehr, seitdem bei Rastatt ein Tunnel einbrach und die wichtigste Nord-Süd-Eisenbahnverbindung unterbrach.
Währenddessen erschallt irgendwo vom Himmel das höhnische Lachen derjenigen, die diese Untaten über das Land gebracht haben.
GWPF unterstützt eine Klage der ASA gegen falsche Behauptungen in einer Offshore-Wind-Kampagne
|
Die Kampagne war losgetreten worden von einer Gruppe, welche die Medien als eine „Koalition von Unternehmen und zivilen Gesellschafts-Organisationen“ nennen. Darunter sind Dong Energy, GE, ScottishPower Renewables, Siemens Gamesa, SSE, Vattenfall, Greenpeace, die Marine Conservation Society und der WWF).
Auf den die Kampagne begleitenden Postern heißt es: „Der Preis für Strom erzeugt von Offshore-Windparks ist während der letzten fünf Jahre um 50% gefallen“.
Das ist eine Lüge. In den meisten Fällen sind die Preise in UK von Offshore-Windstrom alles andere als gefallen. In manchen Fällen wurde trotz geringer Kürzungen bei den Subventionen für neue Offshore-Projekte ab dem Jahr 2015 Reduktionen um etwa 5% aufgetreten.
Die Klage der GWPF zeigt, dass die Kampagne mit den Fakten Schindluder treibt. Die Werbeanzeigen führen Abgeordnete des Parlaments absichtlich in die Irre und macht die breitere Öffentlichkeit glauben, dass bestehende Windparks ihre Preise gesenkt hätten. Tatsächlich beziehen sich die vermeintlich niedrigeren Preise nur auf Angebote für Auktionen in so genannten Contracts for Difference (CfD) welche für eventuelle Windprojekte in der Zukunft gelten, die mit ihrer Stromerzeugung nicht vor 2021/2022 beginnen werden und in Wirklichkeit vermutlich niemals errichtet werden – oder die niemals zu so niedrigen Preisen Strom erzeugen können.
Wie eine kürzlich erschienene Studie gezeigt hat, scheinen die Kapitalkosten für neue Offshore-Windprojekte keineswegs zu fallen. Sie dürften eher steigen, wenn man sie in immer tieferem Wasser installiert. Die vorgelegten CfD-Gebote sind nichts als Spekulationen von Investoren auf zukünftige Änderungen der Politik.
Der Direktor der GWPF Dr. Peiser sagte:
„Die Behauptungen der Offshore-Windkampagne in Westminster sind eine der eklatantesten Verzerrungen der Wahrheit, die mir jemals bei Werbung pro Wind vor Augen gekommen ist. Alles, was man sagen kann ist, dass die Industrie hofft, in der Lage zu sein, die Kosten und Preise bis zum Jahr 2022 zu senken. Ich hoffe das auch, aber es ist äußerst unwahrscheinlich“.
Dr.Peiser fügte hinzu:
„Diese Kampagne zielt absichtlich auf Parlamentsabgeordnete, Peers und andere Entscheidungsträger. Die Windindustrie und die grünen Campaigner sind ihnen eine öffentliche Entschuldigung schuldig. Dies ist ein beschämender Akt der Falschheit“.
Es ist schlimmer als gedacht: Erwärmung geringer als prophezeit
|
In der Klimadebatte jedoch ist es immer erhellend, das Kleingedruckte zu lesen. Es ist unüblich, dass die offizielle Klimatologie ihre zahlreichen Fehler und Irrtümer einräumt. Stattdessen wird uns verordnet, dem „Konsens“ zu gehorchen, mit welcher Bezeichnung die Parteilinie heutzutage daherkommt. Nach der Lektüre der Schlagzeilen kam mir sofort der Verdacht, dass das wirkliche Ziel der jüngsten Eingeständnisse die Minimierung und folglich die Verschleierung der wahren Größenordnung der Über-Prophezeiungen der Vergangenheit ist. Die Studie stammt von Millar et al. und ist in der jüngsten Ausgabe von Nature Geo“science” veröffentlicht.
Die Daily Mail berichtete folgendermaßen über die jüngsten Ergebnisse:
„Die Forschungen britischer Wissenschaftler zeigen, dass den alten Projektionen zufolge die Welt derzeit 1,3°C wärmer sein sollte als das Mittel zur Mitte des 19. Jahrhunderts. Die neue Analyse zeigt nun aber, dass es lediglich 0,9°C bis 1,0°C wärmer geworden ist. Michael Grubb, Professor für internationale Energie [?] und Klimawandel am University College London gab zu, dass die alten Projektionen falsch waren“.
Es gab seit 1850 lediglich eine Erwärmung um 0,85°C, ermittelt mit einer linearen Regression kleinster Quadrate des Trends in den monatlichen HadCRUT4-Daten. Diese nicht wirklich aufregende Rate ist äquivalent mit etwa einem halben Grad pro Jahrhundert. Unterzieht man diesen Teil des Statements von Grubb dem Faktencheck, zeigt sich, dass seine beobachtete Erwärmung um 0,9°C bis 1,0°C auf der hohen Seite liegt, aber nicht um sehr viel.
Wie wir sehen werden, hat die Millar-Studie die Erwärmung erheblich unterschätzt, die prophezeit worden wäre, und zwar mit der Aussage darin, dass die offizielle Klimatologie lediglich 1,3°C globale Erwärmung seit 1850 prophezeien würde. Nicht zufällig gibt es in der jüngsten Ausgabe von Nature Geovoodoo [!] auch eine kurze Studie von Gunnar Myhre, welcher mit einem Vergleich von drei Klimamodellen im Jahre 1998 zu dem Ergebnis gekommen war, dass der CO2-Antrieb zuvor um 15% überschätzt worden ist. Aus Myhres jüngster Studie:
„Der kombinierte Strahlungsantrieb aller gut durchmischten Treibhausgase (der non-consensers [?]), besonders CO2, Methan, Stickoxid und Spuren von Kohlenwasserstoffen) betrug 3,1 W/m² Strahlungsantrieb…“, und nahezu alles dieses Antriebs ereignete sich seit 1850.
Um zu bestimmen, eine wie starke globale Erwärmung die offizielle Klimatologie als Reaktion auf einen Strahlungsantrieb von 3,1 W/m² prophezeien würde, sollten wir das offizielle „Null-Dimensions-Modell“ heranziehen [zero-dimension-model]. Die Gleichung dieses Modells ist verblüffend einfach. Darin stehen w, W jeweils als prä- und post-feedback globaler Erwärmung (d. h. „Referenz-Sensitivität“ und „Gleichgewichts-Sensitivität“) und f als Feedback-Faktor:
Und kann man gut und gerne aufgeschreckt – ja tatsächlich schockiert – sein, dass die Gleichung der offiziellen Klimatologie herangezogen wird, um uns zu sagen, wie viel Erwärmung es geben würde, derartig einfach ist. Warum zahlen wir Milliarden pro Jahr an das IPCC, wenn sich alles auf diese sinnfreie Gleichung reduziert? Nichtsdestotrotz möchte ich sie hier betrachten, um zu demonstrieren, dass – so naïv und falsch wie sie ist – sie tatsächlich das ist, was die Klimatologie derzeit heranzieht.
Verwendet man als Input die offiziellen Werte für w, f, spuckt die Gleichung pflichtgemäß die offiziellen Prophezeiungen der Gleichgewichts-Sensitivität W aus. Indem sie sich auf das IPCC (2013) für die offizielle Diagnose der globalen Erwärmung stützen, prophezeit von der jüngsten Generation von Computermodellen, sagen Vial et al. 2013, dass etwa 85% der Unsicherheit in der Gleichgewichts-Sensitivität W aus der Unsicherheit in der Feedback-Summe c resultiert, was der offiziellen Art und Weise nach, mit der alles durchgeführt wird, einfach gleich ist mit c geteilt durch 3,2 K pro Watt pro Quadratmeter.
In Wirklichkeit haben Feedbacks nur einen geringen Einfluss auf Erwärmung, wie wir demnächst demonstrieren zu können hoffen, so dass die einzige Unsicherheit die Größenordnung des Antriebs ist. Aber unsere Studie mit dem Nachweis dieses Tatbestands wartet immer noch die Kommentare der Begutachter, welche seit nunmehr drei Wochen überfällig sind. Daher sollten wir es vorerst einfach noch der offiziellen Weise nach machen, obwohl dies unerhört im Widerspruch zur Mainstream-Wissenschaft steht – und zu Experimenten, die wir einem Regierungs-Laboratorium in Auftrag gegeben haben und die in allen Einzelheiten bestätigt haben, dass wir die Mainstream-Wissenschaft richtig verstanden haben und die offizielle Klimawissenschaft nicht.
Folglich geht die Kalibrierung der Gleichung des Null-Dimensions-Modells weiter. Das IPCC (2013, Abb. 9.43) verweist auf Vial et al. 2013, der offiziell die Feedback-Summe c diagnostiziert hat aus einer simulierten abrupten Vervierfachung der CO2-Konzentration in 11 Modellen der 5. Generation. Der Mittelwert für c der 11 Modelle beträgt 1,57 W/m²K, was eine Schätzung der mittleren Bandbreite von 0,49 für f impliziert. Vial gab auch die 2 σ-Grenzen von f an als mid-range estimate von ± 40%. d.h. 0.49 ± 0.20; und der implizite CO2-Antrieb unter atypischem Einschluss schneller Feedbacks betrug 4,5 W/m².
Die direkte Erwärmung w bei einer CO2-Verdoppelung bei Vial beträgt folglich 4,5 / 3,2 = 1,41°C, liegt also etwa um 20% über dem vom IPCC angeführten Wert von 1,16°C. Mit f = 0,49 und w = 1,41°C ergibt die Gleichung des Null-Dimensions-Modells ein Intervall von Gleichgewichts-Sensitivitäten W von 2,0 bis 4,5°C als Reaktion auf eine Verdoppelung des CO2, wie in der folgenden Tabelle fett gedruckt dargestellt. Da die Werte der Gleichung aus offiziellen Inputs stammen und fast perfekt inhaltsgleich mit vielen offiziellen Intervallen sind, ist die Gleichung ordnungsgemäß kalibriert. Ob man es mag oder nicht (man sollte nicht!) – dies ist das, was die Kräfte der Dunkelheit verwenden.
Die einzige Diskrepanz liegt in der zentralen Schätzung der globalen Erwärmung post-feedback, wo das Null-Dimensions-Modell 2,8 K prophezeit und die veröffentlichten offiziellen Schätzungen 3,3 K prophezeien.
Zu der Diskrepanz kommt es, weil die offizielle Klimatologie manchmal vergisst, dass die Kurve der Gleichung des Null-Dimensions-Modells keine gerade Linie, sondern eine rechteckige Hyperbel [rectangular hyperbola] ist (siehe oben). Verwendet man die offizielle Bandbreite des IPCC von 3,0 (1,5;4,5)°C als die prophezeite Gleichgewichts-Sensitivität bei einer CO2-Verdoppelung, impliziert eine mid-range-Schätzung f = 0,49 für den Feedback-Faktor eine mid-range-Schätzung von 2,25°C für die post-feedback globale Erwärmung, nicht die den Vorstellungen des IPCC folgenden 3°C und vor allem weniger als die 3,3°C mid-range-Projektion der CMIP5-Modelle.
Man kann daher die implizite mid-range-Schätzung der post-feedback-Erwärmung in den Modellen der 5. Generation bestimmen mittels Verwendung der Gleichung des Null-Dimensions-Modells. Ist die direkte oder pre-feedback-Erwärmung w als Reaktion auf eine Verdoppelung der CO2-Konzentration 1,16 K und die post-feedback-Erwärmung W wie von den CMIP5-Modellen prophezeit 3,3 K, ist der in dieser Prophezeiung implizit enthaltene Feedack-Faktor 1 – (1.16 / 3.3) = 0.65.
Jetzt haben wir genug Informationen, um die globale Erwärmung zu ermitteln, welche die CMIP5-Modelle prophezeien würden als Reaktion auf einen Strahlungsantrieb von den 3,1 W/m² aus allen anthropogenen Quellen, welche Myhre 2017 zufolge seit etwa 1850 im Gange ist. Die direkte Erwärmung beträgt einfach 3,1/3,2 oder etwa 1°C. Zieht man jetzt die inzwischen kalibrierte, aber verworfene [dump] offizielle Gleichung des Null-Dimensions-Modells heran wie oben beschrieben, beträgt die post-feedback-Erwärmung, welche die CMIP5-Modelle seit 1850 prophezeit hätten, 1 / (1 – 0.65) oder 2.75 C°, wäre also mehr als doppelt so hoch wie die in der Millar-Studie erwähnten 1,3°C und über dreimal so hoch wie die tatsächlich eingetretene Erwärmung von 0,85°C.
Zum Vergleich, unsere korrigierte Version der Gleichung des Null-Dimensions-Modells würde 1,2°C Erwärmung prophezeit haben als Reaktion auf 3,1 W/m² anthropogenen Antriebs seit 1850, was weit näher an den 0,85°C liegt, die tatsächlich gemessen worden sind, als der Wert der offiziellen Klimatologie von 2,75 K.
Man kann eine ähnliche Analyse durchführen auf der Grundlage der Aussage vom IPCC 2013, dass es einen anthropogenen Strahlungsantrieb von 2,3 W/m² seit vorindustrieller Zeit gegeben habe, was eine Erwärmung um 2,05°C bis heute impliziert oder fast dreimal der Wert von 0,75°C von 1850 bis 2011 aus dem HadCRUT4-Datensatz. Unsere Gleichung hätte 1,0°C prophezeit, was erneut weit näher an der beobachteten Realität liegt als die offizielle Gleichung prophezeit hätte.
Oder man könnte die zentrale Prophezeiung des IPCC aus dem Jahr 1990, der zufolge es während der 36 Jahre von 1990 bis 2025 eine Erwärmung um 1°C gegeben habe (äquivalent zu 0,75°C während der 27 Jahre von 1990 bis 2016), vergleichen mit der tatsächlichen Erwärmung von 0,45°C während dieses Zeitraumes, gewonnen aus dem Mittel von zwei terrestrischen und zwei Satelliten-Datensätzen. Erneut zeigt sich, dass die unseriös erstellte offizielle Prophezeiung eine substantielle Übertreibung ist im Vergleich mit dem beobachteten Ergebnis, aber unsere korrigierten Modelle kommen der Wahrheit viel näher, zeigen diese doch eine Erwärmung um 0,37°C, was weit näher an den gemessenen 0,45°C liegt als die vom IPCC prophezeiten 0,75°C.
Professor Myles Allen von der Oxford-University wird von der Daily Mail mit den Worten zitiert, dass falls die Welt den „ambitionierten“ Reduktionen der CO2-Emissionen folgen würde, man nicht einmal ansatzweise der unwissenschaftlichen Festlegung des Paris-Abkommens nahekommen würde, den globalen Temperaturanstieg auf 1,5°C über den vorindustriellen Wert zu begrenzen, was äquivalent ist mit einem Wert, der um 0,65°C über dem derzeit gemessenen Wert liegt.
Allerdings wird die CO2-Konzentration den heutigen Trends folgend bis zum Jahr 2100 von 400 auf 650 ppmv steigen mit der Folge einer direkten Erwärmung von 0,8°C und einem weiteren Beitrag von 0,2°C durch Temperatur-Rückkopplungen. Das 1,5°C-Ziel wird also nicht einmal dann erreicht, wenn wir unsere Mainstream-Gleichung an Stelle der unbrauchbaren Gleichung der offiziellen Klimatologie verwenden.
Es sei denn, die Profs. Harde und Happer haben recht, dass der CO2-Antrieb ebenso wie die Rückkopplungen, auf die sich unsere Studie konzentriert, übertrieben ist. Prof. Harde hat geschätzt, dass er um 30% übertrieben ist; Prof. Happer kommt sogar zu 40% Übertreibung aus anderen Gründen, die sich nicht mit dem Ergebnis von Prof. Harde überlappen. Falls beide recht haben, hätte man den CO2-Antrieb um 82% überbewertet. Falls wir auch recht haben, würde die direkte Erwärmung in diesem Jahrhundert 0,45°C betragen mit einem Zusatzbeitrag von 0,1°C aufgrund der Rückkopplungen. Zwar gibt es noch andere Treibhausgase, doch werden diese durch negative anthropogene Antriebe genau ausgeglichen, so dass selbst ohne jede Bemühung zur Abschwächung [der Emissionen] das Paris-Ziel bis zum Jahr 2100 in Wirklichkeit auf jeden Fall erreicht werden würde. Und falls sich die Welt wirklich um über 0,65°C im Vergleich zu heute erwärmen würde, dies jedoch nicht bis nach dem Jahr 2100, wäre die Erwärmungsrate viel zu gering, um gefährlich zu sein. Es besteht einfach kein Bedarf für das UNFCCC oder das IPCC. Auf den Müll mit beiden!
Die offizielle Klimatologie hat ihre Prophezeiungen drastisch übertrieben. Ihre unqualifizierten Versuche, das wahre Ausmaß der Diskrepanz zwischen übertriebener Prophezeiung und der nicht aufregenden Beobachtungen zu verstecken wird scheitern. Diese Diskrepanz ist hauptsächlich Fehlern bei der Berücksichtigung von Rückkopplungen im Null-Dimensions-Modell und daraus folgend in den dreidimensionalen Modellen geschuldet, deren Outputs die einfache Gleichung gnädig reproduziert, was ihre Wirksamkeit als Blackbox-Diagnose zeigt. Korrektur der Fehler in der offiziellen Gleichung erzeugt Prophezeiungen, die weit weniger extrem und weit näher an der Beobachtung in der realen Welt daherkommen als die wilden Übertreibungen auf der Grundlage, auf der regierungsamtliche und internationale Gebilde bis heute so profitabel Panik erzeugt haben.
Obwohl die Millar-Studie das wahre Ausmaß der offiziellen Übertreibungen verschleiert, worauf Forderungen nach „Klima-Maßnahmen“ beruhen, stellt sie doch auf einer anderen Ebene einen frühen Riss im Damm dar, der zeigt, dass die gesamte Konstruktion des Unsinns drauf und dran ist zusammenzubrechen. Nur Mut! Die Wahrheit, dass die globale Erwärmung gering, harmlos und insgesamt vorteilhaft sein wird [so es sie überhaupt geben wird, Anm. d. Übers.] wird schon bald über die schreienden Extremisten triumphieren. Die Millar-Studie ist nicht der Anfang vom Ende, aber zumindest das Ende des Anfangs.
Googles Such-Einstellung gegenüber konservativen News-Seiten wurde quantifiziert
|
Abstrakt
Der Prozentsatz des Domainverkehrs, der von Google Search ausgewiesen wird, abgesehen von Recherchen nach Handelsmarken (PGSTN), liegt in oder um den Bereich 25% -30% für eine breite Klasse von Web-Domains. Diese Hypothese wird durch die Berechnung der Korrelation zwischen der Popularität von Webseiten für Nachrichten / Meinungen und ihrer PGSTN getestet, und befindet sich in der Nähe von Null. So kann PGSTN streng genutzt werden, um die vorsätzlich Suchalgorithmen der Google-Suche zu erkennen und sogar zu quantifizieren. Der Intentional Bias [die absichtliche bzw. vorsätzliche Ausrichtung – ist dem Sinn nach doppelt gemoppelt, denn eine Ausrichtung / Einstellung ist immer absichtlich; daher gilt das auch für „Bias“ allein; Danke an unseren Leser Herrn Fred F. Müller – update vom 07.10.17] ist der Bias, der durch interne Google-Vorgaben eingeführt wurde und unabhängig von externen Faktoren ist, wie die Dominanz [~ Häufigkeit] von bestimmten Standpunkten im Web. Hier wird die PGSTN-Methode für die absichtliche Bias-Erkennung bei der Klimadebatte und für den allgemeinen politischen Diskurs angewendet.
Die Google-Suche ist äußerst voreingenommen für Klimaschutz und gegen den Realismus des Klimas. Die PGSTN-Bereiche für Klima-Realismus und Klima-Alarmismus überlappen sich nicht einmal! Einige der wichtigsten klima–realistischen Domains, darunter die nur wenig umstrittene judithcurry .com , haben eine so niedrige PGSTN, dass sie als auf der „schwarzen Liste“ von Google gelistet angesehen können.
Es wurde herausgefunden, dass die Google-Suche links / liberale Domains bevorzugt und gegen konservative Domains eingestellt ist – mit einer Wahrscheinlichkeit von 95%. Weiterhin haben bestimmte Extrem-Links-Domains so ein hohes PGSTN, dass der Verdacht besteht, dass sie für eine prominente Platzierung handverlesen wurden. Bestimmte respektierte konservative Domänen sind auf der schwarzen Liste.
[Hinweis zur Übersetzung:
Für die Abkürzung: PGSTN habe ich nur weitschweifige Erklärungen gefunden. Es scheint mir, dass das die Abkürzung für bestimmte Verfahren / Begriffe in der Statistik ist. Im Sinn der Studie kann man es mit „Häufigkeit der Ergebnisanzeige“ gleichsetzen, oder wie im ersten Satz: „Prozentsatz des Domainverkehrs“ – Vielleicht weiß einer unserer Leser näheres.]
Diese Beobachtungen haben die Frage nicht vollständig gelöst, ob die Bias vorsätzlich so eingestellt sind oder den voreingenommenen Webinhalt widerspiegelte. In letzter Zeit zeigen die offiziellen Suchbewertungsrichtlinien von Google eine vorsätzliche Ablehnung gegen den Klimarealismus. Immerhin bestätigte ein ehemaliger Google-Mitarbeiter eine absichtliche Ablehnung von „allem Nicht-PC“ [nicht-political correctness] durch das Google Search-Team.
Dieses Studie verwendet veröffentlichte SEO-Daten [Suchmaschinen Optimierungs-Daten] aus mehreren Quellen, darunter BrightEdge Research, 2017: Organische Suche ist immer noch der größte Kanal und aktualisiert seinen Bericht 2014 . Von nun an, bedeutet der Begriff “ Bias“ vorsätzliche Vorspannung. Diese Studie formuliert, begründet und wendet eine quantitative Methode der Bias-Erkennung in Google Search an.
Methoden
Es ist bekannt, dass die Google-Suche 25% -30% der Suchkriterien der [bisherigen] Nutzer für eine durchschnittliche Website bietet. Wie Googles Führungskräfte und die Google Werbung viele Male wiederholt feststellen, [soll] der Google Search Service die relevantesten und nützlichen Ergebnisse für die Abfragen des Benutzers liefern. Der Google-Vorsitzende Eric Schmidt scherzte sogar, dass es für jede Abfrage nur ein Ergebnis geben sollte – das Ergebnis, das der Benutzer sucht. Google-Server durchstreifen das gesamte Web, extrahieren Text, Links und andere Daten aus Billionen von Seiten. Google kämpft ständig und erfolgreich gegen Versuche, Websites durch abgekartete Verknüpfung und andere Suchmaschinen-Optimierung Techniken künstlich zu fördern.
In seinen Unternehmen verwendet Google auch eine enorme Menge an Off-Web-Informationen, die er durch Chrome-Browser, andere Google-Anwendungen und -Dienste, Analysen der„Leuchtfeuer“, Domains-Registrier-Status und so weiter sammelt. Diese Informationen beinhalten die Popularität und Besitz der Domains. Google verarbeitet auch die spontane Rückmeldung von den Benutzern in Form von Häufigkeit der Klicks auf die Ergebnisse, Weiterklicks (~ zappen], die Häufigkeit wiederholter Recherchen mit geänderten Begriffen usw.
Google ist dabei sehr gut in seinem Job. Websites und Domains, die bei den Besuchern in der Regel weniger beliebt sind, werden als weniger wahrscheinlich eingeschätzt, um von Google angezeigt zu werden und umgekehrt. Der Effekt ist, dass der Prozentsatz der Daten-Recherche, den Domains von Google Search erhalten, über alle Web-Domains ähnlich ist.
Diese Tatsache wird dargestellt, durch die nahezu „null Korrelation“ zwischen der Popularität der Domänen und dem Prozentsatz des Netzverkehrs, den sie von Google in jedem der Sätze der linken / liberalen Medien und konservativen Medien erhalten, trotz der Domänen-Popularität (nach Alexa.com, niedrigere Werte bedeuten höhere Beliebtheit [~Rangfolge]), von 24 bis 1.469 für die links / liberalen Medien-Set, und von 56 bis 12.795 für die konservativen Medien. Der „Verkehr“ von Google-Anzeigen liegt bei etwa 5% des gesamten Google-Traffic, also ist es kein Faktor.
“Net Traffic“ [~Netzverkehr], wie in dieser Forschung verwendet, schließt den Netzverkehr aus, bei dem die Nutzer gezielt mit Namen suchen, wie „foxnews“ oder „fox news“ oder „foxnews .com“. Net Traffic reflektiert Googles Absicht besser, weil die Google-Suche nicht viel Auswahl hat, wenn der Benutzer nach einer Website mit ihrem Namen oder Marke sucht. www.Alexa.com bietet Informationen, die PGSTN-Berechnung für Hunderttausende von Web-Domains ermöglicht.
Angesichts der Robustheit der PGSTN, schließe ich, das die statistisch signifikanten Unterschiede in PGSTN zwischen den a priori definierten Sätzen von vergleichbaren Domains auf absichtliche Bias von Google zurückzuführen ist, es sei denn, es gibt eine andere gute Erklärung.
Methodische Details
Alle Daten in dieser Recherche basieren auf Schnappschüsse von Alexa (freie Version) vom 4. September 2017. Für jede Domain wurde Google Search Total aus der „Upstream Site“ Tabelle entnommen – Welche Seiten haben die Leute unmittelbar vor dieser Seite besucht.
Die Anzahl der Recherchen nach Namen wurde von der Tabelle genommen „Top Keywords von Suchmaschinen“ – „Welche Suchschlüsselwörter senden den Traffic auf diese Seite? „.Es sollte beachtet werden, dass nur fünf Top-Werte, die in den freien Alexa-Schnappschüssen erscheinen, verwendet wurden. Alle in der Tabelle gezeigten Google-Suchdomänen wurden aufgenommen (google.com, google.ca, google.de, google.co.in etc.) Wenn die Gesamtmenge des Datenverkehrs nach Namen weniger als 5% betrug, wurde der Wert 1% eingegeben. PGSTN wurde durch Abzug von Namen-Suchverkehr aus dem gesamten Google-Suchverkehr berechnet.
Es wird nicht erwartet, das PGSTN ausreichende Sicherheit für einzelne Domains bietet, weil mehrere Faktoren das beeinflussen, einschließlich möglicher Fehler in den Alexa Daten. Trotzdem wurde die Google-Einstellung gegenüber einer Domain vorläufig in der beigefügten Kalkulationstabelle PGSTN-Domains.xlsx [Link zu einer Excel Mappe] wie folgt kodiert:
Whitelist / Grüne Zahlen:> 36%
Normal: 20% -36%
Graue Zahlen: 12% -20%
Blacklist: <= 12%
Es wurde erwartet, dass die meisten Domains (basierend auf der zitierten SEO-Forschung) PGSTN im Bereich von 20% -36% haben. Diese Erwartung wurde erfüllt. PGSTN <= 12% gibt vorläufig an, dass die Domain von Google aufgeführt ist. Alles zwischen der schwarzen Liste und dem normalen Bereich gilt als grauer Bereich. Schließlich zeigt PGSTN> 36% vorläufig eine ungewöhnliche Bevorzugung durch Google an.
Google Bias in der Klimadebatte
Die Domains wurden meist nach Alexa-Klassifikation ausgewählt. Der Nachweis extremer Bias Google-Suche machte gegen Domains des Klima-Realismus keine statistischen Methoden erforderlich.
Häufigkeit der Anzeige bestimmter Webseiten als Ergebnis von Suchanfragen
Bezeichnung der Gruppen: Fakten Prüfer; Hassseiten, andere Klima Alarmisten, Klima Realisten
Es gibt eine große Lücke zwischen PGSTN von Realismus-Domains (6,3% – 17,4%) und PGSTN von Klima-Alarmismus-Domains (23,5% -52,4%). Die Lücke beträgt 6,1%. Mit Ausnahme von drroyspencer.com werden alle Klima-Realismus-Domains von Google aufgeführt (PGSTN ist 6,3% – 11,0%).
Auf der anderen Seite haben selbst ernannte „fact checker„, darunter snopes.com und politifact.com, PGSTN von etwa 50%. Dieses schürt den Verdacht, dass sie von Google für die Priorisierung handverlesen worden waren. Weitere zwei Webseiten mit verdächtig hohem PGSTN sind Quellwatch.org (PGSTN = 50.1%) und prwatch.org (PGSTN = 40.9%). Diese beiden Seiten tauschen ihre Links gegenseitig aus (sie beziehen sich jeweils aufeinander als Quelle), haben überlappende Inhalte und es ist bekannt, dass sie der gleichen Organisation, dem Center for Media and Democracy [Zentrum für Medien und Demokratie] angehören. Dieses sind bekannte Anzeichen von Spam – doch Google hat es nicht nur geschafft, sie als Spam nicht erscheinen zu lassen, sondern sie sogar manuell zu priorisieren.
Dieser Abschnitt schießt netrootsnation.org mit ein, eine radikale linke Seite mit [Aufzeichnungen ~podcasts] verschiedener Tagungen, ist nicht speziell auf Klimaalarmismus ausgerichtet. Sein PGSTN = 44,5%. Diese Domain hätte handverlesen sein können oder ihre Besitzer wurden von Google-Insidern beim Spielen mit der Rangliste beraten. Google hat die Konferenzen finanziert, und die Google-Vertreter haben es besucht und Vorträge zu relevanten Themen gemacht, wie dieses – Ein Zitat:
„Wir werden einige Möglichkeiten teilen, um die Macht von Online-Videos zu nutzen und wie man Google und YouTube-Tools mit anderen Interessenvertretungen integrieren kann.“
Alle anderen alarmistischen Domains haben PGSTN im Whitelist oder Normalbereich.
Google Bias im allgemeinen politischen Diskurs
Zur Quantifizierung von Google allgemeiner politischer Einstellungen, wählte ich Webseiten von Top-US-Nachrichten und Meinungsseiten nach ihrem Ranking in Alexa. Dann fügte ich einige konservativen Websites ein, mit niedrigerem Ranking basierend auf meinem persönlichen Wissen und / oder Alexa Vorschläge. Es gab ein Element der Subjektivität bei der Auswahl und Klassifizierung und ich habe einige Domains weggelassen, die ich nicht klassifizieren konnte. Trotzdem wurden die populärsten Domains sowohl in links / liberal (einschließlich Links, Mainstream Liberal und Mainstream Center) als auch in konservativen (einschließlich konservativen und Mainstream konservativen) Kategorien ausgewählt und eingestuft. Die Verwendung von gewichteten Statistiken minimiert das Element der Subjektivität in die Ergebnisse.
Die Ergebnisse zeigen, dass die Google-Suche stark gegen konservative Domänen voreingenommen ist. Einige respektable konservative Domänen scheinen auf der schwarzen Liste zu sein;
thegatewaypundit.com
pjmedia.com
americanthinker.com
redstate.com
powerlineblog.com
drudgereport.com
Es könnte eine alternative oder zusätzliche Erklärung für niedrige PGSTN des Drudge Report sein – diese Website besteht hauptsächlich aus Links zu Artikeln auf anderen Seiten, eine Praxis, die Google unterdrückt.
Im Durchschnitt erreichen die konservativen Domänen eine fast zwei Mal niedrigere PGSTN als die links / liberalen: konservative 15,5% (Standardabweichung 5,1%) gegenüber links / liberal 27,4% (Standardabweichung 4,9%). Die Hypothese der Google-Suche links / liberale Bias wird mit einer Wahrscheinlichkeit von 95% bestätigt.
Diskussion
Obwohl die PGSTN von einzelnen Domänen für Schlussfolgerungen nicht ausreicht, kann ich nicht vermeiden festzustellen, dass extremistische Webseiten wie dailystormer.com (PGSTN = 13,6%; existieren zum Zeitpunkt der Untersuchung nicht mehr) und dailykos.com (PGSTN = 20,2%) von Google gegenüber vielen konservativen und Klima-realistischen Domains bevorzugt werden.
Schlussfolgerungen
Google-Suche ist zugunsten von links / liberalen Webseiten gegen konservative Webseiten voreingenommen und ist zugunsten des Klimaalarmismus gegen den Klimarealismus äußerst voreingenommen.
Offenlegung
Ich habe Short-Positionen in Google-Aktien [d.h., er spekuliert auf fallende Kurse]
Diesel-Verteufelung: Krieg gegen das eigene Volk – Die Lückenmedien im Glashaus (5)
|
In den bisherigen Teilen dieses Aufsatzes [Teil 1, Teil 2, Teil 3, Teil 4] wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten auf im Prinzip unbedeutende Werte zurückgegangen ist. Wichtiger Grund hierfür ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Auch wurde aufgedeckt, wie fragwürdig die Messmethoden sind und welche Tricks und Manipulationen zum Einsatz kommen. Im dritten Teil wurden die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie die offensichtliche Parteilichkeit sowohl der öffentlich-rechtlichen Medien als auch industriefeindlicher Behörden behandelt. Im vierten Teil wurde festgestellt, dass das Auto auch in der Stadt der Zukunft unverzichtbar bleibt und Elektromobilität zurzeit nicht realisierbar ist. Außerdem wurden Widersprüche in den Aussagen des Umweltbundesamtes beleuchtet und mafiöse Querverbindungen zwischen der Deutschen Umwelthilfe sowie Ministerien und Behörden aufgedeckt. Der jetzige fünfte Teil beschäftigt sich mit der angeblichen Gesundheitsgefährdung selbst durch geringste NO2-Konzentrationen.
Stickoxide – wie man den Teufel an die Wand malt
Im nächsten Abschnitt ihres „Faktenfinders“ wenden sich die Autoren wieder der Frage zu, wie gefährlich denn die von diversen Quellen emittierten Stickoxide für die menschliche Gesundheit seien. Stickoxide (d.h. NO und NO2), so steht es im „Faktenfinder“, seien nachweislich Umweltgifte, welche die Gesundheit von Menschen akut gefährden. Insbesondere Stickstoffdioxid sei als Reizgas mit stechendem Geruch bereits in geringen Konzentrationen wahrnehmbar. Der „überwiegende medizinische Konsens in der Umweltmedizin“ gehe davon aus, dass kein Schwellenwert benannt werden könne, der langfristige gesundheitliche Folgen von NO2 auf den Menschen ausschließe. Und dann kommt es knüppeldick: Da ist von erhöhter Sterblichkeit, Lungenkrebs sowie chronischen Atemwegsbeschwerden wie Asthma die Rede, was durch verschiedene Studien belegt werde. Zwar wird zugegeben, dass es „auch“ Wissenschaftler gebe, die diesen Studien widersprechen, doch gehe insgesamt die Mehrheit der Mediziner davon aus, dass Stickoxide einen wesentlichen Beitrag zu Atemwegserkrankungen beim Menschen leisteten. Und dann wird noch die Europäische Umweltagentur angeführt, die für das Jahr 2012 die Zahl von 10.400 Todesfällen in Deutschland durch Stickstoffdioxid berechnet haben will [HORREEA]. Diese Falschdarstellungen sind so massiv und gehen so eindeutig an den Fakten vorbei, dass man sich damit eingehend auseinandersetzen muss.
Das Märchen vom „Umweltgift NO2“
Im Teil 3 dieses Beitrags war bereits gezeigt worden, dass der Begriff „Giftigkeit“ beim NO2 in den Konzentrationsbereichen, die in der Stadtluft auftreten, nicht zutrifft. Selbst an den am stärksten belasteten Hot-Spots liegen die mittleren Jahreskonzentrationen unter 90 µg/m3, und die Zahl der Stunden, an denen der Grenzwert von 200 µg/m3 überschritten wird, tendiert rapide gegen Null. Da sich niemand 24 Stunden am Tag genau an den wenigen, bewusst wegen ihrer hohen Abgaskonzentrationen ausgewählten Hot-Spot-Messpunkten aufhält, liegt die mittlere Belastung nahezu der gesamten Bevölkerung unter dem Immissionsgrenzwert von 40 µg/m3. Auf Ausnahmen wird weiter unten noch eingegangen. Das einzige, was an dem Passus der Faktenfinder zur Wirkung von NO2 auf den Menschen stimmt, ist daher die Bezeichnung „Reizgas“. Aber auch diese Wirkung ist unterhalb der 60 µg/m3, der für Büro- und Privaträume gilt, auf jeden Fall medizinisch unerheblich.
Hervorzuheben ist bei der Aussage der „Faktenfinder“ daher zunächst die Verwendung des Begriffs „Umweltgift“. Damit wird suggeriert, dass es sich um einen widernatürlichen, erst vom Menschen erzeugten Stoff handelt, der in der Natur nicht vorkommt und dieser schadet. Nichts könnte falscher sein: Stickoxide sind Teil natürlicher Kreisläufe, und sie werden gebraucht, denn ohne Stickstoff(dünger) gäbe es keine Pflanzen [BLIE] und auch keine Tiere, denn unser Körper braucht Stickstoff, um die lebenswichtigen Proteine aufzubauen, Bild 3.
Auch eine weitere, neuere Untersuchung belegt, dass die aus natürlichen Quellen stammenden Stickoxidmengen diejenigen aus modernen Diesel-PKW sogar um ein Vielfaches übertreffen [LEIS]. Verkehrsbedingte NO2-Emissionen sind nur in wenigen, von grün inspirierten Verwaltungen mit Bedacht ausgesuchten Bereichen mit starkem Verkehrsaufkommen und stark behindertem Luftaustausch überhaupt ein Thema. An der freien Atmosphäre werden die Emissionen schnell auf ein unkritisches Maß verdünnt und innerhalb weniger Tage aus der Luft entfernt. Dieser Abbau erfolgt teils durch Anlagerung an Oberflächen, teils durch Regen, der das NO2 zusammen mit Stäuben und sonstigen Belastungen aus der Luft regelrecht auswäscht.
Die Verwendung des Begriffs „Umweltgift“ durch die Autoren des „Faktenfinders“ belegt somit lediglich zwei Dinge: Eine mangelhafte Recherche und den Versuch, vorhandene Unkenntnis durch Verwendung eines nicht zutreffenden, aber stark negativ besetzten Begriffs zu übertünchen.
Die Lüge vom überwiegenden medizinischen Konsens
Im nächsten Passus des „Faktenfinders“ steht dann die Behauptung: „Der überwiegende medizinische Konsens in der Umweltmedizin geht davon aus, dass nach aktuellem Kenntnisstand kein Schwellenwert benannt werden kann, der langfristige gesundheitliche Folgen von NO2 auf Menschen ausschließt“.
Hierzu ist zunächst anzumerken, dass die Behauptung mancher Epidemiologen, es gebe keinen unteren Grenzwert für die Gefährdung durch NO2 in der Atemluft, angesichts der Tatsache, dass es überall einen natürlichen NOx-Anteil in der Atmosphäre gibt, schlicht weltfremd ist. Sie ist nichts weiter als eine spezifische Ausprägung der LNT-Theorie (Linear No Threshold), mit der grüne „Wissenschaftler“ bei uns auch gerne die Angst vor „dem Atom“ schüren.
Zweitens haben sich die „Faktenfinder“-Autoren mit ihrer Argumentationsweise vom angeblichen „Konsens der Wissenschaft“ sehr gründlich in die Nesseln gesetzt. Sie haben wegen ihrer Unkenntnis selbst einfachster wissenschaftlicher Sachverhalte nicht begriffen, dass dieser bei Medienjournalisten beliebte Trick, mit dem gerne im Bereich der Klimawandeldiskussion gearbeitet wird, bei der Diskussion um Stickoxide nicht greift. Beim „Klimawandel“ können sie auf eine solide Wand an fest verankerten Vorstellungen zurückgreifen, um angebliche „Skeptiker“ und „Leugner“ als Unwissende, ja sogar als rückschrittliche Wissenschaftsgegner darzustellen. Stickoxide sind dagegen ein Gebiet, bei dem es um klassische, solide erforschte Themen geht. Hier sind die Zahlenverhältnisse unter den Wissenschaftlern genau umgekehrt.
Deshalb geht das Argument der „Faktenfinder“ grandios nach hinten los. Zur Untermauerung ihrer Behauptung führen sie eine Sammlung von Stellungnahmen von ganzen sieben Wissenschaftlern an [SMCE], von denen einer Mitarbeiter des UBA ist und drei aus dem Ausland kommen. An diesen Stellungnahmen fallen vor allem zahlreiche Einschränkungen wie „hätte“, „könnte“, „steht im Verdacht“ usw. auf. Konkrete Festlegungen werden dagegen meist vermieden, und die aufgeführte Literatur wird von US-Quellen dominiert. Darunter finden sich auch „Studien“ bekannter Aktivisten wie der Dr. Susan Anenberg, die mit ihrer kommerziell arbeitenden Research-Firma Environment Health Analytics eng mit den Führungsoffizieren der DUH beim „International Council on Clean Transportation“ [ICCT] zusammenarbeitet. Dieser Artikel mit seinen rein hypothetischen Horrorzahlen wurde natürlich auch in den deutschen Medien dutzendfach zustimmend aufgegriffen und aufgebauscht [DW, MDR, WELT], Bild 5.
Die „Mehrheit der Wissenschaftler“ mit Sachkenntnis über gesundheitliche Auswirkungen von NOx findet sich in Deutschland jedoch in den beiden Fachgremien, welche für die Festlegung von Grenzwerten am Arbeitsplatz (MAK-Kommission, 36 Mitglieder) bzw. in Büros und Privaträumen (Ausschuss für Innenraumrichtwerte, 18 Mitglieder) zuständig sind. Von den von den „Faktenfindern“ aufgeführten „Experten“ ist seltsamerweise keiner überhaupt in einem dieser Gremien zu finden. Es ist seitens der „Faktenfinder“-Autoren schon eine ziemliche Dreistigkeit, diesen insgesamt 54 meist hochrangigen Wissenschaftlern, deren Kernkompetenz der Schutz der Bevölkerung vor Luftschadstoffen ist, ein derart zusammengewürfeltes Sammelsurium von wenigen Einzelmeinungen gegenüberzustellen und zu behaupten, diese repräsentierten den „überwiegenden medizinischen Konsens“ in der Frage der Gesundheitsschädlichkeit von NO2.
Frontalangriff auf den Diesel-Untersuchungsausschuss des Bundestags
Bei näherem Hinsehen fällt an der etwas konfusen Meinungssammlung der „Faktenfinder“ auf, dass diese ursprünglich wohl als „Info-Munition“ für Journalisten gegen den Bundestagsausschuss gedacht war, der sich seit 2016 mit der VW-Dieselaffäre beschäftigt hatte [BUTA] und dessen Ergebnisse einer Kamarilla aus Medienjournalisten sowie einigen eifernden Wissenschaftlern nicht passten, obwohl mit Oliver Krischer ein hochrangiger Funktionär der Grünen sogar stellvertretender Leiter dieses Ausschusses war. Der offensichtliche Missgriff der Herren Reisin und Wichmann fordert natürlich geradezu dazu heraus, sich die Schlussfolgerungen dieses derart angegriffenen Ausschusses einmal genauer anzusehen. Danach kann man die Aufregung einiger Herrschaften besser verstehen. In seinem Bericht hält der Ausschuss nämlich auf den Seiten Seiten 491 ff fest:
– Die Kausalität unterstellende Aussage, jährlich würden 10.000 Menschen durch Verkehrsemissionen sterben, ist auch nach Ansicht des Ausschusses nach dem Ergebnis der Sachverständigenanhörung nicht haltbar.
– In Deutschland bestehen keine toxikologisch bedenklichen NO2-Werte in öffentlich zugänglichen Bereichen.
– Es gibt keine wissenschaftlich erwiesenen Zahlen dazu, wie viele Menschen aufgrund grenzwertüberschreitender NO2-Expositionen erkrankt oder gar gestorben sind.
– Überschreitungen von NO2-Grenzwerten an bestimmten Orten allein haben relativ wenig Aussagekraft. Es kommt vielmehr auf die an einem Ort bestehende Komposition bzw. Mischung mit anderen „Giftstoffen“ an. Der Sachverständige Professor Dr. Greim hält sogar eine Langzeitexposition von 60 µg/m3, wie sie für 0,02 Prozent der Bevölkerung Berlins an äußerst stark befahrenen Straßen Realität ist, für gesundheitlich eher unbedenklich.
– Die Wirkung von bestimmten Gasgemischen auf den menschlichen Körper steht zudem in Abhängigkeit zu weiteren Faktoren wie dem Wetter, der Aufenthaltszeit, dem Alter oder dem Gesundheitszustand.
– Deutschland nimmt im Vergleich zu anderen europäischen Staaten das Problem der Stickstoffoxidbelastung besonders ernst und prüft bewusst an kritischen Stellen. Der Sachverständige Professor Dr. Koch bemerkte hierzu: „Interessant ist übrigens, dass in anderen europäischen Ländern nicht an der ungünstigsten Stelle, sondern freistehend gemessen wird. Aus diesem Grund liefern fast alle Messstationen bereits 2010 Immissionswerte im Zielbereich des Grenzwertes von 40 µg/m3“. Umgebungsmessungen an besonders kritischen Punkten, wie sie der Sachverständige am Neckartor in Stuttgart zur Vorbereitung seiner Aussage vor dem Ausschuss vornahm, zeigen, dass eine hohe NOx-Belastung im Verkehr sich auf die Werte in der unmittelbaren Umgebung nicht negativ auswirken muss.
– Die Sachverständige Professorin Dr. Peters vom Helmholtz Zentrum München hat ausgesagt, dass[….]die wissenschaftlichen Ergebnisse bisher aber eine gesicherte lineare Expositions-Wirkungsbeziehung für Stickoxidemissionen und Erkrankungen oder Erhöhung der Sterblichkeit im Sinne einer robusten Zuweisung nicht zulassen [BUTA].
Angesichts dieser Schlussfolgerungen eines Ausschusses, in dem alle im Bundestag vertretenen Parteien Sitz und Stimme hatten und vor dem zahlreiche Wissenschaftler angehört wurden, muss man sich wirklich fragen, wieso die „Faktenfinder“ zu den offensichtlich völlig anderen Ansichten gekommen sind, die sie in ihrem Beitrag vertreten. Zwar ist es für einen Journalisten durchaus legitim, in Meinungsbeiträgen abweichende oder sogar sektiererische Ansichten kundzutun. Dies jedoch als neutrale Darstellung wissenschaftlich gesicherter Fakten auszugeben, wie es im vorliegenden Fall geschieht, wirft ein sehr schlechtes Licht nicht nur auf die beiden Herren selbst, sondern auch auf die Sender, die dieses Treiben wohlwollend zugelassen haben. Der „Faktenfinder“-Artikel vertritt weder die Mehrheitsmeinung der Wissenschaft noch die der Gesellschaft – in diesem Fall vertreten durch die im Bundestag vertretenen Parteien. Stattdessen vertritt er einseitig radikal-grüne Positionen. Die Sendeanstalten werden sich überlegen müssen, wieweit sie glauben, dies mit ihrem gesetzlichen Auftrag vereinbaren zu können. Journalistische Freiheit setzt doch eigentlich vom Grundsatz her Sorgfalt und Neutralität voraus.
Bei Abgasthemen gibt es Wissenschaftsbetrug im großen Stil
Eher nebenher erwähnt der Bericht des Bundestagsausschusses ein grundsätzliches Problem im Zusammenhang mit der Festlegung von Grenzwerten für Gase wie NO2: Den Unterschied zwischen Toxikologie und Epidemiologie, der auch in Folge 3 dieses Artikels bereits angesprochen wurde. Der Ausschuss kommt interessanterweise zu folgendem Schluss: „Epidemiologisch ist ein Zusammenhang zwischen Todesfällen
und bestimmten NO2-Expositionen im Sinne einer adäquaten Kausalität nicht erwiesen“.
Auf die grundsätzlichen Unterschiede zwischen den Methoden der Toxikologen und der Epidemiologen wurde bereits in einer früheren Folge dieses Artikels hingewiesen. Im Bereich der Toxikologie hat sich der Stand der Erkenntnisse im Laufe der letzten Jahrzehnte kaum geändert. Deshalb halten maßgebliche Fachleute aus diesem Bereich den derzeit geltenden Immissions-Grenzwert von 40 µg/m3 für übertrieben.
Aus dem Lager der Epidemiologie überschwemmt dagegen eine regelrechte Flut negativer Stellungnahmen bezüglich der Wirkung selbst geringer NO2-Konzentrationen seit Jahren die medizinische Fachliteratur. Vor diesem Hintergrund sind auch die besonders strengen Grenzwert-Vorgaben der WHO zu sehen. Hinzu kommen die in zahllosen Behörden und politischen Organisationen etablierten „Natur- und Klimaretter“, die in Wirklichkeit unsere technische Zivilisation ablehnen. Eine besonders unheilvolle Allianz zur Verteufelung des Diesels kam darüber hinaus durch die zusätzliche Verquickung derart dominierter Institutionen mit den Interessen der US-Automobilindustrie zusammen. Für die US-Autohersteller, die dem Entwicklungsstand europäischer PKW-Dieselmotoren nichts entgegenzusetzen haben, ist dies natürlich eine willkommene Gelegenheit, die missliebige Konkurrenz auszuhebeln. Da sehr viel Geld für „dieselkritische“ Forschungsergebnisse ausgelobt wird, finden sich auch schnell Wissenschaftler, die entsprechende Berichte erstellen. Es ist ganz so wie in Deutschland, wo sich manche Hochschul- und Forschungsinstitute darin zu übertreffen versuchen, Untersuchungen über die „Machbarkeit“ der Energiewende oder der Elektromobilität fast schon wie am Fließband zu produzieren. Veröffentlichungen über die Vorteile von Kernkraft- oder Kohlestrom wären z.B. bei einem wissenschaftlichen Mitarbeiter der „Fraunhofer-Gesellschaft für Windenergiesysteme“ sicherlich nicht förderlich für die weitere wissenschaftliche Karriere….
Treibende Kraft solcher „Auftragsforschung“ war in den USA die unter Obama mit großem Einfluss und entsprechenden Finanzmitteln ausgestattete Umweltschutzbehörde Environmental Protection Agency (EPA), die auch Herausgeber umfassender Kompendien [EPA] und zugleich Taktgeber ähnlicher Initiativen vor allem im angelsächsischen Raum [CANA] war. Wohin solch massive Beeinflussung von Zuwendungsempfängern führt, wurde Anfang des Jahres 2017 deutlich, als ein groß angelegter Betrugsfall mit toxikologischen Gutachten an der Duke University in Durham (North Carolina, USA) publik wurde [DUKE]. Presseberichten zufolge musste die Universität zugeben, dass für öffentlich finanzierte Studien über Atemwegserkrankungen durch Luftschadstoffe manipulierte bzw. sogar völlig frei erfundene Daten verwendet wurden. Diese Daten wurden „in verschiedenen Veröffentlichungen und Anträgen für Forschungsförderungen“ verwendet. Dabei ging es um erhebliche Summen: In dem entsprechenden Rechtsstreit werden 112,8 Mio. US-$ für Duke sowie weitere 120,9 Mio. US-$ für andere Universitäten genannt. Bei der Untersuchung von 36 Forschungsberichten stellte sich heraus, dass viele davon Zahlen enthielten, die schlicht erfunden waren. Die aktuelle Position der WHO, die noch vor 20 Jahren eine Innenraumkonzentration von 150 µg/m3 während 24 h für vertretbar erachtete, ist sicherlich nicht zuletzt von der EPA und ihren Schlussfolgerungen, die zumindest teilweise auf solchen gefälschten Berichten beruhen dürften, stark beeinflusst worden. In einer späteren Folge dieses Berichts wird noch detailliert darauf eingegangen, warum die meisten der für Dieselabgase durchgeführten epidemiologischen Untersuchungen als unglaubwürdig einzustufen sind. Sie bedürfen dringend einer kritischen Bewertung hinsichtlich „übersehener“ sozioökonomischer Faktoren sowie der Abgleichung der Ergebnisse mit nachprüfbaren toxikologischen Fakten.
Fakten und „Faktenfinder“
Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichten. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie die Bundesbehörden sowie die anderen etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Medien, Journalisten oder Bloggern werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Es wird danach weitergehen, und zwar alternativlos.
Fred F. Mueller
Demnächst folgt Teil 6
Quellen
[BLIE] Umweltchemie. Von C. Bliefert. VCH Verlagsgesellschaft, Weinheim, 1994. 453 S., Broschur 68.00 DM. – ISBN 3-527-28692-6
Eigentlich müsste nun jede seriöse Zeitung titeln: «Klimawandel weit weniger dramatisch als befürchtet!» Denn das, was im Fachmagazin Nature Geoscience vor wenigen Tagen erschienen ist, ist das Eingeständnis führender Klimaforscher, dass sie mitsamt ihren angeblich unfehlbaren Computermodellen falsch lagen. Es ist die Beichte, dass die Erderwärmung viel langsamer voranschreitet, als uns all die Warner, Mahner und Moralisten in Wissenschaft, Politik und Medien weismachen wollten. Es ist das Geständnis, dass die sogenannten Klimaskeptiker recht hatten.
Verfasst worden ist die einschlägige Studie von Klimawissenschaftlern aus acht Ländern. Die Mehrheit der Autoren ist massgeblich beim Weltklimarat (IPCC) engagiert, zum Teil in führender Stellung. Diese Forscher sind somit mitverantwortlich für die Alarme des IPCC vor einer angeblichen Klimakatastrophe. Nun aber sind sie zum Schluss gekommen, dass die Menschheit mehr CO2 ausstossen darf, bis sich die Erde mutmasslich um 1,5 Grad erwärmt hat: nicht ein Zehntel mehr, nicht ein Fünftel oder die Hälfte mehr – nein: fast viermal mehr.
Temperaturanstieg überschätzt
Der Grund ist, dass sich die Wissenschaft verrechnet hat. Die Computermodelle hätten den Temperaturanstieg überschätzt, gab Co-Autor Michael Grubb vom University College London gegenüber der britischen Zeitung Times zu. «Wir haben die schnelle Erwärmung nach dem Jahr 2000, die wir in den Modellen sehen, in der Realität nicht beobachten können», sagte sein Mitautor Myles Allen von der University of Oxford.
(Anmerkung EIKE-Red.: vgl. Graphiken unten) **
Man reibt sich die Augen:
Da reden führende Wissenschaftler genau so, wie es die vielgeschmähten «Klimaleugner» seit Jahren tun: Der Klimawandel habe sich in den letzten zwanzig Jahren verlangsamt. Die Computermodelle lägen falsch, weil grundlegende klimatische Zusammenhänge in der Atmosphäre nicht bekannt oder nicht verstanden seien.
Doch so schnell geben Missionare nicht auf. Das Eingeständnis der Forscher kommt versteckt daher, quasi durch die Hintertür. Vordergründig verkaufen sie ihre Erkenntnis als eindrückliche Bestätigung für den Klimaschutz. «Emissionsbudget und Emissionspfad vereinbar mit dem Ziel, die Erwärmung auf 1,5 Grad zu begrenzen», haben sie ihre Studie betitelt. Hervorgestrichen wird nicht, dass der Klimawandel schwächer ist, sondern dass die Ziele des Klimaabkommens von Paris nun einfacher erreichbar seien.
«Das ist eine wirklich gute Nachricht», sagte Co-Autor Pierre Friedlingstein von der University of Exeter zur britischen BBC. Denn ohne die Verlangsamung wäre das Vorhaben, die Erwärmung auf 1,5 Grad zu begrenzen, wohl unrealistisch gewesen. «Viele Leute waren der Meinung, dass dies nicht möglich sei», so Myles Allen gegenüber der Times. Dabei war das Pariser Abkommen 2015 rund um die Welt als grosser Durchbruch gefeiert worden. Dass die Ziele unrealistisch sind, war damals kaum zu vernehmen.
Auch die meisten Medien verkünden, dass die Studie in Nature Geoscience den Klimaschutz stärke – sofern sie denn überhaupt darüber berichten. «Ziel von Paris immer noch erreichbar», so BBC. Das Resultat der Studie sei ein «Hoffnungsschimmer», hiess es bei Radio SRF. «Es gibt kein Zurücklehnen, mahnte der Tages-Anzeiger. «Niemand weiss, bei welchem Ziel die Erde auf der sicheren Seite ist.»
Kein Wort war zu lesen, dass die Klimaforschung mit dieser Studie an Glaubwürdigkeit verloren hat.
Wären die Verfasser zum gegenteiligen Schluss gekommen, dass die Erderwärmung stärker geworden sei, wäre die Interpretation mit Sicherheit gleich ausgefallen: Jetzt ist Klimaschutz erst recht nötig! Egal also, welche Resultate die Wissenschaft liefert: Sie werden immer als Bestätigung gewertet, dass der CO2-Ausstoss möglichst rasch abnehmen muss. Man fühlt sich an ein altes Sprichwort erinnert: «Kräht der Hahn auf dem Mist, ändert sich das Wetter – oder es bleibt, wie es ist.»
Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich : Klima: Entwarnung der Alarmisten | Die Weltwoche, Nr. 39/2017 | 28. September 2017; http://www.weltwoche.ch/
EIKE dankt der Redaktion der WELTWOCHE und dem Autor Alex Reichmuth für die Gestattung des ungekürzten Nachdrucks.
Jetzt glauben die meisten Amerikaner, dass die globale Erwärmung Hurrikane verschlimmert
|
Seit Jahren verbinden Politiker und Umweltschützer extreme Wetterereignisse mit von Menschen verursachter Erwärmung und der letzte Hurrikan war keine Ausnahme. Die Jahre der Indoktrination scheinen eine Wirkung zu haben.
Eine am 28.09.2017 veröffentlichte Umfrage der Washington Post-ABC News fand, das 55 Prozent der Amerikaner glauben, dass die globale Erwärmung die Hurrikan Saison in diesem Jahr schlimmer gemacht hat, während 41 Prozent dieses Argument nicht annehmen.
Die neuen Umfrageergebnisse deuten auf einen 16-Prozent-Sprung seit 2005, von denen, die die globale Erwärmung mit Hurrikans verbinden. Die Wähler wurden im Jahr 2005 befragt, etwa einen Monat nach dem Hurrikan Katrina.
Wissenschaftler hingegen sind vorsichtig, die globale Erwärmung mit Hurrikans zu verbinden.
„Es gibt einige, die sehr einfach die Hurrikane mit der globalen Erwärmung verbinden“, sagte Chris Landsea, ein Meteorologe am National Hurricane Center, der Daily Caller News Foundation. „Für mich ist der Versuch, eine direkte Verbindung herzustellen, nicht sehr angemessen“.
Sowohl die National Oceanic and Atmospheric Administration (NOAA) als auch das Intergovernmental Panel on Climate Change (IPCC) sagen, dass es nicht genügend Beweise gibt , um die globale Erwärmung mit der Hurrikanaktivität zu verbinden.
NOAA sagt, es sei „verfrüht zu dem Schluss, dass die menschlichen Aktivitäten – und insbesondere die Treibhausgasemissionen, die die globale Erwärmung verursachen – bereits einen nachweisbaren Einfluss auf den Atlantischen Hurrikan oder die globale tropische Zyklonaktivität hätten.“
„In der jährlichen Anzahl von tropischen Stürmen, Hurrikans und großen Hurrikans im Nord-Atlantik-Becken wurden in den letzten 100 Jahren keine robusten Trends identifiziert“, so ein IPCC Bericht von 2013.
Der jüngste Ausbruch von Hurrikans kommt für die USA nach 12 Jahren ohne Landfall von großen Stürmen. Vor dem Hurrikan Harvey war Wilma in 2005 der letzte große Hurrikan, der die USA traf.
Diese atlantische Hurrikan-Saison ist zweifellos eine aktive, mit drei großen Hurrikans in den letzten paar Monaten, die auf Land ziehen.
Harvey traf Ende August im Südosten von Texas als Sturm der Kategorie 4 auf und wurde kurz danach von den Hurrikans Irma und Maria gefolgt.
Irma traf Anfang September in Florida als Sturm der Kategorie 4 auf Land. Maria begann seinen Weg in Puerto Rico als Sturm der Kategorie 4 vor mehr als einer Woche und verwüstete die Insel und ließ die meisten ihrer Bewohner ohne Energie oder sauberes Wasser zurück.
Es ist definitiv eine Hurrikan-Saison für die Aufzeichnungen, aber es ist nicht die schlimmste, die Amerikaner je gesehen haben.
In 2017 hat es bisher 13 Stürme gegeben. Die 2005 Hurrikan-Saison sah 28 mit Namen gekennzeichnete Stürme und die 1933-Saison hatte 20 benannte Stürme, nach der Ansicht von Experten.
„Mit Blick auf die Intensität und Dauer der Stürme, wird die Saison 1933 als die heftigste der Aufzeichnungen seit dem Jahr 1851 geschätzt und 2005 ist die zweitstärkste“, so Gerry Bell, ein Meteorologe an der National Oceanic und Atmospheric Administration (NOAA ).
Wahrscheinlich könnten es noch mehr Hurrikane in dieser Saison geben und die verheerende Saison von 1933 wiederholen, sagte Chris Landsea. „In dieser Saison werden wir sehr viele Stürme erleben“.
Diesel-Klage: Entscheidung in Stuttgart – die spinnen!
|
Jetzt klagt die Landesregierung von Baden-Württemberg also doch gegen das umstrittene Urteil des Verwaltungsgerichts Stuttgart. Das hatte im Juli dieses Jahres in einem aufsehenerregenden Verfahren entschieden, dass die bisherigen Maßnahmen nicht ausreichten, um die Luftwerte im Stuttgarter Talkessel zu verbessern. Fahrverbote drohen ab kommenden Jahr, wenn nicht jetzt das Bundesverwaltungsgericht etwas anderes entscheidet.
In der vergangenen Woche gab es heftigen Streit im Koalitionsausschuss, als die Frage beraten wurde, wie Baden-Württemberg vorgehen solle. Ein Weg durch die verschiedenen Instanzen hätte sicherlich einige Jahre gekostet und der Politik Zeit verschafft. Das wollten die Grünen nicht, die das Urteil annehmen wollten und am liebsten sofort die Autos aus der Innenstadt verbannen.
Die grün-schwarze Regierung in Stuttgart einigte sich auf den Kompromiss »Sprungrevision«. Das ist der schnellste Weg. Das Bundesverwaltungsgericht wird ohne über Berufungsinstanzen zu gehen direkt angerufen und soll über eine Revision entscheiden. Damit ist das ab 1. Januar kommenden Jahres drohende Fahrverbot für Dieselfahrzeuge, die die Euro 5 erfüllen, hinfällig, denn die Entscheidung des Stuttgarter Verwaltungsgerichtes ist nicht rechtskräftig. Die Entscheidung des Bundesverwaltungsgerichtes dürfte frühestens im kommenden Jahr fallen. Bis dahin gibt es keinerlei Einschränkungen im Verkehr.Das Bundesverwaltungsgericht befasst sich nicht mehr mit inhaltlichen Fragen, sondern untersucht nur, ob der Vorgängerinstanz rechtliche Fehler unterlaufen sind. Die Frage spielt dann keine Rolle mehr, ob mit Nachrüstungen von älteren Diesel-Fahrzeugen die Grenzwert-Forderungen doch erfüllt werden könnten. Das hat die Vorgänger-Instanz in Stuttgart nicht gesehen. Sie hat gesagt, dass Fahrverbote notwendig seien.
In Leipzig muss auch geklärt werden, ob das Land selbst Fahrverbotszonen für ältere Diesel-Fahrzeuge einrichten könne, wenn der eigentlich dafür zuständige Bund dies nicht tut. Das Verwaltungsgericht sagte, das Land dürfe dies. Wie das Verfahren vor dem Bundesverwaltungsgericht ausgeht, ist offen.
Es gehe um »Gesundheitsschutz«, sagen die Grünen. Wohl kaum eine Aussage stimmt weniger als diese. Aus den Daten des Umweltbundesamtes geht hervor, dass der gesamte Autoverkehr nur zu 43 Prozent Stoffe zur Luftverschmutzung beiträgt, den größten Teil machen die Abgase der Heizungen aus. Wenn jetzt in der kalten Jahreszeit wieder viele Stuttgarter in Halbhöhenlage ihre Holzkamine anwerfen, verschärft das die schlechte Luftlage im Talkessel dramatisch. Politisch korrekt wäre jetzt »Kamin aus« und »Frieren gegen Feinstaub und Stickoxide«.Das muss man sich einmal plastisch vor Augen halten: Eine höchst umstrittene Grenzwertregelung versetzt Umweltdesperados wie die von dem Abmahnverein »Deutsche Umwelthilfe« DUH in die Lage, großflächige wirtschaftliche Verwerfungen auszulösen. Sie verursachen einen gesamtwirtschaftlichen Schaden, der kaum zu beziffern ist. Und dies auf einer Faktenlage, die nicht von wissenschaftlichen Erkenntnissen gedeckt ist. Heftig in der Diskussion sind die Stellplätze der Messstationen. Im Stuttgarter Gemeinderat wurde vorgeschlagen, die Messstation Neckartor ein wenig zu verschieben. Das sieht der von der EU gesetzte Rahmen ausdrücklich vor. Doch das hätte den Grünen und der DUH ihr schönes Geschäft mit dem Horror »Luftverschmutzung« verhagelt.
»Grenzwertlüge« sagt zudem Professor Helmut Greim von der Technischen Universität München. Er weist immer wieder darauf hin, dass ein Grenzwert von 40 Mikrogramm Stickstoffdioxid pro Kubikmeter Luft wissenschaftlich vollkommen unbegründet ist. Der Grenzwert für Arbeitsplätze beträgt 950 Mikrogramm, hier sitzen Angestellte den gesamten Tag über drin, während die Werte direkt an der Messstation am Stuttgarter Neckartor zu messen sind, ein paar Meter weiter entfernt dagegen schon deutlich niedriger sind.Überdies sind die Werte unter anderem der Stickstoffdioxide seit 1990 um über 60 Prozent zurückgegangen, wie das die Daten des Umweltbundesamtes ergeben. Die Grundlagen für einen regelrechten Grenzwertwahn und damit das derzeitige Diesel-Desaster wurden vor langer Zeit gelegt. Die ersten Vorschriften, wie viel Abgase Autos ausstoßen dürfen, wurden 1970 erlassen. Damals war die Luft in den Städten tatsächlich teilweise zum »Schneiden«.
Seit 1990 erläßt die EU immer neue Normen, die die Werte nahezu halbierten. Ergebnis: Heute sorgen Holzöfen und Kamine in den Städten für mehr Feinstaub als Automotoren. Bei den Beratungen in Brüssel, wie die neuen Grenzwerte für Abgase auszusehen haben, zeigten sich die Industrievertreter überaus harmoniesüchtig. Werner Ressing, Ministerialdirektor a.D., der als oberster Vertreter des Bundeswirtschaftsministeriums bei den Grenzwert-Verhandlungen in Brüssel am Tisch saß, erinnert sich. Er kämpfte gegen die Verschärfung der Abgaswerte, die damals technisch nicht erreichbar seien: »Wir dürfen Industrie nicht überfordern!«
»Oettinger«, so erzählt er, »mit dem ich vorher nie Kontakt hatte, klopfte mir nachher auf die Schulter und sagte: »Noch nie so ein klares deutsches Statement hier gehört!« Am nächsten Tag in Berlin las Ressing in den Tickermeldungen: »VW akzeptiert die neuen Brüsseler Grenzwertvorschläge«. Er rief sofort wütend den Berliner VW-Repräsentanten an: »Wieso fallt ihr mir in den Rücken?« Der VW-Mann leitete die Beschwerde nach Wolfsburg weiter. Kurze Antwort aus Wolfsburg: »Es bleibt dabei, wir schaffen das!«
Die VW-Ingenieure in den Entwicklungsabteilungen dagegen schlugen die Hände über dem Kopf zusammen. Ihnen war bewusst, dass solche Grenzwerte mit den damaligen Technologien nicht zu stemmen waren, schon gleich gar nicht zu verkaufbaren Preisen. Ressing: »Das Ergebnis ist bekanntlich die »Schummelsoftware.« Auch Mercedes-Chef Dieter Zetsche saß mit am großen runden Tisch. Was hat er gesagt? Anwort von Werner Ressing: »Er hat geschwiegen!«Auch Vertreter von Bosch, dem wichtigsten Hersteller von Diesel-Einspritzpumpen und damit Zulieferer der Automobilindustrie, überschlugen sich förmlich vor grüner Begeisterung. Ressing: »Nach der Sitzung in Brüssel sprachen mich Bosch-Vertreter vor dem Ratssaal an und sagten mir: ›Da steckt noch viel mehr drin bei der Emissionsminderung!‹ Und ›Wie?‹ habe ich gefragt: Keine Antwort.« Es muss eine kollektive Besoffenheit bei den Spitzen der wichtigsten deutschen Industrie geherrscht haben. Auf dem Automobilsalon in Genf prahlte der damalige VW-Chef Martin Winterkorn: Wir unterbieten die Normen um 25 bis 30 Prozent. Der 17,5 Millionen teure VW-Chef wollte ehrgeizig den Konzern grüner machen. Das war zu der Zeit, da Greenpeace VW aufs Dach kletterte und mal wieder gegen Autos protestierten.
»In meiner Zeit als Industrieabteilungsleiter habe ich der Industrie und dem BDI immer wieder gesagt: »Ihr seid zu schlapp!« Die haben mir die Bude eingerannt und meine Frau hat immer gesagt: »Warum beschweren die sich bei Dir? Schick sie zur Merkel.« »Das habe ich versucht. Zum Beispiel beim Klimapaket 2008 habe ich gesagt: »Wenn sie im Kanzleramt ist, dann kippt ihr das Tor zu mit Steinen und Zement, bis sie von ihren verrückten Plänen ablässt. Das Ergebnis ist bekannt: Nichts ist passiert.« Ressing hörte die Erklärung des Industrievertreter: »Wir können doch nicht die Kanzlerin beleidigen!« Sein Fazit: »Nicht die Regierung geht in Kumpanei mit der Regierung, sondern umgekehrt und zwar die Vorstandsebene.«
Fest steht schon jetzt, welch extrem hohen Kapitalverluste die Autohändler zu tragen haben. Bei ihnen stehen rund 300.000 Diesel-Fahrzeuge auf dem Hof, die die Euro 5 – Norm erfüllen, aber praktisch nicht verkaufbar sind. Das bedeutet für sie einen immensen Kapitalverlust. Betroffen sind auch Fahrzeuge nach der Euro 6 Norm. Deren Restwert sinkt dramatisch, damit hat das auch erhebliche Einflüsse auf das Leasinggeschäft, bei dem Restwerte ein wesentlicher Faktor in der Berechnung darstellt.Es geht weder um begrenzte Fahrverbote für einzelne Diesel-Fahrzeuge, um Betrügereien der Automobilindustrie, noch um Gesundheit.
Am Ende steht die individuelle Mobilität in Frage – für die Allgemeinheit wohlgemerkt, nicht für diejenigen, die gleicher sein wollen. Denn selbst fahren die lautesten Akteure die fettesten Autos, DUH-Chef Jürgen Resch steigt als Vielflieger gern in Flugzeuge, die Diesel-Verbot fordernde SPD-Chefin des Umweltbundesamtes, Maria Krautzberger, fährt selbst dicke Dienstwagen. Die DUH wird von Daimler Konkurrenz Toyota fürstlich unterstützt. So geht Konkurrenzkampf.
Dahinter steht ganz klar: Hier soll die individuelle Mobilität verboten werden. Das ist auch eine Entscheidung gegen persönliche Freizügigkeit; niemand soll mehr frei bestimmen können, wann er sich wohin bewegen will. Fahrverbote stehen auf dem Wunschzettel der Grünen. Grünen-Chef Özdemir will nur dann Koalitionsverhandlungen, wenn das Ende des Verbrennungsmotors besiegelt werde. Fahren darf außer der Nomenklatura niemand mehr frei dorthin, womit, wo und wann er will. Es gilt: Wasser predigen und Wein saufen.Bezeichnend, wie sich die bisherige Bundesumweltministerin Hendricks auf dem Berliner Kongreß zur Elektromobilität als »Elektromobilitätsministerin« in Deutschland vorstellte. Ein Tagungsteilnehmer fragte sie: »Warum steht im Fuhrpark Ihres Ministeriums kein einziges Elektrofahrzeug?« Antwort: »Die Beamten müssen ja auch mal längere Strecken fahren. Deswegen ist Elektromobilität für uns nicht geeignet!«
Das gleicht der neuen CDU-Umweltministerin Christina Schulze Föcking in Nordrhein-Westfalen, die als eine ihrer ersten Amtshandlungen den Dienst-Tesla abschaffte. Sie erfuhr erschrocken, welch geringe Reichweiten im täglichen Einsatz damit zu erreichen sind. Den Tesla hatte für teure Steuergelder ihr grüner Vorgänger Johannes Remmel (Grüne) prestigeträchtig kaufen lassen. Jetzt fährt sie in einem sündhaft teuren 422 PS starken Mercedes 500.
Nicht zufällig wurde in den Räumen des Umweltbundesamtes sogar eine Studie vorbereitet, die in der Forderung gipfelt, dass nur noch zehn von 1.000 Einwohnern in Städten ein Auto haben dürfen. Das Mittel, um diese Forderung durchzusetzen, heißt Fahrverbote. Das Umweltbundesamt gehört zum bislang SPD-geführten Umweltministerium. Was aus solchen Plänen wird, muss man sehen. Es stehen demnächst noch Landtagswahlen an.
China täuscht Sorge um Globale Erwärmung nur vor
|
Das US – Energieministerium (EIA) prognostiziert, dass China, während es im kommenden Jahr die Spitze seinen Kohleverbrauchs erreichen wird, Kohle weiterhin ein wichtiger Bestandteil des Energiemixes Chinas bleiben wird, der bis 2030 bei knapp 4,4 Terawattstunden (TWh = 10^12 Wh) liegt.
Korrektur vom 06.10.2017
Unser Leser machte mich darauf aufmerksam:
P. Dietze
Korrektur: Es muss wohl für China 4400 TWh heißen (D hat etwa 620 TWh/a). Und installiert sind wohl 1000 GW in Kohle, die damit zu etwa 50% ausgelastet sind.
China ersetzt ältere, weniger effiziente Kohlekraftwerke und verzögert sogar Kohleprojekte bis 2020 als Teil der Regulierungen wegen Luftverschmutzung. Allerdings betreibt China immer noch 1 .000 Megawatt kohlebefeuerte Leistungskapazitäten, und diese Zahl wird sich in den kommenden Jahrzehnten nicht wesentlich ändern.
Quelle: US Energy Information Administration, Internationaler Energieausblick 2017
Energieerzeugungs-Kapazität in China
Der Anteil von Kohle im chinesischen Strommarkt dürfte schrumpfen, aber das ist eine relative Annahme. Die EIA erwartet nicht, dass der chinesische Kohleverbrauch sich bis 2040 in absoluten Zahlen stark ändert.
Allerdings gibt es in den EIA-Projektionen viel Unsicherheit. Die EIA stützt sich auf die aktuelle Politik, darunter Chinas jüngsten Fünfjahresplan und den Plan des Landes, dem Pariser Klimaabkommen nachzukommen.
China versprach, die Spitze bei den Treibhausgasemissionen bis 2030 zu erreichen und seine Nutzung von Energie aus nicht fossilen Brennstoffquellen zu erhöhen. China will bis 2030 rund 20 Prozent seiner Energie aus Solar-, Wind-, Atom- und Wasserkraft bekommen.
Neben dem ehemaligen Präsidenten Barack Obama kündigte auch China seine Ziele zur Erreichung des Pariser Klimaabkommens Ende 2014 an. Ein Jahr später trat China fast 200 anderen Ländern mit der Unterzeichnung des Abkommens bei.
Präsident Trump kündigte im Juni an, dass er die USA aus der Pariser Vereinbarung zurückziehen würde, u.a. aus Gründen, dass es China und Indien begünstigt. Viele Politiker und Umweltschützer sehen nun China als “ Führer “ des globalen Erwärmungskreuzzugs.
China erhält derzeit 72 Prozent seines Stroms aus Kohlekraftwerken und wird als das am meisten Kohlendioxid-emittierende Land der Welt eingestuft.
China und Indien haben im ersten Halbjahr 2017 den Kohleverbrauch erhöht und China hat Milliarden von Dollar zur Finanzierung von Kohleprojekte außerhalb seiner Grenzen ausgegeben.
China unterzeichnete ein Joint Venture mit Pakistan, von dem erwartet wird, rund 15 Milliarden Dollar in den nächsten 15 Jahren auszugeben, um ein Dutzend Kohlekraftwerke unterschiedlicher Größen im Land zu bauen“, berichtete Reuters im Mai.
China integriert Kohle und Energie-Ressourcen, um Überkapazitäten zu reduzieren
Von Wu Xiaobo | chinadaily.com.cn
Die chinesischen Regierungsstellen drängen auf Umstrukturierung auf dem Gebiet der Kohle und der Elektrizitätsenergie, um die kohlebefeuerte Überkapazität zu reduzieren, so eine Erklärung auf der offiziellen Website der Nationalen Entwicklungs- und Reformkommission (NDRC – National Development and Reform Commission) vom 18.09.2017.
NDRC und 15 weitere Regierungsstellen erklärten, dass Unternehmen der Kohle- und Elektrizitätsindustrien dazu angehalten werden, ihre Koordination zu verbessern und Ressourcen durch Asset Restructuring oder Swap und Equity-Kooperation zu integrieren.
… Die Regierung ermutigt die Finanzinstitute, Kredite zu gewähren, um die Umstrukturierung und die Optimierung von Kohlekraftwerken zu erleichtern, …
China will bis 2020 die weltweit saubersten Kohlekraftwerke haben
Von Wu Xiaobo | chinadaily.com.cn
Es wird von China erwartet, bis 2020 die weltweit größte, sauberste Energieerzeugung mit Kohlekraftwerke hoher Effizienz zu bekommen, berichtete Xinhua-run Economic Information Daily am 20.09.2107…
Im Jahr 2015 veröffentlichten das Ministerium für Umweltschutz, die Nationale Entwicklungs- und Reformkommission und die Nationale Energieverwaltung gemeinsam einen Plan für Kohlekraftwerke, diese Anlagen zu sanieren um Emissionen zu senken und Energie zu sparen. Es ist ein Ziel, diese Renovierung bis 2020 abzuschließen.
… Derzeit liegt der Schwerpunkt der Anstrengungen des Landes bei Reduzierung der Luftverunreinigungen bei den Nicht-Elektrizitätssektoren wie Stahl, Zement, Glasblech und elektrolytischem Aluminium, da das Land die Emissionen der Kohlekraftwerke bereits stark reduziert hat.
Die Emissionen von Schwefeldioxid und Stickoxiden in der Kohlekraftwerksindustrie wurden von einem Spitzenwert von 10 Millionen Tonnen auf eine Million Tonnen reduziert, so Liu. Der Kohle-Sektor ist der Sektor geworden, der bei der Erfüllung der Emissionsnormen an der Spitze steht, fügte er hinzu.
Laut Statistik des China Electricity Council, war die installierte Kapazität des Landes für Kohlekraftwerke 940 Millionen kW bis Ende 2016, was 57,3 Prozent der gesamten installierten Erzeugungskapazität entspricht. Die Energieerzeugungs-Kapazität der Kohlekraft betrug 6.000 Megawatt pro Stunde, was 65,5 Prozent der Gesamtleistung entspricht.
Was geschah mit den Lehnsessel-Umweltaktivisten und Klima-Alarmisten, als die Hurrikane zuschlugen?
|
Natürlich, wenn man an Al Gore oder Leonardo DiCaprio denkt – diese folgen einem Energie fressenden Lebensstil jenseits aller Vorstellungen derer, die sie verdammen. Dabei gehen sie so weit, das Leben anderer Menschen, die Wirtschaft und Gemeinden zu zerstören. Trump spricht vom Verlust von Industriezweigen, muss aber dazu sagen, dass vieles davon den Aktivitäten der Umweltaktivisten und von Politikern auf allen Ebenen geschuldet ist.
Wo war Greenpeace während der letzten Hurrikane? Ich klickte auf die Website von Greenpeace America, um herauszufinden, was sie tun, um den jüngst von den Hurrikanen betroffenen Menschen zu helfen. Auf ihrer Website findet sich nichts über Hilfen. Ich hätte gedacht, dass ein Menüpunkt „Was wir tun“ auflisten würde, wo man spenden kann sowie Pläne zur Versorgung und andere Rettungsmaßnahmen. Aber nichts dergleichen! Stattdessen werden sechs Dinge gelistet wie „Kampf gegen globale Erwärmung“ und „Rettet die Arktis!“. Die einzige Aufforderung hinsichtlich Bezahlen fand sich in einer Schlagzeile unter dem Bild eines Speichertanks von ExxonMobile, die da lautet: „Man lasse Unternehmen fossiler Treibstoffe für die Hurrikan-Zerstörungen zahlen!“ Dies impliziert, dass sie glauben, dass menschliches CO2 hauptsächlich aus der Verbrennung fossiler Treibstoffe für die Hurrikane verantwortlich ist. Sie präsentieren keinerlei Beweis für diese Behauptung. Das können sie natürlich auch nicht, weil ein solcher Beweis gar nicht existiert.
Die Website erwartet, dass Sie ihnen Geld senden, aber nicht, damit sie betroffenen Menschen helfen. Stattdessen zeigen sie in ihren städtischen Lehnstühlen sitzend mit dem Finger auf Energieunternehmen, welche den Menschen den Treibstoff lieferten, mit dem sie auf den Autobahnen aus der Gefahrenzone fliehen konnten. Während reale und hart arbeitende Menschen Bemerkenswertes geleistet haben, um Leben zu retten und anderen zu helfen, fordert Greenpeace Geld, um deren Wirtschaft zu untergraben und ihr Leben noch weiter zu zerstören. Das Problem dabei ist, dass Greenpeace damit nicht alleine steht. Die meisten Umweltgruppen tun kaum mehr als Geld zu sammeln, mit dem sie damit fortfahren, Arbeitsplätze zu vernichten und die Wirtschaft zu zerstören.
Sie werden unterstützt durch politische Führer auf allen Ebenen und jeder Couleur. Diese Politiker erfüllen die Beobachtung von H. L. Mencken, dass
…es das ganze Ziel praktischer Politik ist, die breite Masse im Alarmzustand zu halten (damit sie Beifall klatschen, wenn man sie in Sicherheit bringt) mittels einer endlosen Reihe von Kobolden, die allesamt imaginär sind.
Man beachte, dass der einzige Führer, der maßgeblich und effektiv agiert hat, das Weiße Haus war. Alles, was die Kritiker tun konnten war, sich über die Schuhe von Melania lustig zu machen, und selbst diese Story haben sie nicht verstanden. Ein wirklicher Gradmesser des Erfolgs des Weißen Hauses war, dass es praktisch keine Stories über die Auswirkung der Hurrikane gab oder über Menschen, die mehr gelitten haben als unvermeidlich. Das war so, weil man sonst hätten berichten müssen, wie erfolgreich die Bemühungen waren.
Trump ist einer der wenigen Führer, der den Betrug erkannt hat, den viele das Pariser Klima-Abkommen nennen. Er zieht auch den Stecker aus allen verschwenderischen und unnötigen Ausgaben anderer Politiker, welche sich bei Gruppen wie Greenpeace Lieb Kind machen wollen. Hier folgt ein klassisches Beispiel der Ignoranz, Arroganz und Falschheit in einem kürzlich erschienenen Report darüber, wie gut urbane Gebiete in den USA auf die globale Erwärmung vorbereitet sind:
In einem Artikel unter der Überschrift „Die besten US-Städte, in denen man leben kann, um den schlimmsten Auswirkungen des Klimawandels auszuweichen“ schreibt der Autor:
„Unter dem Strich: es wird überall schlimm werden“, schrieb Bruce Riordan, Direktor des Readiness Institute an der University of California Berkeley. „Es kommt darauf an, wie man dazu steht“. Immer noch gibt es ein paar Städte, in denen man eine bessere Chance hat, den Widrigkeiten eines wärmeren Planeten zu widerstehen, sagte Vivek Shandas, ein Stadtplanungs-Professor an der Portland State University. „Es gibt Orte, an denen die Auswirkungen des Klimawandels zumindest abgemildert werden“.
-und-
Das Gebiet Pacific Northwest ist insgesamt das beste Gebiet, um der Hauptlast des Klimawandels zu entkommen, sagte Shandas. Die Städte in dem Gebiet sind nicht perfekt – „dort gibt es andere Herausforderungen“ – doch fügte er hinzu: „Die Infrastruktur dieser Städte ist neuer und widerstandsfähiger gegen große Erschütterungen. Das ist ausschlaggebend, wenn es darum geht, mit Hitze und steigendem Wasser fertig zu werden. Seattle ist eine der ,am besten positionierten‘ Städte“, sagte Shandas.
-und-
Portland war die erste Stadt in den USA, die mit einem Plan zur Vorbereitung auf den Klimawandel aufwartete. Der historische Climate Action Plan der Stadt aus dem Jahr 1993 ist ein Konglomerat von politischen Maßnahmen und Anreizen zur Reduktion der Kohlenstoff-Emissionen der Stadt. Ziel ist eine Reduktion dieser Emissionen um 40% bis zum Jahr 2030 und um 80% bis zum Jahr 2050.
Ich vermute mal, dass Seattle besser auf einen Anstieg des Meeresspiegels vorbereitet ist als Denver, oder sie sind vorbereitet auf eine Ausdehnung der Hitze Kaliforniens bis dorthin. Diese Kommentare sind lediglich ihrer vollständigen Ignoranz wegen beachtenswert.
Ich habe sehr viel gelernt über diese urbanen Guerillas während meiner über 40 Jahre langen Arbeit mit primären Erzeugern wie Landwirten, Förstern und Fischern. Nein, ich würde politisch nicht korrekt sein und sie Fischer nennen. Vernünftige, intelligente Menschen wissen, dass dies ein verallgemeinernder Terminus ist. Meiner Erfahrung zufolge gibt es kaum Gruppen, die sich mehr um Umwelt und Klima kümmern als diese Menschen. Es betrifft ihren Alltag, ihre Wohnungen, Kinder und ihr Einkommen.
Trump redet von dem Washingtoner Sumpf, aber für die meisten Primärerzeuger auf dem Land ist jedes städtische Gebiet ein undankbarer, ignoranter Sumpf. Wir können den Washington Beltway [ein Autobahnring um Washington, mehr dazu siehe hier bei Wikipedia] als die Distanz definieren, welche Sumpfbewohner sehen können. Maurice Strong wusste, was er tat, als er den Betrug der globalen Erwärmung mittels derjenigen Bürokraten in die Welt setzte, die im Sumpf leben. Die Verzerrungen, zu denen dies führt, treten in den täglichen Wetterberichten zutage. Regelmäßig hört man von Sonnenschein und Wärme in den Vorhersagen, wenn die Äcker und Landwirte Kühle und Regen brauchen. Dazu war es diesen Sommer gekommen, als sich alles nur um die Notlage der Stadtbewohner drehte, die vor den Hurrikanen zu flüchten gezwungen waren. Derweil wissen nur Wenige etwas über die Dürre, welche die Ernteerträge und alles andere auch in den nördlichen zentralen USA betroffen hat. Ich kann mich an einen Sommer in Manitoba erinnern, als sich Stadtbewohner bitter über das Wetter beklagt hatten. Es war unter der Woche durchweg sonnig, während an den Wochenenden der Regen kam. Dies führte zu Witzen wie „Wie nennt man es nach zwei Tagen Regen?“ Antwort: „Montag“. „Wie nennt man es, wenn es am Montag regnet?“ Antwort: „Ein langes Wochenende“. Landwirte liebten den Sommer, konnten sie doch auf ihren Feldern arbeiten und die Wochenenden mit ihren Familien zu hause verbringen, als der Regen ihre Felder ernährte.
Städter kritisieren Primärerzeuger ob ihrer Änderung und Schädigung der Umwelt. Dabei ist die einzige Stelle auf der Erde, wo man eine vom Menschen induzierte Erwärmung zuordnen und messen kann, der städtische Wärmeinsel-Effekt UHI. Sie werfen den Landbewohnern Verschmutzung und übermäßigen Gebrauch von Chemikalien vor. Das Problem ist jedoch, dass die höchsten Niveaus und Müll-Konzentration in den städtischen Gebieten angetroffen und umgebende Ackerflächen als Deponien für gefährliche Stoffe benutzt werden in klassischer Not-In-My-Backyard-Manier (NIMBY; etwa: Nicht vor meiner Hintertür). Tatsächlich ist es so, dass die Landwirte in den meisten Gebieten nicht die aus dem Boden entnommenen Chemikalien ersetzen und den Städtern als Nahrungsmittel zusenden. Les Henry, ein Erdboden-Spezialist in Saskatchewan, sagte mir, dass sie in den Kanadischen Prärien nicht 50% des Stickstoffes ersetzt haben, den sie aus dem Boden geholt haben*. Der Grund ist teilweise in den Kosten zu suchen, aber einen großen Teil machen falsche Bedenken aus, hervorgerufen von den Städtern mittels deren Vorwurfes, zu viel Chemikalien einzusetzen.
[*Ich habe inhaltlich nicht verstanden, was hiermit gemeint ist. Anm. d. Übers.]
Die größte Heuchelei ist aber Folgende: Städtische Gebiete konnten sich nur entwickeln, weil im Umland ein Überschuss an Nahrungsmitteln erzeugt wurde. Es ist der Ursprung der Zivilisation, aber jetzt, da sie vom Produktionsprozess separiert werden, werden sie weniger zivilisiert. Mit unserer Verstädterung haben die meisten Menschen vergessen, dass die Gesellschaft nur aufgrund dieses Überschusses existiert. Vor vielen Jahren brachte ich das so auf den Punkt: „Es gibt keine Landwirtschaft in den Städten, aber keine Städte ohne Landwirtschaft“.
Im Jahre 2000 hielt ich vor etwa 1000 Landwirten in Lloydminster an der Grenze zwischen Saskatchewan und Alberta eine Rede. Deren Bedenken war eine ihre Ernten dezimierende Dürre, was Viele zwang, ihr Vieh zu schlachten, das sich nicht mehr füttern konnten. Politiker und Städter hörten nicht zu oder die Misere der Landwirte war ihnen nicht einmal bewusst. Ich wies darauf hin, dass 60 Prozent aller Menschen in Toronto nicht einmal in Kanada geboren worden sind. Sie repräsentieren eine größere Gruppe von Wählern als die Landwirte in den Prärien. Es ist ein weiterer Beleg für die Genialität der US-Gründungsväter, die diese Unfairness erkannten und das Electoral College [= das den Präsidenten wählende Wahlmänner-Gremium] ins Leben riefen. Kanada hat es immer noch mit dem monarchistischen System zu tun, welches alle Macht in die urbanen Gebiete bringt.
Ein Landwirt erhob sich und fragte mich, was sie meiner Meinung nach tun sollten. Ich erwiderte, das Problem erfordert eine Lösung, die sie niemals in Betracht ziehen würden, weil sie sind, was sie sind und mit was sie sich beschäftigen. Sie müssen zusammenkommen und verkünden, dass sie kein Saatkorn mehr ausbringen oder keine Tiere oder Nebenerzeugnisse mehr in die urbanen Gebiete liefern würden. Die Ironie dabei ist, dass die Gesellschaft die Landwirte als konservativ einstuft, aber sie tragen die größten Risiken. Jedes Mal bei der Aussaat sind sie abhängig von der Gnade der Unwägbarkeiten des Wetters und der Natur.
Im Jahre 1786 drückte Thomas Jefferson den Unterschied zwischen Primärproduzenten und den Stadtbewohnern so aus:
Ein industrialisierter Landwirt besetzt eine ehrwürdigere Stellung in der Rangfolge der Menschen, egal ob moralisch oder politisch, als ein Faulenzer, der sich selbst oder seine Familie schätzt, der zu stolz zum Arbeiten ist und der eine miserable Existenz an den Tag legt, indem er jenen Überschuss aus der Arbeit Anderer isst,obwohl diese Arbeit die heilige Grundlage der hilflosen Armen ist“.
Jeffersons Beschreibung ist fast identisch mit der Definition eine Parasiten in einem derogatory dictionary [?]:
„Parasit: Eine Person, die sich gewohnheitsmäßig auf andere verlässt oder diese ausbeutet, ohne im Gegenzug irgendetwas zu erbringen“
Ich beobachtete und war auch direkt involviert darin, was geschah, als sich Greenpeace ein Thema vornahm, dass ihrer Ansicht nach inakzeptabel war. Eine unserer Aufgaben bei der Überwachung des Meeresgebietes vor der Prince Edward-Insel bzgl. fremder U-Boote war die Überwachung der jährlichen Jagd auf Seehunde im St-Lorenz-Golf. Diese Jagd auf Seehunde für Nahrung und Kleidung gibt es schon seit Jahrhunderten und ist ein extrem gefährlicher und miserabler Job für extrem wenig Lohn. Es war die einzige Einkommensquelle für hunderte der in Neufundland und Labrador lebenden Menschen.
Die Methode geht so: Man lasse ein Schiff im Eis festsetzen und führe dann täglich Jagden über das Eis durch. Greenpeace beschloss, dass dies ein Ende haben muss und trat eine Kampagne los mit gestellten Videos der Jagdmethode, um nicht das Fell zu beschädigen. Neben Behinderungen der Jagden, welche sorgfältig überwachte und Lebensgrundlagen erbringende Ereignisse waren, haben sie mehr Schaden als Nutzen angerichtet. Beispiel: Sie liefen auf das Eis hinaus und sprühten Flecken mit grünem Farbstoff auf die Seehunde, um ihre Felle wertlos zu machen. Das Problem dabei war, dass sie damit auch die Tarnung der Seehunde zerstörten. Möwen waren sofort zur Stelle, um ihnen die Augen auszupicken und sie damit zu töten. Ich beobachtete Orcas, die unter dem Eis heran schossen und die Seehunde packten.
Die Neufundländer reagierten mit großer Erfahrung und Humor, wie es gewöhnliche arbeitende Menschen tun. Greenpeace behauptete, dass sie die Seehunde verteidigten. Die Neufundländer sagten, dass die Seehunde den Kabeljau fraßen und dass jemand benötigt wurde, den Kabeljau zu verteidigen. Sie bildeten eine Gruppe mit der Bezeichnung Codpiece. Um den Kampf gegen die Jagd noch mehr in den Mittelpunkt zu rücken, organisierte Greenpeace einen Besuch von Brigitte Bardot, damit diese sich aus erster Hand ein Bild von den Geschehnissen machen konnte. Die Neufundländer boten auf ihre freundliche Art Hilfe an. Und was geschah, als das Flugzeug dann landete? Sie sagten, dass Ms. Bardot angemessene Kleidung gegen die kalten, nassen und glitschigen Bedingen vor Ort brauche. Erst als sie von dem Eis zurückkam, informierten sie die Dame darüber, dass ihre Schuhe und ihre Kleidung aus Seehundfell bestand.
Ich habe es mir angewöhnt zu fragen, wo der Sierra Club war, als die Wälder brannten. Genauso fragte ich jetzt, wo Greenpeace war, als die Hurrikane zuschlugen. Üblicherweise sitzen sie in ihren Lehnstühlen und machen jene schlecht, welche sich des Problems annehmen, oder sie planen noch mehr Zerstörung. Aber auf der Grundlage dessen, was ich gesehen habe, sowie sie involviert waren, sollten sie besser zu hause bleiben. Was wir tun müssen ist, genau wie die Menschen in Neufundland und Labrador, ihre Falschinformationen bloßzustellen und ins Lächerliche zu ziehen; ihr fehlendes Wissen anzuprangern und die enormen Schäden zu dokumentieren, welche sie Wirtschaft und Leben zufügen, indem sie andere Menschen niederdrücken.
Das Ergebnis der Bundestagswahl lag am Klimawandel!
|
Im Originaltext: Obradovich sets out to substantiate the idea that climate change, by threatening feelings of wellbeing, will lead to a quicker turnover of politicians and political parties“ …
… warmer than normal temperatures in the year prior to an election produce lower vote shares for parties already in power, driving quicker rates of political turnover”.
Und genau diese – für Wahlentscheidungen so wichtige – Konstellation traf auch für die aktuelle Bundestagswahl zu (Bild 2): -Genau ein Jahr vor der Wahl (Sept. 2016: 16,9 °C) war es sehr heiß und die Änderungsrichtung dahin extrem schnell (Sept. 2015: 13 °C, also eine Steigerung um +3,9 °C)
-und auch in Deutschland (nach den USA) wurden auf diese Temperaturkonstellation hin die etablierten Parteien ein Jahr danach „abgewatscht“.
Zufall kann das nicht mehr sein. Die statistischen Vertrauensbereiche – sorgfältig und unwiderlegbar genau vom Computer berechnet – sprechen eindeutig dagegen.
Der Autor gibt zerknirscht zu, dass er die Genialität der Studie damals nicht erkannt hat und sie ziemlich „durch den Kakau“ zog. Aber was stimmt, das stimmt, zum Schluss gibt immer der Erfolg recht.
Jetzt weiß man auch, warum Frau Merkel als die einzige, wirkliche Klimafachfrau im Berliner Politikzirkus zum Wahlausgang keine Wimper verzog und erklärte: „Es geht nicht darum andere Politik zu machen, denn mein Kurs war und ist richtig. Es geht darum mit den Bürgerinnen und Bürgern zu kommunizieren, damit sie verstehen lernen, dass unser Kurs richtig ist ... „
und meinte damit wohl, dass bald jeder Untertan zur Nachschulung antreten muss, sonst verliert er wie Diesel mit falscher „Softwareintelligenz“ das Bleiberecht. Schließlich kennt sie aus ihrer alten Heimat so den Umgang mit nicht stabil staatstreuen Bürgern.
Nur die (auch zum Klima) unwissende SPD und CSU hadern mit dem Ergebnis, an dem sie gar nichts ändern konnten und welches beim nächsten Temperaturumschwung schon wieder vollkommen anders werden kann.
Wer könnte auch glauben, dass ein Kanzlerkandidat, der von den Politprofis seiner Partei mit 100 % als die herausragende Spitzenkraft gekürt wurde, ein solch schlechtes Ergebnis einfährt. Dafür müssen andere Mächte verantwortlich sein. Und CO2 ist schließlich an jedem Übel auf der Welt irgendwie schuldig.
Doch nun, mit dem Wissen der Studie gewappnet, sind Ergebnisse nicht mehr in einer Glaskugel verborgen, sondern wissenschaftlich fundiert vorhersagbar! Ein Vorschlag des Autors dazu ist auf jeden Fall, bei der Terminsetzung einer eventuellen Neuwahl darauf zu achten.
Weil man damit schon bei der Septembertemperatur ist, soll zu dieser gleich noch etwas Ergänzung nachgetragen werden. Zwar hat (wie üblich) das Duo Kämpfe / Kowatsch ihren Monatsrückblick schon gebracht. Aber doppelte Information hält besser, vor allem, wenn sie sich auch mit Aspekten beschäftigt, über die sonst wenig berichtet wird. Diesmal hat der Autor dazu extra weit „über den Tellerrand“ hinaus analysiert und will die überraschenden Vorab-Ergebnisse (das zwingend erforderliche Peer-Review steht leider noch aus) den EIKE-Lesern nicht vorenthalten.
Puh, im September ist Deutschland an der Überhitzung gerade noch einmal vorbeigeschrammt
Manchen wird noch die Darstellung von Herrn Prof. Lesch (der sich inzwischen als oberbayerisches Al-Gore Double positioniert [5]) in einem seiner Klimaalarm-Videos in Erinnerung sein [1]. Obwohl das wirkliche Temperaturbild vom GISS bereits damals überholt war, zeigte er bewusst den Stand, als die (El Nino-bedingte) Temperaturspitze am höchsten – und die danach folgende Abkühlung noch nicht zu sehen war.
Inzwischen sieht man, dass auch in der Natur nichts einfach „unendlich“ weiter in den Himmel wächst.
Ein ähnliches Bild ergibt sich, wenn man den gerade vergangenen September in Deutschland betrachtet. Von einem Spitzenwert im letzten Jahr ist er direkt wieder auf den Wert der letzten Jahrhunderte herabgesunken und liegt bei der Temperatur der Jahre 1750 … 1751.
Bild 2 Deutschland, Temperaturverlauf September 1750 … 2017. Grafik anhand der DWD-Werte vom Autor erstellt
Nicht einmal dem DWD fiel dazu noch wirklich alarmistisches ein:
DWD Deutschlandwetter im September: 2017 Erheblich kühler als im Vorjahr
Im Vorjahr hatte Deutschland mit 16,9 Grad Celsius im Mittel (°C) und bis zu 8 Tagen über 30 Grad einen der wärmsten September seit Beginn der Messungen erlebt. Ein völlig anderes Bild zeigte der September des Jahres 2017: Mit 12,7 °C lag er um 0,6 Grad unter dem Soll der int. Referenzperiode 1961 bis 1990. Nicht auszudenken, der September wäre wieder warm gewesen. Aber wenn er nicht einmal seinen Sollwert schafft (seit wann gibt es das beim Klima? der Texter beim DWD ist erkennbar „Gehirngewaschen“) und auf dem Wert von 1750 liegt, will man es den Untergebenen ja nicht gleich auf die Nase binden.
Der Sommer 2017: Kühler als im Jahr 1766
Der Sommer war warm, aber keinesfalls heiß und hatte die Temperatur, welche früher wahrscheinlich als „toller Sommer“ begrüßt wurde. Legt man den Verlauf ab 1881 aus dem DWD Klimaatlas über den langfristigen Datensatz des DWD seit 1750 – wie es der Autor gemacht hat -, sieht man:
-Der Sommer 2017 hatte den Temperaturwert des Jahres 1759,
-diese Temperatur ist „normal“ und kam seit 1750 regelmäßig vor,
-die Klimasimulationen liegen bereits aktuell wieder hoffnungslos falsch und „bieten“ für 2100 eine Spanne von 5,5 Grad.
Besser lässt sich kaum noch belegen, wie unbrauchbar und unglaubwürdig die Klimasimulationen sind,
-ein alarmistischer, stetiger Anstieg ist nicht erkennbar, nur die Simulationen meinen einen zu wissen.
Bild 3 Deutschland, Temperaturverlauf Sommer 1750 … 2017 und Simulationsläufe bis 2100. Grafik anhand der DWD-Bilder und DWD Daten vom Autor zusammengestellt
Ist der Kampf gegen das Klima in Wirklichkeit ein Kampf gegen die Alterspyramide? …
Man könnte es meinen. Im folgenden Langfristverlauf der Globaltemperatur Deutschlands zeigt sich nochmals, dass die (leichte) Erwärmung bereits weit vor Beginn der Industrialisierung begonnen hat. Auch „überhitzt“ sich Deutschland keinesfalls und wird bestimmt nicht durch einen Klimawandel „lebensgefährlich“ [3].
Ganz im Gegenteil: Betrachtet man die eingetragenen Lebenserwartungen, dann explodieren diese geradezu. Doch CO2-Simulations-Gläubige kämpfen dagegen bereits an, denn: Wer soll bei einer (vielleicht) weiter gehenden Erwärmung noch die Renten und Pensionen bezahlen?
Bild 4 Deutschland, Temperaturverlauf global 1750 … 2017. Zugefügt Daten zur Lebenserwartung in Deutschland. Grafik anhand der DWD-Werte vom Autor erstellt
Ähnlich ist es mit dem Weizenertrag. Erst gegen 1930, als es seit der Zwischenkaltzeit (Minimum ca. 1850) schon wieder deutlich wärmer war, begann dem Weizen das Klima wieder zu „gefallen“ und er „zeigt“ es seitdem mit steigenden Erträgen.
Bild 5 Zusammenhang zwischen Globaltemperatur und USA-Weizenertrag. Grafik vom Autor aus verschiedenen Quellen zusammengesetzt
Selbst in Ländern, welche angeblich massiv vom Klimawandel „getroffen“ sind, gefällt das neue Klima der Population und führt zu einer zunehmenden „Fruchtbarkeitsfreude“, welche mit jeder Temperaturerhöhung zunimmt, wie es das Beispiel der Bevölkerungsentwicklung von Kenia zeigt (Bild 6).
Bild 6 Bevölkerungswachstum von Kenia seit 1960 und GISS Globaltemperatur übereinander kopiert
Die offiziellen Informationen sollen davon nur ablenken
Im vorhergehenden Absatz wurde es anhand von Bild 4 mit den eingetragenen Lebenserwartungen und Bild 6 bereits angesprochen: Der (angebliche) Klimawandel führt nicht nur zur Bevölkerungsexplosion, wie es beispielsweise jeder Bericht über Afrika neu zeigt [4], er scheint auch die Ursache der schlimmen Alterspyramide und Bevölkerungsentwicklung zu sein, welche die westliche Länder (Bild 4) und vor allem afrikanische (Bild 6) so „plagt“. Geradezu bilderbuchhafte Korrelationen – wie sie sonst nur noch zwischen dem anthropogenen CO2-Eintrag und der GISS-Globaltemperatur zu finden sind -, weisen es eindeutig aus.
in dem über angebliche, schlimme Klimawandelfolgen und Mortalitäten berichtet wird, welche der Klimawandel dort verursachen soll.
In Wirklichkeit hat Berlin ein ganz anderes Problem: Die Einwohner sterben nicht mehr „wie sie eigentlich sollten“.
Berlin.de: Sinkende Sterberate: Immer mehr Platz auf Berlins Friedhöfen* Auf Berlins Friedhöfen gibt es immer mehr freie Flächen … die Sterberate in der Hauptstadt sinkt. Starben 1991 noch 43 654 Menschen in Berlin, waren es 2010 nur noch 32 234, heißt es in der Statistik der Friedhofsverwaltung. Die Bevölkerungszahl blieb in dieser Zeit relativ konstant bei rund 3,4 Millionen. Der Rückgang hat Konsequenzen. So schrumpft auch die Zahl der Berliner Friedhöfe seit Jahren. Derzeit gibt es in der Hauptstadt 221 Begräbnisstätten, 39 davon sind allerdings geschlossen.
Diese eindeutigen Daten lassen doch nur einen Schluss zu: Der angebliche Kampf gegen die „Klimaüberhitzung“ kann in Wirklichkeit nur ein (heimlicher) Kampf gegen die Überbevölkerung und Alterspyramiden sein.
Hinweis: Die im Artikel abgeleiteten Aussagen ergeben sich einzig durch statistische Korrelation. Ob sie der Wirklichkeit entsprechen, wurde nicht überprüft, da dies bei Analysen zum Klima und EEG eigentlich nicht üblich ist..
Kanada ermittelt gegen die Skeptiker der „Klimawissenschaft“
|
Die Agentur beendete seine 14-monatige Sondierung im Juni und führte dafür als Begründung an: „die verfügbaren Beweise, die Einschätzung der Fakten in diesem Fall und um eine effektive Zuteilung begrenzter Ressourcen zu gewährleisten „, so Josephine AL Palumbo, stellvertretende Kommissarin für Wettbewerbsrecht, Direktion für irreführende Marketingpraktiken. Aber es wird seine Untersuchung wieder aufnehmen, sollte es relevante neue Informationen von der Öffentlichkeit erhalten.
Die Beschwerde wurde von Ecojustice im Auftrag von sechs „prominenten“ Kanadiern eingereicht, darunter der ehemalige Ontario NDP-Führer [neue Demokratische Partei] und UNO-Botschafter Stephen Lewis:
Re: Falsche und irreführende Darstellungen über die Realität, Ursachen und Konsequenzen von globaler Erwärmung und Klimawandel, im Widerspruch zum Wettbewerbsgesetz
Es werden drei Gruppen beschuldigt, falsche und irreführende Behauptungen über den Klimawandel zu machen: Die Sonne ist der Haupttreiber des Klimawandels, nicht Kohlendioxid und dass Kohlendioxid ist kein Schadstoff ist: Friends of Science [Freunde der Wissenschaft], the International Climate Science Coalition und das Heartland-Institut,
Als man die Beschwerde im Dezember 2015 startete, erklärte Ecojustice dem „National Observer“ [m.e. eine grüne, alarmistische Webseite, der Übersetzer], dass man die Kommissarin des Kartellamtes drängen würde, diese Angelegenheit an den Generalstaatsanwalt von Kanada für „Strafanzeigen gegen die Leugnergruppen“ zu verweisen.
[Übersetzung aus oben verlinktem Brief von Ecojustice, auf Seite 3 von 24]
TEIL II – DIE KLIMAWANDEL LEUGNUNGSSTRATEGIE
Denier Gruppen nutzen die Strategie von Frontgruppen derTabakindustrie – Angriff auf die Wissenschaft mit Falschdarstellungen, um öffentliche Zweifel am wissenschaftlichen Konsens zu schaffen
Klimawissenschaftliche Falschdarstellungen haben das Verständnis der Öffentlichkeit und die Akzeptanz der Wissenschaft des Klimawechsels in Kanada beeinflusst,
Klimawissenschaftliche falsche Darstellungen verzerren Märkte in Kanada
Als Reaktion auf den Abbruch der Untersuchung durch das Kartellamt, schrieben die Calgary-basierten Friends of Science auf ihrem Blog: „Das Kartellamt ist ein sehr wichtiges Exekutivorgan. Wir bedauern, dass deren Zeit in dieser Angelegenheit verschwendet werden musste. Wir sind kein kommerzielles Unternehmen, wir haben keine Bundes-Lobbyisten, wir sind steuerlich nicht subventioniert wie es Umwelt-Wohltätigkeitsorganisationen sind, wir stellen keine Branche dar. Wir präsentieren nur die professionellen Einsichten und Kompetenzen unseres Kernteams und vertreten die Ansichten unserer einzelnen Mitglieder (nicht von Firmen). Der typische Prozess für Anfragen beim Kartellamt ist vertraulich; Ecojustice schien das als Tribüne zur Anfrage auf Ermittlungen zu benutzen. “
Im Mai 2015 reagierte Advertising Standards Canada, ein Zusammenschluss der Werbeindustrie, auf Druck von 96 öffentlichen Beschwerden, um den Inhalt zweier Plakaten der Friends of Science in Montreal zu kommentieren: „Die Sonne ist der Haupttreiber der Klimaveränderung. Nicht Sie. Nicht CO2″ [stand auf den Plakaten]. Das sind kategorische und unmissverständliche Behauptungen … die durch das Weglassen von relevanten Informationen und nicht durch überwiegende Beweise für die streitigen Angelegenheiten unterstützt werden, dass eine Reihe von Faktoren zum Klimawandel geführt haben, von denen die Sonne nur einer ist.“
[ Advertising Standards Canada scheint mir ein Abmahnverein zu sein. Der hier beschriebene Vorgang findet sich hier auf der „schwarzen Liste“, bis etwa Mitte herunter scrollen, der Übersetzer]
[Übersetzung der Anklage gegen Friends of Sciensce, Kopie teilweise]
Beschwerden: 96
Beschreibung:
Die in Frage gestellte Werbung erschien auf zwei Plakaten im Montrealer Gebiet. Eine Anschlagtafel zeigte prominent die Behauptung, dass „die Sonne der Haupttreiber des Klimawandels ist. Nicht du. Nicht CO2 „; das andere, dass „Die Globale Erwärmung hörte vor 16+ Jahren ganz natürlich auf“. Beide Anschlagtafeln führen die Öffentlichkeit dazu, die Website des Werbetreibenden zu besuchen, um mehr zu erfahren.
Beschwerde:
Die Beschwerdeführer behaupteten, dass die Anzeigen irreführend seien, weil die Behauptungen nicht auf gültigen wissenschaftlichen Beweisen beruhten und nicht unterstützt werden können.
Als jemand, der seit einem Jahrzehnt ausführlich über den Klimawandel schreibt, ist meine Ansicht, dass das alles Wahnsinn ist. Wir treten in gefährliches Territorium ein, ein grundlegender Angriff auf freie Rede.
Wenn wir die Agenturen der Bundesregierung benutzen, um „Klima-Leugner“ zu untersuchen und sogar zu verfolgen, um „falsche und irreführende Behauptungen“ zu machen, dann lasst uns das auch für „Klimaalarmisten“ tun, die das gleiche schon eine ganze Zeit lang machen.
Ich lese und höre, dass Politiker „falsche und irreführende Behauptungen“ über den Klimawandel fast täglich machen, vor allem in Bezug auf das, was die föderalen und provinziellen CO2-Preisgestaltung tatsächlich erreichen wird, im Gegensatz zu dem, was unsere Regierungen behaupten, dass sie schaffen werden.
Aber der Weg, um diese Entscheidungen zu fällen, kann nur durch die öffentliche Debatte erreicht werden, und nicht durch eine Agentur der Bundesregierung, um die Menschen zum Schweigen zu bringen, mit denen man nicht einverstanden ist, vor allem wenn eine Regierung selbst falsche und irreführende Behauptungen über den vom Menschen verursachten Klimawandel macht.
An Kommentaren zu diesem Vorgang ist in Kanada einiges zu finden. Davon fielen mir besonders auf:
Kanada ermittel gegen Klimawandel Leugner
Gordon, Teilkopie
… Aber natürlich war die Untersuchung selbst die Strafe . Es ist gewollt, eine Botschaft an die Organisation zu schicken, dass sie zur Zielscheibe der Regierung geworden sind. Sie stehen der Klimawandel-Agenda im Weg. Es ist eine globale Anstrengung der Regierungen, die Schritte zur Rettung der Menschheit zu unternehmen, indem sie sie versklaven. Wenn wir nicht die Kontrolle über unser Land, unsere Geschäfte, unsere Nahrung und unseren Treibstoff an die Regierungen abtreten, ist die Menschheit zum Scheitern verurteilt.
Aber die Untersuchung sendet auch eine Botschaft an die unwissende Öffentlichkeit. Es heißt, achte nicht auf diese Leute. Ihnen kann nicht vertraut werden, nicht einmal die Regierung vertraut ihnen! Unabhängig davon, was sie sagen, eine Untersuchung ist so gut wie Schuld.
Wahrheit braucht keine Bedrohungen
Auch wenn Sie zu 100% glauben, dass Menschen den Klimawandel verursacht haben, warum brauchen wir die Regierung, um diesen Glauben zu erzwingen? Wird das nicht nur mehr Alarmzeichen hervorrufen, wenn sie verzweifelt versuchen, dass die Leute nur eine Seite der Wissenschaft hören?
Kanadischer Autoritarismus: Verfolgung von Menschen mit den falschen Meinungen
…
[Etwa: Bizarres Missverständnis: @HillaryClinton denkt, die Lektion aus Orwells 1984 ist, dass die Menschen den Experten, den Regierungen und der Presse vertrauen sollten]
Korrektur: Es muss wohl für China 4400 TWh heißen (D hat etwa 620 TWh/a). Und installiert sind wohl 1000 GW in Kohle, die damit zu etwa 50% ausgelastet sind.