1

Jüngste Studie mit der Prophe­zeiung „könnte noch viel schlimmer sein als prophe­zeit“ ist massen­haft heiße Luft

Der Artikel wird eingeleitet durch Doyles charakteristisches „Das Ende ist nahe herbeigekommen“ – Banner mit den Worten „Kollabierende polare Eiskappen, eine grüne Sahara, ein Meeresspiegelanstieg um 20 Fuß“ [ca. 6 Meter].

Nehmen wir uns mal Doyles Müll vor, Punkt für törichten Punkt:

Kollabierende polare Eiskappen: Doyle hat vergessen zu erwähnen, dass sich bis auf die letzten Jahre das antarktische Meereis ausgeweitet hat, oder das sowohl in der Antarktis (die 90% der weltweiten Eismasse besitzt) als auch in Grönland (5%) eine auffallende Korrelation zwischen Gebieten mit untermeerischer Vulkanaktivität und Gebieten mit Eisverlust besteht, oder dass in der Antarktis jüngst ein neuer globaler Kälterekord gemessen worden ist.

Eine grüne Sahara: Irgendwie hat es Doyle fertig gebracht, ebenfalls nicht zu erwähnen, dass die Ergrünung einer Wüste (bereits 1981 gab es erste Berichte über eine Ergrünung der Sahara, das ist also nichts Neues) etwas Gutes ist, ebenso wie ein Rückgang des Permafrostes in Russland und Nordkanada etwas Gutes ist, würden sich dadurch doch riesige neue Flächen für den Ackerbau erschließen.

Ein Meeresspiegelanstieg um 20 Fuß: Direkt gesagt, die Welt langweilt sich immer mehr durch diesen ,kalten Kaffee‘. Das IPCC hat uns Anstiege des Meeresspiegels um 20 Fuß seit Jahrzehnten eingehämmert, aber niemand kümmert sich noch darum, weil der Meeresspiegel mit 8 Inches [ca. 20 cm] pro Jahrhundert und nicht mit 20 Fuß steigt. Sogar noch in Al Gores Science-Fiction-Horrorkomödie A Profitable Fiction wurde diese idiotische 20-Fuß-Berhauptung erhoben. Aber genau in jenem Jahr, als Gore den Film drehte, kaufte er sich eine Villa im Wert von 4 Millionen Dollar auf – Moment – richtig, Fisherman’s Wharf, San Francisco, nicht einmal einen Meter entfernt vom vermeintlich steigenden Ozean. Folge dem Geld, geliebter Doyle!

Eine Weltkarte in Falschfarben-Darstellung: Immer wieder – das haben wir doch alles schon gesehen:

In der Bildinschrift heißt es: „Diese Karte zeigt die globale mittlere Temperatur der Erde von 2013 bis 2017 im Vergleich zur Referenzperiode 1951 bis 1980 und ist eine Analyse des GISS der NASA. Gelbe, orange und rote Regionen waren wärmer als die Referenzperiode“.

Aber ja doch, schon gut. Färben wir die Karte einmal anders ein: Neue Bildinschrift: Grüne Regionen sind die Gebiete, in denen die Welt von dem geringfügig wärmeren Wetter profitiert hat“.

Mit ermüdender Impertinenz betont Doyle, dass die „globale Erwärmung zweimal so stark ausfallen könnte als die Klimamodelle prophezeien“. Oder es könnte aber auch halb so schnell eintreten als die Modelle prophezeien – genau wie es seit den siebziger Jahren der Fall war – nur das Doyle das unter den Tisch fallen lässt. Ich komme gleich noch einmal auf diesen Punkt zurück.

Des Weiteren sagt Doyle: „Auch die Rate der Erwärmung ist bemerkenswert: Die Änderungen, die wir heute sehen, gehen viel schneller vonstatten als irgendwann sonst in der Erdgeschichte. Ausgedrückt als Änderungsrate bewegen wir uns in fremden Gewässern. Das sagte die Mitautorin der Studie Katrin Meissner von der University of New South Wales in Australien“.

Und zeigte er ihr – oder den wenigen, noch bei USA Today verbliebenen Lesern – die folgende Graphik der Temperaturaufzeichnung von Zentral-England CET) über den Zeitraum 1694 bis 1733? Äh, nein. Die CET-Aufzeichnung ist eine ziemlich respektable Proxy für globale Temperaturänderungen, und sie zeigt – wie viele andere Beweislinien vom Ende der Kleinen Eiszeit an – dass 40 Jahre lang die Änderung äquivalent war zu 4,33 K pro Jahrhundert – das war etwa zweimal so schnell als die höchste Rate, die jemals in einem 40-Jahre-Zeitraum aufgetreten war, seit der Mensch im Jahre 1950 begann, das Klima zu beeinflussen[?].

Doyle gräbt noch weiter in die Tiefe: „Dies könnte bedeuten, dass der Eckpfeiler Pariser Klima-Abkommen – welcher verlangt, die globale Erwärmung auf 2°C über dem vorindustriellen Niveau zu begrenzen – nicht ausreichen könnte, um die Katastrophe abzuwenden“.

Wie jedoch die jährliche statistische Übersicht von BP für das Jahr 2018 zeigt, ist das Wachstum des BIP und des Energieverbrauchs ein gutes Stück stärker als in den Nicht-OECD-Ländern, auf die der „Eckpfeiler“ Paris-Abkommen nur in wenigen Fällen zutrifft. In den OECD-Ländern gilt es dagegen allgemein.

Und sagt Doyle seinen Lesern, dass nach 20 Jahren politisierter Berichterstattung durch Leute wie ihn der Anteil der Kohle an der globalen Energieerzeugung 38% ausmacht und damit genau so hoch liegt wie vor 20 Jahren? Nein, sagt er nicht!

Einer plappert dem langweiligen Doyle noch langweiliger nach: „Selbst mit nur 2 Grad Erwärmung – und potentiell 1,5 Grad – sind bedeutende Auswirkungen auf die Erde tiefgreifend“, sagt der Mitautor der Studie Alan Mix, ein Wissenschaftler an der Oregon State University. „Wir können erwarten, dass der Anstieg des Meeresspiegel unaufhaltbar für Jahrtausende wird, was einen Großteil der Erdbevölkerung, Infrastruktur und Ökonomie betreffen würde“.

Prof. Nils-Axel Mörner, welcher den Meeresspiegel seit nunmehr einem halben Jahrhundert studiert und über 650 Studien hierzu geschrieben hat, sagt, dass der mittlere Anstieg des Meeresspiegels im vorigen Jahrhundert 8 Inches [ca. 20 cm] betragen hatte und in diesem Jahrhundert 6 Inches [ca. 15 cm ±2 cm] betragen wird. Vieles des offensichtlichen „Meeresspiegel-Anstiegs“ in den offiziellen Aufzeichnungen ist künstlich hinein expediert worden mittels Bearbeitungen wie etwa der fiktiven „glazialen isostatischen Adjustierung“ (siehe Diagramm oben).

Und jetzt zu diesem „schlimmer als wir dachten“-Narrativ: „Der Leitautor der Studie Hubertus Fischer von der University of Bern in der Schweiz und sein Team fanden heraus, dass unsere derzeitigen Klima-Prophezeiungen die langfristige Erwärmung um einen Faktor bis zu zwei unterschätzen könnten“, sagt Katrin Meissner. „Klimamodelle scheinen bzgl. kleinen Änderungen vertrauenswürdig wie etwa bei Szenarien geringer Emissionen über kurze Zeiträume wie etwa die nächsten Jahrzehnte bis zum Jahr 2100. Aber mit der immer größer werdenden Änderung … scheint es so, als ob sie den Klimawandel unterschätzen“.

Hat Doyle irgendetwas von diesem Unsinn gecheckt, bevor er es einfach nachplapperte? Natürlich nicht! Alles was er gecheckt hat war, ob diese „Ergebnisse“ der Parteilinie folgten. Und das war es dann.

Wir haben bereits gesehen, dass das Statement von Doyle, die jüngste Erwärmung sei beispiellos, absoluter Quatsch ist. Schauen wir jetzt einmal auf seine Wiederholung der Aussage, dass „gegenwärtige Klima-Prophezeiungen die langfristige Erwärmung um einen Faktor bis hin zu zwei unterschätzen könnten“.

Wir wollen dieses Statement in zwei Richtungen unter die Lupe nehmen: erstens, geht die gegenwärtige Erwärmung über bestehende Prophezeiungen hinaus, und zweitens, ob es wahrscheinlich ist, dass sich die Erwärmung viele Male beschleunigen wird, um den neuen „Schlimmer-als-wir-dachten“-Prophezeiungen zu folgen.

Das sehr große Intervall der IPCC-Prophezeiungen aus dem Jahr 1990 wird markiert durch die gelbe Fläche in der Graphik oben. Die hellblaue Trendlinie ist der Trend der linearen Regression kleinster Quadrate des Mittels der globalen Temperatur-Anomalien der Datensätze von NCEI und UAH im Zeitraum 1990 bis Mai 2018. Die beobachtete Rate der globalen Erwärmung liegt vollständig unter den Original-Prophezeiungen des IPCC und nicht viel über der Hälfte von dessen mittelfristiger Prophezeiung.

Um über doppelt so hoch zu werden wie die mittelfristige Prophezeiung des IPCC müsste die Erwärmungsrate um mehr als das Dreifache zunehmen, von 1,55 K pro Jahrhundert auf ein Äquivalent zu 5,55 K pro Jahrhundert.

Was ist mit den Computermodellen? Im CMIP5-Ensemble beträgt die mittlere Schätzung der Gleichgewichts-Sensitivität bei einer CO2-Verdoppelung 3,35 K (abgeleitet von Andrews 2012). Dieser Wert liegt nahe demjenigen, der sich ergibt, wenn man die Erwärmung im 21. Jahrhundert bei Verbrauch aller vom Menschen genutzten Quellen schätzt. Um die mittlere Rate der CMIP5-Modelle zu verdoppeln, müsste sich die Erwärmungsrate mehr als vervierfachen, nämlich von 1,55 K pro Jahrhundert auf ein Äquivalent von 6,7 K pro Jahrhundert.

Das wird sicher nicht geschehen – oder, falls doch, wird der winzige Einfluss des Menschen auf das Klima nicht dafür verantwortlich sein. Um dem arithmetisch unbedarften Doyle aufzuzeigen, warum die globale Erwärmung weniger als halb so hoch anstatt doppelt so hoch sein wird wie prophezeit, wollen wir mal die Mathematik für ihn durchgehen.

Aus Andrews 2012 geht hervor, dass der Strahlungsantrieb eines verdoppelten CO2-Gehaltes etwa 3,464 W/m² beträgt. Der Planck’sche Sensitivitäts-Parameter beträgt 0,299 K pro Watt pro m² (Schlesinger 1985). Folglich beträgt die Referenz-Sensitivität bei CO2-Verdoppelung vor Berücksichtigung der Rückkopplung das Produkt aus beidem: also 1,035 K.

Da die Differenz zwischen der Referenz- und der Gleichgewichts-Sensitivität allein durch den Rückkopplungs-Faktor zustande kommt (d. h. dem Bruchteil der Gleichgewichts-Temperatur, der durch Rückkopplung bestimmt wird), müssen wir lediglich jenen Rückkopplungs-Faktor herausfinden. Das ist der Heilige Gral der Studien zur Klimasensitivität.

Das IPCC erwähnt „Rückkopplung“ [feedback] über 1000 mal in seinem 5. Zustandsbericht 2013, hat aber keinerlei Ahnung über dessen wahren Wert. Warum nicht? Weil Hansen bei der NASA im Jahre 1985 einen haarsträubenden physikalischen Fehler gemacht hat, welchen Klimatologen seitdem immer wieder sehr profitabel kopiert haben.

James Hansen, Ex-Chef des NASA GISS, hätte man vielleicht verhaften sollen wegen schlechter Wissenschaft.

Nach Lacis et al. 2010 beträgt die Albedo beim Fehlen von Treibhausgasen 0,418 verglichen mit dem heutigen Wert von 0,293. Die Einstrahlung beträgt derzeit 1364,625 W/m² (Mekaouni et al. 2010). Hierzu sollten wir den direkten Antrieb von etwa 38,6 W/m² aus der Existenz nicht kondensierender Treibhausgase addieren. Mit diesen Daten sagt uns die grundlegende Gleichung des Strahlungstransports, dass die Emissionstemperatur, welche auf der Oberfläche beim Fehlen von Treibhausgasen herrschen würde, 254,3 K betragen würde vor irgendwelcher Berücksichtigung von Temperatur-Rückkopplungen.

Allerdings betrug die Oberflächen-Temperatur im Jahre 1850 vor irgendeiner anthropogenen Beeinflussung 287,55 K (HadCRUT4). Aus diesen Werten können wir direkt den bislang schwer fassbaren Rückkopplungs-Faktor ableiten. Er beträgt einfach 1 – 254,3/287,55 oder 0,116. Und nicht die von den üblichen Verdächtigen ins Spiel gebrachten 0,6 bis 0,9. Seit Hansens katastrophaler Studie aus dem Jahr 1984 hat die Klimawissenschaft im Endeffekt eine Gleichung zur Repräsentation des Einflusses von Rückkopplungen auf die Temperatur benutzt, die – obgleich nicht falsch – unvollständig ist und die daher den Rückkopplungs-Faktor gar nicht korrekt bestimmen kann.

Wie die offizielle Klimatologie die Sonne fälschlich hinaus expedierte und hinsichtlich der globalen Erwärmung falsch lag. Dessen Variante ist die Differenz zwischen zwei Gleichgewichts-Zuständen der vollständigen Mainstream-Gleichung.

Die falsche Variante der System-Erhaltungs-Gleichung [system-gain equation] der Klimatologie, welche in der Kontroll-Theorie allgemein ist – das Studium von Rückkopplungen in dynamischen Systemen (Systeme, die ihren Zustand mit der Zeit ändern) – ist im Grunde die Differenz zwischen zwei Gleichgewichts-Zuständen in der vollständigen Mainstream-Gleichung.

Da die Emissionstemperatur in allen Gleichgewichts-Zuständen die Gleiche ist, subtrahiert Hansens Anwendung einer Gleichung, welche diese Differenz beschreibt, die Sonnenwärme hinaus – der grundlegende Input, von welchem die Rückkopplungs-Reaktion abhängt. Darum ist der Rückkopplungs-Faktor bis jetzt um das Sechsfache und die Klima-Sensitivität um das Vierfache übertrieben worden.

Wie hat sich alles nun verändert seit dem Jahr 1850? Nun, es gab 2,29 W/m² gesamt-anthropogenen Antrieb (IPCC 2013, Abb. SPM.5). Man multipliziere diesen Wert mit dem Planck-Parameter 0,299, um die Referenz-Erwärmung von 1850 bis 2011 zu erhalten, welche dem Menschen zugeordnet werden kann: etwa 0,7 K. Aber es gab eine Erwärmung um 0,75 K von 1850 bis 2011 (wieder HadCRUT4), und dazu können wir noch 0,25 K addieren, so dass sich insgesamt 1 K ergibt, um dem „Strahlungs-Ungleichgewicht“, das man sich vorgestellt hat (und das vielleicht imaginär ist) von 0,6 W/m² über diesen Zeitraum, Rechnung zu tragen.

Also beträgt der Rückkopplungs-Faktor für das Jahr 2011 1 – (254,3 + 0,7) / (287,55 + 1,0) = 0,116. Das ist genau der gleiche Wert wie im Jahre 1850. Bis auf drei Dezimalstellen handelt es sich also um den gleichen Rückkoplungs-Faktor wie 1850. Warum nur so eine geringe Änderung? Der Grund ist, dass die Referenz-Erwärmung von 0,7 K durch den Einfluss des Menschen so winzig ist im Vergleich zu den 254,3 K Beitrag durch die Sonne und durch die schon immer vorhandenen Treibhausgase.

Da wir jetzt den Rückkopplungs-Faktor kennen, können wir die Gleichgewichts-Sensitivität bei einer Verdoppelung der CO2-Konzentration ableiten. Es ist einfach das Verhältnis der Referenz-Erwärmung von 1,035 K bei einer CO2-Verdoppelung auf (1 – 0,116), welche weniger als 1,2 K ausmacht. Es sind mit Sicherheit nicht die vom IPCC prophezeiten 1,5 bis 4,5 K und auch nicht die von den CMIP5-Modellen prophezeiten 2,1 bis 4,7 K – und mit Sicherheit nicht die 6,7 K, auf denen Doyles dummer, extremistischer Artikel fußt. Die Parteilinie kann die Mathematik nicht ersetzen.

Link: https://wattsupwiththat.com/2018/07/09/latest-paper-predicting-global-warming-could-be-far-worse-than-predicted-is-so-much-hot-air/

Übersetzt von Chris Frey EIKE




Klimawandel und Dinner Parties

In der Tat wird jedes Ungewöhnliche- oder Extremwetterereignis fast immer von einem wissenden Nicken und dem Verweis auf den Klimawandel begleitet.

Der Glaube an die globale Erwärmung ist selbst zur Quasi-Religion geworden und man steht vor der offensichtlichen Wahl zwischen erleuchteter Bestätigung oder „anti-wissenschaftlichem“ Unglauben. Für diejenigen, die nicht bereit sind, sich an diese binäre Zwangsjacke zu halten, gibt es hier eine Liste von vernünftigen Positionen, die man bei jeder Party oder geselliger Zusammenkunft von mäßig gut informierten Leuten vertreten kann. Betrachten Sie es als Ihre Möglichkeit für eine intelligente, höfliche Konversation, während Sie dem fairen Betrachten eines schwierigen und komplexen Problems treu bleiben.

 

  • „97% können nicht falsch liegen“

Dies ist die vielleicht irreführendste Aussage, die von den Klimawandel-Alarmisten gemacht wird. Uns wird ständig gesagt, dass es einen „Konsens“ der wissenschaftlichen Meinung gibt, dass Klimaänderungen vom Menschen verursachte werden und dass radikale Veränderungen in Politik und Verhalten erforderlich sind. Ein klassisches Beispiel ist der Tweet von Präsident Obama: „Siebenundneunzig Prozent der Wissenschaftler sind sich einig: Der Klimawandel ist real, vom Menschen gemacht und gefährlich.“ Die Botschaft ist offensichtlich: „Wer kann da anderer Meinung sein?“.
Also, in was genau stimmen die Wissenschaftler überein?

Die Antwort lautet, dass Klimawissenschaftler eine Vielzahl von Meinungen vertreten, angefangen von „Das Klima ändert sich schon immer“ und „Menschen haben einen gewissen Einfluss auf das Klima“ bis hin zu „Wir werden einen katastrophalen Klimawandel haben, wenn wir nicht alle fossilen Brennstoffe ersetzen.“  Die meisten Klimawissenschaftler würden den ersten beiden Aussagen zustimmen, während sie bei  der dritten ernsthafte Vorbehalte, wenn nicht starke Meinungsverschiedenheiten ausdrücken.

Wenn man also auf das „97% -Konsens“ Argument stößt, wäre es das beste Gegenmittel, zuerst die Zustimmung zum Offensichtlichen auszudrücken und gleichzeitig eine nüchterne Reflexion über die Frage „Was soll man machen?“ zu fordern.  Angemessene politische Maßnahmen müssen alle wirtschaftlichen Kostennachteile und erreichbare Vorteile und die Verteilung der Belastungen auf die Bevölkerung berücksichtigen. Ihre Dinner-Begleiter können Ihnen diese vernünftige Position nicht vorwerfen.

 

  • Extremes Wetter: Ich habe es Ihnen gesagt.

Kaum eine Woche vergeht in diesen Tagen ohne Medienberichte über extreme Wetterereignisse und ihre angebliche Verbindung zur Erderwärmung. Es gibt jedoch wenig oder keine Beweise, die bestimmte Wetterereignisse mit dem Klimawandel in Verbindung bringen. Dies ist die Position nicht nur vieler seriöser Wissenschaftler, sondern auch der großen Gruppe von Wissenschaftlern, die am Weltklimarat der Vereinten Nationen (IPCC) beteiligt sind. Nach dem IPCC:

„Insgesamt gibt es keine Beweise dafür, dass extreme Wetterereignisse oder Klimaschwankungen im 20. Jahrhundert weltweit zugenommen haben …“.

Das Wetter und der Klimawandel sind zwei verschiedene Phänomene, ein nicht vorher bestimmbares  und kurzfristiges, das andere kumulativ (statistisch) und langfristig (über 30 Jahre). [Das Wetter erlebt man täglich und kann es nur für wenige Tage voraussagen, das Klima ergibt sich ausschließlich aus der statistischen Zusammenfassung aufgezeichneter, d.h. vergangener Wetterdaten]

Die Verbindungen zwischen den beiden sind dürftig und Kausalität ist nach unserem derzeitigen Wissensstand schwer zu beweisen. Das Sprichwort „Eine Schwalbe macht noch keinen Sommer“ erinnert nicht nur Ihre Mitgäste an diese grundlegende Weisheit, sondern zeigt auch Ihre literarische Neigung.

 

  • Die Achse des Bösen: Kohle, Öl und Gas

In diesen Tagen, wenn „Grün“ ein Maß für die eigene Tugend ist, und alle Unterstützung (auf Kosten der Steuerzahler) für Sonnen- und Windenergie eine erleuchtete Position darstellt, ist die Wahrheit viel weniger bequem. Die Entwicklung der menschlichen Zivilisation ist auch eine Geschichte der Entwicklung fossiler Brennstoffe.  Von der ursprünglichen Verwendung von Holz, Stroh und Kuhdung hat das außerordentliche Wachstum fossiler Brennstoffe, angefangen mit dem Kohleabbau und der industriellen Revolution im 19. Jahrhundert, billige und zuverlässige Energie für die Bedürfnisse der Menschen auf der ganzen Welt bereitgestellt. Die Verwendung von fossilen Brennstoffen hat Wälder wieder zurückgebracht und mühsame Anstrengungen der Menschen gemildert, indem es einen höheren Lebensstandard auch für die einfachen Leute ermöglicht hat, die glücklich sind, sich zuverlässige Energie leisten zu können.

Der leitende Wirtschaftsberater der indischen Regierung, Arvind Subramanian, stellte kürzlich fest, dass Indien, wie andere Entwicklungsländer, es nicht zulassen kann, dass die Behauptungen des „Kohlenstoffimperialismus“ einer realistischen Planung im Weg stehen. Letzteres würde beinhalten, die beste Technologie bei der Nutzung billiger Kohle für die Stromerzeugung einzusetzen, die Verwendung sauberer fossiler Brennstoffe wie Erdgas zu erhöhen und die versteckten Kosten der intermittierenden Technologien wie Wind- und Solarenergie anzuerkennen.

Nach den gewaltigen Investitionen Deutschlands in diese neuen Technologien im Zuge des Atomausstiegs, hat das Nachrichtenmagazin „Der Spiegel“ eine Geschichte über die Energiearmut des Landes mit dem Untertitel “How Electricity Became a Luxury Good”. [„Luxus Strom“ von 2013 liegt hinter einer Bezahlsperre]. Dieses Beispiel wird nützlich sein, wenn Sie mit einem Gast aus einem westlichen Industrieland sprechen. Sie werden deutlich gemacht haben, dass nicht nur die Entwicklungsländer eine legitime andere Perspektive haben könnten, sondern sogar unter den OECD-Ländern gibt es ernsthafte ungelöste Probleme, die es verhindern, die Abhängigkeit von fossilen Brennstoffen drastisch zu reduzieren.

 

  • Das Ende der Welt: „Was ist mit unseren Kindern?“

Emotionale Erpressung bei Benefizveranstaltungen ist keine Seltenheit, und diese Linie wird oft von den Alarmisten benutzt. Aber Ihr Party-Gesprächspartner kann sich nicht hinter einer pauschalen Anklage wegen „Katastrophe“ verstecken. Die besten aktuellen Modelle, die den Klimawandel mit wirtschaftlichen Auswirkungen verbinden, werden bis zum Jahr 2100 und darüber hinaus Kosten von 10% oder weniger des globalen Bruttoinlandsprodukts verursachen. John Cochrane von der University of Chicago meint: „Das ist eine Menge Geld, aber das sind auch viele Jahre“. Bis zu diesem Zeitpunkt könnte es klüger sein, ein hohes Wirtschaftswachstum anzustreben und ausreichende Forschung und Entwicklung – Budgets für neue Technologien zur Anpassung an den Klimawandel sicherzustellen.

Nicht nur der Klimawandel ist die Quelle von Armageddon-Szenarien [~ das Jüngste Gericht] Was ist bei einem Atomkrieg durch einen Schurkenstaat, einem super-kolossalen Vulkanausbruch oder einer globalen Pandemie, wenn Antibiotika im Kampf gegen sich ständig verändernde Bakterien verlieren? „Schließen Sie eine Versicherung ab“, könnte Ihr Gegenüber auf der Dinner Party vielleicht mit einem Grinsen widersprechen. Nun, wie jeder mit einem begrenzten Budget wissen wird, wird der Abschluss einer Versicherung zu hohen Prämien für alle möglichen katastrophalen Risiken dazu führen, dass Ihnen bald das Geld ausgeht. Ihr Freund auf der Dinner Party wird daran erinnert werden müssen, dass die Politik der globalen Erwärmung um knappe Ressourcen konkurrieren muss, um andere glaubwürdigere und realere Bedrohungen für das menschliche Wohlergehen wie Malaria, schmutziges Wasser und Unterernährung von Kindern zu mildern, die den menschlichen Zustand schon jetzt bedrohen.

Inzwischen werden Sie Ihre Gespräche als vernünftiger Beobachter der Debatte über den Klimawandel in einem unaufgeregten  Kontext geführt haben. Sie werden einigen Ihrer mehr aufgeregten Party-Freunden die dringend benötigte Mäßigung vermitteln. Wer weiß, vielleicht bekommen Sie sogar ein Date, oder wenn Sie schon verheiratet sind, wird Ihr Partner Sie noch mehr für Ihren feinen (meteorologischen) Geist lieben.

Gastbeitrag von Tilak K. Doshi

Dr. Tilak K. Doshi ist Berater für Energiewirtschaft und Autor von „Singapur in einer Post-Kyoto-Welt: Energie, Umwelt und Wirtschaft“, veröffentlicht vom Institut für Südostasiatische Studien (Singapur, 2015).

Eine frühere Version dieser Geschichte wurde ursprünglich in der Asia Times am 29. September 2017 veröffentlicht: 
http://www.atimes.com/dinner-parties-climate-change-guide/ 

Gefunden auf WUWT vom 15.07.2018

Übersetzt durch Andreas Demmig




Energiewende- Wendeenergie-– Halbjahresrekord

H wie

Halbjahresrekord, der

Rekorde gibt es immer wieder. Wenn man sie bestimmten Zeiträumen zuordnet, ist die Unterteilung in Tages-, Wochen- oder eben Halbjahresrekorde möglich. Ein solcher wurde jüngst im SPIEGEL vermeldet und bezieht sich nicht auf Sonnenstunden, Regenmengen oder die Roheisenproduktion in Nordkorea. Inhalt der Meldung ist die Tatsache, dass in den ersten sechs Monaten 2018 eine Rekordmenge von Strom aus den so genannten Erneuerbaren Energien erzeugt wurde. Im Grunde wäre dieser Rekord keine Extra-Meldung wert, denn der Zubau an Neuanlagen (2017 zu 2016: Wind plus 6.400 Megawatt installierter Leistung, Sonne plus 1.750 Megawatt) sollte natürlich folgerichtig zu höherer Produktion führen. Nichtsdestotrotz kann man sich darauf nicht verlassen, beispielsweise war das Windjahr 2016 ausnehmend schwach und trotz Zubau von 10.100 Megawatt installierter Windleistung, ging die Jahresproduktion sogar zurück (minus 0,6 Milliarden Kilowattstunden zu 2015). Nun war der Windgott gnädig und bescherte uns einen Halbjahresrekord.

Das muss gefeiert werden und der Spiegel tut es, indem er nur einen Ausschnitt der Realität berichtet. Das Thema des Energiewende-Erfolgsjournalismus beschrieb ich erst vor kurzem, auch zur Sinnfälligkeit blanker Zahlen der Stromerzeugung ist im Grunde alles gesagt. Der „Spiegel“ übernimmt von E.on-Energie, dass die erzeugte Menge ausreichen würde, alle deutschen Haushalte bei einem Jahresverbrauch von 2.500 Kilowattstunden zu „versorgen“. Allerdings brauchen die Haushalte nachts weniger als früh oder abends und der Wind weht mal mehr, mal gar nicht. Und wenn die Sonne untergeht, machen die Leute das Licht an. Fake in Reinform, rechnerisch richtig, aber praktisch ohne Relevanz. Der „Spiegel“ als Vorspiegler einer Wunschwelt. Auch konkrete Daten werden genannt. Am 3. Januar gab es die bisher höchste Einspeisung von 1,1 Milliarden Kilowattstunden, was Sturmtief Burglind zu verdanken war. Am 28. Januar wurden 71,6 Prozent des Strombedarfs durch „Erneuerbare“ gedeckt. Ein Sonntag, hohe Einspeisung traf auf geringen Verbrauch. Gutes Journalistenhandwerk wäre nun, auch die Antipoden zu benennen. Beispielsweise die folgenden Windleistungen:

Die Minimalleistungen des Windstroms verharren seit Jahren in einem zu vernachlässigenden Bereich. Natürlich ist es eine Plattheit und ein grundlegender Zweifel an menschlicher Intelligenz, ständig wiederholen zu müssen, dass bei Windstille die Anzahl stehender Windkraftanlagen irrelevant ist. Null mal X ist null. Bei Journalisten und einigen durch unser Bildungssystem geprägten Menschen ist es offensichtlich nötig.

Die Einsicht, dass Windstrom nicht geregelt eingespeist wird, mithin Millionen von Haushalten nicht versorgen kann, ist so simpel, dass die Verbreitung anderslautender Fakes durch die Branche und durch Journalisten mit ganzer Kraft betrieben wird.

Der Vergleich mit den Erfolgsmeldungen der verblichenen DDR ist natürlich schräg, aber er zeigt schon die Parallele der Tendenzberichterstattung. Rekorde in der DDR gab es häufig. Die Produktion von Stahl, Zement und Dederon-Gewebe wurden in Erfolgsmeldungen gegossen wie auch die von Braunkohlekoks und Caprolactam aus der Chemieindustrie. Tote Flüsse und Bitterfelder Luft waren verschwiegene und nicht weniger als menschenfeindliche Zeichen eines scheiternden Systems. Die Erfolgsmeldungen von heute verschweigen weitgehend die lebensfeindliche Kehrseite des exzessiven Ausbaus der „Erneuerbaren“, insbesondere der Windkraft.

Eine Untersuchung der Uni Mainz zeigt nach einem Experiment, dass die Infraschallbelastung auf den menschlichen Körper Wirkung hat, insbesondere auf den Herzmuskel. Windkraftgegner haben das Thema schon lange thematisiert, dringen aber medial kaum durch. Die Branche stellt sie als fortschrittsfeindliche Psychopathen dar, die ihre vorhandenen gesundheitlichen Probleme auf die Windkraftanlagen schieben wollen. Wurde der Atomausstieg 2011 noch damit gerechtfertigt, dass der Staat einem „Gebot äußerster Vorsorge“ (Energiespezialist Röttgen) folgen müsse, gilt dieses Gebot bei Windkraftanlagen offenbar nicht. Ein Ausbaumoratorium, wie es de facto in Dänemark schon besteht, wäre sonst die logische Folge.

Klimaschutz schlägt Umweltschutz

Hauptbetroffene sind auch Greifvögel und Fledermäuse, auch hier gilt ein flexibler Maßstab. Der Bau der Waldschlößchenbrücke in Dresden vor einigen Jahren, wurde fast durch eine Fledermaus zu Fall gebracht. Durch angepasste Beleuchtung der Brücke und Festlegung von Tempo 30 jedes Jahr ab April, gelang der Brückenschlag doch noch. So zimperlich geht man bei Windkraftanlagen nicht vor. Tausende Fledermäuse werden von Grünen und Umweltverbänden wie dem BUND verraten.

Fledermäuse müssen nicht von Rotorblättern getroffen werden, die Luftdruckunterschiede vor und nach den Anlagen reichen aus, ihre filigranen Lungen platzen zu lassen. Greifvögel wiederum, sonst Hindernissen ausweichend, kennen aus der Natur keine Objekte, die sich mit 300 Stundenkilometern bewegen wie die Flügelspitzen der Rotorblätter und werden einfach geschreddert.

Dass Umweltschutz und Klimaschutz zwei völlig verschiedene Paar Schuhe sind, sagte der damalige Energiewendeminister in Schleswig-Holstein, Robert Habeck, bereits 2012 in einem „Welt“-Interview unumwunden:

„Ich bin für Naturschutz und Energiewende verantwortlich und kann deshalb klar sagen, dass die Energiewende nicht am Naturschutz scheitern wird.”

Nun ist er Bundesvorsitzender einer zwar kleinen aber wirkungsmächtigen Ideologenpartei und wird weiter dafür sorgen, dass Umwelt für quasireligiöse Ziele geschädigt werden wird. Den Höhepunkt des Frevels bilden Windkraftanlagen in Wäldern. Pro Anlage muss etwa ein Hektar Wald gerodet werden, dann kommt die dauerhafte Bodenverdichtung für die Schwerlaststraßen. Der fehlende Wald hätte etwa zehn Tonnen CO2 im Jahr gebunden. Verdrängter Kohlestrom ist auch verdrängtes CO2-Zertifikat, das heißt, die nicht benötigten werden verkauft und benutzt, auch europaweit. So gesehen haben Windkraftanlagen im Wald eine emissionssteigernde Wirkung.

Der „Spiegel“ steht beispielhaft für den Qualitätsverlust der Medien. Berichterstattung ist heute wohl nur noch interessen- und gesinnungsgeleitet. Allerdings werden die Zeiten schwieriger, denn die Ausbaurate bei der Windkraft geht zurück und ab 2021 wird es vermehrt Stilllegungen von Windkraftanlagen geben. Schauen wir mal, mit welchen Erfolgsmeldungen wir dann beglückt werden.

Der Beitrag erschien zuerst bei TICHYS EINBLICK hier




Denkstaub – Die Wahrheit über Feinstaub in Berlin

Der Verkehr ist es nicht, der den Feinstaub in Berlin erzeugt. Nur vier Prozent des Feinstaubes stammen von Auto-Abgasen. Das sagt die Senatsverwaltung für Umwelt, Verkehr und Klimaschutz in ihrer Antwort auf eine Anfrage des Berliner FDP-Abgeordneten Marcel Luthe. Sie beruft sich auf eine Studie der Leibnitz-Institutes für Troposphärenforschung (TROPOS). Aus der geht hervor, dass 65 Prozent der Luftbelastungen in Berlin auf Quellen zurückzuführen sind, die nicht in Berlin liegen.

Als Beispiel werden Kraftwerke ohne Filter, Waldbrände, Kreuzfahrtschiffe genannt, obwohl es in Deutschland keine Kraftwerke ohne Rauchgasreinigung, Schwefelfilter und Stickoxid-Katalysatoren mehr geben darf. Sehr merkwürdig. Der Wind trage die Partikel dann in die Stadt. Marcel Luthe:»Ein Großteil des Feinstaubs ist nicht in Berlin menschengemacht. Die grünen Ideologen versuchen, das Weltklima in Berlin zu retten – was weder logisch noch sinnvoll ist.« Er kritisierte Versuche, die Mobilität der Berliner einzuschränken.

In Berlin seien die Ursachen allerdings »vornehmlich im Verkehrssektor und im Heizungssektor« zu finden. Für 15 Prozent des Feinstaubs sei der Abrieb von Autoreifen und Aufwirbelung von Straßenstaub verantwortlich.

Wie wäre es dann, wenn die Städte wieder so etwas wie die Straßenreinigung einführten? Umweltzonen werden zwar plakativ eingerichtet. Aber die Stadtverwaltungen tun nichts, um zum Beispiel mit Wassersprengfahrzeugen die Straßen effektiv von Staub und Dreck zu befreien. Solch sinnvollen und früher verbreitet praktizierte Aktionen allerdings kosten Geld und machen aus grün-schwarzer Sicht das schöne Schreckensgebilde von der lebensgefährlichen Luft kaputt.

Es könnten auch der Betrieb sämtlicher Fotokopierer verboten werden oder das Rauchen; hier entstehen erheblich größere Feinstaubmengen, als sie ein Dieselmotor ausbläst. Dazu gehört auch das immer beliebtere Shisha-Rauchen. Dabei entsteht durch die verkokelnde Kohle nicht nur Feinstaub in hohen Mengen, sondern auch Kohlenmonoxid. Das ist wirklich lebensgefährlich. Nicht umsonst enden Shisha-Rauchparties in geschlossenen Räumen öfter mal im Krankenhaus.Im Südwesten, in Stuttgart, weiß man zwar nicht so genau, was Luftmessstationen messen: Ist es Feinstaub vom Straßenverkehr oder sind es Pollen, die die Bäume in diesem Frühjahr besonders zahlreich produziert haben. Nur eines wissen Grüne und CDU in der Landesregierung: Es müssen Fahrverbote her.

Denn die Luft in der Landeshauptstadt soll so schlecht sein, dass nur noch eins hilft: Autos raus. Dort werden die Bewohner zwar immer älter, aber CDU und Grüne unter Ministerpräsident Kretschmann haben in dieser Woche in Stuttgart Fahrverbote beschlossen.

So soll es in Stuttgart ab Januar 2019 Diesel-Fahrverbote geben. Zunächst sollen nur Fahrzeuge mit der Abgas-Norm Euro 4 und schlechter betroffen sein. Aber später dürften auch Autos der Euro 5 Norm dazu kommen. Nähere Einzelheiten, welche Streckenabschnitte betroffen sein sollen, sind noch nicht bekannt.Unter dem grünen Oberbürgermeister Fritz Kuhn verwahrlost das einstige Musterstädtle und Sinnbild schwäbischer Kehrwoche immer mehr und eifert im Verdrecken des öffentlichen Bildes Berlin und Frankfurt nach. Aber mit Fahrverboten lässt es sich so wunderbar ablenken.

Anregend dürften Klagen werden, die sich gegen die falschen Messungen an Deutschlands berühmtester Messstelle am Neckartor wenden. Denn deren Messungen sind zweifelhaft. Sie stehen nicht im Einklang mit den EU-Vorgaben, wie wir hier öfter berichtet haben. Vor allem sehen die Werte bereits ein paar Meter neben dem Hotspot Messstelle Neckartor ganz anders aus.

Statt einer grundsätzlichen Debatte über den Sinn und Unsinn von Grenzwerten und häufig fehlerhaften Messungen lässt sich die Politik von windigen Organisationen wie der Deutschen Umwelthilfe, die unter anderem vom Steuerzahler und Autobauer-Konkurrenten Toyota unterstützt werden, vor sich her treiben. Debattiert werden müsste, auf welch windiger Grundlage solche Fahrverbote und die damit verbundene gigantische Wertvernichtung von Autos beruhen. Es gibt keine sinnvolle Begründung für geltende Grenzwerte. Sie sind politisch von Bürokratie und Interessensgruppen ausgehandelte Grenzwerte, die ohne tiefere wissenschaftliche Fundierung festgelegt wurden.Solche aus der Luft geholten Zahlen halten Wissenschaftler, die sich ihr Leben lang mit Luftverschmutzung und Feinstaub beschäftigen, für ausgemachten Quatsch. So hat in Stuttgart Professor Ulrich Kull bis zu seiner Pensionierung unter anderem die Auswirkungen von Luftverschmutzung auf Pflanzen untersucht. Feinstaub, so erklärte er, setze sich nämlich aus unterschiedlichen Materialien zusammen und sei umso gefährlicher, je kleiner die Partikel sind.

Aber mit den bisherigen Messmethoden werden alle Partikel gemessen, sowohl die kleineren als auch die größeren. Hier liege der Knackpunkt der Feinstaubdebatte: Sollten basierend darauf Fahrverbote verhängt werden, wären diese wohl gerichtlich anfechtbar, sagte Kull.Es erstaunt übrigens, dass sich auch die CDU im einstigen Kernland des Automobilbaues an der Totengräberei der immer noch wichtigsten Industrie beteiligt. Vielleicht hilft erst ein großflächiger Produktionsstopp in den Werkshallen der Daimler AG, weil zu wenig Autos verkauft werden. Bei VW geht das in diesem Sommer schon los.

Keine Frage: Saubere Luft ist ein hohes Gut. Doch die Welt wird in Deutschland kaum gerettet werden. Die Luftqualität in unseren Städten ist deutlich besser geworden. Von zehn- oder gar hunderttausend Toten zu reden, ist üble Propaganda.
Die EU hat Grenzwerte von 0,04 ppm ( Parts per Million ) für Stickoxide vorgegeben, die nahe am natürlichen Stickoxidgehalt der Luft von 0,005 ppm liegen. Das bedeutet: Industrie, Verkehr und Heizungen dürfen keine Produkte bei der Verbrennung mehr ausstoßen. Verblüffend: Ein »fast Nichts« in der Luft soll zu Tausenden von Toten führen!

Die Grünen müssten auch Gewitter verbieten. Denn bei jeder dieser himmlischen Erscheinungen werden diese Werte deutlich überschritten. Der Umwelt dürften Fahrverbote ziemlich egal sein. Die Folgen beschränkter Autobanne werden kaum messbar sein. Erst großflächige Fahrverbote dürften einen Effekt auf die Luftqualität der Stadt zeigen, wenn auch noch die Heizungen abgeschaltet und die Bäume abgeholzt werden. Auch für die immer beliebteren Holzkamine und Pelletheizungen in Stuttgarter Halbhöhenlage gilt ebenfalls: ausmachen.Und, oje, der Sahara muss auch verboten werden, immer wieder ihre Millionen Tonnen an feinem Sand unter anderem nach Europa zu schicken. Eine Feinstaubgefahr allerhöchster Stufe, zumal auf diesen Partikeln auch viele Bakterien mitreisen.

Der Beitrag erschien zuerst bei TICHYS EINBLICK hier




Experimentelle Verifikation des Treibhauseffektes

Dieser Treibhauseffekt wird vor allem von der Temperatur der Aerosol-Platte, die stellvertretend für Wolken oder Aerosole steht, gesteuert. Dabei muss die Aerosol-Platte mindesten 5 °C kälter als die Erd-Platte sein, um einen messbaren Temperatur-Anstieg zu erreichen. Die Experimente präsentieren eine Fülle von überraschenden und z.T. unbekannten Facetten des Treibhauseffektes. Wenn keine zusätzliche Wärme von außen einwirkt, verursacht CO2 eine Erwärmung der Erd-Platte, ohne den Wärmetransport zur Aerosol-Platte oder die Lufttemperatur zu verändern. Der Treibhauseffekt wird überwiegend durch die natürlichen CO2-Konzentrationen bestimmt, wobei CO2 in unmittelbarer Nähe zur Erd-Platte die größte Wirksamkeit zeigt. Eine möglicherweise vom Menschen verursachte Zunahme der atmosphärischen CO2-Konzentration kann daher nur noch im geringen Umfange zur Erderwärmung beitragen.

Einführung

In der ersten Mitteilung (1) wurde eine neuartige Apparatur vorgestellt, die flexibel einsetzbar ist und unterschiedliche Aspekte des Treibhauseffektes experimentell überprüfen kann. In den ersten beiden Publikationen ging es um die wechselseitige Beeinflussung von Wolken, Aerosolen und Treibhausgasen. Es konnte nachgewiesen werden, dass es einen eigenständigen Treibhauseffekt gar nicht gibt, sondern dass die Auswirkung der Treibhausgase von den sichtbaren und unsichtbaren Aerosolen des Himmels abhängt. Mit den Formeln von Ångström und anderen Forschern wurde errechnet, dass Wasserdampf (als stärkstes Treibhausgas) bei klarem Himmel rund 30 % und bei Bewölkung sogar nur 5 % zum Treibhauseffektes beiträgt (2). Diese Befunde sind eine ernstzunehmende Kritik an der in Deutschland betriebenen CO2-Hysterie und erklären, warum diese Mitteilungsreihe bei EIKE publiziert wird.

Die vorliegende Mitteilung beschäftigt sich mit der Frage, ob die Temperaturerhöhung der Erde durch CO2 experimentell nachweisbar ist und eventuell als Demonstrationsversuch für Schüler oder Studenten verwendet werden kann.

Im Internet findet man eine ganze Reihe von Schülerexperimenten zur Demonstration des Treibhauseffektes. Wozu also noch ein weiterer Vorschlag? Kein vom Autor analysiertes Experiment entsprach den natürlichen Bedingungen einer Erde mit einer Durchschnittstemperatur von 15 °C und Atmosphäre, die von einem Temperatur-Gradienten charakterisiert ist. Vor allem Versuche, den Treibhauseffekt anhand einer Erwärmung der CO2-haltigen Luft zu demonstrieren erwies sich ein Missverständnis, dieses Effektes (3), (4). Auch wurden die Messungen nicht vor einem kalten Hintergrund durchgeführt. So wurde auch nicht die Beeinflussung des Treibhauseffektes durch Wolken und Aerosole erkannt. Die eigene Konzeption, die sich an den natürlichen Temperaturen von Erde und Atmosphäre orientiert, führte zu Labor-Experimenten, die wahrscheinlich zum ersten Mal den wahren, erdnahen CO2-Treibhauseffekt sichtbar und begreifbar macht. Da sich diese Mitteilung an die breite Öffentlichkeit wendet, wird im Folgenden der umgangssprachliche Ausdruck „Wärmestrahlung“ mit infraroter (IR) Strahlung gleichgesetzt.

In der ersten Mitteilung (1) wurde eine Apparatur vorgestellt, die die erdnahe Atmosphäre als Modell nachahmt. Sie enthält anstelle der Erdoberfläche eine sogenannte Erd-Platte und in einem großen Abstand eine Aerosol-Platte, die stellvertretend für eine Wolkenschicht unterschiedlicher Temperatur (Höhe) steht. Die wichtigste Erkenntnis war, dass der Treibhauseffekt von der Temperatur der weit entfernten Aerosol-Platte abhängt (2). Es konnte gezeigt werden, dass Treibhausgase und Wolken/Aerosole Strahlungskonkurrenten sind, die sich gegenseitig beim Treibhauseffekt behindern. Diese Zusammenhänge wurden durch schrittweise Abkühlung der Aerosol-Platte gewonnen („Abkühlungs-Modus“).
Um eine mögliche Erwärmung der Erd-Platte nach Zugabe von CO2 zu erkennen, sollten die anderen Flächen der Apparatur (Wand und Aerosol-Platte) während eines Versuches eine möglichst konstante Temperatur haben. Für diese Aufgabe bietet sich der „Konzentrations-Modus“ an, bei dem nur die Konzentration des CO2 variiert wird. Insbesondere ist für eine konstante elektrische Heizung der Erd-Platte (QE) zu sorgen, die durch ein spezielles Labornetzgerät (Korad KA3005D) erreicht wird.
Die Luft-Temperatur zwischen Erd- und Aerosol-Platte ist bei diesen Experimenten von besonderer Bedeutung. Geht es doch um die Frage, ob die grundsätzliche These eines angeblichen „CO2-Treibhauseffektes“ eine Verletzung physikalischer Gesetze ist. Nach den Vorstellungen einiger Fundamental-Skeptiker sollte CO2 nicht zur Erderwärmung beitragen können, da das CO2 der Atmosphäre kälter als die Erdoberfläche ist und Wärme grundsätzlich nur von einem warmen zu einem kalten Körper fließt.
Zur Überprüfung dieser These ist die flexible Einsetzbarkeit der Apparatur von großem Nutzen, da auch solche Szenarien simuliert werden können. Die Lufttemperatur im Inneren der Röhre lässt sich unabhängig von der Temperatur der Erd-Platte durch die thermostatisierte Wasserheizung der Aluminium-Röhre regulieren. Dadurch wird ein Versuchsaufbau realisiert, der durch drei Temperatur-Zonen charakterisiert ist. Die Erd-Platte hat die höchste Temperatur, gefolgt von dem Luftraum für die potentielle CO2-Zugabe, der 0 – 15 °C kälter ist, und am Ende befindet sich als kältester Pol die Aerosol-Platte, 20 °C kälter als die Erd-Platte.

Sollten die Skeptiker Recht behalten, würde die Erd-Platte sich nicht erwärmen, wenn CO2 zu einem Luftraum gegeben wird, der kälter als die Erd-Platte ist. Hierzu wurden zwei Versuchsreihen mit einer 40 °C bzw. 20 °C warmen Erd-Platte durchgeführt, vergleichbar mit einer tropischen bzw. gemäßigten Klimazone der Erde. Bei beiden Versuchsreihen wurde CO2 in 7 bis 10 Schritten (bis maximal 55 Vol.-%) zu der vorher getrockneten und CO2-armen Innenluft der Apparatur zugesetzt. Nach jeder CO2-Zugabe wurde die Temperatur an sieben Stellen der Apparatur abgelesen (Abb. 4) und protokolliert.
Bei der ersten Versuchsreihe (Erd-Platte = 40 °C) wurde das CO2 bei vier verschiedenen Temperaturen des Luftraumes ≤ 40 °C zugegeben um festzustellen, ob die Erd-Platte auch durch kälteres CO2 erwärmt wird.

Bei der zweiten Versuchsreihe (Erd-Platte = 20 °C) wurden vier Experimente mit verschiedenen Temperaturen der Aerosol-Platte durchgeführt, um den möglichen Einfluss der Wolken-Temperatur nachzuweisen (In dieser Reihe wurde CO2 bis maximal 12 Vol.-% zugegeben).

Bei allen acht Experimenten wurde bei schrittweiser Zugabe von CO2 eine fortschreitende Erwärmung der Erd-Platte beobachtet, selbst wenn das CO2 deutlich kälter als die Erd-Platte war (Abb. 1 und 2). Die Experimente zeigen, dass CO2 grundsätzlich, unter bestimmten Voraussetzungen, die Erd-Temperatur erhöhen kann! Der Mechanismus dieses sogenannten Treibhauseffektes wird in Kapitel 2 ausführlich erläutert. Soviel sei bereits verraten, mit einem Wärmefluss vom kalten CO2 zur warmen Erde hat der Treibhauseffekt nichts zu tun.

CO2 und Luft haben unterschiedliche spezifische Wärmeleitfähigkeiten (Kap. 4, Tab. 1). Um auszuschließen, dass die gemessenen Temperatur-Erhöhungen der Erd-Platte tatsächlich durch den Treibhauseffekt und nicht durch Veränderungen der Wärmeleitung verursacht werden, wurden zwei weitere Experimente mit Helium und Argon anstelle von CO2 durchgeführt. Diese Edelgase zeichnen sich ebenfalls durch unterschiedliche Wärmeleitfähigkeiten gegenüber Luft aus. Da sie IR-inaktiv sind, d.h. sie erzeugen keine Wärmestrahlung, beeinflussen sie in der Apparatur nur die Wärmeleitung. Eine denkbare Verfälschung der Ergebnisse der o.g. acht Experimente durch Wärmeleitung lässt sich eindeutig ausschließen, da bei beiden Kontroll-Versuchen die Temperatur der Erd-Platte unverändert blieb. Eine ausführliche Beschreibung dieser Versuche findet sich im Kap. 4.

Abbildung 1: Erwärmung der 40°C warmen Erd-Platte nach Zugabe von CO2 bei unterschiedlichen Lufttemperaturen TpCO2 TpE = Temperatur der Erd-Platte, TpA = Temperatur der Aerosol-Platte, TpCO2 = Temperatur der CO2-haltigen Luft

Abbildung 2: Erwärmung der 20°C warmen Erd-Platte TpE nach Zugabe von CO2 bei unterschiedlichen Temperaturen der Aerosol-Platte TpA

Beide Versuchsreihen (Abb. 1 und 2) zeigen unterschiedliche Temperatur-Erhöhungen der Erd-Platte und lassen folgende Schlüsse zu: Demnach hängt der Treibhauseffekt sowohl von der Temperatur der CO2-Schicht (Abb. 1) als auch von der Temperatur der Aerosol-Platte ab (Abb. 2).

Umso wärmer das CO2 und umso kälter die Aerosol-Platte desto stärker die Erwärmung der Erd-Platte.

Der Einfluss der CO2-Temperatur (Abb. 1) spiegelt sich in den Ergebnissen der Satelliten-Messungen wieder, die über dem Äquator den größten Treibhauseffekt feststellen. Über dem Südpol wurde jedoch gefunden, dass CO2, wegen einer Temperatur-Inversion, die Antarktis sogar abkühlt, also einen negativen Treibhauseffekt hat (5). Ein in der Öffentlichkeit wenig bekannter Fakt, der erklärt, warum es in der Antarktis keine Erd-Erwärmung gibt. Die nachweisliche Erwärmung des Nordpols wird demnach nicht von CO2 sondern vom Ruß der Schifffahrt verursacht.

Anmerkung: Wasser und Eis beanspruchen nach dem Gesetz von Gewicht und Auftrieb das gleiche Volumen in einem beliebigen Gefäß (beliebte Frage im Schulunterricht, schmelzendes Eis erhöht nicht den Wasserspiegel). Dadurch hat das Abschmelzen des Eises auf dem Nordpol keinen Einfluss auf den Meeresspiegel, da es sich hier um schwimmendes Eis handelt.

Die eigentliche Kritik an der offiziellen Klima-Hysterie leitet sich vom Einfluss der Aerosol-Platte auf den Treibhauseffekt ab (Abb. 2). Die Versuchsreihe zeigt, dass der CO2-Treibhauseffekt maßgeblich von der Temperatur der Aerosol-Platte (die für Wolken/Aerosole steht) gesteuert wird! Die Temperatur-Erhöhung der Erd-Platte (Treibhauseffekt) kann sogar ganz ausbleiben, wenn sich die Temperaturen von Aerosol- und Erd-Platte annähern, wie in Abb. 2 (TpA = 14,9 °C) zu sehen ist. Die 20°C-Versuchsreihe simuliert Temperaturen, die typisch für die Erde unter tief liegenden Wolken sind. Damit wird experimentell ein weiteres Mal die Abhängigkeit des Treibhauseffektes von der Temperatur der Wolken und Aerosole nachgewiesen (1), (2).

  1. Der Mechanismus des erdnahen CO2-Treibhauseffektes

Man kann nicht behaupten, dass der Treibhauseffekt leicht zu verstehen ist. Allein schon der erbitterte Streit gestandener Wissenschaftler zeigt, dass es hier um ein komplexes Thema mit vielen Wendungen und Einflüssen geht.
Die verwendete Apparatur von rund 1 m Länge imitiert nur die ersten rund 3000 m der Atmosphäre. Es wird angenommen, dass sich in dieser Höhe eine geschlossene Wolkendecke befindet. In 3 km Höhe ist die Luft im Durchschnitt 18 °C kälter als die Erdoberfläche (0,6 °C pro 100 m), wonach die Temperatur der Aerosol-Platte ausgewählt wurde. Bezüglich der CO2-Menge ist die imitierte Schichtdicke der Atmosphäre jedoch viel kleiner und hängt von der Konzentration des zugesetzten CO2 ab. Man erhält die imitierte Schichtdicke einer Atmosphäre mit 400 ppm CO2, indem die CO2-Versuchskonzentration (in Vol.-%) durch 0,04 geteilt wird. Bei einer Konzentration von 12 Vol.-% werden demnach 300 m und bei 55 Vol.-% 1375 m einer Atmosphäre mit 400 ppm CO2 nachgebildet.

Sämtliche Betrachtungen zu den Wärmeströmen beim Treibhauseffekt beziehen sich auf den Energietransport ausschließlich durch Wärmestrahlung. Der Treibhauseffekt wird deshalb als ein idealisiertes, abgeschlossenes System behandelt. Beeinflussung des Treibhauseffektes durch andere Energieströme der Atmosphäre würde sich grundsätzlich mit der Apparatur realisieren lassen, war aber kein geplantes Ziel der vorliegenden Untersuchungen.

Im genannten Abschnitt der Atmosphäre wird neben der Wärmestrahlung auch noch Energie durch den Wasserkreislauf und durch Luftbewegungen transportiert. Diese Wärmeströme beeinflussen die Temperatur dieser Luftschichten und damit auch den CO2-Treibhauseffekt. Ein einfaches Schüler-Experiment wird durch diese Komplikationen überfordert. Auch die Relativierung der CO2-Strahlung durch die Wasserdampf-Strahlung kann wegen des hohen Siedepunktes von Wasser nicht untersucht werden.

Um den Treibhauseffekt zu verstehen, muss man sich zunächst klarmachen, dass jeder (feste und flüssige) Körper unserer natürlichen Umgebung (auch die Aerosole der Atmosphäre) ständig Wärmestrahlen, ein unsichtbares Licht, aussendet. Wie auch bei einer Glühlampe wird hierzu Energie benötigt. Im Gegensatz zur Glühlampe ist aber eine äußere Energiequelle nicht zwingend notwendig. Die Energie für die Wärmestrahlung kann auch aus der inneren Energie des Körpers, aus der kinetischen und potentiellen Energie seiner Atome oder Moleküle, ihren inneren Schwingungen und Rotationen entnommen werden. In diesem Falle müsste sich der Körper durch ständigen Verbrauch von Energie abkühlen. Das passiert i.d.R. aber nicht, da der Körper auch Wärmestrahlung aus seiner Umgebung empfängt, so dass (nach einiger Zeit) alle Körper in einem geschlossenen Raum die gleiche Temperatur haben (Gesetz nach Kirchhoff).
Wir können diesen Austausch an Wärmestrahlung nicht sehen, da dieses infrarote Licht (IR-Strahlung) für unsere Augen unsichtbar ist. Die fehlende Wahrnehmung dieser Strahlung ist wahrscheinlich der Grund, dass viele Menschen allein schon mit dem Begriff „Strahlung“ Probleme haben und eher an Fukushima oder Tschernobyl als an ihre natürliche Umwelt denken. Wärmestrahlung lässt sich aber erfahren, wenn man z.B. seine Hand einem sehr heißen Gegenstand nähert oder eine Wärmebild-Kamera nutzt. Die Größe dieser Strahlung (Strahlungsdichte = Energie pro Fläche) wird nach der Gleichung von Stefan und Boltzmann anhand der Temperatur (T hoch 4 Gesetz) für einen idealen, sogenannten „schwarzen“ Körper berechnet. Die warme Erd-Platte erzeugt danach bei 20 °C eine Wärmestrahlung von 419 W/m2 und bei 40 °C sind es 545 W/m2. Wäre die Erd-Platte isoliert im Weltall, weit weg von anderen Himmelskörpern, würde sie sich abkühlen und ihre Temperatur würde sich nach einiger Zeit dem absoluten Nullpunkt (- 273,15 °C) nähern und zwar ausschließlich nur durch Strahlungskühlung (Abgabe von Energie durch Wärmestrahlung).
In der Apparatur ist das anders, da die Erd-Platte auch Empfänger einer Wärmestrahlung ihrer Umgebung ist. Diese sogenannte Gegenstrahlung wird hauptsächlich von der Aerosol-Platte erzeugt. Wegen der geringeren Temperatur der Aerosol-Platte ist die Gegenstrahlung jedoch kleiner als die Wärmestrahlung der Erd-Platte. Unterm Strich bleibt also eine gewisse Differenz von gesendeter und empfangener Strahlung übrig, die den Wärmeverlust (Strahlungskühlung) der Erd-Platte definiert. Genau diese Menge an Wärmeverlust wird im Experiment durch die elektrische Heizung QE geliefert, wodurch Energie-Abgabe und -Aufnahme der Erd-Platte gleich groß sind und ihre Temperatur konstant bleibt.
Im Gegensatz zu festen und flüssigen Körpern können nur bestimmte, sogenannte IR-aktive Gase, wie z.B. CO2, eine Gasstrahlung erzeugen (6). Dabei ist die CO2-Strahlung keine thermische Strahlung (Wärmestrahlung) sondern eine Linien-Strahlung ausgewählter Wellenlängen. Füllt man CO2 in die Apparatur, nimmt das Gas die Temperatur der warmen Aluminiumwand an und erzeugt eine Gasstrahlung, die (im Wellenlängen-Bereich der CO2-Emissionsbanden) größer ist als die der (kälteren) Aerosol-Platte. Die Gegenstrahlung wird dadurch erhöht, wodurch sich die Strahlungskühlung der Erd-Platte verringert. Strahlungskühlung und Heizung der Erd-Platte QE sind nicht mehr im Gleichgewicht, wenn die Heizung QE konstant blieb. Es kommt zu einem Wärmestau, wodurch sich die Erd-Platte erwärmt. Durch die höhere Temperatur kann nun die Erd-Platte (nach dem Gesetz von Stefan-Boltzmann) mehr Wärme ausstrahlen, wodurch auch wieder die Strahlungskühlung ansteigt bis letztendlich Wärmeverlust und Heizung der Erd-Platte wieder gleich sind, d.h. die Strahlungskühlung erreicht wieder ihren alten Wert.

Solange keine äußere Energie in den Austausch von Strahlungswärme eingreift ist der Wärmeverlust der Erd-Platte identisch mit dem Wärmetransport von der Erd- zur Aerosol-Platte. Mit anderen Worten, die Heizwärme QE wird unverändert durch Wärmestrahlung auf die Aerosol-Platte übertragen. Andere denkbare Wärmeströme zwischen Erd- und Aerosol-Platte wie z.B. Konvektion oder Diffusion sind durch die Art der Konstruktion der Apparatur ausgeschlossen (1). Somit lässt sich für den „reinen“ Treibhauseffekt formulieren:

In einem geschlossenen System bewirkt CO2 eine Erwärmung der Erd-Platte ohne den Wärmetransport zur Aerosol-Platte zu verändern.

CO2 verliert zwar Energie durch den Strahlungsaustausch mit der kälteren Aerosol-Platte, aber gewinnt auf der anderen Seite eine gleich große Menge an Energie von der Erd-Platte durch ihre, von CO2 verursachte, gesteigerte Wärmeausstrahlung. In einem geschlossenen System sind Absorption und Emission der CO2-Moleküle gleich groß. Alles andere wäre eine Verletzung des Energieerhaltungssatzes von Julius Robert Mayer. In Übereinstimmung damit wurde bei den oben genannten Experimenten gefunden, dass die Lufttemperatur bei einem konstanten Wärmetransport durch CO2 nicht verändert wird. Somit lässt sich ein weiterer Lehrsatz formulieren:

Die Lufttemperatur zeigt nicht den Treibhauseffekt, sondern Veränderungen des Wärmetransportes an.

Diese Anpassung der Luft-Temperatur an den Wärmestrom wird durch die stärkere Temperatur-Abhängigkeit der CO2-Emission gegenüber seiner Absorption ermöglicht. Für diese These gibt es experimentelle Beweise. Wird z.B. die Erd-Platte durch eine Rotlichtlampe ersetzt, steigt die Luft-Temperatur bei Zugabe von CO2 an, da hier der Wärmestrom zunimmt und CO2 eine höhere Temperatur für eine adäquate Emission benötigt (3). Beispiele für einen konstanten Wärmestrom und konstante Lufttemperaturen sind die hier vorgestellten Experimente, insbesondere Versuch Nr. 5/3 (Tab. 12, ohne Wandheizung). Bei anderen Experimenten, die demnächst publiziert werden sollen, wurde die Heizung QE während eines Versuches gesenkt, um eine konstante Temperatur der Erd-Platte zu bekommen. Hier wurde sogar eine Abkühlung der Luft nach Zugabe von CO2 beobachtet.

Diese Erkenntnis erklärt, dass alle bisherigen, angeblichen Demonstrations-Versuche des Treibhauseffektes den falschen Effekt untersucht haben. Ob sich die Luft-Temperatur nach Zugabe von CO2 ändert, hängt in erste Linie von den Prozessparametern ab. Damit lässt sich erklären, warum beim bekannten Al-Gore-Experiment eine Erwärmung der Luft auftrat, aber bei einer Überprüfung durch Anthony Watts eine Abkühlung gefunden wurde.

Al Gore hatte keine detaillierten Angaben zu den Versuchsbedingungen gemacht, so dass Watts nur auf Vermutungen angewiesen war. Je nach Versuchsbedingungen wurde von Watts entweder keine Erwärmung oder sogar eine Abkühlung festgestellt (4).

  1. Der von CO2 beeinflusste Wärmetransport

Bei den o.g. Experimenten wird der Wärmetransport in der Apparatur von Peltier-Elementen registriert. Die Peltier-Elemente sind fest mit der Aerosol-Platte verbunden. Sie messen sowohl Wärmestrahlung als auch Wärmeleitung, die auf die Aerosol-Platte einwirken.
Bei Zugabe von CO2 im Bereich kleiner CO2-Konzentrationen kam es zu einem starken Anstieg des Wärmetransportes, um bei hohen Konzentrationen zu stagnieren (Abb. 3). Ist damit die These eines konstanten Wärmetransportes widerlegt? Nein, diese Regel gilt nur für sehr kleine CO2-Konzentrationen (wie in der Atmosphäre) und für geschlossene Systeme (ohne äußere Energieeinwirkung). Das sind Voraussetzungen, die bei den o.g. Experimenten nicht erfüllt waren, da hohe CO2-Konzentrationen eingesetzt werden müssen, um eine Atmosphäre von rund 1500 m simulieren zu können. Auch durch die Wandheizungen wurde unbeabsichtigt Energie zugeführt, so dass kein geschlossenes System vorlag.

Peltier-Elemente erzeugen eine Spannung im millivolt-Bereich wenn ihre Oberseite wärmer als ihre Unterseite ist. Da ihre Unterseiten fest mit der kalten Aerosol-Platte verbunden sind, zeigen die in Reihe geschalteten Peltier-Elemente bereits vor Zugabe von CO2 den Wärmetransport innerhalb der „leeren“ Apparatur durch eine Spannung bis zu 100 mV an. Setzt man diesen Anfangswert gleich null, lässt sich so der Einfluss von CO2 auf den Wärmetransport anhand der veränderten Spannungen der Peltier-Elemente dUA erkennen. Im Folgenden wird der Einfachheit halber der Wärmetransport mit der Spannungsänderung dUA gleichgesetzt.

Abbildung 3: Zunahme des Wärmetransportes bei den Versuchen Nr. 8/3 und 34/3

Der Wärmestrom der kalten Aerosol-Platte zur angrenzenden warmen Luft (im Bereich von Tp4) wird auch von der Wärmeleitfähigkeit der Luft-CO2-Mischungen beeinflusst. Da CO2 eine kleinere spezifische Wärmeleitfähigkeit als Luft hat (Tab. 1), verringert sich die Wärmeleitung der CO2-haltigen Luft nach jeder Zugabe von CO2. Damit müsste sich die Spannung der Peltier-Elemente dUA verringern. Tatsächlich wurde ein Anstieg von dUA gefunden, der also nicht von der CO2-Wärmeleitfähigkeit, sondern nur von der CO2-Gasstrahlung verursacht sein kann. Die dUA-Werte wären sogar noch größer, wenn man den Einfluss der CO2-Wärmeleitung beachten würde.
Die CO2-Gasstrahlung weist eine logarithmische Abhängigkeit von der CO2-Konzentration auf. Die Wärmeleitung für CO2-Luft-Mischungen verringert sich aber linear bei steigen CO2-Konzentrationen. Ab einer bestimmten CO2-Konzentration erreichen die entgegengesetzten Effekte die gleiche Wirkung, so dass der Wärmetransport dUA stagniert (Abb. 3). Diese Erklärungen konnten durch Zugabe von Helium und Argon (anstelle von CO2) experimentell bestätigt werden (Kap. 4).

Die von der Wärmeleitung verursachte Mess-Störung lässt sich durch einen experimentellen Trick zumindest teilweise umgehen. Hierzu wird die Apparatur vor Zugabe von CO2 vollständig mit Argon, das eine ähnliche Wärmeleitfähigkeit wie CO2 hat, gefüllt. Bei Zugabe von CO2 verändert sich jetzt die Wärmeleitung der Gasphase nur noch geringfügig, was einen deutlichen Einfluss auf den Wärmetransport hat. In der nächsten Mitteilung soll hierzu ein Beispiel gegeben werden.

Die Zunahme des Wärmetransportes bedeutet, dass durch CO2 mehr Wärme auf die Aerosol-Platte übertragen wird. Wo ist aber diese zusätzliche Energie hergekommen? Die Antwort findet man in der wassertemperierten Aluminiumwand, die nach folgendem Mechanismus die CO2-haltige Luft mit zusätzlicher Wärme versorgt:
CO2 strahlt in Richtung Aerosol-Platte mehr Energie ab, als es von dieser kalten Platte zurückbekommt. Also müsste sich die CO2-haltige Luft abkühlen, was die Seitenwand jedoch verhindert. Durch die gut wärmeleitende Aluminiumwand fließt der Innenluft Wärme aus der Wandheizung zu. Dieser versteckte und variable Wärmefluss erklärt die Zunahme des Wärmetransportes dUA bei den acht Experimenten (Abb. 3, Kap. 5 und Tabellen 2 bis 9).

Abbildung 4: Schematische Darstellung der Messstellen TpE, TpA, Tp0 bis Tp4, der Kopfheizung und der Wandheizung WH1 bis WH3

Diese These konnte experimentell durch schrittweises Abschalten der Wandheizungen 1 – 3 nachgewiesen werden. Um die Versuche zu verstehen, muss man sich zunächst mit den konstruktiven Details der Apparatur vertraut machen (1). Abb. 4 zeigt schematisch die Anordnungen der drei Wandheizungen WH1 bis WH3 und den Sitz der Temperatur-Messstellen Tp0 bis Tp4.
Die drei Wandheizungen lassen sich unabhängig mit Wasser definierter Temperatur versorgen. Dabei bedeutet „WH=nil“, dass keine Wandheizung angeschaltet war und „WH1-3“, dass alle drei Heizbereiche mit dem 40 °C warmen Thermostaten verbunden waren (Abb. 5).

Abbildung 5: Einfluss der Wandheizungen auf die Luft-Temperaturen (Tp0 – Tp4) und Temperaturanstieg der Erd-Platte dTpE

In Abb. 5 (linkes Bild) sind die Start-Temperaturen der Messstellen Tp0 bis Tp4 angegeben. Die Abbildung zeigt, wie die Luft-Temperaturen durch die Wandheizungen beeinflusst werden. Eine nahezu gleiche Temperatur aller Messstellen Tp0 bis Tp4 lässt sich erreichen, wenn alle drei Segmente geheizt werden (blaue Linie).
Die sukzessive Abschaltung der Wandheizungen (beginnend mit WH3) führt zu einer Abkühlung in den entsprechenden Heizbereichen. Versuch 5/3 ohne Wandheizung (WH=nil) widerlegt die weitverbreitete Auffassung, dass CO2 zu einer Erwärmung der Luft führt. Weder die Durchschnitts-Temperatur der Luft (Ø von Tp1 bis Tp4) noch die Temperatur am Messpunkt Tp4 zeigte eine signifikante Temperatur-Änderung nach Zugabe von CO2 (Abb. 6, linkes Bild und Kap. 5.3, Tab. 12).
Da die CO2-Gasstrahlung auch von der CO2-Temperatur abhängt (Kap. 1, Abb. 1), verringert die sukzessive Abschaltung der Wandheizungen auch den CO2-Treibhauseffekt (die Erwärmung der Erd-Platte). Die letzte Abschaltung (WH=nil) verursacht jedoch einen deutlich größeren Temperatur-Sprung (violette Linie) als die ersten Abschaltungen (Abb. 5, rechtes Bild).

Eine sehr wichtige Beobachtung, die zeigt, dass der CO2-Treibhauseffekt eine sehr kurze Reichweite hat. Der CO2-Treibhauseffekt hängt nicht nur von der CO2-Temperatur und –Konzentration sondern auch vom Abstand zur Erd-Platte ab. Dabei hat das, in der Nähe zur Erd-Platte befindliche CO2 hat den größten Anteil an ihrer Erwärmung.

Abbildung 6: Konstante Luft-Temperaturen (Øtp1-4) und Veränderungen des Wärmetransportes dUA in Abhängigkeit von der Wandheizung

Jede weitere Abschaltung eines Heizbereiches verringerte den Wärmetransport dUA und führte tendenziell zu den erwarteten konstanten Wärmetransport (Abb. 6, rechtes Bild).
Von besonderer Bedeutung ist das Experiment 5/3 „WH=nil“ (ohne Wandheizung), das einem geschlossenen System sehr nahe kommt. Hier zeigt der Wärmetransport einen leicht negativen Verlauf (Abb. 6, violette Linie). Ein Kontroll-Versuch mit Argon anstelle von CO2 (Kap. 5.4.2.) hat einen fast identischen negativen Trend (Abb. 6, gelbe Linie). Da Argon keine Wärmestrahlung erzeugt, sondern nur die Wärmeleitung beeinflusst, wird hiermit nachgewiesen, dass der negative Verlauf ausschließlich durch Wärmeleitung und nicht durch Wärmestrahlung verursacht wird.
Wird die von CO2 veränderte Wärmeleitung berücksichtigt, könnte das Experiment als Beweis für einen konstanten Wärmetransport beim CO2-Treibhauseffekt gewertet werden. Diese These birgt eine gewaltige Brisanz, denn seit den Wetterbeobachtungen durch Satelliten wird behauptet, dass CO2 die Wärmeabstrahlung in das Weltall reduziert! (6). Ließe sich diese These experimentell eindeutig widerlegen, hätte das IPCC große Probleme, „Global Warming“ mit CO2 gleichzusetzen.

Hier stößt das Experiment in seiner jetzigen Ausführungsform jedoch an die Grenzen einer experimentellen Beweisführung. Auch wenn es keinen Zweifel an einem konstanten Wärmetransport in einem geschlossenen System geben kann, so lässt sich zu Recht anführen, dass das Experiment nicht eindeutig ist. Zum einem werden hier nur Temperaturen der erdnahen Atmosphäre untersucht und zum anderen hat die Erd-Platte einen kleineren Durchmesser als die Aluminiumröhre (mit ihren Treibhausgasen). Dadurch verringert sich die Strahlungsdichte der Wärmestrahlung der Erd-Platte bei ihrer Ausbreitung in Richtung Aerosol-Platte. Dadurch kann das CO2 durch seine größere Strahlungsfläche überhaupt eine Zunahme des Wärmetransportes zur Aerosol-Platte bewirken, obwohl CO2 etwas kälter als die Erd-Platte war. Allerdings sind das auch glückliche Umstände, denn sonst hätte man eine CO2-bedingte Zunahme des Wärmetransportes gar nicht gesehen.

Die kleinere Erd-Platte war eine Konsequenz der damals größten, kommerziell verfügbaren Heizfolie. Sollten die Experimente einmal professionell wiederholt werden, wäre eine gleichgroße Erd- und Aerosol-Platte zur Klärung des fraglichen Wärmetransportes empfehlenswert. Der Treibhauseffekt ist von den ungleichen Plattengrößen nicht betroffen, da es hier um Bestrahlung und nicht um Ausstrahlung der Erd-Platte geht.

Die Experimente mit der vorgestellten Apparatur werden deshalb nur als Demonstrations-Versuche vorgeschlagen. Hiermit können die genannten Phänomene und Zusammenhänge des CO2-Treibhauseffektes Schülern und Studenten vorgeführt werden und den einen oder anderen CO2-Mythos als Irrtum entlarven. Darüber hinaus lässt sich demonstrieren, dass es einen eigenständigen CO2-Treibhauseffekt gar nicht gibt, da zu viele andere Faktoren die Wirkung von CO2 relativieren.

  1. Der Einfluss von Helium und Argon auf die Wärmeleitung

Es sollte festgestellt werden, ob die gefundenen Ergebnisse zum CO2-Treibhauseffekt von der CO2-Wärmeleitfähigkeit beeinflusst wurden. Hierzu wurden, wie im Kap. 1. angeben, zur „leeren“ Apparatur die IR-inaktiven Edelgase Helium und Argon zugesetzt. Diese Edelgase können keine Wärmestrahlung erzeugen, aber zeichnen sich durch sehr unterschiedliche spezifische Wärmeleitfähigkeiten im Vergleich zu Luft aus (Tab. 1).

Tabelle 1: Spezifische Wärmeleitfähigkeit einiger Gase

Die Erd-Platte hatte bei diesen Experimenten eine Temperatur von 25 °C. Die Aerosol-Platte wurde auf -10 °C abgekühlt, um einen möglichst hohen Wärmestrom durch Wärmeleitung zu ermöglichen. Die Wandheizungen WH1-2 wurden mit 25 °C warmen Wasser aus einem Thermostaten versorgt. WH3 wurde nicht benutzt, um den Einfluss der Edelgase auf die Luft-Temperatur und Wärmetransport im Messbereich von Tp4 zu erkennen.

Die Edelgase hatten keinen Einfluss auf die Temperatur der Erd-Platte TpE (Abb. 7, linkes Bild). Damit wurde nachgewiesen, dass die Temperatur-Erhöhungen dTpE nach Zugabe von CO2 ausschließlich durch den Treibhauseffekt und nicht durch Wärmeleitung verursacht wurden!

Die Temperatur-Konstanz der Erd-Platte ist ein typisches Merkmal der Versuchs-Apparatur. Die Erd-Platte befindet sich in einer Art Wärmeglocke, gebildet von der Kopfheizung und der Wand-Heizung WH1, wodurch eine Umgebung ähnlicher Temperaturen entsteht. Die unterschiedliche spezifische Wärmeleitfähigkeit der Test-Gase macht sich hier nicht bemerkbar, da letztlich der körperliche Wärmestrom (Wärmeleitung) auch von der Temperatur-Differenz der Erd-Platte und ihrer unmittelbaren Umgebung abhängig ist, die hier sehr klein ist.

Allerdings hatten die Edelgase einen großen Einfluss auf den Wärmetransport zur Aerosol-Platte, wie an der Spannungsänderung dUA der Peltier-Elemente zu erkennen war (Abb. 7, rechtes Bild). Wie schon in Kap. 3 erklärt, registrieren diese Sensoren nicht nur die Wärmestrahlung sondern auch die Wärmeleitung. Es ist zu beachten, dass die Aerosol-Platte wesentlich kälter als die benachbarte Aluminiumwand ist. Durch die große Temperatur-Differenz gibt es hier einen starken Wärmestrom von der warmen Wand (im Bereich von Tp4) zur kalten Aerosol-Platte, der von den Edelgasen beeinflusst wird.
Da Argon (genau wie CO2) ein schlechterer Wärmeleiter als Luft ist, wird bei Zugabe von Argon weniger Wärme auf die Peltier-Elemente übertragen, wodurch diese Elemente eine geringere Spannung erzeugen. In Abb. 7 zeigt sich dieser „Argon-Effekt“ durch einen negativen, fast linearen Rückgang des Wärmetransportes dUA (rechtes Bild, grüne Linie). Theoretisch müsste dadurch die Temperatur Tp4 bei Zugabe von Argon leicht ansteigen (linkes Bild, grüne Linie), was von den Thermometern aber nicht angezeigt wurde. Die geringe Genauigkeit der Thermometer für die Wand-Temperatur von ± 0,1 °C ist hierfür die Ursache.

Abbildung 7: Temperatur- und Wärmetransport-Änderungen durch Helium und Argon.

Die Differenz der spezifischen Wärmeleitfähigkeit zu Luft ist beim Helium viel größer als beim Argon. Dadurch verändert sich die Wärmeleitung beim Versuch mit Helium viel stärker als beim Argon. Dazu hat Helium noch einen umgekehrten Effekt. Die Zugabe von Helium vergrößert die Wärmeleitung der Luft, wodurch der Wärmetransport dUA ansteigt (Abb. 7, rote Linie). Dabei wird dem nicht beheizten Bereich (Tp4) so viel Wärme entzogen, dass hier sogar ein Temperatur-Rückgang von 19,0 auf 18,2 °C bei Zugabe von Helium entsteht. Dieser Temperatur-Rückgang ist der Grund, dass der Wärmetransport dUA beim Helium nicht linear verläuft und bei hohen Helium-Konzentrationen sogar rückläufig ist.

  1. Experimenteller Teil

Die äußeren Teile der Apparatur (Wärmeisolierung, Kopfheizung und Kühlaggregat) wurden im Verlauf der Untersuchungen zur experimentellen Verifikation des Treibhauseffektes mehrfach geändert. Bis April 2018 wurden insgesamt 495 Experimenten durchgeführt. Das mag übertrieben sein, aber neue Wege brauchen eben ihre Zeit. Ein umfangreicher Datenvorrat erschien notwendig, Vertrauen aufzubauen, dass die sehr kleinen Treibhauseffekte real sind und ausreichend genau und reproduzierbar bestimmt wurden.
Die in diesem Bericht vorgestellten Experimente stammen hauptsächlich aus dem Jahre 2015. In dieser Zeit befanden sich die Schläuche für die Kopfheizung, anders als in (1) angegeben, auf einer Styroporplatte oberhalb des Doms (Abb. 4).
Um den Einfluss von CO2 studieren zu können, muss vor Beginn eines Experimentes die Treibhausgase Wasserdampf und CO2 aus dem Innenraum der Apparatur fast vollständig entfernt werden, um einen definierten Anfangswert zu bekommen. Hierzu wird die Innenluft der Apparatur mit einer Luftpumpe für Aquarien bis zu 24 Stunden über feste Natronlauge geleitet, bis eine CO2-Konzentration << 100 ppm erreicht ist. Die Heizung QE der Erd-Platte wird solange variiert bis die gewünschte Temperatur dieser Platte erreicht ist. Danach wurde die Spannung für eine konstante Heizung QE nur noch geringfügig verändert (der ohmsche Widerstand der Heizdrähte ist von der Temperatur der Erd-Platte abhängig!). Die Heizleistung QE wird aus dem Produkt der gemessenen Spannung und Stromstärke, bezogen auf eine fiktive Erd-Platte von 1 m2, errechnet.
Die Aerosol-Platte wird an ein Glykol/Wasser Bad angeschossen, das von einem Kühlaggregat auf die entsprechend Temperatur abgekühlt wird. Ein elektrischer Heizstab in diesem Bad erlaubt eine Feinregulierung für eine konstante Temperatur der Aerosol-Platte während eines Versuches. Die Heizung der Seitenwand ist in drei gleichgroße Segmente WH 1 – 3 eingeteilt, die unabhängig voneinander mit temperierten Wasser aus einem Thermostaten bedient werden können (Abb. 4). Unabhängig von der Wandheizung ist die Aluminiumröhre noch mit einer 9,5 cm dicken Schicht aus Styroporkugeln als Isolierung gegenüber dem Versuchsraum umgeben.
Tp0 ist die von außen gemessene Oberflächen-Temperatur des Doms, Tp1 bis Tp4 sind die Lufttemperaturen im Dom bzw. der Aluminiumröhre in rund 25 cm Abständen (Abb. 4) bzw. (1).
Die Temperaturänderungen der Erd-Platte dTpE und die Spannungsveränderungen der Peltier-Elemente dUA sind die Differenz zum jeweils ersten Wert ohne CO2. Sie charakterisieren die Wirkung von CO2 und sind das wichtigste Ergebnis der Experimente.

    1. Der Einfluss der Hintergrundstrahlung der Aerosol-Platte

Es wurden vier Versuche bei unterschiedlichen Temperaturen (von + 15 bis – 3,8 °C) der Aerosol-Platte durchgeführt. Die Spannung für die elektrische Heizung der Erd-Platte QE wurde vor CO2-Zugabe solange variiert bis diese Platte eine Temperatur von 20,06 °C hatte. Danach wurde QE nicht mehr verändert und in sieben Schritten die CO2-Konzentration bis auf 11,9 Vol.-% erhöht und nach jeder CO2-Zugabe alle Temperaturen registriert (Tab. 2 bis 5). Die Temperatur-Werte für die Erd-Platte sind in Abb. 2. grafisch dargestellt.

Die Wandsegmente WH1 und WH2 wurden von einem Thermostaten mit 15,0 °C warmen Wasser versorgt. Das dritte Segment WH3, im Messbereich von Tp4, wurde nicht an den Thermostat angeschlossen, um eventuelle Veränderungen der CO2-Temperaturen ohne äußere Beeinflussung erkennen zu können. Es wurden jedoch keine signifikanten Beeinflussungen der Tp4-Daten durch CO2 festgestellt.
Erwartungsgemäß verringerte sich bei den einzelnen Versuchen jedoch die Start-Temperatur von Tp4 von 15,5 °C (Tab. 2) bis auf 12,5 °C (Tab. 5) durchihre Nähe zur Aerosol-Platte und ihre abnehmende Temperatur TpA.
Die Wassertemperatur der Kopfheizung betrug 20 °C. Tp0 zeigte bei Zugabe von CO2 einen ähnlichen Temperatur-Anstieg wie die Erd-Platte, da auch der Dom der ansteigenden Wärmestrahlung des CO2 ausgesetzt ist.

Tabelle 2: Versuch Nr. 36/3, Temperatur der Aerosol-Platte = 15 °C

Tabelle 3: Versuch Nr. 32/3, Temperatur der Aerosol-Platte = 5 °C

Tabelle 4: Versuch Nr. 33/3, Temperatur der Aerosol-Platte = 0 °C

Tabelle 5: Versuch Nr. 34/3, Temperatur der Aerosol-Platte = – 3,8 °C

    1. Der Einfluss der CO2-Temperatur

Alle drei Wandsegmente WH1 bis WH3 wurden vom gleichen Thermostaten mit warmem Wasser versorgt. Es wurden vier Versuche bei unterschiedlicher Thermostaten-Temperatur (von 20 bis 40 °C) durchgeführt. Die Temperatur-Messstellen Tp2 bis Tp4 werden von diesen Wandheizungen gesteuert und zeigen annähernd gleiche Werte. Die Messstelle Tp1 befindet sich im oberen Dom und zeigt eine Misch-Temperatur von Dom und Wandheizung an. Die CO2-Temperatur wird als Durchschnitt von Tp1 bis Tp4 definiert. Im Messbereich Tp1 wird ein leichter Temperatur-Anstieg bei hohen CO2-Konzentrationen registriert, der durch die steigenden Temperaturen von Erd-Platte und Dom verursacht wird. Die Durchschnitts-Temperaturen von Tp1 bis Tp4 zeigten keine signifikante Änderung bei Erhöhung der CO2-Konzentration.
Die Spannung für die elektrische Heizung der Erd-Platte QE wurde vor CO2-Zugabe solange variiert bis diese Platte eine Temperatur von 40,11 °C hatte. Danach wurde QE nicht mehr verändert und in 11 Schritten die CO2-Konzentration bis auf rund 55 Vol.-% erhöht und nach jeder CO2-Zugabe alle Temperaturen registriert (Tab. 6 bis 9). Die Temperaturen der Erd-Platte sind in Abb. 1 grafisch dargestellt. Eine grafische Darstellung für die Veränderungen des Wärmetransportes findet sich in Abb. 3.

Tabelle 6: Versuch Nr. 11/3, Wandheizung WH1 – 3 = 25 °C, CO2-Temperatur (Ø Tp1-Tp4) = 26,1 °C

Tabelle 7: Versuch Nr. 10/3, Wandheizung WH1 – 3 = 30 °C, CO2-Temperatur (Ø Tp1-Tp4) = 30,3 °C

Tabelle 8: Versuch Nr. 9/3, Wandheizung WH1 – 3 = 35 °C, CO2-Temperatur (Ø Tp1-Tp4) = 34,5 °C

Tabelle 9: Versuch Nr. 8/3, Wandheizung WH1 – 3 = 40 °C, CO2-Temperatur (Ø Tp1-Tp4) = 39,2 °C

    1. Der Einfluss der Wandheizung

Bei dem Kontrollversuch handelt es sich um eine Wiederholung von Versuch 8/3 (Tab. 9), jedoch wurden die Wandheizungen nacheinander abgeschaltet. Je nach Anzahl der Heizzonen bilden sich unterschiedliche Temperaturen in der Röhre aus.

Tabelle 10: Versuch Nr. 7/3, WH1 + 2 = 40 °C ; Temperaturgradient: Tp1 = 38,9 , Tp2 = 39,5, Tp3 = 38,2, Tp4 = 33,4 °C (Ø)

Tabelle 11: Versuch Nr. 6/3, WH1 = 40 °C ; Temperaturgradient: Tp1 = 38,8 , Tp2 = 39,0, Tp3 = 32,5, Tp4 = 27,4 °C (Ø)

Tabelle 12: Versuch Nr. 5/3, ohne Wandheizung; Temperaturgradient: Tp1 = 31,2 , Tp2 = 27,0, Tp3 = 25,0, Tp4 = 23,4 °C (Ø)

5.4. Der Einfluss der Wärmeleitung

Die Wandsegmente WH1 und WH2 und die Kopfheizung wurden von einem Thermostaten mit 25,0 °C warmen Wasser versorgt. Das dritte Segment WH3, im Messbereich von Tp4, wurde nicht an den Thermostat angeschlossen, um eventuelle Veränderungen durch Zugabe der Edelgase erkennen zu können.
Die Spannung für die elektrische Heizung der Erd-Platte QE wurde vor Zugabe der Edelgase solange variiert bis diese Platte eine Temperatur von 25,06 °C hatte. Danach wurde QE nicht mehr verändert und in 5 Schritten die Konzentration der Edelgase bis auf 40 Vol.-% erhöht und nach jeder Konzentration-Erhöhung alle Temperaturen registriert. Die Veränderungen des Wärmetransportes dUA sind in Abb. 7 grafisch dargestellt.

      1. Der Einfluss von Helium

Helium hat eine extrem hohe spezifische Wärmeleitfähigkeit von 156,7 W/(m ∙ K). Durch die steigende Wärmeleitung bei der Zugabe von Helium steigt auch der Wärmetransport dUA stark an und führt sogar zu einer Abkühlung an der Messstelle Tp4 von anfangs 19,0 bis 18,2 °C. Die Temperatur der Erd-Platte wird durch Helium jedoch nicht beeinflusst (dTpE = 0).

Tabelle 13: Versuch 19/6: Einfluss von Helium auf die Temperatur der Erd-Platte TpE und dem Wärmetransport dUA.

      1. Der Einfluss von Argon

Argon hat mit 0,0163 W/(m ∙ K), ähnlich wie CO2 (0,0142), eine geringere spezifische Wärmeleitfähigkeit als Luft (0,0244). Durch die sinkende Wärmeleitung bei der Zugabe von Argon verringert sich auch der Wärmetransport dUA. Die Wärmeleitung von Gasgemischen ist eine lineare Funktion ihrer Zusammensetzung. Diese Abhängigkeit konnte im Falle von Argon sogar festgestellt werden, da sich in diesem Fall die Temperatur der Messstelle Tp4 kaum änderte. Die Temperatur der Erd-Platte wird durch Argon nicht beeinflusst (dTpE = 0).

Tabelle 14: Versuch 21/6: Einfluss von Argon auf die Temperatur der Erd-Platte TpE und dem Wärmetransport dUA.

Literaturverzeichnis

1. Schnell, Michael. Experimentelle Verifikation des Treibhauseffektes Teil 1: Die gegenseitige Beeinflussung von Wolken und Treibhausgasen. [Online] 25. März 2018. https://eike.institute/2018/03/25/experimentelle-verifikation-des-treibhauseffektes-teil-1-die-gegenseitige-beeinflussung-von-wolken-und-treibhausgasen/.

2. —. 2.Mitteilung: Die Hintergrundstrahlung der Wolken und Aerosole. [Online] https://eike.institute/2018/06/03/experimentelle-verifikation-des-treibhauseffektes/.

3. Stephan Sirtl. Absorption thermischer Strahlung durch atmosphärische Gase. [Online] 12. 11 2010. [Zitat vom: 15. 01 2018.] http://hpfr03.physik.uni-freiburg.de/arbeiten/diplomarbeiten/sirtl_staatsexamen_2010.pdf.

4. Anthony Watts. Anthony Watts Thrashes Al Gore’s Climate Change Experiment. [Online] 20. 11 2011. [Zitat vom: 12. 01 2018.] https://shortlittlerebel.com/2011/10/20/anthony-watts-thrashes-al-gores-climate-change/.

5. Naturwissenschaftliche Anmerkungen zu Argumenten der Treibhausdiskussion. Volz, Hans. 9, s.l. : Erdöl-Erdgas-Kohle, 2015, Bd. 116.

6. Gasstrahlung. [Online] 2018. Juni 2018. https://de.wikipedia.org/wiki/Gasstrahlung.

Anmerkung: Dieser Beitrag liegt als PDF auch auf Englisch vor:

3. Communication – Experimental verification of the greenhouse effect_EN

———————————-

Aktualisierung: Reaktion auf Kommentare

Werte Kommentatoren!
Eine pauschale Ablehnung der vorgestellten Ergebnisse ist wenig hilfreich und führt zu keinem Erkenntnisgewinn. Wer sich wirklich konstruktiv an einer Diskussion zur experimentellen Überprüfung des Treibhauseffektes beteiligen möchte, sollte auf konkrete Fehler hinweisen oder sich eventuell über dem Admin meine Email-Adresse geben lassen. Die Schwäche einer Opposition ist ihre Zerstrittenheit und das ist, zur Freude der Klima-Alarmisten, bei Ihren Kommentaren leider auch nicht anders.
Die gefundenen Temperaturen sind Werte, die nur das Experiment charakterisieren. Sie dürfen nicht und schon gar nicht 1:1 auf die reale Erde übertragen werden, da die Temperatur der Erde nicht nur vom CO2-Treibhauseffekt, sondern auch noch von einer Vielzahl anderer Wärmeströme beeinflusst wird. Die Temperatur-Bestimmung der Erde ist eine Aufgabe, die die Apparatur nicht leisten kann und die auch nie geplant war. Die Frage, kann die Temperatur einer warmen Erd-Platte durch eine kältere, CO2-haltige Gasphase erhöht werden, wurde jedoch eindeutig bejaht. Das ist zwar kein endgültiger Beweis des Treibhauseffektes, aber auch keine Widerlegung. Es ist, wie so oft in der Wissenschaft, nur ein kleiner Baustein, der in diesem Falle zeigt, dass von CO2 auch bei den Temperaturen der erdnahen Atmosphäre eine Wärmestrahlung ausgehen kann, die sich in allen Richtungen ausbreitet und zur Erwärmung der Erde einen Beitrag leisten kann.

Es gab zwei fachliche Einwendungen/Fragen, auf die ich eingehen möchte.
Die Apparatur steht auf dem Kopf!
Das Konzept des CO2-Treibhauseffektes beinhaltet ausschließlich die Wirkung der Wärmestrahlungen. (Nicht zu verwechseln mit dem Glashauseffekt, hier spielt auch das sichtbare Licht eine Rolle). Wenn man also den CO2-Effekt überprüfen will, muss man alle anderen Wärmeströme entweder kontrollieren oder ausschalten. In der Apparatur wurde Wärme von der Erd-Platte auf die 1,10 m entfernte Aerosol-Platte durch eine Gasphase übertragen. Dabei gibt es drei Möglichkeiten des Wärmetransportes: 1. Wärmestrahlung, 2. Konvektion, 3. Wärmeleitung bzw. Diffusion. Der 3. Punkt lässt sich nicht verhindern, hat aber zum Glück eine kurze Reichweite. Die Kontrollversuche mit Argon/Helium haben gezeigt, dass die Wärmeleitung keinen Einfluss auf die Temperatur der Erd-Platte hatte. Punkt 3 kann also ignoriert werden. Die Konvektion ist eine ernstzunehmende Konkurrenz zur Wärmestrahlung. Hätte sich die warme Erd-Platte „unten“ befunden, wäre warme Luft, der Gravitation folgend, zur kalten Aerosol-Platte aufgestiegen und man hätte immer zwei Effekte gemessen. Die umgekehrte Anordnung der Platten löst das Problem, da die kalte Luft über der „unten“ befindlichen Aerosol-Platte nicht aufsteigen kann. Für die Wärmestrahlung spielt die Gravitation jedoch keine Rolle. Wärmestrahlung breitet sich in alle Richtungen gleichmäßig aus. Die Apparatur simuliert hinsichtlich der Wärmestrahlung die erdnahe Atmosphäre, auch wenn sie quasi auf dem Kopf steht. Wichtig sind nur die Temperaturen der Erd- und Aerosol-Platte, die die erdnahe Atmosphäre charakterisieren.

Spezifische Wärme der Gasphase
Die spezifische Wärme der Gasphase würde eine Rolle spielen, wenn man eine zeitlich abhängige Erwärmung untersuchen würde. Die Versuche waren aber genau das Gegenteil. Nach jeder CO2-Zugabe wurde solange gewartet, bis sich keine Temperaturänderungen mehr feststellen ließen. In der Regel vergingen zwischen zwei Messungen etwa 1,5 – 2 Stunden.




Süddeutsche Zeitung: Die fetten Jahre sind vorbei

Was hilft … wenn anstelle von guten und schlechten Jahren künftig vorwiegend schlechte kommen?

In der Wochenendausgabe vom 7./8. Juli 2018 durfte eine SZ-Wissenschaftsredakteurin mit ausreichend linksgrüner Ausbildung bei der taz den Lesern erklären, was die Bauern in Deutschland vom zukünftigen Wetter zu erwarten haben. Anlass war wohl die Horrormeldung des Bauernverbandes, dass wegen der Frühjahrsdürre die diesjährige Weizenernte nicht so hoch wie erhofft ausfiel (nach aktueller Schätzung beträgt die Ertragssteigerung nur +1,8 % gegenüber dem Vorjahr, in Summe ist die Erntemenge allerdings niedriger als im Vorjahr, da die Anbaufläche abgenommen hat [6]).
SZ, Rubrik WISSEN: [8] Die fetten Jahre sind vorbei
… Wettertechnisch pass nämlich fast gar nichts mehr für ihre Pflanzen, auch in diesem Jahr war das so. Erst kam der Frühling nicht aus dem Tritt, schon der Mai war viel zu heiß und zu trocken, weshalb die Ernten heuer noch mieser ausfallen werden, als 2017. Dass daran keine Kapriole schuld ist, ein schlechtes Jahr wie es halt mal vorkommt in der in der Landwirtschaft, das ist wissenschaftlich längst erwiesen. Klimawandel nennt sich das Phänomen, zeigen tut es sich in einer Häufung von Wetterextremen. Die meisten Menschen in Deutschland haben davon gehört.
Der Klimawandel lässt sich nicht mit Subventionen vom Acker schaffen …Denn was hilft denn eine Steuererleichterung, wenn anstelle von guten und schlechten Jahren künftig vorwiegend schlechte kommen? …

Dümmer und faktenresistenter geht es kaum noch. Doch ist (der Autor) das von der SZ gewohnt, welche die bisherige Dummnachrichten-„Vorbildfunktion“, vom in der ursprünglichen Form nicht mehr weitergeführten Klimaretter-Portal übernommen hat.

Schlecht ist, wenn explodierend gut, nicht mehr gut genug ist

Seit dem Beginn des nach einem Kälte-Jammertal mit Beginn der Industrialisierung (angeblich AGW-bedingt) ersehnt und endlich wärmer werdenden Klimas explodieren die Ernteerträge weltweit. Die im Vergleich zur früheren Kaltzeit teils eher geringeren, wettertypischen Schwankungen waren noch nie Menetekel, und wurden bis vor Kurzem noch als Wetter- und nicht – wie zum Beispiel auch im Mittelalter – als menschengemacht angesehen:
EIKE 30.06.2015: Ernteerträge und Klimawandel
EIKE 19.09.2016: Biobauern sind die größten Lebensmittel-Vernichter Ohne Klimawandel überlebt die Biolandwirtschaft ihre Ernteverluste nicht

Das folgende Bild zeigt, wie überproportional die Ernteerträge zum Beispiel in den USA angestiegen sind, seit der wohltuende Klimawandel seinen segensreichen Einfluss nach der Hungersnöte verursachenden, kleinen Eiszeit verbreitete. Auch Arrhenius, der „Erfinder“ der CO2-Theorie war froh über seine (nur teilweise richtige) Erkenntnis. Denn er war überzeugt, dass diese zusätzliche Wärme die Erde vor den schlechten Ernten retten würde. Und zumindest diese Ansicht von ihm erwies sich als richtig.

Bild 1 USA Weizenerträge Langfristdarstellung von 1865 – 2010 (blaue Linie), Weizen Welt Erntemengen 2000 – 2016 (blaue Balken), GISS Globaltemperatur Land und See (rote Linie). Grafiken vom Autor übereinander kopiert.

Nun sind wir nicht die USA, sondern Deutschland. Und mindestens Deutschland muss nach der SZ-Fachfrau ja ganz schlimm vom Klimawandel betroffen sein.

Deshalb zeigt das folgende Bild 2, wie sich die deutschen Weizenerträge (und die von Schleswig-Holstein) gegenüber denen der restlichen Welt verhalten. Mancher wird überrascht sein, wie vorbildlich und (wie GRÜNE dazu sagen) geradezu „schandhaft“ über-ertragreich das Industrieland Deutschland auch beim Ernteertrag dasteht.

Bild 2 Vergleich der Weizenerträge seit 1970 weltweit mit Deutschland und Schleswig-Holstein (SH). Daten nach 2008 – 2018 vom Autor ergänzt

In Worten liest sich diese (nicht nur durch Ertrag gelungene) Erfolgsgeschichte so:
Deutscher Bauernverband: Jahrhundertvergleich
… Ein Landwirt erzeugte 1900 Nahrungsmittel in einem Umfang, um etwa 4 Personen ernähren zu können
1950 ernährte ein Landwirt 10 und
2010 sogar 131 Personen

Ein Wermutstropfen ist allerdings zu sehen. Seit dem Jahr 2000 geht es nicht mehr wie gewohnt, stetig weiter aufwärts, sondern stagniert auf diesem extremen Niveau. Manche behaupten, es läge teils auch daran, weil die Ähren noch mehr Korn kaum tragen können und weitere Ertragssteigerungen – durch die industrialisierte Landwirtschaft – auch durch Auflagen gebremst werden.
Immer neu ist es dem Autor ein Rätsel, wie angebliche „Fachpersonen“ trotz solcher Daten unwidersprochen von einem negativen Klimawandeleinfluss auf die Ernten reden (und es unwidersprochen dürfen).

Ein fiktiver Dialog

In der SZ-Redaktionskonferenz könnte sich beim Durchsprechen des Artikels vielleicht ein ähnlicher Dialog wie dieser zugetragen haben:
Auf einen Einwand: „Die wirklichen Daten widersprechen in praktisch allem den Angaben der Redakteurin. Wenn wir das drucken, wäre es doch fast so etwas wie „Betrug“. Wollen wir das wirklich bringen? Erwidert ein wissendes, hierarchisch höher stehendes Redaktionsmitglied: „Die Natur ist durch uns Menschen so aus dem Gleichgewicht gebracht, dass sie nicht mehr weiß, was sie tut. Deren Daten entsprechen deshalb nicht mehr der Wirklichkeit, wie sie ohne den menschengemachten Einfluss wäre. Es werden deshalb in der modernen Klimaforschung ganz bewusst nicht mehr die, fälschlich beruhigende Trends zeigenden Messdaten verwendet, sondern die berechnet, welche ohne den Menschen wirklich wären. Und diese simulierten belegen: Das Klima ist einfach desaströs. Man sehe nur in die Analysen modernster, deutscher Klimaforschung. Ohne diese – und strikte Einhaltung von deren Maßnahmen – würde die Welttemperatur ins Unermessliche steigen.

Bild 3 Screenshot (Auszug) aus einem Bild eines Universitätsartikels. Quelle: Universität Potsdam. Potsdamer Universitätsmagazin 1/2016. Artikel: Viel richtig, wenig falsch

Die dann unabwendbaren Folgen wurden schon einmal von der überaus kompetenten IWF-Chefin drastisch, aber realistisch beschrieben“:
EIKE 11.10.2015: IWF-Chefin Lagarde`s rettender Einfall beim Hähnchenessen
… „Wenn wir kollektiv kneifen, werden wir uns alle in Hühnchen verwandeln und wir werden alle gebraten, gegrillt, getoastet und geröstet“ …
Fiktiver Redakteur: … „Dass dieses Vorgehen wissenschaftlich richtig ist, zeigen auch die regelmäßig notwendigen, nachträglichen Korrekturen der als falsch erkannten, früheren Messwerte und die vielen Preise und Ehrungen an die beteiligten Forscher. Aber auch die wegen wissenschaftlich nicht haltbarer, schlechter – und oppositioneller – Klimaforschung weltweit Universitäten verlassenden Professoren“:
The Guardian 05. Juni 2018: Peter Ridd’s sacking pushes the limit of academic freedom
Wir als SZ, werden unsere Leser jedenfalls nicht mit gemessenen, aber genau dadurch falschen Daten in die Irre leiten.

Der Rückgang der Ernte-Erträge ist nicht zu sehen, aber zu simulieren

Zur Entschuldigung der SZ-Wissens-Fachfrau darf man nicht verheimlichen: Es gibt eine Gegend, in welcher die Ernten durch den Klimawandel stetig abnehmen: Es sind die virtuellen Felder in Klimasimulationen. Da Computer alles viel genauer wissen, als die wirkliche Natur, gelten deren Aussagen bei vielen als gesicherter. Es könnte also sein, dass die SZ-Fachfrau gar nicht die wahre Natur, sondern eines der unbezweifelbaren Simulationsergebnisse beschrieben hat. Dann hätte sie es allerdings auch angeben sollen.

Wie man (zukünftige) schlechte Ernteergebnissen „erzeugt“, wurde in einem EIKE-Artikel beschrieben:
EIKE 26.11.2016: Forscher des Weltklimarates IPCC rechnen, dass die globale Erwärmung 10 bis 50 % der jährlichen Ernte bedroht – Was steckt dahinter?
In diesem Artikel geht es weniger um das IPCC, sondern die Studie eines politisch korrekt investigativen Rechercheinstituts:
Correctiv.org recherchiert zu den Bedrohungen und Herausforderungen unserer Gesellschaft, zu Machtmissbrauch und Korruption in Politik, Wirtschaft, Sport und Kultur, zu Themen wie Umwelt, Bildung, Gesundheit und sozialer Gerechtigkeit oder Rechtsradikalismus und Islamismus …
Dieses Institut, welche sonst über „Bildung, Gesundheit und sozialer Gerechtigkeit oder Rechtsradikalismus und Islamismus“ recherchiert, nahm sich auch der Bedrohung durch den Klimawandel an:
Correctiv.org:  Viele Lebensmittel sind vom Klimawandel bedroht – und die Agrarindustrie hat keine Lösung für dieses Problem.
Zwar hat die Agrarindustrie weder das gemeldete Problem, noch keine Lösung, falls es käme. Aber Computersimulationen kann man so parametrieren, dass es vorhanden ist. Und Uni-Institutsprofessoren hat man auch in Deutschland inzwischen so stark von Fördermitteln abhängig gemacht, dass sie zu praktisch jeder – von der Politik gewünschten – Aussage eine Belegung beibringen

Der Mai war viel zu trocken …

Die SZ-Redakteurin wusste auch viele „Fakten“. Anbei ein paar Anmerkungen dazu:
SZ: … schon der Mai war viel zu heiß und zu trocken
Das mit der Wärme stimmt. Die Bauern im Nürnberger Knoblauchsland waren darüber auch entsetzt. Die Spargelernte war so hoch, dass der Preis in den Keller viel. Viel arbeitsintensives Spargelstechen für immer weniger Geld, regt schließlich jeden Betroffenen auf.

Doch nun zum „viel zu … trocken“.
Beim DWD sieht der Niederschlag Mai seit dem Jahr 1880 wie im folgenden Bild aus: Der Niederschlag nimmt erkennbar zu, allerdings mit der für Niederschläge bekannt hohen Variabilität (Mai-Minimum 24,9 mm, Maximum 131,1 mm). Trotzdem war selbst der diesjährige, geringe Niederschlag nicht wirklich niedrig.

Bild 4 Niederschlag Deutschland, Mai 1880 – 2018. Quelle: DWD

Für den Frühling zeigt sich ein ziemlich ähnliches Bild. Weder war der Frühling besonders trocken, noch nimmt der Niederschlag im Frühling ab.

Bild 5 Niederschlag Deutschland, Frühling 1880 – 2018. Quelle: DWD

Nun noch der Verlauf bei Würzburg im trockenen Niederfranken, nahe der Gegend, wo jüngst Deutschlands höchste Temperatur gemessen wurde. Auch dort war der Mai 2018 weit entfernt von einem Extrem.
Und nun beachte man die natürliche Variabilität: Das Minimum (5,6 mm) erreicht gegenüber dem Maximum (139,6 mm) gerade einmal 4 %. Wäre das zufällig dieses Jahr gewesen, hätte die SZ sicher den Beleg für den Weltuntergang ausgerufen. So freuen sich die fränkischen Winzer auf einen Super-Weinjahrgang.
Aber: Gelingt es irgendjemandem (außer der SZ-Fachredakteurin), in diesen Niederschlagsverläufen die überall deklamierte, Klimawandel-bedingt, zunehmende Frühjahrs-Trockenheit zu entdecken? Nicht einmal der Statistik gelingt es, deren Regressionsgeraden weisen zu mehr Niederschlag.

Bild 6 Würzburg Niederschlag Mai von 1901 bis 2018. Grafik vom Autor anhand von drei DWD-Datensätzen erstellt

Bild 7 Würzburg Niederschlag Frühling von 1901 bis 2018. Grafik vom Autor anhand von drei DWD-Datensätzen erstellt

Es stellt sich deshalb auch dazu die Frage, ob die SZ-Wissenschaftsautorin wirklich über Deutschland, oder über einen virtuellen Ort im Computer berichtete.

Allerdings gibt es Zeitungen, welche sich trauen, Fachpersonen zu befragen, die Ahnung vom Thema, aber nicht die politisch korrekte Meinung dazu, haben. Jedoch nicht in Deutschland:
Österreich, Wochenblick 15. Juni 2018:
Experte im „Wochenlick“-Interview Dürre-Attacken in Österreich: „Am Klimawandel liegt es nicht“

Klaus Haslinger, Klimaforscher an der Zentralanstalt für Meteorologie und Geodynamik (ZAMG), von der Abteilung für Klimaforschung mit Schwerpunkt Regionale Klimaanalyse und Modellierung, Hydrologie und Trockenheit, erklärt im Gespräch mit dem „Wochenblick“, dass die derzeit sehr trockene Witterung im Grunde genommen nicht mehr als ein Wetterphänomen sei und mit dem „menschengemachten Klimawandel“ per se nichts zu tun hätte.
Auch Herr Kämpfe hat dazu auf EIKE eine detaillierte Ausarbeitung geliefert: Lang anhaltende Dürreperiode 2018 in Teilen Deutschlands – eine kritische Analyse

Der Klimalaie ahnt es anhand der wenigen Grafiken, die Experten wissen und bestätigen es, die SZ meldet für ihre Leser einfach das ideologisch geforderte Gegenteil. Dafür wirbt sie auch als „überregionale Qualitäts-Tageszeitung“.

… eine Häufung von Wetterextremen

SZ: … tut es sich in einer Häufung von Wetterextremen
Auch diese Klimawandel-Fabel ist nicht mehr „totzukriegen“. Selbst der IPCC sagt, dass es nicht stimmt [7]. In Deutschland ist eine Zunahme von Extremereignissen (außer dass die urbane Eigenerhitzung selbst deutscher Kleinstädte ungeahnte Ausmaße angenommen hat) nicht nachweisbar, wie man immer wieder anhand neuester Daten zeigen kann:
EIKE 08. Juni 2018: Die Suche nach dem Klimawandel geht weiter. Denn in Deutschland ist er nicht zu finden
EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)
Achgut.com, 06.07.2018, H.J. Lüdecke: Kleine Inspektion am Klimadampfer

Wenn andere die wissenschaftlichen Fakten bestreiten

Unserem Bundespräsidenten, welcher sich immer besser in seine Funktion als „Grüßonkel“ einarbeitet, wird der SZ-Artikel trotzdem gefallen haben. Schließlich sorgt der SZ-Artikel dafür, dass „die realen Probleme der Welt“ angegangen werden:
Westfalenpost 21.03.2018: Steinmeier warnt: Lügen im Netz spalten die Gesellschaft
(Steinmeier) … Überprüfbare Fakten müssten sich heute zunehmend gegen falsche und gefühlte Wahrheiten behaupten. Und: Nie wurden Verschwörungstheorien so leicht verbreitet wie durch die digitalen Medien. Wer das mit Meinungsfreiheit rechtfertige, liege falsch: „Meinungsfreiheit ist eine Farce“, zitiert er Hannah Arendt, wenn schlichte Tatsachen nicht mehr anerkannt würden. Oder: „Wie sollen wir die realen Probleme, zum Beispiel den Klimawandel, angehen“, fragt der Bundespräsident, „wenn andere die wissenschaftlichen Fakten bestreiten?“
„Jeder Bürger braucht Inseln der Verlässlichkeit“, meint Steinmeier. Und es sei ein gutes Zeichen, dass der oft beklagte Glaubwürdigkeitsverlust der traditionellen Medien im Augenblick offenbar gestoppt sei. Mehr als zwei Drittel der Deutschen halten einer Umfrage zu Folge die Informationen aus Radio, Fernsehen, Zeitungen und Zeitschriften für glaubwürdig …

Welches die „realen Probleme der Welt“ sind und wie man sie auch dank der (SZ-)Ideologie bestimmt nicht löst, wurde ebenfalls gerade von der SZ beschrieben:
EIKE 09. Juli 2018: Überbevölkerungsprobleme bekämpfen wir ganz aktiv – durch noch mehr CO2-Reduktion

Quellen

[1] Spektrum.de 27.06.2018: KLIMAWANDEL Blind für die ferne Zukunft

[2] EIKE 29.03.2018: Klimaleugner befinden sich in der ersten Phase der Klimatraumatisierung

[3] EIKE 11. November 2017: Wie kommt es, dass Verleugnung umso wuchtiger zuschlägt, je mehr wir durch die Medien mit immer schlimmeren Bestätigungs-Meldungen zum Klimawandel konfrontiert werden?

[4] EIKE 18.04.2016: Kirche und Klimawandel Viel „Mensch“, viele Bibelsprüche, die Orientierung vom PIK, von kritischer Reflexion keine Spur

[5] FOCUS MONY online, 17.08.2016: Lebenserwartung bestimmt Renteneinstiegsalter Rente mit 77! Dänemark hat sich schon entschieden – und alle sind dafür

[6] agrarheute: Weizenernte weiter nach unten korrigiert

[7] EIKE 31.01.2018: Endlosschleife Klimaangst

[8] Süddeutsche Zeitung. Printausgabe vom 7./8. Juli 2018, Rubrik WISSEN: Die fetten Jahre sind vorbei




Das Elend des Alternativ-Stroms: Eine Argumentationshilfe gegen die Energiewende-Politik

Dazu kommen die vielen Kollateralschäden, darunter die Zerstörung von Landschaften, von Vögeln und Fledermäusen, von Küstengewässern, von Wohngebieten vieler Menschen, denen die Windkraftanlagen trotz Hunderter Bürgerinitiativen vor die Nase gesetzt werden. Politiker, Profiteure und die ihnen gegenüber folgsamen, kritiklosen Medien führen die Menschen an der Nase herum. Sie und ihre gläubige Gefolgschaft handeln nach einem Bonmot, das Robert Lembke einmal so formulierte: „Wenn man sich eine Meinung schon gebildet hat, sollte man sich von Tatsachen nicht irritieren lassen.“ Derjenige, den Tatsachen nicht irritieren, sondern der nach ihnen sucht, findet im Folgenden die wichtigsten Tatsachen, die den Unsinn der Energiewende-Politik der Altparteien belegen. Als Argumentationshilfe.

Der Begriff „Erneuerbare“ Energien ist physikalisch falsch

Energie ist nicht erneuerbar, nur umwandelbar in andere Energieformen. Zum Beispiel Windenergie in elektrische Energie und elektrische Energie in Bewegungsenergie (Motor) oder in Wärmeenergie (Heizung). Daher sollte man richtiger von „Alternativen Energien“ sprechen. Aber der Begriff „Erneuerbare Energien“ (abgekürzt: „EE“) hat sich eingebürgert, so dass man schwerlich umhinkommt, ihn zu verwenden. In der Diskussion sollte man aber auf die falsche Bezeichnung hinweisen. Mit diesen Energien gemeint ist hauptsächlich Strom aus Wind, Sonne (Photovoltaik) und Pflanzenmasse („Biogas“ aus Vergärung) – alle zusammen abgekürzt „EE-Strom“. Richtiger sollte man ihn „Alternativ-Strom“, zutreffender noch: „Zufallsstrom“ nennen. Auch Strom aus Wasserkraft gehört zu den Alternativen Energien, ist aber der Menge nach zu unbedeutend und daher zu vernachlässigen.

Strom ist lediglich eine Form, um Energie zu transportieren

Strom ist lediglich eine Form, um Energie zu transportieren. Er wird am Entstehungsort aus einer anderen Energieart erzeugt und am Verbrauchsort wieder in die gewünschte Energie umgewandelt. Speichern im nennenswerten Umfang kann man nur mechanische Energie (Beispiel: Pumpspeicherwerke), chemische Energie (Beispiel: Batterien, Brennstoffe) und Wärmeenergie (Thermosgefäße). Daher muss Strom zum Zeitpunkt seiner Erzeugung auch sofort verwendet werden.

Die fünf entscheidenden Argumente gegen den EE-Strom

Der Strom aus Wind, Sonnenlicht und Vergärungsgas („Biogas“) hat ganz entscheidende Nachteile. Das sind – physikalisch-technisch bedingt – seine unabänderlichen, unwiderlegbaren und daher inhärenten Mängel, nämlich diese fünf:

Erstens: Wind und Sonnenlicht haben eine viel zu geringe Energiedichte. Das heißt: Um sie zu nutzen, ist zwangsläufig ein riesiger Flächenbedarf nötig mit Zigtausenden Windkraft- und Photovoltaik-Anlagen. Das gilt ebenso für den Energiepflanzenanbau zur Herstellung von „Biogas“.

Zweitens: EE-Strom ist unzuverlässig. Denn Wind und Sonne scheinen, wann sie wollen, und nicht, wann sie sollen. Sie erzeugen daher nur wetterabhängigen Zufallsstrom, auch „Wackelstrom“ genannt. Wasserkraft lieferte 2016 nur 3,3 Prozent des Bruttostroms, und ein weiterer Ausbau ist in Deutschland nicht möglich.

Drittens: Wetterabhängiger Zufallsstrom bedeutet schlechte Regelbarkeit. Dadurch kann man mit ihm die erforderliche Netzstabilität nicht sicherstellen – im Gegensatz zu Kohle‑, Gas- und Kernkraftwerken. Nur diese drei Letztgenannten vermögen es, die Soll-Netzfrequenz von 50 Hertz stabil zu halten. Schon bei einer Abweichung von 0,2 Hertz von der Sollfrequenz besteht die Stromausfall-Gefahr, kann es zappenduster werden. Daher ist Zufallsstrom nicht grundlastfähig, also nicht in der Lage, den jeweiligen Strombedarf jederzeit sicherzustellen.

Viertens: Der Nutzungsgrad von EE-Strom ist zu gering. Bei Windkraftanlagen liegt er bei knapp 20 Prozent ihrer Nennleistung, bei Solaranlagen (Photovoltaik) bei um die zehn Prozent. Das heißt: Diese „Stromfabriken“ stehen zwischen 80 und 90 Prozent der Zeit eines Jahres still. Das ist Verschwendung pur!

Fünftens: Strom ist in der nötigen Größenordnung nicht direkt speicherbar. Was die Verbraucher an Strom gerade abfordern, muss sekundengenau in der gleichen Menge auch erzeugt werden. Oder umgekehrt formuliert: Strom muss, sowie erzeugt, auch sofort verbraucht werden – innerhalb einer Zehntelsekunde. Wenn Wind und Sonne mehr Strom erzeugen, als gerade benötigt wird, und der Überschuss nicht im Ausland unterzubringen ist, müssen die EE-Anlagen abgestellt werden. Technische Tricks, diesen Strom indirekt zu speichern, indem man die elektrische Energie zum Beispiel in gasförmige Energie (Methan) umwandelt (Power-to-Gas-Verfahren), haben einen extrem schlechten Wirkungsgrad, bei dem drei Viertel der Energie verloren gehen. Sie sind daher unglaublich teuer, also sehr unwirtschaftlich. Rein technisch ist zwar vieles möglich, aber nicht alles technisch Mögliche ist auch sinnvoll und bezahlbar.

Diese fünf Mängel sind naturgesetzlich bedingt. Sie hängen dem EE-Strom unausweichlich und unwiderleglich an wie ein schwerer Mühlstein. Es sind daher inhärente Mängel. Schon sie allein genügen, um von der Stromerzeugung mittels Wind und Sonne die Finger zu lassen. Trotzdem tun die EE-Verfechter so, als gäbe es diese Naturgesetzlichkeit nicht. An dieser Missachtung wird die Energiewende letztlich auch scheitern – falls sich die Bürger nicht schon vorher gegen diesen Strom aufgelehnt haben, weil er für sie zu teuer geworden ist.

Sieben weitere Mängel dieses Zufallsstroms

Erstens: EE-Strom zwingt eine doppelte Stromerzeugungskapazität auf. Warum? Für den deutschen Bedarf an Strom ist in der Spitze eine Leistungskapazität von rund 80 Gigawatt vorzuhalten. Das ist die Größenordnung, wie sie Deutschland für seine Hochleistungswirtschaft und den hohen Lebensstandard seiner Bürger in den Wintermonaten benötigt. Diese Kapazität übersteigen die bisher installierten EE-Zufallsstrom-Anlagen schon heute, liefern mit ihr an Strom aber nur einen Bruchteil davon (2016 nur 18 Prozent). Selbst dann aber, wenn man die EE-Kapazität darüber hinaus (wie von den Altparteien geplant) durch immer mehr Windkraft- und Solaranlagen ausbauen würde, wären daneben die herkömmlichen Kraftwerke in der Größenordnung von rund 80 Gigawatt nach wie vor notwendig. Sie werden gebraucht, um die Sicherheit der Stromversorgung zu jeder Zeit aufrechtzuerhalten. Denn es kommen Wetterlagen vor, bei denen sämtliche EE-Anlagen über längere Zeit ausfallen, teils sogar europaweit: die sogenannte Dunkelflaute. Dann müssen die herkömmlichen Kraftwerke sofort einspringen können. Die Doppelkapazität ist Luxus pur – vor allem auf Kosten des kleinen Mannes.

Zweitens: EE-Strom ist höchst unwirtschaftlich. Wegen der Unbeständigkeit von Wind und Sonne erzeugen die EE-Anlagen Strom im Durchschnitt mit nur einem Bruchteil ihrer Nennleistung (siehe oben). Ihre Erzeugung schwankt ständig zwischen Null und der Nennleistung. Stets also müssen herkömmliche Kraftwerke nebenher mitlaufen, um sofort Strom zu liefern, wenn Wind und Sonne nicht ausreichen oder ganz versagen. Doch damit wird ihr Betrieb unrentabel. Deshalb müssen sie, weil sie notwendig sind, finanziell gestützt werden. Es entstehen zusätzliche Kosten, die völlig unnötig sind. Sie verteuern den Strom und werden abgewälzt auf die Verbraucher. Ohnehin können die herkömmlichen Kraftwerke, was an Strom gebraucht wird, ganz allein liefern – zuverlässig, zu jeder Zeit und weitaus billiger. Sie haben das in den Jahren vor der „Energiewende“ bewiesen. EE-Anlagen können das nicht. Aber jede EE-Anlage, die zusätzlich in Betrieb geht, führt zwangsläufig zu einem höheren Strompreis.

Drittens: EE-Strom ist nicht wettbewerbsfähig. Freiwillig würde ihn kein Mensch kaufen. Denn er ist grundsätzlich teurer als herkömmlicher Strom aus Kohle, Kernbrennstoff, Gas, Öl und Wasserkraft. Daher drücken ihn gesetzliche Regelungen der Altparteien den Bürgern zwangsweise auf. Die Stromnetzbetreiber müssen ihn mit Vorrang abnehmen (Abnahmezwang) und den EE-Stromerzeugern eine festgelegte Vergütung zahlen (Zwangsabnahmepreis, Garantiepreis). Beides ist eine versteckte staatliche Subvention. Nur mit dieser Subvention sind Banken und Unternehmen überhaupt bereit, Ökostromanlagen zu finanzieren und zu bauen und diesen Strom herzustellen. Den Betreibern der Ökostrom-Anlagen wird dieser Preis 20 Jahre lang garantiert. Bei jeder Menge! Unabhängig davon, ob man den Strom braucht oder nicht. Für die Betreiber sind die Anlagen dank der Zwangsabnahme und des staatlichen Garantiepreises zu Gelddruckmaschinen geworden. Folglich werden immer mehr solche Anlagen errichtet.

Viertens: EE-Strom ist eine verkappte unsoziale Umverteilung. Die Profiteure der EE-Strom-Subventionierung sind Wohlhabende, die Verlierer sind alle übrigen Bürger, besonders die finanziell schwachen. Einigen Hunderttausend Haushalten ist der Strom abgeschaltet, weil sie ihre Stromrechnung nicht mehr bezahlen können. Es handelt sich um eine von den Altparteien herbeigeführte Umverteilung von unten nach oben, von „Arm“ zu „Reich“ – die größte in diesem Land seit Ende des Zweiten Weltkrieges. Sie steht damit im Gegensatz und Widerspruch zur sonst üblichen und im Grundsatz gerechtfertigten Umverteilung, bei der es umgekehrt zugehen sollte: von Wohlhabenden zu unverschuldet Bedürftigen, von „Reich“ zu „Arm“.

Fünftens: EE-Strom belastet die Flora, die Fauna und das Landschaftsbild. Strom aus „Biogas“ (durch Vergären von Pflanzenmasse) entzieht außerdem wichtige agrarische Rohstoffe der Versorgung mit Futter- und Lebensmitteln, macht sie knapper und verteuert daher auch diese Nahrungsmittel. Windkraftanlagen zerschlagen Vögel, töten Fledermäuse und belasten durch ihren Infraschall die Gesundheit, wenn sie in der Nähe von Wohngebieten stehen.

Sechstens: Haben die Windkraftanlagen ausgedient, wird es zu einem großen Problem, sie abzureißen („Rückbau“) und sie zu entsorgen. Je nach Anlage kostet das zwischen 500.000 und einer Million Euro (einschließlich der dazugehörigen landschaftlichen Aufforstung). Darin noch gar nicht enthalten ist das Entsorgen der riesigen Betonfundamente. Da die Betreiber diese finanzielle Belastung nicht in ihren heutigen Kosten vorsehen und meist (wegen in Kauf genommener Insolvenz) nicht werden tragen können, werden diese Kosten dann wiederum den Steuerzahlern aufgeladen.

Siebtens: Vor allem aber: Die Energiewende ist eine ungeheure finanzielle Belastung und volkswirtschaftliche Verschwendung. Wenn es mit ihr wie geplant weitergeht, kann sie Deutschland kumuliert bis 2050 über fünf Billionen Euro kosten. Das entspricht auf einen Vierpersonenhaushalt bezogen 9.000 Euro im Jahr, 35 Jahre lang. So hat es eine Prognoserechnung aus dem Jahr 2015 ergeben. Die fünf Billionen sind bei Weitem mehr als die Haftungssumme Deutschlands als Folge der Euro-Rettungsmaßnahmen (rund 533 Milliarden Euro, ebenfalls nach dem Stand von 2015). Die kumulierten Kosten streben keinem Endwert zu, sondern steigen immer weiter.

Das Ergebnis kurz zusammengefasst

Der staatlich aufgezwungene Zufallsstrom ist für ein Land wie Deutschland unbrauchbar, nutzlos, wertlos und hochgefährlich, die Energiewende-Politik ein folgenschwerer Irrweg, ein Scheitern letztlich unabwendbar. Sie nur einen Schildbürgerstreich zu nennen, hieße, sie zu verharmlosen.

Der Beitrag erschien zuerst auf dem Blog des Autors




Erinnert man sich noch, dass der Anstieg des Meeres­spiegels die Pazi­fischen Inseln verschwin­den lassen sollte? Macht nichts

Andrew Montfort dazu:

Jemandem, der eng die Klima-Problematik verfolgt, wird die Arbeit von Kench et al. bekannt sein. Er hat einen großen Keil in die Arbeiten der Klimaalarm-Gemeinschaft geschlagen, indem er nachgewiesen hat, das Korallenatolle weit davon entfernt sind, in den Wellen zu verschwinden, sondern vielmehr während der letzten Jahrzehnte deutlich größer geworden sind.

Jetzt hat eine neue, in Nature Scientific Reports veröffentlichte Studie mit einem ziemlich substantiellen Hammerschlag den Keil in jene Arbeiten noch tiefer getrieben. Luijendijk et al. haben Sandstrände auf der ganzen Welt überwacht sowie gegenwärtige und historische Satellitenbilder miteinander verglichen – also mit dem gleichen Ansatz wie Kench. Sie kamen zu dem Ergebnis, dass im Gegensatz zu dem, was die einfache Gleichung ,globale Erwärmung = steigender Meeresspiegel‘ nahelegt, dass sich noch viel mehr Gebiete mit Sandstränden ausweiten anstatt zu schrumpfen.

Abstract

Küstengebiete sind eine der am dichtesten besiedelten und am weitesten entwickelnden Landgebiete der Erde. Trotz des Nutzens und der ökonomischen Vorteile, welche Küsten bieten, gibt es keine zuverlässige Abschätzung von Trends historischer Änderungen von Küstenlinien in weltweitem Maßstab. Hier ziehen wir frei verfügbare Satellitenbilder seit 1984 heran in Verbindung mit ausgeklügelten Bildinterpretations- und Analyse-Verfahren. Damit zeigen wir eine globale Abschätzung des Auftretens von Sandstränden und Raten von Änderungen der Küstenlinien dort. Mittels einer kontrollierten Klassifizierung mittels Pixelung fanden wir, dass 31% der eisfreien Küstenstriche sandiger Natur sind. Die mittels der Anwendung eines automatischen Küstenlinien-Erkennungs-Verfahrens auf sandige Küstenlinien ergaben einen globalen Datensatz der Änderungen von Küstenlinien für den 33-jährigen Zeitraum von 1984 bis 2016. Eine Analyse der aus Satellitenbeobachtungen abgeleiteten Küstenlinien-Daten zeigt, dass 24% aller Sandstrände weltweit mit Raten erodieren, die über 0,5 m² pro Jahr liegen, während 28% sich ausdehnen und 48% stabil sind.

Full paper

Willis Eschenbach hat dies schon vor langer Zeit hier bei WUWT erkannt. Ich würde sagen, seine Arbeit ist hiermit bestätigt.

Link: https://wattsupwiththat.com/2018/07/12/remember-when-sea-level-rise-was-going-to-cause-pacific-islands-to-disappear-never-mind/

Übersetzt von Chris Frey EIKE




Da schau her: „Deckel abgesprengt“ vom Topf der Vertrauens­würdigkeit wissenschaft­licher Begut­achtungen

Wenn die Alarmisten-Gemeinschaft strategisch ein neues Argument oder einen neuen Aspekt in die Debatte um die globale Erwärmung zu werfen trachtet, lässt sie zunächst einen ihrer Pseudo-Wissenschaftler einen Artikel schreiben, um diesen in einem kompromittierten begutachteten Journal zu veröffentlichen.

Die politische Linke hat die meisten Wissenschaftsjournale infiltriert oder gleich ganz übernommen, welche sich heißer politischer Themen annehmen, genauso wie sie den allergrößten Teil der Mainstream Medien übernommen hat.

Im Besonderen gilt dies im Falle von Themen bzgl. der globalen Erwärmung. Wie die durchgesickerten Klimagate-E-Mails enthüllten, sind die Herausgeber von Wissenschaftsjournalen typischerweise prominente Alarmisten oder kooperieren absichtlich mit prominenten Alarmisten bei der Auswahl der Beiträge und der zu vermittelnden Botschaft (hier).

Das „Begutachtungs-Verfahren“ läuft typischerweise so ab: der Herausgeber übermittelt eine eingereichte Studie einem Team von Begutachtern, welche ausgesprochene Klima-Aktivisten sind. Nach der Veröffentlichung der Studie preisen Globale-Erwärmung-Aktivisten und deren Alliierte in den Medien die Natur der Begutachtung dieser Studie als Beweis, dass deren Schlussfolgerungen unfehlbar sind. Jeder, der das Verfahren oder die alarmistischen Schlussfolgerungen hinterfragt, wird dann als ,Wissenschafts-Leugner‘ gebrandmarkt.

Ioannides zufolge leistet das Begutachtungs-Verfahren wenig hinsichtlich Vertrauenswürdigkeit, sogar noch bevor politische Agenden das Thema kompromittieren.

„Wenn Studien reproduziert werden, kommt man selten zu den gleichen Ergebnissen. Nur ein Drittel der 100 Studien, welche in drei Spitzenjournalen der Psychologie veröffentlicht worden waren, konnte in einem großen Test – durchgeführt im Jahre 2015 – erfolgreich reproduziert werden“, fasste AFP die Ergebnisse von Ioannides zusammen (hier). „Medizin, Epidemiologie, Bevölkerungswissenschaft und Ernährungsstudien fahren nicht besser, wenn man versucht, diese zu reproduzieren“.

Wenn nur bei einem Drittel der Studien bei deren Replikation durch Autoren von außerhalb die gleichen Ergebnisse auftauchen, ist das ein schwerwiegendes Problem.

Hinsichtlich von Studien zum Klimawandel sind die begutachteten Studien womöglich noch unzuverlässiger – noch bevor man überhaupt die unvermeidlich politische Natur des Themas betrachtet – weil viele Studien Prophezeiungen und Modelle ansprechen, deren Schlussfolgerungen gegen objektive Beweise zu testen unmöglich ist.

Beispiel: Wenn ein Wissenschaftler ein Klimamodell vorstellt, welches eine rapide globale Erwärmung oder ernste negative zukünftige Klima-Auswirkungen prophezeit, und wenn eine Studie die Ergebnisse eines solchen Modells zusammenfasst und in einem begutachteten Journal veröffentlicht, gibt es zum Zeitpunkt der Veröffentlichung keine Möglichkeit, die Klima-Prophezeiungen mit den Beobachtungen in der realen Welt zu vergleichen.

Dies fügt den Zweifeln an der Genauigkeit von Prophezeiungen bzgl. der globalen Erwärmung in begutachteten Wissenschaftsjournalen eine neue Ebene hinzu. Und das noch bevor man die inhärent politische Natur der Debatte um die globale Erwärmung in Betracht zieht oder die politischen Agenden der Herausgeber der Journale nebst deren sorgfältig ausgewählten Begutachtern.

Die Lehre daraus ist, dass die linken Medien sich in Faulheit ergehen oder in einer absichtlichen Fehlinterpretation, wenn sie bestimmte begutachtete Studien herauspicken und behaupten, dass jeder, der diese in Frage stellt, die „Wissenschaft attackiert“, die „Wissenschaftler attackiert“ oder ein „Leugner“ ist.

Gute Wissenschaft erfordert die Durchführung kritischer Vergleiche bzgl. jeder Theorie oder Prognose – einschließlich jener in begutachteten Wissenschaftsjournalen Veröffentlichten – mit objektiven Beweisen.

Mehr bei CFACT

Link: https://wattsupwiththat.com/2018/07/11/ooops-lid-blown-off-the-trustworthiness-of-scientific-peer-review/

Übersetzt von Chris Frey EIKE

—————————————-

Anmerkung des Übersetzers: Dieser Beitrag trifft genau das, was Prof. Dr. Horst-Joachim Lüdecke hier kürzlich geschrieben hat!




Klimaschutz als Herrschaftsinstrument

Von der Wortbedeutung her muss man zu dem Schluss kommen, dass das Klima ein zu schützendes Gut ist.

Was also ist eigentlich „Klima“?

Es gibt von verschiedenen Autoren stammende Formulierungen, die aber letztlich alle das gleiche beschreiben. Hier sei die Definition des oft als Weltklimarat missverstandenen „Intergovernmental Panel on Climate Change (IPCC) angeführt:

„Climate in a narrow sense is usually defined as the „average weather“ or more rigorously, as the statistical description in terms of the mean and variability of relevant quantities over a period of time ranging from months to thousands or millions of years. The classical period is 30 years, as defined by the World Meteorological Organization (WMO). These quantities are most often surface variables such as temperature, precipitation and wind. Climate in a wider sense is the state, including a statistical description, of the climate system.“

Es handelt sich also um einen in der Meteorologie benutzten statistischen Parameter der aus 30 jährigen Mittelwerten von Wetterdaten gebildet wird. Er wird typischerweise für bestimmte Klimazonen errechnet, die auf Grund ihrer geografischen Breite und charakteristischen Landmassenverteilung typische Wetterbedingungen aufweisen. Ein globales Klima lässt sich zwar berechnen, ist in diesem Kontext aber sinnlos. Das Wort Klima leitet sich aus dem Griechischen ab und bedeutet Neigung. Es ist daher schon definitionsgemäß eine veränderliche Größe. Das Klima wandelt sich, seit die Erde besteht.

Was ist aber dann „Klimaschutz“? Es handelt sich offensichtlich um ein Nonsens Wort, einen mathematisch, wissenschaftlichen Begriff kann man nicht schützen! Vom allgemein üblichen Sprachgebrauch her wird das Wort aber verstanden, weil es durch eine massive Propaganda von Regierungen und Medien gelungen ist, das Wort Klimaschutz mit der Behauptung zu verbinden, dass durch die insbesondere von den Industrieländern verursachte Emission des Spurengases Kohlendioxid (CO2) eine Erwärmung der Troposphäre verursacht wird, die angeblich eine Gefahr für die Menschheit darstellt. Dabei ist es besonders interessant, dass Politik und Medien es fertig gebracht haben, dem an sich harmlosen chemischen Stoff CO2 eine (negative) Wertvorstellung zu zuordnen. In der Wochenzeitung „Die Zeit“ erschien ein Aufruf unter dem Titel: „Gebt dem Schmutz einen Preis“.i Kohlendioxid, ein Bestandteil der Atmosphäre, ohne den als Existenzgrundlage aller Pflanzen auf der Erde kein Leben möglich wäre, wird also als „Schmutz“ diffamiert. Das ist der Gipfel der Perversion und für den Bildungsstand der modernen Gesellschaft kennzeichnend, dass dies in einer renommierten Zeitung unkommentiert abgedruckt wurde und offensichtlich nirgendwo auf Protest stieß.

Gegenwärtig beträgt der CO2-Gehalt der Atmosphäre 0,04 %, das sind 4 Moleküle auf 10.000 Luftmoleküle. Vor hundertfünfzig Jahren soll er 0,028 % betragen haben, das sind knapp 3 Moleküle auf 10.000. Es ist also 1 Molekül in 150 Jahren dazu gekommen.  Selbst wenn das alles dem Menschen zugeschrieben würde, wären es weniger als ein Molekül zusätzlich auf 10.000 Luftmoleküle. Ein abenteuerlicher Gedanke, dass dies der entscheidende Parameter für die Einstellung der Temperatur in den unteren Luftschichten sein soll.

Auf höchster internationaler Ebene koordiniert und bezahlt die UNFCCCii alle Maßnahmen zum Klimaschutz. UNFCCC ist der Veranstalter der jährlich stattfindenden internationalen Klimakonferenzen mit jeweils zehntausenden Teilnehmern aus aller Welt, die zumeist von Nichtregierungsorganisationen (NGO’s) abgesandt werden. Auch das IPCC wird von UNFCCC finanziert. Diese Organisation hat die Aufgabe, den behaupteten Einfluss der auf die menschliche Wirtschaft zurückführbaren CO2-Emisssion auf das Klima zu beweisen. In den nunmehr 5 sogenannten Sachstandsberichten hat das IPCC diese Aufgabe nicht erfüllt! Eine nach den üblichen Regeln einer naturwissenschaftlichen, auf Messwerte gestützten Beweisführung wurde überhaupt nicht versucht!

Nach der in den 30iger Jahren von Karl Popperiii entwickelten Theorie der Naturwissenschaften gilt, dass naturwissenschaftliche Erkenntnisse überhaupt nicht im mathematischen Sinne bewiesen werden können, da es sich letztlich immer um reines in der Sprache der Mathematik formuliertes Erfahrungswissen handelt. Naturwissenschaftliche Gesetze können nur widerlegt (falsifiziert) aber nicht bewiesen werden.

In jedem Lehrbuch der Thermodynamik wird seit Jahrzehnten die sogenannte feucht-adiabatische Höhenformel abgeleitet, nach der das Temperaturprofil der Troposphäre, also der Atmosphäre bis zu einer Höhe von etwa 10 km berechnet werden kann. Die Berechnung erfolgt auf Basis der thermodynamische Zustandsgleichung und der darin beschriebenen Zusammenhänge zwischen Druck und Temperatur. Diese Gleichung beschreibt einen Temperaturabfall von etwa 0,6 °C pro 100 m Höhenunterschied. In dieser Form wird sie seit vielen Jahren in der Luftfahrt angewendet. Die Werte unterliegen natürlich wetterabhängigen Schwankungen und sind daher für praktische Zwecke als ICAOiv-Normatmosphäre in Benutzung. Das Gas CO2 geht in diese Berechnung nur indirekt mit seinem winzigen Anteil bei der Berechnung der spezifischen Wärme der Luft als Gasgemisch ein.

Der in der Meteorologie benutzte Temperaturbegriff bezieht sich auf die Lufttemperatur in 1 bis 2 m Höhe (Anmerkung der Redaktion: In Europa sind es aktuell 2 m) über dem Erdboden. Wie kommt diese Temperatur zustande?

Etwa die Hälfte der von der Sonne auf die Erde eingestrahlten Energie erreicht die Erdoberfläche und erwärmt diese. Ein kleiner Teil dieser Wärme wird von der Erdoberfläche direkt in den Weltraum zurückgestrahlt. Der größere Teil wird durch Wärmeleitung auf die mit der Erdoberfläche in Kontakt stehende Luft übertragen. Die zugeführte Wärmeenergie wird durch Konvektion in der Atmosphäre verteilt, wobei sich das oben erwähnte nach der Höhenformel zu berechnende Temperaturprofil ergibt. Dabei stellt sich die Temperatur der Hochatmosphäre so ein, dass die von dort (temperaturabhängig) in den Weltraum abgestrahlte Energie im Mittel mit der von der Sonne zugestrahlten Energie im Gleichgewicht ist. Wäre das nicht so, müsste sich die Erde ständig weiter abkühlen oder erwärmen. Die entsprechende Gleichgewichtstemperatur in der Hochatmosphäre liegt bei -18° C. Für diese Strahlungskühlung der Erde spielt das CO2 als als das neben dem Wasserdampf strahlungsaktivste Gas eine wichtige Rolle. Einen vom CO2-Gehalt der Luft durch eine sogenannte Gegenstrahlung bewirkten Wärmetransport aus der kalten Hochatmosphäre auf den warmen Erdboden kann es dagegen nicht geben. Dies widerspricht dem zweiten Hauptsatz der Thermodynamikv

Alle damit zusammenhängenden physikalische Details sind in einer großen Anzahl von Beiträgen auch auf Basis der Planckschen Strahlungsgleichung entsprechend den Gesetzen der theoretischen Physik dokumentiert. Siehe z.B. hiervi.

Das Fazit aus all dem lautet: Es gilt die mit der Erfahrung übereinstimmende Nullhypothese: Der CO2-Anteil der Troposphäre hat keinen Einfluss auf deren Temperatur.

Im Sinne der Popper’schen Wissenschaftstheorie müsste das IPCC, wenn es einen solchen Einfluss behauptet, die entsprechenden Ableitungen der Physiker falsifizieren. Bei Studium der Sachstandsberichte stellt man aber fest, das dies überhaupt nicht versucht wird. Stattdessen hat das IPCC sogenannte Treibhausmodelle der Atmosphäre entwickelt, auf deren Basis CO2 in der Hochatmosphäre durch Wärmestrahlung vom Erdboden angeregt wird und dann Strahlung nach allen Richtungen, also auch nach unten reemittiert (sogenannte Gegenstrahlung) und dadurch den Erdboden zusätzlich zur normalen Einstrahlung aufheizt. Dies würde aber einem Wärmetransport aus der kalten Hochatmosphäre auf den warmen Erdboden entsprechen, im Widerspruch zum zweiten Hauptsatz der Thermodynamik, nach dem so etwas unmöglich ist! s.o.

Das IPCC versucht de facto eine Umkehr der Beweislast. Statt die gültige Nullhypothese zu widerlegen, wird eine eigene, neue Nullhypothese aufgestellt und die etablierte Wissenschaft aufgefordert, diese zu widerlegen. Das ist nicht schwer, da die Hypothese des IPCC lediglich aus Computermodellen eines real bisher nicht nachgewiesenen, von der einschlägigen Wissenschaft vielfach widerlegten Treibhauseffekts besteht. Die auf dieser Annahme basierenden Computermodelle versagen alle bereits beim Versuch, damit die beobachtete aktuelle Klimaentwicklung abzubilden. Dies wurde vom IPCC selbst in einer großen Vergleichsstudie dokumentiert.vii

Außerdem hat der U.S. Amerikanischen Physiker Robert W. Woodviii bereits 1906 experimentell nachgewiesen, dass Strahlung für die Funktion etwa eines Gartentreibhauses keine Rolle spielt.

Die gültige Nullhypothese wird auch durch die Paläoklimatologie bestätigt, die den Verlauf von Temperatur und CO2-Gehalt über Jahrmillionen ermitteln und zeigen konnte, dass sich beide Größen unabhängig voneinander änderten. Sofern überhaupt ein Zusammenhang besteht zeigte sich, dass eine Temperaturänderung der Änderung der CO2-Gehalte vorausläuft. Das ist wegen der Temperaturabhängigkeit der Wasserlöslichkeit des CO2 in den Weltmeeren auch plausibel.

Diese Sachlage wurde durch zahlreiche Veröffentlichungen, offene Briefe und Petitionen von kompetenten Wissenschaftlern auch den verantwortlichen Politikern immer wieder mitgeteilt.

Wie ist dann aber das unbeirrte Festhalten der hohen Politik am „Klimaschutzabkommen“ als eines der zentralen Themen unserer Zeit zu erklären. Angela Merkel fordert am 15.11.2017 auf der UN Klimakonferenz in Bonn mehr Einsatz für den Klimaschutz. „Der Klimawandel ist eine Schicksalsfrage der Menschheit“.

Es fällt schwer zu glauben, dass wirklich keiner der verantwortlicher Politiker die oben dargestellten Argumente zur Widerlegung der CO2 -Hypothese versteht. Was ist also das Motiv für die tief in das Wirtschaftsgeschehen eingreifenden Beschlüsse?

Der Verdacht drängt sich auf, dass es eigentlich gar nicht um die Abwehr einer durch (menschliche) Aktivitäten verursachte, gefährliche Klimaänderung geht.

Die costaricanische Politikerin Christiana Figueres, die das UNFCCC von Juli 2010 bis Mai 2016 leitete, formulierte: „Das ist das erste Mal in der Geschichte der Menschheit, das wir es uns absichtlich zur Aufgabe gemacht haben, innerhalb einer festgelegten Zeitspanne das seit der industriellen Revolution vor 150 Jahren vorherrschende Leitbild der wirtschaftlichen Entwicklung zu ändern.“

Damit dieser Umbau gelingen kann, muss der natürliche Widerstand der Bevölkerung gegen die damit verbundene Absenkung des Lebensstandards und der Einschränkung der individuellen Freiheit gebrochen werden. Dafür eignen sich seit alters her die großen Mythen meist mit göttlicher Macht verknüpfter drohender Naturgewalten, die nur durch menschliches Wohlverhalten bzw. Opferbereitschaft besänftigt werden können.

Angsterzeugung ist ein altbewährtes Herrschaftskonzept. Auch die heute erzeugte Angst vor der großen Flut durch den angeblich ständig ansteigenden Meeresspiegel erinnert an die bereits im Gilgameschepos (In verschiedenen Fassungen überliefertes Heldengedicht ab ca. 1800 v.Chr.) geschilderte Darstellung bei den Sumerern und an die biblische Sintflut.

Das neue Paradigma lautet: Die Menschheit muss sich von der kapitalistischen Wirtschaftsweise verabschieden. Die dem Kapitalismus innewohnende Wachstumsdynamik führt nach diesen Vorstellungen zu einer Überlastung des globalen Ökosystems und im Kampf um die knapper werdenden Ressourcen zu Ungerechtigkeit gegenüber den schwächeren Ländern. Die Industrieländer haben angeblich einen zu großen „Fußabdruck“, der sie mehr natürliche Ressourcen verbrauchen lässt, als ihnen zusteht.

Zur Errichtung einer „gerechteren“ Welt bedarf es daher einer Großen Transformation der Weltwirtschaft und einer Art Weltregierung, die aus der UNO und der EU hervorgehen muss.

Die detaillierte Beschreibung dieser “schönen neuen Welt“ findet sich im Sondergutachten des deutschen WBGUix von 2014 : „Klimaschutz als Weltbürgerbewegung“. Dieser im Auftrag des Bundesministeriums für Bildung und Forschung und des Ministeriums für Umwelt, Naturschutz Bau und Reaktorsicherheit erstellte Bericht war praktisch die Blaupause für die Beschlüsse von Paris.

Im Vorwort heißt es: „inakzeptable Klimafolgen drohen, wenn die CO2 Emissionen nicht bis spätestens 2070 auf Null reduziert werden“. Da der Weltgesellschaft als ganzes nur ein eng begrenztes Kohlenstoffbudget zur Verfügung steht, ist jedes Land, jede Kommune, jeder Bürger aufgefordert, die Null zu schaffen. Die Bürger sollen also daran mitarbeiten, eine Industrie zu organisieren ohne eine Energieversorgung durch Verbrennung fossiler Kraftstoffe, also ohne die bisherige Grundlage aller modernen Industriegesellschaften.

Die deutsche Regierung hat mit der Vorlage des im November 2016 beschlossenen „Klimaschutzplan 2050“ alle Ziele und die dafür erforderlichen Detailmaßnahmen in die nun die Marktwirtschaft ablösenden nationalen Jahrespläne übernommen. Dazu gehört, den Ausstoß von „Treibhausgasen“ bereits bis 2050 um 90% bis 95% zu reduzieren. Die Ziele werden im Rahmen einer sogenannten „Sektorkopplung“ für alle Wirtschaftsbereiche, wie Energiewirtschaft, Gebäude, Verkehr, Landwirtschaft detailliert vorgegeben. Ab 2030 soll danach z.B. der Verbrennungsmotor verschwinden.

Da Deutschland als Besonderheit unter allen Industrieländern auch aus der Nutzung der Kernenergie aussteigt, bedeutet dies de facto eine Rückkehr in die Zeit vor Erfindung der Dampfmaschine also vor den Beginn der industriellen Revolution. Die Dampfmaschine beendete die Ära rein handwerklicher Produktionsverfahren in der neben der nicht überall verfügbaren Wasserkraft die Windmühle die einzige Kraftmaschine war.

Viele dieser Maßnahmen sind in die Gesetzgebung eingeflossen, ohne dass die Bevölkerung daran im erforderlichen Umfang beteiligt wurde. Es drängt sich der Eindruck auf, dass die Mehrzahl der Parlamentarier sich eigentlich der Tragweite des mit diesen Plänen verbundenen Umbaus unserer marktwirtschaftlich organisierte Demokratie nicht bewusst war. Ein Musterbeispiel waren die von Angela Merkel bereits 2011 quasi im Handstreich durchgepeitschten Gesetze zum Atomausstieg und Einführung des EEG (Erneuerbare Energiegesetz).

Die Erkenntnis, dass es eigentlich um den Umbau der Marktwirtschaft in eine neo-sozialistische, allein an Ressourcenschonung orientierte Planwirtschaft geht, erklärt auch das fanatisch verfolgte Ziel zur Beendigung der Kernenergie-Nutzung. Die Entdeckung der Äquivalenz von Masse und Energie und die Erschließung der technischen Nutzung dieser Erkenntnis gehört zu den größten Leistungen des menschlichen Geistes. Die Möglichkeit, über eine praktisch unbegrenzte Quelle billiger und sauberer Energie verfügen zu können, beendet de facto alle Befürchtungen über den durch Ressourcenerschöpfung verursachten Untergang der Menschheit. Sie entwindet daher den Ökologisten ihr wichtigstes Argument. Die Kernenergie macht alle unter Forderung nach Nachhaltigkeit erhobenen Einschränkungen einer sozialistischen Mangelverwaltungswirtschaft überflüssig und entzieht daher der Notwendigkeit zu einer großen Transformation die Begründung.

Die Große Transformation bedeutet die Transformation von einer freien marktwirtschaftlich organisierte Gesellschaft in eine staatlich gelenkte Mangelverwaltungswirtschaft, in der alle Bürger gleich (arm) sind. Übernationale Mammutbehörden nach Art der EU definieren unter dem Begriff angeblicher „Nachhaltigkeit“ welche Ressourcen in welcher Menge verbraucht werden dürfen.

Die Blaupause für alle derartig noch zu erwartenden Gesetze liefern die CO2 Zertifikatex, Der nächste Schritt zeichnet sich ab, mit dem Fahrverbot für Dieselmotor getriebene PKW und als nächstes das Verbot von Plastikgegenständen des täglichen Lebens. Smartzähler regeln wann die Bürger wie viel Strom verbrauchen dürfen.

Sollte dieser hier skizzierte Weg, so wie es augenblicklich sich abzeichnet, konsequent fortgesetzt werden, wird zumindest Deutschland aus dem Kreis der großen Industrieländer ausscheiden. Ohne eine zuverlässige Versorgung mit billigem Strom und ohne ein leistungsfähiges Verkehrs- und Transportsystem, wie es nur auf der Basis des Verbrennungsmotors möglich ist, kann ein moderner Industriestaat nicht funktionieren.

Die CO2– Lüge als Grundlage dieses neuen Versuchs zur Schaffung einer neuen neosozialistischen, antikapitalistischen Gesellschaft wird einmal als der größte wissenschaftliche Skandal seit Galilei in die Geschichte der Naturwissenschaft eingehen.

Bisher ist nur das Amerika Donald Trumps nicht bereit den Propheten einer neuen, angeblich gerechteren, Ökowelt auf dem Weg in die Deindustrialisierung zu folgen. Trump folgte der von dem Atmosphären Wissenschaftler Richard Lindzen eingereichten von über 300 hochqualifizierten Wissenschaftlern unterzeichneten Petition, in der er aufgefordert wurde, aus der UN Klimarahmenkonvention und damit auch aus dem Abkommen von Paris auszutreten.xi.

Werden auch die Bürger Deutschlands erkennen, dass es Zeit ist, diesem Vorbild zu folgen? Zeit, ihre Freiheit zu verteidigen und die Priester der neuen Ökoreligion zur Hölle schicken ehe dieser Versuch mit ungeheuren Verlusten an seinen inneren Widersprüchen scheitert?

i „Gebt dem Schmutz einen Preis“ Aufruf in Die Zeit Nr. 37, Sept. 2016. Christoph Bals (German Whatch); Holger Lösch (Hauptgeschäftsführung des BDI); Ottmar Edenhofer, (Leiter des MCC Mercator Research Institut on Global Commons and Climate Change).

ii UNFCCC: United Nations Framework Convention on Climate Change. Es handelt sich um ein 1992 gegründetes internationales Abkommen mit dem Ziel, eine gefährliche anthropogene Störung des Klimasystems zu verhindern und die globale Erwärmung zu verlangsamen. UNFCCC ist gleichzeitig die Bezeichnung für das sogenannte Klimasekretariat der UN mit Sitz in Bonn.

iii Karl Popper, Die Logik der Forschung Erkenntnistheoretisches Hauptwerk 1934. Kriterium der Falsifizierbarkeit als Charakterisierung der empirischen Forschung. .

iv ICAO: International Aviation Organization (gegründet 7. Dez. 1944 derzeit 191 Vertragsstaaten)

v Rudolf Clausius 1850, 2. Hauptsatz der Thermodynamik: „Wärme kann nie von selbst von einem Körper niederer Temperatur auf einen Körper höherer Temperatur übergehen“.

vi Gerhard Gerlich, Ralf D. Tscheuschner: Falsification of the Atmospheric CO2 Greenhouse Effects Within the Frame of Physics. Cornell University Library Nov. 2007

Heinz Thieme: Die Erdatmosphäre ein Wärmespeicher. Www.real-planet.eu

vii Als Vorbereitung für den 5. IPCC Sachstandsbericht vereinbarte die internationale Klimamodellierungsgemeinschaft einen Vergleich standartisierter KlimaSimulationen: „Coupled Modell Intercomparison Project, (CMIP 5)“. Die globale Temperaturentwicklung seit 1975 wurde mit den 44 neuesten Klimamodellen (Stand 2014) mit Satellitenmessungen verglichen. Alle Modelle zeigten etwa ab dem Jahr 2000 einen gegenüber den Messungen deutlich zu hohen Temperaturanstieg.

viii Robert William Wood, U.S. Amerikanischer Experimentalphysiker. Geb. 2.5. 1868 gest. 11.8.1955

ix Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen, WBGU. 1992 im Umfeld des „Erdgipfel von Rio de Janeiro“ gegründet. Erstellt regelmäßige „Gutachten“ unter der Bezeichnung „Welt im Wandel“.

x CO2– Zertifikate verleihen des „Recht“ CO2 emittieren zu dürfen. Mit diesem Recht wurde ein neues handelbares, knappes Gut geschaffen. Ein Beispiel für Wertschöpfung aus dem Nichts!

xi Richard Lindzen, Petition, 23.02.2017: „We urge the United States government, and others, to withdraw from the United Nations Framework Convention on Climate Change (UNFCCC). We support reasonable and cost-effective environmental protection. But carbon dioxid, the target of the UNFCCC is not a pollutant but a major benefit to agriculture and other life on earth.“




Kernkraft in Frankreich: Fessenheim soll geopfert werden

Diese abgründige Logik findet inzwischen auch in unserem Nachbarland Frankreich immer mehr Anhänger. Dabei galt das Land einmal, zum Schrecken aller Grünen, mit einem Anteil von 75 bis 80 Prozent Atomenergie an der gesamten Elektrizitätsproduktion, als Sehnsuchtsort aller Anhänger einer zuverlässigen und obendrein preisgünstigen Stromversorgung. Das ist längst vorbei. Die obskurantistische Postmoderne, ohnehin eine Erfindung französischer Intellektueller, hat auch in Frankreich seit der Pariser Studentenrevolte von 1968 viele Gehirne verwirrt und vernebelt.

In den Nachkriegs-Jahrzehnten stand die französische Linke, insbesondere die mitgliederstarke und gut organisierte Kommunistische Partei, zunächst wie ein Mann hinter dem französischen Nuklearprogramm (einschließlich seiner militärischen Komponente). Das galt noch bis weit in die 1990er Jahre. Selbst die Reaktor-Havarie von Tschernobyl im Frühjahr 1986, die in Deutschland zum Signal für den „Atom-Ausstieg“ wurde, sorgte in Frankreich zunächst kaum für Irritationen. Angeblich hatte die radioaktive Wolke am Rhein Halt gemacht, so dass die französischen Wochenmärkte geöffnet blieben. Doch seit der Jahrtausendwende ticken auch in Frankreich die Uhren immer mehr im EU-Gleichklang. Auch die Franzosen wurden inzwischen von der irrationalen Angst vor Radioaktivität erfasst. Davon zeugt zum Beispiel der vor kurzem vorgestellte Abschlussbericht einer Untersuchungskommission der Nationalversammlung (nach deren Vorsitzenden Rapport Pompili genannt). Dort werden die vorhandenen französischen Kernkraftwerke systematisch als technisch veraltet und störanfällig dargestellt, obwohl alle sowohl von der unabhängigen Reaktorsicherheitskommission ASN als auch von der Internationalen Atomenergie-Agentur IAEA für sicher erklärt wurden und obwohl die Laufzeit baugleicher Reaktoren in den USA von 40 auf 60 Jahre verlängert wurde.

Das zurzeit älteste französische Kernkraftwerk bei Fessenheim im Elsass soll wohl als erstes abgeschaltet werden, und zwar nicht, weil es als besonders störanfällig gilt, sondern weil es einem Abkommen entgegensteht, das die sozialistische Partei im Präsidentschaftswahlkampf von 2012 mit der Mini-Partei der Grünen geschlossen hat, um sich deren Stimmen zu kaufen. Im danach verabschiedeten Gesetz über die Energiewende und das grüne Wachstum (Loi de transition énergétique pour la croissance verte) wurde die Höchstleistung der Kernkraftwerke auf dem damals erreichten Stand von 62.200 Megawatt festgeschrieben. Da das ursprünglich vom staatlichen französischen Reaktorkonzern Areva gemeinsam mit Siemens konzipierte Kernkraftwerk mit „fortschrittlichen Druckwasser-Reaktor der 3. Generation“ (einschließlich Core-Catcher zur Meisterung einer Kernschmelze) bei Flammanville in der Normandie mit einer Leistung von 1.800 MW nach langen Verzögerungen nun endlich im kommenden Jahr seinen Betrieb aufnehmen kann, sollen die beiden 40 Jahre alten Reaktoren von Fessenheim mit je 900 MW Leistung stillgelegt werden, um den gesetzlichen Vorgaben zu genügen. Es steht dem französischen Strom-Monopolisten Électricité de France (EdF) aber im Prinzip frei, anstelle von Fessenheim auch andere Kapazitäten vom Netz zu nehmen.

Die Zukunft des Reaktortyps von Flammanville gilt übrigens als ungewiss, denn die hier erzeugte Elektrizität wird erheblich teurer kommen als die aus herkömmlichen Druckwasserreaktoren. Französische Ingenieure beklagen schon länger, dass Ihnen das aufwändige Sicherheitskonzept der dritten Reaktorgeneration mit mehrfacher Redundanz während des zeitweiligen Zusammengehens von Areva und Siemens von deutschen Behörden aufgenötigt wurde. Es gibt preisgünstigere technische Alternativen wie die passive Kühlung des Reaktorkerns, die bei Fachleuten als ebenso sicher gelten.

Dank des hohen Anteils der Kernenergie liegt die durchschnittliche CO2-Produktion je Kilowattstunde in Frankreich zurzeit bei 50 Gramm. Das ist lediglich ein Zehntel der entsprechenden Kennziffer Deutschlands, wo noch immer über die Hälfte des Stroms mithilfe von Kohle und Erdgas erzeugt wird. Gleichzeitig garantiert der hohe Atomstromanteil den Franzosen niedrige Strompreise. Im Jahre 2008 kostete die Kilowattstunde vor Steuern im Schnitt 7,82 Cent. In diesem Jahr sind es 9,08 Cent. Von solchen Strompreisen können wir Deutsche nur träumen. Ganz anders als der Strompreis, der in zehn Jahren nur um 12 Prozent gestiegen ist, hat sich in der gleichen Zeit der Zuschlag zur Finanzierung der „Erneuerbaren“ (CSPE, Contribution au service public pour l‘électricité) entwickelt. Er stieg von 0,45 Cent im Jahre 2008 auf 2,25 Cent im Jahr 2018, hat sich also verfünffacht. Ohne die ihnen aufgebrummte CSPE wäre der Strompreis für Endverbraucher seit 2010 konstant geblieben.

Der von Staatspräsident Emmanuel Macron mit Bedacht zum Minister für die ökologische und solidarische Energiewende und Vize-Premier ernannte TV-Produzent und Publikumsliebling Nicolas Hulot orientiert sich stark an der deutschen Energiewende, ohne zu berücksichtigen, dass diese von Anfang an eine Totgeburt war. Zwar wurde er inzwischen in seinem Eifer, möglichst viele Kernkraftwerke stillzulegen, vom Staatschef gebremst. Doch fährt er fort, gleichzeitig für E-Autos und für den Atomausstieg zu werben. Dabei würden gerade bei einer erfolgreichen Verbreitung von E-Autos zusätzliche Kernkraftwerke gebraucht. Die beiden Reaktoren von Fessenheim, deren Stilllegung Hulot fordert, würden z.B. ausreichen, um jeden Tag mindestens 400.000 E-Autos aufzuladen.

Wie auch bei uns geht in Frankreich von den angeblich erneuerbaren Energien eine große Faszination aus. Nicolas Hulot schürt die Illusion, eines Tages könne ein Land wie Frankreich ohne Wohlstandseinbuße zu hundert Prozent mit „Erneuerbaren“ versorgt werden. Diese Illusion konnte nur aufkommen, weil die Debatte um den zukünftigen Energie-Mix in den audiovisuellen Massenmedien auf die Endenergie Elektrizität verengt wurde und Heizung und Transport außen vor blieben. Doch trotz des hohen Anteils der Kernenergie an der Elektrizitätsproduktion beruht auch Frankreichs Primärenergie-Versorgung zu über zwei Dritteln auf so genannten fossilen Energieträgern. Daran dürfte sich in absehbarer Zeit kaum etwas ändern. Da Manuel Macron den Ehrgeiz seines Energiewende-Ministers in Sachen „Atom-Ausstieg“ ohnehin schon gebremst hat, ist überdies nicht zu erwarten, dass in den kommenden Jahrzehnten neben Fessenheim (oder vielleicht Tricastin im Rhône-Tal) weitere Nuklear-Standorte geopfert werden. Denn das würde die Pläne der französischen Elite, Deutschland wirtschaftlich auszutricksen und Westeuropa der französischen Bürokratie zu unterwerfen, konterkarieren.

 




Chef des Green Climate Fund tritt nach katastro­phalem Treffen zurück

Der australische Klima-Finanz-Experte [?] Howard Bamsey kündigte seinen Rücktritt vom Posten des Geschäftsführenden Direktors des GCF an, und zwar am Ende der viertägigen Konferenz in Songdo, Südkorea.

Der GCF, dessen Hauptquartier in Südkorea im Jahre 2013 seinen Dienst aufnahm mit Unterstützung von fast 200 Nationen, hatte sich zum Ziel gesetzt, armen Nationen bei der Reduktion von Treibhausgas-Emissionen zu helfen und ihre Ökonomien besser an Hitzewellen, Stürme und steigenden Meeresspiegel anzupassen. Aber das hehre Ziel ist untergegangen in Streitereien zwischen reichen und armen Ländern darüber, wie und wo investiert werden sollte.

Das war ein sehr schwieriges und enttäuschendes Meeting des Gremiums für uns alle, aber vor allem für jene Menschen, die am verwundbarsten sind gegenüber Auswirkungen des Klimawandels und die von den Aktivitäten des GCF abhängig sind“, sagte GCF-Chef Lennart Baage.

In einem anderen Statement sagte der GCF, das Treffen war erfüllt von „herausfordernden und schwierigen Diskussionen zwischen den Mitgliedern des Gremiums. Ein Sprecher des GCF sagte danach, dass Baage weitere Kommentare abgelehnt hat.

Das Treffen scheiterte mit dem Vorhaben, seinem Portfolio 76 Projekte im Wert von 3,7 Milliarden Dollar hinzuzufügen. Die Projekte reichten von der Unterstützung der Installation von Solarpaneelen auf Dächern in Indien bis zur Sicherung von Feuchtgebieten in Kolumbien.

Full story

——————————-

In einer anderen Story hieß es, dass er aus „persönlichen Gründen“ zurückgetreten sei:

Chef des UN-Klimafonds tritt zurück aus persönlichen Gründen, während das Treffen des Gremiums kollabierte

Megan Darby

In einem dramatischen Finale eines Treffens, auf dem es nicht gelungen war, irgendwelche Finanzierungen für Entwicklungsländer zu beschließen, erklärte Howard Bamsey seinen Rückzug aus dem Green Climate Fund:

Howard Bamsey trat als Geschäftsführender Direktor des Green Climate Fund GCF zurück, und zwar mit sofortiger Wirkung nach einem nervenaufreibenden Treffen des Gremiums.

The Australian zitierte aus seinem Schreiben „drückende persönliche Dinge“ und fügte hinzu, dass es die besten Zeit für den Rücktritt ist vor der nächsten Runde des Fundraising.

Der Rücktritt erfolgte nach dem Kollaps des viertägigen Treffens in Südkorea ohne Entscheidungen bzgl. der 11 Angebote im Wert von fast einer Milliarde Dollar sowie darüber, wie man das Flaggschiff der Klima-Finanzierungs-Initiative finanziell aufstocken könnte.

„Die Frechheit von Trump zu sagen, dass #GCF und der Auffüllungs-Prozess durch Spenden erfolgen soll. Man stelle sich vor, er setzt sich einfach hin und hält dann den Mund“, twitterte Brandon Wu von Action Aid. Er sagte, dass es eines der Gründungsprinzipien des Fonds sei, Entwicklungsländern gleiches Rederecht einzuräumen.

Man erinnere sich bitte daran, dass einer der Grundlagen von #GCFund eine ausgeglichene Führung ist, wobei Empfänger-Länder mehr Kontrolle über andere Fonds ausüben. Der von Beiträgen getriebene Aufstockungs-Prozess unterstreicht das, und es gibt zahlreiche beweise, dass eine internationale Finanzierung von oben nach unten oft fehlgeleitet wird und nicht nachhaltig ist.

Das Geld wird knapp, sind doch lediglich noch 2,8 Milliarden Dollar übrig. Aber das Mitglied aus Finnland Satu Santala twitterte, dass dies nicht der Grund des Scheiterns gewesen sei. „Die Führung des GCF muss dringend fixiert werden“, sagte sie.

Link: https://wattsupwiththat.com/2018/07/10/u-n-green-climate-fund-chief-resigns-after-disastrous-meeting/

Übersetzt von Chris Frey EIKE




Wenn Klima zur Religion wird

Normalerweise sind wir gewohnt, unsere Meinung und Glauben auf  Fakten und Lebenserfahrung zu basieren. Bei vielen Menschen ist es heute jedoch umgekehrt: der Glauben ist entscheidend, ob Fakten anerkannt  werden oder nicht. Fakten, die nicht zum eigenen Glauben passen, werden ignoriert oder für falsch erklärt, so z.B. der Klimastillstand (oder „hiatus) der letzten 18 Jahre – nach dem Motto „Was nicht sein darf, das kann nicht sein“.

Was kann sich die Natur erlauben, sich nicht an die Klimamodelle zu halten ?

Schon lange ist an deutschen Universitäten der schöne Spruch bekannt:

„Wenn meine Theorie und die Realität nicht zusammenpassen, dann müssen eben die Fakten falsch sein“.

Die Klima-Diskussion ist ein gutes Beispiel dafür. 

Wenn Menschen den bei vielen Medien beliebten alarmistischen Meldungen über eine  kommende „Klimakatastrophe“ (bis hin zum anschließendem Weltuntergang) zum Opfer gefallen sind, dominieren die Ängste so stark, dass eine sachliche Diskussion nicht mehr möglich ist.  Dass dies auch bei intelligente Menschen sein kann  (z.B. bei Chefredakteuren), ist ein noch ungelöstes Rätsel. Die „German Angst“ ist inzwischen weltweit zu einem deutschen Charakteristikum“ geworden.

Mangel an Bildung und Wissen ist sicher ein Grund für den Klimakatastrophen-Glauben, sowohl bei Journalisten wie bei Politikern. Sie kennen ganz offensichtlich nicht die Klima-Vergangenheit: Erstens gibt es nicht „den Klimawandel“ als eine neue von Menschen verursachte Sünde, die mit Bußgeld und  Selbstkasteiung  bekämpft werden muss, sondern Klimawandel ist ein kontinuierlicher weitgehend regelmäßiger Prozess seit Bestehen unseres Planeten. Es gibt etwa ein Dutzend Klima-Einflussfaktoren (kurzfristige, mittelfristige und langfristige), nur CO2 gehört nicht dazu.

Der IPCC mit seiner CO2-Hypothese als Grund für den (nur von 1975 bis 1998 erfolgten globalen Temperaturanstieg !! ) ist eine politische und keine wissenschaftliche Institution. Seine Berichte werden von Politikern erst nach entsprechender Zensur  freigegeben. In der Folge wurde CO2 von den Medien verteufelt und rasch zum „Klimakiller“ befördert. Allerdings ist bis heute unklar geblieben, ob ein „totes Klima“ auch das Ende von Wetter bedeutet.

Tatsächlich war der IPCC-Ausschuss  (in den Medien oft als „Weltklimarat“ hochstilisiert) in seinen Berichten nicht in der Lage, einen Beweis für eine seine CO2-Theorie zu liefern. Es gab in der Klima-Vergangenheit keinen Fall, dass ein CO2-Anstieg eine globale Erwärmung ausgelöst hätte. Nur das Gegenteil war oft der Fall: Ein Temperaturanstieg bewirkt eine CO2-Freisetzung von CO2 aus dem Meerwasser, so dass CO2-Werte in der Atmosphäre auf 4000 bis 6000 ppm anstiegen, dh.10 bis 15mal so hoch wie heute – ohne negative Folgen, aber mit stark erhöhtem Pflanzenwuchs. Der Gehalt an CO2 in den Weltmeeren ist  bekanntlich mehr als 50mal so hoch wie in der Atmosphäre.

Aber mit der CO2-Theorie konnte man naive Menschen leicht verführen und als Argument im Kampf gegen Industrie und Kapitalismus benutzen, wie einzelne IPCC-Funktionäre  offen zugaben. Die einzige Begründung

für die CO2-Hypothese im letzten IPCC-Bericht lautet „confidence“, d.h. Vertrauen oder Glauben. Und das hat mit seriöser Wissenschaft nichts zu tun. Für Politiker ist es aber allzu verlockend, sich als „Retter der Menschheit“ zu erheben, in dem man die CO2-Emissionen reduziert (so einfach ist das !).

Aber die politisch-ideologische Klima-Hysterie ist nichts Neues: im Jahr 1975, als die Globaltemperatur  seit 1940 um ca. 0,5° abgesunken war (und das trotz CO2-Anstieg – unglaublich !) , wetteiferten die Medien mit Warnungen vor einer kommenden neuen Eiszeit. Auch diese wird kommen mit einer Abkühlung von 1,5 bis 2°C, aber erst im Laufe der nächsten 400 Jahre als neues „Little Ice Age“, genauso wie dies zuletzt im Mittelalter (1500 -1700) und alle 1000 Jahre zuvor, seit mehr als 8000 Jahren regelmäßig der Fall war.

Prof.Gerhard Schulze,

Deutscher Soziologe und Professor für Methoden der empirischen Sozialforschung und Wissenschaftstheorie an der Otto-Friedrich-Universität Bamberg.

„Wir haben keine Erfahrung mehr im Umgang mit wirklichen Ernstfällen. Das führt dazu, dass wir Katastrophen geradezu lustvoll herbeiphantasieren. Zum Beispiel die Klimakatastrophe, die ich für ein erstaunliches Phänomen massenhafter Verblendung halte“. 

 




Eine schamlose globale Tragödie

Komitees des Weißen Hauses und des Senats haben Bereitstellungs-Gesetze für „auswärtige Operationen“ ihrem jeweiligen Plenum vorgelegt. Unter Anderem sollen diesen Gesetzen zufolge Milliarden Dollar an „lebenserhaltende globale Gesundheitsprogramme für die verwundbarsten Völker der Welt“ fließen.

Unglücklicherweise fließen fast 2 Milliarden Dollar dieser Gelder an die Weltbank und andere „multilaterale Entwicklungsbanken“, welche sich während der letzten Jahre den menschengemachten Klimawandel-Alarmismus auf die Fahnen geschrieben haben – und welche es ablehnen, fossil erzeugten Strom zu finanzieren. Dies enthält verarmten Nationen und Familien bezahlbaren, zuverlässigen Strom vor, den sie so verzweifelt brauchen … es zwingt sie, sich auf Wind- und Solarprogramme zu stützen, welche die Banken finanzieren WERDEN … und es verewigt Energiearmut, Arbeitslosigkeit, Armut, Krankheit, Unterernährung und frühzeitigen Tod, welche diese Bevölkerungsgruppen seit Jahrhunderten quälen.

Das Gesetz für „auswärtige Operationen“ nimmt jetzt seinen Weg durch die politischen Gremien, vermeintlich um „diplomatische Prioritäten der USA in Übersee voranzubringen“, darunter die „Zunahme der globalen Sicherheit“ und weitere „lebenserhaltende globale Gesundheitsprogramme für die verwundbarsten Völker der Welt“.

Unter den Gesetzentwürfen sind üppige Gelder für die Weltbank und andere so genannte Multilaterale Entwicklungsbanken (MDBs): insgesamt rund 1,8 Milliarden insgesamt. Die USA sind bei Weitem der größte Geldgeber der Weltbank und auch ein wesentlicher Finanzierer von vier weiteren Entwicklungsbanken: African Development Bank, Asian Development Bank, Inter-American Development Bank und European Bank for Reconstruction and Development.

Während der letzten Jahre sind all diese Banken dem Klimawandel-Alarmismus gefolgt als einer Schlüsselgrundlage für ihre Kreditvergabe-Politik. Im Besonderen lehnen sie es ab, die Stromerzeugung mittels fossiler Treibstoffe zu fördern – und leisten damit aktiv der weiteren Verarmung vieler Nationen und Familien Vorschub, die verzweifelt auf elektrischen Strom warten.

Stattdessen pumpen diese Banken Geld in Wind- und Solarenergie-Programme, die einfach nicht in der Lage sind, bezahlbaren und zuverlässigen Strom in ausreichend großer Menge zu erzeugen, um diese Länder aus der Armut zu holen.

Immer weiteres Aufstocken ihrer grünen Verrücktheit

Tatsächlich fahren sie ihre grüne Verrücktheit immer weiter hoch. Die fünf erwähnten MDBs zusammen mit der European Investment Bank und der Islamic Development Bank haben jüngst einen gemeinsamen Report veröffentlicht darüber, was sie „Klima-Finanzierung“ nennen – welche im vorigen Jahr um kolossale 30% zugenommen hat – auf atemberaubende 34 Milliarden Dollar!

Mit über 13 Milliarden Dollar in ihren Tresoren hat die Weltbank den Löwenanteil dieses grünen Unterdrückungs-Geldes. Aber jede einzelne dieser Banken hat seinen Klima-Fokus erheblich gesteigert, einige haben ihn sogar verdoppelt.

Das ist nicht einfach nur erschreckend. Es ist zutiefst unmoralisch und steht im Gegensatz zu den vermeintlichen Zielen der zur Zustimmung anstehenden Gesetze. Die MDBs sind zu Anti-Entwicklungs-, Anti-verwundbaren Bevölkerungsbanken degeneriert. Ihre Werte vorgaukelnde Terminologie der „Klima-Finanzierung“ lässt sich viel besser als Klima-Herzlosigkeit beschreiben.

Diese Zehnermilliarden Dollar sollten eigentlich Projekte unterstützen, welche zu einer realen, bezahlbaren und zuverlässigen Energie für fast 1,2 Milliarden Menschen weltweit führen, die nach wie vor nicht über Strom verfügen. Weitere 2 Milliarden Menschen haben nur sporadisch und unvorhersagbar Zugang zu Strom. In Indien allein verfügen fast genauso viele Menschen, wie in den USA leben, nicht über Strom. In Afrika südlich der Sahara haben fast 700 Millionen Menschen (die Bevölkerungszahl von Europa) selten oder niemals Strom zur Verfügung. Sie kochen und heizen immer noch mit Holz, Holzkohle und Dung.

In jedem Jahr werden hunderte Millionen krank und 5 Millionen sterben an Lungen- und Darmkrankheiten durch das Einatmen giftiger Verschmutzer durch offene Feuer sowie durch das Fehlen sauberen Wassers, Kühlmöglichkeiten und Nahrung frei von Bakterien. Zum größten Teil weil diesen Nationen Energie fehlt, um ihre Wirtschaft zu modernisieren, leben fast 3 Milliarden Menschen von ein paar Dollars pro Tag, und weitere Millionen sterben jedes Jahr an vermeidbaren oder heilbaren Krankheiten.

Aber die Anti-Entwicklungsbanken verdoppeln einfach ihre tödliche Politik. In ihrem neuen Report heißt es: „Das gemeinsame Verfahren der Finanzierung der Anpassung an Klimawandel erkennt die Bedeutung langfristiger struktureller Änderungen wie etwa die Hinwendung bei der Energieerzeugung zu erneuerbaren Energien sowie die modale Hinwendung zu einem low-carbon-Transportwesen“.

Sie haben die Bemerkung weggelassen, dass sie im Jahre 2010 die Finanzierung der Energieerzeugung mittels Kohle eingestellt haben (hier). Jetzt beabsichtigen sie, die Finanzierung von Öl- und Gaserkundung in armen Ländern einzustellen. Stattdessen wollen sie eine totale „Dekarbonisierung“ vorantreiben.

Keine Diskussion. Keine Abstimmung. Keine Beweise. Keine Entschädigungen.

Einfach so. Finanzierung fossiler Treibstoffe in Entwicklungsländern ist einfach verschwunden. Ohne Diskussion. Ohne Abstimmung. Ohne jeden Beweis für Klima-Kataklysmen. Keine Entschädigungen. Lediglich eine politische Entscheidung seitens nicht gewählter und niemandem Rechenschaft schuldiger Bürokraten – unterstützt durch sich selbst bedienende Lobby-Verbände, Politiker und „grüne“ Energie-Unternehmen.

Dabei können nicht einmal diese Bankiers, Politiker und Aktivisten ihre eigenen Operationen (oder ihre Wohnungen) abhängig machen von sporadischer, unvorhersagbarer Wind- und Solarenergie [14/4/265]. Die Unternehmen könnten damit nicht einmal ihre Windturbinen und Solarpaneele herstellen. Und doch verlangen sie, dass ganze Entwicklungsländer akzeptieren, wie viele Arbeitsplätze, medizinische Möglichkeiten, Schulen, Wohnungen und Lebensstandard durch diese Märchen-Energie unterstützt werden können.

Es ist eine schamlose globale Tragödie. Diese Politik der MDBs verdammt Milliarden zu Armut und Millionen zu einem langsamen, qualvollen Tod. Amerika sollte nichts dergleichen mehr unterstützen. Keine vernünftige Nation sollte das tun.

Dankenswerterweise aus der Sicht der Randnationen haben chinesische Banken damit begonnen, durch Kohle und Gas erzeugte Energie in Afrika und Asien zu fördern. Im Zuge dessen haben sie sich gewaltige politische und strategische Vorteile verschafft – auf Kosten der USA, Europas und der MDBs. Andere Banken können und sollten Gleiches tun.

Alle Entwicklungsländer sollten vermeiden, was reiche Länder jetzt tun, wenn sie reich sind. Stattdessen sollten sie danach streben, das zu tun, wodurch reiche Länder reich geworden sind. Sie sollten sich daran erinnern, dass wohlhabende Industrienationen keine MDBs hatten, die ihnen geholfen haben. Sie haben sich selbst Institutionen erschaffen, um die Energieerzeugung und Fabriken zu finanzieren, welche die Arbeitsplätze, Mittelklasse, Gesundheit und Wohlstand erschaffen hat, die sich für alle ausgezahlt hat – und weit mehr als das.

China, Indien und andere sich entwickelnde Ökonomien tun das Gleiche. Sie sagen der Weltbank und anderen MDBs klipp und klar: „Verzieht euch! Wir brauchen euer Geld nicht, verbunden mit all den Anti-Entwicklungs-Strängen. Eure öko-imperialistischen Banken und Aktivisten werden uns nicht länger aushalten. Wir nehmen unser Schicksal in die eigenen Hände, und wir nehmen unseren uns zustehenden Platz unter den gesunden und reichen Völkern der Erde ein“.

Die MDBs behaupten, dass ihre Politik die Vision des Pariser Klima-Abkommens reflektiere, „finanzielle Geldflüsse konsistent zu machen mit geringen Treibhausgas-Emissionen und einer Klima-widerstandsfähigen Entwicklung“ – indem Klima-„Abschwächungs-“ und „Anpassungs-“-Programme koordiniert werden. Dieses moralische Brüsten ignoriert entscheidende Realitäten.

Um angesichts des Klimawandels (egal ob anthropogenen oder natürlichen Ursprungs) widerstandsfähig zu sein, müssen Länder wohlhabend und technologisch fortschrittlich sein. Das ist jedoch unmöglich mit der bestehenden oder absehbaren erneuerbaren Energie in Maßstäben, die für den Ersatz der heutigen fossil erzeugten Energie unabdingbar sind, vor allem für die immer noch in den Dark Ages verweilenden Länder – besonders falls die Banken und deren Alliierte weiterhin gegen Kern- und Wasserkraft agieren.

Man ignoriert die enormen sozialen, ökonomischen, gesundheitlichen und anderen Vorteile fossiler Treibstoffe

Und außerdem, diese obsessive, unnachgiebige Haltung gegenüber einem durch fossile Treibstoffe ausgelösten vermeintlichen Klima-Chaos ignoriert die gewaltigen sozialen, gesundheitlichen und anderen Vorteile, welche fossile Treibstoffe der Menschheit während der letzten 150 Jahre beschert haben. Sie ignoriert die Art und Weise, mit der tatsächliche Temperatur- und Wetterbeobachtungen überarbeitet, „homogenisiert“ und übertrieben worden sind, um alarmistischen Narrativen und Computermodellen zu genügen.

Ignoriert werden damit auch die nicht nachhaltigen Massen von Metallen, Kohlenwasserstoffen, Beton und vor allem die Zerstörung von Landschaften und Habitaten, welche erfolgen müsste, wenn man die Welt zu Wind, Solar, Batterien und Biotreibstoffen führen würde. Und für was das alles?

An diesem Punkt gibt es keinerlei überzeugende Beweise (also Beobachtungen anstatt Modellrechnungen), die belegen, dass der Kohlendioxid-Gehalt der Luft Klima und Wetter vor sich her treibt; dass die heutigen Temperaturen, polaren Eismassen, der Meeresspiegel-Anstieg, Stürme oder Dürren gefährlich oder absolut beispiellos sind; dass die Menschen all dies kontrollieren können via einer Verringerung von CO2– und anderen Treibhausgas-Emissionen; oder auch, dass sich irgendetwas am Horizont abzeichnet, was in absehbarer Zeit fossile Treibstoffe ersetzen kann.

Also wirklich, auf welcher Grundlage ist verfügt worden, dass eine Krise oder ein Kipp-Punkt erreicht wird, falls die mittlere Temperatur der Erde um 1,5°C oder 2,0°C seit 1850 steigen würde, als die Kleine Eiszeit zu Ende gegangen war und das moderne industrielle Zeitalter begonnen hat? Wo sind die Beweise für all das in der realen Welt?

Moralisch verkommen

Das Verhalten der MDBs, auf ein vermeintliches Klima- und Wetterchaos konzentriert zu bleiben, zumeist in ferner Zukunft – während man die heutigen massiven und schrecklichen Probleme Armut, Krankheiten, Mangelernährung und frühzeitige Todesfälle – vollkommen ignoriert, ist moralisch verkommen.

Präsident Trump, der Mehrheitsführer des Senats McConnell, der Sprecher des Weißen Hauses Ryan und Außenminister Pompeo müssen diese Geisteskrankheit und das Abschlachten beenden. Sie müssen dieses Geld Agenturen und Programmen zukommen lassen, welche fossile Treibstoffe und echte lebenserhaltende Maßnahmen stützen für die am meisten verwundbaren Menschen auf unserer Welt.

Der Kongress und das Weiße Haus liegen nicht weit entfernt vom Hauptquartier der Weltbank. Sie sollten keine Schwierigkeiten haben, diese Botschaft zu übermitteln – und es widerhallen zu lassen bei den anderen multilateralen Entwicklungs-Banken.

Falls der Kongress dieser Aufgabe nicht gerecht wird, kann Mr. Trump vielleicht einige dieser Gelder umleiten – oder andere Milliarden, die für Klima-Alarmismus und Erneuerbare-Energie-Phantasien verschwendet werden.

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow and author of books and articles on energy, climate change and economic development. David Wojick is an independent analyst specializing in science and logic in public policy.

Link: https://www.iceagenow.info/an-obscene-global-tragedy/#more-26164

Übersetzt von Chris Frey EIKE




Klimaskepti­zismus hat als Ursache eine Läsion im ventro­medialen präfron­talen Cortex

Zur Erklärung von Klimaskepsis versagt angestammtes, psychologisches Wissen

Was ausreichend lange „gesellschaftlicher Konsens“ ist, belegt laut katholischer Kirchenlehre automatisch Gottes Willen [4] und dass man mit einer solchen „Konsensstrategie“ (beharre nie zu lange auf der falschen Meinung, sondern erkenne, wann „der Wind sich dreht“), welche zum Schluss sogar zu der Pervertierung des Urgedankens führte, dass das Personal den Beamtenstatus erreichte und vom Staat bezahlt wird, als Institution problemlos Jahrtausende überleben kann.

Irgendwie scheint sich die Zunft der Psychologen daran zu orientieren. Denn schon fast „im Stundentakt“ zeigen uns forschende Psychologen, wie der Bürger Meinungen als „gute“ und als „schlechte“ alleine schon anhand der Konsensbetrachtung unterscheiden kann [2] [3].
Man soll zum Beispiel immer „über die Schreibtischkante“ sehen und beachten, welches die richtige, öffentliche Meinung ist. Stimmt eine Wissenschaft damit – und man selbst ebenfalls – überein, kommen Psychologen mit solchen Probanden dank ihrem angestammten Wissen gut zurecht. Verweigern sich Probanden allerdings standhaft der kritiklosen Zustimmung zur verordneten Meinung, kennt die Psychologie noch keine gefestigten Erklärungen. Und so wurde – und wird – der immer noch frei herumlaufende Homo Klimaskepsis inzwischen zum Objekt umfangreicher Studien.

Eine solche wurde wieder veröffentlicht. Damit auch die EIKE-Leser endlich erfahren, wegen welchem tiefenpsychologisch-medizinischem Befund sie laut neuesten Forschungserkenntnissen EIKE eigentlich lesen – und weil dies eine Krankheit ausweist, es gefälligst sein lassen sollten -, anbei die nötige Information daraus.

Ihr Gehirn schien sich weniger mit der fernen Zukunft zu befassen als das der übrigen Versuchspersonen

Mit einer wahrhaft spektakulären Studie an umfangreichen, 36 Probanden, gelang es Wissenschaftlern in Genf, endlich ein schlimmes Geheimnis zu enthüllen: Klimaskeptiker sind im tiefen Innersten krank. Doch nicht nur das kam dabei heraus, auch eine Lösung wurde für diese Krankheit gleich mit gefunden – modernster Technik sei Dank:
Spektrum.de: [1] Egozentriker kümmern die langfristigen Folgen der globalen Erwärmung wenig. Vielleicht könnte man ihnen mit einer Virtual-Reality-Brille auf die Sprünge helfen.

Wie gelang dieser phänomenale Durchbruch der psychologischen Forscher?

Die Genfer Psychologen sind sich der Ausgangsbasis absolut sicher. Schließlich kann man diese fast täglich in unseren investigativ, unbestechlichen Medien lesen:
Spektrum.de: [1] … Knappes Trinkwasser, Grenzkonflikte, Ausbreitung von Tropenkrankheiten: Die angekündigten Folgen des Klimawandels sollten Anlass zur Sorge geben. Warum also zögern so viele Menschen, die grundlegendsten Maßnahmen zu ergreifen? Offenbar ist ihr Gehirn der fernen Zukunft gegenüber gleichgültig, wie ein Experiment von Tobias Brosch und seinen Kollegen an der Universität Genf nahelegt.
Mit diesem – echten Wissenschaftlern geläufigem – Vorwissen versehen, wurden die Probanden befragt, wie viele Sorgen sie sich um den Klimawandel machen:
Spektrum.de: [1] … Das Forscherteam bat 36 Versuchspersonen, auf einem Fragebogen einzuschätzen, wie sehr sie gedanklich um sich selbst kreisten. Außerdem sollten sie die Schwere der zu befürchtenden Folgen des Klimawandels bewerten, die in der näheren oder ferneren Zukunft (bis 2080) zu erwarten seien. Währenddessen wurde ihre Gehirnaktivität mittels fMRT gemessen.
Wer sich um die Zukunft keine Sorgen macht, ist zwangsweise egoistisch. Unsere Gesellschaft erwartet, dass jeder bei jedem Tun auch daran denkt, was künftige Generationen davon halten werden. Was diese davon halten werden, wissen gute Wissenschaftler bereits heute.
Als gesichert gilt zum Beispiel, dass die zukünftigen Generationen über alle, welche sich heute keine große Sorgen um den Klimawandel machen, schimpfen werden. Die rasant zunehmende Überbevölkerung ist dagegen gar kein Problem. Denn immer mehr Population benötigt gerade die Generation zum Beispiel in 100 Jahren, sonst werden deren Renten ja nicht mehr bezahlt. Zudem lässt sich dieses Problem auch in der Zukunft leicht lösen: Es werden einfach alle Einwohner Beamte und bekommen Pension. Oder man macht es wie so vorbildlich wie Dänemark, wo schon heute festgelegt ist, das Renteneintrittsalter im Jahr 2100 bei 77 Jahren und sechs Monaten liegt [5]. Gute Wissenschaftler sind sich aber auch da ganz sicher, dass sich diese Dänen dann vor allem über das Klima beklagen werden, die Regierung, welche diese Altersanhebung einstmals beschlossen hat, aber für ihre weise Voraussicht loben.
Ganz bestimmt werden diese „Zukunftsdänen“ dann auch Frankreichs Präsident Macron „loben“, der seinen Landsleuten vor dann langer Zeit eine ganz andere Zukunftsvision gewiesen hatte – welche sie (und ganz sicher auch Deutschland) bezahlen durften:
Handelsblatt – Dienstag, 10. Juli 2018: … Macron wiederholte die Teile seiner Reformen, die seiner Ansicht nach für mehr soziale Gerechtigkeit sorgen werden, „weil der Kuchen größer wird, den wir verteilen können“

Wer als Proband nun aber nicht glauben will, dass im Jahr 2080 die Klimakatastrophe hereingebrochen ist, indem er etwa gar an den unbestechlichen Klimasimulationsprogrammen zweifelt, und das in einer Studienbefragung auch noch ankreuzt, muss krank sein. Einmal, weil er damit Indoktrinationsresistenz deklariert und dann, weil er auch seine wissenschaftliche Karriere aufs Spiel setzt – und welcher „Gesunde“ würde so etwas machen?
Spektrum.de: [1] … Egozentrische Menschen machen sich demnach viel weniger Sorgen darüber, was nach ihrem Tod geschehen wird. Soweit nicht überraschend, doch das Team entdeckte darüber hinaus eine Besonderheit in einem bestimmten Teil ihres Stirnhirns, des ventromedialen präfrontalen Cortex. Frühere Arbeiten hatten gezeigt, dass sich dieser Bereich besonders intensiv regt, wenn wir uns die ferne Zukunft vorstellen, und zwar umso mehr, wenn diese mit unseren persönlichen r Zielen verknüpft ist. Aber bei den egoistischen Versuchspersonen war kein entsprechender Anstieg der Hirnaktivität zu beobachten, wenn ihnen eine Klimakatastrophe für das Jahr 2080 angekündigt wurde.

Es gibt eine Therapie: Die simulierte, wahre Zukunft muss in das Gehirn „eingehämmert“ werden

Die katholische Kirche fand für solche kranken Schafe unter ihren Schäfchen schon vor Jahrhunderten eine Therapie. Sie ließ in den Barockkirchen die unvermeidbaren Folgen einer nicht vorbehaltlos, gläubig zustimmenden Meinung übergroß an Decken und Wände malen, vernachlässigte aber auch dessen Umsetzung in der Praxis nicht. Es war praktisch angewandte Augment-Reality mit den damaligen, technischen Mitteln. Genau so therapieren Psychologen „kranke Meinungen“ auch heute noch, nur die Mittel sind etwas moderner:
Spektrum.de: [1] … Ihr Gehirn schien sich weniger mit der fernen Zukunft zu befassen als das der übrigen Versuchspersonen. Ein Befund, der die Forscher an Patienten mit »Kurzsichtigkeit für die Zukunft« erinnert, wie sie insbesondere der Neurologe Antonio Damasio beschrieben hat. Infolge einer Läsion in der betreffenden Cortexregion treffen diese Patienten oft absurde Entscheidungen, weil sie die Folgen ihres Handelns nur schwer vorhersehen können.
Und wie korrigiert man nun eine solche Kurzsichtigkeit? Natürlich mit einer Brille! Laut Tobias Brosch könnte eine VR-Brille Menschen mit egoistischen Tendenzen jene Zukunft vor Augen führen, die sie nicht sehen wollen. »Wir könnten uns ein psychologisches Training vorstellen, dass diese Hirnregion mittels Projektionen in der virtuellen Realität stimuliert«, schlägt der Forscher vor.

Als Fazit fällt dazu nur die Frage ein, wer eigentlich der Kranke ist.

Woher wissen die wirklichen Wissenschaftler die gesunde Meinung

Greenpeace hat in einer Studie gerade gezeigt, wie man die richtige – also gesunde – Meinung statistisch eindeutig belegen kann.
Es ist ganz einfach: Greenpeace weiß, dass es Inhaber der gesunden Meinung ist. Nun befragt man das Volk. Stimmt es der Meinung von Greenpeace zu, ist belegt, dass diese die richtige ist und bekommt sogar eine Wahrheitsstatistik darüber. Nachlesen kann man es in einem Bericht auf klimafakten.de (der Nachfolge-Plattform von Klimaretter):
Bewusstsein für den Klimawandel: In der Lausitz offenbar deutlich geringer als im Bundesschnitt
…. Rund der Hälfte der Deutschen ist klar, dass der Klimawandel bereits heute ein ernsthaftes Problem ist. Ein weiteres knappes Drittel ist der Ansicht, dass die Folgen der Erderhitzung der Menschheit bereits innerhalb der nächsten fünf bis zwanzig Jahre Schwierigkeiten bereiten werden. Das ergab eine Umfrage der Universität im Schweizerischen St. Gallen im Auftrag der Umweltorganisation Greenpeace. 61 Prozent der Befragt ängstigt der Klimawandel, 75 Prozent bejahen einen Zusammenhang des Temperaturanstiegs und Trend zu mehr Extremwetter-Ereignissen …
… Auf die Frage beispielsweise, wie sehr die Kohleverstromung zum Klimawandel beiträgt, antworteten bundesweit 50 Prozent der Befragten „sehr stark“.
Diese Einschätzung ist korrekt

Oder direkt bei Greenpeace: Soziale Akzeptanz eines Kohleausstiegs in Deutschland und in den Kohlerevieren: Ergebnisse einer Umfrage und Conjoint-Analyse
Vorwort
Stürme werden stärker, Starkregen heftiger und der Golfstrom verliert an Kraft. Die zunehmenden Wetterextreme der vergangenen Jahre führen uns deutlich vor Augen: Wir erleben bereits heute, was verharmlosend als Klimawandel bezeichnet wird. Doch noch können wir beeinflussen, wie drastisch die Folgen der Erderhitzung ausfallen werden.
… Dazu benötigt Deutschland einen raschen, konsequenten Kohleausstieg …
Dass die meisten Menschen in unserem Land dies verstanden haben und unterstützen, belegt die repräsentative Umfrage und Studie der Universität St. Gallen, die von Greenpeace in Auftrag gegeben wurde …
Greenpeace ist Mitglied in der Kohle-Ausstiegskommission. Mit dieser „Studie“ ist deren längst vorgegebener Beschluss nun (pseudo-)wissenschaftlich untermauert. Unsere Abgeordneten werden es begrüßen. Da wissenschaftlich bewiesen, lässt sich beruhigt und ohne selbst nachdenken zu müssen, dem Beschluss der Frau Merkel Kommission zustimmen.

Moderne Wissenschaftler wissen, dass Statistik die Wahrheit von Aussagen unbezweifelbar macht und übernehmen solche selbstverständlich ungeprüft. Was bereits wahr ist, kann durch eine nochmalige Prüfung schließlich nicht mehr wahrer werden.

Angst ist dem Autor vor Folgendem: Die Zunft der Psychologen hat Kassenzulassung. Warten wir also ab, bis Klimaleugnung offiziell als Krankheit gilt und auf Krankenschein therapiefähig wird. Währen bisher in allen Umfragen auf möglichst wenig Skeptiker „geachtet“ wurde, explodieren dann auf einmal die Anteile Leugnungs-traumatisierter Bürger, welche dringend (in langwierigen, teuren, viele Psychologen erfordernden) Therapiesitzungen dem gesunden Klimaglauben zurückzuführen sind. Die Zeit läuft den Psychologen nämlich davon. Unsere Ärzte haben „den Braten“ ja auch schon gerochen:
EIKE 13.03.2018: Ärzte brauchen auf den Klimawandel medizinische Antworten

Weil es so gut in die inzwischen übliche und leider wirksame Gehirnwäsche passt, ein Werbespruch von BMW (übernommen von einem EIKE-Leserbeitrag im Blog):
Verlieren sie keine Zeit mehr beim Tanken, laden sie bequem zu Hause ihr neues BMW Elektroauto
Darauf muss man kommen – und Wissen, es dem Volk als zukunftsträchtige Errungenschaft vorsetzen zu können. Aber auch das ist angewandte Psychologie: Wenn sich ein Problem nicht lösen lässt, erkläre es einfach als Vorteil.
Quellen

[1] Spektrum.de 27.06.2018: KLIMAWANDEL Blind für die ferne Zukunft

[2] EIKE 29.03.2018: Klimaleugner befinden sich in der ersten Phase der Klimatraumatisierung

[3] EIKE 11. November 2017: Wie kommt es, dass Verleugnung umso wuchtiger zuschlägt, je mehr wir durch die Medien mit immer schlimmeren Bestätigungs-Meldungen zum Klimawandel konfrontiert werden?

[4] EIKE 18.04.2016: Kirche und Klimawandel Viel „Mensch“, viele Bibelsprüche, die Orientierung vom PIK, von kritischer Reflexion keine Spur

[5] FOCUS MONY online, 17.08.2016: Lebenserwartung bestimmt Renteneinstiegsalter Rente mit 77! Dänemark hat sich schon entschieden – und alle sind dafür