1

Ölsand, die nächste Ölquelle in den USA?

Peak Oil

Kann sich noch jemand erinnern, wie vor einigen Jahren die Anhänger der Mangelwirtschaft das baldige Ende des Ölzeitalters vorausgesagt haben? Man glaubte endlich ein Marktversagen gefunden zu haben, was die Wiedereinführung der Planwirtschaft ermöglichte. Ein seit nunmehr 200 Jahren anhaltender Irrtum. Wieder einmal hat ein Mangel – ausgedrückt in steigenden Preisen – den menschlichen Erfindergeist frei gesetzt. In diesem Fall war es die Entwicklung des „fracking“, die erst gigantische Mengen Erdgas und anschließend Erdöl zugänglich machte.

Ganz nebenbei, kann man an dieser Entwicklung auch die unterschiedliche Gesellschaftsauffassung sehen: In den USA ist Erfinden und Tüfteln immer noch eine angesehene Tätigkeit. Solange man nicht gegen Gesetze verstößt, kann man seiner Phantasie freien Lauf lassen. Man findet auch relativ leicht Geldgeber, weil „Profit machen“ nichts anrüchiges ist, sondern im Gegenteil ein verbrieftes Recht für den, der wirtschaftliche Risiken eingeht. Niemand erwartet dabei eine Erfolgsgarantie, weil Chance und Risiko des Misserfolges immer die zwei Seiten derselben Medaille sind.

Ganz anders in Deutschland: Kaum war der Ruf „fracking“ als neu erschlossene Energiequelle erschallt, haben sich sofort die einschlägigen Kostgänger dieser Gesellschaft aus Politik und Medien zusammengerottet. In altbekannter Manier wurden jegliche Chancen sofort vehement geleugnet und dafür apokalyptische Gefahren beschworen. Die willfährigen Volksbeglücker aller etablierten Parteien haben sofort jede Entwicklung per Gesetz im Keim zu ersticken verstanden. Die gleichen Pharisäer, die – wenn es um ihre eigene Klientel geht – schamlos Wälder roden lassen und jeglichen Artenschutz leugnen, damit ihre Reichskrafttürme wie Pilze aus dem Boden schießen können.

Wurde Präsident Trump hier politisch korrekt belächelt, wenn er davon sprach, er wolle die Industriearbeitsplätze zurückholen, dämmert es mittlerweile auch jedem GEZ-Nachrichtenvorleser wo die Reise hingeht: Erst billige Energie im Überfluß, anschließend drastische Steuersenkungen und nun auch noch die Forderung nach „fairem Handel“ – von jedem wirtschaftsunkundigen gern als Protektionismus verunglimpft. Bald können deutsche Politiker sicherlich wieder die Schließung eines Stahlwerks oder die Verlagerung von Dieselmotoren etc. bejubeln – ist doch toll für den „Klimaschutz“.

Die Ölsände der USA

Wer so naiv war zu glauben, die USA hätten bald ihr Pulver verschossen, steht nun vor der nächsten Phase: Nach unkonventionellem Gas und Öl kommen jetzt die Ölsände hinzu. Die USA verfügen über mindestens 30 Milliarden Faß Öläquivalent. Davon befinden sich rund 50% im Uinta-Basin im nordöstlichen Utah. Leicht abbaubar, weil oberflächennah und dazu noch sehr schwefelarm. Im Dreieck von Utah, Colorado und Wyoming liegen wohl 1200 Milliarden Faß Rohöläquivalent.

Was sind Ölsände?

Ölsände – auch Teersände genannt – sind natürliche Umweltkatastrophen in grauer Vorzeit. Irgendwann sind Öllagerstätten bis an die Oberfläche durchgebrochen. Die leicht flüchtigen Bestandteile des Erdöls sind verdunstet und es ist Bitumen zurückgeblieben. Man unterscheidet zwei Typen: „water wet“ und „oil wet“. Der erste Typ ist von den kanadischen Ölsand Lagerstätten in Alberta bekannt. Bei ihm sind die Sandkörner von einer dünnen Wasserschicht umgeben auf der wiederum der Bitumen sitzt. Das Gewinnungsverfahren ist seit den 1920er Jahren bekannt: Der Sand wird in 80 °C heißem Wasser gewaschen, wodurch sich das Bitumen vom Sand ablöst. Durch einblasen von Luft bildet sich ein ölhaltiger Schaum, der aufschwimmt. Dieser Schaum ist das Rohprodukt. Es besteht zu etwa 60% aus Öl, 30% Wasser und 10% Feststoffen. Nach dessen Aufbereitung geht das Abwasser mit allen Chemikalien und Feststoffen in riesige Absetzbecken. Eine ziemliche Umweltbelastung. Anschließend muß das Bitumen noch zu synthetischem Rohöl verarbeitet werden, bis es auf dem Ölmarkt zu verkaufen ist. Eine ziemlich energieaufwendige Angelegenheit. Das ganze erfordert gigantische Anlagen mit einem immensen Kapitalaufwand.

Die Ölsände in Utah sind vom Typ „oil wet“, der sich nicht mit dem vor beschriebenen Verfahren verarbeiten läßt. Die Sandkörner sind direkt vom Öl umkleidet. Deshalb ist das Bitumen nicht mit Wasser abwaschbar. Es mußte ein geeignetes Lösungsmittel gefunden werden. Auch hier haben wieder mittelständische Unternehmen – nicht die großen Ölkonzerne – jahrzehntelang getüftelt und entwickelt. Es wurden (patentierte) Lösungen auf der Basis von Diesel, Propan und Gas-Kondensaten gefunden. Der Trick dabei ist, daß es sich um azeotrope (gleiche Zusammensetzung in der flüssigen und dampfförmigen Phase) Gemische handelt, die sich bei geringer Temperatur von 70 bis 75 °C durch einfache Destillation wieder von dem aufgelösten Bitumen trennen lassen. So erhält man einerseits ein reines Produkt und kann 99,9% des Lösungsmittels im Kreislauf laufen lassen (keine Abwasser-Seen!). Der Ölsand wird bei etwa 60 °C mit dem Lösungsmittel gewaschen. Der Sand ist anschließend so „sauber“, daß er problemlos auf Halde gelagert oder sogar als Baustoff verkauft werden kann. Ein energiesparendes und umweltfreundliche Verfahren.

Die Produktionskosten werden mit lediglich 22 $/barrel angegeben. Man muß etwa 1 to Ölsand zur Gewinnung eines barrel Öl verarbeiten. Das ist bei den geologischen Verhältnissen in Utah kein Problem. Das Lösungsmittel ist zwar recht teuer (ca. 35 $ pro barrel), hängt aber ganz unmittelbar von den jeweils aktuellen Ölpreisen ab: Billiges Rohöl, billiger Einstandspreis für das Lösungsmittel und umgekehrt. Das macht die Produktionskosten (anders als beim „fracking“) sehr stabil gegenüber Ölpreisschwankungen. Die Ölsände lagern in einem alten Ölfördergebiet, d. h. die Infrastruktur für Transport und Verarbeitung ist bereits vorhanden. Das Öl ist mit 14 API-Graden zwar sehr zäh (schwimmt kaum noch auf dem Wasser), aber „süß“ (geringer Schwefelgehalt und damit mit geringem Energieaufwand zu verarbeiten). Gut in lokalen und Schweröl-Raffinerien an der Golfküste zu verarbeiten, was weitere Ölmengen (z. B. Leichtöle aus Texas) für den Export freistellt.

Der entscheidende Antrieb für eine schnelle Umsetzung dürften aber die geringen Kapitalkosten sein. Inzwischen ist man bei einer Anlagengröße von 5000 Faß pro Tag angekommen. Eine solche Anlage kostet angeblich nur 70 Millionen Dollar. Für die Ölindustrie ein Trinkgeld.

Die politischen Konsequenzen

Seit Trump die Hindernisse für eine gesteigerte Produktion an fossilen Energien systematisch aus dem Weg räumt, explodiert die Öl- und Gasförderung. Für sich genommen, schon ein enormer Wohlstandsgewinn in der Form von (gut bezahlten) Arbeitsplätzen und steigenden Staatseinnahmen (trotz oder gerade wegen der Steuersenkung).

Hinter den neuen Produktionsverfahren verbergen sich eine Menge neuer Technologien. Unkonventionelle Öl- und Gasvorkommen gibt es aber überall auf der Welt. Die Schätze warten nur darauf, gehoben zu werden. Die amerikanische Zulieferindustrie wird weiterhin wachsen und international marktbeherrschend bleiben.

Preiswerte Energie ist der Lebenssaft einer jeden Volkswirtschaft. In den USA treffen billige Rohstoffe auf eine hochentwickelte Industrie. Eine einzigartige Kombination in der Weltwirtschaft. Ein Narr, wer glaubte, Trump wolle die Niedriglohngruppen aus China und Mexiko zurückholen. Die Stahlwerke und Aluminiumhütten, die sich Trump vorstellt, sind nicht die Museumsbetriebe aus den Hinterhöfen Chinas, Indiens oder Russlands. Die internationalen Investoren sind ausdrücklich aufgerufen, in den USA modernste Anlagen zu bauen. In der (hier ebenfalls ungeliebten) Chemieindustrie ist die Verlagerung bereits im Gange. Da bedurfte es noch nicht einmal Zölle und Steuersenkungen als Impuls.

Öl- und Gasexporte sind nicht nur volkswirtschaftlich sinnvoll: Ein Produkt mit weltweiter Nachfrage, welches gewaltige Summen in die eigenen Kassen spülen kann. Darüberhinaus besitzt es auch eine außerordentliche geostrategische Qualität. Man kann „wohlgesonnene Nationen“ mit ausreichend und billiger Energie versorgen. Gleichzeitig kann man „unfreundlichen Nationen“ die Deviseneinnahmen beschneiden und damit deren Aufrüstung zurechtstutzen. Besonders die „Alt-68er“ in Deutschland werden umdenken müssen: Wenn die USA angeblich nur wegen Öl Krieg geführt haben, droht ziemlich schnell ein böses Erwachen. Trump hat schon in seinem Wahlkampf immer gesagt (auch da hat offensichtlich niemand zugehört!), die USA haben nur zwei Interessen im Mittleren Osten: Terrorbekämpfung und Beistand von Israel. Alles andere sei Aufgabe der Europäer. Ob da wohl noch die Verteidigungsausgaben ausreichen werden? Deutschland schlittert schon heute sehenden Auges immer tiefer in den in den Sumpf des Irak und Nordafrikas hinein.

Der Beitrag erschien zuerst bei NUKEKLAUS hier




Übersicht über die Widerle­gungen der alarmistischen Behaup­tungen

[Anmerkungen des Übersetzers: In US-Einheiten angegebene Größen werden hier umgerechnet genannt. Außerdem werden einige Abschnitte stark verkürzt. – Die Angaben hier beziehen sich zwar weitgehend auf die USA, doch gilt Ähnliches wohl für alle Gebiete der Welt.]

Behauptung: Hitzewellen nehmen in alarmierendem Ausmaß zu, und Hitze tötet

Widerlegung zusammengefasst:

Es gab keine erkennbare langfristige Zunahme von Hitzewellen, weder in den USA noch sonst wo auf der Welt. Die höchsten Temperaturen jemals sind vor langer Zeit eingetreten, lange bevor die Menschheit in großem Umfang fossile Treibstoffe verbrauchte. In 38 US-Staaten traten die höchsten Temperaturwerte jemals vor dem Jahr 1960 auf, in 23 sogar schon in den dreißiger Jahren des vorigen Jahrhunderts! Hier in den USA hat die Anzahl von Tagen mit Temperaturwerten über 38°C, 35°C und 32°C pro Jahr stetig seit den dreißiger Jahren abgenommen. Der Heat Wave Index der EPA weist die dreißiger Jahre als das heißeste Jahrzehnt aus. Während seiner Zeit bei der NASA sagte James Hansen im Jahre 1999 über den Temperaturverlauf in den USA: „Das wärmste Jahrzehnt waren die dreißiger Jahre, und das wärmste Jahr war 1934“. Als die NASA hinsichtlich der Abnahme der Hitzerekorde in den USA befragt wurde, lautete die Antwort, dass die USA nur 2% der Erdoberfläche ausmachen. Allerdings traten Allzeit-Hitzerekrode auf allen 8 Kontinenten durchweg vor dem Jahr 1980 auf.

Während die Medien eine umfangreiche Berichterstattung selbst über kleinere Hitzewellen pflegen, um das Narrativ der vom Menschen verursachten globalen Erwärmung zu stützen, neigen sie interessanterweise dazu, tödliche Kältewellen vollständig zu ignorieren. Aber es ist eine erwiesene Tatsache, dass Kälte weltweit etwa 20 mal mehr Menschen sterben lässt als Hitze. Dokumentiert wird dieser Umstand in der „Excess Winter Mortality“, woraus hervorgeht, dass die Anzahl von Todesfällen während der vier kältesten Wintermonate viel höher ist als während der anderen 8 Monate des Jahres. Die Todesrate in den USA im Januar und Februar ist um 1000 Todesfälle pro Tag größer als im Juli und August. Es ist eindeutig: Es gibt kein Problem zunehmender Hitzewellen infolge des Klimawandels.

Detaillierte Widerlegung und Autoren: EF_RRT_AC – Heat Waves

Behauptung: Globale Erwärmung verursacht mehr und stärkere Hurrikane

Widerlegung zusammengefasst:

Es gab in globalem Maßstab keinen erkennbaren langfristigen Trend hinsichtlich Anzahl und Stärke der Hurrikan-Aktivität. Die Aktivität variiert von Jahr zu Jahr sowie über multidekadische Zeiträume, über Ozeanzyklen einschließlich El Nino/La Nina hinweg, über multidekadische Zyklen im Pazifik (PDO) und Atlantik (AMO). Einige Gebiete sind anfälliger dafür als andere. Der Trend zu diesen Stürmen, die auf das US-Festland übertreten, verläuft flach und sogar fallend seit den fünfziger Jahren. Vor der in den USA aktiven Hurrikan-Saison des Jahres 2017 gab es 4324 Tage (also fast 12 Jahre) vollständig ohne einen solchen Übertritt, das ist der längste Zeitraum seit den sechziger Jahren des 19. Jahrhunderts. Harvey war der erste auf das Festland übertretende Hurrikan seit 2008 und der erste Hurrikan der Stärke 4 seit dem Hurrikan Carla im Jahre 1961. Der Trend in Texas sowohl für Hurrikane als auch für starke Hurrikane ist fallend. Texas ist ein Gebiet, in welchem tropische Stürme oftmals über Tage toben, und Schauplatz der 6 stärksten tropischen Regen-Ereignisse in den USA war Texas. Der Regen im Zuge von Harvey war damit vergleichbar. Die inoffizielle Regenmenge insgesamt bei dem Hurrikan Claudette im Jahre 1979 war höher als bei Harvey. … Es gab seit mindestens dem Jahr 1900 keinen Trend der Intensität von Hurrikanen oder der Anzahl derselben, die auf das Festland übergetreten waren.

Detailed Rebuttal and Authors: EF_RRT_AC – Hurricanes

Behauptung: Globale Erwärmung bringt mehr und stärkere Tornados mit sich

Widerlegung zusammengefasst [und gekürzt]:

Tornados weigern sich, den Prophezeiungen bzgl. „globale Erwärmung“ zu folgen. Seit den fünfziger Jahren wird eine sinkende Häufigkeit starker Tornados registriert. Von 2012 bis 2016 lag die Anzahl durchweg unter dem Mittelwert und war in einigen Jahren sogar rekordverdächtig niedrig. 2017 näherte sich die Anzahl des Auftretens dem Mittelwert. … Durch geschulte „Tornado-Jäger“ und verbesserte Beobachtungsverfahren sowie den Austausch in sozialen Netzwerken hat die Anzahl beobachteter schwacher Tornados stark zugenommen, aber auch damit war der Trend für starke Tornados (Stärke 3 und mehr; Skala reicht bis Stärke 5) flach oder fallend.

Detailed Rebuttal and Authors: EF_RRT_CA – Tornadoes

Behauptung: Durch globale Erwärmung nimmt Häufigkeit und Stärke von Dürren und Überschwemmungen zu

Wiederlegung zusammengefasst:

Unser Verbrauch fossiler Treibstoffe zur Energieversorgung unserer Zivilisation verursacht keine Dürren oder Überschwemmungen. Die NOAA kam zu dem Ergebnis, dass es keine Belege gibt, dass Dürren und Überschwemmungen infolge des Klimawandels zunehmen. Anzahl, Dauer und Stärke dieser Ereignisse nehmen mitunter einige Jahre lang in einigen Gebieten dramatisch zu, doch stellt sich bald der Normalzustand wieder ein. Dies ist einfach der seit Langem bekannten konstanten Variation des Wetters geschuldet als Folge einer Konfluenz natürlicher Faktoren. In einer Anhörung vor dem Kongress sagte Prof. Roger Pielke Jr., dass zumindest in den USA Dürren im vorigen Jahrhundert kürzer, seltener und in immer weniger Gebieten der USA aufgetreten waren. „Katastrophen kann es immer geben. Aber man sollte auch verstehen, dass langzeitliche Trends auf Daten basieren müssen, nicht auf Hype“.

Detailed Rebuttal and Authors: EF_RRT_AC – Droughts and Floods

Behauptung: Globale Erwärmung führt zu mehr Wald- und Buschbränden

Widerlegung zusammengefasst [und gekürzt]:

Fast in jedem Jahr jeweils im Sommer und Herbst sind Wald- und Buschbrände in den Nachrichten. Das National Interagency Fire Center NIFC hat die Anzahl der Brände und die verbrannten Flächen seit 1985 aufgezeichnet. Diese Daten zeigen einen leicht abnehmenden Trend der Brände, wohingegen die verbrannte Fläche zunächst zugenommen hatte, bevor der Flächenfraß während der letzten 20 Jahre ein konstantes Niveau erreichte. … Das Jahr 2017 war ein aktives Brandjahr, aber längst noch kein Rekord. … Beachten muss man bei einer solchen Statistik, dass sich die Bevölkerung in Kalifornien von 1930 bis 2017 versiebenfacht hat. Damit liegen nicht nur mehr Häuser einem Feuer im Weg, sondern es gibt auch mehr Brände. In historischen Zeiten war die Brandursache häufig Lagerfeuer und Blitze, heute sind die Ursache häufig Fernleitungen, welche Bäume berühren und in Brand setzen. Diese haben mit steigender Bevölkerung zugenommen, so dass die meisten Schäden durch Brände in Kalifornien auf die stark gestiegene Bevölkerung zurückzuführen sind und nicht auf globale Erwärmung. Für gestiegene Schäden ist auch ein schlechtes Forst-Management der Regierung verantwortlich.

Detailed Rebuttal and Authors: EF_RRT_AC – Wildfires

Behauptung: Durch globale Erwärmung verschwindet der Schnee

Widerlegung zusammengefasst:

Diese Behauptung wird seit Jahrzehnten wiederholt, dabei zeigt die Natur sehr den entgegen gesetzten Trend mit beispiellosen Starkschneefällen sogar in großen Städten an den Küsten. Es scheint, als ob die Natur jedes Mal, wenn diese Behauptung wiederholt wird, das Gegenteil besonders betont. Daraufhin haben Alarmisten die Erwärmung mit stärkeren Schneefällen in Verbindung gebracht infolge der größeren Feuchtigkeitsmengen in wärmerer Luft. Aber die Schnee-Ereignisse der letzten Jahre ereigneten sich in kälteren Wintern mit einem höheren Wasser-Äquivalent in kalter Arktikluft. Die Schneebedeckung auf der Nordhemisphäre hat in Nordamerika und Eurasien im Herbst und Winter zugenommen, im Frühjahr aber abgenommen. Wie jedoch die NOAA anmerkt, könnte die Änderung der Schneehöhen-Messverfahren zur Jahrtausendwende die Unterschiede zumindest teilweise erklären.

Behauptung: globale Erwärmung lässt den Meeresspiegel steigen, was sowohl Satellitenbeobachtungen als auch Tidenmessungen zeigen.

Diese Behauptung ist nachweislich falsch. Hierzu sind in letzter Zeit viele Beiträge auf der Website des EIKE erschienen. Der Inhalt der folgenden Zusammenfassung im Original deckt sich mit diesen, weshalb hier auf eine Übersetzung verzichtet wird. Anm. d. Übers.

Detailed Rebuttal and Authors: EF_RRT_CA – Sea Level

Behauptung: Eisverluste in der Arktis, der Antarktis und von Grönland beschleunigen sich infolge globaler Erwärmung.

Widerlegung zusammengefasst:

Satelliten- und Bodenmessungen der Luft- und Wassertemperatur zeigen, dass sich sowohl der Ostantarktische als auch der Westantarktische Eisschild abkühlen und nicht erwärmen, und dass sich glaziales Eis ausdehnt anstatt abzuschmelzen. Satelliten- und Bodentemperatur-Messungen des südlichen Polargebietes zeigen seit 37 Jahren keine Erwärmung. Die Zunahme der antarktischen Eisschilde bedeutet, dass der Meeresspiegel nicht aufgrund schmelzenden Eises steigt und dass die Rate des Anstiegs tatsächlich verlangsamt wird. Antarktische Temperaturmessungen via Satellit zeigen seit 1979 Abkühlung mit einer Rate von 0,02°C pro Jahrzehnt. Der Südliche Ozean rund um die Antarktis ist seit 2006 deutlich kälter geworden. Das Meereis um die Antarktis wächst und erreicht neue Rekordwerte hinsichtlich der Ausdehnung. Temperaturmessungen auf der Antarktischen Halbinsel zeigen, dass sich diese seit dem Jahr 2000 stark abgekühlt hat.

Die Arktis umfasst die Gebiete Arktischer Ozean, Grönland, Island und Teile von Sibirien und dem nördlichen Alaska. Wegen des vollständigen Fehlens von Landmassen im Arktischen Ozean gibt es dort keine Gletscher, welche sich nur auf Land bilden können. Folglich gibt es in der Arktis nur schwimmendes Meereis. Nur auf Grönland, Island, dem nördlichen Alaska und in Nordsibirien gibt es Gletscher. Temperaturaufzeichnungen in der Arktis zeigen, dass es dort während der zwanziger und dreißiger Jahre wärmer war als im Jahr 2000. Aufzeichnungen historischer Fluktuationen des arktischen Meereises reichen nur bis zu den ersten Satellitenbildern im Jahre 1979 zurück. Dies fiel zufällig zusammen mit dem Ende der globalen Kaltphase von 1945 bis 1977 und der maximalen Ausdehnung des arktischen Meereises. Während der Warmzeit von 1978 bis vor Kurzem hat die Ausdehnung des Meereises abgenommen, um jedoch während der letzten paar Jahre wieder zuzunehmen. Auch der Grönländische Eisschild hat während der letzten Jahre zugelegt.

Behauptung: Steigende atmosphärische CO2-Konzentrationen verursachen Ozean-Versauerung, welche des maritime Leben katastrophal schädigt

Widerlegung zusammengefasst (und gekürzt):

Mit der Zunahme der CO2-Konzentration als Folge anthropogener CO2-Emissionen wird erwartet, dass sich immer mehr CO2 in den Oberflächengewässern der Ozeane löst. Dadurch wird eine Abnahme des pH-Wertes um 0,3 bis 0,7 Einheiten in den Ozeanen bis zum Jahr 2300 projiziert. Eine potentielle pH-Reduktion dieser Größenordnung hat Bedenken ausgelöst und zu Prophezeiungen geführt, denen zufolge das maritime Leben schwer geschädigt wird – mit der Gefahr des Aussterbens einzelner Spezies. Diese Hypothese der Ozean-Versauerung hat während der letzten Jahre enormen Auftrieb erfahren, weil es eine zweite unabhängige Ausrede dafür bietet, Emissionen aus fossilen Treibstoffen zu regulieren nach der traditionellen Hypothese der globalen Erwärmung. …

Betrachtet man jedoch das Leben selbst, stellt sich die Ozean-Versauerung oftmals als ein Nicht-Problem oder sogar als Vorteil heraus. In dieser Hinsicht haben zahlreiche wissenschaftliche Studien gezeigt, dass die Widerstandsfähigkeit vieler maritimer Pflanzen- und Tierspezies gegenüber Ozean-Versauerung viel größer als gedacht ist – wenn man entsprechende Experimente angemessen unter realistischen experimentellen Bedingungen durchführt.

Detailed Rebuttal and Author: EF_RRT_CA – Ocean pH

Behauptung: Die Kohlenstoff-Verschmutzung ist eine Gesundheitsgefahr

Widerlegung zusammengefasst:

Der Terminus „Kohlenstoff-Verschmutzung ist ein vorsätzlich mehrdeutiger, hinterlistiger Terminus – erdacht, um die Bevölkerung glauben zu machen, dass Kohlendioxid eine Verschmutzung ist. Er wird von Umweltaktivisten herangezogen, um die Umwelt-Auswirkungen von CO2-Emissionen mit den Emissionen unerwünschter Abfallstoffe der Verbrennung durcheinander zu bringen. Die Verbrennung fossiler Treibstoffe konvertiert den Kohlenstoff in Kohlendioxid CO2, welches Pflanzenfutter und unabdingbar ist für alles Leben auf der Erde [siehe auch hier! Anm. d. Übers.]. Weil die Verbrennung dieser Treibstoffe niemals zu 100% effizient ist, wird dabei in Spuren auch nicht verbrannter Kohlenstoff freigesetzt in Gestalt feiner Partikel (Ruß), Kohlenwasserstoff-Gase und Kohlenmonoxid, neben weiteren Spurenstoffen. In den USA sind für alle mobilen und stationären Standorten industrieller Verbrennung Emissions-Kontrollsysteme vorgeschrieben. Durch diese werden Partikel und gasförmige Verschmutzer herausgefiltert, so dass die Emissionen den von der EPA festgesetzten Standards genügen. Die anfallenden Konzentrationen von Luftverschmutzung haben seit Jahrzehnten abgenommen und werden in absehbarer Zukunft noch weiter abnehmen.

Detailed Rebuttal and Authors: EF_RRT_AC – Health

Schlussfolgerung:

Die gut dokumentierte Nichtigkeit der „drei Beweislinien“, auf welche die Zuordnung der globalen Erwärmung zu anthropogenen CO2-Emissionen beruht, zerschlägt die Kausalkette zwischen derartigen Emissionen und der globalen Erwärmung (siehe hier und hier).

Dies wiederum zerschlägt die Kausalkette zwischen CO2-Emissionen und den vermeintlichen Schadensauswirkungen der globalen Erwärmung, als da wären der Verlust arktischen Eises, steigender Meeresspiegel sowie Zunahme von Hitzewellen, Überschwemmungen, Dürren, Hurrikanen, Tornados usw. Diese vermeintlichen Folgen werden permanent angeführt, um den Alarm zu schüren und Forderungen nach strengeren CO2-Vorschriften Nachdruck zu verleihen. Die EPA stützt sich explizit auf die Zunahme derartiger Ereignisse, um das Endangerment Finding zu rechtfertigen. Aber wie oben gezeigt, gibt es keinerlei Belege für derartige Behauptungen, dafür aber massenhaft Beweise, welche diese Behauptungen widerlegen. Die enormen Kosten und die fast unbegrenzte Macht der Regierung bzgl. des Erlasses von Vorschriften hinsichtlich Treibhausgase und CO2-Emissionen können nicht per Gesetz auf einer Sammlung von Schauermärchen beruhen, welche immer wieder durch empirische reale Daten ad absurdum geführt werden. Die legalen Kriterien zu einem Überdenken des Endangerment Finding sind in diesem Falle eindeutig vorhanden. Die wissenschaftliche Grundlage davon wurde invalide gemacht. Die Armada schrecklicher Kalamitäten, welche das Endangerment Finding prophezeit und welche durch eine umfangreiche Palette von Vorschriften verhindert werden soll, ist durch empirische Daten umfassend und überzeugend widerlegt worden. Die Petition für ein Überdenken sollte belohnt werden.

Link: https://thsresearch.files.wordpress.com/2018/02/ef-cpp-alarmist-claim-rebuttal-overview-021118.pdf

Übersetzt von Chris Frey EIKE




Klimaka­tastrophe? oder Klima­gewalten! Teil II

Dr. Helmut Fuchs, Geologe

GESCHÄFTSMODELL – KLIMAKATASTROPHE (DEKARBONISIERUNG)

ANGST ERZEUGEN MACHT ERSCHLEICHEN

Von tausenden veröffentlichten Warnungen vor der Klimakatastrophe nur sechs besonders interessante:

  • Vor 25 Jahren unterschreiben 1700 Wissenschaftler (Union of Concerned Scientists) eine Warnung vor einem massiven ökologischen und gesellschaftlichen Zusammenbruch als Folge des Klimawandels.
  • 1989 behauptet Noel Brown, leitender Umweltbeauftragter bei der UN: ganze Nationen könnten durch einen Anstieg des Meeresspiegels von der Erdoberfläche ausgelöscht werden, wenn bis 2000 die globale Erwärmung nicht rückgängig gemacht wird.
  • 2009 warnt Prinz Charles: die Menschheit hat nur noch 96 Monate Zeit, den unwiederbringlichen Zusammenbruchs des Klima-und Ökosystems … zu retten.
  • 2009 warnt Prof. Schellnhuber, Direktor des PIC Potsdam beim Klimakongress in Kopenhagen: … unverhinderte Erwärmung würde auch zu einem Zusammenbruch des Monsuns und zu einem Kollaps des Regenwaldes des Amazonasgebietes führen sowie zu einem Abschmelzen des Grönlandeises führen.
  • Papst Franziskus sagte: 2015 ist effektiv die letzte Möglichkeit, die katastrophale Erwärmung zu stoppen.
  • Frankreichs Außenminister Laurent Fabius sagte am 13 Mai 2014: wir haben noch 500 Tage, um das Klima-Chaos zu stoppen.

Um diese über dreißig Jahre vorhergesagte Katastrophe zu verhindern, werden wir, wie täglich zu lesen und zu hören ist, mithelfen, die Welt vor der kommenden Katastrophe zu retten. Deshalb hat unser Land auf der Basis der in der „Agenda 2050“ geforderten Maßnahmen eine Verringerung des deutschen Anteils am weltweiten Ausstoßes an CO2 von ca. 0,04% (400 ppm) [der prozentuale Anteil von Deutschland am weltweiten CO2 Ausstoß liegt bei ca. 0,08 % davon] versprochen. Damit soll unser Anteil zur Rettung des Weltklimas um 0,000013% (0,13ppm) sinken. Dafür werden Kosten von mehr als 27,6 Mrd. € netto pro Jahr für Deutschland anfallen. [Rein rechnerisch würde sich bei einer Verdoppelung des weltweiten Ausstoßes von CO2 der Wert auf 800 ppm erhöhen und dies eine Temperaturerhöhung um weniger als ¼ Grad C bewirken. Dies bedeutet wegen des nicht ganz genau zu bestimmenden globalen CO2-Gehaltes gleich Null.]

Zum Vergleich ein Beispiel aus der Natur: Als Folge der Photosynthese schwankt am Äquator der jährliche CO2-Gehalt der Atmosphäre um den Wert von 0,0020% (20 ppm).

VERSUCH EINER KLÄRUNG

Wo liegen die Ursachen für diesen Hochmut der Gesellschaft, die stetig schwankenden evolutionären Kräfte der Natur nachhaltig beeinflussen zu wollen? Ist es menschlicher Hochmut oder stehen hinter diesen Katastrophenmeldungen und den geforderten Milliarden zur Vermeidung der Klimakatastrophe andere Interessen? Werden mit Hilfe des Schürens von Ängsten politische und finanzielle Vorteile für die Politik angestrebt sowie für eine gesteuerte Industrieentwicklung (Deindustrialisierung) und für eine steigende Spendenquelle für nicht demokratisch legitimierte NGO Multis?

Seit Jahren ist der Begriff Klimawandel durch CO2 ein politisch mitreißendes Schlagwort, das nach vielen früheren Konferenzen in 2016 hochrangige Regierungsvertreter aus über 170 Ländern nach Paris lockte, um das hehre Ziel zu erreichen, das Weltklima zu retten. Eine der Wurzeln dieser weltweiten Bewegung liegt in einem weltweit propagierten und erfolgreich verbreiteten Beitrag aus dem Jahr 1981. Mit Modellrechnungen wird versucht, erwartete Steigerungen als Folge eines anthropogen wachsenden CO2-Austoßes die zukünftige Entwicklung der Welt-Temperatur einzuschätzen und die dadurch zusätzlich entstehenden Klimaschwankungen zu ermitteln.

Zuvor muss allerdings darauf hingewiesen werden, dass Klimamodelle auf Computeralgorithmus aufbauen und nicht die Realität abbilden, weil die Komplexität des Klimageschehens gegenwärtig und auch in absehbarer Zukunft mit keinem Computer realitätsorientiert erfassbar sein dürfte. Es handelt sich mehr um ein politisches Instrumentarium, denn um eine exakte Naturwissenschaft. Beispielhaft sei folgende Analyse genannt, die zur Zeit erschienen ist, als Al Gore Vizepräsident der Vereinigten Staaten war.

Climate Impact of Increasing Atmospheric Carbon Dioxide“

J. Hansen, D. Johnson, A. Lacis, S.Lebedeff, P. Lee, D. Rind, G. Russel

SCIENCE, 28. August 1981, Vol. 213, No. 4511 (4*)

Zusammenfassung

Die globale Temperatur stieg um 0,2° C von den mittleren sechziger Jahren bis 1980, was eine Erwärmung von 0,4° C im vergangenen Jahrhundert ableiten lässt. Diese Temperaturerhöhung steht im Einklang mit dem berechneten Treibhauseffekt aufgrund der gemessenen Steigerungen von atmosphärischem Kohlendioxid. Variationen der vulkanischen Aerosole und möglicherweise solaren Leuchtkraft scheinen die primären Ursachen der beobachteten

Schwankungen über den mittleren Trend steigender Temperaturen zu sein. Es wird gezeigt, dass die anthropogenen CO2-Erwärmung bis Ende des Jahrhunderts aus dem Geräuschpegel der natürlichen Klimavariabilität hervorgehen

sollte, und es eine hohe Wahrscheinlichkeit für die Erwärmung in den 1980er Jahren ergibt. Mögliche Auswirkungen auf das Klima im 21. Jahrhundert gehören die Ausbreitung dürregefährdeter Regionen in Nord- und Zentralasien als Teil einer Verschiebung der Klimazonen, der Erosion des westantarktische Eisschild mit einem konsequenten weltweiten Anstieg des Meeresspiegels und Öffnung der sagenumwobenen Nordwestpassage.“

Am Ende des Berichtes werden von den Autoren die Unsicherheiten dieser Analyse genannt. Einerseits sind es fachlich Argumente:

  • Der Anstieg des atmosphärischen CO2 hängt ab von dem angenommenen Wachsen der Energieerzeugung durch fossile Energierohstoffe, dem Verhältnis von erzeugter Energie durch fossile Brennstoffe und durch alternative Lösungen, sowie die Annahme, dass 50 % von anthropogenen CO2-Emissionen sich in der Luft verteilen.

  • Das vorhergesagte weltweit angenommene Wachstum basiert auf rudimentären Möglichkeiten, komplexe Klimasysteme mit vielen nicht linearen Prozessen zu ermitteln. Vergleiche der Sensitivität, ob das Klima im Gleichgewicht vom Geschehen auf Planeten und solchen Schwankungen, wie wir sie von der Erde kennen, sind ermutigend, aber noch viel mehr zusätzliche Untersuchungen und Berechnungen sind dazu notwendig.

  • Es gibt nur sehr grobe Abschätzungen für regionale Klimaeffekte.

  • Noch viel mehr weitere Beobachtungen sind notwendig, um belastbare Daten für eine CO2 verursachte Erwärmung zu erhalten, damit vertrauensvolle Voraussagen für größere Klimaauswirkungen für die Zukunft erstellt werden können.

Andererseits ist zum Schluss der Analyse aber auch die gewünschte politische und Interessen geleitete Ursache für die Erstellung dieser Studie heraus zu lesen, mit dieser wissenschaftlichen Studie zu versuchen, die gewünschte These über die ‚angebliche‘ Gefahr der „anthropogenen Carbonisierung“ der Welt zu untermauern:

  • Im Lichte langjähriger Erfahrungen weiß man, dass es Jahrzehnte erfordern wird, eine komplette Korrektur der bisherigen Energieerzeugung mit fossilen Rohstoffen mit der damit zusammenhängenden weiteren Erzeugung von (schädlichem) CO2 zu erreichen.

  • Man schon heute mit der Umstellung zu einer CO2 neutralen Energieerzeugung beginnt.

  • Und deshalb sind große Anstrengungen gefordert, alternative Energiequellen zu entwickeln.

Ohne den Versuch, die mathematischen Modellrechnungen bewerten zu wollen, werden im Folgenden einige grundsätzliche Anmerkungen auf der Basis der guten und immer besser werdenden nachprüfbaren erdgeschichtlichen Erkenntnisse über die Evolution der Erde zu dem vor fast vierzig Jahren veröffentlichten Bericht gemacht, die heute noch (siehe beispielhaft: H. Fuchs, 2017Natürliche und nicht anthropogene Klimaschwankungen dokumentiert an den Gletschervorstößen des Vernagtferners“, 5*) als Basis für die heutigen Szenarien sowie Prognosen zur zukünftigen „Klimakatastrophe“ genommen wird.

  • Szenarienentwicklungen und darauf aufbauende Prognosen sind wichtig. Man muss sich dabei aber bewusst sein, dass beim Entwickeln von Szenarien zum komplexen Klimageschehen nicht nur alle bekannten wissenschaftlichen und technischen Fakten berücksichtigt werden müssen, sondern auch diese zu gewünschten politischen und finanziellen Aussagen missbraucht werden können.

  • Die Analyse baut ausschließlich auf dem Glauben/das Wissen? an einen ‚Treibhauseffekt‘ auf. Alternativen dazu werden bei diesem enorm wichtigen Thema eher am Rande berücksichtigt.

  • In der Analyse des gesamten Textes werden die beiden Begriffe Temperatur und Klima nicht sauber getrennt.

  • Es wird von einer Welttemperatur sowie einem Weltklima gesprochen, die es so nicht gibt. Die meisten Aussagen zu den errechneten Ergebnisse werden im Konjunktiv genannt, wohl mit Recht, weil die Modellparameter meist lückenhaft sind.

  • Die Aussagen beziehen sich hauptsächlich auf den Zeitabschnitt ab 1880 und auf Vorhersagen über einen Zeitrum von mehreren Zehner von Jahren. Kaum dagegen wird auf die zahlreichen natürlichen erdgeschichtlich dokumentierten Temperatur- und Klimaschwankungen mit all ihren Sphären aus der evolutionären Vergangenheit der Erde eingegangen.

  • Die damals prognostizierten Temperatursteigerungen mit einem steigenden CO2-Gehalt sind nicht eingetroffen. Klassisches Beispiel für eine sich nach rechts verschiebende ‚Hockey Schläger‘ Grafik.

  • 18.01.2018: J.Hansen, Hauptschöpfer des Klima-Alarmismus, gesteht ein, dass wir in den nächsten 10 Jahren einen ‚Hiatus‘ [Unterbrechung] der Erderwärmung erfahren werden („Global Temperature in 2017“, 6*). Das steht im Widerspruch zu seinen oben genannten Behauptungen. Woher weiß er diesmal, dass das nur für 10 Jahre gilt? Er hat sich schon früher in seinen Vorhersagen geirrt!

Neue nachprüfbare Ergebnisse sprechen eine andere Sprache. Sie kommen zu einem ganz anderen Ergebnis als J. Hansen et al. vor 35 Jahren. Deshalb der folgende Beitrag, der einer von vielen ist, in dem der Zusammenhang der Speicherung von Wärme und der der Temperatur in Abhängigkeit vom CO2 Gehalt in ppm berechnet und erklärt wird.

Infrared absorption of atmospheric carbon dioxide“

F. K. Reinhart, Swiss Federal Institute of Technology, 2016 (7*)

Zusammenfassung

Die 2016 bekannten Absorptionseigenschaften von CO2 und die Physik der Wärmestrahlung erlauben, die Infrarotabsorption des atmosphärischen CO2 abzuschätzen. Dazu wird die Erde als ein homogener kugelförmiger Schwarzkörperemitter mit einer Temperatur von 288 K betrachtet. Eine idealisierte Atmosphäre, deren CO2-Gehalt der einzige Infrarotabsorber ist, umgibt den Emitter. Die CO2-Konzentration bezogen auf Meereshöhe beträgt 400 ppm und die Dichte nimmt exponentiell mit der Höhe ab. Dementsprechend enhält der schwarze Körper zur Bestimmung der durchschnittlichen Temperatur nur das ‚Treibhausgas‘ CO2. Über 200.000 einzelne Absorptionslinien von CO2 werden für die numerischen Berechnungen verwendet. Wenn dabei die absorbierte Energie vollständig in Wärme umgewandelt wird, überschätzen wir bewusst die Wärmerückhaltefähigkeit von CO2. Dabei hat die thermische Besetzungsstatistik der CO2-Energiezustände eine Schlüsselrolle bei diesen Berechnungen. Die berechnete Wärmespeicherung wird in eine Temperatur umgewandelt, die sich erhöht, ΔT. Eine Verdopplung der vorliegenden CO2-Konzentration führt nur zu ΔT <0,24 K. Bei der derzeitige Rate der CO2-Konzentration von 1,2% pro Jahr wird es fast 200 Jahre dauern, um das Zehnfache der gegenwärtigen CO2-Konzentration zu erreichen, die ein ΔT <0,80 K ergibt.

POLITIK

Beispielhaft ist eine treibende Kraft für die These, dass wegen des anthropogen erzeugten CO2 ein zusätzlich bedeutender ‚Treibhauseffekt‘ erzeugt wird und es deshalb zu einer raschen – zusätzlichen zur natürlichen – Erwärmung der Erde geführt hat und weiter führen wird. Dies ist seit Mitte der 70iger Jahre Albert Arnold „Al“ Gore Jr. nicht nur wegen seines politischen Gewichts (1993 bis 2001 Vizepräsident der Clinton Regierung und Friedensnobelpreis 2007), sondern auch wegen seiner persönlichen wirtschaftlichen Interessen ihm zu verdanken (sehr verkürzte Liste):

  • Er veröffentlichte mehrere Schriften zum Umweltschutz, und er hält bis heute weltweit Vorträge zu diesem Thema.

  • Aus seiner Multimediapräsentation über die globale Erwärmung ist die mit dem Oscar ausgezeichnete Dokumentation „Eine unbequeme Wahrheit“ („A Inconvenient Truth“, 2006) hervorgegangen, in der er seine Sicht auf wissenschaftliche und politische Aspekte der globalen Erwärmung zu vermitteln versucht.

  • Daneben startete er das GLOBE-Programm und initiierte die Konzertreihe Live Earth. Im Jahr 2007 wurde Al Gore für seine Bemühungen um eine Bewusstmachung der Klimakrise und ihrer globalen Gefahren zusammen mit dem Weltklimarat IPCC (vertreten durch Rajendra Pachauri) der Friedensnobelpreis verliehen.

  • [IPCC (International Panal on CLIMATE CHANGE, auf deutsch: Weltklimarat ) ist ein Zwischenstaatlicher Ausschuss für Klimaänderungen der Vereinten Nationen.]

  • Zusätzlich ist er u. a. Gründer und Vorstand der Alliance for Climate Protection, von Generation Investment Management, Current TV, Mitglied im Aufsichtsrat von Apple und hochrangiger Berater von Google sowie Teilhaber an den Investmentfirmen Kleiner Perkins Caufield & Byres und Generation Investment Management.

  • Seine PR Aufwendungen für eine Energiewende wurden alleine für das Jahr 2009 auf 300 Millionen Dollar geschätzt.

  • Er nutzt seinen Einfluss für eine Verringerung der kohlenstoffbasierten Wirtschaft mittels gesetzlichen Regelungen, für Risikokapitalinvestitionen und für Staatsaufträge, von denen er finanziell wohl erheblich profitiert hat.

  • Zum letztjährigen Bonner Energiegipfel war er in Deutschland und führte dabei auch Gespräche mit dem grünen Umweltminister Franz Untersteller von Baden-Württemberg.

Interessant dazu ist die Entwicklung des Klimaalarmeismus in Großbritannien: Premierministerin Margaret Thatcher war eine der ersten, die 1988 vor einer Erderwärmung gewarnt hatte, beraten durch Sir Crispin Tickel, Mitglied der UN. Dieser hatte zuvor in den 70iger Jahren vor einer weltweiten Abkühlung gewarnt und nun seine Meinung nach dem Bericht von J. Hansen (3*) und Aussagen anderer politisch Prominenten geändert hatte. Jetzt warnte er vor einer weltweiten Erwärmung. Als Folge wurden in Großbritanien entsprechende Maßnahmen national und international propagiert und umgesetzt oder begleitete wie z.B. die Gründung des IPCC in 1988. Im Jahr 2003 kam dann die Wende, mit der sie fast ihre ganze frühere Politik widerrief. Mit Spott bedachte sie die Vorstellungen von Al Gore, weil diese fruchtlos seien und zu wirtschaftlichem Schaden führen werden. Dies geschah angeblich mit den Worten: „Mit dem Missbrauch der Wissenschaft wird die Verbreitung von anti-kapitalistischem und linken Gedankengut verdeckt“ („Statecraft“, 2002, 8*). Obwohl wir auch schon vor Jahren in unserem Politthriller „Die German Angst“ (H. Fuchs & R. Kamradek, 2013, 9*) auf diesen Zusammenhang hingewiesen haben, blieb diese Erkenntnis in Deutschland ungehört.

Zum IPCC werden von Judith Curry (Januar 2018, 10*) aus heutiger Sicht zu zahlreichen Empfehlungen und Entscheidungen kritische Anmerkungen gemacht, obwohl der IPCC ursprünglich als zwischenstaatliche Institution eingerichtet wurde, für politische Entscheidungsträger den Stand der wissenschaftlichen Forschung zum Klimawandel zusammenzufassen. In der Vergangenheit hat sich der Klimarat häufig nicht an diese politisch neutrale Richtlinie gehalten.

ERKENNTNISSE

Mit der Beschreibung der Groß-Sphäre Klima habe ich versucht, deren Komplexität etwas transparenter zu machen. Dagegen habe ich mich bewusst nicht zu der Groß-Sphäre Umwelt geäußert, weil beide nicht direkt zusammenhängen, jedoch einige Schnittstellen aufweisen. Beim Klima handelt es sich um den Motor der Evolution der Erde, der wie gezeigt, vom Menschen nur sehr begrenzt beeinflussbar war und in Zukunft sein wird. Bei der Umwelt handelt es sich um den Lebensbereich der Menschen, der gestört werden kann – sowohl von Naturereignissen (im Volksmund Klimakatastrophen genannt) als auch aus ethischen und politischen Gründen von den Menschen selbst. Interessant ist es, diese nicht ganz einfachen Schnittstellen zwischen diesen beiden Groß-Sphären kurz zu betrachten.

Klima: Jede einzelne Sphäre des Klimas besteht aus vielen einzelnen Faktoren, die in ihrer erdgeschichtlichen Entwicklung bis heute erst zu einem geringen Teil verstanden werden, insbesondere in ihren nicht linearen Abhängigkeiten untereinander. Das ergibt eine große Zahl von Möglichkeiten. Diese Komplexität erhöht sich um ein vielfaches, wenn man versucht, diese Abhängigkeiten der verschiedenen Sphären miteinander verbinden zu wollen, um das gesamte Klimasystem zu verstehen. Auch algorithmisch erstellte Modelle werden noch lange an eine Grenze stoßen, so lange wir wie heute nur rudimentär die vergangenen entwicklungsgeschichtlichen Einzeldaten kennen.

Beispielhaft werden genannt: Erst wenn die tatsächlichen klimarelevanten, erdgeschichtlichen Datenkenntnisse über frühere weltweite Vulkanausbrüchen zu einem bestimmten Zeitpunkt mit den weltweiten atmosphärischen Daten des gleichen erdgeschichtlichen Zeitabschnittes korreliert werden können, lassen sich verlässliche Zukunftsmodelle erstellen. Das gleiche gilt auch für das Wechselspiel zwischen Plattentektonik und Vulkanismus im Zusammenhang mit den sogenannten ‚Meeresspiegelschwankungen‘. Dabei wird sich nach heutigen Erkenntnissen bestätigen, dass man nur von ‚Meeresspiegelanpassungen‘ sprechen sollte, denn die evolutionsbedingten Schwankungen der Erdoberfläche über und unter dem Meeresspiegel sind die eigentliche Ursache für diese. Wegen den nachgewiesenen jährlichen globalen Bewegungen von riesigen Gesteinsmassen von einigen Millimetern bis über 10 Zentimetern (z. B. Pazifische Platte) aller weltweiten Platten, Subduktionszonen, Bruchzonen, Vulkansockeln etc. in alle Richtungen – horizontal, nach rechts oder links, nach oben sowie nach unten – lässt sich dieser Prozess auch gut verstehen.

Dies bedeutet: Erst wenn die Interaktionen aller Sphären untereinander besser verstanden werden, könnte man versuchen, die evolutionäre Weiterentwicklung der Klimagewalten für die Zukunft etwas präziser abzuschätzen. Der Versuch der Menschen, diese Sphären mit den uns heute zur Verfügung stehenden Möglichkeiten zu beeinflussen, ist jedoch äußerst gering. Vielleicht gelingt es jedoch den Verantwortlichen für die Bonner Konferenz und den 22.000 Teilnehmern die Klimagewalten zu bezwingen. Wir bleiben gespannt!

Im Folgenden wird erklärt, warum die Begriffe Temperaturschwankungen und Wetterschwankungen nicht separat angesprochen wurden. Ersterer ist unter den einzelnen Klimasphären mit behandelt worden. Der zweite darf nur in Bezug auf Klimaschwankungen benutzt werden, wenn man sich dabei auf die Definition ‚Wetter‘ bezieht, d.h. nur auf die dreißigjährigen Mittelwerte des Wetters (Temperaturen, Luftfeuchtigkeit, Wind etc. etc). Denn jährliche Schwankungen des Wetters sind für Betrachtungen des Klimas nicht geeignet. Das bedeutet klimarelevant ist nur die Summe langer Wetterperioden. Dies wird sträflicher weise meist nicht berücksichtigt, was für die Bevölkerung zu großer Verwirrung führen muss.

Umwelt: (Definition in Wikipedia)

Maßgeblich für die in den letzten Jahrzehnten dominierende Bedeutung ‚Die Umgebung eines Lebewesens, die auf dieses einwirkt und seine Lebensumstände beeinflusst‘ war das 1990 von Jakob Johann von Uexküll veröffentlichten Buch ‚Umwelt und Innenwelt der Tiere. Der Referenzbezug auf das Individuum unterscheidet den Begriff inhaltlich von Begriffen wie Ökosystem oder Natur. In der politischen Debatte seit Ende der1960er Jahre ist der Begriff Umwelt – und seine Bedeutung – mit der Ökologiebewegung verknüpft. In der realen politischen Auseinandersetzung wird er oft synonym, manchmal auch dem Wort Ökologie, verwendet. Dieser unterschiedliche Gebrauch macht ihn einerseits unscharf, andererseits rekurriert er damit auf die Menschen umgebende Welt. Erst spät setzte auch eine ethische Debatte darüber ein, welche moralische Argumente für den Schutz der Umwelt gelten könnten. Umwelt bedeutet auch von Menschen gemachte Umwelt. Diese wiederum ist nicht immer idyllisch, aber manchmal notwendig. Eine Bewertung ergibt sich jedoch erst durch moralisch-ethische oder politische Abwägungen“.

SCHNITTSTELLE MIT FOLGEN

Diese grundsätzlichen Unterschiede muss man aufzeigen, damit wir verstehen, wie wir für die uns nachfolgenden Generationen die Lebensgrundlage erhalten oder gar verbessern können, anstatt sie zu verschlechtern. Es ist deshalb wünschenswert, unsere reichlich vorhandenen geistigen, technischen und finanziellen Ressourcen effektiver zu nutzen und die unkontrollierbaren und

unerreichbaren Vorstellungen wie z.B. für die sogenannte ‚Klimarettung‘ zu vergeuden. Trotzdem wird aus machtpolitischen Gründen dieser Alarmismus gezielt weiter propagiert: Zuerst Klimakatastrophe (opportunistisch), dann Kernkraft-Abschmelzung (ethisch) und nun sogar Dekarbonisierung (moralisch) trotz Deutschlands sehr geringen Beitrags von 0,13 ppm CO2 oder von 0,000013%, hin zur Vollversorgung Deutschlands mit Flatterstrom (Wind und Sonne blasen oder scheinen oder auch nicht). Hier hoffen alleine die Profiteure darauf, diese beiden ‚kostenlosen‘ Energierohstoffe Wind und Sonne mittels reichlich fließenden Subventionen so steuern zu können, dass eine halbwegs sichere Stromversorgung für Deutschland erreicht werden kann, egal was es kostet.

Quelle 11*)

Mit diesem eklatant unwirtschaftlichen Modell will Deutschland weiterhin Vorbild für die Welt bleiben: Paris 2015? Hoffen unsere Politiker wirklich, dass sich die ganze Welt – mehr als nur mit Versprechungen – unserem Leitbild anschließen wird, insbesondere China, Indien, Russland und die Vereinigten Staaten. Eine solche absurde Hoffnung widerspricht jedoch den Fakten. Bei China und Russland kann man davon ausgehen, dass Xi Jinping und Putin ganz genau wissen, dass man die natürlichen Klimagewalten weltweit kaum beeinflussen kann. Trotzdem wird von beiden Ländern aus machtpolitischen Gründen geschickt die Angst der westlichen Welt vor einer ‚Klimakatastrophe‘ begleitet („Weich? Hart? Scharf!, Bericht in der F.A.Z. zu einer Analyse von Ch. Walker et.al. 12.02.2018). Für die USA gilt die ehrlichere Aussage, denn dort wird zum ersten Mal seit über einem Jahrzehnt in ihrer ‚International Defense Strategy‘ nicht mehr die Gefahr eines anthropogen verursachten ‚Klimawandels‘ genannt.

Nur aus opportunistischen Gründen wird von diesen die philanthropisch gesteuerte CO2 Hysterie des Westens mit ihren Profiteuren unterstützt. Sie werden jedoch weiter nicht auf eine wirtschaftliche Energieversorgung verzichten. Im Gegenteil! In zahlreichen Ländern findet derzeit ein Bau- und Planungsboom von 1600 Kohlekraftwerken statt. Hinzu kommt eine weltweite Renaissance eines neuen ‚Atomzeitalters‘ mit den im Bau befindlichen 51 Kernkraftwerken, – Ende 2017 wurde dagegen das KKW Gundremmingen, das leistungsfähigste KKW Deutschlands auf Grund eines von den Grünen beauftragten Gutachtens wegen behaupteter Erdbebengefahr geschlossen. Ein Teil der neuen KKW wird heute schon zur Schonung von Ressourcen mit dem vorhandenen Energierohstoff ‚Atommüll‘ bestückt oder schon betrieben. Man ist zunehmend davon überzeugt, mit kostengünstiger Energie viel Geld für die Bürger sparen zu können, um mit dem Ersparten die Umwelt – im Sinne der ursprünglichen Definition – in der wir leben, für die Menschen zu verbessern, weil wir die evolutionären Klimagewalten kaum beeinflussen können.

Unter diesem Gesichtspunkt stellt sich heute die existenzielle Frage, ob jetzt auch noch eine Besteuerung aller CO2 Emissionen – wie die der Lebewesen, die der Landwirtschaft, die der gesamten von der Technik abhängigen Industrie etc. – für Deutschland ohne Kernkraft und ohne moderne Kohlekraftwerke nicht schon wieder ein in der Zukunft kaum mehr rückgängig zu machendes Gift für unsere Volkswirtschaft ausgestreut wird?

Die Hoffnung auf eine Rück-Energiewende ist genau so unwahrscheinlich, wie die deutsche Hoffnung, die weltweite ‚Meeresspiegelschwankungen‘ oder besser Meeresspiegelanpassungen mit einer Verringerung des deutschen CO2-Ausstoss um 0,13 ppm (Teil von einer Million) aufhalten zu können. Kein Wunder, denn unser Glaube an Al Gore ist viel größer als unser Wissen über die Kenntnis unserer Wissenschaftler!

ERINNERUNG

Klima und Paleoklimaforschung. S. 37 – 45; Arnold Müller, 2017 (1*)

„… Zusammenfassend betrachtet reguliert sich das globale Klima auch heute weitgehend und auf natürliche Weise durch die Interaktion einer breiten Palette von Klimafaktoren. Der anthropogene Einfluss ist eher gering und die Fokussierung auf die CO2 Problematik unter Vernachlässigung anderer Faktoren ist eine sehr verengte Sicht der Dinge. Weiterer Bevölkerungszuwachs, Urbanisierung, Entwaldung und andere Faktoren sind für die Menschheit viel problematischer als ein Anstieg des CO2 Gehaltes der Atmosphäre von 380 auf 500, eventuell bis 800 ppm. Bei etwa 800 ppm liegt der erdgeschichtliche Durchschnitt, zumindest im Phanerozoikum (ca. 541 Millionen Jahre bis heute). Das entspricht in etwa auch dem Optimum für Pflanzen. Unter optimalen CO2 Bedingungen würde die Landwirtschaft deutlich höhere Erträge liefern und für lange Zeit die Ernährung der wachsenden Weltbevölkerung garantieren. Die Begasung von Gewächshäusern mit CO2 illustriert diesen Zusammenhang auf direktem Wege. Insofern verschwendet die CO2 Vermeidung Ressourcen, die in anderen Bereichen für die Zukunft Sicherung viel nützlicher verwendet werden könnten…“

P.s. Aktuelles Thema: Grenzwerte: In unserem schon vor Jahren veröffentlichten Thriller

„Die German Angst“ 9*) haben wir auf Seite 317 auf die geschickte Strategie der grünen Bewegung hingewiesen, wie man mit Grenzwertmanipulationen auch bei Automotoren deren Produktion verhindern kann. Die derzeitige Diskussion zeigt den großen Erfolg dieser vorhersehbaren aber leider von der Bevölkerung nicht bemerkten machtpolitischen Taktik der grünen Bewegung.

Referenzen (Teil I und Teil II)

(1*) „Klimagewalten – Treibende Kraft der Evolution“, 2017; Hrsg. Prof. Harald Meller, Direktor des Landesamt für Denkmalpflege und Archäologie Sachsen Anhalt und Thomas Puttkammer.

(2*) „Klimafakten – Der Rückblick – Ein Schlüssel für die Zukunft“, 2000, Hrsg. Ulrich Berner und Hansjörg Streif (BGR, GGA,NLfB), E. Schweizerbart’sche Verlagsbuchhandlung, Stuttgart.

(3*) „Source and dynamics of a volcanic caldera unrest:Campi Flegri, 1983-84”, 2017. L. De Sienna, G. Chiodini, G. Vilardo, E. Del Pezzo, M. Castellano, S. Colombelli, N. Tisato, G. Ventura, Scientific Reports:, Nr. 8099 (2017). doi:10.1038/s41598-017-08192-7.

(4*) „Climate Impact of Increasing Atmospheric Carbon Dioxide“, 1981, J. Hansen, D. Johnson, A. Lacis, S.Lebedeff, P. Lee, D. Rind, G. Russel; SCIENCE, 28. August 1981, Vol. 213, No. 4511

(5*) „Natürliche und nicht anthropogene Klimaschwankungen dokumentiert an den Gletschervorstößen des Vernagtferners“ H. Fuchs; EIKE,16.10.2017,

(6*)„Global Temperature in 2017“: J. Hansen, M. Sato, R. Ruedi, G.A. Schmidt, K. Lo, A. Persin, (18. Januar 2018) [Im Internet zu finden.]

(7*)„Infrared absorption of atmospheric carbon dioxide“, 2016; F. K. Reinhart, Swiss Federal Institute of Technology,

(8*) „Statecraft, Strategies for a Changing World“, Margaret Thatcher, 2002, ISBN 9780060199739.

(9*) „Die German Angst“ H. Fuchs & R. Kamradek, 2013, Bookshouse Verlag, ISBN 978-9963-727-780 und als e-book.

(10*) „Manufacturing consensus: the early history of IPCC“, Januar 2018, Judith Curry.

(11*) Wiesbadener Kurier: Sommerinterview von Eva Quadbeck vom 26.08.2016.




Klimaka­tastrophe? oder Klima­gewalten! Teil I

Dr. Helmut Fuchs, Geologe

Deshalb war es Zeit, dass in Deutschland mal wieder eine ideologiefreie fachlich saubere Veröffentlichung als Sammelband verschiedenster Fachleute zum Thema Klima herauskam. Er besticht nicht nur wegen seiner auch für Laien verständlichen Erklärungen der sehr komplexen Hintergründe der Klimaevolution der Erde, sondern auch wegen den vielen ganzseitigen Bildern:

Klimagewalten – Treibende Kraft der Evolution“, 2017; Hrsg. Prof. Harald Meller, Direktor des Landesamtes für Denkmalpflege und Archäologie Sachsen Anhalt, und Thomas Puttkammer (1*).

Um den Charakter der Berichte aufzuzeigen werde ich anfangs einige interessante Thementeile wörtlich davon zitieren. Bei meinen folgenden Ausführungen werde ich mich z.T. inhaltlich an den Text halten, mich meistens auf mein Grundwissen beziehen, jedoch zum einfacheren Lesen auf das Zitieren der vielen Einzelinformationen möglichst weitgehend verzichten. (Trotzdem hier noch ein Hinweis auf ein weiteres fachlich interessantes Buch zu diesem Thema: „Klimafakten – Der Rückblick – Ein Schlüssel für die Zukunft“; BGR, GGA, NLfB, 2000 (2*) [BGR: Bundesanstalt für Geowissenschaften und Rohstoffe; GGA: Institut für Geowissenschaftliche Gemeinschaftsaufgaben; NLFB: Niedersächsisches Landesamt für Bodenforschung, alle in Hannover].

KLIMAVERGANGENHEIT !

Was passiert, wenn es kälter oder wärmer wird? S.419 – 423; Von Arnold Müller. (1*)

Kaum etwas wird heute lebhafter diskutiert als die Klimaentwicklung für die nächste Zukunft. Das ist auch nicht überraschend: Trotz aller zivilisatorischer Leistungen der Menschheit in den vergangenen Jahrhunderten bleiben wir auch weiterhin sehr klimaabhängig. Der ‚Wohlfühlfaktor‘, also das, was wir als angenehm empfinden, stellt dabei noch das geringste Problem dar. Das hängt sowieso von dem ab, was man gewohnt ist. Die Inuit auf Grünland werden die Frage nach optimalen klimatischen Bedingungen anders beantworten als Bewohner Mitteleuropas oder Nordafrikas. Wegen seiner Bedeutung wurde das Thema Klima inzwischen hochgradig politisch aufgeladen. Dabei fallen im Dickicht verschiedenster Interessen Fakten gerne unter den Tisch oder werden dem eigenen Weltbild angepasst. Ein kurzer Rückblick in die vergangenen Jahrzehnte der Klimadiskussion offenbart das recht anschaulich.

Noch vor wenigen Jahrzehnten ging die Angst vor der nächsten Eiszeit um. Wenig später wurde die globale Erwärmung zum Schreckensbild erklärt. Als Hauptursache für die erwarteten Erwärmung gilt heute allgemein die Menschheit selbst, und die anthropogene Beeinflussung des Klimasystems wird erbittert diskutiert. Aus erdgeschichtlicher Sicht kann man das entworfene Katastrophenszenario für eine Erwärmung von über 2°C nur milde belächeln. 2°C höher als heute lägen immer noch deutlich unterhalb des känozoischen Mittels. Allein die Lebensgeschichte der letzten 66 Millionen Jahre mit dem grandiosen Aufstieg der Säugetiere und schließlich den Daten des Menschen selbst zeigt, dass deutlich wärmere Perioden Blütezeiten der Biosphäre waren. Warum also die unnötige Angst vor etwas höheren Temperaturen, während Kälte gegenwärtig kein Thema zu sein scheint. Die Gründe dafür sind vielfältig und oft irrational …“

Das wechselhafte Klima der letzten 1000 Jahre. S.393 – 404; Wolfgang Behringer. (1*)

Während man bis vor wenigen Jahrzehnten davon ausgegangen ist, dass das Klima im Wesentlichen konstant sei, wissen wir inzwischen, dass es sich nicht nur in den letzten Jahrmillionen oder in Zehntausenden von Jahren verändert, sondern auch relativ kurzfristig. Innerhalb des letzten Jahrtausends unterscheiden wir mittlerweile drei große Epochen: Die Hochmittelalterliche Warmzeit, die Kleine Eiszeit und die Globale Erwärmung unserer Zeit (Behringer 2007).

Als die Wikinger im 7. Jahrhundert im Nordmeer eine Insel entdeckten, gaben sie ihr den Namen, den sie heute noch trägt: Sie erschien ihnen als ein eisiges Land, als Island. Im Zuge einer Erwärmung war die Insel aber zu Beginn des 10. Jahrhunderts weniger abweisend (Ogilvie

1991) und mehrere hundert Häuptlingsfamilien aus Norwegen begannen mit der Besiedlung, festgehalten in einer berühmten Quelle, dem Landnamabook (Buch der Landnahme). Im Jahr 982 segelte der Wikinger Erik der Rote (ca. 950-1004) weiter nach Westen und entdeckte dort

„Nach Behringer 2017, 394 Abb.1. In: Meller/Puttkammer (Hrsg.), Klimagewalten – Treibende Kraft der Evolution (Halle [Saale] 2017, 1*).
eine noch viel größere Insel. Nach drei Jahren kehrte er zurück und warb Siedler für seine Insel, das grüne Land. 25 Schiffe brachen 985 zur Besiedlung Grönlands auf. Eriks Sohn, Leif Erikson (ca. 970 – 1020) erkundete von dort aus die Küste noch weiter im Westen. Er nannte sie Markland (Waldland) und Vinland (Weinland), das heutige Neufundland (Seaver 1996). Im Jahr 1000 entschied das Parlament Islands, das Althing, die Einführung des Christentums. Auch nach Grönland wurde kurz nach 1100 ein Bischof entsandt. Die Ruine seiner Bischofskirche kann man heute noch besuchen. Die Wikinger auf Island und Grönland führten wie in Norwegen das Leben europäischer Bauern. Sie lebten von Ackerbau und Viehzucht, aßen Brot und Fleisch und trieben Handel mit Norwegen und Schottland (Dansgard u. a. 1975)…“

SPHÄREN VON KLIMAFAKTOREN

Im Folgenden versuche ich möglichst kurz und hoffentlich verständlich die einzelnen Sphären – siehe die Definition des Begriffs Klima in meinem Vernagtferner Bericht – zu erläutern, die das Klimageschehen bis heute und in Zukunft die Grundlage der Evolution der Erde bilden. Dabei wird auch gezeigt, dass CO2 – wie zuvor beschrieben – nur einen geringen Einfluss auf das sehr komplexe Klimageschehen hat.

TEKTONIK (PLATTENTEKTONIK)

Tektonische Bewegungen der Erdkruste sind an den stetigen Bewegungen einzelner Lithosphärenplatten (mobile Erdkruste) abzulesen. Aus der Orientierung ferromagnetischer Minerale in den Gesteinen kann man frühere Pollagen ableiten und damit exakte Bilder der Polwanderungen seit Anfang der Erdgeschichte für einzelne Zeitabschnitte bzw. für einen bestimmten Zeitpunkt genau ablesen. Diese Bewegungen führten und werden auch weiterhin zu enormen Verschiebungen von Gesteinsmassen führen mit all ihren Folgen. Die Ursache der plattentektonischen Prozessdynamik (Evolution) liegt in der Thermodynamik der Erde, besonders des Erdmantels. Der Wärmetransport erfolgt durch Konvektion. Dort wo die Wärme aufsteigt, treibt sie die Erdkruste auseinander und in den entstehenden Rissen steigt basaltisches Magma auf. Wo sie aufeinander treffen bilden sich Gebirgsketten, bei denen es sich im wesentlichen um zwei Arten handelt: Faltengebirge (z. B. Alpen) oder Vulkangebirgsgürtel (z.B. Anden). Nicht nur Lage und Ausdehnung der Kontinente, sondern auch deren Topographie (Folge der Plattentektonik) beeinflussen das Klima.

Die Pazifische Platte ist die größte tektonische Platte der Erde. Sie bildet, mit Ausnahme einiger Randbereiche, den Untergrund fast des gesamten Pazifischen Ozeans; Experten schätzen ihre Größe auf etwa 108.000.000 km² Sie verschiebt sich mit wachsender Tiefe und einer Geschwindigkeit von ca. 10 cm pro Jahr nach Westen und verschwindet in dem sehr tiefen Marianengraben (Subduktionszone), am Rande der Philippinen und Eurasischen Platte, also einem Teil des Pazifischen Feuerings.

Als Folge des Fukushima Erdbebens wurde beispielsweise die Hauptinsel von Japan, Honshu, um 2,4 Meter nach Osten verschoben und bewegte die Erdachse um 10 bis 25 cm. (Schallwellen dieses Ereignisses wurden von dem niedrig fliegenden GOCE Satelliten aufgezeichnet). Auch das Beben in Chile hat die Achse um acht Zentimeter verschoben, weil dort massenhaft Gesteinsschichten steil ins Erdinnere (Subduktionszone) geschoben wurden. Dies führte zu einer zusätzlichen Beschleunigung der Rotation der Erde. Beispielhaft sei noch genannt: In Schweden und Finnland steigt langsam aber stetig die Landoberfläche. Am stärksten ist das im Gebiet des Bottnischen Meerbusen zu beobachten: Seit Beginn der Messungen (1892) im schwedischen Ratan wuchs die Oberfläche um fast einen Meter und der Meeresspiegel fiel entsprechend. In Norwegen findet jedoch ein stetiges Abtauchen der Landoberfläche statt: Fjordlandschaft. Solche Vorgänge finden heute ständig und in Zukunft statt und werden ständig das Klimageschehen beeinflussen.

Die gesamte Erdoberfläche, die von den tektonischen Plattenverschiebungen geprägt wird, verändert sich kontinuierlich in horizontale bis hin in vertikale Richtung. Diese Kräfte formen die Gebirge, Tiefseegräben und ins besondere die Formen der Kontinente. Das betrifft nicht nur die ca. 30 Prozent der Landoberflächen, sondern insbesondere auch die ca. 70 Prozent der unter dem Meeresspiegel liegenden ‚Erdoberfläche‘.

Die durchschnittliche Zahl der Erdbeben weltweit beträgt für den Zeitraum von 1990 bis 2015 pro Jahr für die Erdbeben mit der Magnitude von 3.0 bis 4.9 = ca. 143.000, von 5.0 bis 6.9 = 1.648 und ab 7.0 = 16 (BGR 2016).

Dies alles erklärt, warum die Erde keine perfekte Kugel ist, sondern die Form einer sich dauernd verändernden ‚Kartoffel‘ hat.

VULKANISMUS

Vulkanismus steht in engem Zusammenhang mit der Plattentektonik und hat deshalb globalen Einfluss auf das Klimageschehen bei der Evolution der Erde. Vereinfacht lassen sich verschiedene Erscheinungsformen des Vulkanismus nennen.

Vulkanismus beim Auseinanderdriften von Kontinentalplatten:

Dabei bilden sich wachsende Schwächezonen, in die kontinuierlich hauptsächlich basaltisches Magma aus dem Oberen Erdmantel eindringt und sich langgestreckte Basaltgebirge kontinuierlich aufbauen (z. B. Mittelatlantischer Rücken, der fast von der Arktis bis in die Antarktis verläuft und stetig wächst). Beim Erstarren dieser riesigen Mengen von Lavagesteinen werden große Mengen von vulkanischen Gasen einschließlich CO2 frei. Parallel dazu verlaufen häufig Tiefseerinnen. Dieser Gesamtprozess führt nicht nur kontinuierlich zu erheblichen Verschiebungen von Gesteinsmassen sowie fortdauernden Veränderungen der Erdachse, sondern auch zum Austritt von Gasen, die sich in die Hydrosphäre und Atmosphäre verteilen.

Das Gasgemisch besteht aus Wasserdampf (H2O), Schwefeldioxid (SO2), Kohlendioxid (CO2), Schwefelwasserstoff (H2S), Salzsäure (HCl) und Fluorwasserstoff (HF) aber auch in geringeren Mengen Edelgase, Kohlenmonoxid, Methan und Wasserstoff und reichert sich in den Ozeanen an.

Vulkanismus beim Aufeinanderprallen von Kontinentalplatten:

Dabei finden entweder Überschiebungen statt, bei denen entlang einer Subduktionszone die (chemisch) dichtere unter die weniger dichte Gesteinsplatte geschoben wird, oder es kommt zu einer Kollision, bei der eine oder beide Platten in den Randbereichen gefaltet werden. Davor bilden sich Tiefseerinnen (z. B. Marianengraben) und darüber oder dahinter vulkanische Feuerbögen (z.B. Aleuten, Antillen). Letztere heißen Inselbögen, weil nur die Spitzen der Vulkane über den Meeresspiegel herausragen. Einer davon ist der zirkumpazifische Feuerring, der den Westen des Pazifiks von drei Seiten umgibt. Mindestens zwei Drittel aller im Holozän (Beginn vor ca. 12.000 Jahren) ausgebrochenen Vulkane sind dort zu finden. Starke Erdbeben treten dort entlang dieses Ringes zur Entspannung der Erdkruste auf, die zusätzlich zu weiteren Massenverschiebungen und zur Vergasung der Ozeane führen.

Vulkanismus innerhalb von hauptsächlich ozeanischen Platten:

Seamounts entstehen an den divergierenden Plattengrenzen einer ozeanischen Platte im Rahmen des Hot-Spot-Vulkanismus aber auch insbesondere auf Scher- und Schwächezonen innerhalb der Pazifischen Platte. Durch ihre Bewegung in Richtung der Subduktionszone verlieren häufig die Vulkane (Guyots) den Kontakt zu ihrer Magma-Quelle. Die Magmaförderung erlischt in diesem Fall. In anderen Fällen kann sie nur ruhen und wird insbesondere im südwestlichen Teil der Platte wieder aktiv und bildet die bekannten Vulkan-Korallen-Atolle. Zum Thema Meeresspiegelschwankungen insbesondere bei Vulkan-Korallen-Atollen gilt: Es gibt nur einen globalen Meeresspiegel, der global den ständigen Schwankungen der Sonneneinstrahlung mit schwankenden Temperaturen und des Meeresbodens als Folge von Plattenverschiebungen und vulkanischen Aktivitäten ausgesetzt ist. Wenn sich der örtliche Meeresspiegel bei Vulkan-Korallen-Atollen verändert, liegt dies dort zusätzlich am langsamen Absinken des mächtigen Ergussgestein-Blocks (über einem Magmaherd), aus dem heute nur einige Vulkanspitzen herausragen und auch der die Basis für die Korallenriffe und Lagunen bildet. Wenn der Magmaherd darunter tot ist, gibt es keine zusätzliche lokale Erhöhung des gesamten Atolls, wenn der Vulkan schläft, dann ist mit zukünftigen Aktivitäten zu rechnen und es muss mit einem Wachsen des Atolls gerechnet werden, ohne zu wissen, wann das passieren wird. Das Ergebnis dieser natürlichen Entwicklung ist, dass es keine lokale Nulllinie für Vulkan-Atolle geben kann, auf die man sich beziehen kann: Denn dort treten kontinuierlich zusätzlich zu den globalen Ursachen für Schwankungen des Klimas und des Meeresspiegels lokale Veränderungen des Abstandes des Meeresboden zur Oberfläche als Folge der Plattentektonik und des Vulkanismus auf.

Supervulkane

Weltweit sind 20 Supervulkane bekannt. Im Gegensatz zu ’normalen‘ Vulkanen sind sie zu groß, um einen Kegel auszubilden. Sie bestehen unter der Erdoberfläche aus einer gewaltigen Magmablase in Gebieten mit komplizierten Plattenbewegungen, die sich über Jahrtausende mit Gasen anreichern. Dabei steigt der Druck bis es zu einem oder mehreren Ausbrüchen kommt. Auf Grund der Größe seiner Magmakammer hinterlässt ein Supervulkan bei seinen Ausbrüchen keine Vulkankegel, sondern riesige Einbruchskessel an der Erdoberfläche, sogenannte Calderen.

Italien bricht aufgrund von komplizierten Bewegungen kleinerer Plattenteile untereinander im Untergrund auseinander, verursacht durch den stetigen Druck der Afrikanischen auf die Europäische Platte. Nach neuesten GPS-Messungen driftet der gesamte Norden Italiens gegen den Uhrzeigersinn, der Süden genau andersherum. Rom bewegt sich nach Norden um zwei Millimeter pro Jahr. Doch das auf gleicher Höhe in Mittelitalien liegende L’Aquila geht nach Osten, Richtung Balkan, allerdings doppelt so schnell. Der Meeresgrund wird sich dabei stetig heben und Ostsizilien an das kalabrische Festland heranrücken.

Einer der zwanzig Supervulkanen befindet sich unter der 150 km² großen Caldera Campi Flegrei, in der Neapel und die Phlegräischen Felder (Pompeji) liegen. Die darunter liegende riesige Magmakammer, speist auch den benachbarten Vesuv und nach neuesten Ergebnissen auch den Ätna (L. De Siena et al, 2017, 3*). Neueste seismische Untersuchungsmethoden haben erstmals Belege für die Existenz einer heißen Magmazone in 4 km Tiefe unter der der Stadt Pozzuoli südlich von Neapel nachgewiesen. Die beträchtlichen ’sogenannten Meeresspiegelschwankungen‘ in diesem Gebiet sind seit 2000 Jahren hinlänglich bekannt – deshalb nur der Hinweis: in den Jahren 1970 und 1983 war die Aktivität so stark, dass der Hafen von Pozzuoli nicht weniger als 3 Meter angehoben wurde.

Wie schon im vorigen Kapitel ‚Tektonik‘ erläutert, gibt es wie häufig behauptet keine bedeutende globalen ‚Schwankungen des Meeresspiegels‘, sondern stetige Schwankungen des Meeresbodens, die nur den Anschein erwecken, dass der Meeresspiegel schwankt.

SONNENEINSTRAHLUNG

Zahlreiche Faktoren beeinflussen die Auswirkungen der Sonne auf das Weltklima. Veränderungen der elliptischen Umlaufbahn der Erde verändern die maximalen und minimalen Werte der solaren Wärmestrahlung wie auch wechselnde Einfallswinkel bei unterschiedlichen Breitengraden der Erde.

Ihre Strahlungsaktivität hängt von der Anzahl der Sonnenflecken, deren Durchmesser von 1.000 bis 10.000 Kilometer schwankt. Sie entstehen durch Strömungsvorgänge im Sonneninnern und durch das sich ständig ändernde Magnetfeld der Sonne und unterliegen mehreren kürzeren und längeren Zyklen: Schwabe-Zyklus mit einer mittlere Periodenlänge von 11 Jahren, Gleißberg-Zyklus bei ca. 80 Jahren und De-Vries Zyklus bei ca. 200 Jahren. Diese Zyklen lassen sich in Eisbohrkernen nachweisen. Mit Abnahme der Sonnenflecken, also der solaren Energie, und dem damit verbundenen Anstieg der kosmischen Strahlung, die die Erdatmosphäre erreicht, ionisiert die Aerosol-Moleküle. Diese Kondensationskerne führen zum Anwachsen von Wolken, die wiederum eine Abkühlung verursachen. Mehr Sonnenflecken haben den gegenteiligen Effekt – weniger Wolken – höhere Temperaturen. Neueste Messergebnisse lassen vermuten, dass zwischen 1650 bis 1700 kurz vor bis zur kleinen Eiszeit eine geringe Sonnenfleckenaktivität herrschte. Zu den bekannten Aktivitätsphänomene zählen die kurzzeitigen Strahlungsausbrüche in solaren ‚Flärs‘ und gewaltigen Sonnenstürmen in Form koronaler Massenauswürfen.

ATMOSPHÄRE

Die Atmosphäre ist der Träger der globalen Wetterabläufe und des Klimas. Die an der

Erdoberfläche ankommende Sonneneinstrahlung wird dort entweder absorbiert, wodurch ihr Wärme zugeführt oder aber reflektiert wird, das ohne Effekt auf die Temperatur der Erdoberfläche ist. Die erwärmte Erdoberfläche strahlt ihrerseits auch, sie emittiert Infrarot(IR)-Strahlung. Aber die Erdoberfläche gibt auch Wärme an die Luft ab, welche in Kontakt mit der Erdoberfläche ist.

‚Treibhausgase‘ nennt man nur jene Gase, die in der Lage sind, elektromagnetische Strahlung – nicht Wärmestrahlung – zu absorbieren und zu emittieren, und die als Spurenbestandteile in der Atmosphäre, der Lufthülle der Erde, in dem Ozean aus Luft, die unsere Erde umgibt, enthalten sind. Ihre Anteile sind: 21% Sauerstoff, 0,93% Argon, 0,04% CO2, 0,035 Sonstige, deren Anteile sich bei Temperaturschwankungen jedoch etwas ändern können.

Wichtigstes Gas der Atmosphäre ist Wasserdampf, gefolgt von CO2 und den übrige Spurengasen Ozon, Methan und Stickoxid. Der durch Menschen bedingte Anteil an diesem „Treibhaussystem“ beträgt etwa 2,7 Watt pro m² oder 2,1%. Der gesamte ‚Treibhauseffekt‘ wäre dann (in W/m²): Wasserdampf 66 +/-?%, CO2 29+/-2,1%, und andere Treibhausgase 5+/-0,8%. Bei diesen Zahlen ist nicht geklärt, ob sich die genannten Werte zur Menge des CO2 auf alle seit der Existenz der Menschen mit all ihren Aktivitäten seit der Zeitenwende bis heute beziehen (Bevölkerungswachstum, Landwirtschaft, Ernährung etc.) oder nur auf die, die eine Folge der Entwicklung sind, die durch die technische Entwicklung entstanden sind.

Die kontroverse Antwort auf die Frage, ob die sog. ‚Treibhausgase‘ Wärme in die Lufthülle der Erde hineinbringen, und damit dafür sorgen, dass es darin wärmer wird. Oder aber ob das an der Erdoberfläche schon vorhandene CO2, das sie in seinem Wärmespektralbereich quasi schon gesättigt ist, noch zusätzliche Wärme aufnehmen kann oder ob diese auch wieder aus der bodennahen Lufthülle hinaus befördern kann, und dann auf diese Weise die Auskühlung dieser Luftschicht bewirkt. Hierzu gibt es bisher noch keine fundierte abschließende Antwort.

HYDROSPHÄRE

Zwischen der Atmosphäre, der Lithosphäre, der Biosphäre und der Hydrosphäre finden über den Wasserkreislauf Austauschprozesse statt. Die treibende Kraft in diesem System sind Meeresströmungen, die als folge unterschiedlicher Temperaturschwankungen und Salinität das Klima beeinflussen. Kälteres und an Salz reicheres Wasser ist dichter als warmes und an Salz ärmeres. Nicht nur die Temperaturschwankungen an sich, sondern auch die dadurch beeinflussten gewaltigen Zirkulationen der Meeresströmungen mit der damit zusammenhängenden Verdunstung des Wassers sorgen für einen horizontalen und vertikalen Wärmetransport und sind dadurch für die Schwankungen der Oberflächentemperaturen direkt wetter- und klimarelevant (Prinzip‘ Thermokline‘).

Trotz den intensiven Untersuchungen sind die exakten Mechanismen des recht komplexen El Nino Phänomens noch immer unzureichend bekannt, und dementsprechend sind die wahrscheinlich eintretenden Veränderungen des Phänomens bezüglich Häufigkeit und Intensität unter zunehmender Klimaerwärmung nur schwer vorherzusehen. Manche Ergebnisse lassen vermuten, dass die Sonneneruptionen dafür verantwortlich sind, andere vermuten, dass es eine Folge von natürlichen d. h. von evolutionären physikalischen, chemischen sowie biologischen Prozessen ist und manche glauben, dass dahinter der postulierte anthropogene Klimawandel steckt.

Wasser nimmt gelöste Gase auf. CO2 wird wie alle anderen Gase proportional zum atmosphärischen Partialdruck im Wasser gelöst. Das System ist zusätzlich noch temperaturabhängig. Kühles Wasser nimmt mehr CO2 oder O2 auf als warmes Wasser. Erwärmt sich das Wasser gibt es einen Teil des gelösten CO2 zurück in die Atmosphäre. Das erklärt die bekannte Tatsache (Eiskernbohrungen), dass Temperaturanstiege einem Anstieg von CO2 viele Jahre voraus laufen können.

Erst seit 1976 ist bekannt, dass beträchtliche Mengen von instabilem Methanhydrat in Ozeanen in Tiefen von 500 bis 1000 Meter abgelagert sind. Beispiel: Bei Testbohrungen wurden in Alaska große Felder an der Prudhoe Bay gefunden, mit jeweils mindestens acht großen Flözen in 300 bis ca. 800 Metern Tiefe und einer Gesamtgröße von etwa 40 bis 60 Milliarden Kubikmetern. Die Gesamtmenge in den Ozeanen wird auf 30 Billionen Tonnen geschätzt. Das Gashydrat ist 25 mal stärker klimawirksam als CO2.

VERWITTERUNGSPHÄRE

Diese Sphäre beschreibt die oft vergessenen klimarelevanten Ereignisse (Erosion, Bodenbildung Sediment-Neubildungen etc.), die sich an der Erdoberfläche abspielen.Während in kalten Klimazonen oder unter hoch ariden Bedingungen hauptsächlich eine mechanische Verwitterung (Felsstürze etc.) stattfindet, tritt in warm humiden Gebieten die chemische Verwitterung unter Einfluss von Wasser in den Vordergrund. Im Wasser gelöstes CO2 mutiert zur Kohlensäure, die beispielsweise Kalk löst etc.

Am klimawirksamsten ist die Hydrolyse (Spaltung chemischer Verbindungen durch Wasser), bei der die festen Mineralkomponenten (z.B. silikatische Minerale, Kalkgestein und Feldspäte) aufgebrochen werden und zur Bildung neuer Gesteinsarten (z.B.Ton, Kaolin) führt. Beispielhaft sei hier die Verwitterung von Silikaten und deren Umwandlung in Tonminerale genannt, die wiederum die initiale Phase für die Bodenbildung ist.

BIOSPHÄRE

Die Biosphäre ist nicht nur vom Klima abhängig, sondern selbst ein erstrangiger Klimafaktor. Die Vegetationsformen der Erde nehmen unmittelbaren Einfluss auf das Abstrahlverhalten der Erde, auf den Feuchtigkeitshaushalt und auf die Temperaturvorgänge.Viel wichtiger ist die Biosphäre aber als indirekter Auslöser für den weitgehend biogen gesteuerten globalen Kohlenstoffkreislauf.

Organismen aller Art erzeugen und verbrauchen im Wechselspiel Sauerstoff O2 (lebensnotwendiges Gas) und CO2 (Spurengase) in der Atmosphäre. Im Meerwasser wird CO2 vom Phytoplankton verbraucht und in Biomasse umgesetzt, die fortwährend am Meeresboden abgelagert werden.

Mit Hilfe des gelösten CO2 werden karbonatische Skelette (Muscheln etc.) gebildet, die daraus mächtige Sedimentmassen aufbauen. Ein großer Teil des CO2 verschwindet also im biogenen Kalziumkarbonat (CaCO3) als Kohlenstoffsenke, wie in jungen Wäldern, nicht dagegen, wie oft behauptet wird, in üppigen tropischen Wäldern.

Die Karbonatbildungsraten üben auch eine wichtige Pufferfunktion aus, in dem sie in Zeiten hoher CO2 Angebote das System über erhöhte Karbonatbildungen entlastet.

ANTHROPOGENE SPHÄRE

Seit erdgeschichtlich kürzester Zeit tritt der Mensch zunehmend als Klimafaktor in Erscheinung.

Veränderung der Vegetation der Erde durch Entwaldung und Umwandlung von Wäldern in Agrarflächen. Urbanisierung und Versiegelung von Bodenflächen. Veränderungen durch exponentielles Bevölkerungswachstum: zwischen dem Jahr 0 (ca. 200 Mio.) bis ca. 1600 (ca. 500 Mio.) und weiter bis ins Jahr 2000 (ca. 6.000 Mio.) Das Klima wird deshalb auch als Folge dieser unbegrenzten Bevölkerungsexplosion in den vergangenen 200 Jahren durch modernere und sich ausbreitende Landwirtschaft, wegen ihres wachsenden Produzieren von klimawirksamen Spurengasen, insbesondere von Methan aus Bodenausgasungen und vor allem aber aus dem Verdauungstrakt von Wiederkäuern beeinflusst. Hinzu kommt die Chemisierung der Landwirtschaft (Pestizide, Herbizide, Dünger) und deren Auswirkung auf Atmosphäre und Biosphäre. Und durch Veränderungen der Gaszusammensetzung der Atmosphäre – jedoch kaum wegen des CO2 – durch industrielle Tätigkeiten einschließlich der wachsenden Energieerzeugung.

Und hier liegt die Schnittstelle zwischen Klima und Umwelt, also zwischen Naturkräften und dem Einfluss der Menschen auf unsere Umwelt wie im Folgenden weiter unten noch gezeigt wird. Unabhängig davon, ob CO2 einen wesentlichen oder nur einen sehr geringen Einfluss auf das Klima hat, wäre es für eine sachliche Umwelt-Diskussion notwendig, die bisher vernachlässigte Aufschlüsselung der Fingerabdrücke des anthropogen erzeugten CO2 und anderen Gasen von unterschiedlichen Verursachern hinzuweisen. Und das unter Berücksichtigung der Anteile, die von Menschen sinnvoll beeinflussbar sind und solche, die es nicht sind. Zur letzteren gehört beispielsweise der, der als Folge der Bevölkerungsexplosion entsteht und kaum lenkbar sein wird. Auch der, der aus ethischen Gründen bei der Ernährung der Menschen nur schwer beherrschbar sein wird. Dazu gehört aber auch beispielhaft der, der durch die Energieerzeugung wie durch die Produktion von technischen Erzeugnissen entsteht. Beim letzteren sollte Maß sein, mit volkswirtschaftlich vertretbaren Maßnahmen, also mit effizienten und finanzierbaren Technologien und ohne Furcht vor einem nicht wirklich erkennbaren Einfluss auf einen ‚Klimawandel‘ eine lebenswerte Umwelt zu schaffen.

Referenzen (Teil I und Teil II)

(1*) „Klimagewalten – Treibende Kraft der Evolution“, 2017; Hrsg. Prof. Harald Meller, Direktor des Landesamt für Denkmalpflege und Archäologie Sachsen Anhalt und Thomas Puttkammer.

(2*) „Klimafakten – Der Rückblick – Ein Schlüssel für die Zukunft“, 2000, Hrsg. Ulrich Berner und Hansjörg Streif (BGR, GGA,NLfB), E. Schweizerbart’sche Verlagsbuchhandlung, Stuttgart.

(3*) „Source and dynamics of a volcanic caldera unrest:Campi Flegri, 1983-84”, 2017. L. De Sienna, G. Chiodini, G. Vilardo, E. Del Pezzo, M. Castellano, S. Colombelli, N. Tisato, G. Ventura, Scientific Reports:, Nr. 8099 (2017). doi:10.1038/s41598-017-08192-7.

(4*) „Climate Impact of Increasing Atmospheric Carbon Dioxide“, 1981, J. Hansen, D. Johnson, A. Lacis, S.Lebedeff, P. Lee, D. Rind, G. Russel; SCIENCE, 28. August 1981, Vol. 213, No. 4511

(5*) „Natürliche und nicht anthropogene Klimaschwankungen dokumentiert an den Gletschervorstößen des Vernagtferners“ H. Fuchs; EIKE,16.10.2017,

(6*)„Global Temperature in 2017“: J. Hansen, M. Sato, R. Ruedi, G.A. Schmidt, K. Lo, A. Persin, (18. Januar 2018) [Im Internet zu finden.]

(7*)„Infrared absorption of atmospheric carbon dioxide“, 2016; F. K. Reinhart, Swiss Federal Institute of Technology,

(8*) „Statecraft, Strategies for a Changing World“, Margaret Thatcher, 2002, ISBN 9780060199739.

(9*) „Die German Angst“ H. Fuchs & R. Kamradek, 2013, Bookshouse Verlag, ISBN 978-9963-727-780 und als e-book.

(10*) „Manufacturing consensus: the early history of IPCC“, Januar 2018, Judith Curry.

(11*) Wiesbadener Kurier: Sommerinterview von Eva Quadbeck vom 26.08.2016.

TEIL II folgt

Aufklärung der ÖKO-POPULISTEN über eine der Gründe für die Ressourcen-Verschwendung zur Rettung des Welt-Klimas

GESCHÄFTSMODELL – KLIMAKATASTROPHE (DEKARBONISIERUNG)




Kalifornien hat zu viel grüne Energie

Die Solarenergieproduktion ist von weniger als einem Prozent des kalifornischen Energiemixes im Jahr 2010 auf rund 10 Prozent im Jahr 2017 gestiegen. An bestimmten Tagen, an denen die Bedingungen günstig sind, hat Solar laut Quartz sogar die Hälfte der Energie geliefert, die von Kaliforniern verbraucht wird.

Die California Public Utilities Commission hat vorgeschlagen, dass der Staat jede weitere Investition in erneuerbare Energien zurückhält, da Privatpersonen und Unternehmen im ganzen Staat weiterhin ihre eigenen privaten Energiequellen kaufen, wie z. B. Solarzellen, die auf den Dächern von Gebäuden angebracht werden. Wenn mehr Privatpersonen in private Energie investieren, verringert sich die Nachfrage nach dem öffentlichen Stromangebot, berichtete Greentech Media.

Auch in Kalifornien ist es schwierig, zu prognostizieren, wie viel erneuerbare Energie zu einem bestimmten Zeitpunkt vorhanden ist und wie die Stromversorgung stabil gehalten wird. Bei mehreren Gelegenheiten zahlte Kaliforniens Arizona-Versorgungsunternehmen andere Abnehmer dafür, überschüssige Solarenergie abzunehmen, um zu vermeiden, sein eigenes Netz zu überladen, berichtet die Los Angeles Times.

„Es ist wirklich enttäuschend“, sagte Jan Smutny-Jones, Vorstand der Independent Energy Producers Association, gegenüber Greentech Media über die Entscheidung Kaliforniens, Investitionen in erneuerbare Energien zu stoppen.“Im Grunde sagen sie: „Es ist viel zu viel; wir wissen nicht, was wir tun sollen, also werden wir für eine Weile nichts tun. „

 

Greentech Media

Kalifornien stellt zwei neue Solarrekorde auf

… Milde Temperaturen und sonniger Himmel halfen Kalifornien, in den letzten Tagen zwei neue Solarrekorde aufzustellen.

Am Sonntag, den 4. März 2018, erlebte California Independent System Operator einen absoluten Spitzenwert bei der Einspeisung von Solarstrom, der um 12:58 Uhr einen Rekordwert von 49,95 Prozent erreichte. Das ist ein Anstieg gegenüber dem vorherigen Spitzenwert von 47,2 Prozent, der am 14. Mai 2017 erreicht wurde.

„Der Rekord ist das Ergebnis eines kühlen, sonnigen Tages“, schrieb Anne Gonzales, Senior Public Information Officer bei CAISO, in einer E-Mail.

„Weil es ein Wochenende und das Wetter mild war, war die Mindestlast relativ niedrig, etwa 18.800 Megawatt.  Mittlerweile betrug die Solarproduktion mehr als 9.400 Megawatt.“

Einen Tag später, am 5. März, stellte CAISO einen weiteren Solarrekord auf und erreichte um 10:18 Uhr einen neuen Höchststand für die Solarproduktion von 10.411 Megawatt. Der bisherige Rekord lag bei 9.913 Megawatt am 17. Juni 2017.

Grafik: CAISO Gesamtproduktion Erneuerbare Energien für den 5. März 2018

Kein Wunder, dass die Solarenergie einen immer größeren Anteil am kalifornischen Strommix ausmacht. Die drei privaten Energieversorger des Bundesstaates liegen mit ihren Beschaffungsplänen für erneuerbare Energien weit vor dem Zeitplan und sind auf dem besten Weg, das 33-prozentige Mandat des Bundesstaates für 2020 zu erfüllen. Gleichzeitig investieren die Community-Choice-Aggregatoren (CCAs) in zusätzliche Solaranlagen.

CCGAs … sind eine Alternative zum investoreneigenen Energieversorgungsnetz, in dem sich lokale Einheiten in den USA ansammeln, um die Kaufkraft einzelner Kunden in einem definierten Zuständigkeitsbereich zu bündeln, um alternative Energieversorgungsverträge zu sichern. [1]Die CCA wählt die Stromerzeugungsquelle im Auftrag der Verbraucher aus. Durch die Bündelung der Kaufkraft sind sie in der Lage, große Verträge mit Erzeugern zu schließen, was einzelne Käufer möglicherweise nicht leisten können. Die Hauptziele von CCAs bestanden darin, entweder die Kosten für die Verbraucher zu senken oder den Verbrauchern eine bessere Kontrolle ihres Energiemix zu ermöglichen, indem sie hauptsächlich „umweltfreundlichere“ Erzeugungs-Portfolios anbieten als lokale Versorgungsunternehmen.

 * * *

Eine Mischung aus populärer Stimmung und Gesetzgebung hat dazu geführt, dass in Kalifornien in den letzten Jahren stark in erneuerbare Energien investiert wurde. Die hohen Investitionen sind jedoch für die Steuerzahler unangenehm, da ihre Energierechnung um 50 Prozent gestiegen ist, mehr als in anderen Bundesstaaten, berichtete die Los Angeles Times.

Erneuerbare Energien sind überhaupt eine Hürde bezüglich ihrer Vorhersagbarkeit. Die erzeugte Energie hängt bei Sonnenenergie und Wind vom Wetter ab, das in gewissem Maße vorhersehbar, aber nicht kontrollierbar ist. Die Widersprüchlichkeit, mit der erneuerbare Energien Strom erzeugen, ist einer der Gründe, warum die Steuerzahler in Kalifornien die Rechnung dafür bezahlen müssen, dass die Energie ihres Staates über Nachbarstaaten ausgeschüttet wird.

Erschienen auf The Daily Caller am 10.03.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/03/10/california-green-energy/

 




Die Agonie des größten Zentrums für Erneuerbare Energien in Spanien

Nuño Domínguez, Tabernas, 8. März 2018, El País

Übersetzung Reinhard Marx

Die Budgetbegrenzungen verursachen eine Arbeitslosigkeit von 35 % bei den Wissenschaftlern der Solaren Plattform bei Almería (PSA).

Das größte Forschungszentrum für erneuerbare Energien in Spanien durchlebt eine kafkaeske Situation. Obwohl es über Millionen von Euro zur Finanzierung verfügt, darf es sie nicht ausgeben wegen Begrenzungen, die die Regierung seit 2016 verordnet hat. Dies hat das Zentrum, das von der Europäischen Union als strategisch wichtig betrachtet wird, an die Grenze des Zusammenbruches gebracht.

Mit dem Bau der Solaren Plattform von Almería (PSA) in der Wüste „Tabernas“ wurde in den siebziger Jahren begonnen, wenige Kilometer von der Gegend entfernt, wo „Wild-West“-Filme gedreht wurden. Jetzt ist sie das größte Forschungszentrum für thermosolare Energie in Europa. Von ihren Einrichtungen stammt in großen Teilen die Technologie, die in kommerziellen Zentralen eingesetzt wird, und wo spanische Unternehmen bedeutsam vertreten sind.

„Spanien hat das Äquivalent zu zwei Kernkraftwerken in Form von Anlagen für thermosolare Energie installiert“, erläutert Sixto Malato, Forscher bei der PSA, welche vom Wirtschaftsministerium abhängt. „Wenn wir 1,5 % der Wüstenfläche der Erde in dieser Form in Anspruch nähmen, würden wir genügend Elektrizität für die ganze Erde erzeugen können“, versichert er.

Zusammengefasst sind es sechs Millionen Euro, die durch die Verordnung des Finanzministeriums blockiert sind, um die Ausgaben zu limitieren, versichert Malato. Die letzte dieser Restriktionen, im Januar verordnet, verbietet öffentlichen Forschungsorganen (OPI), mehr als 50 % eines Voranschlags auszugeben, bis das allgemeine Staatsbudget für 2018 genehmigt ist. Die Unmöglichkeit, diese Fonds zu nutzen, hat bereits dazu geführt, dass 14 Wissenschaftler entlassen wurden, etwa 35 % der Belegschaft in der Forschung mit langer Erfahrung, betont Malato. Der Wissenschaftler legte sein Amt als Direktor der PSA nieder, um die Regierung dazu zu zwingen, die Restriktionen aufzuheben, was aber immer noch nicht geschehen ist.

„Das Problem unserer Situation ist auch das von Spanien, des Zustandes seiner Wissenschaft und der schlechten Arbeitsperspektiven der Mitarbeiter, die wir eine akademische Ausbildung haben.“

Die betroffenen Forscher möchten nicht identifiziert werden, aus Angst vor Repressalien. Auf der Terrasse eines Cafés in der Nähe der Anlage erklären fünf von ihnen ihre Situation. Fast alle sind doktoriert oder haben eine Universitätsausbildung. Die Mehrzahl von ihnen ist bereits über vierzig Jahre alt und hat jahrelang bei der PSA gearbeitet, wobei Zeitverträge jeweils verlängert wurden. Eine dieser Personen ist doktoriert, hat mehrere Kinder und ist jetzt entlassen worden, nachdem sie bei der Plattform mehr als 15 Jahre gearbeitet hatte. „Das Problem unserer Situation ist auch das von Spanien, des Zustandes der Wissenschaft und der schlechten Arbeitsperspektiven für Mitarbeiter, die eine akademische Ausbildung haben“, erklärt sie weiterhin. „Ich war eine, die die besten Zeugnisse meiner Klasse hatte, und bin jetzt die mit der höchsten Unsicherheit im Arbeitsleben“, fügt sie hinzu. „Mit 46 Jahren haben wir die Probleme der heute 26-jährigen“, bestätigt ein anderer ihrer Kollegen.

Solche Stillstände bedeuten monatelange Verzögerungen bei Projekten, an denen verschiedene europäische Länder teilnehmen. Ein Beispiel ist „Waterspoutt“, mit 3,5 Millionen Euro finanziert, zur Entwicklung von Technologien, Wasser mit Sonnenlicht zu desinfizieren, für Uganda, Südafrika, Äthiopien und Malawi. „Verantwortlich seitens der PSA ist unsere Gruppe, seit dem 15. Februar entlassen und ohne ein vorhersehbares Datum einer Wiedereinstellung“, erklärt Isabel Oller, Leiterin der Forschungseinheit für Wasserbehandlung.

In diesen Tagen zeigt die lange Reihe der Sonnenlichtrezeptoren des Systems zur direkten Dampferzeugung nach unten. Diese Versuchseinrichtung, das wichtigste Wahrzeichen der Plattform, ist seit vier Monaten stillgelegt, weil Ersatzteile fehlen, die man nicht kaufen darf, beklagt sich Eduardo Zarza, Forscher bei der Plattform seit 1985. Die bürokratische Bearbeitung verhindert auch, dass Beiträge an internationale Gremien in Höhe von Hunderten Euro ausgezahlt werden. „Ein großer Teil unserer Einkünfte stammt nicht aus den allgemeinen Voranschlägen des Staates, sondern von der Europäischen Kommission, und was wir fordern ist, dass wir diese in mehrjähriger Anwendung verwalten können, und nicht in jährlicher, zu der man uns zwingt. Es ist, als ob sie uns in den Krieg ohne Waffen schickten“, verdeutlicht er.

Die PSA hat ein jährliches Budget von etwa sechs Millionen Euro, die Hälfte davon herrührend von europäischen Projekten. Dieses Forschungszentrum hängt organisch mit dem Zentrum für „Energie- und Umweltforschung und –technologie (Ciemat)“ zusammen, in dem es einen Betrag von etwa 70 Millionen Euro gibt, der mit diesen Problemen konfrontiert ist, versichert Malato. „ Wenn diese Restriktionen nicht in ein oder zwei Jahren beseitigt werden, müssen wir anfangen, das Geld, das wir aus Europa empfingen, zurückzuzahlen“, beklagt er.

„Eine der Installationen ist bereits seit vier Monaten 

stillgelegt wegen fehlender Ersatzteile.“

In einem Schreiben von Ende Februar, zu dem Materia, Präsident von Estela, dem Europäischen Arbeitgeber für thermosolare Energie, auch Kenntnis erlangte, forderte er von dem damaligen Wirtschaftsminister, Luis de Guindos, dass die Regierung „unbeirrt voranschreiten und garantieren möge, dass die PSA ihre Effizienz wiedererlange bei der Bearbeitung von Projekten auf dem Niveau ihrer hervorragenden Leistungsfähigkeit“.

Ein Sprecher des Wirtschaftsministeriums erkennt die Probleme an, die die Plattform, der Ciemat und der Rest der OPI durchlaufen. „Wir haben das Finanzministerium gebeten, dass die 15 Arbeitsverträge eine Ausnahme darstellen könnten, aber wir wissen nicht, wann sie in die Tat umgesetzt werden würden. Die Tatsache, dass es keinen Budget-Voranschlag für 2018 gäbe, unterstützt dieses nicht“, führt er weiterhin aus.




NYT bringt einen Kommentar und entlarvt versehentlich die Panikmache der arktischen Schmelze.

Die globale Erwärmung hätte dem berühmten Pelzhändler Alexander Mackenzie geholfen, eine Nordwestpassage zu entdecken, die Nordamerika mit China verbindet, so ein NYT-Kommentar von Autor Brian Castner. Sein Aufsatz enthält einen wichtigen Widerspruch: Mackenzies Reise von 1789 geschah während einer Ära von überdurchschnittlicher Eisbedeckung und lange vor der Nutzung fossiler Brennstoffe.

Mackenzie paddelte zur Zeit der Kleinen Eiszeit, während der es ein paar Jahrhunderte lang unterdurchschnittlich kalt war“, schrieb Castner, bevor er von Mackenzies fehlgeschlagenen Versuch wusste. Wahrscheinlich wäre Mackenzies erfolgreich gewesen, wenn die Temperaturen im Normalbereich gewesen wären.

„Wenn er seine Reise bei durchschnittlichen Bedingungen oder bei unseren gegenwärtigen globalen Temperaturen unternommen hätte, wäre er nicht durch Eis gestoppt worden. Wenn der Ozean nicht gefroren gewesen wäre, wären die Pelzhändler ihm den Fluss hinunter bis nach China gefolgt? Wäre im Sommer Deh Cho Kanadas eigener Mississippi gewesen? Würden Siedler sich über einen nördlichen Oregon Trail geschleppt haben? „

[[ Deh Cho (gesprochen Dei Tscho) bedeutet „großer Fluss“ ursprünglicher Name des kanadischen Mackenzie River. Der Deh Cho Trail verbindet den Mackenzie, Liard und Alaska-Highway und zieht sich durch Nord-Alberta, British Columbia und die Northwest Territories. Er formt eine riesige Schleife von 3.000 bis 5.400 km und ist der ideale Roadtrip für Abenteuerhungrige. ]]

Die sogenannte „Kleine Eiszeit“ vom 14. bis zur Mitte des 19. Jahrhunderts, ist ein umstrittenes Thema unter Wissenschaftlern. Einige Wissenschaftler argumentieren, dass niedrige Sonnenaktivität zu kühleren Temperaturen in Europa und Nordamerika beigetragen habe, während andere die vulkanische Aktivität dafür verantwortlich machten,  dass die Temperaturen niedriger ausfielen, noch bevor die Sonnenaktivität zurück ging. Trotzdem entstanden mehrere Eisschichten, die weite Teile der Arktis bedeckten.

All die verschiedenen Meerengen nördlich der Hudson Bay wurden Mitte des 18. Jahrhunderts erkundet, von denen die meisten sogar im Sommer voller Eis waren. Die meisten Verwaltungsbeamten des 18. Jahrhunderts hörten, dass die Nordwestpassage existierte, waren jedoch nicht in der Lage, es zu bestätigen, da die Kleine Eiszeit zuvor passierbare Teile des Arktischen Ozeans blockierte.

Der Wissenschaftler Ryan Maue, vom Cato Institute Atmospheric, untersuchte hohe Februar-Temperaturen in der Arktis bis ins Jahr 1958 zurück und zeigte, dass warme Spitzen normal sind. Ein EKG-ähnliches Muster ist in den Daten sichtbar, und es gibt einen Erwärmungstrend. Daten von vor der Satelliten-Ära, 1976 sind ein Problem, daher kann nicht sicher gesagt werden, dass der aktuelle Anstieg ein Rekord ist.

[Gezeigt wird eine Grafik von etwa 1998 bis 2017]

Die Hitze im Nordatlantik- und Nordpazifik hat in der Vergangenheit die Arktis getroffen, sagte der NASA-Meereissexperte Alek Petty gegenüber Earther, fügte jedoch hinzu, Ereignisse wie diese ähneln nun wegen der globalen Erwärmung einer „ungewöhnlich starken Hitzewelle“. […“a heat wave on steroids” Dank an unsere Leser für die Übersetzungshilfer, d. Üb.]

Die nordpazifische warme Luft hat in der Beringstraße zwischen Alaska und Russland Meereis geschmolzen. Für die gesamte Arktis ist das Meereseis auf einem Rekordtief. Die  Satelliten Aufzeichnungen gehen zurück bis 1979.

Erschienen auf The Daily Caller am

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/03/11/new-york-times-arctic-melting/




Die düstere, globale, grüne Diktatur von morgen

Grüne hassen individuelle Freiheit und Privateigentum. Sie träumen von einer zentralisierten, nicht gewählten globalen Regierung, finanziert von Steuern auf die westliche Welt und kontrolliert durch alle Tentakel der UN.

Den Grünen geht es längst nicht mehr um die reale Verschmutzung unserer Umwelt. Der allem zugrunde liegende Slogan der Grünen Religion lautet jetzt „nachhaltige Entwicklung“, wobei allein sie definieren, was nachhaltig ist.

Grüne hassen Bergleute. Sie versuchen mit allen Tricks, so viel Landflächen wie möglich vor Forschern und Bergleuten zu verschließen – Ressourcen sollen einigen glücklichen Generationen in ferner Zukunft vorenthalten bleiben. Und falls irgendein standhafter Forscher eine Lagerstätte von Rohstoffen nachweisen kann, werden die Grünen im Genehmigungsverfahren nichts Eiligeres zu tun haben als der Devise „Tod durch Verzögerung“ zu folgen.

Grüne hassen Landwirte mit ihren Pflügen, Düngern, Ernten und grasenden Tieren. Sie wollen australische Grasländer den Kängurus übergeben sowie Buschwerk wachsen lassen. Sie planen, Landwirte und grasende Tiere aus den meisten Landgebieten zu vertreiben. Sie wollen, dass Nahrung nur noch erzeugt wird in konzentrierten Futterplätzen, agrarindustriellen Komplexen und Hydrokulturen.

Grüne hassen professionelle Fischer mit ihren Netzen, Angeln und Harpunen. Mit dem Großen Barriere-Riff als Aushängeschild planen sie, die Korallenmeere zu kontrollieren mittels unterseeischer Farmen, Fischfangquoten und -lizenzen, und wir sollen Nahrungsmittel aus dem Meer nur noch aus Fabrik-Fischfarmen bekommen.

Grüne hassen Förster und Prärie-Landwirte. Sie wollen jeden Baum schützen und sogar Buschland auf Prärien, auf denen es zuvor gar keine Bäume und Büsche gab. Fleisch und Holz aus Wäldern sind „nicht nachhaltig“. Offensichtlich wollen sie, dass wir in Häusern aus recycelter Pappe und Plastik leben, und dass wir künstliche Steaks und Protein-Pulver essen, hergestellt aus Methan, welches von Müllhalden freigesetzt wird.

Grüne verachten Vororte mit ihren SUVs, Rasenflächen, Pools, gepflegten Parkanlagen, Ponys und Golfplätzen. Sie bevorzugen konzentrierte Wohnblöcke; die Menschen sollen dicht an dicht wohnen in hoch reichenden kubischen Appartements, zusammen mit staatlich kontrollierten Kindergärten im Keller und mit Stadtkernen, in denen elektrische Straßenbahnen und fahrerlose Autos die Appartements, Schulen, Büros und Geschäfte verbinden.

Grüne hassen zuverlässige Stromversorgung mittels Kohle, Kernkraft, Öl, Gas oder Wasserkraft. Ihre „nachhaltige“ Option ist eine nur zeitweilige Stromversorgung aus Wind und Solar, einhergehend mit den unvermeidlichen Stromausfällen und Verknappungen, die dann mehr Vorschriften und Rationierung brauchen.

Grüne führen den Krieg gegen Fracking und Pipelines an. Die Opfer sind die Energieverbraucher. Die Nutznießer sind russisches Gas und Öl aus Nahost.

Die Grünen denken, dass es „nachhaltig“ ist, Naturlandschaften mit wummernden Windmasten zu verschandeln, mit Strommasten, Überlandleitungen und Zugangswegen. Und sie wollen naturbelassene Flussmündungen und Flachmeere mit noch mehr Vögel schreddernden Windturbinen zupflastern. Sie denken, dass es „nachhaltig“ ist, sonnige Ebenen mit Solarpaneelen abzudecken und die Städte mit zusätzlichen Stromleitungen und giftige Metalle enthaltenden Batterien anzureichern.

Die Grünen denken, dass es „nachhaltig“ ist, naturnahe Wälder abzuholzen zwecks Erzeugung von Biomasse für große, mit Holz betriebene Kraftwerke, oder um Biotreibstoff-Plantagen anzulegen. Sie denken, dass es „nachhaltig“ ist, Ackerflächen anstatt für die Erzeugung von Nahrungsmitteln für die Menschen umzuwandeln in Äthanol-Produzenten für Autos.

Grüne hassen freie Märkte, in welchen die Preise durch Angebot und Nachfrage geregelt werden. Es gibt keinen Raum für Spaß, Vergnügungen oder Luxus in ihrer „nachhaltigen“ Welt. Sie wollen die Nachfrage danach limitieren, indem sie Derartiges für uns Verschwender rationieren – Rationierung von Kohlenstoff, Einführung von Karten zur Rationierung von Strom, Rationierung von Wasser, Fleisch und freien Tagen; sie wollen dies durch Nahrungsmittel-Polizisten kontrollieren sowie Fast Food und Sprudelgetränke verbieten.

Sie favorisieren auch das obligatorische Recycling von allem und jedem, egal was diese Verfahren hinsichtlich Energie und Ressourcen kosten. Überwachungskameras werden unsere „verschwenderischen“ Gewohnheiten genau beobachten.

Nichts auf dieser umfangreichen, religiösen grünen Agenda ist vereinbar mit individueller Freiheit, verfassungsgemäßen Rechten oder Privateigentum – und nichts davon ist hinsichtlich Ökonomie oder Klima auch nur ansatzweise sinnvoll.

Die despotische Grüne Neue Welt kommt. Der Klima-Alarm ist das Zugpferd, „nachhaltige Entwicklung“ ist der Schlachtruf, und eine globale Regierung ist das Ziel.

Link: https://www.heartland.org/news-opinion/news/tomorrows-grim-global-green-dictatorship

Übersetzt von Chris Frey EIKE




Bild, Diesel, manipulierte Daten und die Wut der Leser

 Jetzt wird es also ernst. Jetzt schlägt auch die Bild-Zeitung zu: „Kein einziger Diesel-Toter wirklich nachweisbar“ schreibt sie in dicken Lettern ziemlich genervt von den Märchen Maria Krautzbergers, der Noch-Präsidentin des Umweltbundesamtes.

Jetzt fällt auch Bild der himmelschreiende Unsinn auf, den das Umweltbundesamt verbreitet. Das ist bekanntlich mit der Zahl von 6.000 Toten pro Jahr an die Öffentlichkeit getreten, die durch Stickoxidemissionen der Dieselfahrzeuge vorzeitig sterben würden. Fast alle Medien verbreiteten die Schreckensnachricht kritiklos und legten sogar noch drauf wie die Frankfurter Rundschau: „Auch Krankheiten wie Diabetes mellitus, Bluthochdruck, Schlaganfälle und Asthma stehen laut der Studie im Zusammenhang mit der Reizgas-Konzentration. So seien acht Prozent der Erkrankungen mit Diabetes mellitus in Deutschland 2014 auf Stickstoffdioxid in der Außenluft zurückzuführen: ‚Dies entspricht etwa 437.000 Krankheitsfällen‘, sagte Myriam Tobollik, Gesundheitswissenschaftlerin des Umweltbundesamtes.“

Die „Gesundheitswissenschaftlerin“ hat wohl mal auf ihrem Computer zu viel rumgespielt, heraus fielen die 6.000 Todesfälle, und damit ruinierte sie endgültig den Ruf dieses 1.500 Mitarbeiter großen Behördenmolochs.

Bild weiter: „Tatsächlich kann man keinen einzigen Toten klar dem Abgas von Dieseln zuschreiben“ und zitiert Prof. Dr. Joachim Heinrich von der Deutschen Gesellschaft für Pneumologie und Beatmungsmedizin (DGP): „Ist eine Person an einer Herz-Kreislauf-Erkrankung gestorben, kann dies nicht eindeutig etwa auf eine Belastung mit Stickstoffdioxid zurückgeführt werden.“

 

Bild kommentiert: „Wenn man etwas nicht genau weiß, ist es besser, nichts zu sagen – Diesel-Tote für politische Zwecke zu erfinden, ist krank!“ Bild drückt die Wut seiner Leser aus, die ihrerseits mit erheblichen Wertverlusten ihrer Diesel-Fahrzeuge aufgrund solcher Horrordiskussionen zu kämpfen haben:G. Lauterbach, Alsterbach-Hähnlein (Hessen)
„Der wahre Betrug geschieht nicht nur in Wolfsburg, sondern bei den Umweltverbänden und Ministerien, die nur so mit falschen und nicht bewiesenen Behauptungen um sich schmeißen.“

S. Stulle, Steinheim a. d. Murr (Baden-Württemberg)
„Die unverantwortliche Aussage des Umweltbundesamtes (angeblich 6000 Tote wegen Stickoxid) ist ein Skandal! Die Präsidentin des UBA sollte wegen Desinformation ihren Hut nehmen!“

Wolfgang Bügener, Oberhausen (NRW)
„Es ist doch eigenartig, wie unsere Politiker ihre Wähler veräppeln und belügen. Sie halten sich noch nicht einmal, wenn auch nur vor statistischen, Toten zurück.“

Bild ruft sogar dazu auf, stolz auf den Diesel als effektiver und sparsamer Antrieb zu sein und zitiert (was TE schon seit langem macht) aus den Statistiken des Umweltbundesamtes: „Der Ausstoß von Stickoxiden (und dazu zählen auch Industrie, Schiffe usw.) ist bundesweit von 2,9 Millionen Tonnen im Jahr 1990 auf 1,2 Millionen Tonnen 2015 gesunken – Tendenz weiter sinkend.“

Solche staatlichen Horrormeldungen bilden auch die geeignete Geschäftsgrundlage für die windigen Geschäftemacher der Deutschen Umwelthilfe. Die berufen sich formal auf Grenzwerte, die, wie sich im Falle Stuttgarts herausstellt, gerade mal an drei Tagen um einen geringen Betrag überschritten wurden. Die generellen Kurven weisen seit 25 Jahren stetig nach unten, die Luft in unseren Städten wird immer besser. Dies, obwohl die Position der Messstationen heftig in die Kritik geraten ist. Steht die Messstelle dicht am Straßenrand oder eher weiter entfernt? Das hat erheblichen Einfluß auf die gemessenen Werte.Bild findet auch deutliche Worte zum dubiosen Abmahnverein Deutsche Umwelthilfe:
„Ein Abmahnverein, der Geld damit verdient, Rechnungen für nicht eingehaltene Vorschriften zu schreiben. Natürlich ist das nicht verboten. Aber Jürgen Resch, der Vorsitzende, der für eine Taxistudie von Toyota finanziell unterstützt wird (und einen von Toyota bezahlten Hybrid-Prius fährt), kämpft nicht für bedrohte Vögel, sondern gegen den Diesel. Hat Toyota das nötig, ein Weltkonzern, der in Europa mehr als eine Million Autos verkauft, der gefeierte Schrittmacher für Hybrid-Fahrzeuge, der zuletzt aber nur noch 13 Prozent Diesel verkaufte?“

Zum nächsten Konflikt könnte es in Düsseldorf kommen, wo der neue CDU-Ministerpräsident Armin Laschet Dieselfahrverbote notfalls mit seinem Weisungsrecht verhindern will. Er hält Diesel-Fahrverbote für unverhältnismäßig und somit rechtswidrig. Das Bundesverwaltungsgericht in Leipzig hatte bei seinem Urteil, ob Städte Fahrverbote verhängen dürften, auf die zu prüfende Verhältnismäßigkeit hingewiesen. Die Deutsche Umwelthilfe hält das für einen Rechtsbruch und droht mit einem erneuten Gang vor Gericht.

 

Auch keine Frage: Luftkurorte sind Hauptverkehrsadern in den Städten nicht. Hier wären die Stadtverwaltungen gefragt, für flüssigeren Verkehr zu sorgen. Der vermindert die Luftbelastung. Tempo 30 sorgt für zusätzliche Abgase, denn die Motoren müssen dann meist in einem anderen Gang höher drehen. Die Stadtverwaltungen machen in der Praxis das Gegenteil. Der ehemalige Wiener Verkehrsplaner Hermann Knoflacher hat jetzt in einem Spiegel-Interview offen die Schikanen für Autofahrer zugegeben: „Wir haben die Autofahrer genervt. Wir haben Straßen verengt und systematisch Stau erzeugt.“Der Spiegel wundert sich: „Herr Knoflacher, haben die Deutschen ein gestörtes Verhältnis zum Auto?
Knoflacher: Die Deutschen sind extrem. Es gibt immer noch kein allgemeines Tempolimit, die Autoindustrie darf ja fast alles machen, was sie will. Das Auto tötet Menschen – und erst ein Gericht ist in der Lage, diesen Wahnsinn zu stoppen. Das Problem liegt aber tiefer. Nicht der Deutsche ist irre, was das Auto angeht, es ist der Mensch überhaupt.“

Koflacher beschreibt wohl nach einem kräftigen Besuch beim Heurigen in Wien seine merkwürdige Sicht des grünen „Verkehrswissenschaftlers“: „Der Autofahrer hat mit einem Menschen, der zu Fuß geht, weniger gemeinsam als ein Mensch mit einem Insekt. Kein Insekt würde den Lebensraum seiner Nachkommen selbst systematisch vergiften. Der Autofahrer tut das.“ Demnach werde der Autofahrer erst wieder zum Menschen, wenn er aus dem Auto steigt.

Anstelle von flüssigem Verkehr mit entsprechend geringerer Belastung der Luft zu sorgen, schaffen sie Chaos, Baustellen und lassen Straßen und Brücken verwahrlosen. Ob sie sich dafür besonders anstrengen müssen, kann man sehr bezweifeln.

Der Beitrag erschien zuerst bei Tichys Einblick hier




Weil´s dann stinkt, wenn´s verheimlicht wird…

Der rbb (Rundfunk Berlin Brandenburg) echauffiert sich gern für seine Zuhörer und Zuschauer. Besonders bei Umweltthemen, wie dem derzeit aktuellen Grenzwertskandal mit dem man dem Dieselmotor den Garaus machen möchte, haut der rbb mächtig auf die Pauke, und sendet auf allen Kanälen und immer wieder vermeintlich Erschröckliches weil Gefährliches, ohne sich lange mit der Wahrheit, bzw. der Sinnhaftigkeit dessen, was als große Gefahr verkündet werden soll, aufzuhalten.

Bei der Darstellung dessen, über das sich der Sender aufregt und über das tunlichst sich auch alle Hörer wie Zuschauer aufregen sollen, wird jedoch nicht offen gelogen, sondern man verwendet die schon von alters her bekannte Kunst des Lügens durch Weglassen. So auch beim bekannten Klimathema. Nur ein Beispiel dafür ist die Sendung „Kontraste“ vom 18. Januar des Jahre. Ich war einer der darin gezeigten „Interviewten“.

Videoausschnitt der Kontraste Sendung vom 18.1.18

Über sich selbst und ihr Tun findet man bei der Redaktion von Kontraste die folgende Beschreibung (Hervorhebungen von mir):

KONTRASTE – das kritische Magazin aus Berlin. KONTRASTE bringt Gegensätze auf den Punkt. Keine Politikerphrasen, kein Infotainment: Das Magazin geht den Dingen auf den Grund, neugierig und mit sorgfältiger Recherche. KONTRASTE deckt Hintergründe auf, erklärt Zusammenhänge und bezieht Stellung. KONTRASTE steht für seriöse Information des öffentlich-rechtlichen Rundfunks: investigativ, analytisch, kritisch

..KONTRASTE vermittelt Hintergrundinformationen, die von der aktuellen Berichterstattung nicht geboten werden können. Die Berichte lenken den Blick der Öffentlichkeit auf bisher unbekannte oder unzureichend betrachtete Probleme. KONTRASTE stößt mit kontroversen Thesen politische Diskussionen an und liefert neue Argumente.

KONTRASTE setzt seine Themen in unterschiedlicher Form um. Dazu gehören sowohl exklusiv recherchierte, investigative Beiträge und Hintergrundberichte über politische und gesellschaftliche Strukturen als auch Reportagen, Portraits oder Glossen. Die Länge der Beiträge variiert. Sie reicht von Spots bis zu 12 Minuten langen Berichten.

Um diese hehren Vorsätze an die Zuschauer zu bringen wird Kontraste in 3 wöchigem Turnus, abends zu besten Sendezeit, abwechselnd mit anderen ARD Anstalte,  ausgestrahlt.

Ein Beispiel dafür war die Sendung vom 1. Juni 2017, in der man sich bemüßigt fühlte, die Entscheidung von US Präsident Donald Trump das Pariser Klimaabkommen zu verlassen „kritisch“ unter die Lupe zu nehmen.

Schon der damals gewählte Titel erklärte die Absicht der Macher. Er lautete:

„Der US-Präsident als Verschwörungstheoretiker“.

Und bemühte sich dann unter Verwendung vieler Halb- und mancher Unwahrheit den US Präsidenten als einen von Verschwörungstheorie befallenen gefährlichen Trottel darzustellen. Beschwerden (hier und hier) bei den Verantwortlichen incl. Intendantin Patricia Schlesinger verpufften wirkungslos.

Einer der Macher dieses Beitrages war ein gewisser Markus Pohl. Und dieser Markus Pohl wurde dann ausersehen einen investigativen und exklusiv recherchierten Hintergrundbericht über „die Klimaleugner in der AfD“ zu produzieren, mit dem vielsagenden Titel

„Aus der Nische in den Bundestag“.

Um die „Einordnung“ für die Zuschauer zu erleichtern, schrieben die Kontraste Macher auf ihrer Mediathekseite ..

Sie leugnen die vom Menschen verursachte Erderwärmung, bestreiten den Treibhauseffekt und den aktuellen Forschungsstand zum Thema „Klimawandel“. Was bislang eher in abseitigen Winkeln des Internets diskutiert wurde, bekam mit US-Präsident Trump plötzlich ungeahnten Aufwind. Jetzt sind die Klimaleugner auch in Deutschland Teil des politischen Alltags, mit der AfD haben sie eine Stimme im Bundestag.

So eingestimmt erlebten dann die Zuschauer eine rd. achtminütige Show über rechte Klimaleugner, denen man eigentlich überhaupt nichts glauben darf, weil ja alles ganz, ganz anders ist, nämlich genauso wie es von staatlicher Seite seit Jahrzehnten verkündet wird.

Aber das soll hier nicht mein Thema sein, denn darüber habe ich ja ausführlich am 20.1.18 berichtet. (hier). Mein Thema ist heute, was sich während des Interviews abspielte, und wie die Vor- und Nachgeschichte dazu war.

Markus Pohl wollte also mit mir – wie er in der ersten Email schrieb- ein längeres Interview führen und rückte am 29. November 2017 – nach längerem Hin- und Her- auch mit Kameramann und Ton-Ing bei mir an.

Schon damals dachte ich zwar schon, dass Pohl nicht neutral berichten würde, aber glaubte, dass es sich wirklich um ein längeres Interview handeln würde, denn nur dieses Format würde dem komplexen Thema Klima wenigstens ein bisschen gerecht. Andernfalls, wenn das aus Produktionsgründen nicht möglich wäre, wollten wir das Klimathema nicht berühren. Doch es kam anders. Das Klimathema war dominierend und es wurde entgegen der Absprache extrem gekürzt.

Es wurde ein längeres Interview – ein sehr langes sogar- von rd. 80 Minuten Dauer, von dem Pohl allerdings nur 41 Sekunden für sendenswert erachtete.

Und Interview ist auch nicht das richtige Wort, denn über lange Strecken wurde es ein Verhör geführt, über weitere Strecken dann als Diskussion, die aber auch mehr über den Interviewer preisgab, als es diesem im Nachhinein lieb war.

Zuvor – weil gewitzt durch die schlechten Erfahrungen, die ich bereits mit seiner Kollegin Katja Sodomann vom Hessischen Rundfunk gemacht hatte- hatte ich mit Pohl vereinbart, dass ich das Interview zur Sicherheit aufzeichnen würde. Allerdings nur als Tondokument. Das geschah dann auch.

Nach Erscheinen der – obwohl so erwartet- völlig entstellenden Kontraste Sendung am 18. Januar 2018 verteilte ich diese Aufzeichnung an einige Freunde und Bekannte, die es wohl ihrerseits an weitere Bekannte weitergaben.

Jedenfalls erfuhr ich vor einigen Tagen, dass es wohl bald bei Youtube ins Netz gestellt werden würde. Also wollte ich Herrn Pohl Gelegenheit geben Stellung zu nehmen, ggf auch ergänzende Bemerkungen zu machen.

Doch statt darauf einzugehen, gelebte Transparenz sozusagen, untersagte mir Herr Pohl das Interview ins Netz zu stellen. Und dies, obwohl er – als Journalist, wie er im Interview betonte- so vehement für Transparenz eintritt.

Denn Pohl sagte am Ende des Interviews wörtlich (ab Minute1:12:08)

.. „Es wird dann ein Bohay, wenn es nicht transparent gemacht wird, und etwas weiter „…eher wird´s interessant, wenn´s verheimlicht wird….weil´s dann stinkt, wenn´s verheimlicht wird“.

Nun, seinen eigenen Beitrag an diesem „Interview“ zu verheimlichen, schien ihm aber dann genau die angemessene Reaktion. Transparenz bei anderen zu fordern, „weil´s sonst stinkt“ ist eben nur bei anderen wohlfeil.

Also das übliche: „Wasser predigen und Wein trinken“.

Dieses Messen mit zweierlei Maß ist bei manchen Gutmenschen, die sich auf der moralisch richtigen Seite wähnen, leider gar nicht gar so selten.

Doch es hat wohl nichts genutzt, denn seit einigen Tagen ist das Interview online.

Darin wird die trockene Sprache mit vielen Graphiken und Erläuterungen angereichert, die zu zeigen, eigentlich Aufgabe des Herrn Pohl in seinem Beitrag bei Kontraste gewesen wäre. Da sie aber seine fast immer apodiktischen und oft auch unlogischen jedoch immer insistierende Behauptungen widerlegt hätten, wählte Markus Pohl vermutlich die Verkürzung auf die dann von ihm extrahierten 41 Sekunden.

Auf diese Weise kann man eben den unbedarften Zuschauer leichter auf die Rolle nehmen und zeigen wie blöd der Interviewte doch in Wirklichkeit ist. Exakt nach der Beschreibung des erfahrenen Journalisten und früheren Chefredakteurs der Welt, Roger Köppel, jetzt Inhaber und Chefredakteur der schweizerischen Weltwoche (ab Minute 7:10) :

„FakeNews ist ja nichts was die Journalisten einfach erfinden, irgend eine Lüge, sondern sie nehmen etwas was einer gesagt hat, nehmen es aus dem Kontext heraus, verdrehen es um dem einen ganz neuen Sinn beizulegen, mit dem Ziel dem Absender dieser Worte unmöglich zu machen“

Hochgeladen hat die Tonspur übrigens ein gewisser Pan Tau- über den Wikipedia schreibt

„Pan Tau“ deutsch „Herr Tau“ ist eine moderne Märchenfigur der letzten Jahrzehnte des 20. Jahrhunderts“

Das mag in diesem Fall stimmen, oder auch nicht. Doch da mir untersagt wurde den Mitschnitt zu veröffentlichen, begnüge ich mich mit dem link, (hier) der zeigt, wo ihn der geneigte Leser finden kann.

Wegen der Dauer von 82 Minuten ist es nicht unbedingt ein kurzes Vergnügen es anzuhören. Aber wir sind ja nicht zum Vergnügen hier. Geduld ist daher gefragt.

Doch als Zeitdokument über die Arbeitsweise so mancher Journalisten, die sich nicht scheuen – obwohl sie sich selber den Guten zurechnen- Leute mit unliebsamer Meinung nach allen Regeln der Kunst in die Pfanne zu hauen, ist es meiner unbedeutenden Meinung nach, hoch interessant.

Der geneigte Leser möge es selber herausfinden.

 




STICKOXIDE und der DIESELMOTOR (2)

Reinhard Marx

Wir betrachten wieder die Verbrennung von Cetan mit einem Luftüberschuß von 40 %, λ = 1,4, wie in meinen Beitrag Stickoxide und der Dieselmotor (1)“ bereits gezeigt.

Das Abgas enthält:

_______________________________________________________

75,3 %vol Stickstoff 73,4 %gew N2 1,251 g/l

  5,6 %vol Sauerstoff 6,3 %gew O2 1,429 g/l

  9,2 %vol Kohlendioxid 14,1 %gew CO2 1,977 g/l

  9,8 %vol Wasserdampf 6,1 %gew H2O 0,894 g/l

  0,08 %vol Stickstoffmonoxid 0,08 %gew NO 1,34   g/l

         100,0 %            100,0 % 1,22   g/l

_______________________________________________________

Seine Menge beträgt 18,1 Nm3/kg Kraftstoff oder 15,2 Nm3/l; es kann mit einer Dichte von ρ = 1,22 g/l bei Normalbedingungen (0°C und 760 Torr) gerechnet werden, allerdings ohne Wasserkondensation.

Wenn jetzt die Betrachtungsweise einer spezifischen Emission von CO2 und NO je Kilometer eingeführt wird, wie es leider üblich geworden ist, müssen zunächst Fahrbedingungen festgelegt werden.

Das Fahrzeug habe einen Verbrauch von 6.000 ml/100 km, dann werden je km 60 ml ( ̴50 g) verbrannt; diese ergeben eine Abgasmenge von 15,2 dm3/ml x 60 ml/km = 912 dm3/km, also einen knappen Kubikmeter, der 1,1 kg wiegt. Entsprechend den oben angeführten Gewichtsanteilen ergibt sich nun eine spezifische Emission je Kilometer von 156 g CO2 und 890 mg NO. Letzteres würde sich allerdings in der Kälte zu NO2 oxidieren, wodurch das Gewicht auf 1365 mg/km anwüchse. Das entspräche einer Emissionskonzentration von 1.230 ppm NO2 oder 800 ppm NO, wovon ja die Betrachtung ausgegangen war. Die Zahlen ändern sich entsprechend, wenn mehr oder weniger Kraftstoff je Fahrstrecke verbraucht wird.

Bei dieser Rechnung wurde also angenommen, dass das Abgas bei 700°C etwa die 800 ppm NO enthält; die Angaben des TÜV-Essen sprechen aber von 600-800 ppm, was sowohl über- als auch unterschritten werden könnte. Ähnlich ungenau sind dann auch die obigen Angaben.

Was bisher aber noch gar nicht berücksichtigt wurde, ist die Tatsache, dass NO mit abgefangenem Ruß im Partikelfilter des Abgassystems reagiert, denselben zu CO2 oxidiert, das Filter dabei reinigt und selbst zu Stickstoff wird – die Größenordnung dieses Einflusses ist mir momentan nicht bekannt. Wohl aber weiß man, dass die Harnstoffeinspritzung nach dem Partikelfilter (bei > 180°C) zu einer weiteren starken Herabsetzung des NO-Gehaltes führt; man kann nach einer solchen Behandlung mit 100-300 mg NOx/km rechnen. Die weitere Entwicklung der Harnstoffbehandlung lässt auf noch geringere Werte in der Zukunft hoffen, die in der Größenordnung von 50 mg/km liegen könnte (Prof. Koch, TH Karlsruhe).

Statt 1230 ppm hätten wird nun also noch ca. 180 ppm und liegen damit um den Faktor 7 unter dem unbehandelten Abgas; dieser wird sich nochmals um das Vierfache verbessern lassen, so dass sich letztlich eine praktisch 30-fache Erniedrigung ergeben wird.

Wenn zur Erreichung des vorgeschriebenen Immissionswertes von 40 µg/m3 früher eine Verdünnung um den Faktor 25.000 als erforderlich errechnet war, wird es jetzt nur noch etwa das 800-fache sein. Da die geforderte Immission bisher nur maximal um den Faktor 2 überschritten wurde, dürften die geplanten Nachrüstungen mit Hardware mehr als genug sein – die Verbesserung nur durch eine optimierte Software bestehender Motore wäre wahrscheinlich auch bereits ausreichend.

Soviel zur Emission eines Dieselmotors.

Es sei nun etwas zu den festgesetzten maximalen Grenzkonzentrationen der Schadstoffe gesagt.

Der Immissionswert für NO2 von 40 µg/m3 wurde schon in meinem ersten Bericht als übertrieben tief bezeichnet.

In der Zwischenzeit sind andere Berichte veröffentlicht, die die Gefährlichkeit von Stickoxiden (und auch Feinstaub) in der genannten Höhe in keiner Weise bestätigen und hundertfache (!) Konzentrationen noch für unbedenklich erachten (Prof. Köhler, Lungenfacharzt, vormals Präsident der Deutschen Gesellschaft für Pneumologie). Damit käme man in den Bereich der für NO2 aufgestellten MAK- oder, wie es jetzt heißt, AGW-Werte. Dieser betrug in Deutschland für NO2 bis zum Jahr 2004 noch 9.500 µg/m3. Die Bearbeitungskommission für solche Grenzwerte befürwortete damals, den Wert um eine Zehnerpotenz zu erniedrigen, also 950 µg/m3 zu fordern; allerdings war diese Zahl lange Jahre noch nicht rechtsverbindlich, erst 2014, also 10 Jahre später, erfolgte diese Einstufung endgültig – die Kommission hat es sich also nicht leicht gemacht und lange daran geforscht.

In der Schweiz gilt immer noch ein hoher Grenzwert für MAK von NO2: 6.000 µg/m3.

In den USA hat das EPA eine Immissionskonzentration von 100 µg/m3 festgelegt, wobei vereinzelte Stundenwerte bis zu 190 µg/m3 auftreten dürfen – auch in Deutschland sind kurzzeitige Erhöhungen bis 200 µg/m3 erlaubt. Insgesamt ist dort aber generell das 2½-fache gegenüber Deutschland erlaubt; das bedeutet, hätten wir auch diesen Grenzwert, gäbe es überhaupt kein Problem mit den Dieselabgasen in unserem Land !

Ich hatte in meinem ersten Bericht gesagt, dass das unverdünnte und unbehandelte Abgas mit 0,08vol % NO und 9,2 %vol CO2 absolut toxisch sei, wenn man es einatmete. Ein Leser fand diese Bemerkung übertrieben – ich möchte dazu noch etwas ausführen:

Ein Gehalt von 0,08 % NO würde in der Tat bei kurzer Exposition kaum gefährlich sein, wenn man den früher sehr hohen MAK-Wert und die Bewertung von Herrn Professor Köhler betrachtet. Anders ist es mit dem CO2; das aus der Lunge ausgeatmete Gas enthält etwa 4 % davon. Eine eingeatmete Luft mit 8 % CO2 wirkt in kurzer Zeit tödlich („erstickend“), so dass unsere 9,2 % wirklich sehr gefährlich sind, das Abgas muss schnell verdünnt werden, um in erträgliche Konzentrationen zu kommen. Diese liegen bei 9 g/m3 oder 0,7 %gew in Deutschland (MAK-Wert), so dass eine mehr als 10-fache Verdünnung schnell erfolgen muss, was aber kein praktisches Problem darstellt.

Wenn in einem kleinen, unbelüfteten Raum sich viele Personen längere Zeit aufhalten, entsteht „dicke Luft“, man sagt, es fehle Sauerstoff und belüftet. Der Sauerstoff fehlt aber gar nicht, sondern es ist das ausgeatmete CO2 der Anwesenden, das das Wohlbefinden beeinträchtigt, und wird dann durch die Belüftung ausgetrieben.

Könnte es nicht auch sein, dass in unseren Großstädten mit viel Verkehr und bei Windstille die „schlechte Luft“, die ja wirklich zu bemerken ist, mehr dem CO2 als allen anderen Beimengungen zuzuschreiben ist ?? Das CO2 riecht zwar nicht, was von anderen Verbrennungsrückständen aber doch zu sagen ist, auch wenn sie in unschädlichen Mengen vorkommen. Und CO2 kommt gleichermaßen von allen Verbrennungsmotoren, nicht nur vom Dieselmotor !

Manche Verwaltungen von Großstädten, in denen die geographische Lage und eine ungünstige Wettersituation zu gesundheitlichen Problemen geführt hat, halfen sich dadurch, dass Fahrverbote dergestalt verhängt wurden, dass täglich abwechselnd Fahrzeuge mit geraden oder ungeraden Zulassungsnummern fahren durften – unabhängig von der Art und Größe ihres Antriebsmotors.

Schluß-Bemerkung

Armes Kohlendioxid !

Erst schreit die halbe Welt, dass Du das Klima schlecht machst – Du seist ein „Klimakiller“ (eine Unmöglichkeit per se),

 im Gegenteil, Du ermöglichst das Pflanzenwachstum und beschleunigst es – und jetzt hänge ich Dir noch an, Du würdest die Luft in den Städten ungenießbar machen!

 




STICKOXIDE und der DIESELMOTOR (1)

Reinhard Marx

  1. Chemische Gleichgewichte

     Reaktion A: N2 + O2   ↔   2 NO („Stickstoffverbrennung“)

In einem Dieselabgas mit 74% Stickstoff und 6% Sauerstoff (s.u.) sind im chemischen Gleichgewicht folgende Stickoxide (NO) auf Grund der thermodynamischen Daten zu erwarten:

_________________________________________________________

bei     25°C            1 Zehnmillardstel ppm (= fast gar nichts)

bei   700°C          45 ppm

bei 1.200°C    1.300 ppm

bei 2.700°C 13 % (in Luft mit 23% O2), = 130.000 ppm

_________________________________________________________

Die Gleichgewichtskonzentrationen geben aber noch nichts über die Reaktions-geschwindigkeiten an, weder zur Bildung noch zur Zersetzung. Dazu wird berichtet, dass unterhalb 700°C die Verbindung NO metastabil ist und sich praktisch nicht verändert, also weder sich bildet noch sich zersetzt; wenn also bei sehr hohen Temperaturen sich eine deutliche Menge gebildet hat und das Gasgemisch sehr schnell bis auf 700°C oder weniger abgeschreckt wird, bleibt viel des erhaltenen NO bestehen. Solches wurde früher im sogenannten „Nitrum“-Verfahren zur Luftverbrennung im Lichtbogenofen ( ̴ 2700°C !) durchgeführt (Herstellung von Salpetersäure).

Das Gas NO ist farblos und hat nur ein sehr geringes Lösungsvermögen in Wasser.

       Reaktion B: 2 NO + O2   ↔   2 NO2 („Oxidation von Monoxid zu Dioxid“)

In Luft mit 23 % Sauerstoff und bei 25°C liegt das Verhältnis Dioxid zu Monoxid (NO2 : NO) bei über 500.000.

So ist in Luft bei 25°C praktisch kein NO mehr neben NO2 vorhanden, die Reaktion ist aber sehr temperaturabhängig, und sie verläuft relativ schnell.

Bei ca. 480°C wird sie bereits endotherm, und der Zerfall von NO2 in NO und Sauerstoff setzt verstärkt ein, was bei 650°C so gut wie vollständig ist.

Das braune Gas NO2 löst sich gut in Wasser nach der Formel 2 NO2 + H2O → HNO2 + HNO3, die salpetrige Säure ihrerseits ist aber nicht beständig und zersetzt sich nach der Formel 3 HNO2 → HNO3 + H2O + 2 NO. Das dabei gebildete NO ist ein Problem bei jeder Gaswäsche, weil es sich erst wieder oxidieren muss, um weiter ausgewaschen werden zu können, häufig aber vorher entweicht.

  1. Emissions-Konzentrationen

Man spricht häufig von NOx-Konzentrationen, weil sowohl NO als auch NO2 vorhanden sein kann. Die Gleichgewichtsbetrachtungen zeigen aber, dass bei Raumtemperaturen praktisch nur NO2 vorhanden ist, es bildet sich aus NO und Luftsauerstoff ziemlich schnell. Bei hohen Temperaturen (Verbrennungen) kann sich aber nur NO bilden, das nach Abschreckung und bei Sauerstoffanwesenheit so gut wie vollständig verschwindet und so zu NO2 wird.

In der Industrie besagen die Abgasvorschriften, dass die Emissionskonzentration von NOx nicht höher als 100 mg/Nm3 ( ̴ 77 Gew.ppm) sein darf; es wird im Abgaskamin gemessen. Um diesen Wert zu erreichen, werden stickoxidhaltige Abgase normalerweise in einer Gaswäsche behandelt, wobei die Waschflüssigkeit alkalisch sein muss. Der Stickstoff wird so aus der Gasphase in eine Abwasserphase überführt und kann dort zu weiteren Schwierigkeiten führen, die aber beherrschbar sind (z.B. durch biologische Abwasserbehandlung).

Die emittierten NOx-Mengen führen nun in der Umgebung der Emissionsquelle zu Immissionen, deren zulässige Konzentrationen folgendermaßen definiert sind:

40 µg/Nm3 im Jahresmittel, höhere vereinzelte Spitzenwerte dürfen 200 µg/Nm3 während

1 Stunde nicht überschreiten.

Gemessen wird in einiger Entfernung von der Emissionsquelle und in der Nähe menschlicher Wohnungen unter Berücksichtigung der herrschenden Windrichtung. Die Messpunkte werden von den Überwachungsbehörden festgelegt. Das Verhältnis zwischen zulässiger Emissions- und Immissionskonzentration beträgt bei NOx also 2.500:1 (= erforderlicher Verdünnungsfaktor).

(1 Nm3, „Normkubikmeter“, ist der Kubikmeter bei 0°C und dem Druck von 1 atm oder 760 Torr)

An den Arbeitsplätzen in der Industrie gilt der sogenannte MAK-Wert („maximale Arbeitsplatzkonzentration“), er beträgt für Stickoxide 0,95 mg/Nm3 (= 950 µg/Nm3 oder 735 µg/kg), früher war er noch erheblich höher eingestuft. Dieser Wert bedeutet, dass die Beschäftigten während acht Stunden und fünfmal in der Woche dieser Konzentration maximal ausgesetzt sein dürfen – wobei keine gesundheitliche Beeinträchtigung zu befürchten wäre.

Verteilte man die 40 h Wochenarbeitszeit mit einer Belastung von 950 µg/Nm3 gleichmäßig auf die Gesamtzeit von 168 h in der Woche, ergäbe sich ein Durchschnittswert von 226 µg/Nm3, unter der Annahme, dass in den 128 Stunden Freizeit gar keine Belastung besteht. Dieser Wert entspricht etwa der zugelassenen kurzfristigen Immission von 200 µg/Nm3.

  1. Verhältnisse bei Dieselmotoren

Die Verbrennung des Kraftstoffs in Dieselmotoren muss mit einem deutlichen Luftüberschuss erfolgen (λ ≥ 1,3), andernfalls wäre mit starker Rußbildung zu rechnen. Die Verbrennungstemperaturen im Zylinder sind sehr hoch (>> 1000°C), also erfolgt mit dem überschüssigen Sauerstoff auch eine Oxidation des Luftstickstoffs (s.o.), das gebildete NO wird dann sehr schnell in den Auspuff geleitet und unter 700 °C abgekühlt, so dass das unerwünschte Gas sich nicht weiter zersetzen kann und zu Emissionsproblemen führt. Im heißen Auspuff bei etwa 700°C werden 600-800 Vol.ppm gefunden (TÜV Essen, z.T. auch etwas weniger oder mehr). Das deckt sich gut mit obigen Berechnungen: Wenn bei 1200°C während der Verbrennung ̴ 1.300 ppm NO gebildet werden, so haben sie sich bei 700°C noch nicht bis auf < 100 ppm wieder zersetzt wegen der Geschwindigkeit der Abkühlung.

Bei stationären Großanlagen könnte jetzt wieder die schon erwähnte alkalische Gaswäsche installiert werden, was aber bei beweglichen Fahrzeugen nicht durchführbar ist. Hier bietet sich ein anderes Verfahren an: Das heiße Abgas wird mit einer wässerigen Lösung von Harnstoff behandelt, wobei nur die Stoffe N2, CO2 und H2O entstehen. Die summarische Reaktionsgleichung wäre ganz grob folgende:

CO (NH2)2 + H2O + 3 NO     →     5/2 N2 + CO2 + 3 H2O

Allerdings verläuft die Reaktion über Zwischenstufen, wobei auch NH3 (Ammoniak) gebildet wird; eine katalytische Unterstützung ist erforderlich. Das zeigt, dass die Dosierung der Harnstofflösung sehr genau erfolgen muss. Wird zu wenig eingespritzt, bleibt unbehandeltes NO übrig, bei einer Überdosierung entstehen Zersetzungsprodukte des Harnstoffs, die ebenfalls unerwünscht sind. Die Dosierung hängt weiter auch davon ab, wie hoch die Drehzahl des Motors ist, und wie viel Kraftstoff gerade zugegeben wird – einem Rechner müssen alle Einflussgrößen zugeführt werden, und der sorgt dann automatisch für die richtige Dosierung der 32,5 %-igen Harnstofflösung (als „AdBlue“ im Handel). Gemäß obiger Formel kann mit 1 kg Harnstoff 1,5 kg Stickoxid unschädlich gemacht werden; bezogen auf den Kraftstoffverbrauch, sei je nach Fahrweise mit 2 – 8 % Harnstoffeinsatz zu rechnen.

Weitere veröffentlichte Kennzahlen zum Dieselmotor: Je Liter Kraftstoff werden ca. 14 m3 Luft benötigt (bei λ= 1,4 als Überschussfaktor) und etwa 2,65 kg CO2 erzeugt. Seine Dichte beträgt 0,84 kg/l und der Heizwert 9,7 kWh/l.

  1. Theoretische Verbrennungsrechnung im Dieselmotor:

Man kann folgende vereinfachte Reaktionsgleichung aufstellen, bei der als Kraftstoff Cetan genommen ist, Lambda mit 1,4 gerechnet wird und 800 ppm NO im Abgas entstehen sollen:

______________________________________________________________________________

C16H34 + 24,5 O2 + 93,75 N2 + λ-Luft      16 CO2 + 17 H2O + 93,75 N2 + 0,1 NO + λ-Luft

226           784             2625        1363               704            306           2625            4         1359

______________________________________________________________________________

Die Zahlen sind die Molekulargewichte in g; addiert ergibt sich, dass 226 g Kraftstoff 4.772 g Luft (=3.690 l) erfordern. Im Abgas werden 4 g NO aus der λ-Luft gebildet, es hat folgende Zusammensetzung :

                     Gewichts-%     Volumen-%                                

Stickstoff           73,4                75,3

Sauerstoff            6,3                  5,6

CO2                   14,1                  9,2

Wasserdampf       6,1                  9,8

Stickoxid NO       0,080              0,077 (unbehandelt, unverdünnt) 

__________________________________________________________

Die Abgasmenge beträgt 18,1 m3/kg oder 15,2 m3/l Kraftstoff. Als Luftbedarf ergibt sich 16,3 Nm3/kg oder 13,7 Nm3/l. Vielleicht wäre noch folgende Zahl interessant: Ein Fahrzeug, das einen Verbrauch von 5 l/100 km hat und mit einer Geschwindigkeit von 50 km/h fährt, würde minütlich 833 m zurücklegen und dabei 42 ml (=35 g) Kraftstoff verbrauchen und rund 0,6 m3 Abgas produzieren.

Damit ein konzentriertes Abgas mit ca. 800 ppmgew NO in den Bereich dessen gelangt, das in der Industrie genehmigt ist (= 77 ppmgew), müsste es zunächst zehnfach verdünnt werden, was bei einem fahrenden Automobil, das minütlich beispielsweise 0,6 m3 ausstößt, leicht geschieht, eine weitere Verdünnung um den Faktor 105 wäre erforderlich, um den MAK-Wert zu erreichen. 0,6x10x105 = 630 m3 (= z.B. 2,5 m x 2,5 m x 100 m), ein Volumen, das ein Fahrzeug in 14 Sekunden durchfährt, so dass selbst diese Verdünnung kein Problem darstellt. Schwieriger wird es, den festgesetzten Immissionswert von 40 µg/Nm3 zu erreichen, der eine weitere Verdünnung um das 24-fache erforderte.

Das unverdünnte Abgas ist mit Sicherheit gesundheitsschädlich, sogar giftig beim direkten Einatmen (nach Abkühlung !), allein schon wegen seines hohen CO2-Gehaltes, eine Verdünnung ist also erforderlich. Der Faktor von 1 : 1.000 ist nicht schwer zu erreichen, wie dargestellt, um an den MAK-Wert des NOx zu gelangen. Trotzdem ist die Maßnahme, bei Fahrzeugstillstand den Motor abzustellen, wenn man sich im dichten Stadtverkehr befindet, richtig. Daraus resultiert, dass auch ein häufiges Wiederstarten erforderlich wird, was die Starterbatterie stark belastet. Die Batteriehersteller haben dieser Anforderung allerdings bereits Rechnung getragen.

Aus diesen Betrachtungen ergibt sich, dass bei dichtem Verkehr und Windstille sich NOx-Konzentrationen über dem Immissionsgrenzwert ergeben können. Das kann aber nicht durch eine wie auch immer geartete „Software“ verhindert werden, vielleicht nur etwas gemindert werden – die Naturgesetze der Verbrennung lassen sich nicht ändern. Die Anwendung der Harnstoffeinspritzung ist für so tiefe Grenzwerte wie 40 µg/Nm3 eine reale Möglichkeit, also das Anbringen einer „Hardware“, um bei der gängigen Wortwahl zu bleiben. Ob der Wert von 40 µg/Nm3 allerdings wirklich erforderlich ist, sollte noch einmal gründlich überprüft werden. Der gültige und bereits reduzierte MAK-Wert ist mit Sicherheit nach langen Untersuchungen festgelegt worden, eine geforderte weitere Reduzierung um das 24-fache für den Straßenverkehr erscheint um ein Vielfaches überzogen ! Der zeitweise bereits zulässige Immissionswert von 200 µg/Nm3 (21 % des MAK-Wertes) wird von Dieselfahrzeugen so gut wie nie in der Realität erreicht und sollte als Grenzwert eingeführt werden, weil er durchaus noch als gesundheitlich ungefährlich betrachtet werden muss. Damit erübrigte sich die große Aufregung über die „schrecklichen“ Dieselemissionen, und der „Skandal“ bezöge sich nur noch auf die betrügerischen Versprechungen einiger PKW-Hersteller.

Es sei noch auf eine relative Zahl hingewiesen, die bei NOx und auch bei CO2 gerne angeführt wird: Die Emissionsmenge je gefahrenen Kilometer. Das ist überhaupt keine technische Zahl, und sie sollte vollkommen unterbleiben. Die Emissionen hängen allein vom Kraftstoffverbrauch (in kg oder l) und vielleicht auch der Fahrweise ab – ein mit laufendem Motor stehendes Fahrzeug emittiert pro Kilometer unendlich viel ! Wer viele Liter Kraftstoff verbraucht, emittiert auch viele Mikrogramm NOx.

Bei Otto-Motoren wird ohne Luftüberschuss gearbeitet (λ = 1), dabei kann sich so gut wie kein NO bilden, wohl bleibt aber immer etwas unverbranntes CO übrig, das dann mittels zugeführter Luft an dem bekannten nachgeschalteten Katalysator zu CO2 umgesetzt und unschädlich gemacht wird.

 




Zirkelschlüsse der Klimamodelle

Das Ergebnis ist, dass Menschen die Ursache der globalen Erwärmung sind und Klimawandel die eingehende Hypothese ist. Dies ist ein Zirkelschluss in Reinformat, nämlich dass man folgert, was man zuerst vermutet.

Diesen Kreisschluss kann man deutlich in dem erkennen, was Viele als den maßgeblichsten wissenschaftlichen Report bzgl. Klimawandel ansehen, obwohl er in Wirklichkeit der populärste Alarmisten-Report ist. Wir reden von der Summary for Policymakers des jüngsten IPCC-Berichtes AR 5. Diese 29 Seiten starke Summary steht hier.

Die „rauchende Kanone“ des Zirkelschlusses liegt in nur zwei Abbildungen, nämlich den Abbildungen 5 und 6.

[Anmerkung: Ich habe diese beiden Graphiken hier aus dem verlinkten PDF eingefügt, was im Original nicht der Fall ist. Sie scheinen recht undeutlich, vor allem die Bildinschrift. Man klicke das Original an, wenn man es näher wissen will. – Anmerkung des Übersetzers]

Abbildung 5 im PDF

Man betrachte zunächst Abbildung 5 auf Seite 14. Sie ist ein wenig technisch, aber wie es in der ersten Zeile der Bildinschrift heißt, sind dies die „Haupttreiber des Klimawandels“ (dem IPCC zufolge, heißt das). Es sind nur 11 dieser Haupttreiber gelistet, ein jeder mit einem farbigen horizontalen Balken, wobei Einige in mehrere Komponenten unterteilt sind.

Die Länge jedes Balkens repräsentiert den best guess des IPCC, wie stark sich jeder Treiber seit 1750 (und bis 2011) ausgewirkt hat, was sie „Antrieb“ [forcing] nennen. Folglich muss jeder der beobachteten Klimawandel während dieses 261 Jahre langen Zeitraumes diesen Treibern geschuldet sein, und genau das ist es, was die Modelle annehmen.

Tatsächlich wird von den Modellierern verlangt, dies anzunehmen, falls sie ihre Ergebnisse in die IPCC-Abschätzung eingehen lassen wollen. Etwa 100 große Klimamodelle werden für diese Modellierung herangezogen – in einer gewaltigen koordinierten Bemühung, welche mehrere Jahre dauert. Diese Bemühung wird koordiniert durch das US-Energieministerium.

Die rauchende Kanone beginnt mit der Tatsache, dass 10 dieser 11 Treiber auf menschliche Ursachen zurückgehen. Der einzige natürliche Treiber sind Änderungen der solaren Einstrahlung („irradiance“ genannt), doch ist dieser Balken so klein, dass er im Grunde gar nicht zählt. Tatsächlich kann man ihn in der Abbildung kaum erkennen.

In allen Fällen nimmt das IPCC der Einfachheit halber an, dass alle Treiber des Klimawandels anthropogen verursacht sind. In der wissenschaftlichen Literatur werden noch viele andere Treiber behandelt, die aber einfach ignoriert werden, hier und in den Modellen.

Falls alle Treiber des Klimawandels wirklich anthropogenen Ursprungs sind, dann müssen alle beobachteten Änderungen offensichtlich auch anthropogen verursacht sein.Und genau das erkennt man in Abbildung 6 auf Seite 18:

Abbildung 6 im PDF

Diese Abbildung zeigt 16 separate kleine Bildchen. Jedes davon zeigt dreierlei:

1) Einen beobachteten Klimawandel

2) Das Aussehen des Modelloutputs ohne menschliches forcing

3) Das Aussehen des Modelloutputs mit menschlichem forcing.

Angesichts des Umstandes, dass der einzige erlaubte Antrieb anthropogener Natur ist, ist es keine Überraschung, dass der Modelloutput nur dann zu den Beobachtungen passt, wenn der menschliche Antrieb mit einbezogen wird. Wie kann es anders sein? Die 18 Modelloutputs ohne anthropogenen Antrieb ändern sich nicht. Aber das können sie ja auch nicht, weil keine natürlichen Antriebe zugelassen sind.

Aber anstatt zu erkennen, dass dieses Ergebnis einfach aus den eingehenden Hypothesen folgt, behauptet das IPCC erstaunlicherweise, dass damit bewiesen wird, dass Menschen die einzige Ursache für Klimawandel sind. Dabei wird nichts dergleichen bewiesen, und der Zirkelschluss schließt sich damit.

Die Simplizität dieses Trugschlusses ist atemberaubend. Falls man annimmt, dass nur Menschen einen Klimawandel verursachen können, dann folgt daraus natürlich, dass alle Klimawandel von Menschen verursacht sind. Aber dies gilt nur für die Hypothese, nicht für die Wissenschaft. Die Argumentation verläuft perfekt im Kreis.

Eine legitime wissenschaftliche Abschätzung würde die vielen anderen Treiber mit berücksichtigen, welche gegenwärtig betrachtet werden. Eine legitime wissenschaftliche Modellierung würde diese Treiber erklären, um zu sehen, welchen Beitrag sie zu den beobachteten Klimawandeln leisten.

Unglücklicherweise ist weder das IPCC noch die extensive und kostspielige Modellierung, welche zu Stützung vorgenommen wird, legitim. Dass das US-Energieministerium im Zentrum all dieser politisierten Nicht-Wissenschaft liegt, ist besonders verwerflich und bedarf dringend einer Änderung.

So wie es jetzt ist, ist diese gesamte Modellierung einfach nur Müll, weil eine falsche Antwort als Hypothese eingeht. Es gibt so etwas wie Wissenschaft durch Vermutung nicht. Falls die Modelle nicht der Wissenschaft folgen, sollte man sie gar nicht erst laufen lassen.

Link: http://www.cfact.org/2018/03/01/circular-reasoning-with-climate-models/

Übersetzt von Chris Frey EIKE




Eine grüne Stromversorgung Deutschlands

Im Konsens errechnen dazu seit 1988 tausende sog. Klimawissenschaftler eine angeblich drohende dramatische Erwärmung der Erde, wenn denn die Menschheit zu ihrem Nutzen ein wenig vom Kohlendioxid wieder freisetzt, das die Flora zum Zwecke seiner Ernährung in Milliarden von Jahren in Kohlenstoff und Sauerstoff aufgetrennt hatte.

Diese vermeintliche Klimasensitivität des CO2 zerplatzt wie eine Seifenblase nur deshalb, weil „dem Konsens“ ein Vorzeichenfehler (!!) unterlaufen ist:  

https://de.scribd.com/document/372778420/Klimasensitivita-t-des-CO2-eine-Seifenblase

https://de.scribd.com/document/373094316/Der-CO2-Klimawandel-und-das-Vorzeichen-Science-is-not-settled

Es kommentiert die Visionen der Frau Baerbock ein „konventioneller Hinterbliebener“, der seit 1960 mit an einer Stromversorgung werkelte, die bis zur Jahrtausendwende Deutschland zuverlässig, umweltfreundlich und im internationalen Vergleich recht preiswert mit elektrischer Energie versorgt hatte.

„Netze und Speicher“

Eine Vision der Annalena Baerbock,

Ein Kommentar von Ulrich Wolff im Text kursiv

Der Strukturwandel in der Energieversorgung und der Einzug neuer, oftmals digitaler Technologien bieten uns in Zukunft neue und bessere Möglichkeiten zur Absicherung einer auf schwankenden Wind- und Solarenergie basierenden Stromversorgung.

„Noch gibt es dafür in Deutschland ersatzlos die Großkraftwerke, deren Beitrag zur Stromversorgung jedoch gegenwärtig bereits signifikant verdrängt wird, so dass ihre spezifischen Stromkosten steigen, erforderliche Gewinne schmelzen und so bei der Braunkohle sogar Rücklagen für Renaturierung gefährden können.“

Statt der alten Großkraftwerke werden künftig immer mehr kleinere, effiziente und flexibel einsetzbare Gas- und Biogas-Kraftwerke sowie zunehmend auch Speicher zur Sicherstellung der Stromversorgung eingesetzt.

Die Großkraftwerke existieren bereits, „kleinere“ müssen mit unvermeidbar größeren spezifischen Errichtungs- und Betriebskosten erst noch gebaut werden. Sowohl der Brennstoff Biomasse als auch Erdgas sind signifikant teurer als Braunkohle, importierte Steinkohle und Kernenergie.

Die vielen, dezentralen Anlagen werden über ein leistungsfähiges Stromnetz miteinander verbunden, das den Strom schnell und effizient vom Erzeugungs- zum Verbrauchsort transportiert.

Ein solches Stromnetz müsste erst noch installiert und bezahlt werden, Strom fließt allerdings auch dann weder schneller noch effizienter.

Strombedarf und Stromerzeugung werden so über eine intelligente Steuerung jederzeit und an jedem Ort zielsicher aufeinander abgestimmt.

Für ein solches Flatterstromnetz müsste eine solche Steuerung zunächst entwickelt, erprobt, installiert und bezahlt werden.

So wird die Stromversorgung der Zukunft aussehen. Speicher und Netze wirken darin funktional sehr ähnlich, auch wenn sie physikalisch völlig verschieden sind.

Elektrizität lässt sich leider nur in homöopathischen Mengen (z. B. im Kondensator) speichern. Daher kann im vermeintlichen Speicher lediglich die Art der Energie mehrfach und mit signifikantem Verlust gewandelt werden.

Denn beide tragen dazu bei, kurzzeitig auftretende Überschüsse und Engpässe auszugleichen. Damit nehmen sie eine Schlüsselstellung im künftigen Stromsystem ein.

Speicher, in denen sehr viel Energie „versickert“, könnten niemals eine Schlüsselstellung in einer wirtschaftlichen Stromversorgung einnehmen.

Zusätzlich bergen das Gasnetz und die daran angeschlossenen Gasspeicher ein großes Speicherpotenzial, das über „Power to Gas“ erschlossen werden kann.

Der Wirkungsgrad von „Power to Gas und Gas to Power” ist meist kleiner als 0.5, so dass auf diesem Weg jeweils mehr als die Hälfte des Stroms verloren geht. Die Investitions- und Betriebskosten solcher Technik sind gewaltig.

Hierdurch ist auch ein saisonaler Ausgleich von Erzeugung und Verbrauch denkbar, da das Gasnetz eine größere Kapazität sowie eine höhere Reaktionsträgheit aufweist als das Stromnetz.

Das Stromnetz selbst hat keine Speicherkapazität! Eine entsprechende Erweiterung des Gasnetzes müsste entwickelt, erprobt, errichtet und bezahlt werden. – Vergleichsweise ist es „durchaus denkbar“, den Mond zu besiedeln. Doch wer will dort einziehen und wer will das bezahlen?

Durch eine Kopplung der beiden Netze kann „Power to Gas“ zu mehr Versorgungssicherheit beitragen.

„Mehr Versorgungssicherheit?“ War etwa die vor dem Einstieg in die sog. Energiewende mit den Großkraftwerken in Deutschland erreichte sehr große Versorgungssicherheit etwa nicht ausreichend?

Klar ist jedoch: Versorgungssicherheit kann inzwischen nicht mehr national, sondern muss im europäischen Kontext gedacht werden. Heute schon wird in jeder Sekunde im Jahr Strom über Deutschlands Grenzen im- und exportiert. Das entspricht europäischem Recht und kein EU-Staat darf dies be- oder gar verhindern.

Zu diesem Zweck wird seit Jahrzehnten ein europäisches Verbundnetz erfolgreich betrieben. Inzwischen macht es jedoch bereits „der Fuß in der Tür einer deutschen Energiewende“ für einige Staaten notwendig, ihre Netze durch Eingriffe vor dem deutschen „Flatterstrom“ zu schützen.

Der Vorteil: Durch die enge Kooperation mit den Nachbarstaaten kann man künftig die Stromversorgung deutlich kostengünstiger absichern. Denn statt die für Stromkunden teuren, nur selten gebrauchte Reservekraftwerke im eigenen Land vorrätig zu halten, kann man in Engpasssituationen preisgünstigen Strom aus dem Nachbarland beziehen.

Die in den Nachbarländern vorhandenen Reservekraftwerke reichen offenbar nicht einmal dafür aus, dass die Uhren in Deutschland richtig gehen.

Das nutzen vor allem die Nachbarstaaten Deutschlands, die unseren preiswerten Strom importieren.

Ist es etwa sinnvoll, Strom (sogar mit Zuzahlung) zu verschenken, nur damit bereits heute überschüssige Windkraft nicht abgeschaltet werden muss?

Aus deutscher Perspektive stellt die Stärkung des europäischen Energiebinnenmarktes letztlich eine Stärkung von Speicherkapazitäten dar.

Oder verlässt sich einer auf den anderen bei der Reserveleistung, denn Pumpspeicher, die mehr als Schwankungsspitzen glätten, hat doch ohnehin niemand?

Daher ist es längst überfällig, den europäischen Energiebinnenmarkt durch einen integrierten Netzausbau voranzutreiben und damit die Flexibilität in Bezug auf Verbrauch und Speicherung zu ermöglichen.

Die USA, Japan und unser Nachbar Frankreich bleiben ganz einfach glücklich und zufrieden bei ihren Großkraftwerken! – Blickt der Rest der Welt wirklich gebannt auf ein grünes Deutschland, um dann dem Versuch zu folgen, ihr Land mit Flatterstrom aus Kleinkraftwerken, zu versorgen?

 

 




Ärzte brauchen auf den Klimawandel medizinische Antworten…

Nach der Kältewelle steigen endlich die Temperaturen. Doch ein massiver Wetterumschwung erhöht auch das Risiko für einen Infarkt

Inzwischen kommen die Bürger auch mit dem Wetter nicht mehr alleine zurecht. Ist es Winter, muss die WHO bereits Kleidungstipps geben und auf die Kälte hinweisen [3], wohl weil zu Viele fest davon überzeugt sind, dass seit dem ominösen Klimawandel keine Winter mit Kälte vorkommen können und nicht mehr gelernt haben, wie Kleidung wärmt. Bald wird auch in Vergessenheit geraten, wofür Heizungen da sind. In Zukunft stellt diese eine App ein und das Wissen darüber, was diese App eigentlich macht, geht unwiederbringlich verloren.
Kommt zusätzlich ein Wetterumschwung, ist der Bürger inzwischen jedoch ganz neuen Gefahren ausgesetzt. Denn solche sind schnell tödlich und nehmen, wie es jeder lernt, durch den Klimawandel immer mehr zu.
Kein Wunder, dass unsere Ärzte die Gefahr erkannt haben und immer tiefschürfender zum Klimawandel-Krankheits-Zunahmerisiko forschen.

Inzwischen sind aus diesem Forschungszweig bereits Erfolge sichtbar: Auf einem Herzkongress in Orlando (USA) wurden erste, harte Fakten präsentiert. Und diese sind geradezu erschütternd:
Jeder Temperatursprung von einem Tag zum nächsten mit 5 Grad Differenz erhöht die Herzinfarktrate um satte 5 % [3]. 30.000 Herzpatienten wurden dazu untersucht. Und weil es so viele waren – und die Anzahl der Daten in der Klimawandelforschung nach einhelliger Expertenmeinung die Qualität ausmacht [5] -, kann das Ergebnis nicht falsch sein.

Wie schlimm wird es besonders gefährdete Gebiete Deutschlands, wie zum Beispiel Franken, treffen?

Wie zufällig kam gleich zur SZ-Meldung am folgenden Montag in einer Lokalzeitung die Zusatzinformation, dass Franken besonders vom Klimawandel getroffen ist
nordbayern: [4] In Franken und der Oberpfalz ist der Klimawandel längst da.
In Bayern ist es damit bereits so schlimm, dass ihn die bayerische Umweltministerin mit den Händen greifen kann, wie sie einmal berichtete.
Wer nun in einer solch gefährdeten Gegend von Deutschland lebt, wo jeden Tag das Infarktrisiko dramatisch ansteigen kann und diese Gefahr auch noch deutlich zunehmen wird, möchte natürlich wissen, wie hoch diese einzuschätzen wäre. Leider hat diese ganz praktische Frage die SZ-Journalisten nicht mehr interessiert und so blieben ihre Leser damit vollkommen alleine gelassen.
Zum Glück ist der Autor ebenfalls von dieser Fragestellung betroffen, weshalb er sich die von der SZ versäumte Mühe gemacht hat, die Auswirkungen auf im besonders gefährdeten Franken wohnende Bayernbürger abzuschätzen.

Gefährdungsanalyse Franken

In Franken liegt Nürnberg mit einer DWD Wetterstation, ID: 3668. Deren Wetterdaten sind anbei mit den Infarkt-Risikodaten ausgewertet.
Laut den amerikanischen Ärzten ist die Temperaturdifferenz von einem Tag zum anderen die kritische Belastung. Bild 1 zeigt dazu den Absolutwert des Tages-Maximum zum Vortags-Minimalwert. Die Differenzen sind schon gewaltig und die relevanten 5 Grad Temperaturdifferenz häufig überschritten, was bedeutet: Es ist fast ständig eine deutliche Erhöhung der Infarktgefahr vorhanden.

Bild 1 Temperaturdifferenz Absolutwert des Tages-Maximum zum Vortags-Minimum mit gleitendem Jahresmittel (weiß) von 1950 – 2017 der DWD-Station Nürnberg (blau).

Im Folgebild sind die Werte in die „ereignisrelevanten“ 5 Grad-Sprünge geclustert, von denen jeder +5 % Infarktrisiko darstellt.

Bild 2 Die Daten von Bild 1 als Anzahl von 5 Grad Sprüngen (braun). Gleitendes Jahresmittel (weiß)

Daraus bleibt nur ein Fazit übrig: Die Temperaturwechsel haben einen hohen Anteil an der Infarktrate.

Beim Ansehen dieser Auswertebilder (-Mittelwerte) kommt man vom Thema „Temperatur-Differenz-bedingte Infarktraten-Eintrittswahrscheinlichkeits-Erhöhung“, jedoch sofort zu einer anderen Fragestellung.

Wo ist die gemeldete, Klimawandel-bedingte Verstärkung?

Im SZ-Artikel wird darauf hingewiesen, warum die „Infarkt-Erkenntnis“ so wichtig ist: Früher waren abrupte Temperaturwechsel scheinbar eine Ausnahme, während sie aufgrund des Klimawandels inzwischen normal sind und sogar weiter zunehmen:
SZ: [3] Diese Forschung wird wichtiger, denn mit dem Klimawandel häufen sich Wetterextreme. Abrupte Temperaturwechsel von Tag zu Tag sind dann keine Ausnahme mehr …

Leider widersprechen bereits die Bilder 1 und 2 dieser Aussage der Süddeutschen Zeitung. Weder absolut, noch geclustert haben sich die relevanten Temperaturdifferenzen seit Beginn der Messreihe (und das ist genau der Beginn des starken Klimawandels) signifikant verändert. Und dass sie heutzutage gegenüber früher zugenommen hätten, oder würden, zeigen die bisherigen, beiden Auswertebilder ebenfalls nicht.

Die SZ-Aussage einer Erhöhung der Temperatur-Differenzen ist falsch

Wenn die Bilder 1 und 2 stimmen, muss sich die angegebene Häufung der Temperatur-Differnezextreme wo anders verstecken.
Deutschland ist beim Wetter nicht so extrem, wie die USA. Es könnte also sein, dass bei uns erst die Temperaturdifferenz von zwei Tagen das relevante Ergebnis liefert.
In den folgenden Grafiken sind nun dazu die Differenzen nach Absolut- und Maximalwerten dargestellt. Doch unabhängig, wie man auswertet, das Ergebnis lautet: Es gibt keine Erhöhung der Temperaturdifferenzen.

Somit bleibt nur eine Schlussfolgerung übrig:
Die Aussage in der SZ: [3] denn mit dem Klimawandel häufen sich Wetterextreme. Abrupte Temperaturwechsel von Tag zu Tag sind dann keine Ausnahme mehr …, ist ganz einfach falsch!

Es ist nicht erkennbar, dass die gestiegenen Temperaturen zu mehr Extremen führen. Und das bestätigen auch die weiteren Temperaturdifferenz-Auswertungen. Bild 5 zeigt sogar eindeutig eine erhebliche, negative Korrelation zwischen CO2-Eintrag und Vortages-Temperaturdifferenz.

Bild 3 Absolute Temperaturdifferenz zweier Folgetage Min. zum Maximumwert mit gleitendem Jahresmittel von 1950 – 2017 der DWD-Station Nürnberg

Bild 4 Maximale, absolute Temperaturdifferenz während ein- bis zweie Folgetagen, Min. zum Maximumwert mit gleitendem Jahresmittel von 1950 – 2017 der DWD-Station Nürnberg

Nun könnte es sein, dass nicht die Maximalwerte, sondern nur das Tagesmittel vom Klimawandel betroffen ist. Anbei deshalb die absolute Differenz des Tagesmittels zum Vortagesmittel. Deren Differenzen haben durch den „Klimawandel“ eindeutig abgenommen. Gut erkennbar darin die (negative) Korrelation zwischen CO2-Konzentratio und Abnahme der Tagesmittel-Differenzen.

Bild 5 Differenz Tagesmittel zum Vortag von 1950 – 2017 der DWD-Station Nürnberg (braun). Gleitendes Jahresmittel (schwarz, Maßstab rechts). Darüber kopiert der CO2-Konzenrationsverlauf von 1970 – 2015 (blau)

Findet sich der Klimawandel-Einfluss, wenn man noch weiter zurückschaut?

Nun könnte es sein, dass die Auswertung falsch ist, weil der Zeitraum der Nürnberger Datenreihe zu kurz ist. Im Artikel der nordbayerischen Nachrichten findet sich dazu nämlich eine Hinweis:
nordbayern: [4] … Extreme Wetterereignisse wie der Starkregen vor zwei Jahren waren in den letzten 15 Jahren in Deutschland wesentlich häufiger als im Jahrhundert davor ...
Man muss wohl das ganze, vorherige Jahrhundert auswerten, um mit den letzten 15 Jahren vergleichen zu können. Leider findet sich dazu keine Station in Franken (mit Tagesauflösung), doch die Datenreihe von Aachen reicht zum Beispiel so weit zurück.
Also das Analysespiel anhand der Tagesdaten von Aachen nochmals durchgeführt. Das Ergebnis:
Es zeigt sich nun noch deutlicher, dass der ominöse Klimawandel die Temperaturdifferenzen nicht erhöht.
Leider endet die Messreihe von Aachen mit dem Jahr 2011, so dass von den wichtigen, letzten 15 Jahren einige fehlen. Der Autor wagt jedoch die Behauptung, dass diese letzten, fehlenden Jahre am Auswerte-Ergebnis wenig ändern würden.

Bild 6 Temperaturdifferenz Tagesmittel zum Vortag und gleitendes Jahresmittel (Maßstab rechts)von 1891 – 2014 der DWD-Station Aachen (ID: 3)

Bild 7 Temperaturdifferenz des Vortages-Min. zum Maximumwert des Folgetages und gleitendes Jahresmittel (Maßstab rechts) von 1891 – 2014 der DWD-Station Aachen (ID: 3)

Bild 8 Tagesmaximum und gleitendes Jahresmittel (Maßstab rechts) von 1891 – 2014 der DWD-Station Aachen (ID: 3)

Als Abschluss noch eine Prüfung, ob wenigstens die großen Temperaturdifferenzen durch den Klimawandel zugenommen haben. Doch auch dazu ergibt die Langzeitreihe eine vollständige Entwarnung.

Bild 9 Gleitende Jahresmittel der Folgetage mit Temperaturdifferenzen >15 Grad (grün) und >20 Grad (rot) von 1891 – 2014 der DWD-Station Aachen (ID: 3)

Zu Extremereignissen gehören auch Starkniederschläge. Dass es sich bei Starkregenereignissen ebenfalls nicht anders verhält, wurde bereits in früheren Artikeln gezeigt:
EIKE 22.08.2017: Verschiebt der Klimawandel Europas Hochwässer dramatisch
EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels

Einflüsse des Klimawandels auf die Infarkt-Mortalität

Korrelationen sind so herrlich statistisch und klingen toll nach Wissenschaft. Deshalb zeig das Bild 10 eine solche zwischen der Infarktmortalität und CO2-Konzentration in der Atmosphäre: Die Verläufe sind eindeutig hoch signifikant negativ korreliert und belegen, dass die sich erhöhende CO2-Konzentration dem menschlichen Herzen genau so gut tut, wie den nach CO2 dürstenden Grünpflanzen.

Bild 10 Sterbeziffern Herzinfarkt Deutschland von 1985 – 2012. Quelle: Die Welt. Vom Autor darüber gelegt der Verlauf der CO2-Konzentration in diesem Zeitraum (grün)

Medizinverlag Krause und Pachernegg GmbH A-3003 Gablitz: Insgesamt hat das Herzinfarkt-Risiko über die letzten Jahrzehnte für Männer und Frauen abgenommen.

Jeder weiß, dass gerade die Mittelmeerländer besonders vom Klimawandel gebeutelt werden.
Frankfurter Allgemeine, 27.10.2005: Klima: Mittelmeerländer leiden besonders unter Klimawandel
Dazu der erkennbar, sehr positive Einfluss des Klimawandels auf die Infarkt-Sterberate in verschiedenen EU-Ländern, welche nahe am Mittelmeer oder im Süden liegen.

Bild 11 Infarkt-Sterberaten verschiedener EU-Länder. Quelle: Ärzte-Zeitung

Abschlussergebnis der kleinen Recherche

Wenn es einen Bereich der Wissenschaft gibt, der seine Reputation ständig neu verliert, und einen Bereich der Leserinformation, mit dem unsere Medien immer neu belegen, wie ideologisch hinterlegt „berichtet“ wird, dann gehört das Thema (AGW-)Klimawandel dazu.
Der hier rezensierte Artikel der SZ zeigt zudem, warum gerade die Süddeutsche Zeitung oft als „Alpenprawda“ betitelt wird.

Verlegt sich (wie bereits zu erkennen ist) die forschende Ärzteschaft in Zukunft zum „Abzapfen“ von Fördermitteln nun verstärkt auf den Klimawandel als Mortalitäts- und Krankheitsfaktor, dürften in kurzer Taktung immer neue „Erkenntnisse“ ans Licht kommen. Ob diese den Patienten helfen, wird man nicht fragen dürfen.

Ergänzender Hinweis: Mehr Details zur Studie, als in den deutschen Medien (und hier) berichtet wurden, lassen sich nachlesen bei: [6] WUWT: The latest medical malpractice: blaming “climate change” for heart attacks

Behörden als Propagandainstitute

Die SZ ist natürlich nicht alleine. Unsere Behörden gehen mit „gutem Beispiel“ voran. Eine ganz aktuelle Pressekonferenz des DWD zeigte es wieder exemplarisch:
Pressemitteilung: [7] Klima-Pressekonferenz 2018 des DWD
… In seinem Rückblick auf das Wetter und Klima im vergangenen Jahr hob der DWD hervor, dass das Jahr 2017 weltweit erneut eines der drei wärmsten Jahre seit Aufzeichnungsbeginn 1881 war. Der Trend zur globalen Erwärmung ist also, so Dr. Thomas Deutschländer, Klimaexperte des DWD, nach wie vor ungebrochen …
Das Jahr 2017 brachte in Deutschland viele Wetterextreme
„Das Jahr 2017 stand hierzulande aber auch ohne neuen Rekord ganz im Zeichen des Klimawandels“ so Deutschländer. Dies zeigte nicht nur die Verteilung statistisch betrachtet zu warmer und zu kalter Monate. So waren nur der Januar und September im Vergleich zum vieljährigen Mittel zu kühl. Auffällig seien auch die vielen Extremereignisse gewesen. Wiederholt kam es zu Sturm und Starkregen. Als Beispiele nannte der DWD-Experte die Stürme Axel im Januar 2017 sowie Xavier und Herwart im Oktober 2017. Tief Rasmund brachte der Stadt Berlin und dem Umland am 29. Juni an nur einem Tag Niederschlagsmengen von rund 150 Litern pro Quadratmeter (l/m2). An der Wetterstation Tegel wurde sogar ein Spitzenwert von 196,9 l/m2 gemessen. Hinzu kamen extreme Witterungsabschnitte, wie eine andauernde Trockenheit im Frühjahr oder das anhaltend trübe Wetter zwischen September 2017 und Januar 2018. So summierte sich das Sonnenscheindefizit in diesem grundsätzlich eher sonnenscheinarmen Zeitraum deutschlandweit auf über 74 Stunden. Außergewöhnlich war auch der neue Temperaturrekord für den März 2017. Mit einer Mitteltemperatur von 7,2 °C und einer Abweichung von +3,7 Grad wurde der bisherige Rekord von 1938 und 1989 um 0,2 Grad übertroffen.
Ob solche meteorologischen Extremereignisse zugenommen haben, sei allerdings statistisch nach wie vor schwierig nachzuweisen. Als Gründe nannte Deutschländer häufig noch zu kurze Beobachtungsreihen, die hohe natürliche Klimavariabilität sowie Probleme bei der flächendeckenden Erfassung von kleinräumigen Ereignissen. Dennoch sei die beobachtete Häufung solcher Ereignisse auch 2017 ein Indiz für die Annahme vieler Klimaforscher, dass extreme Wettersituationen mit weiter steigenden Temperaturen zunehmen dürften.

Selbstverständlich kommen nur harte Fakten vor. Doch werden extreme Ereignisse ganz bewusst so gelistet, als ob es Klimawandel-bedingt, zunehmende wären. Obwohl der Fachmann des DWD genau weiss, dass es nicht „statistisch nach wie vor schwierig nachzuweisen“ sei, sondern bewiesen ist, dass es diese Extremereignisse schon immer gab und sie deshalb mit einem (AGW-)Klimawandel nichts zu tun haben. Es gibt – und das sollte gerade mit diesem Artikel (wieder) gezeigt werden, keine „ … beobachtete Häufung solcher Ereignisse … „. Die „ … Probleme bei der flächendeckenden Erfassung von kleinräumigen Ereignissen … „ können das Problem schon gar nicht lösen, denn die damit gewonnenen Daten lassen sich nicht mit den historischen vergleichen (was man natürlich trotzdem macht, indem man in die Vergangenheitsdaten simuliert).

Wer die wohl wissentlich falschen Darstellungen nicht glaubt, sollte sich bei kaltesonne die gerade erschienene Listung historischer Extremereignisse ansehen. Heute auftretend, würden viele wohl zu sofortigen Massenpaniken führen.
kaltesonne 6. März 2018: Extremwetter in den letzten tausend Jahren
Extremwetter Fazit
Selbst wenn man den Chronisten einige Übertreibungen unterstellt, dürfte feststehen, dass Extremwetter in der Vergangenheit nicht seltener, sondern öfter eintraten und diese Ereignisse nicht harmloser, sondern schlimmer waren, als das was wir heute erleben. Verglichen mit den vergangenen 1000 Jahren, leben wir heute in einer ruhigen Zeit. Am ähnlichsten scheint mir noch das 13. Jahrhundert mit dem 20. Jahrhundert zu sein. Zwar scheinen Hunger in einer globalisierten Wirtschaft nicht mehr vorstellbar, zumindest in den s. g. entwickelten Ländern. Auf die Marktpreise hat das Wetter auch heute noch Einfluss, wie man selbst bei kleinen Wetterabweichungen wie ein Spätfrost im April in 2017 beobachten konnte. Da erfroren mal eben die Blüten an den Obstbäumen und schon waren Kirschen und Äpfel knapp und teuer.
Was würde heute geschehen, wenn wie in all den Jahrhunderten der kleinen Eiszeit, die Flüsse in Europa zufrieren würden, oder der Winter von Oktober bis Juni anhält? Wie würden wir reagieren, wenn Niederschläge und Überschwemmungen, oder Hitze und Dürre Ausmaße annehmen wie sie die Chronisten beschrieben haben? Und wer garantiert uns, dass es nicht doch wieder mal so kommt, denn Extremwetter hat es zu allen Zeiten gegeben, egal ob das Klima kälter oder Wärmer war. Es hat den Anschein, dass es in den wärmeren Perioden etwas weniger Wetter-Abweichungen vom „Normalen“ gab. Das mag aber auch daran liegen, dass die Extreme zum Kalten hin für uns Menschen schädlicher sind als die zum Warmen hin. Klar dürfte auch sein, dass wir Menschen Extremwetter nicht verhindern und auch nicht herbei zaubern können, selbst nicht mit Kohlendioxyd.

Wie subtil und konsequent der DWD in seinen alarmistischen Darstellungen vorgeht, zeigt ergänzend ein Beispiel aus der DWD-Publizierung: Klima-Pressekonferenz des Deutschen Wetterdienstes am 25. März 2014 in Berlin: Zahlen und Fakten zum Klimawandel in Deutschland
Auf der Seite 34 sieht man dort die folgende Information mit Schaubild:

Bild 12 Quelle [8]
Dazu gibt es eine Rezension des Autors:
EIKE 23.10.2017: Deutschland erwärmt sich schneller als der Rest der Welt – oder etwa doch nicht?
mit dem folgenden Bild 13. Darin sind die Daten von Bild 12 (mit dem alternativen, aber fast identischen Giss-Globaldatensatz), durch Skalierung der Deutschland-Temperaturreihe angepasst worden, um einen Vergleich zu ermöglichen.
Und sofort sieht man, dass die Verläufe aus zwei Zeitsegmenten bestehen und die Temperatur Deutschlands seit den 60er Jahren des letzten Jahrhunderts deutlich langsamer als der globale Durchschnitt steigt. Man könnte sogar so weit gehen, zu behaupten, die linearen Regressionen ergeben falsche Werte und Deutschland „hinkt“ sogar seit 1881 „hinterher“.
Ein exemplarisches Beispiel, wie man Information in die gewünschte Richtung „dreht“.

Bild 13 [9] GISS Globaltemperatur 1880 – 2017 (gleitendes Jahresmittel, blau) und Deutschland DWD Jahreswerte (rot) übereinander gelegt (mit Anpassung an den Anfangs- bis Mittelteil des Zeitraums). Temperaturachse der Deutschlandwerte nicht mit den GISS-Werten übereinstimmend. Grafik vom Autor erstellt
Quellen

[1] SZ 3./4. März, Printausgabe: „Herzenssache“

[3] SZ 3. März 2018: Herzschmerz nach dem Frost

[4] nordbayern: In Franken und der Oberpfalz ist der Klimawandel längst da

[5] Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 2)

[6] WUWT March 4, 2018: The latest medical malpractice: blaming “climate change” for heart attacks

[7] 06.03.2018 Pressemitteilung zur Klima-Pressekonferenz 2018 des DWD

[8] DWD-Broschüre: Klima-Pressekonferenz des Deutschen Wetterdienstes am 25. März 2014 in Berlin: Zahlen und Fakten zum Klimawandel in Deutschland

[9] EIKE 23.10.2017: Deutschland erwärmt sich schneller als der Rest der Welt – oder etwa doch nicht ?