1

Neues von den Eiszeiten

In SOD, einem hochwertigen US-Wissenschaftsblog, wurde bereits ausführlich auf die Stärken und Schwächen der Milankovic-Theorie eingegangen. Zusammen mit Chris Frey hatte der Autor eine ganze Reihe von Artikeln aus SOD zu dem Rätsel der Eiszeiten bereits vor 5 Jahren übersetzt und in den EIKE-News veröffentlicht (am einfachste im EIKE-Suchfenster „Ghosts of climate past“ eingeben).

Nun ist vom Forscher Dr. Peter Köhler (AWI Bremerhaven)  zusammen mit seinem Mitautor Prof. Dr. Roderik S. W. van de Wal (Utrecht University) eine neue Facharbeit über die Eiszeiten erschienen (hier). Sie ist open, das pdf kann daher frei heruntergeladen werden. Köhler und van de Wal verwendeten dabei einen bereits bekannten Datensatz, der von L. E. Lisieki und M. E. Raymo schon früher veröffentlicht wurde (hier und hier).

Glücklicherweise gibt das AWI regelmäßig für Presse und Öffentlichkeit bestimmte Berichte über seine Forschungstätigkeit heraus. Der betreffende Bericht über die hier in Rede stehende Facharbeit geben wir nachfolgend ungekürzt wieder, für weitere Infomationen gibt das AWI seine E-Mail Adresse medien@awi.de an:

AWI-Pressemitteilung vom 26.10.220

Eis- und Warmzeiten in unregelmäßigem Wechsel

Im Laufe der jüngeren Erdgeschichte der letzten 2,6 Millionen Jahre haben sich Eis- und Warmzeiten immer wieder abgewechselt. Dabei gab es wechselnde Phasen, in denen beide entweder regelmäßig oder unregelmäßig aufeinander folgten. Der AWI-Forscher Peter Köhler hat jetzt herausgefunden, dass unregelmäßige Wechsel offenbar häufiger auftraten, als bislang vermutet. Seine Arbeit trägt dazu bei, die grundlegenden Klimaänderungen der Erde besser zu verstehen.

Wer die Rolle des Menschen bei der Entwicklung des heutigen Klimas verstehen will, muss weit zurückblicken, denn Klimawandel hat es schon immer gegeben – allerdings auf ganz anderen Zeiträumen als der vom Menschen verursachte Klimawandel, der vor allem auf dem Verbrauch fossiler Brennstoffe in den letzten 200 Jahren beruht. Ohne den Menschen wechseln sich Eis- und Warmzeiten seit Millionen von Jahren über zigtausende von Jahren ab, vor allem durch die schräg stehende Erdachse. Deren Winkel verändert sich regelmäßig mit einer Periodizität von 41.000 Jahre um wenige Grad. Dadurch verändert sich auch der Winkel, in dem die Sonnenstrahlen auf die Erde treffen – und somit die Energie, die insbesondere im Sommer in den hohen Breiten auf den Globus trifft. Allerdings gibt es starke Hinweise darauf, dass im Laufe der letzten 2,6 Millionen Jahre immer wieder einmal Warmzeiten übersprungen wurden. Die Nordhalbkugel – insbesondere Nordamerika – blieb länger vereist, obwohl sich der Winkel der Erdachse derart änderte, dass wieder mehr Sonnenenergie im Sommer die Erde erreichte und die Landeismassen hätten schmelzen müssen. Die Schrägstellung der Erdachse kann also nicht der alleinige Grund für den Wechsel von Eis- und Warmzeiten sein.

Um das Rätsel zu lösen, wollen Klimaforscher genauer klären, wann in der Erdgeschichte Unregelmäßigkeiten auftraten. Zusammen mit Kollegen von der Universität Utrecht hat der Physiker Peter Köhler vom Alfred-Wegener-Institut (AWI) jetzt einen wichtigen Beitrag dazu geleistet, die Abfolge von Eis- und Warmzeiten während der vergangenen 2,6 Millionen Jahre besser nachzuvollziehen. Bisher ging die Fachwelt davon aus, dass vor allem während der letzten 1,0 Millionen Jahre Eis- und Warmzeiten vom typischen 41.000-Jahre-Rhythmus abwichen, Warmzeiten übersprungen wurden und die Eiszeiten daher 80.0000 oder gar 120.000 Jahre dauerten. „Für den Zeitraum zwischen 2,6 und 1,0 Millionen Jahren ging man eher von einer regelmäßigen Abfolge im Rhythmus von rund 41.000-Jahren aus“, sagt Peter Köhler. Wie seine Arbeit zeigt, die jetzt im Fachjournal Nature Communications erschienen ist, traten aber auch zwischen 2,6 und 1,0 Millionen Jahren immer wieder Unregelmäßigkeiten auf.

Die Arbeit von Peter Köhler ist deshalb interessant, weil er dafür einen altbekannten Datensatz neu ausgewertet hat, mit dem Wissenschaftlerinnen und Wissenschaftler schon seit vielen Jahren arbeiten – dem LR04-Klimadatensatz. Doch kommt er jetzt zu ganz anderen Ergebnissen. Bei diesem Datensatz handelt es sich um eine weltweite Auswertung von Bohrkernen aus Millionen Jahre alten Tiefseesedimenten. Der Datensatz enthält Messwerte aus den uralten Hartschalen mikroskopisch kleiner, einzelliger Meeresbewohner – den Foraminiferen, die sich am Meeresboden abgelagert haben. Foraminiferen bauen in ihren Kalkschalen Sauerstoff aus dem Meerwasser ein. Im Meerwasser aber schwankt im Laufe von Jahrtausenden der Gehalt bestimmter Sauerstoff-Isotope – von Sauerstoffatomen, die sich in der Zahl ihrer Neutronen und damit ihrem Gewicht unterscheiden.

18O verrät, wie die Welt aussah

Der Datensatz LR04 enthält Messwerte des Verhältnisses des schweren Sauerstoff-Isotops 18O zum leichteren 16O. Die Einlagerung dieses 18O/16O Verhältnisses in den Foraminiferen ist von der Wassertemperatur abhängig. Doch gibt es noch einen zweiten Effekt, der dazu führt, dass man in den Schalen der Foraminiferen während Eiszeiten relativ viel 18O findet: Wenn im Laufe einer Eiszeit Unmengen von Schnee auf Land herabschneien und damit dicke Landeisschilde wachsen, sinkt der Meeresspiegel – im untersuchten Zeitraum während der Eiszeiten um bis zu 120 m. Da 18O schwerer als 16O ist, verdunsten Wassermoleküle mit diesen schweren Isotopen weniger stark als Moleküle, die das leichtere Sauerstoff-Isotop enthalten. Somit bleibt verhältnismäßig mehr 18O im Meer zurück und der 18O-Gehalt in den Hartschalen der Foraminiferen steigt automatisch an. „Wenn man den LR04-Datensatz direkt nutzt, vermischt man folglich zwei Effekte – den Einfluss der Meerestemperatur und den Einfluss des Landeises beziehungsweise des sinkenden Meeresspiegels“, sagt Peter Köhler. „Aussagen über den Verlauf der Eiszeiten werden damit unsicher.“ Und noch etwas komme hinzu: Den Verlauf von Eiszeiten machen Klimaforscher vor allem an der Vereisung der Nordhalbkugel fest. Anhand des 18O-Werts aber kann man nicht unterscheiden, ob eine prähistorische Vereisung auf der Nordhalbkugel oder eher in der Antarktis stattgefunden hat.

Computermodell trennt die Einflussgrößen

Deshalb hat das Team um Peter Köhler den LR04-Datensatz jetzt ganz anders ausgewertet. Die LR04-Daten wurden in ein Computermodell eingegeben, das das Wachsen und Abschmelzen der großen Eisschilde auf den Kontinenten berechnen kann. Das Interessante daran: Das Modell ist in der Lage, den Einfluss der Temperatur und des sinkenden Meeresspiegels auf die 18O-Konzentration voneinander zu trennen. Außerdem kann es sehr genau analysieren, wann und wo Schnee fällt und die Landeisschilde wachsen – eher auf der Nordhalbkugel oder in der Antarktis. „Eine solche Trennung von Einflussgrößen nennen Mathematiker Dekonvolution oder auch Entfaltung“, sagt Peter Köhler. „Unser Modell ist dazu in der Lage.“ Im Ergebnis zeigt es, dass die Abfolge von Eis- und Warmzeiten bereits im Zeitraum von 2,6 bis 1,0 Millionen Jahren unregelmäßig war; eine Erkenntnis, die in den kommenden Jahren sehr wichtig werden könnte. Denn in dem laufenden großen EU-Projekt „BE-OIC Beyond EPICA Oldest Ice Core“ wollen Wissenschaftlerinnen und Wissenschaftler jetzt tiefer denn je in das Eis der Antarktis bohren. Mit der bislang ältesten zurückreichenden Bohrung „EPICA“ sind sie nur rund 800.000 Jahre in die Vergangenheit gereist. Das uralte Eis gibt unter anderem darüber Aufschluss, wie viel Kohlendioxid die Erdatmosphäre damals enthielt. Mit „Beyond EPICA“ soll es nun rund 1,5 Millionen Jahre in die Vergangenheit gehen. Kombiniert man dann die Kohlendioxid-Messwerte mit den Analysen von Peter Köhler, kann man Hinweise darauf gewinnen, wie beides zusammenhängt – die Schwankungen in der Abfolge der Eiszeiten und der Kohlendioxid-Gehalt der Atmosphäre. Und das ist wichtig, um zu verstehen, wie Treibhausgase und eiszeitliche Klimaänderungen grundlegend zusammenhängen.

—————————————————————————————

Redaktionelle Anmerkung EIKE:

Der Autor erlaubt sich, auf das eiszeitliche in „eiszeitliche Klimaänderungen“ im letzten Satz des AWI-Berichts hinzuweisen, um journalistischen Missverständnissen oder Enttäuschungen vorzubeugen.




Rafael Grossi (IAEA): Klimaziele ohne Atomkraft nicht erreichbar

Ein Drittel der »sauberen« Energie (Grossi) weltweit stammt aus nuklearen Quellen, die eine stabile Stromversorgung böten im Gegensatz zu Strom aus Sonne, Wind und Wasser, die nur stark schwankende Energien liefern.

»Atomkraft ist Teil der Lösung.« Das sagt Rafael Grossi, Chef der Internationalen Atomenergiebehörde (IAEA) in Wien. Praktisch ausgeschlossen sei das Erreichen der globalen Klimaziele ohne Atomkraft: »Jeder Weg zur Erreichung der im Pariser Abkommen festgelegten 2-Grad-Schwelle ist ohne Atomkraft nahezu unmöglich, wenn nicht unmöglich.«

Grossi nimmt am Weltgesundheitsgipfel 2020, der bis Dienstag in Berlin stattfindet, teil und wollte vor seiner Fahrt noch einmal deutlich machen, wie allein Deutschland mit seiner Politik des Atomstopps weltweit steht.

Der deutsche Atomausstieg sei in Konsequenz und Tempo weltweit praktisch einzigartig und ein Sonderweg. In einem Gespräch mit der Deutschen Presseagentur (dpa) in Wien betonte er, dass der Ausstieg aus der Kernenergie zwar politisch legitim sei, den Deutschland beschlossen habe. Jedoch sei er nicht mit Verweis auf das Klima und das Pariser Zwei-Grad-Ziel wissenschaftlich begründbar: »Die wissenschaftliche Tatsache ist, dass Atomkraftwerke einen extrem geringen Kohlendioxid-Ausstoß verursachen.«

Der Argentinier Grossi ist seit knapp einem Jahr im Amt des Generaldirektors der 1957 gegründeten wissenschaftlich-technischen Organisation zur Förderung der Kernenergie für Frieden, Gesundheit und Wohlstand. Die hat die Aufgabe, weltweit die zivilen Atomprogramme zu überwachen und zu kontrollieren, wie weit der Iran den Atomdeal einhält. Er bekräftigte bereits bei seinem Amtsantritt, wie entscheidend die Nutzung der Kernenergie sei. Weltweit sind laut IAEA 440 Kernkraftwerke in Betrieb und mehr als 50 weitere werden gerade gebaut – die meisten davon in Asien, den USA und Südamerika. Ein Drittel der »sauberen« Energie (Grossi) stammt aus nuklearen Quellen, die eine stabile Stromversorgung böten im Gegensatz zu Strom aus Sonne, Wind und Wasser, die nur stark schwankende Energien liefern.

Grossi verweist regelmäßig auf den weltweiten Ausbau der Atomkraft. Kein Land der Welt folgt Deutschland auf seinem Weg, radikal seine sichere Energieversorgung zu zerstören, Kraftwerke zu kappen und Atomkraftwerke in die Luft zu sprengen. Die 30.000 Windräder in der Landschaft liefern bei Flaute keinen Strom. Da hilft auch keine Verdoppelung der Anzahl.

Ungewöhnlich ist auch die Hoffnung eines Noch-Industrielandes, dass in sonnen- und windarmen Zeiten die Nachbarländer über genügend Strom verfügen, den sie nach Deutschland liefern könnten.

Gefordert ist die IAEA gerade in der Frage, wohin mit den Abwässern des bei einem Tsunami zerstörten Kernkraftwerks Fukushima Daiichi. Dort lagern in rund 1.000 Tanks mehr als 1,23 Millionen Tonnen Abwässer, die für die Kühlung der immer noch Wärme abgebenden Reaktoren benutzt wurden. Betreiber Tepco schätzt, dass spätestens in zwei Jahren der Platz für neue Tanks ausgeht. Seit längerem wird in Japan diskutiert, was mit den kontaminierten Wassermassen geschehen soll: in den Pazifischen Ozean einzuleiten oder neue Lager zu bauen.

Ein IAEA-Expertengremium hatte am Anfang dieses Jahres eine Einleitung der Fukushima-Abwässer ins Meer als weitgehend unbedenklich eingestuft. Das Wasser aus dem Reaktor durchläuft bereits aufwändige Filterstufen, in denen hochradioaktive Isotope zurückgehalten werden. Übrig bleiben Abwässer mit geringeren radioaktiven Inhalten. Mit entsprechenden Sicherheitsstandards, mit regelmäßigen Sicherheitsüberprüfungen und einem umfangreichen Monitoring-Programm sei das laut IAEA unproblematisch. Das kontaminierte Wasser würde sich sehr schnell in den gewaltigen Wassermengen des Pazifiks, die von Natur aus bereits beträchtliche Radioaktivitätsmengen enthalten, verdünnen und kein Risiko für die Umwelt darstellen.

Der Beitrag erschien zuerst bei TE hier




Klima-„Katastrophe“: Mythen, Realitäten und warum man sich Gedanken machen sollte

Es ist viel logischer anzunehmen, dass die Temperatur-Variationen auf der Erde auf natürliche Ursachen zurückzuführen sind, wie dies seit jeher der Fall war und ist, noch bevor Menschen oder Tiere auf der Erde wandelten. Wir wissen, dass wir uns von einer Kleinen Eiszeit erholen, die etwa zu der Zeit endete, als Washington in der Nähe von Valley Forge kämpfte. Diese Erwärmung hat zur Freisetzung von Kohlendioxid aus den Ozeanen geführt, das für die Begrünung der Erde in den letzten Jahrzehnten sorgte. Für das Protokoll ist festzuhalten, dass die gesamte Erwärmung der Atmosphäre seit 1880 etwa ein Grad Celsius betrug – im Gegensatz zu den Vorhersagen der von den Vereinten Nationen unterstützten Computermodelle, die von einem Anstieg von 3-4 Grad ausgehen.

Der offensichtliche Grund für die weite Verbreitung der oben erwähnten abwegigen Vorstellungen liegt darin, dass mehr als eine Milliarde Dollar pro Tag weltweit für die Förderung von Bemühungen zur Eindämmung des Klimawandels ausgegeben werden, ungeachtet der Unfähigkeit des Menschen, dies bewerkstelligen zu können. Ein großer Teil dieses Geldes wird für den Versuch ausgegeben, die Nutzung fossiler Brennstoffe zu stoppen, was im Falle, dass es jemals erreicht würde, die Zivilisation, wie wir sie heute kennen, außer in den am meisten verarmten Nationen zerschlagen würde.

Die Hauptgründe dafür, dass sich das Klima der Erde über Milliarden von Jahren hinweg ständig verändert hat, sind: Schwankungen der von der Sonne ausgehenden Strahlung, Schwankungen der Umlaufbahn und Neigung der Erde, Schwankungen der Wolkendecke, Schwankungen der Meeresströmungen, Vulkanismus, Kontinentalverschiebungen und viele andere kaum verstandene variable Faktoren. Es ist unglaublich, dass unsere Regierung Milliarden Dollar Steuergelder verbrennt, nur um den Thermostat der Erde mit ein paar unbedeutenden Variablen festzunageln, die in mathematische Computermodelle eingespeist werden, welche niemals vernünftige Antworten gegeben haben und auch niemals geben werden.

Vor der industriellen Revolution, die Anfang der 1800er Jahre begann, war die Temperatur so variabel wie heute, wobei es über viele Perioden der vergangenen 12.000 Jahre wärmer war als heute. Eingelagerte kalte Perioden machten das Leben mit einer Lebenserwartung von weniger als 30 Jahren wirklich am schwierigsten, bis fossile Brennstoffe aufkamen, um die Belastung des Menschen zu verringern. Jetzt ist in allen Teilen der Welt die Lebenserwartung unabhängig vom Klima auf über 70 Jahre gestiegen. Statt schrecklicher Katastrophen, die von Umweltaktivisten vorhergesagt wurden und werden gedeiht die Menschheit.

Der vorhergesagte sprunghafte Anstieg der Erderwärmung ist nie eingetreten, deshalb wurde er in Klimawandel umbenannt, wobei die Aktivisten nie etwas falsch machen konnten, da sich Klima und Wetter ständig ändern. Sie lagen mit der Erwärmung völlig falsch. Nach Angaben der National Oceanographic and Atmospheric Agency NOAA waren die 1930er Jahre das wärmste Jahrzehnt in den Aufzeichnungen. Diese zeigen außerdem, dass in den 1930er Jahren 23 Rekord-Höchsttemperaturen aufgetreten waren, während in den vergangenen 20 Jahren nur zwei derartige Rekorde verzeichnet wurden.

Und doch ist die wahre Apokalypse nicht die globale Erwärmung, sondern der Verzicht auf fossile Brennstoffe und Kernkraft. Dieser Verzicht muss um jeden Preis vermieden werden, wenn wir nicht unsere gesamte bisherige Lebensweise aufgeben wollen. Ohne diese Brennstoffe wird die moderne Landwirtschaft nicht mehr in der Lage sein, die Weltbevölkerung zu ernähren. Weder Windturbinen oder Sonnenkollektoren, noch die riesigen Batterien, die zur Unterstützung dieser intermittierenden Quellen benötigt werden, noch irgendetwas aus Beton oder Stahl oder vielen anderen Materialien können ohne fossile Brennstoffe hergestellt werden.

Aber man fürchte sich nicht vor lebenswichtigen Materialien oder Prozessen, die sich aufgrund von Umwelteiferern oder politischer Irrwege abspielen. Realistischerweise wird jede signifikante Reduzierung der fossilen Brennstoffe zu viel höheren Energiekosten führen, gefolgt von steigenden Preisen für alle Produkte, die wir verwenden, einschließlich Nahrung, Wasser, Transport und Wohnen. Jede Verwaltung, die solche Einschnitte versucht, wird mit Protesten der gesamten Bevölkerung konfrontiert werden, die ihr bequemes Leben wiederherstellen möchte. Diese unvermeidlichen Auswirkungen sind bereits in mehreren europäischen Ländern und Australien eingetreten, als sie versuchten, fossile und nukleare Brennstoffe einzusparen. Nur wenige von uns wünschen sich ein Leben ohne I-Telefon oder Amazon-Lieferungen, deshalb wird es amüsant sein zu sehen, wie Umweltschützer damit prahlen, in den kommenden Jahrzehnten ohne Kohlenstoff-basierte Brennstoffe zu arbeiten, während das Leben um sie herum zusammenbricht.

In der Realität hat und kann ein Wind- oder Solarkraftwerk weltweit niemals ein Kohle- oder Gaskraftwerk ersetzen, sondern muss immer ein parasitäres Anhängsel des Stromnetzes bleiben. Aufgrund ihrer Intermittenz erzeugen Wind- oder Sonnenkraftwerke nur unregelmäßige Stromstöße und belasten damit das Netz, das auch an bewölkten und windstillen Tagen eine feste Spannung und Frequenz aufrechterhalten muss. Dies kann nur erreicht werden, indem die intermittierende Wind- oder Sonnenenergie durch elektrische Energie aus fossilen Energiequellen ergänzt wird, die in der Lage sind, die Leistung schnell zu verändern.

Ein weiterer Irrsinn in Bezug auf Wind und Sonne sind die Flächen, die sie benötigen, um die gleichen 1000 Megawatt aus einem typischen fossilen Kraftwerk zu erzeugen, das weniger als eine Quadratmeile Land beansprucht. Ein vergleichbarer Windpark besteht aus über 3000 Mühlen und benötigt über 200 Quadratmeilen Landfläche. Ein vergleichbarer Solarpark würde Millionen von Paneelen benötigen, die etwa die Hälfte dieser Landfläche bedecken.

Erneuerbare-Energie-Zeloten behaupten, dass Batterien im industriellen Maßstab die Probleme der Intermittenz lösen werden, indem sie Strom aus Wind- und Solarparks speichern und dann bei Bedarf wieder zurückgeben. Batterien mit ausreichender Kapazität dafür sind heute und in Zukunft unbezahlbar. Dazu gehören sogar die Tesla-Batterien von Elon Musk, die für eine riesige Solaranlage in der Nähe von Las Vegas geplant sind. Einige solcher Batterien werden bereits in kleinerem Maßstab von Stromversorgungsunternehmen im ganzen Land installiert. Man achte einmal auf künftige Stromausfälle, die sich aus diesen fragwürdigen Projekten ergeben könnten.

Wir haben einige Zahlen zu Colorados Absicht durchgespielt, ein vollständig erneuerbarer Staat zu werden, was die Abschaltung aller Kohle- und Gaskraftwerke erfordern würde. Bei einer Bevölkerung von 6 Millionen Einwohnern würde Colorado 5,6 Megawattstunden Batteriespeicher benötigen, was über eine Billion Dollar oder etwa 167.000 Dollar pro Person kosten würde. Geht man davon aus, dass eine vierköpfige Familie mit Tesla-Batteriepacks, die alle zehn Jahre ersetzt werden müssen, angemessene Batteriespeicher benötigt, würden sich die Kosten für Batterien allein den Kosten einer Hypothek auf ein Haus mit 2 Millionen Dollar annähern. Solarenergiezuschläge mit staatlichen Zuschüssen können die Energiekosten für einige Hausbesitzer in einigen Gegenden senken, aber völlig netzunabhängig zu sein, ist entweder teuer oder ohne viele Annehmlichkeiten.

Einer der Hauptfaktoren steigender Strompreise und höherer Rechnungen der Versorgungsunternehmen ist die verstärkte Nutzung subventionierter erneuerbarer Energien. Die Betriebskosten für Kohle- und Kernkraft liegen traditionell zwischen 2 und 3 Cent pro Kilowattstunde (kWh) und Erdgas zwischen 3 und 10 Cent pro kWh, während die Windkraft mit staatlichen Subventionen zwischen 15 und 25 Cent pro Kilowattstunde liegt.

Seitdem Deutschland weitgehend von Wind- und Sonnenenergie abhängig geworden ist [?], sind die durchschnittlichen Strompreise auf über 35 Cent pro kWh gestiegen, verglichen mit US-Raten von 10 bis 13 Cent. Wenn es nicht wieder freien Märkten erlaubt wird, unsere Energieindustrie zu regulieren, ist zu erwarten, dass sich unsere Energiepreise in den kommenden Jahren unter jeder Regierung, die erneuerbare Energien fördert, ebenfalls verdoppeln und verdreifachen werden.

Heute haben 29 US-Bundesstaaten plus der District of Columbia [= Washington DC] Vorschriften für erneuerbare Energien, die Versorgungsunternehmen dazu zwingen sollen, bestimmte Prozentsätze ihres Stromes mittels erneuerbaren Energiequellen zu erzeugen. Dies ist alles andere als ein freier Energiemarkt. Nach Angaben der U.S. Energy Information Administration EIA liegen die Strompreise in den Bundesstaaten mit Erneuerbare-Energie-Vorschriften um durchschnittlich 26% höher als in den Staaten ohne. Wie viel mehr müssten wir zahlen, wenn erneuerbare Energien die einzige Quelle für unseren Strom würden?

Kohle, Öl und Erdgas waren ein gewaltiger Segen, insbesondere für Entwicklungsländer. Der weltweite Verbrauch fossiler Brennstoffe hat sich im Zeitraum von 1980 bis 2015 verdoppelt und ist sowohl in China als auch in Indien um mehr als das Fünffache gestiegen. Statt der vorhergesagten schrecklichen Klimakatastrophen stieg die Lebenserwartung in China um 15% (von 65 auf 75 Jahre) und in Indien um 34% (von 49 auf 66 Jahre); das Monatseinkommen erhöhte sich in China um 1500% und in Indien um 400%. Die Säuglingssterblichkeit sak in China um 70% und in Indien um 58%, und die Unterernährung ging in beiden Ländern während desselben Zeitraums von 35 Jahren, in dem fossile Brennstoffe im Überfluss und zu erschwinglichen Preisen genutzt wurden, um 40% zurück.

Überraschung, Überraschung: alle wichtigen Maßzahlen der US-Luft- und Wasserverschmutzung gingen in diesem Zeitraum zurück. All diese positiven Entwicklungen stehen in direktem Zusammenhang mit der Verfügbarkeit kostengünstiger Energie aus Kohlenstoff-basierten Brennstoffen. Das Kohlendioxid nahm in diesem gesamten Zeitraum weiter zu und erhöhte die Wachstumsraten unserer Wälder und Nahrungspflanzen, während es absolut keine negativen Auswirkungen auf unseren Planeten hatte. Und da ist noch mehr! In dem von uns diskutierten Zeitraum gingen die klimabedingten Todesfälle um 98% auf nahezu Null zurück. Warum? Wiederum ermöglichte es mehr verfügbare, kostengünstige Energie, mehr Menschen vor Bränden, Überschwemmungen, Stürmen usw. zu retten und zu bewahren, und die Effektivität der Krankenhäuser hat stetig zugenommen. Wenn Herr Biden die Präsidentschaft der Vereinigten Staaten beansprucht, wird die Nation leider wahrscheinlich beginnen, sich in der Zeit zurückzuentwickeln, so wie es anscheinend in Europa bereits der Fall ist.

Das Beispiel Europas ist sehr treffend. Im Juni 2000 rief die Europäische Union (EU) das European Climate Change Programme ins Leben, das den Ausbau von Wind- und Solarkapazitäten förderte. Durch Einspeisetarife wurden künstlich hohe Preise für Strom aus Wind- und Sonnenenergie festgelegt, während durch Vorschriften Prioritäten für die erneuerbaren Energien gegenüber konventionellen Quellen festgelegt wurden.

Tausende von Windmühlen wurden gebaut und installiert, Millionen von Sonnenkollektoren auf Dächer montiert, was die verschiedenen Regierungen zwischen 2000 und 2016 mehr als eine Billion Dollar kostete. Die Strompreise für Privathaushalte sind in ganz Europa in die Höhe geschossen und näherten sich sowohl in Deutschland als auch in Dänemark 40 Cent pro kWh. Sowohl für erneuerbare als auch für konventionelle Energien sind nun hohe Subventionen erforderlich, um die Lichter nicht ausgehen zu lassen. Kalifornien befindet sich bereits auf diesem Weg, unabhängig davon, wer im November das Weiße Haus beansprucht, und mehrere andere Bundesstaaten flirten ebenfalls mit dieser katastrophalen Politik gegen fossile Brennstoffe. Dies sind verrückte Zeiten, in denen brillante deutsche Ingenieure sich bücken, um sich selbst in den Fuß zu schießen. Können wir weit hinterher sein?

[Hervorhebung vom Übersetzer]

Authors: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Carl Langner is a member of the National Academy of Engineering. He received his Ph.D from the University of Florida in 1973. Carl worked as an Offshore Pipeline Engineer from 1966 to 1999 and a consulting engineer in Texas from 2000 to 2015. He currently resides in Colorado.

Link: https://www.cfact.org/2020/10/21/climate-catastrophe-summary-for-thoughtful-friends/

Übersetzt von Chris Frey EIKE




„Italien wird zum Überschwemmungsland“ – Klimaspaß mit Sciencefiles

Italien wird zum Überschwemmungsland“.

Aber 1966 zählt nicht. Damals gab es keinen Klimawandel.

Erst seit eine interessierte Gruppe von Profiteuren und Berufsüberzeugten entdeckt hat, dass man mit der Erzählung vom menschengemachten Klimawandel Geld verdienen kann, zählen Fluten. Drei waren es in diesem Jahr 2020 bislang in Italien und auf Sizilien, sie finden sich für den 16. Juli, den 13. August und den 4. Oktober. Und sie sind, wie könnte es anders sein, Ergebnis des Klimawandels. Der Klimawandel wird, so mutmaßt Kronthaler, Italien immer mehr Starkregen bringen, und immer öfter zu Überflutungen führen. Die Phantasie dieser Leute ist einfach nur morbid.


Aber die 600 Liter Regen pro Quadratmeter, die am 4. Oktober in Italien niedergegangen sind und die Regenbilanz Italiens beeinflussen, sie sind nichts im Vergleich zu Britannien. Im Oktober fielen 7,500 Kubikkilometer Wasser im Vereinigten Königreich, genug, um Loch Ness bis zum Überlaufen zu füllen.

Es ist eben alles relativ. Zwar war der Oktober im Vereinigten Königreich sehr feucht und der dritte Oktober so feucht wie keiner vor ihm seit 1891, aber das ist in Britannien keine Folge des Klimawandels, einfach ein feuchter Oktober. Selbst bei der BBC gibt es nur einen sehr verhaltenen und sehr sehr vagen Hinweis auf Klimawandel. Es gibt eben Regen auf der Insel, viel Regen und außerdem gibt es Stürme wie Alex, der den Regen am 3. Oktober nach Britannien gebracht hat. Übrigens dieselbe Sturmfront, die auch für die Überschwemmungen in Italien verantwortlich war.

Aber Klimahysteriker sind seltsame Leute. Anstatt sich zu freuen, dass ein Ereignis nicht einfach so dem Klimawandel zuzurechnen ist, stampfen sie mit dem Fuss auf und wollen auf Teufel komm’ raus, dass viel Regen, Extremwetter, wie es heute heißt, unbedingt Folge des Klimawandels ist und deshalb – man kann richtig empfinden, wie sie sich freuen – gibt es viel viel mehr Extremwetter und “Italien wird zum Überschwemmungsland”, wie unser Herr Kronthaler, der ihnen als Journalist im ARD-Studio Rom auf der Tasche liegt, verkündet.

Sein Beitrag, der neben Herz-Schmerz und einem Bericht darüber, was bei Überschwemmungen in der Regel zu beobachten ist, nicht viel an Information enthält, stellt zwei Behauptungen nicht in den Raum sondern als Gewissheit hin:

  • Der Klimawandel mache Italien immer nässer: Das Land gehe unter, die Italiener saufen ab, und dass dem so sei, dass sehe man daran,
  • dass in der European Severe Weather Database 2009 300 Extremwetter-Phänomene, 2019 aber bereits 1.600 Extremwetter-Phänomene gezählt wurden.

Also, wir wissen ja nicht, wie es Ihnen geht, aber wir werden immer stutzig, wenn sich “Mutter Natur” die Mühe macht, Extremwetter pro Jahr so zu liefern, dass es in glatten Zahlen in 300 und 1600 gemessen werden kann. Und weil schon Lenin wusste, dass Kontrolle besser ist als Vertrauen, haben wir uns bei der European Severe Weather Database ein wenig umgesehen. Nun, was glauben Sie, haben wir dort gefunden?

Keine Überschwemmungen.
Die Datenbank enthält keine Daten zu Überschwemmungen.

Die Datenbank enthält Daten zu:

  • Trichterwolken;
  • Starkregen;
  • Hagel;
  • heftiger Wirbelwind;
  • weniger heftiger Wirbelwind;
  • heftiger Schneefall;
  • Eisbildung;
  • Lawinen;
  • Blitzeinschlag

Extremwetter ist also deutlich mehr als Überschwemmung. Überschwemmung ist nicht immer das Ergebnis von Starkregen. Aber Starkregen wird in der Datenbank erfasst. Für jedes Jahr, wohl ziemlich verlässlich seit 2009. In den einzelnen Jahren seit 2009 wurde die folgende Menge von Starkregen-Ereignissen erfasst. Die Datenreihe reicht bis zum 22. Oktober 2020.

Wie man sieht, hat die Anzahl der Starkregen-Ereignisse in Italien leicht zugenommen. Seit 2009 ist sie um jährlich rund 8 Ereignisse gestiegen. Das ist eine vollkommen andere Aussage als die, die Kronthaler wohl mit der Absicht, die Flammen der Hysterie anzufachen, verbreitet. Der Anstieg der Extremwetterereignisse von 300 im Jahr 2009 auf 1600 im Jahr 2019 lässt sich für Starkregen nicht nachvollziehen. Er lässt sich auch ansonsten nicht nachvollziehen, denn für das Landesgebiet von Italien finden sich für 2019 lediglich 24 Tornados und 334 Fälle von Starkregen, keine 1.600 Extremwetterereignisse.

Ob Herr Kronthaler schlecht recherchiert oder schlecht lügt, das wissen wir nicht. Tatsache ist: Es gibt über dem Festland von Italien in 2019 keine 1.600 Extremwetterereignisse in der Datenbank von ESWD.

Die Datenbank weist einen sehr leichten Anstieg von Starkregen-Fällen aus, 8 mehr pro Jahr im Durchschnitt. Und das ist gut für Italien, denn Italien, so weiß man bei der European Environmental Agency ist durch Klimawandel bedroht. Indes führt der Klimawandel, den die European Environmental Agency beschwört, nicht zu Überschwemmung, sondern zu Trockenheit. Vielleicht bespricht sich Herr Kronthaler mit den “Experten” der EEA für seinen nächsten Text, den er sicher den Lesern der Tagesschau zumuten wird. Doch zurück zur EEA:

Die Abbildung zeigt die Entwicklung von Überschwemmungen, die von Flüssen verursacht werden, für den Zeitraum von 1960 bis 2010. Wie man sieht, gehören mit Ausnahme von wenigen Bereichen im Norden von Italien alle Landesteile zu den Landesteilen, in denen von 1960 bis 2010 die Anzahl der Überschwemmungen zurückgegangen ist.

“Figure 1 shows observed trends in mean annual river flood discharge in medium and large catchments in Europe over the period 1960–2010. The analysis is based on the European Flood Database, which is the most complete database on flooding available for Europe so far. The figure and the underlying analysis shows that climate change has both increased and decreased river floods in Europe. Specifically, river floods increased in northwestern and parts of central Europe, caused by increasing autumn and winter rainfall; decreased in southern Europe, caused by decreasing precipitation and increasing evaporation; and decreased in northeastern Europe, caused by decreasing snow cover and snowmelt. “

Der Klimawandel schafft somit das Wunder, gleichzeitig für mehr und für weniger Überschwemmungen zu sorgen und er führt dazu, dass man bei der ARD hofft, Italien gehe in den Fluten von Arno und Tiber unter. Tatsächlich zeigen die Daten seit 2009 einen moderaten Anstieg, der, wenn man in Rechnung stellt, dass die Anzahl der Überschwemmungen seit 1960 offenkundig und wie die Abbildung der EEA zeigt, in Italien zurückgegangen ist, wohl eher als eine Rückkehr zur früheren Häufigkeit von Überschwemmungen darstellt, wobei früher die Zeit ist, die vor der Erfindung des menschengemachten Klimawandels liegt, die Zeit, in der die Konzentration von CO2 in der Atmosphäre zu gering war, als dass man sie für die Häufigkeit von Starkregen, zu der wir wieder zurückkehren, hätte verantwortlich machen können.

Mit Dank übernommen von Sciencefiles


Featured Image: Flood in Florence 1966


Eine Spende für ScienceFiles ist eine Spende für Information.
Bitte unterstützen Sie uns, damit wir auch morgen noch, die Falschmeldungen der ARD richtig stellen können.

Vielen Dank!



Folgen Sie uns auf TELEGRAM




EEG-Novelle 2021 : Notstandsgesetz ohne Notstand*

Fast ohne mediales Echo hat das Bundeskabinett am 27. September den vom Bundesministerium für Wirtschaft und Energie vorgelegten Entwurf für die bis 2030 gültige Novelle des Erneuerbare-Energien-Gesetzes (EEG-Novelle 2021) verabschiedet. Kommenden Freitag wird die Gesetzesnovelle in erster Lesung im Bundestag beraten und anschließend an den Ausschuss für Wirtschaft und Energie überwiesen. Kaum Zeit bleibt also für die Prüfung der Anliegen von Verbänden aus insgesamt 141 Stellungnahmen, da die Novelle bereits am 1. Januar 2021 in Kraft treten soll.

Alles wäre lautlos über die Bühne gegangen, hätte nicht die „Welt“ am 11. Oktober eine Bombe platzen lassen. „Die Errichtung von Anlagen zur Erzeugung von Strom aus erneuerbaren Energien liegt im öffentlichen Interesse und dient der öffentlichen Sicherheit“, lautet ein Passus der Gesetzesnovellierung.

Damit ist klargestellt, dass der Windindustrie künftig ein rechtlicher Vorrang gegenüber dem Natur- und Umweltschutz und den Belangen der Bürger eingeräumt werden soll. Insinuiert wird, dass sich der Klimawandel ohne einen fortlaufend starken Zuwachs der Windstrom-Produktion ausgerechnet in Deutschland, wo im Verhältnis zur Landfläche die weltweit höchste Windstromleistung installiert wurde, verstärken werde. Andernfalls sei die öffentliche Sicherheit gefährdet.

Umweltschützer bezeichnen das Vorgehen der Bundesregierung als „Lizenz zum Töten“. Der FDP-Abgeordnete Lukas Köhler äußerte gegenüber der „Welt“ die Befürchtung, dass die EEG-Novelle das demokratische Beteiligungsverfahren und die Akzeptanz gefährden könnten, denn: „Ohne die Bevölkerung ist keine Energiewende zu machen.“

„Lizenz zum Töten“

Auch der Deutsche Industrie- und Handelskammertag (DIHK) fordert von der Bundesregierung Aufklärung darüber, welche Konsequenzen durch diese Richtlinie in der Praxis zu erwarten sind. Offenbar soll der Deutsche Bundestag ein Notstandsgesetz absegnen, obwohl überhaupt kein Notstand besteht. Durch das heutige Stromerzeugungs- und Speicherungssystem ist eine umweltfreundliche, flexible und effiziente Elektrizitätsversorgung bereits garantiert. Insofern bietet die offenkundig von der Windindustrie diktierte Klausel eine breite Angriffsfläche für rechtlichen Einspruch.

Verspätet und verhalten reagierten die Medien auf die inhaltsschwere EEG-Novelle. Bei der Berichterstattung des Norddeutschen Rundfunks (NDR) beispielsweise dienten der Vermittlung brisanter Inhalte Schlagworte wie „Planungserleichterungen“ und „mehr Bürgerbeteiligung“. Letzteres zielt auf ein vom Wirtschaftsministerium eingesetztes „Instrument für mehr Akzeptanz des weiteren Ausbaus der erneuerbaren Energien“. Dabei handelt es sich um das Angebot einer finanziellen Beteiligung der Kommunen an den Erträgen neuer Windparks als Gegenleistung für die Durchsetzung von Baugenehmigungen.

Das Lockmittel könnte dazu führen, dass sich die vielerorts schon bestehenden Gräben zwischen Windkraftbefürwortern, meist persönlich Profitierenden, und Windkraftgegnern durch das ganze Land ziehen. Die EEG-Novelle hat das Potenzial einer Projektionsfläche für bereits verbitterte Bürger, aber auch für eine beschleunigte Landflucht, welche die Bundesregierung eigentlich aufhalten wollte.

Versagen der Medien

Während der geplante starke Ausbau der Offshore-Windenergie vom NABU kritisiert wird, weil damit ernst zu nehmende Risiken für die Meeresumwelt einhergehen, dürften die neuen Zielvorgaben für den Windstrom an Land für erhebliche Unruhe in den Gemeinden sorgen. Offshore will die Bundesregierung bis 2030 15 Gigawatt (GW) Erzeugungskapazitäten installieren.

Derzeit sind bereits 7,35 GW Offshore-Leistung in Betrieb. An Land soll der Anteil der Erneuerbaren Energien am Bruttostromverbrauch bis 2030 auf 65 Prozent steigen. Ab 2050 soll der gesamte in Deutschland verbrauchte Strom treibhausgasneutral erzeugt werden. Vorgegeben sind bis 2030 71 GW Windkraft an Land (derzeit noch 54 GW), 100 GW Photovoltaik und 8,4 GW Biomasseanlagen-Kapazität.

Für Windkraft an Land werden die Ausschreibungsmengen Jahr für Jahr erhöht. So sind für 2025 an zu installierender Windstromleistung 3200 Megawatt (MW) als Sollwert vorgegeben, für 2028 bereits 5800 MW. Damit bildet der sogenannte Ausbaupfad eine Erhöhung der installierten Gesamtkapazität der Windkraft an Land real und netto um eineinhalb bis zwei GW pro Jahr bis 2030 ab.

Grundlage der Ausbauziele ist die Annahme des Wirtschaftsministeriums, dass der Stromverbrauch in zehn Jahren bei 580 Terawattstunden liegen wird, und damit in etwa so hoch wie heute. Viele Experten gehen jedoch von einem deutlich höheren Verbrauch aus.

=================================================================

)*  Anmerkung der EIKE-Redaktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung;  23. Oktober 2020, S.4; EIKE dankt der PAZ-Redaktion sowie der Autorin Dagmar Jestrzemski  für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln :   https://www.preussische-allgemeine.de/

=================================================================




EIA prognosti­ziert Energie-Wiederbe­lebung nach Covid

Der Einfluss von Covid ist tritt eindeutig hervor in Gestalt eines reduzierten Energieverbrauchs in den USA im Jahre 2020. Der EIA zufolge sieht es im nächsten Jahr 2021 wesentlich besser aus. Zusammengefasst lautet das Ergebnis:

Der kurzfristige Energieausblick (STEO) vom Oktober ist nach wie vor mit einem erhöhten Maß an Unsicherheit behaftet, da sich die Bemühungen zur Eindämmung und Wiedereröffnung des COVID-19-Problems ständig weiterentwickeln. Die verringerte Wirtschaftstätigkeit im Zusammenhang mit der COVID-19-Pandemie hat zu Veränderungen bei der Energienachfrage und den Energieversorgungsmustern im Jahr 2020 geführt und wird diese Muster auch in Zukunft beeinflussen. Dieser STEO geht davon aus, dass das Bruttoinlandsprodukt (BIP) der USA in der ersten Hälfte des Jahres 2020 um 4,4% gegenüber dem gleichen Zeitraum vor einem Jahr zurückgegangen ist. Sie geht davon aus, dass das BIP ab dem dritten Quartal 2020 steigen wird und im Jahr 2021 um 3,5% gegenüber dem Vorjahr wachsen wird“.

Den stärksten Einbruch verzeichnete die Kohle, aber es wird erwartet, dass sie sich wieder erholt. Neben der geringeren Nachfrage ist der Kohlebergbau arbeitsintensiv. Der prognostizierte Anteil der Kohle an der Stromerzeugung sank von 24% im Jahr 2019 auf 20% im Jahr 2020 und soll dann 2021 wieder auf 24% zurückkehren. Es wird erwartet, dass auch die Erdgaspreise steigen werden, was zu einem höheren Kohleverbrauch führen wird. Die Gaspreise waren zuletzt sehr niedrig.

Sie sagen: „Die EIA geht davon aus, dass die gesamte US-Kohleproduktion im Jahr 2020 bei 525 Millionen Short-Tonnen (MMst) liegen wird, verglichen mit 705 MMst im Jahr 2019, was einem Rückgang von 26% entspricht. COVID-19 und Bemühungen, diesen Rückgang abzuschwächen, haben zusammen mit der geringeren Nachfrage aus dem US-Elektrizitätssektor inmitten niedriger Erdgaspreise zur Stilllegung und Schließung von Bergwerken beigetragen. Die EIA geht davon aus, dass die Produktion bis 2021 auf 625 MMst ansteigen wird, was einem Anstieg von 19% gegenüber 2020 entspricht. Dieser prognostizierte Anstieg reflektiert die steigende Nachfrage nach Kohle von US-Stromerzeugern aufgrund der höheren Erdgaspreise im Vergleich zu 2020“.

Man beachte, dass immer noch weit über eine halbe Milliarde Tonnen Kohle pro Jahr verbrannt wird. Prognosen über das Sterben der Kohle sind sehr verfrüht. Unsere bei weitem größte Energiequelle ist eine Mischung aus Kohle und Gas, die sich mit den Preisen verändert.

Es gibt auch eine Menge Daten im Zusammenhang mit dieser Pandemie der grünen Dummheit, dem Grünen New Deal. Hier sind ein paar Beispiele:

[Hervorhebung vom Übersetzer]

Wind ist immer noch eine geringe Energiequelle und die Sonne eine noch geringere. Beide weisen große Wachstumszahlen auf, aber das liegt daran, dass es am Anfang so wenig gibt. Als Maßstab dienen hier einige Vergleiche.

Die Erzeugung von Windenergie entspricht heute der Wasserkraft mit einem Anteil von etwa 7 % an der Gesamtenergie. Die Solarenergie steht fast an letzter Stelle, verbunden mit Biodiesel. Nur Bioabfälle erzeugen weniger Strom. Das Verbrennen von Holz ist immer noch eine größere Energiequelle als die Solarenergie. Unterdessen stagniert die Kernenergie mit etwas mehr als 20%.

Kurz gesagt, die komplette Umstellung auf Wind- und Sonnenenergie bedeutet im Grunde genommen, alle unsere derzeitigen Stromquellen vollständig zu ersetzen. Wenn wir dann auch noch alle Fahrzeuge und die gesamte Heizung auf Strom umstellen, müssen wir nicht nur unsere derzeitigen Stromquellen ersetzen, sondern sie fast verdoppeln.

Apropos Heizung: In der UVP wird die Anzahl der Wohnungen nach Wärmequelle aufgelistet. Fossile Brennstoffe dominieren, vor allem in den kälteren Regionen, wo man die meiste Wärme benötigt.

Zum Beispiel gibt es im kalten Nordosten etwa 18 Millionen Haushalte, die Erdgas, Heizöl oder Propan verbrennen, während nur 3,5 Millionen mit Strom heizen. Im kalten Mittleren Westen gibt es etwa 20 Millionen mit fossilen Brennstoffen und nur 6 Millionen mit Strom. Nur im milden Süden schlägt die Elektrizität die fossilen Brennstoffe.

Insgesamt gibt es über 70 Millionen Haushalte, die elektrifiziert werden müssten. Bei durchschnittlichen Kosten von, sagen wir, 10.000 Dollar pro Haushalt sind das über 700 Milliarden Dollar. Hinzu kommen die Kosten für ein neues Netz und die Stromerzeugung, um all diesen zusätzlichen Strom zu liefern.

Dies ist nur ein kleiner Einblick in die mehr als 50 Seiten UVP-Daten, die meisten davon in leicht lesbaren Diagrammen und Tabellen. Die gute Nachricht ist, dass sie eine stetige Erholung aus der Covid-Pandemie prognostizieren. Außerdem gibt es zahlreiche Erkenntnisse darüber, was für eine enorme Verschwendung der Grüne New Deal wäre.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html. For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ available for confidential research and consulting.

Link: https://www.cfact.org/2020/10/15/eia-predicts-energy-recovery-from-covid/

Übersetzt von Chris Frey EIKE




Windmühlen richten unter Vögeln schreckliche Massaker an

Als junger Feldökologe war ich Zeuge, wie zahlreiche Vögel nach Kollisionen im ruhigsten Sonderschutzgebiet für Vogelschutz im Alentejo, Portugal, zu Tode gekommen waren, und habe diese Todesfälle näher untersucht. In meiner Magisterarbeit ging es darum, die Kollisionsmortalität von Vögeln mit künstlichen Strukturen (insbesondere elektrischen Leitungen und Zäunen) zu bewerten, weshalb ich detaillierte Studien über die Anfälligkeit von Vögeln für künstliche Strukturen und die daraus resultierenden Auswirkungen auf Brut, Zug und Gesamtüberleben durchführen musste.

Für mich und viele andere Naturschützer ist es keine Überraschung zu hören, dass Windturbinen Vögel töten. In einer Welt, in der die Windenergie als der Retter propagiert wird, sind viele jedoch nicht bereit, diese schmutzige Tatsache über Windturbinen zu akzeptieren.

Aber es ist an der Zeit anzuerkennen, dass Windenergie nicht grün und sauber ist. Es mag für manche Leser absurd oder schockierend klingen, aber das ist die Realität, und die Fakten bestätigen diese unbestreitbare Wahrheit.

Das Offensichtliche wird verschwiegen: Windturbinen sind Vogelmörder

Naturschützer hassen Windkraftanlagen wegen ihrer berüchtigten Rolle als Vogelkiller, eine Tatsache, die in den Nachrichtenmedien nur sehr selten erwähnt wird.

Die Erneuerbare-Lobby argumentiert dagegen, dass es viele Ursachen für die Vogelmortalität gibt und dass der Beitrag von Windkraftanlagen zur Mortalität ziemlich unbedeutend ist. Diejenigen, die tatsächlich Bodenarbeit zum Schutz dieser Vögel leisten – Biologen, Vogelschützer, Wildtierökologen und gemeinnützige Organisationen – stimmen diesem Argument jedoch nicht zu.

Nach Ansicht von Experten stellen Windkraftanlagen ein erhebliches Risiko für Vögel dar, insbesondere für große Greif-, Raub- und Zugvögel. Selbst in einem Lebensraum von sehr hoher Qualität verursachen Windkraftanlagen einen unverhältnismäßigen Anstieg der Kollisionssterblichkeit. Neben direkten Verletzungen und Todesfällen verursachen Windkraftanlagen auch einen Verlust an funktionellem Habitat für Zugvögel im Segelflug, was zu erheblichen Schäden an Schwärmen führt.

In den USA ist sich die Regierung des Potenzials von Windturbinen, Vögel in großer Zahl zu töten, durchaus bewusst. So sehr, dass den Windkraftbetreibern Quoten für das Töten von Vögeln zugeteilt wurden, die die Anzahl der Vögel angeben, die der Windkraftbetreiber in einem Jahr töten darf.

Es ist eine Tatsache, die so gut bekannt ist, dass Forscher nicht mehr darüber nachdenken, ob Windturbinen töten oder nicht. Sie sind dazu übergegangen, sich mit der Frage zu befassen, wie diese Todesfälle minimiert werden können, und Lösungen für effizientere Wege zur Berechnung der Kollisionssterblichkeitsraten zu finden. Länder wie Indien planen sogar die Einführung von Richtlinien zum Schutz von Vögeln vor Windkraftanlagen.

In einer Studie aus dem Jahr 2019 wurde geschätzt, dass Windturbinen das Leben und den Lebensraum von jährlich etwa 150.000 Vögeln in den USA beeinträchtigen. Die Zahlen werden jedoch nur noch höher werden, da mehr Windturbinen in den USA installiert werden (die installierte Windenergiekapazität in den Vereinigten Staaten hat sich von 2012 bis 2020 verdoppelt). Die American Bird Conservancy sagt voraus, dass, wenn 20 Prozent der Elektrizität des Landes durch Windkraft erzeugt wird, bis 2030 mindestens eine Million Vögel pro Jahr getötet werden könnten.

Dasselbe gilt auch in anderen Teilen der Welt. Eine Studie über 125 Windturbinen in Äthiopien ergab, dass sie für das Sterben von mindestens 35 verschiedenen Vogelarten verantwortlich waren. Eine ähnliche 4-Jahres-Studie in einem südafrikanischen Windpark ergab, dass 130 verschiedene Arten in dem Windpark getötet wurden, mit einem Potenzial, in den kommenden Jahren 50 weitere Arten zu töten. Unter den getöteten Arten befanden sich zwei in Südafrika endemische Arten: Kapgeier und Wiesenweihe.

In Deutschland, der Heimat der Hälfte der weltweiten Brutpopulation der Rotmilane, ist die Kollisionssterblichkeit dieser Vögel sehr hoch. In Spanien bewiesen Studien zur Kollisionsmortalität zwischen 1993 und 2003, dass es „keine langfristigen zeitlichen Veränderungen in den Reaktionen der Vögel auf Windparks gab, was bedeutet, dass sich die Vögel nicht an die Anwesenheit von Turbinen gewöhnt haben“. Dies wiederum bedeutet, dass Windparks eine existenzielle Bedrohung für die Vögel darstellen werden, bis sie stillgelegt und entfernt werden.

[Hervorhebung vom Übersetzer]

Einige haben vorgeschlagen, dass Windkraftanlagen gestoppt werden könnten, sobald sich Vogelschwärme ihnen nähern, um so die Kollisionssterblichkeit zu verringern. Neue Studien zeigen jedoch, dass das Kollisionsmortalitätsrisiko für Vögel durch Windkraftanlagen gleich bleibt, unabhängig davon, ob sich die Rotorblätter bewegen oder nicht.

Windparks töten auch Seevögel über dem Meer

Eine kürzlich durchgeführte Studie über Offshore-Windparks (im Meer) ergab, dass Windparks 1) als visueller Anreiz wirken, der zu einer Ausweich-Reaktion führen kann oder auch nicht, 2) zu einem Verlust oder einer Veränderung des physischen Habitats oder des Lebensraumes führen kann und 3) Todesfälle durch Kollisionen verursachen.

Die Studie kam zu dem Ergebnis: „Einzelne Windparks können geringfügige Auswirkungen auf die Umwelt haben, aber insgesamt gesehen können viele dieser Entwicklungen, insbesondere die Ausbreitung von Individuen aus einer wandernden Vogelpopulation entlang der gesamten Länge ihres Migrationskorridors, erhebliche Auswirkungen haben. Dieser Effekt kann weit größer sein als die Summe der einzelnen Teile, die für sich allein wirken, insbesondere, wenn er sich nachteilig auf die Fitness vieler Individuen auswirkt“.

Letzte Woche äußerte die prominenteste Naturschutzorganisation des RSPB-Europe, die sich seit 1889 für den Vogelschutz einsetzt, Bedenken hinsichtlich des von der britischen Regierung vorgeschlagenen Ausbaus von Offshore-Windmühlen.

Gareth Cunningham, der Hauptverantwortliche für Meerespolitik der RSBP, kommentierte: „Gebiete, die sich für die Entwicklung von Windparks eignen, sind zufällig auch Futtergebiete für diese Seevögel. Sie könnten auch als Barriere im Hinblick auf visuelle Auswirkungen wirken. Seevögel werden Windparks in Futtergebieten umfliegen, so dass sie mehr Energie verbrauchen und während der Nistsaison längere Zeit vom Nest entfernt sind. Letztendlich erhöht sich dadurch die Wahrscheinlichkeit, dass ein Küken verhungert, und so sehen wir in jedem Jahr eine Verringerung der Anzahl der Küken“.

Hört mit dem Leugnen auf und tut endlich was: Beseitigt die Windparks!

Die Massenmedien mögen das Blut auf den Rotorblättern leugnen, aber es ist eine allgegenwärtige Gefahr für die Schutzbemühungen, insbesondere für die Arten, die für die Erhaltung von Bedeutung sind.

Echte Naturliebhaber und diejenigen, die die Naturschutzbemühungen zur Rettung der Vögel von ganzem Herzen unterstützen, werden die Warnungen des Wissenschaftlers beherzigen. Sie werden sich für den Vogelschutz einsetzen und die verhängnisvolle Förderung der Windenergie trotz der nachgewiesenen Tötung von Vögeln als saubere Energiequelle verurteilen.

Es ist an der Zeit, dass wir uns als Gesellschaft den unbequemen und unausweichlichen Wahrheiten über Windkraftanlagen stellen. Die Lösung ist jedoch einfacher als wir denken: man folge den Wissenschaftlern und halte die Lebensräume und Zugrouten der Vögel frei von Windenergieentwicklungen.

[Hervorhebung vom Übersetzer]

Autor: Vijay Raj Jayaraj (M.Sc., Environmental Science, University of East Anglia, England), is an Environmental Researcher based in New Delhi, India. He served as a Graduate Research Assistant at the University of British Columbia, Canada and has worked in the fields of Conservation, Climate change and Energy.

Link: https://www.cfact.org/2020/10/23/wind-turbines-take-a-terrible-toll-on-birds/

Übersetzt von Chris Frey EIKE




Sondermüllberge: Wohin mit gebrauchten Lithium-Akkumulatoren?

Wie lange hält ein Auto? Vor 50 Jahren im Schnitt nur acht Jahre; heute immerhin an die 20. Das gilt allerdings nur für die Modelle mit Kolben-Verbrennungsmotor. Wie lange werden E-Autos halten? Meine Waschmaschine, eine einfache von Quelle, dreht sich nach 22 Jahren immer noch zuverlässig. Der Motor ist also nicht das Problem. Wohl aber die Traktionsbatterie auf Lithium-Kobalt-Basis mit meist unbekanntem organischen Elektrolyten, der viel zu gerne Feuer fängt und nach Beschädigung in einem Großbehälter mit Wasser dauergekühlt werden muß, wir berichteten.

Das Wasser enthält bei Auslaufen Substanzen, die niemand im Grundwasser oder Boden haben will, auch nicht Elon Musk oder Angela Merkel. Trotzdem wird in Grünheide bei Berlin gerade eine Gigafaktorei aus dem Boden gestampft, die jährlich 500.000 Luxuswagen der Marke Tesla ausstoßen soll. Jeder der Stromer wird mindestens rund 500 Kilogramm Akku an Bord haben. Rechnen wir: Das macht 250.000 Tonnen Traktionsbatterien jedes Jahr- Minimum!

Für die es kein bekanntes und überzeugendes Entsorgungskonzept gibt, wie der Fall des havarierten Teslas in Tirol zeigte. Das Problem ist von den Windrädern bekannt, die durch die Energiewende der Regierung Schröder/Fischer ab 2.000 eingeführt wurden. Seitdem wurde die deutsche Landschaft 20 Jahre lang mit Zehntausenden Turbinen vollgestellt, ohne gleichzeitig ein Konzept zu entwickeln, die nicht rezyklisierbaren Flügel aus verklebtem Verbundstoff naturschonend zu entsorgen. Läuft die Förderung aus, werden die Windräder abgebaut und die Flügel vor Ort gelagert oder bei der einzigen kompetenten deutschen Entsorgungsfirma in Bremen verarbeitet.

20 Jahre hält so ein Akku erfahrungsgemäß nicht; nach weniger als zehn Jahren ist auch bei Lithium Schluß. Sinkt die Kapazität unter ein annehmbares Maß, werden die Akkus ausgebaut und … tja…gelagert? Oder kann Tesla, das selber herstellt, die Inhaltsstoffe wiederverwenden? Eher nicht, Lithiumsalze werden trotz der extrem naturzerstörenden Gewinnung in der Atacama etc. meist verklappt. Der Raubbau ist viel billiger als die Rezyklisierung.

Allein der Ausbau des Akkus wird spaßig: Da die Elektrochemie nur 10% der Speicherkapazität von Benzin (usw.) hat, wird ein Tesla mit vielen Zellen regelrecht vollgestopft. Jeder größere freie Raum wird genutzt.

Auch aus Sicht von Klimarettern ist ein Akku-Auto sinnlos: Studien zeigen, daß pro Kilowatt-Stunde Kapazität mindestens 145 kg CO2-Äquivalente ausgestoßen werden (eine Batterie hat z.B. 75 kWh). Rechnet man die Entsorgung mit ein, verursacht so ein Akku nach zehn Jahren und 15.000 km per annum mindestens 73 Gramm an CO2-Äquivalent – pro Kilometer. Da ist ein moderner deutscher Diesel nicht wirklich schlechter, im Gegenteil (siehe Hans-Werner Sinns Studie).

Nicht enthalten in dieser Kalkulation ist die Tatsache, daß auch der Strom von Windrädern alles andere als CO2-neutral ist. Die Säulen der Turbinen bestehen aus rund 8.000 Tonnen Stahlbeton/Stahl, das zum Teil für immer im Boden als Fundament versenkt wird (Bsp. 3 MW-Windrad). Das Windrad muß also mindestens fünf Jahre in Betrieb sein, bis sich nur der CO2-Ausstoß der Betonproduktion amortisiert hat.

Zurück zur Traktions-Batterie. Nicht nur die Wiederverwendung bereitet Kopfzerbrechen; in China z.B. fallen jährlich bereits 170.000 Tonnen Produktionsabfall an. Welches Konzept haben die Hersteller, die mit Umweltfreundlichkeit ihrer Produkte werben, für die naturschonende Entsorgung? Die Internetseite unser-mitteleuropa.com liefert die Antwort einer nicht konkret benannten Anfrage. Danach sollen laut Hersteller alte Akkus als Teile neuer Schnelladestationen dienen; vermutlich als Kurzzeitspeicher, um die Leitungen vor Überlast zu schützen. Wenn aber die alten Akkus verringerte Kapazität haben, wieviele will man dann nutzen? Sollen unter jeder Station zehn Tonnen Akku vergraben werden?

Ansonsten sollen die Akkus nach der Vorschrift von 2006 entsorgt werden, die sich allerdings auf Schwermetall-Batterien mit anorganischer Säure als Elektrolyt bezieht. Wie die organischen (brennbaren) Lithium-Kobaltzellen ordentlich zu entsorgen sind, bleibt offen. Bislang sind nur experimentelle Verfahren mit viel Energieverbrauch bekannt.

Was wird also in den nächsten 20 Jahren in Tesla-Land Deutschland zu erwarten sein? Man darf mit großen Lagern alter Traktionsakkus rechnen, die ihrer Entsorgung harren, welche aus thermodynamisch-chemischen und vor allem Kostengründen nur schleppend in Gang kommt.

Zur Erinnerung: Tesla hat noch nie wirklich Geld verdient. Musk hat bislang Milliarden Dollar an Subventionen in den USA abgegriffen, zu denen sich weitere Milliarden Euro Steuergelder aus Berlin gesellen werden. Trotzdem verkauft der umtriebige Technik-Blender weniger Wagen als zum Beispiel Lada.

Gut so. Ich würde mir auch lieber einen Russen kaufen als den „fahrenden Elektroschrott“, wie einer unserer Leser es so pittoresk ausdrückte.




UN: Klima-Katastrophen haben sich verdoppelt – wirklich?

[Es folgt ein Ausschnitt aus diesem Report mit vielen Zahlen, auf dessen Übersetzung hier verzichtet wird, zumal der Autor dieses Beitrags weiter unten darlegt, wie haltlos das Ganze ist. – Anm. d. Übers.]

Verdoppelung von Naturkatastrophen – das ist schlecht. Die Schlussfolgerung basiert auf der International Disaster Database EM-DAT (1). Darin finden sich im Zeitraum 1900 bis 2020 22.000 Katastrophen [mass disasters] weltweit.

Die Behauptung ist so plakativ, dass dies eine gründlichere Analyse der Originaldaten erfordert. Jeder kann auf die EM-DAT-Datenbank zugreifen, indem er sich als EM-DAT-Nutzer registriert. Für gemeinnützige Organisationen ist der Zugang kostenlos, also schauen wir doch einfach mal.

Nach der Zulassung als Nutzer der EM-DAT-Datenbank konnte ich die gesamte Datenbank der Katastrophen zwischen 1900 und 2020 herunterladen. Indem ich einfach Naturkatastrophen auswählte, erhielt ich die Excel-Datei mit 15.564 einzelnen Katastrophen, jede als eine Zeile in der Excel-Datei. Die Daten enthalten bis zu 43 verschiedene Informationsspalten für jede Katastrophe – bei den meisten Katastrophen enthält jedoch nur weniger als die Hälfte der Spalten Daten.

Beginnen wir mit einem Diagramm der Anzahl der Katastrophen pro Jahr zwischen 1900 und 2020:

Abbildung: Alle Naturkatastrophen weltweit in der EM-DAT-Datenbank

Es ist leicht zu erkennen, woher die UN-Behauptung kommt. Tatsächlich haben die Naturkatastrophen in den Jahren 2000-2019 im Vergleich zu den Jahren 1980-1999 erheblich zugenommen. Aber gleichzeitig sehen wir den ersten Hinweis auf das, was falsch ist: Es gibt einen allmählichen Anstieg der Naturkatastrophen vom Niveau der 1940er Jahre auf das heutige Niveau. Wenn Sie diese Art von Daten sehen, ist die erste Frage die Berichterstattung: Wie wirkt sich die verbesserte Berichterstattung und Datenerhebung auf den Datenbestand aus?

Lassen Sie uns die Anzahl der Länder, die zwischen 1900-2020 mindestens eine Naturkatastrophe pro Jahr melden, darstellen:

Abbildung: Länder, die jedes Jahr mindestens eine Naturkatastrophe melden

Aus der Liste der Länder, die mindestens eine Katastrophe gemeldet haben, geht hervor, dass die Zahl der meldenden Länder im Laufe der Jahre enorm gestiegen ist. Auch die graphische Darstellung ist der Gesamtzahl der früher erfassten Naturkatastrophen sehr ähnlich.

Im Jahr 1901 waren beispielsweise nur zwei Länder in der Datenbank enthalten (Japan und Uganda), während im Zeitraum 2000-2019 die Zahl der jährlich Bericht erstattenden Länder bei etwa 120 lag. Selbst in den neuen Daten gibt es viel weniger Länder als es Länder in der Welt gibt, so dass wahrscheinlich selbst in den Jahren 2000-2019 die tatsächlichen Naturkatastrophen ziemlich stark unterrepräsentiert sind.

Zur weiteren Analyse der Ergebnisse in der UNO-Studie sind die Jahre 1980-2019 von besonderem Interesse. Es zeigt sich eine deutliche Zunahme der meldenden Länder zwischen 1980 und 2000. Danach ist die Zahl ziemlich konstant. Man könnte denken, dass dies auf Veränderungen wie den Bruch der Sowjetunion in viele verschiedene Länder zurückzuführen ist, also lassen Sie uns die Sowjetunion eingehender analysieren:

Abbildung: Naturkatastrophen in der Sowjetunion für jedes Jahr zwischen 1900-1991

Wie man sieht, war die Sowjetunion nicht der transparenteste Berichterstatter für Naturkatastrophen in der EM-DAT-Datenbank, und die Zunahme der Länder, die in den 1990er Jahren über Naturkatastrophen berichteten, ist nicht das Ergebnis der Auflösung der Sowjetunion. Und wie hoch ist die Wahrscheinlichkeit, dass ein Land von der Größe der Sowjetunion nur 1-2 Naturkatastrophen pro Jahr zu verzeichnen hat? Man kann leicht den Schluss ziehen, dass diese Datenbank nur einen kleinen Teil der tatsächlichen Naturkatastrophen enthält, die in der Sowjetunion passiert sind. Allein die Waldbrände sollten jedes Jahr Dutzende von gemeldeten Vorfällen ausgemacht haben.

Übrigens scheint das gleiche „Problem“ der Nichtmeldung von Katastrophen alle Länder des ehemaligen Ostblocks zu betreffen, haben doch fast alle von ihnen nach dem Zusammenbruch des Sowjetblocks 1991 einen enormen Anstieg von Naturkatastrophen in der Datenbank. Jugoslawien zum Beispiel meldete 0-2 Naturkatastrophen pro Jahr, aber Serbien allein meldet mehr. Es liegt auf der Hand, dass die Aufnahmekriterien zwischen der Zeit vor und nach Jugoslawien nicht vergleichbar sind.

Was ist mit China? China wurde im UN-Bericht ausdrücklich als ein Land mit einer erheblichen Zunahme von Naturkatastrophen erwähnt:

Abbildung: Naturkatastrophen in China für jedes Jahr zwischen 1900-2020

Man sieht, dass es für die Jahre vor 1980 keine aussagekräftigen Daten in der EM-DAT-Datenbank gibt. Die Berichterstattung nimmt nach 1980 allmählich zu und erreicht um das Jahr 2000 einen „stabilen Zustand“.

Für 1980 enthält die Datenbank nur 5 Katastrophen in China: Vier Überschwemmungen und einen tropischen Wirbelsturm (1980 gab es in China mehrere auf das Festland übergreifende Wirbelstürme). Das Spitzenjahr 2013 enthält insgesamt 43 Katastrophen: Dürren, extreme Temperaturen, Stürme, Überschwemmungen, Erdbeben. Die Auswirkungen einer besseren Berichterstattung von Jahr zu Jahr sind leicht zu erkennen. Das kommunistische China war auch nicht der offenste Berichterstatter von Naturereignissen.

Wie sieht es bzgl. den USA aus? Die moderne westliche Zivilisation muss doch schon in den 1980er Jahren eine wirklich gute Katastrophenberichterstattung haben, oder?

Abbildung: Naturkatastrophen in den USA für jedes Jahr zwischen 1900-2020

Für 1980 enthält die Datenbank nur 8 Naturkatastrophen in den USA: 4 Überschwemmungen, 3 Stürme, eine vulkanische Aktivität (St. Helens) und eine Hitzewelle.

Für 1980 sind keine Tornados in der Datenbank vorhanden, aber eine kleine Studie von Wikipedia sagt uns, dass das Jahr 1980 ein unterdurchschnittliches Tornado-Jahr mit 28 Tornado-Toten und mehreren schlimmen Ausbrüchen wie dem Kalamazoo-Tornado-Ausbruch und dem Grand Island-Tornado-Ausbruch war. Insgesamt wurden für diese Saison 866 Tornados gemeldet. In der EM-DAT-Datenbank fehlen also all diese Ereignisse einfach.

Apropos Tornados, lassen Sie uns sehen, wie viele Tornadodaten in der EM-DAT-Datenbank verfügbar sind:

Abbildung: Anzahl der Tornados in den USA für jedes Jahr zwischen 1900-2020

Es scheint, dass Tornados in den USA zwar schon immer ein Thema waren, aber erst seit Ende der 1980er Jahre in gewissem Umfang Daten über Tornados in die EM-DAT-Datenbank eingegeben wurden. Und selbst jetzt landen nur wenige Tornados in der EM-DAT-Datenbank. Ich habe das Jahr 2000 als Beispiel genommen: Basierend auf EM-DAT gab es 30 Todesfälle aufgrund von Tornados. Nach der Wiki-Seite zur Tornadosaison 2000 müssten es aber 41 sein.

Laut Wikipedia war das Tornado-Jahr 2012 hinsichtlich der Anzahl der Tornados etwa doppelt so schlimm wie das Jahr 2000, und die Zahl der Toten lag in der Saison 2012 bei 69. Die EM-Daten besagen jedoch, dass es im Jahr 2000 mehr Tornados gab, die die Eingangskriterien erfüllten.

Auch für die USA liegen in den Daten von 1980 keine Angaben über Waldbrände vor. Eine eingehendere Untersuchung würde einige weitere Waldbrände aufdecken, aber zumindest das Panorama Fire (1980) fehlt in der Datenbank. Bei diesem Brand brannten im Norden San Bernardinos 11.520 Hektar ab, wobei 310 Häuser und 67 große Gebäude zerstört, vier Menschen getötet und 77 verletzt worden waren. Eindeutig ein Vorfall, der nach den Eingabekriterien in der Datenbank enthalten sein sollte.

In den USA scheint die Datenbank erst ab den 1990er Jahren ein gewisses Maß an Glaubwürdigkeit zu besitzen. Es fehlen einfach zu viele frühere Daten, um aussagekräftige Schlussfolgerungen über die Zu- oder Abnahme von Naturkatastrophen zu ziehen. Aber selbst bei neueren Daten sollte man keine Rückschlüsse auf die Zahl der Naturkatastrophen in den USA ziehen.

Das gleiche Problem der Unter-Berichterstattung über die ersten Jahre scheint fast alle Länder zu betreffen, die ich untersuchte. Das Land, in dem ich lebe, Finnland, hat insgesamt nur drei Naturkatastrophen in der Datenbank; zwei Stürme (1990) und eine Überschwemmung (2005). Da ich in Finnland lebe, kann ich allen Lesern versichern, dass wir jedes Jahr Überschwemmungen haben (besonders bei Flüssen im Norden gibt es nach jedem Winter Überschwemmungen), die fast jedes Jahr materielle Schäden verursachen. Auch Stürme sind an der Jahresordnung, wobei in jedem Jahr Zehntausende betroffen sind und gewöhnlich materielle Schäden in den Wäldern und viele Schäden an Stromleitungen verursachen.

Was genau sind die Eingabekriterien für die EM-DAT-Datenbank?

Die Eingabekriterien: Der Grund für die Aufnahme des Katastrophenereignisses in EM-DAT. Mindestens eines der folgenden Kriterien muss erfüllt sein, damit ein Ereignis in die Datenbank eingegeben werden kann:

Todesfälle: 10 oder mehr Todesfälle

Betroffen: 100 oder mehr Betroffene/Verletzte/Heimatlose.

Erklärung/internationaler Appell: Ausrufung des Ausnahmezustandes in dem betreffenden Land und/oder ein internationaler Hilfsappell

Wie man sieht, sind die Eingabekriterien recht entspannt: Bei diesem Kriterium sollte beispielsweise fast jeder Tornado der Stärke F3 oder höher in der Datenbank vorhanden sein, vorausgesetzt, er ereignete sich auf besiedeltem Gebiet.

Daraus können wir den Schluss ziehen, dass die Datenbank auch heute noch nicht wirklich glaubwürdig ist, noch weniger aber in den 1980er und 1990er Jahren. Ich weiß nicht, wie die Datensammlung organisiert wurde, aber für die wissenschaftliche Analyse von Trends bei Naturkatastrophen hat die EM-DAT-Datenbank keinerlei wissenschaftlichen Wert. Daher haben auch die Schlussfolgerungen im UN-Bericht keinerlei Wert. Alle Behauptungen, die die UNO über die Zunahme von Naturkatastrophen aufgestellt hat, sollten widerrufen werden.

Gesamtschäden

Die UNO berichtete auch von einer beträchtlichen Zunahme der Schäden. Pielke Jr. hat viel mehr wissenschaftliche Bedeutung, wenn es darum geht, etwas über die normalisierten Schäden (2) im Laufe der Jahre zu sagen, aber wir können immer noch einige interessante Beobachtungen über die EM-DAT-Daten bzgl. Schäden machen:

Es scheint, dass nur ein kleiner Teil der Einträge irgendwelche Schadensdaten in der Datenbank hat. Beispielsweise traf 1994 ein Taifun die Stadt Osaka in Japan. Nach Angaben der Datenbank starben 1000 Menschen, 6,5 Millionen waren betroffen. Die Kosten für dieses Ereignis fehlen. Dies ist nur einer von Tausenden fehlenden Schadenseinträgen. Nur etwa 1/3 aller Einträge in der Datenbank verfügt über irgendeine Art von Schadenschätzung. Wie kann man daraus irgendwelche Schlüsse ziehen?

Betroffene Menschen

Die UNO behauptet, dass in den Jahren 1980-1999 3,25 Milliarden Menschen von Naturkatastrophen betroffen waren, während in den Jahren 2000-2019 4,2 Milliarden Menschen betroffen waren. Aber sie versäumen es, den Bevölkerungszuwachs zu berücksichtigen. Die Weltbevölkerung entwickelte sich folgendermaßen:

1980: 4,46 Milliarden

2000: 6,14 Milliarden

2019: 7,71 Milliarden

Wir können grob schätzen, dass die durchschnittliche Bevölkerung in den Jahren 1980-1999 bei 5,4 Milliarden und in den Jahren 2000-2019 bei 6,9 Milliarden lag. Mehr Bevölkerung sollte mehr Menschen bedeuten, die von Naturkatastrophen betroffen (und tot) sind. 3,25 x (6,9/5,4) = 4,15 Milliarden – die Zunahme der Betroffenen lässt sich also vollständig mit der Zunahme der Weltbevölkerung erklären. Eigentlich sogar noch mehr, da der größte Teil des Bevölkerungswachstums tendenziell in von Naturkatastrophen gefährdeten Gebieten wie Indien, Bangladesch und Afrika stattfindet.

Was jedoch den EM-DAT-Datensatz selbst betrifft, so fehlen bei fast 30% des gesamten Datensatzes die Daten über die betroffenen Menschen. Je älter die Daten sind, desto unvollständiger sind sie.

Datenerfassungs-Verfahren

Beim Versuch, einige Informationen über die Geschichte von EM-DAT zu finden, bin ich auf etwas Interessantes gestoßen (3). Das 2004 veröffentlichte Dokument bietet interessante Einblicke in die EM-DATA-Datenquellen im Laufe der Jahre und kann recht gut erklären, was wir oben gesehen haben: Warum die Beobachtungen die „Zunahme“ von Naturkatastrophen erklären können.

Das folgende Diagramm stammt aus dem von den EM-DAT-Betreibern veröffentlichten Dokument:

Abbildung: Berichtsquellen für die EM-DAT-Datenbank zwischen 1974-2002

Berichte über Naturkatastrophen werden von einer Reihe von Quellen zur Verfügung gestellt, und das EM-DAT-Berichtssystem scheint sich im Laufe der Jahre erheblich weiterentwickelt zu haben. Die signifikante „Zunahme“ von Naturkatastrophen bis etwa 1999 scheint sich vollständig durch eine neue Datenquelle „spezialisierter Agenturen“ erklären zu lassen. Diese Sonderorganisationen beziehen sich auf Quellen wie das Welternährungsprogramm der Vereinten Nationen, die Weltgesundheitsorganisation oder die National Oceanic and Atmospheric Administration der USA. Es scheint also, dass die Datenerhebung im Laufe der Jahre nicht stabil war und auch nicht auf wissenschaftlich stabilen Quellen beruhte.

Zusammenfassung:

EM-DAT-Daten sind im Allgemeinen von schlechter Qualität

Die EM-DAT-Datenerfassungs-Verfahren haben sich im Laufe der Jahre erheblich weiterentwickelt, so dass die Trendanalyse völlig unsinnig geworden ist

Der UN-Bericht berücksichtigt nicht die signifikante Zunahme der Weltbevölkerung, die allein schon die Zunahme der von Naturkatastrophen betroffenen Menschen erklärt

Alle Schlussfolgerungen über die Zunahme von Naturkatastrophen, die auf dieser Datenbank basieren, sollten zurückgezogen oder widerrufen werden.

REFERENCES

  1. EM-DAT, CRED / UCLouvain, Brussels, Belgium – www.emdat.be (D. Guha-Sapir)
  2. Pielke, R. (2020). Economic ‘normalisation’ of disaster losses 1998–2020: a literature review and assessment. Environmental Hazards, 1-19.
  3. D. Guha-Sapir D. Hargitt P. Hoyois, Thirty years of natural disasters 1974-2003: the numbers, centre for Research on the Epidemiology https://www.unisdr.org/files/1078_8761.pdf

Link: https://wattsupwiththat.com/2020/10/21/un-climate-disaster-doubling-revisited/

Übersetzt von Chris Frey EIKE




Explosionsgefährliche Auto-Akkus? BMW ruft massenweise Elektro-Hybridwagen zurück

(Man sieht: EIKE-Leser sind besser als ‚Spiegel‘-Redakteure etc…)

Seit August diesen Jahres ruft BMW seine Hybridwagen (PHEV, englisch plug-in hybrid electric vehicleder Modelle X1 bis 3 und X5, 3er, 3er Touring, 2er Active Tourer, 7er, 5er (inkl. Touring) und ‚Mini Countryman‘ zurück. Als Grund werden Verarbeitungsfehler beim Schweißen und Verunreinigungen angegeben, die zum Teil Kurzschlüsse im Hochvoltspeicher (d.h. der Traktionsbatterie) auslösen können. Betroffen sind teilweise die Chargen aus der Zeit 20. Januar bis zum 18. September.

Neben dem Rückruf gibt es zudem einen Auslieferungsstopp. Weltweit betroffen sind über 25.000 Wagen, davon 8.000 in Kundenhand (Deutschland: 5.300/1.800). Die bereits verkauften Modelle dürfen gegenwärtig nicht an einer Säule geladen werden; während der Fahrt nur mit Einschränkungen. Was kein Problem sein dürfte, da viele Kunden vor allem ihre Geschäftswagen nicht am Netz laden.

Das Kraftfahrtbundesamt startet Ende Oktober eine Überprüfungsaktion der verkauften Kfz. Das Prozedere dauere etwa 30 min. ohne Reparatur, ggfls.

Nicht nur BMW hat das PHEV-Sorgenkind; auch Ford mußte sein Modell Kuga bereits zurückrufen. Grund war ein Speicherfehler mit Brandgefahr, der ein Aufladen des Akkus verbot.

 

 




Der Energie-Albtraum aus Kalifornien kommt nach Virginia

Für die Einwohner von Virginia mögen Kaliforniens fortlaufende Stromausfälle und die extrem hohen Strompreise kaum mehr sein als die Ausläufer eines fernen Erdbebens auf der anderen Seite des Landes. Aber diese Selbstgefälligkeit ist fehl am Platz. Kalifornien ist näher, als vielen Virginiern bewusst ist.

Im Namen der Bekämpfung des Klimawandels entfernt sich der Golden State [= Kalifornien] rasch von kohlenstoffbasierten fossilen Brennstoffen und schreibt immer größere Mengen an erneuerbarer Energie vor. Die kalifornischen Vorschriften für erneuerbare Energien – 33 Prozent heute, 60 Prozent bis 2030 und 100 Prozent bis 2045 – zeigen bereits Wirkung, aber es ist nicht das, was die Befürworter in Sacramento versprochen hatten. Der Umweltautor Michael Schellenberger weist darauf hin, dass die Strompreise in Kalifornien seit 2011 um das Sechsfache des nationalen Durchschnitts gestiegen sind.

Im August, während einer saisonalen Hitzeperiode, kam es in weiten Teilen des Bundesstaates zu Stromausfällen, und die Behörden warnten davor, dass noch mehr zu erwarten seien.

Niemand hätte überrascht werden dürfen. Zwischen 2014 und 2018 verringerte Kalifornien seinen Verbrauch an zuverlässig verfügbarem Strom aus mit Erdgas befeuerten Kraftwerken um 21 Prozent und erhöhte seinen Verbrauch an erneuerbaren Energien im gleichen Zeitraum um 54 Prozent, so die kalifornische Energiekommission. Der Bundesstaat war auf seinen selbst auferlegten Übergang zu grüner Energie schlecht vorbereitet, was mehrere Beobachter dazu veranlasste, die Stromausfälle als „Greenouts“ zu bezeichnen.

Der riskante Weg von Virginia

Dem Beispiel Kaliforniens folgend (in einer Art und Weise, die der Gesetzgeber in Richmond vielleicht nicht gewürdigt hat), verabschiedete die von den Demokraten kontrollierte Generalversammlung im vergangenen Herbst den Virginia Clean Energy Act, der unter anderem die beiden größten Stromversorgungsunternehmen des Bundesstaates – Dominion Energy und Appalachian Power – auffordert, bis 2045 bzw. 2050 Strom ausschließlich aus erneuerbaren Quellen (Wind und Sonne) zu liefern. Das neue Gesetz folgt der Anordnung von Gouverneur Ralph Northam (D) vom September 2019, bis 2026 mindestens 2600 Megawatt (MW) Offshore-Windenergie bereit zu stellen.

Virginia ist ein windschwacher Bundesstaat; die dortigen Onshore-Windanlagen könnten nie mehr als eine vernachlässigbare Menge an Elektrizität produzieren. Darüber hinaus würde jeder Versuch, im ländlichen Virginia Windprojekte im industriellen Maßstab an Land zu errichten, auf den gleichen Widerstand stoßen, der auch anderswo gegen solche Anlagen aufgetreten ist: Besorgnis über die gesundheitlichen Auswirkungen des niederfrequenten Lärms, der von den sich drehenden Turbinen ausgeht, Verlust von produktivem Ackerland und Ärger über die Beeinträchtigung der landschaftlich reizvollen Umgebung durch riesige Turbinen.

Der einzige Ort, an dem Wind verfügbar ist, liegt vor der Atlantikküste des Staates. Der Offshore-Windpark Coastal Virginia Offshore Wind, der von Dominion Energy mit Sitz in Richmond entworfen und betrieben werden soll, wird auf 300 Millionen US-Dollar geschätzt und soll 2026 in Betrieb genommen werden. Ein kleineres 12-MW-Pilotprojekt befindet sich bereits 27 Meilen [ca. 40 km] vor Virginia Beach auf See im Bau.

Dominion hat ganzseitige, farbige Anzeigen in der Washington Post geschaltet, in denen verkündet wird: „Als führendes Unternehmen im Bereich Wind und Sonne nehmen wir unsere Verantwortung für den Planeten sehr ernst“. Der Energieversorger rühmt sich damit, dass er „das größte Offshore-Windprojekt des Landes entwickelt, das bis 2026 genug Energie für die Versorgung von 660.000 Haushalten erzeugen wird“ und stellt fest, dass er „seit 2015 mehr als 2,5 Millionen Sonnenkollektoren in Virginia installiert hat“.

Die Gefahren der Intermittenz

Aber wie Kalifornien eindrucksvoll zeigt, ist der Übergang zur Abhängigkeit von intermittierendem Wind und Sonne mit eigenen Gefahren verbunden, die sowohl die Verbraucher als auch die Umwelt betreffen.

„Die Erfahrungen der letzten zehn Jahre in Europa zeigen, dass sich die Leistung von Offshore-Windturbinen schnell verschlechtert – im Durchschnitt um 4,5% pro Jahr“, stellt Jonathan A. Lesser vom Manhattan Institute in einem kürzlich erschienenen Bericht fest mit dem Titel „Out to Sea: The Dismal Economics of Offshore Wind“.

Obwohl der Wind auf See beständiger weht als der Wind auf dem Festland, arbeiten die Anlagen auf dem Meer nach Angaben der Energy Information Administration EIA immer noch mit nur 50 bis 58 Prozent ihrer Kapazität. Das bedeutet, dass die gigantischen Turbinen bestenfalls mehr als 40 Prozent unter ihrer Kapazität arbeiten und eine Backup-Stromquelle benötigen, wenn der Wind nicht kooperiert.

Mr. Lesser vom Manhattan Institute stellt fest, dass der rapide Verfall von Offshore-Windenergieanlagen höhere Betriebskosten und eine verkürzte wirtschaftliche Lebensdauer bedeutet. „Je mehr Offshore-Windenergie in das Hauptstromnetz integriert wird, desto höher werden auch die Kosten für die Bewältigung der der Windkraft innewohnenden Unterbrechungen sein, was die Kosten für die Stromverbraucher weiter erhöht und neue gasbefeuerte Kraftwerksblöcke erfordert, die im Standby-Betrieb oder mit sehr teuren Batteriespeichersystemen betrieben werden müssen“, sagt er.

Zerstörung der Umwelt

Auch die angeblichen Umweltvorteile der Offshore-Windenergie erweisen sich als illusorisch. Die Rohstoffe, die für die Herstellung von Windturbinen (an Land oder auf See installiert) benötigt werden, übersteigen bei weitem den Bedarf für die Herstellung und Installation von gasbefeuerten Kombikraftwerken. Von diesen Rohstoffen ist keiner entscheidender als die Seltenen Erden, die derzeit fast ausschließlich aus China und aus Bergwerken in der Mongolei stammen.

Chinas Umweltstandards liegen weit unter denen des Westens, wobei Luftverschmutzung oder die Entsorgung giftiger Materialien in Deponien wenig Beachtung finden. Diese Auslagerung der Umweltzerstörung zugunsten grüner Energie ist, wie der britische Journalist Simon Parry hervorhebt, „die tödliche und unheilvolle Seite der massiv profitablen Industrie der Seltenen Erden, von der die ‚grünen‘ Unternehmen, die von der Nachfrage nach Windturbinen profitieren, nicht wollen, dass sich das herumspricht“.

Wie der Wind ist auch die Solarenergie nur sporadisch verfügbar und bringt Umweltfolgen mit sich, die ihre Befürworter nur ungern zur Kenntnis nehmen. Was ist zum Beispiel mit den giftigen Chemikalien in Solarpaneelen – sei es auf Dächern oder in ausgedehnten Solarparks – sobald sie das Ende ihres kurzen (etwa 10 Jahre) Lebenszyklus‘ erreicht haben? Wie der Wind wird auch die Solarenergie von den US-Steuerzahlern subventioniert, aber es gibt keine bundesstaatlichen Vorschriften für die Entsorgung gebrauchter Solarpaneele, obwohl sie anfällig für Undichtigkeiten und zudem schwer zu recyceln sind.

Einem kürzlich in Grist erschienenem Artikel zufolge werden die meisten gebrauchten Sonnenkollektoren in Entwicklungsländer mit schwachem Umweltschutz verschifft, wo sie routinemäßig auf Mülldeponien entsorgt werden. Die International Renewable Energy Association schätzt, dass im Jahr 2016 weltweit bereits etwa 250.000 Tonnen Abfälle von Solarpaneelen anfielen – und dass die Gesamtmenge bis 2050 auf 78 Millionen Tonnen steigen wird.

Es gibt andere ökologische Schäden durch Solarenergie. Eine Studie der Stanford University und der Carnegie Institution for Science aus dem Jahr 2015 ergab, dass fast ein Drittel des Ausbaus der Solarpaneele in dem Bundesstaat auf ehemaligen Anbauflächen stattfindet, wo viele Landwirte vom Anbau von Feldfrüchten dazu übergehen, ihr Land für die Entwicklung der Solarenergie zu nutzen – anstatt es zum Lebensraum für Wildtiere werden zu lassen.

Kalifornien hat weit mehr Sonne und Wind als Virginia. Doch nicht einmal diese günstigen Umweltbedingungen haben es dem Golden State ermöglicht, aus beiden Quellen genügend Energie zu produzieren, um die Nachfrage zu decken. Und deren Intermittenz destabilisier weiterhin das ohnehin schon fragile Stromnetz des Staates.

Um sich hinsichtlich ihrer Energiezukunft ein Bild zu machen, brauchen die Einwohner von Virginia nicht weiter als bis Kalifornien zu schauen. Sie sehen kein schönes Bild.

This article originally appeared in The Epoch Times

Autor: Bonner Cohen, Ph. D., is a senior policy analyst with CFACT, where he focuses on natural resources, energy, property rights, and geopolitical developments. Articles by Dr. Cohen have appeared in The Wall Street Journal, Forbes, Investor’s Busines Daily, The New York Post, The Washington Examiner, The Washington Times, The Hill, The Epoch Times, The Philadelphia Inquirer, The Atlanta Journal-Constitution, The Miami Herald, and dozens of other newspapers around the country. He has been interviewed on Fox News, Fox Business Network, CNN, NBC News, NPR, BBC, BBC Worldwide Television, N24 (German-language news network), and scores of radio stations in the U.S. and Canada. He has testified before the U.S. Senate Energy and Natural Resources Committee, the U.S. Senate Environment and Public Works Committee, the U.S. House Judiciary Committee, and the U.S. House Natural Resources Committee. Dr. Cohen has addressed conferences in the United States, United Kingdom, Germany, and Bangladesh. He has a B.A. from the University of Georgia and a Ph. D. – summa cum laude – from the University of Munich

Link: https://www.cfact.org/2020/10/18/californias-energy-nightmare-is-coming-to-virginia/

Übersetzt von Chris Frey EIKE




Die Lungen von Gaia

Dieses geometrische Verhältnis der Division durch 4 für die Einstrahlungsenergie erzeugt das absurde Paradoxon, dass die Sonne nachts direkt auf die Erdoberfläche scheinen muss. Die korrekte Aussage hingegen ist, dass die Intensität der Sonnenenergie über die gesamte Oberfläche einer beleuchteten Hemisphäre gesammelt wird (durch 2 dividieren) und dass es der abgehende Wärmestrahlungsenergiefluss ist, der von der gesamten Erdoberfläche ausgeht (durch 4 dividieren).

Zwischen diesen beiden geometrischen Beziehungen der Einstrahlung und der Ausstrahlung zurück in den Weltraum liegt das atmosphärische Reservoir, die gasförmige Hülle der Erde, in der alle Klimaprozesse ablaufen. Die folgende Tabelle und Abbildung, die aus dem kanonischen Modell von Kiehl und Trenberth (1997) übernommen wurden, dienen der Veranschaulichung eines Modells, in dem die grundlegenden Realitäten einer beleuchteten (Tag) also Hell- und unbeleuchteten (Nacht) Halbkugel als irreduzibles logisches geometrisches Minimum für den Energiehaushalt des Erdklimas beibehalten werden.

Tabelle 1: Der Prozess der Energierückgewinnung aus atmosphärischen Reservoiren für ein Hell-Hemisphärenmodell.

In der folgenden Abbildung wurden die Parameter unter Verwendung halbkugelabhängiger thermischer Energieabflusswerte von 200 W/m² (Tag) und 270 W/m² (Nacht) auf der Grundlage eines dynamischen atmosphärischen Energietransportmodells des Erdklimas (Wilde und Mulholland, 2020b) angepasst.

Abbildung 1: Der Prozess der Energierückgewinnung aus atmosphärischen Reservoiren

Haupt-Erkenntnisse aus dem Diagramm:

  1. Es zeigt, dass das Konzept des atmosphärischen Reservoirs für eine Hell – Halbkugel (durch 2 teilen) Sonneneinstrahlung anwendbar ist.

  2. Es zeigt, wie sich das atmosphärische Reservoir sowohl als Energiespeicher als auch als Energietransporter verhält.

  3. Alle eingefangenen Energie-Flüsse werden durch den Prozess des unendlichen geometrischen Recyclings verdoppelt (die Hälfte geht verloren; die Hälfte wird zurückgehalten, wodurch sich eine unendliche Reihe von Hälften von Hälften zu einer Hälfte summiert).

  4. Tagsüber dehnt sich die Troposphäre aus, da sie potentielle Energie mit der gegen die Schwerkraft geleisteten Arbeit speichert.

  5. Potenzielle Energie kann nicht weggestrahlt werden, so dass der Tagesverlust am oberen Ende der Atmosphäre (TOA) mit der Ausdehnung der Atmosphäre verringert wird.

  1. Während der Nacht zieht sich die Troposphäre bei ihrer Abkühlung zusammen, wodurch potenzielle Energie wieder in kinetische Energie umgewandelt wird, die für den erhöhten nächtlichen Energieverlust an den Weltraum verantwortlich ist.

  2. Der Bruttowert des atmosphärischen Reservoirs von 780 W/m2 wird auf den kanonischen Wert von 390 W/m2 halbiert, weil die Oberfläche des emittierenden Globus doppelt so groß ist wie die der Sonnenkollektor-Halbkugel.

  3. Die Tagesprozesse der Thermik und der Evapotranspiration werden in erster Linie durch direkte Sonnenenergie angetrieben und finden daher nachts nicht statt (viele Vorbehalte hier: wenn die Oberfläche feucht ist, kann der Verdunstungsprozess auch nachts stattfinden, z.B. Land gegen Meer, feuchter Tropenwald gegen trockene Wüste, Advektion von Wettersystemen usw.).

  4. Die Erdoberfläche ist ein riesiger, langsam freigesetzter Speicherstrahler, der seine eingefangene Sonnenenergie auch nachts und im Winter abgibt.

  5. Die Bypass-Strahlung tritt sowohl am Tag als auch in der Nacht mit der gleichen Rate (40 W/m²) auf wie im kanonischen Modell, weil die gleiche Flächenproblematik der Sammlung gegenüber der Emission wie in Punkt 7 aufgeführt ist.

Die Lungen von Gaia

Man könnte den Prozess des Einfangens von Sonnenenergie am Tag, der die Atmosphäre zur Ausdehnung bringt, gefolgt von der nächtlichen Kontraktion der Atmosphäre beim Abkühlen, mit dem „Atmen“ der Erde vergleichen. Die Atmosphäre ist die Lunge unseres Planeten, die sich im Laufe eines 24-Stunden-Zyklus ausdehnt und zusammenzieht und dabei die Zufuhr potenzieller Energie an die Oberfläche variiert. Dieser rhythmische Prozess sorgt für die Aufrechterhaltung des hydrostatischen Gleichgewichts der gesamten Atmosphäre, indem die thermische Strahlungsenergie in den Weltraum mit der hochfrequenten Strahlungsenergie der Sonne in Einklang gebracht wird.

References

Kiehl, J.T and K.E. Trenberth, 1997. Earth’s Annual Global Mean Energy BudgetBulletin of the American Meteorological Society, Vol. 78 (2), 197-208

Wilde, S.P.R. and Mulholland, P., 2020a. An Analysis of the Earth’s Energy Budget. International Journal of Atmospheric and Oceanic Sciences. Vol. 4, No. 2, 2020, pp. 54-64. doi: 10.11648/j.ijaos.20200402.12

https://www.researchgate.net/publication/344539740_An_Analysis_of_the_Earth’s_Energy_Budget

Wilde, S.P.R. and Mulholland, P., 2020b. Return to Earth: A New Mathematical Model of the Earth’s Climate. International Journal of Atmospheric and Oceanic Sciences. Vol. 4, No. 2, 2020, pp. 36-53. doi: 10.11648/j.ijaos.20200402.11

https://www.researchgate.net/publication/342109625_Return_to_Earth_A_New_Mathematical_Model_of_the_Earth’s_Climate

Link: https://wattsupwiththat.com/2020/10/22/the-lungs-of-gaia/

Übersetzt von Chris Frey EIKE




EU und Altmaiers Wasserstoff-Wunder

So schreibt bereits Jonathan Swift über die wundersame Insel „Laputa“ in Gullivers Reisen. Darin schildert er, wie sich verwirrte Individuen daran machten, Sonnenstrahlen aus Gurken zu extrahieren.

Dass diese Politik des Wasserstoff aus Windmühlen vom technischem Standpunkt ganz irrational ist, weiß der deutsche Wirtschaftsminister vielleicht nicht, aber ganz gewiß die EU. Als am 8. Oktober 2020 das Europäische Parlament für eine 60% ige(!) Reduktion der CO2 -Emissionen bis 2030 stimmte, sagte Frans Timmermanns dazu: „ Das wird hart, ja sauhart werden. Wir werden jedem Einzelnen Opfer abverlangen, von Industrie und Bürgern.“

Leichtgläubige könnten nun annehmen, dass diese Tortur dem angeblich bedrohten Planeten diene.

Nein, es geht ausschließlich darum, einem hoffnungslos bankrotten Bankensystem eine weitere kurze Überlebensspanne zu sichern. Hektische Investitionslenkung in komplett unproduktive Dekarbonisierungsmechanismen ist nur vergleichbar mit den Investitionen ab 1933 in Rüstungsprojekte. Auch diese halfen einem maroden Finanzsystem auf die Beine, dicht gefolgt vom historisch bekannten Zerstörungsprozess. Genau diesen Vergleich zog Tremonti, der frühere Finanzminister Italiens zu der jüngsten wundersamen Geldschöpfung der EZB. Am 28. August 2020 sagte er in einem Interview in „Il Giornale“ folgendes :

„Wenden wir uns einen Moment dem alten Berlin zu und hier dem bekanntesten und berühmtesten „Zauberer des Geldes“, Hjalmar Schacht, Erfinder des „MeFo“ : das Gold der Mephistopheles, das auf die metallurgische Industrie angewendet wurde, Austauschkunstwerk mit dem die deutsche Militärindustrie des Dritten Reiches finanziert wurde. Aber ein Kuriosum: Schacht wusste, dass der Trick nicht lange dauern konnte. In diesem Zusammenhang sagte der bewunderte Demokrat Keynes im Jahr 1941: „Die Tatsache, dass diese Methode im Dienste des Bösen angewendet wurde, darf uns nicht daran hindern, den technischen Vorteil zu erkennen, den sie im Dienste eines guten Zwecks bieten würde.“ 1)

Gäbe es überhaupt einen guten Zweck für die Geldschöpfung, dann die Corona-Pandemie. In diesem Fall hätte man aber unverzüglich in die finanzielle und personelle Aufstockung von Pflegepersonal investiert, desgleichen in die Aufrüstung der Gesundheitsämter und die Ausstattung der Schulen samt läppischer Bereitstellung von ein paar Schulbussen.

Hier freilich in der EU geht es ausschließlich um die Banken und den damit verbundenen Machtapparat. Wie das seit langem vorbereitet wurde, kann man bei den Ausführungen des Dr.Christian Thimann nachlesen, dem langjährigen Berater von Draghi.

  1. https://eike.institute/2020/09/01/die-perfidie-der-eu-energiepolitik-und-taxonomie/
  2. https://eike.institute/2019/08/20/unsere-wirtschaft-soll-den-finanz-klimagoetzen-geopfert-werden/

 




Neuerscheinung: Klimadiktatur: Fakten-Prognosen-Meinungen

Die hat man mit der angeblichen Klimakatastrophe durch Kohlendioxid gefunden. Denn Kohlendioxid ist in unserer modernen Welt unvermeidlich. Es ist auch der Grundbaustein der Photosynthese, also der Pflanzen, wir Menschen atmen es aus – und bei allen Prozessen entsteht es.
Egal was wir machen, was wir essen oder trinken, ob wir Maschinen herstellen, sie bedienen, Auto fahren, fernsehen oder Getränke kühlen. Es hat irgendwie immer mit Kohlendioxid zu tun.
Wer das kontrolliert, der beherrscht die Welt. Mit gezielter Propaganda versucht man eine Weltregierung zu schaffen, unglaublich viel Geld zu machen, die Bürger mehr und mehr zu überwachen, zu gewünschtem Verhalten zu erziehen und gleichzeitig die armen Länder weiterhin arm zu halten, deren Märkte zu bedienen und deren Rohstoffe billig zu sichern.
Die »große Transformation« führt uns mittels der CO2 – Klimareligion geradewegs in eine Diktatur, in der Nationen nicht mehr existieren und Menschen gleichgeschaltet werden und sich dem Kollektiv unterordnen müssen.
Das Inhaltsverzeichnis verspricht einen spannenden Text:
Einleitung
Wissenschaftliche Grundlagen
Die Beweise des IPCC
Ist die Temperaturerhöhung menschgemacht?
Manipulierte Meinungsbildung
Indoktrination der Kinder
Felix und Greta-Kinder wissen es besser
Umgang mit Andersdenkenden
Durch Angst zur Diktatur
Arme sollen arm bleiben
Bevölkerungskontrolle
Kontrolle
Klimadiktatur
Klimareligion
IPCC,WWF und Greenpeace–Dreifaltigkeit der Klimareligion
GlobaleAbkühlung
Schlussbemerkung
  • ISBN-10 : 3887932838
  • ISBN-13 : 978-3887932831
  • Herausgeber : Idea; 1. Auflage (5. Oktober 2020)
  • Broschiert : 398 Seiten
  • Sprache: : Deutsch



John Ioannidis, der Panik-Killer

Und erinnern wir uns: Die totale gesundheitspolitische Mobilmachung seit März 2020 hatte den Regierungen und ihren medialen Lautsprechern nach ursprünglich nicht den Zweck, die Folgen gewöhnlicher Grippewellen abzumildern, vielmehr sollten die autoritären, Grund- und Freiheitsrechte suspendierenden Maßnahmen einem Killervirus „den Krieg erklären“ (Macron, Merkel).

Am 15. Oktober nun war n-tv zu entnehmen, dass die WHO aktuell eine Studie von John Ioannidis (peer-reviewed, accepted and edited) im „Bulletin of the World Health Organization“ publiziert hat. Titel: „Infection fatality rate of COVID-19 inferred from seroprevalence data“.

John Ioannidis ist an der Stanford University School of Medicine Professor für Medizin, Epidemiologie, Bevölkerungsgesundheit und (by courtesy) biomedizinische Datenwissenschaft sowie Statistik, außerdem Co-Direktor des Innovationszentrums für Meta-Forschung. „Laut Berliner Einstein-Stiftung gehört er aktuell zu den zehn meistzitierten Wissenschaftlern der Welt,“ heißt es bei n-tv.

Warnung vor einem Evidenz-Fiasko

In seiner von der WHO veröffentlichten Metastudie wertet Ioannidis mehr als 60 über die Welt verteilte Antikörperstudien aus und kommt zu einem Ergebnis, das n-tv „erstaunlich“ findet. Denn:

„Insgesamt errechnete Ioannidis eine durchschnittliche Infektionssterblichkeit über 51 Standorte hinweg von […] 0,23 Prozent. In Regionen mit weniger als 118 Todesfällen pro eine Million Menschen betrug die Rate lediglich 0,09 Prozent. Wo 118 bis 500 Covid-19-Tote pro eine Million Einwohner gezählt wurden, betrug sie 0,20 Prozent, an noch schlimmer betroffenen Standorten lag die Infektionssterblichkeit bei 0,57 Prozent. Betrachtet man nur Bevölkerungsgruppen mit Menschen unter 70 Jahren, betrug die durchschnittliche Rate sogar nur 0,05 Prozent.“

So „erstaunlich“ ist das allerdings auch wieder nicht. Schon am 17. März schließlich warnte Ioannidis die Nationen, die Lockdown und Ausnahmezustand vollzogen hatten oder noch damit liebäugelten, vor einem Evidenz-Fiasko angesichts einer viel zu dünnen Datengrundlage für derart gravierende Eingriffe ins komplexe gesellschaftliche Gefüge.

Er übertrug das zu der Zeit hinreichend analysierte Infektions- und Sterbegeschehen auf dem Kreuzfahrtschiff Diamond Princess (IFR: 1 Prozent) auf die US-amerikanische Gesellschaft, wobei unter anderem zu berücksichtigen war, dass das Leben auf Kreuzfahrtschiffen viel beengter ist und dort eine ganz andere Altersstruktur der Population vorherrscht, und errechnete so eine Infektionsletalität von 0,125 Prozent. Diese könne aufgrund vieler Unwägbarkeiten aber auch – und zwar gleich wahrscheinlich – sowohl fünfmal niedriger (0,025 Prozent) als auch fünfmal höher (0,625 Prozent) ausfallen. Die sich abzeichnende Panikreaktion der führenden Industrienationen verglich er mit einem Elefanten, der beim Versuch, einer Hauskatze auszuweichen, versehentlich von einer Klippe springt und stirbt.

„Schlechte Entscheidungen, schlechtes Management“

„Erstaunlich“ ist daher eher, welche weiteren, von n-tv nicht erwähnten, Einschätzungen der aktuellen Metastudie von der WHO durch die Publikation im hauseigenen Bulletin in den Rang des Offiziellen oder doch zumindest Äußerbaren gehoben werden:

Erstens unterstreicht Ioannidis, dass die Mehrzahl der in seine Metastudie eingeflossenen regionalen Antikörperstudien und so berechneten IFRs den Hotspots entstammt, deren Infektions- wie Sterbegeschehen weit über dem globalen Durchschnitt liegt. Daher meint er, würden solche Studien an allen Standorten weltweit gleichermaßen durchgeführt werden, könnte die mittlere globale IFR „sogar wesentlich niedriger sein als die in meiner Analyse beobachteten 0,23 Prozent.“

Zweitens betont er, dass die IFR der unter 70-Jährigen selbst in den Hotspots bei 0,05 Prozent liegt und die dort überdurchschnittliche Infektionssterblichkeit der über 70-Jährigen folgende mögliche Ursachen hat:

„COVID-19 weist einen sehr steilen Altersgradienten für das Todesrisiko auf. Darüber hinaus ereigneten sich viele und in einigen Fällen die meisten Todesfälle in europäischen Ländern und in den USA mit einer großen Anzahl von Fällen und Todesfällen in Pflegeheimen. […] Die sehr vielen Todesfälle in Pflegeheimen, die nosokomialen Infektionen und überforderten Krankenhäuser können auch die hohe Zahl von Todesfällen an bestimmten Orten in Italien und New York sowie in den Nachbarstaaten erklären. Schlechte Entscheidungen (z.B. Entsendung von COVID-19-Patienten an Pflegeheime), schlechtes Management (z.B. unnötige mechanische Beatmung) und Hydroxychloroquin können ebenfalls zu schlechteren Ergebnissen beigetragen haben.“

Ein weiterer Schritt liegt damit nahe, den Ioannidis aber nicht geht. Dieser betrifft den Zähler der IFR und damit die allen bisherigen Rechnungen zugrunde gelegte Anzahl der je offiziellen Covid-19-Toten, welche durch die Anzahl der geschätzten tatsächlichen Infektionen geteilt wird. An den amtlichen Totenzahlen rührt Ioannidis nicht, obwohl man die von ihm angesprochenen Opfer der unnötigen, verfrühten, zu druckreichen und zu langen Intubation sowie die der Fehlmedikamentierung (u.a. Hydroxychloroquin) schwerlich als Virus-Tote fassen kann.

Nicht der Anfang vom Ende des Ausnahmezustandes

Vom RKI und von den regierungsnahen Rechercheuren um Correctiv.org wissen wir, dass in Deutschland jeder, der 28 Tage nach einem positiven PCR-Test stirbt, auch dann als Corona-Toter gezählt wird, wenn er von einem LKW überfahren wird. Andere Nationen – auch das dürfte sich inzwischen herumgesprochen haben – erfassen ihre „Corona-Toten“ noch großzügiger.

Entscheidender ist aber, dass nicht nur das Durchschnittsalter der „Corona-Toten“ global der je nationalen Lebenserwartung entspricht oder sogar darüber liegt, 85 Prozent aller der mit positivem PCR-Test Gestorbenen waren über 70 und litten zugleich an im Median 2,6 (USA) bis 3 (Italien) Vorerkrankungen, die ihrerseits zu den Top-10 der jährlichen Hauptsterbegründe gehören, womit Covid-19 alles andere als die eindeutige Todesursache war. Dementsprechend stellte der Präsident der italienischen Gesundheitsbehörde (ISS) auf einer Pressekonferenz bereits am 13. März unmissverständlich klar, dass die „überwiegende Mehrheit“ der offiziell publizierten „Corona-Toten“ Italiens „nicht an Covid-19“ stirbt, was auch die entsprechenden Datensätze vom Oktober wiederholt bestätigen.

Fazit: Selbst, wenn man, wie Ioannidis, die amtliche Totenzählung anerkennt, liegt die realistische globale Corona-IFR sehr wahrscheinlich „wesentlich“ unter 0,23 Prozent – und damit um 0,2 Prozent. Bereinigt man – die Argumentationen von Ioannidis aufgreifend und weiterführend – den Zähler dieser IFR (also die amtlichen Corona-Toten) in Reflexion auf „Schlechte Entscheidungen, schlechtes Management, Hydroxychloroquin“ (Ioannidis, oben) und ein seriöses, das heißt enges Verständnis von Todesursächlichkeit, dann kommen allenfalls ein Drittel aller „Corona-Toten“ als solche infrage, womit die realistische globale Corona-IFR im Mittel bei maximal 0,07 Prozent liegt, also im Bereich einer milden saisonalen Grippe.

Dass die WHO diese Überlegungen nun selber nahelegt, wird nicht der Anfang vom Ende des hiesigen Ausnahmezustandes sein. Seit Monaten machen Regierung und RKI schließlich offensichtlich Politik gegen die eigenen, zu nichts als Entwarnung Anlass gebenden Zahlen und Daten. Es könnte aber schwieriger werden, die Kritiker der Unverhältnismäßigkeit der Maßnahmen als „Covidioten“ zu beschimpfen, ohne dass dies auf die Schimpfenden zurückfällt.

 

Zuerst veröffentlicht auf der Achse des Guten

Thomas Maul ist Autor mehrerer Bücher, unter anderem zum Islam und zu Kritischer Theorie. Er publiziert regelmäßig in der Zeitschrift BAHAMAS.

Weiterführender Link:
https://www.thomasmaul.de