1

Ist „saubere Kohle“ eine verlorene Sache?

Bei Recherchen zu einem vorherigen Beitrag, fand ich auch diesen Meinungsartikel, der viel Meinung von Kyle Ash, Greenpaece enthält. Er ist zwar schon von 2016, aber m.E. eine Diskussion wert. Der Übersetzer.

Das US-Energieministerium (DoE  -Department of Energy) hat bereits Ende der neunziger Jahre mit dem Sponsoring sauberer Kohletechnologie begonnen. Seit 2008 wurden mehr als 7,5 Mrd. USD des Bundeshaushalts für die Unterstützung der Entwicklung bereitgestellt. Bis heute, ist jedoch keine einzige Kohlenstoffabscheidung im kommerziellen Maßstab in den USA in Betrieb genommen. Das Texas Clean Energy Project (TCEP CCS-Kraftwerk (Sequestration) ist das neueste CCS-Projekt in der wachsenden Liste blockierter und aufgegebener Initiativen in den USA und auf der ganzen Welt.

Gefeiert als Energieerzeugung für das 21 st Jahrhundert, waren ‚saubere Kohle‘ Technologien wie das Integrated Gasification Combined Cycle (IGCC) mit Carbon – Capture – Ansätzen geplant, es erschien vielversprechend sowohl für die Texas als auch die Kemper County Kraftwerke.

Verwandeln Sie Kohle in ein sauber brennendes synthetisches Gas, entfernen Sie die Schadstoffe und Verunreinigungen, bevor Sie sie zur Stromerzeugung verbrennen. Wärmerückgewinnung, um die Erzeugungseffizienz zu maximieren und binden Sie dann 60% oder mehr des erzeugten CO 2 und die Nachteile von Kohle für die Umwelt kann erheblich gemildert werden.

Alarmisten machen Kohle für schätzungsweise 45% der mit dem Klimawandel verbundenen Emissionen verantwortlich. Und da mehr als ein Viertel des weltweiten Stroms in Kohlekraftwerken erzeugt wird, ist die Attraktivität sauberer Kohle offensichtlich und ihr potenzieller globaler Nutzen entsprechend enorm. Laut Studien der Vereinten Nationen aus der Mitte der 2000er Jahre könnte CCS einen größeren Einfluss auf die Reduzierung der Treibhausgasemissionen im Laufe des Jahrhunderts haben als die Verlagerung auf erneuerbare Quellen wie Wind- oder Solarenergie.

Konfuse Debatte über saubere Kohle

Saubere Kohle zu erreichen war jedoch nie dazu bestimmt, billig oder einfach zu sein. Nach aktuellen Schätzungen der Internationalen Energieagentur (IEA) belaufen sich die für 2010-2020 erforderlichen Investitionen auf 56 Mrd. USD, weitere 646 Mrd. USD in den nächsten zehn Jahren bis 2030, und die jährlichen Kosten könnten bis Mitte des Jahrhunderts 350 Mrd. USD übersteigen. Im Oktober 2009 erklärte Nobuo Tanaka, der damalige IEA-Exekutivdirektor, gegenüber dem Carbon Sequestration Leadership Forum, dass die Welt bis 2020 100 CCS-Großprojekte, bis 2030 850 und bis 2050 3.400 benötigen werde.

Heute, nur sieben Jahre später, scheint die Aussicht, auch nur entfernt solche Zahlen zu erreichen, ein Traum zu sein, der einige wichtige Fragen über die Zukunft sauberer Kohle offen lässt. Ist es trotz der Rückschläge eine technisch machbare Lösung, die irgendwann wirtschaftlich rentabel wird, oder ist es einfach ein Fall von zu wenig und zu spät – ein kostspieliger Wunschtraum, dem die Zeit davon gelaufen ist?

„In der Debatte über die Kohlenstoffabscheidung werden häufig drei Dinge über Hindernisse für die Ausweitung der Kohlenstoffabscheidung durcheinander gebracht – politisches, wirtschaftliches und technisches Potenzial“, sagt Kyle Ash, Senior Legislative Representative von Greenpeace USA in Washington. „Diese drei Probleme hängen zusammen, aber fast niemand glaubt, dass CCS alle drei Hindernisse leicht überwinden kann.“

Es besteht kaum ein Zweifel daran, dass das Konzept von sauberer Kohle technisch machbar ist. Es gab eine Reihe gut dokumentierter Demonstrationsprojekte, darunter das Mountaineer-Werk von American Electric Power in West Virginia, in dem zwischen 2009 und 2011 mehr als 37.000 t CO 2 erfolgreich aufgefangen und gespeichert wurden und CCS selbst, hatte Erfolge in größerem Maßstab. In den letzten zwei Jahrzehnten hat das norwegische Unternehmen Statoil erfolgreich CO 2 mit einer Menge von rund einer Million Tonnen pro Jahr, in den Hohlraum des Sleipner-Gasfelds in der Nordsee injiziert. Befürworter sagen, dies beweise, dass eine vollständige Kohlenstoffbindung funktionieren kann, aber die Argumentation richtet sich gegen einen der grundlegenden Kritikpunkte, die immer bei CCS und  sauberer Kohle hochkommen – die Kosten.

 

Kohlenstoffabscheidung: Eine fiskalische Posse?

Für Statoil macht CO 2 als Teil [- Beimischung] des Erdgasgemisches anstelle eines Verbrennungsprodukts in Verbindung mit der norwegischen Regulierung und steuerlichen Behandlung der Sequestrierung im Gegensatz zur Entsorgung, sowohl wirtschaftlich als auch umweltverträglichen Sinn. Die Kritiker von Clean Coal sehen ihrer der Bilanz, dass die wirtschaftlichen und politischen Überlegungen eher die Hauptantreiber sind als die technischen sind.

Laut Ash zeigen die Finanzprognosen des Energieministeriums für die ausgeglichenen Kosten neuer Energiequellen, dass die Kohlenstoffabscheidung der teuerste Weg wäre, um CO 2 -Emissionen pro Stromeinheit zu vermeiden , selbst in hocheffizienten Kohlekraftwerken.

„TCEP und Kemper sind Standardträger für die fiskalische Posse, mit der Projekte zur Kohlenstoffabscheidung maßgeschneidert wurden, auf amerikanische Steuern und Subventionen „, sagt er.

Obwohl IGCC-mit-CCS-Kohlekraftwerken das teuerste Mittel zur Kohlenstoffminderung je kWh sein könnte, bleibt die Tatsache bestehen, dass die Kohleverbrennung planbar und zuverlässig viel Strom erzeugt, unabhängig davon, ob der Wind weht oder die Sonne scheint.

Es gibt Leute, die argumentieren, dass die Welt zwischen der inhärenten Unterbrechung von Wind- und Sonnenenergie und den gegenwärtigen Einschränkungen von Speicherlösungen ein Portfolio kohlenstoffarmer Energieoptionen entwickeln muss, das Methoden wie Kohlenstoffabscheidung und saubere Kohletechnologien umfasst.

Howard Herzog ist ein Befürworter. Als leitender Forschungsingenieur der Energieinitiative des Massachusetts Institute of Technology machte er seine Gedanken im Juli in der New York Times deutlich, als die Nachricht von Kemper’s Budget- und Planungsüberschreitungen die öffentliche Debatte über die Zukunft der Technologie wieder in Gang brachte.

„Das Ausmaß der Klimaherausforderung ist so groß, dass wir so viele Optionen wie möglich benötigen, einschließlich erneuerbarer Energien, nuklearer und Kohlenstoffabscheidung. Es ist jedoch sehr riskant zu argumentieren, dass erneuerbare Energien dies alleine schaffen können “, schrieb er.

Ash befürchtet jedoch, dass die Betrachtung von sauberer Kohle als Notlösung [necessary  Stop-Gap-Option], sei es aufgrund von Zweifeln am technischen und wirtschaftlichen Versprechen des zu 100% erneuerbaren Ideals oder der politischen Bereitschaft, es zu unterstützen, die allgemeine Argumentation pro fossile Brennstoffe ankurbeln könnte . Er fügt hinzu, dass Klimapolitiker fälschlicherweise glauben, dass CCS fossilfreundliche Kollegen an den Verhandlungstisch bringen wird.

„Es gibt viele Beweise dafür, dass diese Pro-Kohle-PR die Industrie tatsächlich ermutigt und Politiker wie West Virginia und Kentucky daran hindert, zu akzeptieren, dass die Tage der Kohle gezählt sind“.

 

Ein „Schweinefleischprojekt“

[Hinweis: Laut CAGW ist ein „Schweinefleisch“ -Projekt eine Position in einem Haushaltsplan, in dem Steuergelder für einen bestimmten Zweck zur Umgehung festgelegter Haushaltsverfahren ausgewiesen werden. Ein passender deutscher Begriff ist mir nicht eingefallen, der Übersetzter].

Der größte Treiber kommt heute nicht aus dem Steinkohlenbergbau, sagt Ash, sondern aus Öl, wo das CO 2 aus der Kohlenstoffabscheidung ein wertvolles Kapital wäre, um die Produktion im Rahmen der Expansionsstrategie des Sektors zu steigern. Er verweist auf Schritte des republikanischen Kongressabgeordneten Conaway aus Texas, um TCEP zu unterstützen, indem er die 45Q-Steuergutschrift für die Kohlenstoffabscheidung für eine verbesserte Ölrückgewinnung verdreifacht und dauerhaft festlegt – etwas, das er als „nichts als ein Schweinefleischprojekt“ für die Ölindustrie bezeichnet.

„Dass es Conaway teilweise gelungen ist, seinem Gesetzgebungsvorschlag gegen das Klima einen grünen Stempel aufzudrücken, ist ein Beweis für die Unwissenheit auf dem Capitol Hill, dass der Anstoß für die Politik der Kohlenstoffabscheidung darin besteht, die Ölproduktion zu steigern und nicht die Klimaverschmutzung zu verringern“, meint Ash.

Nachdem die anhaltenden Warnungen während des gesamten Jahres 2015 überstanden wurden, dass die weltweiten Kohlenreserven fast vollständig im Boden belassen werden sollten, um das weltweit vereinbarte Ziel von 2 ° C zu erreichen, wurde der Tod sauberer Kohle möglicherweise erneut etwas vorzeitig angekündigt.

Es scheint, dass die „verlorene Sache“ nicht ganz so verloren ist, zumindest noch nicht.

https://www.power-technology.com/features/featureis-clean-coal-a-lost-cause-5645944/

Übersetzt durch Andreas Demmig

 

Ergänzung

Im Herbst 2014 war das Boundary Dam Kraftwerk in der Nähe von Estevan, Provinz Saskatchewan, Kanada, das erste Kraftwerk der Welt, das die CCS-Technologie (Carbon Capture and Storage) erfolgreich einsetzte.

Offenbar ist es noch in Betrieb, denn es gibt monatliche Updates über die Leistung.

 




Ab November wieder Corona-Quarantäne – und ab Januar hohe CO2-Steuer

Im „Klimapaket“ vom Herbst 2019 wurde eine Bepreisung von 10 Euro pro Tonne emittierten CO2s beschlossen, was die Grünen und ihre Vorfeldorganisationen von Fridays for future und zahlreichen Redaktionen kritisierten, weil die „Lenkungswirkung“ bei dem geringen Preis nicht gegeben sei.

Im Klartext heißt das wohl, daß nicht genug Geld hereinkommt, um die Profiteure zu bezahlen; und daher haben viele Lobbyisten grüner Couleur Druck gemacht, den Preis deutlich zu erhöhen.

Mit Erfolg: Der Bundestag hat nun mehr als eine Verdopplung beschlossen, 25 Euro pro Tonne. Da die Volksquarantäne („lockdown“) seit März schon gewaltige Löcher in das Portemonnaie vieler Arbeitnehmer und Selbständiger gerissen hat, werden die überall steigenden Preise von Konsumprodukten die Bürger wirtschaftlich noch mehr in die Zange nehmen.

Zwar wurden die Steuerzahler mit der Senkung der Mehrwertsteuer auf 16% gleichzeitig etwas entlastet. Nützt aber nichts: Die Senkung läuft nur bis Silvester.

Allerdings sollen die zusätzlichen Mehreinnahmen der CO2-Besteuerung auch der Entlastung der Bürger dienen – die EEG-Umlage zur Förderung des Ökostroms wird gesenkt und die Pendlerpauschale erhöht.

Den Produzenten nutzt das aber nichts, weswegen der der Deutsche Industrie- und Handelskammertag Subventionen verlangte. Nicht unbegründet: Sonst könnten unsere Unternehmen ins nahe Ausland abwandern, wo keine fanatischen Klimaschützer am Werk sind.




„Zu elitär, zu arrogant“: Video mit Clemens Traub

Um evtl. Urheberrechtsstreitigkeiten zu vermeiden, bitten wir Sie den link selber hier aufzurufen.

Wir berichteten.




Lufttaxi: Söders 100-Tonnen-Stubenfliege

Das Ding ist ein fliegendes Wunder, dessen technische Komplexität man nicht würdigt, weil es schon für ein paar hundert Euro zu haben ist. Es ist ein Produkt glücklichen Zusammentreffens grandioser Innovationen der jüngeren Zeit: leistungsfähige kleine Elektromotoren, schnelle Datenübertragung per Funk, leichte Batterien, künstliche Intelligenz, Satellitennavigation und die extreme Miniaturisierung digitaler Elektronik.

Was kann so ein Wunderding dann leisten? Amazons Drohne etwa soll Pakete bis zu zwei Kilogramm in 15 Kilometern Umkreis liefern. Dafür ist sie 20–30 Minuten unterwegs. Es ist anzunehmen, dass der dankbare Empfänger dann, quasi als Trinkgeld, der Drohne eine Batterieladung aus der Steckdose spendiert, bevor die sich dann autonom auf den Heimweg macht.

Eine 100-Tonnen-Stubenfliege

So kompliziert das elektronische Gehirn dieses kleinen Flugzeugs ist, so simpel ist seine Mechanik. Wie ein Tisch auf vier Beinen steht, so hängt die Drohne an vier Rotoren, von denen jeder elektrisch angetrieben wird. Die individuelle elektronische Regelung derer Drehzahl kontrolliert, wie das Gerät fliegt und wohin die Reise geht.

Das ist alles viel einfacher als beim guten alten Helikopter, der fast nur aus beweglichen Teilen besteht: die Blätter des großen Rotors müssen bei jeder Drehung gekippt werden; der Propeller am Heck ist über Getriebe mit dem Motor verbunden, und der genaue Anstellwinkel seiner Schaufeln muss verhindern, dass der Rumpf anfängt zu rotieren.

Was läge also näher, als der unkomplizierten Drohne ein „Upscaling“ zu verpassen, sodass man nicht nur Pakete von Amazon, sondern lebendige Passagiere transportieren könnte? Das wäre außerdem voll im Trend: E-Antrieb, kein CO2 und kaum Lärm. Und, wie wir vom kleinen Bruder wissen, könnte das Ding auch ohne Pilot fliegen.

Aber kann man so eine Maschine einfach 10- oder 100-mal so groß bauen? Fliegt sie dann noch? Nun, in der Natur gibt es ja auch große und kleine Flieger: Vögel und Insekten. Vielleicht kann man von denen etwas lernen. Ein erfolgreiches Produkt der Evolution ist ja die beliebte Stubenfliege. So eine Kreatur ist vielleicht 10 mm lang und wiegt ein zehntel Gramm. Vergrößern wir sie um den Faktor 1.000, dann würde sie 10 Meter groß und würde 100 Tonnen wiegen. Ja, so schwer würde sie, weil sich ihr Volumen, und damit ihre Masse, um den Faktor 1.000 hoch drei vervielfachen.

Gewichtsmäßig kommt unsere Megafliege damit oberhalb der kleinen Boeings und Airbusse zu liegen, die immerhin 30–40 Meter Spannweite haben. Unser kafkaeskes Geschöpf mit 10 Metern Spannweite wäre nach unseren Überlegungen also kaum flugfähig. Das Beruhigende ist, dass die Natur etwas derartiges auch nicht hervorgebracht hat.

Der Vergleich sollte uns aber nicht am Experimentieren hindern, er ist nur ein Hinweis darauf, nicht allzu optimistisch zu sein.

Lufttaxi bringt Passagiere von der City zum Flughafen

Die Firma Airbus, aktuell der erfolgreichste Flugzeugbauer weltweit, wagte sich an dieses Projekt. Mit mehreren Millionen Starthilfe vom Bund und vom Staat Bayern machte man sich an die Entwicklung einer Megadrohne: etwa zehnmal so groß wie das Ding von Amazon und tausendmal so schwer. Mit den Prädikaten nachhaltig, klimafreundlich, elektrisch und europäisch hatte man alles zu bieten, was die Politik gerne hört. So konnte man auch weiterhin mit deren Wohlwollen und Unterstützung rechnen.

Die finanziellen Risiken für Airbus waren also gering, man konnte sich höchstens noch in Sachen Technik blamieren. Das aber sollte grandios gelingen.

Konkret hatte man versprochen, ein elektrisches Lufttaxi zu entwickeln, das Passagiere von der City zum Flughafen bringt, unbehindert von möglichen Staus auf der Autobahn. Man gab ihm den Namen „CityAirbus“ und startete 2015 mit einer Machbarkeitsstudie, die offenbar positiv ausfiel. Details der Entwicklung und technische Daten finden Sie hier und hier.

Im März 2019, vier Jahre später, wurde dann in Ingolstadt mit barockem Prunk in Gegenwart aller erdenklicher Prominenz – unter ihnen Staatsministerin Bär, Airbus-Vorstand Schoder und Verkehrsminister Scheuer – das Ergebnis vorgestellt: ein sogenannter „Prototyp Demonstrator“. Der Verkehrsminister forderte in seiner Rede dazu auf, bei neuer Technologie nicht nur über Verbote, sondern insbesondere über Chancen zu diskutieren. Dazu sollte es gleich einen Anlass geben. Da darf Markus Söder nicht fehlen, der ebenfalls verkündete er werde sich eines Tages in einem elektrisch betriebenen und automatisch gesteuerten Lufttaxi über die Münchner Staatskanzlei erheben.

Die Marx Brothers in Ingolstadt

Die Vorführung des „Demonstrators“ war nicht nur enttäuschend, sondern im höchsten Grade grotesk. Vor all den Honoratioren im Sonntagsanzug, teils von weit angereist, vor dem Bürgermeister mit Goldkette, spielte sich ein peinliches Debakel ab: Das Gerät, die verkörperte Hoffnung auf nachhaltigen Personennahverkehr, hob kaum vom Boden ab und fing dann an zu rauchen. Es war wie eine Szene aus einem Film von Charlie Chaplin oder den Marx Brothers.

Das mag gewiss ein Vorführ-Effekt gewesen sein; da geht nach Murphy’s Law all das schief, was schiefgehen kann. Daraus wollen wir den Ingenieuren von Airbus keinen Vorwurf machen. Die Panne brachte aber wohl den einen oder anderen Entscheider dazu, etwas genauer hinzuschauen, was da gemacht wurde. Nach einigem Nachdenken wurde dann im Oktober 2020 bekannt, dass das Projekt eingestellt werden soll.

Ein bisschen Physik

Dass Entwicklungsvorhaben scheitern, ist nichts Neues, es ist der Preis des Fortschritts. Was aber hier abgezogen wurde, war etwas Ungeheuerliches. Airbus hatte die 100-Tonnen-Stubenfliege gebaut! Das ganze Projekt war von Anfang an aussichtslos; um das zu erkennen, brauchte man keinen „Demostrator“ für viele Millionen zu bauen, man hätte es auf der Rückseite eines Briefumschlags ausrechnen können.

Zur Erläuterung etwas Physik.

Das „normale“ Flugzeug fliegt, weil der Fahrtwind an den Tragflächen Auftrieb („Lift“) erzeugt, der das Gewicht des Fliegers kompensiert. Dieser Lift aber hat seinen Preis, nämlich den Luftwiderstand („Drag“), der von Motoren überwunden werden muss. Konstrukteure bemühen sich natürlich, Flugzeuge mit großem Lift und kleinem Drag zu bauen. Bei Airlinern hat man ein Verhältnis Lift/Drag in der Gegend von 15 (mehr dazu auch hier).

Die Ingenieure bemühen sich ebenfalls, das Gewicht niedrig zu halten, denn je schwerer das Flugzeug, desto größer ist der Drag, desto mehr Sprit verbrennen die Motoren. Das ist anders als beim Auto, da ist der Luftwiderstand vom Gewicht unabhängig. Deswegen baut man Flugzeuge aus Aluminium oder Plastik und nicht aus Stahl, wie die Autos.

Bei Helikoptern – und Drohnen sind nichts anderes – wird der Lift nicht durch den Fahrtwind erzeugt, sonst könnten sie ja nicht in der Luft stehen bleiben. Hier kommt der Lift vom Impuls des vertikalen Luftstroms, den der Rotor erzeugt. Dabei wird enorm viel Energie verbraucht, weswegen man bei Helis mit den Kilos so geizig ist, wie es nur geht – noch geiziger als bei Flugzeugen.

Rechnung auf einem Briefumschlag

Analysieren wir einen typischen, bewährten Helikopter, etwa den Robinson R44, von dem bisher über 6.000 Stück gebaut wurden. Der hat Platz für 4 Personen, wiegt maximal 1.100 kg und hat einen Motor von 183 kW = 245 PS. Damit kann er zwei Stunden lang mit 200 km/h fliegen und verbraucht gut 100 Liter Sprit, das sind 75 kg. Dabei läuft sein Motor nicht immer mit voller Leistung, eher mit 75 Prozent. Der gesamte Energiebedarf für die Reise ist dann 183 kW x 0,75 x 2 Stunden = 275 Kilowattstunden.

Das wäre doch schon ein cooles Lufttaxi, allerdings macht es Krach und spuckt CO2 aus. Wollten wir den R44 jetzt auf politisch korrekten E-Antrieb umrüsten, dann bräuchten wir eine Batterie mit den erwähnten 275 kWh. Die holen wir uns aus dem E-Auto von Elon Musk, dem Tesla. Die hat 85 kWh – und wiegt 540 kg. Drei davon brächten dann fast die gewünschten Kilowattstunden an Bord, aber gleichzeitig die eher unerwünschten 3 x 540 kg = 1620 kg. Damit läge die Batterie alleine schon eine halbe Tonne über dem Gewichtslimit des armen R44 und sie wöge so viel wie 20 Passagiere!

Hatten wir nicht gesagt, beim Heli muss man mit den Kilos geizen wie eine Hollywood-Diva vor ihrem Lauf über den roten Teppich? Elektro und Heli passen nicht zusammen! Was beim Auto nur mühsam geht, beim Flugzeug nicht wirklich, das geht beim Helikopter schon ganz und gar nicht.

Diese kleine Rechnung kann ein Ingenieur, der Zugang zu Internet und Taschenrechner hat, auf dem Rücken eines Briefumschlags in der Mittagspause machen. Das hätte mehr gebracht als besagte „Machbarkeitsstudie“ von 2015.

Warten auf ein Wunder

Das von Airbus dann also geplante und als „Demonstrator“ gebaute elektrische Lufttaxi hatte folgende Kenndaten: Gesamtgewicht etwa 2.200 kg, Batterie 110 kWh und 700 kg; Antrieb: 8 (in Worten acht) Elektromotoren vom Typ Siemens SP200D mit je 100 kW Leistung; Reisegeschwindigkeit 120 km/h; Nutzlast 4 Passagiere.

Wenn die acht Motoren mit 75 Prozent Leistung laufen, wie wir beim R44 angenommen haben, dann würden sie kontinuierlich 8 x 75 kW = 600 kW ziehen und die erwähnte 650 kg schwere Batterie wäre in 11 Minuten leer. Angesichts dieser Tatsache ist es fraglich, ob man von „Reisegeschwindigkeit“ reden kann, denn die „Reise“ würde nur aus Abheben und Landen bestehen, dann wäre der Akku leer und müsste jetzt für ein paar Stunden lang an die Steckdose.

Ungeachtet dieser Fakten hat man bei Airbus und Zulieferern dennoch beherzt am „Demonstrator“ gebaut. Man hat für viel Geld all das konstruiert, was man konnte, und für das, was man nicht konnte – die Energieversorgung – da hoffte man auf ein Wunder. Aber bekanntlich geschehen Wunder nur dem, der sie nicht erwartet.

Pisa in der Chefetage

Man kann davon ausgehen, dass mehr als ein Entwickler bei Airbus unsere Rechnung gemacht und seinem Chef dann gezeigt hat. Und der wiederum hat die Sache „eskaliert“, also seinem Chef gezeigt, bis schließlich jemand ein Machtwort sprach: „Ihr Ingenieure dürft nicht immer nur Probleme sehen, ihr müsst euch auch mal den Hut des Managers aufsetzen. Es wäre unverantwortlich, sich aus diesem strategischen und nachhaltigen Geschäftsfeld zurückzuziehen.“

Und so wurden die armen Entwickler zum Opfer einer Kette der Inkompetenz und mussten gehorsam viele Stunden ihres Berufslebens investieren, um die Attrappe einer Passagierdrohne zu bauen. Und so, wie diese unverrückt auf ihren Kufen stehen wird, so steht die Arbeit daran unverrückbar auf der Lüge, dass das Ganze schon irgendwie Sinn macht.

Hier zahlen wir nun den Preis für den Verfall von Leistung und Disziplin in unserer Ausbildung. Was in der Schule durch miserable Ergebnisse bei den Pisa-Studien offensichtlich wird, das setzt sich im anspruchslosen Massenbetrieb der Universitäten fort und produziert Führungskräfte, die in der Praxis total überfordert sind. Die versuchen dann zu überleben, indem sie Leistung durch Haltung ersetzen. Und das funktioniert sogar, weil ihre Chefs das genauso machen (siehe auch hier bei Indubio).

Pisa im Ministerium

Noch fragwürdiger ist allerdings die Haltung der Politik. Nach welchen Kriterien wird hier das Geld der Steuerzahler vergeben? Herr Minister Scheuer etwa vergab 15 Millionen für das Projekt. Sie sagen, das sind doch Peanuts? Mal sehen: Das deutsche Steueraufkommen pro Kopf beträgt jährlich circa 10.000 Euro. Da wurde also 1.500 Personen in Deutschland ein Jahr lang monatlich 800 Euro abgenommen, um den Demonstrator zu finanzieren. Für die Betroffenen jedenfalls sind das keine Peanuts.

Der Bundesminister für Verkehr und digitale Infrastruktur war nach seinem Lehramtsstudium in die Politik gegangen. Hatte er persönlich die Kompetenz, um die Chancen des Lufttaxis realistisch einzuschätzen? Wenn nicht, so hätte er doch unter den 1.200 Mitarbeitern seines Verkehrsministeriums einen Fachmann für Luftfahrt gehabt. Was hat der ihm wohl geraten? Oder hat der Minister auf „erfahrene“ externe Berater vertraut, auf Zwanzigjährige, die nach dem Master gleich bei Roland Berger oder McKinsey angeheuert haben?

Ein Minister wird sich immer herausreden, sein Ressort sei so komplex, dass weder er noch irgendjemand alle Fragen beantworten, alle Details durchschauen könnte.

Das mag schon sein, aber er sollte dann in seiner Position zumindest schon mal von Management gehört haben. Dann hätte er gelernt, dass man beim Management von Investitionsprojekten erst die Risiken reduziert, bevor man das Geld ausgibt. Bei unserer Megadrohne ist die Batterie das zentrale Risiko, sie ist der Show-Stopper.

Leichtsinn auf Kosten anderer

Statt sich mit diesem Problem zu konfrontieren, hat sich sein Ministerium aber vorgemacht, dass das schon nicht so schlimm wäre, wenn man nur die Maschine hübsch anmalt. Und so spuckte man die 15 Millionen gerade mal aus und Airbus war dankbar.

Weder der Minister hatte sein eigenes Geld aufs Spiel gesetzt noch würde Airbus gepfändet, wenn das Ding nicht fliegt. Die beiden Geschäftspartner konnten sich gegenseitig mit dem Geld der Anderen gütlich tun und in Szene setzen. Das ist Leichtsinn auf Kosten anderer, und das ist ein sehr verwerflicher Charakterzug.

Noch schlimmer: die leichtfertige Vergabe von Mitteln für Forschung und Technik züchtet die falschen Interessenten heran. Es mehren sich die smarten Profiteure, die mit gekonnter PR für ihre aussichtslosen Start-ups mit schicken englischen Labels die vielen Millionen abgreifen.

Fortschritt geht anders. Es wäre besser, wenn unsere Minister halb so viel Geld hätten, aber dafür doppelt so kompetent wären. Und das gilt auch für die Ministerinnen.

Dieser Artikel erschien zuerst auf Hans Hofmann-Reineckes Blog Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazonerhältlich.




Studie: keine weitere Erwärmung durch CO2

Im Klartext bedeutet dies, dass von nun an unsere Emissionen aus der Verbrennung fossiler Brennstoffe keine oder nur geringe weitere Auswirkungen auf die globale Erwärmung haben könnten. Es gäbe keinen klimatischen Notstand. Es gäbe überhaupt keine Bedrohung. Wir könnten so viel CO2 ausstoßen, wie wir wollen – ohne jede Auswirkung.

Diese verblüffende Erkenntnis beantwortet eine große Unsicherheit, die die Klimawissenschaft seit über einem Jahrhundert plagt. Wie soll die Sättigung gemessen werden und wie groß ist ihr Ausmaß in Bezug auf die primären Treibhausgase?

In der Strahlenphysik ist der Begriff „Sättigung“ nichts im Vergleich zu dem, was wir in der Alltagssprache Sättigung nennen, so wie der Treibhauseffekt nichts mit der Funktionsweise von Gewächshäusern zu tun hat. Ihr Papierhandtuch ist gesättigt, wenn es keine verschüttete Milch mehr aufnimmt. Im Gegensatz dazu sind Treibhausgase gesättigt, wenn es sozusagen keine Milch mehr aufzunehmen gibt, aber das ist weitaus komplexer, als diese einfache Analogie vermuten lässt.

Unseren Lesern ist Happer wohl am besten als ein führender skeptischer Wissenschaftler bekannt. Er war Mitbegründer der prestigeträchtigen CO2-Coalition und gehörte kürzlich zum Stab des Nationalen Sicherheitsrates, wo er Präsident Trump beriet. Aber seine Karriere hat er als Strahlungsphysiker von Weltklasse in Princeton gemacht. Über 12.000 andere Forscher haben in ihren Arbeiten immer wieder auf seine zahlreichen, von Fachkollegen begutachteten Zeitschriftenartikel zurück gegriffen.

In dieser Studie haben die Professoren Happer und van Wijngaarden (H&W) die Physik der Sättigung akribisch durchgearbeitet. Ihr Vorabdruck trägt den Titel [übersetzt] „Abhängigkeit der Wärmestrahlung der Erde von den fünf am meisten vorhandenen Treibhausgasen“. Sie sind weit über die bisher zu diesem komplexen Problem geleisteten Arbeiten hinausgegangen.

Während die Standardstudien die Absorption von Strahlung durch Treibhausmoleküle mit Hilfe von groben Absorptionsbanden der Strahlungsenergie behandeln, analysiert H&W zunächst die Millionen verschiedener Spektrallinien, aus denen diese Bänder bestehen. Dieser Ansatz Linie für Linie ist ein sich neu entwickelnder Bereich der Analyse, der oft dramatisch neue Ergebnisse liefert.

Sie betrachten auch nicht nur die Absorption. Professor Happer hat es mir so erklärt:

Sie würden unserer Gemeinschaft einen großen Gefallen tun, wenn Sie zwei wichtige Punkte ansprechen würden, die nur wenige verstehen. Erstens: Die thermische Emission von Treibhausgasen ist ebenso wichtig wie die Absorption. Zweitens: Die Art und Weise der Temperatur-Variation mit der Höhe ist ebenso wichtig wie die Konzentration von Treibhausgasen“.

Sie haben sich also nicht nur mit der Absorption beschäftigt, sondern auch mit den Emissionen und den Temperaturschwankungen in der Atmosphäre. Die Arbeit ist überaus komplex, aber die Schlussfolgerungen sind dramatisch klar.

Die zentrale Schlussfolgerung von Happer und van Wijngaarden lautet:

Bei den am häufigsten vorkommenden Treibhausgasen, H2O und CO2, sind die Sättigungseffekte extrem, wobei die Triebkräfte pro Molekül bei Standardkonzentrationen um vier Größenordnungen unterdrückt werden…“

Ihre grafischen Schlussfolgerungen sind besonders aufschlussreich:

Abb. 9 sowie die Tabellen 2 und 4 zeigen, dass bei den gegenwärtigen Konzentrationen die Triebkräfte aller Treibhausgase gesättigt sind. Die Sättigungen der reichlich vorhandenen Treibhausgase H2O und CO2 sind so extrem, dass der Antrieb pro Molekül um vier Größenordnungen gedämpft wird…“.

Die drei anderen Treibhausgase, die sie analysierten, sind Ozon, Distickstoffoxid und Methan. Diese sind ebenfalls gesättigt, aber nicht extrem gesättigt wie Wasserdampf und Kohlendioxid. Auch sie sind im Vergleich zu CO2, das wiederum im Vergleich zu H2O nur in geringer Menge vorhanden ist, in relativ geringer Menge vorhanden.

Es ist klar, dass diese Arbeit sorgfältig von der Klima-wissenschaftlichen Gemeinschaft sorgfältig geprüft werden muss. Dies mag nicht leicht sein, wenn man bedenkt, dass drei große Physik-Journale sich geweigert haben, sie zu veröffentlichen. Die Rezensionen waren defensiv und antagonistisch, weder durchdacht noch hilfreich. Der Alarmismus hat die Zeitschriften unter Kontrolle und zensiert gegenteilige Ergebnisse, daher die Preprint-Version.

Unbeirrt dehnen H&W ihre Analyse nun auch auf Wolken aus. Die alarmistische Klimawissenschaft erhält eine gefährliche globale Erwärmung nicht nur durch den CO2-Anstieg allein, sondern auch durch positive Wasserdampf- und Wolkenrückkopplungen. Angesichts der Tatsache, dass sowohl Kohlendioxid als auch Wasserdampf extrem gesättigt sind, ist es höchst unwahrscheinlich, dass Wolkenrückkopplungen allein viel Schaden anrichten können, aber es bedarf einer sorgfältigen Analyse, um dies sicher zu wissen.

In der Zwischenzeit muss die gegenwärtige Arbeit im Mittelpunkt unseres Strebens nach einer rationalen Klimawissenschaft stehen. Die Professoren William Happer und William van Wijngaarden sind zu einem effizienten und zeitgerechten Durchbruch zu beglückwünschen.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy.

Link: https://wattsupwiththat.com/2020/10/26/study-suggests-no-more-co2-warming/

Übersetzt von Chris Frey EIKE




Analyse, Kritik und Hintergründe des Klima-Paradigmas

Das Buch „Das Klima-Paradigma: Kritik und Hintergründe. Versuch einer Metaanalyse.“ wurde bereits am 20.10.2020  im Blog die kalte Sonne mit einer Kurzbeschreibung und dem ausführlichen Inhaltsverzeichnis vorgestellt. Nach Auffassung des Autors könnte das Buch als Ergänzung zu dem fast gleichzeitig erschienenen Buch „Unerwünschte Wahrheiten: Was Sie über den Klimawandel wissen sollten“ dienen insofern, als das Thema in einen größeren und übergeordneten Zusammenhang gestellt wird: im Rahmen der Wissenschaftstheorie, der politischen Hintergründe und der psychologischen Strategien der Meinungsbildung und -manipulation. Die strittigen klimatologischen Fragen werden auch diskutiert – sogar mit Hinweis auf einige weniger bekannte Fakten –, aber zur Vertiefung ist auf jeden Fall „Unerwünschte Wahrheiten“ zu empfehlen.

Anlaß zu der Studie war für den Autor die überraschende Beobachtung, daß frühere Arbeitskollegen, durchwegs diplomierte bzw. promovierte Naturwissenschaftler, vorwiegend Physiker, das offizielle (d.h. vom IPCC, den Leitmedien und der Regierung vertretenen) „strikte Klimaparadigma“ i.w. als zutreffend akzeptierten und nicht grundsätzlich in Frage stellten. Es ist schon zu verwundern: in ihrem Fach oft ganz hervorragend, aber anscheinend nicht bereit, das messerscharfe Denken, die Fähigkeit zu Kritik und kritischer Distanz bei ihrer täglichen Arbeit auf allgemeine Themen der Medienberichterstattung und der Politik zu übertragen. Das mag zum einen damit zusammenhängen, daß Physiker heute immer mehr in der virtuellen Realität ihrer Theorien und Simulationsprogrammsysteme zuhause sind, zum andern im Studium kaum mehr logische Propädeutik [1], Methodologie und wissenschaftstheoretische Grundlagen [2] eingeübt werden. Schließlich stellt die (schon seit langem reduzierte Allgemein-)Bildung der sogenannten Gebildeten keinerlei Schutzschild mehr gegen die in der Informationsindustrie der Medien und politischen Propaganda verwendeten raffinierten Methoden der angewandten Psychologie dar. [5]

Der Begriff „Paradigma“ wurde bewußt in Abgrenzung zu „Theorie“ oder „Hypothese“ gewählt, um herauszuheben, daß es sich hierbei um eine Überschneidung von Naturwissenschaft, Politik, Medien und Ideologie und somit um ein vielfältiges soziologisches Phänomen handelt, in Anlehnung an den Wissenschaftshistoriker Thomas Kuhn [3], der Paradigma im soziologischen Sinn als „die ganze Konstellation von Meinungen, Werten, Methoden usw., die von den Mitgliedern einer gegebenen Gemeinschaft geteilt werden„, definiert hat.

In ähnlicher Weise könnte man auch von einem „Corona-Paradigma“ sprechen. Beiden ist gemeinsam die Kopplung von Sachebene und Handlungsebene, von Wissenschaft und Politik, wobei politische Entscheidungen so tief in die Wirtschaft, das Sozialleben und die Privatsphäre eingreifen, daß deren Verhältnis- und Verfassungsmäßigkeit bereits von Fachjuristen in Zweifel gezogen wurde. Dabei ist die Wissenschaft nicht mehr durchwegs „normal“, im Sinne reinen Erkenntnisgewinns, sondern „postnormal“, d. h. zunehmend im Griff politischer und wirtschaftlicher Interessen.

Aus Sicht des Autors haben sich zur nüchternen Beurteilung drei Kriterien bzw. Fragestellungen bewährt:

1.  „die herrschende Meinung ist die Meinung der Herrschenden“ (wird Karl Marx zugeschrieben);

2.  wird das Prinzip „audiatur et altera pars“ (es soll auch die andere Seite gehört werden) gröblich verletzt?; und

3.  „cui bono?“ (wer profitiert davon?).

Die vierfache Kritik des Autors betrifft:

1. den Reduktionismus, erstens die Hauptprobleme unserer Welt auf das Klima zu reduzieren und dabei u.U. schwerwiegendere Probleme in den Hintergrund zu rücken,  und

2. den Klimawandel kausal fast ausschließlich auf das Treibhausgas Kohlenstoffdioxid zurückzuführen;

3. die Intoleranz und Arroganz, mit der die Klimadiskussion als „settled“ (abgeschlossen) vertreten und abweichende Meinungen mit dem Etikett „Klimaleugner“ diskreditiert werden;

4. die überstürzte planwirtschaftliche „Klimapolitik“, die immense Kosten verursacht, aber zum Scheitern verurteilt ist.

Immer dann, wenn man Theorien, Paradigmen, Behauptungen, etc. vor sich hat und man entscheiden will, inwieweit es sich um wissenschaftlich Solides handelt, dann sind Abgrenzungskriterien der Wissenschaftstheorie angebracht.

Und in der Tat: Wenn man wissenschaftstheoretische Kriterien wie Konsistenz (Fehlen von Widersprüchen und Zirkelschlüssen), prinzipielle Falsifizierbarkeit, Validierung, Prognosefähigheit,  Ergebnisoffenheit u.a. ansetzt, dann kommen starke Zweifel an der Wissenschaftlichkeit des strikten Klimaparadigmas auf. Dieses zeigt vielmehr doktrinäre Züge, und zwar den Charakter einer pseudo-religiösen Doktrin mit ähnlichen Erscheinungsformen wie „Heiligen“ (Greta Thunberg), „Pilgerfahrten und Prozessionen“ (Fridays for Future), „Konzilen“ (Klimagipfeltreffen und Klimaverträge), „Untergangspropheten und Inquisitoren“ (Al Gore, Schellnhuber und Rahmstorf).

Der Autor schlägt als Alternative ein offenes Klimaparadigma vor, welches von den unwissenschaftlichen und  doktrinären Zügen des offiziellen „strikten“ Paradigmas gereinigt ist. Dieses „offene Klimaparadigma“ streitet zwar einen menschenverursachten Klimaeinfluß nicht ab, bewertet diesen aber auf Grund des noch nicht endgültig geklärten quantitativen Anteils nicht dogmatisch als dominierend gegenüber den natürlichen Anteilen; insbesondere legt es sich nicht auf ein monokausales Erklärungsmodell basierend allein auf Kohlenstoffdioxid fest, sondern ist offen für die unvoreingenommene Berücksichtigung auch anderer Einflußphänomene, wie z.B. Aktivitätsschwankungen der Sonne und ozeanische Zyklen, u.a. In diesem Sinne ist das offene Klimaparadigma in sich konsistent und wissenschafts-theoretisch solide. Dem offenen Klimaparadigma kommt die Sicht von Vahrenholt/Lüning in „Die kalte Sonne“ und „Unerwünschte Wahrheiten“ nahe. Ein Unterschied besteht nur darin, daß das offene Paradigma im streng wissen-schafts- und erkenntnstheoretischen Sinn nicht von festen „Wahrheiten“ spricht, denn es muß prinzipiell offen bleiben für die Möglichkeit neuerer Erkenntnisse und Revisionen bisher als „wahr“ vermuteter Einsichten.

Das Buch enthält ein Kapitel „Wissenschaftlichkeit des (strikten) Klimparadigmas?“, in dem u.a. die Behauptungen der Einmaligkeit der Schnelligkeit und des Ausmaßes der Klimaerwärmung, der angeblichen Zunahme von Extremwetterereignissen, der Gefährlichkeit des Meeresspiegelanstiegs und Abtauens der Gletscher und des Permafrostbodens, etc. in Frage gestellt und auf widerlegende Fakten aus der Fachliteratur Bezug genommen werden. Leider konnte das erst kürzlich erschienene Fachbuch „Unerwünschte Wahrheiten“ nicht mehr berücksichtigt werden. Es ist sehr zu empfehlen, dieses zu den genannten Fragen zusätzlich als kompetente Quelle zu Rate zu ziehen.

Seiner Kritik stellt der Autor drei konstruktive Forderungen entgegen:

1. Rückbesinnung auf wissenschaftsethische Grundsätze statt doktrinärer Ausgrenzung;

2. systemisch-holistische statt reduktionistische Sichtweise;

3. mehr ökologische statt rein technokratische Lösungsansätze.

Systemisch-holistisch gesehen sind die wesentlichen Problemkomplexe unserer Welt: die immer noch wachsende Überbevölkerung, die Ausbeutung und Erschöpfung der Ressourcen durch verschwenderische Wachstumswirtschaft, die Umweltzerstörung und die massenhafte Ausrottung von Tier- und Pflanzenarten und Ökosystemen. Diese Weltprobleme werden im Buch auch in angemessener Kürze behandelt, da sie durch die einseitige Konzentration auf das Klima sonst immer mehr aus dem Blick verschwinden.

Das strikte Klimaparadigma wird von Medien und Politikern mit psychologischen Mitteln in die Köpfe der Menschen eingepflanzt (Stichworte: Framing, Astroturfing, Angstmache, instrumenteller Moralismus, Gleichrichtung der Medien, Grünwäsche, etc.). Die über-politischen Hintergründe, aktuell auch unterstrichen durch die Corona-Krise, aber geben zu dem starken Verdacht Anlaß, daß es den Vertretern des Klima-(bzw. Pandemie-)alarmismus weniger um eine „Rettung“ des Klimas (bzw. der Menschen) geht als um die Durchsetzung einer dirigistischen „Großen Transformation“ der gesamten Gesellschaft.

Das sind „postdemokratische“ Verhältnisse, wo die Rangfolge – das Volk ist Souverän und die gewählten Politiker sind dem Souverän Rechenschaft schuldig – auf den Kopf gestellt ist.

Dies muß man auch bei der Klimadebatte und –politik im Auge behalten. Selbst wissenschaftlich fundierte Auffassungen, die nicht auf der Linie des offiziellen Paradigmas liegen, werden entweder ignoriert oder mit dem Stigma „Klimaleugner“ diffamiert.

Auf dem unsicheren Boden des „postfaktischen“ Konstrukts einer auf „postnormale“ Wissenschaft gestützten „Klimakrise“ soll aber mit „postdemokratischen“ Mitteln eine „Klimapolitik“ zusammen mit einer großen gesellschaftlichen Umwälzung durchgesetzt werden.

Bedächtiges Handeln auf der Grundlage vernetzten Denkens, das verantwortungsethisch und ökonomisch sämtliche Kol-lateralwirkungen und Spätfolgen einbezieht, ist unerläßlich, um der Spirale der „Logik des Mißlingens“ (Dörner [4]) zu entgehen, in die vor allem die deutsche „Energiewende“-Politik verfangen ist.  Entsprechend sind Maßnahmen sowohl zur Anpassung an unvermeidliche Klimaänderungen (zu der nicht nur Wärme-, sondern auch Kältephasen gehören), als auch zur Vermeidung von Umweltschädigungen und Ressourcenerschöpfung notwendig. Einige Leitlinien als einzuhaltendes „ökologisches Minimum“ werden vorgeschlagen.

Der Autor vertritt die These: Das Klima ist nicht das Weltproblem Nummer eins, sondern allenfalls ein die globale Krise verschärfendes Teilproblem. Die aufgehäuften Weltprobleme sind riesig, aber sie lassen sich weder allein auf eine „Klimakrise“ reduzieren, noch durch eine einseitige Politik der „Klimarettung“ lösen.

Die umfangreichen Recherchen des Autors umfassen weit über 500 Quellen – Bücher, Fachpublikationen, Videos und Zeitschriftenartikel –, die thematisch gegliedert und zum großen Teil, allerdings nur in der E-Buch-Version, direkt über Internet-Hyperlinks zugänglich sind und zur weiteren Vertiefung anregen sollen. (funktioniert z.Zt. in der bei Thalia verfügbaren Version, aber noch nicht bei Amazon)

Die Recherchen führten auch zu einigen i.a. weniger bekannten Fakten:

Z.B. gibt es nicht nur die eine Hockeystick-Kurve von Michael Mann et al, sondern eine ganze Reihe solcher Hockeystick-Kurvenverläufe, die dadurch zustande kommen, daß die aus Proxydaten von Eisbohrkernen gewonnenen CO2-Konzentrationen und daraus abgeleiteten Temperaturwerte früherer Zeiten meßtechnisch bedingt zu niedrig sind und daher nach Anstückelung in neuerer Zeit direkt gemessener Daten der Anstieg überbetont erscheinen muß. Darauf hat der Forscher Jaworowski hingewiesen, wie er auch einen der größten Betrugsskandale aufgedeckt hat, nämlich die willkürliche Umdatierung von Eiskerndaten um 83 Jahre, damit sie nicht der vorgegebenen Doktrin widersprechen.

Ein weiteres Beispiel stammt von dem schwedischen Meeresspiegelforscher Prof. Mörner: auf einer Malediven-Insel die absichtliche Beseitigung eines offenkundigen Beweisstücks (ein seit Jahrzehnten stehengebliebener Baum) dafür, daß die Malediven keineswegs durch alarmierenden Meeresspiegelanstieg gefährdet sind.

Wenig bekannt dürfte auch das Konzept der „positiven Fußabdrucks“ der C2C-Denkschule (C2C = „cradle-to-cradle“) sein – der sich schon Industrieunternehmen angeschlossen haben –, mit dem ganz an der Ökologie orientierten Leitbild und Ziel einer Wirtschaft mit geschlossenen Stoffkreisläufen, in denen möglichst überhaupt keine nutzlosen Abfälle mehr vorkommen.

Da der Schwerpunkt des Buchs in der Analyse der Hintergründe liegt, wurde die Behandlung konkreter Lösungsansätze weitgehend ausgeklammert. Diese Lücke läßt sich großenteils füllen durch das Kapitel IX: Energie für eine nachhaltige Zukunft in „Unerwünschte Wahrheiten“, wo u.a. die Wasserstofftechnologien und die neue Generation der Kernenergietechnologie, gekennzeichnet durch die Rückführung des Brennstoffmülls in den Brennstoffkreislauf, verständlich erklärt werden.

Somit kann „Das Klima-Paradigma“ einerseits als Ergänzung zu „Unerwünschte Wahrheiten“ gelesen werden, und umgekehrt empfiehlt sich letzteres zur Ergänzung und Vertiefung des ersteren.

Literaturhinweise:

[1] Kamlah/ Lorenzen (1996 ff.): Logische Propädeutik, Vorschule des vernünftigen Redens,

[2] Bunge/ Mahner (2004): Über die Natur der Dinge. Materialismus und Wissenschaft,
(Kap. 6.2  Die Charakterisierung von Wissenschaft)

[3] Thomas Kuhn (10. Aufl., 1989): Die Struktur wissenschaftlicher Revolutionen,

[4] Dietrich Dörner (15. Aufl. 2018): Die Logik des Mißlingens. Strategisches Denken in komplexen Situationen.

[5] Daniele Ganser: Propaganda – Wie unsere Gedanken und Gefühle gelenkt werden,
Vortrag (am 10.03.2019 in Berlin): https://www.youtube.com/watch?v=ooM3rrBoiBA

 

Das Buch Das Klima-Paradigma: Kritik und Hintergründe. Versuch einer Metaanalyse des Autors ist als Taschenbuch (€ 9,80) und gebundene Ausgabe (16,80) erhältlich

Der Beitrag erschien zuerst bei „Die kalte Sonne“ hier




CMIP6-Aktualisierung

Ich habe bereits früher über die Vorhersage-Zuverlässigkeit von Klimamodellen auf WUWT Stellung geommen, und zwar hier, hier, hier und hier. Wer eine Videopräsentation der Arbeit bevorzugt, findet sie hier. Volle Transparenz erfordert, dass man Dr. Patrick Browns (jetzt Prof. Brown an der San Jose State University) Videokritik zur Kenntnis nimmt, die hier gepostet wurde und die in den Kommentaren unter diesem Video, beginnend hier, widerlegt wurde.

Diejenigen, die sich diese Kommentare durchlesen, werden sehen, dass Dr. Brown keine offensichtliche Ausbildung in der Analyse physischer Fehler aufweist. Er machte die gleichen Anfängerfehler, wie sie bei Klimamodellen üblich sind und die hier und hier ausführlich diskutiert werden.

In unserer Debatte benahm sich Dr. Brown sehr zivilisiert und höflich. Er wirkte wie ein netter Kerl und wohlmeinend. Aber als man ihm keine Möglichkeit ließ, die Genauigkeit und Qualität der Daten zu beurteilen, verrieten ihn seine Lehrer und Mentoren.

Mangelnde Ausbildung in der Bewertung der Datenqualität ist offenbar eine Lücke in der Ausbildung der meisten, wenn nicht aller AGW-Konsens-Klimaforscher. Sie finden keinen Sinn im entscheidend zentralen Unterschied zwischen Präzision und Genauigkeit. Es kann überhaupt keinen möglichen Fortschritt in der Wissenschaft geben, wenn die Mitarbeiter nicht geschult sind, die Qualität ihrer eigenen Daten kritisch zu bewerten.

Die beste Gesamtbeschreibung von Klimamodellfehlern ist immer noch Willie Soon, et al., 2001 vorbehalten in seinem Beitrag „Modeling climate effects of anthropogenic carbon dioxide emissions: unknowns and uncertainties“. So ziemlich alle beschriebenen Simulationsfehler und Schwächen sind auch heute noch zutreffend.

Jerry Browning hat kürzlich eine rigorose mathematische Physik veröffentlicht, die an ihrer Quelle die von Willie et al. beschriebenen Simulationsfehler aufdeckt. Er zeigte, dass die falsch formulierte physikalische Theorie in Klimamodellen diskontinuierliche Heiz-/Kühlterme erzeugt, die eine „Größenordnung“ der Verringerung der Simulationsgenauigkeit bewirken.

Diese Diskontinuitäten würden dazu führen, dass die Klimasimulationen rasch voneinander abweichen, es sei denn, die Klimamodellierer unterdrücken sie mit einer hyperviskosen (Melasse-)Atmosphäre. Jerrys Papier bietet einen Ausweg. Dennoch bleiben Diskontinuitäten und Melasseatmosphären auch in den neuen verbesserten CMIP6-Modellen erhalten.

Im Fünften Zustandsbericht 2013 (5AR) verwendete der IPCC CMIP5-Modelle, um die Zukunft der globalen Lufttemperaturen vorherzusagen. Der kommende 6AR wird die aktualisierten CMIP6-Modelle verwenden, um die thermische Zukunft vorherzusagen, die uns erwartet, falls wir weiterhin fossile Brennstoffe verwenden.

CMIP6-Wolkenfehler und Nachweisgrenzen: Abbildung 1 vergleicht den vom CMIP6 simulierten globalen durchschnittlichen jährlichen Wolkenanteil mit dem gemessenen Wolkenanteil und zeigt deren Differenz zwischen 65 Grad nördlicher und südlicher Breite. Der durchschnittliche jährliche Fehler (rms root mean square) des Wolkenanteils beträgt ±7,0%.

Dieser Fehler kalibriert die durchschnittliche Genauigkeit von CMIP6-Modellen gegenüber einem bekannten, beobachtbaren Wolkenanteil. Der durchschnittliche jährliche rms-Fehler des CMIP5-Wolkenanteils über den gleichen Breitenbereich beträgt ±9,6%, was auf eine Verbesserung des CMIP6 um 27% hinweist. Nichtsdestotrotz weisen CMIP6-Modelle immer noch signifikante Simulationsfehler des globalen Wolkenanteils auf.

Abbildung 1 Linien: rot, MODIS + ISCCP2 gemessener jährlicher durchschnittlicher Wolkenanteil; blau, CMIP6-Simulation (9 Modellmittelwerte); grün, (gemessen minus CMIP6) jährlicher durchschnittlicher Kalibrierungsfehler (rms-Fehler in Längsrichtung = ±7,0%).

Die folgende Analyse ist eine einfache Erweiterung der bisherigen, auf die CMIP5-Projektionen der Lufttemperatur angewendeten Fehlerfortpflanzung auf die CMIP6-Modelle.

Fehler bei der Simulation des globalen Wolkenanteils führen zu Folgefehlern im langwelligen Wolkenantrieb (LWCF) des simulierten Klimas. LWCF ist eine Quelle des thermischen Energieflusses in der Troposphäre.

Der troposphärische thermische Energiefluss ist die Determinante der Lufttemperatur in der Troposphäre. Simulationsfehler in LWCF führen zu Unsicherheiten im Wärmefluss der simulierten Troposphäre. Diese wiederum führen zu Unsicherheiten bei den projizierten Lufttemperaturen.

Für weitere Diskussionen siehe hier – Abbildung 2 und den umgebenden Text. Das oben verlinkte Fehlerfortpflanzungspapier bietet ebenfalls eine ausführliche Diskussion dieses Punktes.

Der globale jährliche Mittelwert des langwelligen LWCF rms-Kalibrierfehlers der CMIP6-Modelle beträgt ±2,7 W/m² (28 Modellmittelwerte aus Abbildung 18 hier).

Ich konnte die Gültigkeit dieser Zahl überprüfen, denn dieselbe Quelle lieferte auch den durchschnittlichen jährlichen LWCF-Fehler für die 27 von Lauer und Hamilton bewerteten CMIP5-Modelle. Der von Lauer und Hamilton ausgewertete CMIP5 rms-Jahresdurchschnitts-LWCF-Fehler beträgt ±4 W/m². Eine unabhängige Neubestimmung ergab ±3,9 W/m²; dasselbe gilt für den Rundungsfehler.

Die kleine Frage der Auflösung: Im Vergleich mit dem CMIP6 LWCF-Kalibrierungsfehler (±2,7 W/m²) beträgt die durchschnittliche jährliche Zunahme des CO2-Antriebs zwischen 1979 und 2015 0,025 W/m² (Daten von der EPA). Die durchschnittliche jährliche Zunahme der Summe aller Antriebe für alle wichtigen Treibhausgase im Zeitraum 1979-2015 beträgt 0,035 W/m².

Der durchschnittliche jährliche CMIP6 LWCF-Kalibrierungsfehler (±2,7 W/m²) ist also ±108-mal größer als die durchschnittliche jährliche Zunahme des Antriebs durch CO2-Emissionen allein und ±77-mal größer als die durchschnittliche jährliche Zunahme des Antriebs durch alle THG-Emissionen.
Das heißt, eine untere Grenze der CMIP6-Auflösung ist ±77 Mal größer als die zu erkennende Störung. Dies ist eine kleine Verbesserung gegenüber CMIP5-Modellen, die eine ±114-mal zu große Auflösung der unteren Grenze aufwiesen.

Die analytische Strenge erfordert in der Regel, dass die instrumentelle Nachweisgrenze (Auflösung) 10-mal kleiner als die erwartete Messgröße ist. Um also ein Signal von CO2– oder THG-Emissionen vollständig zu erkennen, müssen die aktuellen Klimamodelle ihre Auflösung um fast das 1000-Fache verbessern.

Eine andere Möglichkeit ist, dass die CMIP6-Klimamodelle die Auswirkungen von CO2– oder THG-Emissionen auf das Erdklima oder die globale Lufttemperatur, so überhaupt existent, nicht erfassen können.

Diese Tatsache dürfte von der Konsensus-Klimatologie-Gemeinschaft ignoriert werden.

Gültigkeit der Simulation: Papalexiou et al., 2020 stellten fest, dass „die Glaubwürdigkeit von Klimaprojektionen typischerweise dadurch definiert wird, wie genau Klimamodelle die historische Variabilität und Trends abbilden“. Abbildung 2 zeigt, wie gut die lineare Gleichung, die zuvor zur Emulation der CMIP5-Lufttemperaturprojektionen verwendet wurde, die GISS-Temp-Anomalien reproduziert.

Abbildung 2 Linien: blau, GISS Temp 1880-2019 Land plus SST-Lufttemperaturanomalien; rot, Simulation unter ausschließlicher Verwendung der Meinshausener RCP-Antriebe für CO2+N2O+CH4+ Vulkanausbrüche

Die Nachahmung geht durch die Mitte des Trends und ist besonders gut in der Zeit nach 1950, wo die Lufttemperaturen angeblich durch Treibhausgasemissionen (THG) angetrieben werden. Die durch vulkanische Aerosole verursachten nichtlinearen Temperaturabfälle werden erfolgreich in den Jahren 1902 (Pelée), 1963 (Agung), 1982 (El Chichón) und 1991 (Pinatubo) reproduziert. Nachdem wir die Glaubwürdigkeit der veröffentlichten Norm nachgewiesen haben, können wir fortfahren.

CMIP6 Welt: Die neuen CMIP6-Projektionen haben neue Szenarien, die Shared Socioeconomic Pathways (SSPs).

Diese Szenarien kombinieren die repräsentativen Konzentrationspfade (Representative Concentration Pathways – RCPs) des AR 5 mit „quantitativen und qualitativen Elementen, die auf Welten mit verschiedenen Ebenen von Herausforderungen für die Abschwächung und Anpassung basieren [mit] neuen Szenario-Handlungssträngen [die] Quantifizierungen der damit verbundenen Bevölkerungs- und Einkommensentwicklung umfassen … zur Verwendung durch die Klimawandel-Forschungsgemeinschaft“.

Zunehmend entwickelte Beschreibungen dieser Handlungsstränge sind hier, hier und hier verfügbar.

Die Simulation der CMIP6-Lufttemperatur-Projektionen unten folgt der identischen Methode, die in dem oben verlinkten Fehlerfortpflanzungspapier beschrieben ist.

Die Analyse konzentriert sich hier auf Projektionen, die mit Hilfe des Erdsystemmodells CMIP6 IMAGE 3.0 erstellt wurden. IMAGE 3.0 wurde so konstruiert, dass alle erweiterten Informationen, die in den neuen SSPs zur Verfügung gestellt werden, berücksichtigt wurden. Die IMAGE 3.0-Simulationen wurden lediglich der Bequemlichkeit halber ausgewählt. Die von van Vuulen et al. im Jahr 2020 veröffentlichte Studie enthielt in seiner Abbildung 11 praktischerweise sowohl die SSP-Vorgaben als auch die daraus resultierenden Lufttemperaturprojektionen. Die veröffentlichten Daten wurden mit DigitalizeIt, einem Werkzeug, das mir gute Dienste geleistet hat, in Punkte umgerechnet.

Hier ist ein kurzes Zitat aus der Beschreibung für IMAGE 3.0: „IMAGE ist ein integrierter Bewertungsmodellrahmen, der globale und regionale Umweltfolgen von Veränderungen menschlicher Aktivitäten simuliert. Das Modell ist ein Simulationsmodell, d.h. Änderungen der Modellvariablen werden auf der Grundlage der Informationen aus dem vorhergehenden Zeitschritt berechnet.

Simulationen werden von] zwei Hauptsystemen angetrieben: 1) das menschliche oder sozio-ökonomische System, das die langfristige Entwicklung menschlicher Aktivitäten beschreibt, die für eine nachhaltige Entwicklung relevant sind; und 2) das Erdsystem, das Veränderungen in natürlichen Systemen wie dem Kohlenstoff- und Wasserkreislauf und dem Klima beschreibt. Die beiden Systeme sind durch Emissionen, Landnutzung, Klima-Rückkopplungen und mögliche politische Reaktionen des Menschen miteinander verbunden“.

[Hervorhebung vom Autor]

Über fehlerbehaftete Iterationen: Der oben fettgedruckte Satz beschreibt die schrittweise Simulation eines Klimas, bei der jeder zuvor simulierte Klimazustand in der iterativen Berechnung die Anfangsbedingungen für die nachfolgende Klimazustandssimulation bis hin zum endgültigen simulierten Zustand liefert. Die Simulation als schrittweise Iteration ist Standard.

Wenn die in der Simulation verwendete physikalische Theorie falsch oder unvollständig ist, überträgt jeder neue iterative Anfangszustand seinen Fehler in den nachfolgenden Zustand. Jeder nachfolgende Zustand ist dann zusätzlich einem weiteren Fehler unterworfen, der sich aus der Anwendung der falschen physikalischen Theorie auf den fehlerhaften Anfangszustand ergibt.

Entscheidend: Als Folge der schrittweisen Iteration werden systematische Fehler in jedem Klimazwischenzustand in jeden nachfolgenden Klimazustand fortgeschrieben. Die Unsicherheiten aus den systematischen Fehlern pflanzen sich dann als Wurzel-Summen-Quadrat (rss) durch die Simulation fort.

In diesem Zusammenhang zeigte Jerry Browning in seinem Beitrag analytisch und gründlich auf, dass Klimamodelle eine falsche physikalische Theorie verwenden. Abbildung 1 oben zeigt, dass eine der Folgen ein Fehler im simulierten Wolkenanteil ist.

Bei einer Projektion zukünftiger Klimazustände sind die physikalischen Fehler der Simulation unbekannt, da zukünftige Beobachtungen nicht zum Vergleich zur Verfügung stehen.

Die rss-Fortpflanzung eines bekannten Modell-Kalibrierungsfehlers durch die iterierten Schritte erzeugt jedoch eine Zuverlässigkeits-Statistik, anhand derer die Simulation bewertet werden kann.

Obiges fasst das Verfahren zusammen, welches zur Bewertung der Projektionszuverlässigkeit in der Ausbreitungspapier und hier verwendet wird: Zuerst wird das Modell gegen bekannte Ziele kalibriert, dann wird der Kalibrierungsfehler durch die iterativen Schritte einer Projektion als Wurzel-Summen-Quadrat-Ungenauigkeit fortführt. Man wiederholt diesen Prozess bis zum letzten Schritt, der den vorhergesagten zukünftigen Endzustand beschreibt.

Die abschließende Wurzel-Summen-Quadrat-(rss)-Unsicherheit gibt die physikalische Zuverlässigkeit des Endergebnisses an, da der physikalisch wahre Fehler in einer Zukunftsprognose nicht bekannt ist.

Diese Verfahren ist Standard in den physikalischen Wissenschaften, wenn es darum geht, die Zuverlässigkeit eines berechneten oder vorhersagbaren Ergebnisses zu ermitteln.

Emulation und Ungewissheit: Eine der wichtigsten Demonstrationen in der Fehler-Fortpflanzungstudie war, dass fortgeschrittene Klimamodelle die Lufttemperatur lediglich als eine lineare Extrapolation des THG-Antriebs projizieren.

Abbildung 3, Tafel a: Punkte sind die IMAGE 3.0-Lufttemperaturprojektion von Szenario SSP1 (blau) und Szenario SSP3 (rot). Vollständige Linien sind die Emulationen der IMAGE 3.0-Projektionen: blau, SSP1-Projektion, und rot, SSP3-Projektion, die unter Verwendung der in der veröffentlichten Analyse der CMIP5-Modelle beschriebenen linearen Emulationsgleichung erstellt wurden. Tafel b ist wie Tafel a, zeigt aber auch die expandierenden 1 s rss-Ungenauigkeits-Kurven, die entstehen, wenn ±2,7 W/m² des jährlichen durchschnittlichen LWCF-Kalibrierungsfehlers durch die SSP-Projektionen vermehrt und fortgeführt werden.

In Abbildung 3a oben zeigen die Punkte die Lufttemperaturprojektionen der Handlungsstränge SSP1 und SSP3, die mit dem Klimamodell IMAGE 3.0 erstellt wurden. Die Linien in Abbildung 3a zeigen die Emulationen der IMAGE 3.0-Projektionen, die unter Verwendung der linearen Emulationsgleichung erstellt wurden, die in der Fehlerfortpflanzungs-Studie (ebenfalls in einem Artikel aus dem Jahr 2008 im Skeptic Magazine) ausführlich beschrieben wird. Die Emulationen sind 0,997 (SSP1) oder 0,999 (SSP3) mit den IMAGE 3.0-Projektionen korreliert.

Abbildung 3b zeigt, was passiert, wenn ±2,7 W/m² des jährlichen mittleren LWCF-Kalibrierungsfehlers durch die globalen Lufttemperaturprojektionen IMAGE 3.0 SSP1 und SSP3 vermehr und fortgeführt wird.

Die Unsicherheitsbereiche sind so groß, dass die beiden SSP-Szenarien statistisch nicht unterscheidbar sind. Es wäre unmöglich, entweder eine Projektion oder, in Erweiterung, irgendeine SSP-Lufttemperaturprojektion als repräsentativer für die sich entwickelnde Lufttemperatur zu wählen, da jede mögliche Änderung der physisch realen Lufttemperatur in allen Projektionsunsicherheits-Bereichen untergegangen ist.

Ein Intermezzo – Es gibt Drachen: Ich werde hier einen Nebenschauplatz einbauen, um einem früheren heftigen, hartnäckigen und wiederholt behaupteten Missverständnis zuvorzukommen. Bei den Unsicherheitseinhüllenden in Abbildung 3b handelt es sich nicht um physikalisch reale Lufttemperaturen. Das muss eindeutig klar sein.

Diese Unsicherheitsbalken bedeuten nicht, dass das Klima in Zukunft 15°C wärmer oder 10°C kälter sein wird. Unsicherheitsbalken beschreiben eine Bandbreite, in der Unwissenheit herrscht. Ihre Botschaft lautet, dass die projizierten zukünftigen Lufttemperaturen irgendwo innerhalb der Unsicherheitsbandbreite liegen. Aber niemand kennt den Ort. CMIP6-Modelle können nichts Definitiveres sagen als das.

Innerhalb dieser Unsicherheitsbalken befindet sich Terra Incognita. Es gibt Drachen.

Wer darauf besteht, dass die Unsicherheitsbalken tatsächliche reale physikalische Lufttemperaturen implizieren, sollte sich überlegen, wie sich dieser Gedanke gegen die Notwendigkeit durchsetzt, dass eine physikalisch reale ±C-Unsicherheit eine Gleichzeitigkeit von heißen und kalten Zuständen erfordert.

Unbestimmtheits-Balken sind streng axial. Sie stehen im Plus und im Minus auf jeder Seite eines einzelnen Datenpunktes. Die Annahme zweier gleichzeitiger, gleich großer, aber entgegengesetzt polarisierter physikalischer Temperaturen, die auf einem einzigen Punkt des simulierten Klimas stehen, ist eine physikalische Unmöglichkeit.

Die Idee verlangt Unmögliches, nämlich dass die Erde gleichzeitig Treibhaus und Eiskeller des globalen Klimas einnimmt. Bitte also diesen Gedanken endgültig verwerfen.

Und nun zurück zu unserer Feature-Präsentation: Die folgende Tabelle enthält ausgewählte Anomalien der Projektion der Szenarien IMAGE 3.0 SSP1 und SSP3 nebst ihren entsprechenden Unsicherheiten.

Tabelle: BILD 3.0 Projizierte Lufttemperaturen und Unsicherheiten für ausgewählte Simulationsjahre

Keine dieser prognostizierten Temperaturen ist anders als physikalisch bedeutungslos. Keine einzige von ihnen sagt uns etwas physikalisch Reales über mögliche zukünftige Lufttemperaturen.

Es folgen mehrere Schlussfolgerungen.

Erstens projizieren die CMIP6-Modelle, wie ihre Vorläufer, die Lufttemperaturen als lineare Extrapolation des Antriebs.

Zweitens machen CMIP6-Klimamodelle, wie ihre Vorgängermodelle, großräumige Simulationsfehler im Wolkenanteil.

Drittens erzeugen CMIP6-Klimamodelle wie ihre Vorläufer LWCF-Fehler, die enorm größer sind als die winzige jährliche Zunahme des troposphärischen Antriebs durch Treibhausgasemissionen.

Viertens erzeugen die CMIP6-Klimamodelle, wie ihre Vorläufer, so große und unmittelbare Unsicherheiten, dass die Lufttemperaturen selbst für ein Jahr nicht zuverlässig prognostiziert werden können.

Fünftens müssen CMIP6-Klimamodelle, wie ihre Vorläufer, eine etwa 1000-fach verbesserte Auflösung aufweisen, um ein CO2-Signal zuverlässig zu erkennen.

Sechstens erzeugen CMIP6-Klimamodelle, wie ihre Vorläufer, physikalisch bedeutungslose Lufttemperatur-Projektionen.

Siebtens haben die CMIP6-Klimamodelle, wie ihre Vorläufer, keinerlei Vorhersagewert.

Die unvermeidliche Schlussfolgerung ist nach wie vor, dass ein anthropogenes Lufttemperatursignal in Klimabeobachtungen nicht nachgewiesen werden konnte und auch gegenwärtig nicht nachgewiesen werden kann.

Ich schließe mit einer Bemerkung, die schon einmal gemacht wurde: Wir wissen jetzt mit Sicherheit, dass all die Hektik um CO2 und das Klima umsonst war.

All die verängstigten Erwachsenen; all die verzweifelten jungen Menschen; all die Gymnasiasten, die zu Tränen und Schuldzuweisungen durch Lektionen über bevorstehendes Unheil, Tod und Zerstörung verängstigt sind; all die sozialen Unruhen und Verwerfungen. All das war umsonst.

All die Schuldzuweisungen, all die Rufmordanschläge, all die zerstörten Karrieren, all die überschüssigen Todesfälle im Winter durch Brennstoffarmut, all die Männer, Frauen und Kinder, die weiterhin mit Rauch in geschlossenen Räumen leben, all die enormen Summen, die umgeleitet wurden, all die zerstörten Landschaften, all die zerhackten und verbrannten Vögel und Fledermäuse, all die gewaltigen Geldsummen, die von der Mittelschicht an reiche Subventionsbauern überwiesen wurden:

Alles umsonst.

Link: https://wattsupwiththat.com/2020/10/27/cmip6-update/

Übersetzt von Chris Frey EIKE




Das IPCC: Eine Aufklärung per Video I von Dr. Sebastian Lüning

Zur ersten Information über das IPCC (intergovernmental panel on climate  change) im Folgendem ein Auszug aus dem Buch des Autors „Klima und Energie:  Chancen, Risiken, Mythen“ (4. überarbeitete Auflage, 2020),

Zitatbeginn  —

Ein weit verbreiteter Irrtum über das IPCC, in dem viele Forscher bei der Veröffentlichung regelmäßig erscheinender Klima-Berichte mitarbeiten, sollte zuerst ausgeräumt werden: Das IPCC ist eine politische und keine wissenschaftliche Organisation unter dem Dach der UN. Es leistet keine eigene Forschungsarbeit, sondern sichtet, selektiert und wählt Forschungsergebnisse der sich zur Verfügung stellenden Wissenschaftler aus. Diese Arbeit mündet in die bereits erwähnten IPCC-Berichte. Das IPCC macht infolgedessen Wissenschaftspolitik, nichts anderes. Die IPCC-Veröffentlichungen werden grundsätzlich zuerst für Politiker herausgegeben, und erst darauf folgen die umfangreichen Fachberichte. Letztere sollten, entgegen üblichem wissenschaftlichem Vorgehen, keine zu den politischen Berichten abweichenden Auffassungen mehr enthalten, was oft aber dennoch der Fall ist.

Das unübersehbare Bemühen des IPCC, Wissenschaft für politische Ziele zu instrumentalisieren, wird von Kritikern zu Recht beklagt. Nach bisher verbindlicher Wissenschaftsethik besonders fragwürdig ist insbesondere die Mithilfe von öffentlich bestallten Forschern beim politischen Feldzug des IPCC gegen das anthropogene CO2. Sie lassen sich als aktiv Beteiligte in eine politische Kampagne ein und helfen bei ihr mit. Übersetzt man dies in Klartext, kann man zutreffend von Auftragsforschung sprechen. Dagegen ist einzuwenden:

Wertfreie Wissenschaft ist ausschließlich der Wahrheit verpflichtet, muss sich stets in Frage stellen und darf sich grundsätzlich nicht an industrielle, politische oder ideologische Interessen verkaufen.

Die dabei zugrunde liegenden Motive der Wissenschaftler sind nicht relevant. Sie lassen sich immer als für die menschliche Gemeinschaft nützlich oder gar unverzichtbar angeben. Die Wirklichkeit sieht anders aus. In einem heute kaum noch vorstellbaren Extremfall wurde aus unvollständig gesicherten wissenschaftlichen Erkenntnissen eine Kampagne geschmiedet, die Menschenleben gekostet hat. Es war die Eugenik des dritten Reichs. Das damals ehrenwerte Motiv der beteiligten Forscher war die Reinhaltung der arischen Rasse. Mit diesem Extrembeispiel soll keine Verbindung zwischen der heutigen CO2-Kampagne und einem der dunkelsten Ereignisse der deutschen Wissenschaft hergestellt werden. Es zeigt aber, wie gefährlich es ist, wenn sich Forscher außerwissenschaftlichen Institutionen zur Verfügung stellen, die ihre Forschungsergebnisse vereinnahmen.

Jeder Verkauf wertfreier wissenschaftlicher Erkenntnisse an Interessengruppen ist ein Faustischer Handel.

Die IPCC-Berichte für Politiker versuchen in einem einzigen Grundtenor und mit Ausblenden von entlastenden Fakten die Schuld des anthropogenen CO2 an einer globalen Erwärmung nachzuweisen. Ein akribisch recherchiertes Buch über die Methoden und die Qualifikation der Mitarbeiter des IPCC hat die kanadische Journalistin Donna Laframboise vorgelegt. Es ist inzwischen ins Deutsche übersetzt und hat den etwas sperrigen Titel „Von einem Jugendstraftäter, der mit dem besten  Klimaexperten der Welt verwechselt wurde“ und lohnt die Lektüre. Aufschlussreich ist in diesem Zusammenhang die Frage des bekannten deutschen Journalisten Günter Ederer an den damaligen Generalsekretär des IPCC, Yvo de Boer: „Warum berücksichtigt und nennt das IPCC nicht die wissenschaftliche Literatur, die andere, zum Teil sogar gegenteilige Ergebnisse zeigt, als die Lesart von der Erwärmung durch anthropogenes CO2? Die offenherzige Antwort des IPCC-Generalsekretärs darauf: „Das ist nicht unser Auftrag„.

Die überwiegende Mehrzahl der deutschen Medien hat sich längst in freiwilliger Selbstgleichschaltung auf IPCC-Linie ausgerichtet. Durch Einsatz kommerzieller Werbemethoden ist CO2 heute in bereits absurder Unsachlichkeit zur Ikone von Umweltschäden geworden. Die religiösen Züge dieses Glaubens schließen Sachargumente aus. Völlig ignoriert wird, dass der Glaube nur auf den Aussagen unsicherer Computermodelle gründet.

— Zitatende.

Der Geologe Sebastian Lüning hat die hier angesprochene Problematik des IPCC noch detaillierter in einem Video von zwei Teilen erklärt und durchleuchtet. Hier Teil 1:




Klimawandel – Fakten beweisen: keine Erd-Erwärmung infolge CO2–Emissionen

Die offizielle Klimapolitik hat das Ziel ,unsere’ CO2-Emissionen zu begrenzen, um da­durch eine weitere Erderwärmung zu vermeiden, denn CO2 soll angeblich den Treibhaus­effekt ver­stärken. Das Modell vom anthropogen verursachten Klimawandel beruht auf Kli­masimulatio­nen. Beweise fehlen, die Fakten widerlegen das Modell.

Das IPPC hat schon früh betont, dass Voraussagen zum Klima nicht möglich sind, denn es ist ein chaotisches nichtlineares System mit sehr vielen Einflussfaktoren. Inzwi­schen hat die re­ale Entwick­lung die Richtigkeit dieser IPCC-Beurteilung bestätigt: die Vor­aussagen ha­ben sich nicht erfüllt – ein unbezweifelbarer Be­weis wurde nicht erbracht. Das Gegenteil hat statt gefunden: Erwärmungen vor CO2-Emissionen, Abkühlungen trotz CO2-Emissionen. Die Klimapolitik wurde trotzdem nicht geändert. Die wesentlichen Fakten und Folgerungen wer­den deshalb hier noch mal zu­sammengefasst und in den Anla­gen 1 EW VHS Bever CO2 Anl 1 2019 C und 2 EW VHS Bever CO2 Anl 2 2019 Cillustriert.

Zusammenfassung der Fakten und Folgerungen 

  • Während das regierungsamtlich verordnete Modell vom anthropogen verursachten Kli­mawandel all­gemein geglaubt wird und als Richtlinie für Regierungsbeschlüsse gilt, be­weisen die Fakten das Ge­genteil – die periodischen Strahlungszyklen und Änderun­gen der Bahnparameter verursa­chen ständig Klimawechsel.
  • Änderungen von einigen Zehntel Grad sind übliche Temperaturschwankungen aber noch kein
  • Die Messungen zeigen,
  • dass es Warmzeiten vor ‚unseren’ CO2-Emissionen gab und Ab­kühlun­gen trotz dieser Emissionen, die sogar länger andauerten als die Warmpha­sen.
  • Während des Mittelalterlichen Klimaoptimums gab es noch kein industrielles CO2, aber Ackerbau in Grönland, Weinanbau in England, Veilchen zu Weihnachten und Kirschen im März.
  • Die Ursache kommt vor der Wirkung: In allen Hochgebirgen begann die Gletscher­schmelze mit der Rückerwärmung nach der Klei­nen Eiszeit um 1860, also 80 Jahre vor Beginn der industriellen CO2-Emissionen.
  • Die Temperaturganglinien zeigen schnellere und stärkere Änderungen in vorindustriel­ler Zeit, also vor ‚unseren’ CO2-Emissionen.
  • Kürzlich gefällte Bäume zeigen für die letzten Jahrzehnte engere Jahresringe, also kühle­res Klima, als für die vorhergehenden.
  • Für die Analyse von mittel- und langfristigen Änderungen sindLangzeit-Messwerte erfor­derlich. Sie werden im Internet  an­geboten, z.B. in  de. Ihre Daten von 82 Stationen wurden ausgewertet und deren Ganglinien hergestellt. Anlage 1 zeigt auf Seite 2 exemplarisch die Gangli­nien der sieben ältesten Datensätze. Man erkennt kurzfristige und örtlich begrenzte Temperaturänderungen. Wirkliche Klimawandel, die in mehreren Ganglinien an gleichzeitigen Erwärmungen oder Abkühlungen zu erken­nen wären, wur­den nicht registriert.
  • Wie in Anlage 2 aus 4) zitiert , betrug der CO2-Anteil vor dem Beginn unserer industrie-bedingten CO2-Emissionen ca. 0,028%. Gegenwärtig beträgt er – emissionsbe­dingt – ca. 0,04%, ist also um 0,012% gestiegen. Dieser Anstieg hat die Temperatur um 0,2°C  er­höht, was praktisch bedeutungslos ist. Weiterhin gilt die Feststellung aus Frankes Lexikon der Physik von 1959: „CO2 ist als Klimagas bedeutungslos“  
  • Der von den Menschen erzeugte Anteil am Naturkreislauf des CO2 ist mini­mal. Er ist klei­ner als die Menge der Entgasungen aus Vulkanen und Förderschloten am Meeres­boden, die zeitlich und örtlich wechseln­. Auch diese Wechsel sind eine irdi­sche Nor­malität – und nicht durch den Menschen beeinflussbar. Beispiel: der Ätna liefert z.Zt. jährlich ca. 13 Millionen Tonnen. Wie lange das schon geschieht und wie lange das noch andauern wird,  ist unbekannt.
  • Diese Wechsel wirken sich auch auf das Klima aus.Genaue Berechnun­gen der Auswir­kungen sind wegen der ständigen Veränderungen nicht möglich.
  • CO2 ist mittels Photosynthese der Grundbaustein der Nahrungsmittel – ohne CO2 kein Le­ben! Steigender CO2-Gehalt sollte begrüßt werden, denn er ergibt reichere Ernten, die für die wachsende Erdbevölkerung benötigt werden! Mit einem gegenwärtigen CO2-Anteil an der Atmosphäre von ca. 0,04% ist die Erde nicht mehr allzu weit entfernt von dem für das Weiterleben unserer Biosphäre benötigten Anteil von ca. 0,015%  Wir nähern uns also der Existenzgrenze. Damit die Biosphäre erhalten bleibt, brauchen wir mehr CO2, nicht weniger.

 

Zum Schluss: Warum sollte die Biosphäre leiden wenn – diesmal –  wir den CO2-Gehalt der Atmosphäre vergrößern, beispielsweise durch unsere Emissionen?  Beispiele aus der Erd-geschichte zeigen, dass die Biosphäre auch solche Änderungen verkraften würde. Wie die Grafik in Anlage 2 zeigt, war der CO2-Gehalt der Atmosphäre fast immer sehr viel grö­ßer als heute, z.B. betrug er vor 500 Mill. Jahren 18% und vor 100 Mill. noch 4%. Beide haben der Bio­sphäre genutzt:  z.B. lieferten ihre Urwälder das Holz aus dem dann unsere Kohle entstand. Umgekehrt haben hohe CO2-Gehalte auch Eiszeiten nicht verhindert. Trotz größerer CO2-Gehalte reichten in früheren Eiszeiten die Gletscher der Arktis auch bis in den heutigen Mittelmeer-Raum. Wirkliche Klimawandel werden durch Änderungen der Bahnpa­rameter und der Strahlungszyklen verursacht und beide agieren unabhängig wie Vulkane und Erdbeben.

5) J. F. Eichner, E. Koscielny-Bunde, A. Bunde, S. Havlin and H.-J. Schellnhuber:Power-law persistence and trends in the atmosphere: A detailed study of long temperature records

PHYSICAL REVIEW E 68, 046133 ~2003!

Die Klima- und CO2-Geschichte der Erde ist 4,5 Mrd. Jahre alt, und wer die Entwicklung des Klimas auf der Grundlage der Daten von nur 130 Jahren beurteilt, ist ahnungslos oder handelt zweckbestimmt. Alte Wetterberichte, die 994 beginnen, verzeichnen für das Mittelalter besonders viele sehr heiße Jahre. Einige Beispiele (aus Das schöne Allgäu, Heft 4, 2007):

1185 – Der Winter war mild, das Getreide war im Mai und der Wein im August reif.

1186 – Im Januar blühten die Gärten, im Februar trugen die Apfelbäume Früchte.

1229 – Der Winter war mild. Zu Weihnachten blühten die Veilchen

1241 – Im März wurden bereits Kirschen feilgeboten.




„EEG-Windräder als ÖFFENTLICHE SICHERHEIT“ – Minister Altmaiers Harakiri, ergebnisoffen betrachtet

EINLEITUNG

Wenn Gesetzentwürfe aus der deutschen Bundesregierung vorgelegt werden, dann haben daran fast immer, bereits eine Menge Personen und Institutionen mitgeschrieben, mitgewerkelt und mitgeklüngelt. Dies offen wie auch in sehr versteckten Formen. Sowas nennt man „Lobbyarbeit“ und ist allgemeinen in etwa so akzeptiert, wie die unvermeidliche jährliche Grippewelle im Winter. So wurden auch Steuergesetze, anstatt von Ministeriumsmitarbeitern, sogar bereits von Bankenvertretern mitgestaltet und ausformuliert, was z.B. bei den aktuellen Betrugs-Anklagen im Bereich „Cum Ex“, eine Menge Zündstoff in die Gerichtsverfahren bringt. Hier sollen nun aber gemäß Herrn Altmeiers Ministerwunsch zu einer Novelle des „Erneuerbare-Energien-Gesetzes“ (EEG), enorm weitgehende Formulierungen eingesetzt werden, über deren Auswirkungen und Folgen, wohl auch der Herr Bundesminister für Wirtschaft, sich nicht wirklich vollständig bewußt sein dürfte. Daher soll diese Zusammenstellung das Ganze einmal so möglichst umfassend beleuchten, daß Herrr Altmaier (CDU) danach vielleicht ansatzweise versteht, daß diese Sache ihn letztendlich womöglich sogar noch den geliebten Ministerposten kosten kann.

EINLEITUNGS-LOB

Grundsätzlich muß man aber erst einmal jeden Minister und jede Ministerin loben, die sich Gedanken und Sorgen um „Öffentliches Interesse“ und erst recht gar um die „Öffentliche Sicherheit“ machen! Das ist zwar eigentlich ihre ureigene Verpflichtung durch den geleisteten Diensteid, wird aber dennoch heutzutage schon beim steuerzahlenden Normalbürger, subjektiv eher als Ausnahme empfunden. Herr Altmaier muß hier also zunächst mal gelobt werden, daß der sich demnach Gedanken um die „Öffentliche Sicherheit“ gerade zur Stromversorgung macht. Wenn die Politik nämlich darauf hinsteuern wird, daß Deutschland überregionale Dunkelflauten erhält, wird dies nicht ohne poltische Konsequenzen, Mitschuldfragen und Sündenbocksuchen ablaufen.

TEXT-ENTWURF EEG-NOVELLE – § 1

Betrachten wir nun den Text des angedachten neuen §1 des künftigen EEGs:

…»Die Errichtung von Anlagen zur Erzeugung von Strom aus erneuerbaren Energien liegt im öffentlichen Interesse und dient der öffentlichen Sicherheit.«…

BETROFFENE BEREICHE – TECHNIK UND RECHTSPRECHUNG

Damit gemeinte „Anlagen“ sind demnach enorm unterschiedliche Dinge. Windkraftanlagen, Photovoltaik-Solarmodule, Wasserkraftwerke an Flüssen, Pumpspeicher- und Speicherseen mit Talsperren, Wasserstofftechnische Anlagen und übergeleitet sinngemäß auch neue Stromtrassen für die Weiterleitung. Wenn diese „Anlagen“ damit allesamt und plötzlich, auf ein Level einer „öffentlichen Sicherheit“ hochgestuft werden, dann hat dies erhebliche Auswirkungen auf Genehmigungen, Rechtsprechungen dazu und macht mit einem Schlag auch unzählige existierende Gerichtsurteile aus früheren Verfahren hinfällig. Dies hebelt damit auch gewisse höchstricherliche Urteile aus, auf die sich unzählige Verwaltungsvorgänge als Rahmenrichtlinien beziehen und legitimieren. Dies zieht sich aber derart tief in die Details, daß der Herr Minister Altmaier, gewiß nicht wußte, daß damit auch künftige Verfahren der Staatsanwaltschaften in Todesdelikten, unerwartet betroffen sein werden. Doch betrachten wir nun mal Punkt für Punkt und sichten dazu zugängliche Quellen.

NETZSTABILITÄT

Wenn völlig unterschiedliche Anlagen aus dem Bereich der „erneuerbaren Energien“ (ab hier „EE“ genannt) per §1 faktisch gleichermaßen und pauschal, zu Dingen der „öffentlichen Sicherheit“ zusammengefaßt werden, fehlt jede notwendige Differenzierung. Während etwa die deutschen Wasserkraftwerke an Flüssen, durchaus einen gewissen Anteil an der Netzstabilität haben, wird dies für die derzeit ca. 30.000 deutschen Windräder, von der Bundesnetzagentur, aktuell mit nur 1% angegeben. Die unzähligen Solardächer mit PV sogar nur zu 0%! Diese Zusammenstellung ist in den beiden Anlagen „Aussagen der BNetzA…“ und „Alwin_Burgholte_Stromversorgung…“ (Aussagen der BNetzA zur Netzstabilität Alwin_Burgholte_Stromversorgung_ heute_–_und_morgen_Fußzeilen ) zusammengefaßt. Autor ist Prof. Alwin Burgholte in Wilhelmshaven. Sollte das neue EEG also so, wie im Entwurf, Windkraftanlagen als künftige Bestandteile der „Öffentlichen Sicherheit“ einstufen, zerstört dies eine über mehr als 25 Jahre lang gewachsene Genehmigungs- und Rechtsprechungspraxis, mit einer technisch-physikalisch unhaltbaren Grundlage. Dann könnten oder müßten sogar Energieversorgungsunternehmen auch entsprechende Netzstabilitäts-Regelungen für Steinkohle- und Braunkohle-Kraftwerke, für Gaskraftwerke und womöglich sogar für Kernkraftwerke stellen und gerichtlich erstreiten.

NATURSCHUTZ- UND UMWELTSCHUTZGESETZGEBUNG ALLGEMEIN

Die vorgesehene EEG-Neuformulierung, würde mit einem Schlag sämtliche bisherigen Regelungen und Urteilsfindungen zu Naturschutz und Umweltschutz bei der Genehmigung von Windkraftanlagen, Solarmodulen und Wasserkraftanlagen aufheben. Eine rechtliche „Keule“ mit „Öffentlicher Sicherheit“ schlägt grundsätzlich immer die „nachgeordneten“ Interessen. Einzelthemen davon werden nachstehend noch genannt. Doch bereits auf allgemeiner verfassungsrechtlicher Ebene, führt so eine Gesetzgebung wie geplant, zu einer völligen und im Konkreten auch verwirrenden Umordnung von verschiedenen Rechtsgütern. Naturschutz und Umweltschutz, werden damit nämlich als „hinter der Öffentlichen Sicherheit“ zurückgestuft.

WINDKRAFT-ABSTÄNDE UND LÄRMSCHUTZ

Mit der vorgesehenen EEG-Neufassung, werden sämtliche derzeit gültigen Abstandsregelungen, zwischen Windkraftanlagen und Wohngebieten nachrangig und in neuen Genehmigungsverfahren aufhebbar. Dies gilt damit auch für die bayerische „10H-Regel“ weil die „öffentliche Sicherheit“ als höherwertig zu betrachten ist, als Lärmschutz für Bürger. Dies wäre damit künftig vergleichbar mit dem Lärm von NATO-Düsenjägern, den Anwohner von Militärflugplätzen ja auch erdulden müssen.

WINDKRAFT UND VOGELSCHUTZ, SOWIE FLEDERMAUSSCHUTZ

Die enormen Verluste an Vögeln und Fledermäusen durch Windkraftanlagen, sind seit langer Zeit bekannte Tatsachen. Manchmal wird mit bezahlten und beauftragten Studien seitens der Interessenvertreter für Windenergie versucht, diese Fakten zu relativieren. Mit einer rechtlichen Aufwertung von Windkraftanlagen durch das geplante neue EEG, als Teile der „öffentlichen Sicherheit“ wird der Vogel- und Fledermausschutz jedoch eindeutig abgewertet, wird rechtlich nachrangig und verliert damit seine bisherige Bedeutung für Genehmigungsbehörden und Gerichte. Gleichzeitig aber kollidiert diese EEG-Neufassung dann aber mit diversen bestehenden EU-Vogelschutzrichtlinien. Eine Abwägung zwischen so einem „neuen“ EEG als im „nationalen deutschen Interesse“ und EU-Vogelschutzrecht, könnte nachher jahrelange gerichtliche Verfahren, bis vor den EU-Gerichtshof bedeuten und dort für Deutschlands „nationale Interessen“ durchaus auch mit einer krachenden juristischen Niederlage enden.

WINDKRAFT UND INSEKTENSCHUTZ

Der massive Rückgang bei Zahl der Insekten, ist unbezweifelte Tatsache. Bei all den dazu bisher publizierten Ursachen, fehlen die Verluste durch Rotorschlag, durch Windkraftanlagen bei Insekten. Es besteht aus gegenteiligen Abwägungen, kein wirklich großes Interesse, diese Insektenverluste, gerade durch EEG-Anlagen, näher zu erforschen. Diese sind aber in gewaltiger Größenordnung und viel massiver, als bisher bekannt und meistens publiziert wurde. Die vorgesehene EEG-Neufassung, verschärft noch diesen Insektenrückgang. Jedes weitere Windrad trägt dazu bei. Die Maximalpläne für Windkraftausbauten in ganz Deutschland, vernichten dann damit aber eine immens große Insektenpopulation.

WINKRAFTANLAGEN UND EISWURF SOWIE HAVARIEN

Bereits seit 2002 waren umfangreiche und privat initiierte Sammlungen von normalen Medienberichten ansehbar, daß Bruchstücke von havarierten Windrädern, vor allem von Rotorteilen, erfolgt sind. Zusätzlich ist ein „Eiswurf“ im Winter immer möglich. Dies trotz technischer Maßnahmen wie Rotorblattbeheizung oder Unwucht-Notabschaltungen. Auch havarierende Gondelteile wurden schon registriert. Dabei kam es besonders bei Eiswürfen, auch schon zu Einschlägen in bis zu 700m-Entfernung zum eigentlichen Windrad-Standort. Dies ergab vielfältige Gefahren für Leib und Leben von Menschen, die im Folgeteil näher beschrieben werden und bisher glücklicherweise, auch wegen der zuletzt meist milderen Winter, noch nicht so massiv gefährlich ins Bewußtsein rückten. Die geplanten EEG-Neufassung relativiert dabei die Abwägung der diversen Rechtsgüter, zugunsten einer Art „Duldung“ solcher Gefahren.

WINDKRAFTANLAGEN UND GESUNDHEITSSCHÄDEN & TÖTUNG & STAATSANWÄLTE

Bis zur Texterstellung dieser Zeilen, hat es offenbar bisher noch keinen Schwerverletzten oder gar Getöteten, durch havarierte Windradteile oder Einwürfe dieser Art gegeben. Doch mit zunehmender Menge an Windrädern und deren Konzentration etwa auch an Autobahnen, nimmt diese Gefahr von Jahr zu Jahr zu. Sobald aber ein „Schaden“ als Verletzung oder Tötung von Menschen passiert, muß die jeweils zuständige Staatsanwaltschaft ein „Verfahren gegen Unbekannt“ einleiten und dies Klären. Wenn also etwas auf der Autobahn A3 am Elzer Berg, zwischen Frankfurt und Köln, ein Eisbrocken von einem dortigen Windrad, auf der ziemlich nahen Autobahn ein Auto trifft und Menschen sterben, wer ist dann als „schuldig“ oder „mitschuldig“ anzusehen? Mußte bereits die jeweilige Genehmigungsbehörde dies ausreichend beachten oder war das dann einfach „hinzunehmen“ als allgemeines bürgerliches Lebensrisiko? Auch jetzt, vor einer EEG-Neuregelung, ist die Thematik sehr heikel und kritisch, nicht nur für die dann zufällig regional für den Unfallort zuständigen Staatsanwälte und Gerichte. Sollte die geplante EE-Novelle aber die „Verursacher“ solcher Tötungen durch Eis- und Teilewurf, dann auch noch als im „nationalen Interesse“ aufwerten, würde die ohnehin schon sehr schwierige und komplexe Rechtslage, noch unübersichtlicher werden und dann garantiert bis auf ein Grundsatzurteil des Bundesverfassungsgerichts hinlaufen müssen.

WINDRADBRÄNDE UND HOCHGIFTIGE FASERN

Mindestens 30 Windradbrände, sind seit 2002 herum inzwischen passiert. Keine Feuerwehr kann  Brände in solchen Höhen löschen, was damit nur „kontrolliertes abbrennenlassen“ übrig läßt. Dies wird noch zu etlichen Waldbränden führen. Relativ neu dazu kommen auch Erkenntnisse, daß bei solchen Windradbränden, besonders aus den verbrannten Rotoren und deren Epoxidharzen, eine Unmenge giftiger, gefährlicher und krebserregender „böse Fasern“ auf die Umgebung gelangen. Dieselben giftigen Fasern etwa durch einen Düsenjägerabsturz verursacht, werden dann mit großflächigem Bodenabtrag akkurat abgetragen und auf Giftmülldeponien entsorgt. Passiert diese Fasernverseuchung aber durch einen Windradbrand, wie z.B. am 15.2.2020 in Körle/Nordhessen, dann passiert dort darin offenbar gar nichts. Dann wird direkt auf den Flächen um die Brandstelle, sogar Getreide und Raps angebaut und die Früchte nach der Ernte, wohl ganz normal und unerfaßt wie auch nicht irgendwie untersucht, im Handel verkauft. Sowohl die Gemeinde Körle selbst, als auch der betroffene Landkreis Schwalm-Eder, haben auf erfolgte Meldungen zu einer Vergiftungsgefahr, noch rechtzeitig vor der Aberntung, offenbar NICHTS getan und gar nicht einmal reagiert. Das parallel ebenfalls informierte Bundesumweltamt, erklärte sich für sowas als „nicht zuständig“ und so dürften vergiftete gefährliche Getreide- und Rapsmargen aus dem Brandbereich Körle, ganz normal in den üblichen Handelsumlauf gekommen sein. Mit der geplanten EEG-Neufassung verbessert sich vermutlich das staatliche Ignorieren aber womöglich auch Geheimhalten können, solcher Vorgänge und Vergiftungen, weil in „nationalem Interesse“ anzusehen.

WINDKRAFTANLAGEN UND INFRASCHALL – UNIKLINIK MAINZ

Weltweit wurden diverse Forschungen zu Infraschall bei Windrädern getätigt und ausgewertet. Eine davon ist von der Uniklinik Mainz:

https://mainzund.de/mainzer-studie-infraschall-von-windraedern-kann-die-herzleistung-des-menschen-deutlich-schaedigen/

Doch wenn die Verursacher künftig wegen „nationaler Sicherheit“ quasi faktisch unverzichtbar werden, verlieren solche Bedenken und Probleme natürlich an Bedeutung und werden im Sinne einer dann „erwartbaren Duldung“ auch relativiert. Darin sehr forsche Windenergie-Befürworter könnten dann „plausible“ Argumente vorbringen, daß man eine eventuelle Gefährdung durch den Infraschall von Windrädern, in etwa sinngemäß dann genauso ertragen müsse für das Sicherheitsinteresse der BRD, wie die Gefahr eines eventuellen militärischen Düsenjägerabsturzes auf das eigene Haus.

WINDKRAFTANLAGEN & DREHFUNKFEUER & FLUGSICHERHEIT

Erst kürzlich wurde bekannt, daß das Bundesamt für Flugsicherung seinen Widerstand gegen einen Windpark in Ascheberg (Münsterland) aufgegeben habe, wegen der vorherigen Bedenken zum Drehfunkfeuer Albersloh. Man kann davon ausgehen, daß das betreffende Bundesamt intern schwer unter Druck gesetzt wurde, damit dessen Beurteilung ja keinen Windpark verhindern sollte. Etwas Ähnliches fand auch in Hessen statt, wo das Drehfunkfeuer Hünstetten-Limbach, auch die Planungen eines Windparks in Hünfelden (Landkreis Limburg-Weilburg)  lange behindert hatten. Irgendwann aber gaben die Flugsicherungsbehörden in diesen beiden Fällen nach und ermöglichten damit den jeweiligen Windparkbau. Sollte es eines Tages allerdings zu einem Flugunfall kommen und eine Mitursache in der Funkfeuer-Einschränkung nicht ausgeschlossen werden, kann das dann zu erheblichen rechtlichen Folgen und sogar staatsanwaltschaftlichen Ermittlungen führen. Eine „Aufwertung“ dieser Windparks als im Interesse „nationaler Sicherheit“ in der EEG-Novelle, könnte dagegen die „nationale“ Duldungsposition solcher Windparks verstärken. Im Falle von Hünstetten kann allerdings auch der US-Militärflugplatz Wiesbaden-Erbenheim betroffen sein. Sollte dann also infolge deutscher Windparkinteressen, etwa ein US-Hubschrauber abstürzen, dann wären übergeordnete US- und NATO-Interessen nicht genügend beachtet worden und ein vielseitiges politisches wie auch militärisches Fiasko für die BRD erwartbar.

WINDKRAFTANLAGEN & TYPGENEHMIGUNGEN LÄRMMINDERUNG

Ganz neue Windkraftanlagentypen, werden bereits als ganzer Windpark mit mehreren Windrädern genehmigt, noch bevor überhaupt ein erster Prototyp davon gebaut und konkret lärmtechnisch gemessen wurde. Ausgehend von ersten Windradtypen, wurde dies faktisch bis heute, über 30 Jahre hinweg so gehandhabt. Inzwischen sind die Kenntnisse weitergekommen, aber es sind immer noch erhebliche Unsicherheiten und kaum erklärliche Abweichungen bei WKA-Lärmwerten möglich. Daß diverse Gerichte da zeitweilige Anlagen-Abschaltungen verfügten, ist Tatsache. Gerade in der Anfangszeit des Windkraftbooms, wurden öfters mal Berichte bekannt, daß bei vorher angekündigten „Lärmmessungen“ von Windrädern, vorher und nachher angeblich Mitarbeiter der Hersteller in der Gondel tätig gewesen waren und nur für eine begrenzte Zeit dieser Lärmmessungen, auch gewisse „lärmmindernden Maßnahmen“ vollzogen hatten. Dabei manchmal behauptete, ganz simple lärmmindernden Maßnahmen, wie etwa das zeitweilige Verstopfen von Luftöffnungen mit Decken und Füllstoffen, dürften aber nirgends konkret belegt sein, weil dies relativ schnell zu Gondelbränden geführt haben müßte. Für die vorgesehene Novellierung des EEG, werden aber sämtliche Einschränkungen des Windkraftbetriebs wegen Lärmüberschreitungen und damit auch faktisch sämtliche Gerichtsverfügungen zu Betriebseinschränkungen wegen Lärmwertüberschreitungen, aufgrund „nationaler Sicherheit“ und dessen „höherem Rechtsgut“ als hinfällig erwartbar. Künftige neuen Gerichtsklagen wegen Windräderlärmüberschreitungen, hätten damit keine Chancen mehr.

WINDPARK-KONKURSE & BÜRGERWINDFONDS

Daß Windparks trotz theoretisch idealer Standortbedingungen, dennoch wirtschaftlich konkurs gehen können, ist seit dem Beispiel des Windparks „Himmelreich“ 2002, im nordbayerischen Frankenwald, auf 600m Höhe, eigentlich als Allgemeinwissen erwartbar. Mit etwas Recherche, findet man im Netz leicht bis zu 50 deutsche Windpark-Konkurse. Um diese Konkurse zu „sozialisieren“ und sich voll auf die noch wirklich gewinnmäßig lukrativen Teile von Windparks konzentrieren zu können, nämlich Planung & Bau, kommt es überall in Deutschland zu „Bürgerwindparks, Bürgerbeteiligungen“ und mehr dieser Art. Der dabei mehr oder weniger mitspielende Gedanke, an irgendeiner Form von „Weltrettung“ beteiligt zu sein und diese sogar noch mit relativ viel Geldgewinn im Vergleich zu den Nullzinsen bei Banken, versüßt zu bekommen, ist einfach zu verlockend. Doch ist nicht erwartbar, daß diese ständigen Konkurse von Windparks künftig abnehmen, bei ja immer größeren und teureren Projekten. Hier wird es dann eine große Rolle spielen, ob Windparks später „im nationalen Interesse“ auch per dann wohl dringend erwarteten Steuergeldern vor selbstverschuldeten Konkursen gerettet werden sollen oder ob dies wie bisher ein rein privates Geschäftsrisiko bleibt.

WINDPARK-KRIMINELLE AKTIVITÄTEN

Im Bereich Windenergie/Windparks, hat es im Laufe der Jahre, diverse kriminelle Aktivitäten und auch Gerichtsverfahren gegeben. Als Beispiel sei hier nur einmal die Firma PROVENTO (Koblenz und Kaisersesch) und der sich daraus ergebende Gerichts-Prozeß gegen diverse damals beteiligte Personen wie z.B. Frau Agnes Hennen (nur als Namensbeispiel), damals vor dem Landgericht Koblenz erwähnt, in das auch damalige Teile vom BUND und gewissen Gutachten, involviert waren. Einst verurteilte frühere Täter, sind heute nach Ende ihrer Strafe, längst wieder voll wie auch völlig legal in der Windenergie-Branche aktiv und generieren unverändert mit an neuen Windparks. Ein UNVOLLSTÄNDIGE Sammlung an „Ereignissen mit diversen kriminellen Energien“ in diesem Bereich, findet man unter diesem Link:

http://www.igsz.eu/WEK/WK1.htm

Eine Aufwertung der Windenergie durch das geplante neue EEG, zur „nationalen Sicherheit“ wird erwartbar noch mehr kriminelle Interessenten anlocken, damit Geschäfte zu machen versuchen.

WINDPARK-RÜCKBAUKOSTEN BEI NATIONALER SICHERHEIT

Bei der Genehmigung von Windparks werden bereits für nach der Nutzungszeit, geschätzte Rückbaukosten festgelegt und eine finanzielle Rücklage dafür, als Teil der Genehmigung bestimmt. Allerdings zeigt die Praxis, daß nachher das verfügbare Geld dafür gar nicht reicht, um etwa gemäß der Genehmigung, tatsächlich den gesamten Stahlbetonsockel von Windrädern wieder aus dem Boden zu holen und so werden sich Fälle wie bereits in Ostfriesland mehren, wo man beim Rückbau nur eine oberste Betonschicht abgetragen und mit Erde verfüllt hat, jedoch der Großteil dieser betreffenden Stahlbetonsockel abgebauter Windräder, nachher behördlich geduldet einfach im Boden verblieben ist. Mit der geplanten EEG-Novelle erhöht sich die Chance für Windparkbetreiber, daß solche „Duldungen“ künftig noch zunehmen könnten oder gar spätere Rückbauten dann wegen der „nationalen Sicherheit“ sogar stärker auf Staatskosten per Steuergeldern erfolgen könnten.

WINDENERGIE UND VERÄNDERUNGEN BEIM REGIONALEN WETTER/KLIMA

Physikalisch ist es unvermeidlich, daß Entnahmen und Veränderungen an Energie aus der Natur, nicht spurlos und folgenlos ablaufen kann. So führen auch in Deutschland über 30000 Windräder, bereits zu Veränderungen bei den Luftströmungen und zu verringerten Windgeschwindigkeiten. Das hat dann allerdings zwingend auch Folgen für das lokale bzw. regionale Wettergeschehen und damit auch dem regionalen Klima als Zusammenfassung davon. Dies ist bislang aber kaum näher erforscht worden und es besteht derzeit kein großer politischer Wille, dies bald zu ändern. Nur eher einzelne Untersuchungen ergaben Zusammenhänge wie eine Verstärkung von punktuellem Starkregen einerseits und mehr lokaler Bodendürre, durch verändertes Abregnen andererseits, dadurch beeinflußt werden. Dabei werden also als „negativ“ empfundene Änderungen, die man öfters dem „Klimawandel“ zuschreibt oder diesem zumindest eine Art „Mitschuld“ dafür gibt, damit noch verstärkt. Wenn also hier Maßnahmen, die dem „Klimaschutz“ dienen sollen, wie der massierte Bau von Windrädern, dann aber tatsächlich auch ungewollt dazu Starkregen und Dürren verstärken können, muß dies auch bei der EEG-Novellierung zumindest berücksichtigt und noch näher erforscht werden. Man kann sich dabei nicht einfach erwünschte „Vorteile“ schönreden aber Nachteile davon einfach ignorieren und totschweigen.

CADMIUM IN PHOTOVOLTAIK

Eine unbekannte Anzahl an Solarmodulen auf deutschen Dächern, enthält das hochgiftige Cadmium. Bestimmte dünnschichtige TFT-Module , wurden zur Effizienzsteigerung, quasi mit Cadmium versetzt und sind damit bereits faktisch existenter künftiger Giftmüll auf Solar-Dächern, in unbekannter Mengengröße, der nach der Nutzungszeit eigentlich in besonderen Giftmülldeponien entsorgt werden müßte. Faktisch wird sowas aber wohl nicht passieren, weil viele Besitzer solcher cadmiumhaltigen Module, davon gar nichts wissen oder nichts wissen können. So wird dies dann wohl wie ganz normaler ungiftiger Solarglasabfall behandelt werden und mancherorts dann erfolgende Vergiftungen deswegen, werden darin nur rätselhaft und ungeklärt bleiben. Für die genehmigungsrechtliche und auch strafrechtliche Bewertung dieser Materie, wird aber so eine geplante Aufwertung im §1 des EEG, auch darin zur Kollision unterschiedlicher Rechtsgüter sorgen. Ein per Gesetz ja dann pauschal der „öffentlichen Sicherheit“ dienendes PV-Modul, kann damit nicht mehr einfach so als „Gift“ und „Giftmüll“ deklariert und bestraft werden. Importeure und Geschäftemacher, die damit bisher unzulässig und faktisch illegales Geld verdienten, könnten dann bei Gerichtsverfahren mit dem Argument, daß sie ja nur zur „öffentlichen Sicherheit“ beigetragen hätten, mit entsprechender Chuzpe und guten Anwälten, dann sogar Straffreiheit für sich fordern.

WASSERKRAFTANLAGEN VERSUS EU-GEWÄSSERSCHUTZ

Die vorgesehene Novellierung des EEG, verstößt so auch massiv gegen die EU-WRRL. Die Europäische Wasserrahmenrichtlinie (EU-WRRL) wurde von der EU im Jahre 2000 den Mitgliedsstaaten vorgegeben. Im Jahre 2002 hat der Deutsche Bundestag die EU-Wasserrahmenrichtlinie ratifiziert und damit in Deutsches Recht übernommen.

Im Wesentlichen wird darin in 3 Stufen gefordert:

  1. Stufe bis 22.12.2015: Alle Gewässer müssen in einen guten Zustand versetzt werden: a) Gute Struktur,
  2. b) Gute Wasserqualität,
  3. c) Durchgängigkeit (auf- und abwärts gerichtet – d.h. alle Wasserlebewesen – im wesentlichen Fische, müssen in den Gewässern gefahrlos auf- und abwärts schwimmen können, damit die Arterhaltung gewährleistet ist bzw. sich auch verschollene Arten wieder dauerhaft ansiedeln können.

Alles was bis 2015 nicht umgesetzt werden konnte, weil z.B. rechtliche Probleme nicht geklärt werden konnten oder ähnliche bis dahin unabänderliche Probleme im Weg lagen, müssen dann bis spätestens 2021 nachgeholt werden. Was bis dann noch nicht aus bis dahin ungeklärten triftigen Gründen umgesetzt werden konnte, ist dann noch in einer letztlichen Frist bis 2027 umzusetzen. Bei Verschulden der Termine sollen Strafen erfolgen: 100.000 € pro Tag und je nach Schwere bis zu 800 000 € pro Tag! Falls die EEG-Novelle mit dem vorgesehenen Text also gedenkt, diese EU-Richtlinien auszuhebeln, um damit etwa leichter EEG-Wasserkraftanlagen an Fließgewässern bauen zu können, oder auch Talsperren oder gar Pumpspeicher-Wasserkraftwerke, kollidiert dies massiv und teuer mit EU-Recht.

WASSERKRAFT UND NICHTANWENDUNG DER TIERSCHUTZGESETZE

In allen Genehmigungsverfahren oder dem Betrieb von Wasserkraftanlagen wird die Deutsche Tierschutzgesetzgebung (Art. 20a GG; BTierSchG; Länderfischereigesetze (z.B. Hessen: § 35 HFischG) oder Rheinland-Pfalz § 44 LFischG nicht beachtet (In allen Fischereigesetzen der anderen B.-Länder ist der Wortlaut gleich – alle formulieren Individualschutz!) – außer in Bayern ist etwas anders. Es wird lediglich ein „dubioser § 35 Wasserhaushaltsgesetz (WHG)  angewendet mit Wortlaut:

Der § 35 WHG (1) Die Nutzung von Wasserkraft darf nur zugelassen werden, wenn auch geeignete Maßnahmen zum Schutz der Fischpopulation ergriffen werden.“ (Schutz der Fischpopulation bedeutet: Da Fisch bei der Laichabgabe sehr viele Eier ablegen, können nur wenige Fischpaare jeder Art (außer Wanderfisch z.B. Lachs, Meerforelle, Aal) in einer Stauhaltung zwischen 2 Wehren, die jeweilige Population sichern. Das bedeute dann tatsächlich, dass die Masse der jeweiligen Fische wohl legal in der folgenden Wasserkraftanlage getötet werden dürfen! Eine wegen der Nichtanwendung der Tierschutzgesetze beim Bau und Genehmigungsverfahren sowie beim Betrieb von Wasserkraftanlagen in den Bundestag eingebrachte Petition (Pet 2-18-18-277-031311), erbrachte 2017 folgendes Ergebnis:

„Nach dem Dafürhalten des Petitionsausschuss besteht in dieser Angelegenheit kein regulatorisches sondern ein Vollzugsdefizit der bereits bestehenden gesetzlichen Vorgaben. Vor diesem Hinergrund empfiehlt der Petitionsausschuss, die Petition  der Bundesregierung – dem Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit – als Material zu überweisen, soweit diese auf einen verbesserten Vollzug der bestehenden gesetzlichen Regelungen hinwirken kann, und das Petitionsverfahren abzuschließen.“

Heute, Ende 2020, ist noch nichts geschehen. Das BMU, Frau Ministerin Svenja Schulze und das BML, Frau Ministerin Julia Klöckner, haben sich  – trotz Nachfrage-  zu dem Thema bisher nicht  geäußert. Dieser § 35 WHG, der bei der Novellierung des WHG 2010 wohl von findigen Juristen formuliert wurde, hat sicher keinen Bestand, da auch lt. Petition bei Wasserkraftanlagen die Tierschutzgesetzte gelten („Vollzugsdefizit“)  Hier könnte das Problem entstehen, dass alle Wasserkraftanlagen wegen des vorliegenden Vollzugsdefizites bei einem der nächsten Gerichtsverfahren alle Wasserkraftanlagen stillgelegt werden müssen! Da ist auch wichtig, ob die EEG-Novelle dann versucht, auch solche Wasserktaftanlagen, künftig als Teil der „nationalen Sicherheit“ aufwerten zu lassen.

BIOGAS-ANLAGEN

Zur EEG-Stromerzeugung gehören ja auch Biogas-Anlasgen, die faktisch nichts anderes als kleine Chemiefabriken sind. Abgesehen von eher bekannten Gefährdungen, die von solchen Anlagen für Menschen ausgehen können, gibt es zudem ja auch noch Unfälle mit Gewässerverseuchung durch Gülleauslauf, wie das schon in diversen Regionen so passiert ist. So auch im Landkreis Limburg-Weilburg (Hessen), über einen Bachzufluß in die Weil und von da aus in die Lahn. Die EEG-Novelle darf auf keinen Fall, die existierenden bau- und genehmigungsrechtlichen Hürden für Biogasanlagen verringern oder gar teilweise aufheben.

ANLAGEN FÜR „GRÜNEN“ WASSERSTOFF

Jede Art von Wasserstoffgewinnung und -tanklagerung, erzeugt eine gewisse Gefährdungssteigerung für ihre Umgebung. Dies darf dann aber nicht über das EEG-Novelle, zu einer Vernachlässigung der höchstmöglichen Sicherheitsstufen führen. In der Bevölkerung ist fast unbekannt, daß Wasserstoff, wegen seiner Molekülstruktur, etwa aus normalen Stahltanks austreten kann und damit Gefährdungen bis zur Explosionsgefahr vorkommen können. Des Weiteren ist kaum irgendwo Bewußtsein dazu vorhanden, wie Wasserstoff-Infrastruktur, sowohl gegen Unfälle wie auch gegen gezielte Anschläge (Terrorismus, Hacker), besonders gefährdet ist. In der geplanten EEG-Novelle darf nichts enthalten sein, was hierzu Schutzmaßnahmen, Sicherheiten und auch existierende Genehmigungshemmnisse, für neue H-Anlagen aufhebt oder abschwächt.

EEG-NOVELLE UND STROMPREISSTEIGUNG

Die vorgesehene EEG-Neufassung, wird in der realen Praxis, das weitere Ansteigen der deutschen Strompreise, noch beschleunigen. Gegenteilige Behauptungen dazu, bleiben so wirkungslos wie alle Bisherigen. Nur mit massiven und jährlich steigenden Geldzahlungen aus Steuermitteln, in die anteiligen jeweiligen regionalen und nationalen Strom-Kostenberechnungen, sind diese Strompreis-Anstiege bisher noch etwas begrenzt worden. Der deutsche SPITZENSTAND bei den teuersten Strompreisen weltweit, wird durch das geplante neue EEG nicht gefährdet, sondern eher noch zementiert. Energieintensive Unternehmen, werden wirtschaftlich gezwungen, ihre Produktion aus Deutschland ins strompreisgünstigere Ausland zu verlagern, um auf dem globalen Weltmarkt bestehen zu können. Die Zahl von derzeit ca. 300 000 deutschen Haushalten im Jahr, die wegen Zahlungsunfähigkeit zwangsweise Stromsperren erhalten, wird noch ansteigen.

STROMTRASSEN

Wenn die diversen Anlagen zur „EEG-Stromerzeugung“ als im nationalen Interesse und Sicherheit aufgewertet werden sollen, muß dies natürlich entsprechend auch für ihre „Erzeugnisse“ gehen, also den sogenannten „Öko-Strom“ und dessen Weitertransport. Strom zu erzeugen ohne ihn weitertransportieren zu können, macht ja keinen Sinn. Wenn also die „EEG-Erzeugungsanlagen“ derart wichtig hochgestuft werden, dann ist auch dasselbe mit der Weitertransport-Infrastruktur, eine logische Folge. Die vorgesehene neue EEG-Fassung, erleichtert und beschleunigt so also auch JEDEN Neubau oder Ausbau von Stromleitungen und relativiert dafür bestehende Gesetze und Regelungen zu Naturschutz- und Umweltschutz.

SCHLUSSTEIL

Diese Zusammenstellung wurde von keiner Person oder Institution bestellt oder bezahlt. Sie ist ein rein privat-persönliches Werk, aus den eigenen Erfahrungen der Praxis des Autors in den letzten 20 Jahren und soll nur als Übersicht dienen. Zu jedem einzelnen Punkt, ist eine eigene Recherche mit Quellen im Netz, für die Leser möglich. Irgendeine Garantie oder gar Haftung für den Inhalt dieser Zusammenstellung, wird nicht gewährt oder gegeben. So wie sämtliche juristischen Kommentierungen, etwa von C.H.Beck zum BGB, sind auch diese Kommentare und Schlüsse hier, lediglich als eine subjektive Autoren-Meinung anzusehen, die sich aber um möglichst neutrale Betrachtung bemüht. Völlig unabhängig von parteipolitischen oder sonstigen Interessen. Irrtümer sind also möglich und der Text dieser Stellungnahme, wird auch in der Zukunft immer wieder einmal aktualisiert. Dies wird aber am jeweils angegeben Datum zum Textbeginn erkennbar. Der Textinhalt bewegt sich im Rahmen allgemeiner individueller Meinungsfreiheit. Sollte irgendein Eintrag hier fehlerhaft sein oder ein Irrtum, genügt eine direkte Information an den Autor, zur Nachprüfung und auch Korrektur bzw. Löschung bei begründeter Notwendigkeit. Irgendeine anwaltliche Tätigkeit dazu, wird aber in keinem Falle notwendig und auch nicht honoriert.

 




Sonnenverwöhnt und reich an Öl – Dubai setzt auf zuverlässige Kohlekraft

[Dieser Bericht ist ziemlich wortgleich von vielen Medien aufgegriffen und veröffentlicht worden.]

Der Bau des 3,4 Milliarden US-Dollar teuren Hassyan-Kraftwerks in Dubai erscheint bemerkenswert, da in den Vereinigten Arabischen Emiraten der Hauptsitz der Internationalen Agentur für erneuerbare Energien liegt. Dort wird das erste Kernkraftwerk der Halbinsel gebaut und das endlos riesige Solarkraftwerk, das nach Dubais Herrscher benannt ist. Dubai hat sich auch das hohe Ziel gesetzt, bis 2050 den niedrigsten carbon-footprint der Welt zu erreichen – möglich, dass das durch die Verbrennung von Kohle beeinträchtigt wird.

Der Bau des Kohlekraftwerks erfolgt, da die Golf-Arab-Nationen nach wie vor zu den energiehungrigsten der Welt gehören und politische Bedenken hinsichtlich der Verwendung von aus dem Ausland importiertem Erdgas bestehen. Diese Bedenken werden durch einen jahrelangen Streit mit dem Gasproduzenten Katar unterstrichen, der von vier arabischen Nationen boykottiert wird, einschließlich der VAE.

 „Dubai ist wirklich der Meinung, dass wir viel zu stark von Gasimporten abhängig sind, diese könnten durch alle möglichen Dinge unterbrochen werden, die Kosten sind sehr hoch und wir müssen etwas anderes tun, um unsere Kraftstoffversorgung zu diversifizieren und die Gesamtkosten zu senken.“ So Robin Mills, der CEO von Qamar Energy, einem in Dubai ansässigen Beratungsunternehmen. „Dubai hat ein sehr konkurrenzfähiges Angebot für das Kohlekraftwerk erhalten … und so wurde die Entscheidung getroffen.“

Dubai hatte bereits 1961 ein Elektrizitätsunternehmen, etwa 10 Jahre bevor es sich mit anderen zusammenschloss, um die Vereinigten Arabischen Emirate zu gründen. In der Zwischenzeit verzeichnete Dubai ein schnelles Wachstum, das zum Teil darauf zurückzuführen ist, dass Ausländer Privateigentum erwerben können. Wolkenkratzer wuchsen in einen Himmel, der bald von Flugzeugen der staatlichen Fluggesellschaft Emirates gefüllt wurde. Massive Einkaufszentren locken Touristen an, darunter eines mit eigener Skipiste.

All diese Wunder – plus Kraftwerke zur Entsalzung des Wassers, das zur Begrünung der Wüstendünen und zur Klimatisierung der Innenräume benötigt wird – beflügeln Dubais unersättlichen Appetit auf Elektrizität. Im Jahr 2012 produzierte Dubai nach Angaben der Strom- und Wasserbehörde 36.297 Gigawattstunden Strom. Im Jahr 2019 stieg diese Zahl um über 10.000 Gigawattstunden auf 46.704 – mehr Strom als Bulgarien insgesamt erzeugt. Das ist viel Energie, da 1 Gigawatt ungefähr 300.000 Haushalte im Westen versorgen kann.

Der Bedarf an Energie ist in allen Golf-Staaten etwa gleich, darunter Bahrain, Kuwait, Oman, Katar, Saudi-Arabien und die Vereinigten Arabischen Emirate. Der Strombedarf in den (Gulf Cooperation Council) GCC-Ländern wird zu den „höchsten der Welt“ gezählt, gemäß des saudi-arabischen „King Abdullah“  Erdölforschungszentrums.

In Dubai gewann jahrelang fast 100% des gesamten Stroms aus Erdgas. Während der neue Solarpark Mohammed bin Rashid Al Maktoum im vergangenen Jahr etwas mehr als 3% der Nachfrage deckte, ist der Stadtstaat immer noch auf Gas angewiesen – ein Großteil davon aus Katar. Im Februar kündigten die VAE an, ein Erdgasfeld mit 2,27 Billionen Kubikmetern oder 80 Billionen Standardkubikfuß Gas zwischen Abu Dhabi und Dubai zu finden, was bislang jedoch noch nicht kommerziell gefördert wird. Das neue Kernkraftwerk der Emirate liegt Jahre hinter dem Zeitplan zurück.

In Dubai, übt der derzeitige Scheich Mohammed absolute Macht aus und so wurde das Hassyan Kohlekraftwerk relativ schnell genehmigt.  Das Kraftwerk wird zum Teil von China gebaut, die das Projekt als „großes Ingenieurprojekt der Belt and Road Initiative“ bezeichnen, was ihren Einfluss in Afrika und Asien ausbauen soll [Siehe Finanzierung, unten]. Das Kraftwerk hat eine Leistung von 2.400 MW, die Baukosten sind mit 3,4 Mrd. US-$ veranschlagt. China geht davon aus, dass das Kraftwerk, an dessen Bau General Electric Co. beteiligt ist, 20% des Strombedarfs in Dubai decken wird.


Auf die Übersetzung des nachfolgenden, noch längeren Textes als bis hierhin,  habe ich verzichtet [der Übersetzer], denn

… ab hier kommen im Originaltext die Klimaforscher, die nicht müde werden zu behaupten, dass C02 die Welt erwärmt und alles Schlimme verursacht. Auch wird nun eine Frau Dr. Aisha al-Sarihi mehrfach mit ihren Bedenken zitiert [wissenschaftliche Mitarbeiterin am King Abdullah Petroleum Studies and Research Center, Schwerpunkte Klimapolitik und erneuerbare Energien  …]

Mir erscheinen Details zum Projekt interessanter. (Denken Sie an die Vorgabe einiger Europäischer Banken, „nur grüne Projekte“ zu finanzieren. Siehe Anhang

https://www.independent.co.uk/news/world/dubai-coal-fired-power-plant-electricity-renewable-energy-carbon-footprint-b1222381.html?amp

Übersetzt durch Andreas Demmig

***

Anhang:

Beteiligte Projektentwickler

Die Hassyan Energy Company, ein Joint Venture (JV) zwischen der Dubai Electricity and Water Authority (DEWA, 51%) und dem Konsortium aus ACWA Power, Harbin Electric, und dem Silk Road Fund (49%), ist der Projektentwickler.

Das Projekt unterstützt die Dubai Clean Energy Strategy 2050, die auf die Erzeugung umweltfreundlicher Energie abzielt. Das Programm zielt darauf ab, bis 2030 25% der Energie aus Solarenergie, 7% aus Kernkraft, 7% aus sauberer Kohle und die restlichen 61% aus Gas zu erzeugen.

Kraftwerk

Vier Einheiten je 600 MW, Inbetriebnahme geplant ab 2020 bis 2023. Budget 3,4 Mrd. US Dollar

… Die Anlage wird mit der USC-Technologie von Alstom Energy (jetzt GE) ( Kessel- und Dampfturbinengenerator) ausgestattet, mit der subbituminöse Kohle sowie Erdgas als Ersatzbrennstoff verbrannt werden können.- höhere Dampftemperatur und höherer Druck. Spätere Erweiterung auf CCS (Kohlenstoffabscheidung) ist möglich.

Die Abgasemissionswerte in der Anlage werden gemäß der Richtlinie über Industrieemissionen (IED) der Europäischen Union und gemäß den Richtlinien der International Finance Corporation (IFC) aufrechterhalten. Fortschrittliche Elektrofilter (ESP) und Meerwasser-Rauchgasentschwefelungssysteme (SWFGD) der USC-Technologie senken die NOx-, SOx- und Partikelemissionswerte.

Im Rahmen des Projekts wird auch ein 400-kV-Umspannwerk gebaut, das an das bestehende 400-kV-Stromübertragungsnetz angeschlossen wird. Darüber hinaus werden im Rahmen des Projekts integrierte Umschlaganlagen für Kohle und Schüttgutumschlag entwickelt.

Stromabnahmevertrag

DEWA hat im Juni 2015 einen 25-jährigen Stromabnahmevertrag (PPA) und einen Aktionärsvertrag (SHA) mit dem von ACWA Power geführten Konsortium abgeschlossen.

Gemäß der Vereinbarung wird DEWA den in Hassyan erzeugten Strom zu einem Tarif von weniger als ¢ 5 pro kWh kaufen, während ACWA die erforderliche Kohle liefern wird.

Angaben zur Kohle

Die Kohle für das Werk Hassyan wird von EDF Trading in Frankreich bereitgestellt. Die Umschlag- und Umschlaganlagen für Kohle werden von Louis Dreyfus Ports and Logistics im Rahmen eines im Oktober 2015 vergebenen Auftrags verwaltet.

Finanzierung des Hassyan-Projekts

Das Kraftwerk wird mit einer begrenzten Rückgriffsprojektfinanzierung ausgestattet, die eine vorrangig besicherte Finanzierung und eine geschützte Mezzanine-Tranche umfasst.

Zur Kreditgebergruppe gehören Banken und Finanzinstitute wie die Industrial and Commercial Bank of China, die Bank of China, die Agricultural Bank of China, die China Construction Bank und der Silk Road Fund. Daran sind auch die First Gulf Bank, die Union National Bank und die Standard Chartered Bank beteiligt.

Auftragnehmer, die am Hassyan-Programm beteiligt sind

Das Konsortium aus Harbin Electric International, ACWA Power und Harbin Electric erhielt im Oktober 2015 den Auftrag für den Bau und die Implementierung des sauberen Kohlekraftwerks Hassyan. 

Hassyan Energy vergab im Juni 2016 den Auftrag für Engineering, Beschaffung und Bau (EPC) für das Projekt an Harbin Electric International und General Electric (GE).

Alstom Power, das jetzt Teil von GE ist, erhielt den Auftrag für die Lieferung des Kessels, des Dampfturbinengenerators und fortschrittlicher Umweltkontrollsysteme für das Projekt.

GE hat die Stahlgewerke im vergangenen August an Huaye Steel Structure (HYSS) vergeben. Der vertragliche Geltungsbereich umfasst die Herstellung des Kesselträgersystems für die vier 600-MW-Einheiten.

NOMAC, eine hundertprozentige Tochtergesellschaft von ACWA Power, ist der Betriebs- und Wartungsdienstleister für das Projekt, während ACES-Dubai von Consolidated Contractors Company (CCC) und Nepti mit der Erstellung der geotechnischen Studie beauftragt wurde.

Hassyan Clean Coal Project, Dubai




Alarmistische Klima-Wissenschaft: Die große Krise dämmert herauf

Diese Frage war überraschend schwierig zu beantworten, trotz 40 Jahren Forschung, die Dutzende von Milliarden Dollar gekostet hat. Jetzt entwickelt dieses Thema rasant immer mehr Sprengkraft, weil sich zwei verschiedene Antworten abzeichnen, eine harmlos niedrige und eine gefährlich hohe. Diese Divergenz ist eine Krise für die Gemeinschaft der Panikmacher. Wie sie damit umgehen, bleibt abzuwarten.

Es folgt eine etwas technische Erklärung der Situation.

Im Mittelpunkt der Ausgabe steht eine Eckpunkt-Bewertung der Auswirkungen der CO2-Erhöhung auf die globale Temperatur. Dies wird als „Gleichgewichts-Klima-Sensitivität“ oder ECS bezeichnet. Die grundlegende Frage ist, wie hoch die globale Durchschnittstemperatur sein wird, wenn das CO2-Niveau doppelt so hoch ist wie das angeblich ursprüngliche Niveau von 280 ppm. Das heißt, wo wird sie liegen, wenn wir 560 ppm erreichen.

Da es jedoch einige Zeit dauern kann, bis sich das Klimasystem an dieses neue hohe Niveau angepasst hat, stellt sich die Frage, wie hoch die Temperatur sein wird, wenn sich das System auf diese Verdoppelung eingestellt hat, was einige Zeit nach dem Erreichen von 560 ppm der Fall sein könnte. Auch hier geht es um die Empfindlichkeit, so dass ECS nicht die neue höhere Temperatur ist. Die Differenz zwischen der neuen und der ursprünglichen Temperatur ist dann ECS.

Wenn also die neue Temperatur um, sagen wir, 2,2 Grad C höher liegt, dann beträgt ECS = 2,2 Grad.

Technisch gesehen ist ECS oft eine Abstraktion, etwas, das nur in Klimamodellen vorkommt, aber die Modell-ECS wird als eine wichtige Schätzung der realen ECS angesehen. In den Modellen wird ECS oft einfach durch eine sofortige Verdoppelung des CO2 geschätzt, während dies in der Realität Jahrhunderte dauert.

All dies vorausgeschickt, kann ich nun die herauf dämmernde Krise erklären.

Seit vielen Jahrzehnten liegen die akzeptierten Modellschätzungen der ECS zwischen 1,5 und 4,5 Grad C. Verschiedene Modelle ergeben unterschiedliche Werte, aber der akzeptable Bereich hat sich nicht verändert. Dass die Spanne so groß ist, war ein politisches Problem. Eine Erwärmung von nur 1,5 Grad könnte harmlos sein, während 4,5 Grad gefährlich sein könnten. Aber der ECS-Bereich hat sich hartnäckig gehalten und sich sozusagen geweigert, sich auf einen bestimmten Wert einzuengen.

Jetzt gibt es plötzlich ein riesiges neues Problem. Die ECS ist explodiert! Es geht nicht darum, dass sie höher oder niedriger ist – sie ist auf einmal beides. Zwei neue Forschungslinien haben sich in Bezug auf den geschätzten Wert der ECS stark voneinander entfernt.

Die erste Forschungslinie verfolgt einen neuen Ansatz, der als beobachtende ECS bezeichnet wird. Der Gedanke dahinter lautet, dass wir, da der CO2-Gehalt fast die Hälfte der Verdoppelung erreicht hat, in der Lage sein sollten, die ECS empirisch aus der beobachteten Beziehung zwischen CO2-Zunahme und Temperaturanstieg abzuleiten.

Es hat eine Reihe von Beobachtungsstudien gegeben, und viele erhalten ECS-Werte weit unter 1,5, die in der Tat harmlos sind. Werte von 1,2 und 1,3 sind üblich.

Aber gleichzeitig hat es eine neue Welle von Modellstudien gegeben, die ECS-Werte weit über 4,5 erreichen, was wirklich gefährlich wäre. Hier sind Werte von 5,2 und 5,3 zu finden.

Man beachte, dass die Gemeinschaft der Modellierer geteilt ist, was die Akzeptanz dieser neuen hohen Modellzahlen betrifft. Immerhin implizieren sie, dass die in den letzten, etwa vierzig Jahren durchgeführte Modellierung falsch war, einschließlich eines Großteils der neueren Modellierung, die noch innerhalb der alten Bandbreite liegt.

Das Ergebnis von all dem ist, dass die Wissenschaft der ECS zu einem Scherbenhaufen zerschlagen worden ist. Wenn man bedenkt, dass sich die ECS im Herzen des Klima-Alarmismus befindet, ist dies wirklich eine Krise. Ist die Modellierung 40 Jahre lang falsch gewesen? Ist sie jetzt falsch? Was ist mit der Beobachtung, die in der Wissenschaft herrschen soll? Die wissenschaftliche Methode besagt, dass Beobachtung über der theoretische Modellierung stehen muss.

Dies ist auch eine politische Krise. Wenn wir nicht wissen, wie empfindlich das Klimasystem auf steigende CO2-Werte reagiert, haben wir keine Grundlage für eine Klimapolitik. Wenn die Beobachtungswerte stimmen, dann gibt es einfach keinen klimatischen Notstand.

Wie wird sich diese enorme neue Unsicherheit auswirken? Glücklicherweise werden wir recht bald zumindest einen Einblick bekommen. Der jüngste IPCC-Zustandsbericht (AR6) wird derzeit geprüft und dürfte etwa im nächsten Jahr vorliegen. Dieser Bericht soll den Stand der Wissenschaft über den Klimawandel überprüfen, wenn auch unter einem alarmistischen Gesichtspunkt.

Zumindest wird es interessant zu sehen sein, wie das IPCC mit der explodierenden ECS-Spannbreite umgeht. Vielleicht wird man es ignorieren, weil es dem Alarmismus schaden dürfte. Man könnte die Erwähnung der ECS einfach ganz fallen lassen, da sie jetzt sehr unbequem ist. Aber dieses eklatante Versäumnis wird leicht zu beanstanden sein.

Oder sie dürfen nur die heißen höheren Werte anerkennen, die den Alarmismus begünstigen. Hier riskieren sie, das Modellieren dumm aussehen zu lassen (was es auch ist). Außerdem wird diese Auslassung kritischer Beweise ebenfalls leicht zu beanstanden sein.

Mit dem Explodieren der Spanne des ECS ist der IPCC zwischen Skylla und Charybdis aus der griechischen Mythologie gefangen. Genau wie der Alarmismus. Schauen wir mal, wie man da wieder heraus kommen will.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see here. For the author’s over 100 prior articles for CFACT see here. Available for confidential research and consulting.

Link: https://wattsupwiththat.com/2020/10/20/crisis-looms-in-alarmist-climate-science/

Übersetzt von Chris Frey EIKE




Woher kommt der Strom? Windbuckel, fast gegen Null Windstromerzeugung

(Abbildung, bitte unbedingt anklicken. Es öffnen sich alle weiteren Abbildungen & Mehr)

Um 13:00 Uhr Sommerzeit (= 12:00 Uhr Mittag in Echtzeit=Sonnenhöchststand!) werden gut 10 GW Sonnenstrom (plus 8 GW Wasserkraft/Biomasse) produziert. Das bei einem Bedarf von 61 GW um 13:00 Uhr. Da ist es ein Glück, dass es Samstag, dass es der Einstieg ins Wochenende mit wenig Bedarf ist.

Die höchste Stromerzeugung mittels erneuerbarer Energieträger gab es mit gut 46 GW am Mittwoch, den 14.10.2020 um 13:00 Uhr. Da lag der Strombedarf bei etwa 79 GW. Diesmal ist es noch gutgegangen. Es ist dennoch denkbar, dass die 79 GW Bedarf und die 18 GW Strom aus erneuerbaren Energieträgern zusammentreffen. Dann müssen die fehlenden 61GW konventionell erzeugt und zum Teil importiert werden. Eine Mammutaufgabe eingedenk der geplanten Abschalt- und Ausstiegsorgien bezüglich fossiler und kernenergetischer Stromerzeugung in der Zukunft. Eine Aufgabe, die sich noch schwieriger gestaltet, wenn es Nacht ist. Dann sind es 71 GW, die irgendwoher kommen müssen. Als letztes Mittel bleiben die Netzbetreiber dann nur noch gezielte Abschaltung wie im Sommer 2019 in England, als 1.000.000 Stromkunden ohne Strom dastanden (Abbildung 1). Gezielte Abschaltungen finden auch regelmäßig in Deutschland statt. Hier allerdings im Bereich stromintensiver Betriebe. Natürlich immer nach Rücksprache und gegen Bezahlung. Grüne ´Energieexperten` sehen darin ´virtuelle Speicher`. Was Prof. Hans-Werner Sinn im November 2019 schon mal bei einem Gespräch (Abbildung 2) mit der energiepolitischen Sprecherin, Dr. Nestle, an den Rand des Wahnsinns getrieben hat.

Auch in der 42. Woche, das wird im Herbst/Winter fast immer der Fall sein, exportierte Deutschland per Saldo Strom an seine Nachbarn (Abbildung 3). Den Anteil der regenerativen Stromerzeugung dokumentiert Abbildung 4. Das Auf und Ab der konventionellen Stromerzeugung unter Abbildung 5 wird getragen vom Sockel „Kernenergie“, welche bis Ende 2022 komplett wegfallen wird. Ganz gleich wie Deutschland diesen Stromanteil ersetzen will, es wird zum größten Teil CO2-erzeugende Stromerzeugung sein. Oder eben Atomstrom aus Frankreich und der Schweiz. Hauptsache Deutschland hat mit erheblichen Vermögensverlusten den Ausstieg aus der Kernenergie geschafft.

Tabelle und Chart der 42. Woche sind unter Abbildung 6 zu finden, die Im- Exportzahlen unter Abbildung 7. Dort ist auch eine zusätzliche Tabelle abrufbar, welche die Strom – Im- und Exporte aufschlüsselt sowie Preise darstellt. Sehr zu empfehlen!

Zum Schluss noch der Hinweis auf den aktualisierten Chart angenommene „Verdoppelung Wind- und Sonnenstromerzeugung“ (Abbildung 8). Sah es vor einer Woche noch so aus, als könnte eine solche Verdoppelung den Bedarf zumindest einigermaßen decken, sind es bis zum 17.10.2020 bereits wieder 8 Tage in Folge, wo der mittels erneuerbarer Energieträger erzeugte Strom nicht ausreichte, um den Strombedarf Deutschlands zu decken.

Die Tagesanalysen

Sonntag, 11.10.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 48,36 Prozent, davon Windstrom 27,05 Prozent, Sonnenstrom 8,2 Prozent, Strom Biomasse/Wasserkraft 13,11 Prozent. Die Agora-Chartmatrix: Hier klicken.

Ein ruhiger Sonntag. Bei wenig Bedarf reicht Deutschlands Stromerzeugung aus, diesen komplett zu decken. Am Vorabend werden sogar fast 50€/MWh Exportpreis erzielt. Ansonsten liegen die Preise unter wenig auskömmlichen 40, meist sogar unter 30€/MWh. Hier noch der Erzeugungschart der Konventionellen.

Montag, 12.10.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 25,71 Prozent, davon Windstrom 7,86 Prozent, Sonnenstrom 5,71 Prozent, Strom Biomasse/Wasserkraft 12,14 Prozent. Die Agora-Chartmatrix: Hier klicken.

Am ersten Werktag der Woche muss die konventionelle Stromerzeugung massiv anziehen. Geht die Stromproduktion mittels erneuerbarer Energieträger doch in die Knie. Am frühen Morgen ist das Auffüllen der Stromversorgungslücke preislich erträglich. Am Vorabend müssen um 19:00 Uhr fast 80€/MWh gezahlt werden. Diesmal von Deutschland an diese Nachbarn

Dienstag, 13.10.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 29,05 Prozentdavon Windstrom 10,14 Prozent, Sonnenstrom 6,76 Prozent, Strom Biomasse/Wasserkraft 12,16 Prozent. Die Agora-Chartmatrix: Hier klicken.

Während am Morgen des Dienstags noch Strom importiert werden muss, zieht zum Abend mit dem Untergang der Sonne die Windstromerzeugung an. Da werden um 8:00 auch schon mal gut 70€/MWh aufgerufen. Um 19:00 Uhr erzielt Deutschland für seinen Exportstrom noch knapp 60€/MWh. Dann fällt der Strompreis. Die Konventionellen schaffen es trotz Pumpspeichereinsatz nicht, die Lücken am Morgen zu schließen.

Mittwoch, 14.10.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 52,80 Prozentdavon Windstrom 39,13 Prozent, Sonnenstrom 3,11 Prozent, Strom Biomasse/Wasserkraft 10,56 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der Mittwoch ist der Buckelhöhepunkt. Den ganzen Tag exportiert Deutschland soviel Strom, dass das Preisniveau mit meist unter 40€/MWh wenig befriedigend ist. Nur von 7:00 bis 9:00 Uhr werden auskömmliche Preise erzielt. Und um 18:00, 19:00 Uhr. Diese Nachbarn kaufen den Strom. 

Donnerstag, 15.10.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 40,51 Prozent, davon Windstrom 27,22 Prozent, Sonnenstrom 2,52 Prozent, Strom Biomasse/Wasserkraft 10,76 Prozent. Die Agora-Chartmatrix: Hier klicken.

Mit der regenerativen Stromerzeugung geht es ab Donnerstag wieder bergab. Sinkende Windstromerzeugung, wenig Sonnenstrom: Deutschland steuert unaufhaltsam auf einen Tiefpunkt der Stromerzeugung mittels Wind- und Sonnenkraft zu. Langsam, aber sicher. Die Konventionellen bullern, die Preise liegen von 7:00 bis 21:00 Uhr akzeptabel über 40€/MWh. Es bezahlen diese Nachbarn.

Freitag, 16.10.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 25,00 Prozent, davon Windstrom 10,00 Prozent, Sonnenstrom 2,86 Prozent, Strom Biomasse/Wasserkraft 12,14 Prozent. Die Agora-Chartmatrix: Hier klicken

Freitag: Noch ein Zwischenschritt bis zum Tiefpunkt am Samstag. Wenig Strom aus erneuerbaren Energieträgern, eine konventionelle Stromerzeugung, die keine Lücken aufkommen lässt, ab nicht weit über dem Bedarf liegt: Die Preise passen. OK, das Handelsvolumen ist recht gering. Aber immerhin. Doch glaube bitte niemand, das sei das Ergebnis zielgerichteten Handelns. Dann müsste es viel öfter passen. Nein, ein gerüttelt´ Maß „glückliches Händchen“ kommt an diesem Tag hinzu.

Samstag, 17.10.2020: Anteil Erneuerbare an der Gesamtstromerzeugung 21,55 Prozent, davon Windstrom 2,59 Prozent, Sonnenstrom 3,45 Prozent, Strom Biomasse/Wasserkraft 15,52 Prozent. Die Agora-Chartmatrix: Hier klicken.

Heute passt es nicht mehr. Ein Tiefpunkt der Stromerzeugung durch Wind und Sonne ist festzumachen. Zur Mittagszeit herrscht absolute Windstille in Deutschland, was praktisch keinen Windstrom bedeutet. Die Stromlücken Morgens und Abends müssen teuer bezahlt werden. Der Exportstrom wird wesentlich billiger abgegeben. Wer macht Preisdifferenzgeschäfte? Ich sehe nur Österreich. Die Sommerzeiten sind vorbei.

Leser Harald Bräuniger hat mir folgende Ausführungen und Fragen geschickt:

Jetzt habe ich etwas entdeckt, dass mich irritiert. Sie schrieben am 21.10.2020: „Deutschland wird über den Winter seinen Strom weitgehend selbst herstellen und Überschüsse exportieren. Diese Überschüsse, es sind Strom-Mix-Überschüsse, werden, das ist das Fatale, umso höher ausfallen, desto näher die Stromerzeugung mittels erneuerbarer Energieträger an den faktischen Bedarf heranreicht“  Ich war viele Jahre technischer Bereichsleiter eines Stadtwerks und dachte auf Grundlage meiner fachlichen Erkenntnisse, dass sich Deutschland zu Spitzenlastzeiten und bei Dunkelflaute nicht mehr hundertprozentig selbst versorgen kann, da die alten Grundlastkraftwerke Kohle und Kernkraft kontinuierlich weniger werden.  Ich hatte somit angenommen, dass es dadurch zu vermehrten Importspitzen (15 Minuten Inkrement) kommen würde. Ich hatte weiterhin angenommen, dass, falls das Ausland bei Spitzenlast und Dunkelflaute nicht liefern könnte, eine erhöhte Gefahr eines Blackouts bestände. Liege ich mit diesen Annahmen falsch? Ich würde mich freuen, wenn Sie mir die genannten Aspekte erläutern könnten.

Unter Abbildung 9 habe ich ein Video eingestellt, welches mir ebenfalls ein Leser zugeschickt hat. Dieses Video geht auf die Fragen Herrn Bräunigers nicht nur ein, sondern bringt in verständlich-sympathischer Form noch zusätzliche Aspekte, die ich in dieser Kolumne Woche für Woche erarbeite. Es ist insofern eine gute Zusammenfassung zur Frage „Woher kommt der Strom?“

Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de Aber bitte immer höflich. Ist klar, nicht wahr?

Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr.

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

Rüdiger Stobbe betreibt seit vier Jahren den Politikblog  www.mediagnose.de

 

 




Die große Energie-NICHT-Transition

In den letzten hundert Jahren haben die Emissionen von Kohlendioxid, einem natürlichen und gutartigen Gas, zugenommen. Der leichte Anstieg der atmosphärischen Kohlendioxid-Konzentration von 0,03 Prozent im neunzehnten Jahrhundert auf heute 0,04 Prozent hat bisher nur positive Auswirkungen gehabt, darunter höhere Ernteerträge und eine größere Widerstandsfähigkeit gegen Trockenheit.

[Hervorhebung vom Übersetzer]

Nichtsdestotrotz argumentieren Klima-Alarmisten, dass steigende Temperaturen, die durch Kohlendioxidemissionen verursacht werden, katastrophale Stürme, Krankheiten, Aussterben, Überschwemmungen und allgemeines Elend mit sich bringen.

Im Gegensatz zu den Vorteilen von CO2, die klar und messbar sind, bleibt die Klimakatastrophe nichts anderes als eine Vorhersage, die durch Computermodelle erstellt wird, die noch keine genauen Vorhersagen der Klimaauswirkungen liefern.

Energie-Transition – nicht!

Eine häufige Begleiterscheinung von Klima-Alarmismus ist, dass die Welt eine radikale Veränderung des globalen Energiesystems vorgenommen hat, indem fossile Brennstoffe durch kohlenstofffreie, erneuerbare Energien ersetzt wurden.

Eine Google-Suche nach dem Begriff „Energiewende“ ergibt über 5 Millionen Treffer, viele davon begleitet von Begriffen wie „unaufhaltsam“ und „unumkehrbar“. Aber findet dieser Übergang tatsächlich statt? Für derarrtige Behauptungen werden im Allgemeinen drei Argumente angeführt – und keines davon ist stichhaltig.

Erstens verweisen die Befürworter der „Energiewende“ auf die hohen Wachstumsraten bei den erneuerbaren Energiequellen, wobei die Windkraft seit 2000 jährlich um über 20 Prozent und die Solarenergie um über 40 Prozent pro Jahr zugenommen haben gegenüber einer Steigerung um 2 Prozent bei fossilen Brennstoffen. Das klingt bedeutend, aber die absoluten Zahlen sprechen eine andere Sprache.

Im Jahr 2019 trug die Windenergie trotz vierzig Jahren und Subventionen in Höhe von Billionen Dollar etwa 2 Prozent und die Solarenergie etwas mehr als 1 Prozent zum gesamten weltweiten Energieverbrauch bei. Fossile Brennstoffe machten 84 Prozent aus, was einem Rückgang von nur zwei Prozentpunkten in den letzten 20 Jahren entspricht.

Zweitens stellen selbst hoch angesehene Publikationen wie die Financial Times in ihren Artikeln in Frage, ob die Ölgesellschaften die Flutwelle der erneuerbaren Energien überleben können.

Tatsächlich befindet sich die Ölindustrie infolge des Pandemie-bedingten Zusammenbruchs der Ölnachfrage und des durch technologische Produktionsfortschritte wie das Fracking verursachten Überangebots in ernsten finanziellen Schwierigkeiten. Öl ist jedoch ein Transportkraftstoff, der nur in wenigen Punkten mit den erneuerbaren Energien konkurriert, die in erster Linie zur Stromerzeugung genutzt werden.

In dem Maße, in dem erneuerbare Energien heute rentabel sein können, ist dies nur auf die enorme Unterstützung zurückzuführen, die sie von den Regierungen in Form von planwirtschaftlich aufoktroyierten Märkten erhalten, die durch Vorschriften für erneuerbare Energien und massive Subventionen geschaffen wurden. Im Vergleich dazu leben oder sterben die Ölgesellschaften durch den Markt.

Es bleibt abzuwarten, was mit den Gewinnen der Ölgesellschaften geschieht, wenn die Pandemie endet, aber die Frage, die über das Schicksal der Branche entscheidet, wird Angebot und Nachfrage sein, nicht die Konkurrenz der erneuerbaren Energien.

Kein signifikanter Übergang zu Elektrofahrzeugen

Schließlich wird das Aufkommen von Elektroautos zunehmend als das Ende des Öls angepriesen.

Die private Fahrzeugflotte der USA beläuft sich derzeit auf etwa 250 Millionen Fahrzeuge, von denen etwa 1 Million oder 0,4 Prozent mit Batterien betriebene elektrische Fahrzeuge sind.

Elektroautos sind in der Herstellung etwa doppelt so teuer wie vergleichbare Benzinmodelle und wie die regenerative Stromerzeugung nur mittels massiver Subventionen rentabel.

Nehmen Sie zum Beispiel Tesla, den aktuellen Liebling der Autoindustrie. Zusätzlich zu den direkten Subventionen für Produktionsanlagen und Kaufkrediten in Höhe von 2.500 bis 7.500 Dollar pro Fahrzeug verkauft Tesla Emissionsgutschriften an andere Autofirmen, um die gesetzlichen Bestimmungen in Kalifornien zu erfüllen. Der Verkauf dieser Gutschriften belief sich im vergangenen Jahr auf insgesamt mehr als 1 Milliarde Dollar, was den gesamten freien Cashflow von Tesla in diesem Zeitraum ausmacht. Tesla verliert mit jedem hergestellten Auto Geld.

Durch eine Anordnung seiner Regierung hat der kalifornische Gouverneur Gavin Newsom (D) den Verkauf von neuen Benzinfahrzeugen ab 2035 verboten. Wie bei vielen solchen politischen Versprechen ist dieses „Verbot“ einfach ein Ziel, keine Politik. Newsom ist 53 Jahre alt und wird 2035 längst nicht mehr im Amt sein, und die Medien werden das Interesse daran verlieren, ob sein Ziel erreicht wurde oder nicht. Im Augenblick kann sich Newsom jedoch im Ruhm seiner signalisierten Tugend sonnen.

Die Welt wird sich vielleicht eines Tages von fossilen Brennstoffen abwenden, aber das ist derzeit noch nicht der Fall. Alles, was wir bisher haben, sind Vorhersagen, Wunschdenken und große Geldsummen, die verschwendet werden, nur um einen kleinen Beitrag zu einem Nichtproblem zu leisten.

[Hervorhebung vom Übersetzer]

Author: Bruce M. Everett, Ph.D. has worked in the energy field for nearly 50 years. He holds an A.B. from Princeton University and an MA, MALD and PhD from The Fletcher School at Tufts. His career includes service in the U.S. Department of Energy and on the faculty at the Fletcher School and the Georgetown School of Foreign Service. He was an executive for the ExxonMobil Corporation and now sits on the Board of Directors of the CO2 Coalition

This is modified version of an article that originally appeared on the BizPakReview.

Link: https://heartlanddailynews.com/2020/10/the-great-energy-non-transition/

Übersetzt von Chris Frey EIKE




In dem Land, wo Herr Söder Corona-„bekämpft“, ist die Mortalität mit am höchsten

Anmerkung: Dazu gibt es auch auf EIKE schon einige Publikationen. Diese listet lediglich aus aktuellem bestimmte, erheblich divergierende Mortalitätswerte.

Um Werte zu erfahren, schaut man zuerst in „die“ Statistiken.

Bei „statista“ gibt es eine schöne Grafik und die folgenden Zahlen:
statista, Stand 26.10.2020: Der erste Fall des neuartigen Coronavirus (SARS-CoV-2) wurde in Deutschland am 28. Januar in registriert. Bundesweit stieg die Zahl der Corona-Infektionen bis zum 23. Oktober 2020* auf über 443.189 Fälle. Die Zahl der Todesopfer im Zusammenhang mit dem Virus beläuft sich auf 10.062. Weltweit beläuft sich die kumulative Zahl bestätigter SARS CoV-2-Infektionen derzeit* auf mehr als 43 Millionen. Die Zahl der Todesopfer im Zusammenhang mit dem Virus beläuft sich aktuell auf mehr als 1,15 Millionen.

Bild 1 Statista, Stand 26. Okt.2020: Anzahl Infektionen und Todesfälle in Zusammenhang mit dem Coronavirus (COVID-19) in Deutschland seit Januar 2020

Gemeldet sind bei „statista“ 443.189 Fälle und 10.062 Corona-Opfer, also eine Mortalität in Deutschland von 2,27 %.

Das RKI meldet am gleichen Tag für Deutschland eine Mortalität von 2,3 %. Dass statista mehr Fälle, aber weniger Tote als das RKI meldet, muss man nachsehen. Statista hat allerdings auch Grafiken, in denen Übereinstimmung herrscht:

Bild 2 RKI: Coronafälle Deutschland, Abfrage 26.10.2020. Quelle: RKI Dashboard

Für Bayern meldet das RKI am gleichen Tag eine Mortalität von 3 %:

Bild 3 RKI: Coronafälle Bayern, Abfrage 26.10.2020. Quelle: RKI Dashboard

Weiter bietet das RKI-Dashbord zwar viele Daten und Grafien, allerdings sind für Vergleiche und Auswertungen kaum hilfreiche. Werte für die Bundesländer und weltweit muss man einzeln abfragen, die Zahlen abtippen und die Mortalität jeweils selbst berechnen. Nicht einmal im RKI-Lagebericht [1] gibt es darüber Übersichten.
Im Kern eine Demonstration, dass das RKI weiterhin keinerlei Anlass sieht, den Bürger wirklich zu informieren. Aber den Politikern, welche nun die deutsche Wirtschaft und das öffentliche Leben vollends ruinieren wollen, scheint die spartanische, für Maßnahmen-Beschlüsse niemals ausreichende Information zu genügen.

Gerade die wichtigste – die Mortalitäten, also nicht nur die Anzahl Todesfälle, sondern deren Bezüge – scheinen niemanden so richtig zu interessieren.

Bild 4 Statista, Stand 26. Okt.2020: Anzahl gemeldeter Infektionen und absolute Anzahl Todesfälle in Zusammenhang mit dem Coronavirus (COVID-19) in Deutschland nach Bundesländern

Bild 4 Statista, Stand 26. Okt.2020: Anzahl gemeldeter Infektionen und absolute Anzahl Todesfälle in Zusammenhang mit dem Coronavirus (COVID-19) in Deutschland nach Bundesländern

Das Statistische Bundesamt bietet eine Grafik. Für die Corona-Mortalität bietet es allerdings keine aufgeschlüsselten Daten. Lediglich in einem Bericht, der bis zur KW 20 reicht (aktuell KW 44), lässt ich dazu etwas nachlesen.

Bild 5 Sterbefallzahlen unter Einbeziehung der „Corona-Sterbefälle“ Quelle: Statistisches Bundesamt

Zum Glück gibt es weitere Seiten mit Coronadaten und auch eine, welche vollständig auf Länderebene aufschlüsselt.

Bild 6 Tabelle mit den höchsten Mortalitätsdaten der Bundesländer. Quelle: Corona in Zahlen.de

Bild 7 Tabelle mit den Mortalitätsdaten aller Bundesländer. Quelle: Corona in Zahlen.de

Somit sagen die Zahlen
Im Bayernland herrscht:
– die dritthöchste Mortalität der 16 Bundesländer,
– obwohl es ein Flächenland ist, die zweithöchste Infektionsrate und
– die höchste Anzahl Todesfälle

Wenn das nicht ein Beweis ist, dass Herr Söder vielleicht vieles kann, aber auf keinen Fall „Corona“ besser lenken, als die Mehrzahl seiner Länderkollegen (rein persönliche Meinung des Autors). Vielleicht in Grund, warum seine Gesundheitsministerin mit ihrer Ausbildung als Ärztin so selten zu Wort kommt. Vielleicht würde ihm diese dank Fachwissen teilweise widersprechen …

Wie nun oft „lamentiert“. Bei uns legt niemand der Berichterstatter Wert auf übersichtliche Darstellungen, schon gar nicht auf Vergleichbarkeit der Daten.
In der Schweiz ist das (manchmal) etwas anders. Davon eine Grafik zu Corona und mit einer interessanten, zusätzlichen Aussage zur angeblich so schlimmen Übersterblichkeit durch Hitzewellen (im Vergleich mit der bei Kälte durch Grippe):

Bild 8 Über-Sterblichkeiten der letzten vier Jahre in der Schweiz durch Grippe, Hitzewellen, Corona. Quelle: NZZ

Exemplarischer Corona-Mortalitätsvergleich international

Vor wenigen Wochen gewann in Neuseeland eine GRÜN-Linke Frau überlegen die Parlamentswahl. Anlass eines Redaktions-Kommentars in der Lokalzeitung des Autors mit der Aussage: Frauen, wie die in Neuseeland und unsere Kanzlerin, würden (vor allem auch bei Corona) alles viel besser machen (als Männer), während exemplarisch Trump und Bolsonaro nur Desaster fabrizieren.

Dazu sei angemerkt, dass zum Zeitpunkt der Wahl und des Zeitungs-Kommentars in der Grafik die USA hinter Deutschland (also mit geringerer Mortalität) und gleich vor Deutschland Brasilien mit einer geringfügig höheren stand. Doch was interessieren einen Haltungs-Redakteur Fakten, wenn die tägliche Order lautet, die unfehlbare Merkel hoch zu loben und mindestens einmal gegen Trump zu polarisieren.

Bild 9 Letalitätsrate beim Coronavirus (COVID-19) in den am stärksten betroffenen Ländern(Stand: 15. Oktober 2020). Quelle: statista

Zumindest für unsere unfehlbare Kanzlerin stimmte damals die Lobhudelei im Zeitungskommentar überhaupt nicht. Und derzeit ist die Frage, ob die Berichts-Ungenauigkeiten nicht weiter das gleiche Bild (wie damals) ergeben, neben der Frage, warum der damalige Kommentator nur Bolsonaro und Trump erwähnte, die im Vergleich weit desaströseren EU-Nachbarländer – und das desaströse Bayern welches auch aktuell noch schlechter als Bolsonaro (Brasilien) und auch Deutschland gesamt abschneidet -, nicht.

Bild 10 Letalitätsrate beim Coronavirus (COVID-19) in den am stärksten betroffenen Ländern(Stand: 26. Oktober 2020) Quelle: statista

Allerdings hatte der Kommentator an einer Stelle recht. Die Corona-Mortalitätsrate in Neuseeland beträgt nur 1,3 %.
Es gibt demnach genau so wie bei Männern gut und schlecht lenkende Frauen, wobei vom Zeitungskommentator unbemerkt, nach den Zahlen eine Corona besonders schlecht lenkende Frau ausgerechnet unsere unfehlbare Merkel zu sein scheint.

Bild 11. 26.10.2020 Coronadaten Neuseeland. Quelle

In der Verlaufsgrafik von Neuseeland muss man die Todesfälle richtiggehend suchen.

Bild 12 Neuseeland, Covid-19-Fälle (blau) und Mortalitätsereignisse (schwarz). Quelle: NZ COVID-19 Dashboard

Das Mysterium von Mortalitätswerten

Wie kann es sein, dass das unscheinbare Neuseeland eine Corona-Mortalität von lediglich 1,3 % und das Hochtechnologieland Bayern eine von 3 % ausweist (Deutschland von 2,24 %)? Da muss man die Frage stellen, ob die deutschen Krankenhäuser überhaupt sachgerecht behandeln (können).

Zum Beispiel ist in Neuseeland trotz gemeldeter 1.941 Corona-Fälle keine Person hospitalisiert:

Bild 13 Covid-19-Daten Neuseeland am 2.10.2020. Quelle: Ministry of Health, Manatu Hauora: COVID-19: Current cases

Kann der „Erfolg“ etwa daran liegen, dass Neuseeland kaum Intensivbetten und wenige Beatmungsgeräte hat?
WIKIPEDIA: … Mit zur Entscheidung über einen harten Lockdown in Neuseeland hatte möglicherweise u. a. auch die relative geringe Anzahl von Intensivbetten mit Beatmungsgeräten geführt, die in Neuseeland bei 5 pro 100.000 Einwohnern liegt (im Vergleich dazu liegt in Deutschland die Zahl bei 29) …

Es gibt sicher viele Erklärungen für den großen Unterschied. Nur ist keine zu finden. Auch Bayern scheint es nicht zu stören, eine drei Mal so hohe Mortalität wie Neuseeland zu haben. Und es erklären, braucht es seinen Untertanen ein so toller und angeblich bewährter Corona-Krisenmanager wie Herr Söder wohl schon gar nicht.
Doch hat Herr Söder schon eine Lösung parat. Wenn man in der Politik Maßnahmen weiterführen, die zunehmend kritisch werdende Verantwortung jedoch abgeben will, etabliert man einen „Ethikrat“, der es übernimmt. Und so wurde in Bayern ein Corona-Ethikrat etabliert: Vorsitz: Eine ehemalige Regionalbischöfin und dazu zwei Juristen in Pension.
Wie heute in der Politik üblich: Keinerlei Sachkunde zum Thema (erwünscht), aber um die immer härteren Strafen juristisch zu begründen und als „Segen vom Höchsten“ zu erklären, ausnehmend viel Kompetenz …

Interessant ist eine beim DIVI hinterlegte Tabelle (wie immer jedoch mit fehlenden Daten, hier dem Bezug zur beim PKI gemeldeten Gesamtzahl):
– RKI: 437.866 Fälle; 10.056 Verstorbene,
– DIVI-Tabelle: 261.023 Fälle; 8.513 Verstorbene (Der Unterschied ergibt sich, weil nur hospitalisierte Fälle betrachtet sind).

Bild 14 Corona-Fallzahlen der Hospitalisierung. DIVI [1]
Wer das orientierend auswerten will, muss die Zahlen gefälligst selbst abtippen und rechnen. Dabei macht man sich dann allerdings auch Gedanken, welche Erkenntnisse es bringen (oder verhindern) soll, Pflegeeinrichtungen, Unterbringung von Asylsuchenden und Justizvollzugsanstalten zusammenzufassen. Aber bei „Corona“ ist auch nach fast einem dreiviertel Jahr teuerster Aktionen und Zerstörung ganzer Wirtschaftszweige oft noch kein Sinn zu finden, der über reinen Aktionismus hinausreicht.

Bild 15 Corona-Fallzahlen der Hospitalisierung (Daten von Bild 14 vom Autor bearbeitet). Mortalität absolut: 6,5 Monate Pandemiedauer. Mortalitätsrate hochgerechnet: Auf den fiktiven Jahreswert (pa) multipliziert.

Trotz aller Kritik zeigt die Tabelle deutlich, wo hohe Mortalitätszahlen vorliegen und wo sich lediglich „Rauschen“ findet. Es zeigt auch, dass die Fleischindustrie keinen Anteil hat, obwohl dieser aus politischen Gründen besonders arg zugesetzt wurde.

Anmerkung: Die mittlere, natürliche Mortalität der Gesamtbevölkerung beträgt ca. 1,25 %/Jahr; damit 0,1 %/Monat, für die bisher ca. 6,5 Monate dauernde „Pandemie“ ca. 0,65 %.

Um ein „Gefühl“ zu erhalten, wie sich die Sterberate auf die Altersstruktur verteilt (begrenzt auf Alter bis 70 Jahre), die Grafik dazu. Die kürzeren Balken sind die Frauen, welche eine erheblich niedrigere Rate haben als die Männer.

Damit kann man sich ein Bild machen, wie selbst im jüngeren Alter Sterberaten im Bereich um 0,1 bis 0,2 % „natürlich“ sind.

Bild 16 Deutschland Sterbezahlen nach Alter (über 70 Jahre abgeschnitten) für 6,5 Monate Corona-Pandemiedauer. Grafik vom Autor erstellt. Daten: gbe-bund

Es gab schon Stimmen die behaupteten, es wäre sinnvoll(er), nur die wenigen Risikopersonen zu schützen. So etwas Dummes kann natürlich nur von Coronaleugnern und von rääääächts kommen. Söder zeigt, wie es richtig geht: Dem (wie Pferde im Grunde dummen, aber nach dem „Einreiten“ mit Zaumzeug gut lenkbarem) Volk muss man nur „die Zügel“ weiter anziehen …
Der Erfolg scheint (oder eher schien?) ihm recht zu geben:

Bild 17 Quelle SZ

Weitere Grafiken vom DIVI-Register zur Info:

Bild 18 Stand 27.10. Anzahl gemeldeter, intensivmedizinisch behandelter Fälle und belegte Intensivbetten. Quelle: DIVI Intensivregister

Bild 19 Stand 27.10. Bundesländer: Belegung der Intensivbetten mit Covid-Patienten. Quelle: DIVI Intensivregister

Sobald man meinen könnte, zu Corona wenigstens einen ganz, ganz groben Überblich von Daten zu haben, kommen andere auf neu. Und wie so oft: Keine der vielen Fachpersonen hat es bisher vermutet:
The European 23.10.2020: Covid-19 weniger tödlich als vermutet – Infektionssterblichkeit liegt bei 0,23 Prozent
Die WHO hat eine Metastudie publiziert, die weltweite Antikörper-Studien ausgewertet hat. Der Grund: es geht darum, die Infektionssterblichkeit von Covid-19 zu bestimmen. Das Ergebnis ist erstaunlich: Möglicherweise ist das neuartige Coronavirus deutlich weniger tödlich, als bisher vermutet wurde …
... Die WHO hat eine Metastudie publiziert, die weltweite Antikörper-Studien ausgewertet hat. Der Grund: es geht darum, die Infektionssterblichkeit von Covid-19 zu bestimmen. Das Ergebnis ist erstaunlich: Möglicherweise ist das neuartige Coronavirus deutlich weniger tödlich, als bisher vermutet wurde ,,,
Ioannidis hatte in seiner Metastudie eine durchschnittliche Infektionssterblichkeit über 51 Standorte hinweg von 0,27 Prozent errechnet. Korrigierte sie später auf 0,23 Prozent. Zu einem noch überraschenderen Ergebnis kam er dort, wo weniger als 118 Todesfällen pro eine Million Menschen verzeichnet wurden. Dort betrug die Rate lediglich 0,09 Prozent. Wo 118 bis 500 Covid-19-Tote pro eine Million Einwohner gezählt wurden, betrug sie 0,20 Prozent. Und an Orten, die am schlimmsten von der Covid-Pandemie betroffen wurden errechnete er eine Infektionssterblichkeit von 0,57 Prozent. Auch mit Blick auf Bevölkerungsgruppen, die unter 70 Jahre alt sind, kam er zu einem anderen Befund als Christian Drosten. Während Deutschlands Corona-Virologe von einer Sterblichkeit in der Bundesrepublik von rund einem Prozent ausgeht, ist sich Ioannidis sicher, dass die durchschnittliche Rate sogar nur 0,05 Prozent betrage …

Nun stellt sich die Frage: Hat Herr Trump recht, dass er die WHO als „unbrauchbar“ bezeichnet und deren Budget kürzt, oder ist die WHO doch „genial“ und weiß es viel besser, als alle deutschen Koryphäen zusammen?
Unabhängig davon: Sollte die WHO recht haben, müssten sich auch Deutschlands „Coronaretter“ eigentlich „warm anziehen“, wenn nicht, wäre der Schritt von Trump auch für Deutschland angebracht.
Nur: Beides wird in Deutschland nicht passieren.

Quellen

[1] RKI: Täglicher Lagebericht des RKI zur Coronavirus-Krankheit-2019 (COVID-19) 25.10.2020 – AKTUALISIERTER STAND FÜR DEUTSCHLAND