1

„Die Anti-Atom-Hysterie ist im globalen Maßstab unbedeutend“

Sehr geehrter Herr Dr. Huke, unlängst wurden hier bereits einige Merkmale des Dual-Fluid-Reaktors (DFR) beschrieben. Wie kam es zur Idee des DFR? Gab es den ominösen „Heureka-Effekt“ der Erfinder, gab es ein besonderes Ereignis oder spielte Meister Zufall eine Rolle?

Der DFR ist als Projekt im Institut für Festkörper Kernphysik Berlin (IFK) entstanden. Dieses beschäftigt sich mit der Erforschung und Nutzung von Kernreaktionen und wurde als Initiative von Kernphysikern und Ingenieuren gegründet, weil staatliche Forschungseinrichtungen aus ideologischen Gründen großflächig liquidiert wurden. Als Nächstes musste ein wirtschaftlich verwertbares Projekt her, weil natürlich auch kein Geld für kernphysikalische Grundlagenforschung zu bekommen war. So begab es sich, dass etwa um 2009 insbesondere in Amerika durch die verordnete Abschaltung mehrerer Forschungsreaktoren die so genannte Molybdänkrise eintrat mit Folgen für die Versorgung nuklearmedizinischer Einrichtungen. Forschungsreaktoren stellen deren Versorgung mit dem Marker Technetium-99m, dessen Vorläufernuklid Molybdän-99 ist, sicher. Technetium-99m ist unentbehrlich etwa für die genaue Lokalisierung von Tumoren als Voraussetzung für deren chirurgische Entfernung oder Vernichtung. Zu der Zeit bestanden aber Bedenken, weil die Forschungsreaktoren mit hochangereichertem Uran arbeiteten, denen Proliferationsmöglichkeiten unterstellt wurden, das heißt die Weitergabe nuklearen Materials mit der Möglichkeit des Missbrauchs zur Waffenproduktion.

Kreatives Joggen

So entstand ein gefährlicher Engpass, weswegen alternative Herstellungsverfahren für Molybdän-99 angefragt wurden. Molybdän-99 hat eine Halbwertszeit von 66 Stunden und zerfällt zu Technetium-99m mit einer Halbwertszeit von 6 Stunden. Eine Lagerung oder Bevorratung ist also nicht möglich. Dr. Ruprecht aus unserem Institut kehrte zu dieser Zeit vom kanadischen Kernforschungszentrum TRIUMF aus Vancouver zurück mit der Anregung von Professor Hussein im Gepäck, dafür eine Lösung zu entwickeln. Die Lösung der Aufgabe, möglichst effizient Molybdän-99 durch Kernreaktionen zu erzeugen und rasch zu extrahieren, führte zum DFR. Die grundlegende Lösungsidee, das Dual-Fluid Prinzip, kam mir während des Joggens im Wald. Das war der gefragte Heureka-Moment. Die genauere quantitative Untersuchung und Weiterentwicklung führte zu der Erkenntnis, dass dies gleichzeitig den mit Abstand effizientesten Kraftwerksreaktor darstellt, der mit heutiger industrieller Technik baubar ist.

Welches ist das überzeugendste Argument für den DFR?

Es gibt viele Kernkraftwerkskonzepte. Der Grund, weshalb ein neues, eben dieses gebaut werden sollte, ist zuvorderst ein wirtschaftlicher, damit aber auch ein Argument des Naturschutzes. Der DFR ist das erste Kernkraftwerkskonzept, das das gigantische Potential der stärksten Naturkraft zu einem großen Anteil nutzen kann. Damit ist der DFR in der Lage, die fossilen Kraftwerke im Wettbewerb zu verdrängen und den Kraftwerksmarkt aufzurollen. Der Punkt ist, dass wir in Europa eine politische Strategie verfolgen, um Energie teurer zu machen und über den höheren Preis den Energieverbrauch abzusenken. Auf weltweiter Ebene wird sich das nicht durchsetzen, denn eine solche staatlich erzwungene Verteuerung kann nirgends auf Dauer durchgehalten werden. Wir sollten einfach zur Kenntnis nehmen, dass derzeit fast zweitausend Kohlekraftwerke geplant werden. Und dass Kohle nach Angaben einer Lancet-Studie die tödlichste aller Stromerzeugungsformen ist infolge von Unfällen bei ihrer Förderung und Verstromung. Wo es aber keine Nachreiter gibt, verpufft unsere angemaßte Rolle als Vorreiter. Nur mit preisgünstigerer Energie, die gleichzeitig umweltweltfreundlich ist, erfüllen sich die Nachhaltigkeitsziele der UN fast von selbst. Das kann der DFR leisten.

…………………………………………………………………………………………………………………………

…………………………………………………………………………………………………………………………

Woraus leiten Sie Ihren Optimismus ab, dass dies mit dem DFR anstelle anderer Bauweisen gelingen könnte?

Alvin Weinberg, der Erfinder und Mitentwickler der meisten heute noch bedeutsamen Reaktorkonzepte, wie auch des Druckwasserreaktors, formulierte es so: Der Kardinalfehler der ersten nuklearen Ära war die auf Entscheidung der US-Regierung weltweit durchgedrückte Einführung der Leichtwasserreaktortechnologie (LWR) anstatt der bereitstehenden Salzschmelze-Reaktortechnologie. Die LWR-Kraftwerke sind aufgeblähte U-Boot-Motoren mit allen Nachteilen der auf die speziellen Bedürfnisse des Militärs zugeschnitten Technik für die kommerzielle Nutzung. Das beinhaltet insbesondere die unzureichende Wettbewerbsfähigkeit und hässliche Havariemöglichkeiten. Deshalb liegt der Anteil nuklearer Elektrizität im Weltmarkt nun schon jahrzehntelang bei nur zehn Prozent, was sich auch mit den Neubauprojekten nicht ändert.

Global unbedeutende Anti-Atom-Hysterie

Die Anti-Atom-Hysterie ist daneben im globalen Maßstab unbedeutend. Dazu kommt noch, dass nur etwa ein Prozent des geförderten Urans genutzt werden kann und dadurch ein Atommüllproblem entsteht. Dies alles gibt es beim DFR nicht – im Gegenteil kann hier auch noch der Abfall der LWRs als Brennstoff genutzt werden. Hinzu kommt das Naturschutzargument. Durch seine hohe Effizienz der Nutzung von Uran und Thorium kann der DFR fossile Kraftwerke aus dem Markt drängen und Synthetikkraftstoffe für Verbrennungskraftmaschinen wettbewerbsfähig im Vergleich zu Erdölprodukten herstellen, auch CO2-frei.

Tatsächlich erneuerbar

Dadurch entfiele der größte Teil des Energiebergbaus und damit auch der größte Teil des Bergbaus, da die nuklearen Brennstoffe hochergiebig sind und zudem so genutzt mehrere hundert Millionen Jahre reichen, wodurch die Kernenergie nach der einzig harten Definition auch erneuerbar ist. Die Nutzenergieproduktion wird hoch konzentriert und beansprucht viel weniger Naturräume. Sinkende Energiekosten erlauben es, den Materialkreislauf zu schließen und ermöglichen so den Einsatz neuer, aufwendigerer Technologien, was einen neuen Industrialisierungsschub bewirken und die langanhaltende Wachstumskrise überwinden würde.

Der DFR existiert bisher nur auf dem Papier, der Weg zur ersten funktionsfähigen Anlage ist weit und der Teufel steckt bekanntlich im Detail. Sprechen wir über mögliche Probleme bei der Realisierung. Ist ein flüssiger Kernbrennstoff im Handling nicht prinzipiell risikoreicher als ein fester?

Im Reaktor bestrahlter Kernbrennstoff stellt auf Grund der starken Radioaktivität der erzeugten Spaltprodukte eine potentielle Gefahr dar. Das Handling mit seinem Risiko beinhaltet den gesamten Brennstoffkreislauf. Bei Flüssigbrennstoff-Reaktoren findet mit Ausnahme der Anlieferung des ungefährlichen Brutstoffs das gesamte Handling innerhalb des Kraftwerkscontainments statt. Bei Festbrennstoff-Reaktoren ist der Brennstoffkreislauf verteilt, wozu Transporte hochradioaktiven Materials im öffentlichen Raum gehören (Castor-Transporte) sowie Wiederaufarbeitungsanlagen, wo der feste Brennstoff ebenfalls freigesetzt wird als Flüssigkeit und/oder Gas.

Fest oder flüssig?

Zudem sind Brennelemente-Fertigungsanlagen mit stärker radioaktivem Recyclingbrennstoff erforderlich. Das Handling in einem Flüssigbrennstoff-Kraftwerk ist insgesamt weniger risikoreich, weil viel weniger manuell eingegriffen werden muss als beim Festbrennstoffkreislauf. Allerdings existiert praktisch noch kein Brennstoffkreislauf für feste Brennelemente, da dieser in großem Stil Festbrennstoff-Brutreaktoren und Kapazitätsdeckung mit Wiederaufarbeitungsanlagen benötigt. Dies ist letztendlich bereits Technologie der Generation IV. Derzeit wird der Festbrennstoff der LWR-Kraftwerke einfach zeitlich unbeschränkt zwischengelagert, was nicht nachhaltig ist und das Müllproblem steigert, aber weniger Handling benötigt.

Salzlösungen wirken aggressiv auf die Materialen des Reaktors, dazu kommt eine hohe Temperatur. Sind die Vorstellungen zum zu verwendenden Material ausgereift, gibt es hier die Gefahr unkalkulierbarer Kostensteigerung?

Hier liegt ein häufiges Missverständnis vor: Salzschmelzereaktoren arbeiten nicht mit einer Salzlösung. Es gab einen solchen Reaktortyp in der Anfangsphase der Reaktorentwicklung, der sogenannte homogene Reaktor, wo Brennstoffsalz in Wasser gelöst war. Dieser Reaktortyp ist für die Kraftwerksanwendung ungeeignet.
In einem Wasser-Salz-Gemisch katalysieren die Salzionen die Oxidation von Metall mit dem Sauerstoffatom aus dem Wassermolekül. Im Salzschmelzereaktor wird reines Salz, das heißt ohne Lösungsmittel, erhitzt, bis es schmilzt. Die Strukturmetalle können schlicht aus Mangel an Sauerstoff nicht oxidieren. Dennoch können auch flüssige Salze, die ohnehin erst bei hohen Temperaturen flüssig werden, Metallkomponenten angreifen. Bereits relativ gering veredelte Metalllegierungen sind in der Lage, dem standzuhalten.

Ungelöstes Salz als Lösung

Dies wurde beim erfolgreichen Salzschmelzereaktorexperiment am Oak Ridge National Laboratory unter Leitung von Alvin Weinberg bereits gezeigt und ist der umfangreichen Dokumentation des Experiments zu entnehmen, sie ist online verfügbar. Heute können hochwiderstandsfähige Refraktärmaterialien (unempfindliches Material – FH) zu Komponenten gefertigt und gefügt werden. Diese Baubarkeit war bereits Teil des Grundentwurfs des DFR. Grundsätzlich gilt allerdings, dass es bei jeder großtechnischen Neuentwicklung zu unvorhersehbaren Detailproblemen kommen wird, die mit zusätzlichem Aufwand gelöst werden müssen. Das liegt in der Natur der Sache, andernfalls wäre es nicht innovativ.

An wärmeübertragenden Flächen kommt es speziell bei Verwendung von Salzen oft zu Belagbildung und Inkrustationen, die den Wärmeübergang verschlechtern und im Extremfall zur Funktionsunfähigkeit führen können.

Da keine Salzlösung verwendet wird, gibt es so etwas nicht. Allerdings entstehen im Salzschmelzebrennstoff Spaltproduktelemente, die bei den vorhandenen Temperaturen keine stabilen Salze bilden und als Metallatome im Salz gelöst sind. Beim Salzschmelze-Reaktorexperiment wurde eine Ablagerung solcher Quasi-Edelmetalle beobachtet. Jedoch stehen dort aufgrund des chemischen Massenwirkungsgesetzes Ablagerung und Wiederauflösung im Gleichgewicht, so dass nur eine gleichbleibend dünne Schicht entsteht. Genau das wurde beim Weinberg-Reaktor so auch festgestellt und der Betrieb wurde dadurch nicht beeinträchtigt. An dieser Stelle sei daran erinnert, dass der DFR in zwei Flüssigbrennstoffvarianten entwickelt wird: Der DFR/s mit einem Actinoid-Chlorid-Gemisch als Salzbrennstoff und der DFR/m mit einer Actinoid-Metalllegierung als Flüssigmetall-Brennstoff. Letzterer hat noch mal eine deutlich vergrößerte Lösbarkeit für edlere Metalle.

Wie aufwändig sind die Aufbereitung des flüssigen Brennstoffs während des Betriebs, die Zuführung „frischen“ Materials und die Abführung der Spaltprodukte? Mit welchen Technologien erfolgt die exakte Mischung des Brennstoffs?

Im Kraftwerkscontainment befindet sich die gekapselte pyrochemische Verarbeitungseinheit (PPU), eine nukleare fraktionierte Destillationsanlage, wo die Brennstoff-Flüssigkeit gefiltert wird. Dies geschieht durch das thermische Stofftrennungsverfahren der Rektifikation (eine so genannte Gegenstromdestillation – FH), welche in der chemischen Industrie und Metallurgie bereits seit Jahrzehnten eingesetzt wird. Sie trennt das Metallchloridsalz-Gemisch durch Verdampfen mit sehr hoher Reinheit in ihre Komponenten auf. Eine Isotopentrennung findet prinzipbedingt nicht statt. Die Spaltprodukte werden abgetrennt und aus den ebenfalls aufgetrennten Actinoidchloriden wird sodann eine Salzkombination für den Reaktor angemischt, einfach durch Stoffmengenmessung und Mischung. Diesem Gemisch wird ebenfalls frischer Brutstoff, Uran oder Thorium, als Chlorid zugemischt, um die abgetrennten Spaltprodukte zu ersetzen.

Konzentrierte Kraft

Ein DFR-Kraftwerk mit 1,5 Gigawatt elektrischer Leistung verbraucht 1200 Kilogramm Actinoide pro Jahr. Das ist etwa das Volumen einer Bierkiste. Für den DFR/m müssen nur zwei einfache Konversionsschritte zwischengeschaltet werden. Unter den bekannten Kernbrennstoff-Verarbeitungsverfahren ist dies das einfachste.
Etwas komplizierter wird es, wenn die abgebrannten Brennelemente der heutigen Kernkraftwerke verwertet werden sollen. Dann müssen erst die Brennelemente zerlegt und die Oxidkeramikpellets in Chloride umgewandelt werden. Das hat das IFK in einer im Juli veröffentlichten Studie dargelegt, die vom BMWi finanziert wurde und auf unserer Webseite abrufbar ist. Ein deutscher Reaktor bisheriger Bauart mit 1,4 Gigawatt erzeugt in seiner erzwungenermaßen verkürzten Laufzeit von 40 Jahren 1.000 Tonnen Schwermetalle. Damit könnte ein einzelner 1,5 Gigawatt-DFR 800 Jahre lang betrieben werden. Der Abbau der langlebigen Transurane im Abfall wäre schon innerhalb von 20 Jahren erledigt. Die weiteren 780 Jahre kämen vom übrigen bisher nicht genutzten Uran. Insgesamt könnte eine DFR-Flotte mit den abgebrannten Brennelementen Deutschland etwa 70 Jahre lang in Sektorenkopplung (einschließlich Wärme und Verkehr) vollversorgen. Mit dem bei der Urananreicherung zuvor angefallenem abgereicherten Uran ungefähr 700 Jahre. Realistisch betrachtet werden wir dafür nie wieder Uran abbauen müssen, denn innerhalb dieser Zeit dürfte das Problem der Kernfusion befriedigend gelöst sein.

Was wäre der GAU, der größte anzunehmende Unfall, der mit diesem Reaktorprinzip passieren könnte?

Der Reaktor wird durch einfachste physikalische Regelkreise gesichert, das heißt, eine Maschinerie und computerisierte Schutzsysteme sind im nuklearen Kreis nicht erforderlich. Der Reaktor ist inhärent passiv sicher, im nuklearen Teil gibt es auch keine beweglichen Teile wie Ventile oder mechanische Pumpen, die potentiell störanfällig sind. Unfallszenarien wie Kritikalitätsunfall (ungewollte Leistungsexpansion – FH) und havariemässige Überhitzung wegen Ausfall der Kühlkreislaufpumpen oder Kühlmittelverlust sind prinzipbedingt ausgeschlossen. Der GAU bestünde vornehmlich aus einem Bruch der Brennstoffrohrleitung am oder im Reaktorkern durch Materialversagen oder Gewalteinwirkung.

Was wäre, wenn?

Dem Bruch durch Materialversagen wird durch Online-Überwachung der Reaktorstruktur mittels Neutronentomographie vorgebeugt. Sollte es dazu kommen, läuft Brennstoffflüssigkeit aus oder vermischt sich mit dem Kühlmittel. Im ersten Fall gibt es eine Auffangwanne mit passiver Wärmeabfuhr im Lagerraum der Brennstofftanks, im zweiten Fall kann das kontaminierte Kühlmittel auch in der PPU gereinigt werden.

Austretender Brennstoff steht nicht unter Druck, daher wird kein radioaktives Material versprüht. In beiden Fällen verliert der Brennstoff sofort seine kritische Geometrie und die Kettenreaktion bricht ab. Aufgrund der kleinen Abmessungen und der Konstruktion kann der Reaktorkern als Ganzes ausgetauscht werden. Dieser Fall wäre also nicht mal ein wirtschaftlicher Totalschaden.

Um für das Leben in der Umgebung gefährliche Mengen Radioaktivität auszuwerfen, bedürfte es massiver Gewalteinwirkung. Der nukleare Teil befindet sich in einem armierten Stahlbetonwürfel mit einer hinreichend großen Wandstärke. Militärischer Beschuss von außen oder terroristische Sprengstoffdetonation im Innern reichen nicht aus. Dazu bedarf es eines Bunkerknackers, einer Lenkwaffe, die in der Lage ist, eine solche Armierung zu durchschlagen. Das alleine reicht allerdings auch nicht aus. Sie müsste zusätzlich mit einem Nuklearsprengkopf bestückt sein, um gefährliche Mengen Radioaktivität auswerfen zu können. Das könnte sich nur im Fall eines Atomkriegs der Großmächte ereignen, dann sind havarierte Kernkraftwerke wirklich kein vordringliches Problem mehr.

Welches Echo zum DFR erreichte Sie bisher, international und aus Deutschland?

Es gab die verschiedensten Reaktionen in den letzten sechs Jahren. Wir betrieben dies zunächst als akademisches Entwicklungsprojekt. Nachdem ausreichender Patentschutz gegeben war, gingen wir den üblichen wissenschaftlichen Weg. Das Konzept und Ergebnisse der physikalischen Simulationen wurden in wissenschaftlichen Fachzeitschriften und auf Konferenzen veröffentlicht. Inzwischen haben wir zahlreiche Blindbegutachtungsverfahren erfolgreich hinter uns gebracht. Nach berechtigter anfänglicher Skepsis ist das Konzept bei der internationalen wissenschaftlichen Community allgemein anerkannt, was sich auch am großen Interesse an wissenschaftlicher Kooperation zeigt. Die Finanzierung solcher Kooperationen ist aber noch ein Problem.

Daneben werden wir häufig von Leuten mit unterschiedlichstem Hintergrund kontaktiert. Da werden Fragen gestellt, Vorschläge gemacht, die wir manchmal aufgreifen können, es wird Hilfe angeboten sowie nach Investitionsmöglichkeiten für technikbegeisterte, risikobereite Kleinanleger gefragt. Mittelständische Unternehmer unterstützen uns gelegentlich mit signifikanten Geldbeträgen, die es uns ermöglichen, weiterzumachen. Diesen und den Kleinspendern sei auch an dieser Stelle gedankt. Wir hatten auch mehrfach Kontakte zu den Führungsspitzen großer Konzerne. Dort beobachteten wir, dass diejenigen, die über ausreichendes Fachwissen verfügen, das Projekt überwiegend befürworteten, aber unterhalb der Ebene agierten, die über das Geld entscheidet. Auf der Entscheiderebene ist hingegen kaum Fachwissen vorhanden, kaum Innovationswille, bis hin zu einer erschütternden Unterwürfigkeit gegenüber der herrschenden Energiewende-Doktrin.

…………………………………………………………………………………………………………………………

Das Institut
Institut für Festkörper Kernphysik Berlin gGmbh, Berlin
Gegründet von Prof. Dr. Konrad Czerski, Dipl.-Ing. Stephan Gottlieb, Dr. Armin Huke, Dr. Götz Ruprecht, 2009
Arbeitsgebiete sind Grundlagenforschung zu Kernreaktionen, Angewandte Forschung nukleare Energetik, Entwicklung des DFR
Bisherige Forschungsergebnisse: Experimentelle und theoretische Untersuchungen zu Kernreaktionen, Evaluierung der Energieökonomie von Kraftwerkstechnologie, Entwicklung des DFR
Forschungskooperationen bestehen mit der Universität Stettin, dem Lehrstuhl Kerntechnik der TU München und dem Nationalen Zentrum für Kernforschung Warschau.

…………………………………………………………………………………………………………………………

Aller Anfang ist schwer

Wir haben zudem weit verzweigende, parteiübergreifende Kontakte in die Politik. Darauf legen wir besonderen Wert, da wir auch eine politische Debatte führen müssen, wenn wir die Kerntechnik in den öffentlichen Diskurs zurückholen wollen. Die Argumentationsrichtung war anfangs die Beseitigung des nuklearen Abfalls durch Partitionierung und Transmutation unter Vermeidung eines geologischen Endlagers. In diesem Jahr kam mit der immer weiter um sich greifenden Erkenntnis, dass die Energiewende in dieser Form scheitern wird und der Debatte um einen Klimanotstand die Diskussion um die Notwendigkeit zu alternativen Energiestrategien auf. Eine Kurskorrektur zur Kernenergie wird es geben, wenn der Ruf aus der Bevölkerung laut genug wird. Das beginnt derzeit an vielen Stellen, und gerade Flüssigbrennstoff-Reaktoren mit ihrer passiven Sicherheit und der Lösung der Atommüllfrage kehren in die öffentliche Diskussion zurück.

Dann gibt es hierzulande noch die übliche Bedenkenträgerei, die zum Teil auch von Betriebspersonal aus der alten Kerntechnik stammt. Deren Unterstellungen konnten wir bisher leicht entkräften, da es am Verständnis des DFR-Konzeptes mangelte.

Es existieren für den DFR Verfahrenspatente in Deutschland und international, darunter in Ländern, die der Kernkraft deutlich aufgeschlossener gegenüberstehen als Deutschland. Müsste das internationale Echo auf Ihre Erfindung im Ausland nicht positiver sein als bei uns?

Nur bedingt. Auch international hat die Einführung neuer Kernkraftwerkskonzepte einen schweren Stand. Der Hauptgrund dafür ist das Vorurteil, dass Kernkraft allgemein teuer ist. Das resultiert, wie oben erläutert aus den hohen Kosten der LWR-Kraftwerke der laufenden Generation II. Die Generation III(+), ebenfalls LWR, ist sogar noch teurer, weil jede denkbare Sicherheitstechnik auf gesellschaftliche Anforderung hin auch eingebaut werden muss. Die EPR-Baustellen von Areva (Druckwasserreaktoren der Generation III+) sind ein finanzielles Desaster, was noch vom französischen Staat abgesichert wird. Aber auch die Konkurrenz steht nicht viel besser da. Die Generation III kommt kaum in einen Markt, in dem die fossilen Kraftwerke wegen geringerer Erzeugungskosten unangefochten dominieren.
Dennoch haben die Herstellerkonzerne noch nicht genug Leidensdruck, um neue Wege zu gehen und das Veraltete fallen zu lassen. Obendrein stellt Kerntechnik meist auch nur eine mehr oder weniger kleine Sparte in den Großunternehmen dar. Unter dem Vorurteil, welches für die LWRs ein berechtigtes ist, leiden auch die diversen kleinen Firmen in Amerika, die den klassischen Salzschmelzereaktor in verschiedenen Varianten entwickeln. Allerdings entwickeln diese Firmen SMRs (Small Modular Reactors), also Kleinreaktormodule, einem durch die dortige Politik vorgegebenen Trend folgend. Es gibt jedoch den Skalierungseffekt, das heisst, je kleiner so eine Anlage ist, desto höher werden die spezifischen Erzeugungskosten. SMRs haben so hohe Erzeugungskosten, dass sie nur für netztopographische Inselanwendungen geeignet sind und häufig auch nur dann, wenn eine kontinuierliche Versorgung mit Diesel für Generatoren nicht gewährleistet werden kann, etwa bei im arktischen Winter isolierten Siedlungen.

Loriots Idee ohne Chance

Damit ist man auf dem allgemeinen Kraftwerksmarkt auch nicht konkurrenzfähig, selbst wenn ein mobiles Kleinkernkraftwerk technisch attraktiv ist. Hinzu kommt, dass man inklusive Entwicklungs- und Genehmigungskosten selbst bei kleinen Demonstrationsreaktoren für Bau und Betrieb über eine Milliarde Euro benötigt. Verbrennungskraftmaschinen lassen sich voll funktionsfähig im Spielzeugformat für Kinder bauen. Kernreaktoren haben da untere Schranken, bedingt durch die kritische Masse zur Kettenreaktion, insbesondere auch was die Kosten für den Spaltstoff angeht. Das Spielzeugatomkraftwerk aus Loriots Weihnachtssketch mit Neutronenbeschleuniger und Uranstab ist leider nicht machbar. Um diese Hindernisse zu durchbrechen sind wir zu neu und unsere Wirkungsmöglichkeiten und unsere Bekanntheit noch nicht groß genug.

Bereits für eine erste Anlage wären erhebliche finanzielle Mittel notwendig. Wie hoch wäre eine nötige Anschubfinanzierung für Projektierung, Planung und Bau und wäre die Wahrscheinlichkeit einer Realisierung in einem Land mit hoher Verfügbarkeit von Risikokapital wie den USA nicht deutlich höher?

Ein solches technisches Entwicklungsgroßprojekt hin zu einem kommerziellen Produkt wird in mehreren Phasen realisiert, wobei der Geldbedarf von Phase zu Phase stark ansteigt. Der Geldfluss bestimmt auch die Geschwindigkeit. Für eine Kommerzialisierung ist Geschwindigkeit von Bedeutung. Die Planung der Phasen bis hin zu Modulen und Arbeitspaketen für die erste gut kalkulierbare Phase sind durchgeführt. In diesem Jahr erstellten wir einen Investitionsplan für ein Geschäftsmodell nach den im Risikokapitalgeschäft üblichen Anforderungen für die Entwicklung eines SMR-Kraftwerks mit einer elektrischen Leistung von gut 300 MW. Dies ist die kleinste sinnvolle Leistung, mit der noch ein entscheidender Wettbewerbsvorteil gegenüber fossilen Großkraftwerken erzielt werden kann. Das ist enorm wichtig für eine schnelle Marktdurchdringung. Der Finanzbedarf ist Anfangs geringer und steigert sich dann rasch, wobei neben den eigentlichen Entwicklungskosten die sehr beträchtlichen Kosten für das begleitende Genehmigungsverfahren zu Buche schlagen werden.

Alles hat seinen Preis

Die erste Phase besteht aus Komponententests und Sicherheitsanalysen nach den Anforderungen der Genehmigungsbehörden und ist mit 40 Millionen Euro veranschlagt. Die zweite Phase besteht aus einer nicht-kritischen Testanordnung und der konkreten Konstruktionsplanung des Testreaktors, sie wird etwa 300 Millionen Euro kosten. In der dritten Phase wird der Testreaktor gebaut und zum Kraftwerksbetrieb gebracht. Hier werden etwa vier bis fünf Milliarden Euro erforderlich sein. Danach erfolgen die Vorserienfertigung mit Auslieferungsbeginn und der Aufbau der Serienproduktionslinien. Das Investitionsvolumen hierfür wird voraussichtlich in der Größenordnung von 10 bis 15 Milliarden Euro liegen, und wir hoffen, es zum größeren Teil kreditfinanzieren zu können. Diesen Kosten steht ein weltweites Investitionsvolumen im Kraftwerksmarkt bis 2050 im Bereich von mehreren Billionen Euro gegenüber. Die Größenordnungen im Kraftwerksgeschäft sind ganz andere, was aber auch neben den zuvor dargelegten besonderen Hürden für Kernkraftwerksprojekte die Akquirierung allgemein so schwierig macht.

Kapital ist beweglich und nicht an den Umsetzungsstandort gebunden, wobei wir natürlich nicht auf Deutschland als Standort angewiesen sind. Wir begannen erst in den letzten Monaten mit der Verbreitung des Investitionsplans. Dabei handelt es sich nicht um eine breite Streuung, sondern über geeignete Kanäle gezielt potenzielle Investitionsinteressenten mit dem nötigen Vermögen zu erreichen. Das ist eine langwierige, schwierige Tätigkeit. In den USA haben wir noch keine solchen Kontakte aufbauen können.

Alles in allem also ein Aufwand etwa in Höhe der deutschen EEG-Umlage eines halben Jahres, dafür mit globaler Zukunftsperspektive für emissionsarme Stromproduktion.

Welche Bedingungen müssten erfüllt sein, dass Deutschland an dieser Stelle tatsächlich ein „Vorreiter“ werden könnte? Von wem könnte es Unterstützung geben, welche Wege wären zu gehen, um die in Deutschland manifeste Atomphobie zu überwinden?

Wir beschreiten nunmehr drei parallele Wege zum Aufbau eines DFR-Kraftwerksbauers. Speziell für Deutschland bieten wir die zuvor skizzierte Möglichkeit der Entsorgung des nuklearen Abfalls mittels Partionierung und Transmutation im DFR an, womit ein geologisches Endlager obsolet würde. Dies wird durch die im Sommer veröffentlichte Studie immer bekannter und die Forderung, dies zumindest in einer Demonstrationsanlage zu erproben, wird lauter. Jede Kommune, die als möglicher Standort für ein Endlager in den Fokus gerät, wird sich mit Hinweis darauf zur Wehr setzen.

Zur Finanzierung wurde der Altlastenentsorgungsfond mit 32 Milliarden Euro geschaffen. Anders als bei der Endlagersuche und dessen Bau würde nur ein Bruchteil dieser Summe für die DFR-Entwicklung ausreichen, der Rest könnte zurückgegeben werden. Um diesen Weg der DFR-Finanzierung zu beschreiten, müssen entsprechende Forderungen an die Regierung noch lauter werden. Hier sehen wir mehr und mehr Stimmen am Werk, nicht zuletzt von Kritikern der Energiewende und der mit ihr verbundenen, großflächigen Naturzerstörung. Flüssigbrennstoff-Reaktoren wären eine echte Alternative zu Kohle- und Gaskraftwerken, diese Erkenntnis setzt sich langsam durch.

Der zweite Weg ist die Anwerbung von Risikokapital für die Entwicklung des DFR für den weltweiten Verkauf. Hier beginnen wir derzeit zunächst in Deutschland. Sollte das nötige Risikokapital zusammenkommen, ist allerdings auch dann für den Bau einer Testanlage eine positive Begleitung durch Behörden und Politik notwendig. Ansonsten müsste eben im Ausland gebaut werden, einschließlich der Fabrikationsanlagen.

Der dritte Weg ergänzt den zweiten gewissermaßen. Wir bekommen schon seit Jahren vermehrt Anfragen, wie Kleinanleger in das Projekt investieren können. Hierfür sind die bürokratischen Hürden staatlicherseits besonders hoch. Eigentlich sollte jedem klar sein, dass es sich um eine Risikokapitalanlage handelt, wo eben auch Totalverlust möglich ist. Für eine Publikumsgesellschaft für Kleinanleger muss man einen von der Bundesanstalt für Finanzdienstleistungen (BaFin) zu genehmigenden Prospekt erstellen, wo dies genau und rechtssicher erklärt ist. Dafür bedarf es einer beträchtlichen Arbeit von Fachanwälten und Steuerrechtsexperten mit dementsprechendem Kostenaufwand, den sich eigentlich nur große Stakeholder leisten können. Zudem kann die BaFin den Genehmigungsprozess hinauszögern. Allerdings bekommen wir immer mehr qualifizierte Hilfsangebote von Leuten, die von dem Projekt begeistert sind oder damit aktiv zu einer emissionsfreien Energieversorgung beitragen möchten. Einige davon arbeiten bereits im Team mit und verfügen über entsprechende Qualifikation und Kontakte. Durch eine Publikumsgesellschaft können sehr viele Leute an dem Projekt teilhaben, die wiederum eine Avantgarde für die notwendige energiepolitische Korrektur bilden.

Die Mauer in den Köpfen

Die Atomphobie ist keineswegs so manifest wie häufig dargestellt. Das Spiel seit den 1970er Jahren läuft so, dass eine kleine, extremistische Minderheit die Gesellschaft mit ihrer Ideologie vor sich hertreibt. Die Schäden an der allgemeinen Wohlfahrt werden mittlerweile so groß und offensichtlich, dass der Anti-Atom-Propaganda immer weniger geglaubt wird und neuer Realitätssinn einkehrt. Unter Profis weiß man schon lange, dass wegen der Tücken der Umgebungsenergien die fossilen Energieträger nur überwunden werden können durch moderne, sichere, skalierbare und preisgünstige Konzepte der Kernenergie.

Sollte es tatsächlich zu einem umsetzbaren Projekt kommen, was wären aus Ihrer Sicht die ersten Schritte?

Kommt die Finanzierung für Phase 1 zustande, beginnt die Standortauswahl, die Personaleinstellung und der Laboraufbau für die Tests. Die notwendigen Kontakte haben wir, auch durch unser Netzwerk mit unseren akademischen Kooperationspartnern. Da können wir auf qualifiziertes Personal zurückgreifen. Weiteres befindet sich in der Ausbildung: Am nationalen Kernforschungszentrum in Warschau arbeiten seit diesem Jahr fünf Doktoranden an der Entwicklung des DFR. Zwei weitere aus Deutschland promovieren an der Universität Stettin, da es hierzulande keine ausreichenden Möglichkeiten mehr gibt, um in Kernphysik und -technik einen Abschluss zu erwerben. Mit einem Spezialanbieter für Hochleistungskeramiken sind wir schon für einen Standort für die Teststände in Phase 1 im Gespräch, und auch mit den Lieferanten für die Teststandskomponenten haben wir schon Kontakt. Nach entsprechender Finanzierung könnten wir mit Phase 1 also sehr zügig loslegen.

Herr Doktor Huke, vielen Dank für das Gespräch und viel Erfolg für den Fortgang Ihres Projekts.

 

Anmerkung der EIKE-Redaktion:

Wir danken Herrn Hennig und Tichys Einblicke ganz herzlich für die freundliche Genehmigung, diesen Beitrag in unseren EIKE-News veröffentlichen zu dürfen.
Nähere technische Einzelheiten zum Dual Fluid Reaktor (DFR) (hier).
Zum Thema der neuen Kerkraftwerke-Generation IV und auch über den DFR (wobei der DFR schon jenseits der Generation IV angesiedelt ist) informiert das Buch „Götz Ruprecht und Horst-Joachim Lüdecke: Kernenergie, der Weg in die Zukunft„, Schriftenreihe des Europäischen Instituts für Klima und Energie, Bd. 7, TvR Medienverlag, Jena 2018. Dr. Ruprecht gehört zu den Erfindern des DFR.

 




Ein weihnachtlicher Rückblick auf die Rolle der Klimarealisten in der Öffentlichkeit

Mit diesem wissenschaftsgestützten Klimaalarm geht eine exzessive Vernichtung derjenigen gesellschaftlichen Reputation einher, die sich die Wissenschaft seit Beginn der Aufklärung über alle weltanschaulichen Grenzen hinweg durch erfolgreiche Forschungs- und Entwicklungsarbeit zu unserer aller Nutzen in einer kohlenstoffbasierten Industriegesellschaft erworben hatte.Und aus Sicht dieses Klimakatastrophenmainstreams sind nun alle Klimarealisten einfach nur „Klimaleugner“. Sie sind so sehr „Leugner“, dass sogar selektive schriftliche Textsammlungen von sekundärer F-Wort-Literatur über sie finanziert und der Öffentlichkeit als vorgebliche „Wissenschaft“ angedient werden; Hauptsache, irgendwelche brotlosen und MINT-fernen Akademiker können sich damit vollalimentiert beim politisch korrekten Zeitgeist anschmusen.

In Anhang V seines Buchs „Klimahysterie gefährdet die Freiheit“ hatte der Autor das Zusammenwachsen von Klimawissenschaft und Religion beschrieben, Zitat: „Die Geschichte hat gezeigt, dass eine mittelalterliche Kirche die historische Entwicklung der Wissenschaften und damit die Abspaltung eines wissenschaftlichen Weltbildes von ihrer in sich geschlossenen Lehrmeinung schließlich doch nicht verhindern konnte. Am Ende dieser Entwicklung stehen heute zwei völlig unvereinbare Weltsichten, zwischen denen ein Austausch von Erkenntnissen gar nicht mehr stattfinden kann. Wissenschaft und Religion nehmen in unserer Gesellschaft also grundsätzlich zwei diametrale Positionen ein:

  • Das Ziel der Wissenschaft ist der Erkenntnisgewinn. Das Erkenntnisgebäude der Wissenschaft ist ohne Emotionen und so liberal, dass jeder seinen Beitrag zu einem gemeinsamen Erkenntnisgewinn liefern kann. Die Wissenschaft ist dynamisch, auf eine permanente Weiterentwicklung ausgelegt und kann niemals fertiggestellt werden. Die Gesellschaft finanziert die Wissenschaft und garantiert ihr die Freiheit von Forschung und Lehre. Es liegt dafür in der Verantwortung der Wissenschaft, der Gesellschaft aufrichtige und ungefilterte wissenschaftliche Erkenntnisse zurückzugeben.
  • Das Ziel der Religion ist die Erlösung. Das Erkenntnisgebäude der Religion ist auf den Glauben an das unabänderliche Regelwerk einer höheren Macht gegründet und auf eine Erlösung ihrer Anhänger und der Welt gerichtet. Die Gemeinschaft der Gläubigen ist emotional, glaubt an einen Heilsbringer und an die Erlösung von einem Erbfeind. Die Religion ist statisch, streng auf sich selbst gerichtet und schließt jede weitere Veränderung aus.

Die modernen Wissenschaften konnten sich nur auf ihren aktuellen Stand entwickeln, weil der fortlaufende wissenschaftliche Erkenntnisprozess immer einen Nettogewinn an Wissen erzielt hat.

Das Paradoxon der institutionalisierten Klimaforschung ist daher heute die antiwissenschaftliche Forderung nach einem „Ende der Diskussion“, die diesen statistischen Erfahrungswert negiert

und jede weitere Entwicklung in der Klimaforschung kategorisch ausschließen will. Im Ergebnis läuft diese Forderung daher auf die Verkündung eines statischen Klimaglaubens hinaus. Ein Galileo

Galilei würde darin vermutlich deutliche Parallelen zur Inquisition seiner mittelalterlichen Kirche erkennen, und tatsächlich finden sich hier dann auch sämtliche Elemente, die eine religiös geprägte Weltanschauung ausmachen:

  • Die Heilslehre von einer dekarbonisierten Weltgemeinschaft,
  • die Bedrohung durch ein klimatisches Höllenfeuer
  • und ein CO2-Ablass, mit dem man sich von seiner persönlicher Emissionsschuld frei kaufen kann.“

Die aktuelle Informationslage über die tatsächlichen klimawissenschaftlichen Erkenntnisse sieht für den mündigen Staatsbürger inzwischen nämlich katastrophal aus. Täglich verbreiten die klimapolitisch korrekten Mainstream-Medien mit thermophoben Nachrichten über natürliche Wetterereignisse ihre einseitige Klimahysterie; inzwischen müssen dafür auch schon jahreszeitlich ganz normale geographische Phänomene aus aller Welt herhalten. Offenbar kann dem medialpolitischen Komplex die „Große Transformation“ zur antikapitalistischen Dekarbonisierung einer globalisierten Welt gar nicht schnell genug gehen. Die entsprechenden Widerlegungen solcher Alarmmeldungen und kritische Beiträge über klimarelevante Zusammenhänge beschränken sich in der öffentlichen Diskussion dagegen weitgehend auf spenden- oder gar selbstfinanzierte Wissenschaftsblogs/Institute und kritische alternative Medien, in denen dann „Ehrenamtliche“ und „Wissenschaftspensionäre“ zu Wort kommen. Diese Klimarealisten verfügen weder über fremde Forschungsmittel noch über vollalimentierte Netzwerke, Think-Tanks oder gar eigene Medienberater. Die etablierte Wissenschaft tritt dagegen eigentlich nur noch auf der alarmistischen Seite an die Öffentlichkeit. Entscheidend dazu beigetragen hatte wohl die Strafmaßnahme gegen die Arbeitsgruppe um Berner (Bundesanstalt für Geowissenschaften und Rohstoffe in Hannover) Mitte des letzten Jahrzehntes nach dem berüchtigten Mao-Rezept „Bestrafe einen, erziehe hunderte“.

Allerdings ist ein mehrheitlich erzwungenes Denkverbot auf Seiten der Klimarealisten wesentlich weniger wirksam als auf der Gegenseite, weil es hier nicht um „pekuniäre Kipp-Punkte“ in der Forschungsalimentation geht. Im Covertext zu dem Buch „MEHR GEHT NICHT – Ein klimawissenschaftliches Vermächtnis“ hatte der Autor seine Kritik an der vom Klimamainstream prophezeiten Heißzeit in sechs Punkten formuliert. Tatsächlich würde jeder dieser Punkte, an die nachhaltig uninformierte Öffentlichkeit gebracht, allein für sich schon ausreichen, um den allgegenwärtigen Klimaalarm schwer zu erschüttern. Schaun wir also mal überschlägig und ohne Anspruch auf Vollständigkeit nach, welche Klimarealisten welche dieser Positionen, teils mit anderen Grenzwerten oder in abgewandelter Form, ebenfalls vertreten:

  • Es gibt in der Wissenschaft gar keinen 97%-Konsens:Weitestgehende Übereinstimmung aller Klimarealisten mit unterschiedlichen argumentativen Schwerpunkten.
  • Die Klimasensitivität von CO2LÄGE/LIEGT deutlich unter/um 1 Grad Celsius:Dietze, Lüning, Vahrenholt, Weber-U, Harde, Lüdecke, Schnell …
  • Ein globales CO2-Budget WÄRE/IST fortlaufend erneuerbar:Weber-U, Vahrenholt …
  • CO2ist aber gar nicht der natürliche Klimaantrieb auf unserer Erde:Köppen (†), Wegener (†), Milanković (†), Imbrie (†), Berner, Weber-U, Giaever, …
  • Und es gibt auch keinen „natürlichen atmosphärischen Treibhauseffekt“:Gerlich (†), Tscheuschner, Weber-U, Bauernhirn, Agerius, Schulz-W, Holtz, Ordowski, …
  • Vielmehr ist ein überwiegender/alleiniger solarer Klimaantrieb durchaus wahrscheinlich:Köppen (†), Wegener (†), Milanković(†), Imbrie (†), Berner, Usoskin, Svensmark, Shaviv, Scalfetta, Weber-W (†), Lüning, Vahrenholt, Weber-U, …

Jeder einzelne dieser Punkte wurde oder wird also durchaus von anderen Klimarealisten geteilt, wenn auch nicht jeder von allen. Das Problem ist demnach nicht, dass die Klimarealisten keine Argumente hätten, sondern dass sie bei geringer Medienpräsens jetzt auch noch aktiv aus der medialen Öffentlichkeit ausgeschlossen werden sollen, was bereits zu den Umständen geführt hatte, unter denen die 13. IKEK stattfinden musste. Solche antidemokratischen Zensurmaßnahmen sollten ein Ansporn für alle Klimarealisten sein, mit der notwendigen  Geschlossenheit in der Öffentlichkeit aufzutreten, unterschiedliche Hypothesen zur Klimagenese nebeneinander zuzulassen und sich auf einer gemeinsamen Metaebene (Spektrum für AGW zwischen gar nicht und harmlos) zu positionieren, auf der ausnahmslos alle Realisten-Positionen einer politisch gewollten globalen Dekarbonisierung widersprechen. Denn wenn wir nicht höllisch aufpassen und dagegen halten, könnte der allgegenwärtige „Klimanotstand“ schließlich in einer formidablen Öko-Diktatur enden…

Möge im neuen Jahr also endlich alles viel klimarealistischer werden – fröhliche Weihnachten!




Peer Review zum Gastbeitrag von Rahmstorf im Spiegel

Herrn Prof. Dr. Stefan Rahmstorf
Potsdam-Institut für Klimafolgenforschung

Betreff: Ihr Gastbeitrag, eingereicht zur Veröffentlichung auf Spiegel Online/Spiegel+
„Ein Forscher sagte schon 1977 den Klimawandel voraus – leider arbeitete er bei Exxon“

https://www.spiegel.de/wissenschaft/natur/james-black-sagte-1977-die-klimakrise-voraus-leider-arbeitete-er-bei-exxon-a-1298292.html

 

Final Decision: decline / ablehnen

Sehr geehrter Herr Professor Rahmstorf,

Ihre oben genannte Arbeit haben wir zwei unabhängigen Gutachtern vorgelegt. Beide kommen übereinstimmend zu dem Schluss, dass das Manuskript den bekannten Qualitätsstandards unserer Zeitschrift nicht genügt, und raten von einer Veröffentlichung ab. Wir hoffen dennoch, dass Sie für zukünftige Arbeiten unsere Zeitschrift wieder in Erwägung ziehen.

Mit freundlichen Grüßen,

Redaktion Spiegel Online/Spiegel+

——–

Gutachter #1

Die Arbeit beinhaltet drei Aussagen:

(a) Bereits 1977 habe ein Wissenschaftler des amerikanischen Ölkonzerns Exxon, James Black, die Entwicklung der globalen Mitteltemperatur über 150.000 Jahre inklusive aktuellem anthropogenem Anstieg erstaunlich realitätsnah beschrieben (Abb. 1, schwarze Kurve).

(b) Von 2025 an in die Zukunft gerechnet sei die Vorhersage von Black allerdings falsch, da sie ein Absinken der Temperatur nach Ende von CO2-Emissionen annahm. Richtig sei vielmehr das aktuelle Modell des PIK, das einen weiteren Anstieg und ein dauerhaft hohes Niveau vorhersagt (Abb. 1, rote Kurve).

(c) Wenn Exxon die Erkenntnisse seines Mitarbeiters nicht systematisch unterdrückt hätte, hätte die Menschheit viel früher handeln können.

Abb. 1. Grafik aus der zu begutachtenden Arbeit von Rahmsdorf: schwarze Kurve = „Szenario“ (rekonstruierte Daten+Modell) von Black (1977),  rote Kurve = Modell des PIK (nach Ganopolski & Bovkin, 2017).

 

Zentrale Kritikpunkte (major issues)

  1. Der Autor R. vermischt durchweg zwei unterschiedliche Ebenen wissenschaftlichen Arbeitens: Modellebene (Simulation) und empirische Ebene (Daten). Er schreibt „Wie nah sich Black mit seinen 42 Jahre alten Erkenntnissen an der Realität bewegt, ist erstaunlich. Sichtbar wird das, wenn man die alte Grafik mit dem modernen Wissensstand der Paläoklimaforschung vergleicht.“ Was meint er mit „Realität“?

Die Grafik im Manuskript (Abb. 1) besteht aus drei Abschnitten.

  • Im Zeitraum bis „heute“ (1977?) stellt die rote Kurve ein Modell des PIK dar ([1] Ganopolski & Bovkin, 2017) und die schwarze Kurve rekonstruierte Temperaturdaten [3]. (Das zeigt erst ein Blick in die Originalarbeit von Black ([2] 1977, S. 7).
  • Im Zeitraum ab „heute“ (1977?) stellen beide Kurven Modelle dar. Diese stimmen überein bis zum Punkt „durch CO2-Emissionen hervorgerufenes Interglazial“ (d.h. 2025, siehe Black 1).
  • Ab diesem Punkt divergieren die beiden.

Ab „heute“ (1977?) vergleicht R. also nur noch zwei Modelle miteinander. Rein logisch könnte ebenso gut das PIK-Modell falsch und das von Black richtig, oder beide falsch sein. Die Formulierung von R. erweckt unzulässig den Eindruck, das Modell des PIK sei eine „Realität“, an der die Vorhersage von Black validiert werden könnte. Dabei enthält umgekehrt nur die Kurve von Black überhaupt Daten.

Somit ist R. für seine Aussagen (a) und (b) die Begründung schuldig geblieben.

Sollte ihm das versehentlich passiert sein, genügt seine Arbeit nicht den allerniedrigsten wissenschaftlichen Standards. War es Absicht, muss er sich den Vorwurf der bewussten Irreführung seiner nicht-wissenschaftlichen Leser gefallen lassen.

  1. Der Autor zitiert selektiv aus der Studie von Black (1977). Auf Seite 2 dieser 42 Jahre alten Studie findet sich nämlich der Satz: „Present thinking holds that man has a time window of five to ten years before the need for hard decisions regarding changes in energy strategies might become critical.“ Ist R. der Meinung, auch mit dieser Prognose bewege sich Black erstaunlich nahe an der Realität? Wenn ja, wäre die aktuell gleichlautende Botschaft des PIK ja falsch (und es heute längst zu spät für irgendwelche Maßnahmen). Wenn nein, wäre die alte Arbeit doch nicht so gut wie behauptet (und man fragt sich, ob die heutige Prognose denn valider sei). Das hätte er diskutieren müssen.
  2. Die Arbeit lässt die Frage offen, was überhaupt der Erkenntnisfortschritt des PIK sei, wenn Black schon 1977 die Temperaturentwicklung bis heute so exakt vorhergesagt hat. Für den Zeitraum ab heute, wo die Modelle divergieren, hätte der Autor eine Begründung für die Überlegenheit der (roten) PIK-Kurve geben müssen.

Weitere Kritikpunkte (minor issues)

  1. Obwohl Quellen verlinkt sind, enthalten diese nicht die versprochene Information. Die zentral besprochene Arbeit von James Black (1977) fehlt ganz, obwohl sie im Internet frei verfügbar ist [2]. Als Beleg für die rote Kurve in der Abbildung ist das Erdsystemmodell von Ganopolski und Brovkin (2017) [1] angegeben. In dieser Arbeit ist der entscheidende Teil der Kurve, die Prognose ab heute, aber nicht zu finden.
  2. Bildunterschrift zur Grafik (Abb. 1): „Black ging in seinem Szenario (schwarze Kurve) davon aus, dass die CO2-Emissionen etwa bis zum Jahr 2025 ansteigen und danach im selben Maße wieder abnehmen würden.“ Die Grafik zeigt jedoch die Temperatur und nicht die CO2-Emissionen.

————

Gutachter #2

  1. Die AfD argumentiert nicht „mit von Exxon lancierten Behauptungen“, woher hat R. das? (Im als Quelle verlinkten R.-Blog findet sich nur die Aussage in der WELT, der „menschengemachte CO2-Anteil in der Luft beträgt nur 0,0016 Prozent“, welche von der AfD aufgegriffen worden sei. Diese Aussage ist keine von Exxon lancierte Behauptung.)
  2. Die im Manuskript gezeigte Grafik (Abb. 1) erlaubt nicht zu entscheiden, wo „heute“ genau liegt. Rechts von „heute“ liegende Kurven sind naturgemäß alles Modellkurven. Nachdem bisher kein Klimamodell die nahe Vergangenheit nachbilden konnte (auch den nun 20 Jahre andauernden Hiatus hat kein Modell vorhergesagt) fragt man sich, warum man die in der Abbildung gezeigten Fortsetzungen nach „heute“ ernst nehmen soll.
  3. Die Schilderung von R., das aktuelle Erdsystemmodell des PIK sei in der Lage, „alleine aus den Milankovitch-Zyklen die Eiszeiten korrekt zu reproduzieren“, ist fehlerhaft. Das jeweils lange Abtauchen in Glaziale sind mit Milankowitch gut erklärbar, das jeweils ungewöhnlich schnelle Auftauchen aus einer Eiszeit ist dagegen bis heute ungeklärt und eines der größten Rätsel der aktuellen Klimaforschung. Zu diesem Problem gibt es weit über 100 Fachpublikationen (alle mit „wir wissen nicht, warum“). Siehe z.B. [4] https://scienceofdoom.com/roadmap/ghosts-of-climates-past/
  4. Die Aussage von R.: „Recht hatte Black mit seiner Folgerung, dass die CO2-Erwärmung die höchsten Temperaturen des Holozäns übertreffen würde – das hat sie inzwischen wahrscheinlich getan„, ist falsch: Die Vostok-Eisbohrkernkurve [5] (Abb. 2), die Erkenntnisse der Gletscherforschung (z.B. [6] Lecavalier et al., 2013, Fig. 6) usw. – alle widersprechen.

Abb. 2: Vostok-Eisbohrkernkurve, nach [5] Petit et al. 1999, Nature 399, Fig. 3. Relevant ist hier der kurze Verlauf der letzten 10.000 Jahre in der Gesamtkurve (blau oben rechts): Man erkennt im Holozän, insbesondere bei besserer Zeitauflösung als in dieser Abbildung, mehrere Temperaturmaxima höher als heute.

  1. Die Behauptung von R., dass die erhöhten CO2-Mengen erst nach 1000 Jahren wieder verschwunden seien, ist falsch (z.B. [7] Joos et al., 2013, Fig. 8). Auch [8] Lüdecke & Weiss (2016) finden eine Halbwertszeit um die 100 Jahre.
  2. Dass die nächste Eiszeit ausfallen wird, ist eine durch nichts gestützte freie Behauptung.

———-

Quellen/Literatur:

[1] Ganopolski. A. & Brovkin, V. (2017). Simulation of climate, ice sheets and CO2 evolution during the last four glacial cycles with an Earth system model of intermediate complexity. Climate oft he Past 13, 1695–1716.
https://www.clim-past.net/13/1695/2017/

[2] Black. J. (1977). https://insideclimatenews.org/documents/james-black-1977-presentation

[3] J. Murray Mitchell, Jr.: Environmental Data Service, NOAA, 1977. Zitiert nach Black. J. (1977). https://insideclimatenews.org/documents/james-black-1977-presentation

[4] https://scienceofdoom.com/roadmap/ghosts-of-climates-past/

[5] Petit et al. (1999). Climate and Atmospheric History of the Past 420,000 Years from the Vostok Ice Core, Antarctica. Nature 399 (3),  429-436.
https://www.nature.com/articles/20859?proof=true

[6] Lecavalier, B.S., et al. (2013). Revised estimates of Greenland ice sheet thinning histories based on ice-core records. Quaternary Science Reviews 63, 73-82.
https://www.sciencedirect.com/science/article/abs/pii/S027737911200532X

[7] Joos et al. (2013). Carbon dioxide and climate impulse response functions for the computation of greenhouse gas metrics: a multi-model analysis. Atmospheric Chemistry and Physics 13, 2793–2825.
https://www.atmos-chem-phys.net/13/2793/2013/acp-13-2793-2013.html

[8] Lüdecke, H.-J. & Weiss, C.O. (2016). Simple Model for the Antropogenically Forced CO2 Cycle Tested on Measured Quantities. Journal of Geography, Environment and Earth Science International 8(4), 1-12.
https://www.semanticscholar.org/paper/Simple-Model-for-the-Antropogenically-Forced-CO2-on-L%C3%BCdecke-Weiss/1e196cdb9596a6dfbe955ccbe9df20e6c51c4b70




Klimahysterie – vielleicht doch zurück zur Vernunft?

Die heutige Situation in kurzen Stichworten und ohne große Erläuterungen zusammengefasst, was hier erlaubt sein muss, denn alle genannten Punkte hängen mehr oder weniger zusammen:

a) Friday for Future und Extinction Rebellion werden schwindsüchtig;

b) die neue EU-Präsidentin Frau v.d. Leyen legt Ihren Plan eines „Green Deal“ vor. Zum Klimapaket Deutschlands allein schreibt die FAZ.net am 12.12.2019, dass es einen durchschnittlichen vier Personenhaushalt 300 € mehr im Jahr kostet, ginge es nach dem Umweltministerium sind es 900 €.

c) Polen als vorwiegend Kohle verbrennende Nation hält wenig von diesem Deal, hat sich daher salopp von ihm befreien lassen und lässt sich nun seinen Umbau zu einer Kernenergie-Nation von Deutschland bezahlen;

d) Großbritannien atmet tief erleichtert auf, der „EUdSSR“ entkommen zu sein, und die deutschen Medien wollen das Ergebnis dieser neuen Volksabstimmung in England über Verbleib/Nichtverbleib in der EU partout nicht wahrhaben;

e) die Finanzmärkte antworten auf die Entscheidung Englands mit einer Aufwertung des englischen Pfunds, was kluge Leute schon lange wussten;

f) die Klimakonferenz in Madrid ist gescheitert;

g) die dritte zu Indutrienationen aufstrebende Welt lacht sich einen Ast über die bescheuerten Europäer mit ihrem Dekarbonisierungswahn;

h) die sich an der Dekarbonisierung bereichernden Finanzhaie (hier, hier, hier) lachen auch, allerdings sind die alles andere als bescheuert.

Man erkennt, dass die Unvernunft keineswegs völlig obsiegt hat. Die Politik ist an einem Punkt angelangt, an dem die Menschen mehr Angst vor dem „Klimaschutz“ als vor dem „Klimawandel“ haben (Zitat Klaus Puls). Eine kleine Hilfestellung zur Vernunft – EIKE gesteht offen ein, dass es entschieden auf deren Seite steht – bietet das folgende Video. Es ist nur 1,5 Minuten lang und bringt das ganze Paket der oben aufgeführten Kriegs- und Nebenkriegs-Schauplätze gekonnt auf den Punkt. Genießen Sie es!






V.d. Leyens „Green New Deal“ – die andere Seite der Medaille

Das Peter-Prinzip (auch Unfähigkeitsprinzip) ist eine Hypothese von L. J. Peter, die besagt, dass Beschäftigte in Unternehmen oder Behörden in aller Regel bis zur höchsten Stufe ihrer Unfähigkeit aufsteigen. Es wurde im Buch „The Peter Principle“ formuliert und zählt zu den Klassikern der US-Managementliteratur. Eine erneute, mustergültige Bestätigung erfuhr es erst wieder vor wenigen Tagen. Die Politikerin v.d. Leyen war nämlich, wir erinnern uns

a) niedersächsische Ministerin für Soziales, Frauen, Familie und Gesundheit, dann

b) Bundesministerin für Familie, Senioren, Frauen und Jugend, dann

c) Bundesministerin für Arbeit und Soziales, dann schließlich

d) Bundesministerin der Verteidigung.

Über ihre ministeriellen Erfolge von a) bis c) decken wir besser den Mantel des Schweigens. Andere Minister(innen) machten es auch nicht besser. Was Frau v.d. Leyen aber danach bei der Bundeswehr angestellt hat, ist wirklich erwähnenswert: Trotz millionenschwerer Beraterverträge (wetten, die werden ihr nicht auf die Füße fallen, denn EU-Präsidenten stehen gottgleich über jedem Gesetz) hinterließ sie ein deutsches Militär, das nur noch dem Namen nach eine Kampforganisation ist. Im Ernstfall muss es sich sogar vor den „Armed forces“ Maltas  fürchten (glücklicherweise zählt Malta nicht zu unseren potentiellen militärischen Gegnern). Den Höhepunkt des Peter-Prinzips hat Frau v.d. Leyen aber definitiv als EU-Präsidentin mit ihrer Vision des „Green New Deal“ erreicht – welcher, nicht gerade kleinkariert, die Dekarbonisierung ganz Europas vorsieht.

Wir verzichten hier auf eine nähere Analyse dieses gewaltigen Projekts und beschränken uns bescheiden auf ein Zitat unseres ehemaligen Bundeskanzlers Helmut Schmidt: „Wer Visionen hat, sollte zum Arzt gehen.“ In Deutschland haben es als erste nur die Bauern begriffen und bereits protestiert – ohne jedwede echte Reaktion der Politik (hier). Man darf gespannt sein, wie es weitergeht, an dieser Stelle aber schon einmal unser Einverständnis und unsere volle Sympathie mit den Landwirten.

An Stelle langer Analysen ziehen wir es vor, nachfolgendes Video von nur einer Minute Dauer zu zeigen, welches anschaulich darlegt, was Dekarbonisierung eigentlich bedeutet. Es stammt aus dem frankophonen Sprachraum. Auf das Bild klicken und 10 bis 20 Sekunden warten, bis das Video erscheint.

 

 

Im zweiten Video wird zwar nicht die Dekarbonisierung angesprochen, sondern lediglich ihr Grund, den Visionen von Frau v.d. Leyen entsprechend: Er ist die Verhinderung einer gefährlichen globalen Erwärmung. Da hier besser informierte Leser sofort und zu Recht protestieren,  gleich eine Entschuldigung: Der wirkliche Grund ist natürlich ein anderer, gemäß der Unterscheidung  in „reasons“ und „real reasons“. Die real reasons finden Sie hier

https://eike.institute/?s=Die+gro%C3%9Fe+Transformation%3A+der+Weg+in+die+Knechtschaft

https://eike.institute/2019/10/12/extinction-rebellion-gehirnwaesche-einer-ganzen-generation-teil-i/

https://eike.institute/2019/10/18/extinction-rebellion-gehirnwaesche-einer-ganzen-generation-teil-ii/

https://eike.institute/2019/08/20/unsere-wirtschaft-soll-den-finanz-klimagoetzen-geopfert-werden/

Nun aber zum nachfolgenden Video. In ihm wird ein Klimaszenario angesprochen, welches mit dem „Green New Deal“ überhaupt nicht zusammenpasst – wir entschuldigen uns selbstverständlich bei der EU-Präsidenten dafür. Das Video behandelt die Zukunft, wie es auch alle Warnungen des IPCC machen. Bloß eben ein wenig anders. Nun sind Vorhersagen stets schwierig, vor allem, wenn sie die Zukunft betreffen, aber urteilen Sie selbst!






Die Klimakonferenz in Madrid ist zu Ende – was bleibt? 11.000 „Wissenschaftler“

Unser Pressesprecher Horst-Joachim Lüdecke besuchte letztes Jahr die Klimakonferenz in Kattowitz, die sich nicht ganz überraschend als rein politische Zusammenkunft naturwissenschaftlich überwiegend Ahnungsloser herausstellte. Nachdem Chile wegen der auch klimapolitisch bedingten Unruhen in Santiago nicht mehr als Ausrichter der diesjährigen Weltuntergangs-Messe zur Verfügung stand, bot sich ersatzweise die spanische Hauptstadt Madrid an.

Zu Beginn der COP25 (United Nations Framework Convention on Climate Change, 25th Conference of the Parties) , und gemeint als Einstimmung in den gewünschten Panik-Modus, vermeldete der portugiesische UN-General Guterres:

Klimabedingte Naturkatastrophen werden häufiger, tödlicher, zerstörerischer und verursachen steigende menschliche und finanzielle Kosten. In einigen Teilen der Welt schreitet die Dürre mit alarmierenden Raten voran, die den menschlichen Lebensraum zerstören und die Ernährungssicherheit gefährden.“
(Original am 2.12.19: „Climate-related natural disasters are becoming more frequent, more deadly, more destructive, with growing human and financial costs. Drought in some parts of the world is progressing at alarming rates destroying human habitats and endangering food security.“)

Völlig falsch, wie der letzte Bericht des IPCC, des UN(!)-Weltklimarates, eindeutig sagt: Naturkatastrophen wie Wirbelstürme (Taifune und Hurrikane) werden durch die Aufheizung der Atmosphäre nicht mehr, sondern fluktuieren ohne erkennbaren Trend.

Die Opfer von Naturkatastrophen werden zudem deutlich weniger:

https://cei.org/file/lomborg-global-deaths-climate-and-non-climate-catastrophes-1920-2018-figure-7

Außerdem sind auch die Schäden nicht unter Klimaveränderungen nicht angestiegen, au contraire:

Quelle. Global disaster losses as a percent of global GDP, 1990 to 2019. Data from Munich Re (black), Aon (grey) and World Bank. Updated from Roger Pielke (2019).

Und auch der Trend bei den Dürren („drought“) ist negativ:

Quelle: Global integrated drought monitoring and prediction system link: https://www.nature.com/articles/sdata20141?wptouch_preview_theme=enabled

Man muss sich also fragen, ob nun UN-Generalsekretär Guterres bewusst lügt, oder ob ihm seine Berater diese Lügen vorsetzen, und er sie ungeprüft und vertrauensselig nachplappert, weil sie ihm in den Kram passen, oder ob alle miteinander einfach das verkünden, was ihnen für den verfolgten Zweck gerade opportun erscheint. Falsch ist es auf jeden Fall, und nicht nur das, es ist auch jederzeit leicht nachprüfbar und damit widerlegbar.

Nun sind PR-Apokalyptiker wie Guterres, wie der geneigte EIKE-Leser weiß, nicht die einzigen Untergangspropheten. Medial fast noch wirksamer sind Internet-Erklärungen wie die der „11.000 Wissenschaftler“, die sich allerdings in der Masse als Nicht-Wissenschaftler herausstellten, da ihre Erklärung auch von Micky Maus und dem Vernehmen nach Dagobert Duck unterzeichnet wurde. Allerdings scheint sich sogar in der öffentlich-rechtlichen Medienwelt eine segensreiche Entwicklung anzukündigen, wie unser befreundeter Youtube-Kanal FMD in einem aktuellen Video zeigt. Darin hört man einen Journalisten ohne Scheu die amüsanten und peinlichen Details zur Erklärung der 11.000 aufzählen, nach denen die Internet-Aktion zunächst nur eine lokale Meinungsäußerung ohne Expertise gewesen sei, die von Klimaschützern aus Portland im US-Staat Oregon lanciert wurde. Weil die Aktion wie so viele Initiativen im Internetz-Zeitalter, aus welchen Gründen auch immer, viral ging, kamen am Ende über 11.000 Unterzeichner und Mickymäuse zusammen. Nicht wirklich der Rede wert, aber die deutschen Qualitätsmedien bliesen die Netzaktion zur quasi wissenschaftlichen Stellungnahme auf. Genau das wandte der Kollege unseres kritischen Journalisten im Interview-Video höchst erstaunt auch sofort ein und fragt fast schon inquisitorisch, wie der Kollege den offiziösen ARD-ZDF-Meldungen derart heftig widersprechen kann. Aber der tapfere Journalist hält sich mit der Kraft des Argumentes, hören Sie herein:


Wer des Englischen mächtig ist, kann in diesem Video von Ezra Levant vom widerständigen Kanal Rebel Media noch weitere phänomenale Details zur 11.000-Erklärung erfahren.


 




Er tut es schon wieder: James Powells 100%-Quote ist kein Nachweis von Einigkeit in der Klimaforschung!

Bei näherem Hinsehen lässt seine Methode diesen Schluss aber nicht zu. Leicht lassen sich skeptische Arbeiten finden, die die 100-Prozent-These falsifizieren.

Dass eine methodisch so unzulängliche Studie wie die von Powell es in ein begutachtetes Fachblatt schafft, zeigt, wie niedrig die Hürden inzwischen sind, so lange die Botschaft „stimmt“.

James Powell hat jüngst (20.11.2019) im „Bulletin of Science, Technology & Society“ alle 11 602 zwischen Januar und August dieses Jahres erschienenen begutachteten Artikel mit den Stichworten „Klimawandel“ und „Erderwärmung“ ausgewertet und gefunden, dass nicht mehr nur die vielzitierten 97 Prozent, sondern hundert Prozent der Veröffentlichungen mit der These vom menschengemachten Klimawandel konform gehen.

https://journals.sagepub.com/doi/full/10.1177/0270467619886266?casa_token=lvf6kcdX1mUAAAAA%3AILFGljYGX9Hl8YZmQcrVCCFTkjuBlLEuE35xs9JezCjkU6ZFeC915Bfer4ntYsK-6-H68Z5ePzmpTw

Die FAZ schreibt dazu am 11.12.2019: „In der Klimasprache heißt das: Mehr Einigkeit geht nicht.“

https://www.faz.net/aktuell/wissen/klimaforscher-sind-die-dramaturgen-der-klimawende-16527767.html#void

Aufgrund des FAZ-Artikels habe ich die erwähnte Arbeit von Powell gelesen und seine online hinterlegte Datenbank  stichprobenartig geprüft.

Aus drei Gründen lässt die Arbeit den behaupteten Schluss „The consensus among research scientists on anthropogenic global warming has grown to 100%“ (Powell) bzw. „mehr Einigkeit in der Klimaforschung geht nicht“ (FAZ) jedoch nicht zu:

1) Falsche Grundgesamtheit: Da Powell nur nach den Stichworten Global Warming und Climate Change gesucht hat, findet er hauptsächlich Arbeiten, die gar nicht nach den Ursachen der Erderwärmung fragen (a), und übersieht dabei viele, die danach fragen (b).

  1. Die Suchworte Global Warming und Climate Change liefern, das zeigt seine Datenbank, vor allem Arbeiten, die diese Begriffe als Anlass (oder Marketing), nicht aber als Gegenstand der Forschung haben. Das heißt, sie untersuchen gar nicht die Ursachen der Erderwärmung, sondern ganz andere Fragen. Bereits die ersten beiden Artikel seiner Datenbank sind z.B. ingenieurwissenschaftliche Arbeiten in „Advanced Materials“ bzw. „Applied Materials“. (Beispielzitat: „CO2 photoconversion into hydrocarbon solar fuels by engineered semiconductors is considered as a feasible plan to address global energy requirements in times of global warming“, auf Deutsch: „Die Photokonvertierung von CO2 in Kohlenwasserstoff-Solarkraftstoffe durch technische Halbleiter wird als praktikabler Plan angesehen, um den globalen Energiebedarf in Zeiten der globalen Erwärmung zu decken.“)
  2. Eine in der Fachliteratur alternativ diskutierte Hypothese zu Ursachen von Klimawandel bzw. Erderwärmung betrifft den Einfluss solarer und ozeanischer Zyklen auf den Klimawandel mit entsprechenden Verstärkungsmechanismen, welche gegenwärtig weiter erforscht werden (z.B. Svensmark et al., Nature Communications 2199, 2017). Geben Sie zum Beispiel einmal „solar forcing“ auf Google Scholar ein, dann sehen Sie, wie lebhaft und kontrovers die Fachdiskussion nach wie vor ist! In den Erhebungszeitraum von Powell fällt beispielsweise die Arbeit von Laurenz, Lüdecke & Lüning (2019) [2], die diese Alternativthese stützt, mit Powells groben Suchwörtern aber übersehen wird. (Allein durch dieses Beispiel sind die 100 Prozent schon falsifiziert).

2) Falsches Kriterium: Ich verfolge die fachwissenschaftliche Diskussion zu den Ursachen des Klimawandels seit Langem. Nach meiner Wahrnehmung besteht der aktuelle Dissens nicht so sehr darin, ob der Mensch irgendeinen Anteil daran habe, sondern vielmehr, wie groß dieser sei – und ob eine menschgemachte Erderwärmung (AGW) nur den CO2-Eintrag oder auch den urbanen Wärmeinseleffekt (UHI) umfasst. Heute wie früher schätzen zahlreiche Fachwissenschaftler den Anteil der menschgemachten Erderwärmung auf deutlich unter 50%. Das sind die so genannten Skeptiker. Man wird ihre Arbeiten mit Powells Methoden aber nicht auffinden, da sie nicht plump „reject“ schreiben (z.B. 2015) oder gleich am Titel erkennbar sind (2019). Auch hierfür stellt Laurenz, Lüdecke & Lüning (2019) ein Beispiel dar.

3) Publication Bias: Aufgrund von Berichten skeptischer Klimawissenschaftler über gezielte Mittelkürzungen und Stellenstreichungen bis hin zum Verlust der eigenen Stelle ist zu vermuten, dass es im Peer-Review-System einen Publikationsbias gibt: Skeptische Ansätze haben es heutzutage ungleich schwerer, es in die Fachjournale zu schaffen. Das führt zu einer systematischen Unterrepräsentation in Datenbanken, gerade wenn man, wie Powell, die Stichprobe auf wenige Monate in 2019 beschränkt.

Es ist also nicht, wie die FAZ schreibt: „Mehr Einigkeit geht nicht. Mathematisch mag das korrekt sein, doch der politische Mehrwert – und der ist entscheidend – bleibt abzuwarten.“ Nein, schon methodisch-statistisch ist hier überhaupt nichts korrekt.

Die Tatsache, dass eine methodisch so unzulängliche Studie überhaupt in einem begutachteten Fachblatt erscheint, zeigt außerdem, wie niedrig die Hürden hier inzwischen sind, so lange die Botschaft ideologisch stimmt (und liefert direkt Evidenz für den obigen Punkt 3).

[1] Hier Powell 2019_Scientists Reach 100% Consensus on Anthropogenic Global Warming PowelSearchClimateChange2 PowellSearchGlobalWarming PowellSearchGlobalWarming

[2] Laurenz, L., Lüdecke, H.-J. & Lüning, S. (2019): Influence of solar activity on European rainfall. J. Atmospheric and Solar-Terrestrial Physics, 185: 29-42, 2019. Das Supplement der Arbeit, welches zusätzliche Ergebnisse enthält (hier).




So sieht Vernunft aus: Die AfD bekennt sich auf Ihrem Braunschweiger Parteitag zur Kernenergie!

In der EIKE-News vom 28. November 2019 wurde bereits über einen Nuklearia-Artikel berichtet, der sich kritisch mit der Ablehnung der Kernenergie seitens der Leopoldina, Akademieunion und acatech auseinander setzte. Nun hat die EU per Gerichtsbeschluss ein eindeutiges positives Zeichen für den weiteren Ausbau der Kernenergie in der EU gesetzt. Der Artikel in „ERNEUERBARE ENERGIEN“ (Sie lesen richtig, denn Kernenergie zählt zu den Erneuerbaren) mit dem Titel EU untermauert ihre Liebe zur Atomkraft schildert die Einzelheiten.

Wegen der Gefahr von Schnappatmung und den damit verbundenen Gesundheitsgefahren, denen die Verfasser in Leopoldina, Akademieunion und acatech ausgesetzt sein könnten, sollten die Damen und Herren Verfasser der angesprochenen Schrift die folgende Neuigkeit besser ruhig atmend bei einem guten Glas Wein aufnehmen:

Die AfD als größte Oppositionspartei Deutschlands wendet sich nicht nur gegen „Klimaschutz“, sowie die für unsere Volkswirtschaft und Natur katastrophale Energiewende. Sie hat auf ihrem Braunschweiger Parteitag nunmehr mit großer Mehrheit beschlossen, die  Kernenergie zu propagieren und in Deutschland wieder zu etablieren. Dies ist aktuell (Montag Abend, den 2.12.2019) noch nicht in den Medien aufzufinden, weil die TV-Übertragung zu früh abbrach, um darüber unmittelbar berichten zu können. Der Autor erfuhr von den Vorgängen in Braunschweig vermittels telefonischer Benachrichtigung.

Heutzutage muss betont werden, dass EIKE politisch neutral und unabhängig ist und mit dieser News ausdrücklich keine politischen Aussagen oder Stellungnahmen zu verbinden beabsichtigt. Allein von der Sache her begrüßt es aber EIKE nachdrücklich, dass sich endlich eine deutsche Volkspartei für die Kernenergie ausspricht und damit der EU folgt. Warum die Kernenergie übrigens eindeutig zu den erneuerbaren Energien zählt, erfahren Sie in




Kernenergie unerwünscht – wirklich?

Nein! Andererseits lohnt sie sich doch ein wenig, dies aber aus einem anderen Grund: Man erkennt nämlich, wie sehr im heutigen Deutschland die Wissenschaft den Kotau vor der Grün-Ideologie macht – „Wes Brot ich ess, des Lied ich sing“. Hier die Schrift der drei angeblich hochkarätigen Institutionen Leopoldina, acatech und Union der deutschen Akademien der Wissenschaften – im Folgenden kurz acatech-Schrift.

Bereits der erste Satz aus der acatech-Schrift macht stutzig: „Deutschland steigt im Jahr 2022 aus der Atomenergie aus, das steht fest„. Warum steht das eigentlich fest? Nur weil es ein umstrittenes Gesetz besagt, welches unter einer vernünftigeren Regierung umgehend wieder außer Kraft gesetzt werden wird? Gleich im ersten Satz also eine Mischung aus Trotz und Angst. Trotz, weil man sehr gut weiß, was für ein sachlicher Schwachsinn das Abschalten der weltweit sichersten Kernmeiler war, Angst, weil man hofft, diesen Vernichtungsfeldzug gegen deutsche Kernkraftwerke noch durchzubekommen und vollendete Tasachen zu schaffen. Was hat das noch mit Wissenschaft zu tun?

Weiter schwadroniert die acatech-Schrift „Die Erzeugungskosten für Kernenergie lassen sich nur schwer mit denjenigen für erneuerbare Energien vergleichen, denn es müssen auch Systemkosten berücksichtigt werden. Die Herausforderungen der Endlagerung und sinkende Investitionskosten für Erneuerbare sorgen dafür, dass Strom aus regenerativen Energiequellen in Zukunft günstiger sein wird als Atomstrom„. Das glauben ja noch nicht einmal diejenigen, die diesen Satz verzapft haben. Zumindest gibt es noch vernünftige wissenschaftliche Stimmen, wie zum Beispiel die von drei hochkarätigen Physikordinarien an der Universität Heidelberg (hier), die über die wahren Zusammenhänge aufklären.

Was ist eigentlich mit den vielen Ländern, welche die Kernenergie intensiv nutzen, angefangen mit China, USA, über Japan, Indien bis hin zu Frankreich und sogar Schweden? Können die etwa nicht rechnen? Wenn die Systemkosten der Erneuerbaren angeblich so tief sind, warum gibt es so wenig davon weltweit (gerade einmal 1,5% Anteile von Wind und Sonne in der globalen Primärenergie)? Als logische Antwort bleibt eigentlich nur die Erkenntnis, dass es in den drei Institutionen „Leopoldina, acatech und Union der deutschen Akademien der Wissenschaften“ keine neutrale, freie und unabhängige Wissenschaft mehr gibt, oder deren Ergebnisse  zumindest nicht mehr kommuniziert werden. Anstatt an Wissenschaft denkt man beim lesen der acatech-Schrift an von grüner Politik betreutes Forschen.

Im heutigen Deutschland müssen daher private Vereine in die Bresche der wissenschaftlichen Wahrheit springen. So wie in einer Widerlegungsschrift des gemeinnützige e.V. Nuklearia, der sich vorsichtig-höflich der oben kritisierten Broschüre annimmt und sie zerpflückt.

So lautet das Fazit von Nuklearia zur acatech-Schrift: „Die Erklärung der Akademien zur künftigen Bedeutung der Kernenergie genügt nicht den Anforderungen, die an eine von politischer Einflussnahme freie wissenschaftliche Arbeit zu stellen sind. Entgegen dem aktuellen Stand der Wissenschaft, wie er in Veröffentlichungen der IEA, der OECD und des IPCC dokumentiert ist, fördert die Erklärung der Akademien den Eindruck, Kernenergie sei für das Erreichen der globalen Klimaziele verzichtbar und das Ende ihrer Nutzung sei auch global nur noch eine Frage der Zeit. Ein Beitrag zu einer „wissenschaftlich aufgeklärten Gesellschaft und einer verantwortungsvollen Anwendung wissenschaftlicher Erkenntnisse zum Wohle von Mensch und Natur“ (Leitbild Leopoldina) ist in dieser Erklärung nicht zu erkennen“.

EIKE stimmt diesem Fazit uneingeschränkt zu. Keine Zustimmung können wir allerdings der Verwendung des Begriffs „Klimaschutz“ in der Replik von Nuklearia  erteilen. Ein mindestens 30-jähriges statistisches Mittel von Wetterparametern kann man nicht schützen. Kernkraftwerke sind im Betrieb zwar CO2-frei, wir raten aber von der Verwendung dieses Arguments ab, weil es bis heute keinen Nachweis dafür gibt, dass anthropogenes CO2 maßgeblich Klimaveränderungen verursacht. Es gibt weit wichtigere Argumente für den Betrieb von Kernkraftwerken.

Wer sich ohne ideologische Scheuklappen über die zivile Nutzung der Kernenergie informieren will, dem sei unser Buch empfohlen

Kernenergie, Der Weg in die Zukunft, Von Götz Ruprecht und Horst-Joachim Lüdecke

 

 




Meinungsdiktatur vs. Rechtsstaatlichkeit in Zeiten des Klimawandels

Die in der linken Blase fühlen sich als die Guten, zumindest als Zeitgenossen mit der richtigen (nicht „rechten“) Gesinnung und Haltung. Die in der rechten Blase fühlen sich zwar nicht unbedingt als die Guten, sie meinen aber, die Fehler der Bewohner in der linken Blase erkennen und benennen zu können. Die in der linken Blase haben das gar nicht mehr nötig. Allmählich haben sich beide Blasen so verfestigt, dass es keine mit der anderen mehr zu tun haben möchte. Man hat seine Meinung und seine Mitstreiter. Die unterschiedlichen Welten jeder der beiden Blasen für sich scheinen in Ordnung zu sein. Man redet nur noch übereinander. Die linke Blase spricht über die rechte als „rechtsextrem“, wenn nicht gar „naziaffin“, wobei denen, die locker den letztgenannten Begriff verwenden, gar nicht mehr wissen, was er unglaublich Schreckliches bedeutet. Die rechte Blase spricht in Richtung der linken von „linken Spinnern“, „verkappten Kommunisten“ oder Ähnlichem.

Ein Unterschied zwischen den beiden Blasen ist freilich erkennbar: Die Bewohner der linken Blase weigern sich mit denen der rechten Blase auch nur zu sprechen, während dies umgekehrt meist nicht der Fall ist. Das kann sich die linke Blase (noch) leisten, da nach dem Marsch der 68er durch die Institutionen der Kultur und Politik die Erzählungen und Mythen der (extremen) Linken zum hegemonialen Zeitgeist geworden sind. Und die Zeitgeistritter wollen den Status quo konservieren, statt ihn mit realistischer Kritik zu verwässern. Früher wollte man angeblich den herrschaftsfreien Diskurs, heute will man die diskursfreie Herrschaft. Die Bewohner der rechten Blase hingegen sind die „Underdogs“ und wollen den Status quo ante wiederherstellen, in dem sie dominierten. Dazu müssen sie die Lebenslügen der Linken, ihr Versagen und ihre Betrügereien auf den Punkt benennen und in den gesellschaftlichen Diskurs einbringen.

Die Eigenschaft der Kommunikationsverweigerung teilen die Linken, um es noch komplizierter zu machen, sogar mit bestimmten Leuten der rechten Blase. Wir haben also das interessante Paradox, dass bestimmte Angehörige der rechten Blase sogar mit Bewohnern derselben Blase nicht sprechen, ja nicht einmal einen Kaffee trinken dürfen (so Markus Söder von der CSU zu Kontakten mit einer hier nicht genannten „Schwefelpartei“).

Inzwischen werden sogar mehr oder weniger neutrale Vermittler zwischen den beiden Blasen gleichermaßen von Bewohnern der linken Blase als auch von bestimmten Bewohnern der rechten Blase nicht mehr angehört. Ihr Vergehen besteht darin, sich auf Diskussionen oder Vorträge mit der schon erwähnten „Schwefelpartei“ eingelassen zu haben; man denke an den Chef der hessischen Filmförderung, der sich mit Prof. Jörg Meuthen traf und daraufhin von Dutzenden Kulturschaffenden aus dem Amt gejagt wurde. In welcher Welt und welchen Zeiten leben wir eigentlich, mag man angesichts von Gesprächs- und Diskussionsverweigerung fragen. So etwas kann niemals zu etwas Gutem führen; vor allem nicht in einer Demokratie, die von einer möglichst breiten Diskussion lebt. Alles andere ist Postdemokratie, die langfristig nicht lebensfähig ist und letztlich auch den Elitären das gute Leben unmöglich macht. Inzwischen hat nämlich auch unser Rechtssystem auf Grund der beiden Blasen Sprünge bekommen.

Genau um die oben beschriebene, immer prekärer werdende Situation dreht sich der Vortrag des ehemaligen Ministerpräsidenten von Sachsen-Anhalt, Werner Münch, der in seinem Vortrag auch auf die Klima-Greta Affaire FFF eingeht. Der Vortrag fand beim Forum Wissenschaft und Politik der Metropolregion Rhein-Neckar (FWP)  in Ludwigshafen statt. H.-J Lüdecke war anwesend.

Die beiden freiheitlichen und unabhängigen Vereine FWP und EIKE stehen in freundschaftlichem Kontakt miteinander und unterstützen sich gegenseitig fachlich. Hier die Vortragsprogramme des FWP von 2019 und des kommenden 2020:

◼ 25.04.2019 Prof. Dr. Friedrich Heinemann, Leiter des Forschungsbereichs (Unternehmensbesteuerung und öffentliche Finanzwirtschaft am ZEW in Mannheim

„Europa vor der Wahl – Perspektiven zur neuen Aufgabenteilung zwischen EU und Mitgliedsstaaten“

◼ 27.06.2019 Rainer Wendt, Hauptkommissar und Bundesvorsitzender der Deutschen Polizeigewerkschaft

„Innere Sicherheit in Deutschland“

◼ 29.08.2019 Prof. em. Dr. habil. Siegfried F. Franke, Wirtschaftspolitik und Öffentliches Recht

„Auf dem Wege zur Aushöhlung des Rechtsstaats? Berechtigte Kritik oder pure Übertreibung?“

◼ 19.09.2019 Prof. Dr. Werner Münch, Ministerpräsident a.D. Sachsen-Anhalt

„Sind Freiheit und Rechtsstaatlichkeit in unserer Demokratie gefährdet? – Eine kritische Bilanz“

◼ 31.10.2019 Dipl.-Ing.Wirtschaftsingenieur Jochen K. Michels, Experte alternative Energien

„Zukunftschancen der Energiepolitik“

◼ 28.11.2019 Rainer Wieland, Vizepräsident des EU-Parlamentes

„Europapolitik“

◼ 30.01.2020 Prof. Dr. Eduard Schmäing, Theoretischer Physiker

„Komplexität – die Vielfalt in Politik + Wirtschaft“

◼ 26.03.2020 Prof. Dr. Horst-Joachim Lüdecke, Physiker und emeritierter Professor an der Hochschule für Technik und Wirtschaft des Saarlandes

„Klima – Hypothesen im aktuellen wissenschaftlichen Diskurs“

◼ 28.05.2020 Günther Öttinger (geplant), EU-Kommissar und Ministerpräsident a.D.

Thema noch offen

◼ 27.08.2020 Prof. Dr. Bernhard Vogel, Ministerpräsident a.D.

„30 Jahre Deutsche Einheit – was bleibt?“

◼ 22.10.2020 Prof. Dr. Paul Kirchhof, Richter des Bundesverfassungsgerichtes a.D.

Thema noch offen

◼ 26.11.2020 Prof. Dr. Jürgen Strube, Ehemaliger BASF-Vorstand und Aufsichtsratsvorsitzender

Thema noch offen

Die Veranstaltungen finden jeweils um 16:00 Uhr im Vortragsraum der IHK Pfalz, Ludwigsplatz 2-4 in 67059 Ludwigshafen statt.

Und hier nun der Vortag von Ministerpräsident a.D. Münch in voller Länge.


 




Kafkas Schloss: Warum Deutschland Strafzahlungen an die EU wegen zu hoher CO2-Emissionen leisten muss

Pixabay

Bekanntlich muss Deutschland Strafzahlungen an die EU leisten, weil es die von der EU gesetzlich festgelegten Mengen seiner CO2-Emissionen nicht einhält. Selber schuld könnte man sagen, warum schaltet es denn seine Kernkraftwerke ab, die zu den sichersten weltweit gehören bzw. jetzt leider gehörten. Sogar die übervorsichtigen Schweden sind nicht so bekloppt, die planen sogar neue. Außerdem haben sich die deutschen Hoffnungen auf die Segnungen von Wind- und Sonnenstrom verflüchtigt, nur die Politik hängt noch dran. Nur etwa 3% der deutschen Primärenergie von einer Windindustrie, die unsere letzten Wälder zerstört und bemitleidenswerte Windrad-Anrainer mit Infraschall krank macht, vom Wertverlust ihrer Häuser ganz zu schweigen. Ach ja, Photovoltaik macht nur 1% und Energiemais auch nur 1% aus.

Also voll ein Schuss in den Ofen, oder „vergurkt“ und „vergeigt“, wie es so schön Haferburg in seinen lesenswerten Artikeln über die Energiewende in ACHGUT formuliert (hier, hier, hier). Der Autor würde gerne widersprechen, aber Haferburg hat aufs Jota recht. Schaut man sich nun einmal das Energie-Tortendiagramm von Polen an, dann wird es einem angenehm warm. Die machen hier alles richtig, weil fast ausschließlich mit Kohle: Heizung, Industrieenergie und Strom. Kernkraftwerke sind angedacht bzw. in Planung. Windräder gibt’s bei denen so gut wie nicht. Zumindest in dieser Beziehung ist also Polen ein glückliches Land, denn mit ihrer Energieversorgung haben sie garantiert kein Problem.

Doch plötzlich fielen mir die deutschen Strafzahlungen ein. Wie ist das eigentlich mit Polen? Die müssten doch auch blechen und nicht zu knapp bei so viel Kohleverbrennung, die schließlich als Hauptursache des atmosphärischen CO2-Anstiegs gilt? Um nicht missverstanden zu werden: ich liebe dieses Land, und dies nicht nur wegen familiärer polnischer Wurzeln. Wer einmal in der unvergleichlich schönen Mariacka Kirche in Krakau war und die dort tiefgläubig knieenden Betenden sah, darunter auffallend viele junge Frauen, wird es vielleicht nachvollziehen können. Das Werk des genialen Stanislaw Lem (1921-2006) hat mich bis heute nicht losgelassen. In gegenwärtigen Zeiten zu empfehlen sind seine Sterntagebücher, Gesellschafts- und Diktaturkritik pur, unglaublich lustig/verrückt versteckt in Science Fiction. Ist fast ein Wunder, dass die sowjetischen Besatzer die wahren Inhalte nicht geschnallt hatten. FFF und XR passen haarklein in die Sterntagebücher. Da stehen aber noch ganz andere Sachen drin, die uns erwarten.  Warum Lem den hoch verdienten Literatur-Nobelpreis nicht bekam, darf als Skandal gelten.

Aber zurück zum Thema:  das Letzte, was ich Polen wünsche, sind dummdreiste EU-CO2-Strafzahlungen für seine super-vernünftige Energiepolitik.

Aber dennoch, das Rätsel ließ mir keine Ruhe. Warum müssen die polnischen Freunde nicht zahlen? Meine Internet-Suche brachte lange Zeit nichts Gescheites hervor, immer nur das deutsche Problem der Strafzahlungen deutscher Autohersteller wegen Verstößen gegen die EU-Ökodesignrichtlinien. Und dann endlich doch, ein Artikel in der WELT tauchte auf und klärte das Rätsel (hier). Es ist ganz einfach, denn die WELT schrieb „Die Europäische Kommission legte nach langen Beratungen eine Liste darüber vor, welches Land wie stark die Emissionen zu reduzieren hat, wobei aber nicht alle Staaten gleichermaßen in die Pflicht genommen werden. Wohlhabende Nationen müssen größere Lasten tragen als ärmere Staaten. „Die nationalen Emissionsreduktionsziele basieren auf den Grundsätzen der Fairness, der Solidarität, der Kostenwirksamkeit und der Umweltintegrität“, so gemäß EU-Kommission.

Dagegen ist prinzipiell nichts einzuwenden. Allerdings stinkt hier der Fisch, wie immer, vom Kopf her. Die EU-Kommission ist gar nicht demokratisch legitimiert! Nur sie hat aber das alleinige Vorschlagsrecht für Gesetze inne. Sie wird nicht gewählt, sondern sie wird eingesetzt. Hmmm…. nach welchen Regeln und von wem, darf man da fragen. Hat irgendein Parlament explizit entsprechende Regeln verabschiedet? Offenbar nicht. Alle Entscheidungen der EU-Kommission werden in Arbeitsgruppen beschlossen, auf die nicht einmal das EU-Parlament zugreifen kann. Wie schreibt hierzu so schön die WELT „nach langen Beratungen„. Wieder hmmm …. Jeder darf sich nun ausmalen, was unter langen Beratungen zu verstehen ist. Diese ausgeklüngelte, undurchsichtige EU-Kommission ist, bei Mondlicht besehen, das „Das Schloss“ in Kafka’s Roman . Mit einem ordentlich gewählten und durchsichtigen demokratischen Gremium hat sie jedenfalls nichts zu tun. Gönnen wir den Polen dennoch die Zahlungsersparnis!




In eigener Sache: Freier Diskurs, keine politische Parteinahme

EIKE-Redner sprechen grundsätzlich vor jedem demokratischen Publikum. Ihre Ausführungen basieren auf dem aktuellen wissenschaftlichen Stand und gründen auf fachlicher Expertise. Die Berechtigung dazu ziehen sie aus ihren akademischen und beruflichen Tätigkeiten oder aus begutachteten Fachveröffentlichungen. Letztere sind auf der EIKE-Webseite unter „Publikationen /Peer reviewed Publikationen“ zu finden (hier).

Demgegenüber

Die Instrumentalisierung (nicht nur) der Klimawissenschaft in unserem Lande ist unübersehbar. Wenn einflussreiche Hochschulprofessoren wie beispielsweise Hans-Joachim Schellnhuber eine große gesellschaftliche Transformation, stellvertretend (hier, hier, hier, hier, hier), mit Hilfe selektierter wissenschaftlicher Belege zu rechtfertigen suchen, so verstößt dies gegen die wissenschaftliche Unabhängigkeit und Ethik. Die Folgen sind bekannt: sie erreichen schon den Missbrauch von Kindern, wie in „Friday for Future“, oder gar „Extinction Rebellion“. Wo ist das Ende solcher Entwicklungen? Die Geschichte liefert fürchterliche Beispiele, wie die Eugenik des dritten Reichs, oder die Pflanzen-Zuchttheorie eines Trofim Lyssenko (hier), die beide unzählige Menschenleben kosteten. Wissenschaft muss politisch unabhängig sein und zwar ohne jedes Wenn und Aber! Anderenfalls ist sie nicht nur unglaubwürdig, sondern für die Demokratie gefährlich.

Und hier kommen wir nun zu EIKE. Wissenschaftlich unabhängigen EIKE-Experten, die angesichts der überbordenden Klimahysterie zunehmend um Vorträge gebeten werden, wird gelegentlich politische Parteinahme vorgeworfen. Dies ist falsch, denn EIKE ist ein gemeinnütziger e.V., und Gemeinnützigkeit schließt die wissenschaftliche Bildung als Aufgabe ein und damit jedwede politische Positionierung aus. Diese Vorgabe halten wir mit äußerster Sorgfalt ein. Ein Beleg dafür unter vielen ist auf der EIKE-Hauptseite unter „Die Mission“ zu finden.

Zur Vermeidung von Missverständnissen: Die Vorschrift „Keine politische Parteinahme“ schließt nicht die fachliche Kritik an klima- oder energiepolitischen Maßnahmen von Regierungen oder politischen Parteien aus. Denn fachlich begründete Kritik wiederum sieht EIKE gerade als seine Hauptaufgabe an. Selbstverständlich sprechen EIKE-Experten in diesem Bemühen nicht nur bei privaten oder industriellen Organisationen, sondern ebenso bei allen demokratischen Parteien, die uns einladen. Diese waren bis jetzt die CDU, CSU,  FDP, Partei der Vernunft und die AfD. Wir appellieren an dieser Stelle ausdrücklich auch an den Rest des demokratischen deutschen Parteienspektrums, unsere Sicht zu Klima/Energie zumindest  anzuhören, denn

wo Zuhören und Dialogbereitschaft aufhören, hat die Diktatur bereits Einzug gehalten.

Da die AfD (gelegentlich auch die FDP) unsere fachliche Auffassung über Klima und Energie teilt, ist sie naturgemäß überproportional unter den uns Einladenden vertreten. Dies ist von uns nicht beabsichtigt. Wir weigern uns aber andererseits auch entschieden, das „Bashing“ von demokratisch gewählten Volksparteien mitzumachen, wie es gegen die AfD von vielen Seiten betrieben wird. Wir freuen uns über jede Einladung. Würden wir nämlich prinzipiell Einladungen bestimmter demokratischer Parteien ausschlagen, wären wir damit auch nicht mehr frei von politischer Parteinahme.

Die jüngsten Ereignisse an der Universität Hamburg, wo weder die Universitätsleitung noch die Polizei willens oder in der Lage waren, gewaltsamen Störungen des ordentlichen Vorlsungsbetriebs Einhalt zu gebieten, belegen, dass die oben ausgesprochene Diktaturwarnung leider keine Übertreibung im heutigen Deutschland darstellt. Noch gilt hierzulande die grundgesetzlich geschützte Meinungs- und Wissenschaftsfreiheit: Allerdings kommt insbesondere bei EIKE noch eine strikte politische Neutralität bei allen Aussagen und Veröffentlichungen hinzu, die unter unseren Namen getätigt werden. Die privaten politischen Meinungen und Tätigkeiten von EIKE-Mitgliedern bleiben davon selbstredend unberührt. Bei den EIKE-Mitgliedern sind so gut wie alle Prioritäten oder Parteizugehörigkeiten aufzufinden.

Wir hoffen, mit dieser Erklärung vieles klargestellt zu haben und stehen gerne für weitere Auskünfte über unser EIKE-Kontaktformular zur Verfügung.




Die Angst der Klimawarner vor den Klimaskeptikern: „Ich renne doch nicht ins offene Messer“. Ein Lehrstück aus Bruchsal.

Einer unserer wissenschaftlichen Sprecher, Prof. Horst-Joachim Lüdecke, wurde in seiner badisch-kurpfälzischen Heimat gebeten, im Rahmen einer Podiumsdiskussion zum Thema Klimakatastrophe als Skeptiker zu diskutieren. Die Organisatorin, Frau Dela Schmidt, machte interessante Erfahrungen, als sie nach einem Teilnehmer suchte, der die grün-offizielle Position in der Debatte vertreten sollte. Hier ihr Bericht:

<<Wir, einige an politischen Fragen interessierte Bürger mit einem Sitz im Gemeinderat in Bruchsal, wollten eine öffentliche Veranstaltung zum allseits diskutierten Thema: Was ist dran am Klimawandel? Ist menschgemachtes CO2 Hauptverursacher der Erderwärmung? Organisieren; geplant war eine Pro- und Contra- Diskussion mit einem Vertreter der in allen Medien gängigen Darstellung und einem Kritiker derselben, mit der Möglichkeit für das Publikum, beiden Seiten Fragen zu stellen.

Als Vertreter der kritischen Fraktion konnten wir den Physiker Herrn Prof. Horst-Joachim Lüdecke gewinnen. Zu unserem Erstaunen fand sich jedoch kein einziger Vertreter der gängigen Darstellung bereit, auf einem öffentlichen Podium seine Meinung zu vertreten, die uns doch täglich aus allen Medien entgegenschallt!

Im Einzelnen tätigten wir folgende Anfragen.

Bei den Grünen lautete die Antwort:

„Wir gehen nicht auf Podien anderer Gruppierungen, Fraktionen oder Parteien, denn wir sehen keinen Sinn darin, bekannte grüne Positionen bei politisch anders denkenden Gruppen zu wiederholen. Wir machen auch selbst Infoveranstaltungen, laden jedoch keine anderen Parteien auf unsere Podien ein.“

Ein Armutszeugnis ohnegleichen, das wohl kaum kommentiert werden muß. Debattenkultur, Meinungsvielfalt, bei den Grünen Fehlanzeige.

Bei Dr. Janus Schipper, Meteorologe und Leiter des Süddeutschen Klimabüros am Karlsruher Institut für Technologie (KIT): Zunächst sagte er, ein Podium müsse zu 96% mit Pro-Vertretern besetzt werden, da dies den Verhältnissen unter Wissenschaftlern entspreche. Ein unsinniges Argument, da wir ja keine Abstimmung, sondern eine Gegenüberstellung herstellen wollten. Als er erfuhr, daß Prof. Lüdecke für die Contra-Position zugesagt hat, entfuhren ihm am Telefon folgende Worte: „Ich renne doch nicht ins offene Messer“. Nochmals schriftlich nach dem Sinn dieser Äußerung gefragt, erhielten wir keine Antwort.

Bei Prof. Johannes Orphal, Physiker und Leiter des Instituts für Meteorologie und Klimaforschung, Atmosphärische Spurenstoffe und Fernerkundung am KIT. Dieser ließ zunächst über seine Mitarbeiterin anfragen, wie wir zur AfD stünden. Da wir den Zusammenhang mit dem Thema nicht erkennen konnten, ignorierten wir dies.

Im Verlauf des folgenden Telefonats, das von ihm in recht aggressivem Tonfall geführt wurde, unterstellte er uns dann aufgrund unserer Wahlkampfslogans „Gegen den politischen Einheitsbrei“ und „Wir packen heiße Eisen an“ ein fragwürdiges Verhältnis zur Demokratie. Ich wollte allerdings gar nicht über Politik mit ihm diskutieren, sondern lediglich eine Antwort auf die Frage, ob er bereit wäre, den Pro-Part auf unserem Podium zu übernehmen. Dies lehnte er vehement ab, und auf meine Frage nach dem Grund sagte er unter anderem, Prof. Lüdecke sei gar kein Fachmann in dieser Frage, da er über keine praktischen Erfahrungen in der Klimaforschung verfüge. Auf meine nach seiner abrupten Beendigung des Telefonats schriftliche Nachfrage, daß es ihm doch gerade dann außerordentlich leicht fallen müßte, Prof. Lüdecke entgegenzutreten, und er doch die Möglichkeit begrüßen müßte, die in seinen Augen fehlerhafte Darstellung von Prof. Lüdecke auf einem öffentlichen Podium klarzustellen, kam nie eine Antwort.

Bei Dr. Imbery, Klimaexperte beim Deutschen Wetterdienst, dessen Interview „Warum extreme Wetterverhältnisse häufiger werden könnten“ am 7.7.2019 in Die Stimme abgedruckt wurde. Dieser Herr antwortete einfach gar nicht auf unsere Einladungs-Email, noch auf eine Nachricht auf seinem Anrufbeantworter. Man kann nicht behaupten, daß wir uns keine Mühe gegeben haben, eine echte Pro- und Contra-Veranstaltung zu organisieren. Nun werden wir den Pro-Part selbst übernehmen müssen, an uns liegt es nicht.

In Wahrheit gibt es nur eine logische Erklärung: Die Vertreter der Pro-Position, insbesondere die Wissenschaftler des KIT, als Technische Universität des Landes Baden-Württemberg einer öffentlichen Einrichtung, wissen ganz genau, daß ihre Darstellung nicht richtig ist und fürchten zu Recht eine Entblößung, wenn ein fachkundiger Gegner anwesend ist und Redefreiheit herrscht.>>

Zwar sind wir „Klimaleugner“ ja gewohnt, daß die Klimawarner das exakte Gegenteil dessen tun, was sie predigen; man denke an Schellnhubers, Rahmstorfs und Luisas Vielfliegerei. Dennoch dachte ich, daß die Klimatischen ihren Unfug via Selbstbetrug selber glauben. Daher müßten sie sich überlegen fühlen, wenn sie auf die angeblich unfähigen und von Trump üppig geschmierten Klimaleugner treffen. In der Tat haben sie ja einige rhetorische Tricks auf Lager, die beim Laien im Publikum durchaus ankommen, wie die Geschichten mit den 97% Klima-Katastrophen-Unterstützern und ähnliches. Tatsächlich scheint der Selbstbetrug im Geiste der Klimatischen aber mittlerweile auf wackeligem Fundament zu stehen; die Profiteure gestehen sich offenbar immer mehr selbst ein, daß die ihnen nützliche Theorie schlicht erfunden ist. Oder machten einige von ihnen aus ihrem Herzen eine Mördergrube, als sie wider besseres Wissen an Instituten anheuerten, die auf politischen Befehl Weltuntergangsmärchen lehrten?

Unbestätigten Berichten zufolge sollen zum Beispiel am Potsdamer Institut für Klimafolgenforschung e.V. PIK im Gründungsjahrzehnt, den 90ern, durchaus Naturwissenschaftler mit das Haus schmückenden Titeln wie „Professor“ angeheuert haben, weil sie aus Gründen des Alters oder der nicht mehr aktuellen Spezialisierung (DDR-Abschlüsse u.ä.) keinen besseren Job finden konnten. An das CO2-Märchen glaubten sie deswegen noch lange nicht, aber was nimmt man nicht alles für einen gutbezahlten Job ohne Streß und mit vielen interessanten Dienstreisen in Kauf. Die PIK-Betreiber mit ihrer Weltuntergangstheorie galten damals noch, wie der Kabarettist Vince Ebert so legendär formulierte, unter Fachleuten als „die Homöopathen“ der Physik. „Methoden, Beweisführung, alles so ein bisschen huschi-pfuschi.“ Peinlich, da wollten renommierte Naturwissenschaftler mutmaßlich nicht arbeiten; Gift für Lebenslauf und Karriere. Und Ethos soll es ja auch noch geben. Um 2.000 dann, als die Journaktivisten von ARD und ZDF die CO2-Giftgastheorie, die zuvor noch ordentlich pro und kontra diskutiert wurde, zum Dogma erhoben, waren die Klimatischen politmedial derart gut aufgestellt, daß immer mehr bis dahin nicht negativ aufgefallene Wissenschaftler wie Detlev Ganten oder Eckart von Hirschhausen zur Church of Global Warming wechselten. Ist das nur der Asch-Effekt, schlichter Konformismus? Kann man fast nicht glauben, es ist reichlich spät dafür. Der Klimaschwindel ist mit dem peinlichen Greta-Tamtam derart schrill geworden, daß nicht nur die betrogenen Bürger, sondern auch die Klima-Alarm-Unterstützer langsam etwas ahnen, ahnen müssen. Das Lehrstück aus Bruchsal ist ein deutlicher Hinweis darauf.

 

 

 

 

 

 




Weltuntergang durch Treibhaus-Effekt ?

Hier  – vorab  – die uralte(!) physikalische Erkenntnis, daß zusätzliches (anthropogenes) COnur noch eine geringfügige Wirkung hat – anhand eines IPCC-Zitates(!) [1]:

“In der idealisierten Situation, daß die Klima-Reaktion auf eine Verdopplung des atmosphärischen COnur aus einer gleichmäßigen Temperaturzunahme besteht, ohne Rückkopplungen … würde die (maximale) globale Erwärmung nach den Modellen [GCMs] etwa 1,2 °Cbetragen”

(1)  Begriffs-Bestimmungen

Die Treibhaus-Gase

Es gibt einige (Spuren-)Gase in der Atmosphäre, welche selektiv Infrarot-Strahlung von der Erdoberfläche in Linien-Spektren absorbieren, und in den Kugel-Raumwieder abstrahlen, folglich zu 50% Richtung Erde. Damit verzögern … behindern sie teilweise die natürliche Strahlungs-Abkühlung der Erde. Den weit überwiegenden Anteil an diesem Effekt hat der Wasser-Dampf. Die Reihenfolge der Treibhaus-Gase bezüglich ihres Effektes in der Atmosphäre [2]: Wasserdampf 62%, CO22%, Ozon(O3) 7%, Lachgas (N2O) 4%, Methan (CH4) 3%.

Wasser-Dampf

Das ist die gasförmige Phase des Wassers. Diese Bezeichnung ist physikalisch unglücklich,

weil sie allgemein verwechselt wird mit „Waschküchen-Dampf „, „Wiesen-Nebel“, Wolken … Die vorstehend aufgeführten Erscheinungs-Formen jedoch sind physikalisch etwas ganz anderes, nämlich die flüssige Phase (Aggregat-Zustand) des Wassers in Form von Tröpfchen. Der Durchmesser der Wasser-Tropfen in der Atmosphäre erstreckt sich über einen Bereich von mehr als drei Zehner-Potenzen (mm – mm). Daraus folgt: Auch Nebel und Wolken bestehen aus Wasser-Tröpfchen, sie sind kein Wasserdampf!

Der Treibhaus-Effekt

Dieser physikalisch gesicherte Effekt läßt sich anschaulich durch die folgende Graphik darstellen :

Abbildung 1  Treibhaus-Effekt – JA oder NEIN ?

Der hier unter [3] dargestellte Schwingungs-Effekt gilt nur für Moleküle mit  >/= 3 Atomen. Das bedeutet, daß z.B. die in der Atmosphäre zu 99% dominierenden Gase Stickstoff und Sauerstoff keine(!) Treibhausgase sind. Wäre es anders, dann hätte Leben auf der Erde kaum eine Chance.

Der „Begriff Treibhaus-Effekt“

Dieser Begriff ist aus der Gewächshaus-Klimatologie entlehnt, jedoch für die Atmosphäre physikalisch verwirrend und letztlich falsch gewählt – ähnlich unglücklich wie „Wasserdampf“ (s.w.o.) : CO2– ein Glasdach über unseren Köpfen ?

Noch im Herbst 2007 erklärte der durch die Medien recht bekannter Klima-Professor LATIF den vermutlich aus seiner Sicht etwas wissenschafts-fernen Bauern und Handwerkern in Bad Bederkesa die Ursache für die (angeblich) bevorstehende Klima-Katastrophe so: “Was das Glasdach im Gewächshaus ist, das ist CO2 in der Atmosphäre“. Man muß nicht Physik studiert haben, um das als Zumutung zu empfinden :

Die Atmosphäre hat kein Dach, weder aus Glas noch aus Gas. Durch eigene Beobachtung hat jeder diese Erkenntnis vielfach schon selbst gewonnen: Jede sommerliche Quellwolke steigt viele Kilometer ungebremst in die Höhe, einschließlich aller enthaltenen Gase – ohne an irgend ein „Dach“ zu stoßen (Abb.2) :

A n d e r e r s e i t s :

In einem Gewächshaus/Treibhaus ist der weit überwiegende Erwärmungs-Effekt nicht die „Strahlenfalle“, sondern die “Luft-Falle“, die es in der Atmosphäre nicht gibt. Die durch die Gewächshaus-Heizung oder am Tage auch durch die Sonne erwärmte Luft im Glashaus kann nicht entweichen. Jedoch  –  öffnet bzw. lüftet man das Glasdach, so fällt die Temperatur in kurzer Zeit auf das Temperaturniveau der Außenluft.

Die Treibhaus-Wirkung der Spurengase in der Atmosphäre :

Abbildung 3  Die partielle Wirkung der Treibhaus-Gase

Das Klima-System

Das Klima-System der Erde besteht aus Atmosphäre, Hydrosphäre (insbes. Ozeane), Kryosphäre (Eis), Biosphäre und Lithosphäre (Gesteine). Bei den Umsetzungen von Energie und Gasen im Klimasystem gibt es stets eine Fülle von physikalischen und chemischen Prozessen und Rückkopplungen, die im Detail unüberschaubar sind. Genau  d a s  ist das Problem der Klima-Modelle, die sich folglich mit einer Vielzahl von Annahmen, Näherungs-Lösungen (Aproximationen), Parametrisierungen etc. behelfen müssen. Daher steht auch im IPCC-Bericht 2001 [4]:

„In climate research and modelling we should recognize, that we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible„.

Abbildung 4  Das Klima-System

Betrachtet man diese vielen gewichtigen Klima-Elemente, so wirkt es absurd, daß die derzeitige hysterische Klimadebatte nahezu „monokausal“ in der Atmosphäre mit dem anthropogenen CO2-Eintrag geführt wird. Das Zeitalter der Aufklärung ist zu Ende.

Klimasensitivität                                                                                                         

Als Maß für einen abgeschätzten Summen-Effekt von direkter Strahlungs-Wirkung und indirekten Rückkopplungs-Mechanismen im Klima-System wurde die so genannte Klimasensitivität konstruiert. z.B. für CO2 [5]:

„Die Klimasensitivität  ist eine Größe, die die globale Erwärmung der Erdatmosphäre durch die Wirkung von Treibhausgasen ins Verhältnis zu einer Strahlungseinheit setzt. Man kann sie in °C/(Watt/m²) angeben. Geläufiger ist jedoch die Angabe der Klimaerwärmung bei Verdoppelung der CO2-Konzentration. Das heißt, dass die Durchschnittstemperatur der Erde um diesen Betrag ansteigt, wenn sich die CO2-Konzentration von den vorindustriellen 280 ppm auf dann 560 ppm erhöht. …. Das IPCC gibt in seinem 2007 erschienenen Vierten Sachstandsbericht Werte zwischen 2 und 4,5 °C als „wahrscheinlich“ an. Der beste mittlere Schätzwert liege bei 3 °C …“.

Diese auch von den Klima-Instituten und vom IPCC verbreitete Definition ist für einen physikalisch weniger gebildeten Leser kaum überschaubar, kaum begreifbar. Sie „vernebelt“ auch von Anfang an, daß die vom IPCC in die Medien transportierten Temperatur-Prognosen von 2…5 Grad auch nicht annähernd alleine durch den „anthropogenen Treibhaus-Effekt“ zu erzielen sind, sondern daß es dazu spekulativer und fragwürdiger und im Detail unbekannter Rückkopplungs-Annahmen bedarf [6]:

„Zur genauen Feststellung dieser Sensitivität gibt es leider kein eindeutiges und allein richtiges Verfahren“.

Es handelt sich also bei der „Klima-Sensitivität“  um ein von Anfang an unüberschaubares physikalisches Konstrukt, um eine Hypothese.

(2)  WAS kann CO?

Die Treibhaus-Wirkung von CO2ist aus Labor-Untersuchungen sowie auch aus Berechnungen der Wirksamkeit des spektralen CO2-Absorptions-Vermögens hinreichend bekannt :

Abbildung 5 [7]  Logarithmischer Treibhaus-Effekt; LAMBERT-BEER’sches Gesetz (Textfelder eingefügt)

D a z u   einige Belege aus peer-reviewten wissenschaftlichen Publikationen :

()  Paul Crutzen (Nobelpreis Chemie) [8]:

“ Es gibt bereits so viel CO2in der Atmosphäre, daß in vielen Spektralbereichen die Aufnahme durch CO2  fast vollständig ist, und zusätzliches COspielt keine große Rolle mehr„,

() H. Hinzepter (eh. Leiter MPI HH ) [9]:

„Eine Verdoppelung der Kohlendioxid-Konzentrationen in der Atmosphäre allein (bewirkt)nur eine geringfügige Erhöhung der mittleren bodennahen Temperatur um wenige Zehntelgrade„.

() IPCC [10]:

„In der Mitte des 15-μm-Absorptions-Bereiches hat zusätzliches CO2nahezu keinen Effekt…“

()  WIKIPEDIA [11]:

„Bei ausschließlicher Betrachtung der im Labor messbaren Strahlungswirkung von COergibt sich eine Klimasensitivität von 1,2 °C. Es existieren jedoch Rückkopplungs-Effekte, darunter im Wesentlichen die Wasserdampf-Rückkopplung, die Eis-Albedo-Rückkopplung und Wolken. Daher liegen die möglichen und als wahrscheinlich angenommenen Werte höher, ein Wert um 3° wird heute als am wahrscheinlichsten angenommen.“

()  Richard J. Betschauer (Physiker) [12] :

„New calculations show that doubling of carbon dioxide (CO2)will increase average global temperature by only about 1°F (degrees Fahrenheit) or 0,55°C (degrees Centigrade), much less that the range of  2°C to 4.5°C estimated by the United Nations International Panel on Climate Change (IPCC). These new calculations are based on NASA supported spectral calculations available on the Internet relating to greenhouse gases.“ 

Bei den in der vorstehend zitierten Literatur genannten CO2-Erwärmungs-Raten von meist unter 1 Grad ist zusätzlich zu berücksichtigen, daß es sich dabei um Berechnungen für eine Atmosphäre ohne Wasserdampf  handelt. Eine solche Atmosphäre gibt es jedoch in der Natur nicht. Da sich jedoch die Absorptions-Banden von CO2 und Wasserdampf teilweise überlappen, verringert der Wasserdampf in nicht unwesentlichem Ausmaß das CO2-Treibhaus-Potential noch um etliche Zehntel Grade [13]:

„Wegen des stets vorhandenen Wasserdampfes ist die Wirkung der CO2-Verdoppelung in der Natur aber noch erheblich kleiner.“

Und genau das steht manchmal sogar schon in einer deutschen Zeitung ( [14], FAZ) :

„Die Paläoklimatologie liefert immer öfter die entscheidenden Daten und Hinweise, mit denen Unsicherheiten verkleinert und die Schwächen der grobskaligen Modelle gemindert werden – die unvermeidliche „Parametrisierung“ etwa, das Setzen fester Parametergrößen als mathematischer Näherung von kleinskaligen Prozessen, die mit einem vernünftigen Aufwand rechnerisch nicht aufzulösen sind. So wurde in „Science“ (doi: 10.1126/science.1214828) kürzlich gezeigt, dass eine fundamentale Größe aller Prognosen, die Klimasensitivität, bei der Analyse langer Datenreihen tatsächlich etwas geringer ausfällt als bislang geglaubt.“

Genau das sagt auch eine 2013 erschienene Publikation sehr deutlich [15]:

„Global warming less extreme than feared ?“ : „Policymakers are attempting to contain global warming at less than 2°C. New estimates from a Norwegian project on climate calculations indicate this target may be more attainable than many experts have feared.“

Internationally renowned climate researcher Caroline Leck of Stockholm University has evaluated the Norwegian project and is enthusiastic. “These results are truly sensational,”  says Dr Leck. “If confirmed by other studies, this could have far-reaching impacts on efforts to achieve the political targets for climate.”

F a z i t :

Die Treibhaus-Wirkung von zusätzlichem anthropogenem COist marginal, und liegt im Rauschen der natürlichen Klima-Temperaturen.

(3)  Wenn nicht CO2  – wer dann ?

Im zweiten Teil des vorstehend angeführten WIKIPEDIA-Zitats wird schon etwas deutlicher, daß die dramatische „Überhitzung“ der Erdatmosphäre in den Klima-Modellen nicht mit COerzielt werden kann, sondern nur mit hypothetischen Rückkopplungen, wie es in der begutachteten wissenschaftlichen Literatur in Dutzenden von Publikationen auch geschrieben steht ist, z.B. :

() H.Hinzpeter (eh. Leiter MPI HH) [16]:

Da „…die Verdoppelung (von CO2nur die von den Flanken der Kohlendioxidbanden herrührende Gegenstrahlung erhöhen würde, führt diese Temperaturerhöhung jedoch in der Folge zu einer Vermehrung der Wasserdampfkonzentration in der Atmosphäre, die zu einer wesentlich höheren Zunahme der Gegenstrahlung und damit zu der bekannten angenommenen Erhöhung der Mitteltemperatur um zwei bis drei Grad Celsius führen würde.“

() IPCC [17]:

“In the idealised situation that the climate response to a doubling of atmospheric COconsisted of an uniform  temperature change only, with no feedbacks operating … the global warming from GCMs would be around 1.2 °C.”

() IPCC [18]:

Der Wasserdampf-Feedback ist nach wie vor der durchweg wichtigste Rückkopplungs-Effekt, der die von den allgemeinen Zirkulationsmodellen als Reaktion auf eine CO2-Verdoppelung vorhergesagte globale Erwärmung verursacht“.

Die physikalische Begründung für diese Hypothese ist zunächst durchaus plausibel, mit der folgenden Argumentations-Kette:

o „Eine Verdoppelung der Kohlendioxid-Konzentrationen in der Atmosphäre allein (bewirkt) nur eine geringfügige Erhöhung der mittleren bodennahen Temperatur um wenige Zehntelgrade„. [19]

o    Damit erhöht sich das Aufnahme-Vermögen der Atmosphäre für Wasserdampf: [20]

„Der Sättigungsdampfdruck eines Reinstoffes in einem geschlossenen System ist von der Temperatur abhängig.“  (Sättigungs-Dampfdruckkurve),

o  Die Atmosphäre kann mehr Wasserdampf aufnehmen, weil das o.a. physikalische Gesetz es zuläßt,

o  Der „zusätzliche“ Wasserdampf wiederum erhöht die Lufttemperatur weiter, weil der Wasserdampf das Haupt-Treibhaus-Gas ist (Abb.3),

o  Dieser Prozeß schaukelt sich auf zu immer höheren Temperaturen,

o  Die Modelle müssen eine „Bremse einbauen“, um ein „runaway“ … „running over“ zu vermeiden.

Ü b e r s i c h t :

Abbildung 6  Die Wasserdampf-Hypothese

Soweit die Theorie.

Realisiert die Natur diese Hypothese ? [21]:

„In diesem Kapitel [22] wird weiter argumentiert, dass große positive Rückkopplungen, hauptsächlich durch Wasserdampf, diesen Effekt wahrscheinlich verstärken. Aber während es einen guten Konsens über die 1,2 °C gibt, existiert überhaupt kein Konsensüber den Nettoeffekt der positiven Rückkopplungen, wie das IPCC auch offen zugibt.“

F a z i t :

Die Treibhaus-Eigenschaften von CO2 können bei Konzentrations-Verdoppelung in einer realen, also Wasserdampf-haltigen Atmosphäre nur etwa ein halbes Grad Erwärmung bewirken. Die Klima-Modelle „benötigen“ für ihre spektakulären Temperatur-Prognosen hypothetische Verstärkungs-Prozesse, allen voran die Wasser-Dampf-Verstärkung.

Allerdings – die Natur macht etwas anderes !  s.w.unten.

(4)  Wasserdampf-Messungen in der Troposphäre

Ein Autoren-Team [23] hat die globalen Daten von Radiosonden („Wetter-Ballone“) ausgewertet, über einen Zeitraum von 35 Jahren: 1973-2007 :

Abbildung 7  Auswertung von Radiosonden 1973-2007 (Paltridge et al. 2009)

Auch neuere Messungen zeigen keine Wasserdampf-Zunahme :

Abbildung 8  Wasserdampf-Messungen in verschiedenen Höhen

W e i t e r h i n :

Die Klima-Modelle rechnen damit, daß die Erwärmung der Tropen dazu führt, daß konvektiv Wärme und Wasserdampf in die obere Troposphäre geführt wird („Hotspot„). Dadurch „soll“ eine erhebliche Verstärkung des Treibhaus-Effektes erfolgen. Meteorologische Messungen widerlegen das [24]:

„Thus, the small OLR (Outgoing Longwave Radiation) feedback from ERBE (Earth Radiation Budget Experiment) might represent the absence of any OLR feedback; it might also result from the cancellation of a possible positive water vapor feedback due to increased water vapor in the upper troposphere [Soden et al. , 2005] and a possible negative iris cloud feedback involving reduced upper level cirrus clouds [Lindzen et al. , 2001]“

Abbildung 9  „hot-spot“ ? : Fehlanzeige

In dem Buch „COund Klimaschutz“  [25] steht zu den o.a. Publikationen folgende Zusammenfassung :

„Unter der Voraussetzung, daß die von Lindzen et al. sowie von Paltridge et al. mitgeteilten Meßergebnisse und Schlussfolgerungen korrekt sind, bedeutet dies nicht mehr und nicht weniger als das wissenschaftliche Ende einer vom Menschen verursachten Klima-Katastrophe.“

F a z i t :

Die Messungen der Wasserdampf-Konzentration in der Troposphäre widersprechen den Annahmen und Ergebnissen der Klima-Modelle !

(5)  Wasserdampf in der Stratosphäre

Abbildung 10

Eine 2010 veröffentlichte Studie [26] auf der Basis von Satelliten-Daten zeigt, daß in der Stratosphäre ein „auf+ab“ des Wasserdampf-Gehaltes gemessen wird:

„Observations from satellites and balloons show that stratospheric water vapor has had its ups and downs lately, increasing in the 1980s and 1990s, and then dropping after 2000.“ 

Die Ursache dafür ist unbekannt (a.a.O.) : „Since 2000, water vapor in the stratosphere decreased by about 10 percent. The reasonfor the recent decline in water vapor is unknown.“

Temperatur und Wasserdampf  – WER folgt hier WEM ? Die Unsicherheiten erscheinen nach dieser Studie größer, als bisher angenommen (a.a.O.) :

„The new study used calculations and models to show that the cooling from this change caused surface temperatures to increase about 25 percent more slowly than they would have otherwise, due only to the increases in carbon dioxide and other greenhouse gases.“

…und w.a.a.O.:

„The stratosphere is a region of the atmosphere from about eight to 30 miles above the Earth’s surface. Water vapor enters the stratosphere mainly as air rises in the tropics. Previous studies suggested that stratospheric water vapor might contribute significantly to climate change. The new study is the first to relate water vapor in the stratosphere to the specific variations in warming of the past few decades.“

Wie unsicher alle diese Annahmen und damit letztlich die Klima-Modelle selbst sind, das zeigen auch die Temperatur-Messungenin der oberen Troposphäre und in der Stratosphäre, denn es gibt nach den meteorologischen Messungen die von den Klima-Modellen vorhergesagte Effekte dort nicht [27]:

Weder gibt es den vorhergesagten „Hotspot“ in der oberen Troposphäre (vgl.w.o.), noch die von den Modellen berechnete langsame Abkühlung der oberen Stratosphäre !

(6)  Wassergehalt in der Atmosphäre – total

In einem NASA-Projekt wird der Total-Wasserdampf-Gehalt der Atmosphäre untersucht [28]:

„The NASA Water Vapor Project (NVAP) dataset is a global (land and ocean) water vapor dataset created by merging multiple sources of atmospheric water vapor to form a global map of total and layered precipitable water vapor.“

Abbildung 11

In den Folgerungen ihres Papers schreiben die Forscher:

„Zu diesem Zeitpunkt können wir das Vorhandensein eines robusten Trends in der globalen Wasserdampf-Entwicklung weder beweisen noch widerlegen.“

In einer Übersicht wird das so zusammen gefaßt [29]:

„Während das COdie letzten Jahrzehnte lang monoton angestiegen ist, hat der Wasserdampf seit nunmehr 14 Jahren offenbar eine Pause eingelegt und stagniert bzw. fällt sogar leicht ab. Eine Kopplung von COund Wasserdampf ist in dieser Zeit nicht erkennbar.

Auch eine soeben (2018) erschiene Arbeit zeigt in dem über alle Atmosphären-Schichten gemessenen „Totalen Wassergehalt“ keinerlei signifikante Trends :

Abbildung 12  Wassergehalt der Atmosphäre: Keine signifikanten Trends

Mit alledem sind die Klima-Modelle widerlegt !

(7)  Kritik an der Modellierung der Wasserdampf-Verstärkung

Es gibt sehr viele namhafte Wissenschaftler, welche die hohe Wichtung der „Wasserdampf-Verstärkung“in den Klima-Modellen kritisieren, z.B. :

()  Roy W. Spencer, Ph. D. [30]:

“While it seems rather obvious intuitively that a warmer world will have more atmospheric water vapor, and thus positive water vapor feedback, I’ve just listed the first 5 reasons that come to my mind why this might not be the case. …..    At a minimum, I believe the water vapor feedback issue is more complicated than most mainstream researchers think it is.“

()  Meteorologie-Professoren H. Kraus und U. Ebel [31]:

„Mit einer Erwärmung der Atmosphäre kann auch der Wasserdampfgehalt zunehmen, und man könnte erwarten, daß sich der hydrologische Zyklus intensiviert…; ob sich Folgen wirklich einstellen, läßt sich selbst durch sehr komplexe Modellrechnungen nicht zuverlässig herausfinden.“ 

()  Dr. Miklós Zágoni (Prominent Hungarian Physicist) [32]:

„Contrary to the common wisdom, there is no positive H2O-Temperature feedback on global scale;  in Earth-type atmospheres uncontrolled runaway warming is not possible…“.

()  Walter Cunningham (Astronaut) [33] :

NASA’s Aqua satellite is showing that water vapor, the dominant greenhouse gas, works to offset the effect of carbon dioxide (CO2). This information, contrary to the assumption used in all the warming models, is ignored by global warming alarmists.“

()  Prof. Dr. C.O. Weiss (eh. Dir. und Prof. an der PTB) [34] :

„Der direkte Einfluss von CO2 auf die Erdtemperatur beträgt nur einen kleinen Bruchteil von 1 Grad Celsius und ist damit praktisch völlig unwichtig. Hierin stimmen fast alle Wissenschaftler überein. Die Alarmmeldungen über Erderwärmung basieren auf ANNAHMEN ( keineswegs Kenntnissen ) über die Wirkung von Wolken. In den Modellen auf die sich die Voraussagen des „Internationalen Ausschusses für Klimawandel“ (IPCC). stützen wird (recht willkürlich) ANGENOMMEN, dass Wasserdampf und Wolken die geringfügigen Temperaturerhöhungen durch CO2 in katastrophaler Weise verstärken, und somit die „Klimakrise“ hervorrufen. …“

Obwohl dies die alles entscheidende Frage der Klimaforschung ist, sind zur Klärung dieser entscheidenden Annahmen von Seiten der „offiziellen“ Klimaforschung bisher keine Anstrengungen unternommen worden. Zwar wurden Vergleiche von Modellergebnissen mit Strahlungsmessungen von Satelliten gemacht. Da die Messungen den Modellen aber widersprachen wurden die Ergebnisse ignoriert und behauptet, die Messungen seien nicht ‚verlässlich‘.“

()  Clive Best  (Physiker, PhD) [35]:

„Es wird gezeigt, dass eine positive lineare Klima-Rückkopplung für kombinierte Wasserdampfeffekte mit dem Schwache-Sonne-Paradoxon unvereinbar ist. Im Besonderen führen Rückkopplungswerte von ~2,0 W/m²K, wie sie die gegenwärtigem GCMs annehmen, zu nicht-physikalischen Ergebnissen hinsichtlich der Solarstrahlung vor einer Milliarde Jahren. Ein einfaches Modell wird beschrieben, wonach erdähnliche Planeten mit großen Oberflächen flüssigen Wassers bei kleinen Änderungen der einfallenden Sonnenstrahlung die Temperatur selbst regulieren können. Das Modell nimmt an, dass sich reflektierende Wolken ausbreiten, während der Treibhauseffekt mit der heller werdenden Sonne abnimmt. Die Gesamtwasserdampf-Rückkopplung des Modells ist stark negativ. Direkte Beweise für die negative Wasserdampf-Rückkopplung finden sich in den Stationsdaten von CRUTEM4, indem man die Temperaturanomalien in ariden Regionen (Wüsten und Polargebiete) mit jenen in feuchten Regionen (hauptsächlich in den Tropen) vergleicht. Alle 5600 Stationen wurden nach der Köppen-Geiger-Klimatologie (9) eingeordnet. Zwei separate Temperaturreihen von 1900 bis 2011 wurden für jedes Gebiet berechnet. Es ergab sich eine klare Differenz der Temperaturanomalien. Unter der Annahme, dass die Ursache der Differenz im atmosphärischen Wasserdampfgehalt zu suchen ist, kann ein Rückkopplungswert von -1,5 ±0,8 W/m²K abgeleitet werden.“

()  Universität Bremen [36]:

„Wasserdampfkarte hilft, Klimamodelle zu korrigieren“„Ein deutsch-niederländisches Forscherteam hat nach Angaben der Universität Bremenerstmals globale Karten der Isotopenzusammensetzung von Wasser in der unteren Atmosphäre gemessen. Die Messungen des  europäischen  Umweltsatelliten Enivsat eröffnen die Möglichkeit, heutige Klimamodelle und damit Vorhersagen über Regenmengen und Überschwemmungsgefahren zu verbessern.

Die Wissenschaftler verglichen die Messungen in der Sahelzone und bei Spitzbergen  mit Modellrechnungen. Beides Mal waren die Messwerte nicht durch die Modelle reproduzierbar, so die Universität. Dies weise darauf hin, dass der tropische und arktische Wasserkreislauf in den Modellen bisher nicht vollständig korrekt erfasst seien.“                    

()  Prof. Dr. Richard Lindzen [37] (zur „Wasserdampfverstärkung“) :

Das ist physikalisch vollkommen absurd. In der Natur geht eine höhere Verdunstung immer mit mehr Niederschlag einher. Zudem kann eine höhere Verdunstung niemals zu einem höheren Wasserdampfgehalt in Lufthöhen von drei Kilometern führen. Und genau dort ist die kritische Grenze, da Wasserdampf zwischen 3 km und der Tropopause den Treibhauseffekt dominiert.“

()  Hans von Storch (eh. Director of Institute for Coastal Research, HH) [38]:

 „Wir Klimaforscher können nur mögliche Szenarien anbieten; es kann also auch ganz anders kommen“.

… damit ist das Entscheidende in einem Satz gesagt :

Die Natur macht was Anderes, als die Modelle vorhersagen.

Bei alledem ist es auch interessant und wichtig, wie eine soeben peer-review’te Publikation (2019) die „Klima-Modell-Szene“ aufmischt [39]:

„The reliability of general circulation climate model (GCM) global air temperature projections is evaluated for the first time, by way of propagation of model calibration error. …  The unavoidable conclusion is that an anthropogenic air temperature signal cannot have been, nor presently can be, evidenced in climate observables.“

(8)  Zusammenfassung

Bei CO2-Verdoppelung in einer realen, Wasserdampf-haltigen Atmosphäre beträgt der zusätzliche Treibhaus-Effekt von COauf der Basis von Labor-Messungen nur etwa ½ Grad. Die Modelle der IPCC-nahen Institute erzielen daher die ständig propagierten 2 … 5 Grad globaler Erwärmung nicht mit CO2, sondern mit Verstärkungs-Hypothesen, insbesondere mit der Wasserdampf-Verstärkung. Daraus folgt: Nach der (mäßigen!) säkularen Erwärmung im 20. Jahrhundert um ca. 0,7 Grad müsste einerseits die Wasserdampf-Gehalt der Atmosphäre schon messbar zugenommen haben, andererseits müsste die Temperatur von Jahrzehnt zu Jahrzehnt beschleunigt ansteigen. Beides wird von den meteorologischen Messungen widerlegt: Weder in der Troposphäre noch in der Stratosphäre sind solche Trends zu beobachten, eher ein leichter Trend zu weniger Wasserdampf, und auch zu weniger Verdunstung am Boden. Auch stagnierte die Global-Temperatur zwischen 2000 und 2015 (IPCC-„hiatus“).

—————————————————————————————————————-

A n m e r k u n g e n :

(1)  Das vorstehend abgehandelte Thema ist anschaulich in einem youtube-Vortrag dagelegt :  https://www.youtube.com/watch?v=5HaU4kYk21Q

(2)  Der vorstehende Aufsatz ist am gleichen Tage erschienen auf: https://wetterklima.wordpress.com/2019/10/20/der-treibhauseffekt/  ; eine ebenfalls neutrale und interessante Web-Seite zu „Wetter & Klima“,

(3)  Der vorstehende Artikel hier mit besserer Qualität der Abbildungen zum download als PDF :

Puls.19.10.THE


Q u e l l e n :

[1] IPCC-Rep. (2007), Chapt. 8.6.2.3

[2] SCHÖNWIESE. promet. 1996

[3] http://www.wetter-foto.de/foto-26306-haufenwolken.html; Lizenzfreie Fotos

[4] IPCC, 3. Ass.Rep., 2001, Sect. 14.2.2.2,  S. 774

[5] Quelle: WIKIPEDIA

[6] http://www.pik-potsdam.de/~stefan/alvensleben_kommentar.html

[7]  www.lavoisier.com.au/articles/greenhouse-science/solar-cycles/ArchibaldLavoisierAGM.pdf

[8]  P.J.Crutzen (Nobelpreis Chemie); T.E.Graedel: Chemie der Atmosphäre, Spektrum Akad.Vlg,, Berlin, 1993, S.414

[9]  H. Hinzpeter, (eh. Leiter MPI HH), promet, 15, Heft 2/3, 1985, S.49)

[10] Quelle: IPCC-Bericht 1994

[11] WIKIPEDIA zu Wasserdampf-Verstärkung

[12] Richard J. Petschauer „Carbon Heat Trapping: Merely A Bit Player in
Global Warming“ http://www.junkscience.com/jan08/Global_Warming_Not_From_CO2_20080124.pdf

[13] Dietze 2001; Carbon Model Calculations, nachzitiert nach: http://www.pik-potsdam.de/~stefan/alvensleben_kommentar.html

[14] FAZ, 06.12.2011 : Der kostbare Kaffeesatz in den Klimamodellen

[15] Published: 24.01.2013 : http://www.forskningsradet.no/en/Newsarticle/Global_warming_less_extreme_than_feared/1253983344535/p1177315753918

[16] H. Hinzpeter, eh. Dir. MPI HH, promet, 15, Heft 2/3, (1985), S.49

[17] IPCC-Rep.(2007), Chapt. 8.6.2.3

[18] IPCC, Climate Change 2001, Working Group I: The Scientific Basis, Contr.Wok.Gr.I, 3rd Ass.Rep.IPCC, Ch.7.2.1.1).

[19] H. Hinzpeter,(eh. Leiter MPI HH), promet, 15, Heft 2/3, 1985, S.49)

[20] WIKIPEDIA; zu: Sättigungs-Dampfdruck

[21] Matt Ridley: Wissenschafts-Ketzerei ; Vortrag bei der Royal Society of the Arts, Edinburgh, 31. Okt. 2011;  http://www.science-skeptical.de/blog/matt-ridley-uber-wissenschafts-ketzerei/005957/

[22] IPCC-Rep. (2007), Chapt. 8.6.2.3

[23] PALTRIDGE ,  ARKING & POOK: Trends in middle- and upper-level tropospheric humidity from NCEP reanalysis data,  Theor Appl Climatol, DOI 10.1007/s00704-009-0117-x Springer-Verlag (2009)

[24] Richard S. Lindzenand Yong-Sang Choi;On the determination of climate feedbacks from ERBE data;Geophys. Res. Lett., VOL. 36, L16705, doi:10.1029/2009GL039628, (2009)

[25] H.-J. Lüdecke: CO2und Klimaschutz, BOUVIER (2007), S. 105

[26] Susan Solomon et al.: Stratospheric Water Vapor is a Global Warming Wild Card ; January 28, 2010; http://www.noaanews.noaa.gov/stories2010/20100128_watervapor.html

[27] http://www.eike-klima-energie.eu/news-cache/temperatur-prognosen-der-klima-modelle-bis-heute-fuer-alle-atmosphaeren-schichten-falsch/  ; 05.10.2012

[28] Vonder Haar et al.: Weather and climate analyses using improved global water vapor observations; Geoph.Res.Lett., doi:10.1029/2012GL052094;  http://www.agu.org/pubs/crossref/pip/2012GL052094.shtml

[29] http://www.kaltesonne.de/?p=4803; 23. Juli 2012

[30] http://www.icecap.us/Sep 14, 2010: Roy W. Spencer, Ph. D.: Five Reasons Why Water Vapor Feedback Might Not Be Positive

[31] Kraus, H. u. Ebel, U.: Risiko Wetter, Springer-Verlag, (2007)

[32] in: Marc Morano, Communications Director, Senate Environment and Public Works Committee (EPW) ; Inhofe Staff, Rundschreiben 02.05.2008

[33] W.Cunningham: In Science, Ignorance is not Bliss, Launch Magazin Online ;

http://waltercunningham.com/Ignorance.html

[34] http://www.eike-klima-energie.eu/climategate-anzeige/die-klimasensitivitaet-von-co2/22.07.2010 ;  u n d

http://www.eike-klima-energie.eu/climategate-anzeige/rueckkopplung-im-klimasystem-der-erde/   10.08.2010

[35] Evidence for Negative Water FeedbackPosted on May 23, 2012 by Clive Best; deutsch: http://www.eike-klima-energie.eu/news-cache/neue-studie-wasserdampf-rueckkopplung-ist-stark-negativ/; 03.06.2012

[36] in: VDI Nachrichten, 18. September 2009, Nr. 38, swe

[37] Prof. Richard Lindzen, Bild der Wissenschaft, 11/1993, S.73

[38] DER SPIEGEL, 11/2007, S.56

[39]  „Propagation of Error and the Reliability of Global Air Temperature Projections“, Patrick Frank; 06.09.2019; https://www.frontiersin.org/articles/10.3389/feart.2019.00223/full

===================================================================




Kernenergie: Der Weg in die Zukunft

Den Menschen in Deutschland wird vorgegaukelt, dass es mit der Kernenergie weltweit bergab geht, das ist falsch, wie hier dargestellt (Quelle: atw, International Journal for Nuclear Power):

In den letzten gut 10 Jahren hat weltweit die Anzahl der KKW-Neubauten von ca. 20 auf ca. 60 zugenommen. Die meisten Neubauten befinden sich in Fernost, aber es stiegen auch viele Länder ganz neu in die Kerntechnik ein. Nur Deutschland steigt aus. Wie kann das geschehen, es gibt da einen Widerspruch: Entweder liegt die ganze Welt falsch mit ihrer Einschätzung zur Kernkraft, oder Deutschland liegt falsch.

Das Buch von Götz Ruprecht und Horst-Joachim Lüdecke gibt Einblick in das komplizierte Thema. Ich will hier für das Buch werben. Eine Zusammenfassung des Inhalts kann ich nicht geben, dazu ist das Thema Kernenergie zu umfangreich. Es sollen einige wichtige Punkte angesprochen werden und diesen einige weitere Gedanken hinzugefügt werden.

Über die Energiedichte

Es gibt bei der Energie drei große Gruppen hinsichtlich ihrer Energiedichte: Wind, Sonne – Kohle, Öl, Gas – Kernspaltungsenergie. Die Energiedichte verhält sich so, wie im Folgenden dargestellt:

Im Mittelalter lebten die Menschen von Wind- und Wasserkraft und durch die Energiespeicher, die mit Hilfe der Sonne gefüllt worden sind, also im wesentlichen Holz. Mit Entdeckung der fossilen Energieträger Kohle, Öl, Gas und deren 1000-fach höhere Energiedichte konnten entsprechend mehr Menschen leben, und das mit höherem Wohlstand. Einen Millionenfachen Sprung nach vorn brachte im 20-sten Jahrhundert die Entdeckung der Kernspaltung. Nun will Deutschland den ganzen Weg wieder zurückgehen, und der Weg wurde mit großer Mehrheit gewählt, wie es die Wahlergebnisse zeigen. Um das zu erreichen, muß der Wohlstand und die Anzahl der Menschen auf ein Milliardstel zurück geschraubt werden — auf welche Weise soll das geschehen???

Über die Reichweite der Energiequellen

Die Kernspaltung von Uran und Thorium könnte die Menschen viele Millionen Jahre mit Energie versorgen, wenn sie dazu den vollständigen Brennstoffkreislauf mit dem Schnellen Brüter und ständiger Wiederaufarbeitung wählen würde. Wind und Sonne bieten dieselbe Reichweite, aber nur für ein Milliardstel weniger Menschen – eine Illusion, die Zahl der Menschen zu reduzieren.

Deutschland wollte früher einmal den Weg des vollständigen Brennstoffkreislaufes gehen, der Brüter in Kalkar war zu 95% fertig und mit dem Bau einer Wiederaufarbeitungsanlage war begonnen. Dann kam das politische AUS. Heute ist Russland führend beim Schnellen Brüter: Ein doppelt so großer Natrium-Brüter wie in Kalkar mit 600 MWe läuft dort in Beloyarsk schon ca. 39 Jahre, ohne dass Greenpeace oder andere NGO’s protestieren. Der Brüter BN-800 (mit 800 MWe) ist seit 2016 in Betrieb. Russland hat heute die Technologieführerschaft bei Schnellen Reaktoren und gilt als fortschrittlichstes Land der Erde.

Die Energiequellen Kohle, Öl, Gas sind endlich, sie reichen vielleicht einige Jahrhunderte, vielleicht auch 1000 Jahre – niemand kann das heute wissen. Aber wenn diese Zeit vergangen ist, gibt es die Kernspaltungsenergie immer noch viele Millionen Jahre. Daher gilt:

Kernenergie ist die Energiequelle der Zukunft

Es ist zu bedenken: Kohle, ÖL, Gas sind für viele Anwendungen unerlässlich, das sind die chemischen Anwendungen, zum Beispiel die Herstellung von Eisen aus Erz, oder Verbrennungsmotoren für Mobilität. Heute ersetzen Dieselmotoren die Hafermotoren in der Landwirtschaft heute, wie es in meiner Jugendzeit der Fall war.

Mobilität wird man niemals mit einer Maschine und Antrieb durch Kernspaltungsmotor machen können: Ein Kernspaltungsreaktor mit 100kW Leistung hätte in 2 Meter Entfernung eine Gamma-Ortsdosisleistung von rund 10 000 Sievert pro Stunde, also in drei Sekunden eine tödliche Gamma-Dosis. Eine >100 Tonnen schwere Abschirmung der Strahlung wäre erforderlich.

Es ist daher wichtig, die Ressourcen Kohle, ÖL, Gas für die Ernährung der Menschen zu erhalten. Anstatt mit Öl zu heizen, könnte man mit Kernkraftstrom heizen, wie es vielfach in Frankreich geschieht. Das würde Öl sparen und in vielleicht 1000 Jahren – wenn das Öl zur Neige geht – zusätzlich Menschen das Leben auf der Erde ermöglichen.

Dazu eine grobe Abschätzung: Wenn in Deutschland ein großes KKW abgeschaltet wird, dann fehlen im Jahr 10 Mrd. kWh Strom. Diese werden ersetzt durch zusätzliches Verbrennen von Kohle mit 30 Mrd. kWh Primärenergieinhalt, denn mit Sonne und Wind geht der Ersatz nicht. Mit 30 Mrd. kWh Primärenergie könnte man die Nahrung von 30 Mill. Menschen für ein ganzes Jahr erzeugen (nach Klaus Heinloth, „Die Energiefrage“), oder auch für 300 000 Menschen ein ganzes Leben lang die Nahrung erzeugen. — Die Abschaltung von KKW’s ist ethisch nicht vertretbar, darüber sollte geredet werden.

Über die Gefahren der Kernenergie

Kernkraftwerke haben im Vergleich mit anderen Kraftwerken ein zusätzliches Gefahrenpotential, das ist die Strahlung aus dem Atomkern. Diese Strahlung kann Moleküle zerstören und damit Lebewesen schädigen. Kernstrahlung ist gleichbedeutend mit der Röntgen-Strahlung, die schon Jahre vor der Kernspaltung entdeckt worden ist. Es gibt
1) die deterministische Wirkung, das ist die Strahlenkrankheit die zum Tod führen kann, und
2) die stochastische Wirkung, d.h. es kann mit nachgewiesener Wahrscheinlichkeit Krebs entstehen.

Beides hat dazu geführt, dass vom Gesetzgeber Grenzwerte eingeführt wurden. Das begann schon um 1934, als man die Dosisabhängigkeit bei Schäden durch Strahlung noch gar nicht richtig kannte. Mit Entwicklung immer besserer Messgeräte wurden die Grenzen immer weiter herab gesetzt, so dass heute Strahlung etwas Ähnliches geworden sind wie die Hexen im Mittelalter, nämlich immer GEFÄHRLICH.

Es gibt bei westlichen Reaktoren inzwischen >17 000 Reaktorbetriebsjahre, ohne daß ein Mensch einen gesundheitlichen Schaden durch das spezielle Risiko der Strahlung erlitten hätte.

Beim Fukushima-Unfall wurde niemand durch Radioaktivität geschädigt. Nur durch die Evakuierungen gab es etwa 150 bis 600 Strahlenschutzopfer (DER SPIEGEL), weil Patienten evakuiert und so deren ärztliche Versorgung abgebrochen wurde.

Beim Tschernobyl-Unfall gab es unter den ca. 140 Strahlenkranken 28 Todesfälle. Auch dort wird es infolge der Evakuierungen – es waren etwa doppelt so viele wie in Fukushima – eine hohe Zahl von Strahlenschutzopfern gegeben haben – niemand weiß es.

Gern wird verschwiegen, daß es allein in Deutschland 8 Radon-Heilbäder gibt, wo die Patienten durch die Strahlung des Radons Heilung von Beschwerden suchen und auch finden. Strahlung ist NICHT generell gefährlich, wie es die Gesetzgebung suggeriert.

Die Strahlenschutzgesetzgebung ist der folgenreichste wissenschaftliche Irrtum der Menschheit. Dazu gibt es Zahlen. Allerdings wird in deutschen Lehrbüchern zu „Strahlung und Gesundheit“ darüber geschwiegen, es müssen englischsprachige Bücher heran gezogen werden.

Über die Endlagerung

Da die Energiedichte bei der Kernspaltungsenergie millionenfach höher ist als bei Kohle, Öl, Gas, beträgt die Menge der Abfälle nur noch ein Millionstel. Götz Ruprecht und Horst-Joachim Lüdecke haben vorgerechnet: Der wirkliche Abfall bewegt sich im Bereich von etwa 100 Gramm, also einer Tafel Schokolade pro Menschenleben bei den Verhältnissen in Deutschlands, wie es vor dem beschlossenen Ausstieg einmal gewesen ist.

Es gibt KEIN Endlagerproblem, es handelt sich um ein von der Politik geschaffenes Scheinproblem.

Zusammenfassung der wichtigsten Aussagen

  • Zum Leben auf der Erde ist Energie erforderlich. Die Vorräte für die Kernspaltung von Uran und Thorium reichen für viele Millionen Jahre.
  • Die gegen die Kernenergie vorgebrachten Einwendungen wie Gefährlichkeit und ungelösten Endlagerung halten einer Prüfung nicht stand.

Die Zukunft gehört der Kernenergie, auch Deutschland sollte sich auf den Weg der Vernunft zurück begeben. Götz Ruprecht und Horst-Joachim Lüdecke geben die Begründungen.