1

IPCC im roten Drehzahlbereich von Ideologie und Realitätsverlust

Ein kleiner Überblick zum anthropogenen CO2

Schauen wir dazu einfach im Report der PBL Netherlands Environmental Assessment Agency nach, einer Organisation der holländischen Regierung (hier), die Trends in den globalweiten Emissionen von Klimagasen veröffentlicht. In diesem Report sagt Fig. 2.3 bereits alles nötige aus

Bild (Fig. 2.3): Emissionen von Klimagasen weltweit (hier)

In guter Näherung können wir die im Bild angegebenen Klimagase mit CO2 gleichsetzen, denn die entsprechenden Differenzen spielen für unsere Betrachtung keine Rolle. Die Tortengrafik in Fig. 2.3 weist mit zusammen knapp 40% die USA plus China als größte CO2 Emittenten aus. Russland und Japan zusammen mit 8% entsprechen etwa der EU mit ihren 9%. Deutschlands Beitrag ist im Bild nicht mehr aufgeführt, er liegt bei grob 2,5%. Bereits hier ist erkennbar, dass unser Beitrag global vernachlässigbar ist, weiter unten dazu mehr.

Über den industriellen Entwicklungshunger Chinas braucht man kaum Worte zu verlieren. Es baut neue Kohlekraftwerke fast im Wochentakt. China von seinem Weg des CO2 Ausstoßes abzuhalten wäre allenfalls theoretisch mit Waffengewalt möglich. Dabei denkt sicher jeder sofort an Josef Stalin, der sich über den Papst mit der rhetorischen Frage lustig machte „wieviel Division hat der Papst“ (also hier das IPCC)? Mit China und den USA als stärksten CO2 Emittenten ist es aber nur aktuell getan, Indien und Brasilien liegen schon in den Startlöchern, sie fangen an mit massiver Kohleverbrennung und später mit Kernkraftwerken nachzuziehen.

Müssen wir nun verzweifeln?

Nein, einer fiktiven Klimaschädigung wegen, verursacht durch menschgemachtes CO2, jedenfalls nicht. Was den Sachverstand des IPCC oder der GroKo angeht ist, ist das allerdings anders, hier sind starke Nerven gefragt, um tiefster Verzeiflung zu entkommen. Ein schöner Beitrag von Dirk Maxeiner (ACHGUT) zu diesem Thema hier. Trotz Propagandageballer aus allen Grün-Kanonenrohren dieser Welt ist ein Faktum nun einmal nicht aus der Welt zu schaffen, die Fachwissenschaft bürgt dafür – für jedermann erreichbar an Hand der öffentlich zugänglichen begutachteten Klima-Fachpublikationen: Es gibt bis heute keinen stringenten Nachweis, dass das anthropogene, also menschgemachtes(!) CO2 irgend einen Klimaeinfluss ausgeübt hat, der eindeutig auf diese Quelle zurückführbar ist.

Die so laut beklagte Temperatursteigerung gegen Ende des 20. Jahrhunderts (seit etwa 20 Jahren stagnierte die mittlere Globaltemperatur wieder bis heute) liegt weit im natürlichen Normalbereich, s. dazu Bild 1 in der EIKE-News hier. Die Steigerung des CO2 Gehalts in unserer Atmosphäre seit Beginn der Industrialisierung ist dagegen sehr wohl menschgemacht. Zum Glück für die Menschheit stieg der CO2-Gehalt der Luft wieder an, denn dadurch hat die Pflanzenmasse unseres Planeten zugenommen (hier) – einschließlich der globalen Nahrungsernten. Natürliche Klimaänderungen wie unsere bislang nur sehr kurze jüngste Warmperiode, haben stets Gewinner und Verlierer. Nur in Extremfällen, wie der kleinen Eiszeit vom Ende des 15. bis Mitte des 19. Jahrhunderts oder gar dem letzten Glazial vor 115.000 bis vor 12.000 Jahren, gab es so gut wie keine Gewinner.

Was passiert, wenn Deutschland weiter CO2 vermeidet?

Für die mittlere Globaltemperatur gar nichts! Die folgende Grobabschätzung für die globale Wirkung der CO2-Emissionen zeigt es, wobei hilfsweise die abstrusen Annahmen des IPCC vorausgesetzt werden:

Deutschlands Anteil an den weltweiten CO2 Emissionen beträgt etwa 2,5%. Um zu ermitteln, wie sich eine Verringerung dieses Beitrags um 50% auf die globale Mitteltemperatur bis zum Jahre 2050 auswirkt, gehen wir von vereinfachten Annahmen aus: Die derzeitige CO2 Konzentrationserhöhung der Luft beträgt 2 ppm/Jahr36, das sind in den 32 Jahren bis 2050 32 x 2 = 64 ppm mehr. Die deutsche 50% Einsparung ergibt 0,5 x 0,025 x 64 = 0,8 ppm weniger. Als ungünstigsten Wert der Klimasensitivität, also infolge CO2 Anstieg von heute 400 ppm auf 2 x 400 = 800 ppm, nennt das IPCC im Sachstandsbericht AR5 (2015) 4,5 °C. Die Temperaturverringerung durch 50% deutscher CO2 Einsparung beträgt somit höchstens 4,5 x 0,8/400 = 0,009 °C, also so gut wie nichts. Dieses „Nichts“ kostet Deutschland viele Milliarden Euro jedes Jahr. Diese Abschätzung wurde dem NRW-Landtag vom Autor anlässlich seiner Einladung als Gutachter zur Kenntnis gebracht und ist auf dem Landtagsserver abgreifbar. Es ist nicht bekannt, dass sie bei den politisch Veranwortlichen zum nachdenken geführt hat.

Leider passiert aber doch etwas, betreffend unseren Industriestandort. Eine Minderheit von sachunkundigen Grünverrückten (Strom kommt aus der Steckdose und wenn nicht, dann eben aus Wind und Sonne), fast die gesamte deutsche Medienlandschaft und leider auch die Justiz (hier) sind fleißig dabei Deutschland zum Zweck der CO2 Einsparung in die Tonne zu treten. Ein naiver Zeitgenosse fragt sich nicht zuletzt bei dem Urteil des OVG Münster zum Hambacher Forst, ob es inzwischen zwei Rechtsauffasungen gibt, eine für die Fällung von Bäumen für Windräder und eine für die Kohleversorgung. Wo protestieren eigentlich die grünen Aktivisten, wenn es den Waldtieren bei Windradinstallationen an den Kragen geht?

Nehmen wir jetzt einmal an, CO2 Vermeidung sei nötig. Wo soll die in Deutschland denn noch erfolgen? Windenergie trägt heute mickrige 3% zur deutschen Primärenergie bei, Photovoltaik 1%. Beide werden subventioniert und können nur den für ein stabiles Stromnetz unbrauchbaren Flatterstrom liefern. Die Versorgungssicherheit geht mit jedem neuen Windrad und jeder neuen Photozelle weiter in die Knie (hier, hier, hier, hier). Bleibt noch Energiemais mit 1%. Zu steigern ist dieses „Erneuerbare“ daher nicht mehr, denn insbesondere die Schäden durch Windturbinen übersteigen in Deutschland bereits jedes Maß (hier). Eine Studie des Bundesumweltamts zeigt auf S. 38 die Abbildung 12, aus der hervorgeht, dass ein weiterer Ausbau der Windenergienutzung zumindest an Land kaum noch möglich ist.

CO2 – Emissionen sind proportional zum Energieverbrauch. Hier sind auf allen Sektoren in Deutschland die Margen bereits ausgereizt. Selbst „Nullenergie-Häuser“ stellen sich inzwischen als Energieverschwender anstatt Energieeinsparer heraus (hier) – vorausgesetzt man erstellt eine realistische Gesamtbilanz.

Wovon wir als rohstoffarmes Land noch leben sollen, wenn die Kernkraftwerksindustrie, die Kohle, die Elektrizitätswirtschaft, die Autoindustrie, die chemische Industrie (Pflanzenschutz) und alle energieintensiven Industrien abgewickelt sind, kommt den für diesen Vernichtungsfeldzug Verantwortlichen anscheinend nicht in den Sinn. Haben die vielen Profiteure dieses Feldzugs schon vorgesorgt? Sie sollten es allmählich tun, denn den Ast auf dem sie sitzen, sägen sie gerade selber ab.




Das FAZ-Klima-Interview vom 2.10.2018: Nachdem sie das Ziel endgültig aus den Augen verloren hatten, verdoppelten sie ihre Anstrengungen

Das Interview in Auszügen

Das Interview führten Christian Schwägerl und Joachim Müller-Jung von der FAZ. Es erschien unter dem Titel „Ein Gespräch zum 1,5-Grad-Sonderbericht des Weltklimarats, Klimaschutz ist kein Wunschkonzert“ (hier). Nun ja, Wunschkonzert ist nicht einmal falsch, denn Klimaschutz ist in der Tat unmöglich. Klima schützen zu wollen – also bekanntlich das lokale statistische Mittel von Wetter über mindestens 30 Jahre, mit der Eigenschaft, sich seit Bestehen unserer Erde überall auf dem Globus stets gewandelt zu haben – kann nur den von der FAZ Interviewten „Fachexperten“ einfallen. Über die „Klima-Expertise“ von Herrn Müller-Jung erschienen bereits in den EIKE-News zwei humorige Artikel (hier, hier). Schauen wir uns jetzt also an, was die Kollegen der Wissenschaft so von sich gaben.

Es ging um das 1,5 Grad oder das 2 Grad Ziel und welches sinnvoller sei. Auf die erste Frage der FAZ nach diesen Zielen aus Sicht der Klimaforschung behauptet Schellnhuber „Aber Fakt ist doch: Schon bei bislang grob einem Grad globaler Erwärmung sehen wir heftige Folgen., etwa Wetterextreme – und wir sind auf dem Weg in eine drei bis fünf Grad wärmere Welt bis Ende des Jahrhunderts, wenn wir nicht rasch umsteuern“. Nein, Herr Schellnhuber, das ist eben nicht Fakt, sondern falsch: Wetterextreme sind Normalität, wie jeder Meteorologie bestätigt, ist die natürliche Eigenschaft des Wetters seine Ungewöhnlichkeit. Es geht hier um Extremwetterzunahmen in Klimazeiträumen. Das IPCC ist in seinem letzten Sachstandsbericht AR5 detailliert auf diese Frage für den Zeitraum ab 1950 eingegangen, denn seit diesem Datum gibt es statistisch ausreichend viele Messungen. Fazit und Fakt: Das IPCC hat nichts gefunden, s. die entsprechenden Belege und Nachweise (hier), (hier) (bzw. Gutachterliche Stellungnahme Lüdecke 4April2018 unter dem Abschnitt „Extremwetter“, dort sind die Links direkt anklickbar). Es wäre interessant von Schellhuber zu erfahren, wo denn nun die Extremwetter in Klimazeiträumen bleiben, wenn sie selbst von seiner „vorgesetzten Behörde“ (IPCC) nicht aufzufinden sind.

In seiner Antwort führt Schellhuber weiter aus „Wir brauchen statt ehrgeizigerer Ziele endlich ehrgeizigere Maßnahmen zur Klimastabilisierung“. Unser Kommentar zu dieser Antwort ist selbstverständlich etwas höflicher als der von Prof. Hans v. Storch, der das 2 Grad Ziel volksnah als „Verarschung“ bezeichnete (hier). Wir ziehen es dagegen vor, unsere Hochachtung vor einem deutschen Klima-Gelehrten auszudrücken, der offensichtlich Maßnahmen zur Klimastabilisierung in der Tasche hat. Donnerlüttchen, das ist ja mehr als ein Nobelpreis für Physik, ein echter Zampano, dieser Schellnhuber! Es fertig zu bringen, ein sich naturgesetzlich stets änderndes Phänomen wie das Klima zu stabilisieren, Glückwunsch.

Nun aber zu Frau Boetius: „Wir Polarforscher sind auf der anderen Seite auch lauter geworden. Denn 1,5 Grad mehr globale Erwärmung bedeutet in der Arktis 4 Grad mehr. Da kam politisch also noch Extradruck dazu, denn 1,5 Grad global bedeutet dort eben, dass den Menschen im Norden der Boden unter den Füßen weggezogen wird. Das gleiche gilt für die Habitate. Es heißt: Walross weg, Eisbär weg. Das ist keine Anekdote“. Sehr gut, Frau Boetius, möchten wir da gerne bestätigen, Polarforscher sind natürlich auch noch da, wäre ja noch schöner! Schließlich gibt es neben diesem PIK ja auch noch das AWI. So etwas muss doch endlich einmal unter die Leute gebracht werden. Und um sich nicht mit Petitessen abzugeben und gleich was Medienwirksames zu präsentieren, macht also Frau Boetius mir nichts, dir nichts aus den global gemittelten 1,5 Grad salopp 4 Grad in der Arktis.

Wie kommt sie denn darauf? Selbst in den wärmsten Zeiten nach Ende des letzten Glazials war es in Grönland im Höchstfall etwa 2,5 Grad wärmer als heute, s. Fig. 6 in Lecavalier et al, Quaternary Science Revies, 63 (2013). Außerdem ist die gegenwärtig höhere Erwärmung der Arktis nur ein zyklisches Phänomen (Klimaschaukel oder sea saw) mit einer Periode von etwa 60 Jahren (s. Fig. 2a in Chylek et al, Geophys. Research Letter, 37, (2010). Als wenn dies noch nicht genug wäre, setzt Frau Boetius noch eins drauf mit „Walross weg, Eisbär weg“. Das halten selbst die einfältigsten FAZ-Leser nicht mehr aus. Diese beiden Tierarten haben sogar die extremen Temperaturmaxima der letzten 1/2 Millionen Jahre putzmunter überstanden –  und nun plötzlich weg wegen 1,5 Grad natürlicher Erwärmung? Dagegen zeichneten sich die fachlich korrekten Aussagen des ehemaligen AWI-Direktors Prof. Heinz Miller durch unaufgeregte, angenehme Sachkundigkeit aus (hier). Ob abstruse Katastrophenszenarien die Politik bewegen, mehr Forschungsgelder dem AWI zukommen zu lassen?  Unter diesem Aspekt sind die Aussagen von Frau Boetius vielleicht noch zu verstehen. Das AWI macht sehr ordentliche Forschung. Der Autor dieser News, sein EIKE-Kollege Prof. Dr. Carl-Otto Weiss und zwei chinesische Mitautoren hatten sogar die Ehre, der begutachteten Fachzeitschrift „Polarforschung“ vom Jahre 2016, Herausgeber AWI, einen  Artikel (polfor_2016_015) beizusteuern. Man kann nur hoffen, dass der gute Ruf des AWI nicht durch fragwürdige Interview-Aussagen seiner Leitung in den Hintergrund gerät.

Zu Herrn Haug: Mit ihm wird es nicht besser als bei den drei anderen mit seinen “ Wir messen bereits jetzt eine globale Erwärmung von einem Grad über dem vorindustriellen Wert“. Ist ja nicht falsch, lieber Herr Haug, nein, nein, aber zu dieser Aussage gehört unbedingt dazu, auch etwas Sachliches über die vorindustriellen Werte hinzuzufügen, wie etwa: Das mittelalterliche und römische Klimaoptimum war jeweils etwa so warm wie heute, die beiden Holozän-Maxima dagegen noch weit wärmer (s. Bild). Was soll eigentlich an den 1,5 Grad Katastrophales sein, oder haben wir da etwas falsch verstanden?

Bild 1: NH historische Temperaturen, Bildautor Dr. Kehl, TU Berlin

Und schlussendlich zu Herrn Stocker: Er umschifft elegant das CO2-Thema, indem er korrekt ausführt, dass China nun seine Kohlekraftwerke mit Filtern ausstattet. Tatsächlich und völlig sachgerecht bekämpfen die Chinesen Ruß, Staub und Aerosole, das CO2 können sie natürlich auch nicht wegfiltern, es ist ihnen aber auch egal. Dann erzählt Stocker noch etwas über CO2-Versenkung im Boden mit viel Energieaufwand – als carbon capture and storage wird das bezeichnet. Außer den von diesem technischen Abersinn profitierenden Unternehmen nimmt niemand diese Art von Energieumwandlung in nutzlose Wärme (vulgo Energievernichtung) ernst, denn dafür gibt es unterhaltsamere Methoden (Ausnahme machen da nur die Isländer, die wissen nicht wohin mit ihrer Energie aus Vulkanismus und versenken tatsächlich CO2 im Boden. ARTE, das darüber berichtete, bezeichnete zu diesem Anlass CO2 als „Schadstoff“).

In diesem Zusammenhang sagt Schellnhuber erstaunlicherweise auch einmal etwas Vernünftiges „Ich glaube nicht, dass man Geoengineering, über das wir sprechen, irgendwann zu vernünftigen Kosten hochskalieren kann“. Er hätte es auch von der ethischen Seite betrachten können, denn Geoengineering wäre nur mit einer Weltdiktatur möglich. Dafür ist er schließlich Spezialist, wie es seine Propagierung einer großen Transformation zeigt – undemokratisch, Ökoweltdiktatur mit kommunistischen Merkmalen -, nachlesbar in „Welt im Wandel Gesellschaftsvertrag für eine große Transformation“ (hier). Stocker  gibt inzwischen weiter ungerührt Fragwürdiges von sich über zunehmende Hitzewellen in den Ozeanen. Wo soll denn die Wärme herkommen, lieber Herr Stocker, könnten Sie uns dies bitte erklären? Aber halt, Pardon, er fügt ja gleich hinzu „was dann passiert, wissen wir noch gar nicht“. Ach so ist das also: die Jungs wissen gar nicht was passiert, wollen aber trotzdem ganze Volkswirtschaften durch CO2-Vermeidung umbringen. Na dann Prost auf den Deutschen Industriestandort!

Frau Boetius kann es in diesem Zusammenhang nicht lassen, gegen eine uralte Regel zu verstoßen, die uns schon unser Lateinlehrer eingetrichtert hatte „Si tacuisses, philosophus mansisses“ (wenn Du geschwiegen hättest, wärest Du ein Philosoph geblieben). Interessanterweise geht dieser Spruch auf den spätrömischen Gelehrten Boethius zurück, „Nomen est Omen“. Frau Boetius fürchtet also Meeresversauerung durch zunehmendes CO2, obwohl der ph-Wert von Meerwasser zwischen deutlich alkalischen 8,2 und 8,8 liegt. Na Schwamm über diese abstruse Befürchtung, Korallen gibt’s schon seit vielen Hunderten von Millionen Jahren bei CO2-Konzentrationen in der Luft bis zum 20-fachen von heute, s. R. A. Berner, Nature 426 (Nov. 2003) (hier). Auch und gerade bei höchsten CO2-Konzentrationen der Erdvergangenheit boomte das Leben in den Weltmeeren. Von „Versauerungsschäden“ ist nichts bekannt (hier, hierhier, hier).

Es ist vielleicht an der Zeit, jetzt aufzuhören, denn der von den vier Interviewten hervorgezauberten Katastrophenszenarien nahmen einfach kein Ende. Wer es mag, kann sich ja den vollen Artikel im Netz antun hier. Von Veränderungen der Meeresbiologie bis in die tiefste Tiefsee lauern uns also Katastrophen und Kippelemente auf. Diese Katastrophen gibt es tatsächlich, bloß nicht die von den vier Klima-Alarmisten im Interview genannten, die sind glücklicherweise Fiktionen. Die bedauernswerte Bevölkerung von Indonesien hat erst jüngst viele Opfer eines Tsunami beklagt. Das sind reale Katastrophen und keine Kindermärchen wie die im FAZ-Interview vorgestellten Vermutungen, die eine mehr oder weniger ferne Zukunft betreffen.

Das Interview ist einfach zu albern. Als ob es in der Erdvergangenheit nicht schon unzählige Male wesentlich wärmer und die Atmosphäre CO2-haltiger war als heute und als ob nicht auch Klima-Änderungsgeschwindigkeiten die heutigen Werte meilenweit übertrafen – man denke nur an die abrupten Dansgaard-Oeschger-Ereignisse mit Temperatursprüngen von bis zu 10 °C in einem Menschenleben (hier). Heute sollen wir uns dagegen bei vergleichbaren Zeiträumen vor wenigen Zehntel Graden wie vor dem Leibhaftigen fürchten. Die Biosphäre dürfte gemäß den düsteren Warnungen unserer vier Interviewten vor den so brandgefährlichen Kippunkten (die es ja logischerweise auch in der Vergangenheit geben musste) überhaupt nicht mehr existieren und wir Menschen schon gar nicht. Auch auf die etwas peinlich anmutenden „zertifizierten“ Klimaprojekte, die von Frau Boetius angesprochen wurden, decken wir besser den Mantel gnädigen Schweigens.

Nicht schweigen kann man allerdings zu der Forderung, die jetzige Infrastruktur komplett auf „erneuerbare Energien“ umzustellen. Sind sich diese vier Interviewten, denen als Physikern eigentlich technische Sachkunde attestiert werden sollte, überhaupt darüber im Klaren, was „Erneuerbare“ an Katastrophen für jede moderne Industrienation bedeuten? Ein erste kleine Einführung zu diesem Thema (hier). Sogar dem Bundesrechnungshof wird es beim Thema Energiewende allmählich zu bunt (hier).

Wo bleibt die Kernenergie?

Warum kommt eigentlich niemand von den Interviewten, inklusive der beiden Journalisten, bei der allgemeinen Forderung nach Ende der fossilen Verbrennung auf die nächstliegende Idee, diese durch die Generation IV modernster Kernkraftwerke (schnelle Brüter) zu ersetzen? Die laufen bereits als sog. BN-Typen seit Jahren in Russland (hier). Diese Option bietet doch alles an Nachhaltigkeit, was man überhaupt nur fordern kann, keine CO2-Emissionen, keine Naturschädigung durch „erneuerbare Energien“ mehr wegen der unvergleichbar hohen Leistungsdichte von Kernenergie, fast vollständige Ausnutzung des Brennstoffs Uran, also kein nennenswerter nuklearen Abfall mehr und schlussendlich Bresstoffreichweiten infolge Uranversorgung aus dem Meer für Millionen Jahre – Thorium als Kernbrennstoff aus der Erde braucht man da nicht einmal mehr zu erwähnen. Und inhärent sicher kann man die Dinger auch noch bauen, man denke nur an das private Deutsche Projekt des Dual Fluid Reaktor (DFR). An dieser Stelle vielleicht schon einmal ein wenig Eigenwerbung: Voraussichtlich noch vor Jahresende wird das Buch „Kernenergie: Der Weg in die Zukunft“ erscheinen (Autoren: Götz Ruprecht und Horst-Joachim Lüdecke). Wir werden die EIKE-Leser zum Zeitpunkt noch einmal darauf hinweisen.

Aber Kernkraft ist ja in Deutschland des Teufels – wobei wir mit der kompletten Aufgabe dieser unübertroffenen Zukunftstechnologie wieder einmal ziemlich allein und ziemlich bekloppt auf dieser Welt dastehen. Schellnhubers Forderung, die Umstellung der gesamten Bauinfrastruktur auf Holzbauweise wollen wir dann besser nicht mehr kommentieren, die Faschingszeit naht, die ist für so etwas eher zuständig….

Zusammenfassung

Was uns die vier Wissenschaftler im FAZ-Interview geboten haben, war unterirdisch. Von irgendeiner Berücksichtigung des heutigen wissenschaftlichen Stands, dokumentiert in unzähligen begutachteten Fachveröffentlichungen, war nichts zu vernehmen. Statt dessen ein serviles Hinterherlaufen der grünen Ideologie und Politik. Die vier Interviewten sind Wissenschafts-Advokaten, welche das in der Fachliteratur dokumentierte Wissen durch unbelegte Vermutungen, nicht funktionierende Klimamodelle und grüne Ideologie ersetzen wollen.

Glücklicherweise ist der Abnutzungseffekt gegenüber dieser Grünpropaganda in der Bevölkerung bereits mit den Händen zu greifen – kaum ein vernünftiger Mensch glaubt den Klima-Alarmisten noch. Insbesondere Schellnhuber hat mit abstrusen Übertreibungen wie in seinem Buch „Selbstverbrennung“ ausreichend dazu beigetragen. Vertreten und sekundiert werden die Wissenschafts-Advokaten von der überwiegend grün-links polarisierten Journalistenschaft. Was die beiden FAZ-Journalisten in ihrem Interview versuchten, hat mit neutralem Journalismus nichts mehr zu tun. Dieser bestünde darin, jeden Gesichtspunkt zu Wort kommen zu lassen.  Im konkreten Fall hätten zwei Fachleute des Interviews durch Klimaexperten der Gegenseite ersetzt werden müssen, welche den steilen Katastrophenthesen der verbliebenden zwei Alarmisten widersprechen und dies auch fachlich belegen. Das hat die FAZ aus guten Gründen nicht gewagt. Erst mit strikter Neutralität und Fairness wird aber Journalismus wieder gut und spannend. Dies wäre vielleicht sogar geeignet, den stetig sinkenden Auflagen der FAZ wieder auf die Sprünge zu helfen.

Immerhin hat zumindest Schellnhuber seine ideologisch/politischen Ziele nie verschwiegen, sondern sich stets offen dazu bekannt. Das ist ok und sein gutes Recht. Er propagiert eine große Transformation in Form einer Art neuer kommunistischer Weltdiktatur (hier). Propheten, Verrückte und Aktivisten, die derartiges anstreben, sterben nicht aus, obwohl solche Vorhaben in der Realität stets viele Millionen Tote gekostet haben. Dennoch baut man hierzulande für die geistigen Väter dieser „Irrtümer“ Denkmäler wie z.B. in Trier für Karl Marx. Ein maßgebender Teil der deutschen Wahlbevölkerung wählt Grün, oder gar die Linke. Insbesondere diese zeichnet sich durch ehemalige Vertreter der DDR-Diktatur aus, wie Gregor Gysi als ehemaligem SED-Chef (hier) oder der so charmant-klug daherkommenden Sarah Wagenknecht (hier), die sage und schreibe sogar noch 1989 der SED beitrat! Frau Wagenknecht hat vor nicht langer Zeit das Wirtschaftsmodell Venezuelas von Chavez gepriesen, dessen katastrophale Folgen wir inzwischen mitverfolgen durften. Überflüssig zu erwähnen, dass „Klimaschutz“ politisch um so heftiger propagiert und gefordert wird, je weiter links die fordernde Ecke steht. Kein Wunder, denn Kommunismus ist bekanntlich Knechtschaft mit dem Mittel unerreichbarer Ziele.

Deutschland steht zur Zeit vor gewaltigen und ausnahmslos selbstverschuldeten Problemen. Andere Länder lösen dagegen einfach ihre Probleme. So etwa China, das sich mit geschickt wirkungsvoller Entwicklungspolitik in Afrika mit seinen bald 2 Milliarden Menschen dauerhaft festsetzt – zur Sicherung seiner Rohstoffbasis. China baut neue saubere Kohlekraftwerke im Wochentakt und verfährt ähnlich konsequent mit Kernkraftwerken. Wir dagegen lassen unsere Infrastruktur nicht nur verkommen, sondern zerstören sie auch noch konsequent mit der Energiewende – und unsere Wälder durch Windräder gleich mit dazu. Projekte, über welche Chinesen nur müde lächeln können (Berliner Flughafen), bekommen wir nicht auf die Reihe. Die Deutsche Bahn, ehemals Muster an Qualität, Pünktlich- und Zuverlässigkeit fährt in Richtung dritte Welt. Es werden Nachrüstungen für Dieselfahrzeuge diskutiert, als ob in unseren Städten die Bevölkerung mit stetig ansteigender Lebenserwartung durch NOx-Autoabgase dahinhingerafft wird, deren Konzentration am Arbeitsplatz gesetzlich um vieles höher sein darf als auf der freien Straße. Und wir kümmern uns um die Rettung des Weltklimas vor dem unverzichtbaren Pflanzendünger CO2. Selbst wenn man hilfsweise eine Klimawirksamkeit des anthropogenen CO2 unterstellt, die tatsächlich nicht einmal wissenschaftlich gesichert ist, wären selbst die höchsten Anstrengungen Deutschlands an CO2-Vermeidung wirkungslos, wie es unter „Was bewirken die gesetzlichen CO2 Einsparungen Nordrhein-Westfalens“? durch eine simple rechnerische Abschätzung belegt wird (hier).

Bereits kaum noch erkennbare Miniprobleme oder gleich totaler Nonsense, wie die Bedrohung des Juchtenkäfers am Stuttgarter Bahnhof, das angeblich klimaschädliche anthropogene CO2 oder Toiletten für die inzwischen bis zur Zahl 40 angewachsenen menschlichen Geschlechter töten nicht nur Zeit und Nerven sondern sie zerstören. Die Mahnung der Vernünftigen, endlich die Problem-Elefanten in unserem Vorgarten anzupacken, wie ungesteuerte Migration, die dadurch verursachte Belastung unserer Sozialsysteme, fehlender Verschuldungsabbau, kommender Zusammenbruch unserer Strominfrastruktur durch die Energiewende, Zerstörung des Verbrennungsmotors und damit Wegbrechen unserer Wirtschaftsgrundlage, von Italien niemals an uns mehr zurückzahlbare Target-Schulden in Billionengröße, die EU-Garotte der Ökodesignrichtlinien (hier) usw. usw., wird dagegen als rechte Gesinnungsnörgelei abgetan und in den Wind geschlagen. Deutschland ist inzwischen übervoll von fachunkundigen, aber dafür ideologiefesten Nichtstuern, die in unzähligen Institutionen und Behörden für grünen Unfug sorgen, ihn überwachen und steuern. Zur Erhöhung der Produktivität tragen diese Leute nichts bei, sie schädigen nur immer wirksamer unsere Volkswirtschaft

Der größte Unfug wird heute bitterernst und konsequent zur Normalität erhoben, Widerspruch dagegen führt zu gesellschaftlicher Ächtung. Wirkliche Probleme dürfen nicht angesprochen werden.  Deutschland ist verrückt geworden, und das FAZ-Interview hat dazu wieder einmal beigetragen.

 

 

 




Naturgesetzliche Schranken der Energiewende

Vorbemerkung

Jede rationale Berichterstattung über die Energiewende – befürwortend oder ablehnend – kommt an technischen Details nicht vorbei. Nur Grünsprech setzt auf puren Glauben und punktet damit bei schlichten Gemütern. Technische Details Laien zu vermitteln ist aber mühsam und oft erfolglos. Mein diese Problematik umgehender neuer Ansatz besteht darin, ausschließlich die grundsätzlichen, naturgesetzlich bedingten Schwächen der Energiewende zu beleuchten, welche diese Aktion früher oder später unabdingbar scheitern lassen. Ziele sind bessere Verständlichkeit für Laien und die erkennbare Unwiderlegbarkeit der Argumentation.

Der vorliegende Beitrag wurde durch die positive Resonanz meines Vortrags „Klimaschutz und Energiewende: vereinbar mit Naturgesetzen und Wirtschaftlichkeit?“ an der sächsischen Akademie für Wissenschaften (SAW) in Leipzig am 13.10.2017 vor einem hochrangigen naturwissenschaftlichen Fachpublikum angeregt. Die schriftliche Ausarbeitung des Vortrags erschien dann in der „Naturwissenschaftlichen Rundschau“, dem Organ der Gesellschaft Deutscher Naturforscher und Ärzte, im Juni-Heft 2018, 71. Jahrgang. Hier in den EIKE-News nun die eigene Form mit sachlich unverändertem Inhalt.

1. Die deutsche Energiewende

Die Bundesregierung plante ursprünglich, bis zum Jahr 2050 gegenüber 2008 den Stromverbrauch um 25% zu senken, den Anteil an erneuerbaren Energien am Bruttostromverbrauch auf 80% zu erhöhen, die Treibhausgasemissionen um 80 bis 95% zu verringern und die Zahl der Elektroautos auf 6 Millionen zu steigern. Aktuell sind diese Zielstellungen verändert und unverbindlicher im Koalitionsvertrag festgehalten [1].

Das Vorhaben, als „Energiewende“ bezeichnet, soll mit Strom aus Wind, Sonne und Biomasse realisiert werden, im Folgenden kurz „Erneuerbare“ genannt (die Bezeichnung ist sachlich falsch, hat sich aber durchgesetzt). Die Energiewende betrifft praktisch nur elektrischen Strom. Elektrische Energie macht aktuell (2017) etwa 1/6 der deutschen Primärenergie aus [2]. Sie ist die wichtigste, weil unverzichtbare Energieform für jede moderne Industriegesellschaft. Strom ist nur ein Medium, um Energie zu transportieren. Er wird aus einer anderen Energieform erzeugt und beim Verbraucher in die jeweils benötigte Energieform umgewandelt. Elektrische Energie kann man in größerem Umfang nur über verlustreiche und kostspielige Umwege speichern, etwa mit Pumpspeicherwerken oder Batterien. Das Stromnetz selber ist kein Speichermedium. Ohne Speicherung muss Strom zum Zeitpunkt seiner Erzeugung sofort verbraucht werden.

Die Energiewende hat mit erheblichen Problemen zu kämpfen. Trotz im Jahre 2017 über 28.000 installierter Windturbinen, deren Nennleistung bereits alle ehemaligen deutschen Kernkraftwerke übertrifft [3], macht verbrauchter Windstrom dennoch nur etwa 3% der deutschen Primärenergie aus, Sonnenstrom und Strom aus Biomasse jeweils etwa 1% [2}. Mehr als 1000 Bürgerinitiativen wenden sich gegen die Beeinträchtigung ihrer Naturumgebung durch Windturbinen sowie gegen gesundheitsschädlichen Windrad-Infraschall. Weiterer Windrad-Ausbau lässt daher zunehmenden gesellschaftlichen Widerstand erwarten.

Deutschland hat heute die höchsten Strompreise Europas [4]. Behörden ergreifen inzwischen Maßnahmen gegen großräumige Stromausfälle, weil die Wahrscheinlichkeit gefährlicher Blackout-Ereignisse [5] infolge des zunehmenden Fluktuationsstroms aus Wind und Sonne ansteigt. Dem Fluktuationsproblem von Wind- und Sonnenstrom wird mit aufwendigem Zu- und Abschalten von schnell reagierenden Gaskraftwerken begegnet (GuD Backupkraftwerke). Das für die Netzstabilität notwendige Vorhalten von fossilen Backupkraftwerken, deren Leistung der Gesamtleistung der fluktuierenden Erneuerbaren entspricht, ist zu einem maßgebenden Kostenfaktor der Energiewende geworden.

Sind die Gründe für die Energiewendeprobleme falsches Management, unzureichende Planung oder technische Unzulänglichkeiten? Zu diesen Fragen gibt es bereits reichhaltige Literatur. Der renommierte Ökonom Prof. Hans-Werner Sinn hat erst jüngst wieder eine kritische Studie zur Energiewende vorgelegt [6]. Grundsätzlich unterliegen die „Erneuerbaren“ und damit die Energiewende zwei naturgesetzlich bedingten Fundamentalmängeln. Der wichtigste wird dabei oft unterschätzt, den Medien ist er so gut wie unbekannt. Mit ihm wird sich der vorliegende Beitrag vorwiegend befassen. Ein naturgesetzlich bedingter Mangel ist durch keine technische Maßnahme zu beseitigen. Der Versuch, dies dennoch zu erzwingen, führt zu extremen Kosten und oft auch hohen Umweltbelastungen.

Energie ist der maßgebende Kostenfaktor industrieller Produktion, und alle Industrienationen befinden sich im globalen Wettbewerb. Nicht einmal ein momentan auf ersten Plätzen dieses Wettbewerbs stehendes Land hat die Garantie, nach nachhaltigen Fehlentscheidungen in seiner Energiepolitik auch dort zu verbleiben. Im Folgenden wird dargelegt, warum die beiden Fundamentalmängel der „Erneuerbaren“ eine unvermeidbare Konsequenz elementarer Naturgesetzlichkeiten sind. Die beiden Fundamentalmängel und ihre naturgesetzlichen Gründe sind zwar den Fachleuten geläufig, nicht aber in erkennbarer Weise den politischen Verantwortlichen.

2. Energiebedarf im Verlauf der Menschheitsgeschichte

Der tägliche Energiebedarf eines Erwachsenen hat sich im Laufe der Menschheitsgeschichte laufend erhöht. Er betrug um die 8 kWh bei Jägern und Sammlern der Steinzeit, etwa 30 kWh im Mittelalter und ist auf über 200 kWh in modernen Industriegesellschaften angestiegen [7]. Jäger und Sammler deckten ihn noch mit Feuerholz, im Mittelalter kamen Landwirtschaft, Zugtiere sowie Wasserräder und Windmühlen hinzu.

Heute (2015) wird der Energiebedarf der Menschheit zu insgesamt 81,4% von Kohle, Erdöl und Gas gedeckt (s. Bild 1).

Bild 1: Weltenergieverbrauch in Methoden-Anteilen im Jahre 2015, erstellt nach den Daten der IEA [11]. Holz- und Holzkohle (hier unter Biobrennstoffe) stellen mit dem 3,75-fachen der Windenergie zumindest in der EU den größten Anteil an den „Erneuerbaren“ [8]. Da insbesondere die erhältlichen globalen Werte in der Regel nur Schätzungen sind, können unterschiedliche Quellen voneinander abweichende Werte in den Methoden-Anteilen angeben.

Der Rest kommt aus Uran 4,9%, Wasserkraft 2,5%, Biobrennstoffen 9,7% und den „Erneuerbaren“ Wind, Sonne, Geothermie, Gezeitenergie etc. 1,5%. An dieser Zusammensetzung wird sich auch in den nächsten Jahren kaum Wesentliches ändern [8]. Wind- und Sonnen-Energie spielen weltweit nur eine verschwindende Rolle. In Deutschland würden sie bei freien Marktverhältnissen (keine Subventionen, keine gesetzliche Zwangseinspeisung von Sonnen- und Windstrom etc.) wegen ihrer zu hohen Kosten, verglichen mit Kohle oder Uran, nicht vorkommen (s. auch Bild 2 im Abschnitt 5.).

Allein die Umlagen zur Förderung der „Erneuerbaren“ gemäß dem Erneuerbare-Energien-Gesetz (EEG) belasten die deutsche Volkswirtschaft und Verbraucher heute mit 30 Milliarden Euro pro Jahr [9]. Bei der Nutzung der „Erneuerbaren“ Wind, Sonne und Biomasse kommt zumindest in Windturbinen und Photovoltaik modernste Technik zum Einsatz. Diese Modernität verstellt freilich den Blick auf die naturgesetzlichen Schwächen dieser Stromerzeugungsmethoden. Die Energieversorgung im Mittelalter liefert für diese Schwächen ein Anschauungsbeispiel.

Die ab etwa 700 n.Chr. einsetzende Klimaerwärmung mit ihrem Höhepunkt um das Jahr 1000 ließ Ernteerträge und Bevölkerungszahlen ansteigen. Es wurden riesige Waldflächen für den benötigten Ackerboden gerodet, bis 1400 verschwanden dadurch zwei Drittel des deutschen Waldes. Die erfor-derliche Ackerfläche zur Ernährung einer Person war um ein Vielfaches größer als heute. 90% der gesamten Bevölkerung waren Bauern oder anderweitig in der Landwirtschaft beschäftigte Menschen [10]. Der Aufwand an menschlicher Arbeit, Zugtieren und Ackerflächen für die Landwirtschaft war kaum noch zu steigern. Daher war es im Spätmittelalter bei einsetzender Klima-Abkühlung und schlechteren Ernten nicht mehr möglich, die stark angewachsene Bevölkerung noch ausreichend zu ernähren. Es begann die Zeit der Hungersnöte, verstärkt durch Seuchen und Pest. Zwischen dem Jahre 1000 und Ende des 19. Jahrhunderts wurden in Westeuropa 400 Hungersnöte registriert.

Erst der dank neuzeitlicher Chemie mögliche Einsatz von Düngern und Schädlingsbekämpfungsmitteln und die Mechanisierung der Agrarwirtschaft durch Verbrennungsmaschinen konnte die Nahrungsversorgung der Bevölkerung auf eine sichere Basis stellen. Heute ernährt ein Landwirt in Deutschland etwa 130 Mitbürger. Der Anteil der Landwirtschaft am Energieverbrauch der deutschen Gesamtwirtschaft beträgt heute nur noch 1,3% [12].

Um die mittelalterliche Energieerzeugung mit Hilfe riesiger Ackerflächen und einem extrem hohen menschlichen Arbeitsaufwand zu verstehen, sind die physikalischen Größen Energiedichte und Leistungsdichte geeignet. Die zentrale Bedeutung dieser beiden Größen auch für die heutigen Verhältnisse wird im folgenden Abschnitt an Hand von Beispielen verdeutlicht.

3. Das Problem der Leistungsdichte

Der russische Eisbrecher Arktika wird von zwei kleinen Kernreaktoren an Bord mit einer Gesamtleistung von 55 MW angetrieben [13]. Wollte man die Arktika mit Photovoltaik anstatt mit Uran betreiben, wären rechnerisch 5,5 Quadratkilometer Photovoltaik-Fläche erforderlich, die etwa 10 W Leistung pro m2 Solarpanelenfläche liefert. Mit Windstrom an Stelle von Uran wären 42 Windturbinen des Typs Enercon E 126 erforderlich, jede 198 m hoch und mit einer realen Leistung von 1,3 MW (den fiktiven Antrieben der Arktika liegen die deutschen Jahresmittelwerte von Wind- und Sonnenstrom zugrunde). Eine wind- oder sonnenbetriebene Arktika wäre zudem bei Flaute oder Wolkenbedeckung nicht fahrtüchtig, aber dies soll hier keine Rolle spielen. Die Frage nach den Gründen für den extrem hohen Aufwand der beiden „Erneuerbaren“ Wind und Sonne für den Antrieb der Arktika beantwortet die Leistungsdichte

Leistungsdichte = Leistung / Fläche            (1)

oder

Leistung = Leistungsdichte x Fläche            (2)

Auf der linken Seite von Gleichung (2) steht für alle drei Antriebsarten der Arktika der gleiche Wert von 55 MW. Die Faktoren der rechten Seite der Gleichung zeigen dagegen entscheidende Unterschiede zwischen Uran, Wind und Sonne. Kernreaktoren haben eine sehr hohe Leistungsdichte, sie bringen höchste Leistung auf minimaler Fläche. Man baut sie sogar seit Jahrzehnten in U-Boote ein. Sonne und Wind haben dagegen, naturgesetzlich bedingt, nur minimale Leistungsdichten. Entsprechend muss die Photovoltaik-Fläche beim Solarantrieb oder die von den Windradpropellern überstrichene Fläche beim Windradantrieb extrem groß sein, damit das Produkt in Gleichung (2) noch die hier benötigten 55 MW ergibt. Die folgende Tabelle 1 zeigt Grobwerte von Leistungsdichten.

Tabelle 1: Leistungsdichten unterschiedlicher Methoden zur Erzeugung von elektrischem Strom, angegeben in W/m2 des Endprodukts „elektrische Energie“ unter Einbeziehung der jeweiligen Methoden-Wirkungsgrade.

Die in Tab. 1 zu erkennenden Unterschiede der Leistungsdichten von Wind, strömendem Wasser und Kohle sind unschwer zu veranschaulichen: So kann man sich noch gegen einen Sturm von 20 m/s (72 km/h) Windgeschwindigkeit stemmen, dagegen in einen reißenden Wildfluss von weit weniger als 20 m/s Fließgeschwindigkeit zu geraten, endet oft tödlich. Auch der Unterschied zwischen der in unsere Haut eindringenden Leistung beim Sonnenbad und der in ein Steak eindringenden Leistung auf einem glühenden Holzkohlengrill ist anschaulich. Letztere ist tausendfach höher als die auf der Schwimmbadwiese.

Der Schwachpunkt der mittelalterlichen Energieversorgung wird nun deutlich. Es handelt sich um Methoden kleinster Leistungsdichten, die mit riesigen, ertragsschwachen Ackerflächen und hohem Aufwand an menschlicher Arbeitskraft und Zugtieren einen bei günstigem Klima gerade noch ausreichenden Ertrag lieferten. Eine Windturbine, obwohl ausgestattet mit modernster Technik, ist wegen der minimalen Leistungsdichte des Windes dennoch nichts anderes als ein Rückschritt zu den mittelalterlichen Methoden der Windmühle und des Segelschiffs. Um strömender Luft ausreichend Energie zu entnehmen, benötigen Windräder riesige Propeller. Zu geringe Leistungsdichte des Windes ist der Grund für die Mammut-Ausmaße dieser Anlagen, wenn man davon absieht, dass Windgeschwindigkeiten mit zunehmender Höhe etwas ansteigen. Nicht umsonst haben unsere Vorfahren Segelschiffe zugunsten des Dampf- und späteren Dieselantriebs freudig aufgegeben.

Das hier betonte „naturgesetzlich“ bedeutet, dass wir auf die Leistungsdichten von Wind und Sonneneinstrahlung keinen Einfluss haben. Lediglich die Ernteerträge von Energiemais lassen sich mit moderner Gentechnik und Düngung geringfügig erhöhen. Die Natur selber setzt die Grenzen, auch beste Technik ist gegen zu geringe Leistungsdichten machtlos. Aus einer Pferdekutsche wird auch mit heutiger Computersteuerung und modernster Mechanik kein leistungsstarkes Motorfahrzeug.

Erstaunlich erscheinen in Tabelle 1 die grob 10 W/m2 gemittelte Leistungsdichte aus Photovoltaik in Deutschland. Am oberen Rand der Erdatmosphäre kommen schließlich 1367 W/m2 an. Verantwortlich für den kleinen Wert am Boden ist vor allem der durch Wolken unterbrochene und bei Nacht völlig fehlende Strahlungsfluss. Hinzu kommt, dass die Wirkungsgrade kommerzieller Photovoltaik nur bei grob 10% liegen [14], die Oberflächen der meist fest installierten Solarpanelen nicht dauernd optimal auf die Sonne ausgerichtet sind und vor allem der Wirkungsgrad von Photovoltaikzellen mit steigender Temperatur abnimmt [15].

Neben der Leistungsdichte ist auch die Energiedichte als Energie pro Volumen oder pro Gewicht eine maßgebende Größe. Das Reichweiteproblem von Elektroautos wird mit ihr verständlich. Benzin hat nach Abzug der Wirkungsgradverluste eine Energiedichte von rund 4 kWh/kg, ein Lithium-Ionen-Akku (pur betrachtet) dagegen von 0,18 kWh/kg [16]. Ein Elektroauto muss daher grob das 4/0,18 = 22-fache Treibstoffgewicht eines Benziners mit sich führen. Da heute etwa 71% der Güter in Deutschland (oft über weite Strecken und mit engen Zeitvorgaben) auf der Straße transportiert werden [17], ist zumindest eine Umwandlung von LkW-Antrieben auf Strom unrealistisch. Hier sind nicht nur das zusätzlich zu transportierende Treibstoffgewicht in Form von Akkus sondern auch die langen Ladezeiten der Batterien die maßgeblichen Hinderungsgründe. Elektroautos sind nur für die Stadt eine sinnvolle Option.

4. Leistungsdichte und Wirkfläche

Bei zu kleiner Leistungsdichte sind sehr große Wirkflächen der betreffenden Methoden erforderlich. Dementsprechend steigt der Aufwand an Energie, Material und Kosten bei Bau und Betrieb. Die folgenden Daten der Großwindanlage Enercon E 126 liefern ein stellvertretendes Beispiel: 198 m Gesamthöhe, überstrichene Propellerfläche 12470 m2 = 1,247 ha, Gewicht 3460 t plus 3500 t Stahlbetonfundament [18]. Drei E 126 haben somit das Gesamtgewicht aller 300 Leopard2 – Panzer von je 68 t der deutschen Bundeswehr [19]. Trotz 7,5 MW Nennleistung liefert die E 126 im bundesdeutschen Orts- und Jahres-Mittel nur 1,3 MW elektrische Leistung. Dies entspricht grob 7 Automotoren von je 200 kW.

Neben der geringen Leistungsdichte des Windes gibt es weitere methodenspezifische Gründe für die erstaunlich geringe Leistungsausbeute aus Wind, die im Abschnitt 9. näher erläutert werden. Man müsste schon mehr als 100 km Windturbinen in den strömungstechnisch erforderlichen Mindestabständen hintereinanderstellen, um die gleiche jahresgemittelte Leistung wie ein einziges großes Kohle- oder Kernkraftwerk zu erzielen. Zudem fluktuiert die aus Wind gewonnene Leistung, die von fossilen Kraftwerken ist dagegen konstant. Windturbinen, inzwischen höher als der Kölner Dom, erweisen sich wegen ihrer zu geringen Leistungsdichte und der sich daraus ergebenden gigantischen Abmessungen als schädlich für die Umwelt. Landschaftsentstellungen, mögliche gesundheitliche Schädigung von Windrad-Anrainern durch Infraschall [20] und das jährlich hunderttausendfache Töten von Vögeln und Fledermäusen sind zu nennen. Fledermäuse können zwar durch ihre Ultraschallortung den hohen Tangentialgeschwindigkeiten der Rotorblätter entkommen, die Luft-Druckstöße zerreißen ihnen aber die Lungen.

Nicht thematisiert und daher der Öffentlichkeit völlig unbekannt sind die bei intensivem Einsatz von Windturbinen erzeugten schädlichen Klimaveränderungen der tiefen Atmosphäre [21]. Die oft auf Hausdächern installierte Photovoltaik ist dagegen umweltneutral, sieht man von Umweltproblemen durch giftige Metalle (Cadmium) bei der Entsorgung von Solarzellen ab [22]. Beim Energiemais gibt es das Problem der zerstörten Artenvielfalt auf Energiemaisfeldern [23]. Zusammengefasst gilt die Regel:

Je kleiner die Leistungsdichte einer Methode zur Stromerzeugung ist, umso größer müssen die Wirkflächen der Methode sein und umso aufwendiger und kostspieliger ist die Methode.

Die Stromerzeugung mit Hilfe von Windturbinen und Energiepflanzen ist wegen deren extrem großen Wirkflächen zudem mit hohen Umweltschäden verbunden.

Physikalische Überlegungen zeigen, dass technischer Fortschritt bei gleichzeitigem Umweltschutz nur mit immer größeren Leistungsdichten in Stromerzeugung, Produktion, Verkehr etc. zu erreichen ist, was sich an den technikgeschichtlichen Entwicklungen belegen lässt. Die benötigte Energie für eine anwachsende Bevölkerung bei gleichzeitig zunehmendem Lebensstandard kann wirtschaftlich und umweltschonend nur mit den jeweils verfügbaren Methoden höchster Leistungsdichte bereitgestellt werden. „Erneuerbare“ sind für moderne Industrienationen ungeeignet, können aber vorübergehend in Ländern der Dritten Welt durchaus sinnvoll sein. Die größten Umweltschäden sind heute in Entwicklungsländern zu finden, die den Weg zu höheren Leistungsdichten noch nicht beschreiten können. Das oft in den Medien betonte „sanft“, mit dem „Erneuerbare“ als vorteilhaft und umweltschonend dargestellt werden sollen, stellt die Fakten komplett auf den Kopf. Es verhält sich genau umgekehrt: Je „sanfter“ eine Methode zur Erzeugung von elektrischer Energie ist, umso kostspieliger und oft umweltschädlicher ist ihre Anwendung.

5. Erntefaktor – ein Maß für Energieeffizienz

Der Erntefaktor, englisch ERoEI (Energy Returned on Energy Invested), ist eine Größe, die es erlaubt, die Energieeffizienz unterschiedlicher Methoden zur Stromerzeugung zu quantifizieren. Vereinfacht ausgedrückt ist er das Verhältnis der gesamten, während der Lebenszeit einer Methode zur Stromerzeugung erzeugten elektrischen Energie zur derjenigen Energie, die für ihren Betrieb selber aufgewendet werden musste, inklusive des erforderlichen Energieaufwands, um die benötigen Brennstoffe zu fördern und bereitzustellen und die nötigen Anlagen zu errichten.

Bild 2: Erntefaktoren für Methoden der Stromerzeugung gepuffert, d.h. der Fluktuationsausgleich von Sonne und Wind ist berücksichtigt [24]. Sonne, Energiemais (Biomasse) und Wind liegen unter der ökonomischen Schwelle von OECD-Ländern.

Der ERoEI ist ein Energiemultiplikator. Man investiert eine Kilowattstunde und erhält ein Vielfaches zurück, natürlich nur bei ERoEI > 1, sonst wäre es ein Verlustgeschäft. Im Jahre 2012 wurde über den ERoEI eine grundlegende Studie publiziert, auf die sich die Aussagen des vorliegenden Beitrags stützen [24]. Neben der Bedingung ERoEI > 1 gibt es noch die Forderung ERoEI > 7, denn unterhalb von 7 ist eine Methode volkswirtschaftlich nicht mehr sinnvoll. Zur Begründung des Faktors 7 wird auf die Originalarbeit verwiesen. Das Bruttosozialprodukt sowie eine Energieverbrauchs-Technologie nach Kriterien der OECD gehen dort in die wissenschaftliche Herleitung ein.

Bei der Berechnung des ERoEI für Wind- und Sonnenstrom wird auch der Energieaufwand zur Pufferung des fluktuierenden Zufallsstroms berücksichtigt, weil fluktuierender Strom zur direkten Einspeisung in ein Stromnetz ungeeignet ist. Auf diesen zweiten Fundamentalmangel der „Erneuerbaren“ Wind und Sonne wird in Abschnitt 9. eingegangen. Bild 2 zeigt den ERoEI für die wichtigsten Methoden zur Erzeugung von elektrischem Strom.

6. Leistungsdichte bezogen auf Landschaftsfläche

Zur Angabe einer Leistungsdichte gehört die Spezifizierung der Fläche. An Stelle der in Tabelle 1 in Abschnitt 3 für Leistungsdichten angegebenen Wirkflächen sind Landschaftsflächen oft aussagekräftiger. Wählt man Landschaftsfläche, ändert sich bei der Photovoltaik nur wenig. Wenn sich Photovoltaik auf Hausdächern befindet, verbraucht sie sogar überhaupt keine Landschaftsfläche. Für Energiemais beträgt die Leistungsdichte, bezogen auf die Anbaufläche [25], grob 0,2 W/m2.

Dieser extrem kleine Wert lässt fragen, wie viel Anbaufläche rechnerisch benötigt würde, um ausschließlich mit Energiemais den gesamten Inlandsstrom Deutschlands (in 2016) zu erzeugen: Pro Quadratmeter beträgt die Jahresenergiedichte von Energiemais 0,2 W/m2 · 8760 h = 1752 Wh/m2. Der Inlandsstromverbrauch Deutschlands in 2016 betrug [4] 593 TWh = 593 · 1012 Wh. Daher wären (593 · 1012 Wh)/(1752 Wh/m2) = 3,1 · 1011 m2 oder 310.000 km2 Anbaufläche für Vollversorgung nötig. Das ist fast die Gesamtfläche Deutschlands.

Für Windturbinen im deutschen Jahres- und Ortsschnitt und ihre Installation in „Windparks“ („Park“ in diesem Zusammenhang ist ein bereits als unerträglich zu bezeichnender Euphemismus) beträgt die Leistungsdichte bezogen auf Landschaftsfläche etwa 1 W/m2. Sie ist daher sehr viel kleiner als bezogen auf die Propellerfläche (vergl. Tab. 1 unter Abschnitt 3), denn Windturbinen werden in der Regel nicht einzeln, sondern in Ansammlungen aufgestellt. Hier müssen Mindestabstände eingehalten werden, um Leistungsminderungen durch gegenseitige strömungstechnische Beeinflussung zu vermeiden. Der Wert von 1,1 W/m2 wurde in einer internationalen Fachpublikation für ein Gebiet der USA ermittelt, dessen Windverhältnisse mit Deutschland vergleichbar sind [26]. Eine Abschätzung mit den verfügbaren deutschen Windstromdaten bestätigt ihn: in 2016 waren in Deutschland 27.000 Windräder installiert, meist in „Windparks“ mit Mindestabständen. Eine moderne Windturbine nimmt in „Windparks“ grob 0,3 km2 Bodenfläche in Anspruch. Damit ergibt sich die erzeugte Jahresenergie zu 27.000 · 0,3 · 106 m2 · 1,1 W/m2 · 8760 h = 78 TWh. Das passt zu der erzeugten Inlandsstromenergie von etwa 80 TWh [2]. Für eine Stromvollversorgung Deutschlands nur mit Windrädern ergeben sich 0,2/1,1 der Fläche von Energiemais. Dies entspricht etwa der Fläche Bayerns.

In diesem Zusammenhang ist von Interesse, wie weit ein zukünftiger Windradausbau überhaupt noch gesetzlich zulässig ist. Die entscheidende Größe ist hier der minimale zulässige Abstand eines Windrads zur nächsten Wohnsiedlung. Windräder erzeugen Infraschall, dessen möglichen gesundheitsschädigenden Wirkungen durch wissenschaftliche Untersuchungen belegt sind und dringend weiter zu untersuchen sind. Die heute gründlichste Studie über gesundheitsschädliche Auswirkungen von Infraschall auf den Menschen wurde in Zusammenarbeit der Charité Berlin mit der Physikalisch Technischen Bundesanstalt Braunschweig (PPT) und zwei Hamburger Universitätskliniken erstellt [20]. Die Quellenangaben dieser Studie liefern überdies einen guten Überblick zum heutigen wissenschaftlichen Kenntnisstand.

Wegen Infraschall ist inzwischen in Bayern der Mindestabstand 10 H vorgeschrieben, das bedeutet die zehnfache Gesamthöhe des betreffenden Windrads. Aus der Grafik Abb. 12 auf S. 38 einer Studie des Bundesumweltamts [27] geht hervor, dass bei 2000 m Mindestabstand (dies entspricht 10 H bei 200 m hohen Windrädern) nur noch maximal 0,4% der bundesdeutschen Fläche für den weiteren Windradausbau nutzbar ist. Ausgeschlossene Sondergebiete sind dabei nicht berücksichtig, so dass sich der reale Wert noch etwas verringert. Der Ausbauplan der Bundesregierung für Windenergie [1] erscheint daher unrealistisch.

7. Das Problem der Fluktuation von Wind- und Sonnenstrom

Der zweite Fundamentalmangel von Wind- und Sonnenstrom, seine Wetterabhängigkeit, ist besser bekannt und wird bereits von den Medien thematisiert. Unvorhersehbar anfallender Strom kann ohne weitere Maßnahmen nicht in das Stromnetz eingespeist werden. Die gelegentlich geäußerte Annahme, dass ein europaweiter Windradverbund für Glättung sorgen würde, hat eine ausführliche Studie des VGB Powertech (kurz VGB, ein internationaler Interessenverband von Unternehmen der Elektrizitäts- und Wärmeversorgungsbranche) widerlegt [28]. Das gemessene Minimum dieser Studie an geliefertem Windstrom beträgt nur 4% der europaweit installierten Windrad-Nennleistung. Wörtlich heißt es in der VGB-Studie: „Windenergie trägt damit praktisch nicht zur Versorgungssicherheit bei und erfordert 100 % planbare Backup-Systeme nach heutigem Stand der Technik.“

Diese Backup-Systeme sind heute schnell reagierende Gaskraftwerke (GuD). Diskussionswürdige Stromspeicherlösungen sind nicht in Sicht. Man muss daher für Wind- und Sonnenstrom ein gleichstarkes fossiles Backup-System installieren, welches die Gesamtkosten dieser „Erneuerbaren“ zumindest verdoppelt. Bild 3 zeigt die stündliche Einspeisung von Wind- und Sonnenstrom über das Jahr 2015.

 

Bild 3: Stündliche Einspeisung des gesamten bundesdeutschen Wind- und Sonnenstroms [29] im Jahre 2015.

Das Einspeiseproblem von Zufallsstrom wird von den Medien inzwischen als eines der dringendsten Probleme der Energiewende wahrgenommen. Die Soll-Netzfrequenz von 50 Hertz ist in engen Grenzen stabil zu halten, bereits bei Abweichungen von 0,2 Hertz besteht die Gefahr eines großflächigen Netz-Blackouts [5]. So etwas war von den früheren Kohle-, Gas- und Kernkraftwerken mit ihrem stetigen Grundlaststrom unbekannt.

Wetterabhängiger Zufallsstrom ist bis heute ohne Ersatzkraftwerke nicht in der Lage, den Strombedarf jederzeit zu decken. Ersatzkraftwerke sind aber infolge Teilbetriebs und hoher Lastwechselfrequenz schnellem Verschleiß unterworfen und wirtschaftlich unrentabel. Auf Profit angewiesene Unternehmen haben daher kein Interesse, sie zu bauen. Pumpspeicherwerke als bislang einzige Alternative zu Backup-Kraftwerken, wie sie zum Beispiel in Norwegen eingesetzt werden, sind hierzulande aus topogeografischen Gründen nicht möglich, von Einzelanlagen abgesehen.

8. Photovoltaik in Ländern starker Insolation

Für Entwicklungsländer mit hoher Sonneneinstrahlung und fehlender Strom-Infrastruktur sind kleinste Photovoltaik-Anlagen eine interessante und offenbar auch vielgenutzte Option. Hier reichen für eine Familie bereits wenige Quadratmeter Solarzellen und wenige Autobatterien als Stromspeicher aus, um den Fernseher zu betreiben, nachts elektrisch zu beleuchten und das SmartPhone aufzuladen. Betrachtet man dagegen die Stromgewinnung aus großen Photovoltaik- oder Sonnenspiegel-Anlagen, ergibt sich ein anderes Bild. Trotz, verglichen mit Deutschland, etwa doppelt so starker Insolation in afrikanischen Ländern, in Australien oder in den Südstaaten der USA konnte sich dort die Nutzung von Solarstrom nicht durchsetzen. Solarstrom hat, wie Bild 2 zeigt, den kleinsten Erntefaktor aller Verfahren.

Insbesondere von deutscher Seite wurden zahlreiche Solarstromprojekte in Ländern mit hoher Insolation angestoßen. In solche Projekte flossen zum Teil erhebliche Mittel, zwei stellvertretende Beispiele wurden in den EIKE-News näher beschrieben [30]. Ein langfristiger Erfolg irgendeines Großprojekts zur Deckung des überregionalen Bedarfs ist bislang nicht bekannt. Es gibt kaum eine Weltgegend, die besser als die kanarischen Inseln mit Wind und Sonne gesegnet ist, dennoch haben sich selbst hier und trotz hoher finanzieller Anschub-Unterstützung Wind- und Sonnenenergie nicht durchsetzen können. Die Energienutzungs-Statistik von Marokko bestätigt das kanarische Beispiel [31]. 2012 lieferten in Marokko Geothermie, Solar und Wind zusammen 0,3% der Primärenergie.

Der Grund für die Misserfolge liegt auf der Hand. Sieht man von den eingangs beschriebenen Vorteilen einer Nutzung in sehr kleinen Einheiten ab, verbessert sich in Großanlagen sonnenstarker Länder als einziges Kriterium nur die Insolation. Dieser Vorteil reicht aber bei weitem nicht aus, um die bereits geschilderten Nachteile der Photovoltaik wieder wettzumachen.

9. Leistung von Windrädern und Photovoltaik

Die geringe Leistungsausbeute von Photovoltaik ist mit den Schwankungen sowie nächstens völligem Fehlen des solaren Strahlungsflusses und den sehr kleinen Wirkungsgraden von Photozellen um die 10% im Wesentlichen erklärt. Für Windräder muss dagegen neben der Windfluktuation auch noch die typische Kennlinie einer Windturbine (Bild 4) beachtet werden. Erst damit ist die, verglichen mit Sonnenstrom, noch heftigere Schwankung der Stromleistung (Bild 3 oben) und die extrem ungünstige Leistungsernte von Windturbinen zu verstehen.

Bild 4: Beispiel einer Windradkennlinie (blau), erstellt aus den Daten [18]. Das v3 Gesetz und die Betz-Joukowsky-Grenze [32] werden prinzipiell von einem Windrad nicht erreicht. Die mittleren Windgeschwindigkeiten an der Nordseeküste [33] liegen bei 5,8 bis 5,9 m/s, für den Offshorebereich der Nordsee [34] um die 9 m/s. Selbst Offshore-Windgeschwindigkeiten lassen daher die Nutzung des sinnvollen Betriebsbereichs von Windturbinen (grau) nur eingeschränkt in dessen linken Randbereich zu.

Alle Strömungsmaschinen unterliegen dem physikalischen Gesetz „Leistung gleich proportional zur dritten Potenz der Strömungsgeschwindigkeit“ (s. grüne Kurve in Bild 4). Gemäß diesem v3-Gesetz führt Verdoppelung der Windgeschwindigkeit zur Verachtfachung der Stromleistung, Halbierung aber umgekehrt zu ihrer Verringerung auf ein Achtel. Schwankungen von v wirken sich daher mit dritter Potenz verstärkt auf die Schwankungen der Windrad-Leistung aus.

Die in Deutschland vorherrschenden Windgeschwindigkeiten, im Binnenland grob zwischen 0 bis etwa 6 m/s, sind für eine vernünftige Stromausbeute viel zu klein. Offshore und an Meeresküsten ist der Wind zwar wesentlich stärker, man muss aber schon ab etwa v = 8 m/s beginnen, die Windrad-Leistung wegen zu großer mechanischer Belastung zu drosseln. Ab etwa v = 13 m/s muss ein Windrad auf die zulässige Maximalleistung (Nennleistung) begrenzt und ab etwa 25 m/s abgeschaltet werden. Damit ist gerade der Bereich von sehr hohen Windgeschwindigkeiten nur stark gedrosselt nutzbar.

10. Sicherheitsgrenze für wetterabhängigen Fluktuationsstrom

Die bisher geschilderten technischen und wirtschaftlichen Begrenzungen für die „Erneuerbaren“ Wind und Sonne sind zwar prinzipiell keine unüberwindbaren Hürden für ihren weiteren Ausbau, falls man auf Kosten, Naturschutz, Landschaftsschutz und den Gesundheitsschutz von Windradanrainern (Infraschall) keine Rücksichten nimmt. Es gibt allerdings eine Grenze seitens der Netzsicherheit. Grund dafür sind schnelle Netzstörungen im Bereich von Sekundenbruchteilen bis zu wenigen Sekunden, etwa Netz-Abtrennungen durch den plötzlichen Ausfall eines großen Umspanntransformators o.ä., die zum Zusammenbruch des gesamten Netzes führen können. Um die Auswirkungen dieser kurzfristigen Störungen auf die Stabilität des Netzes im zulässigen Bereich der Frequenzstabilität zu halten, muss ein ausreichend hoher Prozentsatz der elektrischen Gesamtleistung von Synchrongeneratoren mit großen Schwungmassen geliefert werden [35], also von den klassischen Dampfkraftwerken mit Kohle (Gas ist allerdings, verglichen mit Kohle, zu teuer) oder – wie in anderen europäischen Ländern – von Kernkraftwerken.

Leistungsungleichgewichte in Folge von Störungen werden hier durch Abbremsen (Ausspeicherung kinetischer Energie) bzw. Beschleunigen (Einspeicherung kinetischer Energie) der Schwungmassen verzögerungsfrei ausgeglichen. Der erforderliche Anteil von Grundlastkraftwerken hängt von der aktuellen Netzstruktur und ferner davon ab, welches Blackout-Risiko man noch toleriert. Eine Untersuchung der vier großen Netzbetreiber 50Hertz, Amprion, Tennet und TransnetBW geht auf diese Zusammenhänge ein [36] und kommt zu dem Ergebnis, dass für Deutschland die Grundkraftwerks-Mindestleistung von 20 GW nicht unterschritten werden darf. Mit den momentan noch vorhandenen Grundlastkraftwerken wäre damit die erforderliche Sicherheit gegeben. Dies wird sich aber mit zunehmendem Windradausbau, dem gesetzlichen Abschalten weiterer Kernkraftwerke sowie durch die aktuell diskutierte Abschaltung von Kohlekraftwerken in Richtung gefährlicher Instabilität ändern.

Quellen

[1] „Kurzinfo Energieeffizienz“ des BMU; Koalitionsvertrag 2018

[2] BDEW, Quartalsbericht 2017, ferner AGEB Energiebilanzen

[3] DAtF Deutsches Atomforum: Kernenergie in Zahlen, 2016

[4] BMWI, Energiedaten: Gesamtausgabe, Stand Januar 2018, S. 41, 42

[5] Drucksache 17/5672 des deutschen Bundestags,

[6] Hans Werner Sinn (Energiewende)

[7] Geschichte des Energieverbrauchs

[8] Eurostat sowie Statista

[9] BMWI

[10] Der Wald im Mittelalter sowie Leben im Mittelalter

[11] International Energy Agency IEA

[12] VTI Bundesinstitut

[13] Arktika (Schiff)

[14] Solarzelle

[15] Solarzellen bei Erhitzung

[16] Energiedichte

[17] Güterverkehr in Deutschland

[18] Datenblatt Enercon E-126 6.000 sowie Bürgerinitiative Berken

[19] Leopard 2

[20] M. Weichenberger et al.: PlOS One, April 2017, p. 1-19, https://doi.org/10.1371/journal.pone.0174420

[21] L.M. Miller et al., Earth System Dynamics, 2, S. 1-12, 2011, sowie Gans et al., Earth System Dynamics, 3, S. 79-86, 2012

[22] Giftiges Cadmium

[23] Rapswüsten sowie „auf dem Weg in die Maiswüste„?

[24] D. Weißbach et al., Energy, 52, p. 210-221, 2012

[25] A. Hartmann, Statistisches Monatsheft Baden Württemberg 7/2008

[26] L. M. Miller et al., PNAS, 2015

[27] Potenzial der Windenergie an Land, Bundesumweltamt 2013, Abb. 12 auf S. 38

[28] VGB Studie: Windenergie in Deutschland und Europa

[29] R. Schuster, aus den Daten von EEX, Amprion, TenneT, 50Hertz, TransnetBW

[30] EIKE-News vom 7.Sept.20117, EIKE-News vom 7.März 2016

[31] Morocco Energy Situation

[32] Betz-Gesetz

[33] Mittlere Windgeschwindigkeiten Nordseeküste

[34] Mittlere Windgeschwindigkeiten Offshore Nordsee

[35] Der Stromverbraucherschutz e.V. NEAB gibt als Faustformel permanente 45% an.

[36] 50Hertz, Amprion, Tennet, Transnet BW, Auswirkungen reduzierter Schwungmasse auf einen stabilen Netzbetrieb

 

 




Die globale Klimaverschwörung im ARD-MONITOR vom 16.8.2018

Die Sendung befasst sich mit Wetterextremen und leitet daraus salopp Klimaveränderungen ab. Ein heißer und ungewöhnlich trockener Sommer genügt. Wirklich? Die Wissenschaft versteht unter „Klimawandel“ maßgebende Wetteränderungen über mindestens 30 Jahre. Davon lässt sich MONITOR freilich nicht beirren. Zeuge von MONITOR ist der „renommierteste Klimaforscher unserer Zeit“, Prof. Hans-Joachim Schellnhuber, der kleinliche Kritiker an einer globalen Klimakatastrophe als „Profilneurotiker“ (O-Ton MONITOR) diffamiert.

Ist also der in der internationalen Fachwelt wirklich renommierteste Klimaforscher, Prof. Richard Lindzen vom MIT (hier), ein Profilneurotiker? Lindzen war Initiator einer Petition an Donald Trump, die empfahl, aus dem Pariser Klimaabkommen auszusteigen – Petition und ihre Unterzeichner (hier). Alle wissenschaftlich ausgewiesenen Klimaforscher, inklusive ihrer Institute oder Universitäten sind dort namentlich aufgeführt – die Liste liest sich wie ein Who is Who der US-Klimaforschung. Sind alle diese Klimaexperten Profilneurotiker?

Sucht man in Google Scholar (hier sind alle wissenschaftlichen Veröffentlichungen dokumentiert) nach Fachstudien von Schellnhuber, entstehen Zweifel an der MONITOR-Laudatio über Schellnhuber. Als Erstautor in rein wissenschaftlichen Fachaufsätzen ohne politischen Bezug ist Schellnhuber ausgesprochen selten aufzufinden, seine Fachaufsätze sind  eher allgemeiner und ins Politische gehend, die harte Arbeit der physikalischen Detailforschung scheint ihm weniger zu liegen. Mit bahnbrechenden neuen Forschungsergebnissen ist Schellnhuber jedenfalls noch nicht hervorgetreten. Um Missverständnisse zu vermeiden: Der Unterschied zwischen einem echten wissenschaftlichen Renomée unter Fachleuten und der von den deutschen Medien aus welchen Gründen auch immer verliehenen Bezeichnung, ist sorgsam zu beachten.  Wir kommen auf Schellnhuber noch einmal zurück.

Natürlich kommen in MONITOR auch noch andere Experten zu Wort, so beispielsweise der Schweizer Klimaforscher Prof. Reto Knutti. Bei seiner Aufzählung von Hinweisen für einen menschgemachten Klimawandel ist man leicht verwirrt. „Mehr Regen, weniger Regen“, ist seine Aussage im O-Ton MONITOR. Hmmm, mal regnet’s, mal nicht, was ist daran so besonderes, und warum ist diese meteorologische Selbstverständlichkeit als Zeichen des menschgemachten Klimawandels zu werten?

Wissenschaftliche Fakten waren jedenfalls nicht der Schwerpunkt von MONITOR. Es ging um sog. Klimaskeptiker, die sich einem angeblichen wissenschaftlichen Konsens verweigern und zu einer globalweiten Verschwörungspest ausgewachsen seien. Dazu wurde schweres Geschütz aufgefahren. Ein stellvertretendes Beispiel mag genügen: Vor Jahren hat die Erölindustrie kritische Institutionen finanziell unterstützt. Nun nicht mehr. Was macht daraus eine Sympathie einflößende Dame namens Naomi Oreskes aus den USA im Ferninterview von MONITOR? Es werde eben jetzt nur geschickter gemacht, die Gelder flössen immer noch.

Einen Beweis für diese Vermutung blieb die Lady schuldig. Das Nächstliegende, nämlich dass keine Gelder mehr fließen, kam nicht in Betracht. Nun ist es ja so: Ohne Erdölindustrie könnten wir kein Auto fahren, nicht in den Urlaub fliegen etc. Und ohne Kohle gingen bei uns die Lichter aus. Diese Industrien zahlen ihre Steuern wie alle anderen auch, stellen Arbeitsplätze und kleine Kinder fressen sie auch nicht, jedenfalls ist bis jetzt darüber nichts bekannt. Warum werden sie dann von MONITOR im „Reich des Bösen“ verortet? EIKE hätte absolut keine Probleme damit, von der Erdöl- oder Kohleindustrie finanziell unterstützt zu werden. Leider erfolgt dies nicht.

Die MONITOR-Sendung betraf auch mich persönlich. Nicht nur durch einen eingespielten Interview-Ausschnitt, sondern durch das geführte Interview selbst. Es wurde von MONITOR etwa eine Woche vor der Sendung nachgefragt und 2 Tage davor gemäß meinen gestellten Bedingungen in Heidelberg in einem vom WDR gemieteten Konferenzraum durchgeführt. Ich machte zur weiteren Bedingung des Interviews einen eigenen Tonmitschnitt. War nach einigem Hin- und Her in Ordnung. Natürlich war von vornherein klar, dass nicht das ganze Interview von einer knappen Stunde Dauer, sondern nur Ausschnitte in der Sendung gezeigt werden konnten. Was dann tatsächlich kam, lässt allerdings interessante Schlussfolgerungen über MONITOR, seine Redaktion und die Vorgaben des WDR für die Sendung zu.

Hier den vollen Tonmitschnitt zu bringen wäre zu langatmig und langweilig. Meine „Informations-Kompression“ des Interviews ist allerdings eine andere als die des WDR: ich gebe alle Fragen der Interviewerin, Frau Shafagh Laghai, und meine Antworten zumindest dem Sinne nach wieder. Nur sachlich Unwesentliches, Wiederholungen, zu Längliches etc. lasse ich weg, damit die Mitschnittschilderung „verdaulich“ wird. Ich füge ferner meinen Antworten gelegentlich Anmerkungen oder auch Internetlinks hinzu, die durch den Vorsatz „Anmerkung“ und kursive Schrift von Aussagen unterschieden werden. Auf die Existenz dieser Internetquellen wies ich in meinen Interviewantworten stets deutlich hin, hier sind sie nun real vorhanden.

Trotz mehrfachen Insistierens seitens Frau Laghai habe ich nur Antworten zu sachlichen Fragen gegeben, nicht aber über so etwas wie beispielweise „wie hoch ist die Zahl der EIKE-Mitglieder“ und ähnliches mehr. Meine schriftliche Wiedergabe des Interviews enthält die betreffenden Zeiten in Minuten von Interviewbeginn an. Die hier erkennbaren Lücken erklären sich aus den nicht beantworteten Fragen und dem begleitenden Drum-Herum, weil Frau Laghai unbedingt Antworten wünschte, deswegen zeitverbrauchend insistierte aber dennoch keine bekam.

Über die Motive, das Vorgehen und das Ergebnis der Sendung hatte ich keine Illusionen, denn aus Interviews der Süddeutschen Zeitung (hier) und der ZEIT (hier, hier) lag mir bereits ein ausreichender Erfahrungsschatz über den aktuellen deutschen Qualitätsjournalismus vor.

Warum also diesen nutzlosen Unsinn noch einmal über sich ergehen lassen? Ganz einfach: ich erkenne in solchen Interviews interessante Zeugen der aktuellen Entwicklung Deutschlands. Einer Entwicklung, die durch Qualitätsverlust des Journalismus und sinkendes Demokratieverständnis gekennzeichnet ist. Wir haben heute bereits (noch milde) mediale Zustände wie in der ehemaligen DDR. Die herrschende Politik hat über die von ihr in die Beiratsgremien lanzierten, gut dotierten Regierungslobbyisten dem ehemals freien Journalismus konsequent den Garaus gemacht. Nur links/grün ist noch genehm. Ältere erinnern sich noch an den SPIEGEL, der sich nicht scheute, sogar Regierungen zu Fall zu bringen – heute undenkbar. Und das Fernsehen war damals noch vorwiegend ein Medium der Faktenschilderung und nicht des Meinungs-Oktroi.

Im Vorfeld des Interviews rief mich Frau Laghai an. Als Resultat dieses Gesprächs fand ich es im Hinblick auf die von mir geplante und hier vorliegende Dokumentation zielstellend, Frau Laghai folgende Mail mit Unterlagen zu schicken, wobei mir klar war, dass diese Unterlagen allenfalls überflogen und vermutlich nicht verstanden wurden. Eine Chance sollte die Dame wenigstens haben, denn zumindest am Telefon hörte sie scheinbar interessiert zu. Eventuelles Nichtverstehen lag sicher nicht an bösem Willen von Frau Laghai sondern an ihrem fehlenden naturwissenschaftlichen Bildungshintergrung:

——  Mail an Frau Laghai  —————

Sehr geehrte Frau Laghai,

vorbereitende Unterlagen, wie tel. besprochen.

1)  Zum „wissenschaftlichen Konsens“: H. von Storch, D. Bray, http://www.hvonstorch.de/klima/pdf/GKSS_2007_11.pdf  ferner

Kepplinger und Post,

http://www.kepplinger.de/files/Der_Einfluss_der_Medien_auf_die_Klimaforschung.pdf  sowie

https://www.welt.de/welt_print/article1210902/Die-Klimaforscher-sind-sich-laengst-nicht-sicher.html

2) Stimmen gegen das IPCC (Anhang)

3) Fachveröffentlichung „Schellnhuber_PRE-2003-1.pdf“ mit Schellnhuber als Koautor (Anhang). Der relevante Teil ist gelb markiert – in einer weltweiten Untersuchung hat man keine globale Erwärmung gefunden. Dagegen Schellhubers ZEIT-Interview „DOS-Schellnhuber.pdf“ (ebenfalls Anhang). Zwischen beiden sich widersprechenden Aussagen liegen nur 6 Jahre! Dazwischen ist nichts passiert.

4) Um einen Überblick zu erhalten, meine gutachterliche Stellungnahme zur Klimafrage im Landtag von Nordrhein-Westphalen. Sie können diese Stellungnahme auch vom Regierungsserver herunterladen, die angehängte Version hat aber den Vorteil, dass dort alle Quelle direkt verlinkt sind.

Zum Interview draußen im Park: prinzipiell kein Problem, aber praktisch doch, denn leider ist Heidelberg nicht München mit seinen unzähligen Biergärten. Den Schlosspark kann ich nicht empfehlen, der quillt über von Touristen.

freundliche Grüße

——- Mail-Ende ——————-

Die in der Mail genannten Anhänge sind: Schellnhuber_PRE-2003-1, Gutachterliche Stellungnahme Lüdecke 4April2018, (ZEIT-Interview Schellnhuber), Fachstimmen gegen das IPCC.

Video der MONITOR-Sendung vom 18.8.18 im WDR. Übernommen von YouTube

Nun zum Interview:

Beginn der meiner Tonaufzeichnung = Minute ~2.40

Laghai: Erklären Sie bitte, warum Sie die Hypothese vom menschgemachten Klimawandel ablehnen.

Antwort: Weil es keinen eindeutigen wissenschaftlichen Nachweis gibt, dass menschgemachtes CO2 einen maßgebenden Einfluss auf die Klimaentwicklung hat. Es gibt ausreichend viele Fachveröffentlichungen zu dieser Frage – für und wider. Die entscheidende Größe ist die sog. Klimasensitivität. Sie besagt, um wieviel Grad Celsius die globale Mitteltemperatur bei hypothetischer Verdoppelung des CO2 Gehalts der Luft ansteigt. Ihr Zahlenwert ist unbekannt. Heute vermutet ihn die Klimawissenschaft zwischen 1 bi 1,5 °C – also einer unbedenklichen Größe. Sein Wert war in früheren Fachveröffentlichungen schon wesentlich größer und ist in der Fachliteratur mit der Zeit immer kleiner berechnet bzw. eingeschätzt geworden. Wenn es so weitergehen sollte, wird irgendwann das Resultat Null sein. Kurz: Man weiß nicht, ob das menschgemachte CO2 eine maßgebende globale Erwärmung auslöst. Wahrscheinlich ist, dass eine solche Erwärmung allenfalls unmaßgeblich klein ist.

Interviewzeit = Minute ~5

Laghai: Bitte erklären Sie, warum viele Wissenschaftler das Gegenteil von Ihnen aussagen und davor warnen, dass die menschgemachte globale Erwärmung bis 6 °C erreichen könnte.

Antwort: Es gibt diese Wissenschaftler. Man muss aber unterscheiden zwischen dem, was diese Leute wissenschaftlich publizieren und was sie zwar privat, aber gefühlt „ex cathdra“ in den Medien kommunizieren. Man bezeichnet sie oft auch als Wissenschaftsadvokaten. Das wohl bekannteste Beispiel ist Prof. Schellnhuber. Zwischen dem, was er fachlich veröffentlicht und dem, was er privat und medial wirksam aussagt, gibt es in der Regel keine Schnittmenge. So war Schellnhuber in 2003 Mitautor in einem begutachteten Fachjournalartikel, welcher keine globale Erwärmung auffand (Schellnhuber_PRE-2003-1), die betreffende Stelle ist zum besseren Auffinden gelb markiert. Und gerade einmal 6 Jahre später ruft Schellnhuber in einem ZEIT-Interview den Klimanotstand aus (ZEIT-Interview Schellnhuber). Daher: Es zählt nur das, was in der Fachliteratur steht und nicht, was deutsche Medien an Unsinn schreiben.

Interviewzeit = Minute ~7:30

Laghai: Herr Schellnhuber hat eine Studie veröffentlicht, in welcher der Begriff „Heißzeit“ fiel. Was halten Sie davon? (Anmerkung: Frau Laghai kennt vermutlich nicht den Unterschied zwischen einem Medien-Artikel und einem begutachteten Fachartikel. Daher ihre Frage, was ich vom Begriff „Heißzeit“ hielte).

Antwort: Gar nichts. (Anmerkung: Darauf schilderte ich kurz die Temperaturentwicklung der letzten 9000 Jahre nach Ende der letzten Eiszeit und wies auf das, verglichen mit heute, etwa gleichwarme römische und mittelalterliche Optimum hin. Die beiden Holozän-Warmzeiten, etwa 4500 Jahre und 6500 Jahre vor unserer Zeit waren sogar noch wesentlich wärmer als heute (in Abb. A2-4, hier). In diesen Zeiten entstanden die ersten Hochkulturen, Warmzeiten waren immer positiv für die Menschheit, Kaltzeiten dagegen stets katastrophal, Völkerwanderungen und Seuchen waren ihre Begleiter usw. usw.). Kurz, heute von einer katastrophalen Heißzeit zu sprechen, ist unseriös.

Interviewzeit = Minute 9:30

Laghai: Herr Schellnhuber spricht von einem internationalen Konsens über den menschgemachten Klimawandel. Warum sind Sie dagegen?

Antwort: Aus zwei Gründen. Erstens gibt es den so oft beschworenen Klimakonsens nicht (Anmerkung: folgenden Beispiele belegen es Fachstimmen gegen das IPCC). Es gibt weltweit jede Menge renommierter Klimaexperten, die meine Meinung teilen. Man braucht sich nur die Namen in den von mir aufgeführten Petitionen anzusehen, an welchen Universitäten sie lehren und was sie in Fachzeitschriften veröffentlichten. Zum zweiten hat Wissenschaft mit Konsens nichts zu tun, im Konsens stirbt sie. Nur Abweichler vom Mainstream bringen die Wissenschaft voran. Das wohl bekannteste Beispiel ist die Plattentektonik von Alfred Wegener, die erst posthum gewürdigt wurde.

Interviewzeit = Minute ~14:20

Laghai: Leisten Sie in EIKE wissenschaftliche Pionierarbeit?

Antwort: EIKE ist ein gemeinnütziger Verein von Freiwilligen, meist von Naturwissenschaftlern, Ingenieuren und weiteren Akademikern, der es sich zum Ziel gesetzt hat, die Öffentlichkeit über die Klima- und Energie-Fakten aufzuklären. Dies ist allein deswegen schon nicht schwierig, weil die deutschen Medien, weit mehrheitlich, ihrem Auftrag nach neutraler Aufklärung nicht mehr nachkommen. Es sei hier nur an den zutreffenden Begriff „Lückenmedien“ erinnert. In Deutschland wird einseitig berichtet, dies war die Veranlassung EIKE zu gründen und dies erklärt auch seinen Erfolg.

Interviewzeit = Minute ~15:4

Laghai: Was ist das erklärte Ziel von EIKE?

Antwort: Aufklärung. Daneben gibt es auch noch Forschungstätigkeit in EIKE, mit Fachaufsätzen, die in begutachteten Fachzeitschriften veröffentlicht werden (Anmerkung: hier die Liste unserer Begutachteten EIKE-Veröffentlichungen)

Interviewzeit = Minute ~18

Laghai: Wie wichtig ist die Arbeit von EIKE für die Aufklärung in Deutschland?

Antwort: Sehr wichtig, weil sie im Kontrast zu dem steht, was die deutschen Medien entweder falsch oder gar nicht berichten. EIKE ist unpolitisch und unabhängig. EIKE-Mitglieder decken das gesamte Parteienspektrum ab, ähnlich wie die durchschnittliche Bevölkerung. Bloß Partei-Grüne gibt es meines Wissens bei uns nicht, denn die Grünen sind unsere eigentlichen Gegner.

Interviewzeit = Minute ~19

Laghai: Fragen über Interna von EIKE, wieviel Mitarbeiter hat EIKE  (Anmerkung: Frau Laghai meinte wohl Mitglieder).

Antwort: (Anmerkung: Ich gab hierauf keine Antworten).

Interviewzeit = Minute ~20:10

Laghai.: Wo finden Sie politisches Gehör?

Antwort: früher nur bei der Partei der Vernunft, die sich inzwischen aufgelöst hat. Aktuell vielleicht in einigen Strömungen der FDP aber voll und ganz bei der AfD. Sonst bisher in keiner anderen Partei. (Anmerkung: Bei dieser Gelegenheit wies ich auf den verschwindenden Effekt von teuren CO2-Einsparungen Deutschlands hin, nachzulesen in Gutachterliche Stellungnahme Lüdecke 4April2018 auf S. 8 unter „Was bewirken die gesetzlichen CO2 Einparungen Nordrhein-Wetsphalens?“. Diese Stellungnahme ist auch vom Server der NRW-Landesregierung abgreifbar, aber dort sind leider nicht die Quellen verlinkt, hier ist es der Fall. Einsparungen von CO2 schädigt alle Bereiche unseres Lebens vom Autoverkehr bis zur Ernährung. Ich wies auch auf die gleiche Größenordnung von menschlicher Ausatmung und weltweitem CO Ausstoß durch Autoverkehr hin, ebenfalls auf S. 8 in der o.g. gutachterlichen Stellungnahme).

Interviewzeit = Minute ~23

Laghai: Arbeiten Sie mit der AfD zusammen?

Antwort: Jedem der zu uns kommt, um sachliche Auskunft oder gar Mithilfe bittet, wird geholfen – soweit dies möglich ist. Dies sehen wir als unsere gemeinnützige Verpflichtung an.

Interviewzeit = Minute ~24:30

Laghai: Warum beeinflussen Sie die AfD mit Ihrer Meinung?

Antwort: Es ist umgekehrt, die AfD übernimmt unsere Auffassung, wir informieren nur. Auf die aus unseren Sachaussagen gebildete politische Aussage kann, darf und will EIKE keinen Einfluss nehmen. Wenn EIKE-Mitglieder gleichzeitig AfD-Mitglieder sind, ist es ihre private Angelegenheit, wenn sie ihre Expertise in entsprechende AfD-Fachgremien einbringen.

Interviewzeit = Minute ~25:

Laghai: Kennen Sie CFACT und Hartlandinstitut?

Antwort: ich kenne diese beiden Institutionen nicht, habe nur von ihnen gehört, sind anscheinend ähnliche Vereine wie wir in den USA. (Anmerkung: dies ist neben meiner vorangegangenen kurzen Erklärung über EIKE der einzige weitere Interviewpunkt, der in der MONITOR-Sendung gebracht wurde. Der Frage nach CFACT und Hartland folgten noch weitere insistierende Fragen zu ähnlichen sachfremden Themen, zu denen ich keine Antworten gab. Ich betrachte meine Funktion als Pressesprecher als Experte für Sachfragen, nicht für Organisation oder EIKE-Interna. Schade um die verplemperte Zeit).

Interviewzeit = Minute ~34

Laghai. Was werfen sie Wissenschaftlern wie Herrn Schellnhuber vor?

Antwort: Persönlich gar nichts, ich habe Herrn Schellnhuber einmal persönlich kennengelernt, er hat mir auf meine Bitte hin sogar ein Buch mit ihm als Mitautor zukommen lassen. Vorzuwerfen ist Herrn Schellnhuber und seinen wissenschaftlichen Mitstreitern weltweit der permanente Mißbrauch ihrer wissenschaftlichen Arbeiten für politische Zwecke. Wissenschaftler sollten jedem Fragenden, insbesondere auch Politikern neutral Auskunft erteilen aber niemals selbst ihre Arbeiten politisch aktiv instrumentalisieren. (Anmerkung: Ich nannte Frau Laghai als Extrembeispiele den Lyssenkoismus (hier) und die Eugenik der National-Sozialisten (hier), um zu zeigen, wie gefährlich in solchen Extremfällen fehlgegangener Wissenschaft die Einmischung in die Politik werden kann).

Interviewzeit = Minute ~35, Pause wegen Kassettenwechsel bis ~40

Laghai: Was würde passieren, wenn sich die internationale Völkergemeinschaft von den Klimaschutzzielen verabschiedet?

Antwort: Gar nichts. Der Mensch kann die globale Klimaentwicklung nicht beeinflussen. Zu diesem Anlass wies ich auf die sachlich total verfehlte deutsche Klima- und Energiepolitik hin, die mit der Schleifung von CO2 freien Kernkraftwerken begann. Deutschland hat seine selbstgesteckten Klimaziele verfehlt, aber ausgerechnet die USA unter Präsident Trump haben ihre CO2-Emissionen durch vermehrte Gasverbrennung verringert.

Interviewzeit = Minute ~41

Laghai: Was wäre die Gefahr, wenn man an den  Klimaschutzzielen festhalten würde?

Antwort: Die Deindustrialisierung Deutschlands durch die jetzt schon katastrophale deutsche Energiewende, die mit deutscher Gründlichkeit vermutlich bis zum bitteren Ende durchgezogen wird. Die Energiewende hat höchste Strompreise, unzuverlässige Stromversorgung, Naturzerstörungen und gesundheitliche Infraschallschädigungen von Anrainern durch Windräder gebracht, sonst nichts. Wenn auch noch die Kohle wegfallen sollte, was hoffentlich verhindert werden kann, müssen wir auch noch teures russisches Gas zur Stromerzeugung kaufen und begeben uns in die Abhängigkeit Russlands. Dabei könnte North Stream, falls mit dem Gas nur Strom erzeugt würde, durch gerade einmal 15 Kernkraftwerke der 1,5 GW-Klasse ersetzt werden. Was in Deutschland in Sachen Klima und Energie unternommen wird ist mit „purer Wahnsinn“ fast noch euphemistisch bezeichnet.

Interviewzeit = Minute 42

Laghai: Also soll sich Deutschland von seinen Klimazielen verabschieden?

Antwort: Selbstverständlich, Klimaziele sind sachlicher Unfug, man kann Klima nicht schützen.

Interviewzeit = Minute ~42:30

Laghai: EIKE wird vorgeworfen, dass es eine politische Agenda habe.

Antwort: Darauf hatte ich schon schon geantwortet. Wir haben keine politische Agenda in Richtung irgend einer politischen Partei Deutschlands. Wenn Sie allerdings unsere sachliche Forderung nach Aufgabe von Klimaschutz und Energiewende als politische Agenda definieren, dann haben wir eine Agenda. Denn Klimaschutz und Energiewende sind sachlicher Irrsinn.

Interviewzeit = Minute ~43:20

Laghai: Was ist Ihre Forderung

Antwort: Abschaffung von Klimaschutz und Energiewende. Rückkehr zur Nutzung der Kernkraft durch Ausnutzung der technisch sinnvollen Laufzeiten unserer noch vorhandenen KKW. Ferner die Forschung an der Generation IV von KKW wieder aufnehmen, die keinen nennenswerten Abfall mehr verursachen, weil sie das Uran fast vollständig verbrennen. Bei Bedarf neue Kohlekraftwerke bauen und Gas nicht für die Stromerzeugung verwenden, es ist zu teuer. Kurz, technische Vernunft und Zukunftsfähigkeit in Deutschland wieder herstellen.

Interviewzeit = Minute ~44

Laghai: Die Wissenschaft ist sich einig, dass es einen menschgemachten Klimawandel gibt, wie sollen wir darauf politisch reagieren?

Antwort: ich sagte bereits, dass Ihre Aussage nicht zutrifft und hatte Ihnen auch die zahlreichen Petitionen und Manifeste von Klimawissenschaftlern gegen die IPCC-Hypothese genannt.

Interviewzeit = Minute ~45

Laghai (Anmerkung: wiederholt und jetzt vorsichtiger formuliert): Es gibt viele Wissenschaftler, die sagen, dass wir eine gefährliche globale Erwärmung durch menschgemachtes CO2 haben. Wir müssen darauf reagieren. Sind Sie damit einverstanden?

Antwort: Nein, ich weise nochmals auf die entsprechenden Manifeste und Petitionen hin (Fachstimmen gegen das IPCC). Aber selbst dann, wenn – sozusagen hilfsweise – die Klima-Alarmisten recht hätten, wie sollen wir reagieren? CO2 Reduktionen weltweit sind völlig illusorisch, China baut im Wochentakt neue Kohlekraftwerke, die können gar nicht anders, wenn sie ihre Entwicklung vorantreiben wollen. Wenn man tatsächlich weltweite CO2-Einsparungen durchsetzen könnte, würden das Milliarden Menschen nicht überleben.

Interviewzeit = Minute ~46:30

Laghai: Also Sie sagen, dass der CO2-Ausstoß nichts mit der Erderwärmung zu tun hat.

Antwort: Genau dies sage ich. Es gibt keinen wissenschaftlichen Beleg dafür. Die aktuelle Klimaerwärmung ist normal und kam allein nach Ende der letzten Eiszeit sogar oft stärker vor.

Interviewzeit = Minute 47

Laghai: würden Sie sagen, Eike ist ein wissenschaftliches Institut?

Antwort: Ja und nein. Ja, weil EIKE-Mitglieder in begutachteten wissenschaftlichen Fachjournalen veröffentlichen. Nein, weil wir keine Lehre betreiben und daher auch keine Diplomanden oder Doktoranten ausbilden.

Interviewzeit = Minute ~48

Laghai: Sind Sie ein Lobbyverein

Antwort: Nein (Anmerkung: ich war versucht zu sagen „wir sind ein Lobbyverein und zwar für die wissenschaftliche Wahrheit“, unterließ es aber, weil ich befürchtete, dass dann nur der erste Teil des Satzes veröffentlicht und der zweite weggeschnitten wird).

Interviewzeit-Ende = Minute ~49

Fazit zur MONITOR-Sendung

Man könnte viel über die MONITOR-Sendung schreiben. Ich unterlasse es, denn die Sendung spricht für sich. Mir fällt allenfalls dazu der Physiknobelpreisträger Werner Heisenberg ein, der in seinem Buch „Der Teil und das Ganze“ etwas Bemerkenswertes sagte:

„Will man den Wahrheitsgehalt einer Aussage erkennen, sollte man sich zuerst die Methoden des Aussagenden ansehen“

 

 

 

 

 

 

 

 




Klarstellung der Fakten zur Kritik von J. Marotzke an unserer Arbeit über den CO2 Kreislauf

Die Vorgeschichte

Die Vorgeschichte der hier behandelten Fachpublikation von Horst-Joachim Lüdecke und Carl Otto Weiss mit dem Titel „Simple Model for the Antropogenically Forced CO2 Cycle Tested on Measured Quantities“, veröffentlicht im  Journal of Geography, Environment and Earth Science International, ISSN: 2454-7352, Vol.: 8, Issue.: 4″ (hier), wurde bereits in den EIKE-News (hier) im Abschnitt „Warum JGEESI?“ geschildert. Ferner wurde dort auch auf das Thema „Raubverleger“ näher eingegangen, welches in einer ARD-Sendung (hier) unter Missachtung aller Fakten und Hintergründe zu einer Bedrohung seriöser wissenschaftlicher Forschungstätigkeit und -publikation hochstilisiert wurde. Wir kommen auf dieses Thema noch in einer separaten EIKE-News zurück.

Hier geht es vorerst nur um die Kritik von J. Marotzke an unserer in JJGEESI erschienenen Arbeit, die er auf Nachfrage eines interessierten Lesers demselben schriftlich mitteilte und dieser Leser uns dann das Schreiben zur Verfügung stellte. Marotzke schreibt wörtlich

—– Zitatbeginn

„In Kürze: die Arbeit ist unglaublich schlecht und genügt nicht den allerniedrigsten Standards. Es wird ein einfaches Modell für die Aufnahme anthropogenen Kohlenstoffs durch Ozean und Landbiosphäre erstellt und geschlussfolgert, dass die atmosphärische Konzentration von CO2 den Wert von 800 ppm nicht überschreiten kann, weil es so aus ihrem Modell herauskommt. Der Wert ihres Modells ergibt sich angeblich daraus, dass es beobachtete Werte „perfekt“ reproduziert. 

Fatale Probleme:

  1. Das Modell hat nur eine einzige Zeitskala für den Kohlenstoffkreislauf, dabei ist wohlbekannt, dass dies falsch ist (z. B. IPCC WGI AR5, Box 6.1).
  2. Der Widerspruch zu allen anderen, ausgefeilteren Modellen wird auf drei Zeilen damit „ausgeräumt“, dass er spekulativ auf einen bestimmten Effekt zurückgeführt wird, und dieser Effekt sei ja bisher noch nicht nachgewiesen. Also gibt es ihn angeblich nicht, auch nicht in der Zukunft. Ein solches Ignorieren bisheriger Arbeiten ist nicht akzeptabel.
  3. Das Maximum in atmosphärischer CO2-Konzentration in den Modellrechnungen rührt daher, dass der Input aus Emissionen nach 2100 drastisch abnimmt. Das Maximum wird aber als absolut interpretiert in dem Sinne, dass auch bei weiteren anthropogenen Emissionen ALLES in Ozean und Landbiosphäre geht. Diese Schlussfolgerung lässt sich nicht einmal aus dem zu einfachen Modell der Autoren herleiten, und dennoch ist das die Hauptbotschaft („irgendwann tun Ozean und Land die ganze Arbeit für uns“) – ein suizidaler Kurzschluss für die Arbeit.

 Die Begutachtung war ein Witz, nicht ein einziger ernsthafter inhaltlicher Kommentar, der substantielle Überarbeitung verlangt hätte. Und die Zeitschrift rühmt sich, dass keine Publikation wegen „Mangel an Neuem“ abgelehnt werden darf – der Inhalt müsse lediglich richtig sein. Man könnte also beliebig abkupfern und, falls man das Original zitiert, veröffentlichen. Das ist suizidale Publikationspolitik.

 Eine solche Arbeit in diesem Journal zu veröffentlichen, würde für jede/n Wissenschaftler/in einen Bann durch das MPI-M bedeuten“.

—— Zitatende.

Bevor wir auf die Kritik von Marotzke in der Sache eingehen, noch kurz zum vorangegangenen Begutachtungsverfahren bei ESD, welches (hier) einsehbar ist und in welchem insbesondere die supplements interessant sind. Die dort geäußerte Fachkritik beschäftigte in mehreren Kommentaren und mehreren supplements insgesamt 8(!) wissenschaftliche Experten. Der Gesamtumfang dieser Kritik übersteigt den Umfang unserer Arbeit bei weitem. Und all dies für die Ablehnung einer „unglaublich schlechten Arbeit“ (s. Kritik Marotzke). Unter diesen Umständen ist es nicht abwegig, ganz andere Motive als die fachliche Qualität für die Ablehnung zu vermuten.

Zur Kritik von Marotzke

Zunächst: in der Wissenschaft gibt es kein „gut“ oder „schlecht“. Es gibt nur „richtig“ oder „unrichtig“. Weiter kann man die (allerdings subjektive) Wertung „interessant“ oder „uninteressant“ machen. Die Richtigkeit unserer Arbeit wird nicht bestritten.

Es wird bemängelt, das Modell enthalte nicht alle Details wie z.B. den bisher hypothetischen Revellle Effekt. Offenbar sind aber dem Kritiker die grundlegenden Prinzipen des Modellierens überhaupt nicht bekannt:

Es gibt in der Physik 2 Methoden der Beschreibung

  • „mikroskopische“ Modelle
  • „phänomenologische“ Modelle

Im ersten Fall versucht man möglichst alle Einflussfaktoren zu berücksichtigen. Dies stößt in der Praxis häufig an Grenzen. Man benutzt dann „phänomenologische“ Modelle. Bei diesen wird die Wirkung der Einflussfaktoren (auch der unbekannten) in einer oder wenigen Konstanten zusammengefasst. Die Werte der Konstanten entnimmt man den Messungen.

Wie wichtig phänomenologische Modelle sind, sieht man am Beispiel der Physik selber. Sie ist eine phänomenologische Beschreibung der Welt mittels vieler „Naturkonstanten“ (Lichtgeschwindigkeit, Vakuumpermeabilität, Elektronenladung etc. etc.)  Naturkonstanten sind in der Regel nicht aus tieferliegenden Einflüssen modellhaft zu bestimmen. Warum sie gerade ihre Werte haben, ist unbekannt. Ihre Werte bestimmt man aus Messungen.

Unser Modell ist also ein solches phänomenologisches Modell in dem alle (auch unbekannten) Einflüsse durch 2 Konstanten beschrieben werden, deren Werte aus den Messungen folgen. Der Wert solcher phänomenologischen Modelle ist nicht „Erkenntnis“ sondern Möglichkeit der Zukunftsvorhersage. Und dies ist ja der Sinn und Zweck unseres Modells.

Man kann noch einwenden, dass unser Modell den Ansatz einer linearen Differentialgleichung benutzt, obwohl natürlich Nichtlinearitäten nicht a priori ausgeschlossen werden können. Dieser lineare Ansatz rechtfertigt sich aus der sehr genauen Übereinstimmung der Modellergebnisse mit den CDIAC Daten. Offenbar ist auch bei weiter steigender CO2 Emission kein merklicher Einfluss einer Nichtlinearität zu erwarten, so dass das lineare Modell sich zumindest für eine Voraussage der näheren Zukunft eignet. Bei gleichbleibender Emission stellt sich ohnedies ein Gleichgewicht zwischen CO2 Zufluss und –Abfluss ein. Bei gleichbleibender Emission ändert sich daher die CO2 Konzentration der Atmosphäre im längerfristigen Gleichgewicht ÜBERHAUPT NICHT. Die immer wieder wiederholte Behauptung, es dürften nur noch so und so viel CO2 emittiert werden, ist blühender Unsinn.

Noch einmal: Der Wert unseres phänomenologischen Modells liegt nicht in einem Erkenntniszuwachs über Einflussfaktoren sondern schlicht in der Möglichkeit  der Zukunftsvoraussage.

Selbstverständlich hängt die Höhe eines zukünftigen Maximums der atmosphärischen CO2 Konzentration mit nachfolgendem Abfall von der Menge der Kohlenstoffvorräte ab. Dies ist ja auch klar gesagt.

Zur Kritik von J. Marotzke, die mit sachlichen Inhalten nichts zu tun hat

Es wird bemängelt:

  • Dass die Gutachter von JGEESI keine Überarbeitung forderten.
  • Dass „die Zeitschrift Arbeiten wegen Mangels an Neuem“ nicht zurückweisen würde.
  • Es wird für Wissenschaftler, die in dieser Zeitschrift veröffentlichen, ein „Bann“ angedroht.

Hierzu ist zunächst anzumerken, dass für die Beurteilung einer wissenschaftlichen Arbeit AUSSCHLIESSLICH deren Inhalt relevant ist. In welcher Zeitschrift die Arbeit veröffentlicht ist, oder, streng genommen, selbst wie die Gutachten ausfielen, DARF für eine wissenschaftliche Beurteilung KEINE Rolle spielen.

Der Sinn und Zweck von Veröffentlichungen ist, das Material jedem Wissenschaftler zugänglich zu machen, so dass jeder sich selber, unabhängig von Mehrheitsmeinungen oder sonstigen Äußerlichkeiten, auf Grund der genauen Kenntnisse der Details der Arbeit, eine eigene Meinung bilden kann. Es gibt bekanntlich viele bahnbrechende Arbeiten, die in weniger zitierten Zeitschriften veröffentlicht wurden oder sogar abgelehnt wurden und in wenigen Extremfällen später sogar mit dem Nobelpreis ausgezeichnet wurden.

Wenn die Zeitschrift angeblich Beiträge nicht wegen Mangel an Neuheit ablehnen will, so ist das für unsere Arbeit offenbar kein Kriterium gewesen. Eine ähnliche Analyse mit ähnlichen Ergebnissen ist bisher nicht veröffentlicht worden.

Gutachten

Wir alle, täglich selber als Gutachter tätig, haben reichlich Erfahrung mit den Mängeln, des peer review Systems. Gutachter sind auch nur Menschen. Trotzdem gibt es für die Zeitschriften, die sich mit dem Gutachtersystem vor einer Überflutung mit irrelevanten Arbeiten schützen wollen, kein besseres System.

Dass Wissenschaftler, die in einer unerwünschten Zeitschrift wie JGEESI veröffentlichen, mit einem „Bann“. (sprich, Zensur) belegt werden, entspricht der vorwissenschaftlichen, mittelalterlichen Scholastik, deren Zweck die Unterdrückung der Fakten war, welche die Macht der Kirchen gefährden konnten (s. den Fall Galileo). Die Parallele fällt ins Auge. So einen „Bann“ gibt es nicht in der Naturwissenschaft und darf es nicht geben. Der angedrohte „Bann“ würde an das Grundprinzip der Naturwissenschaften die Axt legen.

Zudem ist dieser „Bann“ eine schwere Beleidigung unzähliger seriöser Wissenschaftler, die in JGEESI veröffentlicht haben (stellvertretend Beispiele von Publikationen in JGEESI). Die meisten  Wissenschaftler, die in JGEESI veröffentlichen, sind in asiatischen oder afrikanischen Universitäten und Instituten beheimatet. Spielen bei der Kritik an diesem Journal also evtl. rassistische Motive eine Rolle?

Dass so ein „Bann“ von einem deutschen MPI ausgesprochen wird, wirft ein Licht auf die „Wissenschaftlichkeit“ der offiziell so genannten „Klimaforschung“, die ja auch Modelle mit willkürlichen und falschen  Annahmen über die gemessenen Fakten stellt und natürlich gegen Zeitschriften, welche unliebsame Fakten berichten, Zensurversuche betreibt. Glücklicherweise für den freien Austausch wissenschaftlicher Ergebnisse ist die Zahl wissenschaftlicher Zeitschriften zu groß, um totale Zensur zu bewirken. Der jetzt großangelegte Versuch, auch seriöse Zeitschriften als „predatory journals“ zu stigmatisieren, dürfte misslingen.

 




Kleine Inspektion am Klimadampfer

Die von Klimarealisten vorgebrachten wissenschaftlichen Erkenntnisse prallen am Glauben ab, und wer kennt sich schon in der Klimafachliteratur aus. Die deutschen Medien stehen mehrheitlich auf der Seite der Klima-Alarmisten. Nur selten wird ein Klimarealist im deutschen Fernsehen zugelassen, wie jüngst zum Beispiel der bekannte Wetterfrosch“ Jörg Kachelmann im Herbst 2017 bei Maischberger.

Wünschen Sie Ihren Glauben oder Nichtglauben bestätigt? Wie wäre es mit dem Weg über nicht wegdiskutierbare Fakten? Zunächst mal zum Grundsätzlichen. Klima“ ist nicht Wetter“, sondern der lokale statistische Mittelwert von Wetter über mindestens 30 Jahre. Ein Globalklima gibt es ebenfalls nicht, es gibt nur die Klimazonen tropisch, subtropisch, gemäßigt und polar. Haben wir das früher nicht in der Schule gelernt?

Die Klimata unterschiedlicher Erdregionen ändern sich nicht einmal gleichsinnig. Die Antarktis wird aktuell kälter, die Arktis dagegen wärmer. Dieser Vorgang kehrt sich zyklisch etwa alle 60 Jahre um, die Wissenschaft spricht von Klimaschaukel. Unaufhörlicher Klimawandel ist naturgesetzlich, konstantes Klima gab es noch nie, seit unserer Erde besteht. „Schützen“ kann man ein Phänomen nicht, welches sich laufend verändert. Man müsste dazu mit dem Schutz des Wetters anfangen. Prof. Dr. Heinz Miller, ehemaliger Vize-Direktor des Alfred-Wegener Instituts (AWI) in Bremerhaven formulierte es in der ZEIT 2007 folgendermaßen: „Wer von Klimaschutz redet, weckt Illusionen. Klima lässt sich nicht schützen und auf einer Wunschtemperatur stabilisieren. Es hat sich auch ohne Einwirkungen des Menschen oft drastisch verändert. Schlagworte wie Klimakollaps‘ oder Klimakatastrophe‘ sind irreführend. Klima kann nicht kollabieren, die Natur kennt keine Katastrophen“. Der Begriff „Klimaschutz“ ist daher schlichter Unsinn.

Leider werden von Politik und Medien die Aussagen der Klimafachliteratur nicht beachtet, sondern nur die politisch geprägten Auffassungen des Weltklimarats, bekannt unter „IPCC“. Das IPCC ist freilich keine wissenschaftliche sondern eine politische UN-Organisation, mit dem selbstgesteckten Ziel, einen menschgemachten Klimaeinfluss nachzuweisen. Ein vorweggenommenes Ergebnis widerspricht natürlich dem wissenschaftlichen Grundprinzip der Ergebnisoffenheit. Das IPCC forscht auch nicht selber, sondern seine Mitarbeiter sammeln, selektieren und interpretieren die Klima-Fachliteratur nach eigenem Gusto.

NGO-Aktivisten schreiben mit

Das Ergebnis sind extrem umfangreiche Sachstandsberichte, die trotz Selektion viel ordentliche Information enthalten. Dann gibt es noch die kürzeren Berichte für Politiker. Letztere widersprechen oft den Sachstandsberichten, weil die betreffenden Regierungen bei der Erstellung mitschreiben dürfen. Kungeleien von Politik und Wissenschaft waren schon immer bedenklich, Extrembeispiele sind der Lyssenkoismus der russischen Pflanzengenetik und die Eugenik der Nationalsozialisten.

Die IPCC-Berichte sind nicht unabhängig begutachtet, wie es für wissenschaftliche Publikationen verbindlich ist. Teile der IPCC-Berichte wurden sogar von NGO-Aktivisten verfasst, die über keinen ausreichenden Fachhintergrund verfügten, wie es die kanadische Journalistin Donna Lafromboise in ihrem Buch „Von einem Jugendstraftäter, der mit den besten Klimaexperten der Welt verwechselt wurde“, unterhaltsam schildert. Einen allgemein anerkannten, oder zumindest ernstzunehmenden Nachweis für einen menschgemachten Klimawandel konnte das IPCC trotz all seiner fragwürdigen Bemühungen bis heute nicht erbringen.

Und die Klimavergangenheit? Eisbohrkerne, Baumringe, Tropfsteine, Pollen und Sedimente bergen reichlich Informationen über sie. Diese belegen, dass die Erde schon wesentlich wärmere und kältere Zeiten als heute erlebte. Insbesondere kamen bis 25 Mal höhere CO2-Konzentrationen in der Luft vor, wie es Rosemarie Came und Mitautoren in Nature, 449, Sept. 2007, publizierten. Ein ursächlicher Einfluss von wechselnden CO2-Konzentrationen auf Erdtemperaturen ist für keine Erdepoche bekannt, einschließlich der jüngsten. Einen umgekehrten Einfluss gibt es dagegen sehr wohl. Es handelt sich dabei um die relativ schwache Ausgasung von CO2 bei höheren Meereswassertemperaturen beziehungsweise die Bindung von CO2 bei tieferen Wassertemperaturen. Hierbei führen die Temperaturen das CO2, nicht umgekehrt. Flora und Fauna der Erde und im Meer kamen auch bei höchsten CO2-Konzentrationen der Klimavergangenheit niemals zu Schaden – ganz im Gegenteil. Insbesondere bei hohen CO2-Werten boomte das Leben. Von Meeresversauerung“ in solchen Zeiten ist nichts bekannt, auch Korallen gedeihen schon seit über 400 Millionen Jahren.

In den letzten 1 Million Jahren bewegte sich die Erde zyklisch durch Warm- und Eiszeiten. In rund 90 Prozent dieser Zeitspanne war es sehr viel kälter als heute, die Eiszeiten waren nämlich stets viel länger als die Warmzeiten. Wir leben seit 9.000 Jahren wieder in einer Warmzeit. Die nächste Eiszeit steht daher vor der Tür. In den nächsten Jahrhunderten bis wenigen Jahrtausenden muss man mit ihrem Einsetzen rechnen. Noch vor 20.000 Jahren reichten die eiszeitlichen skandinavischen Gletscher bis nach Norddeutschland. Nordeuropa, Sibirien und Kanada waren unbewohnbar. Ungeheure Mengen an Meereswasser waren zu Eis gefroren, und der globale Meeresspiegel lag infolgedessen 120 m tiefer als heute. Das Doggerland zwischen England und Kontinentaleuropa, heute Nordsee, war damals trocken und wurde von steinzeitlichen Jägern und Sammlern bis noch vor 10.000 Jahren besiedelt.

Warmperioden waren immer kulturelle Blütezeiten

In Fachpublikationen schreiben die Gletscherwissenschaftler Hanspeter Holzhauser von der Universität Bern sowie Gernot Patzelt von der Universität Innsbruck, dass in unserer aktuell 9.000 Jahre anhaltenden Warmzeit die Alpengletscher in der weit überwiegenden Zeit kleiner waren als gegenwärtig. Mitte des 19. Jahrhunderts, also nach Ende der Kleinen Eiszeit – so wird die Kälteperiode von Mitte des 15. bis zur Mitte des 19. Jahrhunderts bezeichnet – begannen die Alpengletscher wieder einmal zu schmelzen. Damals gab es aber noch kaum menschgemachtes CO2. Schmelzende Gletscherzungen in den Alpen geben regelmäßig uralte Baumstümpfe frei, welche die ehemalig höheren Baumgrenzen und somit wärmere Zeiten der Vergangenheit anschaulich demonstrieren.

In den zwei langgezogenen Klimaerwärmungen des Holozän – vor 6.500 Jahren über knapp  2.000 Jahre Dauer, sowie vor 4.500 Jahren über 1.500 Jahre Dauer – war es deutlich wärmer als heute. Zwei kürzere Klimaoptima, das starke römische und das etwas schwächere mittelalterliche, entsprachen etwa den heutigen Temperaturen. Warmperioden waren immer kulturelle Blütezeiten. Kaltzeiten bedeuteten dagegen Völkerwanderungen, Hunger und Seuchen. In der starken Warmperiode um 6500 vor heute wurden in Mesopotamien der Pflug, das Rad, Bewässerungssysteme und die Schrift erfunden. Die tiefen Temperaturen und die Not der Menschen in der kleinen Eiszeit“ werden in den weltberühmten Winterbildern der zeitgenössischen holländischen Meister wieder lebendig.

Im 20. Jahrhundert erwärmte es sich bereits um die 1935er Jahre bis auf die heutigen Temperaturen, um sich danach, bis etwa 1975, wieder auffällig abzukühlen. Die ungewöhnliche Wärme der 1930er Jahre findet sich sogar in der Weltliteratur wieder. So nimmt der Protagonist Humbert Humbert im Roman Lolita“ an einer Expedition zur Erforschung der globalen Erwärmung teil. Der Roman spielt in den 1930er Jahren und wurde 1955 veröffentlicht. Wie die WELT 2009 schrieb, veranlasste umgekehrt die dann folgende Abkühlung bis 1975 den US Science Report von 1972, vor einer neuen Eiszeit zu warnen. Sogar das US Time Magazine berichtete entsprechend alarmistisch in seiner Ausgabe vom 3. Dez. 1973. Es war glücklicherweise ein Fehlalarm, ähnlich wie das uns zeitlich näher gelegene Waldsterben.

Ab 1975 bis 1998 ging es mit der globalen Mitteltemperatur wieder nach oben. Die 20 Jahre danach bis heute verblieb dann die Erdtemperatur auf etwa gleichem Niveau. Der bekannte US Blog WUWT hat zu diesem, mit dem stetig zunehmenden CO2 überhaupt nicht zusammenpassenden Temperaturstillstand (Hiatus) zahlreiche relevante Fachpublikationen zusammengestellt. Der letzte, nicht einmal 30-jährige Temperaturanstieg von 1975 bis 1998, gab zur Hypothese einer menschgemachten (anthropogenen) Erwärmung Anlass. Hauptargument dafür war der CO2-Anstieg in der Atmosphäre. Tatsächlich fielen etwa drei Viertel aller menschgemachten CO2-Emissionen in die Zeitspanne der letzten 70 Jahre.

Das „Rasiermesser“ von William Ockham

Der alarmistischen Hypothese eines anthropogenen Klimawandels widersprechen zumindest die oft höheren Vergangenheitstemperaturen. Aber auch die Geschwindigkeit des jüngsten Temperaturanstiegs lag weit im natürlichen Bereich, wie es die Klimawissenschaftler David B. Kemp und Mitautoren in einer in Nature Communications veröffentlichten Studie von 2015 belegen. Eine inzwischen recht lang gewordene Reihe von Fachpublikationen vermag zumindest die globale Temperaturentwicklung der letzten 2000 Jahre, inklusive der jüngsten Erwärmung und dem darauffolgenden Temperaturstillstand, auf natürliche Zyklen zurückzuführen. Der Ursprung dieser Zyklen ist noch unklar, man vermutet ihn im variablen Sonnenmagnetfeld und den dadurch bedingten Änderungen der Wolkenbildung.

Das Grundparadigma der modernen Naturwissenschaft, das „Rasiermesser“ von William Ockham, wird daher von den wissenschaftlichen Klima-Alarmisten komplett ignoriert. Es besagt, dass zur Erklärung eines Phänomens stets die einfachste zu nehmen ist. Nur wenn dies nicht möglich ist, sollten neue Hypothesen ins Spiel gebracht werden. Gemäß dem Ockham-Paradigma muss der jüngste Temperaturanstieg natürlich sein, weil er klimahistorisch normal ist und zudem eine schlüssige Erklärung in der zyklischen Sonne vorweisen kann. Gibt es Gegenargumente? Schauen wir uns die wichtigsten einmal an, zuerst die angebliche Zunahme von Extremwettern durch zunehmendes CO2:

Für jedes Extremwetter, wo immer es auf der Welt auftritt, machen die meisten Medien inzwischen einen menschgemachten Klimawandel verantwortlich. Dabei wird salopp Wetter mit Klima verwechselt. Wetteränderungen können in der Tat schon sehr eigenartig sein, finden sich aber nicht in Klimaveränderungen wieder. Besonders schöne Beispiele von Wetterkapriolen hatte bereits vor 200 Jahren Johann Peter Hebel in seinem Rheinischen Hausfreund veröffentlicht. Er berichtete:

Der warme Winter von . . . 1806 auf . . . 1807 hat viel Verwunderung erregt und den armen Leuten wohlgetan; der und jener . . . wird . . . als alter Mann . . . seinen Enkeln erzählen, daß. . . man Anno 6, als der Franzos in Polen war, zwischen Weihnacht und Neujahr Erdbeeren gegessen und Veielein gebrochen habe. Solche Zeiten sind selten, aber nicht unerhört, und man zählt in den alten Chroniken seit 700 Jahren 28 dergleichen Jahrgänge . . . 1289 . . . war es so warm, daß die Jungfrauen um Weihnacht und am Dreikönigstag Kränze von Veilchen, Kornblumen und andern trugen . . . 1420 war der Winter und das Frühjahr so gelind, daß im März die Bäume schon verblüheten. Im April hatte man schon zeitige Kirschen und der Weinstock blühte. Im Mai gab es schon ziemliche Traubenbeerlein. . . Im Winter 1538 konnten sich auch die Mädchen und Knaben im Grünen küssen, wenns nur mit Ehren geschehen ist; denn die Wärme war so außerordentlich, daß um Weihnacht alle Blumen blühten. Im ersten Monate des Jahres 1572 schlugen die Bäume aus, und im Februar brüteten die Vögel. Im Jahre 1585 stand am Ostertag das Korn in den Ähren . . . 1617 und 1659 waren schon im Jänner die Lerchen und die Trosteln lustig . . . 1722 hörte man im Jänner schon wieder auf, die Stuben einzuheizen. Der letzte ungewöhnlich warme Winter war im Jahre 1748. Summa, es ist besser, wenn am St.-Stephans-Tag die Bäume treiben, als wenn am St.-Johannis-Tag Eiszapfen daran hängen.“

Wetterkapriolen haben nicht das geringste mit Klimaveränderungen zu tun. Die Meteorologen drücken es angesichts des Erschreckens von Laien über die immer wieder auftretenden Extremwetterschäden kühl so aus: Das Gewöhnliche am Wetter ist seine Ungewöhnlichkeit„. Über Extremwetterzunahmen in Klimazeiträumen seit 1950 gibt sogar das hier sicher unverdächtige IPCC im Sachstandsbericht von 2013 detailliert Auskunft. Behandelt werden Stürme, Tornados, Hagel, Starkregen, bis hin zu Dürren und Überschwemmungen. Seit 1950 liegen nämlich ausreichend umfangreiche Messungen und Statistiken vor. Als Ergebnis findet das IPCC bis heute keine Zunahme solcher Ereignisse, weder an Anzahl, noch an Stärke. Damit bestätigt es nur die meteorologische Fachliteratur, die gleiches aussagt. Alle heutigen Extremwetter gab es auch schon in der Vergangenheit ohne menschgemachtes CO2 und damals oft sogar stärker. Besonders anschaulich ist dies bei extremen Überschwemmungen zu erkennen, denn hier gibt es noch unzählige historische Flusspegelmarken an gemauerten Spundwänden. Sie beweisen, dass die stärksten Überschwemmungen in der kleinen Eiszeit“, also im 17. bis 19. Jahrhundert auftraten und nicht in den letzten Jahrzehnten.

Die Sache mit der Klimasensitivität

Der Nachweis von einem Klimaeinfluss des Menschen steht bis heute aus. Lokal begrenzt zeigt sich ein solcher Einfluss dagegen sehr wohl. So etwa in Großstädten, wo höhere Durchschnittstemperaturen infolge des starken lokalen Energieverbrauchs vorherrschen. Es geht uns aber um globalweite Änderungen in Klimazeiträumen und vor allem um die Frage nach einem maßgebenden anthropogenen Einfluss. Tatsächlich hat das CO2 unserer Atmosphäre einen stark erwärmenden Einfluss. Die Wirkung der infrarotabsorbierenden Gase in der Luft, an erster Stelle Wasserdampf, an zweiter Stelle CO2, ist physikalisch belegt und populär als Treibhauseffekt“ bekannt. Liegt hier ein Widerspruch zum bisher unbekannten Klima-Einfluss des Menschen vor? Keineswegs, denn es geht um die Erwärmungswirkung des in die Atmosphäre neu hinzugekommenen CO2. Und diese Erwärmungswirkung ist bislang fast komplett unbekannt. Wie passt das zusammen?

Der scheinbare Widerspruch zwischen starker Erwärmung des CO2 schlechthin und der offensichtlich winzigen Erwärmungswirkung des hinzugekommenen anthropogenen CO2 hat eine einfache Auflösung: Die Infrarotabsorption des bereits vorhandenen CO2 war bereits vor der Industrialisierung weitgehend vollständig, so dass die Erwärmungswirkung des neu hinzugekommenen CO2 nur noch extrem gering sein konnte. Oder anschaulicher: Hängt man über ein schwarzes Tuch, das ein Fenster abdunkelt, ein weiteres Tuch, also verdoppelt man in unserem Vergleich das CO2, wird es kaum dunkler. Sogar das IPCC musste inzwischen kleinlaut bestätigen, dass die Wissenschaft zur Erwärmung des menschgemachten CO2 nichts Sicheres angeben kann. Kleinlaut, weil diese Nachricht in einer unscheinbaren Fußnote des IPCC-Berichts für Politiker von 2013 auf versteckt wurde (Seite 16).

Die Erwärmungswirkung von zusätzlichem CO2 wird als Klimasensitivität“ bezeichnet. Sie bezeichnet die globale Erwärmung in °C infolge einer hypothetischen CO2-Verdoppelung in der Luft. Im IPCC-Bericht AR5 von 2013 wurde dafür noch eine Spannweite von 1,5 – 4,5°C angegeben. In den letzten Jahren sind ihre Werte in der Fachliteratur ständig gesunken und deuten aktuell auf deutlich weniger als 1,5°C hin, wie es der französische Klimaforscher Francois Gervais 2016 in einer Fachpublikation in Earth-Science Reviews 155 belegt. Der Wert 1,5°C (vor 2 Jahren waren es noch politisch nicht so wirksame 2°C) wird von Politikern und Klima-Aktivisten als eine bedenkliche Schwelle bezeichnet. Für diese freie Behauptung gibt es aber keine sachlich ordentliche Begründung. Es ist schlussendlich zu betonen, dass bisher keine menschgemachte Erwärmungswirkung in dem starken natürlichen Klimarauschen durch Messungen zu entdecken ist.

Der heutige wissenschaftliche Kenntnisstand gibt keine gefährliche globale Erwärmung durch zunehmendes CO2 her. Nur die rechnerischen Computer-Klimamodelle machen hier eine Ausnahme. Eine verlässliche Globalmodellierung eines so komplexen Geschehens wie „Klima“ ist aber mit Modellen unmöglich. Das Versagen von kurzfristigen und damit nachprüfbaren Klimamodell-Vorhersagen oder Szenarien belegt es. Die etwas peinliche, weil unzutreffende Klimamodellprophezeiung über zukünftige deutsche Winter ohne Schnee vom Klimamodell-Professor Mojib Latif ist einigen Lesern vielleicht noch in Erinnerung. Klima-Modelle können ohne künstliche Hilfen nicht einmal die Klimavergangenheit wiedergeben, wie es eine Literatur-Zusammenstellung des bereits erwähnten US Blogs WUWT dokumentiert. Sie sind allenfalls für wissenschaftliche Detailfragen von Nutzen.

Die Konzentration des Spurengases CO2 stieg ab Beginn der Industrialisierung bis heute von 0,028 Prozent auf 0,04 Prozent (von 280 ppm auf 400 ppm) an. Messungen des US Wissenschaftszentrums zum CO2-Kreislauf, CDIAC, weisen nach, dass dieser Anstieg menschgemacht ist. Das Spurengas CO2 ist aber Grundbestandteil der Photosynthese und damit Voraussetzung allen Lebens auf der Erde. Ohne CO2 gäbe es uns nicht. Die CO2-Zunahme verstärkte den Wuchs der meisten Pflanzenarten, insbesondere von Nahrungspflanzen und ließ die Welternten messbar zunehmen. Die CO2-Zunahme der letzten Jahrzehnte hat zum Ergrünen der Erde geführt, dies ist sogar dem SPIEGEL aufgefallen. Die Menschheit müsste daher der gegenwärtigen CO2-Zunahme dankbar sein. Kohleverbrennung gibt der Atmosphäre nur dasjenige CO2 wieder zurück, welches sie vor Urzeiten einmal besaß und welches ehemals über Pflanzenverrottung zu Kohle wurde.

2100 Meeresspiegel 8 Zentimeter höher

Aber die Südseeinseln versinken doch durch den Meeresspiegelanstieg„, so erzählen es uns die deutschen Qualitätsmedien“. Was ist da dran? Durch Schmelzen der Eismassen nach der letzten Eiszeit hat sich der globale Meeresspiegel um 120 m erhöht – mit stetig abnehmender Geschwindigkeit. Der aktuell nur noch unbedeutende Restanstieg wird seit vielen Jahrzehnten von tausenden weltweit verteilten Pegelmessstationen akribisch überwacht und dokumentiert. Eine gemeinsame Fachstudie und Auswertung dieser Messung von zwei US-Universitäten, zusammen mit einer israelischen Universität, vom Jahre 2015, die in Environ Ecol Stat, 22 (2015) veröffentlicht wurde, hat einen gemittelten Meeresspiegelanstieg von 0,4 bis 1 mm/Jahr ermittelt. Obwohl diese Fakten auch ordentlichen Recherchen von Journalisten nicht verborgen sind, wird uns das Versinken von paradiesischen Südsee-Inseln als bevorzugtes Narrativ wohl noch lange erhalten bleiben. Bis zum Jahre 2100 bedeutet der gegenwärtige Anstieg im Maximalfall gerade einmal 8 Zentimeter mehr. Eine Beschleunigung des Anstiegs zeigen weder die die Pegel noch die Satellitenmessungen.

Nun zu einer interessanten Frage: Was würden eigentlich deutsche CO2-Einsparungen bewirken, wenn man hilfsweise die ungünstigsten Modellannahmen des IPCC als real voraussetzt? Deutschlands momentaner Anteil an den weltweiten CO2-Emissionen beträgt grob 2,2 Prozent. Um zu ermitteln, wie sich eine Verringerung dieses Beitrags um 80 Prozent (Plan der Bundesregierung) auf die globale Mitteltemperatur bis zum Jahre 2050 auswirkt, gehen wir vereinfacht von den denkbar ungünstigsten Annahmen aus: Die derzeitige CO2-Konzentrationserhöhung der Luft beträgt 2 ppm/Jahr, das sind in den 32 Jahren bis 2050 dann 64 ppm mehr. Deutsche 80 Prozent Einsparungen bedeuten davon 0,8 x 0,022 x 64 = 1,1 ppm weniger. Als maximal möglichen Wert der Klimasensitivität, also infolge CO2-Anstiegs von heute 400 ppm auf 2 x 400 = 800 ppm, nennt das IPCC, wie bereits erwähnt, 4,5°C. Die Temperaturverringerung durch 80 Prozent deutscher CO2 Einsparungen beträgt somit höchstens 4,5 x 1,1/400 = 0,012°Calso praktisch nichts. Dieses „Nichts“ kostet die Steuerzahler aber viele Milliarden Euro jedes Jahr durch die Energiewende, läuft unter der Bezeichnung „Große Transformation“ und ist nichts anderes als ein undemokratischer, diktatorischer Eingriff in jeden Lebensbereich des Bürgers. 80 Prozent CO2-Einsparung würden zudem das definitive Ende Deutschlands als Industrie- und Wohlstandsstaat bedeuten.

Aber in der Klimawissenschaft herrscht doch Konsens über die menschgemachte Erwärmung, oder nicht?“ Auch dieser Irrtum macht in den allermeisten Medien immer wieder die Runde. Zuerst einmal hat Wissenschaft im Konsens mit ordentlicher Wissenschaft nichts zu tun. Wissenschaftlichen Fortschritt gab und gibt es nur bei abweichenden wissenschaftlichen Meinungen und „Ketzern“ gegen den jeweilig herrschenden Mainstream. Von Albert Einstein wird berichtet, er habe Meinungsgegnern seiner Relativitätstheorie, angeblich hunderten im Konsens gegen ihn opponierenden Fachkollegen, geantwortet „Wieso hunderte? Wenn die Relativitätstheorie falsch ist, reicht einer“. Dennoch ist es bei umstrittenen wissenschaftlichen Aussagen natürlich interessant, sich die Verteilung von Gegnern und Befürwortern näher anzusehen.

Die in den Medien kolportierten 97 Prozent  Konsens in der Klimaforschung sind nachgewiesener Unsinn, der Daily Caller deckte den Fake 2017 im Detail auf. Man schaue sich besser seriöse deutsche Umfragen an, wie zum Beispiel die der Professoren Hans von Storch von der Universität Hamburg sowie von Hans Mathias Kepplinger von der Universität Mainz an, die auf ganz andere Zahlen kommen. Ferner sind die vielen begutachteten Klimafachveröffentlichungen und ihre prominenten wissenschaftlichen Unterstützer zu beachten, welche die Hypothese vom anthropogenen Klimawandel ablehnen. Und schlussendlich gibt es seit Beginn der Klima-Bewegung immer wieder Manifeste und Petitionen von unzähligen Klimaforschern und fachnahen Experten gegen die politische und mediale Propagierung der menschgemachte Erwärmungshypothese. Sie sind im Internet dokumentiert, wie die Oregon-Petitiondas Heidelberger Manifestdie Leipziger Deklarationder U.S. Senate Minority Reportdie Engabe an US-Präsidenten Obamader Offene Brief an UN Generalsekretär Ban Ki-Moondie Petition an Präsident Donald Trump. Die deutschen berichteten darüber so gut wie nicht, es passt mit ihrem Erziehungsauftrag nicht zusammen.

Zusammengefasst: Es gibt es keinen Grund, eine gefährliche globale Erwärmung infolge anthropogener CO2-Emissionen zu befürchten. Der Einfluss des Menschen auf die gemittelte Globaltemperatur ist sehr viel geringer als befürchtet und schon gar nicht katastrophisch. Es gibt insbesondere bis heute keine Extremwetterereignisse, Temperaturen oder Temperaturänderungen, die im Vergleich mit den Zeiten vor der Industrialisierung ungewöhnlich sind. Der Begriff Klimaschutz“ ist sinnlos, denn man kann Klima – einen naturgesetzlich sich laufend ändernden statistischen Mittelwert über 30 Jahre – nicht schützen. Entsprechend sinnlos und unwirksam sind Klimaschutzgesetze. Sie verbrennen aber erhebliche Steuermittel. Auch das gelegentlich vorgebrachte Vorsichtsprinzip geht fehl, denn das Verhältnis von Nutzen zu Kosten von Klimaschutz“ ist gleich Null. In Befolgung des Vorsichtsprinzips investiertes Geld ist an anderer Stelle besser aufgehoben.

Der Artikel erschien zuerst bei ACHGUT (hier). Der Autor dankt insbesondere Herrn Dirk Maxeiner für seine freundliche Genehmigung, den Beitrag nun auch in EIKE bringen zu dürfen.

Anmerkung des Autors

Puristen mögen Verständnis dafür haben, dass in einem allgemeinthematischen Blog fachliche Aussagen allgemeinverständlich sein müssen und nicht immer bis ins letzte Detail erklärt werden können.




Wie ungewöhnlich ist die aktuelle Trockenperiode?

Man braucht nur beim deutschen Wetterdienst DWD nachzuschauen. Der liefert ab 1881 alle gewünschten Daten monatsweise (hier). Also hier für die Monate Mai+Juni+Juli per cut and paste die Niederschlagswerte in EXCEL hinein und nach Größe sortieren. Dauert ein paar Minuten.

Gibt es vielleicht noch anderswo historische Wetterdaten, die mehr als 100 Jahre lang sind und bis zum heutigen Monat reichen? Ja sicher, mir ist aber keine Institution bekannt, welche sie handlich zur Verfügung stellt. Man muss sie sich von den einzelnen Wetterstationen selber beschaffen, meist ein schwieriger Prozess. Die Daten weisen oft große Lücken auf, die man, wenn man Glück hat, mit Daten von benachbarten Stationen zukleben kann. Beispiele von Stationen mit sehr langen Regenzeitreihen, die bis Anfang des 19. Jh. zurückreichen, sind  Edinburg, Paris und Stockholm. Für diese kurze News hier lohnt der Aufwand nicht.

Es gibt aber eine mustergültig geführte Regenreihe bis Ende des 19. Jh. zurück, die problemlos erreichbar ist, die mittelenglische Reihe CEP (hier). Sie ist ebenso leicht auszuwerten wie die DWD-Daten.

Beide Regenreihen graphisch hier

Bild: Summe der Niederschlagsmengen von Mai+Juni+Juli für Deutschland und Mittelengland (vom Autor erstellt).

Was ist zu sehen? Jedenfalls kein säkularer Trend, wie er seitens des IPCC durch den angestiegenen CO2-Gehalt in der Luft vermutet wird. Wir sehen Wetterereignisse (zur Erinnerung: Klima ist definiert als der statistischen Mittelwert von Wetter über mindestens 30 Jahre). Der Summenregenwert Mai+Juni+Juli von Deutschland in 2018 ist tatsächlich ein Wetterrekord, wenn auch nur knapp. Seine 139,4 mm Regensumme in 2018 unterbieten die 145,7 mm in 1911 nur geringfügig.

Anders sieht es in Mittelengland mit seinem maritimen Klima aus. Hier liegen die 63,1 mm Regensumme von 1921 weit unter den 90,5 mm in 2018

1921 63,1
1995 79,6
1976 86,5
1874 89,5
2018 90,5

Es bleibt abzuwarten, wie sich die Situation bei Hinzunahme der kommenden Monate August und September weiterentwickelt. Vielleicht gibt es ja doch noch deutlichere Wetterrekorde.

Einen Blick über den Tellerrand, der weiter in die Vergangenheit reicht, bietet eine wissenschaftliche Fachpublikation, die in den EIKE-News besprochen wurde (hier). Ferner hat der deutsche Mundart-Dichter Johann Peter Hebel in seinen Kalendergeschichten (veröffentlicht im Rheinischen Hausfreund) aus überlieferten Dokumenten ungewöhnlich warme Winter zusammengestellt. Hier seine Schilderung

Warme Winter   (1808)
Der warme Winter von dem Jahr 1806 auf das Jahr 1807 hat viel Verwunderung erregt, und den armen Leuten wohlgetan; und der und jener, der jetzt noch fröhlich in den Knabenschuhen herumspringt, wird in sechzig Jahren einmal als alter Mann auf den Ofenbank sitzen, und seinen Enkeln erzählen, daß er auch einmal gewesen sei, wie sie, und daß man Anno 6, als der Franzos in Polen war, zwischen Weihnacht und Neujahr Erdbeeren gegessen und Veielein gebrochen habe. Solche Zeiten sind selten, aber nicht unerhört, und man zählt in den alten Chroniken seit 700 Jahren 28 dergleichen Jahrgänge.
Im Jahr 1289, wo man von uns noch nichts wußte, war es so warm, daß die Jungfrauen um Weihnacht und am Dreikönigtag Kränze von Veilchen, Kornblumen und andern trugen.
Im Jahr 1420 war der Winter und das Frühjahr so gelind, daß im März die Bäume schon verblüheten. Im April hatte man schon zeitige Kirschen, und der Weinstock blühte. Im Mai gab es schon ziemliche Traubenbeerlein. Davon konnten wir im Frühjahr 1807 nichts rühmen.
Im Winter 1538 konnten sich auch die Mädchen und Knaben im Grünen küssen, wenn’s nur mit Ehren geschehen ist; denn die Wärme war so außerordentlich, daß um Weihnacht alle Blumen blühten.
Im ersten Monat des Jahrs 1572 schlugen die Bäume aus, und im Februar brüteten die Vögel.
Im Jahr 1585 stand am Ostertag das Korn in den Ähren.
Im Jahr 1617 und 1659 waren schon im Jänner die Lerchen und die Trosteln lustig.
Im Jahr 1722 hörte man im Jänner schon wieder auf, die Stuben einzuheizen.
Der letzte, ungewöhnlich warme Winter, war im Jahr 1748.

Summa, es ist besser, wenn am St. Stephanstag die Bäume treiben, als wenn am St. Johannistag Eiszapfen daran hängen.

Schade, dass Hebel nicht das gleiche für Dürresommer gemacht hat!

Anstelle von Datenanalysen der jüngeren Vergangenheit und von Proxydaten der weiteren Vergangenheit sind heute Klimamodelle in Mode gekommen. Man kann sie, was ihren Missbrauch als den Medien angediente Prognosewerkzeuge betrifft, durchaus mit den Beschwörungen ehemaliger Schamanen vergleichen. Eine besonders lustige Vorhersage wurde vom bekannten Klimamodellierer Prof. Mojib Latif im Jahre 2000 gemacht, „Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben“ ließ Latif verlauten (hier). Solch ein wissenschaftlicher Irrtum kann natürlich immer passieren. Aber anstatt sich zu schämen und mit Aussagen auf Basis seiner Modelle vorsichtiger zu sein, zieht dieser Klimamodellierer nach wie vor durch die deutschen Lande und predigt den Untergang der Welt durch unsere CO2-erzeugende Lebensweise („Mojib Latif Vorträge“ googeln).

 

 

 

 

 

 

 

 




Die Deindustrialisierung geht ans Eingemachte

Auf achgut.com wird regelmässig über die Zerstörung der Energiewirtschaft und unserer Landschaft durch das EEG, das vom post-religiösen Mythos des anthropogenen Klimawandels motiviert ist, von der Zerlegung unserer Automobilindustrie, von der Biotechnologiefeindlichkeit der schwarzgrünen Reinheitsfreunde oder von den Digitalisierungs-Verhinderungsinitiativen der EU berichtet. Die Beiträge der Achse-Serie „Deutschland steigt aus“ geben eine gute Übersicht zu diesem Thema, hier am Ende der letzten Folge aufgeführt. Selbst Schüler berichten adäquat über das Phänomen. Es besteht weitgehende Einigkeit darübert, dass Deindustriealisierung allen schadet, aber es ist dennoch gut sich einmal anzuschauen, was sie für unsere Gesellschaft eigentlich genau bedeutet.

Vor fast 50 Jahren erschien das heute nahezu vergessene Buch „Der Staat der Industriegesellschaft“ des Verfassungsrechtlers Ernst Forsthoff, der als Carl Schmitt-Schüler und zu Beginn des „Dritten Reichs“ ein Nazi war („Der Totale Staat“, 1933). Zwar schwor er dem Nationalsozialismus nach dem Krieg gründlich ab, doch blieb er weitgehend eine persona non grata. Forsthoff war einer, der die Probleme der industriellen Massengesellschaft extrem gut verstand – vielleicht gerade, weil er dem Nationalsozialismus, einer politischen Bewegung, die auf die Massengesellschaft und ihre Defizite zugeschnitten war, anfänglich auf den Leim gegangen ist. Modernisiert man seine Erkenntnisse, passen sie immer noch hervorragend auf unsere Situation und helfen uns, zu verstehen, was Deindustriealisierung eigentlich bedeutet.

Anders als der Staat des Absolutismus – im Wesentlichen ein Ordnungsstaat – oder der Staat des 19. Jahrhunderts – ein Ordnungs- und Rechtsstaat – ist der Staat der industriellen Massengesellschaft laut Forsthoff kein Staat im klassischen Sinne mehr. Er war ursprünglich in erster Linie Sozialstaat der Daseinsfürsorge (Arbeitslosen- und Krankenversicherung, Grundsicherung = „Hartz IV“) und Daseinsvorsorge (Rentenversicherung, Unfallversicherung) und ein Staat der Verwaltung einer hochkomplexen Industriegesellschaft. Was heißt das?

Aus Eigeninteresse heraus an Regeln halten

Blicken wir zunächst auf den Zustand unseres Landes bis etwa Mitte der 1990er Jahre, der dem Zustand, den Forsthoff 1971 beschrieb, noch weitgehend gleicht. In dieser sozialstaatlich organisierten, kulturell homogenen Industriegesellschaft mit hochkomplexen Teilsystemen, Technologien und Vollbeschäftigung funktioniert das friedliche Zusammenleben der Menschen durch viele nichtstaatliche Faktoren. (Industriegesellschaft meint nicht nur die industrielle Produktion, sondern auch komplexe Dienstleistungen wie etwa Versicherungspolicen, Bankkredite, Energiegewinnung und -verteilung, Softwarebereitstellung oder Verkehrsplanung.)

Der Wohlstand und die disziplinierende Wirkung des „stahlharten Gehäuses“ eines arbeitsteiligen Erwerbs des Lebensunterhalts führen dazu, dass sich die meisten Menschen aus innerstem Eigeninteresse heraus an Regeln halten. Denn sie merken, dass Wohlverhalten und Disziplin ihnen ein sicheres und auskömmliches Leben ermöglichen. Staatliche Sozialleistungen und Daseinsvorsorge für Alter und Berufsunfähigkeit sichern diese Situation ab, der Bürger findet den Staat vor allem wegen dieser Absicherungsfunktion attraktiv.

Außerdem ermöglichen staatliche Institutionen und Infrastruktur (die der Staat nicht unbedingt bereitstellen, aber notwendigerweise regulieren muss) überhaupt erst das Siedlungsmuster der Industriegesellschaft mit hochverdichtetem Wohnen und intensivem Personen-, Güter- und Energietransport. Des weiteren ist der Staat in Folge der Technologieentwicklung gefordert, Technologienutzung gesetzgeberisch zu begleiten und entsprechende hochspezialisierte Institutionen zu schaffen wie etwa Atomaufsichtsbehörden. Gleichzeitig nimmt die Notwendigkeit ordnungsstaatlichen Handelns ab, mehr noch die Bereitschaft, ordnungsstaatliche Ziele zu definieren und durchzusetzen.

Es besteht auch ein Konflikt zwischen Rechtsstaat und Sozialstaat, da der Sozialstaat Freiheiten einschränkt, die der Rechtsstaat garantiert. In Deutschland ist seit Jahrzehnten die autonome richterliche Rechtsprechung eingesetzt worden, um diesen Konflikt zu Lasten der bürgerlichen Freiheiten aufzulösen. Dabei wird die „entpolitisierende Wirkung der sozialstaatlichen Strukturelemente“ (Forsthoff, S. 146) offenbar, denn nicht nur erfolgt eine Verlagerung von der politischen auf die judikative Ebene, sondern die Parteien organisieren sich hinsichtlich ihrer sozialpolitischen Zielsetzungen nahezu einheitlich (das trifft heute sogar für die AfD zu, die ja in vielen Politikfeldern stark von den Altparteien abweicht).

Die klassischen Funktionen Ordnungs- und Rechtsstaatlichkeit treten also gegenüber dem planenden, organisierenden und betreuenden Staat zurück. Das Rückgrat, die conditio sine qua non dieses Staats, ist die Industriegesellschaft, die nicht nur den Wohlstand erzeugt, mit dessen Hilfe der Staat seine umfassenden Funktionen wahrnehmen kann, sondern dem Staat auch durch die disziplinierende Wirkung des Arbeitslebens viel ordnungsstaatliche Last abnimmt. Industriegesellschaft und moderner Staat sind auf einander zwingend angewiesen.

Donald Trump hat es verstanden

Doch heute haben sich so viele Parameter verändert, dass die Symbiose von Industriegesellschaft und Staat auseinanderzubrechen droht. In welcherlei Hinsicht? Beginnen wir mit der Ausgangsfrage: Was ist die Bedeutung der Deindustriealisierung? Die Deindustriealisierung vollzieht sich wie ein langsam wachsendes Krebsgeschwür, das man lange nicht spürt, bevor es schließlich das Überleben des Organismus bedroht. Wesentliche Schritte der Verfeinerung der Industriegesellschaft und der Steigerung der Wertschöpfung, wie etwa der Einsatz von genetischer Rekombinationstechnologie (Gentechnik) oder der sogenannten „Künstlichen Intelligenz“ (einer verbesserten Form der Automatisierung von Arbeit, die nichts mit echter Willensbildung zu tun hat), werden durch Regulierung und Rechtsprechung verhindert – mit anderen Worten, wir verhindern die Modernisierung unserer Industriegesellschaft und unterbinden neue Quellen der Wertschöpfung.

Zusätzlich dazu werden etablierte, äußerst wirkungsvolle und effiziente Technologien wie die Energiegewinnung mit Hilfe von Kernspaltung oder die Mobilität mit Verbrennungsmotor, in die Millionen Mannjahre der Optimierung gesteckt wurden, bekämpft, so dass sie aufgegeben oder zurückgedrängt werden. Dabei werden diese gigantischen Investitionen implizit abgeschrieben, somit fallen Quellen stetiger Wohlstandsgewinnung einfach weg – bildlich gesprochen, töten wir die milchgebenden Kühe (und in der Tat, Gipfel des Wahns, halten fanatische Öko-Ideologen neuerdings Kuhmilch, die Menschen seit Jahrzehntausenden segensreich nutzen, für Gift).

Gleichzeitig wird ein globales Handelssystem propagiert, das zwar der Finanzwirtschaft nützt, weil es ständig teure Transaktionen generiert und margenstarke Derivate ermöglicht, jedoch zu einer Abwanderung riesiger Bereiche der Realwirtschaft führt – in Länder, die selbst protektionistisch agieren und aus westlichen Unternehmen eine Technologieentnahme anstreben wie China.

Das hochkomplexe Wirtschaftssystem, das wir haben, kompensiert diese partiellen Ausdünnungen und Schließungen von Teilbereichen eine ganze Weile lang: wie ein Organismus, der eine Krankheit durch erhöhte Leistung nicht-befallener Organe kompensiert. Doch irgendwann sind die Kompensationsmöglichkeiten erschöpft und die Krankheit bricht offen aus, der Organismus ist akut bedroht.

So wird es auch der Industriegesellschaft ergehen, wenn wir sie weiter selbst zerstören und nicht – wie der geniale Rabauke Donald Trump, der das verstanden hat – versuchen, diesen Wahnsinn zu stoppen. Irgendwann stagniert oder sinkt sonst der Output. Damit greifen wir den innersten Kern unseres Staatswesens an, das essenziell von der funktionierenden Industriegesellschaft abhängig ist. Denn wenn der Wohlstand fehlt, den wir brauchen, um den Sozialstaat zu betreiben, zerfällt der innere Frieden.

Deindustrialisierung und scheiternder Sozialstaat

Die Deindustrialisierung mit ihren auf die Dauer desaströsen Folgen für die Wirtschaft trifft zu allem Übel nämlich auf einen Sozialstaat, der schon seit mehr als vier Jahrzehnten mit florierender Industriegesellschaft – und das konnte Forsthoff noch nicht sehen – mehr ausgibt, als er einnimmt: wie in Griechenland, nur nicht so drastisch. Der die Sozialsysteme, die sich selbst tragen sollten, aus Steuern bezahlt (Steuerzuschuss zur Rentenkasse pro Jahr fast 100 Milliarden), Beamte und Angestellte beschäftigt, deren Pensionen und Renten er nicht zahlen kann, und seit 2015 zusätzlich zu den – teilweise selbst geschaffenen – deutschen Grundsicherungsempfängern (etwa 4 Millionen) noch eine unbekannte, aber hohe Zahl (1 bis 2 Millionen) von eingewanderten Sozialleistungsempfängern alimentieren, kranken- und sogar altersversichern muss.

Bricht der Euro zusammen, und dem Staat werden Billionen neuer Schulden aufgebürdet, wird der Staat bankrott gehen und weder seine Zahlungsversprechen an seine direkten (Halter von Anleihen) und indirekten (Rentenempfänger) Gläubiger einhalten noch die Sozialleistungen weiterhin aus Steuermitteln finanzieren können. Gleichzeitig wird der Bedarf sich drastisch erhöhen, weil Arbeitslosigkeit und Altersarmut massiv zunehmen werden. Insbesondere die flächendeckende Alimentierung der Migranten, für die lebenslang kaum Aussicht auf einen produktiven Beitrag zum Wirtschaftsoutput besteht, wird unmöglich werden.

Die Folgen der Deindustrialisierung und des scheiternden Sozialstaats verstärken sich nicht linear, da sie miteinander interagieren, sondern sie schaukeln sich gegenseitig auf. Wir sehen also in der Tendenz exponentiellen Folgen der Deindustriealisierung und der Selbstzerstörung des Sozialstaats entgegen. Doch warum zerstören wir die Industriegesellschaft, und was bedeutet das für den Ordnungsstaat?

Selbstzerstörerischen Altruismus zum einzigen Wert erklärt

Was einmal vor dem Hintergrund von offener Umweltverschmutzung und Industriekatastrophen wie Seveso,Bhopal oder Tschernobyl als berechtigtes Anliegen der Technologieplanung und -regulierung begann, hat sich im Rahmen des globalistischen Humanitarimus als Religionsersatz verselbständigt und zerstört nun ohne positive Wirkung auf Gesundheit oder Umwelt unsere Lebensgrundlage.

Stolz jubelnd sägen wir die industriellen Äste, auf denen wir sitzen, einfach ab. Bei biologischen Technologien hat es noch keine Katastrophen des oben genannten Ausmaßes gegeben, und mit modernem Genome Editing, das im Wesentlichen wie eine beschleunigte traditionelle Mutagenesezüchtung wirkt, wird das auch immer unwahrscheinlicher. Doch auch sie trifft der Eifer der Glaubensgemeinde. Bei der Digitalisierung und der Automatisierung ist die Ursache hingegen die absurde Verabsolutierung von Grundrechten auf Kosten der Quelle der Menschenwürde, der individuellen Freiheit (DS-GVO).

Ein weiterer Aspekt: Wenn immer weniger Menschen im disziplinierenden Rad der Wertschöpfung laufen und wir immer mehr Zuwanderer bekommen, die in das Rad gar nicht erst einsteigen können, weil sie nicht dazu qualifiziert sind, entsteht wieder Bedarf am Ordnungsstaat. Das sieht man beispielsweise bei der Migrantenkriminalität schon jetzt. Doch sind wir zu einer Renaissance des Ordnungsstaats noch fähig?  Schaffen wir es uns wieder wirksam wehren zu können, nach außen im Verteidigungsfall und im Notstandsfall auch nach innen? Kann bei

Staatsanwälten und Richtern das Ethos restauriert werden, das wir brauchen, um wieder Recht und Ordnung durchzusetzen?

Niemand kann das wissen. Wir leben in einer  Zeit, in der wir eine Kultur hervorgebracht haben, die einen selbstzerstörerischen Altruismus zum einzigen Wert gesetzt zu haben scheint. Doch der innerste Antrieb des Menschen ist sein Überlebenswille. Wird dieser massenhaft tangiert, und merkt die Mehrheit dann, wie schlecht es eigentlich steht, kann das Umdenken sehr schnell erfolgen – man sagt dann „die Stimmung kippt“.

 

Anmerkung der EIKE-Redaktion

Zu dem Artikel ist wenig hinzuzufügen, außer dass die politisch Verantwortlichen die Entwicklung nicht zur Kenntnis nehmen (die links-grünen Ideologen in den Parlamenten wüschen diese Entwicklung schließlich). Eine, gemessen an der Gesamtbevölkerung, relativ kleine Gruppe von links-grünen Verrückten hat unser Land im Würgegriff, weil sie  von der Mehrheit aller Medien getragen werden, vorne weg von ZDF und ARD.

Ehemals konservative bürgerliche Parteien wie die CDU und CSU beugen sich dem Wahnsinn und unterstützen finanziell gemeinsam mit der FDP Stiftungen, welche der vom Verfassungschutz beobachteten Antifa (die neue Sturmabteilung SA) die Reisekosten erstattet, wenn Antifa-Mitglieder daran gehen Autos anzuzünden, ihre Gegner tätlich angreifen und dabei keine Rücksicht auf deren Leib und Leben nehmen. Von Skandal zu sprechen greift angesichts dieser Zustände in Deutschland viel zu tief. Es lohnt sich im Originalartikel von ACHGUT die Leserkommentare zu lesen, der nachfolgende ein Musterbeispiel:

Jahrzehntelang haben sich die Parteien und die Verbände unseren Staat angeeignet. Sie wirken nicht an der Demokratie mit, sie machen sie zu einer Hure. Dem entsprechend wurden über Jahrzehnte auch die Positionen der Herrschaft nach dem Parteibuch vergeben und die Un-Eliten nach Gesichtspunkten der Anpassungsbereitschaft und Konformität ausgewählt. Übrigens geschah dies in allen Bereichen von Staat und Gesellschaft. Ausbildung, Studium, Wissen, Berufserfahrung, etc. wurden zu drittrangigen Kriterien der Selektion. Auf dieser schon ausgehöhlten Grundlage konnte dann die 68er Generation von Desperados, Mitläufern und Vorteilsnehmern aller Art das Kommando übernehmen und die grün-bunte Gesinnungsherrschaft etablieren. Fortan werden neue Geschlechter eingeführt, Natur, Klima, Tiere und was auch immer gerettet, Fremde zu den neuen Heilsbringern erklärt sowie Bürger, Nation und Staat zu Auslaufmodellen deklariert. Diese Politik entspricht durchaus dem auf Hedonismus beruhenden Massenkonsum und einer zu globalistisch-kapitalistischen Herrschaftsformen neigenden Massendemokratie. Außer Blick bleiben die materiellen, kulturellen und geistigen Voraussetzungen dieses luxuriös ausgerichteten Paradieses auf Erden in Vergangenheit und Gegenwart. Übersehen werden auch die heftigen und sich abzeichnenden Verteilungskämpfe zwischen den Völkern und Kontinenten um Ressourcen. Die grün-bunten Utopien sind in ihrem Selbstvernichtungspotential kein Mittel der Selbstbehauptung, sondern einer großen Preisgabe, die man schon jetzt den Invasoren freiwillig übergibt.

 

 




Rechercheverbund: durch Zwangsgebühren alimentierter Rechercheauftrag von ARD und WDR für die Süddeutsche Zeitung?

Erfahrungen mit der Süddeuschen Zeitung (vulgo Alpenprawda)

Ich habe keine guten Interview-Erfahrungen mit diesem Blatt. Gelesen habe ich es nur selten – zu grün, zu links, zu doof. Der mehr als 8 Jahre zurück liegende Beitrag einer Frau Dr. Rubner von der SZ dürfte meine Vorbehalte ausreichend erklären (hier). Aber warum nicht mit Frau Langhans? Die war nicht beteiligt. Und ich war damals zu grün hinter den Ohren, die perfiden Tricks der Medien waren mir noch unbekannt. Hat sich die SZ geläutert?

Die Mail von Frau Langhans gibt wenig Anlass zu dieser Hoffnung. Ihre Mail liest sich nicht wie die höfliche Bitte, ein paar Fragen zu beantworten, sondern wie die Vorladung zu einem Gerichtstermin als Delinquent. Sogar eine Frist wurde gesetzt – gerade mal ein Tag und dies auch noch mit Uhrzeit 17-Uhr gesteht mir die SZ zu. „Haben die eigentlich noch alle?“ murmelte ich vor mich hin. Kennt Frau Langhans eigentlich noch den altmodischen Begriff „Höflichkeit“, insbesondere, wenn sie von jemandem etwas will? Kennt sie die Auflagenentwicklung Ihrer Zeitung? Weiß sie überhaupt, wie man mit Kunden, also ihren Lesern, umgeht? Oder deutlicher ausdrückt: Was denkt sich eigentlich die SZ dabei, Mails in diesem Ton zu verschicken?

Und dann sind auch noch ARD und der WDR bei dem Projekt von Frau Langhans mit dabei. Insbesondere ARD und ZDF werden heute von Zeitgenossen mit gutem Gedächtnis nicht als objektiv- neutral sondern als würdige Nachfolger des schwarzen DDR-Kanals angesehen. Wenn ein Herr Kleber auf der Mattscheibe erscheint, dreht sich bei vielen der Magen rum. Inzwischen haben Tichys Einblick, ACHGUT-  und für diejenigen, die es deftiger lieben – PI (political incorrect) oder Bayern ist frei zumindest den öffentlich-rechtlichen ARD und ZDF längst den Rang abgelaufen, wenn unabhängige Information und keine Staatspropaganda über die Realität gesucht wird. Von den Printmedien reden wir besser nicht, ihre Auflagen befinden bei vielen bereits im freien Fall.

Zwangsalimentiert?

ARD, WDR sind öffentlich rechtlich finanziert, die SZ nicht. Die SZ ist aber de facto ein Staatsmedium, Kritik an der Regierung, die die Bezeichnung rechfertigen würde, gibt es kaum. Daher wäre folgendes Modell denkbar: ARD und WDR entledigen sich teurer Recherche und lassen diese die SZ machen. Die SZ wird dafür bezahlt (von Steuergeldern), kommt auch noch ins Fernsehen womit gleichzeitig Werbung für die SZ und die betreffenden Redakteure gemacht wird und die sinkenden Auflagenzahlen etwas gebremst werden. Also für beide Parteien eine win win Situation. Es wäre zielstellend, wenn sich vielleicht einmal irgend eine Staatsanwaltschaft diese Vermutungen näher ansehen könnte. Das ist sicher besser als verweigernde Zwangsgebührenzahler wie gewöhnliche Verbrecher ins Gefängnis zu stecken.

Die Mail von Frau Katrin Langhans von der SZ an mich

Normalerweise hätte ich also eine Mail des Tons, wie von Frau Langhans angeschlagen, kühl in den elektronischen Papierkorb versenkt. Aber Moment mal, hier bot diese Sache doch eine schöne Gelegenheit für Gegenöffentlichkeit – in Form einer EIKE-News. Genug Internetbesucher hat EIKE doch, mehr als die SZ zwar nicht, aber wenn die SZ so weitermacht …. man weiß ja nie, was alles noch kommt. Also fangen wir an, hier zuerst mit der unveränderten Original-Mail der SZ:

 

Sehr geehrter Herr Lüdecke,

wie soeben telefonisch angekündigt, schicke ich Ihnen unsere Fragen per Mail. Derzeit recherchiere ich gemeinsam mit dem WDR und der ARD für die Süddeutsche Zeitung zum Thema „wissenschaftliche Veröffentlichungen“. In diesem Zusammenhang beschäftigen wir uns besonders mit dem Phänomen der sog. Raubverleger („predatory publisher“), also mit Unternehmen, die grundlegende wissenschaftliche Standards, wie etwa ein gründliches Peer-Review nicht einhalten.

Bei unseren Recherchen sind wir auch auf ein Paper gestoßen, das von Ihnen beim Verlag Sciencedomain International geführt wird, den wir auf der Blackliste Beall’s List zu dem Thema gefunden haben.

Es handelt sich dabei um folgende Studie, die auch bei dem  Europäischen Institut für Klima & Energie als Studie mit Peer-review aufgeführt wird.

H.-J. Lüdecke and C.O. Weiss: Simple Model for the Antropogenically Forced CO2 Cycle Tested on Measured Quantities, Journal of Geography, Environment and Earth Science International, 8(4): 1-12, 2016, http://www.sciencedomain.org/download/MTc0MzRAQHBm.pdf

Daher bitten wir Sie folgende Fragen bis Freitag, 6.07.2018 um 17 Uhr zu beantworten:

1)      Wie bewerten Sie die Qualität des Journal of Geography, Environment and Earth Science International?

2)      Wie würden Sie die Qualität des Peer-Reviews beschreiben?

3)      Wie bewerten Sie die Einordnung des Journals und auch des Verlages als Raubjournal?

4)      Ein Experten des Max-Planck-Instituts für Meteorologie in Hamburg bewertet die Arbeit und Begutachtung ihrer Arbeit wie folgt: Die Begutachtung sei nicht von guter Qualität gewesen und die Arbeit genüge nicht den allerniedrigsten Standards. Eine solche Arbeit in dem Journal zu veröffentlichen, würde für jeden Wissenschaftler einen Bann durch das Max-Planck-Institut bedeuten. Wie bewerten Sie diese Kritik?

Mit freundlichen Grüßen

Katrin Langhans

Was vesteht man unter Raubverlegern?

Beginnen wir mit der Anrede in der Mail von Frau Langhans, zwar nicht wichtig aber vielsagend! Sogar die Stadtwerke, Versicherungen etc. verwenden den Prof. oder zumindest den Dr. in einer schriftlichen Anrede an solche Personen. Ich lege zwar keinen gesteigerten Wert darauf, aber höflicher Usus ist es nun einmal. Nicht so bei der SZ, Deutschland wird immer bunter, die SZ ist offensichtlich Vorreiter.

Es geht der SZ also um Raubverleger. Was damit gemeint ist, bleibt dunkel. Was rauben solche Verleger eigentlich? Der einzige mögliche Raub wäre eine unangemessen hohe Veröffentlichungsgebühr für die „open“ Veröffentlichung, falls interessierte Autoren bereit sind zu zahlen, um die in der wissenschaftlichen Publikation verbindlichen Regeln zu umgehen. Sonst gibt es nichts zu rauben.

Nun gibt es aber relativ junge Open-Journale, die in der Rangfolge der Aufmerksamkeit nicht an erster Stelle stehen, aber auf den Markt kommen wollen und mit Raubverlegern nichts zu tun haben. Bei denen verhält es sich gerade umgekehrt mit den  Veröffentlichungsgebühren. Sie bemühen sich, die zugehörigen Gebühren der als besser angesehenen Journale mit ebenfalls Open-Option zu unterbieten. Dies ist ihre einzige Chance. Hier haben wir bereits das erste Kriterium, nämlich den Preis für die „open“ Veröffentlichung. Das zweite sichere Kriterium erhält man, wenn man sich die Liste der Veröffentlichungen dieser Journale – bzw. falls „open“ die frei einsehbaren Veröffentlichungen selber – einmal genauer ansieht. Hier erkennt jeder Fachmann sofort, was es mit dem betreffenden Journal auf sich hat.

So etwas wie die Beall’s List wäre daher eigentlich überflüssig, die beiden vorgenannten Kriterien reichen völlig aus. Forscht man über die Beall’s Liste im Internet nach, stößt man auf einen gewissen Jeffry Beall. Über ihn schreibt Wikipedia (hier)

He is a critic of the open access publishing movement and is especially known for his blog, Scholarly Open Access, which monitored „predatory open access publishing“, a term he coined. Beall has also written on this topic in The Carleston Advisor, in Nature, in Learned Publishing, and elsewhere „.

Daher weht also der Wind, Beall ist anscheinend Lobbyist der großen etablierten Journale, die „open publishing“ nicht mögen, weil es ihre Geschäftsgrundlage bedroht. Inzwischen bieten aber viele der Großen „open publishing“ selber an, natürlich nur für zum Teil saftige Veröffentlichungsgebühren. Und hier schließt sich dann der Kreis. Kurz: So etwas, wie diese Bealls Liste wäre vielleicht hilfreich, weil man dann  nicht selber die beiden genannten Kriterien nachzuprüfen braucht. Aber hilfreich bitte doch nur dann, wenn von einer angesehen US-Universität herausgegeben und die Kriterien der Beurteilungen offen darlegend. Ein windiger Lobbyist hat hier nichts zu suchen.

Zurück zu SZ, ARD und WDR. Wir Autoren von http://www.sciencedomain.org/download/MTc0MzRAQHBm.pdf  finden es natürlich schön, dass unsere Arbeit in JGEESI von diesen „Leuchttürmen des guten Journalismus“ beachtet wird. Bloß leider inhaltlich ist man überhaupt nicht interessiert, nur am Journal.  Daher zuerst zum Inhaltlichen: Liebe SZ, ich biete Euch an, einen Artikel über den globalen CO2-Kreislauf oder über die globale Erwärmung zu verfassen – etwas verstehe ich davon nämlich, mehr als Ihr auf jeden Fall. Aber daraus wird wohl nichts – selber schuld, denn Ihr würdet damit ein paar neue Leser bekommen.

Es geht also um den von Frau Langhans unverhohlen geäußerten Verdacht, JGEESI sei ein „Predator-Journal“. Nun erfüllt dieses Journal die beiden oben genannten Kriterien mustergültig. Die Veröffentlichungsgebühren sind moderat, wobei ich es bereits persönlich nicht einsehen würde, für mein intellektuelles Forschungsvergnügen auch noch unnötig viel Geld zu berappen. Zum zweiten Kriterium: Wer sich ansehen möchte, was JGEESI so veröffentlicht, möge das hier (http://www.sciencedomain.org/journal/42) tun. Es finden sich alle veröffentlichten Artikel „open“ als pdf herunterladbar. Ist doch eigentlich vorbildlich, oder nicht?

Es lohnt sich, bei den Artikeln näher hinzusehen. Natürlich ist nichts nobelpreiswürdiges darunter, das ist ohnehin extrem selten. Die Autoren von JGEESI  sind oft Universitätsangehörige aus Indien, Asien, dem nahen Osten oder Afrika, es sind aber auch gelegentlich Autoren von US-Universitäten darunter. Hat jemand etwas gegen Wissenschaftler aus anderen Weltgegenden als USA und Europa? Manche sind gar nicht schlecht, wir sollten eventuelle Vorurteile hier besser ablegen. Wie bei allen Journalen reicht auch bei JGEESI  die Qualität der Artikel von ordentlich bis fragwürdig. Komme mir nun bloß niemand damit, dass fragwürdiges in Nature oder Science nicht vorkommen könne. Die veröffentlichen selbstverständlich ab und zu (unwissentlich) auch Quatsch, jeder Fachmann wird es unter vier Augen bestätigen. Zumindest formal ist das Peer-Review bei JGEESI ok, es ist alles auf der Titelseite jedes Aufsatzes dokumentiert. Gibt’s noch weitere Fragen? Ach ja, die von Frau Langhans, ich beantworte sie im Folgenden gerne.

Meine Beantwortung der Fragen von Frau Langhans

Zu Frage 1): JGEESI ist nicht Nature, aber definitiv auch nicht „Predator“. Da ich schon Erfahrungen mit Journalen habe, möchte ich hier betonen, dass der Umgang mit JGEESI  ungewöhnlich höflich, fair, sachlich und nett war. Ich wünsche daher dem Journal und seiner Crew herzlich den Aufstieg in eine höhere Liga, die haben es verdient, zumindest meiner Erfahrung nach.

Zu Frage 2): Von Antonio Flix Flores Rodrigues, erstem Revier, sehr ordentliches Peer-Review, er gab gute Anregungen, die wir übernahmen. Von Jingying Fu, zweiten Reviewer, war das Review eher normal, hier gab es kaum Korrekturen. Wer die fachliche Qualität dieser beiden Wissenschaftler anzweifelt, möge sich mit ihren entsprechenden Universitäten in Verbindung setzen. Kein weiterer Kommentar.

Zu Frage 3): Zu JGEESI siehe Antworten zu Frage 1) und 2). Über die anderen Journale von sciencedomain weiß ich nichts, deren Qualität habe ich nicht überprüft. Mit unserer Arbeit bzw. mit JGEESI haben sie nichts zu tun.

Zu Frage 4): Ich bewerte die gemäß SZ erfolgte Aussage eines „Experten“ des MPI als dem heutigen Umgangsstil entsprechend und daher unterirdisch. Wenn jemand vom MPI dies wirklich gesagt haben sollte, dann muss er dazu zu stehen und es fachlich auch begründen. Im Übrigen streift seine Aussage den Straftatbestand der Drohung („Bann des MPI„), und ich kann mir kaum vorstellen, dass die Leitung dieses MPI so etwas gut heißt. Fachliche Diskussionen wünschen wir immer. Alles andere als das Eingehen aufs Fachliche ist unwürdige Polemik, das MPI will doch wohl kaum BILD kopieren? Natürlich, die Sitten verrohen, die hohe Politik macht’s uns täglich vor. Aber alles hat Grenzen.

Dass Journalisten solche Unverschämtheiten kolportieren ohne die genaue Quelle zu nennen, ist erbärmlich. Sollte also der Satz  „Eine solche Arbeit in dem Journal zu veröffentlichen, würde für jeden Wissenschaftler einen Bann durch das Max-Planck-Institut bedeuten“ tatsächlich von einem akademischen Mitarbeiter des MPI gesagt oder geschrieben worden sein, muss sich dieser fragen lassen, ob er noch alle in der Schüssel hat. „Bann“ ist, wenn auch rechtlich vermutlich grenzwertig,  sprachlich hübsch, man denkt dabei nämlich an Geister mittelalterlicher Päpste, die nächtens im MPI spuken. Hoffentlich leidet darunter nicht die Forschungsqualität. Liebe Frau Langhans, ich hoffe, damit Ihre 4 Fragen beantwortet zu haben.

Warum JGEESI?

Übrig bleibt die nicht gestellte Frage, warum wir in JGEESI eingereicht haben. Es hatte einen einfachen Grund. Nicht wenige Fachgebiete werden von einem „Papst“ dominiert. Und der mag unabhängige Außenstehende gar nicht. Man könnte zutreffend auch vom Paten einer wissenschaftlichen Mafia sprechen. Um Missverständnisse zu  vermeiden: der Vergleich bezieht sich auf die Struktur, nicht die oft sehr gute Forschungstätigkeit solcher Clans. Bei Paten hat man schlechte Chancen auf Publikation, ohne dem Clan anzugehören oder um Genehmigung niederzuknien.

Eigentlich haben es fachlich gute Clans überhaupt nicht nötig, die Veröffentlichung von Ergebnissen, die nicht von ihnen stammen oder ihnen nicht passen, zu verhindern. Wirkliche Qualität steht über solch fragwürdigen Bemühungen. Es geschieht aber dennoch, das ist wohl menschlich. Für die bekannteren Journale stehen angesichts der geschilderten Strukturen nur der Pate oder die Mitglieder seines Clans als Reviewer zur Verfügung.  Als einreichender Autor stößt man dann immer wieder auf die gleichen Reviewer, die eine unerwünschte Arbeit unter fadenscheinigen Gründen ablehnen. Die einzige Chance, dem zu entkommen – weil man sich nicht mühsam immer wieder den aufwendige Prozeß der Einreichung bei neuen Journalen aufhalsen will – ist Journale zu suchen, welche mit hoher Wahrscheinlichkeit unabhängige Reviewer beschäftigen. Und das sind dann welche, deren Bekanntheitsquote unterdurchschnittlich ist – zumindest hierzulande. In anderen Weltgegenden mag die Bekanntheitsquote sehr viel höher sein, ich hab’s nicht untersucht.

Review erfolgt in jedem Journal immer nur von Fachleuten. Es ist aber nicht unbedingt zielstellend, wenn diese zu enge Spezialisten des eingereichten Themas sind und gar einem Clan angehören. Unabhängige Reviewer bringen frischen Wind und vielleicht auch neue Ideen in die wissenschaftliche Auseinandersetzung, welche schließlich allein den wissenschaftlichen Fortschritt voranbringt. Die beschriebenen Probleme waren und sind immer noch endemisch im wissenschaftlichen Publikationsbetrieb. In anderen naturwissenschaftlichen Fachgebieten als der Klimaforschung geht es sogar oft noch wesentlich heftiger und unfairer zu.

Wir sind also beileibe kein Einzelfall. Uns Pensionären mit erfolgreich abgeschlossener Karriere ist die Stellung des Journals, in welchem wir veröffentlichen, im Prinzip egal. Es muss nur ordentliche Artikel veröffentlichen und den Veröffentlichungskriterien wie z.B. beim Peer-Review genügen. Bei jungen Wissenschaftlern, die erst noch Karriere machen müssen, ist dies anders. Die brauchen Arbeiten in Vorzeige-Journalen, am besten in Nature oder Science. Es wird von Fällen berichtet, in denen ein Pate oder sein Clan die Karriere von exzellenten Wissenschaftlern zerstört haben. Hier liegt wohl der Grund für die immer stärkere Stromlinienform und das intellektuelle Austrocknen von Wissenschaftsgebieten, deren Ergebnisse öffentlichkeits- und politiknah sind. Und nun wird vielleicht auch verständlich, warum man sogar bei Artikeln von Nature oder Science nicht gänzlich alle Vorsicht außer acht lassen darf.

Sind höchstangesehene Wissenschaftsjournale Engel?

Diese Frage wirft sofort Licht auf den Weltklimarat (IPCC). Die kanadische Journalistin Donna Lafromboise schreibt nämlich in Ihrem Buch dazu auf S. 72

Das IPCC behauptet, dass es keine eigene Forschung betreibt. Es wird von ihm erklärt, es würde die bereits vorliegende wissen-schaftliche Literatur zum Klimawandel nur sichten und sich dabei ein Bild machen, was das alles bedeutet. Doch die Tatsache, dass das IPCC unveröffentlichte Papiere zitiert, beweist, dass mit gezinkten Karten gespielt wird. Wer mit den Leuten beim IPCC bekannt ist, sorgt dafür, dass seine noch zu veröffentlichenden Arbeiten berücksichtigt werden. Forscher ohne diese Art von Beziehungen haben hingegen Pech ………… dass Leitautoren versuchten, in Fachzeitschriften mit Begutachtungsverfahren Material veröffentlicht zu bekommen, während sie gerade an einem IPCC-Kapitel schrieben, damit der publizierte oder im Druck befindliche Beitrag im Schlußentwurf des IPCC-Kapitels zitiert werden konnte

und weiter auf S. 73

Diese Enthüllung verweist auf eine merkwürdige Entdeckung, die ich einige Monate vor der Veröffentlichung der IAC-Antworten gemacht habe. Dabei hatte sich gezeigt, dass der Klimabibel von 2007 unverhältnismäßig häufig eine bestimmte Ausgabe der Zeitschrift „Climatic Change“ zugrunde lag. Wenn das IPCC aus einer einzigen Nummer einer Fachzeitschrift von 21 Papieren 16 (!) zitiert, dann liegt der Verdacht nahe, dass diese Ausgabe speziell auf die Bedürfnisse des IPCC zugeschnitten worden ist (vgl. dazu Fn. 51). Das wäre natürlich eine komplette Verkehrung der Regeln. Akademische Zeitschriften sollten unabhängige Akteure sein. Forschungsaufsätze sollten ihnen unaufgefordert zur Veröffentlichung zugesendet, dann von Gutachtern leidenschaftslos geprüft und da nach veröffentlicht werden (oder nicht) – auf der Grundlage ihrer jeweiligen individuellen Vorzüge„.

Wer will angesichts dieser Durchstechereien jetzt noch den Stab über weniger angesehene Wissenschaftsjournale brechen? Mit anderen Worten: wenn man klein ist, muss man die Regeln beachten, sonst ist man schnell weg. Größe und Bekanntheit suggeriern dagegen unzulässig „too big to make mistakes“.

 

Weitergehender Kommentar (Lüdecke)

Am 9.7.2018 um 10-52 erreichte mich folgende Mail von Frau Langhans (Süddeutsche Zeitung):

Sehr geehrter Herr Lüdecke,

vielen Dank für den Hinweis zu Ihrem EIKE-Eintrag. Der Kommentarspalte entnehme ich, dass Sie das Paper offenbar zuvor bereits bei einem anderen Journal eingereicht haben. Dort wurde es dem Internetauftritt des Verlages zufolge unter anderem mit folgender Begründung (und einer ausführlichen Argumentation zu diesem Kritikpunkt) abgelehnt: „While simple models have their value in analyzing the global carbon cycle, the approach presented in this manuscript neglects basic understanding of the global carbon cycle.” Wie erklären Sie sich das?

Weitere Recherchen zeigen, dass Sie mit der Studie, deren Validität von Experten argumentativ angezweifelt wurde, auch in einer Gutachterlichen Stellungnahme zum Klimaschutz-Gesetzentwurf des Thüringer Landtags argumentieren. Wie bewerten Sie das Heranziehen dieser Studie als Beleg im Hinblick auf die vielfach von Experten geäußerte Kritik?

Ich bitte Sie diese Frage bis Dienstag, 10.07.2018 um 12 Uhr zu beantworten.

Mit freundlichen Grüßen

Katrin Langhans

 

Meine Antwort darauf lautet:

Sehr geehrte Frau Langhans,

Ihren Äußerungen nach verstehen Sie nichts von der Materie und sind an ganz anderen Dingen als am fachlichen Inhalt unserer Publikation interessiert. Hierbei können wir Ihnen aber leider nicht weiterhelfen. Machen Sie sich erst einmal fachlich ein wenig kompetent, dann antworten wir gerne zu Inhalten. Vor allem können Sie sich dann auch ein realistisches Bild von unserer Arbeit machen und ggf. sogar sachliche Einwände vorbringen. Wir wären in diesem Fall auch gerne bereit, Ihnen unsere Arbeiten zur Verfügung zu stellen und ggfls. näher zu erläutern.

Mit freundlichen Grüßen

Prof. Dr. Horst-Joachim Lüdecke

Prof. Dr. Carl Otto Weiss

 

 

 




Die Sonnenallergie der Klimaforscher

Auch wenn der Einfluss der Sonne auf die Klimaschwankungen in den letzten Jahrzehnten etwas in den Hintergrund gerückt ist: Es gibt sie, die Forscher, die die schwankende Wirkkraft unseres Zentralgestirns auf das Geschehen in der Erdatmosphäre untersuchen, damit auch auf den Klimawandel – und die dabei überraschende Ergebnisse erzielen.

Henrik Svensmark, Leiter der Sonnenforschung an der Technischen Universität Dänemarks in Kopenhagen, ist einer von ihnen. Und er wagt sich weit vor in der Klimadebatte, dem Diskurs mit der womöglich bedeutendsten Tragweite unserer Zeit. Er erhält Widerspruch, natürlich. Dabei sind sich Svensmark und seine Fachkritiker einig: Das Thema „Sonne“ verdient in der Klimaforschung mehr Aufmerksamkeit. Dabei geht es den Beteiligten vor allem um das komplexe Zusammenspiel zwischen unserem Zentralgestirn und ionisierenden Sendboten aus den Tiefen der Galaxie – der „kosmischen Strahlung“.

Svensmark sagt: „Das Klima wird stärker durch Veränderungen der kosmischen Strahlung beeinflusst als durch das Kohlendioxid.“ CO2 habe zwar auch eine Wirkung, klar, „aber sie ist weit geringer, als die meisten heutigen Klimamodelle vorgeben, und auch geringer als der Einfluss der kosmischen Strahlung“. So werde, seiner Einschätzung nach, eine Verdoppelung des Treibhausgases in der Atmosphäre eine Erhöhung der globalen Temperatur um höchstens ein Grad bewirken, und nicht um zwei Grad, wie es heute als „Common sense“ hingestellt wird.

Mit anderen Worten: Die „Klimasensitivität“ von Kohlendioxid sei nur halb so groß wie angenommen. Und, was die Veränderungen im natürlichen CO2-Haushalt der Erdatmosphäre und diejenigen der Temperatur über Zeiträume von Millionen Jahren angeht: Da sei das Treibhausgas eher „ein Sklave der kosmischen Strahlung sowie der durch sie bewirkten Erderwärmung, und eben nicht ihr Herrscher“. Die Höhe des CO2-Anteils sei dabei im Großen und Ganzen der Erwärmung gefolgt, nicht umgekehrt.

Im vergangenen Dezember hat Svensmark erneut eine wissenschaftliche Studie in der Fachzeitschrift „Nature Communications“ („Nature“-Gruppe) veröffentlicht, mit der er seine These untermauern will. In der Arbeit geht es – zunächst – weniger um die Sonne selbst, als darum, wie unser Klima- und Wettergeschehen durch jene kosmische Strahlung beeinflusst wird, ionisierende Partikel, die permanent auf die Erdatmosphäre einprasseln. Dabei handelt es sich um einen Teilchenstrom, der von explodierenden Supernovae stammt, durch die Galaxie fließt und schließlich, in der Erdatmosphäre angekommen, Einfluss auf die Wolkenbildung ausübt, sie verstärkt.

Der „Missing Link“ oder die Lücke in der Theorie

Hier kommt nun die Sonne ins Spiel: Sie ist es nämlich, die diesen Teilchenstrom entscheidend moduliert. Deshalb, so sagt Svensmark, sei sie der hauptsächliche Akteur des irdischen Klimageschehens. Nicht das CO2. Kürzlich erläuterte er gemeinsam mit seinem Sohn und Ko-Autor Jacob die Hintergründe und Ergebnisse der neuen Studie in einem Interview mit Benny Peiser.

Der Mechanismus ist seit vielen Jahren im Gespräch. Längst unbestritten ist der Einfluss der Sonne auf die galaktische Strahlung. Als nicht vollständig geklärt galt jedoch, wie stark deren ionisierende Teilchen tatsächlich zur Wolkenbildung beitragen. Dies war der „Missing Link“, die Lücke in der Theorie. Mit dem Beitrag des dänischen Forschers, den er unter anderem mit Nir Shaviv von der Hebrew University of Jerusalem geschrieben hat, erheben die Wissenschaftler nun den Anspruch, jenes fehlende Glied eingefügt zu haben. Und zwar nicht nur theoretisch, sondern durchaus praktisch: durch Experimente in großen Kammern, in denen sie den Prozess der Bildung von Wolken in seinen ersten Anfängen im Großversuch nachbilden konnten.

Für die beteiligten Forscher ist die Kette daher jetzt geschlossen: Der Teilchenstrom trifft auf die Erdatmosphäre, ionisiert dort vorhandene mikroskopisch kleine Schwebstoffe, sogenannte „Aerosole“, sorgt so dafür, dass diese sich vergrößern, dass Wasserdampf an ihnen kondensiert und sich so Wolken bilden. Und zwar in den unteren Schichten der Atmosphäre, also dort, wo sie kühlend auf die Erdtemperatur einwirken, weil sie die wärmenden Strahlen der Sonne wieder zurückwerfen. Wolken in den oberen Schichten dagegen halten die auf die Erde eingestrahlte Wärme in der Atmosphäre zurück, erhitzen sie also eher, als dass sie sie kühlen.

Dieser Prozess, den Svensmark und seine Kollegen jetzt beanspruchen, nachgewiesen zu haben, findet in unterschiedlicher Intensität statt, mal stärker, mal schwächer – nach ihrer Lesart in Abhängigkeit von den Launen der Sonne: Ist diese sehr aktiv, ist ihr Magnetfeld also besonders stark, so sendet sie ihrerseits ionisierende Teilchen ab, den sogenannten Sonnenwind, der aber die andere kosmische Strahlung, eben die wolkenfördernde, von der Erde abhält (letztere wird für die bessere Abgrenzung zum „Sonnenwind“ auch als „Galaktische kosmische Strahlung“ bezeichnet).

Das bedeutet: Ist die Sonne aktiv, bilden sich weniger kühlende Wolken und die Erde heizt sich auf.

Die Sonnenflecken als Frühwarnsystem

Eine aktive Sonne geht einher mit einer höheren Zahl und einer größeren Häufigkeit von Sonnenflecken, die bisweilen mit starken Sonnenbrillen sogar zu beobachten sind, kurz vor dem Untergang etwa am Meereshorizont, wenn die Blendkraft nachgelassen hat. Schon zur Wende vom 18. zum 19. Jahrhundert hatte der deutsch-britische Astronom Wilhelm Herschel einen Zusammenhang zwischen den Sonnenflecken und dem Klima registriert und daraus seine Theorie vom Schweinezyklus abgeleitet. Der Hintergrund blieb ihm allerdings verborgen, weil das technische Rüstzeug der modernen Sonnenforschung fehlte. Womöglich gehen auch die fetten und die mageren Jahre, von denen die Bibel berichtet, auf die regelmäßigen Sonnenschwankungen zurück.

Wohlgemerkt: Der Einfluss der Sonne auf das Erdklima funktioniert laut Svensmarks Forschungen nicht über die Varianz ihrer wärmenden Strahlen, die in der Tat äußerst gering ist – weshalb viele Klimaforscher ihr Wirken rundweg, aber womöglich etwas vorschnell abstreiten. Die Wirkung wäre eine subtilere, elektrophysikalische. Svensmark geht davon aus, dass die Änderung in der Sonnenaktivität einen fünf bis sieben Mal stärkeren Einfluss auf Klimaschwankungen hat als die Sonnenstrahlen selbst.

Ein Symptom, das durch diesen Zusammenhang erklärbar wäre und ihn im Gegenzug bestätigt, sticht statistisch hervor: In der Zeit, in der die Erderwärmung so stark zugenommen hat wie nie seit Beginn der Messungen, nämlich in der zweiten Hälfte des 20. Jahrhundert, war die Sonne durchschnittlich so aktiv wie mindestens in den letzten 8.000 Jahren nicht. Dies gilt bei den Wissenschaftlern der Sonnenkunde als „common sense“. Dennoch spielt sie in der tonangebenden Klimaforschung als Einflussfaktor für die globale Erwärmung bisher eine untergeordnete Rolle. Auch weil jener Zusammenhang, ausgehend von der solaren Aktivität über die kosmische Strahlung, die Wolkenbildung bis hin zur globalen Temperatur nicht durchgängig nachweisbar war. Zwischen der kosmischen Strahlung und der Wolkenbildung klaffte eine Lücke in der Nachweiskette.

Svensmark und seine Co-Autoren gehen nun davon aus, genau diesen „Missing Link“ geschlossen zu haben. Es handele sich, so sagt er, um einen „Durchbruch im Verständnis davon, wie kosmische Strahlung von Supernovae die Wolkenbildung auf der Erde beeinflusst“, erzielt durch empirische Versuche in ihren Wolkenkammern. So steht es jedenfalls in der Pressemitteilung zu der Veröffentlichung in „Nature Communication“.

Die Studie belege, dass „eine Änderung in der Ionisierung der Atmosphäre“ sehr wohl die Anzahl der Nuklei beeinflusse, aus denen sich Wolken bilden. Die Experimente in ihren Kammern, in denen sie die Atmosphäre und das Spiel der ionisierenden Strahlungen nachbildeten, hätten ergeben: Aus Teilchen, die von der kosmischen Strahlung aufgeladen werden, bilden sich laut Studie „um mehrere Prozent häufiger“ Wolken, als dies bei „neutralen“ Teilchen der Fall sei. Die Versuche seien über 100 Mal wiederholt worden, um das Signal statistisch zu verdeutlichen.

Die Wolken-Versteher

Die Schwankungen im Sonnenwind lassen den Ionenstrom um etwa 20 Prozent variieren. Svensmark und seine Kollegen schreiben nun, ihre Versuche hätte ergeben: Jene „zwanzigprozentige Schwankungsbreite in der Ionen-Produktion kann unter reinen Bedingungen das Wachstum um ein bis vier Prozent verstärken“ (gemeint ist das Wachstum der Partikel, aus denen sich Wolken bilden). Wie stark dieser Effekt im Einzelnen wirke, hänge von regionalen Unterschieden und den entsprechenden Wolkentypen ab.

Der dargestellte Mechanismus passt zu einer weiteren Studie der dänischen Forscher, die sie vor zwei Jahren vorgelegt hatten. Darin hatten sie eine Korrelation festgestellt zwischen plötzlichen, starken Abschwächungen des Sonnenwindes – sogenannte „Forbush-Ereignisse“ – und Änderungen in der Wolkenbedeckung. Darauf verweisen sie jetzt, wenn sie weiter ausführen: Es sei anzunehmen, dass jene Schwankungen beim Wachstum der Teilchen um ein bis vier Prozent wiederum „die Änderungen in der Wolkenbedeckung um etwa zwei Prozent im Anschluss an Forbush-Ereignisse erklären könnten.“ Zwei Prozent mehr oder weniger Wolkenflächen hört sich zunächst nicht bedeutsam an. Da es bei der Beobachtung der Erderwärmung allerdings um Zehntelprozente von Celsiusgraden geht, könnte dieser natürliche Effekt dennoch eine nicht zu vernachlässigende Rolle spielen.

Für die Autoren lassen sich die physikalischen Experimente deckungsgleich mit der Empirie des Klimageschehens unterlegen. Laut Svensmark gilt dies nicht nur für die beschleunigte Erwärmung zwischen 1970 und 1998, die einherging mit Rekordzyklen der Sonne, sondern auch für die Jahre 2006 bis 2017, als ausgesprochen schwache Zyklen registriert wurden – parallel zu einem zwar sehr hohen, aber eben kaum noch weiter ansteigenden Plateau der Globaltemperaturen. Solche Korrelationen ließen sich über die letzten 10.000 Jahre vielfach nachzeichnen (nicht nur die Höhe der Temperaturen, auch die Stärke der kosmischen Strahlung ist über lange Zeiträume rekonstruierbar).

Noch deutlicher fällt das Zusammenspiel bei der Betrachtung der letzten paar Millionen Jahre aus, als die Temperaturen öfter um 10 Grad stiegen oder fielen, während unser Sonnensystem bei seinem Marsch durch die Galaxie einem heftigen Wechselbad von Regionen mit vielen oder wenigen explodierenden Sternen ausgesetzt war – und entsprechend schwankenden Teilchenströmen: „Der Mechanismus könnte deshalb eine natürliche Erklärung liefern“, so schreiben die Autoren der Studie, „für die beobachteten Korrelationen zwischen Klimaschwankungen und kosmischer Strahlung, moduliert von Aktivitäten entweder der Sonne oder von Supernovae in der Nachbarschaft unseres Sonnensystems, betrachtet über sehr lange Zeiträume.“

Physikalischer Unterbau für historische Betrachtungen

Die Forscher aus Dänemark und Israel sind nicht die einzigen, die den Zusammenhang zwischen kosmischer Strahlung, Sonne und Erdklima erforschen. Der britische Teilchenphysiker Jasper Kirkby hat hierbei vor zehn Jahren schon sehr deutliche Korrelationen dokumentiert. Auch Kirkby führt deshalb physikalische Versuche durch, die den dänischen durchaus ähneln, um den dahinterstehenden Mechanismus zu ergründen. Er forscht mit dem Frankfurter Atmosphärenwissenschaftler Joachim Curtius am europäischen Kernforschungszentrum CERN im schweizerischen Genf, wo er – ebenfalls in einer Kammer, aber auch anhand von Computermodellen – die Entstehung von Wolken aus Aerosolen und geladenen Teilchen untersuchte. Und so den physikalischen Unterbau für seine historischen Betrachtungen herleiten wollte.

Kirkby ist Leiter des Projektes „Cloud“ (Cosmics Leaving Outdoor Droplets). Vor zwei Jahren veröffentlichten die CERN-Forscher ein Zwischenergebnis, das in dieser Hinsicht allerdings negativ ausfiel. Bei ihren Versuchen konnten sie den Einfluss der ionisierenden Strahlung auf die Geburt von abkühlenden Wolken (noch?) nicht greifen. Auch deshalb ist er erstmal skeptisch gegenüber den Ergebnissen aus Svensmarks Studie.

„Insgesamt ist das Papier interessant“, bescheinigt der CLOUD-Forscher seinem dänischen Kollegen, „die theoretische Behandlung in dem Papier ist solide und die Experimente scheinen ordentlich ausgeführt zu sein.“ Doch was die Bedeutung der Versuche mit der nachgestellten kosmischen Strahlung für den Klimadiskurs betrifft, geht Kirkby auf Distanz: „Im Hauptteil, bei der ‚Diskussion‘, liegt er falsch, die Annahmen sind zu optimistisch in der Frage, wie relevant der Effekt ist, wie sehr er sich in seinen Auswirkungen auf das Klima messen lässt.“

Die Auswirkungen von zusätzlichen Ionen, die im Falle von stärkerer kosmischer Strahlung das Wachstum von Aerosolpartikeln und so auch die Wolkenbildung forcieren, taxiert er „auf maximal ein Prozent“. Angesichts jener Schwankungen der kosmischen Strahlung um lediglich 20 Prozent bewege sich der Effekt bei einem oder zwei Zehntel eines Prozentpunktes. „Und das führt zu einer absolut nicht signifikanten Änderung bei den Tröpfchen, die zur Wolke wachsen sollen.“ Svensmark hält dagegen und sagt, sein ermittelter Effekt von einem bis vier Prozent sei bereits auf Grundlage berechnet, dass die Ionenschwankung lediglich 20 Prozent betrage.

Ein Erkenntnisinteresse, zwei Forschungsstandorte, zwei unterschiedliche Ergebnisse. Obwohl man sich in einem einig ist: Die Sonne hat einen größeren Einfluss, als mancher in der Klimaforschung wahrhaben möchte. Svensmark meint zu wissen, warum man in Genf bei den „Cloud“-Versuchen keine wesentlichen Effekte in dem angenommenen Mechanismus finden konnte. Er geht davon aus, dass die Nuclei, die man in Genf auf ihre Veränderung durch die kosmische Strahlung untersucht hat, zu klein gewesen seien, „schätzungsweise um den Faktor zehn“. Auch habe sich Kirkby, sagt Svensmark, bei seiner Studie zu sehr auf numerische Modelle gestützt.

Hier allerdings bringt Kirby seinerseits Kritik an den dänischen Kollegen vor: „Solche Experimente allein reichen nicht für die pauschalen Behauptungen aus dem Papier, die Wirkung muss in einem globalen Modell dargestellt werden, und wenn Sie dafür die Ergebnisse aus Dänemark benutzen, dann wird nach meiner Erwartung eine vernachlässigbare Größe herauskommen.“ Auch Svensmark findet es grundsätzlich eine „gute Idee, die Effekte auf die Wolkenbildung auch in einem globalen Modell weiter zu studieren“, aber er bleibt dabei, „dass unsere Beobachtungen den gesamten Zusammenhang von der kosmischen Strahlung über die Aerosole bis zu den Wolken abbilden.“

Beim Wort „Sonne“ gehen Forscher auf Tauchstation

„Das letzte Puzzle-Teilchen“ im Zusammenspiel von Sonne, kosmischer Strahlung, Wolken und Klimawandel gefunden zu haben, wie es die dänischen Forscher in ihrer Presseerklärung zur Studie formuliert haben, ist in der Tat ein hoher Anspruch. Er stößt auch bei einem anderen Klimaforscher, der selbst nicht zu den großen Kassandrarufern in Sachen Weltklima gehört, auf Zweifel. Auch wenn er Svensmark Ansatz wichtig und bislang sträflich unbeachtet findet.

Der Hamburger Klimaexperte Hans von Storch ist in der Fachgemeinde vor allem dafür bekannt, dass er die Klimaforschung für zu stark politisiert hält. Nach seiner Auffassung rührt sie zu einseitig die Alarmtrommel, auch spielten wirtschaftliche Interessen in die Debatte hinein. Dennoch: Svensmarks Presserklärung empfindet auch er als „unseriös“, „sie ‚überverkauft‘ das vermutlich belastbare eigentliche enge Resultat“. Wobei das Papier „einer professionellen Begutachtung unterzogen wurde,“ sagt der Professor am Hamburger Institut für Meteorologie. Ihm scheint, dass bei den Aussagen der Studie hier und da ein Konjunktiv angebrachter gewesen wäre, auch wenn er für sich eine eher begrenzte Expertise in Sachen Wolkenforschung einräumt.

Und dennoch: Von Storch hat kein Verständnis dafür, dass der Beitrag in der Klimadebatte bislang ignoriert wurde. „Obwohl er ein grundsätzlich kontroverses Thema in der Klimadebatte anspricht, die Rolle veränderlicher Sonneneinwirkung nämlich, wurde er in der öffentlichen Debatte nicht – oder kaum – besprochen.“ Er habe auch in seinen wissenschaftlichen Kreisen bisher „nichts von ihm gehört“. Dies hält er „für bedenklich“. Allein die „Welt am Sonntag“ hat sich in ihrer Ausgabe vom 10. Juni ausführlich auf einer Doppelseite des Themas angenommen.

Von Storchs Klage über die Nichtbehandlung bestätigt Svensmark mit anderen Worten: Im Klimadiskurs sei die Sonne so etwas wie eine „heiße Kartoffel“. Wer sie anpacke, verbrenne sich unter Kollegen schnell die Finger, lautet seine Erfahrung, niemand wolle sich dabei zu weit vorwagen, weil alle nur auf das Kohlendioxid verweisen wollten, um den Umbau der Energiewirtschaft voranzutreiben. Dabei streitet Svensmark selbst gar nicht ab, dass CO2 ein Treibhausgas sei, und dass die Industrialisierung mit der Erderwärmung zu tun habe, doch die Sonne sei der stärkere Motor.

Tonangebend seien trotzdem jene Forscher, die reklamieren, dass alle natürlichen Schwankungen – wie die der Sonnenaktivität – in ihrem Einfluss auf den Klimawandel zu vernachlässigen seien. Was Svensmarks Vorbehalt zu bestätigen scheint: Die beiden auf dem Gebiet tätigen Max-Planck-Institute – für Sonnensystemforschung in Göttingen und für Meteorologie in Hamburg – wollten sich auf Anfrage von „Welt am Sonntag“ zu dem Papier nicht äußern.

Svensmark-Kritiker Kirkby zweifelt nicht grundsätzlich am deutlichen Einfluss von Schwankungen bei der Sonnenaktivität auf den Klimawandel, jedenfalls über längere Zeiträume betrachtet. Wie auch? Er selbst hat in einem Aufsatz in der wissenschaftlichen Zeitschrift „Surveys in Geophysics“ 2008 festgestellt („Cosmic Rays and Climate“, mit überzeugenden Grafiken): Am Beispiel der Alpen würden die seit – mindestens – 2.000 Jahren zu beobachtenden parallelen Sprünge von Temperaturen und Sonnenaktivität den Schluss nahelegen, diese als hauptsächlichen („major“) Einflussfaktor auf das Klima anzusehen, wie es Kirkby bezeichnet: Die mittelalterliche Warmzeit mit „Temperaturen ähnlich den heutigen“, wie er schreibt, die Kleine Eiszeit im 17. Jahrhundert und ihr Ende, die etwas schwächere Abkühlung zu Beginn des 19. Jahrhunderts, der anschließende Beginn der Erderwärmung mit einem kleinen Knick zur Mitte des 20. Jahrhunderts, der heutige Stopp der Erwärmung – all dies verläuft in den vielfältigen Grafiken Kirkbys nur allzu deutlich im Rhythmus der Sonnenaktivität.

Wärme? Kälte? Regen? Die Antwort weiß der Sonnenwind

Dabei handelte es sich ganz offenbar nicht um ein regional begrenztes Phänomen, der Zusammenhang gilt nicht nur in der nördlichen Hemisphäre, sondern könne ebenso abgelesen werden an der Entwicklung etwa der Anden-Gletscher. Auch für weitere Parallelen hatte der Genfer Forscher umfangreiche Daten zusammengetragen: Außer den Temperaturen folgt den Ausschlägen der Sonne auch der Rhythmus von Dürren und Regenjahren. Wärme? Kälte? Regen? Trockenheit? Monsun? Die Antwort weiß der Sonnenwind, darf man aus Kirkbys historischen Studien herauslesen, frappant deutlich. Auch wenn er einschränkt, dass die Sonne seiner Ansicht nach in den letzten Jahrzehnten an Dominanz im Klimageschehen gegenüber anderen Faktoren – wie CO2 – eingebüßt habe. In der Paläoklimaforschung jedenfalls ist für Kirkby der Einfluss der Sonne der entscheidende Faktor.

Der Cloud-Forscher sagt: „Die Korrelationen sind viel zu zahlreich und zu vielfältig, als das Ganze als Zufall abtun zu können.“ Es geht ihm vor allem um die Parallelen, die sich über Zeiträume von mehreren hundert Jahren ergeben. Da seien die Schwankungen in der Sonnenaktivität „die einzigen möglichen Faktoren, die sich als äußere Faktoren für die beobachteten Klimaveränderungen anbieten, vielleicht verbunden mit den regelmäßigen internen Oszillationen in der Atmosphäre oder den Ozeanen.“ Die Wärme der Sonnenstrahlen selbst kann es nicht sein, die hat sich in jenen Zeiten so gut wie nicht geändert. Doch auch wenn die Effekte deutlich seien, so gilt für ihn nach wie vor: „Wir haben den Mechanismus noch nicht gefunden.“

Was Kirkby von Svensmark unterscheidet: Der Däne behauptet, das Geheimnis, das hinter dieser Korrelation steht, den Wirkmechanismus, entschlüsselt zu haben, der CERN-Forscher bezweifelt dies. Wird er auf diesem Feld trotzdem selbst weiterarbeiten? Schließlich hat er es selbst auch über Jahrzehnte beackert. „Selbstverständlich“, antwortet Kirkby, „es bleibt eine offene Frage, natürlich treibe ich das weiter voran.“ Und das Papier seines Kollegen Svensmark sei dafür ja auch nutzbar und lesenswert. Es gebe nach heutigem Wissensstand auch nur zwei denkbare Wege, mit denen man Sonne und Klima zusammenführen könnte: Die Ionen aus dem Kosmos und die UV-Strahlung, doch diese wird in der Stratosphäre absorbiert, so dass sie in der unteren Atmosphäre nur schwache Effekte zeigt.

Wird der solare Einfluss in den Klimamodellen zu wenig berücksichtigt? „Es ist doch ganz einfach“, antwortet Kirkby: „So lange ein Mechanismus nicht ausreichend abgebildet ist, kann der vermutete Effekt – etwa der kosmischen Strahlung – nicht in die Modelle eingebaut werden.“ Fehlt es an Geld bei der Sonnenforschung? „Ich weiß nicht, wie viel da hineingesteckt wird. Viel auf jeden Fall in die satellitengestützte Erkundung der Sonne selbst. Zu wenig dagegen in den Zusammenhang zwischen Sonne und Klima“, sagt Kirkby – und ist um Versöhnlichkeit bemüht: „Ich glaube aber, dass das Thema in der Klimadebatte seriös behandelt wird.“

Römisches Klimaoptimum, frühmittelalterliche Kälteperiode, hochmittelalterliche Warmzeit, frühneuzeitliche „Kleine Eiszeit“, alles passt mit der rekonstruierten Sonnenaktivität zusammen, bis hin zur Erwärmung ab Mitte des 20. Jahrhunderts, möglicherweise mit der Verzögerung von mehreren Jahren. Aber gilt dieser Zusammenhang mit unserem Zentralgestirn auch in allerjüngster Zeit, etwa ab den 1980er-Jahren? Abgesehen davon, dass sich nun längst auch das CO2, der Mensch also, als „externer Faktor“ ins Geschehen eingemischt hat, wie stark auch immer?

Gibt es eine „versteckte“ Erwärmung?

Was theoretisch einen Unterschied bei diesem Zusammenhang zwischen früher und heute ausmachen könnte: Durch die Industrialisierung hat der Mensch, populär ausgedrückt, die Luft erheblich verschmutzt – eine Entwicklung, die in den reichen Ländern dank gewachsenen Umweltbewusstseins abgemildert werden konnte, die aber heute umso stärker manches Schwellenland plagt. In den Worten der Atmosphärenforscher heißt dies, es befinden sich erheblich mehr Aerosole, Schwebstoffe in der Luft, vor allem Sulfat-Teilchen. Diese aber reflektieren die Sonneneinstrahlung zum einen selbst, direkt also, sie befördern aber auch die Wolkenbildung aus ihren winzigen Nuklei heraus, wirken somit doppelt.

Ist also deshalb seit der Industrialisierung der Wolkenbildungsprozess beschleunigt und verstärkt? Im Vergleich zur vorindustriellen Zeit, als die Luft noch sauberer und dieser Prozess deshalb gehemmt war? Anders ausgedrückt, in die Zukunft gefragt: Wird also dann, wenn eine effektivere Umweltpolitik endlich weltweit greift und die heutige dreckige, aerosolreiche Luft gereinigt ist, sich die Erderwärmung erst richtig beschleunigen? Haben wir es also heute mit einer zusätzlichen, aber versteckten Temperaturerhöhung zu tun, die nur statistisch vernebelt ist, durch die reflektierenden Aerosole aus den Industriefeuerungsanlagen sowie die von ihr verstärkten Wolkenbildung?

Klimaforschungsinstitute und auch der Weltklimarat IPCC haben diese alarmierende These eine Zeitlang vertreten oder vertreten sie immer noch. Doch hierbei konnten die Atmosphären- und Wolkenforscher um Kirkby aus Genf inzwischen für mehr Klarheit sorgen. Im Jahr 2016 veröffentlichten sie in der Zeitschrift „Nature“ eine Studie, die hinsichtlich dieser „versteckten Erwärmung“ Entwarnung gab. „Wir konnten zeigen, dass bei einem saubereren Himmel die natürlicheren Partikel, die von Bäumen stammen, effektiver werden.“ Vor allem die Absonderungen von Pinien, die damals erheblich weiter verbreitet waren, spielten dabei eine Rolle. Deren natürliche Partikel, Kohlenwasserstoffe, haben bei der Wolkenbildung eine umso größere Bedeutung, je weniger Sulfate aus den Industrieschloten den Himmel verdüstern. Dies haben die Cloud-Forscher nach Untersuchungen in den Schweizer Bergen und in ihrer Wolkenkammer am CERN-Forschungsinstitut empirisch nachweisen können. Daher: „Es wird auch dann noch viele Wolken geben, wenn der Himmel gereinigt ist“, sagt Kirkby.

Die bisherigen Klimamodelle, die aus einer solchen – nur durch Industrieabgase „versteckten“ – zusätzlichen Erwärmung ausgingen und daraus die wahrscheinlichen Temperaturen im Jahr 2100 ableiteten, lagen bei der Beurteilung dieses Effektes laut „Nature“ um etwa 50 Prozent daneben. Kirkby: „Es stellte sich heraus, dass diejenigen Modelle, die eine sehr hohe Temperatur zum Ende des Jahrhunderts vorhersagten, exakt diejenigen sind, die von einer relativ wolkenfreien vorindustriellen Welt ausgehen.“ Und die gab es eben nicht.

Vielmehr waren die Bedingungen der Wolkenbildung vor der Industriellen Revolution den heutigen ziemlich ähnlich. Auch diese Erkenntnis führte zu einer neuen Sicht auf die Computermodelle, die Anhaltspunkte zur globalen Temperatur in 80 Jahren liefern sollen. Sie sind weder besonders scharf in ihrer Aussage noch können sie als Ausdruck von Konsens in der Wissenschaft gelten.

Die Debatte ist noch längst nicht beendet

In der öffentlichen Diskussion ist heute fast ausschließlich vom Kohlendioxid und somit vom Menschen die Rede, wenn es um die Ursachen des Klimawandels geht. Parallel dazu heißt es, in der Gemeinde der Klimaforscher seien sich 97 Prozent aller Experten einig. Worüber diese Einigkeit aber konkret bestehen soll, bleibt dabei fast immer offen. Darüber, dass es wärmer geworden ist? Dies vielleicht noch am ehesten. Darüber, dass diese Erwärmung sich fortsetzen wird? Da wird es womöglich schon schwieriger. Vor allem aber bei der Frage, wie hoch der Einfluss des Menschen sei, ist man sich alles andere als einig. So ist beispielsweise für viele die relativ hohe Temperatur der vergangenen drei Jahre ein Beweis dafür, dass die Erwärmungspause, die nach dem Millennium eingesetzt hatte, inzwischen beendet sei. Inzwischen stiegen die Temperaturen wieder, wenn auch eher geringfügig. Manche wollen diese Pause gar nicht ausgemacht haben, viele andere schon – und beileibe nicht nur die vielzitierten „Klimaskeptiker“. Selbst in einem Bericht des Weltklimarat IPCC ist in dem Zusammenhang von einem „Hiatus“ (Pause“) die Rede.

Andere wiederum sehen die richtige Pause erst vor uns. Darunter sogar auch James Hansen und Gavin Schmidt, der frühere und der jetzige Direktor des Goddard Institute for Space Studies (GISS) der NASA. Beide sind ansonsten eher bekannt durch ihre Warnungen vor der ganz großen Klimakatastrophe. Doch kürzlich schrieben sie – mit mehreren anderen Kollegen – in einem Papier, es sei „plausibel, wenn nicht wahrscheinlich, dass der Klimawandel in den nächsten zehn Jahren den Eindruck einer Pause (‚Hiatus‘) erwecken wird“.

Und warum? „Wegen einer Kombination aus dem Sonnenzyklus und dem starken El Nino 2016“ – einer regelmäßigen Klimaanomalie im Pazifik, die dieses Mal außergewöhnlich stark ausgefallen war und die globalen Temperaturen 2015, 2016 und wohl auch 2017 stark nach oben gepusht hat, bevor sie sich jetzt, grob gesagt, wieder auf dem zuvor herrschenden Plateau eingependelt haben. Schmidt und Hansen meinen dann auch ganz pauschal: „Wir dürfen die Schwankungen der Sonne nicht unterschätzen im Vergleich zur Schieflage in der energetischen Strahlungsbilanz.“

Immer wieder erweckt die heutige Debatte über den Klimawandel den Eindruck, Kohlendioxid sei der alleinige Verursacher des Klimawandels, und die Erwartungen über dessen Auswirkungen müssten ständig nach oben korrigiert werden. Dies gilt sicher nicht für Svensmark, Kirkby oder andere (wie etwa Fritz Vahrenholt und Sebastian Lüning, Autoren des Buches „Die kalte Sonne“ sowie Herausgeber des gleichnamigen Blogs), die die solare Komponente bei der Erderwärmung erforschen. Sie alle stellen nicht infrage, dass CO2 ein Treibhausgas ist. In den letzten zehn Jahren sind gleich eine ganze Reihe von Studien erschienen, die die „Klimasensitivität“ von CO2, also seinen Einfluss auf die Temperaturentwicklung, geringer einschätzen als etwa der Weltklimarat IPCC. Was bei dessen Sachstandsberichten fast unterging: Der IPCC selbst hat seine Schätzungen hierbei zuletzt eher zurückgenommen als erhöht.

Die Begriffe „Klimaleugner“, auch schon „Klimaskeptiker“ sind einfach unsinnig. Dies vor allem, wenn es dabei um Menschen geht, die Ausmaß, Ursachen oder auch Folgen des Geschehens lediglich anders gewichten. Es ist durchaus nicht unumstritten, um wieviel Grad sich die globale Temperatur bis zum Ende des Jahrhunderts erhöhen wird – und schon gar nicht, wie hoch der menschliche und wie hoch der natürliche Anteil daran sein wird. Wer dies ignoriert und behauptet, die wissenschaftliche Debatte sei beendet, stellt die Dynamik der Forschung in sträflicher Weise infrage. Es bleibt spannend.

Titel der Studie: „Increased ionization supports growth of aerosols into cloud condensation nuclei“. Erschienen in „Nature Communications“. Autoren: Henrik Svensmark, Martin B. Enghoff, Nir J. Shaviv und Jacob Svensmark. Erschienen in „Nature Communications“, Dezember 2017.

 

Anmerkung der EIKE-Redaktion: Wir danken den Herren Dirk Maxeiner (Achgut) und Ulli Kulke für ihre freundliche Genehmigung zum Abdruck des Artikels.

An dieser Stelle darf nicht unerwähnt bleiben, dass zwei EIKE-Autoren im April 2017 eine begutachtete Facharbeit zu einem verwandten Thema veröffentlicht haben. In ihr wird der Einfluss der Sonne auf die Erdtemperatur der letzten 2000 Jahre statistisch signifikant belegt (TOASCJ-11-44). Die „Sonnenallergie“ der klimaforscher beschränkt sich daher nur auf den Teil von Wissenschaftlern, die neben dem anthropogenen CO2 alles andere inzwischen aus den Augen verloren haben. Scheuklappen nannte man dies früher, heute ist es wohl eher politische Korrektness oder Angst vor Ausgrenzung im Kollegenkreis.

Horst-Joachim Lüdecke, EIKE-Pressesprecher




Klimawandel: Sind Christen bibelfest?

Pixabay

Alle Religionen der Welt beruhen auf Narrativen (Narrativ hier wie „zum Narren halten“), die der Aufklärung und dem gesunden Menschenverstand Hohn sprechen. Selbst die albersten Geschichten waren und sind für die Überzeugung der Gläubigen immer noch gut genug. Natürlich haben auch einige der weltweiten Religionen inzwischen den modernen Naturwissenschaften Tribut zollen müssen, leider nicht alle. So werden zumindest von christlichen Funktionären (Pfarrern, Bischöfen, Kardinälen, Papst) Narrative, wie z.B. die leibliche Wiederauferstehung beim jüngsten Gericht oder die Rettung der Fauna vermittels der Arche Noah etc. inzwischen als „Bildnisse“ und nicht mehr als Realität verkauft.

Bedenklich wird es allerdings, wenn sich Religionsfunktionäre, hier der aktuelle Papst Franziskus, zu sachlichen Urteilen über naturwissenschaftliche Phänomene versteigen (hier, hier, hier) und daraus Handlungsdirektiven für ihre Glaubensanhänger ableiten. Für solche Beurteilungen sind sie auf Grund ihrer akademischen Ausbildung und intellektuellen Fähigkeiten weder befähigt noch zuständig. Hier wird eine bedenkliche Rückwendung sichtbar, an deren konsequentem Ende wieder die Vernichtung von Ketzern steht. Bekanntestes historisches Beispiel war der seiner Zeit weit vorausgreifende Naturwissenschaftler Giordano Bruno, der am 17.Feb. 1600 in Rom als Ketzer verbrannt wurde (hier). Seine Rehabilitierung erfolgte erst 400 Jahre(!) später durch Papst Johannes Paul II.

Immerhin wagt das „idea Spektrum“ eine Zeitschrift von Nachrichten und Meinungen aus der evangelischen Welt, diese Entwicklung zu kritisieren. Es geschieht vorsichtig und sogar ein wenig ironisch, indem zwei konträre Meinungsvertreter sich äußern dürfen. Der Artikel lautet „Kann der Mensch den Klimawandel stoppen?. Er erschien in idea, Nr. 23, 6. Juni 2018. Auf der Seite der Befürworter von „Klimaschutz“ steht Frau Stefanie Linner als Aktivistin einer globalen christlichen Bewegung (hier) mit der Aussage „Unser Lebensstil hat das Gleichgewicht der Schöpfung tiefgreifend beeinflusst„. Auf der anderen Seite steht Dr. Rainer Facius (Physiker) mit der Aussage „Was der Mensch nicht verursachen kann, das kann er auch nicht stoppen„.

Frau Linner hat, wie alle Gläubigen, überhaupt keine Sachargumente, mit denen sie ihre Auffassung stützen könnte. Ihre Argumentationsschiene besteht aus einer freien Glaubensbehauptung, denn sie schreibt „….. Der Lebensstil, den wir uns gemeinsam in den letzten paar hundert Jahren angewöhnt haben, hat das Gleichgewicht der Schöpfung tiefgreifend beeinflusst. Diese Veränderungen führen zu einem Klimawandel, dessen Konsequenz uns im Prinzip klar ist ….“. Leider ist nichts klar, liebe Frau Linner! Hat der vor rund 60 Millionen Jahren herabstürzende Großmeteorit, der gemäß heutiger wissenschaftlicher Auffassung für das Aussterben der Dinosaurier verantwortlich war, etwa nicht das Gleichgewicht der Schöpfung tiefgreifend beeinflusst? Dass die Behauptungen von Frau Linner auch nur versuchsweise belegt werden, kann nicht erwartet werden. Ein unverrückbares Mantra musste genügen.

Herr Facius argumentiert dagegen sachlich: Zuerst mit der Schwäche von Klimamodellen, die als Beweismittel untauglich sind. Er erwähnt den seit 20 Jahren anhaltenden globalen Temperaturstillstand, der mit dem zunehmenden CO2 nicht zusammenpasst. Er erwähnt die weit höheren CO2-Konzentrationen der Erdvergangenheit, die keine Katastrophen verursachten und er spricht die Ausgasung von CO2 aus dem Meer bei steigenden Temperaturen an, wobei die Temperatur das CO2 führt, nicht umgekehrt.

Auch bei bemühter Neutralität und allem gebotenen Respekt für den religiösen Glauben unserer Mitmenschen leben wir immer noch in Zeiten der Aufklärung! Die Entscheidung, welcher der beiden Meinungsäußerungen mehr Gewicht beigelegt werden sollte, kann daher dem logisch denkenden und naturwissenschaftlich kundigen Leser nicht schwer fallen. Ironischerweise kommt im idea-Artikel auch zur Sprache, dass sich Gott (hier ist natürlich der christliche gemeint) höchstselbst für die Rettung des Klimas verbürgt hat. So ist nämlich in 1. Mose 8,22 (Luther Bibelübersetzung) nachzulesen

„Solange die Erde steht, soll nicht aufhören Saat und Ernte, Frost und Hitze, Sommer und Winter, Tag und Nacht“

Daraus ist zu folgern, dass christliche Kirchenfunktionäre, zumindest was den Klimawandel angeht, noch nicht einmal bibelfest sind.

 

 

 




Der „Heidelberger Konsens“: Hans-Joachim Schellnhuber im Physik-Kolloquium der Universität Heidelberg am 25.Mai 2018

Als gelegentlicher Besucher dieses Kolloquiums sowie als EIKE-Pressesprecher und Skeptiker eines menschgemachten Klimawandels war meine Neugier auf den Vortrag groß. Schließlich war ich Teilnehmer einer der extrem seltenen konträren akademischen Diskussionen über eine anthropogene globale Erwärmung, welche anlässlich einer Einladung des Potsdamer Instituts für Klimafolgenforschung (PIK) an EIKE am 20.April 2011 stattfand.

EIKE-Mitglieder in dieser Diskussion waren Dr. S. Dittrich, Prof. K.-F. Ewert, M. Limburg. Prof. H.-J. Lüdecke und K. E. Puls sowie die externen „Klimaskeptiker“ Dr. A. Hempelmann, Dr. R. Link, Prof. F. Vahrenholt und Prof. W. Weber.

Das PIK wurde von Dr. G. Feulner, E. Gaigg, Prof. F. Gerstengarbe, Dr. V. Huber, Dr. B. Knopf, C . Köhler, Prof. J. Kropp, Prof. A. Levermann, Dr. J. Pietsch, Prof. S. Rahmstorf, Prof. H.-J. Schellnhuber, Dr. T. Schneider von Deimling, M. Schodder und J. Viering vertreten.

Die vom PIK gewünschte fachliche Deklassierung der Eingeladenen fiel allerdings aus, dem PIK fehlten leider die fachlichen Argumente. Die Enttäuschung des PIK darüber war so groß, dass es nicht zu einem gemeinsamen Protokoll der Veranstaltung bereit war – es hätte sich in der Öffentlichkeit nicht gut gemacht. Daher hier unser eigenes EIKE-Protokoll.

Was würde nun in Heidelberg geschehen, wo Schellnhuber, erster Vertreter des PIK, persönlich zu Wort kam? Schließlich waren physikalische Lehrstuhlinhaber der Heidelberger Universität und zudem zahlreiche Emeritierte anwesend. Es ist kein Geheimnis, dass nicht alle diese Kollegen mit den Thesen Schellnhubers einverstanden sind. Daher erwartete ich eine spannende Diskussion. Es ist schließlich immer interessant, wenn wissenschaftlich fragwürdige Aussagen auf fachliche Widerlegung stoßen. Irgend ein Witzbold hatte vor Öffnung des Auditoriums unbemerkt an allen 6 Tafeln des Vortrags-Saales das Wort „LÜGNER“ hingeschrieben, welches die Veranstalter, als die ersten Zuhörer und auch Schellnhuber anwesend waren, peinlich berührt auswischten. Dieser bestand jedoch souverän darauf, diese unhöfliche „Einladung“ an einer der Tafeln zu belassen – cool, dieser große Mann!

Über den Vortrag von Schellnhuber reichen wenige Worte, denn der Inhalt entsprach dem, was man schon aus zahllosen Internetberichten, der PIK-Webseite und der WBGU-Webseite bestens kennt: Eine Mischung aus

a) „Moralin“, Verantwortung gegenüber unserem Planeten, gegenüber der ganzen Menschheit und das über viele Hunderte Jahre etc. etc., wer sagt da schon etwas dagegen? Die Wahrscheinlichkeit von extraterristrischem Leben und weitere moralisierende Abschweifungen in Schellnhubers Vortrag seien zu „Moralin“ dazugezählt.

b) einer Forderung nach totaler Dekarbonisierung als Remedur gegen den von ihm in Hunderten Jahren erwarteten „Untergang“ durch zu viel des CO2 in der Luft

c) dem impliziten Vorschlag des Ersatzes fossiler Brennstoffe durch Photovoltaik sowie mehr Baumanpflanzungen. Die Windkraft wurde von ihm nicht erwähnt, sie ist anscheinend auch dem PIK inzwischen zu umweltschädlich. Aber auch die Kernenergie fehlte, war also undiskutabel, warum eigentlich? Die ist doch CO2 – frei.

d) von Folien und Aussagen zum Klimathema selber, welches gegenüber seinen Abschweifungen stark in die Minderheit geriet. Bis auf wenige Ausnahmen entsprachen die Folien und Aussagen seines Vortrags nicht der begutachteten Fachliteratur und den veröffentlichten Messungen.

Das Herz jeden Klima-Alarmisten schlug höher, als der mit vielen Ehrungen bedachte große Gelehrte seine abstruse Vortragsmischung abspulte: Von der Wahrscheinlichkeit estraterrestrischen Lebens, über das so gefährliche CO2, welches gemäß seinem Modell sogar noch für die Warm- und Eiszeiten verantwortlich sein sollte, vom versiegenden Golfstrom, von sterbenden Korallen, bis hin zu den so gefährlichen Kipp-Punkten und von vielem Katastrophalen mehr bekam das staunende Publikum zu hören. Schellnhubers mehrfache direkte Ansprache an die anwesenden Studenten trieben vielen Zuhörern vermutlich die Tränen der Rührung in die Augen, denn seine „message“ war folgende: diese jungen Leute seien die Zukunft und würden alle fiktiven Schäden durch anthropogenes CO2 einmal ausbaden. Dass sie auch einmal die Folgen von Wissenschafts-Advokaten-Politikern wie ihm ausbaden müssten, vergaß er leider zu erwähnen.

Klimaschutz und Energiewende sind bekanntlich Eliten-Projekte, die sich völlig frei von jeglicher Realität bewegen. Es war nicht schwer zu erkennen, dass  Schellnhuber keinen physikalischen sondern im Grunde einen politischen Vortrag hielt – sozusagen als Wissenschafts-Advokat. Zwar hat er, meiner Erinnerung nach, seine „Große Transformation“ (hier) zwar nicht explizit ausgesprochen, das wäre für den FB Physik vielleicht doch zu viel der Zumutung gewesen. Aber dennoch, unübersehbar plädierte er für sein großes-Transformations-Projekt, das offenbar so aussieht: Mit „Klimaschutz“ und dessen deutscher Endlösung „Energiewende“ soll das goldene Zeitalter des totalen Sozialismus eingeläutet werden. Nachdem alle Wege dorthin, wie die von Stalins Russland, Mao Tse Tungs China, Pol Pots Kambodscha, Fidel Castros Kuba, Kims Nordkorea und Chavezs Venezuela gescheitert sind, muss doch der deutsche Weg von Dekarbonisierung und Energiewende endlich glücken. „Wir schaffen das“.

Wie schon angesprochen, kamen im Klimateil von Schellnhubers Vortrag mehrheitlich fachlich fragwürdige Folien zum Einsatz. Stellvertretende Beispiele: Der Temperaturverlauf der Erde wurde mit einer roten Linie dargestellt, die in einem absoluten heutigen Maximum der letzten 10.000 Jahre mündete. Dieser berühmte Fake, bekannt als „Hockey-Stick„, welcher allen ordentlichen Proxy-Temperaturreihen von Baumringen über Tropfsteine bis hin zu Eisbohrkernen völlig widerspricht, erlebte eine Wiederauferstehung. Von der mittelalterlichen und römischen Warmzeit und insbesondere den noch weit wärmeren beiden Holozänmaxima, letztere übertrafen die Temperaturen der heutigen Periode besonders deutlich, war weit und breit im Vortrag nichts zu sehen oder zu vernehmen (hier).

Der Temperaturverlauf der letzten 150 Jahre entsprach dann der wohlbekannten HadCRUT-Kurve, in welcher Schellnhuber schamhaft die Jahre ab 1998 bis heute wegzensierte (hier). Im originalen HadCRUT sind diese Jahre natürlich vorhanden. Der Temperaturstillstand (Hiatus) dieser Zeitspanne passte leider in kein CO2-Katastrophengemälde. Und was war mit der unpassenden Abkühlungsperiode von 1940 bis 1975, damals sprachen sogar die US-Medien von einer neuen Eiszeit (hier)? Hmmm…, ach ja, natürlich: Das waren die Aerosole, vorher oder nachher waren die selbstverständlich nicht relevant. Es passte alles schön in das Klima-Katastrophen-Nähkästchen.

Natürlich wussten viele Zuhörer im Auditorium, dass es mit den so gerne in den Medien zitierten Klimakatastrophen, hier zum Beispiel Extremwetterzunahmen, nichts auf sich hat. Schließlich wurden die Ursachen und Statistiken der letzten Hurrikan-Saison in den USA sogar in deutschen Talkshows diskutiert, wo der bekannte Meteorologe Jörg Kachelmann allen Katastrophenvermutungen eine Absage erteilte. Wer sich danach gründlicher informierte – denn wer traut heute noch den Lückeninformationen und der Staatspropaganda von ARD und ZDF – musste zwangsläufig auf den AR5-Bericht, Kapitel 2.6 des hier sicher unverdächtigen IPCC stoßen, das zu den in den Medien so beliebten Extremwetterzunahmen absolut nichts auffinden konnte (hier) und ebenfalls Entwarnung gab.

Aus diesem Grund musste im Vortrag Schellnhubers etwas Besonderes her. Drei Male darf geraten werden, was: Natürlich, die ominösen Kipp-Punkte. Dass solche Kipp-Punkte normal sind, nicht nur in der Klima-Entwicklung, sondern überall im physikalischen und außerphysikalischen Weltgeschehen, bis herunter zum persönlichen Leben eines jeden Einzelnen, weiß zwar jeder. Kipp-Punkte sind aber bestens geeignet für Angstszenarien, weil niemand sagen kann, wann, wo und ob sie überhaupt auftreten. Dies ist ja gerade ihr Wesenskern und gleichzeitig der Wesenskern von Angst. Es lohnt eigentlich nicht, weiter darauf einzugehen, vermutlich steht alles viel besser noch in Schellnhubers Buch „Selbstverbrennung“, das er mehrfach erwähnte und sogar vorzeigte, oder es ist zumindest auf der Webseite des PIK (hier) bzw. des WBGU zu finden (hier).

Interessant wurde es nur in der Diskussion nach dem Vortrag. Leider aber nicht fachlich interessant, sondern interessant in einem ganz anderen Zusammenhang. Die erste Frage war bereits ein wenig peinlich, es ging um ein unwesentliches Detail im Vortrag, mit der ein Wichtigtuer seine tiefe Bewunderung für den großartigen PIK-Direktor coram publico bekundete. Danach kam ich an die Reihe. Was aber fragen nach so viel Desinformation? Durch dieses „embarras de richesse“ von sachlichem Vortragsunsinn ein wenig aus der Fassung gebracht, stellte ich zuerst das angebliche Versiegen des Golfstroms richtig. Der versiegt nämlich nur dann, wenn die Erddrehung und die Winde aufhören, wie es in Fachveröffentlichungen des MIT von wirklich zuständigen Experten nachzulesen ist.

Auf diese Bemerkung hin wurde es etwas unruhig im Auditorium. Danach erlaubte ich mir daran zu erinnern, dass Schellnhubers sterbende Korallen bereits auf mindestens 400 Millionen Jahre Existenz und oft wesentlich höhere Meerestemperaturen als heute zurückblicken. Meine Anmerkung zu dem von Schellnhuber unterschlagenen Zeitverlauf ab 1998 in seinem gezeigten HadCRUT-Temperaturverlauf wurde vom studentischen Publikum schließlich mit Gelächter bedacht „Temperaturstillstand kann doch gar nicht sein, es wird doch permanent wärmer„! Seltsam! Diese jungen Leute haben alle einen Laptop und studieren Physik, aber niemand kennt die „IPCC-offiziellen“ HadCrut-Temperaturen oder gar die Satelliten-Temperaturdaten, von historischen Proxy-Daten ganz zu schweigen.

Danach wollte ich zum CO2 kommen und dazu Schellnhuber meine Frage über seinen vielleicht interessantesten Widerspruch stellen: Im Jahre 2002 war er Mitautor in einem begutachteten Fachaufsatz, der keine unnatürliche globale Erwärmung in 95 weltweiten Messtationen auffand – steht in der discussion dieser Arbeit unter (iii). Die Arbeit ist fachlich einwandfrei, und das dort angewandte Verfahren, die detrended fluctuation analysis, immer noch gültig (ich habe sie ebenfalls in meinen Fachpublikationen mehrfach angewandt). Im Jahre 2008 dagegen machte Schellhuber dann das Alarm-Interview in der ZEIT „Manchmal könne ich schreien„. Also in nur 6 Jahren traten plötzlich Klimakatastrophen auf? Da haben wir wohl alle etwas ganz Entscheidendes verpasst (Klima ist, nebenbei bemerkt, gemäß WMO der statistische Mittelwert von Wetter über mindestens 30 Jahre).

Aber aus meiner vorgesehenen Frage wurde nichts, die Diskussionsleiterin, Frau Prof. Johanna Stachel, entzog mir höflich lächelnd das Wort, indem sie darauf hinwies, dass ich bis jetzt keine Frage gestellt hätte. Das traf natürlich zu, ich hatte einige Sekunden erst einmal versucht, die größten sachlichen Falschaussagen Schellnhubers zu berichtigen –  aber „party pooper“ waren unerwünscht. Frau Stachel verhinderte damit leider, dass Schellnhuber schärfer auf den Zahn gefühlt und die ganze Veranstaltung etwas spannender wurde. Ich gab daher friedfertig auf und wartete gespannt auf weiteren Fragen.

Was dann geschah, war unglaublich. Nichts, absolut nichts Kritisches wurde mehr gefragt oder gar angemerkt, und dabei blühte Schellnhubers Vortrag nur so von Abstrusitäten, Auslassungen und fachlichen Fehlern. Alles wurde von einem physikalischen Fachpublikum (wohlgemerkt!) wie ein göttliches Mantra ohne Widerspruch hingenommen. Das Frageniveau war für ein physikalisches Kolloquium schwach, euphemistisch ausgedrückt. Sogar die Frage nach den Fehlerbreite von Kipp-Punkten wurde nicht ironisch sondern sogar ernst gemeint gestellt. Keine wirklich kritische Frage kam, absolut nichts. Wo blieben eigentlich die Wissenschaftler aus dem Institut für Umweltphysik der Universität Heidelberg (iup)? Man darf aus ihrem Schweigen entnehmen, dass sie mit den Ausführungen Schellnhubers einverstanden waren. Somit kann nun jeder für sich selbst die fachliche Qualität dieses Instituts beurteilen.

Und weiterhin keine Frage beispielsweise, ob Schellnhuber in seinem Vortrag eine Folie mit den wesentlich stärkeren Erwärmungsperioden (verglichen mit den letzten 100 Jahren) über die letzten 10.000 Jahre vielleicht vergessen hätte.

Keine Frage, ob er vielleicht die Kurve der erdhistorischen CO2-Konzentrationen nicht kennt, die bis über 25 Male höhere Werte als heute zeigt (s. hierzu Fig. 5 in R. A. Berner, The long-term carbon cycle, fossil fuels and atmospheric composition, Nature, 426, 20.Nov.2003, kann in Google Scholar frei heruntergeladen werden), ohne dass die Welt unterging.

Keine Frage, warum die unzähligen erdhistorischen Kipp-Punkte zwar die biologische Evolution voranbrachten, aber niemals der Atmosphäre ernsthaften Schaden zufügten. Keine Frage, warum in Schellnhubers Dekarbonisierungs-Kampagne die Kernenergie keinen Platz fand. Mit den neuen Generation IV – Reaktoren (schnelle Brüter) steht im Gegensatz zur Photovoltaik ein wirklich nachhaltiges Energieversorgungskonzept für die Menschheit über 100 Millionen Jahre Brennstoffreichweite zur Verfügung (hier).

Keine Frage an Schellnhuber auch, warum er so gegen das CO2 ankämpft, wo dieses doch als Hauptbestandteil der Photosynthese ein unverzichtbares Lebensgas ist und durch seinen Anstieg zum Ergrünen der Erde und für bessere Welternten geführt hat (hier, hier).

Keine Frage zu seinen Modellen bzw. zu globalen Zirkulationsmodellen (GCM) allgemein, die, weil inhärent chaotisch, noch nicht einmal das vergangene Klima nachbilden können.

Und schlussendlich keine Frage zur Dekarbonsierung. Deutschland würde im Dekarbonisierungs-Ernstfall nur noch Rüben anpflanzen können – keine Industrie mehr, keine Autos, Flugzeuge oder Heizung. Dieses schlichte Faktum sollte doch zu einschlägigen Fragen an den hochrangigsten „Dekarbonisierer“ Deutschlands Anlass gegeben haben. Aber nichts war zu vernehmen. Insbesondere die Emeritierten Physikpofessoren, die ja, von allen politischen Rücksichten befreit, frei sprechen konnten, rührten sich nicht.

Meine Schlussfolgerung aus diesem Nachmittag im Otto-Haxel-Hörsaal: Es gibt tatsächlich einen akademischen Konsens über eine katastrophale anthropogene Erwärmung, einen Konsens, der es zur Verhinderung dieser Erwärmung übersieht, dass dabei die halbe Menschheit über die Klinge springen müsste. Zumindest herrscht ein solcher Konsens im Fachbereich Physik an der Universität Heidelberg – wenn auch glücklicherweise nicht weltweit und schon gar nicht unter seriösen Klimaforschern. Dieser Konsens, ich taufe ihn hier einmal den „Heidelberger Konsens“, sieht so aus: „Ok, hier bei uns ist nun einmal alles Grün, was kann man da schon machen, daher äußere man sich besser nicht, selbst dann nicht, wenn man es fachlich besser weiß und ein Vortragender den größten Grünunsinn erzählt. Selbst in ernsthaften Fachveranstaltungen (Physik-Kolloquium) sollte besser nicht widersprochen werden, es könnte Schaden dem Fachbereich zufügen  „Reden ist Silber, Schweigen ist Gold“. Die Regierung Baden-Württembergs ist grün, alle Medien sowieso…. Wenn dem Grünunsinn wiedersprechende Fakten wirklich nicht mehr ignoriert werden können, dann muss man sich auf jeden Fall für ihr Aussprechen entschuldigen, indem man „Klimaschutz“ und „Energiewende“ über den grünen Klee lobt„.

Für meinen Geschmack ist dies etwas zu viel der Höflichkeit und Zurückhaltung links-grüner Ideologie gegenüber. Dass man den sachlichen Inhalt von Schellnhubers Vortrag wirklich ernst nimmt, ist zwar nicht unmöglich. Ich halte dies aber für ausgeschlossen, denn im vollgefüllten Haxel-Saal saßen zu viele Physiker, die es besser wussten. Allein ein fachlich einwandfreier Beitrag von drei Heidelberger Physikprofessoren (Frau Prof. Stachel, die Diskussionsleiterin und ehemalige DPG-Vorsitzende, ist eine dieser drei Autoren) belegt, dass man durchaus über den Mega-Unsinn der Energiewende Bescheid weiß. Dieser sehr lesenswerte Beitrag zeigt die ganze Misere: Man kann bestimmte Fakten nur noch schildern, indem man sich für sie über alle Maßen hinaus entschuldigt. Leben wir bereits wieder in der ehemaligen DDR?

Wo liegen die Gründe für dieses bedrückende Wegducken? Fürchtet man den Verlust von Forschungsmitteln in einem grün regierten Bundesland, oder fürchtet man die links/grüne Studentenschaft? Heutzutage werden Professoren von ihren Studenten schließlich „gerankt“, was dann in die Gewährung bzw. Nichtgewährung von Zulagen eingeht. Heidelberg, Freiburg und Tübingen sind außerdem nicht gerade Städte, in welchen man mit sachlicher Vernunft gegen grünen Unsinn eine Chance hat. Also hält man sich besser bedeckt. War es das, oder ist es noch mehr? Ich weiß es nicht.

Was angesichts dieses Kolloquium-Nachmittags persönlich hängenblieb: Belustigtes Staunen und Fremdschämen darüber, was aus dem altehrwürdigen Fachbereich Physik der Universität Heidelberg geworden ist. Einem Fachbereich, in dem ich noch die Vorlesungen von Prof. Otto Haxel und Prof. Hans Daniel Jensen hören durfte, letzterer Nobelpreisträger, ersterer den Preis nur knapp verfehlend. Beide hätten dem sachlichen Unsinn im hier besprochenen Vortrag deutlich und unüberhörbar eine Absage erteilt und keinesfalls schweigend durchgehen lassen. Auch nicht durchgelassen hätte ihn Prof. Wolfgang Gentner, ehemaliger Direktor am Heidelberger MPI für Kernphysik, in dem ich promovierte. Gentner hatte während des dritten Reichs französische Kollegen jüdischer Herkunft im besetzten Paris vor den National-Sozialisten geschützt (hier), wozu schon Mut gehörte. Heute findet sich allenfalls noch ein mutiger deutscher Modeschöpfer (Karl Lagerfeld), der vor der neuen Gefahr für unsere jüdischen Mitbürger seitens muslimischer Extremisten warnt (hier), die immer zahlreicher in unser Land eingelassen werden.

Die Heidelberger Physik erlebte schon einmal einen moralischen Tiefpunkt mit dem Nobelpreisträger Prof. Philipp Lenard, der bis 1931 in Heidelberg lehrte und schließlich die „deutsche Physik“ etablierte, die sich gegen Einstein und jüdische Fachkollegen richtete. Aktuell sind wir wieder Zeuge eines wachsenden Faschismus, diesmal in der Farbe Rot-Grün und erneut unter dem Zeichen der „Weltrettung“. Nun soll die Welt diesmal vor unseren Mitmenschen in aufstrebenden Ländern gerettet werden, die Anschluss an die Moderne suchen, inzwischen immer mehr Kohle verfeuern, Autos fahren etc., kurz, die besser leben wollen. Dasjenige CO2, welches die Atmosphäre einmal besaß, führen diese Menschen in ihrem legitimen Streben nach mehr Wohlstand der Atmosphäre heute wieder zu. Recht haben sie damit, und sie werden sich von niemandem davon abbringen lassen.

Zum Zweck der Weltrettung, die in Wirklichkeit diktatorische Weltregierung heißt, müssen freilich erst einmal die hoch entwickelten Länder in die Knie gezwungen werden, deren CO2 Emissionen gegenüber den erwähnten aufstrebenden Ländern aber vernachlässigbar sind (hier). Das globale Großkapital, welches die zumindest an der Basis völlig ahnungslose, grüne Bewegung dazu als Speerspitze einsetzt, benötigt nämlich für seine Herrschaft Heloten. Demokratie und freie Bürger sind diesen Leuten ein Gräuel. Wir erleben es mustergültig hierzulande: Kernkraftausstieg, Vernichtung der Strominfrastruktur und damit einer sicheren Stromversorgung durch die Energiewende, Kohleausstieg, Vernichtung des Verbrennungsmotors, Vernichtung der Gentechnik, Massenüberschwemmung mit Angehörigen archaischer Kulturen von Frauenunterdrückung, Blutrache, Zwangskinderehen etc. sind die Methoden. Die von den Vertretern dieses grünen Faschismus verfolgte Dekarbonisierung würde bei einer globalen Ausweitung zu Hunger-Opferzahlen in der dritten Welt führen, welche die 100 Millionen Opfer von Mao Tse Tung noch weit hinter sich ließen. Die Vorstellung nämlich, heute fast 8 Milliarden Menschen könnten in auch nur in einigermaßen akzeptablen Lebensumständen mit Hilfe von Photovoltaik und mehr Bäume-Anpflanzungen überleben (nichts gegen Anpflanzung von neuen Bäumen und nichts gegen Photovoltaik), braucht nicht weiter kommentiert zu werden.

Trotz  Milliardensubventionen schafft es sogar Deutschland nicht, mehr als etwa 1% der gesamten deutschen Primärenergie aus Sonnenlicht zu gewinnen (hier). Photovoltaik heute ist zweifellos eine sehr sinnvolle Übergangslösung in sonnenreichen Drittländern, mit deren Hilfe sich die Leute ihre Smartphones aufladen und den TV betreiben können. Als nachhaltige Globallösung sind aber die Erneuerbaren Sonne und Wind ungeeignet. Ihre Leistungsdichte ist zu niedrig und ihre Verfügbarkeit nicht permanent. Energiepflanzen sind noch ungünstiger. Einzig heute sichtbare Lösung ist die Kernkraft (hier, hier). Physiker, sogar solche in Heidelberg, wissen dies selbstverständlich auch.

Was die Vertreter der Dekarbonisierungs-Agenda in ihren Träumen von großer Transformation planen, kann den Schriften des WBGU und des PIK im Detail entnommen werden. Das deutsche Parlament hat sich dieser neuen faschistoiden Erscheinungen dennoch niemals angenommen, und auch der Verfassungsschutz ist wegen Propagierung totalitärer, undemokratischer Strukturen niemals aktiv geworden. Daher wäre es im Heidelberger Physikkolloquium zumindest fachlich angebracht gewesen, den Mund aufzumachen. Warum dies nicht geschah, ist vielleicht später Lehrstück für Historiker.

 

 

 

 

 

 




Der Sonntagsfahrer: Die Rache der Ingenieure

„Dem Ingenieur, ist nichts zu schwör“ pflegte Daniel Düsentrieb das Wesen des Erfinders in kurzen Worten zusammenzufassen. Angrenzende Fachgebiete kommen oft nicht so gut weg, jedenfalls wird auf technischen Hochschulen gerne gelästert: „Dem Philosoph ist nichts zu doph“. Wobei der eigentliche Gegenspieler des Ingenieurs sicherlich nicht der Philosoph ist. Im Gegenteil: In einem guten Ingenieur steckt stets auch ein Philosoph, schließlich geht es auch dem Ingenieur darum, richtige Fragen zu stellen, oder – noch besser – alles in Frage zu stellen. Zur Veranschaulichung mag der folgende kleine Scherz aus dem technischen Gewerbe dienen. Der Optimist: „Das Glas ist halb voll“. Der Pessimist: „Das Glas ist halb leer“. Der Ingenieur: „Das Glas ist doppelt so groß, wie es sein müsste“.

Das kleine Beispiel veranschaulicht auch, warum Ingenieure und Techniker so selten in Talkshows anzutreffen sind. Da geht es immer nur um halb voll oder halb leer, um plus oder minus, um gut oder schlecht. Mehr als die ritualisierte Auseinandersetzung um das Grundsätzliche glaubt man dort dem Publikum nicht zumuten zu können. Ingenieure sind für solche Hahnenkämpfe denkbar ungeeignet, da sie ja stets nach einer Lösung suchen. Deshalb sind sie der natürliche Feind des Ideologen, der ja ganz im Gegenteil ein möglichst großes Problem braucht. Lösungen sind für den Ideologen im übrigen nur als Verwirklichung gesellschaftlicher Visionen denkbar.

Das ist beispielsweise der Grund dafür, dass es in Deutschland noch immer kein atomares Endlager gibt. Technisch wäre das keine besonders anspruchsvolle Aufgabe. Politisch ist eine Lösung aber überhaupt nicht erwünscht, da man den Bürger weiterhin mit dem atomaren Beelzebub einschüchtern will. Die Ingenieurs-Wissenschaften, ja überhaupt die Naturwissenschaften, sind in hohem Maße politisch unkorrekt. Deshalb fallen die Ideologen auch so wütend über ihre Vertreter her, wenn sich dann doch mal ein Physiker oder Chemiker in eine Talkshow verirrt. Alleine das kühle Abwägen verschiedener Risiken gegeneinander gilt bei den Maischbergers und Plasbergs als zynisch und amoralisch. Aktuelles Beispiel dafür ist die vollkommen aus dem Lot geratene Diesel-Debatte.

Wer rettete die Wale? Greenpeace? Nein, Rockefeller!

Merke: Technische Lösungen für gesellschaftliche Aufgabenstellungen kommen meist früher, als es die Ideologen gebrauchen können. Wer rettete die Wale? Greenpeace? Nein, das war Rockefeller, der mit der Technik der Erdölförderung die Nutzung der fast ausgerotteten Meeressäuger als Rohstoffquelle überflüssig machte. Wer rettete den Wald in Mitteleuropa? Der BUND? Nein, das war die Erfindung der Dampfmaschine, der die Förderung von Kohle aus großen Tiefen möglich machte. Die Waldzerstörung und die Übernutzung der Landschaft hatten in Mitteleuropa vor 200 Jahren jedes vernünftige Maß überschritten. Eine völlige Verkarstung Englands, das vor 200 Jahren schon nahezu entwaldet war, konnte so gerade noch abgewendet werden. Auch die Waldfläche Deutschlands verdoppelte sich im 19. Jahrhundert.

Ein den meisten bekanntes Beispiel ist die Warnung des Club of Rome von 1973 vor dem Ende des Erdöls, das man auf das Jahr 2000 terminierte. Die Ideologen hätten gerne sofort mit der Ausgabe von Rationierungs-Gutscheinen begonnen. Aber die Ingenieure versauten Ihnen das Geschäft, weil sie immer bessere Fördermethoden entwickelten und immer mehr Ölvorräte entdeckten. Und so wird das auch weitergehen, vorausgesetzt, man lässt die Ingenieure machen.

Kein Wunder, dass man mit allen Mitteln daran arbeitet, sie abzuschaffen. Ohne Not haben Politiker das bildungsmäßiges Alleinstellungsmerkmal, das weltweit hochangesehene deutsche Ingenieurs-Diplom der Unis und Fachhochschulen, zu Lasten eines Bachelor und Master Studiengangs aufgegeben. Viele Länder haben uns in der Vergangenheit um unser Ausbildungsprogramm beneidet. Es wurde für ein oberflächliches und universell austauschbares Studienprogramm geopfert.

Damit besteht zunächst auf dem Papier kein Unterschied zwischen einem Studienabgänger von Taka-Tuka-Land und einem einer technischen Hochschule in Deutschland. „Politisch korrekt, doch wo sind unsere Vorteile, wo ist unser Excellence Cluster, welches Alleinstellungsmerkmal soll unsere Ausbildung haben?“, fragte Wilfried Krokowski in diesem Achgut-Beitrag. Aber lassen wir das mal beiseite, es sind ganz offensichtlich noch ein paar muntere Ingenieure übrig, sie müssen ja auch nicht unbedingt aus Deutschland sein.

Echtes Unheil kündigt sich beispielsweise für die sogenannte „Deutsche Umwelthilfe“ und ihre Groupies in Regierung und Behörden an, die dem Auto und insbesondere dem Diesel den Auspuff endgültig abdrehen wollen. So trafen sich vergangene Woche mehr als tausend Motor-Entwickler zum „Wiener Motorensymposium“, der wichtigsten Fachveranstaltung zum Verbrennungsmotor. Und wie es aussieht, werden die Herren Ingenieure den Herren Ideologen schon wieder die Tour vermasseln.

Johannes Winterhagen schreibt dazu in der FAZ: „Der Ingenieur ist ein kritischer Geist. Das Wort ‚Wunder‘ löst in ihm bestenfalls den Willen aus, den Dingen genauer auf den Grund zu gehen. Denn er hat gelernt: Man muss nur lange genug schrauben und nachdenken, dann entpuppt sich jedes vermeintliche technische Mirakel als Apparatur, die allein den Gesetzen der Physik gehorcht“. Um den Stand der Dinge zusammenzufassen: Innerhalb der nächsten 5 Jahre wird man die Stickoxid-Emission der gesamten Fahrzeugflotte auf 20 Milligramm je Kilometer senken können (Beispiel Daimler), und zwar in den EU-Straßentests und nicht auf irgendwelchen wirklichkeitsfremden Prüfstand-Zyklen. Damit unterschreitet man die gesetzlichen Vorschriften um Größenordnungen. Nach derzeitigem Stand liegt der Grenzwert zu diesem Zeitpunkt bei 80 Milligramm je Kilometer.

Warum nicht gleich so?

Das Stickoxid-Problem des Diesels scheint also in relativ kurzer Zeit technisch lösbar – ob die Kunden das noch einmal glauben, ist eine ganz andere Frage. Man fragt sich natürlich auch: Warum nicht gleich so? Man hätte der Umwelt eine Menge Stickoxide und einer Reihe Mitarbeiter gesiebte Luft ersparen können. Ich vermute mal, hier kommt der zweite natürliche Feind des Ingenieurs ins Spiel: der Betriebswirt. Northcote Parkinson, der Urheber der berühmten Parkinsonschen Gesetze, behauptete einmal, Betriebswirte hätten „ungefähr so­viel Moral wie ein Beagle am Fressnapf“. Er meinte damit natürlich nicht das Individuum, sondern das mitunter suboptimale Wirken der Spezies als solche. Es ist ja durchaus gang und gäbe, dass hierzulande entwickelte neue Technologien erst einmal kaputtgerechnet werden, woraufhin sie dann im Ausland Karriere machen. Ideologen und Betriebswirte gehen im übrigen in Deutschland  durchaus arbeitsteilig vor: Ideologen vertreiben die Atomkraft, das Auto, die Chemie und die grüne Gentechnik, die Betriebswirte übernehmen den Rest, denn sie killen die gute Laune, die man zum Erfinden braucht.

Und jetzt wird es ganz bitter für die deutsche Weltuntergangs-Fraktion: Auch die Atomkraft feiert eine fröhliche Renaissance außerhalb des deutschen Windrad-Biotops. Ausgerechnet die Russen, die auf diesem Gebiet ja deutlich schlechter beleumundet sind als etwa deutsche Kernphysiker, bauen jetzt kleine AKW’s und schippern sie auf Flößen durch die Welt, schließlich haben sie mit atomgetriebenen U-Booten und Eisbrechern reichlich Erfahrung. Der Prototyp einer neuen Flotte von schwimmenden AKW’s machte sich dieser Tage via Ostsee zum Polarkreis in Ostsibirien auf, als „nördlichste Nuklear-Installation der Welt“ eine Kleinstadt mit Strom zu versorgen. Rosatom will so „neue Kundenkreise erschließen“, erklärte die Welt-Atompolizei von Greenpeace und zeigte sich entsetzt über die mangelnde Solidarität von China, Algerien, Indonesien, Malaysia und Argentinien. Die haben nämlich Interesse an den schwimmenden Meilern gezeigt. Und, liebe Freunde von Greenpeace, ich wage jetzt mal eine visionäre Prognose: Wenn es mit unserer erfolgreichen Energiewende so weiter geht, dann wird so ein Floß womöglich bald den Rhein hinauf schippern und im Stuttgarter Neckarhafen vor Anker gehen, als Notstromaggregat für Daimler.

Ja, dem Russ‘ ist alles zuzutrauen, sogar eine relativ intelligente Argumentation. Rosatom reagierte auf die Greenpeace-Proteste mit folgendem Hinweis, der ebenso gemein wie niederträchtig formuliert ist: „Wer von angeblich 100 Prozent erneuerbaren Energien träumt, realisiert nicht, dass in einer langen Polarnacht bei minus 60 Grad Celsius weder Wind- noch Solarkraft zur Verfügung stehen“, heißt es, „es ist dann entweder Kohle- oder Atomstrom.“ Kohleverstromung habe „erhebliche negative Auswirkungen auf die arktische Umwelt durch giftige Emissionen, die für den Klimawandel, vorzeitige Todesfälle und das Artensterben verantwortlich sind“. Demgegenüber vermeide Atomkraft „zehntausende Tonnen Kohlendioxid“ und versorge die Menschen „mit sicherer, sauberer und verlässlicher Energie“.

Ground-Control an Wolfsburg, Stuttgart, München

Während die Russen mit ihren AKW’s durch die Weltmeere pflügen, entwickeln die Amis aus ähnlichen Gründen jetzt Baby-Reaktoren für den Weltraum. Denn auch dort kann die Nacht schon mal was länger dauern. Der im Rahmen des Projekts „Kilopower“ entwickelte Reaktor ist demnach in der Lage, kontinuierlich für mindestens 10 Jahre bis zu 10 Kilowatt elektrische Leistung zu liefern. Grundlage ist ein Reaktorkern aus Uran 235 von der Größe einer Küchenpapierrolle. Das wird früher oder später auch die Generation Silicon-Valley auf den Plan rufen. Der Reaktor kann Raumschiffe und Raumsonden unabhängig von der Sonne mit Energie versorgen. Und was noch? Ja was denn wohl? Ich trau mich’s ja kaum zu sagen: Könnte man mit einem solchen Ding, ähm, nicht auch ein Auto antreiben? „Da Autos die meiste Zeit ohnehin nur herumstehen, würden die 10 Kilowatt Dauerleistung in Verbindung mit einem Puffer-Akku locker reichen – man müsste nie tanken und könnte das Auto mit einer ‚Atom-Küchenrolle‘ 10 Jahre lang betreiben“, schreibt ein Leser zu dem oben verlinkten Bericht.

Leute, da bin ich dabei! Ground-Control an Wolfsburg, Stuttgart, München: Übernehmen Sie, bevor es Elon Musk tut. Das Atomauto wäre jedenfalls die ultimative Rache des deutschen Ingenieurs an seinen Peinigern und die späte Erfüllung eines Traums aus den 60er-Jahren des vorigen Jahrhunderts. Ich spendiere dann ein fliegendes Taxi für Dorothee Bär, powered by AKW. Auf Achgut.com wurde die Sache übrigens im vergangenen Sommer in einem „Sonntagsfahrer“ mit dem Titel „Rache an VW & Co.“ vorweg genommen. Da hieß es über den äußerst eigenwilligen aber längst verschiedenen Renault Vel Satis:

Gestartet wird er mit einem großen roten Knopf. Als Antrieb hatte ich deshalb eigentlich ein hübsches kleines Atomkraftwerk erwartet. Statt zur Inspektion führe ich dann einmal im Jahr zur Wiederaufbereitungsanlage nach La Hague, die Brennstäbe erneuern. Aber das hat sich Renault nun doch nicht getraut. Kann aber noch kommen. Für Elektroautos, die in Frankreich eine Steckdose aufsuchen, trifft der Slogan „Powered by Uranium“ ja heute schon zu.

 

Nachwort der EIKE-Redaktion

Die Vorgänge um Greenpeace sollten eigentlich in jedem demokratischen Land die Staatsanwaltschaft oder die Polizei auf den Plan rufen. Man kann den Russen nur für Ihre Konsequenz diesem fragwürdigen Verein gegenüber gratulieren. In Deutschland hat Greenpeace freilich Bestandsschutz und wird zumindest in unseren Lückenmedien gefühlt fast schon als Regierungsorganisation gehandelt. Ein Erlebnis des Verfassers mit dieser Organisation war erhellend, zumindest für ihn. Vor mehreren Jahren saß er zufällig anlässlich einer Podiumsveranstaltung mit einer Greenpeace-Funktionärin gemeinsam am Mittagstisch. Seine etwas naive Bemerkung, dass ihm der Schutz der Waale seitens Greepeace stets Sympathie und Respekt eingeflößt habe, erzeugte nur ein mildes, mitleidiges Lächeln bei der Dame. Ihre Entgegnung: Damit hätte Greepeace kaum noch etwas zu tun, man kämpfe nun gegen den Klimawandel und Kernkraftwerke. Wie heißt es so schön, um diese Bemerkung zutreffend einordnen zu können? Man folge dem Gelde.

Prof. Dr. Horst-Joachim Lüdecke, EIKE-Pressesprecher




Der Himmel ist kein Müllplatz, wohl aber die ADAC Motorwelt vom 4/2018

Um dem Kollegen Dr. Feulner nicht Unrecht anzutun: er muss vermutlich sachlichen Unfug in der ADAC Motorwelt verzapfen, um seinen Arbeitsplatz beim PIK zu erhalten. Es ist der übliche Klimakatastrophenklamauk, der in ebenso üblicher Weise ohne wissenschaftliche Belege den diesmal ohnehin schon genug gestressten deutschen Autofahrern ins Hirn geblasen wird. Dass die Autofahrer endlich aufwachen, oder sogar anfangen sich zu wehren, ist freilich unwahrscheinlich. Es gibt nämlich zur Zeit noch weit wichtigere Themen, und hier scheint der deutsche Michel tatsächlich langsam, sehr langsam aus seinem obrigkeitshörigen Tiefschlaf zu erwachen. Gegen diese Themen ist die staatliche Enteignung seiner Dieselinvestitionen geradezu eine Petitesse. Und menschgemachter Klimawandel? Da gähnen die meisten nicht einmal mehr. Wen interessiert der Klima-Unsinn eigentlich noch?

Was schreibt nun also Herr Feulner? Man mag es kaum noch kommentieren, so langweilig und putzig falsch ist es in seiner permanenten Wiederholung. Die kleine Kolummne von 1/3 DIN A4 in der ADAC Motorwelt teilt sich in

1) eine kurze Beschreibung des sog. Treibhauseffekts, verursacht durch Treibhausgase (kann man belassen, ist ok)

2) den Abschnitt „leider stoßen wir zuviel CO2 aus“ und

3) Den Schlussabschnitt „Machen wir weiter wie bisher …

In Abschnitt 2) stehen gleich zwei so dicke sachliche Unwahrheiten, dass es einem den Atem verschlägt: erstens hätten wir (die Menschheit) die globale Mitteltemperatur bereits heute um ein Grad gegenüber dem vorindustriellen Zeitalter erhöht. Zweitens würden dadurch weltweit Wetterextreme wie Starkregen oder Hitzewellen zunehmen. Nachfolgend die Fakten:

Erdtemperaturen

Die Erde hat schon wesentlich wärmere, aber auch kältere Zeiten als heute erlebte, insbesondere bis zu 17 Male höhere CO2 Konzentrationen in der Luft (hier, hier). Eine ursächliche Korrelation von CO2 und Erdtemperaturen ist für keine Erdepoche bekannt, einschließlich der jüngsten. Davon ausgenommen ist der relativ schwache physikalische Effekt einer Ausgasung von CO2 bei höheren Meereswassertemperaturen bzw. einer Bindung bei tieferen Wassertemperaturen. Hierbei folgt das CO2 der Temperatur, nicht umgekehrt (hier). Flora und Fauna kamen auch bei höchsten CO2 Konzentrationen in der Klimavergangenheit nicht zu Schaden. Insbesondere bei hohen CO2 Werten boomte das Leben. Von Meeresversauerung in solchen Zeiten ist nichts bekannt, auch Korallen gedeihen schon seit über 400 Millionen Jahren (hier).

Die letzten 1 Million Jahre bewegte sich die Erde zyklisch durch Warm- und Eiszeiten (hier). Rund 90% der letzten 1 Million Jahre waren sehr viel kälter als heute. Wir leben seit 9000 Jahren wieder in einer Warmzeit. Warmzeiten waren stets wesentlich kürzer als Eiszeiten, so dass gemäß dem o.g. Zyklus die nächste Eiszeit in vielleicht 1000 bis 3000 Jahren zu erwarten ist. Noch vor 20.000 Jahren reichten in der letzten Eiszeit die skandinavischen Gletscher bis nach Norddeutschland. Durch das gefrorene Meereis lag der globale Meeresspiegel 120 m tiefer als heute. Das Doggerland zwischen England und Kontinentaleuropa, heute Nordsee, war trocken und wurde von steinzeitlichen Jägern und Sammlern bis noch vor 10.000 Jahren besiedelt (hier).

In unserer Warmzeit über 9000 Jahre waren die Alpengletscher überwiegend kleiner als gegenwärtig (hier, hier) Mitte des 19. Jahrhunderts (nach Ende der kleinen Eiszeit, die mit Unterbrechungen von Mitte des 15. bis Mitte des 19. Jahrhunderts dauerte) begannen die Alpengletscher wieder zu schmelzen, obwohl es damals noch kein anthropogenes CO2 gab. Schmelzende Gletscherzungen lassen heute immer wieder uralte (hier) Baumstümpfe frei, welche ehemalig höhere Baumgrenzen und wärmere Zeiten anschaulich belegen. In den zwei langgezogenen Klimaoptima des Holozän – vor 6500 Jahren über knapp 2000 Jahre Dauer, sowie vor 4500 Jahren über 1500 Jahre Dauer – war es deutlich wärmer als heute. Zwei kürzere Optima, das stärkere römische und das etwas schwächere mittelalterliche, entsprachen etwa den gegenwärtigen Temperaturoptimum (hier) (s. Abb. 1).

Dr. Kehl, TU Berlin

Warmzeiten bedeuteten stets kulturelle Blütezeiten, Kaltzeiten dagegen Völkerwanderungen, Hunger und Seuchen. In der starken Warmzeit 6500 vor heute wurden in Mesopotamien der Pflug, das Rad, Bewässerungssysteme und die Schrift erfunden. Die tiefen Temperaturen und die Not der Menschen in der kleinen Eiszeit zeigen die berühmten Winterbilder zeitgenössischer holländischer Meister.

Im 20-ten Jahrhundert erwärmte es sich bis in die 1930-er Jahre auf etwa heutige Temperaturen, um sich danach, bis etwa 1975, wieder auffällig abzukühlen. Diese Abkühlung veranlasste den US Science Report von 1972, vor einer neuen Eiszeit zu warnen (hier), sogar das US Time Magazine berichtete darüber in seiner Ausgabe vom 3. Dez. 1973 (hier). Die Eiszeitwarnung war ein Fehlalarm, ähnlich wie das uns zeitlich näher gelegene Waldsterben (hier). Ab 1975 bis 1998 ging es mit der globalen Mitteltemperatur wieder nach oben. Die 20 Jahre danach bis heute verblieb dann die Erdtemperatur auf etwa gleichem Niveau (hier), abgesehen von kurzen Schwankungen, die im Wesentlichen von El Niños verursacht wurden. Der letzte, nicht einmal 30-jährige Temperaturanstieg von 1975 bis 1998 gab zur Vermutung einer anthropogenen Erwärmung Anlass. Etwa drei Viertel aller anthropogenen CO2 Emissionen bis heute fielen nämlich in die Jahre ab 1950 bis heute.

Dieser Vermutung widersprechen zumindest die oben geschilderten, oft höheren Vergangenheitstemperaturen ohne menschgemachtes CO2. Aber auch die Geschwindigkeit des jüngsten Temperaturanstiegs liegt weit im natürlichen Bereich (hier). Eine inzwischen recht lang gewordene Reihe von Fachpublikationen vermag zumindest die globale Temperaturentwicklung der letzten 2000 Jahre, inklusive der jüngsten Erwärmung, auf natürliche Zyklen zurückzuführen, deren Ursprung als solar vermutet wird (hier und die dort zitierten Arbeiten). Gemäß dem Grundparadigma der modernen Naturwissenschaft, dem „Rasiermesser“ von William Ockham (hier), war der jüngste Temperaturanstieg vorwiegend natürlich, falls nicht zwingende Argumente widersprechen. Die gibt es aber nicht.

Extremwetter

Für jedes Extremwetter, wo auch immer es auf der Welt auftritt, machen heute die Medien den anthropogenen Klimawandel verantwortlich. Die Fakten sehen anders aus. Über Extremwetterzunahmen seit 1950 gibt das IPCC im Sachstandsbericht  AR5, Kapitel 2.6 von 2013 für alle denkbaren Extremwetterkategorien ausführlich und detailliert Auskunft (hier), angefangen von Stürmen, Tornados, über Hagel, Starkregen, bis hin zu Dürren und Überschwemmungen. Erst etwa seit 1950 liegen hierzu nämlich ausreichend umfangreichen Messungen und Statistiken vor. Ergebnis: Das IPCC  konnte keine allgemeine Zunahme solcher Ereignisse finden, weder an Anzahl, noch an Stärke. Damit bestätigt es im Grunde nur die meteorologische Fachliteratur, die gleiches aussagt (hier). Alle heutigen Extremwetter gab es auch schon in der Vergangenheit ohne menschgemachtes CO2, oft sogar stärker (hier). Besonders einfach gestaltet sich der Nachweis für Überschwemmungen an Hand historischer Flusspegel (hier).

Machen wir einfach weiter wie bisher ….

Hier redet Feulner auch noch von „Klima stabilisieren“. Sancta simplicitas, man fasst es nicht mehr! Kein Klima irgendwo auf der Welt, ob tropisch, gemäßigt oder polar kann stabilisiert werden, allenfalls vielleicht das Klima in der Gartenlaube von Herrn Feulner. Neben den gruseligen Verlautbarungen aus dem PIK gibt es glücklicherweise auch noch seriöse Aussagen, so die von Prof. Heinz Miller, ehemaligem Vizedirektor des Alfred-Wegener-Instituts, der feststellte (hier)

Wer von Klimaschutz redet, weckt Illusionen. Klima lässt sich nicht schützen und auf einer Wunschtemperatur stabilisieren. Es hat sich auch ohne Einwirkungen des Menschen oft drastisch verändert. Schlagworte wie “Klimakollaps“ oder „Klimakatastrophe“ sind irreführend. Klima kann nicht kollabieren, die Natur kennt keine Katastrophen“.

Und wenn Klimastabilisierung nicht schon genug an hirnverbranntem Blödsinn ist, auch den Meeresspiegelanstieg sollen wir gemäß Dr. Feulner noch begrenzen. Donnerwetter, da hat sich das PIK was vorgenommen. Durch Schmelzen der Eismassen nach der letzten Eiszeit hat sich, wie schon erwähnt, der globale Meeresspiegel um 120 m erhöht – mit stetig abnehmender Geschwindigkeit (hier). Der aktuell nur noch unbedeutende Restanstieg wird seit vielen Jahrzehnten von Tausenden weltweit verteilten Pegelmessstationen akribisch überwacht und dokumentiert. Eine gemeinsame Fachstudie und Auswertung dieser Messungen von zwei US-Universitäten zusammen mit einer israelischen Universität vom Jahre 2015 hat einen gemittelten Meeresspiegelanstieg von 0,4 bis 1 mm/Jahr ermittelt (hier).

Obwohl diese Fakten aus der Fachliteratur auch Journalisten leicht zugänglich sind, wird das Überschwemmen und damit Versinken von paradiesischen Südsee-Inseln als bevorzugtes Narrativ der Medien mit Sicherheit noch unsere Enkel und Urenkel ängstigen. Bis zum Jahre 2100 bedeutet der gegenwärtige Anstieg im Maximalfall(!) 8 cm mehr. Eine Beschleunigung des Anstiegs zeigen die Pegelmessungen nicht. Die vergleichsweise fehleranfälligen Satellitenmessungen liefern etwa doppelt so hohe Werte wie die Pegelmessungen und werden daher von Fachexperten bereits als fragwürdig angesehen (hier). Aber auch die Satellitendaten zeigen keine Beschleunigung des Meeresspiegelanstiegs.

Fazit

Der Himmel ist kein Müllplatz, hier ist Dr. Feulner uneingeschränkt zuzustimmen. Allerdings ist jetzt die ADAC Motorwelt 4/2018 zum Müllplatz verkommen, nämlich dem sachlichen Müll eines Dr. Feulner vom PIK.

Eine Ehrenrettung des ADAC

Immerhin findet sich im gleichen Heft der ADAC Motorwelt ein Vergleich der CO2 Bilanzen von Autoantrieben, aus dem hervorgeht, dass das politisch so propagierte E-Auto nicht unbedingt besser abschneidet als Benziner oder Dieselfahrzeuge. Aber anstatt diesen Bericht auf den Kern zu bschränken, darf natürlich ein Seitenhieb auf D. Trump nicht fehlen, der völlig sachgerecht und nachvollziehbar die im Pariser Klimavertrag vorgesehenen Zahlungen verweigert.

Und da wir schon beim CO2 sind: Wie ist das eigentlich mit dem CO2 beim Auto, verglichen mit der menschlichen Ausatmung? Wie maßgebend das CO2 aus dem Autoverkehr ist, zeigt folgende Grobabschätzung: Ein Auto erzeugt 0,15 kg CO2 pro km, bei 10.000 km sind das im Jahr 1,5 t. Weltweit gibt es 1 Milliarde Autos. Alle Autos erzeugen daher 1,5 Milliarden t CO2 im Jahr. Ein Erwachsener erzeugt 0,4 t CO2 im Jahr durch seine Ausatmung. 7 Milliarden Men­schen auf der Erde erzeugen somit pro Jahr durch Ausatmung 0,4·7 = 2,8 Milliarden t CO2. Das CO2 aus der Ausatmung der Menschheit übersteigt daher deutlich das aus dem Autoverkehr. Wäre doch mal eine Thematisierung in der ADAC Motorwelt wert, oder nicht?

Glücklicherweise kennen den ADAC die meisten in Gestalt seiner „gelben Engel“, die stets zur Stelle sind, wenn mit dem liebsten Mitglied in deutschen Familien, dem Auto, etwas schief gelaufen ist. Auch der Autor (als konsequenter Fahrer alter solider Gebrauchtwagen) möchte sich bei diesen Helfern bedanken, die stets freundlich, fachkundig und oft als unterhaltsame Fachplauderer dem Schadensopfer auch noch wichtige Tips verraten. In diesem Sinne sei der PIK-Artikel dem ADAC verziehen. Solch ein Verein muss mit der Politik kungeln. Er sollte bei seinem Kungeln aber die Kirche im Dorf lassen.

 




Das Ende des Verbrennungsmotors: Bundestag lässt Einspruchsfrist gegen EU verstreichen

Die Einspruchsfrist des Deutschen Bundestags gegen den Vorschlag der EU-Kommission (EU-Verordnung Ratsdokumentnummer 1421/17) zur Festlegung von Emissionsnormen für Personenkraftwagen (hier, hier, hier) ist inzwischen abgelaufen, ohne dass sich eine Bundestagspartei dieser, für die wirtschaftliche Zukunft unseres Autolandes entscheidenden, Angelegenheit annahm. Hierzu kann man nur Claude Juncker zitieren „Wenn es kein großes Geschrei gibt und keine Aufstände, weil die meisten gar nicht begreifen, was da beschlossen wurde, dann machen wir einfach weiter„. Der deutsche Bundestag gehört definitiv zu denen, die nichts begriffen haben.

Einzige Ausnahme von den Begriffstutzigen machte die AfD-Fraktion. Deren Anträge werden freilich undemokratisch, weil generell unabhängig von ihren Sachinhalten, von dem gegen sie gerichteten Parteien-Kartell abgelehnt. Die AfD wollte mit Ihrem Diskussionsantrag erreichen, dass eine Subsidiaritätsrüge ausgesprochen wird, so gemäß Dr. Ing. Dirk Spaniel, dem verkehrspolitischen Sprecher der AfD-Fraktion. Damit wäre der EU-Vorschlag zwar noch nicht vom Tisch, es wären aber wenigstens nicht alle Türen zugeschlagen worden.

Was bedeutet die EU-Intiative für unsere Autoindustrie, Zulieferer und Arbeitsplätze?

Die geplante EU-Verordnung will ab 2021 angeblich realitätsnähere Verbrauchstests für PKW und leichte Nutzfahrzeuge einführen. Das klingt zunächst vernünftig. Allerdings sind bei diesem Vorhaben die Grenzwerte so niedrig gewählt, dass technisch gar keine vernünftigen Fahrzeuge mit Verbrennungsmotoren mehr möglich sind. Verbrauchsminderungen sind hier ausgereizt. Um eine Vorstellung davon zu bekommen, was gemeint ist, müssten PKW mit Benzinmotoren einen Verbrauch von höchstens rund vier Litern pro 100 Kilometern einhalten.

Dazu führt Dr. Spaniel völlig korrekt aus: „Diese Grenzwerte sind vielleicht für Kleinstwagen unter Laborbedingungen erfüllbar, nicht aber mehr für heutige Mittelklasselimousinen unter realen Bedingungen. Der Verbrennungsmotor oberhalb eines unbedeutenden Kleinwagensegments müsste dann durch Elektroantriebe ersetzt werden. Dieses wird entscheidende Auswirkungen auf den Motorenbau und die Zulieferindustrie in Deutschland und die damit verbundenen Arbeitsplätze haben. Alle Fraktionen haben die letzte Chance verspielt, dieser für Deutschland wirtschaftlich desaströsen EU-Verordnung die Stirn zu bieten. Die Realität ihres Handelns wird sie einholen, wenn in wenigen Jahren die ersten Motorenwerke geschlossen und Mitarbeiter in die Arbeitslosigkeit geschickt werden“.

Ironisch an der EU-Initiative, die unverkennbar Elektromobilität par Ordre du Mufti durchdrücken will, ist nur, dass die CO2-Bilanz von Elektroautos nicht generell besser ist als die von Benzinern oder gar Dieselmotoren (hier). Elektromobilität besitzt zweifellos sinnvolle Nischen, wie auf Golfplätzen und im ausschließlichen Stadtverkehr (hier sogar vielleicht einmal in öffentlichen Bussen). Generell wird sie den Verbrennungsmotor aber niemals ersetzen können. Das verbietet die elektrochemische Spannungsreihe der Elemente, also schlichte Physik, an der die Batterieentwicklung und auch gutgemeinte Politik nun einmal nicht vorbeikommen.

Die EU-Initiative in Sachen Verbennungsmotoren schließt sich nahtlos an die EU-Ökodesignrichtlinien an (hier). Diese Richtlinien sind sehr einfach zu erklären, wenn man sich an das Hinrichtungsinstrument „Garrote“ erinnert, mit dem in Spanien noch bis 1974 die Todesstrafe vollstreckt wurde. Es handelt sich um ein Halseisen, das langsam zugedreht wird, so dass der Delinquent besonders qualvoll endet. Der Delinquent sind hier die energieintensiven Industrien der EU-Mitgliedsstaaten, die Garrote die EU-Ökodesignrichtlinien, die von Jahr zu Jahr fester angezogen werden.

Was steckt hinter der EU-Initiative?

Man lese einfach (hier). Im Grunde einziges Motiv ist die „Rettung“ vor dem gefährlichsten „Gift“ der Welt, dem anthropogenen CO2. Es gehört nicht viel Phantasie dazu, sich vorzustellen, wie solch ein ideologischer Schwachsinn, der alle naturwissenschaftlichen Fakten ignoriert, enden wird: Alle von Verrückten errichteten Diktaturen gehen an ihren inneren Widersprüchen zugrunde (hier ist es die Brüsseler Diktatur von misanthropen Weltrettern vor dem anthropogenen CO2). Dies ist die gute Nachricht. Nun die schlechte: Dieses Zugrundegehen kann leider so lange dauern, bis nur noch Schutt und Asche übrig geblieben ist.

terimakasiho, Pixabay

Großbritannien hat als erstes Land Lunte gerochen und die Notbremse gezogen. Hier war allerdings ein anderer Grund als die EU-Energiepolitik maßgebend, die EU-Migrantenpolitik. Andere EU-Länder werden sich Großbritannien spätestens dann anschließen, wenn der wirtschaftliche Niedergang aufgrund der Brüsseler Energie-, Finanz-, Umverteilungs- und Migrations-Politik spürbar wird und insbesondere Deutschland als Zahlmeister ausgefallen ist. Ausfallender Zahlmeister? Wir schaffen das, Kernkraftwerke weg, ordentliche Stromversorgung weg, Kohle und Verbrennungsmotoren fast schon weg, …. irgendwann wird es schon klappen.

Insbesondere die Visegrad Staaten werden den Brüsseler Affenzirkus nur so lange mitmachen, wie sich ihr bisheriger Nettogewinn aus der EU nicht in ein Verlustgeschäft gewandelt hat. Das kann schneller passieren, als man denkt. Um nun aber nicht immer alles negativ zu sehen, sondern auch einmal das Positive zu betonen, schließen wir mit „Alle sind gute Europäer, wir besonders gute EuroPayer und sind stolz darauf“.