1

Die Union of Concerned Scientists versucht, Steve Koonin zu „versenken“

Zu schade, dass ihre Analyse von der ursprünglichen Inhaltsanalyse-Expertin Kimberly Neuendorf vor Gericht in Stücke gerissen wurde, die schrieb:

[Oreskes‘ Analyse] stützt die Schlussfolgerungen der Studie nicht, weil ihre Analyse eine Reihe von grundlegenden Fehlern aufweist. Der Inhaltsanalyse von S&O fehlt es an Zuverlässigkeit, Validität, Objektivität, Verallgemeinerbarkeit und Replizierbarkeit. „ (May, 2020c, S. 169).

Peter Frumhoff von der Union of Concerned Scientists war einer der Hauptorganisatoren der ExxonKnew-Kampagne und bezahlte sogar die Reisekosten der Generalstaatsanwälte der Bundesstaaten, die an den verschiedenen Kampagnentreffen und Ankündigungen teilnahmen. Seitdem stecken sie bis zum Hals in diesen Kampagnen gegen die freie Meinungsäußerung. Sie sind keine netten Leute.

Jetzt geben sie Benjamin Santer eine Stimme, dem „Fingerabdruck“-Mann, der weithin für seine Last-Minute-Änderungen an Kapitel 8 des zweiten IPCC-Berichts (SAR) von 1995 kritisiert wurde. Er und John Houghton erzwangen eine Last-Minute-Änderung der Schlussfolgerungen von Kapitel 8, nachdem das Team des Kapitels die Schlussfolgerung gebilligt hatte, dass „bisher keine Studie sowohl eine signifikante Klimaveränderung festgestellt als auch diese Veränderung ganz oder teilweise positiv auf anthropogene Ursachen zurückgeführt hat.“ Unter politischem Druck, wahrscheinlich von Vizepräsident Al Gore, kehrten sie den wissenschaftlichen Befund um und änderten die Schlussfolgerung in:

Die Bilanz der Beweise deutet auf einen erkennbaren menschlichen Einfluss auf das globale Klima hin.“ (IPCC, 1996, S. 4)

Diese politische Änderung eines wissenschaftlichen Dokuments führte zu einem enormen Aufruhr in der wissenschaftlichen Gemeinschaft und befleckte für immer den Ruf des IPCC für wissenschaftliche Integrität. Mehr über diesen beschämenden Vorfall können Sie hier nachlesen.

Jetzt geht Santer gegen Koonins Buch vor, und zwar in einem UCS-Website-Blogpost mit dem Titel: „Climate Denialism Has No Place at Lawrence Livermore National Laboratory.“ Sie können es in voller Länge hier lesen. Sie erinnern sich vielleicht, dass Santer an Koonins APS-Workshop zum Klimawandel teilgenommen hat, über den ich hier geschrieben habe. In diesem Workshop fand ich, dass Santer seine Position gut verteidigt hat. Es ist klar, dass er und Koonin in Fragen des Klimawandels nicht einer Meinung sind, aber beide haben sich bei diesem Treffen gut benommen und die Themen als Fachleute diskutiert.

Santer hat sich allerdings verändert. Sein Essay auf der UCS-Website ist nicht professionell. Aus irgendeinem Grund scheint er zu denken, dass weil Koonin nicht den Titel „Klimawissenschaftler“ annimmt, es ihm nicht erlaubt ist, sich zum Thema zu äußern. Wir werden uns daran erinnern, dass Koonin über 250 begutachtete Artikel geschrieben hat, die laut Google Scholar über 14.000 mal erwähnt worden waren. Er war auch Wissenschaftsberater im Energie-Ministerium der Obama-Regierung. Befinden sich die einzigen Gesalbten nur in der kleinen Gruppe der selbsternannten „Klimawissenschaftler“, die über das Klima sprechen dürfen? Wie kommt man in diese geschätzte Priesterschaft? Wenn man Santers Aufsatz liest, könnte man meinen, sie seien von Gott berufen.

Wie die meisten in der „Seid-Still-Kultur“ sagt Santer: „Freie Meinungsäußerung ist wichtig“, aber der Text seines Beitrags legt nahe, dass nur seiner kleinen Gemeinschaft freie Meinungsäußerung in Bezug auf die Klimawissenschaft erlaubt ist. Er scheint entschlossen, sie Koonin zu verweigern. Sorry Benjamin, freie Meinungsäußerung funktioniert nur, wenn jeder sie hat.

Works Cited

IPCC. (1996). SAR, Climate Change 1995, The Science of Climate Change. Cambridge: Cambridge University Press. Retrieved from https://www.ipcc.ch/site/assets/uploads/2018/02/ipcc_sar_wg_I_full_report.pdf

May, A. (2020c). Politics and Climate Change: A History. Springfield, Missouri: American Freedom Publications. link

Link: https://andymaypetrophysicist.com/2021/05/24/the-union-of-concerned-scientists-tries-to-cancel-steve-koonin/

Übersetzt von Chris Frey EIKE

 




Nach Brandanschlägen jetzt Schlüsseldiebstahl: Legalisierter Terror gegen Volkswagen?

In Emden warteten 400 Volkswagen mit Diesel- und Benzinmotoren auf ihre Verschiffung. Da die Schlüssel, heute fast immer elektronisch, wohl nicht in den Autos steckten, sondern zentral gelagert wurden, konnten bis zu 40 (!) Aktivisten von Greenpeace, generalstabsmäßig geplant, sogar mit einer Art Uniform, sie stehlen.

Die Wagen können ohne Schlüssel nicht ins Schiff gefahren werden und stecken daher erst einmal im Hafen fest. 14 der Täter konnten gefaßt werden; es wurden nur die Personalien festgestellt. Immerhin fand man bei ihnen auch einige Dutzend Autoschlüssel.

Die Aktivisten kündigten an, die Schlüssel an einen Ort der Welt zu verschicken, wo der CO2-getriebene Klimawandel angeblich besonders schlimm wütet.

Was ist an Strafen zu erwarten? Aus Erfahrung wenig bis nichts – schon in den 1980ern hatte klar strafbares Verhalten auf Anti-Kernkraft-Demos, von einer erkennungsdienstlichen Behandlung abgesehen, kaum Folgen für die privilegierten Revoluzzer. Erst recht heute, wenn selbst das „Schottern“ von Bahngleisen nicht zu langen Haftstrafen führt (schwere Eingriffe in den Verkehr).

Nun ist aber ein halb-privater Konzern betroffen. Wird er seine teuren Anwälte auf die Organisation hetzen? Aus zwei Gründen kaum möglich. Erstens: Greenpeace ist schon lange keine idealistische Naturschutz-Organisation mehr, sondern ein verschachtelter Konzern, der halt keine Waren, sondern Identität und ein „gutes Gefühl“ verkauft. Es gibt die Mutter Greenpeace International, die in den Niederlanden ihren Sitz hat. Der Ableger Greenpeace Deutschland in Hamburg hingegen, der als gemeinnützig anerkannt ist (und die Spenden kassiert), ist formaljuristisch eine andere Organisation. Daher kann der Staatsanwalt beziehungsweise das Gericht den Ökoterroristen nicht so leicht mit finanziell empfindlichen Strafen wie Entzug der Gemeinnützigkeit beikommen – es hängt davon ab, in welchem Auftrag die Täter handelten, oder zu wem sie gehörten.

Zweitens: Kulturell und politisch ist der Greenpeace-Konzern derart mächtig, daß die Manager nicht einfach drauf los klagen können; und der Staatsanwalt muß auch aufpassen, da er politischer Kontrolle unterliegt. Passend dazu empört sich die Emdener VW-Sprecherin nicht öffentlich, sondern erzählt nur von den Plänen zu noch mehr E-Autos (die naturzerstörend sind…) und Milliardeninvestitionen in „klimafreundliche“ Technik. Man sei zum „kritischen Dialog“ bereit.

 




Genehmigungs­verfahren als Entwicklungs­bremse

 

Vorbemerkung

Grundsätzlich muß man festhalten, daß jedwede von der Politik geforderte Vorschrift zu ihrer Einhaltung Kosten in der Form von Arbeitskraft und Ressourcen (Rechner, Teststände etc.) erfordert. Viel besser als die kerntechnische Industrie, hat dies die öko-sozialistische Bewegung verstanden. Durch die Erfindung immer neuer „potentieller Gefahren“ ist es gelungen, die Kernenergie als „unwirtschaftlich“ darzustellen. Deutschland ist dabei international der Meister, durch „Industriepolitik“ die eigenen politischen Phantasmen (Klimakatastrophe, Gefahren der Gentechnik ect.) durchzuziehen. Die handelnden Politiker waschen dabei ihre Hände in Unschuld. Sie setzen ja nur die vorgeblichen „Ängste der Bevölkerung“ um. In Wahrheit mißbrauchen sie Technik und Naturwissenschaft für den „Umbau der Gesellschaft“ in ihrem Sinne und zu ihrem Vorteil (Sonnenbarone, Windmühlen-Verpächter etc.). Die hier gemachten Aussagen gehen daher weit über die Kerntechnik hinaus. Es sind grundsätzliche Überlegungen von großer Tragweite für jede Gesellschaft. Letztendlich geht es immer um die Abwägung von Vorteil (für wen?) und Risiko (nicht nur als Schaden, sondern auch als entgangene Chance).

Notwendige Überwachung

Alle technischen Systeme müssen regelmäßig überwacht werden, damit Unfälle auf ein Minimum begrenzt bleiben. Die Frage ist nur durch wen (Staat oder private Institutionen) und in welchem Umfang (z. B. Hauptuntersuchung beim Kfz oder ständig bei einem Kernkraftwerk). Allgemeiner Maßstab ist hier der mögliche Schaden. Schon hier wird es höchst politisch: Wenn ein Flugzeug abstürzt sind üblicherweise alle Insassen tot. Bei einem Unfall in einem Kernkraftwerk (Fukushima) ist der Sachschaden sehr hoch, aber es sind kaum bis keine Menschenleben zu beklagen. Bei Unfällen in Chemieanlagen (Bophal, BASF in Ludwigshafen) hat es schon tausende Tote und hunderttausende Verletzte gegeben. Der Aufwand für die Überwachung steht allerdings eindeutig nicht im Verhältnis zu den Opferzahlen – Risiko ist für Laien eine empfundene Größe und ist damit politisch beliebig missbrauchbar.

Darüberhinaus muß noch zwischen laufender Überwachung und Zulassung unterschieden werden. Bei der Zulassung eines neuen Produkts (Reaktor, Flugzeug, Medikament, Mobilfunk etc.) bewegt sich die mögliche Bandbreite zwischen „keine Zulassung erforderlich“ bis zur Klärung aller möglichen Auswirkungen in der Zukunft. Beide Grenzwerte sind nicht praktikabel. Beispielsweise ein neues Medikament ohne jede Zulassung auf den Markt zu bringen, wäre grob fahrlässig. Alle Auswirkungen in der Zukunft voraussagen zu wollen, ist prinzipiell unmöglich. Mit diesem Anspruch wäre kein neues Produkt mehr möglich, da man immer neue Bedenken konstruieren könnte. Wie so etwas funktioniert, ist hinlänglich von der „Endlagersuche“ bekannt. Die praktikable Bandbreite liegt also irgendwo dazwischen.

Organisation

Wenn man Genehmigungen als nötig erachtet, stellt sich die Frage der Zuständigkeit. Staatsgläubige werden sofort an eine Behörde denken. Auf China und Russland soll in diesem Sinne gar nicht eingegangen werden. Japan reichte als negatives Beispiel. Ministerien sind immer für den Vollzug des politischen Willens zuständig. Wenn man die Kernenergie politisch fördern wollte, war es logisch, die Genehmigungen sehr nahe an dem Wirtschaftsministerium anzusiedeln. Der Erfolg war in Japan durchschlagend – aber am Ende stand leider auch Fukushima. Wenn man Sicherheit in den Vordergrund stellt, sollte eine Genehmigungsstelle möglichst unabhängig sein, auch vom Staat. Sonst werden sehr schnell z. B. Umweltbelange dem politischen Willen untergeordnet. Aktuell kann man das sehr eindringlich bei Windkraftanlagen in Deutschland beobachten.

Für die Unabhängigkeit ist eine ausreichende finanzielle Ausstattung die Grundlage. Dabei müssen erst die Aufgaben eindeutig definiert werden und anschließend die dafür erforderlichen Mittel bereitgestellt werden. Es muß eine klare Trennung von Anforderung und Ausführung bei strikter Verantwortlichkeit geben. In einer Demokratie ist das Parlament für die Definition der Anforderungen z. B. in der Form von Grenzwerten zuständig. Wie und wodurch diese eingehalten werden, ist allein die Aufgabe der Genehmigungs- und Überwachungsstelle. Die Finanzierung muß nach dem Verursacherprinzip durch die Nutzer erfolgen. Werden die „Gebühren“ staatlich festgelegt und sogar eingetrieben, ergibt sich daraus eine indirekte Einflussnahme wie beim „Staatsfernsehen“ in Deutschland. Man ist voll und ganz von der Festlegung dieser Gebühren abhängig und erliegt damit nur noch den politischen Wünschen. Die Nähe zur Politik wird überlebenswichtig. Faktisch kommt dieses Modell einer Finanzierung aus Steuergeldern gleich.

Insofern war das Modell der Nuclear Regulatory Commission (NRC, ab 1975 zuständig) richtungsweisend. Die NRC erstellt jährlich einen Haushalt. Anfangs wurde der vollständig aus Steuergeldern finanziert. Noch 1978 wurden lediglich 20% durch Gebühren abgedeckt. In dieser Zeit wurden dutzende Lizenzen für Reaktoren bearbeitet. Insofern sollte man bezüglich Russland und China keine vorschnellen Schlüsse ziehen. Hier wie dort, stand die Förderung der Kernenergie im Vordergrund. Nach zahlreichen Diskussionen und Gerichtsverfahren erreichte 1990 die NRC eine 100%ige Finanzierung aus Gebühren. Bis zum Jahr 2007 wurde die Gebührenfinanzierung wieder auf 90% zurückgefahren, da man anerkannte, daß gewisse Aufgaben der NRC nicht unmittelbar der Überwachung dienten. Ein solches System ist jedoch nur so lange stabil, wie der Markt stetig ist. Seit ca. 2015 ist das Budget der NRC um rund 30% zurückgegangen und die NRC hat rund 25% ihres Personals (2020 nur noch 3000 Beschäftigte gegenüber 3900 in 2015) verloren, da Kernkraftwerke geschlossen wurden und kaum noch neue Genehmigungsanträge gestellt wurden. Der Stundensatz schoß in schwindelerregende Höhen von etwa 300 US$. Eine erhebliche Belastung für laufende Kernkraftwerke und Neuzulassungen. Eine sich selbst verstärkende Abwärtsspirale hat eingesetzt. Dieses Modell funktioniert nur für konventionelle Reaktoren (Flotte aus Leichtwasserreaktoren in den USA) und finanzstarke Energieversorger, die Millionen vorfinanzieren können.

Gebühren als Innovationsbremse

Genehmigungsgebühren haben die gleiche Wirkung wie Pigou-Steuern. Es werden (vermeintliche) externe Kosten internalisiert. Typische Beispiele sind hierfür die Alkohol oder Tabaksteuern. Ihr Aufkommen ist zwar für den Staatshaushalt gering, sie entfalten aber eine mächtige Lenkungswirkung durch die relative Verteuerung gegenüber anderen „Vergnügungen“. So hat man durch überzogene Sicherheitsanforderungen bei der Kernenergie systematisch andere Energieformen bevorzugt und gefördert (z. B. fiktives Krebsrisiko durch Unglücke gegenüber tatsächlichem durch Abgase). Dies betrifft schon heutige Reaktoren: Bevor man ein Kernkraftwerk mit jahrelangem Genehmigungsverfahren kauft, kauft man lieber ein Gaskraftwerk von der Stange. Bevor man jedoch gar einen Flüssigsalzreaktor oder einen natriumgekühlten Reaktor mit unkalkulierbaren Genehmigungskosten kauft, nimmt man doch lieber einen zugelassenen Leichtwasserreaktor. Um welche Dimensionen es dabei geht, zeigt das Verfahren für den Small Modular Reactor (SMR) von NuScale. Das Verfahren im engeren Sinne dauerte 3,5 Jahre, mit den erforderlichen Vorstudien rund 10 Jahre. Es sind dadurch über 500 Millionen Dollar Kosten und Gebühren angefallen. Wohlgemerkt, der NuScale-SMR ist „nur“ ein integrierter Druckwasserreaktor mit rund 70 MWel Leistung. Gerade in diesem Marktsegment kann sich keine Gemeinde eine solche Investition leisten. Ohne staatliche Anlauffinanzierung – die im wesentlichen die staatlich verursachten Kosten abdeckt – wird es keinen Erstbesteller geben. In der guten, alten Zeit war das noch „geringfügig“ anders, weil die Energieversorger solche Kosten auf die Vielzahl ihrer Kunden umlegen konnten. Je kleiner der Reaktor, je durchschlagender das Genehmigungsproblem. Daran sind bisher alle Projekte in Alaska gescheitert. Will man ernsthaft den Einsatz von Kleinreaktoren, muß man die Finanzierung der Genehmigungsverfahren ändern.

Bei „innovativen“ Reaktorkonzepten ergibt sich für die NRC noch ein grundsätzliches Problem. Es müssen vorab ganz neue Fachabteilungen (z. B. für Flüssigsalze) aufgebaut werden. Die Grenze zur Forschung ist dabei gleitend. Sollen all diese Aktivitäten voll über Gebühren gedeckt werden, würde das zur Explosion der Stundensätze führen. Dabei ist das geltende Recht besonders hinderlich, da 90% der Ausgaben über Gebühren gedeckt werden müssen, müßten für jeden Dollar Zuschuss, neun weitere Dollar über zusätzliche Gebühren eingetrieben werden. Besonders irreführend ist, daß die Subventionen aus dem Advanced Reactor Demonstration Program (ARDP), die als Subventionen für neue Reaktorkonzepte gedacht sind, fast vollständig als Gebühren an die NRC fließen. So können wenigstens die „Atomkraftgegner“ ihre Legende von der subventionierten Kernenergie aufrecht erhalten. Erschwerend kommt hinzu, daß der latente Personalmangel bei der NRC zu erheblichen Verzögerungen führt. Für junge Unternehmen kann das sehr schnell tödlich wirken, da Investoren wenig Verständnis für nicht eingehaltene Terminpläne haben.

Besonders deutlich zeigt sich die „Abneigung gegen Atomkraft“ im Vergleich zu den fossilen Energien. Sie unterliegen maßgeblich der Überwachung durch die Environmental Protection Agency (EPA), die nur relativ geringe Gebühren erhebt, da sie überwiegend aus Steuermitteln finanziert wird.

Blick über den Zaun

Da die Kerntechnik ein besonders ideologisiertes Gebiet ist, lohnt der Blick auf zwei andere, ebenfalls mit besonderen Risiken und Emotionen versehene Fachgebiete: Die Luftfahrt und Medikamente. Bedenkenswert erscheint die Tatsache, daß in beiden Sektoren jährlich unzählige Tote und Verletzte ziemlich klaglos hingenommen werden. Wahrscheinlich liegt das an den auch von Laien unmittelbar erfahrbaren Vorteilen (Urlaubsflug, Krankheiten), während der „Strom aus der Steckdose“ kommt. Irgendwelchen abstrakten Strahlenrisiken steht für den Laien kein greifbarer Nutzen gegenüber.

Die Federal Aviation Administration (FAA) ist für die Sicherheit der zivilen Luftfahrt in den USA verantwortlich. Sie ist ebenfalls durch Gebühren finanziert. Allerdings werden 85–95% ihrer Ausgaben durch einen Treuhandfond abgedeckt. Dieser wird überwiegend durch Abgaben auf Flugtickets und Treibstoff gespeist. Die Gebühren sind also an der Nutzung orientiert. Durch das Fondsmodell ergibt sich die Möglichkeit notwendige Ausgaben flexibel abzudecken. Dies hat sich bei der außerordentlich schnellen Einführung von Drohnen bewährt (Aufbau neuer Fachabteilungen, Neueinstellung von Fachleuten etc.). Für die Typenzulassung werden keine Gebühren erhoben. Dieses Modell fördert Innovationen und behindert sie nicht durch hohe Ausgaben in der Entwicklungsphase sondern erhebt erst Gebühren bei erfolgreicher Anwendung.

Die Food and Drug Administration (FDA) ist seit 1927 für die Lebensmittel und Arzneimittelüberwachung zuständig. Bis 1992 wurde sie vollständig aus Steuermitteln finanziert. Ab 1992 wurden zusätzlich Gebühren eingeführt. Heute beträgt der Anteil der Gebühren über 40%. Allerdings sind die Ausgaben durch zusätzliche Aufgaben stetig angestiegen. Anders als bei der NRC wurden die Einnahmen nicht geringer (Abschaltung von Kernkraftwerken), sondern stetig angepaßt. So wurde durch den Ausbau die Zeit für Zulassungen verkürzt und ausdrücklich die Neuzulassungen gefördert.

Zusammenfassung

Zulassungs- und Überwachungsinstitutionen sollten möglichst unabhängig sein – ausdrücklich auch von der Politik. Deshalb ist eine Finanzierung durch Gebühren sinnvoll. Es sollte das Nutzerprinzip gelten. Nicht der „Erfinder“ von sicheren Reaktoren sollte bezahlen, sondern der Stromverbraucher. Die höhere Sicherheit kommt der gesamten Bevölkerung zu gute. Deshalb muß eine ausgewogene Belastung der unterschiedlichen Energieträger (Windmühlen und Sonnenkollektoren) durch Gebühren gemäß ihrer Umweltbelastung und ihrer Versorgungssicherheit erfolgen. Kraftwerke sind Teil der Infrastruktur und dienen der „Daseinsfürsorge“ genauso wie Brücken und Straßen. Innovationen bei Reaktoren sind sehr eng mit Forschung verknüpft. Will die Gesellschaft „sicherere“ Reaktoren, muß sie für die Kosten aufkommen. Sei es durch Subventionen in der Genehmigungsphase oder für die Prototypen. Grundsätzlich ist die Frage einer Überregulierung zu klären. Warum kann man bei Autos, Flugzeugen, Schiffen etc. Prototypen bauen und braucht erst eine Zulassung, wenn man damit in den Verkauf geht? Das Risiko kann man heute sehr genau im Voraus abschätzen. Einfacher und genauer jedenfalls, als bei jedem Impfstoff oder Medikament. Allerdings müßte man dafür die Ideologie der „Anti-Atomkraft-Bewegung“ aufgeben.

Der Beitrag erschien zuerst auf dem Blog des Autors hier

 




Annalena Baerbock ist und bleibt die ausge­wiesene Fachperson für Strom­netze und Speicher­technologie

Mich kritisiert eigentlich nur die AfD und das mit einer Falschbehauptung“

Anmerkung: Frau Baerbock hat wie inzwischen in vielen Videos glossiert deutliche Sprechprobleme. Die Mängel in der Transkription sind deshalb kein Versehen des Autors, sondern der Versuch, ihren ohne Punkt und Komma abgespulten Redeschwall möglichst getreu wiederzugeben.

In der Fragerunde bei Maischberger [1] stellte Frau Baerbock erst einmal klar, wie entsetzlich sie die Kritik an ihrer „Netz als Speicher“-Aussage empfand und von wem sie solche Ungeheuerlichkeit vor allem bekomme:
[1] Baerbock ab 4:19: … aber was ich schon krass finde ist diese Art von Shitstorm. Wo über Face-News … Und dieses Argument was Sie (Herr Thel [2]) jetzt vorbringen: Der Speicher ist am Netz, das kenne ich schon seit drei Jahren von der AfD sehr sehr deutlich betrieben. Ich habe bei einer Deutschlandpunkt-Sendung im Radio, als es um die Frage Energie und dass nicht immer die Sonne scheint und so gesagt, dass natürlich in Zukunft der gesamte Energiemarkt, das gesamte Energiemarktdesign neu gedacht werden muss.

Das war allerdings keine Antwort auf ihre damalige Speicheraussage und schon gar nicht eine Gegenargumentation auf die „krasse“ Kritik dazu.

Grundlast durch „Kühlung“ stabilisieren nach Baerbock

Stattdessen fügte sie neue Theorien zur Grundlast und Kühlungstemperaturänderung als „Energieerzeuger“ an:
[1] Baerbock: Da gibt es nicht mehr Atomkraftwerke und Kohlekraftwerke die laufen durch, sondern wir haben volatile Energie. Das heißt, Wind ist nur wenn Wind weht logischerweise, Sonne ist nur wenn Sonne scheint. Wir haben Grundlast durch Biomasse und wir haben und das ist neu – das ist auch interessant für Start-ups und Unternehmen zum Beispiel Rechenzentren und große Supermärkte, die dann als Energieerzeuger in den Markt rein kommen. Wenn eine Kühlung zum Beispiel bei einem riesengroßen Produzenten von -22 Grad in Zukunft dann auf 20 Grad, minus 20 Grad runterkühlt, dann ist das Hühnchen immer noch kalt, aber wir können an der Grundlast des Netz, und das war mein Punkt, so stabilisieren, dass sich im Netz die unterschiedlichen Akteure ausgleichen.

Wie „Rechenzentren und große Supermärkte“ mittels Baerbocks Grundlast-Theorie wirklich als Energieerzeuger „in den Markt rein kommen“, mögen diese entscheiden. Der Autor nimmt einfacher gnädig an, dass Frau Baerbock die (nicht nur) von der selbsternannten „Energieexpertin“, Frau Kemfert vertretene These des „intelligenten Netzes“ durch Verbraucher-Zwangsabschaltung nicht verstanden hat und Lastabschaltung mit „Einspeisung“ verwechselt und von Grundlast ebenfalls wenig bis keine Ahnung hat.

Bild 1 Deutschland, Ökoenergie-Einspeisungen vom 01.01.2021 – 30.03.2021. Quelle: Agorameter

Ein Präzisierungsversuch von ihr bringt keine weitere Klarheit, vor allem, nachdem sie dazu noch sagt, etwas nie behauptet zu haben:
[1] Baerbock: Verkürzt: Ja das Netz wird in Zukunft- (an Herrn Thel) sie verdrehen die Augen, aber so ist es – .In Zukunft wird das Netz auch eine Rolle bei der Speicherung spielen. Und weil Sie Speicher auch angesprochen haben.
Maischberger: Moment, ich halte mal ganz kurz fest: Es gibt diese Speicher, so wie das klingt, die gibt es noch nicht. Das ist ja der Punkt gewesen von Herrn Thel
Baerbock: Das habe ich ja nie behauptet
Herr Thel: Einwand: Im Parteiprogramm

Natürlich gibt es Speicher. Nur zahlt der Strom jedes Mal Abgaben …

Nun wird es richtig gruselig. Nach ihrer Überzeugung gibt es Speicher nur deshalb noch nicht, weil die Abgabenbelastung sie verhindert. „Vergessen“ wir dabei, dass diese laut Frau Baerbock vom Strom und nicht vom Stromverbraucher bezahlt würden:
Baerbock: Na ja, im Parteiprogramm … da geht es genau um den Punkt, das Energiemarktdesign neu reguliert werden muss. Wenn wir bei Speicher reden. Natürlich gibt es Speicher. Ich war bei zig Firmen, die Speicher herstellen.
Das Problem ist gerade, dass – und das ist politisch gewollt – von den Parteien die derzeit regieren … die sagen im Prinzip über Steuern reden wir gar nicht. Es gibt ne Doppelbelastung von Speichern. Das Problem ist derzeit: Diejenigen, die sie klugerweise erfunden haben wir speichern Strom. Wenn der Strom einmal in den Speicher reingeht, zahlt er alle Abgaben und Steuern. Und wenn er wieder rausgeht, zahlt er das auch. Es ist unwirtschaftlich. Kein logisch denkendes Unternehmen sagt, damit kann ich den Markt generieren.

Deshalb braucht man zur Lösung des Speicherproblems nur Gesetze zu ändern

Baerbock: Das heißt, wir müssen an diesen Punkt einfach die Gesetzgebung ändern. Und die ist nicht durch Zufall da, sondern ist bewusst da, damit Speicher derzeit nicht wettbewerbsfähig sind um alte, fossile Kraftwerke zu sichern. Das müssen wir ändern und das steht sehr knapp, aber auf den Punkt auch in unserem Wahlprogramm …
Wie oft, hat Frau Baerbock irgendwie „eine entfernte Ahnung“, nur das Thema selbst leider nicht verstanden. Zwar ist man immer noch weit entfernt von Speichern für Elektroenergie im erforderlichen, großen Maßstab [3] [4], von den Kosten gar nicht zu reden [6].
Aber man ist ja dabei, solche zu erforschen und irgendwann einmal im Großmaßstab entstehen zu lassen. Zumindest ein Teil der dazu zwingend erforderlichen, exorbitanten Subventionierung ist mit der „Wasserstoffstrategie“ ja schon geklärt und dass der Wasserstoff dann vorwiegend (auf Deutschlands Kosten) im weit entfernten Ausland hergestellt werden soll.

Ein kleiner Inflationsausgleich auf Trittins Eiskugel reicht

Beim CO2-Preis ist Frau Baerbock dann richtig kulant: Für die böse Industrie soll der Preis über den europäischen Emissionshandel Richtung 180 EUR/t gehen, weil die EU-Klimaziele angehoben wurden. Für Wärme und Verkehr reichen 60 EUR/t nach Entscheid des GRÜNEN-Vorstandes, damit die pendelnden Bürger auf dem Land mit kleinem Einkommen nicht (zu schnell) finanziell überfordert werden.

Für sie ist es klar: Wenn es in Deutschland keine Industrie mehr mit Wertschöpfung gibt, oder diese nur noch dank Subventionierungen wie in sozialistischen Ländern dahinvegetiert, zahlt der Staat jedem Bürger monatlich einfach 75 EUR [5] und alles bleibt beim gewohnten Alten. Ein bisschen Inflationsanpassung an Trittins 1-EUR-Eisbollen ist zwischenzeitlich ja mal erlaubt.

Wenn man über dem gesellschaftlichen Durchschnitt gleich drei Mal „was studiert“ hat (sicher nicht letzter Stand: Politikwissenschaften und öffentliches Recht, „Public International Law“, Doktorandin des Völkerrechts), ist man vollgestopft mit glänzendem Wissen.

Bald wird wohl der Dr. h.c. folgen. Und dann wäre es nicht mehr weit bis zur habilitationslosen Professur zu Ökoenergie-Stromnetzen. Beim DIW im Team der (habilitationslosen) Professorin für Wirtschaftswissenschaften und selbsternannten Fachfrau für Energie und Klima, C. Kemfert, ist sicher ein Platz frei, falls es weder mit der Kanzlerin, noch einem Ministerinnentitel kurzfristig etwas werden sollte.

Quellen

[1] Nebeneinkünfte, Kurzstreckenflüge, Waffenlieferungen: Annalena Baerbock | maischberger. die woche: YouTube

[2] Tichys Einblick 27.05.2021: Grüne Hybris: „Ich mach mir die Welt, wie sie mir gefällt.“

[3] EIKE 29.01.2020: Die Ökoenergie Speicher-Lösung ist so einfach. Es muss sie nur jemand bezahlen

[4] EIKE 22. August 2019: Wie man den Bürger als immer dümmer verkauft, oder ein Öko-Speichervolumen von 1.280 Haushalten wundersam auf 100.000 Haushalte erhöht

[5] RND 29.05.2021: Baerbock schlägt 75 Euro „Energiegeld“ vor

[6] EIKE 13.01.2019: GRÜNE Energieweisheit würde die Stromkosten um ca. 2,5 EUR/kWh erhöhen

 




Alles kommt irgendwann raus: Die Gespenster des Ethikrats

Zehn Jahre zu spät hat André D. Thess, Professor für Energiespeicherung an der Universität Stuttgart und DFG-Fachkollegiat von 2008 bis 2016 einen offenen Brief an seinen Professorenkollegen Matthias Kleiner, den amtierenden Präsidenten der Leibniz-Gemeinschaft und weitere hochkarätige Professoren wegen ihrer Rolle in der sogenannten Ethikkommission zum deutschen Atomausstieg geschrieben.„Schwere Vorwürfe gegen Ethikkommission wegen Zustimmung zum Atomausstieg“, titel Die WELT.

Zur Begründung ihres Panikentschlusses, nach dem Fukushima-Reaktorunfall als Folge eines Tsunami aus der Kernenergie auszusteigen, bediente sich die Kanzlerin eines Hütchenspielertricks. Sie ließ ihre Entscheidung von einem Ethikrat begründen, in den sie alles mögliche Volk berufen hatte, nur keine Fachleute.

Die 17-köpfige Kommission wurde geleitet von:

Als weitere Mitglieder berief Merkel

Folgerichtig seiner Zusammensetzung erteilte der Ethikrat dem alternativlosen Entschluss der Kanzlerin den höchstethischen Segen, und das Zerstörungswerk begann. Es wird am Ende des nächsten Jahres abgeschlossen sein. Viele Milliarden Euro werden vernichtet sein, das Rückgrat der Deutschen Energieversorgung ist gebrochen. Deutschland hat sich für viele Jahre aus der Kernenergie verabschiedet. Auf die Deutschen wartet der Stromsozialismus.

Was von dieser Kommission zu halten ist, hieß es auf Achgut.com schon 2011 – also unmittelbar nach deren Verdikt: „Die Kapitulation der Wissenschaftler in der Ethikkommission“:

„Es sollte für das, was ohnehin beschlossene Sache war, noch die „ethischen“ Argumente liefern. So verkündete [Klaus] Töpfer schon vor Beginn der Beratungen am 27. März in einem Interview mit „Bild am Sonntag“: „Die Kernenergie bringt Risiken mit sich, die über das menschliche Maß hinausgreifen und die eine Herausforderung sogar für die Schöpfung darstellen“

Der Inhalt des aktuellem offenen Briefes André D. Thess bestätigt die damalige Achgut.com-Einschätzung voll und ganz und ist ist es Wert, hier vollständig wiedergegeben zu werden:

„Sehr geehrter Herr Kollege Kleiner,

„wir haben unsere Arbeit in diesen zwei Monaten in aller Unabhängigkeit getan […] das möchte ich zu Beginn deutlich hervorheben und an dieser Stelle auch meinen Dank insbesondere für diese Unabhängigkeit, die wir genossen haben, an die Bundesregierung, die Bundeskanzlerin sagen.“ Diese Worte [1] sprachen Sie am 30. Mai 2011 auf der Pressekonferenz anlässlich der Vorstellung des Abschlussberichts „Deutschlands Energiewende – Ein Gemeinschaftswerk für die Zukunft.

In Ihrer damaligen Funktion als Präsident der Deutschen Forschungsgemeinschaft (DFG) repräsentierten Sie als einer von acht Professoren die Stimme der Wissenschaft in dem siebzehnköpfigen Gremium. Auf der Grundlage Ihres Berichts beschloss der Deutsche Bundestag am 30. Juni 2011 den Atomausstieg. Am zehnten Jahrestag der Veröffentlichung Ihres Berichts wende ich mich als Fachkollege an Sie.

Im weiteren Sinne richtet sich dieser offene Brief an das gesamte Professorenkollegium der Ethikkommission: Neben dem Umformtechniker Matthias Kleiner von der TU Dortmund  an den Soziologen Ulrich Beck von der LMU München, an den Mikrobiologen Jörg Hacker von der Universität Würzburg, an den Forst- und Bodenwissenschaftler Reinhard Hüttl von der BTU Cottbus, an die Philosophin Weyma Lübbe von der Universität Regensburg, an die Sozial- und Wirtschaftswissenschaftlerin Lucia Reisch von der Copenhagen Business School, an den Soziologen und Risikoforscher Ortwin Renn von der Universität Stuttgart sowie an die Politikwissenschaftlerin Miranda Schreurs von der TU München.

In diesem Brief geht es nicht darum, ob der Atomausstieg „richtig“ oder „falsch“ war. Ich stelle vielmehr die Frage: Haben die acht Professoren – wie in Ihrer Presseerklärung gesagt – unabhängig votiert und sind damit dem Vertrauen gerecht geworden, welches die Gesellschaft beamteten Hochschullehrern auf Lebenszeit schenkt?

Obwohl Ihr Bericht schon zehn Jahre alt ist, halte ich diese Frage gerade jetzt für zeitgemäß. Viele Deutsche äußern angesichts der gegenwärtigen Pandemie- und Klimapolitik Zweifel an der Unabhängigkeit der Wissenschaft.

An einem solchen Zeitpunkt gilt es deshalb, aufmerksam in die Vergangenheit zu blicken und aus ihr zu lernen. Aus diesem Anlass habe ich die 115 Seiten Ihres Berichts mit zehnjährigem Abstand studiert. Dabei habe ich speziell die Frage beleuchtet, wie Sie bei Ihrer Arbeit in der Kommission den Leitlinien guter wissenschaftlicher Praxis Ihrer eigenen Organisation sowie den von den Kommissionsmitgliedern Hüttl und Renn mitgestalteten Leitlinien Politikberatung der Berlin-Brandenburgischen Akademie der Wissenschaften gefolgt sind. Diese Grundsätze betrachte ich bei meiner politischen Beratungstätigkeit stets als Geschäftsgrundlage.  

Die Ergebnisse meiner Überlegungen möchte ich zu sechs Thesen verdichten.

  1. Das von Ihnen repräsentierte Kollegium verfügte nicht über hinreichende Fachkompetenz, um die Risiken eines Verbleibs in der Kernenergie gegenüber denen eines Ausstiegs umfassend und sachgerecht abzuwägen. Im Kollegium befand sich kein Kraftwerkstechniker, kein Elektro­techniker und keine renommierte Ökonomin. Bei der DFG wäre es undenkbar, etwa einen Sonder­forschungsbereich zu Pandemien von einer Gutachtergruppe ohne Virologen zu begutachten. Wie soll ein Gremium ohne spezifisches Fachwissen über Gefahrenanalysen von Kernkraftwerken, über die Stabilität von Stromnetzen sowie über materielle und immaterielle Kosten von Wind- und Kernenergie Risikoabwägungen zur Energieversorgung einer Industrienation vornehmen? Unabhängigkeit der Wissenschaft hätte nach meiner Meinung eine Ablehnung der Mitarbeit in einem Gremium mit ungenügender Interdisziplinarität erfordert.
  2. Das von Ihnen repräsentierte Kollegium hat eine Aufgabenstellung mit politisch vorgegebenem Untersuchungsergebnis anscheinend widerspruchslos entgegengenommen. Dem Kapitel 2 „Anlass und Mandat“ fehlt eine professionell formulierte Aufgabenstellung. Es enthält lediglich den dürftigen Satz: „Die Bundesregierung hat die Ethik-Kommission Sichere Energieversorgung berufen, um die verantwortungsethischen Entscheidungsgrundlagen und ihre Schlussfolgerungen ganzheitlich zu betrachten.“ Unmissverständlich wird die Aufgabe hingegen im „Pressestatement [2] von Bundeskanzlerin Merkel, Bundeswirtschaftsminister Brüderle und Bundesumweltminister Röttgen zur Nutzung der Kernenergie in Deutschland“ vom 22. März 2011 formuliert: „Wie kann ich den Ausstieg mit Augenmaß so vollziehen, dass der Übergang in das Zeitalter der erneuerbaren Energien ein praktikabler ist, ein vernünftiger ist, und wie kann ich vermeiden, dass zum Beispiel durch den Import von Kernenergie nach Deutschland Risiken eingegangen werden, die vielleicht höher zu bewerten sind als die Risiken bei der Produktion von Kernenergie-Strom im Lande?“ Diese Aufgabenstellung macht klar, dass Ihre Kommission nicht das „Ob“, sondern lediglich das „Wie“ eines Kernenergie­ausstiegs zu beantworten hatte. Die im Raum stehende Risikoabwägung war damit anscheinend gegenstandslos. Wäre in meiner achtjährigen Amtszeit als gewählter Fachkollegiat bei einem Fördergesuch an die DFG eine Forschungshypothese in solch alternativ­loser Form vorgetragen worden, so hätte ich eine Ablehnung des Projektantrages empfohlen. Die Unabhängigkeit der Professoren der Ethikkommission hätte meines Erachtens durch Widerspruch zu dieser Aufgabenstellung glaubhaft gemacht werden können.
  3. Das von Ihnen repräsentierte Kollegium hat nicht von der Möglichkeit Gebrauch gemacht, die politische Vorgabe durch ein Sondervotum zu einer ergebnisoffenen Aufgabe auszuweiten und die Risiken von Kernenergieausstieg versus Kernenergieverbleib aus ganzheitlicher Perspektive fachgerecht abzuwägen. Grundsätze guter wissenschaftlicher Praxis gelten nicht nur für den Forschungs­­betrieb. Sie werden von vielen Kollegen auch als Leitlinien für den Dialog zwischen Wissenschaft und Gesellschaft angesehen. Hierzu gehört die Maxime, lege artis – nach den Regeln der Kunst – zu arbeiten. Deren Berücksichtigung hätte erfordert, für jede der beiden Alternativen die Risiken systematisch zusammenzutragen und in einer Gesamtschau zu bewerten. In Ihrem Dokument fehlt hingegen die Abwägung zwischen dem Risiko eines schnelleren Klimawandels ohne Kernenergie und dem Risiko eines langsameren Klimawandels mit Kernenergie. Aber gerade diese Abwägung wäre für eine solche Analyse konstitutiv gewesen! Gute wissenschaftliche Praxis umfasst übrigens auch eine neutrale Darstellung gegensätzlicher Positionen in Wissenschaft und Gesellschaft. Mit den Worten „Hier stehen sich eine kategorisch ablehnende und eine relativierend abwägende Position gegenüber“ stellen Sie den Diskussionsstand einseitig zugunsten der Kernenergiegegner dar. Eine neutrale Formulierung hätte gelautet: „Hier stehen sich eine ablehnende und eine befürwortende Position gegenüber.“ Unabhängige Wissenschaft hätte einen politischen Beratungsauftrag vervollständigt und das gesellschaftliche Meinungsbild unparteiisch dargestellt. 
  4. Das von Ihnen repräsentierte Kollegium hat den internationalen Stand der Wissenschaft unberücksichtigt gelassen und dadurch einem nationalen Alleingang Deutschlands Vorschub geleistet. Wissenschaft ist international. Zu den Grundsätzen guter wissenschaftlicher Praxis gehört die umfassende Würdigung sämtlicher weltweit vorliegenden Forschungsergebnisse, auch wenn diese zu eigenen wissenschaftlichen Ansichten im Widerspruch stehen. Dem Dokument fehlt vor diesem Hintergrund eine Einordnung in die internationale Forschung zur Ethik der Kernenergienutzung. Der Bericht erweckt konkret den Eindruck, es gäbe außerhalb Deutschlands keine ethischen Abwägungen zur Atomenergie. Sie sind der Öffentlichkeit eine Begründung schuldig geblieben, in welcher Hinsicht sich die ethischen Maßstäbe einer deutschen Professoren­gruppe etwa von denen einer französischen unterscheiden. Unabhängige Wissenschaft hätte gegenüber der Öffentlichkeit eine sachliche Begründung für eine deutsche Sonderperspektive gegeben und das Abweichen vom Grundsatz europäischer Einheit erklärt.
  5. Das von Ihnen repräsentierte Kollegium hat anscheinend versäumt, bei der Formulierung des Abschlussberichts eine klare Trennung von Fakten und Meinungen durchzusetzen. Die Leser des Berichts haben das Recht zu erkennen, welche Aussagen auf wissenschaftlichen Erkenntnissen beruhen und wann es sich um persönliche Werturteile handelt. Die Vermengung von Fakten und Meinungen wird an folgendem Kernsatz des Berichts besonders deutlich: „Für die Kernenergie mit ihrem besonders hohen Katastrophenpotenzial ist es ethisch nicht hinnehmbar, die außerhalb dieser (gesetzten) Grenzen befindlichen und durch Fukushima belegten Ereignisabläufe der Havarie und Havarie-Folgen als ‚Restrisiko‘ abzutun.“ Würde es sich bei dieser Aussage um eine wissenschaftliche Erkenntnis handeln, so müsste daraus folgen, dass der Rest der Welt unethisch denkt und handelt. Glaubhafte Unabhängigkeit der Wissenschaft hätte erfordert, auf eine klare Kennzeichnung von Meinungen zu dringen.
  6. Das von Ihnen repräsentierte Kollegium hat einem Dokument zugestimmt, dessen Präsentationsform den Grundsätzen wissenschaftlichen Politikberatung nicht gerecht wird. Die Leitlinien Politikberatung der Berlin-Brandenburgischen Akademie der Wissenschaften aus dem Jahr 2008 besagen: „Werden Handlungsempfehlungen gegeben, so sind sie vom wissenschaftlichen Untersuchungsergebnis möglichst klar abzugrenzen.“ Dies ist im Bericht nicht geschehen. Anstatt strukturell zwischen Fragestellung, Voraussetzungen, Methoden, Ergebnissen, Schlussfolgerungen und Empfehlungen zu differenzieren, nimmt das Kapitel 3 „Gemeinschaftswerk Energiezukunft Deutschlands“ wesentliche Aussagen wie „Die Energiewende muss […] gestaltet werden“ vorweg. Dies passiert, bevor in Kapitel 4 „Ethische Positionen“ die Analyse erfolgt. Die Gliederung wird weder wissenschaftlichen Standards gerecht, noch besitzt sie einen für Außenstehende nachvollziehbaren roten Faden. Unabhängige Wissenschaft hätte auf eine klare und stringente Darstellungsform gedrungen.

Zusammenfassend komme ich zu dem Schluss, dass die drei Professorinnen und fünf Professoren der Ethikkommission dem Leitbild unabhängiger Wissenschaft nicht gerecht geworden sind. Sie haben sich allem Anschein nach vereinnahmen lassen und das politisch erwartete Ergebnis geliefert. Um das in der heutigen Zeit beschädigte Vertrauen der Bevölkerung in die Wissenschaft wiederzuerlangen, sollten sich alle Professoren auf die intellektuelle Freiheit besinnen, die der Staat ihnen durch den Beamtenstatus ermöglicht.

Mit freundlichen Grüßen,

André D. Thess

Professor für Energiespeicherung an der Universität Stuttgart

DFG-Fachkollegiat von 2008 bis 2016

 

Jetzt will es keiner gewesen sein. Professor Kleiner wies den Vorwurf, gegen die gute wissenschaftliche Praxis verstoßen zu haben, zurück: Es sei „in der Ethikkommission um eine gesellschaftspolitische Bewertung des Atomausstiegs gegangen, nicht um ein fachliches Gutachten“. Die Professoren hätten sich also lediglich als Mitglieder der Zivilgesellschaft geäußert, nicht als Fachwissenschaftler.

Was wir von handverlesenen Ethikräten zu halten haben, bestätigte der kürzlich erfolgte Rausschmiss von Professor Lütke aus dem Bayrischen Ethikrat durch den bayrischen Ministerpräsidenten Markus Söder wegen einer eigenen Meinung zu den Corona-Maßnahmen.

Und weil das Ganze so schön lief, wiederholte Merkel ihren Hütchenspielertrick ein paar Jahre später mit der Kohleausstiegskommission gleich nochmal. Natürlich mit dem selben Ergebnis. Wir können uns schon auf den nächsten Ethikrat freuen, der die Fortsetzung der  Corona-Maßnahmen durch die Bundesregierung für richtig and angemessen erklärt.

Der Beitrag erschien zuerst bei ACHGUT hier

 

 




Der Temperatur-CO2-Klima­zusammenhang: eine erkenntnis­theoretische Neube­wertung von Eisbohr­kernen

Die erkenntnistheoretische Schwäche der gegenwärtigen Simulationen rührt daher, dass sie sich auf keine unabhängigen Beweise für den Einfluss von Treibhausgasen auf das Klima über ausreichend lange Zeiträume stützen. Insbesondere kann die Gültigkeit der Modelle nicht nachgewiesen werden, solange zumindest die wichtigsten Merkmale der Klimaänderungen, nämlich die Glazial-Interglazial-Übergänge und die unterschiedliche Dauer der Interglaziale, unberücksichtigt bleiben. In ähnlicher Weise ist die konstante Zeitverzögerung von 7000 Jahren zwischen Temperatur- und CO2-Abnahme nach der Deglazialisierung ein weiteres wichtiges Merkmal, das verstanden werden muss. In diesem Licht betrachtet, sollte die aktuelle Klimadebatte als die jüngste der großen Kontroversen betrachtet werden, die den Marsch der Geowissenschaften unterbrochen haben, obwohl sie sich von den vorangegangenen durch ihre unterschiedlichsten sozialen, ökologischen, ökonomischen und politischen Verästelungen deutlich unterscheidet.

1 Introduction

Das vielleicht wichtigste Merkmal, das die Geschichte der Wissenschaft beweist, ist, wie Gedanken, die für sehr lange Zeiträume einhellig akzeptiert wurden, schließlich entschieden verworfen wurden. Unter unzähligen Beispielen sind zwei der berühmtesten die zentrale Position der Erde im Universum und die Theorie der vier Elemente (Feuer, Luft, Wasser und Erde), die sich durch den Austausch ihrer vier Qualitäten (heiß, kalt, trocken und nass) gegenseitig umwandeln. Beide Theorien blieben trotz früh aufgezeigter Mängel 2 Jahrtausende lang unangefochten. Für den Geozentrismus widersprach z. B. die 24-Stunden-Drehung der entferntesten Fixsterne um den Pol glatt der festen Regel, dass die siderischen Umlaufzeiten von den 27,3 Tagen des Mondes bis zu den 29,4 Jahren des Saturn mit der Entfernung der Himmelskörper von der Erde deutlich zunehmen. In ähnlicher Weise wurde die Vier-Elemente-Theorie bereits von Theophrastus (4.-3. Jh. v. Chr.) kritisiert, der darauf hinwies, dass das Feuer „ohne Brennstoff nicht bestehen kann. Daher scheint es töricht, vom Feuer als einer ersten Substanz und einem ursprünglichen Element zu sprechen.“

So robust und überzeugend sie auch erscheinen mögen, Theorien sind selten immun gegen verschiedene Arten von Fehlern, die mehr oder weniger schnell auftauchen und als Keimzelle für entweder eine umfassende Neuformulierung oder für eine vollständige Ablehnung dienen, wie zum Beispiel der Geozentrismus und die Vier-Elemente-Theorie. Unter der vernünftigen Prämisse, dass wir nicht schlauer sind als unsere Vorgänger, besteht ein faszinierendes Problem darin, herauszufinden, welche der gegenwärtig akzeptierten Theorien in der Zukunft in Vergessenheit geraten könnten, und Historiker untersuchen zu lassen, warum ihr Untergang nicht früher stattgefunden hat. Das Ziel besteht also darin, praktische oder theoretische Schwächen aufzuspüren und zu beurteilen, ob sie tatsächlich von Bedeutung sind oder nicht. Zu diesem Zweck sind erkenntnistheoretische Ansätze am wertvollsten, weil sie sich auf grundlegende Prinzipien konzentrieren, ohne sich in technische Details vertiefen zu müssen.

Eine These, der man folgen kann, ist, dass die anthropogenen Emissionen von CO2 und anderen Treibhausgasen, wie z. B. Methan, das Klima der Erde stark erwärmen. Da die CO2-Emissionen als der derzeit wichtigste Einflussfaktor auf das Klima gelten, denkt man über beispiellose Anstrengungen nach, wie man kohlenstofffreie Gesellschaften innerhalb weniger Jahrzehnte erreichen kann. In Anbetracht der großen sozialen, ökologischen, politischen und wirtschaftlichen Fragen, die ein solcher Übergang aufwirft, verdienen zwei Punkte besondere Aufmerksamkeit. Der erste betrifft die geochemischen Nachweise, die für die Treibhauswirkung von CO2 (und auch von CH4) über Zeiträume vorliegen, die lang genug sind, um große Klimazyklen zu umfassen. Der zweite befasst sich mit dem tatsächlichen heuristischen Wert von Klimasimulationen, der allgemein anerkannt zu sein scheint, ohne dass er wirklich tiefgreifend analysiert wurde. Beide Punkte sollen daher in der vorliegenden Studie aus erkenntnistheoretischer Sicht kritisch überprüft werden. Tatsächlich wird der verfolgte Ansatz durch die in beiden Punkten aufgezeigten gravierenden Schwächen gerechtfertigt, die insbesondere noch einmal verdeutlichen, warum Modelle, auf die man sich heute in vielen Bereichen der Wissenschaft und der öffentlichen Politik so ausgiebig verlässt, keinen wirklichen Beweiswert haben können.

3 Die Relation zwischen Temperatur und CO2

3.1 Die Eisbohrkern-Analysen

Die bis in eine Tiefe von 3310 m gebohrten Eiskerne der russischen Vostok-Station haben die ersten umfassenden Klima-Aufzeichnungen über die letzten 423.000 Jahre geliefert (Petit et al., 1999). Einschließlich des aktuellen Zyklus‘ wurden fünf große Zyklen von Vergletscherung und Deglaziation festgestellt. Die vier ältesten Zyklen dauerten jeweils von 87.000 bis 123.000 Jahre, während derer sich die Temperaturen in der Antarktis um etwa 10°C veränderten und die atmosphärischen CO2-Konzentrationen zwischen 180 und 300 ppmv (parts per million by volume; Abb. 1) schwankten, wobei die niedrigsten Werte die photosynthetische Aktivität zwar verlangsamten, aber nicht behinderten (Gerhart und Ward, 2010). Ein weiterer Datensatz, der bis 800.000 Jahre zurückreicht, wurde später am Standort Dome C des European Project for Ice Coring in Antarctica (EPICA), 560 km südlich von Vostok, gewonnen (Lüthi et al., 2008). Die beiden Analyseserien sind sich in ihrem Überlappungszeitraum sehr ähnlich. Zwischen 400.000 und 800.000 Jahre zeigt die Aufzeichnung von Dome C vier weitere Gletscherzyklen in einer Tiefe von 200 m. Möglicherweise aufgrund von Störungen und Umlagerungen des akkumulierten Eises zeigt das ältere Material jedoch Erwärmungs-/Abkühlungsepisoden in Form von breiteren Merkmalen. Obwohl diese zusätzlichen Zyklen für die Untersuchung von Übergängen zwischen glazialen und interglazialen Bedingungen wertvoll sind, werden sie hier nicht berücksichtigt, da ihre geringere Auflösung weitere Aussagen über die Temperatur-CO2-Beziehung verhindert.

Abbildung 1: Temperaturschwankungen (ΔT) als Ursache für die Änderungen der atmosphärischen CO2-Konzentrationen während der letzten 423.000 Jahre der Vostok-Aufzeichnung und ihre Kontrolle durch Milankovitch-Einstrahlungszyklen. Alle Daten aus Petit et al. (1999) sind in chronologischer Reihenfolge von links nach rechts aufgetragen, einschließlich der oben dargestellten Einstrahlungsschwankungen in Watt pro Quadratmeter (W/m²), die für einen Referenzwert Mitte Juni bei 65°N angegeben sind. Die dünnen vertikalen Balken betonen die Steilheit der Temperatur- und CO2-Anstiege zu Beginn der Zyklen, für die die jeweilige Dauer angegeben ist (Zyklus V wegen seines fehlenden Beginns ausgeschlossen). Die systematisch schmaleren Spitzen für die Temperaturen im Vergleich zu den CO2-Konzentrationen sind besonders gut am Anfang der Zyklen zu erkennen (wo zusammenhängende Temperatur-, CO2– und Einstrahlungsspitzen durch dicke horizontale Balken angezeigt werden) und durch die Temperatur- und CO2-Spitzen (signalisiert durch ausgefüllte Punkte), die mit den reduzierten Einstrahlungsänderungen der charakteristischen wiederkehrenden Milankovitch-Konfigurationen verbunden sind (Punkte in den Einstrahlungsplots, die genau an den Positionen der Temperatur-Doubletten platziert sind). Quelle

[Von der Übersetzung dieser Passagen wird abgesehen, da das hier Beschriebene oft schon anderweitig beschrieben ist. Auch bzgl. der danach besprochenen geochemischen Einflüsse wird auf das Original verwiesen. A. d. Übers.]

4 Erkenntnistheoretische Analyse

4.1 Die atmosphärische CO2-Konzentration: ein reiner Temperatureffekt?

Trotz der oben erwähnten Schlussfolgerung (iii) hat die bemerkenswerte Proportionalität zwischen den Amplituden der Anstiege der Temperaturen und der CO2-Konzentrationen zu Beginn der Glazial-Interglazial-Übergänge dazu geführt festzustellen, welcher dieser beiden Parameter den anderen kontrollierte (Petit et al., 1999). Für die starken Anfangsanstiege ist die Bestimmung einer Zeitdifferenz zwischen den beiden Beobachtungsreihen problematisch, insbesondere wegen der Zeit, die für den Eisporen-Einschluss benötigt wird. Weitere Analysen und Interpretationen haben ergeben, dass die CO2-Zunahmen weniger als 1 kyr hinter den anfänglichen Temperaturanstiegen zurückblieben (Fisher et al., 1999; Caillon et al., 2003; Vakulenko et al., 2004). Weitere Arbeiten weisen auf noch kürzere Zeitverzögerungen (Pedro et al., 2012) oder sogar auf eine praktische Synchronizität hin (Parrenin et al., 2013). Diese enge Kopplung steht in Übereinstimmung mit den schnellen Raten, mit denen sich das atmosphärische CO2 an Änderungen der Ozeanoberflächentemperatur anpasst, wie sie in einer Studie über den Zeitraum 1980-2011 beobachtet wurden (Humlum et al., 2013).

[Es folgt eine sehr technisch gehaltene und umfangreiche Beschreibung des Verfahrens, hinsichtlich der ebenfalls auf das Original verwiesen wird. Wichtiger erscheinen die Implikationen all dessen, weshalb jetzt gleich zu diesen Abschnitten übergegangen wird. A. d. Übers.]

Abbildung 2: Die bemerkenswerte Korrelation zwischen den Schwankungen der Temperatur und der atmosphärischen Methankonzentrationen in der Vostok-Aufzeichnung. Die Daten aus Petit et al. (1999) sind in chronologischer Reihenfolge von links nach rechts aufgetragen. Quelle

5 Implikationen

5.1 Das CO2-Phänomen

Korrelation impliziert in der Regel nicht zwangsläufig Kausalität. Ein Fehlen der Korrelation schließt dagegen jede Kausalität entschieden aus. Die von den Klimamodellen zugewiesene treibende Rolle des CO2 mit den gegenteiligen Schlussfolgerungen aus den Eiskerndaten in Einklang zu bringen, scheint daher mit erheblichen Schwierigkeiten behaftet zu sein. Die Eiskernergebnisse verlagern also die Beweislast für einen CO2-Einfluss auf die Temperatur auf die Befürworter des Rückkopplungsmechanismus und machen darüber hinaus jegliche Bestimmung der Klimasensitivität problematisch.

Aktuelle Klimamodelle sind in der Praxis nicht falsifizierbar im Sinne von Popper (1959), weil sie so komplex sind, so viele physikalische Parameter einbeziehen, auf so viele Daten für ihr Design und ihre Bewertung angewiesen sind, keine angemessenen Abschätzungen der Fehlerfortpflanzung haben und unter der Tatsache kranken, dass die Beobachtungen, die sie reproduzieren sollen, nicht nach Belieben verändert werden können, um ihre Reaktionen unter sehr unterschiedlichen Bedingungen zu überprüfen. Stattdessen wird behauptet, dass Modelle dank ihrer soliden physikalischen Grundlage zuverlässig sind, was durch die vorliegende Analyse nicht gestützt wird, während auch auf den subjektiven Begriff des Konsens‘ zurückgegriffen wird, um ihre Gültigkeit zu behaupten. Ob ein solcher Konsens vorliegt, muss hier nicht weiter diskutiert werden, da dieser Begriff epistemologisch irrelevant ist. Wie bereits angedeutet, ist die Geschichte der Wissenschaft nichts anderes als ein langer Spaziergang über den Friedhof, auf dem Ideen, die mit überwältigender Mehrheit akzeptiert wurden, nun in Frieden ruhen.

[Hervorhebungen vom Übersetzer]

Für das vorliegende Thema wurde der Punkt im späten 19. Jahrhundert und dann wieder in der Mitte des 20. Jahrhunderts bemerkenswert gut durch den Konsens veranschaulicht, der nacheinander für, dann gegen und schließlich wieder für die astronomische Steuerung von Eiszeiten erreicht wurde. Wie Imbrie und Palmer Imbrie (1979) für die letztgenannte Periode feststellten, „wurden während der 1930er und 1940er Jahre die meisten europäischen Geologen von der Milankovitch-Theorie überzeugt“ und „die Mehrheit der Wissenschaftler favorisierte noch bis 1950 die astronomische Theorie. Aber in den frühen 1950er Jahren kam es zu einer dramatischen Kehrtwende, denn bis 1955 wurde die astronomische Theorie von den meisten Geologen abgelehnt.“ Die Argumente gegen die astronomische Theorie wurden besonders stark, als die neue Technik der 14C-Datierung „ein Muster klimatischer Veränderungen offenbarte, das in fast jedem Punkt mit der astronomischen Theorie im Widerspruch stand.“ Kurz bevor Hays, Imbrie und Shackelton ihre bahnbrechende Studie veröffentlichten (Hays et al., 1976), war laut Imbrie und Palmer Imbrie „bis 1969 die Mehrheit der Wissenschaftler ausreichend beeindruckt von den Radiokohlenstoff-Beweisen gegen die Milankovitch-Theorie, um die Idee als ernsthaften Anwärter für die Auslösung von Eiszeiten zu eliminieren.“

Im Gegensatz zu Klimasimulationen ist die vorliegende Analyse offen für eine Falsifizierbarkeit, da ihr Trugschluss, falls vorhanden, eindeutig aufgezeigt werden könnte. In diesem Zusammenhang ist zu betonen, dass der hier verfolgte Ansatz alle für das Problem relevanten Faktoren mit entsprechender Gewichtung direkt integriert und völlig unabhängig ist von angenommenen physikalischen Mechanismen, vermuteten Wechselwirkungen zwischen Klimavariablen, Überlegungen zum CO2-Zyklus, statistischen Analysen ausgewählter, für das Problem als repräsentativ angenommener Datensätze und sonstigen Simulationsmerkmalen.

Eine Kardinalregel in der Wissenschaft ist es, eine Hypothese zu verwerfen, die den experimentellen Befunden, die sie erklären soll, eindeutig widerspricht, insbesondere wenn sie auch dem grundlegendsten Lehrsatz der Wissenschaft widerspricht, dem Prinzip des Nicht-Widerspruchs, das in den Worten von Aristoteles „das Sicherste von allem“ ist. Wenn die vorliegende Analyse nicht widerlegt werden kann, dann sollte man das Arrhen’sche Paradigma ablehnen und schlussfolgern, (i) dass Änderungen der Konzentration des atmosphärischen CO2 bis 300 ppm allenfalls geringe Auswirkungen auf die Temperaturen während der letzten 423.000 Jahre hatten, (ii) dass sich die Konzentration des atmosphärischen CO2 während dieser Periode einfach an die vorherrschenden Temperaturbedingungen an der Erdoberfläche angepasst hat, deren Schwankungen hauptsächlich durch Einstrahlungsänderungen während der Milankovitch-Zyklen bestimmt wurden, und (iii) dass signifikante Beiträge von CO2 und CH4 zu Temperaturänderungen an der Erdoberfläche durch direkte, unabhängige Beweise nicht belegt sind.

Die Möglichkeit in Betracht zu ziehen, dass Temperaturanstiege entlang der Milankovitch-Zyklen durch steigende CO2-Konzentrationen ausgelöst worden sein könnten, ist in der Tat überraschend, da dies gegen die grundlegende Thermodynamik verstoßen würde. Wie seit den Arbeiten von Planck bekannt, stellt Strahlung nicht nur Energie, sondern auch Entropie dar. Unabhängig davon, auf welche Art und Weise die Strahlungsentropie auf die Erdoberfläche und die Atmosphäre übertragen wird oder von ihnen verloren geht, ist es eine grundlegende Tatsache, dass Temperatur und Entropie die intensiven bzw. extensiven konjugierten Variablen der thermischen Energie sind. Unter allen Umständen ist also jede Temperatur- (oder allgemeiner: Enthalpie-) Änderung eines Systems notwendigerweise mit einer Entropieänderung verbunden (siehe Richet, 2001). Dies ist eine andere Art zu sagen, dass Treibhausgase das Klima nur über thermische Änderungen beeinflussen können. Als solche würden sich ihre Auswirkungen in jeder Temperaturaufzeichnung manifestieren, die in dieser Hinsicht als Thermogramme in thermischen Analysen betrachtet werden müssen.

Natürlich könnte man alternativ behaupten, dass andere Faktoren als CO2-Temperatur-Wechselwirkungen an dem sehr komplexen Klimaproblem beteiligt sind; wenn dem so ist, wäre jedoch ein wichtiger Aspekt, dass Änderungen des atmosphärischen CO2-Gehalts von zehn oder sogar hunderten Teilen pro Million sicherlich nicht direkt auf das Eisvolumen oder Kipppunkte im Zusammenhang mit den Mustern der ozeanischen Zirkulation einwirken könnten, um nur ein wichtiges Merkmal zu nennen, sondern nur über thermische Änderungen wie oben beschrieben. Es bleibt also die Schlussfolgerung, dass es weder in Klimamodellen noch in der Umweltpolitik sinnvoll ist, den Auswirkungen von CO2 so viel Bedeutung beizumessen.

[Hervorhebung vom Übersetzer]

Bei Eisbohrkernen ist ein erster Schlüsselfaktor, der zuverlässige Abschätzungen der Temperaturen in Bezug auf die CO2– und CH4-Konzentrationen gewährleistet, die Bestimmung der drei Parameter für dieselben Eisfragmente bekannten Alters. Ein zweiter Faktor ist die Tatsache, dass die in den Polarregionen beobachteten Temperaturschwankungen von bis zu 12°C während der Klimazyklen viel größer sind als die 2-3°C, die die gesamte Erde betreffen, was die viel höhere Auflösung der polaren Aufzeichnungen erklärt. Und ein dritter Faktor sind die großen Zeitskalen dieser Beobachtungen, die mehr als 1000-mal länger sind als die der Klimasimulationen und der verfügbaren Messungen von atmosphärischen Temperaturen und Gaskonzentrationen. Von besonderer Bedeutung ist auch, dass die hier betrachteten 423.000 Jahre lang genug sind, um vier komplette Gletscherzyklen zu umfassen, für die kurzfristige Schwankungen vernachlässigt werden können, aber kurz genug, um nicht von anderen Faktoren beeinflusst zu werden, wie z.B. Änderungen der Kontinentalpositionen, die über sehr lange Zeitskalen eine wichtige Rolle spielen. Darüber hinaus ist das Fehlen von Korrelationen, die den CO2-Antrieb unterstützen, immun gegen die unvermeidlichen Verzerrungen, die entstehen, wenn nicht zusammenhängende Datensätze für verschiedene Parameter verwendet werden, insbesondere wenn einige indirekt aus Proxy-Studien abgeleitet werden oder wenn Untersuchungen sich mit kurzen Zeiträumen befassen.

In der Atmosphäre wurde die maximale CO2-Konzentration von 300 ppm, die in der Vostok-Aufzeichnung gefunden wurde, in den 1910er Jahren wieder erreicht. Die Hauptwirkung solch hoher Konzentrationen bestand lediglich darin, den zeitlichen Nachlauf des CO2 hinter den Temperaturvorsprüngen erheblich zu vergrößern, ohne signifikante Auswirkungen auf das Klima der Vergangenheit. Daher ist es zweifelhaft, dass eine signifikante globale Erwärmung durch menschliche Emissionen während des größten Teils des 20. Jahrhunderts als Folge des bis in die 1980er Jahre beobachteten zusätzlichen CO2-Anstiegs von 50 ppm verursacht worden sein könnte. In Anbetracht des Mangels an Beweisen für Rückkopplungsmechanismen, die besonders gut durch die CH4-Aufzeichnung demonstriert werden, bleibt in der Tat zu bestimmen, ab welchem Niveau, wenn überhaupt, die CO2-Konzentrationen beginnen würden, relevant zu werden und die schlimmen Folgen der aktuellen CO2-Konzentrationen zu bestimmen. Das Prinzip der Parsimonie deutet also darauf hin, dass die gegenwärtige Erwärmung nur eine der wiederkehrenden Schwankungen ist, die in den letzten beiden Klimazyklen deutlich als Spitzen aufgezeichnet wurden, die in der Vostok-Aufzeichnung (Abb. 1) noch nicht gemittelt wurden und erstaunlicherweise in Diskussionen über kurzfristige Temperaturschwankungen übersehen zu werden scheinen. Wie schon oft angemerkt, wäre es in der Tat eine willkürliche Annahme, dass ein so chaotisches und hochgradig heterogenes System wie die Erde, das durch komplexe Sätze gekoppelter nichtlinearer Gleichungen beschrieben werden muss, sich über lange Zeiträume immer gleichmäßig entwickeln würde.

Die wahrscheinlich ausführlichste geochemische Diskussion der Gletscherzyklen und der Klimaauswirkungen von CO2 wurde von Broecker (2018) veröffentlicht, der darauf hinwies, dass einige wichtige Merkmale des vergangenen Klimas nicht durch CO2-Variationen erklärt werden können. Broecker stellte dennoch fest, dass „die geologische Aufzeichnung ein starkes Argument dafür liefert, dass CO2 maßgeblich an vergangenen Klimaveränderungen beteiligt war“, und fügte hinzu, dass „wie die Aufzeichnung für die letzten 150.000 Jahre deutlich machen“, CO2 „nicht allein gewirkt hat“, weil Sonneneinstrahlungszyklen, Ozeanzirkulation oder Reorganisation und latitudinale Temperaturgradienten ebenfalls dazu beigetragen haben. Die anderen von Broecker genannten Faktoren sind zwar weniger wichtig als die Sonneneinstrahlungszyklen, müssen aber bei detaillierteren Darstellungen des Klimawandels sicherlich berücksichtigt werden. Insgesamt beruht die grundlegende Bedeutung der Antarktis-Aufzeichnungen jedoch auf der Tatsache, dass die Vergletscherungszyklen die auffälligsten Merkmale der Klimaveränderungen sind und dass die daraus resultierenden Meeresspiegelschwankungen notwendigerweise den gesamten Planeten betreffen. Von besonderem Interesse ist in diesem Zusammenhang die Synchronizität der Erwärmungs- und Abkühlungsepisoden, die über lange Zeitskalen zwischen Grönland und der Antarktis gefunden wurden (Pedro et al., 2011). Darüber hinaus deutet die bemerkenswerte Synchronität von Temperatur- und Methanvariationen auf das Fehlen größerer latitudinaler Zeitverzögerungen hin, da das Methanbudget weitgehend durch tropische Quellen und Senken (Loulergue et al., 2008) und nicht durch Wechselwirkungen mit dem Meerwasser (Reeburgh, 2007) gesteuert zu sein scheint.

5.2 Die Gefahr von Zirkelschlüssen

Petit (2013) behauptete, dass die verstärkende Rolle von CO2 auf den Klimawandel zuerst durch die Wostok-Analysen nachgewiesen wurde und fügte hinzu, dass diese Ergebnisse dann „sehr schnell vom IPCC berücksichtigt wurden, der kürzlich zu dem Schluss kam, dass menschliche Aktivitäten für die aktuelle Klimaerwärmung verantwortlich sind.“ Die Bedeutung der Wostok-Ergebnisse stand also im Mittelpunkt der aktuellen Debatte, auch wenn inzwischen allgemein betont wird, dass die globale Erwärmung stattdessen durch ein quantitatives Verständnis der physikalischen Mechanismen nachgewiesen wird, durch die Temperaturen und CO2-Konzentrationen in fortgeschrittenen Klimamodellen miteinander in Beziehung stehen.

Bezüglich ihrer Vostok-Analysen stellten Petit et al. (1999) fest, dass „Ergebnisse aus verschiedenen Klimasimulationen die Annahme nahelegen, dass Treibhausgase auf globaler Ebene signifikant (möglicherweise etwa die Hälfte, d. h. 2-3°C) zur global gemittelten glazial-interglazialen Temperaturänderung beigetragen haben.“ Dass diese Aussage durch die vorliegende Analyse eindeutig widerlegt wird, entkräftet wiederum die Klimasimulationen, aus denen sie abgeleitet wurde. Die CO2-Rückkopplung, die die Eiskernergebnisse angeblich zeigen, scheint also ein Beispiel für eine recht häufige Situation zu sein, in der eine vorgefasste Meinung über die Kausalität zu einer Fehlinterpretation der Daten geführt hat – vielleicht auch deshalb, weil diese Ergebnisse nicht als Funktion der Zeit, sondern der Tiefe aufgetragen wurden, was die Illusion hervorrufen kann, dass CO2-Spitzen systematisch den Temperaturspitzen vorausgehen. Diese Situation veranschaulicht die Gefahr, theoretische Konzepte auf ein sehr komplexes System zu übertragen, wenn die Beobachtungsunterstützung unvollständig ist oder wenn eine unabhängige, strenge Bewertung der Gültigkeit des Verfahrens fehlt. Mit anderen Worten: Die Interpretation der CO2– und Temperaturaufzeichnungen von Eiskernen im Lichte von Klimamodellen stellt einen falschen methodischen Sprung dar. Ironischerweise würde jede Behauptung, dass Modelle die berichtete Klimaentwicklung seit dem späten 20. Jahrhundert genau reproduzieren, eher ihre falsche Natur illustrieren und nicht ihre Gültigkeit beweisen, wenn die Temperaturanstiege dieser Periode nicht durch Erhöhungen der CO2-Konzentrationen verursacht werden.

[Hervorhebung vom Übersetzer]

Hinzu kommt eine große erkenntnistheoretische Schwäche der Klimamodelle, denn die Zeitskalen von maximal 150 Jahren, die sie mit direkten oder indirekten Beobachtungen berücksichtigen, sind im Vergleich zu denen der kürzesten Schwankungen, welche die Klima-Aufzeichnungen zeigen, ungeheuer kurz (Abb. 1). Die Situation ist analog zu den Versuchen, die grundlegende Physik der Gezeiten zu verstehen, indem man sich auf eine einzelne Kräuselung an der Wasseroberfläche konzentriert und nicht auf ganze Ebbe- und Flut-Zyklen mit variablen Amplituden. Die Verlässlichkeit von Klimamodellen sollte also daran gemessen werden, ob sie in der Lage sind, zumindest die Hauptmerkmale der letzten Gletscherzyklen, beginnend mit den scharfen Glazial-Interglazial-Übergängen, wiederzugeben. Angesichts der fundamentalen Rolle, die den Treibhausgasen zugewiesen wird, kann kein bestimmtes Modell als gültig angesehen werden, solange die Breitenunterschiede zwischen Temperatur- und CO2-Spitzen nicht quantitativ berücksichtigt werden.

Tatsächlich leiden die aktuellen Modelle an der zirkulären Natur der Argumentation hinter ihrem angenommenen Rückkopplungs-Mechanismus, wobei der vorhergesagte Einfluss von CO2 letztlich einfach mit den postulierten Effekten in einer Situation übereinstimmt, in der die anthropogenen Anstiege der CO2-Konzentrationen zufällig mit denen der Temperaturen einhergehen. In einer Art reductio ad absurdum würde sich eine ähnliche Situation ergeben, wenn man den beobachteten quantitativen Zusammenhang zwischen den jüngsten Anstiegen der atmosphärischen CO2-Gehalte und der geographischen Verschiebung des magnetischen Nordpols (Abb. 3) als Kausalitätsbeziehung interpretieren würde – was natürlich angesichts einer völligen physikalischen Unplausibilität nicht ernsthaft in Betracht gezogen werden kann!

Abbildung 3: Die stark beschleunigte Verschiebung des magnetischen Nordpols (nach Witze, 2019). Ähnliche Strecken wurden von 1900 bis 1980 und von 2000 bis 2020 zurückgelegt, die quantitativ (aber natürlich zufällig) in beiden Zeiträumen mit einem ∼40 ppm Anstieg der atmosphärischen CO2-Konzentration korrelieren (Hawaii Observatory, 2019).

In einer bekannten Aussage veranschaulichte der lateinische Schriftsteller Macrobius (fl. frühes 5. Jh. v. Chr.) vor langer Zeit eine solche Zirkularität, als er erklärte, warum der Ort der Erde im Zentrum der Welt liegt. Er behauptete, in einer Art und Weise, die an komplexe Rückkopplungen erinnert, dass „jene Gründe wahrhaft unumstößlich sind, die sich gegenseitig bestätigen, wobei der eine den anderen begründet und jeder aus dem anderen hervorgeht, wobei er niemals die Unterstützung des anderen aufgibt.“ Dann schloss Macrobius, dass „die Natur mit solchen Bindungen die Erde festgehalten hat: alle Dinge tendieren zu ihr hin, weil sie sich als Mitte nicht bewegt; wiederum bewegt sie sich nicht, weil sie unten ist; schließlich muss sie unten sein, weil alle Dinge zu ihr hin tendieren.“

5.3 Geowissenschaften – ein Fallgruben-Erzeuger

Für einen Geowissenschaftler ist die laufende Klimadebatte eine Erinnerung an die lange Reihe von Kontroversen, für die die Geologie besonders anfällig war (siehe Hallam, 1989). Die enorme Größe, die sehr langen Zeitskalen, die Komplexität und die große Anzahl von Parametern, die für das Erdsystem als Ganzes berücksichtigt werden müssen, haben mehr als einmal eminente Wissenschaftler, die sich zu sehr ihrer eigenen Physik verschrieben haben, eindeutig in die Irre geführt. Die immer wieder zu hörende Behauptung, die Wissenschaft habe das Klimaproblem endgültig gelöst, erinnert den Beobachter besonders an zwei berühmte Debatten. In Bezug auf die Bewegung der Kontinente hatte der sehr einflussreiche Mathematiker und theoretische Geophysiker Jeffreys (1929) recht, als er behauptete, dass bei einer starren Erde „säkulare Drift der Kontinente relativ zum Rest der Kruste, wie sie von Wegener und anderen behauptet wurde, nicht in Frage kommt.“ Aber er lag trotzdem ziemlich falsch, weil er keine Konvektion in einem hochviskosen Mantel vorstellte, die zur gleichen Zeit von Holmes (1928) als ein brauchbarer Prozess vorgeschlagen worden war.

Relevant ist auch der Höhepunkt der langen Kontroverse über das Alter der Erde am Ende des 19. Jahrhunderts. Damals wurde ein Alter von weniger als 100 Millionen Jahren scheinbar mit äußerster Strenge, d. h. ohne jegliche Anpassungsparameter, auf vier völlig unabhängige Arten nachgewiesen, nämlich aus der Abkühlungsgeschichte der Erde aus einem ursprünglich geschmolzenen Zustand, aus dem Alter der Sonne, wie es durch den ersten Hauptsatz der Thermodynamik eingeschränkt wird, aus der Zeit, die der Weltozean benötigt, um seinen Salzgehalt zu erlangen, und aus dem Zeitpunkt, zu dem sich der Mond von der Erde trennte, wie er aus astronomischen Überlegungen berechnet wird (siehe Richet, 2007). Tait (1885), ein bekannter Physiker und enger Freund Kelvins, veranschaulichte dann die Selbstsicherheit des Theoretikers, indem er behauptete: „Wir sagen: So viel zum Schlimmeren für die Geologie, wie sie gegenwärtig von ihren Hauptautoritäten verstanden wird, denn, wie Sie gleich sehen werden, machen es physikalische Überlegungen von verschiedenen unabhängigen Gesichtspunkten aus völlig unmöglich, dass mehr als zehn oder fünfzehn Millionen Jahre gewährt werden können.“

Vielleicht noch relevanter war der eindeutige Konsens, der in den 1890er Jahren erreicht wurde, als Geologen, die das Alter der Erde beurteilten, Wege fanden, die Anforderungen der Physiker zumindest teilweise zu erfüllen; indem sie ihre geschätzten Mächtigkeiten der stratigraphischen Säule und die durchschnittlichen Sedimentationsraten anpassten, kamen sie zu Altersangaben zwischen 26 und 100 Millionen Jahren. Die große Ironie der Situation bestand also darin, dass dieser Konsens, der spontan – d. h. ohne finanzielle Mittel, sozialen oder politischen Druck – erreicht wurde, um dem neu vorherrschenden physikalischen Paradigma zu entsprechen, nicht einmal zwei Jahrzehnte nach Taits Äußerung in Stücke zerbrach, als radioaktive Datierungen stattdessen auf ein Alter von Milliarden Jahren hinzuweisen begannen (siehe Richet, 2007).

Im Gegensatz zum Kontext früherer Debatten ist es unwahrscheinlich, dass neue grundlegende Prinzipien entdeckt werden müssen, um das Verständnis des Klimas zu verbessern. Wie die im Laufe der Jahre aufgezeigten Grenzen aktueller Klimamodelle zeigen (z. B. Lindzen, 1997; Christy et al., 2018; Lewis und Curry, 2018; McKitrick und Christy, 2020; Mitchell et al., 2020), geht es vielmehr darum festzustellen, welche der getroffenen Grundannahmen und verwendeten Rechenverfahren entweder zu grob oder gar falsch sind und welche Faktoren und Wechselwirkungen in den Simulationen weggelassen oder nicht richtig berücksichtigt wurden.

Die Frage ist keineswegs neu, wurden doch bereits verschiedene Vorschläge dazu gemacht. Ohne hier die Stichhaltigkeit solcher Ansätze diskutieren zu müssen, soll es genügen darauf hinzuweisen, (i) dass auf die ständig nacheilende Wirkung der CO2-Konzentrationen in Bezug auf die Änderungsrate des globalen Eises bereits hingewiesen wurde (z.B., Roe, 2006); (ii) dass der Strahlungsantrieb von CO2 und CH4 in klimatisch sensiblen Zonen und Breitengraden um ein Vielfaches kleiner ist als Änderungen der Sonneneinstrahlung (Soon, 2007); (iii) dass eine Verdopplung der gegenwärtigen Konzentrationen von CO2 und CH4 die Strahlungsantriebe um einige Prozent erhöhen würde, gemäß neueren Berechnungen, die für die fünf häufigsten Treibhausgase aus einem umfassenden Satz von über 333 000 Schwingungsbändern gemacht wurden (Van Wijngaarden und Happer, 2020); (iv) dass die üblicherweise angenommenen Treibhaus-Prozesse tatsächlich stark in Frage gestellt wurden (z. g., Chilingar et al., 2008; Allmendinger, 2017; Hertzberg et al., 2017; Nikolov und Zeller, 2017); (v) dass der Klimawandel aus dem fundamentalen thermodynamischen Blickwinkel der Entropieproduktion in der Atmosphäre wenig untersucht wurde (Delgado-Bonal, 2017); (vi) und dass das Gesamtbild auch in einer breiteren Perspektive umstritten ist (z. B. Hertzberg und Schreuder, 2016; Fleming, 2018; Frank, 2019). In Anlehnung an z. B. Blaauw (2017) wäre es besonders interessant zu prüfen, ob einfachere Modelle, die frei von Treibhausgaseffekten sind, verlässlichere Ergebnisse für längere Zeitspannen als die derzeit betrachteten liefern würden.

5.4 Auf dem Weg in eine neue Eiszeit?

Wie bereits erwähnt, ist ein wichtiges Merkmal, das im Hinblick auf die dynamischen Reaktionen berücksichtigt werden muss, die konstante Zeitverzögerung von 7000 Jahren zwischen den Temperatur- und CO2-Spitzen an den Interglazial-Glazial-Übergängen (Abb. 1). Sie ist viel länger als die Ausgleichszeiten für die CO2-Aufnahme durch den Weltozean, aber ihr konstanter Wert deutet auf Prozesse von einer allgemeinen Reproduzierbarkeit hin, die nicht zu erwarten gewesen wäre.

Im Hinblick auf die Milankovitch-Zyklen ist ein weiteres Problem von besonderer Bedeutung, eine quantitative Erklärung für die beobachteten 1:2-Verhältnisse der Temperaturspitzenbreiten zwischen Zyklus III und den Zyklen II und IV zu finden. Der aktuelle Übergang I in Abb. 1 ermöglichte die Erfindung des Ackerbaus und führte zu den Anfängen und der Ausbreitung der Zivilisation. Mit 13.000 Jahren ist die Halbwertsbreite seines Temperaturpeaks jedoch bereits viel größer als die 7000 Jahre des Zyklus‘ III und nähert sich den 15.000 bis 16.000 Jahren der Zyklen II und IV, was ernsthaft die Frage nach der nächsten Eiszeit aufwirft.

Als man begann, die Gültigkeit der Milankovitch-Zyklen anzuerkennen, ging man allgemein davon aus, dass die Temperaturen seit den späten 1930er Jahren abgenommen hatten (siehe Imbrie und Palmer Imbrie, 1979). Dass die Abkühlung viel länger dauerte als die Erwärmung in den großen Klimazyklen, stellte Kukla (1970), ein Autor, der ebenfalls ein Verfechter der Abkühlungsthese war, in seinen Lößstudien fest. So schlussfolgerten Kukla und Matthews (1972) aus sich ausdehnenden Schneebänken um die Baffin-Insel, aus der die Schifffahrt behindernden Eisspitze um Island oder aus dem Rückzug wärmeliebender Tiere nach Süden, dass „das natürliche Ende unserer warmen Epoche zweifellos nahe ist, wenn man eine geologische Zeitskala betrachtet.“

Im aktuellen Kontext der globalen Erwärmung werden solche Ängste vor einer neuen Eiszeit im Nachhinein sehr leichtfertig geäußert. Nach einem Modell, das auf einer Beziehung zwischen borealer Sommereinstrahlung und CO2-Konzentration basiert, würde die aktuelle Zwischeneiszeit wahrscheinlich noch 50 000 bis 100 000 Jahre andauern, abhängig von der Höhe der anthropogenen CO2-Emissionen (Ganopolski et al., 2016). Selbst wenn ein CO2-Antrieb angenommen wird, dann sollte die Zuverlässigkeit eines solchen Modells jedoch zunächst aus seiner Fähigkeit abgeleitet werden, die jeweiligen Dauer vergangener Eiszeiten quantitativ zu reproduzieren.

Solange eine solche Einschätzung fehlt, kann man stattdessen davon ausgehen, dass die hohe Sensitivität des Klimas gegenüber kleinen Merkmalen der Milankovitch-Zyklen (Abb. 1) es a priori unwahrscheinlich macht, dass die gegenwärtige Warmzeit wesentlich länger dauern sollte als die früheren. In dieser Hinsicht besteht der wichtige Unterschied zwischen heute und der Situation in den 1970er Jahren darin, dass die Abfolge von acht großen Gletscherzyklen während der letzten 800.000 Jahre so gut etabliert ist, dass die präzise Chronologie, die sich aus den Eiskernaufzeichnungen ergibt (Abb. 1), darauf hindeutet, dass ein Beginn der globalen Abkühlung in weniger als ein paar Jahrtausenden beobachtet werden könnte. Es ist zu erwarten, dass die Klimamodelle bis dahin den Grad an Zuverlässigkeit erreicht haben, der für genaue Vorhersagen erforderlich ist. Nichtsdestotrotz bleibt es dabei, dass die Bedrohung durch eine neue eintretende Eiszeit von außergewöhnlichem Ausmaß wäre, wie es bereits in den 1970er Jahren angedacht wurde, und die aktuellen Ängste vor einer globalen Erwärmung ziemlich unbedeutend aussehen lassen würde.

References

Allmendinger, T.: The refutation of the climate greenhouse theory and a proposal for a hopeful alternative, Environ. Pollut. Climate Change, 1, 19 pp., 2017.

Aristotle: Metaphysica [translation: Ross, W. D.: Metaphysics, in Aristotle Complete Works, edited by: Barnes, J., vol. II, Princeton University Press, Princeton, 1552–1728, 1984], 4th c. BCE.

Aristotle: Topica [translation: Pickard-Cambridge, W. A.: Topics, in: Aristotle Complete Works, edited by: Barnes, J., vol. I, Princeton University Press, Princeton, 166–277, 1984], 4th c. BCE.

Arrhenius, S. V.: On the influence of carbonic acid in the air upon the temperature of the ground, Phil. Mag., 41, 237–276, 1896.

Blaauw, H. J.: Global warming: Sun and water, Energy Environ., 28, 468–483, https://doi.org/10.1177/0958305X17695276, 2017.

Broecker, W. S.: Climate change: Are we on the brink of a pronounced global warming?, Science, 401, 460–463, 1975.

Broecker, W. S.: CO2: Earth’s climate driver, Geochem. Perspect., 7, 117–196, 2018.

Buffon, G.-L.: Leclerc, count of Histoire naturelle, Premier discours, English translation of the excerpt, p. 352, 1749.

Buizert, C., Cuffey, K. M., Severinghaus, J. P., Baggenstos, D., Fudge, T. J., Steig, E. J., Markle, B. R., Winstrup, M., Rhodes, R. H., Brook, E. J., Sowers, T. A., Clow, G. D., Cheng, H., Edwards, R. L., Sigl, M., McConnell, J. R., and Taylor, K. C.: The WAIS Divide deep ice core WD2014 chronology – Part 1: Methane synchronization (68–31 ka BP) and the gas age–ice age difference, Clim. Past, 11, 153–173, https://doi.org/10.5194/cp-11-153-2015, 2015.

Caillon, N., Severinghaus, J. P., Jouzel, J., Barnola, J.-M., Kang, J., and Lipenkov, V. Y.: 2003. Timing of atmospheric CO2 and Antarctic temperature changes across termination III, Science, 299, 1728–1731, 2003.

Chilingar, G. V., Sorokhtin, O. G., Khilyuk, L., and Gorfunkel, M. V.: Greenhouse gases and greenhouse effects, Environ. Geol., 58, 1207–1213, https://doi.org/10.1007/s00254-008-1615-3, 2008.

Christy, J. R., Spencer, R. W., Braswell, W. D., and Junod, R.: Examination of space-based bulk atmospheric temperatures used in climate research, Int. J. Rem. Sens., 39, 3580–3607, 2018.

Crucifix, M., Loutre, M. F., and Berger, A.: The climate response to the astronomical forcing, Space Sci. Rev., 125, 213–226, 2006.

Delgado-Bonal, A.: Entropy of radiation: the unseen side of light, Sci Rep., 7, 1642, https://doi.org/10.1038/s41598-017-01622-6, 2017.

Democritus: Testimony D.K. 68 B117/184a [translation: Taylor, C. C. W.: The Atomists Leucippus and Democritus: Fragments, A Text and Translation, Univ. Toronto Press, Toronto, 1999], 5th–4th c. BCE.

Edvardsson, S., Karlsson, K. G., and Engholm, M.: Accurate spin axes and solar system dynamics: Climatic variations for the Earth and Mars, Astron. Astroph., A384, 689–701, 2002.

EPICA: community members: Eight glacial cycles from an Antarctic ice core, Nature, 429, 623–628, 2004.

Fisher, H., Wahlen, M., Smith, J., Mastroianni, D., and Deck, B.: Ice core records of atmospheric CO2 around the last three glacial terminations, Science, 283, 1712–1714, 1999.

Fleming, R. J.: An updated review about carbon dioxide and climate change, Environ. Earth Sci., 77, 13 pp., 2018.

Fourier, J.: Mémoire sur les températures du globe terrestre et des espaces planétaires, Mém. Acad. Sci., 7, 569–604, 1827.

Frank, P.: Propagation of error and the reliability of global air temperature projections, Front. Earth Sci., 7, 223, https://doi.org/10.3389/feart.2019.0223, 2019.

Ganopolski, A., Winkelmann, R., and Schellnhuber, H. J.: Critical insolation-CO2 relation for diagnosing past and future glaciation, Nature, 529, 200–203, 2016.

Gerhart, L. M. and Ward, J. K.: Plant responses to low [CO2] of the past, New Physiol., 188, 624–695, 2010.

Gest, L., Parrenin, F., Chowdhry Beeman, J., Raynaud, D., Fudge, T. J., Buizert, C., and Brook, E. J.: Leads and lags between Antarctic temperature and carbon dioxide during the last deglaciation, Clim. Past Discuss. [preprint], https://doi.org/10.5194/cp-2017-71, 2017.

Hallam, A.: Great Geological Controversies, Oxford Univ. Press, Oxford, 1989.

Hawaii Observatory: Atmospheric CO2 at Mauna Loa Observatory, available at: https://www.esrl.noaa.gov/gmd/odop/mlo/ (last access: January 2021), 2020.

Hays, J. D., Imbrie, I., and Shackelton, N. J.: Variations in Earth’s orbit – pacemaker of ice ages, Science, 194, 1121–1132, 1976.

Hertzberg, M. and Schreuder, H.: Role of atmospheric carbon dioxide in climate changes, Energ. Environ., 27, 785–797, https://doi.org/10.1177/0958305X16674637, 2016.

Hertzberg, M., Siddons, A., and Schreuder, H.: Role of greenhouse gases in climate changes, Energ. Environ., 28, 530–539, https://doi.org/10.1177/0958305X17706177, 2017.

Holmes, A.: Radioactivity and Earth movements, Trans. Geol. Soc. Glasgow, 18, 559–606, 1931 [N. B. address delivered in 1928].

Humlum, O., Stordahl, K., and Solheim, J.-E.: The phase relation between atmospheric carbon dioxide and global temperature, Glob. Planet. Change, 100, 51–69, 2013.

Imbrie, J. and Palmer Imbrie, K.: Ice Ages. Solving the Mystery, p. 117, 119, 121 and 141, McMillan, London, 1979.

IPCC: Working group I: Contribution to the IPCC Fifth Assessement Report (AR5), Climate change, The Physical Science Basis, IPCC, Geneva, 2013.

Jeffreys, H.: The Earth, Its Origin, History and Physical Constitution, Cambridge, Cambridge Univ. Press, 2nd Edn., p. 305, 1929.

Jouzel, J., Alley, R. B., Cuffey, K. M., Dansgaard, W., Grootes, P., Hoffmann, G., Johnsen, S. J., Koster, R., Peel, D., Shuman, C. A., Stievenard, M., Stuiver, M., and White, J.: Validity of the temperature reconstruction from water isotopes in ice cores, J. Geophys. Res., 102, 26471–26487, 1997.

Kukla, G. J.: Correlation between loesses and deep-sea sediments, Geol. Fören. Stockholm Förh., 92, 148–180, 1970.

Kukla, G. J. and Matthews, R. K.: When will the present interglacial end?, Science, 178, 190–191, 1972.

Lane, C. S., Chorn, B. T., and Johnson, T. C.: Ash from Toba supereruption in Lake Malawi shows no volcanic winter in East Africa at 75 ka, P. Natl. Acad. Sci. USA, 110, 8025–8029, 2013.

Lee, C.-T., Jiang, H., Dasgupta, R., and Torres, M.: A framework for understanding whole-earth carbon cycling, in: Deep Carbon, Past to Present, edited by: Orcutt, B. N., Daniel, I., and Dasgupta, R., Cambridge Univ. Press, Cambridge, 313–357, 2019.

Lemieux-Dudon, B., Blayo, E., Petit, J.-R., Waelbroeck, C., Svensson, A., Ritz, C., Barnola, J.-M., Narcisi, B. M., and Parrenin, F.: Consistent dating for Antarctic and Greenland ice cores, Quaternary Sci. Rev., 29, 8–20, 2010.

Lewis, N. and Curry, J.: The impact of recent forcing and ocean uptake data on estimates of climate sensitivity, J. Clim., 31, 6051–6071, 2018.

Lindzen, R.: Can increasing carbon dioxide cause climate change?, P. Natl. Acad. Sci. USA, 94, 8335–8342, 1997.

Lorius, C., Jouzel, J., Raynaud, D., Hansen, J., and Le Treut, H.: The ice-core record: climate sensitivity and future greenhouse warming, Nature, 347, 139–145, 1990.

Loulergue, L., Schilt, A., Spahni, R., Masson-Delmotte, V., Blunier, T., Lemieux, B., Barnola, J.-M., Raynaud, D., Stocke, T. F., and Chappellaz, J.: Orbital and millennial-scale features of atmospheric CH4 over the past 800,000 years, Nature, 453, 383–386, 2008.

Lüthi, D., Le Floch, M., Bereiter, B., Blunier, T., Barnola, J.-M., Siegenthaler, U., Raynaud, D., Jouzel, J., Fische, H., Kawamura, K., and Stocker, T. F.: High-resolution carbon dioxide concentration record 650,000–800,000 years before present, Nature, 453, 379–382, 2008.

Macrobius: Commentarii in somnium Scipionis, book 9, Ch. XII [translation: Stahl, W. H.: Commentary on the Dream of Scipio, Columbia Univ. Press, New York, 1966], early 5th c. CE.

McKitrick, R. and Christy, J.: Pervasive warming bias in CIMIP6 tropospheric layers, Earth Space Sci., 7, e2020EA001281, https://doi.org/10.1029/2020EA001281, 2020.

Michard, G.: Can we explain atmospheric carbon dioxide oscillations during the past 400,000 years?, Geosciences, 340, 483–494, 2008.

Milankovitch, M.: Uber ein Problem der Warmeleitung und dessen Anwendung auf die Theorie des solaren Klimas, Z. Mathem. Phys., 62, 63–77, 1913.

Mitchell, D. M., Lo, Y. T. E., Servious, W. J. M., Haimberger, L., and Polvani, L.: The vertical profile of recent tropical temperature trends: Persistent model biases in the context of internal variability, Environm. Res. Lett., 15, 1040b4, https://doi.org/10.1088/1748-9326/ab9af7, 2020.

Mudelsee, M.: The phase relations among atmospheric CO2 content, temperature and global ice volume over the past 420 ka, Quaternary Sci. Rev., 20, 583–589, 2001.

Nikolov, N. and Zeller, K.: New insights on the physical nature of the atmospheric greenhouse effect deduced from an empirical planetary temperature model, Environ. Pollut. Clim. Change, 1, 1000112, 2017.

Parrenin, F., Masson-Delmotte, V., Köhler, P., Raynaud, D., Paillard, D., Schwander, J., Barbante, C., Landais, A., Wegner, A., and Jouzel, J.: Synchronous change of atmospheric CO2 and Antarctic temperature during the last deglacial warming, Science, 339, 1060–1063, 2013.

Pedro, J. B., van Ommen, T. D., Rasmussen, S. O., Morgan, V. I., Chappellaz, J., Moy, A. D., Masson-Delmotte, V., and Delmotte, M.: The last deglaciation: timing the bipolar seesaw, Clim. Past, 7, 671–683, https://doi.org/10.5194/cp-7-671-2011, 2011.

Pedro, J. B., Rasmussen, S. O., and van Ommen, T. D.: Tightened constraints on the time-lag between Antarctic temperature and CO2 during the last deglaciation, Clim. Past, 8, 1213–1221, https://doi.org/10.5194/cp-8-1213-2012, 2012.

Petit, J. R.: Interview by F. Cristofol, Jean-Robert Petit, une vie antarctique, available at: https://www.echosciences-grenoble.fr/articles/jean-robert-petit-une-vie-antarctique (last access: January 2021), 2013.

Petit, J.-R., Jouzel, J., Raynaud, D., Barkov, N. I., Barnola, J.-M., Basile, I., Bender, M., Chappellaz, J., Davisk, M., Delaygue, G., Delmotte, M., Kotlyakov, V. M., Legrand, M., Lipenkov, V. Y., Lorius, C., Pépin, L., Ritz, C., Saltzmank, E., and Stievenard, M.: Climate and atmospheric history of the past 420,000 years from the Vostok ice core, Antarctica, Nature, 399, 429–436, 1999.

Popper, K. R.: The Logic of Scientific Discovery, Hutchinson and Co, London, 1959.

Raynaud, D., Jouzel, J., Barnola, J. M., Chappelaz, J., Delmas, R. J., and Lorius, C.: The ice record of greenhouse gases, Science, 259, 926–934, 1993.

Reeburgh, W. S.: Oceanic methane biogeochemistry, Chem. Rev., 107, 486–513, 2007.

Richet, P.: The Physical Basis of Thermodynamics, chap. 1, Plenum Publishing, New York, 2001.

Richet, P.: A Natural History of Time, transl. from the French by J. Venerella, The Univ. Chicago Press, Chicago, 2007.

Roe, G.: In defense of Milankovitch, Geophys. Res. Lett., 33, L24703, https://doi.org/10.1029/2006GL027817, 2006.

Soon, W.: Implications of the secondary role of carbon dioxide and methane forcing in climate change: past, present, and future, Phys. Geogr., 28, 97–125, 2007.

Tait, P. G.: Lectures on Some Recent Advances in Physical Science, with a Special Lecture on Force, Macmillan, London, 169–170, 1885.

Theophrastus, De Igne: [translation: Coutant, V.: Theophrastus De Igne. A Post-Aristotelian View of the Nature of Fire, Royal Vangorcum Ltd, Assen, 1971], 4th–3rd c. BCE.

Tyndall, J.: On the absorption and radiation of heat by gases and vapours, and on the physical connection of radiation, absorption and conduction, Phil. Mag., 22, 169–194 and 273–285, 1861.

Vakulenko, N. V., Kotlyakov, M., Monin, A. S., and Sonechkin, D. M.: Evidence for the leading role of temperature variations relative to greenhouse gas concentration variations in the Vostok ice core record, Doklady Earth Sci., 396, 686–690, 2004.

Van Wijngaarden, W. A. and Happer, W.: Dependence of Earth’s thermal radiation on five most abundant greenhouse gases, arXiv [preprint], arXiv:2006.03098v1, 4 June 2020.

Witze, A.: Earth’s magnetic field is acting up, Nature, 565, 143–144, 2019

Link: https://wattsupwiththat.com/2021/05/27/the-temperature-co2-climate-connection-an-epistemological-reappraisal-of-ice-core-messages/

Übersetzt von Chris Frey EIKE

 




Klima-Eilinfor­mation: Sehr kühler Frühling 2021 in Deutschland

Der Hauptanstieg der Frühlingstemperaturen in Deutschland fand schon bis zum Ende der 1940er Jahre statt. Nach einer 40ig-jährigen Abkühlungsphase stiegen die Frühlingstemperaturen ab den späten 1980er Jahren sprunghaft; seitdem gab es nur noch eine geringe Erwärmung.

Abbildung 1: Bei den Frühlingstemperaturen in Deutschland sind drei Entwicklungsphasen erkennbar: Eine merkliche Erwärmung um 1,1 K bis 1948, danach eine geringe Abkühlungsphase bis 1988 trotz stark steigender CO2-Konzentrationen; ab 1989 ein Klimasprung mit gehäuft sehr warmen Lenzen, gipfelnd in 2007 bei nur noch unwesentlicher Erwärmung. Diese DWD-Daten sind nicht WI-bereinigt; andernfalls wäre die Erwärmung geringer ausgefallen.

Weil in der Klimatologie stets die drei Monate März, April und Mai zum Frühling zusammengefasst werden, lohnt es sich, deren einzelne Entwicklung in der Zeit des „Neuzeit-Klimaoptimums“ ab 1988 genauer zu betrachten. Dabei zeigt sich, wie fragwürdig es ist, die stark steigenden CO2-Konzentrationen für die Temperaturentwicklung verantwortlich zu machen:

Abbildung 2: Temperaturverlauf der Lenzmonate im Deutschland-Mittel seit 1988. Nur der April wurde noch etwas wärmer, während sich die Märztemperaturen fast nicht änderten und der Mai leicht abkühlte. Keiner der Trends ist jedoch signifikant; und eine besorgniserregende, beschleunigte Klimaerwärmung ist nicht erkennbar. Die geringe Frühlingserwärmung seit den späten 1980ern erfolgte also nur auf Kosten des Aprils.

Eine der Hauptursachen der leicht gestiegenen Frühlingstemperaturen war die zunehmende Besonnung. Die geringe Besonnung der 1960er bis mittleren 1980er Jahre erklärt auch, warum es in dieser Phase leicht abkühlte. In Deutschland ist das Flächenmittel der Sonnenscheindauer leider erst seit 1951 verfügbar:

Abbildung 3: Leichte Lenz-Erwärmung in Deutschland seit 1951 bis 2020 auch dank höherer Besonnung (etwa 30% der Temperaturvariabilität werden von der Sonnenscheindauer bestimmt). Die Zunahme der Sonnenscheindauer hatte verschiedenste Ursachen, unter anderem die stark abnehmende Konzentration der Luftschadstoffe (SO2, Staub) und die Austrocknung Deutschlands durch Bebauung, Versiegelung und Meliorationen. Möglicherweise fördert auch die übertriebene Nutzung der Wind- und Solarenergie eine Bewölkungs- und Nebelabnahme, was mehr Besonnung nach sich zieht. Umrechnung der Sonnenscheindauer in Indexwerte, um sie anschaulicher mit den Lufttemperaturen in einer Grafik zu zeigen. Im Jahr 2021 stürzten die Lenz-Temperaturen unter anderem auch wegen der zu geringen Besonnung ab.

Neben der stärkeren Besonnung trugen auch verschiedenste Wärmeinsel-Effekte, die AMO-Warmphase sowie häufigere südliche Wetterlagen zur leichten Frühlingserwärmung in Deutschland bei, worauf hier nicht näher eingegangen werden soll.

 




Kältereport Nr. 11

Heftiger Schneesturm zum Ende des Frühjahres in Schottland – Akkumulationen in höher gelegenen Gebieten

May 25, 2021 Cap Allon

25. Mai: Die Schotten leiden in dieser Woche unter einem seltenen arktischen Spätfrühling, während der Großteil des europäischen Kontinents weiterhin von einer ungewöhnlichen Kältewelle heimgesucht wird.

Zentimeter um Zentimeter des seltenen und rekordverdächtigen späten Mai-Schnees legten sich über die höher gelegenen Teile Schottlands, wobei zusätzlicher und außergewöhnlich seltener Schneegestöber auch auf die tiefer gelegenen Gebiete niederging.

Diese „globale Erwärmung“ ist Schottlands jüngstes extremes Kälteereignis in den ersten fünf Monaten des Jahres, die bitterkalt waren.

Der Winter brachte beständige Minusgrade und heftige Schneefälle mit sich, was inthesnow.com als „eine der längsten Perioden von kaltem, schneereichem Wetter in diesem Jahrhundert“ bezeichnet.

Und selbst jetzt, wo der Sommer kurz vor der Tür steht, halten die Rekordkälte und der Schnee an.
Großbritannien ist weiterhin auf dem besten Weg, einen der kältesten Mai in der aufgezeichneten Geschichte zu verzeichnen, während der Monat bereits als der schneereichste aller Zeiten in die Geschichte eingegangen ist und den alten Rekord aus dem Jahr 1979 gebrochen hat.

Link: https://electroverse.net/violent-late-spring-snowstorm-blasts-scotland-buries-the-higher-elevations/

—————————-

Seltener Mai-Schneefall in Kaschmir und Indien

25.Mai: Am Sonntag erhielt Zentral-Kaschmir das, was thekashmirwalla.com als „seltenen Sommerschneefall“ und „extrem kalte Wetterbedingungen“ bezeichnet.

Einige der höchsten Schneemengen fielen im zentralkaschmirischen Ort Sonamarg.


Es schneite auch auf den Gipfeln in und um ZojiLa gestern, 24. Mai, laut DD News Ladakh.
Schneefall in Kaschmir tritt normalerweise während der Kernwintermonate, zwischen Dezember und Februar auf, fährt der thekashmirwalla.com Artikel fort – „Schneefall in der letzten Maihälfte ist unglaublich selten in der Region.“

Link siehe weiter unten

—————————-

Starke Schneefälle in Kaghan, Pakistan

25. Mai: Schaut man über die nördliche Grenze Indiens und nach Pakistan, wurden ebenfalls heftige Schneefälle gemeldet.

Laut dawn.com wurde das malerische Kaghan-Tal am Sonntag in ein Winterwunderland verwandelt, als extreme Kälte einsetzte.

Es begann am Mittag zu schneien und hielt den ganzen Tag über an.

Link: https://electroverse.net/rare-and-heavy-late-may-snowfall-hits-kashmir-india-and-kaghan-pakistan/

—————————-

Neuseeland: Neue absolute Kälte-Rekorde

Am Morgen des Donnerstags, 27. Mai, wurde Neuseeland von einer historischen Kältewelle heimgesucht.

Eine mächtiger Kaltlufteinbruch aus der Antarktis ließ die Temperatur am Dunedin International Airport im Südosten der Südinsel auf einer Höhe von 1,2 m auf -8,8°C fallen.

Dieser Wert stellt die niedrigste Temperatur dar, die jemals am Flughafen gemessen wurde (im Mai 1988 und im Juli 2007) und zwar in einer bis 1963 zurück reichenden Reihe.

Laut NIWA (Neuseelands offizielle meteorologische Agentur) wurde in Middlemarch, einer kleinen Stadt in der Region Otago auf der Südinsel, eine Temperatur von -10.1C (13.8F) auf einer Höhe von 213m (699 Fuß) gemessen.

Dies ist die niedrigste Herbsttemperatur in der Stadt seit 2001.

Das sind unglaubliche Tiefstwerte, besonders für den Herbst, besonders in dieser Zeit der katastrophalen globalen Erwärmung [sarc!]

Link siehe nach folgender Meldung

—————————-

Schnee & Eis in Grönland und Island sprengen den Messbereich (buchstäblich!)

27.Mai: Im Anschluss an den gestrigen Artikel über die historischen Zuwächse der Oberflächenmassenbilanz Grönlands in der Spätsaison hat die größte Insel der Welt nun einen ZUWACHS verzeichnet, die die SMB buchstäblich aus den Charts geschossen haben.

Ein Blick auf die offiziellen Zahlen des Dänischen Meteorologischen Instituts (DMI) zeigt, dass gestern, am 26. Mai, ein Tageszuwachs von mehr als 12 Gigatonnen verzeichnet wurde.
Dies ist erstaunlich und beispiellos, und das nicht nur für Ende Mai, sondern auch für jede Zeit während der Schneesaison.

Link: https://electroverse.net/new-zealand-suffers-all-time-record-cold-as-greenland-snow-ice-gains-head-off-the-charts-literally/

—————————-

Monatliche Tiefsttemperatur-Rekorde purzeln in Vanuatu

27.Mai: Nach der neuseeländischen Rekord-Kälte treten nun Rekordtiefstwerte in der Y-förmigen Inselgruppe VANUATU im Südpazifik auf, die aus etwa 83 vulkanischen Inseln besteht und sich über ca. 1.300 Kilometer erstreckt.

Am 27. Mai sank die Temperatur am Flughafen Pekoa auf der Insel Espiritu Santo auf 14,3°C.
Am 28. Mai wurde am Flughafen von Port Vila auf der Insel Efate ein Tiefstwert von 12,5°C registriert.

Beide Messwerte sind neue Rekord-Tiefstwerte für den Monat Mai.

Link: https://electroverse.net/low-temp-records-fall-in-vanuatu-as-late-season-snow-and-unprecedented-cold-sweep-toronto/

—————————-

Spät-Schneefälle und beispiellose Kälte in Toronto, Kanada

28.Mai: Der 28. Mai war ein historischer „Doppel-Rekordtag“ in Toronto, Kanada.

Zunächst einmal ging der Tag als der kälteste 28. Mai in die Wetterbücher ein, der jemals in der Stadt aufgezeichnet wurde, so der Meteorologe Peter Kimbell von Environment Canada.
Die Tageshöchsttemperatur erreichte am Freitagnachmittag nur kühle 4°C.

Für den nächstkältesten 28. Mai muss man den ganzen Weg zurück ins Jahr 1889 gehen, laut den Büchern für die Innenstadt von Toronto, die bis ins Jahr 1840 zurückreichen. Mit anderen Worten, es ist 130 Jahre her, dass die Einwohner Torontos einen so kalten 28. Mai erlebt haben.

Noch erstaunlicher ist, dass Toronto erst vor wenigen Tagen einen Höchstwert von 33°C erreichte – dies ist ein weiteres eindrucksvolles Beispiel für die „Schwankungen zwischen den Extremen“, die während Zeiten geringer Sonnenaktivität auftreten.


Zweitens brachte der Freitag der Stadt einen seltenen, späten Mai-Schneefall.

Dies ist Torontos zweitjüngster Schnee in den Aufzeichnungen nach dem 4. Juni 1945 (solares Minimum des Zyklus 17).

Es ist ein bisschen ein Schock, wenn man Griesel und weiße Schneeflocken sieht, obwohl man eine normale Höchsttemperatur von 22°C erwartet“, sagte Kimbell.

Link: https://electroverse.net/low-temp-records-fall-in-vanuatu-as-late-season-snow-and-unprecedented-cold-sweep-toronto/

—————————-

Überraschende Dicke des Arktischen Meereises

Die Zoologin Susan Crockford nannte die Verteilung des dicken arktischen Meereises (3,5-5m oder mehr) Ende Mai „überraschend“, besonders angesichts der Vermutung der WMO, dass uns nur noch fünf Jahre bleiben, um einen „gefährlichen Kipp-Punkt“ der globalen Temperaturen abzuwenden.

Link: https://electroverse.net/low-temp-records-fall-in-vanuatu-as-late-season-snow-and-unprecedented-cold-sweep-toronto/

—————————-

Unter diesem Link findet sich eine überaus treffende Bemerkung zu all diesen Ereignissen: Jeder wichtige Datenpunkt deutet jetzt auf eine Abkühlung des Planeten hin.

Wie lange wird es dauern, bis der IPCC und seine MSM-Schoßhündchen über die Fakten berichten?

Wie lange wird es dauern, bis die Massen aus ihrer künstlich herbeigeführten Psychose erwachen und ihnen offenbar wird, dass alles, was ihnen jemals gesagt wurde, auf Lügen und Agenden basierte?

AGW kann niemals eine Abkühlung des Planeten erklären – das geht einfach nicht – die Leute sollten sich auf ein brutales Erwachen einstellen.

wird fortgesetzt …

Zusammengestellt und übersetzt von Chris Frey EIKE