1

Nach dem ,Katastrophen­signal‘ – als die Wissen­schaft das politische Treib­haus betrat

Wie zaghaft auch immer die Wortwahl sein mag, dies war das erste Mal, dass ein offizieller Bericht eine positive ,Erkennungs‘-Behauptung aufgestellt hatte.

Der Durchbruch wurde weit verbreitet gefeiert und dann als Rechtfertigung für eine Änderung der Politik der USA herangezogen, nämlich hin zu einer Unterstützung bindender Ziele hinsichtlich der Emission von Treibhausgasen.

Aber dies erfolgte erst nach Protesten gegen das, was man mit dem IPCC-Bericht gemacht hatte, um den Weg für dieses Statement frei zu machen. Nur Tage vor der Verkündung der Änderung der US-Politik beschrieb ein Op-Ed des führenden US-Wissenschaftlers Frederick Seitz das späte Entfernen skeptischer Passagen als einen ,grundlegenden Betrug‘ und eine ,verstörende Korrumpierung des Begutachtungs-Prozesses‘, wobei Politiker und die Öffentlichkeit in den Glauben fehlgeleitet worden sind, dass ,wissenschaftliche Beweise belegen, dass menschliche Aktivitäten eine globale Erwärmung verursachen‘.

Für Seitz und Andere war der Verantwortliche für den Betrug schnell ausgemacht: Ben Santer, der koordinierende Autor des ,Betrugs‘-Kapitels. Obwohl es tatsächlich Santer war, der diese Änderungen vorgenommen hatte, ist inzwischen klar, dass er nicht allein gehandelt hat. Stattdessen scheint es eine konzertierte Kampagne gegeben zu haben, wissenschaftliche Ergebnisse zu ändern, so dass sie als Rechtfertigung für die Änderung der US-Politik herangezogen werden konnten.

Am deutlichsten wird dies belegt durch die offizielle Unterwerfung der US-Regierung unter das IPCC. Eigentlich sollten damit nur Änderungen der Ausdrucksweise der Summary des Reports bewirkt werden, aber die Unterwerfung zeigt, dass Washington Druck auf das IPCC ausgeübt hatte, das zugrunde liegende wissenschaftliche Kapitel zu ändern. Mit dem Druck wurden jüngste Ergebnisse gefordert hinsichtlich der Auswirkungen von Sulphat-Aerosol-Emissionen, welche die Behauptung der Entdeckung dieser ,smoking gun‘ rechtfertigen sollten, und für die Entfernung der Aussagen bzgl. der Unsicherheiten, die dem im Wege standen.

Die Unterwerfung wurde von Robert Watson geschrieben, einem britischen Chemiker, der kurz zuvor eine Stellung im Weißen Haus bezogen hatte. Zuvor war er noch bei der NASA und stand dort im Zentrum einer früheren Angsterzeugung – nämlich der Zerstörung der Ozonschicht – wo er eine geschickte Hand bzgl. Public Relation an den Tag legte, Angst erzeugende Stories in den Schlagzeilen zu halten, um Druck auszuüben hinsichtlich eines kompletten Verbots von CFCs. Bis zum Jahr 1989 hatten sich die Bedenken hinsichtlich eines Ozon-,Loches‘ über der entfernt liegenden Antarktis bereits verflüchtigt, aber unmittelbar vor einer ,Rettet-die-Ozonschicht‘-Konferenz erklärte Watson, dass das arktische Ozon während der nächsten Tage ,an der Schwelle einer großflächigen Zerstörung‘ stehen würde.

Watson wusste nur zu gut, dass es praktisch keine Chance auf ein ,Loch‘ im Norden gab, aber seine Warnung zeitigte den gewünschten Effekt. Sie fand sich in den Schlagzeilen auf der ganzen Welt und beeinflusste zweifellos die Entscheidung der Europäer, die gesamte Produktion von CFCs einzustellen.

Die Fähigkeit der Wissenschaftler, politische Maßnahmen zu katalysieren, blieb nicht unbemerkt. Zum Zeitpunkt des ,Erdgipfels‘ von Rio im Jahre 1992 hatte sich die politische Aufmerksamkeit der Regulierung fossiler Treibstoffe zugewandt, und viele Delegierte der Länder hatten sich hinter George Bush Senior gestellt, um eine Konvention zu unterzeichnen, genau das zu tun. Immer noch warteten die USA auf bindende Verpflichtungen hinsichtlich Emissionsziele. Im folgenden Jahr lag die Änderung mit dem Einzug von Bill Clinton in das Weiße Haus in der Luft.

Die einzigen Probleme gab es noch mit der Wissenschaft. Es gab immer noch keine belastbaren Beweise, dass Emissionen die Auswirkungen hatten, welche die Modelle zeigten. Tatsächlich hatte sich das IPCC immer weiter zurückgezogen, ein ,Nachweis‘-Ergebnis zu erzeugen. Im ersten Zustandsbericht 1990 fand sich die Warnung, dass ein solcher Nachweis auch in Jahrzehnten nicht geführt werden könnte. Ein Sonderbericht für den Rio-Gipfel war sogar noch skeptischer. Bis zum Jahr 1995 erklärten die Wissenschaftler, dass ,sie nicht wüssten‘, wann ein solcher Nachweis erbracht werden könne. Dies kann kaum drastische Klima-Maßnahmen rechtfertigen.

Der erste Schritt, diese Lage zu verbessern, involvierte eine Behauptung, der zufolge Emissionen von Sulphat-Aerosolen die Erwärmung während der letzten Jahrzehnte gedämpft hätten. So konnten die Klima-Modellierer das Fehlen von Erwärmung erklären, während sie nach wie vor eine zukünftige Katastrophe prophezeiten. Aber immer noch war die Argumentation für einen Nachweis schwach.

Aber dann, zur elften Stunde, machte Santer eine dramatische neue Entdeckung. Die Auswirkung der Aerosole verzerrte die erwartete geographische Verteilung der Erwärmung, und er behauptete, genau diese Verteilung in den Klimadaten gefunden zu haben. Allerdings kam diese Behauptung erst, nachdem sein Kapitel im IPCC-Bericht bereits begutachtet und durchgewunken worden war. Während man zustimmte, die neuen Ergebnisse einfließen zu lassen, gab es scharfe und nachhaltige Kritik seitens seiner Begutachter, und dies erklärt, warum er eine sehr skeptische Schlussfolgerung beibehielt.

Alles, was jetzt noch zu tun übrig blieb war, dass die Delegierten der Länder den Report der Wissenschaftler akzeptieren und einer Zusammenfassung auf einem Treffen in Madrid zustimmen. Aber auf dem Weg zu diesem Treffen sagten die USA in ihrem Kommentaren zu der Summary, dass der Report Änderungen bedarf. Watson unterbreitete spezifische Vorschläge, wie man Santers neue Erkenntnisse für ein Statement bzgl. eines Nachweises gebrauchen könnte. Der Leitbrief des State Department war weniger spezifisch, aber beharrlicher, und forderte, ,dass die Autoren des Kapitels dazu gebracht werden müssen, ihren Text zu modifizieren‘.

In Madrid wurde Santer erneut eingeladen, seine Entdeckung zu erläutern. Als er erklärte, dass sein Kapitel überholt war und Änderungen bedurfte, protestierten die Saudis und die Kuwaitis, dass die neuen Erkenntnisse nur vorläufiger Natur seinen, und sie stellten auch die Redlichkeit der nationalen Delegationen in Frage, den Text des Reports der Wissenschaftler zu ändern. Aber dies wurde als Krittelei und Blockade-Strategie eigennütziger Interessen verworfen; die von den USA gewünschten Änderungen wurden vorgenommen.

Viele Jahre später veröffentlichte Houghton eine Reflektion des Treffens in Madrid unter der Rubrik ,Treffen, welche die Welt veränderten‘. Seiner Ansicht nach hätten globale Maßnahmen bzgl. des Klimawandels ohne diesen Triumph der Wissenschaft über die Öl-Lobby kaum Eingang gefunden in den Klimavertrag von Kyoto zwei Jahre später. Houghton zufolge rettete die Passage des berühmten ,erkennbaren menschlichen Einflusses‘ den Vertragsprozess. Deren Auswirkungen auf spätere Ereignisse ist kaum zu übersehen. Aber was nicht so bekannt ist: diese von der Politik vorgegebenen Ergebnisse retteten auch das IPCC.

————————————-

Das Buch von Bernie Lewin über die Ursprünge der Globale-Erwärmungs-Angst mit dem Titel [übersetzt] „Auf der Suche nach dem Katastrophen-Signal“ [Searching for the Catastrophe Signal] wird von der Global Warming Policy Foundation veröffentlicht.

Link: https://wattsupwiththat.com/2017/11/24/after-the-catastrophe-signal-when-science-entered-the-policy-greenhouse/

Übersetzt von Chris Frey EIKE




Rundbrief der GWPF vom 23. November 2017

Hurra! UK-Regierung sperrt weitere grüne Energie

Die Entwickler von Projekten erneuerbarer Energie haben einen massiven Schlag hinnehmen müssen, hat doch die Regierung verkündet, dass es bis zum Jahr 2025 keine neuen Subventionen geben wird.


Das Budget für Unterstützer-Programme wie Contracts for Difference (CfD) wurde bislang durch das Levy Control Framework (LCF) [etwa: Rahmen zur Kontrolle von Abgaben] gesteuert. Seit der Ankündigung im Frühjahrs-Budget, LCF zu beenden, hat die Regierung ihre neue Control for Low Carbon Levies entwickelt. [levy = Abgabe, finanzielle Belastung]. Damit sollen die grünen Steuern oder Abgaben begrenzt werden, welche auf die Stromrechnungen der Verbraucher aufgeschlagen werden.

Ein zusammen mit dem Budget vom Schatzministerium veröffentlichtes Dokument zeigt, dass die Regierung die Energiekosten „so niedrig wie möglich“ halten will. Daher werde es keine neuen Low-Carbon-Stromabgaben geben, bis „die Belastung durch diese Kosten zurückgeht“.

Weiter heißt es darin: „Bis die Gesamt-Belastung dieser Kosten Vorhersagen zufolge real und nachhaltig sinkt, wird Control keine neuen Low-Carbon-Stromabgaben zulassen. Auf der Grundlage derzeitiger Vorhersagen werden damit neue Abgaben bis zum Jahr 2025 ausgeschlossen“.

Full story

———————————————-

Grüne Abgaben ,werden Stromrechnungen um 200 Pfund steigen lassen‘

 

British Gas behauptet, dass die Kosten zur Finanzierung einer Hinwendung zu grüner Energie und die Unterstützung armer Familien die Stromrechnungen von Jedermann im nächsten Jahr um 200 Pfund werden steigen lassen. Dem Unternehmen zufolge wäre es fairer, die Kosten nicht auf die Stromrechnungen aufzuschlagen, sondern auf die Einkommenssteuer oder andere Steuerarten.

Die Vorschläge wurden von Ian Conn umrissen, dem Chef des Mutterkonzerns Centrica, der fundamentale Änderungen hinsichtlich der Rechnungen fordert.

Die Kosten der Regierungsprogramme, um die Abkehr von fossilen Treibstoffen zu stützen und die Energieeffizienz der Haushalte deutlich zu erhöhen, sind hoch umstritten. Da gibt es die Kosten der Subventionen zur Errichtung neuer Windparks und Solarinstallationen, wobei für den davon erzeugten Strom hohe Preise garantiert werden.

Gleichzeitig müssen Energiefirmen einen Mindest-Preis bezahlen für Energie erzeugt durch Kohle und Gas, selbst wenn die Marktpreise niedriger sind…

Mr. Conn verlangte, die Kosten der Hinwendung zu erneuerbarer Energie durch allgemeine Besteuerung aufzubringen und durch Aufschläge auf die Stromrechnungen, was seinen Worten zufolge die Armen am härtesten treffen würde.

Anfang dieses Jahres zeigte Centrica, dass der Preis für dieses Jahr 145 Pfund war. Und jetzt behauptet Mr. Conn, dass es im nächsten Jahr 200 Pfund pro Rechnung für jeden Haushalt sein werden. Centrica führt an, dass diese Kosten nicht den Rechnungen, sondern den allgemeinen Steuern hinzugefügt werden sollten. Steuern berücksichtigen die unterschiedliche Zahlungsfähigkeit der Menschen.

Full Story

Übersetzt von Chris Frey EIKE

Und hier der oben angekündigte Beitrag von Benny Peiser. Er schreibt in einem Kommentar aus der Sicht von Großbritannien:

Deutschlands Klimakirche ohne Dach

Benny Peiser

Deutschland steht vor einer politischen Krise, nachdem am späten Sonntagabend die Vier-Parteien-Sondierungsgespräche zur Bildung einer so genannten Jamaika-Koalition gescheitert sind. Zum ersten Mal seit der Weimarer Republik (1919-1933) sind deutsche Parteien mit Parlamentsmehrheit nicht bereit, eine Regierung zu bilden. Niemand weiß, was als nächstes passiert oder wie diese sich vertiefende Krise in absehbarer Zeit gelöst werden kann.

Die Unfähigkeit, sich auf strittige klima- und energiepolitische Fragen zu einigen, sowie die Meinungsverschiedenheiten über Migration haben das Ende der Verhandlungen bewirkt. Bemerkenswert: Die gescheiterte und zunehmend unpopuläre deutsche Klimapolitik steht im Mittelpunkt der Krise. Sie signalisiert auch den Zusammenbruch des jahrzehntealten deutschen Klimakonsenses.

Während die Grünen die sofortige Abschaltung von 10 bis 20 der 180 deutschen Kohlekraftwerke forderten, hielt die FDP an ihrem Versprechen fest, die Energiewende radikal zu reformieren und die Subventionen für erneuerbare Energien abzuschaffen.

Experten des Bundeswirtschaftsministeriums hatten die Teilnehmer der Sondierungsgespräche gewarnt, Deutschland werde seine rechtsverbindlichen Klimaziele für 2020 meilenweit verfehlen und das Erreichen seiner Ziele für 2030 den wirtschaftlichen Wohlstand des Landes gefährden. Das Ministerium warnte auch davor, dass jeder Versuch, eine radikale Reduktion der CO2-Emissionen zu erzwingen, „bis 2020 nur durch eine partielle Deindustrialisierung Deutschlands möglich wäre“.

Klimageschäft wie gewohnt ist für die Liberalen keine Option mehr. Die Partei befürchtet, dass ein schneller Ausstieg aus der Kohleverstromung, wie von den Grünen gefordert, gravierende soziale, wirtschaftliche und politische Problemen verursacht. Eine Fortsetzung der radikalen Klimapolitik würde die großen deutschen Kohleregionen treffen, nicht zuletzt in Ostdeutschland, wo die rechtsgerichtete Protestpartei Alternative für Deutschland (AfD) bei den Bundestagswahlen im September deutliche Unterstützung erhalten hatte.

Klimareligion und die grüne Zentralplanung

Die AfD gewann bei der Bundestagswahl im September knapp 13 Prozent der Stimmen und bildet mit über 90 Abgeordneten die drittgrößte Fraktion im Bundestag. Der Erfolg der Partei hat die politische Landschaft in Deutschland verändert und das Ende des grünen Konsenses zwischen den Mainstream-Parteien eingeläutet. Um die Energiekosten niedrig zu halten, setzt sich die AfD für die weitere Nutzung von Kern- und Kohlekraftwerken ein. Sie stellt sich gegen die Energiewende: „Energie muss bezahlbar bleiben und darf kein Luxusgut sein“, und versprach in ihrem Manifest die Abschaffung des Erneuerbare-Energien-Gesetzes (EEG) und aller Ökostrom-Subventionen, da Subventionen für erneuerbare Energien nur wohlhabenden Familien und grünen Unternehmen zugute kommen.

Ein kürzlich erschienener Leitartikel des „Wall Street Journal“ kommt zu dem Schluss: „Kein Wunder, dass die Wähler in Aufruhr sind. Die rechtsgerichtete Alternative für Deutschland (AfD) gewann überraschend 13 Prozent Stimmenanteil zum Teil aufgrund des Versprechens, die Energiewende sofort zu beenden. Eine neue Studie des RWI Leibniz-Instituts für Wirtschaftsforschung kommt zu dem Ergebnis, dass 61 Prozent der Deutschen nicht einmal einen Eurocent mehr pro Kilowattstunde Strom für die Finanzierung von mehr erneuerbaren Energien ausgeben wollen“.

Der dramatische Erfolg der AfD führt dazu, dass erstmals eine Partei im Bundestag vertreten ist, die sich den Plänen Deutschlands zur Reduzierung der CO2-Emissionen durch den Umstieg auf erneuerbare Energien widersetzt. Die Skepsis gegenüber Klima- und Ökostrom-Fragen hat in der deutschen Politik Schockwellen ausgelöst. Die etablierten Parteien befürchten, dass sie es sich nicht mehr leisten können, Forderungen der Grünen zu erfüllen, ohne weitere Unterstützung ihrer traditionellen Wähler zu verlieren.

Ohne die Entwicklung einer neuen, pragmatischen Politik und die konsequente Verteidigung einer billigen Energiestrategie angesichts einer rasch verblassenden (und alternden) grünen Bewegung wird sich Deutschland wohl kaum von den grünen Fesseln befreien, die den technologischen und wirtschaftlichen Fortschritt behindern. Ein großer Teil des grünen Ballastes, der Deutschland zurückhält, muss über Bord geworfen werden, wenn das Land politische Stabilität und wirtschaftlichen Pragmatismus zurückgewinnen will.

So wie die sozialistische Zentralplanung Ostdeutschlands kläglich scheiterte, bevor sie gestürzt und durch eine offene Gesellschaft auf der Grundlage von Freiheit und freien Märkten ersetzt wurde, müssen die Klimareligion und die grüne Zentralplanung Deutschlands verworfen werden, damit das Land zu Energierealismus und ökonomischer Vernunft zurückkehren kann.

Achse-Autor Dr. Benny Peiser ist Direktor der Global Warming Policy Foundation (GWPF), einer in London ansässigen, überparteilichen Denkfabrik für Klima- und Energiepolitik. 
Sein Kommentar erschien zuerst in englischer Sprache.

Übersetzung von achgut.com




Nicht immer passt wirklich alles zusammen

Auf dem bekannten Klimablog WUWT (Whats Up With That) macht sich Willis Eschenbach unter dem Titel “Can A Cold Object Warm A Hot Object?“ Gedanken darüber, ob ein kalter Körper einen warmen Körper erwärmen kann. Ziel des Artikels ist es offenbar, das Modell einer sogenannten atmosphärischen Gegenstrahlung zu stützen.

Zunächst kommt Eschenbach anhand des in Abbildung 1 dargestellten Beispiels mit Geldflüssen auf den durchaus nachvollziehbaren Ansatz, die Nettoströme zu betrachten. Seiner dort dargestellten Logik zufolge sagt der zweite Hauptsatz der Thermodynamik nichts über die Einzelflüsse aus, sondern nur über den resultierenden Nettofluss. Im übertragenen Sinne verliert nach dem Modell von Eschenbach der Körper mit der höheren Temperatur also immer mehr Energie, als er im gleichen Zeitraum von einem kälteren Körper zugeliefert bekommt.

Bild: Willis Eschenbach

Abbildung 1: Das Beispiel von Eschenbach @ WUWT

Der warme Körper kann also durch das Zuliefern von Energie durch einen kälteren Körper nicht wärmer werden, als er schon ist, er kühlt nur weniger langsam ab. Das kann man sich anhand von 2 Tassen heißen Kaffee deutlich machen, eine Tasse lassen wir in der Küche stehen und die andere stellen wir auf die winterliche Terrasse. Im Ergebnis wird die Tasse in der Küche länger warm bleiben, als die auf der Terrasse. Beides ist über die Umgebungstemperatur leicht erklärbar.

Soweit, so gut – und auch noch nachvollziehbar, und damit wäre bisher der 2. Hauptsatz der Thermodynamik erfüllt.

Dann aber wird es ziemlich unübersichtlich, denn plötzlich kommt Eschenbach mit der Idee, ein kalter Körper konnte einen noch kälteren Körper hinter sich verbergen, also dafür sorgen, dass ein warmer Körper nicht in dem Maße abkühlt, wie er es eigentlich müsste. Um seine Argumentation zu stützen, stellt Eschenbach eine Energiebilanz unserer Erde nach Kiehl & Trenberth vor. Entgegen dem Original von K&T sei das von ihm vorgestellte Modell in Abbildung 2 aber für alle atmosphärischen Schichten und die Erdoberfläche energetisch ausbalanciert, Zitat:

“…this one is balanced, with the same amount of energy entering and leaving the surface and each of the atmospheric layers.

 

Abbildung 2:      Globales Energiebudget nach Kiehl&Trenberth aus Eschenbach @ WUWT

(die roten Zahlen wurden vom Autor zusätzlich eingefügt)

Die Zahlenangaben auf der linken Seite des Diagramms sind verständlich und nachvollziehbar, während die rechte Seite trotz der vom Autor in rot ergänzten Zahlenwerte auch weiterhin kryptisch bleibt. An dieser Stelle sei darauf hingewiesen, dass die übliche globale Energiebilanz nach Kiehl & Trenberth nichts mit der tatsächlichen Temperaturgenese unserer Erde zu tun hat, auch wenn sie im konventionellen S-B Ansatz zur Ermittlung einer theoretischen Durchschnittstemperatur immer wieder gerne verwendet wird, wie Abbildung 3 verdeutlicht.

Abbildung 3: Die praktische Anwendung des Stefan-Boltzmann-Gesetzes

In Abbildung 3A sieht man das klassische Stefan-Boltzmann-Experiment. Mit dessen Umkehrung kann man beispielsweise unmittelbar die Temperatur der Sonne bestimmen, wie Abbildung 3B zeigt. Das S-B Gesetz beschreibt also das Verhältnis zwischen der Temperatur eines erhitzten Körpers und seiner originären Strahlung im thermischen Gleichgewicht, das im S-B Gesetz durch das Gleichheitszeichen dargestellt wird. Und in Abbildung 3C sehen wir dann einen kalten Körper, der passiv von der Sonne bestrahlt wird. Egal wie man sich auch dreht und wendet, bei einem T4-Gesetz kann man der Sonneneinstrahlung nicht willkürlich eine beliebige bestrahlte Fläche auf der Erde zuschreiben, für die dann „freihändig“ eine Gleichgewichtstemperatur mit dem S-B Gesetz berechnet wird, sondern muss sich auf die direkt bestrahlte Hemisphäre beschränken. Und daher kann man aus einer durchschnittlichen Energiebilanz für die ganze Erde auch keine durchschnittliche Globaltemperatur ableiten, denn damit würde man das Stefan-Boltzmann-Gesetz als profane Rechenanweisung missbrauchen. Für unsere Erde als passiv beleuchteten Körper hat das Stefan-Boltzmann-Gesetz also nur eine recht begrenzte Aussagefähigkeit, nämlich:

Wenn die Erde eine Temperatur von -19 Grad Celsius hätte, würde sie nach dem Stefan-Boltzmann-Gesetz über ihre gesamte Oberfläche mit 235 W/m² abstrahlen.

Diese Aussage beweist aber nicht, dass die Erde tatsächlich eine solche Temperatur besitzt. Schon gar nicht kann man aber die solare Einstrahlung vierteln und damit über die gesamte Erdoberfläche verteilen, wie das auch Eschenbach in seinem Artikel macht. Diese Kritik führt uns dann direkt zu meinem hemisphärischen Stefan-Boltzmann Ansatz, nach dem die gemessene Durchschnittstemperatur unserer Erde von 14,8 °C durch den Wärmeinhalt der globalen Zirkulationen bestimmt wird. Dazu gerne ein anderes Mal mehr und jetzt zurück zu Eschenbach. Die zentrale Aussage seines Artikels ist, eine kalte Atmosphäre könne die Erde vor etwas noch kälterem schützen, nämlich vor dem Weltall, Zitat:

BUT a cold atmosphere can leave the earth warmer than it would be without the atmosphere because it is hiding something even colder from view, the cosmic microwave background radiation that is only a paltry 3 W/m2. And as a result, with the cold atmosphere shielding us from the nearly infinite heat sink of outer space, the earth ends up much warmer than it would be without the cold atmosphere.”

Diese Sichtweise von Eschenbach hat aber keinerlei physikalische Relevanz. Kälte ist nämlich nicht etwa als „negative Strahlung“ eine eigenständige physikalische Größe, sondern beschreibt umgangssprachlich lediglich die Abwesenheit von gefühlter Wärme. Die Physik bezeichnet dagegen jede Temperatur über dem absoluten Nullpunkt von 0 °K als „Wärme“. Eine solche Argumentation wie die von Eschenbachs geht also völlig an der physikalischen Realität vorbei und damit fällt auch der Ansatz, man könne einen warmen Körper aktiv vor einer auf ihn eindringenden Kälte schützen.

Vielmehr gibt es genau für diesen Fall die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes, die in Abbildung 4 dargestellt ist.

Abbildung 4:      Die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes

Rot gestrichelt: Die T4-Beziehung des S-B Gesetzes zwischen Strahlung und Temperatur

Blaue Treppenfunktion: Das unterschiedliche Temperaturäquivalent für jeweils 235 W/m²

Nach der S-B Umgebungsgleichung ergibt sich bei einem beliebigen Abstrahlungswert in [W/m²] keine eindeutige Lösung für den betreffenden Temperaturbereich, in dem diese Abstrahlung stattfindet. Für eine solche eindeutige Lösung ist vielmehr die Kenntnis der S-B Umgebungstemperatur T0 zwingend erforderlich.

Der Knackpunkt von Eschenbachs Modell ist also die S-B Umgebungstemperatur T0, die eben nicht von der Temperatur des Weltraums oder einer ominösen atmosphärischen Gegenstrahlung vorgegeben wird, sondern allein vom Wärmeinhalt der globalen Zirkulationen.




Winter 2017/18 – lässt er Milde walten?

1. Die Bauernregeln und die „Milde Oktober- kalte Winterregel“

Der sehr milde Oktober 2017 ruft die Regel „Ist Oktober mild und fein (trocken- sonnig), wird ein harter Winter sein“ auf den Plan. Korrekter formuliert, lautet die Regel folgendermaßen: „Ist der Oktober in Deutschland wesentlich (mehr als 1,5 Kelvin) zu warm und gleichzeitig merklich zu trocken, beides bezogen auf den Langjährigen Mittelwert, so wird der Folgewinter mit etwa 80%iger Wahrscheinlichkeit zu kalt ausfallen.“ Und 2017 scheidet diese Regel sowieso aus, weil der milde Oktober insgesamt deutlich zu niederschlagsreich ausfiel. Die Oktoberkombination „deutlich zu mild (mind. 1 K) und mehr oder weniger deutlich zu nass“ findet sich beim DWD- Mittel seit 1881 nur sechsmal (1923, 1942, 1966, 1989, 2013 und 2014). Von den Folgewintern war nur der von 1923/24 merklich zu kalt, alle übrigen um >1 bis teils um 3 K deutlich zu mild. Bei dieser geringen Zahl der Vergleichsfälle ist aber Vorsicht geboten.

Wenn im Herbst viel Spinnen kriechen, sie einen harten Winter riechen.“ Im Spätsommer/Herbst 2017 gab es ungewöhnlich viele Spinnen; doch lässt sich daraus nicht auf die Winterstrenge schließen. Aber auf etwas Anderes- soll es nach den rot- grünen Mainstream- Medien nicht immer weniger Insekten in Deutschland geben? (die angeblichen Schuldigen: Eine „böse“ intensive Landwirtschaft und der Klimawandel). Doch alle Spinnenarten ernähren sich räuberisch von Insekten- es muss also sehr viele Insekten gegeben haben! „Ist Martini (10./11.11.) trüb und feucht, wird gewiss der Winter leicht.“ Um den 10.11.2017 herrschte trübes, feuchtes, normal temperiertes Wetter. Wegen der Kalenderreform von 1583 (10 Tage Verschiebung aller Lostage) ist auch die Witterung um den 20.11. beachtenswert. „Elisabeth (19.11., diesmal normal temperiert, windig und wechselhaft) sagt an, was der Winter für ein Mann“. „Wie’s Wetter an Kathrein (25.11., diesmal fast temperaturnormal und verregnet), so wird es auch im Januar sein.“ Solche Regeln treffen keinesfalls immer zu. Insgesamt deutet die Mehrzahl der Bauernregeln auf einen sehr milden bis höchstens normalen Winter hin.

2. La Nina- was bedeutet das?

Momentan herrschen im tropischen Südost- Pazifik einschließlich der Südamerikanischen Küste deutlich zu niedrige Meeresoberflächentemperaturen- ein klassischer „La Nina“. Dieser soll sich im Winter fortsetzen. Direkte Auswirkungen auf die Winterwitterung in Deutschland lassen sich daraus aber kaum ableiten; La- Nina- Winter können hierzulande mild (2013/14, 2007/08,1999/2000,1998/99, 1988/89,1974/75) oder zu kalt (1995/96,1984/85,1962/63) ausfallen. „La Nina“ hat aber eine andere Auswirkung- auf die globalen Durchschnittstemperaturen. Der seit etwa 20 Jahren zu beobachtende Hiatus der „globalen Erwärmung“ dürfte sich dadurch manifestieren.

3. Nachlassende Sonnenaktivität- Menetekel der Abkühlung

Direkte Sonnen- und Infrarotstrahlung schwanken nur wenig, umso mehr aber das solare Magnetfeld, die Teilchenstrahlung („Solarwind“, verantwortlich u.a. für Polarlichter), die Radiostrahlung und die von der oberen Erdatmosphäre weitgehend absorbierte kurzwellige Strahlung (Röntgen, kurzwelliges UV). Sie beeinflussen Wetter und Klima wesentlich; allerdings besteht noch Forschungsbedarf. Die Sonnenfleckenanzahl bildet die Sonnenaktivität grob ab; je mehr Sonnenflecken, desto höher die Sonnenaktivität. Die Sonnenaktivität wirkt auf verschiedenen Zeitskalen; hierzu wird intensiv geforscht. Im Jahr 2017 nahm die Fleckenzahl tendenziell weiter ab; oftmals war die Sonne schon fleckenlos, was Kältewellen in den kommenden Monaten begünstigen könnte.

Dem noch intensiven 23. folgte der schwache 24. SCHWABE-Zyklus. Dieser ist mit maximal nur gut 100 Flecken einer der schwächsten Sonnenfleckenzyklen seit 200 Jahren:

Nach dem absoluten Zyklus-Maximum (Februar 2014) sank die Fleckenzahl. Der Winter 2017/18 ist der vierte nach dem Maximum des SCHWABE-Zyklus. Die 23 Vergleichswinter seit 1760/61 trafen mit -0,2°C genau das langjährige Wintermittel dieses 257ig- jährigen Zeitraumes, wobei aber auffällt, dass die letzten sechs, beginnend mit 1950/51, allesamt zu mild waren. Sehr kalte Winter treten ohnehin bevorzugt zum Minimum des Schwabe-Zyklus oder 1 bis 2 Jahre nach diesem auf; letztmalig 2009/10, davor 1995/96 und 1996/97 sowie 1986/87. Hier zeigt sich schon eine gewisse Verzögerung, mit der die Wintertemperaturen der solaren Aktivität folgen. Eine bessere Aussagefähigkeit hat der solare Ap- Index, welcher die magnetische Wirkung der solaren Teilchenstrahlung beschreibt. Er hatte sein Minimum zwischen 2008 und 2010, was die damaligen Kälte- Winter mit erklären könnte. Gegenwärtig ist aber der Ap- Index, im Gegensatz zur Anzahl der Sonnenflecken, noch mäßig hoch, was für einen eher normalen Winter spricht:

In den kommenden Jahrzehnten sinkt die Sonnenaktivität aber vermutlich weiter (neues Dalton- oder Maunder-Minimum), was weltweit abkühlend wirkt und in Mitteleuropa Meridionallagen (im Winter oft kalt) begünstigt. Das träge Klimasystem reagiert nur mit Verzögerungen von etwa 10 bis 30 Jahren auf die schon nach 1990 beginnende tendenzielle Abschwächung der Sonnenaktivität, so dass sich negative Auswirkungen erst weit nach 2015 deutlicher zeigen werden. Vermutlich gab es deswegen bereits in den letzten 20 Jahren kaum noch Erwärmung in Deutschland; in Zentralengland kühlte es sich gar leicht ab:

Bei globaler Betrachtungsweise (die „Erdmitteltemperatur“ ist strenggenommen ein wertloses Kunstgebilde) fehlt, trotz des starken El Ninos 2015/16, nun schon seit gut 20 Jahren eine signifikante „globale“ Erwärmung. Insgesamt lässt die geringe Sonnenaktivität 2017 einen eher normalen bis zu kalten Winter erwarten.

4. Die Zirkulationsverhältnisse

Westliche Luftströmungen (Zonale Großwetterlagen) bringen milde Atlantikluft nach Deutschland, nördliche und vor allem östliche Kaltluft. Bei Süd- und Zentralhochlagen muss ein starker Wind die bodennah aus Ost einsickernde oder vor Ort immer wieder neu entstehende Kaltluftschicht vertreiben, ansonsten können auch sie im Tiefland bitterkalt sein, während es auf den Berggipfeln sehr mild ist. Der Zusammenhang zwischen der Häufigkeit der Luftströmungen mit Westanteil (Großwettertypen W, SW und NW) sowie den Wintertemperaturen in Deutschland ist sehr eng (folgende Grafik):

Für längerfristige Vorhersagen muss man die Zirkulationsverhältnisse vorhersehen können, was kaum möglich ist. Im Herbst 2017 war die Zonalzirkulation zeitweise kräftig entwickelt; so Mitte September und in der ersten sowie letzten Oktoberdekade, was auf einen eher milden Winter hindeutet; ähnlich wie 2013/14, 1988/89 oder 1989/90. Ob die seit der Jahrtausendwende zu beobachtende leichte Abnahme der Westlagenhäufigkeit in diesem Jahr eine Rolle spielt, ist mehr als fraglich. Wegen der sich aktuell vermutlich verstärkenden Ostwind-Phase der QBO (Erklärung siehe Punkt 7) liegt eine verstärkte Meridionalisierung mit Kälte im Laufe des Hochwinters aber noch im Bereich des Möglichen. Einhergehend mit der lebhaften Zonalzirkulation gab es schwere Herbststürme („XAVIER“ Anfang und „HERWART“ Ende Oktober). Die Zirkulationsverhältnisse weisen überwiegend auf einen eher milden Winter hin.

5. Die mittelfristigen Modelle

Die verbesserte Kurzfrist-Vorhersagegüte (etwa 1 bis 4 Tage im Voraus) resultierte aus der Entwicklung und Verfeinerung numerischer Modelle, basierend auf Gleichungen der Thermodynamik, in Verbindung mit immer schnelleren Computern sowie mehr und besseren Mess- oder Beobachtungsdaten per Satelliten und Automaten. Für längerfristige Vorhersagen dienen sogenannte Ensemble- Modelle, bei denen man die Ergebnisse mehrerer Modell- Läufe (gerechnet mit leicht variierten Anfangsparametern) mittelt. Sie liefern keine detaillierten Vorhersagen, doch gute Abschätzungen des Temperaturniveaus für etwa eine Woche im Voraus und vage für bis zu 15 Tagen.

Die Ensemble-Vorhersagekarte des NOAA (USA- Wetterdienst) vom 26.11. für den 10.12.2017 zeigt ein Tief über Skandinavien, flankiert von hohem Luftdruck über dem Atlantik und Osteuropa (Quelle NOAA). Sollte das so eintreten (noch sehr unsicher), so wäre es zumindest im Bergland oberhalb 600 bis 800 Meter winterlich; im Tiefland wäre nasser Schnee oder Regen bei leichten Plusgraden möglich:

Es deutet sich, auch nach den hier nicht gezeigten Einzel- Modell- Läufen, für die erste Dezemberdekade normal temperiertes, nasskaltes Wetter an; im Bergland oberhalb etwa 600 bis 800m könnte gar Dauerfrost mit guten Wintersportbedingungen herrschen; im Tiefland zumindest zeit- und gebietsweise nasser Schnee liegen; zumindest gelegentliche Nachtfröste mit Glättegefahr sind hier zu erwarten; tagsüber aber meist mehr oder weniger deutliche Plusgrade; vielleicht kurzzeitig im Nordosten auch mal schwacher Dauerfrost.

6. Die aktuelle Tendenz der Wintertemperaturen in Deutschland

Trends erlauben nie Rückschlüsse auf den Einzelfall und keine Extrapolation in die Zukunft. Die Wintertemperaturen entwickelten sich in den letzten 30 Jahren folgendermaßen:

Trotz der sehr milden Winter 2013/14 und 2015/16 und kontinuierlich steigender CO2- Konzentration (obere, grüne Linie) fiel das Wintermittel seit 30 Jahren, wenngleich nicht signifikant, weil die schon erwähnte nachlassende Sonnenaktivität und schwächere Zonalzirkulation bereits Wirkung zeigen. Doch die DWD-Daten sind nicht wärmeinselbereinigt. Einen deutlicher fallenden Trend zeigt die wärmeinselarme Station Amtsberg/Erzgebirge:

Aber die „richtige“ Kälte dürfte indes wegen der Trägheit des Klimasystems erst in wenigen Jahren bis Jahrzehnten zuschlagen („Kleine Eiszeit“). Die seit einigen Jahren wieder leicht steigende Zahl von Nebeltagen weist gleichfalls auf eine langsam beginnende Abkühlung hin.

7. Die Nordatlantische Oszillation (NAO), die AMO, die QBO und der Polarwirbel

Der NAO- Index ist ein Maß für die Intensität der Westströmung über dem Ostatlantik im Vergleich zum Langjährigen Mittel. Positive NAO- Werte bedeuten häufigere und intensivere, im Winter eher milde Westwetterlagen. Bei negativen NAO- Werten schwächt sich die Intensität der Zonalströmung ab, bei stark negativen Werten kann sie gar in eine Ostströmung umschlagen oder meridional verlaufen. Die NAO schwankte seit Sommer 2017 häufig zwischen positiven und negativen Werten; zum Schluss war der Index negativ (Quelle http://www.cpc.ncep.noaa.gov/products/precip/CWlink/pna/nao.mrf.obs.gif ):

Mitunter verändert sich die NAO sprunghaft (schwere Vorhersagbarkeit). Die AMO (ein Maß für die Wassertemperaturschwankungen im zentralen Nordatlantik) beendet gegenwärtig ihre Warmphase. Ein kompletter AMO- Zyklus dauerte seit Beginn regelmäßiger Messungen immer etwa 50 bis 80 Jahre, somit ist in naher Zukunft ein Wechsel in die Kaltphase wahrscheinlich. Mehr zum Zusammenhang von AMO, NAO und den Temperaturverhältnissen in Deutschland unter anderem hier http://www.eike-klima-energie.eu/news-cache/im-takt-der-amo-und-der-nao-3-das-haeufigkeitsverhalten-der-grosswetterlagen-und-dessen-auswirkungen-auf-die-deutschland-temperaturen/ . Die folgende Abbildung beginnt mit dem 10-jährigen Gleitmittel ab 1880/81 unter Einbeziehung der Werte ab 1871/72. Die AMO (grün) verhält sich fast spiegelbildlich zu NAO (obere schwarze Kurve), der Westwetterlagenhäufigkeit (unterste, violette Kurve) und den Wintertemperaturen in Deutschland. Die Gleitmittel wurden dann nochmals 15- jährig geglättet (fette Linien).

AMO- Warmphasen erhöhen die Wahrscheinlichkeit für einen kalten Winter leicht, weil diese Konstellation kalte, nordöstliche Strömungen („Wintermonsun“) begünstigen könnte. Und die sogenannte QBO (Windverhältnisse in der unteren Stratosphäre der Tropen, die etwa alle 2,2 Jahre zwischen West und Ost wechseln) verhält sich momentan ungewöhnlich uneinheitlich (Westwindphase in der unteren Stratosphäre und Ostwindphase in der oberen Stratosphäre). Nur wenn die Westwind- Phase in der unteren Stratosphäre enden sollte, könnte das Meridionale Lagen und damit einen Kaltwinter begünstigen. In diesem Zusammenhang lohnt noch ein Blick auf die mögliche Entwicklung des Polarwirbels. Ein ungestörter, sehr kalter Polarwirbel im 10- hPa- Niveau (gut 25 Km Höhe, Stratosphäre) ist kreisrund und in der Arktis extrem kalt, was Westwetterlagen begünstigt, welche in Deutschland mild sind. Für den 10. Dezember wird ein Polarwirbel vorhergesagt, der merklich gestört und über Grönland/Island am kältesten ist, was alle Möglichkeiten für milde oder kalte Witterungsabschnitte noch offen lässt:

NAO, QBO, AMO und das Verhalten des Polarwirbels deuten auf einen eher normalen bis milden Winter hin.

8. Verursacht das angeblich verschwindende Arktische Meereis kältere Winter? Für die relativ kalten Winter 2009/10 und 2012/13 wurde das schwindende arktische Meereis, speziell im September, verantwortlich gemacht. Mit etwa 4,8 Millionen Km² gab es im Septembermittel 2017 eine etwas größere Eisfläche, als in den beiden Vorjahren, und deutlich mehr zum bisherigen Negativ- Rekordmittel von 3,57 Millionen Km² (Sept. 2012) (Daten: NSIDC, National Snow and Ice Data Center der USA). Bei AMO- Warmphasen wird mehr Wärme in die Arktis eingetragen. Die minimale Eisausdehnung und die geringere Westlagenhäufigkeit der 2000er Jahre „passen“ gut zum AMO- Maximum. Genaueres Zahlenmaterial zur Eisausdehnung liegt leider erst seit 1979 vor (Einführung der flächendeckenden, satellitengestützten Überwachung). Zumindest in diesem relativ kurzen Zeitraum von mehr als 35 Jahren bestand ein signifikanter Zusammenhang zwischen der AMO und der Fläche des winterlichen Arktis- Meereises:

Ähnlich wie in den 1930er Jahren, als während der damaligen AMO- Warmphase ebenfalls ein Meereisrückgang sowie vor allem ein starkes Abschmelzen der Grönland- Gletscher herrschte. Näheres dazu unter http://www.eike-klima-energie.eu/climategate-anzeige/fotos-aus-den-dreissiger-jahren-groenland-gletscher-haben-sich-damals-schneller-zurueck-gezogen-als-heute/ . Die These „weniger Arktiseis – mehr Winterkälte in Deutschland“ ist unhaltbar; tatsächlich fehlt jeglicher Zusammenhang:

Auch bei Betrachtung anderer Bezugszeiträume besteht keine Korrelation. Die aktuelle Meereisbedeckung im Vergleich zu den Vorjahren auf der Nordhalbkugel kann man hier abrufen: http://ocean.dmi.dk/arctic/icecover.uk.php . Laut einer Fehlprognose von Al Gore sollte der Nordpol schon im Spätsommer 2013 eisfrei sein. Näheres bei http://info.kopp-verlag.de/hintergruende/enthuellungen/alex-newman/al-gore-sagte-voraus-2-13-sei-die-arktis-voellig-eisfrei-stattdessen-ist-die-eisschicht-um-die-ha.html . Im Herbst 2017 war ein stärkeres Eiswachstum als in den Vorjahren zu beobachten, was den Polarwirbel stärken und milde Westlagen begünstigen könnte. Insgesamt hat das komplizierte, wenig erforschte Zusammenspiel zwischen Meeresströmungen, AMO, Meereis und Großwetterlagen wahrscheinlich großen Einfluss auf die Witterungsverhältnisse. Die Ausdehnung der Schneebedeckung im Spätherbst (Okt/Nov) in Eurasien hat ebenfalls keine eindeutigen Auswirkungen auf die deutsche Winterwitterung. So bedeckte der Schnee in den Spätherbsten 1968, 70, 72, 76, 93, 2002, 09, 14,15 und 16 auf der größten zusammenhängenden Landmasse der Erde eine deutlich überdurchschnittliche Fläche, doch nur die 3 Winter 1968/69, 2002/03 und 2009/10 waren danach zu kalt, während die anderen 7 zu mild ausfielen; letztmalig der von 2016/17, trotz des kalten Januars. Eine große Überraschung bot dieser Analyseteil trotzdem. Im Herbst und Winter wächst nämlich die mit Schnee bedeckte Fläche Eurasiens; nur im Frühling und Sommer nimmt sie ab. Sollte es Dank des „Klimawandels“ nicht immer weniger Schneeflächen in allen Jahreszeiten geben?? Und die wahre Ursache für die Abnahme im Frühjahr/Sommer ist nicht das CO2, sondern vermutlich mehr Sonnenschein (siehe folgende Abbildung):

9. Analogfälle (ähnliche Witterung wie 2017)

Bei dieser Methode werden die dem Winter vorangehenden Monate hinsichtlich ihres Witterungsverlaufs untersucht. Betrachtet man alle mehr oder weniger zu kalten Winter der vergangenen 4 Jahrzehnte inklusive solcher, die bei milder Gesamtwitterung mindestens eine mehrwöchige Kälteperiode aufwiesen, so gingen diesen Wintern bis auf die Ausnahme von 2011 Herbste voraus, die schon mindestens einen auffälligen Kälteeinbruch hatten. Dabei war nur selten der Herbst insgesamt zu kalt, aber er wies dann mindestens einen zu kalten Monat oder wenigstens eine markante Kaltphase auf (November 1978, 1980, 1981, 1984, 1985, September 1986, September 1990, November 1993, November 1995, September 1996, September/Oktober 2002, November 2005, September 2008, Oktober 2009, November 2010, Oktober 2012, 2015, Oktober/November 2016). Schneite es bereits im Oktober stellenweise bis ins Flachland (2002, 2009, 2012 und 2015), so war in den ersten 3 Fällen der gesamte Winter zu kalt; 2015/16 kam es nur im Januar besonders in Nordostdeutschland zu längeren, winterlichen Phasen. Vor den meisten fast durchgängig milden Wintern (1973/74,1974/75,1987/88,1988/89,1989/90, 2006/07, 2007/08, 2013/14, 2014/15) waren die Herbste entweder rau, gemäßigt oder extrem mild; markante Kälteeinbrüche fehlten jedoch so wie auch 2017 oder waren nur ganz kurz (November 1988 und 1989). Das Witterungsverhalten im September/Oktober 2017 (September etwas zu kalt, Oktober zu feucht und viel zu mild) ähnelte, freilich nur sehr grob, dem der Jahre 1923, 66 und 2013, wonach der Winter 1923/24 zu kalt und die beiden letzten zu mild waren. Die wahrscheinliche (trotzdem sehr unsichere) Luftdruckabweichung vom Langjährigen Mittel über Europa (Quelle: langfristwetter.com) sieht für die kommenden Wintermonate so aus:

Im Dezember 2017 (oberes Bild) positive Luftdruck-Anomalie in hpa auf Meeresspiegelniveau über dem Nordatlantik und etwas zu tiefer Luftdruck über Skandinavien. Das hätte normale Dezembertemperaturen in Mitteleuropa zur Folge; mit Schneefällen besonders in den Mittelgebirgen. Im Januar 2018 (Mitte) leicht erhöhter Luftdruck über Nordosteuropa- zumindest einzelne Kältewellen aus Nordost wären bei insgesamt etwas zu kaltem Januar denkbar. Im Februar deutlich zu tiefer Luftdruck bei Island mit sehr mildem Westwetter bei uns. Die Vergleichsjahre mit ähnlicher Vorwitterung, aus der sich die berechnete Druckverteilung ergab, waren 1949, 1967, 1970, 1973, 1983, 1984, 1990, 1994, 1996, 1999, 2001, 2005 und 2013. Es finden sich danach 6 zu milde (am deutlichsten 2013/14), 4 fast temperaturnormale und 3 zu kalte Winter; am markantesten 1984/85. Damit deutet sich bei Mittelung eine Tendenz zu einem eher normalen Winter an. Auch hier ist die geringe Zahl der Vergleichsfälle problematisch; Näheres zu der Methode unter http://www.langfristwetter.com/langfristprognose-europa.html . Zu warmen Sommern (auch der Sommer 2017 war trotz seiner sehr wechselhaften, nassen Witterung deutlich zu warm!) folgen meist milde statt kalten Wintern (positiver Zusammenhang). Für seriöse Vorhersagen ist diese Beziehung freilich auch viel zu schwach. Zwischen den Herbst- und Wintertemperaturen findet sich sogar ein etwas deutlicherer positiver Zusammenhang. Schon der August liefert aber manchmal erste Hinweise. Er wies 2017 nach der Objektiven Wetterlagen- Klassifikation des DWD (seit 1979 verfügbar) mit 30 Tagen auffallend viele mit Westanteil und nach der HESS/BREZOWSKY- Klassifizierung mit 15 Tagen auffallend viele mit Südanteil auf. Ähnlichen Augusten folgten in der Vergangenheit zu 50 bis 60% milde und nur zu 10 bis 25% kalte Winter; die restlichen waren normal. Und sogar der dem Winter vorausgehende März (2017 extrem mild) lässt einen sehr kalten Winter unwahrscheinlich werden. In den 36 Fällen seit 1881, bei denen der Vor- März im Deutschlandmittel mindestens 5°C erreichte, also merklich zu mild war, verlief der folgende Winter in 17 Fällen zu mild, in 13 normal und nur in 6 Fällen etwas zu kalt. Ähnliches gilt für den Vor- Mai. Insgesamt deutet sich nach den Analogfällen also eine erhöhte Wahrscheinlichkeit für einen normalen bis zu milden Winter an.

10. Die Hurrikan- Aktivität (Nordatlantik) und Zyklonen- Aktivität (nördlicher Indik)

Mit gewissen Abstrichen (mangelnde Beobachtungsmöglichkeiten vor Einführung der Satellitentechnik) ist die jährliche Anzahl der Tropischen Wirbelstürme im Nordatlantik (Hurrikane) und der Zyklone (nördlicher Indischer Ozean) etwa bis zur Mitte des 19. Jahrhunderts bekannt. Die verheerenden, meist wenige Tage bis selten länger als zwei Wochen existierenden Hurrikane gelangen nie nach Mitteleuropa. Aber sie beeinflussen unsere Witterung. Sie schwächen bei bestimmten Zugbahnen das Azorenhoch oder kommen bei Einbeziehung in die Westdrift als normale Tiefs nach Europa, wo sie im Spätsommer/Frühherbst mitunter einen Witterungsumschwung einleiten. Auch die Anzahl der im nördlichen Indischen Ozean jährlich vorkommenden Wirbelstürme (Zyklone) könnte einen gewissen Einfluss auf unsere Winterwitterung haben; es gibt von 1890 bis 2014 eine leicht negative Korrelation (tendenziell kältere Winter, wenn dort viele Zyklone auftraten). Im Mittel von 1851 bis 2014 sind gut 5 Hurrikane pro Jahr (die Saison beginnt meist erst zwischen Mai und Juli, doch 2016 gab es schon im Januar einen Hurrikan, und endet spätestens Anfang Dezember) aufgetreten. Erreichte ihre Zahl mindestens 10 (1870, 1878, 1886, 1887, 1893, 1916, 1933, 1950, 1969, 1995, 1998, 2005, 2012), so waren von den 13 Folgewintern 11 zu kalt, nur 2 (1998/99 und 1950/51) zu mild. Bei fast all diesen Fällen brachte allerdings schon der Spätherbst markante Kältewellen; selbst vor den beiden dann milden Wintern waren sie zu beobachten; besonders markant 1998. In diesem Jahr gab es bislang 10 Hurrikane und damit deutlich zu viele, was eher für einen kalten Winter spricht. Im Indischen Ozean blieb die Zyklonen- Aktivität 2017 jedoch unterdurchschnittlich, was auf einen eher milden Winter hindeutet. Die Wirbelsturm- Aktivität liefert diesmal also keine eindeutigen Hinweise auf den Charakter des Winters in Deutschland.

11. Die Langfrist- Vorhersagen einiger Institute, Wetterdienste und Privatpersonen:

UKMO (Großbritannien): Stand 11.11.2017 Winter (D, J, F) mit leicht erhöhter Wahrscheinlichkeit in Deutschland zu mild (folgende Karte):

Anmerkung: Hier wird nur die erste UKMO- Karte gezeigt. Es gibt zwei weitere, eine mit der Probability (Wahrscheinlichkeit) für einen normalen Winter und eine für einen zu kalten; erstere weist ebenfalls eine leicht erhöhte Wahrscheinlichkeiten auf; während ein zu kalter Winter höchstens zu 20% wahrscheinlich ist . Die aktuellen Karten jederzeit unter http://www.metoffice.gov.uk/research/climate/seasonal-to-decadal/gpc-outlooks/glob-seas-prob

Meteo Schweiz Stand Nov. 2017: Leicht erhöhte Wahrscheinlichkeit für einen zu milden Winter. Zu kalter Winter nur zu etwas mehr als 20% wahrscheinlich); normaler zu knapp 30%. Die „doppelten T“ sind die Fehlerbalken:

LARS THIEME (langfristwetter.com) Vorhersage von Anfang November 2017: Alle drei Wintermonate zu mild.

IRI (folgende Abbildung), Vorhersage vom Nov. 2017: Keine Aussagen für Deutschland und weite Teile West- und Mitteleuropas; zu mild in Nord- und Osteuropa.

DWD (Offenbach): In Deutschland 0,5 bis 1°C zu mild, bezogen auf den Mittelwert der Jahre 1981 bis 2014 (Stand Nov. 2017):

NASA (US- Weltraumbehörde) Karte vom November 2017: Winter in Mitteleuropa etwa 2 bis 3 K zu mild. Bei dieser Karte liegt Mitteleuropa am linken Kartenrand, weit oben:

 

CFSv2- Modell des NOAA (Wetterdienst der USA, folgende 3 Abbildungen, Eingabezeitraum 16. bis 25.11. 2017): Alle 3 Wintermonate um 1 bis 2 K zu mild. Dezember (links) Januar (rechts) Februar (unten); damit Winter insgesamt sehr mild. Die vorhergesagten Temperaturabweichungen beziehen sich auf die Mittelwerte der Periode 1981 bis 2010. Die fast täglich aktualisierten, aber leider oft falschen Prognosen unter http://www.cpc.ncep.noaa.gov/products/people/wwang/cfsv2fcst/ (Europe T2m, ganz unten in der Menütabelle; E3 ist der aktuellste Eingabezeitraum):

Die Mehrzahl dieser experimentellen, nicht verlässlichen Langfristprognosen deutet einen eher zu milden Winter an.

Fazit: Eindeutige, verlässliche Anzeichen für einen durchgehend kalten Winter fehlen. Die Prognosesignale sowie die Vorhersagen der Wetterdienste und Institute tendieren bei großer Unsicherheit in Richtung eines normalen bis extrem zu milden Winters. Momentan kündigen sich keine markanten Kälteeinbrüche im Frühwinter an; aber nasskaltes Wetter; im Bergland oberhalb von etwa 500 Metern könnte im Dezember häufiger, im Tiefland gelegentlich Schnee liegen. Insgesamt fällt der Winter 2017/18 nach momentanem Stand also normal bis extrem zu mild aus und wird im Deutschland- Mittel auf +0,5 bis +3,5°C geschätzt (LJM 1981 bis 2010 +0,9°C); bei den sehr widersprüchlichen Prognosesignalen muss die weitere Entwicklung aber noch abgewartet werden. In den Mittelgebirgen bestehen zumindest zeit- und stellenweise gute Wintersportmöglichkeiten. Geschätzte Dezember- Monatsmitteltemperatur für Erfurt- Bindersleben (Mittel 1981- 2010 +0,5°C) 0,0 bis +2,5°C (normal bis deutlich zu mild). Für Jan/Feb. 2018 lässt sich noch kein Temperaturbereich schätzen! Das Schneeaufkommen ist kaum vorhersehbar (langfristige Niederschlagsprognosen sind besonders unsicher). Zur Winterlänge fehlen bisher ebenfalls noch Hinweise. Die Hochwinterwitterung (Jan/Feb.) kann erst anhand des Witterungstrends zum Jahreswechsel etwas genauer abgeschätzt werden; momentan ist ein zu milder Hochwinter deutlich wahrscheinlicher, als ein zu kalter. Wegen eines möglichen Wechsels zur Ostwindphase in der unteren Stratosphäre (QBO) sind aber winterliche Phasen oder wenigstens ein einzelner, kalter bis sehr kalter Wintermonat noch nicht völlig ausgeschlossen. Sollte allerdings der Dezember tatsächlich zu mild ausfallen, so erhöht das die Wahrscheinlichkeit für einen milden Hochwinter 2018 noch weiter.

Dieses Fazit wurde aus 10% der Tendenz der Bauern- Regeln, 10% Sonnenaktivität, 20% Zirkulationsverhältnisse, 10% Mittelfrist- Modelle, 10% NAO, AMO,QBO, Polarwirbel, 20% Analogfälle und 20% der vorwiegenden Tendenz der Langfristprognosen gewichtet.

Aktualisierung voraussichtlich Ende Dezember.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 26.11. 2017




Reduktion langlebiger Spaltprodukte

Das Problem

Irgendwann ist jedes Brennelement erschöpft und muß erneuert werden. Die “abgebrannten” Brennelemente werden von “Atomkraftgegnern” gern als “Atommüll” verunglimpft, obwohl sie recycelt werden können. Sie bestehen noch zu rund 96% aus Uran und Plutonium, die erneut als Brennstoff genutzt werden könnten. Sicherheitstechnisch betrachtet, stellt ihre ionisierende Strahlung ein – durchaus unterschiedliches – Problem dar. Es sind daher dauerhafte Abschirmungen in der Form von Wasserbädern, Sicherheitsbehältern etc. notwendig. (Hier der Artikel in nature)

Der Faktor Zeit

Je länger die Halbwertszeit ist, um so länger dauert es, bis dieser Stoff verschwunden ist. Wenn man von einer Gefahr durch ionisierende Strahlung ausgeht, ist damit der Zeitraum bestimmt, in dem man den Stoff von der Biosphäre fern halten sollte:

  • Es gibt unterschiedliche Arten ionisierender Strahlung, die auch biologisch unterschiedlich wirken. Strahlung, die z. B. von Uran und Plutonium ausgeht, ist nur dann bedrohlich, wenn sie innerhalb des Körpers frei wird. Nimmt man sie nicht in den Körper auf (Nahrung, Atemluft), sind sie genauso harmlos, wie jedweder anderer Stoff auch.
  • “Die Dosis macht’s”. Insofern ist die Konzentration eines radioaktiven Stoffes (z. B. im Trinkwasser) entscheidend.
  • Freigesetzte Stoffe können sich (z. B. über die Nahrungskette) anreichern. Dies gilt naturgemäß besonders für langlebige Stoffe. Insofern sollten sie möglichst gar nicht erst freigesetzt werden.

Der Endlager-Standpunkt

Überzeichnet man die Gefahr, die von radioaktiven Stoffen ausgeht, kommt man zu dem Schluß, man müßte sie quasi “für ewig” sicher einschließen. Der Begriff des “Endlagers” ist erschaffen. Ein hervorragender politischer Kampfbegriff, weil wie ein Gummiband dehnbar. Man muß nur die Gefährlichkeit – was auch immer darunter zu verstehen sei – ausdehnen und kommt schnell zu Zeiträumen, die nicht mehr als beherrschbar erklärt werden können. Gipfel dieser Gespensterdebatte ist die Erforschung irgendwelcher Piktogramme, die Außerirdischen oder sonst wie verblödeten Erdbewohnern die Lage eines “Endlagers” in Millionen von Jahren näher bringen sollen. Interessant ist dabei nur, wie locker man beispielsweise den Fallout aus unzähligen Kernwaffenversuchen nicht gekennzeichnet hat. Wären die Stoffe auch nur annähernd so gefährlich, wie sich Ökoaktivisten gern an den Lagerfeuern im Wendland erzählen, müßte die gesamte Menschheit bereits ausgestorben sein. Aber es geht dabei ja auch weniger um Fakten, als um Gesellschaftsveränderung.

Gleichwohl sollte man mit radioaktiven Abfällen verantwortungsvoll umgehen. Es ist das Verdienst der Kerntechnik, der erste Industriezweig zu sein, der sich von Anfang an um seinen Abfall Gedanken gemacht hat: Wiederaufbereitung und geologische Tiefenlager waren erfunden. Letztere aus einem ethischen Anspruch heraus, den Abfall nicht den folgenden Generationen als Problem und Kosten zu hinterlassen. Immer noch revolutionär, wenn man es mit dem sonst voll akzeptierten Umgang mit Abfällen und Deponien vergleicht.

Die Art der Beseitigung

Wenn man gebrauchte Brennelemente aufarbeitet, können sie weiterhin zur Energiegewinnung verwendet werden: In konventionellen Reaktoren als Mischoxid und in schwerwassermoderierten Reaktoren sogar in ihrer ursprünglichen Zusammensetzung. Bedingung ist die Trennung von Uran und Plutonium von den Spaltprodukten.

Verwendet man diesen aufbereiteten Brennstoff in Reaktoren mit schnellem Neutronenspektrum (meist mit Natrium oder Blei als Kühlmittel), kann man damit sogar die minoren Aktinoide “verbrennen”. Sie bilden sich aus Uran- und Plutoniumkernen, die trotz Neutroneneinfang nicht gespalten worden sind. Sie sind besonders langlebig und müssen zusammen mit Plutonium als Argument für eine “sichere Endlagerung über Millionen von Jahren” her halten.

Bleiben die Spaltprodukte übrig. Sie sind zumeist recht kurzlebig und strahlen deshalb sehr stark. So stark, daß sie sich aufheizen, deshalb gekühlt und sicher abgeschirmt werden müssen. Ein Problem, das sich nach einigen Jahrhunderten von selbst erledigt hat. Es wäre mit der Lagerung in simplen Bunkern technisch leicht beherrschbar, wenn es nicht einige wenige sehr langlebige Spaltprodukte geben würde. Hier setzt wieder die Ethik ein: Ist es zulässig, solche Stoffe unseren Nachfahren zu vererben? Es handelt sich um recht harmlose Stoffe (lange Halbwertszeiten bedeuten wenige Zerfälle pro Sekunde und damit grundsätzlich geringe Dosisleistungen) in sehr kleinen Mengen. Es geht hier um Halbwertszeiten von einigen Hunderttausend (Se79, Tc99) bis zu einigen Millionen (Zr93, Pd107, I129, Cs135) Jahren.

Man kann Atomkerne nur durch Neutronen in ein anderes Element umformen. Man benötigt also eine (möglichst starke) Neutronenquelle. Dieser Vorgang wird Transmutation genannt. Ein Favorit hierfür sind Spallationsquellen, bei denen Atomkerne beschossen werden und förmlich verdampfen. Sie sind sehr aufwendig, produzieren aber dafür auch große Mengen Neutronen. Grundsätzlich bleibt aber ein Problem: Die Stoffe existieren meist in einem Isotopengemisch. Man will aber eigentlich nur ein bestimmtes (besonders langlebiges) Isotop umwandeln. Alle anderen Kernreaktionen sind parasitär und kosten nur die teueren Neutronen. Ein Schlüssel hierfür, sind die energieabhängigen Einfangquerschnitte.

Beseitigung in schnellen Reaktoren

Reaktoren mit schnellen Neutronen sind hervorragend zur “Verbrennung” von Plutonium und minoren Aktinoiden geeignet. Darüberhinaus benötigen sie nicht einmal Natururan, sondern geben sich sogar mit abgereichertem Uran als Brennstoff zufrieden. Allerdings sind sie nur schlecht zur Beseitigung der langlebigen Spaltprodukte geeignet. Diese besitzen nur sehr kleine Einfangquerschnitte für schnelle Neutronen. Es gibt aber einige Energiebereiche, in denen sie solche Neutronen begierig aufnehmen. Verzichtet man auf einige bei der Spaltung freigewordenen Neutronen – im statistischen Mittel auf 0,3 Neutronen pro Kernspaltung – kann man sie zur Umwandlung abzweigen. Man muß sie allerdings noch auf die ideale Geschwindigkeit abbremsen.

Damit ergibt sich folgendes Reaktorkonzept:

  • Man baut einen zentralen Kern, in dem die eigentliche Energieproduktion aus Uran und Plutonium durch Spaltung mit schnellen Neutronen stattfindet.
  • In einem “schnellen Brüter” ist diese Zone von einer Schicht aus abgereichertem Uran umgeben. Die Neutronen, die aus dem Kern rausfliegen und nicht zur Aufrechterhaltung einer Kettenreaktion benötigt wurden, reagieren hier mit dem Uran und bilden zusätzliches Plutonium. Bei einem “Brüter” ist hier die Produktion von Plutonium größer als gleichzeitig davon im Kern verbraucht wird.
  • Verzichtet man nun auf einen Teil der “Brutrate”, hat man Neutronen für eine Umwandlung von Spaltprodukten zur Verfügung. Man muß diese nur noch – möglichst an Ort und Stelle – auf die “richtige” Geschwindigkeit abbremsen. Man kann in den “Brutmantel” eine gewisse Anzahl von Brennstäben einfügen, die mit einem Gemisch aus den zu beseitigenden Spaltprodukten und einem geeigneten Moderator gefüllt sind. Ein solcher Moderator könnte z. B. Yttrium Deuterid (YD2) sein. Er erfüllt die Bedingungen, selbst kaum mit Neutronen zu reagieren und die richtige Masse für die notwendige Abbremsung zu besitzen.

Die notwendige Verfahrenstechnik

Die Wiederaufbereitung wird erheblich komplizierter. Bei dem klassischen PUREX-Verfahren – wie es z. B. in Frankreich angewendet wird – gewinnt man möglichst reines Uran und Plutonium. Alles andere ist Abfall, der verglast und später in einem geologischen Tiefenlager “endgelagert” wird. Um diesen Abfall weiter zu entschärfen, müßte man in weiteren Schritten die Aktinoide und die langlebigen Spaltprodukte abtrennen. Beides ist sehr aufwendig und man sollte darüber nicht vergessen, daß es sich dabei nur um rund 4% des ursprünglichen Brennstoffs eines Leichtwasserreaktors handelt. Die zusätzliche Volumenverkleinerung ist somit äußerst gering.

Die langlebigen Spaltprodukte müssen nun noch in möglichst reiner Form gewonnen werden, um parasitäre Effekte zu vermeiden. Darüberhinaus muß ein eigener Wiederaufbereitungskreislauf eingerichtet werden, da nicht alle Spaltprodukte in einem Schritt beseitigt werden können. Ein gewaltiger Aufwand für so geringe Mengen. Darüberhinaus macht die ganze Sache nur wirklich Sinn, wenn mehr langlebige Spaltprodukte umgeformt werden, wie bei dem Betrieb dieses Reaktors wieder neu entstehen.

Schlußbemerkung

Der Aufwand für eine Transmutation ist sehr hoch. Gleichwohl erscheint der Erfolg durchaus verlockend. Wie Simulationen für den japanischen Monju-Reaktor zeigen, kann über einen Betrieb von 20 Jahren eine Reduktion der effektiven Halbwertszeit langlebiger Spaltprodukte von über 100.000 Jahren auf rund 100 Jahre erzielt werden.

Trotzdem darf die Frage erlaubt sein, ob der gewaltige (wirtschaftliche) Aufwand den (vermeintlichen) Sicherheitsgewinn aufwiegt. Andererseits wird Menschen mit Strahlenphobie auch dieser Aufwand nicht genügen. Es steht zu befürchten, daß das bekannte Rennen zwischen Hase und Igel der “Atomkraftgegner” lediglich fortgesetzt wird.




Änderungen des Meeres­spiegels und Klima auf Fidschi: totale Falsch­informa­tionen von COP23

Der Gedanke, dass der Meeresspiegel jetzt schnell steigt, stammt vom IPCC, wo Computermodelle kreiert wurden, die einen solchen raschen Anstieg zeigen, zusammen mit einer demnächst einsetzenden „Beschleunigung“ desselben (welcher mit jedem neuen IPCC-Bericht unmittelbarer prophezeit wird und der jetzt sehr bald kommen soll). Es wurden sogar Daten manipuliert, damit diese die Vorgabe des IPCC stützen (www.ijesi.org||Volume 6 Issue 8|| August 2017 || PP. 48-51).

In wahrer Wissenschaft muss man die realen Fakten erkunden, so, wie sie vor Ort beobachtet oder durch validierte Experimente gegeben werden. Auf den Malediven, in Bangladesh und Südindien gibt es sehr klare zu beobachtende Fakten, welche während der letzten 40 bis 50 Jahre stabile Meeresspiegel-Bedingungen belegen (http://dx.doi.org/10.2112/JCOASTRES-D-16A-00015.1). Gleiches wurde durch einsehbare Tidenmessungen in Tuvalu, Vanuatu und Kiribati im Pazifik gemessen.

Dies impliziert, dass gemessene Fakten nicht das Meeresspiegel-Anstiegs-Szenario des IPCC stützen, sondern im Gegenteil dieses Szenario als unbegründete Falschinformation entlarven. Hiermit als Einführung ist es jetzt an der Zeit, Fakten und Fiktion zu erkunden bzgl. der Änderung des Meeresspiegels bei den Fidschi-Inseln.

Im März 2017 führten wir extensive Untersuchungen bzgl. des Meeresspiegels auf den Fidschi-Inseln durch, und wir konnten dabei sehr detailliert die Änderungen des Meeresspiegels während der letzten 500 Jahre rekonstruieren (überraschenderweise hatte keine Studie zuvor diese entscheidende Periode zum Thema, welche für das Verständnis dessen, was heute vor sich geht, so wichtig ist). Unsere Studie enthält auch eine detaillierte Aufzeichnung der Küsten-Morphologie, hoch präzise Nivellierung, Datierung von 17 Stichproben mittels des C14-Verfahrens und Aufzeichnung des Wachstums der Korallen hinsichtlich der dieses Wachstum bestimmenden Tiefe unter der Wasseroberfläche bei Niedrigwasser.

Wir haben unsere Analyse der Tidenmesspunkte auf den Fidschi-Inseln veröffentlicht (nicht direkte Messung eines Meeresspiegel-Anstiegs, sondern eine lokalspezifische Verdichtung und Ozean-Dynamik), ebenso wie Küstenerosion (nicht durch den Anstieg des Meeresspiegels, sondern durch menschliche Fehler) und gemessener und aufgezeichneter Meeresspiegel-Änderungen (https://doi.org/10.15344/2456-351X/2017/137).

Es stellte sich heraus, dass der Meeresspiegel bei den Fidschi-Inseln während der letzten 200 Jahre praktisch stabil geblieben ist. Allerdings wurden zwei geringe Änderungen beobachtet. Der Meeresspiegel schien Anfang des 19. Jahrhunderts um etwa 30 cm höher gelegen zu haben. Kurz nach dem Jahr 1950 fiel der Meeresspiegel um etwa 10 cm, was zum Absterben vieler Korallen führte, die bis zu ihrem Minimum-Niveau von 40 cm unter der Wasseroberfläche gewachsen waren. Während der restlichen 50 bis 70 Jahre kann nachgewiesen werden, dass der Meeresspiegel absolut stabil war, belegt durch Korallen, welche an vielen verschiedenen Stellen beobachtet gezwungen waren, sich horizontal auszubreiten in so genannte Mikro-Atolle.

Diese Dokumentation der Stabilität des Meeresspiegels während der letzten 50 bis 70 Jahre ist von fundamentaler Bedeutung, weil damit das gesamte Gerede über einen rapide steigenden Meeresspiegel als Falschinformation und Fake News entlarvt wird (importiert aus Modellanalysen).

In der Wissenschaft mag es unterschiedliche Ansichten und Interpretationen geben. Das ist normal und Bestandteil vitaler wissenschaftlicher Fortschritte. Allerdings müssen beobachtete/gemessene Fakten immer über Modellanalysen stehen. Im Falle Fidschi haben wir da etwas außerordentlich Aussagekräftiges, nämlich das Korallenwachstum zu Mikro-Atollen – und Korallen lügen nicht.

Wenn der Präsident von COP23, Premierminister der Fidschi-Inseln Frank Bainimarama feststellt, dass „der Klimawandel augenfällig“ ist und dass der „Anstieg des Meeresspiegels ein Faktum ist“, dann bezieht er sich in Wirklichkeit nicht auf wirklich stattfindende Vorgänge auf den Fidschi-Inseln, sondern auf Fake News, getrieben von bestimmten Agenden.

Was Klimawandel betrifft, so sind in Fidschi keinerlei Änderungstrends beobachtet worden. Im Jahre 2016 zog der Wirbelsturm Winston über das Gebiet hinweg und richtete große Schäden an. Allerdings war dies ein Wetterphänomen, nichts anderes. Im langzeitlichen Trend nehmen tropische Zyklone im Pazifik im Zeitraum 1961 bis 2017 weder an Anzahl noch an Stärke zu. Schlussfolgerung: Es gibt keine größere Klimaänderung oder eine Zunahme von Extremwetter im Gebiet der Fidschi-Inseln.

Was Änderungen des Meeresspiegels betrifft, haben Tidenmessungen nicht die Qualität, um als Indikator eines gegenwärtigen Anstiegs des Meeresspiegels herangezogen werden zu können. Küstenerosion ist kein allgemeiner Vorgang auf den Fidschi-Inseln, und wo es doch dazu kommt, kann man nachweisen, dass die Ursache hierfür ein falscher Umgang der Menschen mit der Küste ist. Aufschlussreichere Beweise liefert die Analyse der küstennahen Morphologie und des Korallenwachstums an 12 verschiedenen Stellen auf den Fidschi-Inseln. Der Meeresspiegel ist während der letzten 50 bis 70 Jahre perfekt stabil geblieben. Schlussfolgerung: Alles Gerede um einen rapide steigenden Meeresspiegel bei den Fidschi-Inseln ist nichts weiter als Falschinformation und Fake News.

Dies ließ mich einen „offenen Brief“ an den Präsidenten von COP23, den Premierminister Frank Bainimarama der Fidschi-Inseln schreiben, in welchem ich auf die wirklichen beobachteten Fakten hinwies: Kein Anstieg des Meeresspiegels, sondern dessen absolute Stabilität während der letzten 50 bis 70 Jahre. Auch drängte ich ihn in dem Brief zu „zurück zur Natur“, indem Beweise vor Ort im Mittelpunkt stehen sollten und nicht irgendwelche Modelle und Gedanken, getrieben von politischen und/oder religiösen Agenden.

Link: (https://tallbloke.wordpress.com/2017/11/14/nils-axel-morner-open-letter-to-the-cop23-president/).

Prof. Dr. Nils-Axel Mörner, Geologe & Geophysiker, Spezialist bzgl. Änderungen des Meeresspiegels




Der Nachweis eines menschengemachten Klimawandels ist nicht erbracht. Eine erkenntnistheoretische Kritik

Ab 2020 sollen zunächst die Industrieländer jährlich 100 Milliarden US$ für den Umbau der Energieversorgung, aber auch zur Beseitigung von durch den Klimawandel verursachten Schäden zur Verfügung stellen. Ein Großteil dieser Gelder soll voraussichtlich als privatwirtschaftliche Investitionen in die Entwicklungsländer fließen und nur ein vergleichsweise geringer Anteil aus öffentlichen Quellen für die schon heute notwendige Behebung von klimabedingten Schäden.[2]

Natürlich werden die Politiker der Industrieländer die öffentlichen Gelder nicht aus der eigenen Tasche zahlen, sondern werden die Steuerzahler zur Kasse bitten. Und was die privatwirtschaftlichen Investitionen angeht, bräuchte es kein Abkommen, wenn sie sich bereits heute rechnen würden. Stattdessen werden durch Regulierung und Subventionen Anreize geschaffen, sodass private Produzenten in ihrer Verfügungsfreiheit eingeschränkt und Steuerzahler zur Ader gelassen werden. Zudem fordert der Internationale Währungsfonds eine CO2-Steuer[3], obgleich die Netto-Steuerzahler bereits heute durch Energiesteuern und -umlagen, Kfz-Steuern oder Regulierungsvorschriften beim Wohnungsbau stark belastet werden.

Sollten die Bürger zu dem Schluss gelangen, dass die Politiker keine stichhaltigen Beweise anführen können für diese massiven Eingriffe in ihr Vermögen und ihre Freiheit, wäre das eine Katastrophe für die Politiker und eine Industrie, die mittlerweile nicht mehr von Kunden lebt, sondern sich von Steuergeldern und Regulierung ernährt: Von Windrädern über Elektroautos bis hin zu Leuchtmitteln und Styropor-Wärmedämmplatten – und den Klimakonferenzen selbst.

Auf die wissenschaftliche Methode kommt es an

Will man feststellen, ob es einen Klimawandel gibt, welche Ursachen er hat, welche Konsequenzen er haben wird, und ob man ihn verhindern oder die Konsequenzen abmildern kann, sind verschiedene wissenschaftliche Methoden denkbar: die der Naturwissenschaft, der Ökonomik, der Mathematik, der Logik und der Geschichtswissenschaft. Jeder dieser Wissenschaftszweige hat seine eigene Methode, um Erkenntnisse zu gewinnen.

Da der Gegenstand dieser Untersuchung der Klimawandel ist, ist zunächst mit dem Begriff des Klimas zu beginnen: Das Klima[4] ist das 30-jährige Mittel diverser Wetterwerte wie Temperatur, Windrichtung und -geschwindigtkeit, Luftfeuchtigkeit, Niederschlagsart und -menge, Wolkenbedeckung etc. Es ist kein Rechenprodukt der Anwendung von Formeln, die konstante Relationen angeben, sondern es handelt sich um historische (Durchschnitts-)Daten, die gemessen wurden, es ist: eine Statistik. Der österreichische Ökonom Ludwig von Mises (1881 – 1973) schrieb über statistische Daten:

„Erfahrung ist immer Erfahrung der Vergangenheit. Erfahrung und Geschichte liegen nie in der Zukunft. Diese Binsenweisheit müsste nicht wiederholt werden, wenn es nicht das Problem der Prognosen der Statistiker gäbe …[5] Die Statistik ist die Beschreibung von Phänomenen, die nicht durch regelmäßige Einheitlichkeit gekennzeichnet sind, in Zahlenausdrücken. Soweit es eine erkennbare Regelmäßigkeit in der Abfolge von Phänomenen gibt, ist es nicht nötig, zur Statistik zu greifen. … Statistik ist daher eine spezifische Methode der Geschichtsschreibung. … Sie handelt von der Vergangenheit und nicht von der Zukunft. Wie jede andere Erfahrung von der Vergangenheit kann sie gelegentlich wichtige Dienste bei der Zukunftsplanung leisten, aber sie sagt nichts aus, das direkt für die Zukunft gültig ist.“

Und weiter:

„Es gibt nicht so etwas wie statistische Gesetze. Die Leute greifen zu statistischen Methoden genau deshalb, weil sie nicht in der Lage sind, in der Verkettung und Abfolge von Geschehnissen eine Regelmäßigkeit zu erkennen.“[6]

Wenn eine Statistik zum Beispiel zeigt, dass auf A in 95% der Fälle B folgt und in 5% der Fälle C, heißt das, dass kein vollkommenes Wissen über A vorliegt. A müsste in A1 und A2 zerlegt werden, und wenn sich feststellen ließe, dass auf A1 immer B und auf A2 immer C folgen würde, dann läge vollkommenes Wissen vor.[7]

Naturwissenschaft

Ein naturwissenschaftlicher Beweis kann durch eine Statistik also nicht erbracht werden. Der Grund:

Die Welt der Naturwissenschaften ist das Gebiet, in dem der menschliche Geist durchaus fähig ist, konstante Beziehungen zwischen Elementen zu entdecken.[8] Im Bereich der Physik und der Chemie gibt es … konstante Beziehungen zwischen Größen, und der Mensch ist fähig, diese konstanten Beziehungen mit hinreichender Genauigkeit in Laborexperimenten zu erkennen.[9]

Allerdings betont Mises: Selbst die Naturwissenschaften können keine „exakten“ Ergebnisse liefern. Er schreibt:

Laborexperimente und Beobachtung von äußeren Phänomenen erlauben den Naturwissenschaften Messungen und die Quantifizierung des Wissens. … Heute leugnet niemand mehr, dass wegen der Unzulänglichkeit unserer Sinne Messungen niemals vollkommen und genau in der umfassenden Bedeutung des Begriffs sind. Sie liefern mehr oder weniger genaue Annäherungswerte. Übrigens zeigt die Heisenbergsche Unschärferelation, dass es Beziehungen gibt, die überhaupt nicht mehr gemessen werden können. Es gibt in unserer Beschreibung der Naturphänomene keine quantitative Exaktheit. Doch sind die Näherungswerte, die physikalische und chemische Gegenstände liefern, für die praktischen Zwecke im Großen und Ganzen genügend. Die Welt der Technologie ist eine Welt der annähernden Messung und der annähernden quantitativen Bestimmtheit.[10]

Obwohl selbst die Naturwissenschaften kein sicheres Wissen liefern können, genießen sie doch großes Vertrauen. Zu Recht: Sie haben viele für die Praxis taugliche Erkenntnisse hervorgebracht. Dank der Laborexperimente: Durch sie lassen sich konstante Relationen aufzeigen, sie sind beliebig wiederholbar.

Spezifisches Verstehen

Sofern konstante Relationen – wie bei den Naturwissenschaften – nicht festgestellt werden können, wie etwa bei der Interpretation von Geschichtsdaten oder bei der Voraussage künftiger Ereignisse (also der Geschichte der Zukunft), wenden Menschen die Methoden des spezifischen Verstehens an.

[Verstehen] ist die Methode, die alle Historiker und auch alle anderen Menschen stets anwenden, wenn es um die Interpretation vergangener Ereignisse der Menschheitsgeschichte und um die Voraussage künftiger Ereignisse geht. Die Entdeckung und Abgrenzung des Verstehens war eine der wichtigsten Beiträge der modernen Erkenntnistheorie. … Der Anwendungsbereich von Verstehen ist das geistige Begreifen von Phänomenen, die nicht vollkommen mit den Mitteln der Logik, der Mathematik, der Praxeologie und der Naturwissenschaften aufgeklärt werden können, insoweit sie von diesen Wissenschaften eben nicht erklärt werden können. Es [das Verstehen, A. d. V.] darf den Lehren dieser anderen Bereiche der Wissenschaften [Logik, Naturwissenschaft, Mathematik und Ökonomie] nie widersprechen.[11]

Da Verstehen das Interpretieren historischer Ereignisse ist, kann es niemals Ergebnisse hervorbringen, die von allen Menschen akzeptiert werden (müssten). Selbst wenn zwei Personen völlig darüber übereinstimmen, dass die Daten korrekt sind und ihr Denken nicht den Lehren der anderen Wissenschaften widerspricht, so können sie doch in ihrem Verstehen der Daten zu unterschiedlichen Ergebnissen gelangen. Sie mögen darin übereinstimmen, dass die Faktoren a, b und c allesamt einen Einfluss auf das historische Ereignis E hatten; aber nichtsdestotrotz können sie völlig uneins darüber sein, welche Relevanz diese Faktoren im Hinblick auf das Ereignis hatten. Soweit Verstehen darauf abzielt, jedem der Faktoren eine Relevanz beizumessen, steht es unter dem Einfluss subjektiver Bewertung. Dabei handelt es sich nicht um Werturteile, sie drücken keine Präferenzen aus, es handelt sich um Relevanzurteile.[12] Neben den Historikern verwenden auch die Psychologen oder die Ethnologen die Methode des spezifischen Verstehens, sofern sie sich mit der Interpretation historischer Daten menschlichen Verhaltens befassen.[13]

Verstehen ist also die Methode, die sich mit dem Begreifen komplexer Phänomene befasst und mit der Voraussage der Zukunft in komplexen Systemen. Die Daten, die von komplexen Phänomenen gewonnen werden, können jedoch niemals eine Theorie beweisen oder widerlegen.[14] In den Naturwissenschaften und in der Naturgeschichte hat Verstehen an sich nichts zu suchen.[15] Die Methode der Naturwissenschaften ist die Überprüfung von konstanten Relationen durch Experimente.

Ist Klima-Prognose eine Naturwissenschaft?

Die erste Frage, die sich stellt, lautet also: Womit haben wir es bei der Klimaforschung zu tun? Mit der Naturwissenschaft? Oder mit Prognosen, die unter Zuhilfenahme der Methode des Verstehens erstellt werden? Schauen wir uns dazu an, was in der Klimaforschung passiert.

Die direkte Wirkung von CO2 in einem geschlossenen System in Bezug auf die Temperatur ist wohl etablierte Physik, die auf Labor-Ergebnissen basiert und angeblich seit über einem Jahrhundert bekannt ist.[16] Soweit es um diese Laborerkenntnis geht, dürfen wir also von „harter“ Naturwissenschaft sprechen. Die Erde ist aber kein geschlossenes System. Es leben auf ihr „Verbrenner“[17], also Menschen und Tiere, die CO2 emittieren, und es gibt Pflanzen, die – um im Bild zu bleiben – sozusagen den Gegenprozess der Verbrennung betreiben: Vermittels Photosynthese bauen sie ihre körperliche Struktur aus dem in der Luft vorhandenen CO2 auf und nutzen hierzu die Energie des Sonnenlichts und emittieren Sauerstoff.

So geht denn auch die US-Behörde NASA (National Aeronautics and Space Administration) davon aus, dass eine Zunahme an CO2 in der Atmosphäre zu einem vermehrten Pflanzenwachstum führte.[18]Andere, die Temperatur und das Wetter beeinflussende Faktoren sind zum Beispiel: Sonnenaktivität, Luftfeuchte, Wolkenbedeckung oder Niederschlag. Während es also innerhalb eines Laborexperiments naturwissenschaftlich korrekt wäre, zu sagen, ein erhöhter CO2-Ausstoß führt zu einer Zunahme der Temperatur, handelt es sich bei einer Aussage über ein komplexes System mit Rückkopplungen (Feedback), das nicht durch konstante Relationen beschrieben werden kann, nicht mehr um eine naturwissenschaftliche Aussage, sondern um eine Prognose, bei der die Methode des Verstehensangewendet wird.

Gäbe es beim Klima, das ja das Resultat von Durchschnitten des Wetters ist, konstante Relationen, so müsste ja auch das Wetter über einen längeren Zeitraum exakt vorausgesagt werden können. Aber jeder von uns weiß aus persönlicher Erfahrung, dass das Wetter nur über sehr kurze Zeiträume und auch nicht immer sehr exakt vorausgesagt werden kann. Was die Klima-Wissenschaftler des IPCC (Intergovernmental Panel on Climate Change, sogenannter Weltklimarat) tun, ist, dass sie Relevanzurteile abgeben, wie dies Historiker tun oder Alltagsmenschen bei ihrer Einschätzung der Zukunft: Da ihnen die konstanten Relationen nicht bekannt sind, geben sie Relevanzurteile ab. Die Klima-Wissenschaftler wissen, dass die Faktoren Temperatur, CO2, Wolkenbildung, Sonnenaktivität, Luftfeuchte etc. zusammenwirken und so die Daten hervorbringen, die sie später in ihrer Statistik Klima nennen, ihnen sind jedoch konstante Relationen des Zusammenwirkens dieser Faktoren unbekannt. Sie können sie nur anhand von Modellen einschätzen.

Klimaforschung kann die Methoden der Naturwissenschaften anwenden, insoweit es möglich ist, hinsichtlich einzelner Phänomene in Laborexperimenten konstante Relationen festzustellen, aber hinsichtlich des Gesamt-Phänomens Erd-Klima nicht, weil es sich um ein komplexes Phänomen mit Rückkoppelungen handelt. Ein Klima-Modell kann niemals durch ein Laborexperiment überprüft werden. Diese Unsicherheit oder dieses Abweichen von der naturwissenschaftlichen Methode der Überprüfung im Experiment und der daraus folgenden Sicherheit wird auch mehr oder weniger unumwunden zugegeben: „Das Erdsystem ist in seiner Komplexität am oberen Ende des Spektrums hinsichtlich Nichtlinearität und Freiheitsgraden angesiedelt.“[19]

So verwundert es auch nicht, dass die Klimaforscher ihre Modelle ständig korrigieren. In den Modellen probieren sie aus, den verschiedenen klimarelevanten Faktoren unterschiedliche Relevanz beizumessen. Diese Modelle werden dann daran überprüft, ob sie Klima-Phänomene der Vergangenheit erklären können beziehungsweise, wenn genug Zeit vergangen ist, ob sie Klima-Phänomene voraussagen konnten. Bislang ist dies nicht gut gelungen, wie das nachfolgende Beispiel zeigt. „Wir haben die schnelle Erwärmung nach dem Jahr 2000, die wir in den Modellen sehen, in der Realität nicht beobachten können“, zitiert die Schweizer Weltwoche in ihrer 39. Ausgabe den Klimawissenschaftler Myles Allen von der University of Oxford, einen Mitautor einer Studie, die im Fachmagazin Nature Geoscience publiziert wurde.

Die Computermodelle lägen falsch, weil grundlegende klimatische Zusammenhänge in der Atmosphäre nicht bekannt gewesen oder nicht verstanden worden seien. Die Wissenschaftler seien nunmehr zu dem Schluss gekommen, dass die Menschheit weit mehr CO2 als bisher angenommen ausstoßen dürfe, bis sich die Erde mutmaßlich um 1,5 Grad erwärmt, und zwar fast viermal (!) mehr. Während die Partei der Klimaskeptiker dies als weiteren Beleg für einen Fehler der Klima-Alarmisten sieht, interpretiert der Studien Co-Autor Pierre Friedlingstein das Ergebnis als eine wirklich gute Nachricht. Denn ohne die Verlangsamung wäre das Vorhaben, die Erwärmung auf 1,5 Grad zu begrenzen, wohl unrealistisch gewesen, meint er.

Aber selbst wenn die Klimaforscher ihre Modelle ständig verbessern, wie wir bereits oben gesagt haben: Die Daten, die von komplexen Phänomenen gewonnen werden, können niemals eine Theorie beweisen oder widerlegen.[20] Selbst wenn die Modelle immer besser würden, also immer mehr durch gemessene Daten bestätigt, würde ebenso wenig Naturwissenschaft angewendet wie etwa Kopernikus oder Keppler Naturwissenschaft anwendeten, als sie die Umlaufbahn der Erde zunächst in der Kreisform und dann der Ellipse beschrieben. Die Geschichte der Astronomie als harte Naturwissenschaft begann erst mit den von Newton formulierten Gesetzmäßigkeiten, die der Überprüfung durch Laborexperimente standhielten.[21]

Und so ist es nicht verwunderlich, wenn die NASA auf ihrer Homepage meint, dass sich die IPCC Wissenschaftler nicht sicher seien, ob die menschliche Aktivität in den vergangenen 50 Jahren zu einem Temperaturanstieg des Weltklimas geführt habe. Die Wissenschaftler würden aber die Wahrscheinlichkeithierfür bei über 95% sehen.[22] Daraus glaubt man, schlussfolgern zu können, dass auch in Zukunft menschliche Aktivität für den Temperaturanstieg ursächlich sein wird – und der Temperaturanstieg durch menschliches Verhalten veränderbar ist. Im Einzelnen wird die Quantifizierung der Wahrscheinlichkeit durch das IPCC wie folgt beschrieben: „Die Wahrscheinlichkeit eines Ergebnisses bewertet, wie wahrscheinlich es ist, dass dieses Ergebnis eintritt. Sie wird in einer sprachlich kalibrierten Skala angegeben, welche auf quantifizierten Wahrscheinlichkeiten beruht. … Grundlage dieser Quantifizierung können Berechnungen auf Grundlage von in-situ-Daten, Satellitendaten oder Simulationen oder Auswertung von Experteninterviews sein.“[23]

Klima-Prognose ist eine Interpretation historischer Daten

Da wir nun wissen, dass sich die Klimaforschung der Methode des spezifischen Verstehens bedient, können wir verstehen, wieso keine sicheren Voraussagen möglich sind. Und wir wissen, dass das Verstehen nie den Lehren der anderen Wissensbereiche (Logik, Naturwissenschaft, Mathematik und Ökonomie) widersprechen darf. Deshalb können wir nun auch überprüfen, ob die Aussage des IPCC, dass mit einer Wahrscheinlichkeit von über 95% der Mensch ursächlich für die Erwärmung der letzten 50 Jahre sei, den Lehren anderer Wissenschaftsbereiche widerspricht.

Was sagen Wahrscheinlichkeits-Angaben aus?

Bei den 95% handelt es sich um die Angabe einer Wahrscheinlichkeit, und über Wahrscheinlichkeiten stehen uns Erkenntnisse aus der Logik und der Mathematik zur Verfügung. Es gibt grundsätzlich zwei Arten von Wahrscheinlichkeiten: Klassen-Wahrscheinlichkeit („Class Probability“) und Einzelfall-Wahrscheinlichkeit („Case Probability“)

Klassen-Wahrscheinlichkeit

Im Falle der Klassen-Wahrscheinlichkeit wissen wir im Hinblick auf den Untersuchungsgegenstand alles über das Verhalten einer ganzen Klasse von Ereignissen, aber über ein konkretes, einzelnes Ereignis wissen wir nichts, außer dass es zu dieser Klasse gehört.[24] Wir kennen den Ereignisraum, also alle Ereignisse, die geschehen können, es ist uns aber nicht möglich, eine Voraussage über ein konkretes, einzelnes Ereignis zu machen. Berühmtes Beispiel ist der Würfel-Wurf: Wir wissen, dass nur Würfe von eins bis sechs möglich sind, können bei einem konkreten Wurf aber nichts voraussagen, außer dass er innerhalb dieser Klasse von eins bis sechs liegen wird.

Die Wahrscheinlichkeitsrechnung bietet uns eine Möglichkeit, diese Form von unzureichendem Wissen in Symbolen der mathematischen Terminologie auszudrücken, jedoch ohne dass sie unser Wissen über das Phänomen vertiefen oder ergänzen würde. Es handelt sich dabei lediglich um eine Übersetzung in die Sprache der Mathematik. Die Wahrscheinlichkeitsrechnung wiederholt in algebraischer Sprache, was wir vorher schon wussten:[25] Es wird eine Zahl von eins bis sechs gewürfelt werden, wir wissen aber nicht, welche genau. Ludwig von Mises sagte deshalb, dass der große Mathematiker Blaise Pascal (1623 – 1662) seinem Zeitgenossen Chevalier de Méré (1607 – 1684) einen großen Gefallen getan hätte, wenn er ihn nach Hause geschickt hätte, als de Méré mit einem Würfelspielproblem zu Pascal kam. Pascal hätte freiweg zugegeben sollen, dass die Mathematik ihm bei seinem Würfelspielproblem nicht weiterhelfen kann, als dass sie ihm das in mathematischen Symbolen beschreibt, was er vorher auch schon wusste.[26]

Nicht zu verwechseln ist die Klassen-Wahrscheinlichkeit mit der relativen Häufigkeit. Bei der relativen Häufigkeit handelt es sich nicht wie bei der Klassen-Wahrscheinlichkeit um die mathematische Formulierung unvollständigen Wissens in Bezug auf ein Phänomen, bei dem wir bereits vorher theoretisch und a priori das Verhalten einer ganzen Klasse von Ereignissen kennen, aber nichts über ein einzelnes Ereignis wissen, außer dass es Teil der Klasse ist. Sondern es handelt sich bei der relativen Häufigkeit um eine Aufzeichnung von Daten und Ins-Verhältnis-Setzen: Wenn Sie 100 mal einen Würfel werfen, und sie würfeln 26 mal die sechs, so würde in der Mathematik die Wahrscheinlichkeit dennoch nicht mit der relativen Häufigkeit von 26% angegeben, sondern weiterhin mit 1/6 (ca. 16,7%).[27] Die relative Häufigkeit ist das Ergebnis der Aufzeichnung und Auswertung historischer Daten und hat insofern nichts zu tun mit der Klassen-Wahrscheinlichkeit.

Einzelfall-Wahrscheinlichkeit

Bei der Einzelfall-Wahrscheinlichkeit kennen wir im Hinblick auf ein konkretes Ereignis in der Zukunft einige beeinflussende Faktoren, aber es gibt andere Faktoren, die wir nicht kennen oder über deren Auswirkungen wir nicht genau Bescheid wissen.[28] Ein gutes Beispiel ist, wenn sie das Ergebnis eines Fußball-Spieles voraussagen wollen. Verstehen basiert immer auf unvollständigem Wissen. Sie, verehrte Leser, kennen im Fußballsport einige Einfluss nehmende Faktoren (Leistung einzelner Spieler, Heimspiel oder Auswärtsspiel, Ergebnisse vergangener Partien), aber sie können unmöglich alle Faktoren kennen, die Einfluss auf das Ergebnis haben, oder welche Relevanz die Spielstärke eines bestimmten Spielers bei der kommenden Partie haben wird. Sie können sich unmöglich im Vorhinein sicher sein, dass sie sich nicht bezüglich der Relevanz eines der Einflussfaktoren geirrt haben, oder dass sie nicht einige Faktoren, die im Nachhinein eine Rolle gespielt haben (der Schiedsrichter hatte einen schlechten Tag), übersehen haben.

Einzelfall-Wahrscheinlichkeit hat mit der Klassen-Wahrscheinlichkeit nichts gemeinsam, außer dass es sich bei beiden um Formen des unvollständigen, lückenhaften Wissens handelt. Bei der Einzelfall-Wahrscheinlichkeit ist ein numerischer Ausdruck nicht möglich. Sie können nicht sagen, die Fußballmannschaft A wird die Partie mit einer Wahrscheinlichkeit von 95% gewinnen, weil sie es nicht berechnen können. Wenn jemand sagt, er sei der Meinung, ein Fußballspiel gehe zu 95% für die Fußballmannschaft A aus, dann hat er das nicht berechnet, sondern er bedient sich einer Metapher: Er vergleicht die Gewinnchancen der Fußballmannschaft A mit den Gewinnchancen eines Teilnehmers an einem Lotteriespiel, der 95 von 100 Losen hält und bei dem eines der 100 Lose gewinnt. Er ist der Meinung, dass in einem solchen Fall die 95% uns etwas Substantielles über den Ausgang des einen Einzelfalles sagen könnte, den er gerade betrachtet. (Dass dies nicht der Fall ist, braucht nicht wiederholt zu werden.)[29]

Auch in der Naturwissenschaft verbietet es sich im Übrigen, eine Wahrscheinlichkeit über die mögliche Richtigkeit einer Hypothese anzugeben. Naturwissenschaftliche Hypothesen sind stets vorläufige Aussagen.[30] Alles, was über sie gesagt werden kann, ist, ob die Hypothesen mit logischen Prinzipien und den Ergebnissen von Experimenten übereinstimmen oder nicht. Sie erweisen sich dann entweder als falsch oder als nicht-falsch (nach dem heutigen Stand der Erfahrungen).

Die 95%-Aussage des IPCC

Bei der 95%-Aussage[31] des IPCC handelt es sich nicht um (Klassen-)Wahrscheinlichkeit. Denn die mathematische (Klassen-)Wahrscheinlichkeit ist, wie oben gezeigt wurde, ein theoretisches Konzept, bei dem uns von vornherein das Verhalten der ganzen Klasse von Ereignissen bekannt ist, wir bezüglich des in-Frage-stehenden Ereignisses aber nichts wissen, außer dass es Teil dieser Klasse ist. Die (Klassen-)Wahrscheinlichkeit ist auch keine Prognose der relativen Häufigkeit und schon gar keine Voraussage eines Einzelfalles. Mit historischen Daten kann eine Wahrscheinlichkeit nicht formuliert werden, sondern höchstens eine relative Häufigkeit ermittelt werden.

Zwar konvergiert die relative Häufigkeit (bei unendlich vielen Daten) gegen die (Klassen-)Wahrscheinlichkeit. Letztere können wir aber nur wissen, wenn wir die (Klassen-)Wahrscheinlichkeit vorher schon kennen, und das wiederum können wir nur in dem Falle, in dem wir bereits vorher alles über das Verhalten einer ganzen Klasse von Ereignissen wissen. Fehlt uns dieses Wissen, kann die relative Häufigkeit bestenfalls einen Trend anzeigen, aber keine Wahrscheinlichkeit. Die Geschichte lehrt uns aber, dass sich Trends, die sich in der Vergangenheit zeigten, ändern können, oft oder fast immer änderten und sogar in unmittelbarer Zukunft ändern können.[32]

Bei der 95%-Aussage des IPCC handelt es sich um die Angabe einer Einzelfall-Wahrscheinlichkeit auf Grund gemessener Daten. Dem IPCC sind im Hinblick auf den Klimawandel einige beeinflussende Faktoren bekannt, aber es gibt andere Faktoren, die es nicht kennt, oder über deren Auswirkungen es nicht genau Bescheid weiß.[33] Oben wurde bereits gezeigt, dass sich im Falle der Einzelfall-Wahrscheinlichkeit die Verwendung von Zahlenausdrücken verbietet.[34] Bei der 95%-Aussage handelt es sich also nicht um einen mathematischen Ausdruck für eine (Klassen-)Wahrscheinlichkeit, sondern um eine schwache intuitive Analogie, eine Metapher: Das IPCC meint, dass es sich im Hinblick auf seine These vom menschengemachten Klimawandel so sicher ist, wie sich ein Lotterieteilnehmer sicher sein würde, der über 95% der Lose verfügt. Aber auch hierzu haben wir bereits oben gezeigt, dass uns – selbst im Falle der Klassen-Wahrscheinlichkeit – diese 95% nichts Substanzielles über einen betrachteten Einzelfall sagen können, außer dass wir nicht sicher sind, ob das Gewinnerlos dabei ist.

Im Übrigen mögen die 95% manchen an den juristischen Terminus erinnern, dass jemand mit „an Sicherheit grenzender Wahrscheinlichkeit“ von einem gewissen Sachverhalt überzeugt sei. Aber an Sicherheit grenzende Wahrscheinlichkeit bedeutet, dass es „keine vernünftigen Zweifel“ mehr geben darf. Verfügt jemand aber über 95 von 100 Losen, so sind durchaus vernünftige Zweifel angebracht, ob das Gewinnerlos dabei ist! Um in der Metapher zu bleiben: Würden Richter sich mit 95% Sicherheit zufriedengeben, würde einer von 20 Verurteilten zu Unrecht im Gefängnis sitzen. Und würden Sie eine Fluggesellschaft als „sicher“ bezeichnen, bei der bei einem von 20 Flügen ein Flugzeug abstürzt?[35]

Als Ergebnis der bisherigen Untersuchung können wir festhalten: Die Klimaforscher wenden im Hinblick auf Klima-Historie, -Prognosen und -Modelle nicht die Methoden der Naturwissenschaft an, sondern die Methode des Verstehens komplexer Phänomene.[36] Zu einer sicheren Voraussage können sie damit nicht gelangen. Und wir wissen weiter, dass sich die Wissenschaftler mit ihrer Zu-95%-sicher-Aussage in einen eklatanten Widerspruch zu Denkgesetzen begeben. Die Anwendung des mathematischen Ausdruckes ist falsch, weil es sich hier um keinen Fall der Klassen-Wahrscheinlichkeit handelt. Im Bereich des Verstehens ist die Aussage falsch, weil die Einzelfall-Wahrscheinlichkeit denklogisch keine numerischen Ausdrücke zulassen kann, weil man sie nicht berechnen kann.

Klimaleugner und Klimasünder sind keine wissenschaftlichen Begriffe; sie dienen dem politischen Meinungskampf

Durch die Zuordnung der Klimawissenschaft zum Verstehen wird nun auch klar, warum ein so reger Streit herrscht um den menschengemachten Klimawandel. Es werden unwissenschaftliche Begriffe verwendet, die aus den Bereichen der Moral stammen – wie „Klimaleugner“ oder „Klimasünder“. Oder haben Sie schon einmal davon gehört, dass im naturwissenschaftlichen Diskurs Einstein als „Zeitleugner“ oder „Schwerkraftsünder“ bezeichnet wurde? Von Seiten der Klima-Alarmisten möchte man sich jeder weiteren wissenschaftlichen Diskussion versperren, und die Seite der „Klimaskeptiker“ erprobt sich ständig darin, die Annahmen der Klima-Alarmisten zu falsifizieren.

Im Bereich des Verstehens kann es keine einzig richtige Aussage geben

Da wir nun aber wissen, dass die Prognosen der Klimawissenschaftler zum Bereich des spezifischen Verstehens gehören, können wir ganz gelassen anerkennen, dass zwei Klimawissenschaftler im Hinblick auf die Daten völlig übereinstimmen können und auch im Hinblick darauf, dass die Relevanz, die sie gewissen Einflussfaktoren beimessen, weder naturgesetzlichen noch mathematischen oder logischen Regeln widersprechen, und dass sie trotzdem zu unterschiedlichen Prognosen gelangen können. Ebenso kann ein und derselbe Klimawissenschaftler zu zwei verschiedenen Zeitpunkten zu unterschiedlichen Ergebnissen gelangen, ohne sich selbst in Widerspruch zu begeben.

Die wirtschaftlichen Prognosen des Weltklimarates

Soweit es um die Klimadaten geht, haben wir also für Klarheit gesorgt. Aber wie sieht es mit den wirtschaftlichen Prognosen aus? In einem auf der IPCC-Webseite veröffentlichten Report beschäftigen sich die Autoren mit den Auswirkungen des Klimawandels auf das Bruttoinlandsprodukt.[37] Berühmtheit erlangt hat der Stern-Report des britischen Wissenschaftlers Nicolas Stern, der im Kern aussagt, dass der Klimawandel jährlich rund 5% des Welt-BIPs (also der Summe aller BIPs) kosten wird, wohingegen er die Kosten des Gegensteuerns mit 2% jährlich ansetzt.[38]

Der britische Wissenschafts-Journalist Matt Ridley kritisiert Sterns Bericht, weil Stern bei der Berechnung der Auswirkungen des Klimawandels sehr niedrige Zinssätze bei der Abzinsung verwende und so zu sehr hohen Zukunftswerten von Schäden beziehungsweise Kosten komme. Zudem kritisiert Ridley, dass der Stern-Report von einem sehr hohen Lebensstandard unserer Enkelkinder in der Zukunft ausgeht. Und auch die IPCC Szenarien sähen vor, dass die Menschen im Jahr 2100 auf so viel Wirtschaftswachstum zurückblicken würden, dass ihr Wohlstand im Durchschnitt vier bis 18-mal so hoch sein würde wie heute.[39] Diese Prognosen des Wirtschaftswachstums beeinflussen freilich auch die Prognose der Kosten von Schäden und der künftigen CO2-Emissionen.

Wer hat nun Recht? Nicolas Stern und das IPCC oder Matt Ridley? Um die Antwort zu finden, lassen Sie uns zunächst mit der Frage beginnen: Was ist überhaupt das BIP? Das Statistische Bundesamt weiß:

„Das Bruttoinlandsprodukt (BIP) ist ein Maß für die wirtschaftliche Leistung einer Volkswirtschaft in einem bestimmten Zeitraum. Es misst den Wert der im Inland hergestellten Waren und Dienstleistungen (Wertschöpfung), soweit diese nicht als Vorleistungen für die Produktion anderer Waren und Dienstleistungen verwendet werden.“

Wert kann nicht gemessen werden

Das BIP misst also angeblich den Wert von Waren und Dienstleistungen in einer Volkswirtschaft. Alleine: Wert kann nicht gemessen werden. Mises schreibt dazu:

Wert ist nicht intrinsisch, Wert ist nicht in Dingen. Er ist in uns; es ist die Art und Weise wie der Mensch auf die Bedingungen der Umwelt reagiert.[40] … Werten heißt A gegenüber B vorziehen. … Ebenso wie es keinen Standard und keine Messung von sexueller Liebe, von Freundschaft oder von Sympathie oder ästhetischem Genuss gibt, gibt es keine Messung des Wertes von Handelsgütern. … Es gibt keine Methode, eine Wert-Einheit zu schaffen. … In einer Marktwirtschaft gibt es Geldpreise. Wirtschaftsrechnung ist Rechnung in Form von Geldpreisen. Die unterschiedlichen Mengen der Güter und Dienstleistungen gehen in diese Wirtschaftsrechnung mit den Geldpreisen ein, für die sie am Markt gekauft und verkauft werden können … .[41]

Wenn man Wert aber nicht messen kann, was ist dann vom BIP zu halten? Dazu sei erneut Mises zitiert:

Es ist möglich, die Summe des Einkommens oder Vermögens mehrerer Personen in Geldpreisen auszudrücken. Aber es ist Unsinn, ein National-Einkommen oder Volks-Vermögen zu berechnen. Sobald wir beginnen, Erwägungen anzustellen, die einem Menschen fremd sind, der innerhalb der Marktwirtschaft handelt, hilft uns Geldrechnung nicht mehr weiter. … Wenn in einer Wirtschaftsrechnung ein Vorrat von Kartoffeln mit 100 US$ bewertet wird, ist die Idee, die dahintersteckt, dass man diesen Vorrat für diesen Preis verkaufen oder ersetzen kann. … Aber was ist die Bedeutung einer Berechnung des Volksvermögens? Was ist die Bedeutung des Ergebnisses der Berechnung? Was muss in eine solche Berechnung einfließen und was muss außen vorgelassen werden? Wäre es falsch oder richtig, den „Wert“ des Klimas des Landes einfließen zu lassen oder die angeborenen und erworbenen Befähigungen der Bewohner? Der Kaufmann kann seine Güter in Geld eintauschen, aber ein Volk kann das nicht.

Die Geld-Ausdrücke wie sie beim Handel und in der Wirtschaftsrechnung Verwendung finden, sind Geldpreise, das heißt Umtauschkurse zwischen Geld und anderen Gütern und Dienstleistungen. Preise werden nicht in Geld gemessen; Preise bestehen aus Geld. Preise sind entweder Preise der Vergangenheit oder erwartete Preise in der Zukunft. Ein Preis ist notwendigerweise ein historisches Datum, entweder der Vergangenheit oder der Zukunft. Es ist nichts an Preisen, das es erlauben würde, sie für die Messung von physikalischen oder chemischen Phänomenen heranzuziehen.[42]

Es ist also sinnlos, wenn Sie ihr Vermögen und das Ihres Nachbarn, das ein jeder für sich in Geldpreisen errechnet hat, addieren, wenn Sie nicht vorhaben, gemeinsam am Markt zu handeln. Sie können Wohlstand nicht messen. Einem Italiener mögen sein mildes Klima und die gute Landesküche sehr viel wert sein, aber wie wollen Sie dies in eine ökonomische Kalkulation einfließen lassen? Natürlich werden die meisten Menschen darin übereinstimmen, dass der Wohlstand heute größer ist als noch vor 100 Jahren. Es gibt mehr Kapitalgüter (Fabriken, technische Anlagen, Minen, Elektrizitätswerke), und es stehen vielen Menschen viel mehr Konsumgüter (Autos, Wohnungen, Lebensmittel, Frisörbesuche etc.) zur Verfügung als damals. Alleine, sie können diese Wohlstandszunahme nicht numerisch messen und unterschiedliche Menschen bewerten wirtschaftlichen Fortschritt unterschiedlich. So mag dem zurückgezogenen Bio-Bauern der Bau einer neuen Autobahn ein Unwert sein, während der Pendler, der die Autobahn nutzen möchte, sie durchaus als Wert ansieht. Und auch ein und derselbe Mensch kann ein und denselben Gegenstand zu unterschiedlichen Zeitpunkten unterschiedlich bewerten.

Der nächste Begriff, den uns das statistische Bundesamt bei seiner Beschreibung des BIP zuwirft, ist der Begriff der Volkswirtschaft. Aber bei der Volkswirtschaft handelt es sich lediglich um eine theoretische Fiktion, die im Widerspruch zu den Lehren der Ökonomik steht:

„Die Marktwirtschaft als solche respektiert keine politischen Grenzen. Ihr Bereich ist die Welt.[43]… Es ist nicht „Amerika“, das Champagner von „Frankreich“ kauft. Es handelt sich immer um einen individuellen Amerikaner der ihn von einem individuellen Franzosen kauft. … Solange es noch Handlungsspielräume für Individuen gibt, soweit es privaten Besitz und Handel mit Gütern und Dienstleistungen gibt, gibt es keine Volkswirtschaft. Nur wenn es eine völlige Regierungskontrolle anstelle der Wahlmöglichkeiten der Individuen gibt, gibt es eine Volkswirtschaft als reale Einheit.“[44]

Von Preisänderungen kann nicht auf Kaufkraftänderungen geschlossen werden

Ein weiteres Problem besteht darin, dass sich die Wissenschaftler bei BIP-Prognosen mit der Kaufkraft von Geld befassen. Ihre Berechnungen seien inflations- oder kaufkraftbereinigt. Alleine, das ist ökonomisch gesehen nicht möglich.

„Alle Methoden, die vorgeschlagen werden, um die Änderungen der Kaufkraft einer Geldeinheit zu messen, basieren, mehr oder weniger unbeabsichtigt, auf der illusorischen Einbildung eines unsterblichen und unveränderbaren Wesens, das vermittels eines unabänderlichen Standards die Menge der Befriedigung festlegt, die ihm eine Geldeinheit bringt. … Nur wenn Menschen die gleichen Dinge immer gleich bewerten würden, könnten wir Preisänderungen als einen Ausdruck der Änderung der Kaufkraft des Geldes ansehen.“[45]

Wenn das IPCC oder der Stern-Report die Kosten des Klimawandels also im Hinblick darauf errechnen, welche Werte künftige Schäden, künftige Einkommen oder künftige Aggregate von BIPs haben werden, können wir im Hinblick auf diese Berechnungen sagen, dass sie im Widerspruch zu den Lehren der Ökonomik stehen, dass man Wert nicht messen kann, dass es eine Volkswirtschaft im ökonomischen Sinne nicht gibt, und dass es daher auch widersinnig ist, das Aggregat der BIPs zu bilden, um eine Welt-Wirtschaftsleistung zu berechnen. Die Berechnungen des IPCC sind also insofern als falsch zu bezeichnen, weil sie den Lehren der Ökonomik widersprechen. Freilich könnte man – im Rahmen des Verstehens – Schäden oder die Kosten von Maßnahmen zu deren Verhinderung anhand von heutigen Marktpreisen schätzen, und man könnte auch schätzen, wie die Marktpreise von Schäden oder Maßnahmen zu deren Verhinderung in der Zukunft sein werden. Man kann solche Geldpreise von Schäden und Maßnahmen zu deren Verhinderung aber eben nicht ökonomisch berechnen, Kaufkraft nicht messen, und die Angabe von Schäden und Kosten im Verhältnis zu einem BIP kann keinen Sinn machen, wenn das BIP keinen Sinn macht.

Die IPCC Annahmen widersprechen den Lehren der Ökonomie und Denkgesetzen

Zusammenfassend können wir sagen, dass die Wissenschaftler des IPCC auf Grund historischer Daten und bekannter naturwissenschaftlicher Relationen vermuten, dass die Menschen durch die Emission von CO2 zu einem Klimawandel beigetragen haben. Sicher sind sie sich nicht. Sie meinen auch, dass durch den Klimawandel Schäden entstehen können; die Werte, die die Menschen diesen Schäden beimessen und beimessen werden, können sie aber nicht berechnen. Sie sind zudem der Ansicht, dass diese Schäden, wenn nicht verhindert, so doch abgemildert werden könnten. Sicher können sie sich auch hier nicht sein, wenn sie sich schon unsicher darüber sind, ob der Mensch ursächlich zum Klimawandel beigetragen hat. Und sofern Wissenschaftler Zwangsabgaben und Regulierung vorschlagen, also staatliche Ge- und Verbote, um die als möglich und abwendbar angesehenen Schäden zu verhindern oder abzumildern, ist dies im Übrigen eine ethische Wertung, die natürlich nicht wissenschaftlich ist, sondern lediglich etwas über die Einstellungen der Wissenschaftler zu Zwangsmaßnahmen aussagt.

Zwangsabgaben und Regulierung gegen Bürger sind auf Grund der Annahmen der IPCC-Wissenschaftler nicht gerechtfertigt

Wie also mit dem Problem umgehen? Der Ökonom Murray Rothbard (1926 – 1995) meinte:[46]

Wenn eine Partei einer anderen durch eine Handlung [wie etwa die Emission von CO2] einen Schaden zufügt, und wenn dies vor Gericht oder in einem Schiedsgerichtsverfahren mit an Sicherheit grenzender Wahrscheinlichkeit bewiesen werden kann, dann stünden der geschädigten Partei Abwehr- und Schadensersatzansprüche zu. Es dürften aber keine vernünftigen Zweifel mehr verbleiben, dass das Verhalten des Schädigers den Schaden bewirkt hat. Wenn nicht alle vernünftigen Zweifel ausgeräumt werden können, ist es jedoch bei Weitem besser, einen Schädiger nicht zu verurteilen, anstatt unsererseits jemandem absichtlich Schaden zuzufügen. Der Grundsatz des Hippokratischen Eides: ‚tue zumindest niemandem ein Leid an‘, muss auch für jeden gelten, der Recht anwendet oder vollzieht.

Es ist aber gerade nicht so, dass das IPCC oder die NASA einen menschengemachten Klimawandel mit an Sicherheit grenzender Wahrscheinlichkeit nachweisen können. Die Angabe einer numerischen Wahrscheinlichkeit widerspricht Denkgesetzen: Die metaphorisch mit 95% angegebene Sicherheit könnte in keinem gerichtlichen Verfahren als Kausalitäts-Beweis dienen; man gelangte schon gar nicht zu der Frage, ob vernünftige Zweifel verblieben, weil der Beweisbelastete schon nach eigener Aussage vorbringt, dass gewichtige Zweifel bestehen.

Die Berechnung der voraussichtlichen Schadenshöhe und der Kosten der Gefahrenabwehr hätten sich die Wissenschaftler des IPCC daher sparen können. Da sie aber nun einmal durchgeführt wurden, können wir hierzu sagen, dass die Berechnungen im Widerspruch zu den Gesetzen der Ökonomik stehen und deshalb falsch sind.

Die Ergebnisse der Klimaforschung können eine Besteuerung von Bürgern daher nicht rechtfertigen. Damit den Bürgern kein weiterer Schaden entsteht, wären die bestehenden Steuern und Subventionen, die mit dem menschengemachten Klimawandel begründet wurden, umgehend abzuschaffen. Und keinesfalls können Steuererhöhungen, neue Steuern oder neue Subventionen gerechtfertigt werden.

[1] bmub/weltklimakonferenz-2017-in-bonn/
[2] https://de.wikipedia.org/wiki/%C3%9Cbereinkommen_von_Paris
[3] http://www.imf.org/external/pubs/ft/sdn/2016/sdn1601.pdf
[4] https://de.wikipedia.org/wiki/Klima#Definition_des_Klimas
[5] Ludwig von Mises, Die Letztbegründung der Ökonomik (2016), S. 69.
[6] A.a.O., S. 81 f.
[7] Vgl. a.a.O., S. 82.
[8] A.a.O., S. 83.
[9] Ludwig von Mises, Human Action (1949), pg. 55.
[10] Die Letztbegründung der Ökonomik, S. 91.
[11] Human Action, pg. 50.
[12] Diese Passage ist teilweise eine recht freie Übersetzung einer Passage aus Human Action, pg. 57.
[13] Vgl. a.a.O., pg. 50.
[14] Vgl. a.a.O., pg. 51.
[15] Vgl. a.a.O., pg. 58.
[16] Vgl.: https://mises.org/library/skeptics-case; vgl. auch: https://www.youtube.com/watch?v=kwtt51gvaJQ
[17] Sogenannte aerobe Atmung.
[18] https://climate.nasa.gov/causes/
[19] https://de.wikipedia.org/wiki/Behandlung_von_Unsicherheit_im_IPCC-Prozess#cite_note-1
[20] Vgl. a.a.O., pg. 51.
[21] Vgl. a.a.O., pg. 58 f.
[22] https://climate.nasa.gov/evidence/
[23] https://de.wikipedia.org/wiki/Behandlung_von_Unsicherheit_im_IPCC-Prozess
[24] Vgl. a.a.O., pg. 107.
[25] A.a.O., pg. 108.
[26] A.a.O., pg. 106.
[27] Bei unendlich vielen Würfelwürfen würde die relative Häufigkeit allerdings fast sicher gegen die Wahrscheinlichkeit konvergieren, wie Bernoulli beobachtet hat und wie dies später auch in der Wahrscheinlichkeitstheorie mathematisch formuliert wurde, vgl. https://de.wikipedia.org/wiki/Gesetz_der_gro%C3%9Fen_Zahlen#Schwaches_Gesetz_f.C3.BCr_relative_H.C3.A4ufigkeiten
[28] A.a.O., pg. 110.
[29] Vgl. hierzu: a.a.O., pg. 114 f.
[30] Vgl. Ludwig von Mises, die Letztbegründung der Ökonomik, S. 101, mit Hinweis auf den Falsifikationismus nach Karl Popper.
[31] Das IPCC sagt zwar, dass es die Wahrscheinlichkeit über 95% einschätzt, da aber auch 95,00001% über 95% ist, kann hier aus Vereinfachungsgründen 95% angenommen werden. Immerhin sagt das IPCC ja nicht, dass es sich zu über 96% sicher wäre.
[32] Vgl. a.a.O., S. 100.
[33] Das Erdsystem ist in seiner Komplexität am oberen Ende des Spektrums hinsichtlich Nichtlinearität und Freiheitsgraden angesiedelt. Da diese Komplexität bedeutet, dass Erkenntnisse über die im Erdsystem herrschenden Prozesse bisher nicht mit absoluter Sicherheit beschrieben und erklärt werden können, ist es notwendig, diese Unsicherheit zu quantifizieren.https://de.wikipedia.org/wiki/Behandlung_von_Unsicherheit_im_IPCC-Prozess#cite_note-1
[34] Die mathematische Metapher wurde laut Wikipedia aus folgendem Grunde verwendet: Häufig wird in der politischen Diskussion eine subjektive Beschreibung von Unsicherheiten gewählt. Das bedeutet, dass in Aussagen die Klassifizierungen „sehr wahrscheinlich“, „wahrscheinlich“ oder „unwahrscheinlich“ verwendet werden, die sich jedoch in ihrer Bedeutung von Person zu Person und von Interpretation zu Interpretation unterscheiden. Damit wird Außenstehenden ein unklares Bild der Faktenlage und der objektiven Ergebnisse vermittelt. Dies kann [nicht?] das Ziel der Verwendung sein (wie bei der Kontroverse um die globale Erwärmung) und sollte daher vermieden bzw. unterbunden werden.https://de.wikipedia.org/wiki/Behandlung_von_Unsicherheit_im_IPCC-Prozess#cite_note-1
[35] Ja, wenn bei einem von 20 Flügen ein Flugzeug abstürzt, hieße dies, dass bei 95% der Flüge kein Flugzeug abstürzt.
[36] Einem ähnlichen Fehler unterliegen die Ökonometriker, die versuchen anhand wirtschaftlicher Daten die Zukunft der wirtschaftlichen Entwicklung vorauszusagen. Erstens schaffen sie es mit der Methode des Verstehens nicht und zweitens stehen ihre Voraussagen im Widerspruch zu den Lehren der Ökonomik.
[37] https://www.ipcc.ch/pdf/assessment-report/ar5/wg2/WGIIAR5-Chap10_FINAL.pdf
[38] https://en.wikipedia.org/wiki/Stern_Review#Summary_of_the_Review.27s_main_conclusions
[39] Matt Ridley, The Rational Optimist (2010), pg. 331. Vgl. Hierzu: https://de.wikipedia.org/wiki/Stern-Report
[40] Human Action, pg. 96.
[41] A.a.O, pg. 205 f.
[42] A.a.O., pg. 208.
[43] A.a.O., pg. 319.
[44] A.a.O., pg. 323.
[45] A.a.O., pg. 221.
[46] Murray Rothbard, Law, Property Rights, and Air Pollution, 1982, https://mises.org/library/law-property-rights-and-air-pollution

Dr. Andreas Tiedtke ist Rechtsanwalt und Unternehmer.

Der Beitrag erschien zuerst auf der Website des Ludwig van Mises Institut Deutschland




Der Witz des Jahres

Hans Joachim Schellnhuber, fürstlich bezahlter Umverteiler und »Transformer«, sprach als Gast auf der Delegiertenkonferenz. Schellnhuber, der am heftigsten die Klimawarntröte tutende vom Potsdam Institut für Klimafolgenforschung (PIK). Das ist das Institut, aus dem die Forderung kam, die Demokratie abzuschaffen, um den Planeten vor der Klimakatastrophe zu retten.

Schellnhuber hat sogar einst dem Papst erklärt, wie das so ist mit dem Klima und dem armen Menschensünder. Der Papst wiederum hat sofort begeistert verstanden: Buße tun und – zahlen. Vor den Grünen fragte der sonderbare Heilige vom PIK:

»Warum bin ich hier?« Und setzt gleich selbst die Antwort hinzu: »Weil sich diese Partei offenbar als einzige den Luxus erlaubt, sich an der wissenschaftlichen Wahrheit zu orientieren.“

Herrschaften, der verdreht schon genug die Wissenschaft, um seine komischen Klimakalauer loszuwerden – jetzt auch noch die Wissenschaftstheorie? Es hält zwar einen populistischen Vortrag, aber dennoch mit wissenschaftlicher Wahrheit? Karl Popper dreht sich um Grabe um. (Anmerkung der Redaktion: Hier ein Beitrag im notorisch klimaalarmistischen SPIEGEL zur wissenschaftlichen Wahrheit)

Schellnhuber holte tief aus seiner Klimaklamaukkiste dramatische Kipppunkte unserer guten alten Erde hervor. Wann wird Grönland abschmelzen? Das würde nicht ein paar Zentimeter, nicht zwei, drei Meter, sondern sage und schreibe sieben Meter Meeresspiegelanstieg bedeuten, phantasierte der Klima-Papst vor den grünen Delegierten. Die waren aber hörbar nicht bei der Sache (Au, wie langweilig! Kennen wir schon, hast du nichts Neues? Immer die ollen Kamellen) und unterhielten sich laut untereinander. »Jeder Vortrag hat einen Punkt, an dem man aufmerksam sein muss.« Versuchte Schellnhuber wie ein Schulmeister die Anwesenden zur Ordnung zu rufen. »Der ist jetzt!«

Eineinhalb bis zwei Grad betrage der Pariser Korridor, in dem müssten wir das Klima halten, erzählt er und sieht dabei schon leicht wie Peter Sellers Dr. Seltsam aus.

»Sie sehen, dieser Balken, wo wir die Erderwärmung stoppen wollen, liegt quer zu einigen möglichen Großunfällen bereits. Das heißt, vor 30 Jahren hätten wir noch in einer sicheren Zone bleiben können. Inzwischen gehen wir schon ein hochgradiges Risiko ein.«

Den Panikbutton heraufstufen: Wenn wir die Katastrophe vermeiden wollen, müssen wir schon verdammt viel Glück haben. Sein Papst-Kollege wäre hellauf begeistert.
Schellnhuber träumt wie alle totalitären Gesinnungsgenossen von der großen »Transformation«, nein, er hat nicht den »großen Marsch« gesagt und »Sozialismus« auch nicht.

Seine Voraussage:

»Die entscheidende Dekade wird 2020-2030 sein. Dort muss der komplette Ausstieg weltweit von der Kohleverstromung passieren, dann muss der Verbrennungsmotor verschwinden, dann muss Zement ersetzt werden zum Beispiel als Baumaterial am besten durch Holz und andere Dinge.«

Also nichts weniger als eine komplette Neuerfindung der Moderne. Der beseelte Ideologe träumt vom anderen Zustand der Moderne, der nicht mehr auf fossil nuklearen Geschäften aufgebaut ist. Hat er zu viel mit dem Papst gesprochen? Seine Verheißung: Das gelobte Land heißt Photovoltaik, nicht industrielle Landwirtschaft.

Und was ist Verheißungen gemein? Die Dummen können sie nicht sehen, weil „sie liegt jenseits eines Hügels“. »Wir müssen über diesen Hügel!« Schellnhuber fehlt zwar die Rhetorik amerikanischer Sektenprediger, aber er bekommt dennoch Beifall. Er hat Kräfte ausgemacht, die uns über diesen Hügel helfen sollen. »Investoren dazu anregen, ihr Kapital von fossilen Geschäften abzuziehen!« Bei der Deutschen Bischofskonferenz versuchte er den Bischöfen nahe zubringen, dass die ihre prallen Geldsäcke nur noch ideologisch Einwandfreien öffnen.

Um die Ungläubigen zu überzeugen, spielen Katastrophen eine große Rolle, meint er, und man fühlt sich an Michael Crichtons »Welt in Angst« erinnert. Der amerikanische Schriftsteller (Jurassic Park ) lässt darin Ökoterroristen ein künstliches Seebeben auslösen, um die Welt in Angst vor einem Klimawandel zu halten und an der Panik kräftig mitzuverdienen. Ideologisierte Wissenschaftler liefern die falschen Grundlagen zur Rechtfertigung.

Am Schluss präsentiert Schellnhuber noch seine aberwitzigste Idee. »Mit dem Klimawandel wird Folgendes passieren«, sah er voraus.

»Es werden hunderte von Millionen Menschen im Raum verschoben werden müssen. Wegen Meeresspiegelanstieg, wegen Gletscherschwund, wegen Ausbreitung von Dürregebieten. Was tun mit den Menschen, deren Heimat versinken wird?«

(Wer wohnt eigentlich auf Gletschern?)

Also sollte man einen Klimapass einführen! Zutritt zu allen Ländern, die dafür verantwortlich sind. Und das seien fast alle, predigte er vor begeistertem Publikum. Er schlug vor, alle die durch den Klimawandel heimatlos werden, einen Klimapass bekommen sollen, der ihnen das Recht gibt, sich in den dafür verantwortlichen Staaten niederzulassen.

Johlender Beifall im Auditorium.

Der Beitrag erschien zuerst auf Tichys Einblick hier




Meteorologischer Kalender 1982-2018: Der Weg vom Fachblatt zur Klima-Katastrophen-Postille !

Wolfgang Thüne

Auch nach 36 Jahren beeindruckt der Meteorologische Kalender 2018 [1] wieder durch spektakuläre Fotos mit Motiven, die das Wetter in seiner schier endlosen Mannigfaltigkeit präsentiert. Für die etwa 1800 DMG-Mitglieder sind die Erklärungen auf den Kalenderrückseiten eigentlich überflüssig, doch für interessierte Laien könnten sie etwas verständlicher und ausführlicher sein. Schließlich erhebt die DMG den hohen Anspruch, „das Interesse an den Vorgängen der Atmosphäre zu fördern und meteorologisches Fachwissen zu verbreiten“. Angesichts des Jubiläums „150 Jahre Norddeutsche Seewarte“ Hamburg wurde das Thema „Atmosphäre und Ozean“ gewählt.

So schön die Fotos sind, so kritikfähig sind die ausgewählten Texte und versprechen Ärger für Inge Niedek, die Vorsitzende der Deutschen Meteorologischen Gesellschaft DMG und Ex-Wettermoderatorin des ZDF. Unter der Überschrift „Wetter und Meer“ folgt „Ozean und Klima“ und „Den Einfluss des Ozeans auf Klima und Wetter erfahren wir…“ Das ist eine Verdrehung der Fakten und bewusste Herabsetzung der Meteorologie als Hilfswissenschaft der Klimatologie im Namen der politischen Korrektheit. Jeder weiß, dass das Klima vom Wetter abgeleitet und damit ein Definitionskonstrukt des Menschen ohne Eigenexistenz ist. Mit anderen Worten: Die Natur kennt nur Wetter und mittelt dieses nicht zu Klima. Es gibt den „vom Menschen verursachten Klimawandel“ nicht. Der „Klimawandel“ ist Folge des natürlichen und unaufhaltsamen Wetterwandels. Die Klimavielfalt auf der Erde ist Folge der Wettervielfalt und diese bestimmt wiederum die Vegetationsvielfalt.

Der Kalender steckt voller Ungereimtheiten. Nur zwei Beispiele: „Durch Abkühlung an der Meeresoberfläche wird kaltes und schweres Tiefenwasser gebildet, das bis in Tiefen von 100-2000 m absinkt.“ Doch wenige Zeilen später lesen wirr staunend, dass „sich der subpolare Nordatlantik in der Tiefe langsam erwärmt“. Ein anders Beispiel: „Von den Ozeanen verdunstet jedes Jahr eine etwa einen Meter dicke Schicht Wasser.“ Das sind 1000 mm! Bei der Höhe des Meeresspiegels heißt es in der „peer-revievten Literatur“, dass er seit Beginn des 20. Jh. um ca. 1,5 mm und seit den 1990er Jahren um ca. 3,2 mm pro Jahr angestiegen sei, obgleich die Messgenauigkeit der Satelliten nur 20-50 mm betrage. Wer zu exakt sein will, wird rasch beim Mogeln erwischt. Des weiteren fehlt sowohl beim globalen Meeresspiegel wie bei der Globaltemperatur ein Bezugspunkt, ein simpler „Ausgangswert“!

Das Februarblatt behandelt den „Wärmeinhalt der Ozeane“. Sie werden als „Gedächtnis“ und als „energetischer Puffer“ im Klimasystem der Erde bezeichnet, als ob kontinentale Gesteine keine Wärme speichern könnten. Bei ihnen geht die Erwärmung, aber auch die Abkühlung nur schneller. Ein Skandal ist eine Abbildung mit der Bilanz zwischen Ein- und Ausstrahlung. Zur Erläuterung heißt es ohne Beweis: „Die Gleichgewichte von ein- und ausgehenden Strahlungsflüssen über den Oberrand der Atmosphäre spielen eine entscheidende Rolle für das Klimasystem“. Das ist Klima-Ideologie pur!

Nur eine Zwischenfrage: Wer liefert die ungeheure Energie, um jährlich eine etwa ein Meter dicke Wasserschicht der Ozeane zu verdunsten? Dadurch werden die Ozeane abgekühlt, doch die latente Wärme geht nicht verloren, sondern wird wieder bei der Kondensation des Wasserdampfes freigesetzt und gibt den Wolken thermischen Auftrieb. Zwischen der kurzwelligen sichtbaren Solarstrahlung und der infraroten Wärmestrahlung der Erde kann es noch aus weiteren Gründen kein „Gleichgewicht“ geben. Es herrscht genauso ein „Gleichgewicht der Strahlungsflüsse“ wie z. B. zwischen einer glühenden Herdplatte und einer Hand. Eine Berührung lässt den Irrglauben sehr schmerzhaft spüren. Die beiden Strahlungsflüsse sind extrem ungleichgewichtig, besonders was die Arbeitsfähigkeit betrifft. Dies steht in jedem Lehrbuch, lernt jeder Student der Meteorologie schon in den ersten Semestern. Solcherart Märchenerzählungen von „Meteorologen für Meteorologen“ sind eine inakzeptable Zumutung. Geht dieser politischen Wunschvorstellungen hörige Trend in der DMG so weiter, dann ist das AUS des Meteorologischen Kalenders bald abzusehen. Schade für die einst so tolle Idee von Werner Wehry und Walter Fett!

So farbenfroh der Meteorologische Kalender Monat für Monat auch sein mag, er kann als „wissenschaftliche Lektüre“ nicht empfohlen werden, wohl aber als Postkartenkalender.

[1] E. Schweizerbart’sche Verlags-Buchhandlung, Stuttgart 2017; Wandkalender ISBN 978-3-443-01092-8; 19,90 Euro; Postkartenkalender ISBN 978-3-443-01093-5; 10,80 Euro

 




Rückblick: Ein Jahr hemisphärischer Stefan-Boltzmann Ansatz

Wo steht mein vielfach gescholtener hemisphärischer Stefan-Boltzmann Ansatz nun eigentlich ein Jahr nach seiner Erstveröffentlichung?

Wenn man Klimarealist ist, braucht man eigentlich gar keine zusätzlichen Feinde mehr. Denn solche Feinde wachsen einem vollautomatisch zu, wenn man Hypothesen veröffentlicht, die von den Vorstellungen des Klimamainstreams abweichen oder ihnen gar diametral widersprechen. Und die Damen und Herren Klimaalarmisten müssen sich dabei noch nicht einmal besonders anstrengen. Es reicht vielmehr aus, wenn die Grundfesten des globalen Klimaaberglaubens in Frage gestellt werden, um politisch korrekt denkende Klimarealisten in voreilendem Gehorsam umgehend blank ziehen zu lassen, Zitat:

Man kann eine Menge falsch machen, wenn man versucht, den Treibhauseffekt zu widerlegen. Zu einer ungeeigneten Wahl der Systemgrenzen treten die Vertauschung von Ursache und Wirkung, die Fokussierung auf irrelevante Details und das fehlende Verständnis physikalischer Gesetze als häufigste Irrtümer…“

Aber ist ein solcher „natürlicher“ atmosphärischer Treibhauseffekt wirklich sakrosankt, nur weil er das gemeinsame Dogma einer Mehrheit von Klimarealisten und den Anhängern der globalen Klimakirche darstellt?
Denn anstatt auf den hemisphärischen S-B Ansatz treffen die oben zitierten Vorwürfe doch in sehr viel stärkerem Maße auf die konventionelle Herleitung einer „natürlichen“ Temperatur unserer Erde von minus 18 Grad Celsius mit dem Stefan-Boltzmann-Gesetz und dem daraus abgeleiteten atmosphärischen Treibhauseffekt von 33 Grad zu. Man denke nur einmal an die permanente Verletzung des 2. Hauptsatzes der Thermodynamik durch ein atmosphärisches Perpetuum Mobile, das ständig 155 W/m² aus sich selbst heraus erzeugt, nur um unsere Atmosphäre um 33 Grad Kelvin aufzuheizen…

Einstein soll einmal gesagt haben: „Man kann ein Problem nicht mit der Denkweise lösen, die es erschaffen hat“ – und an dieser Erkenntnis scheint tatsächlich etwas dran zu sein.

Mein hemisphärischer S-B Ansatz wurde zwar vielfach niedergemacht, aber niemals widerlegt, und nach seiner Veröffentlichung im Dezember 2016 fortlaufend weiterentwickelt. Inzwischen wird die Temperaturgenese auf der Tagseite der Erde in diesem Ansatz breitenabhängig aus der hemisphärischen Sonneneinstrahlung berechnet, also nicht mehr über einen Durchschnittswert für die gesamte Tagseite. Diese breitenabhängige hemisphärische Berechnung wird durch die Temperaturgenese auf unserem Mond eindrucksvoll bestätigt. Und schließlich wurde auch noch gezeigt, dass die Abkühlung auf der Nachtseite der Erde über die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes erfolgt. Denn der Wärmeinhalt der globalen Zirkulationen ist die „Wärmflasche“ unserer Erde. Und diese Wärmflasche wird ständig auf der Tagseite der Erde von der Sonne aufgeheizt und auf der Nachtseite (und im Winterhalbjahr) abgekühlt. Damit aber rechnet sich die individuelle örtliche Nachtabsenkung gegen die Umgebungstemperatur der globalen Zirkulationen, und nicht gegen den absoluten Nullpunkt des Weltalls.

Der hemisphärische S-B Ansatz hat damit nicht nur den „natürlichen“ atmosphärischen Treibhauseffekt widerlegt, sondern die gemessene Mitteltemperatur der Erde von etwa plus 15 Grad Celsius wurde über die Umgebungsgleichung des S-B-Gesetzes auch als die „natürliche“ Durchschnittstemperatur unserer Erde identifiziert.

Die schweigende Mehrheit in unserem Lande hält korrekte und überparteiliche Informationen offenbar immer noch für eine Bringschuld der Massenmedien, insbesondere der von ihnen selbst zwangsfinanzierten. Aber völlig unbemerkt von dieser schweigenden Mehrheit ist die überparteilich korrekte Information heutzutage eine selbstverantwortliche bürgerliche Holschuld geworden. Und wer zu faul zu einer umfassenden Internetrecherche ist und lediglich fertig portionierte, politisch korrekte Informationen der selbstgleichgeschalteten Mainstream-Medien konsumiert, muss dann halt auch daran glauben.
Und da hier bei uns das allgemeine Bildungsniveau in den Naturwissenschaften ständig in einer vergleichbaren Größenordnung absinkt, wie die wissenschaftlichen Widersprüche des Klimaglaubens zunehmen, ist wohl auch in Zukunft kaum mit einer Besserung zu rechnen.

Das Modell eines menschengemachten Klimawandels ist für den durchschnittlich gebildeten Bundesbürger leicht nachzuvollziehen, auch wenn dieses Konstrukt wissenschaftlich völlig falsch ist. Eigentlich ist der hemisphärische Stefan-Boltzmann Ansatz das einzige geschlossene und verständliche Modell, das in der Lage wäre, die Grundfesten des religiösen Klimawahns zur Dekarbonisierung der Welt nachhaltig zu erschüttern. Erstaunlich ist daher, dass dieser hemisphärische S-B Ansatz in der öffentlichen Klimadiskussion gar nicht vorkommt…




Siemens und die Götter der Energiewende

Ein Bild für die Götter: Ziemlich laut waren Martin Schulz und seine Spaßgesellen von der SPD draußen vor dem Reichstag zu demonstrierenden Siemens-Mitarbeitern. Sie tun das, was sie am liebsten tun, wenn sie draußen im Freien stehen: Auf den Kapitalismus schimpfen. Und auf die Millionäre.

Da schimpft EU-Millionär Schulz auf die Millionäre, die so verantwortungslos handeln. Schulz hat mit Sicherheit nicht seine Genossin Christine Hohmann-Dennhardt angesprochen, die sich nach 13 Monaten Arbeit als Vorstand für »Integrität und Recht« bei VW mit 12 bis 15 Millionen € und rund 8.000 € pro Monat Rente verabschiedet hat.

Drinnen im Bundestag hat er in einer aktuellen Stunde von „verantwortungslosen Managern“ gesprochen und dabei den Siemens-Chef im Blick gehabt. Außerhalb des Bundestages prollt er vor demonstrierenden Siemens Mitarbeitern: „Ich kann euch Hoffnung machen darauf, dass wir uns das nicht gefallen lassen.“ Wir dürfen ihm untertänigst empfehlen, einmal bei Gerd Schröder nachzufragen, wie seinerzeit dessen „gerettet“ – Rufe vor der Frankfurter Holzmann Konzernzentrale geendet haben.

Schulz: „Dass ein multinationaler Konzern, dass der Management Fehlentscheidungen so organisiert, dass die Belegschaft bluten muss, das ist das übliche Verhalten von verantwortungslosen Managern.“

Das nennt man Chuzpe: Im Bundestag die Voraussetzungen schaffen, dass Zehntausende von Beschäftigten arbeitslos werden, Millionen Euro in die Taschen von Energiewende-Profiteuren fließen und die Infrastruktur eines Industrielandes zerstört wird. Und außen auf die bösen Konzerne schimpfen. Ausgestattet mit dem sanften Gemüt einer Heidschnucke, die den heißen Atem der Wolfsrudel hinter sich spürt, hören die Siemens Mitarbeiter ausgerechnet denjenigen zu, die den Ausstieg aus der Kraftwerkstechnologie mit beschlossen haben und direkt verantwortlich dafür sind, dass sie jetzt auf der Straße stehen werden.Schulz und seine Genossen im Glashaus betonen, Siemens konnte immer auf die Belegschaft bauen, bekam Fördermittel und zerschlage jetzt Vertrauen.

Pressemitteilung Tillich

Das war für Siemens Chef Joe Kaeser wohl ein wenig starker Tobak. Er antwortet dem SPD-Chef in einem Brief und erinnert ihn an dessen eigene Verantwortung: „Vielleicht sollten sie sich dabei auch überlegen, wer wirklich verantwortungslos handelt: diejenigen, die absehbare Strukturprobleme pro aktiv angehen und nach langfristigen Lösungen suchen, oder diejenigen, die sich der Verantwortung und dem Dialog entziehen.“

Kaeser an Schulz: »Diese Frage hat ja auch bei der politischen Führung unseres Landes brennende Aktualität.“

Kaeser wies außerdem die Kritik von Schulz zurück, Siemens habe aufgrund seiner öffentlichen Aufträge jahrzehntelang vom deutschen Staat profitiert. Kaeser: Siemens habe alleine in den vergangenen fünf Jahren mehr als 20 Milliarden an Steuern und Abgaben (Sozialversicherungsbeiträgen) an den deutschen Staat überwiesen.

In Deutschland gebe es aufgrund der Energiewende kaum mehr Nachfrage für Gas und Kohlekraftwerke. Dann der wohl unvermeidliche Kotau, die Energiewende sei in der Sache richtig, „in Ausführung und Timing“ jedoch höchst unglücklich.

Grüne Siemenswerbung (Globus & Unterbau) auf dem teuersten Platz Kopenhagens COP 15 2009, Bild M. Limburg

Außerhalb des Landes hört sich das schon anders an. Da macht Kaeser Witze über die deutsche Energiewende. Wer je die Energiepolitik eines Landes bestimmen müsse, müsse einfach das Gegenteil von dem machen, was in Deutschland gemacht werde, sagte er einst auf einer Energiekonferenz. Vor den dort versammelten Experten wollte er wohl nicht vollkommen blöde dastehen und seinen als auch den Ruf von Deutschlands Industrie nicht vollends ruinieren. Die Förderung von Photovoltaik in Deutschland finde er so sinnvoll wie den Anbau von Ananas in Alaska, sagte er mit Blick auf Strauß.Die demonstrierenden Siemens Mitarbeiter – wohl die meisten Gewerkschaftsmitglieder – hätten SPD-Chef und Gewerkschaftsmitglied Schulz durchaus einmal fragen dürfen, was denn seine Genossin Barbara mit dazu beigetragen hat, dass sie jetzt hier auf der Straße stehen. Und dabei dürfte es durchaus etwas lauter werden. Denn die hat schon vor Jahren kräftig im Hintergrund mit daran gedreht, dass dem Kraftwerksgeschäft der Saft abgedreht wird, bzw. noch effektiver, deren Finanzierung. Die staatliche KfW-Bank sollte sich aus der Mitfinanzierung aller Anlagen zurückziehen, die irgendetwas mit Kohletechnologie zu tun haben, also nicht nur die Kraftwerke, sondern auch Maschinen für den Kohlebergbau und dem Transport von Kohle.

Die Anlagenbauer hatten dagegen protestiert, weil ohne eine solche Finanzierungshilfe kaum Kraftwerksprojekte realisierbar sind. Sie retteten sich seinerzeit mit dem mageren Argument, es sei für das Klima besser, wenn moderne Anlagen aus Deutschland weniger CO2 ausstoßen als die schlechteren Anlagen der Konkurrenz.

SPD-Umweltministerin Hendricks hat aus ihrem Etat die Finanzierung von ähnlichen Großprojekten bereits vollständig gestrichen.
Über allem schwebt ein konkretes Lieferverbot. Bisher darf aufgrund der Wirtschaftssanktionen nur nach Russland keine Turbine geliefert werden. Lediglich im vergangenen Jahr verirrten sich zwei Siemens Großturbinen auf die Krim und sorgten für eine kleine Krise. Nicht gerade ermunternde Vorzeichen selbst für einen großen Konzern, sich ins lange und teure Turbinen-Verkaufsgeschäft zu stürzen.

Die demonstrierenden Siemensianer hätten mal dem Ottmar Edenhofer vom Potsdamer Klimafolgenforschungsinstitut stärker auf die Finger klopfen können. „Wir verteilen durch die Klimapolitik de facto das Weltvermögen um.“ Sagt der tatsächlich, hat aber nicht den Mut, den auf der Straße stehenden Kumpels und Siemens Mitarbeitern zu-zurufen: „Ja, ihr habt Pech! Habt euch nicht so, jahrzehntelang auf Kosten der Dritten Welt gelebt und deren CO2 Anteil an der Weltgemeinschaft verpulvert! Stellt euch nicht so an, Opfer für den Sieg müssen gebracht werden.“ Sehr deutlich redet er der Enteignung das Wort: „Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik, mit Problemen wie Waldsterben oder Ozonloch, fast nichts mehr zu tun.“Diese markigen und durchaus programmatischen Worte hat er schon vor sieben Jahren vor Beginn einer anderen ominösen Klimakonferenz ausgerufen, der in Cancun. Und die war 2010.

Die Siemens Mitarbeiter sollten wissen: Schon immer ging es Klimakriegsgewinnlern darum, grünen Technologien uneinholbare Vorteile gegenüber den rentablen wie Kohle oder Kernkraftwerken zu verschaffen. Der Zusammenbruch einer ganzen Industriesparte jetzt ist ein sichtbarer Ausdruck, ein sichtbares Ergebnis dieser ideologischen Kriegserklärung.

Vorzuwerfen ist Siemens, dass sie wider besseres Wissen kritiklos mitgemacht haben. Schon der Vorgänger von Kaeser, Peter Löscher, begann damit, dem Konzern einen grünen Anstrich zu verpassen. In höchsten Tönen lobten alle die Notwendigkeit der Energiewende und konnten sie nicht schnell genug herbeisehnen.
Gerade erst diente sich die Berliner Siemens Abteilung »Lobby und Co.« einer künftigen Bundesregierung an. »Ein beschleunigter Aus-stieg aus der Kohleverstromung muss die klimapolitische Priorität der nächsten Bundesregierung werden«, heißt es in einem zweiseitigen Arbeitspapier, das die Berliner Lobbyabteilung des Konzerns an Vertreter von Grünen, CDU und FDP geschickt hat. »Die vorzeitige Stilllegung der CO2-intensivsten Kraftwerke sollte geprüft werden.«
Auf europäischer Ebene solle sich die neue Bundesregierung zudem für einen CO2-Mindestpreis und ein Ende der Subventionen und Kapa-zitätszahlungen für CO2-intensive Kraftwerke einsetzen, heißt es in dem Papier weiter.Das hätte der Martin und seine Siemens Gewerkschaftsgenossen auch mal ansprechen können, wie konventionelle Kraftwerke ausgetrocknet werden sollen. Verblüffend zu sehen, wie einer der größten deutschen Konzerne die Grünen auf der grünen Seite überholen wollen. Zumindest hier in Deutschland. Die Konzernstrategen dachten wohl, dann würde man mehr Gaskraftwerke und damit mehr Turbinen benötigen. Ein Irrtum, den die Mitarbeiter teuer bezahlen.

Siemens‘ Konkurrent General Electric hat es wohl besser. Auch der Konzern wurde heftig von der Anti-Kohlewut der Grünen um die alte Obama Regierung getroffen, kann aber sicherlich jetzt wieder nach vorne blicken. Präsident Trump will die wichtige Energieversorgung wieder vom Kopf auf die Füße stellen und lässt neben Öl und Gas auch Kohle ausbauen. Dann fällt vermutlich wieder die eine oder andere Turbine als Großauftrag ab.

Ganz zu schweigen von Indien und China. Dort gehen wöchentlich zwei große Kraftwerke ans Netz. Der gewaltige Energiehunger von mehr als 1 Milliarde Menschen lässt sich nicht mit ein paar Sonnenzellen und Windrädern decken.

Der Beitrag erschien zuerst bei Tichys Einblick hier

Lesen Sie auch bie ACHGUT: Erst Kraftwerke plattmachen, dann heulen und trommeln




Die Illusionen der neuen erneuerbaren Energien (NEE)

Der Beitrag der Solar-und Windanlagen zum globalen Energieverbrauch betrug 2016 nur 2.2 %, dies obwohl weltweit sehr viele solche Anlagen gebaut wurden: ihre Leistung beläuft sich auf mehr als 230 % der Leistung der Kernkraftwerke, die aber 4.5 % des Weltverbrauchs decken. Trotz NEE hat der Verbrauch der fossilen Energieträger in den letzten Jahren ständig zugenommen. Diese Daten wurden aus „BP Statistical Review of World Energy 2017“ entnommen.

Bild 1 (oben):     Entwicklung des Welt- Energieverbrauches. Die Renewables umfassen alle neuen erneuerbaren Energien (NEE), d.h. Solar- und Windenergie, Bioenergie, Geothermie und Energie aus Abfällen. Die hydraulische Energie gehört definitionsgemäss nicht zu den NEE. Noch heute stammen 85 % des Energieverbrauchs aus fossilen Brennstoffen.

Viele stellen sich die Frage, wieso – nach so vielen milliardenschweren Investitionen in NEE-Anlagen – keine Abnahme des Anteils der fossilen Energie feststellbar sei.

Einige Studien prognostizieren eine drastische Abnahme der fossilen Energien. Gemäss einer Studie der DNV GL (Klassifikations- und Beratungsgesellschaft) wird der globale Energieverbrauch bis 2050 um 7 % zunehmen. Dabei wird angenommen, dass dannzumal der Strom zu 85% aus erneuerbaren Quellen produziert werden wird, vor allem aus Solar-und Windanlagen, und dass die Elektromobilität sich durchsetzen wird. Dadurch würde sich, nach Meinung der Autoren, der Anteil fossiler Energie stark reduzieren.

Viele Überlegungen, sowie die DNV-Studie, berücksichtigen den Ansatz „Energy Return on Energy Invested“ (ERoEI) nicht. ERoEI ist das Verhältnis zwischen Nutzenergie und investierter Energie. Nutzenergie ist die während der Betriebsdauer einer Anlage produzierte bzw. abgegebene Energie. Die investierte Energie ist die für die Herstellung, den Gebrauch und die Entsorgung der Anlage notwendige Energie. Zur investierten Energie gehören alle möglichen Energieaufwendungen der Energiekette von der Rohstoffförderung, Raffinierung, Herstellung, Transport, Montage, Betrieb, Rückbau bis zur Entsorgung – einschliesslich Finanzierungstätigkeiten, Integration im Stromversorgungssystem und Speicherung für die Versorgungssicherheit. Bei

  • ERoEI >1 ist die Nutzenergie höher als die investierte Energie. Die betreffende Anlage produziert netto Energie und stellt eine Energiequelle dar.
  • ERoEI < 1 ist die Nutzenergie kleiner als die investierte Energie. Die betreffende Anlage vernichtet netto Energie. Die Differenz zwischen Nutzenergie und investierter Energie- ist negativ. Die investierte Energie stammt weltweit zu 85 % aus fossilen Energien, weshalb solche Anlagen ohne fossile Energieträger gar nicht existieren können. Solche Anlagen produzieren sozusagen Schmarotzer-Energie.

Im Buch von Prof. Dr. Charles A. S. Hall, „Energy Return on Investment: a Unifying Principle for Biology, Economics, and Sustainability“, Springer 2017, wird sogar postuliert, dass der Wohlstand einer modernen Gesellschaft nur dann gesichert werden kann, wenn ERoEI ≥ 10 sei.

Allerdings bestehen grosse Diskrepanzen zwischen Forschern oder Forschergruppen betreffend die Berechnungsmethode des ERoEI. Soll man für die Nutzenergie die effektiven Messwerte einsetzen? Welches sind die wirklich relevanten Energieaufwendungen, die man bei der Ermittlung der investierten Energie berücksichtigen soll?

In einem Workshop der International Society for BioPhysical Economics vom Juni 2017 zur Berechnungs des ERoEI, waren die meisten Experten mit der Methode einverstanden, die durch F. Ferroni, R.J. Hopkirk und A. Guekos im peer reviewed Artikel „Further Consideration to: Energy Return on Energy Invested (ERoEI) for photovoltaic solar systems in regions of moderate insolation“ angewendet wurde (veröffentlicht in Energy Policy 107, 2017). Dieser Beitrag war eine Duplik auf eine Replik von einer Gruppe von Wissenschaftern unter der Leitung von M. Raugei, die unsere Berechnungsmethode in Frage gestellt hat. Diese Berechnungsmethode wird inzwischen aber weitgehend als Stand der Technik anerkannt.

Bild 2 zeigt Resultate verschiedener Analysen, wobei die Summe der Nutzenergie und der investierten Energie auf 100 normiert wird (die investierte Energie ist rot, die nutzbare Energie blau markiert). In der Schweiz liegt die Netto-Energie von Photovoltaik-Anlagen unter null. Die Resultate von Prieto und Hall für Spanien sind durchaus vergleichbar mit den Resultaten von Ferroni und Hopkirk, wenn man bem Vergleich der unterschiedlichen Sonneneinstrahlung und der Integration des intermittierenden Stromes durch saisonale Speicherung im Netz Rechnung trägt.

Bild 2: Verhältnis zwischen investierter Energie und Nutzenergie in Funktion des ERoEI

 

Aufgrund unserer Analysen bin ich der der Meinung, dass folgende Energien Schmarotzer-Energien sind:

  • Photovoltaik in der gemässigten, subpolaren und hochpolaren Zone;
  • Biobrennstoffe in der gemässigten, subpolaren und hochpolaren Zone;
  • Windstrom mit Batterien als Speicher in windarmen Gegenden;
  • E-Autos: diese verbrauchen mehr Energie als Benziner- oder Dieselautos.

 

Wegen dem ungünstigen ERoEI von NEE-Anlagen und der Tatsache, dass für diese Anlagen sehr viel fossile Energie investiert werden muss, ist beim Einsatz von NEE eine Zunahme der Verwendung von fossilen Energieträgern zu erwarten. Studien die – wie z.B. die DNV-Studie – den ERoEI- Ansatz nicht berücksichtigen, sind nichts wert.

In Deutschland wurden massiv NEE-Anlagen gebaut, dies in der Illusion, damit die CO2-Emissionen zu reduzieren. Die Abnahme der CO2-Emissionen von 1’043 Mio. t im Jahr 2000 auf 906 Mio. t im Jahr 2016 wird von der Regierung als signifikant gefeiert! Dabei entspricht sie nur einer jährlichen Abnahme von rund 0.8 %. Eine solche geringfügige Abnahme könnte durch eine Verbesserung der Effizienz oder durch einsetzende Deindustrialisierung statt durch den Einsatz von NEE- Anlagen verursacht sein. Würde man die CO2-Emissionen im Fernen Osten zur Herstellung der meisten Photovoltaik-Anlagen dazurechnen (die Herstellung eines Quadratmeters Photovoltaik -Modul erfordert in China den Einsatz von rund 250 kg Kohle), dann wären die deutschen CO2-Emissionen seit dem Jahr 2000 um 1 % angestiegen. Es ist aufgrund der Fakten nicht zu bestreiten, dass die Energiewende in Deutschland per Saldo eine Zunahme der CO2-Emissionen verursacht hat.

Für NEE-Anlagen muss sehr viel fossile Energie investiert werden. Diese heute verbrauchte fossile Energie wird unseren Nachkommen – etwa zum sehr sinnvollen Einsatz in der chemischen Industrie – nicht mehr zur Verfügung stehen. Die Erschöpfung der fossilen Ressourcen wird beschleunigt.




Das globale „CO2-Budget“

Damit ist jene CO2-Menge gemeint, die nach Meinung maßgebender Klimawissenschaftler bis Ende des Jahrhunderts durch menschliche Tätigkeit noch in die Atmosphäre entlassen werden darf, ohne dass die globale Mitteltemperatur im Vergleich zu einem willkürlich gewählten Zeitpunkt der Erdgeschichte (1850) um mehr als 2 Grad ansteigt. Davon abgeleitet werden jährliche Emissionsmengen, die mit fallender Tendenz noch „zulässig“ sind, um dieses Ziel zu erreichen.

Die vergangenen drei Jahre haben Mut gemacht, weil der Anstieg der globalen Emissionen zum Stillstand gekommen war und 2016 sogar sank. Lohn für zigtausende Konferenzmitglieder, die in all den Jahren den Globus umrundeten und tage- und nächtelang Formulierungen debattierten? Endlich der Erfolg nach 23 Vertragsstaatenkonferenzen und 13 Konferenzen der Unterzeichnerstaaten des Vertrags von Kyoto seit 1992?

Zu einem denkbar ungünstigen Zeitpunkt, an dem der Klimakongress in Bonn noch tanzt, fällt eine Studie aufs Parkett, die für 2017 wieder deutlich steigende CO2-Emissionen prognostiziert. China erhöht seinen Ausstoß um 3,5 Prozent, heißt es. Europa und USA senken nur minimal und können das nicht kompensieren. China steigert seine Kohleförderung um 5,7 Prozent, weil die Wirtschaft in den ersten drei Quartalen um fast sieben Prozent wuchs. Es zeigt sich, dass der gestoppte Aufwärtstrend der vergangenen drei Jahre nicht der Erfolg der Klimaretter war, sondern die Folge einer kleinen chinesischen Wirtschaftskrise oder Wachstumsdelle, die nun überwunden ist. Die chinesische Abgaswolke wächst 2017 absolut um etwa 400 Millionen Tonnen, das ist Pi mal Daumen die Hälfte der deutschen jährlichen CO2-Emission.

Abgesehen von den Zahlen, die unsere vorreitenden politischen Entscheidungsträger ohnehin wenig interessieren, hat uns China politisch-moralisch enttäuscht. Nach Paris 2015 und dem von Trump angekündigten Ausstieg aus dem Vertrag schien das große Reich im Osten ein Vorbild. Rekordinvestitionen in regenerative Energien und die Ankündigung, Kohlekraft reduzieren zu wollen, machte das Land in deutschen Qualitätsmedien zum Vorbild und Vorreiter. Ein verknöcherter Grüner wie Jürgen Trittin, der „Zombie von Jamaika“ (Wolfram Weimer), jubelte noch im Juli in einem DLF-Interview: „Wir haben eine Politik des Klimaschutzes in China, wo man 100 großen Kohlekraftwerken den Stecker gezogen hat. Davon könnten wir in Deutschland lernen . . .“. Von einer neuen „Klimaachse EU – China“ schwärmte klimaretter.info.

Natürlich will China seine Luftqualität verbessern und es werden alte Kohlekraftwerke stillgelegt – aber eben auch neue gebaut. Das Land und sein Energiehunger sind so groß, dass alle verfügbaren Energiequellen genutzt werden, regenerative wie konventionelle. Eine Entweder-oder-Konstruktion herzustellen bleibt einer Weltsicht überlassen, die nicht nur grün, sondern primitivgrün ist. Peking hat in Paris zugesichert, seine Emissionen ab 2030 senken zu wollen. Vorwürfe sind also nicht angebracht.

Klimapapst Schellnhuber zeigt auf die neue Studie nur den gewohnten pawlowschen Reflex. Deutschland muss handeln, ehrgeiziger und schneller. Die Klimaschutzlücke® nach Hendricks zum Erreichen der deutschen Ziele soll noch schneller geschlossen werden. Dass diese 30 Millionen Tonnen bis 2020 im Vergleich zum chinesischen Zuwachs 2017 eine vernachlässigbare Größe sind, ficht den Berater der Bundesregierung nicht an. Die Frage, welche Globaltemperaturerhöhung 30 Millionen Tonnen CO2 zur Folge haben, wird von ihm nicht beantwortet.

Jegliche am grünen Tisch gemalten Emissionspfade, die nach 2050 einen drastischen Abfall in Richtung einer globalen Dekarbonisierung zeigen, kann man getrost in die Tonne treten. Herr Edenhofer vom Potsdam Institut für Klimafolgenforschung (PIK) sprach 2016 von noch verfügbaren 200 Milliarden Tonnen im „Budget“. Die sind in fünf Jahren verfrühstückt.

Die Realitäten sind anders, als von 25.000 Teilnehmern in ihrer Echokammer gewünscht. Die erreichbaren Minderungen schwanken oder verschwinden unter dem „Atmen“ der chinesischen Konjunktur.

 




Sternstunde im Parlament – unbemerkt von der schwatzenden Klasse. Teil 2

Gestern trat der deutsche Bundestag zu seiner zweiten Plenarsitzung der 19. Wahlperiode zusammen. Die neuen Abgeordneten waren fast vollständig versammelt. Manche Anträge wurden diskutiert, viele Reden wurden gehalten. Manche davon eindrücklich und nachdenklich machend, andere „me too“, zum Gähnen langweilig, weil schon zigmal gehört. Nur wenige aufrüttelnd – wie z.B. die Rede von AfD Frontfrau Alice Weidel zur fortgesetzten Euro- Zins-und Schuldenkrisenpolitik von Regierung und EZB.

Doch es gab auch richtige Novitäten – Nach gefühlten Jahrzehnten wagten es nun einige Abgeordnete der als rechts-populistisch, ja tlw. als rechts-radikal, diffamierten AfD, den vorgeblichen „Klimaschutz“ anzusprechen und die unter diesem Mantra begangenen schweren Fehler öffentlich beim Namen zu nennen. Fehler die unser Land locker zugrunde richten können, zumindest aber -und besonders die unteren Einkommensschichten- auf das heftigste in die Zange nehmen. Von der einen Seite durch die extrem hohen Strompreise – mehr und mehr Energiearmut produzierend- von der anderen Seite durch unvermeidbaren Jobverluste von denen der derzeitige Rückbau der Siemens-Kraftwerkssparte nur die Spitze des Eisbergs ist. Der größere Teil ist die bereits jetzt unumkehrbare Abwanderung ganzer Industriezweige samt Wertschöpfung und Arbeitsplätzen

Video nicht mehr verfügbar

Video der Rede von Karsten Hilse AfD: „Wie eine linksgrüne Ideologie den gesunden Menschenverstand außer Kraft setzt“ am 21.11.17 im Deutschen Bundestag

Natürlich plusterten sich alle Parteien, voran die SPD, über die Siemens Cosa auf und bezichtigten die Manager von Siemens des völligen Versagens, ohne auch nur einmal selbstkritisch festzustellen und öffentlich zuzugeben,   dass es insbesondere ihre „Klimaschutz“-Politik der vergangenen Jahrzehnte war, die zu dieser Situation führte.

Diese Politik ist immer noch aktuell und verbindlich im Klimaschutzplan 2050 festgeschrieben, der ohne jede Diskussion den vergangenen Bundestag und Bundesrat ohne jede Gegenstimme passierte. Unermüdlich angetrieben von der „Klimakanzlerin“ Merkel und besonders den Bündnis 90/Grünen.

Antragstext der B90/Grünen vom 21.11.17 zum sofortigen Kohleausstieg. Zum Vergrößern anklicken

Diese wollten gestern die Aufmerksamkeit der Öffentlichkeit nutzen, nach den – wie man hört auch an der Klimafrage- gescheiterten Jamaika-Sondierungen, um die weitere Dekarboniserung der Bundesrepublik unumkehrbar voranzutreiben. Der sofortige Kohleausstieg und div. andere dumme Zeugs sollte vom Bundestag an seiner zweiten Plenarsitzung beschlossen werden. Doch diesmal war alles anders als sonst. Konnten sie noch zu Beginn der Sondierungsverhandlungen die FDP und die Union in die Bekenntnisfalle locken, in dem sie ihnen ein „Bekenntnis“ zur Pariser Klimaübereinkunft abrangen, und damit verpflichteten auch ihren sonstigen völlig abwegigen „Klimaschutzideen“ zuzustimmen, gab es diesmal zum allerersten Mal richtigen Gegenwind. Von der AfD und von ihrem Neu-Abgeordneten Karsten Hilse, zuvor Polizeibeamter in Bautzen.

Und was der zu sagen hatte, entsprach zwar dem aktuellen Stand der Wissenschaft, war eingängig und plausibel, widersprach aber in fast allem den Glaubensbekenntnissen vieler Parlamentarier voran den GrünInnen.

Und deshalb wurde es ein Sternstunde, des bisher auch bei diesen Themen zum reinen Abnickverein verkommen Parlamentes.

Es darf wieder diskutiert werden, es darf wieder gestritten werden. Auch Glaubensbekenntnisse, wie das vom menschgemachten Klimawandel, sind nicht mehr tabu, sondern gehören mit all ihren schlimmen Wirkungen und Nebenwirkungen in die öffentliche Diskussion, aufs höchste deutsche Podium, dem Deutschen Bundestag. Ein Anfang ist gemacht.




Sternstunde im Parlament – unbemerkt von der schwatzenden Klasse. Teil 1

Gestern trat der deutsche Bundestag zu seiner zweiten Plenarsitzung der 19. Wahlperiode zusammen. Die neuen Abgeordneten waren fast vollständig versammelt. Wolfgang Schäuble, Ex-Finanzminister und nun Bundestagspräsident – mithin zweiter Mann im Staate- hielt eine vielbeachtete Rede, in der er die Parteien aufrief kompromissfähig zu sein und sich einer „Übernahme von Verantwortung“, wie neuerdings Regierungsbildungen verschwurbelt genannt werden, nicht zu verweigern. Er nannte zwar keine Partei beim Namen, meinte aber eindeutig nicht AfD und Linke.

Dann ging es in die Abarbeitung der Tagesordnung! Die enthielt neben vielen wichtigen aktuellen Themen, wie die durchaus strittige Verlängerung der Bundeswehreinsätze an vielen Orten im Ausland, auch einige von hoher Brisanz, soweit es die bisherige Klima- und Energiepolitik der bisherigen Regierung betraf, bzw. der sie stützenden Altparteien.

Die SPD verlangte eine aktuelle Stunde zu den Arbeitsplatzverlusten bei Siemens, die Grünen wollten die Jamaika-Pleite schnell hinter sich lassen und verlangten die Beratung ihres Antrags „Klimakonferenz in Bonn – Schneller Ausstieg aus der Kohle ist jetzt nötig!“ . Und auch die AfD wollte in der Eurofrage punkten und setzte die Beratung eines Antrages zur Rechtskonformität der Euro-Stabilisierung, auf die Tagesordnung. Die dazu gehörige Rede der Fraktionsvorsitzenden Weidel und die Gegenreden sollen hier nicht unser Thema sein, nur soviel sei verraten: Frau Weidel schenkte den Verursachern der andauernden Euro- und Schuldenkrise nichts. Alle Versäumnisse und Verschleierungen der Verantwortlichen wurden von ihr schonungslos benannt. Die so angesprochenen schnappten hörbar nach Luft, so etwas mussten sie schon seit langem nicht mehr anhören und verkeilten sich dann in ihren Erwiderungen nur auf die Ächtung scheinbar formale Ausrutscher in der Rede Weidels.

 

Video nicht mehr verfügbar

Video der Rede von Tino Chrupalla am 21.11.17 im Deutschen Bundestag: Die Energiewende ist eine Farce:

Zuvor jedoch ging es um die Absicht von Siemens ihre Kapazitäten im Kraftwerksbereich in großem Stil abzubauen. Davon sind weltweit über 7.000 Jobs betroffen, in Deutschland um die 3500. Ganze Werke sollen geschlossen werden, u.a das profitable Werk in Görlitz und das traditionsreiche Dynamowerk in Berlin. Martin Schulz hatte sich zuvor den wütenden Arbeitnehmern, die – von der IG-Metall organisiert – vor dem Reichstag demonstrierten, gestellt und die Klassenkampfkeule gegen Siemens geschwungen. Er könne ihnen zwar nicht den Erhalt ihrer Jobs versprechen, aber das wüsste er, die Siemens Manager hätten versagt und was sie praktizierten wäre Manchester Kapitalismus. Dabei unterließ er es tunlichst auf die eigene Rolle seiner SPD hinzuweisen, die seit über 20 Jahren im Klimaschutzmodus fährt, diesen kräftig national wie international,– dabei fleißig unterstützt von der IG-Metall- wann immer es ging, kräftig anheizte und um den Klimaschutz durchzusetzen, das Erneuerbaren Energien Gesetzes (EEG) beschloss. Die SPD erließ dieses schlimmste Gesetz von allen, zusammen mit den Grünen, im Jahre 2000.

Damit erst wurde die auch weltweite Verdammnis der „schmutzigen“ Kohle international salonfähig, denn nun zeichnete sich – zumindest für all jene, die mit den Naturgesetzen und der Mathematik seit der Schule auf dem Kriegsfuß stehen, und das ist bei weitem die Mehrheit- ab, dass es irgendwie möglich wäre, die fehlende Energie durch Wind und Sonne zu gewinnen. Wind und Sonne schicken eben keine Rechnung , war die ebenso dusslig falsche wie einprägsame Slogan des grünen Predigers Franz Alt. Das alles ließ 100 % Martin Schulz aus. Und er ließ auch aus, dass die Bundesregierungen, denen die SPD dann angehörte, alles dran setzten, die Kohle zu verteuern, oder ihren Gebrauch zur Stromgewinnung unmöglich zu machen.

„Umweltministerin Barbara Hendricks (SPD) und Entwicklungsminister Gerd Müller (CSU) haben vor dem Hintergrund die Finanzierung von Kohleprojekten aus ihren Etats schon ganz gestrichen. Jetzt wollten sie dafür sorgen, dass auch die KfW und vor allem deren privatwirtschaftlich geführte Tochterbank Ipex sich aus der Mitfinanzierung von Anlagen zurückziehen, die der Gewinnung, dem Transport oder der Stromerzeugung von und aus Kohle dienen.

Schrieb bspw. die FAZ schon am 15.12. 2014. US Präsident Obama – Bruder im Geiste Merkels und der deutschen Altparteien – weitete zeitgleich seinen „War on Coal“ kräftig aus.

Und das alles geschah natürlich mit voller Billigung und Unterstützung der CDU und ihrer Kanzlerin, auch begeistert mitgetragen von Grünen und Linken.

Doch nun will es keiner gewesen sein. Daher konnte sich der Vertreter der CDU, Joachim Fischer, auch nur darauf zurückziehen, die betriebswirtschaftliche Seite von Siemens zu beleuchten, die jetzt, nachdem alle das Kind bewusst in den in Brunnen geworfen hatten – Siemens, der sich schon seit langem als grüne Konzern versteht, eingeschlossen- tatsächlich gebietet, die Verluste durch Job Abbau zu vermindern oder ganz zu beseitigen.

Es bedurfte eines neuen Abgeordneten der AfD, auf diese seit langem durchgeführten, methodisch geplanten, in vielen tausend Vorschriften und Gesetzen festgelegten Absichten hinzuweisen, die dafür Verantwortlichen laut und deutlich beim Namen zu nennen, und auf deren Verantwortung für die jetzt für alle erkennbaren Konsequenzen hinzuweisen. Sein Name ist Tino Chrupalla, bis zur Wahl selbständiger Malermeister aus Görlitz. Er läutete mit seiner Rede die erste Sternstunde in Bezug auf „Klimaschutz“ und Energiewende, des neuen Bundestages ein.