1

Rundbrief der GWPF vom 23. November 2017

Hurra! UK-Regierung sperrt weitere grüne Energie

Die Entwickler von Projekten erneuerbarer Energie haben einen massiven Schlag hinnehmen müssen, hat doch die Regierung verkündet, dass es bis zum Jahr 2025 keine neuen Subventionen geben wird.


Das Budget für Unterstützer-Programme wie Contracts for Difference (CfD) wurde bislang durch das Levy Control Framework (LCF) [etwa: Rahmen zur Kontrolle von Abgaben] gesteuert. Seit der Ankündigung im Frühjahrs-Budget, LCF zu beenden, hat die Regierung ihre neue Control for Low Carbon Levies entwickelt. [levy = Abgabe, finanzielle Belastung]. Damit sollen die grünen Steuern oder Abgaben begrenzt werden, welche auf die Stromrechnungen der Verbraucher aufgeschlagen werden.

Ein zusammen mit dem Budget vom Schatzministerium veröffentlichtes Dokument zeigt, dass die Regierung die Energiekosten „so niedrig wie möglich“ halten will. Daher werde es keine neuen Low-Carbon-Stromabgaben geben, bis „die Belastung durch diese Kosten zurückgeht“.

Weiter heißt es darin: „Bis die Gesamt-Belastung dieser Kosten Vorhersagen zufolge real und nachhaltig sinkt, wird Control keine neuen Low-Carbon-Stromabgaben zulassen. Auf der Grundlage derzeitiger Vorhersagen werden damit neue Abgaben bis zum Jahr 2025 ausgeschlossen“.

Full story

———————————————-

Grüne Abgaben ,werden Stromrechnungen um 200 Pfund steigen lassen‘

 

British Gas behauptet, dass die Kosten zur Finanzierung einer Hinwendung zu grüner Energie und die Unterstützung armer Familien die Stromrechnungen von Jedermann im nächsten Jahr um 200 Pfund werden steigen lassen. Dem Unternehmen zufolge wäre es fairer, die Kosten nicht auf die Stromrechnungen aufzuschlagen, sondern auf die Einkommenssteuer oder andere Steuerarten.

Die Vorschläge wurden von Ian Conn umrissen, dem Chef des Mutterkonzerns Centrica, der fundamentale Änderungen hinsichtlich der Rechnungen fordert.

Die Kosten der Regierungsprogramme, um die Abkehr von fossilen Treibstoffen zu stützen und die Energieeffizienz der Haushalte deutlich zu erhöhen, sind hoch umstritten. Da gibt es die Kosten der Subventionen zur Errichtung neuer Windparks und Solarinstallationen, wobei für den davon erzeugten Strom hohe Preise garantiert werden.

Gleichzeitig müssen Energiefirmen einen Mindest-Preis bezahlen für Energie erzeugt durch Kohle und Gas, selbst wenn die Marktpreise niedriger sind…

Mr. Conn verlangte, die Kosten der Hinwendung zu erneuerbarer Energie durch allgemeine Besteuerung aufzubringen und durch Aufschläge auf die Stromrechnungen, was seinen Worten zufolge die Armen am härtesten treffen würde.

Anfang dieses Jahres zeigte Centrica, dass der Preis für dieses Jahr 145 Pfund war. Und jetzt behauptet Mr. Conn, dass es im nächsten Jahr 200 Pfund pro Rechnung für jeden Haushalt sein werden. Centrica führt an, dass diese Kosten nicht den Rechnungen, sondern den allgemeinen Steuern hinzugefügt werden sollten. Steuern berücksichtigen die unterschiedliche Zahlungsfähigkeit der Menschen.

Full Story

Übersetzt von Chris Frey EIKE

Und hier der oben angekündigte Beitrag von Benny Peiser. Er schreibt in einem Kommentar aus der Sicht von Großbritannien:

Deutschlands Klimakirche ohne Dach

Benny Peiser

Deutschland steht vor einer politischen Krise, nachdem am späten Sonntagabend die Vier-Parteien-Sondierungsgespräche zur Bildung einer so genannten Jamaika-Koalition gescheitert sind. Zum ersten Mal seit der Weimarer Republik (1919-1933) sind deutsche Parteien mit Parlamentsmehrheit nicht bereit, eine Regierung zu bilden. Niemand weiß, was als nächstes passiert oder wie diese sich vertiefende Krise in absehbarer Zeit gelöst werden kann.

Die Unfähigkeit, sich auf strittige klima- und energiepolitische Fragen zu einigen, sowie die Meinungsverschiedenheiten über Migration haben das Ende der Verhandlungen bewirkt. Bemerkenswert: Die gescheiterte und zunehmend unpopuläre deutsche Klimapolitik steht im Mittelpunkt der Krise. Sie signalisiert auch den Zusammenbruch des jahrzehntealten deutschen Klimakonsenses.

Während die Grünen die sofortige Abschaltung von 10 bis 20 der 180 deutschen Kohlekraftwerke forderten, hielt die FDP an ihrem Versprechen fest, die Energiewende radikal zu reformieren und die Subventionen für erneuerbare Energien abzuschaffen.

Experten des Bundeswirtschaftsministeriums hatten die Teilnehmer der Sondierungsgespräche gewarnt, Deutschland werde seine rechtsverbindlichen Klimaziele für 2020 meilenweit verfehlen und das Erreichen seiner Ziele für 2030 den wirtschaftlichen Wohlstand des Landes gefährden. Das Ministerium warnte auch davor, dass jeder Versuch, eine radikale Reduktion der CO2-Emissionen zu erzwingen, „bis 2020 nur durch eine partielle Deindustrialisierung Deutschlands möglich wäre“.

Klimageschäft wie gewohnt ist für die Liberalen keine Option mehr. Die Partei befürchtet, dass ein schneller Ausstieg aus der Kohleverstromung, wie von den Grünen gefordert, gravierende soziale, wirtschaftliche und politische Problemen verursacht. Eine Fortsetzung der radikalen Klimapolitik würde die großen deutschen Kohleregionen treffen, nicht zuletzt in Ostdeutschland, wo die rechtsgerichtete Protestpartei Alternative für Deutschland (AfD) bei den Bundestagswahlen im September deutliche Unterstützung erhalten hatte.

Klimareligion und die grüne Zentralplanung

Die AfD gewann bei der Bundestagswahl im September knapp 13 Prozent der Stimmen und bildet mit über 90 Abgeordneten die drittgrößte Fraktion im Bundestag. Der Erfolg der Partei hat die politische Landschaft in Deutschland verändert und das Ende des grünen Konsenses zwischen den Mainstream-Parteien eingeläutet. Um die Energiekosten niedrig zu halten, setzt sich die AfD für die weitere Nutzung von Kern- und Kohlekraftwerken ein. Sie stellt sich gegen die Energiewende: „Energie muss bezahlbar bleiben und darf kein Luxusgut sein“, und versprach in ihrem Manifest die Abschaffung des Erneuerbare-Energien-Gesetzes (EEG) und aller Ökostrom-Subventionen, da Subventionen für erneuerbare Energien nur wohlhabenden Familien und grünen Unternehmen zugute kommen.

Ein kürzlich erschienener Leitartikel des „Wall Street Journal“ kommt zu dem Schluss: „Kein Wunder, dass die Wähler in Aufruhr sind. Die rechtsgerichtete Alternative für Deutschland (AfD) gewann überraschend 13 Prozent Stimmenanteil zum Teil aufgrund des Versprechens, die Energiewende sofort zu beenden. Eine neue Studie des RWI Leibniz-Instituts für Wirtschaftsforschung kommt zu dem Ergebnis, dass 61 Prozent der Deutschen nicht einmal einen Eurocent mehr pro Kilowattstunde Strom für die Finanzierung von mehr erneuerbaren Energien ausgeben wollen“.

Der dramatische Erfolg der AfD führt dazu, dass erstmals eine Partei im Bundestag vertreten ist, die sich den Plänen Deutschlands zur Reduzierung der CO2-Emissionen durch den Umstieg auf erneuerbare Energien widersetzt. Die Skepsis gegenüber Klima- und Ökostrom-Fragen hat in der deutschen Politik Schockwellen ausgelöst. Die etablierten Parteien befürchten, dass sie es sich nicht mehr leisten können, Forderungen der Grünen zu erfüllen, ohne weitere Unterstützung ihrer traditionellen Wähler zu verlieren.

Ohne die Entwicklung einer neuen, pragmatischen Politik und die konsequente Verteidigung einer billigen Energiestrategie angesichts einer rasch verblassenden (und alternden) grünen Bewegung wird sich Deutschland wohl kaum von den grünen Fesseln befreien, die den technologischen und wirtschaftlichen Fortschritt behindern. Ein großer Teil des grünen Ballastes, der Deutschland zurückhält, muss über Bord geworfen werden, wenn das Land politische Stabilität und wirtschaftlichen Pragmatismus zurückgewinnen will.

So wie die sozialistische Zentralplanung Ostdeutschlands kläglich scheiterte, bevor sie gestürzt und durch eine offene Gesellschaft auf der Grundlage von Freiheit und freien Märkten ersetzt wurde, müssen die Klimareligion und die grüne Zentralplanung Deutschlands verworfen werden, damit das Land zu Energierealismus und ökonomischer Vernunft zurückkehren kann.

Achse-Autor Dr. Benny Peiser ist Direktor der Global Warming Policy Foundation (GWPF), einer in London ansässigen, überparteilichen Denkfabrik für Klima- und Energiepolitik. 
Sein Kommentar erschien zuerst in englischer Sprache.

Übersetzung von achgut.com




Nicht immer passt wirklich alles zusammen

Auf dem bekannten Klimablog WUWT (Whats Up With That) macht sich Willis Eschenbach unter dem Titel “Can A Cold Object Warm A Hot Object?“ Gedanken darüber, ob ein kalter Körper einen warmen Körper erwärmen kann. Ziel des Artikels ist es offenbar, das Modell einer sogenannten atmosphärischen Gegenstrahlung zu stützen.

Zunächst kommt Eschenbach anhand des in Abbildung 1 dargestellten Beispiels mit Geldflüssen auf den durchaus nachvollziehbaren Ansatz, die Nettoströme zu betrachten. Seiner dort dargestellten Logik zufolge sagt der zweite Hauptsatz der Thermodynamik nichts über die Einzelflüsse aus, sondern nur über den resultierenden Nettofluss. Im übertragenen Sinne verliert nach dem Modell von Eschenbach der Körper mit der höheren Temperatur also immer mehr Energie, als er im gleichen Zeitraum von einem kälteren Körper zugeliefert bekommt.

Bild: Willis Eschenbach

Abbildung 1: Das Beispiel von Eschenbach @ WUWT

Der warme Körper kann also durch das Zuliefern von Energie durch einen kälteren Körper nicht wärmer werden, als er schon ist, er kühlt nur weniger langsam ab. Das kann man sich anhand von 2 Tassen heißen Kaffee deutlich machen, eine Tasse lassen wir in der Küche stehen und die andere stellen wir auf die winterliche Terrasse. Im Ergebnis wird die Tasse in der Küche länger warm bleiben, als die auf der Terrasse. Beides ist über die Umgebungstemperatur leicht erklärbar.

Soweit, so gut – und auch noch nachvollziehbar, und damit wäre bisher der 2. Hauptsatz der Thermodynamik erfüllt.

Dann aber wird es ziemlich unübersichtlich, denn plötzlich kommt Eschenbach mit der Idee, ein kalter Körper konnte einen noch kälteren Körper hinter sich verbergen, also dafür sorgen, dass ein warmer Körper nicht in dem Maße abkühlt, wie er es eigentlich müsste. Um seine Argumentation zu stützen, stellt Eschenbach eine Energiebilanz unserer Erde nach Kiehl & Trenberth vor. Entgegen dem Original von K&T sei das von ihm vorgestellte Modell in Abbildung 2 aber für alle atmosphärischen Schichten und die Erdoberfläche energetisch ausbalanciert, Zitat:

“…this one is balanced, with the same amount of energy entering and leaving the surface and each of the atmospheric layers.

 

Abbildung 2:      Globales Energiebudget nach Kiehl&Trenberth aus Eschenbach @ WUWT

(die roten Zahlen wurden vom Autor zusätzlich eingefügt)

Die Zahlenangaben auf der linken Seite des Diagramms sind verständlich und nachvollziehbar, während die rechte Seite trotz der vom Autor in rot ergänzten Zahlenwerte auch weiterhin kryptisch bleibt. An dieser Stelle sei darauf hingewiesen, dass die übliche globale Energiebilanz nach Kiehl & Trenberth nichts mit der tatsächlichen Temperaturgenese unserer Erde zu tun hat, auch wenn sie im konventionellen S-B Ansatz zur Ermittlung einer theoretischen Durchschnittstemperatur immer wieder gerne verwendet wird, wie Abbildung 3 verdeutlicht.

Abbildung 3: Die praktische Anwendung des Stefan-Boltzmann-Gesetzes

In Abbildung 3A sieht man das klassische Stefan-Boltzmann-Experiment. Mit dessen Umkehrung kann man beispielsweise unmittelbar die Temperatur der Sonne bestimmen, wie Abbildung 3B zeigt. Das S-B Gesetz beschreibt also das Verhältnis zwischen der Temperatur eines erhitzten Körpers und seiner originären Strahlung im thermischen Gleichgewicht, das im S-B Gesetz durch das Gleichheitszeichen dargestellt wird. Und in Abbildung 3C sehen wir dann einen kalten Körper, der passiv von der Sonne bestrahlt wird. Egal wie man sich auch dreht und wendet, bei einem T4-Gesetz kann man der Sonneneinstrahlung nicht willkürlich eine beliebige bestrahlte Fläche auf der Erde zuschreiben, für die dann „freihändig“ eine Gleichgewichtstemperatur mit dem S-B Gesetz berechnet wird, sondern muss sich auf die direkt bestrahlte Hemisphäre beschränken. Und daher kann man aus einer durchschnittlichen Energiebilanz für die ganze Erde auch keine durchschnittliche Globaltemperatur ableiten, denn damit würde man das Stefan-Boltzmann-Gesetz als profane Rechenanweisung missbrauchen. Für unsere Erde als passiv beleuchteten Körper hat das Stefan-Boltzmann-Gesetz also nur eine recht begrenzte Aussagefähigkeit, nämlich:

Wenn die Erde eine Temperatur von -19 Grad Celsius hätte, würde sie nach dem Stefan-Boltzmann-Gesetz über ihre gesamte Oberfläche mit 235 W/m² abstrahlen.

Diese Aussage beweist aber nicht, dass die Erde tatsächlich eine solche Temperatur besitzt. Schon gar nicht kann man aber die solare Einstrahlung vierteln und damit über die gesamte Erdoberfläche verteilen, wie das auch Eschenbach in seinem Artikel macht. Diese Kritik führt uns dann direkt zu meinem hemisphärischen Stefan-Boltzmann Ansatz, nach dem die gemessene Durchschnittstemperatur unserer Erde von 14,8 °C durch den Wärmeinhalt der globalen Zirkulationen bestimmt wird. Dazu gerne ein anderes Mal mehr und jetzt zurück zu Eschenbach. Die zentrale Aussage seines Artikels ist, eine kalte Atmosphäre könne die Erde vor etwas noch kälterem schützen, nämlich vor dem Weltall, Zitat:

BUT a cold atmosphere can leave the earth warmer than it would be without the atmosphere because it is hiding something even colder from view, the cosmic microwave background radiation that is only a paltry 3 W/m2. And as a result, with the cold atmosphere shielding us from the nearly infinite heat sink of outer space, the earth ends up much warmer than it would be without the cold atmosphere.”

Diese Sichtweise von Eschenbach hat aber keinerlei physikalische Relevanz. Kälte ist nämlich nicht etwa als „negative Strahlung“ eine eigenständige physikalische Größe, sondern beschreibt umgangssprachlich lediglich die Abwesenheit von gefühlter Wärme. Die Physik bezeichnet dagegen jede Temperatur über dem absoluten Nullpunkt von 0 °K als „Wärme“. Eine solche Argumentation wie die von Eschenbachs geht also völlig an der physikalischen Realität vorbei und damit fällt auch der Ansatz, man könne einen warmen Körper aktiv vor einer auf ihn eindringenden Kälte schützen.

Vielmehr gibt es genau für diesen Fall die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes, die in Abbildung 4 dargestellt ist.

Abbildung 4:      Die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes

Rot gestrichelt: Die T4-Beziehung des S-B Gesetzes zwischen Strahlung und Temperatur

Blaue Treppenfunktion: Das unterschiedliche Temperaturäquivalent für jeweils 235 W/m²

Nach der S-B Umgebungsgleichung ergibt sich bei einem beliebigen Abstrahlungswert in [W/m²] keine eindeutige Lösung für den betreffenden Temperaturbereich, in dem diese Abstrahlung stattfindet. Für eine solche eindeutige Lösung ist vielmehr die Kenntnis der S-B Umgebungstemperatur T0 zwingend erforderlich.

Der Knackpunkt von Eschenbachs Modell ist also die S-B Umgebungstemperatur T0, die eben nicht von der Temperatur des Weltraums oder einer ominösen atmosphärischen Gegenstrahlung vorgegeben wird, sondern allein vom Wärmeinhalt der globalen Zirkulationen.




Winter 2017/18 – lässt er Milde walten?

1. Die Bauernregeln und die „Milde Oktober- kalte Winterregel“

Der sehr milde Oktober 2017 ruft die Regel „Ist Oktober mild und fein (trocken- sonnig), wird ein harter Winter sein“ auf den Plan. Korrekter formuliert, lautet die Regel folgendermaßen: „Ist der Oktober in Deutschland wesentlich (mehr als 1,5 Kelvin) zu warm und gleichzeitig merklich zu trocken, beides bezogen auf den Langjährigen Mittelwert, so wird der Folgewinter mit etwa 80%iger Wahrscheinlichkeit zu kalt ausfallen.“ Und 2017 scheidet diese Regel sowieso aus, weil der milde Oktober insgesamt deutlich zu niederschlagsreich ausfiel. Die Oktoberkombination „deutlich zu mild (mind. 1 K) und mehr oder weniger deutlich zu nass“ findet sich beim DWD- Mittel seit 1881 nur sechsmal (1923, 1942, 1966, 1989, 2013 und 2014). Von den Folgewintern war nur der von 1923/24 merklich zu kalt, alle übrigen um >1 bis teils um 3 K deutlich zu mild. Bei dieser geringen Zahl der Vergleichsfälle ist aber Vorsicht geboten.

Wenn im Herbst viel Spinnen kriechen, sie einen harten Winter riechen.“ Im Spätsommer/Herbst 2017 gab es ungewöhnlich viele Spinnen; doch lässt sich daraus nicht auf die Winterstrenge schließen. Aber auf etwas Anderes- soll es nach den rot- grünen Mainstream- Medien nicht immer weniger Insekten in Deutschland geben? (die angeblichen Schuldigen: Eine „böse“ intensive Landwirtschaft und der Klimawandel). Doch alle Spinnenarten ernähren sich räuberisch von Insekten- es muss also sehr viele Insekten gegeben haben! „Ist Martini (10./11.11.) trüb und feucht, wird gewiss der Winter leicht.“ Um den 10.11.2017 herrschte trübes, feuchtes, normal temperiertes Wetter. Wegen der Kalenderreform von 1583 (10 Tage Verschiebung aller Lostage) ist auch die Witterung um den 20.11. beachtenswert. „Elisabeth (19.11., diesmal normal temperiert, windig und wechselhaft) sagt an, was der Winter für ein Mann“. „Wie’s Wetter an Kathrein (25.11., diesmal fast temperaturnormal und verregnet), so wird es auch im Januar sein.“ Solche Regeln treffen keinesfalls immer zu. Insgesamt deutet die Mehrzahl der Bauernregeln auf einen sehr milden bis höchstens normalen Winter hin.

2. La Nina- was bedeutet das?

Momentan herrschen im tropischen Südost- Pazifik einschließlich der Südamerikanischen Küste deutlich zu niedrige Meeresoberflächentemperaturen- ein klassischer „La Nina“. Dieser soll sich im Winter fortsetzen. Direkte Auswirkungen auf die Winterwitterung in Deutschland lassen sich daraus aber kaum ableiten; La- Nina- Winter können hierzulande mild (2013/14, 2007/08,1999/2000,1998/99, 1988/89,1974/75) oder zu kalt (1995/96,1984/85,1962/63) ausfallen. „La Nina“ hat aber eine andere Auswirkung- auf die globalen Durchschnittstemperaturen. Der seit etwa 20 Jahren zu beobachtende Hiatus der „globalen Erwärmung“ dürfte sich dadurch manifestieren.

3. Nachlassende Sonnenaktivität- Menetekel der Abkühlung

Direkte Sonnen- und Infrarotstrahlung schwanken nur wenig, umso mehr aber das solare Magnetfeld, die Teilchenstrahlung („Solarwind“, verantwortlich u.a. für Polarlichter), die Radiostrahlung und die von der oberen Erdatmosphäre weitgehend absorbierte kurzwellige Strahlung (Röntgen, kurzwelliges UV). Sie beeinflussen Wetter und Klima wesentlich; allerdings besteht noch Forschungsbedarf. Die Sonnenfleckenanzahl bildet die Sonnenaktivität grob ab; je mehr Sonnenflecken, desto höher die Sonnenaktivität. Die Sonnenaktivität wirkt auf verschiedenen Zeitskalen; hierzu wird intensiv geforscht. Im Jahr 2017 nahm die Fleckenzahl tendenziell weiter ab; oftmals war die Sonne schon fleckenlos, was Kältewellen in den kommenden Monaten begünstigen könnte.

Dem noch intensiven 23. folgte der schwache 24. SCHWABE-Zyklus. Dieser ist mit maximal nur gut 100 Flecken einer der schwächsten Sonnenfleckenzyklen seit 200 Jahren:

Nach dem absoluten Zyklus-Maximum (Februar 2014) sank die Fleckenzahl. Der Winter 2017/18 ist der vierte nach dem Maximum des SCHWABE-Zyklus. Die 23 Vergleichswinter seit 1760/61 trafen mit -0,2°C genau das langjährige Wintermittel dieses 257ig- jährigen Zeitraumes, wobei aber auffällt, dass die letzten sechs, beginnend mit 1950/51, allesamt zu mild waren. Sehr kalte Winter treten ohnehin bevorzugt zum Minimum des Schwabe-Zyklus oder 1 bis 2 Jahre nach diesem auf; letztmalig 2009/10, davor 1995/96 und 1996/97 sowie 1986/87. Hier zeigt sich schon eine gewisse Verzögerung, mit der die Wintertemperaturen der solaren Aktivität folgen. Eine bessere Aussagefähigkeit hat der solare Ap- Index, welcher die magnetische Wirkung der solaren Teilchenstrahlung beschreibt. Er hatte sein Minimum zwischen 2008 und 2010, was die damaligen Kälte- Winter mit erklären könnte. Gegenwärtig ist aber der Ap- Index, im Gegensatz zur Anzahl der Sonnenflecken, noch mäßig hoch, was für einen eher normalen Winter spricht:

In den kommenden Jahrzehnten sinkt die Sonnenaktivität aber vermutlich weiter (neues Dalton- oder Maunder-Minimum), was weltweit abkühlend wirkt und in Mitteleuropa Meridionallagen (im Winter oft kalt) begünstigt. Das träge Klimasystem reagiert nur mit Verzögerungen von etwa 10 bis 30 Jahren auf die schon nach 1990 beginnende tendenzielle Abschwächung der Sonnenaktivität, so dass sich negative Auswirkungen erst weit nach 2015 deutlicher zeigen werden. Vermutlich gab es deswegen bereits in den letzten 20 Jahren kaum noch Erwärmung in Deutschland; in Zentralengland kühlte es sich gar leicht ab:

Bei globaler Betrachtungsweise (die „Erdmitteltemperatur“ ist strenggenommen ein wertloses Kunstgebilde) fehlt, trotz des starken El Ninos 2015/16, nun schon seit gut 20 Jahren eine signifikante „globale“ Erwärmung. Insgesamt lässt die geringe Sonnenaktivität 2017 einen eher normalen bis zu kalten Winter erwarten.

4. Die Zirkulationsverhältnisse

Westliche Luftströmungen (Zonale Großwetterlagen) bringen milde Atlantikluft nach Deutschland, nördliche und vor allem östliche Kaltluft. Bei Süd- und Zentralhochlagen muss ein starker Wind die bodennah aus Ost einsickernde oder vor Ort immer wieder neu entstehende Kaltluftschicht vertreiben, ansonsten können auch sie im Tiefland bitterkalt sein, während es auf den Berggipfeln sehr mild ist. Der Zusammenhang zwischen der Häufigkeit der Luftströmungen mit Westanteil (Großwettertypen W, SW und NW) sowie den Wintertemperaturen in Deutschland ist sehr eng (folgende Grafik):

Für längerfristige Vorhersagen muss man die Zirkulationsverhältnisse vorhersehen können, was kaum möglich ist. Im Herbst 2017 war die Zonalzirkulation zeitweise kräftig entwickelt; so Mitte September und in der ersten sowie letzten Oktoberdekade, was auf einen eher milden Winter hindeutet; ähnlich wie 2013/14, 1988/89 oder 1989/90. Ob die seit der Jahrtausendwende zu beobachtende leichte Abnahme der Westlagenhäufigkeit in diesem Jahr eine Rolle spielt, ist mehr als fraglich. Wegen der sich aktuell vermutlich verstärkenden Ostwind-Phase der QBO (Erklärung siehe Punkt 7) liegt eine verstärkte Meridionalisierung mit Kälte im Laufe des Hochwinters aber noch im Bereich des Möglichen. Einhergehend mit der lebhaften Zonalzirkulation gab es schwere Herbststürme („XAVIER“ Anfang und „HERWART“ Ende Oktober). Die Zirkulationsverhältnisse weisen überwiegend auf einen eher milden Winter hin.

5. Die mittelfristigen Modelle

Die verbesserte Kurzfrist-Vorhersagegüte (etwa 1 bis 4 Tage im Voraus) resultierte aus der Entwicklung und Verfeinerung numerischer Modelle, basierend auf Gleichungen der Thermodynamik, in Verbindung mit immer schnelleren Computern sowie mehr und besseren Mess- oder Beobachtungsdaten per Satelliten und Automaten. Für längerfristige Vorhersagen dienen sogenannte Ensemble- Modelle, bei denen man die Ergebnisse mehrerer Modell- Läufe (gerechnet mit leicht variierten Anfangsparametern) mittelt. Sie liefern keine detaillierten Vorhersagen, doch gute Abschätzungen des Temperaturniveaus für etwa eine Woche im Voraus und vage für bis zu 15 Tagen.

Die Ensemble-Vorhersagekarte des NOAA (USA- Wetterdienst) vom 26.11. für den 10.12.2017 zeigt ein Tief über Skandinavien, flankiert von hohem Luftdruck über dem Atlantik und Osteuropa (Quelle NOAA). Sollte das so eintreten (noch sehr unsicher), so wäre es zumindest im Bergland oberhalb 600 bis 800 Meter winterlich; im Tiefland wäre nasser Schnee oder Regen bei leichten Plusgraden möglich:

Es deutet sich, auch nach den hier nicht gezeigten Einzel- Modell- Läufen, für die erste Dezemberdekade normal temperiertes, nasskaltes Wetter an; im Bergland oberhalb etwa 600 bis 800m könnte gar Dauerfrost mit guten Wintersportbedingungen herrschen; im Tiefland zumindest zeit- und gebietsweise nasser Schnee liegen; zumindest gelegentliche Nachtfröste mit Glättegefahr sind hier zu erwarten; tagsüber aber meist mehr oder weniger deutliche Plusgrade; vielleicht kurzzeitig im Nordosten auch mal schwacher Dauerfrost.

6. Die aktuelle Tendenz der Wintertemperaturen in Deutschland

Trends erlauben nie Rückschlüsse auf den Einzelfall und keine Extrapolation in die Zukunft. Die Wintertemperaturen entwickelten sich in den letzten 30 Jahren folgendermaßen:

Trotz der sehr milden Winter 2013/14 und 2015/16 und kontinuierlich steigender CO2- Konzentration (obere, grüne Linie) fiel das Wintermittel seit 30 Jahren, wenngleich nicht signifikant, weil die schon erwähnte nachlassende Sonnenaktivität und schwächere Zonalzirkulation bereits Wirkung zeigen. Doch die DWD-Daten sind nicht wärmeinselbereinigt. Einen deutlicher fallenden Trend zeigt die wärmeinselarme Station Amtsberg/Erzgebirge:

Aber die „richtige“ Kälte dürfte indes wegen der Trägheit des Klimasystems erst in wenigen Jahren bis Jahrzehnten zuschlagen („Kleine Eiszeit“). Die seit einigen Jahren wieder leicht steigende Zahl von Nebeltagen weist gleichfalls auf eine langsam beginnende Abkühlung hin.

7. Die Nordatlantische Oszillation (NAO), die AMO, die QBO und der Polarwirbel

Der NAO- Index ist ein Maß für die Intensität der Westströmung über dem Ostatlantik im Vergleich zum Langjährigen Mittel. Positive NAO- Werte bedeuten häufigere und intensivere, im Winter eher milde Westwetterlagen. Bei negativen NAO- Werten schwächt sich die Intensität der Zonalströmung ab, bei stark negativen Werten kann sie gar in eine Ostströmung umschlagen oder meridional verlaufen. Die NAO schwankte seit Sommer 2017 häufig zwischen positiven und negativen Werten; zum Schluss war der Index negativ (Quelle http://www.cpc.ncep.noaa.gov/products/precip/CWlink/pna/nao.mrf.obs.gif ):

Mitunter verändert sich die NAO sprunghaft (schwere Vorhersagbarkeit). Die AMO (ein Maß für die Wassertemperaturschwankungen im zentralen Nordatlantik) beendet gegenwärtig ihre Warmphase. Ein kompletter AMO- Zyklus dauerte seit Beginn regelmäßiger Messungen immer etwa 50 bis 80 Jahre, somit ist in naher Zukunft ein Wechsel in die Kaltphase wahrscheinlich. Mehr zum Zusammenhang von AMO, NAO und den Temperaturverhältnissen in Deutschland unter anderem hier http://www.eike-klima-energie.eu/news-cache/im-takt-der-amo-und-der-nao-3-das-haeufigkeitsverhalten-der-grosswetterlagen-und-dessen-auswirkungen-auf-die-deutschland-temperaturen/ . Die folgende Abbildung beginnt mit dem 10-jährigen Gleitmittel ab 1880/81 unter Einbeziehung der Werte ab 1871/72. Die AMO (grün) verhält sich fast spiegelbildlich zu NAO (obere schwarze Kurve), der Westwetterlagenhäufigkeit (unterste, violette Kurve) und den Wintertemperaturen in Deutschland. Die Gleitmittel wurden dann nochmals 15- jährig geglättet (fette Linien).

AMO- Warmphasen erhöhen die Wahrscheinlichkeit für einen kalten Winter leicht, weil diese Konstellation kalte, nordöstliche Strömungen („Wintermonsun“) begünstigen könnte. Und die sogenannte QBO (Windverhältnisse in der unteren Stratosphäre der Tropen, die etwa alle 2,2 Jahre zwischen West und Ost wechseln) verhält sich momentan ungewöhnlich uneinheitlich (Westwindphase in der unteren Stratosphäre und Ostwindphase in der oberen Stratosphäre). Nur wenn die Westwind- Phase in der unteren Stratosphäre enden sollte, könnte das Meridionale Lagen und damit einen Kaltwinter begünstigen. In diesem Zusammenhang lohnt noch ein Blick auf die mögliche Entwicklung des Polarwirbels. Ein ungestörter, sehr kalter Polarwirbel im 10- hPa- Niveau (gut 25 Km Höhe, Stratosphäre) ist kreisrund und in der Arktis extrem kalt, was Westwetterlagen begünstigt, welche in Deutschland mild sind. Für den 10. Dezember wird ein Polarwirbel vorhergesagt, der merklich gestört und über Grönland/Island am kältesten ist, was alle Möglichkeiten für milde oder kalte Witterungsabschnitte noch offen lässt:

NAO, QBO, AMO und das Verhalten des Polarwirbels deuten auf einen eher normalen bis milden Winter hin.

8. Verursacht das angeblich verschwindende Arktische Meereis kältere Winter? Für die relativ kalten Winter 2009/10 und 2012/13 wurde das schwindende arktische Meereis, speziell im September, verantwortlich gemacht. Mit etwa 4,8 Millionen Km² gab es im Septembermittel 2017 eine etwas größere Eisfläche, als in den beiden Vorjahren, und deutlich mehr zum bisherigen Negativ- Rekordmittel von 3,57 Millionen Km² (Sept. 2012) (Daten: NSIDC, National Snow and Ice Data Center der USA). Bei AMO- Warmphasen wird mehr Wärme in die Arktis eingetragen. Die minimale Eisausdehnung und die geringere Westlagenhäufigkeit der 2000er Jahre „passen“ gut zum AMO- Maximum. Genaueres Zahlenmaterial zur Eisausdehnung liegt leider erst seit 1979 vor (Einführung der flächendeckenden, satellitengestützten Überwachung). Zumindest in diesem relativ kurzen Zeitraum von mehr als 35 Jahren bestand ein signifikanter Zusammenhang zwischen der AMO und der Fläche des winterlichen Arktis- Meereises:

Ähnlich wie in den 1930er Jahren, als während der damaligen AMO- Warmphase ebenfalls ein Meereisrückgang sowie vor allem ein starkes Abschmelzen der Grönland- Gletscher herrschte. Näheres dazu unter http://www.eike-klima-energie.eu/climategate-anzeige/fotos-aus-den-dreissiger-jahren-groenland-gletscher-haben-sich-damals-schneller-zurueck-gezogen-als-heute/ . Die These „weniger Arktiseis – mehr Winterkälte in Deutschland“ ist unhaltbar; tatsächlich fehlt jeglicher Zusammenhang:

Auch bei Betrachtung anderer Bezugszeiträume besteht keine Korrelation. Die aktuelle Meereisbedeckung im Vergleich zu den Vorjahren auf der Nordhalbkugel kann man hier abrufen: http://ocean.dmi.dk/arctic/icecover.uk.php . Laut einer Fehlprognose von Al Gore sollte der Nordpol schon im Spätsommer 2013 eisfrei sein. Näheres bei http://info.kopp-verlag.de/hintergruende/enthuellungen/alex-newman/al-gore-sagte-voraus-2-13-sei-die-arktis-voellig-eisfrei-stattdessen-ist-die-eisschicht-um-die-ha.html . Im Herbst 2017 war ein stärkeres Eiswachstum als in den Vorjahren zu beobachten, was den Polarwirbel stärken und milde Westlagen begünstigen könnte. Insgesamt hat das komplizierte, wenig erforschte Zusammenspiel zwischen Meeresströmungen, AMO, Meereis und Großwetterlagen wahrscheinlich großen Einfluss auf die Witterungsverhältnisse. Die Ausdehnung der Schneebedeckung im Spätherbst (Okt/Nov) in Eurasien hat ebenfalls keine eindeutigen Auswirkungen auf die deutsche Winterwitterung. So bedeckte der Schnee in den Spätherbsten 1968, 70, 72, 76, 93, 2002, 09, 14,15 und 16 auf der größten zusammenhängenden Landmasse der Erde eine deutlich überdurchschnittliche Fläche, doch nur die 3 Winter 1968/69, 2002/03 und 2009/10 waren danach zu kalt, während die anderen 7 zu mild ausfielen; letztmalig der von 2016/17, trotz des kalten Januars. Eine große Überraschung bot dieser Analyseteil trotzdem. Im Herbst und Winter wächst nämlich die mit Schnee bedeckte Fläche Eurasiens; nur im Frühling und Sommer nimmt sie ab. Sollte es Dank des „Klimawandels“ nicht immer weniger Schneeflächen in allen Jahreszeiten geben?? Und die wahre Ursache für die Abnahme im Frühjahr/Sommer ist nicht das CO2, sondern vermutlich mehr Sonnenschein (siehe folgende Abbildung):

9. Analogfälle (ähnliche Witterung wie 2017)

Bei dieser Methode werden die dem Winter vorangehenden Monate hinsichtlich ihres Witterungsverlaufs untersucht. Betrachtet man alle mehr oder weniger zu kalten Winter der vergangenen 4 Jahrzehnte inklusive solcher, die bei milder Gesamtwitterung mindestens eine mehrwöchige Kälteperiode aufwiesen, so gingen diesen Wintern bis auf die Ausnahme von 2011 Herbste voraus, die schon mindestens einen auffälligen Kälteeinbruch hatten. Dabei war nur selten der Herbst insgesamt zu kalt, aber er wies dann mindestens einen zu kalten Monat oder wenigstens eine markante Kaltphase auf (November 1978, 1980, 1981, 1984, 1985, September 1986, September 1990, November 1993, November 1995, September 1996, September/Oktober 2002, November 2005, September 2008, Oktober 2009, November 2010, Oktober 2012, 2015, Oktober/November 2016). Schneite es bereits im Oktober stellenweise bis ins Flachland (2002, 2009, 2012 und 2015), so war in den ersten 3 Fällen der gesamte Winter zu kalt; 2015/16 kam es nur im Januar besonders in Nordostdeutschland zu längeren, winterlichen Phasen. Vor den meisten fast durchgängig milden Wintern (1973/74,1974/75,1987/88,1988/89,1989/90, 2006/07, 2007/08, 2013/14, 2014/15) waren die Herbste entweder rau, gemäßigt oder extrem mild; markante Kälteeinbrüche fehlten jedoch so wie auch 2017 oder waren nur ganz kurz (November 1988 und 1989). Das Witterungsverhalten im September/Oktober 2017 (September etwas zu kalt, Oktober zu feucht und viel zu mild) ähnelte, freilich nur sehr grob, dem der Jahre 1923, 66 und 2013, wonach der Winter 1923/24 zu kalt und die beiden letzten zu mild waren. Die wahrscheinliche (trotzdem sehr unsichere) Luftdruckabweichung vom Langjährigen Mittel über Europa (Quelle: langfristwetter.com) sieht für die kommenden Wintermonate so aus:

Im Dezember 2017 (oberes Bild) positive Luftdruck-Anomalie in hpa auf Meeresspiegelniveau über dem Nordatlantik und etwas zu tiefer Luftdruck über Skandinavien. Das hätte normale Dezembertemperaturen in Mitteleuropa zur Folge; mit Schneefällen besonders in den Mittelgebirgen. Im Januar 2018 (Mitte) leicht erhöhter Luftdruck über Nordosteuropa- zumindest einzelne Kältewellen aus Nordost wären bei insgesamt etwas zu kaltem Januar denkbar. Im Februar deutlich zu tiefer Luftdruck bei Island mit sehr mildem Westwetter bei uns. Die Vergleichsjahre mit ähnlicher Vorwitterung, aus der sich die berechnete Druckverteilung ergab, waren 1949, 1967, 1970, 1973, 1983, 1984, 1990, 1994, 1996, 1999, 2001, 2005 und 2013. Es finden sich danach 6 zu milde (am deutlichsten 2013/14), 4 fast temperaturnormale und 3 zu kalte Winter; am markantesten 1984/85. Damit deutet sich bei Mittelung eine Tendenz zu einem eher normalen Winter an. Auch hier ist die geringe Zahl der Vergleichsfälle problematisch; Näheres zu der Methode unter http://www.langfristwetter.com/langfristprognose-europa.html . Zu warmen Sommern (auch der Sommer 2017 war trotz seiner sehr wechselhaften, nassen Witterung deutlich zu warm!) folgen meist milde statt kalten Wintern (positiver Zusammenhang). Für seriöse Vorhersagen ist diese Beziehung freilich auch viel zu schwach. Zwischen den Herbst- und Wintertemperaturen findet sich sogar ein etwas deutlicherer positiver Zusammenhang. Schon der August liefert aber manchmal erste Hinweise. Er wies 2017 nach der Objektiven Wetterlagen- Klassifikation des DWD (seit 1979 verfügbar) mit 30 Tagen auffallend viele mit Westanteil und nach der HESS/BREZOWSKY- Klassifizierung mit 15 Tagen auffallend viele mit Südanteil auf. Ähnlichen Augusten folgten in der Vergangenheit zu 50 bis 60% milde und nur zu 10 bis 25% kalte Winter; die restlichen waren normal. Und sogar der dem Winter vorausgehende März (2017 extrem mild) lässt einen sehr kalten Winter unwahrscheinlich werden. In den 36 Fällen seit 1881, bei denen der Vor- März im Deutschlandmittel mindestens 5°C erreichte, also merklich zu mild war, verlief der folgende Winter in 17 Fällen zu mild, in 13 normal und nur in 6 Fällen etwas zu kalt. Ähnliches gilt für den Vor- Mai. Insgesamt deutet sich nach den Analogfällen also eine erhöhte Wahrscheinlichkeit für einen normalen bis zu milden Winter an.

10. Die Hurrikan- Aktivität (Nordatlantik) und Zyklonen- Aktivität (nördlicher Indik)

Mit gewissen Abstrichen (mangelnde Beobachtungsmöglichkeiten vor Einführung der Satellitentechnik) ist die jährliche Anzahl der Tropischen Wirbelstürme im Nordatlantik (Hurrikane) und der Zyklone (nördlicher Indischer Ozean) etwa bis zur Mitte des 19. Jahrhunderts bekannt. Die verheerenden, meist wenige Tage bis selten länger als zwei Wochen existierenden Hurrikane gelangen nie nach Mitteleuropa. Aber sie beeinflussen unsere Witterung. Sie schwächen bei bestimmten Zugbahnen das Azorenhoch oder kommen bei Einbeziehung in die Westdrift als normale Tiefs nach Europa, wo sie im Spätsommer/Frühherbst mitunter einen Witterungsumschwung einleiten. Auch die Anzahl der im nördlichen Indischen Ozean jährlich vorkommenden Wirbelstürme (Zyklone) könnte einen gewissen Einfluss auf unsere Winterwitterung haben; es gibt von 1890 bis 2014 eine leicht negative Korrelation (tendenziell kältere Winter, wenn dort viele Zyklone auftraten). Im Mittel von 1851 bis 2014 sind gut 5 Hurrikane pro Jahr (die Saison beginnt meist erst zwischen Mai und Juli, doch 2016 gab es schon im Januar einen Hurrikan, und endet spätestens Anfang Dezember) aufgetreten. Erreichte ihre Zahl mindestens 10 (1870, 1878, 1886, 1887, 1893, 1916, 1933, 1950, 1969, 1995, 1998, 2005, 2012), so waren von den 13 Folgewintern 11 zu kalt, nur 2 (1998/99 und 1950/51) zu mild. Bei fast all diesen Fällen brachte allerdings schon der Spätherbst markante Kältewellen; selbst vor den beiden dann milden Wintern waren sie zu beobachten; besonders markant 1998. In diesem Jahr gab es bislang 10 Hurrikane und damit deutlich zu viele, was eher für einen kalten Winter spricht. Im Indischen Ozean blieb die Zyklonen- Aktivität 2017 jedoch unterdurchschnittlich, was auf einen eher milden Winter hindeutet. Die Wirbelsturm- Aktivität liefert diesmal also keine eindeutigen Hinweise auf den Charakter des Winters in Deutschland.

11. Die Langfrist- Vorhersagen einiger Institute, Wetterdienste und Privatpersonen:

UKMO (Großbritannien): Stand 11.11.2017 Winter (D, J, F) mit leicht erhöhter Wahrscheinlichkeit in Deutschland zu mild (folgende Karte):

Anmerkung: Hier wird nur die erste UKMO- Karte gezeigt. Es gibt zwei weitere, eine mit der Probability (Wahrscheinlichkeit) für einen normalen Winter und eine für einen zu kalten; erstere weist ebenfalls eine leicht erhöhte Wahrscheinlichkeiten auf; während ein zu kalter Winter höchstens zu 20% wahrscheinlich ist . Die aktuellen Karten jederzeit unter http://www.metoffice.gov.uk/research/climate/seasonal-to-decadal/gpc-outlooks/glob-seas-prob

Meteo Schweiz Stand Nov. 2017: Leicht erhöhte Wahrscheinlichkeit für einen zu milden Winter. Zu kalter Winter nur zu etwas mehr als 20% wahrscheinlich); normaler zu knapp 30%. Die „doppelten T“ sind die Fehlerbalken:

LARS THIEME (langfristwetter.com) Vorhersage von Anfang November 2017: Alle drei Wintermonate zu mild.

IRI (folgende Abbildung), Vorhersage vom Nov. 2017: Keine Aussagen für Deutschland und weite Teile West- und Mitteleuropas; zu mild in Nord- und Osteuropa.

DWD (Offenbach): In Deutschland 0,5 bis 1°C zu mild, bezogen auf den Mittelwert der Jahre 1981 bis 2014 (Stand Nov. 2017):

NASA (US- Weltraumbehörde) Karte vom November 2017: Winter in Mitteleuropa etwa 2 bis 3 K zu mild. Bei dieser Karte liegt Mitteleuropa am linken Kartenrand, weit oben:

 

CFSv2- Modell des NOAA (Wetterdienst der USA, folgende 3 Abbildungen, Eingabezeitraum 16. bis 25.11. 2017): Alle 3 Wintermonate um 1 bis 2 K zu mild. Dezember (links) Januar (rechts) Februar (unten); damit Winter insgesamt sehr mild. Die vorhergesagten Temperaturabweichungen beziehen sich auf die Mittelwerte der Periode 1981 bis 2010. Die fast täglich aktualisierten, aber leider oft falschen Prognosen unter http://www.cpc.ncep.noaa.gov/products/people/wwang/cfsv2fcst/ (Europe T2m, ganz unten in der Menütabelle; E3 ist der aktuellste Eingabezeitraum):

Die Mehrzahl dieser experimentellen, nicht verlässlichen Langfristprognosen deutet einen eher zu milden Winter an.

Fazit: Eindeutige, verlässliche Anzeichen für einen durchgehend kalten Winter fehlen. Die Prognosesignale sowie die Vorhersagen der Wetterdienste und Institute tendieren bei großer Unsicherheit in Richtung eines normalen bis extrem zu milden Winters. Momentan kündigen sich keine markanten Kälteeinbrüche im Frühwinter an; aber nasskaltes Wetter; im Bergland oberhalb von etwa 500 Metern könnte im Dezember häufiger, im Tiefland gelegentlich Schnee liegen. Insgesamt fällt der Winter 2017/18 nach momentanem Stand also normal bis extrem zu mild aus und wird im Deutschland- Mittel auf +0,5 bis +3,5°C geschätzt (LJM 1981 bis 2010 +0,9°C); bei den sehr widersprüchlichen Prognosesignalen muss die weitere Entwicklung aber noch abgewartet werden. In den Mittelgebirgen bestehen zumindest zeit- und stellenweise gute Wintersportmöglichkeiten. Geschätzte Dezember- Monatsmitteltemperatur für Erfurt- Bindersleben (Mittel 1981- 2010 +0,5°C) 0,0 bis +2,5°C (normal bis deutlich zu mild). Für Jan/Feb. 2018 lässt sich noch kein Temperaturbereich schätzen! Das Schneeaufkommen ist kaum vorhersehbar (langfristige Niederschlagsprognosen sind besonders unsicher). Zur Winterlänge fehlen bisher ebenfalls noch Hinweise. Die Hochwinterwitterung (Jan/Feb.) kann erst anhand des Witterungstrends zum Jahreswechsel etwas genauer abgeschätzt werden; momentan ist ein zu milder Hochwinter deutlich wahrscheinlicher, als ein zu kalter. Wegen eines möglichen Wechsels zur Ostwindphase in der unteren Stratosphäre (QBO) sind aber winterliche Phasen oder wenigstens ein einzelner, kalter bis sehr kalter Wintermonat noch nicht völlig ausgeschlossen. Sollte allerdings der Dezember tatsächlich zu mild ausfallen, so erhöht das die Wahrscheinlichkeit für einen milden Hochwinter 2018 noch weiter.

Dieses Fazit wurde aus 10% der Tendenz der Bauern- Regeln, 10% Sonnenaktivität, 20% Zirkulationsverhältnisse, 10% Mittelfrist- Modelle, 10% NAO, AMO,QBO, Polarwirbel, 20% Analogfälle und 20% der vorwiegenden Tendenz der Langfristprognosen gewichtet.

Aktualisierung voraussichtlich Ende Dezember.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 26.11. 2017




Liebesgrüße aus Moskau – Vom Ausland unterstützte Umweltgruppen fallen unter Spionageverdacht

Fast 30 Umwelt-Nichtregierungsorganisationen (NGOs) sind damit gezwungen, der Regierung Berichte [über ihre Tätigkeiten, finanzielle und sonstige Unterstützungen und Kontakte] zu übermitteln. Bei  Nichteinhaltung sind Bußgelder fällig, stellte HRW fest. Von 29 Gruppen sind nun nur vier davon noch aktiv, während die übrigen nicht erreichbar sind oder nicht antworten wollen.

„Die Regierung hat eine administrative Struktur geschaffen, um Umweltorganisationen und Aktivisten zu delegitimieren und sie effektiv als antirussische Spione aussehen zu lassen“, sagte Richard Pearshouse, stellvertretender Umweltdirektor bei HRW, den Reportern über das Gesetz, das für jede Organisation gilt, die Hilfe aus dem Ausland für politische Aktivitäten erhält.

Einige der angegriffenen Gruppen argumentieren, dass die Verhängung von Geldstrafen und Genehmigungen es unmöglich macht, im Land präsent zu bleiben.

Bellona Murmansk, eine norwegisch unterstützte NGO, wurde wegen des Engagements von „Öko-Tagen“ bei Studenten-Sommerlager, zu einer Geldstrafe von 850 US-Dollar verurteilt. Diese Organisation wurde im Oktober 2015 geschlossen, weil sie nicht in der Lage waren, eine weitere Geldstrafe in Höhe von $ 5.000 zu zahlen.

„Vor der Ausweisung arbeiteten wir aktiv mit staatlichen Institutionen zusammen, einschließlich Schulen und öffentlichen Bibliotheken“, sagte der ehemalige Leiter von Bellona Murmansk, Andrey Zolotkov, den Mitgliedern von HRW. „Sowie wir das Label ‚Foreign Agent‘ erhalten hatten, sagten uns viele Kontakte in der Regierung, dass eine weitere Zusammenarbeit unmöglich sei.“

Spione; wuestenfux_pixelio.de

[[ de.wikipedia

Die Bellona-Stiftung ist eine internationale Umweltschutzorganisation mit Hauptsitz in Oslo. Sie hat Büros in Brüssel, bei der EU und in Washington, D.C. In Sankt Petersburg gibt es eine eigenständige Organisation.

Hauptziele sind nach der Satzung, für eine Förderung des ökologischen Verständnisses zu arbeiten sowie für den Schutz von Natur, Umwelt und Gesundheit aktiv einzutreten. Schwerpunkte sind die Gefährdungen durch die Atomenergie, Erdöl und Erdgas, der Klimawandel, die Ressourcen von erneuerbaren Energien und Energieeffizienz.

Bellona Murmansk als russische NGO aufgelöst

… hat der Leiter von Bellona Murmansk Andrey Zolotkov bestätigt, dass die Gruppe aufhören wird, als NGO zu operieren. Der Prozess der Kündigung begann bereits im April, als die Gruppe zu 50.000 Rubel Geldstrafe verurteilt wurde, weil sie sich nach dem russischen Gesetz über NGOs von 2012 nicht als ausländischer Agent registrieren ließ.  …]]

Berichte, dass Russland die öffentlichen Kampagnen von verschiedenen Umweltgruppen einschränkt, kamen hoch, obwohl das Land Präsident Donald Trump ständig kritisiert, weil dieser das Klimaabkommen von Paris verlassen hat.

Der Sprecher des Kremls, Dmitri Peskow, sagte Reportern während einer Telefonkonferenz am Anfang dieses Jahres, dass das Abkommen zahnlos sei, wenn die USA ihren Anteil des Abkommens nicht aufrechterhalten würden.

„Präsident Putin hat diese Konvention in Paris unterzeichnet. Russland misst ihm große Bedeutung bei „, sagte Peskov im Januar, kurz bevor Trump die Aufkündigung von Paris verlauten ließ. „Gleichzeitig ist es selbstverständlich, dass die Effektivität dieser Konvention ohne ihre wichtigsten Teilnehmer reduziert wird.“

Gefunden auf The Daily Caller vom 22.11.2017

Übersetzt durch Andreas Demmig

http://dailycaller.com/2017/11/22/report-russia-uses-anti-spying-legislation-to-shut-down-subversive-enviro-groups/

 




Reduktion langlebiger Spaltprodukte

Das Problem

Irgendwann ist jedes Brennelement erschöpft und muß erneuert werden. Die “abgebrannten” Brennelemente werden von “Atomkraftgegnern” gern als “Atommüll” verunglimpft, obwohl sie recycelt werden können. Sie bestehen noch zu rund 96% aus Uran und Plutonium, die erneut als Brennstoff genutzt werden könnten. Sicherheitstechnisch betrachtet, stellt ihre ionisierende Strahlung ein – durchaus unterschiedliches – Problem dar. Es sind daher dauerhafte Abschirmungen in der Form von Wasserbädern, Sicherheitsbehältern etc. notwendig. (Hier der Artikel in nature)

Der Faktor Zeit

Je länger die Halbwertszeit ist, um so länger dauert es, bis dieser Stoff verschwunden ist. Wenn man von einer Gefahr durch ionisierende Strahlung ausgeht, ist damit der Zeitraum bestimmt, in dem man den Stoff von der Biosphäre fern halten sollte:

  • Es gibt unterschiedliche Arten ionisierender Strahlung, die auch biologisch unterschiedlich wirken. Strahlung, die z. B. von Uran und Plutonium ausgeht, ist nur dann bedrohlich, wenn sie innerhalb des Körpers frei wird. Nimmt man sie nicht in den Körper auf (Nahrung, Atemluft), sind sie genauso harmlos, wie jedweder anderer Stoff auch.
  • “Die Dosis macht’s”. Insofern ist die Konzentration eines radioaktiven Stoffes (z. B. im Trinkwasser) entscheidend.
  • Freigesetzte Stoffe können sich (z. B. über die Nahrungskette) anreichern. Dies gilt naturgemäß besonders für langlebige Stoffe. Insofern sollten sie möglichst gar nicht erst freigesetzt werden.

Der Endlager-Standpunkt

Überzeichnet man die Gefahr, die von radioaktiven Stoffen ausgeht, kommt man zu dem Schluß, man müßte sie quasi “für ewig” sicher einschließen. Der Begriff des “Endlagers” ist erschaffen. Ein hervorragender politischer Kampfbegriff, weil wie ein Gummiband dehnbar. Man muß nur die Gefährlichkeit – was auch immer darunter zu verstehen sei – ausdehnen und kommt schnell zu Zeiträumen, die nicht mehr als beherrschbar erklärt werden können. Gipfel dieser Gespensterdebatte ist die Erforschung irgendwelcher Piktogramme, die Außerirdischen oder sonst wie verblödeten Erdbewohnern die Lage eines “Endlagers” in Millionen von Jahren näher bringen sollen. Interessant ist dabei nur, wie locker man beispielsweise den Fallout aus unzähligen Kernwaffenversuchen nicht gekennzeichnet hat. Wären die Stoffe auch nur annähernd so gefährlich, wie sich Ökoaktivisten gern an den Lagerfeuern im Wendland erzählen, müßte die gesamte Menschheit bereits ausgestorben sein. Aber es geht dabei ja auch weniger um Fakten, als um Gesellschaftsveränderung.

Gleichwohl sollte man mit radioaktiven Abfällen verantwortungsvoll umgehen. Es ist das Verdienst der Kerntechnik, der erste Industriezweig zu sein, der sich von Anfang an um seinen Abfall Gedanken gemacht hat: Wiederaufbereitung und geologische Tiefenlager waren erfunden. Letztere aus einem ethischen Anspruch heraus, den Abfall nicht den folgenden Generationen als Problem und Kosten zu hinterlassen. Immer noch revolutionär, wenn man es mit dem sonst voll akzeptierten Umgang mit Abfällen und Deponien vergleicht.

Die Art der Beseitigung

Wenn man gebrauchte Brennelemente aufarbeitet, können sie weiterhin zur Energiegewinnung verwendet werden: In konventionellen Reaktoren als Mischoxid und in schwerwassermoderierten Reaktoren sogar in ihrer ursprünglichen Zusammensetzung. Bedingung ist die Trennung von Uran und Plutonium von den Spaltprodukten.

Verwendet man diesen aufbereiteten Brennstoff in Reaktoren mit schnellem Neutronenspektrum (meist mit Natrium oder Blei als Kühlmittel), kann man damit sogar die minoren Aktinoide “verbrennen”. Sie bilden sich aus Uran- und Plutoniumkernen, die trotz Neutroneneinfang nicht gespalten worden sind. Sie sind besonders langlebig und müssen zusammen mit Plutonium als Argument für eine “sichere Endlagerung über Millionen von Jahren” her halten.

Bleiben die Spaltprodukte übrig. Sie sind zumeist recht kurzlebig und strahlen deshalb sehr stark. So stark, daß sie sich aufheizen, deshalb gekühlt und sicher abgeschirmt werden müssen. Ein Problem, das sich nach einigen Jahrhunderten von selbst erledigt hat. Es wäre mit der Lagerung in simplen Bunkern technisch leicht beherrschbar, wenn es nicht einige wenige sehr langlebige Spaltprodukte geben würde. Hier setzt wieder die Ethik ein: Ist es zulässig, solche Stoffe unseren Nachfahren zu vererben? Es handelt sich um recht harmlose Stoffe (lange Halbwertszeiten bedeuten wenige Zerfälle pro Sekunde und damit grundsätzlich geringe Dosisleistungen) in sehr kleinen Mengen. Es geht hier um Halbwertszeiten von einigen Hunderttausend (Se79, Tc99) bis zu einigen Millionen (Zr93, Pd107, I129, Cs135) Jahren.

Man kann Atomkerne nur durch Neutronen in ein anderes Element umformen. Man benötigt also eine (möglichst starke) Neutronenquelle. Dieser Vorgang wird Transmutation genannt. Ein Favorit hierfür sind Spallationsquellen, bei denen Atomkerne beschossen werden und förmlich verdampfen. Sie sind sehr aufwendig, produzieren aber dafür auch große Mengen Neutronen. Grundsätzlich bleibt aber ein Problem: Die Stoffe existieren meist in einem Isotopengemisch. Man will aber eigentlich nur ein bestimmtes (besonders langlebiges) Isotop umwandeln. Alle anderen Kernreaktionen sind parasitär und kosten nur die teueren Neutronen. Ein Schlüssel hierfür, sind die energieabhängigen Einfangquerschnitte.

Beseitigung in schnellen Reaktoren

Reaktoren mit schnellen Neutronen sind hervorragend zur “Verbrennung” von Plutonium und minoren Aktinoiden geeignet. Darüberhinaus benötigen sie nicht einmal Natururan, sondern geben sich sogar mit abgereichertem Uran als Brennstoff zufrieden. Allerdings sind sie nur schlecht zur Beseitigung der langlebigen Spaltprodukte geeignet. Diese besitzen nur sehr kleine Einfangquerschnitte für schnelle Neutronen. Es gibt aber einige Energiebereiche, in denen sie solche Neutronen begierig aufnehmen. Verzichtet man auf einige bei der Spaltung freigewordenen Neutronen – im statistischen Mittel auf 0,3 Neutronen pro Kernspaltung – kann man sie zur Umwandlung abzweigen. Man muß sie allerdings noch auf die ideale Geschwindigkeit abbremsen.

Damit ergibt sich folgendes Reaktorkonzept:

  • Man baut einen zentralen Kern, in dem die eigentliche Energieproduktion aus Uran und Plutonium durch Spaltung mit schnellen Neutronen stattfindet.
  • In einem “schnellen Brüter” ist diese Zone von einer Schicht aus abgereichertem Uran umgeben. Die Neutronen, die aus dem Kern rausfliegen und nicht zur Aufrechterhaltung einer Kettenreaktion benötigt wurden, reagieren hier mit dem Uran und bilden zusätzliches Plutonium. Bei einem “Brüter” ist hier die Produktion von Plutonium größer als gleichzeitig davon im Kern verbraucht wird.
  • Verzichtet man nun auf einen Teil der “Brutrate”, hat man Neutronen für eine Umwandlung von Spaltprodukten zur Verfügung. Man muß diese nur noch – möglichst an Ort und Stelle – auf die “richtige” Geschwindigkeit abbremsen. Man kann in den “Brutmantel” eine gewisse Anzahl von Brennstäben einfügen, die mit einem Gemisch aus den zu beseitigenden Spaltprodukten und einem geeigneten Moderator gefüllt sind. Ein solcher Moderator könnte z. B. Yttrium Deuterid (YD2) sein. Er erfüllt die Bedingungen, selbst kaum mit Neutronen zu reagieren und die richtige Masse für die notwendige Abbremsung zu besitzen.

Die notwendige Verfahrenstechnik

Die Wiederaufbereitung wird erheblich komplizierter. Bei dem klassischen PUREX-Verfahren – wie es z. B. in Frankreich angewendet wird – gewinnt man möglichst reines Uran und Plutonium. Alles andere ist Abfall, der verglast und später in einem geologischen Tiefenlager “endgelagert” wird. Um diesen Abfall weiter zu entschärfen, müßte man in weiteren Schritten die Aktinoide und die langlebigen Spaltprodukte abtrennen. Beides ist sehr aufwendig und man sollte darüber nicht vergessen, daß es sich dabei nur um rund 4% des ursprünglichen Brennstoffs eines Leichtwasserreaktors handelt. Die zusätzliche Volumenverkleinerung ist somit äußerst gering.

Die langlebigen Spaltprodukte müssen nun noch in möglichst reiner Form gewonnen werden, um parasitäre Effekte zu vermeiden. Darüberhinaus muß ein eigener Wiederaufbereitungskreislauf eingerichtet werden, da nicht alle Spaltprodukte in einem Schritt beseitigt werden können. Ein gewaltiger Aufwand für so geringe Mengen. Darüberhinaus macht die ganze Sache nur wirklich Sinn, wenn mehr langlebige Spaltprodukte umgeformt werden, wie bei dem Betrieb dieses Reaktors wieder neu entstehen.

Schlußbemerkung

Der Aufwand für eine Transmutation ist sehr hoch. Gleichwohl erscheint der Erfolg durchaus verlockend. Wie Simulationen für den japanischen Monju-Reaktor zeigen, kann über einen Betrieb von 20 Jahren eine Reduktion der effektiven Halbwertszeit langlebiger Spaltprodukte von über 100.000 Jahren auf rund 100 Jahre erzielt werden.

Trotzdem darf die Frage erlaubt sein, ob der gewaltige (wirtschaftliche) Aufwand den (vermeintlichen) Sicherheitsgewinn aufwiegt. Andererseits wird Menschen mit Strahlenphobie auch dieser Aufwand nicht genügen. Es steht zu befürchten, daß das bekannte Rennen zwischen Hase und Igel der “Atomkraftgegner” lediglich fortgesetzt wird.




Smart Grids nehmen 35 Prozent mehr Ökostrom auf

Wer in Smart Grid keinen Sinn sieht, zeigt nur keine Geduld, auf den Fortschritt zu warten

Ein „intelligenter“ Zähler soll jedoch enorme Vorteile bieten. Nur für wen, muss sich noch herausstellen.
Zum Beispiel ist er ein Energie-weg-Fresser. Und er frisst vorwiegend nachhaltige Energie, welche bekanntermaßen mangels Rechnungslegung von Wind und Sonne nichts kostet und immer öfter im Überfluss durch die Leitungen fließt, sofern diese nicht gerade durch veralteten, dreckigen und langsam fließenden Strom verstopft sind.

Smart Grids lassen überschüssigen GREEN-Strom im Ortsnetz

In der Vor-EEG-Zeit war Strom zwar billig, galt aber trotzdem als zu wertvoll, um ihn als Heizmaterial zu missbrauchen und selbst die elektrischen Nachtspeicheröfen wurden deshalb aussortiert. Doch heutzutage fließt EEG-Strom wie im Paradies Wein und Honig, so viel, dass man den Überfluss – so man nicht Smart Grid hätte – aus dem Mittelspannungsnetz nutzlos abtransportieren müsste.
Im Artikel: EIKE 01.01.2016: Die neuen Energien im Jahr 2015 und im Jahr 2050 für Dummies Teil 2 intelligente Versorgungsnetze,
wurde das Problem der Spannungsanhebung in Netzen durch die unkontrollierte EEG-Vorrangeinspeisung erklärt. Es führt dazu, dass die Versorger für viel Geld ihre Netze mit „intelligenten“ Ortsnetz-Trafos umrüsten müssen (was die Hersteller freut). Wobei sich die „Intelligenz“ darauf beschränkt, dass man innerhalb eines kleinen Bereiches durch einen steuerbaren Stufenschalter das Übersetzungsverhältnis verstellen kann.
Zwar ist es teuer (weshalb es in den Lokalzeitungen von Versorgern oft als „Zukunftsertüchtigung“ vermittelt wird), bringt aber wenig, schon gar nicht eine wirkliche Problemlösung. Dafür müssen ganz andere Kaliber an „Netzintelligenz“ her. Und diese – zusätzlich erforderliche Intelligenz – erbringen die Smart Grid-Zähler.

Wie bekannt, ist „die Intelligenz“ in Bayern besonders groß und so betrieben die bayerischen Lechwerke ein Pilotprojekt in Wertachau zur Belegung der enormen Vorteile intelligenter Smart-Grid Zähler(*innen).
EnerIgate messenger 09.08.2017: [1] Smart Grids nehmen 35 Prozent mehr Ökostrom auf
… Im Ergebnis konnte schließlich 35 Prozent mehr lokaler Ökostrom ins Netz fließen. Insbesondere an sonnigen Tagen sorgte der Smart Operator dafür, dass sonst überschüssiger Strom im Ortsnetz blieb und nicht über das regionale Mittelspannungsnetz abtransportiert werden musste …

Dort „vernichten“ ihn zusätzliche Verbraucher

Das „fließen lokalen Ökostromes im Ortsnetz“ gelingt, indem man ihn dort ganz einfach gezielt „vernichtet“. An Intelligenz benötigt man dazu viele Strom verbrauchende Geräte, welche sich nicht nach der Intelligenz des Besitzers ausrichten, sondern sich bedingungslos den Zwängen der EEG-Einspeisung unterwerfen. Leider sind dies oft teure Neuanschaffungen:
[1] Des Weiteren konnte bis zu 20 Prozent der Last in den Haushalten durch die intelligenten Geräte verschoben werden. Das größte Potenzial boten dabei die Batterie- und Wärmespeicher sowie E-Auto-Ladeboxen …,
und weniger die preiswerten (und vorhandenen) Massegeräte
[1] … Im Bereich der Haushaltsgeräte, der sogenannten Weißen Ware, sei das Lastverschiebungspotenzial laut den Projektergebnissen hingegen gering.

Ein „Smart Operator“ lenkt die Sklaven der Überschussvernichtung

Eindeutig sind es nicht die angeblich intelligenten Smart Grid, welche den Verbrauchsfluss lenken, sondern eine Zentrale.
[1] Der Smart Operator verfügt über einen sich selbst optimierenden Algorithmus, der vor Ort die verschiedenen Bausteine des Ortsnetzes so steuert, dass das Netz optimal genutzt wird. Einflussfaktoren für den Steueralgorithmus waren in dem Projekt etwa Lastprofile der Haushalte sowie Wetterprognosen und zu erwartende Einspeisemengen aus Erneuerbarenanlagen. Auf Basis dieser Werte stimmte der Smart Operator Lasten, Aufnahmefähigkeit und Speichermöglichkeiten im Stromnetz aufeinander ab. So konnten erfolgreich erzeugungsbedingte Spannungsspitzen im Netz geglättet und die Aufnahmekapazität für erneuerbare Energien erhöht werden.

Man ahnt, für wen sich die neue Intelligenz auf jeden Fall lohnt

[1] An dem Projekt in Wertachau nahmen 115 der dortigen 125 Haushalte teil. Insgesamt tauschten die Lechwerke 160 herkömmliche Zähler durch Smart Meter aus. In 23 Haushalten kamen zudem intelligente Haushaltsgeräte zum Einsatz, die in das Smart Grid integriert wurden. Dabei handelte es sich um Wasch- und Geschirrspüler, Wäschetrockner, Batteriespeicher, Wärmepumpen und Ladeboxen für Elektroautos. Die intelligenten Geräte kommunizierten dabei untereinander über ein eigens aufgebautes Glasfasernetz. Zudem speisten 23 Fotovoltaikanlagen in das intelligente Netz ein. Ein regelbarer Ortsnetztransformator sorgte überdies dafür, dass die Spannungsgrenzen im Netz eingehalten wurden.

Bezahlen muss es auf jeden Fall auch der Normalverbraucher, welcher dadurch mehr Kosten als Nutzen hat

Was die bayerischen Lechwerke in ihrer Studie ermittelten, ist längst bekannt. Bereits im Jahr 2011 wurde berichtet:
ELEKTRONIK, 14.09.2011: Kosten oft höher als Einsparung: »Smart Metering« unter Beschuss
… Die aufkommenden »intelligenten« Elektrizitätszähler sind ins Kreuzfeuer der Kritik geraten. Viele Kunden der Energieversorger sind verärgert, weil sie damit nicht wie erwartet weniger, sondern mehr für elektrische Energie bezahlen müssen. Die detaillierten Daten, die »smart meter« aufnehmen, lassen außerdem die Datenschützer Alarm schlagen. In vielen Staaten der Welt regt sich Widerstand in Form von Internetforen und Bürgerinitiativen.
Die Herstellung und der Einbau der neuen Elektrizitätszähler kosten einiges Geld. Dazu kommt ihre Stromversorgung rund um die Uhr. Wie die Deutsche Energie-Agentur ermittelt hat, liegen die Anschaffungs- und Einbaukosten für die „smart meter“ deutlich höher als die dadurch ermöglichten Kosteneinsparungen: Je nach Anbieter werden einmalig 35 Euro bis 100 Euro und jährlich zwischen 60 Euro und 240 Euro in Rechnung gestellt. Dem stehen im Mittel optimistisch gerechnete Einsparungen von 9 bis 42 Euro gegenüber. Zu einem ähnlich vernichtenden Urteil kommt eine 76-seitige, in Österreich durchgeführte Studie.
Das erreichbare Energieeinsparungspotential liegt gerade mal bei einigen Prozent – ein Tropfen auf den heißen Stein. Dem stehen erheblicher technischer Aufwand und hohe Kosten gegenüber. Letztlich läuft es auf das Prinzip heraus „Warum einfach, wenn es auch kompliziert geht?“
Intelligente Zähler sparen nicht automatisch Energie ein. Sie sparen bei den EVUs Kosten für Investitionen in Kraftwerksleistung und bringen ihnen mehr Geld ein durch höhere kWh-Preise. Den Nutzen haben die Großen, den Schaden die Kleinen. Das Argument „Umweltschonung“ ist nur vorgeschoben, es ist mehr oder weniger Augenwischerei.

elektronik.net 05.06.2013: Feldstudie: Smart Meter senken Strombedarf leicht:
Elektronische Stromzähler haben in Deutschland bisher gewisse Anlaufprobleme. Neben dem Datenschutz stellt sich auch die Frage, wie weit sie überhaupt zum Energiesparen beitragen. RWE hat nun Ergebnisse eine Studie in Mülheim veröffentlicht, wo nahezu jeder Haushalt ein Smart Meter hat.
Grundlage der Studie ist das Projekt »Mülheim zählt«, bei dem von 2008 bis 2012 mehr als 100.000 Smart Meter in der Stadt installiert wurden. Damit ist Mühlheim praktisch komplett mit solchen Zählern ausgestattet.
Das Projekt hat 30 Millionen Euro gekostet und wurde von RWE finanziert. Die Smart Meter sowie die Visualisierungssoftware wurden dabei kostenlos zur Verfügung gestellt. Dabei gibt RWE an, dass so ein Smart Meter rund 10 mal teurer als ein Analog-Zähler ist …
Sollte der Verbraucher diesen Preis also selbst tragen, dürfte es eine ganze Weile dauern, bis die Anschaffungskosten wieder ausgeglichen sind. So bemängeln Kritiker der Smart Meter dann auch häufig, dass die Kosten in keinem Verhältnis zur eingesparten Energie stehen.

Zu dieser Sorge lässt sich nachtragen: Unsere „Vordenker“ und auch die um ihre Kunden (un-)besorgten EVUs sind dabei, das Verhältnis in die gewünschte Richtung zu bringen. Der Strom wird noch so teuer werden, dass sich wirklich jede (noch so geringe) Einsparung lohnt.

Vertrauen ist gut, Kontrolle besser

In einer Firmenzeitschrift war zu lesen, dass die Smart-Meter in Brasilien genutzt werden, um in den Haushalten die gemeldet Anzahl Personen und den Verbrauch zu kontrollieren. Damit wird „Stromklau“ entdeckt, das Abzapfen des Stromes vor dem Zähler – eine in Brasilien scheinbar nicht seltene Form der „Stromgewinnung“.
China arbeitet bereits an der Realisierung der mit solcher (und der Internetüberwachung) möglichen Zukunft:
Frankfurter Allgemeine 22.11.2017: Nationales Punktesystem China plant die totale Überwachung
Mit einem gigantischen Punktesystem wollen Chinas Kommunisten jeden einzelnen Bürger zu sozialistisch-tugendhafter Folgsamkeit zwingen. Regierungskritiker werden bestraft.
Die Pläne von Chinas Regierung, mit einem „Sozialkreditpunktesystem“ die rund 1,4 Milliarden Einwohner der Volksrepublik zu einem vorgeschriebenen sozialen Verhalten zu zwingen, sehen laut Berichten von Staatsmedien erstmals auch Strafen für Wohlhabende vor und gehen damit weit über ihr bisher bekanntes Ausmaß hinaus.
So sollen in der im April neu geschaffenen Verwaltungszone Xiongan nahe Peking, die unter direkter Kontrolle der chinesischen Zentralregierung steht und als persönliches Prestigeprojekt von Präsident
Xi Jinping gilt, unter anderem diejenigen Bürger mit Minuspunkten bestraft werden, die „allein in einer großen Wohnung“ leben, wogegen „Familien, die gemeinsam in kleinen Wohnungen“ leben, Pluspunkte erhalten sollen.
Dies berichtet das Nachrichtenportal „The Paper“, das zur staatseigenen Shanghai United Media Group gehört und unter Aufsicht der Kommunistischen Partei steht. Nach den Plänen in Xiongan, die an die Volkskommunen unter Mao erinnern, in denen harte Feldarbeit mit Pluspunkten belohnt wurde, wird ein Bewertungssystem eingeführt. Dieses untersucht den Angaben zufolge „Gesetzestreue, moralisches Wohlverhalten, soziales Engagement, Aktivitäten im öffentlichen Interesse und Umweltschutz“ jedes einzelnen Bürgers. Abweichungen von sozialen und moralischen Normen werden bestraft. Dem Bericht zufolge soll in Xiongan dazu auch das Fahren ausländischer Oberklasseautos zählen.
Verstoßen die neuen Einwohner gegen die detaillierten Verhaltensregeln, erhalten sie laut dem Bericht neben einem Verbot für den Erwerb von Wohnungen auch keine Schulplätze für ihre Kinder und dürfen keiner Arbeit nachgehen. So soll unter anderem Immobilienspekulation unterbunden und Umweltbewusstsein erzwungen werden. Laut „The Paper“ werden zum Beispiel 100 Punkte von dem persönlichen Bonitätskonto abgezogen, wenn ein Bürger nicht „freiwillig“ beim Pflanzen von Bäumen mithilft.
In vielen Provinzen gibt es für Bürger schon heute empfindliche Strafen bei Fehlverhalten. In der östlichen Provinz Zhejiang, in dessen Hauptstadt Hangzhou Alibaba seinen Sitz hat, liegt der Punktestand jedes Bürgers jedem Internetnutzer auf einer Regierungswebsite offen. „Nicht ehrliches Verhalten“ wird in der Provinz mit Sippenhaft und Freiheitsbeschränkungen geahndet.

Bei uns macht man es übergangsweise mit CO2-Zertifikaten, erst später mit Ethikräten

Die Tendenz, den Untertanen lenken zu wollen, um ihm und der Welt Gutes zu tun, gibt es auch bei uns. Ein Teil davon ist der bestimmt bald drastisch verteuerte CO2-Preis:
EIKE 18. November 2017: Die Kür Macrons zum neuen Klimapräsidenten kann Deutschland zusätzlich (mindestens) 22,5 Milliarden EURO pro Jahr kosten,
aber auch der wieder zunehmende Einflussversuch von „Gutmenschen“, die für sich beanspruchen, mittels theologischer Methoden die Zukunftssorgen der späteren Generationen zu kennen und daraus ableiten, welches Verhalten heute zur Lösung erforderlich ist:
Klimaretter.Info 23. November 2017: Ethikrat soll Klimawandel thematisieren
Eine: … Postdoktorantin der Forschergruppe „Climate Change and Security“ (CLISEC) der Universität Hamburg an den Schnittstellen von Umwelt-, Sicherheits- und Machtpolitik sowie in den Transformations- und Anthropozänstudien …
durfte ihre Sicht der Klimadiskussion auf dem Blog unserer Politikberaterin zum Klima präsentieren
Klimaretter.Info: … Angesichts der Bedrohungsszenarien für den menschlichen Lebensraum und der gesamtgesellschaftlichen Konsequenzen überrascht es, dass den Erkenntnissen der Klima- und Erdsystemwissenschaftler … bisher wenig Beachtung geschenkt wurde.
Doch scheint die Institution
(Anm.: Der Ethikrat) geradezu prädestiniert, sich den klimapolitischen Herausforderungen zu stellen, da sie sich selbst das Ziel gesetzt hat, sich mit den „großen Fragen des Lebens“ zu befassen, auf die es „keine einfachen Antworten“ gibt.
… Sollte sich der Ethikrat des Themenkreises von gesellschaftlichem (Klima-)Wandel und Verantwortung annehmen, wären vorrangig zu debattierende Fragen unter anderem der Umgang mit wissenschaftlichen Erkenntnissen und die Erfassung von Bedeutung und Tragweite unseres (Nicht-)Handelns.
… Dies hätte unter anderem zum Ergebnis, dass der Fokus von scheinbar fernen Vorhersagen, fernab liegenden Tragödien sowie abstrakten Grenzwerten maximaler Treibhausgasemissionen auf uns Menschen im Hier und Jetzt gelenkt, unsere Gefühle und Vorstellungen in den Mittelpunkt gerückt und wir ein Stück mehr in die Gestaltung der Zukunft miteinbezogen würden …

Quellen

[1] EnerIgate messenger 09.08.2017: Smart Grids nehmen 35 Prozent mehr Ökostrom auf

[2] EIKE, 14.11.2017: Das Smartmeter – Zwangsbeglückung und Visionen




Änderungen des Meeres­spiegels und Klima auf Fidschi: totale Falsch­informa­tionen von COP23

Der Gedanke, dass der Meeresspiegel jetzt schnell steigt, stammt vom IPCC, wo Computermodelle kreiert wurden, die einen solchen raschen Anstieg zeigen, zusammen mit einer demnächst einsetzenden „Beschleunigung“ desselben (welcher mit jedem neuen IPCC-Bericht unmittelbarer prophezeit wird und der jetzt sehr bald kommen soll). Es wurden sogar Daten manipuliert, damit diese die Vorgabe des IPCC stützen (www.ijesi.org||Volume 6 Issue 8|| August 2017 || PP. 48-51).

In wahrer Wissenschaft muss man die realen Fakten erkunden, so, wie sie vor Ort beobachtet oder durch validierte Experimente gegeben werden. Auf den Malediven, in Bangladesh und Südindien gibt es sehr klare zu beobachtende Fakten, welche während der letzten 40 bis 50 Jahre stabile Meeresspiegel-Bedingungen belegen (http://dx.doi.org/10.2112/JCOASTRES-D-16A-00015.1). Gleiches wurde durch einsehbare Tidenmessungen in Tuvalu, Vanuatu und Kiribati im Pazifik gemessen.

Dies impliziert, dass gemessene Fakten nicht das Meeresspiegel-Anstiegs-Szenario des IPCC stützen, sondern im Gegenteil dieses Szenario als unbegründete Falschinformation entlarven. Hiermit als Einführung ist es jetzt an der Zeit, Fakten und Fiktion zu erkunden bzgl. der Änderung des Meeresspiegels bei den Fidschi-Inseln.

Im März 2017 führten wir extensive Untersuchungen bzgl. des Meeresspiegels auf den Fidschi-Inseln durch, und wir konnten dabei sehr detailliert die Änderungen des Meeresspiegels während der letzten 500 Jahre rekonstruieren (überraschenderweise hatte keine Studie zuvor diese entscheidende Periode zum Thema, welche für das Verständnis dessen, was heute vor sich geht, so wichtig ist). Unsere Studie enthält auch eine detaillierte Aufzeichnung der Küsten-Morphologie, hoch präzise Nivellierung, Datierung von 17 Stichproben mittels des C14-Verfahrens und Aufzeichnung des Wachstums der Korallen hinsichtlich der dieses Wachstum bestimmenden Tiefe unter der Wasseroberfläche bei Niedrigwasser.

Wir haben unsere Analyse der Tidenmesspunkte auf den Fidschi-Inseln veröffentlicht (nicht direkte Messung eines Meeresspiegel-Anstiegs, sondern eine lokalspezifische Verdichtung und Ozean-Dynamik), ebenso wie Küstenerosion (nicht durch den Anstieg des Meeresspiegels, sondern durch menschliche Fehler) und gemessener und aufgezeichneter Meeresspiegel-Änderungen (https://doi.org/10.15344/2456-351X/2017/137).

Es stellte sich heraus, dass der Meeresspiegel bei den Fidschi-Inseln während der letzten 200 Jahre praktisch stabil geblieben ist. Allerdings wurden zwei geringe Änderungen beobachtet. Der Meeresspiegel schien Anfang des 19. Jahrhunderts um etwa 30 cm höher gelegen zu haben. Kurz nach dem Jahr 1950 fiel der Meeresspiegel um etwa 10 cm, was zum Absterben vieler Korallen führte, die bis zu ihrem Minimum-Niveau von 40 cm unter der Wasseroberfläche gewachsen waren. Während der restlichen 50 bis 70 Jahre kann nachgewiesen werden, dass der Meeresspiegel absolut stabil war, belegt durch Korallen, welche an vielen verschiedenen Stellen beobachtet gezwungen waren, sich horizontal auszubreiten in so genannte Mikro-Atolle.

Diese Dokumentation der Stabilität des Meeresspiegels während der letzten 50 bis 70 Jahre ist von fundamentaler Bedeutung, weil damit das gesamte Gerede über einen rapide steigenden Meeresspiegel als Falschinformation und Fake News entlarvt wird (importiert aus Modellanalysen).

In der Wissenschaft mag es unterschiedliche Ansichten und Interpretationen geben. Das ist normal und Bestandteil vitaler wissenschaftlicher Fortschritte. Allerdings müssen beobachtete/gemessene Fakten immer über Modellanalysen stehen. Im Falle Fidschi haben wir da etwas außerordentlich Aussagekräftiges, nämlich das Korallenwachstum zu Mikro-Atollen – und Korallen lügen nicht.

Wenn der Präsident von COP23, Premierminister der Fidschi-Inseln Frank Bainimarama feststellt, dass „der Klimawandel augenfällig“ ist und dass der „Anstieg des Meeresspiegels ein Faktum ist“, dann bezieht er sich in Wirklichkeit nicht auf wirklich stattfindende Vorgänge auf den Fidschi-Inseln, sondern auf Fake News, getrieben von bestimmten Agenden.

Was Klimawandel betrifft, so sind in Fidschi keinerlei Änderungstrends beobachtet worden. Im Jahre 2016 zog der Wirbelsturm Winston über das Gebiet hinweg und richtete große Schäden an. Allerdings war dies ein Wetterphänomen, nichts anderes. Im langzeitlichen Trend nehmen tropische Zyklone im Pazifik im Zeitraum 1961 bis 2017 weder an Anzahl noch an Stärke zu. Schlussfolgerung: Es gibt keine größere Klimaänderung oder eine Zunahme von Extremwetter im Gebiet der Fidschi-Inseln.

Was Änderungen des Meeresspiegels betrifft, haben Tidenmessungen nicht die Qualität, um als Indikator eines gegenwärtigen Anstiegs des Meeresspiegels herangezogen werden zu können. Küstenerosion ist kein allgemeiner Vorgang auf den Fidschi-Inseln, und wo es doch dazu kommt, kann man nachweisen, dass die Ursache hierfür ein falscher Umgang der Menschen mit der Küste ist. Aufschlussreichere Beweise liefert die Analyse der küstennahen Morphologie und des Korallenwachstums an 12 verschiedenen Stellen auf den Fidschi-Inseln. Der Meeresspiegel ist während der letzten 50 bis 70 Jahre perfekt stabil geblieben. Schlussfolgerung: Alles Gerede um einen rapide steigenden Meeresspiegel bei den Fidschi-Inseln ist nichts weiter als Falschinformation und Fake News.

Dies ließ mich einen „offenen Brief“ an den Präsidenten von COP23, den Premierminister Frank Bainimarama der Fidschi-Inseln schreiben, in welchem ich auf die wirklichen beobachteten Fakten hinwies: Kein Anstieg des Meeresspiegels, sondern dessen absolute Stabilität während der letzten 50 bis 70 Jahre. Auch drängte ich ihn in dem Brief zu „zurück zur Natur“, indem Beweise vor Ort im Mittelpunkt stehen sollten und nicht irgendwelche Modelle und Gedanken, getrieben von politischen und/oder religiösen Agenden.

Link: (https://tallbloke.wordpress.com/2017/11/14/nils-axel-morner-open-letter-to-the-cop23-president/).

Prof. Dr. Nils-Axel Mörner, Geologe & Geophysiker, Spezialist bzgl. Änderungen des Meeresspiegels




Diesel-Verteufelung: Krieg gegen das eigene Volk Diesel: Die Lücken­medien im Glashaus (8)

Bild 1. Fortschritt: In den 20er Jahren kostete so ein kleiner „Volks-Flitzer“ 1995,- Mark, wog 320 kg und kam 500 km weit. Hypermoderne E-Mobile kosten heute bis zu 100.000,- €, wiegen 2.000+ kg und kommen realistisch gerechnet etwas mehr als 300-350 km weit

In den bisherigen Teilen dieses Aufsatzes wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten auf im Prinzip unbedeutende Werte zurückgegangen ist. Wichtiger Grund hierfür ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Auch wurde aufgedeckt, wie fragwürdig die Messmethoden sind und welche Tricks und Manipulationen zum Einsatz kommen. Im dritten Teil wurden die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie die offensichtliche Parteilichkeit sowohl der öffentlich-rechtlichen Medien als auch industriefeindlicher Behörden behandelt. Im vierten Teil wurde festgestellt, dass das Auto auch in der Stadt der Zukunft unverzichtbar bleibt und Elektromobilität zurzeit nicht realisierbar ist. Außerdem wurden Widersprüche in den Aussagen des Umweltbundesamtes beleuchtet und anrüchige Querverbindungen zwischen der Deutschen Umwelthilfe sowie Ministerien und Behörden thematisiert. Im fünften Teil wurde gezeigt, dass an der angeblichen Gesundheitsgefährdung selbst durch geringste NO2-Konzentrationen nichts dran ist und die Horror-Stories über zigtausende Tote durch Dieselabgase nicht wissenschaftlich fundiert sind. Nicht wenige der Studien, die das behaupten, basieren sogar auf gefälschten Zahlenwerten. Im sechsten Teil wurden grobe Mängel bei den Studien der US-Umweltschutzbehörde EPA und der WHO dargelegt, mit denen behauptete Gesundheitsgefahren von Stickoxiden „belegt“ werden sollen. Im siebten Teil zeigte sich anhand von umfassenden Abgasuntersuchungen in bayrischen Großstädten, dass selbst an den „Brennpunkten“ des Abgasgeschehens keinerlei Gründe für Fahrverbote für Diesel-PKW vorliegen. Im jetzigen achten Teil wird darauf eingegangen, wie winzig die Bereiche nahe der wenigen Hauptstraßen sind, in denen es tatsächlich zu Überschreitungen von Grenzwerten kommt.

Das Auspuffrohr des Autos ist 25 Mal tödlicher als das Auto selbst“

Dies behauptete Jon McNeill, Teslas Verantwortlichem für den weltweiten Absatz, am 22. Dezember 2016 in einem Interview mit Hongkongs TVB Pearl [TSLA]. Würde man diese Aussage auf Deutschland mit seinen rund 3.500 Verkehrstoten (2015) umrechnen, so wären dies 87.500 Todesfälle durch Autoabgase. Diese groteske Zahl übertrifft selbst die Hetzparolen der DUH noch um fast eine Größenordnung. Sie zeigt vor allem eins: Was DUH und Konsorten bei uns treiben, passt nahtlos in die Marketingstrategie des einen oder anderen „fortschrittlichen“ Konzerns, insbesondere solcher aus den USA und Japan. Sie treibt nicht die Sorge um unsere Gesundheit um, sondern der dringende Wunsch, die zu Schmutzfinken deklarierten Wettbewerber vom Markt zu verdrängen. Umweltfrevel, welche für die Gewinnung der Rohstoffe für die tonnenschweren Batterien begangen werden, fallen ebenso aus der Betrachtung heraus wie die Tatsache, dass aufgrund des hohen Kohleanteils am elektrischen Strom die Emissionen lediglich verlagert werden und dann am Kraftwerksschornstein statt am Kfz-Auspuff entstehen. Mit dieser Schmutzkampagne waren insbesondere die Vertreter US-amerikanischer Interessen besonders erfolgreich. Über von ihnen beeinflusste Organisationen wie das US-Umweltministerium EPA sowie die WHO haben sie es geschafft, der EU und über diese auch Deutschland die absurd niedrigen NO2-Grenzwerte aufzuschwätzen, mit deren Hilfe Politik und Medien gemeinsam versuchen, unserer Automobilindustrie den Garaus zu machen.

Die Mär von der flächendeckenden Vergiftung der Stadtluft

Bei so gut wie allen Meldungen in den Medien wird suggeriert, dass die „zu hohen“ Immissionswerte an einigen wenigen Messstationen einiger Großstädte gleichzusetzen wären mit der breit angelegten Vergiftung so gut wie aller Bewohner dieser Städte. Diese Kampagnen haben eine fatale Breitenwirkung: Zigtausendfach finden sich deshalb in Kommentarspalten und Blogs entsprechende Meinungen wie z.B.: „Fakt ist, daß diese Motoren leider auch schädliche Gase auspusten. An diesen Gasen verrecken allein in Deutschland jedes Jahr bis zu 15 000 Menschen (in Europa sind es rund 400 000). Die Frage lautet also: was verlierst Du lieber, wenn Du zwischen Deinem Arbeitsplatz und Deinem Leben wählen mußt?“ [BLOG]. Befeuert werden solche Meinungen hochamtlich u.a. durch farblich raffiniert gestaltete Grafikdarstellungen, wo die deutschen Ballungszentren von giftgrün-gelblichen Schleiern NO2 belasteter Luft überzogen erscheinen. Die Manipulation wird auch durch eine passende Legende unterstützt, aus der nicht erkennbar wird, wo die Grenzwerte verlaufen, Bild 2.

Bild 2. Angsterzeugend: In dieser UBA-Grafik überziehen großflächige NO2-Schleier in giftgrün-gelblichen Farbtönen die industriellen und städtischen Ballungszentren vom Rhein-Main-Gebiet über Stuttgart bis München (Grafik: UBA)

Derartiges Material wird dankbar von der Lückenpresse aufgegriffen und – erforderlichenfalls nach „kreativer Abwandlung“ – zur Angsterzeugung eingesetzt, wie das Beispiel eines Berichts im „SpiegelOnline“ [SPIE] mit dem Titel „Gesundheitsrisiko Stickoxid Wo Luft in Deutschland krank macht“ zeigt. Nach dem Titel geht es in der Einleitung im gleichen Tonfall weiter: „Im Herbst und Winter droht dicke Luft in Deutschlands Städten. Zwar gibt es weniger Feinstaub, doch die Stickoxid-Grenzwerte werden vielerorts überschritten. Der große Überblick”, gefolgt von einer erschreckenden Deutschland-Karte, die in satten roten und gelben Warnfarben geradezu glüht, Bild 3.

Bild 3. Fakten? Wer braucht schon Fakten, wenn man die gewünschte Botschaft viel einfacher durch Farben direkt am Verstand vorbei ins Unterbewusstsein transportieren kann (Grafik: [SPIE])

Zu diesem Bild gibt es weder Bildunterschrift noch Legende noch Quellenangabe, lediglich einen diskreten Vermerk „Bundesumweltamt“. Letzteres ist möglicherweise als Quellenangabe gedacht, nur gibt es dieses Amt in Deutschland nirgendwo, stattdessen ein Umweltbundesamt (UBA). So schlampig geht es dann auch gleich weiter, denn erst wenn man das Video aufruft, erfährt man, dass es um Feinstaub und nicht um Stickoxide geht, wie es die Überschrift ja eigentlich erwarten ließe. Ein weiterer Beweis für die Recherchequalität von Lückenpresse-Berichten zu Umweltthemen. Hauptsache, man hat den Lesern die rechte Stickoxid-Furcht eingejagt.

Das Fatale an solchen Darstellungen, die zigfach überall in den Medien kursieren, ist die hierdurch vermittelte optische Botschaft, die da lautet: Der gesundheitsschädliche Dreck ist überall in unseren Ballungsgebieten in der Luft, wir müssen dringend etwas dagegen unternehmen. Dabei sprechen die Tatsachen eine ganz andere Sprache.

Betroffen sind nur winzige Teilbereiche

Die Fakten sehen nämlich völlig anders aus. Einen sehr guten Beweis hierfür liefert die bereits im letzten Beitrag angeführte umfassende und mehrjährige Untersuchung des Bayerischen Landesamts für Umwelt über die Abgasemissionen und -immissionen in einer Reihe bayrischer Großstädte [BLFU]. Aus den aufgeführten Beispielen wurde die Landshuter Allee in München ausgewählt, die ein tägliches Verkehrsaufkommen von bis zu 142.000 Fahrzeugen hat, ein Wert, der nur von einigen besonders stark befahrenen Autobahnen übertroffen wird. Aus diesem Grund gehört ein Abschnitt dieser Straße mit weitgehend geschlossener Randbebauung zu den „Hot Spots“ mit den höchsten NO2-Immissionswerten in ganz Deutschland. Allerdings ist dieser Abschnitt insgesamt nur vielleicht einen Kilometer lang. Eine Farbdarstellung der dort gemessenen bzw. aus Messwerten per Computermodell errechneten NO2-Jahresmittelwerte zeigt Bild 4.

Bild 4. Darstellung der Jahresmittelwerte der NO2-Konzentration im Bereich des am stärksten beaufschlagten Abschnitts der Landshuter Allee in München für das Jahr 2011 (Grafik: [BLFU])

Schon auf den ersten Blick ist zu sehen, dass sich die wirklich hohen Grenzwertüberschreitungen auf ein ziemlich schmales Band entlang eines Teils der Landshuter Allee beschränken. Bereits in den Seitenstraßen fallen die Werte sehr schnell unter den Grenzwert von 40 µg/m3 ab. In Hinterhöfen bzw. hinter geschlossenen Gebäudefronten liegen sie grundsätzlich im zulässigen Bereich. Der Maßstab am unteren Bildrand belegt, dass der Bereich, in dem der Grenzwert überschritten wird, selbst in die Seitenstraßen hinein nur an wenigen Stellen mehr als 100 Meter breit ist. Die betroffene Strecke ist insgesamt vielleicht einen Kilometer lang. Mehr nicht. Wie schnell der Abfall der NO2-Konzentration in den Seitenstraßen erfolgt, zeigt Bild 5.

Bild 5. Messungen in den Seitenstraßen belegen, dass die NO2-Befrachtung schon nach wenigen Dutzend Metern unter den gesetzlichen Grenzwert absinkt (Grafik: [BLFU])
Das Gebiet im Bereich der Landshuter Allee, in dem die NO2-Grenzwerte tatsächlich überschritten werden, ist demnach im Vergleich zur Größe der Stadt München geradezu winzig. Um dies auch optisch besser zu verdeutlichen, wurde Bild 4 so überarbeitet, dass nur noch die Bereiche oberhalb des Grenzwerts farblich hervorgehoben sind, Bild 6.

Bild 6. Bei dieser Kopie des Bildes 4 wurden alle Bereiche, in denen die NO2-Grenzwerte unterhalb des Grenzwerts liegen, entfärbt (Grafik: [BLFU])
Mit Bild 6 wird optisch noch besser verdeutlicht, wie klein das Gebiet im Bereich der Landshuter Allee mit NO2-Werten über dem Grenzwert tatsächlich ist. Nach Entfärbung der unkritischen Bereiche verbleibt nur noch ein schmales Band mit einigen kurzen Seitenästen. Dessen Größe kann man realistisch mit vielleicht 200 x 1.000 m ansetzen (die Karte in Bild 4 bzw. Bild 6 umfasst nur die nördliche Hälfte des betroffenen Straßensegments). Das wären 0,2 Quadratkilometer. In München gibt es nur noch eine weitere Stelle, an der der Grenzwert überschritten wird, und zwar am Stachus. Wenn wir für das dort betroffene Gebiet eine Fläche von 0,1 km2 annehmen, so wird der NO2-Grenzwert in München auf einer Fläche von lediglich 0,3 km2 überschritten. Da München eine Gesamtfläche von ca. 311 km2 hat, betrifft dies lediglich ein Tausendstel bzw. 0,1 % des gesamten Stadtgebiets. Schätzen wir aufgrund dieser Flächen die Zahl der betroffenen Anwohner ein, so kann man in Neuhausen (Landshuter Allee) mit seiner Bevölkerungsdichte von rund 7.700 EW/km2 von etwa 1500 Personen ausgehen. Am Stachus kommt man bei einem Mittelwert von 10.000 EW/km2 auf weitere etwa 1.000 Anwohner. In der Summe geht es also um 2.500 Münchner, die in Stadtbereichen mit straßenseitigen NO2-Werten über dem Grenzwert wohnen. Bei einer Einwohnerzahl von rund 1,45 Mio. ist dies ein Anteil von 0,172 %.

In ganz Bayern gibt es insgesamt nur noch vier weitere Hot-Spots, die alle in deutlich kleineren Städten liegen, so dass man hier von weitaus geringeren betroffenen Flächen und Einwohnerdichten ausgehen kann. Es erscheint gerechtfertigt, hier von insgesamt vielleicht weiteren 2.500 Betroffenen auszugehen, so dass die Gesamtzahl für Bayern mit rund 5.000 angesetzt werden kann. Bei einer Gesamt-Einwohnerzahl von ca. 12,9 Mio. geht es also um ganze 0,04 % der Bevölkerung, die überhaupt von NO2-Grenzwertüberschreitungen betroffen sind. Es darf davon ausgegangen werden, dass diese Zahlen von der Größenordnung her auch für die gesamte Bundesrepublik Deutschland gelten. Vergleicht man dies mit den optischen Botschaften der Bilder 2 und 3, so erkennt man deutlich, in welch geradezu ungeheuerlichem Ausmaß unser Volk und unsere Industrie hier – und das ist noch sehr zurückhaltend formuliert – von den Medien und den Behörden manipuliert und betrogen werden.

Die „übersehene“ Senkrechte

Bei der hier vorgestellten überschlägigen Kalkulation des von Grenzwertüberschreitungen betroffenen Anteils der Bevölkerung wurde ein weiterer wichtiger Aspekt noch ausgespart, obwohl er von erheblicher Bedeutung ist: Die Höhe der Wohnung über dem Erdboden. Obwohl die Häuser in den betroffenen Wohngebieten typischerweise eine fünf- oder sechsgeschossige Bauweise aufweisen, werden Immissionsmesswerte grundsätzlich nur auf Erdgeschossniveau erfasst. Dabei ist doch davon auszugehen, dass die schnelle Verdünnung, die man bereits in der Horizontalen mit zunehmender Entfernung von der Straße feststellen kann, sich auch nach oben hin zur freien Atmosphäre vollzieht. Den entsprechenden Beweis liefert Bild 7 [KOCH].

Bild 7. Messstelle Stuttgart am Neckartor. Der Jahresmittelwert für NO2 liegt auf Straßenniveau bei 78 µg/m↑3, auf dem Dach dagegen bei nur noch 20 µg/m↑3 (Grafik: [KOCH])
Man kann davon ausgehen, dass die Abnahme der NO2-Konzentration in vertikaler Richtung in erster Näherung mit dem gleichen mathematischen Ansatz beschrieben werden kann wie diejenige in horizontaler Richtung. Mithilfe einer logarithmischen Funktion kann man nach Anpassung der entsprechenden Parameter den Konzentrationsverlauf entlang der Fassade eines mehrstöckigen Gebäudes in Abhängigkeit von der Konzentration auf dem üblichen Messniveau nachbilden, Bild 8 und Bild 9.

Bild 8. Verlauf der vertikalen NO2-Konzentration entlang der Fassade eines mehrstöckigen Gebäudes bei einem Pegel auf Straßenniveau von ca. 80 µg/m↑3

Bild 9. Verlauf der vertikalen NO2-Konzentration entlang der Fassade eines mehrstöckigen Gebäudes bei einem Pegel auf Straßenniveau von ca. 60 µg/m↑3

Wie aus Bild 8 ersichtlich, sinkt bei einem auf Straßenniveau gemessenen Ausgangswert von etwas über 80 µg/m3der NO2-Gehalt bereits bei der 2. Etage auf einen Wert knapp über dem Grenzwert und liegt ab der 3. Etage sicher unterhalb davon. Bei einem Ausgangswert von 60 µg/m3 wird der Grenzwert sogar schon ab der 1. Etage nicht mehr überschritten. Hierzu ist anzumerken, dass im Jahre 2016 in ganz Deutschland nur an zwei Messstationen Jahresmittelwerte von mehr als 79 µg/m3 und an lediglich sechs weiteren Stellen Werte von mehr als 59 µg/m3 registriert wurden [UBA]. Man kann daher davon ausgehen, dass an den insgesamt 66 Messstellen, an denen der Grenzwert überhaupt „gerissen“ wird, die Bewohner fast aller Etagen ab dem 1. Stock nicht von Grenzwertüberschreitungen der Außenluft betroffen waren. Da die Bebauung gerade der Straßen, in denen die Messwerte über dem Grenzwert liegen, in der Regel fünf- bis sechsgeschossig ausgeführt sein dürfte, kann man unterstellen, dass dort höchstens 30-40 % der Bewohner mit einer Außenluft zu tun haben, die oberhalb des aktuellen Grenzwerts liegt. Somit kann der im vorigen Abschnitt ermittelte Prozentsatz an betroffenen Bewohnern um den Faktor 0,3 bis 0,4 reduziert werden. Es dürfte daher gerechtfertigt sein, von einem Wert zwischen 0,01 % und 0,02 % der Bevölkerung auszugehen.

Warum nur will man mit Atombomben auf Spatzen schießen?

Warum wird wegen einer so überschaubaren Zahl wirklich Betroffener dann ein derartiger Aufstand veranstaltet? Medien und Politik überschlagen sich derzeit geradezu in dem Versuch, in trauter Einheit über die NO2-Abgasdiskussion den Diesel und danach die gesamte klassische Individualmobilität der Bürger zu vernichten. Deshalb wird so getan, als sei ein Großteil der Bevölkerung in unseren Städten gesundheitlich durch Dieselabgase gefährdet, obwohl die Realität doch völlig anders aussieht. Es geht in ganz Deutschland um vielleicht 15.000 Personen, die in Bereichen leben, in denen die NO2-Werte der Außenluft dauerhaft über dem (sowieso schon willkürlich viel zu tief angesetzten) Grenzwert von 40 µg/m3 liegen. Zur „Behebung“ durch Umstellung auf das Etappenziel Elektromobilität werden gigantische volkswirtschaftliche Schäden in Kauf genommen. Allein bei VW summieren sich die Zusatzkosten inzwischen auf ca. 100 Mrd. €, ein Großteil davon für die überhastete und sinnlose Umstellung der Entwicklungsaktivitäten sowie der Produktion auf die Totgeburt Elektromobilität. Die anderen deutschen Kfz-Hersteller dürften zusammen ähnlich hohe Beträge fehlinvestieren. Unsere wichtigste Schlüsselindustrie wird dadurch in ein 200 bis 250 Mrd. teures Abenteuer geprügelt. Niemand scheint zu bedenken, dass unsere Volkswirtschaft vom Export abhängt und dass E-Mobile noch auf Jahrzehnte hinaus in den Ländern der 2. und 3. Welt keine Abnehmer finden werden, weil es dafür keine Infrastruktur und oft noch nicht einmal eine zuverlässige Stromversorgung gibt.

Zweiter Leidtragender ist die Bevölkerung. Die knapp 15 Millionen deutschen Dieselbesitzer werden als Folge der Anti-Diesel-Hysterie durch Wertverlust ihrer Fahrzeuge enteignet. Setzt man den erlittenen Wertverlust auch nur mit 3.000 € an, so werden die Besitzer mit rund 40 Mrd. € für etwas bestraft, was ihnen die gleiche Politik, die jetzt in Bonn über das Ende des Verbrenners streitet, jahrelang als erstrebenswert aufgeschwätzt hat. Der gesamte volkswirtschaftliche Schaden liegt demnach schon allein aufgrund dieser beiden Positionen irgendwo zwischen 240 und 300 Mrd. €. In der Realität ist er sogar noch erheblich höher, wie in einem späteren Kapitel noch ausgeführt wird.

Man schmeißt also mehr als 250 Mrd. € sowie die Zukunft unserer wichtigsten Exportbranche zum Fenster hinaus, nur um die angebliche „Vergiftung“ von vielleicht 15.000 Einwohnern zu verhindern. Es wäre weitaus billiger, allen diese Personen einen Daueraufenthalt in einem Luxushotel ihrer Wahl zu finanzieren. Wesentlich einfacher und effizienter wäre es beispielsweise, die tatsächlich betroffenen Bewohner durch entsprechende Prämien zum Wegzug zu bewegen und den Vermietern die temporären Mietausfälle zu ersetzen. Das Ganze wäre nämlich nur zeitweilig zu sehen, denn in wenigen Jahren wird sich das „Abgasproblem“ dank der neuen Abgastechnologien (EURO 6d) sowieso in Luft aufgelöst haben, Bild 10.

Bild 10. Bei konsequenter Einführung der neuesten EURO 6d-Abgasreinigungstechnologie würden die NO2-Immissionen an der Messstelle „Am Neckartor“ in Stuttgart von derzeit 82 µg/m↑3 weit unter den Grenzwert absinken (Grafik: [KOCH])
Dogmen statt Existenzvorsorge

Gerade am Thema Dieselabgase kann man durch kritische Analyse einfach zugänglicher Fakten ganz leicht beweisen, in welchem Ausmaß hier die Realität ignoriert wird, um der Bevölkerung und der Wirtschaft ideologische Dogmen grüner Salonkommunisten aufzuzwingen, statt Existenzvorsorge zu betreiben. Triebkraft hierfür ist die inzwischen alles durchdringende Klimahysterie. Für diese Ideologen in Politik und Medien ist die Individualmobilität nur ein Nebenkriegsschauplatz. Sie verwenden hier jedoch die gleichen Methoden der Manipulation, des Totschweigens kritischer Stimmen und der Verbreitung bewusster Falschaussagen wie bei der CO2-Diskussion. Nur kann ihnen dies beim Thema Diesel viel einfacher und schneller nachgewiesen werden als beim Klima, weil die Zusammenhänge einfacher sind und man sich nicht so einfach hinter ganzen Gebirgen komplexer mathematischer Gleichungen verstecken kann wie bei Klimamodellen. Die Medien spielen dieses schmutzige Spiel voller Inbrunst mit, die wenigen realistischen Stimmen werden durch Lautstärke und Totschlagsargumente wie „Dieselabgase töten“ einfach übertönt. Neben den öffentlich-rechtlichen Sendern spielen hier auch einige „fortschrittliche“ Publikationen – unter ihnen nicht zuletzt der „Spiegel“ – eine besonders negative Rolle. Deshalb wurden hier deren Manipulationstechniken speziell gewürdigt. Der Anspruch dieser Blätter, besonders kritisch-investigativ zu sein, ist nichts als ein Feigenblatt. Bezüglich ideologischer Verbohrtheit und der Bereitschaft zur Manipulation stehen sie der „Bild-Zeitung“ nicht im Geringsten nach. Sie verwenden nur kleinere Buchstaben bei den Überschriften und schreiben etwas mehr Text.

Fakten und „Faktenfinder“

Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau sowie ihren Spießgesellen bei den Printmedien präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichtet. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie bestimmte Bundesbehörden sowie die etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Fachleuten, Medien, Journalisten oder Bloggern werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Die Vernichtung der deutschen Automobilindustrie wird anschließend auch beim Benziner weitergehen, und zwar alternativlos. Die sich jetzt abzeichnende „Jamaika“-Koalition ist dafür ein sehr schlechtes Omen.

Fred F. Mueller

Demnächst folgt Teil 9

Quellen

[BLFU] https://www.lfu.bayern.de/luft/luftreinhalteplanung_verkehr/nox_projekt/index.htm

[BLOG] https://groups.google.com/forum/#!topic/de.soc.umwelt/7dCudiLAQOc%5B1-25%5D

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html

[KOCH] https://www.ifkm.kit.edu/downloads/Focus_Antworten_v2.0.pdf

[SPIE] http://www.spiegel.de/wissenschaft/mensch/stickoxid-wo-luft-in-deutschland-krank-macht-a-1120859.html

[TSLA] http://teslamag.de/news/abgasemissionen25-mal-auto-tesla-fuehrungskraft-11242

[UBA] http://www.umweltbundesamt.de/sites/default/files/medien/358/dokumente/no2_2016.pdf




Wir befinden uns nicht in einer grünen Energierevolution, sondern in einer grünen Energiekrise

Durch die Kombination der neuen Nationalen Energie-Garantie (NEG) des Bundes und der damit verbundenen Emissionsverpflichtung wird die Kernenergie jedoch ins Gespräch gebracht.

Wiederholt haben wir bereits geschrieben, dass Kernenergie die einzige eigenständige Stromerzeugungsquelle ist, die Strom auf Abruf liefern kann, ohne dabei CO2-Emissionen zu erzeugen. Aus der Sicht eines Stromversorgers ist die Kernkraft eine Quelle, die offensichtlich in der Lage ist, sowohl ihre NEG-Verpflichtung als auch ihre Emissionsverpflichtungen zu erfüllen, sofern eine solche Wahl verfügbar wäre.

Als Dr. Alan Finkel [Australiens Chief Scienstist ~ Wissenschaftsminister] seine Einhorn- und Feenstaub-Bilanz über Australiens Debatten über erneuerbare Energien zusammenstellte, gelang es ihm, die Kernkraft in zwei kurzen Absätzen abzutun. [Genaue Quelle nicht angegeben, aber hier zum Thema im Sidney Morning Herald vom 1.09.2017]

Jetzt, wo Zuverlässigkeit im Mittelpunkt der Energiepolitik des NEG steht [nach dem CET – clean energy target, mit festgelegten % Anteilen, ~ Zertifikate], werden Quellen, die uns unabhängig von der Tageszeit oder dem Wetter zu 100% mit Strom versorgen können, zwangsläufig Aufmerksamkeit erregen. Fügen Sie eine Verpflichtung (zusammen mit ausreichenden Strafen) hinzu, um diese Energie zu liefern, ohne CO2-Emissionen zu erzeugen – und der Grund für Kernkraft in Australien wird offensichtlich und zwingend.

Die Franzosen nutzen die Kernenergie, um rund 75% ihrer Elektrizität zu erzeugen, und sie zahlen etwa die Hälfte dessen, was der Strom den Endkunden in Südaustralien kostet. Jeder der behauptet, Strom aus Kernkraft wäre teuer, hat offensichtlich nicht aufgepasst.

 

Ein paar Beiträge vorher, berichteten wir über einen der führenden Öko-Krieger Amerikas, Michael Shellenberger und seinem Ansichtswandel.

Michael hatte sich leidenschaftlich für Wind und Sonne entschieden, nun plädiert er stattdessen für eine atomare Energiezukunft, weil nur letztere verlässlich Energie liefert, während erstere ein kindischer Unsinn ist.

Hier wird er von Alan Jones interviewt (Podcast, unten mit anschließender Transkription). Für diejenigen mit gutem Internet [und Englischkenntnissen] ist der Podcast die Mühe wert.

 

Der Betrug mit Erneuerbarer Energie

Podcast von „Alan Jones Breakfast Show”, 17 October 2017

  • bitte nutzen Sie den u.g. Link zum Original

 

 

Hier das Transcript zur Radiosendung

Alan Jones: Ich habe Ihnen letzte Woche gesagt, dass dieser Kollege, John Barilaro, der stellvertretende Ministerpräsident von New South Wales, sich zur Energiefrage geäußert hat, was Hoffnung erweckt. Er sprach viele richtige Dinge an, vor allem, um es einfach zu sagen, dass unser Problem nicht die Ressourcen sind. Wir sind der größte Energieexporteur der Welt, der größte Kohleexporteur der Welt. Und wir sind dabei, der größte Gasexporteur der Welt zu werden. Und wir haben alles exportier und nichts für uns selbst behalten. …

Ich möchte das Gespräch auf Jon Barilaro bringen [stellvertr. Premier, Minister für Wirtschaft und kleine u. mittlere Unternehmen, Minister New South Wales] der im Mai dieses Jahres einen antrag für Kernkraft vorbrachte, der im Legislativrat des Oberhauses von New South Wales einstimmig abgeschmettert wurde. … die Medien triumphierten…. Sein gesunder Menschenverstand hatte ihn dazu gebracht, schon im Mai zu sagen, dass wir Atomkraft in New South Wales etablieren sollten. Im vergangenen Jahr betrieben 30 Länder weltweit 550 Atomreaktoren zur Stromerzeugung, in 15 Ländern waren 60 Atomkraftwerke im Bau, nach Information des Nuclear Energy Institute, allein in China sind 20 Kernkraftwerke im Bau.

Wir besitzen 40% der Uranreserven der Welt und wir selbst haben keine Kernkraftwerke, außer Sie wollen die medizinische Einrichtung in Lucas Heights als Atomreaktor bezeichnen. Wir nutzen weiter Kohle und Gas und Solar und nichts von Uran und doch haben wir eine Energiekrise. Wenn die Labour Party bis 2030 die Hälfte unseres Stroms aus erneuerbaren Energien beziehen will, wird das etwa 100 Milliarden Dollar kosten, einhunderttausend Millionen in neuen Wind-, Geothermie- und Solarkapazitäten. Frydenberg und Turnbull sprechen heute in Canberra über eine neue Energiepolitik und reden immer noch über erneuerbare Energien. Wir würden die 10-fache Anzahl an Windturbinen benötigen, 11.000 zusätzliche. Das würde 65 Milliarden kosten, aber es ist illegal, einen Atomreaktor in Australien zu betreiben.

Russland, die USA und Japan bauen neue Reaktoren. In Frankreich haben Kommunalpolitiker lange darum gekämpft, den nächsten Atomreaktor in ihrer Region bauen zu lassen, wegen der Arbeitsplätze und des Handels, den sie zwangsläufig fördern. Wir sind ein Witz. … und unser dämliches New South Wales Oberhaus und das Parlament in Canberra beschließen, gegen die Errichtung der Kernenergie vorzugehen und prahlen damit, dass dies eine Niederlage für den stellvertretenden Ministerpräsidenten Barilaro ist. … bezüglich Energie, ahnungslos.

Mehr als die Hälfte der Welt hat Zugang zu Strom aus Kernspaltung. Die Vereinigten Staaten erzeugen etwa 30% der weltweiten Kernenergie. Über 5% der gesamten Elektrizität des Planeten wird aus Kernreaktoren erzeugt und wenn wir weiter wachsen und eine große Grundlastversorgung für die Eisen-, Aluminiumindustrie und Raffinerien und für die allgemeine Industrie haben wollen, müssen wir entweder die Anzahl der Kohlekraftwerke erhöhen oder auf Kernkraft wechseln. Natürlich könnten wir beides [KK und EE] nutzen, das würde Energiesicherheit schaffen. Die südaustralische Royal Commission in Nuclear Power schätzte, dass ein Großreaktor 9,3 Milliarden kosten würde.

Wir sind das einzige G20-Land ohne Atomkraft und der ideale Ort für künftige Reaktoren wäre Südaustralien. Aber der Finkel-Bericht ignorierte die Atomenergie als Option und drängte auf immer mehr erneuerbare Energien. So soll Victoria 25% aus erneuerbaren Energien bis 2025 beziehen, Südaustralien 50%, ACT 100%, Queensland 50%, und damit wir gehen pleite durch erneuerbare Energien, während andere Länder eine Mischung von Energiequellen haben und neue Kohlekraftwerke bauen und wie gesagt, 60 Atomanlagen im Bau in 15 Ländern. In China sind 583 Kohlekraftwerke im Bau oder geplant, 271 in Indien, 145 in Indonesien, 71 in der Türkei, 84 in Vietnam, 43 in Japan, keine einzigen in Australien. Die meisten dieser Kohlekraftwerke werden australische Kohle nutzen.

Zurück zur Kernkraft. Einer der weltweit führenden Umweltaktivisten der neuen Generation, hat das Experiment zur Erneuerbaren Energie mit Wind und Sonne als gescheitert erklärt. Michael Shellenberger ist ein ehemaliger Befürworter und Berater von Barack Obama für Erneuerbare, als dieser Präsident war. Er ist jetzt ein globaler Champion für die Kernenergie, die, wie er sagt, die einzige Möglichkeit sei, Kohle und Gas weltweit zu ersetzen. Er ist für uns am Telefon aus Berkeley, Kalifornien. Michael Shellenberger, danke für Ihre Zeit und einen guten Morgen.

Michael Shellenberger:  Danke, dass Sie mich in der Show haben.

Alan Jones: Bitte sagen Sie uns, dass wir nicht die einzigen Menschen sind, die völlig dumm sind. Wir sind hier, die Leute schreiben mir jeden Tag, wir haben 40% der Uranreserven der Welt. Wir haben kein Kernkraftwerk, keinen Atomreaktor, keinen Strom aus den riesigen Uranvorkommen. Ich denke, wir nutzen unseren Verstand nicht, nicht wahr?

Michael Shellenberger: Ja, Australien ist leider einer der schlechtesten Akteure, wenn es um saubere Energie geht. Nur Deutschland agiert wirklich noch schlechter, sie versuchen ihre Kernkraftwerke auslaufen zu lassen und ihre Luftverschmutzung nimmt seit drei Jahren jedes Jahr zu. Also, wenn es Ihnen um die natürliche Umwelt geht, wenn Sie sich für saubere Luft interessieren, und wenn Sie sich für die Dinge interessieren, über die Sie sprachen, die zuverlässige Stromversorgung, dann brauchen wir wesentlich mehr Kernkraftwerke.

Alan Jones:Ich bin mir sicher, dass Sie unser politisches System hier verstehen, wir sind eine Föderation, wir haben eine Reihe von Staaten, Queensland hat eine eigene Regierung, New South Wales, Victoria und so weiter, und dann natürlich eine Bundesregierung in Canberra, aber wir haben einen stellvertretenden Ministerpräsidenten in New South Wales, der ein Prachtkerl ist, ein kleiner Geschäftsmann aus dem Busch. Und natürlich stieg er in ein Fettnäpfen, weil er sich für Kernenergie einsetzte, und dann sagte er zu mir: „Es scheint mir, dass politische Korrektheit und unsere Besessenheit, das Risiko einer unmittelbaren Ablehnung zu minimieren …“, so John Barilaro. Behindert uns über Lösungen sprechen, weil sie in einigen Teilen der Community unpopulär sind. Wenn wir dies zulassen, werden wir nur risikoscheuer und werden uns wahrscheinlich nicht mit Lösungen beschäftigen, die uns in Australien und New South Wales zugutekommen würden. Das ist so, nicht wahr?“

Michael Shellenberger: Das ist genau richtig. Es ist diese Aversion gegen Risiken, denke ich, aber jede größere Studie der letzten 40 Jahre hat ergeben, dass Atomkraft der sicherste Weg ist, um zuverlässigen Strom zu erzeugen. Sie haben nicht die Risiken, die mit Kohle und fossilen Brennstoffen verbunden sind, sowohl in Bezug auf den Abbau von Gruben als auch auf die Luftverschmutzung, und die Unfälle, die jedem Sorgen machen, sie haben kaum Auswirkungen auf das Leben der Menschen. Tschernobyl, die Weltgesundheitsorganisation und die Vereinten Nationen sagen, dass nach 100 Jahren weniger als 200 Menschen durch diesen Unfall getötet wurden. Und Fukushima, die Kernschmelzen werden niemanden töten, und mittlerweile haben wir sieben Millionen Menschen pro Jahr, die vorzeitig an Luftverschmutzung sterben, Hunderte, die bei Erdgasexplosionen sterben, in Kohlebergwerke kollabieren, also für Leute, die wirklich risikoscheu sind, die beste Wette.

Alan Jones: Absolut, übrigens sollte ich meinen Zuhörern sagen, Michael Shellenberger wird im November hier sein, um ein Umdenken über Atomkraft zu fördern, und ich sage zu Michael, viel Glück, viel Glück, denn sie haben dicke Wände zu durchbrechen. Aber Sie sagen in Bezug auf Wind und Sonne zu Recht, dass diese im besten Fall back-up brauchen und sie [Wind und Solar] verdoppeln die Stromkosten und haben große Umweltauswirkungen.

Michael Shellenberger: Ja, das ist wirklich das Schlimmste für die Umwelt und es ist leicht zu verstehen.

Alan Jones: Hör einfach auf, hör bitte auf.Michael, bitte hör auf. Es gibt Leute, die uns in Canberra zuhören, Mr. Malcolm Turnbull können Sie zuhören? Und Josh Frydenberg, können Sie sich anhören, was dieser Mann über Sonne und Wind sagt, über das was Sie heute zur Energiepolitik argumentieren werden. Sie haben gerade gesagt, sie sind wirklich was für die Umwelt?

Michael Shellenberger:  Sie sind das Schlimmste, wirklich, alle erneuerbaren Energien sind das. Der Grund ist leicht zu verstehen, in dem Sinne, dass die Brennstoffe sehr verdünnt sind, sie sind sehr diffus, und man muss eine riesige Menge Land mit Windkraftanlagen und Solarzellen abdecken, um ausreichende Mengen ihrer Energie zu sammeln. Also braucht es 150-mal mehr Land, um die gleiche Menge an Energie aus der Sonne zu produzieren wie Atomkraft. Es braucht 750 Mal mehr Land, um die gleiche Menge Strom aus Wind zu erzeugen wie Atomkraft. All das, die benötigten Materialien, der Stahl, der Beton, all die Dinge, um die Sie sich als Umweltschützer sorgen, fünf bis sieben Mal mehr von ihnen werden für Wind und Sonne benötigt als mit Atomkraft.

Und die Solarindustrie produziert riesige Mengen an Giftmüll. Die Sonnenkollektoren enthalten Cadmium, Chrom, Blei, was giftige Schwermetalle sind, die sich nie umwandeln. Das sind Elemente, und wenn sie entsorgt werden, sind es in der Regel arme Leute in armen Ländern, die die Panels auseinander reißen, die Kunststoffe abbrennen und giftige Chemikalien inhalieren. Sie produzieren zwei- bis dreihundert Mal mehr Giftmüll als Kernkraftwerke, letzere die einzige Möglichkeit, Strom zu erzeugen, auch wenn potenziell schädliche Abfälle zurückbleiben. Natürlich sind die nuklearen Abfälle so gut eingeschlossen, dass niemand jemals durch die Strahlung aus Atomabfällen geschädigt wurde.

Alan Jones: Erstaunlich, erstaunlich. Ich möchte nur zu den Menschen sagen, die das kritisieren,… ich sollte Michael sagen … sorry , Sie dort zu unterbrechen … dass Abbott von Menschen kritisiert wird, dass er seine Ansichten über all dies ändert. Der Mann mit dem ich hier spreche, Michael Shellenberger, der im Times-Magazin ein Held der Umwelt im Jahr 2008 genannt wurde, und Sie sagen: „Wie die meisten Leute habe ich ziemlich anti-nuklear angefangen. Ich habe es mir anders überlegt, als ich gemerkt habe, dass man eine moderne Wirtschaft nicht mit Solar und Wind betreiben kann. „

Michael Shellenberger: Ja, und irgendwie ist es mir peinlich, wie lange ich brauchte, um meine Meinung zu ändern. Ich war anti-nuklear, ich half tatsächlich in meinen Zwanzigern, ein Lager für radioaktive Abfälle in Kalifornien zu blockieren. Es ist eine Religion, Sie wollen die Menschheit mit der natürlichen Umwelt harmonisieren. Die Wahrheit ist, dass die natürliche Umwelt … wenn Sie die natürliche Umwelt schützen wollen, müssen wir weniger davon verwenden, und das bedeutet, dass Sie sich zu energiereichen Brennstoffen bewegen, Dinge wie Uran, … sie brauchen nur eine kleine Menge davon, eine Cola-Dose mit Uran, das ist genügend Treibstoff, um Sie Ihr ganzes Leben lang zu versorgen. Es geht um die Energiedichte, und das gleiche gilt für die Luftverschmutzung, die negativen Folgen. Atom übertrifft alle diese Energiequellen. Sie haben erwähnt, dass Solar und Wind ein back-up benötigen. Ein besserer Ausdruck dafür ist, dass Solar- und Windenergie nur 20 bis 30% der Zeit Strom erzeugen. Tatsächlich sind es die fossilen Brennstoffe, die die meiste Arbeit leisten.

Alan Jones: Ja.

Michael Shellenberger: Solar und Wind bringen viel Chaos in Ihr elektrisches System. Es ist sporadisch, es ist unberechenbar, und deshalb müssen Sie … alle Ihre fossilen Brennstoffe pflegen. Sie müssen bereit sein, sie mit einem Knopfdruck ein- und auszuschalten, wenn die Sonne hinter einer Wolke steht oder der Wind aufhört zu blasen. Das andere Problem ist, dass Sie zu viel Windenergie bekommen, wenn Sie es nicht brauchen, wie mitten in der Nacht. Solar und Wind, es scheint, als wären sie dazu eingerichtet, billige, saubere und zuverlässige Energie zu zerstören.

Alan Jones: Erstaunlich, wir haben eine Regierung in Australien – wir haben eine Regierung, die nie aufhört, über dieses Zeug zu reden. Sie haben uns Vorträge darüber gehalten, wie Atomwaffen durch Umweltkampagnen verhindert werden, aber ihre Unwissenheit überwiegt, nicht wahr?

Michael Shellenberger: Ja, sie sind falsche Umweltschützer. Sie müssen daran denken, dass es in den 1960er Jahren echte Naturschützer gab, die die Kernkraft liebten und die Kernkraft förderten, weil sie verstanden, dass dies die einzige Alternative zu fossilen Brennstoffen und Staudämmen ist, welche auch enorme Auswirkungen auf Landschaften haben. Was geschah, war, dass es eine kleinere Gruppe von anti-menschlichen sogenannten Umweltschützern gab, die Kernkraft ablehnten, gerade weil es so viel billige und reichlich vorhandene Energie lieferte, und sie dachten: „Nun, wenn wir den Krebs der „Mensch“ heißt stoppen wollen, müssen wir seine Energieversorgung beschneiden. „Aber sie haben sich geirrt, denn wenn man die negativen Auswirkungen der Menschheit wirklich reduzieren will, muss man in Städten leben. Wir verbrauchen mehr Energie in den Städten, wir brauchen mehr Energie für unsere Landwirtschaft, für den Anbau von Lebensmitteln, und es stellt sich heraus, dass der Energieverbrauch tatsächlich sehr stark mit dem Umweltschutz zusammenhängt. Wir brauchen viel Energie, um die natürliche Welt zu schützen.

Alan Jones: Michael, in Australien es ist illegal, einen Atomreaktor zu betreiben.

Michael Shellenberger: Sie haben wirklich einige verrückte Anti-Atom-Leute da unten.

Alan Jones: Nein, wir haben ein paar verrückte Leute Punkt, das kann ich Ihnen sagen, Michael, bitte erklären Sie unseren Hörern, während uns die Zeit davonläuft, wieso 30 Länder im letzten Jahr 450 Kernreaktoren zur Stromerzeugung betrieben haben. In 15 Ländern sind 60 Nuklearkraftwerke im Bau. Wir haben 40% des Urans der Welt und wir hören Anti-Atom Menschen. Wie erklären Sie sich das?

Michael Shellenberger: Junge, das wird viel länger dauern als wir noch Zeit haben.

Alan Jones: Ich sag Ihnen was, wenn Sie uns in diesem Land besuchen, werden wir Sie wieder sprechen. Wir können nicht genug von Ihnen hören. Es ist an der Zeit, dass wir eine gute gesunde Portion gesunden Menschenverstand einsetzen und ich danke Ihnen, dass Sie sich mit uns heute Morgen unterhalten haben.

Michael Shellenberger: Mit Vergnügen, danke, dass Sie mich dabei hatten.

Alan Jones: Keine Ursache, dafür sind wir da. Es ist Spiel, Satz und Match. Wie ich schon sagte, konkurrieren lokale Politiker in Frankreich darum, dass das nächste Kernkraftwerk in ihrem Wahlkreis gebaut wird, wegen der Jobs und des Handels, die sie zwangsläufig fördern. Wir sind ein internationaler Scherz, 40% der Uranreserven der Welt, 30 Länder betreiben 450 Kernreaktoren, 60 Atomkraftwerke im Bau und wir haben nichts.

Hier der Podcast von 2GB

In diesem TED TALK von Juni 2016 auf dem TEDSummit, hören Sie noch mehr über den gesunden Menschenverstand von Michael Shellenberger.

 

Erschienen auf Stopthesethings vom 30.10.2017

Übersetzt durch Andreeas Demmig

https://stopthesethings.com/2017/10/30/americas-top-green-michael-shellenberger-pushes-nuclear-future-calls-wind-solar-the-worst-for-the-enviroment/

STT: Michael Shellenberger sagt, es sei Zeit, Wind und Sonne zu „nukezieren“

 

Weitere Links: Wie die Angst  vor Kernkraft der Umwelt schadet

Video des Aufmacherbildes

„Wir befinden uns nicht in einer grünen Energierevolution, sondern in einer grünen Energiekrise“, sagt Klimapolitikexperte Michael Shellenberger.

https://www.ted.com/talks/michael_shellenberger_how_fear_of_nuclear_power_is_hurting_the_environment?language=de

Geboren16. Juni 1971 (Alter 46)

BücherBreak ThroughBreak Through: Why We Can’t Leave Saving the Planet to Environmentalists

 




Der Nachweis eines menschengemachten Klimawandels ist nicht erbracht. Eine erkenntnistheoretische Kritik

Ab 2020 sollen zunächst die Industrieländer jährlich 100 Milliarden US$ für den Umbau der Energieversorgung, aber auch zur Beseitigung von durch den Klimawandel verursachten Schäden zur Verfügung stellen. Ein Großteil dieser Gelder soll voraussichtlich als privatwirtschaftliche Investitionen in die Entwicklungsländer fließen und nur ein vergleichsweise geringer Anteil aus öffentlichen Quellen für die schon heute notwendige Behebung von klimabedingten Schäden.[2]

Natürlich werden die Politiker der Industrieländer die öffentlichen Gelder nicht aus der eigenen Tasche zahlen, sondern werden die Steuerzahler zur Kasse bitten. Und was die privatwirtschaftlichen Investitionen angeht, bräuchte es kein Abkommen, wenn sie sich bereits heute rechnen würden. Stattdessen werden durch Regulierung und Subventionen Anreize geschaffen, sodass private Produzenten in ihrer Verfügungsfreiheit eingeschränkt und Steuerzahler zur Ader gelassen werden. Zudem fordert der Internationale Währungsfonds eine CO2-Steuer[3], obgleich die Netto-Steuerzahler bereits heute durch Energiesteuern und -umlagen, Kfz-Steuern oder Regulierungsvorschriften beim Wohnungsbau stark belastet werden.

Sollten die Bürger zu dem Schluss gelangen, dass die Politiker keine stichhaltigen Beweise anführen können für diese massiven Eingriffe in ihr Vermögen und ihre Freiheit, wäre das eine Katastrophe für die Politiker und eine Industrie, die mittlerweile nicht mehr von Kunden lebt, sondern sich von Steuergeldern und Regulierung ernährt: Von Windrädern über Elektroautos bis hin zu Leuchtmitteln und Styropor-Wärmedämmplatten – und den Klimakonferenzen selbst.

Auf die wissenschaftliche Methode kommt es an

Will man feststellen, ob es einen Klimawandel gibt, welche Ursachen er hat, welche Konsequenzen er haben wird, und ob man ihn verhindern oder die Konsequenzen abmildern kann, sind verschiedene wissenschaftliche Methoden denkbar: die der Naturwissenschaft, der Ökonomik, der Mathematik, der Logik und der Geschichtswissenschaft. Jeder dieser Wissenschaftszweige hat seine eigene Methode, um Erkenntnisse zu gewinnen.

Da der Gegenstand dieser Untersuchung der Klimawandel ist, ist zunächst mit dem Begriff des Klimas zu beginnen: Das Klima[4] ist das 30-jährige Mittel diverser Wetterwerte wie Temperatur, Windrichtung und -geschwindigtkeit, Luftfeuchtigkeit, Niederschlagsart und -menge, Wolkenbedeckung etc. Es ist kein Rechenprodukt der Anwendung von Formeln, die konstante Relationen angeben, sondern es handelt sich um historische (Durchschnitts-)Daten, die gemessen wurden, es ist: eine Statistik. Der österreichische Ökonom Ludwig von Mises (1881 – 1973) schrieb über statistische Daten:

„Erfahrung ist immer Erfahrung der Vergangenheit. Erfahrung und Geschichte liegen nie in der Zukunft. Diese Binsenweisheit müsste nicht wiederholt werden, wenn es nicht das Problem der Prognosen der Statistiker gäbe …[5] Die Statistik ist die Beschreibung von Phänomenen, die nicht durch regelmäßige Einheitlichkeit gekennzeichnet sind, in Zahlenausdrücken. Soweit es eine erkennbare Regelmäßigkeit in der Abfolge von Phänomenen gibt, ist es nicht nötig, zur Statistik zu greifen. … Statistik ist daher eine spezifische Methode der Geschichtsschreibung. … Sie handelt von der Vergangenheit und nicht von der Zukunft. Wie jede andere Erfahrung von der Vergangenheit kann sie gelegentlich wichtige Dienste bei der Zukunftsplanung leisten, aber sie sagt nichts aus, das direkt für die Zukunft gültig ist.“

Und weiter:

„Es gibt nicht so etwas wie statistische Gesetze. Die Leute greifen zu statistischen Methoden genau deshalb, weil sie nicht in der Lage sind, in der Verkettung und Abfolge von Geschehnissen eine Regelmäßigkeit zu erkennen.“[6]

Wenn eine Statistik zum Beispiel zeigt, dass auf A in 95% der Fälle B folgt und in 5% der Fälle C, heißt das, dass kein vollkommenes Wissen über A vorliegt. A müsste in A1 und A2 zerlegt werden, und wenn sich feststellen ließe, dass auf A1 immer B und auf A2 immer C folgen würde, dann läge vollkommenes Wissen vor.[7]

Naturwissenschaft

Ein naturwissenschaftlicher Beweis kann durch eine Statistik also nicht erbracht werden. Der Grund:

Die Welt der Naturwissenschaften ist das Gebiet, in dem der menschliche Geist durchaus fähig ist, konstante Beziehungen zwischen Elementen zu entdecken.[8] Im Bereich der Physik und der Chemie gibt es … konstante Beziehungen zwischen Größen, und der Mensch ist fähig, diese konstanten Beziehungen mit hinreichender Genauigkeit in Laborexperimenten zu erkennen.[9]

Allerdings betont Mises: Selbst die Naturwissenschaften können keine „exakten“ Ergebnisse liefern. Er schreibt:

Laborexperimente und Beobachtung von äußeren Phänomenen erlauben den Naturwissenschaften Messungen und die Quantifizierung des Wissens. … Heute leugnet niemand mehr, dass wegen der Unzulänglichkeit unserer Sinne Messungen niemals vollkommen und genau in der umfassenden Bedeutung des Begriffs sind. Sie liefern mehr oder weniger genaue Annäherungswerte. Übrigens zeigt die Heisenbergsche Unschärferelation, dass es Beziehungen gibt, die überhaupt nicht mehr gemessen werden können. Es gibt in unserer Beschreibung der Naturphänomene keine quantitative Exaktheit. Doch sind die Näherungswerte, die physikalische und chemische Gegenstände liefern, für die praktischen Zwecke im Großen und Ganzen genügend. Die Welt der Technologie ist eine Welt der annähernden Messung und der annähernden quantitativen Bestimmtheit.[10]

Obwohl selbst die Naturwissenschaften kein sicheres Wissen liefern können, genießen sie doch großes Vertrauen. Zu Recht: Sie haben viele für die Praxis taugliche Erkenntnisse hervorgebracht. Dank der Laborexperimente: Durch sie lassen sich konstante Relationen aufzeigen, sie sind beliebig wiederholbar.

Spezifisches Verstehen

Sofern konstante Relationen – wie bei den Naturwissenschaften – nicht festgestellt werden können, wie etwa bei der Interpretation von Geschichtsdaten oder bei der Voraussage künftiger Ereignisse (also der Geschichte der Zukunft), wenden Menschen die Methoden des spezifischen Verstehens an.

[Verstehen] ist die Methode, die alle Historiker und auch alle anderen Menschen stets anwenden, wenn es um die Interpretation vergangener Ereignisse der Menschheitsgeschichte und um die Voraussage künftiger Ereignisse geht. Die Entdeckung und Abgrenzung des Verstehens war eine der wichtigsten Beiträge der modernen Erkenntnistheorie. … Der Anwendungsbereich von Verstehen ist das geistige Begreifen von Phänomenen, die nicht vollkommen mit den Mitteln der Logik, der Mathematik, der Praxeologie und der Naturwissenschaften aufgeklärt werden können, insoweit sie von diesen Wissenschaften eben nicht erklärt werden können. Es [das Verstehen, A. d. V.] darf den Lehren dieser anderen Bereiche der Wissenschaften [Logik, Naturwissenschaft, Mathematik und Ökonomie] nie widersprechen.[11]

Da Verstehen das Interpretieren historischer Ereignisse ist, kann es niemals Ergebnisse hervorbringen, die von allen Menschen akzeptiert werden (müssten). Selbst wenn zwei Personen völlig darüber übereinstimmen, dass die Daten korrekt sind und ihr Denken nicht den Lehren der anderen Wissenschaften widerspricht, so können sie doch in ihrem Verstehen der Daten zu unterschiedlichen Ergebnissen gelangen. Sie mögen darin übereinstimmen, dass die Faktoren a, b und c allesamt einen Einfluss auf das historische Ereignis E hatten; aber nichtsdestotrotz können sie völlig uneins darüber sein, welche Relevanz diese Faktoren im Hinblick auf das Ereignis hatten. Soweit Verstehen darauf abzielt, jedem der Faktoren eine Relevanz beizumessen, steht es unter dem Einfluss subjektiver Bewertung. Dabei handelt es sich nicht um Werturteile, sie drücken keine Präferenzen aus, es handelt sich um Relevanzurteile.[12] Neben den Historikern verwenden auch die Psychologen oder die Ethnologen die Methode des spezifischen Verstehens, sofern sie sich mit der Interpretation historischer Daten menschlichen Verhaltens befassen.[13]

Verstehen ist also die Methode, die sich mit dem Begreifen komplexer Phänomene befasst und mit der Voraussage der Zukunft in komplexen Systemen. Die Daten, die von komplexen Phänomenen gewonnen werden, können jedoch niemals eine Theorie beweisen oder widerlegen.[14] In den Naturwissenschaften und in der Naturgeschichte hat Verstehen an sich nichts zu suchen.[15] Die Methode der Naturwissenschaften ist die Überprüfung von konstanten Relationen durch Experimente.

Ist Klima-Prognose eine Naturwissenschaft?

Die erste Frage, die sich stellt, lautet also: Womit haben wir es bei der Klimaforschung zu tun? Mit der Naturwissenschaft? Oder mit Prognosen, die unter Zuhilfenahme der Methode des Verstehens erstellt werden? Schauen wir uns dazu an, was in der Klimaforschung passiert.

Die direkte Wirkung von CO2 in einem geschlossenen System in Bezug auf die Temperatur ist wohl etablierte Physik, die auf Labor-Ergebnissen basiert und angeblich seit über einem Jahrhundert bekannt ist.[16] Soweit es um diese Laborerkenntnis geht, dürfen wir also von „harter“ Naturwissenschaft sprechen. Die Erde ist aber kein geschlossenes System. Es leben auf ihr „Verbrenner“[17], also Menschen und Tiere, die CO2 emittieren, und es gibt Pflanzen, die – um im Bild zu bleiben – sozusagen den Gegenprozess der Verbrennung betreiben: Vermittels Photosynthese bauen sie ihre körperliche Struktur aus dem in der Luft vorhandenen CO2 auf und nutzen hierzu die Energie des Sonnenlichts und emittieren Sauerstoff.

So geht denn auch die US-Behörde NASA (National Aeronautics and Space Administration) davon aus, dass eine Zunahme an CO2 in der Atmosphäre zu einem vermehrten Pflanzenwachstum führte.[18]Andere, die Temperatur und das Wetter beeinflussende Faktoren sind zum Beispiel: Sonnenaktivität, Luftfeuchte, Wolkenbedeckung oder Niederschlag. Während es also innerhalb eines Laborexperiments naturwissenschaftlich korrekt wäre, zu sagen, ein erhöhter CO2-Ausstoß führt zu einer Zunahme der Temperatur, handelt es sich bei einer Aussage über ein komplexes System mit Rückkopplungen (Feedback), das nicht durch konstante Relationen beschrieben werden kann, nicht mehr um eine naturwissenschaftliche Aussage, sondern um eine Prognose, bei der die Methode des Verstehensangewendet wird.

Gäbe es beim Klima, das ja das Resultat von Durchschnitten des Wetters ist, konstante Relationen, so müsste ja auch das Wetter über einen längeren Zeitraum exakt vorausgesagt werden können. Aber jeder von uns weiß aus persönlicher Erfahrung, dass das Wetter nur über sehr kurze Zeiträume und auch nicht immer sehr exakt vorausgesagt werden kann. Was die Klima-Wissenschaftler des IPCC (Intergovernmental Panel on Climate Change, sogenannter Weltklimarat) tun, ist, dass sie Relevanzurteile abgeben, wie dies Historiker tun oder Alltagsmenschen bei ihrer Einschätzung der Zukunft: Da ihnen die konstanten Relationen nicht bekannt sind, geben sie Relevanzurteile ab. Die Klima-Wissenschaftler wissen, dass die Faktoren Temperatur, CO2, Wolkenbildung, Sonnenaktivität, Luftfeuchte etc. zusammenwirken und so die Daten hervorbringen, die sie später in ihrer Statistik Klima nennen, ihnen sind jedoch konstante Relationen des Zusammenwirkens dieser Faktoren unbekannt. Sie können sie nur anhand von Modellen einschätzen.

Klimaforschung kann die Methoden der Naturwissenschaften anwenden, insoweit es möglich ist, hinsichtlich einzelner Phänomene in Laborexperimenten konstante Relationen festzustellen, aber hinsichtlich des Gesamt-Phänomens Erd-Klima nicht, weil es sich um ein komplexes Phänomen mit Rückkoppelungen handelt. Ein Klima-Modell kann niemals durch ein Laborexperiment überprüft werden. Diese Unsicherheit oder dieses Abweichen von der naturwissenschaftlichen Methode der Überprüfung im Experiment und der daraus folgenden Sicherheit wird auch mehr oder weniger unumwunden zugegeben: „Das Erdsystem ist in seiner Komplexität am oberen Ende des Spektrums hinsichtlich Nichtlinearität und Freiheitsgraden angesiedelt.“[19]

So verwundert es auch nicht, dass die Klimaforscher ihre Modelle ständig korrigieren. In den Modellen probieren sie aus, den verschiedenen klimarelevanten Faktoren unterschiedliche Relevanz beizumessen. Diese Modelle werden dann daran überprüft, ob sie Klima-Phänomene der Vergangenheit erklären können beziehungsweise, wenn genug Zeit vergangen ist, ob sie Klima-Phänomene voraussagen konnten. Bislang ist dies nicht gut gelungen, wie das nachfolgende Beispiel zeigt. „Wir haben die schnelle Erwärmung nach dem Jahr 2000, die wir in den Modellen sehen, in der Realität nicht beobachten können“, zitiert die Schweizer Weltwoche in ihrer 39. Ausgabe den Klimawissenschaftler Myles Allen von der University of Oxford, einen Mitautor einer Studie, die im Fachmagazin Nature Geoscience publiziert wurde.

Die Computermodelle lägen falsch, weil grundlegende klimatische Zusammenhänge in der Atmosphäre nicht bekannt gewesen oder nicht verstanden worden seien. Die Wissenschaftler seien nunmehr zu dem Schluss gekommen, dass die Menschheit weit mehr CO2 als bisher angenommen ausstoßen dürfe, bis sich die Erde mutmaßlich um 1,5 Grad erwärmt, und zwar fast viermal (!) mehr. Während die Partei der Klimaskeptiker dies als weiteren Beleg für einen Fehler der Klima-Alarmisten sieht, interpretiert der Studien Co-Autor Pierre Friedlingstein das Ergebnis als eine wirklich gute Nachricht. Denn ohne die Verlangsamung wäre das Vorhaben, die Erwärmung auf 1,5 Grad zu begrenzen, wohl unrealistisch gewesen, meint er.

Aber selbst wenn die Klimaforscher ihre Modelle ständig verbessern, wie wir bereits oben gesagt haben: Die Daten, die von komplexen Phänomenen gewonnen werden, können niemals eine Theorie beweisen oder widerlegen.[20] Selbst wenn die Modelle immer besser würden, also immer mehr durch gemessene Daten bestätigt, würde ebenso wenig Naturwissenschaft angewendet wie etwa Kopernikus oder Keppler Naturwissenschaft anwendeten, als sie die Umlaufbahn der Erde zunächst in der Kreisform und dann der Ellipse beschrieben. Die Geschichte der Astronomie als harte Naturwissenschaft begann erst mit den von Newton formulierten Gesetzmäßigkeiten, die der Überprüfung durch Laborexperimente standhielten.[21]

Und so ist es nicht verwunderlich, wenn die NASA auf ihrer Homepage meint, dass sich die IPCC Wissenschaftler nicht sicher seien, ob die menschliche Aktivität in den vergangenen 50 Jahren zu einem Temperaturanstieg des Weltklimas geführt habe. Die Wissenschaftler würden aber die Wahrscheinlichkeithierfür bei über 95% sehen.[22] Daraus glaubt man, schlussfolgern zu können, dass auch in Zukunft menschliche Aktivität für den Temperaturanstieg ursächlich sein wird – und der Temperaturanstieg durch menschliches Verhalten veränderbar ist. Im Einzelnen wird die Quantifizierung der Wahrscheinlichkeit durch das IPCC wie folgt beschrieben: „Die Wahrscheinlichkeit eines Ergebnisses bewertet, wie wahrscheinlich es ist, dass dieses Ergebnis eintritt. Sie wird in einer sprachlich kalibrierten Skala angegeben, welche auf quantifizierten Wahrscheinlichkeiten beruht. … Grundlage dieser Quantifizierung können Berechnungen auf Grundlage von in-situ-Daten, Satellitendaten oder Simulationen oder Auswertung von Experteninterviews sein.“[23]

Klima-Prognose ist eine Interpretation historischer Daten

Da wir nun wissen, dass sich die Klimaforschung der Methode des spezifischen Verstehens bedient, können wir verstehen, wieso keine sicheren Voraussagen möglich sind. Und wir wissen, dass das Verstehen nie den Lehren der anderen Wissensbereiche (Logik, Naturwissenschaft, Mathematik und Ökonomie) widersprechen darf. Deshalb können wir nun auch überprüfen, ob die Aussage des IPCC, dass mit einer Wahrscheinlichkeit von über 95% der Mensch ursächlich für die Erwärmung der letzten 50 Jahre sei, den Lehren anderer Wissenschaftsbereiche widerspricht.

Was sagen Wahrscheinlichkeits-Angaben aus?

Bei den 95% handelt es sich um die Angabe einer Wahrscheinlichkeit, und über Wahrscheinlichkeiten stehen uns Erkenntnisse aus der Logik und der Mathematik zur Verfügung. Es gibt grundsätzlich zwei Arten von Wahrscheinlichkeiten: Klassen-Wahrscheinlichkeit („Class Probability“) und Einzelfall-Wahrscheinlichkeit („Case Probability“)

Klassen-Wahrscheinlichkeit

Im Falle der Klassen-Wahrscheinlichkeit wissen wir im Hinblick auf den Untersuchungsgegenstand alles über das Verhalten einer ganzen Klasse von Ereignissen, aber über ein konkretes, einzelnes Ereignis wissen wir nichts, außer dass es zu dieser Klasse gehört.[24] Wir kennen den Ereignisraum, also alle Ereignisse, die geschehen können, es ist uns aber nicht möglich, eine Voraussage über ein konkretes, einzelnes Ereignis zu machen. Berühmtes Beispiel ist der Würfel-Wurf: Wir wissen, dass nur Würfe von eins bis sechs möglich sind, können bei einem konkreten Wurf aber nichts voraussagen, außer dass er innerhalb dieser Klasse von eins bis sechs liegen wird.

Die Wahrscheinlichkeitsrechnung bietet uns eine Möglichkeit, diese Form von unzureichendem Wissen in Symbolen der mathematischen Terminologie auszudrücken, jedoch ohne dass sie unser Wissen über das Phänomen vertiefen oder ergänzen würde. Es handelt sich dabei lediglich um eine Übersetzung in die Sprache der Mathematik. Die Wahrscheinlichkeitsrechnung wiederholt in algebraischer Sprache, was wir vorher schon wussten:[25] Es wird eine Zahl von eins bis sechs gewürfelt werden, wir wissen aber nicht, welche genau. Ludwig von Mises sagte deshalb, dass der große Mathematiker Blaise Pascal (1623 – 1662) seinem Zeitgenossen Chevalier de Méré (1607 – 1684) einen großen Gefallen getan hätte, wenn er ihn nach Hause geschickt hätte, als de Méré mit einem Würfelspielproblem zu Pascal kam. Pascal hätte freiweg zugegeben sollen, dass die Mathematik ihm bei seinem Würfelspielproblem nicht weiterhelfen kann, als dass sie ihm das in mathematischen Symbolen beschreibt, was er vorher auch schon wusste.[26]

Nicht zu verwechseln ist die Klassen-Wahrscheinlichkeit mit der relativen Häufigkeit. Bei der relativen Häufigkeit handelt es sich nicht wie bei der Klassen-Wahrscheinlichkeit um die mathematische Formulierung unvollständigen Wissens in Bezug auf ein Phänomen, bei dem wir bereits vorher theoretisch und a priori das Verhalten einer ganzen Klasse von Ereignissen kennen, aber nichts über ein einzelnes Ereignis wissen, außer dass es Teil der Klasse ist. Sondern es handelt sich bei der relativen Häufigkeit um eine Aufzeichnung von Daten und Ins-Verhältnis-Setzen: Wenn Sie 100 mal einen Würfel werfen, und sie würfeln 26 mal die sechs, so würde in der Mathematik die Wahrscheinlichkeit dennoch nicht mit der relativen Häufigkeit von 26% angegeben, sondern weiterhin mit 1/6 (ca. 16,7%).[27] Die relative Häufigkeit ist das Ergebnis der Aufzeichnung und Auswertung historischer Daten und hat insofern nichts zu tun mit der Klassen-Wahrscheinlichkeit.

Einzelfall-Wahrscheinlichkeit

Bei der Einzelfall-Wahrscheinlichkeit kennen wir im Hinblick auf ein konkretes Ereignis in der Zukunft einige beeinflussende Faktoren, aber es gibt andere Faktoren, die wir nicht kennen oder über deren Auswirkungen wir nicht genau Bescheid wissen.[28] Ein gutes Beispiel ist, wenn sie das Ergebnis eines Fußball-Spieles voraussagen wollen. Verstehen basiert immer auf unvollständigem Wissen. Sie, verehrte Leser, kennen im Fußballsport einige Einfluss nehmende Faktoren (Leistung einzelner Spieler, Heimspiel oder Auswärtsspiel, Ergebnisse vergangener Partien), aber sie können unmöglich alle Faktoren kennen, die Einfluss auf das Ergebnis haben, oder welche Relevanz die Spielstärke eines bestimmten Spielers bei der kommenden Partie haben wird. Sie können sich unmöglich im Vorhinein sicher sein, dass sie sich nicht bezüglich der Relevanz eines der Einflussfaktoren geirrt haben, oder dass sie nicht einige Faktoren, die im Nachhinein eine Rolle gespielt haben (der Schiedsrichter hatte einen schlechten Tag), übersehen haben.

Einzelfall-Wahrscheinlichkeit hat mit der Klassen-Wahrscheinlichkeit nichts gemeinsam, außer dass es sich bei beiden um Formen des unvollständigen, lückenhaften Wissens handelt. Bei der Einzelfall-Wahrscheinlichkeit ist ein numerischer Ausdruck nicht möglich. Sie können nicht sagen, die Fußballmannschaft A wird die Partie mit einer Wahrscheinlichkeit von 95% gewinnen, weil sie es nicht berechnen können. Wenn jemand sagt, er sei der Meinung, ein Fußballspiel gehe zu 95% für die Fußballmannschaft A aus, dann hat er das nicht berechnet, sondern er bedient sich einer Metapher: Er vergleicht die Gewinnchancen der Fußballmannschaft A mit den Gewinnchancen eines Teilnehmers an einem Lotteriespiel, der 95 von 100 Losen hält und bei dem eines der 100 Lose gewinnt. Er ist der Meinung, dass in einem solchen Fall die 95% uns etwas Substantielles über den Ausgang des einen Einzelfalles sagen könnte, den er gerade betrachtet. (Dass dies nicht der Fall ist, braucht nicht wiederholt zu werden.)[29]

Auch in der Naturwissenschaft verbietet es sich im Übrigen, eine Wahrscheinlichkeit über die mögliche Richtigkeit einer Hypothese anzugeben. Naturwissenschaftliche Hypothesen sind stets vorläufige Aussagen.[30] Alles, was über sie gesagt werden kann, ist, ob die Hypothesen mit logischen Prinzipien und den Ergebnissen von Experimenten übereinstimmen oder nicht. Sie erweisen sich dann entweder als falsch oder als nicht-falsch (nach dem heutigen Stand der Erfahrungen).

Die 95%-Aussage des IPCC

Bei der 95%-Aussage[31] des IPCC handelt es sich nicht um (Klassen-)Wahrscheinlichkeit. Denn die mathematische (Klassen-)Wahrscheinlichkeit ist, wie oben gezeigt wurde, ein theoretisches Konzept, bei dem uns von vornherein das Verhalten der ganzen Klasse von Ereignissen bekannt ist, wir bezüglich des in-Frage-stehenden Ereignisses aber nichts wissen, außer dass es Teil dieser Klasse ist. Die (Klassen-)Wahrscheinlichkeit ist auch keine Prognose der relativen Häufigkeit und schon gar keine Voraussage eines Einzelfalles. Mit historischen Daten kann eine Wahrscheinlichkeit nicht formuliert werden, sondern höchstens eine relative Häufigkeit ermittelt werden.

Zwar konvergiert die relative Häufigkeit (bei unendlich vielen Daten) gegen die (Klassen-)Wahrscheinlichkeit. Letztere können wir aber nur wissen, wenn wir die (Klassen-)Wahrscheinlichkeit vorher schon kennen, und das wiederum können wir nur in dem Falle, in dem wir bereits vorher alles über das Verhalten einer ganzen Klasse von Ereignissen wissen. Fehlt uns dieses Wissen, kann die relative Häufigkeit bestenfalls einen Trend anzeigen, aber keine Wahrscheinlichkeit. Die Geschichte lehrt uns aber, dass sich Trends, die sich in der Vergangenheit zeigten, ändern können, oft oder fast immer änderten und sogar in unmittelbarer Zukunft ändern können.[32]

Bei der 95%-Aussage des IPCC handelt es sich um die Angabe einer Einzelfall-Wahrscheinlichkeit auf Grund gemessener Daten. Dem IPCC sind im Hinblick auf den Klimawandel einige beeinflussende Faktoren bekannt, aber es gibt andere Faktoren, die es nicht kennt, oder über deren Auswirkungen es nicht genau Bescheid weiß.[33] Oben wurde bereits gezeigt, dass sich im Falle der Einzelfall-Wahrscheinlichkeit die Verwendung von Zahlenausdrücken verbietet.[34] Bei der 95%-Aussage handelt es sich also nicht um einen mathematischen Ausdruck für eine (Klassen-)Wahrscheinlichkeit, sondern um eine schwache intuitive Analogie, eine Metapher: Das IPCC meint, dass es sich im Hinblick auf seine These vom menschengemachten Klimawandel so sicher ist, wie sich ein Lotterieteilnehmer sicher sein würde, der über 95% der Lose verfügt. Aber auch hierzu haben wir bereits oben gezeigt, dass uns – selbst im Falle der Klassen-Wahrscheinlichkeit – diese 95% nichts Substanzielles über einen betrachteten Einzelfall sagen können, außer dass wir nicht sicher sind, ob das Gewinnerlos dabei ist.

Im Übrigen mögen die 95% manchen an den juristischen Terminus erinnern, dass jemand mit „an Sicherheit grenzender Wahrscheinlichkeit“ von einem gewissen Sachverhalt überzeugt sei. Aber an Sicherheit grenzende Wahrscheinlichkeit bedeutet, dass es „keine vernünftigen Zweifel“ mehr geben darf. Verfügt jemand aber über 95 von 100 Losen, so sind durchaus vernünftige Zweifel angebracht, ob das Gewinnerlos dabei ist! Um in der Metapher zu bleiben: Würden Richter sich mit 95% Sicherheit zufriedengeben, würde einer von 20 Verurteilten zu Unrecht im Gefängnis sitzen. Und würden Sie eine Fluggesellschaft als „sicher“ bezeichnen, bei der bei einem von 20 Flügen ein Flugzeug abstürzt?[35]

Als Ergebnis der bisherigen Untersuchung können wir festhalten: Die Klimaforscher wenden im Hinblick auf Klima-Historie, -Prognosen und -Modelle nicht die Methoden der Naturwissenschaft an, sondern die Methode des Verstehens komplexer Phänomene.[36] Zu einer sicheren Voraussage können sie damit nicht gelangen. Und wir wissen weiter, dass sich die Wissenschaftler mit ihrer Zu-95%-sicher-Aussage in einen eklatanten Widerspruch zu Denkgesetzen begeben. Die Anwendung des mathematischen Ausdruckes ist falsch, weil es sich hier um keinen Fall der Klassen-Wahrscheinlichkeit handelt. Im Bereich des Verstehens ist die Aussage falsch, weil die Einzelfall-Wahrscheinlichkeit denklogisch keine numerischen Ausdrücke zulassen kann, weil man sie nicht berechnen kann.

Klimaleugner und Klimasünder sind keine wissenschaftlichen Begriffe; sie dienen dem politischen Meinungskampf

Durch die Zuordnung der Klimawissenschaft zum Verstehen wird nun auch klar, warum ein so reger Streit herrscht um den menschengemachten Klimawandel. Es werden unwissenschaftliche Begriffe verwendet, die aus den Bereichen der Moral stammen – wie „Klimaleugner“ oder „Klimasünder“. Oder haben Sie schon einmal davon gehört, dass im naturwissenschaftlichen Diskurs Einstein als „Zeitleugner“ oder „Schwerkraftsünder“ bezeichnet wurde? Von Seiten der Klima-Alarmisten möchte man sich jeder weiteren wissenschaftlichen Diskussion versperren, und die Seite der „Klimaskeptiker“ erprobt sich ständig darin, die Annahmen der Klima-Alarmisten zu falsifizieren.

Im Bereich des Verstehens kann es keine einzig richtige Aussage geben

Da wir nun aber wissen, dass die Prognosen der Klimawissenschaftler zum Bereich des spezifischen Verstehens gehören, können wir ganz gelassen anerkennen, dass zwei Klimawissenschaftler im Hinblick auf die Daten völlig übereinstimmen können und auch im Hinblick darauf, dass die Relevanz, die sie gewissen Einflussfaktoren beimessen, weder naturgesetzlichen noch mathematischen oder logischen Regeln widersprechen, und dass sie trotzdem zu unterschiedlichen Prognosen gelangen können. Ebenso kann ein und derselbe Klimawissenschaftler zu zwei verschiedenen Zeitpunkten zu unterschiedlichen Ergebnissen gelangen, ohne sich selbst in Widerspruch zu begeben.

Die wirtschaftlichen Prognosen des Weltklimarates

Soweit es um die Klimadaten geht, haben wir also für Klarheit gesorgt. Aber wie sieht es mit den wirtschaftlichen Prognosen aus? In einem auf der IPCC-Webseite veröffentlichten Report beschäftigen sich die Autoren mit den Auswirkungen des Klimawandels auf das Bruttoinlandsprodukt.[37] Berühmtheit erlangt hat der Stern-Report des britischen Wissenschaftlers Nicolas Stern, der im Kern aussagt, dass der Klimawandel jährlich rund 5% des Welt-BIPs (also der Summe aller BIPs) kosten wird, wohingegen er die Kosten des Gegensteuerns mit 2% jährlich ansetzt.[38]

Der britische Wissenschafts-Journalist Matt Ridley kritisiert Sterns Bericht, weil Stern bei der Berechnung der Auswirkungen des Klimawandels sehr niedrige Zinssätze bei der Abzinsung verwende und so zu sehr hohen Zukunftswerten von Schäden beziehungsweise Kosten komme. Zudem kritisiert Ridley, dass der Stern-Report von einem sehr hohen Lebensstandard unserer Enkelkinder in der Zukunft ausgeht. Und auch die IPCC Szenarien sähen vor, dass die Menschen im Jahr 2100 auf so viel Wirtschaftswachstum zurückblicken würden, dass ihr Wohlstand im Durchschnitt vier bis 18-mal so hoch sein würde wie heute.[39] Diese Prognosen des Wirtschaftswachstums beeinflussen freilich auch die Prognose der Kosten von Schäden und der künftigen CO2-Emissionen.

Wer hat nun Recht? Nicolas Stern und das IPCC oder Matt Ridley? Um die Antwort zu finden, lassen Sie uns zunächst mit der Frage beginnen: Was ist überhaupt das BIP? Das Statistische Bundesamt weiß:

„Das Bruttoinlandsprodukt (BIP) ist ein Maß für die wirtschaftliche Leistung einer Volkswirtschaft in einem bestimmten Zeitraum. Es misst den Wert der im Inland hergestellten Waren und Dienstleistungen (Wertschöpfung), soweit diese nicht als Vorleistungen für die Produktion anderer Waren und Dienstleistungen verwendet werden.“

Wert kann nicht gemessen werden

Das BIP misst also angeblich den Wert von Waren und Dienstleistungen in einer Volkswirtschaft. Alleine: Wert kann nicht gemessen werden. Mises schreibt dazu:

Wert ist nicht intrinsisch, Wert ist nicht in Dingen. Er ist in uns; es ist die Art und Weise wie der Mensch auf die Bedingungen der Umwelt reagiert.[40] … Werten heißt A gegenüber B vorziehen. … Ebenso wie es keinen Standard und keine Messung von sexueller Liebe, von Freundschaft oder von Sympathie oder ästhetischem Genuss gibt, gibt es keine Messung des Wertes von Handelsgütern. … Es gibt keine Methode, eine Wert-Einheit zu schaffen. … In einer Marktwirtschaft gibt es Geldpreise. Wirtschaftsrechnung ist Rechnung in Form von Geldpreisen. Die unterschiedlichen Mengen der Güter und Dienstleistungen gehen in diese Wirtschaftsrechnung mit den Geldpreisen ein, für die sie am Markt gekauft und verkauft werden können … .[41]

Wenn man Wert aber nicht messen kann, was ist dann vom BIP zu halten? Dazu sei erneut Mises zitiert:

Es ist möglich, die Summe des Einkommens oder Vermögens mehrerer Personen in Geldpreisen auszudrücken. Aber es ist Unsinn, ein National-Einkommen oder Volks-Vermögen zu berechnen. Sobald wir beginnen, Erwägungen anzustellen, die einem Menschen fremd sind, der innerhalb der Marktwirtschaft handelt, hilft uns Geldrechnung nicht mehr weiter. … Wenn in einer Wirtschaftsrechnung ein Vorrat von Kartoffeln mit 100 US$ bewertet wird, ist die Idee, die dahintersteckt, dass man diesen Vorrat für diesen Preis verkaufen oder ersetzen kann. … Aber was ist die Bedeutung einer Berechnung des Volksvermögens? Was ist die Bedeutung des Ergebnisses der Berechnung? Was muss in eine solche Berechnung einfließen und was muss außen vorgelassen werden? Wäre es falsch oder richtig, den „Wert“ des Klimas des Landes einfließen zu lassen oder die angeborenen und erworbenen Befähigungen der Bewohner? Der Kaufmann kann seine Güter in Geld eintauschen, aber ein Volk kann das nicht.

Die Geld-Ausdrücke wie sie beim Handel und in der Wirtschaftsrechnung Verwendung finden, sind Geldpreise, das heißt Umtauschkurse zwischen Geld und anderen Gütern und Dienstleistungen. Preise werden nicht in Geld gemessen; Preise bestehen aus Geld. Preise sind entweder Preise der Vergangenheit oder erwartete Preise in der Zukunft. Ein Preis ist notwendigerweise ein historisches Datum, entweder der Vergangenheit oder der Zukunft. Es ist nichts an Preisen, das es erlauben würde, sie für die Messung von physikalischen oder chemischen Phänomenen heranzuziehen.[42]

Es ist also sinnlos, wenn Sie ihr Vermögen und das Ihres Nachbarn, das ein jeder für sich in Geldpreisen errechnet hat, addieren, wenn Sie nicht vorhaben, gemeinsam am Markt zu handeln. Sie können Wohlstand nicht messen. Einem Italiener mögen sein mildes Klima und die gute Landesküche sehr viel wert sein, aber wie wollen Sie dies in eine ökonomische Kalkulation einfließen lassen? Natürlich werden die meisten Menschen darin übereinstimmen, dass der Wohlstand heute größer ist als noch vor 100 Jahren. Es gibt mehr Kapitalgüter (Fabriken, technische Anlagen, Minen, Elektrizitätswerke), und es stehen vielen Menschen viel mehr Konsumgüter (Autos, Wohnungen, Lebensmittel, Frisörbesuche etc.) zur Verfügung als damals. Alleine, sie können diese Wohlstandszunahme nicht numerisch messen und unterschiedliche Menschen bewerten wirtschaftlichen Fortschritt unterschiedlich. So mag dem zurückgezogenen Bio-Bauern der Bau einer neuen Autobahn ein Unwert sein, während der Pendler, der die Autobahn nutzen möchte, sie durchaus als Wert ansieht. Und auch ein und derselbe Mensch kann ein und denselben Gegenstand zu unterschiedlichen Zeitpunkten unterschiedlich bewerten.

Der nächste Begriff, den uns das statistische Bundesamt bei seiner Beschreibung des BIP zuwirft, ist der Begriff der Volkswirtschaft. Aber bei der Volkswirtschaft handelt es sich lediglich um eine theoretische Fiktion, die im Widerspruch zu den Lehren der Ökonomik steht:

„Die Marktwirtschaft als solche respektiert keine politischen Grenzen. Ihr Bereich ist die Welt.[43]… Es ist nicht „Amerika“, das Champagner von „Frankreich“ kauft. Es handelt sich immer um einen individuellen Amerikaner der ihn von einem individuellen Franzosen kauft. … Solange es noch Handlungsspielräume für Individuen gibt, soweit es privaten Besitz und Handel mit Gütern und Dienstleistungen gibt, gibt es keine Volkswirtschaft. Nur wenn es eine völlige Regierungskontrolle anstelle der Wahlmöglichkeiten der Individuen gibt, gibt es eine Volkswirtschaft als reale Einheit.“[44]

Von Preisänderungen kann nicht auf Kaufkraftänderungen geschlossen werden

Ein weiteres Problem besteht darin, dass sich die Wissenschaftler bei BIP-Prognosen mit der Kaufkraft von Geld befassen. Ihre Berechnungen seien inflations- oder kaufkraftbereinigt. Alleine, das ist ökonomisch gesehen nicht möglich.

„Alle Methoden, die vorgeschlagen werden, um die Änderungen der Kaufkraft einer Geldeinheit zu messen, basieren, mehr oder weniger unbeabsichtigt, auf der illusorischen Einbildung eines unsterblichen und unveränderbaren Wesens, das vermittels eines unabänderlichen Standards die Menge der Befriedigung festlegt, die ihm eine Geldeinheit bringt. … Nur wenn Menschen die gleichen Dinge immer gleich bewerten würden, könnten wir Preisänderungen als einen Ausdruck der Änderung der Kaufkraft des Geldes ansehen.“[45]

Wenn das IPCC oder der Stern-Report die Kosten des Klimawandels also im Hinblick darauf errechnen, welche Werte künftige Schäden, künftige Einkommen oder künftige Aggregate von BIPs haben werden, können wir im Hinblick auf diese Berechnungen sagen, dass sie im Widerspruch zu den Lehren der Ökonomik stehen, dass man Wert nicht messen kann, dass es eine Volkswirtschaft im ökonomischen Sinne nicht gibt, und dass es daher auch widersinnig ist, das Aggregat der BIPs zu bilden, um eine Welt-Wirtschaftsleistung zu berechnen. Die Berechnungen des IPCC sind also insofern als falsch zu bezeichnen, weil sie den Lehren der Ökonomik widersprechen. Freilich könnte man – im Rahmen des Verstehens – Schäden oder die Kosten von Maßnahmen zu deren Verhinderung anhand von heutigen Marktpreisen schätzen, und man könnte auch schätzen, wie die Marktpreise von Schäden oder Maßnahmen zu deren Verhinderung in der Zukunft sein werden. Man kann solche Geldpreise von Schäden und Maßnahmen zu deren Verhinderung aber eben nicht ökonomisch berechnen, Kaufkraft nicht messen, und die Angabe von Schäden und Kosten im Verhältnis zu einem BIP kann keinen Sinn machen, wenn das BIP keinen Sinn macht.

Die IPCC Annahmen widersprechen den Lehren der Ökonomie und Denkgesetzen

Zusammenfassend können wir sagen, dass die Wissenschaftler des IPCC auf Grund historischer Daten und bekannter naturwissenschaftlicher Relationen vermuten, dass die Menschen durch die Emission von CO2 zu einem Klimawandel beigetragen haben. Sicher sind sie sich nicht. Sie meinen auch, dass durch den Klimawandel Schäden entstehen können; die Werte, die die Menschen diesen Schäden beimessen und beimessen werden, können sie aber nicht berechnen. Sie sind zudem der Ansicht, dass diese Schäden, wenn nicht verhindert, so doch abgemildert werden könnten. Sicher können sie sich auch hier nicht sein, wenn sie sich schon unsicher darüber sind, ob der Mensch ursächlich zum Klimawandel beigetragen hat. Und sofern Wissenschaftler Zwangsabgaben und Regulierung vorschlagen, also staatliche Ge- und Verbote, um die als möglich und abwendbar angesehenen Schäden zu verhindern oder abzumildern, ist dies im Übrigen eine ethische Wertung, die natürlich nicht wissenschaftlich ist, sondern lediglich etwas über die Einstellungen der Wissenschaftler zu Zwangsmaßnahmen aussagt.

Zwangsabgaben und Regulierung gegen Bürger sind auf Grund der Annahmen der IPCC-Wissenschaftler nicht gerechtfertigt

Wie also mit dem Problem umgehen? Der Ökonom Murray Rothbard (1926 – 1995) meinte:[46]

Wenn eine Partei einer anderen durch eine Handlung [wie etwa die Emission von CO2] einen Schaden zufügt, und wenn dies vor Gericht oder in einem Schiedsgerichtsverfahren mit an Sicherheit grenzender Wahrscheinlichkeit bewiesen werden kann, dann stünden der geschädigten Partei Abwehr- und Schadensersatzansprüche zu. Es dürften aber keine vernünftigen Zweifel mehr verbleiben, dass das Verhalten des Schädigers den Schaden bewirkt hat. Wenn nicht alle vernünftigen Zweifel ausgeräumt werden können, ist es jedoch bei Weitem besser, einen Schädiger nicht zu verurteilen, anstatt unsererseits jemandem absichtlich Schaden zuzufügen. Der Grundsatz des Hippokratischen Eides: ‚tue zumindest niemandem ein Leid an‘, muss auch für jeden gelten, der Recht anwendet oder vollzieht.

Es ist aber gerade nicht so, dass das IPCC oder die NASA einen menschengemachten Klimawandel mit an Sicherheit grenzender Wahrscheinlichkeit nachweisen können. Die Angabe einer numerischen Wahrscheinlichkeit widerspricht Denkgesetzen: Die metaphorisch mit 95% angegebene Sicherheit könnte in keinem gerichtlichen Verfahren als Kausalitäts-Beweis dienen; man gelangte schon gar nicht zu der Frage, ob vernünftige Zweifel verblieben, weil der Beweisbelastete schon nach eigener Aussage vorbringt, dass gewichtige Zweifel bestehen.

Die Berechnung der voraussichtlichen Schadenshöhe und der Kosten der Gefahrenabwehr hätten sich die Wissenschaftler des IPCC daher sparen können. Da sie aber nun einmal durchgeführt wurden, können wir hierzu sagen, dass die Berechnungen im Widerspruch zu den Gesetzen der Ökonomik stehen und deshalb falsch sind.

Die Ergebnisse der Klimaforschung können eine Besteuerung von Bürgern daher nicht rechtfertigen. Damit den Bürgern kein weiterer Schaden entsteht, wären die bestehenden Steuern und Subventionen, die mit dem menschengemachten Klimawandel begründet wurden, umgehend abzuschaffen. Und keinesfalls können Steuererhöhungen, neue Steuern oder neue Subventionen gerechtfertigt werden.

[1] bmub/weltklimakonferenz-2017-in-bonn/
[2] https://de.wikipedia.org/wiki/%C3%9Cbereinkommen_von_Paris
[3] http://www.imf.org/external/pubs/ft/sdn/2016/sdn1601.pdf
[4] https://de.wikipedia.org/wiki/Klima#Definition_des_Klimas
[5] Ludwig von Mises, Die Letztbegründung der Ökonomik (2016), S. 69.
[6] A.a.O., S. 81 f.
[7] Vgl. a.a.O., S. 82.
[8] A.a.O., S. 83.
[9] Ludwig von Mises, Human Action (1949), pg. 55.
[10] Die Letztbegründung der Ökonomik, S. 91.
[11] Human Action, pg. 50.
[12] Diese Passage ist teilweise eine recht freie Übersetzung einer Passage aus Human Action, pg. 57.
[13] Vgl. a.a.O., pg. 50.
[14] Vgl. a.a.O., pg. 51.
[15] Vgl. a.a.O., pg. 58.
[16] Vgl.: https://mises.org/library/skeptics-case; vgl. auch: https://www.youtube.com/watch?v=kwtt51gvaJQ
[17] Sogenannte aerobe Atmung.
[18] https://climate.nasa.gov/causes/
[19] https://de.wikipedia.org/wiki/Behandlung_von_Unsicherheit_im_IPCC-Prozess#cite_note-1
[20] Vgl. a.a.O., pg. 51.
[21] Vgl. a.a.O., pg. 58 f.
[22] https://climate.nasa.gov/evidence/
[23] https://de.wikipedia.org/wiki/Behandlung_von_Unsicherheit_im_IPCC-Prozess
[24] Vgl. a.a.O., pg. 107.
[25] A.a.O., pg. 108.
[26] A.a.O., pg. 106.
[27] Bei unendlich vielen Würfelwürfen würde die relative Häufigkeit allerdings fast sicher gegen die Wahrscheinlichkeit konvergieren, wie Bernoulli beobachtet hat und wie dies später auch in der Wahrscheinlichkeitstheorie mathematisch formuliert wurde, vgl. https://de.wikipedia.org/wiki/Gesetz_der_gro%C3%9Fen_Zahlen#Schwaches_Gesetz_f.C3.BCr_relative_H.C3.A4ufigkeiten
[28] A.a.O., pg. 110.
[29] Vgl. hierzu: a.a.O., pg. 114 f.
[30] Vgl. Ludwig von Mises, die Letztbegründung der Ökonomik, S. 101, mit Hinweis auf den Falsifikationismus nach Karl Popper.
[31] Das IPCC sagt zwar, dass es die Wahrscheinlichkeit über 95% einschätzt, da aber auch 95,00001% über 95% ist, kann hier aus Vereinfachungsgründen 95% angenommen werden. Immerhin sagt das IPCC ja nicht, dass es sich zu über 96% sicher wäre.
[32] Vgl. a.a.O., S. 100.
[33] Das Erdsystem ist in seiner Komplexität am oberen Ende des Spektrums hinsichtlich Nichtlinearität und Freiheitsgraden angesiedelt. Da diese Komplexität bedeutet, dass Erkenntnisse über die im Erdsystem herrschenden Prozesse bisher nicht mit absoluter Sicherheit beschrieben und erklärt werden können, ist es notwendig, diese Unsicherheit zu quantifizieren.https://de.wikipedia.org/wiki/Behandlung_von_Unsicherheit_im_IPCC-Prozess#cite_note-1
[34] Die mathematische Metapher wurde laut Wikipedia aus folgendem Grunde verwendet: Häufig wird in der politischen Diskussion eine subjektive Beschreibung von Unsicherheiten gewählt. Das bedeutet, dass in Aussagen die Klassifizierungen „sehr wahrscheinlich“, „wahrscheinlich“ oder „unwahrscheinlich“ verwendet werden, die sich jedoch in ihrer Bedeutung von Person zu Person und von Interpretation zu Interpretation unterscheiden. Damit wird Außenstehenden ein unklares Bild der Faktenlage und der objektiven Ergebnisse vermittelt. Dies kann [nicht?] das Ziel der Verwendung sein (wie bei der Kontroverse um die globale Erwärmung) und sollte daher vermieden bzw. unterbunden werden.https://de.wikipedia.org/wiki/Behandlung_von_Unsicherheit_im_IPCC-Prozess#cite_note-1
[35] Ja, wenn bei einem von 20 Flügen ein Flugzeug abstürzt, hieße dies, dass bei 95% der Flüge kein Flugzeug abstürzt.
[36] Einem ähnlichen Fehler unterliegen die Ökonometriker, die versuchen anhand wirtschaftlicher Daten die Zukunft der wirtschaftlichen Entwicklung vorauszusagen. Erstens schaffen sie es mit der Methode des Verstehens nicht und zweitens stehen ihre Voraussagen im Widerspruch zu den Lehren der Ökonomik.
[37] https://www.ipcc.ch/pdf/assessment-report/ar5/wg2/WGIIAR5-Chap10_FINAL.pdf
[38] https://en.wikipedia.org/wiki/Stern_Review#Summary_of_the_Review.27s_main_conclusions
[39] Matt Ridley, The Rational Optimist (2010), pg. 331. Vgl. Hierzu: https://de.wikipedia.org/wiki/Stern-Report
[40] Human Action, pg. 96.
[41] A.a.O, pg. 205 f.
[42] A.a.O., pg. 208.
[43] A.a.O., pg. 319.
[44] A.a.O., pg. 323.
[45] A.a.O., pg. 221.
[46] Murray Rothbard, Law, Property Rights, and Air Pollution, 1982, https://mises.org/library/law-property-rights-and-air-pollution

Dr. Andreas Tiedtke ist Rechtsanwalt und Unternehmer.

Der Beitrag erschien zuerst auf der Website des Ludwig van Mises Institut Deutschland




Die Rede unseres Bundes­präsidenten, F. W. Stein­meier auf COP23 über den Klima­wandel war (k)eine investi­gative Stern­stunde – Teil 2 (2)

Steinmeier: ... kennt Täler in Europa, die „vor fünfzig Jahren noch randvoll mit Gletschereis standen“ und heute leer sind

Bundespräsident F.-W. Steinmeier, Redeauszüge [3]:
Wir spüren sie hier in Europa, wenn wir auch im Winter durch leere Alpentäler wandern – Täler, die vor fünfzig Jahren noch randvoll mit Gletschereis standen.
SCIENCE SCEPTICAL BLOG hat dazu kommentiert: [2] Kommentar: Und finden dabei unter den weichenden Gletschern Torf und Pollen und Baumstämme aus dem Mittelalter, der Römerzeit und der Bronzezeit.

Der Autor ergänzt: Wo in Europa gab es vor 50 Jahren ein Tal, welches „randvoll“ mit Gletschereis war und nun auch im Winter davon vollkommen leer ist. Allerdings waren Alpentäler früher bis kurz nach dem Ende der nachmittelalterlichen Zwischeneiszeit mehr vergletschert, nachzulesen in:
EIKE 31.07.2015: [11]
Fakten zu Gletscherschwund und Co.
Das Maximum war aber nicht vor 50 Jahren, sondern um 1850 … 85. Bereits um 1920 wurde vom Alpenverein über Gletscherrückzüge berichtet (hat der Autor auf einer Bergtour um 1970 auf einer Alpenvereinshütte in einem Jahrbuch selbst gelesen, die Fundstelle damals allerdings nicht sorgfältig notiert).
Und eines hat der Bundespräsident vergessen zu erwähnen: Davor waren sie weit niedriger, bis ganz verschwunden, wie es in [2] richtig kommentiert ist. Im Bild 2.1 sind Fundstellen an einem Gletscher eingetragen.

Bild 2.1 [11] Standort und Wachstumsperioden von Waldbäumen, die durch den gegenwärtigen Rückgang des Gepatschferners – des zweitgrößten Gletschers der österreichischen Alpen – eisfrei geworden sind.
Dazu die Aussage eines Gletscherforschers:
EIKE 07.01.2010: [14] Klimawandel und die Gletscher in den österreichischen Alpen als Zeitzeugen!
… Die gegenwärtige Gletscher-und Klimaentwicklung zeigt keine Verhältnisse, die es in der Vergangenheit ohne menschlichen Einfluss nicht schon mehrfach und lange andauernd gegeben hat. Der gegenwärtige Rückgang der Alpengletscher kann nicht als Bestätigung für die Hypothese eines anthropogen verursachten Klimawandels dienen.
Gletscherschwundperioden dieser Art gab es in der Vergangenheit mehrfach und auch in deutlich stärkerem Ausmaß. Die Rekonstruktion der Gletscherentwicklung erlaubt die Aussage, dass in rund 65 % der letzten 10.000 Jahre die Gletscher kleiner waren und die Sommertemperaturen daher so hoch oder höher lagen als heute.

Randvoll mit Gletschereis“ war früher für die Talbewohner eine latente, tödliche Gefahr, gegen die sie anbeteten und wallfahrteten

[11] Welche Schrecken stellte das kalte Klima dar? Gehen wir in der Geschichte zurück zu den Zeiten, als die „Orte der Schönheit und Magie“ – noch groß und mächtig waren und sich der Mensch davor verzweifelt zu schützen versuchte.

In der sogenannten „Kleinen Eiszeit“, die von etwa 1590 bis 1850 dauerte, wurde eine rasante Zunahme des Hexenwesens vermeldet

[6] Es ist in der neueren Literatur mehrfach und immer wieder bestätigt, daß gerade in der sogenannten „Kleinen Eiszeit“, die von etwa 1590 bis 1850 dauerte, eine rasante Zunahme des Hexenwesens vermeldet wird. Die in dieser Zeit sich dramatisch häufenden Naturereignisse, besonders die in den stark vergletscherten Regionen der Alpen häufigen Gletschersee-Ausbrüche und Extrem-Wasserschäden wurden diesen „Wettermachern“ und „Hexern“ zugeschrieben.
Bei Hochständen endete der Fieschergletscher in zwei Gletscherzungen, die nahe an die Weiler Brucheren und Unnerbärg heranreichten. Es ist deshalb verständlich, dass sich die Fieschertaler bedroht fühlten.
Um die Gletschergefahr abzuwenden, machten die Fieschertaler der Sage nach das Gelübde, sich an den Samstagen von der Vesper an jeglicher knechtlicher Arbeit zu enthalten. Eine Ausnahme war das Einlegen von dürrem Heu und Getreide. Als der Fieschergletscher 1652 vorstiess, unternahmen die Talbewohner eine gletscherbannende Prozession unter der Leitung eines Geistlichen und beschworen das „Gespenst“ im Fieschergletscher. Der Gletscher soll daraufhin nicht mehr weiter vorgerückt sein.
Im Jahr 1676 ersuchten die Talbewohner Papst Innozens XI., das Gelübde umwandeln zu dürfen, da sich nicht alle Fieschertaler an dieses hielten. Dies geschah dann auch im Jahr 1678. Die Fieschertaler mussten unter anderem versprechen, keine verborgenen Tänze zu veranstalten und die Frauen keine roten Schürzen mehr tragen zu lassen. Im Jahr 1860 drohte wiederum Gefahr, weil der Fieschergletscher erneut zu einem Hochstand vorgestossen ist. Die Fieschertaler machten erneut ein Gelöbnis, nämlich alljährlich eine Bittprozession zur Kapelle im Ernerwald durchzuführen, eine Kerze in der Kirche an Sonn- und Feiertagen zu unterhalten und jährlich eine Messe zu lesen.

Als man barhaupt den Grossen Aletschgletscher bannen wollte

Angelangt am Sitze des Übels wird vorab das hl. Messopfer gefeiert, dann eine kurze Predigt gehalten, hierauf mit dem Allerheiligsten der Segen erteilt, um den sich schlängelnden Gletscher einzudämmen und demselben Zügel anzulegen, auf dass er nicht weiter mehr sich ausdehne. Es werden die feierlichen Beschwörungen der Kirche in Anwendung gebracht und der äusserste Teil des Gletscherberges mit Wasser, geweiht im Namen unseres hl. Vaters (St. Ignatius), besprengt. Überdies wurde daselbst eine Säule aufgerichtet, auf der sich das Bildnis ebendesselben hl. Patriarchen befand, gleichsam das Bild eines Jupiter, der nicht flüchtigen Soldaten, sondern dem gefrässigen Gletscher Stillstand gebietet. Um diese Zuversicht auf die Verdienste des Heiligen blieb nicht ohne Frucht. Er hat den Gletscher zum Stehen gebracht, so dass er von nun an sich nicht weiter ausdehnte. Im Monat September 1653.»
Unterhalb des Aletschgletschers beten fromme Menschen über 3 Jahrhunderte für den Rückgang dieser Gletscher-Bedrohung (“Der kalte Tod”).
“… Es gab eine Zeit, in der der Aletschgletscher wuchs und wuchs. Er rückte bedrohlich nahe ans Dorf heran. Dazu kamen die Ausbrüche des Märjelensees. 35 Mal brach der Eisstausee im 17. Jahrhundert oberhalb von Fiesch aus.

1678 legten die Bewohner von Fiesch und vom Fierschertal ein Gelübte ab, in dem sie vor Gott und der Welt kund taten, fortan tugendhaft zu leben und brav zu beten, dass der Gletscher sein Wachstum einstelle. Sie hielten einmal pro Jahr eine mehrstündige Prozession im Ernerwald ab, um gegen das Wachstum des Gletschers zu beten. Die Prozession fand am Tag des Gründers des Jesuitenordens, dem Heiligen Ignatius von Loyola, am 31. Juli statt.

Pfarrer Johann Joseph Volken, ein Vorfahre des heutigen Regierungsstatthalters Herbert Volken leitete 1678 das Gelübde seiner Gemeinde an die nächste kirchliche Instanz weiter, den Bischof von Sitten. Von dort aus gelangte es an den Nuntius der römisch-katholischen Kirche der Schweiz in Bern, der es dem Vatikan zur Absegnung unterbreitete. Papst Innozenz segnete das Gelübde ab

Der Vernagtferner im Ötztal brachte regelmäßig große Schäden bis nach Innsbruck

Berühmt und zugleich berüchtigt ist seit über 400 Jahren zum Beispiel der Vernagtferner in den Ötztaler Alpen. Aus einem Seitental ist der Gletscher in den Jahren 1600, 1676, 1678, 1771, 1772 und dann wieder 1845 und 1848 in das Rofental vorgestoßen und hat, mit dem Guslarferner vereinigt, hinter der Zwerchwand eine Eismauer gebildet, weit über 100 Meter hoch. Dahinter wurde ein See gestaut, der ca. 1300 Meter lang war. Dieser See ist mehrmals durch die teilweise poröse Eismauer durchgebrochen und hat im ganzen Ötztal große Schäden angerichtet. Die Wassermassen von geschätzten 1 ½ bis 3 Millionen Kubikmeter sind dann binnen einer Stunde oder eineinhalb Stunden ausgebrochen. Der einem Dammbruch vergleichbare Durchbruch war bis dato keine menschlichen Eingriffe und technischen Maßnahmen verhinderbar.

Dass der durch den Vernagtferner hinter Rofen gestaute See im Jahre 1678 ausgebrochen ist und große Schäden durch das ganze Ötztal hinaus, ja bis ins mehr als 120 km entfernte Innsbruck angerichtet hat, wird nach der Überlieferung und – inzwischen aktenkundig gemacht – einem herumziehenden „Malefiz- Buben“, einem „Wettermacher“ zugeschrieben. Es ist dies der namentlich bekannte Thomann Jöchl aus dem Zillertal, der in Meran bei einem Prozeß im Jahre 1679 mit 12 anderen Angeklagten verurteilt und hingerichtet wurde. Dieser „Hexenmeister“ habe auch den Ausbruch des Fischbaches im Jahre 1678 in Längenfeld verursacht. Der Pflegsverwalter von Petersberg tritt als Zeuge auf und meldet, „daß ein gottloser pue anno 1678 durch das etzthal gehend, von vorgedachten Valtin Kuprian zu Prugg, allwo er übernachtet, nicht nach verlangen traktiert worden, durch Zauberei und des Teifels hilf den ferner den Ausbruch und in Lengenfelder Thal ein Wetter gemacht“.

Örtliche Chronisten wie Johann und Benedikt Kuen sowie Franz Stippler berichten von bescheidenen „Maßnahmen“ der Bevölkerung und der Verwaltung.
Aus gnädiger Lizenz Ihro fürstlichen Gnaden Herrn Paulin Bischof zu Brixen, ist von drei Priestern und Curaten im Özthal auf dem obersten Berg des Ferner- Anfangs, dann auch zuunterst auf dem Eis als auf einer Ring Mauren das Hl. Meßopfer samt einer eifrigen Predigt in Gegenwart der Procession von 2 Communitaten als Lengenfeld und Sölden verrichtet worden, worbey sich sehr viele Personen von den äußeren Kirchspielen eifrig und andächtig eingefunden. Es sind auch zwei ehrwürdige Herrn Capuciner von Imst etliche Wochen lang zu Vent verblieben, welche täglich das Hl. Meßopfer um dieser Gefahr Abwendung verrichtet, item sind zu unterschiedlichen Orten andächtige Kreuzzüge angeordnet, auch insonderheit durch die kleinen Kinder gehalten worden…“.

Bild 2.2 [11] Der Steinlimigletscher (Schweiz) zur Römerzeit
Bild 2.3 [11] Der Steinlimigletscher (Schweiz) 1993 mit den Ausbreitungslinien von 1856 (obere) und 1913 (untere)

Der Name des größten Ostalpen-Gletschers „Pasterze, bedeutet „Weideland“

[11] … Und wer es immer noch nicht glauben will dass die Alpen in historischer Zeit weitgehend gletscherfrei waren, kann es immer neu an der Pasterze (Großglockner) erleben (Anmerkung: „Pasterze“ heißt „Weideland“). Im Juni 2015 wurden zwei Teile eines insgesamt 7,9 m langen Baumstammes aus der Seitenmoräne über dem heutigen Gletscherende geborgen.
[12] … Damit ist belegt, dass in den Bereichen wo heute Eis, Schutt, Sand und Wasser regieren, vor 9.000 und auch zwischen 7.000 und 3.500 Jahren teils hochstämmige, alte Zirben wachsen konnten – eine unglaubliche Vorstellung!
Seit Beginn der Nacheiszeit vor etwa 11.500 Jahren war die Pasterze nie größer als beim letzten Hochstand von 1852 bis 1856, jedoch schon öfters deutlich kleiner als heute.

Fazit

Sofern jemand der Leserschar im Blog ein Tal in Europa kennt, auf welches die Beschreibung unseres Bundespräsidenten zutrifft, ist dieser Passus seiner Rede „richtig“.
Doch selbst, falls es so sein sollte: Als „Beleg“ für etwas Schlimmes (durch den AGW-Klimawandel) kann das Beispiel nicht dienen. Den Alpenbewohner waren die heute (aus touristischen Gründen) so „geliebten“ Gletscher eine latente, tödliche Gefahr – und talauf, talab beteten und veranstalteten sie Wallfahrten, dass diese zurückgehen mögen. Würden diese Bewohner heute auferstehen, würden sie frohlocken, dass diese Gefahr für ihre Nachkommen weitgehend verschwunden ist und ihre (teils teuren, sicher oft an die Substanz gehenden) Bittgesuche erhört wurden. Sie könnten unsere „Gletschersehnsucht“ bestimmt nicht verstehen.

Steinmeier: .… wenn das Meer immer öfter über Land kommt …

Bundespräsident F.-W. Steinmeier, Redeauszüge [3]:
Wir spüren sie in anderen Teilen der Welt, wenn das Meer immer öfter über das Land kommt und zugleich, weit entfernt, ganze Städte im Wüstensand verschwinden.
… Und es ist gut, dass die Interessen dieser Staaten hier in Bonn unter dem Vorsitz der Republik Fidschi laut und deutlich Gehör finden – einem Land, das die Bedrohung durch den Klimawandel selbst auf ganz konkrete Weise spürt. Mein besonderer Dank und meine Anerkennung gehen deshalb an die Regierung von Fidschi – und ich möchte auch Ihnen ganz persönlich für Ihr Engagement danken, lieber Herr Premierminister Bainimarama. Herzlichen Dank dafür!

SCIENCE SCEPTICAL BLOG hat dazu kommentiert: [2] Kommentar: Die Meere kommen nicht immer öfter über das Land, denn die Zahl der Sturmfluten und Stürme hat in den letzten Jahrzehnten nicht signifikant zugenommen. An der Nordseeküste nimmt die Sturmaktivität gar seit den 1990er Jahren ab. Auch die Zahl der Wirbelstürme und deren Energie nimmt global nicht signifikant zu. Zudem ziehen sich die Wüsten in einen wärmeren Klima zurück. Wie nach der letzten Eiszeit und seit den 1980er Jahren in der Sahara, wie durch Satellitenbilder zu beobachten ist.

Der Autor ergänzt: Zwei getrennte Sachverhalte sind angesprochen, der Meerespegel und Austrocknung. Beide muss man getrennt betrachten. Beginnen wir mit dem Meerespegel.

Herr Premierminister Bainimarama (Fiji): Danken Sie mir, dass in unserem Land niemand nachsieht, ob Ihre angegebene Klimabedrohung wirklich wahr ist …

… könnte man die Aussage von Herrn Steinmeier weiterführen. Wenn sich etwas mit Messwerten belegen lässt, dann, dass Fidji auf keinen Fall derzeit aufgrund westlicher CO2-Emission untergeht.
Die angegebene, „konkrete Weise“ einer Bedrohung muss man deshalb als bewusste Unterdrückung der wahren Datenlage bezeichnen. Es zeigt, dass unser Bundepräsident keinerlei Wert darauf legt, in die politische Ideologie für den Bürger klärend einzugreifen, sondern das macht, was er immer schon tat: Die Ideologie seiner Politikkaste nur gestelzter erklären zu wollen.

Zurück zum Meeresspiegel: Es ist inzwischen anhand aktuellster Daten belegt, dass Der Meeresspiegel bei Fiji nicht steigt, sondern eher sogar gefallen ist:
EIKE 16. November 2017: Nochmals Fidji, die eher aufsteigenden, als untergehenden Atolle

Bild 2.4 Fiji, Tidenpegel-Detailverlauf seit 1992. Quelle: Australien Government,Bureau of Meteorology, Pacific Sea Level Monitoring Project Monthly Sea Level and Meteorological Statistics

Dass er auch im Rest der Welt nicht übernatürlich ansteigt, auch wenn Aktivisten“Research“Organisationen das Gegenteil behaupten, lässt sich an vielen Beispielen zeigen:
EIKE 08.08.2017: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T2 (2)
EIKE 27. Juli 2017: G20 Klimafakten ohne Hysterie betrachtet Teil 2 (4): Die Meerespegel steigen und steigen …(aber keinesfalls unnatürlich)
Schlimmer noch, die Pegel liegen derzeit im historischen Vergleich eher auf niedrigem Niveau. Und vorher gab es – obwohl sich die CO2-Konzentration laut AGW-Lehrmeinung in der Zeit fast nicht verändert haben soll – schon erhebliche und abrupte Schwankungen.
[17] EIKE 07.04.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

Bild 2.5 [17] Proxi Port Piri Südaustralien hellbraun, Proxi Malediven grau
Warum sich deshalb Deutschland beim Premierminister von Fiji bedanken soll, der mit nicht belegten Behauptungen nur versucht, an das Geld auch der deutschen Bürger zu kommen, müsste man unseren Bundespräsidenten fragen. Darauf, es sich selbst zu überlegen, kommt unser Bundespräsident scheinbar nicht. Es dem „politischen Anstand“ zuzuschreiben, greift hier auch nicht ganz. Eine überschwengliche Begrüßung haben bereits Frau Merkel und vor allem Frau Hendricks ausgesprochen. Die des Bundespräsidenten hat da wirklich nicht mehr gefehlt. Eine das Volk, und nicht nur als Dritte die politische (Einheits-) Meinung wiederholende Stimme, hätte jedoch ein Zeichen setzen können.

Immer schneller steigt der Meerespegel (nur in Simulationen)

Was für die Pegel im Südpazifik gilt, gilt auch global. Es stimmt einfach nicht, dass die Tidenpegel übernatürlich ansteigen würden. Dass der Pegel sich seit der letzten Eiszeit immer noch leicht verändert und dies ein vollkommen natürlicher Vorgang ist, wird ja von niemandem bestritten.
Der Autor hat die Studien und Publizierungen dazu über mehrere Jahre verfolgt und konnte die oft berichteten – durch AGW-bedingt steigenden Küstenpegel – untergehenden Gegenden nicht finden. Die Gegenden schon, aber nicht die berichteten Pegelanstiege.
Das gilt für den Pazifik:
EIKE 14.12.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang
Den Bereich der Nordsee:
EIKE 08.08.2017: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T2 (2),
und global:
kaltesonne 14. Juli 2014: Wie verlässlich sind Satellitenmessungen des Meeresspiegels? Küstenpegel zeigen viel geringeren Anstieg als Messungen aus dem All
Auswertung von 182 Pegeln global NIEL-AXEL MÖRNER legte in zwei 2013 erschienen Arbeiten … globale Auswertungen von Pegeln (NOAA 2012) vor, von denen einige (wenige) sogar bis in das 18. Jahrhundert zurück reichen:
“Removing outliers of obvious uplift or subsidence, there are 182 records left, which forms a nice Gaussian distribution around a mean value of +1.65 mm/yr.”
Auswertung von 1200 Pegeln global
Ein internationales Autorenteam legte 2013 die Auswertung von 1277 Pegeln für dem Zeitraum 1807-2010 vor … Dabei wurden GIA-Korrekturen vorgenommen:
“The large uncertainties (up to 0.3–0.6 mm/yr) in our global sea level reconstruction are due to choice of GIA corrections, with difference up to 8 mm/yr in rate of sea level rise in individual locations, such as the Arctic, Baltic and Antarctic regions. The GIA correction adds up to 0.3 mm/yr trend in the global sea level reconstruction, with large differences between GIA datasets.”
“The new reconstruction suggests a linear trend of 1.9 ± 0.3 mm·yr− 1 during the 20th century, with 1.8 ±0.5 mm·yr− 1 since 1970.“
 (Anm.: 1970-2009).
Woraus folgt: Die Anstiegsrate für den Teil-Zeitraum ab 1970 ist geringer als die Anstiegsrate für das gesamte 20. Jahrhundert! Es hat folglich eine Verlangsamung des Anstieges im 20. Jahrhundert bis heute statt gefunden. Demgegenüber steht in der Publikation wenige Sätze weiter unten, ebenfalls im Abstract:
“We calculate an acceleration of 0.02 ± 0.01 mm·yr−2 in global sea level (1807–2009)“.

Warum der durch die Satelliten gemessene Pegelanstieg das Doppelte beträgt, wissen wahrscheinlich nur die Personen, welche mittels vieler – nicht veröffentlichter – Korrekturen deren Werte ermitteln. Auffällig ist, dass der Pegelanstieg ausgerechnet mit Beginn der Satelliten-Messungen zugenommen haben soll.
Pegelforscher, welche sich an der realen Natur orientieren, wundern sich darüber:
NILS-AXEL MÖRNER [18] (Univ. Stockholm, Paleogeophysics & Geodynamics) dazu:
“Satellite altimetry is a new and important tool. The mean rate of rise from 1992 to 2013 is +3.2 ±0.4 mm (UC, 2013). This value is not a measured value, however, but a value arrived at after much “calibration” of subjective nature (Mörner, 2004, 2011a, 2013a). The differences between the three data sets < ±0, +1.65 and +3.2 mm/yr > are far too large not to indicate the inclusions of errors and mistakes.”

Bild 2.6 Änderung der Pegeländerungsgeschwindigkeit mit Beginn der Satellitenmessungen. Quelle. K. Puls

„Forscher“, welche nicht „aus dem Fenster schauen“, aber mit solchen Daten ihre Simulationen „kalibrieren“, kommen natürlich zu ganz anderen Ergebnissen:

Bild .7 Pegel-Zukunfts-Vermutungen zweier deutscher PIK Klimawissenschaftler und vom Rest der Welt für das Jahr 2100

Nach dieser Betrachtung wundert es keinen (kritisch eingestellten) Klimabeobachter, dass auch bei der “Welttemperatur” ähnliche Ungereimtheiten zutage treten:
kaltesonne 23. November 2017: Wie verlässlich sind die IPCC-Berichte? In der ersten Berichtsausgabe von 1990 prognostizierte der Weltklimarat eine Erwärmung von 0,3°C pro Jahrzehnt bei Annahme des ‘Business as Usual’ Emissionsszenarios. Die Unter- und Obergrenze dieses Wertes wurde mit 0,2 und 0,5 angegeben …
Wir spulen 27 Jahren nach vorne, in das Jahr 2017. Die wirkliche Erwärmung in den letzten Jahren betrug lediglich 0,15°C pro Jahrzehnt. Peinlich, denn der Wert liegt sogar unterhalb des angegebenen Unsicherheitsbereiches.

Wer Geld (seiner Untertanen) verschenkt, hat immer schnell Freunde um sich

An einem Beispiel sei es wiederholt:
Frau Hendricks hat – wohl aufgrund ihrer Schuldgefühle – anscheinend die Manie, mit Jedem, der an deutsche Klima-Schutzgeld-Zahlungen gelangen will, sofort innige Freundschaft zu schließen. Leider unabhängig davon, um welche Staatsform es sich handelt, noch, ob die Ansprüche belegt werden können. Es muss nur laut und polternd vorgetragen sein:
Rede von Frau Hendricks auf COP23, Auszug:
… Es ist ein wichtiges Signal, dass Fidschi den Vorsitz dieser Klimakonferenz hat. Sehr geehrter Herr Premierminister, lieber Frank Bainimarama, zwischen Fidschi und Deutschland hat sich in den letzten Monaten nicht nur eine enge Zusammenarbeit ergeben, sondern zwischen unseren Teams ist eine echte Freundschaft entstanden.
Jedenfalls ist der aktuelle, in Bonn hochgelobte und freundschaftlich verbundene Fidji-Premier durch einen Militätputsch an die Macht gekommen.
[15] … im Mai 2000 brachte ein Staatstreich unter ziviler Führung eine längere Phase politischer Unruhen. Parlamentswahlen im August 2001 resultierten in einer Regierung unter Premierminister Laisenia Qarase. Er wurde im Mai 2006 wiedergewählt, im Dezember 2006 nach einem Militärputsch von Commodore Voreqe Bainimarama (besser bekannt als Frank Bainimarama) jedoch abgesetzt. Er erklärte sich zunächst als amtierender Präsident, im Januar 2007 zum Interims-Premierminister.
Vergleichbar „verliebte“ sie sich in Tony de Brum, dem ehemaligen (inzwischen verstorbenen) Außenminister der Marshall-Inseln:
Rede von Frau Hendricks auf COP23, Auszug:
… Im August ist Tony de Brum gestorben. Viele von uns haben ihn als Freund bezeichnet. Ich auch. Er war ein leuchtendes Vorbild für ein gemeinsames Engagement für die Bewahrung eines lebenswerten Planeten. Er hat in Paris die High-Ambition-Coalition geschmiedet und angeführt, weil er wusste, dass der Klimawandel in vielen Regionen der Welt, großes Elend auslösen wird. So wie in Paris, als wir gemeinsam untergehakt, in die Konferenz eingezogen sind, so müssen wir auch weiterhin zusammenstehen und den Worten Taten folgen lassen.
Auch von diesem „Freund“ und „leuchtendem Vorbild“ von Frau Hendricks wagt der Autor die Behauptung, dass dieser vor allem wusste, was er von den westlichen Staaten wollte (Klimaschutzgelder) und die dazu erforderliche „Bedrohungsklaviatur“ brillant spielen – aber nicht wirklich belegen – konnte. Auch ihn hat (nicht nur) Frau Hendricks wohl nie danach gefragt.
EIKE 13. Juli 2017: Wie viele Unterschriften zum Klimavertrag wurden mit Geldversprechungen gekauft?
EIKE 18.10.2016:
Wie steht es um den Untergang der Marshall-Inseln?
Privat darf jeder die Freunde haben, die er gerne haben möchte. Von einer Repräsentantin eines Staates kann man aber erwarten, dass sie Privates und vertreten der Bürgerinteressen trennen kann.

Wenn die Klimabedrohung kein Geld einbringt, kann sie plötzlich verschwinden

Die Regierung(en) der Malediven sind ein exemplarisches Beispiel, wie sehr die „Klimabedrohung“ vom erwarteten Geldsegen abhängt.
EIKE 17.09.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 1 Die Malediven
Die Süddeutschen Zeitung berichtete bereits über die Zeit nach dem Untergang der Malediven:
Süddeutsche Zeitung 05.01.2012: Rückkehr in den Ozean
… Ihr Ziel ist der erste schwimmende Golfplatz – dort wo einst die Malediven lagen, die der steigende Meeresspiegel verschluckt hat.
Nach dem damaligen Präsidenten der Malediven stand er kurz bevor:
Am 17. Oktober 2009 tagte das Kabinett der Malediven unter ihrem damaligen Präsidenten Mohamed Nasheed unter Wasser, um eine Erklärung zum unaufhaltsamen, anthropogen bedingten Untergang der Malediven „SOS von der Front“ zu verkünden. Seitdem sind die Malediven bei jedem Klimagipfel mit einer Delegation vertreten.
Das bei der Unterwassersitzung des Kabinetts aufgenommene Bild wird immer noch als Beleg für den „Untergang“ gezeigt.

Bild 2.8 Unterwassersitzung des maledivischen Parlaments 2009. Quelle: Presseabteilung Regierung der Malediven

Die dadurch erwarteten „Klimaschutzgelder“ kamen jedoch nicht und die Regierung wechselte. Und damit wechselte auch die Klimabedrohung. Natürlich nicht in den anklagenden Berichten für Klimagipfel, sondern in Vorträgen vor potenten Investoren. Die sollen ja die Wahrheit erfahren, denn wer investiert gerne in den Untergang:
Der neue Präsident der Malediven vor Investoren: President Mohamed Waheed Hassan Manik today said though Maldives faces the dangers of climate change, the country would not be submerged in the Indian Ocean. Speaking to Sri Lankan businessmen this morning during his current visit to Sri Lanka, President stressed that Maldives can be sustained through efforts to avert the dangers of climate change. “First of all, I want give you a bit of good news. The good news is that the Maldives is not about to disappear,” President Waheed said countering the claims by his predecessor that the Maldives would be be completely submerged in the near future …
Von google übersetzt:Präsident Mohamed Waheed Hassan Manik sagte heute, obwohl die Malediven den Gefahren des Klimawandels ausgesetzt sind, würde das Land nicht im Indischen Ozean untergehen. Sri Lankas Geschäftsleute sprachen heute Morgen während seines aktuellen Besuchs in Sri Lanka und betonten, dass die Malediven durch die Abwendung der Gefahren des Klimawandels aufrechterhalten werden können.
„Zuerst möchte ich Ihnen ein paar gute Nachrichten geben. Die gute Nachricht ist, dass die Malediven nicht im Begriff sind zu verschwinden „, sagte Präsident Waheed, indem er den Behauptungen seines Vorgängers widersprach, dass die Malediven in naher Zukunft völlig untergetaucht sein würden …

Tropical Events

Auch wenn es unser Bundespräsident nicht direkt angesprochen hat. Die „immer schlimmer werdenden Stürme“ sind ein regelmäßig vorgebrachtes Zeichen des AGW-Klimawandels und „bedrohen“ vor allem auch die verletzbaren, pazifischen Atolle“.
Nur zeigt bereits ein Blick in den Viewer der Datenbank der Münchner Rückversicherung, dass diese weltweit nicht zunehmen:

Bild 2.9 Anzahl tropischer Zyklone von 1980 – 2016. Quelle: MuRe NatCat-Viewer

Kein Wunder, dass die „immer schlimmer werdenden Stürme“ sich beim Nachsehen als Erzählungen herausstellen.
kaltesonne:
Schwerer Wirbelsturm verwüstet Vanuatu. Premierminister sieht es realistisch: “Stürme sind kein neues Phänomen, wir Insulaner leider darunter seit Besiedelung Vanuatus vor 5000 Jahren” (9.4.2015)
Neue Arbeit in Nature: Noch nie waren die australischen Wirbelstürme in den letzten 1500 Jahren schwächer als heute (3.4.2014)

Steinmeier: .… und zugleich, weit entfernt, ganze Städte im Wüstensand verschwinden

Klimawandel-Gläubige glauben oft den eigenen Theorien nicht (mehr), wenn sie gängigen Vulnerabilitätsaussagen entgegenstehen. Überall heißt es: Die Erwärmung führt zu mehr Wasserdampf in der Luft und damit zu mehr Niederschlag, in Folge mehr Extremereignissen. Trotzdem sollen die Wüsten aber weiter austrockenen.
Auch hier stellt sich die Frage, welche „ganzen Städte“ wo im Wüstensand (aufgrund westlichem CO2-Eintrag) verschwinden. Der Autor fand mittels google keinen Hinweis dazu*.
Allerdings finden sich Hinweise, dass Wüsten wieder grüner werden – wie sie es zur Römischen Warmzeit bereits waren -, und es der Sahel am deutlichsten zeigt:
EIKE, 11.07.2017: Der dürregebeutelte Sahel wird grün
Und es lässt sich zeigen, dass das oft dürregeplagte Ostafrika wegen einem seit mehreren Tausend Jahren stetig kälter werdendem Klima austrocknet, eine Temperaturerhöhung dort demnach eher ein Segen wäre.
EIKE 09.09.2017: Immer wieder muss der Tschad-See unter dem Klimawandel leiden, oder: Warum steht in Studien der GRÜNEN häufig so viel Falsches drin?
EIKE 07.01.2017: Drei-Königs Sternsinger Aktion 2017 gegen Klimawandel-Auswirkungen in Kenia

Fazit

Die Aussage zu den Pegeln und Fiji ist direkt falsch. Die zweite Aussage lässt sich mangels detaillierter Angaben nicht verifizieren, erscheint jedoch ebenfalls fraglich zu sein.

Steinmeier spürt, wenn im Atlantik der Golfstrom langsamer wird

Bundespräsident F.-W. Steinmeier, Redeauszüge [3]:
Und wir spüren sie, wenn im Atlantik der Golfstrom langsamer wird und zugleich am Schelfrand der Polkappen immer größere Eisberge kalben.

Wie unser Bundespräsident darauf kommt, ausgerechnet den Golfstrom als AGW-Klimawandelbeleg zu nennen, wird ein Rätsel der Geschichte bleiben. Es könnte aber ein Indiz sein, wer beim Formulieren geholfen hat: Das PIK (Potsdam).

Es handelt sich dabei um eine schier „unendliche“ Geschichte. Denn wenn sich das PIK etwas in den Kopf gesetzt hat, weicht es nicht mehr (freiwillig) davon ab [18]. Zum Glück hat kaltesonne das Thema laufend verfolgt und so lässt es sich dort nachvollziehen:
Golfstrom bleibt laut neuen Messdaten stabil: Stefan Rahmstorfs Modell beginnt zu wackeln (6.10.2012)
Neue Golfstrom-Publikation des PIK fällt in der Fachwelt glatt durch (7.4.2015)
Bittere Niederlage für Stefan Rahmstorf: Abschwächung des Golfstroms 2004-2014 hat natürliche Ursachen (11.6.2016
Das Spiel ist aus: Niederländische Forscher entzaubern Rahmstorfs Golfstrom-Alarmgeschichte (3.8.2016)
Einkassiert: Umstrittene Rahmstorf-These von langfristiger Abschwächung des Golfstroms ist nun endgültig vom Tisch (12.7.2017)

Als Bundespräsident ausgerechnet dieses Thema als Beleg aufzugreifen, zeigt nur, dass in seinem Umfeld sich wirklich niemand mit dem Thema auskennt, oder er zu einer ähnlichen „Beratungsresistenz“ neigt, wie sie von Frau Hendricks hinlänglich bekannt ist.

Steinmeier: .… (Wenn) am Schelfrand der Polkappen immer größere Eisberge kalben.

Unser Bundespräsident ist in seinen Aussagen recht unpräzise. Für einen Vortrag vor ca. 25.000 Klima-Fachpersonen und hochrangigen Staatsgästen etwas ungewöhnlich. In einer größeren Firma würde man schon bei einem Vortrag mit seinem direkten Vorgesetzten sorgfältiger darauf achten.
Jedenfalls: Einen signifikanten Schelfrand haben nicht „die Polkappen“, sondern nur eine davon: Die Antarktis. Vielleicht meinte er das auch und wollte an den jüngst abgebrochenen im Larsen-C-Schelfeis erinnern. Dieser Abbruch war wirklich riesig. Mit welcher Begründung es aber „immer größere“ sein sollen, wird sein Büro ja noch erklären*.
Auch diesem Thema hatte sich kaltesonne schon angenommen und konnte daran nichts (AGW-)Verdächtiges finden:
kaltesonne 22. Januar 2017: Kein Klimawandel: Vom antarktischen Larsen-C-Schelfeis droht ein großer Eisberg abzubrechen
Im antarktischen Larsen-C-Schelfeis hat sich kürzlich ein riesiger Riss gebildet. Der Tagesspiegel spielte fair und lastete ihn nicht wie sonst üblich pauschal dem Klimawandel an:
In der Antarktis droht ein riesiger Eisberg abzubrechen
Ein Eisberg, doppelt so groß wie das Saarland, droht in der Antarktis vom Larsen-C-Schelfeis abzubrechen. Das ist ein seltenes Spektakel. […] „Der Spalt ist insgesamt wahrscheinlich 160 Kilometer lang und 300 bis 500 Meter tief“, sagte der ebenfalls an dem Projekt beteiligte Forscher Martin 0′Leary am Samstag der Deutschen Presse-Agentur. Ein direkter Zusammenhang mit dem Klimawandel sei nicht erkennbar.
Weiterlesen im Tagesspiegel
Das ist der normale Gang: Schelfeis bildet sich, ist aber nicht für die Ewigkeit. Immer wieder bilden sich Spalten und es lösen sich Teile. Während der Kleinen Eiszeit war das Schelfeis sicher stabiler und ausgedehnter, in der davorliegenden Mittelalterlichen Wärmeperiode schrumpfte das Schelfeis, ähnlich wie heute. Wenn man sich die letzten 150 Jahre anschaut, die globale Wiedererwärmung nach der Kleinen Eiszeit, dann wundert es kaum, dass das antarktische Schelfeis zwischen 1900 und 1930 laut einem zeitgenössischen Zeitungsbericht täglich um 5 m zurückwich. In den letzten 50 Jahren sah es möglichweise anders aus, denn das antarktische Schelfwasser hat sich im vergangenen halben Jahrhundert abgekühlt. Laut Sinclair et al. (2014) hat sich das Ross-Schelfeis nach 1993 um 5% ausgedehnt. Offenbar ist das antarktische Schelfeis doch stabiler als gedacht.

Krautreporter, 18. Juli 2017, Adrian Luckmann, Professor für Gletscherkunde an der Swansea-Universität in Wales: Ich stand auf Larsen C in der Antarktis – dass dieser Eisberg abbrach, hat nicht direkt mit dem Klimawandel zu tun
… Im Sommer 2017 ist vom Larsen-C-Schelfeis in der Antarktis einer der größten je registrierten Eisberge abgebrochen. Ich leite seit einigen Jahren ein Team, das dieses Schelfeis erforscht und Änderungen verfolgt.
Was uns überrascht, ist das große Interesse an diesem zwar seltenen, aber durchaus natürlichen Vorkommnis. Denn trotz aller medialen und öffentlichen Begeisterung: Der Riss in Larsen C und das sogenannte Kalben des Eisbergs ist kein unmittelbares Warnzeichen für einen Anstieg des Meeresspiegels, und es besteht keineswegs ein direkter Zusammenhang mit dem Klimawandel. Gleichwohl stellt das Ereignis eine spektakuläre Episode in der jüngeren Geschichte des antarktischen Schelfeises dar, treten hier doch Kräfte zutage, die jedes menschliche Maß übersteigen, an einem Ort, wo nur wenige von uns gewesen sind

Fazit

Der Autor hätte sich nicht getraut, diese zwei „Belege“ einem Volkshochschulpublikum vorzulesen, mit der Gefahr, dass nicht doch ein Zuhörer*in wenigstens im Ansatz aktuelle Informationen zum Klimawandel verfolgt und die „Argumente“ vor dem Publikum zerpflückt. Beim Volkshochschulvortrag müsste man aber auch seriös überzeugen, beim Klimagipfel muss man der Aktivistenmeinung und den Klimaschutzgeld fordernden Staaten zustimmen. Da wären seriöse Argumentationen hinderlich.

Aber die Arktis wird doch immer wärmer und es brechen Gletscher ab

Es hängt vom Betrachtungszeitraum ab. Gerade erschien auf WUWT ein Artikel mit einer Proxirekonstruktion vom zentralen Grönland.
WUWT November 22, 2017: [22] Core of climate science is in the real-world data
Wie Afrika, so hat sich auch Grönland über viele Tausend Jahre „erkältet“ und nicht „überhitzt“. Auch ist keinerlei Korrelation mit der CO2-Dichte erkennbar.
Die rote Temperaturlinie der Neuzeit sind Stationsmesswerte und keine Proxidaten. Nur deshalb zeigt sich auch in diesem Verlauf der gleiche Effekt wie bei „Hockeystick“. Proxis bilden kurzfristige Extreme nicht ausreichend ab. Damit ist die Vergangenheit automatisch „geglättet“ und zeigt niedrigere Spannen als die mittels Stationsmessdaten weiter-gezeichnete „Zukunft“.

Bild 2.10 [22] Grönland Zentrum. Temperaturrekonstruktion der letzten 11.000 Jahre und CO2-Verlauf
Originaltext zum Bild: Figure 1. After Professor Bob Carter (lecture at the 10th International Conference on Climate Change at the Heartland Institute on June 12, 2015). Air Temperatures above the Greenland ice cap for the past 10,000 years reconstructed from ice cores using data from Alley, 2000 (The Younger Dryas cold interval as viewed from central Greenland. Quaternary Science Reviews 19, 213-226 (top panel), with a time scale showing years before modern time.
Lower panel shows the carbon-dioxide concentrations of the atmosphere over the same period from EPICA Dome C ice core.

Steinmeier: … Umweltveränderungen und extreme Wetterereignisse zerstören Jahr für Jahr die Heimat tausender Menschen …

Bundespräsident F.-W. Steinmeier, Redeauszüge [3]:
Am drängendsten spüren wir die Folgen des Klimawandels aber dann, wenn Umweltveränderungen und extreme Wetterereignisse Jahr für Jahr die Heimat tausender Menschen zerstören.

SCIENCE SCEPTICAL BLOG hat dazu kommentiert: [2]
Kommentar: Das liegt nicht an den zunehmenden Folgen des Klimawandels, sondern an der rapide zunehmenden Weltbevölkerung, die zunehmend in Überschwemmungsgebieten baut und siedelt und in brandgefährdeten Waldregionen, z.B. in Kalifornien und Australien.

Der Autor ergänzt: Das Märchen von den „ständig zunehmenden, extremen Wetterereignissen“ geistert wirklich unausrottbar durch die AGW-Klimawandelwelt. Es bedeutet nicht, dass es keine Extremereignisse gibt, sondern, dass es solche schon immer gab und keine durch CO2-bedingte Zunahme belegt werden kann. Der IPCC hat es im letzten AR5-Langbericht eindeutig gelistet, dass sich bei fast allen Extremereignissen keine Signifikanz einer Verschlimmerung belegen lässt. Im folgenden Artikel ist die AR5-Listung in Übersetzung hinterlegt:
EIKE 14.09.2016: Frau Hendricks glaubt im Klimawahn, Klimapäpstin geworden zu sein und den Irrglauben ihrer Bürger verdammen zu dürfen. Zu ihrem Gastbeitrag „Weit verbreiteter Irrglaube“ im Handelsblatt

Warum ein statistischer Änderungsnachweis nicht gelingen kann, hat der Autor extra in einem Artikel anhand von Starkregenereignissen in Deutschland gezeigt. Diese zeigen selbst über 50 … 100 Jahre keine signifikanten Trends, sondern eher Zyklen:
EIKE 22.08.2017: Verschiebt der Klimawandel Europas Hochwässer dramatisch
EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels
Daraus als Beispiel ein Verlauf der täglichen Regenmenge über mehr als 100 Jahre: Alle vermeintlichen Trends lösen sich auf.

Bild 2.11 Annaburg, Sachsen-Anhalt, Tagesniederschlag 1901 – 8.2017. Quelle: DWD Daten, Station 170

Und immer wieder zur Erinnerung die Hochwasser des Main. Sie müssten auch dem AGW-Gläubigsten zeigen, dass zur ersehnten Zeit des vorindustriellen Klimas die Wetterextreme keinesfalls paradiesisch gering waren, wie von „Klimafachpersonen“ erzählt – teils rücksimuliert – wird. Wer diese Zustände mit viel Geldaufwand zurückbeamen will, muss eigentlich doch eher verrückt sein.

Bild 2.12 Hochwassermarken des Main bei Würzburg seit dem Mittelalter bis 2013 (Grafik vom Autor anhand der Hochwassermarken-Angaben erstellt)

Fazit

Es ist für die Zukunft nicht hilfreich, nur zurück zu schauen. Wer sie vorhersagen will, muss aber mit der Vergangenheit kalibrieren. Und dann sieht man eben doch, dass die Natur noch nie gut zum Menschen war und das „vorindustrielle Paradies“ ein reiner, GRÜNER Wunschtraum.

Steinmeier: … Verheerende Dürren und Hungersnöte, welche die Bevölkerung ganzer Landstriche in die Flucht treibt …

Bundespräsident F.-W. Steinmeier, Redeauszüge [3]:
Wenn verheerende Dürren und Hungersnöte die Bevölkerung ganzer Landstriche in die Flucht treiben. Und wenn all dies dann immer häufiger auch zur Ursache von Krisen und blutigen Konflikten wird.
SCIENCE SCEPTICAL BLOG hat dazu kommentiert: [2]
Kommentar: Dürren und Hungersnöte gab es schon immer. Die Ernten und Ernteerträge sind heute so hoch wie noch nie und nehmen weiter zu. Es liegt an der rapide wachsenden Weltbevölkerung, den zunehmenden Landverkauf in Entwicklungsländern und der Umwandlung von Ackerland zu Agrarland zum Anbau von Energiepflanzen.
… Wie gesagt, dass liegt nicht an den Folgen des Klimawandels, sondern an den Folgen einer verfehlten Außen-Politik, Kriegen und Glaubenskonflikten in der Welt. (U.a. Arabischer Frühling, Kriege in Iran/ Irak, Kriege in Afghanistan, Bürgerkrieg in Syrien).

Der Autor ergänzt: Es geht nicht darum, zu behaupten, es gäbe keine verheerenden Dürren und Hungersnöte mehr. Es geht darum: Werden diese vom westlichen CO2-Eintrag wirklich verschlimmert. Und dies ist nicht belegbar. Belegbar ist nur, dass es in der Zeit „vor dem AGW-Klimawandel“ bereits extreme Hungersnöte gab (Bild 5 im Teil 1), an deren Mortalitätshöhe heute niemand mehr zu denken wagen würde, und es „gängig“ ist, die Ursachen lieber einem Klimawandel, anstelle den teils unbequemen, wahren Ursachen „zuzuschieben“. So erspart man sich leichter politische Verwicklungen.
ZEIT ONLINE, 08. November 2017: Die Mär von den 200.000.000 Klimaflüchtlingen
DIE PRESSE 04.09.2015: Klimawandel vertreibt die Menschen nicht
EIKE 18.04.2017: Leidet Simbabwe nur unter dem Klimawandel? Teil 2
Nicht unberücksichtigt lassen sollte man bei dieser Argumentation, dass gerade das PIK die Klima-Flüchtlingsthese stark vertritt (welches wahrscheinlich zum Inhalt der Rede beigetragen hat):
EIKE 21.09.2016: Ist der „Arabische Frühling“ wirklich wegen unserem CO2 gescheitert? Eine von Herrn Rahmstorf begrüßte Studie legt es nahe
Eine These, welche selbst dem Spiegel als fragwürdig auffiel:
SPIEGEL ONLINE 07.03.2015: [16] Umstrittene Studie: Löste Klimawandel den Syrien-Krieg aus?
… Den entscheidenden Beweis sollen Computersimulationen des Klimas liefern: Sie zeigen, dass ein stärkerer Treibhauseffekt die subtropische Trockenzone nach Norden schiebt, sodass auch in Syrien weniger Regen fallen würde“ …
… „Doch die alarmierende Studie stößt auf harten Widerspruch. „Die ganze Arbeit ist problematisch, sie leistet der Klimaforschung einen schlechten Dienst“, findet etwa Thomas Bernauer, Konfliktforscher an der ETH Zürich. Er und andere Forscher kritisieren vor allem fünf Punkte – von der These „Klimawandel treibt syrischen Bürgerkrieg“ bleibt demnach nichts übrig“.

Fazit

Herr Steinmeier liebt offensichtlich einfachste Erklärungen, die ein Politikerleben bestimmt auch leichter machen. Ob sie wirklich stichhaltig sind, hinterfragt er auch hier wieder nicht.

Unserem Bundespräsidenten bleiben keine Zweifel. Dann soll er doch als Privatmann reden und nicht im Namen seiner Bürger

Bundespräsident F.-W. Steinmeier, Redeauszüge [3]:
Mir jedenfalls bleibt kein Zweifel: Diese Dramatik, diese Dringlichkeit – sie mahnt uns alle zu großer Eile – und zu entschlossenem Handeln!

Ein Bundespräsident, welcher nicht vermittelt, sondern nur die Vorgaben seiner politischen Kaste oder seine eigene, private Meinung weitergibt, ist ein überflüssiges Anhängsel und bleibt im Kern nur der teure „Grüßonkel“ unserer Republik.
Wieder der Hinweis: Die Rede von Frau Hendricks oder / und von Frau Merkel haben bereits vollkommen ausgereicht, denn alle drei wiederholen sich in ihren Inhalten:
Rede von Frau Hendricks auf COP23, Zitat: … Weltweit, in allen Ländern müssen wir unsere Anstrengungen erhöhen, die zugesagten nationalen Klimaschutzziele zu erreichen und darüber hinaus diese Ziele weiter zu verschärfen.
… Der Abschied von der fossilen Wirtschaftsweise ist überall auf der Welt schwierig. Und ich weiß, wovon ich da rede. Aber er muss beherzt beschritten werden, sonst werden wir unsere Erde weiter überhitzen.
… Erstens: Der Klimawandel ist wissenschaftlich bewiesen. Die Konsequenzen sind bereits heute deutlich zu spüren. Der Klimawandel bedroht unsere Lebensgrundlagen in manchen Ländern sogar existenziell
Zweitens: Das Übereinkommen von Paris ist unumkehrbar. Wir müssen alles daran setzen, es nun umzusetzen. Dazu bleibt uns nicht mehr viel Zeit.

Rede von Frau Merkel auf COP23, Zitate:
… „Der Klimawandel ist für unsere Welt eine Schicksalsfrage, die entscheidet über das Wohlergehen von uns allen. Und die entscheidet ganz konkret darüber, ob Menschen auch in Zukunft noch zum Beispiel auf den Pazifikinseln leben können. Es hat also eine ganz besondere Aussagekraft, dass die Republik Fidschi als Inselstaat die Präsidentschaft der COP23 (der 23. Weltklimakonferenz) übernommen hat. Und es ist uns in Deutschland eine Ehre, die Republik Fidschi hierbei zu unterstützen, das sage ich im Namen der ganzen Bundesregierung.“ …
„Wir wissen, wir haben auf der einen Seite schmelzende Gletscher, steigende Meeresspiegel und Überschwemmungen und auf der anderen Seite Stürme, unerträgliche Hitze und Dürrekatastrophen. Und
niemand, ich sage niemand darf und kann das ignorieren.“ …
„Zunehmende Konflikte um natürliche Ressourcen sind ja geradezu vorprogrammiert, wenn wir beim Klimaschutz nichts tun.“

Personen, welche nur gläubig den Gurus der modernen Zeit mit ihren Klimasimulationen an den Lippen hängen und die wahre Welt außen vor lassen, haben wir bereits zur Genüge (vor allem auch in unserer Regierung). Nur, weil drei Personen aus der hohen, deutschen Politik (Bundeskanzlerin, Bundespräsident, Umweltministerin) das Gleiche sagen, hat sich die Belegführung dazu nicht verdreifacht.
Dazu nochmals die Information aus dem Teil 1, warum man sehr wohl Zweifel hegen kann:
SPIEGEL ONLINE 28.09.2017: [24] CO2-Budget der Menschheit Leben am Limit
... Für Politiker und Bürger erweist sich die Debatte um das CO2-Budget der Menschheit als schwierig. Wem soll man nun glauben, wenn man Ziele von Paris noch erreichen will? Die einen empfehlen 600 Gigatonnen für 1,5 Grad, die anderen 800 für 1,5 Grad, der Wert könnte jedoch auch bei 150 oder 1050 liegen!… Zum einen ist unklar, wann genau denn nun diese vorindustrielle Zeit geendet haben soll. 1780? Oder 1880? Zum anderen sind sich Klimaforscher uneins, wie hoch die Durchschnittstemperatur auf der Erde von 150 oder 200 Jahren war.

Warum zwei oder auch drei Halbwissende keinen wirklichen Fachmann ersetzen

Wahrscheinlichkeiten stochastisch unabhängiger Ereignisse multiplizieren sich. Wissen multipliziert sich somit auch. Drei Mal Halbwissen ergibt damit „in Summe“ leider nur noch 1/8tel davon. Da die stochastische Unabhängigkeit nicht ideal zutrifft, ist es zum Glück meistens nicht ganz so schlimm. Zudem setzt die Statistik eine untere Grenze von 50 %, die sich aus der Wahrscheinlichkeit der doch richtigen Entscheidung durch einen Münzwurf bietet.
Trotzdem wird damit sofort verständlich, warum zwei oder auch drei Halbwissende keinen wirklichen Fachmann ersetzen. Eine in „Gremien mit Entscheidungsfunktion“ oft missachtete Tatsache.
Es ist einer der viel zu selten publizierten Gründe, warum sich häufig trotz immer mehr „Wissenschaftlern“ über Jahrzehnte, teils auch Jahrhunderte, manchmal zu bestimmten Wissensgebieten keine wirklichen Fortschritte ergeben (haben). Es muss erst jemand erscheinen, der den stochastischen Knoten mit dem Wissen „1“ durchbrechen kann. Dieses Ereignis sieht der Autor in den drei Redebeispiele an dieser Stelle jedoch nicht (reine, private Meinung, die wirklich niemand teilen muss), bei den wahrscheinlichen „Wissenslieferanten“, Herrn Schellnhuber [20] [21] und Herrn Edenhofer (beide PIK) übrigens auch nicht.
Wissen wird nicht auf das Ereignis „1“ katapultiert, indem man seine narzistischen Neigungen auslebt und sich darin von Kolleg*innen bestätigen lässt:
Klimaretter.Info: Münchner Klimaherbst 2015
… Hans Joachim Schellnhuber, einer der einflussreichsten Klimaforscher weltweit …
… Dort habe ihm eine Phalanx „älterer Herren“, die sich allesamt als Klimaskeptiker entpuppten, gegenüber gesessen, die ihn mit völlig unhaltbaren, längst widerlegten Thesen konfrontiert habe. Zeitverschwendung für jemand wie Schellnhuber, der zwecks Weltrettung von Termin zu Termin, von Auftritt zu Auftritt jettet. Der Ärger über die unbotmäßigen Fragensteller war dem Wissenschaftler auch heute noch anzumerken …
An diesem Abend freilich sprach er zu einem Publikum, das ihm förmlich an den Lippen hing.

Frau Merkel: „ … niemand, ich sage niemand darf das ignorieren“

sagte Frau Merkel in ihrer COP23-Rede.
Niemand Vernünftige(r) wird reale Probleme auf dieser Welt ignorieren. Aber auch wenn Frau Merkel die weitere Diskussion darüber anscheinend am Liebsten verbieten würde (so kann man die Grammatik dieses Satzes ableiten): Probleme die sich nicht in der realen Natur zeigen, sondern nur in Computersimulationen entstehen, darf man ignorieren, wie früher Geschichten aus Glaskugeln oder noch früher, geworfenen Knochen, oder zerstocherte Eingeweide.

Es ist nicht einzusehen, warum jemand, der vom Menschen programmierten und parametrierten Computerprogrammen mit fast unendlich vielen, zu wenig bekannten Parametern und fehlender Kalibriermöglichkeit wegen zu fehlerhafter Historienkenntnisse, kritisch gegenübersteht (würden diese funktionieren, könnte man sogar Aktienkurse vorhersagen, denn die werden wirklich alleine vom Menschen beeinflusst), und deshalb lieber nach realem Augenschein hilft, „die Zukunft in Gefahr bringt“, wie es alleine anhand der Kipppunkttheorie AGW-fundamentalistisch postuliert wird.
Solche Zeiten gab es schon, als ein hoher Kirchturm und die Pracht eines Klosters wichtiger waren, als die blanke Not der Landeskinder, ideologisch gelenkt mit einer dem Kipppunkt vergleichbaren Erbsündetheorie und alleine daraus erlösender CO2-Vermeidung, damals Taufzwang genannt.

Der Ethikrat soll sich einschalten

Wie weit sich die Diskussion inzwischen von Fakten wegbewegt und klimatheologische Züge angenommen hat, zeigt eine aktuelle Entwicklung:
Klimaretter.Info 23. November 2017: Ethikrat soll Klimawandel thematisieren
Eine: … Postdoktorantin der Forschergruppe „Climate Change and Security“ (CLISEC) der Universität Hamburg an den Schnittstellen von Umwelt-, Sicherheits- und Machtpolitik sowie in den Transformations- und Anthropozänstudien …
durfte ihre Sicht der Klimadiskussion auf dem Blog unserer Politikberaterin zum Klima präsentieren
Klimaretter.Info: … Angesichts der Bedrohungsszenarien für den menschlichen Lebensraum und der gesamtgesellschaftlichen Konsequenzen überrascht es, dass den Erkenntnissen der Klima- und Erdsystemwissenschaftler … bisher wenig Beachtung geschenkt wurde.
Doch scheint die Institution
(Anm.: Der Ethikrat) geradezu prädestiniert, sich den klimapolitischen Herausforderungen zu stellen, da sie sich selbst das Ziel gesetzt hat, sich mit den „großen Fragen des Lebens“ zu befassen, auf die es „keine einfachen Antworten“ gibt.
… Sollte sich der Ethikrat des Themenkreises von gesellschaftlichem (Klima-)Wandel und Verantwortung annehmen, wären vorrangig zu debattierende Fragen unter anderem der Umgang mit wissenschaftlichen Erkenntnissen und die Erfassung von Bedeutung und Tragweite unseres (Nicht-)Handelns.
… Dies hätte unter anderem zum Ergebnis, dass der Fokus von scheinbar fernen Vorhersagen, fernab liegenden Tragödien sowie abstrakten Grenzwerten maximaler Treibhausgasemissionen auf uns Menschen im Hier und Jetzt gelenkt, unsere Gefühle und Vorstellungen in den Mittelpunkt gerückt und wir ein Stück mehr in die Gestaltung der Zukunft miteinbezogen würden. Die Bestandsaufnahme im Gespräch mit Wissenschaftlern und Betroffenen würde zudem auch Kindern eine Stimme geben.

Die Klimazukunft als neue Spielwiese für „ethische Zukunftsforscher“ und unterbeschäftigte Theologen, ausgerüstet mit der Macht, welche ihnen Klimaschutz-Gesetze verleihen.
Genau das, was bisher als Errungenschaft des Westens gefeiert wurde – dass nicht mehr Papst und Theologen über den Staat und seine Zukunft bestimmen – soll wieder zurückgedreht werden.
Wohin das führt, lässt sich bereits erkennen:
EIKE 23. November 2017: [23] Setze eine große Lüge in die Welt und wiederhole sie immer wieder

Unser Bundespräsident hat es versäumt (allerdings hat es auch niemand ernstlich von ihm erwartet) zur Klimadiskussion wissenschaftlich neutrale Zeichen dagegen zu setzen. Womit als Statement bleibt: Damit bleibt auch er so überflüssig, wie ein Kropf.

Der Temperaturanstieg ist auch nicht einmalig in der Erdgeschichte

Wer sich bis hierher durchgelesen hat, wird langsam aufhören wollen. Dabei blieb noch so Vieles ungesagt. Nachdem es auch weitere Blogs gibt, die sich mit dem Thema beschäftigen, sei noch auf Artikel verwiesen, in dem sich das hier Gesagte in Zusammenfassungen findet:
ScienceScepticalBlog 20. November 2017: [18] Rahmstorf vs. Kachelmann
EIKE H. J. Lüdecke 9. November 2017: Desinformation der Klimafakten.de in „Was sagt die AfD zum Klimawandel? Was sagen die anderen Parteien? Und was ist der Stand der Wissenschaft?“

*Der Autor hat beim Mitarbeiterbüro des Bundespräsidenten nach Belegen für die Aussagen der Rede nachgefragt. Nach zwischenzeitlich über einer Woche warten ist jedoch noch keine Rückantwort eingetroffen. Sollte noch eine Antwort kommen, wird sie veröffentlicht.

Quellen

[1] WIKIPEDIA: Forschungsgeschichte des Klimawandels

[2] SCIENCE SCEPTICAL BLOG 15. November 2017, Michael Krueger: Klimagipfel in Bonn: Rede zum Klimawandel von Bundespräsident Steinmeier mit Kommentaren

[3] Vollständige Rede DER BUNDESPRÄSIDENT Bonn, 15. November 2017: Besuch der 23. Weltklimaschutzkonferenz

Nordrhein-Westfälische Akademie der Wissenschaften (Düsseldorf):Klimawandel in Europa 29. März 2006, Düsseldorf

[4] Nordrhein-Westfälische Akademie der Wissenschaften (Düsseldorf): Klimawandel in Europa 29. März 2006, Hans von Storch:Die Bedeutung der historischen Dimension für diegegenwärtige Klimaforschung.

[5] EIKE 30.06.2015: Ernteerträge und Klimawandel

[6] WIKIPEDIA: Globale Erwärmung

[7] WUWT David Middleton / October 22, 2015: What did ExxonMobil Know and when did they know it? (Part 1),
[8] WUWT David Middleton / October 23, 2015: What did ExxonMobil Know and when did they know it? (Part Deux, “Same as it ever was.”)

[9] WUWT David Middleton / October 24, 2015:What did ExxonMobil Know and when did they know it? (Part 3, Exxon: The Fork Not Taken)

[10] WUWT Anthony Watts / October 4, 2017:The ridiculous #ExxonKnew Investigation Takes Another Hit (two actually)

[11] EIKE 31.07.2015: Fakten zu Gletscherschwund und Co. – und wie Ideologie unsere Natur zerstört

[12] 24.06.2015: Pasterze gibt nach tausenden von Jahren einen meterlangen Baumstamm frei.

[13] EIKE 10.04.2016 : Nachgefragt: BR Programm 14.3.2016, Sendung: „Jetzt mal ehrlich Verstrahltes Bayern: Wie viel Wahrheit ist uns zumutbar?

[14] EIKE 07.01.2010: Klimawandel und die Gletscher in den österreichischen Alpen als Zeitzeugen!

[15] Transozeanien Eckdaten

[16] SPIEGEL ONLINE 07.03.2015: Umstrittene Studie: Löste Klimawandel den Syrien-Krieg aus?

[17] EIKE 07.04.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

[18] ScienceScepticalBlog 20. November 2017: Rahmstorf vs. Kachelmann

[19] Ralph-Maria Netzker: It’s the Economy, stupid! oder Die Erfindung der Klimakatastrophe

[20] EIKE 20. Oktober 2017:„Kippt unser Klima ?“ bei Maischberger/ARD am 10. Oktober 2017: Eine kleine Nachlese über großen Unsinn, sachliche Fehler und wenig Richtiges

[21] TRAILER zu „10 unbequeme Wahrheiten über H J Schellnhuber“

[22] WUWT November 22, 2017: Core of climate science is in the real-world data

[23] EIKE 23. November 2017: Setze eine große Lüge in die Welt und wiederhole sie immer wieder

[24] SPIEGEL ONLINE 28.09.2017: CO2-Budget der Menschheit Leben am Limit




Der Witz des Jahres

Hans Joachim Schellnhuber, fürstlich bezahlter Umverteiler und »Transformer«, sprach als Gast auf der Delegiertenkonferenz. Schellnhuber, der am heftigsten die Klimawarntröte tutende vom Potsdam Institut für Klimafolgenforschung (PIK). Das ist das Institut, aus dem die Forderung kam, die Demokratie abzuschaffen, um den Planeten vor der Klimakatastrophe zu retten.

Schellnhuber hat sogar einst dem Papst erklärt, wie das so ist mit dem Klima und dem armen Menschensünder. Der Papst wiederum hat sofort begeistert verstanden: Buße tun und – zahlen. Vor den Grünen fragte der sonderbare Heilige vom PIK:

»Warum bin ich hier?« Und setzt gleich selbst die Antwort hinzu: »Weil sich diese Partei offenbar als einzige den Luxus erlaubt, sich an der wissenschaftlichen Wahrheit zu orientieren.“

Herrschaften, der verdreht schon genug die Wissenschaft, um seine komischen Klimakalauer loszuwerden – jetzt auch noch die Wissenschaftstheorie? Es hält zwar einen populistischen Vortrag, aber dennoch mit wissenschaftlicher Wahrheit? Karl Popper dreht sich um Grabe um. (Anmerkung der Redaktion: Hier ein Beitrag im notorisch klimaalarmistischen SPIEGEL zur wissenschaftlichen Wahrheit)

Schellnhuber holte tief aus seiner Klimaklamaukkiste dramatische Kipppunkte unserer guten alten Erde hervor. Wann wird Grönland abschmelzen? Das würde nicht ein paar Zentimeter, nicht zwei, drei Meter, sondern sage und schreibe sieben Meter Meeresspiegelanstieg bedeuten, phantasierte der Klima-Papst vor den grünen Delegierten. Die waren aber hörbar nicht bei der Sache (Au, wie langweilig! Kennen wir schon, hast du nichts Neues? Immer die ollen Kamellen) und unterhielten sich laut untereinander. »Jeder Vortrag hat einen Punkt, an dem man aufmerksam sein muss.« Versuchte Schellnhuber wie ein Schulmeister die Anwesenden zur Ordnung zu rufen. »Der ist jetzt!«

Eineinhalb bis zwei Grad betrage der Pariser Korridor, in dem müssten wir das Klima halten, erzählt er und sieht dabei schon leicht wie Peter Sellers Dr. Seltsam aus.

»Sie sehen, dieser Balken, wo wir die Erderwärmung stoppen wollen, liegt quer zu einigen möglichen Großunfällen bereits. Das heißt, vor 30 Jahren hätten wir noch in einer sicheren Zone bleiben können. Inzwischen gehen wir schon ein hochgradiges Risiko ein.«

Den Panikbutton heraufstufen: Wenn wir die Katastrophe vermeiden wollen, müssen wir schon verdammt viel Glück haben. Sein Papst-Kollege wäre hellauf begeistert.
Schellnhuber träumt wie alle totalitären Gesinnungsgenossen von der großen »Transformation«, nein, er hat nicht den »großen Marsch« gesagt und »Sozialismus« auch nicht.

Seine Voraussage:

»Die entscheidende Dekade wird 2020-2030 sein. Dort muss der komplette Ausstieg weltweit von der Kohleverstromung passieren, dann muss der Verbrennungsmotor verschwinden, dann muss Zement ersetzt werden zum Beispiel als Baumaterial am besten durch Holz und andere Dinge.«

Also nichts weniger als eine komplette Neuerfindung der Moderne. Der beseelte Ideologe träumt vom anderen Zustand der Moderne, der nicht mehr auf fossil nuklearen Geschäften aufgebaut ist. Hat er zu viel mit dem Papst gesprochen? Seine Verheißung: Das gelobte Land heißt Photovoltaik, nicht industrielle Landwirtschaft.

Und was ist Verheißungen gemein? Die Dummen können sie nicht sehen, weil „sie liegt jenseits eines Hügels“. »Wir müssen über diesen Hügel!« Schellnhuber fehlt zwar die Rhetorik amerikanischer Sektenprediger, aber er bekommt dennoch Beifall. Er hat Kräfte ausgemacht, die uns über diesen Hügel helfen sollen. »Investoren dazu anregen, ihr Kapital von fossilen Geschäften abzuziehen!« Bei der Deutschen Bischofskonferenz versuchte er den Bischöfen nahe zubringen, dass die ihre prallen Geldsäcke nur noch ideologisch Einwandfreien öffnen.

Um die Ungläubigen zu überzeugen, spielen Katastrophen eine große Rolle, meint er, und man fühlt sich an Michael Crichtons »Welt in Angst« erinnert. Der amerikanische Schriftsteller (Jurassic Park ) lässt darin Ökoterroristen ein künstliches Seebeben auslösen, um die Welt in Angst vor einem Klimawandel zu halten und an der Panik kräftig mitzuverdienen. Ideologisierte Wissenschaftler liefern die falschen Grundlagen zur Rechtfertigung.

Am Schluss präsentiert Schellnhuber noch seine aberwitzigste Idee. »Mit dem Klimawandel wird Folgendes passieren«, sah er voraus.

»Es werden hunderte von Millionen Menschen im Raum verschoben werden müssen. Wegen Meeresspiegelanstieg, wegen Gletscherschwund, wegen Ausbreitung von Dürregebieten. Was tun mit den Menschen, deren Heimat versinken wird?«

(Wer wohnt eigentlich auf Gletschern?)

Also sollte man einen Klimapass einführen! Zutritt zu allen Ländern, die dafür verantwortlich sind. Und das seien fast alle, predigte er vor begeistertem Publikum. Er schlug vor, alle die durch den Klimawandel heimatlos werden, einen Klimapass bekommen sollen, der ihnen das Recht gibt, sich in den dafür verantwortlichen Staaten niederzulassen.

Johlender Beifall im Auditorium.

Der Beitrag erschien zuerst auf Tichys Einblick hier




Die Rede unseres Bundes­präsidenten, F. W. Steinmeier auf COP23 über den Klima­wandel war (k)eine investi­gative Stern­stunde – Teil 1 (2)

Wie weit dieses Wissen mit aktuellen Forschungsergebnissen und Daten übereinstimmt und wo Abweichungen bestehen, sei anbei orientierend gesichtet.
Anmerkung: Der Autor wollte es sich eigentlich ersparen, selbst mühsam die „Belege“ zur besagten Rede selbst heraussuchen zu müssen. Leider hat das Büro des sonst sicher bürgerfreundlichen Bundespräsidenten auf die Anfrage nach Belegen und Fundstellen trotz zwischenzeitlicher Mahnung nach über einer Woche noch nicht einmal mit einer Bestätigung des Maileingangs geantwortet*. Mangels solch hilfreicher Unterstützung kann es natürlich sein, dass manches Argument nicht so, wie es der Herr Bundespräsidenten mit seiner Rede gemeint hat, beantwortet wurde.
Und noch ein Hinweis: Wem die folgende Ausführung zu lang ist, kann eine Kurzfassung lesen:
SCIENCE SCEPTICAL BLOG 15. November 2017, Michael Krueger: [2] Klimagipfel in Bonn: Rede zum Klimawandel von Bundespräsident Steinmeier mit Kommentaren

Steinmeier: Vor 105 Jahren gab es eine mahnende, ausgesprochen hellsichtige Prognose

Bundespräsident F.-W. Steinmeier, Redeauszüge [3]:
Auf der Reise, von der ich eben erzählt habe, hat man mir in Neuseeland eine, wie ich finde, ganz außergewöhnliche Zeitungsmeldung gezeigt: Sie stammt aus der „Rodney & Otamatea Times“ und ist datiert auf den 14. August. Kurz und knapp steht dort: „Die Verbrennung von Kohle setzt weltweit große Mengen an Kohlendioxid frei, die Erde wird immer stärker isoliert. Dadurch könnte die Lufttemperatur steigen. In ein paar Jahrhunderten“, so schrieb man damals, „könnte dieser Effekt ein beachtliches Potential entfalten“. Sie ahnen es sicher schon: Die Meldung ist nicht vom 14. August 2017, auch nicht von 2007. Nein, der mahnende Zeitungsreport entstammt der Ausgabe vom 14. August 1912.
Sie werden mir zustimmen: Das war damals, vor 105 Jahren, eine ausgesprochen hellsichtige Prognose. Und der unheilvolle Beitrag der Menschheit zum Klimawandel hatte noch gar nicht richtig Fahrt aufgenommen. Nur in einem Punkt lag die Meldung völlig daneben: Die Effekte des Klimawandels spüren wir nicht erst in „ein paar Jahrhunderten“. Nein, ganz im Gegenteil: Wir wissen um die Dramatik und spüren die Folgen schon heute.

Fragestellung: Haben die Wissenschaftler damals wirklich gemahnt, oder waren sie hellsichtig und eher froh darüber?

Anbei der besagte Artikel aus dem Jahr 1912

Bild 1 Der vom Bundespräsidenten erwähnte Artikel aus der Rodney & Otamatea Times vom Jahr 1912

Es handelt sich um eine kleine Zeitungsmeldung in Auckland, Neuseeland. Es steht kein Klimaalarm oder eine Mahnung darin, nur, dass sich die Temperatur durch das Verbrennen von Kohle erhöhen könnte. Erwartet wird dies im Zeitraum von einigen Jahrhunderten.

Was in einer Rede durch Verkürzen so plausibel klingt, muss es beim Nachsehen nicht bleiben. Schon beim orientierenden Nachsehen der Historie zur Klimaforschung, kann man auch zu vollkommen anderen Schlussfolgerungen gelangen.

Kleine Historie der Klimawandeltheorie bis zur Mitte des letzten Jahrhunderts

Auf WIKIPEDIA ist die Historie gut beschrieben, weshalb im Wesentlichen daraus (wegen der Kürzungen nicht immer wortgetreu) zitiert wird.

Entdeckung etwa im Jahr 1824

WIKIPEDIA: [1] Der Treibhauseffekt wurde durch Jean Baptiste Joseph Fourier (1768–1830) im Jahr 1824 entdeckt. Ihm fiel auf, dass die Erde viel wärmer war, als sie bei grober Abschätzung sein dürfte.

Beschreibung im Jahr 1862

[1] John Tyndall (1820–1893) beschrieb im Jahr 1862 sehr treffend den natürlichen Treibhauseffekt. Im Rahmen … durchgeführter Messungen identifizierte er die dafür verantwortlichen Gase. Er fand heraus, dass der Wasserdampf für den größten Teil des Treibhauseffekts verantwortlich ist. Ebenso korrekt bezeichnete er den Beitrag der übrigen Gase wie Kohlenstoffdioxid (CO2) oder Ozon (O3) als zwar deutlich schwächer, aber nicht zu vernachlässigen.

Eiszeittheorie und Klimasystem um 1864 formuliert

[1] Die erste fundierte und gut begründete Eiszeittheorie formulierte der schottische Naturforscher James Croll (1821–1890) … er vertrat 1864 in einer Aufsehen erregenden Arbeit im Philosophical Magazine den Gedanken, dass Veränderungen der Erdumlaufbahn in Verbindung mit der starken Eis-Albedo-Rückkopplung für das Entstehen der Eiszeiten verantwortlich sein könnten. Er war der erste, der auf die Mächtigkeit dieses Rückkopplungsglieds im globalen Klimasystem hinwies. Etwa ab 1870 wurde die Möglichkeit kosmischer beziehungsweise solarer Einflüsse auf das irdische Klima auf breiterer Basis wissenschaftlich diskutiert.

1896 veröffentlicht Arrhenius eine Berechnung zum CO2-Forcing

[1] Der schwedische Physiker und Chemiker Svante Arrhenius (1859–1927) war von Tyndalls Idee fasziniert, dass wechselnde Konzentrationen von Kohlenstoffdioxid ein wesentlicher Faktor für die Erklärung der großen Temperatursprünge zwischen Warm- und Eiszeiten sein könne. Aufbauend auf Vorarbeiten von Samuel Pierpont Langley stellte er als erster umfangreiche Berechnungen an … Im Jahr 1896 veröffentlichte er seine Ergebnisse zusammen mit der Hypothese, dass eine Halbierung der Kohlenstoffdioxid-Konzentration ausreiche, eine Eiszeit einzuleiten. Dass eine anthropogene CO2-Anreicherung in der Atmosphäre auch die aktuelle Erdtemperatur weiter erhöhen könne, erwähnte Arrhenius zunächst nur als Nebenaspekt.

1908 detailliert Arrhenius seine CO2 Theorie und hofft, dass CO2-Eintrag für ein besseres Klima sorgen kann

Erst in einer 1908 erschienenen Publikation diskutierte er dies detailliert. Für die Klimasensitivität ermittelte er 5 bis 6 °C. Den für solch eine Temperaturerhöhung nötigen, doppelt so hohen atmosphärischen Kohlenstoffdioxidgehalt erwartete er auf Basis der weltweiten Emissionsraten des Jahres 1896 in ca. 3000 Jahren, und erst in einigen Jahrhunderten erwartete er, dass eine Temperaturerhöhung überhaupt messbar sei. Er hoffte dabei auf „gleichmäßigere und bessere klimatische Verhältnisse“ sowie „um das Vielfache erhöhte Ernten“. Er verstand aber auch, dass eine dauerhafte Nutzung fossiler Brennstoffe aufgrund der damit verbundenen globalen Erwärmung langfristig zu Problemen führen würde

Anmerkung des Autors: Anhand der dazu bei WIKIPEDIA angegebenen Textstelle: … the comparison instituted is of very great interest, as it proves that the most important of all the processes by means of which carbonic acid has been removed from the atmosphere in all times – namely, the chemical weathering of siliceous minerals, – is of the same order of magnitude as a process of contrary effect which is caused by the development of our time, and which must be conceived of as being of a temporary nature …,

kann der Autor diese Anmerkung (auf WIKIPEDIA) nicht ganz nachvollziehen. Arrhenius sagt nur, dass die Emission von „carbonic acid“ im Umkehrschluss eine Erwärmung hervorrufen muss. Auch wenn man in der Originalschrift von Arrhenius weiterliest, findet sich (zumindest der Autor fand keinen) kein Hinweis, dass Arrhenius aufgrund einer Emission durch die Menschheit Probleme erwarten würde.

Arrhenius unterliefen bei der Forcingberechnung Fehler, weil ihm das Wissen nachfolgender Forscher fehlte

[19] Arrhenius verwendete zur Ermittlung des CO2-Absorptionsspektrums die rechnerischen Methoden die ihm vor der Entdeckung der Quantenphysik zu Gebote standen – im Wesentlichen also das Stefan-Boltzmannsche Strahlungsgesetz. Dass er bei seinen Berechnungen unzulässige geometrische Annahmen und mathematische Vereinfachungen benutzte, sei hier nur der Vollständigkeit halber erwähnt. Verdünnte Gase – und Spurengase sind stark verdünnte Gase – weisen jedoch diskrete Quanten- und Schwingungszustände auf, welche zu Absorptionsspektren führen, die sich mit den Methoden der klassischen Physik nicht ermitteln lassen. Kohlendioxid z.B. absorbiert lediglich in zwei engen Bereichen des Infrarotspektrums, nämlich bei 4,3 µm (asymetrische Valenzschwingung) und 15 µm Wellenlänge (Deformationsschwingung). (siehe https://de.wikipedia.org/wiki/Molekülschwingung) Arrhenius ermittelte mit seiner konventionellen Berechnung hingegen fälschlicherweise ein breitbandiges Absorptionsspektrum im Bereich von 1 bis 14 µm, was ihn dazu veranlasste, für eine Verdoppelung der CO2-Konzentration eine Erhöhung der mittleren atmosphärischen Temperatur um 4°C. anzunehmen. Obwohl erwiesenermaßen falsch, wird diese Zahl bis heute als Beleg für die Klimasensitivität des Kohlendioxids kolportiert…
Was Arrhenius nicht wissen konnte: Die Infrarot-Absorption von Kohlendioxid ist bei der gegenwärtigen Konzentration von 400 ppmv bereits weitestgehend gesättigt: Auf den schmalen Bändern seines Absorptionsspektrums hält das CO2 bereits etwa 97% der infraroten Strahlung zurück. Eine Verdoppelung der atmosphärischen Konzentration auf 800 ppmv würde 98,5% zurückhalten – ein Unterschied von gerade einmal 1,5% – die Klimasensitivität von Kohlendioxid ist also praktisch gleich Null.

W. Nernst will zur Erwärmung der Erde CO2 in die Atmosphäre emittieren

[1] Arrhenius’ Zeitgenosse Walther Nernst griff Arrhenius’ Gedanken auf und schlug vor, zusätzliches Kohlenstoffdioxid für die Erwärmung der Erdatmosphäre zu produzieren. Er wollte dafür Kohle verbrennen, die nicht wirtschaftlich zu fördern war.
Nur Außenseiter vertraten sie
[1] Hermann Flohn war der erste deutsche Klimaforscher, der die globale Klimawirkung von anthropogen erhöhten CO2-Konzentrationen bzw. den anthropogenen Klimawandel seit seiner Antrittsvorlesung 1941 an der Universität Würzburg vertrat und hierzu zahlreiche Publikationen bis zu seinem Tod 1997 veröffentlichte. Flohn gilt international als einer der Wegbereiter der internationalen und nationalen Klimaforschung und hat auf die CO2-Problematik seit der Nachkriegszeit immer wieder hingewiesen. Wenngleich diese Position unter Klimatologen damals nicht unumstritten war, so erhielt er von Experten Unterstützung, unter anderem von dem führenden Klimatologen Michail Iwanowitsch Budyko.

Bis zur Mitte des letzten Jahrhunderts wird die CO2-Forcingtheorie von der offiziellen Wissenschaft abgelehnt und 1951 offiziell verworfen

[1] In der ersten Hälfte des 20. Jahrhunderts stand man der Theorie von Arrhenius zunächst überwiegend ablehnend gegenüber. Seine Annahmen basierten auf zu vielen unbestätigten und vereinfachenden Annahmen, sodass die Skepsis berechtigt war.
… 1951 schrieb die American Meteorological Society im Compendium of Meteorology: „Die Idee, dass eine Erhöhung des Kohlenstoffdioxid-Gehaltes der Atmosphäre das Klima verändern könne, war nie weit verbreitet und wurde schließlich verworfen

Die Temperaturkurve und Wetterschrecken von damals

Am Verlauf der GISS und HADCRUT Temperaturkurve sieht man, dass damals um ca. 1910 (so man der Globalwert-Ermittlung für diesen Zeitraum glauben kann), die sowieso noch aufgrund der bis 1850 dauernden Kaltzeit niedrige Temperatur nach einer kurzen, aber sehr kräftigen Erholung wieder fiel.

Bild 3.1 GISS Temperaturverlauf global ab 1880 (Jahresauflösung schwarz, Mittelwert rot), darüber gelegt HADCRUT ab 1850 (Monatsauflösung, rot). Vom Autor ergänzt

Bei relativer Darstellung lässt sich durch Dehnen immer eine Katastrophe „anzeigen“. Deshalb diese Temperaturkurve nochmals, diesmal mit den Absolutwerten (bezogen auf 0 °C).

Bild 3.2 GISS Temperaturverlauf global absolut (Mit den ca. 15 °C Welttemperatur addiert)

Um 1860 Wetterkapriolen häuften sich (es wurde damals genau so wie heutzutage als Alarm wahrgenommen)

Hans von Storch: [4] … Ein besonders interessanter Fall ist der des Schweizer Waldpolizeigesetzes in der 1860 Jahren (Pfister und Brändli, 1999): In diesem Falle beobachtete man eine erhöhte Häufigkeit von Überschwemmungen in der Schweiz. Dies Phänomen wurde fälschlich als neuartig, also als nie zuvor geschehen wahrgenommen. Die historischen Aufzeichnungen in der Tatsache der Neuartigkeit wurde auf die Existenz eines neuartigen Verursachermechanismus geschlossen

Bericht einer Polarexpedition aus Spitzbergen im Jahr 1922

Quelle: Alles Schall und Rauch: 1922 … Die Arktis scheint sich zu erwärmen. Berichte von Fischern, Robbenjägern und Forschern welche das Meer um Spitzbergen und den östlichen Teil der Arktis befahren, zeigen alle auf eine radikale Änderung der klimatischen Bedingungen und bis dato gänzlich unbekannten hohen Temperaturen in diesem Teil der Welt. Er wies daraufhin, das Wasser um Spitzbergen hatte sonst eine gleichbleibende Temperatur im Sommer von 3°C. Dieses Jahr wurden Temperaturen von bis zu 15°C gemessen und letzten Winter ist das Meer nicht mal an der Nordküste von Spitzbergen zugefroren.“
Viele Landschaften haben sich so verändert, sie sind nicht mehr erkennbar. Wo vorher grosse Eismassen sich befanden, sind jetzt oft Moränen, Ansammlungen von Erde und Steinen. An vielen Orten wo früher Gletscher weit ins Meer ragten, sind sie komplett verschwunden.
Die Temperaturveränderung, sagt Kapitän Ingebrigtsen, hat auch die Flora und Fauna in der Arktis verändert. Diesen Sommer suchte er nach Weissfisch in den Gewässern um Spitzbergen. Früher gab es grosse Schwärme davon. Dieses Jahr sah er keine, obwohl er alle seine alten Fischgründe absuchte.
Es gab wenige Robben in den Gewässern um Spitzbergen dieses Jahr und der Fang war weit unter dem Durchschnitt.

1926, der stärkste Regen seit Menschengedenken

Bild 4 Zeitungsausschnitt von 1926

Dazu eine Auflistung großer Hungersnöte

Listung großer Hungersnöte um 1900. Quelle: WIKIPEDIA

Es war vor 105 Jahren eher Freude über eine mögliche Lösung von der klimatischen Bedrohung durch Kälte

Die damaligen Erdenbürger sahen sich von schlimmen Wetterereignissen heimgesucht, die meisten Wissenschaftler lehnten die CO2-Hypothese ab, und die, welche sie unterstützten, sahen darin ein Mittel, aus der herrschenden Kälte herauszukommen und bessere, klimatische Verhältnisse zu erreichen:
WIKIPEDIA: [1] Arrhenius: Er hoffte dabei auf „gleichmäßigere und bessere klimatische Verhältnisse“ sowie „um das Vielfache erhöhte Ernten“
Arrhenius’ Zeitgenosse Walther Nernst griff Arrhenius’ Gedanken auf und schlug vor, zusätzliches Kohlenstoffdioxid für die Erwärmung der Erdatmosphäre zu produzieren.

Der Autor kann deshalb die Ableitung, welcher unser Bundespräsident aus der Zeitungsmeldung herausliest, nicht nachvollziehen. Er liest in den damaligen Meldungen die Freude heraus, eine mögliche Lösung für das damals als Bedrohung empfundene Klima gefunden zu haben – eine „mahnende Prognose“ kann er darunter nicht finden.
Es ist ein gutes Beispiel, wie stark die Interpretation historischer Berichte und Daten vom „gewünschten Ergebnis“ abhängt. Nun hat der Autor natürlich auch „einen Wunsch“ und kann damit selber der sein, welcher falsch interpretiert. Wer dies so sieht, möge es im Blog bitte mit Hintergrundangaben darlegen.

Eine Prognose von Arrhenius ist übrigens eingetroffen: Die Ernten sind (auch) dank der dann eingetretenen, (geringfügigen) Erwärmung wirklich um ein Vielfaches angestiegen.
Mahnend sieht der Autor übrigens die damaligen Berichte über schlimme Wetterereignisse. Sie zeigen, dass das kühlere Klima damals zu genau so schlimmen Ereignissen führte, wie es heute einem AGW-Klimawandel zugeschrieben wird. Sollte eine Staatengemeinschaft es wirklich schaffen, das Klima auf das ersehnte, kalte von damals zu bekommen, werden sie wahrscheinlich feststellen, dass sie zwar kein Geld mehr haben, das Wetter jedoch gleich geblieben ist und eine Missernte nach der anderen folgt.

Bild 6 [5] Verlauf Ernteertrag Weizen in den USA seit 1860

In warmen EU-Ländern ist die Lebenserwartung höher als im kühlen Deutschland

Eines wird oft nicht gesagt. Es kommen zwar recht regelmäßig Meldungen über „Zusatzopfer“ bei Hitzewellen – in denen verschwiegen wird, dass viel mehr bei Kälte sterben.
EIKE 21.07.2015: Ruhestand im Süden kann tödlich sein – Wetterdienst glaubt Klimawandel tötet alte Menschen
Nähme man dies ernst, wären die deutschen Städte reine Todeszonen. Der lokale (Über-)Erhitzungseffekt als Wärmeinseln beträgt +5 … 10 °C, erreicht nach Klimawandel-Glauben also bereits aktuell die „Todeswerte“ der kommenden Jahrhunderte.
Lösungsversuche dazu gibt es: NGOs und Münchner Bürgerhaben dies erkannt und für die Abschaltung eines Kohlekraftwerkes zur CO2-Minderung gestimmt. Ob dies wirklich Sinn macht, kann man im Artikel dazu nachlesen.
EIKE 24.09.2017: Ganz(?) München steht Kopf, denn die Stadt verfehlt ihre Ziele beim Kampf gegen den Klimawandel
Was München kann, lässt sich auch globalisieren. Hauptsache es gängelt die Bürge, kostet viel Geld, „reinigt“ aber das schwer Klimawandel-belastete Gewissen.
EIKE 07.11.2017: Für den Klimaschutz hat Deutschland künftig auf Großbaustellen zu verzichten

Trotzdem zieht es gerade die angeblich so „hitzemortalen“ Rentner der USA in das regelmäßig von Hurricans gepeitschte Florida und deutsche in den mediterranen Süden. Dorthin gehen sie kaum, um „Klimawandel-bedingt“ früher zu sterben, sondern weil man in den wärmeren Ländern (so man dort kein Geld verdienen muss) länger glücklich lebt:
dpa, 23.11.2017: Lebenserwartung in Deutschland niedriger als in Spanien
Die Lebenserwartung in Deutschland liegt deutlich unter der in Ländern wie Spanien, Italien oder Frankreich.

Nur nebenbei sei noch erwähnt, dass wieder einmal eine aktuelle Studie aufzeigt, wie unsicher die offiziellen Globaltemperatur-Datensätze selbst für die jüngste Zeit sind.
Hinweis: es gibt keinen offiziellen Temperaturdatensatz „Welt“, sondern zwei „üblicherweise verwendete“. Deren Temperaturermittlungen und Stationsauswahl sind nicht allgemein offengelegt und damit Gegenstand vieler Diskussionen. Daneben gibt es noch einige, weitere Datensätze, wie den im folgenden Artikel behandelten JRA-55.
WUWT, November 23, 2017:
Besting the BEST surface temperature record
JRA-55—BETTER THAN THE BEST GLOBAL SURFACE TEMPERATURE HISTORY, AND COOLER THAN THE REST
The warming rate in JRA-55 until the 2015-16 El Niño is 0.10⁰C/decade, or about 40% of what has been forecast for the era by the average of the UN’s 106 climate model realizations. There’s no reason to think this is going to change much in coming decades, so it’s time to scale back the forecast warming for this century from the UN’s models—which is around 2.2⁰C using an emissions scenario reflecting the natural gas revolution.
Using straight math, that would cut 21st century warming to around 0.9⁰C.

Im Klartext: Die aktuellen Klimamodelle mit ca. +2,2 ⁰C Temperatur-Erhöhungsvorhersage für 2100 liegen nach den bisherigen (alternativen) Temperaturmessungen viel zu hoch, es sind danach höchstens +0,9 ⁰C, oder 40 % davon.

Nicht nur im Ausland wird darüber diskutiert, sogar SPON ist aufgefallen, dass an den „offiziellen“ Daten etwas nicht stimmen:
SPIEGEL ONLINE 28.09.2017: [24] CO2-Budget der Menschheit Leben am Limit
... Für Politiker und Bürger erweist sich die Debatte um das CO2-Budget der Menschheit als schwierig. Wem soll man nun glauben, wenn man Ziele von Paris noch erreichen will? Die einen empfehlen 600 Gigatonnen für 1,5 Grad, die anderen 800 für 1,5 Grad, der Wert könnte jedoch auch bei 150 oder 1050 liegen!… Zum einen ist unklar, wann genau denn nun diese vorindustrielle Zeit geendet haben soll. 1780? Oder 1880? Zum anderen sind sich Klimaforscher uneins, wie hoch die Durchschnittstemperatur auf der Erde von 150 oder 200 Jahren war.

Nach 1950 begann etwas Klimatheorie-Chaos

Nach 1951 beginnt die Klimatheorie-Historie eher chaotisch zu werden. Während die AMS 1951 den CO2-Einfluss als falsch deklarierte, verstummten die Stimmen dazu natürlich nicht.

Bild 7 Zeitungsartikel vom 6. Mai 1953. Quelle: Cameron Muir, Canberra Historiker

WIKIPEDIA: [6] In den späten 1950er Jahren wurde erstmals nachgewiesen, dass der Kohlenstoffdioxidgehalt der Atmosphäre ansteigt. Auf Initiative von Roger Revelle startete Charles David Keeling 1958 auf dem Berg Mauna Loa (Hawaii, Big Island) regelmäßige Messungen des CO2-Gehalts der Atmosphäre (Keeling-Kurve). Gilbert Plass nutzte 1956 erstmals Computer und erheblich genauere Absorptionsspektren des CO2 zur Berechnung der zu erwartenden Erwärmung. Er erhielt 3,6K (3,6 °C) als Wert für die Klimasensitivität.
Die ersten Computerprogramme zur Modellierung des Weltklimas wurden Ende der 1960er Jahre geschrieben.
1979 schrieb die
National Academy of Sciences der USA im sog. Charney-Report, dass ein Anstieg der Kohlenstoffdioxidkonzentration ohne Zweifel mit einer signifikanten Klimaerwärmung verknüpft sei. Deutliche Effekte seien aufgrund der Trägheit des Klimasystems jedoch erst in einigen Jahrzehnten zu erwarten.
Mit der Aussage von
James E. Hansen vor dem Energy and Natural Resources Committee des US-Senats am 23. Juni 1988 hat zum ersten Mal ein Wissenschaftler vor einem politischen Gremium geäußert, er sei zu 99 Prozent davon überzeugt, dass die Jahresrekordtemperatur nicht das Resultat natürlicher Schwankungen ist. Bereits in dieser Sitzung wurden Forderungen nach politischen Maßnahmen gestellt, um die globale Erwärmung zu verlangsamen. Dazu gehörte die Schaffung des Weltklimarats (IPCC), der den politischen Entscheidungsträgern und Regierungen zuarbeiten soll. Im IPCC wird der wissenschaftliche Erkenntnisstand zur globalen Erwärmung und zum anthropogenen Anteil daran diskutiert und in Berichten zusammengefasst.

Um 1970 wird die Eiszeit ausgerufen. Manche Klimabeobachter sehen gar eine erdumspannende Naturkatastrophe heraufziehen.

Dazwischen gingen die Temperaturen jedoch wieder ein kleines bisschen zurück (siehe Bild 3) und ein schlimmes Wetterereignis nach dem Anderen folgte. Den Klimawissenschaftlern viel genau das ein, was ihnen immer schon einfiel:
Der kommende Klimauntergang ist nah, allerdings rutschte die Erde damals in die „sicher bevorstehende“ Eiszeit.

Um die damalige Hysterie und die Aussagen „kompetenter“ Klimawissenschaftler zu zeigen, ist der Artikel des Spiegel vom Jahr 1974 ein unübertroffenes Beispiel. An vielen Passagen kann man eine kleine Zeitreise vollführen, indem man das Jahr 2017 davor setzt. Niemand würde den Datumsunterschied bemerken.

Der Spiegel, Ausgabe 12.08.1974: (Kälte-) Katastrophe auf Raten

Kommt eine neue Eiszeit? Nicht gleich, aber der verregnete Sommer in Nordeuropa, so befürchten die Klimaforscher, war nur ein Teil eines weltweiten Wetterumschwungs — ein Vorgeschmack auf kühlere und nassere Zeiten.
Zu diesem Allerweltsurteil sind die professionellen Wetterbeobachter schon längst gekommen. Spätestens seit 1960 wächst bei den Meteorologen und Klimaforschern die Überzeugung, daß etwas faul ist im umfassenden System des Weltwetters: Das irdische Klima, glauben sie, sei im Begriff umzuschlagen — Symptome dafür entdeckten die Experten nicht nur in Europa, sondern inzwischen in fast allen Weltregionen. Am Anfang standen Meßdaten über eine fortschreitende Abkühlung des Nordatlantiks. Dort sank während der letzten 20 Jahre die Meerestemperatur von zwölf Grad Celsius im Jahresdurchschnitt auf 11,5 Grad. Seither wanderten die Eisberge weiter südwärts und wurden, etwa im Winter 1972/73, schon auf der Höhe von Lissabon gesichtet, mehr als 400 Kilometer weiter südlich als in den Wintern zuvor.
Zugleich wuchs auf der nördlichen Halbkugel die mit Gletschern und Packeis bedeckte Fläche um rund zwölf Prozent, am Polarkreis wurden die kältesten Wintertemperaturen seit 200 Jahren gemessen. In Großbritannien und Island wurden die Folgen des Kälte-Trends bereits spürbar. Auf Island ging die Heuernte um 25 Prozent zurück, auf der Britischen Insel schrumpfte die jährliche Wachstumsperiode der Pflanzen um etwa zwei Wochen.
Die sich in den letzten Jahren häufenden Meldungen über Naturkatastrophen und extreme Wetteränderungen in aller Welt glichen anfangs eher den Bruchstücken eines Puzzle-Spiels: Ein Orkan, der heftigste seit einem Jahrhundert, verwüstete im November 1972 weite Teile Niedersachsens. Im selben Jahr richtete im Osten der USA der Hurrikan „Agnes“ für mehr als drei Milliarden Dollar Schäden an; 122 Menschen kamen ums Leben. Es war das folgenschwerste Unwetter, das jemals in Nordamerika registriert worden war.
Ein Schneesturm ruinierte im August 1973 große Getreideanbaugebiete im Weizengürtel Kanadas. Und im November und Dezember letzten Jahres brandeten innerhalb von fünf Wochen sechs schwere Sturmfluten gegen die norddeutschen Küsten — die dichteste Sturmflut-Folge seit rund 50 Jahren.
Weit dramatischer kündigte sich unterdes der globale Klima-Umschwung in Südostasien, Afrika oder auf dem südamerikanischen Kontinent an. Sintflutartige Regenfälle überschwemmten in jüngster Zeit immer öfter Teile Japans oder Perus. In Argentinien, in Indien und Südafrika sanken im letzten Winter die Temperaturen auf Werte. wie sie seit Beginn der wissenschaftlichen Wetterbeobachtung vor etwa 300 Jahren noch nie registriert wurden.
Ungewöhnlich ergiebige Regengüsse — und im Winter Schneeschauer — gingen auch im Nahen Osten nieder, etwa im Libanon, in der Türkei und in Israel, aber auch in Italien und in manchen Regionen der USA: In San Francisco beispielsweise wurden in diesem Sommer schon die stärksten Niederschläge seit 125 Jahren gemessen.
Und während im Osten Afrikas und im Norden der USA die Wasserspiegel der großen Binnenseen stetig steigen, herrscht in den Ländern südlich der Sahara seit nunmehr sieben Jahren Dürre.
Änderungen im Magnetfeld der Erde.
Dort, in der sogenannten Sahelzone, verdorrte die Vegetation, sind die Brunnen versiegt, die Viehherden zugrunde gegangen und Millionen Einwohner vom Hungertod bedroht.
Mißernten, Hungersnot und Wassermangel gab es seit Ende der sechziger Jahre auch immer häufiger in anderen Regionen der Subtropen, in Mexiko, auf den Kapverdischen Inseln im Atlantik sowie im Norden Indiens und Pakistans, wo der Monsunregen neuerdings spärlicher fällt.
Doch außer derart spektakulären Sprüngen im irdischen Normal-Klima entdeckten die Meteorologen auch noch eine Reihe eher subtiler Vorzeichen für eine drohende globale Wetterwende.
Halte die gegenwärtige Klimaverschlechterung an, so warnt etwa der US-Wissenschaftler Reid Bryson, Direktor des Instituts für Umweltstudien an der Universität von Wisconsin, so werde sie demnächst womöglich „die ganze Menschheit in Mitleidenschaft ziehen“ — „eine Milliarde Menschen würde verhungern“.
Schon jetzt, so Bryson, „zeigen sich die Folgen auf drastische Weise“: Die Getreideernten in Kanada und in den USA stagnieren; Mißernten häuften sich in der Sowjet-Union, Indien und Pakistan. In Peru, wo der kühle Humboldtstrom vor der Küste von wärmeren Wassern überlagert wurde, gingen die Anchovis-Fänge um 55 Prozent zurück.
Verhängnisvoller Dammbruch durch künstlichen Regen.
Das Ausbleiben der sardellenartigen Fische löste nicht nur in Peru eine Wirtschaftskrise aus; in Argentinien, dessen Viehherden auch mit Anchovis-Fischmehl versorgt werden, stockte die Rindfleischproduktion. Ähnliche Kettenreaktionen befürchten die Wissenschaftler künftig auch in anderen Entwicklungsländern.
Denn mittelfristig, glauben sie, sei eine Verbesserung des Erdklimas kaum zu erhoffen. Die Chancen für eine rasche Rückkehr des günstigen Klimas etwa der dreißiger Jahre, so taxierte der US-Wetterforscher James McQuigg, stünden „bestenfalls eins zu 10 000“. Globale Kälteperioden, so errechnete auch der britische Klimatologe Hubert Lamb, dauerten normalerweise mindestens 40 Jahre; Jahrzehnte würden vergehen, bis der Atlantik, einmal abgekühlt, ·sich wieder erwärmt habe.
Manche Klimabeobachter sehen gar eine erdumspannende Naturkatastrophe heraufziehen.

Haben Ölförderfirmen in den USA ihr Wissen über den Klimawandel verheimlicht und dadurch die Menschheit geschädigt? Der WDR scheint davon überzeugt

Beim Durchsehen der Historie meint man, viele Irrungen und Wirrungen zu erkennen und kommt leicht über die Klimawissenschaft ins Grübeln.

Unseren investigativen Medien, unterstützt durch besonders investigative, junge Recherchejournalisten, blieb es vorbehalten, das perfide Spiel der Ölindustrie dahinter zu entdecken. Gerade noch pünktlich zu COP23 wurde das Recherchewerk fertig und konnte vom WDR als Video gezeigt werden. Wer es sich antun mag, wie ein hyperaktiver (vom GEZ-Zwangszahler subventionierter) Aktivist quer durch Amerika hetzt und vorwiegend investigativ telefoniert, ohne wirkliche Fakten zu zeigen, mag sich das Video ansehen. Es zeigt den heutigen „Standard“ (und Niedergang) an Berichterstattung, wenn es um Klima und Energie [13] geht:

Bild 8 Video: Die geheimen Machenschaften der Ölindustrie – Wie Konzerne den Klimawandel vertuschen. Eingebettetes WDR-Video: Quelle: youtube

Was hat Exxon getan, um den Argwohn der „Klimaüberwacher“ zu erregen:
Der Konzern hat in den 60er Jahren eine Ölplattformen in der Arktis 2 m höher als üblich gebaut und auf einem Schiff während einer Fahrt CO2 messen lassen. Recherchiert ein modern-investigativer Journalist die schlimmen Taten von damals zu Ende, so lässt sich (beim WDR) belegen, dass die Ölindustrie mit schuld an den (angeblichen) Problemen des Klimawandels ist, weil sie nicht früher davor gewarnt hat. Die investigative Recherche vergaß nur zu erwähnen, dass eine Weltorganisation den CO2-Einfluss kurz zuvor als unwissenschaftlich bezeichnete und kurz danach die Klimawissenschaft die kommende Eiszeit ausrief. Vor einem Klimagipfel sind solche (eher störenden) Feinheiten jedoch unerheblich.

Bild 9 WDRprint November 2017, Seiten 16 – 17 (Auszug): Den Klimawandel vertuscht

WUWT sah das Thema viel gelassener und sah mehr Wissen und eher den kritischen Verstand bei den Ölfirmen

Auf WUWT gibt es zu diesem Thema Publizierungen.
In der ersten:
WUWT David Middleton / October 22, 2015: [7] What did ExxonMobil Know and when did they know it? (Part 1),
kann man nachlesen, wer einer der Urheber der Anschuldigungen ist: Der wohl weltweit aggressivste Umweltaktivist:
B. McKibben
(Erinnerung:
EIKE 27.09.2016: Der Krieg des Klimas gegen die Menschheit Über den weltweit bekanntesten Klimaaktivisten Bill McKibben)

Bild 10 [7]
In einem aktuellen WUWT-Artikel findet sich eine Zusammenfassung und Auszüge aus den drei vorherigen Publizierungen [7] [8][9]:
WUWT Anthony Watts / October 4, 2017: [10] The ridiculous #ExxonKnew Investigation Takes Another Hit (two actually)

Aus diesem Artikel ein ganz kurzer Auszug:

WUWT, David Middleton, 04. Oktober 2017: Was wusste Exxon und wann wussten sie es?

[10] Im Jahr 1963 wusste Exxon, dass die gesamte Theorie der klimatischen Veränderungen durch CO2-Variation fraglich war.
Im Jahr 1978 wusste Exxon, dass die Auswirkungen auf den Meeresspiegel und die polaren Eiskappen wahrscheinlich vernachlässigbar sein würden, Modelle nutzlos waren und mehr Anstrengungen auf die Paläoklimatologie gerichtet werden sollten.
Exxon wusste, dass die meisten staatlichen und akademischen Wissenschaftler mehr Forschungsgelder wollten.
Exxon wusste, dass es viele Unsicherheiten gab
Im Jahr 1982 wusste Exxon, was Hansen wusste. Sie wussten, dass CO2 fast doppelt so viel Erwärmung verursachen würde, als es in den folgenden 30 Jahren tatsächlich passieren würde …

Bild11 Aus dem WUWT-Artikel [10]
Bild 12 Aus dem WUWT-Artikel [10]
Damit endet der Teil 1.

Man hätte sich die Sorgfalt von Exxon beim Bau neuer Anlagen von den Spannbeton-Brückenbauern in Europa damals gewünscht

Nachdem der WDR stolz ist, Exxon zu viel Sorgfalt beim Bau in den 50 … 60er Jahren des letzten Jahrhunderts vorzuwerfen, fällt dem Autor nur ein, was die Spannbetonbauer damals für extreme Spätschäden anrichteten, weil sie die Zerstörungsgefährdung des im Beton eingegossenen Stahls durch Umweltbeeinflussungen drastisch und über eine lange Zeit unterschätzten. Eine ähnliche Sorgfalt wie bei Exxon hätte den Kommunen, welche das alles für viel Geld sanieren mussten (und immer noch müssen) viel sparen können.

Quellen

[1] WIKIPEDIA: Forschungsgeschichte des Klimawandels

[2] SCIENCE SCEPTICAL BLOG 15. November 2017, Michael Krueger: Klimagipfel in Bonn: Rede zum Klimawandel von Bundespräsident Steinmeier mit Kommentaren

[3] Vollständige Rede DER BUNDESPRÄSIDENT Bonn, 15. November 2017: Besuch der 23. Weltklimaschutzkonferenz

Nordrhein-Westfälische Akademie der Wissenschaften (Düsseldorf):Klimawandel in Europa 29. März 2006, Düsseldorf

[4] Nordrhein-Westfälische Akademie der Wissenschaften (Düsseldorf): Klimawandel in Europa 29. März 2006, Hans von Storch:Die Bedeutung der historischen Dimension für die gegenwärtige Klimaforschung.

[5] EIKE 30.06.2015: Ernteerträge und Klimawandel

[6] WIKIPEDIA: Globale Erwärmung

[7] WUWT David Middleton / October 22, 2015: What did ExxonMobil Know and when did they know it? (Part 1),
[8] WUWT David Middleton / October 23, 2015: What did ExxonMobil Know and when did they know it? (Part Deux, “Same as it ever was.”)

[9] WUWT David Middleton / October 24, 2015:What did ExxonMobil Know and when did they know it? (Part 3, Exxon: The Fork Not Taken)

[10] WUWT Anthony Watts / October 4, 2017:The ridiculous #ExxonKnew Investigation Takes Another Hit (two actually)

[13] EIKE 10.04.2016 : Nachgefragt: BR Programm 14.3.2016, Sendung: „Jetzt mal ehrlich Verstrahltes Bayern: Wie viel Wahrheit ist uns zumutbar?

[19] Ralph-Maria Netzker: It’s the Economy, stupid! oder Die Erfindung der Klimakatastrophe

[24] SPIEGEL ONLINE 28.09.2017: CO2-Budget der Menschheit Leben am Limit




Meteorologischer Kalender 1982-2018: Der Weg vom Fachblatt zur Klima-Katastrophen-Postille !

Wolfgang Thüne

Auch nach 36 Jahren beeindruckt der Meteorologische Kalender 2018 [1] wieder durch spektakuläre Fotos mit Motiven, die das Wetter in seiner schier endlosen Mannigfaltigkeit präsentiert. Für die etwa 1800 DMG-Mitglieder sind die Erklärungen auf den Kalenderrückseiten eigentlich überflüssig, doch für interessierte Laien könnten sie etwas verständlicher und ausführlicher sein. Schließlich erhebt die DMG den hohen Anspruch, „das Interesse an den Vorgängen der Atmosphäre zu fördern und meteorologisches Fachwissen zu verbreiten“. Angesichts des Jubiläums „150 Jahre Norddeutsche Seewarte“ Hamburg wurde das Thema „Atmosphäre und Ozean“ gewählt.

So schön die Fotos sind, so kritikfähig sind die ausgewählten Texte und versprechen Ärger für Inge Niedek, die Vorsitzende der Deutschen Meteorologischen Gesellschaft DMG und Ex-Wettermoderatorin des ZDF. Unter der Überschrift „Wetter und Meer“ folgt „Ozean und Klima“ und „Den Einfluss des Ozeans auf Klima und Wetter erfahren wir…“ Das ist eine Verdrehung der Fakten und bewusste Herabsetzung der Meteorologie als Hilfswissenschaft der Klimatologie im Namen der politischen Korrektheit. Jeder weiß, dass das Klima vom Wetter abgeleitet und damit ein Definitionskonstrukt des Menschen ohne Eigenexistenz ist. Mit anderen Worten: Die Natur kennt nur Wetter und mittelt dieses nicht zu Klima. Es gibt den „vom Menschen verursachten Klimawandel“ nicht. Der „Klimawandel“ ist Folge des natürlichen und unaufhaltsamen Wetterwandels. Die Klimavielfalt auf der Erde ist Folge der Wettervielfalt und diese bestimmt wiederum die Vegetationsvielfalt.

Der Kalender steckt voller Ungereimtheiten. Nur zwei Beispiele: „Durch Abkühlung an der Meeresoberfläche wird kaltes und schweres Tiefenwasser gebildet, das bis in Tiefen von 100-2000 m absinkt.“ Doch wenige Zeilen später lesen wirr staunend, dass „sich der subpolare Nordatlantik in der Tiefe langsam erwärmt“. Ein anders Beispiel: „Von den Ozeanen verdunstet jedes Jahr eine etwa einen Meter dicke Schicht Wasser.“ Das sind 1000 mm! Bei der Höhe des Meeresspiegels heißt es in der „peer-revievten Literatur“, dass er seit Beginn des 20. Jh. um ca. 1,5 mm und seit den 1990er Jahren um ca. 3,2 mm pro Jahr angestiegen sei, obgleich die Messgenauigkeit der Satelliten nur 20-50 mm betrage. Wer zu exakt sein will, wird rasch beim Mogeln erwischt. Des weiteren fehlt sowohl beim globalen Meeresspiegel wie bei der Globaltemperatur ein Bezugspunkt, ein simpler „Ausgangswert“!

Das Februarblatt behandelt den „Wärmeinhalt der Ozeane“. Sie werden als „Gedächtnis“ und als „energetischer Puffer“ im Klimasystem der Erde bezeichnet, als ob kontinentale Gesteine keine Wärme speichern könnten. Bei ihnen geht die Erwärmung, aber auch die Abkühlung nur schneller. Ein Skandal ist eine Abbildung mit der Bilanz zwischen Ein- und Ausstrahlung. Zur Erläuterung heißt es ohne Beweis: „Die Gleichgewichte von ein- und ausgehenden Strahlungsflüssen über den Oberrand der Atmosphäre spielen eine entscheidende Rolle für das Klimasystem“. Das ist Klima-Ideologie pur!

Nur eine Zwischenfrage: Wer liefert die ungeheure Energie, um jährlich eine etwa ein Meter dicke Wasserschicht der Ozeane zu verdunsten? Dadurch werden die Ozeane abgekühlt, doch die latente Wärme geht nicht verloren, sondern wird wieder bei der Kondensation des Wasserdampfes freigesetzt und gibt den Wolken thermischen Auftrieb. Zwischen der kurzwelligen sichtbaren Solarstrahlung und der infraroten Wärmestrahlung der Erde kann es noch aus weiteren Gründen kein „Gleichgewicht“ geben. Es herrscht genauso ein „Gleichgewicht der Strahlungsflüsse“ wie z. B. zwischen einer glühenden Herdplatte und einer Hand. Eine Berührung lässt den Irrglauben sehr schmerzhaft spüren. Die beiden Strahlungsflüsse sind extrem ungleichgewichtig, besonders was die Arbeitsfähigkeit betrifft. Dies steht in jedem Lehrbuch, lernt jeder Student der Meteorologie schon in den ersten Semestern. Solcherart Märchenerzählungen von „Meteorologen für Meteorologen“ sind eine inakzeptable Zumutung. Geht dieser politischen Wunschvorstellungen hörige Trend in der DMG so weiter, dann ist das AUS des Meteorologischen Kalenders bald abzusehen. Schade für die einst so tolle Idee von Werner Wehry und Walter Fett!

So farbenfroh der Meteorologische Kalender Monat für Monat auch sein mag, er kann als „wissenschaftliche Lektüre“ nicht empfohlen werden, wohl aber als Postkartenkalender.

[1] E. Schweizerbart’sche Verlags-Buchhandlung, Stuttgart 2017; Wandkalender ISBN 978-3-443-01092-8; 19,90 Euro; Postkartenkalender ISBN 978-3-443-01093-5; 10,80 Euro

 




Rückblick: Ein Jahr hemisphärischer Stefan-Boltzmann Ansatz

Wo steht mein vielfach gescholtener hemisphärischer Stefan-Boltzmann Ansatz nun eigentlich ein Jahr nach seiner Erstveröffentlichung?

Wenn man Klimarealist ist, braucht man eigentlich gar keine zusätzlichen Feinde mehr. Denn solche Feinde wachsen einem vollautomatisch zu, wenn man Hypothesen veröffentlicht, die von den Vorstellungen des Klimamainstreams abweichen oder ihnen gar diametral widersprechen. Und die Damen und Herren Klimaalarmisten müssen sich dabei noch nicht einmal besonders anstrengen. Es reicht vielmehr aus, wenn die Grundfesten des globalen Klimaaberglaubens in Frage gestellt werden, um politisch korrekt denkende Klimarealisten in voreilendem Gehorsam umgehend blank ziehen zu lassen, Zitat:

Man kann eine Menge falsch machen, wenn man versucht, den Treibhauseffekt zu widerlegen. Zu einer ungeeigneten Wahl der Systemgrenzen treten die Vertauschung von Ursache und Wirkung, die Fokussierung auf irrelevante Details und das fehlende Verständnis physikalischer Gesetze als häufigste Irrtümer…“

Aber ist ein solcher „natürlicher“ atmosphärischer Treibhauseffekt wirklich sakrosankt, nur weil er das gemeinsame Dogma einer Mehrheit von Klimarealisten und den Anhängern der globalen Klimakirche darstellt?
Denn anstatt auf den hemisphärischen S-B Ansatz treffen die oben zitierten Vorwürfe doch in sehr viel stärkerem Maße auf die konventionelle Herleitung einer „natürlichen“ Temperatur unserer Erde von minus 18 Grad Celsius mit dem Stefan-Boltzmann-Gesetz und dem daraus abgeleiteten atmosphärischen Treibhauseffekt von 33 Grad zu. Man denke nur einmal an die permanente Verletzung des 2. Hauptsatzes der Thermodynamik durch ein atmosphärisches Perpetuum Mobile, das ständig 155 W/m² aus sich selbst heraus erzeugt, nur um unsere Atmosphäre um 33 Grad Kelvin aufzuheizen…

Einstein soll einmal gesagt haben: „Man kann ein Problem nicht mit der Denkweise lösen, die es erschaffen hat“ – und an dieser Erkenntnis scheint tatsächlich etwas dran zu sein.

Mein hemisphärischer S-B Ansatz wurde zwar vielfach niedergemacht, aber niemals widerlegt, und nach seiner Veröffentlichung im Dezember 2016 fortlaufend weiterentwickelt. Inzwischen wird die Temperaturgenese auf der Tagseite der Erde in diesem Ansatz breitenabhängig aus der hemisphärischen Sonneneinstrahlung berechnet, also nicht mehr über einen Durchschnittswert für die gesamte Tagseite. Diese breitenabhängige hemisphärische Berechnung wird durch die Temperaturgenese auf unserem Mond eindrucksvoll bestätigt. Und schließlich wurde auch noch gezeigt, dass die Abkühlung auf der Nachtseite der Erde über die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes erfolgt. Denn der Wärmeinhalt der globalen Zirkulationen ist die „Wärmflasche“ unserer Erde. Und diese Wärmflasche wird ständig auf der Tagseite der Erde von der Sonne aufgeheizt und auf der Nachtseite (und im Winterhalbjahr) abgekühlt. Damit aber rechnet sich die individuelle örtliche Nachtabsenkung gegen die Umgebungstemperatur der globalen Zirkulationen, und nicht gegen den absoluten Nullpunkt des Weltalls.

Der hemisphärische S-B Ansatz hat damit nicht nur den „natürlichen“ atmosphärischen Treibhauseffekt widerlegt, sondern die gemessene Mitteltemperatur der Erde von etwa plus 15 Grad Celsius wurde über die Umgebungsgleichung des S-B-Gesetzes auch als die „natürliche“ Durchschnittstemperatur unserer Erde identifiziert.

Die schweigende Mehrheit in unserem Lande hält korrekte und überparteiliche Informationen offenbar immer noch für eine Bringschuld der Massenmedien, insbesondere der von ihnen selbst zwangsfinanzierten. Aber völlig unbemerkt von dieser schweigenden Mehrheit ist die überparteilich korrekte Information heutzutage eine selbstverantwortliche bürgerliche Holschuld geworden. Und wer zu faul zu einer umfassenden Internetrecherche ist und lediglich fertig portionierte, politisch korrekte Informationen der selbstgleichgeschalteten Mainstream-Medien konsumiert, muss dann halt auch daran glauben.
Und da hier bei uns das allgemeine Bildungsniveau in den Naturwissenschaften ständig in einer vergleichbaren Größenordnung absinkt, wie die wissenschaftlichen Widersprüche des Klimaglaubens zunehmen, ist wohl auch in Zukunft kaum mit einer Besserung zu rechnen.

Das Modell eines menschengemachten Klimawandels ist für den durchschnittlich gebildeten Bundesbürger leicht nachzuvollziehen, auch wenn dieses Konstrukt wissenschaftlich völlig falsch ist. Eigentlich ist der hemisphärische Stefan-Boltzmann Ansatz das einzige geschlossene und verständliche Modell, das in der Lage wäre, die Grundfesten des religiösen Klimawahns zur Dekarbonisierung der Welt nachhaltig zu erschüttern. Erstaunlich ist daher, dass dieser hemisphärische S-B Ansatz in der öffentlichen Klimadiskussion gar nicht vorkommt…