1

Deutschland verfehlt eigene Klimaziele deutlich – und das ist auch gut so!

Einmal mehr musste ein Noch-Mitglied der Bundesregierung, die SPD Umweltministerin Barbara Hendricks, eingestehen, dass Deutschland seine völlig unsinnigen, wissenschaftlich durch nichts gestützten CO2 Emissionsziele bis 2020 deutlich verfehlen wird. Statt geplanter und als Staatsziel aufgerufener Senkung der Emissionen um 40 % gegenüber 1990 werden es wohl nur marginale 28 % – 32 % werden, wie Hendricks klagend – anklagend, denn Schuld sind immer die anderen, auf ihrer Pressekonferenz am Mittwoch dem 11.10.17 bekanntgeben musste. Außerdem ist bekannt, dass die stärksten Absenkungen in den frühen neunziger Jahren des vorigen Jahrhunderts erreicht wurden, was fast allein dem Zusammenbruch der Industrie der ehemaligen DDR geschuldet ist. Damit hatte Hendricks, wenn auch wohl unfreiwillig, den einzig wirksamen Pfad zur Erreichung ambitionierter Emissionssenkungsziele vorgegeben. Die geplante Herbeiführung des Zusammenbruchs weiter Teile der deutschen Industrie und auch des Verkehrs, denn die sind nach wie vor die Hauptemittenten. Doch statt sich ehrlich zu diesem seit Jahren unerbittlich voran getriebenen Vorgehen mit seinen unausweichlichen Konsequenzen zu bekennen, forderte Hendricks mehr vom selben und beklagte die Verzögerungstaktik aus den betroffenen Industrie- und Gewerkschaftskreisen, die, zu Recht einen weiteren Abbau ihrer Jobs befürchtend, sich relativ erfolgreich dagegen zur Wehr gesetzt hätten. So weit so gut.

Deutschlands Rolle bei der Senkung der CO2-Emisssionen wird zwar oft als extrem wichtig von den Grünen aller Parteien und deren Medien hervorgehoben, hält aber einer realistischen Betrachtung in keiner Weise stand. Mit nur 2,2 % der weltweiten, durch den Menschen verursachten, CO2-Emissionen, ist Deutschland fast Schlusslicht unter allen wichtigen Industrienationen. Nimmt man die gewaltigen natürlichen CO2-Emissionen hinzu, beträgt der menschliche Anteil daran insgesamt nur marginale 2 bis 4 %. Bezogen darauf schrumpft der deutsche Anteil daran auf winzige ca. 0,08 %. Da aber nur maximal die Hälfte des emittierten CO2 in der Luft verbleibt, beträgt also der gesamte deutsche Beitrag ganze 0,04 % an den globalen evtl. klimawirksamen CO2-Emissionen. Das sind in absoluten Werten 450 Mio. Tonnen (t). Bekanntlich beträgt die gegenwärtige Konzentration des Spurengases CO2 in der Luft – und nur die hat evtl. einen Einfluss auf die Temperatur – etwa 0,04 Vol %. oder 400 ppm (parts per million). In absoluten Werten sind das aktuell rd. 3.000 Gigatonnen (Gt) oder 3.000.000 Mio. t CO2. Diese steigt jährlich um 2 ppm oder 15 Gt an. Davon sind max. 450 Mio. t oder 0,45 Gt deutschen Ursprungs. Das sind nur 0,015 % oder 0,06 ppm von der Gesamtmenge CO2 in der Atmosphäre. Ob dieser deutsche Anteil nun um 10%, 20% oder 40% oder gar 100 % abgesenkt werden würde, ist für das Weltklima völlig und in jeder denkbaren Variante, so oder so, völlig irrelevant, für Deutschland als Industriestandort aber tödlich. Anders herum gilt auch: Wer da von einem wichtigen Beitrag Deutschlands an der Senkung der CO2-Emissionen redet, kann nicht nur nicht rechnen, sondern redet Unsinn oder bringt – neudeutsch – mit voller Absicht Fake News unter die Leute.

 




Australien will Förderung für erneuerbare Energien streichen!

Canberra 

Die australische Regierung hat eine teilweise Wende in ihrer Energiepolitik angekündigt und will in Zukunft wieder verstärkt auf Kohle, Gas und Wasserkraft setzen. Förderungen für erneuerbare Energien wie Solarenergie oder Windkraft sollen wegfallen, wie Regierungschef Malcolm Turnbull am Dienstag bekannt gab. Mit dieser sogenannten Nationalen Energiegarantie verwirft die Regierung die Empfehlungen von Australiens Chefwissenschafter Alan Finkel, wonach Stromversorger einen fixen Anteil ihres Stroms aus erneuerbaren oder emissionsarmen Quellen beziehen müssen. Nach massiven Stromausfällen im vergangenen Jahr hatte Finkel dies nach einer Analyse des Strommarkts empfohlen. 

Strompreis soll sinken Es soll nun für jeden Bundesstaat garantiert werden, dass der benötigte Anteil von jederzeit verfügbarem Strom aus Kohle, Gas oder Wasserkraft lieferbar sei. Dies senke die Strompreise und stelle eine verlässliche Versorgung sicher, sagte Turnbull. Von 2020 bis 2030 werde die Stromrechnung eines Haushalts pro Jahr um geschätzte 110 Australische Dollar (73 Euro) sinken. -Beim Standard weiterlesen




„Kippt unser Klima ?“ bei Maischberger/ARD am 10. Oktober 2017: Eine kleine Nachlese über großen Unsinn, sachliche Fehler und wenig Richtiges

Einer in den letzten Jahren weltweit gewachsenen Skepsis gegenüber dem Klima-Alarmismus wollte nun wohl auch die ARD Rechnung tragen, denn schon durch die Auswahl der Gesprächsteilnehmer und deren Vorstellung durch Frau Maischberger konnte man in etwa folgende „Botschaft“ aufnehmen:

Wir, die ARD, sind keine „Lückenpresse“, denn wir laden sogar Klimaskeptiker ein. Wir sind uns unserer Sache nämlich sicher. Sollen die Skeptiker doch mal abstreiten, was schließlich jeder sehen kann: Wetterextreme nehmen zu, das Klima kippt, und der Mensch ist verantwortlich. Daher wird unser „Stargast“ und PIK-Chef Hans-Joachim Schellnhuber die beiden eingeladenen Skeptiker rasch „auseinander nehmen und vorführen“ –  nämlich den Wissenschafts-Journalisten Alex Reichmuth von der WELTWOCHE Zürich und den meteorologischen Altbarden Jörg Kachelmann…„.

Jedoch – es kam ganz anders:

Einerseits wurde zwar viel Unsinn verzapft, andererseits konnten die Zuschauer aber auch dank der fachlichen Richtigstellungen von Reichmuth und Kachelmann etliche naturwissenschaftliche Wahrheiten aufnehmen. Wer sich blamierte und wer nicht, das können unsere Leser hier in unserer kleinen Nachlese zur Sendung erfahren.

Zunächst:

Von den Teilnehmern der Talkshow waren nur Alex Reichmuth, Jörg Kachelmann und H.-J. Schellnhuber interessant.

Beginnen wir mit dem mehr uninteressanten Rest, zuerst mit der Redakteurin Maischberger. Sie wird wohl niemals den Unterschied zwischen Einzelereignissen und einem langzeitlichen Trend verstehen. Als TV-Redakteurin müsste ihr zudem bekannt sein, dass heute jedes Stürmchen mit Personenschäden weltweit über die TV-Mattscheiben flattert – unbeschadet wirklich großer Kaliber wie Harvey und Irma. Somit sollte Maisbergers mit ihrem etwas trotzigen „das sehen wir doch alle“ vielleicht etwas vorsichtiger sein – aber nichts da.

Die CSU Staatsekretärin im Verkehrsministerium Dorothee Bär, als zweite naturwissenschaftlich völlig unkundige und somit uninteressante Teilnehmerin, war dagegen von bereits kindlicher Naivität, bayerischer Dialekt half dabei noch mit. Sinngemäß : „Klimaschutz unbedingt ja, er dürfe nur nicht zu Lasten des Bürgers gehen.“ Liebe Frau Bär, wir sind mit Ihnen völlig d’accord, denn dann ist es mit dem Klimaschutz-Unsinn sofort vorbei. „Klimaschutz“, der unabdingbar fordert ganze Volkswirtschaften umzukrempeln, ohne hohe finanzielle Belastung des Bürgers? Wie um alles in der Welt soll das denn gehen? Oder war es vielleicht gar keine Naivität, sondern nur bayerische Schläue? Na, egal. Wenn es denn nur kindliche Naivität war, dann übertrifft Frau Bär sogar noch unseren Merkel-Wendehals Horst Seehofer, u.a. Spezialist von Obergrenzen, bei denen niemand mehr durchblickt.

Als dritte uninteressante Teilnehmerin erzeugte die Alt-Grüne Bärbel Höhn nur noch gähnende Langeweile. So viel sachlichen und zudem noch langweiligen Quatsch, wie ihn diese Dame zusammenquasselt, hält man ja kaum für möglich. 370.000 Arbeitsplätze für völlig nutzlose 4% Primärenergie in Form von Strom aus „Erneuerbaren“ als Beleg für deren Nützlichkeit? Die sachliche Intelligenz der Wähler hierzulande ist schon extrem abgesunken, denn immer noch rund 8% goutieren solche grünen Hirngespinste. Hier kann man nur noch Albert Einstein zitieren, der sich zwar skeptisch über die Unendlichkeit des Weltalls, aber eindeutig-klar über die Unendlichkeit der menschlichen Dummheit ausließ.

Kommen wir nun zu den interessanten Teilnehmern, als erstem zu Hans-Joachim Schellnhuber, Kanzlerberater in Sachen Klima, Vorsitzenden des wissenschaftlichen Beirats der Bundesregierung für globale Umweltveränderungen (WBGU), Papst-Einflüsterer und und … Seine „Masche“ erschließt sich jedem klaren Zeitgenossen nach wenigen Minuten: In betont gestelzter Manier werden abenteuerlich-abstruse Klima-Behauptungen verkündet. Die wohl aus seiner Sicht richtige und tatsächlich erfolgreiche Strategie könnte etwa so lauten: „Die Mehrheit meiner Zuschauer, die kein sachlich-fachliches Hintergrundwissen hat, wird das schon glauben, kommt schließlich von einem bekannten Professor, Kanzlerin-Berater etc.“

Hat aber nicht ganz geklappt, denn Schellnhuber’s hilflose Empörung gegenüber den sachlich berichtigenden Entgegnungen von Alex Reichmuths war unübersehbar. Seine oberlehrerhafte missbilligende Miene und ein hingeworfenes „das ist falsch“ war dann leider aber auch alles, was man an sachlicher Argumentation des großen Klimakatastrophen-Gurus gegenüber Reichmuth zu sehen und hören bekam. Da Reichmuth aber nun einmal in der Talkshow neben ihm saß, war das von prominenten Klima-Alarmisten sonst so gerne geübte „den ignoriere ich noch nicht einmal“ (Zitat Karl Valentin) unmöglich. Viele Hunderttausend Zuschauer haben alles brühwarm mitbekommen.

Zu hören bekam man dafür von Schellnhuber umwerfende Märchen aus wissenschaftlichen Phantasiewelten. Meeres-Anstiege von einem Meter bis Ende des Jahrhunderts und bis zu 70 Metern in 1000 Jahren. Sinngemäß „Ist schließlich alles nur einfachste Physik„, so Schellnhuber. Die jüngste einschlägige Fachstudie von Beenstock et al., von zwei US-Universtäten und einer Universität aus Israel im Jahre 2015 publiziert (hier als pdf herunterladbar), ermittelt dagegen in seriöser wisenschaftlicher Arbeit nur einen aktuellen mittleren Meeres-Anstieg zwischen 0,4 und 1 mm (Millimeter!) pro Jahr(!) aus allen erreichbaren Pegelmessungen weltweit. Das sind folglich zwischen 4 und 10 cm in 100 Jahren. Leider hatte diese grundlegende Publikation in der Runde niemand parat.

Der darüber hinaus von Schellhuber verkündete sachliche Unsinn kannte dann keine Grenzen mehr. Im Zusammenhang mit dem Auftreten von Hurrikanen in den USA warf er als weitere Ursache mal kurz das Torkeln der Erdachse ein. Niemand staunte mehr, zweifellos ein Abnutzungseffekt durch zu viel Quatsch. Immerhin, alle einigten sich schließlich darauf, dass Klima und Wetter zwei paar Schuhe seien, ein zwar richtiges, aber doch etwas mageres Ergebnis für viel Sendezeit. Warum hat niemand wenigstens einmal die naturwissenschaftlichen Festlegungen angesprochen, wie :

„Klima ist ein mindestens 30-jähriger Mittelwert von Wetter (WMO-Definition), es gibt kein Globalklima, sondern nur Klimazonen von tropisch bis polar, die Natur kennt kein konstantes Klima, Klima kann man nicht schützen – es sei denn man könnte Wetter „schützen“.

Solche elementaren Selbstverständlichkeiten hätten der Sendung gut getan, gingen aber in der Hektik der Veranstaltung unter. In Schellnhuber’s Wundertüte der globalen Erwärmungs-Katastrophe durften natürlich auch die 5 °C globaler Temperatursteigerung nicht fehlen, die uns angeblich erwarten, wenn wir weiter Fleisch essen, Auto fahren, mit Flugzeugen fliegen, heizen, Industrie und  Haushalte mit Strom versorgen … u.s.w. … Hierher hätte gut ein Hinweis gepaßt, dass in den letzten Jahren in den peer-reviewten Publikationen die Klima-Sensitivität von CO2 deutlich abgesunken ist und heute unter 1 °C hinweist (Fig. 1). Die betreffende Arbeit von F. Gervais, Anthropogenic CO2 warming challenged by 60-year cycle, Earth Science Reviews (2016) ist als pdf hier herunterladbar. Zur Info: Klimasensitivität bedeutet vereinfacht die global gemittelte Erwärmung infolge jeder Verdoppelung der CO2 – Konzentration der Atmosphäre.

Fig. 1: Klimasensitivität (globale Erwärmung bei jeder CO2 – Verdoppelung) aus der Fachliteratur in Abhängigkeit vom Veröffentlichungsdatum. Man erkennt eine stetige Abnahme, die heute deutlich unter 1 °C zeigt. Die unterschiedlichen Angaben zur Klimasensitivität (ECS = equilibrium climate sensitivity, TCR = transient climate response), die sich auf die unterschiedliche Zeitdauer der CO2 – Erhöhung beziehen, sind hier nicht wesentlich.

Von Schellnhubers phatastischen 5 °C keine Spur. Unmaßgebliche 0,5 °C Klimasensitivität wären gemäß Fig. 1 richtiger gewesen und hätten zudem noch dem medialen 97%-Konsens-Unsinn – Pardon dem natürlich 99,99%-Konsens-Unsinn Schellnhubers – die passende Antwort gegeben.

Und damit nun sind wir bei der zweiten „Masche“ von Schellnhuber angelangt. Sie geht frei nach der Methode vor „Nehme Gefälliges aus der Fachliteratur, multipliziere es einfach mit 10 und verkaufe es dann dem Publikum als korrekt.“  So macht Schellnhuber aus der der Fachliteratur zu entnehmenden Klimasensitivität von unter 1 °C flugs 5 °C, aus Meeresspiegelmessungen von höchstens 1 mm pro Jahr flugs 10 mm pro Jahr und damit 1 Meter in 100 Jahren und selbst aus falschen 97%-Angaben der Medien flugs 99,99%.

Schellhuber kann aber erstaunlicherweise auch anders. So nach Art von Dr. Jekyll und Mr. Hyde – tagsüber der begutachtete Fachaufsätze schreibende Professor und nachts sein unheimliches Doppel, den Weltuntergang verkündend. Sie glauben es nicht? Dann lesen Sie doch einmal seine (er ist Mitautor) Fachpublikation „Power-law persistence and trends in the atmosphere: A detailed study of long temperature records“, Physical Review E, 68 (2003). Sie kann hier als pdf heruntergeladen werden. Die Publikation schildert die Analyse von 95 Temperatur-Meßstationen weltweit – mit dem verkündeten Ergebnis auf S. 5, linke Spalte unter IV. Discussion, (iii):

„In the vast majority of stations we did not see indications for a global warming of the atmosphere.“

Zur Info des Lesers: Die in dieser Publikation angewandte Analyse-Methode (Persistenz-Analyse) und das aufgefundene Ergebnis haben ihre Gültigkeit nicht verloren, die Arbeit ist nach wie vor völlig in Ordnung und entspricht dem heutigen Stand.

Folglich: Keine globale Erwärmung in der überwiegenden Anzahl aller Stationen! Was mag wohl zwischen 2003 und 2017 passiert sein, das Schellnhuber bewogen hat, satte 5 °C globale Erwärmung zu prognostizieren? Es kann nur etwas ganz Schröckliches gewesen sein, er verrät es uns aber leider nicht. Nur wenige Jahre später jedenfalls verkündet Schellnhuber seinen Schmerz über die kommende so gefährliche globale Erwärmung in dem ZEIT-Interview vom Jahre 2009 „Manchmal könnte ich schreien“ (hier). Wie gesagt, Dr. Jekyll und Mr. Hyde lassen grüßen.

Genug nun von Schellnhuber, denn auch Kachelmann gab neben Korrektem ein wenig meteorologischen Unsinn von sich. Zunächst einmal betonte er die jedem Fachmann bekannten Extremwetter-Statistiken, die eindeutig ausweisen, dass es keine Zunahmen in Häufigkeit und Stärken von Extremstürmen, Dürren, Überschwemmungen etc. seit Beginn der Industrialisierung gab. Hier sagte er also völlig korrekt aus. Möglicherweise dachte Kachelmann aber – und hier haben wir für ihn sogar ein wenig Verständnis – zur Propagierung seines meteorologischen Beratungsunternehmens dem großen Professor in Klimasachen besser beizupflichten. Totaler Klimaskeptiker gegen den Mainstream zu sein ist vermutlich schlecht fürs Geschäft. Kachelmann vollzog seine Volte an zwei Fronten. Zum einen stellte er sich betont auf die Seite Schellnhubers mit dem Vorbehalt, von Klima nichts zu verstehen, ‚er sei schließlich nur Meteorologe‘. Das hinderte ihn jedoch nicht daran, klimatologischen und zugleich meteorologischen Unfug über die angeblich ansteigende Schwüle und Luftfeuchte in Deutschland zu erzählen.

Hier unsere Korrektur: Ein gebräuchliches Maß für „Schwüle“ ist die Relative Luftfeuchte. Und diesbezüglich beweisen Messungen des DWD das Gegenteil der Kachelmann-Schellnhuber(?)-Behauptungen. Dabei können die Messungen für Braunschweig (Bild 2) als repräsentativ für Norddeutschland und die von Potsdam (Bild 3) als repräsentativ für den Teil Deutschlands mit mehr kontinentalem Klima angesehen werden:

                    Bild 2: Relative Luftfeuchte in Braunschweig 1960-2010 

Die Daten von Potsdam zeigen Analoges (Bild 3)

          Bild 3: Relative Feuchte von Potsdam von 1890-2016 (Trend-Pfeil „rot“ eingefügt)

Eine weithin bekannte Publikation von Paltridge et al., Trends in middle- and upper-level tropospheric humidity from NCEP reanalysis data, erschienen in Theoretical and Applied Climatology (2009), berichtet über Auswertungen der weltweit verfügbaren Radiosonden-Messungen („Wetter-Ballone“) über 40 Jahre. Als Ergebnis zeigt diese Arbeit (als pdf hier) sogar über Deutschland hinaus global ebenfalls das Gegenteil der Kachelmann-Behauptung. Übrigens: Gemäß persönlicher Mitteilung eines Forst-Experten gegenüber den beiden Autoren des vorliegenden Beitrags setzt man jüngst vermehrt auf Laubbäume an Stelle von Nadelhölzern, weil erstere besser mit der „zunehmenden Trockenheit der Luft in Deutschland“ zurecht kämen. Die Klima-Hysterie hat die Forstwirtschaft erreicht !

Fazit:

Maischbergers Talkshow bot viel Lärm um nahezu NICHTS! Sie war aber zumindest ein Anfang hinsichtlich des Versuches, auch einmal kritische Stimmen zur Klima-Hysterie zu Wort kommen zu lassen. Ob sich die ARD noch einmal traut? Man darf das bezweifeln, denn wahrscheinlich ist etlichen Zuschauern klar geworden, dass die Klima-Alarmisten wie der berühmte Kaiser von Hans Christian Andersen herumlaufen – nämlich nackt. Sie haben keine Sachargumente, nur Phantasiegebilde. Und eine solche Erkenntnis darf/kann natürlich nicht im Interesse der neuen „Aktuellen DDR-Kamera“ namens „Staatsfernsehen ARD+ZDF“ sein. Andererseits: Wir sprechen den ehrlichen Wunsch an die ARD und auch das ZDF aus, Herr Schellnhuber möge – so oft es irgend geht – in Talkshows eingeladen werden. Wer solch einen „Freund“ der globalen Extremerwärmung hat, braucht keine „Klima-Skeptiker“ mehr als Feinde. Die von Schellnhuber unters Volk gestreuten Aussagen werden zunehmend als das erkannt, was sie sind – wissenschaftlich verbrämter grober sachlicher Unsinn.

S c h l i e ß l i c h   –  wie sagte schon Abraham Lincoln: „Man kann alle Leute einige Zeit zum Narren halten und einige Leute allezeit; aber alle Leute allezeit zum Narren halten kann man nicht.“

 




Klimafinanzierung: Deutschland als verantwortungsvoller Partner für die Welt in 2016 bei 10 Mrd. Euro – wie viele Brücken, Kitas oder Straßen könnten wir dafür bauen?

Originaltext des Bundesministerium für wirtschaftliche Zusammenarbeit

Der Klimawandel bedroht bereits heute die Entwicklung der ärmsten Länder. Und er wird künftige Fortschritte deutlich erschweren. Klimaschutz und Entwicklungspolitik sind darum untrennbar miteinander verbunden. Es ist ein wichtiger Bestandteil der deutschen Entwicklungszusammenarbeit, Entwicklungs- und Schwellenländer bei der Finanzierung von Maßnahmen zu unterstützen, die zur Reduzierung des Treibhausgasausstoßes und zur Anpassung an die Folgen des Klimawandels beitragen.

Die Entwicklungszusammenarbeit leistet einen wichtigen Beitrag dazu, das globale Ziel der „Dekarbonisierung“, also den Wandel hin zu einer kohlenstoffarmen Lebens- und Wirtschaftsweise, im Laufe des 21. Jahrhunderts zu erreichen. Dazu müssen die öffentlichen Mittel für Klimaschutz so eingesetzt werden, dass sie auf eine Verringerung des Schadstoffausstoßes und eine steigende Widerstandsfähigkeit gegenüber den Folgen des Klimawandels („Klimaresilienz“) hinwirken. Gleiches gilt für alle anderen Finanzflüsse, also auch für private Investitionen in allen Wirtschaftsfeldern, Finanzmarkttransaktionen und ausländische Direktinvestitionen. Dazu haben sich die Vertragsstaaten, darunter Deutschland, 2015 im Pariser Klimaabkommen verpflichtet.

Zusagen deutlich gesteigert

Deutschland hat seine Beiträge zur Klimafinanzierung in den vergangenen Jahren erheblich gesteigert. Insgesamt hat die Bundesregierung im Jahr 2016 Haushaltsmittel in Höhe von etwa 3,4 Milliarden Euro für Klimaschutz- und Anpassungsmaßnahmen zugesagt. 83 Prozent dieser Mittel kommen aus dem Haushalt des Bundesministeriums für wirtschaftliche Zusammenarbeit und Entwicklung (BMZ).

Zusätzlich zu den Geldern aus dem Bundeshaushalt kommen Mittel, die Deutschland auf dem Kapitalmarkt aufnimmt: So konnte die KfW Bankengruppe 2016 gemeinsam mit ihrer Tochtergesellschaft, der Deutschen Investitions- und Entwicklungsgesellschaft (DEG), weitere 5,2 Milliarden Euro in Form von Entwicklungs- und Förderkrediten, Beteiligungen und anderen Finanzierungen aus Kapitalmarktmitteln zusagen. Insgesamt summierten sich die öffentlichen Beiträge Deutschlands zur internationalen Klimafinanzierung 2016 damit auf 8,5 Milliarden Euro.

Nicht zuletzt mobilisierte die Bundesregierung auch private Klimafinanzierung, die sich derzeit insbesondere aus revolvierenden Kreditlinien an lokale (Entwicklungs-)Banken, Beteiligungen in strukturierten Fonds und Public-Private-Partnerships (PPP) zusammensetzt (2016 allein über die Deutsche Investitions- und Entwicklungsgesellschaft DEG: 1,4 Millionen Euro). Damit lag der deutsche Beitrag aus allen Quellen im Jahr 2016 bei rund zehn Milliarden Euro.

 

Deutschland setzt Maßstäbe

Die Industrieländer haben 2009 zugesagt, ab 2020 jährlich 100 Milliarden US-Dollar aus öffentlichen und privaten Quellen für den Klimaschutz und die Anpassung von Entwicklungsländern (134 Staaten – die korrupten Regierungen werden sich freuen = HH) an die Folgen des Klimawandels bereitzustellen. Diese Zusage haben sie bei den Klimaverhandlungen in Paris bestätigt und erweitert: Demnach soll vor 2025 ein Finanzierungsziel gesetzt werden, das noch über die 100-Milliarden-Dollar-Marke hinausgeht.

Im Jahr 2014 beliefen sich die Beiträge der Industriestaaten auf insgesamt rund 62 Milliarden US-Dollar. Um den Prozess voranzutreiben, hat Bundeskanzlerin Angela Merkel im Mai 2015 angekündigt, dass die Bundesregierung eine Verdopplung der deutschen Klimafinanzierung anstrebe: Bis 2020 soll sie auf jährlich vier Milliarden Euro anwachsen. Darüber hinaus wird die Bundesrepublik weitere Beiträge durch öffentliche Kredite (über KfW und DEG) sowie durch die Mobilisierung privater Mittel leisten.

Damit hat Deutschland Maßstäbe gesetzt: Im Oktober 2015 haben fast alle multilateralen Entwicklungsbanken und viele Staaten, unter anderem Frankreich und Großbritannien, angekündigt, ihre öffentlichen Beiträge zur Klimafinanzierung ebenfalls deutlich zu steigern. Mit diesem Zuwachs und den privaten Mitteln, die dadurch zusätzlich gewonnen werden können, ist das 100-Milliarden-Dollar-Ziel ab 2020 in greifbare Nähe gerückt.

 

Bilaterales Engagement

Der Schwerpunkt der deutschen Klimafinanzierung liegt auf der bilateralen Zusammenarbeit. Von 2013 bis 2016 entfielen hierauf 86 Prozent der für die Klimafinanzierung eingesetzten Haushaltsmittel. Der größte Teil dieses Geldes kommt aus dem Haushalt des BMZ.

Das Entwicklungsministerium unterstützt in fast allen seinen Partnerländern Vorhaben zum Klimaschutz und zur Anpassung an die Folgen des Klimawandels. Das Engagement baut auf den Bestrebungen der Partnerländer auf, den Klimaschutz in ihre nationalen Entwicklungsstrategien einzubinden. Darüber hinaus unterstützt das Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB) umfassende Klimaschutzmaßnahmen über die Internationale Klimaschutzinitiative (IKI). Auch das Bundeswirtschaftsministerium, das Bundesministerium für Bildung und Forschung und das Auswärtige Amt tragen zur deutschen Klimafinanzierung bei.

Die bilaterale Klimafinanzierung wird für die Bereiche Anpassung an den Klimawandel, Minderung von Treibhausgasemissionen sowie Wald- und Biodiversitätsschutz inklusive REDD+ eingesetzt.

 

Multilaterales Engagement

Für Veränderungen in großem Maßstab sind multilaterale Organisationen wichtige Partner: Sie verwirklichen in Entwicklungs- und Schwellenländern Programme mit großem Umfang und können Leistungen verschiedener Geber koordinieren. Multilaterale Institutionen spielen häufig auch eine entscheidende Rolle im Politikdialog auf nationaler und internationaler Ebene. Deshalb ergänzt das BMZ sein bilaterales Engagement im Klimabereich durch eine ehrgeizige multilaterale Zusammenarbeit. Als engagierter Partner bringt es die Positionen und Werte der deutschen Entwicklungszusammenarbeit in internationale Institutionen ein.

Gemeinsam mit den multilateralen Entwicklungsbanken arbeitet das BMZ daran, die Rahmenbedingungen für eine wirksame Klimapolitik zu verbessern. Insbesondere bei der Umlenkung der globalen Finanzströme hin zu Investitionen in Emissionsminderung und Klimaresilienz können die multilateralen Banken globale Vorreiter werden. Dafür müssen sie den Klimawandel bei all ihren Aktivitäten als Querschnittsthema berücksichtigen. Unter anderem hat sich das BMZ erfolgreich dafür eingesetzt, dass die Internationale Entwicklungsorganisation (International Development Association, IDA), das Finanzierungsinstrument der Weltbank für die ärmsten Länder, die Themen Klimaschutz und Anpassung an den Klimawandel in ihrem Kerngeschäft verankert.

Darüber hinaus leistet Deutschland bedeutende finanzielle Beiträge zur multilateralen Klimafinanzierung. So ist das BMZ bei der Globalen Umweltfazilität (Global Environment Facility, GEF) nach Japan und den USA (???) drittgrößter Geber. Beim Least Developed Countries Fund, dem Fonds der GEF für die ärmsten Länder, und dem Special Climate Change Fund hat das BMZ bisher am meisten einbezahlt.

 

Grüner Klimafonds

Das zentrale Instrument der multilateralen Klimafinanzierung ist der Grüne Klimafonds (Green Climate Fund, GCF). An seinem Aufbau beteiligt sich das BMZ inhaltlich, finanziell und personell. Ziel des GCF ist es, den Wechsel zu einer emissionsarmen nachhaltigen Entwicklung voranzutreiben. Dazu werden Programme unterstützt, die eine kohlenstoffarme Wirtschaftsentwicklung zum Ziel haben oder einen wesentlichen Beitrag zur Anpassung an den Klimawandel leisten. Darüber hinaus soll der GCF die Privatwirtschaft dazu motivieren, zusätzliche Mittel in Minderungs- und Anpassungsmaßnahmen zu investieren.

Für die Erstauffüllung des Fonds hat Deutschland einen Beitrag von 750 Millionen Euro bereitgestellt. Diese Mittel werden vollständig dem BMZ-Haushalt entnommen. Im Zuge der Wiederauffüllung des GCF plant Deutschland, erneut einen signifikanten Beitrag zu leisten.

 

Klimagelder wirkungsvoll einsetzen: das „Climate Finance Readiness“-Programm

Für die Anpassung an den Klimawandel und die Minderung von Treibhausgasemissionen stehen immer mehr Mittel zur Verfügung. Dennoch haben viele Entwicklungsländer Schwierigkeiten, Zugang zu Geldern der internationalen Klimafinanzierung zu erlangen oder sie wirkungsvoll einzusetzen. Dies betrifft insbesondere die ärmsten und kleinsten Staaten mit schwachen staatlichen Kapazitäten, beispielsweise die vom Klimawandel besonders stark betroffenen kleinen Inselstaaten. Hier setzt das „Climate Finance Readiness„-Programm (CF Ready) des BMZ an. Es unterstützt Länder dabei, organisatorische, technische und personelle Kapazitäten aufzubauen, um internationale Gelder, etwa aus dem Grünen Klimafonds (GCF), beantragen und strategisch nutzen zu können.

Die KfW Entwicklungsbank und die Deutsche Gesellschaft für Internationale Zusammenarbeit (GIZ) führen das CF-Ready-Programm gemeinsam durch. Seit 2014 erhält die GIZ dafür auch finanzielle Unterstützung der US-amerikanischen Entwicklungsagentur (USAID) sowie des tschechischen Umweltministeriums. Die GIZ ist seit Anfang 2017 auch als Umsetzungspartner des „Readiness and Preparatory Support Programme“ des GCF tätig.

Das CF-Ready-Programm kooperiert eng mit den Sekretariaten der großen Klimafonds, zum Beispiel dem GCF-Sekretariat und dem Adaptation Fund. Es arbeitet in folgenden 13 Ländern: Bangladesch, Grenada, Jamaika, Kambodscha, Marokko, Namibia, Peru, Sambia, Südafrika, Tadschikistan, Tansania, Uganda und Vietnam. Readiness-Mittel des GCF setzt die GIZ in Bangladesch, Georgien, Thailand und Vanuatu um, weitere Länder werden hinzukommen. Auch über die KfW können künftig noch mehr Länder Unterstützung erhalten.

 

Klimazahlen konkret – Methodik der BMZ-Berichterstattung

Seit 2011 errechnet das BMZ die Höhe der bilateralen Mittel im Klimabereich anhand der sogenannten Klimakennungen („Rio-Marker“) der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD). Dabei wird zwischen den Klimakennungen „Minderung von Treibhausgasen“ und „Anpassung an den Klimawandel“ unterschieden.

Die Rio-Marker können drei Ausprägungen haben: Bei Ausprägung „2“ ist die Minderung von Treibhausgasen beziehungsweise die Anpassung an den Klimawandel ein Hauptziel des Vorhabens. Das Finanzvolumen wird zu 100 Prozent dem jeweiligen Klimabereich zugeordnet. Bei Ausprägung „1“ ist die Minderung von Treibhausgasen oder die Anpassung an den Klimawandel ein Nebenziel des Vorhabens. Das Finanzvolumen wird dann zu 50 Prozent dem jeweiligen Klimabereich zugeordnet. Ist die Ausprägung „0“, leistet das Vorhaben keinen entscheidenden Beitrag zu diesen Zielen. Die Mittel werden daher nicht auf die Klimafinanzierung angerechnet. Damit weicht die Bundesrepublik vom Vorgehen der OECD ab, die klimarelevante Vorhaben auch dann in vollem Umfang berücksichtigt, wenn der Klimaschutz oder die Anpassung an den Klimawandel nur Nebenziel ist.

Wie international üblich, berichtet das BMZ im Bereich der bilateralen Klimafinanzierung jährlich über die Höhe seiner Zusagen. Für die multilaterale Klimafinanzierung werden die Auszahlungen kommuniziert. Die Beiträge aus dem Energie- und Klimafonds und dessen Nachfolgetitel werden im Einvernehmen mit dem Bundesumweltministerium ebenfalls als Auszahlungen in die Berichterstattung aufgenommen.

Seit 2014 veröffentlicht das BMZ auch die anrechenbaren klimarelevanten Beiträge („imputed climate relevant contributions„), die sich aus den deutschen Einzahlungen in entsprechende Fonds der Internationalen Entwicklungsorganisation (IDA) der Weltbank, der Afrikanischen Entwicklungsbank (AfDB) und der Asiatischen Entwicklungsbank (ADB) ergeben. Diese Fonds hatten Ende 2014 erstmals bekanntgegeben, welcher Anteil ihres Engagements der Klimafinanzierung zugutekommt. Im Rahmen der OECD wurde vereinbart, diese Anteile für die Ermittlung klimarelevanter Einzahlungen in die Fonds zu nutzen. Auch die Globale Umweltfazilität (GEF) gibt einen solchen Anteil bekannt. Dadurch hat sich auch für die GEF der Anteil der deutschen Einzahlungen, die als klimarelevant einzustufen sind, geändert.

Seit dem Jahr 2015 berichtet das BMZ in seinen tabellarischen Darstellungen auch projektgenau über die von der KfW mobilisierten öffentlichen Klimafinanzierungsmittel. Dabei wird das Volumen der Entwicklungskredite abzüglich der enthaltenen Zinssubventionen aus Haushaltsmitteln dargestellt, um Mehrfachanrechnungen auszuschließen. Aufgrund des Bankgeheimnisses dürfen dabei die in den einzelnen Entwicklungskrediten enthaltenen Subventionselemente nicht veröffentlicht werden. Daher wird die Summe der pro Region eingesetzten Zinssubventionsmittel jeweils als Gesamtzahl berichtet. Für die von der DEG mobilisierte öffentliche Klimafinanzierung sind Angaben zur Klimafinanzierung pro Region enthalten.




Ende der „Energiewende“ in USA?

Der Vorstoß von Rick Perry

Vereinfachend gesagt, kann der Präsident der USA über seinen „Secretary of Energy“ Dienstanweisungen erlassen. Letztendlich sind dagegen Einsprüche innerhalb von 60 Tagen durch berufene Stellen möglich, sonst treten sie in Kraft. Ein durchaus mächtiges Werkzeug, um den Senat und das Repräsentantenhaus vor sich her zu treiben. Rick Perry hat dieses Werkzeug am 28. September 2017 eingesetzt, um damit indirekt gegen die Subventionen von Wind und Sonne vorzugehen. Die Problematik in den USA ist ganz ähnlich zu der in Deutschland: Die subventionierten Umgebungsenergien Wind und Sonne belasten das Stromnetz und treiben mit ihren Dumpingpreisen konventionelle Kraftwerke in den Ruin. Je weniger konventionelle Kraftwerke am Netz sind, desto instabiler wird das gesamte Versorgungssystem und ein großräumiger Zusammenbruch ist unvermeidbar. Dies gefährdet die „Nationale Sicherheit“. Ein Argument, dessen sich kein Politiker in den USA verschließen kann. Der Tanz ist damit eröffnet: Physik gegen Ideologie.

Der Kernsatz

Affordable, Reliable and Resilient [Anmerkung: Die Fachbegriffe werden noch ausführlich beschrieben und diskutiert] elektrische Energie ist überlebenswichtig für die Wirtschaft und die nationale Sicherheit der Vereinigten Staaten und ihrer Einwohner.

Das sind die klaren und eindeutigen Aussagen, wegen deren Donald Trump zum Präsidenten gewählt wurde. In Deutschland von linken Schwadroneuren gern als Populismus abgestempelt. Kein ewiges Rumgeeiere, sondern eine eindeutige Festlegung des eigenen Standpunktes. Früher nannte man so etwas Verantwortung übernehmen und meinte damit eher eine Tugend. Keine esoterischen oder religiösen Begründungen a la „Klimakatastrophe“ für die eigene Bereicherung oder den Drang zur Gesellschaftsveränderung, sondern nachvollziehbare und für jeden verständliche Argumente. Würde doch mal im Deutschen Bundestag jemand den Ökosozialisten einen solchen Satz entgegenhalten. Es wäre schön zu sehen, wie sie darüber hinwegschwafeln müßten.

Affordable Electricity

Bezahlbare Energie. Mit der Übersetzung ist es so eine Sache: Hier schwingt für jeden Amerikaner auch noch erschwinglich, kostengünstig, leistbar, zu angemessenen Preisen, im Hinterkopf mit.

Elektrische Energie ist die Schlüsselgröße einer jeden modernen Gesellschaft. Ohne Strom geht weder im Privathaushalt noch in irgendeinem Unternehmen etwas. Stromkosten wirken wie eine Umsatzsteuer auf alle Produkte: Nicht nur zum Betrieb eines Fernsehers, nein auch schon zu seiner Herstellung, war sie nötig. Das ist der perfide Grund für die sozialistische Lehre von (notwenigen) hohen Strompreisen zum „Energiesparen“. Es gibt kaum eine Steuer oder Gebühr, mit der man das eigene Volk besser aussaugen kann. Energiesparen ist lediglich eine Verniedlichung für Konsumverzicht und Entbehrung.

Aber damit immer noch nicht genug: Wenn man funktionierende Kraftwerke in den Ruin treibt, ist das nichts anderes als „Kapitalvernichtung“. Jeder redet von Kapitalvorsorge für das Alter – Deutschland enteignet entschädigungslos Kernkraftwerke und vernichtet dadurch Milliarden an Anleihe- und Aktienvermögen. Jeder Sozialist schwafelt von zusätzlichen staatlichen Investitionen in Infrastruktur als Zukunftsfürsorge – Deutschland treibt nagelneue kommunale Gas- und Kohlekraftwerke in die Pleite. Für die Staatsverschuldung, die zu ihrem Bau notwendig war, wird auch noch die zukünftige Generation zahlen.

Bevor sich jetzt auch noch die Jünger der Försterlehre von der „Nachhaltigkeit“ bemüssigt fühlen: Man kann nur jeden Euro einmal ausgeben. Was wäre, wenn man die Milliarden, die man in die „Reichskrafttürme“ etc. gesteckt hat, tatsächlich in Bildung, „Digitalisierung“ usw. investiert hätte? Fehlinvestitionen sind auch immer verschenkte Chancen anderer.

Reliable Electricity

Betriebs- und Versorgungssicherheit. In den USA werden alle Energieträger (Kohle, Öl, Gas und Uran) in großen Mengen – anders als in Deutschland – selbst gefördert und ihre Anwendungsenergien in eigenen Anlagen (Raffinerien, Anreicherungsanlagen, Brennelementefabrik etc.) hergestellt. Hinzu kommt eine eigene leistungsfähige Industrie, die die dafür notwendigen Anlagen baut und entwickelt.

In Deutschland wird die entsprechende Industrie systematisch zerstört und das Fachwissen ins Ausland verramscht. Noch nie, war Deutschland in seiner Geschichte so abhängig von der Energieversorgung aus dem Ausland. Schröder, der als Kanzler den Ausstieg aus der Kernenergie gepredigt hat und heute seine Rendite als Gasmann bei Putin einfährt, ist wahrlich nur die Spitze des Eisbergs. Phänomenal ist nur, wie sich hier der Wähler den Weg zurück ins Mittelalter als Zukunft verkaufen läßt. Im Gegenteil, wenn Michel eine überbezahlte Telepromter-VorleserIn in den Tagesthemen etc. erzählt, daß alle Wähler in den USA Deppen sind, kommt er sich auch noch überlegen vor. Werden schon sehen, diese rückständigen Amerikaner, wo sie bleiben, wenn die Kanzlerin erstmal die Wunderwaffe Speicher und Elektromobil hat. Ehrlich gesagt, ich kann es nicht mehr hören, wenn Politiker, die Mathematik und Physik karrierefördernd abgewählt haben, immer vom-Vertrauen-in die-Kunst-unserer-Ingenieure faseln.

In den USA ist der Begriff Versorgungssicherheit durchaus enger zu fassen. Dort wird darunter eher die Sicherstellung der Versorgung bei Naturkatastrophen verstanden. Krieg, Terror und Boykott sind eher Abfallprodukte dieser Sicherungsmaßnahmen. Genau in diesem Punkt setzt Perry den Hebel an. Er bezieht sich ausdrücklich auf den „Polar Vortex“ und die Wirbelstürme über der Golfküste. Bei dem Kälteeinbruch im Jahre 2014 hing die Stromversorgung im gesamten Norden nur noch am seidenen Faden. Sie konnte nur noch durch die Kernkraftwerke (Arbeitsverfügbarkeit 95%) und das Wiederanfahren von Kohlekraftwerken, die bereits in der Stilllegung waren, aufrecht erhalten werden. Wind und Sonne gab es wegen schlechtem Wetter nicht und das Erdgas war knapp, weil alle Heizungen wegen der geringen Temperaturen ebenfalls mit voller Leistung liefen. Beim letzten Hurricane in Texas gingen sogar die Kohlekraftwerke in die Knie: Die Kohlenhalden hatten sich durch den sintflutartigen Regen in Matsch verwandelt, der die Förderanlagen außer Betrieb setzte. Einzig das Kernkraftwerk in der Matagorda Bay – gerade hier ging der Hurricane an Land – hielt seine Produktion aufrecht. Man hatte sich mit 250 Mann Betriebspersonal eingeschlossen und tapfer weiter produziert. Fukushima sei Dank. Die Resultierenden Nachrüstungen zum „U-Boot“ haben sich im unfreiwilligen Praxistest voll bewährt.

Perry nutzt diese beiden Fälle geschickt, um die Bedeutung von Kernenergie und Kohlekraftwerke für die Versorgungssicherheit eines Stromnetzes nachzuweisen. Er fordert für Kraftwerke, die für 90 Tage Brennstoff auf ihrem Gelände bevorraten können, eine zusätzliche Vergütung. Wir erinnern uns: Die Kernkraftwerke und die Kohlekraftwerke sind nur durch die hohen Subventionen für Wind und Sonne unrentabel geworden. Erdgaskraftwerke haben die geringsten Investitionskosten bei (momentan) auch noch niedrigen Brennstoffpreisen. Die Brennstoffpreise sind aber nur dann günstig, wenn sie außerhalb der Heizperiode betrieben werden. Eigene Speicher für Erdgas würden den Kostenvorteil sehr schnell umkehren. Politisch sehr geschickt ist die Forderung nach zusätzlichen Zahlungen für Kohle- und Kernkraftwerke. Die Forderung, die Subventionen für Wind und Sonne aufzugeben, würde sofort den Aufstand der Schlangenölverkäufer provozieren, die sofort ihre militanten Helfer auf die Straße schicken würden. Die Sachargumente würden in den Straßenkämpfen untergehen. Kann sich noch jemand an das ist-politisch-nicht-durchsetzbar von Gorleben erinnern? Fallen zusätzliche Kosten an, muß man die Frage stellen, wer dafür aufkommen soll. Die Verbraucher zu belasten, verstößt gegen „Affordable Electricity“. Vielleicht Ausgleichszahlungen der Schlangenölverkäufer? Dies würde schnell zum Zusammenbruch zahlreicher „Wind-Fonds“ führen. Die anstehende Debatte in den USA verspricht interessant zu werden.

Schlau war auch, erstmal den Pulverdampf über den „Klimaausstieg“ abziehen zu lassen und die Kohlenindustrie durch die Einstellung des „Kriegs gegen die Kohle“ zumindest neutral zu stellen. Jetzt kann man die Diskussion über die Kernenergie mit der Versorgungssicherheit wieder neu beleben.

 

Resilient Electricity

 

Dieser Ausdruck ist am schwersten zu übersetzen. Gemeint sind die Konsequenzen aus den Kirchhoffschen Regeln: Die Einspeisung elektrischer Leistung muß stets genau gleich dem Verbrauch sein. Ist das nicht der Fall, geraten Spannung und Frequenz augenblicklich außer Kontrolle und das Netz bricht in kürzester Zeit zusammen. Früher hatte der „Vertikale Energiekonzern“ die Sache fest im Griff. Alle Kraftwerke und das Stromnetz lagen in eigener Verantwortung und waren aufeinander abgestimmt. Störungen gab es praktisch nur durch das Versagen eigener Anlagen.

Durch die Förderung von Umweltenergien und den Vorrang für ihren Ausbau und die Einspeisung ist das System „Stromversorgung“ absehbar aus den Fugen geraten. Nun hat man den unzuverlässigsten Lieferanten im System, den man sich überhaupt vorstellen kann: Das Wetter. Nachts ist es dunkel, im Winter sind die Tage kürzer und Wolken dämpfen die Sonneneinstrahlung. Die Verfügbarkeit läßt sich mit Uhr, Kalender und Wetterbericht noch einigermaßen vorhersagen. Wie aber die letzte Sonnenfinsternis in den USA eindrucksvoll gezeigt hat, sind die Grenzen für das System bereits erreicht. Innerhalb von Minuten sind zig Megawatts verschwunden, um nach dem Sonnendurchgang ebenso schnell wieder anzuliegen. Solche massiven und schnellen Störungen sind nur durch konventionelle Kraftwerke auszuregeln.

Nicht viel anders, wenn nicht sogar schlimmer, sieht es mit dem Wind, dem himmlischen Kind, aus. Die Leistung eines Windrades ändert sich mit der dritten Potenz der Windgeschwindigkeit. Mit anderen Worten: Wenn sich die Windgeschwindigkeit verdoppelt, nimmt die Leistung um das acht-fache zu. Sturm mit Orkanböen ist ein einziger Albtraum für jeden Netzbetreiber. Auch das hat der letzte Hurricane in Texas eindrucksvoll gezeigt: Erst stieg die Stromproduktion steil an, dann brach die Windstromerzeugung urplötzlich in sich zusammen, weil der Wind zu stark geworden war und die Mühlen aus dem Wind gedreht werden mußten.

Ohne konventionelle Kraftwerke gibt es keine Nutzung der Umweltenergien. Dies gilt nicht nur für die Versorgung bei Dunkel-Flaute, sondern schon im „Normalbetrieb“. Die Schwankungen von Wind (Bö) und Sonnenschein (Wolke) sind so schnell, daß nur die Rotation von großen Turbosätzen sie ausgleichen kann. Eine Vollversorgung durch Wind und Sonne ist physikalisch unmöglich. Sprüche wie: Irgendwo weht immer der Wind oder Kohlenstrom verstopft die Netze, sind daher nichts weiter als tumbe Propaganda. Viel schlimmer, bisher wurde die Dienstleistung Netzstabilität kostenlos für die Betreiber von Windparks und Sonnenfarmen erbracht. Je mehr Kohle- und Kernkraftwerke einfach aufgeben, um so schlimmer wird die Situation. Man muß es so deutlich sagen, Betreiber von Windkraftanlagen und Sonnenkollektoren sind Schmarotzer. Es wird höchste Zeit, daß sie die für sie erbrachten Dienstleistungen auch bezahlen. Diese wären nämlich gar nicht nötig, wenn es sie und ihre politisch gewollten Privilegien nicht geben würde.

Die Ironie – jedenfalls für deutsche „Atomkraftgegner“ – liegt nun darin, daß gerade Kernkraftwerke die schnellsten Laständerungen von allen Kraftwerken bereitstellen können. Wer mehr Wind und Sonne will, kann auf Kernkraftwerke in seinem Versorgungsgebiet nicht verzichten. Diese Erkenntnis greift schon in vielen Bundesstaaten in den USA. Wer mit Steuervergünstigungen den Bau von Windfarmen anfacht, muß im nächsten Schritt auch Subventionen für den Erhalt der Kernkraftwerke bereitstellen. Ein Irrsinn, der sich immer schwerer politisch verkaufen läßt. Die Trump-Administration streut mit ihrer Initiative deshalb gezielt Salz in diese Wunde. Man kann sich schon jetzt darauf freuen, wie Spiegel und das Zwangsgebühren-Fernsehen geifern werden. Nachdem der Braunkohlenstrom die Netze verstopft hat, müssen nun auch noch die unwirtschaftlichen „Atomkraftwerke“ subventioniert werden. Es ist keine Lüge zu dreist, als daß sie der Deutsche Michel nicht fressen würde und er wird ganz gewiss auch diesmal wieder brav auf die Wunderwaffen warten. Wenn die Kanzlerin erstmal ihre Speicher und E-Mobile hat, ist der Endsieg in der großen Transformation nicht mehr weit.

Zusammenfassung

Vom Wetter bestimmte elektrische Energie ist wertlos. Im Mittelalter wurde gemahlen, wenn der Wind wehte und gesegelt, wenn keine Flaute war. Wer den Lehren von Pol Pot anhängend, den Aufbau des Sozialismus über einen Rückschritt in das vorindustrielle Zeitalter machen zu wollen, ist deshalb mit dem Ausbau der „Regenerativen Energien“ zielstrebig auf seinem Kurs. Eine Zivilisation benötigt aber den „Strom aus der Steckdose“ – jederzeit ausreichend verfügbar, ausschließlich nachfrageorientiert.

Schluß mit Dumpingpreisen. Unter Dumping versteht man den Verkauf eines Produkts unter den Gestehungskosten. Schon die DDR war mit dem Verkauf ihrer Waren unter Selbstkosten (Devisenknappheit) wenig erfolgreich. Die Kosten von Wind- und Sonnenstrom entsprechen aber (mindestens) den zugewiesenen und garantierten Vergütungen nach dem EEG. Eindrucksvoll zeigen die erzielten Preise an der Strombörse ihren tatsächlichen Wert. Inzwischen werden schon negative Preise (gleichbedeutend mit Entsorgungsgebühren für den Abfall) erzielt.

Schluß mit der Planwirtschaft. Eine moderne Volkswirtschaft kann nicht ohne ein komplettes Backup aus konventionellen Kraftwerken funktionieren. Auch bei Dunkel-Flaute muß der Strom erzeugt werden, der gerade nachgefragt wird – oder es geht gar nichts mehr. Insofern kann der tatsächliche Wert von Umweltenergie nur den Brennstoffkosten konventioneller Kraftwerke entsprechen. Alle Kosten, die durch die „Erneuerbaren“ entstehen, müssen darüberhinaus ausschließlich diesen angerechnet werden: Kosten für Transportleitungen, Regelenergie etc. Die Sonne schickt zwar keine Rechnung, aber jeder Hersteller muß den Transport bezahlen, um erstmal seine Ware zum Verbraucher zu bringen, muß die Ware sicher verpacken usw. Erst wenn all diese Kosten eingerechnet sind, ergibt sich der notwendige Mindestverkaufspreis seines Produkts. Würde man diese Regeln der Realen Welt auf die Welt der Sonnen- und Windbarone anwenden, wäre der ganze Spuk sehr schnell vorbei.

Aber halt, natürlich wäre es dann auch mit der „Großen Transformation“ vorbei und was soll dann aus all den Scharlatanen werden, die bisher trefflich davon lebten? Was hat Donald Trump versprochen? „Ich will euch euer Land zurückgeben.“ Vielleicht liegt es daran, daß ihn gewisse Kreise so hassen. „Grid Resiliency Pricing Rule“ ist jedenfalls ein weiterer (kleiner) Schritt in diese Richtung. Fast (noch) unbemerkt von den Medien.

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Was die Monopolkommission unterlässt!

Auf Wissenschaftler und Experten mit Scheuklappen sollte man sich lieber nicht verlassen. Nur Scheuklappen für Pferde haben ihre Berechtigung: Die Vierbeiner sollen nur das von Reiter oder Kutscher vorgegebene Ziel antraben, Scheuklappen sie bekanntlich davon nicht ablenken. Aber Wissenschaftler und Experten sind keine Pferde, sondern wichtige Ratgeber. Wenn nämlich Sie ein Ziel ansteuern, sollten sie über den Horizont ihres begrenzten Fachgebietes hinausblicken können, auch andere wissenschaftliche Disziplinen im Blick haben und bedenken, ob das Ziel, das sie als Ratgeber anzusteuern beauftragt sind, auch wirklich sinnvoll ist. So zu verfahren, ist umso wichtiger, je mehr die Spezialisierung auch in den Wissenschaften immer weiter ausufert und Detail-Wissen wichtiges Allgemein-Wissen zurückdrängt. Blicke über den Zaun ihres verengten Fachgebietes zu werfen, wäre auch der deutschen Monopolkommission anzuraten. 

Den Kernpunkt der Kritik an der Energiewende lässt die Monopolkommission aus

Neulich hat diese Kommission*) der staatlichen Energiewende-Politik ein schlechtes Zeugnis ausgestellt. Sie tut das in ihrem Sondergutachten zur Energiepolitik, das  sie alle zwei Jahre vorlegt.**) Dabei beanstandet sie die Energiewende allerdings nicht grundsätzlich, obwohl diese Politik staatliche Intervention pur ist: Die Energiewende-Politik schaltet in der Stromerzeugung den Wettbewerb zwischen den Energieträgern aus und beglückt die Erzeuger von Wind-, Solar- und Biogasstrom mit hohen Subventionen, diktiert auf diese Weise die Strompreise und treibt sie nach oben. Subventionen und Preisdiktat sind nicht Wettbewerb. Sie fördern den Wettbewerb nicht, sie zerstören ihn. Eben in diese Wunde der Energiewende müsste die Monopolkommission den Finger legen. Das aber tut sie nicht.

Verfangen im interventionistischem Klein-Klein – Funktionsfähiger Wettbewerb sieht anders aus

Stattdessen befasst sie sich damit, wie der Staat mit seiner Intervention die Energiewende effizienter hinbekommt. Sie kritisiert herum an der Ausführung, bemängelt die Ausschreibungen der Kommunen für Gas- und Stromleitungen, kritisiert die Menge an Regulierungen, Zielen und Steuerungswirkungen als nur noch schwer überschaubar, mahnt das konsequente Vermeiden von CO2-Emissionen an, wirft dem Gesetzgeber Stückwerk vor, hantiert an allen möglichen Stellschrauben, gibt überaus zahlreiche Handlungsempfehlungen. Kurzum, so, wie sich der Staat mit seiner unsäglichen Energiewende-Bürokratie im Regelungsdickicht verfangen hat, das immer neuen Höhepunkten zustrebt – wie das bei staatlichen Interventionen üblicherweise der Fall ist und es der Wirtschaftswissenschaftler Ludwig von Mises schon in den 1930er Jahren dargestellt hat – so verliert sich in diesem interventionistischem Klein-Klein auch die Monopolkommission. Funktionsfähiger Wettbewerb, für den sie eintreten soll, sieht anders aus. Von der Monopolkommission muss der Bürger erwarten, dass sie wettbewerbspolitisch verfehlte Gesetzgebung nicht mit Ratschlägen zur besseren Anwendung unterstützt, sondern sagt, dass sie wettbewerbspolitisch verfehlt ist.

 

Was die Monopolkommission fahrlässig versäumt

Die Klimaschutzpolitik, mit der die Wende zum „Ökostrom“ offiziell politisch begründet wird, stellt die Monopolkommission nicht infrage, nimmt sie (fahrlässig) als gegeben hin. Man mag einwenden, es sei doch auch nicht ihre Aufgabe, darüber zu befinden, ob das anthropogene CO2zu höheren Temperaturen auf der Erde führt und daher das gegenwärtige Klima zu „schützen“ ist. Gewiss, das soll sie nicht und kann sie nicht. Aber andere können das: Naturwissenschaftler. Das Wenigste aber, was auch die Mitglieder der Monopolkommission in den vielen Jahren mitbekommen haben müssen, ist, dass diese CO2-Erwärmungsthese wissenschaftlich alles andere als einhellig geteilt wird, nicht bewiesen und damit zumindest umstritten ist.***)  Was bestritten ist, ist nicht unumstößlich belegt. Was nicht belegt ist, darf nicht zu einer Politik werden, die ruinöse Folgen hat.

Worauf die Monopolkommission wenigstens hinweisen müsste

Wenn sie das also wissen und sich zusätzlich kundig machen können, dann müssen sie sich – gerade weil sie  Ökonomen und Unternehmensführer sind – klarmachen können, dass man auf unbewiesene, umstrittene Thesen keine so leichtsinnige, folgenschwere und super-teure Politik wie die der Energiewende aufbauen darf. Und würden sie sich zusätzlich kundig machen, dann würden sie sogar darauf stoßen, dass dieses Ökostrom-Trara sehr wahrscheinlich aus ganz anderen Gründen stattfindet, als die Erde vor (vorgeblich) anthropogener Erwärmung zu schützen. Die Monopolkommission hätte also Grund und Verpflichtung genug, auf diesen Leichtsinn und diese Folgenschwere wenigstens hinzuweisen und so die Fragwürdigkeit der Energiewende öffentlich zu machen. Auf gute und unwiderlegliche Gründe gegen den Strom aus „erneuerbaren“ Energien (EE-Strom) kann sie sich dabei berufen, vor allem auf diese:

Die fünf naturgesetzlich bedingten Hauptmängel der Energiewende

1. Wind und Sonnenlicht haben eine viel zu geringe Energiedichte. Das heißt: Um sie zu nutzen, ist zwangsläufig ein riesiger Flächenbedarf nötig mit zigtausenden Windkraft- und Fotovoltaik-Anlagen. Das gilt ebenso für den Energiepflanzenanbau zur Herstellung von „Biogas“.  (Näheres zur Energie- oder Leistungsdichte hier).

2. EE-Strom ist unzuverlässig. Denn Wind und Sonne scheinen, wann sie wollen, und nicht, wann sie sollen. Sie erzeugen daher nur wetterabhängigen Zufallsstrom, auch Wackelstrom genannt. Daran ändert sich auch dann nichts, wenn immer mehr EE-Anlagen in Betrieb gehen. Sie sind ebenso unsicher sind wie weniger Anlagen Denn es gibt Wetterlagen, in denen alle Anlagen überhaupt keinen Strom erzeugen, unabhängig davon, wieviele es sind. Denn 26 500 Anlagen liefern bei Windstille genauso wenig Strom wie 170 000, nämlich Null. Das Gleiche gilt für Solaranlagen mit ihrem Strom aus Sonnenschein. Wasserkraft lieferte  2016 nur 3,3 Prozent des Bruttostroms, und ein weiterer Ausbau ist in Deutschland nicht möglich.

3. Wetterabhängiger Zufallsstrom bedeutet schlechte Regelbarkeit. Dadurch kann man mit ihm die erforderliche Netzstabilität nicht sicherstellen – im Gegensatz zu Kohle-, Gas- und Kernkraftwerken. Nur diese drei Letztgenannten vermögen es, die Soll-Netzfrequenz von 50 Hertz stabil zu halten. Schon bei einer Abweichung von 0,2 Hertz von der Sollfrequenz besteht die Stromausfall-Gefahr, kann es zappenduster werden. Daher ist Zufallsstrom nicht grundlastfähig, also nicht in der Lage, den jeweiligen Strombedarf jederzeit sicherzustellen.

4. Der Nutzungsgrad von EE-Strom ist zu gering. Bei Windkraftanlagen liegt er bei knapp 20 Prozent ihrer Nennleistung, bei Solaranlagen (Fotovoltaik) um 10 Prozent. Das heißt: Diese „Stromfabriken“ stehen zwischen 80  und 90 Prozent der Zeit eines Jahres still. Das ist Verschwendung pur.

5. Strom ist in der nötigen Größenordnung nicht direkt speicherbar. Was die Verbraucher an Strom gerade abfordern, muss sekundengenau in der gleichen Menge auch erzeugt werden. Oder umgekehrt formuliert: Strom muss, sowie erzeugt, auch sofort verbraucht werden – innerhalb einer Zehntel Sekunde. Wenn Wind und Sonne mehr Strom erzeugen, als gerade benötigt wird und der Überschuss nicht im Ausland unterzubringen ist, müssen die EE-Anlagen abgestellt werden. Technische Tricks, diesen Strom indirekt zu speichern, indem man die elektrische Energie zum Beispiel in gasförmige Energie (Methan) umwandelt (Power-to-Gas-Verfahren), haben einen extrem schlechten Wirkungsgrad, bei dem drei Viertel der Energie verloren gehen. Sie sind daher unglaublich teuer, also sehr unwirtschaftlich. Rein technisch ist zwar vieles möglich, aber nicht alles technisch Mögliche ist auch sinnvoll und bezahlbar.

Für die Stromverbraucher ist das Gutachten letztlich so gut wie wertlos

Diese fünf Mängel sind naturgesetzlich bedingt. Sie hängen dem EE-Strom unausweichlich und unwiderleglich an wie ein schwerer Klotz. Es sind daher inhärente Mängel. Schon sie allein genügen, um von der Stromerzeugung mittels Wind und Sonne  die Finger zu lassen. Trotzdem tun Bundesregierung, Politiker aller Altparteien und die Profiteure der Energiewende-Politik so, als gäbe es diese Naturgesetzlichkeit nicht. An dieser Missachtung wird die Energiewende letztlich auch scheitern. Aber erst nach horrenden Kosten für Bürger, Unternehmen und Volkswirtschaft. Da dies die Folge des zerstörten Wettbewerbs in der Stromerzeugung ist, ist das Sondergutachten für Stromverbraucher letztlich so gut wie nichts wert.

____________________________________________________________________________

*) „Die Monopolkommission besteht aus fünf Mitgliedern, die über besondere volkswirtschaftliche, betriebswirtschaftliche, sozialpolitische, technologische oder wirtschaftsrechtliche Kenntnisse und Erfahrungen verfügen müssen.“ (hier). Beraten soll sie Bundesregierung und Gesetzgeber zur  Wettbewerbspolitik, zum Wettbewerbsrecht und zur staatlichen Regulierung. Im Wesentlichen geht es darum zu beobachten und zu untersuchen, wie es um den Wettbewerb bestellt ist, und zur Wettbewerbsentwicklung Stellung zu nehmen.

**) Sondergutachten 77: Energie 2017: Gezielt vorgehen, Stückwerk vermeiden (hier). Es ist das sechste zum Energiemarkt und 154 Seiten lang. Der volle Text des Sondergutachtens hier. Die gesetzliche Grundlage ist Paragraph 62 des Energiewirtschaftsgesetzes.

***) Kritisch zur Energiewende und Klimaschutzpolitik Stellung bezogen hat als einzige deutsche Partei die AfD: „Die Untersuchungen einiger Institute zur langfristigen Entwicklung des Klimas aufgrund menschlicher CO2-Emissionen sind sehr unsicherheitsbehaftet, teilweise widerlegt und beruhen nur auf Computer-Modellen. Das Klima hat sich in der Erdgeschichte stets, also auch vor der Industrialisierung und ohne menschlichen Einfluss verändert. Die AfD tritt dafür ein, die Klimaforschung, soweit sie lediglich auf Computer-Modellen basiert und nicht ergebnisoffen betrieben wird, nicht weiter zu fördern und die einseitige Darstellung des anthropogenen CO2 als vermeintliche Ursache von befürchteter Klimaerwärmung aufzugeben.“ (Aus dem Wahlprogramm der AfD Schleswig-Holstein). Ähnlich formuliert ist es im Grundsatz- und Wahlprogramm der AfD-Bundespartei.

Übernommen vom Blog des Autors hier




Katastro­phales Feuer-Manage­ment stürzt Kali­fornien ins Chaos

Ohne Vorwarnung begannen die Brände, sich am Sonntag Abend, 8. Oktober, rapide auszubreiten, und bis zum Ende der Woche gab es 31 bestätigte Todesopfer, über 400 Menschen werden noch vermisst und 350 Bauten wurden zerstört. In Santa Rosa, das lange als sicher vor Waldbränden galt, gingen ganze Wohnkomplexe innerhalb von Minuten in Flammen auf. Geschätzt 60.000 Menschen waren gezwungen zu fliehen oder wurden aus den Feuergebieten evakuiert.

Alles in allem zerstörten 22 separate Brände etwa 300 Quadratmeilen Land [ca. 780 km²]. Es ist das zweittödlichste Feuer in Kalifornien seit 1923. Launen von Mutter Natur sorgten für eine Verschlimmerung der Misere. Der Diablo-Wind, ein starker, böiger und häufig im Norden Kaliforniens auftretender Wind half bei der Ausbreitung der Flächenbrände. Und während sich die Region jüngst aus einer schweren, Jahre langen Dürre erholt hat, haben die Gräser, die dank des dringend benötigten Niederschlags wieder gewachsen sind, dem Feuer geholfen, sich noch rascher zu verbreiten.

Flächenbrände und die Umwelt

Zusätzlich zu den verheerenden Verlusten von Menschenleben haben die Brände, welche wohl noch einige weitere Wochen wüten werden, auch ihren Zoll von der Wildnis und der Luftqualität gefordert. Satellitenbilder zeigen eine riesige Rauchwolke, welche sich vom zentralen Kalifornien über den Nordwesten von Nevada bis ins südliche Oregon und Idaho erstreckt. Sean Reffuse, ein Fachmann bzgl. Luftgüte an der University von California in Davis sagte, dass die Feuer 10.000 Tonnen Partikel in die Luft geblasen haben, eine führende Ursache von Dunst. Ist man einem höheren Niveau dieser Partikel in der Luft ausgesetzt, führt dies zu Atem- und Herz-Kreislauf-Problemen.

Die Ursachen für die Brände bleiben aber zunächst unbekannt. Flächenbrände waren seit jeher eine Geißel in Kalifornien und anderen Gebieten des ariden Westens. Das trockene Klima Kaliforniens ist zusammen mit starken Winden – Diablo im Norden und Santa Ana im Süden – der beste Freund eines Flächenbrandes.

Konsequenzen einer schlechten Politik

Die Region ist bewachsen mit riesigen nationalen Wäldern, welche Jahrzehnte lang mittels einer verheerenden Politik der Feuer-Unterdrückung verwaltet worden sind. In Wäldern können Waldbrände, normalerweise verursacht durch Blitze, der Weg der Natur sein, wucherndes Unterholz zu beseitigen, bevor es sich in gefährlicher Weise ausbreitet. Wenn diese relativ kleinen Brände unterdrückt werden, können Wälder zu veritablen Brandbeschleunigern werden. Selbst nach Implementierung der Healthy Forest Initiative im vorigen Jahrzehnt, also einem Gesetz, welches dem US Forest Service erlaubt, tote und kranke Bäume aus den Wäldern zu entfernen, enthalten viele von der Forstverwaltung bewirtschaftete Gebiete immer noch das Risiko, einen Flächenbrand auszulösen.

Was aber noch mehr zählt: Restriktive Flächennutzungs-Vorschriften in Städten wie San Francisco und San Jose haben die Preise für Menschen der oberen Mittelklasse, mit mittlerem oder geringerem Einkommen das Wohnen in den Nobel-Gebieten unerschwinglich gemacht. Weil sie nicht mehr in der Lage sind, die Preise in Nobel-Stadtgebieten aufzubringen, sind viele Menschen gezwungen, in entfernten Vororten zu leben, was sie näher an die Gebiete treibt, die für den Ausbruch von Bränden anfällig sind.

Flächenbrände wird es bei uns immer geben. Das hängt vom Territorium ab. Aber bei einer Politik, welche Bedingungen schafft, die Wälder einem Brand wie reife Früchte in den Schoß fallen lässt, oder wenn man Menschen zwingt, in Hochrisiko-Gebieten zu leben, dann sollte man sich nicht wundern, wenn die Katastrophe auf dem Fuße folgt.

Link: http://www.cfact.org/2017/10/16/disastrous-fire-management-wreaks-havoc-on-california/?mc_cid=3f2b47fe6c&mc_eid=1ad97dafa6

Hierzu gab es auch einen Mail-Austausch zwischen dem Vizepräsidenten des EIKE Michael Limburg und Craig Rucker von CFACT. Ruckers Antwort folgt hier als Anhang:

Im vorigen Jahrhundert gab es viel schlimmere Brände

Craig Rucker
Die in Kalifornien wütenden Brände haben zu einer herzzerreißenden Verheerung geführt. 41 Menschen verloren bislang ihr Leben, und der Schaden wird mit 3 Milliarden Dollar geschätzt.

Grüne Aktivistengruppen, die niemals eine Gelegenheit auslassen, eine „ernste Krise links liegen zu lassen“, schieben die Brände schamlos der globalen Erwärmung in die Schuhe und behaupten, dass die Brände in diesem Jahr die größten Flächen jemals verheert hätten. [Natürlich war auch die „Süddeutsche Zeitung“ sofort zur Stelle, um diesen Unsinn zu schreiben. Anm. d. Übers.]

Aber das liegt ausschließlich daran, dass das National Interagency Fire Center merkwürdigerweise – und irgendwie bequemerweise – die jährlich verbrannte Fläche nur zurück bis zum Jahr 1960 listet“, erklärt Bjørn Lomborg, Präsident des Copenhagen Consensus Center.

Aber die offiziellen historischen Daten der USA sagen etwas ganz Anderes. Man betrachte die Historische Statistik der USA – von der Kolonialzeit bis 1970. Das ergibt eine Statistik der Fläche der verbrannten Gebiete seit dem Jahr 1926 bis 1970. Um sicherzugehen, überlappen sich die Jahre von 1960 bis 1970. Es zeigt sich die gleiche Datenreihe“, kommentierte Prof. Lomborg obige Graphik.

Die Protagonisten der globalen Erwärmung wollen uns glauben machen, dass die Historie erst gestern angefangen hat. Das macht es ihnen leichter, hinsichtlich des Beginns einer Datenreihe „Rosinenpickerei“ zu betreiben, um den falschen Eindruck zu erzeugen, dass natürliche Phänomene heutzutage schlimmer sind als während der Vergangenheit. Ihre Behauptungen halten nicht einmal einer Schnell-Überprüfung stand.

Der leitende politische Analyst Bonner Cohen erinnert uns daran [siehe seinen Beitrag oben, Anm. d. Übers.], dass die Menschen in der Tat ihre Hand im Spiel hatten, als die Brände in Kalifornien schlimmer wurden, aber nicht mit dem Fahren von Autos oder den Verbrauch von Strom. Während der jüngsten Jahre gab es ein ganz mieses Wald-Management. Das Verbot, den Wäldern Brennholz zu entnehmen, hat dazu geführt, dass Wälder überwuchert sind durch tote Bäume und vertrocknetes Unterholz. Feuerschneisen sind unzureichend und die Politik der Brandbekämpfung ist unangemessen.

Stehen wir den Menschen in Kalifornien mit Wort und Tat zur Seite. Setzen wir uns ein für ein besseres Wald-Management, und sorgen wir dafür, dass wir all jene bloßstellen, welche diese Tragödie ausschlachten, nur um das Narrativ der globalen Erwärmung voranzutreiben.

Übersetzt von Chris Frey EIKE




Die junge Klimagarde mit der Weltrettungs­bibel von Frau Hendricks auf dem Weg zum Train to Bonn

(Klima-)Jugendbotschafterinnen und Jugendbotschafter

Video nicht mehr verfügbar
Bild 1 Video der Begrüßung der Teilnehmer*innen durch Frau Hendricks.Eine solche Rekrutierungsmaßnahme wurde von Frau Hendricks veranlasst und von ihrem Ministerium unter dem Titel
[1] Welche Ideen haben junge Menschen, um den Folgen des Klimawandels zu begegnen? Was fordern sie von der Politik zum Thema Klimaschutz? Was kann jeder selbst tun?
Diese Fragen wurden am 29. September 2017 sehr lebhaft auf den drei zeitgleich stattfindenden Jugenddialogen in Bochum, Eberswalde und Nürnberg diskutiert, zu denen das Bundesumweltministerium im Vorfeld der Weltklimakonferenz eingeladen hatte. Rund 200 Teilnehmende im Alter zwischen 16 und 25 Jahren entwickelten ihre Ideen und Lösungsansätze in vier thematischen Runden zum Thema Klimawandel und Klimaschutz: Wie werden sich Klimawandel und Klimaschutzmaßnahmen auf unser zukünftiges Leben auswirken? Was sollte in Deutschland getan werden, um die internationalen Klimaziele zu erreichen und was sind wir selbst bereit dafür zu tun? Und wie können insbesondere junge Menschen stärker in die Klimapolitik einbezogen werden?
Die auf den drei Dialogveranstaltungen ausgelosten Jugendbotschafterinnen und Jugendbotschafter haben auf einem Workshop am 14. Oktober aus den Ergebnissen der drei Jugenddialoge die wichtigsten Ergebnisse und Empfehlungen herausgearbeitet, die in einem Jugendreport zusammengestellt werden.
Der Jugendreport wird am 4. November 2017 Bundesumweltministerin Barbara Hendricks überreicht und auch auf dem Weltklimagipfel in Bonn vorgestellt.

In Nürnberg, Bochum und Eberswalde haben sich junge Leute Rezepte gegen den Klimawandel überlegt

Bild 2 [1] Barbara Hendricks begrüßt die Jugendlichen per Videobotschaft
In der Lokalzeitung des Autors hieß der große (unkritische) Redaktionsbeitrag dazu: „100 Jugendliche und die Rettung der Welt“. Nachdem darin eine teilnehmende Jungredakteurin über den Ablauf einer dieser Rekrutierungsmaßnahmen berichtete, daraus zur Information.

Welchen Beitrag Sie auch immer bereit sind zu leisten: Kein Beitrag ist zu klein“

Teilnehmende Jungredakteurin: [2] Voller Spannung, aber ohne eine konkrete Vorstellung davon, was mich genau erwartet, betrete ich den Aufseßsaal im Germanischen Nationalmuseum. „Unser Klima! Unsere Zukunft! Jugenddialog zur 23. Weltklimakonferenz“.
… mit dem Thema Klimawandel ist die 21-jährige aus Freiburg bestens vertraut. Sie studiert Waldwirtschaft und engagiert sich im studentischen Netzwerk „sneep“ für mehr Nachhaltigkeit. „Ich beschäftige mich sehr mit Suffizienz. Dabei geht es darum, mit weniger auszukommen und trotzdem glücklich zu sein …. „
heißt uns Bundesumweltministerin Barbara Hendricks per Videobotschaft willkommen … am Ende betont sie: „Welchen Beitrag Sie auch immer bereit sind zu leisten: Kein Beitrag ist zu klein“.
Dann gehen wir zur Tagesordnung über. Die sieht vier Themenblöcke vor: „Der Klimawandel und seine Folgen“. „Der Beitrag Deutschlands zur Erreichung der internationalen Klimaziele“. „Globale Gemeinschaft, globale Verantwortung“ und „Vision 2050“. Zum Einstieg in jedes Thema gibt es einen kurzen, informativen Vortrag, anschließend haben die 100 Jungen Leute 30 Minuten Zeit, an jedem Tisch darüber zu diskutieren. Dann geht`s ans Abstimmen.
Beim Input wird klargemacht: Der Klimawandel selbst ist nicht zu stoppen – es geht darum, ihn zu verlangsamen.
… Nach der Diskussionsrunde beantwortet jeder elf Fragen über sein Handy. Daraus ergibt sich ein Stimmungsbild … :
64 % würden, um das Klima zu verbessern, mehr auf ihre Ernährung achten. Dagegen sind 61 Prozent nicht bereits, ihre Urlaubsansprüche zum Schutz der Umwelt zu senken … jeder Zweite ist Vegetarier oder Veganer …

Was geschieht mit den Ergebnissen

Bild 3 Screenshot von der Homepage des Umweltministeriums

[2] Kurz vor Beginn des Weltklimagipfels wird der Jugendreport im sogenannten „Train to Bonn“ der Umweltministerin übergeben … die erarbeiteten Ergebnisse sollen …. direkt an die Entscheidungsträger weitergegeben werden. Diese werden versuchen, sie in ihre Arbeiten einzubeziehen.

Arbeitsbeispiele aus den Stadtveranstaltungen

Wenn Jugendliche im Alter von 16 … 25 Jahren, also beginnend mit maximal zehn Schuljahren, andere dagegen fast schon mit einem fertigen Hochulstudium [3], miteinander über ein Fachthema diskutieren (sollen), kann das keine fruchtbare Diskussion werden, schon gar nicht in der kurzen Zeit von 30 Minuten. Das war ganz bestimmt auch nicht der Sinn, denn der Ablauf sollte ja auf gar keinen Fall Zweifel, sondern ein sicheres – vorgegebenes – Ergebnis liefern.

Wie solche aussehen, anbei ohne Kommentierung. Oder doch eine Kleine vorweg: Der Autor stellt sich vor, als wirklicher Fachmann oder (kompetenter) Regierungschef würde er diese Vorschläge von der Umweltministerin eines (noch) Hochtechnologielandes als ausgesuchtes „Diskussionsergebnis und Lösungsideen“ der „Jugendelite“ des Landes bis zum Alter von bereits 25 Jahren mit fast abgeschlossenem Studium bekommen. Er würde sich für dieses Land schämen (nun schämt er sich dafür als Bürger). Als Vertreter eines der vielen Länder, welche nur noch um das „ihnen zustehende“ Klimaschutzgeld pokern, würde er denken: So lange die zuständige Ministerin und die Jugend des Geberlandes auf diesem niedrigen, unreflektierendem Niveau mit dem Thema umgehen, besteht keine Gefahr, dass die vielen Falschdarstellungen unserer gemeldeten Klimabedrohungen wahrgenommen und die versprochenen Zahlungen gestrichen werden.
Noch eine Anmerkung: Bei manchen Vorschlägen hat man den Eindruck, dass das Thema von Teilnehmer*ìnnen nicht so richtig ernst genommen wurde. Vielleicht war es sogar Ausdruck von geheimem Protest? Warum so etwas dann allerdings noch übersetzt und auf eine Regierungs-Homepage gepinnt wird, erschließt sich dem Autor nicht.
Der Autor erinnert sich jedoch an solche Workshops bei seinem ehemaligen Arbeitgeber. Wenn diese (und das war immer bei vom Vorstand angeordneten „Globalmaßnahmen“ der Fall, wenn dazu die gesamte Belegschaft auf „begeisterte Zustimmung“ gebürstet wurde) Soziologen und Psychologen solcher Veranstaltungsfirmen moderierten, ging es immer nur um Masse, das Niveau war dabei vollkommen nebensächlich.

Bild 4 Aus der Bildauswahl zu den Stadtveranstaltungen [1]
Bild 5 Aus der Bildauswahl zu den Stadtveranstaltungen [1]
Bild 6 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 7 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 8 Aus der Bildauswahl zu den Stadtveranstaltungen [1]

Bild 9 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 10 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 11 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 12 Aus der Bildauswahl zu den Stadtveranstaltungen [1]


Bild 13 Aus der Bildauswahl zu den Stadtveranstaltungen [1]

Arbeitsbeispiele aus dem Sammelworkshop der Botschafter*innen in Berlin

Die Einstimmung: Parteipolitik und Ideologie in Reinstform (Bild 14). Erkennbar war auch bei der Abschlussveranstaltung von den Botschafter*ìnnen keine neutrale Diskussion zum (angeblichen) Klimawandel erwünscht. Sieht man sich die folgenden Ausarbeitungen an, wagt man auch Zweifel, ob dies Sinn gemacht hätte. Verständlich: Kämpfer dürfen bei Befehlen nicht zu Denken anfangen, sondern müssen bedingungslos umsetzten.

Frau Hendricks Grüne Brigaden, versorgt mit der Klimabibel

Jedenfalls ist das Experiment gelungen: Grüne Brigaden lassen sich bei uns auch außerhalb der Parteijugend problemlos aufbauen – Proteste dagegen finden sich nicht.

Bild 14 Aus der Bildauswahl zur Abschlussveranstaltung in Berlin [1]
Bild 15 Aus der Bildauswahl zur Abschlussveranstaltung in Berlin [1]
Bild 16 Aus der Bildauswahl zur Abschlussveranstaltung in Berlin [1]
Bild 17 Aus der Bildauswahl zur Abschlussveranstaltung in Berlin [1]
Bild 18 Aus der Bildauswahl zur Abschlussveranstaltung in Berlin [1]
Quellen

[1] Bundesministerium für Umwelt Naturschutz und Reaktorsicherheit: Jugenddialog zur 23. Weltklimakonferenz

[2] Lokalausgabe der Nordbayerischen Nachrichten, 14. Oktober 2017: 100 Jugendliche und die Rettung der Welt

[3] Universität Hildesheim Green Office




Permanente Unsicherheit in Original-Messungen

In den Kommentaren zu meinen letzten Beiträgen über Tidenmessgeräte erhob sich die Frage der Beständigkeit der Unsicherheit in den Original-Messungen. Hier folgen die Fragen, die zu beantworten ich mit diesem Beitrag versuchen möchte:

Falls Originalmessungen bis auf eine Unsicherheit von +/- X (irgendein Wert in irgendeiner Einheit) durchgeführt werden, überträgt sich dann die Unsicherheit der Originalmessung auf einen oder alle Mittelwerte dieser Messungen?

Sorgt die Durchführung weiterer Messungen bis auf den gleichen Grad Unsicherheit genau die Berechnung noch genauerer Mittelwerte?

Meine Haltung in diesem Beitrag ist Folgende:

Falls jede Messung nur auf ± 2 cm genau ist, dann kann das monatliche Mittel nicht NOCH genauer sein – es muss die gleiche Bandbreite von Fehlern/Unsicherheiten enthalten wie die Originalmessungen, aus denen das Mittel gebildet worden ist. Die Mittelung bringt keine Erhöhung der Genauigkeit.

Es wäre untertrieben zu sagen, dass es sehr viel Uneinigkeit von einigen Statistikern und jenen mit einer klassischen statistischen Ausbildung gab.

Ich werde mich nicht über das Thema Präzision oder Präzision von Mittelwerten auslassen. Es gibt dazu eine gute Diskussion bei Wikipedia: Accuracy and precision.

Gegenstand meiner Bedenken hier ist diese reine Trivial-Genauigkeit [vanilla accuracy]: „Genauigkeit einer Messung ist der Grad, wie nahe Messungen von bestimmter Anzahl an dem wahren Wert jener Quantität liegt“. (,Wahrer Wert‘ bedeutet hier den tatsächlichen Wert in der realen Welt – nicht irgendein kognitives Konstrukt desselben).

Der allgemeine Standpunkt der Statistiker wird in diesem Kommentar zusammengefasst:

Die Aussage, dass die Genauigkeit des mittleren Meeresspiegels an einer Stelle nicht verbessert wird durch die Durchführung vieler Messungen über einen verlängerten Zeitraum ist lachhaft und legt ein fundamentales Fehlen von Verständnis der physikalischen Wissenschaft an den Tag“.

Ich gebe zu, dass ich frisch von der Universität einmal diesem Standpunkt zugestimmt habe. Und zwar bis ich einem berühmten Statistiker die gleiche Frage vorlegte. Sofort und gründlich wurde ich mit einer Reihe von Hausaufgaben konfrontiert, womit ich mir selbst beweisen sollte, dass der Gedanke in vielfacher Hinsicht unrichtig ist.

Erstes Beispiel:

Beginnen wir mit einem einfachen Beispiel über Temperaturen. Temperaturen in den USA werden in ganzen Grad Fahrenheit gemessen und aufgezeichnet. (Fragen Sie mich nicht, warum wir nicht den wissenschaftlichen Standard benutzen. Ich weiß es nämlich nicht). Diese Aufzeichnungen in ganzen Grad Fahrenheit werden dann mittels eines Rechners in Grad Celsius konvertiert, und zwar bis zur ersten Dezimalstelle, also beispielsweise 15,6°C.

Dies bedeutet, dass jede und alle Temperaturen zwischen beispielsweise 72,5°F und 71,5°F als 72°F aufgezeichnet werden. (In der Praxis wird die eine oder andere Messung mit X,5 ausgesondert und die anderen ab- oder aufgerundet). Folglich bedeutet eine amtliche Temperaturaufzeichnung vom Battery Park um 12 Uhr mittags von „72°F“ in der realen Welt, dass die Temperatur mittels Messung in der Bandbreite zwischen 71,5°F und 72,5°F liegt – mit anderen Worten, die präsentierte Zahl repräsentiert eine Bandbreite von 1°F.

In der wissenschaftlichen Literatur könnten wir diesen Umstand in der Schreibweise 72 +/- 0.5 °F wiederfinden. Oftmals wird dies dann als eine Art „Vertrauensintervall“, „Fehlerbalken“ oder Standardabweichung missverstanden.

In diesem spezifischen Beispiel einer Temperaturmessung ist es nichts von diesen Dingen. Es ist einfach eine Form von Stenogramm für das tatsächliche Messverfahren, welches jedes Grad Bandbreite von Temperatur als eine einzelne ganze Zahl repräsentiert – wenn die Bedeutung in der realen Welt lautet „eine Temperatur mit einer Bandbreite von 0,5 Grad über oder unter der präsentierten ganzen Zahl“.

Jede Differenz zur tatsächlichen Temperatur über oder unter der präsentierten ganzen Zahl ist kein Fehler. Diese Abweichungen sind keine „Zufallsfehler“ und sind nicht „normalverteilt“.

Noch einmal zur Betonung: Die ganze Zahl einer präsentierten Temperatur an irgendeiner Stelle zu irgendeiner Zeit ist ein Kürzel für eine ein Grad große Bandbreite tatsächlicher Temperaturen, die obwohl laut Messung unterschiedlich in Gestalt der gleichen ganzen Zahl gemeldet werden. Visuell:

Obwohl in der Praxis die Temperaturen nur in ganzen Zahlen gemeldet werden, ändern sich die Temperaturen in der realen Welt nicht in Schritten von einem ganzen Grad – 72, 73, 74, 72, 71 usw. Temperatur ist eine kontinuierliche Variable. Und nicht nur das, sie ist eine sich ständig ändernde Variable. Wenn man Temperatur einmal um 11:00 und dann um 11:01 misst, misst man zwei unterschiedliche Quantitäten; die Messungen erfolgen unabhängig voneinander. Außerdem ist einer und sind alle Werte innerhalb der Bandbreite gleich wahrscheinlich – die Natur „bevorzugt“ keine Temperaturen, welche näher an der ganzen Zahl liegen.

(Anmerkung: In den USA werden ganze Grad Fahrenheit in Grad Celsius bis zur ersten Stelle nach dem Komma gerundet. 72°F werden konvertiert und ebenfalls aufgezeichnet als 22,2°C. Die Natur bevorzugt auch nicht Temperaturen, die näher an einem Zehntelgrad Celsius liegen).

Während es gegenwärtig Praxis ist, eine ganze Zahl zu melden, um die Bandbreite von ,ganzer Zahl plus ein halbes Grad und ganzer Zahl minus ein halbes Grad‘ zu repräsentieren, könnte diese Praxis auch irgendeine andere Notation sein. Es könnte auch einfach sein, dass die gemeldete ganze Zahl alle Temperaturen von der ganzen Zahl bis zur nächsten ganzen Zahl repräsentieren soll, dass also 71 bedeutet „irgendeine Temperatur von 71 bis 72“. Das gegenwärtige System der Verwendung der ganzen Zahl in der Mitte ist besser, weil die gemeldete ganze Zahl in der Mitte der sie repräsentierenden Bandbreite liegt. Allerdings ist dies einfach misszuverstehen, wenn es als 72 +/- 0.5 daherkommt.

Weil Temperatur eine kontinuierliche Variable ist, sind Abweichungen von der ganzen Zahl nicht einmal „Abweichungen“ – sie sind einfach die in Grad Fahrenheit gemessenen Temperatur, welche normalerweise durch den Dezimalanteil repräsentiert wird, welcher der Notation der ganzen Gradzahl folgen würde – der „x.4999“te Teil von 72,4999°F. Diese Dezimalanteile sind keine Fehler, sie sind nicht gemeldete und nicht aufgezeichnete Anteile der Messung, und weil Temperatur eine kontinuierliche Variable ist, muss sie als gleichmäßig verteilt über die gesamte Skala betrachtet werden – mit anderen Worten, es sind keine, keine, keine „normalverteilten Zufallsfehler“. Der einzige Grund, warum sie unsicher sind ist, dass sie selbst bei einer Messung nicht aufgezeichnet werden.

Was passiert also jetzt, nachdem wir herausgefunden haben, dass die Mittelwerte dieser Aufzeichnungen, welche – man erinnere sich – Kürzel von Temperatur-Bandbreiten sind?

Um diese Frage zu beantworten, wollen wir ein Schulexperiment durchführen…

Wir werden das Mittel von drei ganzen Grad Temperatur finden, und zwar erhalten wir diese Temperaturen in meinem Wohnzimmer:

Wie oben diskutiert, repräsentieren diese Temperaturwerte irgendwelche der unbegrenzt variablen Temperaturen, dennoch möchte ich diese kleine Graphik erstellen:

Hier erkennen wir, dass die Temperatur von jeder Stunde den höchsten Wert in der Bandbreite repräsentiert, den mittleren Wert in der Bandbreite (die gemeldete ganze Zahl) und als tiefsten Wert der Bandbreite. (Anmerkung: Wir dürfen nicht vergessen, dass es zwischen den Werten in jeder Spalte eine unendliche Anzahl von Bruchwerten gibt, die wir jetzt nur nicht zeigen). Diese Werte werden dann gemittelt – das Mittel berechnet – von links nach rechts: die höchsten Werte der drei Stunden ergeben ein Mittel von 72,5, der mittlere Wert ein Mittel von 72 und der niedrigste Wert ein Mittel von 71,5.

Das resultierende Mittel kann geschrieben werden in der Form 72 +/- 0.5, was ein Kürzel ist dafür, dass die Bandbreite von 71,5 bis 72,5 repräsentiert wird.

Die Genauigkeit des Mittels, repräsentiert in der Schreibweise +/- 0,5 ist identisch mit der Genauigkeit der Original-Messungen – sie repräsentieren beide eine Bandbreite möglicher Werte.

Anmerkung: Diese Unsicherheit stammt nicht aus der tatsächlichen instrumentellen Genauigkeit der Original-Messungen. Das ist etwas ganz anderes und muss zusätzlich zu der hier beschriebenen Genauigkeit betrachtet werden. Diese resultiert allein aus der Tatsache, dass gemessene Temperaturen als Ein-Grad-Bandbreiten dargestellt werden, wobei die Bruchteil-Informationen außen vor bleiben und für immer verloren sind, was uns mit der Unsicherheit zurücklässt – fehlendem Wissen – was die tatsächliche Messung selbst eigentlich war.

Natürlich kann die um 11:00 gemessene Temperatur 71,5; die um 12:00 gemessene 72 und die um 13:00 gemessene 72,5 betragen haben. Oder es könnte auch 70,5; 72; 73,5 gewesen sein.

Die Berechnung des Mittels zwischen den diagonal gegenüber liegenden Ecken ergibt 72 von Ecke zu Ecke. Über die Mittelpunkte ergibt sich immer noch 72.

Jedwede Kombination von höchsten, mittigen und niedrigsten Werten von jeder Stunde ergibt ein Mittel, welches zwischen 72,5 und 71,5 liegt – innerhalb der Unsicherheits-Bandbreite des Mittels.

Selbst für diese vereinfachten Netze gibt es viele mögliche Kombinationen von einem Wert aus jeder Spalte. Das Mittel jedweder Kombination liegt zwischen den Werten 72,5 und 71,5.

Es gibt buchstäblich eine unendliche Anzahl potentieller Werte zwischen 72,5 und 71,5, da Temperatur eine kontinuierliche Variable für jede Stunde ist. Das Auftreten aller möglichen Werte für jede stündliche Temperatur ist gleich wahrscheinlich – folglich sind alle möglichen Werte und alle möglichen Kombinationen eines Wertes für jede Stunde in Betracht zu ziehen. Nimmt man irgendeinen möglichen Wert aus jeder Spalte mit stündlichen Messungen und mittelt diese drei, ergibt sich immer das gleiche Ergebnis – alle Mittel haben einen Wert zwischen 72,5 und 71,5, was eine Bandbreite der gleichen Größenordnung repräsentiert wie die der Original-Messungen, eine Bandbreite von einem Grad Fahrenheit.

Die Genauigkeit des Mittels entspricht genau der Genauigkeit aus den Original-Messungen – es ist in beiden Fällen eine Ein-Grad-Bandbreite. Sie wurde um keinen Deut reduziert durch das Mittelungs-Verfahren. Das kann es auch nicht.

Anmerkung: Eine mehr technische Diskussion zu diesem Thema gibt es hier und hier.

Und die Daten der Tiden-Messgeräte?

Es ist klar, dass sich die Unsicherheit bzgl. der Genauigkeit der Original-Messungen der Temperatur aus dem Umstand ergibt, dass nur ganze Grad Fahrenheit bzw. Grad Celsius bis zur ersten Dezimalstelle angegeben werden. Das ergibt folglich keine Messungen mit einem Einzelwert, sondern stattdessen Bandbreiten.

Aber was ist mit den Daten der Tide-Messgeräte? Unterscheidet sich ein einzelner gemessener Wert bis zur Präzision von Millimetern also von obigem Beispiel? Die kurze Antwort lautet NEIN, aber ich nehme nicht an, dass das allgemein akzeptiert wird.

Welche Daten werden denn nun von Tiden-Messgeräten in den USA (und in den meisten anderen entwickelten Ländern) gemessen?

Die Geschätzte Genauigkeit wird als +/- 2 cm für individuelle Messungen angegeben, und es wird behauptet, dass diese für monatliche Mittelwerte 5 mm beträgt. Betrachten wir die Daten vom Battery-Park in New York, sehen wir etwas wie das hier:

Man beachte, dass wir laut diesem Datenblatt alle sechs Minuten (1 Zehntel-Stunde) eine Messung haben, und zwar den Wasserstand in Meter bis zum Niveau von Millimetern (4,639 m), und das „Sigma“ wird angegeben. Die Sechs-Minuten-Zahl wird folgendermaßen berechnet:

181 Eine-Sekunde-Wasserstandsmessungen zentriert um jedes Zehntel einer Stunde werden gemittelt, ein three standard deviation outlier rejection test [?] angewendet, dann werden Mittel und Standardabweichung erneut berechnet und gemeldet zusammen mit der Anzahl der Ausreißer. (3 Minuten-Wasserstandsmittel).

Um sicherzustellen, dass wir dieses Verfahren verstehen, stellte ich in einer E-Mail an @ co-ops.userservices@noaa.gov die folgende Frage:

Wenn sagen, bis zu einer Genauigkeit von +/- 2 cm meinen wir spezifisch, dass jede Messung zum tatsächlichen augenblicklichen Wasserstand außerhalb des Mess-Schachtes passt und innerhalb dieser +/- 2-cm-Bandbreite liegt.

Antwort:

Das ist korrekt! Die Genauigkeit jedes 6-minütigen Datenwertes beträgt +/- 2 cm des Wasserstandes zu jener Zeit.

(Anmerkung: In einer separaten E-Mail wurde klargestellt, dass „Sigma die Standardabweichung ist, essentiell die statistische Varianz zwischen diesen 181 1-Sekunde-Messungen“).

Frage und Antwort verifizieren, dass sowohl die 1-Sekunde-Messungen als auch der 6-Minuten-Datenwert eine Bandbreite des Wasserstandes von 4 cm, 2 cm plus oder minus vom gemeldeten Wasserstand repräsentiert.

Diese scheinbar vage Genauigkeit – jede Messung mit einer tatsächlichen Bandbreite von 4 cm – ist das Ergebnis des mechanischen Verfahrens der Mess-Apparatur, trotz der Auflösung von 1 Millimeter. Wie kommt das?

Die Illustration der NOAA des modernen Tiden-Messapparates am Battery Park zeigt den Grund. Die Blase oben links zeigt eindeutig, was während des 1-Sekunde-Intervalls der Messung passiert: Der augenblickliche Wasserstand innerhalb des Mess-Schachtes unterscheidet sich von dem außerhalb dieses Schachtes.

Diese 1-Sekunde-Ablesung wird in der „Primary data collection Platform“ gespeichert und später als Teil der 181 Messungen herangezogen, die für den gemeldeten 6-Minuten Wert gemittelt werden. Er unterscheidet sich wie illustriert von dem tatsächlichen Wasserstand außerhalb des Mess-Schachtes. Manchmal wird er niedriger, manchmal höher liegen. Der Apparat als Ganzes ist darauf ausgelegt, diese Differenz in den meisten Fällen während des 1-Sekunde-Zeitmaßstabes auf eine Bandbreite von 2 cm über oder unter dem Wasserstand im Mess-Schacht zu begrenzen – obwohl einige Ablesungen weit außerhalb dieser Bandbreite liegen und als „Ausreißer“ gelistet werden (die Regel lautet, alle 3-Sigma-Ausreißer auszusondern – aus dem Satz der 181 Ablesungen – bevor man das Mittel berechnet, welches als der 6-Minuten-Wert gemeldet wird).

Wir können nicht jede individuelle Messung als eine Messung des Wasserstandes außerhalb des Mess-Schachtes betrachten – es wird der Wasserstand innerhalb des Mess-Schachtes gemessen. Diese Im-Schacht-Messungen sind sehr genau und präzise – bis auf 1 Millimeter. Allerdings ist jede 2-Sekunde-Aufzeichnung eine mechanische Approximation des Wasserstandes außerhalb des Schachtes – also dem tatsächlichen Wasserstand im Hafen, welcher eine fortwährend sich ändernde Variable ist – spezifiziert zu der Genauigkeits-Bandbreite von +/- 2 Zentimeter. Die aufgezeichneten Messungen repräsentieren Bandbreiten von Werten. Diese Messungen enthalten keine „Fehler“ (zufällige oder andere), wenn sie sich vom tatsächlichen Wasserstand im Hafen unterscheiden. Der Wasserstand im Hafen oder im Fluss oder in der Bucht selbst ist niemals wirklich gemessen worden.

Die als „Wasserstand“ aufgezeichneten Daten sind abgeleitete Werte – und keineswegs direkte Messungen. Das Tiden-Messgerät als Messinstrument wurde so ausgerichtet, dass es Messungen innerhalb des Schachtes mit einer Genauigkeit von 2 cm, plus oder minus durchführt, welche den tatsächlichen augenblicklichen Wasserstandes außerhalb des Schachtes repräsentieren – was ja das ist, das wir messen wollen. Nach 181 Messungen innerhalb des Schachtes und dem Aussortieren jedweder Daten, die zu abwegig sind, wird der Rest der 181 Messungen gemittelt und der 6-Minuten-Wert gemeldet mit der korrekten Genauigkeits-Angabe von +/- 2 cm – der gleichen Genauigkeit also wie bei den individuellen 1-Sekunde-Messungen.

Der gemeldete Wert bezeichnet eine Werte-Bandbreite – welche immer angemessen mit jedem Wert angegeben werden muss – im Falle von Wasserständen der NOAA-Tiden-Messgeräte +/- 2 cm.

Die NOAA behauptet zu recht nicht, dass die sechs-Minuten-Aufzeichnungen, welche das Mittel von 181 1-Sekunde-Messungen sind, eine größere Genauigkeit aufweisen als die individuellen Original-Messungen.

Warum behauptet die NOAA aber dann, dass monatliche Mittelwerte bis auf +/- 5 mm genau sind? In diesen Berechnungen wird die Genauigkeit der Original-Messungen einfach komplett ignoriert, und nur die gemeldeten/aufgezeichneten Sechs-Minuten-Mittelwerte werden betrachtet (vom Autor bestätigt) – das ist der gleiche Fehler, wie er auch bei Berechnungen fast aller anderen großen Datensätze gemacht wird, indem das nicht anwendbare Gesetz Großer Zahlen [Law of Large Numbers] angewendet wird.

Genauigkeit jedoch wird, wie hier gezeigt, bestimmt durch die Genauigkeit der Original-Messungen, wenn man eine nicht statische, sich immer ändernde und kontinuierlich variable Quantität misst und dann als eine Bandbreite möglicher Werte aufzeichnet – die Bandbreite der Genauigkeit spezifiziert für das Messsystem – und die nicht durch Berechnungen von Mittelwerten verbessert werden kann.

 

Unter dem Strich:

1. Wenn numerische Werte Bandbreiten sind anstatt wahrer diskreter Werte, dann bestimmt die Größe der Bandbreite des Originalwertes (in unserem Falle die Messung) die Größe der Bandbreite jedweden nachfolgenden Mittelwertes dieser numerischen Werte.

2. Von ASOS-Stationen berechnete Temperaturen jedoch werden aufgezeichnet und als Temperaturen gemeldet mit einer Bandbreite von 1°F (0,55°C), und diese Temperaturen werden korrekt als „ganze Zahlen +/- 0,5°F“ aufgezeichnet. Die Mittelwerte dieser aufgezeichneten Temperaturen können nicht genauer sein als die Originalmessungen – weil die Aufzeichnungen der Originalmessungen selbst Bandbreiten sind. Die Mittelwerte müssen mit den gleichen +/- 0,5°F angegeben werden.

3. Gleiches gilt für die Daten von Tiden-Messapparaten, wie sie gegenwärtig gesammelt und aufgezeichnet werden. Die primäre Aufzeichnung von 6-Minuten-Werten sind trotz auf Millimeter-Genauigkeit aufgezeichneter Präzision ebenfalls Bandbreiten mit einer Original-Genauigkeit von +/- 2 Zentimetern. Dies ist die Folge des Designs und der Spezifikation des Messinstrumentes, welches das einer Art mechanisch mittelnden Systems ist. Die Mittel von Werten von Tiden-Messgeräten können nicht genauer gemacht werden als die +/- 2 cm – was weit genauer ist als notwendig zur Messung von Gezeiten und der Bestimmung eines sicheren Wasserstandes für Schiffe.

4. Wenn Original-Messungen Bandbreiten sind, sind deren Mittelwerte ebenfalls Bandbreiten von gleicher Größenordnung. Diese Tatsache darf nicht ignoriert oder missachtet werden.Tut man dies doch, erzeugt man einen falschen Eindruck von der Genauigkeit unseres numerischen Wissens. Oftmals überschattet die mathematische Präzision eines berechneten Mittels dessen reale Welt, eine weit verschwommenere Genauigkeit, was zu einer unrichtigen Signifikanz führt, welche Änderungen sehr geringer Größenordnung dieser Mittelwerte beigemessen wird.

Link: https://wattsupwiththat.com/2017/10/14/durable-original-measurement-uncertainty/

Übersetzt von Chris Frey EIKE




Hurrikan Ophelia: vom Wirbelsturm zum Sturmwirbel

Zunächst muss geklärt werden, worin der Hauptunterschied zwischen einem tropischen [oder auch arktischen!] Wirbelsturm und einem Sturmwirbel der Westwindzone besteht. Ersterer bezieht seine Energie aus dem vertikalen Temperaturgradienten zwischen Boden und Höhe. Nimmt die Temperatur besonders stark mit der Höhe ab, sprechen die Meteorologen von einer labil geschichteten Atmosphäre. Sind gleichzeitig auch hohe Mengen an Feuchtigkeit in der Luft, bilden sich dabei große Gewittercluster, die sich u. U. Zu einem Wirbelsturm entwickeln. Horizontal befindet sich das Gebilde dann in einem ausgeglichenen Temperaturfeld ohne Gegensätze. Man spricht von einem „Labilitätswirbel“. Ausschließlich von Bedeutung ist dabei aber der vertikale Temperaturgegensatz. Dieser kann im Winter aber auch über eisfreien Meeresgebieten der Arktis sehr groß werden, wenn nämlich ein Kaltluftkörper aus dem Inneren der Arktis auf das offene Wasser zieht. Dann gibt es auch dort Labilitätswirbel, die man „Polartief“ nennt. Die viel treffendere Bezeichnung „arktischer Wirbelsturm“ hat sich bisher aber nicht durchgesetzt. Wer mehr dazu wissen will, kann nach dem Suchbegriff „Polartief“ googeln. Es ist jedenfalls ein nicht auszurottendes Ammenmärchen, dass die „Wassertemperatur mindestens 26°C betragen muss“.

Ein Sturm- oder Orkanwirbel der gemäßigten Breiten bezieht seine Energie aus dem horizontalen Temperaturgegensatz zwischen niedrigen und hohen Breiten. Sie weisen eine warme Vorder- und kalte Rückseite auf. Deren Zentrum ist mit hochreichend kalter Luft angefüllt, während ein Wirbelsturm durch die Massen an freiwerdender latenter Wärme einen warmen Kern aufweist.

Nun zurück zum Hurrikan Ophelia. Seine Zugbahn nach Norden bis Nordosten ist in der Tat sehr ungewöhnlich. Häufiger kommt es vor, dass ein Hurrikan, wenn er sich in dem erwähnten Seegebiet gebildet hat, nach Westen Richtung Nordamerika zieht, dann nach Norden einbiegt und sich bei günstiger Lage relativ zu den Wetterphänomenen der Westwindzone in eine außertropische Zyklone umwandelt. Der Hurrikan Ophelia hat aber, salopp gesagt, die Abkürzung genommen und ist gleich nach Norden gezogen und hat sich dabei ebenfalls umgewandelt. Was aber heißt „umwandeln“?

Es heißt, dass sich aus einem Wirbelsturm, also einem Zyklon mit einem warmen Kern in einem ausgeglichenen horizontalen Temperaturfeld ein Sturmwirbel, also eine Zyklone mit kaltem Kern entwickelt. Eine sehr gute theoretische Beschreibung, auch mit praktischen Beispielen, findet sich hier.

Der Hurrikan Ophelia nun hat diese Entwicklung ebenfalls durchlaufen. Hier folgt eine Reihe von Abbildungen, die diesen Übergang dokumentieren.

Die Satellitenbilder zeigen den Ablauf alle 6 Stunden. Die Karten zeigen 12-stündig die Lage im 850-hPa-Niveau (Mitte) und im 500-hPa-Niveau (rechts).

[Hinweis: Alle Zeitangaben erfolgen hier in UTC. Dabei gilt MESZ = UTC plus 2 Stunden. Die Quelle aller Satellitenbilder ist der Verein Berliner Wetterkarte e. V. Quelle der Grafiken ist die Wetterzentrale.de.]

Abb. 1 vom 15. 10. 2017, 00/01.30 UTC: Im Satellitenbild ist am linken Bildrand Ophelia noch eindeutig als Hurrikan erkennbar, vor allem dank des ausgeprägten ,Auges‘ (ganz links im Bild). Im 850-hPa-Niveau zeigt sich der horizontale Temperaturgegensatz eines Kurzwellentroges der Westwindzone weit nordwestlich des Wirbels.

Abb. 2: Auch um 06 UTC zeigt sich im Satellitenbild die Wirbelsturm-Struktur, doch kommt der Sturm jetzt in Kontakt mit der Bewölkung vorderseitig des Kurzwellentroges.

Abb. 3 vom 15. 10. 2017, 12 UTC: Der Beginn der Umwandlung (Transition) in eine außertropische Zyklone ist jetzt im Gange: rudimentär ist das Auge noch erkennbar, aber die Wolkenformation ist bereits integraler Bestandteil des Wolkenbandes der Westwindzone. Im 850-hPa-Niveau zeigt sich der Sturm bereits im Bereich des horizontalen Temperaturgegensatzes der Westwindzone.

Abb. 4: Das Satellitenbild von 18 UTC zeigt, dass Ophelia seine tropischen Eigenschaften immer mehr verliert. Die Kaltluft macht sich auf den Weg in das Zentrum von Ophelia. Ein Auge ist dabei nicht mehr zu erkennen.

Abb. 5 vom 16. 10. 2017, 00 UTC: Der Übergang in eine außertropische Zyklone ist abgeschlossen. Das Satellitenbild zeigt die eindeutige Struktur einer außertropischen Sturmzyklone. Im 850-hPa-Niveau weist diese jetzt einen kalten Kern auf, auch im 500 hPa-Niveau hat sich das Geopotential im Bereich von Ophelia deutlich erniedrigt. Der Sturm müsste jetzt korrekt als ,Ex-Hurrikan Ophelia‘ bezeichnet werden.

WICHTIG: Bereits zu diesem Zeitpunkt, also vor dem Übergreifen auf Irland, war Ophelia kein Hurrikan mehr! Natürlich hört man es in den Medien ganz anders – sonst wäre es ja keine Sensation!

Der Vollständigkeit halber hier noch die folgende Abbildung:

Abb. 6: Die Struktur unterscheidet sich in nichts mehr von einem ,normalen‘ außertropischen Orkantief. Die mitgeführte Warmluft ist zu diesem Zeitpunkt ,verbraucht‘, d. h. fast vollständig dynamisch gehoben, so dass sich der Wirbel nun stark abschwächt.

Die höchsten aufgetretenen Windgeschwindigkeiten in den Böen (km/h) zeigt diese Grafik:

Quelle: www.wetteronline.de

Fazit: Der Sturm Ophelia ist lediglich hinsichtlich des Verlaufes seiner Entwicklung recht ungewöhnlich, in keiner Weise aber hinsichtlich seiner Auswirkungen. Winterliche Orkane sind in ganz West- und Mitteleuropa an der Jahresordnung, und es wäre schon sehr ungewöhnlich, wenn im kommenden Winter kein solches Gebilde mehr auftreten würde.

Der Weihnachtsorkan Lothar im Jahre 1999 wies in Süddeutschland deutlich höhere Windgeschwindigkeiten auf, vor allem auf den Bergen. Und die Windspitzen der Hurrikane Irma und Maria in der Karibik dürfte nochmals erheblich stärker, vielleicht sogar doppelt so hoch ausgefallen sein.

Aber auch wenn Ophelia beim Auftreffen auf Irland ein durch und durch baroklines [d. h. im Bereich eines horizontalen Temperaturgegensatzes liegendes] Gebilde war, so kam der Sturm doch immer noch mit außerordentlich hohem Luftdruckgradient daher. Die Ursache für diese starke Entwicklung ist Folgende:

Auf der Vorderseite eines progressiv (= sich nach Osten verlagernden) Kurzwellentroges wird die dort liegende Warmluft dynamisch gehoben. Dieser Vorgang passiert täglich mehrmals das ganze Jahr über. Entscheidend für die Stärke der Entwicklung ist u. A. der Temperaturgegensatz zwischen Warm- und Kaltluft. Hierbei ist aber zu beachten, dass nicht nur die fühlbare, sondern auch die latente Temperatur der Warmluft eine Rolle spielt. Um beide Größen zu kombinieren, fasst man sie zur sog. ,pseudopotentiellen Temperatur‘ zusammen. Diese gibt einen viel besseren Einblick in den tatsächlichen Temperaturgegensatz.

Ein tropisches Wettersystem nun setzt viel mehr latente Wärme um als ein ,normaler‘ Warmluftkörper auf einer Trogvorderseite. Die pseudopotentielle Temperatur in einem Hurrikan ist also deutlich höher und stellt einen massiven zusätzlichen Energieimpuls dar. Gelangt ein solcher ,Super-Warmluftkörper‘ auf die Vorderseite eines Kurzwellentroges, sind die Hebungsvorgänge ungleich intensiver als bei einem ,normalen‘ Warmluftkörper.

Genau dies war hier auch der Fall. Irland ist also von einem besonders starken, wenn auch kleinräumigem Orkantief heimgesucht worden, aber nicht von einem Hurrikan!

Zu befürchten ist, dass bei weiterer Erdabkühlung und dem damit verbundenen steigenden horizontalen Temperaturgegensatz zwischen niedrigen und hohen Breiten die Anzahl und Stärke winterlicher Orkanwirbel sukzessive zunimmt.

Zum Schluss: Eine gute Zusammenfassung der Entwicklung des Sturmes Ophelia gibt es in der ,Übersicht‘ zur Berliner Wetterkarte vom 16.10.2017:

Der Hurrikan OPHELIA, der gestern früh mit maximalen mittleren Windgeschwindigkeiten von 100 Knoten als sogenannter Major-Hurrikan in die Kategorie 3 eingestuft wurde und südöstlich der Inselgruppe der Azoren lag, wandelte sich bis heute früh auf seinem Weg nach Norden in ein außertropisches Tief um. Damit war OPHELIA der östlichste Hurrikan auf dem Nordatlantik seit 1851, der in die Kategorie 3 eingestuft wurde. Im gestrigen Tagesverlauf stieg der Kerndruck vorübergehend etwas an, ehe sich heute Morgen wieder eine Verstärkung ergab. Um 06 UTC lag ex-OPHELIA mit seinem Kern direkt südwestlich von Irland und einem Kerndruck von 958 hPa. Das zugehörige Orkanfeld griff ab dem späteren Vormittag auf Irland über. Um 10 UTC wurden am Roches Point südlich von Cork mittlere Windgeschwindigkeiten von 93 km/h (Windstärke 10) und maximale Böen bis 130 km/h gemessen. In Cork gab es zu diesem Zeitpunkt Orkanböen bis 122 km/h. Bis 11 UTC legte der Wind noch weiter zu, so dass am Roches Point nun Spitzenböen bis 156 km/h auftraten. Entsprechend wurde von den Wetterdiensten in Irland die höchste Warnstufe ausgerufen.

© Hans-Dieter Schmidt, Oktober 2017




Der Frankenwein wird teurer, weil sich das Klima zurückwandelt

Süddeutsche Zeitung 12. Oktober 2017: Frankenwein wird teurer
Ernte fällt besser aus als gedacht, doch Winzer müssen investieren
Trockene Winter, frühe Blüte, Spätfröste und nasse Sommer – auf diese Wetterbedingungen müssten sich Frankens Winzer auch in Zukunft einstellen. Deshalb seien vermehrt Investitionen in den Frostschutz, die Kellertechnik und die landwirtschaftlichen Geräte nötig, sagte Artur Steinmann, Präsident des Fränkischen Weinbauverbandes. „Das wird sich auf die Preise niederschlagen müssen.“
Die dpa nahm diese neue Klimainformation ebenfalls auf und meldete es so auch der Tageszeitung des Autors, in welcher laut Eigenwerbung „jedes Wort wahr ist“.

So steht es „im Klimawandel“

Wer beim Klimawandel aufgepasst hat, „weiss“, dass die Winter nasser und die Sommer trockener werden sollen. Belege dazu:
Umweltbundesamt: Globale Klimaänderungen bis 2100
Allgemein nehmen die jährlichen Niederschläge in Nordeuropa zu und in Südeuropa ab. Jahreszeitlich werden insbesondere
im Winter zunehmende Niederschläge für Mittel- und Nordeuropa projiziert, während die Projektionen für viele Teile Europas trockenere Sommer zeigen.

wiki Bildungsserver Klimaprojektionen Deutschland
Bei den Niederschlägen ergibt sich im Jahresmittel kein deutlicher Trend. Bei den Jahreszeiten zeigen jedoch besonders die Sommer- und Wintermonate deutliche Veränderungen. Die Sommer werden in Zukunft deutlich trockener, die Winter feuchter. Im Sommer können die Niederschlagsmengen bis zu 20 % ab- und im Winter bis zu 20 % zunehmen (REMO).

… und galt es auch für Weinfranken

Franken ist zwar ein etwas eigenes Völkchen, hat aber kein eigenes, sondern nur ein recht unterschiedliches Klima. Dass sich dieses auch dort in der (simulierten) Zukunft ähnlich verhalten soll, zeigt eine Folie des in Würzburg lehrenden „Weinklima-Simulations-Papstes“:


Prof. Dr. Heiko Paeth Institut für Geographie Universität Würzburg, Festvortrag am 25.07.2008: Von der Klimaforschung zum Klimaschutz (Auszug)

Das Klima wandelte sich (schon immer), allerdings nicht wie es die Simulationen vorhersagen

Man kann es nachvollziehen. Beim (AGW-)Klimawandel kann man sich wirklich auf nichts verlassen. Kaum wird die Überhitzung simuliert und daraufhin teuer investiert:
EIKE 01.08.2015: [1] Schlägt der Klimawandel auch in Franken zu? Bewässerungstechnik aus der Wüste muss Frankens Bauern helfen,
wird das Wetter schon wieder fast so schlecht wie es früher einmal war. Das schlägt sich dann nicht nur auf die Stimmung, sondern eben auch auf die Preise nieder.
Schön, wenn man darüber schon einmal berichtet hat [1] und es gleich zeigen kann. Seit 1990 hat sich bei der DWD-Messstation Würzburg – mitten in Mainfranken -, am Niederschlag nichts verändert. Betrachtet man die extreme Spanne des Sommerniederschlags, kann man direkt ablesen, wann welche Hiobsbotschaft – mal ist es zu nass, dann ist es zu trocken – in unseren Medien berichtet wird, nur nicht, dass sich in Summe seit ca. 1900 daran gar nichts verändert hat.

Bild1 [1] Jahreszeitliche Niederschläge Würzburg 1990-2015
Wer es nicht glaubt, dem sei es anbei anhand des langfristigen Verlaufs gezeigt (Bild 2). Der trockenste Sommer war vor 1950 und anhand der Minimas meint man eher eine Zyklik, als einen Klimawandel zu erkennen, uaf jeden Fall aber keine Veränderung.

Bild 2 Gebietsniederschlag Mainfranken Sommerhalbjahr 1930 – 2010. Quelle: KLIWA-Untersuchungsgebiet M1 „Main bis oh. Regnitz“.

Bild 3 Deutschland Niederschlag Winter 1881 – 2017. Quelle: DWD Klimaatlas

Bild 4 Deutschland Niederschlag Sommer 1881 – 2017. Quelle: DWD Klimaatlas

Fazit

Der Weinbauverbandspräsident sieht in Zukunft nassere Sommer und trockenere Winter, also das Gegenteil des durch den Klimawandel vorhergesagten, auf die Winzer zukommen.

Frühe Blüte“, oder der Vegetationsbeginn

In der Verbandsmeldung steht auch, die „frühe Blüte“ wäre ein Problem. EIKE Leser kennen dazu die „immerwährenden“ Berichte des Duos Kowatsch/ Kämpfe, welche immer neu zeigen, dass der Blühbeginn sich in der freien Natur bei Weitem nicht so „verfrüht“, wie es der DWD berichtet.

Bild 5 [2] Grafik 9: Trotz der relativ zeitigen Apfelblüte 2017 ist deren Verfrühungstrend – ebenso wie der der Haselblüte, welche diesmal eher spät einsetzte – nicht signifikant.
Im DWD Klimaatlas findet sich ein globales Bild über einen noch längeren Zeitraum (Bild 6). Dieses Jahr war der Blühbeginn der Apfelbäume sehr früh, was wegen der diesjährigen Spätfröste vor allem den Apfelbauern extrem zugesetzt hat.
Nur: Betrachtet man den Trendkanal, dann war das seit Beginn der Messreihe im Jahr 1961 schon oft so und eine Spanne von 30 Tagen Unterschied von einem Jahr zum nächsten schon immer „normal“. Der Mittelwert sagt nichts aus, da sein rechnerischer Beginn unklar ist. Doch zeigt er wieder, wie hoffnungslos ungenau die entsprechenden Projektionen bereits aktuell sind.

Bild 6 Deutschland Vegetationsbeginn 1961 – 2017. Quelle: DWD Klimaatlas

Fazit

Der Weinbauverbandspräsident sieht in Zukunft die frühe Blüte als Problem. Dabei hat das sich bisher wandelnde Klima zumindest seit Beginn der DWD-Grafik im Jahr 1961 noch keinen wirklich signifikanten, früheren Vegetationsbeginn zur Folge.

Frühe Blüte und Spätfröste

Spätfröste alleine stören wenig. Ein Problem ist es nur, wenn diese während der Blüte auftreten. Während die Obstbauern in Südtirol des Problem durch Bespritzen mit Wasser lösen, ist dies im Hoch-Technologieland Deutschland weitgehend unbekannt. Es erscheint zuerst einmal logisch, dass ein verfrühter Blühbeginn verstärkt durch Spätfröste gefährdet ist. Wie Studien zeigen, ist es jedoch umgekehrt. Seit dem etwas wärmer gewordenen Klima hat diese Gefahr erheblich abgenommen.

Leider fand der Autor keine historische Information zu Spätfrösten in Weinfranken. Er erinnert sich nur an einen Reportagefilm im Fernsehen, in dem so um 1950 die fränkischen Weinbauern verzweifelt mit Feuern dagegen ankämpften. Die Gefahr war demnach schon vor dem Beginn des „schlimmen“ Klimawandels akut.
Das bestätigt sich auch in einem Bericht über den Weinanbau an der oberen Mosel:
Dr. Daniel Molitor, Dr. Jürgen Junk, Centre de Recherche Public, Gabriel Lippmann Abteilung Umwelt und Agro-biotechnologien (EVA) in Belvaux Luxemburg: Spätfrostschäden im Weinbau
Ein Blick in alte Weinchroniken zeigt, dass in unseren Breiten Frühjahrs- oder Spätfröste seit jeher eine existenzielle Bedrohung für den Weinbau und die von ihm lebenden Winzer darstellen.
Insgesamt hat sich demnach die Wahrscheinlichkeit von Frostschäden in den letzten Jahrzehnten eher reduziert
… bis zum Ende des 21. Jahrhunderts ist in den Weinbergen des oberen Moseltals mit einer geringeren Wahrscheinlichkeit für Frostereignisse nach dem Austrieb, im Vergleich zum Referenzzeitraum 1961 bis1990, zu rechnendie Wahrscheinlichkeit von Frostereignissen nach dem Austrieb nimmt ab …

Auch die Daten der Obstbauern geben Entwarnung
[3] Hessisches Ministerium für Umwelt, Landwirtschaft und Verbraucherschutz: Abschlussbericht zum Forschungsvorhaben Auswirkungen von Klimaveränderungen auf den Obstanbau in Hessen
Die Möglichkeiten zur Aussage, welche Veränderungen auf den Obstanbau in Zukunft zukommen, sind also nur sehr schwer und zurzeit nur sehr begrenzt möglich. Das mittlere Blühdatum wird sich aber vermutlich bis zum bearbeiteten Zeitraum 2031-2060 im Verhältnis zu den letzten zwei Jahrzehnten nur noch wenig nach vorne verschieben. Bei der Gefahr von Spätfrösten zur Blüte ist für diesen Zeitraum im Vergleich zu den letzten 50 Jahren keine große Veränderung zu erkennen.

Das folgende Bild daraus zeigt, dass die kritischen Frosttage nach dem Blühbeginn (welche dieses Jahr die Apfelbauern fast schon extrem erwischt hat), in Zukunft an fünf von sechs Standorten, also sehr signifikant, abnehmen sollen.

Bild 7 [3] Abb. 7: Häufigkeiten des Auftretens von Frosttagen im 10-Jahres-Mittel. Vergleich des Durchschnitts der Perioden 1958-2001 (blauer Balken) und 2031-2060 (roter Balken). Die Farben der Geländekarte stellen die Höhe über NN dar.
Fazit

Der Weinbauverbandspräsident sieht in Zukunft ein Problem durch Spätfröste. Dabei hat das sich bisher wandelnde Klima zu weniger Spätfrostbelastung geführt und die Simulationen sagen sogar eine weitere Verringerung voraus.

Alle genannten Probleme hat das sich bisher positiv wandelnde Klima verringert

Nach Sichtung der Daten stellt man fest, dass alle vom Verbandspräsidenten berichteten Probleme dank des sich von einer Zwischeneiszeit aus wieder erwärmenden Klimas – genannt anthropogener Klimawandel – geringer geworden sind und sich sogar weiter positiv fortschreiben sollen.
Wenn dieser Präsident mit seiner Prognose trotzdem recht hat – und dass sollte so sein, denn die zu Klima und Energie als „hochkompetent“ geltende SZ berichtete es ohne Widerspruch, wie auch die darin ebenfalls geübte dpa, lässt dies nur einen Schluss zu:
Der zum Klimawandel besonders kenntnisreiche Verbandspräsident geht davon aus, dass sich der (angebliche) Klimawandel nicht wie simuliert weiter fortsetzt, sondern vorher reißaus zum „alten“ Wetter nimmt.
Verklausuliert gibt er damit zu, selbst nicht mehr an den (AGW-)Klimawandel zu glauben. Würde er es nämlich trotzdem, wäre es ein Beleg, dass er von dessen „Fakten“ keine Ahnung hat – und das wäre bei einem Winzer-Verbandspräsidenten doch kaum vorstellbar.

Die (In-)Kompetenz und unverhohlene Parteipolitik der Zeitung aus Süddeutschland belegt sich immer neu in den Darstellungen ihres Redaktionsteams.

SZ, Joachim Käppner (Studium Geschichte und politische Wissenschaften): [5]„ … Als die Grünen nur den Gedanken anzuregen wagten, herkömmliche Motoren herkömmliche Motoren bis 2030 zu verbannen, wurden sie als Spinner und Volkserzieher geschmäht ... Dabei spricht die Wissenschaft eine klare Sprache: Die Menschheit hat keine Jahrzehnte mehr zu verschwenden. Und zumindest was den Beitrag des Autos zu diesem Desaster angeht, gäbe es mit den E-Fahrzeugen und öffentlichen Transportmitteln realistische Alternativen zu einer fast buchstäblichen Politik, die „Nach mir die Sintflut“ ruft.

Das heute herbeigesehnte, „vorindustrielle“ Klima war ein Jammertal

Nachdem die Jammerei über das Wetter, bei dem man „täglich den Klimawandel spüren kann“, wie es die (zum Glück) ausscheidende Umwelt(hysterie)ministerin Hendricks erzählte, oder nach der in Bayern (leider noch länger) dafür zuständigen, die ihn erweitert sogar [4] mit den Händen greifen kann“, wieder aufflammt, zur Erinnerung etwas über die Klimaprobleme unserer Altvorderen, die diese – heute so ersehnten Wetterbedingungen – zu überleben versuchten.
Wie heute, wurde auch damals von den „Fachpersonen“ der Mensch dafür verantwortlich gemacht und wie heute, waren Zweifel an den Aussagen der „Fachpersonen“ nicht erlaubt.

Rüdiger Glaser 2012-09-19: Historische Klimatologie Mitteleuropas
Die Jahrestemperaturentwicklung zeigt für Mitteleuropa ab Mitte des 14. Jahrhunderts einen übergreifenden negativen Trend. Überlagert wird dieser von mittelfristigen Schwankungen in der Größenordnung von Dekaden, die zum Teil zyklisch verlaufen. Einige dieser Schwankungen erfolgen in vergleichsweise kurzen Phasen und fallen ab Mitte des 15. Jahrhunderts mitunter recht drastisch aus. Fast jede Generation erlebte in dieser Phase einen Zyklus wärmerer Klimaverhältnisse, gefolgt von einem dramatischen Temperatureinbruch. Bis 1600 wird eine der tiefsten Temperaturphasen der tausendjährigen Reihe erreicht.
In der saisonalen Analyse wirkte sich zwischen 1400 und 1500 vor allem die Abkühlung der Frühjahrswitterung prägend aus. Die Sommertemperaturen sanken mit einigen Dekaden Verzögerung, ebenso die im Herbst.
Besonders dramatisch ist der Einbruch der Sommertemperaturen gegen Ende des 16. Jahrhunderts. In dieser Phase häufen sich auch gesellschaftliche Exzesse wie Hexenverfolgungen. Auch wenn es verschiedene Definitionen und zeitliche Einordnungen gibt, setzte sich spätestens ab 1550 die klimatische Struktur der Kleinen Eiszeit durch.
Im weiteren Verlauf bleibt der langfristige Temperaturverlauf auf einem niedrigeren Niveau, ein Umstand, der 1939 zum ersten Mal als „little ice age“ bezeichnet wurde. Die zunächst eher beiläufige Namensgebung erklärt sich aus dem markanten Vorrücken der Alpengletscher in diesem Zeitraum. In den Mittelgebirgen verschlechterten sich die Anbaubedingungen signifikant durch die Verkürzung der Vegetationsperiode. Öfters kam es in dieser Phase zum Auswintern (also zu einer frostbedingten Beschädigung) der Winterfrucht. Hungersnöte, Seuchen, die Aufgabe von Siedlungen und Abwanderungen waren die Folge. An den Küsten traten vermehrt schwere Sturmfluten auf, die teilweise zu großen Menschen- und Landverlusten führten. Tiefpunkt dieser Entwicklung war das sogenannte Maunder Minimum, das zwischen 1675 und 1700 auftrat und nach einem Sonnenfleckenminimum benannt ist.
Neben den langfristigen Änderungen können aus den historischen Daten auch extreme Einzelereignisse ausgewiesen werden, die oft noch lange im Gedächtnis der Menschen verhaftet blieben. Zu erwähnen sind die Hochwasserkatastrophen von 1595, 1608, 1682, 1784 und 1845. Die wohl schwerwiegendste, historisch belegbare Überschwemmungskatastrophe traf Mitteleuropa im Sommer des Jahres 1342.
Vor allem mit der zunehmenden Klimaverschlechterung der Kleinen Eiszeit ab Mitte des 14. Jahrhunderts begann eine Phase, in der nach klimatischen Extremen, insbesondere Unwettern, welche Teile der Ernte vernichteten, religiöse Minoritäten und gesellschaftliche Randgruppen verantwortlich gemacht wurden und schließlich massiver Verfolgung ausgesetzt waren. In der Forschung vermutet man eine enge Korrelation zwischen der Kleinen Eiszeit und der Herausbildung von Hexenverfolgungen als kollektivem Verbrechen. Die letzte vermeintliche Hexe wurde Ende des 18. Jahrhunderts in der Schweiz hingerichtet. Hochwasserphänomene erschließen ein facettenreiches Bild gesellschaftlicher Konzeptualisierungen: In Wasserpredigten wurde menschliches Fehlverhalten als Ursache für die Hochwässer genannt, wie es in der Metapher der Sündflut oder der Zornrute Gottes zum Ausdruck kam. Interessanterweise bezeichnete Martin Luther (1483–1546) in seinen Predigten die Hochwasser der Elbe als Werk des Teufels.

Quellen

[1] EIKE 01.08.2015: Schlägt der Klimawandel auch in Franken zu? Bewässerungstechnik aus der Wüste muss Frankens Bauern helfen

[2] EIKE 27. April 2017: Schnee statt Frühlingswärme- geht der Klimaerwärmung nun auch im April die Puste aus? Teil 1

[3] Hessischen Ministerium für Umwelt, Landwirtschaft und Verbraucherschutz: Abschlussbericht zum Forschungsvorhaben Auswirkungen von Klimaveränderungen auf den Obstanbau in Hessen

[4] Bayerisches Umweltministerium, Pressemitteilung Nr. 240/15 vom 07.12.2015, Scharf: Erderwärmung unter der Lupe / Neuer Klima-Report zeigt Folgen des Klimawandels in Bayern

[5] Süddeutsche Zeitung 14. / 15. Oktober: Klimaschutz Die Kühnen von Paris




Klimawissen­schaftler demon­strieren ihre Ignoranz hinsichtlich CO2-Emissi­onen und Abschwä­chung

(Offensichtlich geistert in den Denkapparaten der Klimawissenschaftler herum, dass die in erneuerbaren Strom zwischen 2000 und 2016 investierten 4 Billionen Dollar sowie hunderte Milliarden investiert in nicht elektrische erneuerbare Energie als nichts anzusehen sind).

Während Einige dieses Fehlen von Details als ein Zeichen dafür interpretieren, dass sie die Angelegenheit nicht politisieren wollen, wissen all jene von uns, welche der Debatte folgen, dass viele Klimawissenschaftler sich nicht wirklich Mühe geben, apolitisch zu sein. Folglich entwickle ich in diesem Artikel eine andere Hypothese: Wissenschaftler haben keine Ahnung von Energie und Ökonomie. Sie wissen wenig bis nichts darüber, was getan wurde und getan werden könnte, und sie wissen nicht einmal, wie man Fortschritte bei der Reduktion von Emissionen messen kann. Dennoch bleiben ihre Mahnrufe und Unfehlbarkeitsansprüche genauso vage wie irgendwelche motivierenden Zitate, die man zuhauf im Internet findet.

Es geht den Klimawissenschaftlern nicht darum, eine Debatte darüber zu steuern, was bzgl. Klimawandel getan werden sollte, weil eine solche Debatte augenblicklich das kolossale Scheitern der Klimapolitik während der letzten 20 Jahre offensichtlich machen würde. Es geht ihnen darum, die ,skeptische‘ Seite lächerlich zu machen und sich selbst als Märtyrer darzustellen.

Klimawissenschaftler verstehen nicht, dass Emissionen von ökonomischem Wachstum getrieben werden.

Das mag hart klingen, aber wie sonst soll man Tweets wie die Folgenden (hier und hier) bewerten?

Inschrift: „Und natürlich sind die Gelegenheiten, mit der Reduktion von Emissionen zu beginnen, um Jahre zurück geworfen worden“

Schauen wir mal. Gavin Schmidt betrachtet die Graphik, sieht die Emissionen bis zum Jahr 2008 oder so steigen und dann sinken. Auf dieser Grundlage folgert er, dass der Rückzug aus Kyoto die Gelegenheiten für die Reduktion von Emissionen verzögerte, d. h. dass die Emissionen schon früher angefangen hätten zu sinken, falls man sich nicht aus Kyoto zurück gezogen hätte. Aber er ignoriert vollkommen die Rolle des BIP.

Ein Rückgang von Emissionen bedeutet nicht, dass ,Klimawissenschaft wirkt‘: es kann einfach sein, dass die Wirtschaft kollabiert ist (siehe Syrien und Griechenland). Andererseits bedeutet eine Zunahme von Emissionen nicht, dass Klimapolitik gescheitert ist: es kann einfach sein, dass die Wirtschaft boomt. Was man tun muss: Man muss die Effizienz des BIP pro Einheit emittierten CO2 betrachten sowie die Rate mit welcher diese Effizienz zunimmt – was ich die Dekarbonisierungs-Rate nenne.

Tatsächlich ist es so, wie ich in diesem Artikel beschrieben habe, dass nämlich die Dekarbonisierungs-Rate der USA nach Buschs Rückzug aus Kyoto nicht abgenommen hat. Falls überhaupt, begann sich die Wirtschaft schneller zu dekarbonisieren! (Die Graphik zeigt ein gleitendes 5-Jahre-Mittel):

Betrachtet man das BIP wird offensichtlich, dass der Rückzug aus Kyoto ein Nicht-Ereignis war. Logisch, war doch Kyoto selbst ebenfalls ein Nicht-Ereignis. Übrigens war die Dekarbonisierungs-Rate der USA ein wenig höher als die der Europäischen Union im gleichen Zeitraum!

Die Mutter aller Rosinenpickerei: die letzten drei Jahre beweisen, dass die Klimapolitik erfolgreich war, aber die fünfzig Jahre zuvor zählen nicht!

Die ,Neuigkeit‘, dass die CO2-Emissionen im Jahre 2016 mehr oder weniger flach verlaufen waren (was tatsächlich vor mindestens vier Monaten bekannt war), bot den Wissenschaftlern eine neue Gelegenheit, sich über ihre gemeinsame Ahnungslosigkeit über Twitter auszutauschen.

Siehe z. B. Jon Foley:

Oder Scott Denning:

Oder Victor Venema:

Inschrift: Viel passiert bereits. Während der letzten drei Jahre waren die Emissionen durch Industrie und fossile Treibstoffe stabil. Dies ist normalerweise nur während einer weltweiten Rezession der Fall. Dies ist ein Zeichen, dass Politik bzgl. erneuerbarer Energie und Energieeffizienz zu greifen beginnt. Die meiste globale neue Energie-Erzeugungs-Kapazität und Investitionen sind bereits kohlenstofffrei. Der nächste Schritt ist, dass auch die meiste neue Erzeugung erneuerbar ist. Dann müssen wir die übrige Wirtschaft elektrifizieren sowie den Markt und die Technologie dazu nutzen. Angebot und Nachfrage zusammenzubringen. Es ist immer noch ein langer Weg, aber ich habe das Gefühl, es bewegt sich.

Oder Stefan Rahmstorf:

Inschrift [Rückübersetzung]: Während der letzten drei Jahre sind die globalen CO2-Emissionen aus der Verbrennung fossiler Treibstoffe nach Jahrzehnten des Anstiegs flach verlaufen. Dies ist ein Zeichen, dass Politik und Investitionen in die Klimaabschwächung sich auszuzahlen beginnen. Die USA, China und andere Nationen ersetzen Kohle durch Erdgas und rasant zunehmend durch erneuerbare Energiequellen. Es gibt eine fast einstimmige internationale Zustimmung, dass die Risiken, den Planeten dem Klimawandel auszusetzen, zu groß sind, um sie zu ignorieren.

Noch einmal: Die Wissenschaftler ignorieren vollständig die Rolle der Ökonomie. Haben sie noch nie etwas von dem Terminus Störfaktor [confounder*] gehört? Nun, es stellt sich heraus, dass die globale Wirtschaft während der letzten drei Jahre etwas langsamer gewachsen ist als die meiste Zeit in der Historie. Darum nehmen die Emissionen natürlich auch langsamer zu.

[*confounder: Der Übersetzer LEO bietet keine eindeutige Übersetzung an. In Kommentaren taucht dort der Begriff ,Störfaktor‘ auf. Mit diesem werde ich den Begriff also übersetzen. Anm. d. Übers.]

In diesem Artikel beschrieb ich die Dekarbonisierung des globalen BIP seit Beginn von Aufzeichnungen im Jahre 1951. Ich konnte mich nicht dazu durchringen, die Graphik mit Einschluss des Jahres 2016 zu aktualisieren, aber die Rate war ähnlich der des Jahres 2015, d. h. etwas über 2%.

Während die Dekarbonisierungs-Rate der letzten 3 Jahre höher ist als das historische Mittel, ist sie in keiner Weise ein Ausreißer. Öl und Gas nahmen 2017 stark zu und Kohle in den drei wichtigsten Märkten ebenfalls. Da ist es fast gesetzmäßig, dass die CO2-Emissionen in diesem Jahr um mindestens 1% zunehmen werden – was die Dekarbonisierungs-Rate erneut unter 2% drückt.

Am wichtigsten: Die implementierte vermischte Rate seit Beginn der Klimapolitik liegt deutlich unter dem historischen Mittel! Dabei spielt es keine Rolle, welches Jahr man wählt, 1997, 2000 usw. Meinen Berechnungen zufolge beträgt die Rate von 2000 bis 2017 0,7% – das ist etwa halb so hoch wie das Niveau vor der Jahrtausendwende. Anders gesagt: Die heutigen Emissionen sind höher als sie es wären, wenn sie einfach den Trend vor Kyoto beibehalten hätten.

Falls die typische Dekarbonisierungs-Rate 1,4% beträgt und man über 17 Jahre ein Mittel von 0,5% erhält, dann würde man natürlich erwarten, dass die Rate wieder steigt – und vielleicht das historische Mittel für einige Jahre übertreffen wird. Dies passiert in allen Arten von Zeitreihen-Daten. Nach den Verheerungen des 2. Weltkrieges beispielsweise wuchsen die Europäischen Ökonomien schneller denn je. Hohe ökonomische Wachstumsraten sind keine Überraschung nach einer Periode mit schlimmen (in diesem Falle negativen) Raten.

Niemand, der auch eine Spur Ahnung hinsichtlich historischer Emissionen hat, würde sagen, dass die letzten drei Jahre einen ,Wendepunkt‘ darstellen oder ein Beweis für das Wirken von Klimapolitik sind. Man braucht viele weitere Jahre mit einer schnelleren Dekarbonisierung als im Mittel, um zu folgern, dass die Politik greift.

Zum Schluss dieses Abschnitts ein weiteres Tweet von Mr Denning:

Niemand mit auch nur einem Schimmer Ahnung von Emissionen und Ökonomie würde den Ausdruck ,Entkopplung‘ verwenden. Die Wirtschaft wächst fast immer schneller als CO2-Emissionen, und falls sie langsam wächst, können CO2-Emissionen sinken. Es gibt darum herum keine ,Entkopplung‘ – es ist das, was immer passiert ist, obwohl normalerweise westliche Ökonomien zu schnell wachsen, um Emissionen sinken zu lassen.

Sagen wir mal, dass das BIP um 0,1% wächst und die Emissionen um 0,1% sinken. Würde man hier sagen, dass diese beiden Dinge sich entkoppelt haben?

Keine bedeutsamen Maßnahmen wurden ergriffen“

Nun gut, ich erwähnte diesen von vielen Wissenschaftlern gehätschelten Irrtum am Beginn des Artikels. Aber ich konnte nicht der Versuchung widerstehen, den folgenden geistesgestörten Twittersturm zu posten:

Falls keine bedeutsamen Maßnahmen ergriffen worden sind, was war dann der Sinn der 22 COP-Treffen? Sollen wir glauben gemacht werden, dass Fox News und die Koch Brothers Klimamaßnahmen in Bulgarien, Äthiopien, Bangladesh… blockiert haben?

Republikaner schlecht, Demokraten gut

Die vermeintlich apolitischen Wissenschaftler scheinen eine ziemlich starke politische Präferenz für eine bestimmte Seite zu haben. Früher erlebten wir, wie die USA unter Bush sich tatsächlich schneller dekarbonisierten als die EU während der gleichen Zeit. Dennoch war Bush immer als so etwas wie ein Klima-Antichrist verleumdet worden (siehe die Tweets von Gavin Schmidt zu Beginn). Man beachte bitte, dass ich nicht sage, dass Bush die Dekarboniserungs-Rate verursacht hat – es war sicher nur ein Zufall.

Falls ein Staat von Demokraten regiert wird und behauptet, viel zum ,Kampf gegen den Klimawandel zu tun‘, dann muss er offensichtlich etwas tun, was ,besser für das Klima‘ ist. Dieser Artikel ist schon ziemlich lang, so dass hier nur ein Tweet als Beispiel angeführt wird:

Nun sind die meisten der Städte, die behaupten, ,führend im Kampf gegen den Klimawandel‘ zu sein, in der glücklichen Lage, dass es keine guten Daten über CO2-Emissionen von Städten gibt. Aber es gibt Daten über Emissionen auf staatlichem Niveau. Hier ist Kalifornien, Mr. Foley zufolge der Klima-Führer:

Die Graphik zeigt zwischen 2000 und 2014 eine Abnahme der Treibhausgas-Emissionen pro Einheit BIP von 26%. Das ist gleich einer Zunahme der Treibhausgas-Effizienz des BIP um 35% (1/0,74). 14 Jahre lang ist das eine gemischte Dekarbonisierungs-Rate von 2,3% … was ziemlich genau der gleichen Rate wie der USA als Ganzes entspricht.

Also erging es dem Klima-Führer Kalifornien genauso schlecht (oder gut) wie dem Rest des Landes. Hoppla!

Hätten wir doch nur zugehört…“

Falls jemand nicht weiß, wie schnell man realistischerweise Emissionen zurückfahren kann, und sich stattdessen auf Fantasie-Szenarien stützt, dann kann dieser Jemand nicht wissen, was geschehen wäre, falls wir auf die Klimawissenschaftler gehört und mit der Reduktion von Emissionen vor Jahren begonnen hätten. Ich weiß nicht mehr, wie oft ich schon eine Version von ;wir hätten hören sollen‘ oder ,uns läuft die Zeit davon‘ gehört habe. Zum Kuckuck, man betrachte die Tweets von Jon Foley oben: ,der Rest von uns wird den Preis für diese Verzögerung zahlen‘.

Aber wie teuer war die Verzögerung denn nun? Man hört niemals, wie viel Erwärmung wir hätten vermeiden können – obwohl jener Datenpunkt sehr viel ausmacht! Also habe ich das mal geschätzt: falls eine stärkere (höhere) Dekarbonisierung schon im Jahre 1979 begonnen hätte, würde der Unterschied zu den derzeitigen Temperaturen etwa 0,05°C betragen – kein Witz!

Die Dekarbonisierungs-Rate betrug historisch etwa 1,4%, d. h. das BIP wuchs im Mittel um 1,4% schneller als die CO2-Emissionen; es sind etwa 1,1%, wenn wir den Zeitraum nach dem Jahr 2000 mit einbeziehen. Falls wir die Dekarbonisierungs-Rate um ein weiteres Prozent anheben, betrüge die Auswirkung bis zum Ende dieses Jahrhunderts weniger als 0,5°C! Offensichtlich ist es nahezu irrelevant, ob dieses höhere Niveau der Dekarbonisierung im Jahre 1979, 2000 oder 2030 begonnen hätte. Der Unterschied macht höchstens 0,1 bis 0,2°C aus.

Wissenschaftler behaupten unverdrossen, dass Abschwächung eine massive Auswirkung auf Temperaturen haben kann durch:

a) Sie verlassen sich auf Computermodelle anstatt auf Werte der Klimasensitivität berechnet aus historischen Temperaturdaten. Während die Gleichgewichts-Klimasensitivität unsicher bleibt, gibt es eine größere Übereinstimmung hinsichtlich der kurzlebigen Klima-Reaktion, und nur diese spielt hinsichtlich der Erwärmung in diesem Jahrhundert eine Rolle.

b) Sie beziehen eine Menge ,vermiedener Erwärmung‘ durch Reduktionen von Emissionen ein, welche nicht von fossilen Treibstoffen stammen. Das ist Unsinn, da diese Emissionen nicht verifizierbar sind – genauso wie jedwede ,Reduktionen‘. Außerdem stammen über 80% des menschlichen Klima-Antriebs während der letzten Jahre aus CO2, und 80% bis 90% davon gehen auf fossile Treibstoffe zurück.

c) Sie nehmen ein absurd hohes ,grundlegendes‘ Szenario an, welches sie irreführend ,Business as Usual‘ nennen. Mann, bei ,Business as Usual‘ würde ich große Mengen Kohle in meinem Hinterhof verbrennen; da ich das tatsächlich aber nicht mache, muss ich Emissionen stark reduziert haben!

Falls ein Schwachkopf wie ich die Berechnungen durchführen kann, kann das jemand mit einem Ph.D. mit Sicherheit auch. Aber erstens müsste der Typ mit Ph.D. ein wenig Neugier zu diesem Thema zeigen, zweitens Daten bzgl. des ökonomischen Wachstums herunterladen und drittens andere Websites anklicken, um Daten über Emissionen usw. zu erhalten. Und warum sollte man an einem Thema forschen, wenn man Unsinn twittern kann?

Schlussfolgerung

Man beachte bitte, dass ich nicht behaupte, ein Experte zu sein, wenn ich auf die Ignoranz der Wissenschaftler hinweise. Der Themenbereich Energie, Wirtschaft und CO2-Emissionen ist sehr umfangreich und mein eigenes Verständnis davon rudimentär. Aber es ist immer noch besser als das der von mir in diesem Artikel zitierten Wissenschaftler.

Klimawissenschaftler, zumindest sehr viele von ihnen, scheinen vollständig ahnungslos hinsichtlich der meisten Klimadinge, welche tatsächlich für den Rest von uns von Bedeutung sind. Sie wissen nicht, wie viele Emissionen zu- oder abnehmen, den Zusammenhang zwischen Emissionen und Ökonomie und ob unterschiedliche Länder erfolgreich bzgl. Emissionsreduktion sind oder nicht. Sie erwähnen niemals , was es kosten würde, die Freisetzung einer Tonne CO2 zu verhindern (hier). Sie reden kaum einmal über Dekarbonisierungs-Raten. Und so weiter, und so weiter

Sie sind ignorant. Aber die Welt sollte nicht zur Geisel ihrer Ignoranz werden.

Nachtrag: Natürlich wird auch gegen Skeptiker der Vorwurf ,aber sie fordern nichts‘ erhoben. Hier also eine spezifische Forderung von mir zum Kampf gegen den Klimawandel: nichts tun!

Link: https://wattsupwiththat.com/2017/10/10/climate-scientists-reveal-their-ignorance-about-co2-emissions-and-mitigation/

Übersetzt von Chris Frey EIKE




Deutsche Steuermilliarden gegen den Klimawandel – „Internationale Klimafinanzierung“ – mehr Mittel trotz unklarer Wirkung

Deutschland ist Energiewende-Land. Aber wussten Sie, dass der deutsche Steuerzahler jährlich mehrere Milliarden Euro für die „internationale Klimafinanzierung“ zahlt? Die Bundesregierung finanziert Maßnahmen in Entwicklungs- und Schwellenländern zur Verminderung von Treibhausgasemissionen und zur Anpassung an die Folgen des Klimawandels. Rund 90 Prozent der Mittel stammen aus dem Haushalt des Bundesministeriums für wirtschaftliche Zusammenarbeit und Entwicklung (BMZ). So wird der überwiegende Teil der Mittel auch – ähnlich der Entwicklungszusammenarbeit – für die bilaterale Zusammenarbeit verwendet. Die restlichen Mittel werden über internationale Organisationen und Finanzierungsmechanismen bereitgestellt – die sogenannte multilaterale Zusammenarbeit.

2,7 Milliarden Euro Haushaltsmittel

Die deutschen Beiträge aus öffentlichen Haushalten sind in den vergangenen Jahren deutlich angestiegen. Die aktuellsten Zahlen liegen für das Jahr 2015 vor. Damals hatte die Bundesregierung rund 2,7 Milliarden Euro aus Haushaltsmitteln für internationalen Klimaschutz und Anpassungsmaßnahmen zugesagt. Weitere Mittel – rund 4,7 Milliarden Euro – wurden über Kredite, Beteiligungen und andere Finanzierungen aus Kapitalmarktmitteln der öffentlichen Kreditanstalt für Wiederaufbau (KfW) und der Deutschen Investitions- und Entwicklungsgesellschaft (DEG), einer Tochtergesellschaft der KfW, zugesagt.

Die Ausgaben aus Haushaltsmitteln haben sich innerhalb von zehn Jahren nahezu versechsfacht und sollen weiter steigen. Bundeskanzlerin Angela Merkel hatte im Mai 2015 auf dem „Petersberger Klimadialog“ angekündigt, den deutschen Beitrag zur Klimafinanzierung zu verdoppeln. Dies bedeutet einen Anstieg der Ausgaben aus dem Bundeshaushalt auf 4 Milliarden Euro bis zum Jahr 2020. Unklar ist noch, wie sich der Rückzug der USA aus dem Pariser Klimaabkommen auf die verbleibenden Geberländer auswirken wird.

Wirkung nicht ganz klar

Nicht ganz klar sind offenbar auch die Wirkungen der finanzierten Projekte auf die CO2-Emissionen. Dies ergab eine Anfrage des Deutschen Steuerzahlerinstituts (DSi) an das BMZ. In der aktuellen Ausgabe der „Deutschen Nachhaltigkeitsstrategie“ räumt die Bundesregierung sogar ein, dass die Angaben zur Wirkung letztlich Prognosen sind und überschätzt sein können. Mit Blick auf die geplanten Ausgabensteigerungen muss die Wirkungskontrolle verbessert werden.

Dieser Artikel ist zuerst erschienen im Wirtschaftsmagazin Der Steuerzahler: Internationale Klimafinanzierung – mehr Mittel trotz unklarer Wirkung, Der Steuerzahler, Ausgabe 09/2017. 

EIKE dankt dem Deutschen Steuerzahlerinstitut des Bundes der Steuerzahler (www.steuerzahlerinstitut.de/) und dem Bund der Steuerzahler (www.steuerzahler.de) für die Gestattung des ungekürzten Nachdrucks.

Quelle: BMZ.




Brief an UBA und BUMB

Die Hypothese von der „menschengemachten gefährlichen Klima-Erwärmung“ entstand in den 80er-Jahren als Folge von gleichzeitigem CO2-Anstieg und Temperaturanstieg und wurde von einigen Klimatologen und den Medien begeistert verbreitet. Endlich wieder eine neue Katastrophe (nachdem aus dem „Waldsterben nichts geworden war).

 Hatte man doch gerade die schönen Schlagzeilen von der „kommenden Eiszeit“ aufgeben müssen, als die globale Abkühlung zwischen 1940 und 1970 zu Ende ging. Dass diese Abkühlung trotz CO2-Anstieg stattfand, wurde ignoriert und unterdrückt, denn das störte natürlich bei der neuen Erwärmungs-Theorie.

Schnell wurde das IPCC (Intergovernmental  Committee  for Climate Change) gegründet, der dann durch pseudowissenschaftliche „Klimamodelle“ den erwarteten Anstieg der Globaltemperatur berechnete.

Das war außerordentlich naiv, denn diese Modelle beruhten auf einer Annahme für die CO2-Sensitivität von 1979 und diese konnte bis heute nicht verifiziert werden. Die Tatsache, dass es dann aber nach 1998 keinen weiteren globalen Temperaturanstieg mehr gab, war natürlich für die Klima-Alarmisten und die Medien sehr enttäuschend und wurde weitgehend unterdrückt. Was nicht sein darf, das nicht sein kann. Das Klima hat „menschengemacht“ zu sein. Basta. Glauben ist wichtiger als die Fakten in unserer „postfaktischen Zeit“. Hinzu kamen der „Kampf gegen den Kapitalismus“ und das alte Motto „der Mensch ist schuldig von Geburt an, egal für was“. Es entwickelte sich eine Art pseudoreligiöser Wahn oder idiologische Obsession zur Rettung unseres Planeten und der „Zukunft unserer Kinder“. 

Der fundamentale Fehler, den das IPCC und einige Klimaforscher machten, war die Ignoranz der natürlichen Klimazyklen, wie sie seit Jahrtausenden und Jahrmillionen regelmäßig stattfanden – auch schon (unglaublich !!) vor Existenz der Menschheit.

Man könnte das durchaus als Bestätigung der von Albert Einstein damals definierten “ unendlichen menschlichen Dummheit” betrachten. Natürlich kann man nicht erwarten, dass bei allen Menschen etwas von der Klima-Historie der Erde bekannt ist, aber dessen Ignoranz der natürlichen Fakten durch viele (auch deutsche) Klimaforscher und das IPCC ist schon sehr seltsam.

Die ideologisch und politisch hochgespielte „Erwärmungphase“ der letzten zwei Jahrzehnte ist nichts anderes als das erneute Maximum des tausendjährigen natürlichen Klimazyklus‘ , wie er seit 9000 Jahren (nach dem Ende der letzten Eiszeit) regelmäßig alle 1000 Jahre aufgetreten ist. Nur gab es früher noch keine katastrophensüchtige Mediengesellschaft.

Das IPCC begründet seine CO2-Hypothese nicht mit Fakten, sondern mit “ confidence”, d.h. Vertrauen oder Glauben. Nur ist dies eher Religion oder Ideologie zuzuordnen als Wissenschaft. Jede Theorie muss in der Wissenschaft durch konkrete Beweise gesichert werden, sonst bleibt es eine Annahme oder Idee.

Ein globaler Temperaturanstieg bewirkt zweifellos einen Anstieg des CO2-Niveaus durch Ausgasung aus den Ozeanen (weil Wasser bei höherer Temperatur weniger CO2 gelöst haben kann). Und das geschah in der Vergangenheit mehrfach bis zu 6000 ppm (heute 400 ppm).  Nur ein umgekehrter Effekt (d.h. Temperaturanstieg durch mehr CO2) konnte auf Basis der Eiskernbohrungen in Grönland und in der Antarktis nicht beobachtet werden.

Im Gegensatz zu der Hypothese über den angeblichen CO2-Einfluss auf das Globalklima zeigt eine Analyse der Klima-Vergangenheit keine  nennenswerten Einfluss von CO2.  Auch gibt es schon seit 1998 keinen “ Klimawandel” oder globalen Temperaturanstieg mehr; stattdessen den “Stillstand oder neudeutsch “hiatus”, auch wenn mit allen Mitteln von den interessierten Kreisen versucht wird, diese Tatsache zu leugnen oder zu vertuschen.

Dr. Dietrich E. Koelle, Okt.2017

  

Kein maßgeblicher Politiker in Deutschland hat die inszenierte Klima-Hysterie erkannt und kritisiert – mit einer Ausnahme: Altkanzler Helmut Schmidt sagte dazu am 4.Juni 2007 : „Klimatischen Wandel hat es auf der Erde gegeben, seit es sie gibt. Und sich darüber aufzuregen und zu meinen, der Mensch könnte diesen Wandel durch gemeinsamen Beschluss aufhalten, das ist reine Hysterie, das ist dummes Zeug.

 

 

Klima-Paranoia

 

Das Erneuerbare-Energien-Gesetz (EEG) ist ein Musterbeispiel dafür, was geschieht, wenn inkompetente Politiker ihre realitätsfremden Träume von einer schönen neuen Energiewelt von wehrlosen Bürgern bezahlen lassen. Aus dem Wahn, das Weltklima am deutschen Wesen genesen zu lassen, werden Milliarden in hierzulande nutzlose Technologien wie die Fotovoltaik gesteckt.

 

Professor Dr.-Ing. Jürgen Althoff, früherer Vorstandsvorsitzender TÜV Saarland),

St-Wendel/Saar

WirtschaftsWoche, Nr. 52, 24. Dezember 2010

 

 

 

BMWU, UBA (mit Chefs)   14.10.

Bethke




Natürliche und nicht anthropogene Klimaschwankungen dokumentiert an den Gletschervorstößen des Vernagtferners

Recht ausführlich werden von ihm die interessanten Ergebnisse der neuesten glaziologischen Untersuchungen des Vernagtferners genannt. Es wird auch eine sachlich richtig Antwort zur Entwicklung des Gletschers gegeben: Mit den heutigen Erkenntnissen kann nicht vorausgesagt werden, wie sich der Gletscher in Zukunft entwickeln wird. Zum ‚Klima‘ äußert er sich allerdings erst mit dem Datum von1850, obwohl man wissen sollte, dass in den ca. 250 Jahren davor die kleine Eiszeit die kälteste Zeit in dem Holozän war. Die Temperaturen des gesamten Holozäns, das vor knapp 14.000 Jahren unserer Zeitrechnung begann, lagen mit ihren natürlichen Schwankungen viel höher als heute. Mit dem Leserbrief wollte ich die Öffentlichkeit darauf aufmerksam machen, wie seit längerer Zeit in Medien und in der Presse sowie durch Politiker und durch NGO’s zu diesem Thema mit sehr selektive Aussagen auch zu guten Fachberichten leider meist „politisch korrekte“ aber naturwissenschaftlich nicht fundierte Zusammenfassungen verbreitet werden. Leider wurde der folgende Leserbrief nicht veröffentlicht. Deshalb gebe ich anschließend an den Brief einen kurzen Überblick über den heutigen Kenntnisstand der Entwicklung des Vernagtferners seit dem frühen Mittelalter im Zusammenhang mit der seit einiger Zeit propagierten sogenannten ‚Klimakatastrophe‘.

Mein Leserbrief – ohne Bilder und Literaturhinweise – vom 18. September 2017 an die F.A.Z.:

Manipulation

Es ist immer wieder erfreulich, dass die F.A.Z zunehmend auch Berichte über das natürliche Geschehen in der Natur mit wissenschaftlich fundierten Antworten veröffentlicht („Auf dem Rückzug“ von Bernd Steinle, F.A.Z vom 16. September). Zwei Sommer lang (je 4 Monate in 1963 und 1964) habe ich für meine geologische Diplomarbeit (TU München) das gesamte Vernagtgebiet mit den umliegenden über 3000 m hohen Bergen bis zur Wildspitze geologisch neu kartiert. Dabei lag es nahe, mich auch etwas mit der Geschichte des Rückzugs des Vernagtferners zu beschäftigen, den ich damals alleine sehr häufig überqueren musste, um an der Grenze des Firnfeldes zum Fels geologische Daten zu messen und Gesteinsproben zu sammeln (H. Fuchs et al.1969*).

Der Autor des Berichtes in der F.A.Z fasst die technischen Ergebnisse gut zusammen, die Folgerungen daraus sind einerseits korrekt, da er trotz der detaillierten Arbeiten der beiden Fachleute, die er interviewt hatte, erkannt hat, dass bis heute niemand die zukünftige Entwicklung des Vernagtferners und somit die zukünftige Klimaentwicklung vorhersagen kann. Andererseits sind seine weiteren Folgerungen wissenschaftlich nicht korrekt. Zum einen hätten die Fachleute wissen müssen, dass schon vor Franz Senn (1831-1884), der für 10 Jahre Pfarrer in Vent (1860 bis 1869) war und auch einer der Gründerväter des Deutschen Alpenvereins (1869) ist, aus früheren Berichten seit dem 17. Jahrhundert schon damals mit einem unglaublichen Weitblick die Bedeutung des einsetzenden Rückzugs des Vernagtferners für Vent und für das gesamte Ötztal erkannt hatte. Zum anderen hätte der Autor als Referenzdatum zu den Klimaschwankungen (heute Klimawandel bzw. Klimakatastrophe) das Datum 1850 hinterfragen müssen, da das Temperaturtief des holozänen Interglazials im Bereich von ca. 180 Jahren davor bei einer durchschnittlichen Temperatur von nur ca. 2,6 Grad Celsius lag, also damals die kälteste Zeit des gesamten Holozäns gewesen ist. Hätte er dagegen die durchschnittliche Temperatur aus der Zeit der Römer (1. Jahrhundert, ca.4 Grad) als Referenz genannt, wäre auch für die Bürger erkennbar, dass die heutige Durchschnittstemperatur von ca.3 Grad keine Katastrophe darstellt, sondern eine ganz normale, vom Menschen kaum beeinflussbare natürliche Entwicklung ist, und die Römer mit einer weit höheren Durchschnittstemperatur ein Weltreich aufbauen konnten. Mit der Nennung des Referenzjahres 1850 wird daher leider wieder einmal eine falsche, allerdings politisch korrekte Aussage gemacht, weil es sich bei der heutigen Erderwärmung um eine Katastrophe handeln muss! Inzwischen kennen wir das Klimageschehen im Holozän, das nach unserer Zeitrechnung von ca. 12.000 Jahren nach heutiger Zeitrechnung bis heute dauert, recht genau.“

Abb 2 Kesselwandspitze & Hochvernagt v. Plattei. 1725. Photographie und Verlag Würthle und Spinnhirn in Salzburg“. Aufgenommen von Gustav Jägermayer im August 1884 (Richter 1885). Die Abbildung ist die älteste bekannte Photographie des Vernagtferners (Tiroler Landesmuseum Ferdinandeum), Nicolussi, 2013 *),

Wissenschaftliche Erkenntnisse zu den Gletschervorstößen des Vernagtferners.

Nach Kurt Nicolussi 2013 *) sind für den Vernagtferner, Ötztaler Alpen, „… vier neuzeitliche Vorstöße ins vorgelagerte Rofental und dadurch ausgelöste Eisseebildungen historisch dokumentiert: um1600, 1680, 1772 und 1845. Der Kenntnisstand zum Ablauf dieser Hochstandphasen und den dokumentierten Seespiegelschwankungen und -ausbrüchen wird zusammengefasst. Ein Vergleich der Größenvariation des Vernagtferners mit jenen von Aletschgletscher und Unteren Grindelwaldgletscher belegt die unterschiedliche Dynamik der jeweiligen Eiskörper in den letzten rund 400 Jahren. Zwar sind Vorstoßbeträge und – Geschwindigkeitsbeträge unterschiedlich, aber die Hochstände des Vernagtferners fallen mit Vorstößen und Hochständen der beiden anderen Gletscher zusammen, wenn auch die Maxima manchmal um einige Jahre variieren. Das zeigt, dass die Hochstände des Vernagtferners im vergangenen Jahrtausend durchwegs klimatisch – und damit entsprechend auswertbar – und nicht nur eisdynamisch bedingt sind. Als Ausnahme mag der Hochstand um 1680 erscheinen, aber auch für diesen gibt es eine zeitlich präzise Übereinstimmung mit einem der beiden neuzeitlichen Maximalstände des Gepatschferners …“

Im frühen 17. Jahrhundert erstreckte sich mehrmals die mächtige Gletscherzunge bis in das obere Rofental und reichte dann bis zu der dahinter liegenden Zwerchwand hinauf. Hinter dieser Eisbarrikade wurde dann der von Westen kommende Rofenbach aufgestaut und es bildeten sich dahinter größere Stauseen. Wurde der Druck eines Sees zu groß, wurde die Eisblockade der Gletscherzunge durchbrochen und die Wasserflut führte zu Überflutungen des Rofentals von Vent und auch des ganzen Ötztals bis zum Inn, häufig mit Zerstörungen mit vielen von Toten. Bis zum Ende des 17. Jahrhunderts wurden dann vor der Zwerchwand die hier hochgeschobene Gletscherzunge zum Schutz des Tals mühsam mit Hacke und Schaufel Abflussrinnen gegraben, um die Menge des gestauten Wassers der sich immer wieder füllenden Stauseen zu verringern. Denn damals verließ man sich nicht nur auf den Glauben an Gott, auch nicht auf die damals Herrschenden, sondern versuchte sich vor nicht beeinflussbaren Naturgewalten mit technischen Maßnahmen zu schützen. Dieses Gefahrenpotenzial kannte der ‚Gletscher-Pfarrer‘ Franz Senn in den 1860iger Jahren. Er begann damals schon die umgebende Bergwelt zu erforschen und zu vermessen. Mit unglaublichem Weitblick erkannte er die Bedeutung des einsetzenden Rückzugs des Vernagtferners für Vent und für das gesamte Ötztal. Entspannung ist deshalb ins besondere für die Bewohner des Ötztales angesagt, die in Zukunft von großen Überflutungen durch ausbrechende Gletscherseen als Folge der seit damals stattfindenden natürlichen Erwärmung verschont bleiben dürften.

Abb 3 Der Rofener Eissee am 16. August im Jahr 1772, Kupferstich (Walcher 1773) *)

Klimageschehen (Temperaturschwankungen) im Holozän bis heute

Zuvor jedoch zum besseren Verständnis des Gesagten im Bezug zu Temperaturschwankungen und Klima nach Wikipedia folgendes: „Der Begriff ‚Klima‘ steht für die Gesamtheit aller meteorologischen Vorgänge, die für die über Zeiträume von mindestens 30 Jahren regelmäßig wiederkehrenden durchschnittlichen Zustände an einem Ort verantwortlich sind … Das Klima wird jedoch nicht nur von Prozessen innerhalb der Atmosphäre geprägt, sondern vielmehr durch das Wechselspiel aller Sphären der Erde (Kontinente, Meere, Atmosphäre) sowie von der Sonnenaktivität und anderen Einflüssen wie Z. B. der Instabilität der Erdbahn (Eiszeiten und Warmzeiten) …“. Zum Verständnis dieses Satzes sei auf ein ganz kleines Mosaiksteinchen zu den ständigen Plattenverschiebungen mit ihren weltweiten Massenverschiebungen und den damit zusammenhängenden Mechanismen der weltweiten Gebirgsbildungen hingewiesen. Die Komplexität dieser Bewegungen kann man an der geologischen Entwicklungsgeschichte des Vernagtgebietes als Folge der Plattenverschiebungen in unserer Veröffentlichung (Fuchs et al.1969 *) erkennen.

Inzwischen verstehen wir die Temperaturschwankungen (nicht jedoch das komplizierte ‚Klimageschehen‘) im Holozän recht genau, das nach unserer Zeitrechnung von ca. 12.000 Jahren bis heute dauert. In der Tabelle von Ed Hoskins, (2017 *) sind die Ergebnisse aus Belegen von Untersuchungen an Eisbohrkernen zusammengestellt, die auf einen einheitlichen Nullwert für den gesamten Zeitabschnitt bezogen sind. Sie zeigen die Bandbreite der Temperaturschwankungen auf der Nordhalbkugel, die eine größere Landmasse als die auf der Südhalbkugel hat und unsere Situation realistischer abbildet. Zum besseren Verständnis des Ergebnisses werden hier einige Zahlen zusammen gestellt, die jeder jedoch auf der Basis der genannten Tabellenwerte für seine eigene Klimaszenarien selbst variieren oder aber auch manipulieren kann.

Zum Beginn des Holozäns bestand eine lange Warmzeit. Die Durchschnittstemperatur lag damals bis ca. 2000 v. Chr. zwischen 4,7 und 4,4 Grad mit Schwankungen zwischen 6 und 3 Grad. Ab 1000 v. Chr. fällt die Durchschnittstemperatur von 4 Grad bis zur Zeitwende auf 3,7 Grad mit Maxima zur Minoer-Zeit von ca. 5,6 Grad. In dem Zeitabschnitt der Römer sowie in dem des Mittelalters fällt der Wert auf durchschnittlich 4 Grad. Zum Tiefpunkt der kleinen Eiszeit zum Ende des 17. Jahrhunderts lag die Durchschnittstemperatur bei ca. 2,5 Grad. Danach stieg sie wieder bis zum Ende der vorindustriellen Zeit auf ca. 3 Grad und bis heute weiter auf ca. 3,1 Grad an!

Abb. 4 The world should now fear the real and detrimental effects of cooling ,Ed Hoskins, 2017

Man kann nun über diese ermittelten Werte streiten, nicht aber gegen die deutlichen Schwankungen der Temperaturen im Holozän während dieses Abschnitts der Evolution der Erde. Dies ist ein nicht zu widerlegender Beweise, dass eine globale Erwärmung weder von uns Menschlein – trotz anderer Behauptungen – beeinflusst werden kann noch uns eine durchschnittliche Erwärmung von einem halben oder ganzen Grad schaden wird – wie es den Römern und den Menschen im Mittelalter nicht geschadet hat!

Leider werden in dem von der F.A.Z. veröffentlichten Bericht der Rückblick auf die vergangene Temperaturentwicklung nur bis 1850 genannt, der kältesten Zeit des Holozäns, obwohl wir heute diese bis ins 16. Jahrhundert besonders gut kennen. Dadurch wird – für jeden erkenntlich – der bewusst falsche Eindruck erweckt, dass sich die Temperaturen nur seit dieser Zeit erhöht haben und

weitere Wärmesteigerungen hauptsächlich durch anthropogene Ursachen bewirkt würden. Hätte der Berichterstatter dagegen die durchschnittliche Temperatur aus der Zeit der Römer als Referenz genannt, dann bliebe noch genügend Raum für eine weitere natürlich verursachte Erwärmung, unabhängig davon, ob diese durch Menschen erzeugtes CO2 – was aus physikalisch-chemischen Gründen jedoch unwahrscheinlich ist – oder eine Folge der natürlichen Evolution der Erde (Wechselspiel aller Sphären der Erde, siehe oben) darstellt. Angesichts dieser Tatsache könnte man sogar dazu übergehen, eine weitere Erhöhung der Temperaturen zu wünschen und die derzeitige weltweite Hysterie über einen Temperaturanstieg um 1 Grad oder 1,5 Grad mit vielen Billionen von Dollar oder Euro (da sowieso erfolglos) zu verhindern.

Trotz dieser Erkenntnisse betitelt M. Weber, 2003 *) seine Veröffentlichung zur Prognose zur Klimageschichte des Gletschers: “Gletscherschwund und Klimawandel an der Zugspitze und am Vernagtferner (Ötztaler Alpen)“. Dabei beruft er sich auf den heutigen opportunistischen Begriff ‚Klimawandel‘ insbesondere, wenn er für die Bewertung des Verhaltens der durchschnittlichen Temperaturen wiederum nur die Zeitspanne seit 1850 also nur über 150 Jahre bis heute betrachtet, wie sein Diagramm zeigt. Würde man jedoch beispielhaft als Referenzzeitpunkt die durchschnittliche Temperaturen von vor 2000 Jahren oder früher angeben, wie dem Diagramm von Ed Hoskin, 2017 zu entnehmen ist, verbietet sich die Aussage über eine angebliche anthropogene Beeinflussung des Klimas. Wissenschaftlich korrekt wäre der Begriff natürliche Temperaturschwankungen, da die vielen weiteren klimarelevanten Faktoren – siehe Definition weiter oben – nicht berücksichtigt wurden. Seine Prognosetabelle zeigt jedoch auch einen weiteren aufklärenden, wohl politisch gewünschten Befund. Die Prognose zur weiteren Erwärmung nach Roeckner (2001) ist eine lineare und aus der Vergangenheit eher erklärbare realistischere Einschätzung als die Prognose des IPCC. Mit dieser soll wohl gezeigt werden, dass die zukünftige nicht auszuschließende Erwärmung von angeblich anthropologisch beeinflussenden Faktoren abhängt. Und dazu sind komplexe statistische Modelle notwendig, die je nach Eingabe der verschiedensten ‚klimarelevanten Annahmen‘ „ … das Klima wird jedoch nicht nur von Prozessen innerhalb der Atmosphäre geprägt, sondern vielmehr durch das Wechselspiel aller Sphären der Erde …“ jede Aussage erlauben, die sich mit oder ohne Berücksichtigung der Daten aus der Vergangenheit konstruieren und auch manipulieren lassen. Auch die zunehmend gespreizte rote Darstellung des Anstiegs der Erwärmung deutet in die politisch gewünschte Richtung.

Abb. 5. Prognosen des weiteren Verlaufs der Massenabnahme des Vernagtferners auf der Basis verschiedener Szenarien der weiteren Entwicklung der globalen Mitteltemperatur und einer regressiven Analyse (M.Weber, 2003 *)

Nach Durchsicht von mehreren wissenschaftlichen Berichten aus den seit etwa zwanzig Jahren veröffentlichten Gletscherberichten ist eine klare dem heutigen Zeitgeist entsprechende Strömung zu erkennen: Wissenschaftliche Ergebnisse werden mit Hilfe neuester Techniken immer genauer und immer interessanter. Zusammenfassende Aussagen zu dem ‚Klimawandel‘ enden jedoch fast immer politisch korrekt mit Hinweisen auf eine kommende Erwärmung-Katastrophe. Zum einen weil dort wiederum konkrete Daten zur Temperatur meist nur zu den heutigen Verhältnissen das Referenzdatum bis 1850, d. h. bis zum Ende der kleinen Eiszeit genannt werden, also bis zu dem kältesten Zeitpunkt der vergangenen 2000 Jahren reichen, zum anderen weil die Komplexität der Natur bzw. die durch die Evolution der Erde bedingten Veränderungen noch nicht bzw. möglicherweise auch in Zukunft nicht verstanden werden. Beispielhaft für diesen Trend wird der Bericht von J. Fritschle (2006) genannt, der unter Fazit als Ausblick nennt: „Obwohl die Alpengletscher in der Vergangenheit schon mehrfach zurückgegangen sind, sogar weiter als heute, bleibt die Sorge um unsere ‚Eisriesen‘ berechtigt. Das extreme Abschmelzen der Gletscher scheint nicht alleine natürlichen Ursprungs zu sein, sondern durch die Menschen begünstigt zu werden“.

Eine wissenschaftliche Begründung für diese politische Aussage ist in dem gesamten Text jedoch nicht zu finden.

An Hand der Informationen des Diagramms von Ed Hoskins ist abzuleiten, dass es keine begutachteten Fachpublikationen geben kann, die stringent nachweisen, dass – wenn überhaupt – anthropogenes CO2 zu einer Klimakatastrophe der Erde führen wird und dass der heute beschworener Temperaturanstieg bzw. die globale Erderwärmung bzw. auch die einer Erdabkühlung mit oder ohne CO2 von 1Grad bis 1,5 Grad zu keiner Katastrophe der Menschen führen kann. Und somit ist auch ein wesentlicher anthropogener Einfluss auf Extremwetter-Ereignisse nur schwer erklärbar.

UN-Klimakonferenz in Paris 2015

Am 12. Dezember 2016 haben mehr als 170 Länder dem Übereinkommen von Paris zugestimmt. Sie verpflichten sich, weltweit die Treibhausgasemissionen zwischen 2045 und 2060 auf Null zu senken, um die Erwärmung auf bedeutend weniger als 2 Grad gegenüber dem vorindustriellen

Niveau zu begrenzen und wenn möglich unter 1,5 Grad zu halten. Deutschland strebt an, seine internationale ‚Klimafinanzierung‘ bis 2020 zu verdoppeln. Zudem sprach sich Deutschland für eine CO2-Bepreisung aus, um mittels einer vollständigen Dekarbonisierung der Weltwirtschaft zum Ende des 21. Jahrhunderts eine Überschreitung des 2 Grad Zieles zu verhindern. Zur Erinnerung: Zum Tiefpunkt der kleinen Eiszeit zum Ende des 18. Jahrhunderts lag die Durchschnittstemperatur bei ca. 2,5 Grad. Danach stieg sie bis heute wieder auf ca. 3,1 Grad also um ca. 0,6 Grad an. Zur Zeit der Römer lag sie bei ca. 4 Grad, lag also um mehr als ca.0,9 Grad höher als heute. Wer war für diese Schwankungen verantwortlich. Der Mensch oder die Natur bzw. die komplexe Evolution der Erde?

Abb. 6 Der weitsichtige Blick unserer Politikerkaste in die Zukunft unserer Republik Wilhelm Busch 1924*)

Kosten

Es gibt viele Zahlen zu den Kosten, die zur Vermeidung des ‚Klimawandels‘ in Deutschland notwendig sein dürften – ohne allerdings ernsthaft zu hinterfragen, ob nach dem Gesagten in Deutschland das Ziel einer CO2-Minderung von 80 Prozent im Jahr 2050 gegenüber 1990 überhaupt zu erreichen ist. Dafür werden beispielhaft zusätzliche Investitionen in Höhe von 1,4 Billionen Euro notwendig werden, die allerdings nach einem Gutachten von den Beratungsgesellschaften Boston Consulting Group und Prognos im Auftrag der Bundesregierung für die gesamtwirtschaftliche Effekte gering sein sollen und positiv sind. („1,4 Billionen für Klimaschutz“, F.A.Z. vom 4. August 2017). Zusätzlich wird gerade nach dem Bericht ‚Vorzüge einer Klimasteuer‘ der F.A.Z vom 30.09.17 vom französischen Staatspräsident Macron – einem Land, das einen hohen Teil aus fast CO2 freien Strom aus Kernkraftwerken erzeugt – ein Mindestpreis von 25 bis 30 Euro für jede Tonne CO2 ins Gespräch gebracht. Ob er bei dem Betrag nur an das industriell erzeugte CO2 denkt oder auch an die ‚Produktion‘ von CO2, das durch das Atmen von Menschen und Tieren frei wird, bleibt zumindest vorläufig noch offen.

Fazit

Nach dem Gesagten wäre es viel effektiver, wenn die Politik weltweit derartig große Summen für Infrastrukturprojekte ideologiefrei effizient planen und verantwortlich ausgegeben würde, die uns vor den gewaltigen Naturereignissen – im Volksmund Naturkatastrophen genannt – möglichst sicher schützen würden. So wie es uns die Bürger von Vent vor 200 Jahren mit Hacke und Schaufel vorgemacht haben. Denn an der stetigen, nach physikalischen und chemischen Gesetzten ablaufenden Evolution der Erde, die durch Plattenverschiebungen, Vulkanausbrüche, Erdbeben, Überflutungen und Tsunamis, Bergstürze, Klimaschwankungen usw. gekennzeichnet sind, können wir Menschlein auch in Zukunft nur wenig ändern. Dazu nenne ich beispielhaft zwei von vielen nachahmenswerten Beispielen aus der Schweiz und den Niederlanden. Im südbündnerischen Land donnerten schätzungsweise vier Millionen Kubikmeter Gesteinsmaterial bei Bondo ins Tal. Es ist einer der gewaltigsten Bergstürze in der Schweiz seit deutlich über 100 Jahren, ohne dass Menschen verletzt wurden. Grund war die weise Voraussicht der Verantwortlich rechtzeitig mit sehr teuren Maßnahmen eventuelle Felsabgänge – natürliche Erosion – umzuleiten und halbwegs zu beherrschen. In den Niederlanden werden schon seit vielen Jahrzehnten sehr teure Bauwerke wie Dämme und Kanäle gebaut und erhalten, um das Land vor natürlichen Naturereignissen wie vor Hochwasser zu schützen. Ein sehr schlechtes Beispiel dagegen liefert Texas. Obwohl für dieses gesamte Gebiet schon seit Jahrhunderten häufige und meist gewaltige Hurrikane bekannt sind. Einer davon zerstörte 1900 die ganze Stadt Galveston mit geschätzten 8.000 Menschenopfern. Trotzdem wurden und werden dort seit dieser und weiteren Katastrophen nur begrenzt neue Kanäle und Staudämme gebaut, um die dortigen Küstengebiete einschließlich Houston vor weiteren Zerstörungen und Überflutungen wie in 2017 zu schützten. Billionen werden dagegen seit Jahren für den angeblichen Schutz vor einer ‚Klimakatastrophe‘ verprasst, weil man den Menschen mit dem Erzeugen von Ängsten glaubhaft macht, die Welt mit einer Verringerung von CO2 Emissionen zu retten anstatt Menschen mit notwendigen Investitionen vor Naturereignissen zu schützen, die wir kaum beherrschen können.

Leider wiederholt sich in der Politik immer wieder, mit ideologisch gesteuerten Bewegungen wie Sozialismus, Kommunismus, Faschismus sowie Ökologismus die Menschen betäuben zu können wie ich schon vor Jahren beispielhaft in unserem spannenden Politthriller „Die German Angst“, 2013 *) über das Berufsleben eines Geologen in der heutigen Zeit thematisiert habe.

Abb. 7 Rückkehr des Autors vom Vernagtferner 1964

Literaturhinweise

H. Fuchs et al.1969 *): Faltung und Kristallisation im Vernagt-Marzell-Gebiet der Öztaler Alpen

http://www.zobodat.at/pdf/JbGeolReichsanst_112_0031-0080.pdf

Prof. Dr. Finsterwalder am 31 Juni 1911 aufgenommen von Rudolf Reschreiter http://polarbloggen.blogspot.com/2011_12_01_archive.html

Kurt Nicolussi, 2013 pdf´s, Geographie Innsbruck – uibk.ac.at

Ed Hoskins, 2017 *), The world should now fear the real and detrimental effects of cooling

https://www.iceagenow.info/world-should-now-fear-cooling/

M. Weber, 2003 *), Gletscherschwund und Klimawandel an der Zugspitze und am Vernagtferner (Ötztaler Alpen)

http://docplayer.org/44472724-Gletscherschwund-und-klimawandel-an-der-zugspitze-und-am-vernagtferner-oetztaler-alpen.html

J. Fritschle, 2006 *), Gletscherrückgänge in den Alpen in der jüngsten Zeit

docplayer.org/10311108-Gletscherrueckgaengein-den-alpen-in.

W. Busch,1924 *), Plisch und Plum, Friedr. Bassermann’sche Verlagsbuchhandlung, München

H. Fuchs und R. Kamradek *): Die German Angst, 2013im bookshouse Verlag, ISBN 978-9963-727-78-0 oder im Internet unter ‚Helmut Fuchs Geologe‘