1

Welche Lehren müssen wir aus der Fukushima-Havarie ziehen?

Es war nach dem Mittagessen am 11. März 2011, als sich 72 Kilometer vor der Oshika-Halbinsel in Japan ein gewaltiges Erdbeben ereignete. Es wurde mit einer Stärke von 9,0 auf der Richterskala registriert und war damit das stärkste „Beben, das jemals in Japan aufgezeichnet wurde. Die unterseeische Bodenbewegung, mehr als 30 km unter der Meeresoberfläche, hob ein riesiges Wasservolumen an, wie ein riesiger, sich bewegender Hügel. Währenddessen bewegte sich die Bodenschockwelle mit hoher Geschwindigkeit auf das Land zu. Sie traf auf Japan und erschütterte den Boden für sechs schreckliche Minuten.

Die Schockwelle bewegte sich unter 11 Kernreaktoren, darunter zwei separate Fukushima-Komplexe: Fukushima-Diani und Fukushima-Daiichi. (Diani bedeutet „Komplex 1“ und Daiichi „Komplex 2“.) Alle 11 Reaktoren schalteten sich wie vorgesehen ab, und zweifellos atmeten alle Reaktorbetreiber erleichtert auf. Das war verfrüht.

Der Meerwasserhügel war immer noch in Bewegung. Als der Wasser-„Hügel“ in flaches Wasser eintrat und sich dem Land näherte, wurde er zu einer gewaltigen Welle angehoben, die stellenweise bis zu 40 Meter hoch war.  Dann, etwa 50 Minuten nach dem Erdbeben, traf der Tsunami auf das Kernkraftwerk Fukushima-Daiichi. Als das Wasser einige Kilometer entfernt auf das Kernkraftwerk Fukushima-Diani traf, war es „nur“ 9 m hoch, also nicht so verheerend wie in Daiichi. Diani schaffte es nicht in die Nachrichten.

In Fukushima-Daiichi übersprang das Wasser die schützenden Meeresmauern. Die Seufzer der Erleichterung von einer halben Stunde zuvor wandelten sich in Besorgnis und Schrecken. Drüben im Kraftwerk Fukushima Diani, 12 km weiter südlich, verursachte die Welle ebenfalls Schäden an den Maschinen, aber die Reaktoren wurden nicht beschädigt. Es bestand kein Risiko einer Strahlungsfreisetzung, daher war das Kraftwerk Diani für die internationalen Medien nicht von Interesse. Diani wurde nach zwei Tagen sicher auf „Kaltabschaltung“ heruntergefahren.

Infolgedessen war in den letzten zehn Jahren bei jeder Erwähnung von „Fukushima“ nur das Kraftwerk Daiichi gemeint und nicht das andere.

Der verheerende Tsunami wälzte sich stellenweise bis zu 10 km ins Landesinnere und spülte Gebäude, Straßen, Telekommunikations- und Stromleitungen weg. Über 15.000 Menschen wurden getötet, hauptsächlich durch Ertrinken.

Obwohl alle Kernreaktoren bis zu einem Zustand heruntergefahren waren, der als „Heißabschaltung“ bekannt ist, waren die Reaktoren immer noch sehr heiß und benötigten noch viele Stunden nach der dringenden Schnellabschaltung eine Restkühlung. Menschen wissen instinktiv, dass sie ihre Hände nicht an den Motorblock eines Autos legen sollten, gleich nachdem es abgestellt wurde. Kernreaktoren sind genauso und müssen abkühlen, bis sie den sicheren Zustand erreichen, der als „Kaltabschaltung“ bekannt ist.

Ein Kernreaktor hat Pumpen, die Wasser durch den Reaktor schicken, bis er abkühlt. Aber die elektrischen Pumpen in Fukushima fielen aus, weil der Tsunami die eingehenden Stromleitungen weggespült hatte. Also schaltete das Reaktorsystem automatisch auf dieselbetriebene Generatoren um, um die Kühlpumpen in Gang zu halten; aber das Wasser hatte auch den Dieseltreibstoffvorrat weggespült, was bedeutet, dass die Diesel nur für kurze Zeit funktionierten. Dann wurde auf Notstrombatterien umgeschaltet; aber die Batterien waren nie dafür ausgelegt, tagelang zu halten, und konnten nur für etwa acht Stunden Notstrom liefern.

Das Ergebnis war, dass der heiße Brennstoff nicht ausreichend gekühlt werden konnte, und in den nächsten drei oder vier Tagen schmolz der Brennstoff in drei Reaktoren, ähnlich wie eine Kerze schmilzt.

Die Weltmedien sahen zu und übertrugen das Geschehen Schlag auf Schlag. Die japanischen Behörden gerieten unter dem internationalen Scheinwerferlicht in Panik. Das nicht zirkulierende Kühlwasser kochte im Inneren der Reaktoren, was zu einer chemischen Reaktion zwischen heißem Brennstoff und heißem Dampf führte. Dies führte zur Produktion von Wasserstoffgas. Als der Dampfdruck anstieg, beschlossen die Ingenieure, Ventile zu öffnen, um den Druck abzulassen. Das funktionierte wie geplant, aber es setzte auch den Wasserstoff frei.

Da Wasserstoff leicht ist, stieg er zum Dach auf, wo die Lüftungsanlage nicht funktionierte, weil es keinen Strom gab. Nach einer Weile entzündete ein verirrter Funke den Wasserstoff, der explodierte und das leichte Dach des Gebäudes direkt vor den Fernsehkameras der Welt weg sprengte.  Die Fukushima-Nachrichten wurden sofort noch viel dramatischer. Die Behörden waren verzweifelt darauf aus, der Welt einige positive Maßnahmen zu zeigen.

Sie ordneten nach und nach die Evakuierung von 160.000 Menschen an, die in der Umgebung von Fukushima leben. Das war ein Fehler. Als die Tage und Wochen vergingen, stellte sich heraus, dass kein einziger Mensch durch nukleare Strahlung getötet wurde. Es wurde auch kein einziger Mensch durch radioaktive Strahlung verletzt. Auch heute, ein Jahrzehnt später, gibt es immer noch keine Anzeichen für längerfristige Strahlenschäden bei Mensch und Tier. Leider starben jedoch Menschen während der Zwangsevakuierung.

Eine der Lektionen aus Fukushima ist also, dass eine riesige Menge an Kernkraft durch das größte Erdbeben und den größten Tsunami, der je aufgezeichnet wurde, getroffen werden kann und niemand durch die nukleare Strahlung geschädigt wird.

Eine andere Lektion ist, dass ein zu hastig erteilter Evakuierungsbefehl Menschen geschädigt und getötet hat.

Die Generaldirektorin der World Nuclear Association Dr. Sama Bilbao y León sagte: „Die schnell durchgeführte und langwierige Evakuierung hat zu gut dokumentierten, erheblichen negativen sozialen und gesundheitlichen Auswirkungen geführt. Insgesamt wird angenommen, dass die Evakuierung für mehr als 2.000 vorzeitige Todesfälle unter den 160.000 Evakuierten verantwortlich war. Die rasche Evakuierung der gebrechlichen älteren Menschen sowie derjenigen, die eine Krankenhausbehandlung benötigten, hatte einen nahezu unmittelbaren Tribut zur Folge.“ [Hervorhebung im Original hinzugefügt]

Sie fügte hinzu: „Bei zukünftigen Szenarien, die die öffentliche Gesundheit und Sicherheit betreffen, ist es unabhängig vom Ereignis wichtig, dass die Behörden einen All-Hazard-Ansatz verfolgen. Es gibt Risiken bei allen menschlichen Aktivitäten, nicht nur bei der Erzeugung von Kernkraft. Maßnahmen, die ergriffen werden, um eine Situation zu entschärfen, sollten nicht zu schlimmeren Auswirkungen führen als die ursprünglichen Ereignisse. Dies ist besonders wichtig, wenn es um die Reaktion auf Vorfälle in kerntechnischen Anlagen geht – wo die Angst vor Strahlung zu einer übermäßig konservativen Einschätzung und einer fehlenden Perspektive für relative Risiken führen kann.“

So können wir ein Jahrzehnt später die kumulativen Lektionen betrachten, die wir gelernt haben. Vor allem, dass die Kernkraft weitaus sicherer ist, als man gedacht hatte. Selbst als es zu den gefürchteten Kernschmelzen kam und obwohl Reaktoren zerstört wurden, was für die Betreiber ein finanzielles Desaster bedeutete, wurden keine Menschen durch Strahlung geschädigt.

Wir haben auch gelernt, dass es für die Anwohner viel sicherer gewesen wäre, in einem Haus zu bleiben, als sich der Zwangsevakuierung anzuschließen. Des Weiteren haben wir gelernt, dass Regierungen und Behörden auf die Fachleute der Kernkraft-Industrie hören müssen und nicht überreagieren dürfen, auch wenn die Kameras der Fernsehnachrichten furchtbar genau hinschauen.

Fukushima hat sicherlich einige wertvolle Lektionen hervorgebracht. Regierungen, Nachrichtenmedien und die Öffentlichkeit müssen daraus die richtigen Lehren ziehen.

[Hervorhebung vom Übersetzer]

Dr Kelvin Kemm is a nuclear physicist and is CEO of Stratek Business Strategy Consultants, a project management company based in Pretoria. He conducts business strategy development and project planning in a wide variety of fields for diverse clients.

Link: https://wattsupwiththat.com/2021/03/26/we-should-learn-what-lessons-from-fukushima/

Übersetzt von Chris Frey EIKE

 




Pandemie der Dummheit.

Schon in der 2007 erschienenen ersten Auflage meines Buches „Öko-Nihilismus“ habe ich davor gewarnt, man werde wohl bald nicht mehr zwischen Computersimulationen mathematischer Modelle und der realen Welt unterscheiden können. Inzwischen ist die Konfusion Realität. Seit der im Auftrag des Club of Rome erstellten Computersimulations-Studie „Die Grenzen des Wachstums“ (1972) werden staatliche Eingriffe in Grundrechte wie das Recht auf Privateigentum sowie Meinungs- und Bewegungsfreiheit immer öfter mit dem Verweis auf theoretische Modelle eines angeblich exponentiellen Wachstums von Problemen wie Umweltbelastung, Rohstoffverbrauch und neuerdings Virusinfektionen gerechtfertigt. Dabei tritt unbegrenztes exponentielles Wachstum sowohl in der Natur als auch in der Gesellschaft nur sehr selten auf. Bei einer Epidemie nur im theoretischen Fall, dass in der Bevölkerung keinerlei Abwehrkräfte vorhanden sind. In der Regel kommt es nur als aufsteigender Ast einer sigmoidalen Sättigungskurve vor. Das hat Angela Merkel nicht davon abgehalten, ein angeblich exponentielles Wachstum der SARS-CoV-2-Infektionen als Begründung für den von ihr unter Umgehung des Bundestages durchgedrückten Oster-Lockdown zu benutzen. Immerhin wurde sie schon am Folgetag, dem 24. März 2021, gezwungen, den drastischsten Teil ihres Beschlusses zumindest dem Anschein nach wieder zurück zu nehmen. In Wirklichkeit hält sie daran fest, im Einsperren der Menschen die einzig wirksame Maßnahme gegen die Verbreitung von Viren zu sehen.

Dabei zeigt der Vergleich zwischen Deutschland und dem US-Ferienparadies Florida, wo es seit dem letzten Sommer keinerlei Corona-bedingte Beschränkungen des täglichen Lebens gibt, dass Lockdowns keinerlei positiven Einfluss auf die Infektionskurven und die Anzahl der Todesopfer haben – negativen dagegen schon. In 98,4 Prozent der Paarvergleiche der Google-Bewegungsdaten von 87 Ländern und Regionen hat ein Lockdown keinerlei Einfluss auf die Entwicklung der Zahl der Covid-Toten, wo bei noch zu berücksichtigen wäre, dass viele der statistischen Covid-Opfer nicht an, sondern mit Covid (neben Vorerkrankungen) gestorben sind. Das ist das Ergebnis einer sauberen statistischen Analyse der ersten Covid-19-Welle vom 15. Februar bis zum 21. August 2020 (Savaris, R.F., Pumi, G., Dalzochio, J. & Kunst, R. (2021).

In Deutschland hat sich die Physikerin Viola Priesemann vom Göttinger Max-Planck-Institut für Dynamik und Selbstorganisation mit ihren Modellen der Ausbreitung von Covid-Epidemie-Wellen hervorgetan beziehungsweise wurde von unkritischen Massenmedien in die Rolle der Pythia gelobt. Viola Priesemann machte im Dezember 2020 auch als Mitverfasserin des Aufrufs „Contain Covid 19“ von sich reden, der im Januar 2021 zunächst im Fachmagazin „The Lancet“ erschien. Darin forderte sie zusammen mit Melanie Brinkmann, Sandra Ciesek und anderen einen radikalen EU-weiten Lockdown bis die positiven PCR-Tests auf täglich zehn von einer Million Einwohner gesunken sind. In Deutschland wurde dieser Appell von der überwiegend linksradikalen Bewegung „Zero Covid“ aufgegriffen. Zu den Erstunterzeichnern des Appells mit dem Titel „Das Ziel heißt null Infektionen. Für einen solidarischen europäischen Shutdown“ gehörten bekannte linksradikale Wiederholungstäter*Innen wie Georg Restle, Margarete Stokowski, Luisa Neubauer, Stefanie Sargnagel, Natascha Strobl, Rudolf Hickel, Frigga und Wolfgang Fritz Haug. Darin fordern sie einen grundlegenden Strategiewechsel. Der Versuch, die Pandemie durch eine Abflachung der Infektionskurve zu kontrollieren, sei gescheitert. Das Ziel müsse vielmehr lauten: „Gemeinsam runter auf null.“ Ob und wie weit das überhaupt realistisch ist, wird nicht gefragt. Umsetzen ließe sich die Forderung einer „solidarischen Pause von einigen Wochen“ nur mit totalitären Methoden, die darauf hinauslaufen, die Staatsbürger wie unmündige Kinder oder gar wie Sklaven zu behandeln. Aufs Ganze gehen, ist ja wohl die ursprüngliche Definition von Totalitarismus. Umso bedenklicher ist es, dass auch Regierungsmitglieder (wie zuletzt Bundesgesundheitsminister Jens Spahn mit seiner Forderung eines zweiwöchigen Total-Lockdown) sich immer öfters der Argumentation von „Zero Covid“ anschließen. Die bekannteste Definition der Dummheit lautet bekanntlich, von der Wiederholung oder gar Steigerung einer unwirksamen Maßnahme bessere Ergebnisse zu erwarten. Aber vielleicht ist die Kontrolle der Epidemie gar nicht das Ziel der Bundesregierung…

Inzwischen hat Jörg Phil Friedrich in der Tageszeitung DIE WELTonline, die selbst mitgeholfen hat, Frau Priesemann in die Rolle einer Wahrsagerin zu hieven, am 24. März grundsätzliche Kritik an den politisch gefälligen Modellspielereien geübt. Dort liest man u.a.: Kann es sein, dass wir trotz einer jahrhundertelangen Geschichte der Rationalisierung der Welt immer noch so etwas wie „Wahrsager“ brauchen und dass die modellierende Naturwissenschaft, so ungenau sie auch immer sein mag, heute die Rolle dieser magischen Kräfte übernehmen muss? (…) Weil die Modelle mit Inzidenzen und R-Werten rechnen, meinen wir, diese Zahlen hätten auch direkte Bedeutung für politische Entscheidungen. Andere Dinge, die nicht in den Modellen vorkommen oder sich erst gar nicht mathematisch fassen lassen, wie die gesellschaftliche Stimmung, die Veränderung des kulturellen Klimas, die Auswirkungen auf die Lebensqualität, scheinen unwichtig zu werden, weil sie ja nicht in den Modellen stehen.“

Zwei Tage zuvor stand im gleichen Blatt ein ausführliches Interview mit dem Stanford-Professor John Ioannidis, der als führender Epidemiologe der Welt gilt. Der auch in Deutschland aktive Forscher erklärte schon im Januar in einer gemeinsam mit anderen Forschern im „European Journal of Clinical Investigation“ veröffentlichten Studie, drakonische Maßnahmen zur Eindämmung der Epidemie wie eine Verschärfung eines bereits bestehenden Lockdowns seien überflüssig. Diese Studie stieß zumindest in Deutschland auf methodische Einwände. Inzwischen betont Ioannidis sogar, die Lockdowns hätten insgesamt eher einen negativen Effekt gehabt. Leider sei das aber wegen der opportunistischen Haltung der meisten jungen Forscher nicht deutlich geworden, beklagt Ioannidis im Interview mit der WELT: „…  bei der großen Mehrheit meiner Kritiker handelt es sich nicht um Wissenschaftler, sondern um Aktivisten oder um Anfänger, die selbst noch wenig publiziert haben. (…) Viele Forscher versuchen, ihre Analysen so anzupassen, dass es zu einem bestimmten Narrativ passt. Inzwischen haben rund 459.000 Wissenschaftler etwas zu Covid-19 veröffentlicht. Die kamen ganz plötzlich aus dem Nichts. Das mögen kluge, in Datenanalyse gut ausgebildete Leute sein, aber sie haben nicht die geringste Ahnung von Epidemiologie oder Infektionskrankheiten oder dem Gesundheitswesen. Ihre überambitionierten Modellierungen beruhen auf unsicheren, sehr fehleranfälligen Daten – das ist, als ob man einen Mercedes-Motor in einen alten Holzkarren einbaut. In ihrem Enthusiasmus glauben viele dieser Wissenschaftler, sie könnten fehlerhafte Daten analysieren, als handelte es sich dabei um Messwerte aus einem Teilchenbeschleuniger. Dabei bieten Modellierungen immer nur eine schwache Evidenz. Sie sollten auch auf meine Modellierung nicht vertrauen.“

Modelle sind provisorische Hilfsmittel der Forschung. Sie sollten niemals mit der Realität verwechselt werden, weil sie komplexe Zusammenhänge mehr oder weniger extrem vereinfachen müssen. Statt als Hilfsmittel der Forschung erscheinen Modelle heute aber immer öfters als deren eigentliches Ziel. Dieser Verdacht drängt sich auch bei der Corona-Forschung auf. Hat das von den Medien verbreitete Virus-Modell eines bunten Plüschballs überhaupt eine eindeutige Entsprechung in der Realität? Diese ketzerische Frage sollte zumindest so lange nicht als abwegig betrachtet werden, als es noch nicht gelungen ist, SARS-CoV-2 in Reinform zu isolieren und sein Genom vollständig zu sequenzieren. Zumindest einige „Querdenker“ halten SARS-CoV-2 für ein „Phantom-Virus“, hinter dem sich in Wirklichkeit mehr oder weniger harmlose Exosomen verbergen. Daher ist es auch unklar, ob PCR-Tests nach Christian Drosten das Virus an asymptomatischen Probanden wirklich nachweisen können oder ob der Test nicht vielmehr das Virus mithilfe des Primers aus wenigen Aminosäuren quasi „erschafft“.

Weil heute offenbar zu viele Forscher vor allem auf die Bestätigung eines Narratives aus sind, anstatt ergebnisoffen nach der Wahrheit zu suchen, verschwimmen die Grenzen zwischen Science und Science fiction immer mehr. Damit einher geht eine Renaissance des magischen Denkens. Dieses offenbart sich kaum irgendwo deutlicher als in der Behauptung, die „Energiewende“ mit dem Ziel der CO2-Neutralität wirke als Vorsorge gegen Covid-19. Was nicht wie gewünscht eintritt, wird notfalls inszeniert oder aus dem kollektiven Gedächtnis verdrängt, indem man einfach beschließt, über reale Probleme nicht mehr zu reden: Zum Beispiel über die Kohlekraftwerke, die nur acht Tage nach ihrer offiziellen, vom Staat entschädigten Abschaltung ihren Betrieb wieder aufgenommen haben, um das Stromnetz vor dem Zusammenbruch zu bewahren. Oder über die enormen Umweltbelastungen, die E-Autos bei der Rohstoffgewinnung in armen Ländern verursachen. Oder nicht zuletzt über die immensen gesundheitlichen und wirtschaftlichen Kollateralschäden der Corona-Lockdowns.

Immerhin läutet nun der Vorstandsvorsitzende des Deutschen Krebsforschungszentrums, Professor Michael Baumann, die Alarmglocke, indem er darauf hinweist, dass die einseitige Ausrichtung der Krankenhäuser zu massiven Kollateralschäden führt. Wegen der Verschiebung von Untersuchungs- und OP-Terminen rechnet er mit bis zu 40.000 zusätzlichen Krebstoten. Darauf hatte schon im Frühjahr 2020 der Oberregierungsrat Stephan Kohn im Bundesinnenministerium (BMI) in einer 80-seitigen Studie hingewiesen. Zweieinhalb Millionen Menschen seien durch die einseitige Ausrichtung des Gesundheitswesens auf Covid-19 nicht medizinisch versorgt worden, schätzte Kohn. Es sei dadurch eine potentielle Lebenszeit im Umfang von mehreren Millionen Jahren geopfert worden. Kohn wurde daraufhin sofort seines Amtes enthoben. Dabei hatte er nur angewandt, was in seinem Ministerium schon im Jahre 2012 aus einer realistischeren Risikoanalyse möglicher Epidemie-Ereignisse gefolgert worden war, nämlich Maßnahmen zur Eindämmung einer Epidemie einem realistischen Kosten-Nutzen-Vergleich zu unterwerfen. Nach Oberregierungsrat Kohn führt die Nichtbeachtung der Risikoanalyse von 2012 nun zu bedenklichen Konsequenzen: „Die Resilienz des hochkomplexen und stark interdependenten Gesamtsystems Kritischer Infrastrukturen ist gesunken. Unsere Gesellschaft lebt ab sofort mit einer gestiegenen Verletzlichkeit und höheren Ausfallrisiken von lebenswichtigen Infrastrukturen. Das kann fatale Folgen haben…“. Im Parallel-Universum, in dem sich Angela Merkel und ihre handverlesenen Berater bewegen, scheint diese Schlussfolgerung allerdings unerwünscht, da „nicht hilfreich“ zu sein.

 




Die jüngste Subsidiaster-Studie*

Ökonom: Fossile Brennstoffunternehmen erhalten 62 Billionen Dollar pro Jahr an impliziten Subventionen
Wann immer ich von „impliziten Subventionen“, „sozialen Kosten“ oder irgendeiner Berechnung von „externen Effekten“ höre, beginnt mein Detektor für schlechte Zahlen wie verrückt zu klingeln. Das Problem ist, dass so ziemlich alles als „implizite Subvention“ oder einen seiner ebenso vagen Vettern bezeichnet werden kann.

Die Studie, natürlich kostenpflichtig, heißt „The producer benefits of implicit fossil fuel subsidies in the United States“, von Matthew Kotchen [etwa: „Die Vorteile von impliziten Subventionen für die Erzeuger fossile Brennstoffe in den Vereinigten Staaten“].

Also … genau das, was qualifiziert sich als eine „implizite Subvention“ zu den bööösen fossilen Brennstoff-Unternehmen?

Wie jeder gute Liberale, beginnt er mit ihrer Lieblings-Angst-Taktik, „Klimawandel“. Dazu möchte ich einen Moment etwas abschweifen.

Seit etwa vierzig Jahren warnen uns die Leute vor dem, was sie einen „Klimanotstand“ nennen. Das Oxford Dictionary definiert „Notfall“ als „eine ernste, unerwartete und oft gefährliche Situation, die sofortiges Handeln erfordert“. Da wir seit vierzig Jahren atemlos vor diesem „Notfall“ gewarnt werden und es keinerlei Anzeichen dafür gibt, dass er eintritt, ist er kaum „unerwartet“. Und da wir weder „ernste“ noch „gefährliche“ Folgen aus dieser Situation gesehen haben, ist es an diesem Punkt ein kranker Witz, sie als Notfall zu beschreiben. Und das ist nur der Anfang, warum die Bezeichnung unserer gegenwärtigen Situation als „Klimakrise“ oder „Klimanotstand“ nur das Geschrei von Chicken Little* ist, dass der Himmel einstürzt.

[*Chicken little“ = eine amerikanische Bezeichnung für „Kinderkram“, die auf eine beliebte Fernseh-Serie zurückgeht. A. d. Übers.]

Hier ist die aktuelle Situation. Die Ernteerträge steigen weiter:

Es gibt keine Beschleunigung des Meeresspiegel-Anstiegs. Die Zahl der extremen Wetterereignisse wie Hurrikane, Überschwemmungen und Dürren ist unverändert und begleitet uns schon immer. Die Zahl der Todesfälle durch klimabedingte Katastrophen ist so niedrig wie nie zuvor.

Das zusätzliche CO2 hat zu einer etwa 10-prozentigen Zunahme der „Ergrünung“ unseres Planeten geführt. Die 300 Jahre andauernde allmähliche Erwärmung war im Allgemeinen gut für Menschen, Tiere und Pflanzen gleichermaßen. Kälte tötet. Heute sind die Menschen, von reich bis arm, im Allgemeinen besser ernährt, besser gekleidet, besser untergebracht und besser gegen die endlosen, historisch üblichen Launen des Wetters isoliert als jemals zuvor in der Geschichte … wo ist also das Problem?

Also nenne ich dieses ganze Klima-„Notfall“-Gerede Quatsch. Wo ist der „Notfall“? Wir haben seit 1800 eine Erwärmung von etwa anderthalb Grad erlebt. Ich habe immer wieder darum gebeten, dass jemand, irgendjemand, auf irgendwelche katastrophalen negativen Auswirkungen dieser Erwärmung hinweist.

Aber ich schweife ab. Kotchen rechnet vor, dass die Unternehmen für jede ausgestoßene Tonne CO2 eine Subvention erhalten. Die Verbrennung von fossilen Brennstoffen stößt pro Jahr etwa 37 Gigatonnen Kohlendioxid aus. Das ist also eine riesige, völlig unsichtbare und völlig bedeutungslose „implizite Subvention“.

Nun, ich kann nicht herausfinden, wie Kotchen die Höhe der „Klimasubvention“ berechnet hat. Er sagt, dass er die Nordhaus-Schätzung der sogenannten „sozialen Kosten des Kohlenstoffs“ verwendet, die 31 Dollar pro Tonne emittiertem CO2 beträgt. Aber das würde die „implizite Subvention“ zu 1,15 Billionen Dollar machen, doch beträgt seine Gesamtsumme nur „bloße“ 62 Milliarden Dollar. Allerdings ist er ein Ökonom, also hat er seine Arbeit mit dicken Schichten von Verwirrung und Geschwafel überzogen, wie die Aufteilung der „impliziten Klimasubvention“ in separate Beträge für „ausländisches Klima“ und „inländisches Klima“, und ich hatte weder Zeit noch Lust, die Auffassung zu entwirren, dass „Klima“ inländische und ausländische Versionen hat. Es genügt zu sagen, dass der größte Teil der „impliziten Subvention“ imaginäre Klimakosten sind.

[Hervorhebung im Original]

Was zählt also noch als „implizite Subvention“ auf Kotchens Planet? Nun … Umweltverschmutzung. Menschen haben nur sehr selten „Verschmutzung“ auf ihren Totenscheinen stehen, also haben Ökonomen komplexe Computermodelle, um Zahlen von „verlorenen Lebensjahren“ durch Verschmutzung auszuwerfen. Natürlich weiß ähnlich wie bei Klimamodellen niemand, ob die Zahlen irgendeine Beziehung zur Realität haben, und keine zwei von ihnen geben die gleiche Antwort. Ich vermute daher, dass Kotchen einfach die größten Zahlen genommen und verwendet hat.

Von da an wird es jedoch wirklich bizarr. Die anderen drei Posten, die als „implizite Subvention“ behandelt werden, sind die kalkulatorischen Kosten von Verkehrsstaus, Autounfällen und Straßenschäden.

Straßenschäden, also wirklich!

Ich vermute, Sie haben nie daran gedacht, dass es eine „implizite Subvention“ an Exxon Mobil ist, wenn Ihre örtliche Verkehrsbehörde Ihre Steuergelder verwendet, um Schlaglöcher zu reparieren …

Die Logik scheint so zu laufen. Wenn wir keine fossilen Brennstoffe hätten, hätten wir keine Kosten für Schlaglochreparaturen, Autounfälle und Verkehrsstaus … also sind alle diese Kosten eine „implizite Subvention“ an BP, Exxon, Total und die anderen fossilen Brennstoff-Unternehmen. Natürlich hätten wir ohne fossile Brennstoffe auch keine Autos … aber irgendwie spielt das keine Rolle.

Nun, ich kann dieser Logik einfach nicht folgen. Wenn wir zum Beispiel keine fossilen Brennstoffe hätten, dann hätten wir auch keine Kosten für Straßen, Brücken und Ampeln … warum rechnet Kotchen die Kosten dafür nicht in die „implizite Subvention“ mit ein?

Man könnte argumentieren, dass er nur die Kosten für Schäden (Schlaglöcher, Unfälle) und Unannehmlichkeiten (verstopfte Straßen) betrachtet, die durch Autos verursacht werden … aber wenn das der Fall ist, was ist dann mit den Schäden durch Flugzeuge, Züge und Schiffe? Das Containerschiff Ever Given hat durch die „Verstopfung“ des Suezkanals bereits Kosten in zweistelliger Milliardenhöhe verursacht … warum wird diese Art von Kosten nicht mitgerechnet? Hinzu kommt, dass der Seeverkehr schon jetzt zu 2 bis 3 % der weltweiten Treibhausgas-Emissionen beiträgt. Schiffe, die Afrika umfahren müssen, anstatt durch den Suezkanal zu fahren, und die schneller fahren, um die verlorene Zeit wieder aufzuholen, bedeuten zusätzlichen Treibstoffverbrauch und Emissionen. Aber es ist nicht das erste Mal, dass so etwas passiert, und solche früheren Schiffs-, Bahn- und Flughafenkosten nebst den zusätzlichen Emissionen werden nicht mitgezählt. Start- und Landebahnen und Eisenbahnlinien müssen genauso wie Straßen repariert werden, aber diese Kosten werden nicht berücksichtigt. Warum?

(Ich denke, ich sollte Kotchen nicht auf Ideen bringen, sonst kommt er bald auf 124 Milliarden Dollar „implizite Subventionen“ anstelle seiner aktuellen 62-Milliarden-Dollar-Forderung …)

Dies zeigt mein größtes Problem mit solchen „externen Kosten“, „sozialen Kosten“, „Externalitäten“ und „impliziten Subventionen“ auf – und Leute wie Kotchen, die diese Zahlen aus ihren fundamentalen Körperöffnungen ziehen, können sich alles aussuchen, was sie ein- oder ausschließen wollen.

Und hier ist das zweitgrößte Problem für mich – die zugrunde liegende Logik ergibt keinen Sinn. Man zählen Autostaus und Autounfälle als „implizite Subvention“ für Exxon, weil es Schäden sind, die durch den Gebrauch von fossilen Brennstoffen verursacht werden …

Aber wenn das der Fall ist, sollten wir dann nicht die Kosten für die Schäden, die durch Computer durch Online-Kriminalität verursacht werden, als „implizite Subvention“ für die Computerhersteller zählen?

Oder wie sieht es mit den Stromschlägen und den Hausbränden aus, die von Leuten verursacht werden, die minderwertige elektrische Hausverkabelungen haben? Sind sie eine „implizite Subvention“ für meinen örtlichen Stromversorger? Wenn die Leute, die fossile Brennstoffe verwenden, wegen „impliziter Subventionen“ für die Bereitstellung von Energie für Autos angeklagt werden, sollte dann nicht auch PG&E wegen „impliziter Subventionen“ für die Bereitstellung von Energie für Häuser angeklagt werden?

Nun könnte man argumentieren, dass das Ausbessern von Schlaglöchern eine „implizite Subvention“ ist, weil es durch Steuern bezahlt wird … aber am Ende des Tages hat die Regierung kein Geld, also landen die Kosten immer bei einer Untergruppe der Bevölkerung, genau wie die Kosten für Hausbrände, Verkehrsstaus und Computerkriminalität.

Und schließlich geht er sehr detailliert darauf ein, welche Energiekonzerne wie viel Subventionen erhalten … während sie in Wirklichkeit nicht diejenigen sind, die die fossilen Brennstoffe verbrennen. Wenn mir ein Mann ein Messer verkauft, ist es dann nicht meine Sache, was ich mit diesem Messer mache, und nicht die der Gerber Knife Company? Ob ich es benutze, um einen Thanksgiving-Truthahn zu zerlegen oder meinen Nachbarn zu zerstückeln, liegt an mir, nicht am Messer-Hersteller. Ähnlich verhält es sich, wenn ich Öl kaufe: Ob ich es benutze, um Nylon für Skijacken herzustellen, oder ob ich es verbrenne, um Elektrizität zu erzeugen, ist meine Sache, nicht die von Exxon oder BP … warum also sollten die „impliziten Subventionen“ an die Ölfirmen gehen? Ich will meine implizite Öl-Subvention, und ich will sie jetzt!

Meine Schlussfolgerung? Ich sehe keinen logischen Grund dafür, dass das Reparieren von Schlaglöchern eine „implizite Subvention“ für diese schrecklichen Menschen ist, deren einziges Verbrechen es ist, die Energie zu liefern, welche die Welt aus Elend, Krankheit und Armut befreit hat.

[Hervorhebung vom Übersetzer]

Ich muss jedoch hinzufügen, dass die Menge an Blödsinn, die die Peer-Review durchläuft und heutzutage in „wissenschaftlichen“ Zeitschriften veröffentlicht wird, ein Verbrechen gegen die Wissenschaft darstellt …

[Eschenbach nimmt im Folgenden noch kurz zur Corona-Lage Stellung. Weil das aber ein völlig anderes Thema ist, welches von unseren EIKE-Autoren noch besser behandelt wird, wird auf die Übersetzung dieses Zusatzes verzichten. A. d. Übers.]

Link: https://wattsupwiththat.com/2021/03/28/the-latest-subsidisaster/

Übersetzt von Chris Frey EIKE

 




Meereis um die Antarktis wächst um 2 Millionen km² – ein Gebiet so groß wie Saudi-Arabien

[*Siehe die Anmerkung am Ende dieses Beitrags!]

Antarktisches Meereis weitet sich aus

Obwohl das antarktische Meereis 2017 auf ein „Rekord-Minimum“ fiel – nachdem es 2015 ein „Rekordhoch“ erreicht hatte – zeigen die neuesten Daten des National Snow and Ice Data Center (NSIDC), dass sich das Meereis am Südpol seither kräftig erholt hat und um etwa 500.000 km² über den Mittelwert gestiegen ist:

Ausschnitt. Quelle: NSIDC

Am 26. März 2017 maß das antarktische Meereis 3,055 Mio. km². Vier Jahre später erreichte das Meereis 5,103 Mio. km². Das ist ein Unterschied von mehr als 2 Mio. km², was einer Fläche von der Größe Saudi-Arabiens entspricht!

Natürliche Faktoren kann man nicht ignorieren

Warum also sollte das Meereis so schnell wachsen? Wäre das Eis verschwunden, würden viele die Schuld auf die Treibhausgase schieben – absurd, versteht sich. Und genauso absurd wäre es, den jüngsten Zuwachs auf die globale Abkühlung zu schieben. Offensichtlich ist eine komplexe Reihe von natürlichen Faktoren am Werk – Faktoren, die die Klimaalarmisten in den letzten Jahrzehnten konsequent ignoriert haben.

Hier ist das Satellitenfoto der Antarktis vom 26. März 2021:

Quelle: NSIDC

Link: https://notrickszone.com/2021/03/28/antarctic-sea-ice-grows-2-million-sq-km-area-as-big-as-saudi-arabia-and-hamburg-spring-arriving-later/

Übersetzt von Chris Frey EIKE

—————————

Anmerkung des Übersetzers: Auch das arktische Eis zeigt sich bzgl. des Zeitpunktes seiner maximalen Ausdehnung in guter Verfassung:

Quelle

 




Bundesrechnungshof äußert harte Kritik an Peter Altmaier wegen Energiewende

Der Bundesrechnungshof (BRH) ist eine oberste Bundesbehörde prüft die Rechnung sowie die Wirtschaftlichkeit und Ordnungsmäßigkeit der Haushalts- und Wirtschaftsführung des Bundes, heißt, der Regierung. Er ist ein typisches Kontroll-Organ eines demokratischen Rechtsstaates und scheint auch im Zeitalter der westlichen Postdemokratie noch zu funktionieren. Wie lange werden die Beamten sich noch trauen?

Konkret wird Altmaier als zentralem Minister für die Energiewende der Grünen, von den Merkel-Kabinetten II-IV konsequent umgesetzt, vorgeworfen:

„Das Bundesministerium für Wirtschaft und Energie (BMWI) steuert die Energiewende im Hinblick auf die gesetzlichen Ziele einer sicheren und preisgünstigen Versorgung mit Elektrizität weiterhin unzureichend.“

Es bestehe dringender Reformbedarf.

„Anderenfalls besteht das Risiko, die Wettbewerbsfähigkeit Deutschlands und die Akzeptanz für die Energiewende zu verlieren.“

Das Wirtschaftsministerium redet sich bislang zu den völlig überhöhten Strompreisen Deutschlands, den zweithöchsten der Welt, mit Definitionsfragen heraus. Genau das akzeptieren die Prüfer aber nicht; es solle genauer dargelegt werden, was Bezahlbarkeit für die Bürger bedeutet.

Auch sprechen die Beamten das Thema der Versorgungsunsicherheit klar an: Nach Abschaltung aller Kohle- und Kernkraftwerke entstehe eine Lücke von mehr als 5 GW. Im Ministerium gäbe es keine Untersuchungen zu den möglichen Folgen anhaltender flächendeckender Stromausfälle. Dazu zählen: Fehlende Beleuchtungs- und Bewässerungsmöglichkeit ganzer Bundesländer; Ausfall der Krankenversorgung, wenn die Hospitäler nach etwa 36 h keinen Treibstoff für ihre Generatoren mehr haben; teilweiser Ausfall der Nahrungsmittelversorgung, und wirtschaftliche Schäden durch Ausfall ganzer Branchen.

EIKE würde interessieren, was deutsche Klimaforscher vom PIK und den zahlreichen anderen NGOs und Instituten an Universitäten dazu sagen, da ihre PR-Tätigkeit Bundes- und Landespolitiker immerhin dazu nötigt, Entscheidungen zu treffen, die für die schwächsten Teile der Bevölkerung schwerwiegende Folgen hat.




Klimaschau 23 – die Tagesschau von Sebastian Lüning




Die Britische Regierung denkt ebenfalls daran, CO2 Steuer als Einnahmequelle zu nutzen – noch ist etwas Vernunft zu spüren

Im Gegensatz zu den meisten britischen Think Tanks, NGOs und der Lobby für erneuerbare Energien hat die GWPF wiederholt gewarnt, dass die Einführung von Kohlenstoffsteuern die wirtschaftliche Erholung Großbritanniens gefährden, Familien und Unternehmen belasten und ein Wahldebakel riskieren würde, das dem Fiasko dem “Poll Tax” fiasco.“ gleichkommt .

Am Dienstag veröffentlichte das Finanzministerium das endgültige Ergebnis seiner Konsultation zu einer britischen Kohlenstoffsteuer. Es bestätigte, dass sich die Regierung gegen eine Kohlenstoffsteuer entschieden hat, und führte stattdessen ein britisches Emissionshandelssystem (UK ETS) ein:

„Die Regierung treibt die CO2-Besteuerung nicht voran, angesichts der Überlegung, dass es ein britisches Emissionshandelssystem implementieren würde, um ihre Teilnahme am EU-Emissionshandelssystem zu ersetzen.“

Die vorgeschlagene Höhe der Kohlenstoffsteuer hätte etwa 3 Mrd. GBP pro Jahr für die inländischen Gas- und Ölheizungsrechnungen bedeutet, was ein bereits schwerwiegendes Problem der Energiearmut verschärft hätte.

Obwohl die Ablehnung einer Kohlenstoffsteuer durch die Regierung zu begrüßen ist, besteht das ernsthafte Risiko, dass das britische Emissionshandelssystem (EHS) viel teurer wird als das EHS der EU.

Nach Angaben des Amtes für Haushaltsverantwortung (OBR) kostete das EU-EHS das Vereinigte Königreich 2019 1,4 Mrd. GBP.

Zum Vergleich enthält die von der britischen Regierung selbst durchgeführte Prognose zur Folgenabschätzung für die CO2-Preisgestaltung Vergleiche darüber, welche Einnahmen im Rahmen des EU-EHS erzielt worden wären und im Rahmen des britischen EHS erzielt werden.

Die Zukunft der britischen CO2 Besteuerung, Folgenabschätzung Juni 2020, S. 23

Das kontrafaktische EU-EHS liegt zwischen 1 Mrd. GBP und 7,6 Mrd. GBP, was mit der OBR-Zahl übereinstimmt. Das britische EHS wird jedoch zwischen 4,5 und 10 Mrd. GBP liegen.

GWPF-Direktor Benny Peiser sagte dazu:

„Es ist sehr zu begrüßen, dass das Finanzministerium auf die Stimmen der Vernunft und des Realismus gehört hat. Die Erzwingung kostspieliger Kohlenstoffsteuern für bedrängte Haushalte und Unternehmen hätte zu einer Zeit, in der Boris Johnson um die Wiederbelebung der britischen Wirtschaft kämpft, öffentliche Empörung und politische Umwälzungen riskiert.

Wenn die Regierung ihr Emissionshandelssystem jedoch zum Schlechten anwendet, besteht die Gefahr, dass es [für die Betroffenen] erheblich teurer wird als das EU-EHS. Das Letzte, was Großbritannien braucht, ist, britischen Unternehmen, die mit denen in der EU konkurrieren müssen, ernsthafte Nachteile zuzufügen, ganz zu schweigen gegenüber Konkurrenten im Rest der Welt. “

GWPF Newsletter vom 25.03.2021

 

Ergänzung, Original Absatz zur CO2 Steuer

Tax policies and consultations Spring 2021

3.13 Carbon Emissions Tax (CET) – The government is publishing the summary of responses to its consultation on the CET6 which closed in September 2020. The government is not taking forward the CET in light of the announcement that it would implement a UK Emissions Trading System to replace its participation in the EU Emissions Trading System.

3.13 CO2-Emissionssteuer (CET) – Die Regierung veröffentlicht die Zusammenfassung von Antworten auf seine Konsultation zum CET6, die im September 2020 abgeschlossen wurde. Die Regierung treibt die CET nicht voran, angesichts der Überlegung, dass es ein britisches Emissionshandelssystem implementieren würde, um ihre Teilnahme am EU-Emissionshandelssystem zu ersetzen.

 

Ich würde das eher als politische Finte ansehen: Nicht die Wähler aufschrecken, lieber behaupten, dass weitere Schrecken der EU abgebaut werden – und genügend Geld mit eigenen Erfindungen abschöpfen – Übersetzt durch Andreas Demmig




Die besten Klimawandel-Temperatur­daten

Das PowerPoint kann man von hier herunterladen und die Folien mit meinen Anmerkungen hier.

Die Eckpunkte des Vortrags sind Folgende:

● Das IPCC und ich sind uns einig, dass die Temperatur ein Schlüsselindikator für den sich verändernden Zustand des Klimasystems ist.

● Das IPCC hat traditionell die globale mittlere Oberflächentemperatur (GMST) verwendet, um die globale Temperaturänderung abzuschätzen, sie hat eine geordnete Datenbasis hinter sich, aber die atmosphärischen Temperaturen sind sehr chaotisch, so dass sie aus der Klimaperspektive möglicherweise nicht aussagekräftig sind.

● Das neue modellbasierte Maß der Erwärmung GSAT (global surface air temperature) ist höchst problematisch, wenn es, wie geplant, im AR6 eingeführt wird. Es wird mit einem Modell der GMST berechnet und erhöht die Erwärmungsrate um 4%. Die Modelle legen nahe, dass sich GSAT schneller erwärmt als GMST, aber die vorhandenen Daten unterstützen diese zusätzliche Erwärmung nicht. Die Daten, die wir haben, sind hauptsächlich Nachtmessungen der Lufttemperatur auf dem Meer von Schiffen.

● Die ozeanische Mischschicht steht in ständiger Kommunikation mit der Oberfläche und hat die 27-fache Wärmekapazität der gesamten Atmosphäre. Sie bedeckt 71 % der Erdoberfläche und reagiert nicht auf kurzfristige chaotische Schwankungen der atmosphärischen Temperatur. Infolgedessen ist sie eine stabilere Langzeitaufzeichnung des Klimawandels.

● Der tiefere Ozean, unterhalb der Mischschicht, ist eine Aufzeichnung der Temperaturen in der Vergangenheit.

● Es wird ein Modell benötigt, um eine gute Temperaturaufzeichnung aus den aktuellen Temperaturen des tiefen Ozeans plus Proxies aus den Sedimenten des Meeresbodens zu erstellen.

● Der Ausdruck „Klimawandel“ ist überflüssig, das Klima hat sich immer verändert und wird sich immer verändern, wir sollten einfach „Klima“ sagen.

Die letzte Folie der Präsentation veranschaulicht, was getan werden kann, sie verwendet Daten von Yair Rosenthal, 2013, Science.

Die linke Grafik zeigt eine Temperatur-Rekonstruktion von Yair Rosenthal und Kollegen in ihrer Arbeit von 2013 in Science. Rechts sehen wir eine Standortkarte und ein Temperaturprofil für die Makassar-Straße aus der Datenbank der Universität Hamburg.

Die linke Grafik zeigt eine Temperaturrekonstruktion von Yair Rosenthal und Kollegen in ihrer 2013 in Science erschienenen Arbeit. Sie verwenden bodenbewohnende Foraminiferen in der Makassar-Straße, zwischen Sulawesi und Borneo in Indonesien. Das Wasser in etwa 500 Metern Tiefe, in dem die Foraminiferen leben, stammt aus dem Südlichen Ozean nahe der Antarktis, dem südlichen Indischen Ozean und dem Nordpazifik. Dieser Standort ist ideal für die Überprüfung der 500-Meter-Wassertemperatur für einen Großteil der südlichen Hemisphäre und einen Teil der nördlichen Hemisphäre.

Tieferes Wasser ist stärker von der Oberfläche isoliert, und die Trends spiegeln längerfristige klimatische Veränderungen wider, die nicht von atmosphärischen Schwankungen beeinflusst werden.

Rechts sehen wir eine Standortkarte und ein Temperaturprofil für die Makassarstraße aus der Datenbank der Universität Hamburg. Die Datenbank ist eine hochauflösende (0,25° Breiten- und Längengrad) Monatsreihe, die alle verfügbaren Daten aus vielen Jahren verwendet. Dieses Profil bezieht die meisten seiner Daten aus den Jahren 2004-2016. Es zeigt eine durchschnittliche Temperatur in 500 Metern Höhe von etwa 7,7°C. Damit erwärmt sich dieses Gebiet in 500 m Höhe um etwa 0,5°C gegenüber dem Tiefpunkt der Kleinen Eiszeit. Hier lag die Tiefsttemperatur im Jahr 1810 bei 7,2°C.

Das holozäne Klimaoptimum ist in der Grafik gekennzeichnet, und in dieser Meerenge lag die Temperatur oft über 10 Grad, die mittelalterliche Warmzeit war mit etwa 8,5°C, viel wärmer als heute.

Zusammenfassend lässt sich sagen, dass die Daten, die wir benötigen, um die Temperaturen des Holozäns und älter zu rekonstruieren, in den Ozeanen und in den Meeressedimenten zu finden sind. Rekonstruktionen der Ozeantemperaturen repräsentieren viel mehr von der Erdoberfläche (definiert als vom Meeresboden bis zum oberen Rand der Atmosphäre) als alle land- oder ozeanbasierten Messungen in der Atmosphäre. Die Atmosphäre ist zu chaotisch und instabil, um uns repräsentative Klimatrends zu liefern. Ozeantemperaturen sind stabiler, brauchbarer und leichter mit Paläo-Temperaturen zu vergleichen.

Link: https://wattsupwiththat.com/2021/03/26/best-climate-change-temperatures/

Übersetzt von Chris Frey EIKE

 




Der Photovoltaik-Wärmeinsel-Effekt: große Solarparks lassen die lokale Temperatur steigen

Frühere Arbeiten zum PVHI waren meist theoretischer Natur oder basierten auf Modell-Simulationen. Außerdem waren frühere empirische Arbeiten auf ein einziges Biom beschränkt. Da es immer noch große Unsicherheiten in Bezug auf das Potenzial für einen PHVI-Effekt gibt, haben wir den PVHI empirisch mit Experimenten untersucht, die sich über drei Biome erstreckten. Wir fanden heraus, dass die Temperaturen über einer PV-Anlage nachts regelmäßig 3-4 °C höher lagen als in der freien Natur, was in direktem Gegensatz zu anderen Studien steht, die auf Modellen basieren, legten diese doch nahe, dass PV-Anlagen die Umgebungstemperatur senken sollten. Die Ableitung der zugrunde liegenden Ursache und des Ausmaßes des PVHI-Effekts sowie die Identifizierung von Abschwächungs-Strategien sind der Schlüssel zur Unterstützung der Entscheidungsfindung in Bezug auf die Entwicklung von PV-Anlagen, insbesondere in semiariden Landschaften, die am ehesten für großflächige PV-Anlagen in Frage kommen.
Die Stromerzeugung aus Photovoltaik (PV)-Großanlagen hat in den letzten Jahrzehnten exponentiell zugenommen1-3. Diese Zunahme der Portfolios an erneuerbaren Energien und PV-Kraftwerken zeigt, dass die Akzeptanz und Kosteneffizienz dieser Technologie gestiegen ist4,5. Parallel zu diesem Anstieg der Installationen hat auch die Bewertung der Auswirkungen von PV-Anlagen im Nutzungs-Maßstab4,6-8 zugenommen, einschließlich der Auswirkungen auf die Wirksamkeit von PV zum Ausgleich des Energiebedarfs9,10.

Ein zunehmendes, noch nicht ausreichend untersuchtes Problem ist die Frage, ob PV-Installationen einen „Wärmeinseleffekt“ (PVHI) verursachen, der die umliegenden Gebiete erwärmt und dadurch möglicherweise den Lebensraum von Wildtieren, die Funktion von Ökosystemen in der freien Natur sowie die menschliche Gesundheit und sogar den Wert von Häusern in Wohngebieten beeinflusst11. Wie beim Urban Heat Island (UHI)-Effekt verursachen große PV-Kraftwerke eine Landschaftsveränderung, die die Albedo reduziert, so dass die veränderte Landschaft dunkler und damit weniger reflektierend ist. Die Verringerung der terrestrischen Albedo von ~20% in natürlichen Wüsten12 auf ~5% über PV-Panels13 verändert die Energiebilanz der Absorption, Speicherung und Abgabe von kurz- und langwelliger Strahlung14,15. Mehrere Unterschiede zwischen den UHI- und potenziellen PVHI-Effekten erschweren jedoch einen einfachen Vergleich und führen zu konkurrierenden Hypothesen darüber, ob großflächige PV-Installationen einen Wärmeinseleffekt erzeugen oder nicht. Diese beinhalten: (i) PV-Installationen beschatten einen Teil des Bodens und könnten daher die Wärmeabsorption in den Oberflächenböden reduzieren16, (ii) PV-Paneele sind dünn und haben eine geringe Wärmekapazität pro Flächeneinheit, aber PV-Module strahlen sowohl nach oben als auch nach unten Wärmestrahlung ab, und dies ist besonders während des Tages von Bedeutung, wenn PV-Module oft 20 °C wärmer sind als die Umgebungstemperatur, (iii) die Vegetation wird in der Regel vor [der Installation von] PV-Kraftwerken entfernt, was die Menge an Kühlung durch Transpiration verringert14, (iv) elektrischer Strom entzieht PV-Kraftwerken Energie und (v) PV-Paneele reflektieren und absorbieren aufsteigende langwellige Strahlung und können somit verhindern, dass der Boden so stark abkühlt, wie es unter einem dunklen Himmel in der Nacht der Fall wäre.

Abbildung 1: Illustration des mittäglichen Energieaustauschs. Unter der Annahme, dass die eintreffende Energie von der Sonne gleich hoch ist, wird der Übergang von (A) einem bewachsenen Ökosystem zu (B) einer Photovoltaik (PV)-Kraftwerksanlage die Energieflussdynamik des Gebiets erheblich verändern. In natürlichen Ökosystemen reduziert die Vegetation die Wärmeaufnahme und -speicherung im Boden (orangefarbene Pfeile), und infiltriertes Wasser und die Vegetation geben wärmeabgebende latente Energieströme beim Übergang von Wasser zu Wasserdampf in die Atmosphäre durch Evapotranspiration ab (blaue Pfeile). Diese latenten Wärmeströme werden in typischen PV-Anlagen drastisch reduziert, was zu größeren fühlbaren Wärmeströmen führt (rote Pfeile). Die Energierückstrahlung von PV-Paneelen (brauner Pfeil) und die in Elektrizität umgewandelte Energie (violetter Pfeil) sind ebenfalls dargestellt.

Öffentliche Bedenken über einen PVHI-Effekt haben in einigen Fällen zu Widerstand gegen die Entwicklung von Solaranlagen in großem Maßstab geführt. Einigen Schätzungen zufolge wurde fast die Hälfte der kürzlich vorgeschlagenen Energieprojekte aufgrund des lokalen Widerstands verzögert oder aufgegeben11. Es gibt jedoch einen bemerkenswerten Mangel an Daten darüber, ob der PVHI-Effekt real ist oder nur ein Problem im Zusammenhang mit der Wahrnehmung von Umweltveränderungen durch die Anlagen, die zu einem „Nicht in meinem Hinterhof“-Denken (Not In My BackYard; NIMBY) führen. Einige Modelle deuten darauf hin, dass PV-Anlagen tatsächlich einen kühlenden Effekt auf die lokale Umgebung haben können, abhängig von der Effizienz und der Platzierung der PV-Paneele17,18. Aber diese Studien sind in ihrer Anwendbarkeit bei der Bewertung von PV-Großanlagen begrenzt, da sie Änderungen der Albedo und des Energieaustauschs in einer städtischen Umgebung (und nicht in einem natürlichen Ökosystem) oder an europäischen Standorten berücksichtigen, die nicht repräsentativ für die semiaride Energiedynamik sind, in der PV-Großanlagen konzentriert sind10,19. Die meisten bisherigen Forschungen beruhen also auf ungeprüften Theorien und numerischer Modellierung. Daher muss das Potenzial für einen PHVI-Effekt mit empirischen Daten untersucht werden, die durch strenge experimentelle Bedingungen gewonnen werden.

Die Bedeutung eines PVHI-Effekts hängt von der Energiebilanz ab. Eingehende Sonnenenergie wird normalerweise entweder zurück in die Atmosphäre reflektiert oder absorbiert, gespeichert und später in Form von latenter oder fühlbarer Wärme wieder abgestrahlt (Abb. 1)20,21. In natürlichen Ökosystemen reduziert die Vegetation den Wärmegewinn und die Wärmespeicherung im Boden, indem sie eine Oberflächenbeschattung erzeugt, wobei der Grad der Beschattung je nach Pflanzenart unterschiedlich ist22. Die von der Vegetation und der Bodenoberfläche absorbierte Energie kann als latente Wärme beim Übergang von flüssigem Wasser zu Wasserdampf durch Evapotranspiration – dem kombinierten Wasserverlust aus Böden (Verdunstung) und Vegetation (Transpiration) – an die Atmosphäre abgegeben werden. Dieser Wärme abgebende latente Energieaustausch ist in einer typischen PV-Anlage drastisch reduziert (Abb. 1 Übergang von A nach B), was möglicherweise zu einer größeren Wärmeabsorption durch Böden in PV-Anlagen führt. Diese erhöhte Absorption wiederum könnte die Bodentemperaturen erhöhen und zu einem größeren fühlbaren Wärmeabfluss aus dem Boden in Form von Strahlung und Konvektion führen. Darüber hinaus absorbieren die Oberflächen von PV-Modulen aufgrund einer geringeren Albedo mehr Sonneneinstrahlung13,23,24. PV-Paneele strahlen den größten Teil dieser Energie als langwellige fühlbare Wärme wieder ab und wandeln einen geringeren Teil (~20 %) dieser Energie in nutzbare Elektrizität um. PV-Paneele lassen auch etwas Lichtenergie durch, was wiederum in unbegrünten Böden zu einer größeren Wärmeabsorption führt. Diese erhöhte Absorption könnte zu einem größeren fühlbaren Wärmeabfluss aus dem Boden führen, der unter den PV-Paneelen eingeschlossen werden kann. Ein PVHI-Effekt wäre das Ergebnis eines nachweisbaren Anstiegs des fühlbaren Wärmestroms (atmosphärische Erwärmung), der sich aus einer Veränderung des Gleichgewichts der ein- und ausgehenden Energieströme aufgrund der Landschaftsumwandlung ergibt. Die Entwicklung eines vollständigen thermischen Modells ist eine Herausforderung17,18,25, und es gibt große Unsicherheiten in Bezug auf mehrere Terme, einschließlich Variationen der Albedo, der Wolkenbedeckung, der Saisonalität der Advektion und der Effizienz der Paneele, die selbst dynamisch ist und von der lokalen Umgebung beeinflusst wird. Diese Unsicherheiten werden durch den Mangel an empirischen Daten noch verstärkt.

Wir haben uns mit dem Mangel an direkter Quantifizierung eines PVHI-Effekts befasst, indem wir gleichzeitig drei Standorte überwacht haben, die ein natürliches Wüstenökosystem, die traditionelle bebaute Umgebung (Parkplatz umgeben von Geschäftsgebäuden) und ein PV-Kraftwerk repräsentieren. Wir definieren einen PVHI-Effekt als den Unterschied in der Umgebungstemperatur zwischen dem PV-Kraftwerk und der Wüstenlandschaft. In ähnlicher Weise wird UHI als der Temperaturunterschied zwischen der bebauten Umgebung und der Wüste definiert. Wir reduzierten störende Effekte der Variabilität der lokal einfallenden Energie, der Temperatur und des Niederschlags, indem wir Standorte verwendeten, die innerhalb eines Gebiets von 1 km lagen.

An jedem Standort überwachten wir die Lufttemperatur kontinuierlich über ein Jahr lang mit aspirierten Temperatursonden 2,5 m über der Bodenoberfläche. Die durchschnittliche Jahrestemperatur betrug 22,7 ±0,5 °C in der PV-Anlage, während sie im nahegelegenen Wüstenökosystem nur 20,3 ±0,5 °C betrug, was auf einen PVHI-Effekt hinweist. Die Temperaturunterschiede zwischen den Gebieten variierten signifikant in Abhängigkeit von der Tageszeit und dem Monat des Jahres (Abb. 2), aber die PV-Anlage hatte immer eine höhere oder gleiche Temperatur als die anderen Standorte. Wie beim UHI-Effekt in Trockengebieten verzögerte der PVHI-Effekt die Abkühlung der Umgebungstemperaturen am Abend, was den signifikantesten Unterschied bei den Nachttemperaturen über alle Jahreszeiten hinweg ergab. Die jährlichen durchschnittlichen Mitternachtstemperaturen betrugen in der PV-Anlage 19,3 ±0,6 °C, während es im nahegelegenen Wüstenökosystem nur 15,8 ±0,6 °C waren. Dieser PVHI-Effekt war in Bezug auf die tatsächlichen Erwärmungsgrade (+3,5 °C) in den warmen Monaten (Frühling und Sommer; Abb. 3, rechts) deutlicher.

Abbildung 2. Die durchschnittlichen monatlichen Umgebungstemperaturen während eines 24-Stunden-Zeitraums liefern den Beweis für den Effekt einer photovoltaischen Wärmeinsel (PVHI).

Sowohl in PVHI- als auch in UHI-Szenarien absorbiert die größere Menge an exponierten Bodenflächen im Vergleich zu natürlichen Systemen einen größeren Anteil der energiereichen, kurzwelligen Sonnenstrahlung während des Tages. In Kombination mit minimalen Raten wärmeableitender Transpiration der Vegetation wird eine proportional höhere Menge an gespeicherter Energie als langwellige Strahlung während der Nacht in Form von fühlbarer Wärme abgestrahlt (Abb. 1)15. Da PV-Installationen eine Beschattung mit einem Material einführen, das selbst nicht viel einfallende Strahlung speichern sollte, könnte man annehmen, dass die Auswirkung eines PVHI-Effekts geringer sein würde als die eines UHI. Hier haben wir festgestellt, dass der Unterschied in der abendlichen Umgebungstemperatur zwischen der PV-Anlage und dem Wüstenstandort durchweg größer war als zwischen dem Parkplatz (UHI) und dem Wüstenstandort (Abb. 3). Der PVHI-Effekt führte dazu, dass die Umgebungstemperatur abends regelmäßig annähernd oder mehr als 4 °C höher lag als in der natürlichen Wüste, was im Wesentlichen eine Verdoppelung des hier gemessenen Temperaturanstiegs aufgrund von UHI bedeutet. Diese stärkere Erwärmung unter dem PVHI als unter dem UHI könnte auf den Wärmeeinschluss des zurückgestrahlten fühlbaren Wärmestroms unter den PV-Anlagen in der Nacht zurückzuführen sein. Tagsüber waren die Unterschiede zum natürlichen Ökosystem zwischen der PV-Anlage und den städtischen Parkplätzen ähnlich, mit Ausnahme der Frühlings- und Sommermonate, in denen der PVHI-Effekt tagsüber deutlich größer war als der UHI. Während dieser warmen Jahreszeiten betrugen die durchschnittlichen Mitternachtstemperaturen 25,5 +0,5 °C in der PV-Anlage und 23,2 +0,5 °C auf dem Parkplatz, während das nahe gelegene Wüstenökosystem nur 21,4 ±0,5 °C aufwies.

Die hier vorgestellten Ergebnisse zeigen, dass der PVHI-Effekt real ist und die Temperaturen über PV-Kraftwerksanlagen im Vergleich zu nahegelegenen Wildlandschaften deutlich erhöhen kann. Detailliertere Messungen der zugrundeliegenden Ursachen des PVHI-Effekts, möglicher Minderungsstrategien und des relativen Einflusses von PVHI im Zusammenhang mit den inhärenten Kohlenstoffkompensationen aus der Nutzung dieser erneuerbaren Energie sind erforderlich. Daher werfen wir mehrere neue Fragen auf und weisen auf kritische Unbekannte hin, die zukünftige Forschung erfordern.

Abbildung 3. Links: Durchschnittliche monatliche Werte der photovoltaischen Wärmeinsel (Umgebungstemperaturdifferenz zwischen PV-Anlage und Wüste) und der städtischen Wärmeinsel (Umgebungstemperaturdifferenz zwischen dem städtischen Parkplatz und der Wüste). Rechts: Durchschnittliche Nacht- und Tagestemperaturen für vier saisonale Zeiträume, die einen signifikanten PVHI-Effekt über alle Jahreszeiten hinweg zeigen, wobei der größte Einfluss auf die Umgebungstemperaturen in der Nacht besteht.

Welche physikalische Grundlage haben Landschafts-Veränderungen, die einen PVHI-Effekt verursachen könnten?

Wir stellen die Hypothese auf, dass der PVHI-Effekt aus dem effektiven Übergang resultiert, wie sich Energie in und aus einer PV-Anlage im Vergleich zu einem natürlichen Ökosystem bewegt. Die Messung der einzelnen Komponenten eines Energiefluss-Modells bleibt jedoch eine notwendige Aufgabe. Diese Messungen sind schwierig und teuer, aber dennoch unerlässlich, um den relativen Einfluss mehrerer potenzieller Treiber des hier gefundenen PVHI-Effekts zu identifizieren. Die Umweltbedingungen, die die Muster der Kohlenstoff-, Energie- und Wasserdynamik im Ökosystem bestimmen, werden durch die Art und Weise angetrieben, in der die eintreffende Energie reflektiert oder absorbiert wird. Da uns grundlegende Kenntnisse über die Veränderungen der Oberflächenenergieflüsse und des Mikroklimas von Ökosystemen fehlen, die diese Landnutzungsänderung durchlaufen, können wir die Auswirkungen auf den Kohlenstoff- oder Wasserkreislauf kaum vorhersagen4,8.

Welche physikalischen Implikationen hat ein PVHI, und wie variiert dieser von Region zu Region?

Die Größe eines UHI wird durch Eigenschaften der Stadt bestimmt, einschließlich der Gesamtbevölkerung26-28, der räumlichen Ausdehnung und der geografischen Lage dieser Stadt29-31. In ähnlicher Weise sollten wir die räumliche Ausdehnung und die geografische Lage einer PV-Anlage berücksichtigen, wenn wir das Vorhandensein und die Bedeutung des PVHI-Effekts betrachten. Die Fernerkundung könnte mit bodengestützten Messungen gekoppelt werden, um die laterale und vertikale Ausdehnung des PVHI-Effekts zu bestimmen. Wir könnten dann feststellen, ob die Größe des PVHI-Effekts mit irgendeinem Maß des Kraftwerks skaliert (z. B. mit der Paneeldichte oder dem räumlichen Fußabdruck) und ob ein PVHI-Effekt umliegende Gebiete wie Wildnis und Nachbarschaft erreicht oder nicht. In Anbetracht der Tatsache, dass verschiedene Regionen rund um den Globus jeweils unterschiedliche Hintergrundniveaus der vegetativen Bodenbedeckung und thermodynamische Muster des latenten und sensiblen Wärmeaustauschs aufweisen, ist es möglich, dass ein Übergang von einer natürlichen Wildnis zu einem typischen PV-Kraftwerk andere Ergebnisse als die hier dargestellten zeigt. Der Mangel an Daten über die physikalischen Auswirkungen dieser wichtigen und zunehmenden Landnutzungs- und Landbedeckungs-Änderung rechtfertigt weitere Studien an repräsentativen Ökosystemen.

Welche Auswirkungen hat ein PVHI auf die Menschen, und wie können wir diese Auswirkungen abschwächen?

Mit der wachsenden Popularität der erneuerbaren Energieerzeugung werden die Grenzen zwischen Wohngebieten und größeren PV-Anlagen immer kleiner. Tatsächlich führt die größere Nähe zu Wohngebieten zu verstärkten Forderungen nach Zoneneinteilung und Stadtplanungsvorschriften für größere PV-Anlagen32,33 sowie zu PVHI-basierten Bedenken über potenzielle Reduzierungen des Immobilienwerts oder gesundheitliche Probleme im Zusammenhang mit dem menschlichen Wärmekomfort (HTC)34. Die Abschwächung eines PVHI-Effekts durch gezielte Begrünung könnte Synergieeffekte haben, indem sie die mit der Entwicklung eines PV-Standorts im Versorgungsmaßstab verbundene Verschlechterung des Ökosystems abschwächt und die mit einem Gebiet verbundenen kollektiven Ökosystemleistungen erhöht4. Aber was sind die besten Ausgleichsmaßnahmen? Welche Kompromisse gibt es in Bezug auf die verschiedenen Möglichkeiten der Begrünung von degradierten PV-Anlagen? Können andere Albedo-Modifikationen verwendet werden, um die Schwere des PVHI zu mildern?

Abbildung 4. Experimentelle Standorte. Die Überwachung eines (1) natürlichen semiariden Wüstenökosystems, (2) einer Solaranlage (PV) und (3) eines „städtischen“ Parkplatzes – der typischen Quelle städtischer Wärmeinseleffekte – innerhalb eines 1 km² großen Gebiets ermöglichte eine relative Kontrolle der einfallenden Solarenergie, so dass wir die Variation der lokalen Temperatur dieser drei Umgebungen über einen Zeitraum von einem Jahr quantifizieren konnten. Das Google Earth-Bild zeigt die Solarzone des Wissenschafts- und Technologieparks der University of Arizona.

Um diese Ergebnisse im Hinblick auf die globale Erwärmung vollständig in einen Zusammenhang zu stellen, muss man die relative Bedeutung der (global gemittelten) Abnahme der Albedo aufgrund von PV-Kraftwerken und der damit verbundenen Erwärmung durch die PVHI gegen die mit PV-Kraftwerken verbundenen Kohlendioxid-Emissionsreduktionen abwägen. Die hier vorgestellten Daten stellen die erste experimentelle und empirische Untersuchung des Vorhandenseins eines Wärmeinseleffekts in Verbindung mit PV-Kraftwerken dar. Ein integrierter Ansatz für die physikalischen und sozialen Dimensionen der PVHI ist der Schlüssel zur Unterstützung der Entscheidungsfindung bezüglich der PV-Entwicklung.

Es folgen genaue Beschreibungen der angewendeten Verfahren, der untersuchten Pflanzen und der Methoden der statistischen Auswertung. Diese werden hier nicht mit übersetzt. Danach folgt eine lange Liste mit Querverweisen, die hier ebenfalls nicht mit aufgeführt ist. Sie sind im DOC-Dokument einsehbar.

Link: https://www.nature.com/articles/srep35070

Übersetzt von Chris Frey EIKE

doc




Paris-Panik: Regierungen können ihren Klima-Verpflich­tungen nicht genügen, und einige entfernen sich sogar davon

Im Gegensatz zu dem, was fast täglich in den Mainstream-Medien berichtet wird, zeigen die Daten des IPCC und der NOAA keine Zunahme extremer Wetterereignisse mit der leichten Erwärmung der Erde über die letzten 150 Jahre. Tatsächlich zeigen die Daten des IPCC und der NOAA, dass Fälle von extremen Kälteperioden, Dürren, Überschwemmungen, Hitzewellen, Hurrikanen, Tornados und Waldbränden seit Ende der 1870er Jahren alle leicht zurückgegangen oder relativ stabil geblieben sind.

Trotz dieser unwiderlegbaren Fakten haben die Führer von Nationen auf der ganzen Welt mehrere internationale Abkommen unterzeichnet, zuletzt das Pariser Klimaabkommen von 2015, das eine angeblich drohende Klimakatastrophe abwenden soll.

Das Problem ist, dass ihre Taten, sowohl als Individuen als auch durch die Politik, die sie als Regierungsführer umsetzen, nicht mit ihren Worten übereinstimmen.

Wenn der Klimabeauftragte von Präsident Joe Biden, der ehemalige US-Außenminister John Kerry, mit einem Privatjet um die Welt fliegt und dabei Zehntausende Tonnen Treibhausgase in die Atmosphäre pustet, um Auszeichnungen für seine klimapolitische Führungsrolle entgegenzunehmen oder um zu Tagungen zu reisen, bei denen er dazu aufruft, die Flugreisen der Durchschnittsbürger durch eine internationale Steuer auf Flugzeugemissionen einzuschränken, klingt seine Behauptung hohl, er mache sich Sorgen um das Schicksal der Erde. Die Behauptungen des ehemaligen Präsidenten Barack Obama, dass der Klimawandel bald Küsten und kleine Inseln überschwemmen wird, wirken ebenso unaufrichtig, wenn man erfährt, dass er nach seinem Ausscheiden aus dem Amt ein Grundstück direkt am Meer auf einer kleinen Insel gekauft hat, die kaum einen Meter über dem Meeresspiegel liegt.

Es ist schlimm, wenn die persönliche Heuchelei von Politikern zum Klimawandel öffentlich zur Schau gestellt wird. Noch schlimmer ist es, wenn sie Verträge unterzeichnen, in denen sie sich verpflichten, die Emissionen ihrer Länder zu begrenzen, nur um dann nach Hause zu gehen und eine Politik zu betreiben, die die Emissionen erhöht. Den UN zufolge ist dies genau das, was die führenden Politiker der Welt tun. Die meisten Länder stellen das heimische Wirtschaftswachstum über das Fortbestehen eines lebenswerten Planeten, sagt die U.N..

Einem aktuellen Bericht der Vereinten Nationen über die Fortschritte bei der Erfüllung der Verpflichtungen zufolge, welche die Regierungen im Pariser Klimaabkommen zur Reduzierung der Emissionen eingegangen sind, erreichen die Länder nicht ihre Ziele. In dieser Hinsicht unterscheidet sich das Pariser Klimaabkommen nicht von früheren Abkommen wie dem Kyoto-Protokoll von 1997 und der UN-Klimarahmenkonvention von 1992, in denen sich die Länder ebenfalls verpflichteten, ihre Emissionen bis zu bestimmten Terminen zu reduzieren, und munter zusahen, wie diese Termine kamen und gingen, während ihre Emissionen weiter stiegen.

Wohl nirgendwo hat sich die Beobachtung von Thomas Hobbes im „Leviathan“, dass „Pakte ohne das Schwert nur Worte sind“, mehr bewahrheitet als bei internationalen Klimaabkommen.

Mit Stand vom 26. Februar haben laut UN nur 75 der mehr als 190 Länder, die das Pariser Klimaabkommen ratifiziert haben, feste Zusagen und detaillierte Pläne zur Emissionssenkung vorgelegt, obwohl sie sich verpflichtet haben, diese Pläne bis 2020 zu erfüllen. Die meisten der Länder, die solche Pläne einreichen, sind Entwicklungsländer, die weniger als 30 Prozent der globalen Treibhausgasemissionen ausmachen. Selbst dort, so die UNO, „deutet das Niveau der Ambitionen … darauf hin, dass die Veränderungen in den Gesamtemissionen dieser Länder gering wären, weniger als -1% im Jahr 2030 im Vergleich zu 2010 … [wohingegen der] IPCC im Gegensatz dazu angedeutet hat, dass die Emissions-Reduktionsbereiche zur Erreichung des 1,5°C-Temperaturziels etwa -45% im Jahr 2030 im Vergleich zu 2010 betragen sollten.“

Ob von großen oder kleinen Emittenten – die Pariser Klimazusagen sind unzureichend, um das Ziel zu erreichen, und selbst diese begrenzten Zusagen fallen auf die Realitäten der Nationen zurück, die die Armutsbekämpfung und das Wirtschaftswachstum (meiner Meinung nach zu Recht) über die Klimaschutzmaßnahmen stellen, welche notwendigerweise den Energieverbrauch und den wirtschaftlichen Fortschritt einschränken.

Schauen wir uns einige Beispiele an. Indien ist der drittgrößte Treibhausgasemittent der Welt (obwohl Indien für IPCC-Zwecke als viertgrößter Emittent zählt, weil die Nationen der EU verlangen, dass sie als ein einziges Land gezählt werden). Im Rahmen des Pariser Abkommens verpflichtete sich Indien nicht, seine Emissionen zu senken, sondern versprach stattdessen, die Emissionsintensität (Emissionen in Prozent des BIP) zu reduzieren. Infolgedessen stellt die UNO fest: „Mit den derzeitigen Energiezielen und -politiken werden [Indiens] Emissionen voraussichtlich weiter ansteigen (um 24-25 Prozent über das Niveau von 2019 im Jahr 2030) und zeigen keine Anzeichen für ein Erreichen des Höchststandes, insbesondere aufgrund des Fehlens einer Politik zur Abkehr von Kohle. Ein solcher Anstieg der Emissionen ist nicht mit dem Pariser Abkommen vereinbar.“

Siebzig Prozent des indischen Stroms werden heute durch die Verbrennung von Kohle erzeugt, und das Land eröffnet oder erweitert 32 neue Kohleminen und Dutzende neuer Kohlekraftwerke. Indiens jüngste Schätzungen gehen davon aus, dass der Einsatz von Kohle zur Energieerzeugung bis 2030 um 40 Prozent steigen wird.

Noch schlimmer sind die Nachrichten aus China, dem größten Emittenten der Welt. Mit einem Anteil von etwa 25 Prozent an den weltweiten Emissionen ist Chinas Kohlendioxidausstoß bereits jetzt etwa doppelt so hoch wie der der Vereinigten Staaten. China hat vage angedeutet, dass es erwartet, dass seine Kohlendioxidemissionen bis 2030 ihren Höhepunkt erreichen werden. Das war seine Pariser Klimaverpflichtung. Die Frage ist, auf welchem Niveau der Höhepunkt erreicht wird.

Es könnte sogar schwierig sein, den Anstieg bis 2030 zu stoppen: Chinas kürzlich veröffentlichter Fünfjahresplan für die wirtschaftliche Entwicklung sieht keine Reduzierung der Kohlenutzung vor. Es wäre überraschend, wenn dies doch der Fall wäre. In den letzten Jahren hat China Dutzende neuer, großer Kohlekraftwerke in Betrieb genommen, und Hunderte weitere befinden sich in verschiedenen Bau-, Entwicklungs- und Planungsstadien, sowohl in China selbst als auch in Afrika, im restlichen Asien und im Nahen Osten.

Unterdessen entmutigt China den Bau neuer Wind- und Solaranlagen, die von der Nationalen Energiebehörde (NEA) als „unzuverlässig“ bezeichnet werden. Die NEA hat den Provinzen mitgeteilt, dass sie Netzkapazitäten für neue Wind- und Solarprojekte versteigern dürfen, vorausgesetzt, ein Drittel der Verträge ist für Entwickler reserviert, die bereit sind, auf Geld zu verzichten, das Chinas Regierung ihnen derzeit für zuvor entwickelte Wind- und Solarkraftwerke schuldet. Darüber hinaus werden die erfolgreichen Bieter nach der neuen Politik der NEA auf einen festen Tarif für die von den neuen Anlagen erzeugte Energie beschränkt.

Selbst Argentinien, ein relativ kleiner Emittent, wird Schwierigkeiten haben, seine Entwicklungsziele mit seiner Pariser Klimaverpflichtung in Einklang zu bringen. Auf einer kürzlich abgehaltenen Konferenz sagte Präsident Alberto Fernandez, Argentinien habe die „wahre Verpflichtung“, bis 2050 netto null Treibhausgasemissionen zu erreichen. Rigzone merkt an: „Um das zu erreichen, muss das Land bis 2025 ein Fünftel seiner Energie aus erneuerbaren Quellen gewinnen, statt wie bisher etwa 10 Prozent.“ In der Zwischenzeit kündigte Fernandez auf dem argentinischen Schiefergasvorkommen Vaca Muerta – weit weg vom Rampenlicht der internationalen Klimakonferenzen – sagt, dass die Regierung die fossilen Brennstoffe verdoppeln werde: „Heute bringen wir die Öl- und Gaswirtschaft wieder in Schwung“, sagte er, beginnend mit 5 Milliarden Dollar an staatlichen Subventionen zur Erschließung von Schiefergas-Feldern.

Unter dem Strich bleibt, dass die Welt dem Untergang geweiht ist, wenn die großen und kleinen Länder ihre Anstrengungen nicht deutlich verstärken und ihre Emissionen nicht nur auf dem Papier, sondern tatsächlich reduzieren. Obwohl ich denke, dass den Beweisen zufolge keine Klimaapokalypse bevorsteht, sagt die U.N. etwas anderes, und alle Länder im Pariser Abkommen stimmen dem zu.

Im Endeffekt verneigen sich die Regierungen vor den Klimagöttern, während sie ihr Tagesgeschäft weiterführen, indem sie ihre Leute zur Arbeit bringen und ihre Wirtschaft wachsen lassen. Wirtschaftswachstum ist notwendig, um die Massen vom Aufstand abzuhalten, und das bringt notwendigerweise einen wachsenden Energieverbrauch mit sich, einschließlich fossiler Brennstoffe. Gleichzeitig erlangen die politischen Eliten im Hintergrund immer mehr Macht und Kontrolle über das Leben der Menschen, und genau das ist es, worum es bei der Klimapanik eigentlich immer ging und geht.

[Hervorhebung vom Übersetzer]

Quellen: United Nations; Climate Realism; Gizmodo; Rigzone; EnergyWorld; The New Indian Express

Link: https://www.heartland.org/news-opinion/news/paris-panic-governments-fail-to-meet-their-climate-commitments-and-some-are-getting-farther-away

Übersetzt von Chris Frey EIKE

 




PAGES 12K: Die Eiszeit geht weiter

Ich denke, das Papier stellt einen gutgläubigen Versuch dar, den globalen Klimawandel über die letzten 12.000 Jahre zu rekonstruieren. Die Autoren waren sehr transparent, was die Daten und Verfahren angeht, und merkten sogar an, dass niemand wirklich weiß, wie man das Klima auf dieser Art von Skala rekonstruieren kann. Obwohl es sich nicht um einen Mann’schen Hockeystick oder ein Marcott’sches Durcheinander handelt, bestanden sie darauf, die niederfrequente Komponente des Klimasignals auszublenden und die hochauflösende instrumentelle Aufzeichnung direkt mit der sehr niederfrequenten, stark geglätteten Multi-Proxy-Rekonstruktion zu vergleichen. Das heißt, eine ihrer fünf Rekonstruktions-Verfahren bewahrte das niederfrequente Klimasignal (ja, ich verwende das Wort „Signal“ korrekt). Dieser Beitrag soll auf zwei Dinge hinweisen:

1. Direkte Vergleiche der instrumentellen Daten mit der Rekonstruktion verletzen die Grundprinzipien der Signaltheorie.

2.Nur das Composite Plus Scale (CPS)-Verfahren ist mit den Beobachtungen konsistent.
Verletzung der Signaltheorie, 15-Yard-Raumstrafe* und Loss of Down*

[*Diese Begriffe stammen aus dem American Football und lassen sich nicht übersetzen. Sie sind sehr grob vergleichbar mit einem Elfmeter im Fußball. A. d. Übers.]

Dies ist aus der Einleitung der Studie:

Die Datenbank ist die umfassendste derzeit verfügbare globale Zusammenstellung von bisher veröffentlichten holozänen Proxy-Temperaturzeitreihen. Sie umfasst eine Qualitäts-kontrollierte Sammlung von hochauflösenden Zeitreihen (durchschnittlicher Probenabstand von 164 Jahren) mit gut etablierten Zeitskalen (durchschnittlich 1,0 Alterskontrollpunkte pro 1000 Jahre), die aus einer viel größeren Sammlung von Temperatur-sensitiven Proxy-Aufzeichnungen ausgewählt wurde. Die Multi-Proxy-Datenbank umfasst insgesamt 1319 Paläo-Temperaturaufzeichnungen von 470 terrestrischen und 209 maritimen Standorten, an denen ökologische, geochemische und biophysikalische Proxy-Indikatoren verwendet wurden, um auf vergangene Temperaturänderungen zu schließen. Unter der Vielzahl der Proxy-Typen sind Alkenone und Isotope die dominierenden Proxy-Typen für die Meeresoberflächentemperatur, während Pollen und Chironomiden die häufigsten terrestrischen Temperatur-Proxy-Typen sind. Die meisten Aufzeichnungen (97 %) sind als quantitative, auf °C kalibrierte Temperaturrekonstruktionen verfügbar, während die restlichen 42 Aufzeichnungen nicht-quantitative, Temperatur-sensitive Proxy-Aufzeichnungen darstellen.

Kaufman, D., McKay, N., Routson, C. et al., 2020

Dies ist aus „Timing and magnitude of peak Holocene global temperature“:

Um den wahrscheinlichen Bereich der zeitlichen Auflösung der GMST-Rekonstruktion einzugrenzen, konzentrieren wir uns auf Intervalle von 1000 und 200 Jahren und quantifizieren den Unterschied in der Größe und dem Zeitpunkt des Höhepunktes der Erwärmung (Abb. 4).

Kaufman, D., McKay, N., Routson, C. et al., 2020

In meinem vorherigen Beitrag habe ich die Rekonstruktion so behandelt, als hätte sie eine 100-Jahre-Auflösung…
Während ich immer noch denke, dass die Arbeit eine sehr gute paläoklimatologische Leistung ist, ist dieser Absatz in keiner Weise wissenschaftlich belegbar.

Die Verteilung der globalen Spitzentemperaturen während des Holozäns kann auch mit den jüngsten Temperaturen verglichen werden. Die GMST der letzten Dekade (2011-2019) lag im Durchschnitt 1 °C höher als 1850-190011. Für 80 % der Ensemblemitglieder übertraf kein 200-Jahres-Intervall während der letzten 12.000 Jahre die Wärme der jüngsten Dekade. Für die anderen 20 % der Fälle, die hauptsächlich aus der CPS-Rekonstruktion stammen, übertraf mindestens ein 200-Jahres-Intervall die jüngste Dekade. Dieser Vergleich ist konservativ im Kontext der für den Rest dieses Jahrhunderts und darüber hinaus prognostizierten Temperaturen, die sehr wahrscheinlich 1 °C über der vorindustriellen Temperatur liegen werden. Solche Projektionen stellen die Temperatur des letzten Jahrzehnts in einen langfristigen Kontext, der besser mit der holozänen GMST-Rekonstruktion vergleichbar ist. Wenn die Rekonstruktion außerdem durch eine Verzerrung des Sommers der nördlichen Hemisphäre beeinflusst wird (siehe unten), dann würde die Spitzenerwärmung überschätzt werden und die jüngste Erwärmung würde daher im Vergleich noch stärker hervorstechen.

Kaufman, D., McKay, N., Routson, C. et al., 2020

Die Rekonstruktion kann keine Temperaturänderungen auf dekadischer Skala auflösen. Bei der Auflösung der Rekonstruktion wäre HadCRUT4 ein einzelner Datenpunkt bei 0,23 °C.

Die Eiszeit geht weiter

Folgendes hatten die Autoren über die CPS-Rekonstruktionsmethode zu sagen…

Unter den fünf Rekonstruktionsverfahren sticht CPS mit seinen großen Temperaturänderungen hervor (Abb. 3), vor allem auf der Nordhemisphäre (Abb. 1 und 2). Zum Beispiel zeigt das mediane Ensemble-Mitglied der CPS-Rekonstruktion, dass sich die GMST zwischen 12 und 10 ka um etwa 3,9 °C erwärmt hat, verglichen mit etwa 1,1 °C für die anderen Verfahren. Die mediane GMST während des Zeitraums um 6 ka, dem langjährigen Zielwert für paläoklimatische Modellexperimente (z. B. Ref. 15), war in der CPS-Rekonstruktion um 1,1 °C wärmer als das 19. Jahrhundert, verglichen mit etwa 0,4-0,5 °C für die anderen Verfahren (Tabelle 1).

(…)

Obwohl es sich um einen Ausreißer handelt, haben wir keine unwiderlegbaren Beweise, um die CPS-Rekonstruktion auszuschließen, und können nicht ausschließen, dass die anderen Rekonstruktionsverfahren die Gesamtvarianz unterschätzen. Das Ergebnis des CPS-Verfahrens hängt von der Gültigkeit des für die Skalierung verwendeten Ziels ab, was schwer zu überprüfen ist. Die hohe Amplitude der durch CPS rekonstruierten Temperaturänderungen könnte chronologische und andere Unsicherheiten widerspiegeln, die die Temperaturvarianz auf der Hundertskala während des Zusammensetzens ausmitteln und dadurch die relative Größe der Varianz auf der Jahrtausendskala im Verbund erhöhen. Wenn das Komposit dann auf die Rekonstruktionen der letzten zwei Jahrtausende skaliert wird, die eine realistischere Varianz auf der Jahrtausendskala aufweisen, wird die Varianz auf der Jahrtausendskala (und damit die langfristigen Trends) künstlich aufgebläht. Nichtsdestotrotz trägt CPS als unabhängiger Ansatz zu einer vollständigeren Abtastung des Unsicherheitsraums bei. Daher behalten wir CPS als ein Fünftel des Multi-Methoden-Ensembles bei, und wir konzentrieren uns auf den Median und nicht auf den Mittelwert als beste Darstellung der zentralen Tendenz des Ensembles. Der Ausschluss von CPS aus dem Ensemble hat wenig Einfluss auf den Median der GMST-Rekonstruktion. Zum Beispiel ist der Median des Ensembles für das mittlere Holozän (6,5-5,5 ka) nur um 0,05 °C kühler, wenn man die CPS-Mitglieder ausschließt; der Median des Fünf-Methoden-Ensembles beträgt 0,51 °C (0,19, 1,35) gegenüber 0,46 °C (0,17, 0,79), wenn man die CPS-Mitglieder ausschließt.

Kaufman, D., McKay, N., Routson, C. et al., 2020

Sie ließen zähneknirschend CPS in der Mischung, denn: „Obwohl es ein Ausreißer ist, haben wir keine unwiderlegbaren Beweise, um die CPS-Rekonstruktion auszuschließen, und können die Möglichkeit nicht ausschließen, dass die anderen Rekonstruktionsverfahren die Gesamtvarianz unterschätzen.“

Allerdings hätten sie leicht Beweise finden können dafür, „dass die anderen Rekonstruktionsverfahren die Gesamtvarianz unterschätzen.“ CPS ist das einzige Verfahren, das das holozäne Klimaoptimum, die römische Warmzeit, die mittelalterliche Warmzeit und die Neu-Vergletscherung eindeutig auflöste…

Abbildung 3: CPS mit historischen Klima-Perioden und Neu-Vergletscherung (Grosjean et al., 2007)

[Hinweis: Die Abbildungen 1 und 2 sind bis Redaktionsschluss am 28.3. auch im Original nicht existent]

Ich habe einen Plot von CPS als Overlay von Abbildung 3 aus dem PAGES 12K-Paper erstellt und den 2K-Inset mit den historischen Klimaperioden und der Neoglazialisierung aus Grosjean et al., 2007 und einer Nordamerika-Eisausdehnungskarte aus Dyke et al., 2003 ersetzt. Ich habe auch ein 2σ-Konfidenzband aus den 500 Ensemblemitgliedern eingefügt. Meine Version des CPS-Mittelwerts ist die gestrichelte orangefarbene Kurve…

Abbildung 4. CPS mit historischen Klimaperioden und Neu-Vergletscherung (Grosjean et al., 2007) und früh-holozäne Eisausdehnungskarte (Dyke et al., 2003)

Sieht die nordamerikanische Eisausdehnung vor 12.000 Kalenderjahren eher 1 °C kühler aus als 1800-1900? Oder 4 °C kühler?

OK… geophysikalische Trägheit könnte erklären, wie es bei Temperaturen, die nur 1 °C kühler waren als 1800-1900, immer noch so viel Eis gegeben haben kann, aber ich glaube nicht, dass es das hier erklären kann:

Abbildung 5. CPS mit historischen Klimaperioden und Neoglazialisierung (Grosjean et al., 2007), frühholozäne Eisausdehnungskarte (Dyke et al., 2003) und Alpen-Baumgrenzenhöhe (Bohleber et al., 2021).

Die anderen vier Verfahren zeigen sehr geringe Temperaturänderungen von vor 9.500 Jahren bis 1850 n. Chr… Ein Zeitraum, von dem wir wissen, dass es in den ersten 5.000 Jahren einen massiven Eisrückgang und in den meisten der folgenden 4.500 Jahre einen Eisvorstoß (Neoglazial) gab. CPS ist das einzige der vier Verfahren, das mit der holozänen Entwicklung der Eisschilde und Gletscher in der nördlichen Hemisphäre übereinstimmt. Das ist auch konsistent mit der holozänen Entwicklung des arktischen Meereises.

Abbildung 6. CPS (rechts) mit Profilen der Ausdehnung des Meereises (Stein et al., 2017)

Das CPS-Verfahren ist eindeutig konsistent mit den nahezu eisfreien Bedingungen von vor 10.000 bis 5.000 Jahren und der neoglazialen Ausdehnung des Meereises von vor 5.000 Jahren bis Mitte des 18. Jahrhunderts. Die anderen vier Verfahren deuten auf eine sehr geringe Temperaturveränderung über diesen Zeitraum hin.

Was ist mit der Sommerverzerrung der nördlichen Hemisphäre?

Drei der vier Verfahren zeigen alle einen flachen Verlauf in der Arktis. Nur das PAI-Verfahren (Paarweiser Vergleich) zeigt eine angemessene Temperaturänderung für die Meereisentwicklung. Allerdings ist CPS das einzige Verfahren, das ein signifikantes ΔT im Bereich der gemäßigten Breiten der Nordhemisphäre aufweist.

Abbildung 7: Abbildung 2 aus Kaufman, D., McKay, N., Routson, C. et al., 2020

Die überwiegende Mehrheit der Alpen-/Talgletscher (wie in den Alpen und im Glacier National Park) befindet sich in den gemäßigten Breiten. Diese Gletscher bildeten sich nach dem holozänen Klimaoptimum, erreichten ihre Spitzenausdehnung in der Mitte des 18. Jahrhunderts und zogen sich dann im Allgemeinen auf ihre derzeitigen Positionen zurück. CPS ist das einzige Verfahren, das damit in Einklang zu stehen scheint.

Bestätigungs-Bias!

Falls man bei einer Frage die Möglichkeit hat, fünf Antworten auszuwählen:

1. Sieht korrekt aus

2. Sieht vermutlich korrekt aus

3. Offensichtlich falsch

4. Offensichtlich falsch

5. Offensichtlich falsch

Würden Sie die Antwort auswählen, die richtig aussah? Oder würden Sie den Durchschnitt der fünf Antworten bilden, um zu einem Konsens zu kommen?

Ausmerzen unbequemer Wahrheiten

Seit den Tagen von Climategate versucht Climate Cancel Culture aktiv, das niederfrequente Klimasignal auszulöschen. Dies ist kein neuer Kampf:

Was würde es also bedeuten, wenn die Rekonstruktionen eine größere (Esper et al., 2002; Pollack und Smerdon, 2004; Moberg et al., 2005) oder kleinere (Jones et al., 1998; Mann et al., 1999) Temperaturamplitude anzeigen? Wir vermuten, dass die erstere Situation, d.h. eine erhöhte Variabilität während der vorindustriellen Zeit, zu einer Umverteilung des Gewichts in Richtung der Rolle natürlicher Faktoren bei der Erzwingung von Temperaturänderungen führen würde, wodurch der Einfluss anthropogener Emissionen relativ abgewertet und zukünftige Vorhersageszenarien beeinflusst würden. Sollte sich dies bewahrheiten, wären Vereinbarungen wie das Kyoto-Protokoll, die auf eine Reduzierung der anthropogenen Treibhausgasemissionen abzielen, weniger effektiv als gedacht.

Esper et al., 2005

Hockeyschläger sind in der Regel das Ergebnis der Dämpfung der Amplitude des niederfrequenten Klimasignals und des anschließenden Aufspleißens der hochauflösenden Instrumentaldaten. Das Hockey-Team hat die Stempelkultur erfunden:

CRU-E-Mail #1140039406. Diese E-Mail, datiert auf den 15. Februar 2006, dokumentiert den Austausch zwischen mehreren Klimawissenschaftlern, einschließlich des stellvertretenden Direktors der CRU, in Bezug auf ihre Beiträge zu Kapitel sechs des IPCC AR4. In einem solchen Austausch warnte der stellvertretende Direktor der CRU seine Kollegen davor, „sich von [dem Co-Vorsitzenden der AR4 WGl] (oder [einem Forscher an der Pennsylvania State University]) über das hinaus drängen zu lassen, von dem wir wissen, dass es richtig ist“ in Bezug auf die Angabe von „Schlussfolgerungen im AR4, die über das hinausgehen, was wir sicher rechtfertigen können“.

Keith Briffa von der CRU warnte seine Kollegen davor, sich von Susan Solomon von der NOAA oder Michael Mann von der Penn State dazu zwingen zu lassen, unhaltbare Schlussfolgerungen zu ziehen. Dieser spezielle E-Mail-Austausch befasste sich ausgiebig mit Paläoklima-Rekonstruktionen. Briffa forderte seine Kollegen auch auf, Anders Moberg nicht „anzugreifen“, der vor kurzem eine Klimarekonstruktion veröffentlicht hatte, die die Daten tatsächlich würdigte und korrekte Verfahren der Signalverarbeitung verwendete.

Susan Solomon ist die NOAA-Beamtin, die behauptete, dass die Arbeit der NOAA im Zusammenhang mit dem IPCC nicht dem FOIA unterliege. Michael Mann war der Hauptautor des gründlich entlarvten Original-Hockeysticks. Der verstorbene Keith Briffa war der Hauptautor einer der problematischen Rekonstruktionen, in denen „Mikes Naturtrick“ angewendet wurde, um den Rückgang zu „verstecken“. Glücklicherweise haben sich Wissenschaftler wie Jan Esper, Anders Moberg, etc. nicht dem Mobbing unterworfen.

Also… Hut ab vor Kaufman, McKay, Routson und den et al dafür, dass sie die CPS-Rekonstruktion nicht gelöscht haben, um den Anstieg und den Rückgang des holozänen Klimaoptimums zu verbergen…

References

Bohleber, P., Schwikowski, M., Stocker-Waldhuber, M. et al. New glacier evidence for ice-free summits during the life of the Tyrolean Iceman. Sci Rep 10, 20513 (2020). https://doi.org/10.1038/s41598-020-77518-9

Dyke, A.S., Moore, A. and L. Robertson. [computer file]. Deglaciation of North America. Geological Survey of Canada Open File 1547. Ottawa: Natural Resources Canada, 2003.

Esper, J., R.J.S. Wilson,  D.C. Frank, A. Moberg, H. Wanner, & J. Luterbacher.  2005.  “Climate: past ranges and future changes”.  Quaternary Science Reviews 24: 2164-2166.

Grosjean, Martin, Suter, Peter, Trachsel, Mathias & Wanner, Heinz. (2007). “Ice‐borne prehistoric finds in the Swiss Alps reflect Holocene glacier fluctuations”. Journal of Quaternary Science. 22. 203 – 207. 10.1002/jqs.1111.

Kaufman, D., McKay, N., Routson, C. et al. Holocene global mean surface temperature, a multi-method reconstruction approach. Sci Data 7, 201 (2020). https://doi.org/10.1038/s41597-020-0530-7

Stein, R. , Fahl, K. , Schade, I. , Manerung, A. , Wassmuth, S. , Niessen, F. and Nam, S. (2017), Holocene variability in sea ice cover, primary production, and Pacific‐Water inflow and climate change in the Chukchi and East Siberian Seas (Arctic Ocean). J. Quaternary Sci., 32: 362-379. doi:10.1002/jqs.2929 stein2017

Link: https://wattsupwiththat.com/2021/03/26/pages-12k-the-ice-age-goeth/

Übersetzt von Chris Frey EIKE

 




Das haut sogar ein Pferd um: Die Deutsche Geophysi­kalische Gesell­schaft und ihr Verständnis für wissen­schaftliche Diskussionen jedweder Art

Treibt der mittelalterliche Wind der gesellschaftspolitischen Klimareligion auch die seriöse Wissenschaft vor sich her?

Sie erinnern Sich vielleicht noch an meinen Postergucker-Artikel hier auf EIKE, wo ich die Widersprüche aus zwei Academia-Veröffentlichungen von Kramm (2020-1 und 2020-2) gegenübergestellt hatte. Später hatte Kramm sein Academia-Paper (2020-2), „Kommentar zu WEBERS Beitrag ‚Weitere Überlegungen zur hemisphärischen Herleitung einer globalen Durchschnittstemperatur‘“ als Kommentar zu Weber (2019) in den Mitteilungen der Deutschen Geophysikalischen Gesellschaft Nr. 2/2020 untergebracht, ohne dass dies als Zweitveröffentlichung gekennzeichnet worden war.

Nach althergebrachtem Wissenschaftsverständnis hatte ich der DGG unverzüglich meine Erwiderung zu diesem Kommentar übersandt, in der die Skandalisierungen meines hemisphärischen S-B-Modells durch ausschließende gegenteilige Eigenschaften (Disjunktionen) sowie in ihr Gegenteil verkürzte Textzitate nachprüfbar bewiesen werden; weiterführende Informationen finden Sie im Addendum. Trotz ihrer wissenschaftlichen Verantwortung aus der Veröffentlichung des besagten Kommentars von Kramm (@DGG 2/2020) hatte die Deutsche Geophysikalische Gesellschaft in neuhergebrachtem Wissenschaftsverständnis eine Veröffentlichung dieser Erwiderung abgewiesen. Die DGG fühlte sich sogar ermächtigt, die von ihr selbst ausgelöste öffentliche Diskussion auf eine rein persönliche Ebene zu verschieben, Zitat aus der betreffenden E-Mail vom 17.02.2021:

[…..] Nach intensiver Diskussion innerhalb der Redaktion und in Absprache mit dem Präsidium der DGG haben wir uns allerdings entschlossen, Ihren Beitrag nicht in das Heft 1/2021 aufzunehmen. Diese Entscheidung möchten wir im Folgenden begründen:

Ihre in den Mitteilungsheften 2/2016 und 1/2019 erschienenen Arbeiten sollten eine wissenschaftliche Diskussion Ihrer Ansätze anregen. Leider ist der umfangreiche Beitrag von Herrn Kramm im Heft 2/2020 der einzige Kommentar zu diesen Arbeiten, der uns erreicht hat. Daher sind wir der Meinung, dass die DGG-Mitteilungen nicht das richtige Medium für diese Fragen und die zwischen Herrn Kramm und Ihnen geführte Diskussion sind. Stattdessen sollten Sie die wissenschaftliche Kommunikation zumindest zum jetzigen Zeitpunkt am sinnvollsten direkt mit Herrn Kramm führen. […..]

Wir haben Ihre Erwiderung jedoch zum Anlass genommen, im Mitteilungsheft 1/2021 noch einmal Sinn und Zweck der DGG-Mitteilungen darzustellen.“

Allerdings hieß es ein paar Monate vorher im „Vorwort der Redaktion“ zu den Mitteilungen der Deutschen Geophysikalischen Gesellschaft Nr. 2/2020 noch vollmundig, Zitat mit Hervorhebungen:

Im vorliegenden Heft gibt es diesmal nur einen wissenschaftlichen Beitrag, den Kommentar von Gerhard KRAMM zu einem kontroversen Artikel von Ulrich O. Weber. Dies zeigt, dass die Roten Blätter auch eine Plattform für wissenschaftliche Diskussionen jedweder Art sind.“

Und ausgerechnet dieser Diskussion hatte die Deutsche Geophysikalische Gesellschaft dann auch noch das Titelbild ihrer Mitteilungen Nr. 2/2020 gewidmet:

Abbildung 1: Ausschnitt von der Titelseite der DGG-Mitteilungen Nr. 2/2020 mit „Figure 2“ aus Kramm et al. (2017)

Aktueller Stand: Meiner konkreten E-Mail-Nachfrage vom 19.02.2021 zur wissenschaftlichen Verantwortung der Deutschen Geophysikalischen Gesellschaft für die von ihr selbst initiierte öffentliche wissenschaftliche Diskussion in ihren Mitteilungen 2/2020 hatte sich deren Vorstand nicht gestellt – o tempora, o mores – tu quoque, Societas Germanica Geophysical?

Aber das muss ja noch längst nicht das Ende sein: In seiner E-Mail* vom 17. Januar 2021 um 05:05 Uhr an mich und den üblichen Skeptiker-Email-Verteiler hatte Dr. Gerhard Kramm mit ausdrücklichem Bezug auf William et al. (2017) eine Abbildung, nachfolgend „Kramm (2021)“, mit einem eigenartigen Vergleich zwischen meinen hemisphärischen S-B-Temperaturen für die Tagseite des Mondes und einem „zonalen lunaren Mittel“ verschickt, Zitat aus dieser E-Mail*:

Dass der Ansatz des lokalen Strahlungsgleichgewichtes, worauf Ihr hemisphärischer Stefan-Boltzmann-Ansatz beruht, im Falle des Mondes Ergebnisse liefert, die völlig realitätsfern sind, belegt der nachfolgend veranschaulichte Vergleich der Modellergebnisse mit den bolomentrischen Temperaturen des ‘LRO Diviner Lunar Radiometer Experiment‘ (siehe William et al., 2017).

Diese Abbildung ist als Nachtrag zu meinem Kommentar [bei der Deutschen Geophysikalischen Gesellschaft] vorgesehen, der in den kommenden Tagen eingereicht wird.“

Abbildung 2: „Vergleich der Modellergebnisse mit den bolomentrischen Temperaturen des ‘LRO Diviner Lunar Radiometer Experiment‘ (siehe William et al., 2017)“ von Dr. Gerhard Kramm (2021)*

Für den Fall der Fälle nehme ich meiner Deutschen Geophysikalischen Gesellschaft gern die intellektuelle Bürde ab, die Abbildung Kramm (2021) VOR einer möglichen Veröffentlichung auf ihre physikalische Substanz hin zu überprüfen, denn HINTERHER ist ihr ja nicht mehr zu helfen:

Halten wir hier zu Abbildung 2 zunächst einmal fest: Die Messergebnisse von Williams et al. (2017, schwarz) und das Modell von Kramm et al. (2017, rot) stimmen in etwa überein, während mein hemisphärischer S-B-Ansatz (Teq = grün) offenbar geringere Temperaturwerte aufweist. Ist das ein Beweis gegen meinen hemisphärischen S-B-Ansatz? – Nun, dazu müssen wir zunächst einmal wissen, was dort überhaupt als „veranschaulichte[r] Vergleich der Modellergebnisse“ dargestellt worden ist, also schauen wir mal:

Fragestellung 1: Sind Diffamierungen mittels ausschließender Eigenschaften (Disjunktionen) zulässige Beweise in den Naturwissenschaften?

Dargestellt wurde hier eine „zonal gemittelte Temperatur in Kelvin“ auf dem Mond gegen die geographische Breite von 90° bis -90°. Die Angabe „PhiSS=180°E“ bedeutet, dass die Sonne senkrecht auf der geographischen Länge 180° steht, also auf der Rückseite des Mondes; und damit herrscht aus Sicht von der Erde gerade Neumond. Einer solchen Darstellung steht schon mal die Gültigkeit meines hemisphärischen S-B-Ansatzes entgegen. Denn meine hemisphärisch berechneten Mondtemperaturen waren lediglich ein Beweis für das maximal erreichbare S-B-Temperaturäquivalent auf der Tagseite eines erdähnlichen Himmelskörpers ohne Atmosphäre (Beschreibung hier auf EIKE). Anders als die üblichen Mond-Modellierungen mit einem begrenzten Regolith-Wärmespeicher, ergibt sich in meinem hemisphärischen S-B-Modell aufgrund der fehlenden Sonneneinstrahlung eine nachtseitige Temperatur von 0 Kelvin, wobei dieser modellimmanente Unterschied zwischen 0k und ca. 70K nach dem Stefan-Boltzmann-Gesetz lediglich ca. 2W/m² beträgt. Die Darstellung Kramm (2021) stellt also 3 breitenabhängige Temperaturkurven mit gemittelten Durchschnittswerten für die Tag-und Nachtseite des Mondes dar, wobei verschwiegen wird, dass mein hemisphärischer S-B-Ansatz ausdrücklich nicht für die Nachseite des Mondes gilt. Denn in meinem hemisphärischen S-B-Modell wird die Temperatur der Nachtseite unserer Erde über die S-B-Umgebungsgleichung und den Wärmeinhalt von Atmosphäre und Ozeanen erklärt. Dieses Graphik-Konstrukt soll also offensichtlich meinen hemisphärischen S-B-Ansatz für die Tagseite des Mondes durch eine ausschließende Eigenschaft (Disjunktion) zielgerichtet diskreditieren, nämlich durch eine verschleierte Einbeziehung der nachtseitigen Temperaturen.

Anstelle der von Kramm üblicherweise propagierten Faktor4-Tag=Nacht-Mittelung hatten Kramm et al. (2017) in ihrer „Figure 10“ dieses breitenabhängige Stefan-Boltzmann-Temperaturäquivalent und die breitenabhängige solare Leistungsdichte über den 24h-Tag sogar selbst dargestellt:

Abbildung 3: Variation of the (a) surface temperature and (b) absorbed solar radiation for numerous parallels of latitude in case of the Earth in the absence of its atmosphere. Figure 10 aus Kramm et al. (2017), Creative Commons Attribution International License (CC BY 4.0)

Stellen Sie Sich in Abbildung 3a (links) für jede einzelne Temperaturkurve jetzt einmal deren Mittelwert vor (PHI=0°-89°, alle Kurven = 0K von 6h bis 18h) und tragen diesen Wert jeweils nördlich und südlich gegen die geographische Breite (PHI=-89°-0°-89°) auf. Der äquivalente lunare Verlauf einer solchen breitenabhängigen Durchschnittskurve würde ausgerechnet auf die grüne Kurve in Abbildung 2 fallen, von der Kramm behauptet hatte, sie sei „voellig realitaetsfern“.

Auffälligkeit 1: Es handelt sich bei der Graphik „Kramm (2021)“ um einen willkürlichen Äpfel&Birnen-Vergleich, bei dem die Birnen dafür diskreditiert werden, dass sie keine Äpfel sind.

Fragestellung 2: Sind mathematische Konstruktionen jenseits jeder physikalischen Relevanz bereits Manipulationen?

Was für Temperaturen werden in der Graphik von Kramm (2021) nun genau dargestellt? Schauen wir uns dazu einmal einen direkten Abgleich zwischen Kramm (2021) und Williams et al. (2017) an. Dort ist festzustellen, dass letztere ihre zonalen Mond-Temperaturen streng nach Tag und Nacht unterschieden hatten:

Abbildungen 4: Zonaler Mittelwert Kramm (2021*, links), Abbildungen 8(a=Tag, Mitte) und (c=Nacht, rechts) von Williams et al. (2017) mit insgesamt 24 zonalen Temperaturkurven entlang der lunaren Zeitzonen

Anmerkung: Alle Abbildungen haben unterschiedliche Vertikalmaßstäbe für die Temperatur

Kramm (2021) führt jetzt also, entgegen den 24 Temperaturkurven von Williams et al. (2017) entlang der Zeitzonen, einen einzigen „zonalen Mittelwert“ für die Tag- und Nachtseite über die Breitenkreise des Mondes ein. Ein solcher Durchschnittswert erscheint in der Arbeit von Williams et al. (2017) aber gar nicht, vielmehr ergibt sich die Abbildung Kramm (2021) als breitenabhängiger Mittelwert aus den Temperaturen 8(a=Tagseite) und 8(c=Nachtseite) von Williams et al. (2017), also als ein zonales Tag&Nacht-Mittel. Schaunmeralsomal anhand einer Originalabbildung von Williams et al. (2017), wie die Graphik von Kramm (2021) zu verstehen ist:

Abbildung 5: Williams et al. (2017) Fig. 5a, „Global instantaneous temperatures of the Moon in (a) cylindrical equidistant projection (ϕ = 180°)” mit der Nachtseite im Zentrum (Neumond) — Übersetzung: Globale Momentantemperaturen des Mondes in (a) zylindrischer äquidistanter Projektion

Die 24 Kurven von Williams et al. (2017) in der Abbildung 4 für die stündlichen Zeitzonen (hour0 – hour23) zeigen also alle 15° geographischer Länge ein Nord-Süd-Temperaturprofil auf der Mondoberfläche, die den jeweiligen N-S-Temperaturverläufen in Abbildung 5 entspricht. Dagegen stellt Kramm (2021) den jeweiligen Durchschnittswert über alle 24 Zeitzonen derselben geographischen Breite in einer einzigen Nord-Süd-Temperaturkurve für die gesamte Mondoberfläche dar. Natürlich ist die Berechnung eines solchen realitätsfernen zonalen lunaren Tag&Nacht-Mittels rein mathematisch möglich, ergibt allerdings physikalisch überhaupt keinen Sinn. Der Unterschied zwischen Mathematik und Physik sind nämlich nicht nur die physikalischen Einheiten, sondern auch die zwingende Notwendigkeit, dass sich physikalische Ergebnisse in die beobachtete Realität zurückentwickeln lassen.

Für die Tagseite des Mondes sind die bei Kramm (2021) gezeigten Durchschnittswerte aber nun zu niedrig und für die Nachtseite zu hoch. Deren physikalische Aussage spielt sich also in Abbildung 5 irgendwo in der türkis-gelb-orangen Zone zwischen Mond-Tag (rot) und Mond-Nacht (blau) ab. Für die breitenabhängigen Durchschnittswerte nach Kramm (2021) existiert zu einem beliebigen Zeitpunkt des 24h-Mond-Tages also in jeder der beiden Dämmerungszonen (türkis-gelb-orange) jeweils eine einzige nicht näher definierte Ortslage, die diesen Kramm‘schen Mittelwert zwischen minimaler und maximaler Temperatur annimmt. Eine solche Darstellung erinnert an den folgenden Witz aus der Frühzeit der Künstlichen Intelligenz, wo ein Atmosphärenphysiker seinen Supercomputer fragt:

Mir sind da zwei analoge Uhren angeboten worden, eine geht am Tag eine Sekunde nach und die andere ist kaputt. Welche von beiden soll ich nehmen?

Sagt der Computer: „Nimm die kaputte Uhr!

Fragt der Atmosphärenphysiker: „Warum denn das?

Sagt der Computer: „Die kaputte Uhr zeigt zwei Mal am Tag die richtige Zeit an.“

Beiden, der kaputten Uhr und der Temperaturkurve von Kramm (2021), fehlt ohne zusätzliche Informationen jeglicher Zugang zur Realität. Man könnte auch sagen, die jeweiligen Angaben sind zwar mathematisch korrekt, können aber im physikalischen Raum-Zeit-Kontinuum aus sich selbst heraus gar nicht konkret verortet werden. Gemessen an der gewöhnlichen Qualität solcher Kunstprodukte, die bereits von kritischen Laien durchschaut werden können, ist die vorliegende Graphik allerdings als hervorragende Wissenschaftsmimikry einzustufen. Selbst Fachleute dürften der dort zielweisend vorgegebenen Aussage ohne eigenes Hintergrundwissen oder eine tiefergehende eigene Recherche nichts entgegenzusetzen haben.

Auffälligkeit 2: Wir haben es bei „Kramm (2021)“ also nicht etwa mit einer Graphik zu tun, die real existierende physikalische Daten darstellt, aus denen dann konkrete wissenschaftliche Aussagen abgeleitet werden. Vielmehr werden hier die physikalischen Unterschiede zwischen Tag und Nacht mathematisch verschleiert, um ein gegebenes Vorurteil zu bestätigen.

Fragestellung 3: Ist eine Beweisunterdrückung ein taugliches Argument gegen ein unerwünschtes wissenschaftliches Modell?

 

Das S-B-Temperaturäquivalent liefert lediglich für die sonnenbeschienene Tagseite des Mondes korrekte Ergebnisse. Und die grüne Kurve in Kramm (2021) repräsentiert irgendeinen konstruierten zonalen Tag&Nacht-Durchschnitt, das die Temperaturen auf der Nachseite des Mondes einschließt. Williams et al. (2017) stützen nun aber ausdrücklich meinen hemisphärischen S-B-Ansatz für die Tagseite des Mondes, Zitat mit Hervorhebungen:

 

The lunar regolith is highly insulating due to its low density and thermal conductivity (Linsky, 1966, Cremers and Birkebak, 1971, Keihm and Langseth, 1973) and therefore heat flow into the subsurface during the day is small compared to the incident solar flux (Vasavada et al., 1999, 2012). Daytime temperatures can therefore be approximated from the balance of incoming solar flux and outgoing thermal emission:”

Der Google-Übersetzer: „Der Mondregolith ist aufgrund seiner geringen Dichte und Wärmeleitfähigkeit hochisolierend (Linsky, 1966, Cremers und Birkebak, 1971, Keihm und Langseth, 1973) und daher ist der Wärmefluss in den Untergrund während des Tages im Vergleich zum einfallenden Sonnenfluss gering (Vasavada et al., 1999, 2012). Die Tagestemperaturen können daher aus dem Gleichgewicht des einfallenden Sonnenflusses und der ausgehenden Wärmeabgabe angenähert werden:“

Also: Bis auf eine Emissivität EPSILON von 0,95 (WEBER 2019 ohne Speicherung: EPSILON = 1) und einer breitenabhängigen Albedo (WEBER 2019: Albedo = const.) entspricht mein hemisphärischer S-B-Ansatz dem Ansatz von Williams et al. (2017) für die Tagseite des Mondes, Zitat (übersetzt): „Die Tagestemperaturen können daher aus dem Gleichgewicht des einfallenden Sonnenflusses und der ausgehenden Wärmeabgabe angenähert werden“. Einen Abgleich meiner hemisphärischen Tagestemperaturen mit Williams et al. (2017) in gleicher Farbgebung hatte ich bereits in meinem EIKE-Artikel „Neues von Willis Eschenbach“ vom 23. Februar 2020 dargestellt:

Abbildung 6: Qualitativer Temperaturvergleich für die Tagseite des Mondes. Links: Montage aus der Abbildung 5a von Williams et al. (2017) mit der Tagseite des Mondes im Zentrum. Rechts: Das S-B-Temperaturäquivalent @12h, hinterlegt mit der Farbskala von Williams et al. (2017)

Wenn man die Mond-Temperaturen aus der Abbildung von Williams et al. (2017) über den Tagesverlauf mit der hemisphärischen S-B-Temperaturkurve vergleicht, ergibt sich eine sehr ordentliche qualitative Übereinstimmung; es wird aber auch deutlich, dass die Nachttemperaturen unter 50K (violett) bei Williams et al. (2017) nicht erreicht werden. Die unterschiedlichen radialen Farbverläufe bei Williams et al. (2017) spiegeln die Variabilität der örtlichen Mondalbedo und die Topographie wider, die in einem solchen pauschalen S-B-Ansatz nicht berücksichtigt werden können.

Auffälligkeit 3: Die Graphik „Kramm (2021)“ verbreitet eine hochartifizielle und realitätsferne mathematische Mittelwertbildung unter Berufung auf Williams et al. (2017), wobei ausgerechnet deren eindeutige Bestätigung meines hemisphärischen S-B-Ansatzes für die Temperaturberechnung auf der Tagseite des Mondes unterdrückt wurde.

Fazit: In der Überzeugung, eine rein mathematische Designer-Graphik wie „Kramm (2021)“ bei der Deutschen Geophysikalischen Gesellschaft einfach mal eben als Nachtrag zu seinem Kommentar unterbringen zu können, schwingt auch die Geringschätzung eines international bekannten Atmosphärenphysikers gegenüber deren fachlicher Kompetenz mit; schließlich war ein solches „ad auditores“ (vordergründig plausibel für ein Publikum ohne tiefere Sachkenntnis) bereits einmal erfolgreich gewesen. Ich hoffe daher, der DGG mit meiner Analyse dieser Graphik ggf. rechtzeitig aufs wissenschaftliche Pferd helfen zu können…

Addendum: Den Link zur Kramms Academia-Veröffentlichung finden Sie hier und die entsprechende DGG-Version auf seiner Homepage (im Kommentar einfach den Namen anklicken); meine DGG-Veröffentlichung aus 2019 finden Sie hier ab Seite 18, und die Erwiderung zu Kramm@DGG 2/2020 ist nachstehend verlinkt:

2020-12-07 Erwiderung auf Kramms DGG-Kommentar-uw

Konkurrierende physikalische Modelle schließen sich gegenseitig aus. Deshalb können sich solche Modelle auch nicht gegenseitig widerlegen; eine solche Widerlegung kann nur über die gemeinsamen physikalischen Grundlagen erfolgen. Gerne wiederhole ich für meine Kritiker daher abschließend noch einmal die Widerlegungsanforderung für meinen hemisphärischen S-B-Ansatz über einen physikalischen Tag=Nacht-Beweis, Zitat:

Wenn also wissenschaftlich eindeutig nachgewiesen würde, dass die Gleichsetzung der Energiebilanz unserer Erde (Fläche einer Kugel) mit der strengen thermischen Gleichgewichtsforderung des Stefan-Boltzmann Gesetzes für die bestrahlte Fläche (Halbkugel) physikalisch korrekt ist, dann bin ich tatsächlich widerlegt.“

*) Erklärung: Um jedweden Beschwerden vorzubeugen, bestätige ich hiermit, ein direkter „An“-Empfänger der o. g. E-Mail vom 17. Januar 2021 um 05:05 Uhr mit der Abbildung „Kramm (2021)“ (hier Abb.2 und Abb.3 links) zu sein, ebenso, wie u. a. auch die Herren Lüdecke, Limburg und Kirstein, und beweise nachfolgend mit der „Confidentiality Warning“ des Dr. Gerhard Kramm die rechtmäßige Nutzung der Graphik „Kramm (2021)“, Zitat:

CONFIDENTIALITY WARNING: The information transmitted is intended only for the person or entity to which it is addressed and may contain confidential and/or privileged material. Any review, retransmission, dissemination or other use of, or taking any action in reliance upon, this information by persons or entities other than the intended recipient is prohibited. If you receive this in error, please contact the sender and delete the material from any computer.”

Der unbestechliche Google-Übersetzer bestätigt mir ausdrücklich, den Inhalt der besagten E-Mail Kramm vom 17. Januar 2021 um 05:05 Uhr rechtmäßig zitiert zu haben:

„VERTRAULICHKEITSWARNUNG: Die übermittelten Informationen sind nur für die Person oder Organisation bestimmt, an die sie gerichtet sind, und können vertrauliches und / oder privilegiertes Material enthalten. Jegliche Überprüfung, Weiterverbreitung, Verbreitung oder sonstige Verwendung oder Ergreifung dieser Informationen durch andere Personen oder Organisationen als den beabsichtigten Empfänger ist untersagt. Wenn Sie dies irrtümlich erhalten, wenden Sie sich bitte an den Absender und löschen Sie das Material von einem beliebigen Computer.

ERGO: Es verbleiben für eine erlaubte „Überprüfung, Weiterverbreitung, Verbreitung oder sonstige Verwendung oder Ergreifung dieser Informationen“ also ausschließlich die von Dr. Kramm „beabsichtigten Empfänger“, und ich bin definitiv der ERSTE „AN“-EMPFÄNGER dieser E-Mail.




Mittlere Winter-Temperatur sinkt weiter seit Beginn des Jahrhunderts

Die Winter in Island weisen seit dem Jahr 2001 Abkühlung auf

Die JMA-Daten für drei Stationen in Island (mit hinreichender Datenlage) sind hier geplottet. Ergebnis: Keine Erwärmung über die letzten 18 Winter!

Daten: JMA

Man sieht, dass einige Winter-Daten aus Island fehlen, aber die vorhandenen Daten reichen aus zu zeigen, dass die Winter dort allgemein kälter und nicht wärmer geworden sind.

Anfang dieses Jahres plotteten wir jährliche Daten für diese drei Stationen auf Island. Dabei stellte sich heraus, dass an 2 Stationen Abkühlung aufgetreten war, während an der dritten Station keine Änderung zu verzeichnen ist.

Daten: JMA 

Offensichtlich gab es in dieser Insel im Nordatlantik seit Beginn des Jahrhunderts keinerlei Erwärmung. Die Alarmisten schreien um nichts.

An Stationen in Grönland ist es kälter geworden

Schauen wir als Nächstes auf Grönland. Hier folgen die Graphiken mit den JÄHRLICHEN mittleren JMA-Daten von sechs Stationen auf Grönland. Einige davon weisen Datenlücken auf, aber sie geben dennoch ein ziemlich gutes Bild dessen, was da vor sich geht.

Daten: JMA

Auch in Grönland ist keine wirkliche Erwärmung erkennbar. Dort war seit dem Jahr 2001 alles weitgehend stabil.

Und was ist mit den Wintern in Grönland? Hier sieht man die Verhältnisse an den sechs Stationen:

Daten: JMA

Noch einmal: Die JMA-Daten für Grönland sind teilweise fragmentarisch, aber immer noch viel besser als die Baumringe von Michael Mann. Alles in allem gab es hinsichtlich der Winter in Grönland in diesem Jahrhundert nichts Ungewöhnliches.

2021: Die jahreszeitliche Schmelze in der Arktis weigert sich anzufangen

Und schließlich: Die Eisausdehnung in der Arktis setzte seinen Anstieg bis zum 21. März fort:

Vollständige Graphik und Bildinschrift von hier (deutsch).

Inschrift: Die NSIDC-Grafik (rechts) zeigt die Entwicklung der arktischen Meereisflächen (extent/Ausdehnung) im laufenden Fünf-Tage-Mittel (blaue Linie) vom 1.1.2021 bis zum Stand 23.3.2021. Nach dem Eisflächenmaximum von 14,866 Millionen km² am 11.3.2021 (Tabelle links) gab es bis zum 14.3.2021 einen leichten Rückgang auf 14,596 Mio km², dann aber bis zum 21.3.2021 ein überraschendes erneutes Wachstum der Meereisflächen auf 14.788 Millionen km². Aktuell liegen die Meereisflächen über dem Mittel 2011-2019 (hellblaue Linie). Ursache dürfte die anhaltende tief winterliche Kälte in der Zentralarktis mit Durchschnittstemperaturen im jahreszeitlichen Normalbereich um -27°C sein. Quelle: NSIDC Arctic Sea Ice Tabelle und NSIDC Arctic Sea Ice Chart

Link: https://notrickszone.com/2021/03/24/greenland-and-iceland-mean-winter-temperatures-continue-cooling-since-start-of-the-century/

Übersetzt von Chris Frey EIKE




Die Profiteure der Panikmache (1): Die Deutsche Umwelthilfe DUH

Der DUH-Chef Jürgen Resch wurde vom Spiegel bereits 2007 wegen seiner ökologischen Doppelmoral angeprangert, als das Blatt feststellte, daß der DUH-Boß fast schon am Flughafen wohne. Er hat den höchsten Vielfliegerstatus HON Circles bei der Lufthansa. Dafür muß man mindestens  600.000 Meilen innerhalb von zwei Jahren fliegen – das sind etwa 28 Erdumrundungen.

2007 war fast ein Annus horribilis für die deutsche Klimaszene, wie unser vielgelesener Artikel über die RTL-Reportage Der Klimaschwindel zeigte. Aber wie Luisa Neubauer, die nach dem Abitur bei den Grünen ein- und gleichzeitig eine regelrechte Welttournee antrat, war und ist die Doppelmoral Reschs problemlos möglich, weil fast alle ökologisch Bewegten das Thema nur für ihre Zwecke nutzen und der Statistik zufolge meist sogar einen viel größeren Öko-Fußbadruck haben als der Normal-Steuerzahlende.

Zunächst ein wenig Geschichte:

Die DUH ist erstaunlich alt – sie wurde schon 1975 gegründet und diente der Geldbeschaffung für den BUND, den Bund für Umwelt und Naturschutz. Gesammelt wurde von Anfang an bei Industrie und Bürgern. Wie das PIK und EIKE ist die DUH „nur“ ein eingetragener Verein (e.V.), mit einigen Hundert Mitgliedern. Sie beschäftigt rund 100 Mitarbeiter, die jährlich im Schnitt rund 49.000 Euro machen. Geschäftsstellen und Büros der DUH befinden sich in Berlin, Hannover, Radolfzell, Hannover, Erfurt, Wolgast (Pommern) und Köthen (Anhalt). Die Hauptstadtvertretung befindet in einem noblen Gebäude in erstklassiger Lage am Hackeschen Markt 4. Prominente Projekte waren der Diesel-Skandal der deutschen Automobilindustrie und das Dosenpfand.

Heute wird die DUH von der Doppelspitze Jürgen Resch und Sascha Müller-Kraenner als Geschäftsführer geleitet; Vorstandsvorsitzender ist Harald Kächele. Der heutige Macher Jürgen Resch ist erst seit 1986 dabei; verdiente aber wohl von Anfang an so gut, daß er sein Studium aufgab und nur noch bei der DUH reüssierte.

Neben diesen Positionen gibt es nur noch die Delegiertenversammlung als Gremium; weitere innere Kontrollorgane scheinen nicht vorhanden zu sein.

Der Abmahnverein – eine Goldgrube

Welche Rolle spielte und spielt die DUH bei der Diffamierung der deutschen Diesel-Aggregate? Die rotgrüne Regierung unter Schröder, namentlich Umweltminister Trittin, setzte sich nach Beratung durch Öko-Lobbygruppen wie die Umwelthilfe für strengere Grenzwerte der Stickoxide (NOx) in der Außenluft ein (DUH-Geschäftsführer Rainer Baake, 2009-13, war zuvor Staatssekretär unter Trittin). Die EU-Richtlinie 2008/50/EG, gültig ab 2010, änderte den Wert dann von 200 auf nur 40μg/Kubikmeter Luft. Unrealistisch und willkürlich, wurde von Experten sogleich bescheinigt, da der Grenzwert für Arbeitsplätze prächtige 950 μg/Kubikmeter beträgt! Nun wäre die gelungene Lobbyarbeit für die DUH schon ein politischer Erfolg, der Medienpräsenz und Macht bringt. Damit nicht genug, Rotgrün hat der DUH 2004 den Status einer „Qualifizierten Einrichtung“ eingeräumt, die an der Marktüberwachung teilnimmt und damit das Recht hat, Verstöße gegen Verbraucherschutzvorschriften zu verfolgen und abzumahnen. Was die DUH denn auch fleißig tut – weit über 1000 mal im Jahr! Daß der kleine Verein so effektiv ist und politische Privilegien erhält, liegt auch an seinem gut vernetzten und medienerfahrenen Personal. Gerd Rosenkranz zum Beispiel war lange bei taz, Süddeutscher, FR und Spiegel, machte dann von 2004 bis 2013 die DUH-Pressearbeit und war danach bis zur Rente bei Agora Energiewende.

Daß die DUH ihr Geld zum Großteil durch Abmahnungen verdient, ist nicht nur EIKE-Lesern bekannt, weil auch die Massenpresse nicht allzu positiv über Resch und seine Umwelthilfe berichtet. Aber was heißt das eigentlich? Der Jurist formuliert es so: Die Umwelthilfe ist ein klageberechtigter Verbraucherschutzverband. Einige Mitarbeiter suchen in Produktwerbung und Medien-Aussagen von Herstellern nach gesetzlichen Verstößen und finden pro Woche etwa 30 (Quelle: Bild). Die DUH verschickt dann Mahnschreiben an die Wirtschaftsunternehmen und kann von diesen Gebühren verlangen. Dabei geht es nicht nur um große Anbieter, sondern auch um grotesk kleine Fälle. Ein lokaler Möbelhändler wurde abgemahnt, weil in der Küchen-Ausstellung die Zettel mit der Energiekennzeichnung fehlten.

„Da kommt ein Brief von einem Verein, den man nicht kennt, den man nicht kennen lernen will. Und dann muß ich zahlen, zahlen für eine Sache, die nicht einmal so richtig in meinem Einflußbereich liegt.“

2015/16 nahm man damit rund 2,5 Millionen Euro ein, was etwa 30% der jährlichen Gesamteinnahmen entspricht. Zusätzlich zu diesen Gebühren gibt es auch noch Geldauflagen (Bußgelder), zum Beispiel in Höhe von 158.000 Euro (2015).

Neben diesem ersten Drittel über Abmahnungen erhält die DUH „Projektzuschüsse“ – der geneigte Leser ahnt schon, woher – es sind zur Hälfte Steuergelder aus Deutschland und Brüssel. Private Stiftungen liefern die zweite Hälfte – auch dort dürften versteckt weitere Transferzahlungen der Bürger zu finden sein. Diese Transfers ohne konkrete Gegenleistung sind sogar der größte Einzelposten mit 38% (2015).

Sogar aus Übersee kommt Geld für die deutschen Kollegen, von der 2008 gegründeten ClimateWorksFoundation CWF. 2014 erhielt die DUH 700.000 Dollar aus San Francisco. Wer ist CWF? Aufschluß gibt die Tatsache, daß John Podesta, Berater von Barack Obama und Wahlkampfleiter von Hillary Clinton, einer der wichtigsten Köpfe dort ist. Zudem wird die NGO von den beiden Stiftungen von Hewlett und Packard, und von der Ford Foundation unterstützt.

Welche Industrieunternehmen fördern die DUH? Da wäre in erster Linie Toyota zu nennen, mit dem schon seit 20 Jahren Verbindungen bestehen, und das jährlich mit bis zu 80.000 € zwei Projekte der DUH unterstützt. Dafür empfiehlt die DUH den Kauf von Prius und anderen Hybridmodellen. 2005 erhielt die DUH 100.000 Euro von Filterherstellern. Der Kampf für das Dosenpfand von Umweltminister Trittin soll Verbindungen zur Flaschen-Brauindustrie und zu einem norwegischen Unternehmen, das Apparate für die Rücknahme der Pfandflaschen herstellt, geschuldet sein.

Gesamt nahm man 2015 und 16 damit 8,1 Millionen Euro ein; die man soweit auch ausgab – wohl hauptsächlich für die üppigen Gehälter.

Man könnte nun sagen, das sind doch nur Peanuts im Vergleich zu den Summen, die zum Beispiel in Konzernen anfallen. Man darf dabei aber nicht vergessen, daß die Deutsche Umwelthilfe nur die gut sichtbare Spitze des Eisberges ist. Die international vernetzte Panikmacher-Szene in NGOs und Medien, die Basis des Eisberges, ist riesig. Da kommen jährlich Milliarden (oder gar Billionen?) an Transferleistungen zusammen, die von Bürgern in der Wirtschaft und der Infrastruktur erwirtschaftet werden müssen.

Außerdem darf man nicht übersehen, wie effizient die Weltrettungs-NGOs sind, siehe Diesel-Affäre. Wenn 100 Leute einer NGO, mutmaßlich mehrheitlich mit Kommunikations-, Psychologie- und Medienstudium, nichts anderes zu tun haben, als vor angeblichen Gesundheits- und Umweltgefahren zu warnen und diesbezügliche Kampagnen und Projekte in ihren Netzwerken zu stricken, hat das sehr wohl eine Wirkung.

Tipp: Die Seite von Mario Mieruch gibt noch mehr Details zur Umwelthilfe und zum Diesel-Skandal bekannt!

Die Katastrophen-NGOs sind unter anderem deswegen so erfolgreich, weil es kein ähnlich mächtiges Gegenstück der Industrie und der Verbraucher gibt. Früher sah es anders aus; da galten die Auto-Lobbyisten sogar als zu mächtig. Sie bauten und bauen aber mehr auf die klassischen Kanäle via Beeinflussung und „Schmierung“ bürgerlicher Politiker; ähnlich den Masken-Skandalen der CDU/CSU, die wir gerade erlebten.

Die Durchsetzung des kulturellen Sektors, also Schulen, Unis, Redaktionen, das hingegen ist die langfristig wesentlich erfolgreichere Strategie der Öko- und Gesundheits-Alarmisten. Daher bietet es sich an, eine Art „Anti-DUH“ zu gründen, die den Pseudo-Argumenten von Panik-Luxusschnorrern Paroli bietet. Genau das fordert nun Michael Haberland vom Autoclub Mobil in Deutschland, einem ADAC-Mitbewerber.

Im Interview mit dem Focus sagt er unter anderem:

Viele Nichtregierungsorganisationen wie beispielsweise die DUH wollen die Mobilität mit dem Automobil einschränken oder teilweise verbieten. In vielen Städten gewinnt man sogar den Eindruck, als wolle man Autofahrer ganz ausgrenzen und den Menschen die Lust und Freude am Auto nehmen. (…)
Man darf nicht vergessen, dass das Auto das Verkehrsmittel Nr. 1 ist und besonders durch die Covid-19 Pandemie geradezu eine Renaissance verzeichnen konnte. (…) Man darf auch nicht vergessen, dass die Autoindustrie noch immer die wichtigste Wertschöpfungsquelle für unser Land liefert. Man könnte sagen: Wir sägen mit jeder Entscheidung gegen Autofahrer kräftig an dem Ast, auf dem wir sitzen. (…)
Die Deutsche Umwelthilfe gibt an, sich für den Verbraucher einzusetzen und die Mobilitätswende im Sinne der Menschen zu treffen. Wir sehen das anders: Die Umwelthilfe lebt auch von Steuergeldern und tobt sich auf dem Rücken der Autofahrer aus. Mit einem ganz dubiosen Geschäftsmodell.

 

 




Forsythie: Der Erstfrühlings­zeiger des Deutschen Wetter­dienstes in Hamburg verspätet sich seit über 35 Jahren – wo bleibt die Besorgnis erregende Klima­erwärmung?

Angeblich käme der Frühling immer früher. Und das wäre ein eindeutiger Beweis der Klimaerwärmung, die wiederum ausschließlich CO2-bedingt wäre. Dem unbedarften Leser soll suggeriert werden, dass die Forsythien vor 40 bis 50 Jahren viel später geblüht hätten und jetzt rücke der Termin von Jahr zu Jahr weiter vor. Als Beweis wird dann oftmals nicht die Grafik des Blühbeginns gezeigt, sondern die Grafik des CO2-Anstieges, eines Anstiegs also, den niemand bezweifelt. Derzeit: 418 ppm.

Wir sind der Sache nachgegangen und fragen uns: Blühen die Forsythien wirklich früher? Hält der Lenz tatsächlich immer einen früheren Einzug in Deutschland? Zu 2021: Für dieses Jahr legte der Phänologe Jens Iska Holtz den Referenzbusch an der Hamburger Lombardsbrücke mit dem Blütenbeginn 25. März fest. Das sind 84 Tage seit Jahresbeginn.

Wie verhalten sich die Blühtermine im Vergleich zu früher?

Anfang der 80-er Jahre war der Wiederaufbau der Innenstadt Hamburg weitgehend abgeschlossen, so dass zusätzliche anthropogene Wärmeinseleffekte wohl nur noch gering auf die Temperaturen einwirken. Gemeint ist, seit den 80-er Jahren dürfte die vom Menschen erzeugte Zusatzwärme durch Heizungen und Änderungen der Strahlungsbilanz in der Innenstadt annähernd gleich geblieben sein. Interessant wäre aber ein Temperaturverlauf der Alster, denn der Strauch steht direkt am Ufer und die Wassertemperatur und andere Parameter bestimmen den Blütentermin ebenfalls mit. Eine Zunahme warmer Abwässer infolge des gestiegenen Lebensstandards seit 1980 hätten selbstverständlich Auswirkungen auf die Erstblüte, aber genauso auch eine Nitrat-Zunahme des Gewässers und natürlich auch die CO2-Zunahme der erdnahen Luft. Beide wirken wie ein zusätzlicher Dünger und damit günstig auf die Vegetation.

Doch nun zur Grafik: Vor allem Laien und Medienvertreter bitte beachten: In der folgenden Grafik sind auf der y-Achse die Blühtermine der Forsythie als Tage nach Neujahr aufgetragen, ein Ausschlag nach oben bedeutet somit einen späteren Blühtermin.

Abbildung 1: Vorsicht, nicht verwechseln, die violette Trendlinie steigt seit 36 Jahren, das bedeutet Verspätung. Auf der linken senkrechten y-Achse sind nicht die Temperaturen aufgetragen, sondern die Kalendertage seit Jahresbeginn. Je mehr Kalendertage, desto später der Forsythien-Blütenbeginn.

Ergebnis: Der CO2-Gehalt der Luft steigt, aber die Forsythienblüte verspätet sich.

Wir stellen nur fest: Obwohl die Beobachtungsreihe mitten in der großen Wärmeinsel Hamburg aufgenommen wurde, und damit gar nicht die Bedingungen einer objektiven Beobachtung erfüllt, ist der Blütenbeginn des DWD Vergleichsbusches an der Lombardsbrücke seit 1986 Jahren eindeutig verspätet. Genau das Gegenteil behaupten aber der Deutsche Wetterdienst und die Medien.

Ob und wie der steigende CO2-Gehalt der Luft die phänologische Entwicklung beeinflusst, bedarf noch intensiver Forschungen. Die jetzt auch in Hamburg für den Klimaschutz demonstrierenden Schulschwänzer haben allesamt Nachhilfestunden in Biologie bitter nötig, denn ohne ausreichend CO2 in der Atmosphäre gäbe es keine Photosynthese und damit kein höheres Leben auf unserer Erde. CO2 ist genauso essentiell für alle grünen Pflanzen wie Wasser, Mineralstoffe, Licht und Wärme. Die erhöhten CO2-Konzentrationen verbessern die Ertragsleistungen unserer Kulturpflanzen. Gegenwärtig sind nur etwa 4 von 10.000 Volumenteilen in der Luft CO2. Unserer Pflanzenwelt würde eine Verdopplung bis Verdreifachung der derzeitigen CO2-Konzentration gut bekommen; in Gewächshäusern wird CO2 seit Jahrzehnten zur Düngung erfolgreich eingesetzt.

Es gibt andere Gründe für die leichte Verspätung der letzten 36 Jahre, und die überwiegen. Allen voran: Die Temperaturen von Januar bis März sind etwas gesunken, wobei der Januar wohl nur noch sehr wenig den Blühtermin entscheidet. Wichtiger ist die Wärme der beiden Monate Februar und März, sowie die Besonnung der letzten Woche vor Blühbeginn.

Der Monat Februar, Wetterstation am Flughafen Hamburg:

Die DWD-Wetterstation liegt 7 km nördlich der Innenstadt.

Abbildung 2: Der Februar wurde etwas kälter in Hamburg. Man beachte den kalten Februar 2018 und den verspäteten Blütenbeginn 2018 am 4.April.

Der März in Hamburg

Noch mehr als der Monat Februar beeinflussen die Märztemperaturen den Blühtermin der Forsythie an der Hamburger Lombardsbrücke, insbesondere die letzten Tage vor dem Aufblühen. Und die erste Märzhälfte war in Hamburg sogar leicht unter dem Februar-Gesamtschnitt, was den Blütenbeginn 2021 wohl doch um einige Tage verzögerte.

Beide Monate zusammen bezeichnen wir als Vorfrühling, hier die Grafik dazu:

Abb.3: Februar und März bezeichnen wir als Vorfrühling. Der Temperaturverlauf beider Monate zusammen ist auch in Hamburg leicht fallend.

Wir stellen vollkommen in Einklang mit unseren Erwartungen fest:

Die Temperaturen des Monates Februar und März bestimmen im Wesentlichen den Blütenbeginn des Forsythienstrauches in der Innenstadt von Hamburg. Neben den Temperaturen gibt es auch noch andere Gründe, wie im weiteren Artikel genannt.

Längere Betrachtungszeiträume:

Wie wir aus diversen Artikeln nicht nur der Autoren Kämpfe/Kowatsch wissen, lagen die Temperaturen Deutschlands seit etwa 1940 bis 1987 in einer Depression. Zum einen wegen der Umstellung der Großwetterlagen, das sind natürlich Gründe, aber auch wegen der fehlenden Wärmeinseleffekte bei den Wetterstationen, speziell Hamburg: Weil die Städte ausgebombt waren und das Überleben auf Sparflamme kochte und Eistage auch in den Häusern wahrgenommen wurden. Der steigende Wohlstand, die rege Bautätigkeit und die Beheizung aller Räume nebst steigendem Warmwasserverbrauch im Haus, sowie die zunehmende Industrialisierung brachten wieder Wärme in Deutschlands Städte. Diese positive Nachkriegsentwicklung begünstigte zunächst den früheren Frühlingsbeginn in einer Stadt, er folgte dem Wohlstand, aber auch zu mehr Innenstadtwärme. Ein Vorgang, der in den 80-er Jahren in Hamburg wohl sein Ende gefunden hat. In der Innenstadt Hamburgs scheint der anthropogene Wärmeinseleffekt zwar auf hohem Niveau, aber ausgereizt zu sein. Das zeigt uns auch die nächste Grafik

Abb.4: Seit 1972, also seit 50 Jahren stagniert der Blühbeginn des Hamburger Forsythienstrauches bei etwa 79 Tagen nach Neujahr.

Die wilde Stachelbeere

Ähnlich wie die Forsythie verhält es sich mit dem etwas früheren Laubaustrieb der Wilden Stachelbeere, welcher ebenfalls seit der Deutschen Einheit in der Stadt Weimar stagniert. Wegen eines tendenziell etwas wärmeren Aprils hat sich jedoch der Einzug des Vollfrühlings (Beginn der Apfelblüte) leicht verfrüht. Aus der Differenz beider Eintrittstermine ergibt sich die Dauer des Erstfrühlings. Bei der Analyse der Forsythie- Daten käme man zu ähnlichen Ergebnissen mit insgesamt geringeren Tageszahlen der Erstfrühlingsdauer:

Abbildung.5: Kein Trend beim Austrieb der Wildstachelbeere an einem festen Standort im Weimarer Ilmpark. Daraus darf nicht auf künftige Entwicklungen geschlossen werden. Im letzten Jahr 2020 trieb die Stachelbeere in Weimar schon am 12. Februar aus; in 2021 erst am 13. März. Mit einer eher mittelspäten Apfelblüte 2021 wird gerechnet.

Blühbeginn und Laubaustrieb der Wildstachelbeere werden hauptsächlich durch das Temperaturverhalten der Monate Januar bis März bestimmt – je milder dieser Zeitraum ist, desto früher treten sie ein (1990, 2007, 2020). Aber schon seit 1988 gibt es in diesem Zeitraum in Deutschland keinerlei Erwärmung mehr:

Abbildung 6: Seit 1988, das sind nunmehr schon stattliche 34 Jahre, hat es sich im Zeitraum von Januar bis März in Deutschland nicht mehr erwärmt – folglich war auch keine Verfrühung des Erstfrühlingsbeginns in diesem Zeitraum zu beobachten.

Bitte beachten: Die DWD-Daten sind nicht wärmeinselbereinigt. Die Mehrzahl der DWD-Wetterstationen steht in Wärmeinseln. Für wärmeinselarme Stationen ist die Temperatur-Trendlinie der ersten drei Monate deutlicher fallend, siehe Amtsberg, Zeitz, Neugersdorf, usw…)

Abbildung 7: Die Wetterwarte Zeitz steht am Stadtrand von Zeitz, die Temperaturen der ersten drei Monate zeigen seit 34 Jahren eine deutlichere Abkühlung als das DWD-Mittel für Deutschland.in Abbildung 6

Neben dem Hauptfaktor Wärme sind noch andere Gründe für Erstblüte und Laubaustrieb mitbestimmend: Tageslänge, die Sonnenscheindauer und der UV- Anteil im Sonnenlicht, Feuchtigkeit und Nachtfröste, die Bodentemperatur am Standort sowie Düngefaktoren im weitesten Sinne. Bekanntlich hat der Nitratgehalt im Fließ- und Grundwasser zugenommen, was das Pflanzenwachstum beeinflusst.

Zusammenfassung:

Wir leben keinesfalls mittendrin in einer gefährlichen Erwärmung. Kohlendioxid ist ein sauberes Gas, das mit dem Klima wenig zu tun hat. Kohlendioxid ist neben Sauerstoff und Wasser die Grundbedingung des Lebens auf der Erde. Die Erde braucht mehr und nicht weniger Kohlendioxid. Das Klima wandelt sich immer, und das aus vielerlei Gründen, aber Kohlendioxid hat keine oder kaum eine Erwärmungswirkung. Nur der steigende Wohlstandsfaktor, der Wärmeinseleffekt, forciert durch mehr Sonnenstunden auch wegen den Luftreinhaltemaßnahmen, ist zumindest in Deutschland der immer noch zunehmende Wärmeinseleffekt der wesentliche anthropogene Einflussfaktor auf die Temperaturen. Seitdem dieser in Hamburg ausgereizt ist, also Ende der 80er Jahre, seitdem fallen die Temperaturen der ersten drei Monate leicht, und das auch in der Innenstadt von Hamburg.

Insgesamt sei betont, dass unsere Grafiken einen längeren Zeitraum erfassen. Wir argumentieren nicht wie die Katastrophenverkünder mit Einzelbeobachtungen und verkünden dann falsche Vorhersagen. Die Grafiken sollen sprechen. Die Frühjahrsblüher Scharbockskraut, Buschwindröschen, Märzenveilchen und Lerchensporn finden sich auch in freier Natur auf einem unveränderten Stand wie um 1990. Weiterhin gilt: Klima lässt sich nicht schützen; es ist als „chaotisches System“ viel zu komplex und erst recht wenig erforscht. Oder anders ausgedrückt: Die Forschung ist noch absolut ergebnisoffen. Notwendig wäre jedoch ein umfangreicher Natur- und Umweltschutz. Sauberes Wasser, saubere Luft und saubere Nahrungsmittel sind ein Grundgut, das allen Menschen zusteht. Natur- und Umweltschutz sind notwendig, Klimaschutz gibt es nicht. Mehr CO2 in der Luft wäre für das Wachstum und die Ernteerträge der Welt besser. Eine CO2-Steuer dient nur den Staatskassen.

Der Forsythienstrauch in Hamburg-Stadtmitte zeigt sich vom Klimaklamauk völlig unbeeindruckt. Schade, dass der Forsythienstrauch den Artikel nicht selbst schreiben kann.

Noch eine Anmerkung an die Ortskundigen: Falls sich die Umgebung des Hamburger Strauches geändert haben sollte, bitte ich um ein aktuelles Foto, am besten vom selben Standort aus wie in den Grafiken.