1

Wie Klimadaten in den USA manipuliert werden – Erwärmung statt Abkühlung?

https://realclimatescience.com/

Die * „National Oceanic and Atmospheric Administration“ NOAA ist die Wetter- und Ozeanografie­behörde der Vereinigten Staaten. Sie wurde am 3. Oktober 1970 als eine Einrichtung des Handelsministeriums gegründet, um die nationalen Ozean- und Atmosphärendienste zu koordinieren. Ihr Sitz ist die Bundeshauptstadt Washington.

Heller zeigt, wie die Klimatologen in den USA mit Hilfe des „Beobachtungszeitraum-Fehlers“ eine Abkühlung der USA nach 1960 in eine Erwärmung ummünzen, um das klimapoltische CO2-Narrativ zu unterstützen.


 

 




Offizielle Klimadatenfälscher

Tony Heller hat einen sehr eindrücklichen Weg gefunden, um zu zeigen, wie NASA und NOAA und all die anderen, die angeblich die Temperatur der Erde messen und in Abbildungen darstellen wollen, die Rohdaten, auf denen ihre Abbildungen basieren, fälschen. In Fälscherkreisen heißt dies natürlich nicht fälschen, sondern Adjusitieren oder Anpassen oder Harmonisieren. Wie auch immer es benannt wird, es bleibt Fälschung und wie alle Fälschung, so kann man auch die in Kollusion in den USA, Japan, dem Vereinigten Königreich (der Wiege von Climategate) vorgenommene Datenfälschung als solche aufdecken, wenn man ein Experte in Originalen ist.

Wenn z.B. auf Basis der Originaldaten gezeigt werden kann, dass vergangene Jahre, in denen Gletscher verschwunden sind, in denen in der Arktis viel weniger Eis war als derzeit (also z.B. die Jahre 1902, 1922 oder 1939) in den Daten der Klimawandel-Alarmisten kälter waren als heute, obwohl die Folgen, die in der zeitgenössischen Presse und der zeitgenössischen wissenschaftlichen Literatur berichtet werden, ein viel wärmeres Klima voraussetzen als heute, während Jahre, in denen die Arktis in Eis ertrunken ist (1963, 1973) und die Sorge vor einer neuen Eiszeit umging, in den Temperaturdaten von NASA oder NOAA, wärmer sind als die zuvor beschriebenen Jahre (1902, 1922, 1939), in denen Grönland fast eisfrei war, dann kann man nicht anders als die für diese Daten Verantwortlichen als Fälscher oder Betrüger zu bezeichnen.

Was wir hier in Worte gefasst haben, hat Tony Heller zum Gegenstand eines seiner besten Videos gemacht. Wir machen daraus eine neue dpa-Wichtel Challenge: Wie kann man erklären, dass in den Daten, die allen Prognosen zum menschengemachten Klimawandel zugrunde liegen, Jahre, in denen die Arktis sich vor Eis nicht retten konnte (1963 und 1973) viel wärmer abgebildet werden als Jahre, in denen die Arktis und Grönland fast eisfrei waren (1902, 1922, 1939)?

Das Video von Tony Heller verdient es, in jedem Forum, jedem blog, jeder Kommentarspalte die Klimawandel zum Gegenstand haben, hinterlassen zu werden. Wie immer können diejenigen, die der englischen Sprache nicht mächtig sind, hier klicken und über die Settings (Subtitels English autogenerate, dann auto-translate German) deutsche Untertitel einstellen.

Der Beitrag erschien zuerst bei ScienceFiles hier




Temperaturmessung: Rekord unbrauchbar

Wurde sie gerade noch einmal abgewendet, diese schreckliche Klimakatastrophe? Zumindest in Lingen? Das war – zur Erinnerung – bei jener Hitzewelle vor kurzem bekanntlich Deutschlands heißester Ort. Eine Station des Deutschen Wetterdienstes registrierte am 25. Juli der Wert von 42,6 °C, der von Medien und Potsdamer Klimakatastrophisten als Vorstufe zur Wetterhölle erklärt wurde.

Doch jetzt hat der private Wetterdienst »Wetter online« diesen Wert zurückgezogen: Rekord unbrauchbar. »Bezüglich des Standorts gibt es aber so viel berechtigte Kritik, dass Wetter online diesen Rekordwert nicht anerkennt.«

Historisch sei die Hitze im letzten Julidrittel ohne Zweifel gewesen, bekundet Wetter online. In Geilenkirchen wurde der alte Rekord von 40,3° am 24. Juli mit 40,5° knapp überboten. Danach hatten verschiedene Stationen mehr als 40° gemeldet. »So etwas hat es in Deutschland seit Beginn der regelmäßigen Wetteraufzeichnungen nicht gegeben.«

In Duisburg und Tönisvorst zeigte das Thermometer 41,2° an. Lingen kam dann in die Schlagzeilen mit 42,6°. Doch diese Messstelle in Lingen erfüllt jetzt nicht mehr den Standard der Weltorganisation für Meteorologie WMO. Denn es ist nicht egal, wo und wie das Thermometer steht und die Umgebung beschaffen sein soll. Der Messfühler muss abgeschattet sein, so dass er nicht von der Sonnenstrahlung oder der Wärmeabstrahlung eines Mauerwerkes beeinflusst wird. Er muss zudem ausreichend belüftet werden.Doch gerade im Umfeld der Station in Lingen wuchsen die Büsche in den vergangenen Jahren so, dass rund um die Wetterstation eine Wärmeinsel entstand, in der Wärme gestaut wurde. Höhere Temperaturen sind also nicht weiter verwunderlich. Die Station in Lingen geriet schon in den vergangenen Jahren in die Kritik, weil der Unterschied der Messwerte zu den umliegenden Stationen von Jahr zu Jahr größer wurde. Wetterunternehmer Jörg Kachelmann kritisierte den Standort der Station schon seit längerem; er wusste um den Effekt der Wärmeinseln.

Auch der Deutsche Wetterdienst DWD plante seit einigen Jahren, die Station zu verlegen. Allerdings fürchtet der Dienst die politischen Folgen einer solchen Verlegung. Wetter online: »Erkennt man den Wert nicht an, rücken »Klimawandelleugner« auf den Plan und erklären, dass es nach dem Medienhype gar nicht so heiß gewesen sei. Wird er für ungültig erklärt, wären wohl schnell unangenehme Fragen zur Standardqualität im Allgemeinen aufgetaucht.«

 

Denn Temperaturmessungen sind nach einem alten Spruch von Meteorologen das größte Problem dieser Zunft. Wo wird gemessen? Jeder kennt das: Steht in einem Zimmer das Thermometer nah an einem Ofen, ist es wärmer als in der Ecke gegenüber. Wo also ist die wahre Zimmertemperatur?

Die Vorschriften für offizielle Temperaturmessungen sehen einen Standort der Wetterhäuschen zwei Meter über dem Boden auf einer freien Fläche vor. Der Messfühler muss abgeschattet sein, ein Ventilator die Luft durchwedeln. Das Thermometer soll nicht die eigene Wärme messen, sondern die der Luft.

Besonders delikat sind Vergleiche der Temperaturentwicklung über vergangenen Jahrzehnte oder gar Jahrhunderte hinweg. Messtechnik ändert sich, ebenso wandeln sich die Gegebenheiten rund um die Messstationen. Häuser werden gebaut oder Wände hochgezogen, die die Temperaturen in der Umgebung verändern. Häufig muss der Wetterdienst auch den Standort seiner Station verändern. Messstationen mussten umgestellt werden, weil die Ableser laut Protokoll des Wetterdienstes unfähig waren, regelmäßig die Werte abzulesen und weiterzugeben.So wurde die Station in Bad Dürkheim, in der Rheinebene nahe dem Pfälzer Wald gelegen, mehrfach verlegt. »Am 13.9.1977 wurden die Beobachtungen an der jetzigen Station wegen Unfähigkeit des Beobachters eingestellt.« Zwei Monate später wurde ein neuer Beobachter gefunden und die Station wieder entsprechend verlegt. Da auch dieser Beobachter ausschied, ruhte die Station vom vom 21.10.1987 bis 14.4.1988. Die Station meldete rückgängige Temperaturen. Es ist also ein sehr schwieriges Unterfangen, Temperaturmesswerte über viele Jahre zu vergleichen. Meteorologen versuchen daher, stark schwankende Daten durch statistische Verfahren zu »homogenisieren«, etwas böse ausgedrückt: passend zu machen.

Wie schwierig, ja unmöglich es ist, die Entwicklung von Temperaturen über die letzten 100, 200 Jahre sogar auf die Nachkommastelle genau anzugeben, zeigte einst die wichtige Arbeit von Michael Limburg, der als Ingenieur im Bereich der Messtechnik und Fehlerstatistik gearbeitet und die entsprechenden Erfahrungen gesammelt hat: »Analyse zur Bewertung und Fehlerabschätzung der globalen Daten für Temperatur und Meeresspiegel und deren Bestimmungsprobleme« lautete der etwas sperrige Titel.

Limburg ging in seiner Dissertation der Frage nach, ob die meteorologischen Daten der vergangenen 150 Jahre genau genug sind, um den Verlauf der »Globalen Mitteltemperatur« auf 1/10 Grad Celsius genau zu berechnen. Dieser Verlauf spielt in der aktuellen Klimadebatte eine wichtige Rolle; belegen die einen damit doch, dass es wärmer, die anderen, dass es kälter wird.

Doch die wichtige Frage ist: Lässt sich eine solche Aussage überhaupt treffen? Satelliten vermögen heute sehr genau alle möglichen Wetterdaten wie Temperaturen der verschiedenen Oberflächen zu messen. Sie gibt es allerdings erst seit etwa knapp 40 Jahren. Davor beruhen die Temperaturangaben auf Messungen unterschiedlicher Messstationen. Bei denen hängt es sehr davon ab, wo und wie die Thermometer angebracht sind. Über einer Wiesenfläche ergeben sich andere Temperaturen als über Asphaltflächen. Ziemlich schwierig, wenn man sehr unterschiedlich zustande gekommene Temperaturaufzeichnungen mit vielen dubiosen Angaben miteinander vergleichen und Trends herauslesen will.Das Ergebnis der Dissertation von Limburg:

»Dabei kam ich zu dem eindeutigen Ergebnis, dass die verwendeten historischen Wetter-Messdaten dies nicht erlauben. Ich fand heraus, dass die bei der Berechnung der globalen Mitteltemperatur unvermeidliche verbleibende Unsicherheit mindestens genau so groß ist wie die ganze offiziell angegebenen Änderung über 150 Jahre, wahrscheinlich aber sogar ein Vielfaches beträgt. Dies ergibt sich zwangsläufig bei Anwendung aller gängigen und vielfach erprobten Regeln der Messtechnik und der statistischen Fehlerrechnung.«

Dieses Ergebnis schreckte die prüfenden Professoren erheblich auf. Limburg weiter: »Die Arbeit stellte ja indirekt wesentliche Aussagen zur angeblichen ›menschengemachten Klimaerwärmung‹ und damit einen der Hauptgründe für die Förderung der sogenannten ›Erneuerbaren Energien‹ infrage. Für beide Themenkomplexe gibt es jedoch höchst umfangreiche Fördergelder. Vermutlich befürchteten die Verantwortlichen diesbezügliche Nachteile, falls sie einer Arbeit Platz und dem Autor einen akademischen Grad zugestanden, der dem bisherigem Dogma – und sei es auch nur indirekt – widersprach.«

Man kann sich vorstellen, wie der Blutdruck der Herren Prüfprofessoren hochschnellte. Die erste Kommission, die die Promotionsarbeit prüfen sollte, trat tatsächlich geschlossen zurück. Begründung: »Weitgehende politische Motivationder Arbeit«.

Um es kurz zu machen: Die Arbeit wurde nach einer hanebüchenen Odyssee schließlich abgelehnt. Es darf nicht belegbar sein, was nicht ins politische Konzept passt.

Nur die Entwicklung der Temperaturen über Jahrhunderte hinweg wird nach wie vor so genau angegeben, wie dies messtechnisch überhaupt nicht möglich ist. Doch ist sie ist Grundlage jener wilden These der Klimakatastrophe, auf der moderne Ablasshändler ihre Geschäfte aufbauen.

Der Beitrag erschien zuerst bei TE hier




12. IKEK am 23. und 24.11.2018 – Michael Limburg – Wie glaubwürdig sind Zeitreihen historischer Klimadaten?

Die westliche Welt begann im ausgehenden 19. Jahrhundert, fast nur in den entwickelten Ländern Klima- und Wetterdaten mittels Messstationen aufzuzeichnen, von denen wir heute noch glauben profitieren zu können. Doch auch um 1900 war die Nordhalbkugel der Erde immer noch sehr spärlich mit Messstationen ausgestattet, das änderte sich erst in der zweiten Hälfte des 20. Jh. Erst ab 1960 waren, auf Grund des kalten Krieges die USA, Europa und weite Teile der damaligen Sowjetunion vglw. dicht bestückt.

Video des Vortrages von Michael Limburg anlässlich der 12. IKEK am 23. und 25.11.18

Für die Südhalbkugel galt das jedoch nie, die war und blieb spärlich versorgt, was sowohl der Entwicklung der dort befindlichen Länder, als auch an der geringen Landbedeckung geschuldet ist.

Hinzu kam, dass über den Ozeanen eine genügende Abdeckung, die diesen Namen auch verdient, außerhalb der Hauptschifffahrtsrouten nicht vorhanden war.

Doch selbst wenn die besser wären, sind die verfügbaren historischen Klimadaten viel zu dünn, sowohl in der Flächenabdeckung, als auch in der kontinuierlichen Langzeit-Messdauer, um als Basis für die präzise Berechnung einer globalen Mitteltemperatur dienen zu können.

Und nicht nur das, denn sie sind auch viel zu ungenau, als dass Klimatologen mit ihrer Hilfe eine präzise Bestimmung der globalen Mitteltemperatur durchführen und somit als valide Quellenlage gelten könnten.

Die Klimatologen glauben aber, es sei so, obwohl jeder, der sich mit Messtechnik und Fehlerstatistik auskenne, feststellen muss, dass die Daten dafür nicht taugten. Schuld an diesem Irrglauben ist ein Artikel der Klimawissenschaftler Hansen & Lebedeff von 1988, in dem sie behaupteten, dass die Werte einer Messstation für eine Kreisfläche von 2.400 km Durchmesser als „Normal“ stehen könne.

Als „Beweis“ dafür führten sie lediglich an, dass die Trendverläufe der Teststationen innerhalb dieser Fläche immer noch eine Korrelation von ≥ 0,5 (als „gut“ bezeichnet) aufwiesen. Mittels einfachem direkten Vergleiches von realen Verläufen hätten sie jedoch erkennen müssen, dass auch bei Korrelation von ≥ 0,5 die Zeitreihen der Temperatur viel zu unterschiedlich seien, als dass eine Station im Zentrum als Maß für alle stehen könnte. Beispielsweise fänden sich im Umkreis des Nordpols zwei Messstationen mit je rund 1.000 km Abstand zum Pol, was viel zu weit weg sei, um das Wetter und seine Daten dort genau genug erfassen zu können.

Ein weiterer Fehler ist anzunehmen, das die statistische Regel, nach der zufällige Messfehler mit dem Quotienten aus 1/√n sich von selbst und nur von ihrer Zahl abhängig, in Richtung Null korrigieren, unbekümmert für sämtliche Messwerte angewendet werden darf.

Dem ist jedoch nicht so, weil die Messempfindlichkeit eine Untergrenze darstellt, bis zu der sich zufällige – also gleich verteilte – Messfehler ausgleichen könnten.

Die statistische Regel, nach der zufällige Messfehler mit dem Quotienten aus 1/√n – wobei n die Zahl der Messungen ist – gegen Null tendieren, findet da ihre Untergrenze.

Ein weiterer wichtiger Einflussfaktor auf die Messgenauigkeit ist bspw. das Material des Schutzbehälters, in denen sich der Messfühler befindet, das sogenannte Wetterhäuschen (z.B. Englische Hütte). Allein dadurch entsteht ein systematischer Messfehler von etwa 0,2°C (+/-). Bei einem Wechsel des Wetterhäuschens oder des Messgerätes erhalte man so „sprunghafte systematische Fehler“. Diese schlagen 1:1 auch bei Anomalienbildung mit dem „Stationsnormal“ durch, und gleichen sich nicht – wie weit und breit geglaubt- gegenseitig aus.

In Berlin beispielsweise würden seit 1990 elektronische Fühler eingesetzt, was die örtliche mittlere Temperatur scheinbar um 0,1°C erhöht habe. Korrigiert wurde das bis heute nicht.

Zusammenfassend kann festgestellt werden, dass die systematischen Fehler bei der Erhebung von Klimadaten sehr vielfältig und zum allergrößten Teil nicht mehr zu korrigierbar sind, da die Umstände unter denen sie entstanden, nicht mehr rekonstruierbar sind. Das hat zur Folge, dass jeder ehrliche Versuch, eine globale Mitteltemperatur aus den vorhandenen Daten zu berechnen, mit einen Unsicherheitsband von mindestens vier Grad umgeben sein muss.

Das wiederum ermögliche keinerlei Bestimmung von Änderungen im Bereich von einem Grad, und damit auch keinerlei Bestimmung einer evtl. Ursache. All das verschwinde im Rauschen der Messfehler.

Die einzig gute Nachricht ist, dass oszillierende Einflüsse (periodisches auf und ab) von diesem Problem nicht betroffen sind,  und damit sehr wohl sichtbar seien. Ihre Präsenz erlaubt die Bestimmung ihrer Zykluszeiten, jedoch nur sehr unsicher, bezüglich ihrer Amplituden.

Hinzu kommt, dass Rohdaten der Vergangenheit auf breiter Front offensichtlich gefälscht wurden, mit dem Ziel, die Vergangenheit kühler erscheinen zu lassen, damit die Gegenwart wärmer erschiene. Das folgende Video zeigt einige verblüffende Zusammenhänge.

Video von Tony Heller zu der Manipulation historischer Temperaturdaten




Vergleich­bare globale Temperatur­daten der letzten 140 Jahre gibt es nicht. Es gibt auch keine US-Daten.

Eine irreführende Graphik: In dem kultigen Bild der globalen Temperatur im 20. Jahrhundert (Abbildung 1 oben) kann man zwei Warmperioden ausmachen – während der initialen Dekaden (1910 bis 1942) und den letzten Dekaden (1977 bis 2000).“

Abbildung 1: Temperatur im 20.Jahrhundert. Oben: global, unten: in den USA

Das Fazit des Vortrages von Dr. Singer war: Es existieren weder global vergleichbare Temperaturdaten, aber auch keine US-Daten, anhand denen man eine Erwärmung feststellen könnte. Die Temperaturdaten dieser Abbildung beginnen im Jahre 1880 und Herr Dr. Singer schreibt richtig: „…Die Zunahme des Anteils von Flughafen-Stationen war gewaltig – von 35% auf 80% – was zu einer unechten Temperaturzunahme infolge der Nähe von Rollbahnen und Gebäuden führte. Das ist schwierig im Detail zu berechnen…“  Dieser Folgeartikel will ergänzen: Zu Beginn des Jahres 1880 wurde die Dale-Enterprise-Wheather Station in Virginia als die 3. Messstation in den gesamten USA gegründet. Heute gibt es tausende, auf die wahllos zurückgegriffen wird, um irgendwelche Trends rückwirkend bis 1880 zu ermitteln, aus denen dann die Abb.1b generiert wird. Genauso könnte man Abkühlungstrends als Computerspielchen erfinden, um Pelzmäntel für eine angeblich sich nähernde Eiszeit verkaufen zu können.

Und zuverlässige Weltdaten kann es deswegen schon gar nicht geben: Nirgendwo und schon gar nicht auf der Erde wurde im Jahre 1880 ein definiertes Stationsnetz über die Erde verteilt und ein Bau- und Veränderungsverbot im 2 Kilometer Umkreis jeder Station ausgesprochen, was notwendig gewesen wäre, um gleichartige Bedingungen für einen Temperaturvergleich über 140 Jahre zu haben. Die Temperaturdatenreihen aller Länder sind somit weitgehend Erfindungen, um uns zu ängstigen.

Einzig mögliche Vergleiche wären, wenn man Stationen auffinden könnte, die immer noch dort stehen, wo sie schon immer standen und wenn sich deren Umgebung seit 1880 nicht verändert hätte. Sonst sind alle Vergleiche sinnlos und die Grafiken sind erlebte Märchenwelt. Gut, dass es wenigstens eine Messstation in den Staaten gibt: Das ist die Dale-Enterprise Station in Virginia. Natürlich haben sich alle Standortumgebungen auf dieser Erde verändert, aber immerhin steht die Station noch gleich bei der einsamen Farm wie 1880 und die Temperaturen werden von derselben Familie nach gleichen Regeln erhoben.

Abbildung 2: Google Foto: Bei dieser Farm auf dem Lande in Virginia steht seit 1880 die Dale-Enterprise-Wheather-Station, die Farm und die Wetterstation werden noch von derselben Familie bewirtschaftet und betreut.

Die Jahresdaten zeigen seit 1880 folgendes Ergebnis, in den USA wird in der Maßeinheit Fahrenheit gemessen. (32 F = 0 C)

Abbildung 3a: Die Daten dieser US-Wetterstation sind einigermaßen vergleichbar, da sich der Umkreis der Farm bis auf den vierspurigen Highway vor dem Haus, wenig verändert hat.

Ergebnis: Neben dem üblichen Auf und Ab der Jahre und Jahrzehnte sind wir 2016 wieder bei 1880 angekommen. Die Trendlinie ist nicht signifikant fallend mit y = – 0,0014x. Also keine Klimaerwärmung seit 1880 bei diesem fast gleich gebliebenem Standort.

Zum besseren Vergleich mit Abbildung 1 des Singer-Artikels soll die Trendlinie auch als 5-jähriger gleitender Schnitt gezeichnet werden.

Abbildung 3b: Bitte mit Abbildung 1b, den gemogelten US-Daten vergleichen. Die Abbildung zeigt die real gemessenen Werte einer Station, die bis 1880 zurückgehen. Wahrscheinlich handelt es sich um die einzig verbliebene Station in den USA mit einer vergleichbaren Wertereihe.

Wie schon erwähnt, auch diese US-Station in Virginia bei einer Farm ist nicht ganz wärmeinselfrei, ein vierspuriger Highway führt inzwischen in unmittelbarer Nähe der Farm vorbei und die nächste Stadt Harrisonburg hat ihre Einwohnerzahl seit 1880 verzwanzigfacht, die Außenbezirke einst mehr als 5 Meilen entfernt sind bis auf eine Meile an die Stationsfarm herangekommen, eine wärmende Urbanisierung der Stadt in die Natur hinein. Das ist die Regel auf dieser Erde. Seit 1981 hat sich die Einwohnerzahl von Harrisonburg auch wieder mehr als verdoppelt und trotzdem zeigt die Trendlinie der Dale-Enterprise-Station eine negativere Steigung mit y = – 0,035 x seit diesem Zeitraum bis heute.

Abbildung 4: Bei dieser fast unverändert gebliebenen Station in den USA sinken die Jahrestemperaturen seit 36 Jahren

Fazit: Die uns vorgeschwätzte angsteinflößende Klimaerwärmung ist reines Kasperlestheater, die Erwärmung findet nur in den Städten und den Wärmeinseln statt. Dort ist sie allerdings real. Das zeigt die nächste Grafik des neutralen Klimaforschers Stefan Kämpfe. Washington im Vergleich mit der Dale-Enterprise:

Abbildung 5: Beide Messstationen sind etwa 100 Meilen voneinander entfernt. Der Unterschied ist gewaltig. Auf dem Lande Abkühlung, in der Hauptstadt Washington aufgrund der ständig sich ausweitenden Bebauung und des Energieverbrauches eine Erwärmung, die typische anthropogene Wärmeinselerwärmung.

Welche Temperatur ist nun falsch, welche richtig?

Antwort: Beide Messungen sind richtig, in der Wärmeinsel Stadt Washington wurde es wärmer und in der freien Fläche des Landes kälter. Mit globaler Erwärmung aufgrund eines CO2-Treibhauseffektes hat das nichts zu tun, denn an beiden Standorten sind die CO2-Konzentrationen seit 1981 gleichmäßig um etwa 20% gestiegen. CO2 kann nicht den einen Ort erwärmen und gleichzeitig die Nachbarschaft kühlen. Deswegen wird eine Reduzierung des CO2-Ausstoßes als Gegenmaßnahme gegen die Erwärmung keinerlei Wirkungsveränderungen zeigen. Die Grafik 3 zeigt deutlich, dass es diesen erfundenen CO2-Treibhauserwärmungseffekt nicht geben kann oder falls doch: nur in minimalster Wirkung. Es wäre aber auch der Umkehrschluss aus der Statistik möglich, dass eine CO2-Konzentrationszunahme leicht abkühlend wirken könnte, so wie es von einem erheblichen Teil der russischen Wissenschaftler behauptet wird.

Wie ängstigt man also die Bürger dieser Erde und insbesondere die in Deutschland? Bitte selbst Gehirn einschalten.

Es wird Zeit, dass endlich wieder Umwelt- und Naturschutz in den Mittelpunkt des menschlichen Handelns gestellt wird. Nahezu alle teuren Maßnahmen gegen die herbeigeredete Klimaerwärmung sind Teil eines Geschäftsmodelles, das wir finanzieren müssen und der Umwelt sogar schaden kann. Wer in der Stadt und in den Wärmeinseln selbst wohnt und arbeitet, muss Maßnahmen gegen die weitere Betonierung und Bebauung ergreifen. Oft hilft hier „Mehr Natur in der Stadt“.

Josef Kowatsch, Naturbeobachter und neutraler, weil unbezahlter Klimaforscher.