1

Temperaturmessung: Rekord unbrauchbar

Wurde sie gerade noch einmal abgewendet, diese schreckliche Klimakatastrophe? Zumindest in Lingen? Das war – zur Erinnerung – bei jener Hitzewelle vor kurzem bekanntlich Deutschlands heißester Ort. Eine Station des Deutschen Wetterdienstes registrierte am 25. Juli der Wert von 42,6 °C, der von Medien und Potsdamer Klimakatastrophisten als Vorstufe zur Wetterhölle erklärt wurde.

Doch jetzt hat der private Wetterdienst »Wetter online« diesen Wert zurückgezogen: Rekord unbrauchbar. »Bezüglich des Standorts gibt es aber so viel berechtigte Kritik, dass Wetter online diesen Rekordwert nicht anerkennt.«

Historisch sei die Hitze im letzten Julidrittel ohne Zweifel gewesen, bekundet Wetter online. In Geilenkirchen wurde der alte Rekord von 40,3° am 24. Juli mit 40,5° knapp überboten. Danach hatten verschiedene Stationen mehr als 40° gemeldet. »So etwas hat es in Deutschland seit Beginn der regelmäßigen Wetteraufzeichnungen nicht gegeben.«

In Duisburg und Tönisvorst zeigte das Thermometer 41,2° an. Lingen kam dann in die Schlagzeilen mit 42,6°. Doch diese Messstelle in Lingen erfüllt jetzt nicht mehr den Standard der Weltorganisation für Meteorologie WMO. Denn es ist nicht egal, wo und wie das Thermometer steht und die Umgebung beschaffen sein soll. Der Messfühler muss abgeschattet sein, so dass er nicht von der Sonnenstrahlung oder der Wärmeabstrahlung eines Mauerwerkes beeinflusst wird. Er muss zudem ausreichend belüftet werden.Doch gerade im Umfeld der Station in Lingen wuchsen die Büsche in den vergangenen Jahren so, dass rund um die Wetterstation eine Wärmeinsel entstand, in der Wärme gestaut wurde. Höhere Temperaturen sind also nicht weiter verwunderlich. Die Station in Lingen geriet schon in den vergangenen Jahren in die Kritik, weil der Unterschied der Messwerte zu den umliegenden Stationen von Jahr zu Jahr größer wurde. Wetterunternehmer Jörg Kachelmann kritisierte den Standort der Station schon seit längerem; er wusste um den Effekt der Wärmeinseln.

Auch der Deutsche Wetterdienst DWD plante seit einigen Jahren, die Station zu verlegen. Allerdings fürchtet der Dienst die politischen Folgen einer solchen Verlegung. Wetter online: »Erkennt man den Wert nicht an, rücken »Klimawandelleugner« auf den Plan und erklären, dass es nach dem Medienhype gar nicht so heiß gewesen sei. Wird er für ungültig erklärt, wären wohl schnell unangenehme Fragen zur Standardqualität im Allgemeinen aufgetaucht.«

 

Denn Temperaturmessungen sind nach einem alten Spruch von Meteorologen das größte Problem dieser Zunft. Wo wird gemessen? Jeder kennt das: Steht in einem Zimmer das Thermometer nah an einem Ofen, ist es wärmer als in der Ecke gegenüber. Wo also ist die wahre Zimmertemperatur?

Die Vorschriften für offizielle Temperaturmessungen sehen einen Standort der Wetterhäuschen zwei Meter über dem Boden auf einer freien Fläche vor. Der Messfühler muss abgeschattet sein, ein Ventilator die Luft durchwedeln. Das Thermometer soll nicht die eigene Wärme messen, sondern die der Luft.

Besonders delikat sind Vergleiche der Temperaturentwicklung über vergangenen Jahrzehnte oder gar Jahrhunderte hinweg. Messtechnik ändert sich, ebenso wandeln sich die Gegebenheiten rund um die Messstationen. Häuser werden gebaut oder Wände hochgezogen, die die Temperaturen in der Umgebung verändern. Häufig muss der Wetterdienst auch den Standort seiner Station verändern. Messstationen mussten umgestellt werden, weil die Ableser laut Protokoll des Wetterdienstes unfähig waren, regelmäßig die Werte abzulesen und weiterzugeben.So wurde die Station in Bad Dürkheim, in der Rheinebene nahe dem Pfälzer Wald gelegen, mehrfach verlegt. »Am 13.9.1977 wurden die Beobachtungen an der jetzigen Station wegen Unfähigkeit des Beobachters eingestellt.« Zwei Monate später wurde ein neuer Beobachter gefunden und die Station wieder entsprechend verlegt. Da auch dieser Beobachter ausschied, ruhte die Station vom vom 21.10.1987 bis 14.4.1988. Die Station meldete rückgängige Temperaturen. Es ist also ein sehr schwieriges Unterfangen, Temperaturmesswerte über viele Jahre zu vergleichen. Meteorologen versuchen daher, stark schwankende Daten durch statistische Verfahren zu »homogenisieren«, etwas böse ausgedrückt: passend zu machen.

Wie schwierig, ja unmöglich es ist, die Entwicklung von Temperaturen über die letzten 100, 200 Jahre sogar auf die Nachkommastelle genau anzugeben, zeigte einst die wichtige Arbeit von Michael Limburg, der als Ingenieur im Bereich der Messtechnik und Fehlerstatistik gearbeitet und die entsprechenden Erfahrungen gesammelt hat: »Analyse zur Bewertung und Fehlerabschätzung der globalen Daten für Temperatur und Meeresspiegel und deren Bestimmungsprobleme« lautete der etwas sperrige Titel.

Limburg ging in seiner Dissertation der Frage nach, ob die meteorologischen Daten der vergangenen 150 Jahre genau genug sind, um den Verlauf der »Globalen Mitteltemperatur« auf 1/10 Grad Celsius genau zu berechnen. Dieser Verlauf spielt in der aktuellen Klimadebatte eine wichtige Rolle; belegen die einen damit doch, dass es wärmer, die anderen, dass es kälter wird.

Doch die wichtige Frage ist: Lässt sich eine solche Aussage überhaupt treffen? Satelliten vermögen heute sehr genau alle möglichen Wetterdaten wie Temperaturen der verschiedenen Oberflächen zu messen. Sie gibt es allerdings erst seit etwa knapp 40 Jahren. Davor beruhen die Temperaturangaben auf Messungen unterschiedlicher Messstationen. Bei denen hängt es sehr davon ab, wo und wie die Thermometer angebracht sind. Über einer Wiesenfläche ergeben sich andere Temperaturen als über Asphaltflächen. Ziemlich schwierig, wenn man sehr unterschiedlich zustande gekommene Temperaturaufzeichnungen mit vielen dubiosen Angaben miteinander vergleichen und Trends herauslesen will.Das Ergebnis der Dissertation von Limburg:

»Dabei kam ich zu dem eindeutigen Ergebnis, dass die verwendeten historischen Wetter-Messdaten dies nicht erlauben. Ich fand heraus, dass die bei der Berechnung der globalen Mitteltemperatur unvermeidliche verbleibende Unsicherheit mindestens genau so groß ist wie die ganze offiziell angegebenen Änderung über 150 Jahre, wahrscheinlich aber sogar ein Vielfaches beträgt. Dies ergibt sich zwangsläufig bei Anwendung aller gängigen und vielfach erprobten Regeln der Messtechnik und der statistischen Fehlerrechnung.«

Dieses Ergebnis schreckte die prüfenden Professoren erheblich auf. Limburg weiter: »Die Arbeit stellte ja indirekt wesentliche Aussagen zur angeblichen ›menschengemachten Klimaerwärmung‹ und damit einen der Hauptgründe für die Förderung der sogenannten ›Erneuerbaren Energien‹ infrage. Für beide Themenkomplexe gibt es jedoch höchst umfangreiche Fördergelder. Vermutlich befürchteten die Verantwortlichen diesbezügliche Nachteile, falls sie einer Arbeit Platz und dem Autor einen akademischen Grad zugestanden, der dem bisherigem Dogma – und sei es auch nur indirekt – widersprach.«

Man kann sich vorstellen, wie der Blutdruck der Herren Prüfprofessoren hochschnellte. Die erste Kommission, die die Promotionsarbeit prüfen sollte, trat tatsächlich geschlossen zurück. Begründung: »Weitgehende politische Motivationder Arbeit«.

Um es kurz zu machen: Die Arbeit wurde nach einer hanebüchenen Odyssee schließlich abgelehnt. Es darf nicht belegbar sein, was nicht ins politische Konzept passt.

Nur die Entwicklung der Temperaturen über Jahrhunderte hinweg wird nach wie vor so genau angegeben, wie dies messtechnisch überhaupt nicht möglich ist. Doch ist sie ist Grundlage jener wilden These der Klimakatastrophe, auf der moderne Ablasshändler ihre Geschäfte aufbauen.

Der Beitrag erschien zuerst bei TE hier




KLEINE KLIMAKUNDE – Grüne Klimakiller (1)

Ja, das Wort ist Unfug. Klima kann man nicht killen, es ist und bleibt eine Wetterstatistik. Es klingt aber so schön reißerisch und vielleicht lockt es Leser an, die nur an Kohle, Öl und Gas denken, wenn jemand „Klimakiller“ sagt. Hier geht es aber um die Wirkung der gar nicht reinen Ökoenergien auf das Klima.

Die menschliche Nutzung der Wind- wie auch der Sonnenenergie ist ein Eingriff ins Ökosystem. Energie kann nicht erzeugt, nur gewandelt werden. Jede Naturenergie wird ohne menschlichen Eingriff zu 100 Prozent von der Natur genutzt, jeder Eingriff stört das ursprüngliche energetische Gleichgewicht.Solar- und Windenergie sind das Ergebnis der Sonneneinstrahlung, die wiederum einem kernphysikalischen Fusionsprozess der Sonne entspringt. Die Strahlung sorgt für direkte wie auch indirekte Energiezufuhr über Luftdruckunterschiede und Wasserkreisläufe. Sonnenenergie sorgt für die Erwärmung des Bodens, die Fotosynthese und die Verdunstung von Wasser, der Wind ebenfalls für Verdunstung und zusätzlichen Wärmeentzug.

Sobald der Mensch eingreift und Energie „abzweigt“, fehlt sie der Natur an anderer Stelle. „Jeder Eingriff in dieses bodennahe Ausgleichs- und Kühlsystem muss zu Änderungen im Wärmehaushalt der betroffenen Regionen führen“, schreiben die „Energiedetektive“ aus Graz in ihrer Studie 1). Die Entnahme von Sonnen- und Windenergie ändert natürliche Klimaprozesse. Windkraftanlagen beeinflussen die natürliche Ausgleichsströmung zwischen Zonen verschiedenen Luftdrucks, die Energie fehlt im bodennahen Kühlsystem und ändert damit auch die Wasserbilanzen. Sie greifen in das Lüftungssystem der Natur ein.

Wie das im Detail geschieht, durch welche sich überlagernden Prozesse, die sich kompensieren, aber auch verstärken können, ist noch nicht eindeutig geklärt. Es gibt eine dünne Quellenlage, die verschiedene Theorien zeigt.
Die „Energiedetektive“ gehen davon aus, dass die geminderte Energie des Windes nach der Windkraftanlage (WKA) den Boden weniger kühlt und weniger Feuchtigkeit verdunsten lässt. Weniger Verdunstung und weniger Wolkenbildung, weniger Regen in weiterer Entfernung wären die Folge. In Summe würde die Sonneneinstrahlung zunehmen, was die Erwärmung wiederum fördert.Andere gehen davon aus, dass durch die Drehung der Rotoren die laminare Schichtung der strömenden Luft aufgebrochen werde. Es erfolgt eine Umwandlung in Elektrizität mit einem Wirkungsgrad von etwas über 40 Prozent. Physikalisch bedingt unterliegt der maximale theoretische Wirkungsgrad der Windkraftanlagen der so genannten Betz-Grenze von 59 Prozent, hinzu kommen die praktischen Reibungs-, Wärmeverluste, Umwandlungs- und Leitungsverluste.

Die gegenseitige Windverschattung mehrerer Anlagen in Windindustrieparks mindert zusätzlich den rechnerischen möglichen Ertrag. Ein Teil der umgewandelten Energie wird sofort über die Verlustwärme von Generator und – sofern vorhanden – Getriebe und der Trafostation am Boden an die Umgebung abgegeben.

Der nicht umgewandelte Teil der Energie sorge für Verwirbelung. Es bilden sich so genannte Wirbelschleppen, die man sich als horizontale Tornados (geringer Intensität) vorstellen kann, die noch kilometerweit Bestand haben. Die vertikale Durchmischung der Luft bewirke einen Transport der feuchten Luft aus den bodennahen Schichten in höhere. Dabei kann es zur Auskondensation der Luftfeuchte in größerer Höhe durch den niedrigeren Druck kommen, was dann, wie auf dem Foto zu sehen, die Wirbelschleppen sichtbar macht.

Dazu komme der thermische Effekt. Durch den Luftabtransport aus bodennahen Schichten würde dem Boden Luftwärme entzogen, die feuchte Luft ziehe gleichzeitig Verdunstungswärme ab. Abkühlung und geringere Feuchtigkeit verschlechterten die Bedingungen für das Pflanzenwachstum. Die anthropogen verursachte Wolkenbildung sorge als atmosphärischer Wasserdampf für die Zunahme dieses stärksten und häufigsten Treibhausgases.

Eine weitere Theorie geht davon aus, dass die Verwirbelung der Luft zu deren Erwärmung führt und die Ablenkung nach oben sogar zu einer Verwirbelung und Zerstreuung von Wolkenfeldern führen kann.

Im Wald haben Windkraftanlagen unzweifelhaft besonders schädigenden Einfluss. Zunächst wird der Wald durch den Einschlag als CO2-Senke und Wasserspeicher dezimiert. Erosion und Auswaschung des ehemaligen Waldbodens sowie Versandung führen zu schnellerem Wasserabfluss, eine Versteppung der gerodeten Flächen droht.Hinzu kommt die unterirdische Bodenversiegelung durch die mehrere tausend Tonnen schweren Stahlbetonfundamente, die mehr als drei Meter mächtig sind. Der feuchte Boden darüber trocknet aus, das Wasser kann nicht versickern und an der Grundwasserbildung teilnehmen. Der gleiche Effekt tritt auf den verdichteten Zufahrtsstraßen und Montageplätzen auf, die in der Ausdehnung die Fundamentflächen der Anlagen weit übersteigen. Desweiteren führen die Erdkabel für die Stromableitung zu örtlicher Austrocknung des Bodens. Die klimaregulierende Wirkung des Waldes wird insgesamt reduziert, der natürliche Widerstand gegen Extremwetter verringert sich.

Der Dürremonitor des Helmholtz-Zentrums für Umweltforschung zeigt die verschiedenen Trocknungsgrade des Bodens in Deutschland im Oberboden und in etwa 1,8 Metern Tiefe an. Offensichtlich ist, dass das Gebiet der trockensten Böden etwa deckungsgleich mit der räumlichen Verteilung von Windkraftanlagen ist.
Korrelation ist nicht Kausalität, der Bezug scheint dennoch augenfällig. Deckungsgleichheit mit der Niederschlagsverteilung besteht hingegen, abgesehen vom Osten des Landes, nicht.

Die Erkenntnisse sind nicht neu. Die Wirkung von Windkraftanlagen auf die Bodenfeuchte wurde bereits vom Wissenschaftlichen Dienst des Bundestages (WD8-3000-057/13) beschrieben. Dass dies öffentlich kaum kommuniziert wird, ist Ergebnis von Lobbyarbeit und Energiewendeerfolgsjournalismus in unseren Medien.
Ebenso korrelieren der Ausbau der Windenergie und die Anzahl der Tornadomeldungen in Deutschland 1). Wachsen mehrere Windindustrieparks räumlich zusammen, wie zum Beispiel in der Uckermark, kann man davon ausgehen, dass die Beeinflussung des Mikroklimas zu einer Änderung des Regionalklimas führt.

Klima ist mehr als nur Temperatur

Die durchschnittlichen Windgeschwindigkeiten scheinen zu sinken. Ursache könnten die vielen Windkraftanlagen an der Nordseeküste und in der norddeutschen Tiefebene sein. Wurden in den 60er Jahren in Osnabrück noch im Jahresdurchschnitt 3,7 Meter pro Sekunde Wind gemessen, sind es heute nur noch 3,2 Meter pro Sekunde 2). Dies könnte die Verdunstung mindern, in heißen Sommern jedoch auch die Abkühlung und damit Extremtemperaturen begünstigen.Bei der Offshore-Windkraftnutzung beträgt die Luftfeuchte am Fuß der Anlage, also auf Wasserspiegelhöhe einhundert Prozent. Dementsprechend werden größere Mengen Feuchtigkeit in höhere Luftschichten befördert, was mehr als an Land die Wolkenbildung und damit die Bildung des Treibhausgases Wasserdampf fördert.

Die Frage, ob die Nutzung der Windenergie „gut“ ist fürs Klima, lässt sich nur mit „nein“ beantworten. Sie kann die Bildung von Treibhausgas (Wasserdampf) fördern, für Austrocknung des Bodens sorgen und damit für verringerte Fotosynthese als CO2-Senke. Bezüglich der quantitativen Auswirkungen gilt auch hier das Wort von Paracelsus: Die Dosis macht`s. Der bisherige massenhafte Ausbau und der geplante exzessive Zubau zu den schon vorhandenen fast 30.000 Anlagen im Land steigern die negativen Umwelt- und Klimawirkungen.

Jede Windkraftanlage muss durch ein fast 100-prozentiges konventionelles Backup im Netz abgesichert werden, das wiederum Klimawirkung hat. Der Lastfolgebetrieb konventioneller Anlagen in nicht optimalen Betriebsbereichen erhöht deren spezifische Emissionen pro Kilowattstunde. Der „Wasserbetteffekt“ über den europäischen Emissionshandel (Windstrom verdrängt Emissionszertifikate ins Ausland und hält deren Preis niedrig) kommt hinzu.

Verhinderte Forschung

Zur genaueren Bewertung der Folgen der Windenergienutzung bräuchte es Messnetze im Bodenbereich für Aufzeichnungen von Temperatur und Luftfeuchte und deren Betrieb und Auswertung über längere Zeiträume. Zunächst bräuchte es aber den politische Willen und das Geld dazu, dies untersuchen zu lassen. Auf eine Anfrage der FDP-Bundestagsfraktion zum massenhaften Insektensterben an den Rotorblättern der Windkraftanlagen antwortete Umweltministerin Schulze, dass sie keinen Handlungsbedarf sehe. Man möchte die Welt, wie sie gefällt. Oder um es mit Schopenhauer zu sagen: „Was dem Herzen widerstrebt, lässt der Kopf nicht ein.“Mit den grünen „Klimakillern“ verhält es sich genauso. Viel einfacher ist es für Politiker und Journalisten, fossile Verbrennungsprozesse allein für Klimawandel und das Elend dieser Welt verantwortlich zu machen.

Was bewirkt exzessive Windenergienutzung? Zugestellte Landschaften, ihrer Weite und ihrer Ruhe beraubt, Windindustriegebiete anstelle Natur. Der Blick darauf ist subjektiv. Manche verdienen an jeder Drehung des Rotors und sogar dann, wenn er steht, weil der Strom nicht abgenommen werden kann. Andere leiden unter Infraschall, haben Schlafprobleme, Bluthochdruck und den Wertverfall ihrer Immobilie. Auch hier wird die Gesellschaft gespalten.

Die Auswirkungen auf die Umwelt sind erheblich, auf Menschen, Flora und Fauna. Diese Themen sind an vielen Stellen schon beschrieben, zum Beispiel hier, hier und hier.

Windkraftanlagen beeinflussen das regionale Wetter und wirken sich langfristig auf das Klima aus. Dieses Feld der Forschung ist vor allem hinsichtlich seiner quantitativen Auswirkungen noch ausgesprochen unterbelichtet. Sollten Leser dazu weitergehende Erkenntnisse oder Quellen haben, nehmen wir diese gern entgegen.

In Teil 2 geht es um die Wirkungen der Photovoltaik auf den Treibhauseffekt.

1) Dieser Beitrag entstand unter maßgeblicher Verwendung einer ausführlichen Studie „Ermittlungsakte Energiewende – Nebenwirkungen auf Klima und Umwelt“
vom „Energiedetektiv“ aus Graz. Hier der Weg zur Studie.

2) donnerwetter.de, Pressemitteilung vom 29.5.2015

Der Beitrag erschien zuerst bei TE hier




Waldsterben 2.0!

Nach der drohenden Klimakatastrophe wird nun ein neues Fass von Klimaschützern aufgemacht. Das Waldsterben 2.0. Dazu einige Fakten.

Deutschland ist das waldreichste Land Mitteleuropas. Aktuell sind rund 11,4 Mio. Hektar mit Wald bedeckt. Das entspricht knapp einem Drittel der Gesamtfläche Deutschlands. Nach der Entwaldung im Mittelalter nimmt seit etwa 1850 die Waldfläche in Deutschland stetig zu.

Waldfläche-Deutschland

Dank einer nachhaltigen Bewirtschaftung hat die Waldfläche trotz einer intensiven wirtschaftlichen Nutzung seit dem 2. Weltkrieg stetig zugenommen. Auf dem Fundament des Bundeswaldgesetzes ist die Waldfläche in den letzten 50 Jahren um mehr als 1,5 Mio. ha gewachsen. Eine Fläche, die mehr als 2 Mio. Fußballfeldern entspricht.

Zwischen 1992 und 2008 ist die Waldfläche in Deutschland „pro Jahr durchschnittlich um 176 Quadratkilometer (17.600 ha) gewachsen“, meldet das Statistische Bundesamt in Wiesbaden. Das entspricht pro Jahr in etwa der Fläche der Stadt Karlsruhe. Oder aber der Fläche eines Quadrates mit 13 km mal 13 km Kantenlänge.

In den zehn Jahren von 2002 bis 2012 hat der deutsche Wald um mehr als 50.000 ha an Fläche zugelegt. Einer Fläche, die mehr als 70.000 Fußballfeldern entspricht. Das Volumen der Waldbäume hat zwischen 2002 und 2012 um 220 Mio. m3 zugenommen – und das bei einer deutlich intensivierten Nutzung.

Nicht nur die Waldfläche wächst, sondern auch das Waldvolumen. Heute wächst mehr Wald zu, als entnommen wird und abstirbt und damit steigt auch der Holzvorat in deutschen Wäldern an. Der Holzzuwachs im deutschen Wald beträgt gemäß Waldbericht der Bundesregierung von 2017 durchschnittlich 11,2 m³ je Hektar und Jahr.

 

Bzw. insgesamt 121,6 Mio. m³ pro Jahr. Seit 1970 wurden die Wälder deutlich voratsreicher. Die Gründe für den hohen Zuwachs sind vielfältig. Eine verlängerte Vegetationsperiode, vermehrte Stickstoffeinträge aus der Luft, eine erhöhte CO2-Konzentration in der Luft und die großen Vorräte tragen zu der enormen Wuchsleistung der Wälder bei. Nur etwa 2/3 des Zuwachses wird dabei wirtschaftlich genutzt.

So zeigen auch Satellitendaten, dass Deutschland in den letzten 3-4 Jahrzehnten grüner geworden ist.

Deutschland-Gruen

Im europäischen Vergleich ist Deutschland nicht nur eines der am waldreichsten Länder, es wächst auch am meisten Holz hinzu.

Waldzuwachs

Laut einer Uno-Studie von 2011 sind die Wälder in Europe in den vergangenen 20 Jahren deutlich gewachsen. Laut dem in Oslo vorgestellten Bericht „Zustand der europäischen Wälder 2011“ wuchsen in den vergangenen 20 Jahren die Waldflächen in allen Regionen zumindest etwas – mit Ausnahme von Russland. Insgesamt habe sich der Wald durch Aufforstung und natürliches Wachstum um rund 17 Millionen Hektar Wald ausgedehnt. Das der Wald auch in Deutschland an Fläche gewinnt, hatte damals auch die Bundesagrarministerin Ilse Aigner (CSU) bei der Präsentation des Waldschadensberichts betont: In den vergangenen 40 Jahren wuchs die Fläche um rund zehn Prozent oder eine Million Hektar.

Im deutschen Wald stehen jetzt ca. 90 Mrd. Bäume, das sind über 1.000 Bäume pro Einwohner.

Einen überdurchschnittlichen Waldanteil haben die Bundesländer Rheinland-Pfalz und Hessen, gefolgt vom Saarland, von Baden-Württemberg, Bayern, Brandenburg mit Berlin und Thüringen.

infografik_13293_waldflaeche_in_den_bundeslaendern_n

Auch in der Länderbetrachtung nimmt die Waldfläche nahezu überall weiter zu. Das zeigen die Auswertungen der Bundeswaldinventur. Der deutsche Wald im Ganzen wächst seit Jahrzehnten. Und das sowohl, was die Gesamtfläche betrifft, als auch was das Volumen der Bäume angeht. Das gesamte Volumen der Waldbäume erreicht inzwischen Rekordwerte: 3,66 Milliarden m3 – und das ist noch nicht einmal alles, denn es kommt noch das sehr dünne Holz der Äste dazu, das traditionell nicht mitgezählt wird. Selbst der Vorrat an abgestorbenen Bäumen nimmt zu, und zwar deutlich: auf jetzt über 200 Mio. m3.

So ist auch nicht weiter verwunderlich, wenn der Wald in der Fläche und im Volumen wächst, so gibt es darunter auch mehr abgestorbene Bäume und auch mehr Bäume die durch Stürme, oder Trockenheit und Schädlinge Schaden erleiden können. In Naturwäldern liegt aus diesem Grund auch viel Bruchholz und Totholz herum.

Besonders stark zugelegt haben die dicken Bäume. Das hängt auch damit zusammen, dass die Bäume in unseren Wäldern im Durchschnitt immer älter und kräftiger werden. Und das trotz „sauren Regen“ und „Klimawandel“.

In ganz Deutschland bedecken die über 100-jährigen Waldflächen inzwischen mehr als 2,6 Mio. ha – eine Zunahme um mehr als 17 % seit 2002! Zum Vergleich: Das ist eine Fläche, die wesentlich größer ist als das ganze Bundesland Hessen (mit einer Gesamtfläche von etwa 2,1 Mio. ha = 21.000 km2).

Besonders die Flächen der sehr alten Bäume (mit einem Alter von über 160 Jahren) nehmen seit Jahrzehnten stark zu. Die bundesweiten Walderhebungen zeigen zwischen 2002 und 2012 eine Zunahme dieser alten Baumriesen um über 45 % auf jetzt 350.000 ha.

Nach den Ergebnissen der dritten Bundeswaldinventur 2011/2012 sind dabei rund 36 % der Waldfläche als sehr naturnah (14,5 %) oder als naturnah (21,3 %) einzustufen.

Auch für Klimaschützer sollte es sehr erfreulich sein, dass mit dem Holzvolumen der Bäume auch die Kohlenstoff-Menge immer mehr zunimmt, die in unseren Wäldern gespeichert ist: Etwa 2 Milliarden Tonnen Kohlenstoff stecken im deutschen Wald, eine unglaubliche Menge! In Kohlendioxidmengen umgerechnet heißt das: Die heutigen Wälder haben der Atmosphäre im Laufe ihres Wachstums über 7 Milliarden Tonnen CO2 entzogen, und jedes Jahr schlucken sie weitere 50 Mio. Tonnen. Dazu kommen noch die Kohlenstoffvorräte im genutzten Holz. Aktuell werden der Atmosphäre jedes Jahr 150 Mio. Tonnen Kohlendioxid entzogen oder bleiben ihr erspart – dank Wald und Holznutzung in Deutschland.

Allen Unkenrufen zum Trotz stirbt der deutsche Wald also nicht. Ganz im Gegenteil. Nirgendwo in Europa geht es dem Wald so gut wie in Deutschland und nirgends in Europa bindet der Wald durch die hohen Zuwächse so viel CO2 wie in Deutschland. Allen voran die „Klimaschützer“ machen aber ein neues Fass Waldsterben 2.0 auf. Siehe z.B. den Kampf um den Hambacher Forst und die jetzige Debatte um das Waldsterben 2.0 infolge Klimawandel. Hier werden dann insbesondere Fichtenmonokulturen gezeigt, die anfällig für Sturmschäden und Trockenheit und Insektenbefall sind und dies wird dann dem Klimawandel in die Schuhe geschoben. Dabei handelt es sich hier um Fehler der Vergangenheit, welche die Holzwirtschaft gemacht hat. Nach dem 2. Weltkrieg wurde viel Holz gebraucht und vor allen Fichten wurden nach der Rodung neu angepflanzt. Nach dem 2. Weltkrieg ließen England und Frankreich in Deutschland Wälder als Reparationsleistung für eigene Schäden abholzen. Die deutsche Forstverwaltung forstete danach mit Hilfe von Frauen wieder auf, vor allen schnell wachsende Fichtenwälder. Die Folgen wirken bis heute nach. Mit dem Klimawandel hat das wenig zu tun. Was den Klimaschützern aber nicht zu vermitteln sein dürfte. Man glaubt auch hier, was die Medien berichten und sogenannte Fachleute und Experten erzählen.

Der Beitrag erschien zuerst bei ScienceSceptical hier




„Eine Lüge oft genug wiederholt wird zur Wahrheit“ – Vorsicht, wenn sich 97 Prozent aller Wissenschaftler einig sind …

Vorsicht ist geboten, wenn sich wieder mal alle einig sind. Das geht für diejenigen selten gut aus, die nicht bei der trauten Einigkeit dabei sind.

Bei Honecker seinerzeit waren sich 98,85 Prozent einig. Heute sollen sich 97, manchmal auch 98 Prozent aller Wissenschaftler einig darüber sein, dass die Sache mit dem menschengemachten Klimawandel wahr sein muss. »Wir«, also die Menschheit, stehen am Abgrund und müssen sofort »das Ruder rumwerfen«.
Das sei einhellige Meinung nahezu aller Wissenschaftler. Also nahezu aller, damit sie nicht gleich 100 Prozent sagen müssen. Das klingt denn doch zu undemokratisch.

Die Geschichte geht auf den Kognitionspsychologen John Cook zurück. Der wertete 2013 knapp 12.000 Studien zum Thema globale Erwärmung aus. Die ZEIT zitierte das Ergebnis folgendermaßen: »97 Prozent derjenigen, die sich zum Klimawandel positionierten, waren sich einig, dass der Klimawandel auch menschengemacht ist.« Und sie wusste: »Es sind Lobbygruppen der fossilen Industrie, die seit Jahrzehnten bewusst Zweifel an diesem wissenschaftlichen Konsens streuen.«

Cook und seine Kollegen hatten knapp 12.000 Beiträge aus den Jahren 1991 bis 2011 gesammelt. Die sollten in verschiedene Kategorien eingeteilt werden, welche »Haltung« sie zum Klimawandel einnehmen. Weil auch 12.000 Arbeiten eine Menge Leseaufwand bedeuten, haben das »Bürger« in einem »citizen science project« getan. Wer genau, wie und nach welchen Kriterien, ist nicht bekannt.

Dann werfen sie jene Beiträge in den Papierkorb, die keinen Einfluss des Menschen sehen. Das sind rund 66 Prozent jener 12.000 Beiträge. Die willkürlich übrig gebliebenen 4.014 Beiträge teilen sie dann in eine pro und contra Kategorie. Sie finden nur 118 Arbeiten in der contra-Kategorie. Macht jene berühmten 97,06 Prozent.

Der ehemalige US-Präsident Barack Obama jubelte per Twitter: »97 Prozent der Wissenschaftler stimmen überein: Klimawandel ist eine Tatsache, menschengemacht und gefährlich.« Er berief sich auf diese auf merkwürdige Weise zustande gekommene Studie. Das Problem ist allerdings: Der Konsens der Wissenschaftler ist ein anderer, als Obama suggeriert.

Der Spiegel hat das damals, in seinen glanzvolleren alten Tagen, so gesehen und erzählte selbst, wie diese Fake-News-Nummer aufkam:

»Die Studie belegt also lediglich eine Banalität: Wissenschaftler sind sich weitgehend einig, dass der Mensch zur Klimaerwärmung beiträgt. Selbst hartgesottene Kritiker der Klimaforschung zweifeln nicht an dem physikalischen Grundsatz, dass Treibhausgase aus Autos, Fabriken und Kraftwerken die Luft wärmen.

Zu den eigentlich entscheidenden Fragen jedoch mache die Cook-Studie keine Aussage: Wie groß ist der menschengemachte Anteil am Klimawandel? Und wie gefährlich ist der Klimawandel? Die bedeutendsten Fragen der Umweltforschung sind weitaus schwieriger zu beantworten – und hier gehen die Meinungen der Wissenschaftler weit auseinander.

Warum erwecken die 97 (%) Forscher mit ihrer Kampagne den gegenteiligen Eindruck? Die Öffentlichkeit, so begründen die Autoren die Idee zu ihrer Studie, zögere bei der Unterstützung des Klimaschutzes aus Unwissenheit über den Wissenschaftlerkonsens.«

In den USA würden viele bezweifeln, dass der Klimawandel vom Menschen gemacht ist. Das ist schlecht für die Spendenkassen der vielen Panik-NGOs, die fett daran verdienen. Die sind mittlerweile zu einer unüberschaubaren Masse herangewachsen und tönen alle dasselbe. Die 97-Prozent-Kampagne sollte entsprechenden Druck ausüben. Doch die Kritik daran bezieht sich darauf, dass solche vereinfachenden Kampagnen den »Argwohn« stärken würden.

Der Spiegel zitierte damals noch den Meteorologen Victor Venema von der Universität Bonn, der fünf Gründe auflistet, warum Forscher den Konsens über den Klimawandel nicht mögen. «Über die meisten Fragen der Klimaforschung herrsche keine Einigkeit … Die Kampagne schaffe zudem zwei Lager, die Hauptgruppe und die Sonderlinge. Solch ein Gegensatz widerspreche der Widerspruchskultur der Wissenschaft.«.

In der Wissenschaft werden Erkenntnisse eben nicht mit Mehrheitsabstimmungen verabschiedet. Im Gegensatz etwa zum Fußball, wo 97 Prozent aller Fans der Meinung sind, dass Jogi Löw kein guter Bundestrainer ist; leider interessiert das wenig. Ein ›Wir stimmen ab, ob sich die Sonne um die Erde dreht oder doch umgekehrt‘ gibt es nicht. Bisher jedenfalls nicht.

Der Beitrag erschien zuerst bei TICHYS Einblick hier

Weiterführende Literatur zur Erfindung von „Konsens“ in der Klimawissenschaft finden sie ua. auch hier:

Was stimmt nicht mit der Behaup­tung, „97% aller Klima­wissen­schaftler“ stimmen hinsicht­lich AGW überein?

 

 




Keine Lust auf die grüne Machtergreifung

Deutschland ist nur für gut zwei Prozent des jährlich ausgestoßenen Kohlenstoffdioxids CO2 verantwortlich – im Jahr 1992 lag dieser Wert noch bei über vier Prozent. Zwischen Berchtesgaden und Flensburg wird sich also definitiv nicht entscheiden, wie hoch der Ausstoß des angeblichen Treibhausgases CO2 in den kommenden Jahren und Jahrzehnten ausfallen wird. Dennoch ist ausgerechnet hierzulande eine regelrechte Hysterie um dieses Thema entbrannt, die sich in einer „masochistischen Lust an der Apokalypse“ äußert, wie Jürgen Elsässer im Vorwort zur neuesten Ausgabe der von ihm herausgegebenen Reihe COMPACT-Spezial äußert, die sich dem Thema „Öko-Diktatur – Die heimliche Agenda der Grünen“ widmet. Zurecht weist der COMPACT-Chefredakteur darauf hin, dass vor acht Jahren ein einziges Ereignis am anderen Ende der Welt – nämlich der Fukushima-Störfall – als „Katalysator“ genutzt wurde, „um von einen Tag auf den anderen aus einer bis dahin per Gesetz garantierten Energieform, der Atomkraft, auszusteigen.“

 

Krieg gegen das Auto – Krieg gegen die deutschen Arbeitnehmer

 

Heute müssten eigentlich auch Robert Habeck und Annalena Baerbock wenigstens hinter vorgehaltener Hand zugeben, dass der Atomausstieg gerade auch aus ihrer Sicht ein schwerer und geradezu unverzeihlicher Fehler war, denn die Nuklearenergie liefert eine sichere Stromversorgung bei annähernder CO2-Neutralität. Doch statt die Verantwortung für solch dramatisch falsche Weichenstellungen einmal anzuerkennen und innezuhalten, fordern die Grünen heute vehementer denn je den Rückbau der gesamten deutschen Industriegesellschaft. Sie wollen damit Deutschlands Weg in die industrielle Moderne zurücknehmen, der im 19. Jahrhundert begann, dem das Land Wohlstand und Fortschritt und die ganze Welt bahnbrechende Erfindungen und Fortschritte verdankt. Die Axt wird dabei ausgerechnet an der Wurzel der deutschen Schlüsselindustrie, nämlich der Automobilbranche, angelegt. Die möglichen Folgen könnten dramatisch sein, wie in dem Kapitel „Krieg gegen das Auto“ beleuchtet wird. Der von der Politik forcierte Ausstieg aus Verbrennungsmotoren zugunsten von Batterieautos ist ein ähnlich weitreichender und riskanter Schritt wie der gleichzeitige Ausstieg aus der Kohle- und Atomenergie. Hier – wie auch auf einigen anderen Politikfeldern – scheint Tübingens Oberbürgermeister Boris Palmer der einzige „Realo“ seiner Partei zu sein, wenn er anmerkt: „Wenn der Verbrennungsmotor morgen abgeschaltet wird, ist Baden-Württemberg ein Sanierungsfall wie das Ruhrgebiet nach dem Ende von Kohle und Stahl.“ Der Kahlschlag, der sich schon jetzt in den sich häufenden Meldungen von Massenentlassungen bei Automobilherstellern und ihren Zulieferern ankündigt – und der in dem Heft durch eine Graphik plastisch gemacht wird, die veranschaulicht, dass fast alle deutschen Bundesländer vor einer dramatischen Job-Krise stehen ‒, könnte sich auch auf umweltpolitischer Ebene als verhängnisvoll erweisen. Die Branche hat in den letzten Jahrzehnten nämlich schon äußerst emissions- und verbrauchsarme Modelle entwickelt, während die Herstellung eines E-Autos immer noch eine Öko-Sünde ersten Ranges ist, wenn man den Ressourcenverbrauch, die Freisetzung von Giften wie auch die Rahmenbedingungen bedenkt, unter denen es entsteht. Besonders verhängnisvoll ist dabei die „Verschwörung gegen den Diesel“, die Carl Reinhold in einem eigenen Beitrag behandelt. Eigentlich könnte der erhöhte Absatz von Autos mit Dieselmotoren ebenso wie der Betrieb von Atomkraftwerken ein Königsweg sein, um schnell CO2-Emissionen zu sparen – doch stattdessen werden die Autos mit Hilfe absurder Fahrverbotsdebatten von den Straßen gefegt. Reinhold beleuchtet in seinem erhellenden Beitrag insbesondere die Hintergründe des VW-Dieselgate-Skandals in den Vereinigten Staaten, der – wie sich auf dramatische Art und Weise immer stärker erweist – zum Genickbruch für eine ganze Branche werden sollte.

 

Mit Flatterstrom in den Blackout

 

Weitere Texte befassen sich mit den Defiziten von batterieelektrisch betriebenen Fahrzeugen und mit der Sklaven- und Kinderarbeit, unter der das zum Bau der Batterien notwendige Kobalt in Afrika gefördert wird. Der AfD-Bundestagsabgeordnete Dirk Spaniel, der selbst früher lange in führender Funktion als Entwickler beim Dainmler-Konzern arbeitete, richtet seinen Blick auf die immer weitere Verschärfung der Stickstoffdioxid- und Kohlenstoffdioxidgrenzwerte, mit denen dem Verbrennungsmotor der Garaus gemacht werden soll, und Martin Müller-Mertens nimmt die „Deutsche Umwelthilfe“ unter die Lupe. Eine in ihren Auswirkungen fatale „Revolution von oben“ stellt natürlich auch die sogenannte Energiewende dar. Das Politgroßprojekt, das an die planwirtschaftlichen Experimente der Länder des früheren Ostblocks erinnert, war von Anfang an völlig falsch angelegt – und droht deshalb nun zum Sargnagel nicht nur des Wirtschaftsstandorts Deutschland, sondern der Energiesicherheit des Landes schlechthin zu werden. Die politisch motivierte Unterscheidung zwischen dem „guten“ Ökostrom aus Solarenergie, Windenergie, Wasserkraft, Biomasse, Geothermie und Deponiegas und dem „bösen“ Kohle- und Atomstrom führte zu volkswirtschaftlichen Fehlkalkulationen in einem geradezu sowjetesken Ausmaß. Für ersteren wurde im am 1. April 2000 in Kraft getretenen „Gesetz zur Energieeinspeisung aus erneuerbaren Energien“ (EEG) eine feste und über 20 Jahre garantierte Vergütung sowie eine Priorität vor allen anderen Erzeugungsarten festgelegt, letzterer galt von nun an als Auslaufmodell. Da der Grünstrom aber aus zwingenden Gründen ‒ da die Sonne in der Nacht in Deutschland überall nicht scheint und auch die Windverhältnisse in Küstennähe häufig sehr ähnlich sind – nur sehr ungleichmäßig erzeugt werden kann, kommt Deutschland dem Blackout jedes Jahr ein Stückchen näher. Das Kapitel zur missratenen Energiewende beleuchtet alle relevanten Aspekte dieser Frage – von dem auf tönernen Füßen stehenden Windradboom bis hin zur Renaissance der Atomenergie in fast allen westlichen Industriestaaten und insbesondere in Osteuropa.

 

Woher kommt der Erfolg der Grünen?

 

Weitere Kapitel des Heftes widmen sich der Klimareligion, die sich rund um die Ikone Greta Thunberg rasant entwickelt, sowie den Grünen als der politischen Speerspitze der Befürworter einer Öko-Diktatur. Deren „Griff nach der Macht“, den Chefredakteur Jürgen Elsässer in einem langen Text ausführlich analysiert, ist durch ein Zusammenspiel vieler Faktoren – dem aus der Sicht vieler Wähler attraktiven Führungspersonal, der Krise der SPD sowie dem Oppositionsimage, von dem die Ökopaxe zehren – nun erstmals in der Geschichte der Bundesrepublik möglich geworden, und könnte tatsächlich mit dem Einzug eines Grünen ins Kanzleramt enden. Die neue Ausgabe von COMPACT-Spezial bietet nun in gewohnt komprimierter und überzeugender Form die Gegenargumente gegen eine solche Machtergreifung, die wohl fürchterliche Folgen nicht nur für die deutsche Wirtschaft, sondern die ganze Gesellschaft haben würde. Besonders hinzuweisen ist noch auf ein langes Interview mit dem Fachmediziner Dr. Hans Drexler sowie einen Beitrag der früheren „Tagesschau“-Moderatorin Eva Herman zum Krieg der Generationen.

 

COMPACT-Spezial 22: „Öko-Diktatur: Die heimliche Agenda der Grünen“, 84 Seiten, mit vielen Graphiken und Bildern, 8,80 Euro, zu bestellen unter www.compact-shop.de.




Der Hype ist beispiellos: Nachhilfe für Klimajournalisten

Die Süddeutsche Zeitung hatte am 24. Juli 2019 gemeldet, „Die von Menschen verursachte globale Erwärmung ist beispiellos“, eine kritische Betrachtung ist hier auf KalteSonne und hierauf EIKE zu finden.

Und t-online meldete am 25.07.2019: „Russland kann nicht mehr alles löschen: „Beispiellose“ Waldbrände in der Arktis beunruhigen Forscher“.

Zitat aus diesem Artikel mit Hervorhebungen:

In der Arktis und anschließenden Regionen toben Forschern zufolge Waldbrände in einer bislang nicht gemessenen Zahl. In Alaska, Kanada und Sibirien gebe es Dutzende Brandherde, teilte das von der EU finanzierte „Copernicus Atmosphere Monitoring Service“(Cams) im britischen Reading mit. Auch wenn Waldbrände im hohen Norden im Sommer immer wiedervorkommen, sei die Anzahl um ein Vielfaches höher als in den Vorjahren.“

Das Copernicus-Netzwerkkennen wir ja schon vom Niedergang der seriösen Wissenschaft. Und auf „lernhelfer.de“ können wir unter dem Stichwort „Waldbrände in der borealen Nadelwaldzone“ einen Blick in die nichtalarmistische Realität der borealen Wälder werfen, Zitat mit Hervorhebungen:

Nadelwälder vom Taigatyp sind die dominierende Vegetationsformation der kaltgemäßigten Klimazone. Die Baumschicht wird entweder von Fichten, Kiefern, Lärchen oder Tannen gebildet. Untergeordnet gehören Laubhölzer zum Baumbestand (Birken, Pappeln, Weiden, Erlen, Eschen). Moose und Flechten bedecken meist die Bodenoberfläche. Da die Zersetzung der Streu sehr lange dauert, reichern sich häufig mächtige Rohhumusdecken auf dem Boden an. Deshalb ist der Nährstoffkreislauf Pflanze-Boden-Pflanze entsprechend verlangsamt. Durch die häufig beobachtbaren Taigabrände werden einerseits jährlich etwa 80000 km² Taigawald vernichtet, andererseits aber wird durch das Feuer das Nährstoffangebot aus der lebenden und toten Biomasse beschleunigt freigesetzt und für den Neuaufbau von Biomasse wieder bereitgestellt. Deshalb werden Waldbrände auch nicht mehr als Umweltkatastrophen betrachtet.“

Also, liebe Klimajournalisten, wenn Ihr keinen solchen Papa wie Charlys Freund haben solltet, dann schaut doch einfach mal auf „lernhelfer.de“ vorbei…

Und auch zum „nature“-Wunder von Bern gibt es Neuigkeiten zu vermelden, nämlich die Geburt von eineiigen wissenschaftlichen Zwillingen:

  1. Berner Veröffentlichung: “No evidence for globally coherent warm and cold periods over the preindustrial Common Era”

Autoren: Raphael Neukom, Nathan Steiger, Juan José Gómez-Navarro, Jianghao Wang & Johannes P. Werner

Erschienen auf “nature”:         24 July 2019

Internetreferenz: https://www.nature.com/articles/s41586-019-1401-2.epdf?

referrer_access_token=F2Odi5FkerMRhvWSRfje-9RgN0jAjWel9jnR3ZoTv0OFAuvUf3smNPgQh_x6w3tkX-JXRoLf0zBLgBVwxe-KouU3GRLUbSDwlrsJaFrSIvue2cGYyOLoP1jI4H495KtyO2fjlVG-EKGwwTfIisLdwZfHILAMDaaOWW-d1D-2tFLcuZoduWWdjvFz5MuwqhNmr3uGYqEw1DIItEFZ8L_vGQv4lbhP7p07jg2vW3kdLZr55ZS69XzxBuWC_9SZR4or_Be0LpY8x41mPQZCUAGTgQ%3D%3D&tracking_referrer=www.sueddeutsche.de 

  1. Berner Veröffentlichung: “Consistent multidecadal variability in global temperature reconstructions and simulations over the Common Era”

Autoren: PAGES 2k Consortium

(= Raphael Neukom, Luis A. Barboza, Michael P. Erb, Feng Shi, Julien Emile-Geay, Michael N. Evans, Jörg Franke, Darrell S. Kaufman, Lucie Lücke, Kira Rehfeld, Andrew Schurer, Feng Zhu, Stefan Brönnimann, Gregory J. Hakim, Benjamin J. Henley, Fredrik Charpentier Ljungqvist, Nicholas McKay, Veronika Valler & Lucien von Gunten)

Erschienen auf “nature”: 24 July 2019

Internetreferenz:                     https://www.nature.com/articles/s41561-019-0400-0.epdf?
referrer_access_token=MSmJJn32_HfXedx7NdWlktRgN0jAjWel9jnR3ZoTv0N7bTxBqLecWapiK43Tv3o5PzlP3yU4M1aQfVsGAWcU8hAbkMnJvoUiH886GbPMiVe022ISWAeoChP3Qq_Gt6jprCUM4W5-EMoYm56z1CGLQknj0EOohqgyidLWgHd7vTsA9QxQZmVSdY7eKCMbQIaUoHgIuis5f9NC33YpNXHVtKKf_nibHrvR7qfxeGX86RQxgl6DdfnOXc8Ttp_lrO2ASXQ7F4aZCB7oLwYB9vhoSBbTZvpv_c-lSGOYfTjCHphjnmaet1Q9T8DVjvF1kMH8WSUnsmd6Vb539nHq9xXHKw%3D%3D&tracking_referrer=www.theguardian.com

Das ist nun wirklich beispiellos:

Zwei sich gegenseitig bestätigende Veröffentlichungen auf dem Datensatz des PAGES 2k Consortiums wurden von demselben Lead-Autor zum selben Zeitpunkt auf „nature“ veröffentlicht. Der öffentliche Zugriff auf Neukom et al. (2019) wurde offenbar von der Süddeutschen gesponsert, während der Guardian offenbar den Zugriff auf den Pages2k-Artikel gesponsert hatte…

 




Juli 2019 in Deutschland: Ein überraschender Temperatur-Rückblick

Trotz der Hitzerekord-Tage am Ende des Monats liegt der Juli 2019 im vieljähri­gen Rückblick über insgesamt 30 Jahre nur im oberen Mittelfeld auf Platz 11.

Mit nur leicht überdurchschnittlicher Mitteltemperatur war der Juli 2019 in Deutschland z. T. deutlich weniger heiß als die 10 Jahre:

2018, 2015, 2014, 2013, 2010, 2006, 2003, 1995, 1994, 1990.

Juli 2019 – Mitteltemperatur in Deutschland –

Abweichung vom Durchschnitt 1989 – 2018

(Quelle: Wetteronline.de, 1. 08. 2019)

Und das gilt sogar weltweit. Wie der Klimaforscher und Satelliten Experte Dr. Roy Spencer soeben mitteilte

July 2019 Was Not the Warmest on Record




Spiegel Online über Dürre: Beim Faken erwischt?

 

Das war der Trick. Da wir das augenscheinlich gefakte Originalfoto von SPON aus Copyright-Gründen nicht zeigen können, hier ein vergleichbares Arrangement: Eine verdorrte Pflanze im Vordergrund, dahinter ganz verschwommen das Feld. Man hatte jedoch vor lauter Eifer übersehen, dass die Blüten im unscharf gehaltenen Hintergrund gesund und saftig aussehen (Foto: Autor)

„Ein Temperatur-Höchstwert von 42,6 Grad und eine Trockenheit „katastrophalen Ausmaßes“: Der Juli 2019 war in Deutschland deutlich zu heiß. Die Werte des Wetterdienstes sind besorgniserregend“, so begann im Spiegel Online (SPON) eine Meldung vom 30.7. 2019 unter dem Titel „Der Juli war zu heiß, zu trocken und zu sonnig“. Dabei beruft man sich auf eine vorläufige Monatsbilanzdes Sprechers des Deutschen Wetterdienstes (DWD), Andreas Friedrich. Als erstes wird natürlich der in Lingen gemessene Temperaturrekord von 42,6 °C angeführt. „Das Überschreiten der 40-Grad-Marke war bisher eine Seltenheit. Vor 2019 geschah das laut dem DWD überhaupt erst zehn Mal, seitdem systematisch Temperaturen erfasst werden. Am vergangenen Donnerstag aber haben die Meteorologen diesen Wert gleich an mehr als 20 Stationen registriert. Wir hatten an einem Tag das, was in Deutschland in 130 Jahren nicht passiert ist. Das ist so eindeutig, dass es für mich als Meteorologen schon beängstigend ist“, so Andreas Friedrich.

Übertreiben, wo es nur geht

Der früher einmal seriöse DWD hat in letzter Zeit immer häufiger mit gezielten Panikmeldungen aufgewartet, aus denen die journalistischen Sprachrohre der Klimahysteriker dann Kapital für hysterische Meldungen ziehen konnten. So am 23. April, als der DWD nach einem trockenen April mit der Meldung hausieren ging: „Hält die Trockenheit an, droht der nächste Dürresommer in Deutschland“. Denn der folgende Mai war dann in Wahrheit kühl und nass, was dem Bauer bekanntlich Scheuer und Fass füllt. Zum „Glück“ für den DWD kam dann nach einer ersten Hitzewelle im Juni, die zunächst in normales Sommerwetter überging, dann noch eine zweite im Juli, welche uns den bekannten Hitzerekord bescherte. Wobei die vom DWD behaupteten 42,6 °C in Lingen von seriösen Klimafachleuten wie Wetteronline,einem der größten meteorologischen Dienstleister in Deutschland, als unrealistisch eingestuft werden. Wetteronline erkennt nur die 41,2 °C aus Duisburg und Tönisvorst an. Ähnliche Vorbehalte gibt es auch von Kachelmann.

DWD: Auf Kriegsfuß mit den Gesetzen der Statistik?

Wobei die Aussage des DWD-Sprechers, dass man „an einem Tag das (hatte), was in Deutschland in 130 Jahren nicht passiert ist“, vor allem eines klar belegt: Man hat dort augenscheinlich keinerlei Achtung vor der Öffentlichkeit. Wetter ist immer chaotisch und unterliegt statistischen Gesetzmäßigkeiten. Deshalb arbeiten beispielsweise Planer für Hochwasserschutz oder für die Auslegung von Großbauwerken gegen Winddruck mit statistisch errechneten Werten wie dem Jahrhunderthochwasser, dem Jahrtausendhochwasser oder gar dem Jahrzehntausendhochwasser. Solche Ereignisse werden halt schon seit bis zu 1.000 Jahren registriert und für die Nachwelt festgehalten, weshalb fast alle Rekordhochwässer der Vergangenheit auch nicht aus der Neuzeit, sondern oft schon aus dem Mittelalter stammen. Temperaturen werden bei uns jedoch erst seit etwa 150 Jahren systematisch und großflächig gemessen. Es ist sogar bezeichnend, dass der DWD-Mann erwähnt, dass das Überschreiten der 40 °C-Marke bisher erst zehn Mal registriert wurde. Das entspricht erstaunlich sauber einem statistischen 10-Jahres-Ereignis. Was wir jetzt hatten, ist für den Statistiker nichts weiter als ein Jahrhundertereignis und keinesfalls „beängstigend“. Steht man beim DWD auf Kriegsfuß mit der Mathematik, in diesem Fall der Statistik?

Reifes Getreide. Während der DWD von einer „Trockenheit katastrophalen Ausmaßes“ redet, erwartet die deutsche Landwirtschaft für dieses Jahr eine Erntemenge, die nur um 2 %unter dem Durchschnitt der Jahre 2013 bis 2017 liegt (Foto: Autor)

Das Märchen von einer „Trockenheit katastrophalen Ausmaßes“

Auch die zweite Aussage des DWD, die angeblich katastrophale Trockenheit, kann man getrost als bewusste Übertreibung bezeichnen. Sicherlich hatten wir im Juni und Juli mit durchschnittlich jeweils 55 l/m2weniger Regen als normal, aber gegenüber den langjährigen Mittelwerten von 85 mm (Juni) und 78 mm (Juli) sind das jeweils nur 35 % (Juni) bzw. 30 % weniger. Wer im Zusammenhang mit dem bisherigen Verlauf des Jahres 2019 von Trockenheitsrekorden spricht, macht sich angesichts früherer Jahre wie 2003 nur lächerlich. Eine Tabelle der Trockenheitsrekorde in Deutschland offenbart eine kunterbunte Sammlung von Jahreszahlen zwischen 1892 und 2003.

Die unbestechliche Realität zeigt sich am einfachsten, wenn man sich die Erntestatistik für das Jahr 2019 ansieht. Einer Pressemitteilung des Deutschen Bauernverbands (DBV) zufolge wird aktuell bei Getreide eine Erntemenge von 47 Mio. Tonnen erwartet. Das sind nur 1 Mio. Tonnen oder etwa 2 % weniger als der Durchschnitt der Jahre 2013 bis 2017. Dass die Bauern damit nicht glücklich sind, ist in diesem durch Agrarsubventionen geprägten Wirtschaftszweig kaum verwunderlich und sollte nicht übermäßig ernst genommen werden. Genausowenig wie die entsprechenden Klagen der Waldbesitzer, die fatal an die Waldsterbens-Propaganda der 1970er bis 1990er Jahre erinnern.

 

Wann bricht die Wirtschaft ein?

Inzwischen zeigen sich in der deutschen Wirtschaft immer deutlichere Alarmzeichen. Nach der Energieerzeugung geht es jetzt auch mit der Automobilindustrie immer schneller bergab. Grund: Die industriefeindliche Politik, die von den Grünen inzwischen auf alle anderen etablierten Parteien abgefärbt hat. Schon in den 80ern hat die Angstmache vor dem angeblichen „Waldsterben“ das grüne Panikorchester an die Schalthebel der Macht gespült. Die sitzen heute überall in den Institutionen bis hin zum DWD und machen einen auf „wir sind die Wissenschaft“. Dabei ist es in Wirklichkeit ganz einfach, ihre Angstmache zu entlarven. Man braucht nur den äußerst praktischen Suchmaschinen die richtigen Fragen zu stellen. Leider sind unsere Wissenschaftler inzwischen fast schon flächendeckend dazu übergegangen, die Wahrheit „kreativ“ zu verbiegen und unsere Journalisten sind nur noch dann investigativ, wenn es ihnen ideologisch in den grünroten Kram passt. Ansonsten sind sie eifrigst damit beschäftigt, unseren Kindern Unsinn zu erzählen, für dessen Kosten diese dann ein ganzes Leben lang teuer werden bezahlen müssen. Denn wenn Merkel und ihr Klimakabinett in zwei Jahren mit Deutschland „fertig haben“, dürften die Lebenshaltungskosten für das Volk regelrecht explodiert sein. Und die Arbeitslosigkeit sich vermutlich wieder in Richtung zweistelliger Zahlen bewegen.

 

 




Interesse an EIKE NEWS steigt und steigt! Im Juli bereits knapp 1,1 Mio Seitenaufrufe

So verzeichneten wir im Juni bereits 1 Mio Aufrufe und im Juli 1,1 Mio.

Offensichtlich erfreuen sich nicht nur NoEducation for Friday Jüngerinnen (vulgo: Friday for Future), so gut wie allesamt aus besserverdienenden Haushalten und hoch organisiert, besonderer öffentlicher Beachtung. Diese wird vornehmlich durch vorrangige und lobhudelnde Berichterstattung der Öffentlich Rechtlichen angetrieben. Aber es entwickelt sich auch eine ständig wachsende, machtvolle und lautstarke Gegenöffentlichkeit.  Sie wird von den freien Blogs, wie EIKE einen betreibt, angeboten.

Wir danken allen Lesern und Leserinnen für Ihr großes Interesse und bitten Sie unsere wichtige Aufklärungsarbeit auch weiterhin mit Aufmerksamkeit und Spenden zu unterstützen.

Ausschnitt aus dem Sommerinterview mit der GrünInnen Vorsitzenden Annalena Baerbock

Nachdem die GrünInnen Vorsitzende Annalena Baerbock zuvor schon – „alles durchgerechnet“ – das Strom-Netz als Speicher erfunden hatte, gab sie im Sommerinterview der ARD erneut eine Kostprobe für ihre allumfassende Kompetenz. Und sorgte einmal mehr für Aufsehen. Dort erläuterte sie dem an Ihren Lippen hängenden Interviewer Oliver Köhr, dass sie gerade mal eben ein neues Element gefunden hatte – dem sie flugs den Namen Kobold gab. Um gleich anschließend, typisch grün  – in echter, ständiger Sorge um unsere Umwelt – und fast im selben Atemzug, zu versprechen, sogleich seine Verfügbarkeit zu überprüfen, dessen baldigen Ersatz anzukündigen, dann aber kontrolliertes Recycling zu verlangen.

Nachdem es bisher mit der Erfindung des Netzspeichers aus unerklärlichen Gründen zum Nobelpreis für Physik noch nicht ganz gereicht hat,  dürfte ihr nunmehr der Nobelpreis für Chemie sicher sein, aber uns, noch viel, viel mehr Leser bescheren. Weiter so! wollen wir ihr daher zurufen.




Dieselfahrverbote in Stuttgart – ABZOCKEN, ABZOCKEN, ABZOCKEN

Autofahrer wehren sich mit einer Verfassungsbeschwerde gegen das Dieselfahrverbot in Stuttgart. Sieben Autofahrer und ein Autohändler aus dem Großraum Stuttgart reichten Beschwerde beim Bundesverfassungsgericht in Mannheim Karlsruhe ein. Sie hatten ursprünglich vor dem Verwaltungsgerichtshof in Mannheim mit Eilanträgen die Dieselfahrverbote im Stuttgarter Stadtgebiet aufzuheben versucht. Doch die Verwaltungsrichter in Mannheim ließen sie auch in zweiter Instanz abblitzen.

Die Autofahrer hatten vor allem die Beschilderung der Fahrverbote kritisiert und argumentiert, dass es keine Rechtsgrundlage für die Zusatzschilder gebe. Sie seien zudem nicht leicht ablesbar, dass aber fordere der Gesetzgeber. Auf den Schildern, die an den Ortseinfahrten zu Stuttgart zusätzlich an montiert wurden, steht sehr klein zu lesen: »Diesel (außer Lieferverkehr) erst ab Euro 5 / V frei«. Rechtsanwalt Martin Pagenkopf betreut die Verfassungsbeschwerde und erklärte, das Urteil habe so viele Schwächen, dass man es so nicht in der Welt stehenlassen dürfe.

Derweil versucht das Land, mit Filtern die Luft in Stuttgart sauber zu halten. Die ist zwar sauber, wie die Daten des Umweltbundesamtes ausweisen; aber für einen Streich, gegen den die Schildbürger mit ihren Taten wie kluge, rational handelnde Leute wirken, ist man in Stuttgart immer zu haben.

Am Stuttgarter Neckartor stehen 17 »Filter Cubes« Modell 3. Das soll laut Horrorbotschaften der »gefährlichste« Platz in Deutschland sein – gemessen jedenfalls mit einer manipulativ aufgestellten Messstelle. In diesen viereckigen Kästen sind Filter mit Aktivkohle eingebaut, die neben Feinstaub auch Stickstoffdioxid aus der Luft binden sollen. Diese Humbug-Staubsauger saugen Außenluft an und blasen sie durch die Filter im Inneren. Hersteller Mann + Hummel in Ludwigsburg, der diese Filterwürfel entwickelt hat, verkündet: »Bereits seit Ende letzten Jahres werden die Filter Cubes III von MANN+HUMMEL zur Senkung der Feinstaubbelastung am Stuttgarter Neckartor eingesetzt. Die bisherigen Auswertungen haben gezeigt, dass sie die Konzentration vor Ort um 10 bis 30 Prozent reduzieren können.«

Gut, der Firma geht es gerade nicht übertrieben prächtig. 1.200 Mitarbeiter sollen entlassen werden. Sie produziert Filter unter anderem für die Autoindustrie und dort werden sie im Augenblick eher weniger benötigt. Es deutet sich in der Autoindustrie eher eine krachende Katastrophe an, da ist es gut, neue Märkte zu erschließen. Auch wenn die noch so sehr von hellem Irrsinn pur zeugen: Der Grenzwert für Stickstoffdioxid in der Luft beträgt 40 Mikrogramm pro Kubikmeter Luft. Das sind 40 millionstel Gramm NO2 in einem Kubikmeter Luft. Dieser Kubikmeter Luft wiegt ein Kilogramm, bedeutet: 40 milliardstel Gramm NO2 als Grenzwert. Die Filter sollen also einige wenige Moleküle NO2 in der Luft suchen.

Man kann es als Wunder der Messtechnik ansehen, dass so wenig Moleküle überhaupt detektierbar sind. Nur: Die Messtechnik weist natürlich Ungenauigkeiten auf. Die Landesanstalt LANUV in Nordrhein-Westfalen, die für die Zertifizierung der Messstellen Deutschland zuständig ist, gibt in ihren Prüfberichten die Toleranz von 15 Prozent an. Dies bedeutet, dass es messtechnisch unmöglich ist, zu sagen ob 34, 40 oder 46 Mikrogramm NO2 pro Kubikmeter Luft vorhanden sind.

Genau das aber führt jenes höchst umstrittene Abmahnwesen Deutsche Umwelthilfe ins Feld, wenn sie Städte auf saubere Luft verklagt und darauf dringt, jenen von 40 µg/Kubikmeter Luft einzuhalten. Das ist übrigens dicht am natürlichen NO2 Gehalt in der Luft, der sehr stark schwankt und um die zehn bis 20 µg/Kubikmeter Luft beträgt.
Es ist also reine Irreführerei und Scharlatanerie, Bewohnern einer Stadt einzureden, sie lebten in großer Gefahr, wenn der Grenzwert elfmal im Jahr kurzzeitig überschritten wurde. Den angegebenen Jahresmittelwert von 71 Mikrogramm pro Kubikmeter Luft am Neckartor nimmt mittlerweile auch die Landesregierung Baden-Württemberg nicht mehr für bare Münze. Er sei, wie Christoph Erdmenger, Abteilungsleiter für nachhaltige Mobilität im Verkehrsministerium, sagte, nicht mehr repräsentativ, weil er sich zu stark von umliegenden Messwerten unterscheide. Im Klartext: Die Station ist so manipulativ aufgestellt, dass die Werte selbst dem Verkehrsminister nicht mehr geheuer sind.

In Amerika gelten 103 µg/Kubikmeter Luft, am Arbeitsplatz 950 und leichte Reizungen des Gewebes sind erst bei Konzentrationen von mehr als 4.000 oder 8.000 µg/Kubikmeter Luft im Labor nachgewiesen worden.

Der Vereinsgeschäftsführer, Vielflieger Jürgen Resch, fordert nun von den Autokonzernen schnelle Hilfe für die von den kommenden Fahrverboten betroffenen Dieselfahrer. »Die DUH steht mit den großen Herstellern zur Frage der Umsetzung der Nachrüstung erstmals in einem ernsthaften Dialog«, so die DUH scheinheilig.
Daher weht auch der Wind. Nicht um die Gesundheit der Menschen sorgt sich diese Art Verein, sondern um seinen Geldbeutel. Nicht umsonst hat früher auch ein Hersteller von Abgasfilteranlagen sich als Spender des Vereins hervorgetan. Irgendwann muss sich doch diese Investition auszahlen. Das Kraftfahrtbundesamt hat das erste Abgasnachrüstssystem für Deutschland zugelassen. Ein Millionengeschäft wartet, um ein Nichts in der Luft zu beseitigen.

https://www.stadtklima-stuttgart.de/index.php?luft_messdaten_ueberschreitungen

Geht noch mehr Rosstäuscherei?

Der Artikel erschien zuerst bei TE hier




Die Verzweiflung der Klima-Apokalyptiker

Denn die unglaublich teuren Maßnahmen, die man uns als Mittel zur „Rettung des Planeten“ aufgeschwätzt hat, erweisen sich zunehmend als wirkungslos. Im Volk wächst die Skepsis, und sie könnte bald in Wut umschlagen. Obwohl in das Groß-Betrugsprojekt „Energiewende“ inzwischen bereits mehr als eintausend Milliarden € gesteckt wurde, hat man es noch nicht einmal geschafft,mehr als nur knapp 5 %des deutschen Primärenergiebedarfs auf „CO2-frei“ umzustellen.

Das Schlagzeilen-Sperrfeuer von „Spiegel Online“

Der „Spiegel“ und seine Online-Präsenz „Spiegel Online“ (SPON) haben sich schon seit Jahren als Sturmgeschütze der Klimaapokalyptiker hervorgetan. Zwar musste man den notorischen Lügenbold Claas Relotius kürzlich rauswerfen, weil er es allzu sehr übertrieb und man seine Lügerei nicht mehr unter den Teppich kehren konnte. Doch seine Brüder und Schwestern im Geiste sind bei SPON weiterhin mit Eifer bei der Sache. Da jetzt schönes Wetter herrscht, muss dringend die Freude darüber verdorben werden. Statt die Sonne zu genießen, soll man deswegen ein schlechtes Gewissen bekommen. Allein am Donnerstag, dem 25.7.2019, waren bei SPON nicht weniger als zwölf Meldungen zum Thema „Klima und Hitze“ zu finden. Die aktuellen Hundstage scheint man als ideales Mittel zu sehen, uns nochmals so richtig eine „heilige Angst“ vor der angeblich drohenden menschengemachten Klimakatastrophe einzujagen. Dieser, so die Botschaft, können wir nur entgehen, wenn wir auf wesentliche Teile unseres Lebensstandards und unseres Wohlstands verzichten. Hier entsprechende SPON-Schlagzeilen von 17 Uhr:

–           Klimawandel Die neue Heißzeit

–           41,5 Grad – deutscher Hitzerekord im Emsland gemessen

–           Folgen des Klimawandels Gestern ein Paradies, heute verdorrt, morgen unbewohnbar

–           Deutsche Physikerin Friederike Otto in Oxford Zu Risiken des Klimawandels fragen Sie diese Frau

–           „Zeit, zu rebellieren“Greta Thunberg auf neuem Song von The 1975 zu hören

–           Aktionsplan für extreme TemperaturenGrüne fordern Recht auf Hitzefrei bei Freiluftjobs

–           Nordrhein-WestfalenDeutscher Wetterdienst bestätigt Hitzerekord von Geilenkirchen

–           Bahnkunden können ihre Fahrt kostenlos wegen Hitze verschieben

–           Weser zu warm – AKW Grohnde wird abgeschaltet

–           HitzeÖsterreich malt Schienen weiß an

–           HitzewelleSo holen Autofahrer am meisten aus der Klimaanlage raus

–           Mach mal Siesta, Deutschland!

 

Im Bemühen, soviel Panik wie möglich zu erzeugen, wurde auch ein Beitrag über Hitze in Australien gebracht (Die neue Heißzeit). Hier sollten Leser schon bei den ersten Zeilen stutzig werden, denn dort steht „Eis in Amerika, Gluthitze in Australien…“. Moment mal? Gluthitze in Australien? Haben die dort nicht gerade Winter? Und tatsächlich, beim Blick auf das Datum zeigt sich, dass dieser reißerisch mit der Großaufnahme eines augenscheinlich hilflos in einem Schlammloch feststeckenden Kängurus aufgemachte Artikel schon am 1. Februar 2019 veröffentlicht wurde. Mangels sonstigen Materials und weil das arme Känguru ja auch so geeignet ist, Emotionen anzusprechen, wurde er wohl jetzt mal eben schnell aus dem Archiv geholt und abgestaubt…

 

Was unter dem Teppich bleiben soll – der Motor der Energiewende spotzt und stottert

Schon nach wenigen Stunden von der Hauptwebseite des SPON verschwunden war dagegen eine andere Meldung, die den Machern offensichtlich eher peinlich war: Die deutsche Energiewende ist merklich aus dem Tritt geraten, wie unter der Schlagzeile „Stockende EnergiewendeNur 35 neue Windräder in sechs Monaten“ berichtet wurde. Und genau hier liegt des Pudels Kern und der Grund für die schweren PR-Geschütze in Sachen Klima und Hitze: Die dem Volk angepriesene „Energiewende“ ist schon jetzt trotz aller politischen und medialen Unterstützung auf Grund gelaufen und kommt nicht voran. Da die Anlagen der ersten Generation jetzt so langsam aus der Förderung laufen und stillgelegt werden, reicht der langsamer werdende Ausbau bei weitem nicht mehr aus, um die vollmundig verkündeten Ziele von 80-95 % „Erneuerbaren bis 2050“ zu erreichen. Die Kosten sind bereits jetzt völlig aus dem Ruder gelaufen, und die technischen Probleme der drohenden Unterversorgung und damit von Blackouts bei Dunkelflaute nehmen mit jedem stillgelegten Kern- und Kohlekraftwerk zu. Wobei die diesbezüglichen Kosten und Risiken nicht linear, sondern exponentiell zunehmen, je mehr Solar- und Windenergie die Netze durch völlig am Bedarf vorbei erfolgende Stromproduktion belasten. Damit rückt der Tag immer näher, da Merkel und ihre Handlanger den Offenbarungseid in Sachen „Klimarettung“ werden leisten müssen. Also machen die Verantwortlichen das, was alle Hochstapler tun, um sich vor dem unvermeidlichen Ende zu retten: Sie stapeln immer höher, setzen immer mehr und immer dreistere Lügen in die Welt und hoffen, dass ihr Kartenhaus zumindest jetzt noch nicht zusammenbricht. Für die Geschädigten – und das sind wir alle – wird es dadurch nur umso schlimmer, denn der Schaden, der bereits jetzt immens ist und die Billionen-Größenordnung längst überschritten hat, wächst ebenfalls exponentiell. Im Volk wächst inzwischen immer mehr die Skepsis, wie auch die rapide in die Höhe gehenden Aufrufe der EIKE-Webseite belegen. Und eine wachsende Zahl von Mitbürgern beginnt sich vertieft über die Hintergründe zu informieren, wie sich an der massiv steigenden Nachfrage nach dem Buch „Strom ist nicht gleich Strom – warum die Energiewende nicht gelingen kann“ zeigt.

 

Die CO2-Lüge und die „Energiewende“-Lüge werden gemeinsam fallen

Das aktuelle Propaganda-Trommelfeuer in Sachen Klimarettung ist so massiv, dass insbesondere Menschen, die noch den Ostblock kannten, unschwer merken, was hinter diesem Getöse steckt. Deshalb ist die Skepsis gegenüber der CO2-Panikmache in den neuen Bundesländern auch soviel größer als im Westen. Im Moment versuchen die Verantwortlichen deshalb mit aller Macht, dort drohende Wahlschlappen zu verhindern und die volksfeindlichen Beschlüsse des „Klimakabinetts“ noch schnell durchzudrücken. Das ist der eigentliche Hintergrund des medialen Dauerfeuers mit schwersten Greta-Kalibern. Es steht zu befürchten, dass es ihnen diesmal noch gelingt. Doch die Physik lässt sich nicht überlisten, und mit dem Zusammenbruch der „Energiewende“ wird auch die CO2-Lüge – der einzige vorgeschobene Grund, warum wir eine (noch) funktionierende Stromversorgung verschrotten sollen – auf dem Kehrichthaufen der Geschichte landen.

 

 




Die klimareligiöse Transfer-Union

Zitat mit Hervorhebungen aus diesem BILD-Artikel:

Die EU-Kommission fordert von Deutschland Nachbesserungen bei der Düngeverordnung binnen zwei Monaten! Wie der Staatssekretär im Bundesumweltministerium, Jochen Flasbarth, am Donnerstag sagte, hat die Bundesregierung ein Mahnschreiben aus Brüssel erhalten, in dem die Kommission mit einem Zwangsgeldverfahren droht.
Sollte die Regierung die Kommission nicht innerhalb der Frist von ihren Vorschlägen zur Nitrat-Belastung des Grundwassers überzeugen können, drohen Deutschland Zwangsgelder von bis zu rund 850 000 Euro pro Tag.“

Inzwischen ist diese Meldung über alle Medien gelaufen. Aber was sind die Hintergründe dafür?

Der Autor hatte bereits am 14. August 2017 hier auf EIKE den Artikel „Die ökologische Korrektheit hat offenbar sehr kurze Beine“ veröffentlicht und dort auf die deutliche Reduzierung des deutschen Nitratmessnetzes auf überwiegend belastete Meßstellen hingewiesen:

EU-Berichtszeitraum 2004-2007       EU-Berichtszeitraum 2008-2011

Die nachfolgenden Ausschnittvergrößerungen verdeutlichen den spontanen Verlust von deutschen Meßstellen durch höhere Gewalt innerhalb von zwei direkt aufeinander folgenden EU-Berichtsperioden:

EU-Berichtszeitraum 2004-2007                       EU-Berichtszeitraum 2008-2011

(Ironie an:) Bei der Betrachtung dieser beiden Abbildungen könnte man dem Eindruck erliegen, als seien die fehlenden deutschen Brunnen ins umliegende Ausland geflüchtet (Ironie aus).

Abschließend hatte der Autor in seinem Artikel aus 2017 einige Fragen gestellt und Befürchtungen geäußert, Zitate:

„Was also ist der fachlich fundierte Grund für diese Reduzierung des deutschen EU-Nitratmessnetzes – oder muss man dieser Reduzierung eine tiefere Absicht unterstellen?“

„Haben deutsche Behörden durch die Reduzierung des offiziellen EU-Nitratmessnetzes für den Zeitraum 2008-2011 etwa absichtlich ein offizielles Klageverfahren der EU-Kommission gegen Deutschland provoziert, um dann mit einer von der EU zu fordernden Gegenmaßnahme gesetzlich gegen die ökologisch unerwünschte Massentierhaltung vorgehen zu können?“

„Ein solcher Vorgang kann natürlich nicht ohne eine implizite Zustimmung der EU ablaufen. Denn selbst den Bürokraten der EU muss die skandalöse Reduzierung des deutschen EU-Nitratmessnetzes vom Zeitraum 2004-2007 auf den Nachfolgezeitraum 2008-2011 aufgefallen sein. Damit hätte die EU das Machwerk für den Zeitraum 2008-2011 einfach zurückweisen und auf einer korrekten flächendeckenden Berichterstattung bestehen können. Stattdessen machen hier offenbar die EU-Kontrolleure gemeinsame Sache mit den deutschen Messnetzreduzierern.“

„Am Ende bezahlt der deutsche Bürger die gesamte Zeche dieser ökologischen Amateurveranstaltung, also anteilig die EU-Kontrolleure, das EU-Nitrat-Strafverfahren, die EEG-Subventionen für den Energiemais, das Umweltbundesamt mitsamt seinem eigenwilligen Nitrat-Messnetz und schließlich, nach einer möglichen Einschränkung der Massentierhaltung, auch noch höhere Verbraucherpreise…“

Die Fragen von 2017 sind bisher nicht beantwortet, aber eine der dort geäußerten Befürchtungen ist jetzt also auf bestem Wege. Man könnte einen solchen Vorgang auch als eine langfristig erarbeitete Grundlage zum Transfer von zusätzlichen deutschen Steuergeldern in Form von selbstverursachten „Strafgeldern“ an die EU verstehen. Und damit behält der letzte Satz im Artikel von 2017 weiterhin seine volle Gültigkeit, Zitat:

Also zieh Dich warm an, deutscher EU-EEG-Zahlmichel – oder mach‘ endlich mal Deine Augen auf!




Berner Klimastudie und „nature Wissenschaft“: Klimahysterie-Kreationismus: Das Ende ist nah

Die Ritter der Apokalypse sind in der Schweiz eingetroffen. Nicht mehr lange und die Erde wird im Fegefeuer des menschengemachten Klimawandels schmelzen. Wer nicht zur Beichte war, wird in den ewigen Flammen untergehen. Macht Euch auf, Ihr CO2-Sünder. Geht den Weg der Buße, den Pfad der Reue, die Chaussee des Ablasshandels: Zahlt Steuern auf CO2, hört auf zu fliegen, geht zu Fuß, bleibt zuhause, wartet … und betet, denn das Ende ist nahe.

„Schweizer Forscher entkräften Argument von Klimwandel-Leugnern“, behauptet der Spiegel. Eine kühne Behauptung. Das öffentlich-rechtliche Plagiat der ARD hat die Behauptung übernommenund zum alten Hut weiterentwickelt: „Die Erkenntnisse der Berner Wissenschaftler sind nicht grundlegend neu“. Neu sei, dass die Studie von „Raphael Neukom und sein[em] Team“, die ganze Erde, also Land und Meer, abdecke, so darf Mojib Latif in der ARD ausführen, um dem Leser den Eindruck zu vermitteln, die neue Studie von „Raphael Neukom und sein[em] Team“, sei quasi schon als richtig erkannt, bevor sie veröffentlicht wurde, denn: „Es gab beispielsweise bereits kontinentale Rekonstruktionen, die ebenfalls zeigten, dass die Phasen nicht gleichzeitig waren“. Dieser Satz, von Stefan Brönnimann, den die ARD als „Bonner Wissenschaftler“ präsentiert, ist das, was Stewart Hall „high context language“ genannt hat, ein sprachlicher Niederschlag, den nur verstehen kann, wer das kleine Haus des Bonner Wissenschaftlers bewohnt.

Was uns die ARD und die anderen deutschen Qualitätsmedien heute weismachen wollen ist, dass „Raphael Neukom und sein Team“ etwas bestätigt haben, was es schon als Erkenntnis gab, so dass es keinen Sinn mehr macht, nicht an den menschengemachten Klimawandel zu glauben.

Bekennet Eure Sünden, ihr Ungläubigen, die ihr nicht an den menschengemachten Klimawandels glaubt, tut öffentlich Buße und beantragt die Aufnahme in die Sekte der Kreationisten, die denkt, die Erde sei vom Klima-Gott vor 2000 Jahren geschaffen worden.

Denn, die Datenreihe, auf deren Grundlage „Raphael Neukom und sein Team“ gezeigt haben, dass „sich Warm- oder Kaltzeiten … nie auf der ganzen Welt gleichzeitig“ (Spiegel) entwickelt haben, dass „in früheren Zeiten … Klimaschwankungen vor allem regional und zu unterschiedlichen Zeiten“, nie aber gleichzeitig aufgetreten sind (Tagesschau), sie ist 2000 Jahre lang. Dass die „globale Erwärmung … beispiellos“ ist (Tagesschau) bzw. „Warm- oder Kaltzeiten“ mit Ausnahme von heute „nie auf der ganzen Erde gleichzeitig“ aufgetreten sind, diese umfassenden Behauptungen, sie beruhen auf einer Stichprobe von 0,00004% Erdgeschichte.

Das ist etwas wenig, um dem Ergebnis dieser Studie zu vertrauen.

Aber es gibt noch mehr Gründe, um den Humbug aus der Schweiz nicht zu glauben. Es beginnt damit, dass „Raphael Neukom und sein Team“ gegenüber der Tagesschau und in ihrem Text allen Ernstes ihr Ergebnis damit feiern, dass es „mit sechs unterschiedlichen statistischen Methoden … so vielen wie noch nie“ errechnet wurde. Normalerweise ist die Verwendung mehrerer statistischer Methoden entweder ein Indiz dafür, dass ein vermeintlicher Forscher nach der Methode sucht, die ihm das beste Ergebnis für seine Zwecke liefert, oder es ist ein Indiz dafür, dass der Gaul mit einem Datenfuzzi durchgegangen ist. Wenn man weiß, was man untersuchen will, weiß man auch, welche statistische Methode für die Untersuchung am besten geeignet ist.

Die Ergebnisse der Studie von „Rapahel Neukom und sein[em] Team“, die in Nature Letter unter dem Titel „No evidence for globally coherent warm and cold periods over the preindustrial Commen Era“ veröffentlicht wurden, basieren auf den Daten der Pages 2K Datenbank, in der Ergebnisse unterschiedlicher Methoden, das vergangene Klima zu bestimmen, abgelegt sind, also die Ergebnisse aus der Untersuchung von Eisbohrkernen, aus der Analyse von Bäumen, Fluss- und See-Sedimenten, Gletschern und Korallenriffen. Der Datensatz ist ein Patchwork unterschiedlicher Erhebungsmethoden und somit auch unterschiedlicher Validität.

Als weiteren Datensatz benutzen „Raphael Neukom und sein Team“ den britischen HadCrut4-Datensatz, um eine globales Netz von Temperaturzellen errechnen zu können, simulieren zu können, dem sie die historischen Daten zuspielen. Wir haben vor einigen Tagen beschrieben, was es mit HadCrut4 und anderen Datensätzen, die die Erd-Temperatur abbilden sollen, auf sich hat.

Wenn man nun als Mensch, der mit normalem Verstand ausgestattet ist, von einer Analyse wie der hört, die „Raphael Neukom und sein Team“ durchgeführt haben, dann fällt als eine der ersten Fragen die folgende ein: In welchem zahlenmäßigen Verhältnis stehen Daten von vor 2000 Jahren zu Daten von heute? Es ist offenkundig, dass die Anzahl der Messdaten für die letzten 30 Jahre ein Vielfaches der Anzahl von Messdaten darstellt, die es für das 19. Jahrhundert gibt, geschweige denn für die Mittelalterliche Warmzeit oder die römische Warmzeit. Es ist darüber hinaus leicht einsichtig, dass die Menge der Daten, die für einen Zeitraum zur Verfügung stehen, das Vertrauen erhöht, das man in das hat, was zu dem entsprechenden Zeitraum gemessen wurde. Und für diejenigen, die den HadCrut4-Datensatz kennen, ist es spannend danach zu fragen, wie die Autoren damit umgegangen sind, dass es im HadCrut4-Datensatz viele leere Zellen gibt, für die keine Daten vorliegen, geschweige denn, historische Daten.

Zur Erläuterung: HadCrut4 teilt die Erde in Zellen von je fünf Längen- und Breitgraden Ausdehnung ein. Die Idee ist, für jede dieser Zellen mindestens eine verlässliche Messung zu haben, um die Gesamttemperatur der Erde dann aus der Kombination aller Zellen errechnen zu können. Die Wirklichkeit ist: Viele der Zellen sind schlicht leer, ein Problem, das auch „Raphael Neukom und sein Team“ nicht gelöst haben, wie die folgende Abbildung zeigt:

Oben sieht man in einem stark verzerrten Maßstab, die historischen Messdaten von „Raphael Neukom und sein[em] Team“. Die lustigen Punkte in lila, orange, hellblau, schwarz, dunkelblau und grün stellen die Daten dar, die 2000 Jahre Erdgeschichte abdecken sollen. Das machen sie ganz offenkundig nur für die nördliche Hemisphäre, während die südliche Hemisphäre weitgehend unerschlossen ist. Wenn die Ergebnisse von „Raphael Neukom und sein[em] Team“ verallgemeinerbar wären, dann sicher nicht für die südliche Hemisphäre. Eine weitere Nettigkeit, die aus HadCrut4 resultiert, versteckt sich in den unterschiedlichen „Blauschattierungen“, die die Entfernung der entsprechenden Zelle zum nächsten Messdatum angeben. Wie man sieht, sind die Ozeane nicht nur vom Weltall aus betrachtet blau, sondern auch im Modell von „Raphael Neukom und seine[em] Team“: Es handelt sich um leere Zellen, für die keinerlei Messwerte vorliegen. Die nächsten Zellen, die mit gemessenen Werten gefüllt sind, liegen in der Regel mehr als 3000 Kilometer entfernt.

Aber die Aussagen, die „Raphael Neukom und sein Team“ machen, sie sollen dennoch für die ganze Erde gelten. Die untere der beiden Abbildungen macht noch deutlicher, dass dieser Anspruch an Größenwahnsinn grenzt, denn die Verteilung der Messdaten ist, wie man es erwartet hätte: Je weiter zurück in der Zeit die Autoren gehen, desto spärlicher werden ihre Daten. Nicht wirklich das, was man eine verlässliche Datengrundlage nennt.

Ein Umstand, der auch „Raphael Neukom und sein[em] Team“ bewusst ist, denn sie schreiben:“

„An important caveat of our results is that the spatiotemporal distribution of high-resolution proxy data is inherently unequal and often sparse” (52).

Eine andere Art zu sagen: Die Daten sind Müll, die noch davon abgerundet wird, dass im ganzen Text keine Angaben dazu gemacht werden, wie verlässlich, valide, reliabel denn die Ergebnisse sind, die mit „sechs unterschiedlichen statistischen Methoden … so vielen wie noch nie“, errechnet wurden.

Was das schlechte Gefühl, das man mit Blick auf die Daten hat, zu einem mulmigen Gefühl mit Blick auf die Lauterkeit der Autoren und Peer Reviewer macht, ist das hier:

Die Datenreihe von „Raphael Neukom und sein[em] Team“ beginnt just zu einem Zeitpunkt, zu dem die Erde eine lange Phase der Abkühlung von rund 60 Millionen Jahren durchlaufen hat. Zufall oder bewusste Irreführung?

Für bewusste Irreführung spricht, was „Raphael Neukom und sein Team“ am Ende ihres Beitrags schreiben:

„Moreover, the spatial consistency seen in model simulations over the twentieth Century suggest that anthropogenic global warming is the cause of increased spatial temperature coherence relative to prior eras” (52).

Das ist Junk Science.

Denn „Raphael Neukom und sein Team“ haben keinerlei Maß für den menschlichen Einfluss in ihren Simulationen berücksichtigt. Sie werfen diese politisch-korrekte und wahrscheinlich für die Forschungsförderung relevante Behauptung in den Ring, um denen, die in Redaktionen nur darauf warten, ihr Klimahysterie-Garn weiterzuspinnen, Nahrung zu geben. Und natürlich wird in ARD und Spiegel sofort die CO2-Karte gespielt und behauptet, dass „Raphael Neukom und sein Team“ in ihrer „Studie“ gezeigt hätten, dass menschlicher Einfluss globale Erwärmung zum Ergebnis hat. Das haben Sie nicht. Wenn „Raphael Neukom und sein Team“ überhaupt etwas gezeigt haben, dann ihre Fähigkeit aus Datenlücken und spärlich in Zeit und Raum verteilten Messergebnissen eine konsistent Erzählung zu zimmern, die dem Zeitgeist, der in Redaktionen wütet, entspricht und den CO2-Ablasshandel ankurbelt.

Denn wisset, wer nicht seine Seele vom CO2-Fußabdruck freikauft, der wird im globalen Fegefeuer der Erde schmoren, auf ewig!

Der Beitrag erschien zuerst auf Science-Files hier




Klimajournalismus: Papa, Charly hat gesagt, sein Papa hat gesagt…- oder wie man faule Berner Studien „nature“ und damit Medien unterjubelt

Damit schneidet man dann seine Zielgruppe vollständig von der behaupteten Primärinformation ab und verbreitet zielgerichtete Propaganda. Die Qualität von Wissen ist nämlich nicht einheitlich, sondern es gibt sehr unterschiedliche Arten davon:

 

Primärwissenist das Peer-to-Peer Wissen von Fachleuten, denen das notwendige wissenschaftliche Handwerkszeug zur Verfügung steht, um Primärinformationen selbst zu generieren oder fremde zu bewerten. (Beispiel: Hochschullehrer und Wissenschaftler)

Sekundärwissenist das Wissen von Multiplikatoren, die sich fachlich-didaktische Kenntnisse angeeignet haben, um damit komplexe Primärinformationen mehr oder weniger korrekt zu vereinfachen und in „leichter Sprache“ verbreiten zu können. (Beispiel: Lehrer und Journalisten)

Tertiärwissenist von Multiplikatoren an eine Zielgruppe weitergeleitetes Sekundärwissen, dessen Richtigkeit von dieser Zielgruppe üblicherweise nicht mehr fachlich hinterfragt werden kann, sondern einfach geglaubt werden muss. (Beispiel: Politiker und Fridays for Future)

Und jetzt wird vielleicht auch der innere Widerspruch deutlich, wenn ein Wissenschaftler medienöffentlich zu „glauben“ beliebt. Denn wenn ein Wissenschaftler öffentlich „glaubt“, dann verbreitet er öffentlich Tertiärwissen unter dem Etikett von Primärinformationen. Und noch schlimmer wird es, wenn sich ein Multiplikator selektiv aus dem vorhandenen Primärwissen bedient, um damit eine zielgerichtete Tertiärinformation zu erzeugen.

Die NDR-Kurzhörspielserie „Papa, Charly hat gesagt, sein Papa hat gesagt…“ aus den 1970-er Jahren hatte diese moderne Form der Medienkommunikation satirisch vorweggenommen. Charlys Papa haute damals seine zielführenden Narrative ‘raus, und der Papa von Charlys Freund musste diese dann für seinen Sohn wieder auseinanderdröseln. Wenigstens hatte der Freund von Charly damals einen Papa mit einer gesunden Allgemeinbildung, der ihm die jeweiligen Hintergründe erklären konnte… 

Guter Journalismus war damals noch so etwas wie der Papa von Charlys Freund. Heute ist die Situation genau umgekehrt, denn heute sind viele Journalisten eher wie Charlys Papa…

Nehmen wir einmal einen aktuellen medialen Mainstreamartikel über den menschengemachten Klimawandel, beispielsweise den Artikel „Die von Menschen verursachte globale Erwärmung ist beispiellos“ aus der Süddeutschen Zeitung vom 24. Juli 2019, wo immerhin die Originalveröffentlichung verlinkt worden ist. Direkt unter der SZ-Überschrift fängt bereits der Klimaaberglaube mit drei Bullet-Points an, Zitate mit eigenen Anmerkungen:

  • Kalt- und Warmzeiten in den zurückliegenden Jahrtausenden haben sich nur regional auf dem Planeten ausgewirkt.
    Anmerkung: Das ist lediglich eine unbewiesene Behauptung, um die aktuelle Situation semantisch als einmalig und menschengemacht darstellen zu können.
  • Der menschengemachte Klimawandel erfasst hingegen gleichmäßig die gesamte Welt.
    Anmerkung: Auch das ist eine unbewiesene Behauptung. Man tut nämlich einfach so, als gäbe es seit Beginn der Industrialisierung gar keinen natürlichen Klimawandel mehr und schiebt alles auf den Menschen.
  • Eine neue Auswertung widerlegt ein von Klimawandelleugnern oft wiederholtes Argument.“
    Anmerkung: Eine Veröffentlichung ist keine Lehrmeinung und selbst eine Lehrmeinung muss nicht richtig sein. Allein die wissenschaftliche Qualität einer Veröffentlichung entscheidet über die Relevanz ihrer Aussage und nicht die Aussage selbst. Nur dem wahren Gläubigen mag eine erwünschte Aussage beliebiger Qualität als finaler wissenschaftlicher Beweis dienen…

Schön ist bereits der folgende Satz aus diesem SZ-Artikel, Zitat mit Hervorhebungen:

Aber auch archäologische Funde fließen in die Datensammlung ein, deren Ziel es ist, die Klimaveränderungen der vergangenen 2000 Jahre mit bisher nicht gekannter Genauigkeit nachzuzeichnen.“

Ins Umgangssprachliche übersetzt bedeutet diese Aussage lediglich, dass sich die Autoren ein hohes Ziel gesetzt hatten. Wenn das nicht klappt, heißt es in solchen Fällen üblicherweise in Arbeitszeugnissen, man habe sich stets bemüht. Denn nach Angaben aus der SZ, Zitat, „Die Forschergruppe verwendete die Datensammlung des sogenannten Pages-2k-Netzwerks, …“, war diese Forschergruppe gar nicht in der Lage, einen positiven Einfluss auf die Qualität der benutzten Fremddaten auszuüben.

Nachfolgend wollen wir also einmal untersuchen, ob die Autoren der zugrunde liegenden  wissenschaftlichen Studie “No evidence for globally coherent warm and cold periods over the preindustrial Common Era” (Neukom, Steiger, Gómez-Navarro, Wang und Werner 2019) ihr hohes Ziel tatsächlich erreicht haben. Also weiter in der SZ, Zitat mit Hervorhebungen:

In dieser Zahlensammlung haben Neukom und seine Kollegen für die zurückliegenden Jahrhunderte keinen Hinweis auf eine kalte oder warme Phase gefunden, von der die gesamte Erdkugel betroffen war– außer der jüngsten Erwärmung des Klimas, die seit Beginn der industriellen Revolution vor etwa 250 Jahren immer rasanter wird.

Diese Aussage ist sehr erstaunlich. Schauen wir doch einfach mal auf KalteSonne nach:

Karte vom MWP-Projekt auf KalteSonne: http://kaltesonne.de/?p=30471/

Der aktuelle Stand des MWP-Projektes wird zum 13. Juli 2019 auf KalteSonne folgendermaßen beschrieben, Zitat mit Hervorhebungen:

1200 Studien wurde bereits in der Google Map Karte dokumentiert, das als globale Sammelplattform zur MWP-Literatur dient. Mehr als 107.000 Zugriffe auf die Karte belegen, dass die Übersicht auf reges Interesse stößt. Klicken Sie hier, um sich ein Bild über den Charakter des MWP-Projektes zu verschaffen (oder klicken Sie auf die Karte unten). Rote Punkte zeigen warme Bedingungen zur Zeit der MWP an, gelbe Punkte Trockenheit, grüne Punkte Feuchtigkeit. Blaue Punkte sind für Abkühlung während der MWP reserviert.Klicken Sie auf die jeweiligen Punkte, und es öffnet sich die Analyse des jeweiligen Papers. Ebenfalls aufrufbar ist die wichtigste Klimakurve der Arbeit.

Ein Paper zur MWP-Temperaturentwicklung in Afrika-Arabien erschien 2017 in Paleoceanography. Eos (die Mitgliederzeitschrift der AGU) berichtete im Februar 2018über die Publikation in der Kategorie “hot paper” bzw. “Research Spotlight”. Eine Publikation zum MWP-Hydroklima in Afrika ist im Februar 2018 bei Palaeo3erschienen. Am 31. Oktober 2018 kam in Quaternary Internationalein Paper zum mittelalterlichen Klimawandel in Südamerika heraus. Im Juni 2019 wurde unsere Synthese zur Mittelalterlichen Wärmeperiode in Ozeanien in Environmental Reviewspubliziert, kurz darauf erschien unser Paper zur MWP in der Antarktis in Palaeo3. Ein Manuskript zum Mittelmeerraum ist in Bearbeitung. Die Datenerfassung für Nordamerika und Asien ruht derzeit.“

Das KalteSonne-Projekt „Die Mittelalterliche Wärmeperiode“ zeigt also eindeutig, dass die Indikatoren für diese Warmzeit global auf allen Kontinente zu finden sind und es sich demnach um ein globales Ereignis handeln muss.

Wenn nun nach Aussage in der SZ vom 24. Juli 2019 die Autoren der dort vorgestellten Studie keinen Hinweis auf eine globale kalte oder warme Phase gefunden haben, dann muss man daraus schließen, dass die Pages-2k-Datenbasis unzureichend für deren eigene und die von der SZ verbreitete Aussage gewesen sein muss. Die nachfolgende Abbildung aus der Arbeit von Neukom et al. (2019) zeigt die erbarmungswürdige Datengrundlage für diese beiden steilen Aussagen:

Abbildung: Datengrundlage der Studie “No evidence for globally coherent warm and cold periods over the preindustrial Common Era” von Neukom at al.(2019) aus Nature Vol. 571 Seite 551

Anmerkung:Kompliment an die Kommunikationsberater des Oeschger Centre for Climate Change Research and Institute of Geography, University of Bern, Bern, Switzerland. Üblicherweise wird die zweidimensionale Projektion der Erdkugel rechtwinklig gestreckt und der Atlantik in der Mitte dargestellt, wie das auch auf der MWP-Karte von KalteSonne zu sehen ist. Die geschickte Drehung auf den Pazifik bei Neukom et al. (2019) bezieht dagegen die Erdkrümmung konstruktiv ein und lässt dadurch die riesigen atlantischen Datenlücken perspektivisch verschwinden.

Wenn wir an dieser Stelle einmal eine Grenzwertbetrachtung durchführen, dann können wir feststellen: Je schwächer die Datengrundlage, umso spektakulärer können die Ergebnisse ausfallen. Und am Ende steht dann der alte Geologenwitz, „Ohne Aufschlüsse diskutiert es sich am besten…

Die heute auf Basis unzureichender wissenschaftlicher Daten medial verbreitete Klimahysterie ist beispiellos. Denn steile Schlüsse aus unzureichenden Daten sind nun mal keine Wissenschaft, und klimareligiöses „Leugner-Bashing“ ist kein Journalismus…




Einbahn – Die Strompreise kennen nur eine Richtung – nach oben!

Deutschland hat alle Chancen, Weltmeister zu werden. Weltmeister im Irrwitz Energiewende und Strompreise. Das Land nimmt den einsamen Spitzenplatz in beiden Disziplinen ein. Die Strompreise kennen seit Jahren nur eine Richtung: nach oben. Das zeigt das Vergleichsportal Check 24 in drastischer Eindringlichkeit:

»Laut aktuellen Zahlen des Statistischen Bundesamts ist der jährliche Stromverbrauch deutscher Privathaushalte seit 2010 um rund acht Prozent gesunken«, berichtet Check24. »Unterm Strich mussten Verbraucher 2017 für Strom mehr zahlen als noch 2010. Das haben Berechnungen von CHECK24 ergeben.«

Erstaunlich: Der Verbrauch der Haushalte ging von 140 Milliarden kWh Strom im Jahr 2010 auf 129 Mrd kWh im Jahr 2017 zurück. Das sind acht Prozent weniger Stromverbrauch. Die Verbraucher sparten also, was ging. Dennoch stiegen laut Check24 die Preise im selben Zeitraum um ganze 27 Prozent! Für weniger Strom müssen die Haushalte also mehr bezahlen. Steuern, Umlagen und Abgaben machen mittlerweile 54 Prozent des Strompreises aus.

Zur Erinnerung: 1998 kostete eine Kilowattstunde etwa 14 Cent.

Einer der größten Posten am Strompreis sind die Netzengelte für die vier Betreiber der Hochspannungsnetze. 25 Milliarden Euro bezahlten die Stromkunden in Deutschland nur dafür, dass Strom über die Leitungen transportiert wurde. Der Teil wird steigen, weil neue Stromautobahnen immer neue Milliarden in ungeahntem Ausmaß verschlingen.

Die Berliner Ratingagentur Scope zitiert im März die Übertragungsnetzbetreiber: »Die jüngste Schätzung der vier großen Netzbetreiber für den Ausbau des deutschen Stromnetzes bis 2030 beläuft sich auf 52 Mrd Euro. Erforderliche Investitionen für die Anbindung von Offshore Windkraftanlagen und Speicherlösungen sind hierin noch nicht enthalten.

Zum Vergleich: Im Jahr 2017 ging man noch von Investitionen in Höhe von 33 Mrd Euro aus. Damit ist der erwartete Investitionsbedarf in nur zwei Jahren um mehr als 50 Prozent gestiegen. Allein für die 2×2 GW Hochspannungstrasse „SüdLink“ im Versorgungsgebiet von TenneT und TransnetBW von Schleswig-Holstein nach Bayern und Baden-Württemberg werden nun 10 Mrd. Euro Kosten veranschlagt.
Die Agentur leckt die Lippen: »Der Markt für grüne Schuldtitel dürfte damit einen weiteren Bedeutungszuwachs erfahren.« Bezahlen müssen das die Stromverbraucher.

Einen immer größeren Anteil nehmen ebenso die Kosten für ausgefallenen Strom ein. Windparkbetreiber müssen Strom in jedem Fall bezahlt bekommen, auch wenn er nicht abgenommen werden kann.

Stromverbraucher sollten aufhorchen, wenn wieder neue Jubelmeldungen aus der Energiewenden-Ecke kommen. Immer mehr »erneuerbare« Energien würden produziert, teilweise schon mehr als Strom aus Kohle- und Kernkraft. Deutschland, wird in diesem Zusammenhang häufig angefügt, sei ja bereits Stromexporteur. Doch der Stromverbraucher sollte vor seinem geistigen Auge immer gleich dazu den unverschämten Griff in seinen Geldbeutel sehen, denn einen Teil der Stromexporte muss er mitfinanzieren. Überflüssigen Strom aus Deutschland nehmen die europäischen Nachbarländer oft nur an, wenn sie eine ordentliche Mitgift in Höhe von mehreren Millionen Euro mit dem Strom erhalten.

Doch für die Verbraucher werden die Kugeln Eis des Herrn Trittin immer und immer teurer. Er muss zwei Stromversorgungssysteme bezahlen: einmal all die vielen Windräder und Photovoltaikanlagen, zum anderen die parallel stehenden Kohle- und Kernkraftwerke, ohne die es nicht geht.

Die Strompreise kennen also künftig weiter nur eine Richtung: nach oben. Vermutlich werden die Strompreisabzocker von SPD und CDU das neue Abgabemonstrum CO2-Steuer dazu nutzen, Gelder für Strom umzuschichten. Wegen der Optik, so sieht’s besser aus.

Die Energiewende ist ausser Kontrolle geraten. Keiner weiß mehr im Berlin, wie da rauskommen. Aber das betrifft nicht nur die Energiewende.

Der Beitrag erschien zuerst bei TE hier