1

Die Sonne im August 2018 und atmosphärische Konflikte

Die Sonne war also im letzten Monat weniger als 1/3 so aktiv wie im Mittel. An 13 Tagen des Monats war überhaupt kein Fleck zu beobachten, an den übrigen Tagen sah man diesmal die Südhemisphäre zu 74% zu den wenigen kleinen Flecken beitragen.

Abb.1: Die Fleckenaktivität des aktuellen SC (für SolarCycle) 24 im Vergleich zu einem mittleren Zyklus (blau) und dem im letzten Zyklusdrittel sehr ähnlichen SC5 ( schwarz).

 

Vieles spricht dafür, dass der Zyklus seine letzten rechnerischen 14 Monate sehr ruhig beendet. Das ist einigermaßen beruhigend  wenn man weiß, dass die Sonne auch anders könnte und wohl auch schon konnte. Super-Explosionen auf der Sonne kamen schon vor: der berühmte „Carrington Event“ am 1.September 1859 ist ein Beispiel. Damals gab es einen Flare (eine Sonneruption),  der erdgerichtet war und um ein Vielfaches stärker als alles, was wir in dieser Beziehung im Satellitenzeitalter beobachten konnten. Vor wenigen Wochen erschienen Arbeiten, die Ereignisse im Jahre 774 und 993 ( wir wissen von Ihnen durch globale Nachweise in Proxies) unzweifelhaft der Sonne zuordneten, und die noch etwa 20 mal so stark waren wie der „Carrington Event“.

Auch im Jahre 2012 ereignete sich ein potentiell gefährlicher Flare, der jedoch nicht erdgerichtet war. Für die heutige Infrastruktur mit ihren langen Leitungen für Energieversorgung und Kommunikation wäre ein Treffer schon sehr gefährlich, vermutlich würde auch jede Satellitennavigation ausfallen. Eine Vorhersage ist noch relativ unsicher. Mehr als 1…2 Wochen vor einem möglichen Event hätten wir vielleicht nur die Gelegenheit, uns zu wappnen, wie diese aktuelle Arbeit zeigt.  Und wann ein großer energiereicher Sonnenfleck wohin genau explodiert- für solche Vorhersagen gibt es noch keine ausreichenden Modelle. Also ist bei allen Fortschritten im Wissen um die Eigenschaften unserer Sonne immer noch ein wenig Glück dabei, dass wir noch keine fundamentalen Schäden durch Sonnenstürme erleben mussten: Großflächige Blackouts, Netzwerkausfälle auf lange Zeiten, kaum noch funktionierende Navigation.

Zurück zur aktuell sehr ruhigen Sonne. Der Vergleich der Zyklen untereinander bestätigt das:

Abb.2: Die aufsummierten Abweichungen der einzelnen Zyklen vom mittleren Zyklus  (blau in Abb.1). Sehr gut sichtbar: die Clusterbildung. Seit dem Zyklus 5 tauchen immer mindestens 3 Zyklen in Reihe auf, die entweder unter- oder übernormal stark waren. Einzelne Ausreißer sind nicht zu verzeichnen.

 

Die Vorausschau auf den Zyklus 25 wird nun immer verlässlicher: die maximale Stärke der polaren solaren Felder ist mit hoher Sicherheit erreicht. Recht wahrscheinlich ist ein nächster Zyklus, der etwa so stark ist wie der SC14, der zwischen 1902 und 1913 beobachtet wurde. Also weiterhin eine (magnetfeldtechnisch) schwache Sonne bis in die 30er Jahre der 2000er.

 

Atmosphärische Konflikte

Gemeint ist hier nicht das bekannte und vergnügliche Gedicht von Erich Kästner, mit dem er die interne Variabilität des Überganges Winter/ Frühjahr in Deutschland vor genau 90 Jahren mit Humor und Tiefgang beschrieb, als noch keiner  verfrühte/verspätete Wärme dem Klimawandel zuschreiben wollte. Die einzigen, die blass wurden, waren die Oberkellner!

Vielmehr geht es uns um eine aktuelle Arbeit von McKitrick/Christy, in der die Autoren mit den bestmöglichen Beobachtungen seit 1958 aus Ballonaufstiegen die Erwärmung der tropischen oberen Atmosphäre auswerten. Die Temperaturen in einer Höhe von 10-13km ( 300mb-200mb), so sagen es die Modelle, erwärmen sich deutlich schneller bei jedem Temperaturanstieg als die am Boden, also auch den durch die Wirkung von Treibhausgasen. Es ist die Region in unserer Atmosphäre, die am heftigsten auf diesen Antrieb reagiert. Daher nennt man es auch den „tropischen Hotspot“.

 

Abb.3: Der „tropische Hotspot“ in einem Klimamodell. Über den Tropen (Latitude -25°…25°) in der Höhe von 200-300mb soll sich die Troposphäre mit ca. 0,5°C/ Dekade erwärmt haben zwischen 1958 und 2017. Quelle: Fig.1 aus McKitrick et al. (2018).

 

Das ist doch super, sollte man meinen. Wir haben damit eine „Vorwarnung“, die Erwärmung ist dort noch heftiger als am Boden und wir können sehr gut ablesen, wie stark es sich aufheizt, noch bevor es am Boden so manifest wird. Ganz so einfach ist es nicht! Die Luft ist recht dünn auf Reiseflughöhe der modernen Jets und daher auch sehr empfindlich auf interne Schwankungen des Klimasystems. So haben da  ElNinos viel größere Ausschläge, ebenso wie Vulkanereignisse. Sie erkennen die starken Einflüsse von ENSO in Abb.4: sowohl 1997/98 als auch 2015/16/17 sieht man Ausbrüche nach oben. Bleibt ein solch starker Ausreißer aus, wird der Trend wieder auf das Niveau der letzten 40 Jahre zurückkehren. Diese Empfindlichkeit auf natürliche Schwankungen  macht die Trends unsicherer.

Mit Satellitenmessungen ist es auch schwierig: Um nur die fragliche troposphärische Schicht zu treffen ist eine Trennschärfe zu der darüber liegenden Stratosphäre -sie kühlt sich ab,  (vgl. Abb. 3 über 100mb) bei Erwärmung der Troposphäre, u.a. weil sie durch ihre Ausdehnung in größere Höhen gerät-  zu realisieren, die nicht durchgängig gegeben ist. Ballons steigen nicht überall auf und daher braucht es mit ihnen viel länger, um zu gesicherten Aussagen zu kommen. Nun haben sich also die Autoren von McKitrick et al. (2018) die recht langen Messreihen von verschiedenen Anbietern vorgenommen und die letzten 60 Jahre ausgewertet. Das Ergebnis: Die Erwärmung der oberen tropischen Troposphäre ist nicht im Entferntesten so stark, wie es alle Modelle, die für den 5. Sachstandbericht (AR5) des IPCC in 2013 entwickelt (CMIP5) wurden, antizipierten. Sehr gut erkennt man das in dieser Abbildung der Arbeit:

Abb.4: Die Entwicklung der Temperaturen im Bereich aus Abb.3 über die Zeit. Seit etwa 1995 laufen die Modellwerte den Beobachtungen zunehmend nach oben weg. Quelle: Fig. 3 aus McKitrick et al. (2018)

 

Die Autoren stellen denn auch mit großer statistischer Sicherheit fest, dass die Modelle inkonsistent zu den Beobachtungen sind. Um die Entwicklung der Diskrepanzen noch etwas genauer zu untersuchen, haben wir die Abb.4 digitalisiert und mit den gewonnen Daten Trendberechnungen angestellt:

Abb.5: Die linearen Trends ( in °C/ Jahr)  der Beobachtungen (blau) und des Modellmittels (rot).

 

Die kürzeste Trendlänge ab 1958 beträgt 30 Jahre, daher beginnt das Diagramm mit dem Jahr 1987. Der längste Trend geht von 1958 bis 2017. Mit jedem neuen Jahr ergibt sich ab Ende der 90er Jahre eine größere Abweichung der Modellberechnungen vom beobachteten realen Klimasystem. Während diese einen recht konstanten Anstieg von ca. 0,15°C/ Dekade seit 1958 aufweisen, erwärmt sich die Modellwelt immer schneller.

Über die Ursachen der Abweichungen lässt sich nur vermuten. Die Autoren der Arbeit jedenfalls spielen den Ball den Schöpfern der Modelle ins Feld. Ein möglicher Grund für die um ca. 100% zu hohe Erwärmung bis 2017, die ab etwa 2000 ihren Lauf nimmt, könnte eine zu hoch gerechnete Abkühlung durch Aerosole sein. Die nämlich flacht global ab Mitte der 90er in der realen Welt ab und geht sogar zurück seit Ende der 90er Jahre bis in die jüngste Vergangenheit. Auch eine fehlerhafte Berücksichtigung von tropischen Wolken in den Modellen ist zu vermuten, wie diese aktuelle Arbeit von  Allison Kolly et al. zeigt. Eine Arbeit von John Christy (der Co-Autor der hier ausgewerteten Studie von McKitrick) und Kollegen aus dem Frühjahr nutzte  Satelliten-und Ballondaten ab 1979 und kommt zu nahezu identischen Ergebnissen: Modelle zeigen zu viel Erwärmung in der tropischen Troposphäre. Die Autoren vermuten weitere Modellfehler beim modellierten Wasserkreislauf und in der Physik von Niederschlägen.

Wie auch immer: die Empfindlichkeit der Modelle gegenüber der weitgehend CO2-bedingten Erwärmung ist auch beim „Hotspot“, also in der Region mit dem modellierten stärksten Anstieg der Temperaturen weltweit, um bis zum Faktor 2 zu hoch. Und die Diskrepanz wird weiter wachsen, das legt Abb. 5 nahe. Alle Prognosen, die mit viel zu heiß laufenden Klimamodellen begründet werden, müssen immer mehr hinterfragt werden. Die empirische Wissenschaft zeigt die Grenzen der Modell-Apokalyptiker auf. Wir freuen uns auf jeden Fortschritt in der Wetter-u. Klimabeobachtung!

Der Beitrag erschien zuerst bei „Die kalte Sonne“ hier




Murry Salby Vortrag Helmut-Schmidt-Universität zum Thema „What is Really Behind the Increase of Atmospheric CO2? New Research“ abgesagt!

Der angekündigte Vortrag von Prof. Murry Salby an der Helmut-Schmidt-Universität zu dem Thema „What is Really Behind the Increase of Atmospheric CO2? New Research“ muss leider ausfallen.

Prof. Salby ist bekannt für seine klare Position zum anthropogen verursachten Klimawandel, von dem er sich eindeutig distanziert. Die Universitätsleitung hatte deshalb vorgesehen, neben Prof. Salby einen weiteren Vortragenden zu Wort kommen zu lassen, der insbesondere die Sichtweise und Interpretation des IPCC vertritt, um dies zu einer interessanten, ausgewogenen Veranstaltung werden zu lassen. Bis zu dem angesetzten Vortragstermin konnte allerdings kein zweiter geeigneter Vortragender gefunden werden.

Von der üblichen Gepflogenheit, dass eine Veranstaltung auch dann stattfindet, wenn nur eine Seite der Einladung folgt, wurde hier leider abgewichen. Bei einem Vortrag nur von Prof. Salby sieht offensichtlich die Universität ihre Außenwirkung gefährdet.

Anmerkung der Redaktion 

Was uns wundert ist, dass die Universitätsleitung nicht sieht, dass  sie damit einer unverschämten Erpressung  nachgibt, denn wir haben noch nie gehört, dass irgendein alarmistischer Wissenschaftler wie Schellnhuber oder Rahmstorf bis hin zum Alleswisser Harald Lesch, jemals dazu angehalten wurden, bei ihren Vorträgen auch die andere Meinung zu Wort kommen zu lassen. Das ist erschütternd und sagt viel über den Zustand der Meinungsfreiheit und Freiheit der Wissenschaft in diesem Lande.
Da die alarmistischen Wissenschaftler die direkte offene Diskussion mit Klimarealisten scheuen, wie der Teufel das Weihwasser, weil sie sicher wissen, dass sie jede Debatte verlieren, wird keiner ihrer Vertreter zu einer solchen offenen Diskussion bereit sein. Insofern ist diese Forderung nach einem Parallelvortrag der die Sichtweise und Interpretation des IPCC vertritt, niichts weiter als eine verschleierte aber wirksame dauerhafte Absage
Es ist damit gleichzeitig defacto und ohne Beschönigung: Eine Bankrotterklärung für die Freiheit der Wissenschaft.



Rechnungshof: Vernichtendes Urteil über die „Energiewende“

Krachend gescheitert. Das Urteil des Bundesrechnungshofes überrascht nicht. Außer gigantischen Kosten hat die Energiewende nichts produziert. Das ist nicht sonderlich neu, nur hat das jetzt auch der Bundesrechnungshof in seinem Sonderbericht »Koordination und Steuerung zur Umsetzung der Energiewende durch das Bundesministerium für Wirtschaft und Energie« erhebliche Defizite festgestellt und eine sonderbare Empfehlung ausgesprochen.

»In den letzten fünf Jahren wurden für die Energiewende mindestens 160 Milliarden € aufgewendet.« Die Prüfer haben sich die Strukturen im zuständigen Bundeswirtschaftsministerium angesehen und verpassen dem Minister und seinem teuren Apparat eine deftige Klatsche:

»Allein im BMWi sind 34 Referate in vier Abteilungen damit befasst, die Energiewende umzusetzen. Dazu sind fünf weitere Bundesministerien und alle Länder an der Umsetzung der Energiewende beteiligt. Dennoch hat das BMWi nicht festgelegt, was die Koordination der Energiewende umfasst. Eine gesamtverantwortliche Organisationsform gibt es bis heute nicht.«

Sie listen Details einer horrenden Bürokratie auf: »Es gibt derzeit 26 Gesetze und 33 Verordnungen, die mit teils hohem Detaillierungsgrad Erzeugung, Speicherung, Übertragung, Verteilung und Verbrauch von Energie regeln. Die mit Blick auf die Umsetzung der Energiewende notwendigen Änderungen dieser Normen sind zeitaufwendig. Dies erschwert eine flexible Anpassung von Steuerungsmaßnahmen an die dynamische Entwicklung, die die Energiewende mit sich bringt.«

Welche Energiewenden-Aktion was bewirkt und wieviel sie kostet, weiß niemand im Berlin der Neuzeit. Sie können nichts außer die Infrastruktur eines Landes im Blindflug außer Gang zu setzen und Landschaften mit Windradmüll zerstören. Die Prüfer des Rechnungshofes bringen das Kunststück fertig und fragen nicht zum Beispiel bei Physikern danach, ob solch eine Verrücktheit wie die Energiewende physikalisch-technisch möglich ist, sondern kritisieren nur mangelnde Steuerung. Sie fordern, Wahnsinn mit noch größerem Wahnsinn zu erschlagen: Eine was – natürlich Steuer – könnte helfen, jetzt eben eine auf CO2.Großartig: nicht nur Autos und Heizungen und Atmen, sondern auch jeden Baum, jeden Strauch auf seinen Output an CO2 zu besteu-ern. Denn auch die benötigen nicht nur CO2 als Baumaterial für Stämme, Äste und Blätter, sondern sie geben CO2 ab. Denn es muß ja gerecht zugehen.

Claudia Kemfert, die ständig laut Durchhalteparolen hinausposaunende »Energieökonomin«, hat schon früh (2012) einen CO2 Preis von 60 Euro pro Tonne »ausgerechnet«. Wirtschaftsminister Altmaier lehnt eine solche CO2 Steuer ab. Bisher.

Das Wirtschaftsministerium wiederum weist die Kritik des Bundesrechnungshofes zurück und meint, die EEG-Umlage könnte nicht den Kosten der Energiewende zugerechnet werden. Also das, was für den Stromverbraucher die exorbitanten Kosten ausmacht, seien keine Kosten der Energiewende. Auf so etwas kommt man nur noch in Berlin.

In Bonn beim Bundesrechnungshof wiederum befürchtet man Staatsversagen, sollte es so weitergehen mit der Energiewende: »Steigen die Kosten der Energiewende weiter und werden ihre Ziele weiterhin verfehlt, besteht das Risiko des Vertrauensverlustes in die Fähigkeit von Regierungshandeln.«

Als ob es das überhaupt noch gibt. Nur noch die letzten Hardcore Grünen glauben an die Notwendigkeit einer Energiewende, träumen immer noch davon, dass es notwendig ist, CO2 zu reduzieren und diesem Ziel alles unter zu ordnen. 160 Milliarden € mir nichts dir nichts verpulvert. Auf der anderen Seite ist Strom zum Luxusgut avanciert und zur Mangelware verkommen. Zu teuer, zu schlechte Qualität beeinträchtigt empfindliche Steueranlagen in der Industrie, Unternehmen verlagern energieintensive Produktion ins Ausland.Dennoch, das ist das Erstaunliche, glauben viele Bürger an die Notwendigkeit und Machbarkeit einer Energiewende – befeuert von öffentlich-rechtlichen Propagandasendern, die diese Ideologie in die Köpfe blasen und jubeln, wenn die EU Klimaziele erhöhen und Treibhausgase senken will.

Es ist eine Mafia, an der zu viele mit verdienen, vor allem auch viele Politiker, die sich wie in Kassel über Windkraft die Taschen voll machen mit ihren politischen Entscheidungen, Wälder für Winterräder abzuholzen.

Nachtrag der EIKE Redaktion:

Zwei wesentliche Probleme geht der umfangreiche Rechnungshofbericht überhaupt nicht an.

  1. Er stellt nicht die Frage, um wie viel Grad denn die globale Mitteltemperatur sinken würde, wenn Deutschland seine CO2 Senkungsziele erreicht hätte. Täte e das, was mit 100 % Sicherheit zu seinen primären Aufgaben gehört, dann käme der ganze Irrsinn der „Energiewende“ noch viel plastischer zutage. Nur die AfD hat sich bisher dieser Frage dahingehend angenommen, dass sie die -nur hypothetische- Minderung des Anstiegs der globalen Mitteltemperatur für 100 % Minderung des deutschen Anteiles anhand vorliegender IPCC Werte und nach der gängigen Formel für diese Minderung berechnet hat. Es sind nur 0,000.653 °C; irgendwann in ferner unbestimmter Zukunft. Den AfD Antrag finden Sie hier in dem der Rechenweg angegeben ist

  2. Völlig unerwähnt bleibt auch die Tatsache, dass es mit der einfachen Aufsummierung der bis jetzt entstandenen Kosten seit dem Jahre 2013 bei weitem nicht getan ist. Denn das EEG gibt es bereits seit dem Jahre 2000 und es verpflichtet die Versorger mit Vorrang den per EEG erzeugten Strom auf 20 Jahre zum anfangs festgelegten Preis in jeder lieferbarbaren Menge abzunehmen. „Planungssicherheit“ nennen das zynisch die Protagonisten der Energiewende“ Zwangswechselschulden nennt man das als Normalsterblicher. Bis 2013 hat allein das EEG den FakeEnergiebetreibern 100 Mrd € in die Taschen gespült. Die kommen auf die genannten 160 Mrd € noch drauf. Insgesamt sind das bis Ende 2017 also bereits 260 Mrd €. Für buchstäblich nichts! Schlimmer jedoch sind die heute bereits entstandenen zukünftigen Zahlungsverpflichtungen, die das EEG erzeugt. Es sind für die nächsten 20 jahre allein durch das EEG ca. 765 Mrd. €. D.h wenn ab sofort keine einzige FakeEnergieanlage hinzugebaut würde, das Ausscheiden der bald 20 jährigen Fördermengen bereits berücksichtigt. Kostet uns die jetzt bereits gezahlte und noch kommende Förderung rd. 1 Billion €. Im Jahre 2022 erhöhte sich die Summe auf dann knapp 1,4 Billionen.

Der Beitrag erschien zuerst bei TE hier




Die vorherrschenden Zyklen des globalen Klimas scheinen mit der Sonneneinstrahlung übereinzustimmen

Abstrakt

Wir finden eine enge Übereinstimmung zwischen den Spektren des globalen Klimas und der Sonnenstrahlung während der letzten Jahrtausende und zeigen, dass das Klima der Erde bis heute auf Sonnenaktivität zurückzuführen ist

Die Mechanismen und der Ursprung der Klimavariationen der Erde werden in der Literatur ausführlich diskutiert. Viele Modellberechnungen schreiben den Klimawandel seit 1850 dem menschlichen Einfluss zu, z.B. den industriellen CO2-Emissionen. Diese Modellrechnungen stimmen nicht mit den Messungen überein, insbesondere mit den Klimaschwankungen vor dem industriellen Zeitalter, d. h. dem Zeitraum vor ~ 1850. Analysen von Temperaturproxys, finden andererseits Hinweise auf den Einfluss von zyklischen Variationen mit langen Perioden.

Es wurde kürzlich gefunden / 1 /, dass das Klima der Erde in den letzten 2000 Jahren im Wesentlichen nur durch 3 Zyklen bestimmt wurde: Je ein Zyklus von ~ 1000 Jahren, ~ 460 Jahren, ~ 190 Jahren. Diese 3 Zyklen erzeugen insbesondere den Temperaturanstieg von ca. 1850 bis heute, der offiziell als (einziger) Beweis für den Klimawandel durch industriell emittiertes CO2 bezeichnet wird. Diese Erwärmung ist also nicht auf den Einfluss des Menschen zurückzuführen, und CO2 kann für das Klima der Erde nur eine untergeordnete Rolle spielen. Bild 1 zeigt das Spektrum einer großen Anzahl weltweiter Temperaturproxies der letzten 2000 Jahre / 1 /. Wie für Spektren üblich, ist in Abb. 1 die Spektralleistung gegen die Frequenz aufgetragen (d. H. Anzahl der Zyklen pro Jahr). Da die Zyklen viele Jahre lang sind, sind die Häufigkeiten Bruchteile von 1.

C.O. Weiss

Abb. 1: Spektrum der globalen Temperatur für die letzten 2000 Jahre. Die spektrale Leistung ist gegen die Frequenz aufgetragen, d.h. e. Anzahl der Zyklen pro Jahr. Da die Zyklen eine Dauer von vielen Jahren haben, sind die Häufigkeiten Bruchteile von 1. Die 3 dominanten Zyklen haben eine Dauer von ~ 1000, ~ 460 und ~ 190 Jahren.

 

Der Ursprung und Mechanismus von Klimazyklen wurde ausführlich diskutiert. Siehe z.B. / 2 /

C.O. Weiss

Abb. 2 zeigt die Sonnenbestrahlungszyklen aus den Isotopenhäufigkeiten von 10Be und 14C. für die letzten 8000 Jahre / 3 /. Im Gegensatz zu den Spektren, wie in Fig. 1, zeichnet das Periodogramm Fig. 2 die spektrale Leistung gegen die Dauer der Zykluszeit. Ansonsten sind Spektren und Periodogramme äquivalent. Man bemerkt die Dominanz von drei Zyklen, deren Perioden ziemlich gut mit den vorherrschenden Klimazyklen der Erde von Fig. 1 übereinstimmen.

Abb. 2: Periodogramm (entspricht dem Spektrum) von 8000 Jahren Sonnenstrahlung / 3 /. Die dominanten Zyklen sind 978, 499, 207 Jahre Zyklusdauer / 3 /.

Obwohl die Zeiträume der Klimazyklen und der Sonnenbestrahlungszyklen nicht genau übereinstimmen, würde man angesichts der Dominanz in beiden Fällen folgern, dass die Klimazyklen auf solaren Einfluss zurückzuführen sind. Insbesondere, wenn man berücksichtigt, dass die Klima-Zyklusperioden aufgrund von Rauschen in den Temperaturproxydaten und begrenzter spektraler Auflösung, wie in / 1 / beschrieben, zu einem gewissen Grad unsicher sind, würden die Klimazyklen der Erde und die Solarzyklen einander entsprechen . Diese Sonnenzyklen wurden durch ein Modell erklärt, das den Einfluss der Gezeitenkräfte der Planeten Jupiter und Saturn auf den Solardynamo beschreibt, der das solare Magnetfeld erzeugt / 2 /.

So scheint es, dass die wesentlichen klimatischen Veränderungen auf der Erde bisher auf den Einfluss der Sonne und der Hauptplaneten und nicht auf den Einfluss des Menschen zurückzuführen sind. Ein kleiner Beitrag des menschlichen Einflusses (vielleicht in der Größenordnung von 10%) kann angesichts der begrenzten Genauigkeit dieser Analyse offensichtlich nicht allein durch diese Analyse ausgeschlossen werden.

/1/ Luedecke, H. J., Weiss, C. O. The Open Atm. Sci. Journ. 11 (2017) 44

/2/  Scafetta, N.  Journ. Atm. and Solar-Terrestrial Physics 80 (2012) 296

/3/ Steinhilber, F., Beer, J., Froelich,C.  Geophys. Res. Lett. 36, L 19704

Übersetzt durch Andreas Demmig




Der „Trick“ anomaler Temperatur-Anomalien

In den meisten Fällen ist die Anomalie sehr gering, und die Änderung wird aufgemotzt, indem die Y-Achse so gestreckt wird, bis diese geringe Änderung daherkommt wie ein steiler Anstieg (oder Fall). Die vermeintliche Aussagekraft der Graphiken wird durch die behauptete Genauigkeit der Anomalie verstärkt – bei der globalen mittleren Temperatur werden oftmals Zehntel- oder sogar Hundertstel Grad Celsius angegeben. Verschlimmert wird das Ganze, indem die Anomalien ohne oder nur mit sehr geringen „Fehler“-Bandbreiten gezeigt werden. Sollte das doch einmal der Fall sein, sind es nicht Fehler- oder Unsicherheits-Balken, sondern tatsächlich die statistische Standardabweichung (und nur selten wird das so angegeben).

Vor vielen Wochen habe ich dazu einen Beitrag geschrieben mit dem Titel [übersetzt] „Fast wie die Erde. Wir sind sicher!“ [Almost Earth-like, We’re Certain]. In dem Beitrag, der vom Weekly News Roundup des Science and Environmental Policy Project als „leicht lesbar“ charakterisiert worden ist, verlieh ich meiner Meinung Ausdruck, dass man Anomalien verwendet und so tut, als ob die Unsicherheit verringert worden wäre. Es ist nichts als Vortäuschung. Es ist ein Trick, um bekannte große Unsicherheiten zu verdecken.

Mit dem Eingeständnis, dass sich diese meine Meinung bis heute nicht geändert hat, denke ich, dass es gut ist, genauer zu erklären, wie ich zu dieser Ansicht gekommen ist – und was für einen umfangreichen Bereich in der Welt der Klimawissenschaft ziemlich kränkend sein wird. Zwei Dinge müssen wir betrachten:

1.Warum nenne ich das einen „Trick“?

2.Wer wird da ausgetrickst?

Zu Punkt 1: Warum nenne ich die Verwendung von Anomalien einen „Trick“?

Was genau ist das „Auffinden einer Anomalie“? Nun, nicht das, was man allgemein denkt. Die vereinfachte Antwort lautet, dass man die jährlich gemittelte Temperatur heranzieht und diese von jenem 30-Jahre-Klimamittel subtrahiert. Was übrig bleibt, ist „Die Anomalie“.

Das ist das, was sie sagen, aber nicht wirklich das, was sie tun. Sie fangen mit dem Auffinden von Anomalien auf einem niedrigen Niveau an und arbeiten sich empor bis zur Globalen Anomalie. Selbst wenn Gavin Schmidt den Gebrauch von Anomalien erklärt (hier), erkennen sorgfältige Leser, dass er sich rückwärts bewegen muss zu Absoluten Globalen Mittelwerten in Grad – indem die allgemein vereinbarte Anomalie dem 30-Jahre-Mittel hinzugefügt wird:

„… wenn wir versuchen, die absolute globale Mitteltemperatur für, sagen wir, das Jahr 2016 abzuschätzen. Die Klimatologie gibt im Zeitraum 1981 bis 2010 einen Wert von 287,4 ± 0,5K, und die Anomalie für 2016 (nach der GISTEMP-Grundlage) beträgt 0,56 ± 0,05°C. Folglich ist unsere Schätzung des absoluten Wertes 287,96 ±0,502 K, und bei Heranziehen des zweiten reduziert sich das zu 288,0 ± 0,5 K“.

Aber hier wollen wir einfach nur betrachten, dass die Anomalie einfach das von der berechneten GAST* subtrahierte 30-Jahre-Mittel in Grad ist.

Wie Schmidt freundlicherweise erklärt, ist die korrekte Angabe einer GAST in Grad irgendetwas auf der Linie 288,0 ± 0,5 K – das ist die Gradzahl bis auf ein Zehntel Grad genau mit einer Unsicherheits-Bandbreite von ± 0,5 K. Wenn eine Zahl auf diese Art und Weise angegeben wird, bedeutet das, dass der tatsächliche Wert nicht genau bekannt ist, aber es ist bekannt, dass er innerhalb der Bandbreite der Plus/Minus-Angabe liegt.

[*GAST = Global Averaged Surface Temperature]

Die Abbildung zeigt dies als aktuelle Praxis mit den Temperaturaufzeichnungen … die gemessenen Temperaturen sind auf ganze Grad Fahrenheit gerundet – eine Angabe, welche IRGENDEINE der unendlichen Zahl kontinuierlicher Werte zwischen 71,5 und 72,499999… repräsentiert.

Es ist kein Messfehler, es ist die gemessene Temperatur dargestellt als eine Bandbreite von Werten 72 +/– 0,5. Es ist eine Unsicherheits-Bandbreite – hinsichtlich der tatsächlichen Temperatur sitzen wir immer noch im Dunklen – wir kennen lediglich die Bandbreite.

Nun ist die Ein-Grad-Bandbreite für normale Menschen als Information ausreichend. Knifflig wird es in manchen Fällen, wenn sich die Temperatur dem Gefrierpunkt nähert – Temperaturen über oder unter dem Gefrierpunkt sind klimatisch bedeutsam für Landwirte, bei der Straßenausbesserung und Wartung von Flugzeugen.

Egal was wir mit Temperaturaufzeichnungen machen, müssen wir uns mit der Tatsache befassen, dass die tatsächliche Temperatur nicht aufgezeichnet worden ist – wir haben lediglich Bandbreiten aufgezeichnet, innerhalb derer die tatsächliche Temperatur lag.

Dies bedeutet, dass wenn diese Temperaturen für Berechnungen herangezogen werden, müssen sie Bandbreiten bleiben und als solche behandelt werden. Was nicht ausgesondert werden kann ist die Bandbreite des Wertes. Die Mittelung eliminiert die Bandbreite nicht – der Wert hat immer die gleiche Bandbreite. (Siehe Durable Original Measurement Uncertainty).

Auf der Grundlage einfacher Logik, wenn wir schließlich zur Globalen Mittleren Temperatur kommen, ist immer noch die originale Unsicherheit vorhanden – wie Dr. Schmidt korrekt illustriert, wenn er die Absolute Temperatur für das Jahr 2016 mit 288,0 ± 0,5 K angibt.

Der Trick kommt dort ins Spiel, wo die tatsächliche berechnete Temperatur zu einer Anomalie von Mittelwerten konvertiert. Wenn man ein Mittel berechnet (ein arithmetisches Mittel – Summe aller Werte geteilt durch die Anzahl der Werte), bekommt man eine sehr genaue Antwort. Wenn man das Mittel von Werten heranzieht, welche Bandbreiten sind, wie etwa 71 +/- 0,5, dann ist das Ergebnis eine sehr präzise Zahl mit einer hohen Wahrscheinlichkeit, dass das Mittel nahe dieser präzisen Zahl liegt. Während also das Mittel ziemlich genau ist, sind die tatsächlichen Temperaturen der Vergangenheit immer noch unsicher bis +/-0,5.

Drückt man das Mittel mit der gebräuchlichen „+/-2 Standardabweichung“ aus, sagt uns das nur, welchen Mittelwert wir erwarten können – wir können ziemlich sicher sein, dass das Mittel innerhalb jener Bandbreite liegt. Die tatsächliche Temperatur, wenn wir sie ehrlicherweise in Grad darstellen wie in der folgenden Graphik, immer noch behaftet sein mit der Messungenauigkeit: +/-0,5 Grad.

Diese Graphik wurde (ohne meine Anmerkungen) von Dr. Schmidt in seinem Beitrag über Anomalien (hier) gezeigt. Ich habe die erforderlichen I-Balken für +/-0,5 Grad hinzugefügt. Man beachte, dass die Ergebnisse der verschiedenen Re-Analysen selbst einen Spread von 0,4 Grad aufweisen – man könnte darüber sprechen, die Gesamtzahl von 0,9 Grad als die Unsicherheit der Globalen Mittleren Temperatur zu verwenden auf der Grundlage der Unsicherheiten oben (siehe die beiden grünen Unsicherheits-Balken, einer über dem anderen).

Dies illustriert die wahre Unsicherheit der Globalen Mittleren Temperatur – Schmidts eingeräumte +/-0,5 und die Unsicherheits-Bandbreite zwischen den Re-Analyse-Produkten.

Im Sinne der realen Welt sollte die oben dargestellte Unsicherheit als die Minimum-Unsicherheit betrachtet werden – die Unsicherheit der Originalmessungen plus die Unsicherheit der Re-Analyse. Es gibt noch viele andere Unsicherheiten, die man eigentlich hinzufügen müsste – wie sie etwa auftreten, wenn man Lücken in den Messungen mit berechneten Temperaturwerten füllt.

Der Trick besteht nun darin, dass der gleiche Datensatz als Anomalien präsentiert und behauptet wird, dass die Unsicherheit folglich auf 0,1 Grad reduziert ist (wenn sie überhaupt angegeben wird) – BEST halbiert diesen Wert nochmals und proklamiert 0,05 Grad!

Die Herabstufung des Datensatzes zu einem statistischen Produkt, Anomalie genannt, informiert uns nicht über die wahre Unsicherheit im tatsächlichen Parameter selbst – die Globale Mittlere Temperatur – jedenfalls nicht mehr als der Blick rückwärts auf eine Bergkette mittels eines speziellen Fernglases, das die Berge kleiner erscheinen lässt, wie stark das Auge auch immer getäuscht wird.

Hier folgt eine Stichprobe der Daten, welche dier Graphik ganz oben in diesem Beitrag ausmachen. Die Spalten bedeuten: Jahr – GAST-Anomalie – Glättung nach dem Lowess-Verfahren:

2010  0.7    0.62
2011  0.57  0.63
2012  0.61  0.67
2013  0.64  0.71
2014  0.73  0.77
2015  0.86  0.83
2016  0.99  0.89
2017  0.9    0.95

Die Vergrößerung der Graphik im Bereich 2000 bis 2017 sieht so aus:

7

Wir sehen globale Anomalien, dargestellt bis zu einer Genauigkeit von Hundertstel Grad Celsius. Unsicherheit wird nicht gezeigt – keine einzige ist erwähnt auf der NASA-Website, auf der die Graphik zu finden ist (hier). Auf dieser NASA-Website, zu finden im Abschnitt Vital Signs – Global Climate Change, heißt es weiter, dass „diese Forschungen im Wesentlichen konsistent sind mit ähnlichen Konstruktionen durch die Climatic Research Unit und die National Oceanic and Atmospheric Administration.” Schauen wir mal:

Von der CRU:

Hier sehen wir die Globale Temperatur nach CRU (Referenz-Zeitraum 1961 bis 1990) – ärgerlicherweise also mit einem anderen Referenz-Zeitraum als bei der NASA 1951 bis 1980. Die Differenz bietet ein paar Einblicke in den Umstand, welche gewaltigen Unterschiede diese verschiedenen Referenz-Zeiträume bzgl. der Ergebnisse ausmachen.

2010   0.56 0.512
2011 0.425 0.528
2012   0.47 0.547
2013 0.514 0.569
2014   0.579  0.59
2015 0.763 0.608
2016   0.797 0.62
2017 0.675 0.625

Die offizielle CRU-Anomalie für das Jahr 2017 beträgt 0,675°C – präzise bis zu einem Tausendstel Grad. Sie zeichnen das dann mit 0,68°C in die Graphik ein. CRU bringt es fertig, die gleiche Präzision in ihren geglätteten Werten zu zeigen – 2015 = 0,608.

Und der Vollständigkeit halber, die NOAA bietet folgende Werte an, präzise bis auf ein Hundertstel Grad:

2010,   0.70
2011,   0.58
2012,   0.62
2013,   0.67
2014,  0.74
2015,  0.91
2016,  0.95
2017,  0.85

Wir sehen, dass diese Anomalien anders als absolute globale Temperaturen wie jene von Gavin Schmidt bei RealClimate gezeigten (hier) mit überhaupt keiner Unsicherheit gezeigt werden. Keine SDs [Standard-Abweichungen], keine 95% CIs, keine Fehlerbalken, nichts. Und das präzise bis zu einem Hundertstel eines Grades Celsius.

Zusammengefasst: Die großen Klima-Institutionen der Welt informieren uns über den Zustand des Klimas, indem sie uns Graphiken der Anomalien der Globalen Mittleren Temperatur [GAST] anbieten. Diese zeigen einen stetigen und alarmierenden starken Anstieg seit etwa 1980. Dieser alarmierende Anstieg besteht aus einer globalen Änderung von etwa 0,6°C. Nur das GISS liefert irgendeine Art Unsicherheits-Schätzung, und auch das nur in der Graphik mit dem grünen 0,1°C-Balken wie oben gezeigt. Betrachten wir ein einfaches Beispiel: Wir folgen Gavin Schmidt gemäß diesem seinem Beitrag vom August 2017 und verwenden GAST-Absolutwerte in Grad Celsius mit seiner angenommenen Unsicherheit von 0,5°C.

Wie sieht das Mittel der beiden GAST-Werte aus, eine für die Nord- und eine für die Südhemisphäre? Um ein wirklich einfaches Beispiel zu geben, wollen wir einmal jeder Hemisphäre den gleichen Wert zuordnen von 20 +/-0,5 Grad Celsius. Unsere Rechnung: 20 +/- 0,5 plus 20 +/- 0,5 geteilt durch 2 ergibt … Das Mittel ist genau 20. (Nun, das nennt man Präzision…).

Was ist mit der Bandbreite? Sie beträgt +/- 0,5 – ist also 1 Grad breit. Das Mittel mit der Bandbreite beträgt 20 +/- 0,5.

Aber was ist mit der Unsicherheit? Nun, die Bandbreite legt die Unsicherheit fest: wir sind sicher, dass das Mittel zwischen 20,5 und 19,5 liegt.

Schauen wir die Wahrscheinlichkeiten – hier gleiten wir in den Bereich „Statistik“.

Hier folgen einige der Werte für die Nord- und Südhemisphäre aus einer unendlichen Anzahl von Möglichkeiten, die sich aus 20 +/- 0,5 ergeben. Wenn wir gleiche Werte heranziehen, ist das Mittel natürlich das gleiche. Aber wir wollen Wahrscheinlichkeiten haben – wie viele Wege gibt es also, dass das Ergebnis 20,5 oder 19,5 beträgt? Jeweils einen Weg.

NH           SH
20.5 —— 20.5 = 20.5 einzig mögliche Kombination
20.4         20.4
20.3         20.3
20.2         20.2
20.1         20.1
20.0         20.0
19.9         19.9
19.8         19.8
19.7         19.7
19.6         19.6
19.5 —— 19.5 = 19.5 einzig mögliche Kombination

Aber wie ist das mit 20,4? Es können 20,4-20,4 oder 20,5-20,3 oder 20,3-20,5 sein – drei mögliche Kombinationen. 20,3? 5 Kombinationen. 20,2? 7 Kombinationen. 20,1? 9 Kombinationen. 20,0? 11 Kombinationen. Jetzt sind wir über den Buckel gesprungen: 19,9? 9 Kombinationen. 19,8? 7 Kombinationen. 19,7? 5 Kombinationen. 19,6? 3 Kombinationen und 19,5? 1 Kombination.

Man erkennt, wie die Verteilung aussieht:

Da wir lediglich 11 Werte für jede der gemittelten Temperaturen verwendet haben, bekommen wir eine wenig pointierte Kurve. Es gibt zwei Kleine Graphiken … die zweite (unten) zeigt, was passieren würde, falls wir das Mittel von zwei identischen Zahlen gefunden hätten, jede mit einer Unsicherheits-Bandbreite von +/-0,5, falls sie gerundet worden wären auf das nächste halbe Grad anstatt auf das normale ganze Grad. Das Ergebnis ist intuitiv – Das Mittel besitzt immer die höchst mögliche Wahrscheinlichkeit, dass es der zentrale Werte ist.

Nun, dass scheint so offensichtlich, dass es selbst Dummies einsehen. Schließlich sollte ein Mittel mathematisch immer der zentrale Wert sein. Der Punkt ist aber: mit unseren gleich verteilten Werten um das Mittel – und wir erinnern uns, wenn wir einen Temperaturrekord sehen, angegeben als XX +/- 0,5, sprechen wir über eine Bandbreite von gleichmäßig verteilten möglichen Werten – wird das Mittel immer der zentrale Wert sein, ob wir nun das Mittel einer einzelnen Temperatur oder das von tausend Temperaturwerten mit dem gleichen Wert finden. Die Unsicherheits-Bandbreite ist jedoch immer die Gleiche! Natürlich! Muss doch so sein.

Hierin liegt der Trick – wenn sie die Anomalie des Mittels heranziehen, lassen sie die Unsicherheits-Bandbreite insgesamt fallen und konzentrieren sich einzig auf die zentrale Zahl, das Mittel, welches immer präzise ist und nahe dieser zentralen Zahl liegt. Wenn überhaupt einmal eine Unsicherheit genannt wird, wird sie als die Wahrscheinlichkeit angegeben, wie nahe das Mittel der zentralen Zahl liegt – und ist getrennt von der tatsächlichen Unsicherheits-Bandbreite der Originaldaten.

William Briggs sagt dazu: „Diese Ergebnisse sind keine Statements bzgl. der tatsächlichen Temperaturen in der Vergangenheit, die wir bis auf die Messgenauigkeit bereits kennen“.

Wir kennen bereits die berechneten GAST (siehe die Re-Analysen oben). Aber wir wissen nur, dass sie irgendwo innerhalb deren bekannten Unsicherheits-Bandbreiten liegt, welche laut Dr. Schmidt +/- 0,5 Grad betragen. Berechnungen der Anomalien der verschiedenen Mittelwerte sagen uns nichts über die tatsächlichen Temperaturen der Vergangenheit – die kannten wir bereits – und wir wissen, wie unsicher das war.

Es ist ein TRICK zu behaupten, dass mittels der Überleitung jährlicher Globaler Mittlerer Temperaturwerte zu Anomalien wir die bekannte Unsicherheit UNBEKANNT machen können.

Zu Punkt 2: Wer wird ausgetrickst?

Dick Feynman würde sagen: „Sie halten sich selbst zum Narren“. Sie kennen bereits die GAST so genau wie sie dieselben mit ihren gegenwärtigen Verfahren zu berechnen in der Lage sind. Sie kennen die involvierte Unsicherheit – Dr. Schmidt räumt ein, dass sie um 0,5 K liegt. Folglich ist ihre Verwendung von Anomalien (oder die Mittelwerte von Anomalien…) einfach ein Weg, sich selbst zum Narren zu halten, indem die bekannte Unsicherheit irgendwie auf magische Weise einfach verschwindet, äquivalent zu „falls wir auf diese Weise blinzeln und unseren Kopf nach einer Seite neigen…“.

Viel Glück dabei!

——————————-

Schlussbemerkungen des Autors:

Dieser Beitrag wird einem gewissen Segment der Leserschaft hier nicht gefallen, aber das verringert nicht dessen Validität. Jene, die sich selbst zum Narren halten wollen mit dem Verschwinden lassen der bekannten Unsicherheit der Globalen Mittleren Temperatur werden den einfachen, hier dargestellten Argumenten widersprechen. Das ist deren Minus.

Ich verstehe das Argument der Statistiker, welche darauf bestehen, dass das Mittel wirklich viel genauer ist als die Originaldaten. Aber sie lassen zu, dass jene Tatsache ihnen die Erlaubnis gibt, die Unsicherheits-Bandbreite der Originaldaten aus der realen Welt zu ignorieren. Man verstehe mich nicht falsch, sie versuchen nicht, uns auszutricksen. Sie sind sicher, dass dies wissenschaftlich und statistisch korrekt ist. Sie halten sich jedoch selbst zum Narren, weil im Endeffekt alles, was sie tun, die Veränderung der Werte auf der Y-Achse ist (von ,absolute GAST in K‘ zu ,absolute GAST in K minus dem Klimamittel in K‘) und die Unsicherheit fallen lassen – mit viel Rechtfertigung aus der Statistik-/Wahrscheinlichkeits-Theorie.

Link: https://wattsupwiththat.com/2018/09/25/the-trick-of-anomalous-temperature-anomalies/

Übersetzt von Chris Frey EIKE




Das Sommer­halbjahr 2018 machte seinem Namen alle Ehre Teil II – Ein Nachruf

Die Region um Erfurt entspricht hinsichtlich ihres Temperaturniveaus recht gut dem DWD-Deutschlandmittel und steht damit grob für die Verhältnisse in Deutschland; hinsichtlich des Niederschlages ist sie allerdings trockener. Als in den ersten Apriltagen der Schnee in Mecklenburg-Vorpommern bis zu 30cm hoch lag und das Osterfest auch im übrigen Deutschland sehr wechselhaft und kühl mit Schnee im Thüringer Wald begann, ahnte man noch nichts von der wohl längsten Schönwetterperiode der jüngsten Klimageschichte. Doch schon am Ostermontag setzte eine Erwärmung ein; und bereits am 4. April wurde in Erfurt-Bindersleben erstmalig die 20-Grad-Marke überschritten. Bis zur Monatsmitte dominierte danach wechselhaftes Wetter mit apriltypischen Tagesmaxima zwischen 12 und 22 Grad und gelegentlichen Regenfällen; zu diesem Zeitpunkt waren die Startbedingungen für die Vegetation noch günstig. Eine erste, hochsommerliche, sonnenscheinreiche Periode begann am 18.04. und währte bis zum 23.04. Schon trieben Eichen, Robinien und Walnüsse aus – ein untrügliches Zeichen für einen viel zu warmen Frühling, und die Frühblüher welkten in den Wäldern. Dabei zog am 19.04. mit den ersten Apfelblüten der Vollfrühling fast termingerecht in Weimar ein:

Abbildung 1: Kaum verfrühte Apfelblüte 2018 – Schuld war der kalte Spätwinter. Auch langfristig (seit 1990) verfrühte sich die Apfelblüte nur um etwa 3 Tage.

2018 geht als „Jahr ohne Frühling“ in die Klimageschichte ein, denn die Baumblüte fand bei hochsommerlichen 24 bis 28 Grad statt, weshalb die meisten Gehölze nur 2 bis 4 Tage blühten:

Abbildung 2: Baumblüte am 20. April bei 28 Grad – nach wenigen Tagen war alles verblüht und ergrünt. Foto: Stefan Kämpfe

Bis zum Monatswechsel blieb es dann wechselhaft und vorübergehend auch kühl; einzelne Schauer linderten den bereits akuten Wassermangel kaum. Im letzten Monatsdrittel blühten schon erste Rosskastanien und Weißdorne sowie der Raps; der Flieder erreichte zum Monatswechsel bereits die sehr reiche Vollblüte. Der Mai starte mit viel Wind sowie letzten Bodenfrösten, ehe es ab dem 5. Mai immer sonniger und zunächst tagsüber wärmer wurde; starke Nordostwinde trockneten die Böden weiter aus. Trotz der Dürre konnte man eine reiche Orchideenblüte in Nordthüringen erleben:

Abbildung 3: Reiche Blüte des Kleinen Knabenkrauts Anfang Mai 2018 auf einem Steppenrasen etwa 50 Km nördlich von Erfurt. Foto: Stefan Kämpfe

Am 7. Mai begann der Frühsommer mit den ersten blühenden Holunderdolden vorzeitig, aber nicht extrem früh:

Abbildung 4: Leichte Verfrühung der Holunderblüte seit 1990 um 5 Tage; 2018 begann sie mittelfrüh.

Der Laubaustrieb war um den 10. Mai fast überall abgeschlossen; trotz gelegentlicher Regenschauer blieben Sonne, Ostwinde und Dürre ein Markenzeichen des Mai 2018.Auch nach einmonatiger Dürre blühten die Orchideen, darunter auch die Frauenschuhe, meist sehr reich:

Abbildung 5: Blühender Trupp Frauenschuhe südlich von Weimar am 11. Mai 2018. Foto: Stefan Kämpfe

Es gab einzelne, kühlere Tage in diesem Mai, doch sie waren – ebenso wie Regenschauer, selten. Trotz der immer akuteren Dürre blühten viele Halbtrockenrasen sehr reich; auch die Margeriten ließen sich von der Dürre kaum beirren:

Abbildung 6: Trockener Glatthafer – Wiese bei Weimar-Schöndorf mit Margeriten am 21. Mai 2018. Foto: Stefan Kämpfe

Die anhaltende Wärme begünstigte das Spargelwachstum; insgesamt verlief die Ernte nach relativ spätem Beginn gut, und außerdem die Entwicklung einer besonders reichen Insektenwelt, darunter auch die der Gespinstmotte; mancherorts wurden Sträucher und ganze Obstbäume kahl gefressen und eingewickelt:

Abbildung 7: Völlig entlaubter und eingesponnener Strauch bei Kölleda. Foto: Stefan Kämpfe

Im letzten Monatsdrittel reiften erste Süßkirschen; und die Blüte der Sommerlinde startete; zum Monatswechsel gilbte bereits die Wintergerste. Während in Weimar erste Kurzgrasrasen bereits ausbrannten, sorgten um Erfurt ein paar Gewitterschauer für üppiges Grün:

Abbildung 8: Sehr reicher Blühaspekt des Aufrechten Ziest auf einem Gipshügel bei Erfurt am 31. Mai 2018. Foto: Stefan Kämpfe

Im Juni startete mit den ersten Winterlindenblüten der phänologische Hochsommer merklich verfrüht, und bei leicht wechselhaftem, mäßig warmem Nordwetter konnte man sich über eine gute Kirschernte freuen:

Abbildung 9: Geringe Verfrühung der Winterlinden-Blüte (Beobachtungsdaten leider erst seit 1998 vorliegend). Zusammen mit 2011, war 2018 der zeitigste Blühbeginn.

Abbildung 10: Gute Kirschernte 2018, aber die Früchte reiften sehr schnell. Foto: Stefan Kämpfe

Immer mehr dominierten wegen der anhaltenden Trockenheit die Farben Gelb und Braun in der Landschaft; nur einige Moorwiesen zeigten sich noch frisch-grün:

Abbildung 11: Fruchtendes Wollgras in einem Quellmoor südlich von Weimar am 7. Juni 2018. Seit 1990 sind dort viele geschützte Pflanzenarten deutlich häufiger geworden – Dank sachgerechter Pflege, doch könnten auch mehr Wärme und mehr CO2 positiv gewirkt haben. Foto: Stefan Kämpfe

Mitte Juni begann die Wintergerstenmahd um etwa 3 Wochen verfrüht. Stellenweise lohnte sich die Getreideernte nicht; manche Bauern häckselten das Korn zu Futter oder pflügten es gleich unter. Zur Monatsmitte reifte schon die Stein-Weichsel. In den Wäldern verwelkten selbst so robuste Stauden wie der Zaun-Giersch oder das Wald-Bingelkraut; und die normalerweise auf die zweite Julihälfte fallende Blüte der Krim-Linden in den Städten fand bereits jetzt statt; zum Monatswechsel Juni/Juli waren bereits die meisten Sauerkirschen und erste Ebereschenfrüchte reif. Anfang Juli kühlten sich zwar die Nächte unter dem Einfluss eines Skandinavien-Hochs teilweise unter 10 Grad, in Bodennähe gar bis Null Grad, ab, aber die Dürre verschärfte sich weiter. Viele Kurzgrasrasen verwelkten völlig:

Abbildung 12: Ausgebrannter Kurzgrasrasen am Weimarplatz – sieht schlimm aus, aber nach ein paar Regentagen war das alles wieder grün. Foto: Stefan Kämpfe

Trotzdem blühten noch einige Wiesenblumen, und man konnte, wie schon in den Vorjahren, sehr viele Schmetterlinge beobachten:

Abbildung 13: Bläuling auf einer viel zu früh erblühten Wiesen-Flockenblume. Foto: Stefan Kämpfe

Ungewöhnlich früh und reich erblühten Anfang Juli auch die Japanischen Schnurbäume; ihre normale Blütezeit fällt auf Mitte August bis Anfang September. Am 5. Juli zog ein Unwetter über den Nordosten Weimars, aber das linderte die Dürre, ebenso wie einige stärkere Schauer und Gewitter um den 10. Juli, nur vorübergehend. Am 13.07. begann mit den ersten reifen Holunderdolden bereits der phänologische Frühherbst:

Abbildung 14: Die Holunderreife verfrühte sich langfristig um etwa eine Woche. Aber ihr bislang zeitigster Beginn war nicht 2018, sondern 2007.

Mitte Juli konnte man schon erste Kornäpfel und Pflaumen ernten, und am 19.07. wurden die ersten reifen Wildrosen- und Weißdornfrüchte gesichtet. Um den Jakobitag (25. Juli) hatte man bereits das gesamte Getreide (inklusive Raps) gemäht; normalerweise ist das erst so um den 25. August der Fall. Die Winterweizen-Ernte fiel nach den bisher vorliegenden Ergebnissen mit 64,4 dt/ha im Thüringenmittel deutlich schlechter als in den Vorjahren aus; trotzdem muss man sie als ausreichend einstufen, denn sie unterschritt den Mittelwert der Jahre 1991 bis 2017 (69,9 dt/ha) nur um 5,5 Dezitonnen je Hektar. Von einer totalen Missernte, wie in vielen Medien kolportiert, kann also keine Rede sein:

Abbildung 15: Keine gute Winterweizenernte 2018 in Thüringen – doch eine Missernte wäre viel geringer ausgefallen. Langfristig werden die Erträge weiter steigen – Dank besserer Anbaumethoden und Sorten, aber auch, weil der Grundnährstoff CO2 reichhaltiger verfügbar ist.

Freilich gab es regional große Unterschiede, so auch um Erfurt/Weimar, wo alle Gebiete nordöstlich von Erfurt stärkere Ertragsausfälle zu verzeichnen hatten, als die Gebiete westlich und südlich der Stadt. Besonders dürftig fiel die Rapsernte aus; aber der Winterraps gehört ohnehin nicht zu den geeignetsten Kulturen im Thüringer Becken – vielleicht bewegt das schlechte Ergebnis den ein oder anderen Landwirt zum Nachdenken über den viel zu umfangreichen Anbau von Pflanzen für die „Energiewende“. Noch ist die Kartoffelernte nicht abgeschlossen, aber auch sie wird weit unter den Ergebnissen der Vorjahre bleiben. Auch mit Beginn des letzten Hochsommer-Monats August hielt die meist sonnenscheinreiche, trocken-heiße Witterung an; einzelne Gewitter, teils mit Unwettercharakter, so am 2. und 17.08., linderten die Dürre nur wenig. Nun setzte auch ein verstärkter Hitzelaubfall bei Hybrid-Pappeln und Bergahornen ein; zum Monatsanfang reiften schon die Kornelkirschen und im Monatsverlauf überreich alle Arten von Pflaumen. Außerdem stellte sich eine Mäuse- und Wespenplage ein:

Abbildung 16: Viel wurde 2018 über die oft lästigen Wespen geschimpft. Doch sie gehören zur Natur und sind wichtige Bio-Indikatoren – wo es sie gibt, geht es der Umwelt gut. Foto: Stefan Kämpfe

Um den 20. August setzte bei manchen Linden-Arten, sicher auch trockenheitsbedingt, schon die Laubfärbung ein. Manche Obstbäume hingen derart voll, dass ganze Äste abbrachen. Nach einigen Gewitterschauern sanken die Temperaturen ab dem 25. August auf frühherbstliche Werte; und erste Rosskastanien reiften. In den ersten Septembertagen linderten stärkere Regenfälle die Dürre merklich; die Wiesen ergrünten wieder, doch ab dem 4. September kehrte der Hochsommer zurück und hielt sich mit kurzen Pausen noch bis zum 21. September mit Spitzenwerten von nochmals nahe 30 Grad. Zum Monatsanfang reiften schon erste Walnüsse; etwas Laubfärbung war bei Birnen, Süßkirschen und Linden zu beobachten. Vereinzelt konnten nun sogar ein paar Rotkappen, Steinpilze und Hallimasche gefunden werden; doch bislang erwies sich 2018 als sehr schlechtes Pilzjahr. Kernobsternte und Weinlese wurden hingegen mit sehr guten Ergebnissen eingefahren. Und überall fiel der überreiche Fruchtbehang der Obstbäume, Eichen, Buchen, Bergahorne und Eschen auf – ein regelrechtes Mastjahr, freilich reiften alle diese Früchte um 3 bis 5 Wochen verfrüht:

Abbildungen 17 und 18: Massenhaft Fallobst, massenhaft Eicheln, so sah es vielerorts im September 2018 aus. Fotos: Stefan Kämpfe

Mit einem markanten Temperatursturz von 27 auf 13 Grad endete die Hitze am Nachmittag des 21. September. Ein schönes Abendrot konnte nicht darüber hinwegtäuschen, dass die schöne Jahreszeit nun größtenteils vorbei war:

Abbildung 19: Abendrot hinter der abziehenden Kaltfront am 21.09., welche die Septemberwärme abrupt beendet hatte. Foto: Stefan Kämpfe

Und am kalendarischen Herbstanfang beendete starker Regen mit Sturm und Kälte die monatelange Dürre endgültig – Pilzfreunde dürfen also noch hoffen. Auf den Mittelgebirgsgipfeln fiel kurzzeitig nasser Schnee. In den letzten Septembertagen besserte sich das Wetter wieder merklich; zeitweise schien nach bitterkalten Nächten mit Bodenfrösten die Sonne; und vorübergehend wurde es nochmals um die 20 Grad warm. Aber das „Schönwetter-Sommerhalbjahr 2018“ war bloß noch Geschichte.

Zusammenfassung: Dieses Sommerhalbjahr 2018 hatte seine guten und schlechten Seiten – auch in der Natur. Liebhaber des Englischen Rasens hatten ebenso zu leiden wie viele Getreidebauern; dafür freuten sich die Obstbauern und die Winzer. Die Wälder und Wiesen werden sich von der Trockenheit rasch erholen; für viele Wildpflanzen und Insekten schien die anhaltende Wärme eher vorteilhaft gewesen zu sein.

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Die BBC verbietet offiziell Klimaskeptiker ins Programm einzuladen

BBC schreibt in einer internen Memo:

„Seien Sie sich des“ falschen Gleichgewichts „bewusst: Da der Klimawandel akzeptiert wird, brauchen Sie keinen“ Klimaleugner „, um die Debatte auszugleichen.“

„Es kann Gelegenheiten geben, etwas von einem Leugner anzuhören, aber nur mit „angemessener Anregung“ durch einen sachkundigen Interviewer. BBC-Journalisten müssen sich des Standpunkts des Gastes bewusst sein und ihn effektiv herausfordern.“

„Um Unparteilichkeit zu erreichen, müssen Sie keine direkten Leugner des Klimawandels in die Berichterstattung der BBC aufnehmen.“

Im April entschied Ofcom, [~ Rundfunkrat]  dass das Today-Programm auf Radio 4 gegen die Rundfunkregeln verstoßen habe, indem es Lord Lawson von Blaby, den ehemaligen konservativen Schatzkanzler und Klimaskeptiker, zu seinen Behauptungen, die er in einem Interview gemacht hatte, nicht genügend herausforderte. Lord Lawson ist der Gründer der Global Warming Policy Foundation, einer Webseite der „Klimaskeptiker“.

Benny Peiser, der Direktor der Stiftung, sagte, dass Lord Lawson in den vergangenen fünf Jahren nur zweimal in das Today-Programm eingeladen worden sei. Bei beiden Gelegenheiten hätten Klagen von Aktivisten danach zur Entschuldigung der BBC geführt.

Der Direktor der Stiftung sagte, dass die neue BBC-Politik ihren Redakteuren grundsätzlich sagt: „Erwähnen Sie nicht das GWPF.“

Fran Unsworth, der Leiter Nachrichten und Aktualitäten der BBC, schickte diese Woche eine E-Mail an seine Journalisten und bat sie, einen Platz in einem einstündigen Kurs zu buchen, der „die neuesten wissenschaftlichen Erkenntnisse, Richtlinien, Forschungsergebnisse und Missverständnisse zum Klimawandel genau und kenntnisreich abdeckt.“.

Die E-Mail, die auf die Website Carbon Brief geleakt wurde, zielt darauf ab, das Bewusstsein für die Bedrohung durch den Klimawandel zu schärfen und verwies die BBC Mitarbeiter auf einen „Spickzettel“, der die neue Politik beinhaltet.

Ein Abschnitt der neuen Politik mit dem Titel „Was ist die Position des BBC?“ setzt voraus, dass die „vom Menschen verursachte“ Klimaänderung existiert.

 

So viel zum Mythos der „ausgewogenen Nachrichten“.

https://www.thegwpf.com/bbc-freezes-out-climate-sceptics/

Danke an Jimmy Walter für diesen Link

„Dieses BBC-Memo gibt schriftlich, was die meisten Menschen in den letzten zehn Jahren gewusst haben, nämlich dass jemand, der dem Klimaalarmismus skeptisch gegenübersteht, bei der BBC nicht erlaubt ist.“ – Benny Peiser

Gefunden auf WUWT vom 27.09.2018

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2018/09/27/the-bbc-formally-bans-climate-skeptics/

***

 

Übersetzung zur oben gezeigten Karikatur, mit freundlicher Genehmigung von www.cartoonsbyjosh.com.

Die BBC schließt Debatten aus

verboten – geknebelt – kein Grüner – falsche Sorte von Kerl

„Alle in diesem Programm geäußerten Ansichten sind meine eigenen, ich würde mich nicht mit jemand anderem abgeben.




Antrag der Grünen: Klimaschutz ins Grundgesetz!

Der „Klimaschutz“ muss ins Grundgesetz fordern die Grünen

Video der Rede von Dr. Anton Hofreiter Grüne zum Antrag seiner Partei den „Klimaschutz“ als Staatsziel im Grundgesetz zu verankern

Nein, die Debatte zum Antrag der Grünen den Klimaschutz ins Grundgesetz aufzunehmen, war keine Sternstunde des Parlamentes. Nicht nur weil der grüne Fraktionschef Dr. Anton Hofreiter, vor lauter freudiger Erregung über die künftige Klimakatastrophe das dumme Pariser Zwei Grad Ziel – mal eben in typisch Freud´schem Versprecher zum 2 % Ziel umformulierte, indem er sagte..

Noch – noch! – haben wir alle Chancen, deutlich unter 2 Prozent zu bleiben. Deshalb schlagen wir Ihnen vor, den Klimaschutz im Grundgesetz zu verankern.

….sondern vielleicht auch deshalb, weil das Parlament seit vielen Jahren Merkel-Regierung und GroKo sowieso das elegante, manchmal deftige, aber vor allem treffsichere Diskutieren das frühere Parlamentsdebatten so auszeichnete, verlernt hat.

Es fehlte dazu nicht nur die Absicht kontroverse Diskussionen überhaupt zu führen, es fehlte vor allem anderen der notwendige Sachverstand, Zumindest soweit der die aktuelle und zukünftige Klimaentwicklung betrifft. Keiner der Debattanten, die sich in die Redeschlacht warfen– mit Ausnahme der AfD – wusste auch nur im Ansatz, wovon sie/er redete.

Es fehlt bei allen – bis auf die AfD Vertreter- der notwendige Sachverstand

Stattdessen wurden die fürchterlichsten künftigen Katastrophen, bis zur teilweisen Unbewohnbarkeit der Erde an die Wand gemalt (Hofreiter), die vermutlich nur die Verankerung des Klimaschutzes im Grundgesetz verhindern helfen würde.

„Wo bleibt das Rettungsprogramm für unser Klima?“

fragte fast hilflos Hofreiter Toni, immerhin promovierter Biologe, die wenigen anwesenden Parlamentarier und Regierungsmitglieder und bezog sich dabei auf den erfreulich warmen Sommer hierzulande,

Hätte sich Herr Hofreiter (wie später auch andere RednerInnen wie z.B. Frau Dr. Scheer SPD oder die ständig besorgte Frau Dr. Weißgerber CSU) nicht einen lokal warmen Sommer, wie den eben vergangenen angeschaut, sondern wenigstens die gesamte Nordhalbkugel in den Blick genommen, wie es beim globalen „Klimawandel“ nun mal zwingend erforderlich ist, hätte er zwar eine Pointe verloren, aber dafür feststellen müssen, dass auch dieser schöne Sommer kein einziges Argument für irgendeinen illusionären Klimaschutz liefert, denn
•Die Mitteltemperatur der Nordhalbkugel liegt exakt ± 0 auf dem Mittelwert der letzten 18 Jahre
•Die Landtemperatur sogar leicht darunter
Quelle: Dr. Ryan Maue Klimatologe Cato Institute hier

Frau Dr. Scheer von der SPD hingegen sah dazu noch  eine erschreckende Zunahme von Extremwettern und behauptete:

„Unstrittig ist, dass der von den Menschen verursachte Temperaturanstieg, der Klimawandel, eine existenzielle Bedrohung für die gesamte Menschheit darstellt. Die Folgewirkungen des Ausstoßes von Treibhausgasen führen zur Häufung von immer mehr Wetterextremen und Umweltkatastrophen.“

Das war zwar komplett gelogen, und wenn schon nicht absichtlich von ihr die Unwahrheit gesagt wurde, dann hätte sie sich zuvor sehr einfach z.B. mittels googeln schlau machen können, aber das focht Frau Scheer nicht weiter an.

Video nicht mehr verfügbar

Video der Rede von Dr. Nina Scheel zur Begründung Ihrer Partei den „Klimaschutz“ als Staatsziel nicht im Grundgesetz zu verankern

Und zwangsläufig blieb sie auch den Beweis für diese kühne und allen Statistiken widersprechenden Behauptung schuldig, fühlte sich dann noch bemüßigt, dem AfD Kollegen Karsten Hilse – der es ais einziger der Redner wirklich besser wusste- entgegen zu schleudern..

– Herr Hilse, dass Sie bei so etwas grinsen, finde ich schon abartig.

Das Protokoll (hier) verzeichnet dazu Beifall bei der SPD sowie bei Abgeordneten der LINKEN und die Erwiderung des so Angegriffenen Karsten Hilse [AfD]:

Ja, wenn Sie immer Wetter und Klima verwechseln, kann ich schon grinsen! – Gegenruf der Abg. Britta Haßelmann [BÜNDNIS 90/DIE GRÜNEN]: Ja, wenn die Erde eine Scheibe ist! – Gegenruf des Abg. Karsten Hilse [AfD]: Klima ist eine statistische Zahl!)

Darauf wurde Frau Scheer noch wütender und behauptete forsch

– Ich verwechsle hier überhaupt nichts. – Der Meeresspiegelanstieg betrifft Millionen von Menschen, und Ernteausfälle führen zu Problemen für Millionen von Menschen – ganz zu schweigen von der enormen Gesundheitsbelastung, die auch mit dem Ausstoß von CO2 verbunden ist. (Hervorhebung von mir)

Nun ja! Wer nichts weiß, muss alles glauben, wusste schon die Dichterin Marie Louise Ebner Eschenbach. Denn selbst das IPCC räumt ein, dass es keine Beweise für eine Zunahme von Extremwetter gibt.

Es gibt weder eine Zunahme von Extremwettern, noch steigt der Meeresspiegel schneller als zuvor, noch, noch… das alles gibt es nur in den Computer-Kristallkugeln der Klimamodellierer

Und noch mehr Informationen zur Häufigkeit von Hurrikanes und Tornados – umganggssprachlich Extremwetter nach Scheer- finden Sie bsw. hier und hier

Und auch Informationen über den Meeresspiegel und seinen normalen, seit hunderten von Jahren völlig unerschröcklichen Verlauf finden Sie z.B. hier. Dort lesen wir u.a.:

Im Holozän war der Meeresspiegel um 2 Meter höher – heutige Änderungen gehen im Rauschen unter

Es scheint daher, dass das Frisieren von Zahlen und das Aufstellen von Behauptungen, zur Norm für Klimawissenschaftler und in Folge deren parlamentarische Jünger geworden sind, obwohl die von jedermann – also auch von vielbeschäftigten, aber in der Sache völlig unbedarften, dafür umso dreisteren Politikern durch ein paar einfache Checks widerlegt werden können.

Einigkeit unter den Parlamentariern hieß in der DDR treffend Volksfront. Nun auch im Bundestag

Dafür wurde aber von allen Rednern, mit Ausnahme der AfD versteht sich, umso euphorischer zunächst die Einigkeit – aller „demokratischen“ Parteien im Bundestag beschworen, um dann umso zielsicherer den einzig richtigen Weg – nämlich den ihrer Parteien- zu Exekution des deutschen Wohlstandes per  Hängen oder durch Köpfen zu beschreiben.

War die FDP eher für eine sanftes Hängen, dass durch maktwirtschaftliche Maßnahmen so ökonomisch wie möglich vollzogen werden sollte, so waren die Grünen und tlw. auch SPD und Linke für´s Köpfen, aber nicht sofort, sondern in einigen Jahren. Denn das schaffe „Planungssicherheit“ so Grüne und Linke.

Die CDU war da geschickter. Sie hatte zwar auch nichts gegen die Exekution des deutschen Wohlstandes, aber sah die Aufgabe dazu bereits jetzt im Grundgesetz verankert und formulierte daher treffsicher und juristisch feingesponnen- rein juristisch, warum das so sei.

Der maximal hypothetische Einfluss Deutschlands auf die fiktive Weltmitteltemperatur liegt bei 0,000.653 °C. Und interessiert keinen!

Als dann noch der AfD Abgeordnete Dr. Rainer Kraft in einer Kurzintervention darauf hinwies, dass schon die bisherigen riesigen Anstrengungen überhaupt nichts gebracht hätten, jedenfalls nichts für Klima oder gar den Klimaschutz:

Vielen Dank, Frau Präsidentin. – Frau Scheer, Sie haben angesprochen, dass es nötig ist, Anstrengungen zu unternehmen, um den Folgen des Klimawandels ent- gegenzuwirken – da sind wir nicht im Dissens –, aber auch, um dem Klimawandel an sich entgegenzuwirken.
Der Klimawandel an sich ist zusammengesetzt aus zwei Komponenten, nämlich aus dem anthropogenen Anteil, über dessen Größe wir im Dissens sind, und natürlich aus
dem großen Batzen natürlicher Klimaschwankungen, die seit Hunderten von Millionen Jahren bestehen; darüber sind wir im Übrigen auch nicht im Dissens. (D)

Die Frage ist: Glauben Sie, dass die Menschheit eine Technologie, eine Terraforming-Technologie besitzt, um den natürlichen Klimawandel, den es seit Hunderten von Millionen Jahren gibt, in irgendeiner Art und Weise zu beeinflussen?

stotterte Frau Scheer dann rum, und bezichtigte den Fragesteller lauter Unwahrheiten auszusprechen, doch die einfache Frage, dazu noch in leichter Sprache gestellt, beantwortete sie nicht.

Video nicht mehr verfügbar
Das tat dann Karsten Hilse von der AfD in seiner Rede, bei der er nochmals darauf hinwies, dass – selbst wenn die Hypothese vom Einfluss des menschgemachten CO2 auf die hypothetische Welttemperatur stimmte, Deutschlands Anteil bei völliger Dekarbonisierung, wie von den anderen Parteien gefordert, nur 0,000653 °C irgendwann in ferner unbekannte Zukunft bringen würde.

Diesem Wert, von Null Erfolg praktisch nicht zu unterscheiden, wurde zwar von niemandem im Plenum widersprochen(1), aber es  interessierte auch keinen – und das ganz unabhängig von ihrer Position ob der „Klimaschutz“ nun ins Grundgesetz gehöre, oder dort schon fest verankert sei.

Denn beim Klimaschutz geht es ja darum der Welt zu zeigen, wie man die Welt rettet. Es ist ja nicht ihr Geld nicht ihr Wohlstand, der dort geopfert werden soll, sondern nur das der Bewohner dieses Landes.

Sie sägten die Äste ab, auf denen sie saßen

Und schrieen sich zu ihre Erfahrungen,

Wie man schneller sägen könnte, und fuhren

Mit Krachen in die Tiefe, und die ihnen zusahen,

Schüttelten die Köpfe beim Sägen und Sägten weiter.

– Bertolt Brecht, Exil, III

Mit Dank an Leser Stefan Steger für dieses passende Zitat.

(1) Bevor jetzt wieder die Diskussion losgeht wie denn dieser extrem geringe Wert berechnet wurde und ob er denn auf die letzte Kommastelle stimme (Dietze & Cie) sei auf den Antrag der AfD verwiesen (hier) in dem der Rechenweg angegeben ist

 




Das Sommer­halbjahr 2018 machte seinem Namen alle Ehre – Ein Nachruf

Das Sommerhalbjahr 2018 – eine klimatologische Einordnung

Mit etwa 16,9°C (DWD-Deutschlandmittel, vorläufige Schätzung) erlebten wir 2018 das mit Abstand wärmste Sommerhalbjahr seit Beginn der DWD-Messreihe im Jahre 1881; die Folgeplätze bleiben für 1947 mit 16,1°C und 2003 mit 15,9°C. Den deutlichen Temperaturanstieg des Sommerhalbjahres seit 1856 und eine mögliche Ursache dafür, die AMO, (AMO = Atlantische Mehrzehnjährige Oszillation, ein Index für die gemittelten Meeresoberflächentemperaturen im zentralen Nordatlantik), zeigt folgende Grafik:

Abbildung 1: Deutliche Erwärmung des Sommerhalbjahres in Deutschland. Die Reihe beginnt mit dem Jahr 1856, weil ab da die AMO-Werte vorliegen. In den AMO-Warmphasen, speziell an deren Ende, traten warme Sommerhalbjahre gehäuft auf, so auch gegenwärtig. Die 2018er Werte sind geschätzt.

Erste, halbwegs verlässliche, durchgängige Temperaturmessungen wurden in Zentralengland durchgeführt. Auch wenn die dortigen atlantischeren Klimaverhältnisse nicht bedingungslos mit denen in Deutschland vergleichbar sind, lohnt sich ein Blick dorthin; denn er offenbart, dass es erstens längere Erwärmungsphasen schon immer gab, und dass zweitens die Erwärmung des Sommerhalbjahres insgesamt seit dem Maunder- Minimum, dem Höhepunkt der „Kleinen Eiszeit“, recht bescheiden ausgefallen ist. Und es gibt noch eine Überraschung: Dort war 2006 das bislang wärmste Sommerhalbjahr – voraussichtlich ganz knapp vor 2018:

Abbildung 2: Temperaturentwicklung des Sommerhalbjahres in Zentralengland (CET). Im Gegensatz zu Deutschland erwärmte sich dort das Sommerhalbjahr nur wenig; zumal, wenn man bedenkt, dass die Reihe mit den sehr kühlen Bedingungen der „Kleinen Eiszeit“ startet.

2018 – Das längste Sommerhalbjahr aller Zeiten?

Abgesehen vom kalendarischen Sommerhalbjahr (1. April bis 30. September) gibt es keine exakte Definition für die Dauer eines Sommerhalbjahres. Im meteorologischen Sinne ist es praktikabel, darunter einen einigermaßen zusammenhängenden Zeitraum warmer Tage (solche mit einem Tagesmaximum von mindestens 20,0°C) zu verstehen. Um das zu gewährleisten, sollte aber nur dann der erste und der letzte warme Tag registriert werden, wenn zwischen diesen höchstens eine Zeitspanne von 4 Wochen (28 Tage) ohne warme Tage liegt, denn einzelne „Ausreißer“ schon im März und noch Ende Oktober/Anfang November eröffnen oder schließen keine warme Jahreshälfte, wenn ihnen eine zu lange, kühle Periode folgt beziehungsweise vorausgeht. Was 2018 am Beispiel der Flugwetterwarte Erfurt/Weimar betrifft, so startete das zusammenhängende Sommerhalbjahr am 4. April sehr zeitig und dauerte (vorerst) bis zum 21. September – sollte es bis spätestens Mitte Oktober weitere warme Tage geben, was gar nicht so selten ist, wäre eine Verlängerung möglich. Die gab es 1989. Damals begann das Sommerhalbjahr bereits am 27. März und endete erst am 28. Oktober – das Sommerhalbjahr 2018 war also das wärmste, aber nicht unbedingt das längste. Die folgenden zwei Grafiken zeigen zur besseren Veranschaulichung zuerst ein sehr kurzes Sommerhalbjahr (1996), dann das sehr lange von 1989:

Abbildungen 3a und 3b: Sehr kurzes Sommerhalbjahr 1996 (oben); zwar wurde es damals schon um den 22. April über 20 Grad warm, doch dann folgten mehr als 28 Tage Kälte; und schon nach dem 4. September gab es keine warmen Tage mehr; auch keine späten „Ausreißer“ im Oktober. 1989 (unten) startete das Sommerhalbjahr am 27. März und währte bis zum 28. Oktober. Der bisherige Verlauf für 2018 fehlt noch, er wird aber aller Voraussicht nach die enorme Länge des Sommerhalbjahres von 1989 nicht erreichen; Bildquelle wetteronline.de; leicht ergänzt.

Die Niederschlagsverhältnisse – mehr Dürren im Sommerhalbjahr?

Exakte Definitionen des Begriffs „Dürre“ fehlen – es hängt viel von den subjektiven Betrachtungsweisen, der Betroffenheit einzelner Menschen oder Berufsgruppen, den örtlichen Gegebenheiten (Geografie, Infrastruktur) und den gesellschaftlichen Verhältnissen ab, was darunter verstanden wird. Indizien für Dürren sind geringe Monats-, Jahreszeiten- und Jahresniederschläge oder die Anzahl von Tagen, Wochen und Monaten ohne Niederschlag. Schon ein Blick auf die Entwicklung der Sommerhalbjahresniederschläge in Deutschland seit 1881 zeigt jedoch: Sehr trockene Sommerhalbjahre gab es schon immer, der Negativrekord von 2011 wurde knapp verfehlt, und ein Trend zu mehr Trockenheit ist nicht erkennbar:

Abbildung 4: Gebietsmittel der Niederschlagssummen für Deutschland im Zeitraum April bis September seit 1881. Ein merklicher Trend zu trockeneren Sommerhalbjahren fehlt bislang; auch die Streuung der Werte, welche ein Maß für ein extremeres Klima sein könnte (mehr Streuung bedeutet mehr nasse und dürre Sommerhalbjahre im Wechsel) wurde augenscheinlich nicht größer. Sehr trocken waren neben 1911 auch 1893, 1904, 1929, 1947, 1959, 1976 und 2003; 2018 wird den Negativrekord von 1911 aller Voraussicht nach verfehlen.

Einen gewissen Hinweis, ob sich Dürren häufen, liefert die Anzahl der niederschlagsarmen Monate je Dekade, hier am Beispiel Potsdams gezeigt, für das im Sommerhalbjahr alle Monate mit weniger als 30mm als wesentlich zu trocken gelten können. Es zeigt sich bislang keine signifikante Häufigkeitszunahme:

Abbildung 5: Von den 60 Sommerhalbjahres-Monaten einer Dekade in Potsdam seit 1893 war – mit leichten Schwankungen, meist etwas weniger als ein Viertel (15) zu trocken. Eine merkliche Zunahme ist nicht erkennbar, obwohl die 2013 begonnene Dekade noch nicht vollendet ist.

Wie immer in besonders trocken-heißen Sommerhalbjahren, gab es 2018 neben anhaltender, vorherrschender Dürre auch einzelne, schwere Unwetter, was die Diskussionen über den Klimawandel zusätzlich befeuerte. Doch ein einzelnes Sommerhalbjahr ist ein Wetter- oder Witterungsereignis; Klima ist erst eine Mittelbildung über ausreichend viele Sommerhalbjahre. Und Unwetter gehören (leider) seit Jahrtausenden zur unschönen Begleitmusik sehr warmer Sommerhalbjahre, außerdem treten sie zufällig auf; für eine eindeutige Häufung fehlen bislang eindeutige Anzeichen.

Mehr Sonnenstunden – mehr Wärme im Sommerhalbjahr

Deutschland liegt leider etwas näher zum Nordpol als zum Äquator. Nur im Sommerhalbjahr vermag hier die Sonne ausreichend Wärme und Licht zu spenden, und es ist folglich nur von April bis September mit zunehmender Sonnenscheindauer auch fast immer zunehmend wärmer. Hingegen ist der Einfluss der immer schneller steigenden CO2-Konzentration (Werte seit 1959 verfügbar) fraglich. Den recht engen Zusammenhang zwischen Sonnenscheindauer und Lufttemperaturen in Deutschland zeigt folgende Grafik:

Abbildung 6: Enge „Verzahnung“ zwischen den Sonnenstunden und den Lufttemperaturen im Sommerhalbjahr. Fast 60% der Variabilität der Temperatur in Deutschland im Sommerhalbjahr lässt sich mit der Sonnenscheindauer erklären; unsere Sommerhalbjahre erwärmten sich hauptsächlich, weil sie sonnenscheinreicher wurden. Als extrem sonnig können, bezogen auf das DWD-Mittel, alle Sommerhalbjahre mit mindestens 1400 Sonnenstunden gelten; diese sind in der Grafik ausgewiesen; denn wegen der sehr unterschiedlichen Größen der Lufttemperatur und der Sonnenscheindauer musste in Indexwerte umgerechnet werden. Das Rekord-Sommerhalbjahr 2018 war zugleich das sonnigste. Hingegen ist der Zusammenhang von CO2-Konzentration und Lufttemperaturen fraglich; denn in den 1970er Jahren sanken die Temperaturen trotz steigender CO2-Konzentrationen, und seit etwa 20 Jahren verlangsamte sich der Temperaturanstieg trotz beschleunigt steigender CO2-Werte.

Als besonders sonnenscheinreich erwiesen sich die Monate Mai und Juli 2018. Um den Zusammenhang zwischen Sonnenscheindauer und den Temperaturen des Sommerhalbjahres noch länger zurück zu verfolgen, muss man die Daten der Station Potsdam betrachten; denn für Deutschland insgesamt liegen nur bis 1951Werte vor:

Abbildung 7: Auch langfristig gilt: Kein Sommerhalbjahr war so sonnig wie 2018 – zumindest in Potsdam. Dort landete das Sommerhalbjahr von 1947 sowohl bei der Sonnenscheindauer als auch bei der Lufttemperatur auf Platz 2.

Über die Gründe der zunehmenden Besonnung lässt sich nur spekulieren. Neben geänderten Großwetterlagenhäufigkeiten, auf welche gleich noch eingegangen wird, kommen die Luftreinhaltemaßnahmen, die Sonnenaktivität selbst und die Austrocknung Deutschlands durch geänderte Landnutzung (Melioration), Bebauung und Versiegelung, in Betracht. Durch Letzteres fehlen intakte Böden und eine dichte Vegetation, was die Verdunstung und damit die Bildung von Wolken, Dunst oder Nebel erschwert.

Geänderte Großwetterlagenhäufigkeiten als Erwärmungsursache im Sommerhalbjahr?

Immer entscheidet die gerade herrschende Großwetterlage, welche Luftmasse nach Mitteleuropa gelangt. Wolkenarme Warmluft aus südlicheren Breiten ist eine wesentliche Voraussetzung für Hitze in Deutschland; doch auch bei Ost- und Zentralhochlagen kann es wegen der meist hohen Sonnenscheindauer sehr warm werden; Südwestlagen sind meist schwül und gewitterträchtig. Die im Winter zumindest im Flachland fast stets sehr milden West- und Nordwestlagen sowie die meist temperaturnormalen Nordlagen bringen hingegen wegen der vielen Wolken zu kühles, oftmals windiges und wechselhaftes Sommerwetter. Die nächste Grafik zeigt, wie sich die Häufigkeit dieser beiden gegensätzlichen Großwettertypen-Cluster in Relation zur Sommerhalbjahrestemperatur (Deutschland-Mittel) langfristig entwickelt hat:

Abbildung 8: Merkliche Häufigkeitsabnahme der im Sommerhalbjahr fast stets zu kühlen West-, Nordwest- und Nordlagen (dunkelblau); dafür häufigere Süd-, Südwest-, Südost- und Zentralhochlagen (rotbraun), welche meist zu warm ausfallen. Die Bestimmtheitsmaße beziehen auf das DWD-Deutschland-Temperaturmittel des Sommerhalbjahres, welches zur besseren Veranschaulichung ebenfalls in Indexwerte umgerechnet werden musste. Man beachte, dass der Zusammenhang zwischen den West-, Nordwest- und Nordlagenhäufigkeiten und der Temperatur stark negativ ist! Mit den geänderten Häufigkeitsverhältnissen der Großwetterlagen wurden unsere Sommerhalbjahre wärmer. Großwetterlagen-Klassifikation nach HESS/BREZOWSKY; die Daten für 2018 lagen noch nicht vollständig vor; so dass diese Grafik mit dem Sommerhalbjahr 2017 endet.

Das Sommerhalbjahr 2018 wies bis Ende Juli ungewöhnlich viele Ostwetterlagen auf; speziell im Mai, als mir 25 Tagen des Großwettertyps Ost ein neuer Häufigkeitsrekord seit 1881 aufgestellt wurde. Im Mai wirken diese – ganz anders als im Winter, meist deutlich erwärmend. Im August/September dominierten hingegen Zentralhoch- und Südwestlagen, welche gerade im Spätsommer stark erwärmend wirken. Diese besondere zeitliche Häufigkeitsabfolge der Großwetterlagen begünstigte auch eine hohe Sonnenscheindauer und trug ganz maßgeblich zu der enormen Wärme bei. Seit 1980 wird beim DWD außerdem die Objektive Wetterlagenklassifikation angewendet; diese erfolgt numerisch und liegt deshalb größtenteils schon vor. Am stärksten erwärmend wirken hier in der mittleren Troposphäre (500hPa) antizyklonale Lagen bei feuchter Atmosphäre; auch deren Häufigkeit erhöhte sich tendenziell merklich:

Abbildung 9: Mehr in der Höhe antizyklonale Großwetterlagen bei insgesamt feuchter Atmosphäre seit 1980 in Deutschland im Sommerhalbjahr. Diese wirken signifikant erwärmend. 2018 gab es mit mehr als 80 Tagen dieses Großwetterlagentyps einen neuen Häufigkeitsrekord.

Auf die Ursachen der geänderten Zirkulationsverhältnisse und Großwetterlagenhäufigkeiten kann im Rahmen dieses Beitrages nicht eingegangen werden. Interessierte Leser finden Näheres dazu in dem unlängst erschienenen Beitrag zu den Zirkulationsanomalien 2018 hier.

Der Wärmeinseleffekt heizt unseren Sommerhalbjahren ebenfalls ein

Über verschiedenste Wärmeinseleffekte (WI) wurde hier bei EIKE schon oft berichtet. Diese entstehen, wenn sich durch intensivere Landnutzung und/oder Bebauung die Vegetations- und Bodenverhältnisse ändern. Meliorationen und die landwirtschaftliche Intensivierung führen zu weniger Bodenfeuchte und damit ebenso zu weniger kühlender Verdunstung mit verminderter Wolken- und Nebelbildung wie Versiegelungen oder Bebauung. Letztere vermindern meistens auch die Albedo (Reflexionsvermögen, es wird mehr von dem einfallenden Sonnenlicht in Wärme umgewandelt; besonders bei dunklem Asphalt oder bei Solarpaneelen) und bremsen den kühlenden Wind. Wer in diesem Hitze-Sommerhalbjahr das Pech hatte, in einer Großstadt zu wohnen, war von diesen WI-Effekten besonders betroffen. WI-Effekte sind leider nicht mehr auf Großstädte beschränkt; dort aber am intensivsten und besonders in den Nächten spürbar. Während sich das Freiland in den Sommernächten angenehm abkühlt, geben die Gebäude und Straßenoberflächen mit ihrer gegenüber lockerem Mutterboden viel höheren Wärmekapazität nun die gespeicherte Wärme ab; gleichzeitig ist die kühlende Belüftung durch den Nachtwind eingeschränkt. Auch deshalb erwärmten sich Stationen, welche in solchen Wärmeinseln stehen, viel stärker als solche in kleineren Städten. Als Extrembeispiel sei hier der Vergleich mit den Original-Daten des DWD von Frankfurt/Main Flughafen und dem ländlicheren Gießen gezeigt:

Abbildung 10: In den letzten 50 Jahren erwärmte sich das boomende Frankfurt mit seinem ausufernden Flughafen im Sommerhalbjahr viel stärker als das ländlichere Gießen. War Frankfurt anfangs nur um gut 0,5 Grad wärmer, sind es heuer fast 2 Grad.

Zusammenfassung: Dieses Sommerhalbjahr 2018 brach viele, doch nicht alle Rekorde. Es war das wärmste, aber keinesfalls das längste und auch nicht das trockenste seit Aufzeichnungsbeginn im Jahre 1881. In den letzten Jahrzehnten häuften sich sonnige, heiße Sommerhalbjahre in Deutschland. Bislang fehlen jedoch eindeutige Anzeichen für eine Häufung sommerlicher Unwetter oder Dürren in Deutschland. Neben einer längeren Sonnenscheindauer trugen geänderte Großwetterlagenhäufigkeiten und verschiedenste Wärmeinseleffekte ganz wesentlich zur Erwärmung des Sommerhalbjahres bei. Über den zeitlichen Verlauf dieses denkwürdigen Sommerhalbjahres und dessen Auswirkungen auf Natur und Landwirtschaft wird im Teil 2 dieses Beitrages berichtet werden.

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Eine Reise nach Tschernobyl in 2018

Für die Rückholung werden unzutreffende Ansichten über die Ausbreitung und Wirkung radioaktiver Stoffe vorgebracht. Dazu kommen für die heutige und künftige Sicherheit der Menschen in den umliegenden Orten gänzlich bedeutungslose juristische Spitzfindigkeiten: Bei der Einlagerung der radioaktiven Abfälle in das Bergwerk wären irgendwelche Vorschriften nicht eingehalten worden.

Aber es gibt die Strahlenschutzkommission, unser oberstes Beratungsgremium auf dem Strahlengebiet. Das ist keineswegs eine Atomlobby. Die 20 Wissenschaftlerinnen und Wissenschaftler werden jeweils für 2 Jahre vom BMUB (Bundesministerium für Wissenschaft usw.) berufen. Diese haben einstimmig empfohlen und ausführlich begründet: Die radioaktiven Abfälle sollten unten bleiben.

Strikt gegen Kernenergie ist das Ökoinstitut Freiburg. Aber auch dort gibt es Fachleute, und Herr Michael Sailer hat bei einer Anhörung in Berlin überzeugend dargelegt: Wie die Lage nun einmal ist, sollten die Abfälle nicht wieder ans Tageslicht geholt werden.

Nicht ein Bundestagsabgeordneter hat ihn verstanden. Der Bundestag beschloss nach dieser Anhörung einstimmig: Die radioaktiven Abfälle müssen wieder raus. Wohin? Egal, jedenfalls erst einmal an die Erdoberfläche. Für jeden, der nicht politische Korrektheit, sondern die Wirklichkeit seinen Entscheidungen zugrunde legt, ist keiner dieser Abgeordneten mehr wählbar. Aber das war 2013. Heute gibt es glücklicherweise die AfD.

Auch sonst ist zu beobachten, dass die Zahl der Menschen zunimmt, welche sich für die Wirklichkeit interessieren. Immer mehr wollen sehen, wie es in Tschernobyl tatsächlich aussieht, allerdings weniger die Deutschen.

Ist es die Strahlenhölle, in der einem die Kaninchen mit zwei Köpfen entgegen hoppeln und man sich vor schweinegroßen Ratten fürchten muss?

Im Jahr 1992 brauchte man noch berufliche Beziehungen, um die Sperrzone besuchen zu dürfen. Ich hatte sie und war mit einer meiner Töchter dort. Schon damals setzte man sich keiner höheren Strahlendosis aus als im Flugzeug. Gärten sahen so aus wie man das nach 6 Jahren Vernachlässigung erwartet.

Im Jahr 2013 kam ich wieder, als normaler Tourist in einer Gruppe von 4 Leuten. Außer unserer kleinen Gruppe war noch eine etwas größere auf dem Reaktorgelände unterwegs. Wir sahen Wildpferde. Ein Kuckuck rief, das heißt, es lebten dort viele Kleinvögel. Die Bäume waren schon höher als die Bauernhäuser.

Bei den folgenden Besuchen 2014 und 2016 sahen wir stets steigende Touristenzahlen. 2017 sollen es 30.000 gewesen sein. Das wird dies Jahr (2018) sicher übertroffen. Als unsere 16-köpfige Gruppe in einem Kleinbus am Kontrollpunkt Dityatki ankam, standen da schon 11 weitere Kleinbusse und 3 große Busse. Schätzungsweise 350 Leute besuchten gleichzeitig das Sperrgebiet.

In unserer Gruppe waren Engländer, Holländer, Schweizer, ein Isländer. Mit mir reiste ein Radiologe. Nur drei Teilnehmer kamen aus fachlichem Interesse, außer uns eine englische Studentin der Psychologie. Was immer die Strahlung angerichtet hat, durch die Angst, welche dort erzeugt werden konnte, wurden mehr Leute krank. Für Psychologen ist das Unglück daher noch interessanter als für Physiker und Mediziner.

Wir waren schon viele Kilometer im Sperrgebiet herumgefahren, ohne eine erhöhte Strahlenintensität zu messen. Jedoch, nach Passieren eines weiteren Kontrollpunktes, waren es dann doch durchgehend 0,2 bis 0,5 Mikrosievert pro Stunde (µSv/h). Wenig gegenüber der kosmischen Strahlung im Flugzeug, wo wir bis zu 3,7 µSv/h gemessen haben, aber das Mehrfache der Umgebungsstrahlung im Flachland von 0,1 µSv/h.

Allerdings gibt es „hotspots“, die uns die Führerin zeigte, an denen auch die im Flugzeug ankommende kosmische Strahlung weit übertroffen wird. Wir haben an einigen Stellen bis 30 µSv/h gemessen. Das ist Weltraumniveau, so viel müssen Astronauten aushalten.

Der absolute Höhepunkt war ein kleiner Haufen Abfall in einem ehemaligen Krankenhaus mit 1.000 µSv/h, d.h. dem Zehntausendfachen der normalen Umgebungsstrahlung.

Ich habe abgeschätzt, welcher Dosis sich die Führerin aussetzt, die an jedem Arbeitstag den Touristen solche Attraktionen vorführt, natürlich immer nur kurz. Sie bekommt weniger Strahlung pro Jahr ab als eine Stewardess im Flugzeug.

In einem höher belasteten Bereich sind wir eine längere Strecke zu Fuß gelaufen. Da gesellte sich ein Hund zu uns, ein friedliches Tier, das sich streicheln ließ. Er und unsere Führerin kannten sich. Der Hund lebte an einem Kontrollpunkt und wurde „Alpha“ gerufen. Es gäbe dort zwei weitere Hunde, die man „Beta“ und „Gamma“ genannt hätte.

Gesundheitliche Probleme hatte Alpha nicht. Wie man aus – viel zu vielen – Tierversuchen weiß und aus Untersuchungen an Wildtieren im Sperrgebiet, reicht auch das Hundertfache der natürlichen Umgebungsstrahlung nicht, um biologische Wirkungen zu erzeugen. Aber sehen wir die Sache einmal vom Standpunkt der Strahlenhysteriker, d.h. vom heute noch allgemeinen Standpunkt. Kinder, die weit ab vom Sperrgebiet leben, werden nach Deutschland eingeladen, um sich hier von der Strahlung zu erholen. Abenteuerliche Behauptungen werden aufgestellt, so wären im Jahr 2013 in Gomel nur 20 % der Kinder gesund zur Welt gekommen. Aber Kinder, die man mehrmals für ein paar Wochen nach Deutschland einlädt, können gesund werden.

Wie sieht die Strahlensituation wirklich aus? Im Jahr 2009 wurde in einer der am stärksten belasteten Städte Weißrusslands, Bragin, als Höchstwert 0,6 µSv/h gemessen. Typische Höchstwerte anderswo lagen um 0,3 µSv/h. Das ist nun fast 10 Jahre her. Viel schlimmer ist es von Natur aus in anderen Ländern, und dort bleibt es auch so:

Kerala (Indien)           Mittel 0,4 µSv/h,    Maximum 4 µSv/h,

Guarapari (Brasilien) Mittel 0,6  µSv/h,   Maximum 4 µSv/h,

Ramsar (Iran)              Mittel 1,2 µSv/h,    Maximum 30 µSv/h.

 

Wann sind die armen Kinder aus diesen Gegenden dran?

Tierfreunde sollten zunächst an die erwähnten Hunde denken. Die leben immer im Sperrgebiet, laufen barfuß herum und lecken sich gelegentlich die Pfoten. Da wäre doch eine Erholung in Deutschland wichtig. Gegen ein nicht zu kleines Geldgeschenk sind die Besitzer sicherlich bereit, die Hunde für ein paar Wochen in Strahlenurlaub zu schicken.

Für die Feuerwehrleute und andere, welche bei den ersten Aktionen nach dem Unglück ums Leben kamen, wurden Denkmäler errichtet. Auf diesen steht: Sie haben ihr Leben geopfert, um unsere Welt zu retten.

Haben sie das? Natürlich nicht. Sie haben erreicht, dass nur ein kleiner Teil der radioaktiven Stoffe im Reaktor in die Umgebung freigesetzt wurde. Bei dem wichtigsten, Caesium 137, sind etwa 13 % freigesetzt worden. Hätte man nichts getan, wäre es das Mehrfache gewesen.

Nun gibt es die berechneten Strahlentoten. In einem offiziellen Bericht der weißrussischen Regierung wird das Unglück von Tschernobyl als das Schlimmste in der Geschichte der Technik bezeichnet, aber auch geschrieben: Die gesamte Sterblichkeit der Bevölkerung ist nicht angestiegen.

Da hört man von den Strahlenhysterikern anderes. Sie berechnen Tote mit Hilfe des Begriffes der Kollektivdosis. Lutz Niemann erklärt diesen Begriff passen anhand von Schnaps. Trinkt jemand 2 l Hochprozentiges in kurzer Zeit, ist er tot. 2 l sind also die tödliche Dosis. Teilen sich 100 Leute den Schnaps, jeder bekommt ein Schnäpschen von 20 ml, dann sind das zusammen wieder 2 l, eben die Kollektivdosis. Da nun 2 l tödlich sind, stirbt einer der 100 Schnapstrinker.

Nach dieser Rechnung mit Kollektivdosen haben die durch Strahlung gestorbenen Einsatzkräfte einer Unmenge von Menschen das Leben gerettet, wenn auch nicht die Welt. Legt man aber die gesicherte Erkenntnis zugrunde, dass es unter 100 mSv keine erkennbaren und unter 300 mSv keine für das Weiterleben gefährlichen Wirkungen gibt, und außerdem die Wirkung abnimmt, wenn diese Dosen über längere Zeiten verteilt sind, dann sieht die Sache anders aus.

Wer einen solchen Einsatz mitgemacht hat, verdient unsere höchste Achtung, wer ihn befohlen hat, nicht unbedingt.




12. Internationale Klima- und Energiekonferenz – Anmeldung ab sofort möglich!

12. IKEK am 23. und 24.11.18 in München

Das Programm ist wie immer sehr anspruchsvoll und wird von internationalen Wissenschaftlern durchgeführt. Die unten aufgeführten Links bitte anklicken, auswählen und ggf. anmelden

Der Veranstalter behält sich das Recht auf kurzfristige Programmänderungen vor.
Die Konferenz, mit Ausnahme der Tischrede, wird simultan Deutsch-Englisch / Englisch-Deutsch und gedolmetscht.

 

The program is as usual rather demanding, and will present top international scientists and their work. You can click the various links below to make your choice and than register. The conference, with the exception of the Dinner Speech, will be simultaneous German-English / English-German.

The organizer reserves the right to make short-term changes to the program.




Der Öffentlichkeit globale Erwärmung zu erklären ist unmöglich, weil wir nicht die gleiche Sprache sprechen

Er sagte:

Die ultimative Folge davon, die Menschheit vor den Auswirkungen von Dummheit zu schützen ist, die Welt mit Dummköpfen anzufüllen“.

,Nicht informiert‘ ist ein besseres Wort als Dummköpfe, aber das Problem ist das Gleiche. Es ist kein neues Problem, aber es scheint im heutigen, so genannten Informationszeitalter schlimmer denn je zu sein. Michael Crichton hatte recht, wenn er es das Zeitalter der Falschinformation nennt. Bertrand Russel sagte:

Das ganze Problem mit der Welt besteht darin, dass Dummköpfe und Fanatiker sich ihrer Sache immer so sicher und klügere Menschen so voller Zweifel sind“.

Voltaire schlug einen Beginn für Diskussionen vor:

Falls du dich mit mir unterhalten willst, definiere deine Anliegen“.

Ich würde hinzufügen, falls du dich mit mir unterhalten willst, sorge dafür, wenigstens minimal die Fakten zu verstehen. Während eines Interviews wurde ich kürzlich von einem Interviewer genervt, der unentwegt sagte, ich hätte unrecht und sei ein Lügner. Also forderte ich ihn schließlich heraus, der Zuhörerschaft den Treibhauseffekt zu erklären. Er konnte es nicht! Er wusste nicht einmal, dass die Treibhaus-Theorie auch zu einer kälteren Welt führen kann. Dieses fehlende Verständnis ist eine Folge der verwendeten Wörter. Die Öffentlichkeit assoziiert mit dem Terminus ein Treibhaus und folglich auch höhere Temperaturen. Dieses Konzept suggeriert automatisch Erwärmung. Das ist auch der Grund, warum diese Analogie für die politische Agenda und den Betrug der anthropogenen Erwärmung gewählt wurde. Viele andere Analogien, hauptsächlich ein Energie-Gleichgewicht implizierend, wie etwa Füllen und Ablassen einer Badewanne, wurden über die Jahre ins Spiel gebracht, konnten sich aber bisher nicht durchsetzen. Gleiches gilt für die Phrase „Löcher im Ozon“. Da sind keine Löcher, nur ein Gebiet mit einer Ausdünnung, aber die Phrase impliziert, dass etwas leckt oder zerbrochen ist.

Wegen dieser absichtlichen, in die Irre führenden Wortwahl ist es unglaublich, wie viele Menschen hartnäckig Standpunkte bzgl. globaler Erwärmung hegen, ohne auch nur die Grundlagen zu verstehen. Das führt zu dem unlösbaren Dilemma, logische Diskussionen über unlogische Dinge zu führen.

Dann gibt es da noch das zusätzliche Problem des technischen Jargons. Man schätzt, dass eine durchschnittliche englisch sprechende Person* einen Wortschatz von etwa 9000 Wörtern hat und dass etwa 100 dieser Wörter immer wieder verwendet werden. Die meisten glauben diese Zahlen nicht, was durch die Tatsache belegt wird, dass sie glauben, jedes Wort einer Fremdsprache lernen zu müssen, um sich in jener Sprache unterhalten zu können. Ich weiß, dass Shakespeare in seinen Dramen und Sonetten 24.000 Wörter verwendet und 1700 neue Wörter der Sprache hinzugefügt hat. Ich sagte meinen Studenten witzelnd, dass ich richtig lag mit 9000 zu 24.000 Wörtern, weil die Menschen nur etwa ein Drittel von Shakespeare verstehen. Das Oxford English Dictionary (OED) listet 171.476 Wörter, räumt aber ein, dass darunter viele Bereiche nicht abgedeckt werden, wie etwa der Jargon von Wissenschaftlern und Akademikern. Dennoch kommt es zu der Folgerung:

[*Weil ich nicht weiß, wie das bei Deutschen ist, bleibe ich hier und im Folgenden bei der direkten Übersetzung. Anm. d. Übers.]

Dies zeigt, dass es mindestens eine Viertel Million verschiedene englische Wörter gibt, ohne Beugung, und Wörter aus dem technischen oder auch regionalem Bereich nicht abgedeckt werden; oder dass Wörter noch nicht dem OED hinzugefügt worden sind, von denen 20% nicht länger gebräuchlich sind. Falls unterschiedliche Bedeutungen gezählt werden würden, würde sich die Gesamtzahl der Wörter vermutlich auf eine Dreiviertel Million belaufen“.

Ein Universitätsprofessor verfügt in der Regel über einen Wortschatz von 40.000 Wörtern, aber die Mehrzahl davon sind Fachwörter. Das Erste, was ein Student im ersten Semester gleich welchen Fachbereiches lernt, ist die ,Sprache‘ der jeweiligen Disziplin. Manchmal erfordert das Studiengebiet eindeutige Wörter, aber oftmals hat ein allgemein verwendetes Wort eine andere Bedeutung, was zu Konfusion führt. Das beste Beispiel hierfür ist ein Terminus, der zu Beginn der Debatte um die anthropogene globale Erwärmung AGW auftauchte, als all jene Wissenschaftler, welche richtigerweise die Theorie mittels des normalen wissenschaftlichen Verfahrens in Frage stellten, Skeptiker genannt wurden. Michael Shermer erklärt:

Wissenschaftler sind Skeptiker. Es ist unglücklich, dass das Wort ,Skeptiker‘ andere Bedeutungen in der Kultur angenommen hat, darunter Nihilismus und Zynismus. In Wirklichkeit ist es in seiner Reinheit und der ursprünglichen Bedeutung einfach nur nachdenkliches Hinterfragen“.

All dies rückte in dieser Woche wieder in den Mittelpunkt, weil ich in Diskussionen einbezogen wurde mit einer Gruppe, die eine Debatte arrangieren wollte. Ich bin immer grundsätzlich für Debatten und den freien Austausch von Gedanken und Meinungen, aber hier liegt das Problem. Falls zwei Wissenschaftler über ein Thema diskutieren, würde der größte Teil der Öffentlichkeit nicht folgen können, weil sie den Jargon nicht kennt und verschiedenen Wörtern eine unterschiedliche Bedeutung beimisst. Falls ein Wissenschaftler und ein Umweltaktivist oder auch nur ein durchschnittlicher Bürger diskutieren, gerät die Diskussion rasch zu einem emotionalen, faktenfreien Streit.

Die beschämende Wahrheit ist, dass Gerichte keinen wissenschaftlichen Fall behandeln, weil sie den Jargon nicht einmal auf der grundlegendsten Ebene verstehen. Es war für mich eine Herausforderung, einen Verteidiger zu finden, welcher wissenschaftlichen Grundlagen folgen konnte. Dazu nutzte ich das Wissen anderer Studenten, die sich Jura zugewandt hatten. Sie sagten mir, dass die meisten Anwälte Kunststudenten sind und die prozentual größte Fehlquote in einem Kurs über Steuerpolitik aufgetreten war, gewöhnlich im zweiten Jahr. Ich erhielt eine Liste mit Anwälten spezialisiert auf Diffamierung und fragte diese, wie sie sich bzgl. Steuerrecht machten. Derjenige, der sagte, dass er der Beste des Kurses und sehr stolz auf seine 84% war, wurde mein Anwalt. Bisher funktioniert das.

Das Problem fehlender Bildung bzgl. Zahlen erstreckt sich auf die Öffentlichkeit insgesamt. Abbildung 1 zeigt die Anzahl der 15-jährigen Schüler mit wissenschaftlichem Hintergrundwissen:

Abbildung 1

Das höchste Niveau weist Finnland auf mit etwa 18%, was bedeutet, dass 82% wissenschaftliche Erfahrung fehlt. Der Mittelwert über alle untersuchten Länder beträgt 10%. Man kann getrost annehmen, dass dies den Prozentanteil in der Gesellschaft reflektiert, so dass 90% nicht in der Lage sind, die Summary for Policymakers zu verstehen, welche explizit für die allgemeine Öffentlichkeit gedacht ist, geschweige denn die Wissenschafts-Berichte der Arbeitsgruppe 1 des IPCC.

Trotz dieser Unfähigkeit sind sie durchdrungen von dem Absolutismus, der Perfektion und der Unveränderbarkeit von Zahlen. Dies entwickelte sich aus einer Bewegung der 1920-ger Jahre mit der Bezeichnung logischer Positivismus und ist definiert als:

ist charakterisiert von der Ansicht, dass wissenschaftliche Kenntnisse die einzige Art tatsächlichen Wissens ist und dass jede traditionelle metaphysische Doktrin als bedeutungslos zurückgewiesen werden muss.

Hierauf entgegnete der Mathematiker und Philosoph A. N. Whitehead (1861-1947):

Es gibt keinen größeren Irrtum als zu vermuten, dass weil längere und genaue mathematische Berechnungen durchgeführt worden waren, die Anwendung des Ergebnisses auf einige Fakten der Natur absolut sicher ist.

Die Menschen sind derartig durchdrungen von logischem Positivismus, dass sie einfach nicht glauben können, dass es unterschiedliche Arten von Zahlen und also auch Daten gibt. Schon früh in meiner Laufbahn habe ich erfahren, dass Zahlen bei der Untersuchung von Energie-Input bei der Bildung eines Strandes diskret oder kontinuierlich sind. In vielen statistischen Anwendungen ist dieser Unterschied entscheidend für die Validität der Ergebnisse. Die meisten Menschen wissen noch nicht einmal, dass in einigen Bereichen der Mathematik imaginäre Zahlen verwendet werden.

Gleichzeitig mit dem Aufkommen des logischen Positivismus wurden Statistiken angewendet auf die Gesellschaft und vor allem auf Menschen und menschliches Verhalten. Hierzu habe ich in meinem vorigen Beitrag mit dem Titel [übersetzt] „Standardabweichung – die übersehene, aber essentielle Klima-Statistik“(hier) etwas geschrieben. Klima, das Mittel von Wetter, wurde schon von den Griechen studiert und verstanden, tauchte aber in der Historie erst während der ersten Hälfte des 20. Jahrhunderts auf. Um auf Wünsche von Piloten im 1. Weltkrieg einzugehen, wurde Meteorologie das, was jeder in Relation zu Wetter wusste. Das gilt heute immer noch, aber nur wenige Menschen wissen, dass Meteorologie begrenzt ist auf das Studium der Physik der Atmosphäre. Klima tauchte in nationalen Wetterdiensten nur deswegen auf, weil jemand – zumeist eine Person, die des Vorhersagens überdrüssig war – tägliche, wöchentliche und monatliche Mittelwerte erstellen musste. Darum war und ist das in der World Meteorological Organization (WMO) verblieben. Nach 1947 waren die Aufgaben immer noch diktiert von dem Bedarf nach Vorhersagen für die Luftfahrt, weshalb Wetterstationen zumeist an Flughäfen eingerichtet worden waren, und die einzige Referenz von Verpflichtungen für alle Agenturen unter dem Schirm der WMO „Klimatologische Statistik“ war.

Alles begann, als Reid Bryson (1920-2008) und Hubert Lamb (1913-1997) damit anfingen, sich ernsthaft mit Klimatologie zu befassen. Bryson gründete im Jahre 1948 die Abteilung Meteorologie an der University of Wisconsin-Madison und dem Center for Climatic Research. Lamb gründete die Climatic Research Unit CRU im Jahre 1972, um Klimadaten und langzeitliche Aufzeichnungen aus der Vergangenheit zu rekonstruieren, die schon lange zuvor aufgekeimt waren. Der Independent erklärt in seinem Nachruf auf Lamb:

Etwa zur gleichen Zeit (1950), hatten Lamb – und Klimatologie – großes Glück. Er wurde in die dahin siechende Abteilung Klimatologie im Met.-Office versetzt, wo er ohne wesentliche Unterbrechung seiner Faszination nachgehen konnte für etwas, was möglicherweise das vollständigste und nie untersuchte meteorologische Archiv der Welt war. Er erstellte Rekonstruktionen der monatlichen atmosphärischen Zirkulation über dem Nordatlantik und Europa bis zurück zum Jahr 1750, was ihn immer mehr von der Realität des Klimawandels überzeugte in zeitlichen Größenordnungen, die für die moderne Menschheit von Bedeutung waren. Er begann auch, erstmals Verbindungen herzustellen zwischen der Wassertemperatur in den Ozeanen und der atmosphärischen Zirkulation.

Es ist eine Ironie, dass es heutzutage große Bemühungen gibt, derartige Verbindungen zu verstehen, und zwar wegen der Bedeutung von Verbindungen zwischen ozeanischer Zirkulation und der darüber liegenden Atmosphäre. Lambs Verfahren wurde völlig unkritisch übernommen bis zum Ende seines Lebens.

Lamb hatte recht bzgl. des Gebrauchs von Computern und deren Anwendung, aber er hatte auch recht bzgl. der Probleme, die inhärent in der Forschung über ein allgemeines Thema vorhanden sind, in welchem es so viele Unter-Themen gibt. Darum ist Klimatologie traditionellerweise in der originalen integrativen Disziplin Physikalische Geographie gelehrt worden.

Dieser neue Studienbereich wird als ein Zweig der atmosphärischen Wissenschaften angesehen und als Unterbereich von physikalischer Geographie, welche eine der Geowissenschaften ist“.

Viele versuchen mich niederzumachen, weil ich meinen Ph.D. in Geographie habe. Das war eines der Dinge, auf denen der Interviewer immer wieder herumtrat, der mich einen Lügner genannt hatte. Die einzigen Klimatologie-Optionen außerhalb Physikalischer Geographie waren zu jener Zeit die Verfahren von Bryson oder Lamb. Ich kontaktierte Wisconsin, konnte es mir aber nicht leisten, persönlich dorthin zu kommen. Stattdessen erreichte ich meinen Grad am Queen Mary College an der University of London,, wo sich mein Doktorvater, Dr. Bruce Atkinson, auf das Studium städtischer Wärmeinseln spezialisiert hatte. Er arrangierte viele Treffen von Prof. Lamb von East Anglia mit mir. Schon damals wurde ich Zeuge der schändlichen Art und Weise, mit der man – kontrolliert und angestiftet von Tom Wigley und Phil Jones, die später die CRU und das IPCC kontrollierten – ihn behandelt und über ihn gesprochen hat. Glücklicherweise sind deren Aktivitäten und Verhalten in den Klimagate-E-Mails vom November 2009 bekannt geworden.

In einigen wenigen Disziplinen wie etwa dem Studium von System-Analysen versteht man das fundamentale Problem im Zentrum der AGW-Problematik. Abbildung 2 ist ein einfaches Systemdiagramm der Atmosphäre, erstellt von Kellogg und Schneider im Jahre 1974. Die so genannten Klimawissenschaftler verstehen nicht. Die Arroganteren unter ihnen glauben, weil sie Grade in Mathematik oder Physik haben, dass sie darüber stehen und es verstehen, während wir Anderen dumm sind, weil wir versuchen, selbst die größeren Teile des Systems richtig zu verstehen. Es ist die unvermeidliche Ausweitung von logischem Positivismus.

Abbildung 2

Die arroganten Wenigen, welche den Rest von uns schikanieren, erkennen noch nicht einmal den Unterschied zwischen Verallgemeinerung und Spezialisierung. Sie wissen nicht, dass es für jeden Teilbereich in dem Diagramm unterschiedliche Spezialisten gibt, wobei jeder einen anderen Jargon verwendet. Man frage sie einfach mal, ob sie die Bedeutung des Wortes yazoo kennen, welches von Experten in den Mund genommen wird, die den Boden-Durchfluss [overland flow] von „Niederschlag“ in dem Diagramm untersuchen.

Jetzt weiß man, warum es zu jedem IPCC-Report ein Glossar gibt, einschließlich der Summary for Policymakers (SPM). Daraus die Definition von Abscheidung [Sequestrierung]:

Die Aufnahme (d. h. die Hinzufügung einer bedenklichen Substanz zu einem Reservoir) von Kohlenstoff enthaltenden Substanzen, vor allem Kohlendioxid, in terrestrische oder maritime Reservoire. Biologische Abscheidung schließt das direkte Entfernen von CO2 aus der Atmosphäre ein mittels Veränderungen des Landverbrauchs LUC, Aufforstung, Wiederbegrünung, Kohlenstoff-Speicherung auf Deponien und Verfahren, welche den Kohlenstoffgehalt des Bodens in der Landwirtschaft verbessern. In Teilen der Literatur, aber nicht in diesem Report, wird die Kohlenstoff-Abscheidung diskutiert.

Also ist der größte Teil der Bevölkerung nicht besser informiert, und ein Teil derselben, die Rechtsanwälte, verstehen darunter etwas ganz anderes.

Die Aufgabe, einige wenige Punkte als Hinterfragung von AGW aufzustellen, ist es, diese im meist verbreiteten und weithin verständlichem Englisch zu formulieren. Natürlich muss man etwas Klassisches überwinden: nämlich die numerisch und linguistisch ungenaue Behauptung, dass 97% aller Wissenschaftler übereinstimmen. Viel Glück!

Link: https://wattsupwiththat.com/2018/09/23/explaining-global-warming-to-the-public-is-impossible-because-we-are-not-talking-the-same-language/

Übersetzt von Chris Frey EIKE




AfD MdB Marc Bernhard: Fahrverbote politisch gewollt

Die Parteien, die seit 20 Jahren die Regierung stellen oder die Regierungspolitik im Bundestag lautstark unterstützt haben, sind verantwortlich für die Fahrverbote in deutschen Städten. Nur die AfD fordert eine Korrektur des Stickstoffdioxid-Grenzwerts und ein Ende der Fahrverbote.

Die AfD hat am 26.9.18 im Umweltausschuss des Bundestages eine öffentliche Anhörung zum umstrittenen Stickstoffdioxid-Grenzwert beantragt.

Der Karlsruher Bundestagsabgeordnete der AfD-Fraktion und Mitglied im Umweltausschuss Marc Bernhard kritisiert: Die Alt-Parteien (CDU/CSU, SPD, FDP, Linke und Grüne) ducken sich weg und verweigern eine öffentliche Anhörung zum Stickstoffdioxid-Grenzwert im Umweltausschuss des Bundestages. Luftqualitäts-Grenzwerte fallen nicht vom Himmel, sondern sind politisch gewollt. Die Parteien, die seit 20 Jahren die Regierung stellen oder die Regierungspolitik im Bundestag lautstark unterstützt haben, tragen die volle Verantwortung, wenn es in Frankfurt und anderswo zu Fahrverboten für kommt. Grundlage für die drohenden Fahrverbote ist der Stickstoffdioxid-Grenzwert von 40 Mikrogramm pro Kubikmeter in der EU-Luftqualitäts-Richtlinie, dieser Grenzwert ist viel zu niedrig und wissenschaftlich nicht begründet. Klares Ergebnis des Diesel-Untersuchungsausschuss im Bundestag war, es sind keine Gesundheitsbeeinträchtigungen durch Stickstoffdioxid in Konzentrationen unter 900 Mikrogramm nachweisbar. Der Stick-stoffdioxid-Grenzwert für Arbeitsplätze beträgt dementsprechend 950 Mikrogramm. Und wo liegen die Grenzwerte für die Außenluft? Bei gerade einmal 40 Mikrogramm. Dort also, wo sich die Menschen 8 Stunden und mehr jeden Arbeitstag aufhalten, dürfen sie mehr als das 20-fache dessen einatmen, als an der Kreuzung, wo sie nur wenige Minuten am Tag sind.

Vor etwa 20 Jahren hat die Bundesregierung diesem willkürlich gewählten Stichstoffdioxid-Grenzwert in Brüssel zugestimmt und mit verabschiedet. In den letzten 20 Jahren wurde trotz zusätzlicher Erkenntnisse über die mangelnde wissenschaftliche Begründung von der Bundesregierung nichts unternommen um den Grenzwert zu korrigieren.

In der gleichen Zeit hat sich die Luftqualität ganz erheblich verbessert, so sanken die Stickstoffdioxid-Emissionen von 2,9 Millionen Tonnen auf 1,2 Millionen Tonnen.

Nur die AfD fordert eine Korrektur des Stickstoffdioxid-Grenzwerts und ein Ende der Fahrverbote.

Pressemitteilung des AfD MdB Marc Bernhard




Offener Brief an die SPD Genossen in Hessen und anderswo

Liebe SPD-Genossen in Hessen, RLP und NRW
(..auch liebe diskrete Mitleser und Nicht-Genossen beim BCC..)

der „parteiinterne Störenfried“ Werner Eisenkopf aus Runkel/Lahn, ist nicht „nur ein unbelehrbarer dummer Windkraftgegner“ sondern in einigen Dingen offenbar viel besser informiert und erfahren, als TSG (Einfügung der Redaktion: TSG steht für Thorsten Schäfer-Gümbel) & Schattenkabinett. Anbei eine kleine Auswahl von „alternativen Infos“ in einem Offenen Brief…

Haben Sie die Infos von der Bürgermeisterwahl der neuen Verbandsgemeinde Nassau/Bad Ems in RLP vom Sonntag? Da trat der Landesvorsitzende der GRÜNEN von Rheinland-Pfalz, Joseph Winkler im 1. Wahlgang unter 5 Kandidaten an und wurde LETZTER mit den wenigsten Stimmen dort. Die Vertreter von SPD und CDU gehen in die baldige Stichwahl. Doch auch der Kandidat der FW und ein unabhängiger Kandidat, hatten mehr Stimmen als der GRÜNE! Ich las das gestern im Teletext vom SWR/RLP.

Während beim Hambacher Forst ganze „Dschungelkriege“ um „Bäume und Klima“ geführt werden mit viel Medien-Tamtam, werden zugleich ohne Proteste solcher „Baumschützer“ und ohne Medienberichte, große Waldflächen nur etwas weiter westlich gefällt. Nämlich im Aachener Münsterwald! Alles Baumfällen dort, also tausende Bäume, nur für 7 riesige genehmigte Windräder dort und ihre breiten Schneisen. Auch begründet „wegen Klima und Ökostrom“ und somit Absurdistan. Oder einfach nur „SPD-GRÜN-Öko-Klima-Logik“? Baum in HAMBACH=guter Baum=Schützenswert, Baum sonstwo im Wald=entbehrlicher Baum=FÄLLEN – vor allem bei Windparks!

Bundeskanzler Steinmeier gerade auf Finnlandbesuch, äußerte dort gestern, daß man „von Finnland beim Klimaschutz lernen“ könne. Ob der wußte, was er da verbreitete? Finnland setzt vor allem auf Kernkraft, baut gerade neue Atomkraftwerke und exportiert Atomstrom, u.a. nach Norwegen, wo man im Winter nämlich recht knapp dran ist! Hat Steinmeier das „Atomare“ trotzdem gewußt oder dachte er, die Finnen setzen wie die Deutschen etwa nur auf Windräderlein? Finnland, Frankreich und andere Länder, meinen beim Wort „Klimaschutz“ vor allem „Kernkraft ausbauen“ aber das begreifen Deutsche nicht und die deutschen Medien ersparen ihren Zuschauern meistens gnädig solche unerwünschten Öko-Seelenqualen mit „Nicht-Berichterstattung“ (daher das Wort „Lücken-Medien“)…

Vielleicht können Sie ja damit sogar irgendwas konkreter anfangen? Wundern würde mich das aber dann schon…

Dann noch zur Braunkohle. In Deutschland soll das ja beendet werden und die Arbeitsplätze verschwinden. Macht nichts! dafür erschließen andere Länder wie z.B. Pakistan nun erst ihre riesigen Braunkohlevorkommen und werden den später den Markt übernehmen und beschicken. Finanziert wird das übrigens alles aus China. China gehören schon heute die meisten Schlüsselfirmen in Asien, in Afrika und Südamerika. Ganze Länder wie Surinam, sind schon fast „Kolonien“ von China und finanziell völlig chinesisch einkassiert. In den USA und in Europa sind chinesische Investoren schon gut eingekauft, siehe KUKA in Augsburg (Industrieroboter) und Autozulieferer. So ganz nebenbei ist Indonesien einer der weltweit größten Exporteure von Kohle mit zunehmendem Umfang. Da wird keine Kohlegrube stillgelegt, bevor sie erschöpft ist. Indien kommt auch noch ganz speziell dazu.

Indien, Indonesien, Pakistan und China sind vom „Pariser Klimaabkommen“ überhaupt nicht einschränkend betroffen und können Kraftwerke und Industrie, uneingeschränkt aus- und weiterbauen wie gehabt. Nur die deutschen Idioten meinen, mit der Selbst-Demontage eine „Welt zu retten“ als Selbstbetrug und ungeachtet der Realität. Immerhin leben wir alle auf demselben Planeten, falls das im Ölo-Glaubenseifer schlicht vergessen wurde. Wenn die einen ständig mehrfach weiter ihre Kapazitäten ausbauen, was macht dann es denn bitteschön Sinn, wenn die anderen (also Deutschland/EU) sich demontieren? Das „Pariser Klimaabkommen“ ist nichts anderes als purer Irrsinn!

Wußte einer aus dem „TSG-Team“ denn bitteschön genaueres über die neue Eisenbahn-Schnellverbindung Budapest-Belgrad(-Piräus) durch chinesische Firmen und vor allem mit chinesische Geldern? Genaueres zu „Chinas neue Seidenstraße“? Wirtschaft und Energie sind nicht nur „Öko und Windräder“ und ein „Buchautor TSG“ hat bei aller „digitaler“ Zukunftsschwelgerei in seinem Kultbuch (***), so „unwichtige“ profane Dinge offenbar vergessen, wie unseren alltäglichen Straßenbelag (Asphalt), unseren Stahl, unsere Baustoffe (Zement,Kalk) usw. die in einer „karbonfreien digitalen Zukunft“ offenbar nur noch aus dem Ausland importiert werden könnten, weil sie ohne Kohle/Erdöl gar nicht herstellbar sind. Was schert sich denn Politik und Zukunftsvision, um so profane Dinge wie Physik, Bezahlbarkeit für die einfachen Menschen und Realwirtschaft?

Nun mal ganz knallhart. Wer das Wort „Klimaschutz“ in den Mund nimmt, ist entweder ein naiver gutgläubiger Weltfremdmensch oder ein gewissenloser korrupter Geschäftemacher, oder irgendwas und irgendwo in der Riesenspanne dazwischen! Wir wollen bei uns die Kraftwerke stillegen, wo China zugleich, Jahr für Jahr soviel an Kohlekraftwerkskapazitäten neu ZUBAUT, wie Deutschland überhaupt insgesamt besitzt! Dies dann übrigens Jahr für Jahr weiter ausbauend, bis mindestens 2030. Derzeit sind in Asien ca. 1600 neue Kohlekraftwerke im Bau! Die deutsche/europäische „Klimapolitik“ ist somit nur ein „industrieller Selbstmord für ein ideologisches Ziel“ ohne irgendeinen real wahrnehmbaren Einfluß auf das Wetter! Das Wetter als Statistik zusammengefaßt, ergibt das „Klima“ und das ist somit nur ein mathematisches Gebilde, nicht aber sowas Knuddeliges wie eine Mischzucht aus Eisbär&Robbe. Alle Klima-Prognosen weltweit, sind nur reine theoretisch-mathematische Computer-Modelle, die je nach fleißger Parameter-Verschieberei an „Ergebnissen“ nachher das ausspucken, was der Bediener und seine Finanzierer sich eben vorab wünschten.

Leider hatte die AfD völlig recht, als sie im Sommer 2018 im Bundestag das „Beenden der teuren Klimamaßnahmen wegen Wirkungslosigkeit“ (hier und hier) forderte, was undere tollen Medien sogar meistens dem Normalbürger als Meldung ersparten. Politik ist in Deutschland offenbar nur noch mit „abgeschalteten Gehirnteilen beim gesunden Menschenverstand“ möglich? Diejenigen, deren Stromanschluß wegen Zahlungsunfähigkeit bei immer höheren Stromkosten abgeschaltet wurden, werden dann gewiß weder Rot, noch Grün wählen und Merkels CDU auch nicht…

Falls das jemand sogar komplett bis hier gelesen haben sollte, bedanke ich mich.

MfG
Werner Eisenkopf
Runkel/Lahn




Grüner Strom ist Fake-Strom

„Als Fake (Engl., eigentlich Fälschung) bezeichnet man ein Imitat, einen Schwindel oder eine Vortäuschung falscher Tatsachen. Im weiteren Sinne ist Fake ein Begriff für den damit verbundenen Betrug.“So steht es bei Wikipedia. Die Deutsche Energiepolitik und vor allem die Versorgung mit grünem Strom ist nach dieser Definition ein Fake. Das soll an einer Reihe von Beispielen erläutert werden.

Einfügung der Redaktion

Dr.Edenhofer Vizechef des Potsdam Instituts für Klimaforschungsfolgen (PIK) und Vizechef des

IPCC Ottmar Edenhofer

Heft „et“ – Energiewirtschaftliche Tagesfragen 5

Klimavorschriften: „Sie sollen rentablen Technologien Klötze ans Bein binden, neuen grünen Technologien uneinholbare Vorteile verschaffen.“

Neue Zürcher Zeitung (NZZ) Interview mit Bernd Pötter

 „Wir verteilen durch die Klimapolitik defacto das Weltvermögen um“

http://www.nzz.ch/aktuell/startseite/klimapolitik=verteilt=das=weltvermoegen=neu=1.8373227

Kann Deutschland mit 80 oder sogar 100 Prozent grünem Strom versorgt werden?

Das ist nicht möglich, weil mit dem wetterabhängigen, ständig schwankenden Strom aus Wind- und Solaranlagen keine stabile Netzfrequenz mit gleicher Phase möglich ist. Schon geringe Abweichungen von Frequenz und Phase der einzelnen Anlagen führen zu einem Wellensalat, also zum Zusammenbrechen des Netzes. Es müssen wenigstens 45 Prozent des Stromes von den großen Kraftwerken kommen, deren Turbinen synchronisiert sind. Die Kleinerzeuger müssen ihren Strom auf die Frequenz und Phase der Kraftwerke vor der Einspeisung in das Netz regeln. Geringe Abweichungen werden von der Grundlast der großen Kraftwerke dann geschluckt.

Das Wendeziel selbst ist also ein Fake. Es wird ein Ziel vorgetäuscht, das technisch nicht zu erreichen ist. Schon heute haben wir bei Starkwind und Sonnenschein zu viel grünen Strom, der unter Zuzahlung entsorgt werden muss. Mit jeder weiteren Wind- und Solaranlage wird mehr unbrauchbarer Strom, Fake-Strom, erzeugt.

Stromversorger werben mit Fake-Strom

Fast alle Stromversorger bieten grünen Strom an, in einigen Fällen sogar preiswerter als den normalen Netzstrom. Dem nicht sachkundigen Verbraucher wird vorgegaukelt, er würde tatsächlich grünen Strom beziehen. Doch das ist technisch nicht möglich. Er erhält den gleichen Strom wie auch sein Nachbar, der mit dem allgemeinen Netzstrom versorgt wird. Erst im Kleingedruckten erfährt er, sein Versorger hätte grünen Strom eingekauft, der irgendwann in das Netz eingespeist wurde.

 

Die Versorgung mit grünem Strom wie auch die Behauptung der Bahn, man würde mit grünem Strom durch die Lande fahren, wenn man eine Bahn Card besitzt, erfüllen voll die Fake-Definition. Es ist die Vortäuschung falscher Tatsachen.

Die installierte Leistung von Wind- und Solaranlagen erreicht fast 100.000 Megawatt

Die geforderte Leistung liegt in Deutschland bei 40.000 bis 80.000 Megawatt, abhängig von der Tageszeit und dem Wochentag. Danach müsste eine Vollversorgung mit grünem Strom möglich sein. Doch diese einfache Rechnung geht nicht auf, denn der Wind weht meistens zu schwach oder auch gar nicht und die Sonne scheint nur am Tag und wird oft von Wolken verdeckt. So liegt die mittlere Jahresleistung von Windturbinen nur bei 20 Prozent und von Solaranlagen nur bei 10 Prozent der installierten Leistung.

Die installierte Leistung bestimmt die Investitionskosten. Für Dampfkraftwerke und Windgeneratoren muss man für ein Megawatt Leistung eine Million Euro investieren. Die Windgeneratoren erreichen selbst  bei Starkwind nicht ihre volle Leistung, weil Bodenwirbel oder Wirbel durch benachbarte Turbinen ein gleichmäßiges Anblasen der Rotoren verhindern. Die konventionellen Dampf- und Gaskraftwerke können dagegen jederzeit ihre installierte Leistung abgeben. Der Bau von Windgeneratoren mit gleicher verfügbarer Jahresleistung kostet also das Fünffache im Vergleich zu Dampfkraftwerken.

Die Leistung von Wind- und Solaranlagen lässt sich dagegen nicht planen. Nachts und bei Flauten wird die Leistung Null. Es handelt sich um FakePower (Leistung, englisch: Power).

Autark mit FakePower?

Am 13. September brachte das ZDF in der Heute-Sendung einen Bericht über die Nordseeinsel Borkum, die nach den Vorstellungen des Bürgermeisters in Zukunft vollständig mit Windstrom aus der Nordsee und von Solardächern, also mit FakePower, versorgt werden soll. Profiteure stellten Batteriespeicher für Solaranlagen vor und in der Grundschule bauten Kinder kleine Windgeneratoren, die mit ein paar Haartrocknern angetrieben wurden. Die Kinder wussten, sie müssen die Energiewende vorantreiben, um die bösen Strahlen von Kernkraftwerken zu verhindern und das Klima zu retten. Hier zeigte sich die Indoktrination von ihrer schlimmsten Seite, nämlich Kinder einseitig und falsch zu prägen, um eigene ideologische Vorstellungen durchzusetzen.

Der Bürgermeister von Borkum, aber auch die Mitarbeiter des ZDF, brauchen sich nur in der Welt umzuschauen, ob eine Versorgung mit FakePower gelingt. Es gibt eine Reihe von Inseln und Dörfer, die das versucht haben. Das Ergebnis war in allen Fällen niederschmetternd. Die Spannung schwankte stark. Es gab ständige Stromausfälle. Die Stromkosten stiegen auf einen Euro pro Kilowattstunde. Die Autarkiebestrebungen mussten aufgegeben werden.

Zur Anschauung reicht bereits eine Reise zur Insel Pellworm.  Dort wurden Batterien als Speicher installiert, die den Strombedarf für zwei Wochen abdecken können. Doch es wird nicht gewagt, die Netzstromleitung zur Insel zu kappen. Der lokale Stromversorger, die Schleswig-Holsteinische Netz AG, eine Tochter von e-on, ist inzwischen aus dem Projekt ausgestiegen. Es ist wohl ein Zusatzgeschäft.

In Australien wurden etliche Kohlekraftwerke stillgelegt und die Energieversorger geben an den Kontinent inzwischen mit 40 Prozent grünem Strom zu versorgen. Die nachgewiesenen Folgen sind häufige Stromausfälle, durch die auch Tote zu beklagen sind, und steigende Kosten.

FakePower ist teuer und unzuverlässig. Wann realisieren das die deutsche Regierung und die deutschen Politiker?

 

Hans-Günter Appel

Pressesprecher, Stromverbraucherschutz NAEB e.V.

www.naeb.de