1

Schlechte Erntejahre kommen ganz offenbar immer häufiger

Aufmacherbild rechts: Bild: 123 RF Dateinummer : 16475901 Urheber : Sergii Kolesnyk

Der Autor verspricht, dass dies nun die letzte (diesjährige) Info zum Hopfen wird. Aber diese Pflanze ist und bleibt ein Paradebeispiel für den Lug und Betrug um das sich ständig ändernde Wetter und Klima. Vielleicht liegt dies einfach daran, dass ausgerechnet Cem Özdemir Bier-Botschafter ist und diese Pflanze damit in den „Klimawandel-Strudel“ der Grünen hineingezogen wurde. Man stelle sich vor, ein „Obergrüner“ ist Botschafter einer Pflanze welche belegt, dass der ominöse Klimawandel enorme Vorteile bringt. Da müssen schnell Studien her die das Gegenteil beweisen.

Deutscher Brauer Bund e.V. Berlin, 20. Mai 2015:Der Deutsche Brauer-Bund (DBB) hat Grünen-Chef Cem Özdemir zwei Hopfenpflanzen überreicht, die nun bis zur Erntezeit im August den Hof der Berliner Parteizentrale begrünen werden. Der DBB lieferte Özdemir, der amtierender „Botschafter des Bieres“ ist, zwei Hopfenpflanzen in die Grünen-Geschäftsstelle.

Dabei ist ausgerechnet der Hopfenanbau ein exemplarisches Beispiel, wie aus einer vor dem Klimawandel in Deutschland fast aufgegebenen Frucht mit gerade noch 3 Ztr. / ha Ertrag durch den ominösen „Klimawandel“ und erfolgreiche Forschung in der Fungizidbehandlung ein Erfolgsmodell wurde (Vortrag: [6] Michael Doetsch).

Erinnerung an das vergangene Jahr 2015

Der nicht mehr aufhaltbare Untergang

Letztes Jahr um fast die gleiche Zeit berichtete der FOCUS, das Blatt für [3] „… junge, bildungs- und karrierebewusste Menschen“: [2] Wird unser Bier teurer? Klimawandel bedroht Hopfenanbau: Deutsche müssen mit fatalen Folgen rechnen

In einer Rezension hat der Autor damals diese – auf Basis einer dilettantischen Studie der Grünen – getätigten Aussagen nachgesehen und das Ergebnis publiziert: [4] Grüne Abgeordnete Barbara Höhn durch Fakten widerlegt: Der Hopfenertrag steigt trotz Klimawandel

Ein Jahr später, Hopfenernte so gut wie noch nie

Ein Jahr ist vorüber und der diesjährige Hopfenertragmindestens so hoch wie die bisher höchste Ernte der bekannten Hopfengeschichte im Jahr 2014! Nach dem die ca. 4 % zusätzliche Anbaufläche im ersten Jahr nur ca. 10 … 15 % Ertrag bringt, kann sogar vermutet werden, dass es der höchste Ertrag in der notierten Hopfengeschichte Deutschlands wird.  Trotzdem finden sich „Klima-Fachpersonen“, welche das in ihrem Simulationskämmerchen nicht mitbekommen haben und dem Hopfen den künftigen Klimawandel-Untergang prophezeien. Auch das wurde vor kurzem rezitiert und berichtet: [5] Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?

Nun waren das eine Grüne und das andere eine selbsternannte „Klima-Fachperson“. Von Beiden kann man kaum eine neutrale Antwort erwarten. Wenn aber der Präsident des Verbandes Deutscher Hopfenpflanzer über die Erntemengen spricht, sollte man erwarten (können), dass ihm wenigstens diese bekannt sind. Ob es so ist, sei anhand seiner jüngsten Aussage zur Problematik der Hopfen-Ernteerträge von einem Nicht-Fachmann nachgesehen.

Der Präsident des Verbandes deutscher Hopfenpflanzer, lies über die Medien berichten:
FOCUS 25.08.2016: [1] Wer in Deutschland Hopfenpflanzer ist, braucht starke Nerven. Denn die Erntemengen schwanken seit Jahren extrem.
Wegen der extremen Hitze mussten die Hopfenbauern im vergangenen Jahr große Einbußen hinnehmen. Die Erntemenge belief sich nur auf rund 28 000 Tonnen. Pichlmaier wiederholte seine Forderung, die Politik müsse Möglichkeiten schaffen, damit Hopfenpflanzer solche Risiken durch steuerfreie Rücklagen abdecken könnten. „Wir müssen und wollen dazu in der Lage sein, schlechte Jahre – und diese kommen ganz offenbar immer häufiger – ohne externe oder staatliche Hilfe zu überstehen“, betonte er.

Wie die Hervorhebung durch den Autor anzeigt, geht es darum, dass laut diesem Verbandspräsidenten schlechte Hopfen-Erntejahre „…ganz offenbar immer häufiger“ werden. Der Autor geht bei seiner Interpretation davon aus, dass ein Zusatz „bedingt durch den Klimawandel“ zwar fehlt, vom Präsidenten aber mit seiner Bemerkung synonym gemeint war.

Sehen wir einmal die Datenlage an und bilden eine auf Fakten beruhende Meinung.

Schlechte Hopfenjahre werden immer häufiger

Schlechte Hopfenjahre sollen immer häufiger werden, sagte der Verbandspräsident.
Im Bild 1 sieht man, dass in Wirklichkeitjedoch selbst die „schlechten“ Erntemengen seit Beginn des „ganz schlimmen Klimawandels“ ansteigen. Sogar das schlechte „Extremjahr 2015“ war ertragreicher als mehrere schlechte Ernten vor dem Jahr 1990. Zumindest der Autor kann anhand der Daten nicht erkennen, die auch nur im Ansatz die Aussage immer häufigerer, schlechter Erntejahre gerechtfertigt wäre. Es kann sich damit nur um die „bauergerechte“ Umschreibung handeln: Wir Hopfenbauern haben ganz im Gegensatz zu den immer neu gemeldeten, negativen Klimawandeleinflüssen seit einer längst vergangenen Stagnation immer höhere Erntemengen. Uns stört allerdings wie immer, dass trotzdem auch Jahre mit etwas niedrigeren Erträgen dazwischen anfallen“.

Bild 1 Hopfenertrag Deutschland (schwarz) mit 10-Jahres Mittelwert (rot) lt. Daten der LfL Jahresberichte Sonderkultur Hopfen (nur die von 2016 sind aus der Zeitung), ergänzt um die Differenz zum 10-Jahres-Mittelwert (gelb), rechte Achse (%)

Und die Erntemengen schwanken seit Jahren extrem

Ein Statistiker betrachtet die Abweichung vom Mittelwert, weil der Zufall das „Recht“ und auch die Eigenschaft hat, um diesen mittleren Wert sowohl nach Plus wie auch nach Minus zu schwanken. Diese Darstellung sieht man im Bild 1 zusätzlich (goldene Linie). Erkennbar sind die Abweichungen hoch und schwanken stark, aber sie nehmen nicht zu. Anhand der absoluten Abweichung (violette Linie) sieht man es noch deutlicher: Aktuell ist der Stand wie im Jahr 1975 (als sie Eiszeit vorhergesagt wurde), der letzte Extremwert war im Jahr 1992.
Der Präsident hätte also richtiger sagen müssen: „ Die Erntemengen schwanken schon immer extrem“. Eine ergänzende Zufügung „… und diese Schwankungen sind durch den angeblichen Klimawandel keinesfalls stärker geworden“ würde ja niemand „Vernünftiger“ in Deutschland erwarten.

Betrachtet man die absoluten Differenzen (Bild 2), ergibt sich eine vergleichbare Darstellung. Auch dazu gab es früher schon größere Werte. Die Aktuellen sind hoch, aber eben noch lange nicht die Höchsten und dazwischen gab es seit 1990 auch recht lange „ruhige“ Zeiten – starke Schwankungen eben, wie sie Wetter-bedingt in Deutschland schon immer üblich waren.

Das gilt nicht nur für den Hopfen, sondern allgemein: EIKE: Ernteerträge und Klimawandel

Bild 2 Hopfen Deutschland: Ertragsdifferenz zum Vorjahr (%) (golden), Mittelwert 10 Jahre (grün), lineare Regression MW, Differenz Absolutwerte (%) (blau) rechte Skalenachse

Was wurde beim Hopfenanbau erreicht

Seit 1975: [6] Vortrag von Michael Doetsch, Paulaner Brauerei GmbH & Co. KG

-Steigerung der Produktivität pro ha um das 8fache
-infolge des in Hüll entwickelten Prognosemodells zusammen mit den in Hüll gezüchteten Sorten (Magnum und Taurus als Beispiel) heute pro kg Alpha nur noch 4 % der Spritzmenge ausgebracht werden muss im Vergleich zu 1975. Bei Herkules sogar nur 3 %
-Infolge der Erhöhung des ha-Ertrages und der damit einhergehenden Reduzierung des Arbeitseinsatzes – dieser hat sich in dem Zeitraum von 1975 bis heute von 650 h/ha/Jahr auf rd. 200 h/ha/Jahr, d. h. rund 70 % reduziert ! – war es möglich, in dem Wettbewerb mit den Billiglohnländern auf der einen Seite und dem fast schon industrialisierten Hopfenanbau in den USA auf der anderen zu bestehen, ja sogar die Nase vorn zu behalten.

Fazit

Selbst wenn der Ertragserfolg ungeahnte Höhen erreicht, irgend einen Nachteil hat der Klimawandel bestimmt, wenn man von der Politik Vergünstigungen los eisen will. Belegen muss man das wohl nicht mehr, denn es weiß doch jeder.

Beispiele dazu:
Klimaretter.Info16. September 2009:EU: Bauern sollen gegen Klimawandel kämpfen
Klimaretter.Info26. Mai 2014: Klimawandel verringert Ernteerträge
Höhere Ernteerträge werden immer unwahrscheinlicher. … Zwar fallen die jährlichen Ernteerträge immer höher aus, aber die Steigerungsraten in der Lebensmittelproduktion gingen innerhalb der letzten 50 Jahre mehr und mehr zurück. 
Klimaretter.Info 30. August 2015:Rekordsommer 2015: Nur Vorgeschmack

Falls der Hopfenertrag kommendes Jahr nicht mehr weiter steigt, sondern das macht, was er statistisch jederzeit darf: Vom Extremertrag auch einmal etwas weniger liefern, werden die Schlagzeilen vielleicht lauten: Der Hopfenertrag hat innerhalb von sechs Jahren bereits vier Mal abgenommen. Die schlimmsten Vorhersagen der Klimafachleute scheinen sich zu bewahrheiten.

Und es gibt noch einen möglichen Grund für in Zukunft sinkende Erträge: [6] Der Übergang zu Niedrig-Gerüstsystemen. Da man dafür andere Hopfensorten verwenden muss, sinkt zwar der Ertrag, aber noch deutlicher die Kosten, so dass es sich in Summe lohnen soll.

[6]: Viele der Defizite der traditionellen Sorten, die die oben genannten Anforderungen erfüllen sollten, bestehen, weil diese Sorten auf konventionellen Hochgerüstsystemen wachsen müssen, um die ökonomischen Ziele zu erreichen. Mit der Vereinfachung des Produktionssystems zu Niedriggerüsten können viele Probleme gelöst werden, aber traditionelle Sorten bringen schlechten Ertrag auf solch einem System und erfordern oft größeres Management, um die Vitalität der natürlich hochwachsenden Pflanze einzuschränken
… sowie das Problem der Verbote wirksamer Fungizide:

Das mit dem niedrigeren Ertrag wird dann ganz bestimmt berichtet werden und man darf raten, wer dann als Ursache herhalten wird.

Quellen

[1]
FOCUS 25.08.2016: Hopfenbauern rechnen mit überdurchschnittlicher Ernte
http://www.focus.de/finanzen/news/agrar-gute-aussichten-fuer-hopfenernte-in-bayern_id_5859561.html

[2]
FOCUS, 21.08.2015: Wird unser Bier teurer?Klimawandel bedroht Hopfenanbau: Deutsche müssen mit fatalen Folgen rechnen
[3]
WIKIPEDIA: FOCUS
https://de.wikipedia.org/wiki/Focus

[4]
EIKE 22.08.2015: Grüne Abgeordnete Barbara Höhn durch Fakten widerlegt: Der Hopfenertrag steigt trotz Klimawandel
http://www.eike-klima-energie.eu/news-cache/gruene-abgeordnete-barbara-hoehn-durch-fakten-widerlegt-der-hopfenertrag-steigt-trotz-klimawandel/

[5]
EIKE 24.08.2016: Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?
http://www.eike-klima-energie.eu/news-cache/wenn-der-hopfen-nicht-stirbt-stirbt-dann-der-klimawandel/

[6]
Internationales Symposium: Hopfenanbau 2020 Wolnzach (5./6.5.2008; st)




Kann man bald per App Deutschland „den Saft“ abdrehen

Bild rechts: Pappa, warum ist plötzlich überall das Licht ausgegangen? Weiß nicht, habe im neuen Spiel auf die Taste „do you really want to know what is a blackout“ gedrückt.
Inzwischen besteht die latente Gefahr, dass das immer umfassendere und kompliziertere Regelsystem der „intelligenten Netze“ einmal das zeigt, was jede von Menschen erstellte Software irgend wann mit Sicherheit macht: Wegen Fehlern auszusetzen, sowie die Möglichkeit, dass über einen kommunikativen Systemzugang Hacker das System (zer-)stören.

Nürnberger Politiker Frieser: "Republik ist verwundbar"
Für Michael Frieser, Innenpolitischer Sprecher der CSU-Landesgruppe in Berlin, droht Gefahr vor allem aus dem Netz.
Wir leben in einer hochtechnisierten Welt. Es gibt kaum noch eine Einrichtung, die nicht durch Computersysteme unterstützt wird — im Verkehr, auf Straßen oder Schienen, in der Wasser- und Stromversorgung oder bei der Telekommunikation. An diesen Stellen sind wir verwundbar. Das Stichwort lautet "Cyberkriminalität", die Gefahr lauert im Netz, aus dem mit Angriffen gerechnet werden muss.
Was hat das mit dem Zivilschutz zu tun?
Frieser: Eine Menge. Viele Bürger verlassen sich darauf, dass die Infrastrukturen im Land dauerhaft funktionieren. Sie fragen sich nicht, was passiert, wenn plötzlich kein Wasser mehr aus dem Wasserhahn kommt oder kein Strom aus der Steckdose fließt — und das unter Umständen mehrere Tage lang und nicht nur im eigenen Haushalt sondern viel großräumiger.
Was sind denn aus Ihrer Sicht die Dinge, an die man denken sollte?
Frieser: Abgesehen von Trinkwasser und haltbarer Nahrung muss ich mich auch fragen, ob Batterien da sind. Oder: Gibt es im Haushalt überhaupt noch ein Radio, das mit Batterien betrieben werden kann? Wie sieht es mit Taschenlampen und Kerzen aus? Und hab ich noch Flickzeug für das Fahrrad? Das kann unter Umständen das einzige zuverlässige Fortbewegungsmittel sein.

Neu ist das nicht. Der Autor hat sich ebenfalls schon öfter gefragt, wie es stabil funktionieren soll, über Deutschland verteilt zig-tausende von Elektroautos und kleine Akkuspeicher übers Internet als Regelreserve zu schalten oder die „intelligenten“ Mittelspannungstrafos über viele Netzknoten bei flächiger Zappelstromeinspeisung regelstabil zu steuern, und genau zum richtigen Zeitpunkt am genau richtigen Einspeiseknoten einen Windpark abzuregeln oder die restlichen, noch als Bereitstellungsreserve gehaltenen Grundlastkraftwerke schnell hoch zu fahren und und und. Das funktioniert herrlich in Simulationen und Computerspielen an von der Politik bevorzugten Forschungseinrichtungen für bejubelnde Studien, doch vernünftige Techniker haben solch anfällige Lösungen in der Vergangenheit immer bewusst sorgfältig vermieden.
Auch das moderne Verfahren, aus Bequemlichkeit (Fernwartung) und natürlich auch aus der „Schwarmnot“ heraus überall Anschlüsse an weltweit zugängliche Kommunikationssysteme zu koppeln, noch bevor überhaupt im Ansatz der Zugangsschutz gelöst ist, zeigt auch an dieser Stelle einen Dilettantismus der Verantwortlichen, der früher kaum denkbar war.

Durch das „intelligente“ EEG-Netz entstanden also mehrere, allerdings getrennt zu betrachtende Probleme:
– Die Regelungen selbst,
– die Kommunikationsverknüpfungen untereinander und
– Kommunikationszugänge von außerhalb.
Das weitaus größte Problem, die vollkommen unstabile Basisversorgung kommt natürlich noch dazu: Zivilschutzplan der Bundesregierung: Die verschwiegene Energiewende?

Was Herr Frieser (und unser Minister: De Maizière befürchtet Angriff auf die Stromversorgung[1]) behauptet, dass jedes System, sobald es „durch Computersysteme unterstützt wird“ automatisch durch Cyberkriminalität verwundbar wäre und dies das Hauptproblem unserer EEG-Versorgung sei, zeigt nur, dass auch Herr Frieser von der Materie keine Ahnung hat, was bei einem Juristen (wie De Maizière auch) nicht wundert. Gerade die Kommunikationszugänge von außerhalb ließen sich noch am leichtesten durch einfaches Abtrennen und Begrenzung auf internen Zugang lösen. Das ist klingt dann zwar nicht mehr so hipster-modern und macht manches etwas unbequemer – verbietet auch manche gepriesene „super-moderne“ Lösung -, macht aber automatisch immun gegen Störeingriffe von außen, wie es bei konventionellen Kraftwerken nicht ohne Grund üblich ist.
Gerade dieses – natürlich für jeden der Internet kennt sofort „einleuchtende“ Bedrohungsproblem als das größte herauszustellen zeigt, dass die Politik es nicht für nötig erachtet oder es wegen der EEG-Geschwindigkeit, die ihnen zwischenzeitlich beginnt um die Ohren zu fliegen, vollkommen aufgegeben hat, bei unserer Versorgung noch mit einem Rest an Sorgfalt vorzugehen. Die wahren Ursachen künftig mit Sicherheit kommender Ausfälle beginnt man schon jetzt im Vorfeld zu verschleiern und das immer höher werdende Risiko wird mit fadenscheinigen Begründungen auf den Bürger abwälzt.

Auf jeden Fall ist es ein neuer Witz für die Geschichtsbücher: Die Politikkaste eines der am höchsten industrialisierten Länder der Welt zerstört sein stabilstes Energienetz der Welt und verkündet als Lösung für seine Bürger „… hab ich noch Flickzeug für das Fahrrad? Das kann unter Umständen das einzige zuverlässige Fortbewegungsmittel sein“.
Das aus Nordkorea berichtet, hätte man gesagt: „jetzt übertreiben unsere Medien aber maßlos“.

Oder steckt hinter dieser Aussage bereits die Vorbereitung auf den Zwang, in Zukunft auch in Deutschland nur noch Elektroautos fahren zu dürfen? Wenn dann der Strom auch nur für kurze Zeit ausfällt, bleibt Deutschland wirklich nur noch das Fahrrad als Fortbewegungs-Mittel, selbstverständlich ganz modern auf Fahrrad-Autobahnen.

Ein Minister, der seinen Bürgern meldet: [1] De Maizière sagte, er könne sich vorstellen, dass es Staaten oder Gruppen gebe, die gerne mal testen würden, wie widerstandsfähig Deutschland im Falle eines Stromausfalls reagiere
zeigt, dass nicht nur Frau Merkel, sondern die gesamte Politik Deutschland inzwischen wohl als eine internationale Spielwiese betrachtet, in der hinter offenen Grenzen zufällig auch noch einheimische Bürger leben.
So schlimm ist es natürlich nicht, denn als zuständiger Minister hat er auch eine Lösung zu bieten: [2] „Der Plan des Innenministeriums sieht außerdem vor, dass drei Behörden jeweils eine digitale Eingreiftruppe aufbauen, die jederzeit ausrücken kann“.

Eines hat der Minister noch vergessen zu erwähnen: Hat er für diese Eingreiftruppen die erforderliche Anzahl Fahrräder bestellt, damit diese beim Blackout auch an den Einsatzort radeln können? Oder ist geplant, künftig in jeder Gemeinde einen Cybermanager parallel zum Klimamanager einzustellen, damit die Fahrrad-Anfahrt nicht zu lange wird?
Dass diese hoch motivierte, verbeamtete Eingreiftruppe auf die Idee kommt, die Stecker zum Internet herauszuziehen, die Über-Intelligenz im Versorgungsnetz abzubauen und Energie wie bewährt mit brauchbaren Kraftwerken zu erzeugen und zu regeln, bleibt bestimmt eine Illusion.

Eher wird eine andere Lösung kommen: Vollkommene Dezentralisierung des Versorgungssystems, damit ein Ausfall lokal begrenzt bleibt.
Danach sind die Interessenverbände schon gierig [3] [4] – die einen wegen dem Geld und die anderen wegen ihrer Ideologie. Es wird dann nach dem EEG und dem Cyberzugang die nächste Spielwiese werden.
Die Eingreiftruppe lässt sich dann vielleicht verwenden, die Verteilungskämpfe um den Mangelstrom in Schach zu halten.

Klimaretter.Info: [4]Krisenfest durch Dezentralität

Abgesehen davon: Risikoschwangere Sorgen, dass über Nacht die Lichter in Deutschland ausgehen, brauchen wir uns nicht zu machen. Die Studie zeige, dass die Entwicklung der Energiewende gegenüber möglichen Risiken "sehr robust" sei, freut sich das Wirtschaftsministerium. "Unerwartete Störungen" könnten in der Regel gut aufgefangen werden, neue Instrumente zur Risikovorsorge seien nicht notwendig.
Ein beruhigendes Resultat. Für knapp 200.000 Euro – so viel hat die Expertise laut Ministerium gekostet – bekommen wir bestätigt, dass unsere Energiewende so leicht nicht zu erschüttern ist. Womöglich liegt das aber weniger an kalkulierbaren "Risikoclustern", sondern an einer ihrer Grundeigenschaften: der
Dezentralität.
Als er jüngst eine Klage gegen einen Windpark zurückwies, erinnerte ein hessischer Verwaltungsrichter daran –
die FAZ berichtete –, warum der Gesetzgeber den Kommunen einst eine dezentrale Energieversorgung überhaupt nahegelegt hatte. Es sei dem Staat nicht nur um erneuerbare Energien gegangen, erklärte der Richter, vielmehr sei dem Gesetzgeber klar geworden, dass bei einem möglichen Krieg besonders die Infrastruktur ein Ziel von Angriffen werde. Eine dezentrale Versorgung könne aber nicht so schnell lahmgelegt werden.

Wie man sieht, muss man nur ausreichendes Vertrauen in die Politik und ihre Berater haben. Während der Eine noch Probleme listet, haben die anderen im Hintergrund schon längst die Lösung. Der einzige Mangel bleibt das Timing.

Quellen

[1] Der Tagesspiegel: Neues Zivilschutzkonzept : De Maizière befürchtet Angriff auf die Stromversorgung
http://www.tagesspiegel.de/politik/neues-zivilschutzkonzept-de-maiziere-befuerchtet-angriff-auf-die-stromversorgung/14451288.html

[2] ZEIT ONLINE: Innenministerium plant drei neue Internet-Eingreiftruppen

http://www.zeit.de/digital/internet/2016-07/cyberangriffe-hacker-innenministerium-thomas-de-maiziere

[3] VDE Frankfurt: VDE-Studie Dezentrale Energieversorgung 2020

[4] Klimaretter.Info: Schwarze Schwäne füttern
http://www.klimaretter.info/wirtschaft/hintergrund/21803-schwarze-schwaene-fuettern




Der Nordatlantik: Ground Zero der globalen Abkühlung

Aus diesem Datensatz zeigt die folgende Graphik den Wärmeverlust seit 2004 in den obersten 700 Metern der Wassersäule:

Abbildung 1: Monatliche Anomalie des Wärmegehaltes in den obersten 700 m im Nordatlantik.

Wie Abbildung 1 zeigt, hat der Wärmegehalt im Nordatlantik im Jahre 2004 einen Spitzenwert erreicht. Die Abnahme nach diesem Spitzenwert war steiler als der Anstieg zuvor. Was könnte der Grund für den Spitzenwert im Jahre 2004 sein? Teilweise könnte die Antwort darin liegen, dass 2004 das Jahr mit der zweiten Spitze des Sonnenzyklus‘ 23 war mit einer starken Zunahme des Protonen-Flusses. Ein weiterer Teil der Antwort könnte sein, dass es einen starken Rückgang des Ap-Index‘ im Jahre 2005 gab bis auf solare Minimum-Niveaus ein paar Jahre später, und zwar durch eine Diskontinuität, weil das Niveau noch unter das Minimum-Level der Aktivität gefallen war. Dies zeigt die folgende Graphik:

Abbildung 2: Ap-Index 1932 bis 2016

Wir sollten uns nicht zu viele Sorgen machen über die Tiere in dieser Wasserschicht des Nordatlantiks, sondern darum, dass die Wassertemperatur der Haupttreiber des Klimas in Europa ist. Wie sieht es also da aus?

Abbildung 3: Zeitreihe der Wassertemperatur bis zu einer Tiefe von 800 m um 59°N durch die Nordatlantische Strömung von 30°W bis 0°W.

Wie Abbildung 3 aus der Studie von Prof. Humlum zeigt, setzt sich sommerliche Wärme nur noch halb so tief durch wie noch vor 10 Jahren, und im Winter drang eine Zone mit einer Wassertemperatur unter 8°C Anfang dieses Jahres bis zur Oberfläche vor, zum ersten Mal seit über 10 Jahren. Dieser Abkühlungstrend wird in der folgenden Graphik quantifiziert:

Abbildung 4: Mittlere Temperatur um 59°N von 30°W bis 0°W und in einer Tiefe zwischen 0 und 800 m.

Dies sind Daten aus dem zentralen Nordatlantischen Strom. Die mittlere Temperatur ist von 2006 bis 2016 um 1,0°C gesunken. Das ist ein Trend von 1,0°C pro Dekade, jedoch mit 60% der Abkühlung während der letzten beiden Jahre. Das Klima in Europa hat darauf reagiert, und zwar mit Schneefall bis auf 2000 m herab im August in Deutschland (hier). Und wie stark kann die Temperatur im Nordatlantik noch sinken? Der kälteste Punkt in Abbildung 1 war im Jahre 1973 aufgetreten während der Abkühlungsperiode der siebziger Jahre und korrespondiert mit einem Rückgang um weitere 1,5°C. Mit dem dekadischen Trend von 2016 würden wir einen solchen Rückgang bis 2031 erreichen. Mit dem Trend der letzten beiden Jahre würde dies bereits 2021 der Fall sein. Dies wird gestützt durch das derzeitige Verhalten der Sonnenaktivität. Während der letzten beiden Jahre zeigte der F10.7-Fluss einen steilen Abwärtstrend:

Abbildung 5: F10.7-Fluss von 2014 bis 2016.

Abbildung 5 zeigt, dass sich der F10.7-Fluss in einem steilen, systematischen Abwärtstrend befindet, der ihn auf das unveränderliche Niveau von 64 [?] führt, etwa drei Jahre bevor das solare Minimum fällig ist. Danach kommt der Zyklus 25. Bereits im Jahre 2003 warnten die angesehenen Solarphysiker Ken Schatten und Kent Tobiska:

„Das überraschende Ergebnis dieser langfristigen Vorhersagen ist eine rapide Abnahme der Sonnenaktivität, die mit dem Zyklus 24 beginnt. Falls sich dieser Trend fortsetzt, werden wir erleben, wie die Sonne in ein solares Aktivitäts.Minimum eintritt nach Art eines „Maunder“-Typs – also einer ausgedehnten Periode mit geringem Niveau der Sonnenaktivität“.

Sie haben den Rückgang des Zyklus‘ 24 richtig erkannt, und als Reaktion kam es zu der Abkühlung im Nordatlantik. Falls sie auch mit der „Maunder“-Aussage ihrer Vorhersage richtig liegen, wird es noch einige Jahre dauern, bis die Abkühlung des Nordatlantiks zum Stillstand kommt.

Link: https://wattsupwiththat.com/2016/08/21/the-north-atlantic-ground-zero-of-global-cooling/

Übersetzt von Chris Frey EIKE




Streetscooter: Mit diesem Elektroauto hebt die Post ab. Wenn der Rückschritt Grün ist, heißt er Fortschritt

Bild rechts: Streetscooter. Screenshot von der STREETSCOOTER-Homepage

Bayerischer Rundfunk: Posthörnchen statt Mercedes-Stern

Als erster Autohersteller produziert die Deutsche Post umweltfreundliche Elektroautos in Serie zu erschwinglichen Preisen. Das tausendste Modell des E-Transporters "Work" wurde heute in Aachen vorgestellt.

Es sind nicht die Vorstände von VW oder Daimler die am Vormittag auf der Bühne sitzen, es ist ein Vorstandsmitglied der Deutschen Post, Jürgen Gerdes. Und der verkündet ohne Pathos, was eigentlich Sache der Automobilkonzerne wäre:

"Mit unseren Streetscootern realisieren wir das bislang größte E-Mobilitätsprojekt in Deutschland."

Weiter unten kommen dann ein paar der innovativen Details:

– Batterielaufzeit bis zu sieben Stunden

– Bis Ende des Jahres sollen 2.000 Streetscooter auf der Straße sein. Ab 2017 sollen dort jährlich 10.000 Fahrzeuge produziert werden.

– Die bisher produzierten tausend Streetscooter wurden vom Bundesumweltministerium mit rund 9,5 Millionen Euro gefördert.

– Das alles ist zu ähnlichen Preisen wie klassische Dieselfahrzuge zu haben.

Die wichtigen Infos muss man aber an anderen Fundstellen suchen:

DIE WELT: [1]Hier geht Robustheit vor Gefälligkeit, so viel ist schon mal klar. Die Innenraumauskleidung aus solidem Hartplastik deutet untrüglich darauf hin, dass es sich bei diesem Cockpit nicht um eine Wohlfühloase handelt, sondern um einen Arbeitsplatz, bei dem die Funktionalität im Vordergrund steht. Das Instrumentenbrett ist minimalistisch, eine Infotainment-Anlage sucht man vergebens, auf die neuesten Assistenzfunktionen von der Spurhaltehilfe bis zum Totwinkelwarner muss man ebenfalls verzichten.
Selbst den Beifahrersitz hat der Hersteller weggelassen und durch eine Halterung ersetzt, auf der sechs gelbe Kisten Platz haben. Der einzige Komfort, der dem Fahrer gegönnt wird, ist eine Sitzheizung mit fünf Wärmestufen. Wer in diesem Wagen sitzt, muss sich nämlich darauf einstellen, seine tägliche Tour auch bei Minusgraden zu absolvieren. Dafür ist der Streetscooter womöglich das letzte neue Fahrzeug, das nicht sofort anfängt zu piepsen, wenn man losfährt, ohne den Sicherheitsgurt angelegt zu haben.
Die Zuladung beträgt 650 Kilo, viel mehr passt auch in einen VW T5 Transporter nicht rein.
Wenn ein Streetscooter die Nacht an der Ladesäule verbracht hat, kommt man damit 50 bis 60 Kilometer weit.
Die Höchstgeschwindigkeit ist elektronisch auf 80 Stundenkilometer begrenzt.
Die Motorhaube lässt sich leider nicht öffnen, die Architektur des von einer Lithium-Ionen-Batterie gespeisten Asynchronmotors soll offenbar ein Geheimnis bleiben.

Weitere Zusatzangaben aus dem Datenblatt der Firmen-Homepage:

– Bremssystem: Vorne: Innenbelüftete Scheibenbremsen, hinten: Selbstnachstellende Trommelbremse
– Keine Rekuperation (Energierückgewinnung)
– Batteriekapazität 20,4 kWh
– 30 kW (40,8 PS)
– Nur Langsam-Ladung an Haushalts-Steckdose (Ladedauer 80%: 4,5 Stunden; 100 %: 7 Stunden)

Autos mit solchem „Leistungsvermögen“ und „Komfort“ gibt es bereits an anderen Orten dieser Welt. Allerdings kam bisher niemand auf die Idee, damit in Deutschland im großen Stil herum zu fahren. Und als möglichen Erfolgsschlager hat solche bisher auch noch keiner unserer Autobauer gesehen.
Den Deutschen Post-Vorständen, welche sorgfältig darauf achten, keine Vorgabe unserer fürsorglichen, über alle Zweifel erhabenen Politiker zu missachten, war es jedoch sehr wichtig, das verteufelte CO2 zu verhindern. Denn dieses ist, wie man in Berlin sicher weiß, reines Gift für die Welt. Um sich diesem Ziel gläubigst unterzuordnen: Bundespost „Nachhaltigkeit“, muss man als Post-Bediensteter leider auch etwas Abstriche machen und als Dienstfahrzeug ein Minimalistenauto akzeptieren. Es mag zur ausschließlichen Postzustellung in städtischen Gegenden geeignet sein, ob es allerdings irgend jemand anderes, als Postzusteller (-innen) als Fortschritt-weisendes Auto betrachten, mag jeder anhand der Daten selbst entscheiden.

Eine kleine Nebensächlichkeit soll dabei nicht unerwähnt bleiben. Die ersten 1.000 Stück dieser hoch komplexen Fortschrittsfahrzeuge wurden pro Stück mit ca. 10.000 EUR Steuerzahler-Geld subventioniert. Rückschritt, der dem Fortschritt dient, muss gefördert werden. Und die verarmte Post hätte ohne diese Subventionierung die Deutschen Autobauer auch nicht mit dem „bislang größte E-Mobilitätsprojekt in Deutschland“ aufmischen können.

Als kleiner Wermutstropfen ist der Akku etwas klein geraten, so dass dieser nicht als millionenfacher EEG-Stromspeicher dienen kann. Aber mit etwas zusätzlicher Subventionierung wird sich auch dafür eine Lösung finden.

In einer großen Deutschen Firma gab es einmal ein Pflicht-Programm „Kundennutzen“. Danach mussten alle Entwicklungen vor der Antragstellung bewertet werden und wenn der Nutzen für den Kunden nicht ausreichte, wurde nicht genehmigt. Nach dieser Bewertung erreichte der Trabi der ehemaligen DDR als Auto mit den höchsten Kundennutzen. Es hatte einfach nichts drin, was als „Schnickschnack“ nutzlos den Kunden vom Nutzen hätte abhalten können, der ausschließlich innerhalb enger Grenzen von A nach B kommen will und sonst nichts. Eine Käuferentscheidung, jemand würde anstelle des Trabi einen VW, BMW oder Mercedes wählen, obwohl er für die Fahrt von A nach B dafür mehr Geld bezahlen müsste, war nicht denkbar.

Also, ihr „Vorstände von VW oder Daimler“ die ihr nicht auf dieser Bühne wart. Baut endlich auch den neuen, innovativen, Grün-sozialistischen Elektro-Volkskäfer für das verarmende Volk mit einem Sitz, max. 80 km/h, selbst-einstellender Trommelbremse, einer Reichweite von 50 – 60 km im Sommer, im Winter davon noch ca. die Hälfte bevor es zur Steckdose mit der Ladezeit von mindestens 4,5 … 7 Stunden geht, aber viel Platz auf der Ladefläche für Kinder und Kegel (dort dürfen die nach den Deutschen Gesetzen noch nicht mitfahren, aber Gesetze welche der Weltrettung vor CO2 dienen, lassen sich ändern).

Es wird immensen Bedarf geben, wenn in naher Zukunft Benzin- und Dieselfahrzeuge verboten werden und man ein Fahrzeug braucht, welches man bei jedem Bekannten notfalls an der Steckdose aufladen kann, weil man dort hin gerade nicht mit dem CO2-freien Öko-Fahrrad über die künftigen Fahrrad-Schnellautobahnen radeln möchte.

Es gilt schließlich, einem großen Vorbild nachzueifern. Damit meint der Autor nicht die untergegangene und vom Westen rüber-gerettete, ehemalige DDR – das macht schon die Berliner Politikriege – sondern dem Elektrovorbild Tesla:

HANDELSBLATT 04.08.2016: Tesla vergrößert Verluste Der Cash Burn geht weiter

Die neuen Tesla-Zahlen verfehlen so gut wie alle Prognosen der Analysten. Der Elektroautobauer kann nicht so schnell Fahrzeuge herstellen und verkaufen, wie er Geld ausgibt. … Der Autobauer meldete für das zweite Quartal 2016 einen Verlust von 293 Millionen Dollar, fast doppelt so hoch, wie Analysten erwartet hatten. Was für die meisten Anteilseigner zählt, ist nicht das 13. Quartal in Folge mit roten Zahlen

So ein vorbildlicher, allseits geachteter Unternehmer lässt Grüne Herzen höher schlagen. Endlich einer, der sich nicht dem Diktat der Wirtschaft unterwirft. Diese fehlen in Deutschland an allen Ecken und Enden. Gut, das EEG hat dafür gesorgt, dass es die auch bei uns gibt, aber sie reichen nicht.

Quellen

[1] DIE WELT, 26.04.16: Streetscooter Mit diesem Elektroauto geht die Post ab
http://www.welt.de/motor/article154750378/Mit-diesem-Elektroauto-geht-die-Post-ab.html

[2] Bayerischer Rundfunk: Deutsche Post setzt auf E-Autos Posthörnchen statt Mercedes-Stern

http://www.br.de/nachrichten/deutsche-post-elektroautos-100.html

[3] ecomento: Post: Elektroauto Streetscooter soll „signifikanter Teil“ der Flotte werden

http://ecomento.tv/2015/07/28/deutsche-post-elektroauto-streetscooter-flotte/




Unmasse von Beweisen, dass ,Globale Erwärmung‘ ein Made-Up-Konzept ist

Das Einzige, von dem man sagen kann, dass es eine Erwärmung im globalen Maßstab gegeben hatte, ist die Vermutung, dass ausschließlich die Gesamt-Temperaturdifferenz zählt – wobei alle Regionen der Welt aufaddiert werden. Die Gebiete, in denen es nicht wärmer geworden ist, zählen bei der Konzeptualisierung der „globalen Erwärmung“ nicht.

Nehmen wir mal an, in Grönland ist es seit 1979 um 1,2°C wärmer geworden, in der Antarktis dagegen um 0,9°C kälter seit 1979. Würde es irreführend sein, diese beiden Regionen zu addieren und zu behaupten, dass sich die Pole während der letzten 37 Jahre um ein paar Zehntel Grad erwärmt haben? Ja, weil es an einem Pol nicht wärmer, sondern kälter geworden ist – obwohl an beiden Polen die gleiche atmosphärische CO2-Konzentration zu verzeichnen ist. Aber diese falsche Charakterisierung von Temperaturtrends (nämlich im Endeffekt zu behaupten, dass es an beiden Polen wärmer geworden ist, obwohl dies in Wirklichkeit nur an einem Pol der Fall war) ist genau das, was bei der Konzeptualisierung der „globalen Erwärmung“ gemacht worden ist.

Als Paradebeispiel der künstlichen Fabrikation der „globalen Erwärmung“ kann die jüngst veröffentlichte Studie von Riser et al. 2016 betrachtet werden mit dem Titel „Fifteen years of ocean observations with the global ARGO array” (unten). Die 25 Autoren summieren die Temperaturänderungen von der Oberfläche der Ozeane bis zu einer Tiefe von 700 m, und zwar in allen Ozeangebieten zusammen seit 1950. Sie zeigen, dass sich der Pazifische Ozean insgesamt „von Chile bis nach Alaska“ während der letzten 65 Jahre um 1°C abgekühlt hat. Andere Gebiete der Ozeane haben sich als Kompensation um 1°C erwärmt. Und wenn man alle Ozeangebiete mit Erwärmung bzw. Abkühlung zusammenwirft, überwiegen die sich erwärmenden Regionen ein klein wenig, und zwar um „fast 0,2°C“ seit Mitte des 20. Jahrhunderts. Weil also die Gesamttemperaturänderung geringfügig positiv war, kann man rein technisch (wenngleich auch irreführend) sagen, dass sich die globalen Ozeane erwärmt haben. Auf diese Weise können die riesigen Ozeangebiete, in denen des kälter geworden ist, begraben und ignoriert werden, und die Konzeptualisierung der „globalen Erwärmung“ bleibt intakt.

Riser et al., 2016

Die meisten Regionen der Ozeane der Welt sind in der Oberflächenschicht (0 bis 700 m Tiefe) wärmer als während der Jahrzehnte zuvor, und zwar um über 1°C an einigen Stellen. Einige Gebiete wie der Ostpazifik von Chile bis nach Alaska, haben sich um bis zu 1°C abgekühlt, aber dennoch hat sich der Ozean global um fast 0,2°C erwärmt seit Mitte des 20. Jahrhunderts“.

Natürlich – wenn man Perioden der Klimahistorie anspricht wie etwa die Mittelalterliche Warmzeit, bestehen die gleichen Advokaten, die heute proklamieren, dass die globale Erwärmung global und synchron aufgetreten ist, darauf, dass den Beweisen zufolge die Mittelalterliche Warmzeit nur in Europa oder in Grönland aufgetreten war, nicht jedoch in der übrigen Welt. Dies ist falsch – es gibt Hunderte begutachtete wissenschaftliche Studien, die Beweise höherer Temperaturen während des Mittelalters in weiten Gebieten der Erde präsentieren, einschließlich der Antarktis. Aber falls der Standard lautet, dass die Erwärmung universell sein muss, um als globale Erwärmung „durchzugehen“, dann verfehlt die moderne Gesellschaft jenen Standard erheblich. Weil sich der Globus eben nicht erwärmt. Nur in einigen Regionen wird es wärmer. Andere Regionen haben sich seit Jahrzehnten nicht erwärmt oder sogar abgekühlt.

Es folgt eine Zusammenfassung der Höhepunkte in der wissenschaftlichen Literatur (über 30 begutachtete Studien), die einige der Regionen der Welt dokumentieren, in denen es keinen erkennbaren Erwärmungstrend gab während des Zeitraumes, von dem behauptet wird, dass anthropogene CO2-Emissionen die Klimaänderungen verursacht haben sollen (allgemein seit Mitte des 20. Jahrhunderts). Wie die Wissenschaftler zeigen, haben sich große Gebiete des Pazifischen, Atlantischen, Indischen Ozeans sowie die Südlichen Ozeane während der letzten Jahrzehnte abgekühlt. Weiter ist eine Abkühlung in jüngerer Zeit wissenschaftlich dokumentiert (20./21. Jahrhundert) oder zumindest kein langzeitlicher Erwärmungstrend. Unter diesen Gebieten sind der Südosten der USA, Nordeuropa, die Antarktis, China, Kanada/Kanadische Arktis, westliches Südamerika (Chile), Südafrika, Grönland, Island sowie Arktis und Antarktis. Man muss sich fragen, wie und von wo ein großes „Globale-Erwärmung“-Signal gekommen sein könnte, wenn es so viel regionale Abkühlung gegeben hat.

Vielleicht kann man erklären, warum Temperaturänderungen seit dem 20.Jahrhundert „globale Erwärmung“ genannt worden waren, verursacht durch anthropogene CO2-Emissionen, wenn große Gebiete des Globus‘ sich nicht erwärmt haben, sondern abgekühlt, und das während der letzten Jahrzehnte. Verursachen einheitlich steigende CO2-Konzentrationen an einigen Stellen Abkühlung und Erwärmung an anderen Stellen – oder Erwärmung während einiger Jahrzehnte und Abkühlung in anderen? Falls das so ist, welche wissenschaftliche Grundlage hat diese Selektivität?

Abkühlung im Pazifischen, Atlantischen, Indischen Ozean sowie den Südlichen Ozeanen

Die „Gesamtheit“ des Pazifischen und des Indischen Ozeans haben sich ebenso wie der Ostatlantik unterhalb einer Tiefe von 2000 m seit 1992 abgekühlt („etwa 52% des Ozeans befinden sich unterhalb 2000 m“).

Wunsch and Heimbach, 2014:

Während der 20 Jahre der gegenwärtigen Schätzung des ECCO-Zustandes werden Änderungen in der Tiefsee im Zeitmaßstab vieler Jahre dominiert von [Vorgängen im] westlichen Atlantischen Becken und den Südlichen Ozeanen … In jenen gleichen Gebieten kommt es zu einer längerzeitlichen allgemeinen Erwärmung unterhalb von 2000 m. Eine sehr schwache langzeitliche Abkühlung zeigt sich in den übrigen Ozeangebieten unterhalb dieser Tiefe, einschließlich der Gesamtheit des Pazifischen und Indischen Ozeans zusammen mit dem Ostatlantischen Becken.

————————————

Der östliche tropische Pazifik hat sich seit 1979 abgekühlt.

Dong and Zhou, 2014:

Abkühlungstrend bei der Wassertemperatur des östlichen tropischen Pazifiks von 1979 bis 2008“.

————————————

Der Nordatlantik hat sich seit 2005 um 0,45°C abgekühlt.

Robson et al., 2016:

Hier zeigen wir, dass sich seit dem Jahr 2005 ein großes Volumen des oberen Nordatlantik signifikant abgekühlt hat, und zwar um etwa 0,45°C oder 1,5 X 1022 J, was den zuvor aufgetretenen Erwärmungstrend umkehrt … Die gemessene Abkühlung des oberen Ozeans seit 2005 ist nicht konsistent mit der Hypothese, dass anthropogene Aerosole direkt die Temperaturen im Atlantik treiben“.

————————————

Der südliche Ozean hat sich seit 1979 abgekühlt (um etwa 1,0°C), was zu einer Zunahme des Meereises geführt hat, die von den Modellen nicht simuliert worden war.

Fan et al., 2014:

Abkühlung ist offensichtlich in den meisten Gebieten des Südlichen Ozeans, zu allen Jahreszeiten und in der jährlichen Mitteltemperatur mit einer Größenordnung von etwa 0,2 bis 0,4°C pro Jahrzehnt oder 0,7 bis 1,3°C während des 33-Jahre-Zeitraumes (1979 bis 2011)

Purich et al., 2016:

Über die Meereis-Albedo-Rückkopplung erzeugen Modelle eine Erwärmung der Ozean-Oberfläche in höheren Breiten und eine Abnahme des Meereises. Dies steht im Kontrast zu der gemessenen Abkühlung (des Südlichen Ozeans)und der Zunahme von Meereis (1979 bis 2013).

Abkühlung im Südosten der USA

Der Südosten der USA hat sich seit 1895 abgekühlt.

Rogers, 2013:

Der Abkühlungstrend während des 20. Jahrhunderts im Südosten der USA

In den Gebieten der südlichen und südöstlichen USA, primär in [den US-Staaten] Mississippi, Alabama und Georgia kam es zu einem über ein Jahrhundert (1895 bis 2007) langen Abkühlungstrend der Lufttemperatur, der in allen Jahreszeiten zu verzeichnen war.

————————————

In Kentucky gab es seit 1950 keinen statistisch signifikanten Erwärmungs- oder Abkühlungstrend.

Chattopadhyay and Edwards, 2016:

Allgemein gesagt, mittlere jährliche Temperaturen in Kentucky haben keinen statistisch signifikanten Trend hinsichtlich der Zeit gezeigt (von 1950 bis 2010).

————————————

Die sommerlichen Maximum-Temperaturen in Alabama kühlten sich mit einer Rate von 0,07°C pro Jahrzehnt oder insgesamt um etwa 1°C ab, und zwar zwischen 1883 und 2014.

Christy and McNider, 2016:

Drei Zeitreihen der mittleren täglichen Höchsttemperatur im Sommer (JJA) wurden für drei innere Gebiete von Alabama zusammengestellt, und zwar von Stationen mit verschiedenen Messzeiträumen und unbekannten Inhomogenitäten. Der Zeitrahmen ist 1883 bis 2014Variiert man die Parameter des Konstruktionsverfahrens, erhält man 333 Zeitreihen mit einem Zentralwert auf der Grundlage der größten Gruppe von Stationen von -0,07°C pro Dekade mit einem Best Guess der Messungenauigkeit zwischen -0,12 und -0,02°C pro Dekade.

Abkühlung in Nordeuropa

Die Temperaturen in Skandinavien sind insgesamt während der letzten 2000 Jahre gesunken. Die jüngste Erwärmung mit dem Höhepunkt Anfang der vierziger Jahre und nachfolgender Abkühlung lag deutlich innerhalb der natürlichen Variabilität und hat den Abkühlungstrend insgesamt nicht zum Stillstand gebracht.

Esper et al., 2012:

Orbitaler Antrieb von Baumringdaten

————————————

In UK gab es eine Abkühlung um 0,5°C seit Anfang des 21.Jahrhunderts.

Murray and Heggie, 2016:

UK erfuhr einen Temperaturrückgang um etwa 0,5°C seit Anfang dieses Milleniums, zu einer Zeit also, als die Temperaturen der Welt nahezu stabil geblieben waren.

————————————

Nord-Norwegen war Schauplatz von Abkühlung seit der Wärmespitze der vierziger Jahre.

Divine et al., 2011:

Tausend Jahre von Variationen der Wintertemperaturen in Spitzbergen und Nord-Norwegen.

Abkühlung in der Antarktis

Die Antarktische Halbinsel hat sich seit Ende der neunziger Jahre mit einer statistisch signifikanten Rate abgekühlt.

Turner et al., 2016:

Fehlende Erwärmung auf der Antarktischen Halbinsel im 21. Jahrhundert ist konsistent mit der natürlichen Variabilität

Hier ziehen wir eine stacked Temperaturaufzeichnung heran, um ein Fehlen einer regionalen Erwärmung (auf der Antarktischen Halbinsel) seit Ende der neunziger Jahre zu zeigen. Die jährliche mittlere Temperatur ist mit einer statistisch signifikanten Rate gesunken, wobei die stärkste Abkühlung während des Australischen Sommers aufgetreten war.

————————————

Die Ostantarktis hat sich während der letzten 200 Jahre nicht erwärmt.

Altnau et al., 2015:

In der Ostantarktis konnte mittels der Messdaten keine allgemeine Erwärmung und auch keine Zunahme der Niederschläge festgestellt werden (Turner et al. 2005, Monaghan et al. 2006, 2008). … Wir folgern daraus, dass die Bedingungen im Inneren des Dronning Maud-Gebietes in der Ostantarktis während der letzten 200 Jahre weitgehend stabil geblieben sind und nur schwach von Änderungen der atmosphärischen Dynamik beeinflusst worden waren.

————————————

Das Ross-Meer (Antarktis) hat sich seit dem Jahr 1979 mit einer Rate von 1,59°C pro Dekade abgekühlt, ohne einen allgemeinen überlagerten Erwärmungstrend seit 1882.

Sinclair et al., 2012:

Rekonstruierte mittlere jährliche Temperaturen zeigen zwischen 1882 und 2006 keine signifikanten Änderungen (im Ross-Meer, Antarktis). Allerdings wird seit 1979 eine Abkühlung während der kalten Jahreszeit (April bis September) beobachtet, und zwar um 1,59°C ± 0.84°C pro Dekade (mit 90% Vertrauen).

————————————

Der antarktische Kontinent als Ganzes hat sich seit den sechziger Jahren abgekühlt.

Doran et al., 2002:

Unsere räumliche Analyse der meteorologischen Daten aus der Antarktis zeigt insgesamt eine Abkühlung auf dem Antarktischen Kontinent zwischen 1966 und 2000, vor allem im Sommer und Herbst. Die Trockentäler bei McMurdo haben sich zwischen 1986 und 2000 um 0,7°C pro Dekade abgekühlt mit ähnlich ausgeprägten saisonalen Trends.

Yuan et al., 2015:

In dieser Studie werden gemessene Temperaturen von 12 Stationen in der Antarktis, auf Inseln, an der Küste und im Inneren analysiert mittels einer mittleren trendbereinigten Fluktuations-Analyse (DFA) … Wir erkennen, dass die meisten Stationen in der Antarktis keinerlei signifikante Trends zeigen während der letzten Jahrzehnte.

————————————

Abkühlung im westlichen Südamerika (Chile)

Chile hat sich seit den vierziger Jahren abgekühlt.

de Jong et al., 2013:

Sommertemperaturen zum Ende des Holozäns in den Zentralanden…Chile:

————————————

In China wird es nicht wärmer

Die Temperaturen im nordwestlichen China zeigten während der letzten 368 Jahre keinen Erwärmungstrend. Im 17. und 18. Jahrhundert war es wärmer als heute:

Zhu et al., 2016:

Ergebnis: Alles in allem könnte die Variabilität der mittleren Maximum-Temperatur im nordwestlichen Sichuan Plateau, China, mit der globalen atmosphärischen Land-Meer-Zirkulation assoziiert sein (z. B. ENSO, PDO oder AMO), aber auch mit solaren und vulkanischen Antrieben“.


————————————

Die Gletscher im nordwestlichen China waren stabil oder sind im 21. Jahrhundert sogar schon wieder etwas vorgestoßen:

Wang et al., 2016:

Die Gletscher-Anomalie auf dem nordwestlichen Tibetischen Plateau war ein Thema bei Diskussionen wegen des im Gleichgewicht befindlichen oder sogar leicht positiven Massenhaushalt der Gletscher zu Beginn des 21. Jahrhunderts.

Holzer et al., 2015:

Jüngste Messungen der Massenbilanz zeigen einen leichten Zuwachs an Masse bei Muztag Ata im Ost-Pamir (China). … Nahezu ausgeglichene Bilanzhaushalte während der letzten vierzig Jahre. Anzeichen für leicht positive Trends nach 1999 (+0.04 ± 0.27 m w.e. A−1 ) werden bestätigt durch Messungen vor Ort.

————————————

Keine Erwärmung in Kanada

In der kanadische Arktis war es zu Beginn des 19. Jahrhunderts sowie im Zeitraum der Jahre 1000 bis 1200 wärmer als heute, wobei sich während der letzten 200 Jahre keine signifikanten Erwärmungstrends außerhalb der natürlichen Variabilität zeigten.

Genarretti et al., 2014:

Durch Vulkanismus induzierte Änderungen der Regimes in Baumring-Chronologien nach Jahrtausenden aus dem nordöstlichen Nordamerika“.

Die Temperaturen in British Columbia (Kanada) waren von 1900 bis 2010 stabil ohne Erwärmungstrend.

Pitman and Smith, 2012:

Aus Baumringen abgeleitete Temperaturtrends während der Kleinen Eiszeit aus den zentralen Küstenbergen von British Columbia

Keine Erwärmung in Südafrika

Die Lufttemperaturen in Südafrika waren während der letzten 200 Jahre stabil geblieben, wobei es von 1800 bis 1860 gleich warm oder wärmer war. Die Temperaturen waren zwischen 1720 und 1770 stärker gestiegen (rund 1,5°C über 50 Jahre) als zu jedem Zeitpunkt seitdem.

Zinke et al., 2014:

Korallen vor Madagaskar zeigen die Variabilität der Wassertemperatur … während der letzten 334 Jahre.

Abkühlung in Grönland von den vierziger bis zu den neunziger Jahren des vorigen Jahrhunderts

Vor Mitte der neunziger Jahre hat es sich in Grönland insgesamt abgekühlt – ein 50 Jahre währender Abkühlungstrend trotz einer rapiden Zunahme von CO2-Emissionen im Zeitraum der vierziger bis zu den neunziger Jahren. Erst nach Mitte der neunziger Jahre begannen die Temperaturen in Grönland gleichlaufend mit der CO2-Konzentration zu steigen.

Andres, 2016

Rekonstruktionen zeigen, dass die Temperaturen in Grönland bis Mitte der neunziger Jahre nicht der hemisphärischen Treibhausgas-Erwärmung gefolgt sind. Diese Diskrepanz zeigt entweder, dass der Erwärmungs-Stillstand mit der internen Klimavariabilität assoziiert war oder dass die Simulationen Prozesse nicht abbilden konnten, die für das Klima in Grönland wichtig sind.

Chylek et al., 2004

Die Temperaturen an den Küsten von Grönland sind dem globalen Erwärmungstrend zu Beginn des 20. Jahrhunderts gefolgt. Seit 1940 jedoch haben die Küstenstationen von Grönland vorherrschend einen Abkühlungstrend gezeigt. Auf dem höchsten Punkt des grönländischen Eisschildes ist die mittlere Sommertemperatur mit einer Rate von 2,2°C pro Dekade gesunken seit Beginn von Messungen im Jahre 1987.

Hanna and Cappelen, 2003

Die Analyse neuer Daten von acht Stationen an der Küste von Südgrönland zeigte von 1958 bis 2001 einen signifikanten Abkühlungstrend (Trend-Abkühlung um 1,29°C über die 44 Jahre). Gleiches gilt für die Wassertemperaturen der angrenzenden Seegebiete der Labrador-See.

Dahl-Jensen et al., 1998

Während der Mittelalterlichen Warmzeit (um das Jahr 1000) war es um 1 K wärmer als gegenwärtig (in Grönland), und die Kleine Eiszeit wies zwei Minima auf um das Jahr 1500 sowie um 1850. Der Kleinen Eiszeit folgte ein Temperaturanstieg, der um das Jahr 1930 seinen Kulminationspunkt erreichte. Zwischen 1940 und 1995 kühlte es sich ab.

Bis Redaktionsschluss im Jahre 2007 hat sich der grönländische Eisschild seit Mitte der neunziger Jahre immer noch nicht genug erwärmt, um über die Erwärmung der zwanziger und dreißiger Jahre hinauszugehen. Addiert man dazu die Abkühlung von 1940 bis 1995, gab es in Grönland einen nunmehr 70 Jahre dauernden Abkühlungstrend.

Box et al., 2009

Meteorologische Stations-Aufzeichnungen und die Ergebnisse regionaler Klimamodelle werden kombiniert, um eine kontinuierliche räumliche Rekonstruktion über 186 Jahre (1840 bis 2007) der monatlichen, saisonalen und jährlichen Mitteltemperaturen auf der Oberfläche des grönländischen Eisschildes zu erhalten. Der jährliche Erwärmungstrend von 1919 bis 1932 ist um 33% größer als die Erwärmung von 1994 bis 2007.

Abkühlung in Island zwischen 1940 und dem Beginn des 21. Jahrhunderts

Hanna et al., 2004:

Eine Analyse des Klimas auf Island seit dem 19.Jahrhundert

Ü Abkühlung in der Arktis zwischen den vierziger und den neunziger Jahren

Kahl et al., 1993:

Fehlende Beweise für eine Treibhaus-Erwärmung im Arktischen Ozean während der letzten 40 Jahre

Im Einzelnen beobachten wir nicht die großen, von den Modellen prophezeiten Erwärmungstrends. Vielmehr entdecken wir signifikante Abkühlungstrends im westlichen Arktischen Ozean während Winter und Herbst. Diese Diskrepanz zeigt, dass die derzeitigen Klimamodelle nicht angemessen die physikalischen Prozesse enthalten, die Auswirkungen auf die Polargebiete haben“.

Schlussfolgerung: „Das Fehlen verbreiteter und signifikanter Erwärmungstrends führt uns zu der Schlussfolgerung, dass es keine Beweise gibt, die die Modellsimulationen einer Treibhaus-Erwärmung im Arktischen Ozean stützen, für den Zeitraum von 1950 bis 1990. Unsere Ergebnisse zusammen mit dem inkonsistenten Verhalten der Modellsimulationen des Arktischen Klimas zeigen, dass die Notwendigkeit eines besseren Verständnisses der physikalischen Prozesse besteht, die die Polargebiete betreffen, vor allem die Wechselwirkungen zwischen Atmosphäre und Eis, dem ozeanischen Wärmetransfer sowie Strahlungseffekten durch Wolken“.

————————————

Es gab alles in allem keine Temperaturänderungen im Arktischen Atlantik seit 1940 (Graphik A) mit einer abrupten Abkühlung zwischen 1940 und 1995 (Graphik B, rechts außen).

Hanhijärvi et al., 2013:

Paarweise Vergleiche zur Rekonstruktion der Temperatur im Gebiet des Arktischen Atlantik während der letzten 2000 Jahre.

————————————

Zhang et al., 2015

Link: http://notrickszone.com/2016/08/15/abundant-scientific-evidence-that-global-warming-is-a-made-up-concept/#sthash.S9JzMVTH.dpbs

Übersetzt von Chris Frey EIKE

Ergänzung der EIKE-Redaktion

Im Jahre 2011 erschien im International Journal of Modern Physics C der Artikel "How natural is the recent centennial warming? An analysis of2249 surface temperature records", verfasst von den EIKE Autoren, Horst-Joachim Lüdecke, Rainer Link und Friedrich-Karl Ewert. Darin wurde gezeigt, dass von allen veröffentlichten Temperaturreihen des GISS, die mindestens 100 Jahre lang sind, rund ein Viertel(!) Abkühlung und keine Erwärmung zeigen. Die Arbeit ist beigefügt, s. dort insbesondere Tabelle 2., Spalte 2 und die Conclusion b).

Related Files




Sommer 2016 in Deutschland – viel geschmäht, doch besser als sein Ruf?

Bild rechts: Ein bunter Sonne- Wolken- Mix mit häufigeren, aber nur kurzen, wenig ergiebigen Regenphasen bei meist angenehmen Temperaturen, so zeigte sich der 2016er Sommer in Thüringen. Foto: Stefan Kämpfe

Die Mär vom „nassen, verregneten, unwetterträchtigen“ Sommer 2016

Dieser Sommer (wir betrachten stets den „meteorologischen“ Sommer vom 1. Juni bis zum 31. August) traf mit geschätzten 240mm Niederschlag im Deutschland- Flächenmittel fast genau den Langjährigen Sommer-Mittelwert 1881 bis 2015 von 246mm (die „amtlichen“ Werte fehlten zum Redaktionsschluss; geringe Abweichungen sind noch möglich). Dabei fiel der Juni deutlich zu nass, Juli und August aber etwas zu trocken aus. Einen „verregneten“ Sommer, speziell in den Ferienmonaten Juli/August, gab es nicht; einziges Manko war die insgesamt leicht unterdurchschnittliche Sonnenscheindauer. Die „Klimamodelle“ prophezeien uns ja seit langem eine abnehmende sommerliche Niederschlagsmenge mit mehr Dürren in Deutschland, doch die Realität weigert sich beharrlich, diesen Horror- Prognosen zu folgen:

Abb. 1: In Deutschland wurde der Sommer seit 1881 weder feuchter, noch trockener (ebene, blaugrüne Trendlinie). Auch die Schwankungsbreite von Sommer zu Sommer, also zu immer extremerer Nässe oder Trockenheit, nahm nicht zu. Die Werte für 2016 sind geschätzt und können um wenige Millimeter abweichen, was auf den Trend und die Gesamtaussagen keinen Einfluss hat.

Und die Juni-Unwetter? Der Begriff „Unwetter“ ist relativ, es gibt nur willkürlich festgelegte Grenzwerte für Starkregen, wie sie auch der DWD (Deutscher Wetterdienst) gebraucht. Die politischen, wirtschaftlichen sowie technischen Bedingungen und Fähigkeiten einer Gesellschaft entscheiden, ob ein stärkeres Regenereignis zum „Unwetter“ wird. Falsche Siedlungspolitik, wie übermäßige Bebauung von Bach- und Flussauen, Bodenverdichtungen und fehlender oder unzureichender Hochwasserschutz (oft würde schon die Wiederaufnahme der früher geregelten Pflege vieler kleinerer Gräben und Vorfluter helfen!) machen aus normalen Sommergewittern Katastrophen. Die meisten sommerlichen Starkregenereignisse sind gewittrig. Daher sollte die Anzahl der je Sommer beobachteten Gewittertage grobe Hinweise auf deren „Unwetterträchtigkeit“ geben. Leider liegt hierfür kein Deutschland- Mittel vor, wohl aber gibt es zuverlässige Aufzeichnungen an der Station Potsdam. Dort traten im Juni mit 6 und im Juli mit 7 Gewittertagen in etwa so viele auf, wie im Langjährigen Mittel; auch der August verlief nach Sichtung der Wetterkarten nicht ungewöhnlich gewitterreich. Wir schätzten höchstens 20 Gewittertage für den gesamten Sommer, das langjährige Mittel beträgt 17,25 Tage. Erstaunliches zeigt sich aber beim Langzeittrend der Häufigkeit sommerlicher Gewittertage (Aufzeichnungen seit 1893):

Abb. 2: In Potsdam zeigt sich keine langfristige Zunahme der Gewittertage. Wegen der hohen Schwankung der Einzelwerte (in gewitterarmen Sommern treten weniger als 10, in gewitterreichen aber mehr als 25 Gewittertage auf) ist der leicht fallende Trend nicht signifikant.

War der Sommer 2016 wirklich zu kühl?

Nein. Viele werden ihn wohl nur wegen der sehr wechselhaften Witterung und der relativ kühlen ersten Augusthälfte in schlechter Erinnerung behalten. Das Deutschland- Mittel für den Sommer in der aktuellen klimatologischen Normalperiode („CLINO“) 1981 bis 2010 beträgt 17,1°C; der Sommer 2016 erreichte mit etwa 17,7°C ein leichtes Temperaturplus. Auch in Zentralengland fiel er um etwa ein halbes Grad zu warm aus. Solche geringfügigen Temperaturabweichungen spürt man kaum, also war dieser Sommer fast normal temperiert. Normal ist auch der stete Wechsel kürzerer sonniger und längerer bewölkter Phasen mit Schauern, Gewittern oder Regenfällen, denn wir liegen in einer Westwindzone, in der sich (meist) seltenere Hochdruckwetterphasen mit längerem Tiefdruckwetter abwechseln. Bemerkenswert, aber nicht völlig ungewöhnlich ist das vereinzelte, örtlich aber eng begrenzte Auftreten von Bodenfrösten schon im August, was in Mitteldeutschland beispielsweise am 11. und am 18.08. besonders in den Mittelgebirgen und deren Vorländern beobachtet wurde, Quelle http://www.mdr.de/nachrichten/vermischtes/sommer-frost-minusgrade-im-august-100.html . Man darf das nicht voreilig als Beginn einer Abkühlungsphase werten, aber es weckt erhebliche Zweifel an der stets behaupteten „starken Erwärmungswirkung“ durch CO2.

Die langfristige Entwicklung der Sommertemperaturen in England und Deutschland

Der Einfachheit halber betrachten wir in diesem Abschnitt nur die Sommerwerte bis einschließlich 2015, denn 2016 fällt langfristig kaum ins Gewicht. Vertrauenswürdige Daten („DWD- Mittel“) liegen leider erst ab 1881 vor. Seitdem erwärmte sich der Sommer um knapp 1,3 Kelvin (1 K entspricht 1°C), was zunächst an eine „CO2- verursachte Klimaerwärmung“ denken lässt. Erstaunt waren wir jedoch über die Messreihe aus Zentralengland (CET), die bis 1659 zurückreicht und damit den Höhepunkt der „Kleinen Eiszeit“ mit erfasst. Seit dieser sehr kalten Zeit sollte sich der Sommer dort doch kräftig erwärmt haben; so 1,5 bis 2 K wären angesichts der „besorgniserregenden Klimaerwärmung“ in mehr als 350 Jahren sicher zu erwarten. Aber die Realität zeigt etwas anderes:

Abb. 3: In Zentralengland (CET = Central England Temperature Records) stieg die Sommertemperatur (Juni bis August) in mehr als 350 Jahren um lediglich 0,36 K (linearer Trend), das sind nur etwa 0,1 K pro 100 Jahre. Es dominiert ein wellenförmiger Verlauf. Den bisher tiefsten Werten um 1700 folgte ein der heutigen Erwärmung ähnelnder Anstieg bis etwa 1750; weitere Warmphasen sind Mitte des 20. Jahrhunderts und in der Gegenwart (1990er bis 2000er Jahre) zu erkennen.

Problematisch für die (zweifelhafte) CO2- basierte Klimaerwärmungstheorie sind besonders die starke Erwärmung im frühen 18. Jahrhundert (damals wohl kaum steigende CO2- Konzentration) sowie die Abkühlungsphase der 1960er bis 1980er Jahre trotz stark steigender CO2- Konzentrationen. Und seit 1986 stagniert die sommerliche Erwärmung in Zentralengland auf hohem Niveau. Bei der Suche nach anderen Ursachen stießen wir auf die Sonnenaktivität. Zahlreiche Wissenschaftler (u. a. SVENSMARK, MALBERG, VAHRENHOLT/LÜNING) haben sich mit dem Einfluss der Sonnenaktivität auf das Klima beschäftigt. In Zeiten höherer Sonnenaktivität erwärmte sich das Klima. Aufzeichnungen der Sonnenfleckenhäufigkeit, welche ein grobes Maß für die Sonnenaktivität ist, liegen mit gewissen Unsicherheiten mittlerweile bis 1700 vor (Datenquelle https://www.quandl.com/data/SIDC/SUNSPOTS_A-Total-Sunspot-Numbers-Annual ). Wir setzen nun die Temperaturreihe von Zentralengland (CET) mit der Sonnenfleckenhäufigkeit in Relation. Die Sonnenaktivität wirkt vor allem langfristig und zeitversetzt (verzögert), was wir bei der folgenden Abbildung berücksichtigt haben:

Abb. 4: Mit gewissen Abstrichen (grüner Pfeil) besteht eine gute Übereinstimmung zwischen Sonnenaktivität (gelb, unten) und den Augusttemperaturen in Zentralengland (rot). Die glatten Kurven sind die Polynome zweiten Grades. Weil die Sonnenaktivität mit einer Verzögerung von 10 bis 30 Jahren am stärksten temperaturwirksam wird, wurde hier ein zwölfjähriger Versatz betrachtet (das 31ig jährige Gleitmittel der Sonnenfleckenzahlen beginnt schon mit dem Jahr 1730 und endet 2003). Anmerkung: Wir verwenden die für die Sonnenaktivität nur bedingt aussagefähigen Sonnenfleckenzahlen, weil sie numerisch vorliegen und gut für Excel- Grafiken verarbeitbar sind. Mehr über die Sonnenaktivität siehe Quellenangabe am Beitragsende.

Allerdings erklärt uns die Sonnenaktivität die Abkühlungsphase der 1960er bis 1980er Jahre und den anschließenden, markanten Anstieg bis etwa 2000 auch nicht, denn trotz berücksichtigtem „Zeitversatz“ erreichte sie ihr absolutes Maximum seit Aufzeichnungsbeginn etwa auf dem Höhepunkt der Abkühlung. Es muss also noch andere Einflussfaktoren auf den Temperaturverlauf geben, welche wir nun kurz betrachten wollen.

Die AMO- Wie der Atlantik unser Klima beeinflusst

Gewissen Einfluss auf das Temperaturverhalten der drei Jahreszeiten Frühling bis Herbst hat die so genannte AMO (Atlantische Mehrzehnjährige Oszillation, ein Maß für die Schwankung der Wassertemperaturen im zentralen Nordatlantik), wobei nach den Untersuchungen von KÄMPFE der Einfluss im Sommer und Herbst am größten ist. In AMO- Warmphasen, welche etwa alle 50 bis 80 Jahre für etwa 20 bis 35 Jahre auftreten, sind die Sommer tendenziell deutlich wärmer, als in den AMO- Kaltphasen. Die AMO- Werte liegen bis 1856 vor; wir haben sie anhand der 31ig- jährigen Gleitmittel in Relation zu den Sommertemperaturen Zentralenglands gesetzt, somit beginnt die folgende Grafik mit dem Jahre 1886:

Abb. 5: Die Atlantische Mehrzehnjährige Oszillation (AMO, eine Schwankung der Wassertemperaturen im Nordatlantik, untere, grüne Kurve), stieg seit 1856, dem Beginn ihrer Erfassung, merklich an und weist außerdem eine etwa 70ig jährige Rhythmik mit Maxima von den späten 1930er bis 1950er und den 1990er bis in die 2000er Jahre auf. In den AMO- Maxima waren die Sommertemperaturen in Zentralengland tendenziell erhöht; Ähnliches gilt auch für Deutschland. Nach 2010 deutet sich eine Stagnation oder gar ein Rückgang aller Werte an; doch muss die weitere Entwicklung hier noch abgewartet werden.

Die bislang letzte AMO- Kaltphase (1960er bis 1980er) fiel mit der Phase der stärksten Sonnenaktivität zusammen und überkompensierte vermutlich deren Wirkung. Auch die Sonnenscheindauer beeinflusst die Sommertemperaturen stark. Vertrauenswürdige langfristige Sonnenscheindauer- Aufzeichnungen fehlen für das Deutschland- Mittel und für Zentralengland. KÄMPFE hat aber die bis 1893 reichenden Aufzeichnungen von Potsdam untersucht und fand für die einzelnen Sommermonate hoch signifikante Bestimmtheitsmaße von 60 bis über 70%, die höchsten Werte für den Juli. Im gesamten Sommer ließen sich knapp 2/3 der Variabilität der Sommertemperaturen mit der Länge der Sonnenscheindauer erklären; sehr sonnenscheinreiche Sommer sind fast immer deutlich wärmer, als sonnenscheinarme. Die starke Luftverschmutzung der späten 1950er bis 1980er Jahre (SO2, Staub) könnte nun Intensität und Dauer der Sonneneinstrahlung vermindert haben, was ebenfalls leicht kühlend wirkte. Zumindest in Potsdam verhielt sich die Sonnenscheindauer ähnlich wie die AMO; bei ihr ist allerdings nur ein leichter Rückgang von etwa 1960 bis in die späten 1980er Jahre erkennbar:

Abb. 6: In Potsdam zeigen Sonnenscheindauer (unten, gelb), Lufttemperaturen (rotbraun, Mitte) und AMO (grün, oben) ein ähnliches Verhalten. Die fetten Ausgleichskurven sind die 15- jährigen gleitenden Mittelwerte. In den relativ warmen 1930er bis 1950er und ab den 1990er Jahren waren alle Werte erhöht; dazwischen lag eine Abkühlungsphase. Auch bei der Globalstrahlung zeigt sich ein Rückgang von etwa 1960 bis 1985; leider liegen Werte aber erst seit 1937 vor.

Die Großwetterlagen entscheiden – Badehose oder Ostfriesennerz?

Ein weiterer Einflussfaktor verdient Beachtung und spielt vermutlich in Deutschland eine viel größere Rolle als in Zentralengland bei der langfristigen sommerlichen Erwärmung- die Änderung der Häufigkeitsverhältnisse der Großwetterlagen. Diese lassen sich mit einiger Sicherheit bis 1881 zurückverfolgen und mit den Sommertemperaturen in Beziehung setzen. Im Sommer kühlende und meist wolkenreiche Großwetterlagen (Klassifikation nach HESS/BREZOWSKY) sind alle West-, Nordwest- und Nordlagen. In der folgenden Abbildung sind die Summen der Häufigkeiten der Großwettertypen West, Nordwest und Nord als Indexwerte zusammen mit dem Sommermittel der Deutschland- Temperaturen dargestellt:

Abb. 7: Eine „Schere“ öffnet sich: Auch weil im Sommer kühlende Großwettertypen (solche aus West, Nordwest oder Nord) langfristig seltener auftraten, wurden die Sommer in Deutschland etwas wärmer. Dominierten diese 3 Großwettertypen am Anfang der Beobachtungsreihe noch mit etwa 62 Tagen je Sommer (Mittelwert 1881 bis 1910) die gesamte Jahreszeit, so waren es im Mittel 1991 bis 2010 nur noch 44 Tage- ein Rückgang um 30%. Zugenommen hat vor allem die Häufigkeit der Lagen mit südlichem Strömungsanteil (hier nicht gezeigt).

Wie stark kühlend Einbrüche feucht- kalter Polarluft sein können, zeigte sich im Thüringer Flachland kurzzeitig am 15. Juli und am 10. August 2016, da wurden nur Tageshöchstwerte von 14 bis 17°C gemessen. Hätten sie länger angedauert, wäre dieser Hochsommer viel kühler ausgefallen, wie etwa teilweise der Sommer 2000, als im kalten, sonnenscheinarmen Juli (24 von 31 Tagen mit West- und Nordwetter!) fast alle Freibäder wochenlang schließen mussten. Und bei häufigeren Hitzewellen wie der von Ende August mit sonnigem Südwetter, hätten wir eine Kopie des 2015er Hitzesommers erlebt.

Der UHI- Effekt- die wirklich menschengemachte Hitzeplage in den Städten

Als wesentliche Einflussfaktoren gelten so genannte Wärmeinsel- Effekte (WI). Über diese hatten KOWATSCH/KÄMPFE häufig berichtet. Wir verzichten im Interesse der Knappheit auf ausführliche Erklärungen. Anhand der Vergleiche von in der Großstadt Berlin gelegenen Stationen mit denen des Berliner Umlandes (höhenbereinigt) und der Relation des Temperaturverlaufs in Jena- Sternwarte zur Entwicklung der Einwohnerzahlen Jenas hatten wir den aktuellen UHI- Effekt auf etwa 0,5 bis 0,8 K geschätzt (in Großstädten ist es gegenüber ländlicheren Stationen im Mittel um diesen Betrag wärmer). Der UHI entstand mit der Verstädterung Deutschlands zwischen etwa 1870 und 1940; sein Erwärmungspotential ist weitgehend (bis auf wenige Ausnahmen, wie etwa Frankfurt/Main) ausgeschöpft:

Abb. 8a und 8b: In der aktuellen CLINO- Periode 1981 bis 2010 traten im Mittel zwischen in der Großstadt Berlin und ländlicheren, nahe gelegenen Stationen in Brandenburg höhenbereinigte Stadt- Umlanddifferenzen im Sommer von 0,8 K (Juni) und knapp über 0,6 K (August) auf (obere Abb.). In Jena gab es seit 1880- besonders nach 1900- einen beträchtlichen Temperaturanstieg von gut 2 K, ein gutes Drittel davon dürfte UHI- bedingt gewesen sein; der dort beträchtliche „neuzeitliche“ Temperaturanstieg ab etwa 1988 hatte aber andere Ursachen (AMO, Sonneneinstrahlung und geänderte Großwetterlagenhäufigkeiten).

Flächenhafte Wärmeinseleffekte (WI) in den DWD- Sommertemperaturreihen

Die von den DWD- Stationen gemessenen Sommertemperaturen sind nicht wärmeinselbereinigt. Besonders nach dem letzten Weltkrieg dehnten sich mittels Straßenbau, Entwässerung und Zersiedlung die WI- Effekte in das Umland aus, zusammenhängende Wärmeregionen sind entstanden wie der Oberrheingraben, der Mittlere Neckarraum oder der Bodenseeraum in Baden-Württemberg. Wir unterscheiden somit zwischen UHI-Effekt (größtenteils vor 1945 entstanden) und dem sich zunehmend entwickelnden flächenhaftem WI- Effekt, letzterer ist vom Betrag her höher (siehe letzte Quellenangabe), und wird neuerdings stark durch die ausufernden Wind- und Solarparks beschleunigt. Ein Teil der Sommererwärmung der letzten Jahrzehnte ist somit WI- bedingt, weil die Messstationen des Deutschen Wetterdienstes (DWD) größtenteils dort stehen, wo die Menschen leben und arbeiten. Betrachten wir zunächst die Entwicklung der Sommertemperaturen nach 1945 (DWD- Originaldaten). Wie alle anderen Jahreszeiten zeigt der Sommer zunächst nach der Jahrhundertmitte eine Abkühlung. Hatte etwa die angebliche CO2-Erwärmungswirkung knapp 30 Jahre lang ausgesetzt, wo doch allein CO2 die Temperatur bestimmen soll? Eine schlüssige Antwort der CO2- Erwärmungstheoretiker auf dieses Problem steht aus.

Abb. 9: Keineswegs wurden die drei Sommermonate konstant wärmer, sondern nach dem Krieg erfolgte zunächst eine Abkühlung und die Temperaturen verharrten zwei Jahrzehnte in einem Wellental. Trotz der nun eventuell erneut beginnenden Abkühlungstendenz ist das aktuelle Temperaturniveau immer noch höher als zu Beginn der Betrachtung um 1945. Eine lineare Trendlinie hätte die Steigung von y = 0,017x.

Der beschleunigte Wärmeinseleffekt hatte an dieser Erwärmung einen erheblichen Anteil. (Beschreibung und Gründe dieses eindeutig anthropogenen, in den DWD- Messreihen verborgenen Effektes siehe Quellenangaben am Schluss des Artikels). Um den WI- Anteil beim Sommertemperatur -Anstieg annähernd zu ermitteln, suchten wir fast WI- freie Stationen und fanden Amtsberg am Fuße des Erzgebirges und Schneifelforsthaus, nahe der Belgischen Grenze.

Wir beginnen 1953, weil die Daten der 2 Vergleichsstationen so weit zurückreichen. Wir vergleichen zunächst das DWD- Mittel mit der Station Amtsberg-Dittersdorf in Sachsen. Leider stand diese Station vor 1982 an einem anderen Ort. Der Stationsleiter hat uns gegenüber beteuert, dass er die Temperaturen vor 1982 richtig auf den jetzigen Standort umgerechnet habe. Trotzdem sollte die nächste Grafik 10 unter diesem Vorbehalt betrachtet werden, da beide Standorte doch räumlich einige Kilometer auseinander lagen.

Abb. 10a/10b: Auch an WI-armen Standorten wurde es ab 1953 bis heute wärmer. Die Trendlinie weist jedoch – wie erwartet – mit eine deutlich geringere Steigung auf, was am Ende 0,8 K weniger Erwärmung seit 1953 für die drei Sommermonate im Raum Amtsberg am Fuße des Erzgebirges ausmacht.

Ab 1975 wurden die Sommer aus verschiedenen Gründen (siehe oben) wieder wärmer. Auch bei der WI- armen Station Schneifelforsthaus zeigt sich ein moderater Anstieg:

Abb. 11: Mit y = 0,0248x hat Schneifelforsthaus seit 1975 einen ähnlichen Anstieg der Trendlinie wie Amtsberg-Dittersdorf mit y = 0,027x. Die DWD-Trendlinie mit y = 0,038x ist deutlich steiler, was letztlich 0,5 K Temperaturgewinn in 41 Jahren zwischen DWD und Schneifelforsthaus ausmachen würde. (0,4K zu Amtsberg). Aus Platzgründen wollen wir auf diese beiden Grafiken verzichten.

Anhand der letzten Grafiken erkennt man überall in Deutschland nach der Kaltphase (um 1970) eine Erwärmung. Bei WI- armen Standorten wie Amtsberg und Schneifelforsthaus ist der Wärmezugewinn aber wesentlich moderater.

Aus dem Verlauf der Grafik 9 – Sommer seit 1945- deutet sich seit gut einem Jahrzehnt möglicherweise wieder eine Abkühlung an. Wir fragen uns zum Schluss, auf welchem Temperaturniveau wir 2016 wieder angekommen sind, bzw. seit wann die Sommertemperaturen stagnieren. Eine WI-arme Klimastation müsste über einen längeren Zeitraum stagnierend sein wie eine WI-behaftete. Das zeigt uns Amtsberg:

Abb. 12: Die drei Sommermonate zeigen in der ländlichen Region am Fuße des Erzgebirges seit 35 Jahren eine Stagnation der Sommertemperaturen.

In der Region Amtsberg fand also seit 1982 keine sommerliche Erwärmung mehr statt; noch ist das ein Einzelfall. Schneifelforsthaus zeigt ab 1990 keine Erwärmung mehr. Die DWD- Sommer-Trendlinie ist im Gegensatz dazu erst seit 1999 eben.

Damit gilt mit aller Vorsicht und Vorbehalt: In der freien Fläche Deutschlands, das sind immerhin 85% der Fläche unseres Staates, stagnieren die Sommertemperaturen möglicherweise bereits seit etwa 30 Jahren. Aber selbst beim Schnitt der wärmeinselbehafteten DWD Orte – etwa 15% der Fläche Deutschlands – stagnieren die Sommertemperaturen seit 1999.

Zusammenfassung

Der Sommer 2016 war nach den offiziellen Daten des Deutschen Wetterdienstes weder besonders reich an Unwettern, noch zu nass oder zu kalt. Insgesamt ein ganz normaler, wechselhafter Sommer mit Höhen und Tiefen. Langfristig betrachtet, wurden die Sommer in Deutschland etwas wärmer, was vor allem auf eine höhere Sonnenaktivität und Sonnenscheindauer, gestiegene AMO- Werte, seltener werdende West-, Nordwest- und Nordlagen sowie verschiedene WI- Effekte zurückzuführen ist. Nur für Zentralengland liegen seit über 350 Jahren Temperaturaufzeichnungen vor; dort erwärmte sich der Sommer seit 1659 nur um knapp 0,4 Kelvin- von einer „katastrophalen Klimaerwärmung“ ist nichts zu spüren. Die sommerliche Erwärmung vollzog sich nicht kontinuierlich, sondern folgte grob der Rhythmik der AMO. Die beschleunigt steigende CO2- Konzentration vermag dieses rhythmische Temperaturverhalten, vor allem aber die Abkühlungsphase um 1970, sowie die Stagnation in Zentralengland seit gut 30 Jahren, hingegen nicht zu erklären. Der Mensch beeinflusste jedoch durch seine Bau- und Siedlungstätigkeit sowie durch geänderte Landnutzung (WI- Effekte) die Erwärmung wesentlich. Mit dem Ausbau der so genannten „Erneuerbaren Energien“ sind nicht nur massive Landschaftszerstörungen und neue Umweltschäden, sondern auch weitere massive Erwärmungen in der Fläche zu erwarten.

Quellen

Großwetterlagen und AMO

http://www.eike-klima-energie.eu/news-cache/im-takt-der-amo-und-der-nao-1-das-haeufigkeitsverhalten-der-grosswetterlagenund-dessen-auswirkungen-auf-die-deutschland-temperaturen/

http://www.eike-klima-energie.eu/news-cache/im-takt-der-amo-und-der-nao-2-das-haeufigkeitsverhalten-der-grosswetterlagenund-dessen-auswirkungen-auf-die-deutschland-temperaturen/

http://www.eike-klima-energie.eu/news-cache/im-takt-der-amo-und-der-nao-3-das-haeufigkeitsverhalten-der-grosswetterlagen-und-dessen-auswirkungen-auf-die-deutschland-temperaturen/

Sonnenscheindauer und Sonnenaktivität

http://www.eike-klima-energie.eu/klima-anzeige/der-heisse-ueberwiegend-trockene-juli-2013-k-ein-ungewoehnliches-ereignis/

http://www.eike-klima-energie.eu/climategate-anzeige/erst-zum-gipfel-dann-wieder-talwaerts-die-temperaturentwicklung-in-deutschland-seit-1980-und-deren-wesentliche-ursachen/

http://www.eike-klima-energie.eu/news-cache/eine-kleine-sensation-von-der-presse-unbemerkt-sonnenaktivitaet-erreichte-im-spaeten-20-jahrhundert-nun-doch-maximalwerte/

Literatur Wärmeinseleffekte in den Temperaturreihen.

http://www.eike-klima-energie.eu/climategate-anzeige/der-waermeinseleffekt-wi-als-antrieb-der-temperaturen-eine-wertung-der-dwd-temperaturmessstationen/

http://www.eike-klima-energie.eu/news-cache/der-waermeinseleffekt-als-massgeblicher-treiber-der-gemessenen-temperaturen/

http://www.eike-klima-energie.eu/news-cache/der-waermeinsel-effekt-eine-bestandsaufnahme-teil-1/

Wärmeinseleffekt in deutschen Wetterdaten

http://www.eike-klima-energie.eu/news-cache/der-waermeinseleffekt-die-station-frankfurtmain-flughafen-ffm-ein-extremer-erwaermungsfall-teil-2/

http://www.eike-klima-energie.eu/news-cache/der-wi-effekt-eine-bestandsaufnahme-teil-3-und-schluss-die-umland-problematik-flaechiger-wi-effekt-mehr-fragen-als-antworten/

http://www.eike-klima-energie.eu/news-cache/extremes-winterwetter-in-europa-der-waermeinseleffekt-und-das-maerchen-vom-co2-treibhauseffekt-teil-2-die-waermeinseln-breiten-sich-aus/

http://www.eike-klima-energie.eu/news-cache/die-zunahme-der-waermeinseln-brachte-den-grossteil-des-temperaturanstieges-der-letzten-125-jahre/

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, unabhängiger Natur- und Klimaforscher




Vor 200 Jahren: Der Vulkan und das „Jahr ohne Sommer“

Gar nicht auszudenken, was diese Herrschaften genau vor 200 Jahren angestellt hätten, denn das Jahr 1816 darf mit Fug und Recht ein echtes Klima-Katastrophenjahr genannt werden. Das "Jahr ohne Sommer" folgte auf den größten Vulkanausbruch der Menschheitsgeschichte, den des Tambora in Indonesien. Hierzulande wussten aber nur wenige davon. Die Auswirkungen der Vulkanstaubwolken, die sich rund um den Globus verteilten, waren verheerend. Der Winter 1815/1816 war brechend kalt, das Frühjahr 1816 war wie ein normaler Winter, einen Sommer 1816 gab es nicht und im späten Herbst war es laut historischer Aufzeichnungen beispielsweise in Bozen schon wieder minus 19 Grad kalt.

Die Lebensmittelpreise stiegen ins schwindelnde Höhen und viele Menschen verhungerten. Klima-Kassandras gab es übrigens damals schon. Sie sagten den baldigen Weltuntergang voraus, sprachen von einer „gottgewollten Verunreinigung der Sonne“, einer hatte auch schon den Tag terminiert, an dem „Die Sonne ausbrenne“: 18.Juli 1816. Nachzulesen ist das alles in dem Buch "Tambora und das Jahr ohne Sommer: Wie ein Vulkan die Welt in die Krise stürzte“ des Klima-Historikers Wolfgang Behringer.

Was macht man in einem „Jahr ohne Sommer“ mit Solarzellen?

Egal ob gegenwärtige Klima-Veränderungen nun vom Menschen verursacht werden oder nicht, so lehrt uns das Jahr 1816 dennoch, dass man die Natur immer auf der Rechnung haben muss. Das spricht dafür, sich Klimaveränderungen anzupassen und sich auf solche Ereignisse vorzubereiten, so gut es eben geht. Es ist garantiert nicht so, dass das Klima auf der Welt in einen sanften Schlummerschlaf versetzt wird, nur weil der Mensch beschließt, mit Billionensummen den Kohlendioxid-Ausstoß zu reduzieren. Es gibt kein Thermostat an dem Politiker einfach drehen können – und alles wird gut. Das ist eine ahistorische Sichtweise, die im übrigen einer sinnvollen Verwendung von Geldmitteln im Wege steht.

Da Geld nur einmal ausgegeben werden kann, stellt sich die Frage, ob die Anpassung an das möglicherweise Unvermeidliche nicht Vorrang haben sollte. So werden Unsummen für die unsichere Hoffnung ausgegeben, den Meeresspiegel in 100 Jahren um ein paar Zentimeter weniger ansteigen zu lassen. Wer dieses Geld dafür verwendet, den Menschen heute Deiche und Schutzvorrichtungen zu bauen, hilft ihnen wahrscheinlich sehr viel wirkungsvoller.

Das zeigt nicht zuletzt unsere eigene Vergangenheit. Nicht nur Vulkanausbrüche richteten ungeheure Schäden an, auch die Geschichte der Sturmfluten an der Nordseeküste ist von schweren Katastrophen geprägt. Doch die tödliche Gefahr durch Sturmfluten wurde durch entsprechende Schutzmaßnahmen sehr viel geringer. Das Klima wird sich auch weiterhin wandeln, weil es das immer getan hat. Anpassungsmaßnahmen sind also in jedem Fall sinnvoll, egal ob nun menschliche oder natürliche  Uraschen überwiegen. Stabilere Häuser, höhere Deiche und eine sichere Energieversorgung (Wieviel Strom produzieren Photovoltaik-Anklagen wohl in einem „Jahr ohne Sommer“?) können Menschen in besonders gefährdeten Regionen heute schon mehr Sicherheit bringen und nicht erst in ferner Zukunft.

Wer etwas über Vulkane lernen will, ist  in Island genau richtig

Wer etwas über Vulkane lernen will, ist übrigens In Island genau richtig. „Elefanten können es hören, Menschen nicht“, beschreibt Haraldur Sigurdsson jene gespenstischen Momente, bevor ein Vulkan ausbricht. Der Hörbereich des Menschen beginnt bei 20 Hertz, das Infraschall-Geräusch entzieht sich mit nur 15 Hertz dem menschlichen Gehör, nicht aber unserer Wahrnehmung. „Du spürst etwas tief in Deiner Brust“, erzählt Sigurdsson. Der isländische Vulkanologe, hat das nicht in seiner Heimat sondern auf der indonesischen Insel Java bei einem Ausbruch erlebt. Nach der Infraschallphase, so erinnert er sich,  wird die Geräuschkulisse dann sehr militärisch: „Pfeifen und Heulen, also die Windgeräusche fliegender Gesteinsbrocken.“ Die Lava, die den Berg hinunterfließt gibt ebenfalls Töne von sich: „Das macht ‚Kling, kling, kling‘, wie zerbrechendes Glas“.

Sigurdsson hat das Standardwerk "Melting The Earth – the hisory of ideas on Volcanic Eruptions" geschrieben, ist Mitherausgeber der „Encyclopedia of Volcanoes“ und gehört einem recht exklusiven Club von einigen hundert Forschern an, die sich darüber Gedanken machen, wie es im Inneren der Erde aussieht und warum es mal hier, mal dort zu vulkanischen Eruptionen kommt. 1939 in Stykkisholmur, einem Fischerdorf im mittleren Westen Islands geboren, hat er ein ein wunderbares Vulkanmuseum eröffnet.

Wenn er morgens aufwacht, geht er als erstes vor sein Haus und schaut sich um: in den Westen, zum Snaefellsjökull, wo Jules Verne seine „Reise zum Mittelpunkt der Erde“ anfangen ließ, in den Südosten zum Ljosufjöll, einem Bergmassiv, das zu dieser Zeit unter einer schweren Wolkendecke liegt. Beide Vulkane sind schon lange inaktiv, aber Haraldur Sigurdsson weiß, dass es so etwas wie „tote Vulkane“ nicht gibt. „Die Wahrscheinlichkeit, dass einer plötzlich zum Leben erwacht, ist minimal, aber ganz ausschließen kann man es nicht.“ Und das gilt noch nicht einmal für die deutschen Vulkane, etwa in der Eifel, die gerade erst 11.000 Jahre alt sind.

„Statistisch gesehen passiert so etwas alle 300 Jahre“

„Geologisch gesehen ist das eine kurze Zeit“ sagt er, „auf den Westermänner-Inseln schwiegen die Vulkane 12.000 Jahre und 1963 gab es plötzlich einen gewaltigen Knall“. Der Hauptort Heimæy wurde zur Hälfte von Lava und Asche verschüttet, ein Pompeji des 20. Jahrhunderts (einige Gebäude werden derzeit zu Anschauungszwecken wieder ausgegraben). Es gab dennoch keine Toten, weil die zufällig anwesende Fischereiflotte innerhalb weniger Stunden über 5.000 Bewohner evakuierte.

Nicht so viel Glück hatten 1816 die Bewohner des Landstriches um den Tambora herum. Sein oben bereits erwähnter Ausbruch 1815 kostete 107.000 Menschen das Leben, die meisten davon wurden von einer glühend heißen Gaswolke getötet, die den Berg hinab brauste. Die Überreste der Stadt, die damals komplett zerstört wurde, fand der isländische Vulkanologe im Jahr 2004 in etwa 25 Kilometer Entfernung vom Vulkan entdeckt. Die Folgen des Ausbruchs waren global und die Erdabkühlung verursachte Hungernöte bis hinein nach Europa.  „Das war die letzte Krise dieser Art“ sagt Haraldur, „aber statistisch gesehen passiert so etwas alle 300 Jahre“. Er nennt so eine Katastrophe einen „schwarzen Schwan“. Die moderne Industriegesellschaft würde nach einem solchen Ereignis kollabieren, da ist er sich ziemlich sicher. „So etwas bedeutet komplettes Chaos und man kann nur versuchen irgendwie zu überleben.“

Haraldur hebt einen Gesteinbrocken auf, der aussieht wie eine Kanonenkugel. „Das glühende Material ist irgendwann ausgeworfen und so von der Luftströmung geformt worden“. Die Geologen und Vulkanologen können solche Klumpen zum sprechen bringen wie die Forensiker von CSI. „Material, Beschaffung, Form, Gewicht, Entfernung vom Krater, all das hilft uns, die Gewalt einer Eruption nachzuvollziehen.“ Im Falle des Tambora heißen die Ergebnisse: Die Geschosse flogen bis zu 42 Kilometer hoch und eine Billion Kilogramm Gesteinsmasse wurden pro Sekunde in die Luft geschleudert. 100 Kubikkilometer Masse drangen aus dem Erdinneren nach außen. Die Erde hat zahllose solche Ereignisse über sich ergehen lassen, was Haraldur mit der Bemerkung zusammenfasst: " Alles ist Recyling, jeder Teil der Erde ist schon einmal durchgelaufen.“

Übernommen von ACHGUT hier

Anmerkung der EIKE Redaktion: Die 10. IKEK wird Mitte November in Berlin stattfinden und das Oberthema "Tambora – vor 200 Jahren gab es keinen Sommer" stehen




Die Konzeption Zivile Verteidigung – oder „Haltet den Dieb“

Keine Terroristengruppe kann die Versorgung mit Nahrungsmitteln, Wasser, Strom, Treibstoff oder Medizin so massiv stören, dass es zu bedrohlichen Engpässen kommen kann. Man arbeitet mit den in TV-Serien oft gesehenen, aber unrealistischen Hackerangriffen, die große Versorger lahmlegen und Chaos erzeugen. In Wahrheit haben sich diese Unternehmen längst auf derartige Bedrohungen eingestellt und haben ihre sensitiven und durch Störungen beeinflussbaren Bereiche abgeschirmt – z.B. durch deren völlige Isolierung vom hausinternen Computernetz, das wiederum ebenfalls gegen das Internet abgesichert werden kann und wird.

Vereinfacht gesagt: Man braucht nur den Stecker zum Internet oder zur WLAN-Verbindung ziehen.

In letzter Zeit hat es Hackerangriffe auf noch ungenügend geschützte Unternehmen gegeben, denen die massive Störung ihres hausinternen Computernetzwerks angedroht wurde, falls nicht gezahlt wird. Das wird vermutlich die Absicherungsmaßnahmen weiter vorantreiben.

Bisher gingen aber die meisten Probleme mit Computerstörungen in Unternehmen auf die eigenen Mitarbeiter zurück, die mit USB-Sticks Viren-verseuchte Spiele-, Video- und Musikdateien in ihren Arbeitsplatzrechner einfütterten.

Es ist absehbar, dass der unautorisierte Zugang zu der EDV von Unternehmen, Dienstleistern, Behörden und anderen Nutzern von schutzwürdigen Computerprozessen bald durch die  verschiedenen Abwehrmaßnahmen ein Ende haben wird.

Die Regierung weiß das natürlich längst. Was also treibt sie jetzt ? Es ist in Wahrheit die berechtigte Furcht vor dem schon lange befürchteten großen Blackout – also vor dem Zusammenbruch des deutschen Stromnetzes, der ohne weiteres 2 Wochen andauern kann. Die Stromnetzbetreiber warnen seit Jahren vor dieser immer wahrscheinlicher werdenden Situation, die sich speziell im Winter einstellt. Es sind die mit ihrer Energiewende und dem Erneuerbaren Energie-Gesetz EEG unbedacht und leichtsinnig von der Regierung herbeigeführten Probleme, deren Gefährlichkeit stetig zunimmt: Der riesenhafte Zubau an Windrädern – jetzt  27.000 Stück – bringt speziell in den Wintermonaten ebenso riesenhafte Leistungsspitzen, die das Stromnetz nicht mehr verkraften kann.  Nicht einmal der hundertste Teil der für deren Ausgleich nötigen Pumpspeicher existiert – und kann auch nicht für noch so viel Geld gebaut werden. 

Die Grundlast-Stromversorgung ist mit der Kernkraft-Abschaltung ruiniert worden und mit dem EEG treibt die Regierung immer mehr Kohlekraftwerke in die Unrentabilität und damit deren Stilllegung – nachdem bereits die Gaskraftwerke sämtlich ins Aus getrieben wurden. Weil aber der Strombedarf geblieben ist und im Winter wie immer beträchtlich ansteigt, nähert sich das durch die Regierung massiv beschädigte deutsche System der Stromversorgung immer rascher dem Kollaps.

Die verzweifelten Ausgleichsmaßnahmen der Netzbetreiber helfen kaum noch, die von den wetterabhängigen „Erneuerbaren“ verursachten gefährlichen Frequenzschwankungen innerhalb der Grenzen zu halten, jenseits derer der Zusammenbruch des Netzes und die totale Abschaltung folgt. Unsere Nachbarn können im Winter nicht helfen; sie brauchen ihren Strom selbst. Schlimmer noch: Polen und Tschechien, die von deutscher Seite als unfreiwillige Abnehmer der überflüssigen, gefährlichen Windstromspitzen missbraucht wurden, wehren sich jetzt dagegen mit sog. Phasenschiebern (Sperr-Schaltern) an ihren Grenzen, die die Deutschen zwingen, mit ihren  Windstrom-Tsunamis selbst fertig zu werden.

Und jetzt scheinen die Warnungen endlich bis nach Berlin durchgedrungen zu sein. Die Angst vor dem großen Blackout ist nur zu berechtigt. Es wäre die größte wirtschaftliche Katastrophe der Nachkriegszeit – und es würde Tote geben.

Dass die Regierung in dieser Situation ihre Pleite mit der Energiewende eingestehen würde, war nicht zu erwarten. Sie legte am 24.August eine „Konzeption Zivile Verteidigung (KZV)“ vor, die kurz zuvor vom Kabinett verabschiedet worden war. Wichtig der Hinweis, dass dies nichts mit der aktuellen Terrorlage in Deutschland zu tun habe. Vielmehr sei das Konzept jetzt „einfach fertig gewesen.“

In diesem Punkt hat man sogar die Wahrheit gesagt. Man muss dazu die Arbeit der sog. nachgeordneten Behörden wie Bundesämter betrachten; insbesondere derjenigen Ämter, die die undankbare Ausgabe haben, für einen fiktiven Vorgang, der irgendwann eintreten könnte, bereit zu sein und vorgesorgt zu haben.

Der in dieser Hinsicht undankbarste Job ist der des ehemaligen (1958) Bundesamtes für zivilen Bevölkerungsschutz (BzB) und 1974 seines Nachfolgers Bundesamt für Zivilschutz (BZS) und seit 2004 des Bundesamtes für Bevölkerungsschutz und Katastrophenhilfe (BBK). Um seine Existenzberechtigung immer erneut unter Beweis zu stellen und ggf. neue Entwicklungen zu berücksichtigen, fabriziert so ein Amt regelmäßig  ein aktualisiertes Papier, das dem Ministerium zugeleitet wird. Herr de Maizière hat deshalb immer ein solches Konzept in der Schublade und kann es deshalb bei Bedarf sofort präsentieren.  Dieser Bedarf ist soeben eingetreten.

Praktischerweise deckt so ein Universalpapier alle nur denkbaren Katastrophen-, Stör-, Sabotage- und Angriffsszenarien ab und passt somit immer.

Aber der zuständige Innenminister hat am 24.8 doch einige erstaunliche Aussagen gemacht: 

De Maizière hält den Krisenfall eines längeren regionalen oder überregionalen Stromausfalls in Deutschland für am wahrscheinlichsten ! Und der Präsident des dem Innenminister unterstellten Bundesamtes (BKK), Christoph Unger, sekundierte: „Ein Stromausfall würde uns existenziell treffen.“

Diese Äußerungen weisen auf die anscheinend sehr massiven Warnungen der Netzbetreiber und evtl. sogar der Bundesnetzagentur (BNetzA) hin, die bisher die Lage stets verniedlicht und beschwichtigt hat.

Dann folgt der Hinweis auf – selbstverständlich – finstere ausländische Mächte: „Ich kann mir vorstellen, dass es Gruppen oder Staaten oder eine Mischung von Gruppen und Staaten gibt, die ein Interesse daran hätten, einmal auszuprobieren, wie resilient, wie anpassungsfähig die deutsche Gesellschaft ist mit Blick auf die Abhängigkeit von der Stromversorgung.“ Weshalb er dann diese Präsentation in einem Wasserwerk und nicht in einem Kohlekraftwerk – oder noch besser in einem Windpark – abgehalten hat, sagte er nicht. Beides hätte wohl bissige Kommentare ausgelöst.

Und die finsteren Mächte nannte er leider auch nicht, obwohl er sie kennt:

Die finsteren Mächte, die die deutsche Energiewende durch eine riesenhafte Katastrophe als groben Unfug der höchsten vorstellbaren Stufe desavouieren wollen, die gibt es tatsächlich. Sie sind aber nicht ausländisch.

Es sind:

Ø  Das Wetter

Ø  Und die Physik.

Aber jetzt müssen erst einmal die üblichen Verdächtigen herhalten – zur Zeit sind das „Gruppen oder Staaten“ (Terroristen erwähnte der Minister gar nicht). Die Bürger werden es schon glauben. Wenn es aber in diesem Winter tatsächlich zum katastrophalen Blackout kommt (de Maizière hat’s geahnt), dann werden viele Leute nach diesen „Gruppen“ suchen. Und sie finden.




Svensmark: Sonnenaktivität hat einen direkten Einfluss auf die Wolkenbedeckung der Erde

Es ist bekannt, dass Sonneneruptionen die Atmosphäre der Erde vor kosmischen Strahlen abschirmen. Allerdings zeigt die neue, im Journal of Geophysical Research: Space Physics veröffentlichte Studie, dass die globale Bewölkung in gleichem Maße reduziert ist. Dies stützt den Gedanken, dass kosmische Strahlung für die Wolkenbildung sehr wichtig ist. Die Eruptionen verursachen einen Rückgang des Bewölkungsanteils von etwa 2%, was mit etwa 1 Milliarde Tonnen Wasser korrespondiert, das aus der Atmosphäre verschwindet.

Da man von Wolken weiß, dass sie in größerem Zeitmaßstab die globalen Temperaturen beeinflussen, präsentiert die jetzige Untersuchung einen wichtigen Schritt zum Verständnis von Wolken und Klimavariabilität.

„Die Erde ist einem ständigen Bombardement von Partikeln aus dem Weltraum ausgesetzt, die man galaktische kosmische Strahlen nennt. Gewaltige Eruptionen auf der Sonnenoberfläche können diese kosmischen Strahlen etwa eine Woche lang von der Erde fernhalten. Unsere Studie hat gezeigt, dass bei einer auf diese Weise erfolgenden Reduktion kosmischer Strahlen auch eine korrespondierende Reduktion der irdischen Bewölkung zu verzeichnen ist. Da Wolken ein wichtiger Faktor bei der Kontrolle der Temperatur auf der Erde sind, können unsere Ergebnisse Implikationen für Klimawandel haben“, erklärt der Leitautor der Studie Jacob Svensmark von der DTU.

Sehr energiereiche Partikel

Galaktische kosmische Strahlen sind sehr energiereiche Partikel, die ihren Ursprung hauptsächlich in Supernovae haben.

Diese Partikel erzeugen elektrisch geladene Moleküle – Ionen – in der Erdatmosphäre. Ionen haben laut Laborversuchen zu einer Verstärkung der Bildung von Aerosolen geführt, welche als Kondensationskerne für die Wolkentröpfchen fungieren. Ob dies tatsächlich in der Atmosphäre so ist oder nur im Labor ist eine Frage, über das seit Jahren geforscht und diskutiert wird.

Wenn die großen Sonneneruptionen die galaktischen kosmischen Strahlen hinweg blasen, bevor sie die Erde erreichen, verursachen sie eine Reduktion atmosphärischer Ionen im Verlauf einer Woche um etwa 20% bis 30%. Falls also Ionen die Wolkenbildung beeinflussen, sollte es möglich sein, eine Abnahme der Bewölkung zu finden während Ereignissen, bei denen die Sonne kosmische Strahlen von der Erde fernhält, und genau das ist in dieser Studie getan worden.

Die so genannten Forbush decreases der kosmischen Strahlen wurden bislang mit Wochen dauernden Änderungen der Wolkenbedeckung in Verbindung gebracht, aber der Effekt ist lang und breit in der wissenschaftlichen Literatur debattiert worden.

Die neue Studie kommt zu dem Ergebnis, dass „es eine reale Auswirkung von Forbush decreases auf die Mikrophysik von Wolken gibt“, und dass die Ergebnisse die Aussage stützen, dass „Ionen eine bedeutende Rolle im Lebenszyklus von Wolken spielen“.

Der Weg zu diesem Ergebnis war jedoch ein hartes Unterfangen: Sehr wenige Forbush decreases treten auf, und es ist zu erwarten, dass deren Auswirkung auf die Wolkenbildung bei globalen atmosphärischen Beobachtungen mittels Satelliten und Messstationen an Land kaum zu erkennen ist. Daher war es von allergrößter Wichtigkeit, die stärksten Ereignisse für die Studie herauszusuchen, da deren Auswirkungen am einfachsten erkannt werden können. Zur Bestimmung der Stärke war die Kombination von Daten von etwa 130 Stationen erforderlich in Kombination mit atmosphärischer Modellierung.

Dieses neue Verfahren führte zu einer Liste mit 26 Ereignissen im Zeitraum von 1987 bis 2007, entsprechend der Ionisierung. Die Rangfolge in der Liste war wichtig für die Erkennung eines Signals und könnte auch Licht in die Frage bringen, warum frühere Studien zu anderen Schlussfolgerungen gekommen waren. Diese basierten nämlich auf Ereignissen, die nicht notwendigerweise an vorderer Stelle der Listen rangierten.

Mögliche langzeitliche Auswirkung

Die Auswirkung von Forbush decreases auf Wolken ist zu kurz, um irgendeinen Einfluss auf langzeitliche Temperaturänderungen zu haben.

Da jedoch Wolken durch kurzfristige Änderungen der kosmischen Strahlung beeinflusst werden, können sie auch beeinflusst werden durch die langsamere Änderung der Sonnenaktivität, welche sich in Zeitmaßstäben von Dekaden zu Jahrhunderten abspielt und folglich eine Rolle im Strahlungshaushalt spielt, welcher wiederum die globalen Temperaturen dirigiert.

Der Beitrag der Sonne zu Klimawandel in Vergangenheit und Zukunft kann also folglich viel größer sein als bloß die direkten Änderungen bei der Strahlung.

Quelle: http://www.dtu.dk/english/News/Nyhed?id=b759b038-66d3-4328-bbdc-0b0a82371446

Die ganze Studie steht hier: J. Svensmark, M. B. Enghoff, N. J. Shaviv, and H. Svensmark, “The response of clouds and aerosols to cosmic ray decreases”, Journal of Geophysical Research – Space Physics, 2016, DOI: 10.1002/2016JA022689.

Hier oder hier kommt man zum Abstract und der gesamten wissenschaftlichen Studie.

Damit im Zusammenhang: (via the Hockey Schtick)

Der Solarphysiker Dr. Leif Svalgaard hat seine Rekonstruktion des Auftretens von Sonnenflecken überarbeitet (hier), und zwar über die 400 Jahre von 1611 bis 2013. Der Plot des „Zeitintegrals“ der Sonnenfleckenzahl aus den Daten von Dr. Svalgaard zeigt eine signifikante Zunahme der akkumulierten Solarenergie, welche während des 18. Jahrhunderts begonnen und bis nach Ende der Kleinen Eiszeit um das Jahr 1850 gedauert hatte. Nach einem Stillstand von etwa 30 Jahren ergibt die akkumulierte Solarenergie einen „Hockeyschläger“-Anstieg im restlichen 20. Jahrhundert, gefolgt von einer Abnahme mit Beginn im Jahre 2004. All dies zeigt eine bemerkenswerte Korrespondenz zu den globalen Temperaturaufzeichnungen nach HadCRUT4:

Das Zeitintegral der Sonnenaktivität plus ozeanische Oszillationen (hier), welche ebenfalls durch die Sonnenaktivität getrieben werden, können 95% des Klimawandels während der letzten 400 Jahre (hier) erklären.

Es ist angebracht, sich noch einmal daran zu erinnern, was Dr. Roy Spencer über Wolken gesagt hat:

Die offensichtlichste Art und Weise für eine natürlich erfolgende Erwärmung sind kleine natürliche Fluktuationen der Zirkulation von Atmosphäre und Ozean, welche zu einer Reduktion der Wolkenbedeckung um 1% oder 2% führen. Wolken beschatten die Erde, und falls sich die Bewölkungsmenge aus irgendwelchen Gründen ändert, hat man globale Erwärmung – oder globale Abkühlung.

Link: https://wattsupwiththat.com/2016/08/25/svensmark-publishes-solar-activity-has-a-direct-impact-on-earths-cloud-cover/

Übersetzt von Chris Frey EIKE




Über die 25 Anforderungen einer Aussenwand (Fassade)

Ein Planer, sei er Architekt oder Ingenieur, sollte (muss) wissen, wenn er einen Strich mit dem Bleistift oder dem Computer zeichnet, aus welchem Material der Strich ist, welche Farbe und Struktur er hat, welche Ästhetik er generiert und was der Strich kostet. Fügt der Planer einen weiteren Strich parallel zum ersten ein, wird bereits von einer Wand im Grundriss gesprochen.

Nun sollte (muss) ein Planer, sei er Architekt oder Ingenieur daran denken, dass diese 2 Striche schon eine Aussenwand beschreiben und dabei bereits 25 Anforderungen generieren, welche zu beachten sind! Der Vollständigkeit halber werden nun diese 25 Anforderungen beschrieben und deren Zweck und Eigenschaften erläutert.

01.    Die Ästhetik ist seit dem Beginn der „Moderne" im Jahr 1925 das Wichtigste was es für einen Architekten gibt auf der Welt. Alle andern 24 Anforderungen sind für den Architekten untergeordnete Nebensächlichkeiten, die ohne Bedeutung sind. Für heutige Architekten zählt nur das Eine: „Das Design"!

       Diese Architekten werden wohl jetzt auch nicht mehr weiterlesen.

02.    Die Statik des Bauingenieurs ist für die Fassade eines Architekten­Entwurfs ein angeblich notwendiges Übel, die nichts kosten darf. Der Architekt benutzt den eigentlich wichtigen Ingenieur seit Beginn der „Moderne" wie eine Hure, nämlich nur dann, wenn er ihn nötig hat.

03.    Die Festigkeit beschreibt mit ihrer Lehre, die Verformungen infolge Last- oder Temperaturwechseln einer Wand. Missachtungen der Festigkeitslehre und der damit verbundenen Nichtbeachtung der Thermodynamik sind Ursache der meisten Bauschäden.

04.    Die Erdbebensicherheit ist Sache des Bauingenieurs im Bereich der Statik. Sie wird gewährleistet indem Gummipuffer (teuer) die Horizontalbeschleunigung aufnehmen und/oder im Gebäudekern sowie in den Fassaden entsprechende Aussteifungen erstellt werden.

05.    Die Sturmsicherheit einer Fassade ist für einen Architekten nicht wichtig. Man sieht das vor allen Dingen bei Sturmschäden in den USA, wo eine Klimaanlage wichtiger ist, als eine gut funktionierende Wand, die nicht beim ersten Windstoss einbricht.

06.    Die Ökonomie bzw. der Preis einer Wand spielt für den Architekten eine untergeordnete Rolle. Würde der Architekt die Oekonomie beachten, hätte er unweigerlich eine Honorareinbusse zu verzeichnen. Und wer will schon weniger verdienen in dieser garstigen Zeit?

07.    Die Erstellungszeit einer Wand muss kurz sein, weshalb herkömmliche Bautechniken nicht mehr verwendet werden können. Welcher Architekt sieht denn ein, dass ein Drei-Schicht-Aussenverputz drei Monate für den Erhärtungsprozess benötigt? Billige Schmiere wird mit billigen Hilfskräften des Generalunternehmers appliziert. Das ist für heutige Architekten zeitgemäss und profitabel

08.    Die Wetterfestigkeit einer Fassade wird von heutigen Architekten vernachlässigt, denn die Wand muss so schnell wie möglich wieder kaputt gehen, damit wieder eine neue Wand für ein neues Haus erstellt und neues Architektenhonorar bezogen werden kann.

09.    Die Dauerhaftigkeit einer Wand ist die Schwester der Wetterfestigkeit. Kein Architekt ist daran interessiert, dass eine Wand drei bis vier Generationen hält. Im alten Rom wurde laut VITRUV eine intakte Wand auch noch  nach 80 Jahren als neu eingestuft. Aus diesem Grund sollte eine Aussenwand auch heute noch eine Dauerhaftigkeit von DREI Generationen aufweisen.

10.    Die Wanddicke sorgt dafür, dass der Wärmefluss gegen aussen nicht linear sondern exponentiell abfliesst. Je dicker die Wand, desto grösser ist die Verweilzeit von solar eingestrahlter Energie und desto weniger Heiz-Energie muss dem Gebäudeinnern zugeführt werden.

11.    Die Wärmespeicherfähigkeit ist der Bruder der Wanddicke, weil er hilft, das Beharrungsvermögen der Wärme in der Wand zu vergrössern. Wie bei der rotierenden Erdkugel, sorgt die Wärmespeicherfähigkeit für einen thermischen Ausgleich in einer Aussenwand. Mit Flächengewichten von 700 kg bis 1000 kg pro Quadratmeter werden die besten Energie-Speicherwerte erzielt!

12.    Die Wärmedämmfähigkeit, genannt U-Wert, ist ein Materialwert der beschreibt, wie gross der Wärmefluss in einer Wand von innen nach aussen ist. Fälschlicherweise wird der U-Wert als gesetzlicher Wert zur Energieeinsparung verwendet (EnEV / SIA 380/1). Weil Aussen- oder Zwischendämmungen die solare Energieeinstrahlung unterbinden, sind Kunstharz-Schäume und Faserdämmungen für Wärmedämmungen  ungeeignet. Die Architekten und Ingenieure haben es sträflich unterlassen, die Energie-Effizienz der U-Wert-Theorie zu überprüfen.

Die U-Wert-Theorie ist bis heute wissenschaftlich, experimentell nicht validiert!

13.    Die Wärmeeindringgeschwindigkeit einer Wand ist materialabhängig. Mit ihr wird die solare Energieaufnahme berechnet. Frage nie einen Architekten, wie man diese thermische Wirkung berechnet, denn er weiss es nicht!

14.    Die Strahlungsaufnahmefähigkeit einer Wand wird im Wesentlichen durch die Farbe bestimmt. Weisse Wände haben eine hohe Strahlungs-Reflektion und nehmen deshalb wenig solare Energie auf. Die Unsitte, weisse Gebäude zu erstellen, ist eine Modeerscheinung der inkompetenten Architekten, die keine Heizenergie einspart. Da Architektur-Modelle in weiss darzustellen sind, glaubt der Architekt, dass weisse Gebäude in der Realität die gleiche Wirkung erzielen würden. Weisse Gebäude sind ebenfalls ein Relikt der „Moderne"!

15.    Die Wärmebrücken bei Fassaden gelten als hohe Energie-Verschleuderer. Niemand bedenkt, dass die Abwicklungen von Wärmebrücken auch erhöhte Einstrahlungs-Flächen bilden. Bis heute gibt es keine realen, experimentellen Untersuchungen von Wärmebrücken. Wärme fliesst nur von Warm nach Kalt, die von aussen einwirkende solare Strahlung bleibt unberücksichtigt. Würde man den Energieverbrauch der Wärmebrücken bei einem im „Jugendstil" er­ stellten Haus berechnen, so ergeben sich Verbrauchswerte jenseits aller Vorstellungen. Dennoch ist der Energieverbrauch dieser Bauten geringer als bei hochgedämmten Gebäuden in aktueller Bauart.

16.    Die Sorptionsfähigkeit ist eine Wandeigenschaft, welche durch die Kapillarität der verwendeten Materialien bestimmt ist. Die Sorptionskette von innen nach aussen: Papiertapete-Gipsverputz-Ziegel-Aussenputz mit Kalk, ist bis heute optimal. Gebäude mit dieser Sorptionskette benötigen zur Entfeuchtung keine Komfort-Lüftung. Da Faserdämmstoffe keine Kapillaren aufweisen, können sie auch kein Wasser von innen nach aussen transportieren, weshalb sie als Dämmstoff ebenfalls ungeeignet sind.

17.    Die Oberflächenstruktur einer Fassade mit Lisenen, Gewänden, Stürzen, Vor- und Rücksprüngen, bestimmt, ob eine flache Wand infolge laminarer Luftströmung schnell auskühlt oder ob die Auskühlung bei einer strukturierten Wand mit turbulenter Luftströmung vermindert geschieht. Auch grobkörnige Putze wie z.B. ein Kellenwurf kann den Strahlungsgewinn infolge der vergrösserten Fassaden­Oberfläche verbessern.

18.    Die Schalldämmfähigkeit einer Wand steigt exponentiell mit der Wanddicke und dem spezifischen Gewicht des Wandmaterials. Es gelten die gleichen Erkenntnisse wie bei der Wärmespeicherfähigkeit (siehe Punkt 11). Plant ein heutiger Architekt eine Wand mit Polystyrol-Aussendämmung hat er zu wissen, dass Resonanzen und Nebenweg-Übertragungen des Schalls den Wohn-Komfort in einem Gebäude drastisch beeinträchtigen können.

19.    Die Gesundheitsverträglichkeit einer Wand ist für den Menschen ein hohes Gut. Gips auf der Wand-Innenseite ist hygroskopisch und entfeuchtet den Raum optimal, wobei ein konventioneller 3-Schicht-Kalkverputz auf der Aussenseite für die aus dem Gebäudeinnern transportierte Entfeuchtung mit hoher Desorption sorgt, gleichzeitig Ungeziefer fernhält und den Algenbewuchs verhindert. Fassadenanstriche mit organischen Bindemitteln aus Kunstharzen vermindern krass die Gesundheitsverträglichkeit von Fassaden. Architekten sollten wieder lernen, wie anorganische Farben angewendet werden können.

20.    Die Diffusionsfähigkeit ist die Mutter der Sorptionsfähigkeit. Poren und Kapillaren sind für das Entfeuchtungssystem einer Wand zuständig. Drei Wasser-Moleküle bilden in einer Pore einen Tropfen Wasser, der mit dem raumseitigen Partialdruck über die Kapillaren an die trockene Aussenluft transportiert wird. Wie bei der Gesundheitsverträglichkeit behindern organische  Farbanstriche die Diffusionseigenschaften einer Fassade.

21.    Die Feuersicherheit einer Wand wird durch das Verwenden nichtbrennbarer Baustoffe gesichert. Brennbare Dämmstoffe wie Holz, Kunststoff, Kunststoffschäume aus Polystyrol, Polyurethan, Phenolharz, Harnstoff etc. und auch mit Phenolharz gebundenen Mineralfasern sind zu vermeiden bzw. zu verbieten.

22.    Die Entsorgungsfähigkeit einer Wand sollte von Beginn an einer Planung beachtet werden. Jedes Gebäude wird irgendeinmal abgebrochen und sollte dann keine giftigen Stoffe in die Umwelt freisetzen. Der Architekt sollte schon bei der Planung an das Recycling seiner ,,freigesetzten" Stoffe denken um die Ressourcen – z.B. Betonkies – zu schonen. Im Energiebereich einer Wand ist die Entsorgung von Ziegel problemlos, wogegen Kunststoffschäume wie Polystyrol sehr problematisch sind, weil diese verbrannt werden müssen.

23.    Die NachhaltigkeitÖkologie – ist ein viel gehandelter Begriff, welcher für eine Wand beschreibt, dass eine gute Investition länger halten soll als Ramsch. Deshalb ist ein Architekt dafür verantwortlich, dass die Dauerhaftigkeit der von ihm geplanten Bauteile gesichert ist. Die in Mode gekommenen Wände aus „isoliertem Pappendeckel", hochgedämmte Ständerkonstruktionen, „Glasschwarten­Bauten" etc. sind deshalb nicht nachhaltig.

24.    Die Gesamtenergiebilanz einer Wand wir durch die Energie-Verbrauchs-Leistung (EVL) in Watt pro Kubikmeter Gebäude und der gemessenen Temperaturdifferenz in W/m3K beschrieben. Allerdings wird es noch gefühlte 100 Jahre dauern, bis die angebliche Wissenschaft der Bauphysik diesen Wert verinnerlicht hat, obwohl dieser Norm-Wert bereits vor 90 Jahren in ganz Europa als „Kennziffer" zu Vergleichszwecken  bekannt war.

25.    Der Energieverbrauch einer Wand wird durch die 8 energierelevanten, vorgenannten Faktoren bestimmt (siehe Punkt 10 bis 17), welche nachfolgend mathematisch und physikalisch präzisiert werden:

10. Die Wanddicke führt über die Zeitkonstante x 0,5 Log. n  zur Halbwertszeit. Die Halbwertszeit ist ein qualitativer Wert. Sie gibt an, in welcher Zeit der Wärmeinhalt einer Wand bei „freier" Auskühlung abnimmt. Weil die Wanddicke im Quadrat über der Temperaturleitzahl in die Formel eingeht, bildet sie eine der wichtigsten Energie­Faktoren einer Aussenwand!

(Dr. habil. Georg Hofbauer, Gesundheitsingenieur,  29. März 1941)

Wanddicke                       d       cm

Wärmeleitung                   λ       W/mK

Raumgewicht                   ς       kg/m3

Wärmespeicherzahl         c       Wh/kgK

Konstante für Halbwertszeit „k“ bei 0°C          k   = 0,5  x  Log. n = 0.347

Die Temperaturleitzahl              a = λ / ς x c         m2 / h

Die Zeitkonstante             t = d2 / a             h

Die Halbwertszeit              t’ = k  x  d2 / a     h

Beispiel:

Zwei Wände mit gleichem Flächengewicht und gleichem U-Wert:

a = λ / ς x c = 0,1 W/mK  /  0,03 Wh/kgK  x  1500 kg/m3 =  0,002 m2/h

(Diese Konstruktionen könnte man sogar „hinbasteln“)

Wand W1:                        d = 25 cm                               d2 =  0,0625 m2

Zeitkonstante  W1:           t = 0,0625 m2  /  0,002 m2/h        =  31.25 h

Halbwertszeit W1:          t’ = 0,347  x  31.25 h                   =  10,8 h

Wand W2:                       d  =  50 cm                                      d2  =  0.25 m2

Zeitkonstante  W2:           t = 0,25 m2  /  0,002 m2/h             = 125.00 h

Halbwertszeit W2:          t’ = 0,347  x  125 h                       =  43.4 h

Fazit: Bei doppelter Wanddicke ist die Halbwertszeit 4 mal höher!!!

11.  Die Wärmespeicherfähigkeit ist anhand von Energie-Verbrauchs-Analysen (EVA) dahingehend beobachtbar, dass ein Flächengewicht von 700 kg/m2 (39 cm Vollziegel verputzt)  bis 1’000 kg/m2 (54 cm Vollziegel verputzt) energetisch von Vorteil ist.

       Gebäude mit derartigen Wänden weisen einen Netto-Energieverbrauch  von Qh = 20 kWh/m3a auf (siehe Gesundheits-Ingenieur 1925 bis 1927)

12.  Die Wärmedämmfähigkeit wird durch den U-Wert (alt k-Wert) beschrieben und bildet bei nicht solar bestrahlten Bauteilen wie: Kellerdecke, Dachdecke und Rohrdämmungen etc. zweifelsfrei die relevante Energiespargrösse, wobei in zweiter Linie wiederum die Materialdicke und anschliessend die Wärmespeicherfähigkeit zum Tragen kommt. Bei Aussenwänden aber, fehlt jedoch bis heute jegliche Kausalität in Bezug zum messbaren Energieverbrauch.

Das stellte auch ETH-Professor Max Hottinger in den 1940-er Jahren fest.

Die nach ihm benannte Hottinger-Formel lautete für die Bestimmung der Heizleistung:

Q  =  Wirkungsgrad der Heizung x Fläche x Temperaturdifferenz x U-Wert x Gleichzeitigkeitsfaktor plus zusätzlich noch ein paar weitere, unwichtige Faktoren.

Der Gleichzeitigkeitsfaktor betrug für Bauten mit Wandstärken aus Vollziegeln von 39 bis 52 cm + Verputz  =  0,5!

Q  =  μ  x  F  x  δ T  x  k  x  0,5  =  0,45  x  m2  x  °K  x  W/m2K  x  0,5

Das Einfügen des empirisch bestimmten Gleichzeitigkeitsfaktors war erforderlich, weil die Heizleistungs-Berechnungen mit der Wirklichkeit nicht übereinstimmten

13.  Die Wärmeeindring-Geschwindigkeit leitet sich von der „Eindringzahl“ b, in Wattstunden pro Quadratmeter mal °Celsius mal Wurzel aus der Zeit ab. Normale Baustoffe haben b-Werte von 190 bis 550   Wh/m2 K √ s

Generell hängt die Wärmeeindring-Geschwindigkeit vom Flächengewicht, der Wanddicke und der Aussenstruktur des Wandbaustoffes ab.  Hat die Wand infolge zu hoher Porosität, einem allzu geringen Flächengewicht oder bei zu weit auseinanderliegenden Verbund-Stegen mit geringer Dicke (Schlitzlochsteine) einen zu grossen Wärmeeindring-Widerstand, so lässt sich die eingestrahlte Sonnenenergie nur in geringem Umfang nutzen. Es herrscht eine Wärmedepression! Erstmals wurden diese Zusammenhänge im Februar 1982 bei Messungen am Justus Knecht Gymnasium in Bruchsal beobachtet. Die Ergebnisse wurden in  der Folge als „Bruchsaler-Messung“ publiziert und baugeschichtlich festgehalten. Grundlagenforschungen dazu bestehen jedoch nicht.

14.  Die Strahlungsaufnahmefähigkeit / Farbe und die erforderlichen Strahlungsabsorptionsmessungen sind zur Zeit nur für den sichtbaren Teil des Lichts erhältlich. Wie die Infrarotstrahlung in einem Bauteil ankommt und wie sie ausgenützt werden kann, weiss niemand. Es ist anzunehmen, dass in der gemessenen Globalstrahlung – bestehend aus direkter und diffuser Strahlung – das IR möglicherweise enthalten ist.

Es ist m.E. aber unzulässig, Strahlungsprozente aus gemessenen Anteilen des sichtbaren Lichtes mit der gemessenen Globalstrahlung  zu multiplizieren und so eine Strahlungsabsorptionsmenge zu bestimmen.

Zusammenhänge:

Verputze auf Aussendämmungen müssen – damit sie nicht reissen – einen hellen Farbton aufweisen und meistens handelt es sich um einen sogenannten Kunststoffputz mit einer:

Strahlungsabsorptionszahl von μ = 0.30 bis 0,40  und einer

Reflektionszahl von                   μ = 0,60 bis 0,70

Auf massiven Wänden hingegen können durchgefärbte Kalkputze mit dunkler Einfärbung appliziert werden, welche eine:

Strahlungsabsorptionszahl von μ = 0.65 bis 0,80  bei einer

Reflektionszahl von                   μ = 0,35 bis 0,20  aufweisen.

15.  Generell gilt für Wärmebrücken die Argumentation von Punkt 16. „Die Oberflächenstruktur.“ Im Wesentlichen sind energetisch negative Wärmebrückenwirkungen bei Aussenecken, Wandanschlüssen zu Fassaden, bei Deckenauflagern und auskragenden Bauteilen zu beachten. Das trifft aber nur auf aussengedämmte Konstruktionen mit geringer Innenwandstärke und mit niedrigem Flächengewicht zu. Meistens kommt es bei diesen Schwachstellen zu Kondensat-Ausfall mit Schimmelpilz. Vermutlich spielt auch hier die Wanddicke gemäss Punkt 9. „Die Wanddicke“ die entscheidende Rolle. Unterschreitet die Wanddicke eine bestimmte Grösse, wird die exponentielle Auskühlung beschleunigt.

Bei dicken massiven Wänden von 40 bis 50 cm sind diese Nachteile nicht beobachtbar. Würde man aber bei einem Jugendstil-Haus die Entwärmung nach der aktuellen Wärmebrückentheorie berechnen, so würde alleine aus Lisenen, Gewänden und Gesimsen ein derart hoher Energiebedarf entstehen, dass mit den Fenster-, Wand-, Boden- und Dachflächen ein um das Vielfache höherer Energieverbrauch entsteht, als er in der Wirklichkeit beobachtbar ist. Offizielle, reale Messungen bestehen hierzu nicht.
Falsch verstandener Reduktionismus führt zum „Schichtendenken“! Die „Trag-, Dämm- und Wetter-Schichten“ sind letztendlich wieder ganzheitlich zu betrachten. Zweischalen-Mauerwerke, Fassaden mit verputzter Aussenwärmedämmung, Betonfassaden mit hinterlüfteter Zwischendämmung, Blech- und Vorhangfassaden mit Hinterlüftung und Schaum- oder Faserdämmung, Holzrahmen-Bauweise mit integrierter Fasserdämmung etc. sind weder nachhaltig noch energieeffizient.  Vermutlich bildet die einschalige Wand – infolge der besten Temperaturverwaltung – die idealste Wandkonstruktion!

16.  Die Sorptionsfähigkeit der „offiziellen“ Bauphysik nimmt an, dass im Winter die Raumfeuchtigkeit im innern der Wände kondensiert (Kondensationsperiode) und das Kondensat im nächsten Sommer wieder austrocknet (Austrocknungsperiode). Aus den experimentellen Untersuchungen von ETH-Prof. und EMPA-Chef Paul Haller aus den Jahren 1953 bis 1958, geht aber eindeutig hervor, dass Aussenwände im Sommer generell nass sind und in den Wintermonaten austrocknen. Die Angaben im derzeit aktuellen Berechnungsprogramm WUFI, sind deshalb falsch. Experimente zu WUFI existieren nicht!

Es kann auch aus den Untersuchungen der Eidgenössischen Materialprüfungsanstalt EMPA entnommen werden, dass sich die von Aussenwänden aufgenommene Feuchtigkeit im Herbst und Frühjahr positiv auf den Energiehaushalt auswirkt, weil die eingedrungene Feuchtigkeit die Wärmespeicherfähigkeit im Aussenbereich von Wänden erhöht und somit die solare Zustrahlung bereits auf niederstem Niveau energiewirksam wird.

Eine Aussenwand kann aussen kalt und feucht und bei normaler innerer Beheizung auf 20 °C, innen warm und trocken sein!

Hypothese: Die um die Feuchtigkeit erhöhte Wärmespeicherfähigkeit übertrifft in ihrer Wirkung den negativen Aspekt des angeblich grösseren Wärmeverlustes der Wand infolge besserer Wärmeleitung.

Aus den Experimenten von Haller sind keine quantitativen Energieeinsparungen errechenbar.

17.  Je nach Oberflächenstruktur kann eine Fassadenfläche mehr oder weniger Strahlung aufnehmen. Lisenen, Gewände und Gesimse bilden zwar so genannte geometrische Wärmebrücken. Sie nehmen jedoch auch auf allen Seiten Strahlung auf. Gleiches gilt für Putze. Rohe Putze weisen eine grössere Oberfläche als feine Putze auf und können deshalb mehr Sonnenstrahlung aufnehmen. Bis heute gibt es nur mathematisch ermittelte Wärmebrückenkataloge, beruhend auf stationären Theorien von innen nach aussen. Experimentelle Messungen und instationäre Wärmebrücken-Theorien existieren zur Zeit nicht.

Paul Bossert,ist Dipl. Bauingenieur FH, Architekt, Bauphysiker, Energie- und Bauschadenexperte 




Ein Inuit-Inseldorf in Alaska beschloss aus Furcht vor dem Klimawandel aufs Festland zu ziehen – sofern es andere bezahlen

Berliner Zeitung 18.08.2016: [1] Klimawandel : Inseldorf in Alaska flieht komplett aufs Festland

Im US-Bundesstaat Alaska hat ein 600-Seelen-Dorf per Volksentscheid einen Komplettumzug von einer Insel aufs Festland beschlossen. Die Bevölkerung will damit den Folgen des Klimawandels entkommen, meldete das Umwelt-Magazin „Grist“ am Mittwoch unter Berufung auf die Gemeindeverwaltung.
Die Insel, auf der sich das Inuit-Dorf Shishmaref derzeit befindet, ist bereits schwer vom steigenden Meeresspiegel gezeichnet. Ein Großteil der Strände sind schon vom Ozean verschluckt, neues Bauland für die wachsende Bevölkerung kann nicht mehr gewonnen werden.

Es war zu erwarten, dass Klimaretter.Info die Meldung aufnehmen würde und sie kam:

Klimaretter.Info 20.08.2016: [12] Alaska: Ein Dorf flieht vor dem Klimawandel

… Zutreffend ist es trotzdem, denn Shishmaref gilt als einer der Orte auf der Welt, die am stärksten unter dem Klimawandel leiden. Den Einwohnern wird es nun buchstäblich zu heiß: Sie ziehen um, haben sie gemeinsam per Bürgerentscheid beschlossen.
In den sehr nördlichen Breitengraden macht sich die globale Erwärmung bereits etwa
doppelt so stark bemerkbar wie im globalen Durchschnitt. Das hat zur Folge, dass das Meereis schmilzt und die Insel weniger vor Sturmfluten schützt. Zugleich schmilzt der Permafrost, auf den die Shishmarefer ihre Häuser gebaut haben. Das macht den Boden anfällig für Erosion. Dadurch und durch den Meeresspiegelanstieg wird die Insel jedes Jahr kleiner.
Es ist nicht das erste Mal, dass Shishmaref umziehen will. Schon 2002 stimmten die Einwohner dafür. Das Vorhaben scheiterte am Geld.

Klimaretter.Info übernahm die Aktivistenmeldung wie üblich ungeprüft, ergänzte sie jedoch zur „besseren“ Alarmierung gleich mit einem ergänzenden Hinweis über die ebenfalls bedrohten Südseeinseln:

Klimaretter.Info 20.08.2016: [12] Auch anderswo auf der Welt spielen Gemeinden, teils ganze Länder, mit dem Gedanken der Umsiedlung, weil sie von den Folgen des Klimawandels bedroht sind. Bisher geht es dabei meist um kleine Inselsstaaten im Pazifik. Unfreiwilliger Vorreiter ist Kiribati, dessen 32 Atolle zwischen Hawaii und Australien größtenteils weniger als zwei Meter über dem Meeresspiegel liegen.

Anmerkung: Dass dies (mit dem angeblich Klimawandel-bedingten Untergang der Südseeinseln) trotz dauernder Wiederholung nicht stimmt, wurde schon umfangreich berichtet[11] [20].

Das Inseldorf Shishmaref an der Küste vor Alaska

Die Meldungen zum Inseldorf in Alaska basieren auf der Info einer Klimaaktivisten-WEB-Seite grist [2] die es wieder von der Gemeindeverwaltung des Ortes erfuhr. Das Thema hat eine längere Vorgeschichte, über die der Spiegel bereits vor fas zehn Jahren schon berichtete [4] DER SPIEGEL 09.06.2008: „KLIMAWANDEL Ein Dorf verklagt die Welt“ und beginnt in dieser Form ungefähr im Jahr 2002 [5].

An solche Untergänge wird man sich in Zukunft gewöhnen. Und es wird kaum jemanden geben, der dem widerspricht. Eher werden sich die Stimmen häufen, dass „wir im reichen Westen“ für diese Menschen noch viel mehr tun – bedeutet zahlen – müssen denn: Der Klimawandel ist doch so offensichtlich und so „gesicherte“ westliche Schuld, dass unsere Politiker dafür sorgen, diese Schuld rund um die Welt einklagbar zu machen. Während man dies bei TTIP und CETA als eine bare Zumutung empfindet, wird es beim „Klimawandel“ geradezu herbei gesehnt.

Welche Belege dann ausreichen, soll diese kleine Recherche als orientierende Darstellung zeigen, indem der Einfluss des Klimawandels um das Inuit Inseldorf Shismaref festgestellt wird.

Der mögliche Einfluss des Klimawandels auf das Inseldorf Shismaref

Bild 1 zeigt die ungefähre Lage der betreffenden Ansiedlung und dazu die umliegenden Tiden-Messstationen.

Bild 1 Screenshot von der PSML Homepage mit Tiden-Messstationen. Zufügungen durch den Autor: Nummern der ausgewerteten Pegelstationen und ungefähre Lage des Inseldorfes Shismaref

Der Meerespegel steigt unaufhörlich

Eine immer getätigte Aussage ist ein stetig steigender Meerespegel: [12] [1]Die Insel, auf der sich das Inuit-Dorf Shishmaref derzeit befindet, ist bereits schwer vom steigenden Meeresspiegel gezeichnet.

Wie es sich bei allen Recherchen zum Klimawandel zeigt, gibt es zwar viele Messstationen, aber obwohl es sehr wichtig wäre, sind zu den wenigsten brauchbare Daten hinterlegt. Auch hier bestätigt sich wieder eine grottenschlechte Datenlage und man (der Autor) fragt sich, wie die Institutionen damit ihren globalen „Meerespegelverlauf“ ermitteln können. Der Verdacht entsteht, dass viele Stationen nur dazu dienen, den Vertrauensbereich statistisch (Vertrauensbereich des Mittelwertes = proportional 1 / ) klein zu rechnen. Für die die folgenden Darstellungen wurden die wenigen, verfügbaren langfristigen und mit nicht zu vielen Datenlücken gekennzeichneten Pegel verwendet.

Sichtung der Tidenverläufe dieser Weltgegend anhand der PSML Datenbank

Tidenverlauf

Detailbilder sind als Anlage hinterlegt, hier die Zusammenfassung.
Was man in den Einzelbilder der Anlage erkennen kann sieht man natürlich auch hier in der Zusammenfassung: Der Tidenpegel steigt in diesem Meeresbereich nicht an.

Bild 2 Tidenpegelverlauf Station Adak(5), Anchorage (7), Prudhoe Bay (6). Vom Autor anhand der PSML-Daten erstelle Grafik.

Noch deutlicher wird es, wenn man die Pegel auf den gleichen Endwert normiert. Egal wie man es betrachtet, seit ca. 1960 fällt der Pegel. Der aktuelle Pegelstand entspricht dem zu Beginn der längsten Messreihe um 1943.

Bild 3 Tidenpegelverlauf Station Adak(5), Anchorage (7) auf den gleichen Endwert normiert. Vom Autor anhand der PSML-Daten erstelle Grafik

In einer Studie stellten die Autoren das Gleiche (wie der Autor) fest

[6] First, recall that the Chukchi Sea lacks any longterm annual tide gauge data so that direct comparisons of 19th and 20th century trends are not possible. Nonetheless, our paleo-sea level curve may indicate a slower response than the average rate of 1 to 2 mm of annual sea level rise, retrodicted from over 130 stations, mostly in the northern hemisphere (Gornitz and Lebedeff, 1987; Gornitz, 1993).

[Übersetzung von Chris Frey: Erstens sollte man nicht vergessen, dass es aus der Tschuktschen-See keinerlei langzeitliche Tidenmessungen gibt, so dass direkte Vergleiche mit Trends im 19. und 20.Jahrhundert nicht möglich sind. Nichtsdestotrotz kann unsere Kurve des Paläo-Verlaufs des Meeresspiegels eine langsamere Reaktion zeigen als die mittlere Rate von 1 bis 2 mm pro Jahr, ermittelt im Nachhinein von 130 Stationen zumeist auf der Nordhemisphäre (Gornitz and Lebedeff, 1987; Gornitz, 1993).

Ende Übersetzung]

Fazit

Dass ein Klimawandel-bedingt steigender Meerespegel die Ursache für die geschilderten Probleme sein kann, ist auszuschließen. Es bedeutet nicht, dass der Pegel dort nie gestiegen ist, aber sicher nicht in jüngerer und jüngster Zeit.
Wie bei Tidenpegel-Verlaufsangaben manipuliert wird, wenn es „der guten Sache“ dient, wurde im Artikel: EIKE 17.07.2016: Wie man den Meerespegel-Verlauf in die richtige Richtung dreht Aus dem Lehrbuch für (Klima-)Statistikbetrug, exemplarisch gezeigt.

Es wird immer wärmer

DER SPIEGEL 09.06.2008: [4] KLIMAWANDEL Ein Dorf verklagt die Welt
Die globale Erwärmung ist längst im Gange, sie vollzieht sich in der Arktis schneller als im Rest der Welt: Seit Beginn der Industrialisierung hat sich die Temperatur auf der Erde um rund 0,8 Grad erhöht, in der Arktis sogar um das Doppelte.

Ähnlich wird dies auch von Klimaretter.Info angegeben.

Hinweis: In der ursprünglichen Fassung dieses Artikels war nur Bild 4 als Version aus einem anderen Artikel enthalten[8]. Zwischenzeitlich gibt es auf der originalen Veröffentlichungsstelle The Alaska Climate Research Center eine neue Version, Bild 5.


Bild 4 [8] Temperaturentwicklung von Alaska während der vergangenen 60 Jahre. Quelle: The Alaska Climate Research Center. Hinweis: veraltete Darstellung aus [8] entnommen

 

Bild 5 Temperaturentwicklung von Alaska während der vergangenen 60 Jahre. Quelle: The Alaska Climate Research Center, abgerufen am 28.08.2016

Diese aktualisierte Darstellung zeigt die letzten zwei Jahr eine zusätzliche, starke Erwärmung. Wie schnell sich Temperaturen kurzfristig aber auch in die andere Richtung ändern, zeigt das folgende Bild 6 welches ganz aktuell ist und zudem von Satelliten stammt. Dort hat die Arktis den Stand von ca. 0,4 Grad wie er um 1980 schon war. Die kurze Spitze zeigt sich als ein seltenes, aber auch in der Vergangenheit im Nord- wie im Südpolargebiet schon vorgekommenes Ereignis.

Auf jeden Fall ist es ein gutes Beispiel, wie erheblich die verwendeten Zeitabschnitte die Interpretation beeinflussen und vor allem, dass nur sehr langfristige Verläufe ein einigermaßen stimmiges Bild ergeben.

Den von Satelliten gemessenen Verlauf um den Nordpol und Südpol zeigt das folgende Bild 6. Den für die Arktis überall gemeldeten, extrem hohen Temperaturanstieg konnten Satelliten nicht entdecken – außer für ganz wenige Monate.
[12]
In den sehr nördlichen Breitengraden macht sich die globale Erwärmung bereits etwa doppelt so stark bemerkbar wie im globalen Durchschnitt

Den von Satelliten gemessenen Verlauf um den Nordpol und Südpol zeigt das folgende Bild 6. Den für die Arktis überall gemeldeten, extrem hohen Temperaturanstieg konnten Satelliten nicht entdecken – außer für ganz wenige Monate.
[12] In den sehr nördlichen Breitengraden macht sich die globale Erwärmung bereits etwa doppelt so stark bemerkbar wie im globalen Durchschnitt

Dass solche Effekte öfters vorkommen, kann man gut um das Jahr 1980 sehen. Daraus „Klimahysterie-Stories“ zu „schnitzen“, bleibt Portalen wie etwa Klimaretter-Info vorbehalten. Eines ist sicher: Wer zu Beginn dieser Temperaturaufzeichnung um 1979 gelebt hat, kann aktuell keinen Unterschied erkennen.
Aber wichtiger: Warum wirkt die Temperaturverstärkung des anthropogenen CO2 – wenn überhaupt – nur auf der Nordhalbkugel? Die südliche Hälfte weigert sich weiterhin beharrlich daran „teilzunehmen“. Das lässt die Theorie aber nicht zu. Muss sich nun die Erde ändern, oder die Theorie?

Bild 6 Global monthly average lower troposphere temperature since 1979 for the North Pole and South Pole regions, based on satellite observations (University of Alabama at Huntsville, USA). This graph uses data obtained by the National Oceanographic and Atmospheric Administration (NOAA) TIROS-N satellite, interpreted by Dr. Roy Spencer and Dr. John Christy, both at Global Hydrology and Climate Center, University of Alabama at Huntsville, USA. Thick lines are the simple running 37 month average, nearly corresponding to a running 3 yr average. Click here to read about data smoothing. Click here to download the entire series of UAH MSU global monthly lower troposphere temperatures since December 1978. 
Quelle: Hide the decline The indispensable A-Z in the climate debate

[Übersetzung von Chris Frey: Bild 6: Globale mittlere Temperatur der unteren Troposphäre seit 1979 für die Gebiete um Nord- und Südpol auf der Grundlage von Satellitenmessungen (University of Alabama at Huntsville, USA). In diese Graphik gehen Daten ein des TIROS-N-Satelliten der NASA, interpretiert von Dr. Roy Spencer und Dr. John Christy,beide am Global Hydrology and Climate Center, University of Alabama at Huntsville, USA. Dicke Linien sind das einfache gleitende Mittel über 37 Monate, was nahezu korrespondiert mit einem 3-Jahre-Mittel. …

Ende Übersetzung]

Vor der Satellitenära waren die Temperaturangaben bestimmt ungenauer. Trotzdem ist es interessant, den Verlauf davor zu betrachten. Man erkennt: Alles schon einmal da gewesen. Und: Ein CO2-steigender Einfluss ist nicht erkennbar!

Bild 7 Diagram showing Arctic monthly surface air temperature anomaly 70-90oN since January 1900, in relation to the WMO normal period 1961-1990. The thin blue line shows the monthly temperature anomaly, while the thicker red line shows the running 13 month average. In general, the range of monthly temperature variations decreases throughout the first 30-50 years of the record, reflecting the increasing number of

[Übersetzung von Chris Frey: Bild 7: Arktische monatliche Anomalie der Lufttemperatur von 70°N bis 90°N seit Januar 1900 im Vergleich mit der WMO-Bezugsperiode 1961 bis 1990. Die dünne blaue Linie zeigt die monatliche Temperaturanomalie, während die dickere rote Linie das über 13 Monate gleitende Mittel zeigt. Allgemein nimmt die Bandbreite monatlicher Temperatur-Variationen während der ersten 30 bis 50 Jahre der Aufzeichnung ab, was die zunehmende Zahl der ?? reflektiert [Hier fehlt eindeutig ein Wort].

Quelle: Hide the decline The indispensable A-Z in the climate debate

Ende Übersetzung]

Ergänzend eine langfristige Darstellung (Bild 8). Es handelt sich nicht um genau diese Gegend, ist aber sicherlich im Ansatz repräsentativ. Erklärungstext zum Bild 6: [8] … aus dem kanadischen British Columbia sind nun interessante Erkenntnisse zur Temperaturgeschichte bekannt geworden. Auf Basis von Baumringen konstruierten Forscher jetzt die Temperaturentwicklung der letzten 800 Jahre für die Sommermonate Juni und Juli. Dabei zeigte sich, dass die 1940er Jahre wärmer als heute waren. Auch in den Jahrhunderten davor gab es immer wieder Phasen, in denen es wärmer als heute war.

Bild 8 [8] kanadisch British Columbia. Temperaturentwicklung der letzten 800 Jahre für die Sommermonate Juni und Juli auf Basis von Baumringen

Und zum Schluss noch eine Langfristdarstellung von Temperaturproxis in Alaska um Anchorage. Danach haben die Temperaturen dort seit ca. 4.000 Jahren stetig abgenommen (was auch in Bild 13 gezeigt ist). Die Tiere und Pflanzen welche aktuell angeblich wegen der geringen Erwärmung schon „ausbleiben“ oder „verschwinden“ waren entweder dort langfristig betrachtet gar nie heimisch oder haben schon immer gewechselt wie das Klima auch.


Bild 9 [9] Sommer-Temperaturen von Temperaturproxis in Alaska

Wie „sicher“ Rekonstruktionen des Klimas (auch der Arktis) sind, zeigt das folgende Bild aus der jüngsten und umfassendsten Klimarekonstruktions-Analyse. Details dazu wurden bereits berichtet.
EIKE: [16] Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

Bild 10 Alle Proxis Arctic des Projekt PAGES 2k Datensatzes. Quelle: Active viewer for the Pages 2K Proxis

Was die Natur nicht schafft, lässt sich trotzdem beliebig simulieren und hemmungslos publizieren. Den Begriff „Blamieren“ gibt es in dieser „Wissenschaft“ scheinbar nicht. Wie das Kalibrieren bei der wie Rauschen aussehenden Temperatur-Datenlage (Bild 10) gelingt, erschließt sich nur Simulations-„Wissenschaftlern“, ist aber eben Trend. Wenn man sich ein solches Simulationsergebnis ansieht, sollte einem jedoch weniger Angst vor der Zukunft, als vor dieser „Wissenschaft“ und deren Gläubigen werden.

Bild 11 [14] Fig. 11. Ensemble mean of surface air temperature anomalies relative to its climatology for the 1980–1999 period for each month averaged over (A) the Chukchi Sea
Fazit

Die Einwohner erlebten dort zwischenzeitlich höhere Temperaturen, doch gingen diese inzwischen auch wieder auf einen Stand wie vor ca. 60 Jahren zurück. Die Eltern der aktuellen Einwohner erlebten also bereits die gleichen Temperaturen. Eine durch einen Klimawandel stetig immer weiter ansteigende Wärme ist in der Wirklichkeit nirgends erkennbar. Aktuell scheint sich die Gegend eher in einer historisch kalten Klimaphase zu befinden. Zeiten mit weniger Eis und weniger Permafrost hat diese Gegend schon früher über lange Zeiträume erlebt und überstanden. Es ist überhaupt nicht unwahrscheinlich, dass die aktuellen Temperaturerhöhungen nur Teil eines natürlichen Zyklus und natürlicher Variabilität sind.
Lediglich vollkommen unglaubwürdige (da mangels genauer Daten nicht kalibrierbare) Simulationen berechnen beliebig alarmistische Zukunftsprojektionen.

Es gibt kein Eis mehr

gris: [2] Rising seas and more ice-free months are causing erosion that is eating away at the island.

Eine Diskussion darüber ist schwierig. Denn es scheint so, als haben heutige Erdbewohner die Überzeugung, dass die Natur sich nicht mehr verändern dürfe, sobald sich der Mensch daran gewöhnt und Siedlungen errichtet hat. Gletscher waren über Jahrtausende eine ständige Todes-Bedrohung und wurden mit enormem (auch finanziellem Aufwand an eine dabei immer gerne helfende Institution) Einsatz „weggebetet“. Erst seit man sie für die Touristen benötigt, fordert man plötzlich, dass sie bleiben müssen und gibt ihnen auf einmal einen positiven Wert [22].

Leider sind Grafiken der Polareisbedeckung erst seit Beginn der Satellitenära verfügbar (Bild 12). Zwar melden unsere Medien regelmäßig dass es eigentlich kein Eis mehr gäbe, doch so schlimm sieht es damit nicht aus. Vor allem Al Gores „sichere Vorhersage“ – ab dem Jahr 2013 wäre die Arktis im Sommer völlig eisfrei, hat sich nicht im Ansatz bewahrheitet. Was sicher Tatsache ist: Das Tauen und Wiederkommen dieser Eisfläche ändert seine Zeitpunkte im Jahr. Es ist aber zu bezweifeln, ob das Eis dies früher noch nie gemacht hat.


Bild 12 Aktuelle Grafik der arktischen Meereisbedeckung

Interessanter ist die langfristige Betrachtung. Das Meer-Eis in genau dieser Gegend befindet sich aktuell auf einem selbst über die letzten 2.000 Jahre gesehen historisch hohem! Bedeckungs-Niveau und die Temperaturen auf einem niedrigen! Damit waren nach der aktuellen Lesart die historischen Vergangenheiten erheblich negativer „Klimawandel“-beeinflusst als die Gegenwart.


Bild 13 [13] Vergangenheitsdaten See-Eis Bedeckung, Salzgehalt, Sommer-Temperatur der Meeresoberfläche

Die Insel „verschwindet“

Berliner Zeitung: [1]Ein Großteil der Strände sind schon vom Ozean verschluckt

Shishmaref, Alaska: Rising temperatures have resulted in a reduction in the sea ice which serves to buffer Shishmaref from storm surges. At the same time, the permafrost that the village is built on has also begun to melt, making the shore even more vulnerable to erosion.

[Übersetzung von Chris Frey: Shishmaref, Alaska: Steigende Temperaturen führten zu einer Abnahme des Meereises, welches bisher als Schutzwall von Shishmaref vor Sturmfluten fungierte. Gleichzeitig hat der Permafrost, auf dem die Ortschaft erbaut worden ist, ebenfalls zu schmelzen begonnen, was die Küste sogar noch verwundbarer für Erosion machr.

Ende Übersetzung]

Beim Betrachten der Bilder in den Zeitungsartikeln fällt auf, dass die Insel relativ hoch ist und damit keine Probleme mit einem steigenden Pegel haben sollte. Trotzdem „verschwindet“ der Strand.

Die Sichtung der grist-Artikel zeigt das wirkliche Problem: Die Insel besteht aus reinem Sand. Laut den Beschreibungen hielt dieser, so lange er ständig gefroren war. Seit es etwas wärmer wurde, ist er jedoch anfälliger geworden. Die Deutsche Nordseeküste kennt solche bedrohten, sandigen Inseln zu Genüge, wie zum Beispiel Sylt welche ohne massive Küstenschutzmaßnahmen schon erheblich kleiner wäre. Allerdings haben die Nordseeküsten im Mittelalter die wirklich gewaltigen Mengen Land verloren. Was dort seit der Neuzeit passiert, ist dagegen fast nichts.

Und auch in dieser Gegend von Alaska ist das Problem nicht neu.

[7] The results show mean erosion rates of −0.12 to −0.08 m/yr in the region from 1950 to 2003. The northern and southern shorelines showed erosion between 1950 and 1980, but slight accretion/stabilization between 1980 and 2003. These changes possibly correlate with Aleutian low anomaly variations that affected the climate in the area of study. On the basis of the predictions of SLR in the Arctic for 2000–2049 and 2050–2100, mean erosion rates may increase to 0.6–1.65 m/yr. This would translate into an approximately 70–1000-m retreat of the shore, depending on its slope, composition, and geomorphologic type. These results help to assess coastal vulnerability and can contribute to regional planning efforts.

[Übersetzung von Chris Frey: Es ergeben sich mittlere Erosionsraten von -0,12 bis -0,08 M pro Jahr in dem Gebiet von 1950 bis 2003. Die Nord- und Südküste zeigten Erosion zwischen 1950 und 1980, jedoch leichte Zunahme/Stabilisierung zwischen 1980 und 2003. Diese Änderungen korrelieren möglicherweise mit geringen Anomalie-Variationen bei den Aleuten, die das Klima im Untersuchungsgebiet beeinflusst haben. Auf der Grundlage der SLR-Vorhersagen in der Arktis für 2000 bis 2049 und 2050 bis 2100, könnten die mittleren Erosionsraten zunehmen auf 0,6 bis 1,65 m pro Jahr. Dies wäre gleichbedeutend mit einer Rückbildung der Küsten um 70 bis 1000 m, abhängig von der Steilheit, der Zusammensetzung und des geomorphologischen Typs. Diese Ergebnisse helfen, die küstennahe Verwundbarkeit abzuschätzen und können bei regionalen Planungen helfen.

Ende Übersetzung]

Es handelt sich demnach um einen für Küstenerosion mehr als sehr anfälligen Küstenstreifen. Bereits kleinste Veränderungen an Klimafaktoren haben einen großen Einfluss. Die Erosion ist in der Studie seit 1950 untersucht, also als ein Problem bekannt. Für die Zeit von 1980 … 2003 wird eine „leichte Zunahme / Stabilisierung“ gemeldet. Als die Bewohner im Jahr 2002 bereits erstmals den Umzug beschlossen, stellte sich die Thematik somit beileibe nicht Klimawandel-bedingt dramatisch verstärkt dar, sondern war ein dort wohl immer schon vorhandener Vorgang, vergleichbar der Deutschen Nordseeküste. Im Kern wird es erst in Klimasimulationen zur wirklichen Zukunfts-Dramatik (gemacht).
Schaut man im Klimaretter.Info Artikel auf das Bild mit der neueren Küsten-Schutzverbauung, wagt man Zweifel, ob sich die simulierte Apokalypse bewahrheiten wird. Das „Alarmbild“ mit der am Strand abgerutschten Hütte stammt jedenfalls bestimmt nicht von diesem neu geschützten Küstenteil. Es ist somit anzunehmen, dass auch dort der Der Mensch mit konkreten Maßnahmen sinnvoll schützen kann. Ob dazu auch die CO2-Vermeidung gehört, bezweifelt der Autor.

Die Stürme werden immer schlimmer

Eine zusätzlich gemeldet Ursache – ständig zunehmende Stürme – bleibt unsicher. Es sind darüber verschiedene Studien zu finden, welche sich im Ergebnis teils widersprechen. Privat ist eine fundierte Analyse aufwendig, da viele der Studien kostenpflichtig sind (man kann nur die Zusammenfassungen kostenfrei lesen), weshalb der Autor darauf verzichtet und anbei nur etwas Information aus Fundstellen listet.

Eine Studie ermittelte, dass Stürme in dieser Gegend bei Kälte zunehmen, also dank Klimawandel schwächer werden müssten:

[6] Geologic data suggest that, in the Chukchi Sea, storm frequency is correlated with colder rather than warmer climatic conditions (Mason and Jordan, 1993; Mason et al., 1996; Mason, 1999). Our data do not therefore support predictions of more frequent or intense coastal storms associated with atmospheric warming for this region.

[Übersetzung von Chris Frey: Geologische Daten zeigen, dass die Sturmhäufigkeit in der Tschuktschen-See korreliert ist mit kälteren und nicht mit wärmeren Klimabedingungen (Mason and Jordan, 1993; Mason et al., 1996; Mason, 1999). Unsere Daten stützen daher nicht Prophezeiungen häufigerer oder stärkerer küstennaher Stürme, die mit der atmosphärischen Erwärmung in diesem Gebiet assoziiert sind.

Ende Übersetzung]

In einer anderen Studie sind die Wellenhöhen seit 1970 rekonstruiert. Beim Betrachten zeigt sich, dass im Kern lediglich im September und davon nur in einer kurzen Spitze so um das Jahr 2012 die Wellenhöhe höher war (um ca. 07 m – „normal“ scheinen ca. 3,5 m). Es erscheint unglaubwürdig, dass wegen dieser im Grund geringfügigen und sehr kurzen Veränderung (so sie wirklich messbar ist) die Insel „verschwindet“:

Bild 14 [15] FIG. 6 Verlauf der Wellenhöhen (H) in der Seegegend Beaufort–Chukchi–Bering (BCB) Seas

In der Studie selbst[15] ist dazu ausgeführt, dass die ermittelte Zunahme der Wellenhöhen (welche sich zwischen den drei untersuchten Gegenden im Jahresverlauf deutlich unterscheidet) nicht aufgrund zunehmender Windstärken (diese nimmt nämlich wieder Erwartung nicht signifikant zu), sondern wohl aufgrund der längeren Wellenlaufzeiten durch die größeren, eisfreien Wasserflächen entsteht. Nimmt die Eisbedeckung wieder zu, ist mit einem Rückgang der Wellenhöhen zu rechnen.

Zusammenfassung Klimawandel-Einfluss

Relativ leicht lässt sich feststellen, dass die gemeldeten Verursacher für die Probleme teils gar nicht (steigender Meerespegel, stärkere Stürme) und wenige anteilig, aber nicht als Hauptursache der berichteten Probleme, verantwortlich sein können. Zudem lässt sich feststellen, dass der aktuelle Klimazustand dort eher einem Klimawandel widerspricht und die einem Klimawandel zugeschriebenen Effekte auch in historischer Zeit viel stärker vorlagen.

Damit bestätigt sich wieder, was der Autor in seinen zwischenzeitlich umfassenden Recherchen zu gemeldeten, Klimawandel-bedingt untergehenden Inseln feststelle: Er fand bisher keine! bei der sich ein anthropogener Klimawandel-Einfluss als Ursache belegen ließe. Was er aber fand, waren durchgängig falsche Datenangaben und „Belegführungen“ durch ungeprüfte Aussagen von Klimaaktivisten.
In aller Regel gilt bei diesen Meldungen: Die typischen „Klimawandel“- Einflüsse liegen bei näherem Hinsehen einfach nicht vor. Man müsste als Beleg einen anderen Klimawandel erfinden. Und diesen gibt es hier: Rückfall in das frühere Klima! Die Inuit wüschen sich dies, nicht wissend (oder nicht wissen wollend), dass es genau das ist, was der Klimawandel – so es ihn gäbe – auch bringen müsste, nämlich Wärme. Denn die gewünschte – angeblich immer schon vorhandene Kälte – erweist sich eher als eine Ausnahme in ihrer historischen Klimageschichte.

Auch Inuit-Kinder mögen es bequem(er)

Das Leben am Ende der Welt und noch dazu am Rande des Polarmeeres gefällt nicht jedem und trotz einer vermeintlich schier endlosen Wüstenei fehlt auch Land an der richtigen Stelle. Das war schon bevor man einen Klimawandel „kannte“ so.

DER SPIEGEL: [4] Denn dass Kivalina (Anm.: Ein Dorf neben Shismaref) umzieht, war eigentlich schon klar, noch bevor der Klimawandel kam und die Sache dringlich machte. Die Landspitze, auf der Kivalina liegt, ist einfach zu klein. Es passen keine neuen Häuser mehr ins Dorf. Seit 15 Jahren reden sie vom Umsiedeln, seit 15 Jahren verhandeln sie mit dem Bundesstaat Alaska über die Kosten.

[5] In addition to erosion, the island village has problems with securing fresh water and space to build, Nayokpuk said. Shishmaref has a young population — the median age is about 20 — and there will be a need for more housing.

“The main problems are a lack of space and the danger we are facing whenever we have a storm“

The ship traffic through the Bering Strait — including fishermen, shipping, and even cruise ships —  has impacted the marine wildlife and could be why there are fewer seals and fish around, Eningowuk said.

[Übersetzung von Chris Frey: Zusätzlich zur Erosion hat das Inseldorf Probleme mit Süsswasser, und es gibt kaum Raum zum Bau von Reservoiren, sagte Nayokpuk. Shishmaefs Bevölkerung ist jung – mit einem mittleren Alter von 20 Jahren – und es wird mehr Bedarf für Wohnraum geben. “Die Hauptprobleme sind fehlender Platz dafür und die Gefahr durch Stürme bei uns”.

Der Schiffsverkehr durch die Bering-Straße – einschließlich Fischerboote, Frachtschiffe und sogar Kreuzfahrtschiffe – hat die maritime Flora und Fauna beeinflusst und könnte der Grund dafür sein, dass es weniger Seehunde und Fische gibt, sagte Eningowuk.

[Ende Übersetzung]

Auch Komfort spielt eine Rolle

Vor allem die Jüngeren sehen im Fernsehen, dass es anders wo solchen gibt:

grist[2]: “Our culture is really hard, we’re up here near the Arctic circle, and we enjoy it — it’s what we’re used to,” Eningowuk said. “But our children, the younger generation are the ones who are not too excited about it,” he said, adding that all of his children have moved away from Shishmaref. “Other children are also already looking for other places to live … they’re finding other professions that will keep them in the cities,” Eningowuk said. The internet and television have shown them that there are easier ways to live,

[Übersetzung von Chris Frey: grist [2]: “Unsere Kultur ist wirklich hart. Wir leben hier am Polarkreis, und wir erfreuen uns daran – das ist es, woran wir gewöhnt sind”, sagte Eningowuk. “Aber unsere Kinder, die jüngere Generation sind diejenigen, die darüber nicht so begeistert sind”, sagte er und fügte hinzu, dass alle seine Kinder aus Shishmaref weggezogen sind. “Unsere Kinder halten ebenfalls schon Ausschau nach anderen Orten zum Wohnen … sie finden andere Berufe, die sie in den Städten halten”. Internet und Fernsehen haben ihnen gezeigt, dass es einfachere Lebensweisen gibt.

Ende Übersetujng]

Der Klimawandel wird zunehmend zur Geldquelle

Wenn man Klimaaktivist wird, erschließen sich Möglichkeiten, die sonst undenkbar wären. Es ist nicht erforderlich etwas zu wissen, sondern das „eingetrichterte“ Klima-Alarmwissen weltweit vorzutragen (Anm.: Das gilt auch für Aktivisten von Südseeinseln und in Afrika) – eine Verlockung, welche enorm motiviert:

grist: [2] Esau Sinnok, an 18-year-old climate activist from Shishmaref

Sinnok has traveled around the world to advocate for his Inupiaq Native village and others threatened by climate change in western Alaska. He became an Arctic Youth Ambassador for a program led by the U.S. Interior and State Departments, and is currently a participant in the Sierra Club’s Fresh Tracks program.
In December 2015, Sinnok attended the United Nations COP 21 in Paris, France. At the conference, a
global climate treaty was signed by 195 nations in an effort to prevent the worst effects of climate change.

[Übersetzung von Chris Frey: Esau Sinnok, ein 18 Jahre alter Klimaaktivist aus Shishmaref:

Sinnok ist um die Welt gereist, um für sein Eingeborenen-Dorf Inupiaq und andere Ortschaften in Westalaska zu werben, die vom Klimawandel bedroht sind. Er wurde Arctic Youth Ambassador für ein Programm unter Führung des State Department und des Innenministeriums. Gegenwärtig nimmt er am Fresh Tracks program des Sierra-Clubs teil.

Im Dezember 2015 nahm Sinnok an der COP21 in Paris teil. …

Ende Übersetzung]

Und inzwischen helfen auch fürsorglich Individuen, welche das wirklich erforderliche Wissen haben.

DER SPIEGEL: [4] Es ist kein Zufall, dass die Klage aus Kivalina kommt. Einer der Anwälte war im vergangenen Jahr durch Alaska gezogen, auf der Suche nach möglichen Mandanten. Ein Klimaopfer-Casting.
Das Dorf Shishmaref zum Beispiel, etwas südlich von Kivalina, wäre ebenfalls ein guter Kandidat gewesen. In Shishmaref spülten die Stürme schon so viel Land davon, dass ein Haus mittlerweile halb in der Luft hängt, als hätte es jemand über die Klippe gedrückt. Aber Shishmaref wollte nicht klagen. Kivalina schon.

Ende Februar dieses Jahres haben die Stadt Kivalina und der Eskimo-Stamm Kivalina beim Gericht in San Francisco, Kalifornien, eine Klage eingereicht. Angeklagt sind 24 Öl- und Energiefirmen, Multis wie BP, Shell, ExxonMobil oder Chevron oder die American Electric Power Company, einer der größten Stromkonzerne im Land.

Sie blasen, so werfen die Eskimos ihnen vor, Millionen Tonnen CO2 und anderer Treibhausgase jährlich in die Luft, treiben die globale Erwärmung voran, und sie haben versucht, das Ausmaß und die Folgen des Klimawandels zu verharmlosen. Eine Verschwörung nennt das die Klage.
Und nun sollen sie bezahlen. Kivalina verlangt Schadensersatz für die Klimaschäden. 400 Einwohner müssen umgesiedelt, Häuser und Schule neu gebaut, Stromleitungen verlegt, Wasseranschlüsse geschaffen werden. Zwischen 100 und 400 Millionen Dollar dürfte das kosten.

Damit schreitet eine Entwicklung fort, wie sie bereits in [19] und [18]: „Staaten für mehr Klimaschutz verklagen ist cool“ beschrieben wurde.

Ergänzung

Gerade als dieses Manuskript gemailt werden sollte, warf der Autor noch einen Blick zu Klimaretter.Info, der Homepage zur bedenkenlosen Unterstützung der Klimahysterie. Und dort ist ebene eine (natürlich zustimmende) Information dazu erschienen:

Klimaretter.Info 23. August 2016: Klimaseniorinnen verklagen Schweiz
Mehr als 100 Seniorinnen aus der Schweiz wollen ihren Staat verklagen. Grund ist die verfehlte Klimapolitik, die zu einer Zunahme gesundheitsbelastender Wetterextreme führt, berichtet der Zürcher Tages-Anzeiger.
"Klimaschutz per Gericht" entwickelt sich derzeit zum wichtigen Standbein im Kampf gegen Treibhausgase. Mit dem Paris-Vertrag gibt es aller Voraussicht nach bald eine starke völkerrechtliche Grundlage dafür. Erfolgreich waren bereits Privatklagen wegen unterlassenem Klimaschutz gegen Regierungen in den Niederlanden und in Pakistan sowie in mehreren US-Bundesstaaten. Noch nicht entschieden sind die Klagen von elf prominenten Belgiern gegen Bundes- und Landesregierungen sowie die Klage eines Peruaners gegen den Kohlekonzern RWE. Auf den Philippinen geht auch eine Regierungskommission juristisch gegen 47 Weltkonzerne vor.

Und Deutschland rühmt sich, dafür einer der wesentlichen Zahlmeister zu werden

Auf dem VII. Petersberger Klimadialog im Juli hat Frau Merkel mitgeteilt, dass Deutschland eine führende Rolle zum Klimawandel einnehmen will und sie nicht im Entferntesten daran denkt, dazu eine kritische Meinung zu akzeptieren. Auch Frau Hendricks bekannte Klimahysterie wurde von ihr positiv gewürdigt.

Rede von Bundeskanzlerin Merkel zum VII. Petersberger Klimadialog am 5. Juli 2016
(Ganz kurze Auszüge):
Wir als Bundesregierung befassen uns morgen im Kabinett mit dem Gesetzentwurf zur Ratifizierung des Pariser Abkommens. Wir wollen versuchen, den gesamten Prozess noch vor der Klimakonferenz in Marrakesch abzuschließen. Die Ratifikationsurkunde wollen wir anschließend zusammen mit der Europäischen Union und den anderen Mitgliedstaaten übermitteln und damit das klare Signal senden, dass Europa die Ergebnisse von Paris umsetzt und beim Klimaschutz an einem Strang und dann auch noch in eine Richtung zieht.

Nicht nur bei uns, sondern in allen Regionen der Welt gibt es sehr viel Bewegung. Die globale Transformation hat bereits begonnen.

Neben langfristigen Strategien sind natürlich schon ziemlich bald konkrete Klimabeiträge gefragt. Das ist der zweite Punkt, auf den es ankommt, um das Pariser Abkommen mit Leben zu füllen. Es ist sehr erfreulich, dass alle Staaten freiwillige Klimabeiträge geboten haben. Wie der Außenminister schon sagte: Diese reichen aber in der Summe noch nicht aus, um die Zwei-Grad-Obergrenze einzuhalten. Deshalb haben wir sehr darauf gesetzt, dass es alle fünf Jahre eine Revision gibt. Diese Revisionen werden sicher auch schmerzlich werden, weil man sehr gut sehen wird, wie weit wir gekommen sind. Ich habe mir jüngst noch einmal den CO2-Anstieg der weltweiten Emissionen angeschaut. Die Zahlenreihe von 1900 bis in die heutige Zeit sieht wirklich bedrohlich aus.

Ziele sind fein, aber sie müssen auch mit einer vernünftigen Finanzierung unterlegt werden. Das ist der dritte Aspekt. Das Abkommen nimmt uns in die Pflicht, Finanzflüsse mit einer emissionsarmen, klimaschonenden Entwicklung in Einklang zu bringen.
Ausgangspunkt ist das, was von der Konferenz in Kopenhagen positiv übrig geblieben ist, nämlich die Zusage, aus öffentlichen und privaten Quellen ab 2020 jährlich 100 Milliarden US-Dollar für ärmere Staaten bereitzustellen.

Ich will hier noch einmal sagen: Ich halte das für einen richtigen Ansatz. Ein Kohlenstoffpreis lenkt Investitionen in kohlenstoffarme Infrastrukturen, Technologien und Produkte. Ein solcher Preis sorgt dafür, dass Emissionen dort reduziert werden, wo dies besonders kosteneffizient möglich ist. Zudem werden öffentliche Einnahmen gewonnen, die für die Klimafinanzierung sowohl im In- als auch im Ausland verwendet werden können.
Es ist nicht übertrieben zu sagen: Klimaschutz ist nicht mehr und nicht weniger als eine Frage des Überlebens. Lassen Sie uns deshalb das Klimaabkommen mit Leben erfüllen.

Wer beliebig Geld (seiner Steuerzahler) verschenkt, ist sicher rund um die Welt allseits beliebt. Ob man deshalb geachtet wird, steht auf einem anderen Blatt. Aber um einmal einen gut dotierten und mit viel Ehre verbundenen Posten in einem internationalen Gremium zu erlangen, wird es wohl reichen.

Was dies (hier für die „klimaneutralen Energien“) bedeutet, hat Fred F. Mueller auf EIKE jüngst beschrieben:

Rechts überholt und elegant geschnitten: Die Vertreter der „erneuerbaren“ als betrogene Betrüger

Fazit

So lange kritisches Denken beim Klimawandel nicht akzeptiert wird, wird die Klimahysterie so weiter gehen und sich eher noch beschleunigen. Und den Deutschen Steuerzahler wird es viel Geld kosten, welches ohne den geringsten Klimanutzen die Taschen reicher Banker (wie es Frau Merkel in der „Petersberger“ Erklärung extra begrüßt) und reicher Potentaten füllt.
Dafür, dass sich das nicht ändert (und die Fördergeld-Quellen erhalten bleiben), sorgen Klimaberater wie Prof. C. Kemfert, welche mit ihrer Homepage-Information regelmäßig belegen, dass überhaupt kein Interesse besteht, klimaalarmistische Meldung vor der Publikation zu hinterfragen und auf ihren Wahrheitsgehalt zu prüfen[17].

Nachtrag Sichtung untergehender Inseln

Anbei eine Listung bisheriger Untersuchungen über aufgrund des Klimawandels angeblich unter gehender Inseln:

Stuttgarter Nachrichten 07. Juli 2016: Eine Südseeinsel trotzt dem Untergang

EIKE 11.07.2016: Florida Keys: Ein Paradies geht unter – wegen des Klimawandels?

EIKE 28.07.2016: Löst sich das Rätsel versinkender Inseln? Dokumentarfilm Sandraub – das Ende der Strände

EIKE 14.05.2016: Schon fünf Salomonen-Inseln sind durch den Klimawandel versunken – obwohl der Pegel dort nicht gestiegen ist

EIKE 14.12.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang

EIKE 26.11.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 2

EIKE 17.09.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 1 Die Malediven

DONNER + Doria, 12.Dez. 2012: Inseln, die einfach nicht untergehen wollen

Anlage Tidenpegel

Hinweis: Die Nummern beziehen sich auf die zugefügte Stationskennzeichnung in Bild 1


Bild Messstelle Adak Alaska (Nr. 5)


Bild Messstelle Nome Alaska (Nr. 2)


Bild Messstelle Ratmanova Russland (Nr. 1)


Bild Messstelle Netten Russland (Nr. 3)


Bild Messstelle Providenia Russland (Nr. 4)


Bild Messstelle Prudhoe Bay Alaska (Nr. 6)


Bild Messstelle Anchorage Alaska (Nr. 7)

Quellen

[1] Berliner Zeitung 18.08.2016: Klimawandel : Inseldorf in Alaska flieht komplett aufs Festland
http://www.berliner-zeitung.de/panorama/klimawandel–inseldorf-in-alaska-flieht-komplett-aufs-festland-24608070

[2] grist Aug 15, 2016: Stay or go? Alaska Native community votes on a difficult decision
http://grist.org/climate-energy/stay-or-go-alaska-native-community-faces-difficult-decision/

[3] Kronen Zeitung 18.08.2016: Wegen Klimawandel Im US- Staat Alaska hat ein 600- Seelen- Dorf per Volksentscheid einen Komplettumzug von einer Insel aufs Festland beschlossen.
http://www.krone.at/welt/alaska-ganzes-inseldorf-flieht-aufs-festland-wegen-klimawandel-story-525277

[4] DER SPIEGEL 09.06.2008: KLIMAWANDEL Ein Dorf verklagt die Welt
http://www.spiegel.de/spiegel/print/d-57359766.html

[5] peninsula CLARION July 21, 2002: Shishmaref residents vote to move village
http://peninsulaclarion.com/stories/072102/ala_072102alapm0020001.shtml#.V7XUGYVOKP5

[6] Mason, O.K., J.W. Jordan, and L. Plug, 1995. Late Holocene storm and sea level history in the southern Chukchi Sea.

[7] Yuri Gorokhovich and Anthony Leiserowiz: Historical and Future Coastal Changes in Northwest Alaska (doi: 10.2112/JCOASTRES-D-11-00031.1)

[8] kaltesonne 27. Oktober 2013: Klimaerwärmung in China, Alaska und Kanada verzweifelt gesucht
http://www.kaltesonne.de/klimaerwarmung-in-china-alaska-und-kanada-verzweifelt-gesucht/

[9] Benjamin F. Clegg at al. October 21, 2011: Nonlinear response of summer temperature to Holocene insolation forcing in Alaska

[10] Yeo, S., Kim, K., Yeh, S. et al. Clim Dyn (2014) 42: 2423. doi:10.1007/s00382-013-2042-z Recent climate variation in the Bering and Chukchi Seas and its linkages to large-scale circulation in the Pacific
http://link.springer.com/article/10.1007/s00382-013-2042-z

[11] EIKE 14.12.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang
http://www.eike-klima-energie.eu/news-cache/gehen-die-suedseeinseln-wirklich-wegen-des-klimawandels-unter-teil-3-die-marshall-inselgruppe-kein-beispiel-fuer-einen-untergang/

[12] Klimaretter.Info 20.08.2016: Alaska: Ein Dorf flieht vor dem Klimawandel
http://www.klimaretter.info/umwelt/hintergrund/21767-alaska-ein-dorf-flieht-vor-dem-klimawandel

[13] Can. J. Earth Sci. 45: 1377–1397 (2008) J.L. McKay at al.: Holocene fluctuations in Arctic sea-ice cover: dinocyst-based recon structions for the eastern Chukchi Sea

[14] Muyin Wang, James E. Overland, Phyllis Stabeno, 2012: Future climate of the Ber ing and Chukc hi Seas projected by global climate models

[15] XIAOLAN L. WANG,YANG FENG, AND VAL R. SWAIL. Mai 2015: Historical Changes in the Beaufort–Chukchi–Bering Seas Surface Winds and Waves, 1971–2013

[16] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k
http://www.eike-klima-energie.eu/news-cache/die-problematik-der-temperaturrekonstruktion-eine-beispielhafte-sichtung-dazu-anhand-des-projektes-pages-2k/

[17] EIKE 23.07.2016: Der Unterschied in der Klimawandel-Berichterstattung
Kritik an der Berichterstattung des Portals Klimaretter.Info
http://www.eike-klima-energie.eu/news-cache/der-unterschied-in-der-klimawandel-berichterstattung/

[18] EIKE 15.06.2016: Staaten für mehr Klimaschutz verklagen ist cool
http://www.eike-klima-energie.eu/news-cache/staaten-fuer-mehr-klimaschutz-verklagen-ist-cool/

[19] EIKE 21.08.2015: Die Ökokirche beginnt zuzuschlagen Eine Klimastiftung verklagt den Staat wegen zu wenig Klimaschutz – und gewinnt
www.eike-klima-energie.eu/news-cache/die-oekokirche-beginnt-zuzuschlagen-eine-klimastiftung-verklagt-den-staat-wegen-zu-wenig-klimaschutz-und-gewinnt/

[20] Listung EIKE 11.07.2016: Florida Keys: Ein Paradies geht unter – wegen des Klimawandels?
http://www.eike-klima-energie.eu/news-cache/florida-keys-ein-paradies-geht-unter-wegen-des-klimawandels/

EIKE 28.07.2016: Löst sich das Rätsel versinkender Inseln? Dokumentarfilm Sandraub – das Ende der Strände
http://www.eike-klima-energie.eu/news-cache/loest-sich-das-raetsel-versinkender-inseln-dokumentarfilm-sandraub-das-ende-der-straende/

EIKE 14.05.2016: Schon fünf Salomonen-Inseln sind durch den Klimawandel versunken – obwohl der Pegel dort nicht gestiegen ist
http://www.eike-klima-energie.eu/news-cache/schon-fuenf-salomonen-inseln-sind-durch-den-klimawandel-versunken-obwohl-der-pegel-dort-nicht-gestiegen-ist/

EIKE 14.12.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang
http://www.eike-klima-energie.eu/news-cache/gehen-die-suedseeinseln-wirklich-wegen-des-klimawandels-unter-teil-3-die-marshall-inselgruppe-kein-beispiel-fuer-einen-untergang/

EIKE 26.11.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 2
http://www.eike-klima-energie.eu/climategate-anzeige/gehen-die-suedseeinseln-wirklich-wegen-des-klimawandels-unter-teil-2/

EIKE 17.09.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 1 Die Malediven
http://www.eike-klima-energie.eu/news-cache/ist-der-reiche-westen-wirklich-an-den-inselfluechtlingen-schuld-weil-er-co2-emittiert-teil1-die-malediven/

Stuttgarter Nachrichten 07. Juli 2016: Eine Südseeinsel trotzt dem Untergang
http://www.stuttgarter-nachrichten.de/inhalt.klimawandel-eine-suedseeinsel-trotzt-dem-untergang.ed9f28a3-6591-4eb1-98dd-db6218069cc0.html

[21] DONNER + Doria, 12.Dez. 2012: Inseln, die einfach nicht untergehen wollen
http://donnerunddoria.welt.de/2012/12/12/inseln-die-einfach-nicht-untergehen-wollen/

[22] EIKE 31.07.2015: Fakten zu Gletscherschwund und Co. – und wie Ideologie unsere Natur zerstört
http://www.eike-klima-energie.eu/klima-anzeige/fakten-zu-gletscherschwund-und-co-und-wie-ideologie-unsere-natur-zerstoert/

Update vom 29. 08 2016, Bilder 4 und 5 sind neu, incl. der zugehörige Text

Helmut Kuntz




In Brooklyn beginnt gerade die Revolution der Energiewende

FAZ 02.08.2016: [1] Dezentrale Stromnetze New York probt die Abschaffung der Energieversorger

Im New Yorker Stadtteil Gowanus (Anm.: in Brooklyn) hat im Frühjahr ein Experiment begonnen. Es könnte die Energiewirtschaft revolutionieren. Allerdings gibt es noch viele unbeantwortete Fragen.

Längs der President Street versorgen Bürger von der einen Seite der angegrauten Reihenhäuser die Bewohner der anderen Seite seit April mit selbsterzeugtem Strom. Der kommt von den Solarpanels auf ihren Dächern. So weit ist das alles nicht revolutionär.

Bei Stromversorgern klingeln die Alarmglocken

Neu an dem „Brooklyn Microgrid“ ist, dass sie auch Abrechnung und Bezahlung direkt untereinander abwickeln, ohne einen dazwischen geschalteten Versorger. „Der Mechanismus zeigt, wie die Zukunft eines dezentralen, in Nachbarschaften selbst verwalteten Stromnetzes aussehen könnte“, analysiert die Beratungsgesellschaft PWC. Was die Berater so nüchtern hinschreiben, lässt bei Stromversorgern die Alarmglocken klingen. Denn wer braucht ihre Dienste noch, wenn Verbraucher und Erzeuger im digitalisierten Strommarkt ihre Geschäfte dezentral und allein untereinander abwickeln?

An dem New Yorker Modell nehmen zwar nur zehn Haushalte teil, doch hat es sich schon weit herumgesprochen. Unlängst ließ sich die parlamentarische Staatssekretärin im Bundesumweltministerium Rita Schwarzelühr-Sutter (SPD) das Bürgerstromprojekt vor Ort erklären. Und im fernen Deutschland machen sich die Verbraucherzentralen schon Gedanken darüber, wer Gewinner und wer die Verlierer der nächsten Stufe der Digitalisierung sein werden.

Wenn eine Staatssekretärin sich die Mühe macht, über den Teich zu jetten um eine revolutionäre Erfindung, welche bereits 10 Haushalte versorgt persönlich anzusehen, muss schon etwas dahinter sein. Und Frau R. S.-Sutter ist zur Begutachtung von „Energie“ prädestiniert:

– Studium: Wirtschaft

– Mitgliedschaften: KLAR – Kein Leben mit atomaren Risiken, EUROSOLAR – Europäische Vereinigung für Erneuerbare Energien e.V.

Darstellung auf ihrer Homepage: Energiewende jetzt!

Die Energiewende von der derzeitigen Versorgung mit Atom und Kohle zu einer 100-Prozent-Versorgung aus Sonne und Wind ist dringend notwendig und auch innerhalb kurzer Zeit durchzusetzen. Die Kosten für Kohle und Atomkraft können mit der Zeit nur weiter steigen und hinzu kommen weitere Kosten für die Naturzerstörung und den Klimawandel in Milliardenhöhe. Die Kosten für erneuerbare Energien werden mit der Zeit immer weiter sinken: Denn bei erneuerbaren Energien entstehen nur Kosten für die Technik, die aber mit der voranschreitenden Massenfertigung und technologischen Innovationen immer weiter sinken werden.

… als eine Themen der Energieversorgung sicher vorurteilsfrei betrachtende Persönlichkeit mit dem nötigen Hintergrundwissen.

Die „Alarmglocken klingel-Erfindung“

Löst die Erfindung Probleme des EEG? Nachsehen zeigt: Um diese haben sich die „Erfinder“ nicht im Entferntesten gekümmert.

Die Erfindung besteht ausschließlich darin, dass Solaranlagen-Besitzer ihren Strom direkt an Nachbarn vermarkten – und das unter Umgehung (aber Nutzung) aller Konventionen mittels eines dezidierten Bezahlsystems namens Blockchain.

Gehandelt wird der Strom dabei wie eine eBay-Auktion. Physik ist nebensächlich und verkommt auf Kindergarten-Niveau: Meine Solaranlage erzeugt Strom – willst du ihn kaufen? Gib mir dafür dein Plastik-Geld. Siehst du, so einfach ist „Energie“. Nur die Erwachsenen machen darum so ein Theater.

Wen wundert es? CO2 „jettet“ ja auch mittels Zertifikat übers Internet um die Welt und der zertifizierte Ökostrom kann als Mail-Anhang ebenfalls problemlos aus Norwegen, Asien oder Australien transportiert werden. Diese banalen Probleme sind also längst gelöst, bleibt nur noch das der Umgehung der Bezahlsysteme. Und dafür haben die Amis schließlich das System der Startups.

Verkommt das EEG zum Raubrittertum und Energie wird so (in-)stabil wie in der Dritten Welt

Leider ist auf der Homepage der Staatssekretärin keinerlei Information über ihren Besuch in Brooklyn zu finden. Es wird zwar jeder Handschlag mit irgend einer mehr oder weniger wichtigen Persönlichkeit und vor allem viele Vergaben von Fördermitteln zu Klimaschutz-Maßnahmen, sowie Protestveranstaltungen gegen Atomkraft gelistet. Der Besuch in Brooklyn scheint ihr aber keiner Erwähnung wert. Und dabei wäre ihre Einschätzung hoch-interessant gewesen.

Denn sie besuchte (oder hat sich die FAZ getäuscht und Frau S.-Sutter war gar nicht dort) ein Modell, welches alle bisherigen Konventionen durchbricht und bei Einführung wohl der Beginn einer rücksichtslosen Raubritter-Zukunft des Energiesystems mit dem Ende seiner Zuverlässigkeit und Stabilität wäre. Genau das, was man angeblich glücklich in Deutschland verhindert hat: Die Voll-Privatisierung der öffentlichen Versorgungsbereiche ausschließlich zur Gewinn-Maximierung privater Investoren, wird mit diesem Modell in extremster Form neu aus der Taufe gehoben.

Weitere Information muss man sich deshalb nicht von der Fach-Begutachterin, sondern einer Verbraucherzentrale holen. Die Verbraucherzentrale von Nordrhein-Westfalen hat aus irgend einem Grund dazu sogar eine Studie verfassen lassen und Zusatzinformation hinterlegt.

Verbraucherzentrale Nordrhein-Westfalen: [3] Blockchain – Chance für Energieverbraucher?

Dezentral gesteuertes Transaktions- und Energieliefersystem

Überträgt man die bisherigen Entwicklungen des Finanzsektors auf die Energiewirtschaft, kann die Blockchain ein dezentrales Energieliefersystem ermöglichen. Das heute mehrstufige System vom Stromerzeuger, Übertragungsnetzbetreiber, Verteilnetzbetreiber bis hin zum Lieferanten lässt sich möglicherweise radikal vereinfachen, indem Erzeuger und Verbraucher direkt in Verbindung gesetzt werden und es gelingt, die Netzsteuerung an die veränderten Anforderungen anzupassen.

Verbraucher können gleichzeitig Erzeuger sein, also Prosumer mit Erzeugungskapazität in Form von Solaranlagen, Kleinwindanlagen oder Blockheizkraftwerken. Die erzeugte Energie kann durch Blockchain direkt an Nachbarn verkauft werden. Über ein Blockchain-System werden getätigte Transaktionen angestoßen, übermittelt und gleichzeitig manipulationssicher dokumentiert. Die Abwicklung zwischen den Transaktionsparteien erfolgt direkt über ein Peer-to-Peer-Netzwerk.

Verbraucherzentrale NRW e. V.: [4] Blockchain – Potenziale und Herausforderungen

Werden Banken und Energieversorger überflüssig?

In der Energiewirtschaft findet ein Strukturwandel statt

Die aktuelle Diskussion um das Potenzial der Blockchain fällt in einen massiven Strukturwandel in der Energiewirtschaft. Die Bewegung weg von Atomstrom und fossiler Energie hin zu dezentraler, erneuerbarer Energie und der Megatrend der Digitalisierung sind Elemente dieses Strukturwandels, der neben Gewinnern immer auch Verlierer hervorbringt: Langjährig erprobte Geschäftsmodelle und Strategien funktionieren plötzlich nicht mehr, neue Konzepte sind gefragt. Verbraucher sollten dabei auf der Gewinnerseite stehen – ob als Prosumer, die aktiv eigene Energie vermarkten, oder als reine Bezieher von Energie. Die Möglichkeit einer zumindest teilweisen Emanzipation von den Energieversorgern durch die Blockchain könnte in dieser Hinsicht einige Chancen beinhalten und die bisherigen Vertriebsmodelle der etablierten Unternehmen durcheinanderwirbeln. Gerade Prosumer wären dann nicht mehr auf die jetzigen Energieversorger angewiesen, die aus Sorge um ihre herkömmlichen Geschäftsmodelle nicht unbedingt am (schnellen) Wandel interessiert sind.

Für alle Energieverbraucher könnten so theoretisch die Kosten sinken, weil Zwischenhändler entfallen. Entscheidend ist allerdings, dass diese potenziellen Kostenvorteile auch tatsächlich beim Verbraucher ankommen und nicht etwa in der Marge eines Blockchain-Betreibers hängen bleiben.

Ganz am Rande kommen der Verbraucherzentrale dann doch ein wenig Zweifel an diesem revolutionären Konzept. Irgend jemand muss sich doch noch dunkel erinnert haben, dass Energie einst mehr war als nur eine Steckdose:

[4] Im Energiesektor spielt zudem die Versorgungssicherheit eine entscheidende Rolle. Wer soll in einem denkbaren Markt ohne die klassischen Versorgungsunternehmen die Verantwortung übernehmen, wie wird die kontinuierliche Verfügbarkeit der Energie sichergestellt? Die Klärung dieser Fragen ist unerlässlich.

Bremsen die Versorger und versuchen etwas Vernunft in dieses Thema zu bringen? Nicht die Spur. Ein Mann, der es schon geschafft hat, seinen Konzern sprichwörtlich zerschlagen zu lassen, strotzt nur so vor Stolz und Engagement. Und er findet den Umbruch sexy. EEG-Strom erzeugt sich von selbst, anderen gibt es nicht (mehr) und so wird Verteilen und Verrechnen das sexy Geschäft der Zukunft. So weit kommt es halt, wenn ein älterer Volkswirtschaftler und Jurist die trockene Arbeit und seine Fantasien vermischt.

WAZ, 09.07.2016: [5] Der Star sind die Erneuerbaren Energien

Der Mann, der den Energie-Riesen Eon gezweiteilt hat, kommt leger daher. Johannes Teyssen wirkt bar jeden Drucks. Er führt nun den grünen Teil der Eon samt Atom-Altlasten. Im Interview skizziert er sein Bild von der Energie der Zukunft – und klingt dabei so gar nicht nach klassischem Ökostrom-Lobbyisten.

… Aber wir entwickeln für unsere Netze immer neue Lösungen, etwa um noch mehr Ökostrom transportieren zu können. Ich finde das total sexy.

Vielleicht ist Herr Teyssen aber auch nur immer seiner Zeit weit voraus und nur die Vergangenheit holt ihn immer neu ein. Strom kommt in naher Zukunft gesetzlich verordnet vollkommen ungeplant und un-planbar. Da wird die (Mangel-) Verteilung sicher ein immer wichtiger werdendes Zukunftsmodell. Und sexy wird es bestimmt, wenn bei der Web-Suche nach und Abrufen gerade zufällig online kursierender Stromkontingente die richtigen Werbe-Apps zum Überbrücken der stromlosen Zeiten mit eingeblendet werden. Klappt das nicht wie erhofft, erfüllt sich nur, was man dort kennt wo er Vorstandschef (e.on) oder Aufsichtsratsmitglied (Deutsche Bank, Salzgitter AG) ist: Erzeugen – zumindest nicht verhindern – von Problemen.

Manche Minister scheinen sich schon auf solche Zeiten vor zu bereiten:

Klimaretter.Info: NRW-Minister will E-Bikes statt E-Autos

Der nordrhein-westfälische Verkehrsminister Michael Groschek (SPD) will lieber Elektrofahrräder als Elektroautos fördern. Das Ziel der Bundesregierung, bis 2020 eine Million Elektrofahrzeuge auf die Straße zu bringen, hält er für unrealistisch: "Wir werden eine Million Elektrofahrzeuge bis 2020 schaffen. Aber auf zwei Rädern, nicht auf vier", sagte Groschek in einem Interview mit der Rheinischen Post. Man müsse den Boom der E-Bikes nutzen.

Irgendwo her kennt man solche politische Dialektik. Wenn das versprochene Große nicht kommt, wird eben das Kleine hoch gehoben. Und der Bürger hat zu begreifen, dass sich die Ziele stetig ändern, er am Weg daran aber nichts ändern kann.

Quellen

[1] Frankfurter Allgemeine: New York probt die Abschaffung der Energieversorger

http://www.faz.net/aktuell/wirtschaft/energiepolitik/new-york-probt-die-abschaffung-der-energieversorger-14367393.html

[2] Verbraucherzentrale Nordrhein-Westfalen: Blockchain – Chance für Energieverbraucher?

http://www.verbraucherzentrale.nrw/blockchain

[3] Blockchain – Chance für Energieverbraucher? Kurzstudie für die Verbraucherzentrale NRW, Düsseldorf

[4] Verbraucherzentrale NRW e. V.: Blockchain – Chance für Energieverbraucher? Potenziale und Herausforderungen

[5] WAZ, 09.07.2016: Der Star sind die Erneuerbaren Energien

http://www.derwesten.de/wirtschaft/der-star-sind-die-erneuerbaren-energien-aimp-id11991524.html




Millionen für Al Gore, um aggressive Aktionen gegen Globale Erwärmung zu pushen

Ein Dokument, veröffentlicht von DC Leaks, zeigt Soros, ein in Ungarn geborener Financier, dass sein gemeinnütziges Open Society Institute (OSI) mehr zur Unterstützung der „globalen-Erwärmungs-Politik“ in den USA tun soll. Die Budgetierung schließt 10 Millionen Dollar Jahresunterstützung für Gores Klimagruppe über drei Jahre mit ein.

Frage: Daily Caller

"Aktionen zur Subvention von Global-Warming-Programmen wurden vor vier Jahren auf Vorschlag von George Soros gestartet, "heißt es in einem durchgesickerten OSI-Memo:

"Es gibt ein Budget von 11 Millionen Dollar an Zuschüssen für US-Programme zur globalen Erwärmung in den letzten Jahren. Dieser Haushaltsposten umfasst George Soros‘ Engagement von 10 Millionen Dollar pro Jahr für drei Jahre an Al Gores Alliance zum Klimaschutz. Dies schließt die Schaffung von politischen Freiraum für aggressive US-Aktionen mit ein, im Rahmen der öffentlichen Bildung und im Einklang mit dem, was Wissenschaftler für notwendig erachten, um unsere Nation auf den Weg zu bringen, seine überdimensionale Kohlendioxid-Emissionen zu reduzieren."

Antwort: Daily Caller

Es ist unklar, in welchem Jahr das Memo verfasst wurde, aber Gore mitbegründet Alliance for Climate Protection (ACP) wurde 2006 gegründet und dauerte, bis sie das Klima Reality-Projekt im Juli 2011 wurde. Im Jahr 2008 wurde, startete die Allianz eine 300 Millionen Dollar Kampagne, um Amerikaner zu ermutigen, „sich für aggressive Senkung der Treibhausgasemissionen einzusetzen" berichtet The Washington Post.

ACP erhielt 10 Millionen Dollar im Jahr 2008 von der Open Society Institute (OSI), nach eingereichten dem Steuerunterlagen der gemeinnützigen Organisation. OSI übergab weitere 5 Millionen Dollar an die ACP im Jahr 2009, ebenfalls nach ihrer Steuererklärung. Der Untersuchungsbericht der Gruppe ProPublica enthält eine Datenbank, das die Steuerrückzahlung an OSI von 2000 bis 2013 enthält. The Daily Caller konnte keine anderen Jahre finden, in denen OSI Geld an ACP gab.

OSI ist in erster Linie eine Zuschuss generierende, gemeinnützige Organisation, die jedes Jahr an meist linksgerichtete Gruppierungen Millionen von Dollar austeilt. Sie wird jetzt Open Society Foundations genannt und hat a von Soros gegründete gemeinnützige Organisation in den letzten drei Jahrzehnten mehr als 13 Milliarden Dollar bewegt.

OSI plante nicht nur die Finanzierung von Gores Klimagruppe um die Politik zur globalen Erwärmung in den USA zu fördern, OSI gab auch Millionen von Dollar zur [korrekten] Ausrichtung der "Jugend Klimabewegung."

Dieses Budget erlaubt auch die Erneuerung der US-Programme zur „langjährigen Unterstützung der Energy Action Coalition, die der Hauptorganisator der Jugendklimabewegung in den USA sind, so das Memo.

"Wir werden auch einen Platzhalter für zusätzliche 2 Millionen Dollar berücksichtigen, zur laufenden Diskussion über die globale Erwärmung, einschließlich der Entwicklung von OSI‘s Agenda. Es gibt eine Notiz von Nancy Youman in der Mappe mit strategischen Plänen, in denen Aktionen für OSI in der Klimafrage empfohlen werden -. In den USA sowie in anderen Teilen der Open Society Network"

Erschienen auf The Daily Caller

Übersetzt durch Andreas Demmig

http://dailycaller.com/2016/08/17/soros-paid-al-gore-millions-to-push-aggressive-us-action-on-global-warming/

Im Internet findet man  viele Nachrichten zu Soros, einfach mal den Namen und auch mal "Bilder" anschauen.

Der MERKEL Plan ist George SOROS Plan für Europa

https://www.youtube.com/watch?v=AYAAanP01O8

Milliardär George Soros: Halb Osteuropa hasst diesen Mann

http://www.spiegel.de/politik/ausland/george-soros-diesen-mann-hasst-halb-osteuropa-a-1078614.html




Die erfundene Katastrophe: Ohne CO2 in die Öko-Diktatur – eine Buchbesprechung

Zur Zeit des real existierenden Sozialismus’ wurde jedermann fortwährend mit Lektionen in Marxismus-Leninismus traktiert. Dieser Tage kommt niemand mehr an der omnipräsenten Frage des vermeintlich menschengemachten Klimawandels vorbei. Der Kampf gegen die angeblich durch CO2-Emissionen erzeugte Erderwärmung trägt – wie der Marxismus – den Charakter einer weltlichen Religion. Und wie es bei Religionen halt so ist: Fakten zählen wenig, wenn der Glaube alles gilt.

Der Autor zieht mit einer Fülle wissenschaftlich gesicherten Materials gegen die Klimareligion zu Felde. Am Ende möchte man nicht glauben, wie hocheffizient der politisch-mediale Komplex sich darauf versteht, mit dem Kampf gegen das CO2 ein Vehikel zu schaffen, das einem einzigen Zweck dient: Der Zementierung und Ausweitung der (Welt-)Herrschaft über die Bürger. Wie zur Zeit des Realsozialismus geht es letztlich um die zentrale Planung und Beherrschung aller Lebensbereiche durch eine erleuchtet Nomenklatura.

Als ob Immanuel Kant niemals gelebt hätte, gilt der Gebrauch des Verstandes plötzlich nichts mehr. Im Gegenteil: Wer kritische Fragen zur Klimareligion stellt, wird ausgegrenzt, verächtlich gemacht – ja mittlerweile sogar mit der Todesstrafe bedroht. Man fühlt sich in jene finsteren Zeiten zurückversetzt, in denen die alleinige Deutungshoheit bei den Geisterbeschwörern lag. Der Diskurs ist tot. Es lebe die Einheitsmeinung!

Nicht wenige Umweltbewegte sind der Meinung, Menschen seien brandgefährliche Schädlinge, die sich gegen die Natur verschworen hätten. Ihre Zahl muss daher – Thomas Malthus lässt freundlich grüßen – drastisch reduziert werden. Der hinter der Tarnkappe des Umweltschutzes hervorblitzende Zynismus ist (etwa im Zusammenhang mit dem weltweiten Bann des DDT, eines einzigartig wirksamen Mittels zur Bekämpfung der Malaria) mitunter haarsträubend.

Weiterlesen auf Amazon. Leseprobe des Buches hier (pdf).

Erschien im Juwelen-Verlag: “Die erfundene Katastrophe: Ohne CO2 in die Öko-DiktaturBeschreibung: http://ir-de.amazon-adsystem.com/e/ir?t=litauischeube-21&l=as2&o=3&a=394582270X” von Günther Vogl.

Beschreibung: http://ir-de.amazon-adsystem.com/e/ir?t=litauischeube-21&l=as2&o=3&a=394582270X




Was bedeutet „verstrahlt“? DER SPIEGEL hat sich geäußert

Was bedeutet „verstrahlt“? DER SPIEGEL hat sich geäußert

Dr. Lutz Niemann

Strahlung, Radioaktivität, Kernenergie, das sind die Schreckenswörter in Deutschland. Die Angst davor hat Deutschland bewogen, auf seine gesicherte Stromversorgung zu verzichten. Jetzt hat der SPIEGEL dazu einen beachtenswerten Bericht mit der Überschrift „Schön verstrahlt“ geschrieben (DER SPIEGEL, 17/2016, S. 106 ff, . In diesem Bericht wurden viele wichtige Dinge angeschnitten, aber obwohl der SPIEGEL als Leitmedium gilt, ist es in der weiteren deutschen Medienlandschaft dazu bisher still geblieben.

Das wichtigste zuerst

Bei dem Unfall von Fukushima wurde ein technisches Gerät zerstört, aber „an der Strahlung des havarierten Atomkraftwerks starb, nach menschlichem Ermessen, bisher kein einziger“. Das ist richtig, und so sagt es auch UNSCEAR, das von der UN eingesetzte wissenschaftliche Gremium in Sachen Strahlung. Durch den Fukushima-Unfall sind auch in Zukunft keine gesundheitlichen Schäden durch Strahlung zu befürchten. Aber es hat dennoch Todesopfer gegeben, der SPIEGEL schreibt: Viele Menschen starben dagegen an den Folgen der weiträumigen Evakuierung. … Kranke wurden aus Intensivstationen abtransportiert, Alte aus ihrem Pflegeheim geholt, … Die vorsichtigste Berechnung geht von mindestens 150 Todesfällen aus. Eine Studie der Standford University kommt auf 600 Evakuierungsopfer … War die vollständige Evakuierung also ein Fehler?“

Offenbar ist in Japan die Strahlenangst schon so groß, daß man Intensivpatienten von den lebenserhaltenden Geräten getrennt hat und so deren Tod billigend in Kauf genommen hat. In den deutschen Fachmedien „StrahlenschutzPRAXIS“ und dem fachlich sehr ausführlichem Bericht der GRS wurde darüber geschrieben, weiterhin aber nur auf privaten Internetseiten, nicht jedoch in anderen großen Print- und elektronischen Medien. Da bleibt die Meldung des SPIEGELs allein als Vorbild.

Die Zahl der StrahlenSCHUTZopfer liegt nach SPIEGEL zwischen 150 und 600. Da in Tschernobyl doppelt so viele Menschen wie in Fukushima evakuiert wurden, kann geschlossen werden, daß es in Tschernobyl etwa doppelt so viele StrahlenSCHUTZopfer wie in Japan gegeben haben kann, also zwischen 300 und 1200. Die Summe von Tschernobyl und Fukushima liegt dann bei 450 bis 1800 Opfer des Strahlenschutzes bei zwei Reaktorunfällen.

Laut UNSCEAR hat die Kerntechnik seit Beginn von 1945 bis 2007 durch Strahlenunfälle insgesamt 147 Todesopfer gekostet, da sind Tschernobyl und Unfälle in der Medizin mit eingeschlossen (z.B. versehentliche Bestrahlungen mit tödlicher Dosis bei der Krebsbehandlung), auch der militärische Bereich in den Anfängen. Die Zahl der IAEA liegt um etwa 20 höher.

Wir kommen damit zu der eigenartigen Erkenntnis, daß der Strahlenschutz viel mehr Todesopfer gefordert hat als die Strahlung. Es ist SCHUTZ vor Strahlenschutzmaßnahmen erforderlich, also ein Strahlenschutz-SCHUTZ.

Es wäre interessant zu wissen, inwieweit in Japan diesen sinnlosen StrahlenSCHUTZopfern gedacht wird, so wie es heutzutage in Deutschland bei tragischen Opfern durch Gewalt üblich geworden ist: Andachten mit Niederlegen von Blumen, Kerzen anzünden, Menschenketten, beten…

Die Dosis macht das Gift, so sagte Paracelsus

Eine hohe Strahlendosis in kurzer Zeit ist schädlich, das ist sicher. Nun macht man bei Strahlung die Annahme, dass auch jede noch so kleine Strahlendosis unabhängig von der Zeit des Einwirkens schädlich sei (LNT-Hypothese, Linear-No-Threshold). Die Unsinnigkeit dieser Annahme ist am Beispiel Alkohol klar erkenntlich: eine Flasche Schnaps in einer halben Stunde hinunter gekippt ist schädlich. Aber die gleiche Alkoholmenge auf lange Zeit verteilt ist nicht schädlich, kleine Alkoholmengen sind anregend für den Kreislauf, machen Lebensfreude, ist eher nützlich als schädlich. So verhält es sich auch bei Strahlung, eine kleine Strahlendosis regt das Immunsystem des Organismus an und hat so verschiedenste biopositive Wirkungen.

Um die hypothetische Gefahr kleinster Strahlendosen glaubhaft zu machen, werden hypothetische Tote berechnet. Je nach dem angenommenen Risikokoeffizienten und je nach Anzahl der Menschen lassen sich so beliebige Zahlen von theoretischen Toten berechnen. Im SPIEGEL wird die Rechenmethode ausführlich erläutert. Solche Rechnungen sind Demagogie, aber sie wirken, denn sie sind einfach und erscheinen plausibel.

Wie ist das zu verstehen?

Zur Begründung der Hypothese, daß jede noch so kleine Strahlendosis schädlich sei, (LNT = Linear-No-Threshold) hat man sich eine Modellvorstellung gemacht: Jedes Strahlenteilchen kann einen Doppelstrangbruch der Erbsubstanz machen und daraus kann sich Krebs entwickeln. Somit ist das Krebsrisiko proportional zur Strahlendosis, und zwar unabhängig von der Zeit.

Heute weiß man, daß Krebs durch eine Fehlsteuerung in Zellzyklus verursacht werden kann, der von den Reparaturmechanismen der Zelle nicht mehr korrigiert werden kann. Strahlung führt in einer Zelle zu einer Vielzahl von Verlagerungen von Bindungselektronen in den Molekülen, die eine Änderung der Chemie bedeuten und die vom Immunsystem wieder zu korrigieren sind. Vermehrte Strahlung gibt einen Anstoß zu zusätzlicher Aktivierung der Reparaturmechanismen, dann können entstandene Fehler vermehrt repariert werden, das ist ein biopositiver Effekt. Die biopositive Wirkung von Strahlung im Niedrigdosisbereich ist nachgewiesen: z.B. durch die Radonheilbäder, der kontaminierten Umgebung von Tschernobyl und Orten mit höherer Bodenstrahlung.

Allerdings ist das Wort StrahlenSCHUTZ gut etabliert im Wortschatz der Menschen Die Erfindung dieses Wortes bedeutet schon Demagogie, denn man muß sich nicht grundsätzlich vor Strahlung schützen, sondern nur vor übermäßig hoher Dosis. Ebenso ist das Wort StrahlenBELASTUNG irreführend, denn Strahlung kann gut oder auch schlecht sein, es hängt von der Dosis ab.

Strahlenschützer contra Strahlenbiologen

Es gibt strenge Gesetze zum Strahlenschutz, und die Strahlenschützer sorgen dafür, dass diese Gesetze eingehalten werden. Das ist der Beruf der Strahlenschützer, dafür werden sie bezahlt. Vielleicht GLAUBEN viele dieser Menschen an die Gefahr jeglicher Strahlung, das kann sein.

Die Strahlenbiologen untersuchen die Wirkung von Strahlung auf Lebewesen und wissen daher, daß im Bereich niedriger Dosis verteilt auf lange Zeit keine schädliche, sondern eine nützliche Wirkung beobachtet wird.

Die Strahlenschützer ignorieren die Erkenntnisse der Strahlenbiologen, in ihren Veröffentlichungen werden deren Arbeiten nicht erwähnt. Die International Commission on Radiological Protection und auch das deutsche Bundesamt für Strahlenschutz nehmen die biopositive Wirkung von Niedrigdosisstrahlung nicht zur Kenntnis. Und da durch die Medien die Strahlenfurcht über Jahrzehnte in den Gehirnen der Menschen eingebrannt wurde, haben die Strahlenschützer in dem Wettstreit gesiegt, zum Nachteil der Menschen, da viele Krankheiten durch ein starkes Immunsystem des Körpers geheilt werden könnten oder schon gar nicht zum Ausbruch kommen.

Der Widerstreit zwischen beiden Lagern kommt in dem Bericht des SPIEGELS zum Ausdruck. Es bleibt zu hoffen, daß weitere Medien sich des Themas annehmen. Die führenden Persönlichkeiten beim Strahlenschutz kennen sich aus, wie aus entsprechenden Beiträgen in der Zeitschrift „StrahlenschutzPRAXIS“ des Fachverbandes Strahlenschutz zu sehen ist

Was zum Bericht des SPIEGELs noch zu ergänzen ist

In Taiwan wurde in Gebäuden Stahl verbaut, der Co-60 enthielt, einen harten gamma-Strahler. Bei den dadurch regelmäßig bestrahlten Bewohnern dieser Gebäude sank die Krebsrate fast auf NULL. Es gibt so einen exzellenten Beweis für die nützliche Ganzkörperbestrahlung beim Menschen, wie er durch Bodenstrahlung oder Höhenstrahlung unmöglich ist. Dieses Ereignis ist aus der Sicht der Strahlenschützer als Panne zu sehen, weil es verboten ist. Aber aus der Sicht der Strahlenbiologen ist es ein unschätzbares Glück, sofern die richtigen Konsequenzen daraus gezogen werden.

In Deutschland liegt die Krebsmortalität bei etwa 200 000 Opfern im Jahr. Die Krebsinzidenz wird auf 460 000 Fälle im Jahr geschätzt. Jeder zweite in Deutschland wird irgendwann die Diagnose Krebs zu hören bekommen.

Das Co-60-Ereignis von Taiwan lässt hoffen, daß allein in Deutschland mindestens 200 000 Personen im Jahr der Schrecken der Diagnose „KREBS“ erspart werden könnte, wenn die Gesetze es erlauben würden, die Menschen einer regelmäßigen Bestrahlung durch harte Gammas auszusetzen. Sehr viele Menschen könnten profitieren, es ist lohnend, sich dafür einzusetzen.

Natürlich gibt es auch Folgen für die Kernkraftwerke, ein Ausstieg aus dieser Technik ist falsch. Kerntechnik ist KEINE Risikotechnik. Viele der Aktivitäten in den Kernkraftwerken dienen dem Vermeiden von Strahlenexposition. Das ist nicht nur überflüssig, sondern sogar schädlich, weil den Menschen eine Strahlendosis verweigert wird, die ihrer Gesundheit förderlich wäre. Es lässt sich abschätzen, daß durch die frei gesetzte Radioaktivität in Fukushima einige tausend Menschen gesundheitlich profitiert hätten, wenn man sie NICHT evakuiert hätte.

Was ist zu tun?

Das LNT-Konzept des Strahlenschutzes und das daraus folgende ALARA-Prinzip (As Low As Reasonably Archievable = Strahlung nach Möglichkeit vermeiden) sollte aufgegeben werden. In 2015 wurde von den drei Herren Carol S. Marcus, Mark L. Miller und Mohan Doss an die US-Genehmigungsbehörde NRC (Nuclear Regulatory Commission) eine entsprechende Petition gestellt. Die Antwort der Leute vom NRC lässt erkennen, daß Problematik durchaus erkannt ist. Jedoch wurde die Petition abgewiesen mit der Begründung, daß zuerst die Strahlenschutzorganisationen ICRP, (International Commission on Radiological Protection) und NCRP (National Council on Radiation Protection and Measurements) gefordert sind.

In Deutschland besteht dazu keine Hoffnung, denn das Bundesamt für Strahlendschutz befindet sich unter politischer Leitung. Im Jahre 2010 erteilte es mehrere Forschungsaufträge zum Nachweis der Schädlichkeit von Niedrigdosisstrahlung, das gewünschte Ergebnis wurde im Forschungsauftrag schon mitgeteilt.

Es bleibt die Aufforderung an weitere Medien und an im Rampenlicht stehende Persönlichkeiten, der lobenswerten Aktion des SPIEGELs zu folgen, und sachliche Aufklärung zum Thema zu machen. Dazu gibt es sehr viel englisch sprachige Literatur, z.B. die Zeitschrift dose-response (oder ein Buch hier). In Deutschland gibt es Internetseiten von privaten Vereinen, nur sie sind unabhängig und müssen nicht falschen Gesetzen gehorchen:

www.buerger-fuer-technik.de, www.nukeklaus.de, www.fortschrittinfreiheit.de, www.nuklearia.de, www.ke-research.de