1

Trinkstationen gegen den Klimawandel

Gäbe es nicht die Informationsseite zu Klima und Energie [3] und einen EIKE-Unterstützungsautor, der es sich zur Klimakasteiung ab und zu antut, dort hineinzusehen, hätten viele EIKE-Leser sicher nie etwas über diesen Meilenstein in der Klima-Stadtertüchtigung erfahren:
KLIMARETTER.INFO, 26. September: Trinkstationen gegen den Klimawandel
Das Berliner Projekt Kiezklima hat Bürger befragt, wie sie mit extremer Hitze in der Stadt umgehen. Herausgekommen sind überraschend gute Ideen für die Anpassung von Städten an den Klimawandel

Unsere Städte werden zu lebensgefährlichen Klimafallen …

KLIMARETTER.INFO: [1] Großstädte sind Wärmeinseln – und das kann gefährlich sein. In Berlin zum Beispiel, Deutschlands größter Stadt, sterben pro Jahr 700 bis 800 Menschen zusätzlich während Hitzewellen. Vor allem ältere und kranke Menschen sind gefährdet. Und die Zahlen dürften steigen, denn Klimaforscher erwarten für den Raum Berlin-Brandenburg, dass sich die jährliche Zahl heißer Tage mit über 30 Grad Celsius in diesem Jahrhundert vervierfachen und die der Tropennächte, in denen die Temperatur nicht unter 20 Grad fällt, sogar verfünffachen wird. Nicht nur in Dachgeschoss-Wohnungen könnte es für die Bewohner dann sehr ungemütlich bis lebensgefährlich werden.

… wovon die Natur nur nichts weiß

Wie eigentlich immer, wenn „Klimaforscher“ in den schlimmsten Farben ausmalen, lohnt es sich bei solchen Aussagen, die Messwerte aus der Natur zu „befragen“.
Wie Bild 1 zeigt, wurden die Sommertemperaturen seit dem Hoch kurz nach 1990 wieder niedriger und sind aktuell nicht höher als im Jahr 1911. Kein Wunder, dass die Zukunftsprojektionen schon aktuell meistens danebenliegen und für das Jahr 2100 eine Spanne von 6 Grad „bieten“, aus der sich jeder Klimafachmann das Gewünschte heraussuchen darf.

Bild 1 Berlin-Brandenburg, Verlauf der Sommertemperatur seit 1960. Mit Zufügungen vom Autor. Quelle: DWD Klimaatlas

Die „heißen Tage“ nahmen seit 1990 zu- Ein stetiger Trend zu „immer mehr“ ist aber nicht zu sehen.

Bild 2 Berlin-Brandenburg, Verlauf der „heißen Tage“ im Sommer seit 1960. Quelle: DWD norddeutscher Klimamonitor

Auch Tropennächte, welche „lebensgefährlich“ werden, zeigen keinen ansteigenden Trend, nur, dass diese Anzahl schon in den 70er Jahren von der heutigen Rentnergeneration „überlebt“ wurde.

Bild 3 Berlin-Brandenburg, Verlauf der „tropischen Nächte“ im Sommer seit 1960. Quelle: DWD norddeutscher Klimamonitor

In Deutschland ist es vor allem heiß, wenn es nicht regnet. Doch die Länge der Trockenperioden nimmt auch nicht zu.

Bild 4 Berlin-Brandenburg, Verlauf der „längsten Trockenperioden“ im Sommer seit 1960. Quelle: DWD norddeutscher Klimamonitor

Nur die Winter werden nicht mehr ganz so kalt. Fast könnte man sagen: Winter, wie bis zum ersten Weltkrieg schon einmal waren und ohne die folgenden, schlimmen Kältewellen bis 1970, als die Klimaforscher entnervt die kommende Eiszeit ausgerufen hatten.
Nachdem die „Alten“ jedoch entgegen den Angaben von Klimaretter weiterhin vorwiegend bei Kälte sterben:
EIKE 21.07.2015: Ruhestand im Süden kann tödlich sein – Wetterdienst glaubt Klimawandel tötet alte Menschen
ist auch das positiv und erspart sicher einigen Senioren, in den warmen Süden ziehen zu wollen, wo sie nach der Klimawandel-Zunft unweigerlich an Hitze noch frühzeitiger zu sterben hätten.

Bild 5 Berlin-Brandenburg, Verlauf der Wintertemperatur seit 1960. Vom Autor ergänzt. Quelle: DWD Klimaatlas

Der Stadtteil erwärmt sich um bis zu 10°C gegenüber dem Umland

Ein Umstand, den alle Großstädte haben und gegen dessen Größe jeglicher, denkbare Einfluss eines sich stetig wandelnden Klimas vollkommen in den Hintergrund tritt.
Berlin-Brandenburg hatte seit 1880 ca. +1,5 Grad Temperaturerhöhung. Davon sind angeblich 50 % vom Menschen verursacht, wären demnach CO2-bedingt maximal +0,75 Grad in fast 140 Jahren. Gegen den städtischen Wärmeinseleffekt von +10 Grad ist das nichts.
Für städtische Verwaltungen jedoch kein Grund, den minimalen Effekt nicht durch CO2-Minderung mit Unsummen an Steuergeldern „bekämpfen“ zu wollen:
EIKE 24.09.3017: [4] Ganz(?) München steht Kopf, denn die Stadt verfehlt ihre Ziele beim Kampf gegen den Klimawandel
EIKE 25.04.2017: [5] Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr (Berlin)
und viele, langwierige und teure Studien aufzusetzen:
KLIMARETTER.INFO: [1] … In dem bundesweit einmaligen Forschungsprojekt „Kiezklima“ wurde in den vergangenen drei Jahren untersucht, wie das Leben unter Klimawandel-Bedingungen verbessert werden kann … „Hier im Brunnenviertel wird es im Sommer bis zu zehn Grad heißer als im Berliner Umland„, sagt Eva Wiesemann von der privaten List-Stadtentwicklungsgesellschaft, die das vom Bundesumweltministerium geförderte Projekt zusammen mit sechs weiteren Partnern seit 2014 durchgeführt hat

Die Bewohner selbst spüren zwar nichts vom Klimawandel. Doch wenn man ihnen davon erzählt, erinnern sie sich, dass sie schon mal unkonzentriert waren…

Auch Berlin scheint das Problem zu haben, dass die Bewohner „klimadumm“ sind und erst durch „Fachpersonen“ darauf gestoßen werden müssen. Vergleichbar vielen Südsee-Atollbewohnern, die erst nach den „Einweisungen“ von NGOs und der Kenntnis um Klimaschutzgelder [6] darauf kamen, dass ihre Inseln untergehen.
KLIMARETTER.INFO: [1] … Wiesemann musste viel Aufklärungsarbeit leisten. „Wenn man die Leute fragt, ob sie etwas vom Klimawandel spüren, sagen sie meist: Nein„, erzählt sie. Doch wenn die Fragen konkret wurden, wenn die List-Mitarbeiterin zum Beispiel wissen wollte, wie die Bewohner in den Hitzeperioden zurechtkommen, sei das ganz anders gewesen. Sehr heiß sei es gewesen, hätten sie berichtet, man könne sich nicht gut konzentrieren, und viele Menschen fänden in den heißen Nächten kaum Schlaf.

Die Klima-Vulnerabilitätsforschung zeigt Erfolge und Lösungen, welche bisher niemand kannte

KLIMARETTER.INFO: [1] … Außerdem konnte Wiesemann Geschäfte im Viertel dafür gewinnen, ein Netz von „Trinkstationen“ aufzubauen, an denen man kostenlos ein Glas kaltes Wasser bekommen kann. Und seit Anfang des Sommers gibt es einen öffentlichen Trinkbrunnen auf dem Vinetaplatz mitten im Quartier, ein zweiter steht am Bahnhof Gesundbrunnen.

Ohne umfassendes Klimamanagement ist ein Stadtteil heutzutage praktisch hilflos …

Immer neu bestätigt sich die Überzeugung des Autors, dass „der Klimawandel“ im Wesentlichen eine weltweit angelegte Arbeitsbeschaffungsmaßnahme für die sonst nicht verwendbare Akademikerschwemme ist.
KLIMARETTER.INFO: [1] Vorbild für Klimaanpassung
„Kiezklima“ arbeitet seit 2014 an einer Beteiligung der Bürger für den Aus- und Umbau des Berliner Brunnenviertels. Das Projekt erhebt Klimadaten, schlägt Anpassungsmaßnahmen etwa für Hitzewellen vor und bezieht die Anwohner in die Planungen ein. Das Viertel im Zentrum der Hauptstadt ist so zu einem „Modellgebiet für Klimaanpassungsmaßnahmen“ geworden. Dazu gehören auch die „Brunnengärten“. Im vergangenen Jahr zeichnete das Umweltbundesamt das Projekt mit dem „Blauen Kompass“ aus. In diesem Jahr ist es für den ZeitzeicheN-Preis für lokale Nachhaltigkeitsinitiativen nominiert

Bild 6 Projektpartner „Kiezklima“

… wer käme sonst auf die Idee, gegen den Klimawandel in Hochbeeten Gemüse- und Gartenkräuter anzubauen

Dazu natürlich auch die wohl in Vergessenheit geratene Kenntnis, dass Beschattung gegen Sonnenstrahlung schützen kann.
KLIMARETTER.INFO: [1] Wohnhof bekommt Sonnensegel
Eine ganze Reihe Ideen sind in dem Kiezklima-Projekt gesammelt worden. Einige davon wurden schon in die Tat umgesetzt. So wurden in einem der Innenhöfe der Wohnblöcke der kooperierenden Berliner Wohnungsbaugesellschaft Degewo Hochbeete angelegt, in denen Mieter Gemüse und Gartenkräuter anbauen.

Mit Klimawandel hat das alles jedoch nichts zu tun, eher mit dem Unvermögen der bisherigen Verwaltung

Im Gegensatz zur Redaktion von Klimaetter kann der Autor nicht erkennen, dass ein sich stetig veränderndes Klima Anlass für solche Ma0nahmen geben könnte. Zumindest die Klimadaten geben dafür keinerlei Anhaltspunkt.
Sollten sich in diesem Wohnviertel wirklich herausstellen, dass Wohnungen bei bestimmten Wetterlagen „lebensgefährlich“ sind, sollte man vielleicht die Bausubstanzen und Isolierungen überprüfen und den zuständigen Aufsichtsbehörden und Vermietern gehörig „die Ohren langziehen“. Lösungen wie beim Auto, welche es inzwischen mit Klimaanlagen gibt, weil niemand mehr wie früher im Sommer ohne fahren will, wären denkbar. Zumindest käme der Autor ohne eine langwierige und teure Untersuchung darauf.
Nun handelt es sich laut dem Bericht wohl um einen Problemstadtteil [1]: „ …viele Sozialwohnungen, haben zu zwei Dritteln einen Migrationshintergrund …“.
Dies legt die Vermutung nahe, dass man Sanierungsanalysen und Stadtteilarbeit unter dem Deckmantel „Klima“ finanzieren lies, weil für vernünftige Direkt-Maßnahmen keine Fördermittel genehmigt wurden. Den „Ideologieschwund“ und übertriebenen Aufwand, sowie sinnlose Zusatzmaßnahmen nahm man wohl in Kauf.
Ob dieses Vorgehen wirklich so richtungsweisend ist, wie es die Redaktion von Klimaretter darstellt, wagt der Autor zu bezweifeln.
Vielleicht nehmen es aber die Stadtverwaltungen der noch viel „lebensgefährlicheren“ Städte im Rheingraben und schönen Freiburg zum Anlass, die Bewohner vorsorglich bis zur Gefahrenklärung „auszulagern“, wie es bei den wärmegedämmten Hochhäusern schon passiert ist.
In Freiburg waren es im Sommer immerhin zwei Grad mehr Hitze, während in Berlin-Brandenburg die Sommer-Mitteltemperatur seit 1880 um ca. 1,5 °C gestiegen ist.

Bild 7 Sommertemperaturverlauf 2017 Freiburg Flugplatz und Berlin-Tegel. Quelle: wetteronline

Nach der in Freiburg bereits erfolgten „Klimazeitreise“ von über 200 Jahren müsste die schöne und beliebte Stadt eigentlich schon den Klimatod gestorben sein.

Welch ein Glück, dass es ausreicht, erst in der fernen Zukunft mit dem „Klimaschutz“ anzufangen und den „Werkzeugkasten“ zu füllen, der sich anscheinend vorwiegend um Förderprogramme und Finanzierungsfragen kümmert.

Bild 8 Screenshot Quelle: FWTM Freiburg

Weiterbildung „Kommunales Energie- und Klimaschutzmanagement“
15. Januar 2016 – 16. Juli 2016, berufsbegleitend
FWTM:
Durchgeführt von fesa e.V. in Kooperation mit dem Institut für Fortbildung und Projektmanagement ifpro
In 13 kompakten Modulen vom 15. Januar bis zum 16. Juli 2016 füllen die künftigen Klimaschutzmanager und andere regional Klimaschutzaktive ihren Werkzeugkasten mit allem, was es für die Umsetzung der Energiewende vor Ort braucht: Vom Kontext und den Grundlagen kommunalen Klimaschutzes geht es über die rechtlichen Rahmenbedingungen bis zu Förderprogrammen und Finanzierung. Der Kurs beinhaltet ebenso Basiswissen über Erneuerbare Energien, Kraft-Wärme-Kopplung und Wärmenetze wie Informationen zu Energieeffizienz und Energiemanagement in kommunalen Liegenschaften. Weitere Themenfelder sind Öffentlichkeitsarbeit und Bürgerbeteiligung. Abgerundet und auf Praxisnähe zugeschnitten wird die Fortbildung durch eine Einführung in das Projektmanagement, das die Teilnehmerinnen und Teilnehmer dann auch im Rahmen eigener, kursbegleitender Projektarbeiten vertiefen und verfestigen.

Quellen

[1] KLIMARETTER.INFO 26. September 2017: Trinkstationen gegen den Klimawandel

[2] Kiezklima, Homepage

[3] EIKE 25. September 2017 : Das Interview!

[4] EIKE 24.09.3017: Ganz(?) München steht Kopf, denn die Stadt verfehlt ihre Ziele beim Kampf gegen den Klimawandel

[5] EIKE 25.04.2017: Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr

[6] EIKE 14.12.2015 (Tel 2 … 3): Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang




Facetten der Mathematik

Die Ägypter besaßen eine hochentwickelte Mathematik und Geometrie, sonst hätten sie nie und nimmer die Pyramiden berechnen und bauen können. Mit dem „Papyrus Rhind“ (aufbewahrt im Britischen Museum) haben sie uns gewissermaßen ein Buch zur Mathematik hinterlassen, in dem sogar x-Gleichungen vermerkt sind. Die wichtigste Schule der Mathematik befand sich jedoch um 350 v. Chr. in Alexandria. Das Genie Euklid, von dessen Leben wir fast nichts wissen, war der Begründer einer Schule, welche das berühmte Lehrbuch „Die Elemente“ herausgebracht hat.

Klassischerweise unterscheidet man in der Mathematik vier große Disziplinen: Geometrie, Algebra, Analysis und Stochastik. (Heute würden wir noch die Logik und die Topologie benennen.) Die Geometrie ist die Lehre des umgebenden Raumes mit Punkten, Geraden, Vierecken und Kreisen etc. Sie hatte ihre Blütezeit in der griechischen Antike. Bei der Algebra studiert man die Zahlen und ihre Eigenschaften, z. B. die Primzahlen. Die Analysis ist die Differential- und Integralrechnung und die Stochastik die Lehre vom Zufall.

Null – Eins – Unendlich

Die Erfindung der Null („0“) war eine Großtat, ähnlich wie die Erfindung des Rads. Vor gut tausend Jahren tauchte sie erstmals auf einem Tempel in Indien auf; um 1.200 n.Chr. war sie auch in Westeuropa angekommen. Manchmal entsteht ein Streit um das Vorzeichen der 0. Nun, der ist überflüssig, denn die 0 kann man sowohl mit einem plus-Zeichen, als auch mit einem minus-Zeichen versehen. Also: +0 oder -0 ist egal.— Anders verhält es sich bei der Frage, ob die 0 eine gerade Zahl (wie beispielsweise 4) oder eine ungerade Zahl (wie 5) ist. Nun, die Mathematiker sehen die 0 als eine gerade Zahl an, denn sie lässt sich zwei Mal auf 0 aufteilen: 0+0 ist wiederum 0.

Die natürliche Zahl 1 kennt jeder. Sie verleitet uns dazu immer weiter zu zählen, also: 1, 2, 3… bis in das Unendliche, welches die Mathematiker sich als (unbeweisbares) Axiom vorstellen. Mit dem Begriff „unendlich“ (geschrieben als liegende acht) lässt sich trefflich spielen, z. B. beim Bruchrechnen. So geht die Summe der unendlichen Bruchreihe 1/2 + 1/3 + 1/4 + 1/5 … = ∞

Sie geht also über alle Grenzen hinweg, bis ins Unendliche.
Demgegenüber ist die Summe der nur leicht veränderten Bruchreihe

1/2 + 1/4 + 1/8 + 1/16….= 1.

Die erste Reihe divergiert ins Unendliche,  die zweite konvergiert zu 1.

Ein Teilbereich der natürlichen Zahlen sind die Primzahlen; sie sind größer als 1 und nur durch 1 und sich selbst teilbar. Die ersten Primzahlen sind: 2, 3, 5, 7, 11, 13, 17, 19… Die Primzahlen haben eine große Bedeutung in der Verschlüsselungstechnik bei Großrechnern. Fakt ist, dass es unendlich viele Primzahlen gibt, aber dass (leider) keine Formel existiert, sie zu berechnen.

Mit dem Begriff ∞ man sich verrückte Sachen ausdenken. Eine Anwendung ist das sog.“Hilbert Hotel“, das im vorigen Jahrhundert von dem deutschen Mathematiker David Hilbert vorgestellt wurde. Er dachte sich ein Hotel aus mit unendlich vielen Zimmern, welche die Nummern 1, 2, 3… bis ∞ trugen. Alle Zimmer dieses Hotels sind belegt, aber nun taucht ein weiterer Gast auf, der Einlass begehrt. Für Hilbert ist dies kein Problem. Er bittet den (bisherigen) Gast in Zimmer 1 ins Zimmer 2 zu wechseln, den Gast in Zimmer 2 ins Zimmer 3 usf. bis ins Unendliche. Dadurch haben alle bisherigen Gäste wieder ein Zimmer – und der neue Gast kann in Zimmer 1 einziehen. Mathematisch gesprochen funktioniert dies, weil ∞ + 1 = ∞ ist.

 

Berühmte Mathematiker

Geniale Mathematiker gab es in den vergangenen zweieinhalbtausend Jahren in großer Zahl. Unter den noch Lebenden ist der Brite Andrew Wiles zu nennen, dem es gelang, eine vierhundert Jahre alte Behauptung des Franzosen Pierre de Fermat zu beweisen. Der sog. Fermat´sche Satz lautet vereinfacht: „Es ist unmöglich, einen Würfel exakt in zwei gleiche, kleinere Würfel zu zerlegen“. Klingt simpel, aber Wiles schuftete – im geheimen – volle sieben Jahre an der Lösung, die mehr als hundert Schreibmaschinenseiten umfasste. Danach genoss er seinen Ruhm in vollen Zügen.

Ein gegensätzlicher Charaktertyp war der (ebenfalls noch lebende) Russe Grigori Perelmann. Er bewies 2003 die sog. Poincaré-Vermutung. Sie besagt (vereinfacht), dass der vierdimensionale Raum in etwa so ähnlich ist, wie der uns zugängliche dreidimensionale. Noch mehr vereinfacht behauptet der Satz, dass jedes geometrische Objekt, welches kein Loch hat, in eine Kugel überführt werden kann. Trotz (oder wegen?) des Presserummels lehnte Perelmann nach der erfolgreichen Lösung jede Ehrung ab – auch den Millionenpreis einer amerikanischen Universität. Er kündigte sogar seine Stellung im Moskauer Forschungsinstitut und ist seitdem untergetaucht.

Keiner der beiden hat sich für den Nobelpreis qualifiziert, denn diese Auszeichnung gibt es nur in den Sparten Physik, Chemie, Medizin, Literatur und Frieden. Warum der schwerreiche Stifter AlfredNobel die Mathematik ausgelassen hat, dafür gibt es eine Legende: angeblich hatte der damals bekannteste schwedische Mathematiker, Gösta Mittag-Leffler (1846 – 1927), ein Verhältnis mit Nobels Frau, weswegen Nobel in seinem Testament, quasi aus Rache, keinen Preis für Mathematiker auslobte. Gegen diese Legende spricht allerdings die Tatsache, dass Alfred Nobel nie verheiratet war. Aber vielleicht hatte er eine attraktive Geliebte?!

Um diese offensichtliche Vakanz zu füllen, gibt es seit einiger Zeit die sog. Fields-Medaille. Sie wird alle vier Jahre an zwei bis max. vier Mathematiker – die jünger als 40 Jahre sein müssen! – für herausragende Entdeckungen in ihrem Gebiet vergeben. Damit ist ein bescheidenes Preisgeld von 15.000 kanadischen Dollars verbunden.

Geniale, aber nicht mehr lebende, Mathematiker des vorigen Jahrhunderts waren u. a. David Hilbert (1867 – 1943) und Kurt Gödel (1906 – 1978). Hilbert listete im Jahr 1900 in einer berühmten Rede 23 bedeutende, aber ungelöste Probleme der Mathematik auf. Von diesen ist in der Zwischenzeit ein Gutteil gelöst, entsprechend der alten Weisheit: „Durch Intuition entdeckt man, durch Wissenschaft beweist man“. Unter Hilberts Problemen war auch der Gödelsche Unvollständigkeitssatz, eine der wichtigsten Behauptungen der modernen Logik. Er besagt, dass man nicht alle Aussagen der Mathematik formal beweisen kann, womit er diese Wissenschaft in beträchtliche Nöte brachte.

Erstaunen mag, dass unter diesen Geistesheroen Albert Einstein (1879 – 1955), der Entdecker zweier Relativitätstheorien fehlt. Aber Einstein war in erster Linie ein genialer (theoretischer) Physiker. Auf dem Gebiet der Mathematik war er eher schwach – nach eigener Einschätzung!

Gehen wir weiter in die Vergangenheit zurück, dann treffen wir auf hervorragende Mathematiker wie Leonhard Euler (1707 – 1783), Carl Friedrich Gauß (1777 – 1855), Gottfried Wilhelm Leibniz (1646 – 1716) und Isaac Newton(1642 – 1726).

In der griechisch-römischen Antike ragen heraus: Thales von Milet, der um das Jahr 600 v. Chr. gelebt hat, Pythagoras von Samos (um 550 v. Chr.) und Euklid von Alexandria (um 350 v. Chr.). Der Allergrößte unter diesen antiken Genies war wohl Archimedes von Syrakus (um 250 v. Chr.). Er berechnete als Erster die Kreiszahl π und leiste auch als Physiker und Ingenieur Bedeutendes.
Pythagoras hat den nach ihm benannten Satz erstmals bewiesen; benutzt wurde er bereits von den Babyloniern. Seitdem gibt es für ihn mehr als 300 Beweise.

Archimedes

Schöne Formeln

In der Mathematik gibt es Tausende, ja Millionen von Formeln und Gleichungen. Kein Wunder, dass manche besonders „schön“ anmuten. Nach allgemeiner Ansicht gebührt die Krone der sog. Eulerschen Formel:


In dieser einfachen Beziehung kommen fünf wichtige Zahlen der Mathematik vor,
nämlich 0, 1, die Kreiszahl π, die Eulersche Zahl e und die imaginäre Einheit i.
Eine sonderliche Bedeutung für die Anwendung hat diese Formel nicht, sie ist nur einfach „schön“.

Besser für die Anwendung geeignet ist eine andere schöne Formel, die ebenfalls von Euler ist und aus dem Gebiet der Geometrie stammt. Sie lautet:

e – k + f = 2

Es ist die Eulersche Polyederformel, wobei Polyeder Vielflächner sind wie Würfel, Pyramiden – oder Fußbälle. Nicht jedoch, wohlgemerkt, die Kugel. Dabei bedeutet e die Anzahl der Ecken, k die Anzahl der Kanten und f die Anzahl der Flächen. Nehmen wir den Würfel als Beispiel. Er hat 8 Ecken (e), 12 Kanten (k), und 6 Flächen (f). Eingesetzt in die Polyederformel ergibt sich: 8-12+6=2.

Ein anderer, allen bekannter Polyeder ist der klassische Fußball. Er besteht in der Regel aus 12 (schwarzen) Fünfecken und 20 (weissen) Sechsecken, also insgesamt 32 Flächen (f). Durch Nachzählen kommt man auf 60 Ecken. Die Zahl der Kanten kann man aus der Formel errechnen:

60 + 32 – 2 = 90 Kanten.

Nach dieser vorbereitenden Tätigkeit ist Bayern München bereit zum Angriff:

Toooor!!
Übernommen vom Rentnerblog hier



Fukushima: Schuldige werden gesucht

Als am 11. März 2011, einem Freitag Nachmittag um 14 Uhr 46 (japanischer Zeit), ein Seebeben der Magnitude 9,0 die vier Kernkraftwerke im Ortsteil Daiichi durchrüttelte, war die Welt, vergleichsweise, noch in Ordnung. Drei Reaktoren schalteten sich selbstständig ab, der vierte war wegen Wartungsarbeiten gar nicht in Betrieb. Die elektrische Stromversorgung des umliegenden Netzes war zwar ausgefallen, aber die für solche Fälle bereitstehenden Diesel sprangen automatisch an und sicherten die Kühlung der Reaktorkerne mit Wasser.

Eine Stunde später traf ein Tsunami von 14 Metern Höhe ein und überschwemmte den nur 5,7 Meter hohen Schutzwall sowie alle Dieselaggregate, die im Keller angeordnet waren.. Die Notstromversorgung kam zum Erliegen und die Urankerne der Reaktoren heizten sich wegen der weiterhin generierten Nachwärme stetig auf. Der erzeugte heiße Wasserdampf reagierte chemisch mit dem Zirkonmetall der Brennstabhüllen unter Freisetzung von Wasserstoff. Einen Tag danach kam es beim Reaktor Fukushima 1 (später bei den Reaktoren 2 und 3) zu einer heftigen Knallgasexplosion, welche das Reaktorgebäude massiv beschädigte und undicht machte. Die Urankerne waren inzwischen ganz oder teilweise geschmolzen und führten zur Freilassung der radioaktiven Gase Jod, Cäsium und Strontium in die Umgebung. Hier setzt die Kritik ein, die man unseren japanischen Freunden nicht ersparen kann.

Chaos bei der Konzernzentrale TEPCO in Tokio

Im Hauptquartier der Betreibergesellschaft TEPCO („The Tokyo Electric Power Company“) in Tokio war man über die bedrohliche Situation im 300 Kilometer entfernten Fukushima sehr wohl unterrichtet. Aber in den wichtigen Stunden nach dem Ausfall der Diesel-Notkühlung wurde dort viel Zeit verschwendet und es wurden eine Reihe falscher Entscheidungen getroffen. Statt mobile Notstromgeneratoren und Pumpen schnellstens per Hubschrauber aus Tokio heranzuschaffen, ließ man die vergleichsweise schwachen betrieblichen Batterien  leerlaufen. Die Manager bei Tepco in Tokio waren nicht in der Lage, die Betriebsleute vor Ort wirkungsvoll zu unterstützen. Zur gleichen Zeit offerierte die US-Regierung – welche die Gefährlichkeit der Lage von Anfang an richtig einschätzte – der japanischen Regierung ihre sofortige Hilfe. Aus militärischen Beständen auf den japanischen Stützpunkten wären Pumpenwägen, unbemannte Drohnen und Messroboter zur Verfügung gestellt worden. Doch der japanische Ministerpräsident Naoto Kan lehnte höflich ab; ein Asiate will eben sein Gesicht nicht verlieren.Auch zwischen Tepco und dem Regierungschef funktionierte die Kommunikation nicht. Als Kan die Konzernmanager am Tag nach dem Störfall zur Berichterstattung empfing, erzählten ihm diese alles Mögliche – nur nicht, dass es wenige Stunden vorher bei Block 1 zu einer Wasserstoffexplosion gekommen war. Der Ministerpräsident erfuhr das erst nach der Sitzung von den Presseleuten und war entsprechend wütend. Beispielhaft für die verspätete und lückenhafte Informationspolitik der Tepco ist weiterhin, dass der Konzern die japanische Öffentlichkeit erst Mitte Mai – also volle zwei Monate nach Beginn des Unglücks – darüber unterrichtete, dass in allen drei Reaktoren die Urankerne zumindest angeschmolzen waren.

Ein Drama für sich war die Entscheidung zum Bespritzen der Reaktorkomponenten mit Meerwasser aus Feuerwehrschläuchen. Der Anlagenleiter Masao Yoshoda forderte die Genehmigung für diese Maßnahme von seinen Chefs in Tokio an, insbesondere um die hochgefährdeten Reaktortanks sowie die innenliegenden Brennelemente abzukühlen. Die Manager bei Tepco sträubten sich längere Zeit dagegen, gaben aber schließlich doch die Zustimmung – um sie 21 Minuten später wieder zurückzuziehen. Angeblich hatte man „aus der Umgebung des Ministerpräsidenten gehört“, dass dieser ebenfalls dagegen sei. Das war jedoch nur vorgeschoben. In Wirklichkeit wusste die Tepco-Zentrale,  dass nach dem Einpumpen des korrosiven Meerwassers die Kernkraftwerke „kaputt“ sein würden. Den Anlagenchef im fernen Fukushima focht dies jedoch nicht an. Geradezu einmalig für japanische Verhältnisse ignorierte er den Stopp-Befehl aus Tokio und besprühte weiterhin seine Reaktoren mit Meerwasser. Auch der Anweisung „zum Verlassen der Anlage“ kam er nicht nach. Dabei hatte er die Unterstützung des Ministerpräsidenten, der darin ein „unheilvolles Fanal“ gesehen hätte. Ein Kapitän verlässt eben nicht seine Brücke.

Späte Anklage

Erst sechs Jahre nach dem Unglück von Fukushima wurde gerichtlich Anklage erhoben. Vorher hatte es die Staatsanwaltschaft von Tokio zwei Mal abgelehnt, die Verantwortlichen vor Gericht zu bringen. Nach ihrer Argumentation sei es unmöglich gewesen, die katastrophalen Abläufe vorher zu sehen, weshalb es auch keine Schuldigen bei dieser Katastrophe gegeben habe. Der Prozess kam schließlich nur aufgrund des selten angewandten Verfahrens zweier „Bürger-Jurys“ zustande, welche die Regierung zu einer Anklage förmlich zwangen.

Es ist das erste strafrechtliche Verfahren in Japan zur Aufarbeitung eines Atomunfalls. Angeklagt ist der 77 Jahre alte frühere Vorstandsvorsitzende Tsunehisa Katsamuta, sowie seine beiden Vizepräsidenten Sakae Muto (66) und Ichiro Takekura (71), allesamt frühere Manager der Betreiberfirma Tepco. Ihnen wird vorgeworfen, ihre dienstlichen Pflichten vernachlässigt zu haben. Unter anderem lastet die Anklage den Managern den Tod von 44 Patienten bei der überhasteten Evakuierung eines Krankenhauses an. Wie in Japan so üblich, verbeugten sich die Angeklagten tief vor Gericht, plädierten aber im Übrigen auf „unschuldig“.

Klar ist, dass das Risiko einer großen Flutwelle im Nordosten Japans lange vor dem Unglück bekannt war. Schon im Jahr 2002 schätzten Fachleute der Regierung in einem Bericht die Wahrscheinlichkeit auf 20 Prozent, dass in den kommenden 30 Jahren ein Erdbeben der Stärke 8 auftreten und einen großen Tsunami auslösen werde. Die entscheidende Frage ist, wer bei Tepco wann von diesem Bericht Kenntnis hatte und warum danach nicht umgehend die Deiche erhöht wurden.

Ausblick

Den drei Angeklagten droht im Maximum eine Haftstrafe von 5 Jahren oder eine Geldstrafe von (umgerechnet) 7.800 Euro. Mit einem Urteil wird nicht vor dem Jahr 2018 gerechnet. Nach Schätzungen von Tepco wird es 30 bis 40 Jahre dauern, bis die Kraftwerksruinen in Fukushima endgültig rückgebaut sind.Derweil setzt die Regierung darauf, dass die nach dem Unfall stillgelegten Kernkraftwerke Schritt für Schritt wieder ans Netz gehen können. Von den 42 Reaktoren, welche nach dem Unglück abgeschaltet wurden, sind bereits 5 wieder  in Betrieb.

Übernommen von Rentnerblog hier




Trotz Abwahl: Bundesumweltministerin bewilligt die ersten 60 Klimaschutz-Nachbarschaftsprojekte

Man tut so als sei nichts gewesen. Man tut so als ob man nicht soeben abgewählt wurde. Man tut so, als könne man weiterhin business as usual betreiben.

Nur so lässt sich die Chuzpe der Bundesumweltminsterin verstehen noch schnell, als nur noch geschäftsführende Ministerin, einige weitere Steuermillionen für „Klimaschutzprojekte“ zu versenken. In einer Pressemitteilung dem BMU vom 26.9.17 heißt es:

Das Bundesumweltministerium hat die ersten 60 Projekte des Förderaufrufs „Kurze Wege für den Klimaschutz“ bewilligt. Dabei setzen die Projekte beim Alltagshandeln der Bürgerinnen und Bürger auf Nachbarschaftsebene an. Sie werden mit rund 4,9 Millionen Euro aus Mitteln der Nationalen Klimaschutzinitiative (NKI) gefördert. Die ausgewählten Projekte sollen zur Umsetzung der Klimaschutzziele der Bundesregierung beitragen, indem sie Rahmenbedingungen für energieeffiziente und ressourcenschonende Lebensstile schaffen.

Bundesumweltministerin Dr. Barbara Hendricks:

„Klimaschutz darf für Bürgerinnen und Bürger keine abstrakte Idee sein, sondern muss mit Leben gefüllt und mit entsprechenden Rahmenbedingungen unterstützt werden. Durch nachbarschaftliche Vorhaben können auf kurzen Wegen nachbarschaftliche Klimaschutzmaßnahmen wirken und Ressourcen eingespart werden. Die praktische Anbindung an die Lebenswelten der Bürgerinnen und Bürger ist dabei unerlässlich.“

Von Aurich bis Nürnberg und Eberswalde bis Freiburg: Die nun startenden Projekte widmen sich insbesondere den Schwerpunkten Mobilität, Ernährung und Konsum sowie Abfall und Recycling. Unter den Projekten sind Mitfahrkonzepte und Radverleihsysteme, urbane Gärten, Repair-Cafés, Stadtgrün und viele nachbarschaftliche Bildungsangebote, die das individuelle Können und Wissen bezogen auf Ernährung, Konsum, Energiesparen, Wiederverwertbarkeit von Gegenständen thematisieren.

Und damit nicht genug. Der Selbstbedienungsladen für „Bürgerinnen und Bürger“ mit noch so abstrusen Ideen für den „Klimaschutz“ bleibt weit offen, den zum Schluss heißt es in der PM

Ein weiteres Förderfenster zur Einreichung von Projektskizzen öffnet vom 1. Mai bis zum 1. Juli 2018.

Ein guter Anlass für die gerade gewählte AfD Fraktion im Deutschen Bundestag, mittels einer großen Anfrage den erwarteten Nutzen in Bezug auf die Erreichung der Pariser Klimaziele aber vor allem den Umfang dieser massiven Verschwendung von Steuermitteln zu erfragen.

Mit Dank an Hartmut Hüne für den Hinweis




Häufig gestellte Fragen 9.1*: Eine Kritik

Im AR 5 des IPCC heißt es unter FAQ 9.1 (Seite 824):

Die Komplexität von Klimamodellen … hat seit dem AR 1 aus dem Jahr 1990 substantiell zugenommen. In dieser Hinsicht sind also gegenwärtige Modelle des Erdsystems deutlich ,besser‘ als die Modelle von damals.

Sie definieren „besser“ explizit als ,komplexer‘. Was die Politiker jedoch wissen müssen ist, ob diese Prophezeiungen präziser und zuverlässiger sind! Das heißt, sind sie überhaupt brauchbar?

Bei FAQ 9.1 heißt es weiter:

Ein wichtiger Gedanke ist, dass die Modellgüte nur evaluiert werden kann relativ zu Beobachtungen aus der Vergangenheit, wobei man die natürliche interne Variabilität berücksichtigen muss.

Dies stimmt nur dann, wenn die Modelle so angepasst werden, dass sie zum Wetter der Vergangenheit passen, besonders hinsichtlich Temperatur und Niederschlag. Allerdings ist dieses Pseudo-Modellverhalten kaum besser als das Anpassen einer Kurve mittels eines Polynoms höherer Ordnung. Was man tun sollte ist, den Verlass auf historische Daten zu minimieren, wobei man eher Grundsätzen folgen sollte als dem, was derzeit gemacht wird, nämlich eine Projektion zu simulieren und dann 5 bis 10 Jahre warten, um abzuschätzen, wie gut die projizierte Vorhersage zu tatsächlichen zukünftigen Temperaturen passt. So wie man es derzeit macht – trotz der Anwendung von Grundsätzen – dürfte es kaum besser sein als die Verwendung eines neuralen ,Black Box‘-Netzwerkes für Vorhersagen wegen der Stützung auf das, was Ingenieure „Toffee-Faktor“ [fudge factors] nennen bei der Anpassung an die Historie.

Weiter bei FAQ 9.1:

Um Vertrauen in die Zukunfts-Projektionen derartiger Modelle zu haben, muss das historische Klima – nebst dessen Variabilität und Änderung – gut simuliert sein.

Offensichtlich ist, dass falls die Modelle das historische Klima nicht gut simulieren man kein Vertrauen in ihre Fähigkeit zu Vorhersagen setzen würde. Allerdings reicht die Anlehnung an die Historie nicht aus, um zu garantieren, dass Projektionen korrekt sind. Polynom-Anpassungen der Daten kann hohe Korrelations-Koeffizienten haben, sind jedoch dafür bekannt, in das Nirwana zu entfleuchen, wenn man über die Datensequenz hinaus extrapoliert. Darum sage ich oben, dass der Wahrheits-Test darin besteht, die Modelle tatsächlich die Zukunft vorhersagen zu lassen. Ein anderes Verfahren, das man anwenden könnte wäre, die Modelle nicht an alle historischen Daten anzupassen, sondern nur an die Daten aus vorindustrieller Zeit oder vor dem Zweiten Weltkrieg. Dann lasse man sie laufen und begutachte, wie gut sie die zweite Hälfte des vorigen Jahrhunderts simulieren.

Eines der Probleme bei der Anpassung an historische Daten ist, dass falls die bestehenden Modelle nicht alle Faktoren enthält, welche das Wetter beeinflussen (und das ist fast mit Sicherheit der Fall), dann wird der Einfluss der fehlenden Parameter ungeeignet durch andere Faktoren approximiert. Das heißt, falls es in der Vergangenheit eine ,Störung beim Forcing‘ unbekannter Natur und Größenordnung gegeben hat und man die Daten entsprechend korrigiert, wäre es erforderlich, die Variablen zu korrigieren, die in dem Modellen enthalten sind. Können wir sicher sein, dass wir alle exogenen Inputs bzgl. Klima ausgemacht haben? Können wir sicher sein, dass alle feedback loops mathematisch korrekt sind?

Unbequemerweise wird in Kasten 9.1 (Seite 750) angemerkt:

Zumindest für ein Modell wurde gezeigt, dass der Anpassungsprozess nicht notwendigerweise einen einzelnen, einheitlichen Satz von Parametern für ein gegebenes Modell ergibt, sondern dass verschiedene Kombinationen von Parametern gleich plausible Modelle ergeben können (Mauritsen et al. 2012)

Diese Modelle sind so komplex, dass es unmöglich ist vorherzusagen, wie eine Unendlichkeit von Parameter-Kombinationen die verschiedenen Outputs beeinflussen könnten.

Die Art der in modernen Daten verfügbaren meteorologischen Details steht für historische Daten nicht zur Verfügung, besonders in der Zeit vor dem 20. Jahrhundert! Folglich würde es eine voreilige Schlussfolgerung sein, dass fehlende Forcing-Informationen auf andere Faktoren übertragen werden, die in den Modellen sind. Klarer beschrieben: wir kennen die Zeitpunkte von fast allen Vulkanausbrüchen in der Vergangenheit. Allerdings kann die Dichte der vulkanischen Asche in der Atmosphäre im besten Falle nur geschätzt werden, während die Dichte von Asche und Aerosolen bei aktuellen Ausbrüchen gemessen werden kann. Historische Eruptionen in dünn bevölkerten Gebieten können auch nur Spekulation sein auf der Grundlage eines plötzlichen Rückgangs der globalen Temperaturen zumindest ein paar Jahre lang. Wir haben lediglich qualitative Schätzungen bzgl. außerordentlicher Ereignisse wie z. B. das Carrington-Ereignis, ein koronaler Massenauswurf im Jahre 1859. Wir können uns nur fragen, was alles eine solche massive Injektion von Energie in die Atmosphäre anrichten kann.

Jüngst wurden Bedenken laut, wie der Ozon-Abbau das Klima beeinflussen könnte. Tatsächlich waren Einige so kühn zu behaupten,, dass das Montreal-Protokoll einen unerwünschten Klimawandel verhindert hat. Wir können nicht sicher sein, dass einige Vulkane wie etwa der Mount Katmai in Alaska keinen signifikanten Effekt auf die Ozonschicht hatten, bevor wir überhaupt von Variationen des Ozons wussten. Dieser Vulkan ist bekannt für seine anomalen Emissionen von Salzsäure und Fluorwasserstoff (siehe Seite 4). Weiteres hierzu findet man hier.

Fortsetzung von FAQ 9.1:

Unvermeidlich machen sich einige Modelle hinsichtlich bestimmter Klima-Variablen besser als andere, aber kein Modell zeichnet sich eindeutig als das ,insgesamt beste Modell‘ aus.

Dies liegt zweifellos daran, dass die Modellierer unterschiedliche Hypothesen hinsichtlich Parametrisierungen zugrunde legen, und die Modelle werden an die Variable ihres Interesses angepasst. Dies zeigt, dass die Anpassung die Grundprinzipien außer Kraft setzt und die Ergebnisse dominiert!

Meine Vermutung wird gestützt durch die nachfolgende Anmerkung in FAQ 9.1:

…Klimamodelle basieren in erheblichem Umfang (Hervorhebung von mir [=dem Autor]) auf verifizierbaren physikalischen Grundsätzen und sind in der Lage, bedeutende Aspekte von externen Forcings in der Vergangenheit zu reproduzieren.

Man würde denken, dass dieses Anpassen eine erhebliche Schwäche ist bei den gegenwärtigen Modellierungs-Bemühungen zusammen mit der Notwendigkeit, Energie-Austauschprozesse zu parametrisieren (Konvektion und Wolken), welche räumlich zu klein sind, um direkt modelliert zu werden. Anpassen ist der ,Elefant im Raum‘, der kaum einmal beachtet wird.

Die Autoren von Kapitel 9 räumen in Box 9.1 (Seite 750) ein:

…die Notwendigkeit der Modellanpassung könnte die Modell-Unsicherheit zunehmen lassen.

Verschlimmert wird die Lage durch die Anmerkung in diesem gleichen Abschnitt (Box 9.1, Seite 749):

Mit sehr wenigen Ausnahmen beschreiben die Modellierer nicht detailliert, wie sie ihre Modelle anpassen. Daher ist eine vollständige Liste von Widersprüchen zu Beobachtungen, an welche ein bestimmtes Modell angepasst wird, allgemein nicht verfügbar.

Und schließlich stellen die Autoren eindeutig in Frage, wie das Anpassen den Zweck der Modellierung beeinflusst (Box 9,1, Seite 750):

Die Erfordernis von Anpassungen wirft die Frage auf, ob Klimamodelle für Klimaprojektionen der Zukunft überhaupt brauchbar sind.

Ich denke, dass es wichtig ist anzumerken, dass sich vergraben im Kapitel 12 des AR 5 (Seite 1040) das folgende Statement findet:

Insgesamt gesehen gibt es derzeit kein allgemein anerkanntes und robustes formales Verfahren, um quantitative Schätzungen der Unsicherheit zu liefern bzgl. zukünftiger Änderungen aller Klimavariablen … „

Dies ist wichtig, weil es impliziert, dass die unten gezeigten quantitativen Korrelationen nominelle Werte sind ohne Verankerung in inhärenter Unsicherheit. Das heißt, falls die Unsicherheiten sehr groß sind, dann sind die Korrelationen selbst mit großen Unsicherheiten behaftet und sollten zurückhaltend aufgenommen werden.

Auch das folgende Zitat sowie die nachfolgende Illustration aus FAQ 9.1 gilt dem Thema Zuverlässigkeit:

Ein Beispiel von Änderungen der Modellgüte mit der Zeit wird in FAQ 9.1 gezeigt und illustriert die stattfindende, wenn auch mäßige Verbesserung (Hervorhebung von mir [=dem Autor]).

Allgemein sollte man eine hohe, nicht lineare Korrelation zwischen Temperatur und Niederschlag erwarten. In Wüsten regnet oder schneit es nicht viel, ebenso wie an den Polen (effektiv Kältewüsten). Warme Gebiete, also z. B. die Tropen, sind gekennzeichnet durch gewaltige Verdunstung aus den Ozeanen und Feuchtigkeitsanreicherung durch die Vegetation. Sie stellen also gewaltige niederschlagbare Mengen von Wasserdampf zur Verfügung. Daher bin ich kaum überrascht, dass die folgenden Graphiken eine höhere Korrelation zwischen Temperatur und deren räumlicher Verteilung zeigen als für Niederschlag und dessen räumlicher Verteilung. Bzgl. Temperatur werden Gebiete gezeigt, in denen die modellierte Temperatur höher ist als die gemessenen Temperaturen, dann muss es aber auch Gebiete geben, in denen es kühler als gemessen ist, um den Anpassungen an das globale Temperaturmittel zu genügen. Daher bin ich nicht vollständig überzeugt von Behauptungen hoher Korrelationen zwischen Temperaturen und der räumlichen Verteilung. Könnte es sein, dass die „Oberflächen-Temperaturen“ auch die Wassertemperatur der Ozeane enthalten, und weil die Ozeane über 70% der Erdoberfläche bedecken und nicht die Temperaturextreme des Festlands aufweisen, und dass daher die Temperaturverteilung stark durch Wassertemperaturen gewichtet sind? Das heißt, würden die Korrelations-Koeffizienten fast genauso hoch sein als wenn man ausschließlich Temperaturen auf dem Festland heranzieht?

Bildinschrift: FAQ 9.1, Abbildung 1: Fähigkeit der Modelle, die jährliche mittlere Temperatur und die Verteilung von Niederschlag zu simulieren, illustriert durch die Ergebnisse von drei jüngeren Phasen der CMIP-Modelle (CMIP2 um das Jahr 2000, CMIP3 aus dem Jahr 2005 und CMIP5, die jetzige Modellgeneration). Die Abbildung zeigt die Korrelation zwischen gemessener und modellierter Temperatur (oben) und des Niederschlags (unten). Größere Werte deuten auf eine bessere Korrespondenz zwischen modellierten und beobachteten räumlichen Verteilungen. Die schwarzen Symbole deuten auf Korrelations-Koeffizienten individueller Modelle, und die großen grünen Symbole zeigen den Median-Wert (d. h. die Hälfte der Modellergebnisse liegt über, die andere Hälfte unter diesem Wert. Die Verbesserung des Modellverhaltens wird deutlich durch die Zunahme der Korrelation bei aufeinanderfolgenden Modell-Generationen.

Man sollte beachten, dass die behaupteten Korrelations-Koeffizienten sowohl für CMIP3 als auch für CMIP5 implizieren, dass lediglich 65% des Niederschlags vorhergesagt werden können durch den Ort oder die räumliche Verteilung. Falls Verteilungen des Niederschlags so schlecht erklärt sind im Vergleich zur mittleren Temperatur, gewinne ich kein Vertrauen, dass regionale Temperaturverteilungen Korrelations-Koeffizienten aufweisen, die so hoch sind wie das globale Mittel.

Der AR 5 des IPCC steht hier.

*Intergovernmental Panel on Climate Change, Fifth Assessment Report: Working Group 1; Climate Change 2013: The Physical Science Basis: Chapter 9 – Evaluation of Climate Models

Link: https://wattsupwiththat.com/2017/09/27/frequently-asked-questions-9-1-a-critique-2/

Übersetzt durch Chris Frey EIKE




Windparks beeinträchtigen die Luftraumüberwachung

Bericht Sarah T. Harris (Korrespondentin) , Fort Drum, NY

Im vergangenen Jahr setzte sich der Bundesstaat New York ein ehrgeiziges Energieziel: Bis 2030 soll 50% seines Stroms aus erneuerbaren Quellen kommen. Das bedeutet, mehr Kapazitäten zu bauen und es gibt jetzt acht vorgeschlagene Projekte für Windparks von Nord St. Lawrence bis zu den nördlichen Oswego Grafschaften. Aber das Militär und Landtagsabgeordnete sagen, dass der Ausbau von noch mehr Windkraftanlagen die Flug-und Wetterradarsysteme unzulässig beeinträchtigen wird – was das Training der Soldaten und die Bereitschaft beeinflussen könnte.

Windturbinen auf dem Flugzeugradar erscheinen, „wie kleine flackernde Lichter in einer Reihe, in der sich diese Windkraftanlagen befinden“, erklärt Brian Ashley, Geschäftsführer der Fort Drum Regional Liaison Organization. (FDRLO –  Luftraum Überwachung und Trainingscenter)

Acht Windparks sind in der Nähe von Fort Drum Militärbasis in der Entwicklung.
Karte: Development Authority of the North Country

Gemäß Ashley, gibt es keine wirkliche technische Lösung dafür. Stattdessen blenden die Piloten und Fluglotsen die Stelle, wo das Flackern ist, nur elektronisch aus. Die bereits abgedeckten Stellen wurden wegen zwei bestehender Windparks in der Nähe von Fort Drum eingefügt und diese beeinflussen bereits die Trainings- und Wettererfassungssysteme störend. Und wenn die weiteren, geplanten Projekte im Luftraum von Fort Drum gebaut werden, der den Süden des Kantons bis zum Tug Hill Plateau und vom Lake Ontario bis in die westlichen Adirondacks abdeckt, wird es noch schlimmer werden.

„Wenn Sie eine signifikante Anzahl von Ausblendungen auf dem Radarschirm haben, dann haben Sie die Fähigkeit dieses Radars zerstört, für Training und für Luftraumüberwachung nützlich zu sein“.

In den Latest News von FDRLO gibt es eine Eingabe (hier.pdf)  an die zuständige Behörde.

[Fort Drum … fordert den Schutz der … Fähigkeiten und der Einsatzbereitschaft]

Es ist eine gesicherte Tatsache, dass die Windturbinen die Fähigkeiten der Radaranlagen von Fort Drum Wheeler Sack Army Airfield nachteilig beeinträchtigen, sowie das Wetter-Radar in Montague. Zwei Windparks stehen bereits in dieser Region: Maple Rige in Lewis County und Wolfe Island in Kanada, diese stören die Sichtverhältnisse des Radars und haben eine negative Auswirkung auf die Sicherheit der Flugoperationen der Hubschrauber und Flugzeuge, sowie auf das Wetterradar in Montague.

Fort Drum ist der größte lokale Arbeitgeber in New York State. Es erbringt jährlich eine Milliarde Dollar für Wirtschaft des Landes. Und sein Flugplatz ermöglicht es Soldaten, komplexe Schulungen durchzuführen und schnell umzusetzen.

„Fort Drum ist – und ich sage das nicht leichtfertig – ist die Premium Trainingsanlage in der nordöstlichen Region der Vereinigten Staaten“, sagte die Abgeordnete Frau Addie Jenne. Diese Basis einsatzfähig zu halten und das regionale Wetterradar akkurat, ist unerlässlich.

„Wir müssen selbstverständlich dafür sorgen, dass die Sicherheit unseres Landes – in Bezug sowohl auf das Wetter und als auch auf unsere nationale Verteidigung – wegen einer politischen Entscheidung nicht beeinträchtigt wird.“

 

Im Moment trifft sich Jenne mit Windprojekt-Anteilseignern in der Region. Sie will herauszufinden, welche der acht vorgeschlagenen Windprojekte die Fähigkeiten von Fort Drum am meisten beeinflussen würden. Und sie entwirft Gesetzes Regelungen, um zu verhindern, dass diese Projekte staatliche Subventionen erhalten.

„Ich bin nicht dabei, die industrielle Entwicklung von Windkraft in den nördlichen Bundesland für immer zu verbieten“, sagte Jenne, „aber viel lieber bevorzuge ich, dass unsere Truppen alles trainieren können, was unsere Regierung in den nächsten Jahren von ihnen verlangen könnte.“

 

Die Kongressabgeordnete Elise Stefanik äußerte  in einem Brief an den Stabschef der US Army , Gen. Mark Millea in letzter Woche, ihre Besorgnis über die kumulative Wirkung der Wind-Entwicklung auf Fort Drum.

Brian Ashley von der FDRLO sagt, dass er nicht gegen erneuerbare Energie ist. Es wäre ihm nur wichtig, dass diese Windparks woanders gebaut werden.

Die vorgeschlagenen Windkraft Projekte müssen durch einen umfangreichen Standortprozess gehen und von der Öffentlichen Dienstkommission genehmigt werden, bevor mit dem Bau begonnen werden kann.

Erschienen am 25.09.2017 auf North Country Public Radio

Übersetzt und zusammengestellt von Andreas Demmig

https://www.northcountrypublicradio.org/news/story/34722/20170925/how-more-wind-power-projects-could-mess-up-radar-at-fort-drum

 

Aktualisiert am 27.09.2017

Über dieses Thema wird auf North Country Public Radio weiter berichtet.

Neu ggü. obigem Beitrag ist die Information, dass in der betroffenen Ortschaft Clayton der Protest gegen die Windräder in einem Restaurant sogar mit der Menükarte ausgedrückt wird.

Photo: Payne Horning, WRVO News

Das Menü in Claytons Koffe Kove warnt alle Kunden vor den potentiellen Konsequenzen, dass der angekündigte Horse Creek Windpark die Region zerstören wird.

 

Neben dem Einspruch der Betreiber der Radarsysteme, hat sich der Protest der Bewohner dieser Region auch schon formiert.

Kann ein Gegner der Windkraft diese Projekte von seiner Stadt fernhalten?

Gary Snell, Sr. ist ein lautstarker Gegner von Avangrid Renewables (Investor) Plan, bis zu 40 Windanlagen in Hopkinton und Parishville zu errichten. Dieses von Wind-Befürwortern ramponierte Schild stand in seinem Vorgarten. Photo LAUREN ROSENTHAL / NCPR

 

In den örtlichen Online Nachrichten : North Country Now war 2011, 15. November u.a. zu lesen:

Die Kommission für wirtschaftliche Entwicklung des North Country plant 16 Projekte für die 7-Grafschaft-Region.

Die Schwerpunktprojekte konzentrieren sich auf Hightech- und traditionelle Fertigung, grüne Energieerzeugung, Kunst und Kultur, Tourismus und Landwirtschaft. Die Liste enthält u.a. :

….

Cleaner Greener

Essex County wird als Lead-Agentur im Namen der North Country Region dienen, um … einen umfassenden Energie-Nachhaltigkeitsplan zu entwickeln. Der Plan umfasst vorrangige Maßnahmen auf der Grundlage einer Treibhausgases (GHG) Bewertung …, um Treibhausgas-Reduktionen zu erreichen.

 …

Fazit: Hatten wir das in Deutschland nicht auch schon?




Die Aktion „Klarsicht“

Die Aktion der beiden Autoren nennt sich „Klarsicht“ und besteht aus einer inzwischen umfangreichen Reihe von gut aufgemachten Schriften zum Umweltschutz, zu Energietechnologien und zur Klimatologie. Die Autoren formulieren es folgendermaßen:

Wir – die Unterzeichner – beschäftigen uns seit vielen Jahren sowohl beruflich als auch privat mit Umweltschutz, Energietechnologien und Klimatologie. Das Ergebnis unserer Recherchen wollen wir nun einem breiten Publikum näherbrin- gen, in der Hoffnung, dass wir damit eine öffentliche Debatte anstoßen, um die panik- artige Reaktion auf den Klimawandel zu hinterfragen. Damit verbunden erhoffen wir uns auch eine Rückkehr zu einer vernünftigen Energiepolitik. Die Erkenntnisse der Wissenschaft zum Klimawandel finden nicht den notwendigen Niederschlag in den Medien. Diese Lücke wollen wir füllen. Wir können uns auf ein bundesweites Netzwerk von kompetenten Fachleuten stützen, die wir in die geplanten Veröffentlichungen auch einbinden werden. Wir haben uns in der Vergangenheit durch zahlreiche Veröffentlichungen, Vorträge und eine Buchveröffentlichung zu Wort gemeldet. Januar 2017, Steven Michelbach und Norbert Patzner, 97980 Bad Mergentheim“

Soweit die beiden Autoren von „Klarsicht“. EIKE unterstützt die Klarsicht-Aktion, macht aber gleichzeitig deutlich, dass es nicht in allen fachlichen Aussagen 100% mit „Klarsicht“ übereinstimmt. In Grundtendenz und Zielrichtung besteht freilich völlige Kongruenz, wobei insbesondere der Widerstand gegen die Windenergie hervorzuheben ist. Auf der Webseite der Vernunftkraft findet sich eine Zusammenstellung aller bisher erschienenen neun Klarsicht – Ausgaben sowie des Positionspapiers des Berliner Kreises der Union zur Klima- und Energiepolitik. Alle Schriften der Klarsicht-Reihe können unter dem angebenen Weblink als pdf heruntergeladen werden.

Noch eine abschließende Anmerkung: ein Musterbeispiel, wie stark Ideologie Hirne zu vernebeln vermag, bietet ein Interview, veröffentlich in „Klimaretter.info“, der EIKE-Bericht darüber (hier). In diesem Fall freilich nicht das Interview selber, sondern die Leserkommentare, die zu gefühlten 80% Gift und Galle spucken, aber nicht auf einen einzigen vom Interviewten (EIKE-Vizepräsident Michael Limburg) genannten Punkt sachlich einzugehen vermögen. Nüchterner Fakt ist, dass sich M. Limburg im Interview sachlich begründet über eine andere Energie- und Klimapolitik ausgesprochen hat.

Mit einer neuen Energie- und Klimapolitik braucht man selbstverständlich nicht einverstanden zu sein. Man sollte dann aber seine Gegenmeinung ebenfalls sachlich begründen. Dass sachliche Gegenbegründungen nirgendwo im Kommentarblog von Klimaretter.info auffindbar sind, sagt viel über die geistige Kultur der betreffenden Blogger aus. Zwei unmittelbar aufeinanderfolgende Kommentare belegen es mustergültig. So mahnt ein Kommentator das in Demokratien übliche Vorgehen an mit der Aufforderung

1) Warum nimmt du nicht zu einem einzigen der Inhalte Stellung und sagst, was daran falsch ist?

Die unmittelbare Antwort darauf

2) Wenn es keine Inhalte gibt, kann man dazu auch keine Stellung nehmen. Und gegen Fake-News Stellung zu beziehen ist nicht energieeffizient und damit nicht umweltfreundlich.

Besser als diese Antwort kann fehlendes Demokratieverständnis und leider auch geistige Demenz nicht demonstriert werden. Hat der Betreffende überhaupt eine halbwegs ordentliche Schule besucht? Was bleibt eigentlich noch, wenn man nicht mehr sachlich argumentiert und den Meinungsgegner nur noch diffamiert? Die logische Kette ist bekannt: Nach Diffamierung kommt erst die gewaltsame Bekämpfung (Beispiel Antifa gegen nicht genehme demokratische Partien) und dann die versuchte physische Vernichtung. Ob dieser sich abzeichnende Öko-Faschismus den angesprochenen Kommentatoren in Klimaretter.info bewusst ist? Es sieht nicht danach aus, mehr nach der Haltung „Eine öko-religiös begründete Sache rechtfertigt alles“.

Ein Lichtblick muss aber erwähnt werden: „Klimaretter.info“ hat das Interview veröffentlicht und alle(?) Kommentare, soweit den Spielregeln gehorchend, zugelassen. Dies ist wenigstens der Anfang eines Versuchs von demokratischer Streitkultur. Ob weitere folgen werden? Man hofft es, darf aber skeptisch sein.

 




Es reicht! Hört auf, Harvey und Irma auszuschlachten!

Irma war tatsächlich ein sehr starker Hurrikan der höchsten Kategorie 5, als er über die Leeward Islands zog. Die Windgeschwindigkeit von 185 mph [ca. fast 300 km/h], ermittelt mit einem Hurrikan-Flugzeug in einer Höhe von 10.000 Fuß [ca. 3000 m], war wirklich eine der höchsten jemals in atlantischen Hurrikanen. Wie aber steht Irma im Vergleich zu anderen starken atlantischen Hurrikanen da? Um diese Frage zu beantworten, müssen wir zunächst die Verfahren betrachten, mittels welcher die Stärke eines Hurrikans bestimmt wird, weil seit Anfang dieses Jahrhunderts ein anderes Verfahren angewendet wird.

Es gibt zwei Möglichkeiten, die Stärke eines Hurrikans zu bestimmen. Eine davon ist, die Windgeschwindigkeit mittels eines Flugzeuges zu messen. Die Air Force fliegt immer in Höhen um 10.000 Fuß, und empirische Beziehungen werden angewendet, um die Windgeschwindigkeit in 10.000 Fuß auf die Windgeschwindigkeit am Boden hochzurechnen. Die andere Methode ist, ein Barometer im Auge abzuwerfen und den Luftdruck zu messen. Da es eine direkte Relation zwischen Luftdruck [genauer: Luftdruckgradient, Anm. d. Übers.] und Windgeschwindigkeit gibt, kann man mit Kenntnis der einen Größe die andere Größe berechnen.

Historisch war der Kerndruck im Zentrum des Hurrikans der dominante Faktor bei der Bestimmung der Stärke eines Hurrikans. Nach Einführung der Saffir/Simpson-Hurrikan-Skala Anfang der siebziger Jahre wurden alle Hurrikane der Vergangenheit mittels ihres Kerndrucks in dieser Skala nach Stärke kategorisiert. Heute hat sich das geändert,und Hurrikane werden ausschließlich nach Windgeschwindigkeit kategorisiert. Darum war es möglich, Hurrikan Irma zum stärksten jemals im Atlantik beobachteten Hurrikan zu erklären mit der vom Flugzeug ermittelten Windgeschwindigkeit von 185 mph. Aber wie steht Irma hinsichtlich des Kerndrucks da?

Für alle, die mit der Größe Luftdruck nicht so vertraut sind: Eine der Standardeinheiten des Luftdrucks sind Millibar (mb). [In Europa ist die Einheit seit Jahren als Hektopascal hpa definiert. Da die Zahlenwerte beider Einheiten identisch sind, verwende ich in dieser Übersetzung im Folgenden die Bezeichnung hpa. Anm. d. Übers.] Der normale Luftdruck in den USA liegt gewöhnlich zwischen 1010 und 1030 hpa. Falls der Luftdruck in den Tropen unter 1000 hpa fällt, bedeutet dies allgemein, dass sich ein Hurrikan der Kategorie 1 entwickelt hat. Der Kerndruck in einem Hurrikan der Kategorie 3 liegt normalerweise um 950 hpa, und ein Hurrikan der Kategorie 5 liegt vor, wenn der Luftdruck unter 920 hPa fällt. Sinkt der Luftdruck gar unter 900 hPa, handelt es sich um einen Super-Hurrikan, der vergleichbar ist mit den stärksten Taifunen im Pazifik.

Wie steht nun Irma in dieser Hinsicht im Vergleich mit anderen starken Hurrikanen in der Vergangenheit da, wenn wir den Kerndruck zur Bestimmung der Stärke heranziehen anstatt die Windgeschwindigkeit? Der niedrigste Kerndruck von Irma betrug 914 hpa. Der tiefste Kerndruck jemals in einem atlantischen Hurrikan war 2005 im Hurrikan Wilma mit 882 hpa aufgetreten, als dieser die nordwestliche Karibik heimsuchte. Der niedrigste Kerndruck eines auf das [US-]Festland übergreifenden Hurrikans betrug 892 hpa, aufgetreten im Hurrikan von 1935, als dieser über die Florida Keys hinweg gezogen war. Es gab 10 Hurrikane mit einem Kerndruck unter 910 hpa, davon 5 sogar unter 900 hpa. In dieser Hinsicht schaffte es Irma nicht einmal in die Top 10 und war damit folglich nicht einmal annähernd der stärkste jemals im Atlantik aufgetretene Hurrikan.

Wenden wir uns jetzt dem Hurrikan Harvey zu. Harvey war als der regenreichste Hurrikan der Historie apostrophiert worden. Allerdings steht die Regenmenge von 50 Inches [ca. 1270 l/m²] nicht in Relation zur globalen Erwärmung. Der Grund für die hohe Regenmenge ist vielmehr, dass sich der Hurrikan drei Tage lang praktisch nicht von der Stelle bewegte, was unglücklicherweise gerade im Südosten von Texas der Fall war.

Die Regenmenge in einem tropischen Wettersystem ist nicht abhängig von der Windgeschwindigkeit, sondern von der Verlagerungsgeschwindigkeit. Bevor es ausgeklügelte numerische Modelle zur Simulation der Regenmenge in einem Wettersystem gab, verwendeten wir eine einfache empirische Gleichung, die gute Ergebnisse lieferte: Man berechne die Zuggeschwindigkeit und teile sie in 100 ein.

Verlagert sich ein tropisches Wettersystem mit 10 mph [ca. 16 km/h], erwarte man 10 Inches [254 l/m²]. Ein System mit einer Verlagerung von 5 mph [ca. 8 km/h] würde demnach 20 Inches [508 l/m²] bringen. Sollt die Verlagerungsgeschwindigkeit lediglich 2 mph betragen, erwarte man 50 Inches [1270 l/m²] Regen. Genau das war bei Harvey der Fall. Der Hurrikan bewegte sich 3 Tage lang mit etwa 2 mph und brachte in großen Gebieten vom südöstlichen Texas und dem südwestlichen Louisiana Regenmengen zwischen 40 und 50 Inches.

Es gibt zahlreiche Beispiele zum Stehen gekommener tropischer Systeme, wobei jedes Mal exzessive Regenmengen auftraten. Beispielsweise verharrte der Tropische Sturm Claudette 2 Tage an Ort und Stelle und brachte über 40 Inches [1016 l/m²] Regen in einem ausgedehnten Gebiet südlich der Innenstadt von Houston. Die 42 Inches [1069 l/m²] in Alvin innerhalb von nur 24 Stunden ist für diesen Zeitraum Rekordhalter in den USA. Ein Jahr zuvor brachte der Tropische Sturm Amelia 48 Inches [1220 l/m²] im zentralen Texas. Im Jahre 1967 erreichte der sich nur langsam bewegende Hurrikan Beulah das südliche Texas und brachte Regenmengen zwischen 30 und 40 Inches [762 bis 1016 l/m²] landeinwärts der Stadt Brownsville.

Falls es im Gebiet östlich der Bahamas ein Messgerät für Regenmengen gegeben hätte, wo der Hurrikan José vier Tage lang verharrte, dann bin ich sicher, dass dort über 60 Inches [über 1500 l/m²] Regen gemessen worden wären.

In den USA gibt es eine lange Historie verheerender Hurrikane. Im Folgenden sind einige der intensiven Hurrikane aufgelistet, zu welchen es zum Ende des 19. Jahrhunderts gekommen war, also lange, bevor es eine CO2-Zunahme gab:

Das aktivste Jahr auf das Festland übertretender Hurrikane war das Jahr 1886, als gleich 7 Hurrikane die Küste erreichten. Vier davon erreichten Texas, und zwei davon waren hoch kategorisiert. Der Hurrikan der Kategorie 4 im August 1886 zerstörte alles, was von der Stadt Indianola noch übrig geblieben war. Diese Stadt war Mitte der 1850-ger Jahre ein blühender Handelshafen an der Südküste der Matagorda Bay, bevor ein Kategorie-4-Hurrikan im Jahre 1875 die Stadt nahezu zerstörte. Man befand sich mitten im Wiederaufbau, als der Hurrikan 1886 zuschlug.

Im Jahre 1893 waren zwei Kategorie-4-Hurrikane aufgetreten. Der eine forderte in Louisiana 1800 Todesopfer auf einer der Küste vorgelagerten Insel. Der zweite forderte weitere 1800 Todesopfer, als eine 16 Fuß [ca. 4,90 m] hohe Flutwelle die Hilton Head Insel vor South Carolina zerstörte.

Der tödlichste Hurrikan in der US-Geschichte ereignete sich im Jahre 1900, als eine vom Sturm aufgeworfene Flutwelle über die Galveston Insel hinweg schwappte und 10.000 Menschen in den Tod riss.*

[*Die Flutwellen in einem Tropischen Wirbelsturm gehen nicht auf die Windgeschwindigkeit selbst zurück. Dazu ist die vom Orkan in einer Richtung überstrichene Meeresfläche zu klein. Ursache ist vielmehr der hydrostatisch durch den tiefen Luftdruck höhere Meeresspiegel im Auge des Sturmes. Anm. d. Übers.]

Der Hurrikan des Jahres 1900 war einer der Kategorie 4.

Schlussfolgernd lässt sich sagen, dass die Hurrikane Harvey und Irma typische starke atlantische Hurrikane waren. Beide entwickelten sich aus aus Afrika auf den Atlantik hinaus ziehende Störungen während des Höhepunktes der Hurrikan-Saison. Die Stärke von Irma, wie sie sich aus dem Kerndruck ergibt, war konsistent mit einer ganzen Reihe anderer Hurrikane in der Vergangenheit. Der starke Regen im Zuge von Harvey war die Folge des zum Stehen gekommenen Sturmes und nicht die Folge einer höheren atmosphärischen Feuchtigkeit in Assoziation mit globaler Erwärmung.

Es gibt nichts an diesen beiden Hurrikanen, was die Dringlichkeit sofortiger Maßnahmen zur Begrenzung der globalen Erwärmung rechtfertigen würde. Es ist traurig, dass jene, die diese Maßnahmen fordern und unterstützen, so brutal und rücksichtslos gegen die zerrissenen Gefühle hunderttausender Menschen in Texas, Louisiana und Florida sind, haben diese doch soeben alptraumhafte Verluste erlitten – und jetzt werden sie für die Hurrikane verantwortlich gemacht, weil sie nicht die Maßnahmen zur Reduktion von CO2 unterstützt haben.

Da wir gerade von CO2 sprechen, es gibt eine intensive Debatte über die Gründe der Erwärmung der Erde. Diese erwärmt sich seit über 150 Jahren, das ist unstrittig. Strittig ist die Ursache. Ist CO2 für das „Wärmste“ verantwortlich, oder sind es andere natürliche Zyklen? Solarexperten in Asien, dem Nahen Osten und Teilen von Europa sehen die Sonne als Ursache. Während der letzten dreieinhalb Jahre haben sie über 400 Studien veröffentlicht, die das CO2 als Ursache verwerfen und stattdessen natürliche Zyklen der Sonne anführen. Falls dies so ist, warum gibt es dann den intensiven Druck, Milliarden über Milliarden Dollar für grüne Energie aufzuwenden? [Von den verheerenden Umweltschäden ganz zu schweigen. Anm. d. Übers.]

Zu was will sie das „Wärmste“ also bringen? Zuerst und am dringlichsten fordern sie, dem Pariser Klima-Abkommen vom Dezember 2015 zu folgen, dem 194 Länder zugestimmt haben. Präsident Trump hat die USA aus diesem Abkommen zurückgezogen, und das „Wärmste“ schäumt vor Wut. Das ausdrückliche Ziel des Abkommens ist es, CO2 zu reduzieren und grüne Energie zu entwickeln.

Eines der Ziele des Abkommens ist die Einrichtung eines Green Climate Fund, dessen Gelder an Entwicklungsländer verteilt werden sollen, um diesen beim Übergang zu grüner Energie zu helfen. Es ist beabsichtigt, bis zum Jahr 2020 100 Milliarden Dollar in diesem Fund zu haben. Woher soll das Geld kommen? Etwa 45 Nationen waren als Geldgeber ausersehen, was bedeutet, dass es rund 150 Empfängernationen gibt, darunter auch China.

Auf dem Pariser Treffen versprachen die Gebernationen 10 Milliarden Dollar, wovon über 80% aus 6 Nationen kommen sollten: England, Deutschland, Frankreich, Schweden, Japan und die USA. Die USA versprachen den größten Betrag mit 3,5 Milliarden Dollar, die anderen 5 Länder jeweils zwischen 1 und 1,5 Milliarden Dollar. Bis heute haben die USA 1 Milliarden Dollar als Anzahlung an die UN überwiesen, die anderen 5 Nationen jeweils rund 0,5 Milliarden Dollar. Die UN hat 156 Mitarbeiter eingestellt, um den Plan zu überwachen. Jährliche Lohnkosten: 29 Millionen Dollar.

Und das ist erst der Anfang. Christiana Figueires, Leiterin der Pariser Konferenz, sagte kürzlich, dass der Plan während der nächsten 3 Jahre über 1,5 Billionen kosten würde, falls jede Nation dem Programm folgt.

Sollte Präsident Trump wirklich seine Entscheidung widerrufen und die USA erneut in das Paris-Abkommen einfügen, würden wir den UN unserem Versprechen folgend augenblicklich 2,5 Milliarden Dollar schulden. Da wäre es höchstwahrscheinlich besser, mit diesem Geld den 150.000 Menschen zu helfen, deren Wohnungen in SE-Texas im Zuge von Harvey weggespült worden sind.

Noch eine letzte Anmerkung. Was ist der wirkliche Grund für das Paris-Abkommen? Eine der aufschlussreichsten Bemerkungen, die ich gesehen habe, stammt von einem führenden UN-Funktionär. Ottmar Edenhofer sagte: „De facto verteilen wir den Wohlstand der Welt völlig neu. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist“. Mit anderen Worten, es handelt sich um ein internationales Programm zur Umverteilung von Wohlstand. Wessen Wohlstand? Unser Wohlstand!

Link: https://wattsupwiththat.com/2017/09/25/enough-is-enough-stop-hyping-harvey-and-irma/

Übersetzt von Chris Frey EIKE




Energiepolitik und Wahlkampf

Jetzt werden sie wieder anfangen, die endlosen Debatten um Themen wie Flüchtlingspolitik, Wohnraum, soziale Probleme, Armut… All diese Themen mögen ja in einem Hochindustrieland und einer sich als fortschrittlich gerierenden Gesellschaft wichtig sein – aber die Grundlage, die ureigene Basis all dessen, was unsere Gesellschaft, unseren relativen Wohlstand und alles ausmacht, was wir als ,schön‘ ansehen – diese Grundlage war mit keinem einzigen Wort in den politischen Debatten zu vernehmen, weder vor noch nach der Wahl.Gemeint ist natürlich Energie und Energiepolitik.

Wenn man sich so umhört im Bekanntenkreis oder wo auch immer – es ist erschreckend, wie wenig Menschen wirklich wissen, was Energie eigentlich ist. Das heißt nicht, dass ich es weiß! Da gibt es Experten zu diesem Thema wie die EIKE-Autoren Fred F. Mueller, Dr. Günter Keil und auch den Vizevorsitzenden des EIKE Michael Limburg. Aber wenn man sich vor Augen führt, dass die Fragen bzgl. Flüchtlingen, bezahlbare Wohnungen usw. vollkommen gegenstandslos sind, wenn es zum Großen Blackout kommt, dann sollte man sich zumindest etwas zu diesem Thema informieren.

Für mich ist es ein Skandal aller bisher im Bundestag vertretenen Parteien und noch mehr der Medien, dass dieses Thema in keinem Forum, bei keiner Gelegenheit auch nur ansatzweise ein Rolle spielt. Der Faden, an dem alles hängt, was unser Land und unsere Gesellschaft ausmacht, wirklich alles, wird immer dünner und droht zu reißen – und niemand an relevanten Stellen spricht es an. Und wenn doch, wie es eine sich endlich in Deutschland wohl etablierende alternative politische Kraft tut, dann wird es in den Medien boykottiert.

Was ist Energiedichte, Erntefaktoren, Redispatch-Maßnahmen, Lastgangverläufe, … über all das kann man sich im Internet informieren. An sich wäre das die Aufgabe der Medien, aber – nichts ist!

Fazit: Welche Bedeutung hat all das Gezerre, Gezänk und Gerede nach der Wahl, welches täglich viele Zeitungsseiten füllt – welche Bedeutung hat das alles, wenn der Blackout kommt?

Es wird höchste Zeit, dass die Energie-Problematik im Bundestag angesprochen wird – und zwar so fachgerecht, wie es in einigen Landtagen schon der Fall war. Und das sehr, sehr schnell! Alles Andere ist dagegen reine Makulatur! Oder nicht?

© Chris Frey, September 2017




Haben Sonnen­wind und Planeten­stellungen Einfluss auf unser Wetter bzw. Klima?

Beobachtungen:

  • Einfluss des Sonnenwindes auf unser Wetter

  • Einfluss der Planetenstellungen auf den Sonnenwind

Voraussage:

  • Abkühlung bis nach 2040 durch 3- und 4-fache Planetenstellungen

Dr. Borchert (12. Nov. 2015 verstorben; ehem. EIKE Mitglied) hat dieses Verhalten in der letzten Erwärmungsdekade (bis 1998) in allen Einzelheiten untersucht und seine Arbeit – Using Satellite Measurements to study the Influence of Sun Activity on Terrestrial Weather – zu der Tagung der „Amerikanischen Meteorologie“ 2010 eingereicht.

Sein dortiger Vortrag über diese Arbeit stieß auf eine breite positive Resonanz und Anerkennung.

Auszug aus „Die Wirkungsweise von Emissionen der Sonnenflecken auf unsere Erde“ (Dr. Borchert, 2013):

Da der Mechanismus der Klimawirkung von CO2 als falsch erkannt worden ist, sollte der Mechanismus der Klimabeeinflussung und auch anderer Störungen auf der Erde durch die Sonnenaktivität genauer bekannt sein. Aus den Messungen solarer Protonen, Elektronen und Röntgensignalen, die von Satelliten der NOAA gewonnen werden, und aus Messergebnissen des weltweiten Neutronenmessnetzes kann ein Weg der Einwirkung von Partikelemissionen der Sonne auf die Erde gezeigt werden.

Die Periodizitäten der Sonnenflecken werden nach gängiger Meinung verursacht durch stochastisch bedingte Magnetströme im Inneren der Sonne. In letzter Zeit wird eine systematische Steuerung dieser Periodizitäten durch die Konstellation der Planeten zur Sonne nicht mehr ausgeschlossen. Der von P. Jose-Havard 1964 berechnete zeitliche Verlauf des Drehimpulses der Sonne, bezogen auf den Schwerpunkt des Sonnensystems in Abhängigkeit von der jeweiligen Stellung der vier großen Gasplaneten Jupiter, Saturn, Neptun und Uranus ist von Jose festgestellt worden mit einem Zyklus der vier großen Planeten von 178,8 Jahren (auch von Landscheidt 2004, ETH, Solheim, Scafetta, Frau Präsidentin Prof. Dr. Richards der Internationalen Astronomischen Union 2015).

Mittels einer Planetensoftware wurde nun von mir dieser 178,8 Zyklus über ca. 2.800 Jahre untersucht. Nach ca. 19,866 Jahren stehen sich Jupiter und Saturn immer wieder in einer Reihe gegenüber. Die Umlaufzeiten schwanken von 6.912 bis 7.492 Tagen, jeweils bezogen darauf, ob die beiden Planeten näher (Erde = kühler) oder ferner (Erde = wärmer) zur Sonne stehen.

Grundsätzlich gibt es zwei aufsteigende und dann einen absteigenden Knoten – siehe Abb. 11 (Graphik oben). Nach 23 solcher Umläufe von ca. 460 Jahren erfolgt eine Umkehrung. Nach ca. 920 Jahren stellt sich der erste Zustand wieder ein. Interessant ist, dass der 59,6 Jahre-Zyklus (3×19,866 Jahre) mit der atlantischen Oszillation deckungsgleich ist.

Neben den 2-fachen Planetenstellungen gibt es auch 3-fache Stellungen sowie alle 178,8 Jahre die große 4-fache Stellung, die nach 9 Umläufen von Jupiter und Saturn immer wieder präzise erscheinen. Grundsätzlich gibt es einen durchgehenden nachweisbaren Zyklus über die 2800 Jahre mit den Planetenstellungen Jupiter + Uranus und Saturn + Neptun. Zusätzlich wurden zwei weitere parallele Zyklen festgestellt, der zweite 4-fache Zyklus ist nachweisbar bis 1140, macht dann eine Pause und ist ab 629 wieder vorhanden. Der dritte 4-fache Zyklus ist nur bis 1268 nachweisbar (Abb. 9-2).

Im Bereich von 800 bis um 1350 n.Chr. waren in der mittelalterlichen Warmzeit nur sehr wenige 3-fache und 4-fache Planetenstellungen zu beobachten – die Parallelste um 1306,61. Ganz anders in der „Kleinen Eiszeit“ von ca. 1620 bis 1710; hier wurden nur geringe oder keine Sonnenflecken auf der Sonne beobachtet und wir hatten zusätzlich in diesem Zeitraum sieben 3- und 4-fache Planetenstellungen, die einen nicht unwesentlichen Einfluss auf den beschriebenen Forbush-Effekt ausübten!

Nach Borchert: Ein Vergleich der meteorologischen Zeitreihen mit dem Verlauf der in Moskau gemessenen Neutronenstrahlung der Sekundärstrahlung ergab einen um etwa 7 Tage verzögerten Rückgang der Bewölkung gegenüber der Forbush-Reduktion.

Nach meinen Untersuchungen/Beobachtungen ist die Zeitverschiebung bzgl. der Abnahme der Bedeckungen abhängig von der Intensität des Sonnenwindes, ob es sich um einen CME, einen Flare oder wie in den letzten Monaten um ein Black Hole handelt. Ich habe schon bei einem CME nur 3 bis 5 Tage an Zeitverzögerung festgestellt, bei Black Hols ergeben sich erheblich größere Zeitverschiebungen!

Abb. 1: Sonnen-Protonen und Abnahme der kosmischen Strahlung nach Borchert.

Abb. 2: Sonnen-Protonen und Abnahme der kosmischen Strahlung nach Borchert, Reduzierung der Bedeckungen und ZUNAHME der Sonnenscheindauer!

Der Forbush-Effekt ist dafür verantwortlich, dass die kosmische Strahlung, wenn sie auf den Sonnenwind trifft, einen reduzierten energetischen Schauer über der Erde erzeugt, der durch den Neutronen-Monitor zB. Moskau – Boulder (USA) messtechnisch erfasst wird.

Abb. 3. Kosmische Strahlung seit 1958 bis 07.2017: (http://cr0.izmiran.ru/mosc/)

1958 – 2010 bis zu 40% Abnahme der kosmischen Strahlung – dadurch Abnahme der Erdwolkenfläche – Zunahme der Erd-Temperatur durch höhere Einstrahlung

Im Jahre 1984,25 hatten wir einen 4-fachen Planetenzyklus von 178,8 Jahren, entsprechend der dritten Planetenstellungen – Jupiter + Neptun – Saturn + Uranus. DAS führte zu einer Zunahme der kosmischen Strahlung von ca. 18%. Über mehrere Jahre musste ich große Schneemengen von meinem Grundstück beseitigen (Kältedauer ca. 3-4Jahre)!

Abb. 4. Kosmische Strahlung bei 4-facher Planetenstellung von 1984

Im Jahre 1996,91 hatten wir einen weiteren 4-fachen Planetenzyklus von 178,8 Jahren entsprechend der ersten Planetenstellung -Jupiter + Neptun – Saturn + Uranus. DAS führte zu einer Zunahme der kosmischen Strahlung von ca. 14%, in der Warmdekade. Die Abkühlung war messtechnisch erkennbar, war aber nicht sehr stark (Kältedauer ca. 3Jahre)!!

Abb. 5. Kosmische Strahlung bei 4-facher Planetenstellung von 1996

Im Jahre 2009,7 wurde ein 3-facher Planetenzyklus entsprechend der Planetenstellung – Jupiter + Saturn + Uranus festgestellt. DAS führte zu einer Zunahme der kosmischen Strahlung von ca. 12%, in der ausklingenden Warmdekade. Diese Abkühlung wurde von mir Anfang 2009 vorhergesagt, mit einer Zeit von ca. 3Jahren. Von 2009 auf 2010 hatten wir mehrere Wochen eine Schneehöhe von ca. 25cm und eine Temperatur von bis zu minus 24 C°. (Kältedauer ca. 3 Jahre)!

Abb. 6. Kosmische Strahlung bei einer 3-fachen Planetenstellung von 2009

Seit 2000 gab es eine Zunahme der kosmischen Strahlung um ca. 19%. Es deckt sich mit der direkt gemessenen kosmischen Strahlung vom 03.2015 bis 06.2017 um ca. 13%!

Abb. 7. Kosmische Strahlung von 2000 bis 05.2017 und die Direktmessung

Abb. 8. Messungen der NASA zeigen, dass sich die kosmischen Strahlen mit einer Zunahme von mehr als 13% seit 2015 verstärken. Warum werden kosmische Strahlen intensiviert? Der Hauptgrund ist die Sonne. Solare Sturmwolken wie koronale Massenauswürfe (CMEs) fegen die kosmischen Strahlen weg, wenn sie an der Erde vorbeifliegen. Während eines Solar-Maximums sind CMEs reichlich vorhanden und kosmische Strahlen werden in Schach gehalten. Nun aber schwingt der Sonnenzyklus auf das Solar-Minimum, so dass kosmische Strahlen zurückkehren können. Ein weiterer Grund könnte die Schwächung des Magnetfeldes der Erde sein, die uns vor der Tiefenstrahlung schützt.

http://www.spaceweather.com/archive.php?view=1&day=20&month=07&year=2017

Zusammenfassung:

Auf Grund der oben festgestellten zusätzlichen Auswirkungen der Sonnenmagnetfelder durch die 3- und 4-fachen Planetenstellungen wird eine Zunahme der kosmischen Strahlung erfolgen und damit verbunden eine Abkühlung auf der Erde. Für die 4-fachen Planetenstellungen um 2024,33 und um 2035,21 (Kältedauer ca. 3-4Jahre) können wir mit einer erheblich GRÖSSEREN Abkühlung als von 1984 rechnen!

Wie schon Herr Dr. Borchert feststellte: Aus den Chroniken von Wikipedia ist klar erkennbar, dass bei einer Abkühlung die Erdwolkenfläche um ca. 4-6% zunimmt. Die Folgen sind Jahre mit erheblich höheren Regenmengen!

Der Abkühlungsprozess wird sich nach 2040 wieder reduzieren, zumal 2060 und 2080 nur mit einer 3-fachen Stellung zu rechnen ist.

Eine weiterführend Graphik in der Grösse von 650mm Breite und 870mm Höhe kann auf Wunsch per Mail zugestellt werden – Datenfile ca. 5MB.

  1. 2-, 3-, und 4-fache Planetenstellung von 0 bis 2100 n. Chr.1. 4-Fach-System 2022 bis 2026; 2024 Max., Opposition zur Erde mit Jupiter, Jupiter 2024 nur 3,986AU.

  2. 4-fach System 2033 bis 2037; 2035 Max., Opposition zur Erde durch Jupiter dann Saturn 2041; Jupiter 2034 nur 3,9AU.

Darstellung der Verschiebung des Sonnen-Drehmomentmittelpunktes bei den 2-, 3-, und 4-fach Planetenstellungen um max. > 1.000.000 km. Herr Borchert hat in seinen Untersuchen auf den stochastischen Zusammenhang der Mehrfach-Planetenstellung und der Reduzierung des Sonnenmagnetfeldes hingewiesen!

  1. Das Gravitationsverhältnis der Sonne zu alle Planeten beträgt ca. 750:1

  2. Das Drehmomentverhältnis aller Planeten zur Sonne beträgt ca. 88:1




Diesel-Verteu­felung: Krieg gegen das eigene Volk: Diesel: Die Lücken­medien im Glashaus (4)

In den bisherigen Teilen dieses Aufsatzes wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten auf im Prinzip unbedeutende Werte zurückgegangen ist. Wichtiger Grund hierfür ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Auch wurde aufgedeckt, wie fragwürdig die Messmethoden sind und welche Tricks und Manipulationen zum Einsatz kommen. Im dritten Teil wurden die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie die offensichtliche Parteilichkeit sowohl der öffentlich-rechtlichen Medien als auch industriefeindlicher Behörden behandelt. Auch der jetzige vierte Teil wird sich mit diesem Aspekt nochmals vertieft beschäftigen müssen. Vorher allerdings müssen noch zwei Mythen angegangen werden, die von den Verfechtern der Heilslehre vom alleinseligmachenden Elektromobil pausenlos und mit ebensoviel Aggressivität wie Unkenntnis der Fakten hinausposaunt werden: Die Märchen vom alleinseligmachenden Öffentlichen Personennahverkehr und von der unendlich verfügbaren (selbstfahrenden) Elektromobilität.

Ist das Auto in der Stadt der Zukunft verzichtbar?

Es gibt vor allem in den großen Städten gutsituierte Schichten im sportlichen Alter, die das Glück haben, bei gutem Aus- oder Einkommen in geringer Entfernung zum Ausbildungs- oder Arbeitsplatz wohnen zu können. Diese oft höher gebildeten und entsprechend sprachgewandten Zeitgenossen machen sich in den Medien sowie in vielen Kommentaren und Blogs mit einer Lautstärke bemerkbar, die weit höher ist als ihr Anteil an der Gesamtbevölkerung. Defizite haben sie dagegen oft mit Blick auf Sachkunde und Verantwortungsbewusstsein. Sie lehnen das Auto ab und verzichten oft demonstrativ darauf, den Führerschein zu machen. Da die Bevölkerung jedoch nicht nur aus Fahrradkurieren mit überentwickeltem Geltungsdrang besteht, sollte man sich bei solchen Fragen eher an Fachleute wenden, welche sich beruflich mit den täglichen Realitäten der Mobilität beschäftigen müssen: Den Stadtplanern und ihrer Detailarbeit, Bild 2.

Bild 2. Ohne detaillierte Planung würde die Verkehrsprobleme in unseren Städten zu völligem Chaos führen (Grafik: [STPL])
Wie sehr sich deren Gedankenwelt von „grünen“ Vorstellungen unterscheidet, zeigt eine Analyse von Dr. Gerd Held [GEHE], die sich auch auf Ergebnisse der Gesamtverkehrsprognose 2025 für die Länder Berlin und Brandenburg [VERK] stützt. Dabei ist festzuhalten, dass man menschliche Aktivitäten räumlich nicht beliebig komprimieren kann. Der teure Raum in Hochhaustürmen ist nur noch für große, finanzstarke Verwaltungseinheiten erschwinglich. Industriebetriebe, kleinere Gewerbe und erst recht Normalverdiener werden verdrängt. Bezahlbar bleiben Wohn- und Gewerberaum deshalb nur bei multizentralen Konzepten. Dementsprechend weiträumig muss auch das Verkehrssystem ausgelegt werden. Doch wenn sich Besiedlung und menschliche Aktivitäten auf eine größere Fläche verteilen, kann man nicht alles mit den Linienkonzepten des ÖPNV abdecken. Vor allem dann nicht, wenn nicht nur Arbeitswege, sondern auch Einkäufe, Dienstleistungen, Ver- und Entsorgung sowie Sport und Freizeit einzubeziehen sind. Beurteilungsgrundlage ist sinnvollerweise dabei die Verkehrsleistung, weil diese auch die Entfernungen berücksichtigt. Kernaussagen der Analyse zeigt die folgende Tabelle:

Trotz steigenden Anteils der Rad- und Fußwege sowie des ÖPNV bleibt das Auto die entscheidende Grundlage der Mobilität. Würde man beispielsweise die Ausweichmöglichkeiten an die Peripherie durch massive Beschränkungen des motorisierten Individualverkehrs (MIV) unterbinden, so käme es auf den bereits jetzt angespannten innerstädtischen Wohnungsmärkten zu untragbaren Zuständen. Das Fahrrad ist kein barrierefreies Verkehrsmittel und stößt mit zunehmenden Entfernungen an „harte“ Grenzen, vor allem wenn es um größere Lasten bzw. um Personen mit Einschränkungen bezüglich Fitness oder Gesundheitszustand geht. Noch realistischer statt der „Verkehrsleistung“ wäre es, wenn man auch die Sachleistung des Transports (mitgeführte Dinge, z.B. bei Großeinkauf) einbeziehen würde. Spätestens, wenn man den Gewerbeverkehr von Handwerk und Lieferdiensten in die Betrachtung mit einbezieht, macht sich diese Dienstleistungsfunktion des Verkehrs deutlich bemerkbar. Die autofreie Stadt ist und bleibt eine Utopie.

Elektromobilität – Utopien ohne Substanz

Als eine Art Allheilmittel für alle Probleme der Mobilität werden derzeit Autos mit elektrischen Antrieben sowie selbstfahrende Fahrzeuge propagiert, die man anfordern und verlassen kann, damit sie sich fahrerlos zum nächsten Kunden begeben und diesen dann zum gewünschten Ziel transportieren können. Beides sind reine Utopien, in die dennoch auf Druck der Politik ungeheure Summen investiert werden. Während der Diesel-Skandal VW wohl so um die 25 Mrd. € gekostet hat, investiert der Konzern jetzt „freiwillig“ weitere 70 Mrd. in die beschleunigte Entwicklung des elektrischen Fahrens. Dieses Geld ist zum Fenster hinausgeworfen. Es gibt:

  1. Zuwenig Lithium auf der Welt. Bergbaulich gewinnbar sind nach aktuellen Schätzungen vermutlich lediglich knapp 40 Mio. Tonnen [GREE]. Bei einem Kfz-Bestand von derzeit um 1,5 Mrd. Stück und einem Lithiumbedarf von ca. 10 kg/ Fahrzeug (einschl. LKW) würde man demnach 1,7 Mal den derzeitigen weltweiten Kfz-Bestand mit Batterien ausrüsten können. Danach wäre Schluss, es gibt derzeit kein praktikables Recycling für Lithium.
  2. Zuwenig Strom in Deutschland. Die Umstellung der gesamten deutschen Fahrzeugflotte auf Batteriebetrieb würde einen zusätzlichen Strombedarf von knapp 340 Terawattstunden (TWh) bedingen. Die gesamte Stromerzeugung lag 2016 bei 648 TWh. Wo soll der Strom herkommen, wenn wir außerdem noch Kohle- und Kernkraftwerke abschalten und die Regierung sich darauf festgelegt hat, bis 2050 den Gesamt-Stromverbrauch von 524 TWh/ Jahr auf 393 TWh/ Jahr [ELMO] zu senken?
  3. Zuwenig Leitungen. Um den gesamten Kfz-Verkehr zu elektrifizieren, muss praktisch das gesamte deutsche Stromnetz erneuert und verstärkt werden, bis herab zum einzelnen Hausanschluss und mitsamt aller Trafostationen und Umspannwerken. Das Netz besteht zurzeit aus ca 35.000 km Höchstspannungsleitungen (Bild 3), deren Umbau bzw. Erweiterung je nach Ausführung zwischen 1,2 und 11,2 Mio €/ km kosten dürfte [CLEA]. Dazu kommen ca. 77.000 km Hochspannungsleitungen (110.000 V), 479.000 km Mittelspannungsleitungen (20.000 V) sowie 1,2 Mio km Niederspannungsnetz bis zu den Haushalten. Die Kosten für die erforderliche Verstärkung der Netze lassen sich kaum abschätzen, könnten jedoch sogar den dreistelligen Milliardenbereich überschreiten. Zahlen müsste die Allgemeinheit.

Bild 3. Das deutsche Höchstspannungsnetz hat eine Länge von ca. 35.000 km. Jeder Kilometer Neubau kostet zwischen 1,2 und 11,2 Mio. €.

Um nicht falsch verstanden zu werden: Ein gewisses Marktsegment für rein elektrische Fahrzeuge gab es schon immer und wird es auch in Zukunft geben. Aber die Vorstellung einer flächendeckenden Umstellung des Verkehrs von Verbrenner auf Strom ist für die absehbare Zukunft weder durchführ- noch bezahlbar. Bei den Ländern, die derzeit mit teils extremen Zielen vorpreschen wie die Niederlande oder Norwegen, könnte man fast den Verdacht haben, dass es hier Kräfte gibt, die auf ein Ende mit Schrecken hinarbeiten, weil es die einzige Möglichkeit zu sein scheint, einem Schrecken ohne Ende zu entgehen.

Und was das viel gerühmte selbstfahrende Auto angeht: Das kann klappen. In Städten ohne menschliche Fahrer, ohne Radfahrer und ohne spielende Kinder wäre es auch heute schon denkbar. Bei 6-10 km/h alles kein Problem. Doch ein fahrerloses Auto, das bei heutigen Verkehrsverhältnissen den Arc de Triomphe umrundet, ohne halb Paris lahmzulegen? Da glaubt man wohl besser an den Weihnachtsmann.

Zurück zum „Faktenfinder“

Hierin knöpfen sich die Autoren nach ihren Ausführungen über die angeblichen Gesundheitsgefahren durch NO2 nochmals die Wissenschaftliche Gesellschaft für Kraftfahrzeug- und Motorentechnik vor. Diese hatte in einem Statement vom Juni 2017 behauptet, dass das NOx-Emissionsproblem technisch gelöst und Diesel-PKW künftig nicht mehr als Problem anzusehen seien. Gemeint war damit die neueste Euronorm (Euro6dtemp) zur Harnstoff-Einspritzung, die für Neuzulassungen ab dem 1.1.2019 gelten wird. Dem widerspricht der von den Verfassern zitierte Sprecher des „Bundesumweltamtes“ (das zwar eigentlich Umweltbundesamt heisst, aber Schwamm drüber) wie folgt: „Lastwagen halten schon jetzt die Grenzwerte ein, weil deren Harnstoff-Einspritzanlagen ausreichend dimensioniert sind. Für Autos, die derzeit auf der Straße sind, gilt das natürlich nicht. Und genau die sind ja für die hohen NOx-Werte verantwortlich und werden noch lange im Land unterwegs sein“. Die Grafik aus seinem eigenen Amt (UBA-Telegramm 1/2016, Bild 4) stützt diese pessimistische Einschätzung allerdings nicht wirklich, dokumentiert sie doch einen kontinuierlichen Rückgang der NO2-Immissionswerte an allen Messstellen, selbst an denen in den so genannten Hot-Spots. Auf den „kleinen“ Versprecher mit NOx statt NO2 wird in einer späteren Folge dieser Reihe noch näher eingegangen.

Bild 4. NO2-Jahresmittelwerte 2005 bis 2015 (Grafik: UBA)

Dann gibt es jedoch noch eine zweite Grafik zum gleichen Sachverhalt und aus dem gleichen Jahr, die etwas anders aussieht, Bild 5.

Bild 5. Darstellung der NO2-Immissionswerte an Messstationen mit gegenüber Bild 4 geänderter Zeitspanne (Grafik: UBA)

Bild 4 und Bild 5 zeigen verblüffend unterschiedliche Verläufe der an verkehrsnahen Messstellen in Städten gemessenen Werte. Beim UBA wird man sich darüber Gedanken machen müssen, wie sich derartige Diskrepanzen auf die Glaubwürdigkeit der Aussagen der Behörde auswirken könnten.

Ungeachtet dessen ist das Interessante an der Aussage des UBA-Sprechers, dass er geschickt eine unbestreitbare Tatsache dazu benutzt, um einen Sachverhalt irreführend darzustellen. Dass es immer Autos geben wird, die nach dem Kauf noch viele Jahre länger als üblich benutzt werden, ist eine Binsenweisheit. Schließlich brummen auch heute noch diverse Oldtimer aus den 30er Jahren über unsere Straßen. Entscheidend für das Abgasgeschehen ist jedoch der ständige Generationswechsel, bei dem vor allem die ältesten Fahrzeuge mit dem schlechtesten Emissionsstandard ausgetauscht werden. Und trotz aller Kritik ist auch beim Diesel EURO-4 besser als EURO-3, EURO-5 besser als EURO-4 und EURO-6 besser als EURO-5. Zur künftigen Entwicklung gibt es eine anschauliche Grafik aus einer Mittelfristprognose des ifeu Institut für Energie- und Umweltforschung Heidelberg GmbH [TREM], Bild 6.

Bild 6. Prognostizierte Entwicklung des PKW-Bestandes nach Emissionsstandards (Grafik: [TREM])
In die gleiche Richtung zielt auch eine Prognose aus den Hintergrundinformationen zur neuesten Version 3.3 des HBEFA-Handbuchs [HBEFA], Bild 7.

Bild 7. Detailliertere Prognose zur Ablösung älterer Dieselfahrzeuge durch Modelle mit den verschiedenen Varianten der EURO-6-Abgasnorm (Grafik: [HBEFA])
Diese neuere Untersuchung aus dem Jahre 2017 geht detaillierter auf die verschiedenen Unterkategorien der EURO-6-Kategorie bei Dieselfahrzeugen ein. Auch nach dieser Prognose ist mit einer vergleichsweise schnellen Ablösung vor allem der Fahrzeuge mit EURO-4 und EURO-5 zu rechnen. Beide Untersuchungen sind sowohl im Umweltministerium als auch im UBA, die zu den Auftraggebern der Studien gehören, bestens bekannt. Dass Fr. Hendricks nebst ihren Untergebenen ungeachtet der ihr bekannten Fakten so lautstark gegen die Autohersteller wettern, ist nicht mehr mit Vorsorgedenken für die Bevölkerung zu erklären. Erklärbar ist dies nur durch die offene Industriefeindlichkeit der Akteure. Einen interessanten Einblick in die dahinter steckenden rot-grünen Netzwerke gibt ein kürzlich in den „Stuttgarter Nachrichten“ erschienener Artikel [MAFI]. Da erfährt man interessante Details wie z.B. die Tatsache, dass ein früherer Chef des Vereins Deutsche Umwelthilfe (das ist der Verein, der aktuell versucht, Deutschlands Autoindustrie kaputt zu klagen) bis heute als Staatssekretär an prominenter Stelle in deutschen Ministerien sein Unwesen treiben darf. Zum gleichen Dunstkreis gehört auch Matthias Machnig, der im Bundesumweltministerium Staatssekretär war, als in Brüssel die Luftreinhaltungsrichtlinie beschlossen wurde, auf die sich die DUH bei ihren Klagen stützt. Interessanterweise ist es auch der gleiche Personenkreis, der bereits die Abwicklung der deutschen Stromkonzerne zugunsten der „Energiewende“ managte. Umso schwerer fällt es daher zu verstehen, was denn die Betriebsräte der Autobranche dazu treibt, mit einer solchen Organisation zu paktieren. Was man dort mit der Automobilbranche vorhat, kann sich doch jeder an fünf Fingern abzählen. Im Unterschied zu den Mitarbeitern bei Daimler, Bosch oder Audi muss sich niemand von diesen hohen Herrschaften Sorgen wegen Arbeitsplatz oder Rente machen. Diesen Leuten geht es um Ideologie – und ganz nebenher hat man ja auch nichts dagegen, wenn sich dadurch die Taschen füllen. Seltsamerweise scheinen derartige Recherchen nicht zum Aufgabengebiet der öffentlich gefütterten deutschen Sendeanstalten zu gehören. Das müssen die unterbezahlten Redakteure von lokalen Zeitungen ohne jegliche Unterstützung oder Anerkennung aus eigenem Antrieb erledigen.

Fakten und „Faktenfinder“

Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichten. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie die Bundesbehörden sowie die etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Medien, Journalisten oder Bloggern werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Es wird danach weitergehen, und zwar alternativlos.

Fred F. Mueller

Demnächst folgt Teil 5

Quellen

[CLEA] https://www.cleanenergy-project.de/stromtrassen-erdkabel-kosten-stromkunden-milliarden/

[ELMO] https://eike.institute/?s=Das+deutsche+Energiewende-Wunder%3A+Elektromobilit%C3%A4t+ganz+ohne+Strom

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html

[GEHE] http://wordpress.gerdheld.de/?p=1667

[GREE] https://www.greentechmedia.com/articles/read/Is-There-Enough-Lithium-to-Maintain-the-Growth-of-the-Lithium-Ion-Battery-M

[HBEFA] HBEFA Version 3.3 Background Documentation Berne, 25. April 2017

[MAFI] http://www.stuttgarter-nachrichten.de/inhalt.umwelthilfe-in-ministerien-das-netzwerk-der-diesel-gegner.ce6d4b7e-2a2a-4379-87f9-70b5feeb5845.html

[STPL] http://fbinter.stadt-berlin.de/fb/index.jsp?loginkey=showMap&mapId=verkehr_strnetz@senstadt

[TREM] Aktualisierung „Daten- und Rechenmodell: Energieverbrauch und Schadstoff-Emissionen des motorisierten Verkehrs in Deutschland 1960-2030“ (TREMOD, Version 5.3) für die Emissionsberichtserstattung 2013 (Berichtsperiode 1990-2011) ifeu Institut für Energie- und Umweltforschung Heidelberg GmbH




Das Interview!

Jeder wird bestätigen, dass der nun vergangene Wahlkampf zur Bundestagswahl 2017 eher einschläfernd, denn aufregend war, ausschließlich angelegt von den bis dato im deutschen Bundestag vertretenen Parteien unbequeme Themen auszuklammern, die Wohlfühlatmosphäre zu betonen, winzige Unterschiede zwischen den Parteien zu hoher Bedeutung aufzublasen, aber vor allem die AfD – wenn schon nicht draußen, dann wenigstens klein zu halten. Und zwar mit allen Mitteln. Doch nachdem das Ausgrenzen und Totschweigen nichts half, auch die sonst so wirksame Nazikeule nicht mehr die Resultate wie erhofft brachte, beschloss die Politik und mit ihr aufs engste verbundenen Helfer in den Medien, die AfD zu „stellen“. Also „stellte“ man sie auf allen möglichen Feldern, zu guter Letzt auch auf dem Klima – und Energiefeld. Als Gehilfen boten sich die JournalistInnen von Klimaretter.info an, die allerdings ein wenig unter falscher Flagge segelnd, beim Pressseprecher der AfD Herrn Lüth am 21.8.17 anfragten

 

Sehr geehrter Herr Lüth

 wie soeben besprochen, erbitte Vermittlung eines Telefontermins zum Thema Energie- und Klimapolitik, möglichst mit Frau Weidel, für Interview bzw. Blickpunkt-Text.  

mfG, Ihr

Joachim Wille

Frankfurter Rundschau Autor

movum.info Co-Chefredakteur

Die jedoch hatte keine Zeit, vielleicht auch keine Lust, also fragte der Pressesprecher mich, ob ich das übernehmen wolle. Ich wollte und bekam kurze Zeit später einen Anruf von Herrn Wille, bei dem wir den Interview-Termin als Telefoninterview für den 28.8.17 nachmittags festlegten. Dabei kündigte Wille an, dass auch seine Kollegin Frau Susanne Götze von Klimaretter.info mit von der Partie wäre. Und er kündigte auch an, dass das Interview vermutlich nicht bei der Frankfurter Rundschau erscheinen würde, das Format – oder so ähnlich – würde dort doch nicht so gut passen. Wohl aber bei Klimaretter.info.

Das mit der FR, deren Linkslastigkeit, vor allem aber finanzielle Schwierigkeiten, mir seit langem bekannt waren, hatte ich sowieso nicht geglaubt, aber immerhin hatte ich einen gewissen Respekt vor der Entscheidung von Klimaretter.info und – wie sich dann rausstellte- seinen beiden Chefredakteuren- ein ausgewiesenen – nach ihrer Bezeichnung „Klimawandelleugner“ wie mich- zu Wort kommen zu lassen.
Für alle die Klimaretter.info noch nicht kennen und das dürften selbst in interessierten Kreisen die allermeisten sein, denn deren Webranking ist – zumindest verglichen mit dem von EIKE- sehr, sehr schwach, sei erwähnt, dass sie zwar über eine sehr kopfstarke Redaktion verfügen, die Seite selbst auch professionell im Sinne eines Nachrichtenmagazins aufgemacht und mit täglich mehrfach ergänzten Informationen zu Klima und Energiethemen – häufig über eigene Reporter- bespielt wird, aber immer wieder – wenn wohl auch unfreiwillig – für Belustigung wegen der offensichtlichen Naivität gepaart mit aktivistischer Verbohrtheit sorgt. Unser Autor Helmut Kuntz wäre ohne die vielen Enten auf dieser Seite wohl ziemlich aufgeschmissen.

Nun denn. Das Interview fand statt und dauert rd. 42 Minuten. Die beiden fragten, was links-grüne Journalisten zu diesen Themen eben so fragen, die Hurricane Irma Harvey spielten auch ein wenig mit, Maria war noch nicht auf dem Schirm, und manchmal ein wenig provozierend und ich antwortete, was ich zu den üblichen eher mantrahaften Fragen eben immer so – manchmal auch etwas provokant- antworte. Wir schieden in bestem Einvernehmen, mit der Zusage, dass Frau Götze das Gesagte abschreiben und mir zur Abnahme vorlegen würde. Zum Glück hatte ich das Gespräch mit Zustimmung der beiden aufgezeichnet.

 

Video mit einem Selbstporträt der Susanne Götze – die mich nach dem Interview mit einem Artikel in der Alpenprawda Süddeutsche Zeitung in die Braune Ecke zu schieben versuchte. „Braun-grüner Wählerfang der AfD“ (hier

Am Abend des 1. September erhielt ich von Frau Götze eine Mail mit der Abschrift und der Bitte um Freigabe. Die konnte ich aber nicht erteilen, denn die Abschrift war anders als abgesprochen, nur ein dürftiges Fragment dessen, worüber wir gesprochen hatten. Insbesondere das aus meiner Sicht wichtige Klimathema kam darin viel zu kurz. Also fragte ich nach, ob sie etwas vergessen hätte, denn wichtige Teile seien nicht enthalten. Die seien nicht relevant, beschied sie mich, überdies sei das ganze Interview viel zu lang, um so veröffentlicht zu werden. Was relevant sei und was nicht, sei doch wohl nicht ihrer Entscheidung überlassen, sondern meiner, schrieb ich zurück, außerdem sollte ja das ganze Interview abgetippt werden, da hätte ich wohl was bei ihr gut und fügte die gesamte nun von mir abgetippte Abschrift bei, bot aber gleichzeitig an, den Text deutlich auf ein veröffentlichbares Maß zu kürzen. Spät am Abend des 2.9.17 erhielt ich dann diese letzte Mail von ihr:

Herr Limburg, es tut mir leid aber Sie haben nichts bei mir „gut“. Niemand ist verpflichtet ein geführtes Interview in voller Länger wiederzugeben. Wenn wir uns nicht einigen können, dann müssen wir die Veröffentlichung sein lassen. Uns geht und ging es um den Wahlkampf und die AfD und nicht um primär Ihre Ausführungen zum Klimawandel – das war auch klar. Ich bitte Sie das zu berücksichtigen. 

Vielen Dank für Ihr Verständnis, Susanne Götze— Dr.Susanne Götze movum.info klimaretter.info

Dagegen wiederum verwahrte ich mich und das war dann auch das letzte was ich von ihr hörte bzw. las.

Beispiel eines von Anfang an fair angelegten und daher höchst erfolgreichen Interviews in Bezug auf die Zahl der Aufrufe.

Das war es dann mit dem Interview, eigentlich schade um die viele Arbeit, dachte ich – doch einige Zeit später nahm ihr Kollege Wille den Faden wieder auf und bot an, mit mir zusammen das Interview auf ein für sie akzeptables Maß zu kürzen. Was wir nach vielem Hin- und Her dann auch taten.

Kollegin Götze hingegen, die mich so brüsk hatte in die Schranken weisen wollen, wusste nämlich besseres zu tun. Sie arbeitete zu dieser Zeit vermutlich schon an einem Artikel für die Süddeutsche Zeitung, der dann am 10.9.17 auch online erschien, in dem sie die AfD und auch mich in die braune Ecke zu stellen versuchte. Nach dem bewährten Verfahren: Bewirf jemanden mit viel Dreck, irgendwas wird schon hängen bleiben. Ihr Artikel hatte den denkwürdigen Titel:

„Braun-grüner Wählerfang der AfD“ (hier).

Das war sowas von daneben, wenn auch nicht völlig unerwartet, angesichts der Vita der Dame, das bei mir der Ofen endgültig aus war und ich mich weigerte mit dieser nur per Diffamierung arbeitenden Frau weiterhin in irgendeiner Weise in Verbindung zu stehen, schon gar nicht mit ihr zusammenzuarbeiten. Deswegen musste auf meinen Wunsch hin auch ihr Name als Interviewpartner entfernt werden.

Nach weiterem Hin und Her einigten Wille und ich uns dann auf die endgültige Form, die dann – nochmals leicht abgewandelt (das Interview sollte nur ohne links erscheinen, Wille oder Götze fügten dann aber doch die ihnen passend erscheinenden Links ein, es waren aber andere als ich angegeben hatte) am 22.9.17 abends bei Klimaretter.info erschien (hier).

Hier nun die von mir freigegebene letzte Version. Der Leser möge vergleichen

 

„Wir wollen einen Energiemix wie vor der Energiewende“

Interview mit Michael Limburg, Energieexperte der AfD und Vizechef von Eike e .V.

Herr Limburg, US-Präsident Donald Trump hält den menschengemachten Klimawandel für eine Erfindung der Chinesen. Stimmen Sie dem zu?

Das ist albern. Das war nur ein Witz von Herrn Trump. Natürlich ist der menschengemachte Klimawandel keine Erfindung der Chinesen.

In Deutschland stehen die anderen Parteien praktisch geschlossen hinter dem Klimaschutz. Was hält die AfD denn von der Energiewende?

Überhaupt nichts. Wir wollen die Energiewende stoppen.

Sie wollen Förderung der erneuerbaren Energien streichen?

Ja. Wind- und Solarenergie können bestehen bleiben, wenn sie sich marktwirtschaftlich bewähren. Aber wenn nicht, dann nicht.

Wie sieht denn Ihr Wunsch-Energiemix aus?

So, wie wir ihn vor der Energiewende hatten.

Die Braunkohle, die heute noch 23 Prozent des Stroms liefert, ist also aus Ihrer Sicht unverzichtbar?

Absolut. Wer heute von dreckiger Kohle spricht, der hat noch nie ein modernes Kohlekraftwerk von innen gesehen. Da können Sie fast vom Fußboden essen. Dass Kohle „dreckig“ ist, gehört zu den Metaphern, mit denen versucht wird, die heimischen Energieträger zu diffamieren.

Sie wollen also die Braunkohle in die zweite Hälfte des Jahrhunderts retten?

Ich bin kein Hellseher. Aber die nächsten 20, 30 Jahren werden wir unsere Kohle schon noch nutzen. Es sei denn, dass Deutschland anders mit der Kernenergie umgeht, so wie das in anderen Ländern schon geschieht. Oder dass ganz neue Energieformen zum Einsatz kommen, die vielleicht irgendwann billiger sind als die Kohle.

Sie sehen eine Zukunft für die Atomkraft?

Durchaus. Wenn auch kaum hierzulande. Es gibt mittlerweile schon Kernreaktoren der dritten Generation. In Russland ist davon bereits ein kommerzieller Kernreaktor in Betrieb gegangen, der den eingesetzten Kernbrennstoff viel besser ausnutzt als bisher üblich. In den normalen Reaktoren wird der Brennstoff nur zu einem Prozent verwertet. In dem russischen Reaktor liegt dieser Wert bei über 95 Prozent.

Wollen Sie den Atomausstieg in Deutschland rückgängig machen?

Der erste Schritt wäre in der Tat, die vorhandenen sicheren Kernkraftwerke – die anders als die Fukushima-Reaktoren keinesfalls Tsunami-bedroht sind – weiterlaufen zu lassen. Ich bezweifle allerdings, dass sich hierzulande nochmal ein Wirtschaftsunternehmen findet, das in Kernkraft investieren will.

Der Atomausstieg war also falsch?

Total falsch. Die Argumentation baut auf Ängste auf, die nicht gerechtfertigt und der Faktenlage nach falsch sind.

Zurück zu den erneuerbaren Energien. In dieser Branche gibt es mittlerweile über 300.000 Arbeitsplätze. Wenn man die Energiewende stoppt, werden viele Menschen arbeitslos. Kein Problem?

Die Arbeitsplätze in dieser Branche sind hochsubventioniert, nicht wertschöpfend, und sie vernichten Arbeitsplätze in der übrigen Wirtschaft. Sie können das Geld eben nur einmal ausgeben. Aber können Arbeitsplätze schaffen, indem sie dem einem Arbeiter sagen, grabe mal ein Loch, und dem zweiten Arbeiter sagen, mach das Loch wieder zu. Solche Arbeitsplätze sind zu 100 Prozent subventioniert. Bei den Erneuerbaren kommen die Subventionen durch die EEG-Umlage, es sind über 25 Milliarden Euro pro Jahr, mit stark steigender Tendenz. Das Geld wäre woanders viel besser ausgegeben, wo es wirkliche Wertschöpfung gibt.

Es aber auch ganz andere Berechnungen. Wenn die Umwelt- und Gesundheitskosten der fossilen Energien berücksichtigt werden, sind die Erneuerbaren teilweise bereits rentabel. Einkalkuliert werden müssen auch die Subventionen, die an fossile Energieträger oder Atomkraft fließen beziehungsweise in den letzten Jahrzehnten geflossen sind. Unter anderem das Umweltbundesamt, eine Regierungsbehörde, hat entsprechende Studien vorgelegt.

Diese Zahlen zu den so genannten externen Kosten sind in der Höhe nur durch die Fantasie begrenzt. Greenpeace und auch das UBA sind da besonders kreativ. Was nicht heißt, dass die Einrechnung externer Effekte grundsätzlich falsch ist. Man muss sie allerdings sehr diszipliniert einsetzen. Und das tun die nicht. Da werden Phantasiezahlen verwendet. Der Markt ist da klarer und einfacher: Man zahlt, was es kostet.

Die erneuerbaren Energien setzen sich inzwischen weltweit durch, weil die Kosten stark gefallen sind und die Technik sogar schon ohne Einrechnung der externen Kosten marktfähig wird. Es werden inzwischen mehr Kraftwerke für erneuerbare als für fossile gebaut. Die Kosten der Solarenergie zum Beispiel sind im letzten Jahrzehnt um mehr als 60 Prozent gesunken.

Wenn das so wäre, dann können wir ja das EEG sofort abschaffen. Einverstanden? Und dann; was machen Sie nachts? Schließlich gibt es Sonnenenergie nur tagsüber. Und Windstrom auch nur, wenn der Wind weht.

Wenn die AfD in den Bundestag einzieht, wird sie dort nur mit Parteien zu tun haben, die sich für die Energiewende aussprechen, weil sie erwarten, dass diese Probleme lösbar sind, und ebenso für den Klimaschutz. Sind alle Politiker außer die der AfD denn verblendet oder gekauft?

Es liegt daran, dass die Politiker sich von den Klimaforschern täuschen lassen. Die Politiker haben wie jeder Mensch zwar Sinne für das Wetter, aber keinen für das Klima. Viele wissen nicht, dass Klima ein statistisch künstlicher Begriff ist, der lokale Wetterdaten über mindestens 30 Jahre benötigt, um nur eine einzige Klimaperiode zu errechnen. Die Klimatologen, die sich öffentlich zu Wort melden, stellen einzelne Extremwetter-Ereignisse als Beleg für den menschgemachten Klimawandel hin – wie jetzt bei den Hurrikanen Harvey und Irma. So lässt sich sehr leicht Panik verbreiten. Hinzu kommt, dass das Thema für Politiker unbequem ist, weil es naturwissenschaftliche Kenntnisse voraussetzt. Die haben die meisten nicht, was man Ihnen allerdings nicht vorwerfen kann. Es ist also eine Mischung aus Ahnungslosigkeit und Opportunismus, oft steckt aber auch eine bestimmte politische Agenda dahinter.

Die Klimaforscher unterscheiden doch gerade genau zwischen Wetter und Klima. Sie untersuchen, wie die langfristige globale Erwärmung sich auf die Häufigkeit oder Stärke bestimmter Wetterphänomene auswirkt. Forscher des Potsdam-Instituts für Klimafolgenforschung haben 2016 in einer Studie gezeigt, dass Hitzewellen und Extremregen in den letzten Jahrzehnten weltweit signifikant zugenommen haben.

Weder Hitzewellen noch Extremwetter haben in den letzten Jahrzehnten zugenommen. Das hat auch der UN-Klimarat IPCC in seinem Report von 2013 festgestellt. Darin steht: „Es gibt begrenzte Hinweise auf Veränderungen der Extreme, die mit anderen Klimavariablen seit Mitte des 20. Jahrhunderts verbunden sind.“ („There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century“) 

Der IPCC-Report gibt den Forschungstand von 2012/13 wieder. Die Potsdamer Erkenntnisse und andere neuere Forschungen zur Verstärkung von Extremwetter können darin noch gar nicht aufgearbeitet sein.

Wir reden vom Klima! Schon vergessen? Und nicht von Wetter und auch nicht von Witterung! Übrigens hat auch die Stärke der Wirbelstürme im Trend abgenommen und nicht zugenommen.

Aber sagen Sie uns: Wenn die offizielle Klimaforschung und alle anderen Parteien falsch liegen, was macht Sie denn so sicher, dass Sie selbst sich nicht irren?

Wissenschaft ist keine demokratische Veranstaltung, bei der die Mehrheit entscheidet, was richtig oder falsch ist. Ich zitiere gerne Einstein, dem vorgehalten wurde, dass 200 Wissenschaftler seine Relativitätstheorie für falsch hielten. Er entgegnete darauf nur lapidar, wenn die recht hätten, genügte einer.

Anmerkung: Wenn eine Theorie falsch ist, genügt ein einziger Gegenbeweis um sie zu falsifizieren. Selbst tausende Meinungen, die bis dato behaupten sie sei richtig, sind kein Grund anzunehmen, dass das so ist

Weltweit gibt es tausende Klimaforschern. Von denen stimmt die große Mehrheit darin überein, dass der Mensch am Klimawandel schuld ist.

Das bezweifle ich. Denn die große Zahl der tausenden von Klimawissenschaftlern, die anderer Meinung sind, kommen weltweit nicht öffentlich zu Wort. Und sie erleben sogar Drangsalierungen an ihren Arbeitsplätzen. Auch dafür gibt es viele Beispiele.

Es gibt tatsächlich tausende Klimawissenschaftler, die trotz der in der Wissenschaft eigentlich üblichen Debattenkultur nicht zu Wort kommen?

Ich habe ständig mit ihnen zu tun. Es gibt eine ganze Latte von offenen Briefen und Petitionen, die von hunderten Experten, insbesondere von Geologen, Physikern und Meteorologen unterzeichnet wurden. Sie wenden sich alle gegen die IPCC-Diktatur.

Wieviele aktive Klimafoscher sind darunter?

Zum Beispiel: Dr. Richard Lindzen; ABDUSSAMATOV, Habibullo Ismailovich, Willi Soon, Roy Spencer – um nur einige wenige zu nennen (hier finden Sie noch ca. 300 weitere) ; Mike Hulme, ein Klimaforscher und selbst IPCC-Leit-Autor beim Weltklimabericht von 20??, sagte: Nur einige wenige Dutzend Leute im IPCC-Betrieb trieben die Hypothese vom menschgemachten Klimawandel voran.

Es ist doch undenkbar, dass die 2500 intelligenten Klimaforscher, die am letzten IPCC-Report mitgearbeitet haben, sich so einfach unterbuttern lassen.

Es ist aber so. Weil nur rd. 800 von ihnen sich mit den physikalischen Grundlagen beschäftigen, der Rest baut darauf auf. Und von diesen 800 sind nur wenige die eigentlich treibenden Kräfte, wie Mike Hulme öffentlich machte. Die auch von Ex-US-Präsident Obama zitierte Angabe, 97 Prozent der Klimaforscher seinen vom menschengemachten Klimawandel überzeugt, ist ebenso falsch. Wir haben genauer in diese vielen Studien reingeschaut und mussten feststellen, dass keine 97 Prozent, sondern nur 0,3 Prozent diese Behauptung explizit rechtfertigen. Die Aussage „Die Wissenschaft ist sich sicher“ könnte falscher nicht sein. (Details hier)

Es gibt insgesamt sechs Studien von verschiedenen Autorengruppen zu dem Thema, die in Fachzeitschriften erschienen sind. Sie kamen unabhängig voneinander zu dem Ergebnis, dass der Konsens unter den aktiv in der Klimaforschung tätigen Wissenschaftlern zur vom Menschen verursachten Erwärmung 90 bis 100 Prozent beträgt.

Ich kenne fünf dieser Studien. Deren Ergebnisse sind falsch. Deren Autoren missachten die grundlegenden Anforderungen an statistische Auswertungen und interpretieren die so erzielten Ergebnisse auch noch irreführend um. Sehr merkwürdig, dass sie den Peer-Review Prozess durchlaufen haben. Aber selbst wenn sie korrekt wären, ersetzt in der Wissenschaft ein Konsens niemals einen Beweis. Und der oder die wurden von niemanden die in den Studien zitiert werden geliefert.

Letzte Frage: Herr Limburg, Sie sind Vizevorsitzender des EIKE e. V., der sich gegen die offizielle Klimaforschung positioniert, und prägen das Thema Energie und Klima bei der AfD sehr stark. Wie kam das zustande?

Die AfD ist offensichtlich die Partei der Vernunft. In der Partei haben sich viele Leute getroffen, die die Themen genauso sehen und endlich in die politische Arena tragen wollten.

Interview: Joachim Wille

P.S. Der Leser sollte wissen, dass ich mich privat neben meiner ehrenamtlich ausgeübten Hauptbeschäftigung als EIKE Vizepräsident, seit Mai 2013 bei der AfD engagiere.

 

 




Deutschland wird seine Ziele bzgl. globaler Erwärmung wohl nicht erreichen…

Die deutsche Kanzlerin Angela Merkel steht am Sonntag vor ihrer Wiederwahl, aber der unbequeme Report der Gruppe Agora Energiewende zu den Zielen ihrer Regierung bzgl. globaler Erwärmung dürfte ihr trotz ihres Sieges ganz und gar nicht gefallen.

Aber man erwarte nicht, dass Merkel zurücksteckt. Tatsächlich sagte sie vor ein paar Tagen, dass ihre Regierung „Wege finden werde, um das Klimaziel 2020 zu erreichen“, worunter auch die fortgesetzte Schließung von Kohlekraftwerken fällt.

„Ich bezweifle, dass sich in Deutschland kurzfristig sehr viel ändern wird“, sagte Benny Peiser, Direktor der in UK ansässigen GWPF.

Trotz der Kosten „steht die große Mehrheit der Deutschen nach wie vor hinter der Energiewende“, sagte Peiser mit Verweis auf Deutschlands Transitions-Pläne.

Die „Energiewende“ ist nur ein Teil des deutschen Planes, seine Wirtschaft zu dekarbonisieren. Mittels der Energiewende hofft Deutschland, wegzukommen von fossilen Treibstoffen, vor allem Kohle, hin zu Solar- und Windenergie.

Agora Energiewende zufolge wird das Verfehlen der Emissionsziele „nicht nur knapp, sondern ein grandioses Scheitern sein“. 40% des in Deutschland im Jahre 2016 verbrauchten Stromes wurde mit Kohle erzeugt, wogegen Wind und Solar verblassen.

„Das Grüne-Energie-Fiasko ist jedoch in keiner Weise Wahlkampfthema – nicht zuletzt, weil es einen All-Parteien-Konsens gibt hinsichtlich von etwas, das sich als die katastrophalste Entscheidung von Angela Merkel herausstellen dürfte“, sagte Peiser. [Da hat er wohl noch nichts von der AfD gehört. Wie nannte es Herr Gauland so treffend: die „Konsensparteien“. Anm. d. Übers.]

Deutschland begann im Jahre 2011 mit der Subvention grüner Energiequellen nach der Havarie des Kernkraftwerkes in Fukushima. Merkel startete eine aggressive Verschiebung hin zu Solar- und Windenergie, um die Kernkraftwerke des Landes zu ersetzen.

Aber das kommt die Deutschen teuer zu stehen.

Bloomberg zufolge hat Deutschland während der letzten Jahrzehnte 780 Milliarden Dollar ausgegeben, und doch reicht das immer noch nicht aus, um das Land seinem nationalen Ziel nahezubringen, die CO2-Emissionen bis zum Jahr 2020 um 40% zu reduzieren. „Wir erwarten, dass die Kosten der Energiewende ab Anfang 2020 sinken werden – erneuerbare Energie durch neu errichtete Wind- und Solar sind jetzt die billigste Energiequelle in Deutschland“, sagte Christoph Podewils, Direktor bei Agora [wo hat er denn das her?! Anm. d. Übers.]. „Natürlich gibt es noch viele Unwägbarkeiten – Marktdesign, Vorschriften, Netzausbau und Erweiterung, Akzeptanz und Dekarbonisierung von Wärme und Transport – aber die Kosten spielen keine Rolle mehr“.

Allerdings fühlt der durchschnittliche Deutsche den Schmerz. Die Stromkosten sind dreimal so hoch wie in den USA, hauptsächlich wegen gestiegener Steuern auf Energie, um die Subventionen für grüne Energie stemmen zu können. Wärme ist so teuer geworden, dass sie „die zweite Miete“ genannt wird.

Die Industrie in Deutschland andererseits ist von den gesetzlich vorgeschriebenen Abgaben ausgenommen aus Angst, dass sie anderenfalls nicht mehr wettbewerbsfähig sind. Das bedeutet noch höhere Kosten für Bürger und den Mittelstand.

Deutschlands Emissionen liegen derzeit um 27% unter dem Niveau des Jahres 1990, was führend ist im Vergleich mit anderen europäischen Ländern, aber immer noch weit hinter dem zurückbleibt, was zur Erreichung des Zieles erforderlich ist.

Emissionen sind gesunken, während Kohlekraftwerke aufblühen. Kohle, besonders Braunkohle, ist eine billige Energiequelle in Deutschland, welches grüne Energiequellen subventioniert hat, damit diese wettbewerbsfähig bleiben. Kohle ist außerdem eine viel zuverlässigere Energiequelle, ist sie doch nicht von Wind und Sonne abhängig.

„Deutschlands CO2-Emissionen im Stromsektor sind seit 1995 nicht gesunken“, sagte Peiser. „Das Land wird fast mit Sicherheit seine Klimaziele bis 2020 weit verfehlen. Alles, was man mit den Erneuerbaren erreicht hat ist, die Null-Kohlenstoff-Kernenergie und die Niedrig-Kohlenstoff-Gasenergie aus dem Markt zu drängen, während die Erzeugung von Energie mittels Kohle zunehmend wettbewerbsfähig ist und aufblüht“.

Link: https://wattsupwiththat.com/2017/09/23/germany-probably-wont-meet-its-global-warming-goal-despite-shelling-out-800-billion-for-green-energy/

Übersetzt von Chris Frey EIKE




Globale Erwärmung: Wer sind jetzt die Leugner?

Eine neue, im Journal Nature Geoscience veröffentlichte Studie gibt vor, Maßnahmen der globalen Regierungen zur Reduktion des CO2-Ausstoßes zu stützen, um das Potential für globale Erwärmung während der nächsten 100 Jahre oder so abzumildern. Aber was die Studie in Wirklichkeit tut ist, praktisch jedes aktuelle Argument für radikale Maßnahmen gegen die Erwärmung zu untergraben.

Warum? In der Studie wird eingeräumt, dass 12 führende Universitäten und Modelle der Regierung, auf welche sich die Prophezeiungen der Klimaerwärmung stützen, fehlerhaft sind.

„Es gab einfach nicht die beschleunigte Erwärmung nach dem Jahr 2000, die in den Modellen zu sehen war“, sagt Myles Allen, Professor für Geowissenschaften bei Oxford und einer der Autoren der Studie. „Aus den Beobachtungen geht das einfach nicht hervor“.

Und natürlich hat er recht. Wie wir hier schon oft geschrieben haben, scheint der so gefürchtete Trend der „globalen Erwärmung“ irgendwann um das Jahr 1998 zum Stehen gekommen zu sein. Wir wissen, dass das so ist, weil die Temperaturmessungen via Satelliten zeigen, dass es seitdem praktisch keine Änderung mehr gegeben hat. Und Satellitenmessungen sind die genauesten Messungen der gesamten Atmosphäre und nicht nur aus Teilen davon.

Den UN-Modellen zufolge hätte die Temperatur um das Jahr 1995 stark zu steigen beginnen sollen. Bis zu diesem Jahr sollten wir demnach einen Temperaturanstieg von fast 1°C erreicht haben, was in geologischen Zeiträumen gedacht ein extrem kurzer Zeitraum wäre. Es waren jene Modelle, aufgrund derer der Welt das Narrativ übergestülpt wurde, dass sich unsere globalen ökonomischen Prioritäten schleunigst ändern müssen.

Die Wirklichkeit: Praktisch keine Änderung der Temperatur. Schlicht und ergreifend: die Modelle sind falsch!

Und doch fahren die Befürworter des Dogmas der globalen Erwärmung ungebremst damit fort, die Karrieren wissenschaftlich Abtrünniger zu ruinieren und Beleidigungen zu verbreiten wie etwa die Skeptiker als „Leugner“ zu bezeichnen – womit all jene, die mit der Wissenschaft der globalen Erwärmung nicht übereinstimmen, mit „Leugnern“ des Holocausts gleichgestellt werden sollen – während sie selbst nur allzu offensichtliche Fakten über „Klimawandel“ leugnen.

Wie wir schon im Mai geschrieben hatten, hatte der Sunday Telegraph in UK berichtet, dass die Temperaturen Anfang dieses Jahres stark zurückgegangen waren, nachdem zuvor 2016 das „heißeste Jahr jemals“ aufgetreten war. Wie kann das sein? 2016 war ein El Nino-Jahr, die immer besonders warm ausfallen.

„Während der letzten Monate sind die globalen Temperaturen um über 0,6°C gefallen: genau wie es vor 17 Jahren nach einem ähnlich starken El Nino der Fall war“. Nicht nur das, denn trotz der doom-and-gloom-Prophezeiungen durch bezahlte „Wissenschafts“-Prognostiker ist das Eis sowohl in der Arktis als auch in Grönland in diesem Jahr gewachsen [teilweise rekordverdächtig, wie man hier erkennen kann {deutschsprachig!}. Anm. d. Übers.].

Die jüngsten Revisionen von Klimadaten gingen allesamt nur in eine Richtung: Ältere Daten wurden zu kühleren Temperaturen hinab korrigiert, während Temperaturen aus jüngerer Zeit nach oben korrigiert worden sind. In einer ordentlichen Statistik würde Rauschen nicht durchweg nur in eine Richtung zeigen.

Aus all dem folgt: es sieht verdächtig danach aus, als ob Wissenschafts-Statistiker, welche große, fette Schecks von Regierungen erhalten, jedes nur denkbare Interesse daran haben, den Gedanken einer unvermeidlichen und katastrophalen Erwärmung weiter zu verbreiten, oder, wenn man so will, Geschäftsbücher zu fälschen.

Link: https://www.thegwpf.com/global-warming-who-are-the-deniers-now/

Übersetzt von Chris Frey EIKE




Ganz(?) München steht Kopf, denn die Stadt verfehlt ihre Ziele beim Kampf gegen den Klimawandel

Die Umwelt-Akademie e.V. und Netzwerk Klimaherbst e.V., Mittwoch, 27.09.2017, 19:00h: Die umweltpolitischen Sprecher der Parteien im Münchner Stadtrat: Sebastian Schall (Anmerkung: Studium Druck und Medientechnik), CSU Jens Röver, (Anmerkung: Dipl.-Politikwissenschaftler), SPD Sabine Krieger (Anmerkung: Lehramt an Gymmasien Sport und Sozialkunde, Studium Geografie), GRÜNE debattieren, wie die Stadt München ihre sich selbst gesteckten Klimaschutzziele erreichen will.

Anlass der Aktionen ist die schonungslos aufgedeckte Gefahr, die Stadt München könnte ihre CO2-Reduktionsziele nicht erreichen und damit Mitschuld am sich verschlimmernden Klima tragen. Jeder wird verstehen, dass Stadträte, welche aufgrund der Studie nun von ihrer möglichen Zukunftsschuld wissen, Entlastung brauchen. Und wie diese nur aussehen kann, wurde bereits verkündet.
[2] … Das Klimaziel müsse „in allen Bereichen zur Chefsache erklärt werden“, sagte Timpe bei der Vorstellung des Münchner Gutachtens am Donnerstagabend. Ob Oberbürgermeister, Firmenchefs, Bauunternehmer oder die Münchner Bürger – alle müssten aktiv in die Problematik einbezogen werden …

Der Anspruch

Stolz, wie es alle Stadtoberen sind (wenn die Bürger es bezahlen dürfen), will sich die bayerische Landeshauptstadt global positionieren. Und das nicht nur mit dem Oktoberfest, sondern mit wirklichen, höheren Werten:
[2] …angesichts des Anspruchs der Landeshauptstadt München, zu den Vorreitern beim Klimaschutz unter deutschen und internationalen Kommunen und Metropolen zu gehören …
Das ist verständlich und auch erforderlich, denn der Konkurrenzdruck ist enorm:

[2] … Ein vergleichbares Ziel haben sich in Deutschland zum Beispiel schon die 41 Kommunen gesetzt, die als sogenannte Masterplankommunen „100 Prozent Klimaschutz“ von der Bundesregierung gefördert werden …
Beispielhaft wurden die Stadtwerke München mit einem erklecklichen Budget ausgestattet, um dem CO2-Neutralitätsanspruch näher zu kommen:

WIKIPEDIA: Stadtwerke München
Die Ausbauoffensive Erneuerbare Energien ist mit einem Budget von rund neun Milliarden Euro ausgestattet worden.
München kann sich das allerdings problemlos aus der Portokasse leisten, denn ihr Schuldenstand ist im bundesweiten Vergleich zu vernachlässigen. Alleine bis zum „normalen Mittelwert“ ist unglaubliche „Schuldenluft“ nach oben frei:

SZ, 4. Januar 2017: Haushalt Theoretisch hat jeder Münchner knapp 500 Euro Schulden
Die Stadt verzeichnet einen neuen Rekord bei den Gewerbesteuern – und gibt trotzdem mehr Geld aus, als sie einnimmt
.

Im Vergleich: Die Summe der 103 deutschen kreisfreien Städte ist (im Mittel) mit 5.316 Euro je Einwohner verschuldet, Berlin hatte im Jahr 2014 einen Schuldenstand von 17.371 EUR / Einwohner [7].

Problemerkennung und Weg zur Lösungsfindung

Wenn in kommunalen Verwaltungen Probleme erkennbar werden, sind diese oft plötzlich hilflos. Warum sollte das beim Klimamanagement anders sein. Die 11 Klimaschutzmanager*innen der Stadt München sind mit Projektarbeiten voll ausgelastet und die Umweltreferentin ausgebildete Juristin. Wer wäre da noch übrig gewesen, das schon länger bekannte Problem zu analysieren?

Bild 1 Stadt München, Klimaschutzprojekt der Klimaschutzmanager*innen [8]. Bildquelle: Screenshot aus der Broschüre
Zum Glück gibt es jedoch immer „Helferlein“, welche so etwas gegen einen Obolus lösen, zumindest viele Wege dahin weisen. Genau so machte es die Stadt und befragte ein ausgewiesen Klimawandel-affin eingestelltes Institut.

Die Studie

Wie angedeutet: Wer bei einem Öko-Institut e.V. eine Studie beauftragt, wird sicher nicht erwartet haben, eine neutrale Analyse über Sinn und Unsinn seiner Klimaschutzmaßahmen zu erhalten. Entsprechend ist das Ergebnis der Studie und sie geht mit der Stadt auch hart ins Gericht.
Öko-Institut e.V., Juli 2017: [1] Klimaschutzziel und –strategie München 2050 Endbericht
[2] … München dürfte theoretisch von Juni 2019 an überhaupt keine Emissionen mehr ausstoßen, wenn es bis dahin einen gleichbleibenden Energiebedarf gibt.
Ganz so schlimm wurde es dann doch nicht. Etwas kompromissfähig muss man auch beim Verhindern des Klimauntergangs sein:

[6] … Die Gutachter raten der Stadt, die Anstrengungen zu verschärfen, sodass im Jahr 2030 nur noch drei Tonnen CO2 pro Person in die Atmosphäre geblasen werden (2013 waren es noch 11,8 Tonnen) und 2050 nur noch drei Tonnen pro Person,
allerdings versehen mit dem Hinweis, welche Konsequenzen dies hat:

Studie: [1] … Selbst das ambitionierte Ziel von 0,3 t Treibhausgas-Emissionen pro Kopf und Jahr ist zusammen mit dem in Tabelle 6-1 vorgeschlagenen zeitlichen Verlauf nicht kompatibel mit dem 1,5°-Ziel der internationalen Klimapolitik (vgl. Kapitel 6.2). Zur Erreichung des 1,5°-Zieles müsste die Reduktion der Emissionen sehr viel schneller erfolgen.

Stadt München: Ermittlung des Emissionsbudgets

Studie: [1] … Für die folgende Betrachtung wurde der Ansatz gewählt, dass das Emissonsbudget für die LH München entsprechend der Münchner Bevölkerung festgelegt wird. D.h., der Anteil der LH München am Gesamtbudget entspricht dem Anteil der Müncher Bevölkerung an der Weltbevölkerung im Jahr 2014. Da die Weltbevölkerung und die Münchner Bevölkerung nach aktuellen Schätzungen in einem ähnlichen Maße ansteigen, ist die Verwendung der Bevölkerungszahl aus dem Jahr 2014 ausreichend. Weitere Faktoren, wie zum Beipiel der größere Wohlstand in den Industriestaaten (und damit auch in München) gegenüber den Schwellen- und Entwicklungsländern, werden in diesem Ansatz nicht berücksichtigt.

Bild 2 Budgetszenarien München für das 1,5 Grad-Ziel [1]

Stadt München: Klimanutzen und CO2-Vermeidungskosten

Leider beinhaltet die Studie keine globalen Kostenaussagen oder Gesamt-Zusammenfassungen. Es wird deshalb von den öfters als Mittelwert gelisteten 20 EUR / t CO2 ausgegangen.
Damit wurde vom Autor ganz grob abgeschätzt, welchem „Klimanutzen“ welche Kosten gegenüberstehen. Berücksichtig wurde mit dem Faktor 0,75 die endliche Verweildauer des CO2 in der Atmosphäre von ca. 100 Jahren. Gerechnet wurde mit dem (noch) vom IPCC angegebenen Forcing von +3 Grad / CO2-Verdopplung, wie auch mit dem inzwischen als realistischer angesehenen Forcing von maximal +1 Grad / CO2-Verdopplung.

Bild 3 Anhand der Werte [1] Tabelle 6-3 abgeschätzte Klimawirkung und CO2-Vermeidungskosten der Szenarien (vom Autor erstellt)

Stadträte von München: Diesen Absatz bitte lesen

Damit ist dieser Artikel beim Kernpunkt angekommen. Die Stadträte von München sollten sich gut überlegen, ob man mit diesem vielen Geld auf der Welt nicht wesentlich mehr Nutzen erzielen kann, als über die vorgesehene, nutzloseste Art die Temperatur verringern zu wollen, wie es die CO2-Vermeidung darstellt. Nur, weil es andere Städte ebenfalls vormachen, wird es nicht sinnvoller:
EIKE 25.04.2017: [1] Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr
Auch den Bewohner von München bringt es überhaupt nichts, außer, dass ein Teil der städtischen Ausgaben mit CO2-Weihwasser bespritzt ist und dem Bau von Ökokathedralen dient.

München erwärmt sich gegenüber dem Umland um bis zu 10 °C. Da ist ein „Temperatur-Reduzierungsversuch“ durch CO2-Vermeidung erkennbar das Sinnloseste, was sich selbst klimahysterische Träumer überhaupt vorstellen können. Scheinbar träumen diese aber nicht.

Nur nebenbei sei noch erwähnt, dass CO2 ein lebensnotwendiger Pflanzendünger ist und der Planet sich aktuell seit 300 Mio. Jahren wieder am CO2-Minimum der letzten Milliarden Jahre befindet, alle Grünpflanzen dieser Erde somit buchstäblich „am Hungertuch“ nagen und nach mehr CO2 lechzen. Die Grünpflanzen haben beim IPCC jedoch keine Stimme.

Exkurs: Die Ableitung des globalen „1,5°-Ziels“ für München

Studie: [1] Die Weltgemeinschaft hat sich im November 2015 auf dem Weltklimagipfel in Paris darauf geeinigt, die Erwärmung der Erdatmosphäre auf einen Wert deutlich unterhalb von 2 Grad zu begrenzen. Die Begrenzung der Erderwärmung um 1,5 Grad gegenüber dem vorindustriellen Wert ist als Maximalziel im Beschluss enthalten.
Zur Begrenzung der Erderwärmung ist nach wissenschaftlichen Erkenntnissen des Weltklimarats (www.wri.org/ipcc) eine Begrenzung der CO2-Menge in der Atmosphäre erforderlich. Je geringer die angestrebte Erderwärmung, desto geringer ist die zulässige CO2-Konzentration in der Atmosphäre und demnach die Menge an CO2, die insgesamt in die Atmosphäre emittiert werden darf.
Die mögliche absolute Menge, die noch emittiert werden kann, das sogenannte Emissionsbudget, wurde vom International Panel of Climate Change (IPCC) in mehreren Modellierungsläufen für verschiedene Klimaziele berechnet. Demnach ist es für den weltweiten Klimaschutz nicht nur wichtig, bis zu einem Zieljahr 2050 ein bestimmtes relatives Minderungsziel gegenüber einem Ausgangsjahr zu erreichen. Vielmehr ist letztlich entscheidender, welche kumulierten Emissionen ab heute bis zum Jahr 2050 insgesamt erzeugt werden.
In Abbildung 6-1 ist das verbleibende CO2-Emissionsbudget für die Klimaziele „Begrenzung der Erderwärmung auf maximal 2 Grad“ (links) und „Begrenzung der Erderwärmung auf maximal 1,5 Grad“ (rechts) gegenübergestellt. Demnach beträgt das insgesamt verbleibende CO2-Budget, wenn die Erderwärmung mit 66 %iger Wahrscheinlichkeit auf 2 Grad begrenzt werden soll, ab dem Jahr 2015 noch 850 Gt CO2. Bei einer Begrenzung mit 66 %iger Wahrscheinlichkeit auf 1,5 Grad sind es nur noch 240 Gt CO2, die ab 2015 von der Weltgemeinschaft emittiert werden können.

Bild 4 Budgetszenarien Welt bis zum Jahr 2050 [1]
Studie: [1] Über eine Methode zur Verteilung des verbleibenden Budgets innerhalb der Staatengemeinschaft gibt es noch keine Festlegungen. In der Wissenschaft werden verschiedene Ansätze diskutiert.
Denkbar sind zum Beispiel Verteilungsansätze, die zur Berechnung nationaler Emissionsbudgets von einer gleichen Menge kumulierter Emissionen pro Kopf über einen bestimmten Zeitraum ausgehen. Weitere Ansätze gehen davon aus, dass Staaten, die bereits stärker zur Belastung der Atmosphäre beigetragen haben, auch stärker zur Eindämmung der Emissonen beitragen müssen (Verursacherprinzip). Die Verteilung der Minderungsverpflichtungen entsprechend dem Wohlstand der verschiedenen Länder wird bei Anwendung eines „Leistungsfähigkeitsprinzips“ angestrebt. Für weitere Ausführungen zu weiteren Optionen für die Verteilung des Emissionsbudgets, deren unterschiedliche Ausgestaltung sowie Vor- und Nachteile vergleiche zum Beispiel Marina Cazorla and Michael Toman (2000) und Kleber (2011).

Anhang: Wie (un-)genau kennt man das globale CO2-Budget?

In der Studie ist das CO2-Budget gelistet und so getan, als wäre dieses diskussionslos. Wie alles beim AGW-Klimawandel ist es aber nicht so. Das vom IPCC angegebene Budget basiert lediglich auf Vermutungen und den üblichen Computer-Simulationen.
Folgerichtig wird auch von Fachleuten darüber immer noch heiß diskutiert und man ist meilenweit von einem Konsens entfernt. Auszüge zu solchen Diskussionen anbei:

kaltesonne, Uli Weber, 29. April 2017 (sehr stark gekürzt): [9] Prozentrechnung müsste man können: Das en(t)liche CO2-Budget
Auf dem Internetblog „Klimalounge“ war am 11. April 2017 ein Artikel mit dem Titel „Können wir die globale Erwärmung rechtzeitig stoppen?“ erschienen. Mit der Aussage, ein befürchteter Temperaturanstieg von 1,5 bis 2 Grad erlaube nur noch ein globales CO2-Budget von 150 bis 1050 Gigatonnen (Gt), wird dann über Ausstiegszenarien aus den kohlenstoff-basierten fossilen Energieträgern schwadroniert. Dort wird behauptet, das Temperaturniveau, auf dem die globale Erwärmung später zum Halten käme, wäre in guter Näherung proportional zu den kumulativen CO2-Emissionen und um die globale Erwärmung zu stoppen, müssten noch vor 2050 globale Nullemissionen für CO2 erreicht werden.
… Bis zum Jahre 2015 hatte der Mensch aus der Nutzung fossiler Energieträger etwa 1400 Gt CO
2 zusätzlich in die Atmosphäre eingebracht (Quelle) und damit den CO2-Gehalt der Atmosphäre auf 400 ppm erhöht. Hier die IPCC-Abbildung aus dem Klimalounge-Artikel vom 11. April 2017:

Bild 5 [9] CO2-Budgetgrafik aus dem IPCC Synthesebericht (2014)
… Die Aussagen über das verbleibende globale CO2-Budget basieren offenbar auf dem Blasenwert aus der obigen IPCC-Grafik mit (480-530 ppm = 3.000 Gt CO2 = 1,75-2,0 dT °C).
… Wir können aus dem IPCC-Blasenwert mit (480-530 ppm = 3.000 Gt CO
2 = 1,75-2,0 DT °C) einmal ganz vorsichtig eine mittlere CO2-Konzentration von 510 ppm für einen maximalen anthropogenen Temperaturanstieg unter 2 Grad entnehmen. Diese 510 ppm entsprechen dann knapp 6.000 Gt CO2. Abzüglich der natürlichen atmosphärischen CO2-Menge ergibt sich daraus also ein ursprüngliches globales Emissionsbudget von 2.800 Gt CO2 für eine Temperaturerhöhung unter 2 Grad, das sogar noch um 200 GT CO2 kleiner ist, als im IPCC-Bubble angegeben wird. Von diesem ursprünglich verfügbaren globalen CO2-Budget von 2.800 Gt CO2 wären bereits 1.400 Gt CO2 „verbraucht“. Dieser Wert stimmt übrigens auch recht gut mit den Angaben der Bundeszentrale für politische Bildung überein, nach denen sich die Konzentration von CO2 seit Beginn der Industrialisierung um ca. 40 Prozent erhöht haben soll.
… Die Aussage über eine kumulative Wirkung von CO
2 zur Bemessung des verfügbaren CO2-Budgets in dem zitierten Klimalounge-Artikel ist aber nur insoweit korrekt, wie sich dieses CO2 auch noch in der Atmosphäre befindet. Das anthropogene CO2 hat in unserer Atmosphäre nämlich eine Verweildauer von nur etwa 120 Jahren (hier unter dem Stichwort „Kohlendioxid“).
Das globale CO2-Budget ist also gar nicht kumulativ, sondern fortlaufend „erneuerbar“! Mit dieser Verweildauer von etwa 120 Jahren für das anthropogene CO2 in unserer Atmosphäre beträgt das fortlaufende globale CO2-Budget für den anthropogenen CO2-Ausstoß also etwa 2.800 Gt CO2 pro 120 Jahre. Damit dürfte dann ein vorgeblich menschengemachter Temperaturanstieg sicher unter 2 Grad bleiben. Wir haben also eigentlich bis zum Jahre 2060 Zeit, um den anthropogenen CO2-Ausstoß auf jährlich 23 Gigatonnen (=2.800 Gt CO2 / 120 Jahre) zu begrenzen und damit das ominöse 2-Grad Ziel dauerhaft zu abzusichern. Von Null-Emissionen ab 2050 kann also selbst dann keine Rede sein, wenn man tatsächlich an einen menschengemachten Klimawandel durch CO2-Emmissionen glauben will.
… Die Dekarbonisierung der Welt erweist sich damit zum wiederholten Male als eine völlig unnötige Selbstkasteiung der Menschheit. Und aufgrund dieser religiös anmutenden Agenda will die westliche Welt jetzt freiwillig ihre kohlenstoff-basierte Lebensgrundlage zerstören und unseren daraus resultierenden Lebensstandard vernichten.

Selbstverständlich gibt es auch die genau gegensätzliche Extrem-Darstellung:
KLIMARETTER.INFO, 26. Juli 2017 (gekürzt): [10] CO₂-Budget vielleicht überschätzt
Möglicherweise muss sich die Weltgemeinschaft an ein noch knapperes CO2-Budget gewöhnen. Das hat jedenfalls eine neue Studie ergeben, die in dieser Woche im Fachmagazin Nature Climate Change erschienen ist. ….
Eine Studie von Klimaforschern wirft die Frage auf, wie das Zwei-Grad-Ziel eigentlich zu verstehen ist.
Genau genommen ist es nur eine Definitionsfrage … Wann aber die vorindustrielle Periode überhaupt anfängt, steht nicht in dem Vertrag. Ist die Zeit unmittelbar vor dem Durchbruch der Industrialisierung gemeint, also das Ende des 19. Jahrhunderts, oder schon eine frühere Phase? … Dass das einen Unterschied macht, zeigt die neue Studie: Schon in der Periode zwischen 1401 und 1800, so schreiben die Autoren, habe sich das Erdsystem durch menschliche Einflüsse um 0,2 Grad erwärmt …
Bezieht man das
Zwei-Grad-Ziel nun auf diese längere Periode, muss man den Status quo anders als bislang üblich beschreiben: Dann hat sich die Erde nicht „nur“ um das eine Grad erwärmt, das seit Ende des 19. Jahrhunderts durch die Industrialisierung und alles Folgende hinzugekommen ist, sondern schon um 1,2 Grad. Die Differenz zur Zwei-Grad-Marke verringert sich entsprechend – und so auch das CO2-Budget, bei einem Startpunkt im Jahr 1401 sogar um ganze 40 Prozent. Im Jahr 2014 hatte der Weltklimarat IPCC ein globales Budget von 3.000 Milliarden Tonnen CO2 ermittelt, das dann auf 1.800 Milliarden Tonnen zusammenschrumpfen würde. ..

Beim Klimawandel ist Desinformation alltäglich

Leider zeigt der Artikel auf Klimaretter.info [10] nur, wie von einer „Klimaintelligenz“ konsequent auch Desinformation verbreitet wird. Dass es aufgrund der vorhandenen, aber viel zu ungenauen Daten nicht möglich ist, vor der Industrialisierung einen angeblichen, anthropogenen Einfluss zu extrahieren, wurde in zwei Artikel aus ähnlichem Anlass bereits dargestellt:
EIKE 04.01.2017: Hat Kolumbus versehentlich die kleine Eiszeit angestoßen?
EIKE 09.09.2016: Hat die barbusige Dame um 1830 gegen den Klimawandel gekämpft? Eine ganz aktuelle Studie legt es nahe
Zudem ist der Klimavertrag zwar sehr ungenau und sagt wirklich nicht, wann die „vorindustrielle Zeit“ beginnt. Er sagt nicht einmal, welche Starttemperatur anzunehmen ist (Anmerkung: Die Differenz der möglichen Angaben beträgt immerhin 0,46 Grad, also so viel, wie der Unterschied zwischen dem 1,5 und 2 Grad Ziel), was bereits Anlass für einen detaillierten Artikel darüber war:

EIKE 04.10.2016: [4] Klimavertrag von Paris im Bundestag erreicht 100 % Zustimmung
Dass sich daraus jedoch ableiten ließe, es wäre eine Zeit zwischen 1400 … 1800 gemeint oder denkbar, ist vollkommener Schwachsinn und nur der Publizierwut der Autor*innen und der Hysterieschürung geschuldet.

Eher bemerkenswert am Artikel ist das Eingeständnis, dass die aktuelle Erwärmung bereits mehrere Hundert Jahre früher begann, als es immer berichtet wird. Diese Feststellung ist nicht neu und wurde auch öfters thematisiert:
EIKE 26.03.2016: Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende
EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES2k

Die Folgerung des Artikels von klimaretter.info hätte deshalb auch lauten können: Damit ist belegt, dass der Mensch nicht die wesentliche Ursache der aktuellen Erwärmung sein kann.
Mit diesem Eingeständnis bräche aber eine sorgfältig konstruierte (und computersimulierte) Gedankenwelt und Einkommensquelle für zig-tausend Klimaforscher und –Verwalter zusammen.

Warum reklamiert dieses (offensichtliche) Datenchaos dann niemand?

Antwort:
-Die meisten der 195 im IPCC paritätisch vertretenen Länder sind potentielle Empfänger künftiger Klimahilfsgelder. Diese werden den Teufel tun, es zu reklamieren. Vielleicht haben sie sogar dafür gesorgt, dass der Vertrag so ungenau geblieben ist und nur das Geldausschütten konkretisiert [4].
-Die Vertreter der das Geld gebenden Nationen haben teils fachliche Qualitäten, die jeglicher Beschreibung spotten [11]. Zudem sind deren Maßnahmen durch die Wünsche von Staatsführer*innen, – vollkommen unabhängig von Fakten, durch eine Klimarettung in die Geschichte eingehen zu wollen – vorgegeben.

Eine bekannte Erscheinung lässt sich in Deutschland dabei ebenfalls (wieder) beobachten. Wenn der / die große Vorsitzende den Weg gewiesen hat und alle Probleme mit wenigen Buchstaben behauptet zu lösen, folgen viele, gerade auch aus der „Intelligenz“ bedingungslos.

Quellen

[1] Öko-Institut e.V., Juli 2017: Klimaschutzziel und –strategie München 2050 Endbericht

[2] SZ 16. September 2017: Klimaschutz So wird München seine Klimaziele nicht einhalten

[3] BR24 15.09.2017: Klimaziele 2030 unerreichbar Bei Kohlendioxid-Reduzierung braucht München mehr Zeit

[4] EIKE 04.10.2016: Klimavertrag von Paris im Bundestag erreicht 100 % Zustimmung

[5] EIKE 17. September 2017: Reiche Länder hinsichtlich Extremwetter belastbarer

[6] SZ Printausgabe vom 16. / 17. September 2017, S. 81: Gefährliches Luftschloss

[7] berlin.de, Senatsverwaltung: Schulden des Landes Berlin

[8] Landeshauptstadt München, Broschüre: Die Klimaschutzmanagerinnen und Klimaschutzmanager der Landeshauptstadt München Tätigkeitsfelder und Projekte

[9] kaltesonne, Uli Weber, 29. April 2017: Prozentrechnung müsste man können: Das en(t)liche CO2-Budget

[10] KLIMARETTER.INFO, 26. Juli 2017: CO₂-Budget vielleicht überschätzt

[11] EIKE 21. August 2017: POLITISCHE BILANZ: Nicht „ob“, sondern „wie schnell“
EIKE 20.07.2017: Randalen von Atomfrontkämpfern werden von Frau Hendricks ausdrücklich als „Freunde des Staates und der Gesellschaft“ gelobt

EIKE 13. Juli 2017: Wie viele Unterschriften zum Klimavertrag wurden mit Geldversprechungen gekauft?

EIKE 27.03.2017: Nee, bei uns gibt´s keine Klimaleugner

EIKE 08.03.2017: In einer Zeit, die immer mehr von Unsicherheit und Ängsten geprägt ist, macht Klimaschutz Mut

[1] EIKE 25.04.2017: Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr