1

Die elemen­taren physika­lischen Fehler, welche zur Globale-Erwärmungs-Angst führten

Der Richter: Richter William Haskell Alsup, welcher den Vorsitz führen wird in der Causa „People of California“ vs. British Petroleum plc et al. darf man nicht unterschätzen. Er darf als leitendes Mitglied des Northern California Bench (was er seit fast zwei Jahrzehnten war) die Fälle aussuchen, die für ihn am interessantesten aussehen. Er ist kein gewöhnlicher Jurist mit Pudding-Gesicht. Bevor er sich der Jura zuwandte (wo er der Bürgerrechtsbewegung helfen wollte) legte er einen B.S. [Bachelor of Science] im Ingenieurswesen an der Mississippi State University ab.

Spielt nicht mit mir: Richter Alsup hebt ein Traktat seines Mentors hervor, dem Obersten Gerichtshof, an dem er einst als Gerichtsdiener arbeitete.

Vor sechs Jahren stritten sich die beiden Silicon-Valley-Riesen Oracle und Google in einer erbitterten Anhörung über neun Zeilen in einem Computer-Code, von dem Oracle sagte, dass Google diesen Code von Oracle gestohlen hat. Zur Vorbereitung hat Oracle 15 Millionen Zeilen des Android-Code getestet und herausgefunden, dass gerade mal neun Linien – eine Subroutine mit der Bezeichnung rangeCheck – Zeile für Zeile kopiert worden ist. Oracles Klage lautete, dass diese neun Zeilen des Codes ein entscheidendes Element im System waren, obwohl sie gerade mal 0,00006% der gesamten Android-Software ausmachten. Richter Alsup hat ihnen dieses Argument nicht abgenommen.

Um große Männer ranken sich Gerüchte. Hinter vorgehaltener Hand sagen Personen über Richter Alsup, dass er sich selbst die Programmiersprache Java beigebracht habe, so dass er in der Causa rangeCheck entscheidungsfähig war. Tatsächlich ist er mit Java nicht vertraut, aber er schreibt Computer-Programme mittels qBasic, welche normalerweise mit MS-DOS einhergeht. …

Damit ist er ein technisch erfahrener Richter – eine sehr seltene Kombination. Und er hat – was lobenswert, aber ebenfalls sehr selten ist – sich die Mühe gemacht und beiden Seiten neun wissenschaftliche Fragen zum Thema Klimawandel gestellt, was er als „Lehrstunde“ zum Thema verstanden wissen wollte.

Nachdem ich von diesem Verfahren sowie von Bill Alsups Rolle dabei gehört hatte, fragte ich mich, welche Argumentationskette einen wissenschaftlich gebildeten Richter davon überzeugen könnte, dass die Kläger, also zwei kalifornische Städte, die von den fünf weltgrößten Ölgesellschaften Geld haben wollen, um sich an den steigenden Meeresspiegel anzupassen, keinen Grund für einen Alarm bzgl. einer vom Menschen verursachten globalen Erwärmung haben.

Richter Alsup könnte die Klage der beiden Städte verwerfen unter der Voraussetzung, dass die Beklagten in der Lage sind, definitiv klarzumachen, dass Befürchtungen bzgl. einer globalen Erwärmung drastisch übertrieben worden sind.

Dazu zwei Vorschläge: Falls die folgenden zwei Vorschläge befolgt werden, könnte Richter Alsup entscheiden – und jeder außer ein paar Irredentisten* würden überzeugt werden und dem zustimmen – dass globale Erwärmung kein Problem war und dass die Angstmache vorbei ist.

[*Falls jemand – wie ich selbst – nicht weiß, was Irredentismus ist, steht hier bei Wikipedia etwas dazu. Anm. d. Übers.]

1. Man kann beweisen, dass ein elementarer physikalischer Fehler die einzige Ursache des Alarms um die globale Erwärmung ist – elementar deshalb, weil anderenfalls Nicht-Klimatologen es nicht begreifen würden.

2. Man kann mit Bezug auf diesen elementaren Fehler beweisen, dass die gegenwärtigen mittelfristigen Schätzungen der Gleichgewichts-Sensitivität bzgl. anthropogener Aktivitäten mindestens zweimal das sind, was es sein sollte.

Regelmäßig hier Lesende werden wissen, dass ich hier im vorigen Jahr seltener Beiträge gepostet habe. Grund hierfür ist, dass ich die Ehre hatte, ein Team von bedeutenden klimatologischen Forschern zu leiten, die im Stillen, aber sehr fleißig untersuchten, wie viel globale Erwärmung wir verursachen könnten. Bekannt ist dies als die „Gleichgewichts-Sensitivitäts“-Frage.

Wir können jetzt beide oben angesprochenen Punkte beweisen, und wir haben ausführlicher als gewöhnlich mittels multipler empirischer Verfahren gestützt, was wir zuvor mit einem theoretischen Verfahren gezeigt hatten. Alle sechs Verfahren kommen zur gleichen Abschätzung.

Drei Tage, bevor Richter Alsup seine Fragen zur Klimawissenschaft bekannt gegeben hat, hatte mein Team eine Studie mit unseren Ergebnissen einem führenden klimatologischen Journal zugeleitet (die Konvention verpflichtet mich, nicht vor der Veröffentlichung zu sagen, welches Journal das ist).

Frage des Richters:

Als mir die achte Frage des Richters vor Augen kam, die da lautet: „welches sind die Haupt-Wärmequellen, welche für den Temperaturanstieg auf der Erde verantwortlich sind?“, kontaktierte ich meine acht Ko-Autoren. Diese stimmten allesamt zu, eine amicus curiae oder „friend-of-the-court”-Antwort einzureichen.

Unsere Antwort:

Unsere amicus-Antwort, für uns übergeben von einem guten Freund des so wertvollen Heartland Institutes, schließt mit der ehrerbietigen Empfehlung, dass das Gericht die Klage abweisen sollte und dass es auch die Ölunternehmen dazu verurteilen sollte, ihre eigenen Kosten zu benennen, weil ihre öffentlichen me too-Statements mit der Aussage, dass globale Erwärmung ein „Problem“ ist, welchem man entgegen treten muss, auf genau dem gleichen elementaren Fehler beruhen wie die Klage der Kläger.

Tatsächlich haben die Ölgesellschaften zu juristischen Verfahren wie diesem eingeladen um zu klären, weshalb sie für die Kosten ihrer Sünden übernehmen sollten in Übereinstimmung mit dem historischen Prinzip volenti non fit injuria – falls sie ihre Haut zeigen und jemanden dazu auffordern, sie zu schlagen, soll man sich nicht beklagen, falls sie von jemandem getroffen wird.

Der Richter hat das Recht, die Antwort anzunehmen oder zurückzuweisen. Darum fügten wir unserer Antwort den üblichen kurzen Antrag an das Gericht bei, es zur Veröffentlichung anzunehmen. Da die Regeln des Gerichts verlangen, die Antwort als einen Anhang an dem Antrag bekannt zu machen, ist die Antwort in jedem Falle Teil der Gerichtspapiere. Sie wurde allen Parteien zugestellt und ist jetzt von der Öffentlichkeit einsehbar bei PACER, der Datenbasis für die Öffentlichkeit.

Darum kann ich jetzt endlich enthüllen, was wir entdeckt haben. Es gibt in der Tat einen elementaren physikalischen Fehler im Zentrum der Berechnungen der Gleichgewichts-Sensitivität seitens der Modelle. Nach der Korrektur dieses Fehlers und unter der großzügigen Annahme, dass die offizielle Klimatologie keinen anderen Fehler begangen hat außer dem, den wir entdeckt haben, wird die globale Erwärmung nicht 3,3 ± 1,2 K betragen, sondern lediglich 1,2 ± 0,15K. Und das können wir beweisen.

Der Beweis:

Diesen Beweis möchte ich jetzt umreißen. Beginnen wir mit dem Abstract der zugrunde liegenden Studie. Sie besteht aus lediglich [im englischen Original] 70 Wörtern, weil der Fehler wirklich erstaunlich elementar ist (obwohl ich etwa ein Dutzend Jahre gebraucht habe, um ihn dingfest zu machen):

Abstract: In einem dynamischen System induziert selbst ein nicht verstärktes Eingangssignal eine Reaktion auf jedwede Rückkopplung. Bislang jedoch wurde die große Rückkopplungs-Reaktion auf die Emissions-Temperatur fälschlich der Erwärmung durch die natürlich auftretenden, nicht kondensierten Treibhausgase zugeordnet. Nach der Korrektur konnte gezeigt werden, dass der theoretisch abgeleitete vorindustrielle Rückkopplungs-Anteil mit dem empirisch abgeleiteten Wert aus der industriellen Ära zusammenhängt, und zwar um eine Größenordnung unter den vorherigen Schätzungen, was die Reduktion der projizierten Charney-Sensitivität von 3,3 ± 1,2 K auf 1,2 ± 1,5 K erfordert.

Gleichungen: um das Folgende nachvollziehen zu können, brauchen wir drei Gleichungen:

Die Null-Dimensions-Modellgleichung (1) besagt, dass die Gleichgewichts-Sensitivität oder finale Erwärmung ΔTeq das Verhältnis ist der Referenz-Sensitivität oder der initialen Erwärmung ΔTref zu (1 – f ) ist, wobei f der Rückkopplungs-Anteil ist, d. h. der Anteil von ΔTeq,welcher von der Rückkopplungs-Reaktion von ΔT(ref) auf ΔTref repräsentiert wird. Der gesamten Differenz zwischen Referenz und Gleichgewichts-Sensitivität wird durch die Rückkopplungs-Reaktion ΔT(ref) Rechnung getragen (der eingeklammerte Term zeigt eine Rückkopplungs-Reaktion).

ΔTeq = ΔTref / (1 – f ). (1)

Das null-dimensionale Modell findet in den Allgemeinen Zirkulations-Modellen keine explizite Anwendung. Allerdings ist es der einfachste Ausdruck für die Differenz zwischen Gleichgewichts-Sensitivität vor Berücksichtigung der Rückkopplung sowie der Gleichgewichts-Sensitivität nach Berücksichtigung der Rückkopplungen. Gleichung (1), eine vereinfachte Form der Rückkopplungs-Verstärkungs-Gleichung, welche ihren Ursprung in der elektronischen Netzwerk-Analyse hat, kann allgemein angewendet werden, wenn man die Rückkopplungs-Reaktionen in allen dynamischen Systemen ableitet, welche Rückkopplungen enthalten. Die Modelle müssen dies notwendigerweise reflektieren.

Gleichung (1) wird diagnostisch angewendet, und nicht nur zur Ableitung der Gleichgewichts-Sensitivität (d. h. der finalen Erwärmung) aus offiziellen Eingangssignalen beizutragen, sondern auch zur Ableitung derjenigen Gleichgewichts-Sensitivität, welche die Modelle prophezeien würden, falls die Eingangssignale (wie etwa der Rückkopplungs-Anteil f) variiert werden. Wir führten eine sorgfältige Kalibrierung durch, um bestätigen zu können, dass die offizielle Referenz-Sensitivität und das offizielle Intervall des Rückkopplungs-Anteils tatsächlich das offizielle Intervall der Gleichgewichts-Sensitivität zeigt, falls sie in Gleichung (1) eingehen.

Die Gleichung des Rückkopplungs-Anteils (2): Falls die Referenz-Sensitivität ΔTref und die Gleichgewichts-Sensitivität ΔTeq spezifiziert werden, ergibt sich der Rückkopplungs-Anteil f durch die Formulierung von Gleichung (1) als Gleichung (2):

f = 1 – ΔTref / ΔTeq. (2)

Die Gleichung der Referenz-Sensitivität (3): Die Referenz-Sensitivität ΔTref ist das Produkt eines Strahlungsantriebs ΔQ0 in W/m² und des Planck’schen Referenz-Sensitivitäts-Parameters λ0 in K/W/m².

ΔTref = λ0 ΔQ0. (3)

Der Planck’sche Parameter λ0 wird gegenwärtig mit etwa 0,3125 oder 3,2–1 K W–1 m2 geschätzt (Soden & Held 2006; Bony 2006, Appendix A; IPCC 2007, p. 631 fn.). Der CO2-Strahlungsantrieb ΔQ0 beträgt 3,5 W/m² (Andrews 2012). Damit ergibt sich aus Gleichung (3) eine Referenz-Sensitivität ΔTref bei einer Verdoppelung der CO2-Konzentration von etwa 1,1 K.

Der „natürliche Treibhauseffekt“ beträgt nicht 32 K: Von der Differenz von 32 K zwischen der natürlichen Temperatur TN (= 287.6 K) im Jahre 1850 und der Emissionstemperatur TE (= 255.4 K) ohne Treibhausgase oder Temperatur-Rückkopplungen stellte man sich bislang vor, dass sie eine Grunderwärmung ΔTB von 8 K (25%) umfasst, direkt getrieben durch natürlich vorkommende, nicht kondensierende Treibhausgase sowie eine Rückkopplungs-Reaktion von 24 K (75%) ΔT(B) to ΔTB, was einem vorindustriellen Rückkopplungs-Anteil von f ≈ 24 / 32 = 0.75 (Lacis et al., 2010) entspricht.

Ähnlich ist es bei der mittelfristigen Referenz-Sensitivität der CMIP 3/5-Modelle ΔTS (= 3.5 x 0.3125 = 1.1 K) und der Charney-Sensitivität ΔT (= 3.3 K). Dabei ist die Charney-Sensitivität die Gleichgewichts-Sensitivität bei einer Verdoppelung des CO2-Gehaltes. Hier wird ein Rückkopplungs-Anteil von f = 1 – 1.1 / 3.3 = 0.67 (Gleichung 2) in der industriellen Ära impliziert.

Der Fehler: Klimatologen haben jedoch den schweren Fehler begangen, nicht zu erkennen, dass die Emissionstemperatur TE (= 255 K) selbst eine substantielle Rückkopplung induziert. Um diesen seit Langem bestehenden Fehler zu korrigieren, haben wir konkretisierend angenommen, dass die Rückkopplungs-Anteile f als Reaktion auf TE und ΔTB identisch seien. Dann haben wir f abgeleitet, indem wir die Delta-Werte ΔTref, ΔTeq in Gleichung 2 einfach ersetzt haben durch die zugrunde liegenden gesamten Quantitäten Tref, Teq, wobei wir Tref = TE + ΔTB und Teq = TN (Eq. 4) setzen:

f = 1 –Tref / Teq = 1 – (TE + ΔTB) / TN

= 1 – (255.4 + 8) / 287.6 = 0.08. (4)

Man vergleiche diesen wahren vorindustriellen Wert f = 0,08 mit der gegenwärtigen mittelfristigen Schätzung von f = 1 – 1.1 / 3.3 = 0.67 (Gleichung 2) seitens der CMIP5-Modelle und mit dem Wert f = 0,75, wie er von Lacis et al. (2010) nicht nur auf den „gesamten natürlichen Treibhauseffekt“ von 32 K, sondern auch auf das „gegenwärtige Klima“ angewendet worden ist.

Verifikation: Wir haben uns sehr viel Arbeit gemacht, um mit multiplen empirischen Verfahren das durch das theoretische Verfahren in Gleichung 4 abgeleitete Ergebnis zu verifizieren.

Test 1: Das best estimate des IPCC (IPCC 2013, Abb. SPM.5) lautet, dass etwa 2,29 W/m² des gesamten anthropogenen Antriebs während der industriellen Ära bis 2011 auftraten. Das Produkt dieses Wertes und dem Planck-Parameter ist die Referenz-Erwärmung von 0,72 K (Gleichung 3).

Jedoch wurde eine Erwärmung von 0,76 K beobachtet (als linearer Trend der monatlichen globalen mittleren Temperaturanomalien nach HadCRUT4 von 1850 bis 2011).

Daher ist der Rückkopplungs-Anteil f gleich 1 – 0.72 / 0.76. oder 0.05 (Gleichung 2). Das liegt nahe dem vorindustriellen Wert f = 0,08, jedoch um eine Größenordnung (d. h. um das Zehnfache) unter dem Modellwert von 0,67 oder dem Wert von Lacis 0,75.

Es gibt kaum eine Änderung, dass einige Rückkopplungen nicht in vollem Umfang aktiv waren. Die vom IPCC für die Ableitung der Gleichgewichts-Sensitivität als relevant gelisteten Rückkopplungen (2013, S. 818, Tabelle 9.5) werden vom IPCC (2013, S. 128, Abb. 1.29) mit folgender Dauer beschrieben: Wasserdampf- und Temperaturgefälle-Rückkopplung [lapse-rate feedback] mit Stunden, Wolken-Rückkopplungen mit Tagen und Oberflächen-Albedo-Rückkopplung mit Jahren.

Die neue Charney-Sensitivität: Die Charney-Sensitivität beträgt folglich nicht 1.1 / (1 – 0.67) = 3.3 K (Gleichung 1), wie es sich die CMIP5-Modelle ihrer mittelfristigen Schätzung nach vorgestellt haben (Andrews 2012). Stattdessen, egal ob f = 0,05 oder 0,08 ist, die Charney-Sensitivität ΔTeq = 1.1 / (1 – f ) beträgt 1,2 K (Gleichung 2). Dieser neue Wert [headline value] ist viel zu klein, um sich darüber Sorgen machen zu müssen.

Test 2: Wir stellten Mainstream-Schätzungen des gesamt-anthropogenen Antriebs über zehn verschiedene Zeiträume in der industriellen Ära zusammen und konvertierten jede einzelne davon mittels Gleichung 3 zu der Referenz-Sensitivität. Danach berechneten wir den Rückkopplungs-Anteil f für jeden Zeitraum mittels Gleichung 2.

Das Mittel der zehn Werte von f betrug 0,12, das ist um Einiges höher als der Wert von 0,05 auf der Grundlage der mittelfristigen IPCC-Schätzung von 2,29 W/m² des gesamt-anthropogenen Antriebs in der industriellen Ära. Die Differenz kam zustande durch drei Ausreißer [high-end outliers] in unserer Tabelle der zehn Ergebnisse. Wie auch immer dem sei, die Charney-Sensitivtät für f beträgt lediglich 1,25 K.

Test 3: Wir untersuchten, wie stark die Erwärmung seit 1950 war, als dem IPCC zufolge unser Einfluss auf das Klima erkennbar war. Die mittelfristige Vorhersage der Charney-Sensitivität seitens der CMIP5-Modelle bei 3,3 K ist gleich der ursprünglichen mittelfristigen Vorhersage der globalen Erwärmung im 21. Jahrhundert in IPCC 1990, S. xiv). Dort wird eine Erwärmung von 1,8 K vorhergesagt, verglichen mit der vorindustriellen Ära (äquivalent mit 1,35 K Erwärmung im Vergleich zu 1990) für den 40-jährigen Zeitraum von 1990 bis 2030. Dies ergibt eine Erwärmungsrate von 1,35 / (40 / 100) = 3,3 K pro Jahrhundert..

Diese Kongruenz der Werte erlaubt es uns, die aus f (0,05; 0,12) in Gleichung 4 abgeleitete Charney-Sensitivität zu vergleichen mit dem linearen Regressionstrend kleinster Quadrate in den monatlichen globalen mittleren Temperaturanomalien nach HadCRUT4, und zwar während der 68 Jahre von 1950 bis 2017. Die Jahrhundert-äquivalente Erwärmung betrug 1,2 K pro Jahrhundert:

Die Jahrhundert-äquivalente Erwärmungsrate von 1950 bis 2017 betrug 1,2 K pro Jahrhundert

Test 4: Wir verifizierten, dass die Jahrhundert-äquivalente Erwärmungsrate während der ersten 17 Jahre des 21. Jahrhunderts (ein Sechstel des Jahrhunderts) nicht signifikant größer war als die Rate seit 1950. Wir mittelten die monatlichen globalen mittleren Temperaturanomalien an der Oberfläche und in der untere Troposphäre aus den HadCRUT4 und UAH-Satelliten-Datensätzen und leiteten den linearen Regressionstrend kleinster Quadrate ab (die blaue Linie in der nachfolgenden Graphik).

Die Satellitendaten wurden mit übernommen, weil sie einen 8 km hohen Teil der Atmosphäre unmittelbar über der Oberfläche erfassen, und außerdem ist die räumliche Abdeckung größer als die der terrestrischen Messungen. Es ergab sich ein Trend von 0,22 K, äquivalent mit 1,3 K pro Jahrhundert:

Test 5: Um zu bestätigen, dass wir die Rückkopplungs-Theorie richtig verstanden haben, hörte einer meiner herausragenden Ko-Autoren, ein praktischer Elektronik-Ingenieur, von unseren Ergebnissen und konstruierte einen Aufbau, mit dem wir in der Lage waren, das Eingangssignal (d. h. die Emissionstemperatur TE) zu spezifizieren als ein Potential, ebenso wie den direct-gain-Faktor μ unter Beachtung der direkten natürlichen oder anthropogenen Antriebe sowie des Rückkopplungs-Anteils β (wir nutzen die präzisere Form von Gleichung 1, was bei einer elektronischen Netzwerk-Analyse normal ist). Dann war es eine ziemlich einfache Angelegenheit, das Ausgangssignal direkt zu messen (d. h. die Gleichgewichts-Sensitivität ΔTeq).

Das entscheidendste aller Experimente, welche wir mit diesem Aufbau durchführten war es, μ einheitlich zu setzen, was überhaupt keinen Treibhaus-Antrieb impliziert. Wir setzten den Rückkopplungs-Anteil β auf einen Wert ungleich Null und verifizierten dann, dass das Ausgangssignal um das erwartete Ausmaß über das Eingangssignal hinausging. Darüber waren wir in keiner Weise überrascht. Dieses Experiment bewies, dass die Emissionstemperatur allein eine Rückkopplungs-Reaktion induzierte, welche die Klimatologie bislang völlig übersehen hatte.

Das war der elementare Fehler der Klimatologen, den diese ein halbes Jahrhundert lang begingen und der seine verheerenden Auswirkungen hatte. Man betrachte noch einmal Abbildung 1. Das Eingangssignal fehlt vollständig. Obwohl es akzeptabel ist, mittels Gleichung 1 die Gleichgewichts-Sensitivitäten aus den Referenz-Sensitivitäten abzuleiten, war es der Fehler der Modellierer anzunehmen, wie es auch auch Lacis et al. 2010 und viele andere angenommen haben, dass die gesamte Differenz von 32 K zwischen der natürlichen Temperatur TN im Jahre 1850 und der Emissions-Temperatur TE dem natürlichen Treibhauseffekt zugeschrieben worden war unter Einbeziehung einer direkten Treibhaus-Erwärmung ΔTB = 8 K und einer sehr hohen Rückkopplungs-Reaktion ΔT(B) = 24 K auf ΔTB.

In Wirklichkeit jedoch – und das ist der entscheidende Punkt – induziert die Emissions-Temperatur TE (= 255 K) selbst beim Fehlen jedweder Treibhausgase eine starke Rückkopplungs-Reaktion ΔTE. Diese Rückkopplungs-Reaktion auf das Eingangssignal ist bei einer elektronischen Netzwerk-Analyse völlig unstrittig ebenso wie in der Regelungs-Technik allgemein. In der Klimatologie haben wir jedoch keinerlei Hinweise darauf gefunden, dass sie existiert.

Genau wie Lacis (2010) haben die Modellierer angenommen, dass der Rückkopplungs-Anteil der industriellen Ära in jeder Einzelheit genauso hoch sein muss wie der vorindustrielle Rückkopplungs-Anteil, den sie fälschlich aufgebläht haben mittels Hinzufügung der großen, von der Emissionstemperatur induzierten Rückkopplungs-Reaktion zu der geringen, von der Präsenz natürlicher Treibhausgase induzierten Rückkopplungs-Reaktion.

Es war diese Hypothese, welche die Modellierer dazu gebracht hat anzunehmen, dass es irgendwelche sehr stark positive Rückkopplungen geben muss, unter denen die größte die Wasserdampf-Rückkopplung ist. Obwohl jedoch die Clausius-Clapeyron’sche Gleichung zeigt, dass der von der Atmosphäre eingenommene Raum bei Erwärmung nahezu exponentiell mehr Wasserdampf aufnehmen kann, ist damit jedoch nicht gesagt, dass sie das muss.

Nehmen wir einmal an, es gäbe tatsächlich eine so große Wasserdampf-Rückkopplung wie die Modelle annehmen. (Diese haben eine sehr große Rückkopplung nur deswegen angenommen, weil sie versucht haben zu erklären, dass der hohe, aber fiktive Rückkopplungs-Anteil ihrer irrigen Annahme einer Emissionstemperatur von 255 K überhaupt keine Rückkopplungs-Reaktion induziert, während die nächsten 8 K Erwärmung auf magische Weise eine Rückkopplungs-Reaktion von 24 K induzieren). In diesem Falle verlangt die atmosphärische Dynamik, dass es einen tropischen mitteltroposphärischen „Hot Spot“ geben muss (ich hatte die Ehre, diese Bezeichnung einzuführen), in welchem die Erwärmungsrate zwei- bis dreimal so hoch sein sollte wie an der tropischen Erdoberfläche. Allerdings wird dieser „Hot Spot“ in der realen Welt nicht gefunden (siehe unten), außer in einem verdächtigen Datensatz, den Dr. Fred Singer vor einigen Jahren eingehend überprüft und dann nachgewiesen hatte, dass er falsch war.

Modelle prophezeien einen tropischen mitteltroposphärischen „Hot Spot“ (oben nach Santer 2003; links nach Lee et al. 2008; rechts nach Karl et al. 2006).

Dieser „Hot Spot“ ist in der gemessenen Wirklichkeit jedoch nicht aufzufinden (siehe unten). Unsere Ergebnisse zeigen den Grund dafür. Der „Hot Spot“ ist ein Artefakt des Fehlers der Modellierer, die von der Emissionstemperatur induzierte substantielle Rückkopplungs-Reaktion zu der von den natürlich auftretenden Treibhausgasen induzierten sehr geringen Rückkkopplungs-Reaktion hinzuzufügen.

Der von den Modellen prophezeite „Hot Spot“ ist in Wirklichkeit nicht existent (Karl et al. 2006)

Test 6: Sogar noch nachdem wir unseren eigenen Testaufbau konstruiert und betrieben haben, waren wir nicht zufrieden damit, dass irgendetwas anderes als ein unter rigorosen Bedingungen durchgeführter Test in einem Laboratorium der Regierung weithin akzeptiert werden würde. Soweit wir wissen ist dies das erste Mal, dass jemand versucht hat, die klimatologische Rückkopplungs-Theorie empirisch zu testen anstatt sie einfach nur zu modellieren.

Außerdem konstruierten wir auf der Grundlage unserer Ergebnisse im bisherigen Testaufbau eine ausgeklügeltere Spezifikation für einen neuen Testaufbau, zusammen mit unseren vier Testgruppen, welche 23 Sätze von drei Quantitäten umfassen – das Eingangssignal, der direct-gain-Faktor und der Rückkopplungsanteil. Mit dieser Spezifikation beauftragte ich ein Laboratorium der Regierung mit der Durchführung der Experimente.

Jedoch tauchte augenblicklich ein Problem auf – tatsächlich war es ein Problem, mit dem schon unser eigener Ingenieur gekämpft hatte. Die von der schon lange etablierten Regelungs-Theorie vorhergesagten Rückkopplungs-Reaktionen waren so gering, dass selbst die Gegenwart des Operators im gleichen Raum wie der Testaufbau dazu neigte, die Ergebnisse zu verzerren.

Außerdem arbeitete ich ein paar Monate lang mit einem geduldigen und liebenswerten Wissenschaftler des Laboratoriums zusammen. Indem ich die spezifizierten Werte des Ausgangszustandes der 23 Sätze etwas veränderte, war ich in der Lage, dem Wissenschaftler Werte präsentieren zu können, welche die Ergebnisse bis auf die geforderte Präzision genau berechnen konnte, aber ohne Einschränkung der experimentellen Integrität.

Nach angemessener Zeit ging der Bericht des Labors ein, und die Ergebnisse aller 23 Tests lagen bis auf ein Zehntel Kelvin genau bei den Werten, die wir theoretisch vorhergesagt hatten. Auch hier ergaben sich die wichtigsten Ergebnisse in der Testgruppe, in welcher der direct-gain-Faktor einheitlich gesetzt war. Damit konnten wir uns versichern, dass die Regelungs-Theorie korrekt war hinsichtlich der Prognose, dass selbst ein nicht verstärktes Eingangssignal bei Gegenwart eines Rückkopplungs-Anteils ungleich Null eine Rückkopplungs-Reaktion zeigt, welche es entweder verstärken oder es dämpfen würde.

Dann ergab sich eine andere Schwierigkeit. In meiner ursprünglichen Anfrage an das Laboratorium hatte ich nicht erwähnt, dass die Forschung irgendetwas mit Klimawandel zu tun hat, weil alles, was ich wollte war, festzustellen, ob wir die relevante Regelungs-Theorie richtig verstanden hatten.

Nach dem Bericht des Laboratoriums sandte ich demselben einen Entwurf unserer Studie, in welche dessen Ergebnisse Eingang gefunden hatten. Das Laboratorium geriet in Panik und sagte, dass wir den Bericht des Laboratoriums nicht verwenden dürfen.

Allerdings hatte ich in den Vertrag einen Terminus untergebracht, dem zufolge wir beabsichtigten, die Ergebnisse des Laboratoriums sowie eine Diskussion über dieselben in eine akademischen Studie einfließen zu lassen. Ein Kompromiss wurde erzielt, dem zufolge wir die Ergebnisse in unserer Studie nach Belieben anführen dürfen, solange wir nur weder den Namen des Laboratoriums noch den Namen des Wissenschaftlers nennen, welcher den hoch spezifizierten Testaufbau für uns konstruiert und betrieben hatte.

Das Laboratorium bestätigte freundlicherweise auch, dass wir die Ergebnisse ausgewogen in unserer Studie verwendet und daraus gerechtfertigte Schlussfolgerungen gezogen haben. Außerdem beförderte es den Wissenschaftler, der uns assistiert hatte, worüber wir uns sehr freuten. Er schrieb uns einen freundlichen Brief des Inhalts, dass er nicht zugelassen hatte und auch nie zulassen würde, dass sich die Politik in die Arbeit einmischt, welche er für uns gemacht hat.

Mit diesen Ergebnissen eines nationalen Laboratoriums (wir dürfen nicht einmal erwähnen, wo es lag) waren wir endlich zufrieden, weil wir eine hinreichend untermauerte Schlussfolgerung gezogen hatten.

Das wahre Bild: Wie sollte die Differenz von 32 K zwischen Emissions-Temperatur und natürlicher Temperatur aufgeteilt werden? Angenähert sind etwa 23,4 K dieser 32 K der Rückkopplungs-Reaktion der Emissions-Temperatur geschuldet, 8 K ist die direkt getriebene Erwärmung durch die natürlichen Treibhausgase, und lediglich 0,7 K sind die Rückkopplungs-Reaktion auf jene 8 K Erwärmung (Tafel B):

(a) Falsche Aufteilung der 32 K-Differenz zwischen natürlicher Temperatur im Jahre 1850 und Emissions-Temperatur beim Fehlen von Treibhausgasen, nach Lacis et al. 2010.

(b) Korrigierte Aufteilung der 32 K unter Berücksichtigung der Rückkopplungs-Reaktion (blau) auf die Emissions-Temperatur, die direkt getriebene Erwärmung durch die natürlich vorhandenen, nicht kondensierenden Treibhausgase (gelb) und die Rückkopplungs-Reaktion auf jene Treibhaus-Erwärmung (rot).

Nimmt man einmal die andere Sichtweise an, dann würde die Emissions-Temperatur der Erde von 255,4 K eine Rückkopplungs-Reaktion von 766,2 K induzieren, falls der Rückkopplungs-Anteil wirklich so groß wäre wie von Lacis et al. 2010 angenommen, also 0,75. Dann würden die 8 K Treibhauserwärmung eine Rückkopplungs-Reaktion von 24 K induzieren. Damit hätte die vorindustrielle oder natürliche Temperatur im Jahre 1850 255,4 + 766,2 + 8 + 24 ≈ 1054 K betragen müssen, das ist dreieinhalb mal so viel wie der wahre Wert von 287,6 K.

Wir berücksichtigten außerdem, ob Nicht-Linearitäten in individuellen Rückkopplungen unsere Ergebnisse vielleicht beeinträchtigen. Um jedoch die vom IPCC prophezeite Minimum-Charney-Sensitivität zu erhalten, müsste man den empirisch abgeleiteten Rückkopplungs-Anteil f = 0,05 der industriellen Ära mindestens mit fünf multiplizieren.

Der Grund dafür, warum selbst eine sehr große Nicht-Linearität in der Summe der Rückkopplungen und als Konsequenz davon im Rückkopplungs-Anteil kaum einen Unterschied der Gleichgewichts-Sensitivitäten bewirkt ist, dass die Kurve der Gleichgewichts-Sensitivitäten beim Vorhandensein verschiedener Rückkopplungs-Faktoren hyperbolisch verläuft (siehe unten). Unsere Ergebnisse zeigen, dass die Berechnung der Sensitivität nicht wie jetzt ziemlich nahe der Singularität f = 1 durchgeführt worden ist (man beachte, dass für f > 1 in Gleichung 1 Abkühlung vorhergesagt wird). Stattdessen wird die Berechnung am linken Rand der Kurve durchgeführt, wo die Sensitivität nur sehr langsam mit f zunimmt.

Die hyperbolische Kurve der Charney-Sensitivitäten als Reaktion auf Rückkopplungs-Anteile f, welche die gegenwärtigen Vorhersagen mit dem korrigierten Ergebnis vergleicht.

Was könnte nun vor Gericht herauskommen? Was wird der Richter aus all dem machen? Meine Vermutung ist, dass er unseren gutachterlichen Bericht zulassen wird. Mit seinem Hintergrund als Ingenieur wird es nicht schwierig für ihn sein zu verstehen, wenn wir sagen, dass die Brandmarkung einer globalen Erwärmung als ,katastrophal‘ anstatt als ,moderat‘ ihren Ursprung in dem elementaren physikalischen Fehler hat, den wir entdeckt haben.

Darum hoffen wir, dass der Richter alle beteiligten Parteien zu formalen Erwiderungen auf unseren Bericht auffordert. Egal wie man es betrachtet, es erhebt sich einfach die ernste Frage, ob die globale Erwärmung überhaupt irgendeine Rolle spielt – eine Frage, die nicht nur im Zentrum des Prozesses liegt, sondern auch für zahlreiche andere Verfahren gilt, zu denen es jetzt in der Rechtsprechung allgemein kommt – und die eine sorgfältige Koordination beweist.

Die beteiligten Parteien dürften kaum in der Lage sein, unser Ergebnis einfach vom Tisch zu wischen. Um es zu widerlegen, müssten sie zeigen, dass unser vorindustrieller Rückkopplungs-Anteil f = 0,08 falsch ist, den wir theoretisch aus der Mainstream-Regelungs-Theorie abgeleitet hatten; dass unser Wert von f = 0,05 aus der industriellen Ära ebenfalls falsch ist, den wir empirisch aus der IPCC-Abschätzung des gesamt-anthropogenen Antriebs und aus HadCRUT4 abgeleitet haben; dass unsere Kampagne mit zehn empirischen Berechnungen falsch ist, aus denen sich ein Rückkopplungs-Anteil f = 0,12 ergeben hatte; dass die Rate der gemessenen Erwärmung während der letzten 68 Jahre entweder falsch oder irrelevant ist; dass die Rate der gemessenen Erwärmung in diesem Jahrhundert bis heute ebenfalls falsch oder irrelevant ist; dass die Ergebnisse unseres Testaufbaus nicht anwendbar sind; dass die Ergebnisse eines Regierungs-Laboratoriums ebenfalls nicht anwendbar sind; und – über allem –, dass es gerechtfertigt ist anzunehmen, dass die Regelungs-Theorie falsch ist und dass eine Emissionstemperatur von 255,4 K überhaupt keine Rückkopplung erzeugt, während die nächsten 8 K Erwärmung plötzlich wie von Zauberhand eine Rückkopplung von 24 K verursachen soll.

Wir glauben nicht an Zauberei.

Schlussfolgerung: Die anthropogene globale Erwärmung, die man erwarten kann, wird gering sein, allmählich erfolgen und sogar insgesamt vorteilhaft sein. Sie wird in diesem Jahrhundert nur etwa 1,2 K betragen, ebenso wie 1,2 K durch CO2-Verdoppelung. Falls es den Parteien nicht gelingt zu zeigen, dass wir falsch liegen, und falls der Richter akzeptiert, dass wir unsere Ergebnisse hier zum ersten Mal öffentlich und detailliert bewiesen haben, dann beruht die Angstmache bzgl. der globalen Erwärmung tatsächlich auf einem atemberaubenden elementaren physikalischen Fehler.

Die von Regierungen und internationalen bürokratischen Institutionen viel zu schnell übernommene alarmistische Position hat zur ungeheuerlichsten Fehlleitung von Ressourcen in der Geschichte geführt.

Meine Damen und Herren, wir fordern ein Ende eines 50 Jahre alten Betrugs, in welchem eine kleine Zahl korrupter und politisierter Wissenschaftler, bezahlt von wissenschaftlich ahnungslosen Regierungen, die wiederum von fragwürdigen Lobbygruppen in Panik versetzt worden sind; Lobbygruppen, finanziert von zweifelhaften Milliardären und auswärtigen Regierungen, die Interesse am Niedergang des Westens haben und begleitet von plumpen und zunehmend totalitären Medien – all diese haben konspiriert, um eine einzelne Lüge voranzutreiben: das die Wissenschaft settled sei.

Nun, das ist sie nicht.

Link: https://wattsupwiththat.com/2018/03/19/global-warming-on-trial-and-the-elementary-error-of-physics-that-caused-the-global-warming-scare/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Dieser Beitrag ging einige Mal bis an die Grenzen des Verständnisses des Übersetzers. Außerdem geht aus den Schlussabsätzen hervor, dass Lord Monckton von einer Erwärmung durch CO2 ausgeht, wenn auch von einer geringen. Oder habe ich das falsch verstanden? – C. F.




Medien behandeln Öko-Terroristen wie Rockstars

Reporter sollten ihre Scheuklappen entfernen und mehr objektiv auf Menschen schauen, die daran arbeiten, Ölpipelines zu sabotieren und die Infrastruktur zu zerstören, schrieb der in Seattle ansässige Analyst Todd Myers am Donnerstag in einem Editorial der National Review. „Die Medien behandeln sie in vielerlei Hinsicht wie Rockstars“, fügte er hinzu und wies darauf hin, dass es den Aktivisten gelungen sei, eine wohlwollende Berichterstattung von Reportern zu erreichen.

„Wenn Reporter Brandbomben eher als Gesprächseinleitung denn als Verbrechen betrachten, kann es niemanden überraschen, dass Konservative glauben, die Umweltpolitik sei die Domäne der leicht Verrückten?“,  Schrieb Todd Myers, National Review, mit Verweis auf Gründe, warum manche Menschen dem Klimawandel skeptisch gegenüberstehen, neben anderer Umweltprobleme. „Die Voreingenommenheit der Reporter gegenüber einer knalligen Erzählung beschleunigt deren Untergang.“

Die Weigerung der Medien, unparteiisch zu bleiben, ist nicht neu, aber sie nutzen ihre Voreingenommenheit, um Extremisten zu schützen“ sagte Myers – er ist u.a. Leiter der Umweltabteilung des Washington Policy Center. „Beunruhigend ist, dass frühere Schranken, wie die Weigerung, Vandalismus und Brandstiftung als Vorwand zu benutzen, um über die öffentliche Politik herzuziehen, inzwischen ohne Hemmungen überschritten werden“.

Es ergibt einen Sinn, warum Reporter, starrsinnig sind. „Mutige Aktivisten, die Maßnahmen ergreifen und die Gefängnisstrafe für ein größeres Ideal riskieren, sind reizvoll für die Schlagzeilen, daher ist es einfach, Fragen über ihr Verhalten wegzuspülen. Aber die Medien müssen sensibler werden mit diesen Geschichten.“

Myers bezog sich auf einen Artikel vom Februar im New York Times Magazine, der Terroranschläge zu verherrlichen schien. Das NYT Magazine sprach glühend von der Entscheidung des Seattle Aktivisten Michael Foster, direkt gegen Pipelines vorzugehen.

[Eike berichtete davon hier]

Foster wurde im Oktober wegen Verschwörung und rücksichtsloser Gefährdung verurteilt, nachdem er einen Maschendrahtzaun durchschnitten und ein Absperrventil an der Keystone-Pipeline zu gedreht hatte, um gegen die Dakota Access Pipeline zu protestieren. Sein Verhalten in diesem Punkt hatte tiefgreifende negative Auswirkungen auf seine Kinder.

„Die Sprache der Reporter ist wehmütig“, sagte Myers über die öffentliche Beschreibung des Fall Foster.
„Den Moment zu beschreiben, als Foster bereit war, die Pipeline zu blockieren – sprudelt der NYT Reporter – Was Foster nicht erwartete, war, dass er, sobald er durch den Maschendrahtzaun gebrochen war, kurzzeitig von der Größe dessen, was er im Begriff war zu tun, überwältigt sein würde. Er drehte seinen Kopf aus dem beißenden Wind und überließ sich seinen Gefühlen und weinte“.

Myers bemerkte in seiner Kritik auch, dass der Reporter ein Foto schoss, das Foster und andere Aktivisten wie Ritter in glänzender Rüstung erscheinen ließ. „Das Foto zum Bericht, zeigt fünf Mitglieder der Gruppe, die neben einem Bach stehen und wie auf einem ein Indie-Rock-Albumcover in die Ferne blicken. Die Medien behandeln sie in vielerlei Hinsicht wie Rockstars.“

Foster hätte den Richter und die Jury und ihren Urteilsspruch anerkennen können, anstatt die Verurteilung anzufechten, wie er (Foster) Reportern kurz nach seiner Verurteilung mitteilte. Die Auswirkung, das Pipeline Ventil zu schließen, hätte auf die globale Erwärmung wahrscheinlich keinen Einfluss gehabt, gab Foster zu.

„Es ist ein Jahr her, und die Umweltverschmutzung ist heute schlimmer als an dem Tag, an dem ich das Keystone-Ventil geschlossen habe“, sagte Foster. Er sieht für seine Tat bis zu 21 Jahren Gefängnis vor sich. „Basierend darauf, ich frage mich, wie effektiv es war. Wenn die Menschen nicht schnell reagieren (auf den Klimawandel), ist das egal „, fügte er hinzu.

Erschienen auf The Daily Caller am 08.03.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/03/08/seattle-activists-dakota-access-pipeline-todd-myers/




Interview mit Patrick Moore – Teil 3: Energie und Gesellschaft

Grégoire Canlorbe: Nach den Worten des Ökonomie-Historikers E. A. Wrigley hat die Industrielle Revolution, zu der es auf der Grundlage fossiler Treibstoffe gekommen war, die Entstehung einer „Welt erlaubt, welche nicht mehr dem Rhythmus von Sonne und Jahreszeiten folgt; eine Welt, in welcher das Schicksal der Menschheit zum großen Teil davon abhängt, wie sie selbst die Wirtschaft lenkt und sie nicht von den Launen von Wetter und Ernte lenken lässt; eine Welt, in der Armut in den Stand einer Option geraten ist anstatt notwendige Grenzen menschlicher Produktivität zu reflektieren“. Der Ökonom Deepak Lal, Spezialist für vergleichende Studien von Zivilisationen, hat dies „promethisches Wachstum“ genannt als Gegensatz zum „Smith’schen Wachstum“, welches darauf aufbaut, wie stark das Ausmaß von Arbeitsteilung zunimmt.

Würden Sie so weit gehen, dass wenn man den Horizont des Ökologismus verteidigt, dies genau zu einem traditionellen Wachstum nach Smith zurückführt auf der Grundlage der Arbeitsteilung und einher gehend mit einer Ökonomie organischen Typs (also eine Landwirtschafts-Ökonomie), begrenzt durch das verfügbare urbare Land und gestützt durch Geburtenkontrolle?

Patrick Moore: Das sind sehr gute Fragen. Nun, einer der Widersprüche der grünen Umweltbewegung besteht darin, dass sie all diese moderne Technik von Internet und sozialen Medien benutzen und dass sie dafür die Energie verbrauchen, die jeden Tag ihres Lebens aus fossilen Treibstoffen erzeugt worden ist. Sei es, Energie zur Herstellung des Fahrrades, das sie benutzen oder sei es der Bildschirm, auf den sie starren. Sie nutzen all diese Früchte der modernen Zivilisation, während sie gleichzeitig genau diese moderne Zivilisation verdammen. Das werde ich nie verstehen. Ich meine, es ist doch völlig sinnfrei, und eine Art und Weise, dies zum Ausdruck zu bringen ist, dass man Scheinheiligkeit als Zivilverbrechen einstuft. Falls man dann nachweisen kann, dass man sehr häufig genau das macht, gegen das man kämpft, könnte man sich schuldig machen, und es muss einem verboten werden, das weiter zu tun.

Beispiel: Falls Sie an einer Tankstelle Ihr Auto betanken, sollten Sie vielleicht zuerst eine Frage beantworten: „Unterstützen Sie die Raffinerien und Pipelines und Ölfelder, welche diesen Treibstoff zu dieser Tankstelle bringen mit Rohrleitungen, Tankwagen und so weiter?“ Falls Sie antworten „Nein, ich bin gegen die Pipeline, ich bin gegen das Bohren“, dann sollte man Sie von der Tankstelle verweisen und eventuell Ihr Auto konfiszieren und es jemandem geben, der Benzin darin haben möchte. Für mich ist das eine hochgradig unehrliche Lage, dass wir es mit einer Bewegung zu tun haben, die behauptet, rechtschaffen zu sein und gleichzeitig heuchlerischer ist als man sich überhaupt vorstellen kann, ihr Leben in der Praxis so zu leben, wie sie es tun. Sie erinnern sich an die Pariser IPCC-Konferenz – wo fand sie statt? Direkt neben dem größten Privatflughafen der Welt, so dass alle Leute und deren Jets zu dieser Konferenz kommen konnten. Wie kann man das rechtfertigen? Warum sollten die Menschen jemandem zuhören, der sagt „Der Ölverbrauch muss gestoppt werden!“, und der dann mit seinem Privatjet zu einer Konferenz fliegt, welche sich gegen den Verbrauch von Öl richtet? Das scheint mir ziemlich offensichtlich.

Geht man zurück zum malthusianischen Denken, prophezeite Malthus natürlich, dass es zu Massen-Hungersnöten schon vor Jahrhunderten gekommen wäre, weil seiner Ansicht nach die Erzeugung von Nahrungsmitteln linear ist, während das Bevölkerungswachstum exponentiell ist. Nun, die Wahrheit ist, dass dies inzwischen genau umgekehrt ist. Die Bevölkerung wächst nicht mehr exponentiell; tatsächlich schwächt es sich hinsichtlich einer Exponentialkurve ab. Während die Erzeugung von Nahrungsmitteln exponentiell geworden ist hinsichtlich der Fähigkeit, die gesamte Weltbevölkerung zu ernähren – und genau das sehen wir ja mit unserem Wissen über Genetik und vielleicht noch ein wenig Erwärmung sowie mit viel mehr CO2 in der Atmosphäre – wird die Landwirtschaft auch ohne Schwierigkeit zehn Milliarden Menschen ernähren können.

Gerade heute Vormittag habe ich gelesen, was Richard Lindzen gesagt hat, dass nämlich die Temperatur während der letzten 150 Jahre um etwa 1°C gestiegen ist. Während dieser Zeit hat sich jeder einzelne Aspekt des menschlichen Wohlergehens verbessert, einschließlich Umweltqualität, vor allem in wohlhabenden Ländern, wo wir es uns die Technologie leisten können, die Luft in den Schloten der Kohlekraftwerke oder die Abgase unserer Autos zu reinigen. Was heutzutage aus dem Auspuff eines Autos herauskommt, ist fast durchweg nur Wasser und Kohlendioxid, und beides ist für das Leben unabdingbar. Was ich also sagen will, obwohl die meisten Leute dabei nach Luft schnappen – Tatsache ist, dass fossile Treibstoffe, Kohle, Petroleum, Erdgas zu 100% organisch sind – in der wissenschaftlichen Bedeutung von organisch. Organische Chemie ist die Chemie vom Kohlenstoff, mit anderen Worten, die Chemie des Lebens, und alle fossilen Treibstoffe stammen von Lebewesen, also sind sie zu 100% organisch. Sie sind zu 100% aus Sonnenenergie entstanden. Das war die einzige Energiequelle dafür.

Kohlendioxid und Wasser und Photosynthese sowie die vielen anderen Mineralien, die das Leben auf unserer Erde formen, lassen aus Chlorophyll im Sonnenlicht Zucker entstehen und damit die Basis aller Energie für das Leben auf der Erde. Das ist das Faktum: CO2 ist kein Verschmutzer! Das ist die Ur-Grundlage des Problems, dass man Kohlendioxid als Verschmutzer brandmarkt, als gefährlich für die Zukunft, obwohl es doch die Grundlage des Lebens selbst ist. Das Wichtigste, was also derzeit geschehen muss ist, auf globaler Basis diese Hysterie über CO2 und Klimawandel zu stoppen. Die USA müssen ihr endangerment finding der EPA verwerfen, in welchem CO2 ganz offiziell als „Verschmutzung“ gelistet ist, obwohl es in Wirklichkeit Pflanzendünger ist. Das ist es, was man der Welt klar machen muss.

Ich tue nicht so, als ob ich die Zukunft der menschlichen Zivilisation vorhersagen kann. Ich meine, es gab Katastrophen in der gesamten Historie, es gab und gibt Kriege, Krankheiten, Pestilenz und viele, viele schreckliche Dinge im Verlauf der menschlichen Zivilisation. Klimawandel gehört nicht dazu, aber zu anderen weiteren könnte es in einigen Gebieten kommen. Den meisten Menschen ist gar nicht bewusst, dass über zehn mal mehr Menschen in dieser Welt durch Kälte als durch Wärme sterben. Über zehn mal mehr. Sollte einen nicht schon diese eine Tatsache denken lassen, dass es vielleicht doch etwas wärmer sein sollte? Dann würden weniger Menschen durch Kälte sterben. Das ist doch nur zu offensichtlich.

Die meisten Menschen verstehen nicht einmal, dass wir Menschen eine tropische Spezies sind. Wir entwickelten uns am Äquator in einem warmen Klima. Daher kamen wir, daran haben wir uns angepasst. Darum heizen wir unsere Wohnungen in Frankreich und Kanada. Weil es draußen für uns zu kalt ist, würden wir sonst sterben. Nur mittels Feuer, Kleidung und Schutz in Wohnungen können Menschen außerhalb der Tropen leben. Wie viele Menschen wissen eigentlich, dass man bei +18°C im Schatten an Unterkühlung sterben würde, falls man nackt dort liegen würde?

Darum brauchen wir Wärme so dringend. Wir sind keine Kälte-resistente Spezies; wir haben kein Fettpolster und kein Fell, um uns vor der Kälte zu isolieren, wie es bei Seehunden oder Eisbären der Fall ist. Wenn doch die Menschen endlich aufhören würden, diesen Gedanken so grotesk zu übertreiben, dass es auf der Erde zu warm wird. Vor Millionen Jahren gab es weder am Nord- noch am Südpol Eis. Es gab kein Eis. Wir leben in der ersten Eiszeit seit 250 Millionen Jahren. Vor 250 Millionen Jahren gab es die vorige Eiszeit, aber dazwischen war es warm auf der Erde. Viel wärmer als heute. Jede einzelne heute auf der Erde lebende Spezies hat Vorfahren, die in einer viel wärmeren Zeit lebten. Je länger Spezies auf der Erde leben, und je mehr sich alles verändert, umso belastbarer wird das Leben.

Dann gibt es da die Behauptung eines Konsens‘ von 97% unter Wissenschaftlern, dass die Menschen einen gefährlichen Klimawandel verursachen. Um es gleich zu sagen, das ist eine Lüge, weil es hinsichtlich einer kontroversen Debatte niemals eine Unterstützung von 97% geben kann und wird. Die ureigene Definition einer kontroversen Debatte ist eine, bei der die Menschen geteilter Meinung und sich nicht fast einig sind; sonst gäbe es keine Fragen. Die Tatsache, dass so viele Menschen diese so genannte „Wahrheit“ eines gefährlichen Klimawandels hinterfragen ist in sich schon ein Beleg, dass es keinen Konsens gibt. Damit kommen wir zu dem wirklich wichtigen Punkt: Konsens ist kein wissenschaftlicher Terminus, sondern ein politischer und sozialer, und man darf diesen Terminus im Bereich der Wissenschaft niemals verwenden. Fast alle bedeutenden Entdeckungen in der Wissenschaft wurden von Individuen gemacht, von Sokrates bis Einstein. Alle diese Individuen stellten sich gegen den jeweiligen Konsens zu ihrer Zeit, häufig der Gefahr für Leib und Leben ausgesetzt.

Meiner Erfahrung nach sind es immer die an der vordersten Front stehenden Menschen, die Fortschritten den Weg bahnen, welche geschmäht und kritisiert werden. Dieser 97%-Konsens stammt von Leuten, die so blasiert und selbstsicher hinsichtlich ihrer Rechtschaffenheit sind, dass es nichts mit Wissenschaft zu tun hat. Es ist vielmehr eine anmaßende und scheinheilig tugendsame Bewegung, welche sämtliche anderen Aspekte der Diskussion verwirft, ganz so, als ob sie Götter wären, obwohl in Wirklichkeit der Terminus „der Kaiser hat ja gar nichts an!“ der richtige wäre für diese Situation. Darum bringt Donald Trump so frischen Wind in diese Sache. Ich bin kein Politiker und habe keine Meinung zu all den ökonomischen und sozialen Belangen, aber ich habe eine sehr feste Meinung beim Thema Klima, und die geht sehr stark in die gleiche Richtung wie Präsident Trump. Ich kann nur hoffen, dass die Welt diese lächerlichen Untergangsszenarien rund um Kohlendioxid bald ausmerzt, ist dieses Gas doch das wichtigste Nahrungsmittel für das gesamte Leben.

Link: https://wattsupwiththat.com/2018/03/13/a-conversation-with-patrick-moore/

Übersetzt von Chris Frey EIKE




Interview mit Patrick Moore – Teil 2: Kohlendioxid und Klima

Grégoire Canlorbe: Präsident Trump verlieh seinem Klima-Skeptizismus öffentlich Ausdruck. Damit folgt er dem Vorbild seines Amtskollegen in Russland. Es zeigte sich, dass der Skeptizismus von Mr. Putin bereits kurz nach der Jahrtausendwende angefangen hat, als sein Stab extensiv daran gearbeitet hatte, alle Aspekte der vermeintlichen globalen Erwärmung zu erkunden. Würden Sie glauben, dass der Kreml gemeinsam mit der Trump-Regierung zu einer Frontlinie des Kampfes gegen Klimawandel-Totalitarismus geworden ist?

Patrick Moore: Ja, es ist sehr offensichtlich, dass die Russen, vor allem russische Wissenschaftler, nicht glauben, dass ein vom Menschen verursachter Klimawandel eine Katastrophe in irgendeiner Form ist. Ich meine, die meisten Wissenschaftler werden sagen: ja, natürlich, es gibt über sieben Milliarden Menschen, und unsere Emissionen und Aktivitäten, vor allem die Urbarmachung von Land für den Ackerbau, haben offensichtlich irgendwelche Auswirkungen auf die Welt, aber ob sie auch einen gewaltigen Einfluss auf das Klima haben, ist doch ziemlich zweifelhaft, und ich glaube auch nicht daran. Im Falle des Mikroklimas – ja, in Städten gab es Veränderungen, die es im Inneren derselben wärmer werden ließen, was man den „städtischen Wärmeinsel-Effekt“ nennt. Wo immer man also in eine Stadt mit deren Betonmassen und Heizungen kommt, wird man sehen, dass es dort wärmer ist als in der Umgebung.

Einen Einfluss auf Temperatur, Klima usw. üben wir also aus. Aber zu sagen, dass dies eine Katastrophe ist – das ist der Unterschied. Es gibt keine Katastrophe, nichts passiert heute, nicht ein einziges Ereignis erleben wir, dass es nicht schon immer gegeben hat, egal ob nun Wetter oder Klima – nichts liegt außerhalb der Bandbreite des Klimas der letzten 10.000 Jahre, seit wir aus der letzten Eiszeit in die jetzige Zwischeneiszeit gekommen sind. Das Klima war relativ stabil, die Temperatur schwankte um den Bereich weniger Zehntelgrade, und Stürme hat es immer gegeben. Tatsächlich wird ja prophezeit, dass Stürme weniger häufig und weniger stark werden, wenn sich die Welt erwärmt, falls sie das überhaupt tut. Bislang haben wir kaum etwas Derartiges erlebt, es gab eine Erwärmung um weniger als ein Grad Celsius, und das soll die vermeintliche Katastrophe auf diesem Planeten sein.

Russland war also seit Langem skeptisch und niemals ein Gläubiger bzgl. Klima. Dann gibt es da noch Indien und China, und von beiden ist bekannt, dass sie zwar nominell der Politik bzgl. Klimawandel folgen, in Wirklichkeit aber an der politischen Front kaum etwas tun, um diesem so genannten Problem zu begegnen. Sie machen einfach mit ihrer Entwicklung weiter, und sie glauben einfach nicht wie die Menschen in Westeuropa und Nordamerika an einen von den Menschen verursachten gefährlichen Klimawandel. Darum bin ich sehr erfreut, dass Präsident Trump die Haltung eingenommen hat, die er jetzt zeigt, weil wir bislang auf einen Weg in eine Katastrophe geführt worden sind, aber nicht durch den Verbrauch fossiler Treibstoffe, sondern durch die Hysterie hinsichtlich Klimawandel und Kohlendioxid.

Was ich meine ist, dass ich seit über 30 Jahren ein Skeptiker bin, und zwar seit dem Jahr 1989, als dieses Thema zum ersten Mal groß in den Medien aufgetaucht war. Mir war zu jener Zeit klar, dass wir dieses Thema sehr ernst hinterfragen sollten, ob Kohlendioxid irgendwie ein Verschmutzer ist oder die Welt zerstören wird. Weil aber in Wirklichkeit das Kohlendioxid die Grundlage allen Lebens bildet, schrieb ich im Jahre 1991 einen Artikel mit der Überschrift [übersetzt] „Kohlenstoff ist die Währung des Lebens“. In jenem Artikel argumentierte ich entsprechend, aber schon bald gingen diese Argumente in der überwältigen Sturzflut der Klimawandel-Hysterie unter. Ich argumentierte, dass wir zunächst erkennen müssen, dass Kohlenstoff und Kohlendioxid die Grundlagen allen Lebens auf der Erde sind. Aller Kohlenstoff in meinem und in Ihrem Körper und in den Körpern aller anderen Menschen sowie in sämtlichen Pflanzen und anderen Tieren entstand durch das Kohlendioxid in der Atmosphäre. Also war ich von Anfang an skeptisch; ich hinterfragte die Fähigkeit der Wissenschaft, auch nur eine Ahnung davon zu haben, ob einige dieser Aspekte richtig oder falsch sind.

Es gibt keinen einzigen wissenschaftlichen Beweis dafür, dass CO2 der Hauptgrund für das bisschen Erwärmung ist, zu der es während der letzten paar Jahrhunderte gekommen ist. Vor 300 Jahren herrschte die Kleine Eiszeit, vor etwa 200 Jahren das Moderne Minimum infolge schwacher Sonnenaktivität, von der einige Menschen sagen, dass sich genau dies jetzt wiederholt. Das werden wir sehen. Aber der relevante Faktor ist, dass sich die Welt allmählich seit 300 Jahren erwärmt hat, also schon lange, bevor wir fossile Treibstoffe zu verbrennen angefangen haben. Selbst das IPCC sagt, dass die Menschen für den größten Teil der Erwärmung seit Mitte des vorigen Jahrhunderts verantwortlich sind, das heißt also seit 1950, vor nur 67 Jahren. Sie sagen also, dass sich das Klima während der ersten 4,6 Milliarden Jahre der Erdgeschichte ausschließlich aufgrund natürlicher Faktoren verändert hat. Erwähnt werden solare Zyklen wie der Milankovitch-Zyklus sowie Meeresströme. Es gibt viele natürliche Faktoren, welche das Klima beeinflussen, aber seit 1950, also seit 67 Jahren, sollen plötzlich wir den dominanten Einfluss auf das sich wandelnde Klima auf der Erde ausüben?

Schon hier kann man erkennen, wie lächerlich das Argument der Alarmisten daherkommt, als ob die natürlichen Kräfte, welche das Erdklima um Größenordnungen verändert haben, vor allem hinsichtlich größerer Änderungen der Temperatur, zum Erliegen gekommen sind und plötzlich wir selbst der Hauptgrund für den Klimawandel sind. Betrachtet man dies durch die Fakten-Brille, wird die ganze Lächerlichkeit dieser Behauptung offenbar. Es gibt keinen Beweis, falls es überhaupt einen gibt, dass menschliche CO2-Emissionen die Ursache der Erwärmung des Klimas sind. Sie könnten einen solchen Beweis auf ein Blatt Papier schreiben, damit wir ihn bewerten können, aber sie haben keinen solchen Beweis. Alles, was sie haben, ist die Hypothese, dass CO2 ein Treibhausgas wie Wasserdampf ist, nur das Wasserdampf etwa 100 mal bedeutender ist als CO2. Sie sagen also einfach, dass CO2 ein Treibhausgas ist und dass es deshalb die Ursache der Erwärmung des Klimas sein muss. Sie haben keinerlei Beweis zur Stützung dieser Hypothese. Und darum ist es in gewisser Weise sehr frustrierend, weil sie an diesem Punkt ansetzen und sagen, „nun, das ist einfache Physik, die Wissenschaft ist settled, die Debatte ist vorüber“.

Was soll man dazu sagen? Im Grunde sagen sie: „Behelligen Sie mich nicht mit Ihren Kinkerlitzchen! Ich bin die Wahrheit, obwohl ich dafür keinen wirklichen Beweis habe“. Darum glauben so viele Menschen, dass sich das Thema Klimawandel zu einer neuen Art der Religion gewandelt hat, wartet doch sogar der Papst in Rom mit einer Enzyklika auf, in welcher er die Menschen schlecht macht. Es ist schrecklich, was er über die menschliche Spezies in seiner Enzyklika sagt. Er sagt, dass wir die Erde zu einem „Dreckhaufen“ gemacht haben. Nun gibt es natürlich einige Müllhalden auf der Welt, aber was sind sie? Gefüllt mit Papier und Plastik und Altmetall und dergleichen. Das ist nicht das Schlechteste, was passieren kann, und alle anderen Spezies erzeugen ebenfalls Abfall. Und mit der Zeit wird dieser Abfall von der Erde recycelt. Bei einer großen Religion wie etwa der katholischen Religion akzeptiere ich einfach nicht, dass die menschliche Spezies im Grunde als böse, schmutzig und schädlich charakterisiert wird. Ich höre nicht hin, weil ich weiß, dass damit an Menschen appelliert werden soll, welche an Untergang, Apokalypse, Katastrophe glauben…

Von Beginn der Menschheit an gab es immer irgendwelche Leute, welche den Untergang predigten, „das Ende ist nahe herbei gekommen“, und für mich ist dies nichts weiter als eine Reflektion ihres eigenen kurzen Lebens; sie haben Angst vor dem Sterben und projizieren dies auf die ganze Welt, das heißt sie haben Angst, dass die ganze Welt stirbt. Das wird nicht geschehen, die Erde wird noch sehr lange Zeit bestehen, und sie wird dabei auch grün und wunderbar bleiben. Das heißt, sie würde nicht so grün und wunderbar bleiben, falls ihr das Kohlendioxid ausgeht; mit anderen Worten, falls alles Kohlendioxid verbraucht ist. Erst vor zwei Jahren habe ich all diese Puzzleteile in meiner eigenen Analyse zum Thema Klima zusammengestellt, zum Thema CO2, des Lebens auf der Erde, wobei ich zurückgegriffen habe auf die Tatsache, dass Kohlendioxid der primäre Nährstoff für alles Leben ist, zusammen mit Wasser. Wasser und Kohlendioxid werden via Photosynthese zu Zucker, welcher die Energie-Grundlage alles Lebens auf der Erde ist, einschließlich unseres eigenen Lebens. Man muss also mit diesem grundlegenden Faktor anfangen.

Aber wenn man unser Wissen über die Historie des Kohlendioxid-Anteils in der globalen Atmosphäre während der letzten 500 Millionen Jahre betrachtet, gibt es da kaum belastbare Zahlen, aber wir haben Proxies und Sedimente, welche Auskunft geben über die CO2-Konzentration in der Atmosphäre und welche eine halbe Milliarde Jahre zurückreichen. Was man daraus ableiten kann, ist eine zwar unregelmäßige, aber graduelle Abnahme des Kohlendioxids von mindestens 5000 ppm oder 0,5% vor 500 Millionen Jahren bis auf das niedrigste Niveau jemals während der letzten Vereisung vor 20.000 Jahren, als das CO2 nur noch einen Anteil von 180 ppm ausmachte. Dieser Anteil liegt um nur 30 ppm über dem Niveau, unterhalb dessen die meisten Pflanzen eingehen würden.

Pflanzen brauchen nicht nur Kohlendioxid zum Überleben, sie brauchen auch ein bestimmtes Mindestniveau davon, genauso wie wir Sauerstoff zum Überleben brauchen. Aber 5% Sauerstoffanteil in der Atmosphäre wären nicht ausreichend für unser Überleben. Wir brauchen das heutige Niveau, also einen Anteil von etwa 20% zum Überleben. Bei Pflanzen und CO2 ist es genauso, und das CO2 hat sich immer mehr dem Niveau angenähert, unterhalb dessen Pflanzen eingehen würden. Damit durchlief die Erde die Eiszeiten des Pleistozäns, mit einer Vereisung nach der Anderen – mindestens 22 davon während dieses Zeitraumes von 2,5 Millionen Jahren. Aber es ist offensichtlich, dass falls wir nicht interveniert und ein wenig CO2 in die Atmosphäre eingebracht hätten, dieses Grundniveau allmählich unterschritten worden wäre. Das CO2 ist von den Pflanzen aus der Atmosphäre entfernt worden, und es entstanden fossile Treibstoffe, von grünen Organismen, die zu fossilen Treibstoffen wurden, und es ist entfernt worden von marinen Organismen mit ihren Schalen, woraus sich Kalziumkarbonat bildete … Kalziumkarbonat ist weitaus häufiger in der Erdkruste enthalten als fossile Treibstoffe, tausende Male mehr, und der gesamte Kohlenstoff in dem Kalziumkarbonat stammt aus dem im Meerwasser gelösten Kohlendioxid. Dieser Kohlenstoff ist jetzt verschlossen in Felsen, welche Kalksteine genannt werden. Darunter sind Marmor und Kreide; die weißen Klippen von Dover in England beispielsweise bestehen aus Kalk, welches einst vom maritimen Plankton gebildet worden war.

Marmor, Kreide und Kalk, wahrscheinlich die reichlichste Form von Kalziumkarbonat, aber auch das Gestein der Dolomiten in der Schweiz bestehen daraus. Alle diese Kalkformationen haben ihren Ursprung in Lebewesen. Sie wurden gebildet von den Schalen von Lebewesen bis hinab zu pflanzlichem Plankton im Meer, die Grundlage der Nahrungskette im Ozean. Aber auch die großen Schalen der Korallenriffe bestehen aus Kalziumkarbonat. Diese werden zu Sedimenten, und es gibt 100 Millionen Milliarden Tonnen Kalkgestein in der Erdkruste, auf dem Meeresboden und auf dem Festland, welches sich aus dem Meer erhoben hat. Alles war ursprünglich im Wasser gelöstes Kohlendioxid. Das ist der Grund, warum CO2 während der Jahrmillionen stetig abgenommen hat – bis auf ein Niveau, dass lebensbedrohlich war, unmittelbar bevor wir anfingen, fossile Treibstoffe zu verbrennen – einem Wimpernschlag der Erdgeschichte.

Es gibt Einiges an Ironie in dieser ganzen Geschichte. Als nämlich maritime Organismen gelernt hatten, um sich herum Schutzschilde zu bilden mittels des Kalziumkarbonats, eine Muschelschale, die Panzer von Krebsen und Garnelen, die Korallenriffe selbst, um die kleinen, weichen Organismen darin vor Raubtieren zu schützen, sorgten diese Schalen dafür, das Leben zu schützen. Aber tatsächlich ist die unerwartete Konsequenz dieses Selbstschutzes, dass damit der Atmosphäre und dem Meer Kohlendioxid in einem Ausmaß entzogen worden ist, welches immer bedrohlicher für das Leben geworden ist. Ohne die Intervention der Menschen mit ihrem Verbrauch fossiler Treibstoffe und der Herstellung von Zement aus Kalkstein, welche 5% der menschlichen CO2-Emissionen ausmacht, hätte das CO2 immer weiter abgenommen, bis das Leben tatsächlich auszusterben begonnen hätte. Das ist meine Hypothese. Die Menschen mögen das als weit hergeholt betrachten, aber irgendwann werden sie sehen, dass es stimmt, weil es stimmt. Wir sind die einzige Spezies, die in der Lage ist, in der Erde nach Kohle, Öl und Gas zu bohren und diese Stoffe zur Energieerzeugung zu verbrennen. Dies bringt einen Ausgleich in den Kohlenstoff-Kreislauf im globalen Maßstab.

Wir haben unbeabsichtigt die Erde vor dem Tod alles Lebens auf ihr bewahrt. Wir sind die Erhaltung des Lebens, und nicht dessen Zerstörer. Und ich weiß, dass viele dies skeptisch sehen, aber falls man es genau unter die Lupe nimmt und man meine Studien liest; falls man meinen Vortrag vor dem GWPF auf YouTube anschaut, dann wird man erkennen, dass meine Argumentation korrekt ist. Tatsächlich hat bisher niemand diese Argumentation in Frage gestellt. Alles, was die Alarmisten tun ist, ihre Gegner anzugreifen, weil sie nicht die Tatsache aus der Welt schaffen können, dass das CO2 bis auf ein Niveau abgenommen hat, an dem es das Überleben des Lebens auf der Erde selbst bedroht hat. Es könnte in einer oder in zwei Millionen Jahren geschehen, aber das ist fast nichts im Vergleich mit der 3,5 Milliarden Jahre langen Historie des Lebens auf der Erde. Zwei Millionen Jahre sind in den Augen der Natur ein Wimpernschlag. Das wäre geschehen, wenn es immer so weiter gegangen wäre. Aber dann traten die Menschen auf den Plan, verbrannten fossile Treibstoffe zur Energieerzeugung, stellten Zement aus Kalkstein her und gaben der Atmosphäre auf diese Weise CO2 zurück. Damit haben die Menschen den Kohlenstoff-Kreislauf stabilisiert. Das ist meine Argumentation, und dabei bleibe ich auch, weil ich weiß, dass ich recht habe.

Teil 3 mit dem Thema ,Energie und Gesellschaft‘ folgt demnächst.

Link: https://wattsupwiththat.com/2018/03/13/a-conversation-with-patrick-moore/




Königspinguine sind die Eisbären der Antarktis

Ob die Königspinguine den durch den Klimawandel erzwungenen Umzug schaffen, ist fraglich

Wieder ist eine Tierart vom Aussterben bedroht. Eine aktuelle Studie [7] hat es ermittelt und der Welt mitgeteilt. Wie üblich, wurde die Meldung von praktisch allen deutschen Medien (und welchen im nahegelegenen Ausland) sofort übernommen:
Wildtiere CH, 1. März 2018: Klimaerwärmung 70 Prozent der Königspinguine bedroht
Die Klimaerwärmung bedroht rund 70 Prozent der Königspinguin-Bestände. Sollten die Treibhausgas-Emissionen nicht zurückgehen, müssten rund 1,1 Millionen Brutpaare ihre Brutplätze verlassen oder würden verschwinden.
WELT, 27.02.2018: [10] Den Königspinguinen wird es zu warm zum Brüten
Jahrtausendelang war für Königspinguine klar: Die antarktische Polarfront serviert ihnen den Fisch dort, wo sie ihn brauchen. Der Klimawandel ändert auch für die Frackträger alles. Ob sie einen Umzug schaffen, ist fraglich. Der Klimawandel bedroht mehr als 70 Prozent der Kolonien der Königspinguine … Die Tiere müssen demnach in südlichere und damit kältere Gebiete umziehen … Es werde sicherlich Verluste geben, weitreichende Schutzmaßnahmen seien nötig.

Dabei ist die Überschrift der Meldungen nicht ganz richtig. Nicht den Pinguinen wird es zu warm zum Brüten. Sie vertragen dabei mehr Wärme, aber der nahrungsreiche Kaltwassergürtel um die Brutinseln verlagert sich aufgrund der Meereserwärmung wohl Richtung Süden, so dass die Pinguine zur Nahrungssuche weiter schwimmen müssen.

Bild 1 Antarktis mit der antarktischen Konvergenzzone (blaue Linie). Vom Autor eingezeichnet die Brutinseln der Königspinguine. Bildquelle: WIKIPEDIA

Das Umweltbundesamt weiß noch mehr darüber zu berichten

Umweltbundesamt 25.04.2015: [13] Am 25. April ist Weltpinguintag
Was der Eisbär für den Nordpol ist, ist der Pinguin für den Südpol … Eisbären und Pinguine haben – abgesehen von ihrem kalten Lebensraum – eine weitere Gemeinsamkeit: Sie sind durch den Klimawandel bedroht. Mehrere Forschungsergebnisse deuten auf zum Teil dramatische Einbußen bei Pinguinbeständen hin. Schuld ist der klimabedingte Rückgang des Meereises, der wiederum zu geringeren Krillbeständen geführt hat.

Früher haben die Pinguine solche Veränderungen überlebt, doch wegen des Klimawandels …

Immer interessant ist, wie nach einer anscheinend eindeutigen Überschrift die Einflussfaktoren innerhalb der Artikel jongliert werden. Im Artikel ist die Verlagerung des Kaltwasserstromes nicht mehr das Hauptproblem, sondern die beginnende Überfischung dieser Zone und die Überpopulation der Antarktis durch andere Pinguinarten, welche wohl vom Klimawandel besonders stark profitieren.
WELT 27.02.2018: [10] … Über Jahrtausende habe sich der Königspinguin auf die antarktische Polarfront verlassen können, schreiben die Forscher. Das ist ein Strömungssystem, das Wassermassen aus der Tiefe an die Oberfläche transportiert und für große Fischvorkommen in einem relativ kleinen Gebiet sorgt. Wegen des Klimawandels verlagere sich diese Polarfront aber nach Süden und entferne sich von den Crozetinseln, den Kerguelen und der Marion-Insel, auf denen die Pinguine wohnen.
... Forschungen hätten ergeben, dass die Königspinguine schon in der Vergangenheit Klimaveränderungen überlebt hätten, zuletzt vor rund 20.000 Jahren. „Die Königspinguine sind sehr gut darin, neue sichere Brutstätten zu finden, wenn es für ihre bisherigen Kolonien schlecht aussieht“ … Nun seien es erstmals menschliche Einflüsse, die zu besonders schnellen und möglicherweise unumkehrbaren Veränderungen auf der Erde führten. Obendrein habe der Fischfang im Südpolarmeer stark zugenommen, was die Nahrungssuche der Pinguine zusätzlich erschwere. Bei der Suche nach neuen Brutstätten und Nahrungsquellen konkurrierten die Königspinguine nicht nur mit Fischern, sondern auch mit anderen Pinguinarten wie Zügelpinguin, Eselspinguin oder Adeliepinguin.

Die Spezies gilt als nicht gefährdet, außer durch Überfischung

Nachschau zeigt, dass die Königspinguine nirgendwo offiziell als gefährdet gelten. Eigentlich alle Quellen berichten von positiven Bestandsentwicklungen. Der ominöse Klimawandel scheint ihnen wenig zuzusetzen, sogar neue Brutgebiete werden von ihnen „erobert“. Die Angaben zum Bestand differieren allerdings gewaltig:
[5] RED LIST: Aptenodytes patagonicus English- King Penguin
Justification: This species has an extremely large range, and hence does not approach the thresholds for Vulnerable under the range size criterion. The population has begun to stabilize over the past decade, and the global population is estimated at 1.6 million annual breeding pairs (range 1,584,320–1,728,320) (Bost et al. 2013).
Current Population Trend: Increasing

VdZ: Königspinguin
Mit einem geschätzten Weltbestand von 2 Millionen Individuen ist der Königspinguin keine gefährdete Tierart (Rote Liste: LEAST CONCERN). … Verbreitung: Brutgebiete in der Subantarktischen Region, namentlich in Südargentinien und Südchile, den Falklandinseln … Die Vögel wandern von der Antarktis bis nach Australien und Neuseeland, Südafrika, St. Helena, Uruguay und Brasilien …

WIKIPEDIA: Bestand
… Der Bestand in der Subantarktis wurde 2004 auf rund drei Millionen Königspinguine geschätzt. Der Bestand gilt mittlerweile als stabil. Die Bestände haben in den letzten Jahren in allen Brutkolonien zugenommen, nachdem es während des 19. und 20. Jahrhundert aufgrund der Seehundjagd und dem Abschlachten der erwachsenen Tiere zur Ölgewinnung aus der reichen Fettschicht zu deutlichen Bestandsrückgängen kam … Auf der Macquarie-Insel nahm die Zahl der in einer Brutkolonie gezählten Küken zwischen 1930 und 1980 sogar um das 78-fache zu. Königspinguine gelten derzeit als nicht gefährdet, allerdings besteht in Südgeorgien die Möglichkeit, dass sich die dortige Fischerei ungünstig auf das verfügbare Nahrungsangebot auswirken könnte.

Pinguinwissen: Pinguine und Klimawandel
Durch unsere Fischindustrie sind in manchen Regionen die Sardellen (Schwarmfische) stark zurückgegangen. Die modernsten Fangtechniken sind viel effizienter und fangen eine viel größere Menge an Fisch, sodass den Pinguinen, aber auch vielen anderen Meerestieren wie Robben und Pelikane, nichts mehr übrig bleibt. Diese Überfischung ist der Grund dafür, dass schon sehr viele Meerestiere verhungern mussten.
Oft verfangen sich Pinguine auch in den Fischernetzen, was dazu führt, dass sie leichter von Feinden gefressen werden, sich verletzen oder sogar ertrinken.
An den Küsten der Antarktis wird es immer wärmer …
Für die Königspinguine seien die ganzen klimatischen Veränderungen und ihre Folgen kein Problem, weil sie schon an wärmeres Wasser gewöhnt seien und auf festem Land brüten. Ihr Bestand sei die letzten Jahre sogar gestiegen.

Far South Expedition: [8] King Penguins of Tierra del Fuego

Bild 1.1 [8] Darstellung der Flexibilität der Königspinguine bei der Brutplatzsuche

Wo sich nichts finden lässt, finden sich bestimmt Korrelationen …

Um über etwas zu forschen, was nicht vom Klimawandel akut bedroht ist, bekommt man bestimmt sehr schwer Forschungsmittel. Also muss sich eine Bedrohung finden. Diese begann schon vor zehn Jahren:
Céline Le Bohec at al. 2007: [4] King penguin population threatened by Southern Ocean warming
… Seabirds are sensitive indicators of changes in marine ecosystems and might integrate and/or amplify the effects of climate forcing on lower levels in food chains … We show that warm events negatively affect both breeding success and adult survival of this seabird. However, the observed effect is complex because it affects penguins at several spatio/temporal levels.
Auf Basis einer 9-jährigen Beobachtungszeit gelang es damals, ganz genau den Einflussfaktor der Temperatur auf die Königpinguin-Überlebensrate zu ermitteln:
[4] … The derived population dynamic model suggests a 9% decline in adult survival for a 0.26°C warming. Our findings suggest that king penguin populations are at heavy extinction risk under the current global warming predictions …

Ins Grübeln bringt einen dabei nur, dass sich das antarktische Meerwasser im Beobachtungszeitrum der Studie abgekühlt hat:
kaltesonne 9. Mai 2015: Keine Erwärmung in der Antarktis. Südlicher Ozean kühlt sich ab
Bob Tisdale hat die Temperaturkurve auf Basis der KNMI Climate Explorer-Daten zusammengestellt:
Wiederum keine Erwärmung. Im Gegenteil, der Südliche Ozean hat sich während der letzten 35 Jahre sogar abgekühlt. Marshall et al. bestätigten im Juni 2014 den Abkühlungstrend in einem
Paper in den Philosphical Transactions A

Bild 2 Relativer Verlauf der antarktischen Meerestemperatur seit 1980

… Welche für die Pinguine allerdings auch sehr positiv sein können

Die aktuelle Studie legte nun zum Pinguin-Alarm nach [7] [6]. Mit fünf Seiten ist sie recht kurz und leider bezahlpflichtig. Beim „Hineinsehen“ in das, was man darüber ohne Bezahlung erfahren darf, meint man aber zu erkennen, dass es im Wesentlichen die Wiederholung und Weiterführung zweier Studien aus dem Jahr 2014 [1] und 2016 [11] ist. Und diese sind nicht bezahlpflichtig.
Die erste Studie: Trucchi at al. 2014: [1]
King penguin demography since the last glaciation inferred from genome-wide date …,
ermittelte auf Basis einer umfangreichen Analyse den folgenden Zusammenhang zwischen antarktischer Temperatur-Anomalie und Populationsgröße:

Bild 3 [1] Populationsentwicklung der Kaiserpinguine (rote Linie)
Im Bild ist schön zu sehen, wie die zunehmende Erwärmung seit dem Ende der letzten Eiszeit vor ca. 20.000 Jahren die Population der Königspinguine auf das 100fache explodieren ließ.

Doch simuliert man dann weiter in die Zukunft, sieht diese düster aus

Die zweite Studie zwei Jahre später ermittelte einen ähnlichen – positiven – Zusammenhang:
Robin Cristofari at al. 2.2016: [11]
Climate-driven range shifts in fragmented ecosystems

Bild 4 [11] Rekonstruktion Königspinguine Populationsentwicklung und relative Temperatur seit 150.000 Jahren
Der große Unterschied zwischen dieser und der vorhergehenden Studie besteht nun darin, dass zusätzlich die Verlagerung des nährstoffreichen Kaltwassergürtels simuliert wird (Bild 5). In den Simulationen entfernt sich dieser dann immer weiter von den Brutinseln weg. Als Folge müssen die Pinguine immer weiter bis zur Nahrung schwimmen, was sie hungern lässt und laut den Studienautoren ein „Aussterben“ einleitet. Früher wusste man dies nicht so genau – und es fehlten die Zukunftssimulationen -, so dass dieses Problem erst jetzt in seiner vollen Tragweite erkannt ist..
[11] …
As a continuously growing number of species are reduced in anthropogenically fragmented landscapes47, our integrative method can be extended to all those cases where habitat fragmentation increases the risk of divergent trends in the different portions of a species’ niche, while reducing corridors that may allow continuous niche tracking. By forcing species to undergo tipping point range shifts, habitat fragmentation has the double effect of aggravating the impact of environmental change, but largely masking it, placing populations in a situation of climatic debt well before the critical threshold is reached. Using our approach, we were able to readily identify the most vulnerable areas and to predict the location of potential refugia for a cold-adapted species in a fragmented and rapidly changing environment.

Bild 5 zeigt dazu einen Ausschnitt der Simulationsergebnisse und Bild 6 die Auswirkungen auf die Population im Jahr 2100.

Bild 5 (Bildauszug) Simulation des Klimawandel-Einflusses auf die Population der Brutgebiete. [11]
Extended Data Figure 2. Foraging distance from single models. Projected distance between 10 (eight are currently occupied and two are currently empty but potentially suitable colony locations) subantarctic archipelagos and the Antarctic Polar Front in February estimated from 15 global coupled ocean-atmosphere general circulation models taken separately (from Coupled Model Intercomparison Project, Phase 5 – CMIP5), over the 21st century, under three different greenhouse gas concentration trajectories: Representative Concentration Pathways +2.6 Watt/m2 (RCP-2.6: green), +4.5 Watt/m2 (RCP-4.5: orange), and +8.5 Watt/m2 (RCP-8.5: red). Dashed line represents the 700-km limit. Yearly projection (first column of panels); density distribution per RCP scenario, at three different time steps (2nd-4th column of panels).

Bild 6 (Bildauszug) Anzahl Klimamodelle mit Vorhersage von teils fast totalem Populationsverlust zum Jahr 2100, abhängig vom RCP-Scenario. [11]
Extended Data Figure 3. Proportion of models predicting extinction of King penguin colonies. Proportion of the 15 global coupled ocean-atmosphere general circulation models predicting a February foraging distance > 700 km for 20% of the decade, at three different time points. Three different greenhouse gas concentration trajectories are shown: Representative Concentration Pathways +2.6 Watt/m2 (RCP-2.6: green), +4.5 Watt/m2 (RCP-4.5: orange), and +8.5 Watt/m2 (RCP-8.5: red).

Grob übersetzt: Anteil der Modelle, die ein Aussterben von Königspinguinkolonien vorhersagen. Anteil der 15 globalen, gekoppelten Ozean-Atmosphäre-Zirkulationsmodelle, die für 20% des Jahrzehnts eine Futtersuchdistanz von> 700 km im Februar zu drei verschiedenen Zeitpunkten vorhersagen. Drei verschiedene Treibhausgas-Konzentrations-Trajektorien werden gezeigt: +2,6 Watt / m2 (RCP-2.6: grün), +4,5 Watt / m2 (RCP-4.5: orange) und +8.5 Watt / m2 (RCP-8.5: rot ).

Was passiert, wenn man anstelle von Simulationen den Verstand einschaltet

Pressemitteilungen zu (Klima-)wissenschaftlichen Studien haben heutzutage oft den Charakter von Bildzeitungs-Überschriften.
Uni Wien Pressemitteilung: [7] More than 70 percent of the global King penguin population, currently forming colonies in Crozet, Kerguelen and Marion sub-Antarctic islands, may be nothing more than a memory in a matter of decades, as global warming will soon force the birds to move south, or disappear. This is the conclusion of a study

Nichts an der bisherigen oder vergangenen Populationsentwicklung bestätigt die Folgerungen der Studie für das Jahr 2100. Schaltet man den Computer aus und den Verstand ein, kommt man auf die Idee, die Vergangenheit in die Zukunft zu projizieren. Das lässt sich mit den Populations-Verlaufsdaten der Bilder 3 und 4 orientierend leicht durchführen. Bild 7 zeigt das Ergebnis.

Bild 7 Königspinguin, relative-Populationsentwicklung (Rot: Bild 3; Ocker: Bild 4) über den Temperatur-Verlauf der letzten beiden Eiszeiten kopiert. Anmerkung: Der rot gepunktete Verlauf entspricht dem durchgehenden, wurde aber vom Autor dazu kopiert. Er ist nicht in der Studie [1] enthalten. Grafik vom Autor erstellt
Wärme auf die Population dieser Pinguine ist nicht mehr vorstellbar. Warum nun vielleicht ein Grad Temperatur mehr zu deren fast-Aussterben führen soll, weiß wohl nur ein Computer und wer diesen programmiert hat. Anhand von Bild 7 würde man eher vermuten, dass noch etwas mehr Wärme zu noch mehr Population führen würde, deren Begrenzung dann nicht ein Klimawandel, sondern ganz einfach die Überpopulation mit mangelndem Platzangebot und dadurch beginnende Krankheiten bilden könnte.
Und natürlich kommt heutzutage der Nahrungskonkurrent Mensch dazu. Um diesen „loszuwerden“, nutzt die teure Vermeidung von CO2, wie es die Studienautoren suggerieren, jedoch bestimmt nichts:
[11] … placing populations in a situation of climatic debt well before the critical threshold is reached.

Parallelen

Wieder stellt sich die Frage, ob eine 9-jährige Beobachtungszeit von Populationsentwicklungen einzelner Brutkolonien [4] wirklich ausreicht, das Ergebnis solcher Langzeit-Plausibilitätsbetrachtungen und aktuelle Bestandsbesichtigungen zu ersetzen, mehr noch: Zu verwerfen.
Verdächtig erinnert die ganze Geschichte an die regelmäßigen „Expertenerkenntnisse“ über die Eisbären [14], welche ebenfalls meistens mit viel Getöse publiziert werden:
EIKE 4.03.2016: Der Eisbär vermehrt sich stetig – aber sein Aussterben simulieren darf man doch (T2)

Nicht nur die Königspinguine sind vom „Simulationstod“ betroffen

Das sind auch die Kaiserpinguine …

Anbei Beispiele, wie extrem ungenau die Populationszahlen sind, auf die hin in der Klimawandel-Pseudowissenschaft Überleben oder Aussterben kalibriert und anschließend simuliert wird.
kaltesonne 2014: [2]
Spiegel Online brachte am 30. Juni 2014 eine fragwürdige Tierstory vom Südpol (Fettsetzung im Text ergänzt):
Erderwärmung: Lebensraum der Kaiserpinguine ist bedroht
Er gilt als eine Ikone der Antarktis: der bis zu 1,20 Meter große Kaiserpinguin. Doch seine Zukunft ist ungewiss. Der Klimawandel verändert seinen Lebensraum, die Packeisgrenze der antarktischen Zone.
Bis zum Jahr 2100 wird die derzeit 600.000 Individuen umfassende Population der Kaiserpinguine um mindestens ein Fünftel reduziert. “Das sind keine guten Neuigkeiten für den Kaiserpinguin”, sagte Hal Caswell von der amerikanischen Woods Hole Oceanographic Institution, Co-Autor der Studie in der Zeitschrift “Nature Climate Change”. Der Grund für die Veränderung ist die Erderwärmung. Sie macht die Eisschicht instabil. Wird es im Frühjahr wärmer, können Wellen die Eisdecke aufbrechen und Pinguinkolonien spalten. In der Studie fordern die Forscher deshalb, den Kaiserpinguin als gefährdet einzustufen. Nur so könne der Bestand vor weiteren Bedrohungen durch Tourismus und Fischfangindustrie geschützt werden. Doch dieses Ziel durchzusetzen, wird nicht einfach sein. Denn zunächst geht der Trend in die entgegengesetzte Richtung: Bis 2050, erwarten die Forscher, wird die Zahl der Kaiserpinguine in den 45 bekannten Kolonien zunächst sogar leicht ansteigen. Denn trotz der Erwärmung hat das Eis der Antarktis sich in den vergangenen Wintern ausgedehnt. Mehr Eis bedeutet auch mehr Algenwuchs auf der Unterseite der Eisschicht. Mehr Algen können mehr Krill ernähren, und Krill wiederum steht auf dem Speiseplan der Kaiserpinguine.
Weiterlesen auf
SPON.
Im SPON-Artikel selbst steht dazu ergänzend:
… Die Kaiserpinguine haben gegenüber den anderen Arten den Vorteil, dass sie auch vom All aus gut zu untersuchen sind. Denn ihr Kot hinterlässt auf dem Eis dunkle Spuren, die auf Satellitenaufnehmen klar erkennbar sind.

Diese Information scheint eher ein Gerücht zu sein, denn die gemeldeten Populationszahlen unterscheiden sich drastisch:
Spectrum.de
6.06.2014: [3] Kaiserpinguine sind flexibler als gedacht
Bisher hielt man den Kaiserpinguin für extrem konservative Tiere: Jedes Jahr, dachte man, kehrt Aptenodytes forsteri an seinen angestammten Brutplatz zurück. Doch die Vögel wechseln anscheinend regelmäßig die Standorte. Wissenschaftler identifizierten in der Antarktis anhand von Satellitenbildern neue Brutkolonien, die in den Jahren davor nicht existierten. Dagegen blieben einige bestehende Kolonien in den Folgejahren verlassen, und nur Kot und Federn zeugen von der einstigen Gegenwart der Vögel. Diese Neigung zum Tapetenwechsel könnte den Tieren in Zukunft gut zupasskommen, falls irgendwann auch das antarktische Meereis durch den Klimawandel verschwindet.
Vermutlich reagieren die Pinguine mit den Standortwechseln flexibel auf die wandelbaren Bedingungen auf dem sich ständig verändernden Eis. Mit ihrer bislang unerkannten Flexibilität schlugen sie sogar den Forschern immer wieder ein Schnippchen, wie diese jetzt erkannten: Bei bisherigen Zählungen galt stets die Annahme, dass die Kolonien über die Jahre Bestand haben und Tiere aus einer Brutkolonie nicht plötzlich woanders auftauchen. Unter Berücksichtigung dieser neuen Erkenntnisse schätzt nun André Ancel von der Université de Strasbourg die Zahl der Kaiserpinguine in der Antarktis auf insgesamt 260.000.
WIKIPEDIA: KaiserpinguinDer Bestand gilt als stabil. Die Zahl der geschlechtsreifen und damit fortpflanzungsfähigen Kaiserpinguine wurde bisher auf 270.000 bis 350.000 Individuen geschätzt. Neuerdings ist nach Auswertung von Satellitenaufnahmen von einer Zahl von 595.000 Tieren in 46 Kolonien auszugehen …

… und die Adeliepinguine

Noch schlimmer mit der Zählung ist es bei den Adeliepinguinen. Es stört aber nicht. Basierend auf vollkommen falschen Zahlen werden „genaue“ Simulationsergebnisse verkündet:
WELT 17.03.2014: Zahl der Adelie-Pinguine geht dramatisch zurück
Pinguine CH: Adéliepinguine Die Population der Adélie an der antarktischen Halbinsel hat seit Mitte der 70er Jahre des vergangenen Jahrhunderts dramatisch abgenommen … Man geht jedoch davon aus, dass in den nächsten Jahrzehnten mit steigenden Temperaturen dieser Trend ins Negative dreht und die Populationen um bis zu 30 Prozent einbrechen dürften.
Polar News 29. Juli 2016: Adéliepinguine könnten Rennen gegen den Klimawandel verlieren
Aber jetzt hat die Erwärmung gemäss einer neuen Studie von Forschern der Universität Delaware einen Kipppunkt erreicht. … In einer neuen Studie der Fachzeitschrift Scientific Reports, errechnen Forscher, dass rund 30 Prozent der gegenwärtigen Kolonien bis 2060 einen Rückgang verzeichnen werden und bis 2099 sogar rund 60 Prozent. „Wir wissen es seit wenigen Jahren, dass die Rückgänge bei Adéliepopulationen mit der Erwärmung zusammenhängen. Dies suggeriert, dass viele Regionen Antarktikas sich zu stark erwärmt haben und das eine weitere Erwärmung nicht mehr sich positiv auf die Tiere auswirkt“, erklärt Hauptautorin Megan Cimino von der Universität Delaware.
Das Ziel der Forscher war das Verständnis über die Effekte des Klimawandels auf die Kolonien von Adéliepinguinen. Die Studie baute auf frühere Arbeiten auf und nutzte Satellitendaten und globale Klimamodellvorhersagen, um die gegenwärtigen und zukünftigen Populationstrends über den ganzen Kontinent zu errechnen. „Unsere Studie nutzte unglaubliche Datenmengen, um Habitatstauglichkeitsmodelle zu erstellen. Als wir diese Daten mit den Satelliteninformationen und zukünftigen Klimavorhersagen zur Meeresoberflächentemperatur und Meereis verbunden haben, konnten wir so einen Blick auf die vergangenen und zukünftigen Veränderungen in der Habitatstauglichkeit für Adéliepinguine erhalten“, erklärt Cimino das Vorgehen.

Innerhalb eines Tages ändern sich die Populationszahlen dramatisch – nach oben:
AFP 02. März 2018: Riesige Pinguinkolonie in der Antarktis entdeckt
Die Entdeckung riesiger Pinguinkolonien in der Antarktis hat Wissenschaftler überrascht: Auf den abgelegenen Danger Islands im Osten der Antarktischen Halbinsel fanden sie Kolonien von insgesamt 1,5 Millionen Adeliepinguinen. Nur 160 Kilometer westlich des Archipels gehe diese Art wegen der Eisschmelze zurück, heißt es in dem am Freitag in der Fachzeitschrift „Scientific Reports“ erschienenen Artikel.
Dass die kleinen Pinguine mit dem weißen Bauch, dem schwarzen Kopf und den weiß umrandeten Augen auf mindestens neun Inseln im Weddell-Meer leben, war bekannt. Doch nun stellte sich heraus, dass ihre Zahl weitaus größer ist.

Lösungswege

Sofern Pinguine aufgrund des Wegfischens ihrer Nahrung durch Trawlerflotten doch noch dezimiert werden sollten, werden unsere „Klimaeliten“ mit Stolz verkünden, durch ihre CO2-Kasteiungen wenigstens einen Rettungsversuch unternommen zu haben. Der Vorteil ist dabei, dass jeder seinen Rettungserfolg sofort im Internet sichtbar und öffentlichkeits-wirksam publizieren kann.
Bereits letztes Jahr zeigte sich diese Klimarettung durch CO2-Kasteiung als äußerst erfolgreich:
EIKE, 22.03.2017: Klimamönche*, alternativ: die Klimaelite unserer Behörden,
weshalb sie dieses Jahr auf noch breiterer Basis weitergeführt wird.

Bild 8 Screenshot von der BR Homepage

Fastenstaffel Plastikfrei und ohne Auto
Die Teilnehmer der CO2-Fasten-Staffel wollen zeigen, dass es auf allen Ebenen und in allen Lebensbereichen des Alltags möglich ist, Klimaschutz aktiv zu leben. Das Ziel: Im Alltag so wenig CO2 wie möglich verursachen und herausfinden, in welchen Lebensbereichen sich ressourcenschonendes Verhalten umsetzen lässt. Die Herausforderung wird individuell gewählt. Beispielsweise verzichten die Fastenden auf das eigene Auto, kaufen plastikfrei ein, ernähren sich vegetarisch, tauschen anstatt zu kaufen oder verzichten auf den Wäschetrockner.

Wären die Pinguine wirklich vom AGW-Klimawandel akut bedroht, hätte dieses CO2-Klimafasten genau den gegenteiligen Effekt, da ihnen die „CO2-erfastete“ Kälte eher schaden würde (siehe Bild 7).
Nur, wie will man das Klimamanager*innen vermitteln? Den Pinguinen könnte es helfen, aber ihr Job erwiese sich als überflüssig.
Dabei werden diese Jobs gerade erst weiter ausgebaut:
Ulrike Scharf (bayerische Umweltministerin und Sprechpuppe der klimahysterischen Frau Hendricks): Impulsgeber für den Klimaschutz
Pressemitteilung Nr. 202/17, 06.12.2017: Neues Weiterbildungsangebot Betrieblicher Klimaanpassungsmanager für Unternehmen
… Das Weiterbildungsangebot zum betrieblichen Klimaanpassungsmanager ist ein Projekt im Rahmen des Umweltpakts Bayern. Es richtet sich an bayerische Unternehmen, die ihren Betrieb fit für den Klimawandel machen wollen. Die Teilnehmer lernen, wie sie relevante wissenschaftliche Erkenntnisse zum Klimawandel sowie dessen standortspezifischen und regionalen Auswirkungen für die Entscheidungsträger im Unternehmen verständlich aufbereiten, individuelle Anpassungsmaßnahmen für den eigenen Betrieb entwickeln und diese umzusetzen. Im Mittelpunkt steht dabei die Identifizierung von Chancen und Risiken, die klimatische Veränderungen für das Unternehmen auf allen Stufen der Wertschöpfungsketten mit sich bringen. Die Weiterbildung, die zwei Seminartage sowie ein Praxismodul umfasst, eröffnet den Unternehmen der bayerischen Wirtschaft die Möglichkeit, den unvermeidlichen Folgen des Klimawandels mit dem erforderlichen Wissen und den notwendigen Anpassungsmaßnahmen zu begegnen …

Quellen

[1] Trucchi at al. 2014: King penguin demography since the last glaciation inferred from genome-wide date

[2] kaltesonne 30. Juli 2014: Streit um Kaiserpinguine: Spiegel Online hält sie für vom Klimawandel bedroht während Spektrum der Wissenschaft ihre Robustheit gegenüber klimatischen Veränderungen hervorhebt

[3] Spectrum.de 6.06.2014: Kaiserpinguine sind flexibler als gedacht

[4] Céline Le Bohec at al. 2007: King penguin population threatened by Southern Ocean warming

[5] RED LIST: Aptenodytes patagonicus

[6] Robin Cristofari at al. (Trucchi), MARCH 2018: Climate-driven range shifts of the king penguin in a fragmented ecosystem

[7] Uni Wien Pressemitteilung 26. Februar 2018: King penguins may be on the move very soon

[8] Far South Expedition: King Penguins of Tierra del Fuego

[9] THE VERGE Feb 26, 2018: As climate change worsens, king penguins will need to move — or they’ll die

[10] WELT 27.02.2018: Den Königspinguinen wird es zu warm zum Brüten

[11] Robin Cristofari at al. 2.2016: Climate-driven range shifts in fragmented ecosystems

[12] EIKE 11. Februar 2018: Eisbären benötigen 1,6 Mal mehr Energie als bisher bekannt und deshalb werden sie am Klimawandel untergehen

[13] Umweltbundesamt 25.04.2015: Am 25. April ist Weltpinguintag

[14] EIKE 11. Februar 2018: Eisbären benötigen 1,6 Mal mehr Energie als bisher bekannt und deshalb werden sie am Klimawandel untergehen
EIKE 06.03.2017: Beim Klimawandel bleiben Fake-News wohl „politisch korrekt“

EIKE 4.03.2016: Der Eisbär vermehrt sich stetig – aber sein Aussterben simulieren darf man doch (2)




Diesel: Wie die Regierung das Volk systematisch täuscht

Bundeskanzlerin Merkel sagt selten offen, was sie denkt und was sie für Absichten hat. Sie bevorzugt das geduldige Ziehen von Strippen in Hinterzimmern, die Besetzung wichtiger Positionen mit ihr hörigen Personen und das „Spielen über Bande“, indem sie internationale Institutionen wie die UNO oder die EU Beschlüsse fassen lässt, die dann „alternativlos“ gegen alle internen Widerstände auch im eigenen Land durchgesetzt werden müssen – weil sie entsprechende gesetzgeberische Kompetenzen klammheimlich und weit vorausplanend nach außen abgegeben hat. Aktuelles Paradebeispiel ist die Flüchtlingsproblematik, die sie selbst verursacht hat und deren Konsequenzen sie allen anderen europäischen Partnern aufs Auge zu drücken versucht.

Was die Kanzlerin beim Auto will

Trotz ihrer Raffinesse rutscht jedoch selbst der Kanzlerin manchmal doch heraus, welche Vorstellungen sie hat. So im Juni 2017 bei einem Vortrag vor Studenten in Argentinien, Bild 2.

Bild 2. Aus einem Bericht der „Welt“ über einen Vortrag von Bundeskanzlerin Merkel vor deutschen Studenten in Argentinien [WEME]
Entscheidender Grund für diese Politikziele ist der Kampf gegen den sogenannten Klimawandel. Diesem Ziel ordnen alle Merkel-Regierungen alternativlos alles unter, die Wünsche der Bürger ebenso wie das Wohlergehen der Industrie, von der das rohstoffarme Deutschland lebt. In einem Interview mit der „Super-Illu“ im August 2017 ließ Fr. Merkel keinerlei Zweifel an ihrer Entschlossenheit, auch den Verkehr gründlich zu „dekarbonisieren“ Bild 3.

Bild 3. In einem Interview mit der „Super-Illu“ legte Fr. Merkel ihre Prioritäten im Bereich der Verkehrspolitik dar [SUPI]
Typisch für Merkels Art der Politik war dann die Aussage, man werde die Automobilindustrie „ermuntern“, noch stärker auf Zukunftstechnologien, insbesondere E-Mobilität, zu setzen. Dahinter steckt die von ihr meisterlich beherrschte politische Taktik des „Hinschubsens“ (engl. „Nudging“), bei der weniger mit kruden Befehlen als vielmehr mit „sanftem“ Druck durch Vorschriften und „Unbequemlichkeiten“ gearbeitet wird. Am Beispiel der Anti-Diesel-Kampagne lässt sich anschaulich verfolgen, wie langfristig und mit welchen Tricks diese Vorhaben geplant und in die Tat umgesetzt werden.

Schritt 1: Autos? – ab damit in die Schmuddelecke

Um Teile der Bevölkerung gegen den motorisierten Individualverkehr aufzubringen, musste man dem Auto zunächst ein „Vergifter-Image“ anhängen. Das Rezept dafür ist einfach und wurde schon zur Zeit des Ablasshandels und der Hexenverbrennung sehr erfolgreich eingesetzt: Man erzeuge Angst. Angst um die ewige Verdammnis, Angst um die Gesundheit, Angst vor dem Tod. Obwohl die Luft bei uns bereits seit Jahrzehnten immer sauberer wird, obwohl wir immer länger leben, wird das Auto seit mehr als einem Jahrzehnt nahezu pausenlos durch Kampagnen der verschiedensten grün-ökosozialistischen Parteien und NGO-Bewegungen wie WWF, Greenpeace & Co verunglimpft. Und das mit begeisterter Beteiligung der Medien. Die Regierung verfolgt genau die Erfolge der guten Arbeit ihrer Hilfstruppen und führt dann „auf Druck der öffentlichen Meinung“ immer neue, in Wirklichkeit längst geplante Verschärfungen der Abgasnormen ein.

Schritt 2: Eigene Souveränitätsrechte? – weg damit

Ein besonders „cleverer“ Schachzug der Anti-Auto-Strategie besteht darin, die Koordinierung und auch Festlegung der Normen für Abgase der EU zu übertragen. Diese kann deshalb jetzt gegenüber den einzelnen Ländern wie ein Sheriff auftreten und ihre Vorstellungen auch gegen nationale Widerstände durchsetzen. So kommt es dann auf EU-Ebene zu Bestimmungen, die ohne Beteiligung des deutschen Bundestages und ohne wirkliche politische Diskussion in Deutschland in den Hinterzimmern von Brüssel ausgekungelt werden. So wie die Richtlinie 2008/50/EG des Europäischen Parlaments und des Rates über Luftqualität und saubere Luft für Europa vom 21. Mai 2008.

Schritt 3: Gesetze? – dafür haben wir unsere Winkeladvokaten

Zwar ist die obige EU-Richtlinie für alle Mitgliedsstaaten verbindlich, sie muss hierfür jedoch in nationales Recht umgesetzt werden. In Deutschland erfolgte dies im Rahmen von Verordnungen zum sogenannten BundesImmissionsSchutzGesetz, dem BImSchG. Im Falle der o.a. Richtlinie 2008/50/EG erfolgte die deutsche Umsetzung durch die 39. Verordnung zum BImSchG vom 2. August 2010. Vergleicht man die beiden Texte – die EU-Fassung und die deutsche Verordnung –, so hat man auf den ersten Blick den Eindruck, dass beide im Prinzip das Gleiche aussagen. Allerdings wurden einige Formulierungen so umgestellt, dass kleinere Abweichungen aufgrund des unterschiedlichen Satzaufbaus nicht sofort ins Auge springen. Das verwundert auf den ersten Blick, da es die Vorlage schließlich in einer amtlichen deutschen Fassung gibt, die sowohl sprachlich als auch juristisch von hoher Qualität ist. Doch das ist offenbar Absicht, denn einige dieser scheinbar belanglosen Variationen des Textes sind in Wirklichkeit lediglich ein Ablenkungsmanöver, eine raffinierte Methode, um von den tatsächlich wichtigen Abweichungen abzulenken. Diese bestehen teils aus nur minimal erscheinenden Manipulationen bei Worten bzw. Zahlen, auf die es den Verfassern jedoch ankam. Man vergleiche einmal die folgenden Textpassagen, Bild 4 und Bild 5.

Bild 4. Wer käme schon darauf, welche messtechnischen Freiräume man sich mit dem kleinen Zusatz „oder 180°“ eröffnen kann

Bild 5. Die Umstellung des Textes diente auch dazu, unter der Hand aus „müssen“ „sollen zu machen – ein im normalen Sprachgebrauch fast bedeutungsloser, für Juristen jedoch sehr wichtiger Unterschied

Zu Bild 5 ist anzumerken, dass die ausführenden Behörden bei einer Muss-Vorschrift keinen Ermessenspielraum haben und die Bestimmung zwingend – d.h. ohne Wenn und Aber – einzuhalten ist [MUSS]. Anders verhält es sich bei Soll-Vorschriften, denn hier erhält die Behörde einen Ermessensspielraum und kann in Ausnahmefällen von der Vorschrift abweichen. Zudem können Betroffene dann gegen die Konsequenzen aus den behördlichen Maßnahmen – wozu auch Fahrverbote gehören – selbst im Falle eines nachweislichen Verstoßes nicht ohne weiteres klagen. Hier haben offensichtlich Regierungs-Juristen mit ökolinken Vorstellungen bereits vor gut zehn Jahren planvoll und mit beträchtlicher Arglist raffiniert manipulierte Texte erzeugt, die heute die Grundlage für die „kalte“ und entschädigungslose Enteignung von Millionen Autofahrern durch drohende Fahrverbote in wichtigen Städten liefern.

Schritt 4: Messorte? – muss man nur „geschickt“ auswählen

In den Medien und auch seitens diverser Behörden wie dem UBA wird immer so getan, als seien besonders hohe Messwerte beispielsweise in Stuttgart repräsentativ für die Gesamtbelastung der Bevölkerung. Dies entspricht jedoch nicht den Tatsachen, denn städtische Messstellen sollten nach dem Willen der EU folgende Bedingungen erfüllen, Bild 6.

Bild 6. Die EU hat bezüglich der Repräsentativität von Messstationen eindeutige Vorgaben gemacht [EURI]
Dass man in Deutschland diesbezüglich ganz andere „Messstrategien“ verfolgt, kann man beispielsweise einer Pressemeldung des Landesumweltamtes Baden-Württemberg entnehmen. Schon 2006 wurden in Baden-Württemberg alle Gemeinden gebeten, sogenannte straßennahe Belastungsschwerpunkte zu melden, an denen dann sogenannte Spotmessstellen eingerichtet wurden [SPOT]. Hiervon gibt es allein in Stuttgart vier Stück, das sind 50 % aller städtischen Messstellen. Die „Belastung“ der Stuttgarter Bürger wird demnach zu einem geradezu grotesk überproportionalen Anteil aus Daten hergeleitet, die auch an vier räumlich eng begrenzen „Hot-Spots erfasst werden. Auch in anderen „schmutzigen“ Städten mit angeblich hohen NO2-Werten wurde und wird mit dem gleichen Trick gearbeitet. Bloßgestellt wird dies beispielsweise in einem Focus-Artikel über ein Gespräch mit dem führenden Toxikologen Prof. Greim [GREFO], Bild 7.

Bild 7. Zu den beliebten Tricks grünlinker Lokalpolitiker gehört die gezielte Platzierung von Messstellen an sorgfältig ausgewählten Bereichen mit außergewöhnlich hohen Konzentrationen [GREFO]
Vergleichbare Ergebnisse zeigten sich auch bei einer eingehenden Analyse der NO2-Konzentrationen rund um die berühmt-berüchtigte Messstellen „Landshuter Allee“ und „Stachus“ in München. Werden zudem alle Faktoren inklusive der schnellen Verdünnung der NO2-Werte auch in vertikaler Richtung berücksichtigt, so kommt man auch für ganz Bayern – und aller Wahrscheinlichkeit nach ebenso für ganz Deutschland – auf vielleicht 0,01 – 0,02 % der Gesamtbevölkerung, die überhaupt von über dem Grenzwert liegenden NO2-Gehalten direkt vor ihren Fenstern betroffen sind [GLAS8].

Schritt 5: Abstände? Ein tolles Manipulationsinstrument

Welcher Normalbürger hat schon eine zutreffende Vorstellung davon, mit welcher Konzentration die NOx-Gase aus einem Auto kommen und wie schnell sie sich anschließend verdünnen? Der NOx-Anteil des Abgases aus dem Auspuff eines Euro-5-Diesels liegt bei ca. 800 ppm (unter Berücksichtigung der Umwandlung eines Großteils davon zu NO2 ca. 1,5 Mio. µg/ m3) [MARX] und verdünnt sich auf dem Weg von der Mittellinie der Straße (als angenommene linienförmige Quelle) bis zum Messpunkt, der oft nahe am Fahrbahnrand aufgestellt ist, bis auf vielleicht 30-60 µg/ m3 (es gab in ganz Deutschland 2017 überhaupt nur fünf Messstellen, die 60 µg/ m3 oder mehr erreichten). Nimmt man eine Straßenbreite von 12 m und einen Abstand des Messorts vom Bürgersteig von 1 m an, so kommt man je nach Messergebnis auf Verdünnungsfaktoren zwischen 25.000:1 und 50.000:1 auf einer Strecke von gerade einmal 7 m. Deshalb war es bei den von der DUH veranlassten Messfahrten im fließenden Verkehr auch kein Problem, in der Abgasfahne vor allem älterer städtischer Busse (das sind übrigens die allerschlimmsten „Stinker“ auf unseren Straßen) kurzfristig Spitzen der NO2-Konzentration bis zu fast dem 20fachen des Grenzwerts zu registrieren [UNIH]. Eine Vorstellung davon, welch entscheidende Rolle Verdünnungen und damit auch Entfernungen in diesem Zusammenhang spielen, vermitteln Bild 8 und Bild 9.

Bild 8. Ergebnis von Kontrollmessungen der allem Anschein nach nicht gesetzeskonform aufgestellten Messstation in der Max-Brauer-Allee in Hamburg (Grafik: [HAMB])
Die Messstation in der Max-Brauer-Allee in Hamburg misst 1) unter Bäumen (Verstoß gegen Anhang 3 Buchstabe C der der 39. BImSchgV) und 2) in der Fahrbahnmitte (Verstoß gegen Anhang 3 Buchstabe A 2 c) der 39. BImSchgV). Bei amtlichen Kontrollmessungen [HAMB] zeigte sich, dass die NO2-Konzentrationen am Messpunkt GM-12 um 16 % niedrigerer NO2-Wert, am Messpunkt GM-10 lag die Belastung sogar um volle 30 % niedriger. Dies belegt den erheblichen Einfluss der Distanz des gewählten Messpunktes zum Maximalpunkt der Emissionen.

Bild 9. Messungen der rapiden Abnahme der NO2-Konzentration mit zunehmendem Abstand vom Straßenrand der B14 nahe der Messstation Am Neckartor in Stuttgart (Grafik: [VOGT])
Auch Bild 9 macht deutlich, wie schnell die NO2-Konzentrationen abnehmen, je weiter eine Messstation von der Straßenmitte entfernt aufgestellt wurde. Dies ist auch der Grund für die Entfernungsangaben (max. 10 m vom Fahrbahnrand) sowie einige weitere Vorschriften in den Richtlinien. Deshalb sei hier noch darauf hingewiesen, dass viele deutsche Messstationen sehr dicht am Straßenrand platziert wurden, z.B. die in der Hohenheimer Straße in Stuttgart, während sich wiederum andere zu dicht an Gebäuden befinden.

Schritt 6: Luftströmungen? Kann man wunderbar für Schummeleien nutzen

Aus den Darstellungen in den Bildern 7 und 8 ergibt sich unmittelbar eine weitere Folgerung: Um zu einer Verdünnung der Abgase zu kommen, muss die Luft ungehindert strömen können. Wird diese Voraussetzung nicht erfüllt, z.B. durch Gebäude, Wände, Tunnel oder sonstige Hindernisse, so wird auch die Verdünnung behindert, so dass die gemessenen Werte höher liegen. Natürlich sind solche Aufkonzentrationen direkt im Nahumfeld von Hindernissen nicht repräsentativ für die Gesamtsituation. Deswegen wurden in der EU-Verordnung für das Umfeld der Messstellen verschiedene Vorgaben gemacht, Bild 10.

Bild 10. Die Vorgaben zur Platzierung von Messstellen sind ziemlich eindeutig [EURI]
Wie wir noch sehen werden, bewiesen „clevere“ grünlinke Stadtverwaltungen und Länderregierungen jedoch höchste Kreativität, wenn es darum ging, diese Vorgaben zu umgehen bzw. sich darüber hinwegzusetzen. Man bekommt manchmal fast den Eindruck, dass sich diverse Stadtverwaltungen einen regelrechten Wettbewerb darum geliefert haben, wer der eigenen Stadt am besten das Etikett „herausragend verschmutzt“ verpassen könnte.

Schritt 7: Alleebäume? Fast so gut wie eine Tunneldecke

Wenn man sich mit Bildern der Aufstellorte von Luftqualitätsmessstellen beschäftigt, so fällt auf, dass gerade diejenigen, die höhere Messwerte anzeigen, oft unterhalb von Bäumen aufgestellt sind. Das dürfte eigentlich nicht sein, wie aus den Vorschriften in Bild 10 eindeutig hervorgeht. Zudem handelt es sich in vielen Fällen nicht etwa nur um einzelne Bäume, sondern um ganze Alleen mit oft sehr großen Bäumen. Vor allem im Sommer wirken solche Alleebäume wie eine Art Dach, das nicht nur den Wind abhält, sondern auch die Abgase daran hindert, nach oben abzuziehen. Das angebliche Abgasproblem in solchen Straßen ließe sich aller Voraussicht nach ganz einfach und schnell minimieren, wenn man diese Alleebäume zumindest in den hochbelasteten Abschnitten beseitigen würde. Dies hätte wesentlich geringere Schäden und Verluste für die Allgemeinheit zur Folge als die jetzt ins Auge gefassten Fahrverbote. Und was die angeblich „grünen“ Baumschützer angeht, die in dem Fall unweigerlich auf den Plan treten werden: Diesen kann man zumeist Heuchelei vorwerfen, denn von ihrer Seite kam bisher zum zigtausendfachen Kahlschlag in deutschen Wäldern zugunsten der Aufstellung von Windenergieanlagen so gut wie kein Widerspruch. Im Gegenteil, gerade die Grünen und die SPD haben diese schändlichen Eingriffe in unsere Natur vehement befürwortet und die entsprechenden Gesetzesänderungen vorangetrieben. Von den Wildwestmethoden, Einsprüche von wirklichen Naturschützen dadurch gegenstandslos zu machen, dass man die Nester von Wiesenbrütern zerstört und Horstbäume seltener Greifvögel mit der Kettensäge niederlegt, wollen wir hier gar nicht erst reden.

Schritt 8: Verkehr? Muss man nur wirksam behindern

Stadtplanern ist bestens bekannt, wie man die Abgasbeaufschlagung in kritischen Bereichen reduzieren kann: Man muss dafür vor allem den Verkehrsfluss verstetigen, da jedes Abbremsen und Wiederanfahren die Emissionen weit überproportional hochtreibt [HOHEN]. Ein verstetigter Verkehrsfluss führt zu erheblich reduzierten Schadstoffbelastungen. Dabei geht es nicht nur einfach um eine „Grüne Welle“, sondern auch um möglichst gleichmäßige Fahrgeschwindigkeiten mit geringer Dynamik und ohne Spitzen [BLFU]. Leider gibt es unter Stadtplanern bzw. in den Stadträten und Bürgermeisterämtern auch ökoideologische Fanatiker, die dieses Wissen dazu nutzen, um die Abgasemissionen in ihren Städten durch eine Reihe sehr wirkungsvoller Maßnahmen bewusst in die Höhe zu treiben. Ziel ist dabei, den Verkehrsfluss zu behindern, Staus zu provozieren und die Fahrzeuge zu häufigem Abstoppen und Wiederanfahren zu zwingen. Möglichkeiten sind Straßenverengungen bzw. Verringerung der Anzahl der Fahrspuren, „verkehrsbrechende“ Ampelschaltungen statt grüner Welle, Tempo 30 auch bei Durchgangsstraßen oder „rechts vor links“ selbst für unbedeutende Nebenstraßen. Beliebt ist auch das „Herausziehen“ von Bürgersteigen an Bushaltestellen, so dass der stehende Bus den gesamten Verkehr blockiert.

Wer solche Vorwürfe für Spinnereien von Verschwörungstheoretikern hält, dem sei die „Heute“-Nachrichtensendung des ZDF vom 9.8.2017 um 19.00 Uhr empfohlen. Unter „Strategien gegen Luftverschmutzung“ wird dort das Beispiel Düsseldorfs vorgestellt, wo die Stadt die „grüne Welle“ mancherorts unterbricht. Damit sollen, so der Kommentar, die Autofahrer gezwungen werden, abzubremsen und neu anzufahren, obwohl das mehr Schadstoffe bedeutet. Dies sei „Verkehrserziehung in Richtung Zukunft“. Nach dieser Einführung des Fernsehmoderators erläutert dann Thomas Geisel, SPD-Oberbürgermeister der Stadt Düsseldorf, mit überlegenem Lächeln seine Motive zu dieser bewussten Erhöhung der Luftbelastung in seiner Stadt wie folgt: „Das mag jetzt unter Schadstoffgesichtspunkten an der einen individuellen Stelle nachteilig sein, aber insgesamt geht es natürlich darum, die Menschen zu motivieren, die Bahn zu benutzen eher als das Auto…“

Das wurde so nonchalant dahergesagt, dass man sich der Ungeheuerlichkeit dieser Aussagen im ersten Moment gar nicht bewusst wird. Da steht ein Oberbürgermeister einer Landeshauptstadt, die von der DUH („Deutsche Umwelthilfe“, manchmal auch als „Toyotas Sturmtrupp für’s Grobe“ bezeichnet) wegen zu hoher Abgaswerte verklagt wird. Und brüstet sich damit, dass er bewusst Maßnahmen ergreift, welche diese Belastung noch ansteigen lassen. Flankierend verbreiten Spitzenvertreter seiner Partei wie UBA-Chefin Krautzberger Schauermärchen über angeblich „zigtausende Tote durch Autoabgase jedes Jahr in Deutschland“ und fordern mit dieser Begründung Fahrverbote. Wenn ein SPD-Politiker angesichts dieser Warnungen willentlich eine Steigerung dieser Abgasbelastung herbeiführt, kann man unterstellen, dass er es bewusst darauf anlegt, Leben und Gesundheit von Bürgern zu gefährden. Für Juristen dürfte die Frage von Interesse sein, ob hier die Staatsanwaltschaft aufgrund eines begründeten Anfangsverdachts von sich aus tätig werden müsste oder ob Bürger der Stadt Düsseldorf selbst Klage erheben sollten. Man könnte das auch als Bubenstück der besonderen Art bezeichnen.

Auch in zahlreichen anderen Städten wird Verkehrsbehinderung schon seit Jahrzehnten bewusst und gezielt kultiviert. Damit durfte sich beispielsweise der führende Stadtplaner Knoflacher erst kürzlich wieder in einem Spiegel-Interview brüsten [KNOFL].

Schritt 9: Übertreibungen bei der Messpunktauswahl 1

Eine weitere Methode, die angebliche Umweltbelastung durch Abgase künstlich in die Höhe zu treiben und damit den netten Kumpels von der DUH juristische Munition zu liefern, besteht in der Missachtung einer Grundsatzregel der EU-Richtlinie, dass Belastungen nur dort und dann zu messen sind, wenn dadurch eine tatsächlich signifikante Beaufschlagung der Bevölkerung gegeben ist, Bild 11.

Bild 11. Diese Vorschrift ist im typischen „Brüsselchinesisch“ der EU abgefasst und deshalb für juristische Laien nicht ohne weitere zu verstehen

Aus dem Beamtenkauderwelsch ins Normaldeutsche übersetzt besagt die in Bild 11 zitierte Vorgabe, dass Messungen an Orten mit den höchsten Konzentrationen nur dann erfolgen sollten, wenn die Bevölkerung diesen auch so lange ausgesetzt ist, dass es im Vergleich zum Gesamtzeitraum der Mittelwertbildung ins Gewicht fällt. Anders ausgedrückt: Messen sollte man nur da, wo sich Menschen regelmäßig und über Stunden hinweg aufhalten. Was beispielsweise bei den reinen Gewerbegebäuden am Neckartor in Stuttgart nicht der Fall ist. Dort spielen wohl kaum jemals Kinder auf der Straße, noch betreiben dort die Stuttgarter ihr Jogging. Das erledigen sie vernünftigerweise lieber im Schlossgarten, einer Parkanlage direkt auf der anderen Straßenseite, wo die Konzentrationen natürlich unterhalb des Grenzwertes liegen, Bild 12.

Bild 12. Schon wenige Meter im Schlosspark neben der berühmt-berüchtigten Messstation Am Neckartor sinken die NO2-Konzentrationen um bis zu 68 % (Grafik: [KODE])
Der gleiche Verstoß gegen den eigentlichen Sinn der EU-Richtline – nur an wirklich signifikanten Stellen zu messen – dürfte auch bei zahlreichen anderen Messstellen festzustellen sein.

Schritt 10: Übertreibungen bei der Messpunktauswahl 2

Eine weitere Vorschrift, gegen die gerade bei sogenannten Hotspot-Messstellen häufig und offenkundig mit Absicht verstoßen wird, ist das Verbot der Messung an eng begrenzten Stellen, wo die Abgaswerte durch besondere Umstände außergewöhnlich hochgetrieben werden, Bild 13.

Bild 13. Diese Vorgaben sollen verhindern, dass allzu kleinräumige und damit für das Gros der Bevölkerung nicht repräsentative Messdaten erfasst werden

Ein Musterbeispiel für eine solche dem Geist des EU-Richtlinie widersprechende Auswahl liefert die Messstelle Am Neckartor in Stuttgart. Hier wurde die Trickserei äußerst massiv betrieben und kann deshalb besonders anschaulich nachgewiesen werden. Betrachtet man die dort getroffene Anordnung des Messgeräts z.B. mit Google Maps, so fällt als erstes auf, dass diese Messstelle vermutlich der Grund für die in Bild 4 aufgezeigte Veränderung der EU-Vorschrift bezüglich eines 270-Grad Freiwinkels um die Messstation zu einem solchen von lediglich 180 ° gewesen sein dürfte. Derjenige, der die deutsche Fassung des Gesetzes diesbezüglich veränderte, kannte augenscheinlich diese bereits seit 2003 existierende Messstelle und ihren Wert für die „grüne“ Transformation Deutschlands. Der Messcontainer steht nämlich nicht frei mehrere Meter vor einer Hausfront, sondern wurde eng an einen Hausvorsprung gezwängt, so dass von unbehinderter Anströmung selbst bei sehr wohlwollender Betrachtung wohl kaum gesprochen werden kann, insbesondere bei dem geringen Abstand zur Mauer des Gebäudes Bild 14.

Bild 14. Schematische Darstellung der räumlichen Verhältnisse der Messstelle Am Neckartor in Stuttgart (Grafik: Autor)

Hinzu kommen aber noch zahlreiche weitere „Sünden“:

  • Der Container steht viel zu nahe am Gebäude, nicht wie vorgeschrieben „mehrere Meter“ entfernt.
  • Direkt benachbart steht ein Abfallcontainer. Für den Austausch muss der schwere LKW wegen der beengten Verhältnisse diverse Male rangieren und auch beim Auf- bzw. Abladen den Motor laufen lassen. Solche Containerfahrzeuge sind oft alt und haben entsprechend schlechte Abgasreinigungssysteme. Die Schwaden entstehen direkt neben der Ansaugöffnung des Messsystems.
  • Wenige Meter weiter links am Gebäude befindet sich eine Fußgängerbrücke über die Straße mit einer seitlich hochführenden Rampe. Beide zusammen sammeln bei ungünstiger Windrichtung die Abgase eines längeren Teilstücks der Straße und lenken sie Richtung Messstation.
  • Auf der anderen Seite des Containers befindet sich eine Reihe Alleebäume.
  • Direkt vor dem Gebäude befindet sich eine eigene Fahrspur für größere Lieferwagen. Der Lieferverkehr scheint intensiv zu sein, auf einem Google Maps-Bild sind allein drei Lieferfahrzeuge der 2,5 bis 3,5 t-Kategorie zu erkennen. Zur Abfahrt müssen die Fahrzeuge bis direkt vor den Messcontainer fahren, mit laufendem Motor auf eine Lücke im dichten Verkehr warten und dann in diese hinein beschleunigen.

Man vergleiche diese Situation mit den Anforderungen in Bild 12 sowie den Manipulationen am deutschen Gesetzestext. Herr Kuhn und seiner Vorgänger im Geiste haben hier wahrlich ein Meisterstück grünlinker Manipulation und Demagogie abgeliefert. Den Rest erledigen derzeit ihre Geistesbrüder von der DUH vor den Gerichten. Als Kontrastprogramm sei hier darauf gezeigt, wie man im Ausland Messungen bei vergleichbar stark befahrenen Straßen vornimmt – wobei man sich dabei vermutlich über die depperten Deutschen köstlich amüsiert, Bild 15.

Bild 15. Während man in Stuttgart alles tut, um möglichst hohe Messwerte zu bekommen, macht man in Spanien die gesetzlichen Freiräume (10 m Abstand bis zum Fahrbahnrand) zunutze (Grafik: [KOKI])
Aufruf zur Mithilfe: Wir brauchen Messstellen-Aktivisten

Die Gegner des freien Individualverkehrs und damit auch zugleich des freien Bürgers sind sehr gut organisiert, sowohl raffiniert als auch skrupellos und planen sehr langfristig. Zudem haben sie sich tief im Staatsapparat eingenistet. Dem steht der einzelne Bürger zunächst hilflos gegenüber. Es wird Zeit, sich zur Wehr zu setzen. Dazu brauchen wir Helfer und Spender. Als erste Gegenmaßnahme, an der sich jeder beteiligen kann, wollen wir die Tricks, mit denen sie arbeiten, durch genaue Inspektion aller Messtellen feststellen und dokumentieren. Wir suchen Freiwillige, die sich die Messstationen in ihrer Stadt genau ansehen und Fotos sowie Stichworte ihrer Beobachtungen einreichen. Mailadresse für solche Meldungen ist w.mueller@eike-klima-energie.eu. Hierüber ist auch eine komplette Liste aller deutschen Messstationen erhältlich. Die Gesetzestexte der BRD [BIMSCHGV] und der EU [EURI] können aus dem Internet heruntergeladen werden. Priorität sollten vor allem solche Stationen haben, deren Jahresmittelwert über 40 µg/m3 liegt. Meldungen sollten eine kurze Beschreibung der Auffälligkeiten mit zwei oder drei Bildern in guter Qualität beinhalten (Handyaufnahmen wären ausreichend). Dabei auch auf mögliche lokale Besonderheiten wie z.B. Dauerbaustellen etc. achten. Bitte den Absender, die Versicherung, dass es sich um eigene Fotos handelt, sowie die Erlaubnis zur freien Verwendung des Bildmaterials nicht vergessen. Die zehn interessantesten Meldungen werden zu einem Bericht zusammengefasst und jeweils mit Bild veröffentlicht.

Längerfristig ist auch an juristische Verfahren gedacht, um drohende Fahrverbote abzuwehren. Schon erste Stichproben haben gezeigt, dass viele Messstationen faktisch illegal sind und ihre Daten daher keinesfalls als Begründung für Fahrverbote herangezogen werden dürften. Das wird aufwendig und teuer werden, da teilweise Verfahren gegen Deutschland wegen Verstoßes gegen EU-Recht zu führen sein werden. Für eventuell mögliche juristische Initiativen kann man sich nach aktuellem Stand der Dinge an den Verein Fortschritt in Freiheit wenden, der sowohl Aktivisten als auch Spender sucht, um den Aufwand personell und finanziell bewältigen zu können. Die Webseite ist http://www.fortschrittinfreiheit.de/, e-Mail info@fortschrittinfreiheit.de.

Für diejenigen, die sich als Messstellen-Aktivisten betätigen möchten, folgt hier eine Kurzliste der wichtigsten Messstationen, die nach Priorität sortiert sind. Eine vollständige Liste aller deutschen Messstationen ist bei EIKE erhältlich, sie kann aber auch direkt aus dem Netz [NO22017] heruntergeladen werden.

Fred F. Mueller

Stations-code

Name / Messnetz

Jahres-mittel-wert in µg/m³

DEBY115

München/Landshuter Allee

78

DEBW118

Stuttgart Am Neckartor

73

DEBW116

Stuttgart Hohenheimer Straße

69

DENW211

Köln Clevischer Ring 3

62

DEBW147

Reutlingen Lederstraße-Ost

60

DEHH068

Hamburg Habichtstraße

58

DEBW099

Stuttgart Arnulf-Klett-Platz

56

DENW082

Düsseldorf Corneliusstraße

56

DESH052

Kiel-Theodor-Heuss-Ring

56

DEBW152

Heilbronn Weinsberger Straße-Ost

55

DEBY037

München/Stachus

53

DEHE040

Darmstadt-Hügelstraße

52

DEBW117

Ludwigsburg Friedrichstraße

51

DEHE112

Wiesbaden-Schiersteiner Str.

50

DENW136

Dortmund Brackeler Straße

50

DEBW122

Freiburg Schwarzwaldstraße

49

DEBE064

B Neukölln-Karl-Marx-Str. 76

49

DEHE037

Wiesbaden-Ringkirche

49

DENI143

Oldenburg Heiligengeistwall

49

DENW188

Oberhausen Mülheimer Straße 117

49

DENW189

Wuppertal Gathe

49

DEBW136

Tübingen Mühlstraße

48

DEBE063

Berlin Neukölln-Silbersteinstr.

48

DEHH026

Hamburg Stresemannstraße

48

DENW133

Hagen Graf-von-Galen-Ring

48

DERP010

Mainz-Paracelsusstraße

48

DEBE069

Berlin Mariendorf, Mariendorfer Damm

47

DEHE041

Frankfurt-Friedberger Landstr.

47

DEHH070

Hamburg Max-Brauer-Allee II (Straße)

46

DENW207

Aachen Wilhelmstraße

46

DENW208

Gelsenkirchen Kurt-Schumacher-Str.

46

DENW355

Leverkusen Gustav-Heinemann-Str.

46

DEBW098

Mannheim Friedrichsring

45

DEBE067

Berlin Hardenbergplatz

45

DEBE061

Berlin Steglitz-Schildhornstr.

45

DEHE131

Limburg-Schiede

45

DEBY110

Augsburg/Karlstraße

44

DEHH064

Hamburg Kieler Straße

44

DENI048

Hannover Verkehr

44

DENI067

Osnabrück-Verkehr

44

DERP041

Ludwigshafen-Heinigstraße

44

DEBW120

Leonberg Grabenstraße

43

DEBY120

Nürnberg/Von-der-Tann-Straße

43

DENW212

Köln Turiner Straße

43

DEST102

Halle/ Paracelsusstr.

43

DEHE061

Gießen-Westanlage

42

DERP012

Mainz-Große Langgasse

42

DEBY063

Regensburg/Rathaus

41

DEBE065

Berlin Friedrichshain-Frankfurter Allee

41

DENW134

Essen Gladbecker Straße

41

DENW206

Solingen Konrad-Adenauer-Straße

41

DESH027

Kiel-Bahnhofstr. Verk.

41

Quellen

[BIMSCHGV] https://www.gesetze-im-internet.de/bimschv 39/39._BImSchV.pdf

[BLFU] https://www.lfu.bayern.de/luft/luftreinhalteplanung_verkehr/nox_projekt/index.htm

[EURI] http://eur-lex.europa.eu/legal-content/DE/TXT/?qid=1520569404992&uri=CELEX:32008L0050

[GLAS8] http://ruhrkultour.de/diesel-lueckenmedien-im-glashaus-8/

[GREFO] http://www.focus.de/finanzen/karriere/berufsleben/politik-ignoriert-zweifel-am-grenzwert-40-mikrogramm-dieselpanik-wegen-grenzwertluege-in-ihrem-buero-ist-20-mal-so-viel-stickstoff-erlaubt_id_7378545.html

[HAMB] http://www.hamburg.de/contentblob/4501220/640e272f247f3e5877ca7fb8eff76b8c/data/d-messbericht-vergleich-screeningrechnung.pdf

[HEUTE] „Heute“-Nachrichtensendung des ZDF vom 9.8.2017, Interview mit Thomas Geisel, SPD-Oberbürgermeister der Stadt Düsseldorf, Stichwort „Verkehrserziehung in Richtung Zukunft“

[HOHEN] https://www.lubw.baden-wuerttemberg.de/-/spotmessstelle-stuttgart-am-neckartor-immissionsgrenzwert-fur-stickstoffdioxid-uberschritten-

[KNOFL] https://www.reddit.com/r/de/comments/825l1y/verkehrsplaner_im_interview_manche_autofahrer/

[KODE] Koch, Th.: Vortrag auf dem Sonderkolloquium der Dechema, 5.12 2017.

[KOKI] Koch, Th.: Evaluation of NOX-formation of modern Diesel Engines, current Legislation and Emission Impact on Environment and Human Health. Vortrag, International Conference and Exhibition SIA Powertrain, Rouen, France, 1.+2. Juni 2016.

[MARX] https://eike.institute/2018/03/15/stickoxide-und-der-dieselmotor-2/

[MUSS] http://www.rechtslexikon.net/d/muss-vorschrift/muss-vorschrift.htm

[NO22017] https://www.umweltbundesamt.de/sites/default/files/medien/358/dokumente/no2_2017.pdf

[SOLL] http://www.rechtslexikon.net/d/soll-vorschrift/soll-vorschrift.htm

[SPOT] https://www.lubw.baden-wuerttemberg.de/presseservice/faq

[STOE] http://www.spiegel.de/wissenschaft/mensch/kostenloser-nahverkehr-holen-wir-uns-die-welt-zurueck-a-1193916.html

[SUPI] http://www.superillu.de/interview-mit-angela-merkel-2017

[UNIH] Reh, M.; Adler, T.; Pöhler, D.; Platt, U.: Stationäre & mobile NO – Messungen in Stuttgart 07.12.2015 und 14.01.2016 Stand: 27.01.2016 M. Institut für Umweltphysik, Universität Heidelberg

[VOGT] https://www.bast.de/BASt_2017/DE/Verkehrstechnik/Publikationen/Veranstaltungen/V3-Luft-2017/Vortrag-Vogt.pdf?__blob=publicationFile&v=3

[WEME] https://www.welt.de/politik/deutschland/article165359594/Als-Merkel-in-die-Zukunft-blicken-soll-lacht-das-Auditorium.html




Interview mit Patrick Moore – Teil 1: Sein Wandel zum Skeptiker

Das folgende Interview wurde im Original für die französische „Association des climato-réalistes” gegeben.

Patrick Moore ist ein kanadischer Aktivist und ehemaliger Präsident von Greenpeace Kanada. Seit seinem Ausscheiden aus dem von ihm mitgegründeten Verein Greenpeace hat Moore die Umweltbewegung scharf kritisiert, weil er deren Verhalten als Taktik zur Angsterzeugung und Desinformation betrachtet. Seinen Worten zufolge hat die Umweltbewegung „Wissenschaft und Logik verworfen zugunsten von Emotionen und Sensations-Hascherei“. Er hat sich scharf öffentlich von vielen politischen Aktivitäten großer Umweltgruppen distanziert, darunter Greenpeace selbst.

Mr.Moore unterhielt sich mit Grégoire Canlorbe,einem unabhängigen Journalisten, während seines Aufenthaltes in Paris im Dezember 2017, um am climate-realist conference day teilzunehmen. Das Interview wurde im Namen der französischen „Association des climato-réalistes*“ durchgeführt, der einzigen klima-realistischen Organisation in Frankreich.

[*Wer der französischen Sprache mächtig ist, findet hier sicher auch sehr interessante Beiträge. Anm. d. Übers.]

Grégoire Canlorbe: Die Glaubenswelt und die Werte eines Individuums erreichen im Allgemeinen einen solchen Grad an Verflechtung (egal ob diese Wechselwirkung nun logisch ist oder nicht), dass die Frage nach einem bestimmten Einzelaspekt seiner Weltsicht das gesamte Gefüge ins Wanken bringt, und nicht nur diesen einzelnen Aspekt. Als Sie sich schließlich entschlossen, sich von Greenpeace zu distanzieren – inwiefern hat sich das auf Ihre persönliche Philosophie ausgewirkt?

Patrick Moore: Nun, zunächst muss ich sagen, dass ich selbst bei den Anfängen von Greenpeace nicht durchweg die gleichen Werte und Meinungen meiner Kameraden teilte. Ich legte einen PhD in Ökologie ab, weshalb ich eine wissenschaftliche Ausbildung hatte, und obwohl es einige Leute in der ursprünglichen Gruppe gab, die ebenfalls eine wissenschaftliche Ausbildung durchlaufen haben, ging die Wissenschaft im Zuge der Evolution von Greenpeace vollständig verloren, und während meiner 6 letzten Jahre als Direktor von Greenpeace International hatte keiner meiner Direktoren-Kollegen irgendeine formelle wissenschaftliche Ausbildung. Zu Beginn waren wir auch streng humanitär orientiert, um die Menschheit vor einem atomaren Weltkrieg zu bewahren.

Das war im Wesentlichen der Hauptpunkt, auf den sich Greenpeace konzentrierte. Der „Peace“-Part war wirklich das, was wir in den Anfängen betont haben. Unsere Prämisse war außerdem, dass ein globaler Atomkrieg extrem die Umwelt schädigen würde – dafür stand der „Green“-Part. Also war das Zusammenfügen der Begriffe „green“ und „peace“ ein revolutionäres Konzept und einer der Gründe, warum die Organisation so geachtet und mächtig wurde. Es hallte nämlich in der Bevölkerung nach, dass die Menschen und die Umwelt etwas waren, dass eng aneinander gekoppelt war.

Mit der Zeit ging der „peace“-Tel verloren, als wir uns Slogans zuwandten wie „rettet die Wale“, „rettet die Seehund-Babys“, Aufhören mit der Ablagerung giftiger Abfälle“ und „Anti-Kernkraft“ anstatt „Anti-Kernwaffen“. So verlagerte sich unser Schwerpunkt mehr in den Bereich Natur, und dies ließ den „peace“-Anteil immer mehr verschwinden. Als ich bei Greenpeace im Jahre 1986 ausgetreten bin, haben Greenpeace und die übrigen Umweltbewegungen die Menschen als Feinde der Erde, Feinde der Natur charakterisiert. Das konnte ich absolut nicht mittragen.

Als Ökologe betrachte ich alles Leben auf der Erde als ein einziges System. Bei Ökologie geht es um die Wechselbeziehungen sämtlicher unterschiedlicher Lebensformen, einschließlich der Menschen natürlich. Wir kamen aus der Natur, wir entwickelten uns aus der Natur aus evolutionärer Sicht wie alle anderen Spezies auch. Jetzt dagegen wird kolportiert, dass wir das einzig schlimme Wesen, die einzige schlechte Spezies sind. Sogar Unkraut ist besser als wir, Krankheitserreger sind nicht übel, sie sind einfach da, ein Teil der Natur. Weil es immer mehr in Mode kam, die Menschen als eine Art Ur-Sünde und als Feinde der Natur zu betrachten, habe ich Greenpeace schließlich verlassen. Ich habe nämlich nicht eine Sekunde daran geglaubt, dass wir Feinde der Natur sind, und später in diesem Interview werden Sie verstehen, dass meine Distanzierung von Greenpeace schon vier Jahre vor meinem Austritt begann.

Das war, als im Jahre 1982 in Nairobi auf einer Tagung anlässlich des zehnten Jahrestages der ersten Umweltkonferenz der UN 1972 in Stockholm in Kenia das United Nations Environment Program (UNEP) ins Leben gerufen wurde. Es war das erste Mal, dass eine UN-Unterorganisation in einem Entwicklungsland gegründet worden ist. Hier hörte ich zum ersten Mal den Terminus „nachhaltige Entwicklung“.

Die meisten Menschen denken, dass es sich bei nachhaltiger Entwicklung um einen Kompromiss handelt zwischen Umweltaktivisten und Industriellen, aber das ist er nicht. Es war ein Kompromiss unter Umweltaktivisten. Wenn man nämlich Umweltaktivist in einem Entwicklungsland ist, kann man nicht gegen Entwicklung sein. Die meisten Umwelt-Menschen aus den Industrieländern waren im Wesentlichen gegen Mega-Projekte wie große Staudämme und Kernkraftwerke. Sie waren immer gegen große Bauprojekte, und das sind sie bis heute. Aber falls man in einem Entwicklungsland gegen Entwicklung ist, wird man ausgelacht oder des Raumes verwiesen, weil sich Entwicklungsländer entwickeln, und das ist alles. Diese Länder versuchen einfach, ihren Bürgern ein besseres Leben zu vermitteln und dem Land mehr Wohlstand zu verschaffen.

Teil 2 mit dem Thema Kohlendioxid und Klima folgt demnächst

In Teil 3 nimmt Moore dann zum Thema Energie und Gesellschaft Stellung.

Übersetzt von Chris Frey EIKE

Link: https://wattsupwiththat.com/2018/03/13/a-conversation-with-patrick-moore/




Behaup­tungen über Beschleu­nigung des Meeres­spiegel-Anstiegs – gescheitert!*

Unter den Referenten bei dieser Anhörung fand sich auch Dr. James Hansen vom Goddard Institute for Space Studies der NASA, welcher seine infamen und jetzt widerlegten Ergebnisse der globalen Temperatur-Modelle vorstellte mit Temperaturprojektionen unter drei verschiedenen Szenarien der Zunahme von CO2-Emissionen. Diese haben den daraus resultierenden globalen Temperaturanstieg drastisch überschätzt:

Ebenfalls bei der Anhörung kam Dr. Michael Oppenheimer zu Wort, ein leitender Wissenschaftler beim Environmental Defense Fund. Er präsentierte Behauptungen, unter denen sich auch Projektionen des zukünftigen Meeresspiegel-Anstiegs befanden, zu welchem es während der kommenden Jahrzehnte kommen sollte.

Im Einzelnen behauptete Dr. Oppenheimer, dass…

dieser Anstieg der globalen Temperatur einen damit einhergehenden Anstieg des globalen Meeresspiegels verursacht infolge Wärmeausdehnung des Ozeanwassers und schmelzendem Inlandeis.

die globale Mittlere Temperatur wahrscheinlich im nächsten Jahrhundert um 0,3°C pro Jahrzehnt und der Meeresspiegel um etwa 6 cm pro Jahrzehnt steigen wird. Diese Raten sind 3 bis 6 mal höher als die historischen Raten.

weil sich die Ozeane nur langsam erwärmen, es eine Verzögerung zwischen Emissionen und dem vollen Einsetzen der daraus resultierenden Erwärmung gibt – eine Verzögerung von vielleicht 40 Jahren. Auf der Welt ist es derzeit ca. 0,5°C wärmer als vor einem Jahrhundert und dürfte sich um den gleichen Betrag weiter erwärmen, SELBST WENN DIE EMISSIONEN HEUTE BEENDET WERDEN.

Die EIA zeigt, dass die globalen Emissionen seit 1988 um über 60% zugenommen haben, und zwar um 13 Milliarden metrische Tonnen CO2 pro Jahr. Dr. Oppenheimer fuhr fort:

Diese Änderungen sind effektiv unumkehrbar, weil Treibhausgase langlebig sind.

Diese Erwärmung erfordert einige Anpassungsmaßnahmen wie etwa Deichbau. Das Aufgeben küstennaher Gebiete ist unvermeidlich.

Nunmehr 30 Jahre sind vergangen seit diesen düsteren Warnungen vor einem beschleunigten Anstieg des Meeresspiegels, welche auf der Anhörung präsentiert worden waren. Während dieses Zeitraumes sind die globalen CO2-Emissionen um über 60% gestiegen.

Mit Sicherheit müsste es nach 30 Jahren Anzeichen des damals projizierten beschleunigten Anstiegs sowie der anderen Vorgänge geben, und ebenso „Deichbauten und Aufgabe von Küstengebieten“ – so diese Projektionen eingetroffen wären.

Die NOAA hat soeben sein ausgedehntes Netzwerk von Tidenmesspunkten aktualisiert (142 Messpunkte) und die Messungen aus dem Jahr 2017 mit erfasst.

Diese gemessenen Daten zeigen unverdrossen, dass es während der letzten drei Jahrzehnte keine Beschleunigung des Anstiegs des küstennahen Meeresspiegels an diesen Punkten gegeben hat – obwohl dies auf der Anhörung damals hypothetisiert worden war.

Die NOAA unterhält Aufzeichnungen von Tidenmesspunkten an 16 Stellen, welche 99 Jahre oder noch länger zurück reichen. Sie stehen an der Pazifik-, der Atlantik- und der Golfküste. In der folgenden Graphik sind Beispiele am Battery Park in New York, San Francisco in Kalifornien, Honolulu und Key West in Florida gezeigt:

Die an den NOAA-Tidenmesspunkten ermittelten Raten eines Meeresspiegel-Anstiegs sind konsistent mit den Trends, welche 10 oder noch mehr Jahrzehnte zurückreichen. Sie zeigen, dass von dem behaupteten, vom Menschen verursachten Anstieg des Meeresspiegels keine Spur zu finden ist.

Diese Messergebnisse zeigen, dass natürliche Klimatreiber den Anstieg des küstennahen Meeresspiegels steuern, und nicht menschliche CO2-Emissionen.

Außerdem stellen diese Ergebnisse ernsthaft die Validität der Wissenschaft hinter dem Anstieg des globalen Meeresspiegels in Frage sowie diesbezügliche Abschätzungen und Behauptungen.

Link: https://wattsupwiththat.com/2018/03/14/1988-congressional-climate-change-hearing-claims-of-accelerating-sea-level-rise-failed/

Übersetzt von Chris Frey EIKE




Oberster Gerichtshof von Colorado nimmt Klima-Klage von Kindern an

Im Jahre 2013 reichten sechs Jugendliche, angestiftet von der Gruppe Earth Guardians, eine Petition ein mit der Forderung, dass die COGCC keine neuen Genehmigungen für Öl- und Gasbohrungen erhält, bis die Betreiber nachweisen, dass sie Bohrungen durchführen können, ohne die menschliche Gesundheit, die Sicherheit und die Umwelt zu beeinträchtigen. COGCC wies die Petition zurück und machte geltend, dass in deren gesetzlicher Satzung ausdrücklich festgelegt ist, dass die Öl- und Gaserzeugung im öffentlichen Interesse liegt.

Historisch legte die COGCC die Beweislast für wahrscheinliche Schäden jenen auf, die bestimmte Genehmigungen für Öl und Gas ablehnen. Repräsentiert durch ,Our Children’s Trust‘, einer in Oregon ansässigen Gruppe, welche derzeit in der ganzen Nation Klagen mit Klimabezug anstrengt, klagten die Kinder, und im März 2017 urteilte ein Bezirksgericht in ihrem Sinne und sagte, dass die COGCC Beweise für die Unbedenklichkeit hinsichtlich Gesundheit und Sicherheit erbringen muss, bevor über die geforderte Öl- und Gaserzeugung befunden werden kann.

Zerschlagen der Ausgewogenheit [Upsetting the Balance]

Die COGCC sprach sich einstimmig dafür aus, dieses Urteil dem Obersten Gerichtshof des Staates vorzulegen mit dem Argument, dass das Urteil der unteren Instanz der gesetzlichen Verpflichtung der Kommission widerspricht, die ökonomischen Vorteile von Bohrungen mit möglichen Bedenken bzgl. der Gesundheit der Menschen ins Gleichgewicht zu bringen.

Im Namen der COGCC forderte die Generalstaatsanwältin von Colorado Cynthia Coffman erfolgreich, dass der Oberste Gerichtshof die Klage annimmt. Coffman sagt, dass das Abwägen dieses Gleichgewichtes vor dem Gerichtsurteil eindeutig durch den Gesetzgeber gedeckt war, als die Kommission gegründet worden ist.

Tracee Bentley, Direktorin des Colorado Petroleum Council, gab ihrer Hoffnung Ausdruck, dass der Oberste Gerichtshof das Urteil der Vorinstanz aufheben werde.

„Wir freuen uns, dass der Oberste Gerichtshof der Annahme der Klage zugestimmt hat, fehlt doch dem Urteil der unteren Instanz eine robuste legale Grundlage“, sagte Bentley. „Falls der Oberste Gerichtshof das Urteil nicht aufhebt, gefährdet das ungerechtfertigte Urteil der unteren Instanz Arbeitsplätze, Einkommen sowie die Entwicklung natürlicher Ressourcen in unserem Staat – und all das für nichts und wieder nichts, denn die Öl- und Erdgas-Industrie von Colorado hat sich als ein guter Hüter der Umwelt erwiesen“.

,Zynischer Missbrauch von Kindern‘

Craig Rucker, Direktor des Committee for a Constructive Tomorrow CFACT sagt, dass Umweltgruppen Kinder missbrauchen, um Ziele zu verfolgen, welche den zukünftigen Lebensstandard dieser Kinder erniedrigen werden.

„Es ist schockierend zu sehen, zu welchen Mitteln die Gegner einer bezahlbaren und zuverlässigen Energieversorgung greifen. Mit dem zynischen Vorschieben von Kindern, um ein Gerichtsverfahren anzustrengen, welches ausschließlich den Interessen grüner Eliten dient, unterminieren Our Children’s Trust und Konsorten die Zukunft der heutigen Kinder.

Sie verdammen zukünftige Generationen zu einem Leben in Energieknappheit und Energiearmut, und das zu einer Zeit, in der unsere reichlichen Energievorräte und technologische Fortschritte Möglichkeiten zu eröffnen versprechen, die noch vor einigen Jahren unvorstellbar waren“, sagte Rucker.

Hier steht die Studie hinsichtlich der Auswirkungen eines Bohrverbots in Colorado nach Öl und Gas.

Bonner R. Cohen, Ph.D. is a senior fellow at the National Center for Public Policy Research.

Link: https://www.heartland.org/news-opinion/news/colorado-supreme-court-takes-up-childrens-climate-lawsuit




Der DWD ist überzeugt: 10 % Strom über zwei Tage, dabei nicht zuverlässiger als Wettervor­hersagen, reicht

10 % an elektrischem Strom während 2 Tagen sollte für Deutschland zwischendurch wohl reichen

Sagt DWD-Vizepräsident, Dr. Paul Becker [1] (Vita: Ausbildung als Meteorologe, in der Medizin-Meteorologie sowie der Klima- und Umweltberatung tätig). Setzt man dies als Maßstab für eine minimal auseichende Versorgung an, macht der EEG-Ausbau nach Ansicht des DWD-Meteorologen eigentlich keine Probleme. Dabei orientiert sich die DWD-Führungsspitze wohl an der neuen Doktrin, nach der die Bürger keinen individuellen Anspruch auf Energie haben [3].

Um die Zukunft eines nach solchen Maßstäben konzipierten, neuen Energiesystems zu ermitteln, haben sich fleissige DWD-Mitarbeiter als „Energieforscher“ an ihre Computer gesetzt und Wind und Sonne über ganz Europa simuliert. Herausgekommen ist dabei:
-Wind und Solar onshore Deutschland erzeugen 23 mal, also für 26 Tage im Jahr, maximal 10 % der Anschlussleistung über zwei Tage,
-mit Wind onshore und Solar geschieht ist es nur noch 2 mal, also für 4 Tage und
-wenn man das gesamte Europa flächendeckend mit Solar und Windkraft bedeckt, passiert es nur noch 0,2 mal, also einmal in ca. vier Jahren.

Bild 1 [2] Die Grafik zeigt die Anzahl von 48stündigen Zeiträumen geringer Energieproduktion verursacht durch Flauten, sonnenarme Zeiten sowie eine Kombination daraus. Ausgezählt wurden Phasen, bei denen der Kapazitätsfaktor über den Zeitraum unter 0,1 blieb, das heißt die mittlere Energieerzeugung des betrachteten Gebiets unterhalb von 10 Prozent der dort installierten Nennleistung lag.

Wenn die EU helfen würde, wäre unser EEG ein Erfolgsmodell

Unsere „Verantwortlichen“ machen inzwischen wirklich schon große Abstriche bei der zu garantierenden Versorgungssicherheit. Nun ist man bereits bei 10 % als ausreichender „Mindestmenge“ angelangt. Doch auch das schafft unser EEG nicht zuverlässig. Erkennbar, wie sich deshalb die Hilferufe an die EU häufen, Deutschland in seiner Not gefälligst dabei zu unterstützen:
EIKE 07. 02.2018: [3] In Zukunft sorgt die EU für die Sicherheit von Deutschlands Stromversorgung

Frau Baerbock von den GRÜNEN ist überzeugt, dass es unsere auch machen werden, weshalb für sie alle Probleme des EEG bereits zufriedenstellend gelöst sind.
Frau Baerbock: [14] … Denn statt die für Stromkunden teuren, nur selten gebrauchte Reservekraftwerke im eigenen Land vorrätig zu halten, kann man in Engpasssituationen preisgünstigen Strom aus dem Nachbarland beziehen …
So weit, zu glauben dass das Ausland uns ausgerechtet billigen Strom bereitstellt, wenn es wenig davon gibt, sind Fachperson*innen regiernder Parteien noch nicht. Auch diese suchen nach Lösungen, welche inzwischen immer mehr die EU einbinden, aber das streng nach dem EEG-(Heils-)Prinzip.

Angefangen hat es einst mit dem gescheiterten Desertec.

Bild 2 Ursprüngliche Flächenplanung des Öko-Energieprojektes Desertec. Quelle: WIKIPEDIA

Nun backt man die Brötchen etwas kleiner und will das Gleiche nur noch über die gesamte EU durchführen. Dazu benötigt man jedoch positive Expertisen, und nun liegt sie vom DWD vor.

Bild 3 Europa mit dem Bereich des DWD-„EEG-Ausbaus“. Bildausschnitt [2]

DWD: Einfach europaweit flächendeckend ausbauen und ein bisschen Strategie dazu, dann klappt es

DWD: [2] … Noch ein Hinweis: Da wir nicht wissen, wo in Deutschland und Europa künftig Standorte für Windkraft und Photovoltaikanlagen ausgewiesen werden, haben wir eine europaweit einheitliche Verteilung der Anlagen angenommen …
DLF 24: [1]… Dass in Deutschland die Lichter ausgehen, wenn immer mehr Kohle- und Atommeiler vom Netz gehen, scheint also übertrieben zu sein. Doch offenbar empfiehlt es sich, gewisse Reserven vorzuhalten – durch Stromspeicher oder durch Kraftwerke, die nicht auf Sonne oder Wind angewiesen sind …

Kommt nach der Tagesschau künftig auch die Energie-Vorhersage

Der Deutsche Wetterdienst hat ca. 2300 Mitarbeiter (Beamte und Tarifbeschäftigte) [8]. Inzwischen ist der Klimawandel ein etabliertes, neues Geschäftsfeld: DWD [8] … Erstellung von gut 15.000 Produkten zur Klimaüberwachung
und da liegt es nahe, weiter auszubauen und sich auch um die Energiebereitstellung zu kümmern, seitdem diese immer mehr von Wind und Wetter abhängig wird.
Wie beim Wetter „erstellt“ der DWD auch die Energie nicht, sondern sagt nur vorher, wie viel kommen könnte. Somit bleibt man im gewohnten, risikolosen Geschäftsfeld ohne Verantwortung, trotzdem aber teilhabend mit der Einnahme von Gebühren.

Der DWD ist für den EEG-Ausbau und forscht dazu

DWD: [2] Der Deutsche Wetterdienst (DWD) unterstützt den Ausbau der erneuerbaren Energien in Deutschland und Europa auch durch die Erforschung der meteorologischen Rahmenbedingungen …stabilisiert ein europäischer Stromverbund aus meteorologischer Sicht die Stromerzeugung aus erneuerbaren Energien? Die Ergebnisse unserer neuen Untersuchung möchte ich Ihnen nun vorstellen.
Aufgrund des fluktuierenden Charakters von Wind- und Sonnenenergie müssen wir uns fragen, wie eine zuverlässige Stromversorgung mit immer mehr Photovoltaik und Windkraft auf Dauer möglich ist … Um Schwankungen in einer deutlich stärker regenerativ ausgerichteten europäischen Stromversorgung zu untersuchen, sind detaillierte Daten zur räumlichen und zeitlichen Struktur der Wetterverhältnisse über lange Zeiträume erforderlich. Der DWD hat solche Datensätze ausgewertet und kann jetzt erstmals detaillierte Analysen für Europa vorstellen.

So wenig, wie wir wissen, muss reichen, deshalb ran ans Werk

DWD: [2] … Wie viele Windräder sich am Ende in der Nordsee drehen werden, weiß noch niemand genau. Becker und seine Mitarbeiter orientierten sich aber auch nicht an der Zahl und am konkreten Standort der Anlagen. Sie wollten nur wissen, welches Potenzial für die Energie-Ernte in der deutschen Nordsee steckt: wie stark und wie beständig der Wind dort in der Regel bläst, und wie häufig die Rotoren auf See in die Bresche springen können, wenn an Land längere Flaute herrscht …

Irgendwo weht der Wind doch immer und scheint die Sonne

Diesen Spruch kennt man. Er hat zwar nicht viel mehr Wahrheitsgehalt wie „Wind und Sonne stellen keine Rechnungen“, aber er ist – vielleicht gerade deshalb – nicht mehr zu „töten“. Vor allem ist er erforderlich, um das EEG zu „retten“. Und simulierte Rettungen sind schon fast so gut, als hätte man sie wirklich geschafft.

Bild 4 Europa (vom Autor mit Entfernungsangaben ergänzt). Quelle: [2] DWD: Die linke Grafik zeigt den mittleren Kapazitätsfaktor der Windenergie für Europa (Mittelwert 1995 bis 2015, für Länder südlich von 60° nördlicher Breite). Die Berechnung basiert auf der Annahme einer typischen modernen Windkraftanlage. Gezeigt wird der langjährige Mittelwert für eine Nabenhöhe von 116 m. Deutlich werden die hohen Auslastungen in den nordwestlichen Küstenregionen Europas – vor allem im Vergleich zu den geringeren Werten in Südosteuropa. Die rechte Grafik zeigt den mittleren Kapazitätsfaktor für eine repräsentative Photovoltaikanlage als langjährigen Mittelwert für Europa. Deutlich erkennbar sind die höheren zu erwartenden Erträge im südlichen Europa.

Strom kommt aus der Steckdose, aber nicht vollkommen verlustfrei

WIKIPEDIA: Die Übertragungsverluste betragen etwa 6 % je 100 km bei einer 110-kV-Leitung … (für) 380-kV-Höchstspannungsleitungen ca. 1 % je 100 km
[9] Beim 2008 fertig gestellten NorNed-Kabel (Anm.: HGÜ) durch die Nordsee, das die Netze von Norwegen und den Niederlanden verbindet, wurden über 580 km Länge Gesamtverluste von 3,7% gemessen.

Um den Strom – wie vom DWD vorgeschlagen – über halb Europa (mindestens 2.500 km) zu transportieren, sind die folgenden Leitungs-Verluste zu erwarten:
Übertragungslänge 2.500 km, Verluste nach [10] abgeschätzt (ohne Konverterverluste):
400 kV-Freileitung: ca. 30 %
HGÜ-Leitung 500 V: ca. 20 %
HGÜ-Leitung 800 kV: ca. 10 … 20 %

Bereits diese gröbste Schätzung zeigt, dass für eine europaweite Vernetzung alleine HGÜ-Übertragung in Frage kommt. Nun ist HGÜ eine relativ teure Technik. Und so braucht man kein Hellseher zu sein für die Vorhersage: Bald wird ein Industrieverband eine Studie präsentieren, welche den Zwang zum EU-weiten EEG-Ausbau als „absolut notwendig und von Deutschland aus massiv voranzutreiben“ ermittelt.
Dann bekommen wir den Fall, dass ganz Europa (wohl mit unserem Geld) „energietechnisch ausgebaut“ wird und bei uns auf „der letzten Meile“ der Strom dann mit dem Lastenfahrrad kommt:
EIKE 07. 02.2018: Die Lösung des Ladesäulenproblems ist erfunden – der Strom radelt zum Auto
Vielleicht eine passende Metapher, um zu zeigen, was passiert, wenn unsere Politikkaste für ihre Ideologie alles Geld verschleudert hat.

Wenn unsere „lieben Nachbarn“ erst einmal realisieren, unter welch gewaltigem Druck Deutschland bei der Lösung seines EEG-Problems steht, wird der Preis – und Zeitraum – explodieren, alleine, indem (Bürger?)Initiativen gleiche Rechte wie Deutsche gegen den Bau von Trassen, ergänzt mit der Forderung nach besonders teurer, unterirdischer Verlegung, fordern. Die Forderung der Grundstückseigner auf Pachtzahlung bis zum Tag des Jüngsten Gerichts nicht zu vergessen.

Die (nicht simulierte) Wirklichkeit

Leider neigen unsere Ämter dazu, dem Volk Wahrheiten zu präsentieren, aber nicht die Hintergründe dazu. Außer den paar Zahlen der Pressemitteilung [2] ist beim DWD nichts zu finden. Stimmt nicht ganz. Auf Anforderung bekam der Autor vom DWD etwas Unterlagen und den Link zu FTP-Urdaten. Leider war die Studie mit den Auswertekurven jedoch nicht dabei. Aus den Urdaten eine solche zu erstellen, ist dem Autor privat aber nicht möglich (und sofern es mit Tools denkbar wäre, zu aufwendig). deshalb anbei „googelbare“ Daten.

Deutschland

Dazu gibt es genügend Ganglinien-Auswertungen. Eine recht aktuelle sei anbei exemplarisch gezeigt:
EIKE 7. Januar 2018: [12] Ministerin Hendricks: Wir haben im Gegenteil sogar gigantische Stromüberschüsse

Anhand der Daten von Agora hat der Autor in diesem Artikel die gesamte Stromerzeugung Deutschlands (onshore und offshore) im Jahr 2016 statistisch analysiert mit dem folgenden Ergebnis:
Nimmt man 10 % der Anschlussleistung als Maßstab, dann liegt die Stromerzeugung über insgesamt 20,6 Tage im Jahr darunter , nimmt man 20 % als Minimum an, passiert dies bereits über 207 Tage im Jahr, also das Zehnfache der Zeit.

Bild 5 Auszug der Datentabelle, Histogramm der EEG-Einspeisung 2016. Bezug: 100 % = Anschlussleistung. Grafik vom Autor aus den Daten von Agora erstellt

Diese Werte lassen sich allerdings schwer mit der DWD-Angabe vergleichen, weil diese zusammenhängende 48 Stunden unter 10 % der Anschlussleistung deklariert.

Eine überschlägige Abschätzung nach diesem Kriterium für das Jahr 2016 im Agora-Datensatz ergibt:
Zusammenhängende 48 Stunden mit maximal 10 % der Anschlussleistung: Es trat zweimal auf, einmal über 66 und einmal über 67 Stunden.
Nimmt man 5 % mehr, also 15 % als Minimum, dann treten diese Fälle es schon 8-mal auf. In Summe über 557 Stunden, also 23 Tagen.

Man sieht, wie wichtig die Histogrammkurve und nicht ein (gezielter) Einzelwert ist. Ziemlich sicher wurde der 10 %-Wert vom DWD ganz bewusst gewählt, weil nur mit diesem (extrem niedrigen) das „gewünschte“ Ergebnis herauskam. Angemerkt sei dazu, dass der DWD sein Auswahlkriterium anders angibt: „ … Dieses gezeigte Beispiel (10%, Zeitraum 2 Tage) wurde in Diskussion mit Experten für Energiefragen exemplarisch ausgewählt …

Simulation eines Vortrages zur Klimapressekonferenz

Anhand der Daten aus dem vorhergehenden Absatz kann man sich den „Spass“ machen, den Vortrag von Herrn Dr. Becker auf der Klimapressekonferenz einmal wie gehalten und einmal simuliert zu schreiben.

Das Original:
DWD: [2] Vortrag: Deutscher Wetterdienst analysiert wetterbedingte Ertragsausfälle erneuerbarer Energien – Kombination von Windkraft und Photovoltaik zeigt eindrucksvolle Effekte
Redetext
(stark gekürzte Auszüge): … Die Einspeisung erneuerbarer Energien aus Wind und Sonne unterliegt Schwankungen. Laut Bundeswirtschaftsministerium besteht aber aktuell in Deutschland eine hohe Versorgungssicherheit …
Um Schwankungen in einer deutlich stärker regenerativ ausgerichteten europäischen Stromversorgung zu untersuchen, sind detaillierte Daten zur räumlichen und zeitlichen Struktur der Wetterverhältnisse über lange Zeiträume erforderlich.
Der DWD hat solche Datensätze ausgewertet und kann jetzt erstmals detaillierte Analysen für Europa vorstellen …
Windkraft aus Nord- und Ostsee stabilisiert Einspeisung aus erneuerbaren Energien Auf Basis der beschriebenen Vorgehensweise zeigen wir Ihnen in Abbildung 1 zunächst die mittleren langjährigen Produktionsbedingungen für Wind- und Solarenergie in Deutschland.
Beide Fälle zeigen wenig überraschende Verhältnisse: Beim Wind, das ist die linke Grafik der Abbildung, führen die höheren Durchschnittsgeschwindigkeiten an den Küsten oder Mittelgebirgen zu einer höheren Auslastungen der Windkraftanlagen. Bei der Photovoltaik, das zeigt die rechte Grafik der Abbildung, finden wir die höchsten Kapazitätsfaktoren, das heißt
die besten Erträge, im süddeutschen Bereich … Die kombinierte Nutzung von Windkraft und Photovoltaik in Deutschland sorgt für einen vergleichsweise einheitlichen Kapazitätsfaktor. Das stabilisiert die Stromproduktion aus erneuerbaren Energien …

Nun stelle man sich vor, der DWD Vizepräsident, Dr. Paul Becker hätte in seinem Vortrag zur Klimapressekonferenz am 6. März in Berlin gesagt:
Simulierter Vortragstext (stark gekürzte Auszüge):
wir haben mit viel Aufwand die Windhöffigkeit über Deutschland einschließlich der Nord und Ostsee simuliert. Leider müssen wir sagen, dass Flaute- und Schwachwindzeiten entgegen der häufig geäußerten Ansicht – unverständlicher Weise auch von sogenannten Experten publiziert – so häufig sind, dass über mehr als 200 Tage im Jahr nicht mehr als 20 % der Anschlussleistung erwartet werden können. Und auch das nur unter Einbeziehung der offshore-Windkraft, deren Energietransport nach Süddeutschland problematisch und verlustbehaftet ist. Dabei ergab die Simulation eine gute Übereinstimmung mit den Ganglinien der derzeitigen Installationen und muss deshalb als Fakt akzeptiert werden. Leider gibt es auch keine ausreichende Kompensation zwischen Wind- und Solarertrag der Winter- und Sommermonate, den das desaströse Ergebnis beinhaltet bereits die SolarinstallationenEine Erweiterung auf den EU-Raum bringt leider auch wenig Unterstützung, schon gar nicht eine Lösung. Dazu ist der Windausgleich über den EU-Raum einfach zu gering …

Kann man sich so etwas vorstellen? Beim EEG zur Zeit nicht.

Die Simulation geschah im Bundestag

Ein solcher Vorfall geschah aber vor kurzem im Deutschen Bundestag zur NOx-Debatte.
Ein Staatssekretär als Behördenvertreter „stemmte“ sich vor den versammelten Abgeordneten gegen die NOx-Hysterie.

Bild 6 (Eingebettetes Video) Bundestagsvortrag des Staatssekretärs N. Barthle zur NOx Mortalität. Quelle und Link: YouTube

Natürlich wurde dieser peinliche Ausrutscher umgehend korrigiert. Zur Kompensation dieses eklatanten Fauxpas und um die Untertanen wieder auf die richtige Einstellung zu „trimmen“, verteilte das UbA ihr „amtlich genehmigtes Wissen“, welches von unseren Medien sofort pflichtgemäß verbreitet wurde:
FOCUS, 08.03.2018: [7] Studie des Umweltbundesamts Jedes Jahr sterben 6000 Menschen: So gefährlich sind Diesel-Abgase wirklich
Der Vortrag im Bundestag ist dagegen so „totgeschwiegen“, dass er selbst über googl schwer zu finden ist.
Inzwischen müssen Boulevardzeitungen dem FOCUS und Spiegel bereits zeigen, was eine investigative Berichterstattung sein könnte. Selbst der Bildzeitung war die UbA-Studie zum Schluss doch zu erbärmlich, und sie startete einen Verriss (nachdem sie vorher wie der FOCUS das Studienergebnis publiziert hatte):
BILD 09.03.2018: Wissenschaftler widersprechen Umwelt-Studie Kein einziger Diesel-Toter wirklich nachweisbar
EIKE: Bild, Diesel, manipulierte Daten und die Wut der Leser
Etwas zur Studie, Achgut: Der Sonntagsfahrer: Dieselstudie als vorzeitiger Todesfall

EU-Werte der Windhöffigkeit

Nun wieder weiter mit der DWD-Studie. Datenwerte der EU zur Ökostrom-Erzeugung liegen dem Autor nicht vor. Es gibt jedoch eine orientierende Untersuchung zur Windhöffigkeit, aus der sich Ganglinien zeigen lassen.
VGB Powertech, May 29th, 2017 Foliensatz: [13] Pathways to a fossil free, integrated energy system
Zur groben Bewertung der DWD-Aussage reichen diese aus.

Bild 7 [13] Ganglinien Wind Deutschland

Bild 8 [13] Ganglinien der Windsumme von 18 EU-Staaten incl. Deutschland

Bild 8.1 Daten von Bild 7 und Bild 8 tabelliert

Bild 9 [13] Ganglinien Windsumme von 18 EU-Staaten mit Daten
Leicht zeigt sich anhand der wirklichen Einspeisungen, dass das mit dem Ausmitteln über Europa nicht funktioniert (Bild 9). Etwas besser wird es werden, wenn die Solar-Einspeisungen dazu addiert ist (leider liegen dem Autor dazu keine Daten vor). Aber die Euphorie des DWD über eine EU-weite „Ausmittelung“, lässt sich kaum aufrecht erhalten, sobald nicht von 10 % Minimum, sondern höheren, erforderlichen Mindestwerten ausgegangen wird.

Bild 10 Ansicht Bild 7 und Bild 8 auf gleiches Pmax normiert und übereinander kopiert

Woran dies liegt, zeigt Bild 11 mit der Darstellung, über welch riesige Flächen von Europa gleichzeitig ähnliche Windverhältnisse vorliegen können.

Bild 11 [13] Flächenverteilung von Stark- und Schwachwindzeiten in Europa

Wieder der reine Wahnsinn mit Methode

Das folgende Bild 12 zeigt den Unterschied der aktuell EU-weit installierten Windleistung zur verbrauchten. Wird dieser Ausbau verzehnfacht, wäre erst einmal der theoretische Nettobedarf gedeckt. Zur Deckung der enormen Leitungsverluste und Flautezeiten wird man wohl mit dem 20-fachen – zuzüglich des Leitungsausbaus, zuzüglich eines noch nicht im Ansatz gelösten Speicherausbaus rechnen müssen.

Bild 12 [13] Differenz zwischen Strombedarf und aktuell installierter Windleistung in Europa

Wenn für ausreichend Reservekapazität gesorgt ist, kann man jedes Experiment wagen

Wer sich um keine Kosten und Realisierungsmöglichkeiten kümmern muss, dazu auch keine Verantwortung trägt, kann sich markige Erklärungen leisten. So auch der DWD:
DWD: [13] …
Meine Damen und Herren, lassen Sie mich zusammenfassen:
Erstmals können wir mit den neuen Datensätzen des DWD die meteorologische Situation von Windkraft und Photovoltaik in ganz Europa detailliert analysieren. Das ist ein wichtiger Beitrag zum klimagerechten Ausbau der deutschen und europäischen Stromerzeugung.
Der Ausbau der Windenergie in der ausschließlichen Wirtschaftszone Deutschlands, also den durch Deutschland verwalteten Teilen der Nord- und Ostsee, ist auch aus meteorologischer Sicht sinnvoll. Da die Auslastungen der Anlagen deutlich über dem Niveau über Land liegen, können sie regelmäßiger Strom ins Netz einspeisen und damit die Stromerzeugung aus Windenergie in Deutschland stabilisieren. Bei der Kombination von Wind und Sonne ergeben sich Ausgleichseffekte, beispielsweise zwischen Winter und Sommer, die Ertragsausfälle vermindern.
Grundsätzlich führt der kombinierte Einsatz von Windenergie und Photovoltaik zu einer deutlich geringeren Anzahl von Fällen mit geringer Stromproduktion. Diese Ertragsrisiken werden nochmals stark reduziert durch einen europäischen Stromverbund.
Aus meteorologischer Sicht spricht also nichts gegen einen weiteren Ausbau der erneuerbaren Energien in Deutschland und Europa. Da das Wetter aber macht was es will, können wir niemals ausschließen, dass eine extreme Windflaute zusammen mit einer sonnenarmen Phase über Europa auftritt. Eine verantwortungsvolle Energiepolitik muss sich deshalb nicht nur um den Ausbau von Windkraft und Photovoltaik kümmern, sondern zugleich für ausreichend Reservekapazitäten sorgen. Dabei kann der Deutsche Wetterdienst mit seinen Daten und Analysen unterstützen …

Aber es bleibt wie beim Wetterbericht, bitte nicht darauf vertrauen

DWD: [2] Auch wenn sich im Durchschnitt Wind und Sonne gut ergänzen, können Situationen auftreten, in denen in Deutschland aus beiden Energieformen gleichzeitig eine nur geringe Einspeisung zur Verfügung steht. Bei einem weiteren Ausbau der erneuerbaren Energien müssen für derartige Situationen Strategien entwickelt werden, die beispielsweise durch Reservekraftwerke, Speicherlösungen oder großräumigen Stromaustausch die Netzstabilität garantieren.

Fazit
Deutschland ist in dem was sich „Wissenschaft“ zum Klima und Energie nennt, bereits vollständig digitalisiert: Das Denken haben die Computer übernommen und Sprechpuppen übermitteln die Ergebnisse. Damit es so bleibt, hat das Ressort Digitalisierung in Berlin neuerdings eine Politologin als Leiterin bekommen.

Quellen

[1] DLF 24: DWD-Studie Mehr Netzstabilität durch Offshore-Energie und EU-Stromverbund

[2] DWD: Klimapressekonferenz des Deutschen Wetterdienstes (DWD) am 6. März 201 8 in Berlin, Rede von Dr. Paul Becker

[3] EIKE 07. 02.2018: In Zukunft sorgt die EU für die Sicherheit von Deutschlands Stromversorgung

[5] EIKE 27.12.2017: Offshore lieferte jeden Tag Strom und onshore gab es im Jahr 2016 deutschlandweit keine einzige Stunde ohne Windstromerzeugung

[6] EIKE 11.01.2017: Der Wind weht überhaupt nicht immer irgendwo: Ein Nachtrag zum Märchen von der Wind-Grundlastfähigkeit

[7] FOCUS, 08.03.2018: Studie des Umweltbundesamts Jedes Jahr sterben 6000 Menschen: So gefährlich sind Diesel-Abgase wirklich

[8] DWD Pressemitteilung: Zahlen und Fakten zum Deutschen Wetterdienst 2018

[9] Deutscher Bundestag, Wissenschaftliche Dienste Nr. 57/09 (02. Juli 2009):Hochspannungs-Gleichstrom-Übertragung (HGÜ)

[10] Siemens, Broschüre: Fact Sheet Hochspannungsgleichstromübertragung (HGÜ) Stand Juli 2012

[11] EIKE 22. Januar 2018: Am 11. Januar 2018 brach das EEG-System Deutschlands das erste Mal in der Geschichte vollständig in sich zusammen

[12] EIKE 7. Januar 2018: Ministerin Hendricks: Wir haben im Gegenteil sogar gigantische Stromüberschüsse

[13] VGB Powertech, May 29th, 2017 Foliensatz: Pathways to a fossil free, integrated energy system

[14] Deutschlands Zukunft gestalten Koalitionsvertrag zwischen CDU, CSU und SPD 18. Legislaturperiode

[15] EIKE 14. März 2018: Eine grüne Stromversorgung Deutschlands




Zwei Mythen zu CO2 und Klimawandel

Wissenschaftlich ist es ziemlich anders. Tatsächlich ist es ziemlich komplex, weshalb die Wissenschaft vom Klimawandel so breit diskutiert wird.

CO2 in der Luft fängt keine Wärme ein

CO2 führt der Atmosphäre Wärme zu und entfernt sie auch wieder daraus, so dass die Wärme sicher nicht eingefangen wird. CO2 ist ein sekundäres Treibhausgas, und Wasserdampf das primäre Treibhausgas. Ein Treibhausgas bedeutet zweierlei, denn es führt der Atmosphäre Wärme zu und entfernt diese auch wieder aus derselben.

Alles fängt damit an, dass die Sonne die Erdoberfläche aufheizt. Ein Teil dieser Energie wird dann als Infrarot wieder abgestrahlt, was gemeinhin „langwellige Strahlung“ oder LWR genannt wird. Ein großer Teil dieser LWR durchläuft einfach die Atmosphäre und wird in den Weltraum abgestrahlt, wo sie für immer verschwunden ist. Aber ein geringer Teil dieser Wärme wird von Treibhausgas-Molekülen eingefangen und absorbiert.

Diese energetisch angereicherten Moleküle geben dann diese absorbierte LWR als Wärme in die übrige Atmosphäre ab. (Wärme ist keine Substanz, sondern vielmehr eine molekulare Bewegung). An diesem Punkt kann man also sagen, dass CO2 die Atmosphäre erwärmt hat, und so weit gehen auch die Alarmisten. Was diese aber nicht erwähnen – diese Wärme reichert andere Treibhausgas-Moleküle an, diese geben ihre LWR ab und entfernen somit die Wärme.

Die Energie tritt also als LWR in die Luft ein und wird zu Wärme, um danach wieder als LWR abgestrahlt zu werden und damit verschwunden ist. In diesem Prozess wird keine Wärme eingefangen. Es gibt immer Einiges an Wärme in der Luft im Zuge dieses Prozesses, aber es ist wie Menschen, die ein Geschäft betreten, dann anstehen müssen, bis sie bedient werden, wonach sie den Laden wieder verlassen. Niemand wird gefangen.

Hat man einmal erkannt, das keine Wärme eingefangen wird, kann man fragen, ob hinzugefügtes CO2 die Wärmemenge notwendigerweise in der Luft erhöht (und damit auch die Temperatur). Dank der Komplexität des Klimasystems ergibt sich die Antwort ,nicht notwendigerweise‘. Vielmehr geht aus Satellitenbeobachtungen hervor, dass es keine CO2-Erwärmung gegeben hat seit Beginn derartiger Aufzeichnungen vor etwa 40 Jahren.

Die CO2-Zunahme ist nicht unseren CO2-Emissionen geschuldet

Es ist unstrittig, dass der CO2-Gehalt der Luft gegenwärtig zunimmt. Normalerweise wird dies zurückgeführt auf unsere Freisetzung von CO2 in die Atmosphäre, wo ein großer Teil davon verbleibt und sich Jahr für Jahr akkumuliert. Dies ist mehr oder weniger das Standardkonzept von Verschmutzung, was die Alarmisten unablässig hervorheben, aber das ist nichts, was irgendwie mit der CO2-Zunahme verbunden ist.

Was die Alarmisten aber beharrlich verschweigen ist, dass unsere CO2-Emissionen winzig sind im Vergleich zu den natürlich auftretenden Emissionen. Tatsächlich emittieren und absorbieren natürliche Prozesse etwa 25 mal die Menge, die wir emittieren (die tatsächliche Menge wird nicht gemessen). Diesen gewaltige natürliche Fluss von CO2 in die Luft hinein und wieder heraus nennt man den „Kohlenstoff-Fluss“. Er ist Bestandteil der Kohlenstoff-Kreislaufes, welcher alles Leben auf der Erde erst möglich macht.

Der Punkt hier lautet, dass angesichts dieses gewaltigen Kohlenstoff-Flusses ziemlich viel des von uns emittierten CO2 innerhalb nur weniger Jahre wieder verschwindet. Um 25% der CO2 in der Luft wird jedes Jahr durch natürliche Prozesse absorbiert, einschließlich des CO2, das wir in die Atmosphäre einbringen.

Dies bedeutet, dass die CO2-Zunahme in der Luft nicht durch unseren CO2-Ausstoß zustande kommt. Unser CO2 kann die Zunahme bewirken oder auch nicht, aber die Zunahme geht nicht ausschließlich auf uns zurück. Einfach gesagt: die CO2-Zunahme ist nicht unserem CO2 geschuldet.

Unter dem Strich: Immer wenn man in einem Artikel etwas von Wärme einfangender CO2-Verschmutzung liest, weiß man, dass das Humbug ist. Die CO2-Zunahme geht nicht auf menschliche Emissionen zurück und führt nicht zu einer Erwärmung der Atmosphäre.

Link: http://www.cfact.org/2018/03/13/two-co2-climate-change-myths/

Übersetzt von Chris Frey EIKE




Rauer, langer Spätwinter 2018 mit extremen Tempera­turschwan­kungen – warum?

Die gegensätzlichen Großwetterlagen im Spätwinter 2018

Zwischen zwei für diese Jahreszeit extrem kalten Phasen mit jeweils einem „Skandinavien- Hoch“, bei denen Nachts verbreitet zweistellige Minusgrade, an der Monatswende Februar/März teils minus 18 bis minus 20 Grad, auftraten, lag ein sehr mildes zweites Märzwochenende mit Tageshöchsttemperaturen von stellenweise mehr als plus 20 Grad:

Abb. 1a (oben): Extreme Winterkälte mit Nordostströmung am Südrand eines kräftigen Skandinavien- Hochs, unterbrochen von einer fast frühsommerlichen Südlage (Abb. 1b, unten). Ein Wechsel von arktischer zu subtropischer Luft erklärt die enormen Witterungsgegensätze. Bildquelle: Metoffice/UKMO, ergänzte Teilausschnitte.

War das schwindende Arktische Meereis schuld an der späten Kälte?

Wenn es zu markant kälteren Witterungsphasen kommt, behaupten die Verfechter der „CO2- Klimaerwärmung“ gerne, das schwindende Arktische Meereis verändere die Zirkulationsverhältnisse und begünstige winterliche Kältewellen aus Osten. Ein Blick auf die Eisausdehnung im Winter 2017/18 zeigt zwar, dass diese außergewöhnlich gering war, aber auch schon im Dezember und Januar, welche in Deutschland viel zu mild ausfielen:

Abb. 2: Seit Dezember 2017 war die vom Arktischen Meereis bedeckte Fläche (blaue, unterste Linie) ungewöhnlich gering. Allerdings liegen diese satellitengestützten Daten erst seit 1979 vor, so dass man die geringe Eisbedeckung nicht voreilig der vom Menschen verursachten Klimaerwärmung anlasten darf. Denn während der Klimaoptima des Holozäns (Mittelalterliche Warmzeit, Römisches Optimum und dem Höhepunkt unserer Warmzeit vor etwa 7.000 Jahren) gab es mit hoher Wahrscheinlichkeit noch weniger Eis. Andernfalls hätten die Wikinger im Hochmittelalter Grönland gar nicht erreichen und Hannibal vor gut 2.200 Jahren nicht die Alpen überqueren können.

Im Falle eines wesentlichen Einflusses des schwindenden Meereises auf die Deutschland- Temperaturen des Winters oder Spätwinters müsste sich ein positiver Zusammenhang zeigen- bei viel Eis also tendenziell mildere und bei wenig Eis kältere Deutschland- Temperaturen. Im Folgenden ist der tatsächlich nur sehr schwache Zusammenhang für den März gezeigt (für die einzelnen Wintermonate oder den Winter insgesamt kommt man zu ähnlichen Ergebnissen; auch dann, wenn man eine zeitliche Verzögerung von einem bis zu mehreren Monaten berücksichtigt):

Abb. 3: Tendenziell war der März in Deutschland seit 1979 eher milder, wenn das Arktische Meereis eine geringere Ausdehnung hatte. Bei der hohen Streuung ist der gefundene Zusammenhang jedoch nicht signifikant.

Das arktische Meereis kommt als Ursache für die spätwinterlichen Kältewellen also nicht in Betracht

Beeinflusst die Sonnenaktivität die Zirkulationsverhältnisse?

Die Sonnenaktivität beeinflusst Witterung und Klima auf vielfältige Weise, worauf hier aus Zeitgründen nicht näher eingegangen werden soll. Interessierte Leser seien auf Begriffe wie Svensmark- Effekt, Weltraumwetter, Sonnenwind, Solarer Magnetismus oder Forbush- Reduktion hingewiesen. Leider stehen viele dieser solaren Daten erst seit wenigen Jahrzehnten zur Verfügung; für langfristige Untersuchungen existieren nur die Beobachtungen der Sonnenfleckenzahlen, welche die solare Aktivität nur sehr unscharf abbilden, so dass keine engen Zusammenhänge zu erwarten sind. Deshalb wurde in der folgenden Grafik nicht nur der aus den Monaten Februar und März bestehende Spätwinter betrachtet, sondern das gesamte Jahr, weil dadurch mehr Datenmaterial verfügbar ist, was die Sicherheit der Aussagen erhöht. Offenbar treten bei geringerer Sonnenaktivität tendenziell mehr Großwetterlagen mit nördlichem Strömungsanteil in Mitteleuropa auf, was abkühlend wirkt. Beim Zeitraum Februar/März zeigt sich aber ein ähnlicher Zusammenhang; übrigens auch dann, wenn man einen zeitlichen Versatz von einigen Monaten, also ein verzögertes Wirken der Sonnenaktivität, annimmt:

Abb. 4: Der negative Zusammenhang zwischen der Häufigkeit von Tagen mit nördlichem Strömungsanteil und der Sonnenaktivität ist nicht sehr eng, aufgrund des hohen Stichprobenumfangs aber überzufällig und damit signifikant. Bei geringer Sonnenaktivität werden diese kühlend wirkenden Großwetterlagen tendenziell häufiger.

Im Jahr 2017 und auch im Winter 2017/18 nahm die Sonnenaktivität weiter ab:

Abb. 5: Zum Ende des Jahres 2017 waren kaum noch Sonnenflecken zu beobachten; im Monatsmittel weniger als 10 Flecken. Quelle: NOAA.

Bei genauerer Betrachtung der Abbildung 5 fällt der insgesamt schwache Sonnenfleckenzyklus 24 auf (SCHWABE- Zyklus), welcher sein Maximum mit nur knapp über 100 Sonnenflecken im Februar 2014 hatte. Er ist der schwächste seit etwa einhundert Jahren gewesen, und tendenziell nimmt die Sonnenaktivität schon seit Beginn der 1990er Jahre ab, als der 22. Zyklus sein Maximum mit beachtlichen etwa 200 Sonnenflecken im Monatsmittel hatte. Passend dazu zeigt sich eine 30ig- jährige Abkühlung im Spätwinter:

Abb. 6: Negativer Temperaturtrend der Deutschland- Temperaturen im Februar und März seit 30 Jahren. Wegen der enormen Streuung braucht man deswegen nicht gleich den Beginn einer neuen „Kleinen Eiszeit“ zu fürchten- aber berechtigte Zweifel an der Erwärmungswirkung der steigenden CO2- Konzentration sind angebracht. Der 2018er Wert wurde auf 0,4°C geschätzt; selbst wenn er sich noch um einige Zehntelgrad nach oben oder unten ändern sollte, bleibt die Grundaussage dieser Grafik bestehen.

Man darf jedoch nicht nur den Winter oder Spätwinter betrachten. Kritiker werden einwenden, dass die deutschen Temperaturen im Jahresmittel und besonders im Sommer während der vergangenen 30 Jahre noch leicht angestiegen sind- ist also der solare Einfluss doch nur gering?

Abb7: Im Gegensatz zum Winter erwärmten sich die Sommer leicht; im Jahresmittel zeigt sich eine geringfügige Erwärmung. Da keiner der drei hier gezeigten Trends signifikant ist, kann man von einer Temperaturstagnation in Deutschland seit etwa 30 Jahren ausgehen.

Doch hier kommt nun eine Konstellation ins Spiel, welche so seit Beginn der regelmäßigen Temperaturaufzeichnungen (1881) noch nicht auftrat – das Zusammentreffen einer rapide nachlassenden Sonnenaktivität mit einer noch andauernden AMO- Warmphase. Der AMO- Index ist ein Maß für die Wassertemperaturen im zentralen Nordatlantik (AMO = Atlantische Mehrzehnjährige Oszillation). Und diese AMO beeinflusst ebenfalls die Häufigkeitsverhältnisse der Großwetterlagen. In AMO- Warmphasen treten mehr in Mitteleuropa erwärmend wirkende Süd- und Südwestlagen auf; besonders auch im Sommer und Herbst, was bislang noch der Abkühlungswirkung der nachlassenden Sonnenaktivität entgegenwirkt. Im Folgenden seien hier die Verhältnisse für das Jahr gezeigt:

Abb. 8: Besonders am Ende der AMO- Warmphasen, so auch gegenwärtig (grüne Ausgleichskurve) häufen sich in Mitteleuropa die erwärmend wirkenden Südwestlagen (orange). Ein kompletter AMO- Zyklus hat eine ungefähre Länge von etwa 60 bis 80 Jahren, so dass sich nicht genau vorhersagen lässt, wann die aktuelle Warmphase, die etwa 1990 begann, endet; doch lange dürfte sie nicht mehr anhalten.

Diese AMO-Warmphase kompensierte und verschleierte also bislang die solar bedingte Abkühlung in Mitteleuropa; mit ihrem Ende dürfte sich dann aber die Abkühlung vermutlich stärker bemerkbar machen. Der Vollständigkeit halber sei angemerkt, dass bei der Wechselhaftigkeit unserer Witterung auch Zufallsprozesse stets Extremwetterereignisse auslösen können. Verschiedene Wärmeinseleffekte und eine unter anderem infolge der Luftreinhaltemaßnahmen höhere Sonnenscheindauer wirkten außerdem bislang der Abkühlung in Deutschland entgegen.

Fazit: Der kalte Spätwinter 2018 in Deutschland mit enormen Temperaturschwankungen wurde durch die nachlassende Sonnenaktivität bei gleichzeitig noch andauernder AMO-Warmphase zumindest begünstigt. Diese Konstellation dürfte in naher Zukunft in allen Jahreszeiten mehr Extremwetter mit großen Temperatursprüngen auslösen, bevor mit dem zeitlich nicht genau absehbaren Ende der AMO-Warmphase vermutlich eine stärkere Abkühlung einsetzt. Anzeichen für eine mögliche bevorstehende Abkühlungsphase hatten sich bereits mit den enormen Temperaturschwankungen im Herbst 2016 sowie im Winter 2016/17 angedeutet.

Stefan Kämpfe, unabhängiger Natur- und Klimaforscher




Unbequeme Daten: Immer weniger Menschen sterben durch klimabe­zogene Naturka­tastrophen

Immer weniger Menschen sterben durch klimabezogene Naturkatastrophen

Das ist eindeutig das Gegenteil dessen, was man normalerweise hört – hören wir doch oftmals von einer Katastrophe nach der anderen und wie ,viele‘ Ereignisse auftreten. Die Anzahl der Ereignisse, über die berichtet wird, steigt, aber das ist hauptsächlich auf bessere Reportage-Arbeit, niedrigere Schwellenwerte und bessere Zugänglichkeit zurückzuführen. Zum Beispiel gilt für Dänemark, dass die Datenbasis erst im Jahre 1976 Ereignisse aufzeichnet.

Stattdessen betrachte man die Anzahl der Todesfälle pro Jahr, die zu manipulieren viel schwieriger ist. Angesichts des Umstandes, dass diese Zahlen von Jahr zu Jahr erheblich fluktuieren (vor allem in der Vergangenheit bei gewaltigen Dürren und Überschwemmungen in China), werden sie hier als dekadische Mittelwerte gezeigt (1920 bis 1929; 1930 bis 1939 usw. mit 2010 bis 2017 als der letzten Dekade). Die Daten stammen von der angesehensten globalen Datenbasis, der International Disaster Database, http://emdat.be/emdat_db/. Es gibt gewisse Unsicherheiten über die vollständige Erfassung während der ersten Jahrzehnte, weshalb diese Graphik erst im Jahre 1920 ihren Startpunkt hat; aber falls überhaupt etwas bedeutet diese Unsicherheit, dass die Graphik den Rückgang der Todesfälle ,unterschätzt‘.

Man beachte, dass dies ,nicht‘ bedeutet, dass es keine globale Erwärmung gibt oder dass ein Klimasignal eventuell zu weiteren Todesfällen führt. Stattdessen zeigt die Graphik, dass unser gestiegener Wohlstand und unsere besseren Anpassungsfähigkeiten jedweden potentiellen Einfluss des Klimas weit überkompensiert hat, wenn es um die Verletzlichkeit von Menschen bzgl. Klima geht.

Man beachte weiter, dass der Rückgang der absoluten Zahlen der Todesfälle zu einer Zeit erfolgte, während der sich die globale Bevölkerung vervierfacht hat. Das individuelle Risiko, durch klimabezogene Katastrophen ums Leben zu kommen, hat um 98,9% abgenommen. Im vorigen Jahr sind weniger Menschen an klimabezogenen Katastrophen gestorben als zu jedem anderen Zeitpunkt während der letzten drei Jahrzehnte (1986 war ein ähnlich gutes Jahr).

Irgendwie ist es aber überraschend, dass der sehr starke Rückgang der klimabezogenen Todesfälle während der letzten 70 Jahre einherging mit einer kaum zurückgehenden Anzahl von Todesfällen durch andere Ursachen. Das solle einmal näher untersucht werden.

Quelle: The International Disaster Database, http://emdat.be/emdat_db/

Link: https://wattsupwiththat.com/2018/03/14/inconvenient-data-fewer-and-fewer-people-die-from-climate-related-natural-disasters/




Wirtschaftsflüchtlinge müssen sich demnächst umorientieren, Kambodscha wird durch die Klimaerwärmung weit dynamischer als die USA

„Studien, die sehr hohe Schätzungen der wirtschaftlichen und sozialen Kosten des projizierten Klimawandels liefern, während die Möglichkeit der Anpassung ignoriert oder heruntergespielt wird und die Ungenauigkeit der zugrunde liegenden Annahmen verschleiert werden, sind eindeutig nicht hilfreich“, schrieb Oren Cass vom Manhattan Institute in einem Bericht vom März 2018.

Cass untersuchte die Modelle und Annahmen, die in den wichtigsten ökonomischen Studien zur Erderwärmung verwendet wurden, darunter zwei, auf die sich die US EPA und der amerikanische Rechnungshof berufen hatten, um die Schäden bis zum Ende des Jahrhunderts abzuschätzen.

Mangelhafte Annahmen in diesen Studien, die die Temperatur mit dem Wirtschaftswachstum in Verbindung bringt, führt zu Projektionen, dass die Erderwärmung die Mongolei, Finnland und Island in die reichsten Länder der Welt auf Pro-Kopf-Basis verwandeln würde.

„Die Ergebnisse sind mehr als nur fragwürdig. Korrekt verstanden, bieten Temperaturstudien keinerlei brauchbaren Vorhersagen über die zukünftigen Kosten eines projizierten, vom Menschen verursachten Klimawandels„, schrieb Cass in einer am Montag veröffentlichten Ausarbeitung, und fügte hinzu „dass diese Studien, obwohl mangelhaft, schnell verbreitet wurden und nun für die Behauptung von überwältigend, hohen Kosten für Klimaerwärmung hergenommen werden.“

Besonders nahm sich Cass einer Studie aus dem Jahr 2015 an, die in der Fachzeitschrift „Nature“ veröffentlicht wurde und die voraussagte, dass die globale Erwärmung das Brutto-Weltprodukt pro Kopf bis zum Jahr 2100 um 23 Prozent reduzieren könnte.

Mit anderen Worten, die Studie prognostizierte, dass jede Person in der Welt bis zum Ende des Jahrhunderts um 23 Prozent ärmer wäre. Fieberhaft berichteten die Medien die Ergebnisse der Studie. Sie warnten die „Millennials (die Generation der Jahrtausendwende), dass diese „Billionen von Dollars an Lebenseinkommen verlieren könnten, wegen der vom Menschen verursachten Erwärmung“.

Climate change could cost millennials trillions of dollars in lifetime income

Maria Gallucci, Mashable•August 22, 2016

 * * *

„Die globale Erwärmung könnte die größte Bedrohung für das Leben einer einzelnen Generation darstellen“, sagte Tom Steyer, Milliardär und Aktivist der Klima-Initiative und Gründungspräsident von NextGen, am 14.Mai 2016 auf einer Pressekonferenz.

Der NextGen-Bericht definiert Millennials, als alle Amerikaner im Alter von 18 bis 34 im Jahr 2015, was die gleiche Definition ist, die das Pew Research Center verwendet.

NextGen (Tom Steyer) hat auf die Politik der Demokratischen Partei großen Einfluss.

NextGen ist ein NGO, die vom NextGen Climate Action Committee finanziert wird, einem Super-PAC, das laut OpenSecrets.org im Jahr 2014 74 Millionen Dollar für die Unterstützung demokratischer Kandidaten im Senat und für Gouverneursrennen ausgegeben hat.

[de.Wiki: Ein Political Action Committee (PAC) ist in den USA die Bezeichnung für eine Lobbygruppe, die sich darauf konzentriert, Abgeordnete oder gewählte Beamte der Regierung zu unterstützen oder zu bekämpfen.]

Klimaaktivist Tom Steyer unterstützte Hillary Clinton im Juni 2016 offiziell, [damals] die demokratische Präsidentschaftskandidatin], bei ihrem Versprechen, sich der globalen Klimakrise zu stellen und die USA zu einer „sauberen Energie-Supermacht des 21. Jahrhunderts“ zu machen.

 * * *

Cass stellte jedoch auf einige eklatante Probleme mit den zugrunde liegenden Annahmen und der Modellierung der Studie heraus.

Vorerst prognostiziert die 2015 Studien den Aufschwung der Mongolei als eine globale Wirtschaftsmacht bis zum Ende des Jahrhunderts und schätzt sie auf ein pro-Kopf-Einkommen von 390.000 $, was zu diesem Zeitpunkt viermal höher als in Amerika wäre.

Weiterhin werden die Isländer in der Projektion dieser Studie zu den reichsten Menschen der Welt. Island hätte dann ein Pro-Kopf-Einkommen von 1,5 Millionen Dollar, mehr als doppelt so viel wie jedes andere Land, außer Finnland (860.000 Dollar), das ein jährliches Wirtschaftswachstum von über 5 Prozent erreichen soll und noch mehr ansteigend „, schrieb Cass.

Kanadas Wirtschaft wächst bis zum Ende des Jahrhunderts, weltweit die zweitgrößte hinter den USA. Unwahrscheinlicher weise wird geschätzt, dass Kanadas Wirtschaft sieben Mal so groß  ist wie die chinesische. Indien wird umgekehrt bis 2100 zum ärmsten Land der Welt.

Cass wies darauf hin, dass „man glauben soll, dass ein allmählicher Anstieg der Durchschnittstemperatur von 0°C auf 5°C Island und die Mongolei zu den führenden Volkswirtschaften des 21. Jahrhunderts machen wird“ , was nicht nur höchst unplausibel, sondern auch höchst unlogisch ist, um wirtschaftliches Wachstum zu erreichen.

Die Studie in Nature legt nahe, dass „die kambodschanische Wirtschaft [deren Index der menschlichen Entwicklung 0,563, USA = 0,920] weit mehr dynamischer ist als ihr amerikanisches Gegenstück und nur durch ihren Breitengrad von der Weltherrschaft zurückgehalten wird“, sagte Cass und bemerkte in der Schlussfolgerung, dass Reaktionen auf große, graduelle Temperaturänderungen qualitativ anders sind, als auf kleinere Temperaturschwankungen.“

Ralf / pixelio.de, Markttag in Kambodscha – Ein Land, kurz vor der Weltherrschaft

Mit anderen Worten, die Natur-Studie hat gravierende Mängel.

Oran Cass, Studie – wie oben angeführt

Erschienen auf The Daily Caller am 12.03.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/03/12/overheated-models-global-warming-manhattan-institute/

 

Oran Cass, Zusammenfassung

Aktuelle Studien, die die Kosten des vom Menschen verursachten Klimawandels vorhersagen, stützen sich auf statistische  Analysen der Auswirkungen von Temperaturschwankungen. Diese Korrelation basiert auf Temperatur-Wirkungs-Studien – im Folgenden als Temperatur-Studien bezeichnet – und beginnt mit heutigen Beziehungen zwischen Temperaturen und Ereignissen wie Mortalität oder Wirtschaftswachstum. Sie extrapolieren aus diesen Beziehungen eine proportional größere Reaktion auf langfristig projizierte Klimaerwärmung und weisen Dollar-Werte aus, für sehr große Auswirkungen, die sich abzeichnen könnten.

Oran Cass_Hitzebedingte Todesfälle_ Südliche (wärmere) vs Nördliche (kälterer) Städte

Diese Abhandlung (Studie von Cass) untersucht eine Reihe solcher Studien, die von der U.S. EPA (Umweltschutzbehörde) und dem Rechnungshof – noch aus der Obama Ära, angezogen werden, um die Kosten des vom Menschen verursachten Klimawandels bis Ende des 21. Jahrhunderts für die USA abzuschätzen. Die Kosten beziffern Todesfälle durch extreme Hitze, verlorene Arbeitsstunden bei extremer Hitze und Todesfälle durch Hitze verursachte Luftverschmutzung. Die Abhandlung untersucht auch eine weitere, in Nature veröffentlichte Studie, die die Auswirkungen des vom Menschen verursachten Klimawandels auf die globale Wirtschaftsproduktion als Thema hat.

 https://www.manhattan-institute.org/sites/default/files/R-OC-0318.pdf




Was liefern die Erneuerbaren tatsächlich und was kostet das im Vergleich mit einem konventionellen Kraftwerk?

Promotoren von Wind und Sonne, die auf die Hunderte von Milliarden Dollar fixiert sind, die beim zum Aufbau neuer Kapazitäten ausgeworfen werden, diskutieren selten den tatsächlichen Wert all dieser Industrieanlagen, in Bezug auf das, was die Stromverbraucher am meisten wollen und brauchen: Strom, Strom und noch mehr Strom, nicht irgendwann, wenn der Wind weht oder die Sonne aufgeht, sondern wenn sie es wirklich brauchen.

Versprechen und Reden liefern keine zuverlässige Energie. Fragen Sie einen Südaustralier.

In diesem Beitrag führt Anthony Cox den Herrscher über die Behauptungen vor, dass SA (Süd Australien) auf dem besten Weg zu einer Zukunft im Bereich der erneuerbaren Energien ist.

Er (dieser Beitrag) konzentriert sich auf Sonnenkollektoren, die SA’s verblendeter Premier, Jay Weatherill als Rettung seiner selbst verschuldeten Strompreis und Versorgungs-Katastrophe ansieht.

Aber, das gleiche gilt auch für die Windkraft: nämlich die Hoffnungen auf Energie an das Wetter zu knüpfen und zu erwarten, dass die Ergebnisse gut werden.

 

Südaustralischer Wahnsinn

The Australian Climate Sceptics Blog, Anthony Cox, 23 February 2018

Wir wissen alle, der Premier von SA, Jay Weatherill ist ein Schwarzseher, der die verrückt machende Pille des Alarmismus und seiner ebenso verrückten Nachkommen – die erneuerbaren Energien, mit Begeisterung geschluckt hat. Er hat billige, zuverlässige Kohlekraftwerke in die Luft gesprengt, unbekannte Geldbeträge in Musks Batterien investiert, Dieselgeneratoren installiert, die die meisten (realen) Verschmutzungen aller Energiequellen verursachen, mit Ausnahme von Holz, was die einzige Brennstoffquelle ist, die er nicht ausprobiert hat. Und das alles in SA mit dem größten Uranvorkommen der Welt und jetzt dem teuersten Strom der Welt.

Peter Rees hat bereits einige gute Arbeit geleistet, indem er den SA-Wahnsinn hervorhob, wobei Weatherill über 2 Milliarden Dollar Steuergelder für wenig Wind- und Sonnenenergie ausgab, während AGL (australisches Energieunternehmen), ebenfalls bis zum Hals in Panikmache und erneuerbare Modetorheiten steckt, gerade 295 Millionen Dollar ausgibt, mit einigen Subventionen, für ein Gaskraftwerk, das viel mehr Strom auf zuverlässige Weise produzieren wird, als die 2 Milliarden Dollar an erneuerbaren Energien.

Quelle Peter Rees, auf the climate sceptics party. Es genügt, auf die grünen unterlegten Zeilen zu schauen: Kosten und output, Grundlastfähig

Peter hat einige weitere Berechnungen durchgeführt, die zur Diagnose von Wahnsinn in SA beitragen. Diesmal geht es um den Kapazitätsfaktor der Erneuerbaren Energien, der in den offiziellen Wahlinformationen der SA ohne Scham aufgeführt ist. Der Kapazitätsfaktor ist die tatsächliche Energie, die eine Elektrizitätsanlage produziert. Der Kapazitätsfaktor wird in % der Leistung der installierten Nennleistung ausgedrückt. Die Nennleistung ist die installierte Leistung [hier: der Generatoren, oder die Peak- (Spitzen-) Leistung von Solarpanels [neu und nur] bei maximalem Sonnenschein]. Hat z.B. ein neuer Windpark eine installierte Nennleistung von 100 MW, beträgt der Kapazitätsfaktor einen prozentualen Anteil davon und wird in MWh angegeben.

Aus langjähriger Erfahrung wissen wir, dass der Kapazitätsfaktor von Wind und Sonne weitaus geringer ist als die installierte Leistung, weshalb die großmäuligen Befürworter immer nur von der installierten Leistung sprechen. Aber jetzt, nachdem so viele Erfahrungen vorliegen, man kann auch sagen „Ausfälle“, kommen sie nicht umhin zuzugeben, dass die tatsächliche Ausbeute (Kapazitätsfaktor), die der blöde Wind und die Solarproduktion produzieren, viel geringer ist als die installierte Leistung.

 

Der Bericht der SA über erneuerbare Energien für 2017 sagt auf Seite 1 der Zusammenfassung:

Die gesamte installierte PV-Kapazität auf den Dächern hat sich in den Jahren 2016-17 um 95 MW auf 781 MW erhöht. Die gesamte PV-Erzeugung auf den Dächern in Südaustralien betrug im Berichtsjahr 1.016 GWh, 12% mehr als in den Jahren 2015-16.

Peter analysiert die Verschleierung der tatsächlichen Verhältnisse:

Die installierte Leistung der SA Dach-Solaranlagen (2016-17) beträgt 781 MW, die 1016 GWh im ganzen Jahr produzierten.

Die Einheit für die elektrische (Nenn-) Leistung wird Watt genannt.

1000W = 10^3 W = 1kW (Kilowatt)

1000kW = 10^6 W = 1MW (Megawatt)

1000MW = 10^9 W =1 GW (Gigawatt)

1000GW = 10^12 W = 1 TW (Terawatt)

[[Einschub für nicht-Elektriker: Erst mit der Multiplikation der Zeit (meist in Stunden = h), in der obige Leistung tatsächlich angefordert wird, entstehen die „verbrauchten“ kWh, die am Stromzähler angezeigt und bezahlt werden müssen]]

Eine Haushaltsklimaanlage hat typischerweise eine Anschlussleistung von ca. 3-5kW

Das Kohlekraftwerk Hazelwood Powerplant konnte in seiner Blütezeit 1600MW bereitstellen.

Die durchschnittliche Nachfrage in Südaustralien liegt bei 1420 MW [konnte also allein durch ein Kohlekraftwerk erfüllt werden (im Durchschnitt)]

Haben wir eine 5kW-Solaranlage auf einem Dach installiert und die Sonneneinstrahlung ist und bleibt optimal, kann sie theoretisch 5kWh Strom in einer Stunde produzieren.

Hat man also insgesamt Solaranlagen mit der Nennleistung von 781 MW auf dem Dach, könnten diese theoretisch 781 MWh in einer Stunde produzieren. Aber die Sonne scheint nicht rund um die Uhr, Wolken blockieren den Sonnenschein, Schmutz reduziert die Absorption durch die Paneele ebenso wie der Sonnenwinkel, so dass die tatsächlich nutzbare oder besser: „verfügbare“ Leistung geringer ist.

Aber wie viel ist nun real nutzbar? Schauen Sie zurück auf die Aussage oben aus dem Bericht. Es besagt, dass 781 MW Solarzellen 1016 GWh im Jahr produzieren. Um herauszufinden, wie viel durchschnittlich in einer Stunde produziert werden würde, teilen wir das durch 365 und dann durch 24.

1016 / 365 / 24 = 0.115GWh = 115MWh

So liefern unsere 781 MW Solaranlagen durchschnittlich 115 MW je Stunde. Damit betrug die durchschnittlich nutzbare Leistung, [der Kapazitätsfaktor] 115/781 * 100 = 14,7%! und das bei einem enormen Aufwand.

Ohne das auch für Windkraftanlagen ausführlich zu berechnen (der Rechengang ist wie bei den Solaranlagen) liefert / produziert eine Windkraftanlage in den südlichen Bundesländern mit einem Kapazitätsfaktor von rund 30 % und ein Kraftwerk für fossile Brennstoffe mit einen Kapazitätsfaktor von über 90 %.

Damit kann man – zum Vergleich, nun berechnen, welchem „kleinem Kraftwerk“ die gelieferte Energie der Solaranlagen entspricht.

Die durchschnittlich nutzbare Nennleistung der Solaranlagen entspricht damit .781 x (14,7/100) = 114MW! [aufs ganze Jahr gerechnet].

Was hat die 781 MW Solaranlage, die nur 114 MW produzierte, gekostet?

Nehmen wir an, alle Solaranlagen hätten 5kW, also 781MW/5kW, dann wären das = 156,000 Anlagen.

5kW-Solarpanels auf dem Dach kosten derzeit etwa $8000, so dass die Gesamtkosten für diese Systeme dann bei etwa $1250 Millionen Dollar (156.000 x 8000) lagen!

Die Besitzer der Solaranlagen erhielten alle eine staatliche Subvention von 3000 Dollar pro System (ca.) = 468 Millionen Dollar. So zahlten die Australier 782 Millionen Dollar mit der Stromrechnung und als Steuerzahler weitere 468 Millionen Dollar.

Unter dem Strich kosteten die Solaranlagen $1250 Millionen Dollar, die dann eine durchschnittliche Leistung von 114 MW brachten, je nach aktuellem Sonnenschein mal mehr oder gar nicht, außer in der „Nacht“ [ = NULL] ist die verfügbare Energie nicht definitiv vorausplanbar. Die wahrscheinliche Lebensdauer dieses Systems beträgt 15-20 Jahre, wobei die Leistung jedes Jahr abnimmt, da die Fähigkeit der Paneele, Sonnenschein zu absorbieren, mit zunehmendem Alter abnimmt.

Aber es gibt bei den Erneuerbaren noch mehr zu bedenken: Die 14,7% Leistung der Solarpanels stehen nicht gleichmäßig zur Verfügung, es kommt – bei viel Sonnenschein und / oder wenn der Bedarf nicht so groß ist, zu viel Energie, verschlimmert durch die Kapriolen der Windkraft, was zu schädlichen Überspannungen im Netz führt. Das bedeutet, nur um die Solarpanel und die Windkraft einzubinden, enorme zusätzliche Kosten für das Stromnetz entstehen, um Transformatoren und Infrastruktur hinzuzufügen, um die unplanbare Spitzenenergie aus Wind und Solar „in den Griff“ zu bekommen. Dabei haben wir noch nicht darüber gesprochen, was der Stromlieferant macht, wenn kein oder nicht genügend Wind und Sonne da sind. [Ergebnis wie schon oft: Black-out wegen Überspannung oder Strommangel] Auch wirken die großen rotierenden Massen konventioneller Kraftwerke als „Schrittmacher“ für eine zwingend notwendige gleichmäßige Frequenz im Versorgungsnetz. Fertigungsunternehmen, öffentliche Einrichtungen aber auch Haushalte brauchen „elektrisch sauberen Strom“ und den zuverlässig und sofort, wenn der Bedarf da ist.

Bleiben wir bei dem o.g. umweltfreundlichem Gaskraftwerk mit 210 MW Nennleistung, dann hätten man für $1250 Millionen dreieinhalb Gasanlagen kaufen können, die eine Lebensdauer von 40-50 Jahren haben und rund um die Uhr zuverlässig, planbar und qualitativ hochwertig Strom liefern können

Die verantwortlichen Politiker, die dafür verantwortlich sind, zerstören Australien. Wähler, die für Leute wie Weatherill, Andrews und jeden grünen Politiker stimmen, verdienen alles, was sie bekommen, nämlich einzufrieren und im Dunkeln zu verhungern. Es ist schade, dass der Rest von uns mit ihnen untergehen muss.

The Australian Climate Sceptics Blog

Die Grafik der Leitungsabgabe der Windanlagen in SA. Die Nennleistung liegt bei 4.675 MW. Der durchschnittliche Kapazitätsfaktor für das Los liegt bei 28%: Der beste Wert wurde von Snowtown in SA mit rund 40% erreicht,  die schlechtesten kämpfen um 22%, wie etwa Infigenes Lake Bonney im Südosten.

Erschienen auf Stop These Things am 05.03.2018

Übersetzt und elektrotechnische Beschreibung angepasst durch Andreas Demmig

https://stopthesethings.com/2018/03/05/renewables-hoax-australias-biggest-retailer-agl-gets-out-of-coal-by-spending-200m-fixing-coal-fired-power-plant/

 

Ergänzung, auf Science Alert gefunden

Die südaustralische Batterie von Elon Musk reagierte in nur 140 Millisekunden, nachdem ein Kohlekraftwerk ausgefallen war

„Das ist ein Rekord.“

 In diesem Beitrag wird euphorisch gemeldet, dass bei einem Stromausfall eines Kraftwerkes, die Batterien innerhalb von sehr kurzer Zeit Strom geliefert hätten.  – ja, äöh, das ist Physik!

Wenn ein Batteriesystem parallel zum Netz angeschlossen ist, dann ist das wie beim Auto: die Batterie liefert sofort, wenn die „äußere“ Spannung zurück geht (beim Auto die Lichtmaschine, korrekter: der Generator) .

Wie lange, d.h. wie viel Energie, die Batterie ins Netz liefern konnte, davon steht nichts im Text.

 

PS:

in den Tagen, wo ich diesen Beitrag in der Mache hatte, sagte ein Windkraft Befürworter im Gespräch: „Die Windkraftanlagen müssen kleiner werden, dann drehen die sich auch mit weniger Wind besser“.

Meine Rückfrage: : „Wovon hängt die Energie ab, die produziert wird?