1

EIKE 9. IKEK-Dr. Willie Soon: Die Meereis-Entwicklung in der Arktis und ihre Auswirkungen

Um dann bei der Eisentwicklung der Arktis zu landen. In absoluten Einheiten, ist die Eisbedeckung dort zwar auch negativ in absoluten Zahlen aber unerheblich. Relativ z.B. bezogen auf die Zeitachse, kann man das aber stark aufblasen, wie Soon an einem anderen Beispiel darstellt. So zeigt er die von Modellen prognostizierte Erwärmung der Arktis lt einer Studie von immerhin 8-12 K, aber bis zum Jahr 2100. Alles ist rot gezeichnet. Zweck: Angst machen!

Video des Vortrags von Dr. Willi Soon über die neuesten Erkenntnisse zur Einsentwicklung in der Antarktis

Die Daten zeigen indes, dass äußere Einflüsse, wie die Präzession der Bahn der Erde bei der Umrundung der Sonne, sich seit 750 Jahren sehr verändert haben, mit dem Resultat, dass sich der Winterbeginn kräftig ins neue Jahr verschoben hat. Zur gleichen Zeit hat sich die antarktische Eisentwicklung jedoch verstärkt, weil es dort – wie bei einem Pendel- kälter geworden ist. Die IPCC Forscher haben diesen orbital Effekt jedoch nicht berücksichtig. Im weiteren Verlauf ging er auf die arktische Temperaturen ein. Wegen der geringen Stationsdichte ist deren Temperaturgeschichte jedoch sehr unsicher, und, wie Soon mit seinen Co-Autoren herausfand definitiv ins warme hinein durch externe Einflüsse verfälscht. Im Vergleich mit anderen Stationen auf der Welt zeigt sich aber eine bemerkenswerte Übereinstimmung im Verlauf der Temperaturschwankungen. Ist das CO2 die Ursache? Es sieht wohl eher so aus, also ob die Schwankung der solaren Einstrahlung gute Erklärung dafür liefert. Vergleicht man diese Entwicklung mit der Eisbedeckung, dann ergibt sich ebenfalls eine enge Korrelation. Insgesamt liefert Dr. Soon eine bemerkenswerte Zahl von wohl bekannten Einflüssen auf die arktische Eisbedeckung die zeigen, dass die natürlichen Einflüsse darauf sehr viel stärker sind als bisher angenommen und auch viel stärker, als jeder, bisher nur postulierte aber nirgends nachweisbare anthropogene Einfluss. Insbesondere zeigt sich, dass die bisherigen extrem Minima der Eisbedeckung im Jahr 2007 und 2012 auch in der Vergangenheit häufiger eine Entsprechung hatte.




Verklagen Sie die Firmen der unterlassenen Publizitätspflicht über Klimawandel

Diese LAs [Landesanwälte] unterstellen eine Verschwörung, dass den Anlegern nicht bewusst ist, dass Klimaänderungen sich auf Unternehmensinvestitionen auswirken können und wollen die Staatsmacht verpflichten, das zu lösen. Anfang November 2015 wurde vom New Yorker Generallandesanwalt Eric T. Schneiderman ein Rechtsfall gegen Exxon Mobil verfolgt, auf Basis behaupteter Ähnlichkeiten mit der Art und Weise wie Tabakunternehmen der 1950er und 1960er Jahre schließlich schuldig gefunden wurden, ihre eigene Forschung unterdrückt zu haben, dass Tabak schädlich ist und süchtig machen kann. Ihre Werbung diente solche Gesundheitsrisiken zu minimieren und sie finanzierten wissenschaftliche Studien, um beruhigende Daten zur Verfügung zu stellen. Im Jahr 2006 wurden die Unternehmen für schuldig befunden "über 50-Jahre hinweg, die Öffentlichkeit betrogen zu haben."

Im vergangenen Monat, verbündete sich Virginia’s General-Landesanwalt Mark Herring mit fünf anderen LAs und ehemaligen Vizepräsidenten, mit dem Ziel zu bestimmen [zu definieren] "ob Unternehmen für fossile Brennstoffe die Investoren und die Öffentlichkeit über die Auswirkungen ihrer Geschäfte bezüglich des Klimawandels in die Irre führen." LA Herring ist auch ein Befürworter des Clean Power Plan der EPA.

Wenn gültige wissenschaftliche Argumente bezüglich der Ursache fehlschlagen, muss die schwere Faust der Rechtsverfolgung einen „Plan B" haben. General-Landesanwälte und Polizeibeamte im ganzen Land haben eine wichtige Rolle, um sicherzustellen, dass die Fortschritte, die wir gemacht haben …" gemäß Al Gore. Das wird die "unbequeme Wahrheit" des Dogmas der Regierung.

In der minoischen (3440 YBP [Jahre-vor jetzt]), der Romanischen (2400 YBP) und in der mittelalterliche (1000 YBP) Zeit sind Erwärmungsperioden aufgetreten, bevor der aktuelle Aufwärtstrend des atmosphärischen CO2 etwa um 1850 begann, mit dem Aufkommen des modernen Industriezeitalter und Nutzung fossiler Kraftstoffe in großem Maßstab. Die globalen Temperaturen waren während dieser drei früheren Perioden wärmer als heutzutage, obwohl der atmosphärische CO2 Anteil viel geringer und die Nutzung fossiler Brennstoffe unbedeutend war. Obwohl die globale Temperatur eine unvollkommene Metrik des Klimawandels ist, ist es diese Messung, die Schlagzeilen für „Alarmisten“ macht. Die Öffentlichkeit ist wiederholt einem gekünsteltem-Alarm über die Tatsache ausgesetzt, dass seit 1850 die globalen Temperaturen um 0.8º C gestiegen sind, was weniger ist, als die täglichen Temperaturschwankungen von Sonnenaufgang zu Sonnenuntergang, die die Menschheit weltweit erfährt.

Während sie [die Alarmisten] einen katastrophalen Klimawandel menschlichen Aktivitäten zuordnen, ignorieren sie die Äonen der natürlichen Klimaschwankungen vor der menschlichen Existenz. Der Klimawandel selbst bleibt ein vager Begriff und ist undefiniert. Kein Student der Geschichte [und überhaupt auch sonst keiner; A.D.] bestreitet, dass sich das Klima ändert. Diese legalen Determinanten der wissenschaftlichen Wahrheit treten der aktuellen Mode bei, jede Veränderung irgendeiner idealisierten Vorstellung eines unveränderlichen "normalen" Klimas (als Goldlöckchen Klima [ – das Märchen, was gerade „in“ ist]) als Vorbote einer bevor stehenden Katastrophe zu bezeichnen.

Die Beweislage ist anders: Der Anstieg des Meeresspiegels bleibt bei etwa 19cm pro Jahrhundert, es gibt es keine langfristige Dürre, Tornados sind weniger häufig und weniger tödlich, weniger Hurrikane treffen die USA, auch die Eisbären vermehren sich und die globalen Temperaturen sind seit 18 Jahren nicht gestiegen, trotz einer Zunahme des CO2-Gehaltes um 10% (der letzte El Nino verursachte eine erwartete Spitze).

Dürren sind zyklisch auf einer Zeitskala. Von Kaliforniens "Regen und Schnee kommen im März zurück (2016), um die zwei staatlichen größten Stauseen zu füllen – Shasta Lake und Lake Oroville – etwas über ihre historischen Niveaus für dieses Datum…"

Im Jahr 2007 warnten Georgia‘s Beamten, dass der Lake Lanier, ein 154 qkm -Reservoir, das mehr als 3 Millionen Einwohner (Atlanta, GA) mit Wasser versorgt, weniger als 3 Monate vor der Entleerung steht. Kleinere Stauseen waren sogar noch weniger gefüllt. Diese Trockenheit wurde ein hervorragendes Beispiel für Al Gore‘s „unbequeme Wahrheit Shows“, in dem eine leichtgläubige Öffentlichkeit mit der täglichen Umweltpanik von den Medien bombardiert wird, die auf Horrorgeschichten gedeiht.

Wenig überraschend, fand der Bericht im Dezember 2015 über Lake Lanier nicht die gleiche Aufmerksamkeit der Medien und / oder Umweltschützer. "Das Militär Corps der Ingenieure“ hat die massiven Wasser-Ablässe kommenden Donnerstag für den Lake Lanier der nachgelagerten Überschwemmungen wegen abgesagt. Lake Lanier liegt derzeit bei [einem Pegel von] 1075,3 [Fuß]. Das ist mehr als 1,2 m über dem vollen Wasserstands Pegel. Es wird erwartet, dass die Pegelspitze des Sees in den nächsten Wochen bis auf 1075,7 steigt.

"Umweltschützer ärgern Sie sich nicht, da draußen wartet eine Umwelt Krise auf Ihre Entdeckung, da draußen, irgendwo. Vorwärts und nie zurückblicken; nie zugeben, Sie lagen falsch”.

Quelle Cfact: EPA Leiterin Gina McCarthy

Virginia’s LA Herring ist dem Clean Power Plan der EPA verpflichtet, obwohl geschätzt wird, dass dieser nur 0,01 ° C der globalen Erwärmung kompensiert. EPA Leiterin Gina McCarthy sagte, als Sie gefragt wurde, ob sie 0,01 ° C für einen wesentlichen Beitrag zur Eindämmung des Klimawandels hält : "Nein …" Es ist ein aufrichtiges Gefühl und es ist der Gedanke der zählt, nicht die tatsächliche erreichte Veränderung. Progressive richten ihr Handeln auf emotionale Befriedigung aus, nicht auf wissenschaftlicher Analyse.

Quelle: Cafct, General-Landesanwalt Herring

Die Gezeiten der / Hampton Roads / Norfolk Küstengebiete von Virginia sind eine ständige Quelle der Rechtfertigung für die Befürworter von Klimakontrolle, einschließlich Virginia‘s Gouverneur Terry McAuliffe. Der Anstieg des Meeresspiegels wird gezielt als die treibende Kraft für Überschwemmungen hergenommen. Von dort aus ist es nur ein kurzer Sprung zur globalen Erwärmung, die den Klimawandel und den Anstieg des Meeresspiegels treibt.

Solch dogmatisches, politisches Gehabe ignoriert die wissenschaftlichen Erkenntnisse der lokalen Wissenschaftler des Virginia Institute of Marine Science, Teil des William und Mary College. Meeresküsten Wissenschaftler Dr. John Boon, berichtete, dass "die gute Nachricht ist, dass der absolute Meeresspiegel in Chesapeake Bay nur etwa halb so schnell, wie die weltweite durchschnittliche Rate ansteigt. Die schlechte Nachricht ist, dass lokale Setzungen mehr als das ausmachen. "Überschwemmungen an den Küsten sind eine Katastrophe, aber es ist das Ergebnis des Absinkens des Landes als Folge der laufenden geologischen Kräfte, es ist nicht der Klimawandel.

Nach der folkloristischen Strategie für Anwälte: "1. Wenn die Fakten gegen Sie sind, argumentieren Sie das Gesetz. 2. Ist das Gesetz gegen Sie ist, argumentieren Sie die Fakten. 3. Wenn die Fakten und das Gesetz gegen Sie sind, schreien Sie wie die Hölle". Ergänzen kann man das nun mit: Vergessen Sie die Tatsachen, vergessen Sie das Gesetz und "verklagen Sie sie der unterlassenen Publizitätspflicht“.

Erschienen auf CFACT am 5. April 2016

Übersetzt durch Andreas Demmig

http://www.cfact.org/2016/04/05/suing-into-submission/




Falsche Satelliten-Altimetrie? 225 Tidenmessstationen zeigen einen nur um 1,48 mm steigenden Meeresspiegel pro Jahr … weniger als die Hälfte der von Satelliten gemessenen Werte

[Um die ständige Wiederholung dieses Bandwurm-Wortes zu vermeiden, verwende ich im Folgenden den Terminus ,MSL-Anstieg‘. Anm. d. Übers.]

Der Meeresspiegel steigt nur halb so schnell und ohne Beschleunigung

Erstaunlicherweise zeigen tatsächliche physikalische Messungen im Gegensatz zu den Behauptungen der modellierten Rekonstruktionen des MSL-Anstiegs (mit den hinzugefügten „Adjustierungen“), dass der Meeresspiegel mit Raten steigt, die weniger als die Hälfte der behaupteten Raten ausmachen als bei den von GIA-„Adjustierungen“ und Satelliten-Altimetrie-Modelle betroffenen Rekonstruktionen.

Der Best Estimate ist ein mittlerer globaler MSL-Anstieg von 1,48 mm pro Jahr.

SeaLevel.info ist eine Quelle mit allen Informationen zum Meeresspiegel aus einer Hand. Die Tabellen enthalten Daten von NOAA, PSMSL und anderen Quellen, um die Untersuchung von Tidendaten für eine langzeitliche Trendanalyse des Meeresspiegels zu vereinfachen.

Auf der Site heißt es:

Eine interessante Beobachtung ist, dass die Adjustierungen oftmals fast genauso groß sind wie die gemittelten tatsächlichen gemessenen MSL-Trends! Das Mittel der gemessenen Trends aus 239 Tidenmesspunkten der NOAA im Jahre 2012 beträgt 1,017 mm pro Jahr (Median 1,280), aber die GIA-Adjustierungen fügen noch einmal 0,665 mm pro Jahr hinzu, was zu einem „adjustierten“ Gesamttrend von 1,682 mm pro Jahr wird, gerundet auf 1,7 mm pro Jahr. Zufällig ist dieser Wert exakt der eines weithin genannten Wertes des MSL-Anstiegs während des 20. Jahrhunderts.

Hier schreibt die gleiche Site, dass der Meeresspiegel nicht überall steigt, und:

Die gemessene Rate der küstennahen MSL-Änderungen schwankt zwischen -17.59 mm/yr at Skagway, Alaska und +9.39 mm/yr at Kushiro, Japan. Das Mittel, wie es von den weltbesten Langzeitreihen küstennaher Tidenmesspunkte gemessen wurde, liegt etwas unter +1.5 mm pro Jahr.

Satelliten-Altmetrie

SeaLevel.info fragt sich, woher der so oft hinaus posaunte Wert von 3,3 mm pro Jahr kommt, der auf MSL-Altimetrie-Messungen von Satelliten basiert (hier), anstatt küstennahe MSL-Messungen von Tidenmesspunkten heranzuziehen. Der Site zufolge „misst die Satelliten-Altimetrie das Falsche“:

Deren Messungen (hier) werden verzerrt durch „MSL-Anstieg“ infolge thermischer Ausdehnung, wenn sich die oberste Schicht des Ozeans erwärmt. Aber dass ist ein strikt lokaler Effekt, der keine Auswirkung auf die Wassermenge in den Ozeanen hat und den Meeresspiegel anderswo (z. B. an den Küsten) nicht beeinflusst. MSL-Anstieg spielt nur an den Küsten eine Rolle, aber die Altimeter der Satelliten sind nicht in der Lage, den Meeresspiegel an Küsten zu messen. Das können sie nur im offenen Ozean. Tidenmessungen erfolgen dagegen an den Küsten, wo es von Bedeutung ist. Außerdem sind MSL-Tidenmessungen von viel höherer Qualität als Messungen mittels Satelliten-Altimetrie.

SeaLevel.info fügt hinzu, dass „MSL-Satellitenmessungen von fragwürdiger Zuverlässigkeit sind (hier) und merklich variieren von einer Satellitenmessung zur nächsten“ und das Tidenmessungen zuverlässiger sind, weil einige Zeitreihen der Tidenaufzeichnungen des MSL fast zehnmal länger sind als die kombinierten Aufzeichnungen der Satellitenmessungen sowie zwanzigmal länger als jedwede Satelliten-Zeitreihe“.

SeaLevel.info zufolge hat die NOAA eine lineare Regressionsanalyse von MSL-Messungen durchgeführt (relativer Meeresspiegel) von 225 Langzeitreihen von Tidenmessungen auf der ganzen Welt. Dabei kam man zu dem Ergebnis, dass es „keinerlei Anzeichen für irgendeine Beschleunigung der Anstiegsrate gibt. Dies gilt für fast alle diese Tidenmessungen während über einem dreiviertel Jahrhundert“.

MSL = 1.48 mm/yr

Zusammenfassend schreibt die Site:

Die Rate des gemessenen MSL-Anstiegs variiert von -17.59 mm/yr at Skagway, Alaska, bis +9.39 mm/yr at Kushiro, Japan. 197 dieser 225 Stationen (87,6%) zeigen einen MSL-Anstieg unter 3,3 mm pro Jahr. An 47 Stationen (20,9%) sinkt der Meeresspiegel eher als dass er steigt. An nur 28 der 225 Stationen (12,4%) wurde ein MSL-Anstieg über 3,3 mm pro Jahr gemessen. Der Mittlere Meeresspiegel an jenen 225 Tidenmesspunkten zeigt einen Anstieg desselben um 0,9 mm pro Jahr. Der Median beträgt 1,41 mm pro Jahr.

MSL = 1,48 mm pro Jahr.

Link: http://notrickszone.com/2016/04/11/broken-altimetry-225-tide-gauges-show-sea-level-rising-only-1-48-mm-per-year-less-than-half-the-satellite-claimed-rate/#sthash.tSoi9p7o.dpbs

Hinweis: Hier bedankt sich der Übersetzer bei Klaus-Eckart Puls für den Hinweis zu diesem Beitrag.

Übersetzt von Chris Frey EIKE




Wärmerer April – Grund zur Freude oder ein Vorzeichen der „Klimakatastrophe“?

Bild rechts: Endlich Frühling: Der April bringt meist Licht, Wärme und Farben zurück- so wie hier im Erfurter Steigerwald. Foto: Stefan Kämpfe.

Teil 1: Die April- Erwärmung und deren Ursachen

Sowohl seit 1881, dem Beginn verlässlicher Temperaturaufzeichnungen in ganz Deutschland, besonders aber seit Mitte der 1980er Jahre, stiegen die deutschen Apriltemperaturen merklich an. Wir betrachten zunächst den Verlauf seit 1986 und vergleichen ihn mit dem in Zentralengland:

Grafik 1: sowohl in Deutschland, als auch in Zentralengland, erwärmte sich der April im Verlaufe der letzten 30 Jahre merklich.

Der April unterscheidet sich somit von den Wintermonaten Dezember, Januar, Februar und auch von März und Mai. Diese zeigen seit 30 Jahren eine Stagnation oder gar einen Temperaturrückgang. Damit nähert sich der April immer mehr dem Mai. Als eine mögliche Ursache der April- Erwärmung kommen geänderte Häufigkeitsverhältnisse der Großwetterlagen in Betracht. Erwärmend wirken im April besonders alle Lagen mit südlichem Strömungsanteil sowie die Zentralhochlagen HM und BM, während alle Lagen mit nördlichem Strömungsanteil eher abkühlend wirken. Bei langfristiger Betrachtung erkennt man tatsächlich eine Zunahme der erwärmend wirkenden und eine Abnahme der kühlend wirkenden Großwetterlagen:

Grafik 2: Seit 1881 wurden die erwärmend wirkenden Hochdruckwetterlagen (gelblich) und die mit südlichem Strömungsanteil (rot) tendenziell häufiger in Mitteleuropa; kühlend wirkende Lagen mit nördlichem Strömungsanteil hingegen seltener.

In den vergangenen 30 Jahren zeigt sich jedoch ein ganz anderes Bild- eine leichte Häufigkeitsabnahme der erwärmenden Lagen:

Grafik 3: In den der vergangenen 30 Jahren nahm die Häufigkeit nördlicher Lagen zu, die südlicher ab. Bei der großen Streuung sind die Trends für diesen Zeitraum nicht signifikant.

Untersucht man den Einfluss der Häufigkeiten der beiden erwärmend wirkenden Großwetterlagen- Cluster Großwettertyp HM plus Südanteil auf die April- Mitteltemperaturen in Deutschland, so ergibt sich ein merklicher Zusammenhang:

Grafik 4 (Streudiagramm): Aprilmonate, die viele Tage mit Hochdruckwetter und südlichem Strömungsanteil aufwiesen, waren tendenziell wärmer.

Die Großwetterlagenverhältnisse können also die starke April- Erwärmung langfristig zu mehr als 20%, die der vergangenen 30 Jahre jedoch nicht sicher erklären. Käme als nächste mögliche Ursache die steigende Kohlendioxid- Konzentration (CO2) in Betracht. Zunächst zeigen die Trendlinien der April- Temperaturen und der Verlauf der CO2- Konzentration einen Anstieg:

Grafik 5: Zwar nahmen die CO2- Konzentration und die April- Temperaturen seit 1986 tendenziell zu, doch vermag die nahezu gleichförmige CO2- Zunahme die enormen Schwankungen der April- Temperaturen nicht zu erklären.

Doch ist damit die tatsächliche Erwärmungsursache gefunden? Die enormen Schwankungen der April- Werte von Jahr zu Jahr verlangen nach einer anderen Erklärung. Nach den teilweise recht kalten April- Nächten 2016 mit Werten um die Null Grad wärmte tagsüber die Sonne kräftig- ein erster Hinweis auf die wahre Ursache der Entwicklung der April- Temperaturen, denn der April- Sonnenstand entspricht schon etwa dem zwischen Mitte September und Mitte August. Bei der Sichtung der monatlichen Deutschland- Mittel der Sonnenscheindauer fiel uns ein Monat auf, der als einziger seit 1986 um mehr als 50 Stunden pro Monat sonniger wurde, es ist- der April! Ein deutschlandweites Sonnenscheinmittel liegt leider erst seit 1951 vor. Die folgenden zwei Grafiken zeigen einen deutlichen Zusammenhang zwischen steigender Lufttemperatur und steigender Sonnenscheindauer seit 1951, besonders aber seit 1986 (letzte 30 Jahre):

Grafiken 6a (oben) und 6b: Sowohl seit 1951, besonders aber seit 1986, nahm die Sonnenscheindauer im April merklich zu und wirkte erwärmend.

Man erkennt die enge „Verzahnung“ beider Größen- die sonnenscheinreichen April- Monate waren meist auch die wärmsten, besonders nach dem Jahr 2005. In Großbritannien (hier nicht als Grafik gezeigt) nahm die Sonnenscheindauer im April ebenfalls stark zu. Der sonnige April 2015 fiel jedoch in Deutschland ausnahmsweise relativ kühl aus, weil er mit 17 Tagen überdurchschnittlich viele nördliche Großwetterlagen aufwies. Um diesen Zusammenhang noch längerfristig zu verifizieren, haben wird die Temperatur- und Sonnenscheindaten der Station Potsdam ausgewertet; sie reichen bis 1893 zurück:

Grafik 7: Das 11- jährige Gleitmittel der Sonnenscheindauer in Potsdam (dicke, gelbe Linie) ähnelt in seinem Verlauf dem der dortigen April- Temperaturen (grün).

In unseren letzten Artikeln haben wir gezeigt, dass die deutschen Monatstemperaturen um die Jahrhundertmitte des letzten Jahrhunderts eine Kältedelle aufweisen, dann angestiegen sind bis zu einem Wendepunkt vor gut 15 Jahren und seitdem wieder kälter werden. siehe: http://www.eike-klima-energie.eu/news-cache/seit-30-jahren-erfolgt-laut-dwd-daten-die-forsythienbluete-in-hamburg-immer-spaeter/ Der April weist diese Kältedelle erst gute 20 Jahre später auf. Die Frage bleibt, ob der April nun die Erwärmung in den nächsten Jahren fortsetzen wird oder nun seinen Wendepunkt erreicht hat.

Auch langfristig (in Grafik 7 als Trendlinien die 11- jährigen Gleitmittel dargestellt) bleibt es jedoch bei der engen Verzahnung- die Sonnenscheindauer bestimmt die Apriltemperaturen ganz wesentlich. Wie eng der Zusammenhang ist, illustriert das folgende Streudiagramm:

Grafik 8: Die Sonnenscheindauer vermag in Potsdam mehr als ein Drittel der Variabilität der April- Temperaturen zu erklären.

Ergebnis: Bei langfristiger Betrachtungsweise lassen sich schätzungsweise insgesamt mehr als 50% der Variabilität der Apriltemperaturen auf eine zunehmende Sonnenscheindauer sowie auf häufigere südliche und Hochdruckwetterlagen zurückführen. In den vergangenen 30 Jahren wirkte die besonders stark zunehmende Sonnenscheindauer massiv erwärmend, möglicherweise eine Folge der Luftreinhaltemaßnahmen und der hohen Sonnenaktivität.

Weitere Erwärmungsursachen im April

Schon oft haben wir hier bei EIKE über WI- bedingte Erwärmungseffekte im weitesten Sinne berichtet. Unter anderem untersuchten wir den verstädterungsbedingten Erwärmungseffekt anhand von Stationsvergleichen zwischen Berlin und dem Umland monatsweise. Hierbei wies der April den stärksten Temperaturunterschied aller Monate zwischen Stadt und Umland auf. In der Stadt werden kalte Tage durch zusätzliches Heizen erwärmt, und an heiteren Tagen heizt die Sonne die trockene Betonlandschaft verstärkt auf. Die Folgen sieht man im nächsten Diagramm:

Grafik 9: Von 1981 bis 2010 gefundene UHI- Differenzen in Kelvin, gebildet aus den Mitteln dreier urbaner Stationen in Berlin und dreier ländlicher Stationen in Brandenburg. Hohen, verstädterungsbedingten Differenzen von über 0,8 K im April stehen geringere im Spätsommer/Frühherbst gegenüber. Die jahreszeitlich bedingten UHI- Effekte sind in Berlin eng mit geänderten Sonnenscheinverhältnissen- und Großwetterlagenhäufigkeiten verknüpft.

Auch der Vergleich der WI-behafteten Deutschlandtemperaturen mit der fast WI-freien Station Amtsberg-Dittersdorf (Erzgebirge) zeigt den deutlichen WI- Unterschied im April:

Grafik 10: In den 30 Jahren des Betrachtungszeitraumes beträgt die WI-Differenz fast 0,8 Kelvin.

Auch die Entwässerung der Landschaft sowie der massive Ausbau der Wind- und Solarenergie in der früher unberührten Landschaft dürften zur Erwärmung beigetragen haben. Als letzte Erwärmungsursache kommt die sogenannte AMO (Atlantische Mehrzehnjährige Oszillation) in Betracht, eine Schwankung der Wassertemperaturen im zentralen Nordatlantik, welche alle 50 bis 70 Jahre, so auch gegenwärtig, ein Maximum aufweist. Bei AMO- Maxima sind die deutschen Apriltemperaturen tendenziell erhöht. Dieser Zusammenhang zeigt sich sowohl in der besonders anschaulichen, aber oft kritisierten Darstellung mit polynomischen Ausgleichskurven, als auch bei den 11- jährigen Gleitmitteln:

Grafiken 11a und 11b: Auch zwischen der Atlantischen Mehrzehnjährigen Oszillation (AMO, vereinfacht ausgedrückt, eine Wassertemperaturschwankung im zentralen Nordatlantik, jeweils obere, blaugrüne Kurven) und den Apriltemperaturen in Deutschland (untere, dunkelgrüne Kurven) besteht ein merklicher Zusammenhang. In den AMO- Positiv- Phasen (höhere Wassertemperaturen) ist der April in Deutschland tendenziell wärmer. Dies zeigt sich sowohl bei der Darstellung mit den polynomischen Ausgleichskurven 6. Grades (oben) als auch im gleitenden, 11- jährigen Durchschnitt.

Zusammenfassung und Ausblick: Die merkliche Aprilerwärmung in Deutschland ist vor allem eine Folge der zunehmenden Sonnenscheindauer gewesen, doch auch geänderte Großwetterlagenhäufigkeiten, die zunehmende Bebauung, Verstädterung und Landschaftsveränderungen (WI- Effekte im weitesten Sinne) und die gegenwärtig noch hohen Wassertemperaturen in Teilen des Nordatlantiks wirkten erwärmend. Da die solaren Effekte weitgehend ausgereizt sind, die Sonnenaktivität abnimmt und die AMO aufgrund ihrer Rhythmik demnächst in die Negativ- Phase übergehen dürfte, halten wir eine Stagnation oder gar einen Rückgang der deutschen April- Temperaturen in den kommenden Jahrzehnten für durchaus wahrscheinlich.

Teil 2 dieses Beitrages folgt in der letzten Aprildekade mit guten Nachrichten für Naturfreunde, Landwirte und Gärtner.

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, unabhängiger Natur- und Klimaforscher




Wenn der Wirt die Ökorechnung selbst nachprüft Der Tesla – eine Dreckschleuder?

Was hat diesen Hype überhaupt ausgelöst? Ausschlaggebend sind zwei Dinge: Die seit Jahr und Tag massiv von Medien und Politik betriebene Kampagne gegen das CO2 als angeblicher Auslöser einer „Klimakatastrophe“ und die erstaunliche Kunst vieler Menschen, Realitäten auszublenden und nur das wahrzunehmen, was man glauben möchte. Das funktioniert beim E-Auto ganz prima, indem man so tut, als wäre das Fehlen eines Auspuffs gleichbedeutend mit völliger Emissionsfreiheit. Dabei stimmt das (mit Ausnahme ganz weniger Länder wie Norwegen und der Schweiz) überhaupt nicht, weil entsprechende Emissionen sehr wohl anfallen – allerdings nicht beim Auto selbst, dafür aber in den Kraftwerken, welche den Strom für die Fahrzeuge bereitstellen. Doch aus den Augen, aus dem Sinn – was das böse, „dreckige“ Kohlekraftwerk tut, hat doch mit mir und meinem sauberen Stromer nichts zu tun, nicht wahr? Diese Kunst des individuellen und kollektiven Selbstbetrugs ist gerade in unseren Ländern weit verbreitet und bildet die Grundlage für den Erfolg von cleveren Geschäftemachern wie Musk, der es blendend versteht, die Illusionen des Publikums für seine Zwecke auszuschlachten.

 

Wenn ein asiatischer Wirt selbst nachrechnet…

Doch illusionistische Tricks, die in Europa und den USA bestens funktionieren, können in anderen Ländern platzen wie Seifenblasen, wenn sich nüchtern kalkulierende Verwaltungsfachleute ernsthaft mit den Grundlagen der behaupteten „Umweltfreundlichkeit“ beschäftigen. So kürzlich geschehen in Singapur, wo ein ortsansässiger Geschäftsmann versuchte, die Zulassung für einen gebrauchten Tesla Modell S zu bekommen. Hierüber berichtete der Journalist Stefan Weißenborn in der „Welt“ [WELT] unter Berufung auf einen Bericht in der „Straits Times“ vom 5. März [STTI].

Als der stolze Besitzer den teuren Luxusschlitten in Singapur anmelden wollte, gab es nämlich nicht nur monatelange Verzögerungen, obendrein wurde auch noch eine happige Kohlendioxidabgabe von 15.000 $ fällig. Dem Bericht in der „Welt“ zufolge ermittelten die örtlichen Zulassungsstellen einen CO2-Ausstoß von 222 g/km. Dieser wurde aus dem Verbrauch an elektrischer Energie von 444 Wattstunden/km errechnet, wobei man sich auf einen Standard der Wirtschaftskommission für Europa der Vereinten Nationen (ENEC) beriefen. Singapur bezieht seinen Strom hauptsächlich aus Gaskraftwerken: Bei Kohlekraftwerken sähe die Bilanz des Tesla noch deutlich schlechter aus.

 

Gefahr für Elon Musks Geschäftsmodell?

Für Elon Musk kam diese Entscheidung ungelegen. Schließlich seine Geldsammelkampagne für das Modell 3, der „E-Car für das Volk“, gerade angelaufen. Doch ungeachtet dieses Rückschlags hat der Hype um seine „sauberen, abgasfreien“ Fahrzeuge inzwischen so erfolgreich Wurzeln geschlagen, dass er in kürzester Zeit rund 350 Mio. US-$ für Vorbestellungen von Fahrzeugen einsammeln konnte, die frühestens erst ab Ende 2017 verfügbar sein dürften.

Gefahr könnte auf längere Sicht allerdings seinem eigentlichen Geschäftsmodell drohen, das aus dem Einsammeln von Subventionen durch Förderungen und sonstige Zahlungen für seine angeblich zukunftsgerichteten, CO2-freien Technologien besteht. So wird in einem Artikel von Jerry Hirsch in der Los Angeles Times [LATI]vorgerechnet, dass Musks Firmen von diversen US-Stellen im Jahre 2014 Fördergelder bzw. Steuervorteile etc. in Höhe von insgesamt 4,9 Mrd. $ erhalten haben. Hiervon gingen 2,391 Mrd. $ an Tesla Motors, 2,516 an die Solarzellenfabrik SolarCity und vergleichsweise magere 20 Mio. $ an seine Raumfahrtfirma Space Exploration Technologies. Weitere, vor allem indirekte Subventionen in nicht unbeträchtlicher Höhe kommen dem Unternehmen noch zusätzlich durch Fördermaßnahmen in anderen Ländern wie z.B. Norwegen zugute: In Großbritannien erhalten Tesla-Käufer einen Zuschuss von 8.800 $, Hong Kong verzichtet auf Anmeldesteuern in Höhe von bis zu 115 % des Fahrzeugwerts, und in Norwegen entfallen beim Kauf eines Model S Steuern von etwa 135.000 $ [STTI].

All diese Vorteile verdankt Tesla seinem Saubermann-Image, das jetzt durch respektlose Asiaten, die einfach mal selbst nachgerechnet haben, in Frage gestellt wurde. Dem Artikel in der „Welt“ zufolge hat Elon Musk mittlerweile mit Singapurs Premierminister Lee persönlich Kontakt aufgenommen.

 

Ein völlig neuartiges Öko-Antriebsmodell

Der Tesla-Hype scheint auf jeden Fall vorerst ungebrochen, wie die immer weiter nach oben schnellenden Bestellungen für das Modell 3 belegen. Diesbezüglich scheint Elon Musk über ähnliche Qualitäten zu verfügen wie andere clevere Geschäftemacher, die Großprojekte wie Desertec oder das Tauschbatterieprojekt von „Better Place“ an den Mann gebracht haben. Was Spötter angeblich bereits zu dem Spruch verleitet haben soll, dass man angesichts der ungebrochenen Welle von Vorbestellungen für das Modell 3 annehmen müsse, die eigentliche Energiequelle dieser Fahrzeuge sei nicht etwa „sauberer“ Strom, sondern 100 % reines Öko-Schlangenöl.

Allerdings gibt es auch Informationen, dass hinter diesem Hype in etlichen Fällen schlichte Geldgier stehen könnte. Manche der frühen Käufer spekulieren offensichtlich daraf, dass der Boom bei E-Fahrzeugen weiter anhält und sie einen „frühen“ Vertrag so in 1-2 Jahren mit erheblichem Gewinn verkaufen können. Sollte die Tesla-Blase bis dahin allerdings platzen, so stünden sie statt mit sattem Gewinn mit leeren Händen da. Ein Tauser futsch „for nothing“. Wollen wir das Beste hoffen.

Fred F. Mueller

 

Quellen

[WELT] http://hd.welt.de/PS-Welt-edition/article153277325/Singapur-stuft-Tesla-als-Dreckschleuder-ein.html

[STTI] http://www.straitstimes.com/singapore/transport/electric-car-tesla-slapped-with-15000-tax-surcharge

[LATI] http://www.latimes.com/local/la-fi-hy-musk-subsidies-box-20150530-story.html

 




9. IKEK Dipl.-Meteorologe Klaus-Eckart Puls:Extremwetter-Ereignisse : Was finden die Wetterdienste? Was schreibt der Klimarat IPCC?

Das Fazit von K.E. Puls- von einer Zunahme von Extremwettern kann weltweit keine Rede sein, die meisten Trends sind sogar negativ. Und, Überraschung ! – diese Feststellungen finden sich wiederkehrend auch samt und sonders in den viele tausend Seiten der IPCC Berichte. Sie schaffen es nur nicht in die politisch redigierte Summary for Policy Makers. Und nur die werden von den Journalisten und Politikern gelesen. Und darauf bauen die Alarmisten.

Video von der 9. IKEK am 11.12.15 im Haus der Technik in Essen: Extremwetter-Ereignisse : Was finden die Wetterdienste? Was schreibt der Klimarat IPCC?

Dipl.-Meteorologe Klaus-Eckart Puls Ehemaliger Leiter der Wetterämter Essen und Leipzig

Die Folien des Vortrages sind im Anhang als pdf herunter ladbar

Related Files




Richtige und falsche Geschäftsmodelle

Die glücklichen Dänen

Der jüngsten „World-Happiness“-Umfrage zufolge liegen die Dänen an erster Stelle – noch. Die „Parksville Qualicum Beach News“ berichten: „Wieder einmal nehmen die Dänen den ersten Platz im ,World-Happiness-Report‘ ein“. Und weiter: „Knud Christensen, ein 39 Jahre alter Sozialarbeiter, kennt einen Grund, warum seine Landsleute sich so zurücklehnen – sie fühlen sich sicher in einem Land ohne wesentliche Naturkatastrophen, mit wenig Korruption und dem nahezu völligen Fehlen drastischer Ereignisse“. Seine einzige Sorge, so scheint es, gilt dem Wetter: es könnte regnen, wie man weiß.

Ich sage: was Wunder! Schließlich sind die Glücklichen Dänen die erfolgreichsten Veräußerer von Windturbinen. Kostenloser Strom durch überreichlich Wind: Bitte hier unterschreiben, und die Turbinen werden brennen, einige buchstäblich.

Anstatt marodierender, über den Atlantik rudernder Wikinger (hier) exportieren die Glücklichen Dänen heute ihr Know-how und die Hardware, um tausende Zugvögel sowohl auf dem eurasischen als auch auf dem nordamerikanischen Kontinent zu schreddern. Wahrlich eine großartige Errungenschaft – es sei denn, man fragt die Greifvögel, Kraniche, Schmetterlinge oder andere geflügelte Kreaturen, die jeden Tag durch diese Flatterstrom erzeugenden Generatoren ums Leben kommen.

Natürlich kann man die Dänen nicht für diese „Kollateralschäden“ verantwortlich machen. Schließlich folgt ihnen diese Sorte Menschen in Kalifornien und Washington auf den Fersen und brennen darauf, Ihnen zu helfen – um ihren Traum zu verwirklichen, egal was es Sie kostet. Will man mehr Strom zu noch höheren Preisen? Ganz einfach: man errichte noch mehr Windturbinen. Wenn Sie das nicht so glücklich wie die Dänen macht, dann versuchen Sie es mit etwas Anderen wie Solarenergie.

Solarenergie als Rettung?

Sicher, wenn in Arizona die Sonne scheint, ist es heiß, zumindest in der Sonora-Wüste mit ihren zahlreichen Riesenkakteen.

In den Bergen nördlich von der Hauptstadt Arizonas, Phönix, können immer noch Straßen durch Schnee unpassierbar sein, während es in der Wüste schon heiß sein kann. Das gilt, wenn eine andere großartige moderne Erfindung zur Rettung kommt – in Gestalt von „Photovoltaik“ oder Solarpaneelen, die Sonnenschein in kühle Wohnstätten umwandeln; zumindest den Plänen zufolge.

Da sind zum Beispiel die zahlreichen Solarkraftwerke in der Mojave-Wüste im Süden Kaliforniens, die mit Milliarden Geldern der Steuerzahler subventioniert worden waren. Es gibt viele davon, wobei einige Photovoltaik-Zellen verwenden, die Sonnenschein direkt in Strom umwandeln, und andere, die mit Spiegeln arbeiten, die das Sonnenlicht zu Türmen reflektieren, in denen eine Arbeitsflüssigkeit Generatoren antreibt, die Strom erzeugen. Es sind einfach unterschiedliche Technologien, um Sie mit Energie zu versorgen, das heißt den Saft, den Sie zu bekommen erwarten, wenn Sie zu hause den Stecker irgendeines Gerätes in die Steckdose stecken – zumindest ist das der altmodische Gedanke, dem ich immer noch verhaftet bin.

Nicht nur, dass eines dieser Systeme, das Kraftwerk Ivanpah, jetzt die Hälfte der so heftig beworbenen „Solarenergie“ erzeugt durch Verbrennen dieser sündigen Kohlenwasserstoffe, sondern auch, dass das mit Milliarden Dollars subventionierte Kraftwerk Abengoa vor der totalen Schließung steht – jedoch nicht wegen eines Mangels an Sonnenschein, sondern wegen des Fehlens weiterer Subventionen der Steuerzahler. Das nahebei gelegene Solarkraftwerk Ivanpah scheint auf der gleichen Schiene zu fahren, trotz des verbrauchten Kohlenwasserstoff-Treibstoffes.

Geschäftsmodelle

Es ist eindeutig: falls Sie in einem Geschäftsbereich tätig sind, der nicht von Millionen oder sogar Milliarden Steuergeld-Subventionen abhängig ist, muss Ihr Geschäftsmodell fehlerhaft sein! Keine futuristische Technologie kann ohne einen kräftigen Zuschlag von Steuerdollars aufkommen. Die Solarkraftwerke in der Mojave-Wüste (hier) sind nur die Spitze des Eis-(Sand-?)Berges generöser Steuersubventionen. Sobald diese „alternativen Dollars“ zu fließen aufhören oder reduziert werden; und selbst wenn diese Reduktion nur gering ausfällt – die alternative Energieerzeugung zerfallen nach allen Seiten, rechts, links und in der Mitte.

Gleichzeitig stehen Kohle-Erzeuger wie die ehrwürdige Peabody Energy Corp., der weltgrößte Kohleerzeuger, dicht vor dem Bankrott, während die von Wind getriebenen Vögel-Zerhacker und die vom Sonnenschein abhängigen Solarkraftwerke sich im Glanz von Steuerzahler-Subventionen räkeln.

Die versprochenen alternativen Energie-Reichtümer kommen nur ziemlich langsam, wohin auch immer man schaut. Tatsächlich erweisen sich die meisten als gigantische Zeitverschwendung, die wertvolle Ressourcen verbrauchen, ohne ihre Versprechen zu erfüllen. Das Windkraftwerk auf El Hierro, Kanarische Inseln, ist nur eines der Beispiele aus jüngster Zeit. Vor einem Jahr war behauptet worden, dass es den Energiebedarf seiner Bevölkerung zu 100% decken könne. Ein Jahr später sieht es ganz anders aus. Der alte Diesel-Generator der Insel liefert den größten Teil der benötigten Energie, da die Wind-/Wasser-Energieerzeugung und -speicherung beklagenswert unzureichend ist.

Dann schaue man auf die Elektroauto- und Elektrobatterie-Unternehmen, die im Südwesten der USA aus dem Boden schießen. Auch ihnen geht es gut wegen der Milliarden Dollar schweren Zuwendungen und Subventionen von der Regierung, die nicht nur für den Bau der Kraftwerke, sondern auch für deren Produkte fließen. Ein bisschen Zuwendung für jedes verkaufte Stück Hardware – alles dank Ihrer großzügigen und offensichtlich niemals endenden Unterstützung mit Ihren Steuergeldern.

Eindeutig: Niemals endende Steuer-Subventionen – das ist das Geschäftsmodell, dem Sie sich verschreiben sollten!

Link: http://canadafreepress.com/print_friendly/right-and-wrong-business-models

Übersetzt von Chris Frey EIKE




Radioaktivität in der Hand von Terroristen, eine neue Gefahr?

Abdel Graus: „Wir sollten uns radioaktives Material verschaffen und dann weit verstreuen. Auch könnten wir es mit Sprengstoff vermischen, daraus eine „Schmutzige Bombe“ bauen, und die dann explodieren lassen.“

Abu Rumms: „Bomben sind gut, aber dein Vorschlag wäre doch Sprengstoffverschwendung. Wir könnten nie so viel Radioaktivität verstreuen wie in Fukushima freigesetzt wurde, und dort gab es keine Toten. Dagegen eine normale Bombe in einem Fußballstadion, das gibt Leichen! Allah hat uns nicht befohlen, die Ungläubigen nur zu ängstigen, sondern sie zu töten. So steht es im Koran in der 9. Sure im 4. Vers:

„dann tötet die Götzendiener, wo immer ihr sie findet, und ergreift sie und belagert sie und lauert ihnen aus jedem Hinterhalt auf.“ Und in der 8. Sure, Vers 11: „In die Herzen der Ungläubigen will ich Furcht bringen; darum haut ihnen die Köpfe ab, und haut ihnen ab alle Enden ihrer Finger.“ (Verharmlosende andere Übersetzung: „In die Herzen der Ungläubigen werde ich Schecken werfen. Trefft sie oberhalb des Nackens und schlagt ihnen jeden Finger ab.“)

Abdel Graus: „ Ja, es steht aber auch geschrieben in der 9. Sure, Vers 40: „Zieht aus, leicht und schwer, und kämpft mit eurem Gut und mit eurem Blut für Allahs Sache.“ Das heißt, wir sollen mit allen Mitteln kämpfen. Wollen wir, dass uns der Eintritt ins Paradies verwehrt wird, weil wir im Kampf nachlässig waren und nicht alle Mittel genutzt haben, für den wahren Glauben zu kämpfen?“

Abu Rumms: „Gott ist groß! Natürlich nicht.“

Abdel Graus: „Wenn wir nur wenig Radioaktivität verstreuen, werden sie den Notstand ausrufen, Orte evakuieren, Häuser für unbewohnbar erklären, Straßen, Autobahnen und Bahnstrecken sperren. Aber die Gläubigen werden darüber lachen. Sie sind nicht der Strahlenhysterie verfallen, wie man an den gesegneten Ländern des Islam sieht:

Iran betreibt ein Kernkraftwerk und baut weitere, Pakistan hat 3 KKWs in Betrieb und 2 im Bau, die Vereinigten Emirate haben 3 fast fertiggestellt, die Türkei plant den Bau mehrerer KKWs. Hier aber erzeugen die deutschen Medien und die deutschen Politiker eine Strahlenhysterie; das müssen wir nutzen. Vielleicht ist es nur ein kleiner Schritt, aber einer auf dem Weg zur totalen Machtübernahme des Islams.“

Abu Rumms: „Du hast recht. Packen wir’s an.“

Die Politiker und die Medien tun wirklich alles, um ein solches Szenario möglich zu machen. Ich will hier gar nicht all den Unsinn aufzählen, welchen Frau Kotting-Uhl, Kunsthistorikerin und atompolitische Sprecherin der Grünen, der niedersächsische Umweltminister Wenzel, Bundesbauministerin Hendricks und andere von sich geben. Nur ein besonders ulkiges Beispiel aus der Hannoverschen Allgemeinen Zeitung vom 07.04.2016 (also nicht 1. April!): Ein Herr Köpke schreibt da Unzutreffendes, meist über das Zwischenlager Lubmin, aber auch das Folgende:

Hierzu habe ich schon in der ersten Auflage (2009) meines Buches „Das Märchen von der Asse“ geschrieben:

Sollten Sie zufällig Terrorist sein und eine Atombombe bauen wollen, dann lassen Sie sich aber nicht von einem russischen Schwarzhändler Uran 238 andrehen. Es muss schon Uran 235 sein, Uran 238 explodiert nicht.

Uran ist ein in geringen Mengen überall vorkommender Naturstoff, eine Mischung von U 238, 0,7 % U 235 und ganz wenig U 234. Es kostet um die 200 € pro kg. U 235 ist der für Kernkraftwerke brauchbare Wertstoff. Den zieht man heraus. Für das übrig bleibende Abfallprodukt U 238 zahlt nicht einmal der dümmste Terrorist einige Millionen Euro.

Aber wenn Herr Köpke sich nur bei der Zahl vertan hat und in Wirklichkeit U 235 meinte? Das ist zwar teuer, aber für Terroristen ebenfalls wertlos. Die zum Bau einer Bombe benötigte kritische Masse beträgt einige 10 kg, es wird behauptet, mit komplizierten technischen Tricks wären schon 7 kg zur Explosion zu bringen. 1,78 kg sind aber viel zu wenig, und 200 g nur noch für deutsche Zeitungsleser erschreckend.

Wie sieht es mit der Radioaktivität aus? Einen groben Anhalt bietet die alte Einheit Curie. 1 Curie entspricht einem Gramm Radium. Hat man eine Strahlenquelle von einem Curie, dann lässt die sich noch kurzzeitig ohne Abschirmung handhaben, etwa um sie mit einem langen Greifer von einem Behälter in einen anderen zu tun.

Verschlucken von einem Curie wäre jedoch meist tödlich. 1 Curie Uran lässt sich allerdings nicht mehr mit einem Greifer handhaben, und verschlucken geht auch nicht. Uran ist nämlich ausgesprochen schwach aktiv. Erst 3 t U 238 haben die Aktivität von einem Curie, und bei dem etwas stärker radioaktiven U 235 sind es immerhin 0,5 t.

Uran ist also wirklich nur für die Angstpropaganda unserer Politiker geeignet. Vielleicht glauben einige sogar selbst, was sie dem dummen Volk einreden.

Hannover, den 08.04.2016




Deutscher Arbeitgeberverband: Interview mit dem EIKE-Pressesprecher Prof. Dr. Horst-Joachim Lüdecke

Es wird kräftig Alarm geschlagen: Klimaexperten glauben zu sehen, wie die Eismassen in der Antarktis unter den Füßen der Pinguine dahinschmelzen und Eisbären aussterben, weil sie keine Eisschollen mehr finden. Höhere Lufttemperaturen und wärmeres Wasser würden das Eis deutlich schneller abschmelzen lassen als die Klimaforscher erwartet hätten. Die Lage sei bereits jetzt so dramatisch, dass nicht einmal mehr die Beschlüsse der Pariser Klimakonferenz helfen würden. Das Meer werde immer noch gefährlich schnell ansteigen, selbst ohne weiteren Anstieg der Treibhausgase. Da lohnt ein Gespräch mit dem Physiker Prof. Dr. Horst-Joachim Lüdecke (i.R.). Er untersuchte die Rolle des CO2, sah sich alle vorhandenen Daten genau an und ist Mitautor von zahlreichen begutachteten Veröffentlichungen in wissenschaftlichen Klima-Fachzeitschriften.

Holger Douglas: Zuerst die Frage nach Knuddelbär Knuts Brüdern: Sterben sie durch unsere CO2-Emissionen aus?

Horst-Joachim Lüdecke: Nein, keine Spur davon. Eisbärpopulationen wuchsen die letzten Jahre stetig an, denn Knuts Kumpels werden nicht weniger gejagt als früher. Eisbären sind gefährliche Raubtiere und keine Knuddelbären. Sie gibt es schon viele Hunderttausende Jahre. Auch beispielsweise vor ca. 120.000 Jahren als eine globale Warmzeit und bei uns subtropische Temperaturen herrschten. Generell gilt: Alle Tiere passen sich erstaunlich schnell an neue Umweltbedingungen an, auch Eisbären.

Holger Douglas: Lassen Sie uns kurz auf den Treibhauseffekt eingehen: Kommt er dadurch zustande, dass UV-Strahlung der Sonne beim Durchgang durch das Glas eines Treibhauses in Wärmestrahlung umgewandelt wird? Wie funktioniert das in der Atmosphäre?

Horst-Joachim Lüdecke: Es ist recht einfach: Die kurzwellige Strahlung der Sonne durchdringt ungehindert die Luft unserer Atmosphäre. Sie wird vom Erdboden aufgenommen, der sich infolge dieser Energiezufuhr erwärmt. Durch Kontakt mit dem Erdboden erwärmt sich schließlich die Luft. Zusätzlich strahlt der Boden Infrarot ab, wie jeder warme Körper.
Diese vom Boden ausgehende infrarote Strahlung wird von den Treibhausgasen – im wesentlichen Wasserdampf, danach CO2, Methan usw. – absorbiert und als so genannte Gegenstrahlung wieder zum Boden zurückgestrahlt. Dies führt dem Boden weitere Energie zu, was seine Erwärmung erhöht. Messungen der Gegenstrahlung sind heute Standard.
In der Atmosphäre kommen noch zahlreiche weitere Effekte hinzu wie z.B. die Konvektion. Vor allem die Wolken spielen für die Temperaturentwicklung eine entscheidende Rolle. Aber das geht über den Treibhausstrahlungseffekt hinaus und ist eine andere Geschichte.
Auch beim Gärtner-Treibhaus geht die kurzwellige Sonnenstrahlung ungehindert durch das Glasdach hindurch. Völlig verschieden vom atmosphärischen Treibhauseffekt ist dagegen, dass die vom Boden erwärmte Luft durch das Glasdach des Gärtnertreibhauses nicht entweichen kann und sich dadurch weiter aufwärmt.

Holger Douglas: Ist das grundsätzlich dasselbe wie in einer kalten, klaren, wolkenlosen Nacht, in der die Erde stark auskühlt, während ansonsten eine Wolkendecke wie ein Wärmekissen wirkt?

Horst-Joachim Lüdecke: So ist es. Man erfährt dies, wenn man sein Auto bei Frost unter einem Baum mit Blättern abstellt oder 50 Meter weiter unter klarem Himmel: Bei freier Sicht zum Himmel bildet sich Eis auf den Scheiben, unter dem Baum nicht. Hier hilft die Gegenstrahlung der Blätter gegen die zu schnelle Abkühlung der Autoscheiben. Es ist eindeutig ein Strahlungseffekt, denn die Temperatur der leicht bewegten Luft ist in beiden Fällen gleich.

Holger Douglas: Jetzt gibt es die Diskussion: Wie viel Strahlung geht weg in den Weltraum? Dafür müsste man eigentlich wissen, was die Wolken machen?

Horst-Joachim Lüdecke: Den reinen Strahlungseffekt kann man theoretisch mit gewissen Unsicherheiten zuverlässig berechnen. Da ist die maßgebende Größe die sogenannte Klimasensitivität als die zusätzliche globale Erwärmung, wenn sich das CO2, das uns ja so sehr interessiert, verdoppeln würde.

Aber das ist noch nicht alles. Es kommen noch Sekundäreffekte hinzu, bei denen die Wolken eine Schlüsselrolle zu spielen scheinen. Wolken wirken zweifach. Tiefliegende Wolken kühlen, sie absorbieren die Sonnenstrahlen. Sehr hoch liegende Wolken machen das Gegenteil.
Diesen Erwärmungs– oder Abkühlungseffekt durch Wolken kann man theoretisch noch nicht berücksichtigen. Es gibt zwei Denkschienen: Die eine sagt, wenn es durch zunehmendes CO2 wärmer wird, dann wird insbesondere um den Tropengürtel herum mehr Wasser verdampft. Wasserdampf ist ein sehr starkes Treibhausgas, also verstärkt sich der Erwärmungseffekt. Man nennt so etwas Rückkopplung; die Erwärmung wird dadurch stärker als durch die reine Strahlenwirkung.
Die andere Denkschiene sagt: Das Gegenteil ist richtig! Mehr Wasserdampf in der Luft führt zu mehr Wolken. Das kühlt ab.

Also: Was ist wahr? Dazu gibt es eine Reihe von wissenschaftlichen Veröffentlichungen, die an Hand von Messungen belegen, dass der Abkühlungseffekt bei weitem überwiegt. Messungen sind immer noch maßgebend, insbesondere in der Klimaforschung wird dies leider oft übersehen.

Die Theorie, die von einer Rückkopplung spricht, ist dagegen nicht durch Messungen belegt. Nach ihr müsste es nämlich über den Tropen in fünf bis sieben Kilometer Höhe eine deutlich messbare Erwärmungszone geben, der unter dem Begriff Hot Spot läuft. Den findet man aber nicht. Es spricht daher alles dafür, dass der reine Strahlungseffekt abgeschwächt und nicht etwa noch verstärkt wird.

Holger Douglas: Erstaunlich, welch kompliziertes Wechselspiel sich im Laufe der Erdgeschichte herausgebildet hat. Und jetzt plötzlich soll der Mensch alles verändern?

Horst-Joachim Lüdecke: Das ist tatsächlich sehr unwahrscheinlich. Den Einfluss des Menschen kann man aus dem Klimarauschen bis heute nicht heraushören. Was wir seit ungefähr 1750, also seit Beginn der Industrialisierung, an Klimaschwankungen erlebt haben, liegt meilenweitweit innerhalb des natürlichen Schwankungsbereichs des Klimas, wie wir ihn aus den Zeiten davor kennen. Vor der Industrialisierung gab es weit heftigere Klimaausschläge als danach.

Es gibt nicht die geringste wissenschaftliche Berechtigung zu behaupten: Hier sehen wir ungewöhnliche Klimaentwicklungen, die eigentlich nur vom Menschen kommen können. Nicht zuletzt belegen dies sogar der Weltklimarat (IPCC) und jedes meteorologische Lehrbuch: Es ist keine Zunahme von Extremwetterereignissen in den letzten 150 Jahren feststellbar. Ich darf kurz anmerken, dass Wetter und Klima nicht identisch sind. Klima ist der mindestens 30-jährige Durchschnittswert von Wetter.

Holger Douglas: Die Temperaturänderungen der Vergangenheit in 100 Jahreszeiträumen konnten Sie in einer wissenschaftlichen Fachveröffentlichung mit einfachen Sinuskurven wiedergeben und haben dabei erstaunlich gleichmäßige Schwankungen festgestellt?

Horst-Joachim Lüdecke: Sie sprechen jetzt Klimazyklen an. Man kennt eine ganze Reihe dieser Zyklen und vermutet, dass sie von der Sonne gesteuert werden. Stellvertretend nenne ich die Atlantische Multidekaden-Oszillation (AMO) mit einer Zykluslänge von etwa 65 Jahren, den De Vries / Suess -Zyklus von etwa 200 Jahren und den Dansgaard-Oeschger Zyklus von etwa 1500 Jahren. Solche Zyklen sieht man in fast allen guten Proxydaten.
Kurz zu Proxydaten: Es sind indirekt ermittelte Klimawerte der Vergangenheit, als es noch keine direkten Messungen gab, wie z.B. Temperaturen oder Niederschläge. Man gewinnt sie aus Analysen von Baumringen, Stalagmiten, Eisbohrkernen, Sedimenten, Pollen usw.
Man findet nun Korrelationen von Sonnenfleckenzahlen mit der Häufigkeit der Isotope Kohlenstoff 14 und Beryllium 10, aber auch mit Klimazyklen. Ein Zusammenhang dieser Daten liegt sehr nahe, aber man kennt bis heute nicht die Mechanismen, die einen solchen Zusammenhang erklären können.

Wir haben in unserem Fachaufsatz den De Vries / Suess-Zyklus näher untersucht, der für uns heute wohl am interessantesten ist. Er hat nämlich eine Periode von rund 200 Jahren, und dieser Zeitraum interessiert uns ja gerade. Es ist etwa der Zeitraum von Beginn der Industrialisierung bis heute.

Aus der guten Übereinstimmung des De Vries / Suess Zyklus mit der Temperaturentwicklung bis zurück zum Jahre 0 n.Chr. und sogar weiter in die Vergangenheit folgern wir, dass dieser Zyklus nicht plötzlich aufhört, sondern auch zukünftig fortbesteht. Wenn man ihn theoretisch weiterführt, müsste es eigentlich bald wieder kühler werden.

Bis jetzt sehen wir von einem deutlichen globalen Abkühlen allerdings noch nichts. Seit 18-20 Jahren herrscht aber immerhin bereits Stillstand in der globalweiten Temperaturentwicklung. Dies ist ein bemerkenswerter Widerspruch zur Erwärmungswirkung des zunehmenden menschgemachten CO2 und wird für den Klima-Alarmismus immer bedrohlicher. Es wird jetzt spannend, wie es in den nächsten 10, 20 Jahren mit den Temperaturen weitergeht.

Holger Douglas: Scheint dieser jüngste Temperaturstillstand nicht doch auf eine leichte Abkühlung hinzudeuten?

Horst-Joachim Lüdecke: Nein. Wir haben zur Zeit einfach einen Stillstand, mehr nicht. Man muss sich nur die Satellitendaten anschauen, die am zuverlässigsten sind. Man sieht dann, dass sich die Südhemisphäre abkühlt, die Nordhemisphäre in etwa gleich bleibt und sich die Arktis als einzige Erdzone wirklich erwärmt. Im globalen Durchschnitt bleibt es seit ca. 18 Jahren unverändert.

Holger Douglas: Wie genau und zuverlässig sind denn die von Ihnen genannten Proxydaten? Es bestehen sicherlich kaum Probleme, 1 bis 2000 Jahre zurückzugehen und die Temperaturentwicklung relativ präzise zu messen. Aber die Erde ist viereinhalb Milliarden Jahre alt; je weiter wir zurückgehen, desto ungenauer werden die Daten. Wie verlässlich sind diese Zyklen-Vorstellungen?

Horst-Joachim Lüdecke: Es hängt von den Zeitlängen ab: Uns interessiert im Zusammenhang der globalen Erwärmung, die gemäß Meinung der Klima-Alarmisten in den letzten 200 Jahren vom Menschen verursacht sein soll, allerhöchstens die letzten 10.000 Jahre. Vor mehr als 350 Jahren haben wir nur Proxydaten, also indirekte Messwerte. Direkt gemessen wird frühestens seit Mitte des 17. Jahrhunderts.

Alle Proxydaten haben ihre Fehler und Nachteile, je länger zurück desto stärker. Baumringe und Stalagmiten zum Beispiel sind keine reinen Proxies für Temperaturen, sondern auch für Niederschläge. Baumringe geben naturgemäß nur die Sommertemperaturen wieder. Eisbohrkerne haben zwar auch ihre Probleme, sind aber wohl am verlässlichsten, wie man es aus dem Vergleich mit Proxies aus Sedimenten weiß.

Die berühmte Eisbohrkern-Kurve der russischen Antarktis-Station Vostok über die letzten 400.000 Jahre, die Temperaturen und den CO2 Gehalt der Arktis nachbildet, ist beispielsweise sehr zuverlässig. Die CO2 Werte haben in diesem Zeitraum übrigens trotz enormer Temperaturschwankungen nur verhältnismäßig wenig geschwankt. Der CO2 Anstieg der letzten 150 Jahre ist daher ohne jeden Zweifel menschgemacht.

Wenn man natürlich noch weiter zurückgeht, dann wird es ungenauer. Aber man hat immer noch eine recht gute Vorstellung bis 500 Millionen Jahre vor unserer Zeit. Es ist heute bekannt, was damals passiert ist. Der CO2-Gehalt war früher regelmäßig höher als heute. Und die Erde erlebte Warmzeiten mit eisfreien Polkappen, aber auch Kaltzeiten, in denen sie eine Eiskugel (Snowball) war.

Vielleicht ist es in diesem Zusammenhang noch erwähnenswert, dass wir in einem Eiszeitalter leben (nicht in einer Eiszeit). Ein Eiszeitalter ist durch die gleichzeitige Vereisung beider Erdpole gekennzeichnet.

Holger Douglas: Die CO2-Konzentration der Erdatmosphäre ging teilweise bis zu 6000 ppm hoch.

Horst-Joachim Lüdecke: Ja, bis zum 15-fachen von heute – ganz grob natürlich. Es gab aber auch einmal einen Zeitpunkt vor etwa 300 Millionen Jahren als der CO2 Gehalt etwa so niedrig wie heute war. Aber wie schon gesagt sonst war er stets höher.

Was jetzt sehr wichtig ist: Es gibt keine Korrelation zwischen Temperatur und CO2-Gehalt. Es gab die Erde schon einmal total vereist mit sehr hohen CO2-Werten vor etwa 450 Millionen Jahren. Umgekehrt gab es kleine CO2-Werte bei wesentlich höheren Temperaturen als heute vor etwa 90 Millionen Jahren.

Holger Douglas: Also kein Zusammenhang zwischen CO2 und Temperaturen?

Horst-Joachim Lüdecke: Nein, der ist nicht zu sehen.

Holger Douglas: CO2 ist ein Spurengas und daher nur in sehr geringen Mengen in der Atmosphäre vorhanden. Hat es überhaupt eine wichtige Wirkung?

Horst-Joachim Lüdecke: Es stimmt, CO2 ist nur ein Spurengas, selbst das Edelgas Argon ist häufiger. Zur Zeit befinden sich 0,04 Volumenprozente CO2 in der Luft. Vor der Industrialisierung waren es etwa 0,028 Volumenprozent. Diese Differenz ist vom Menschen verursacht.

CO2 ist freilich trotz seiner geringen Konzentration als Hauptbestandteil der Photosynthese lebensnotwendig. Ohne CO2 würden wir alle nicht existieren, es gäbe keine Pflanzen oder Tiere, es gäbe nichts, was man als Leben bezeichnen könnte.

Holger Douglas: Man müsste dann doch einen Zusammenhang zwischen dem Wachstum der Pflanzen und dem CO2 Gehalt sehen oder nicht? Je mehr CO2 Gehalt – desto stärker das Wachstum der Pflanzen?

Horst-Joachim Lüdecke: Ja, so ist es. Hierzu gibt es viele wissenschaftliche Untersuchungen, zum Beispiel Messungen an Nahrungspflanzen von Reis über Weizen bis hin zu Sojabohnen. Der Zusammenhang ist eindeutig. Je mehr CO2, umso stärker der Pflanzenwuchs.

Das weiß man heute auch aus Satellitenmessungen: Die Erde ist inzwischen grüner als noch vor 50 oder 100 Jahren. Es stand sogar schon einmal im Spiegel: "die Sahara wird grüner".

Die Ernten haben weltweit auch durch das vom Menschen gemachte CO2 zugenommen. Das ist ein positiver Effekt. Negative Effekte des zunehmenden CO2 sind nicht bekannt.

Holger Douglas: Weiß das schließlich nicht auch der Gärtner, der in seinem Gewächshaus den CO2 Gehalt erhöht, teilweise bis auf 1500 ppm?

Horst-Joachim Lüdecke: Ja, die Blumen- und Tomatenzüchter machen das. Die blasen CO2 ins Gewächshaus rein. Der Effekt ist diesen Züchtern bestens bekannt.

Holger Douglas: Noch einmal kurz zurück zu der Diskussion über das menschengemachte CO2. Früher sind in der Erdgeschichte zum Beispiel große Waldgebiete abgebrannt, das tun sie auch heute noch, es gab heftige Vulkanausbrüche. Die Erde ist nicht der ruhige Planet, auf dem wir friedlich sitzen, sondern unter uns brodelt und zischt es, Vulkane speien große Mengen an giftigen Gasen und Substanzen hinaus. Woher kann man genau sagen, dass der Mensch den CO2-Gehalt erhöht hat und nicht die Natur selber? Wie zum Beispiel 1815 der gewaltige Ausbruch des Vulkans Tambora in der Südsee, der der Erde ein Jahr ohne Sommer beschert hat?

Horst-Joachim Lüdecke: Nicht nur Gase aus Vulkanen werden heute sehr gut vermessen, man hat daher ein recht genaues Bild der Verhältnisse im Allgemeinen. Das IPCC hat in seinem letzten Bericht AR5 eine schöne Abbildung zu den CO2 Senken und Quellen publiziert. Zu den Zahlenwerten gibt es zwar Unsicherheiten, aber keine der Art, dass ganz andere CO2 Quellen und Senken als die heute bekannten möglich wären.

So gibt es das vom IPCC unabhängige internationale Carbon Dioxide Information Analysis Center (CDIAC), das alle einschlägigen Daten zum CO2 Kreislauf zusammenträgt. Die Ergebnisse sind eindeutig. Wir haben beim CO2-Kreislauf einen gewaltigen Austausch zwischen Ozean und Atmosphäre und zwischen Atmosphäre und der Biosphäre. Da gehen ungefähr pro Jahr jeweils etwa 100 Gigatonnen Kohlenstoff hin und her. Der menschliche Anteil ist dagegen relativ klein: Es sind ungefähr nur zehn Gigatonnen, die der Mensch zum jetzigen Zeitpunkt jährlich in die Luft bläst.

Das, was jetzt an CO2 im Vergleich zu vor 150, 200 Jahren zusätzlich in der Atmosphäre ist, stammt vom industrialisierten Menschen. Alle Messungen sind hier stimmig. Das menschengemachte CO2 verschiebt langsam den CO2-Kreislauf in einen anderen Zustand hinein, der aber keineswegs bedenklich ist – ganz im Gegenteil.

Es passiert nämlich Folgendes: Das Meer hat einen extrem höheren CO2-Inhalt als die Atmosphäre daher bleibt seine CO2-Abgabekraft auch bei etwas CO2-Zufuhr immer noch praktisch unverändert. Technisch ausgedrückt, bleibt der CO2-Partialdruck des Meeres konstant. Wenn das CO2 der Atmosphäre zunimmt, steigt dagegen sein Partialdruck an. Die hier durch den Menschen über die Jahre eingebrachten Mengen an CO2 sind im Gegensatz zum Meer wirksam. Damit wird die Partialdruckdifferenz von der Atmosphäre zum Meer größer, und es wird immer mehr CO2 ins Meer gedrückt.

Heute geht beispielsweise schon die Hälfte des vom Menschen durch Industrie, Landwirtschaft, Rodung und Zementproduktion erzeugte CO2 ins Meer und zu gleichen Teilen in das Pflanzenwachstum.
Unmittelbar zu Beginn der Industrialisierung war dieser Anteil null. Wenn der CO2 Gehalt weiter steigt, geht immer mehr ins Meer und die Biosphäre, immer weniger verbleibt in der Atmosphäre. Der atmosphärische CO2-Gehalt kann daher ein bestimmtes Maß nicht überschreiten.

Nach unserer Fachveröffentlichung wird es sich so bei maximal 800-850 ppm einpendeln. Dieser Wert ist vermutlich sogar zu hoch, denn er besiert auf der hypotetischen Annahme, dass mehr als das Doppelte der geschätzten Weltressourcen an Kohle verbrannt wurde.

Holger Douglas: Kann man das, was Sie schildern, als Sättigungsgrenze der Atmosphäre für CO2 bezeichnen?

Horst-Joachim Lüdecke: Ja, das kann man. Es gibt eine Sättigungsgrenze. Das atmosphärische CO2 kann man anschaulich als gespannte Feder sehen: Je stärker die CO2-Konzentration der Luft, umso mehr drückt die Federkraft CO2 ins Meer hinein.

Holger Douglas: Wird das Meer durch das eingeführt CO2 nicht sauer? Und sterben durch diese Versauerung nicht die Korallen?

Horst-Joachim Lüdecke: Nein, Meeresversauerung ist ein weiterer Mythos der Alarmisten. Jeder Chemiker, dem Sie etwas von Meeresversauerung durch zunehmendes atmosphärisches CO2 erzählen, wird schmunzeln. Das Meer ist basisch, hier müsste schon mehr als der vernachlässigbare menschgemachte CO2-Eintrag passieren, bis es sauer wird. Das eingehende CO2 wird zudem nicht nur im Meerwasser gelöst, sondern geht in die Algenproduktion, die Kalkschalenbildung von Meerestieren und langfristig in die Carbonatgesteinsbildung.

Im Meer gibt noch viele unverstandene Effekte. Man weiß z.B. nicht, wieviel Biomasse von der Meeresoberfläche zum Meeresboden sinkt, wieviel karbonisiert wird usw. Theoretisch und durch Labormessungen versteht man zum Beispiel den Revelle Effekt sehr gut. Der besagt, dass bei zunehmendem CO2 Gehalt der Luft die Aufnahmefähigkeit des Meeres für CO2 abnimmt. In den globalweiten Messungen des Verhältnisses von CO2 der Luft gegenüber dem im Meer verschwindenden Anteil zeigt sich der Revelle Effekt bis heute aber gar nicht.

Auch die angebliche Empfindlichkeit von Korallen gegen mehr CO2 im Meerwasser ist ein alarmistischer Mythos. Zahlreiche wissenschaftliche Untersuchungen haben gezeigt, dass sich die Korallen schnell anpassen und ihnen höhere CO2-Konzentrationen bestens bekommen. Die Anpassungfähigkeit von Pflanzen und Tieren an veränderte Umgebungsbedingungen ist fast grenzenlos.

Holger Douglas: Schwanken nicht die Verhältnisse sehr stark, die den CO2 Kreislauf bestimmen? Und verändert sich nicht auch die CO2-Aufnahmefähigkeit des Meeres bei sich ändernden Wassertemperaturen?

Horst-Joachim Lüdecke: Kurzfristig schwankt der CO2-Fluss von Atmosphäre ins Meer und den Pflanzenwuchs tatsächlich stark, was nicht nur durch die Jahreszeiten bedingt ist. Auch die schwankende Temperatur des Meerwassers spielt eine Rolle. Wenn das Wasser kühl ist, nimmt es mehr CO2 auf, wenn es wärmer ist, weniger – ein übertriebener Vergleich wäre eine Sprudelflasche. Man konnte dies gut im Jahre 1998 erkennen, als ein besonders starker El Nino die Meerestemperaturen stark durcheinander brachte. Längerfristig sind die CO2 Flüsse aber glatt und ruhig.

Holger Douglas: Wie hoch ist denn der Einfluss der veränderten Wassertemperaturen auf den CO2 Zyklus?

Horst-Joachim Lüdecke: Wenn man sich die berühmte Vostokdaten von Temperatur und CO2-Gehalt über die letzten 400.000 Jahre anschaut, sieht man, dass beide genau übereinander liegen. Sie sind extrem gut korreliert. Dies erscheint zunächst als ein Widerspruch zu meiner vorherigen Aussage, es gäbe keine Korrelation zwischen CO2 und Temperaturen.

Wissenschaftliche Arbeiten haben die Vostok-Daten genauer untersucht und dabei festgestellt: Das CO2 hinkt grob 800 Jahre der Temperatur der Atmosphäre und damit des Meeres hinterher. Wenn es wärmer wird, dann wird mehr CO2 vom Meer ausgegast. Wenn es kälter wird, dann geht mehr CO2 ins Wasser.

Die Meere benötigen, um sich zu durchmischen, so ungefähr 1000 Jahre. Dies erklärt das CO2 Nachhinken. Anfänglich, als dieser Zusammenhang noch nicht bekannt war, wurde von den Klimaalarmisten sogar gejubelt, CO2 sei generell der Grund für jede Schwankung der mittleren Erdtemperatur. Tatsächlich ist es genau umgekehrt. Abgesehen von diesem gut bekannten Effekt der CO2 Ausgasung aus dem Meer ist keine Korrelation zwischen CO2 und Erdtemperatur bekannt.

Holger Douglas: Kommen wir noch einmal zu dem Kohlenstoff. In Deutschland geht das Wort von der Decarbonisierung um, es müsste eigentlich zum Unwort des Jahres erklärt werden. Dabei ist Kohlenstoff für uns eines der wichtigsten Elemente.

Horst-Joachim Lüdecke: Die organische Chemie ist Kohlenstoffchemie. Mit Dekarbonisierung ist nun Einsparung von CO2-Emissionen zum Schutz des Klimas gemeint. Das ist aber grober Unsinn. Man kann das Klima, das sich unablässig ändert, nicht schützen. Dazu müsste man mit dem Schutz des Wetters anfangen! Noch nie gab es konstantes Klima, so etwas wird es auch nie geben. Fortwährende Klimaänderung ist praktisch ein Naturgesetz. Die alarmistische Hypothese besagt aber, dass CO2 klimaschädlich sei und stark klimaerwärmend wirke. Dafür gibt es keine Belege.

Nur mit entsprechenden Klimamodellen kann man das hinbekommen. In die Modelle steckt man geeignete Voraussetzungen hinein wie zum Beispiel die von mir schon erwähnten Rückkopplungseffekte. Ob diese Effekte eine verlässliche Messbasis haben, interessiert die Modellierer nicht.
Dann bekommt man beliebig hohe Temperatursteigerungen heraus. Nur haben diese Modelle bisher noch nie die Klimavergangenheit wiedergeben können. Klimamodelle stimmen einfach nicht, sie sind falsch; das lässt die Klimaalarmisten erstaunlich ungerührt.

Mojib Latif, einer der bekanntesten Klimamodellierer in Deutschland, hat in einem Spiegel-Interview gefaselt, wir würden keine Winter mehr mit Schnee haben.

Auch ein solcher sachlich bodenloser Unsinn hält die Alarmisten und leider auch die deutschen Medien in ihren Aussagen nicht auf. Insbesondere die Medien geben nur den Alarmisten Gelegenheiten ihre befremdlichen Wahnvorstellungen dem Publikum in Fernsehen und Radio anzudienen. Seriöse Fachkritiker kommen nicht zu Wort.
Wenn es mit dem fehlenden Schnee nicht klappt, wird eben die nächste Sau durch Dorf getrieben, zum Beispiel die hier schon besprochene Meeresversauerung durch CO2.

Real betrachtet ist Decarbonisierung allein schon deswegen absurd, weil unser deutscher CO2 Beitrag verschwindend gering ist. Selbst wenn wir in Deutschland auf sämtliche CO2-Emissionen verzichten würden, wieder in Fellen herumlaufen würden und unser Nahrungsfleisch mit Pfeil und Bogen schießen würden, würde das an der CO2 Bilanz der Welt nichts ändern.
China, Indien, Brasilien und die USA produzieren so gut wie alles menschgemachte CO2. Wenn man die von der GroKo geplanten deutschen CO2 Emissionseinsparungen auch unter Annahme übertriebener Erwärmungsszenarien in Temperaturen umrechnet, kommt man in den nächsten 20 Jahren auf ein paar tausendstel Grad globaler Erwärmung weniger.

Es ist also sachlich völlig idiotisch, was wir da machen. Hier wird offensichtlich von politischen Schaumschlägern eine politische Vorbildfunktion angestrebt. Wir sollten uns überlegen, ob dies sinnvoll ist. Eine deutsche Vorbildfunktion gab es ja schon einmal, mit katastrophalem Erfolg.

Holger Douglas: Der Kohlenstoff ist das wesentliche Element im atmosphärischen Lebenskreislauf. Aus Kohlenstoff bestehen wir, aus dem wird alles andere in der organischen Welt zusammengestellt. CO2 benötigen die grünen Pflanzen als Baustoff. Doch das soll jetzt das schädliche Klimagas sein, das die Erde zerstören, die Meere ansteigen lassen soll?

Horst-Joachim Lüdecke: CO2 Vermeidung ist eine rein politische Agenda und hat mit sachgerechtem Handeln nichts zu tun. Es gibt sogar Aktionen wie CO2 freie Städte, die als Gipfel der Hirnrissigkeit gelten dürfen. In meiner Heimatstadt Heidelberg gab es sogar Ideenwettbewerbe zu CO2-Einsparungen für Kinder. Hier klingt bereits etwas an, das der Instrumentalisierung von unschuldigen Kindern für ideologische Ziele in der ehemaligen DDR entspricht.

Holger Douglas: Eine Gefahr scheint es aber doch zu geben, die Erhöhung der Meeresspiegel. Hat das Abschmelzen der Gletscher damit etwas zu tun?

Horst-Joachim Lüdecke: Seit Ende der letzten Eiszeit etwa vor 12.000 Jahren hat sich der Meeresspiegel um etwa 130 Meter erhöht. Heute ist davon nur ein Anstieg von 1 – 3 mm pro Jahr übrig geblieben. Was die genaue Ursache für den aktuellen Anstieg ist, weiß man nicht. Immerhin scheint das Abtauen des grönländischen Festlandgletschers so um die 20% zu diesem Anstieg von 1 – 3 mm beizutragen.

Zur Gletscherschmelze: Von einer allgemeinen globalen Gletscherschmelze zu sprechen ist unzutreffend. In Teilen der Welt schmelzen die Gletscher wie zum Beispiel in den Alpen und in Grönland. In anderen Teilen nehmen sie dagegen zu wie z.B. in der Antarktis. Die Alpengletscher schmelzen bereits seit Mitte des 19. Jahrhunderts, als es praktisch noch kein menschgemachtes CO2 gab.

Ferner muss man Eisschmelzen sorgsam auseinander halten: Oft wird nur vom Meereis gesprochen. Das ist das Eis, das sich im Winter auf dem Meer bildet, und das im Sommer wieder verschwindet. Meistens ist es nur eine Bedeckung von wenigen Zentimetern bis hin zu Mini-Eisbergen von wenigen Metren Höhe.

Die Bedeckung mit Meereis wird heute mit Satelliten sehr genau gemessen. Täglich werden diese Messdaten aktualisiert und frei im Internet veröffentlicht. Und da zeigt sich der bekannte Jahreszyklus. Im Sommer haben wir ein Minimum an Eisbedeckung, im Winter ein Maximum. Die Medienmeldung ›der Nordpol schmilzt!‹ kommt regelmäßig, wenn im Spätsommer das Minimum erreicht ist. Das hat mit Klimaänderungen überhaupt nichts zu tun.

So gab es Anfang des 20. Jahrhunderts schon einmal die Wetterlage eines so weit zugefrorenen Nordmeeres, dass die Eisbären zu Fuß von Grönland direkt nach Island laufen konnten. Dann in den 1935-er Jahren war die Nordostpassage frei. Alles ist schon einmal dagewesen.
Seitdem mit Satelliten gemessen wird, sieht man kaum Veränderungen des Nordmeereises über mehrere Jahre. In der Antarktis nimmt das Meereis die letzten Jahre dagegen deutlich zu.

Maßgebend für Wettter und Klima ist aber nicht das Meereis sondern die Festlandgletscher, von denen sich übrigens etwa 98% des Weltbestandes in der Antarktis befinden. Der grönländische Eispanzer hat ungefähr 3 Millionen km³ Volumen. Selbst wenn es am Nordpol noch 5° wärmer wäre, dauerte es viele Tausend Jahre, bis er geschmolzen wäre. Bis dahin ist es leider längst wieder kalt geworden.

Holger Douglas: Grönland bezieht sich ja auf Grünland. Die Wikinger lebten dort, aber nur auf einem schmalen, damals grünen Küstenstreifen mit ein wenig Ackerbau. Der Gletscher aber war bereits vorhanden?

Horst-Joachim Lüdecke: Natürlich. Man darf aber nicht denken, dass dort Wein angebaut wurde. Man konnte dort überleben und Ackerbau betreiben. Die Wikinger sind dann wieder abgezogen, als es kälter wurde. Eine Fachveröffentlichung zeigt im Übrigen an Hand von Eisbohrkernanalysen, dass die mittlere Temperatur Grönlands seit 8000 Jahren bis heute um satte 2,5 °C gesunken ist. Das zum medialen "Der Nordpol schmilzt".

Holger Douglas: Die Herrscher von Inselreichen kommen gerne zu Klimaverhandlungen und beklagen lauthals: Wir saufen ab! Die Industrieländer sind dran Schuld! Und sie fordern mehr Milliarden für sich. Moderner Ablasshandel. Aber das ist der offenkundig kein einheitlicher Vorgang, manche Inseln scheinen zu sinken, andere scheinen sich zu heben, je nachdem, auf welchen Erdplatten sie liegen?

Horst-Joachim Lüdecke: Es hängt tatsächlich von lokaler Geologie und von der Plattentektonik ab, ob sich Inseln heben oder senken. Die Malediven brauchen keine Angst zu haben. Soweit ich mich erinnere, sinkt aber Bangladesch ein wenig ab. Hier kommt noch der Effekt der Sedimentanschwemmung durch Flüsse aus dem Himalaya hinzu. Es ist alles komplizierter, als dass man es mit ein paar Schlagworten abhandeln könnte. Holland ist nicht bedroht, hier baut man bei Bedarf höhere Deiche und steht dem Klima-Alarmismus ungewöhnlich vernünftig und reserviert gegenüber.

Holger Douglas: Was steckt Ihrer Meinung eigentlich hinter dem Klimaalarmismus?

Horst-Joachim Lüdecke: Das Ganze ist Ideologie, eine Mischung aus wohlbekanntem Marxismus, Naturromantik und den  Interessen mächtiger Investoren sowie Politiker. Rousseau machte den Anfang. In der deutschen Romantik entstand das Bild vom weisen gütigen Hausvater, der sich um alles liebevoll kümmert. Die Wirklichkeit sieht anders aus. Er ist keineswegs gütig sondern ein brutaler Diktator, der uns vorschreiben will, welche Glühbirnen wir noch verwenden dürfen, dass wir kein Fleisch mehr essen dürfen – kurz, wie wir zu leben haben.

Kretschmann, der die aktuelle Wahl in Baden-Württemberg gewann, ist Musterbeispiel. Sein Ziel, den Schwarzwald und Odenwald mit völlig unnützen Windrädern zu verspargeln hat die Bevölkerung nicht abgehalten, die grünen Umweltverbrecher zu wählen. So hirnerweichend wirkt Ökoideologie.

Die Natur wird von Ökoideologen als gütig angesehen und als Mutter Gaia bezeichnet, was aber nur eine hilfsweise Verführungsmasche für Gläubige ist. Der Mensch würde die Natur schädigen. Doch die Natur ist weder gut noch böse zu uns. Wir müssen und wollen sie zweifellos schützen. Wir müssen aber gleichzeitig auch uns gegen die Natur schützen. Die moderne Medizin mit ihrem Kampf gegen tödliche Bakterien und Viren von Mutter Gaia zeigt es. Ob aber die Grünen Naturschutz wollen, ist mehr als fraglich, wie es Windräder zeigen.

Das Ziel der Ökoideologen ist in Wirklichkeit eine andere Gesellschaft – undemokratisch und diktatorisch. Ökologie ist dabei nur ein Hilfsmittel. Die kühle Billigung der Vernichtung von Hunderttausenden Fledermäusen und Greifvögeln durch Windräder belegt die Motive dieser Leute. Insbesondere die Verbindung von Klimaschutz und undemokratischen Ideologien ist unübersehbar. Echter Naturschutz zählt bei den Klimaschützern nicht mehr.

Holger Douglas: Wie konnte es Ihrer Meinung nach soweit kommen?

Horst-Joachim Lüdecke: Nachdem der Kommunismus verschwand, wurde als neue Ideologie der Klimaschutz entdeckt. Erstaunlicherweise waren die Protagonisten zahlenmäßig nicht sehr stark, setzten sich aber durch kräftige Unterstützung der Politik und mächtiger Geldgeber rasch durch. Die Möglichkeit, durch Klimaangst politische Herrschaft auszuüben und die Luft zu besteuern und für clevere Investoren in sachlich nutzlose grüne Energien neue Geschäftsfelder aufzutun war einfach zu verlockend.
Es wurde die Treibhauswirkung des CO2 entdeckt. Diese hat man dann zunehmend als fiktive Bedrohung instrumentalisiert und die neue Ideologie des Klimaschutzes darauf aufgebaut. Da stecken natürlich auch weitere handfeste geschäftliche Interessen dahinter.

Insbesondere NGOs, Greenpeace ist hier vorrangig zu nennen, reiten auf dieser Welle. Das sich am Rand der Kriminalität bewegende, aber von den deutschen Medien fast schon wie eine Regierungspartei gehandelte Greenpeace macht sein Geschäft zur Zeit mit dem Kampf gegen die Kernenergie. Ironischerweise ist Kernenergie CO2 frei.

Wenn wie jüngst zu lesen war, die Rockefeller Gruppe aus dem Ölgeschäft aussteigen und ins Geschäft der "erneuerbaren" Energie einsteigen will, weiß jeder nachdenkende Zeitgenosse, was sich hier abspielt.

Ich erlaube mir, es an dieser Stelle ganz klar zu sagen: Klimaschutz hat nichts mit Naturschutz zu tun. Klimaschutz ist eine gefährliche undemokratische Ideologie.

Nachtrag EIKE-Readaktion:

Erfahrungsgemäß führt jede News, die den Treibhauseffekt anspricht, zu oft hoch emotionalen, kontroversen Kommentaren. Auf Bitte des Interviewten (Pressesprecher Horst-Joachim Lüdecke) veröffentlichen wir daher sein folgendes Statement:

Liebe Leser: Meine im Interview gemachten Ausführungen über den Strahlungs-Treibhauseffekt, Gegenstrahlung etc. werden von allen maßgeblichen Fachleuten geteilt, sowohl den Alarmisten als auch den "Klimaskeptikern". Zu den "Klimaskeptikern" = IPCC-Gegnern zählen viele mit hohem wissenschaftlichen Ansehen, so etwa die beiden Physik-Nobelpreisträger Ivar Giaever und Robert Laughlin.

Ich habe im Interview den heutigen Kenntnisstand geschildert, eigenes habe ich nicht geäußert. Dieser allgemeine Kenntnisstand wird auch vom EIKE-Fachbeirat vertreten. Die wenigen Fach-Publikationen, die diese Auffassung nicht teilen, sollen damit nicht diskreditiert oder verschwiegen werden. Es ist aber Tatsache, dass sie in der Fachwelt so gut wie keine Resonanz erfuhren. Vielleicht ist dies der Grund, dass die Vertreter dieser Minderheit oft die notwendige Höflichkeit in der Propagierung ihrer Auffassung vermissen lassen. Mehr Sachlichkeit würde vielleicht zu gewinnbringenden Diskussionen führen.

Meine Ausführungen zu den Rückkoppelungseffekten, also IPCC-Klimamodellen, Hot Spot usw. werden selbstredend nur von den IPCC-Gegnern und nicht von den Klima-Alarmisten geteilt.

Um es daher deutlich noch einmal zu sagen: Das was im Interview zum Thema "Treibhauseffekt" zu hören ist, stammt nicht von mir. Es ist das, was die Fachleute des "Skeptikerlagers" und betreffs Strahlungsteil auch noch die IPCC-Fraktion vertreten. Ich bitte daher um Verständnis, wenn ich mich aus weiteren Diskussionen zu diesem Thema heraushalte. Dies auch deswegen, weil ich mich als Physiker zwar mit dem Thema etwas auskenne (hier, hier), aber kein Spezialist auf diesem Gebiet bin. Es gibt Einschlägigeres, stellvertretend (hier, hier). Die wohl vollständigste und umfangreichste Zusammenstellung bietet der Skeptiker-Blog "Science of Doom" (hier). Hier findet sich auch fachliche Kritik an der o. erwähnten Minderheiten-Meinung.

Wer sich also ernsthaft informieren möchte – die wichtigsten Quellen sind genannt. Wer es persönlich möchte, möge sich an einen Experten der riesigen Schar prominenter Gegner des IPCC wenden. Ich nenne stellvertretend nur Namen wie Fred Singer, Richard Lindzen, Nir Shaviv, Henrik Svensmark, Garth Paltridge, Roy Spencer usw. usw. ….. Einige von ihnen sind Mitglieder der Skeptikerorganisation "Global Warming Policy Foundation", gegründet von Benny Peiser. Ich stehe für Antworten nicht zur Verfügung.




Kippende Drehachse: Eisschmelze lässt Erde taumeln – Jeden Tag eine neue „Klimasau“ durchs Dorf getrieben

Warum die Erde nicht mehr ganz rund dreht

[2] Die Erderwärmung lässt das Eis von Gletschern schmelzen. Das verändert die Verteilung der Masse auf der Erde. Das wiederum hat Einfluss auf die Polarachse, um die sich der Planet dreht: Sie und der Nordpol verschieben sich. Das wiederum bedeutet, dass die Erde aus dem Gleichgewicht gerät und zu taumeln beginnt. Das geht aus einer in der Zeitschrift "Science Advances" hervor.

"Die jüngste Abweichung von der Richtung des 20. Jahrhunderts ist sehr dramatisch", sagte der führende Autor der Untersuchung, Surendra Adhikari.

Wissenschaftler halten diese Änderung für harmlos. Jonathan Overpeck, Professor für Geowissenschaften an der Universität von Arizona, sagte jedoch, durch die Studie werde hervorgehoben, "wie real und hochgradig groß der Einfluss von Menschen ist, den sie auf den Planeten haben".

Wie hat sich die Erde vor dem (anthropogenen) Klimawandel gedreht

Leider bleiben die fleissig Klimaalarm produzierenden Forscher und unsere Medien die Antwort zur Frage schuldig, warum die Erde dann während der Eiszeiten vor 20.000 Jahren nicht durch das damals um viele Dimensionen größere Eis-Ungleichgewicht ganz „vertaumelt“ ist, wenn das aktuelle bereits „dramatisch“ sein soll.

Das Bild zeigt die damaligen Dimensionen (aktuell befindet sich die Erde im Bild bei „0“ Eisvolumen) und vor allem die Ungleichheit zwischen dem Verlauf der Eisvolumen zwischen der Nord- und Südhemisphere.

Bild [3] Verlauf der Erd-Eisvoluminas während der letzten Eiszei bis heute

Die Wissenschaftler muss man selbstverständlich loben. Schließlich zeigt deren Studie wie genau man heute dank Satelliten anscheinend messen kann. Auch dass schon wieder eine neue kleine Korrelation zwischen irgend etwas entdeckt wurde was zu neuen Vermutungen Anlass geben kann: „Doch die Wirkung der Eisschmelze bestimmt offenbar die Hauptrichtung der kreisenden Polwanderung“[1] hätte man vorher nie geahnt. Es ist eben einer der wichtigen, unendlich vielen klitzekleinen Meilensteine moderner Klimawissenschaft. Und so etwas ist dem Bürger natürlich sofort mitzuteilen.

Eine Verschwörungstheorie lässt jedoch auch vermuten:

Unsere „Leitmedien“ haben von der Regierung die Aufforderung bekommen, Frau Umweltministerin Dr. Hendricks medial zu unterstützen – denn Ihre Unterschrift zum Klimavertrag naht.

Die horrenten Ausgaben Deutschlands an Dritte-Welt Potentaten für alleine vom Klimawandel am sonst sicheren Reichtum und paradiesischen Zuständen gehinderte Entwicklungsländer (Klimahilfsfond) müssen dem Volk schließlich vermittelt werden. Wenn dem Bürger bei schlappen 100 Milliarden US$ jährlich vor den Augen taumelt, hilft nur die Information dass es der Erde dabei doch genau so geht. Dafür können Journalisten schon einmal beide investigativen Augen voll zudrücken. Der Abonnentenschwund lässt sich sowieso nicht aufhalten.

Quellen

[1] DER SPIEGEL auf facebook, 08.04.2016: Kippende Drehachse;Eisschmelze lässt Ede taumeln

https://de-de.facebook.com/DerSpiegel/posts/1025710840847234

[2] DIE WELT 09.04.16: Warum die Erde nicht mehr ganz rund dreht

http://www.welt.de/wissenschaft/article154164518/Warum-die-Erde-nicht-mehr-ganz-rund-dreht.html

[3] GeoForschungsZentrum Potsdam,Scientific, Technical Report STR 07/05, Ingo Sasgen et al.: Glacial-isostatic adju stment and sea-level change near Berkner Island, A ntarctica




Hersteller von Solarpaneelen auf Dächern spielen nur mit, wenn die Spielregeln in ihrem Sinne sind

Da gab es Abengoa – was ich seit Jahren verfolgt habe – die den Bankrott erklärt hat.

Ivanpah, das größte Solarprojekt der Welt in der Wüste Kaliforniens ist von der Schließung bedroht wegen schlechter Ausbeute.

Und dann gibt es noch SunEdison, der weltgrößte Entwickler erneuerbarer Energie. Dieses Unternehmen steht am Rande des Bankrotts (hier), ist doch dessen Aktienwert von 30 Dollar unter 0,50 Dollar gefallen – ein Rückgang über 90% im vorigen Jahr.

Alle diese Pleiten vergrößern das blaue Auge, dass der Solarindustrie erstmals vor fünf Jahren verpasst worden ist mit dem Solyndra-Bankrott.

Weil sie sich Sorgen um ihren Selbsterhalt machen und in ihrem eigenen Interesse – anstatt im Interesse von Amerika allgemein und der Verbraucher im Besonderen zu handeln – sind Industrieverbände auf den Zug der Bevorzugung durch die Energiepolitik aufgesprungen und attackieren jeden, der dem Geschäftsmodell der finanziellen Anreize nicht zustimmt. Zwei derartige Gruppen sind TASC und TUSK – die beide gegründet worden sind und finanziert werden durch die Solarpaneel-Hersteller SolarCity und SunRun unter Beteiligung einiger kleinerer Solarfirmen (SolarCity hat sich jüngst von TASC getrennt).

Die Alliance for Solar Choice (TASC) wird von den führenden Lobbyisten der beiden großen Unternehmen betrieben – und beide haben offensichtliche Verbindungen mit den Demokraten.

Bryan Miller ist Vizepräsident von Public Policy & Power Markets bei SunRun (seit Januar 2013) sowie Präsident der TASC (seit Mai 2013). Seiner Website zufolge war er auch für das National Finance Committee von Obama tätig sowie als Finanz-Koordinator und Wegbereiter für Clinton Gore 1996. Er wurde auch als leitender politischer Berater in die Obama-Administration berufen und war auch Kandidat bei den Wahlen zum Repräsentantenhaus von Florida (allerdings erfolglos).

Vizevorsitzender John Stanton ist geschäftsführender Vizepräsident von Policy & Markets bei SolarCity. In dieser Rolle „obliegt ihm seiner Website zufolge die Zusammenarbeit von SolarCity mit internationalen, staatlichen und lokalen Regierungsorganisationen in einem großen Bereich politischer Dinge“. Zuvor war Stanton geschäftsführender Vizepräsident und General-Berater für die Solar Energy Industries Association (SEIA) – der nationalen Handelsgesellschaft für Industrien, die die Entwicklung von Solarenergie unterstützen – wobei er für die legalen und regierungsamtlichen Angelegenheiten der Gesellschaft zuständig war. Dort spielte er eine zentrale Rolle bei der Verlängerung der Steuervorteile für Solarinvestitionen um 8 Jahre. Er war auch Legislativ-Berater für die EPA unter der Clinton Administration.

In einem Bericht über die Gründung der TASC heißt es: „Zuallererst und am Wichtigsten: die Gruppe wird daran arbeiten, die Net-Energy-Metering-Vorschriften (NEM) in den 43 Staaten zu schützen, in denen es diese Vorschriften gibt“.

Am 25. März berichtete das Wall Street Journal: „Zwei Dutzend Staaten denken über Änderungen ihrer Anreize für Solarpaneele auf Dächern nach … derartige Anreize finanzieller Art waren das Rückgrat des Geschäftsmodells von Solarfirmen, die derartige Paneele herstellen“. Während der letzten Monate haben Nevada und Hawaii ihre NEM-Programme auslaufen lassen. Die TASC reagierte darauf mit Klagen vor Gericht. In Hawaii ist diese TASC-Klage bereits abgewiesen worden. In der Begründung heißt es: „Das Urteil im Sinne der Beklagten hat die TASC-Behauptungen obsolet gemacht“. Im vorigen Jahr hat Louisiana seine Solar-Steuervorteile gestrichen, die „unter den großzügigsten im ganzen Land“ waren. Der Arizona Public Service war der Pionier bei der Modifizierung generöser Solarpolitik, als die Arizona Corporation Commission im Jahre 2013 eine Abgabe für Solarverbraucher festgesetzt hatte.

Als einer der ersten Staaten, die gegen die generöse NEM-Politik vorgegangen war, ist Arizona immer noch ein Schlachtfeld. Dort formierte die TASC eine andere Gruppe – TUSK. Diese Abkürzung steht für Tell Utilities Solar won’t be Killed. Der Lobbyist und ehemalige Kongressabgeordnete Barry Goldwater Jr. wurde auf den Schild gehoben, um als Sprecher für die Industrie den Republikanern ein Gesicht zu geben. TUSK hat sogar einen Elefanten, das Maskottchen der Republikaner, in seinem Logo. Auf der Homepage von TUSK liest man: „Republikaner wollen die Freiheit, die beste Wahl zu treffen sowie den Wettbewerb zur Kostensenkung“. Das stimmt zwar, aber ein Kernwert der Republikaner ist es, die freien Märkte arbeiten zu lassen anstatt es der Regierung zu überlassen, Gewinner und Verlierer auszuwählen.

Obwohl in Arizona registriert, war TUSK jüngst auch in anderen US-Staaten aktiv – darunter Nevada, Oklahoma und Michigan.

Das immer wieder auftauchende Thema in den TASC/TUSK-Kampagnen ist es, das Wort „kill“ mit „solar“ in Verbindung zu bringen – obwohl die Bemühungen bzgl. Modifikationen von NEM nicht beabsichtigen, Solar zu töten. Stattdessen zielen sie darauf ab, die „Anreiz-Zahlungen“ zu adjustieren, um sie gerechter zu machen. Allerdings ist Rooftop Solar ohne diese Gefälligkeiten nicht ökonomisch, wie man in Nevada sehen konnte. Die Unternehmen lehnen es ab mitzuspielen, wenn das Spiel nicht nach den von ihnen gewünschten regeln gespielt wird.

TASC und TUSK sind nur zwei der Wege, auf denen die Rooftop-Solarindustrie versucht, die bevorzugte Politik zu halten. (Die beiden sind auch bekannt als „Koalition von Pächtern [rent seekers] und Wohlfahrts-Königinnen [welfare queens]“. So bezeichnete sie der größte konservative Blog von Louisiana, The Hayride).

Zusätzlich zu den spezifischen Industriegruppen wie TASC, TUSK und SEIA werden auch Dritt-Organisationen wie das Energy and Policy Institute (EPI) engagiert, um öffentlich Bedienstete und Akademiker einzuschüchtern. Das EPI, betrieben von Gabe Elsner, wird als eine Dark Money-Gruppe ohne legales Existenzrecht betrachtet. Es darf vermutet werden, dass EPI ein Ableger dessen ist, was als das Checks & Balances Project (C&BP) bekannt ist – welches ins Leben gerufen worden war, um gegen Organisationen und Politiker zu ermitteln, die nicht hinter den Regierungsprogrammen und hinter Subventionen für erneuerbare Energie stehen. C&BP hat Gelder von SolarCity erhalten. Elsner trat C&BP im Jahre 2011 bei – wo er als Direktor fungierte. Zwei Jahre später verließ er die Gruppierung, um EPI zu gründen – welche C&BP eine „pro-saubere-Energie-Website“ nennt. EPI liefert Material für Attacken auf etablierte Energie-Interessen und zur Diskreditierung von jedem, der Subventionen für Rooftop-Solar nicht unterstützt. Ich selbst war ebenfalls Ziel von Elsners Bemühungen.

Dann gibt es da noch die Solar Foundation – eng verbunden mit SEIA und Regierungsprogrammen zur Förderung von Solar – die jährlich einen Bericht zu Arbeitsplatz-Trends in der Solarbranche in den USA veröffentlicht. Solar-Arbeitgeber geben die Anzahl der Arbeitsplätze via E-Mail- und Telefon-Umfragen an. Diese Anzahl wird dann extrapoliert, um die Arbeitsplätze in der Industrie in der gesamten Nation abzuschätzen. Obwohl diese Berichte fragwürdige Ergebnisse zeitigen (hier), hat sich die Bedrohung durch Arbeitsplatzverluste als ein effektiver Weg erwiesen, Druck auf den Gesetzgeber auszuüben, eine die Industrie begünstigende Politik fortzusetzen – wie NEM.

Gemeinsam haben diese Gruppen eine Kampagne koordiniert, um eine öffentliche Meinung zu erzeugen, von der die Politiker von der öffentlichen Unterstützung für NEMs überzeugt werden sollen. Derartige Fälle findet man in Maine, Nevada, New Hampshire, Colorado und Kansas. Sie sammeln Unterschriften von Solar-Befürwortern (hier) und benutzen diese, um Gesetzgeber und Kommissionäre zu beeinflussen. Sie engagieren sich in gesetzgeberischen Prozessen – und erzeugen, wie ich selbst erfahren durfte, eine überwältigende Präsenz mit Unterstützung nach Art eines Mobs von T-Shirts tragenden und Wink-Elemente schwingenden Befürwortern. Sie schalten Werbeanzeigen und bezeichnen Versuche, die für Solar so generösen NRMs zu modifizieren, als eine „Steuer“ auf Solar. Und sie attackieren Versorger, wie zuvor schon erwähnt, „Solar zu töten“ zu versuchen. Sollte diese kombinierte Kampagne keine Früchte tragen und die NEM-Politik geändert werden, wird Anklage erhoben wie in Hawaii und Nevada geschehen.

Dieser Politik-Protektions-Prozess scheint sich nicht von Prozessen bei irgendwelchen Industrien zu unterscheiden – haben doch die Meisten Handelsgesellschaften und Befürworter-Gruppen, die ihr Anliegen vorantreiben. Man erinnere sich: „Rindfleisch, das gibt es zum Mittag“ und „Schweinefleisch, das andere weiße Fleisch?“ Nur wenige sind wirklich unabhängig, und Selbsterhaltung ist ein natürlicher Instinkt.

Ja,sogar die Fossile-Treibstoffe-Industrie hat Befürworter-Gruppen, wie Miller jüngst klagte.

Der Unterschied besteht darin, dass fossile Treibstoffe die USA mit effizienter, effektiver und ökonomischer Energie versorgen und immer versorgt haben. Deren Vielfalt hat zu niedrigeren Kosten für Verbraucher geführt und die Energiesicherheit Amerikas erhöht. Deren Befürworter kämpfen nicht für spezielle Bevorzugungen, die es dieser Ressource gestatten zu überleben, sondern sie versuchen, neue Regeln und Vorschriften abzuwehren, die darauf abzielen, diese Treibstoffe aus dem Geschäft zu drängen.

Zum Vergleich, die Bemühungen der Solar-Befürworter sind, wie es die TASC eingeräumt hat: „Zuallererst wird die Gruppe daran arbeiten, die Net-Metering-Vorschriften NEM zu schützen“, da ohne diese – und andere politisch korrekte Aktivitäten – Rooftop-Solarenergie wirtschaftlich unsinnig wäre. Weil Rooftop-Solar weder effizient noch effektiv ist, sind die vermeintlichen Einsparungen der Hauptpunkt bei der Werbung. Einige profitieren tatsächlich davon, während die Allermeisten in Gestalt von Steuern und Abgaben zahlen müssen.

Mit dem Potential einer Änderung des politischen Windes ist die Kampagne zu Amerikas Energie-Zukunft zentraler Bestandteil des Präsidentschafts-Wahlkampfes. Hintergrund: Alle Solar-Befürworter scheinen links zu stehen und Gläubige von Big Government zu sein, die höhere Energiepreise wollen.

Wird Big Government die Gewinner und Verlierer aussuchen, oder werden die freien Märkte das Überleben der besten Energiequellen für individuelle Zwecke erlauben?

The author of Energy Freedom, Marita Noon serves as the executive director for Energy Makes America Great Inc., and the companion educational organization, the Citizens’ Alliance for Responsible Energy (CARE). She hosts a weekly radio program: America’s Voice for Energy—which expands on the content of her weekly column.

Link: https://www.linkedin.com/pulse/rooftop-solar-companies-only-play-game-stacked-favor-marita-noon?published=u

Übersetzt von Chris Frey EIKE




Fünf Punkte zum Klimawandel

Es ist ein sehr großes FALLS. Wir könnten Billionen für nichts verschwenden. Tatsächlich hat Lord Stern geschätzt, dass es es wert wäre, jedes Jahr ein paar Billionen Dollar auszugeben, um ein mögliches Desaster in 200 Jahren zu vermeiden. Weil er mit der London School of Economics assoziiert ist, wird ihm geglaubt – zumindest von jenen, deren Erfahrungen mit Versicherungen begrenzt sind. All jene, die diese Erfahrung haben wissen, dass es es nicht wert ist, sich gegen etwas zu versichern, das in 200 Jahren eintreten könnte – es ist unendlich besser sicherzustellen, dass unsere Kinder damit fertig werden. Mit jedwedem Glück werden sie Gleiches mit ihren Kindern tun, und die Ur-Ur-Urenkel werden gute Individuen sein, die sehr gut mit Lord Sterns kleinem Problem umgehen können.

Also habe ich mich entschlossen, die Hypothese ausgehend von fünf Prinzipien zu untersuchen. Es gibt fünf Schritte zu der Hypothese:

1. Der CO2-Gehalt der Atmosphäre steigt.

2. Der CO2-Anstieg in der Atmosphäre geht zum großen Teil einher mit der Zunahme der Verbrennung fossiler Treibstoffe. Die Verbrennung fossiler Treibstoffe führt zu CO2-Emissionen, so dass es sehr angemessen scheint, die beiden Zunahmen in Verbindung miteinander zu bringen.

3. CO2 kann Infrarot streuen über Wellenlängen primär um etwa 15 µm. Infrarot dieser Wellenlänge, welche Energie von unserem Planeten wegführen sollte, wird in die untere Troposphäre zurück gestreut, wo der zusätzliche Energie-Input einen Temperaturanstieg verursachen sollte.

4. Die erwartete Zunahme der Energie der unteren Troposphäre kann langfristige Änderungen des Klimas und der Thermosphäre verursachen, was charakterisiert werden könnte durch eine Zunahme der Häufigkeit und Intensität von Extremwetterereignissen, durch steigende Wassertemperatur in den Ozeanen, eine Verringerung der Eisbedeckung und viele weitere Änderungen.

5. Die größte Bedrohung ist, dass der Meeresspiegel steigen und Gebiete überfluten könnte, die derzeit dicht besiedelt sind.

Sind diese Hypothesen in wissenschaftlichem Sinne haltbar? Gibt es eine solide Logik bei der Herstellung einer Relation zwischen jedem Schritt in dieser Kette?

Der CO2-Anstieg in der Atmosphäre ist unbestreitbar. Viele Messungen zeigen ihn. Zum Beispiel gab es seit dem Jahr 1958 kontinuierliche Messungen auf dem Mauna Loa-Observatorium in Hawaii:

Anstieg und Rückgang von Jahr zu Jahr ist dem je nach Jahreszeit unterschiedlichen Pflanzenwachstum geschuldet. Aber der langzeitliche Trend zeigt eine stetige CO2-Zunahme in der Atmosphäre.

Vor 1958 gab es nur sporadische Messungen des CO2-Gehaltes, keine kontinuierlichen. Nichtsdestotrotz gibt es ausreichende Informationen, eine diesbezügliche Rekonstruktion zurück bis in das Jahr 1850 vorzunehmen:

Es gab einen leichten Anstieg des atmosphärischen Niveaus um das Jahr 1900, dann eine Periode mit nahezu Stillstand bis nach 1950, als ein starker Anstieg einsetzte, der bis zum heutigen Tag anhält. Man behalte diese Graphik mal im Hinterkopf – sie wird in anderer Form noch einmal erscheinen.

Die Schlussfolgerung ist eindeutig – es gab eine Zunahme des CO2-Gehaltes in der Atmosphäre. Was könnte die Ursache dafür sein?

Nun, es gibt die gleiche Verteilung von CO2-Emissionen durch die Verbrennung fossiler Treibstoffe und anderer industrieller Quellen:

Eine ähnliche Verteilung ist kein Beweis – Korrelation ist nicht Kausalität. Aber falls man versucht, die Emissionen direkt mit der Zunahme des CO2 in der Atmosphäre in Verbindung zu bringen, wird man scheitern. Es gibt viele nur teilweise verstandene „Senken“, welche CO2 aus der Atmosphäre entfernen. Die Erkennung der Dynamik all dieser Senken hat sich als schwierig herausgestellt, und darum haben wir kein wirklich gutes chemisches Gleichgewicht zwischen dem, was emittiert wird und dem, was in die Luft kommt.

Glücklicherweise gibt es Isotope, die uns helfen. Es gibt zwei primäre Pflanzenbestandteile, C3 und C4. C3-Pflanzen sind sehr alt und tendieren dazu, eher das Kohlestoffisotop 12C zu bevorzugen als das Kohlenstoffisotop 13C. Pflanzen mit C4-Bestandteil sind vergleichsweise jünger, und sie sind bzgl. ihrer Isotopen-Diät nicht so anspruchsvoll. Fossile Treibstoffe stammen aus einer Zeit, bevor die Evolution C4-Bestandteile hervorgebracht hatte, so dass sie reicher an 12C sind als die heutige Biomasse. Emittiert man also 12C-reiches CO2 aus fossilen Treibstoffen in die Luft, sollte der 13C-Anteil in der Luft sinken, und das ist genau das, was beobachtet wird:

Der Beweis, dass die Verbrennung fossiler Treibstoffe die Ursache für die CO2-Zunahme in der Atmosphäre ist, ist also wirklich schlüssig. Aber hat das irgendwelche Auswirkungen?

Kohlendioxid verteilt Infrarot über eine geringe Energie-Bandbreite. Die Infrarot-Photonen, welche Energie vom Planeten entfernen sollten, werden in die untere Troposphäre zurück gestreut. Die zusätzliche Energie sollte einen Temperaturanstieg verursachen.


Die obere graue Linie zeigt das Spektrum, welches angenähert dem Spektrum der mittleren Albedo des Planeten Erde bei einer Temperatur von 280 K entspricht. Das ist die Temperatur etwa 5 km über der Oberfläche, wo sich einfallende und ausgehende Strahlung im Gleichgewicht befinden. Das tatsächliche Spektrum wird durch die blaue Linie repräsentiert. Der Unterschied zwischen beiden ist die verloren gegangene Energie durch die von Treibhausgasen verursachten Verteilungs-Prozesse. Wasserdampf hat bei Weitem die stärkste Auswirkung. CO2 trägt zum Verlust zwischen 13 und 17 μm bei, Ozon zwischen etwa 9 und 10 μm.

Der Effekt der CO2-Absorption nimmt logarithmisch mit der Konzentration ab. Die Verdoppelung der Konzentration wird nicht irgendwelche Auswirkungen verdoppeln. Tatsächlich befinden sich derzeit etwa rund 400 ppm in der Atmosphäre. Es ist unwahrscheinlich, dass die Welt mit einem Gehalt von 800 ppm sehr viel anders aussehen würde. Sie wird grüner sein – Pflanzen wachsen besser – und es könnte geringfügig wärmer und feuchter sein, aber sonst würde die Welt sehr wie unsere Welt jetzt aussehen.

So wir irgendwelche Auswirkungen jedoch proportional mit der Zunahme der Konzentration geringer werden, so werden sie mit jeder Abnahme proportional zunehmen. [Original: However, just as any effect will lessen proportionately with increase in concentration, so it will increase proportionately with any decrease.] Falls es dabei irgendwelche beobachtbaren Effekte gibt, sollte man sie in historischen Aufzeichnungen finden. Haben wir sie gesehen?

Es gibt „offizielle“ historische Temperaturaufzeichnungen. Eine Version aus jüngerer Zeit von der HadCRU sieht so aus:

Die vertikale Achse zeigt das, was unter dem Begriff „Temperatur-Anomalie“ bekannt ist, also die Abweichung von der mittleren Temperatur über den Zeitraum 1950 bis 1980. Man erinnere sich, dass der CO2-Gehalt erst nach 1950 signifikant wurde, so dass wir diese Abbildung mit diesem Faktum im Hinterkopf betrachten können:

• von 1870 bis 1910 sank die Temperatur, es gab keinen signifikanten CO2-Anstieg.

• von 1910 bis 1950 stieg die Temperatur, es gab keinen signifikanten CO2-Anstieg.

• von 1950 bis 1975 sank die Temperatur, der CO2-Gehalt war gestiegen.

• von 1975 bis 2000 stiegen sowohl die Temperatur als auch der CO2-Gehalt.

• von 2000 bis 2015 hat die Temperatur geringfügig, der CO2-Gehalt hingegen stark zugenommen.

Treibt das Kohlendioxid Temperaturänderungen an? Schaut man auf diesen Beweis, muss man sagen, dass falls es eine Relation gibt, diese sehr schwach sein muss. In einer Studie von den Eisbohrkern-Aufzeichnungen über 8000 Jahre fand ich, dass es eine Wahrscheinlichkeit von 95% gibt, dass sich die Temperatur aus natürlichen Gründen um bis zu ±2°C innerhalb von 100 Jahren ändern würde. Während des 20.Jahrhunderts änderte sie sich um 0,8°C. Schlussfolgerung? Falls das CO2 in der Luft wirklich globale Erwärmung verursacht, muss das Signal erst noch aus dem natürlichen Rauschen auftauchen.

Eines der Probleme mit den „offiziellen“ Temperaturaufzeichnungen wie die oben gezeigte Reihe von HadCRU ist, dass sie Gegenstand von „Adjustierungen“ waren. Während manche Adjustierungen von Rohdaten offensichtlich erforderlich sind, wie beispielsweise die Berücksichtigung der Seehöhe eines Messpunktes, war die Adjustierung in diesem Falle dergestalt, dass die Vergangenheit kälter und die Gegenwart wärmer gemacht worden ist, was die globale Erwärmung viel dramatischer aussehen lässt als es aus den Rohdaten hervorgeht.

Es könnte unvernünftig aussehen, sich auf die offiziellen Daten als „adjustiert“ zu beziehen. Allerdings ist die Grundlage der offiziellen Daten das, was als das Global Historical Climatology Network or GHCN bekannt ist, und es wurde willkürlich adjustiert. Zum Beispiel ist es möglich, die Rohdaten von Kapstadt von 1880 bis 2011 mit den Adjustierungen zu vergleichen, die an die Daten der sich entwickelnden GHCN-Reihen Version 3 angebracht worden waren:

Das Goddard Institute for Space Studies GISS ist verantwortlich für das GHCN. Das Institut befasste sich mit den den Adjustierungen zugrunde liegenden Metadaten. Sie zeigten eine einzelne Datenlinie, gaben die geographischen Koordinaten und die Seehöhe des Messpunktes an sowie eine kurze Reihe bedeutungsloser Daten einschließlich des Wörtchens „COOL“. Die Grundlage der Adjustierungen ist daher unbekannt, aber die Tatsache, dass etwa 40 aufeinanderfolgende Jahre lang Daten um genau 1,10°C „adjustiert“ worden sind, zeigt ziemlich eindeutig, dass hier die Methode „Pi mal Daumen“ angewendet worden ist anstatt von Algorithmen.

Es gab inzwischen so viele Manipulationen der „offiziellen“ Aufzeichnungen der globalen Erwärmung, dass sie keinerlei Glaubwürdigkeit mehr haben. Das soll nicht heißen, dass sich die Erde während der letzten Jahrhunderte nicht erwärmt hat. Gletscher zogen sich zurück, Schneefallgrenzen stiegen. Es gab Erwärmung, aber wir wissen nicht wie viel.

Interessanterweise sind die gemessenen Temperaturen nicht eindeutig. Zum Beispiel hat das Abschmelzen von Eis an Alpenpässen in Europa Wege ans Licht gebracht, die vor 1000 Jahren und noch früher regelmäßig benutzt worden waren. Danach waren sie von Eis bedeckt, das erst in jüngster Zeit wieder geschmolzen ist. Die Schutthalden neben den Wegen, die diese historischen Reisenden genommen haben, bieten eine reiche Vielfalt archäologischen Materials.

Folglich muss die Welt vor einem Jahrtausend mindestens so warm gewesen sein wie heute. Sie hat sich währen der letzten paar hundert Jahre erwärmt, aber die Erwärmung ist primär natürlichen Ursprungs und hat nichts mit menschlichen Aktivitäten zu tun. Wir haben nicht einmal eine Ahnung davon, ob es überhaupt irgendwelche Auswirkungen menschlicher Aktivitäten gibt, und wir können mit Sicherheit nicht sagen, ob irgendein Anteil der beobachteten Erwärmung anthropogenen Ursprungs ist. Die Physik sagt, dass wir eine Auswirkung haben sollten, aber wir können sie noch nicht von der natürlichen Variation unterscheiden.

All jene, die uns ob des Kohlenstoff-Verbrechens anklagen wollen, haben daher ein anderes Verfahren entwickelt – das Globale Zirkulations-Modell. Hierbei handelt es sich um eine Repräsentation der Atmosphäre, welche die Bedingungen innerhalb einer Schicht der Atmosphäre berechnet, typischerweise 5 km X 5 km X 1 km. Jede Schicht wird mit einer benachbarten Schicht in Beziehung gesetzt (falls man über ausreichend Computerleistung verfügt – wenn nicht, müssen die Schichten dicker sein).

Die Modellierer lassen ihre Berechnungen typischerweise einige Jahre in der Vergangenheit beginnen, in denen das Klima bekannt ist. Dann versuchen sie, damit das (bekannte) Klima zu prophezeien vom Startzeitpunkt bis heute. Es gibt viele adjustierbare Parameter in den Modellen, und dreht man an diesen nur ausreichend herum, kann man das Modell an die Historie „anpassen“.

Scheint das Modell erst einmal historische Daten gut genug reproduzieren zu können, wird es auf die Zukunft losgelassen. Dabei schwingt die Hoffnung, dass – selbst wenn die Modelle nicht perfekt sind – eine vernünftige Bandbreite von Prophezeiungen herauskommen wird, falls verschiedene Personen unterschiedliche Frisierungen zu unterschiedlichen Zeiten anbringen. Aus dieser Bandbreite könnte man vielleicht ein paar Hinweise auf die Zukunft gewinnen.

Unglücklicherweise wurden diese Hoffnungen nur zu oft immer wieder enttäuscht. Das El Nino-Phänomen ist ziemlich gut bekannt, es hat eine bedeutende Auswirkung auf das globale Klima – und dennoch ist kein einziges der Modelle in der Lage, dieses zu berücksichtigen. Genauso können die Modelle auch nicht Hurrikane abbilden – der Scale 5 km X 5 km ist einfach zu grob. Sie können lokale Klimate nicht abbilden – eine Stichprobe von zwei Gebieten, die nur etwa 5 km auseinander liegen und von denen es in dem einen Gebiet jährlich 2000 mm Regen gibt, in dem anderen aber nur um 250 mm scheiterte kläglich. Gut wurden die Wind- und Temperaturdaten sowie die lokale Topographie abgebildet. Man hatte mit einem sehr engen Netz gearbeitet, aber da gab es nicht ausreichend Regelknöpfe, um dieses Modell mit der Historie in Einklang zu bringen.

Sogar die in diesen Modellen angewandten Grundlagen der Physik scheitern. Die grundlegende Physik prophezeit, dass sich die obere Atmosphäre zwischen den beiden Wendekreisen schneller erwärmen sollte als die Oberfläche. Regelmäßig steigen Wetterballone mit Thermometern in diesem Gebiet auf. Es gibt drei separate Ballon-Datensätze, und sie alle stimmen darin überein, dass es keinerlei Anzeichen einer zusätzlichen Erwärmung gibt:


[Die Graphik erscheint auch im Original so unscharf. Anm. d. Übers.]

Die schwarzen Quadrate zeigen das Mittel der drei Datensätze. Die Höhe wird in Druckeinheiten angegeben; 100.000 Pascal am Boden und 20.000 Pascal in einer Höhe von etwa 9 km. Es gibt 22 verschiedene Modelle, und deren Mittel zeigt die schwarze Linie. Am Boden zeigt die Messung eine Erwärmung um 0,1°C pro Jahrzehnt, aber die Modelle prophezeien 0,2°C pro Jahrzehnt. In 9 km Höhe zeigen die Messungen immer noch eine Erwärmung um 0,1°C, die Modelle jedoch im Mittel 0,4°C, in Extremfällen bis 0,6°C. Modelle,die um einen Faktor 4 oder mehr falsch sind, können nicht als wissenschaftlich bezeichnet werden. Sie sollten nicht einmal zur Veröffentlichung angenommen werden – sie sind falsch.

Die Hypothese, dass wir auf der Grundlage von Modellen, die sich schon jetzt als falsch herausgestellt haben, das zukünftige Klima vorhersagen können, ist falsch. Internationale Abkommen, den zukünftigen Temperaturanstieg auf X°C über das vorindustrielle Niveau begrenzen zu können, hat mehr mit des Kaisers neuen Kleidern zu tun als mit Realität.

Der dritte Schritt zu unserem Verständnis der Klima-Zeitverschwendung kann also nur lauten, ja, die Welt erwärmt sich, aber um wie viel und warum – davon haben wir keine Ahnung.

Wie könnten die Klimaauswirkungen einer wärmeren Welt aussehen? Was ist „Klima“? Es ist das Ergebnis der Mittelung einer klimatologischen Variable wie etwa Regenmenge oder Luftdruck, gemessen typischerweise einen Monat oder eine Jahreszeit lang, woraus dann über viele Jahre hinweg ein Mittel gebildet wird, als ob man einen Hinweis auf das Wetter bekommen würde, das man in einem Monat oder während der nächsten Jahreszeit erwarten kann.

Zweitens, wir müssen die Bedeutung von „Änderung“ verstehen. In diesem Zusammenhang bedeutet Änderung eindeutig, dass der Mittelwert einer klimatologischen Variable über X Jahre von dem Mittelwert der gleichen Variable über einen anderen Zeitraum von X Jahren abweicht. Aber schon jetzt ist offensichtlich, dass sich das Wetter von Jahr zu Jahr ändert, weshalb es eine natürliche Variation des Klimas von einem Zeitraum von X Jahren zu einem anderen Zeitraum von X Jahren gibt. Daher muss man wissen, wie groß X sein muss, um die natürliche Variabilität zu berechnen und damit zuverlässig irgendwelche Änderungen des gemessenen Klimas zu entdecken.

Dieser Aspekt von „Klimawandel“ scheint in der gesamten bisherigen Debatte übersehen worden zu sein. Man scheint anzunehmen, dass es ein „präindustrielles“ Klima gab, welches man viele Jahre lang messtechnisch erfasst hatte, bevor die Industrie ein wesentlicher Faktor unserer Existenz geworden ist und dass sich das Klima, das wir heute messen, statistisch von jenem hypothetischen Klima unterscheidet.

Das Problem dabei ist natürlich, dass es nur sehr wenige tatsächliche Daten aus jenen präindustriellen Tagen gibt, so dass wir nichts in der Hand haben, um zu erkennen, wie das Klima damals wirklich war. Es gibt keine Grundlinie, von der aus wir eine Änderung messen können.

Angesichts dieser Schwierigkeit haben die Protagonisten des Klimawandels die Hypothese modifiziert. Es wird jetzt kolportiert, dass die beobachtete Erwärmung der Erde das Klima dergestalt ändern wird, dass Extremwetterereignisse immer öfter auftreten. Dies beseitigt die Schwierigkeit jedoch nicht, sondern verschlimmert sie noch.

Zur Illustration nehme man an, dass ein Extremereignis eines ist, dass außerhalb der 95%-Wahrscheinlichkeits-Bandbreite liegt. Also würde man im Verlauf von 100 Jahren im Mittel 5 solcher Extremereignisse erwarten. Anstatt dass man 100 Jahre mit Daten heranzieht, um das mittlere Klima zu ermitteln, gibt es jetzt nur fünf Jahre, um eine mittlere Schätzung des Extremereignisses zu erhalten, und der relative Fehler bei der Mittelung von 5 variablen Ereignissen ist offensichtlich viel größer als der relative Fehler bei der Mittelung von 100 variablen Ereignissen.

Die Daten der Regenmenge von England und Wales zeigen dies ziemlich überzeugend:

Die trendbereinigten Daten sind eng um die Normale verteilt, so dass es sinnvoll ist, hierfür die normale Statistik zu bemühen. Die 5%-Grenzen sind folglich zwei Standardabweichungen auf je einer Seite des Mittels. Im Laufe der 250-jährigen Aufzeichnung würde man 12,5 Extremereignisse erwarten (jene außerhalb der 95%-Grenze). Tatsächlich erfordert es 250 Jahre, um eine vernünftige Schätzung (innerhalb von 12%) nur bzgl. der Häufigkeit extremer Regenmengen vornehmen zu können. Es gibt keine Möglichkeit, irgendwelche Änderungen dieser Häufigkeit aufzufinden, was jedoch nötig wäre, um „Klimawandel“ zu zeigen.

Tatsächlich ist die Lebensspanne eines Menschen unzureichend, um auch nur die Häufigkeit von Extremereignissen herauszufinden. Während aufeinander folgenden 60-Jahre-Perioden gibt es 2, 4, 2 und 2 Ereignisse, ein Mittel von 2,5 Ereignissen mit einer Standardabweichung von 1,0. Es gibt eine Wahrscheinlichkeit von 95%, innerhalb von 60 Jahren zwischen 0,5 und 5,5 Ereignisse zu erleben, wo 3% (5% von 60) erwartet werden. Viele Lebensspannen sind erforderlich, um die Häufigkeit mit hinreichender Genauigkeit zu bestimmen, und noch viel mehr Lebensspannen, um irgendwelche Änderungen der Häufigkeit zu finden.

Man weiß, dass es seit mindestens 150 Jahren wärmer geworden ist. Falls die Erwärmung zu mehr Extremwetter geführt haben sollte, hätte man erwarten können, dass es einige Beweise für eine Zunahme von Extremereignissen während dieses Zeitraumes gebe. Die Main-Stream-Presse versucht uns das mit Sicherheit weiszumachen, wenn es zu einem offensichtlich heftigen Sturm kommt. Aber keiner der klimatologischen Indikatoren, von denen Daten seit mindestens 100 Jahren vorliegen, zeigt auch nur Spuren von Anzeichen einer Zunahme extremer Ereignisse.

Zum Beispiel gab es viele Behauptungen, dass tropische Zyklone an Häufigkeit und Stärke zunehmen. Die WMO berichtet: „Es bleibt unsicher, ob Änderungen der Aktivität tropischer Zyklone in der Vergangenheit über die aus natürlichen Gründen zu erwartende Variabilität hinausgeht“.

Es stimmt, dass die Schäden durch Zyklone zunehmen, aber dies liegt nicht an extremerem Wetter. Es ist die Folge einer immer stärkeren Bebauung, und jedes Bauwerk ist verwundbarer als vor 20 oder mehr Jahren. Daten aus über ein Jahrhundert wurden sorgfältig analysiert, um zu dieser Schlussfolgerung zu kommen. Der IPCC-Bericht stimmt hinsichtlich Extremereignisse damit überein.

Es ist sehr unwahrscheinlich, dass Extremwetter jedweder Art irgendeinen Teil unseres Planeten unbewohnbar macht – darunter sind Dürren, schwere Stürme und Orkane. Tatsächlich ist dies keine allzu große Überraschung – die Menschheit hat gelernt, mit Extremwetter umzugehen, und Menschen bevölkern Gebiete von den kältesten bis zu den heißesten Regionen, vom Meeresspiegel-Niveau bis in Höhen, wo man nach Luft ringen muss. Wir sind nicht nur anpassungsfähig, sondern wir haben auch gelernt, Strukturen zu schaffen, die uns vor den Kräften der Natur schützen.

Natürlich ist ein solcher Schutz nicht kostenlos zu haben. Nicht jeder kann sich die Strukturen leisten, die für ihren Schutz erforderlich sind. Dörfer werden regelmäßig von Stürmen schwer beschädigt, die in den meisten modernen Städten kaum Schäden hinterlassen würden. Flut-Kontrollmaßnahmen sind ausgelegt auf Ereignisse, die einmal während 100 Jahren auftreten, und im Allgemeinen funktionieren sie auch – während arme Länder, deren tief liegende Gebiete regelmäßig überschwemmt werden, sich dringend geeignete Schutzmaßnahmen wünschen.

Tatsächlich ist es eine Herausforderung für die Fähigkeit von Ingenieuren, Schutzmechanismen gegen alle Arten natürlicher Kräfte zu entwickeln. Beispiel: Das Erdbeben vor Japan mit der Magnitude 9 (welches den Tsunami auslöste, der die Reaktoren von Fukushima zerstörte), hat nur wenig Gebäudeschäden verursacht, während es zuvor im gleichen Jahr bei Erdbeben mit einer Magnitude von „nur“ 7 in Wellington, Neuseeland, zu schweren Gebäudeschäden gekommen war. Dabei wurde die Kathedrale von Wellington zerstört, die nicht darauf ausgelegt war, Erdbeben zu widerstehen.

Wir sollten keine Angst vor Extremwetterereignissen haben. Es gibt keinerlei Beweise, dass diese irgendwie stärker sind als in der Vergangenheit, und die meisten von uns können angemessen darauf reagieren. Natürlich werden unsere Schutzmaßnahmen irgendwann nicht ausreichen, aber normalerweise geht dies auf menschliches Versagen zurück und nicht auf exzessive Naturkräfte. Hier beim vierten Schritt unserer Reise können wir schon sehen, wie die Klimawandel-Hypothese strauchelt und zu Fall kommt.

In gleicher Weise erweisen sich die meisten der anderen Angst-Stories bzgl. „Klimawandel“ als Unsinn, wen sie mit realen Daten getestet werden. Die Eisbären verschwinden nicht von der Erde: tatsächlich kann die International Union for the Conservation of Nature während der letzten 400 Jahre keine Änderung der Verlustrate von Spezies erkennen. Die Temperatur war niemals ein starker Indikator für die Ausbreitung von Malaria – das Fehlen entsprechender Maßnahmen bzgl. der menschlichen Gesundheit ist hierbei eine kritische Komponente. Spezies wandern, aber ob die Temperatur dafür der Treiber ist, ist zweifelhaft – angesichts täglicher und jahreszeitlicher großer Temperaturänderungen ist es sehr unwahrscheinlich, dass eine kleine Änderung der Mitteltemperatur dafür die Ursache ist. Gletscher schmelzen, aber die Welt ist wärmer, so dass dies nicht unerwartet kommt.

Eine letzte Frage bleibt übrig: Wird der Meeresspiegel steigen und unsere Küstengebiete verschlucken?

Zunächst muss man erkennen, dass der Meeresspiegel steigt. Das hat er schon während der letzten 25.000 Jahre getan. Allerdings ist er während der letzten 7 Jahrtausende langsamer gestiegen als jemals zuvor:

Die kritische Frage lautet, ob die beobachtete geringe Anstiegsrate als Folge eines sich erwärmenden Klimas zugenommen hat. Es gibt viele Beweise dafür, dass dies nicht der Fall ist. Einer davon sind langzeitliche Daten von Tiden-Messstationen. Sie müssen mit Vorsicht behandelt werden, weil es Gebiete gibt, in denen sich das Land absenkt (wie der Golf von Mexiko, wo der vom Mississippi herangeschwemmte Schlamm schwer auf der Kruste liegt), während sich andere Gebiete heben (wie der größte Teil von Skandinavien, wo die Last eines viele tausend Meter dicken Eispanzers vor 10.000 Jahren verschwunden ist). Eine typische langzeitliche Tiden-Messreihe gibt es aus New York:

Der Trend von 1860 bis 1950 betrug 2,47 bis 3,17 mm pro Jahr; der Trend im Zeitraum 1950 bis 2014 2,80 bis 3,42 mm pro Jahr – beide mit einem 95%-Vertrauensniveau. Die Wahrscheinlichkeit, dass sich nach 1950 eine Beschleunigung zeigt,liegt unter 5%.

Ein weiterer Beweis kommt von den Satellitenmessungen des Meeresspiegels. Die folgende Abbildung zeigt die jüngsten verfügbaren Satelliten-Informationen – sie reichen aber nur bis zum Jahr 1993 zurück. Nichtsdestotrotz ist der Anstieg von 3,3 ± 0,3 mm pro Jahr vollkommen konsistent mit den Tidenmessungen:

Folglich weisen viele Beweislinien auf die gegenwärtige Rate des Anstiegs hin, die etwa 3 mm pro Jahr oder 30 cm pro Jahrhundert beträgt. Unsere bestehenden Schutzmaßnahmen gegen das Meer müssen mit täglichen Änderungen von vielen Metern fertig werden, und Sturmfluten mit einigen weiteren Metern. Die mittlere Höhe unseres Schutzes ist bis etwa 7 m über dem Meeresspiegel ausgelegt, so dass zusätzliche 0,3 m bis zum Ende dieses Jahrhunderts die Anzahl der Wellen etwas erhöhen wird, die über die Barrieren schwappen.

Das IPCC prophezeit, dass der Meeresspiegel in diesem Jahrhundert um 0,4 bis 0,7 m steigen wird. Angesichts der großen Bandbreite dieser Prophezeiung besteht die Möglichkeit, dass es recht hat. Wichtig ist jedoch, dass nicht einmal ein Anstieg um 0,7 m eine Katastrophe wäre, und zwar angesichts der Tatsache, dass unsere Schutzmaßnahmen schon jetzt meterhoch sind – sie um weitere 10% zu erhöhen während der nächsten 80 Jahre wäre kostspielig, aber wir hätten Jahrzehnte Zeit, diese Änderung vorzunehmen. Bis dahin sollte es mehr als hinreichend Warnungen geben, falls wirklich ein signifikanter Anstieg des Meeresspiegels erfolgt.

Unter dem Strich: Unsere fünf Schritte haben gezeigt:

● Die Verbrennung weiter zunehmender Mengen fossiler Treibstoffe hat die CO2-Konzentration in der Atmosphäre zunehmen lassen.

● Die physischen Auswirkungen dieser Zunahme sind auf keine wissenschaftliche Weise nachweisbar. Es mag eine gewissen Erwärmung der Atmosphäre gegeben haben, aber gegenwärtig liegt jedwede Erwärmung fast mit Sicherheit innerhalb der natürlichen Variation der Temperatur.

● Es gibt keine Beweise, weder für irgendeine Zunahme der Häufigkeit oder Magnitude von Wetterphänomenen noch für klimabezogene Änderungen der Biosphäre.

● Es ist unwahrscheinlich, dass jedweder Anstieg des Meeresspiegels in diesem Jahrhundert eine unüberwindbare Herausforderung ist.

Versuche, die globale Temperatur durch die Kontrolle von CO2-Emissionen zu beeinflussen, sind wahrscheinlich ebenso unnütz wie wirtschaftlich katastrophal.

Link: http://wattsupwiththat.com/2016/04/08/five-points-about-climate-change/

Übersetzt von Chris Frey EIKE




Gratis-Strom für alle: Warum kommt diese Erfindung erst jetzt? oder Generation Ökokuli

Bild rechts: Energiefahrrad „Free Electric“. Screenshot aus einem Werbefilm der Organisation Billions in Change

Was hat es mit diesem Gratis-Strom für alle auf sich?

Chip als technikaffine Zeitschrift beschreibt es wie folgt:

Die Strompreise steigen permanent – da kommt eine Erfindung wie diese genau richtig: Ein neu entwickeltes Fahrrad soll in nur einer Stunde so viel Energie erzeugen, dass sich damit ein einfacher Haushalt 24 Stunden betreiben lässt. Die Produktion startet noch in diesem Jahr.
Es klingt fast wie ein (Öko)Traum: Man schwingt sich eine Stunde aufs Fahrrad, verbessert die eigene Fitness, und produziert dabei genügend Strom, um damit den ganzen Haushalt betreiben zu können. Mit dem Bike “Free Electric” der Organisation Billions in Change soll genau das möglich sein. Die Idee dazu ist nicht neu, denn entsprechende Fahrräder sind seit Jahren auf dem Markt. Dennoch gibt es einen großen Unterschied: Die bisherigen Lösungen produzieren genügend Strom, um maximal eine Super-Öko-Energiespar-LED auf Sparflamme anzutreiben. Laut Manoj Bhargava, der hinter Billions in Change steht, soll sein Fahrrad in einer Stunde ausreichend Power für 24 Stunden Strom generieren. Ans Fahrrad angeschlossen ist ein Turbinengenerator, der eine Batterie speist.

Die ersten Geräte sollen im indischen Bundesstaat Uttarakhand getestet werden. Im Laufe des Jahres folgen laut Billions in Change 10.000 weitere Fahrräder, die ebenfalls in Indien zum Einsatz kommen.

Zum Schluss macht Chip ein paar Einschränkungen mit der Energiemenge, die sich so gewinnen lässt – aber an der guten Idee wird nicht gezweifelt.

Etwas Elektrotechnik

Wer auch nur ein bisschen etwas von Elektrotechnik versteht, ist gegenüber der Werbeaussage eher skeptisch. „Bisherige Lösungen“ waren schlecht und die neue ist bahnbrechend? Und das bei einer Technik, welche es seit über 100 Jahren gibt und seit mindestens 10 Jahren auch (Halbleiter-) technologisch praktisch nicht mehr zu verbessern ist – außer eben in der Werbung.

Im Werbefilm zeigt es sich ungewollt realistisch. Die Energie-radelnde Person generiert auf der (ganz kurz gezeigten) Anzeige ca. 11 V und 10 A, also 110 Watt. Wie man damit in einer Stunde mit dem Erradeln von 110 Wh einen „ausreichenden Enrgiebedarf für 24 h generiert, bleibt ein Geheimnis der Innovation.

Bild 2 Energieanzeige beim Energieradeln. Screenshot aus dem Werbefilm der Organisation Billions in Change

Eine einfache Elektrokochplatte für das Camping benötigt 1100 W. Um diese auf voller Leistung zu halten, müssten demnach 10 Personen parallel die Energie erradeln. Leider kann man damit nicht für 10 Personen gleichzeitig kochen, sondern vielleicht für zwei, drei. Also muss man länger radeln und nacheinander für die Radler kochen. Vielleicht sind dann nach ein paar Stunden alle bekocht – bis auf die Kochenden, denn die energieradeln ja nicht -. Wer nun mehrere Stunden ununterbrochen so fest energie-durchgeradelt hat bekommt dadurch aber bestimmt gleich wieder einen gewaltigen Hunger.

Schlimm wird es, wenn die Nacht beginnt. Denn nun muss man auch noch für die Beleuchtung der Kochstelle und des Ruheraumes mitradeln. Und nach einer so schweißtreibenden Öko-Kuli-Radelei will man vielleicht auch duschen. Also für die Duschpumpe noch etwas radeln, und wenn man dazu vielleicht etwas warmes Wasser will, eben noch einmal. Gerade zu ein Glück, dass man zum Schlafen nicht parallel weiter-radeln muss (ausser man stellt dabei so unökologische Ansprüche wie eine Heizung oder Klimaanlage).

Fazit: Die Energieradler befinden sich in einem endlosen Energieradel-Hamsterrad (gab es früher im Bergbau, wurde damals aber gelaufen und verschwand wohl deshalb).

Aber immerhin, designerisch erscheint das Energiefahrrad dagegen schon als Innovation.

Wie ist der monetäre Wert des Energieradelns zu bewerten

Der deutsche Mindestlohn beträgt Brutto 8,5 EUR. Somit beträgt der Netto-Energieradel-Abgabepreis einer einzigen KWh bei durchgängiger 100 % Radelleistung ohne auch nur ein Quentchen Gewinn gemacht zu haben abgerundet 77,2 EUR. Selbst wenn 1 EUR-Jobber dafür radeln, kostet die kWh mit 9,1 EUR noch immer viel zu viel. Daran würden sogar unsere Grünen mit dem Wunsch nach einem 1 EUR kWh-Preis nichts ändern.

Kohlestrom und auch jeder andere kostet so um die 4 … 6 ct / kWh, wenn es zwangsweise EEG sein muss aktuell eher 10 … 20 ct / kWh Gestehungskosten. Auch in armen Ländern ist Elektroenergie – so man sie bereitstellen will – nicht wesentlich teurer zu erzeugen.

Damit kann man ahnen, welchen Preis ein Energieradler in der dritten Welt (denn dafür ist die Innovation gedacht) erwirtschaften kann und auf welchem erbärmlichen Niveau damit sein Verdienst liegen wird.

Aber halt, es gibt doch den 100 Milliarden US$ Klimaopferfond. Bestimmt werden die künftigen Energieradler der dritten Welt daraus „versorgt“. Und dann wird daraus eine bewundernswerte, ökologische, nachhaltige, Welt-rettende WIN WIN WIN Situation für alle (werden) – ein innovatives Erfolgsmodell wie es das eben sonst nur noch in (sozialistischen) Märchen gibt.

Wahre Innovation erkennt nicht jeder

Irgend eine ganz besondere, Welt-rettende und vom Normalbürger bisher noch nicht erkannte Eigenschaft muss dem Fahrrad innewohnen. Warum wohl sonst radeln die Chinesen und Inder (und Holländer) so viel? Haben die unsere westliche Zeitrechnung ohne es zu wissen einfach überradelt? Bestimmt ist es kein Zufall, dass sich unsere – damit wieder einmal hoch-innovativ ausweisende – Klimawandel-Fachfrau Dr. Hendricks ebenfalls intensiv damit beschäftigt hat „Aktionsprogramm Klimaschutz – Frau Hendricks fördert Investitionen für Lastfahrräder zur CO2-Minderung“.

Das hat der Autor damals belächelt – eben nur ein Normalbürger und damit Asche aufs Haupt. Wahre Innovationen erkennen wirklich nur ökologisch nachhaltige Außerwählte. Vielleicht würde es auch helfen, Gehirn-Doping einzunehmen wie manche Grünen Politiker.

Ein Glück, dass wir hier nicht die Verhältnisse von Nordkorea haben. Nicht auszudenken was passiert wäre wenn der Autor es da gewagt hätte, eine solch innovative Eingebung einer großen Vorsitzenden nicht gleich als das was es wirklich ist erkannt zu haben.

Nachtrag

In den Zeitungen kam gerade, dass die United Nations Organization (UNO) als Millenniumsziel daran „arbeitet“, die bitterste Armut auf der Welt zu beseitigen. Als bitterarm gilt nach der UNO jemand, wenn er weniger als 1,25 US$ / Tag verdient.

Doch selbst dieses niedrige Einkommen ist durch Energieradeln niemals auch nur entfernt möglich – ein absolut treffendes Beispiel was Energiearmut wirklich bedeutet. Aber wenn Armut zur Klimarettung der Welt notwendig ist, muss man sie positiv sehen und umsetzen – und (in deutschen Medien) auch so publizieren.




Nachgefragt: BR Programm 14.3.2016, Sendung: „Jetzt mal ehrlich Verstrahltes Bayern: Wie viel Wahrheit ist uns zumutbar?“

Zur BR Programm 14.3.2016, Sendung: „Jetzt mal ehrlich  Verstrahltes Bayern: Wie viel Wahrheit ist uns zumutbar?“

 

 

Bild 1, Startbild zur BR-Sendung

Um den Jahrestag von Fukushima erinnerte der BR in einer Reportagesendung auch an das Reaktorunglück von Tschernobyl. Ein junger, hyperaktiver Moderator fuhr durch Bayern und spürte die schlimmen Strahlenauswirkungen auf, welche das damalige Atomunglück in Bayern hinterlassen hat.

Jeder darf seine Meinung kundgeben. Wenn eine Sendung aber mit Wahrheit tituliert wird, sollte solche auch enthalten sein. Der Autor hat darin jedoch eine lupenreine Anti-Atomkraft-Propagandasendung gesehen welche darin gipfelte, dass der Moderator mit half, ein Anti-Atomkraft-Transparent an einem AKW-Zaun anzubringen.

Reportagebeispiele und inhaltliche Kritik

Sendungs-Startbild

Im Startbild zur Sendung hält jemand einen Geigerzähler mit der Anzeige 0,1 µSw in den Händen.

Kritik

0,1 µSw ergeben hochgerechnet 8,8 mS / pa.  Das ist nicht wenig, aber auch nicht übermäßig viel. Eine Gefahr für die Gesundheit ist dadurch nicht im Entferntesten vorhanden.

[1] Erst 100 Millisievert gelten als gefährlicher Grenzwert: Die Wahrscheinlichkeit für einen Anstieg von Krebserkrankungen steigt, wenn der Mensch mindestens in dieser Größenordnung ein Jahr lang durch Strahlen belastet wird. Eine Einzeldosis von 1000 Millisievert führt zu einer Strahlen-Erkrankung mit Symptomen wie Übelkeit, ist aber nicht tödlich.

Natürliche Strahlenbelastungen

Die natürliche Radioaktivitätsbelastung in Deutschland beträgt etwa 2,5 (mSv = Millisievert) im Jahr (Radon-Gas der Luft, kosmische und terrestrische Strahlung, Essen und Trinken sowie Baumaterialien). Doch gibt es große Unterschiede wie die folgenden Beispiele zeigen:

—  Im Schwarzwald bis zu 18 mSv [1]

—  In einigen Gegenden auf diesem Planeten sogar bis 200 mSv im Jahr (Brasilien und Iran)
—  Arbeitsrechtlich darf die Dosisleistung 20 mSv pro Jahr = 10 µSv/h (bei 2000 Arbeitsstunden), nicht überschreiten.

Szenen Umhergehen in „verstrahlter“ Landschaft

In der Reportage selbst wird viel mit einem Geigerzähler in der Landschaft „umhergegangen“, wobei ein ausgewiesener Anti-Atomkraft Aktivist und der Moderator abwechselnd über hohe Strahlenwerte klagen, nie jedoch Werte angegeben oder zeigen. Der Aktivist erklärt, dass es  10 Halbwertszeiten – also 300 Jahre – dauert, bis die Strahlung von Tschernobyl in Bayern verschwunden ist.

Kritik

Nach 10 Halbwertszeiten beträgt die Reststrahlung 0,1 %. Aktuell zeigt wohl ein „Hotspot“ (Startbild, in der Reportage selbst werden nirgends irgendwelche Daten zu Bodenwerten genannt) den der Moderator ausfindig gemacht hat 0,1 µSw (8,8 mS / pa). Nach 2 Halbwertszeiten, also 60 Jahren ist diese Strahlung auf das Maß der durchschnittlichen natürlichen Belastung gesunken. Ab diesem Wert und demnach nach 60 Jahren kann von „verschwunden sein“ gesprochen werden und nicht erst bei einer Reduzierung auf 0,1 % (0,088 mS / pa) mit 300 Jahren.

Das Bayerisches Landesamt für Umwelt hat bereits 2011 eine kleine Broschüre: FAQs zum Jahrestag „25 Jahre Tschernobyl“  veröffentlicht. Darin steht:

[2] Die Strahlenexposition des bayerischen Bürgers durch Tschernobyl ist heute kleiner als 0,01 mSv  (1 Hunderstel MilliSievert) pro Jahr. 

Zum Vergleich:   Die durchschnittliche Strahlenexposition des deutschen Bürgers durch die natürliche Radioaktivität beträgt ca. 2,4 mSv pro Jahr.

Dazu ein Bild aus einer LfU-Broschüre. Wo her wirkliche Gefahren kommen könnten ist darin gut zu sehen.

 

Bild 2 [3] Verschiedene Strahlenquellen im Vergleich

Von einer bedrohlichen, durch Tschernobyl oder auch durch Deutsche Kernkraftwerke verursachten Strahlenbelastung der bayerischen Bürger kann demnach wohl kaum die Rede sein.

Szene Nach dem Aufstellen des Maibaums „juckte“ die kontaminierte Haut

Der Moderator fährt in seinen Heimatort Gersthofen bei Augsburg.

Moderator: „… bei Gersthofen schaut es ja nicht so gut aus, ist ziemlich belastet gewesen“, dann sinngemäß:  … vier Tage nach Tschernobyl wurde von der Dorfjugend bei Regen mit nacktem Oberkörper der Maibaum aufgestellt. Am Tag danach soll es den Leuten  am Körper gejuckt haben.

Kritik

Zu dieser Szene hat der Autor beim BR nachgefragt, auf welcher Datenbasis diese Aussage referiert. Begründung: Ein solch schneller Strahleneffekt am Körper ist bei der geringen möglich gewesenen Kontamination strahlenmedizinisch unmöglich.

Vom BR kam eine Antwort:

Unser Moderator Rainer Maria Jilg schildert ganz persönliche Erinnerungen aus seiner Kindheit. Er zitiert zudem Erinnerungen anderer Zeitzeugen, die subjektiv ein Jucken auf der Haut vernommen haben wollen. Es handelt sich dabei ganz klar und unmissverständlich um persönliche und subjektive Schilderungen und Eindrücke unseres Moderators. Dass diese nicht auf strahlenmedizinischen Untersuchungen basieren, geschweige denn basieren müssen, versteht sich von selbst.

Szene Messen kontaminierter Pilze

Man geht in das Anti-Atomkraft-Umweltinstitut München. Die Institutsleiterin untersucht getrocknete Maronenröhrlinge, Befund: 5225 Becqerel / kg. Die Institutsleiterin sagt, dass der Grenzwert für diese im Moment gemessenen Pilze 600 Bq/kg beträgt, was der Moderator entsprechend alarmistisch kommentiert.

Kritik

Der Grenzwert für Trockenpilze darf bei Trockenpilzen mit dem 10-Fachen gegenüber Frischpilzen gesetzt werden. Das kann man googeln und / oder nachfragen.

Auf die Nachfrage des Autors beim in der Reportage messenden Umweltinstitut e.V. München kam die folgende Antwort:

… vielen Dank für Ihre Nachfrage.

Tatsächlich gibt es in der EU nur zwei Grenzwerte:
– 370 Bq/kg für Milch, Milchprodukte und Säuglingsnahrung
– 600 Bq/kg für alle übrigen Lebensmittel
Einen eigenen Grenzwert für getrocknete Pilze gibt es unseres Wissens nicht. Es ist allerdings richtig, dass für die Umrechnung von Trockenmasse auf Frischmasse bei Pilzen der Faktor 10 in etwa herangezogen werden kann.

Man kann auch bei einem zuständigen Amt nachfragen. Das ist eventuell etwas langwieriger, da so man das falsche erwischt hat dieses die Anfrage nicht einfach weiterleitet, sondern mit der lieben Bemerkung zurückgibt, „man möge sich bitte an das zuständige Amt wenden“. Aber übermäßig schwierig ist es nicht.

Zu guter Letzt gab die Pressestelle des Bayerischen Landesamtes für Gesundheit und Lebensmittelsicherheit (LGL) die folgende Antwort:

Aufgrund der Empfehlung der Kommission 2003/274/Euratom gilt der in der VO (EG) 733/2008 aufgeführte Grenzwert von 600 Bq/kg auch für Pilze. Der Grenzwert von 600 Bq/kg bezieht sich im Falle von Pilzen auf das Gesamtgewicht und nicht auf die Trockenmasse.

Pilze verlieren beim Trocknen ca. 90 %  ihres ursprünglichen Gewichtes. Daher wird der ermittelte Radiocäsiumwert (Leitnuklid: Cäsium 137) der getrockneten Pilze durch den Korrekturfaktor 10 dividiert. Dies würde bei dem von Ihnen angegebenen Cäsium 137 Messwert der getrockneten Pilze von 6000 Bq/kg, einen Cäsium 137 Gehalt bezogen auf die Gesamtmasse, von 600 Bq/kg ergeben.

Der dazu angesprochene BR antwortete:

Text der Nachfrage:

Zu den Grenzwerten bei Trockenpilzen: " Meiner Information nach beträgt der Grenzwert für Trockenpilze das Zehnfache des Wertes für ungetrocknete, also 6.000 bq/kg (was für Trockenpilze auch physikalisch vernünftig erscheint). Damit lag die Belastung der gemessenen Pilze weit innerhalb der Grenzwerte.

BR-Antwort:

"Woher haben Sie diese Information? Auf welchen wissenschaftlichen Grundlagen fußt diese? Laut unseren Recherchen sind die Grenzwerte für alle Wildpilze gleich, egal, ob es sich um  getrocknete, eingelegte oder frische Pilze handelt.

Szene erhöhte Leukämiegefahr für Kinder um Atomkraftwerke

Und weiter geht es im Film. Beim Heranfahren des Moderators an „die Gefahr“ immer durch ein penetrantes, schicksalschwangeres Pochen untermalt. Mit einem Aktivisten von „Ärzte gegen Atomkraft“ (IPPNW) wird die  KiKK-Studie diskutiert.

Anm.: In dieser Studie wurde die Wahrscheinlichkeit des gehäuften Auftretens von Leukämie an Kindern bis 5 Jahren im Umkreis von 5 km um KKWs in Deutschland untersucht.

Der Moderator erklärt: ... im 5 km Umkreis von KKWs ist diese Krebsrate doppelt so hoch. Der Arzt antwortet dazu: „ Wenn man erkennt, dass der Normalbetrieb eines KKW Kinder krank macht dann gibt es nur eine Konsequenz, das AKW abschalten“. Der Moderator ergänzt: „… unglaublich, da liefert eine Studie klare Ergebnisse, aber die müssen dann weiter bewiesen werden ….“

Kritik

Die KiKK-Studie

Die KiKK-Studie[4]  ergab in Deutschland wirklich eine zusätzliche Wahrscheinlichkeit um einen 5 km-Radius von Atomkraftwerken. Diese beträgt statistisch um alle deutschen KKWs zusätzliche 0,8 Erkrankungen im Jahr. Ergänzend heißt es dazu in der Studie:

 — [4] Diese Schätzungen sind wegen der zugrunde liegenden kleinen Fallzahlen mit erheblicher Unsicherheit behaftet

Weiter steht In der Studie dazu, dass dies physikalisch nicht erklärbar ist:

[4] So wird für eine 50 Jahre alte Person, deren Wohnsitz sich in 5km Entfernung zum Kernkraftwerk befindet, eine kumulative Exposition gegenüber luftgetragenen Emissionen von 0,0000019 mSv (milli Sievert) (Obrigheim) bis 0,0003200 mSv (Gundremmingen) erwartet. Die jährliche natürliche Strahlenexposition in Deutschland beträgt etwa 1,4 mSv, die jährliche durchschnittliche Exposition durch medizinische Untersuchungen etwa 1,8 mSv. Demgegenüber ist die Exposition mit ionisierender Strahlung in der Nähe deutscher Kernkraftwerke um den Faktor 1.000 bis 100.000 niedriger. Vor diesem Hintergrund ist nach dem derzeitigen wissenschaftlichen Erkenntnisstand das Ergebnis unserer Studie nicht strahlenbiologisch erklärbar.

Auch ist bekannt, dass in ländlichen Gegenden signifikante Leukämie-Cluster zu finden sind. Auch dieser über Deutschland verteilte Effekt ist nicht erklärbar. Nun sind die KKW-Standorte meistens „in ländlichen Gegenden“. Die Studie untersuchte aber nicht ob sich unter dieser Berücksichtigung die festgestellte (kleine) Leukämiehäufigkeit nivellieren würde.

Ein erklärendes Dokument aus der Schweiz

Mit nur ein bisschen Engagement lässt sich aber Ergänzendes finden und zwar in der Schweiz.

Ein Wissenschaftsteam hat die verschiedenen dazu durchgeführten Studien zusammengetragen, analysiert und die Inhalte und Bewertungen in einer Broschüre zusammengefasst. Allerdings ist dieses Wissenschaftler-Forum erkennbar nicht anti-atomkraftaktivistisch polarisiert:

Das „Forum Medizin und Energie“ (FME) ist ein überparteilicher und breit abgestützter Verein. Die Mitglieder des
FME sind Ärztinnen und Ärzte aus Praxis und Forschung.
Das FME wurde 1984 von Prof. Dr. Martin Allgöwer (1917–2007), ein bekannter Schweizer Arzt und Chirurg, gegründet. Das FME hat sich zum Ziel gesetzt, die Schnittstellen zwischen menschlicher Gesundheit und Energie zu erforschen. Zur Zeit umfasst das FME rund 200 Mitglieder aus der ganzen Schweiz.

Die Broschüre nennt sich:

Forum Medizin und Energie, Postfach, 8040 Zürich, 2012: Kinderleukämie und Kernkraftwerke – (K)Ein Grund zur Sorge?  Grundlagen, Studien, Analysen. Dritte, erweiterte Auflage

Die Schlussfolgerung in dieser Broschüre lautet:

Welche Schlussfolgerungen sind aus den gesammelten Daten zu ziehen? Die Gesamtheit der Studien zeigt, dass
eine Nachbarschaft zu einem Kernkraftwerk generell kein erhöhtes Leukämierisiko bedeutet. An den meisten Kraftwerkstandorten war entweder nie eine Häufung von Leukämiefällen feststellbar, oder sie liess sich bei weiterer Beobachtung nicht bestätigen. An einzelnen Standorten sind vermehrt Krankheitsfälle aufgetreten, doch deren absolute Anzahl liegt in einem Bereich, der sich auch bei anderen Risiken findet: Wohlhabende Lebensumstände, großzügige Wohnverhältnisse und eingeschränkter Kontakt zu anderen Kleinkindern.

Es ist ein Trugschluss, die radioaktiven Emissionen eines Kernkraftwerkes für das Risiko einer Leukämieerkrankung verantwortlich zu machen. Würde nämlich der Entstehungsmechanismus der Krankheit über die ionisierende Strahlung laufen, müsste sich auch die erhöhte Radioaktivität aus natürlichen Quellen in größeren Zahlen der Kinderleukämieerkrankungen niederschlagen. Die bekannten strahleninduzierten Tumoren bei Erwachsenen dürften dabei nicht ausgespart bleiben. Und auch die bekannten Reaktorunfälle mit Auswirkungen auf die Umgebung oder die erhöhte C-14-Belastung während der Kernwaffenversuche der 50er- und 60er-Jahre führten in keinem Fall zu einer Erhöhung der Leukämiehäufikeit, die entsprechend den Proportionen hätte immens ausfallen müssen.

In dieser (interessanten) Broschüre ist auch eine schweizerische Studie gelistet, welche parallel zur KIKK-Studie speziell deren Thematik analysierte, Ergebnis:

Die Öffentlichkeit hat teilweise mit Erstaunen auf das Studienergebnis reagiert, weil das Resultat von demjenigen der deutschen Studie von 2007 abweicht. Dazu ist festzuhalten, dass das Resultat der Schweizer Studie in Einklang steht mit der grossen Mehrheit der rund 50 internationalen Studien, die in den letzten 30 Jahren durchgeführt wurden. Es ist vielmehr die deutsche Studie, die ein „Ausreisser“ darstellt. Mehrheitlich kamen die Untersuchungen zum Schluss, dass kein erhöhtes Risiko für Kinderleukämie um KKW besteht.

Es ist zudem auf ein weiteres wichtiges Ergebnis der Studie hinzuweisen: Sie hat festgestellt, dass auch keine lineare Abstand-Wirkung-Beziehung besteht. Das heisst, dass es nicht immer mehr Fälle gibt, je näher man an einem Kernkraftwerk wohnt. Im Gegenteil, die Studie hat festgestellt, dass es teilweise sogar weniger Fälle gibt, je näher man an einem Kernkraftwerk wohnt.

Ein Vorwurf, der seinerzeit der deutschen Studie gemacht worden war, war der Umstand, dass die Wind-Richtung nicht berücksichtigt worden sei. Wenn ein ursächlicher Zusammenhang zwischen KKW und Kinderleukämie bestehen würde, so die Hypothese, wäre dafür auch die Abluft aus dem KKW-Kamin verantwortlich. Die Schweizer Studie hat die Windrichtung mitberücksichtigt und festgestellt, dass das Risiko unter Einbezug der Windrichtung sogar sinkt.

Wirklich auch gar nichts davon wurde in der Reportage erwähnt.

Denn es bieten natürlich keinerlei Basis für den Alarm welcher dazu berechtigen würde, alle KKWs wegen Leukämierisiko sofort abzuschalten, wie es der IPPNW-Aktivist unterstützt vom Moderator fordert.

Aber selbst wenn man beim Erstellen einer „die Wahrheit zeigenden“ Reportage nicht in der Lage oder Willens ist, dies zu recherchieren.

Wenn 0,8 statistische zusätzliche Krankheitsfälle im Jahr dazu „berechtigen“ sollen, 50 % der Energieversorgung eines Landes sofort abzuschalten, muss man weit vorher alle Autofahrten, Röntgenuntersuchungen, Kindergarten- und –Krippenbesuche und und und verbieten, da das damit verbundene Mortalitätsrisiko wesentlich höher ist.

Szene Interviews von Fachleuten einer für Strahlung zuständigen Behörde

Nun werden zwei Vertreter von mit Strahlung beauftragten Behörden interviewt. Diesen war das Interview erkennbar unangenehm (konnten dem aber wohl nicht entgehen) – denn so unwissend wie sie sich darstellten sollten zwei Promovierte in Führungspositionen kaum sein, außer sie wären eklatante Fehlbesetzungen -.  Jedenfalls ließen sie sich außer zu Allgemeinplätzen zu keinerlei hilfreichen Information, geschweige pro- oder kontra-Aussagen bewegen.

Kritik

Zu diesen zwei verbeamteten farblosen „Figuren“ erspart sich der Autor Kritik. Was erwartet man von einem  Beamten, dem jede ehrliche Aussage die Karriere gefährden könnte.

Reportage-Schluss

Nach etlichen in diesem Stil gedrehten weiteren Episoden endet die Reportage in einer Szene in welcher der Moderator einem Anti-Atomkraft-Aktivisten hilft, ein Demonstrationsplakat an einem KKW-Zaun zu befestigen sowie der Schluss-Aussage des Moderators, dass er die Abschaltung aller deutschen KKWs begrüßt.

Schlusskritik

Es ist dem Autor ein Rätsel, wie ein öffentlicher Sender auf die Idee kommen kann, eine derart offensichtliche Propagandasendung drehen zu lassen und zur besten Sendezeit anzubieten. 

Der Moderator ist laut seiner Vita studierter Musiker und Dipl.- Ing (FH) für Medien. Das ist nichts Schlimmes, sogar beachtenswert – jedoch sind damit besondere Kenntnisse auf dem Fachgebiet Strahlung eher nicht zu erwarten – was der / die Verantwortliche beim BR hätten ahnen können. Trotzdem durfte er eine Fachreportage dazu frei moderieren. Und niemand hielt es für erforderlich, auf die vollkommen fehlende Ausgewogenheit und eklatanten sachlichen Fehler hinzuweisen.

Dass des Bürgers Zwangsbeitrag mit der Bereitstellung von ausgewogener Information begründet wird scheint man beim BR nicht mehr zu wissen, bzw. zu ignorieren, schließlich kann der zahlende Bürger den BR ja nie abwählen.

persönliche und subjektive Schilderungen und Eindrücke“ dieser Art sind jedenfalls keine Information, geschweige „Wahrheiten“ für die der Autor freiwillig etwas bezahlen würde.

Mailadresse des BR: zuschauerservice@br.de

Quellen (sofern nicht im Text direkt angegeben)

[1]

FOCUS 18.03.2011: Strahlung unsere tägliche Dosis

http://www.focus.de/panorama/welt/tsunami-in-japan/wissenschaftliche-hintergruende/strahlung-unsere-taegliche-dosis_aid_609687.html

[2]eine7. Wie groß ist die jährliche Strahlenexposition in Bayern durch Tschernobyl heute?

Bayerisches Landesamt für Umwelt, 12. April 2011: FAQs zum Jahrestag „25 Jahre Tschernobyl“

[3]eine7. Wie groß ist die jährliche Strahlenexposition in Bayern durch Tschernobyl heute?

Bayerisches Landesamt für Umwelt, Publikation: UmweltWissen Strahlung  – Radioaktivität und Strahlung – Vorkommen und Überwachung

[4]

Umweltforschungsplan des Bundesumweltministeriums (UFOPLAN) Reaktorsicherheit und Strahlenschutz Vorhaben StSch 4334: Epidemiologische Studie zu Kinderkrebs in der Umgebung von Kernkraftwerken (KiKK-Studie) Zusammenfassung/Summary




Aber stimmt es auch? – Die Forschungen von Aaron Wildavsky 20 Jahre später

Das Verlangen nach Sicherheit ist dem Menschen angeboren, ist aber nichtsdestotrotz ein intellektuelles Laster. Solange die Menschen nicht geübt darin sind, von Urteilen über etwas ohne Beweise Abstand zu nehmen, werden sie durch sich todsicher gerierende Propheten in die Irre geführt, und es ist wahrscheinlich, dass ihre Führer entweder ignorante Fanatiker oder unehrliche Scharlatane sind. Unsicherheit zu ertragen ist schwierig, aber das gilt auch für die meisten anderen Tugenden“.

Die sich todsicher gerierenden Propheten sind Umweltaktivisten und Befürworter der globalen Erwärmung, die die Behauptung vor sich her tragen, dass sie die Einzigen Wissenden sind und die Einzigen, die sich um die Umwelt kümmern. Sie sind säkulare Missionare des neuen Paradigmas des Umweltaktivismus‘, welches sie zu einer Religion von Umweltaktivismus machten. 20 Jahre Doom-and-Gloom-Prophezeiungen von ihnen zusammen mit den von ihnen aufgerührten Ängsten erwiesen sich als unrichtig, während sich jene, die unrecht zu haben beschuldigt worden sind, als recht habend herausstellten.

Eine Verschiebung eines Paradigmas ist eine wichtige Änderung des Vorgehens oder der Hypothesen einer Gesellschaft, die alles in unterschiedliche Richtungen trägt; es kam mit der Verschiebung hin zu Umweltaktivismus. Die meisten Menschen akzeptieren ein neues Paradigma nur sehr zögerlich, weil sie die Änderung fürchten. Sie wissen, wenn es zu einer Änderung kommt, werden Einige geschädigt, und einige werden profitieren, aber die Furcht davor, geschädigt zu werden, steht im Vordergrund. Allerdings gibt es immer eine kleine Gruppe, die die Paradigma-Verschiebung aufschnappen und für ihre Agenda ausschlachten, entweder in finanzieller oder in politischer Hinsicht oder beidem. Sie werden zu „sich todsicher gerierenden Propheten“.

Wir alle sind Umweltaktivisten, aber einige Wenige griffen danach und behaupteten, dass nur sie sich um die Umwelt kümmern. Sie predigten uns dies aus moralisch hoher Perspektive. Globale Erwärmung wurde zum Zugpferd für ihre politischen Angriffe auf entwickelte Gesellschaften, weil sie nationale Grenzen überschritt und nach einer Eine-Welt-Lösung verlangte. Sie erzeugten und verbreiteten eine Vielfalt von Angst erzeugenden Stories über verschiedene Aspekte der Umwelt, um die Lüge am Leben zu halten. H. L.Mencken erklärte diese Objektive kurz und bündig mit zwei Aussagen:

Das ganze Ziel praktischer Politik ist es, die breite Masse im Alarmzustand zu halten (und ihnen daher lärmend vorzumachen, dass man sie in Sicherheit führen werde) mittels einer endlosen Folge von Kobolden und Geistern – die allesamt imaginär sind (hier).

Die Dringlichkeit, die Menschheit zu retten, ist fast immer die Maske für die Dringlichkeit, sie zu führen. Macht ist alles, was jeder Messias in Wirklichkeit anstrebt: nicht die Möglichkeit zu dienen. Das gilt selbst für die Pius-Brüder, die ihre Prinzipien nach außen tragen.

Die Stories bestehen aus einer Mischung von Makro- und Mikro-Dingen, die sich allesamt um die Behauptung ranken, dass sie eine direkte oder indirekte Folge der menschlichen Existenz sind, verschlimmert durch industriellen Fortschritt. Auf der Liste der Makros finden sich u. A. Wüstenbildung, Entwaldung, Aussterben von Spezies, Verlust von Habitaten, steigender Meeresspiegel, Zerstörung der Ozonschicht, gigantische Mülldeponien, Asbest-Kontamination, saurer Regen und Ozeanversauerung uvm. Die Liste der Mikros ist sogar noch länger und enthält u. A. die Erblindung von Schafen in Chile, deformiert geborene Frösche, geringere Spermazahlen beim Menschen, zerstörte Korallenriffe, eine Vielzahl von sinkenden Tierpopulationen, und so weiter und so fort, bis zum Erbrechen.

Ich weiß durch meine Mitarbeit in vielen Untersuchungsausschüssen, dass schon limitierte Ermittlungen sehr unterschiedliche Wahrheiten ans Licht bringen. Unter diesen Erfahrungen ist auch der Vorsitz in Anhörungen, um vermeintlichen Umwelt-Herausforderungen zu begegnen einschließlich der Bedrohungen für Luft, Boden, Wasser und Wälder. Ich war Vorsitzender des Hazardous Waste Committee [etwa: Komitee gegen übermäßigen Müll] der Stadt Winnipeg und habe Beweise erbracht für Verfahren, in denen es um Wetter, Klima und Umweltthemen ging. Der Unterschied zwischen der Berichterstattung in den Medien, dem öffentlichen Verständnis und den Fakten war riesig und erschütternd, aber trotzdem treiben diese Stories die öffentliche Politik. Nur wenige Politiker wagen es, sie in Frage zu stellen, und so erzeugen sie unnötige, ungeeignete und oftmals schädliche Politik. Wie moderne Kreuzfahrer streifen sie sich das grüne Mäntelchen über, nicht um sich den Fakten zu stellen, sondern um Vorwürfen zu begegnen, dass es ihnen egal ist.

Die Medien berichten diese Stories, weil Sensationalismus sich gut verkauft, und sie akzeptieren ohne Nachfrage die Behauptungen des Ausmaßes unserer Beeinflussung der Umwelt. In den USA haben die Medien bei der Ausfüllung der Rolle versagt, die Rolle auszufüllen, die ihnen von den Gründungsvätern des Kongresses im Jahre 1776 zugedacht worden war.

Das letzte Recht, das wir erwähnen sollten, betrifft die Pressefreiheit. Die Wichtigkeit hiervon besteht neben dem Voranbringen von Wahrheit in Wissenschaft, Moral und Kunst allgemein in seiner Ausbreitung liberaler Gefühle auf die Regierungs-Administration, in seiner angemessenen Kommunikation von Gedanken zwischen den Themen und in der konsequenten Verfolgung von Einheit unter ihnen, während unterdrückende Funktionäre beschämt oder getrieben werden, ehrbareres Verhalten zu übernehmen sowie eine bessere Art, mit Skandalen umzugehen.

Sie haben die Rolle der Akademiker nicht definiert, wahrscheinlich aufgrund der Annahme, dass sie nach der Wahrheit streben. Tatsächlich manifestieren sich in den Akademikern die sich ergebenden Probleme, wenn man Sozialhilfe bezieht. Henry Canby drückte es so aus:

Arroganz, Pedanterie und Dogmatismus sind berufliche Krankheiten von denjenigen, die ihr Leben danach ausrichten, das Intellekt der Jugend zu dirigieren.

Einige wenige Akademiker stellen die vorherrschende Weisheit in Frage, absichtlich oder zufällig, und sind sofort Ziel von Angriffen, darunter sogar Ausweisung oder Isolation. Judith Curry ist sich jetzt nur zu bewusst, was passiert.

Aaron Wildavsky war ein politischer Wissenschaftler, spezialisiert auf öffentliche Politik, Budgetierung der Regierung und Risikomanagement (hier). Wildavsky stellte sich dem entgegen, was Michael Crichton als die größte Herausforderung identifizierte, vor der die Menschheit derzeit steht. In einer Rede vor dem Commonwealth Club in San Francisco sagte er im Jahre 2003:

Man hat mich aufgefordert, darüber zu sprechen, was ich als die wichtigste Herausforderung ansehe, vor der die Menschheit steht, und ich habe die fundamentale Antwort. Die größte derzeitige Herausforderung für die Menschheit ist die Herausforderung zu unterscheiden zwischen Realität und Phantasie, Wahrheit und Propaganda Das Erkennen der Wahrheit war immer eine Herausforderung für die Menschheit, aber im Informationszeitalter (oder, wie ich es sehe, dem Desinformationszeitalter), wird es zu einer speziellen Notwendigkeit und Wichtigkeit.

Wildavsky machte sich auf, die Wahrheit zu erkennen bzgl. Umweltbedrohungen mittels Anwendung der angemessenen wissenschaftlichen Methoden beim Stellen einer Frage oder mit Experimenten. Er stellte die einfache Frage „aber stimmt das auch?“ (hier). Sie wurde später zu seinem posthum veröffentlichten Buch (1995). In das Experiment waren graduierende Studenten ohne wissenschaftliche Titel involviert, die der Frage nachgingen und nach Ursprung und Gültigkeit der verschiedenen Umweltstories forschten.

In einem Artikel aus dem Jahr 1995 wurden einige der Ergebnisse zusammengefasst:

•„Das DDT-Verbot, einer der ersten großen Triumphe der modernen Umweltbewegung (und ein Tribut an Silent Spring von Rachel Carson) hat „mehr Schaden als Nutzen“ gebracht.

Trotz der hysterischen Ängste von Eltern stellt Asbest in Schulen keine erkennbare Gefahr für Kinder dar.

Es gibt keine Beweise dafür, dass saurer Regen für die Umwelt eine außerordentliche Gefahr darstellt, außer an einigen wenigen isolierten Stellen (wie in paar Wälder in Hochlagen).

Die meisten gefährlichen Mülldeponien (darunter so notorische Deponien wie in Love Canal in New York State und Times Beach in Missouri) sind keine signifikante Gefahr für Anwohner. Das außerordentlich teure Superfonds-Programm der Regierung zur Beseitigung dieser Deponien ist alles in allem Geldverschwendung.

Es gibt keine glaubwürdigen Beweise, die die Angst vor der globalen Erwärmung stützen.

•„Es gibt keine glaubwürdigen Beweise für die Ozon-Zerstörung“, und es gibt gute Gründe für die Annahme, dass welche Zerstörung auch immer aufgetreten war, dies nichts mit FCKWs zu tun hat und dass es „starke Hinweise gibt, dass der Schaden durch Ozonzerstörung zwischen gering oder gar nicht schwankt“.

Heute, über 20 Jahre später, ist die Validität dieser Ergebnisse bestätigt. Sie sind alle Opfer von etwas, das Wildavsky als den grundlegenden Betrug des Absolutismus bei der Umweltbewegung identifiziert hatte. Er fragte:

Welche Norm legt fest, dass Gesundheit der einzige Wert oder auch nur der dominante Wert ist?“ – Was ist mit den anderen Werten? Was bedeutet eine marginal bessere Gesundheit im Vergleich zu Verlusten bei anderen Werten wie Freiheit, Gerechtigkeit und Vorzüglichkeit?“

In einem Beitrag für The Concise Encyclopedia of Economics hat Wildavsky das Aufkommen von Regierungs-Bürokratie geahnt, weil Politiker keine Fragen gestellt und sich selbst das grüne Mäntelchen umgehängt hatten.

Seit Ende der fünfziger Jahre ist die Regulierung von Risiken für Gesundheit und Sicherheit in politischen Debatten immer wichtiger geworden – und Maßnahmen. In seinen Bemühungen, die Bürger vor schwierig zu erkennenden Gefahren zu schützen wie industrielle Chemikalien und gegen offensichtliche Gefahren am Arbeitsplatz und anderswo, hat der Kongress die Autorität der Food and Drug Administration, der Environmental Protection Agency, der Occupational Health and Safety Administration, das Federal Trade Commission’s Bureau of Consumer Protection und andere administrative grüne Agenturen erzeugt oder verstärkt.

Bei meinem Auftritt vor der kanadischen parlamentarischen Anhörung zum Thema Ozon habe ich meinen vorbereiteten Vortrag nicht gehalten. Ich habe nämlich schnell erkannt, dass die Politiker beim Zuhören der Beweise und den Fragen von Anderen die wissenschaftliche Methode nicht verstanden. Sie erkannten nicht, dass eine wissenschaftliche Hypothese wissenschaftliche Spekulation ist, sondern betrachteten dies als Tatsache. Ich bot eine wissenschaftliche Spekulation auf der Grundlage von Beweisen an.

•Die Rotationsgeschwindigkeit der Erde verlangsamt sich.

•Das Magnetfeld schwächt sich seit 1000 Jahren ab.

•Falls das mit der derzeitigen Rate so weitergeht, wird das Feld in etwa 120 Jahren verschwunden sein.

•Einige Beweise zeigen Massen-Aussterben in Verbindung mit früheren Zusammenbrüchen.

•Der Schutz vor einigen schädlichen Strahlen der Sonne ist verschwunden.

•Einige behaupten, dass DNA besonders verwundbar ist, wenn sie ultravioletter Strahlung ausgesetzt ist.

Ich fragte, was meine Regierung plant, um diese Bedrohungen zu verhindern. Ich sagte ihnen, dass ich Dutzende solcher spekulativen Bedrohungen erzeugen könnte. Ihre Aufgabe und Herausforderung bestand darin herauszufinden, welche gültig waren, und dem Setzen von Prioritäten, weil sie nicht alles auf einmal angehen konnten. Wildavsky zeigt eine exzellente Synoptik von Risiken und Prioritäten in seinem in der Encyclopedia of Economics erschienenen Artikel mit dem Titel „Risk and Safety.

Die globale Erwärmung war eine weitere ungeprüfte Hypothese, genau wie alle anderen auch. Sie stellten niemals die in der wissenschaftlichen Methode fundamentale Frage: „Aber stimmt das auch?“. Stattdessen wurden alle jene attackiert, die zu fragen versucht haben. Die globale Erwärmung war größer als alle anderen falschen Bedrohungen, wie die Pariser Klimakonferenz 2015 gezeigt hat. Sie war verpackt in dem größeren Umwelt-Umschlag durch mächtige Personen, die annahmen, dass die Spekulationen Tatsachen waren. Die beste Anschauung zum Erkennen der schlimmsten Konfusion und der Zurschaustellung größten Unverständnisses, zu denen es durch die Akzeptanz der Spekulation als Tatsache gekommen war, ist die Enzyklika „Laudato Si“ von Papst Franziskus. Es ist ein Paper, dass bereits im ersten Semester an Hochschulen durchfallen sollte. Es fehlen darin Beweise, es fehlen Erklärungen der Mechanismen, es fehlt Objektivität, und es ignoriert Entwicklung und Fortschritt als Teil der natürlichen menschlichen Evolution. Traurigerweise wurde es von sich todsicher gerierenden Propheten, von Medien, Akademikern und Lehrern hochgelobt, welche die Forderung der Gesellschaft nach Sicherheit repräsentieren und sicherstellen.

Link: http://wattsupwiththat.com/2016/03/26/but-is-it-true-the-research-of-aaron-wildavsky-twenty-years-later/

Übersetzt von Chris Frey EIKE