1

Gibt es eine Lügenpresse?

Was ist ihr „Futter“?

Neben zahlreichen Klagen gibt es einen ziemlich neuen Terminus: „Lügenpresse“. Gemeint ist damit einfach eine absichtlich falsche oder irreführende Information, die von einem großen Teil der Medien propagiert wird, von Zeitungen bis zu Fernsehberichten – und Vieles dieser Informationen wird ihnen häufig auch eingetrichtert durch Quellen bei der Regierung und manchmal sogar durch die Regierungen selbst.

Wirklich? Lügen die Medien? Immer? Sollte es nicht oberste Priorität eines guten Reporters sein, die Fakten zu berichten, unbeeinflusst durch politische Wünsche, Interpretationen oder Wunschdenken?

Falls man sich unsicher ist – hier möchte ich ein Beispiel aus jüngerer Zeit zeigen, einen Artikel über Stromerzeugung mittels Kohle, und zwar in einem Kraftwerk bei Jänschwalde (Brandenburg)

Zum Nachvollziehen: Am 17. März 2016 erschien in der überregionalen und in der Vergangenheit hoch angesehenen Frankfurter Allgemeine Zeitung ein Artikel mit der Schlagzeile [original]: „Keine Lust auf Braunkohle“. Der Artikel stand im Wirtschaftsteil zusammen mit einem Foto, das zeigt, wie dunkle Wolken aus den sechs Kühltürmen des Kraftwerkes aufsteigen (siehe oberes Bild oben rechts!). Die Bildunterschrift lautete: „Dieses Foto zeigt ziemlich klar, wie schmutzig Braunkohle-Kraftwerke sind – und damit der von ihnen erzeugte Strom!!!“*

[*Rückübersetzung aus dem Englischen. Das deutsche Original ist hinter einer Zahlschranke verborgen. Anm. d. Übers.]

Ach, wirklich?

Stimmt es wirklich, dass die Kühltürme dieses Kraftwerkes „schwarze“ Rauchwolken ausstoßen, die man noch Kilometer entfernt sieht? Urteilen Sie selbst – nachdem Sie sich das gleiche Kraftwerk aus einer anderen Perspektive angeschaut haben, nämlich von oben (oben rechts, unteres Bild!). Dabei handelt es sich um einen Screenshot von Google Earth Pro vom 22. März 2016.

In diesem zweiten Bild sieht man nichts von irgendwelchen schwarzen Rauchwolken, sondern weißen Dampf aufsteigen (eine Mischung aus Wasserdampf und kleinen Tröpfchen). Noch aufschlussreicher ist die Tatsache, dass jedwedes sichtbare „Residuum“ jenes „schwarzen Rauches“ (wie die Bildunterschrift unter dem ersten Foto suggeriert) in geringem Abstand von dessen Quellen vollständig verschwunden ist.

Ich denke, das hier klar wird, was ich meine: Es scheint einen ausgeprägten Kontrast zwischen den beiden Fotos der gleichen Kühltürme des gleichen Kraftwerkes zu geben. Eines wird mir daraus glasklar: Beide Fotos senden sehr unterschiedliche Botschaften aus, und das ist kein Zufall.

Meiner Ansicht nach ist all dies Teil der „Notwendigkeit-zur-Dekarbonisierung“-Propaganda, welche von verschiedenen Personen und Organisationen propagiert wird, die blödsinnige Projektionen eines sich überhitzenden Klimas anbeten, zu dem es durch die Verbrennung fossiler Treibstoffe kommen soll – trotz einiger Jahrzehnte, in denen es inzwischen keineswegs zu einer solchen „kataklysmischen“ Erwärmung gekommen war.

Kurz gesagt: Diese so genannte „Kohlenstoff-Verschmutzung“ ist ein Mythos.

Gibt es also eine „Lügenpresse“ mit absichtlich irreführenden Artikeln?

Urteilen Sie selbst!

————————————————

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Dies ist wieder eine Beurteilung von außerhalb Deutschlands. Das hier beschriebene Beispiel aus der FAZ ist natürlich eklatant, aber die FAZ ist verglichen mit der „Süddeutschen Zeitung“ sogar noch ein Waisenknabe, zumindest wenn es um die Themen Klima und Energie geht, wie jeder halbwegs gebildete Deutsche inzwischen erkannt hat.

————————————————

Weil mir dieser Artikel per E-Mail gesandt worden ist, kann kein Link angegeben werden. Daher ist der Originalbeitrag hier als doc-Dokument beigefügt, falls ihn jemand auf Übersetzungsfehler abklopfen möchte.

Related Files




Strom ist nicht gleich Strom – Eine neue Buchbesprechung

Zu den Autoren:
– Fred. F. Müller ist ein Journalist, der heiße Eisen nicht fürchtet; siehe z. B. seine Artikel auf dem Blog "Science-Skeptical", wo er sich nicht scheut mit gut recherchierten und fundierten Texten gegen die Mainstream-Journaille anzuschreiben.
– Der Diplom-Ingenieur Michael Limburg ist Vizepräsident des "Europäisches Institut für Klima und Energie – EIKE ". Auch EIKE – und somit ebenso Michael Limburg – setzen seit Jahren ihr "Votum" gegen die einseitige Berichterstattung der Mainstream-Journaille in Sachen sog. "Energiewende".
– Beide Autoren bevorzugen es selber zu denken, beide fügen sich nicht einfach den politisch gewünschten Vorgaben bei der Berichterstattung in Sachen "Energiewende".

Das "Erneuerbare-Energien-Gesetz – EEG" sieht vor, dass in Deutschland bis zum Jahre 2050 die Stromversorgung zu 80% aus den sog. "erneuerbaren Energien" erfolgen soll. Die beiden Autoren argumentieren in diesem Buch gegen diese sog. "Energiewende". Sie legen dar, dass es unmöglich ist, eine sichere und nachhaltige Stromversorgung auf Basis der sog. "erneuerbaren Energien" (EEG-Anlagen) zu gewährleisten.

Limburg und Müller zeigen auf, dass der Energiebedarf einer Industrienation und modernen Zivilisation wie Deutschland immens ist. Dabei erklären die beiden Autoren, ohne in fach-chinesisch abzudriften, dem technisch-naturwissenschaftlichen Laien einfach und verständlich, wie ein verlässliches Stromversorgungssystem in einem hochtechnisierten Industriestandort wie Deutschland, in welchem ‚Arbeit und Brot‘ von einer sicheren und bezahlbaren Stromversorgung abhängig sind, ausschauen sollte.

Es wird deutlich;
– dass Versorgungssicherheit und stabile Stromnetze zusammen gehören;
– dass die Stromeinspeisung in die Netze sich an der Netzstabilität auszurichten hat;
– dass sprunghafte Schwankungen bei der Stromeinspeisung die Netze stressen und instabil machen;
– dass instabile und gestresste Netze die Gefahr eines vermeidbaren, großflächigen Schwarzfalls (Blackout) erhöhen.

Daraus folgt, dass stabile Netze einer belastbaren Datenbasis zur vernünftigen Planung bedürfen; d. h. die Stromeinspeisung und die Fahrweise des Kraftwerksparks sind belastbar längerfristig zu planen, kurzfristig zu prognostizieren und sollten Puffer enthalten, um schnell auf unverhoffte aktuelle Gegebenheiten reagieren zu können.

Konsequent zeigen Limburg und Müller, dass alle diese Anforderungen an ein sicheres Stromversorgungssystem durch die sog. "EEG-Anlagen" keineswegs zu gewährleisten sind. Anlagen, die aus Wind- oder Sonnenenergie den Strom erzeugen sind abhängig von dem, was die Natur momentan rein zufällig preisgibt. "EEG-Anlagen" sind also vergleichbar den Jägern und Sammlern der Steinzeit, auch diese konnten nur das verbrauchen, was die Natur gerade anbot – mehr ging nicht und mehr geht auch bei den "EEG-Anlagen" nicht!

Folgerichtig ist die Netzstabilität nicht belastbar planbar und prognostizierbar, denn,
– wenn relativ viel an Strom benötigt wird, scheint unter Umständen die Sonne nicht und es ist windstill, mit der Folge, dass jene "EEG-Anlagen" keinen Strom einspeisen;
– oder wenn ziemlich wenig Strombedarf ansteht, dann speisen jene "EEG-Anlagen", wegen guten Windverhältnissen und herrlichem Sonnenschein, Unmengen an nicht benötigtem Strom ins Netz ein.

Beide Situationen sind der Netzstabilität keineswegs dienlich, sondern erhöhen die Gefahren von großflächigen Stromausfällen. Und solche Gefahren sind mit Blick auf die Versorgung von Krankenhäusern, Verkehrssignalanlagen etc. sicherlich nicht mit einem einfachen "na und, und wenn schon" vom Tisch zu fegen – ein Blackout kann und wird viele – ohne EEG-Stress vermeidbare – Todesopfer zeitigen.

Kann diesen Gefahren und Problemen mit Stromspeichern, die überflüssigen Strom sozusagen lagern und bei Bedarf ins Netz einspeisen, abgeholfen werden?
Die Antwort der beiden Autoren ist ein eindeutiges "Nein", Stromspeicher, die man für solche Zwecke benötigen würde, müssten Speicher mit einer enormen Kapazität sein.
Manche Laien wenden hier oftmals ein, dass es doch z. B. Batterien für die Taschenlampe gibt; weshalb sollten also Batterien in Form von großen Stromspeichern nicht machbar und möglich sein?
Derartige Speicher gibt es derzeit nicht und wird es in absehbarer Zukunft auch nicht geben können; aus technischen und wirtschaftlichen Gründen sind Stromspeicher für solche Riesenstrommengen, die zwingend anfallen werden, nicht realisierbar.
Auch den ganzen Versuchen mit dem sog. Windgas (Power to Gas) räumen die beiden Autoren kaum Chancen einer vernünftigen technisch-wirtschaftlichen Umsetzung für die großräumige Praxis ein.

Die Lektüre dieses Buches führt zwangsläufig und logisch zu dem Urteil, dass der Versuch die gesetzlichen Vorgaben des EEG-Gesetzes umzusetzen an Traumtänzerei grenzt. Und nicht nur das, die Realisierung der EEG-Träume bedeutet;
– dass die verantwortlichen deutschen Politiker freiwillig den sog. "Morgenthau-Plan" umsetzen wollen. Der sog. "Morgenthau-Plan" war ein Memorandum, welches gegen Ende des II. Weltkriegs der amerikanische Finanzminister Henry Morgenthau entworfen hatte, um das besiegte Deutschland zu deindustrialisieren. Die Pläne der deutschen "Energiewende-Politiker" können ohne große Umstände als eine moderne Variante des "Morgenthau-Plans" zur Deindustriealisierung Deutschlands interpretiert werden. Jene "Energiewende-Politiker" handeln folglich absolut unverantwortlich und vorsätzlich zum Schaden des allgemeinen Wohls;
– außerdem widersprechen die Mittel und Instrumente, mit welchen das EEG realisiert werden soll, den Gesetzen der Natur- und Ingenieurwissenschaften. Also ist dies eine Politik, die – wie mir dies ein Wiener Physik-Professor im persönlichen Gespräch im Jahre 2010 sagte – einem Verrat an den Naturwissenschaften gleichkommt; und jener Professor setzte hinzu, dass es für ihn kaum zu fassen ist, dass die "Kanzlerin der sog. Energiewende" eine promovierte Physikerin ist.

Ein wesentlicher Punkt spezifisch deutscher Befindlichkeiten sollte beim Lesen des Buches klar vor Augen stehen: Seit sehr vielen Jahrzehnten wird in Deutschland fälschlicherweise – pressewirksam und meinungsbildend – verbreitet, dass ein grundsätzlicher Gegensatz zwischen ‚Ökonomie und Ökologie‘ besteht. Die Verbreiter dieser ‚ökologistischen Ideologie‘ haben es geschafft, dies zeigen regelmäßig die Umfragen der Meinungsforscher in Deutschland, dass wohl eine Mehrheit der Deutschen diesen falschen ideologischen Vorgaben zuneigt; ja mehr noch, dass die ‚ökologistische Ideologie‘ inzwischen fast so etwas wie den Rang einer zivilen Ersatzreligion eingenommen hat.

Schon 1641 war auf einem Londoner Flugblatt zu lesen: "Die Welt wird von Meinungen regiert und beherrscht". Und das Instrumentarium der Meinungsbildung beherrschten die ‚Ökologisten‘ in den letzten Jahrzehnten famos. Sie haben diesen Staat ‚grün angemalt‘, wie z. B. die weit verbreitete, aber fälschliche Ansicht vom Gegensatz zwischen ‚Ökonomie und Ökologie‘ und die sog. Energiewende zeigen.

Nichtsdestotrotz, Ökologie und Ökonomie sind keineswegs Gegensätze, sondern haben letztendlich ein gemeinsames Ziel: «Den rationellen und sparsamen Umgang mit sämtlichen vorhandenen Ressourcen». Nicht zufällig ist das alt-griechische Wort für Haus die gemeinsame Wurzel von Ökonomie (oikonomia für alt-griechisch "Verwaltung eines Hauses", von oikos = "Haus, Haushalt" plus nemein = "verwalten" bzw. nomia = "Gesetz") und Ökologie (von alt-griechisch oikos = "Haus, Haushalt" plus logos = "Lehre", also "Lehre vom Haushalt"). Diesen eigentlichen und ursprünglichen Sinn von ‚Ökonomie und Ökologie‘ haben die ‚Ökologisten‘ mit Hilfe einer willfährigen Journaille in der ‚veröffentlichten und öffentlichen Meinung‘ total verdreht, so dass ganze Kohorten verantwortungsloser Politiker der ‚ökologistischen Ersatzreligion‘ hinterherhecheln. Vielleicht reagieren jene Politiker aus Angst heraus in dieser Art und Weise, da sie befürchten, dass sie bei der nächsten Wahl den Platz am Futtertrog verlieren, falls sie nicht ‚grün angemalt‘ sind?

Es stellt sich bei der Lektüre des Buches auch die Frage nach der Rolle der Gewerkschaften, der Rolle der angeblichen Arbeiterpartei SPD und der Rolle der großen Energieversorgungskonzerne. Wie agieren die Genannten? Wen vertreten sie? Wirklich ihre angebliche Klientel? Und vor allem, warum sind die genannten Kreise in den letzten Jahrzehnten kaum, bzw. so gut wie gar nicht meinungsbildend im Dienste ihrer eigentlichen Klientel aufgefallen?

SPD und Gewerkschaften verfügen über einen der großen Medienkonzerne in Deutschland – und in einem Medienunternehmen bestimmen die Eigentümer die Unternehmenspolitik; d. h. der Herausgeber bzw. der Eigentümer einer Zeitung hat die Regie über die Themen seiner Zeitung. Von daher hätten SPD und Gewerkschaften, die doch scheinbar die Interessen der Arbeitnehmer – ihrer vorgeblichen Klientel – vertreten, den ‚ökologistischen Ideologen‘ seit Jahrzehnten meinungsbildend Paroli bieten können – warum unterblieb dies?

Der derzeitige SPD-Chef Sigmar Gabriel ist als Bundesminister für Wirtschaft- und Umwelt einer der Verfechter der sog. Energiewende. Er dient nicht seiner eigentlichen Klientel, sondern dient sich der ‚veröffentlichten Meinung‘ der Ökologisten an. Weshalb? Vielleicht, weil es für Gabriel, dem einstigen ‚Popularbeauftragten der SPD‘, üblich ist, die vorgeblich populäre Meinung zur eigenen Meinung zu machen?

In der Gewerkschaft ver.di ist die Arbeitnehmerschaft der Kraftwerke, also der Stromversorger organisiert. Frank Bsirske ist der Vorsitzende dieser Gewerkschaft; gleichzeitig ist Frank Bsirske ein Mitglied der ‚ökologistischen Partei‘. Welche Interessen vertritt Frank Bsirske? Die seiner Klientel, also der Gewerkschaftsmitglieder, von deren Beiträgen er ganz gut leben kann? Oder vertritt Bsirske im Zweifelsfall doch eher die Politik seiner ‚ökologistischen Partei‘?

Michael Vassiliadis ist Vorsitzender der Gewerkschaft Bergbau, Chemie, Energie. Demzufolge gehören zur originären Klientel von Vassiliadis die Arbeitnehmer, welche die Kraftwerke mit dem benötigten Rohstoff versorgen und auch die Arbeitnehmer, die in energieintensiven Branchen beschäftigt sind. Die Lebensgefährtin von Michael Vassiliadis ist Yasmin Fahimi, diese war bis in den Dezember 2015 hinein die Generalsekretärin der SPD gewesen und ist seit Januar 2016 Staatssekretärin im Arbeitsministerium. Als Generalsekretärin verfocht Fahimi die Politik der sog. Energiewende. Logisch stellt sich hier doch die Frage, für welche Politik steht Michael Vassiliadis? Ist er Vertreter der Interessen seiner Klientel, also der Gewerkschaftsmitglieder? Oder spinnt er geschickt getarnt vielleicht doch die Politik seiner Lebensgefährtin?

Die großen Energieversorger fallen als meinungsbildende Akteure völlig aus. Vielmehr scheint es so, als ob diese Energieversorger sehr duldsam sind; duldsam z. B. als Prügelknaben der Politiker und der Mainstream-Journaille. Vertreter jener Energieversorger sitzen zwar in vielen Gremien, welche die Politikverantwortlichen technisch, natur- und ingenieurwissenschaftlich beraten, doch wissenschaftlich fundierte Beratung dient nicht der öffentlichen Meinungsbildung. Außerdem sind die Energieversorgungsbetriebe politisch durchsetzt – fast hätte ich geschrieben durchseucht -, und zwar von Kommunal-, Landes- und auch Bundespolitikern. Ja, sogar ausgediente, ehemalige Alt-Vordere der ‚ökologistischen Partei‘ standen und stehen in Diensten der Energieversorger. Von daher braucht man sich wohl über das knechtische Dulden der großen Energieversorger nicht zu wundern – oder?

Solche Fragen, wie die gerade aufgeworfenen, kann ich natürlich nicht beantworten – nichtsdestotrotz, die Fragen stehen zwangsläufig bei der Lektüre dieses Buches im Raum.

Dem Buch selbst gebe ich eine klare Leseempfehlung; denn Limburg und Müller unternehmen damit den Versuch meinungsbildend zu wirken. Etwas, was mit Blick auf die Verherrlichung der ‚ökologistischen Ideologie‘ in der ‚veröffentlichten Meinung‘ der Mainstream-Journaille recht schwierig ist. Es bleibt zu hoffen, dass viele Leute das Buch lesen werden, um dadurch zum Selberdenken zu finden und als meinungsbildende Multiplikatoren ihre Wirkung entfalten werden.

Über den Autor,

Hubert Milz (Jahrgang 1956) ist Diplom-Betriebswirt (FH-Aachen) und Diplom-Ökonom in der volkswirtschaftlichen Ausrichtung (Fernuniversität Hagen). Hubert Milz ist Mitglied der "Friedrich-August-von-Hayek-Gesellschaft und er war 35 Jahre in der Energiewirtschaft tätig.

Diese Rezension erschien zuerst bei Amazon hier. Zu beziehen bei Amazon hier oder direkt beim TvR Medien Verlag. Das Buch liegt derzeit auf Rang 342 der Energiespezifischen Fachbücher




Washingtons despotische Gesetzlosigkeit – Ähnlichkeiten mit D sind nicht zufällig

Washington ist außer Kontrolle. Gesetzgeber, Richter und nicht gewählte Bürokraten möchten unser Leben kontrollieren, unsere Art zu leben und unseren Lebensstandard – ohne die Verantwortung zu übernehmen selbst für grundlegende Fehler, berechnenden Betrug oder mutwillige, oftmals illegale Angriffe auf unsere Freiheiten und auf Bürger, die sich dem fortschreitenden Leviathan in den Weg stellen.

Diese Dinge bringen die Republikaner und konservative Politiker in Bewegung, weil sie geschehen – regelmäßig.

Das Competitive Enterprise Institute CEI ist bekannt für seine jährlichen Berichte Ten Thousand Commandments zu Vorschriften der Regierung. Eine ängstigende, jedoch faszinierende neue Analyse belegt jetzt, wie die Washingtoner Bürokratie gesetzwidrig Agenden in Kraft setzt, die nur zu häufig alles missachten, was We The People unterstützen oder dagegen verstoßen, die gegen alles sind, was unserer Nation zum Besten dient und sogar gegen das, was der Kongress verordnet oder in Gesetze zu gießen abgelehnt hat.

Der Autor der Studien, der politische Vizepräsident des CEI Clyde Wayne Crews zieht eine Parallele zur „dunklen Materie und dunklen Energie“, welches Astrophysikern zufolge 95% des Universums ausmacht: Den Anteil, den wir im Gegensatz zu Sonne, Mond, Planeten, Sterne, Galaxien und Gaswolken nicht direkt beobachten können.

„Gesetzgeberische dunkle Materie“, folgert er, befindet im gleichen Verhältnis in all den Vorschriften und Erlassen, die unsere Leben bestimmen. Aber sie ist „schwierig aufzufinden, geschweige denn zu messen“. Wirklich, seine „Karte“ sieht ähnlich aus wie die ersten Kartendarstellungen der ersten Entdecker Nordamerikas – unvollständig, aber die bestmögliche Kartierung mit den derzeit verfügbaren Informationen.

Niemand weiß, wie viele Agenturen der Exekutive es gibt – Schätzungen nennen Zahlen zwischen 60 und 438 – geschweige denn wie viele Vorschriften diese Agenturen in jedem Jahr implementieren und in Kraft setzen. Offiziell, sagt Crew, erließen sie im Jahre 2014 atemberaubende 3554 neue Vorschriften, während Präsident Obama „nur“ 226 neue Gesetze unterzeichnete, die vom Kongress verfügt worden sind. Noch schlimmer: von den 53.838 (!) formalen Vorschriften, enthalten im Federal Register von 2001 bis 2014, wurden nur 160 (0,3%) einer „Kosten-Nutzen“-Analyse unterzogen; wir haben keine Ahnung, wie stark uns die übrigen Vorschriften betreffen.

Am unendlich schlimmsten: diese Spitze des Eisberges enthält noch nicht zehntausende Dekrete, die erlassen worden sind in Gestalt von:

● Anmerkungen, Bulletins, Proklamationen, Leitfäden sowie neue oder überarbeitete Interpretationen, politische Statements und Prozesse;

● Untersuchungen, Warnhinweise, verhandelte Rechtsmittel (oftmals unter Einschluss von heimlichen Verständigungen zwischen Agenturen und Aktivistengruppen), offene oder heimliche Drohungen mit Klagen vor Gericht, bewaffneten Agenten, die in Wohnungen und Geschäfte eindringen oder feindlicher Publicity, die koordiniert ist mit Aktivisten und den Medien; ebenso wie

● Blogbeiträge, Presseerklärungen sowie E-Mails oder Telefonanrufen bei Bürgern oder Mitarbeitern von Unternehmen.

Alle diese Maßnahmen haben die Macht und die Auswirkungen von Gesetzen. Aber nur wenige, wenn überhaupt welche, folgen dem vom Administrative Procedures Act vorgeschriebenen Prozess der „öffentlichen Kenntnisnahme und Kommentierung“. Damit entgehen sie oftmals genauen Prüfungen durch Gerichte, Überwachungsbeauftragte oder den Kongress. Viele werden lediglich gestützt durch „homogenisierte“, manipulierte Daten; ausgeklügelte, fantasievolle oder imaginäre Vorteile; ungenierte Missachtung der Kosten und ohne jede Benennung der Vorteile dieser Aktivitäten für Industrien oder Arbeitsplätze, was manchmal in Vergessenheit gerät.

Der Clean Power Plan CPP der EPA geht davon aus, dass die Schließung der Kohlekraftwerke in den USA – ein Bruchteil derartiger Einrichtungen weltweit – irgendwie den Klimawandel stoppen kann, der in Wirklichkeit von zahlreichen mächtigen natürlichen Kräften gesteuert wird, über die die Menschen absolut keine Kontrolle haben. Der Plan geht außerdem davon aus, dass die globale Erwärmung in jedem Falle gefährlich ist und ignoriert die vielen tausend Menschen, die ihre Arbeitsplätze verlieren werden.

Ein Schema der „sozialen Kosten von Kohlenstoff“, ausgeheckt von einer Vielzahl regierungsamtlicher Agenturen, stellen die gleichen falschen Hypothesen auf. Dann werden hypothetisch jegliche vorstellbaren und illusorischen „Kosten“ von Kohlendioxid-Emissionen aufgelistet: Wälder, Landwirtschaft, Wasserressourcen, „erzwungene Migration“ von Menschen und Wildtieren, menschliche Gesundheit, Küstenstädte, Ökosysteme und Feuchtgebiete. Aber kein einziger der offensichtlichen und enormen Vorteile des Verbrauchs fossiler Treibstoffe wird benannt, sondern vollständig ignoriert … und schon gar nicht werden die Düngungseffekte auf Wälder und Ernteerträge angesprochen.

Präsident Obama hat diese beiden Programme in Kraft gesetzt, weil der Kongress es abgelehnt hatte (hier), fast 700 verschiedenen Gesetzen zum Zeritifkatehandel und mit weiterem Bezug zum Klima zuzustimmen. Anstatt mit dem Kongress zusammenzuarbeiten, um wenigstens etwas von dem zu erreichen, was er erreichen wollte, erließ Mr. Obama einfach seine Dekrete als einen „weiteren der vielen Wege nach Rom“.

Wo der Kongress Gesetze genehmigt hat, die der Präsident nicht mochte – zu illegaler Einwanderung zum Beisiel – weist er seine Agenturen einfach an, die „offensiven“ Maßnahmen nicht umzusetzen. Inzwischen werden Vorschriften im Zuge des Gesetzes bzgl. bedrohter Spezies [Endangered Species Act] mit eiserner Faust gegen Landwirte, Öl und Bergbauaktivitäten umgesetzt, im Falle von Windturbinen und Solarpaneelen jedoch ignoriert.

Unter den fortgesetzten abgekarteten Gerichtsverfahren haben die von den Entscheidungen betroffenen Parteien niemals die Gelegenheit zu sprechen oder Beweise vorzubringen. Teils werden sie nicht einmal darüber informiert, dass eine Klage angestrengt worden ist, bis es zu spät ist.

Das gesamte System erlaubt es nicht gewählten, unzuverlässigen Regierungs-Funktionären, selbstherrlich Gewinner und Verlierer auszumachen sowie Kumpane und Verbündete mit vom Steuerzahler finanzierten Zuwendungen und Subventionen zu belohnen, während Kritiker und feindlich Gesonnene bestraft werden. „Fortschrittliche“ Richter verweisen auf „Diskretion der Agenturen“ und geben den Bürokraten freie Hand zu tun, was ihnen beliebt, selbst wenn die Vorschriften, Entscheidungen und Dekrete nicht den legalen, verfassungsrechtlichen oder wissenschaftlichen Erfordernissen folgen.

Kein Bürger, kein kleines oder selbst großes Unternehmen kann um alle diese bestehenden Edikte wissen, geschweige denn diese verstehen oder sich danach richten. Außerdem sind mindestens 4500 kriminell verurteilt, viele ohne Berücksichtigung, ob die Verletzung einer Vorschrift vorsätzlich erfolgte – und „Unkenntnis des Gesetzes ist keine Entschuldigung“.

Astrophysiker erklären die Konsequenzen. Ein Schwarzes Loch im Kosmos hat so viel Materie auf so kleinem Raum zusammengepresst, dass die unvorstellbar starke Gravitation sogar das Licht daran hindert, auszustrahlen.

Das gesetzgeberische Schwarze Loch von Washington D. C. entfaltet eine so starke Gravitation, dass Föderalismus, staatliche Rechte und lokale Gesetze und Gewohnheiten sowie persönliche Freiheiten immer schwächer werden.

Der Regierungs-Goliath kostet US-Familien, Geschäften, Krankenhäusern und Organisationen inzwischen über 1,9 Billionen [trillion] Dollar pro Jahr! Das ist doppelt so viel wie der Staatshaushalt des Jahres 1981. Es ist genauso hoch wie der gesamte Haushalt 1986 und fast die Hälfte des unfassbaren Obama-Budgets für das Finanzjahr 2017 – und mehr als die Budgets aller anderen Länder außer China.

„Die Champions des Sozialismus‘ bezeichnen sich als progressiv, aber sie lehnen jede Art von Verbesserung ab“, beobachtete der politische Analyst und Ökonom Ludwig von Mises bereits vor 72 Jahren. „Sie nennen sich Liberale, aber sie beabsichtigen, die Freiheit abzuschaffen. Sie nennen sich Demokraten, aber sie sehnen sich nach Diktatur. Sie nennen sich Revolutionäre, aber sie wollen die Regierung allmächtig machen“.

Der „sanfte Despotismus“ der USA ist Lichtjahre entfernt von den Gräueltaten und Gulags von deren infamen Vorgängern. Aber er ist trotzdem hoch effektiv. Die gleichen Agenturen schaffen und schreiben die Gesetze und setzen sie um, zusammen mit der Einführung von Strafen für Abweichler. Sie arbeiten unermüdlich und gebieterisch daran, die Gesetz-, Energie-, Wirtschafts- und sozialen Systeme unserer Nation „fundamental zu transformieren“ – und sie trachten danach, unsere fossilen Treibstoffe „im Boden zu lassen“ (hier).

Sie erlassen Vorschriften, die niemals von den Menschen unterstützt oder vom Kongress genehmigt werden würden, und die selten, wenn überhaupt, für sie selbst gelten. Sie leiten Milliarden an Verbündete, während sie den Kritikern Finanzierung und Legitimität absprechen, setzen IRS-Hunde auf Oppositionsgruppen an und drohen mit zivilen und kriminellen „erpresserischen“ Maßnahmen (hier) gegen jeden, der die vermeintliche „Realität“ des gefährlichen, vom Menschen verursachten Klimawandels „leugnet“.

Sie trachten danach, fossile Treibstoffe, Biotechnologie und Insektizide zu verbieten – selbst für Familien der Dritten Welt, die unter erbärmlicher Armut, schwerer Mangelernährung und Krankheit leiden – sowie nach einem fast totalen Verschwinden von Strom. Sie tun alles, was sie können, um alternative Standpunkte ruhig zustellen und zu bestrafen, sogar schon allein die Bemerkung, dass es alternative Standpunkte geben kann.

Seit sieben Jahren hat unser „Versucht-mich-aufzuhalten“-Präsident und seine Administration ihre Macht zur Umsetzung ihrer Agenda benutzt und missbraucht. Was wir jetzt brauchen, ist ein „Versucht-es-mich-machen-zu-lassen“-Präsident, der es ablehnt, deren Erlassen weiter zu folgen. Wer wird seinen Füller, sein Telefon oder seine Macht nutzen, sie zu überwachen; wer wird es ablehnen, ihren Erlassen zu folgen, sie zu begraben und ihnen die Finanzierung zu streichen. Wer wird mit dem Kongress zusammenarbeiten, um den Gesetzen und unserer Verfassung wieder Geltung zu verschaffen, unserem wirtschaftlichen Wachstum und unserer Rolle von persönlichen Freiheiten, Möglichkeiten und Verantwortlichkeiten.

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow (www.CFACT.org) and author of Eco-Imperialism: Green power – Black death.

Link: http://wattsupwiththat.com/2016/03/23/washingtons-despotic-lawlessness/

Bemerkung des Übersetzers: Die Parallelen dieses Rundumschlages zu Deutschland sind nur allzu offensichtlich. Aber es gibt im Vergleich zu den USA zwei markante Unterschiede: In den USA gibt es ein Parlament (den Kongress), der nicht einfach alles abnickt, und eine klare Alternative. Hier in D nickt das Parlament alles ab, und bis vor Kurzem gab es noch nicht einmal eine Alternative.

Hoffen wir, dass diese Alternative trotz der (nach meinem Eindruck) immer schriller werdenden Verunglimpfungen und Diffamierungen Gelegenheit bekommt, sich zu äußern – und dass diese Äußerungen auch irgendwie bekannt werden und nicht der Zensur oder Verzerrung in den Medien, allen voran der „Süddeutschen Zeitung“, zum Opfer fallen. – C. F.




EIKE 9. IKEK – Prof. em. Dr. Horst Lüdecke: Klimawissenschaft in EIKE und- Multiperiodisches Klima – CO2-Zyklus

Video

Video des Vortrags über Klimawissenschaft in EIKE: – Multiperiodisches Klima – CO2-Zyklus – gehalten am 11.12.16 auf der 9. IKEK im Haus der Technik in Essen




Mitarbeiter der EPA Umweltbehörde stützen sich auf private E-Mails um mit Lobbyisten zu kommunizieren

Michael J. Bradley, Präsident und Gründer einer Energieberatungsfirma, die zahlreiche grüne Interessengruppen vertritt, beschrieb seine Vorliebe, private E-Mail [-adressen] für die Kommunikation über Vorschriften mit EPA Leiterin Gina McCarthy zu verwenden, um Dokumente durch das Energie & Umwelt Legal Institut (E & E Legal) zu beschaffen, als Anfrage [getarnt] nach dem Freedom of Information Act.

"Joe, würden Sie bitte diese E-Mail an Gina für mich schicken? Ich würde es ihr mit einem cc direkt zu Ihnen geschickt haben, aber ich habe nicht ihre private E-Mail-Adresse und würde es vorziehen, keine Büro E-Mail-Adresse zu verwenden ", mailte Bradley an den EPA Senior Berater Joe Goffman.

Der Rest der E-Mail war an "Gina" adressiert und betraf den Cross-State Air Pollution Rule (CSAPR) [Überstaatlicher Emissionsschutz, Reduzierung von Kraftwerksemissionen in Landesgrenznähe], mit Hinweis auf die von Bradley vertretenen Unternehmen, welche die Vorschrift unterstützen [wollen], als Anweisung an E & E Legal.

"Unser Ziel ist eine Vorschrift umgesetzt zu haben, die rechtlich einwandfrei ist und der Industrie die nötige Geschäftssicherheit für Investitionen in sauberere Energie gibt und sich mit Fragen des Luftverkehrs befasst, der viele Staaten betrifft, in denen die Mitglieder der Clean Energy Group aktiv sind" schrieb Bradley.

"Wir möchten nicht sehen, dass diese [bisherige] Regel bestehen bleibt", fuhr er fort.

Goffman leitete Bradley‘s Nachricht an das Yahoo E-Mail-Konto von Michael Goo, EPA Leiter der Öffentlichkeitsarbeit weiter, der dann die E-Mail an die öffentliche Adresse von Bradley weiterleitete, wie die Dokumente zeigen.

Umfrage auf The Daily Caller: … glauben Sie, das die .. etwas verheimlichen?

Melissa Harrison sagte dem Daily Caller, dass "EPA hat immer abgeraten hat, private Emails zu verwenden. Der EPA Inspector General [interne Kontrolle, ~ Compliance Officer] prüfte dies und bestätigt, dass sie keine Beweise gefunden haben, dass die EPA [als Behörde] die Verwendung von "privaten" Emailadressen genutzt, gefördert oder ermutigt hat", die Verwendung von privaten E-Mail-Konten umgeht die Anforderungen des Aufzeichnungsmanagements des Bundes.

E & E Legal Executive Director Craig Richardson sagte in einer Erklärung am späten Dienstag 

"diese Administration hat ein echtes Problem, die Regeln zu verstehen, wenn es um die Verwendung von privaten E-Mail-Konten zum Betreiben von öffentlichen Angelegenheiten geht.

Hillary Clinton hat die Messlatte für die schamlose Nutzung von privatem E-Mails zum Betreiben von offiziellen Geschäften auf "off-line" gesetzt, aber EPA kommt gleich danach

Richardson sagte, Bradley ausgedrückte Präferenz zur Verwendung von privaten E-Mails zeigt an, dass das unter älteren EPA Führungskräften und besonderen Interessengruppen und ihrer Vertreter ein regelmäßiges Vorkommen darstellt.

"Damit hat die EPA im Wesentlichen ihre Vorschriften-Funktion auf "grüne“ Aktivisten ausgelagert und die Rendite suchenden Lobbyisten sind versessen auf die Zerstörung der traditionellen Energiequellen, in dem Bemühen, sie durch erneuerbare Energien zu ersetzen. Eine Branche, deren reiche Gönnern bereits dabei sind, diese Zerstörung auf Kosten der Steuer- und Abgabenzahler zu machen ", sagte Richardson.

"Die E-Mails von Michael Bradley, einem individuellen Vertreter privater Interessen, zu Joe Goffman und Gina McCarthy, die Goffman zu einem nicht-offiziellen E-Mail-Konto seines Kollegen weiterzuleiten, sind auf der Hand liegende Bemühungen, auf bundeseinheitliche Regelungen außerhalb des dafür vorgesehenen Systems einzuwirken" sagte E & E Legal Senior Legal Fellow [Leitender Rechtsanwalt] Chris Horner in der Dienstags-Anhörung.

"Es ist eine regelmäßige Praxis der leitenden Beamten des EPA , private E-Mail-Konten und anderen" off-book" Techniken [inoffiziellen Wege] zu verwenden, um Vorschriften für " grüne" Aktivisten mit klaren finanziellen und politischen Interessen zu entwickeln, das ist über jeden vernünftigen Zweifel jetzt klar erkennbar", sagte Horner.

Horner enttarnte kürzlich das Alias "Richard Windsor" der ehemaligen EPA Leiterin Lisa Jackson, das sie nutzte, um Behördenaktivitäten zu leiten.

Horner und E & E Legal enthüllten auch umfangreiche Absprachen zwischen EPA und externen Gruppen um vorgeschlagene Vorschriften zu schaffen, die einen dramatischen Einfluss auf die Volkswirtschaft haben, vor allem im Bereich der Beschäftigung und Energie. Darüber hinaus zeigte E & E Legal Goo‘s  [* s.u.] "extensive" Kommunikation mit Lobbyisten über sein Yahoo Konto um EPA Treibhausgas-Regelungen zu kreieren.

Gefunden auf The Daily Caller am 23. März 2016

Bericht zur Pressemittteilung von E&E Legal vom 22. März 2016: Wieder einmal nutzen hohe EPA Beamte private Emails für offizielle Behördenangelegenheiten

Übersetzt durch Andreas Demmig

http://dailycaller.com/2016/03/23/epa-execs-rely-on-private-emails-to-talk-with-lobbyists/#ixzz44070wrsl

 

Durch Recherche nach „EPA“, bin ich auf weitere Enthüllungen gestoßen:

E-Mails Detaillieren EPA’s wildeste ‚Goofest‘ Parties, komplett mit besoffenem Eisrodeln

Michael Bastard

Textausschnitte:

Wenn Sie ein Umweltschützer sind, sollten Sie auf jeden Fall auf die "Goofest" gehen angelegt von EPA’s früheren Politik-Leiter Michael Goo. Goofest Parties waren offenbar ein größerer Anlass als die "Tötung von Bin Laden" [Party], nach E-Mails [die Daily Caller] von Republikanischen Abgeordneten erhalten hat.

… Während diese "Goofest" E-Mails komisch waren, hoben republikanische Abgeordnete den E-ails eine verstörend gemütliche Beziehung zwischen EPA Beamten und Umweltaktivisten hervor – Ein Problem, dass Republikaner seit einiger Zeit herausstellen.

Republikaner Bill Johnson von Ohio, nahm EPA‘s Chefin Gina McCarthy über die gemütlichen Beziehungen von Goo zu Aktivisten in die Mangel, darunter mit der Frage, ob oder nicht McCarthy‘s Mitarbeiter an den "Goofest" teilnahmen.

In dem Artikel werden weiterhin Kontakte zuSierra Club Aktivistin Lena Moffit bezüglich der Keystone XL Pipeline, angesprochen, weiterhin z.B. auch zum Natural Ressources Defence Counsil: [… Ressourcen in der Erde lassen], die gerne einen Bericht hätten, „… dass im Januar keine neuen Kohleminen mehr eröffnet werden.“

Erschienen am 14. Juli 2015 auf The Daily Caller

Zusammengestellt und übersetzt durch Andreas Demmig

Emails Detail EPA’s Wild ‘Goofest’ Party, Complete With Boozy Ice Luge




Frühlingsbeginn in Deutschland – zeitiger oder leicht verspätet?

Bild rechts: Märzenveilchen blühten dieses Jahr erst Ende März. Aprilveilchen wäre dieses Jahr der exaktere Name. Foto Kowatsch

Wann der Frühling mit seinen ersten Boten wie Huflattich, Märzenveilchen, Scharbockskraut und Anemone erscheint, bestimmen vor allem die Temperaturen des letzten Wintermonates Februar und des ersten Frühlingsmonates März. Die Frühblüher könnten nur dann zeitiger erscheinen, wenn auch die Temperaturen in diesen beiden Monaten deutlich wärmer geworden wären. Diese fälschlicherweise in den „Qualitätsmedien“ behauptete Erwärmung zeigen die offiziellen Daten des Deutschen Wetterdienstes (DWD) jedoch nicht. Diese Temperaturbetrachtungen anhand der Daten des Deutschen Wetterdienstes stehen im Mittelpunkt dieses Artikels. Schauen wir uns zunächst die Temperaturen der beiden Monate Februar/März über einen Zeitraum von 30 Jahren näher an. 30 Jahre sind nach dem WMO- Standard ein klimatisch relevanter Zeitraum. Die Daten des Deutschen Wetterdienstes in Offenbach zeigen:

Bild 1: Das Ergebnis ist überraschend. Der Monat Februar wurde in den letzten 30 Jahren in Deutschland keinesfalls wärmer. Wir haben eine leicht fallende Trendlinie. Fallende Trendlinien sind das Gegenteil der ständigen Erwärmungsbehauptungen.

Diese Daten des Deutschen Wetterdienstes sind nicht wärmeinselbereinigt. Pflanzen aus den Vorgärten der meist wachsenden und wärmeren Siedlungen oder Ortschaften entwickeln sich schneller als solche in der freien, weniger wärmeinselbeeinflussten Landschaft. Von den etwa 2000 Messstationen des DWD stehen nur wenige in der freien Landschaft, die meisten befinden sich in oder am Rande der Ortschaften und Städte oder gar an den Landebahnen der Flughäfen im Strahl der gut 600 C heißen Flugzeugabgase.

Abb.2: Die Temperaturkurve des ersten Frühlingsmonats März zeigt über die letzten 30 Jahre nur eine sehr geringe, nicht signifikante Erwärmung.

Die CO2-Erwärmungsgläubigen stuften diesen Winter und vor allem den Februar als besonders mild ein. Dieser angeblich steigende Vorfrühlingstrend der letzten Jahre werde anhalten und die „Erwärmungstendenz“ sich beschleunigen, so die Falschmeldungen. Die Realität sieht anders aus. Betrachtet man den Gesamtzeitraum vom 1. Februar bis zum 31. März, so wird klar: Eine Erwärmung gab es im Spätwinter/Vorfrühling während der letzten 30 Jahre nicht (Abb. 3):

Abb. 3: Das Diagramm zeigt den Durchschnitt des Monates Februar und März. Im Spätwinter/Vorfrühling (Februar und März) blieb die von den „Klimamodellen“ vorhergesagte Erwärmung in Deutschland bislang aus. Die zusammengefasste Trendlinie beider Monate ist leicht fallend.

Aber weltweit soll doch dieser Februar neue Rekorde gebracht haben. Das würden sogar die Satellitendaten beweisen. Doch Vorsicht, diese sind gerade in jüngster Zeit noch oben korrigiert worden, um den langjährigen Stillstand per Softwareumschreibung zu beenden.

 Näheres siehe hier: http://www.kaltesonne.de/university-of-alabama-in-huntsville-uah-lehnt-fragwurdige-veranderungen-am-rss-satelliten-temperaturdatensatz-ab/ Die folgende Grafik haben wir aus dem Link entnommen

Abb.4: Globale Temperaturentwicklung seit 1980 laut RSS. In schwarz die Original-Version, in blau die nachjustierte Kurve. Graphik aus Mears & Wentz 2016. Softwaremanipulation zur Bereinigung der tatsächlichen Werte, das kennen wir doch aus einem anderen Bereich.

Bleiben wir bei den Daten des Deutschen Wetterdienstes. Was bedeuten die drei ersten Grafiken für die Vegetation und den Frühlingsbeginn in Deutschland?

Die Autoren dieses Artikels verfügen über langjährige Berufserfahrungen auf den Fachgebieten Naturschutz und Pflanzenbau. Sie beobachten die Natur seit vielen Jahrzehnten. Zusätzlich werteten wir Literatur über Frühjahrsblüher und das Erwachen der Vögel und Kröten aus. Auch einige Frühlingskinderlieder und Frühjahrsgedichte sind mehr als hundert Jahre alt. Man kann ihre Aussagen mit der heutigen Realität des Frühlingsbeginns vergleichen.

Die blauen Veilchen werden seit jeher Märzenveilchen genannt, weil sie auch schon damals im März blühten. Wäre der März vor über 100 Jahren kälter gewesen, hätte man sie Aprilveilchen genannt. Auch die Winterlinge heißen so, weil sie oft schon im Januar oder Februar blühen, heute genauso wie in früheren Zeiten.

Für vergleichende Vegetationsbeobachtungen sollte die freie Natur außerhalb der Wärmeinseln an unveränderten Örtlichkeiten bevorzugt werden. Mit Amtsberg-Dittersdorf haben wir sogar einen kleinen Ort mit privater Wetterstation am Fuße des Erzgebirges gefunden, den man zumindest für die letzten 30 Jahre als fast WI-frei bezeichnen kann.

Abb.5. Die braune Trendlinie sind die Aufzeichnungen des Deutschen Wetterdienstes wie in Grafik 1. Orte wie Amtsberg am Fuße des Erzgebirges, deren Umgebung sich in den letzten 30 Jahren kaum verändert hat, zeigen einen viel stärkeren Abwärtstrend der Februartemperaturen als der Mittelwert der DWD-Stationen.

Ergebnis: In der freien Fläche ist der Februar in den letzten 30 Jahren deutlich kälter geworden. Ohne Bevölkerungswachstum, Industrialisierung und Urbanisierung in die freie Fläche hinein wären die heute in Deutschland gemessenen Februartemperaturen um etwa ein Grad Celsius niedriger.

Den Monat März in Amtsberg im Vergleich zu dem Gesamtschnitt der Stationen des Deutschen Wetterdienstes zeigt das nächste Diagramm. Die DWD-Erhebungen sind in brauner Farbe dargestellt und entsprechen der Abb. 2

Auch der März folgt nicht dem Orakel der Erwärmungsverkünder. Er kühlte sich im WI-armen Standort Amtsberg leicht ab, auch wenn es 2012 und 2014 zwei sehr warme Monate gab. Der März 2016 lag im unteren Drittel der letzten 30 Jahre:

Abb.6 Fast wärmeinselfreie Orte wie Amtsberg-Dittersdorf (blau-violett) haben seit 30 Jahren eine leicht fallende Trendlinie im März.

Ein wichtiger Zeiger für den Beginn des sogenannten „Erstfrühlings“ ist die Laubentfaltung der Wild- Stachelbeere (Ribes uva- crispa). Diese fällt in klimatisch durchschnittlichen Regionen Deutschlands, zu denen auch die Kleinstadt Weimar/Thüringen zählt, meist in den Zeitraum um Anfang März.

Abb. 7: Die ersten, entfalteten Laubblätter der Wild- Stachelbeere zeigen den Beginn des Erstfrühlings an. Foto: Stefan Kämpfe

Einer der beiden Autoren, der Botaniker, Phänologe und Klimaforscher STEFAN KÄMPFE, hat seit 1990 im Park an der Ilm, der wegen seines Denkmalschutzes inklusive seiner näheren Umgebung weitgehend unverändert blieb, den Stachelbeeraustrieb dokumentiert. Zwar gab es im Jahr 2016 den bisher frühesten Laubaustrieb, doch konnte dieser den leichten, seit Beobachtungsbeginn erkennbaren (nicht signifikanten!) Verspätungstrend nicht ausgleichen:

Abb. 8: Achtung: Eine steigende Trendlinie heißt Verspätung. Auf der x-Achse sind die Tage nach Neujahr aufgetragen. In Weimar zeigt sich seit 1990 keine Verfrühung des Wildstachelbeer- Austriebes- im Gegenteil!

Auf den Stachelbeer- Austrieb hat freilich der März fast keinen Einfluss, umso mehr aber das Temperaturniveau der vorangehenden Wintermonate. Trotz eines eher kühlen Januars erfolgte der Austrieb 2016 so zeitig, weil es einen rekordmilden Dezember 2015 gab. In den meisten Fällen bestimmt jedoch das Temperaturniveau der Monate Januar und Februar den Zeitpunkt des Austriebes:

Abb. 9: Geringfügig fallende Temperaturmittelwerte im Januar/Februar an der Station Erfurt/Weimar, etwas späterer Stachelbeeraustrieb. Wegen der großen Streuung sind die Trends nicht signifikant, von einer „Verfrühung“, wie sie viele Klimaforscher vorhergesagt haben, ist jedoch nichts zu sehen.

Im Jahr 2016 „schleppten“ sich Vor- und Erstfrühling auch deshalb so quälend lange hin, weil die wärmende Sonne viel zu selten schien (Februar und März waren sehr sonnenscheinarm). So konnten sich auch Pflanzen an windgeschützten Südhängen diesmal nicht schneller entwickeln. Wegen des extrem milden Dezembers dauerte die Haselblüte in Weimar rekordverdächtige 118 Tage, auch Schwarzerle, Schneeglöckchen, Winterlinge, Krokusse, Märzenbecher und die Kornelkirsche blühten anderthalb bis 3 Monate! Pollenallergiker klagten seit Mitte Dezember über Beschwerden, doch ist dies keine Folge des „Klimawandels“, sondern eine Folge der ungünstigen Wetterlagenverteilung: Viel mildes Süd- und Westwetter im Frühwinter, dann kälteres Nordwetter im Spätwinter. Unter http://www.eike-klima-energie.eu/climategate-anzeige/extremes-winterwetter-in-europa-der-waermeinseleffekt-und-das-maerchen-vom-co2-treibhauseffekt-teil-1-die-gegenwaertigen-witterungsextreme-und-wesentliche-hintergruende-der-erwaermung-in-deutschland/ hatten wir über die Ursachen dieser Witterungsextreme berichtet.

Abb. 10: Quälgeist Haselkätzchen: Von den allerersten Blüten (5. Dezember) bis zu den allerletzten (um den 31. März) vergingen diesmal in Weimar rekordverdächtige 118 Tage. Foto: Stefan Kämpfe

Fazit: Der Frühling beginnt seit 30 Jahren etwas später, weil die Temperaturen der Monate Februar und März laut den Temperaturerhebungen des Deutschen Wetterdienstes gleichbleibend oder sogar leicht sinkend sind. Und weil auch die Temperaturen im Winter stagnierten, lässt sich ebenfalls kein zeitigerer Vegetationsbeginn beobachten.

Gehen wir noch 10 Jahre weiter zurück in die Vergangenheit. Da ab dem Jahr 1977 fünf wärmere Märzmonate folgten, ist die Trendlinie des Monates März schon seit 40 Jahren fast ausgeglichen. Würden sich Pflanzen nur nach den Temperaturen richten, dann müsste die Forsythie dieses Jahr den gleichen Blütenbeginn wie um 1977 haben, falls nicht andere Faktoren wie winterharte Züchtungen auf die Pflanzen Einfluss gewonnen haben. In der freien Fläche und im Erzgebirge müsste die Verspätung deutlich erkennbar sein.

Abb. 11: Der erste Frühlingsmonat März zeigt laut Temperaturangaben des Deutschen Wetterdienstes schon seit 40 Jahren eine fast ebene Trendlinie. Die Erwärmung dieses Monates hörte schon vor 40 Jahren fast auf. Der Monat März ist somit der Monat, der am längsten sein Temperaturniveau hält und nicht mehr wärmer wird. Wärmeinselbereinigt würde er sogar eine leichte Abkühlung zeigen.

Wir möchten hier ausdrücklich betonen, dass die CO2-Konzentrationen in dem Zeitraum der letzten 30 bis 40 Jahre besonders gestiegen sind. Die Temperaturen Deutschlands halten sich nicht daran.

Warum können wir gegen die Erwärmungsfalschbehauptungen der Medien und des DWD nicht gerichtlich vorgehen? Die Führungsriege des DWD argumentiert schließlich gegen die eigenen Daten.

Die Antwort zeigt die letzte Grafik. Nahezu jeder Monat verhält sich über einen längeren Zeitraum wie der Monat März. Im letzten Jahrhundert gab es zwei Temperaturhöhen und eine Kältedelle um die Jahrhundertmitte

Abb.12: Um die Mitte des letzten Jahrhunderts war der März genauso wie die anderen Monate kälter als heute, auch kälter als in den 20er Jahren. Die Daten sind die Originaldaten des Deutschen Wetterdienstes, also nicht einmal wärmeinselbereinigt.

Im Zeitraum seit 1911 ist die CO2-Konzentration natürlich ständig gestiegen. Allein diese Grafik zeigt, dass der Erwärmungsglaube CO2-Treibhauseffekt nicht richtig sein kann.

Zum Temperaturvergleich ziehen sowohl DWD als auch die CO2-Erwärmungsgläubigen mitsamt den Medien immer die etwas tieferen Temperaturen der Jahrhundertmitte oder der 60er Jahre als Betrachtungszeitraum heran. Und die waren nun einmal kälter als heute, aber auch kälter als zu Beginn des letzten Jahrhunderts. Ironischerweise wird dieser Zeitpunkt des Kältelochs auch noch als „Normal“ bezeichnet. Ein Diagramm mit dem Startjahr beispielsweise 1966 zeigt deshalb eine 50ig jährige steigende Trendlinie bis heute. In Wirklichkeit sind es aber ein 20ig -jähriger Anstieg und seit 1987 ein 30ig -jähriger Stillstand bzw. wärmeinselbereinigt ein leichter Abfall. Lohnt es sich deshalb, vor Gericht zu gehen? Denn die Aussage, vor 50 Jahren waren die Winter, einschließlich März kälter als heute, würde sogar stimmen. Verschwiegen wird nur der Stillstand seit 30 Jahren.

Josef Kowatsch, Naturbeobachter und unabhängiger Klimaforscher

Stefan Kämpfe, Diplom- Agrar- Ingenieur, Naturbeobachter und Klimaforscher




Wider die Panikmacher! Terroralarm? Wie sicher ist Atomenergie in der Ära IS?

Das sind zum einen Fragen zur Sicherheit kerntechnischer Anlagen, zum anderen aber auch Fragen zum Phänomen der gefühlten Sicherheit in einer kernenergienutzenden Gesellschaft. Denn dieses Sicherheitsempfinden ist es, das die Terroristen neben Flughäfen, Bahnhöfen, Museen, Supermärkten und Cafés ins Visier nehmen. Und die Sinnverbindung von »Terror« und »Atom« ist in der Lage, schon durch ihre bloße Andeutung eine Gesellschaft wie die deutsche in Angst und Schrecken zu versetzen. Haben die Terroristen also schon gewonnen? Oder sollten wir nicht vielmehr versuchen, dem Terror seinen psycho-politischen Nährboden zu entziehen, indem wir die Gefährdung unserer Kernkraftwerke historisch einordnen und aktuell mit kühlem Kopf einschätzen?

Deutschland 1986: Der erste Mord an einem Repräsentanten der Atomindustrie

Seit den 1970er Jahren nutzen viele europäische Gesellschaften die Kernenergie in großindustriellem Maßstab – und ebenfalls seit den 1970er Jahren sind viele der kernenergienutzenden Länder auch von international agierendem politischem Terrorismus betroffen. Damals waren es Palästinenser im Verbund mit linksextremen Terroristen, keine religiösen Fanatiker, aber die Frage nach der kerntechnischen Sicherheit vor Terrorangriffen stellte sich schon damals. In dieser Problematik wurzelte auch die Diskussion um den sogenannten »Atomstaat«, also um die Frage, ob die Sicherung kerntechnischer Anlagen vor illegaler Proliferation und terroristischen Angriffen nicht am Ende zur Außerkraftsetzung der Grundrechte zunächst der Beschäftigten in der Atomindustrie und schließlich auch der Gesamtgesellschaft führe (Robert Jungk, Alexander Rossnagel). Nach dem Schock der Terrorangriffe vom 11. September 2001 konnten wir die befürchtete Aushöhlung vorher selbstverständlicher Grundrechte in den USA beobachten. Seitdem der IS-Terror in europäischen Metropolen wütet, geht die Diskussion bei uns in dieselbe Richtung – auch ohne die Frage der Kernenergiesicherheit.

Ganz konkret rückten leitende Beschäftigte der kerntechnischen Industrie schon in der Vergangenheit in den Fokus sowohl der Strafverfolgung als auch der Terroristen. Klaus Traube, Geschäftsführender Direktor der Firma Interatom, verlor infolge einer Terror-Denunziation 1976 seinen Arbeitsplatz. Der Lauschangriff auf ihn wurde Anlass eines der großen bundesdeutschen Skandale, in dessen Verlauf Innenminister Werner Maihofer 1978 zurücktreten musste. Der Physiker und Siemens-Manager Karl Heinz Beckurts wurde von der Roten Armee Fraktion 1986 explizit als Repräsentant der »Atomindustrie« angegriffen und zusammen mit seinem Fahrer ermordet.

Schon die semantische Kombination der  Wörter „Atom“ und „Terror“ löst Panik aus

Die Sicherheitsdiskussion ist weder neu noch auf die Kernenergiefrage beschränkt. Gleichwohl löst allein schon die Kombination der semantischen Felder »Atom« und »Terror« in unserer Gesellschaft Angst und Schrecken aus. Zuverlässiges Anzeichen für diesen Zustand ist – wie immer beim Diskutieren um die Kernenergie in unserem Land – eine unpräzise, stellenweise hysterische Sprache und ein Einsatz von Maximalforderungen.

Dass die belgischen Anlagen Tihange und Doel wegen der Terrorgefahr »evakuiert« worden seien, hört sich eben sehr viel dramatischer an, als wenn man berichtete, dass beim Inkrafttreten von Terrornotfallplänen in Belgien prinzipiell das Tages- und Fremdpersonal das Anlagengelände verlassen muss, während die Betriebsschichten und die Bereitschaftsdienste die weiterlaufende Anlage betreuen – genau wie an den Wochenenden.

Viele assoziieren mit dem Begriff »Evakuierung« jedoch, dass im Kraftwerk bereits ein Schaden angerichtet worden sei. Und im nächsten Atemzug wird diese Begrifflichkeit mit den – sprachlich und sachlich ebenso nachlässigen – Berichten der Vergangenheit über die belgischen "Rissreaktoren" verquickt. Stellt sich dann noch heraus, dass tatsächlich ein Islamist Zugang zu einem nuklearen Kontrollbereich hatte, dann ist das Resultat ein zündfähiges Angstgemisch made in Germany. Am Ende steht die Maximalforderung, alle Kernkraftwerke wegen einer nicht mehr zu kontrollierenden Terrorgefährdung vom Netz zu nehmen.

Vielschichtige Risikoeinschätzung

Um die tatsächliche Gefährdung nüchtern einzuschätzen, muss man das hochkomplexe Gesamtproblem, in dem sich viele Fragestellungen überlagern, auseinandernehmen und Stück für Stück bewerten. Im Wesentlichen muss man sich fünf Fragen stellen:

1.     Sind Terroristen in der Lage, Materialien und/oder Werkzeuge für den Bau primitiver Nuklearwaffen oder sogenannter Schmutziger Bomben, bei denen Radionuklide mittels eines konventionellen Sprengsatzes freigesetzt werden, aus Kernkraftwerken zu entwenden?

2.    Können Terroristen durch einen Angriff von außen – etwa mit einem gekaperten Verkehrsflugzeug oder mit Kriegswaffen – ein Kernkraftwerk in einen nicht mehr beherrschbaren Unfall treiben

3.    Sind Mitglieder terroristischer Vereinigungen oder fanatische Einzeltäter in der Lage, als Innentäter in einem Kernkraftwerk schwere Schäden anzurichten?

4.    Können Terroristen mittels Erpressung von (leitendem) kerntechnischem Personal in die Lage versetzt werden, eines der oben aufgelisteten Szenarien in die Tat umzusetzen?

5.    Können Terroristen auf cyberkriminellem Wege die IT-Systeme und Maschinensteuerungen eines Kernkraftwerks derart beschädigen, dass es zu einem nicht beherrschbaren Unfall kommt?

Die kanadische Kommunikationswissenschaftlerin Suzanne Waldman hat sich einschlägiges Material über die Terrorrisiken von Kernkraftwerken angeschaut und kommt zu nachdenklichen, aber keinesfalls krass beunruhigendenSchlussfolgerungen, die ich hier mit einigen weiteren Überlegungen anreichere.

Kernwaffen aus Kernkraftwerken sind umständlich

So wird das Risiko des Baus und erfolgreichen Einsatzes einer primitiven Kernwaffe aus Materialien, die aus der zivilen Kerntechnik stammen, von Experten als verschwindend gering eingestuft: Terroristen wählen den effizientesten Weg zur Maximierung des Schadens. Der Bau einer primitiven Kernwaffe ist aber ein für die Täter sehr umständlicher und risikoreicher Weg mit ungewissem Ausgang. Er erfordert außerdem viele technische Hilfsmittel, welche außerhalb einer spezialisierten Laboreinrichtung nicht zu haben sind. Der in den Trockenlagern der zivilen Kernkraftwerke vorgehaltene frische, unbestrahlte nukleare Brennstoff eignet sich wegen seines niedrigen Anreicherungsgrades überhaupt nicht für den Bombenbau. Die Entwendung hochaktiver abgebrannter Brennelemente würde eher den baldigen Tod der Terroristen als eine erfolgreiche Verwendung als Waffe bedeuten – abgesehen davon, dass man für das Umladen und Ausschleusen dieser schweren und unhandlichen Gegenstände eine Menge technischer Ausrüstung und mehrere Prozessbediener mit Spezialausbildung braucht.

Schmutzige Bomben: Medizinischer Bereich eher im Visier

Schmutzige Bomben wiederum kann man mit Materialien aus der Nuklearmedizin eher bauen als mit den Stoffen und Werkzeugen, mit denen man im Kernkraftwerk umgeht. Das wirft allerdings Fragen nach der Sicherung unserer Alltagskerntechnik auf, die jenseits gut gesicherter Kraftwerksgelände in der medizinischen und wissenschaftlichen Anwendungs- und Verwertungskette genutzt wird. Der Fall des ausgeforschten Leiters einer Anlage, die auf die Produktion von Radionukliden für den medizinischen Gebrauch spezialisiert ist, lässt daher aufhorchen. Da wir aber die Frage zu beantworten haben, ob mit der Terrorgefahr die Abschaltung unserer oder der belgischen Kernkraftwerke zu rechtfertigen wäre, ist dieser Fall gesondert zu behandeln. Mit der Nutzung der Kernenergie zur Stromerzeugung hat er ja wenig zu tun.

Angriff aus der Luft: Pulverisierung des Flugzeugs nicht des AKW

Ähnlich unwahrscheinlich schätzen die Sicherheitsstudien einen erfolgreichen kriegsähnlichen Angriff von außen ein, etwa durch den Versuch, ein Verkehrsflugzeug in ein Reaktorgebäude zu steuern oder dieses mit panzerbrechenden Waffen zu beschießen, um eine Kernschmelze auszulösen. Abgesehen von der Schwierigkeit des Zielanflugs auf ein niedrig gelegenes, kompaktes Objekt scheitern solche Angriffe an der Physik des Reaktorgebäudes und der gegen dieses eingesetzten Mittel. Ein Verkehrsflugzeug weist eine weit höhere Verformbarkeit und eine geringere Dichte auf als ein Reaktorgebäude. Ein Einschlag würde daher in der Pulverisierung des Flugzeugs enden, nicht in der des Reaktorgebäudes. Auch ein Beschuss vom Boden erfordert hohen Aufwand:  Um auf diese Weise von außen schwere Schäden an einem Reaktorgebäude anzurichten, brauchten Terroristen vermutlich mindestens schwere Artillerie mit bunkerbrechenden Geschossen.

Sabotage der Stromnetzanbindung: Ersatz im Standby-Modus

Bleibt der Angriff auf die elektrischen Netzanbindungen eines Kernkraftwerks. Der ist auch ohne einen Angriff auf das Kraftwerksgelände denkbar, etwa durch die Sprengung der Verbindung zum Landesnetz, in das das Kernkraftwerk einspeist (bei uns das 380-kV-Netz) und zum Fremdnetz (110 kV), das als Reservenetz dient. Für diesen sogenannten Notstromfall sind europäische Kernkraftwerke jedoch bestens gerüstet – mit mehrfach redundant ausgelegter und gesichert untergebrachter Notstromversorgung, verbunkerten Notspeisegebäuden, üppigen Dieselvorräten für die Notstrom- und Notspeisenotstromaggregate, in einigen Fällen auch mit einer weiteren Netzreserve über 30-kV-Erdkabel.

Angriffe von innen: Technisch und logistisch schwer überwindbares System

Viel ernster zu nehmen erscheint die Möglichkeit, dass ein terroristischer Innentäter in einem Kernkraftwerk Schaden anrichtet, etwa im Verlauf einer sich über Jahre hinziehenden persönlichen Radikalisierung, die aus dem freundlichen Kollegen einen unerbittlichen Islamisten macht. Aber auch in diesem Falle sprechen sowohl die bisher gemachten Erfahrungen aus rund 16.000 Reaktorbetriebsjahren als auch die vorhandenen Sicherheitsvorkehrungen eine andere Sprache. Denn führt man sich Komplexität der Anlage und die gestaffelten Sicherheitsvorkehrungen vor Augen, ist es unmöglich, als Innentäter den von Terroristen erwünschten maximalen Effekt zu erzielen, nämlich den schweren, nicht mehr beherrschbaren Unfall. Aus naheliegenden Gründen machen Behörden und Betreiber keine Detailangaben über die Technologie und Ausführung bestimmter Sicherheitsvorkehrungen, beispielsweise zur äußeren Sicherung der Anlage und der Personenkontrolle. Technologisch wiederum ist anzumerken, dass alle sicherheitsrelevanten anlagentechnischen Prozesse von Innentätern zwar punktuell beeinflussbar wären. Sie können aber nicht so weit modifiziert werden, dass es zu einem unbeherrschbaren Unfall führt. Ziel bei der Auslegung deutscher Kernkraftwerke war es jedenfalls, es für einen Einzeltäter innerhalb der Anlage unmöglich zu machen, durch Sabotage gravierenden Schaden anzurichten; für eine Gruppe sollte es zumindest schwierig sein.

An einem sicherheitsrelevanten Eingriff in die Systeme eines Kernkraftwerks müssten stets mehrere Personen beteiligt sein. Anders lässt sich der überhaupt nicht bewerkstelligen. Begrenzungs- und Schutzautomatiken sorgen beim Über- oder Unterschreiten von festgelegten Parametern oder bei mutwillig fehlerhaften Schalthandlungen für eine Blockade der Handlung und/oder die Rückführung der Anlage auf die Sollwerte. Sicherheitsrelevante Armaturen und Aggregate sind durch Zusatzvorkehrungen gegen unautorisierten Eingriff abgesichert und plombiert.

Sollten Komponenten durch einen gewaltsamen Eingriff ausfallen, bewegt sich die Gesamtanlage stets in die sichere Richtung, das heißt es kommt im schlimmsten Fall zu einem hohem ökonomischen Schaden, womöglich auch zur Verletzung Einzelner. Die Anlage selbst aber würde durch automatische Verfahren in einen stabilen Zustand gebracht, als ultima ratio durch Reaktor- und Turbinenschnellabschaltung. Alle wichtigen Systeme sind redundant und räumlich getrennt ausgelegt, so dass ein Einzeldefekt oder ein räumlich begrenzter schwerer Schaden – auch ein absichtlich herbeigeführter – zum einen nicht zu einem schweren Unfall führen kann, zum anderen aber frühzeitig bemerkt würde.

Auch für diesen Fall gibt es ein belgisches Beispiel, den vermutlichen Sabotageakt an der Turbinenanlage von Doel 4, die 2014 infolge mutwilligen Entleerens des Ölversorgungssystems schwer beschädigt wurde. Jedoch wurde der Kernreaktor im betroffenen Block sicher abgefahren.

Cyberterrorismus: Analoge Systeme setzen Grenzen

Bleibt die Frage nach dem Cyberterrorismus, einem von außen oder innen unternommenen Angriff auf die Prozessleitsysteme eines Kernkraftwerkes. Auch in diesem Bereich bleiben Betreiber und Behörden zurückhaltend mit Informationen. Es ist in der Literatur bekannt, dass es erfolgreiche Hackings von Maschinensteuerungen großer Industrieanlagen gegeben hat, inklusive jenes berühmt-berüchtigten Stuxnet-Angriffs auf iranische Urananreicherungsanlagen. Europäische Kernkraftwerke waren dem Vernehmen nach noch nicht von solchen Angriffen betroffen. Abgesehen von den – öffentlich nicht diskutierten – IT-Schutzpolitiken der Kernkraftwerke, die sich mit diesem Problem auseinandersetzen, ist festzustellen, dass die Digitalisierung im Kernkraftwerk und damit der Einfallspfad für Terroristen bestimmte Grenzen hat.

So wird in den sicherheitsrelevanten Bereichen von Kernkraftwerken, die in den 1980er Jahren errichtet wurden, etwa im Reaktorschutz hauptsächlich analog gearbeitet. Das schützt die Systeme vor digitalen Attacken. Dort, wo in Messtechnik und Prozesssteuerung digitale Systeme verwendet werden, verzichtet man bewusst auf speicherprogrammierbare Steuerungen (SPS), die anfällig für Attacken wie die von Stuxnet sind. Vielmehr setzt man auf moderne Formen verbindungsprogrammierter Steuerungen (VPS), die im laufenden Betrieb nicht umprogrammiert werden können. Auch diese Steuerungen sind jedoch nicht gegen mögliche Manipulationen durch einen kompetenten Innentäter gefeit. Dagegen helfen nur weitere Sicherheitsmaßnahmen wie das Vier-Augen-Prinzip bei Arbeiten an solchen Systemen und die lückenlose Kontrolle auch bei Komponenten-Zulieferern.

Prinzipiell ist festzustellen, dass Cyberkriminalität gegenwärtig vor allem von Geheimdiensten mit dem Ziel der Industriespionage genutzt wird. Fälle von islamistischen Cyberangriffen auf nukleare Anlagen sind mir nicht bekannt. Vermutlich erscheinen solche Angriffe wegen der benötigten Qualifikationen und Mittel, die in ungünstigem Verhältnis zum erwartbaren »Ertrag« stehen, aus Sicht islamistischer Terroristen weniger effizient als die Attacke auf weit weniger gesicherte Ziele, wie etwa Flughäfen, Bahnhöfe oder Chemieanlagen.

AKW’s wegen Terror abschalten? Dann müsste auch der Flugverkehr abgeschafft werden

Legt man also die klassische Formel »Risiko gleich Schadenshöhe mal Eintrittswahrscheinlichkeit« zugrunde und vergleicht das hier in Umrissen skizzierte tatsächliche Terrorrisiko der Kernenergienutzung mit dem potenziellen Schaden durch einen sofortigen Kernenergieausstieg (Klimaschädlichkeit der fossilen Ersatzkraftwerke, zusätzliche Tote durch Atemwegs- und Herz-Kreislauf-Erkrankungen, Landschaftsverbrauch durch regenerative Energieumwandlung), dann müsste man sich zugunsten der Kernenergienutzung entscheiden. Man kann hinzufügen: eine Abschaltung der Kernkraftwerke aus Angst vor einer potenziellen Terrorgefahr gleicht einem Selbstmord aus Angst vor dem Tod. Fordert man diese, so müsste man sich konsequenterweise auch für eine Abschaffung des Flugverkehrs stark machen, denn auf diesem Gebiet haben Terrorangriffe Tausende von tatsächlichen, nicht nur abstrakt-potenziellen Opfern gekostet. Auch andere risikobehaftete Industrieanlagen wie Tanklager und Chemiewerke, die weit weniger gesichert sind als Kernkraftwerke, müssten dann geschlossen werden.

Die unterschätzten Schwachstellen mit Handlungsbedarf

Bevor wir nun aber zu optimistisch in unsere Zukunft schauen, die durch IS-Terror und Kriegshandlungen in Osteuropa (wo es auch Kernkraftwerke gibt) gekennzeichnet ist, sei zum Abschluss auf jene Felder der nuklearen Sicherheit verwiesen, in denen dringender Handlungsbedarf besteht – und die nicht von ungefähr abgekoppelt sind vom Gelände des konkreten Kernkraftwerks. Dazu gehört, wie im belgischen Falle schon angeklungen, auf jeden Fall der Modus der Sicherheitsüberprüfungen: es darf nicht sein, dass Islamisten und andere Extremisten Zugang zu den Sicherheitsbereichen kerntechnischer Anlagen erhalten. Andererseits ist es immer schwierig bis unmöglich, noch nicht straffällig Gewordene mit Hinblick auf ihre künftigen Entscheidungen aufzuspüren. Das ist ein Grundproblem demokratischer Rechtsstaaten, in denen sich eine islamistische Radikalisierung in kaum durchdringbaren Parallelgesellschaften vollzieht. Das bezieht aber auch „ganz normale Jungs“ mit ein. Man braucht also ein nahes Miteinander und große Vertrautheit, um herauszufinden, dass mit dem Kollegen womöglich etwas nicht mehr stimmt.

Und hier berühren wir ein weiteres Handlungsfeld, nämlich die heutige Organisationsstruktur der Nuklearindustrie als solcher. Sie macht es immer schwieriger, Kollegen über lange Zeiträume im Auge zu behalten und sich zu kümmern, wenn jemand in Bedrängnis zu sein scheint oder in die Radikalisierung abdriftet. Im Zuge der Neoliberalisierung der Energiemärkte und der Zerschlagung der quasi-staatlichen öffentlichen Energieversorgung hat sich auch die Arbeitswelt der kerntechnischen Industrie wesentlich verändert – nicht immer zum Guten der Sicherheit.

Während die Kernbelegschaften der Kernkraftwerke immer weiter schlankgeschrumpft und die Arbeitsprozesse rationalisiert wurden, breitete sich die Praxis des Outsourcing, der Subkontraktierung, der Leih- und Vertragsarbeit im Kernenergiesektor rapide aus. Im Ergebnis sehen wir ein hochkomplexes, transnationales Netz verschachtelter Subunternehmen und häufig wechselnder Fremdfirmenpartner der europäischen Kernkraftwerke. Gleichzeitig stieg die Schlagzahl der Arbeitsaufträge enorm, die in immer kürzeren Revisionszeiträumen abgeleistet werden müssen. In einem solchen System gibt es keine Möglichkeit mehr zum Innehalten und Nachhaken. Es ist eine Herausforderung, den Überblick über ein derart stark fluktuierendes und grenzüberschreitend aktives Personal zu behalten.

Man kann diese Praxis nicht von heute auf morgen revidieren, aber man sollte sie überdenken. Sie stellt uns in einer Ära der Unsicherheiten zweifelsohne vor größere Probleme als die Instandhaltung durch Eigen- und Ortspersonal, wie sie beispielsweise in osteuropäischen Ländern bis heute betrieben wird, auch wenn sie kostenträchtiger ist und sich auf die Verfügbarkeit der Anlagen merklich auswirkt.

Terroristen sind ökonomisch denkende Schwerverbrecher

IS-Terroristen sind ökonomisch denkende Schwerverbrecher. Sie machen Kosten-Nutzen-Rechnungen auf. Aus ihrer Perspektive ist ein Kernkraftwerk ein eher nicht lohnendes Ziel. Seine gestaffelten Sicherheitsvorkehrungen bedeuten für Terroristen ein hohes eigenes Risiko und hohen Aufwand bei ungewissem „Erfolg“. Andererseits ist aber der Diskurs um das Kernkraftwerk ein durchaus lohnendes Ziel für Terroristen. Sie greifen die Schwachstellen offener Gesellschaften an. Sie wählen möglichst weiche, wehrlose Ziele, wenig gesicherte öffentliche Bereiche, um einen maximalen „Ertrag“ an Opfern und an Schreckensverbreitung zu erzielen.

Zum Repertoire terroristischer Praktiken gehört daher auch die Verbreitung von Angst vor unwahrscheinlichen, aber sehr großen Gefahren. Wenn allein schon die Möglichkeit (nicht: die Erfolgswahrscheinlichkeit) eines terroristischen Angriffs auf ein Kernkraftwerk unsere Gesellschaft in Angst und Schrecken zu versetzen vermag, dann haben die Terroristen bereits einen Teilerfolg erzielt. Die Aufgabe einer offenen, demokratischen Gesellschaft ist es, Terroristen die Ernte des Todes und den Ertrag des abstrakten Schreckens so sauer und so knapp wie möglich zu machen. Wer wider besseres (Experten-) Wissen aus Kernenergie und Terror diskursiv ein Feld des Schreckens erzeugt, der kapituliert vor dem Terror, statt unsere Welt sicherer zu machen.

Dr. Anna Veronika Wendland forscht zur Geschichte und Gegenwart nuklearer Sicherheitskulturen in Ost- und Westeuropa. Für ihre Habilitationsschrift hat sie in mehreren Kernkraftwerken in der Ukraine, Litauen und Deutschland, zuletzt in den KKW Grafenrheinfeld und Grohnde, Forschungsaufenthalte durchgeführt. Dr. Wendland arbeitet in der Direktion des Herder-Instituts für historische Ostmitteleuropaforschung in Marburg. Sie leitet Arbeitsgruppen im Bereich Technik-, Umwelt- und Sicherheitsgeschichte.

Dieser Beitrag erschien zuerst auf der website Nuklearia. Der Verein Nuklearia e.V. ist gemeinnützig und ganz bewusst partei- und konzernunabhängig. Entstanden ist er aus der AG Nuklearia der Piratenpartei. Er veröffentlicht Sachinformationen zu Kernkraft, Strahlung und ähnlichen Themen.

Literatur

Robert Jungk, Der Atom-Staat. Vom Fortschritt in die Unmenschlichkeit, München 1977
Alexander Rossnagel, Radioaktiver Zerfall der Grundrechte? Zur Verfassungsverträglichkeit der Kernenergie, München 1984
Suzanne Waldman, Examining the Risks of Nuclear Terrorism, 2014-11-22
James L. Ford, Radiological Dispersal Devices, März 1998, Air University
United Nations, General Assembly Official Records, Sixty-eighth session, Supplement No. 46, Report of the United Nations Scientific Committee on the Effects of Atomic Radiation, Sixtieth session, (27-31 May 2013)
New York State, Department of Health, Dirty Bombs, Februar 2011
The New York Times, Nuclear Reactors as Terrorist Targets, 2002-01-21
Wikipedia, Chaïm Nissim, 2014-09-11
Robert Wilson, A Case Study in how Junk Science is Used by Anti-Nuclear Environmentalists, 2014-10-28, The Energy Collective
World Nuclear Association, Safety of Nuclear Reactors, August 2015
Wikipedia, Stuxnet, 2016-02-29
Anna Veronika Wendland, Belgische Rissreaktoren: Wie sicher sind Tihange 2 und Doel 3?, 2016-02-04, Nuklearia
Diarmaid Williams, Electrabel confirms Doel 4 nuclear power plant sabotage, 2014-08-15, Power Engineering International

Übernommen von Nuklearia hier 




Kollaps des CAGW-Wahns: Nach 2020 nicht mehr haltbar

1. Die Probleme des IPCC mit Globalen Vorhersagemodellen

Harrison und Stainforth schreiben hier:

Dem Reduktionismus zufolge sind deterministische Annäherungen an die Wissenschaft und positivistische Ansichten von Kausalität geeignete Verfahren, um komplexe, multivariable Systeme zu erkunden … wobei das Verhalten eines komplexen Systems abgeleitet werden kann aus dem fundamentalen reduktionistischem Verständnis. Große komplexe Systeme können besser verstanden werden und vielleicht nur verstanden werden hinsichtlich beobachtetem auftretendem Verhalten. Die praktische Auswirkung ist, dass es Verhaltensweisen des und Strukturen im System gibt, die mit Erklärungen oder Prophezeiungen durch reduktionistische Verfahren nicht zugänglich sind … das Globale Zirkulationsmodell GCM ist die numerische Lösung eines komplexen, jedoch rein deterministischen Satzes nichtlinearer Differentialgleichungen über ein definiertes zeitliches und räumliches Netz, und kein Versuch wird unternommen, irgendeine Quantifizierung der Unsicherheit in das System einzuführen … Das reduktionistische Argument, dass großräumiges Verhalten repräsentiert werden kann durch kumulierende Effekte von Prozessen in kleinerem Scale wurde im Zusammenhang mit natürlichen umweltlichen Systemen niemals validiert.

Das Modellierungs-Verfahren ist inhärent wertlos bei der Vorhersage zukünftiger Temperaturen mit irgendeiner berechenbaren Sicherheit, und zwar wegen der Schwierigkeit, die initialen Bedingungen zu spezifizieren in einem hinreichend engmaschigen räumlichen und zeitlichen Netz einer großen Anzahl von Variablen mit hinreichender Präzision vor multiplen Iterationen. Mehr dazu hier und hier.

In Abschnitt IPCC AR4 WG1 8.6 geht es um Antriebe, Rückkopplungen und Klimasensitivität. Die Unzulänglichkeiten der Modelle werden erkannt. Die Schlussfolgerungen finden sich in Abschnitt 8.6.4, wo es unter Anderem heißt:

Außerdem ist noch nicht klar, welche Tests kritisch sind hinsichtlich der Zukunfts-Projektionen, konsequenterweise mit einem Satz von Modellmetrik, der herangezogen werden könnte, um die Bandbreite plausibler Klimawandel-Rückkopplungen und der Klimasensitivität einzuengen. Ein solcher Satz muss noch entwickelt werden“.

Was könnte klarer sein. Im Jahre 2007 sagte das IPCC selbst, dass es noch nicht einmal weiß, welche Metriken man in die Modelle stecken muss, um ihre Zuverlässigkeit zu testen (d. h. wir wissen nicht, wie die Temperatur in der Zukunft sein wird, und wir können nicht die Klimasensitivität hinsichtlich CO2 berechnen). Dies enthält außerdem die Frage, welche irrigen Hypothesen (z. B. dass CO2 der Haupt-Klimatreiber ist) in die „plausiblen“ Modelle eingegangen sind, die auf irgendeine Weise getestet werden sollen.

Selbst das IPCC hat jetzt aufgegeben, die Klimasensitivität CS zu schätzen – im AR5 heißt es (versteckt in einer Fußnote):

Kein Best Estimate für die Gleichgewichts-Klimasensitivität kann angegeben werden wegen fehlender Übereinstimmung bei Werten über abgeschätzte Beweislinien und Studien hinweg“.

Paradoxerweise behaupten sie immer noch, dass das UNFCCC eine gewünschte Temperatur einstellen kann mittels Kontrolle des CO2-Niveaus. Dies ist so extrem unsinnig, dass es irrational ist. Es gibt keine empirischen Beweise dafür, dass das CO2 mehr als nur vernachlässigbare Auswirkungen auf die Temperaturen hat.

Was genauso wichtig ist: Die Klimamodelle, auf denen der gesamte CAGW-Wahn beruht, sind strukturiert ohne jede Berücksichtigung der natürlichen Periodizitäten über ±60 und – noch wichtiger – 1000 Jahre (beobachtetes Verhalten), welche sich so deutlich in den Temperaturaufzeichnungen zeigen. Das Verfahren der Modellierer ist einfach nur eine wissenschaftliche Katastrophe, dem sogar jeder gesunde Menschenverstand fehlt. Es ist genauso, als ob man die Temperaturentwicklung von Februar bis Juli nimmt und diese linear 20 Jahre oder so in die Zukunft projiziert. Die Modelle sind nur für weniger als 100 Jahre zurück ausgelegt, während doch der relevante Zeitrahmen Jahrtausende beträgt.

Abbildung 1: (überarbeitet {grüne Linie hinzugefügt} von Syun_Ichi Akasofu) aus: http://www.scirp.org/journal/PaperInformation.aspx?paperID=3217

Bildinschrift: Die Abbildung zeigt, dass der lineare Trend zwischen 1880 und 2000 eine Fortsetzung der Erholung aus der Kleinen Eiszeit ist, zusammen mit der überlagerten multidekadischen Oszillation. Sie zeigt auch den vom IPCC prophezeiten Temperaturanstieg nach dem Jahr 2000. Es wird angenommen, dass die Erholung aus der Kleinen Eiszeit sich bis zum Jahr 2100 fortsetzen wird, zusammen mit der überlagerten multidekadischen Oszillation. Dies könnte den Stopp der Erwärmung nach dem Jahrtausendwechsel erklären. Die im Jahre 2008 gemessene Temperatur wird mit einem roten Punkt dargestellt mit einem grünen Pfeil. Das IPCC hat vorgegeben, dass der Anteil der dicken blauen Linie hauptsächlich dem Treibhauseffekt geschuldet ist, so dass deren Zukunfts-Prophezeiung eine Art Ausdehnung der blauen Linie ist. – Ende der Bldinschrift.

Abbildung 1 vergleicht die IPCC-Vorhersage mit der Vorhersage aus der Akasofu-Studie und mit der einfachen, aber höchst ökonomischen Arbeitshypothese dieses Beitrages (grüne Linie), dass nämlich der Spitzenwert um das Jahr 2003 der jüngste Spitzenwert im Milleniums-Zyklus ist, der so offensichtlich aus den Temperaturdaten hervorgeht. Die Daten zeigen außerdem, dass der gut dokumentierte 60-Jahre-Temperaturzyklus zufällig etwa zur gleichen Zeit seinen Spitzenwert erreicht.

Die Temperatur-Projektionen der Modelle des IPCC und des UK Met.-Office sowie alle Studien bzgl. der Auswirkungen, die sich daraus ableiten, haben in der empirischen Wissenschaft keine solide Grundlage, sind sie doch aus inhärent nutzlosen und im Besonderen strukturell falschen Modellen abgeleitet. Sie sind keine Grundlage für die Diskussion über zukünftige Klimatrends und repräsentieren eine gewaltige Verschwendung von Zeit und Geld. Als Grundlage für die Klima- und Energiepolitik der Regierungen muss man diese Vorhersagen als umfangreich falsch und daher schlimmer als nutzlos ansehen.

Ein neues Vorhersage-Paradigma muss her.

2. Die Vergangenheit ist der Schlüssel zu Gegenwart und Zukunft. Herausfinden, wie man die natürlichen Quasi-Periodizitäten vorhersagen kann, die das Erdklima regieren – die geologische Annäherung

2.1 Allgemeine Prinzipien

Die Kern-Kompetenz in den geologischen Wissenschaften ist die Fähigkeit, die sich mit Zeit und Raum ändernden Verteilungen von Ereignissen zu erkennen und zu korrelieren. Dies erfordert eine Denkweise und vielfältige Erfahrung, die sich sehr unterscheidet von der reduktionistischen Annäherung an die Natur, welche jedoch angemessen und notwendig ist, um das Klima der Vergangenheit zu untersuchen und zukünftige Klimatrends vorherzusagen. Wissenschaftler und Modellierer mit physikalischem und mathematischem Hintergrund haben wenig Erfahrung, multiple und oft fragmentarische Datensätze multipler Variablen miteinander zu korrelieren.

Es ist notwendig, das Verständnis dieser Vorgänge zu entwickeln, ebenso wie ein Narrativ allgemeiner Trends aus der tatsächlichen individuellen lokalen und regionalen Zeitreihe bestimmter Variablen. Das Erdklima ist das Ergebnis von Resonanz und Berührungen verschiedener quasi-zyklischer Prozesse mit variierender Wellenlänge.

Die Zukunft vorherzusagen ist nicht möglich, solange wir nicht verstehen, wo sich die Erde gerade befindet relativ zu den gegenwärtigen Phasen dieser unterschiedlichen und in Wechselwirkung stehenden natürlichen Quasi-Periodizitäten, die sich in zwei Hauptkategorien unterteilen:

a) Die orbitalen langwelligen Milankovitch-Zyklen, also Exzentrizität, Schiefe und Präzession, welche moduliert werden durch

b) Solare „Aktivitäts“-Zyklen in möglichen Zeitrahmen von vielen Jahrtausenden, Jahrtausenden, Jahrhunderten und Jahrzehnten.

2.2 Die gegenwärtige Erwärmung in Relation zu den Milankovitch-Zyklen:

Abbildung 2 (aus Wiki-Milankovitch)

Wir haben den Höhepunkt der jüngsten Zwischeneiszeit-Erwärmung überschritten (Abbildung 2) mit einem abnehmenden Trend während der letzten 3500 Jahre (Abbildung 3).

2.3 Die Quasi –  Millennial Solar Cycle -Periodicity:


Abbildung 3: (von http://www.climate4you.com/). Siehe auch den Übersichts-Abschnitt von Humlum)

Man beachte die Spitzen vor 10.000; 9000; 8000; 7000; 2000 und 1000 Jahren vor heute und dann die jüngste Spitze um das Jahr 900, die sich klarer in Abbildung 4 zeigt, und diejenige das Jahres 2003 in Abbildung 5.


Abbildung 4: (Christiansen and Ljungqvist 2012 (Fig 5)   http://www.clim-past.net/8/765/2012/cp-8-765-2012.pdf)


Abbildung 5

Den Abbildungen 4 und 5 zufolge erstreckt sich der jüngste Milleniums-Zyklus von etwa 900 bis 2003, also über 1013 Jahre. Dies ist bemerkenswert konsistent mit der Periodizität von 1024 Jahren, die sich in der Analyse der Wellenlänge der Sonnenaktivität abzeichnet (hier). Es ist von Interesse, dass die quasi-millenialen Spitzen in Abbildung 3 aus Grönland stammen, während die 1024-Jahre-Periodizitäten in Abbildung 6 aus der Antarktis stammen:

Abbildung 6

2.4 Der quasi-milleniale Temperaturzyklus – Amplitude

Eine nützliche empirische Schätzung der Amplitude des millenialen Temperaturzyklus‘ auf der Nordhemisphäre kann man mit dem über 50 Jahr gleitenden Mittel (rote Kurve in Abbildung 4) vornehmen. Sie beträgt etwa 1,7°C vom Spitzenwert um das Jahr 900 bis zum Minimum um das Jahr 1640 während der Kleinen Eiszeit. Dies ist übereinstimmend mit der Schätzung von Shindell, Schmidt, Mann et al. (2001) mit dem Thema [übersetzt] Solarer Antrieb der regionalen Klimaänderung während des Maunder-Minimums (hier).

2.5 Der solare Treiber

Der wichtigste Faktor bei der Klimavorhersage ist, wo sich die Erde hinsichtlich des quasi-millenialen natürlichen solaren Aktivitätszyklus‘ befindet, der eine Periode von 960 bis 1024 Jahren aufweist. Aus Abbildung 4 geht trivial hervor, dass die Erde sich unmittelbar vor oder nach einem Spitzenwert im Milleniums-Zyklus befindet.

Das beste Proxy für die Sonnenaktivität sind die Neutronenzählung und die 10 Be-Daten.

Die allgemeine Zunahme der Sonnenaktivität, die für den Temperaturanstieg seit der Kleinen Eiszeit ursächlich ist, zeigt sich offensichtlich in den 10 Be-Flussdaten im Eisbohrkern zwischen etwa dem Jahr 1700 und dem Ende des 20.Jahrhunderts.

Abbildung 7 (von Berggren et al) http://www.eawag.ch/forschung/surf/publikationen/2009/2009_berggren.pdf

Mein Standpunkt auf der Grundlage der Oulu-Neutronenzählung (Abbildung 8) in Kombination mit den Abbildungen 4, 5, 6 und 7 lautet, dass das milleniale Maximum der Sonnenaktivität im Zyklus 22 um das Jahr 1991 erfolgte.

Abbildung 8.

Es gibt eine variierende Verzögerung zwischen dem Höhepunkt der Sonnenaktivität und dem korrespondierenden Spitzenwert der verschiedenen Temperatur-Metriken. Es gibt eine Verzögerung von 12 Jahren zwischen dem solaren Aktivitäts-Höhepunkt und dem millenialen Temperatur-Spitzenwert, wie aus den RSS-Daten im Jahre 2003 hervorgeht (Abbildung 5).

3. Vorhersagen

3.1 Langfristig

Ich glaube fest an den Wert von Ockhams Rasierer. Daher lautet die einfachste Arbeitshypothese auf der Grundlage der Wichtung aller Daten, dass der milleniale Temperaturzyklus um das Jahr 2003 seinen Spitzenwert erreicht hat und dass sich die allgemeinen Trends von 990 bis 2003 (Abbildung 4) von 2003 bis 3016 wiederholen, wobei der Tiefpunkt der nächsten Kleinen Eiszeit um das Jahr 2640 erreicht werden wird.

3.2 Mittelfristig

Betrachtet man die kürzere ±60-Jahre-Wellenlänge, lautet die einfachste Hypothese, dass der Abkühlungstrend seit 2003 einfach ein Spiegelbild des Anstiegs-Trends ist. Dies wird illustriert durch die grüne Kurve in Abbildung 1, welche Abkühlung bis zum Jahr 2038 zeigt, dann eine leichte Erwärmung bis 2073, gefolgt von einer weiteren Abkühlung bis zum Ende dieses Jahrhunderts.

3.3 Gegenwärtige Trends

Der Abkühlungstrend seit dem millenialen Höhepunkt im Jahre 2003 wird in Abbildung 5 in blau illustriert. Ab dem Jahr 2015 ist der dekadische Abkühlungstrend verschleiert durch den gegenwärtigen El Nino. Der SOI erreichte Ende 2015 seinen Höhepunkt. Die Temperaturspitze läuft dem SOI-Höhepunkt gewöhnlich um 6 bis 7 Monate hinterher, so dass es bis April 2016 zu einer weiteren moderaten Erwärmung kommen kann. Danach jedoch, also von 2017 bis 2019 können wir mit guten Gründen eine Abkühlung erwarten, die mindestens so stark ist wie Abkühlung nach dem El Nino im Jahre 1998, wie es aus Abbildung 5 hervorgeht – etwa 0,9°C.

Erwähnenswert ist, dass die Zunahme der Neutronenzählung im Jahre 2007 (Abbildung 8) eine mögliche Änderung des Sonnen-Regimes zeigt, welche eine unerwartet scharfe Abnahme der RSS-Temperaturen 12 Jahre später erzeugen könnte um das Jahr 2019 auf ein signifikant niedrigeres Niveau, als die blaue Linie in Abbildung 5 zeigt.

4. Conclusions

Zum Schaden des Rufes der Wissenschaft allgemein haben die etablierten Klimawissenschaftler zwei ungeheuerliche Fehler der Beurteilung gemacht mit ihrem Verfahren zur Klimavorhersage und folglich mit ihren Ratschlägen an Politiker in den folgenden SPMs. Erstens, sie stellten ihre Analysen auf die Grundlage von inhärent nicht überprüfbarer und vor allem strukturell falscher Modelle, welche viele fragwürdige Hypothesen enthalten. Zweitens, sie haben vollständig die natürlichen, solar angetriebenen millenialen und multidekadischen Quasi-Zyklen ignoriert. Solange wir nicht wissen, wo wir uns relativ dazu befinden und die Phase des millenialen Zyklus‘ im Einzelnen nicht einbeziehen, ist eine sinnvolle Vorhersage schlicht unmöglich.

Es ist in etablierten Klimakreisen Mode, Klimavorhersage als ein „verzwicktes“ [wicked] Problem darzustellen. Ich würde im Gegensatz dazu den Standpunkt verfechten, dass bei einer Berücksichtigung geeigneter Zeit-Scales und Analyseverfahren dies vollständig machbar ist, so dass mit dem gesunden Menschenverstand folgenden Arbeitshypothesen mit hinreichender Genauigkeit und Erfolgschancen eine Anleitung für die Politik formuliert werden kann.

Falls die wirklichen Ergebnisse den kurzfristigen Vorhersagen in Abschnitt 3.3 oben folgen, dann folgere ich daraus, dass die Position des Establishments nach dem Jahr 2020 nicht mehr haltbar ist. Dies ist hinsichtlich Klima unmittelbar bevorstehend. Der wesentliche Punkt dieses Beitrages lautet, dass der Spitzenwert des Jahres 2003 in Abbildung 1 einen millenialen Spitzenwert markiert, der komplett in allen IPCC-Projektionen ignoriert wird.

Link: http://wattsupwiththat.com/2016/03/24/collapse-of-the-cagw-delusion-untenable-past-2020/

Übersetzt von Chris Frey EIKE




Studie: Äthanol schädigt Maisbauern

RFS wurde vom Kongress als Teil der Energie-Gesetzgebung (Energy Policy Act) im Jahre 2005 aus der Taufe gehoben. Das Äthanol-Mandat wurde von Unterstützern von RFS als ein Weg bejubelt, den Profiten der Landwirte in Mais-Anbaugebieten der USA einen kräftigen Schub zu verleihen.

Aber der Studie von SP und IPE zufolge war das genaue Gegenteil der Fall. Die Forscher zeigen, dass die amerikanischen Steuerzahler allein für direkte Äthanol-Subventionen seit dem Jahr 1980 58 Milliarden Dollar berappt haben, zusätzlich zu den Kosten, die der Wirtschaft durch diese Vorschriften entstanden sind.

Vergleicht man die US-Staaten im ,Maisgürtel‘ der Nation – darunter Eastern Kansas, Eastern Nebraska, Illinois, Indiana Iowa, Southern Michigan, Southern Minnesota, Missouri und Western Ohio – mit den übrigen Gebieten der USA, kommt die Studie zu dem Ergebnis, dass die Bewohner [des Maisgürtels] einen Einkommensverlust erlitten haben, der 20% höher war als die Verluste in der übrigen Nation, und zwar seit Einführung der Verordnung bzgl. Erneuerbarer im Jahre 2005.

Das Pro-Kopf-Einkommen in dem Maisgürtel ist im gleichen Zeitraum um 1942,51 Dollar gesunken, verglichen mit 1614,32 Dollar in den übrigen USA. Die Arbeitslosigkeit im Maisgürtel sank lediglich um 1,41 Prozent, während es in den übrigen USA zu einem Rückgang von 1,89 Prozent gekommen war.

Raffinerien scheitern

In der Studie heißt es weiter, die [Behörden der] Maisgebiete haben oftmals Äthanol-Raffinerien in ihre Landkreise gelockt, und zwar mittels Steueranreizen und speziellen Abkommen, aber die Forscher fanden heraus, dass die Gemeinden schwer geblutet haben, als diese Raffinerien in Schwierigkeiten gerieten. Im Einzelnen benannten die Forscher das Beispiel des VeraSun-Werkes in Dyersville in Iowa. Dieses Werk erhielt einen 20 Jahre währenden Steueranreiz von der Stadt Dyersville, nur um zwei Monate nach Betriebsbeginn wegen der steigenden Maispreise Insolvenz anzumelden. Die steigenden Preise waren die Folge von Provisionen, die der Verordnung zu erneuerbaren Energien innewohnte.

Ryan Yonk, ein Assistenzprofessor an der Utah State University und einer der Leitautoren der Studie sagt, dass VeraSun kein Einzelfall ist. „Die Preise für Mais sind volatil, die Nachfrage nach Benzin fluktuiert, und die Produktion ist stark abhängig von diesen Vorlagen der Regierung – die Anzahl der Raffinerien war einfach zu hoch“.

Er sagte weiter, dass Äthanol-Raffinerien als Folge der Regierungspolitik im Maisgürtel wie Pilze aus dem Boden schossen, aber, wie er erklärte: „Zu viele davon gingen zu schnell in Betrieb, gierten sie doch alle nach den Subventionen der Regierung anstatt auf die Nachfrage am Markt zu reagieren“.

Etwa 10% aller Raffinerien in den USA sind allein im Jahre 2012 stillgelegt worden. „Ob das jetzt permanent ist oder nicht, muss man abwarten, aber es hat mit Sicherheit große Auswirkungen auf die kleinen Städte im Maisgürtel“.

Vorschriften „verzerren die Märkte“

York sagte weiter, dass RFS den Markt im Maisgürtel verzerrt. Er führte aus:

„Anstatt dass in alle andere Bereiche der Diversifizierung von landwirtschaftlichen Erträgen investiert wurde, wurden die Investitionen umgeleitet in den Maisanbau und die Äthanol-Raffinade. Dies macht die Ökonomien dieser Gebiete abhängiger von diesem einzelnen Industriebereich als es auf natürliche Weise der Fall wäre. Als sich dann die Dinge für Mais und Raffinade zum Schlechteren wendeten, waren die Schockauswirkungen auf die lokale Wirtschaft viel größer als auf die US-Wirtschaft insgesamt“.

Yonk sagte, dass die durch RFS verursachte einseitige ökonomische Landschaft im Maisgürtel wahrscheinlich die Ursache für die flauen wirtschaftlichen Umstände der Region ist. „Während sich die übrige Wirtschaft mit einem breiter gefächerten Industriepark erholt, hängt das Schicksal des Maisgürtels in größerem Umfang allein vom Schicksal von Äthanol ab“.

Marita Noon, Direktorin von Energy Makes America Great, ist skeptisch, dass der Gesetzgeber RFS in naher Zukunft aufheben wird. „Das Problem ist, dass Subventionen immer in Multi-Milliarden-Dollar-Senken in Gestalt von Übereinkünften verschwinden, die nachts zwischen beiden Parteien ausgehandelt werden. Ich glaube, dass sich diese Kultur dieser Vorlagen von Washington D. C. Fortsetzen wird“.

Link: http://news.heartland.org/newspaper-article/2016/03/18/study-says-ethanol-harms-corn-counties

Übersetzt von Chris Frey EIKE




EIKE 9. IKEK: Prof. Ewert – Erderwärmung- Was wurde gemessen und wie wurde ausgewertet?

Video des Vortrags von Prof. Karl-Friedrich Ewert (Geologe) gehalten anlässlich der 9. Internationalen Klima- und Energiekonferenz am 10. und 11.12.15 im Haus der Technik Essen. Erderwärmung – was wurde gemessen und wie wurde ausgewertet?




Die Schlacht um die Redefreiheit in der Wissenschaft hat begonnen!

Mit dem immer weiteren Verblassen des Narrativs der Klimawandel-Katastrophe konzentrieren sich die Befürworter der Großen Klimapolitik zunehmend auf die Bestrafung von vom vermeintlichen „Konsens“ abweichenden Meinungen. „Konsens“ heißt hier, dass der einzige Weg, der globalen Erwärmung zu begegnen, die Umstrukturierung der Gesellschaft ist – wie sie Energie erzeugt und verbraucht. Dass wir uns durch ein paar Grad Erwärmung im Laufe einiger Jahrzehnte oder sogar Jahrhunderte ohne wesentliche Schwierigkeiten bewegen können, ist die neue Häresie, die mit allen Mitteln unterdrückt werden muss.

Die Klima-Inquisition begann mit der Klage von Michael Mann im Jahre 2012 gegen Kritiker seiner „Hockeyschläger“-Forschung – für Klimaalarmisten eine Heilige Schrift. Prof. Manns berühmte Graphik zeigte eine rapide Erwärmung in jüngster Zeit, die jedoch nur ein Artefakt seiner statistischen Verfahren war anstatt eine genaue Repräsentation der historischen Realität. Das war zuviel für den Klimatologen bei Penn State [University] und seine Jünger.

Unter den Zielen seiner Klage (und unser Klient in dem Gerichtsverfahren) war das Competitive Enterprise Institute CEI, eine Denkfabrik, die bekannt war für ihre skeptischen Standpunkte in der Debatte um die Klimapolitik. Ziel der Klage von Mann war es, das CEI zusammen mit dem Magazin National Review aus dem Geschäft zu vertreiben. Seitdem sind vier Jahre vergangen, und die Gerichte grübeln immer noch über die Werte des 1. Zusatzartikels zur US-Verfassung [First Amendment; Näheres siehe hier bei Wikipedia. Anm. d. Übers.] In der Zwischenzeit hatte das Verfahren den beabsichtigten Effekt und förderte juristische Unsicherheit, welche alle Reden begleitet, die den „Konsens“-Standpunkt herausfordern.

Mr. Manns Klage entzweite die Klimawissenschaftler – von denen Viele erkannten, dass die lebendige wissenschaftliche Diskussion bedroht war – aber die Klima-Inquisition hatte gerade erst angefangen. Im vorigen Jahr gab es sogar noch mehr schwerwiegende Versuche, die alarmistische Doktrin zu stärken und den Dissens niederzutreten.

Der Großinquisitor hier ist vermutlich Senator Sheldon Whitehouse (Demokraten). Im vorigen Frühjahr forderte er das Justizministerium auf, juristisch gegen jene vorzugehen, die hinter einer „koordinierten Strategie“ stehen, häretische Ansichten zu verbreiten zu den Themen globale Erwärmung, einschließlich der Energieindustrie, Handelsgesellschaften, „konservative Politik-Institute“ und Wissenschaftler. Mr. Whitehouse, vormals Staatsanwalt, machte als Grundlage für die Klagen das Racketeer Influenced and Corrupt Organizations Act RICO aus. Dieses Gesetz richtete sich gegen Mafia-Organisationen und Drogenkartelle.

Die Einschüchterung steht im Mittelpunkt dieser Bemühungen. Individuelle Wissenschaftler, Denkfabriken und private Geschäftsbereiche sind kleine Gegner für die ungeheuren Mächte, die Regierungsfunktionäre gegen Abweichler in Stellung bringen können. Ein Ansturm von Ermittlungen – mit dem Risiko von Gerichtsverfahren, Verfolgung und Bestrafung – ist mehr als die Meisten zu ertragen imstande sind. Als praktische Realität erfordert die Verteidigung der Rechte aus dem First Amendment unter diesen Umständen erhebliche Ressourcen, um es mit der Regierung aufzunehmen und zu gewinnen – egal was es kostet oder wie lange es dauert.

Es erfordert auch das direkte Vorgehen gegen die Klima-Inquisition. Ungerechtfertigte Ermittlungen seitens der Regierung, getrieben von dem Wunsch nach Unterdrückung eines bestimmten Standpunktes, bilden die Basis für das illegale Vorgehen gegen die Freie Rede und können als solche von Gerichten unter die Lupe genommen werden, wobei potentiell Geldstrafen verhängt werden können gegen die staatlichen Gesetzesübertreter. Falls irgendjemand eingeschüchtert werden sollte, sollten es die Funktionäre sein, die willens sind, ihre Macht zu missbrauchen, um Reden zu bekämpfen, denen sie nicht zustimmen.

Darum haben wir das Free Speech in Science-Project ins Leben gerufen, um die Art offener Untersuchung und Debatte zu verteidigen, die im Mittelpunkt wissenschaftlichen Fortschritts und Verständnisses stehen sollte. Das Projekt möchte juristische Ratschläge geben und jene verteidigen, die es brauchen, während gleichzeitig eine Offensive gegen ihre Macht missbrauchenden Funktionäre gestartet werden soll. Wissenschaftler, politische Organisationen und Andere sollten keine Angst davor haben, die nächsten Opfer der Klima-Inquisition zu werden – dass sie Bestrafung und den persönlichen Ruin zu befürchten haben, nur weil sie sich in der Forschung engagieren und ihre Standpunkte bekannt machen.

Full post at The Wall Street Journal, 23 March 2016 [hinter einer Zahlschranke]

Die Demokraten werfen den Republikanern regelmäßig vor, „anti-wissenschaftlich“ zu sein, weil sie dazu tendieren, skeptisch hinsichtlich der Behauptungen von Klimaalarmisten zu sein – seien es nun Fragen wie wieviel der Mensch zur globalen Erwärmung beigetragen hat, wieviel Erwärmung es tatsächlich gegeben hat oder seien es ängstigende Prophezeiungen zukünftiger Umweltkatastrophen. Es gibt einen wissenschaftlichen Konsens, sagt man uns, und jeder, der nicht auf Linie dieses Konsens‘ liegt, ist ein „Leugner“.

Und doch, selbst wenn Leugner bestraft werden – die Anzahl von Beweisen, die Löcher in einige der grundlegenden Theoreme des Klimawandels bohren, steigt rasant. Es ist dann mit Sicherheit möglich, dass das heutige Klimawandel-Paradigma – und all das Wimmern und Klagen über CO2-Emissionen – sich eines Tages als das herausstellt, was zuvor schon das Ptolemäische Weltbild oder Galens Theorie der Anatomie ist. Es ist möglich. Und jeder, der an die Wissenschaft glaubt, muss das zugeben. – John Merline, Investor’s Business Daily, 22 March 2016

Das  Free Speech in Science Project ist das Antidot zu dieser Art Mann’schen Blödsinns: http://climatesciencedefensefund.org/

Link: http://wattsupwiththat.com/2016/03/24/the-battle-for-free-speech-in-science-has-begun/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Klima-Inquisition – gehören dazu nicht auch all jene, die hier in Kommentaren in häufig aggressivem Tonfall das Hohelied der globalen Erwärmung durch CO2 singen? Und die alle Beweise des Gegenteils rundweg leugnen?




Nachgesehen: Anzahl Tornadoopfer in den USA fast auf dem niedrigsten Stand seit Beginn der Zählung um 1875

Quellen:  WUWT und WordPress.com

Bild 1 [2] Jährliche Anzahl schwerer Tornados seit 1970

Auch das Wetter in den USA zeigt keinerlei Auffälligkeiten sondern eher eine schon penetrante Ignoranz gegenüber dem Klimawandel.

Bild 2 [1] USA gleitender Mittelwert schwere Niederschläge 

Bild 3 [1] USA gleitender Mittelwert schwerwiegender Trockenzeiten

Der simulierte Klimawandel und das wahre Wetter

Damit wird eine Klimaapokalypse nach der anderen durch die reale Klimageschichte überholt – auch wenn unsere „investigativen“, d.h. kritiklos nur noch abschreibenden und kopierenden Medien anderes Berichten.

Süddeutsche Zeitung [3]: Klimawandel in den USA

CrID: 59923240165

Heftige Niederschläge, steigende Temperaturen: Die Folgen der Erderwärmung sind auch in den USA längst spürbar. Ganze Landstriche sind bedroht, warnt ein Bericht der Obama-Regierung.

In den USA sind die Folgen der Erderwärmung einer neuen, umfassenden Studie der US-Regierung zufolge bereits konkret zu spüren. Genannt werden heftige Niederschläge, steigende Temperaturen und Meeresspiegel, schmelzende Gletscher und veränderte Flussläufe. Es handelt sich um die bislang deutlichsten Aussagen des Weißen Hauses zum Thema Klimawandel.

Die Negativereignisse nähmen mit fortschreitender Erderwärmung zu, schreiben die Autoren.

Selbst der IPCC hat bereits2012 erkennen müssen dass das nicht im Entferntesten belegbar ist. Doch Politiker und die SZ wissen wohl mehr – zumindest kennen sie die korrekte Meinung.

IPCC WG2, 2012. Managing the Risks of Extreme Events and Disasters to Advance Climate Change Adaptation

Special Report of the Intergovernmental Panel on Climate Change:

There is low confidence in any observed long-term (i.e., 40 years or more) increases in tropical cyclone activity (i.e., intensity, frequency, duration), after accounting for past changes in observing capabilities. It is likely that there has been a poleward shift in the main Northern and Southern Hemisphere extratropical storm tracks. There is low confidence in observed trends in small spatial-scale phenomena such as tornadoes and hail because of data inhomogeneities and inadequacies in monitoring systems. [3.3.2, 3.3.3, 3.4.4, 3.4.5]

There is low confidence in observed trends in small-scale phenomena such as tornadoes and hail because of data inhomogeneities and inadequacies in monitoring systems

Mit dazu gehören zwischenzeitlich sich erhärtende Erkenntnisse:

Die aktuelle Warmzeit begann spätestens um 1600 und damit 200 Jahre früher (zeigt bereits eine Grafik im  im AR5).

Artikel dazu in Kürze auf EIKE

Seitdem bekannt wurde, dass die Zahlen der Eisbärenzählungen erfunden waren, vermehren sie sich trotz Klimawandel und werden inzwischen eher durch Überpopulation begrenzt

„Die Eisbären vermehren sich stetig“

Keine Insel der Welt geht im Klimawandel unter, sondern nur in Anträgen für Klimaschutzgelder

„Gehen die Südseeinseln wirklich wegen des Klimawandels unter“

Die Umwelt-Schadensstatistik der MunichRe weist weltweit aus, dass die Klimaschäden nicht zunehmen (aber der MuRe Gewinn).

„MunichRe Presseinfo“

Trockenperioden gab es schon immer und neuere sind inzwischen oft nicht von einem Klimawandel, sondern vom Menschen gemacht

„Ein See in Bolivien versxhwindet“

Quellen

[1]

Not a lot of people know that, March 17, 2016: US Precipitation Becoming Less Extreme, Not More

US Precipitation Becoming Less Extreme, Not More

[2]

WUWT March 17, 2016: In the ‘warmest year ever’, U.S. tornado deaths were near lowest ever

In the ‘warmest year ever’, U.S. tornado deaths were near lowest ever

[3]

Süddeutsche Zeitung, 17. Mai 2010: Klimawandel in den USA

CrID: 59923240165

http://www.sueddeutsche.de/wissen/klimawandel-in-den-usa-der-tornado-im-hinterhof-1.446910




Inseln sind mit dem Versuch gescheitert, sich zu 100% mit grüner Energie zu versorgen, und kehrten zurück zu Diesel

Die beiden Inseln mögen auf den entgegen gesetzten Seiten der Erde liegen, aber sie wurden zu Aushängeschildern für Umweltaktivisten für deren Kampagnen, fossile Treibstoffe loszuwerden. Es bleibt die Tatsache, dass man auf El Hierro und Tasmanien erkennen musste, dass ihr Energiesektor zu kostspieligen Fehlschlägen geworden ist, nachdem man sich grün zugewandt hatte. Dies geht aus einem Bericht des free market Institute for Energy Research (IER) hervor.

„Einer der wichtigsten Gründe, warum Erdgas, Öl und Kohle die am meisten verbrauchten Energieressourcen sind ist, dass sie unglaublich zuverlässig sind“, sagte Daniel Simmons, Vizepräsident der Abteilung Politik am IER. „Aus dem gleichen Grund kann Windenergie wettbewerbsmäßig nicht mit konventionellen Energieformen mithalten, weil sie inhärent unzuverlässig ist“.

Über ein Jahrhundert lang hat man in Tasmanien den größten Teil des Stromes mit Wasserkraft und anderen grünen Energiequellen erzeugt. Auf der Insel gibt es derzeit 30 Wasserkraftwerke, die unterstützt werden durch drei Windparks (hier). Allerdings haben sich diese Quellen als unzuverlässig erwiesen wegen des Wetters, Missmanagement und technischer Belange. Und was alles noch schlimmer machte: Das Kabel, mit dem Tasmanien Strom aus Australien nutzen konnte, ist im Dezember gebrochen (hier).

Die Wasserkraft der Insel wurde schwer getroffen durch eine längere Dürreperiode. Die Wasservorräte fielen von 50,8 Prozent im November 2013 auf das derzeitige Rekordtief von 14,8 Prozent. Tasmanien kämpft so verzweifelt um Wasser, dass man sogar Wolken geimpft hatte, damit sie Regen bringen (hier). Das Energiesystem in Tasmanien war einfach nicht in der Lage, mit der steigenden Nachfrage nach Energie Schritt zu halten, und man war gezwungen, Teilbereiche der Industrie auf der Insel zu schließen und 20 tragbare Diesel-Generatoren zu kaufen, um die Lichter nicht ausgehen zu lassen. Kosten: 44 Millionen Dollar.

„Wasserkraft ist ein bedeutender Teil unseres Energiemix‘, aber Tasmaniens Energiekrise zeigt, dass selbst Wasserkraft unter einer längeren Periode schlechten Wetters leiden kann“, sagte Simmons.

El Hierro, eine der Kanarischen Inseln vor der Küste von Nordafrika, hat sein Diesel-Kraftwerk ersetzt durch ein Hybrid-Windkraftwerk und ein Wasserspeichersystem im Wert von 94 Millionen Dollar. Das System ist erst seit Juni 2015 in Betrieb.

El Hierro sollte zum Aushängeschild werden für 100 Prozent grüne Energie [Ist nicht auch hierzulande in der „Süddeutschen Zeitung“ in großer Aufmachung darüber berichtet worden? Anm. d. Übers.]. Das teure System erzeugte jedoch eine unvorhersagbare Energiemenge und konnte noch nicht einmal die ganze Insel elektrifizieren. Beispiel: Während der Starkwind-Periode im Sommer 2015 hat die Insel 51,7 Prozent seiner Energie aus diesem System gewonnen (hier), aber während einer Schwachwindphase im Dezember konnte es gerade mal 18,5 Prozent des Stromes der Insel erzeugen. Die schiere Unvorhersagbarkeit des Systems schädigt das Stromnetz der Insel und zwingt die Insel zurück in die Abhängigkeit von Diesel-Energie, die doch eigentlich ersetzt werden sollte [davon steht natürlich hierzulande nichts in den Zeitungen! Anm. d. Übers.].

Die IER-Analyse schätzt, dass es 84 Jahre dauern würde, bis das Wind- und Wasserkraft-System auch nur die Kapitalkosten einspielen würde.

„Die Erzeugung von ,100% Erneuerbarer‘ ist großartige PR, aber es ist schlecht für Menschen, die unter den Konsequenzen zu leiden haben: höhere Energiepreise und unzuverlässigere Stromversorgung“, resümierte Simmons.

Link: http://www.cfact.org/2016/03/20/islands-trying-to-use-100-green-energy-failed-went-back-to-diesel/

Übersetzt von Chris Frey EIKE




Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende. Eine Literatursichtung von 1990 bis ganz aktuell

Warum ist die mittelalterliche Warmzeit (um ca. 1000 nach Chr.) so wichtig? Weil damit der Klimaalarm teilweise begründet wird. Nach der „politisch korrekten Klimalehre“ darf es damals nicht wärmer als derzeit gewesen sein. Übersteigen die heutigen Temperaturen die damaligen, sei dies ein Beleg für den anthropogen bedingten Wandel, da diese eine natürliche Variation angeblich niemals „erzeugen“ könnte. Weiter begann danach auch die aktuelle Warmzeit erst mit dem Beginn der Industrialisierung um ca. 1820 … 1850 vorwiegend durch das dadurch emittierte anthropogene CO2.

Wo befindet sich die aktuelle Erdtemperatur

Nicht jeder Leser ist fit in der Klimahistorie. Deshalb anbei die Darstellung, wo sich das Klima aktuell befindet. Bild 1 zeigt den Verlauf seit dem Ende der letzten Eiszeit. Im Artikel selbst geht es um den rot eingegrenzten Bereich der vergangenen zwei Jahrtausende.

Bild 1 Bodennahe nordhemisphärische Mitteltemperaturen der letzten 11.000 Jahre nach Dansgaard (1969) und Schönwiese (1995), (aus KIHZ, 2000)

Welche Studie zeigt das richtige Klima der vergangenen 2000 Jahre

Wirklich weiß das wohl niemand. Die folgenden Darstellungen sollen zeigen, welche Unterschiede bestehen und dass sich das „Wissen“ und damit die Aussagen darüber regelmäßig ändern. als Konsequenz bedeutet dies allerdings auch, dass man durch Wahl der „geeigneten“ Darstellung inzwischen jede (gewünschte) Aussage problemlos mit Studien „belegen“ kann.

Um eine grobe Einstufung zu erhalten wurde versucht, in den im Artikel exemplarisch gezeigten Klima-Rekonstruktionsverläufen die Temperaturdifferenz vom Mittelwert der mittelalterlichen Warmzeit bis zum Jahr 1950 zu ermitteln. Die Versuche sind in den Bildern zugefügt und somit nachvollziehbar (sowie zusätzlich am Ende in einer Tabelle zusammengefasst). In vielen Kurven ist das allerdings nur recht ungenau möglich, weshalb diese Auswertung nur grobe Anhaltswerte zur Orientierung liefert. Das Schlussjahr 1950 wurde gewählt, da viele Rekonstruktionen knapp danach enden. Wer den Vergleich mit der ganz aktuellen Temperatur ergänzen möchte, muss also die Differenz seit dem Jahr 1950 dazu addieren.

Gelistet sind die Klimastudien ungefähr nach Publizierdatum, beginnend mit dem AR1 des IPCC von 1990 bis zu ganz aktuellen.

Listung von Klimarekonstruktionen der vergangenen 2000 Jahre

IPCC Report AR1 von 1990

 

Bild 2 [6]  IPCC Report AR1 von 1990 Figure 7.1 (letztes von drei Bildern)

Bildtext: Schematic diagrams of global temperature variations since the Pleistocene on three time scales (a) the last million years (b) the last ten thousand years and (c) the last thousand years The dotted line nominally represents conditions near the beginning of the twentieth century

IPCC Report AR3 von 2001

Dieser Report zeigt die berühmte Hockeystick-Kurve. Die mittelalterliche Warmzeit ist fast verschwunden. Die aktuelle Warmperiode beginnt um 1900. Die Mittelwertbildung verschleiert den breiten (grauen) Unsicherheitsbereich.

  

Bild 3 [7]  IPCC Report AR3 von 2001 Figure 1: Variations of the Earth’s surface temperature over the last millennium.

  

IPCC AR4 von 2007

Die Darstellung im AR4 zeigt exemplarisch die Variabilitäten verschiedener Proxyrekonstruktionen. Dieses „Spaghetti-Durcheinander“ wird durch Mittelwert-Bildung meistens „verschleiert“. Aus den verschiedenen Verläufen kann man sich jede Differenz heraussuchen, indem man die passende Gegend auswählt.

Gerade diese Grafik ist gut geeignet zur Darstellung des „Klimarettungsproblems“. Nach der IPCC-Lehre und dem letzten Klimagipfel darf sich die Erde bis 2100 maximal um 0,6 Grad erhöhen „Paris COP21 Verpflichtung“. Das kostet Deutschland Unsummen von Milliarden EUR durch die erzwungene CO2 Vermeidung. In der Grafik kann man erkennen, was 0,6 Grad (eingezeichnete) Veränderung bei der typischen Klimavariabilität bedeuten – nämlich nichts -, sowie dass es innerhalb von 100 Jahreszeiträumen regelmäßig natürlich bedingte Veränderungen größer 0,6 Grad gab.

 

Bild 4 [11] IPCC AR4 2007: Figure 1.

Bildtext: The heterogeneous nature of climate during the ‘Medieval Warm Period’ is illustrated by the wide spread of values exhibited by the individual records that have been used to reconstruct NH mean temperature. These consist of individual, or small regional averages of, proxy records collated from those used by Mann and Jones (2003), Esper et al. (2002) and Luckman and Wilson (2005), but exclude shorter series or those with no evidence of sensitivity to local temperature. These records have not been calibrated here, but each has been smoothed with a 20-year filter and scaled to have zero mean and unit standard deviation over the period 1001 to 1980.

Weiter finden sich darin auch Rekonstruktionen zur Südhalbkugel (Tasmanien und Neuseeland). Diese scheint die Zyklen der Nordhalbkugel nicht durchlaufen zu haben. Anm.: „kaltesonne“ ist aktuell dabei dies anhand einer Recherche zu widerlegen.

Man beachte, dass es auf Neuseeland bereits um 1600 begann stetig wärmer zu werden.

 

Bild 5 [11] IPCC AR4 von 2007.Figure 6.12.

Bildtext: Temperature reconstructions for regions in the SH: two annual temperature series from South American tree ring data (Villalba et al., 2003); annual temperature estimates from borehole inversions for southern Africa and Australia (Huang et al, 2000); summer temperature series from Tasmania and New Zealand tree ring data (Cook et al., 2000, 2002a). The black curves show summer or annual instrumental temperatures for each region. All tree ring and instrumental series were smoothed with a 25-year filter and represent anomalies (°C) from the 1961 to 1990 mean (indicated by the horizontal lines).

Loehle at al 2008

Nach dieser Studie war die mittelalterliche Warmzeit deutlich wärmer und die aktuelle Warmzeit beginnt eindeutig um 1600.

Bild 6 [9] Globaler historischer Klimaverlauf Jahr 0 … 1935

Bildtext: The Medieval Warming Period (MWP) was significantly warmer than the bimillennial average during most of the period 820 – 1040 AD. The Little Ice Age was significantly cooler than the average during most of 1440 – 1740 AD. The warmest tridecade of the MWP was warmer than the most recent tridecade, but not significantly so.

IPCC AR5 2013

Gegenüber dem AR4 zeigt die Darstellung nichts wirklich Neues, doch sind Mittelwerte enthalten. Weiterhin sieht man die vielen stark voneinander abweichenden  Rekonstruktionsverläufe.

Bild 7 [8]  Historischer Klimaverlauf. Quelle: AR5, Figure 5.7

Bildtext: Reconstructed (a) Northern Hemisphere and (b) Southern Hemisphere, and (c) global annual temperatures during the last 2000 years. Individual reconstructions (see Appendix 5.A.1 for further information about each one) are shown as indicated in the legends, grouped by colour according to their spatial representation (red: land-only all latitudes; orange: land-only extratropical latitudes; light blue: land and sea extra-tropical latitudes; dark blue: land and sea all latitudes) and instrumental temperatures shown in black (Hadley Centre/ Climatic Research Unit (CRU) gridded surface temperature-4 data set (HadCRUT4) land and sea, and CRU Gridded Dataset of Global Historical Near-Surface Air TEMperature Anomalies Over Land version 4 (CRUTEM4) land-only; Morice et al., 2012). All series represent anomalies (°C) from the 1881–1980 mean (horizontal dashed line) and have been smoothed with a fiter that reduces variations on time scales less than about 50 years.

 Horst-Joachim Lüdecke, Sept. 2011

 Das Besondere an dieser Publikation ist die Einbeziehung der Rekonstruktion von Tropfsteinanalysen des Professors Mangini der Uni Heidelberg (blaue Linien). Tropfsteinanalysen haben gegenüber den üblichen, auf biologischen Materialien basierenden wie Baumringanalysen (z.B. beim Hockeystick) den Vorteil, die Temperatur ganzjährig zu referenzieren und auch nicht Verzerrungen durch „Wetterstress“ oder Schädlinge abzubilden. Dieser Professor war unter den ersten, welche sich trauten öffentlich zu verkünden dass die mittelalterliche Warmzeit wärmer gewesen ist, als vom IPCC angegeben. Zusatzinformation lässt sich bei [15] nachlesen.

Auch diese Rekonstruktionen zeigen zudem den Beginn der aktuellen Warmzeit spätestens um 1600.

Bild 8 [13] Fig. 5. Temperaturrekonstruktionen aus Tropfsteinen (Blau) und biologichen Materialien (Grün)

Bildtext: (Color online) Reconstructed long-range annual records, SPA12 (blue) from a stalagmite and MOB (green) from a stack of tree rings in the northern hemisphere and further biological proxies (as an anomaly). The variance of MOB is roughly seven times smaller than for SPA12. In both records, the medieval warm period and the Maunder Minimum can be clearly identified.

ESPER et al, 2014: Northern European summer temperature variations

 Auch diese Studie zeigt eine deutlich wärmere mittelalterliche Warmzeit. Man beachte die im Bereich von 4 °C liegende Spannweite der Temperaturen und die Extremwerte (mit Jahreszahlen gekennzeichnet). Zudem steht in der Studie:

 [4] The reconstruction has centennial-scale variations superimposed on this trend, indicating conditions during Medieval and Roman times were probably warmer than in the late 20th century.

 

Bild 9 [4] Figure 5 (Auszug) Rekonstruierter Temperaturverlauf der letzten 2000 Jahre der nordeuropäischen Sommertemperatur

Bildtext: N-Eur temperature reconstruction at annual resolution (black) and after smoothing using a 100-year filter (white). Green curve is a linear regression fit to the annually resolved data over the 17 BC to AD 2006 period. Grey area indicates the smoothed standard error (2SE) of the calibration model, using variable chronology replicated error estimates (from B). Dates indicate the three coldest and warmest years over the past two millennia. This figure is available in colour online at wileyonlinelibrary.com.

Buentgen et al. 2016

Dies ist eine ganz aktuelle Studie.

Auffallend ist die große Temperaturvariabilität der Jahreswerte um mehrere Grad. Man beachte, dass die Sommertemperatur der Alpen von 1700 bis aktuell deutlich vom „typischen“ Klimaverlauf abweicht.

Bild 10 [12] Figure 2, vom Autor ergänzt

Bildtext: Eurasian summer temperature variability. a,b, Reconstructed temperatures from the Russian Altai (a) and the European Alps5 (b), with blue and red squares indicating (51/47) positive and (53/57) negative annual extremes (>2 standard deviations), respectively. Grey background shadings denote reconstruction uncertainty after 80-year low-pass filtering (Supplementary Fig. 9). c,d, Ice-core-derived global estimates of volcanic14 (GVF; dark grey; c) and total solar irradiance17 (TSI; light dashed grey; d) forcing. Black dashed lines refer to the long-term reconstruction mean of the Common Era.

Luterbacher et al, 29.01.2016: European summer temperatures since Roman times

Diese ebenfalls ganz aktuelle Studie ist aus mehreren Gründen interessant. Es steht darin, dass selbst die aktuellen mittleren Sommertemperaturen die der historischen Warmzeiten nicht übersteigt, zumindest nicht statistisch signifikant.

 [3] Our reconstructions compare well with independent instrumental and proxy-based temperature estimates, but suggest a larger amplitude in summer temperature variability than previously reported. Both CPS and BHM reconstructions indicate that the mean 20th century European summer temperature was not significantly different from some earlier centuries, including the 1st, 2nd, 8th and 10th centuries CE. The 1st century(in BHM also the 10th century) may even have been slightly warmer than the 20th century, but the difference is not statistically significant.

… The warmest century in both the CPS and BHM reconstructions is the 1st century CE (for BHM also the 10th century).

 Allerdings wird dazu dann eine Einschränkung gemacht, dass die 30-Jahresmittel dagegen früher nicht wärmer waren.

[3] Comparing each 50 yr period with the 19512000 period reveals a similar pattern. Recent summers, however, have been unusually warm in the context of the last two millennia and there are no 30 yr periods in either reconstruction that exceed the mean average European summer temperature of the last 3 decades (19862015 CE).

Weiter steht in der Studie, dass die Klimamodelle die Verläufe nicht ausreichend genau simulieren können – also stark mängelbehaftet sind. Und etwas zusätzlich Interessantes: Die Sommertemperaturen waren früher weit variabler, als man bisher annahm.

[3] Our BHM-based reconstruction shows more pronounced changes in mean summer temperatures over Europe than previously reported

  

Bild 11 [3] Verlauf der sommerlichen Maximaltemperaturen Europa.  BHM (Dunkelblau) und CPS (Rot): rekonstruierter Temperaturverlauf. Andere Farben: rückwirkende Simulationstests.

 Bildtext: Simulated and reconstructed European summer land temperature anomalies (with respect to 15001850 CE) for the last 1200 yr, smoothed with a 31 yr moving average filter. BHM (CPS) reconstructed temperatures are shown in blue (red) over the spread of model runs. Simulations are distinguished by solar forcing: stronger (SUNWIDE, purple; TSI change from the LMM to present >0.23%) and weaker (SUNNARROW, green; TSI change from the LMM to present <0.1%). The ensemble mean (heavy line) and the two bands accounting for 50% and 80% (shading) of the spread are shown for the model ensemble (see SOM for further details).

 Die zwei Darstellungen in der Studie zur historischen Temperatur (es ist heute nicht wärmer als früher, aber es war früher doch wärmer sofern man anders mittelt) führen zur Möglichkeit unterschiedlicher Interpretationen. Die Pressemitteilung der Uni hat sie voll genutzt und daraus einen Klimaalarm generiert:

Justus-Liebig-Universität Giessen. 29. Januar 2016 Pressemitteilung [2]:

Europäische Sommer so heiß wie seit über 2000 Jahren nicht

Klimaretter.Info, das Portal für ökopolitisch korrekte Darstellungen nahm dies sofort auf und  informierte ebenfalls alarmistisch:

 [14] Klimaretter.Info. Benjamin von Brackel (Anm.: Politikwissenschaftler), 29. Januar 2016:

Selbst die Römer hatten’s nicht so warm

Unsere Sommer sind die wärmsten seit 2.000 Jahren in Europa. Das zeigen neue Baumring-Analysen. Die Temperaturrekorde ließen sich nicht mehr mit natürlichen Schwankungen erklären, folgern Forscher, sondern nur mit dem menschengemachten Klimawandel.*

*Anmerkung des Autors: Diese letzte Aussage ist in der Studie selbst nirgends auch nur im Ansatz hinterlegt. Man hat den Eindruck, bei Klimaretter.Info hat niemand die Studie selbst eingesehen.

„kaltesonne“ hat die Studie ebenfalls rezensiert. Dort wurde sie aber wirklich durchgesehen und detailliert berichtet.  Es lohnt sich, diese Rezension selbst zu lesen: „Universität Gießen findet eklatante Unterschiede zwischen realer und simulierter Temperaturentwicklung während der letzten 2000 Jahre in Europa: Klimamodelle müssen auf den Prüfstand“.

kaltesonne – Rezension (Auszug)[1]:

Zu den Autoren der Studie gehören neben Luterbacher u.a. auch Fredrik Ljungqvist, Ulf Büntgen und Jan Esper, die sich in der Vergangenheit sehr um eine seriösere Richtung in den Klimawisenschaften verdient gemacht haben. Daher verwundert der reißerische Titel der Pressemitteilung und die krampfhaft in den Text eingesprenkelten Klimaalarm-Floskeln schon. War das Buckeln vor dem IPCC und der verkrampfte Hinweis auf die angeblich (vollständig) vom Menschen herbeigeführte aktuelle Erwärmung wirklich notwendig? Waren diese Stil-Elemente quasi als wissenschaftliche Lebensversicherung notwendig, um überhaupt mit dieser Studie in die Öffentlichkeit gehen zu können, ohne von IPCC-Hardlinern abgestraft zu werden?

Wir begeben uns auf Spurensuche. Was ist dran am Hitzewellenalarm? Zunächst fällt auf, dass der Titel der Publikation im Gegensatz zur Pressemitteilung auffällig neutral gewählt wurde:

European summer temperatures since Roman times

An dieser Stelle sollten wir uns die Hauptabbildung aus Pressemitteilung näher anschauen. Interessanterweise taucht die Abbildung in der Arbeit selber gar nicht auf, weder im Haupttext, noch im Datensupplement. Zu erkennen ist die in der Pressemeldung angeführte starke natürliche Variabilität der Temperaturen. Die bekannte Abfolge der Römischen Wärmeperiode, Kälteperiode der Völkerwanderungszeit, Mittelalterlichen Wärmeperiode, Kleinen Eiszeit und Modernen Wärmeperiode ist gut zu erkennen. Aus irgendeinem Grund bleiben die Begriffe jedoch in der Pressemitteilung unerwähnt.

Auffällig ist weiterhin die überlagerte knallig-rote Linie, welche die Entwicklung der letzten Jahrzehnte besonders bedrohlich erscheinen läßt. Eine fragwürdige Suggestivmethode. Das Ende der blauen 30-Jahres-Mittelwertlinie ist vom rot so stark überstrahlt, dass man es gar nicht richtig erkennt. Erst wenn man ganz genau hinschaut, wird deutlich, dass die blaue Linie lediglich das Niveau der Mittelalterlichen Wärmeperiode um 1200 n.Chr. und der Römischen Wärmephase um 50 n. Chr. erreicht.

 

Bild 12  [3]  Grafik: CC BY-SA 4.0 J.P. Werner/EuroMed2k Members.

Und genau dies steht dann wenig überraschend auch in der Kurzfassung der Arbeit:

In der Realität fand die Gruppe um Luterbacher also das genaue Gegenteil von dem was in ihrer eigenen Pressemitteilung behauptet wird. Die Temperaturen des 20. Jahrhundert unterscheiden sich nicht von den vorangegangenen Wärmephasen. Die Römische Wärmeperiode könnte sogar noch einen Tick wärmer gewesen sein, konzedieren Luterbacher und Kollegen.

Zusammenfassung der Klimarekonstruktionen

 In der folgenden Tabelle sind die Ergebnisse der gezeigten Studien / Berichte zusammengefasst:

   

Bild 13 Zusammenfassung der bisher dargestellten Klimarekonstruktionen

Beim Betrachten der Kurven fällt auf, dass sich bereits in der Vergangenheit in kurzen Zeiträumen gewaltige Temperaturschwankungen ereignet haben.  Ob die Aktuelle daraus als „einmalig“ hervorsticht, hängt von der verwendeten Publizierung und oft auch vom Maßstab ab.

Je mehr man sich die Klimakurven ansieht, umso stärker wird allerdings der Verdacht, dass sich die Genauigkeit der Proxirekonstruktionen über die Jahrzehnte nicht wirklich verbessert hat. Zumindest reicht sie nicht aus, um die Frage, ob es zur mittelalterlichen Warmzeit wärmer oder kälter war damit sicher zu beantworten. 

Dies ist auch verständlich. Eine moderne, sauber geeichte elektronische Wetterstation misst in idealer Umgebung gerade einmal auf +-0,2 °C genau. Eine Rekonstruktion über 1.000 – 2.000 Jahre zurück welche noch zusätzlich eine Proxi-Kalibrierung benötigt, soll dann großflächig Temperaturdifferenzen auf 0,2 … 0,5 Grad genau bestimmen. Das ist nicht möglich. Indem man aber Computer stur rechnen lässt, werden solche Ergebnisse präsentiert.

Auch die Zeitzuordnung scheint überaus problematisch zu sein, wie man an den vielen teils erheblichen Zeit-Verschiebungen zwischen den Kurven sehen kann. Wenn aber Temperatur und Zeitzuordnung nicht stimmen, entstehen beim Berechnen der Regressionen echte mathematische Fehler „Über die unsachgemäße Anwendung der Regression kleinster Quadrate“. Auch die Summenkurve kann dann natürlich nicht mehr stimmen.

Ein weiteres Thema bei den jüngeren Publizierungen ist die rückwirkende Simulationsprüfung. Immer öfter wird erkannt (Bsp. [3]), dass die Rückprojektionen der Klimamodelle falsche Ergebnisse liefern. Damit ist aber auch klar, dass sie die Zukunft genau so falsch projizieren (werden).

Diskussion der Klimarekonstruktion CL12loc aus dem AR5

 Betrachten wir noch einmal das Bild aus dem IPCC AR5 Bericht von 2013.

 

 Bild 14 [8]  Historischer Klimaverlauf. Quelle: AR5 von 2013, Figure 5.7

In dieser beispielhaften „Spaghettisammlung“ verschiedener (möglicher) Klimaverläufe sticht die hellblaue Rekonstruktion durch ihre enorme Variabilität hervor. Diese Rekonstruktion CL12loc stammt aus der Studie*:

 [10]*: Christiansen and Ljungqvist, 18.04.2012: The extra-tropical Northern Hemisphere temperature in the last two millennia: reconstructions of low-frequency variability

 *Im AR5 wird über die Bildinfo CL12oc auf eine Quelle „Christiansen and Ljungqvist (2012)“ verweisen. Der Autor hat in allen (für ihn einsehbaren) Studien dieser Autoren keine Kurve mit der gleichen Temperatur im Jahr 1460 und 1630 gefunden wie sie die hellblaue Kurve ausweist. Deshalb wir in den weiteren Ausführungen auf die Darstellungen aus Studien beider Autoren von 2012 und 2010 Bezug genommen. Die Unterschiede haben keinen Einfluss auf das Interpretationsergebnis.

Eine Anfrage beim deutschen IPCC-Büro zur Quelle dieser Klimarekonstruktion läuft, ist aber noch nicht beantwortet.

  

In der besagten Studie wurden anhand umfangreichen Proximaterials die Klimaverläufe der letzten 2000 und der letzten 500 Jahre rekonstruiert.

Die wichtigen Ergebnisse draus sind:

 Die mittelalterliche Warmzeit war um 0,6 Grad wärmer als bisher angenommen und die nach-mittelalterliche Kaltzeit um -1 Grad kälter:

 [10] The two-millennia long reconstruction shows a well defined Medieval Warm Period, with a peak warming

ca. 950–1050 AD reaching 0.6 C relative to the reference period 1880–1960 AD.

The 500-yr long reconstruction confirms previous results obtained with the LOC method applied to a smaller proxy compilation; in particular it shows the Little Ice Age cumulating in 1580–1720 AD with a temperature minimum of −1.0 ◦C below the reference period.

Nachdem damit ersichtlich ist, dass niemand genau weiß, wie warm die mittelalterliche Warmzeit genau war, sie aber nach den aktuellen Erkenntnissen sicher wärmer war als  in der Hockeystick-Kurve angegeben, kommt ein zweiter Aspekt zum Tragen, der Beginn der aktuellen Warmzeit.

Nach der neueren Klimarekonstruktion hat die aktuelle Warmzeit spätestens um 1650 also mindestens 200 Jahre früher als die Industrialisierung begonnen

CO2 kann damit als „Starter“ der aktuellen Warmzeit ausgeschlossen werden

Im folgenden Bild Nr. 15 sieht man die Rekonstruktionen nochmals im Detail im Vergleich mit älteren Klimakurven. Neben dem dass die nach-mittelalterliche Kaltzeit erheblich kälter war als bisher angenommen, fällt auf dass danach die aktuelle Warmzeit bereits um 1650 beginn und nicht erst gegen 1850. Dadurch sehen die Verläufe – Beginn der mittelalterlichen Warmzeit und der aktuellen – sehr ähnlich aus und ein menschlicher Einfluss ist weder erforderlich noch ersichtlich.

Anm.: im Bild 14 (AR5) ist die Minimaltemperatur bereits um 1460, also fast 200 Jahre früher erreicht worden. Die in der Veröffentlichung [10] hinterlegten Grafiken weichen vom IPCC-Bild an einigen Stellen deutlich ab. Z.B. sind die ausgeprägten Minimas um ca. 550 und 1460 darin nicht in der Größenordnung zu finden. Nach Bild 14 würde die aktuelle Warmzeit bereits um 1460, also nochmals fast 200 Jahre früher (in Summe um 400 Jahre)  beginnen.

 

Bild 15 [10] Vergleich der neuen Klimarekonstruktionen (LOC 2k und LOC 500y) mit anderen Rekonstruktionen aus dem AR5

Bildtext: Fig. 6. Some previous temperature reconstructions, (Hegerl et al., 2007; Loehle and McCulloch, 2008; Huang et al., 2008; Mann
et al., 2008, 2009; Ljungqvist, 2010; Christiansen and Ljungqvist, 2011) published subsequently to the IPCC Fourth Assessment Report (Solomon et al., 2007) shown together with the LOC reconstructions of the present paper. All reconstructions are centered
to zero mean in the 1880–1960 AD period and have been 50-yr smoothed with a Gaussian filter. The confidence intervals of the
LOC reconstructions of the present paper (from Figs. 5 and 8) are also shown (dashed curves).

Noch deutlicher zeigt sich dies anhand eines Proxis der Alpen im folgenden Bild.

 

Bild 16 [15]  Proxi der Alpen aus FIG. 8. Local temperature reconstructions (K) based on the proxies in Table 1 and HadCRUT2v, calibration period AD 1880–1960

Diese Aussage findet sich aber nicht nur in [10], sondern parallel in anderen Rekonstruktionen sowie auch in der Haupt-Mittelwertlinie des AR5 selbst:

Klimarekonstruktionen mit einem früheren Beginn der aktuellen Warmzeit:

·         Bild 8:  ca. 1550 und 1650 (violette Pfeile)

·         Bild 11: 1600  (violetter Pfeil)

·         Bild 12: ca. 1450 und 1600 ((violette Pfeile)

·         Bild 14: 1450 und 1600 (rote Pfeile) in der Hauptlinie des AR5 für Land und See global (siehe dazu auch Bild (17)

Wird die Klimageschichte umgeschrieben?

 Wenn die Verfasser der Studie [10] damit recht haben dass die bisherige Methodik der Proxiauswertung falsche Ergebnisse lieferte  (und der Verlauf LOC 2k der wirklich richtige ist), was sich auch anhand der Verläufe anderer Rekonstruktionen in der Listung des vorhergehenden Absatzes „Klimarekonstruktionen mit einer Verschiebung des Beginns der aktuellen Warmzeit“ bestätigt,  muss die anthropogene Beeinflussung der Klimageschichte umgeschrieben werden.

Allerdings findet sich dazu noch kaum eine Diskussion, obwohl es sogar im AR5 offensichtlich ist wie Bild 17 zeigt. Der Autor hat darin den relevanten Teil der Hockeystick-Kurve (Bild 3) mit der Mittelwert-Linie „Land und See global“ aus dem AR5 (Bild 14) überlagert. Die Begründung, dass die aktuelle Warmzeit ausschließlich durch anthropogenes CO2 nach 1800 (Bild 18) gestartet wurde ist demnach bereits im AR5 selbst widerlegt.

  

Bild 17 Auszug der Hockeystick-Kurve mit vom Autor zugefügtem Verlauf (hellbraune Linien) der Rekonstruktion „Land und See global“ aus dem AR5

Noch offensichtlicher wird die Diskrepanz, wenn man den Hockeystick im gleichen Maßstab zu den neueren Proxianalysen kopiert (Bild 17). Dass dieser durch neuere Proxis endgültig überholt ist, wird offensichtlich. Der Hockeystick wurde zwar 2009 vom Ersteller deutlich korrigiert (Man et al 2009) ist aber auch damit noch weit entfernt von denen der aktuellen Rekonstruktionen.

 

Bild 17.1 Hockeystick (Bild 3) und neuere Proxis (Bild 15) im gleichen Maßstab überlagert

Nun weiss man natürlich nicht, welches die alleine richtige Kurve ist. Aber die drastischen Unterschiede belegen, dass das Thema nicht entfernt „gesettelt“ ist, sondern dringend einer neuen Diskussion bedarf, auch wenn das PIC eine solche für absolut unnötig hält (siehe Zitierung von Prof. Rahmstorf am Ende des Artikels). Explosiv ist das Thema allemal. Die schöne, glatte Verlaufskurve des Hockeystick war (neben dem Beginn der Erwärmung ab der Industrialisierung) auch der Beleg, dass das Klima keine Sprünge gemacht hätte und die aktuelle, starke  Erwärmung somit unnatürlich sein muss. Wenn von dieser schön geraden Temperaturlinie jedoch nichts mehr übrig bleibt, ist auch diese Hypothese hinfällig.   

  

Bild 18  CO2-Emissionen (Bildauszug). Quelle: AR5 Climate Change 2014 Synthesis Report

Bildtext (Auszug): Figure 1.5 |  Annual global anthropogenic carbon dioxide (CO2) emissions (gigatonne of CO2-equivalent per year, GtCO2/yr) from fossil fuel combustion, cement production and flaring, and forestry and other land use (FOLU), 1750–2011.

Dass die anthropogene CO2-Klimatheorie damit schnell in den Mülleimer der Geschichte wandert, wird allerdings kaum passieren. Zu viele Reputationen und vor allem Geld werden es noch lange Zeit verhindern. Aber aufhalten wird man es nicht mehr können.

Klimazukunft

Klimamodelle werden aufgrund der Proxis parametriert. Wenn schon die Vergangenheit praktisch nicht (in der erforderlichen Genauigkeit) rekonstruierbar ist, kann auch die Zukunft daraus nicht richtig berechnet werden. Wer es sehen will, kann es im Bild 18 erkennen. Wer würde ahnen dass es sich dabei um eine Originalgrafik aus dem IPCC AR5 handelt. 

Bild 19  Projektionskurven. Quelle: AR5 2013 Figure TS.14. Seite 87

Unser Bundesministerium für Bildung und Forschung zeigt da lieber die politisch „richtige“ Darstellung (Bild 20).  Aktuell kann man dort immer noch eine Broschüre „Herausforderung Klimawandel“ laden. Im Begleittext steht dazu:

„Das numerische Experiment zeigt, dass das Klimamodell die so rekonstruierte globale Klimaentwicklung (Abb. 16) und insbesondere das Phänomen der sogenannten „Kleinen Eiszeit” in Europa recht realistisch zu simulieren vermag“.

 Dass inzwischen viele neue Studien aufzeigen, dass diese Aussage  „realistisch zu simulieren vermag“ überhaupt nicht stimmt sowie die aktuellen Rekonstruktionen der Temperaturen im Mittelalter inzwischen deutlich anders aussehen, soll der Bürger wohl nicht über ein für Bildung und  Forschung zuständiges Ministerium erfahren.

Bild 20   Bundesministerium für Bildung und Forschung, Broschüre: Herausforderung Klimawandel, Abbildung 16

Das Portal für streng klimatreue Information – Klimaretter.info – sieht auch keinerlei Handlungsbedarf und lobt zudem weiterhin die Hockeystickkurve und deren Autor „Paris ist die wahrscheinlich letzte Chance“.

Und damit liegt klimaretter.info haargenau auf der Linie des PIK.

SciLogs Klimalounge

Paläoklima: Die letzten 2000 Jahre

15. Mai 2013 von Stefan Rahmstorf in Paläoklima (Besprechung des Pages 2k Projektes)

Stefan Rahmstorf : Paläoklima: Die letzten 2000 Jahre – Im globalen Durchschnitt gleicht die neue Rekonstruktion fast aufs Haar dem bekannten „Hockeyschläger“, der vor fünfzehn Jahren erstellten ersten derartigen Rekonstruktion.

Nachspann

Beispiele von Klimaproxis

Um Lesern welche sich mit der Thematik weniger auskennen ein Gefühl zu geben, wie Klimaproxis aussehen, anbei ein Auszug solcher Proxis aus  [10]. Nur die Mittelwertbildung macht daraus die bekannten scharfen Linien – und der Computer berechnet auch treu dazu den „Vertrauensbereich“. Und beim Klimagipfel (er-)finden daraus 40.000 „Fachleute“ durch Diskussionen und Abstimmen die wahre Temperatur. Man muss nur fest daran glauben, dass Masse (und Computerprogramme) immer die Wahrheit (er-)kennen.

  

Bild 21 [10] Beispiele von Proxis (Auszug aus Fig. 3 der Studie)

 Quellen

 [1]

kaltesonne 08.03.2016: Universität Gießen findet eklatante Unterschiede zwischen realer und simulierter Temperaturentwicklung während der letzten 2000 Jahre in Europa: Klimamodelle müssen auf den Prüfstand

[2]

Justus Liebig Universität Giessen, Pressemitteilung: Europäische Sommer so heiß wie seit über 2000 Jahren nicht

https://www.uni-giessen.de/ueber-uns/pressestelle/pm/pm19-16

[3]

Luterbacher et al, 29.01.2016: European summer temperatures since Roman times

[4]

JOURNAL OF QUATERNARY SCIENCE (2014) 29(5) 487–494, ESPER et al: Northern European summer temperature variations
over the Common Era from integrated tree-ring density records

[5]

TU Berlin. Erläuterung zur Vorlesung TWK an der TU-Berlin Inst. für Ökologie: Rekonstruktion der mittleren Temperatur auf der Nord-Halbkugel in den vergangenen 1.000 bis 2.000 Jahren.

http://lv-twk.oekosys.tu-berlin.de//project/lv-twk/002-holozaen-2000jahre.htm

[6]

IPCC Report AR 1, 1990

[7]

IPCC AR 3 WG 1, 2001. Climate Change 2001 THE SCIENTIFIC BASIS

[8]

IPCC AR5 WG1, 2013. Climate Change 2013, The Physical Science Basis

[9]

Loehle at al:Correction to: A 2000-YEAR GLOBAL TEMPERATURE RECONSTRUCTION BASED ON NON-TREE RING PROXIES ENERGY & ENVIRONMENT VOLUME 19 No. 1 2008

[10]

Clim. Past, 8, 765–786, 2012. Christiansen and Ljungqvist, 18.04.2012: The extra-tropical Northern Hemisphere temperature in the last two millennia: reconstructions of low-frequency variability

[11]

IPCC AR4 WG 1, 2007: The Physical Science Basis: Hemispheric Temperatures in the ‘Medieval Warm Period’

[12]

Buentgen et al.2016_NatureGS: Cooling and societal change during the Late Antique Little Ice Age from 536 to around 660 AD

[13]

Horst-Joachim Lüdecke Sept. 2011: Long-Term Instrumental and Reconstructed Temperature Records Contradict Anthropogenic Global Warming, Energy & Environment 22, 6, 2011, arxiv.org/PS_cache/arxiv/pdf/1110/1110.1841v1.pdf

[14]

klimaretter.info, 29. Januar 2016: Selbst die Römer hatten’s nicht so warm

http://www.klimaretter.info/forschung/hintergrund/20549-selbst-die-roemer-hattens-nicht-so-warm

[15]

CHRISTIANSEN AND LJUNGQVIST DECEMBER 2011: Reconstruction of the Extratropical NH Mean Temperature over the Last Millennium with a Method that Preserves Low-Frequency Variability




Das Geschwätz von der „Kohlenstoff-Verschmutzung“

Vermutlich hat jedwede Regierung das Recht, Steuern auf alles zu verhängen, das sie wollen. In dieser Hinsicht unterscheidet sich eine Steuer auf „Kohlenstoff“ oder jede andere Energiequelle durch nichts von einer Steuer auf Nahrung oder Kleidung; sie kommen durchweg aus Ihrer Brieftasche. Allerdings verleiht das Recht, Steuern zu erheben, einer Regierung nicht das Recht, „Kohlenstoff“ (und damit meinen sie ihrer Interpretation nach „Kohlendioxid“) als eine Art von Verschmutzung zu propagieren.

NEIN, Kohlendioxid ist KEINE Verschmutzung, überhaupt keine!

JA, Kohlendioxid ist ein ÜBERLEBENSWICHTIGER Bestandteil der Atmosphäre!

Kohlenstoff-Steuer

Ob der kürzlich gewählte kanadische Premierminister oder irgendeiner der Provinz-Premiers glaubt, dass eine „Kohlenstoff-Steuer“ etwas Gutes ist oder nicht, ist vollkommen irrelevant. Regierungen haben immer die Option, Steuern und Abgaben zu fordern auf alles, was sie wollen. Ob die Menschen, die sie zu repräsentieren behaupten und für die zu arbeiten sie vorgeben, derartige Abgaben akzeptabel finden oder nicht, kann am Ergebnis der nächsten allgemeinen Wahlen abgelesen werden.

Es gibt jedoch etwas, dass ich nicht durchgehen lassen kann, und zwar bei keiner Regierung, wenn diese nämlich behauptet, sich an allgemeine Standards der Kommunikation und der Ehrlichkeit zu halten und doch am Verkünden von Fakten und wahrheitsgemäßer Information ihrer Mitbürger scheitert. Und geradeheraus gesagt, IMHO, die vorherige Regierung dieses großartigen Landes Kanada hatte sieben Jahre lang Zeit, die Sache zurechtzurücken, aber sie hat diese Gelegenheit ungenutzt verstreichen lassen. Sie verfügten über alle erforderlichen Ressourcen, um die Mitbürger über die Abhängigkeit des Landes von natürlichen Ressourcen aufzuklären und ihnen ein gutes Gefühl hinsichtlich unseres „Kohlenstoffes“ zu vermitteln.

Ja, liebe Regierung, Sie haben das Recht, uns armen Kerlen alle Steuern der Welt aus der Tasche zu ziehen, aber Sie haben nicht das Recht – ich wiederhole: Sie haben nicht das Recht – uns Lügen aufzutischen, weder hinsichtlich „Kohlenstoff-Verschmutzung“ noch hinsichtlich irgendetwas anderem!

Aber Lügen zuhauf – und kein Ende in Sicht

Aber Lügen zuhauf – man kann sie fast täglich finden in den Nachrichten [hier in D allen voran in der „Süddeutschen Zeitung“. Anm. d. Übers.], beispielsweise wenn (angeblich es gut meinende) Journalisten oder Politiker über Kohlendioxid (CO2) als „Verschmutzer“ reden. Unterlegt werden diese Berichte mit gleichfalls völlig falschen Bildern, in denen aus Kühltürmen Dampf aufsteigt.

Natürlich wird es in einem Bild mit hohem Kontrast, in dem eine Dampfwolke vor einem hellen, sonnendurchfluteten Hintergrund aufsteigt, diese vergleichsweise sehr dunkel aussehen. Genauso wie wenn sich eine Wolke an einem sonnigen Tag hoch in der Atmosphäre vor die Sonne schiebt. Allerdings sind weder Dampf noch CO2 Verschmutzer. Aus den Kühltürmen steigt nur Dampf auf, der sich unter Umständen zu Regenwolken verdichtet. Im Gegensatz dazu emittieren so genannte „Schornsteine“ CO2 (ein unsichtbares Gas) und echten Rauch (kleinste Partikel in der Luft). Diese wurden jedoch zum allergrößten Teil durch moderne elektrostatische Verfahren herausgefiltert.

Ich habe nie herausgefunden, ob die Reporter oder deren Fotografen wirklich so dumm sind oder ob es ihnen schlicht egal ist, ob sie Derartiges verstehen oder nicht. Kohlendioxid ist kein Verschmutzer, sondern ein überlebenswichtiger Bestandteil unserer Atmosphäre. Mit einer Konzentration von 0,04% besteht für dieses Gas nicht nur Spielraum nach oben, sondern es hilft auch den Pflanzen, besser zu wachsen – und es hat keinerlei Auswirkung auf Klima und Wetter auf der Erde.

Aber all dieses Wissen hindert die Regierungen nicht daran, sich die Notwendigkeit einer Kohlenstoff-Steuer auszudenken, entweder direkt oder indirekt über ein Zertifikate-Handelssystem. Natürlich wird jedwede neue Steuer dieser Art – so wird uns glauben gemacht – helfen, das „Klima zu retten“.

Nun ist dem Klima jedoch das CO2 völlig egal. Es wird hauptsächlich gesteuert durch die Sonnenstrahlung und dem Wasserkreislauf auf der Erde.

Die Sonnenstrahlung

Die Erde empfängt elektromagnetische Wellen (EM) von überall aus dem Weltraum, doch die meiste Energie kommt von der Sonne, genauer von deren Oberfläche. Und das ist für das gesamte Leben auf der Erde unabdingbar. Würde sich die Sonne abkühlen, würde die Erde im Handumdrehen zu einem Eisklumpen werden. Das war früher schon wiederholt der Fall, als große Teile der Kontinente von Kilometer dicken Eisschilden bedeckt waren.

Während man annimmt, dass es im Inneren der Sonne Millionen Grad heiß ist, ist deren Oberfläche im Vergleich dazu relativ kühl, lediglich so etwa 6000°C. Als Folge wird eine Masse Strahlung emittiert über einen großen Teil des EM-Spektrums. Je kürzer die Wellenlänge dieser Strahlung, umso höher die EM-Energie. Ultrakurzwellige „Gamma-Strahlung“ erreicht die Erde auch aus dem freien Weltraum. Diese Hochenergie-Strahlung dringt weit in den Boden ein und kann sogar in Bergwerken oder tief im Inneren der Cheops-Pyramide gemessen werden.

Der größte Teil der Solarstrahlung ist weniger energiereich und erstreckt sich über eine Bandbreite von kurzwelligen UV-Strahlen bis zu viel längerwelligen Strahlen auf der anderen Seite des (für unsere Augen) sichtbaren Spektrums. Letzteres ist nur ein winziger Bruchteil des gesamten elektromagnetischen Spektrums (EMW), das sich über viele Größenordnungen erstreckt, wie die nachfolgende Abbildung zeigt:

Bandbreite des elektromagnetischen Spektrums, das sich über 18 Größenordnungen erstreckt. Quelle: Wikipedia

Wie man sieht, überdeckt das EMW-Spektrum viele Größenordnungen. Theoretisch ist es an beiden Ende offen, aber praktisch empfängt die Erde die meiste EMW-Energie im Bereich von lediglich einer Größenordnung dieser Energie-Bandbreite. Aus der nächsten Graphik geht eindeutig hervor, dass das Spektrum der Solarstrahlung eine Funktion der Wellenlänge ist. Nahezu das gesamte sichtbare Licht sowie die ultraviolette und infrarote Strahlung von der Sonne findet sich innerhalb dieser schmalen Bandbreite.

Das EMW-Strahlungsspektrum der Sonne. Quelle: Wikipedia

In dieser Graphik zeigt die gelbe Fläche das solare Spektrum und die roten Flächen die verschiedenen Energie absorbierenden Bänder des Sauerstoffes (O2 und O3), Wasser (H2O) und Kohlendioxid (CO2) in der Erdatmosphäre. Eindeutig ist CO2 nicht nur ein sehr geringer Bestandteil der Atmosphäre (mit 0,04%), sondern auch ein vernachlässigbarer Absorber der gesamten Bandbreite der EMW-Energie, die auf die Erdoberfläche trifft. Was ist also mit dem „Treibhauseffekt“, den man dem Spurengas CO2 andichtet?

Der Treibhauseffekt

Jener so genannte „Treibhauseffekt“ von CO2 existiert nicht, überhaupt nicht! Während die Erdoberfläche längerwellige Strahlung zurück in den Weltraum emittiert und die CO2-Moleküle in der Atmosphäre derartige infrarote EMW in einem bestimmten, sehr engen Band absorbieren, wird es bald weiter abgestrahlt. Im schlimmsten Falle kann CO2 diese Strahlung kurze Zeit verzögern, aber es kann nicht das Verhältnis ändern zwischen einfallender und ausgehender Strahlung.

Es gibt sogar einen extraterrestrischen „experimentellen“ Beweis hierfür: Der Planet Mars hat eine Atmosphäre, die zu 95% aus Kohlendioxid besteht (verglichen mit 0,04% CO2 in der Erdatmosphäre). Durch die „CO2-Treibhauseffekt-Weisheit“ sollte die Temperatur auf der Nachtseite des Mars‘ ähnlich der auf der Tagseite sein (angenähert plus 30°C). In Wirklichkeit liegt die Temperatur auf der Nachtseite deutlich unter MINUS 100°C, genau wie auf dem Mond, wo es überhaupt keine Atmosphäre gibt.

Mit anderen Worten: Eine CO2-reiche Atmosphäre oder überhaupt keine Atmosphäre macht kaum einen Unterschied!

Wen das immer noch nicht überzeugt, der ist vielleicht interessiert an irgendeinem Sumpfgebiet in den Everglades oder an einem „Grundstück mit Kratersicht“ auf dem Mond – nur ernstgemeinte Anfragen bitte.

Link: http://canadafreepress.com//article/carbon-pollution-claptrap

Übersetzt von Chris Frey EIKE