1

Anthropo­gene globale Erwärmung AGW: vorsätz­liches Verbrechen gegen die Wissen­schaft, gerecht­fertigt mit künst­licher Sicher­heit

Der Punkt ist, dass ein computerbasiertes mathematisches Modell irgendeines Prozesses oder Systems nutzlos ist, solange es nicht validiert worden ist. Die Validierung eines solchen Modells muss das Austesten jeder einzelnen Gleichung darin enthalten sowie das Studium jedes einzelnen Parameters, um deren Genauigkeit auf statistischer Grundlage zu erkennen mittels einer Palette von Wahrscheinlichkeits-Verteilungen auf numerischer Grundlage, Standardabweichungen, Korrelationskoeffizienten und Vertrauensbereich. Das Endstadium ist ein sorgfältiger Test der Fähigkeit des Modells, die Folgen von Änderungen der Modellparameter über die gesamte gewünschte Bandbreite zu prognostizieren.

Als Reaktion auf meine Anmerkung, dass kein Modell je validiert worden ist, änderten sie den Titel zu „Klimamodelle – Evaluierung“ nicht weniger als 50 mal. Es gibt nicht einmal in irgendeiner IPCC-Publikation eine Beschreibung, was getan werden muss, um ein Modell zu validieren.

Anstatt validiert zu werden mittels des traditionellen Gebrauchs mathematischer Statistik werden die Modelle „evaluiert“ allein auf der Grundlage der Meinung derjenigen, die sie erfunden haben.

In den Anfängen wurde das Austesten eines Modells ,Nachhersage‘ genannt. Man datierte den Startzeitpunkt zurück mit einer bekannten Ausgangslage und ließ es von da an laufen, um festzustellen, ob es diese Entwicklung nachvollziehen konnte. War das der Fall, konnte man auch dessen realen Prognosen für die Zukunft vertrauen. So wie ich es verstehe wurde dieses Verfahren als Validierung bekannt, und die Modellierer proklamierten Erfolg, weil sie die Variablen so lange bearbeitet hatten, bis das Modell tatsächlich die Situationen der Vergangenheit nachvollziehen konnte. Das Problem war, dass bei dieser ,Nachhersage‘-Korrelation kein Beweis für Ursache und Wirkung erbracht worden ist.

Diese Story der Validierung illustriert, wie das IPCC nicht einmal grundlegende Verfahren durchführt, aber wenn man es dabei ertappt, werden die Ergebnisse solange bearbeitet, bis sie passen, oder man bringt eine neue Terminologie ins Spiel. Meines Wissens werden immer noch keinerlei Validierungen vorgenommen. Die Arbeit von Vincent bietet eine Gelegenheit, auf Kommentare zu meinem letzten Beitrag zu antworten. Er wies darauf hin, dass die Fehler des IPCC alles andere als unbedeutend waren. Sie waren ausgeprägt und unterstreichen, dass kein Vertrauensniveau involviert war. Kritiker meiner Beiträge argumentierten, dass es ausreichende Sicherheit gab, um die Modelle als valide Mittel zu betrachten. Ich wies diese Behauptung in Bausch und Bogen zurück, weil Sicherheit in jeder Phase der AGW-Behauptung unzureichend ist.

Im Rechtssystem wird unterschieden nach Verbrechen aus Affekten und nach Vorsatz, auch die Strafen sind unterschiedlich. Sie werden als zwei separate Verbrechen angesehen wegen der dahinter stehenden Absicht. Die globale Klima-Kampagne beabsichtigte, der Welt zu beweisen, dass die menschliche Erzeugung von CO2 die Ursache für AGW ist. Das belegt den Vorsatz. Es wurde zu einem Verbrechen aus Leidenschaft, nachdem das Verbrechen begangen worden war, weil die Täter es zuließen, sich von ihrer Leidenschaft übermannen zu lassen und allem widerstehen, was die Wahrheit enthüllt. Die betreffenden Leute wussten von Anfang an, dass das, was sie taten, noch weniger als Pseudowissenschaft war, also handelten sie vorsätzlich. Traurigerweise ist es so: wenn sie das nicht wussten – und es gibt viel zu viele, die es nicht wussten – waren sie inkompetent.

Es gibt eine weitere, extrem große Gruppe von Wissenschaftlern aus allen Disziplinen, die niemals die IPCC-Berichte lesen. Diejenigen, die es doch tun, machen die gleiche Erfahrung wie der Meteorologe und Physiker Klaus-Eckart Pulsl:

Ich wurde sehr zornig, als ich entdeckte, dass Vieles von dem, was das IPCC und die Medien uns weismachten, schierer Unsinn war und nicht einmal durch auch nur ein einziges wissenschaftliches Faktum oder irgendeiner Messung gestützt war.

Der Physiker Hal Lewis beschrieb die Arbeit des IPCC so:

Es ist der größte und erfolgreichste pseudowissenschaftliche Betrug, den ich je in meinem langen Leben als Physiker erlebt habe.

Da gibt es keine Unsicherheit.

Anfang der achtziger Jahre, als das Thema Klima zu einer politischen Agenda geworden ist, wurden von allen in dem AGW-Betrug involvierten Personen zwei klare Verpflichtungen gefordert. Die erste war die Übernahme der wissenschaftlichen Verantwortung für das, was erzeugt wurde. Die zweite erfordert sozial-ökonomische Verpflichtungen hinsichtlich der auf dieser Wissenschaft basierenden Politik. Weder wissenschaftlichen noch sozialen oder politischen Verpflichtungen wurde nachgekommen. Schlimmer, sie wurden absichtlich umgangen.

Die Gefahren kristallisierten sich heraus, als der Betrug in die Öffentlichkeit getragen wurde, und zwar mittels Hansens abgekartetem Auftritt vor dem Senatskomitee im Jahre 1988. Ich entschuldige mich nicht dafür, dies immer wieder zu wiederholen und mich zu diesem Thema zu äußern, weil immer noch zu viele versuchen nachzuvollziehen, was da vor sich gegangen war.

In einem Kommentar zu meinem vorigen Artikel [auf Deutsch beim EIKE hier] schrieb Richard Tol:

Das ist alles ziemlich übertrieben. Tim Balls Kernpunkt scheint es zu sein, dass weil wir es nicht genau wissen, wir überhaupt nichts wissen. Es gibt im Leben nur Weniges, dass mit großer Präzision bekannt ist, besonders die Dinge, die eine Rolle spielen.

Die Menschen sind ziemlich gut darin, mit nicht perfekten Informationen umzugehen. Wir wären längst ausgestorben, wenn wir das nicht gewesen wären.

Klimapolitik ist nichts weiter als ein weiterer Fall, Entscheidungen unter Unsicherheiten zu treffen. Wir wissen, wie man das macht.

Dieses törichte Statement bildet die Grundlage dafür, alles zu erklären, was mit der ,Wissenschaft‘ für eine politische Agenda falsch läuft. Diese ,Wissenschaft‘ ist das Werk des IPCC. Erstens, es repräsentiert den umweltlichen Standard-Rückfall, wenn Daten und Wissenschaft unzureichend sind – das Vorsorgeprinzip; der Gedanke, dass es besser ist, überhaupt irgendetwas zu tun, nur für den Fall der Fälle. Nein, das ist es nicht, und zwar aus den Gründen, die ich vor dem kanadischen Parlamentskomitee zu FCKWs und Ozon erläutert habe. Die Wissenschaft schreitet voran mittels Spekulation, obwohl sie es hypothetisieren nennen. Viele Wissenschaftler können jeden Tag viele Spekulationen erzeugen und tun das auch, welche auf wenigen Fakten und Hypothesen beruhen. Heutzutage gieren Medien und Andere nach akademischen Publikationen auf der Suche nach sensationellen, den Globus oder das Leben bedrohenden Spekulationen. Niemals jedoch berichten sie, wenn die Forschungen gescheitert sind.

Meine Frage an die Politiker war, welche Spekulation sie auswählen und ausschlachten würden. Sie können nicht alle heranziehen, und außerdem erweisen sich fast alle als ungerechtfertigt, wenn man sie dem wissenschaftlichen Verfahren des Skeptizismus‘ unterzieht. Ironischerweise macht der Erfolg der Entwicklung das Geld locker, um damit eine verzerrte Liste von Prioritäten zu erstellen. Wir können es uns leisten, dumm zu sein.

Das IPCC wurde unter Federführung des United Nations Framework Convention on Climate Change (UNFCCC) gegründet. Jene Agentur stand unter dem Schirm der Agenda 21 des United Nations Environment Program (UNEP), einer globalen Umweltstrategie für das 21. Jahrhundert. Es war das geistige Produkt von Maurice Strong, welcher es der Welt im Jahre 1992 in Rio de Janeiro vorlegte. Wie alle Endprodukte beruhte sie auf eine Reihe von Vermutungen. Mit der Agenda 21 wurden diese Vermutungen als Prinzipien ausgegeben, welche die Eckpunkte setzten für Maßnahmen und Aktivitäten. Das Prinzip 15 besagt:

Um die Umwelt zu schützen, sollte das Vorsorgeprinzip von den Staaten entsprechend ihren Möglichkeiten weitgehend übernommen werden. Wo es Bedrohungen ernster oder irreversibler Schäden gibt, sollte das Fehlen vollständiger wissenschaftlicher Sicherheit nicht als Begründung dienen, kosteneffektive Maßnahmen zu verschieben, um umweltliche Beeinträchtigungen zu verhindern.

Schauen wir mal genau, was sie damit sagen. Erstens ist es diskriminierend und kontraproduktiv [anti-success]. Es ist nur auf Länder anwendbar, welche sich das leisten können (Fähigkeiten). Wer entscheidet das? Sie tun es! Wir agieren, wenn ernste irreversible Schäden drohen. Wer entscheidet darüber? Sie tun es! Fehlende volle wissenschaftliche Sicherheit ist nicht erforderlich um zu agieren, aber wer entscheidet, was angemessene Sicherheit ist? Sie tun es! Sie gaben sich selbst die Autorität, die Sicherheit zu verwerfen, auf die sich Tol bezog.

Nun wissen wir jetzt, dass die Modelle an jedweden ,Sicherheits‘-Anforderungen scheitern, selbst im grundlegendsten Niveau. Allerdings ist die Sicherheit ungeeignet bei allem was sie sagten und taten und – traurigerweise – immer noch tun. Die Computermodelle sind mathematische Konstrukte, wobei die Erdatmosphäre durch willkürlich gewählte Würfel repräsentiert wird (Abbildung 1):

Abbildung 1

Für etwa 85% der Oberflächen-Rechtecke gibt es keine Wetterdaten. Die Temperaturdaten werden in einer Höhe zwischen 1 m und 1,25 m über Grund genommen, sind also nicht repräsentativ für die Temperatur über oder unter diesem Niveau. Es gibt praktisch keine Daten über der Oberfläche. Die Datengrundlage zur Konstruktion der mathematischen Modelle repräsentiert die Temperatur in jedwedem Würfel nicht einmal annähernd. Die existierenden Daten genügen in keiner Weise irgendwelchen akzeptablen Niveaus wissenschaftlicher Sicherheit. Die USA beispielsweise haben die beste und mit Sicherheit die teuerste Ausrüstung für die Messung der Temperatur. Anthony Watts hat ermittelt, dass nur 7,9% aller USHCN-Wetterstationen eine Genauigkeit unter 1°C erreichten. Im Zusammenhang: im IPCC-Bericht 2001 heißt es, dass eine Erwärmung um 0,6°C über etwa 120 Jahren nicht natürlich war.

Es gibt nicht eine einzige vom IPCC herangezogene Variable, die auch nur ansatzweise in die Nähe dessen kommt, was eine statistisch signifikante Stichprobe ist. Soweit ich das verstehe, muss das eine Stichprobe sein, die 30% der Datenmenge enthalten muss, um signifikant zu sein [Original: that is a sample needs to be 30% of the population for significance]. Die IPCC-Leute sollten das wissen. Als Mitglieder der Weltwetterorganisation WMO arbeiten sie die ganze Zeit mit 30-Jahre-Mittelwerten. Das Problem ist, dass selbst dieser Zeitraum bedeutungslos ist, wenn es um Klimaaufzeichnungen geht. Eine Stichprobe über 30 Jahre mag statistisch für 100 Jahre signifikant sein, aber nicht für längerzeitliche Aufzeichnungen.

Das IPCC und seine Gründungsmitglieder wissen, dass Sicherheit entscheidend war, also machten sie sich daran, diese herbei zu schummeln. Die Arbeitsgruppe I (WG I) produziert den ,wissenschaftlichen‘ Beweis, dass menschliches CO2 Erwärmung verursacht. Sie repräsentieren nur einen kleinen Anteil der Leute, die sich wissenschaftlich betätigen, und nur sehr wenige von Ihnen haben eine Ausbildung in Klimatologie. Sie sind zumeist nur Spezialisten in einem kleinen Teilbereich des Klima-Puzzles. Ihre Ergebnisse werden ohne Hinterfragen übernommen und bilden die Grundlage für die Arbeit der Arbeitsgruppen II und III. Dies bedeutet, dass sie lediglich auf die Auswirkung und die erforderliche Abschwächung schauen, die notwendig für die Sicherheit ist, dass es eine Erwärmung geben wird.

Die Personen in der WGI sind sich der Begrenztheit der Daten bewusst. Ganz zu Anfang des 5. Zustandsberichtes gibt es einen Abschnitt mit der Überschrift [übersetzt] „Behandlung der Unsicherheiten“ [Treatment of Uncertainties]. Inzwischen weiß man, wie man das macht: mit der Angabe von „Wahrscheinlichkeiten“, die eine ohnehin schon ungenügende Präzision vortäuschen und verbreiten.

Abbildung 2

Abbildung 2 zeigt die Tabelle der ,Antriebe‘ [forcings] aus dem AR 5. Dies sind die Variablen, welche sie hinsichtlich menschlicher Gründe des Klimawandels für bedeutend halten. Rechts findet sich eine Spalte „Vertrauensniveau“ [Level of Confidence] Wer bestimmt das, und wie wird es gemessen? Es ist standardmäßig eine subjektive Maßzahl, aber das IPCC bevorzugt sie. Nur eine Variable ist markiert als ,Sehr Hoch‘, und zwar das CO2, eine eigennützige Abschätzung, die sich leicht widerlegen lässt. Nur drei der 11 Variablen sind als ,Hoch‘ gelistet. Man betrachte davon lediglich eine, nämlich Aerosole. Kann mir jemand die Daten beschaffen der Anzahl und der Natur der Aerosole in der Atmosphäre ebenso wie deren Volumen und deren zeitlicher Änderung über jedweden Zeitraum?

Die Tabelle ,Antriebe‘ in Abbildung 2 ist modifiziert aus der im AR 3 erschienenen Tabelle (Abbildung 3):

Abbildung 3

Weiter, die Spalte ist überschrieben worden als LOSU für „Level of Scientific Understanding.” Was in aller Welt ist das außer einer anderen subjektiven Maßzahl. Ich bin nicht überzeugt, dass „Vertrauen“ eine Verbesserung war. Es gab eine marginale statistische Verbesserung, weil die Anzahl der Klassifizierung „hoch“ von 2 von 11 auf 3 von 11 stieg und die Anzahl von „low“ von 4 auf 2 sank. Liest man jedoch den Report, zeigt sich, dass nahezu für jede Variable das LOSU oder Vertrauensniveau niedrig bis nicht existent ist.

Der größte Teil der Öffentlichkeit einschließlich fast aller Medien und der meisten Wissenschaftler haben niemals den Report der WG I gelesen. Dessen einzig mögliches Ziel war es, dass falls er später hinterfragt wird, man sagen kann, dass sie wussten, es gibt ernste Probleme hinsichtlich Daten und Verfahren. Ein Hauptgrund dafür, dass der Report nicht gelesen worden ist, ist der Umstand, dass die Politik absichtlich dessen Veröffentlichung zeitlich erst nach Freigabe der Summary for Policymakers angeordnet hat. Diese SPMs dienten nur dazu, absichtlich Zweifel herunter zu spielen und Sicherheit zu übertreiben. Um wenigstens ein Mindestniveau von Sicherheit vorzuspielen, welches ein Politiker oder Entscheidungsträger verlangt, bevor darüber entschieden wird, muss das vollständige Fehlen von Sicherheit in der Wissenschaft überspielt werden. Man betrachte die von Jones erstellte Graphik mit der globalen Temperaturzunahme um 0,6°C innerhalb von 120 Jahren. Die tatsächlich veröffentlichte Zahl war 0,6°C ±0,2°C. Hätte man dies so ausgedrückt, dass Politiker und die Öffentlichkeit es versteht, hätte man 0,6°C ±33,3% gesagt. Es gibt keine Person oder Gruppe, nicht einmal einen Politiker, der seine Politik auf die Grundlage derartiger Prozentangaben basieren würde. Es gibt strikte Grenzen der tolerierbaren Sicherheit in jeder anderen wissenschaftlichen Forschung – warum nicht in der Klimawissenschaft? Die Frage lautet, welcher Prozentsatz an Sicherheit vernünftig ist. Diese Frage überschreitet die Grenze in der Klimatologie zwischen Wissenschaft und sozial-ökonomischer Politik.

Im Jahre 1989 erlebte ich ein gutes Beispiel auf einer Konferenz in Edmonton zu Klimaprognosen und deren Implikationen für Land- und Waldwirtschaft. Der Klimamodellierer Michael Schlesinger hielt einen Vortrag, in welchem er Klimaprognosen der besten fünf Modelle des Tages miteinander verglich. Er argumentierte, dass diese valide sind, weil sie alle Erwärmung zeigen. Dies war zu 100% vorhersagbar, weil sie allesamt so programmiert waren, dass sie mit einer CO2-Zunahme steigende Temperaturen zeigten. Untersuchte man die Ergebnisse im kontinentalen Maßstab stimmten sie nicht überein. Ein Modell zeigte Abkühlung in Nordamerika, ein anderes Erwärmung. Das Publikum, bestehend aus Entscheidungsträgern aller Art, brauchte größere Sicherheit. Jemand fragte Schlesinger nach der Genauigkeit seiner Vorhersage trockenerer und wärmerer Bedingungen für Alberta. Die Antwort lautete 50%. Der Fragesteller erwiderte, dass diese Angabe für ihn nutzlos war. Sein Ministerium plante Wiederaufforstung und brauchte 95% Sicherheit.

Es gibt noch eine andere Möglichkeit, politische Reaktionen auf Unsicherheit zu testen. Viele US-Senatoren kannten die Probleme mit der Klimawissenschaft des IPCC durch die Arbeit von Senator James Inhofe. Als sie im Jahre 1995 aufgefordert worden waren, das Kyoto-Protokoll zu ratifizieren, machten sie es anders. Sie wollten nicht direkt abstimmen, weil dies hätte dazu führen können, weniger als grün zu erscheinen. Stattdessen schauten sie auf die sozial-ökonomischen Kosten der Umsetzung desselben, indem sie über die Byrd/Hagel Resolution abstimmten. Sie kamen zu dem Ergebnis, dass die Kosten bei Weitem über die Vorteile hinausgehen und stimmten 95 zu Null nicht zu Kyoto ab. Die Senatoren waren sich zu 100% sicher hinsichtlich der Auswirkungen, unabhängig von der Wissenschaft.

Vincent Gray verweist auf eine bedeutende Folgerung in Climate Change 95, in der es heißt:

Nichtsdestotrotz, die Summe der Beweise zeigt, dass es einen merkbaren menschlichen Einfluss auf das globale Klima gibt.

Dieser Kommentar ist ein direktes Zitat des infamen Beitrags von Benjamin Santer zum Kapitel 8. Das Komitee bzgl. Kapitel 8 hatte folgender Bemerkung zugestimmt:

Während Einige aus den hier diskutierten Grundlagen einen signifikanten Klimawandel erkannt haben wollten, gibt es bis heute keine einzige Studie, die den Klimawandel insgesamt oder teilweise anthropogenen Ursachen zugeordnet hat.

In dem Report machte Santer daraus:

Die Gesamtheit statistischer Beweise in Kapitel 8, wenn man sie im Zusammenhang unseres physikalischen Verständnisses des Klimasystems betrachtet, zeigen jetzt einen merkbaren menschlichen Einfluss auf das globale Klima.

Avery und Singer bemerkten dazu im Jahre 2006:

Santer kehrte die ,Klimawissenschaft‘ des gesamten IPCC-Reports in sein Gegenteil und damit auch den politischen Prozess bzgl. globaler Erwärmung! Der ,merkbare menschliche Einfluss‘, den das IPCC vermeintlich enthüllt haben sollte, wurde tausende Male in Medien auf der ganzen Welt zitiert und war der ,Stopper‘ in Millionen Debatten unter Nichtwissenschaftlern.

Dies war das erste ungeheuerliche Beispiel von Korruption und Betrug, mittels derer eine Sicherheit vorgegaukelt worden ist, die in keiner Phase des gesamten IPCC-Verfahrens existierte. Falls man mit seinen Modellen spielen oder Wissenschaft im Labor betreiben will – gut. Aber man muss den Verpflichtungen und Sicherheiten der Wissenschaft genügen. Das IPCC hat das nicht getan. Zieht man jedoch die Ergebnisse dieser ,Wissenschaft‘ heran und präsentiert sie als offizielle Politik, dann ist ein weiterer Satz an Verpflichtungen und Sicherheiten erforderlich. Das IPCC hat auch dem nicht Rechnung getragen.

Es ist unmöglich, das zu korrigieren, was das IPCC gemacht hat, teilweise weil jeder einzelne Report auf den Betrügereien früherer Berichte aufbaute. Das IPCC muss vollständig eliminiert werden, und alle nationalen Wetterdienste müssen zur Datensammlung verpflichtet werden einschließlich der Rekonstruktion von Klimaten der Vergangenheit. Das ist der einzige Weg, auch nur ein Minimum an Sicherheit der Erkenntnisse zu etablieren als Grundlage für Verständnis der Prozesse und damit einer genaueren Prognose.

Link: https://wattsupwiththat.com/2018/06/18/anthropogenic-global-warming-agw-a-premeditated-crime-against-science-justified-with-artificial-certainty/

Übersetzt von Chris Frey EIKE




Die Widersprüchlichkeiten beim Strahlenschutz

Damals traten bei hohen sich wiederholenden Strahlendosen gesundheitliche Schäden auf. Im Jahre 1934 legte man den ersten Grenzwert für den Umgang mit Strahlung fest und man schuf Gesetze zum Schutz vor Strahlung. Bis zur heutigen Zeit wurden die Grenzwerte ständig verringert. Allerdings bezogen sich die Grenzwerte nur auf den Umgang mit Kernbrennstoffen, im Wesentlichen also auf den Umgang mit Uran. Aus dem Auftreten von gesundheitlichen der Schäden bei hohen Strahlendosen wurde geschlossen, daß auch kleinste Strahlendosen unabhängig von der Zeit des Einwirkens schädlich seien. All dieses ist heute in Gesetzesform gegossen und wegen der Existenz dieser Gesetze wird fest an die Gefahren jeglicher Strahlung geglaubt.

Es gibt heute viele Widersprüchlichkeiten in der Strahlenschutzgesetzgebung, denn nicht nur beim Umgang mit Kernbrennstoffen gibt es hohe Strahlendosen. Im Folgenden sollen einige der Widersprüche erläutert werden:

  1. Die Strahlenschutzverordnungwurde bei uns durch ein Strahlenschutzgesetzabgelöst und so verschärft. In diesem Strahlenschutzgesetz ist jetzt auch für das überall in der Luft vorhandene Edelgas Radon der Grenzwert von 300 Becquerel pro Kubikmeter Luft für Innenräume genannt, Radon wird so als „Gefahrstoff“ gebrandmarkt. Es wurden2000 hypothetischeTodesopfer pro Jahr durch Radon in Deutschland ausgerechnet. Dabei wird übersehen, daß in Radonheilbädern die 1000-fach höhere Konzentration des Radons in der Atemluft zur heilenden Wirkung für die Patienten führt. Es gibt in Deutschland 8 Radonheilbäder, und in der EU profitieren im Jahr 80 000 Patienten von der Heilwirkung des Radons.
    Einige 100 000 Becquerel Radon pro Kubikmeter Luft in Heilbädern bewirken Heilung für Patienten, warum sind dann 300 Becquerel Radon gefährlich???
  2. In der evakuierten Zone von Tschernobyl ist der Strahlenpegel erhöht, er liegt im Bereich 0,1 bis 0,2 Mikro-Sievert pro Stunde. In unmittelbarer Umgebung des Unfallreaktors werden an einzelnen Stellen 10 Mikro-Sievert pro Stunde erreicht. Die evakuierte Zone wird „Todeszone“ genannt. Im Flugzeug hat man in Reiseflughöhe auf unserer Breite ca. 6 Mikro-Sievert pro Stunde.
    Warum gibt es in der „Todeszone“ Betretungsverbot, während die vielfach höhere Strahlung im Flugzeug täglich für Millionen Menschen erlaubt ist???
  3. Bei einem Ganzkörper-CT erhält der Patient eine Strahlendosis von 10 bis 20 Milli-Sievert in wenigen Minuten. Bei Aufräumarbeiten in der Kerntechnik gilt eine Grenze von 10 Mikro-Sievert im Jahr.
    Warum werden zur Einhaltung der Grenze in der Kerntechnik riesige Geldbeträge ausgegeben, wenn doch die 1000-fach höhere Dosis bei einem CT sich in millionenfacher Anwendung als harmlos erwiesen hat???
  4. Durch den Unfall in Fukushima hat niemand einen Schaden durch Strahlung erlitten, und es ist auch in Zukunft nicht mit gesundheitlichen Schäden zu rechnen, so berichten die von der UNO beauftragten Fachleute (UNSCEAR). Es hat aber durch die Strahlenschutzmaßnahmen der Evakuierung Todesopfer gegeben, es werden 150 bis 600 Opfer genannt (DER SPIEGEL), anderen Quellen in Japan sprechen von 1600 Opfern durch die Schutzmaßnahmen.
    Warum wird vor Strahlung geschützt, nicht aber vor unsinnigen Strahlenschutzmaßnahmen???
  5. In Kernkraftwerken westlicher Technik ist durch Strahlung noch nie ein Mensch zu Schaden gekommen, dennoch sind Italien und Österreich ausgestiegen und Deutschland folgt dem Beispiel. Weltweit hat die friedliche Nutzung der Kerntechnik laut UNSCEAR von Beginn in 1945 bis 2007 insgesamt 147 Todesopfer bei Strahlenunfällen gefordert, da sind Tschernobyl und Unfälle in der Medizin mit eingeschlossen, ebenso auch Kritikalitätsunfälle in der Anfangszeit. Die IAEA gibt eine um etwa 20 höhere Zahl an. Durch Stürze von Treppen und Leitern sterben allein in Deutschland jedes Jahr etwa 5000 Menschen.
    Warum wird die Kerntechnik eine HOCH-Risiko-Technik genannt und verboten, Treppen und Leitern jedoch nicht???
  6. Im Jahre 2006 hat man sich auf einer Tagung der IAEA geeinigt, daß der Tschernobyl-Unfall insgesamt 4000 zusätzliche Krebstodesfälle zur Folge haben wird. Das sind virtuelle Todesopfer, die unter allen zukünftigen Krebsopfern nicht nachweisbar sind. Wenn man die hierbei benutzte Rechnung auf die Zusatzbestrahlung bei Flugreisen anwendet, kommt man auf jährlich 5000 virtuelle Krebsopfer weltweit durch das Fliegen, die ebenfalls nicht nachweisbar sind.
    Warum werden aus den einmaligen 4000 virtuellen Krebstodesfällen des Tschernobyl-Unfalls schwerwiegende Schlußfolgerungen gezogen, die sich jährlich wiederholenden ähnlich hohen virtuellen Opferzahlen des Flugverkehrs jedoch ignoriert???
  7. Fall A)Meine Frau ist mit ihren 52kg eine Strahlenquelle von 6000 Becquerel, mit diesen 6000 Bq bestrahlt sie sich selber und ihre Umgebung.
    Fall B)Wladimir Klitschko ist mit 110kg eine Strahlenquelle von 12 000 Bq, er bestrahlt sich selber und seine Umgebung mit doppelt so viel Radioaktivität wie Fall A.
    Fall C)Herr Minister Peter Altmaier ist mit seinen 140kg (?) eine Strahlenquelle von 15 000 Bq, er bestrahlt sich selber und seine Umgebung mit der 2 ½ – fachen Menge im Vergleich mit Fall A.
    Nun wäre es für Herrn Minister Altmaier durchaus nützlich, sich mit einigen 1000 Bq weniger zu bestrahlen, zu Erreichen durch kleineren Body-Maß-Index. Dann könnte er seine Dosis durch Eigenbestrahlung um 30 bis 50 Mikro-Sievert im Jahr verringern und würde nicht mehr den Grenzwert von 10 Mikro-Sievert im Jahr verletzten, wie er bei Freimessungen im Rückbau von Kernkraftwerken gilt.
    Warum gilt beim Strahlenschutz oft eine Grenze von 10 Mikro-Sievert im Jahr, nicht jedoch für die Eigenbestrahlung durch erhöhten Body-Maß-Index???
  8. Nach Fukushima wurden in Deutschland die erlaubten Grenzen für Kontamination mit Cäsium-137 in Nahrungsmitteln herab gesetzt, von 1000 Bq/kg auf 600 Bq/kg. Fleisch von Wildschweinen kann heute noch über der Grenze liegen. Wenn meine Frau nun einen Wildschweinbraten essen wollte mit >600 Bq/kg, dann wäre sie für einige Tage eine Strahlenquelle von etwa 6100 Bq, sie würde sich selber und alles in ihrer Umgebung mit zusätzlichen 100 Bq bestrahlen.
    Warum wird das nun als gefährlich hingestellt und verboten, wenn doch Peter Altmaier sich selber das ganze Jahr über mit 15 000 Bq bestrahlen darf???
  9. Zur ASSE:Der Bundestag hat ein Gesetz gemacht, das die Rückholung der Abfälle aus der Tiefe verlangt. Dort lagern schwach radioaktive Abfälle, so wie alles auf der Erde schwach aktiv ist. In der ASSE sind verteilt über 125 000 Fässer 250 Gramm Plutonium-241, was den Löwenanteil der Aktivität in der Tiefe ausmacht. Allerdings wird diese Aktivität wegen kurzer Halbwertszeit verschwunden sein, wenn die Abfälle eines Tages tatsächlich wieder an der Oberfläche sein werden. Dann werden die Abfälle nur noch eine Aktivität von ca. 2 mal 10 hoch 13 Bq haben. In dem Deckgebirge über der ASSE von rund einem halben Kubikkilometer Volumen befinden sich etwa 2 mal 10 hoch 15 Bq, also die 100-fache Menge an Radioaktivität.
    Warum wird die Radioaktivität in der Tiefe als Gefahr gesehen, die 100-fache Menge darüber im Deckgebirge jedoch nicht???
  10. Zur ASSE:Die Radioaktivität von ca. 2 mal 10 hoch 13 Bq ist die ganz normale Radioaktivität der Erdkruste von einem Volumen von einem Quadratkilometer Fläche und 10 Meter Tiefe. In diesem Volumen der Erdkruste wachsen unsere Lebensmittel und wird unser Trinkwasser gewonnen. Deutschland hat eine Fläche von 356 000km², also das besagte Volumen an der Oberfläche 356 000-fach.
    Wie kann es sein, daß die Radioaktivität in der Tiefe der ASSE eine Gefahr darstellt, die 356 000-fach vorhandene gleiche Menge an der Oberfläche jedoch nicht???
  11. Zur ASSE:In der Landwirtschaft in Deutschland werden durch Düngung mit Kali in 2 bis 3 Jahren eine Menge Radioaktivität von etwa 2 mal 10 hoch 13 Bq durch K-40 auf die Felder verteilt.
    Warum ist die Radioaktivität in der Tiefe der ASSE gefährlich, die auf den Äckern verteilte gleiche Menge jedoch nicht???
  12. Zur ASSE:In 2 bis 3 Jahren werden von den Menschen in Deutschland mit der Nahrung etwa 2 mal 10 hoch 13 Bq durch Kalium-40 und Kohlenstoff-14 verspeist ohne negative Folgen für deren Wohlergehen. Die eingeatmete Radioaktivität durch Radon und seine Zerfallsprodukte liegt um den Faktor 10 höher.
    Warum ist die Radioaktivität in 500 Meter Tiefe der ASSE gefährlich, die viel höhere von den Menschen verspeiste und eingeatmete Menge jedoch nicht???
  13. Bei Radioaktivität und vielen anderen umweltpolitischen Diskussionen wird mit nicht nachweisbaren virtuellen Todesopfern argumentiert, aktuell bei Feinstaub und Stickoxiden. Das Rechenverfahren wurde im Umgang mit Radioaktivität erfunden und führte zur Verdammung der Kerntechnik und oft auch zur Verweigerung nützlicher medizinischer Strahlenanwendungen. Würde man das Rechenverfahren auch in der Medizin bei Bestrahlung nach Krebs-OP anwenden, dann käme man auf viel mehr Todesfälle als es überhaupt gibt. Würde man dieses Rechenverfahren auch bei dem allseits beliebten „Gift“ und Kanzerogen Ethanol anwenden, so käme man allein in Deutschland auf eine Todesrate, die 3-fach über der tatsächlichen liegt. Warum ist die Politik als oberste Autorität der Demokratie nicht bereit, diese Unstimmigkeiten zu beseitigen???
  14. Die weltweit geltenden Strahlenschutzgesetze erlauben dem Bürger eine maximale zusätzliche Dosis von
    1 Milli-Sievert im Jahr. Diese Dosis ist gleichbedeutend mit einer Temperaturerhöhung des menschlichen Körpers von 0, 000 000 2°C. Zur Erhaltung des Lebens brauchen wir eine Temperatur von 36°C, also rund 20°C mehr als die Umgebung.
    Die Lebensvorgänge in unseren Zellen sorgen für 100-millionenfach höheren Energieumsatz als die erlaubte Strahlung von 1 Milli-Sievert im Jahr, daher ist diese neben den Lebensvorgängen bedeutungslos – wann wird das erkannt und in den Massenmedien gesagt???
  15. Strahlung von Radioaktivität ist nicht grundsätzlich schädlich, wie es der Menschheit seit 80 Jahren suggeriert wird. Zusätzliche Strahlung führt zu zusätzlichem Training des Abwehrsystems im Organismus von Lebewesen und zusätzlichen Fähigkeiten des Immunsystems zur Abwehr und Korrektur von Fehlern. Dieser Zusammenhang ist seit langen als Hormesis bekannt und verspricht gigantische gesundheitliche Vorteile. Daher wird das Minimierungsgebot im Strahlenschutz auch „der größte wissenschaftliche Irrtum“ der Menschheit genannt.
    Wann werden die Menschen bereit sein, diesen fatalen Irrtum zu korrigieren???

Die 15 Beispiele zeigen Fehler/Irrtümer in der Strahlenschutzgesetzgebung. Die Ursache dazu ist die falsche Lehrmeinung, nämlich die Annahme, daß jede noch so kleine Strahlendosis schädlich sei. Die Strahlengefahr ist keine reale Gefahr, sie ist eine virtuelle Gefahr. Und die damit berechneten Todesopfer sind nicht real, sondern virtuell, d.h. es gibt sie nicht. Einige Mitglieder der Internationalen Strahlenschutzkommission sprachen von einem Geisterbild, das sagt viel. Die Strahlenschutzgesetzgebung sollte auf den Stand der Wissenschaft gebracht werden, dazu sind die internationalen und nationalen Gremien gefordert: ICRP, UNSCEAR, IAEA, BfS, SSK;  mit Unterstützung der Massenmedien.  

 

 

 

 




Klimawandel: Sind Christen bibelfest?

Pixabay

Alle Religionen der Welt beruhen auf Narrativen (Narrativ hier wie „zum Narren halten“), die der Aufklärung und dem gesunden Menschenverstand Hohn sprechen. Selbst die albersten Geschichten waren und sind für die Überzeugung der Gläubigen immer noch gut genug. Natürlich haben auch einige der weltweiten Religionen inzwischen den modernen Naturwissenschaften Tribut zollen müssen, leider nicht alle. So werden zumindest von christlichen Funktionären (Pfarrern, Bischöfen, Kardinälen, Papst) Narrative, wie z.B. die leibliche Wiederauferstehung beim jüngsten Gericht oder die Rettung der Fauna vermittels der Arche Noah etc. inzwischen als „Bildnisse“ und nicht mehr als Realität verkauft.

Bedenklich wird es allerdings, wenn sich Religionsfunktionäre, hier der aktuelle Papst Franziskus, zu sachlichen Urteilen über naturwissenschaftliche Phänomene versteigen (hier, hier, hier) und daraus Handlungsdirektiven für ihre Glaubensanhänger ableiten. Für solche Beurteilungen sind sie auf Grund ihrer akademischen Ausbildung und intellektuellen Fähigkeiten weder befähigt noch zuständig. Hier wird eine bedenkliche Rückwendung sichtbar, an deren konsequentem Ende wieder die Vernichtung von Ketzern steht. Bekanntestes historisches Beispiel war der seiner Zeit weit vorausgreifende Naturwissenschaftler Giordano Bruno, der am 17.Feb. 1600 in Rom als Ketzer verbrannt wurde (hier). Seine Rehabilitierung erfolgte erst 400 Jahre(!) später durch Papst Johannes Paul II.

Immerhin wagt das „idea Spektrum“ eine Zeitschrift von Nachrichten und Meinungen aus der evangelischen Welt, diese Entwicklung zu kritisieren. Es geschieht vorsichtig und sogar ein wenig ironisch, indem zwei konträre Meinungsvertreter sich äußern dürfen. Der Artikel lautet „Kann der Mensch den Klimawandel stoppen?. Er erschien in idea, Nr. 23, 6. Juni 2018. Auf der Seite der Befürworter von „Klimaschutz“ steht Frau Stefanie Linner als Aktivistin einer globalen christlichen Bewegung (hier) mit der Aussage „Unser Lebensstil hat das Gleichgewicht der Schöpfung tiefgreifend beeinflusst„. Auf der anderen Seite steht Dr. Rainer Facius (Physiker) mit der Aussage „Was der Mensch nicht verursachen kann, das kann er auch nicht stoppen„.

Frau Linner hat, wie alle Gläubigen, überhaupt keine Sachargumente, mit denen sie ihre Auffassung stützen könnte. Ihre Argumentationsschiene besteht aus einer freien Glaubensbehauptung, denn sie schreibt „….. Der Lebensstil, den wir uns gemeinsam in den letzten paar hundert Jahren angewöhnt haben, hat das Gleichgewicht der Schöpfung tiefgreifend beeinflusst. Diese Veränderungen führen zu einem Klimawandel, dessen Konsequenz uns im Prinzip klar ist ….“. Leider ist nichts klar, liebe Frau Linner! Hat der vor rund 60 Millionen Jahren herabstürzende Großmeteorit, der gemäß heutiger wissenschaftlicher Auffassung für das Aussterben der Dinosaurier verantwortlich war, etwa nicht das Gleichgewicht der Schöpfung tiefgreifend beeinflusst? Dass die Behauptungen von Frau Linner auch nur versuchsweise belegt werden, kann nicht erwartet werden. Ein unverrückbares Mantra musste genügen.

Herr Facius argumentiert dagegen sachlich: Zuerst mit der Schwäche von Klimamodellen, die als Beweismittel untauglich sind. Er erwähnt den seit 20 Jahren anhaltenden globalen Temperaturstillstand, der mit dem zunehmenden CO2 nicht zusammenpasst. Er erwähnt die weit höheren CO2-Konzentrationen der Erdvergangenheit, die keine Katastrophen verursachten und er spricht die Ausgasung von CO2 aus dem Meer bei steigenden Temperaturen an, wobei die Temperatur das CO2 führt, nicht umgekehrt.

Auch bei bemühter Neutralität und allem gebotenen Respekt für den religiösen Glauben unserer Mitmenschen leben wir immer noch in Zeiten der Aufklärung! Die Entscheidung, welcher der beiden Meinungsäußerungen mehr Gewicht beigelegt werden sollte, kann daher dem logisch denkenden und naturwissenschaftlich kundigen Leser nicht schwer fallen. Ironischerweise kommt im idea-Artikel auch zur Sprache, dass sich Gott (hier ist natürlich der christliche gemeint) höchstselbst für die Rettung des Klimas verbürgt hat. So ist nämlich in 1. Mose 8,22 (Luther Bibelübersetzung) nachzulesen

„Solange die Erde steht, soll nicht aufhören Saat und Ernte, Frost und Hitze, Sommer und Winter, Tag und Nacht“

Daraus ist zu folgern, dass christliche Kirchenfunktionäre, zumindest was den Klimawandel angeht, noch nicht einmal bibelfest sind.

 

 

 




Ein Leserbrief: NO2-Grenzwerte – ein Tollhaus

Jedermann kann sich bei Wikipedia über die Gesundheitsgefährdung durch Stickstoffdioxid (NO2) informieren. Gesichert sind Gesundheitsschädigungen ab einer Konzentration von 20.000 µg/m³ Luft. Höhere Werte können zu Lungenschädigungen mit Todesfolgen führen. Schädigungen durch geringere Konzentrationen werden  dagegen nur vermutet. Es ist offensichtlich nicht möglich, in diesem Bereich den Einfluss des NO2von überlagernden anderen Luftanteilen, wie Feinstaub und Spurengasen, die gleichfalls zu Schädigungen führen können, herauszufiltern.

Nach diesen Kenntnissen wurde für Stickstoffdioxid ein Arbeitsplatzgrenzwert von 950 µg/m3 in Deutschland festgelegt. Dieser Wert ist der sogenannte Schichtmittelwert und über einen Zeitraum von 8 Stunden einzuhalten. Er darf kurzzeitig und bis zu 4-mal pro Schicht um das Zweifache überschritten werden. Damit wird maximal ein Zehntel der Schädigungsgrenze erlaubt. Gesundheitliche Beeinträchtigungen von Gießern und Schweißern, die oft im Bereich der Grenzwerte arbeiten, sind nicht bekannt.

Eine Arbeitsgruppe des Bundesumweltamtes hat dagegen für Innenräume ohne industrielle Tätigkeiten einen Richtwert von 60 µg/m³ festgelegt. Für Außenluft wurde von der EU zunächst ein Grenzwert von 200 µg/m³ eingeführt, der später auf 40 µg/m³ (1 NO2–Molekül auf 50 Millionen Luftmoleküle) reduziert wurde, also auf 4 Prozent des Arbeitsplatzgrenzwertes. Die Werte liegen im Bereich der natürlichen NO2-Anteile in der Luft und nahe der Nachweisgrenze. Schon einige brennende Kerzen lassen die NO2–Konzentration im Raum auf mehrere 100 µg/m³ ansteigen. Gasherde, offene Kamine, Tabakrauch sind andere NO2-Quellen, durch die der EU-Grenzwert um ein Vielfaches ohne gesundheitliche Probleme überschritten wird.

Die Festsetzung der unsinnig niedrigen Grenzwerte für NO2durch übereifrige Umweltschützer führt nun zur Verteufelung des Dieselmotors und sogar zu Fahrverboten. Wir leben in einem Tollhaus. Kein Akteur hinterfragt, ob die von der EU Administration festgelegten Grenzwerte sinnvoll sind. Die Führungen der Automobilkonzerne haben sich nicht dagegen gewehrt, obwohl geringere Leistungen und höherer Treibstoffverbrauch die Folge sind. Politiker lassen den höheren Kraftstoffverbrauch und damit mehr CO2-Emissionen zu, die sie eigentlich reduzieren wollen. Selbst Bundesrichter und der Europäische Gerichtshof kritisieren die unsinnigen Grenzwerte nicht.

Statt dessen hat die Automobilindustrie die Motorensteuerung so gestaltet, dass bei Testläufen die Grenzwerte unterschritten werden, während im allgemeinen Fahrbetrieb zu höheren Leistungen und damit auch zu einem höheren NO2–Ausstoß geschaltet wird. Politiker haben die niedrigen Grenzwerte beschlossen. Anschließend beklagen sie, dass CO2-Reduktionen nicht erreicht werden. Richter plädieren für unsinnige Fahrverbote, die viele Millionen Dieselfahrzeuge unwirtschaftlich machen. Man folgt Argumenten des dubiosen Abmahnvereins Umwelthilfe, statt sich auf die realen physikalischen Grundlagen zu beziehen.

Wir leben in einem Tollhaus. Werden wir noch einmal zu den Realitäten zurückfinden?

Hans-Günter Appel

 

Prof. Dr.-Ing. Hans-Günter Appel
Auenweg 2
26419 Schortens
Tel.: 04423 7557

Pressesprecher
Stromverbraucherschutz NAEB e.V.
www.naeb.de

 

 




Wissenschaftler: 30 Jahre später, wie gut stehen Prognosen zur globalen Erwärmung?

von Dr. Pat Michaels und Dr. Ryan Maue
James E. Hansen wischte sich den Schweiß von der Stirn. Draußen gab es am 23. Juni 1988 eine Rekordtemperatur von 36,7 °C, als der NASA-Wissenschaftler vor dem Senatsausschuss für Energie und natürliche Ressourcen während einer längeren Hitzewelle aussagte, die er zu einem Klimaereignis von kosmischer Bedeutung erklärte. Er drückte gegenüber den Senatoren sein „hohes Maß an Vertrauen“ in eine „Ursache-Wirkungs-Beziehung zwischen dem Treibhauseffekt und der beobachteten Erwärmung“ aus.

Video von Tony Heller über die Prophezeiungen von James Hansen, während und vor und nach der Anhörung vor dem US-Senat am 23.6.1988, die samt und sonders nicht nur nicht eintrafen, sondern oft stattdessen das ganze Gegenteil.
Mit diesem Zeugnis und einer begleitenden Arbeit im Journal of Geophysical Research entzündete Mr. Hansen das Feuer der Gewächshäuser im Gewächshaus und entzündete damit eine weltweite Debatte über die Energiestruktur des gesamten Planeten. Präsident Obamas Umweltpolitik beruhte auf ähnlichen Modellen schneller, kostenintensiver Erwärmung. Aber der 30. Jahrestag der Vorhersagen von Herrn Hansen bietet die Gelegenheit, zu sehen, wie gut seine Prognosen waren – und die Umweltpolitik entsprechend zu überdenken.
In der Zeugenaussage von Herrn Hansen wurden drei mögliche Szenarien für die Zukunft der Kohlendioxidemissionen beschrieben. Er nannte Szenario A „business as usual“, da das für die 1970er und 80er Jahre typische beschleunigte Emissionsanstieg beibehalten wurde. Dieses Szenario prognostizierte, dass sich die Erde bis 2018 um 1 Grad Celsius erwärmen würde. Szenario B setzte die Emissionen niedriger ein und stieg heute mit der gleichen Rate wie 1988. Herr Hansen nannte dieses Ergebnis das „plausibelste“ und prognostizierte, dass es etwa 0,7 Grad betragen würde Erwärmung dieses Jahr. Er fügte eine finale Prognose, Szenario C, hinzu, die er als sehr unwahrscheinlich ansah: konstante Emissionen beginnend im Jahr 2000. In dieser Prognose würden die Temperaturen einige Zehntel Grad steigen, bevor sie nach 2000 flach werden würden.
Dreißig Jahre Daten wurden gesammelt, seit Herr Hansen seine Szenarien skizziert hat – genug, um zu bestimmen, welches der Realität am nächsten kam. Und der Gewinner ist das Szenario C. Die globale Oberflächentemperatur ist seit 2000 nicht signifikant angestiegen und hat den El Niño, der größer als üblich ist, von 2015-16 abgezinst. Nach dem Modell von Herrn Hansen verhalten sich die Oberflächentemperaturen so, als hätten wir vor 18 Jahren die Kohlendioxidemissionen begrenzt, die für den verstärkten Treibhauseffekt verantwortlich sind. Aber wir haben es nicht getan. Und es ist nicht nur Mr. Hansen, der es falsch verstanden hat. Die vom Zwischenstaatlichen Ausschuss der Vereinten Nationen für Klimaänderungen (IPCC) entwickelten Modelle haben im Durchschnitt etwa doppelt so viel Erwärmung vorhergesagt wie seit Beginn der weltweiten Überwachung der Satellitentemperatur vor 40 Jahren.
Hanses total falsche Vorhersage für den künftigen Temperaturverlauf. Rot aktueller Verlauf
Was ist mit Herrn Hansens anderen Behauptungen? Außerhalb der Erwärmungsmodelle war sein einziger ausdrücklicher Anspruch in der Aussage, dass die späten 80er und 90er Jahre eine „überdurchschnittliche Erwärmung im Südosten der USA und im Mittleren Westen“ erleben würden. In diesen Regionen wurde kein solcher Anstieg gemessen.
Als die beobachteten Temperaturen im Laufe der Jahre von seinen Vorhersagen abwichen, verdoppelte sich Herr Hansen. In einem Fall von 2007 über Autoemissionen erklärte er in seiner Ablagerung, dass das meiste von Grönlands Eis bald schmelzen würde und den Meeresspiegel im Laufe von 100 Jahren auf 23 Fuß anheben würde. Nachfolgende Forschungen, die in der Zeitschrift Nature über die Geschichte der grönländischen Eiskappe veröffentlicht wurden, haben gezeigt, dass dies unmöglich ist. Ein Großteil der Oberfläche Grönlands schmilzt jeden Sommer, was bedeutet, dass in einer sich dramatisch aufheizenden Welt mit einem raschen Schmelzen zu rechnen ist. Aber nicht in dem, in dem wir leben. Die Nature-Studie fand nur einen bescheidenen Eisverlust nach 6.000 Jahren viel wärmerer Temperaturen, als die menschliche Aktivität jemals ertragen konnte.
Einige weitere Vorhersagen von Herrn Hansen können nun anhand der Geschichte beurteilt werden. Sind Hurrikane stärker geworden, wie Mr. Hansen in einer Studie von 2016 vorhergesagt hat? Nein. Satellitendaten ab 1970 zeigen keine Hinweise auf die globale Oberflächentemperatur. Haben Stürme in den USA immer mehr Schaden angerichtet? Daten aus der National Oceanic and Atmospheric Administration zeigen keinen solchen Anstieg der Schäden, gemessen am Bruttoinlandsprodukt. Wie wäre es mit stärkeren Tornados? Das Gegenteil mag zutreffen, da NOAA-Daten Hinweise auf einen Rückgang liefern. Die Liste dessen, was nicht passiert ist, ist lang und langwierig.
Das Problem mit den Modellen von Herrn Hansen – und den U.N.’s – ist, dass sie keine präziseren Messungen darüber in Betracht ziehen, wie die Aerosolemissionen der Erwärmung von Treibhausgasen entgegenwirken. Mehrere neuere Klimamodelle tragen diesem Trend Rechnung und projizieren routinemäßig ungefähr die Hälfte der von den U.N.-Modellen vorhergesagten Erwärmung, wodurch ihre Zahlen den beobachteten Temperaturen viel näher kommen. Das jüngste von ihnen wurde im April von Nic Lewis und Judith Curry im Journal of Climate veröffentlicht, einer zuverlässig etablierten Zeitschrift.
Diese korrigierten Klimaprognosen werfen eine entscheidende Frage auf: Warum sollten Menschen weltweit drastische Kosten für die Reduzierung von Emissionen bezahlen, wenn die globale Temperatur so wirkt, als ob diese Kürzungen bereits vorgenommen worden wären?
Am 30. Jahrestag der Zeugenaussage von Herrn Hansen ist es an der Zeit anzuerkennen, dass die von ihm vorhergesagte schnelle Erwärmung nicht stattfindet. Klimaforscher und politische Entscheidungsträger sollten die bescheideneren Prognosen übernehmen, die mit den beobachteten Temperaturen übereinstimmen.
Das wäre eine lauwarme Politik, im Einklang mit einem lauwarmen Planeten.
Weiterführende links:
http://www.climatedepot.com/2018/06/22/scientists-30-years-on-how-well-do-global-warming-predictions-stand-up/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+ClimateDepot+%28Climate+Depot%29
und
https://wattsupwiththat.com/2018/06/22/thirty-years-on-how-well-do-global-warming-predictions-stand-up/

 




Klimawandel ist bunt? Das ZDF mag es gestreift!

Özden Terli ist das neue Gesicht der ZDF Wettererklärerriege. Bei Wikipedia finden wir etwas zu seinem Werdegang:

In den Jahren 1988 bis 1992 absolvierte Özden Terli eine Berufsausbildung zum FernmeldeanlagenElektroniker und holte später sein Abitur mit Schwerpunkt Physik/Philosophie am Köln-Kolleg auf dem Zweiten Bildungsweg nach. Terli studierte anschließend an der Freien Universität Berlin Meteorologie mit Nebenfach Astrophysik. In seiner Diplomarbeit, die er am Alfred-Wegener-Institut (AWI) für Polar- und Meeresforschung schrieb, beschäftigte sich Terli unter anderem mit dem Thema „Atmosphärischer Transport von Saharastaub über dem Atlantik – Lidarbeobachtungen an Bord des Forschungsschiffes Polarstern“. Dazu wurde ein neuartiges Lidar Gerät (ComCAL[1]) in mehreren Monaten gebaut.

Er versteht also etwas von seinem Fach, dazu noch einiges von Elektronik und Physik. Deswegen liegt es ihm wohl auch am Herzen dem gemeinen Zuschauer die Schönheit des Klimawandels nahe zu bringen. Z.B. mit der künstlerisch verfremdeten Temperaturganglinie eines Prof. Ed Hawkins.  Der Name steht jedenfalls unter der Grafik.

Terli gefiel die so gut, dass er sie vor lauter Begeisterung zeigte. Und das -fast identisch- gleich zweimal, nämlich in der 19Uhr-„HEUTE“ Sendung des ZDF vom 19.06.2018 und auf 3SAT vom selben Tag.

Trotz permanenter massiver Klimawandelpanik, die das ZDF schon lange seinen Zuschauern angedeihen lässt, sehen wohl manche nur bunte senkrechte Linien, während andere  vielleicht auf dem Foto nur viele senkrecht angeordnete Leuchtstoffröhren in hellem bunt vermuten dürften.

Dem muss entgegen gewirkt werden, und so sieht Terli in diesem Kunstwerk mal wieder den Klimawandel bestätigt und erklärt es den Zuschauern auch so.

Das das Klima sich wandelt hat zwar niemand bezweifelt, aber vielleicht meint Terli, es müsse immer wieder betont werden. Schließlich sind wir ja beim volkserzieherischen ZDF.

Video von Klimamanifest von Heiligenroth zur unterschiedlichen Deutung der Strichgrafik durch den Präsentator ZDF Wettermoderator Özden Terli

Die akribischen Leute vom Klimamanifest von Heiligenroth haben sich nun die gezeigte Darstellung und die Behauptungen des Herrn Terli genau angesehen und angehört. Und entdeckten gravierende Unterschiede zwischen der Sendung im ZDF und der in 3SAT.

Behauptet Terli noch in der „heute“ Sendung beim ZDF, dass dieses Bild (von Bildchen kann man wegen seiner Größe nicht sprechen) die „Temperaturabweichung“ (von was auch immer), aber in jedem Falle „weltweit“ zeige, bezeichnet er in der fast identischen 3SAT Sendung das Bild zeige die „globale Mitteltemperatur„.

Beides gleichzeitig kann es eigentlich nicht sein. Eine Abweichung von einem (ungenannten) Referenzwert ist eben -zumindest in den Naturwissenschaften- etwas anderes als eine Darstellung der Absolutwerte. Und doch ist es dieselbe Grafik.

Man kann daher annehmen, dass Terli hier ein Fehler unterlaufen ist, denn dass er den Unterschied nicht kennt, ist wohl eher unwahrscheinlich.

Vielleicht ist aber einfach auch nur wahr, dass für Terli, der Unterschied zwischen einer minimalen Temperaturerhöhung aus der Kälte der kleinen Eiszeit hin zum absoluten Wohlfühlwert von 15 °C einfach nicht wichtig genug ist. Wer weiß?




Die Stunde der Wahrheit: 23 von 28 EU Staaten sind als (sehr) schlecht bewertet, bei der Erreichung der Klimaziele von Paris

Fast drei Jahre ist es her, seit die Länder weltweit das Pariser Abkommen unterzeichnet haben , mit dem die Staaten sich gebunden haben, ihre Treibhausgasemissionen verpflichtend (oder so ähnlich)zu reduzieren, um „die Zukunft des Planeten zu retten“.

Die Sprache des Abkommens ist genau genommen nicht bindend und daher kann es nicht überraschen, dass einige Unterzeichner dem Geist des Abkommens nicht gerecht werden.

„Relevanter Hoax“ … kein EU-Staat verfolgt die Ziele

Nun, hier ist die wirkliche Meldung: Laut einer neuen Analyse von der NGO CAN – Europe , verfehlen alle EU – Länder die Ziele des Pariser Abkommen.

Jetzt ist es ganz klar: Die Europäer  haben das Pariser Abkommen von Anfang an nie wirklich ernst genommen. Es war nichts anderes als ein Neujahrsvorsatz, an den sich niemand jemals halten wollte.

Kein Wunder, dass der Ex-NASA-GISS-Direktor James Hansen dem Guardiane gerade erzählte: „… der relevante Schwindel wird heute von jenen Führern begangen, die behaupten, das Problem anzugehen.“

Hansen hat Recht.

CAN Europe: düstere Ergebnisse

Ziel der Untersuchung von CAN Europe war es,  „welche EU-Mitgliedstaaten sind bereit, ihre Klimaschutzmaßnahmen zu verstärken und die Kluft zwischen den Zielen des Übereinkommens von Paris und den derzeitigen Anstrengungen zur Verringerung der Treibhausgasemissionen in der EU anzupacken“.

Die Ergebnisse? Laut CAN Europa :

Das Ranking zeigt, dass alle EU-Länder vom Ziel abweichen: Sie vermögen es nicht, ihre Klimaschutzmaßnahmen im Einklang mit dem Ziel des Übereinkommens von Paris zu verstärken. Kein einziges EU-Land ist sowohl ehrgeizig als auch fortschrittlich bei der Verringerung der CO2-Emissionen. “

23 von 28 Ländern werden mit „schlecht“ oder „sehr schlecht“ bewertet

Die Grafik auf Seite 5 des CAN Europe-Berichts weist aus, dass 23 von 28 europäischen Ländern schneiden schlecht (poor) oder sogar sehr schlecht (very poor ) ab.

Quelle: CAN Europe.

CAN-Europa  bewertete die europäischen Länder nach verschiedenen Faktoren, insbesondere den Pro-Kopf-Emissionen und den Fortschritten beim Ausbau der erneuerbaren Energien. Zum Beispiel erfüllte Leader Schweden 77% der CAN-Maßnahmen, während Polen nur 16% erreichte.

Insgesamt haben die ärmerenLänder viel schlechter abgeschnitten. Dies könnte teilweise darauf hindeuten, dass grüne Energien eher ein Trend für die reichen und versnobten Länder sind.

Deutschland ist peinlich berührt

Mehr noch, Deutschland musste vor wenigen Tagen zugeben, dass es seine CO2 – Minderungsziele nicht um ein Vielfaches übertreffen würde, wie es zunächst angenommen wurde – “ ein peinliches Eingeständnis für eine Regierung, die den Klimawandel begrenzen will“.

Bereits 9 Jahre ohne Ermäßigung

Noch peinlicher: Deutschland hat seine Emissionen seit 9 Jahren nicht reduziert und es gibt keine Anzeichen dafür, dass sich dieser Trend mal ändern könnte!

Einzig und allein haben die USA seit 2007 ihre CO2-Emissionen um rund 700 Millionen Tonnen pro Jahr reduziert, was in der Nähe der deutschen Jahresproduktion liegt!

US EIA

Gefunden auf No Tricks Zone vom 19.06.2018

Übersetzt durch Andreeas Demmig

http://notrickszone.com/2018/06/19/paris-accord-humiliation-23-of-28-eu-states-graded-poor-or-very-poor-on-achieving-climate-targets




Die Leuchten vom Bundes-Umweltministerium

Oder sollte man sagen, eine Litanei? Wir hören: Mehr und mehr Erneuerbare Energien, lalala, mehr und mehr Elektroautos, lalala, Amen. Dazwischen ein zerknirschtes Eingeständnis, dass Deutschland seine Ziele nicht erreicht hat.

Sobald das böse A-Wort fällt – sobald also jemand darauf aufmerksam macht, dass dies mit dem staatlichen Kernenergieverbot in Deutschland zu tun hat, ist Bundesgreenpeace mit dem Megafon auf Posten und brüllt: Aufhören, aufhören! So ließ das Bundes-Umweltministerium gestern Mittag über seinen Twitter-Account wissen:

„Wer auf Atomkraft setzt, tut nichts für den Klimaschutz &  blockiert den notwendigen Wandel zu einer sicheren, nachhaltigen und umweltfreundlichen Energieversorgung. Und er hinterläßt künftigen Generationen viel radioaktiven Müll, dessen sichere Lagerung bis heute nicht geklärt ist.“

Stimmt das?

Aussage 1: „Wer auf Atomkraft setzt, tut nichts für den Klimaschutz“, ist unwahr. Wahr ist, dass Länder wie Frankreich, Finnland und Kanada, die auf Kernenergie setzen, auf besserem Wege sind als wir, auch ihre Klimaziele zu erreichen. Setzt man voraus, dass das BMU wider besseres Wissen zur Erreichung individueller politischer Ziele seiner Führung die Unwahrheit behauptet, dann kann man auch sagen: Hier lügt das Ministerium.

Aussage 2: „Wer auf Atomkraft setzt…. blockiert den Wandel“ ist ebenfalls unwahr. Heute laufende Kernkraftwerke können problemlos in Netzen mit Erneuerbaren arbeiten – das BMU weiß nur nicht, wie oft die Kernkraftwerke schon Beiträge zur Netzstabilisierung leisteten und leisten, und so den gelobten „Erneuerbaren“ die Ehre und mehr gerettet haben. Blockiert wird der Wandel zudem ungleich mehr auf den Gebieten Mobilität und Wohnungsbau, damit hat der Stromsektor nur wenig zu tun.

Wir können diese Aussage als unwahr aufgrund Unbildung und Unwissenheit einordnen. Man kann also auch sagen: Das BMU, zumindest so, wie es sich am Twitter-Account präsentiert, ist dumm.

Aussage 3: „…hinterlässt radioaktiven Müll, dessen Lagerung nicht geklärt ist“, ist ein Eingeständnis eigenen Versagens, denn wer, wenn nicht ein Umweltministerium, sollte alle Kräfte einsetzen, um dieses – übrigens lösbare – Problem zu lösen. Stattdessen gehörten sämtliche Umweltministerinnen und -minister unseres Landes von SPD und Grünen zu jener Blockade-Formation, welche eine Lösung systematisch verhinderte, sei es durch Verbot der Errichtung Schneller Reaktoren (die elegantere Lösung, Atommüll loszuwerden), sei es durch Verhinderung oder Diffamierung von Forschung über fortgeschrittene Reaktorkonzepte, sei es durch Verhinderung von bergbaulichen Lösungen.

Aussage 3 ist bestenfalls als Symptom der üblichen Polit-Praxis einzuordnen, eigenes Verschleppen und Versagen anderen, Unbeteiligten, am liebsten aber Kritikern in die Schuhe zu schieben. Hier lautet der Befund: Das BMU ist ein würdiger Vertreter unserer politischen Kultur.

Die besorgte Bürgerin fragt sich indessen, warum ein Ministerium, das die Unwahrheit sagt, öffentlich ungenügende Fachkenntnis seiner eigenen Materie demonstriert und Probleme vor sich herschiebt, politisch und fachkundemäßig überhaupt noch in der Lage ist, eine korrekte Oberaufsicht über die deutschen kerntechnischen Anlagen zu führen. Auch das gehört nämlich, man glaubt es nicht, zu seinen Aufgaben.

 

Der Beitrag erschien zuerst bei ACHGUT hier




Was ein Ingenieur hinsicht­lich der Behaup­tungen über Schmelzen in Arktis und Antarktis erstaunlich findet

Der Anstieg des Meeresspiegels wird uns an jedem einzelnen Tag als eine unmittelbar bevorstehende, vom Menschen verursachte Klima-Katastrophe verkauft. Teile von Grönland schmelzen, und Teile der Antarktis schmelzen. Dies wird als Beweis hinaus posaunt, dass das Verbrennen fossiler Treibstoffe seitens der Menschen dafür sorgt, dass sich die Erde übermäßig erwärmt und damit dieses Abschmelzen auslöst … was zum Untergang von Küsten führt … und deswegen müssen wir unsere Lebensweise ändern – koste es, was es wolle.

Allerdings ist es nun zufällig so, dass diese gleichen Gebiete des Abschmelzens in Grönland und der Antarktis bekanntermaßen über hoch aktiven geothermischen Brennpunkten liegen … und dass 100% des beobachteten Schmelzens einfach und nachweislich der gegenwärtig verstärkten geothermische Wärmefreisetzung geschuldet ist.

Abbildung 1: 91 Unterwasser-Vulkane im Gebiet der Antarktis (Google Maps)

Abbildung 2

Nun ist unbekannt, warum diese geothermische Aktivität gerade jetzt so verstärkt daher kommt. Aber mit Sicherheit hat es nichts zu tun mit dem Verbrauch fossiler Treibstoffe seitens der Menschen. Kann man vielleicht sagen, dass diese Fehlinterpretation von Ursache und Wirkung irgendwie gleichwohl im öffentlichen Interesse liegt?

Eine intellektuell ehrliche, potentiell falsche und widerlegbare aber wahrscheinlich fundierte Antwort, warum die Freisetzung geothermischer Wärme derzeit verstärkt sein könnte, findet sich hier, in deutscher Übersetzung beim EIKE hier.

Aktualisierung: Die folgende Graphik von David Middleton erzählt die wirkliche Story von Grönland:

Abbildung 3

————————————

About the Author

Ronald D Voisin is a retired engineer.  He spent 27 years in the Semiconductor Lithography Equipment industry mostly in California’s Silicon Valley.  Since retiring in 2007, he has made a hobby of studying climate change.  Ron received a SEE degree from the Univ. of Michigan – Ann Arbor in 1978 and has held various management positions at both established semiconductor equipment companies and start-ups he helped initiate.  Ron has authored/co-authored 31 patent applications, 27 of which have issued. 

Link: https://wattsupwiththat.com/2018/06/16/what-an-engineer-finds-amazing-about-the-claims-of-arctic-and-antarctic-melting/

Übersetzt von Chris Frey EIKE




TOTALES SCHEITERN des Klima-Kreuz­zuges: Kohle­energie hat heute den gleichen Anteil am Energie-Mix wie vor 20 Jahren!

Die meiste Berichterstattung in den lamestream Medien hat sich auf diese einzelne Graphik aus dem BP-Report konzentriert. Sie zeigt, dass der Kohleverbrauch im Jahre 2017 nach Jahren des Rückgangs wieder etwas gestiegen ist. Sieht nach nicht viel aus, oder? Nur ein Funke. Nichts, um dass sich die Umweltfetischisten Sorgen machen müssten. Der Gesamttrend zeigt immer noch nach unten, oder? Dafür machen sie Präsident Trump verantwortlich.

Aber trotz des Schwerpunktes von Präsident Trump, Kohlebergleute während seiner Präsidentschaft wieder in Lohn und Brot zu bringen, spielt dies für den Rest der Welt keine große Rolle.

Der wirkliche Tritt gegen Umweltaktivisten im BP-Report ist dieser hier:

Die Kohle hat den gleichen Anteil an der globalen Energieerzeugung wie vor 20 Jahren:

Im Jahre 1997 machte Kohleenergie einen Anteil von 38% der globalen Energieerzeugung aus.

Im Jahre 2017 betrug der Anteil daran immer noch 38% – trotz der Abermilliarden, die der erneuerbaren Energie hinterher geworfen worden ist.

Bumm!

Der Gedanke, dass Al Gore und Bill McKibben nebst deren Armee trainierter Erfüllungsgehilfen Himmel und Hölle in Bewegung gesetzt haben, um den Kohleverbrauch zu verdammen, irgendeine Auswirkung gehabt hat, hat sich einfach in Luft aufgelöst. Und obendrein noch das hier: Ihr Kumpan George Soros hat dem Guardian zufolge Millionen in Kohle investiert.

In den USA ist die Erzeugung von Treibhausgasen im dritten Jahr in Folge gesunken, wie mir Marc Morano in einer E-Mail schrieb.

Aktualisierung: WUWT-Autor David Middleton fügt in Kommentaren die folgende Graphik bei. Aus ihr geht hervor, dass die CO2-Emissionen aus Kohle stark gestiegen sind:

Und darum wird unser Planet immer grüner.

Link: https://wattsupwiththat.com/2018/06/17/total-failure-of-the-climate-crusade-coal-power-has-the-same-energy-share-it-had-20-years-ago/

Übersetzt von Chris Frey EIKE




Mojib Latif beim Schummeln ertappt

Unser Leser Dr. Wilfried Schnelle stieß am 15. März 2018 auf ein Interview von Mojib Latif im Deutschlandfunk. Dort ging Latif anlässlich des 30. Geburtstags des IPCC seiner liebsten Beschäftigung nach und spann eifrig Klimaalarm:

30 Jahre Weltklimarat: Erreichen des 1,5-Grad-Ziels “so gut wie ausgeschlossen”
Vor 30 Jahren wurde der Weltklimarat ins Leben gerufen – der Grund: man verdächtigte den Menschen, Hauptverursacher des Klimawandels zu sein. Das gelte heute als erwiesen, sagte er Klimaforscher Mojib Latif im Dlf. Dennoch habe der IPCC eine Aufgabe zu erfüllen: die Prognosen immer genauer zu machen.

Dr. Schnelle entdeckte zwei besonders bemerkenswerte Stellen. Hier Nummer 1:

Enorme Übereinstimmung bei Computer-Simulationen

Ehring: Es gibt ja immer wieder alarmierende Meldungen über das Klima, dass zum Beispiel der Meeresspiegel schneller steigt, als man bisher gedacht hat. Hat der IPCC am Anfang die Entwicklung noch unterschätzt, oder ist es ungefähr so gekommen, wie man damals vermutet hat?

Latif:Ganz grob ist es schon ungefähr so gekommen, wie man vermutet hatte.Wenn man die ersten Computer-Simulationen hernimmt und vergleicht, was in den Jahrzehnten danach tatsächlich passiert ist, dann ist doch eine enorme Übereinstimmung zu erkennen – nicht nur was die Entwicklung der globalen Durchschnittstemperatur angeht, sondern vor allen Dingen auch, was die regionale Verteilung der Erwärmung angeht. Denn es gibt sehr starke regionale Unterschiede und die Region beispielsweise, die sich am stärksten erwärmt hat bisher, ist die Arktis. Dort verläuft die Erwärmung doppelt so schnell wie im globalen Durchschnitt.

Das ist schon ziemlich erschreckend, was Latif da erzählt. Denn in Wirklichkeit hat sich das Klima weit schwächer erwärmt als von den IPCC-Experten prognostiziert. Die reale Temperaturkurve bewegt sich am unteren Ende des Vorhersagespektrums. Eine der Hauptursachen ist der unerwartete “Slowdown” der Erwärmung seit 1998, der bis kurz vor dem kräftigen El Nino 2016 sogar ein regelrechter Hiatus (Erwärmungsstopp) war. Wir haben über die Prognosefehlschläge an dieser Stelle immer wieder berichtet (hier, hier, hier, hier). Latif schert sich nicht um die unbequemen Fakten, erzählt tolle Geschichten von “enormen Übereinstimmungen”, die wohl vor allem nur er selber gesehen hat.

Und hier auch schon das zweite Highlight des Interviews:

Szenario Erderwärmung auf zwei oder fünf Grad

Ehring: Der IPCC betreibt ja selbst keine Wissenschaft. Wie ist die Arbeitsweise?

Latif: Der IPCC trägt zusammen, was in dem Berichtszeitraum an wissenschaftlichen Studien erschienen ist, und bewertet das dann auch. Man spricht im Englischen vom Assessment. Das heißt, dass man die Dinge zusammenträgt und bewertet. Eigentlich muss man sagen, der IPCC gibt auch immer einen Unsicherheitsbereich an. Der wird aber meistens nicht wahrgenommen, denn eine große Unbekannte bleibt natürlich. Die wird auch nie weggehen. Das ist nämlich die Frage, wie werden wir Menschen uns eigentlich in der Zukunft verhalten. Wird es so etwas wie eine globale Energiewende geben oder nicht, und wenn ja, wie schnell wird sie erfolgen. Deswegen streuen die Ergebnisse auch – nicht nur deswegen, aber vor allen Dingen deswegen -, und dann liest man hin und wieder, dass die Erwärmung bis zum Ende des Jahrhunderts vielleicht zwei Grad beträgt oder möglicherweise fünf Grad, und dann wundern sich die Menschen, wie kann denn das eigentlich angehen. Das liegt nicht daran, dass das eine Modell zwei Grad sagt und das andere Modell fünf Grad. Das liegt einfach an den Annahmen, an dem Szenario, das wir annehmen für die zukünftige Entwicklung der Treibhausgase in der Luft.

Wieder haben wir Latif beim Mogeln ertappt. Er erweckt hier den Eindruck, als ob die für die Modellsimulationen entscheidende Größe
der CO2-Klimasensitivität genau bekannt wäre und die Unsicherheit der Temperaturprognosen vor allen Dingen bei den Emissionspfaden liegt. Großer Quatsch! Die Größe des Intervalls für die CO2-Klimasensitivität im letzten IPCC-Bericht (AR5) von 1,5 bis 4,5 °C steht dieser impliziten Annahme eindeutig entgegen. Die Unsicherheit der Erwärmungswirkung des CO2 beträgt Faktor drei! Das könnte zum Beispiel eine Spanne von 2°C bis 6°C Erwärmung locker alleine erklären. Von Latif wird dies im Interview verschwiegen. Ehring hakt nicht nach, vielleicht weil er es nicht besser weiß. Insgesamt eine bedenkliche Irreführung der Öffentlichkeit. Das Schema ist übrigens keine Neues. Bereits im Online WWF-Klimakurs hat man es mit dieser Masche versucht. Und wer war bei der Erstellung des Kurses beteiligt? Dreimal dürfen Sie raten: Mojib Latif!

Übernommen von „Die kalte Sonne“ hier

Weitere Beispiele für Latif´s Schummeln finden Sie hier




Offener Brief an die Geological Society of London

An den Präsidenten

der Geological Society of London

Sehr geehrter Herr Präsident,

wir schreiben an Sie als eine Gruppe besorgter Wissenschaftler, hauptsächlich Geowissenschaftler, von denen die Hälfte Mitglieder waren und sind (die Liste der Unterzeichner folgt unten). Unsere Bedenken sind, dass die Haltung der Gesellschaft zum Thema Klimawandel (alias Anthropogene Globale Erwärmung AGW) überholt und einseitig ist, und dass dadurch die Aufmerksamkeit von und die Finanzierung anderer, wirklicher Probleme wie Plastikmüll und anderer giftiger Abfälle abgelenkt wird. Hierzu haben wir Colin Summerhayes vorgeschlagen, dass die Positionsbeschreibungen aus den Jahren 2010 und 2013 der GSL auf dem Blog Energy Matters gepostet werden, so dass alle Seiten der Diskussion an derselben teilhaben können. Wir sind Colin sehr dankbar, dass er dem stattgegeben und sich daran beteiligt hat (hier). Zusätzlich engagiert sich Colin weiterhin in einer offenen und lebendigen E-Mail-Korrespondenz mit Einigen von uns über Pro und Kontra AGW.

In den Positionspapieren der GSL wird festgestellt, dass diese Position auf einer Analyse geologischer Beweise beruht und nicht auf eine Analyse der jüngsten Temperatur- und Satellitendaten oder Klimamodell-Projektionen. Mit Sicherheit im Mittelpunkt steht die Behauptung, dass die einzige plausible Erklärung der Rate und des Ausmaßes des Temperaturanstiegs seit dem Jahr 1900 der exponentielle Anstieg des CO2-Gehaltes und anderer Treibhausgase in der Atmosphäre seit der Industriellen Revolution ist. Diese Behauptung widerspricht der Aussage des IPCC im 5 Zustandsbericht, dass anthropogene Einflüsse seit dem Jahr 1960 wahrscheinlich den globalen Wasserkreislauf beeinflusst haben und dass über die Hälfte der Erwärmung seit 1951 auf das Konto von AGW geht. Außerdem behauptet das IPCC, dass Anthropogene Treibhausgas-Emissionen (GHG) seit der vorindustriellen Ära (deren Beginn unterschiedlich in die Jahre 1750 bis 1880 gelegt wird) den größten Teil der atmosphärischen Konzentration von CO2 ausmachen, was niemand ernsthaft bestreitet. Das IPCC behauptet aber nicht, dass diese Konzentration bereits vor 1951/60 zu Erwärmung geführt hat, wie es die GSL zu behaupten scheint.

Die Haltung des IPCC passt zu Beobachtungen, wonach fast die Hälfte der seit 150 Jahren oder so stattfindenden Erwärmung seit der Industrialisierung bereits bis 1943 erfolgt war, lange vor dem rapiden Anstieg des industriellen CO2. Diese Differenz der Standpunkte ist entscheidend, denn: sollte das CO2 nicht für die Erwärmung vor 1943 ursächlich sein, muss der von der GSL unterstützte proklamierte Konsens einer katastrophalen AGW infolge menschlicher CO2-Emissionen seit der Industriellen Revolution falsch sein.

Während es noch andere Bereiche des Dissens‘ hinsichtlich der Wissenschaft von globaler Erwärmung und Klimawandel gibt (was nicht das Gleiche ist), können wir vermutlich alle zustimmen, dass das Positionspapier aus dem Jahr 2010 und dessen Addendum aus dem Jahr 2013 dringend der Aktualisierung bedarf. Und weil diese Aktualisierung entscheidend sein wird bzgl. der zukünftigen Klimapolitik weltweit, schlagen wir vor, dass jedwedes aktualisierte Papier aus einer vollen und offenen Diskussion der Wissenschaft hervorgehen muss – und nicht einfach aus den Gedanken einer kleinen, wenngleich qualifizierten Gruppe. Wir zeigen, dass ein solcher Prozess möglich ist, indem Begutachtungs-Verfahren anderer professioneller Gesellschaften übernommen werden, besonders von der APS, AAPG und APPEA. Deren Verfahren sind als Kopien angehängt.

Wir glauben auch, dass die GSL in der Verantwortung steht, die übertriebenen Behauptungen zurückzuweisen, welche um die Klimawandel-Debatte kreisen, welche die wirkliche Wissenschaft unterminieren – wie etwa die Behauptungen, wonach CO2 und Klimawandel hervorrufen:

Mehr Hurrikane, mehr Regen, mehr Dürren, mehr Asthma und jetzt auch noch mehr Terrorismus (wegen Dürren in Afrika)

dass die außerordentliche Kälte und Wärme, die auf der subarktischen Nordhemisphäre während des vergangenen Winters und Frühjahrs verzeichnet worden waren, das ist, was wir durch die globale Erwärmung erwarten müssen.

Wie dieser Brief klarstellt, stimmt es einfach nicht, dass 97% aller Wissenschaftler vorbehaltlos akzeptieren, dass die AGW-Theorie feststeht oder dass Kohlenstoff und CO2 Verschmutzer sind und dass deren Erzeugung bestraft werden muss. Wie kann der primäre Nährstoff der Photosynthese ein Verschmutzer sein? Wir erwähnen auch, dass 700 Wissenschaftler in Eingaben an den US-Senat ihrer abweichenden Meinung vom Konsens Ausdruck verliehen haben und dass 166 Klimawissenschaftler am Abend des Kopenhagener Klimagipfels 2009 Ban Ki Moon aufgefordert haben, Beweise für eine vom Menschen verursachte globale Erwärmung vorzulegen, was er nie gemacht hat.

Sogar einst angesehene Journale wie New Scientist kolportieren immer noch völlig unkritisch einen solchen Unsinn wie den infamen ,Hockeyschläger‘, aus welchem auf magische Weise die gut dokumentierte Mittelalterliche Warmzeit verschwunden war. Der Terminus Globale Erwärmung liegt auf jedermanns Lippen, wobei von jedem Monat/jedem Jahr behauptet wird, es sei der/das wärmste jemals gewesen – auf der Grundlage der adjustierten Land- und Wassertemperaturen. Allerdings zeigt der Stillstand der mittleren Temperaturen seit dem El Nino 1998, wie er fast allen Temperaturreihen aus jüngerer Zeit zum Ausdruck kommt, dass die globale Erwärmung nicht mehr im Gange ist. Beide Behauptungen können nicht korrekt sein, und indem sie nichts zu diesen Differenzen sagt, vertieft die Gesellschaft dieselben noch anstatt zu deren Lösung beizutragen.

Mit seiner Begrenzung der Begutachtung auf geologische Beweise unabhängig von Theorie und Modellierung des IPCC hat die GSL ein unabhängiges wissenschaftliches Verfahren signalisiert. Aber durch die Weigerung, moderne Klima-Aufzeichnungen einer Evaluierung zu unterziehen, hat es das Komitee versäumt, diese und andere Inkonsistenzen in der AGW-Theorie zur Kenntnis zu nehmen oder zu berücksichtigen.

Der Blog Energy Matters war ein nützlicher erster Schritt, sich dieser Dinge anzunehmen, aber es ist nicht begutachtet [i] in der Weise, wie es bei wissenschaftlichen Studien üblich ist. Darum zeigen wir, dass etwa Formaleres vonnöten ist, wie etwa eine 2-tägige Konferenz, um alle Seiten der Debatte zu Wort kommen zu lassen, geleitet von einem fähigen Moderator.

Themen eines solchen Dialogs könnte die Bewertung von Beweisen sein, dass

CO2 der alleinige Treiber von Temperatur oder Klima ist,

Klimawandel größtenteils real, natürlich und außerhalb unserer Kontrolle ist

Manipulationen von Klimadaten erfolgt sind, um ,globale Erwärmung‘ zu stützen [ii]

Die meisten Klima-Alarme nichts als Angsterzeugung sind

CO2 überwiegend nützlich und längst NICHT so gefährlich ist wie Dekarbonisierung

industrielle Abfälle und Plastik, Entwaldung und Überfischung gefährlich sind – jedoch beiseite geschoben werden, indem man sich auf CO2-Emissionen konzentriert.

Das Klimasystem der Welt, wie es vom IPCC definiert wird [iii], ist ein gekoppeltes, nicht lineares chaotisches System, für welches die langfristige Vorhersage zukünftiger Klimazustände nicht möglich ist. Dies liegt daran, dass es unmöglich ist, die Ausgangsbedingungen präzise zu beschreiben, und an der Instabilität, erzeugt durch die Mathematik, welche zu kumulativen Fehlern im Modellierungs-Verfahren führt. Dies kombiniert macht eine korrekte Lösung unmöglich. Schon dies allein sollte die Autoren der GSL-Statements stutzig machen hinsichtlich ihrer sehr vertrauensvollen Akzeptanz, dass CO2 allein Klima und Temperatur seit dem Jahr 1900 getrieben hat. Die IPCC-Zustandsberichte dokumentieren einige der Unsicherheiten und sind allgemein viel weniger verzerrt als die SPMs (Summaries for Policymakers). Nur diesen jedoch wird die Aufmerksamkeit der Medien zuteil. Das ist schlecht, ist es doch offensichtlich, dass diese Summaries nicht von Wissenschaftlern geschrieben werden, sondern von einer Versammlung von Repräsentanten und NGOs mit nur geringer wissenschaftlicher Kompetenz [iv]. Der schwere politische Bias unterminiert nicht nur den wissenschaftlichen Gehalt, sondern überlädt den überwältigenden Konsens eines vom Menschen induzierten Klimawandels, welcher blind und geistlos von den Medien jahrein, jahraus verkündet wird. Die Fassade des Konsens‘, gefördert durch die in den Klimagate-E-Mails ans Tageslicht gerückten Datenmanipulationen, negiert den kreativen Konflikt zwischen Theorie und Daten. Dieser fehlt in dieser Debatte, und wir denken, dass die GSL diesen Konflikt wiederbeleben kann. Man kann nur hoffen, dass die wiederholten Konjunktive ,könnte‘ und ,sollte‘ in den derzeitigen Studien reduziert werden, wird doch ein solches Dokument die Regierungspolitik auf Jahre hinaus beeinflussen. Darum muss es viel spezifischer werden hinsichtlich der Niveaus der Unsicherheiten in dessen Aussagen.

Wir wollen auch die Schwierigkeit ansprechen, irgendetwas zu veröffentlichen, das nicht die Haltung des IPCC zu AGW bestätigt. Auch dies haben die Klimagate-E-Mails ans Tageslicht gebracht; und auch, dass persönliche Attacken anstatt Widerlegung mittels Daten viel zu oft die Debatte charakterisieren. Wir hoffen, dass dies das Komitee nicht davon abhalten wird, diejenigen Daten zu berücksichtigen, welche den Schlussfolgerungen in den IPCC-Studien widersprechen.

Wir erwarten nicht, dass allen unseren Bedenken Rechnung getragen wird, und wir vermuten, dass die GSL akzeptiert, dass neue Daten den Konsens sehr gut ändern können. Klimamodelle scheitern bei der Modellierung von Klimaten der Vergangenheit und überschätzen permanent zukünftige Temperaturtrends. Und sie können auch nicht die folgenden Punkte erklären:

den gegenwärtigen Stillstand der Erwärmung

warum der zu Beginn der Industriellen Revolution geschätzte Gehalt von 285 ppm CO2 in irgendeiner Weise ein gewünschter Eckpunkt ist. Er fällt zusammen mit der viktorianischen Kleinen Eiszeit, einer Periode des Hungers und des Bevölkerungsrückgangs, was sicher kein wünschenswertes Ziel ist – es sei denn, man will die Erde entvölkern

warum Klimamodelle grundsätzlich höhere Temperaturen prophezeien als tatsächlich eingetreten

das Fehlen eines prophezeiten ,Hot Spots‘ – des AGW-Fingerabdrucks

CO2-Gehalt und Temperatur während der vergangenen 50 Millionen Jahre viel höher waren als heute – ohne AGW-Effekte

die natürliche Erwärmung um 8°C und die Zunahme des CO2-Gehaltes um ~100 ppm während des Holozäns bis zum 19. Jahrhundert sowie die nachfolgende weitere Zunahme des CO2-Gehaltes nach 1950 um 125 ppm, begleitet von einem winzigen Temperaturanstieg um 1°C

Das Holozän-Mysterium allgemein fallender, jedoch fluktuierender Temperaturen seit ~3000BP, begleitet von steigendem CO2-Gehalt, welcher den industriellen CO2-Emissionen vorausging

wie die AGW-Theorie allein auf Strahlungstransfer als einziger Heizquelle des Planeten beschränkt wird und Einstrahlung, Enthalpie und Wasserdampf ignoriert werden

die Unfähigkeit der AGW-Wissenschaft, die Bandbreite der Klimasensitivität zu verkleinern (derzeit der GSL zufolge zwischen 1,5°C und 6,4°C). Ist die Wissenschaft trotz über 30 Jahre langer gewaltiger Geldzuwendungen gescheitert?

das von der GSL eingeführte Konzept der Erdsystem-Sensitivität, welches doppelt so hoch wie die oben erwähnte Klimasensitivität sein kann (Addendum 2013, Seite 4)

Derartiges Scheitern muss bedenklich für die GSL sein, zeigt es doch, dass CO2 allein die globale Erwärmung nicht treibt, ja auch nicht treiben kann. Wie also kann es das Klima bestimmen? Und falls es das nicht tut, gibt es keinen Grund, die vom UN/IPCC verhängten Strafen für CO2-Emissionen unkritisch zu akzeptieren.

Die Diskussionen im Blog Energy Matters zeigen, dass die Positionspapiere der GSL nicht beweisen, dass mittlere globale Temperaturen akkurat gemessen und einheitlich sind, oder dass eine durch menschliches CO2 getriebene Erwärmung real und/oder gefährlich ist oder dass CO2 effektiv dabei ist, das Klima über die natürliche Variabilität hinaus zu verändern. Die Positionspapiere enthielten nicht die vorteilhaften Auswirkungen von CO2 hinsichtlich der Ergrünung des Planeten, wurde doch dies schon in der CSIRO-Studie im Jahre 2013 nachgewiesen. Und die Vorteile billiger, zuverlässiger Stromversorgung kann 4 Millionen Todesfälle jährlich verhindern infolge Innenraum-Verschmutzung durch das Verbrennen fester Stoffe. Dies ist schon seit einiger Zeit offensichtlich. Selbst wenn CO2 in der Tat etwas Erwärmung verursacht – ist das gefährlicher für die Menschen als diese sehr reale Verschmutzung, der täglich deutlich über 200 Millionen Menschen in den Entwicklungsländern ausgesetzt sind?

Wir unterstützen in vollem Umfang, dass die Gesellschaft in die Klimadebatte involviert ist, aber wir glauben, dass das offensichtliche Scheitern der AGW-Theorie berücksichtigt werden muss. Das Klima ändert sich und wird sich immer ändern, aber der Beweis, dass dies primär auf CO2 zurückgeht, ist abwegig. Falls die starken natürlichen Kräfte, die so gut in den GSL-Papieren beschrieben sind, viel stärkere Auswirkungen auf das Klima haben als CO2, warum sollten wir dann noch mehr unserer limitierten Ressourcen für das Auffinden von Wegen ausgeben, um uns an eine negative Klimaänderung anzupassen?

Uns ist bewusst, dass das Gremium Pflichten gegenüber der Gesellschaft hat um des Prestiges der Wissenschaft und der Mitglieder willen, vielleicht in dieser Reihenfolge. Aber wir glauben auch, dass in jedwedem formellen Statement der Gesellschaft die abweichenden Standpunkte einiger Mitglieder zumindest erwähnt werden sollten. Klimawandel (der ohne jede Rechtfertigung immer als gefährlich dargestellt wird) ist zum entscheidenden Thema unserer Zeit geworden, und informierte Dissidenten können nicht einfach unter den Teppich gekehrt werden oder als unwissenschaftlich oder leugnerisch verunglimpft werden, wie es viel zu oft der Fall ist. Rebellion ist die tiefste Wurzel der Wissenschaft; die Ablehnung, die gegenwärtige Ordnung der Dinge zu akzeptieren [v]. Anscheinend gilt dieser Grundsatz in Klimastudien nicht mehr.

Die GSL hat eine starke unabhängige Haltung eingenommen: Der Kohlenstoff-Kreislauf ist ein ernster geologischer Vorgang, aber die Interpretation von Daten ist Gegenstand zunehmender Unsicherheit, wenn man zeitlich zurück oder vorwärts geht. Feste Schlussfolgerungen aufgrund experimenteller Daten allein (die geologische Aufzeichnung) sind wahrscheinlich unsolide. Einer meiner Korrespondenzpartner drückt es so aus: „Die Gesellschaft kann Kommentare abgeben zur Komplexität von Physik und Mathematik sowie zur unvermeidlichen Unsicherheit von Prognosen des Verhaltens nicht linearer, dynamischer Systeme usw., und es ist nichts Schlechtes, darüber zu diskutieren … Aber … ihre Schlussfolgerungen sind ohne Gewähr und unsolide Wissenschaft, falls sie sich allein auf geologische Befunde stützen“.

In der Wissenschaft sollte man auf alle verfügbaren Tools zurückgreifen, und wenn man moderne Aufzeichnungen außen vor lässt, wäre es noch besser, dem Terminus die Wissenschaft ist settled die stillschweigende Zustimmung zu verweigern. Und selbst wenn alles unvermeidlich scheint, vor dem das IPCC Angst hat – die Anwendung des Vorsorgeprinzips hat mit ihrem Abwürgen der Debatte mehr Schaden als Nutzen angerichtet. Bei weitem besser ist es, nach Wegen zu suchen, sich an mögliche Auswirkungen anzupassen, bis die Beweise auf die eine oder andere Weise klarer werden.

Die Stärke der Gesellschaft ist es, nicht nur offen zu sein für Mitglieder, die einen gegenwärtigen ,Konsens‘ teilen – was einst allgemein akzeptiert war, ist oftmals durch neue Argumente widerlegt worden.

Wir würden gerne dem Gremium unsere Ergebnisse in einer Präsentation vorlegen, wie viel von dem, was relevant ist, am besten anhand von Daten belegt werden kann. Allerdings wollen wir die Diskussion nicht in irgendeiner Art und Weise monopolisieren, glauben wir doch, dass die Belange der Vorführung vor so vielen Parteien wie möglich bedarf. Und aus diesem Grunde auch nennen wir dies einen offenen Brief, den wir über die Medienkanäle laufen lassen wollen nach dem bevorstehenden AGM.

Yours sincerely

Howard Dewhirst FGS,

im Namen der folgenden Persönlichkeiten:

[Die lange Liste der Mitunterzeichner habe ich hier nicht übernommen; man klicke in das Original! Anm. d. Übers.]

Links:

APS: American Physical Society: https://www.aps.org/policy/statements/upload/climate-review-framing.pdf https://www.aps.org/policy/statements/climate/index.cfm

AAPG: http://www.searchanddiscovery.com/documents/gerhard/index.htm

AIChE: https://www.aiche.org/resources/publications/cep/2017/july/che-context-members-will-shape-aiches-climate-change-policy

APPEA: https://www.appea.com.au/wp-content/uploads/2016/02/Climate-Change-Policy-Principles-APPEA-final.pdf

SPE: http://webevents.spe.org/webinar/13400

CAPP: Canadian Association of Petroleum Producers; https://www.capp.ca/responsible-development/air-and-climate/climate-change

Climate Change Tutorial; District Court of California, 10/3/2018. http://co2coalition.org/wp-content/uploads/2018/03/Happer-Koonin-Lindzen.pdf

GWPF: https://www.thegwpf.org/state-of-the-climate-report-reveals-23-year-temperature-pause-in-the-stratosphere/

Letter to Scott Pruitt EPA: https://www.heartland.org/_template-assets/documents/06-07-18%20EPA%20Pruitt%20NIPCC%20Submission.pd.pdf

Selected Blogs:

http://euanmearns.com/the-geological-society-of-londons-statement-on-climate-change/

https://www.thegwpf.org/content/uploads/2018/03/State-of-the-Climate2017.pdf

https://notalotofpeopleknowthat.wordpress.com/2018/01/17/the-geological-society-of-londons-statement-on-climate-change/

https://wattsupwiththat.com/2018/01/30/what-are-in-fact-the-grounds-for-concern-about-global-warming/comment-page-1/#comment-2730698

[Zu diesem offenen Brief haben die Autoren eine Begleit-E-Mail geschrieben, aus der hier noch Auszüge übersetzt werden. Anm .d Übers.]:

Sehr geehrter Herr Präsident,

im Anhang finden Sie einen offenen Brief an Sie als Präsident der Geological Society of London. Der Brief ist im Geiste wissenschaftlicher Forschung geschrieben, nicht im Geiste politischer Korrektheit, und wird von einer Gruppe Kollegen mitgetragen, deren Namen aufgelistet sind. Ziel unseres Briefes ist es, die GSL zu einer Neubewertung des Themas Klimawandel zu bewegen, welche sich dann in den neuen Positionspapieren niederschlagen sollte. Wir wünschen in Gestalt dieses offenen Briefes, das Bewusstsein der Ernsthaftigkeit unserer Bedenken zu steigern, und planen, ihn in den Medien zu veröffentlichen, nachdem die Gesellschaft ihn zur Kenntnis genommen hat. …

Das Thema Klimawandel ist zu wichtig, um es einer kleinen Gruppe von Mitgliedern zu überlassen, egal welche Absicht oder Qualifikationen sie haben. Trotz allem, was Sie in den Medien lesen können, und wie dieser Brief zeigt – 97% aller Wissenschaftler stimmen nicht der IPCC-Hypothese einer katastrophalen anthropogenen globalen Erwärmung [CAGW] zu, und wir sind der Überzeugung, dass auch die GSL das nicht so uneingeschränkt tun sollte, wie sie es bisher getan hat.

Wir folgen keiner speziellen Agenda, sondern trachten nach der Wahrheit hinsichtlich eines Themas, dass zu einem gewaltig politischen Thema geworden ist, wobei ein offener Dialog fast unmöglich geworden ist. Wir sind sicher, dass dies etwas ist, mit dem die GSL konfrontiert ist, und wir wollen die Führung übernehmen bei der Wiederherstellung der Ausgewogenheit.

Yours Sincerely

Howard Dewhirst

[i] Peer reviewing is only of value if the reviewers are without bias, which is increasingly rare in politicised sciences such as climate change; the web, like Guttenberg’s press, has opened up new vistas of thought and expression.

[iii] Chapter 8 of the 2000 IPCC report titled “Model Evaluation”

[v] Carlo Rovelli: The Order of Time.2017

Link: https://www.thegwpf.com/an-open-letter-to-the-geological-society/

Übersetzt von Chris Frey EIKE




Kampagne für Erneuerbare Energien, stellt verurteilte Schwerverbrecher als Werber ein

Es ist ein hitziger Kampf im Gange, um Arizonas zukünftigen Energiemix. Clean Energy for a Healthy Arizona  (CEHA) ist eine Umweltkampagne, die vor Ort arbeitet, um zu erreichen, dass die Energieversorger in diesem Bundesstaat 50 Prozent ihres Stroms aus erneuerbaren Quellen wie Wind und Sonne beziehen müssen, in 2030. Um dies zu erreichen, will die grüne Energiekampagne die Landesverfassung ändern. Die Unterstützer arbeiten derzeit daran, bis Juli dieses Jahres,  225.963 gültige Wählerunterschriften zu sammeln, um ein Referendum über die Abstimmung in  2018 zu ermöglichen.

Es lief jedoch nicht alles reibungslos, bei der Kampagne für mehr erneuerbare Energien.

Die Finanzberichte vom April zeigten, dass Clean Energy for a Healthy Arizona ausschließlich von NextGen Climate Action  finanziert wurde, einer Umweltorganisation, die von Milliardär und Aktivist Tom Steyer gegründet wurde und finanziert wird. Die Kampagne für erneuerbare Energien erhielt von NextGen 957.000 US-Dollar. CEHA hat fünf verurteilte Schwerverbrecher als Unterschriftensammler eingesetzt, wie durch eine Konkurrenzkampagne im Mai aufgedeckt wurde.  Arizona verbietet es verurteilten Schwerverbrechern per Gesetz, Initiativpetitionen zu verbreiten, mit Ausnahme von Personen, deren Rechte wiederhergestellt wurden.

Die Enthüllung könnte als Einzelfall betrachtet werden, aber in einer weiteren Untersuchung der von Steyer finanzierten Kampagne, wurden in dieser Woche weitere 27 Schwerverbrecher entdeckt, die als Lohnempfänger eingestellt wurden.

Arizonans for Affordable Electricity ( AAE – Arizonans für erschwinglichen Strom)  – ist eine opponierende Kampagne, die den Vorschlag für mehr Anteile von Erneuerbaren ablehnt – reichte am Montag eine Beschwerde an die erste Stellvertreterin des Gouverneurs von Arizona ein (Michele Reagan) und bat um eine Untersuchung der Sache. Laut Informationen von AAE sind die fraglichen Angestellten vorbestraft, wegen Totschlag, schwere Körperverletzung, bewaffneten Raubüberfall, Entführung, Fälschung und vieles mehr.

„Das ist ungeheuerlich – die Aktivisten der CEHA glauben, dass sie über dem Gesetz stehen“, sagte AAE – Sprecher Matthew Benson in einer Stellungnahme am Montag. „Weit entfernt von ein paar verurteilten Strafverbrechern, die durch die Überprüfung schlupften„, wie die Kampagne im letzten Monat behauptete. Es ist jetzt klar, dass sie Dutzende von Personen mit einer Vorstrafe für Gewalttätigkeiten losgeschickt haben, um die persönlichen Informationen von ahnungslosen Wählern in Arizona zu sammeln.

Die Entdeckung erhöht die Gesamtzahl der Schwerverbrecher, die von der Kampagne für erneuerbare Energien angeheuert wurden, auf 32. Eine Analyse der Bensons Gruppe schätzt, dass fast fünf Prozent aller Petitionswerber verurteilte Schwerverbrecher sind. Diese Informationen könnten für die Menschen in  Arizona von Belang sein, wenn man bedenkt, dass Werber normalerweise in lokale Viertel geschickt werden, um Unterschriften zu sammeln und in vielen Fällen auch von Tür-zu-Tür gehen.

„Wir reden von Verurteilungen wegen Verbrechen wie Mord, Entführung, schwerer Körperverletzung, bewaffneten Raubüberfällen, häuslicher Gewalt und vielem mehr“, fuhr Benson fort. „Die eklatante Missachtung des staatlichen Rechts durch die Energiekampagne stellt eine klare und gegenwärtige Bedrohung für die öffentliche Sicherheit und die Integrität des staatlichen Initiativprozesses dar. Wir ersuchen respektvoll, dass das Büro des Staatssekretärs von Arizona diese ernsten Behauptungen untersucht und alle unter Verletzung des staatlichen Gesetzes gesammelten Unterschriften für ungültig erklärt. „

[Personen mit schweren Vorstrafen erhalten keine Sozialleistungen, dazu gehört auch Verbot bestimmter Tätigkeiten]

Sollte die Kampagne von Tom  Steyer erfolgreich sein, würde das vorgeschlagene Ziel die Versorgungsunternehmen des Staates stark belasten. Das derzeitige Mandat für erneuerbare Energien in Arizona beläuft sich auf 15 Prozent bis 2025. Ein Anstieg auf 50 Prozent bis 2030 würde letztlich dazu führen, dass die Kernkraftstation Palo Verde – die größte Atomkraftstation des Landes und die größte Quelle sauberer Energie in Arizona – stillgelegt wird.

NextGen America reagierte nicht auf eine Bitte um Stellungnahme der Daily Caller News.

Erschienen auf The Daily Caller am 12.06.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/06/12/tom-steyer-felons-renewable-energy-campaign/




Papst ignoriert die bedeutende Rolle fossiler Treibstoffe beim Aufblühen der Menschheit

Ein Kollege von mir schrieb eine Kolumne zu seiner Enzyklika mit dem Titel [übersetzt]: „Papst Franziskus: Bevor jemand wissen kann, was moralisch ist, muss er wissen, was wahr ist“. Darin listet er detailliert die Myriaden irreführender oder falscher Angaben zur Klimawissenschaft auf, welche Franziskus seitens der Klima-Alarmisten zugegangen waren und dass er sie aufnahm, als wären es Heilige Anweisungen. Ich möchte hier nicht in die Wissenschaft einsteigen außer darauf hinzuweisen, dass die Kolumne immer noch aktuell ist.

Die Ansichten von Franziskus bzgl. der Sicherheit des und den Gefahren durch den vom Menschen verursachten Klimawandel sind falsch, und sein Glaube, dass die Welt rasch fossile Treibstoffe aufgeben sowie Hunger und Armut reduzieren kann, ist potentiell tödlich.

Fossile Treibstoffe waren ein Segen für die Welt. Sie hoben Milliarden Menschen aus Armut und Hunger, ermöglichten überhaupt erst Beleuchtung, Transportwesen, sauberes Wasser, moderne Landwirtschaft (einschließlich Versorgung, Speicherung und Schutz vor Verfaulen und Krankheiten), heizen, kochen und die ganze Vielfalt anderer Technologien, auf denen moderne Gesellschaften basieren. Mit seinem Angriff auf fossile Treibstoffe unterminiert Franziskus den Verbrauch dieser unabdingbaren Ressourcen und Technologien, die verantwortlich sind dafür, dass Milliarden Menschen aus Mangel und Not herausfinden. Kohle, Erdgas und Öl werden weiterhin überlebenswichtig sein für die Zunahme der Lebenserwartung, den Rückgang von Kindersterblichkeit, Verbesserung der Versorgung mit Nahrungsmitteln und um den Menschen in den kommenden Jahrzehnten zu weiterem Wohlstand zu verhelfen.

In seinem Brillanten Buch The Moral Case for Fossil Fuels schrieb Alex Epstein: „Klima ist jetzt nicht mehr eine führende Ursache für Todesfälle, zum größten Teil dank fossiler Treibstoffe … Nicht nur, dass wir das Große und Ganze ignorieren, wenn wir den Kampf gegen Klimagefahren zum Fixpunkt unserer Kultur machen, sondern auch, dass wir den Klimawandel ,bekämpfen‘, indem wir uns gegen die einzige Waffe wenden, die genau diese Gefahren viel weniger gefährlich gemacht hat. Die öffentliche Klimadiskussion … betrachtet den Menschen als destruktive Kraft für das Klima, als jemanden, der das Klima gefährlich macht, weil wir fossile Treibstoffe verbrennen. Tatsächlich lautet die Wahrheit … wir übernehmen nicht ein sicheres Klima und machen es gefährlich, sondern wir übernehmen ein gefährliches Klima und machen es sicherer“.

Franziskus ignoriert diese Tatsache auf Kosten der Lebensweise und des Wohlergehens der ärmsten Menschen der Erde.

Was Energiequellen betrifft, würde Franziskus gut daran tun, die Menschenfreundlicheit und die intellektuelle Ehrlichkeit zu übernehmen, welche William Alsup, vorsitzender Richter am US-Gerichtshof für das nördliche Kalifornien an den Tag gelegt hat. In einem Verfahren, in welchem Ölunternehmen von den Städten Oakland und San Francisco verklagt worden waren, weil sie das Klima schädigen, bestand Richter Alsup darauf, nicht nur die potentiellen Klimaschäden infolge des Verbrauchs von Öl und Gas zu betrachten, sondern auch darauf, dass man die gewaltigen Vorteile berücksichtigt, welche deren Verbrauch mit sich gebracht haben.

„Wir müssen die erheblichen Vorteile, die sich aus dem Verbrauch fossiler Treibstoffe ergeben haben, berücksichtigen. Es waren gewaltige Vorteile“, sagte Alsup.

Hier folgen ein paar Fakten, die sich Franziskus zu Herzen nehmen sollte:

Fossile Treibstoffe – an erster Stelle Kohle, aber dann auch Öl und Erdgas – lieferten die Energie, welche fast alle revolutionären Technologien der Industriellen Reduktion überhaupt erst möglich machte. Zwischen 1850 und 2010 ging die Ausbeutung fossiler Treibstoffe einher mit einem Zuwachs der Weltbevölkerung um 550% und machte diesen Zuwachs überhaupt erst möglich. Gleichzeitig gingen Armut und Hunger dramatisch zurück. Während dieser Zeit nahm der Energieverbrauch um das Fünfzigfache zu. Fast der gesamte zunehmende Energieverbrauch der Welt geht auf fossile Treibstoffe zurück.

Weiterer Nutzen: der Verbrauch fossiler Treibstoffe für landwirtschaftliche Maschinen (darunter dieselgetriebene Traktoren für den Getreideanbau sowie Lastwagen zum Transport der Nahrungsmittel), für Bewässerungssysteme und die Herstellung von Dünger ist verantwortlich für die Grüne Revolution, welche im Verlauf des 20. Jahrhunderts Milliarden Menschen von Hunger und Mangelernährung befreite.

Geräte zur Luftreinhaltung, getrieben durch zumeist von Kohle und Erdgas erzeugtem Strom, welchen Franziskus in seiner Enzyklika so heftig angeprangert hat, waren ein Segen für die öffentliche Gesundheit überall dort, wo sie zur Anwendung kamen. Seit deren Einführung hat Air Conditioning Tausende vorzeitige Todesfälle infolge in Verbindung mit Hitze auftretender Krankheiten verhindert. Kühlung, ebenfalls sichergestellt durch fossile Treibstoffe, hat Nahrung und Medikamente davor bewahrt zu verderben, was Millionen weitere Leben gerettet hat.

Im Gegensatz zur Meinung von Franziskus können wir es uns nicht leisten, auf Air Conditioning, Kühlung, Beleuchtung und andere Technologien in unseren Wohnungen, Supermärkten und Industrien zu verzichten. Ebenso ist es unmöglich, Krankenhäuser nur zu betreiben, wenn der Wind weht oder die Sonne scheint.

Und noch etwas: Fossile Treibstoffe stehen an erster Stelle zum Schutz vor, bei und nach Naturkatastrophen wie Hurrikanen, Überschwemmungen und Erdbeben. Die Anzahl der dadurch zu Tode kommenden Menschen verringert sich dadurch dramatisch. Fossile Treibstoffe befeuern die Hubschrauber, Boote und Fahrzeuge der Rettungskräfte sowie die Gerätschaften zur Wiederherstellung der Stromversorgung nach derartigen Katastrophen. Diese Treibstoffe befeuern auch die Fahrzeuge, welche die Menschen aus Katastrophengebieten evakuieren, und die Fahrzeuge, welche Wasser, Nahrung, Decken und andere Versorgungsgüter zu den Überlebenden bringen. Wenn Überlandleitungen reißen, sind es mit Diesel betriebene Backup-Generatoren – und nicht Windturbinen oder Solarpaneele – welche die Stromversorgung wieder herstellen.

Plastik in Handys, Computern und Kommunikationseinrichtungen, welche die Menschen in Katastrophenfällen mit Informationen versorgen, ist zum großen Teil mittels Öl und Erdgas hergestellt worden.

Unter dem Strich wäre eine Welt ohne fossile Treibstoffe erheblich ärmer, angefüllt mit hungernden Menschen, Kindersterblichkeit und vorzeitigen Todesfällen infolge vollständig vermeidbarer Krankheiten und Unfälle. Mit allem Respekt für den Papst – solange er nicht die vitale Rolle fossiler Treibstoffe versteht, welche diese jetzt und in Zukunft spielen, sollte er sich weiter darauf konzentrieren, arme Seelen zu retten anstatt über die Wahl der Energieform der Bevölkerung zu schwadronieren.

Quellen: Fox NewsCornwall AllianceWatts Up With ThatRenewable Energy WorldCO2 Science

———————————

Hinweis des Übersetzers: Hier handelt es sich wieder um eine Zusammenfassung der Beiträge unter den genannten Links. Weil daher kein einzelner Link zu diesem Beitrag angegeben werden kann, wird das Original als DOC-Dokument zur Überprüfung der Übersetzung beigefügt:

news_16_06

 




Cyber-Angriffe auf deutsche Energieversorger

Demnach nutzen die Angreifer unterschiedliche Methoden, die ihnen in einigen Fällen Zugriff auf Büro-Netzwerke der Unternehmen ermöglicht haben. In mehreren Fällen konnten zudem Spuren der Angreifer nachgewiesen werden, die auf Angriffsvorbereitungen zur späteren Ausnutzung hindeuten. Derzeit liegen keine Hinweise auf erfolgreiche Zugriffe auf Produktions- oder Steuerungsnetzwerke vor.

Dazu erklärt BSI-Präsident Arne Schönbohm:

„Diese Angriffe zeigen, dass Deutschland mehr denn je im Fokus von Cyber-Angriffen steht. Dass bislang keine kritischen Netzwerke infiltriert werden konnten, zeigt, dass das IT-Sicherheitsniveau der deutschen KRITIS-Betreiber auf einem guten Level ist. Das ist auch ein Verdienst des IT-Sicherheitsgesetzes. Die bekanntgewordenen Zugriffe auf Büro-Netzwerke sind aber ein deutliches Signal an die Unternehmen, ihre Computersysteme noch besser zu schützen. Diese Entwicklung offenbart, dass es womöglich nur eine Frage der Zeit ist, bis kritische Systeme erfolgreich angegriffen werden können. Wir müssen daher das IT-Sicherheitsgesetz fortschreiben, so wie es bereits im Koalitionsvertrag der Bundesregierung festgehalten wurde. Die Bedrohungslage im Cyber-Raum hat sich in den vergangenen Monaten deutlich zugespitzt und es gibt keinen Grund zur Annahme, dass sie sich entspannen wird“.

Bereits im Juni 2017 hatte das BSI eine Warnung an mehrere hundert Unternehmen aus der Energiebranche herausgegeben, die Handlungsempfehlungen zum Schutz der Netzwerke enthalten hatte. Zum damaligen Zeitpunkt waren noch keine erfolgreichen Angriffe in Deutschland bekannt. Über das Nationale Cyber-Abwehrzentrum findet derzeit die koordinierte Fallbearbeitung mit anderen Behörden auf Bundes- und Landesebene statt.

Anmerkung der Redaktion: Man mag sich gar nicht ausdenken, welche weichen Ziele die sog. Smart Meter bieten, wenn deren Einbau erstmal großräumig vollzogen ist. Marc Elsbergs Bestseller „Blackout“ bietet dazu spannende Aufklärung an. Hier bestellen