1

Das Gegenteil von gut ist gut gemeint

Am 19.01.2018 erschien der Artikel „Vom Klimaschutz zur Klimasteuerung“ auf Novo Argumente. Dieser Artikel greift zunächst – sehr sachlich – alarmistische Konstrukte des anthropogenen Klimawandels auf, stellt dann ganz entspannt deren vorgeblich katastrophale Auswirkungen und Ziele in Frage, um daraus schließlich Argumente für ein globales Geoengineering zur Klimasteuerung abzuleiten. Nachfolgend sollen zunächst einige der klimaalarmistischen Darstellungen aus diesem Artikel näher beleuchtet werden:

Von den vergangenen 500 Millionen Jahre Erdgeschichte hat man zwar ziemlich klare Vorstellungen, aber keine eindeutigen und lückenlos nachgewiesenen Erkenntnisse, Zitat aus dem Novo-Artikel mit Hervorhebungen:

Tatsächlich ist das Klima der Erde höchst variabel. Es gab Eiszeiten und Wärmeperioden, in denen Palmen an den Polarkreisen wuchsen, möglicherweise auch „Schneeball Erde“ genannte Phasen, in denen nahezu die gesamte Erdoberfläche mit Gletschern bedeckt war. Am besten untersucht sind die letzten 500 Millionen Jahre. Für diesen Zeitraum, der ungefähr dem Phanerozoikum entspricht (also dem erdgeschichtlichen Zeitalter, in dem komplexe Lebensformen entstanden sind), können Wissenschaftler recht genaue Rekonstruktionen des Klimas erstellen. Sie nutzen dazu sogenannte „Proxys“ wie Baumringe, Ozeansedimente oder Eisbohrkerne…“

Zunächst einmal wird dem Leser die Klimaentwicklung der vergangenen 500 Millionen Jahre Erdgeschichte als recht genau bekannt vermittelt. Aber bereits Klimarekonstruktionen von weniger als 1 Million Jahren sind in der Realität nicht unproblematisch, auch wenn dafür tatsächlich Temperaturproxys in Form von Baumringen, Ozeansedimenten oder Eisbohrkernen vorliegen. Die Bedeutung von „recht genau“ wird nämlich immer unschärfer, je weiter wir uns in den geologischen Zeitaltern zurückbewegen. Und am Ende müssen Aussagen zum Klima auch noch zwischen echten Klimaveränderungen und geographischen Lageänderungen der betreffenden Kontinente aufgrund der Plattentektonik unterscheiden.

Ein Artikel aus National Geographic über eine Reduzierung des vorgeblichen CO2-Klimaantriebs wird dann als „gängige Theorie“ für die Entstehung der Eiszeiten benannt, Zitat aus dem Novo-Artikel:

Der Abwärtstrend, der in das aktuelle Eiszeitalter führte, begann vor circa 50 Millionen Jahren. Die Gründe dafür sind umstritten, eine gängige Theorie geht davon aus, dass die Ausbreitung und spätere Sedimentierung des Süßwasserfarns Azolla der Atmosphäre beträchtliche Mengen des Treibhausgases CO2 entzog. In den letzten zwölf Millionen Jahren ist der Temperaturabfall stärker geworden, gipfelnd in einer schnellen Folge immer intensiverer Glaziale, die die letzten drei Millionen Jahre prägten…“

Genau diese Theorie ist nicht „gängig“, sondern voll alarmistisch. Die eigentlich gängige Theorie erklärt über die genau gleiche Argumentation nämlich die Sauerstoffgenese auf unserer Erde, und zwar mit der Entstehung der globalen Vorkommen an Kohle, Erdöl und Gas aus unterschiedlichen organischen Bestandteilen. Und diese Entwicklung begann bereits mit dem Karbon, also vor etwa 350 Millionen Jahren.

Eine einzelne alarmistische Veröffentlichung über die Abschwächung eines vorgeblichen CO2-Klimaantriebs durch die Auswirkungen der Plattentektonik und wird dann als „aktueller Forschungsstand“ bezeichnet, Zitat aus dem Novo-Artikel:

Dass das Klima so kalt und volatil geworden ist, liegt laut aktuellem Forschungsstand an der Plattentektonik. Vor etwa 40 bis 50 Millionen Jahren rammte die indische Platte in die eurasische Platte. Es entstanden das Hochland von Tibet und die Gebirge Himalaja, Pamir und Karakorum, zusammen auch „Dach der Welt“ oder „dritter Pol“ genannt. Erdgeschichtlich betrachtet sind Berge, die bis an den Rand der Stratosphäre reichen, eine Anomalie. Die Auffaltung der Felsmassen hat eine außergewöhnliche klimatische Epoche eingeleitet, denn sie hat die Verwitterung silikatreicher Gesteine wie Granit erheblich verstärkt. Bei diesem Prozess wird Calcium freigesetzt. Das Calcium reagiert zu Calciumcarbonat (dem Hauptbestandteil von Kalkstein) und entzieht dabei der Atmosphäre CO2…“

Die Verknüpfung plattentektonischer Ereignisse mit einem vermeintlichen CO2-Klimaantrieb stellt einen konstruierten Mechanismus dar und ist ein Ausdruck des herrschenden Zeitgeistes. Die wissenschaftlich nachgewiesene konventionelle Position von Köppen und Wegener, dem „Vater“ der modernen Plattentektonik, für den natürlichen Paläo-Klimaantrieb durch die Schwankungen der Erdbahn um die Sonne blieb dagegen unerwähnt. In dem bahnbrechenden Werk von Wladimir Köppen und Alfred Wegener, „Die Klimate der geologischen Vorzeit“ (1924) mit den Berechnungen von Milutin Milanković, wird die sommerliche Sonneneinstrahlung in mittleren und höheren Breiten als der natürliche Paläo-Klimamotor unserer Erde identifiziert. Erst im Jahre 1976, also ein halbes Jahrhundert später, konnte dieser Zusammenhang schließlich von Hays, Imbrie und Shackleton nachgewiesen werden. Diese gesicherte geowissenschaftliche Erkenntnis findet allerdings keinen Eingang in den besagten Novo-Artikel, der sich argumentativ an klimaalarmistischen Einzelveröffentlichungen entlanghangelt.

Die Milanković-Zyklen der Erdumlaufbahn werden schließlich argumentativ bemüht, um den Beginn eines menschengemachten CO2-Klimawandels noch weiter bis zum Ende der letzten Eiszeit zurückzudatieren, Zitat aus dem Novo-Artikel mit Hervorhebungen:

Unser Wissen über die Milanković-Zyklen ermöglicht uns, Vorhersagen über die zukünftige Entwicklung des Klimas zu treffen. Nach dem aktuellen Zyklus hätte vor etwa 5000 Jahren das nächste Glazial beginnen müssen. Dass das nicht eingetreten ist, liegt an dem anderen Faktor, der neben der auftreffenden Sonnenenergie unser Klima maßgeblich beeinflusst: den Treibhausgasen. Genauer: am menschlichen Treibhausgasausstoß. Vor etwa 12.000 Jahren, im Neolithikum, begann ein globaler Übergang von Jäger- und Sammlerkulturen zu sesshaften Bauern. Um Flächen für die Landwirtschaft zu gewinnen, wurden im großen Stil Brandrodungen durchgeführt, was erhebliche Mengen an CO2 freisetzte. Hinzu kam Methan durch Viehhaltung und Reisanbau (Reisfelder sind im Wesentlichen künstliche Sümpfe). Mit der Industrialisierung im 19. Jahrhundert nahm die CO2-Konzentration durch die Verbrennung von Kohle und später Erdöl und Erdgas weiter zu

Korrekt dauert eine Zwischeneiszeit aber etwa 10.000-15.000 Jahre, sodass unsere gegenwärtige Warmzeit mit bisher etwa 12.000 Jahren Dauer noch voll im Zeitrahmen ihrer Vorgänger liegt. Selbst das IPCC geht übrigens davon aus, dass erst seit den 1950-er Jahren eine Klimawirksamkeit von anthropogen erzeugtem CO2 nachweisbar sei. Die Rückdatierung des menschlichen Einflusses auf das Ende der letzten Eiszeit ist also ein völlig unwissenschaftlicher Akt.

Dem Novo-Autor gebührt jedenfalls ein Lob für seine sachliche Auseinandersetzung mit den vorgeblichen Klimawandelfolgen. Man kann daher sicherlich davon ausgehen, dass er sich intensiv über die wissenschaftlichen Grundlagen seines Beitrags informiert hatte. Im Umkehrschluss muss man dann anhand der oben aufgezeigten Mängel den Schluss ziehen, dass die hier genannten geowissenschaftlichen Grundlagen der natürlichen Paläo-Klimagenese durch den fortwährenden CO2-Klimaalarmismus inzwischen völlig aus der aktuellen gesamtwissenschaftlichen Darstellung verdrängt worden sind.

Die gesamte klimawissenschaftliche Argumentation dieses Artikels baut also einseitig auf einem alarmistischen und grob überzeichneten CO2-Antrieb für die Genese unseres Paläoklimas auf, der so niemals existiert hat. Es ist offenbar dem klimawissenschaftlichen Zeitgeist geschuldet, alle bekannten geologischen und paläoklimatischen Mechanismen mit einem vermeintlichen CO2-Klimaantrieb zu verknüpfen. Das Aktualitätsprinzip der Geologie verlangt aber, dass sich alle vom Menschen postulierten Effekte über die gesamte Erdgeschichte hinweg nachweisen lassen, um als gültig anerkannt zu werden.
Und genau das ist beim vorgeblichen CO2-Klimaantrieb eben nicht der Fall.

Aber gerade wegen der hier aufgezeigten Mängel ist die Analyse des Novo-Autors herausragend, Zitat: „Es drängt sich die Frage auf, ob es bei dem ganzen Klimaschutz-Hype wirklich um Klimaschutz geht.“

Es wurde hier also völlig richtig erkannt, dass unterschiedlichste säkulare Zielsetzungen diverser gesellschaftlicher Gruppierungen in einem gemeinsamen vorgeschobenen Klimaschutz kumulieren. Es ist daher sehr schade, dass sich dieser sachliche und unaufgeregte Artikel dem Teufelskreis menschlicher Überheblichkeit am Ende doch nicht verschließen kann, sondern einem Geoengineering zur aktiven Klimagestaltung durch den Menschen das Wort redet. Denn beides, die Angst von einer menschengemachten Klimakatastrophe, wie auch menschliches Geoengineering zur Steuerung des Klimas, überhöhen den Einfluss des Menschen auf die Stufe der herrschenden Naturgewalten.

Und so werden gerade in der abschließenden Argumentation zum Geoengineering neue Widersprüche aufgerissen, Zitat aus dem Artikel: „…Durch Geoengineering können wir uns von den massiven Vergletscherungen und Schwankungen des Meeresspiegels befreien, die unseren Planeten seit jeher heimsuchen…“
Entscheidungsvorschläge, die allein auf zeitgeistbeeinflusstem Wissen aufgebaut sind, können nicht nur, sondern sie müssen am Ende sogar zwingend katastrophale Folgen haben. Vergletscherung und Meeresspiegel auf unserer Erde hängen nämlich ursächlich miteinander zusammen. Eine durch Geoengineering von ihrer gesamten Vergletscherung befreite Erde würde am Ende einen um etwa 66 Meter höheren Meeresspiegel aufweisen. Damit wäre dann zwar tatsächlich das Problem der langsam steigenden Küstenpegel gelöst, aber nach einer solchen „Rettungsaktion“ gäbe es dann diejenigen Küsten und Inseln gar nicht mehr, die wir damit ursprünglich einmal bewahren wollten.

Anmerkung: Ingenieurwissenschaftliche Eingriffe in komplexe Systeme sind generell nicht ganz unproblematisch, insbesondere dann nicht, wenn man ein solches System genau verstanden zu haben glaubt und dieser Glaube sich dann in der Realität nicht durchsetzen lässt:

Zitat aus Wikipedia mit Hervorhebungen und Ergänzungen: „Die Kritiker (einer Einführung der Aga-Kröte nach Australien) beruhigte der für die Einführung (der Aga-Kröte) verantwortliche Reginald Mungomery 1936, indem er darauf verwies: Die Ansiedlung in Queensland erfolgte nach einer sorgfältigen Abwägung der Pros und Contras und nachdem das Verhalten der Kröte bis heute keinen Anlass für die Befürchtung gibt, dass wir uns in unserem Urteil über sie getäuscht haben‘.“

Unsere Erde hat in ihrer geologischen Vergangenheit schon mehrfach Eiszeitalter durchlaufen. Über die Ursache für diese Eiszeiten gibt es bisher nur qualitative wissenschaftliche Aussagen. Das Geoengineering stellt uns jetzt aber Mechanismen zur Verfügung, mit denen wir möglicherweise am Klimathermostaten unserer Erde herumspielen können. Aber während man die Sonneneinstrahlung rechnerisch in Raum und Zeit genau quantifizieren kann, entzieht sich der vorgeblich „natürliche“ atmosphärische Treibhauseffekt jeder genauen räumlichen und zeitlichen Definition. Und selbst die hemisphärische Herleitung der globalen Temperaturgenese ohne diesen Treibhauseffekt kann keine quantifizierbare Formel liefern. Damit ist die natürliche Temperaturgenese auf unserer Erde also völlig ungeklärt und wir wissen nicht, wie die solare Heizung unserer Erde tatsächlich funktioniert. Vor diesem Hintergrund wird jedes globale Geoengineering zu einem verantwortungslosen Vabanque-Spiel…

Wesentliche geowissenschaftliche Zusammenhänge unseres Paläoklimas sind hier zusammengefasst.




Das US – Außenministerium hält Dokumente zum Pariser Klimavertrag zurück

Das Competitive Enterprise Institute (CEI), eine freie Marktgruppe mit Sitz in Washington, DC, hat eine Klage eingereicht, weil das Ministerium sich weigert, auf eine Reihe von Anfragen nach dem Freedom of Information Act (FOIA) [Gesetz zur Informationsfreiheit] zu reagieren, um weitere Informationen zu Hintergrund Tätigkeiten zu erhalten .

„Die Amerikaner sollen wissen, inwieweit das Außenministerium außenstehende Experten und Gruppen dirigiert hat, um die Notwendigkeit des Übereinkommens von Paris und seines angeblichen Nicht-verhandelbar-Status durchzusetzen“, sagte CEI-General Counsel Sam Kazman in einer Presseerklärung.

CEI hat bereits Beweise dafür, dass das „State Department etwas ernsthaftes zu verbergen hat, wenn es darum geht, die Wege für den energiekritischen Klimaplan zu schmieren, den Präsident Trump abgelehnt hat“, fügte er hinzu. Die Klage würde durch einige Dokumente gestützt werden, die die Gruppe über das Klimaabkommen erlangt hat.

Die Obama-Regierung argumentierte, dass die Emissionsziele der unterzeichneten Pariser Vereinbarung freiwillig seien und sich ausschließlich auf innenpolitischen Maßnahmen stützten. Obama hat zugesagt, die Treibhausgasemissionen bis 2025 um 26 bis 28 Prozent zu senken.

Aber die Politik, die Obama einführte, um dem Pariser Abkommen zu entsprechen, entsprach nur etwa 51 Prozent des Weges, mehr Gesetzgebung und Vorschriften wären zwingend erforderlich [um Obamas Klimaziel zu erreichen] – ein weiterer Grund, warum Lewis sagte, dass Paris die Definition eines Vertrags erfüllt.

„Dieser Vertrag zielt darauf ab, die staatliche Kontrolle über privates Kapital auszuweiten, wenn es für Energie angelegt wird“, sagte Lewis und fügte hinzu, Obama wolle Paris nutzen, um seine „nationale Energiepolitik vor rechtlichen Herausforderungen zu schützen“.

„Es gibt keine Möglichkeit für eine Exekutive, die Wirtschaft der nächsten 35 Jahre zu bestimmen“, sagte Lewis.

Chris Horner und Marlo Lewis von der CEI, haben die letzten zwei Jahre damit verbracht, die Überbleibsel der vorherigen Regierung zu analysieren. Sie veröffentlichten letztes Jahr ihre Untersuchung, in der sie argumentierten, der frühere Präsident Barack Obama habe die US-Verfassung in der Unterzeichnungsphase ignoriert, um seine Klimapolitik gegen rechtliche Herausforderungen abzuschirmen.

„Obama hätte das Pariser Abkommen dem Senat zur Genehmigung vorlegen müssen. Die Obama-Regierung argumentierte, das Pariser Abkommen brauche keine Zustimmung des Senats, weil es eine Erweiterung des Rahmenübereinkommens der Vereinten Nationen über Klimaänderungen sei, das in den 1990er Jahren ratifiziert wurde.

Paris erfüllt die Kriterien des Außenministeriums, kann aber aufgrund seiner Kosten und Risiken als „Vertrag“ bezeichnet werden, ist ambitioniert im Vergleich zu den Klimabündnissen der Vorgänger, ist abhängig von der nachfolgenden Legitimierung [~ ergänzende Gesetze] durch den Kongress, hat die Absicht, bundesstaatliche Gesetze zu beeinflussen [weil deren Gesetzgebung zum Teil unabhängig von Washington ist] und kann als US-amerikanische Konvention in Bezug auf multilaterale Umweltabkommen bezeichnet werden.“ heißt es im Bericht von Horner und Lewis.

Erschienen auf The Daily Caller am 07.02.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/02/07/state-dept-sued-paris-accord-docs/




Günter Ederer: Fakten statt Propaganda – zur Machtfrage durch Klimapropaganda (11.IKEK)

G. Ederer beschreibt seine Erfahrungen bezüglich des Umgangs von Politik und Medien mit kritischen Stimmen, welche gegen die Weltuntergangspropaganda vom gefährlichen menschengemachten Klimawandel vorgehen. Das Motiv für dieses stringente Ausgrenzen kritischer Stimmen ist – wie Ederer darlegt- das Ausüben von Macht. Und das weltweit!

Video des Vortrags von Günter Ederer, gehalten anlässlich der 11. IKEK in Düsseldorf am 10.11.17 im Nikko-Hotel

Macht die überdies überall und damit grenzenlos ist. An vielen Beispielen, wie dem FAZ Journalisten Müller-Jung, macht er diese Beobachtung fest. Ebenso legt er an div. Beispielen dar, welche Sogwirkung der versprochene Milliardensegen auf die Zustimmung der so Beschenkten hat. Wie auch schon zuvor von M. Limburg gezeigt, wird dieses Geld ausnahmslos an korrupte oder hoch korrupte Länder bzw. deren Regierungen verteilt.




Das Klimaziel 2020 musste aufgegeben werden!

Nun also ist die Stunde der Wahrheit gekommen, und man muss erklären, endlich, das Klimaziel 2020 muss aufgegeben werden. Na, das wird 2028, wenn 2030 vor der Tür steht, auch nicht anders sein.

Schon die Definition von „Zielen“ ist ein übler Spuk, eigentlich brauchen wir nicht Ziele, sondern Konzepte, die klar durchgerechnet und von Jahr zu Jahr kontrolliert werden können, aber dazu kann sich das politische System nicht durchringen, das wäre ja auch zu ehrlich. Von einer Regierung, die Verantwortung wirklich ernst nimmt, muss man verlangen, dass klar definiert wird, was will man erreichen, wie kommt man dahin, und was kostet das. Für das einfache Volk jedoch müssen nebulöse Wunschvorstellungen reichen, so eine Art moderner Fatah morgana. Und, brauchen wir überhaupt ein Klimaziel ? Dazu gibt es ganz aktuell auch eine Veröffentlichung (hier):.

Wo wir heute wirklich stehen, zeigt die nachfolgende Grafik:

 

Dieses Diagramm stammt aus dem „Masterplan Weserbergland“, ist also eine offizielle Statistik, und ich habe in dieses Diagramm nun die (jährlichen) Aufwendungen für die „Erneuerbaren“ eingetragen, es sind erhebliche Beträge mit zur Zeit ca. 28 Milliarden Euro pro Jahr.

Man vergleicht mit 1990, und damit lügt man sich schon mal ordentlich in die Tasche, hier hat der CO2-Ausstoß zwar tatsächlich abgenommen, aber das hat mit Klimaschutz nichts zu tun (ist kein Erfolg irgendeiner Energiepolitik), sondern es ist die Folge der Wiedervereinigung, verbunden mit der Abwicklung der total veralteten sozialistischen Wirtschaft in der DDR und den angrenzenden Ostblockländern (weiter östlich, in Russland, findet eine Modernisierung der Technik auch heute nahezu nicht statt). Dass man veraltete Technik durch modernere ersetzt ist vernünftig, das hätte man auch ohne einen Hinweis auf Klimaschutz gemacht, und ist im Westen schon in den 50-er Jahren geschehen.

Die Investition in die Erneuerbaren (über das EEG) beginnt in 2000. Einen kurzen Rückgang der CO2-Emissionen hat es zuletzt noch in 2009 gegeben, das war eine Folge der Finanzkrise, seitdem haben wir Jahr für Jahr weiter steigende Subventionen für die Erneuerbaren aufbringen müssen, jedoch ist noch nicht mal eine Tendenz erkennbar, dass sich das in Reduzierung von CO2 auswirkt oder jemals auswirken wird. Die Gründe dafür sind gut bekannt, denn da die Speichermedien fehlen, braucht jede EE-Einheit ein Backup-Kraftwerk gleicher Größe, um das Netz stabil aufrechtzuerhalten, und man gewinnt nichts. Im Netz muss der tatsächliche Bedarf an elektrischer Energie sekundengenau ausgeglichen werden, sonst gerät man in die Gefahr eines „Blackouts“, also eines Zusammenbruchs der Energieversorgung für Stunden oder Tage. Das heute über die technische Entwicklung von über 100 Jahren entstandene Netz ist sogar noch anspruchsvoller, auch die Frequenz hat nur eine zulässige Toleranz von ca. 0,1 Hz, für die Versorgung einer solchen Technik ist die durch Wind und Wetter stark schwankende Leistung der Erneuerbaren natürlich nicht geeignet. Man kann die Charakteristik der Erneuerbaren in einem einfachen Dreisatz darstellen:

1.) Nachts ist es dunkel. Das kann man politisch nicht ändern.

2.) Der Wind weht, wenn er will, und nicht, wenn er soll.

3.) Die Speicher fehlen, sie sind technisch und ökonomisch nicht darstellbar.

Das sagt eigentlich alles, man kann die Erneuerbaren einpacken. Das geschieht übrigens auch, klamm-heimlich natürlich, denn niemand möchte eingestehen, dass man in gigantischer Weise Fehler gemacht hat, Beispiele dazu später.

Aus dem oben dargestellten Diagramm ist ersichtlich, dass mit den Erneuerbaren für den Klimaschutz eigentlich nichts erreicht werden kann. Dazu muss man dann drei Forderungen aufstellen:

1.) Wir müssen den Bürgern die Wahrheit sagen. Die Erneuerbaren, so, wie wir sie heute haben, sind für den Klimaschutz nutzlos.

2.) Ein weiter so darf es nicht geben. Zumindest muss die Subventionierung dieser offensichtlich nutzlosen Technik beendet werden.

3.) Die Politiker, die diesen Schaden zu verantworten haben (es ist ein Schaden in finanzieller Hinsicht, in Umweltzerstörung und Ressourcenverschwendung) müssen zur Verantwortung gezogen werden.

Die naturwissenschaftlichen und technologischen Gegebenheiten sind so, dass zu erkennen ist, dass sich an dieser Situation in absehbarer Zeit nichts ändert. Wenn wir also für den Klimaschutz nichts erreichen, stellt sich doch die Frage, kann man die Erneuerbaren denn wenigstens auch sonst noch irgendwie brauchbar einsetzen.

Abgesehen von der Volatilität, die nicht beherrschbar ist, kommt ein weiterer Nachteil hinzu, die erneuerbare Energie kommt zunächst kostenlos auf uns zu (der Wind weht und die Sonne scheint, ohne dass wir dafür etwas bezahlen müssen), aber diese Energie ist „dünn“, das heißt, sie ist über eine große Fläche verteilt, der Flächenbedarf ist riesig, und wenn man diese „dünne“ Energie einsammeln will, muss man große Flächen mit Technik zubauen, man muss diese Flächen der Natur entziehen und in eine Industrielandschaft verwandeln, das ist vom Umweltschutz her gesehen natürlich extrem nachteilig.

Ein einfaches Nachrechnen mit dem Taschenrechner zeigt, dass der gesamte Bedarf an Primärenergie (der Bedarf ist rund fünf mal so groß wie der elektrische allein) für Deutschland, selbst wenn man alle Wälder, Natur- und Landschaftsschutzgebiete auch noch einsetzt, nicht gedeckt werden kann, es bleibt eine erhebliche Lücke. Die Ideologen, die die Propaganda der Energiewende betreiben, haben dazu noch andere Vorstellungen entwickelt, man müsste den Energiebedarf eben deutlich reduzieren, durch Steigerung von Effizienz und Suffizienz. Die Steigerung der Effizienz, also das Bemühen mit weniger Energie-Aufwand dasselbe Ziel zu erreichen, ist praktisch zum Stillstand gekommen, die Potentiale sind hier längst ausgeschöpft, da sind nur noch Reste von wenigen Prozent erreichbar. Der oben erwähnte „Masterplan Weserbergland“ fordert eine Reduzierung des Verbrauchs um 50 Prozent (sonst kann man die Welt nicht retten).

Dann bleibt Suffizienz, was wird hinter diesem Fremdwort versteckt ? Nun, es ist die Vorstellung, unser Lebenswandel ist sündig, wir verbrauchen eigentlich mehr als uns zusteht, es wird also eine beträchtliche Einschränkung an Verbrauch und damit auch eine Minderung des Lebensstandards gefordert. Wir führen also die Technik des Mittelalters ein (also die Windmühlen), und dazu passend reduzieren wir auch den Lebensstandard auf die Zeit vor Erfindung der Dampfmaschine Diese Vorstellungen gibt es tatsächlich (z.B. „klimaneutrales Berlin“.), in der praktischen Konsequenz das durchzusetzen, das laut zu sagen wagt dann doch niemand.

Wenn also klar ist, dass die „Energiewende“, also der Ersatz des gesamten Energieverbrauchs durch Erneuerbare weit jenseits jeder Realität liegt, kann man nicht wenigstens Teile des Energieverbrauchs (oder wenigstens des elektrischen Verbrauchs) durch Erneuerbare gestalten ?

Voraussetzung für die praktische Verwendung der Erneuerbaren ist die Bereitstellung der Speichereinheiten, denn dann könnte man den volatilen Strom soweit glätten, dass er nach dem jeweiligen Bedarf in Netz eingespeist werden kann, und soweit das gelingt kann man dann auch die Bereitschaft (und den zugehörigen Leerbetrieb) der konventionellen Anlagen einschränken, und dann ergäbe sich zum ersten Mal tatsächlich so etwas wie Klimaschutz, also eine tatsächliche Reduzierung von CO2-Ausstoß.

 

Was brauchen wir denn nun tatsächlich ? Das hängt von der Energiequelle ab, wir gehen die Beispiele mal durch.

  1. A) Wasserkraft.

Hier brauchen wir kaum Speichereinheiten, der Speicher ist der Obersee mit seinem Energievorrat, der ist natürlich vorhanden, abgesehen in einem strengen Winter, wenn Vereisung den Betrieb beschränkt, was aber kaum vorkommt. Aber, Wasserkraft ist nicht weiter ausbaubar und hat nur einen sehr kleinen Anteil (ca. 1 Prozent) am Energieaufkommen.

  1. B) Erdwärme, Geothermie

In bescheidenem Maß für die Beheizung von Wohnraum einsetzbar, der Investitionsbedarf ist sehr hoch, in städtischen Bereichen ist das nicht realisierbar. Es gibt eine kleine Versuchsanlage in der Größenordnung von etwa 70 kW. Größere Versuche scheiterten, weil es dann zu seismischen Erscheinungen kam und die Sicherheit von Gebäuden gefährdet war. Für die elektrische Verwendung eigentlich unbrauchbar, da die Temperaturdifferenz sehr klein ist und der thermische Wirkungsgrad (Carnot) dann sehr bescheiden ist.

  1. C) Bio-Energie, Biogas usw.

Der Vorteil: Bio-Energie ist grundlastfähig, man braucht keine Speicher. Die Nachteile aber sind gewaltig. Am Anfang der Bio-Energie steht die Photo-Synthese, und die hat einen Wirkungsgrad von nur 0,7 Prozent, damit hat man wieder einen riesigen Flächenbedarf. Wie er hier wirklich aussieht, sagt die bekannte Leopoldina-Studie, ich zitiere wörtlich: „Der Input an fossiler Energie in Landwirtschaft und Verarbeitung von Biomasse zu Biobrennstoffen übersteigt häufig den Bioenergie-Output.“ Was „häufig“ an Zahlenwerten wirklich bedeutet, das herauszufinden ist mir bisher nicht gelungen, es gibt aber Studien, die zeigen, dass man für einen Liter Bio-Diesel gut 2 Liter fossilen Diesel braucht, also ein wirtschaftlich unsinniges Verfahren. Damit hängt es auch zusammen, dass Bio-Energie massiv subventioniert wird und sich nur so halten kann. Ein weiterer gravierender Gesichtspunkt ist auch, dass die Bio-Energie in direkter Konkurrenz zur Nahrungsmittelerzeugung steht, und da Deutschland ein Netto-Importeur an Nahrungsmitteln ist bedeutet jeder Quadratmeter Boden, der hoch-subventioniert für die Bio-Energie zur Verfügung gestellt wird, in Wahrheit Export von Hunger in die Welt.

In bescheidenen Grenzen kann man an die Verwertung von Abfällen denken, das geschieht auch (z.B. Müll-Verbrennung). Aber, in einer biologisch geführten Landwirtschaft gibt es gar keine Abfälle. Abfälle kann man aus der Massen-Tierhaltung verwenden, die aber natürlich auch unter ethischer Kritik steht, da allein für die Futterversorgung der Tiere Nahrungsmittel aus der dritten Welt importiert werden, die dort für die Versorgung von Menschen fehlen. Kleinere Mengen von biologischen Abfällen werden gesammelt und verwertet, in ländlichen Gegenden lohnt sich das aber auch nicht, die „Bio-Tonne“ gibt es dort nicht, weil allein das Einsammeln mehr Energie verbraucht als man am Ende gewinnt.

 

Fazit also: Bio-Energie ist also, abgesehen von geringen Beständen an Abfallverwertung, für die Energieversorgung insgesamt ungeeignet.

 

  1. D) Photovoltaik, PV

Die Sonne soll es bringen, das klingt doch so schön. Aber, wie oben schon erwähnt, nachts ist es dunkel. Also brauchen wir hier die Speicher, sonst geht gar nichts. Dass es nachts dunkel ist, ist noch das kleinere Problem, denn dann bräuchte man ja nur einen Speicher für einige Stunden. Von daher könnte PV eine gewisse Möglichkeit für Länder in der Nähe des Äquators sein. Für die europäischen Länder aber stellt sich die Problematik der Jahreszeiten, denn gerade in der Winterzeit, wenn der Energiebedarf im größten ist, liefert PV wenig oder fast nichts. Das bedeutet konkret, man braucht einen Speicher, der die im Sommer eingesammelte Energie aufnimmt und für den Winter bereit stellt. Das ist nicht zu realisieren, und damit ist die Photovoltaik für unsere Breitengrade für die Energieversorgung nicht geeignet.

 

Nun könnte man denken, es wäre doch immerhin noch nützlich, wenn man die Nachtstunden durch Speicher überwindet und dann wenigstens in den Sommermonaten eine brauchbare Energietechnik hat. Das ist aber zu kurz gedacht, denn die konventionellen Anlagen muss man wenigstens für die Winterzeit vorhalten, und was macht man dann im Sommer, dann stellt sich die soziale Frage, schickt man die Arbeiter nach Hause und bezahlt dann „Sonnengeld“? Das wäre volkswirtschaftlich unsinnig, und auch die kleine PV-Hausanlage müsste man stark besteuern, weil diese ja die übrige Versorgung in ungünstige Betriebsbereiche treibt (diese ist also in Wahrheit sozial-schädlich).

 

Fazit: die notwendigen Speichereinheiten sind nicht realisierbar. PV-Anlagen auf Feldern müssten abgebaut werden, und die Felder werden der Natur (und der Versorgung mit Nahrungsmitteln) wieder zurückgegeben. PV-Anlagen auf Dächern können bleiben, die stören ja zunächst einmal nicht (sieht ja auch ganz hübsch aus) , aber man muss doch kontrollieren, dass sozial-schädlicher Betrieb unterbleibt oder wenigstens durch Besteuerung ausgeglichen wird.

 

  1. E) Windenergie

Hier hat man nun gleich beide Probleme, der Flächenbedarf ist riesig, also man muss weite Flächen der Natur entnehmen und in Industrielandschaften umwandeln, und dann kommt die Volatilität hinzu, die Versorgung ist unzuverlässig und schwankt unplanbar zwischen Höchstwerten und Werten bei null. Letzteres ist der Grund, warum man diese Technik, die ja so preiswert ist, Wind kostet ja nichts, in der Vergangenheit aufgegeben hat. Unsere Windmühlen wurden etwa 1860 auf Dampf umgestellt, man bezahlt lieber Kohle und hat eine stete und planbare Versorgung. Die letzten Segelschiffe für den Frachtverkehr wurden um 1930 aufgegeben, auch da war dann das Faktum, der Wind ist zwar umsonst, aber so unzuverlässig, dass er mit den Dampfern nicht mithalten konnte. Wie heißt es im „Fliegenden Holländer“ so schön: „Wer auf den Wind baut, baut auf des Satans Erbarmen“. Das ist eine alte Menschheitserfahrung.

Energiewende (also nicht nur elektrischer Strom ) ist also schon vom Flächenbedarf her nicht zu realisieren. Frage also, geht es denn wenigstens mit der Stromwende, oder einen beträchtlichen Anteil davon ?

Für eine zuverlässige Versorgung stellt sich sofort die Frage der Speicherung. Alle Versuche dazu sind bisher krachend fehlgeschlagen (dazu weiter unten mehr), es gibt einfach kein tragfähiges und einigermaßen durchgerechnetes Konzept. Da man hier kein Konzept hat und sich das auch nicht eingestehen will, stürzt man sich in Aktionismus und plant und baut die Leitungssysteme, die man zwar auch braucht, die aber ohne Speicherung keinen Sinn machen, was nützt eine Leitung, durch die tagelang kein Strom fließt ?

Welche Speicher braucht man denn wirklich ? Ausführlich beschäftigt sich damit Prof. Sinn in seinen Vorträgen, jetzt ganz neu: (https://www.youtube.com/watch?v=xzXAZad3TcE) Allein um den jetzt schon vorhandenen Ausbau an Wind (und Sonne) mit Speichern zu versorgen kommt man nach seinen Berechnungen auf eine Anforderung von 3000 bis 6000 Pumpspeicherwerken, Deutschland hat 35 davon, dabei auch kleinere, die an diese Anforderungen nicht herankommen, das ist also vollkommen illusorisch.

Die andere Möglichkeit ist noch die Speicherung über chemische Energie, also Akkumulatoren. Da hat Enercon etwas vorgestellt, wörtlich: „Es ist der bislang größte Batteriespeicher in Deutschland“, das Pilotprojekt RRKW bei Feldheim (Windblatt 03-2015). Von der äußeren Größe wohl beeindruckend, etwa ein halbes Fußballfeld, und was es kostet, wird nicht verraten. Allerdings für die Stromwende bräuchte man dann 2 Millionen Stück davon, für die Energiewende dann doch 10 Millionen Stück, also für je 8 Bundesbürger eines, und die müssten das bezahlen, warten und in Betrieb halten. Da wird dann sofort klar, das ist weit jenseits jeder Realität.

Weitere Beispiele irrsinniger Ideen will ich hier ersparen.

 

Die gegenwärtige Realität.

Man hat wohl unter der Hand eingesehen, dass es praktische Möglichkeiten für eine Speicherung nicht gibt, jedenfalls wird dazu konkret nichts angefangen. Daher müssen nun die konventionellen Anlagen einspringen und die fehlenden Speicherungen ersetzen, und für eine solche Betriebsweise sind diese aber nicht konzipiert. Kohlekraftwerke und Kernkraftwerke laufen in der Grundlast, ein Kohlekraftwerk braucht zum Anheizen 8 Stunden oder mehr (Kernkraftwerke sind spürbar schneller, aber die will man ja vernichten), und es muss ständig in Betrieb gehalten werden, da es ja den Totalausfall der Erneuerbaren (die sog. „Dunkelflaute“) sofort ausgleichen können muss. Das Kohlekraftwerk ist so konzipiert, dass es rund um die Uhr im Dauerbetrieb läuft, nur dann hat es den besten Wirkungsgrad. Wenn man nun herunterregeln soll (weil gerade Wind kommt, der gesetzlich „Vorrangeinspeisung“ hat, ohne diesen Zwang würde das niemand abnehmen), dann gerät die Anlage in ungünstige Betriebszustände (und erhöhten Reparaturbedarf) und verbraucht ungünstig viel Kraftstoff. Wenn das schnell gehen soll, dann hilft man sich anders, man verschiebt die Phase (um 180 Grad) und packt die überschüssige Energie, die man anders nicht los wird, in die Überlandleitungen, die allerdings auch nur bis zu etwa 80 Grad Celsius aufgeheizt werden dürfen. Also, um die Erde zu kühlen heizen wir kräftig die Leitungen. Wenn das auch nicht reicht, dann geht das in den „Export“ (man nennt das „Export“), allerdings, der ist ziemlich teuer, für die Nachbarländer ist unser „grüner“ Strom eigentlich nur Sondermüll, der stört dort die Netze, und das lässt man sich bezahlen (sog. „negative Preise“), und auch das geht in die EEG-Umlage Auf einen Export-Überschuss, den man teuer bezahlen muss, sollte man eigentlich besser verzichten, aber die Volatilität der Erneuerbaren, die man sonst nicht beherrschen kann, erzwingt dies. Die Folgen dieser Konzeption haben wir oben im Diagramm gesehen, der CO2-Ausstoß geht nicht zurück, und es ist auch nicht erkennbar, wie das anders werden wird. Man bezahlt also zwei Systeme, die konventionellen Anlagen kommen sogar in ökonomische Schwierigkeiten, da sie bei halber Last oder weniger dann nicht mehr genug verdienen, um ihre Arbeiter zu bezahlen. Das einzige, was wirklich gut läuft, sind die Profite der Anlagenbetreiber, nur das allein ist dem System wichtig, eine extrem unsoziale Umverteilung von unten nach oben.

 

Wie geht es nun weiter ?

Man macht unverdrossen weiter, obwohl alle Voraussetzungen für eine solide Entwicklung fehlen, die Propaganda läuft und verkündet stolz neue Erfolgszahlen und gaukelt Klimaschutz vor, aber das sind Schein-Erfolge, eben nur Durchschnittswerte an elektrischer Leistung, die die Taschen der Anlagenbetreiber füllen. Zu einem brauchbaren System kommt man nicht, denn die Konventionellen müssen trotzdem in voller Kapazität in Bereitschaft gehalten werden, man kommt vermehrt in Phasen, in denen zu viel produziert wird (und zu anderen Zeiten nichts, nach wie vor), und das ist auch nur schädlich, da man den dann notwendigen Export zusätzlich bezahlen muss, oder, wenn das nicht geht, müssen erneuerbare Anlagen zurückgeregelt werden, aber dafür, dass sie weniger liefern, bekommen sie trotzdem noch den vollen Preis, und es wird nur zusätzlich teurer, und das alles ohne einen wirklichen Nutzen. Das ist die Situation, solange das EEG, wenn auch leicht „gedeckelt“ in Kraft bleibt, was am Ende eine rein politische Frage ist. In der Politik wird von einigen Seiten versprochen, dass „die Kohle“ nun zurückgefahren werden soll, selbst Ausstiegstermine werden phantasiert, aber wie das konkret gehen soll, das weiß kein Mensch. Wenn praktische Konzepte fehlen, dann müssen eben Sprüche reichen. Dann gibt es auch Vorgänge, dass man mit Gewalttätigkeiten gegen Anlagen des Bergbaus vorgeht, aber damit kann man natürlich nicht naturwissenschaftliche Gegebenheiten und technologische Zwänge aufheben, eine Mischung von Brutalisierung und Hilflosigkeit zugleich.

Für die ältesten Anlagen ist die Stunde der Wahrheit schon gekommen, Panorama 3 berichtete darüber in einer aktuellen Sendung

https://www.ndr.de/nachrichten/schleswig-holstein/Rueckbau-bei-Windraedern-oft-mangelhaft,windkraft920.html

Schon der Abbau der Fundamente bringt erhebliche Probleme, und man versucht, die gesetzlichen Vorschriften zu umgehen. Und warum wird denn da abgebaut ? Im Nebensatz kommt verschämt die Erläuterung, wörtlich: „sei es dass die Nutzungszeit der Anlagen abgelaufen ist und damit dann der Rückbau fällig wird“ . Mit „Nutzungszeit“ ist hier offensichtlich die Zeit der Subventionierung gemeint, und es wird deutlich, ohne Subventionierung geht bei den Erneuerbaren nichts. In einem Zeitraum von sage und schreibe 20 Jahren wurden in diese Anlagen erhebliche Mittel gesteckt, geliefert wurde ein weitgehend wertloses Produkt, eben „Flatterstrom“, den man im Netz eigentlich nicht gebrauchen kann, und in der Propaganda wurde uns immer erzählt, das sei ja eine „Anschubfinanzierung“, mit der die Marktreife erreicht werden soll. Diese Marktreife ist offensichtlich nicht erreicht worden, denn ohne „Vorrangeinspeisung“ ist niemand bereit, dieses Produkt abzunehmen, im Gegenteil, beim Abschub in das Ausland gibt es „negative Preise“, und damit kann man allein den Erhalt der Anlagen nicht bezahlen.

Aus alledem ist festzuhalten: die Anlagen an Erneuerbaren, die wir heute noch bauen, sind für den Klimaschutz nutzlos (da die Speichereinheiten fehlen und weiter fehlen werden), sie sollen für 20 Jahre erhebliche Subventionen erhalten, und nach dieser „Nutzungszeit“ müssen sie abgebaut werden, da die Marktreife nicht erreicht werden kann. Einzige Schlussfolgerung: dieser Irrsinn ist umgehend zu beenden (also EEG abschaffen), ohne Subventionierung wird niemand solche Anlagen bauen, das hat sich dann von allein erledigt, und Natur und Umwelt können aufatmen. Mit den dann eingesparten Beträgen, ca. 30 Milliarden pro Jahr, könnte man an die wirklich dringenden Aufgaben herangehen, also z.B. Sanierung der Schulgebäude oder der übrigen Infrastruktur.

Einen sehr lesenswerten Beitrag zu dieser Problematik gibt es auch hier:

https://docs.google.com/viewerng/viewer?url=http://www.vernunftkraft.de/de/wp-content/uploads/2017/12/171225-Kompendium.pdf&hl=de

 

Die Flops

Es ist immer dasselbe, von Zeit zu Zeit wird eine neue Sau durchs Dorf getrieben, also ein neues, vielversprechendes Projekt wird angekündigt. Da gibt es eine feierliche Eröffnung, mit Reden des Ministerpräsidenten, die schöne und heile Welt der erneuerbaren Energie wird verkündet. Bald danach stellt man fest, die Sache läuft total aus dem Ruder, zumindest finanziell, keiner möchte lange mehr zuzahlen für eine Sache, die doch nichts wird, also, es wird dann doch wieder alles abgebaut, das dann ohne feierliche Reden, klammheimlich eben. Und um das zu vertuschen erklärt man uns, man hätte ja ernsthaft so etwas wie Energiewende gar nicht vorgehabt, man hat nur soeben mal ein bisschen rumexperimentiert, ohne konkretes Ziel, das muss man sich schon mal ein paar Milliönchen kosten lassen.

Die Liste dieser Flops will ich in einem späteren Beitrag zusammenstellen.

 




Erwärmung könnte die Persönlichkeit der Menschen verändern – bis hin zur Kriminalität

„Da sich der Klimawandel weltweit fortsetzt, können wir auch begleitende Veränderungen in der menschlichen Persönlichkeit beobachten„, heißt es in der Veröffentlichung eines Doktoranden der Columbia Business School in der Fachzeitschrift Nature (mehr dazu unten).

Das ist das Neueste in einer Reihe von Studien über die möglichen psychologischen Auswirkungen zukünftiger Erwärmung und es ist nicht einmal die bizarrste. Zum Beispiel haben neuere Studien behauptet, dass die Sorge um die globale Erwärmung die Menschen deprimiert.

Diejenigen, die sich Sorgen um die Mensch-verursachte-Erwärmung machen, erzählen von „Gefühlen der Einsamkeit und Lethargie“, berichtete eine Studie der University of Arizona.

Für einige Umweltschützer scheint der Mangel an Hoffnung für die Zukunft real zu sein. Die New York Times berichtete kürzlich, dass einige Menschen wegen der globalen Erwärmung auf Kinder verzichten.

Eine Studie der Harvard School of Public Health aus dem Jahr 2015 behauptet: „Kohlendioxid (CO2) hat einen direkten und negativen Einfluss auf menschliche Kognition und Entscheidungsfindung.“ Grundsätzlich würde die globale Erwärmung den Menschen dümmer machen.“

Forscher der Columbia Universität behaupten, dass die Temperatur ein Schlüsselfaktor bei der Bestimmung der Persönlichkeitsmerkmale ist. Menschen, die in gemäßigteren Gegenden aufgewachsen waren, bei etwa 20°C, schneiden mit fünf wichtigen Persönlichkeitsmerkmalen besser ab als solche, die dort aufwuchsen, wo es zu heiß oder zu kalt war.

„Milde Temperaturen ermutigen Einzelpersonen, die äußere Umgebung zu erkunden, wo soziale Interaktionen und neue Erfahrungen im Überfluss auf sie warten. Sich im Freien zu bewegen und mit vielen Menschen zu interagieren, macht die Menschen verträglicher, gewissenhafter, emotional stabiler, extrovertiert und offen für neue Erfahrungen. Aber wenn die Temperatur zu heiß oder zu kalt ist, gehen die Menschen seltener nach draußen, um sich mit Freunden zu treffen oder neue Aktivitäten auszuprobieren.“ sagt Jackson Lu, ein Doktorand der Columbia Business School.

In einer weiteren Studie desselben Forschers und Co-Autoren, ebenfalls Columbia Business School, versteigen diese sich dieser zu der Behauptung, dass Luftverschmutzung eine völlig normale Person in einen Kriminellen verwandeln kann. Die Autoren analysierten frühere Forschung über die Auswirkungen von Smog auf die menschliche Psychologie. Sie sind letztlich zu dem Schluss gekommen, dass Schadstoffe sowohl „moralische“ als auch Umwelt-Kosten verursachen.

Die Hypothese von Lu bezog sich auf frühere Forschungsergebnisse, die darauf hindeuten, dass Luftverschmutzung Angst verursachen kann und Angst dazu führen kann, dass Menschen „unethisches“ Verhalten an den Tag legen. Lu folgerte daraus, dass damit ein Zusammenhang zwischen Umweltverschmutzung und solchem Verhalten bestehen muss – Städte mit einem höheren Grad an Umweltverschmutzung hätten mehr Verbrechen, darunter Mord, schwere Körperverletzung und Raub.

In einer anderen Studie, die versucht, eine „kausale“ Verbindung zwischen Umweltverschmutzung und Kriminalität herzustellen, wurden 256 Probanden gleiche Bilder einer Stadt mit und ohne Smog gezeigt – in dem Fall Peking und fragte sie danach, wie sie sich fühlten.

„Unsere Ergebnisse deuten darauf hin, dass Luftverschmutzung nicht nur die Gesundheit der Menschen schädigt, sondern auch ihre Moral kontaminieren kann“, sagte Lu.

Diese Behauptung ist nicht unbedingt neu. Einige Aktivisten und Umweltgruppen versuchen seit Jahren, die Umweltverschmutzung mit Kriminalitätsraten zu verknüpfen.

1997 untersuchten Dartmouth-Forscher die offizielle Verbrechens- und Verschmutzungsstatistik. Sie kamen zu dem Ergebnis: „Umweltverschmutzung scheint eine unabhängige Wirkung auf die Rate der Gewaltverbrechen zu haben – Gewaltverbrechen definiert als Totschlag, schwere Körperverletzung, sexuelle Nötigung und Raub. Länder mit den höchsten Blei- und Manganverschmutzungen haben in der Regel Kriminalitätsraten, die dreimal so hoch sind wie der nationale Durchschnitt“. “, berichtet The New Scientist

Der Environmental Defense Fund, eine NGO Umweltgruppe, wiederholte ähnliche Anschuldigungen in einem Blogeintrag von 2013: „… was darauf hindeutet, dass der Rückgang der Mordrate mit dem „Entfernen von Blei aus der Umwelt“ zusammenhängt.“

Im Jahr 2015 haben Forscher der Harvard University einige Daten manipuliert, um festzustellen, dass die Zahl der Gewaltverbrechen in Gegenden, wo verschmutze (~belastete) Luft hin strömt, um 2,2 Prozent gestiegen ist. Allerdings wurde der Effekt nur in den Statistiken über Gewaltverbrechen gesehen, nicht in anderen Verbrechen.

Steve Milloy, der Herausgeber von JunkScience.com, erkennt die Junk-Science-Wissenschaft sofort, wenn er sie sieht. Milloy sagte dem Daily Caller, dass diese Studie eine der lächerlichsten ist, die er gesehen hat. „Hat die Luftverschmutzung von 9/11 [Anschlag mit Flugzeugen in die Türme des World Trade Centers  11.09.2001; vorher, bereits am 26.02.1993 gab es einen Bombenanschlag] dazu geführt, dass Ersthelfer zu Kriminellen wurden? Verleitet Rauchen zu Verbrechen oder unethischem Verhalten?“.

Die Antwort auf diese beiden Fragen ist ein klares „Nein“.

Ergänzung: In der Studie wurden der soziale Einfluss der Wohngegend und der persönlichen Situation nicht betrachtet.

Erschienen auf The Daily Caller am 06.02.2018

Übersetzt und zusammengefasst durch Andreas Demmig

http://dailycaller.com/2018/02/06/study-makes-bizarre-claim-global-warming-personalities/

http://dailycaller.com/2018/02/08/study-air-pollution-criminals/




Ein Wissenschaftler, der fälschlicherweise von sich behauptet, ein Nobelpreisträger zu sein, verurteilt ein Museum, wegen Verbindung zu einer Klimaskeptikerin

Gemeint ist Dr. Michael Mann (Hockey-Stick), Professor der Penn State University, der gegen Rebekah Mercer opponiert, eine reiche konservative Spenderin, die im Kuratorium des American Museum of Natural History sitzt.

[Eike berichtete über die Petition von Dr. Willi Soon, zum selben Vorgang bei diesem Museum]

„Ein Naturkundemuseum muss korrekt sein, gewissenhaft die Tatsachen zeigen und das Vertrauen der Öffentlichkeit besitzen“, schrieb Mann am Montag in einem Leitartikel für The News York Times. [Das Aufmacherbild der NYT zeigt Klimaaktivisten vor dem Museum gegen Frau Mercer protestieren] Er drängte das Museum, sich von Mercer, einer Unterstützerin von Präsident Donald Trump, zu distanzieren.

Mann wurde immer wieder erwischt, dass er fälschlicherweise behauptet, er hätte 2007 den Nobelpreis gemeinsam mit dem IPCC und dem ehemaligen Vizepräsidenten Al Gore erhalten.

Der Preis wurde Al Gore für seine „Bemühungen verliehen, größeres Wissen über die vom Menschen verursachte Klimaveränderungen aufzubauen und zu verbreiten und die Grundlagen für Maßnahmen zu schaffen, die notwendig sind, um einem solchen Wandel entgegenzuwirken“, so das Gremium.

Mann behauptete in seiner Klage im Jahr 2012, gegen den konservativen Experten Mark Steyn und National Review, dass er ein Nobelpreisträger wäre – aber das Nobel-Komitee hat diese Behauptung konsequent zurückgewiesen. Mann fuhr fort, das Museum und Mercer herunterzumachen, weil sie sich nicht an die Wahrheit und wissenschaftliche Standards halten würden.

„Viele Wissenschaftler zögerten jahrelang sich zur Wahrheit zu äußern, aus Angst vor persönlichen Angriffen oder der Bedrohung ihrer professionellen Glaubwürdigkeit“ sagte der Mann, der wegen seines gefälschten „Hockeyschläger“ – Graphen Berühmtheit erlangte – Gore verwendete dann die Grafiken des Akademikers in seinem Dokumentarfilm “Inconvenient Truth“ um den gewünschten Temperaturanstieg zu zeigen.

Mann und eine Handvoll Wissenschaftler nutzten einen Super-PAC, um ihre Kollegen dazu zu bringen, sich während der Präsidentschaftswahlen gegen Trump zu stellen, weil der Präsident bereit war, „Verschwörungstheorien, antiwissenschaftliche Einstellungen und Missachtung von Experten“ anzunehmen.

[de.Wiki: Ein Political Action Committee (PAC) ist in den USA die Bezeichnung für eine Lobbygruppe, die sich darauf konzentriert, Abgeordnete oder Wahlbeamte der Regierung zu unterstützen oder zu bekämpfen.]

Die Gruppe „Nicht wer – Wir sind PAC“ war während der Wahl nicht so stark vertreten, verglichen mit den Zigmillionen, die von anderen Super-PACs ausgegeben wurden. Die Gruppe hat vergleichsweise geringe 23.000 US-Dollar für Anzeigen ausgegeben, die nach Aufzeichnungen der staatlichen Wahlaufsicht alle gegen Trump gerichtet waren.

Mann wies die Idee zurück, dass seine Offensive gegen Mercer eine politische Aktion wäre. Später schlug er vor, das Museum solle die Spenden der Mercer-Familie nutzen, um Ausstellungen und Programme zu entwickeln, die die Schande der Klimaverleugnungsmaschinerie aufklären, ihre Propaganda Pro-Klima-Aktionen zu behindern und zu dokumentieren, wie wir zu der aktuellen Krise des Planeten gekommen sind.“

Erschienen auf The Daily Caller am

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/02/06/michael-mann-rebekah-mercer-climate-skeptic-nobel-prize/




Eisbären benötigen 1,6 Mal mehr Energie als bisher bekannt und deshalb werden sie am Klimawandel untergehen

Klimawandel lässt Eisbären abmagern

Seit es den Hype um das sich stetig wandelnde Klima gibt, überschlagen sich unermüdliche Forscher geradezu mit neuen Erkenntnissen. Und nun traf es auch den bisher anscheinend immer noch weitgehend unverstandenen Eisbären. Was selbst die vielen Zoos bisher nicht herausgefunden haben (weltweit lebten 1980 um die 630 Eisbären und 2012 immer noch 330 Eisbären in Zoos [9]) – wie viel Futter ein Eisbär braucht, um seinen body-mass-Index zu halten -, ist endlich einer unermüdlich nach den letzten Weisheiten schürfenden Forschergruppe mit einer jeweils 10-tägiger Beobachten von 9 Eisbären gelungen festzustellen: Eisbären benötigen genau 1,6 Mal mehr Energie, als bisher bekannt war. Und sie haben dabei zusätzlich noch ermitteln können, dass einige Eisbären deshalb nicht richtig satt werden – mit allen schlimmen Konsequenzen.
SZ 1. Februar 2018: [1] Klimawandel lässt Eisbären abmagern
Aus den gesammelten Informationen berechneten die Forscher den Energieverbrauch der Eisbären. Sie stellten fest, dass er in der Studienzeit 1,6 Mal höher war als Wissenschaftler bisher angenommen hatten.

Die wissenschaftliche Schlussfolgerung daraus war unvermeidbar: Der Klimawandel kann (vielleicht) doch noch mit dem Eisbär sein Opfer finden. So ganz genau wurde es nicht gesagt, die Leser sollen es anhand der Aussagen aber so denken:
SZ: [1] Eisbären werden nicht richtig satt … wie die Ergebnisse der Forscher zeigen, bekommen die ohnehin schon gefährdeten Bären immer größere Probleme, ausreichend Beute zu erjagen und Fett anzusetzen. Denn durch den Klimawandel gehe das Eis weiter zurück und die Tiere müssten länger wandern oder schwimmen, um geeignete Jagdstellen zu finden. Diese Entwicklung werde in Zukunft noch weiter voranschreiten.

Für diese „bahnbrechende Erkenntnis“ und Ableitung reichte es, 9 Eisbären je 10 Tage zu beobachten

Zusätzlich lernt man daraus: Ohne fundiertes Wissen über einen AGW-Klimawandel „im Hintergrund“ sind heutzutage wirkliche, „wissenschaftliche Erkenntnisse“ und der dazu obligatorische „Blick in die Zukunft“ kaum mehr möglich. Während man sich früher für Forschungsergebnisse Zeit nehmen musste – die wegen des „immer schneller voranschreitenden Klimawandels“ allerdings nicht mehr vorhanden ist -, sind nur dank diesem „Hintergrundwissen“ die erforderlichen, schnell-taktenden „Wissenserkenntnisse“ möglich.

Alternativ interpretiert man solche „Studienaussagen“ auch anders, als die sich für besonders investigativ haltende Süddeutsche Zeitung und bezeichnet es als ein aktuelles Beispiel für die „Verwahrlosung“ der Klimawandel-bezogenen „Wissenschaften“ und der Berichterstattung unserer Medien darüber.
So sah es auch die Betreiberin des Blogs „Polar Bear Science“ und brachte eine kritische Sichtung dieser Studie, welche mit der folgenden Einleitung beginnt:
Polar Bear Science February 1, 2018: [2] Polar bear specialists double-down on message of future starving bears
The really significant content of a new paper being heavily-hyped by the media is what wasn’t said rather than what the authors discovered about metabolic rates and weight maintenance of a small sample of nine Southern Beaufort Sea bears in 2014 to 2016 (Pagano et al. 2018; Whiteman 2018).
Grob übersetzt:Der wirklich wichtige Inhalt eines neuen Papiers, das von den Medien hochgespielt wird, ist das, was nicht gesagt wurde, und nicht das, was die Autoren über Stoffwechselraten und Gewichtserhalt einer kleinen Stichprobe von neun südlichen Beaufort-Seebären in 2014 bis 2016 herausgefunden haben.

Was die Studie nicht ermittelte, wäre das Interessante gewesen

Polar Bear Science informiert, dass Eisbären um diese Jahreszeit die Robben gar nicht nur über Eislöcher jagen – die Annahmen der Forscher demnach (bewusst?) falsch sind. Wirklich interessant wäre es deshalb gewesen, zu erfahren, warum die beobachteten Eisbären nicht die einfachere Jagd nach den in Massen vorhandenen Robbenbabys in ihren Geburtshöhlen vorzogen.

Polar Bear Science: [2] … This paper does not document starving or dying bears but merely found some (5/9) that lost weight when they should have been gaining, given that early April is the start of the ringed seal pupping season (Smith 1987) and the intensive spring feeding period for polar bears (Stirling et al. 1981).
The question is, why were Southern Beaufort Sea polar bears off Prudhoe Bay (see map of the study area below), still hunting and capturing only adult and subadult ringed seals from sea ice leads when newborn ringed seal pups and their mothers should have been plentiful and relatively easily available in their
birth lairs on the sea ice (see below)?

Bild 1 Schemabild der „Geburtshöhle“ von Ringelrobben

Grob übersetzt: Dieses Papier dokumentiert nicht verhungernde oder sterbende Bären, sondern fand nur einige (5/9), die abgenommen haben, als sie hätten Gewicht zunehmen sollen, da Anfang April der Beginn der Ringelrobbensaison (Smith 1987) und damit ein starkes Frühjahrs-Futterangebot beginnt (Stirling et al. 1981).
Die Frage ist, warum diese südlichen Beaufort See-Eisbären vor der Prudhoe Bay immer noch jagen und nur erwachsene und halbwüchsige Ringelrobben aus dem Meereisgebiet fangen, wenn neugeborene Ringelrobbenwelpen und ihre Mütter um diese Zeit dort reichlich und relativ leicht jagdbar in ihren Geburtslagern auf dem Meereis … hätten vorhanden sein müssen.
Polar Bear Science: [2] … “Using video collar data, we documented bears’ hunting behavior and foraging success. Bears used sit-and-wait tactics to hunt seals 90% of the time, and stalking comprised the remaining 10% of hunts (movies S1 to S4) (19). Bears that successfully killed and ate adult or subadult ringed seals either gained or maintained body mass, whereas bears that only scavenged or showed no evidence of eating lost mass.”
Grob übersetzt: Mit Hilfe der Daten von Videohalsbändern haben wir das Jagdverhalten der Bären und den Erfolg der Jagd dokumentiert. Bären nutzten Sit-and-Wait-Taktiken, um die Robben zu 90% der Zeit zu jagen, und Verfolgung (Pirschen, Anschleichen) umfasste die restlichen 10% der Jagden. Bären, die erfolgreich erwachsene oder halbwüchsige Ringelrobben töteten und fraßen, gewannen oder behielten ihre Körpermasse, während Bären, die nur Aas fraßen oder keine Jagderfolge hatten, an Körpermasse verloren.

Um diese Zeit ist nicht das Eis, sondern vor allem die Schneehöhe wichtig

Diese (In-)Fragestellung hat einen Hintergrund. Im Frühjahr ist nicht nur das Eis wichtig, sondern auch die Schneehöhe, mit der die Geburtshöhlen der Robben bedeckt sind. Ist der Schnee zu dick, finden die Eisbären die Robben nicht. Als Folge schwankt die Eisbärenpopulation (teils gewaltig) in Abhängigkeit von der Schneehöhe.
Polar Bear Science May 14, 2015: [3] Snow depth over spring sea ice affects polar bear feeding success and ringed seal survival
Snow depth over sea ice in spring affects the hunting success of polar bears on ringed seal (Phoca hispida) pups, but the relationship is more complicated than you might think and there is less data on this phenomenon than you would believe.
Deep snow over birthing lairs (diagram above, see also Lydersen and Gjerz 1986) means ringed seal pups are well protected from polar bear predation – the seals do well but the polar bears do not. For example, deep snow over ice was suspected to have negatively impacted the body condition of Western Hudson Bay polar bears in 1983, a year that Churchill had a spike in problem bears, bears in poor condition were documented, and cub survival was lower than average (Calvert et al. 1986:19, 24; Derocher and Stirling 1996:1247; Ramsay and Stirling 1988:627)
Grob übersetzt: Die Schneehöhe über dem Meereis im Frühjahr beeinflusst den Jagderfolg der Eisbären auf Ringelrobben (Phoca hispida), aber die Beziehung ist komplizierter als Sie vielleicht denken und es gibt weniger Daten über dieses Phänomen als Sie glauben würden.
… Tiefschnee über Geburtshöhlen (Bild 1, siehe auch Lydersen und Gjerz 1986) bedeutet, dass Ringelrobbenjunge vor der Eisbärenjagd gut geschützt sind – für die Robben ist das gut, für die Eisbären nicht. Zum Beispiel wurde 1983 angenommen, dass Tiefschnee über Eis sich negativ auf den Körperzustand der Eisbären in der Western Hudson Bay ausgewirkt hatte, ein Jahr, in dem (die Stadt) Churchill einen Anstieg an „Besuchen“ von Problembären hatte, Bären in schlechtem Zustand dokumentiert wurden und das Überleben der Jungtiere unter dem Durchschnitt lag …

Obwohl die Komplexität der Nahrungsgewinnung mit Eis, aber eben auch Schneehöhen schon lange bekannt ist, findet sich nichts davon in der von der SZ so reißerisch beschriebenen „Studie“ hinterlegt, oder gar diskutiert. Um jedoch einen Zusammenhang zwischen „Klimawandel“ und Population abzuleiten, hätte man es betrachten müssen – und dann sicher viel mehr Zeit und Aufwand gebraucht, verbunden mit der (großen) Gefahr eines negativen Ergebnisses).

Damit bleibt erst einmal alles beim bisher bekannten: Die Eisbären vermehren sich prächtig

Kürzlich konnte der Autor eine Reportage von Spitzbergen sehen. Die Forscher konnten nicht an Land gehen, weil überall Eisbären waren. Das äußert sich auch in den Populations-Daten.
NoTricksZone: 2 New Papers: 92% Of Polar Bear Subpopulations Stable, Increasing…Inuit Observe ‘Too Many Polar Bears Now’
In fact, the long-term observations suggest that polar bear subpopulations are currently faring quite well, with 92% of  the subpopulations studied either remaining stable or growing in recent years. According to Inuit observers, there may even be “too many” bears now.

Bild 2 Eisbär-Populations-Zählbereiche mit Wachstumskennzeichnung. Quelle: York et al., 2016, Journal of Ecology and Evolution.

Bild 3 [5] Eisbärpopulation(Schätzungen) seit 1960. Grüne. gestrichelte Linie. Eisbärpopulation ohne die Bejagung von ca. 1.000 Eisbären pa (keine Nachkommen eingerechnet)

Eisbärdaten, ein Beispiel für Klimahysterie-Doping

Wie die Daten manipuliert werden, wurde einst auf Polarbearscience und kaltesonne beschrieben:
Polarbearscience February 14, 2014: [12] Polar bear population now officially 13,071-24,238 says IUCN Polar Bear Specialist Group
kaltesonne 15. Dezember 2014: Eisbären-Statistik-Gruppe räumt ein: Veröffentlichte Eisbärenzahlen sind lediglich eine “qualitative Vermutung mit dem Ziel das öffentliche Interesse zu befriedigen”
Details dazu lassen sich aufbereitet nachlesen:
[5] EIKE 4.03.2016: Der Eisbär vermehrt sich stetig – aber sein Aussterben simulieren darf man doch (2)
[6] EIKE: Der Eisbär vermehrt sich stetig – aber sein Aussterben simulieren darf man doch (1)
[7] EIKE 09.04.2017: Klima-Lügendetektor: Wer der Bildzeitung sagt, Eisbären würden nicht durch den Klimawandel sterben, ist ein schlimmer Demagoge

Zur Aktualisierung hat der Autor einen Datenvergleich nach der IUCN Eisbären-Populationstabelle von 2014 und 2017 [10] erstellt:

Tabelle Eisbärdaten 2014 / 2017. Vom Autor aus den IUCN-Daten erstellt

Eindeutig ist, dass sich die Eisbären vermehren. Rechnet man die typisch 1.000 von der IUCN gelisteten, jährlichen Abschüsse dazu, vermehren sie sich sogar ganz erheblich.
Die Ökokirche – in Verbindung mit der einzig Wahren – halten solche Zahlen natürlich nicht davon ab, diese Spezies zum Klimawandel-Märtyrer zu erklären:
EIKE 24.03.2017: Ein Eisbär wird vom Erzbischof als Märtyrer des Klimawandels gesegnet

Wie man das Positive beschreibt, ohne vom Klimaalarm abzulassen

Nur in Norwegen dürfen Eisbären grundsätzlich nicht gejagt werden [5]. Als Folge „explodiert“ dort die Population. Der Autor konnte im Fernsehen einen Reportagebeitrag sehen, in dem die Forscher bei Spitzbergen nicht an Land gehen konnten, weil überall Eisbären waren. Die „WELT“ berichtete ebenfalls darüber und schaffte es dabei problemlos, die Eisbärpopulation wachsen und gleichzeitig untergehen zu sehen.
WELT 20.07.2016: Die Rückkehr der Eisbären auf Spitzbergen
Der Klimawandel bedroht den Lebensraum zahlreicher Tiere in der Arktis. Doch nun haben Forscher auf Spitzbergen und in Gebieten der Barentssee mehr Eisbären entdeckt als bei der Zählung von 2004.

Zahl der Eisbären auf fast 1000 gestiegen

Durch die globale Erwärmung ist der Lebensraum der Eisbären mehr und mehr bedroht. Niemand weiß jedoch, wie sich das Tauwetter am Nordpol langfristig auf deren Bestand oder auch auf denjenigen anderer Tierarten auswirken wird.
Einer Studie des Norwegischen Polarinstituts zufolge sind die Eisbären auf Spitzbergen in einem guten körperlichen Zustand. Und es seien trotz des massiven Eisverlustes sogar mehr Eisbären als noch im Jahr 2004.
Die Norweger um den Wissenschaftler Jon Aars haben im Jahr 2015 die Eisbären auf Spitzbergen und im norwegischen Gebiet der Barentssee gezählt. Nach ihren Berechnungen besteht die Population in dieser Gegend aus insgesamt 975 Eisbären. Elf Jahre zuvor waren es nur 685
(Anmerkung: Das sind +42% oder +4 % pa).

Meereis in der Arktis stark zurückgegangen

Auf Spitzbergen sind Eisbären seit 1973 eine bedrohte Art, zuvor wurden sie 100 Jahre legal gejagt. Ein Anstieg der Population sei deshalb keine große Überraschung, erklärt Aars. Die Studie der Norweger zeigt, dass die Eisbären der schwierigen Situation aufgrund des massiven Eisverlustes im Sommer gut trotzen konnten.

Trotz des Klimawandels kein totaler Eisverlust erwartet

Gemäß Klimasimulationen des Max-Planck-Instituts für Meteorologie (MPI) ist aber zumindest für die nähere Zukunft auch nach einem Sommer mit extrem wenig Eis kein totaler Eisverlust zu erwarten.
Der Wissenschaftler Aars berichtet, dass auch die Eisbären sich anpassen könnten. In guten Jahren würden sie mehr fressen und danach von ihren Reserven zehren. Sie könnten sogar ein halbes Jahr ohne Fressen überleben und kämen auch mit dem momentanen Eisverlust gut zurecht. Doch wenn mehrere Jahre hintereinander solche schlechten Bedingungen herrschen, könne die Situation für Eisbären wieder sehr kritisch werden.

Was die Zukunft bringt, weiß wohl niemand, aber an dieser Zukunft zu zweifeln ist nicht erlaubt

kaltsonne: Neuer Eisbärenhappen: Die Sache (Anmerkung [8]) nimmt immer abstrusere Züge an. Die Sprecherin der Aktivisten-Organisation verstieg sich zu der Aussage, dass die Inuit Klimawandelleugner seinen weil sie das Video kritisiert hatten, nachdem eingeräumt wurde, dass der Bär mit großer Sicherheit nicht am Klimawandel gestorben ist.
“Es ist völlig egal woran der Bär starb, der Klimawandel wird Bären sterben lassen und das ist das was zählt”. Mit großer Wahrscheinlichkeit wurde ein zufällig (?) sterbender Bär gefilmt statt entsprechend zu handeln und die offiziellen Stellen zu informieren. Wer dieser billigen Reklameaktion widerspricht (wie die im Norden ansässigen Bewohner und Kenner der Materie), wird kurzerhand als Klimawandelleugner gebrandmarkt. Leider hört und sieht man in deutschen Medien von der Aufarbeitung dieses ungeheuerlichen Vorganges nichts.

Quellen

[1] SZ 1. Februar 2018: Klimawandel lässt Eisbären abmagern

[2] Polar Bear Science February 1, 2018: Polar bear specialists double-down on message of future starving bears

[3] Polar Bear Science May 14, 2015: Snow depth over spring sea ice affects polar bear feeding success and ringed seal survival

[4] EIKE 13.05.2017: Für Spendengelder müssen Eisbären den Klimatod sterben

[5] EIKE 4.03.2016: Der Eisbär vermehrt sich stetig – aber sein Aussterben simulieren darf man doch (2)
[6] EIKE: Der Eisbär vermehrt sich stetig – aber sein Aussterben simulieren darf man doch (1)

[7] EIKE 09.04.2017: Klima-Lügendetektor: Wer der Bildzeitung sagt, Eisbären würden nicht durch den Klimawandel sterben, ist ein schlimmer Demagoge

[8] t-online.de 09.12.2017: Herzzerreißendes Video Eisbär verhungert vor laufender Kamera in Kanada

[9] vdz: Eisbär

[11] IUCN: Summary of polar bear population status per 2017

[12] Polarbearscience February 14, 2014: Polar bear population now officially 13,071-24,238 says IUCN Polar Bear Specialist Group




Hillary Clinton hält vor allem Frauen für die Leidtragenden einer globalen Erwärmung,

„Ist eine Erwärmung eine existenzielle Bedrohung, ist es etwas, das nicht nachhaltig ist oder welche Art von Wirkung oder Schaden wird diese haben?“ Fragte Pruit in einem Interview bei Nevada KSNV TV am 06.02.2018. „Wir wissen, dass die Zivilisationen in Zeiten von Erwärmungstrends am meisten aufgeblüht sind. Ich denke, es sind nur Vermutungen, dass, wenn sich das Klima sich erwärmt, das notwendigerweise eine schlechte Sache ist.“

Während Pruitts Kommentare liberale Klimaexperten in Aufruhr brachten, steht sein Argument nicht völlig im Widerspruch zu den wirtschaftlichen Projektionen der globalen Erwärmung. Der renommierte Umweltökonom Richard Tol veröffentlichte im Januar eine Studie, in der festgestellt wurde, dass „die ersten Auswirkungen des Klimawandels durchaus positiv sein könnten“.

Tol untersuchte 27 verschiedene Projektionen von Kosten und Vorteilen der zukünftigen Erwärmung. Die Ergebnisse zeigten für die nächsten 40 bis 50 Jahre einen positiven Nettonutzen. Die wirtschaftlichen Kosten blieben positiv, bis die Temperaturen um 1,7 Grad Celsius über dem vorindustriellen Niveau lagen.

„Aktuelle Schätzungen deuten darauf hin, dass der Klimawandel wahrscheinlich nur begrenzte Auswirkungen auf die Wirtschaft und das Wohlergehen der Menschen im einundzwanzigsten Jahrhundert haben wird. Bei größerer Erwärmung, dominieren auf lange Sicht jedoch die negativen Auswirkungen.  … die Quantifizierung dieser Auswirkungen bleibt schwierig.“

Andere Ökonomen und Klimaforscher verweisen jedoch häufig auf die vermeintlichen negativen Folgen der vom Menschen verursachten Erwärmung, wie zum Beispiel extremeres Wetter, höhere Meeresspiegel und niedrigere Ernteerträge.

„Wissen wir im Jahr 2018 wirklich, wie hoch die ideale Oberflächentemperatur im Jahr 2100 sein sollte?“ fragte Pruitt.

Pruitt erwähnte auch seine Unterstützung für eine Debatte – rotes-blaues Team – über die Klimaforschung. Pruitt hatte geplant, zwei Teams von Wissenschaftlern in der Klimaforschung gegeneinander antreten zu lassen, aber bisher konnte das noch nicht offiziell beschlossen werden.

Pruitt äußerte sich, nachdem die frühere Außenminister Hillary Clinton bei einer Veranstaltung der Georgetown University sagte, dass vor allem Frauen überproportional durch die globale Erwärmung geschädigt werden – der Klimawandel ist nicht nur real und wichtig, er ist auch sehr sexistisch.

Screenshot: Hillary Clinton erzählt, dass Frauen die Hauptlast der Klimaerwärmung zu tragen haben,
Quelle https://www.c-span.org/series/?bookTv (freie Nutzung für nicht-kommerzielle Information)

„Ich würde sagen, vor allem für Frauen, Sie haben absolut Recht, Frauen werden die Hauptlast des Suchens nach dem Essen tragen, nach dem Brennholz suchend, nach dem Platz zum lagern suchen, um zu wandern, wenn das ganze Gras schließlich wegen der Wüstenbildung verschwindet und du musst dein Vieh fortbewegen, wenn deine Feldfrüchte nicht mehr wachsen, sie in der intensiven Hitze verbrennen, die wir jetzt in Nordafrika, im Nahen Osten und in Indien sehen. „

Screenshot: Junge Frauen hören genau zu: … sie müssen nach Essbarem … und Holz zum Feuer machen … suchen

„Also ja, Frauen werden wieder einmal die Hauptverantwortlichen sein … vor allem mit den Problemen des Klimawandels belastet.“

[Hillary Clinton beschwor die jungen Frauen im Auditorium, bezog sich dann auf Nordafrika, Indien und dem mittlerem Osten – Dort gibt es auch andere Klimazonen als in Europa und USA, der Übersetzer]

Bei der gleichen Veranstaltung an der Georgetown University beklagte sich Clinton über den Sexismus und die Frauenfeindlichkeit, von denen sie glaubte, dass sie die Kampagne von Donald Trump 2016 beeinflusst habe.

Erschienen auf The Daily Caller am 07.02.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/02/07/pruitt-global-warming-a-good-thing/




Tipping Point nach 10 Jahren: Wer gewann die Klima-,Wette‘ zwischen Armstrong und Gore?

E-Mails an Mr. Gore waren unproduktiv: nach vielen Versuchen der Kontaktaufnahme informierte sein Büro Prof. Armstrong, dass Mr. Gore keine Wetten annimmt. Die wichtige Frage, ob Politik auf die Grundlage alarmierender Projektionen gestellt werden sollte, stand jedoch immer noch im Raum, und so beauftragte Armstrong die www.Climatebet.com-Website zu verfolgen, wie die Wette ausgegangen wäre, wenn Gore akzeptiert hätte.

Zum Zeitpunkt der Herausforderung hatte Mr. Gore davor gewarnt, dass das Klima sich mit einer Rate erwärmt, dass sofort gewaltige öffentliche Ausgaben erforderlich sind, um eine Katastrophe abzuwenden. In seinem Buch Assault on Reason – veröffentlicht im April 2007 – stellte er auf Seite 204 fest: „Viele Wissenschaftler warnen jetzt davor, dass wir uns immer näher auf verschiedene ,Kipp-Punkte‘ zubewegen, welche es uns innerhalb von nur zehn Jahren unmöglich machen, irreparable Schäden unseres Planeten zu vermeiden – mit entsprechenden Auswirkungen auf Bewohnbarkeit und unsere Zivilisation“.

Formulierung der Klima-Wette

Mr. Gore hat seine Vorhersage einer gefährlichen Erwärmung nicht quantifiziert, weshalb man seine „Business as Usual“-Projektion aus dem 3. IPCC-Zustandsbericht aus dem Jahr 2001 als repräsentativ für seine Vorhersage herangezogen hat. Die Verwendung der IPCC-Projektion von 3°C Erwärmung pro Jahrhundert, entsprach der Position von Mr. Gore bei dieser Wette, weil sie merklich weniger dramatisch daherkam als die Behauptungen über Kipp-Punkte, denen Gore Ausdruck verlieh, und die IPCC-eigenen noch extremeren Projektionen.

Prof. Armstrong wettete dagegen, dass sich die globale mittlere Temperatur nicht ändern werde. Die Vorhersage einer Nicht-Änderung ist konsistent mit einem Statement im zuvor erwähnten Techincal Report des IPCC. In dem Report liest man: „Im Falle der Klimaforschung und -modellierung sollten wir berücksichtigen, dass wir es mit einem gekoppelten, nicht linearen chaotischen System zu tun haben, weshalb die langfristige Prophezeiung zukünftiger Klimazustände nicht möglich ist“. Mit anderen Worten, Vorhersagen langfristiger Trends bzgl. des Klimas sind unmöglich, was natürlich impliziert, dass auch die langfristige Vorhersage von Änderungen der globalen mittleren Temperatur unmöglich ist.

Das IPCC-Statement ist auch konsistent mit der Schlussfolgerung von Green, Armstrong und Soon (2009), dass die Vorhersage einer Nicht-Änderung der globalen Temperaturen über lange Zeit im Voraus kaum hinsichtlich ihrer Genauigkeit erfasst werden kann, selbst wenn man sie auf die fragwürdigen jährlichen mittleren Temperaturdaten des UKMO-Hadley Centers anwendet. Diese basieren auf adjustierten Thermometermessungen an ausgewählten Stationen seit 1850 und wurden vom IPCC herangezogen. Green, Armstrong und Soon fanden heraus, dass Vorhersagen einer Nicht-Änderung für praktische Zwecke so genau waren – d. h. lediglich einen mittleren Fehler von ±0,24°C aufwiesen bei Vorhersagen über 50 Jahre im Voraus – dass es keinen Sinn machen würde zu versuchen, noch bessere Vorhersagen zu erhalten.

Die IPCC-Projektion von 3°C pro Jahrhundert ignorierte nicht nur die Schlussfolgerung von dessen eigenen Autoren hinsichtlich der Unmöglichkeit, langfristige Trends vorherzusagen, sondern ignorierte auch 72 der 89 relevanten Vorhersage-Prinzipien (Green and Armstrong 2007). Als Konsequenz gibt es keinen Grund davon auszugehen, dass die IPCC-Projektion einer gefährlichen Erwärmung langfristig akkurat wäre, weshalb es keine guten Gründe gibt, eine solche Projektion als Grundlage für Politik zu benutzen.

Globale Temperaturen haben jedoch immer in allen zeitlichen Maßstäben variiert. Daher war es durchaus möglich, dass Armstrong seine 10-Jahre-Wetter verlieren würde, variierten doch Temperaturen allgemein um 0,3°C nach oben oder unten über Zeiträume von zehn Jahren in der Vergangenheit. Eine Simulation über 150 Jahre bzgl. der Wette ergab, dass seine Chance, die Wette zu gewinnen, nur bei 70% lag.

Feststellung des Gewinners

Schließlich wurde die Wette angeboten und überwacht auf der Grundlage von Satelliten-Temperaturdaten von der UAH. Im Gegensatz zu Daten von der Oberfläche erfassen Satellitendaten die untere Troposphäre der gesamten Erde. Sie sind vollständig und nicht kontaminiert durch schlechte Wartung und ungünstige Standorte der Messpunkte, und auch nicht durch die Änderung des Messverfahrens bei der Umstellung von Quecksilber auf elektronische Verfassung oder durch irgendwelche nicht erklärten Adjustierungen.

Der kumulative absolute Fehler (Maßzahl 1 in der Tabelle) war das entscheidende Kriterium bei der Abschätzung der Genauigkeit. Jene Messung wurde getestet, wobei sich zeigte, dass dies der beste Weg war, die Genauigkeit von Vorhersagen mittels verschiedener Vorhersage-Verfahren zu vergleichen (Armstrong and Collopy 1992). Mit dieser Maßzahl reduzierten sich die Vorhersagefehler einer Vorhersage der Nicht-Änderung um 12% im Vergleich zu der IPCC-Projektion einer gefährlichen Erwärmung. Vorhersagemodelle, die keine Vorhersagen machen können, die genauer sind als die Vorhersage Nicht-Änderung, haben keinen praktischen Wert.

Das Ergebnis ist konsistent mit den Analysen von Green and Armstrong 2014, in welchen sie die prädiktive Validität der Keine-Änderung-Vorhersage mit den IPCC-Vorhersagen über verschiedene Zeiträume verglichen. Die Loehle-Temperaturreihe vom Jahr 16 bis zum Jahr 1935 wurde herangezogen, um die Genauigkeit der Vorhersagen globaler Erwärmung und Abkühlung sowie einer Nicht-Änderung bis zu 100 Jahren im Voraus zu vergleichen. Die Keine-Änderung-Hypothese war viel genauer als die Hypothese der globalen Abkühlung um 1°C pro Jahrhundert, welche wiederum viel genauer war als die Hypothese der globalen Erwärmung von 3°C pro Jahrhundert.

Alternative Feststellung des Gewinners

Es gibt andere Wege, die Genauigkeit abzuschätzen, vor allem weil die Wette jeden Monat verfolgt wurde, aber das Ergebnis ist eindeutig: Es gab keinen einzigen gefährlichen „Kipp-Punkt“ über den 10-Jahre-Zeitraum. Die globalen Temperaturen sanken innerhalb der Bandbreite der natürlichen Variation. Sieben alternative Messungen werden in der folgenden Tabelle vorgestellt, so dass jeder selbst schauen kann:

1,2Maßzahlen eines Bias‘ der Vorhersage, wobei Null eine vollkommen unverzerrte und eine positive Zahl eine Verzerrung zugunsten Erwärmung anzeigen.

3,4Das allgemein angewendete Verfahren der Ordinary Least Squares (OLS) zur Abschätzung von Relationen verletzt die „goldene Regel der Vorhersage“, weil es nicht hinreichend konservativ ist. Das Fehlen der Erhaltung kommt zustande, weil die Verwendung quadratischer Fehler in dem Verfahren extremen Werten zusätzliches Gewicht verleiht. Das Least Absolute Deviation (LAD)-Verfahren umgeht dieses Problem und ist konsistent mit unserem primären Kriterium zur Abschätzung der Genauigkeit: dem relativen kumulativen absoluten Fehler. Der OLS-Trend der 120 Monate, über welche sich die Wetter erstreckte, betrug 1,53°C pro Jahrhundert, der LAD-Trend 1,17°C pro Jahrhundert. Man beachte, dass der LAD-Trend während der letzten 10 Jahre um Einiges niedriger liegt als der Trend über alle 469 Monate der UAH-Reihe bis heute, welche 1,28°C beträgt: das Gegenteil eines „Kipp-Punktes“.

Die zweiten und dritten Maßzahlen in der Tabelle sind Maßzahlen für den Bias in den Vorhersagen. Aus beiden Maßzahlen geht hervor, dass die Vorhersage ,keine Änderung‘ substantiell am wenigsten verzerrt ist (18% und 79%).

Eine andere Art, den Bias zu betrachten, wird in der Graphik gezeigt: Die blaue Schattierung zeigt den Unterschied zwischen der Armstrong/Keine-Änderung-Vorhersage und der tatsächlichen Temperatur, wenn die Projektion zu kalt ausgefallen war. Eine perfekt unverzerrte Vorhersage würde aus Vorhersagefehlern zu 50% über und 50% unter den tatsächlichen Werten bestehen. Die Summe der Armstrong/Keine-Änderung-Über-Vorhersage machte 41% des korrespondierenden gesamten absoluten Fehlers aus, die Summe der Gore/IPCC-unter-Vorhersagefehler dagegen nur 14%. Mit anderen Worten, die vom Armstrong/keine-Änderung-Modell erzeugten Vorhersagen waren über den 10-Jahre-Zeitraum fast unverzerrt, während die Gore/IPCC-Modellprojektion erheblich verzerrt war in Richtung zu warmer Vorhersagen, und zwar bis zu einem Ausmaß, dass der Bias der Gore/IPCC-Modellprojektion mit der Vorhersage ,zu warm‘ sechs mal größer war als die Vorhersage ,zu kalt‘.

Wie wären die Planer gefahren, wenn sie sich auf die offiziellen IPCC-Projektionen gestützt hätten? Hier hilft nochmals ein Blick auf die Graphik. Die Planer hätten „zusätzliche“ Wärme erwartet, repräsentiert durch das Dreieck zwischen der roten IPCC-Linie und der grünen Keine-Änderung-Linie (19,8). Die zusätzliche Wärme, die tatsächlich während des Zeitraumes aufgetreten war, wird repräsentiert durch die Fläche zwischen der schwarzen Linie der tatsächlichen Temperatur und der grünen Linie: Die Fläche über der grünen Keine-Änderung-Linie und weniger die Fläche unter der Keine-Änderung-Linie (3,47). Mit anderen Worten, die Planer, die sich auf die IPCC-Projektion verlassen hätten, hätten mit weniger als 18% der von ihnen eingeplanten zusätzlichen Wärme auskommen müssen.

Jene, die unbedingt einen Trend suchen in der Dekade eines Sägeblatt-Temperaturverlaufs werden weder für einen „Kipp-Punkt“ noch für die IPCC-Projektion eines gefährlichen Erwärmungstrends Anhaltspunkte finden in der besten Fit-Linie, welche eine Rate von wenig mehr als 1°C pro Jahrhundert aufweist [a]. Wie in der Fußnote der Tabelle erklärt, betrug der angepasste [fitted] normale Trend kleinster Quadrate (OLS) von der Grundlage jährlicher Mittel ab 2007 ausgehend 1,53°C pro Jahrhundert und der Trend der kleinsten absoluten Ableitung (LAD)[?] 1,17°C pro Jahrhundert. Vergleicht man die Vorhersagen, um die es in der Wette ging, mit dem OLS-Trend, lag der Gore/IPCC-Trend von 3°C pro Jahrhundert etwas näher (Maßzahl 5 in der Tabelle), aber die Armstrong/Keine-Änderung-Vorhersage lag um 44% näher am relevanteren LAD-Trend (Maßzahl 6). (Warum sollten Entscheidungsträger quadrierte Fehler minimieren wollen?). Außerdem lag die Trendlinie im Wettzeitraum näher bei Keine-Änderung als der Trend über die gesamte UAH-Temperaturanomalie bis Ende 2017.

Die Willkür der Bearbeitung eines Trends – durch welches Verfahren auch immer – in einer solchen Reihe wird bekräftigt durch die Tatsache, dass falls sich die Wette über fünf Jahre erstreckt hätte, der angepasste Trend negativ wäre: -1,13°C pro Jahrhundert (LAD) oder -1,61°C pro Jahrhundert (OLS). Man beachte auch, dass Sir Richard Brenson am 10. Februar 2007 von Mr. Gore begleitet wurde, als er seine Aussage machte, dass die „Welt bereits einen Kipp-Punkt überschritten haben könnte“ (hier). So kann man sich fragen, ob die Temperatur am Ende des Wettzeitraumes dramatisch höher lag als zu Anfang, als die UAH-Angabe vom Januar 2007 von 0,43°C gerade veröffentlicht worden war. Die Antwort lautet nein: Die Zahl vom Dezember 2017 war um 0,41°C niedriger.

Globale Temperaturen von 2007 bis 2017 im Vergleich Keine-Änderung ↔ 3°C Erwärmung pro Jahrhundert

(Temperaturabweichung vom Mittel der Jahre 1981 bis 2010 in Grad Celsius*)

*www.nsstc.uah.edu/data/msu/v6.0/tlt/uahncdc_lt_6.0.txt (aktualisiert am 4. Januar 2018 mit Version 6.0 vom April 2015)

Die Zukunft der Klimawette

Länger ist besser, wenn es um die Bewertung von Klimavorhersagen geht, und so wird man auf der Site theclimatebet.com die „Wette“ auf einer Linie mit Scott Armstrongs Angebot überwachen, die Herausforderung um weitere zehn Jahre zu verlängern, wobei man als Startpunkt die globale jährliche mittlere Temperatur des Jahres 2007 beibehalten sollte. Die Erweiterung der Wette beabsichtigt, die bedeutende Rolle wissenschaftlicher Validierung von Vorhersagen der Öffentlichkeit noch bekannter zu machen, welche die Politik beeinflussen. Politiker sollten Vorhersagen zurückweisen, welche daran scheitern, Fehler im Vergleich zu einem geeigneten Keine-Änderung-Eckpfeiler zu reduzieren.

Übersetzt von Chris Frey EIKE

Link: https://wattsupwiththat.com/2018/02/06/tipping-point-10-years-on-who-won-the-armstrong-gore-bet-on-the-climate/

Anmerkung: Im Original folgt noch ein letzter Absatz ([a]) mit technischen Anmerkungen zur Replikation. Für den Tenor des Beitrags ist dieser Abschnitt aber von geringer Bedeutung, weshalb hier auf dessen Übersetzung verzichtet wird. – Chris Frey




Globale Investitionen in erneuerbare Energien sind ins Stocken geraten

Aber die Diskussion über Einfuhrzölle verbirgt ein größeres Problem der erneuerbaren Energien. Globale Investitionen in erneuerbare Energien sind in den USA, in Europa und auf vielen Märkten weltweit ins Stocken geraten.

Seit den 1990er Jahren haben Befürworter „nachhaltige“ Investitionen in Wind-, Solar- und Biokraftstoff-Energie als Lösung gegen die globale Erwärmung, Verschmutzung [welche?] und befürchtete Ressourcenverknappung gefordert. National-, Staats- und Provinzregierungen [in westlichen Ländern] reagierten und förderten grüne Energie mit überzogenen Einspeisetarifen,  Netzprioritäten und anderen Subventionen. Kohlenstoffhandel und CO2-Steuern wurden eingeführt, um fossile Treibstoffe zur Begünstigung erneuerbarer Energien zu verteuern.

Diese Bemühungen führten weltweit zu einem raschen Anstieg der erneuerbaren Energien. Von 2004 bis 2011 stiegen die weltweiten Investitionen in erneuerbare Energien um 26,7 Prozent jährlich. Ende 2012 waren weltweit mehr als 200.000 Windenergieanlagen in Betrieb. Allein in Deutschland gab es mehr als eine Million Solardachanlagen.

Seit 2011 sind Investitionen in erneuerbare Energien jedoch ins Stocken geraten. Von 2011 bis 2017 wuchs die globale grüne Energie-Investition nur um 0,7 Prozent pro Jahr. Laut Bloomberg New Energy Finance stiegen die Investitionen in erneuerbare Energien in den USA nur um 1 Prozent, in Japan um 16 Prozent, in Indien um 20 Prozent, in Deutschland um 26 Prozent und in Großbritannien um 56 Prozent. Die Investitionen in China stiegen um 26 Prozent und trugen dazu bei, dass 2017 ein geringes Wachstum von 3 Prozent für erneuerbare Energien möglich wurde.

Bloomberg renewable-energy-investment-2004-2017

Europäische Nationen haben weltweit die höchsten pro-Kopf-Investitionen für erneuerbare Energien und umfangreiche Erfahrungen mit erneuerbaren Energien. Europa investierte 2010 und 2011 jedes Jahr mehr als 100 Milliarden US-Dollar in erneuerbare Energien. Aber im vergangenen Jahr betrugen die erneuerbaren Energien in Europa nur 57,4 Milliarden US-Dollar, 50 Prozent weniger als in den Rekordjahren 2010-2011.

Warum stagnieren Investitionen in Erneuerbare? Eine Antwort ist, dass erneuerbare Projekte stark von Subventionen abhängig sind und Subventionen gekürzt werden. Die Kombination aus steigenden Strompreisen und Budget-sprengenden Subventionen zwingt die Länder zu einem Rückgang.

Europa investierte 850 Milliarden Dollar in erneuerbare Energien von 2000 bis 2014 und zahlt weiterhin hohe laufende Preise.

Die Strompreise für Einwohner stiegen in Spanien auf das dreifache und in Dänemark und Deutschland auf das vierfache des US-Preises. Die deutschen Verbraucher zahlen eine EEG-Abgabe in ihren Stromrechnungen, die bereits jährlich 25 Milliarden Euro für die Förderung erneuerbarer Energien erreicht hat. Der damalige Umweltminister [seit 2017 Finanzminister] Peter Altmaier schätzte [Ende 2012],  dass die Zwangssubventionen der deutschen Verbraucher für Erneuerbare bis 2040 kumulativ eine Billion Euro erreichen werden.

In den letzten fünf Jahren wurden Subventionen oder Mandate in Bulgarien, der Tschechischen Republik, Deutschland, Griechenland, Italien, den Niederlanden, Spanien und dem Vereinigten Königreich gekürzt. Nachträgliche Kürzungen der Einspeisetarife wurden in Bulgarien, Griechenland und Spanien durchgesetzt. Deutschland beschnitt die Einspeisevergütung um 75 Prozent und erhob Netzentgelte für Photovoltaik-Anlagen auf Wohnhäusern. Die britische Regierung hat in 2015 alle Subventionen für neue Onshore-Windparks gestoppt und die Subventionen für Solaranlagen in Wohngebäuden reduziert, was sowohl 2016 als auch 2017 zu einem starken Rückgang der Investitionen geführt hat.

Subventionskürzungen sind USA ebenfalls in Arbeit. Das Gesetz über konsolidierte Mittel von 2016 erfordert eine stufenweise Reduzierung der Steuernachlässe für die Erzeugung erneuerbarer Elektrizität (PTC – Renewable Electricity Production Tax] von 2016-2019. Wird der PTC-Steuerzuschuss nicht verlängert, wird er nach 2019 auslaufen. Das Gesetz reduzierte auch die Steuergutschriften für Wind- und Solarenergie.

Es gibt Studien, die behaupten, dass erneuerbare Energie die moderne Gesellschaft antreiben kann. Eine Studie von Mark Jacobsen und anderen an der Stanford University von 2017 fordert 100 Prozent erneuerbare Energien bis 2050, wobei Wind und Sonne 95 Prozent der Energie liefern sollen. Aber dieses Wunschdenken wird von den Trends [und der Physik] nicht unterstützt.

British Petrol, world-energy-consumption-1965-2016

Seit dem Jahr 1965 hat sich der weltweite Energieverbrauch auf 13,3 Milliarden Tonnen Öläquivalent mehr als verdreifacht, nach dem BP Statistical Review of World Energy. Im Jahr 2016 lieferten Wind und Sonne etwa zwei Prozent davon. Jedes Jahr erhöht die Welt ihren Energieverbrauch um die Menge, die allein das Vereinigte Königreich benötigt. Wind- und Solarenergie können nicht einmal das jährliche Wachstum der Weltnachfrage liefern, geschweige denn unsere traditionellen Energiequellen ersetzen.

Die Investitionen in erneuerbare Energiequellen stagnierten, ausgebremst durch steigende Energiepreise und unerschwingliche Subventionen. Die Welt wird gezwungen, zu einer vernünftigen Energiepolitik zurückzukehren, die auf Kosten, Performance und echtem Umweltnutzen basiert.

Original erschienen auf The Daily Caller.

Erschienen auf WUWT am 06.02.2018

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2018/02/06/global-investment-in-renewable-energy-has-stalled/

 

* * *

Im Text oben ist der Bericht über eine Studie verlinkt, die 100% Versorgung durch volatile Energien anpreist.

Hier einige Teile übersetzt:

Mark Jacobson et.al. 00% Clean and Renewable Wind, Water, and Sunlight All-Sector En

Die Forscher rechnen damit, dass diese 139 Länder bis 2030 zu 80 Prozent mit sauberer, erneuerbarer Energie und bis 2050 zu 100 Prozent mit Strom versorgt werden könnten. Der Mix an Ressourcen, die sie sich für das 2050-Ziel vorstellen, beinhaltet:

  • 21,36 Prozent aus Photovoltaik-Anlagen
  • 9,72 Prozent aus konzentrierten Solaranlagen
  • 14,89 Prozent von Wohndachsolar
  • 11,58 Prozent von kommerziellen und staatlichen Dachsolaranlagen
  • 23,52 Prozent aus Onshore-Wind
  • 13,62 Prozent von Offshore-Wind
  • 4 Prozent aus Wasserkraft
  • 0,58 Prozent aus Wellenenergie
  • 0,67 Prozent aus Geothermie
  • 0,06 Prozent aus Gezeitenenergie

… Die Forscher stellen fest, dass ihre Roadmap weitaus aggressiver ist als das, was das Pariser Klimaabkommen vorsieht. Aber es ist immer noch technisch und wirtschaftlich machbar, und die Gesamtkosten der Roadmap für die Gesellschaft in Bezug auf Energie, Gesundheit und Klima sind ein Viertel des derzeitigen fossilen Brennstoffsystems. Obwohl sie schätzen, dass diese Verlagerung zu 27,7 Millionen verlorenen Arbeitsplätzen führen würde, würden sie 50 Millionen Arbeitsplätze schaffen. …

 




Schock-Studie: Formel berechnet präzise planeta­rische Tempera­turen OHNE Treibhaus­effekt und CO2

In einer neuen begutachteten wissenschaftlichen Studie, veröffentlicht im vorigen Dezember (2017) im Journal Earth Sciences sagt ein Student der Wissenschaft und des Ingenieurswesens an der Federation University (Australien) namens Robert Holmes, dass er vielleicht den Schlüssel gefunden habe, um uns verstehen zu lassen, wie Planeten mit einer dichten Atmosphäre (wie die Erde) eine bestimmte Temperatur von 288 K (Venus 740 K, Jupiter 165 K) „konstant“ [fixed] halten können, ohne dass ein planetarischer Treibhauseffekt oder Änderungen des atmosphärischen CO2-Gehaltes nötig sind.

Das ,Gedankenexperiment‘ Treibhauseffekt

Die vielleicht grundlegendste Konzeptualisierung in der Klimawissenschaft ist das „Gedankenexperiment“, mit dem man sich vorstellen kann, welche Temperatur auf der Erde vielleicht herrschen würde, falls es keinen Treibhauseffekt oder keine Atmosphäre gibt.

Dr. Gavin Schmidt, NASA  

Die Größe des Treibhauseffektes wird oftmals als die Differenz geschätzt zwischen der tatsächlichen globalen Temperatur und der Temperatur, die auf dem Planeten herrschen würde ohne jede atmosphärische Absorption, aber mit genau der gleichen planetarische Albedo, rund 33°C. Dies ist mehr ein ,Gedankenexperiment‘ als ein messbarer Zustand, aber es ist eine nützliche Grundlinie“.

Vereinfacht kann die global gemittelte Temperatur mit 288 K angegeben werden. Im „Gedankenexperiment“, in welchem eine imaginäre Erde keine Atmosphäre hätte (und folglich auch keine Treibhausgase absorbieren und die Wärme von der Oberfläche wieder emittieren kann), betrüge die Temperatur nur 255 K. Die Differenz zwischen der Temperatur auf der realen und der imaginären Erde ohne Atmosphäre beträgt 33 K, was bedeutet, dass es auf der Erde viel kälter (und diese damit unbewohnbar) wäre ohne die Gegenwart der Treibhausgase, welche die hypothetische „Wärmefalle“ bilden.

Von jenen 33 K Treibhauseffekt leiten sich der Vorstellung zufolge 20,6 K aus Wasserdampf-Teilchen in der Atmosphäre ab (1000 bis 40.000 ppmv), während man 7,2 K der „natürlichen“ (oder vorindustriellen) atmosphärischen CO2-Konzentration von 200 bis 280 ppm zuschreibt (Kramm et al., 2017).

Als „Gedankenexperiment“ fehlt es der entscheidenden Rolle der Erwärmung durch Wasserdampf-Teilchen und der CO2-Konzentrationen an Validierungen in der realen Welt. Zum Beispiel enthalten die Ozeane der Erde bereits 93% der Wärmeenergie des Planeten (Levitus et al., 2012), und bis heute gibt es keine physikalischen Messungen in der realen Welt, die zeigen, wie viel Erwärmung oder Abkühlung variierenden CO2-Konzentrationen geschuldet ist über einer Wasserfläche mit Volumen-Inkrementen von parts per million (0,000001). Konsequenz: Der CO2-Treibhauseffekt ist eine hypothetische, modellbasierte Konzeptualisierung.

Und während der letzten Jahre sind viele wissenschaftliche Studien veröffentlicht worden, welche nicht nur die Grundlagen des hypothetischen Treibhauseffektes auf der Erde in Frage stellen, sondern auch die Rolle von Treibhausgasen auf anderen Planeten mit dichten Atmosphären (wie der Venus) (Hertzberg et al., 2017Kramm et al., 2017Nikolov and Zeller, 2017 Allmendinger, 2017Lightfoot and Mamer, 2017Blaauw, 2017Davis et al., 2018). Die hier behandelte Studie von Holmes könnte vielleicht die jüngste derartige Studie sein.

,Extrem genaue‘ planetarische Temperatur-Berechnungen mit der Druck-Dichte-Massen-Formel

Holmes argumentiert, dass die mittlere Temperatur von 8 planetarischen Körpern mit dichten Atmosphären (0,1 bar oder mehr) präzise mit „extremer“ Genauigkeit vermessen werden kann – mit einer Fehler-Bandbreite von lediglich 1,2% – mittels Anwendung einer Formel, die von der Kenntnis von drei Parametern abhängt: 1) des mittleren atmosphärischen Drucks an der Oberfläche, 2) der mittleren atmosphärischen Dichte an der Oberfläche und 3) der mittleren molaren Masse der oberflächennahen Atmosphäre.

Holmes zog die Werte der abgeleiteten Druck/Dichte/Masse für jeden planetarischen Körper heran. Dann berechnete er mit diesen Zahlen die Temperaturen der Planeten.

Die berechnete Temperatur der Venus ergab sich mit dieser Formel zu 739,7 K. Die gemessene Temperatur dort beträgt 740 K. Dies zeigt, dass die Genauigkeit der Formel für die Venus eine Fehlerbandbreite von lediglich 0,04% aufweist.

Mit den Werten von Druck/Dichte/Masse auf der Erde errechnet sich mit Holmes‘ Formel eine Temperatur von 288,14 K. Die gemessene Temperatur der Erde beträgt 288 K, passt also genau.

Die berechnete Temperatur auf dem Saturn beträgt 132,8 K. Die gemessene Temperatur dort beträgt 134 K – eine Fehlerbandbreite von nur 0,89%.

Die eindrucksvolle Genauigkeit der Formel wird in der folgenden Zusammenstellung illustriert (Tabelle 1 und Abbildung 2):

Atmosphärischer Druck/Dichte und Temperatur nahe der Oberfläche

Zum größten Teil ist die Dichte einer Planetenatmosphäre eine primäre Bestimmungsgröße von deren Temperatur. Planeten mit dichten Atmosphären sind wärmer, solche mit dünnen Atmosphären kälter. Je weiter man sich von der Oberfläche entfernt, umso geringer sind Druck und Gravitation und umso kälter wird es. Und umgekehrt.

Sciencing.com

Im Allgemeinen ist die Atmosphäre eines Planeten umso dünner, je schwächer dessen Gravitation ist. Ein Planet mit schwacher Gravitation neigt dazu, weniger Masse zu haben und mehr seiner Atmosphäre in den Weltraum entweichen zu lassen. Folglich hängt die Dichte einer Atmosphäre von der Stärke der Gravitation ab. Beispiel: Die Gravitation des Planeten Jupiter ist 318 mal stärker als die der Erde, und folglich ist die Atmosphäre viel dichter als die irdische Atmosphäre. Die Gravitation wird umso schwächer, je weiter man von einem Planeten entfernt ist, und darum wird die Atmosphäre an der Oberfläche am dichtesten sein“.

Eine mühelose Illustration der Effekte des atmosphärischen Luftdrucks auf die Temperaturen eines Planeten wie die Erde kann man im Grand Canyon im Südwesten der USA finden. Der nördliche Rand liegt etwa 305 Meter höher als der südliche Rand. Interessanterweise ist es auch am nördlichen Rand rund 5°C kälter als am südlichen Rand – geschuldet dem Einfluss des atmosphärischen Drucks und der Gravitation. Am Grund des Canyons ist es rund 11 bis 14°C wärmer als an den oberen Rändern. Dieser erhebliche Temperaturgegensatz ist völlig unabhängig von irgendwelchen Treibhausgas-Konzentrationen an beiden Stellen, und es hängt auch nicht vom Sonnenlicht ab. Es ist der Unterschied in der Gravitation, welcher die Wärmedivergenz erzeugt.

Subia, 2014

Höhe über NN und Jahreszeit bestimmen die mittleren Temperaturen im Grand Canyon. Die mittlere Höhe der oberen Ränder am südlichen Ende beträgt etwa 2100 m ü. NN, am nördlichen Ende etwa 2400 m ü. NN. Je höher, desto kälter. Zu jeder gegebenen Zeit wird es am nördlichen Ende rund 4 bis 5 Grad kälter sein als am südlichen Ende. … Direkt am Grund des Canyons kann es rund 11 bis 14°C wärmer sein als auf den jeweiligen oberen Rändern“.

Sensitivität bzgl. Änderungen der CO2-Konzentration „extrem gering“

Holmes weist darauf hin, dass die Implikationen seiner präzisen Berechnung planetarischer Temperaturen unabdingbar zu der Schlussfolgerung führen, dass es keinerlei Treibhauseffekten oder Existenz von Treibhausgasen bedarf, um eine hypothetische „Wärmefalle“ zu erzeugen. Stattdessen, so schreibt er, „können planetarische Körper mit dichten Atmosphären nicht durch den ,Treibhauseffekt‘ bestimmt werden, sondern höchstwahrscheinlich durch Auswirkungen von Strömungsdynamik und namentlich adiabatischer Autokompression“.

Der Effekt schließt die Möglichkeit aus, dass CO2 ein vorherrschender Klimatreiber ist.

Tatsächlich beträgt Holmes‘ Berechnung der CO2-Klimasensitivität (bei einer Verdoppelung von 0,03% auf 0,06%) -0,03°C.

Wie er in seiner Schlussfolgerung offensichtlich untertrieben schreibt: „Diese Klimasensitivität ist schon so gering, dass es unmöglich ist, sie in der realen Atmosphäre aufzuspüren oder zu messen“.

Holmes, 2017

Molare-Masse-Version der Gasgleichung für ideale Gase weist auf eine sehr geringe Klimasensitivität

Introduction

Hier wird ein einfaches und zuverlässiges Verfahren gezeigt, mit dem man die mittlere atmosphärische Temperatur nahe der Oberflächen planetarischer Körper berechnen kann, welche an der Oberfläche einen atmosphärischen Druck von über 10 kPa (eine dichte Atmosphäre mit 0,1 bar oder mehr) aufweisen. Dieses Verfahren erfordert eine Gaskonstante und Kenntnis von lediglich drei Parametern: 1) des mittleren atmosphärischen Drucks an der Oberfläche, 2) der mittleren atmosphärischen Dichte an der Oberfläche und 3) der mittleren molaren Masse der oberflächennahen Atmosphäre. Die angewendete Formel ist eine molare Version der Zustandsgleichung für ideale Gase.

Hier wird gezeigt, dass die Informationen in diesen drei Gas-Parametern allein ein extrem guter Prädiktor für Temperaturen auf Planeten mit einem atmosphärischen Druck über 10 kPa sind. Dies zeigt, dass alle Informationen über die effektive plus die oberflächennahe atmosphärische Temperatur auf Planeten mit dichten Atmosphären automatisch von diesen drei Gas-Parametern festgelegt wird.

Diese Formel erweist sich nicht nur als viel genauer als jedes andere bisher angewendete Verfahren, sondern ist auch viel einfacher zu berechnen. Man braucht keinen Input von Parametern, die man früher als essentiell erachtete: solare Einstrahlung, Albedo, Treibhausgasgehalt, ozeanische Zirkulation und Wolkenbedeckung neben vielen Weiteren.

Damit wird hier gezeigt, dass kein einzelnes Gas anomale Auswirkungen auf atmosphärische Temperaturen hat, die stärker sind als bei jedem anderen Gas.

Kurz gesagt: Es kann keinen 33°C-,Treibhauseffekt‘ auf der Erde geben oder irgendwelche signifikanten ,Treibhauseffekte‘ auf irgendwelchen anderen planetaren Körpern mit einer Atmosphäre von über 10 kPa.

Die Formel: Ein ,extrem genauer Prädiktor‘ planetarischer Temperaturen

Die hier vertretene Hypothese lautet, dass im Falle der Erde die Sonneneinstrahlung die ,ersten‘ 255 K liefert – in Übereinstimmung mit der Schwarzkörper-Gleichung (11). Adiabatische Auto-Kompression liefert die ,übrigen‘ 33 K, so dass die bekannte und gemessene mittlere globale Temperatur von 288 K erreicht wird. Diese ,anderen‘ 33 K können nicht dem Treibhauseffekt geschuldet sein, weil wenn das doch so wäre die molare-Masse-Version der Gleichung für ideale Gase dann nicht herangezogen werden könnte, um planetarische Temperaturen genau zu berechnen, wie es hier eindeutig mit dieser Gleichung möglich ist.

Es ist offensichtlich, dass sich mit dieser einfachen Gleichung die ,Oberflächen‘-Temperaturen vieler planetarer Körper in unserem Sonnensystem genau berechnen lassen (Abbildung 2).

Dies gilt besonders für Körper, deren Atmosphären dicht genug sind, um eine Troposphäre entstehen zu lassen (d. h. einen atmosphärischen Druck über 10 kPa oder 0,1 bar aufweisen). Dazu zählen: Venus Erde, Jupiter, Saturn, Titan, Uranus und Neptun. Alle für diese Planeten berechneten Temperaturen liegen innerhalb einer Fehlerbandbreite von 1,2% bzgl. den von der NASA gemessenen ,Oberflächen‘-Temperaturen (außer beim Mars, der hier ausgeschlossen ist: sein atmosphärischer Druck ist viel geringer als 10 kPa). Diese Genauigkeit wird erreicht ohne Anwendung der Stefan-Boltzmann-Schwarzkörpergleichung und ohne die Einbeziehung von Termen für Parameter wie TSI-Niveau, Albedo, Wolken, Treibhauseffekt oder adiabatische Auto-Kompression. Alles was man braucht, um die oberflächennahe Temperatur genau zu berechnen, ist die relevante Gaskonstante und die Werte der drei variablen Gas-Parameter.

Die Implikationen: CO2-Klimasensitivität (-0,03°C) ist ,extrem gering‘

Ein paar Überlegungen hinsichtlich der Einfachheit und Genauigkeit dieser Ergebnisse werden einem unvoreingenommenen Menschen die offensichtlichen Implikationen dieser Arbeit vor Augen führen – als da wären, dass die residualen oberflächennahen Temperaturen auf planetaren Körpern mit dichten Atmosphären nicht durch den ,Treibhauseffekt‘ bestimmt werden können (residual bedeutet hier den Unterschied zwischen den Ergebnissen aus der Stefan-Boltzmann-Gleichung und der tatsächlichen Temperatur). Stattdessen sind dafür höchstwahrscheinlich Effekte durch Strömungsdynamik, namentlich adiabatische Autokompression ursächlich.

Eine weitere Implikation führt direkt zu der Schlussfolgerung, dass die Klimasensitivität bei einer beispielsweisen Verdoppelung der atmosphärischen CO2-Konzentration augenblicklich Auswirkungen zeigen müsste und auch extrem gering wäre. Diesem Szenario zufolge kann die Klimasensitivität bzgl. CO2 kaum anders sein als durch das Hinzufügen irgendeines anderen Gases in ähnlicher Quantität.

Vor allem die hier gezeigten Formeln 5 (und 6) schließen jedwede Möglichkeit komplett aus, dass ein Treibhauseffekt von 33°C von der Art, wie er vom IPCC in dessen Berichten kolportiert wird (23), in der realen Atmosphäre überhaupt existieren kann. Grund hierfür ist, dass das IPCC in seinen Berichten schreibt, dass eine Zunahme des atmosphärischen CO2-Gehaltes um 0,03% (300 ppm), also eine Verdoppelung, zu einem globalen Temperaturanstieg von ~3°C führen muss (mit einer Bandbreite von 1,5°C bis 4,5°C, was sich seit 1990 kaum geändert hat) (24). Das ist die so genannte ,Klimasensitivität‘. Dass diese Größenordnung der Erwärmung durch eine so geringe Änderung des Gasgehaltes verursacht wird, ist nach der Molaren-Masse-Version der Zustandsgleichung für ideale Gase ausgeschlossen.

Rechnung für eine Verdoppelung des CO2-Gehaltes seit vorindustrieller Zeit von 0,03% (300 ppm):

Berechnete Temperatur nach einer Verdoppelung des CO2-Gehaltes auf 0,06% ≈ 288,11 K.

Klimasensitivität bzgl. CO2 288,14 – 288,11 -0,03 K.

Die Änderung wäre tatsächlich extrem klein und schwierig genau abzuschätzen und würde eine Größenordnung von -0,03°C aufweisen. Das ist einhundert mal kleiner als die ,wahrscheinliche‘ Klimasensitivität von 3°C, wie sie vom IPCC in seinen Berichten genannt ist, und vermutlich auch mit umgekehrtem Vorzeichen (Abkühlung). Aber selbst diese geringe Zahl wäre wahrscheinlich schon die maximale Änderung. Werden nämlich fossile Treibstoffe verbrannt, welche das CO2 emittieren, wird auch atmosphärischer Sauerstoff (O2) verbraucht, was dieses Gas in der Atmosphäre reduziert – und was jede durch zusätzliches CO2 erzeugte Temperaturänderung ausgleicht. Die Klimasensitivität ist bereits so gering, dass es unmöglich ist, sie in der realen Atmosphäre aufzuspüren oder zu messen, selbst vor irgendeiner Berücksichtigung des Verbrauchs atmosphärischen Sauerstoffs.

Link: http://notrickszone.com/2018/02/05/shock-paper-cites-formula-that-precisely-calculates-planetary-temps-without-greenhouse-effect-co2/#sthash.4XRRV5WA.dpbs

Übersetzt von Chris Frey EIKE

Anmerkung der Redaktion: Dieser Beitrag wird wieder heftige Kontroversen auslösen. Und das ist im Sinne der Wissenschaft. Als Anregung mag dieser Artikel von Willis Eschenbach dienen der sich mit dem Verhalten des idealen Gases in Bezug auf die Ergebnisse des Autors bezieht.




Petition der Wissenschaftler: American Museum of Natural History sollte gegenüber ,Klimawandel‘-Agitatoren nicht nachgeben

E-Mail von Willie Soon:

Liebe Freunde und Kollegen,

ich hoffe inständig, dass Sie sich alle laut erheben werden und sich mit ihrer Unterschrift hinter diese Botschaft stellen. Sie wurde vor einer Stunde [am 5. Februar 2018] an den Präsidenten des amerikanischen Natural History Museum [AMNH] gesendet.

Was wir damit erreichen wollen, ist ziemlich klar und sehr einfach: Wir wollen all jene Anti-Wissenschafts-Bewegungen nebst deren Aktionen eliminieren, welche da draußen so tun, als ob sie nach wissenschaftlichem Fortschritt streben oder auch nur vernünftigen Menschen helfen wollen.

Bitte schreiben Sie Ihre eigenen Gedanken und/oder machen Sie die folgenden beiden Files allen zugänglich:

1) den kurzen Cover-Brief an die AMNH mit 325 Unterschriften, darunter welche von bedeutenden und namhaften WissenschaftlernAMNH18-Jan30-PetitionLetter

2) die längere Hintergrundinformation, warum wir überzeugt sind, diese Unterschriftenaktion durchführen zu müssen.AMNH18-Jan30-BackgroundDetailInfo

Falls Sie die Hintergrundinformation lesen: Denken Sie dabei immer daran, dass [das hier folgende Zitat] meiner Ansicht nach an ein Niveau der Geisteskrankheit heran reicht (falls ich noch einmal geradeheraus sprechen darf). Und doch halten sie an diesem verrückten Gedanken fest und geben es als propere Wissenschaft aus (Wo sind die Beweise, Mr. Hansen?):

——————————-

Zu einer weiteren Eiszeit wird es niemals kommen, solange die Menschen nicht aussterben. … Die Menschen kontrollieren jetzt das globale Klima, zum Guten oder Schlechten.

Zu einer Eiszeit wird es niemals kommen, falls die Menschen weiterhin existieren, weil eine solche schon durch einen ,Fingerhut‘ voll einfach herzustellender Fluorkohlenwasserstoffe CFC verhindert werden kann“. (S. 8) – James Hansen am 26. Juni 2007

„Wie können wir einen gefährlichen Klimawandel umgehen?“, eine überarbeitete und erweiterte Aussage in schriftlicher Form, abgegeben vor dem Select Committee on Energy Independence and Global Warming des Repräsentantenhauses. (26. April 2007)

http://arxiv.org/abs/0706.3720)

Ich spreche hier als privater Bürger, als Anwohner von Kintnerville, Pennsylvania, im Namen des Planeten, des Lebens auf der Erde einschließlich sämtlicher Spezies“. – James Hansen (November 2007). Direkte Aussage vor dem Staat Iowa vor dem Iowa Utilities Board

——————————-

Als Nächstes möchte ich kurz zusammenfassen, was wir bisher gemacht haben (siehe den an etwa 500 Personen gesendeten Cover-Beispielbrief – und ich stelle fest, dass wir nur wenige E-Mails als unzustellbar zurück bekamen – was bedeutet, dass unsere Erfolgsrate sehr hoch ist) sowie einige der Unterschriften.

Wir wollten keine Online-Petition nach Art einer Mustervorlage erstellen, wie es heute so populär ist und „einfach“gemacht werden kann – bitte stelle Sie das in Gegensatz zu dem, was unsere Kollegen mit direkt entgegen gesetzter Überzeugung unten getan haben (siehe die ANMERKUNGEN weiter unten).

Wir haben auch nur einen befristeten Zeitraum für die Unterschriftensammlung festgelegt – von Montag, 29. Januar bis 2. Februar oder so.

Grob geschätzt haben wir bereits ziemlich viele Wissenschaftler auf PhD- und MD-Niveau gewinnen können mit hohen Graden in Wissenschaft und Ingenieurswesen (ich habe nicht nachgezählt, falls Sie es tun, lassen Sie es mich bitte wissen! Aber ich bin sicher, dass es über 200 sind).

Es ist vielleicht relevant anzumerken, dass alle Unterschriften so angenommen werden, wie es den Wünschen der Unterzeichner entspricht, und ich habe bemerkt, dass sich einige gar nicht die Mühe gemacht haben, ihre PhDs oder auch nur professionelle Titel anzugeben wie z. B., dass man gewähltes Mitglied der US-Academy of Sciences ist: Warum? (Nun, sie sind möglicherweise empört, was mir einer der Wissenschaftler gesagt hat).

Auf der Liste der Unterzeichner finden sich auch einige wirklich herausragende Persönlichkeiten: zwei Nobelpreisträger (der Physiker Ivar Giaever und der Chemiker Kary Mullis), eine Persönlichkeit, die keinen PhD braucht (Prof. Freeman Dyson) sowie einige der besten Mathematiker unserer Zeit (Sergiu Klainerman and Chris Essex).

Schließlich möchte ich auch noch einige unserer echten Freunde hervorheben, vor allem Christopher Monckton of Brenchley, der nicht zum jetzigen Zeitpunkt unterschreiben kann, von dem wir aber wissen, dass er fest an unserer Seite steht.

Vielen Dank, und einen schönen Tag noch!

Willie – als privater Bürger und unabhängiger Wissenschaftler (der dies wirklich nicht gerne tut!)

Striche

Original-Cover-Letter zur Unterschriften-Aktion

Liebe Freunde und Kollegen,

ich heiße Willie Soon und arbeite mit Will Happer zusammen an diesem Brief.

Ich habe zwei Anhänge hinzugefügt:

1) der kurze Brief ist für Ihre Unterschriften gedacht, falls Sie dem Brief zustimmen

2) in der längere Hintergrund-Information geht es um die Gründe, warum wir uns zu dieser Unterschriftenaktion verpflichtet fühlen.

Ich hoffe, dass Sie Ihren guten Namen für diese weitere Unterschriftenaktion zur Verfügung stellen, zusammen mit ausgezeichneten Wissenschaftler und all jenen, die genug gesehen haben von der Hybris von Mann, Hansen und all ihrer üblen Kumpane … deren jüngste Bemühungen, die wir verurteilen, sind Folgende:

http://thenaturalhistorymuseum.org/open-letter-from-scientists-to-the-american-museum-of-natural-history/

Falls Sie unterschreiben wollen, schreiben Sie mir bitte, wie Sie am liebsten genannt werden wollen … Fügen Sie alle Titel und Erfahrungen hinzu, die Sie gelistet sehen wollen … (siehe die bisher gelisteten Beispiele).

Ich bitte Sie auch zu berücksichtigen, als ein Knotenpunkt zu fungieren und zusätzlich die fünf besten Namen Ihrer Kollegen zur Unterschrift einzuladen, welche Sie kennen und/oder mit Ihnen direkt arbeiten oder von der Leidenschaft erfüllt sind, Wissenschaft ordentlich zu betreiben, egal welche Schlussfolgerungen und Konsequenzen sich daraus ergeben …

Dann können wir ausmachen, wie weit unser Arm reicht …

(falls möglich, vermeiden Sie es bitte, unsere Feinde zu informieren).

Mein Ziel ist es, die Unterschriftensammlung zum 2. Februar zu beenden. (Anmerkung der Redaktion: Die Unterschriften werde noch angenommen)

Bitte helfen Sie uns in dieser höchst wichtigen Schlacht.

Willie

[Ende des Cover-Briefes]

——————————-

Hier einige Merkwürdigkeiten ihrer Unterschriftensammlung:

https://deref-web-02.de/mail/client/pDBBxDS2JnQ/dereferrer/?redirectUrl=http%3A%2F%2Fthenaturalhistorymuseum.org%2Fopen-letter-from-scientists-to-the-american-museum-of-natural-history%2F

(1)Wir fanden heraus, dass mindestens zwei Unterschriften auf deren Website jetzt von unseren Freunden stammen …

(a) 373 Douglas Pollock, Civil Industrial Engineer, Universidad de Chile, Santiago, Chile

(b)  381. Szymon Suckewer, Prof.Emeritus and Senior Scholar, School of Eng. and Appl. Science, Princeton University

Prof. Suckewer berichtete uns, dass sein Name durch Betrug dazu gekommen ist und ihre Petition nicht unterzeichnet hatte.

Douglas Pollock ist ein weiterer unserer Freunde, der irregeführt worden ist und zufällig unterzeichnet hatte. Inzwischen hat er die Entfernung seines Namens verlangt.

Dann gibt es da noch die Causa Dr. Wylie Boone:

(c) 387. Wylie Boone, PhD

der mich gerade auf ihren Algorithmus und ihr Verfahren aufmerksam macht – es stellt sich heraus, dass man alles listen kann, was man will, und ihnen sogar eine E-Mail-Adresse übermitteln – und doch wurde die E-Mail-Adresse von ihnen gekapert (ich bin sicher, es diente ihren Zwecken und würde später belohnt). Aber die E-Mail-Adressen wurden niemals verwendet, um nach irgendeiner Verifikation zu fragen … und der Name wurde einfach ohne Verifikation gelistet.

(Anmerkung: Ich habe keinerlei böse Absichten, ihre eigene Sammlung zu stören – mir geht es ausschließlich darum verständlich zu machen, was erforderlich ist, um auf deren Liste als „Wissenschaftler“ zu erscheinen).

Daher sagt mir dieser eine Fall, dass wir recht hatten, nicht mit irgendeiner Online-Petition aufzuwarten.

Es gibt noch zwei Merkwürdigkeiten auf ihrer Liste:

350. Professor, Center for Atmosphere Ocean Science/Courant, New York University 

374. Chair of Department of Geological Sciences, University at Buffalo, Buffalo, NY 

Alle unsere Unterschriften erhielten wir durch direkten E-Mail-Kontakt und die direkte Aufforderung, gelistet zu werden.[Übersetzt von Chris Frey]




Weil gegen den Klimawandel geklagt wird, ist er existent

Der Vorgang zeige, so der Ethiker, dass der Klimawandel existiere

Unwidersprochen durfte der „Ethiker“ den BR-Redakteuren erklären, dass etwas bewiesen sei, weil dagegen geklagt wird.
BR2 01.02.2018: [1] RWE wehrt sich gegen Klimaklage
Michael Reder, Professor für Unternehmensethik an der Hochschule für Philosophie in München, bewertet die Klage gegen RWE positiv. Der Vorgang zeige, so der Ethiker, dass der Klimawandel existiere und ein globales Problem sei … Das Recht könne dafür eines der Mittel sein, um Druck aufzubauen, so Reder, damit sich auf politischer Ebene in Deutschland und weltweit etwas bewege.

Man verliert jegliche Achtung vor der „Geisteswissenschaft“

Mit genau solcher Argumentation wurde auch der „wissenschaftliche Nachweis“ des Hexenunwesens über Jahrhunderte begründet: „Weil so viele Hexen*r gefunden und verbrannt werden, ist deren Existenz und schlimmer Einfluss belegt.
Der Ethiker und „Mini-Theologe“ muss sich fragen lassen, ob ihm als „Fachmann“ noch nicht aufgefallen ist, dass genau diese Methode die Lösung des damaligen Wissenschaftsproblems verhindert hat und erst Nichtfachleute (als man Kritik daran überleben konnte) den Argumentationsfehler publizierten (und diskutierten).

Anstatt dies zu unterstützen und die Problematik des immer neu publizierten „Klimakonsens“ [5] zu analysieren, der damit zusammenhängt, dass die „Klimakirche“ zwischenzeitlich ähnliche Mechanismen aufgebaut hat, fällt er einfach (und sicher bewusst) in scholastische Argumentation zurück. Die Auswirkungen zeigt nicht nur das Thema „Klimawandel“, sondern allgemein die zwischenzeitliche Behandlung wissenschaftlicher Expertisen in Deutschland:
EIKE 3. Februar 2018: Um Diesel ging es gar nicht
Wie hanebüchen theologische Argumentation sein kann, wurde in:
EIKE 18.04.2016: Kirche und Klimawandel Viel „Mensch“, viele Bibelsprüche, die Orientierung vom PIK, von kritischer Reflexion keine Spur:,
gezeigt. Ist etwas lange genug Meinung des „Mainstreams“, wird es automatisch zum göttlichen
„discretio spirituum“.
Kein Wunder, dass in der Theologie das Gleiche wie in der „Klimawissenschaft“ vor sich geht: Wissenschaftliche Kritik kommt nur (dann aber massiv) von emeritierten Theologie-Professoren.

Wohl nicht zufällig steht der Professor in engem Kontakt mit Herrn Edenhofer (PIK)

Sieht man bei diesem Professor nach, erfährt man, dass er ein Buch gemeinsam mit Herrn Edenhofer verfasst hat:
[3] Hrsg. zusammen mit Ottmar Edenhofer, Hermann Lotze-Campen und Johannes Wallacher: Global, aber gerecht, München: Beck, 2010.
Besagter Herr Edenhofer ist ein Verfechter und Verkünder der „großen Transformation“, welche aus ideologischen Gründen die Verarmung des Westens anstrebt und den „Klimaschutz“ als Mittel dafür verwendet.
FOCUS Nr. 50 (2010): [4] FORSCHUNG UND TECHNIK Unter Zweiflern Politiker haben Angst vor Wissenschaftlern, die die offiziellen Klimathesen infrage stellen.
Ottmar Edenhofer, forderte unlängst in einem erstaunlich freimütigen Interview mit der „Neuen Zürcher Zeitung“, man müsse sich „von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist“ und stattdessen klar sagen: „Wir verteilen durch die Klimapolitik de facto das Weltvermögen um.“-
Professor Reder gehört damit zu der „Intelligenz“, welche dafür die „wissenschaftliche Belegführung“ nach mittelalterlichen Methoden liefert (und öffentlich hofiert wird).

BR-Berichterstattung: Einseitig ist untertrieben

Der BR (nach rein persönlicher Meinung des Autors inzwischen ein GEZ-Zwangsgebühren-bezahlter GRÜNER Parteisender) belegt damit ebenfalls, wie wenig ihm an ausgewogener Information gelegen ist. Im ganzen Artikel findet sich kein Hinweis, wie strittig die „Fakten“ wirklich sind. Dass RWE auch mit sachlicher Argumentation gegen die Klage angeht, wird verschwiegen und es so dargestellt, als möchte RWE trotz „unwiderlegbarer Beweisführung“ gegenüber dem „armen Bauern“ alleine seine Macht ausspielen:
BR2 [1]: … Bei RWE geht man davon aus, dass es nach der Rechtsordnung nicht vorgesehen ist, dass einzelne Emittenten für ein so globales und durch vielfältige Quellen verursachtes Thema wie Klimawandel haftbar gemacht werden müssen ...
Schon gar nicht wird erwähnt, dass der Bauer im ausgewiesenen Flutgebiet des Gletschersees siedelt und dieser Gletschersee schon vor dem „schlimmen Klimawandel“ im Jahr 1941 mit einer tödlichen Flutwelle (damals 5.000 Todesopfer, heute ist dieser Bereich wesentlich dichter besiedelt) das Tal überschwemmte. Wer neutralere Hintergrundinformation erfahren möchte, muss sich diese selbst suchen (und wird dann schnell fündig):
[2] EIKE 23. Dezember 2017: Und ist es Wahnsinn, so bekommt er zunehmend Methode. Zur Klage: Armer, peruanischer Bauer gegen RWE (Teil 2)
EIKE 23. Dezember 2017: Und ist es Wahnsinn, so bekommt er zunehmend Methode. Zur Klage: Armer, peruanischer Bauer gegen RWE (Teil 1)

BR-Linktips

In der BR-Info sind Links zu „Zusatzinformationen“ hinterlegt.
BR2: [1] Linktips zum Thema
-Warum ein Anden-Bauer RWE verklagt: tagesschau.de vom 24.11.16:
Zum Artikel
-Umweltprobleme vor Gericht: Wie man Klimaschutz einklagen kann: deutschlandfunkkultur.de vom 06.11.17:
Zum Artikel
-Urgenda-Klage: Gericht verurteilt Niederlande zu mehr Klimaschutz: dw.com vom 25.06.15, Deutsche Welle:
Zum Artikel
-KlimaSeniorinnen in der Schweiz reichen Klage ein: srf.ch vom 26.10.16, Schweizer Radio und Fernsehen:
Zum Artikel

Diese Verlinkungen hätten zum Beispiel auf der für konsequente Tendenzberichterstattung oft erwähnten KLIMARETTER.INFO-Homepage nicht einseitiger stehen können. Der Bürger soll nur nicht auf kritische Seiten gelangen und zum Nachdenken angeregt werden. Auch scheinen diese Links die (vorwiegende) Informationsquellen des BR-Redaktionsduos zu sein.

Deshalb „alternative“ Linktips vom Autor:
Zum RWE-Prozess:
[2] EIKE 23. Dezember 2017: Und ist es Wahnsinn, so bekommt er zunehmend Methode. Zur Klage: Armer, peruanischer Bauer gegen RWE (Teil 2)
EIKE 23. Dezember 2017: Und ist es Wahnsinn, so bekommt er zunehmend Methode. Zur Klage: Armer, peruanischer Bauer gegen RWE (Teil 1)
Zu: Umweltprobleme vor Gericht:
EIKE 15.06.2016: Staaten für mehr Klimaschutz verklagen ist cool
Zu den „Klimaseniorinnen“:
EIKE 08.10.2016: 150 Klimaseniorinnen verklagen die Schweiz wegen 0,00137 Grad – unterstützt von Greenpeace und den Schweizer Grünen…
EIKE 07.06.2017: Wollen die Klimaseniorinnen in der Schweiz für fahrlässiges Töten verantwortlich werden?
Zur im BR-Artikel erwähnten „Kivalina“-Klage:
kaltesonne 27. Oktober 2015: … In der Welt scheint man kurz vor dem Pariser Kimagipfel die tollen Klimaalarmwochen zu zelebrieren. Am 31. August 2015 lies man es kräftig gruseln: Sie sind dem Untergang geweiht
EIKE 26.08.2016: Ein Inuit-Inseldorf in Alaska beschloss aus Furcht vor dem Klimawandel aufs Festland zu ziehen – sofern es andere bezahlen

Quellen

[1] BR2 01.02.2018: RWE wehrt sich gegen Klimaklage

[2] EIKE 23. Dezember 2017: Und ist es Wahnsinn, so bekommt er zunehmend Methode. Zur Klage: Armer, peruanischer Bauer gegen RWE (Teil 2)

EIKE 23. Dezember 2017: Und ist es Wahnsinn, so bekommt er zunehmend Methode. Zur Klage: Armer, peruanischer Bauer gegen RWE (Teil 1)

[3] BR Alpha: Philosoph Reder, Michael

[4] FOCUS Nr. 50 (2010): FORSCHUNG UND TECHNIK Unter Zweiflern

[5] EIKE 01.01.2017: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann




Die EPA soll von einer Klimaschutzbehörde zu einer Umweltschutzbehörde umgewandelt werden

Alle Bilder auf dieser Seite von: https://www.epa.gov/uss-lead-superfund-site/uss-lead-photo-gallery

Die EPA verlangt von USS Lead, Atlantic Richfield, DuPont, Chemours und anderen Verursachern, kontaminierte Böden in zwei Gebieten von Ost Chicago mit hohem Gehalt an giftigen Substanzen zu sanieren. Die Unternehmen werden wahrscheinlich fast 26 Millionen Dollar für die Dekontaminierung in beiden Gebieten zahlen.

„Wir werden East-Chicago weiterhin als Priorität behandeln, um die Gesundheit und das Wohlergehen der in den betroffenen Gebieten lebenden Bewohner zu schützen“,

so EPA-Chef Scott Pruitt in einer Presseerklärung am 18.12.2017. Die Bemühungen wurden von Pruitt Anfang dieses Jahres versprochen, dass der Entschädigungsfonds für Umweltschäden von East Chicago eine Priorität für die EPA werden würde.

„Es ist von größter Bedeutung für die Gemeinden im ganzen Land, diese Gebiete zu reinigen und zu revitalisieren. Ich habe die Task Force für Umweltschäden beauftragt, sofort und intensiv Pläne für jeden dieser Standorte zu entwickeln, und sicherzustellen, dass sie mit Nachdruck und mit Fürsorglichkeit ausgeführt werden“.

Pruitt bezog sich speziell auf eine kleine Gemeinde, in der Beamte im vergangenen Sommer einige Höfe gefunden hatten, deren Bleipegel mehr als das 70-fache des Sicherheitsstandards des Bundes betrug. Man begann, Bürger aus dem Wohngebiet West Calumet Housing Complex zu evakuieren, es blieben jedoch noch fast 50 Menschen in der Wohnanlage.

EPA- Arbeiter sammeln Staubproben aus Wohnungen

Die Firma United States Steel Corporation [Metallbearbeitung, Oberflächenbehandlung für die Lebensmittelindustrie] hat nun schon länger ihre Bleiproduktion aufgegeben. Es wurde entdeckt, dass Gebiete in der Stadt von einer Kontaminierung betroffen waren. Um die giftigen Hinterlassenschaften ordnungsgemäß zu beseitigen, wurde East Chicago in 2009 von der EPA als priorisiertes Umweltschäden-Beseitigungsgebiet ausgewiesen.

 

1700 Einwohner von Flint, Michigan klagen gegen EPA wegen der Wasserkrise

Auch andere Gebiete in dieser Region haben mit hartnäckig hohen Bleiwerten zu kämpfen. Die Beschuldigten haben eine Zivilklage in Höhe von 722 Millionen Dollar Schadensersatz zu erwarten.

Die Angelegenheit zieht sich bereits seit einer Weile hin. Die Wasserversorgung wurde in 2014 unter der Kontrolle eines staatlichen Managers vom Huron See auf das Wasser aus dem Flint River umgestellt. Das korrosivere Flusswasser führte dazu, dass Blei aus den alten Blei-Wasserleitungen ausgelaugt wurde und damit mit dem Trinkwasser verteilt wurde. Die Wasserkrise brach aus, als Tests im Jahr 2015 hohe Bleigehalte in Blutproben von Kindern in Flint, einer Stadt mit etwa 100.000 Einwohnern, festgestellt wurden.

Die Stadt wechselte im Oktober 2015 wieder zur vorherigen Wasserquelle.

Anfang 2016 wurde dann vor dem US-Bezirksgericht in Michigan eine Klage gegen die EPA eingereicht.

„Dieser Fall beinhaltet große Fehler auf allen Regierungsebenen beim Schutz der Gesundheit und Sicherheit der Öffentlichkeit“, lautet die 30-seitige Klageschrift.
„Lokale und bundesstaatliche Behörden und Mitarbeiter, die individuell und zeitweise miteinander daran arbeiten sollten, haben diese Umweltkatastrophe schlecht gemanagt.“

Erschienen auf The Daily Caller am 19.12.2017

Übersetzt durch Andreas Demmig

http://dailycaller.com/2017/12/19/trumps-epa-orders-companies-to-spend-big-bucks-cleaning-toxic-waste-sites/




Moskau erlebt einen absoluten Rekordschneefall und der Monat hat gerade erst begonnen.

Als Folge der Katastrophe sind Dutzende von Bäumen in der Stadt unter der Schnee- und Eislast abgebrochen, der öffentliche Verkehr wurde unterbrochen, zahlreiche Flüge wurden verspätet, abgesagt oder auf andere Flughäfen umgeleitet.

Newsru.com, Schneefallrekord in Moskau

Quelle: https://msk.newsru.com/article/03feb2018/snowy.html

-> nach unten scrollen, weitere Bilder sind zu sehen

 

„Interfax“, das Wetteramt für Moskau und Umgebung informiert:

„Der aktuelle Schneefall brachte die maximale Niederschlagsmenge in der Geschichte der meteorologischen Beobachtungen. Das frühere Maximum wurde 1957 registriert, als 11,2 mm Niederschlag Wasser- Äquivalent fielen“, präzisierte der Sprecher des Wetteramtes.

Nach der Prognose des Hydrometeorologischen Zentrums in Moskau wird sich die Intensität des Schneefalles am Montag Abend verringern, aber der intensive Wind bläst am ersten Tag der neuen Arbeitswoche noch mit bis zu 55 km/h, berichtet TASS. In der Hauptstadt wurde der  Gefährdungsgrad „orange“ erklärt, was darauf hinweist , dass in der Region wetterbedingte Gefahren erwartet werden, welche die Funktionsfähigkeit von Branchen, Wirtschaftseinheiten einschränken können und gefährlich für die Öffentlichkeit sind.

Die Temperatur wird auf minus 11-13 Grad absinken, Schneeverwehungen werden erwartet  und vereiste Straßen. Am Nachmittag ist es bewölkt mit Aufhellungen, ein wenig Schnee. Die Prognosen erwarten einen starken Nordwind bis zum Ende des Tages.

 

Mehr als 60.000 Menschen in Zentralrußland von Stromausfällen betroffen

Mehr als 60.000 Menschen von Stromausfall betroffen.

Quelle: http://www.newsru.com/russia/04feb2018/snegopad.html

In sechs Regionen von Zentralrußland waren etwa 60 Tausend Menschen am Sonntag, dem 4. Februar, ohne Licht infolge von Ausfällen, die durch einen starken Schneefall verursacht sind. Teilweise gab es auch Probleme mit der Wasserversorgung.

Nach heutigen Angaben des Ministeriums für Energie , werden in den sechs Regionen – Smolensk, Moskau, Kaluga, Vladimir, Bryansk und Tula – Reparaturarbeiten durchgeführt. Aufgrund des schlechten Wetters werden Abschaltungen in den 35-110 kV-Stromnetzen sowie in den Verteilungsnetzen von 6-10 kV auftreten.

„Am 4. Februar um 18 Uhr verbleiben etwa 59 100 Menschen (168,76 MW) ohne Elektrizität im Zentralföderalen Bezirk“, berichtete die Webseite des Ministeriums. Etwas früher wurde berichtet, dass ab 16.00 Uhr 61.900 Menschen ohne Licht waren. Die Energieversorgungsunternhemen führen die Notfallrettungsarbeiten fort, die Anzahl der Reparaturteams wurde erhöht, die Organisation von Notstromversorgungen für sozial bedeutende Einrichtungen wird fortgesetzt. Damit konnten die Anzahl der von den Notstromaggregaten versorgten Objekte, signifikant erhöht werden.“

* * *

Impressionen aus der Stadt Moskau

Rekordschneefall in Moskau

Siehe Quelle für alle Bilder: http://www.interfax.ru/photo/3730/38458,

 

Recherchiert und zusammengestellt von Andreas Demmig