1

PIK-Forscher wollen Antarktis beschneien!

Von  

Mit einer bahnbrechenden Idee wollen Klimaforscher vom Potsdam-Institut für Klimafolgenforschung (PIK) die Antarktis und insbesondere die Westantarktis vor dem Abtauen retten.

Eine durch künstliche Beschneiung gewonnene riesige Menge an Schnee könne den Eisschild zurück in Richtung Stabilität drücken, berichtete das Potsdam-Institut für Klimafolgenforschung. Dafür müssten aber mehrere hundert Milliarden Tonnen Wasser pro Jahr über einige Jahrzehnte hinweg auf das Eis geschneit werden.

Nach Einschätzung der Klimaforscher droht der westantarktische Eisschild auf lange Sicht ins Meer zu rutschen. Das würde den Meeresspiegel weltweit um mehr als drei Meter ansteigen lassen. Damit würden Metropolen von New York über Shanghai bis nach Hamburg langfristig unterhalb des Meeresspiegels liegen, erklärte Anders Levermann, Physiker am Potsdam-Institut. Kürzlich erst hatte Levermann bei einer Anhörung vor dem Bundestag zum Klimawandel behauptet, dass das CO2-Molekül gewinkelt sei und nicht linaer. Zudem hatte er die vorindustrielle Temperatur mit 15°C angeben, sie liegt heute aber bei 14,7°C.

Mit Billionen Tonnen an zusätzlichem Schnee könnten die Gletscher nach Einschätzung der Forscher vom PIK gerettet werden. Das Vorhaben skizzieren die Forscher um Anders Levermann vom Potsdam-Institut für Klimafolgenforschung (PIK) im Fachblatt „Science Advances“.

Levermann erklärt, im Kern gehe es „um die Abwägung, ob wir als Menschheit die Antarktis opfern wollen, um die heute bewohnten Küstenregionen und das dort entstandene und entstehende Kulturerbe zu retten“. Der westantarktische Eisschild sei das erste Kippelement im Klimasystem, das die Menschheit gerade kippen sehe. Man könnte ihn mit entsalztem Meerwasser künstlich beschneien und damit beschweren – auf einer Fläche größer als Costa Rica.

Die nach einer Computersimulation mögliche Rettung durch die massive Beschneiung sei allerdings ein beispielloser Eingriff in die Natur. Das Hochpumpen, das Entsalzen und die Erwärmung des Meerwassers sowie das Betreiben der Schneekanonen würden eine Strommenge in der Größenordnung von mehreren zehntausend Highend-Windturbinen erfordern, erklärte Johannes Feldmann, Ko-Autor der Studie.

„Einen solchen Windpark inklusive der dafür nötigen Infrastruktur in der Amundsensee zu errichten und derartige enorme Mengen an Meerwasser zu entnehmen, würde im Wesentlichen den Verlust eines einzigartigen Naturreservates bedeuten.“

In der deutschen Fachwelt stößt die Veröffentlichung auf Vorbehalte: Experten verschiedener deutscher Forschungseinrichtungen wollen sie nicht kommentieren.

Die Kanzlerin hatte erst kürzlich das PIK besucht und sich dort über die Notwendigkeit einer CO2-Steuer zur Rettung des Klimas beraten lassen. Ex-Klimaberater von Merkel war HJ Schellnhuber, der bis zum letzten Jahr Chef des PIK war und heute in der Kohlekomission der Bundesregierung sitzt.

VIDEO von Michael Krüger; Tagesschau: „Es klingt wahnwitzig, was dieser Klimaforscher aus Potsdam errechnet hat, läßt nicht nur die Fachwelt aufhorchen.“

 

 

 




»Das E-Auto nützt nur der Automobilindustrie, aber nicht den Kunden!«

Jörg Wellnitz ist Professor an der Technischen Hochschule Ingolstadt und Inhaber einer Professur in Melbourne. Er fährt selbst ein Elektro-Auto. Wellnitz hat sich akribisch mit allen Aspekten der E-Mobilität auseinandergesetzt. Sein Fazit: Sie werde nie so kommen, wie von Industrie und Politik prognostiziert. Für ihn ist das Ganze ein Alibikrieg, nichts anderes. Der Kunde ist dabei Nebensache.

Manchmal ist es durchaus der Mühe wert, stundenlang das Netz zu durchstöbern. Dann stößt man auf einen schon einige Monate alten Beitrag von Prof. Jörg Wellnitz, über den das Portal ›Ingoldstadt-Today.de‹ berichtete, ein weithin unbekannter Digitalableger des ›Donaukuriers‹. Es ist ein hochinteressanter Artikel, der im Diskurs um das E-Auto bisher untergegangen ist.

»In der Volksmeinung ist die E-Mobilität eine tolle Sache«, sagt der eloquente Professor, »aber sie macht überhaupt keinen Sinn, wenn man sich alle Aspekte des Themas einmal vor Augen führt.«

In der Tat gibt es nicht einen Aspekt, für den Wellnitz nicht ernüchternde Zahlenwerke parat hätte, erstaunliche Untersuchungen zitieren kann oder schlicht mit gesundem Menschenverstand eins und eins zusammenzählt.

Autoverkehr nur für 16 Prozent der CO2-Emissionen verantwortlich

Im Zentrum der Betrachtung steht selbstredend der von den E-Auto-Enthusiasten behauptete umweltpolitische Nutzen. Professor Wellnitz macht eine ernüchternde Rechnung auf:

Für gerade einmal 16 Prozent des angeblich klimaschädlichen Kohlendioxidausstoßes ist der Autoverkehr verantwortlich. »Belastender ist da ja schon die Massentierhaltung und die landwirtschaftliche Monostruktur« – von den großen Containerschiffen, den Kreuzfahrtlinern auf den Weltmeeren und dem Flugverkehr ganz zu schweigen.

Für eine Batterie kann man acht Jahre mit Verbrennungsmotor fahren

Aber selbst ohne Berücksichtigung dieser CO2-Schleudern wäre das E-Auto für die Verbesserung der Umweltbilanz nach Meinung von Wellnitz vollkommen wertlos. »Bis die Batterie für Tesla beispielsweise gebaut ist, könnte man acht Jahre lang mit einem Verbrennungsmotor fahren, um die gleiche Umweltbelastung zu erzielen«, so Wellnitz. Er führt das Narrativ von der Zero-Emission des E-Autos ad absurdum und macht in einem Atemzug dem Märchen vom billigen Fahren mit Strom den Garaus.

E-Auto hat nach acht Jahren nur noch Schrottwert

Denn laut Wellnitz ist es eine Frage der Zeit, bis der Strom zum Aufladen der Batterien – der zudem in der Hauptsache alles andere als sauber produziert wird – ebenso besteuert wird wie Benzin oder Diesel. Und dann lägen die Kosten für einen E-Flitzer bei rund 800 Euro pro Monat. Und der hat ob der möglichen Ladezyklen eines Akkus in acht Jahren nur noch Schrottwert.

Und das alles weiß die Autoindustrie nicht?

»Alle wissen es«, sagt Jörg Wellnitz, »aber es geht weder um die Umwelt noch um die Kunden.« Der Grund, warum Hersteller wie Audi, BMW, VW und andere derzeit Milliarden in die neue Technologie investieren, liege ganz woanders.

Wellnitz: »Zum einen lassen sich Milliarden an EU-Fördergeldern kassieren. Daneben bewahren E-Autos die großen Hersteller vor Strafzahlungen wegen Nichterreichens der europäischen Klimavorgaben, da sie mit angeblichen Zero-Emissionsmodellen den Flottenmix nach unten drücken. Es geht selbstredend auch um das Markenimage, um ein grünes Mäntelchen und um Technologiekontrolle.« Man baue die E-Autos im Wissen, dass sie alles andere als die automobile Zukunft seien. »Es zu machen ist billiger, als es nicht zu machen«, habe ihm ein Automanager gesagt, »es ist sinnlos, aber es kostet weniger.«

Den Herstellern geht es nur um mehr Absatz

Und – so ganz nebenbei – es geht natürlich darum, noch mehr Autos zu verkaufen. 1,6 Milliarden Fahrzeuge gibt es heute bereits weltweit. 80 Millionen werden pro Jahr produziert. Das seien ebenso viele, wie Kinder auf dieser Welt neu geboren werden. E-Autos sind für die Hersteller kein Ersatz für Verbrenner, sondern ein Zusatzgeschäft, um als Zweit- oder Drittfahrzeug noch mehr Autos an den Mann zu bringen.

Die Kinder Afrikas lassen grüßen

Doch dieses Zusatzgeschäft, so Wellnitz, stoße an seine Grenzen, wenn es um die benötigten Rohstoffe für den Bau von Akkus gehe, deren Abbau in Chile (Lithium) und Zentralafrika (Kobalt) nicht nur extrem umweltunverträglich ist und in weiten Teilen mit unvertretbarer Kinderarbeit einhergeht. Wellnitz: »Würde Audi den A4 in großer Serie rein elektrisch bauen, müssten sie den halben Weltmarkt an Kobalt leerkaufen.«

Bei VW habe man so eine Rechnung schon einmal vorsorglich aufgemacht und sei zu dem Ergebnis gekommen, dass der Konzern für seine Produktion von E-Autos rund 130.000 Tonnen Kobalt benötigen würde. Die Weltproduktion indes liegt derzeit bei 123.000 Tonnen. Die Kinder Afrikas grüßen die VW-Kunden an dieser Stelle auf das Allerherzlichste!

7,5 Kilo weniger Gesamtgewicht, besseres Klima

Für Wellnitz ist der Dieselmotor nach wie vor der sauberste und umweltfreundlichste Antrieb. Der Ingolstädter Professor macht noch eine andere bemerkenswerte Rechnung auf. Abgesehen davon, dass ein Auto-Akku rund 100 Wattstunden Leistung pro Kilogramm Gewicht liefert (Benzin 12.000 Wattstunden und Wasserstoff, für Wellnitz der Treibstoff der Zukunft, 33.000 Wattstunden), ließen sich die Klimaziele heute schon ganz leicht erreichen. Und zwar so:

Würde jeder Autofahrer auf unnötig mitgeführten Ballast von durchschnittlich 7,5 Kilogramm verzichten, dann »hätten wir die europäischen Klimaziele schon in Sichtweite«.

Die Zukunft heißt Wasserstoff

Und würde man eine aufrichtige Ökobilanz aufmachen, basierend auf Preis, Bauraum und Leistung, dann »kommt hinten der Ottomotor heraus oder ein kleiner Diesel«, sagt Jörg Wellnitz, der im Übrigen auf eine ganz andere Zukunftstechnologie setzt, die zu verschlafen die deutschen Autobauer aufgrund der politischen E-Vorgaben gerade dabei sind: »Das Wasserstoffauto wird ganz sicher kommen.« (hh)

Der Beitrag erschien zuerst beim Deutschland-Kurier hier




Der nächste Klima-Mythos fällt: Es gibt keinen 97%-Konsens zum menschengemachten Klimawandel

„Oft wird behauptet, es gäbe große Uneinigkeit darüber, ob der Klimawandel stattfindet und ob er auch menschengemacht ist. Das ist falsch. Das Team des Kognitionspsychologen John Cook wertete knapp 12.000 Studien zum Thema globale Erwärmung aus: 97 Prozent derjenigen, die sich zum Klimawandel positionierten, waren sich einig, dass der Klimawandel auch menschengemacht ist (Environmental Research Letters: Cook et al., 2013). Es sind Lobbygruppen der fossilen Industrie, die seit Jahrzehnten bewusst Zweifel an diesem wissenschaftlichen Konsens streuen.“

Das Zitat stammt aus „10 Fakten zum Klimawandel, die man sich merken kann“, ein Text, den Michael Lindner und Antonia Schuster zum „Wissen“ der ZEIT zusammengeschustert haben.

Wo die ZEIT voranprescht, kann der Spiegel nicht am Wegrand stehen:

„Und sie betonen andererseits, dass sich die Wissenschaft auf gewisse Kernaussagen geeinigt hat: Zum Beispiel, dass es den Klimawandel gibt. Dass der Klimawandel eine Bedrohung ist, aber durch entschiedenes Handeln zumindest abgemildert werden könnte. Darüber, dass der Mensch einen entscheidenden Einfluss hat, gibt es sogar einen 97-prozentigen Konsens der Forscher.“

Das schreibt Christopher Schrader in seiner Klima-Dystopie für den Spiegel.

Um das Dreigestirn der linken Systempresse mit ihrem englischen Counterpart zu vervollständigen: Auch für den Guardian ist der Konsens der Klimaforscher eine ausgemachte Sache:

“There is actually a 97% expert consensus among climate scientists that humans are responsible for global warming…”

 

Das Problem: Es gibt keinen 97%-Konsens unter Wissenschaftlern darüber, dass der Klimawandel von Menschen zu verantworten ist.

Wir haben schon vor einiger Zeit über die seltsame Idee geschrieben, auf die ohnehin nur Ideologen kommen können, man würde Wissenschaft per Konsens entscheiden: Wenn die Mehrheit der Ansicht ist, die Erde dreht sich ab sofort nicht mehr Richtung Osten sondern, sagen wir, Richtung Süden, dann ist das eben Konsens, ungeachtet der Fakten.

Nein, so funktioniert Wissenschaft nicht. Eine Idee, die gegen das gebürstet ist, was die Mehrheit der Forscher für richtig hält, eine Idee, die in empirischer Prüfung bestätigt wird und durch diese Bestätigung alles beseitigt, was die Mehrheit der Wissenschaftler bislang geglaubt hat, reicht, um wissenschaftlichen Fortschritt zu erzielen.

Konsens, im Gegenteil, ist eher hinderlich. Konsens macht larmoyant, träge und führt dazu, dass man sich in der Gegenwart einrichtet. Konsens, die Behauptung, es gebe einen Konsens, sie hilft in der Regel nur den Ideologen, die einen angeblichen Konsens benutzen wollen, um ihre Ziele zu befördern, wie dies die Klimaalarmisten, die immer mehr zur Klima-Mafia werden, derzeit tun.

Die Geschichte der 97%-Konsens-Behauptung beginnt im Jahre 2004 mit einem Beitrag von Oreskes, der so unterirdisch schlecht ist, dass wir ihn hier nicht berücksichtigen wollen und auch nicht müssen, denn zwischenzeitlich haben John Cook und unterschiedliche Co-Autoren versucht, in mehreren Studien die Existenz eines Konsenses darüber, dass Klimawandel menschengemacht ist, nachzuweisen. Offenkundig kann man eine Forschungsfrage, die nach „Konsens“ sucht, nicht mit der Methode der Wissenschaft in Einklang bringen. Wir bewegen uns hier im Feld der Forscher, die vom öffentlichen Förderungskuchen auch ein paar Euros oder Australische Dollars abhaben wollen und als Gegenleistung ideologisch Verwertbares liefern.

Cook et al. haben in ihrer letzten „Studie“ aus dem Jahre 2013 besonders gut Verwertbares geliefert, Verwertbares, das über die Zahlen wirken soll. 12.465 wissenschaftliche Beiträge in Zeitschriften haben die Autoren gesammelt, vielleicht auch 12.876 oder 13.458. So genau wissen das die Autoren offensichtlich nicht. Und weil sie es nicht genau wissen, verbreiten sie in ihren „supplementary materials“ andere Daten als in ihrem Artikel. Wie dem auch sei, irgendwie sind 11.944 Abstracts zu wissenschaftlichen Texten übriggeblieben, die die Autoren dann in einem „citizen science project“, das leider nur die Unterstützung von 24 Bürgern gefunden hat, durch eben diese Bürger haben klassifizieren lassen. Den 24 anonymen Freiwilligen wurden Kategorien vorgegeben, nach denen sie die Abstracts von wissenschaftlichen Texten klassifizieren sollten, in der Hoffnung, dass Autoren in ihrem Abstract beschreiben, was sie tatsächlich auch manchen und in der Hoffnung, dass die Bürgerforscher auch verstehen, was beschrieben wird.

Das kann man tun, wenn man Sorge trägt, dass die Bürger, die sich melden, keine Selbstselektion überzeugter Klimawandel-Jünger darstellen, die überall menschengemachten Klimawandel sehen und hineinlesen und wenn man sicherstellt, dass die Kriterien, nach denen Texte klassifiziert werden, eindeutig sind und in mindestens zwei Kontrollgängen auf ihre Reliabilität geprüft werden. Ob Cook et al. das getan haben? Wer weiß? Sie machen dazu keinerlei Angabe, was den Verdacht nahelegt, die angesprochene methodische Problematik sei ihnen gar nicht bewusst. Dafür, dass die Ergebnisse von Cook et al. nicht wirklich das sind, was man als Speerspitze der methodischen Akkuratheit beschreiben würde, spricht auch die Tatsache, dass 12 einsame Gestalten, sorry: Bürger, anonyme Bürger, für die Klassifizierung von 23.061 Abstracts verantwortlich sind, während es weitere 12 Bürger auf gerade einmal 607 Abstracts gebracht haben. Die Zahl der Abstracts ergibt sich aus der Doppelklassifizierung, jedes Abstract wurde zwei freiwilligen Bewertern vorgelegt. Addiert man die beiden Zahlen und dividiert durch 2, dann ergeben sich 11.835 Abstracts, abermals eine andere Zahl und abermals ein Grund, daran zu zweifeln, dass die Studie von Cook et al. auch nur annähern den Kriterien von Validität und Reliabilität gerecht wird.

Man kann also weder ausschließen, dass die 24 Freiwilligen, die die 11.835 Abstracts, die die aktuelle Grundlage des Beitrags bilden, eine Gruppe von Klimawandeljüngern darstellen, die alles andere als objektiv bei der Einordnung der Beiträge vorgehen, noch kann man ausschließen, dass die vorgegebenen Kategorien von den 24 freiwilligen Beurteilern unterschiedlich verwendet werden.

Dafür, dass Klimawandeljünger an der Auswertung beteiligt waren, spricht die Tatsache, dass sich einige Autoren, die überprüft haben, wie ihre Texte eingeordnet wurden, über eine Fehlklassifikation ihrer Arbeiten geärgert haben. Dafür, dass die freiwilligen Beurteiler die Kriterien, die ihnen vorgegeben wurden, al Gusto und nicht einheitlich angewendet haben, spricht die sehr hohe Zahl von konfligierenden Einordnungen. So gab es bei der Frage, ob ein Abstract eine Befürwortung eines menschengemachten Klimawandels enthält ein Drittel widerstreitender Bewertungen. Man sollte denken, die entsprechende Frage ist einfach zu beantworten. War sie aber offensichtlich nicht, was ein weiterer Hinweis auf Klimawandeljünger ist.

Schließlich haben sich eine Reihe von Wissenschaftlern, deren Arbeiten von Cook et al. berücksichtigt wurden, über die Nichtnachvollziehbarkeit der Auswahlkriterien irritiert gezeigt. Dr. Richard Tol und Dr. Craig Idso zum Beispiel. Tol findet es nicht nachvollziehbar, dass von 122 Beiträgen, die er im von Cook et al. untersuchten Zeitraum veröffentlicht hat, 10 ausgewählt wurden und ärgerlich, dass 5 der 10 ausgewählten Arbeiten falsch klassifiziert wurden, natürlich als Beiträge, die den menschengemachten Klimawandel stützen, nicht als solche, die ihn in Frage stellen, was die Beiträge von Tol tatsächlich tun.



Die bisherige Aufarbeitung der Studie von Cook et al. gleicht einer Auflistung der methodischen Fehler, die man vermeiden sollte, wenn man valide und reliable Ergebnisse produzieren will:

Die Auswahl der Arbeiten, die von Cook et al. berücksichtigt wurden, ist nicht nachvollziehbar und scheint mehr oder weniger willkürlich.

Für die freiwilligen Bewerter wurde nicht sichergestellt, dass keine Selbstrekrutierung von Personen erfolgt, die ein Interesse an der Verbreitung des Mythos vom menschengemachten Klimawandel haben.

Den freiwilligen Bewertern der Abstracts wurden keine Kriterien vorgegeben, die die Wahrscheinlichkeit abweichender Einordnung desselben Abstracts minimieren.

Die Einschätzungen der freiwilligen Bewerter wurden nur in Fällen, in denen zwischen den zwei Bewertern, die dasselbe Abstract einordnen sollten, Differenzen aufgetreten sind, geprüft, in allen anderen Fällen nicht.

Mit anderen Worten: Die Wahrscheinlichkeit einer Fehlklassifizierung wurde maximiert.

Und weil alles noch nicht ausreicht, wenden Cook et al. in ihrer Auswertung der verzerrten Ergebnisse noch einen Taschenspielertrick an. Die nunmehr 11.944 Arbeiten, die von 1991 bis 2011 veröffentlicht wurden und sich mit Klimawandel befassen, werden aufgrund ihrer Abstracts wie folgt klassifiziert:

64 Beiträge werden als Beiträge eingeordnet, die von ihren Autoren als klarer Beleg eines menschengemachten Klimawandels bewertet werden. Eine nachträgliche Prüfung durch Craig Idso hat 23 der 64 Beiträge als Fehlklassifizierung ausgewiesen.

In 922 Beiträgen haben die Autoren von einem menschlichen Beitrag zum Klimawandel geschrieben, den Beitrag aber nicht quantifiziert.

In 2.910 Beiträgen findet sich eine „implizite“ Bestätigung für den menschengemachten Klimawandel, wobei die Bestätigung zuweilen so implizit ist, dass man sich fragt, ob den Autoren, die in diese Kategorie fallen, nicht reihenweise Gewalt angetan wird.

In 7.930 Beiträgen findet sich keinerlei Referenz zum menschengemachten Klimawandel

In 40 Beiträgen bringt der Autor seine Zweifel am menschengemachten Klimawandel zum Ausdruck.

In 54 Beiträgen wird die Idee eines menschengemachten Klimawandels implizit zurückgewiesen, in 24 explizit.

Um die 97% Zustimmung errechnen zu können, schließen Cook et al. die 7.930 Beiträge, in denen keinerlei Referenz zum Einfluss von Menschen auf den Klimawandel vorkommt, komplett aus. 66,4% der Beiträge sind somit belanglos. Die verbleibenden 4.014 Beiträge werden in zwei Gruppen zusammengefasst: 3.896 Beiträge sind für die Autoren pro-menschengemachter Klimawandel, 118 contra. 3.896/40,14 = 97,06%. Tatsächlich sind 32,6% aller bewerteten Abstracts als pro-menschengemachter Klimawandel eingeordnet und nicht 97,06%.

Hinzu kommt, dass man die Einordnung, die Cook et al. vornehmen, nicht unterschreiben muss. Tatsächlich fallen 64, nach Korrektur 41 Arbeiten in die Klasse von Arbeiten, die einen menschengemachten Klimawandel explizit bejahen und quantifizieren, alle anderen Arbeiten fallen nicht in diese Klasse. Ergo ist der wissenschaftliche Konsens, der für die Klimaalarmisten so wichtig ist, gerade auf 1,6 bzw. 0,5% eingeschrumpft. David Henderson hat dieses Argument gemacht. Alex Epstein macht auf seinem Blog ein ähnliches Argument und zeigt zudem, wie die falschen Zahlen, die Cook et al. liefern von Politikern sofort genutzt werden, um ihre Agenda zu befördern.

Institutionalisierte Akademiker und Politiker arbeiten hier, wie es scheint, Hand in Hand.

Zwei sehr gute Kritiken am Beitrag von Cook et al. hat Robert S. J. Tol verfasst: „Comment on Quantifying the Consensus on Anthropogenic Global Warming in the Scientific Literature“ (Environmental Research Letters, 11, 2016) und Quantifying the Consensus on Anthropogenic Global Warming in the Literature: a Re-Analysis. Energy Policy 73(2014): 701-705.

Die Behauptung, 97% der Wissenschaftler, die sich zum Klimawandel äußern, würden die Idee eines menschengemachten Klimawandels unterstützen, ist somit eine Falschbehauptung, die einmal mehr der internen Qualitätskontrolle der Qualitätsmedien entschlüpft ist – oder sollte man annehmen müssen, ZEIT, Spiegel, Guardian, werden dafür bezahlt, den Mythos vom menschengemachten Klimawandel zu transportieren und warm zu halten?

Der Beitrag erschien zuerst bei ScienceFiles hier




Fakten beweisen: keine Erd-Erwärmung infolge CO2–Emissionen

Die offizielle Klimapolitik hat das Ziel ,unsere’ CO2-Emissionen zu begrenzen, um da­durch eine weitere Erderwärmung zu vermeiden, denn CO2soll angeblich den Treibhaus­effekt weiter ver­stär­ken. Das Modell vom anthropogen verursachten Klimawandel beruht auf Kli­masimulatio­nen. Be­weise fehlen, die Fakten widerlegen das Modell.

Das IPPC hat schon früh betont, dass Voraussagen zum Klima nicht möglich sind, denn es ist ein chaotisches nichtlineares System mit sehr vielen Einflussfaktoren. Inzwi­schen hat die re­ale Ent-wick­lung die Richtigkeit dieser IPCC-Beurteilung bestätigt: die Vor­aussagen ha­ben sich nicht er­füllt – ein unbezweifelbarer Be­weis wurde nicht erbracht. Das Gegenteil hat statt gefunden: Er­wärmungen vor CO2-Emissionen, Abkühlungen trotz CO2-Emissionen. Trotzdem wird  die Klimapolitik nicht geändert, denn: Unsere CO2-Emissionen verursa­chen die Erderwärmung!  Aus Kühltürmen aufsteigende kondensierte Wasserdampfwolken gelten als Beweis  – falsch:  COist unsicht­bar.!  Die wesentlichen Fakten und Folgerungen wer­den hier noch mal zu­sammengefasst und in den Anlagen 1 EW VHS Bever CO2 Anl 1 2019 B und 2 EW VHS Bever CO2 Anl 2 2019 B illustriert.

Zusammenfassung der Fakten und Folgerungen

  • Während das regierungsamtlich verordnete Modell vom anthropogen verursachten Kli­mawan­del all­gemein geglaubtwird und als Richtlinie für Regierungsbeschlüsse gilt, be­weisen dieFakten das Ge­genteil. Die periodischen Strahlungszyklen und Änderun­gen der Bahnparame­ter verursa­chen als Gegebenheiten der Natur zwangsläufig Klimawandel,  auch  in der Zukunft.
  • Änderungen von einigen  Zehntel Grad sind übliche Temperaturschwankungen aber noch kein Klimawandel
  • Die Messungen zeigen,
    • dass es Warmphasen vor ‚unseren’ CO2-Emissionen gab und Kalt-phasen trotz dieser Emissionen, die sogar länger andauerten als die Warmpha­sen.
    • Die Temperaturganglinien zeigen schnellere und stärkere Änderungen in vorindustriel­ler Zeit, also vor ‚unseren’ CO2-Emissionen.
    • Während des Mittelalterlichen Klimaoptimums gab es noch kein industrielles CO2, aber Acker­bau in Grönland, Weinanbau in England, Veilchen zu Weihnachten und Kirschen im März. “Das schöne Allgäu“nennt in Heft  4 (2007) als Beispiele für besonders warme Jahre 1185, 1186, 1229 und 1241.
  • Auch das Gegenteil ist bekannt: Abkühlungen bis zum Frost. Auch diese  Wechsel bestätigen,  dass Klimawandel Naturerscheinungen sind. Im 16.Jahrhundert war der Bodensee  6-mal gefroren, in der Kleinen Eiszeit auch die Themse und die holländischen Grachten.
  • Die Ursache kommt vor der Wirkung: In allen Hochgebirgen begann die Gletscher­schmelze mit der Rückerwärmung nach der Klei­nen Eiszeit um 1860, also 80 Jahre vor Beginn der indus­triellen CO2-Emissionen. Die Temperaturganglinien zeigen schnellere und stärkere Änderun-gen in vorindustriel­ler Zeit, also vor ‚unseren’ CO2-Emissionen.
  • Kürzlich gefällte Bäume zeigen für die letzten beiden Jahrzehnte engere Jahresringe, also kühle­res Klima. Dies entspricht der letzten der  insgesamt 7 Phasen zwischen 1880 und 2010, wie in Anlage 1 dargestellt: vier Kaltphasen und drei Warmphasen haben sich  abgewechselt.
  • Für die Analyse von mittel- und langfristigen Änderungen sind Langzeit-Messwerte erfor­der­lich. Sie werden im Internet  an­geboten, z.B. in  Wetterzentrale.de. Ihre Daten von 82 Stationen wurden ausgewertet und deren Ganglinien hergestellt. Anlage 1 EW VHS Bever CO2 Anl 1 2019 B zeigt auf Seite 2 exemplarisch die Gangli­nien der sieben ältesten Datensätze. Man erkennt kurzfristige und örtlich begrenzte Temperaturänderungen. Wirkliche Klimawandel, die in mehreren Ganglinien an gleichzeitigen Erwärmungen oder Abkühlungen zu erken­nen wären, wur­den nicht registriert.
  • Wie in Anlage 2 EW VHS Bever CO2 Anl 2 2019 B aus 4)zitiert, betrug der CO2-Anteil vor dem Beginn unserer industrie-beding­ten CO2-Emissionen ca. 0,028%. Gegenwärtig beträgt er – emissionsbe­dingt – ca. 0,04%, ist also um 0,012% gestiegen. Dieser Anstieg hat die Temperatur tatsächlich nur um 0,2°C er­höht, was praktisch bedeutungslos ist. Weiterhin gilt die Feststellung aus Frankes Lexikon der Physik von 1959: „CO2ist als Klimagas bedeutungslos“  
  • Der von den Menschen erzeugte Anteil am Naturkreislauf des COist mini­mal. Er ist klei­ner als die Menge der Entgasungen aus Vulkanen und Förderschloten am Meeres­boden, die zeitlich und örtlich wechseln­. Auch diese Wechsel sind eine irdi­sche Nor­malität, die es schon immer gab und die nicht durch den Menschen beeinflussbar ist. Beispiel: der Ätna liefert z.Zt. täglich 35.000 t. Ob das schon lange geschieht und wie lange noch andauert  ist unbekannt.
  • Diese Wechsel wirken sich auch auf das Klima aus. Genaue Berechnun­gen der Auswir­kungen sind wegen der ständigen Veränderungen nicht möglich.
  • CO2ist mittels Photosynthese der Grundbaustein der Nahrungsmittel – ohne CO2kein Le­ben! Steigender CO2-Gehalt sollte begrüßt werden, denn er ergibt reichere Ernten, die für die wach­sende Erdbevölkerung sehr willkommen sind.  Mit einem gegenwärtigen CO2-Anteil an der Atmosphäre von ca. 0,04% ist die Erde nicht mehr allzu weit entfernt von dem für das Weiter-leben unserer Biosphäre benötigten Wachstumsminimum von ca. 0,015%  Wir nähern uns also der Existenzgrenze. Sie wurde in der Erdgeschichte schon einmal folgenschwer unterschritten. Um die jetzige Biosphäre zu erhalten, ist es falsch, CO2zu sparen 

Zum Schluss:

Warum sollte die Biosphäre leiden wenn – diesmal –  wirden CO2-Gehalt der At­mosphäre vergrößern?  Beispiele aus der Erdge­schichte zeigen, dass trotz sehr viel größerer CO2-Gehalte die Biosphäre nicht gefährdet war sondern davon profitierte. Wie Anlage 2 zeigt, be­trug der CO2-Gehalt vor 500 Mill. Jahren 18% und vor 100 Mill. noch 4%. Trotzdem  setzte sich die Evolution der Pflanzen- und Tierwelt fort, auch weil das Klima lebensfreundlich geblieben war, un­abhängig vom CO2-Gehalt. Mehr CO2verstärkt die Photosynthese und fördert die Biosphäre. Zu wenig CO2, also weniger als 0,015%, lässt sie absterben – und damit das Leben. Eiszeiten wurden durch hohe CO2-Gehalte nicht verhindert, denn es blieb trotzdem kalt. In frühe­ren Eiszeiten reich- ten die Gletscher der Arktis bis in den heutigen Mittelmeer-Raum. Klima­wandel  werden vor allem durch Änderungen der Bahnpa­rameter und der Strahlungszyklen verursacht und beide agieren unabhängig von den Beschlüssen der Politik – wie Vulkane und Erdbe­ben.

 

5)J. F. Eichner,E. Koscielny-Bunde,A. Bunde,S. Havlinand H.-J. Schellnhuber:                                                                Power-law persistence and trends in the atmosphere: A detailed study of long temperature records

PHYSICAL REVIEW E 68, 046133 ~2003!

=============================

A n l a g e n  von Karl Ewert zum Beitrag :

EW VHS Bever CO2 Anl 1 2019 C

EW VHS Bever CO2 Anl 2 2019 C




ZDF mal wieder – Mit Rechentricks zur Klimalypse oder: Was wird mit Klimamodellen wie berechnet?

Letzteres zielt auf junge Leser, ist in der Regel suggestiv und dient fast ausschließlich dazu, vorhandene politisch korrekte Inhalte zu verbreiten. Journalisten, die hinterfragen, kritisch hinterfragen, die sich überlegen, warum angeblich ein Konsens zwischen Wissenschaftlern über etwas bestehen soll, das von mathematischen Modellen für die Zukunft vorhergesagt wird und das mit einer entsprechenden Unsicherheit verbunden ist, gibt es – offenkundig – nicht. Würde man Klimatologen fragen, wann der Vesuv zum nächsten Mal ausbricht, sie würden passen, denn kein mathematisches Modell kann dies mit Sicherheit vorhersagen. Alles, was wir sagen können, ist, dass der Vesuv, gemessen an historischen Daten, überfällig ist.

Indes haben dieselben Klimatologen kein Problem damit, die Zukunft für den Planeten als Ganzes und auf die Kommastelle genau vorherzusagen. Im Jahr 2050 wird die Temperatur der Erde um im Durchschnitt 2,5 Grad Celsius wärmer sein. Das sagt RCP 4.5, eines der Klimamodelle des IPCC voraus. RCP – Representative Concentration Pathways – ist ein Klimamodell aus einer Reihe von Klimamodellen. RCP 2.6, RCP 6 und RCP 8.5, sind die anderen drei Klimamodelle. Je nachdem, wie sehr man seine Leser erschrecken will, trifft man eine Wahl zwischen den Modellen, die z.B. für 2050 Temperatursteigerungen von 1,7 Grad Celsius (RCP 2.6), 2,5 Grad Celsius (RCP 6) bzw. 3 Grad Celsius (RCP 8.5) vorhersagen (siehe Abbildung).

Quelle

Egal, welches Modell man wählt, es ist immer mit der Annahme verbunden, dass die Temperatur des Planeten vornehmlich durch die Konzentration von CO2 neben anderen Treibhausgasen in der Atmosphäre bestimmt wird, eine Annahme, die bekanntlich viele Wissenschaftler nicht teilen. Dessen ungeachtet wird mit RCPs herummodelliert, wobei sich die Annahmen, die im Hinblick auf die zukünftigen CO2-Konzentrationen gemacht werden, zwischen den Modellen unterscheiden, wie in der folgenden Abbildung zu sehen.

Quelle

Dass sich die Annahmen unterscheiden, das liegt an weiteren Annahmen, die gemacht werden, im Hinblick auf die Entwicklung des Bevölkerungswachstums (und den damit verbundenen Ausstoß von u.a. CO2), die Entwicklung des wirtschaftlichen Wachstums (und den damit verbundenen Ausstoß von u.a. CO2), die Entwicklung des Energieverbrauch (und den damit verbundenen Ausstoß von u.a.. CO2) sowie die Entwicklung des Ressourcenverbrauchs und der Flächenversiegelung (und den damit verbundenen Effekt auf den Ausstoß von u.a. CO2).

Alle vier RCP-Modelle machen unterschiedliche Annahmen darüber, wie sich die genannten Variablen in Zukunft entwickeln und kommen entsprechend zu einer anderen CO2-Konzentration in der Atmosphäre und – davon ausgehend – zu jeweils einem anderen Temperaturanstieg. Dass es in den RCP-Modellen zu einem Anstieg der durchschnittlichen Erdtemperatur kommt, ist gesetzt, sie unterscheiden sich lediglich im Ausmaß des Anstiegs, der vorhergesagt wird und zwischen 1,7 Grad Celsius und 3 Grad Celsius global für das Jahr 2050 liegen.

Es gilt festzuhalten, dass man, durch die Verwendung eines RCPs die Prämisse übernimmt, dass es überhaupt einen menschengemachten Klimawandel, der im Wesentlichen durch CO2 herbeigeführt wird, gibt. Wissenschaftler sollten eigentlich keine Prämissen unhinterfragt übernehmen. Es sollte zu ihrem Ethos gehören und ist eigentlich das, was Wissenschaft ausmacht, derartige Prämissen zu hinterfragen, zu prüfen. Insbesondere dann, wenn sich in der Vergangenheit gezeigt hat, dass die Vorhersagen der Klimamodelle nicht nur falsch, sondern granatenmäßig falsch waren. Dann gäbe es viel Grund, sich um die Akkuratheit, die Validität, die Reliabilität der Modelle zu sorgen, die Prämisse zu hinterfragen, sie nicht einfach zu übernehmen.

Und damit kommen wir zum neuerlichen Versuch des ZDF, vornehmlich jüngere Leser zu indoktrinieren und auf die offenkundig beim Sender vorhandene Agenda einzuschwören:

Die Studie, die hier als Studie der ETH-Zürich verkauft wird, findet sich unter dem Titel „Understanding climate change from a global analysis of city analogues“ auf Plos One. Erstellt wurde die Studie von dem Autorenrudel, das sich aus Jean-Francois Bastin, Emily Clark, Thomas Elliott, Simon Hart, Johan van den Hoogen, Iris Hordijk, Hazohi Ma, Sabiha Majumber, Gabriele Manoli, Julia Maschler, Lidong Mo, Devin Routh, Kailiang Yu, Constantin M. Zohner und Thomas W. Crowther zusammensetzt.
Es hat uns immer fasziniert, wie man einen knapp acht Textseiten langen Text mit 15 Autoren zuwege bringt. Vielleicht muss man sich die Erstellung als eine Art kollektives Brainstorming vorstellen. Es würde die Ergebnisse erklären.

Die 15 aus dem Autorenrudel sind keine Wissenschaftler im Sinne des Wortes, sie sind Missionare, sie haben eine Mission, eine Mission, die sie gleich im ersten Satz in Worte fassen:

„Combating climate change requires unified action across all sectors of society. […] The gap between the scientific and public understanding of climate change, referred to as the ‚Consensus Gap‘, is largely attributed to failures in climate change communication”.

Ob die Autoren verschweigen, dass das „scientific understanding“ keineswegs einheitlich ist, sondern im Gegenteil, die Anzahl der Kritiker an der absurden Idee eines menschengemachten Klimawandels stetig wächst, oder ob diese Kritik in ihrem Echozimmer bislang nicht angekommen ist, ist insofern belanglos, als angebliche Forschung, die damit beginnt, ein Dogma zu verkünden und auf dessen Grundlage das Ziel zu verfolgen, Ungläubige in der Bevölkerung zum richtigen Glauben zu bekehren, nicht einmal mit sehr viel gutem Willen und viel Phantasie noch in die Nähe von Wissenschaft gerückt werden kann.
Was das Autorenrudel seinen Lesern ganz offen und gleich zu Beginn des eigenen Werkes mitteilt, ist vielmehr, dass es nach einer Möglichkeit gesucht hat, den „Menschen“, also uns ungläubigen Deppen, die schwer vorstellbare Erwärmung von 2 Grad zu visualisieren und dass sie diese Möglichkeit in Städten gefunden haben.

Fassen wir kurz zusammen, was die 15 Klimaalarmisten in ihrem Werk veranstalten: Sie wählen ein Klimamodell des IPCC, nämlich RPC 4.5, bezeichnen dieses Model als „moderates Modell“, weil es bis 2050 nur eine Erwärmung um rund 2,5 Grad Celsius ANNIMMT, werfen eine ganze Reihe weiterer Variablen, die sie für 520 Städte zusammengesammelt haben, in eine Faktorenanalyse, lassen den Computer rechnen und freuen sich dann, dass hinten herauskommt, was sie vorne mit ihren Annahmen sichergestellt haben, dass es herauskommt: EINE ERWÄRMUNG.Heureka!

Es ist immer schön, wenn man es als vermeintlicher Wissenschaftler schafft, eine Gleichung, die eine Erhöhung der Temperatur zum Ergebnis hat, so aufzulösen, dass sie eine Erhöhung der Temperatur zum Ergebnis hat.

Die Langversion dessen, was die Helden aus Zürich hier als Forschung verkaufen wollen, geht wie folgt. Für 520 Städte, die entweder Hauptstadt sind oder mehr als eine Million Einwohner haben, derzeit, nicht in Zukunft, haben die 15 Autoren eine Reihe weiterer Variablen zusammengetragen, 19 an der Zahl. Warum gerade 19? Niemand weiß es. Wofür die 19 stehen, in welcher Weise die 19 Variablen das „Stadtklima“ abzubilden vermögen, niemand weiß es. Was man als Leser weiß, ist, dass sich unter den 19 Variablen u.a. die folgenden finden: Die höchste Temperatur im wärmsten Monat, die durchschnittliche Jahrestemperatur, der durchschnittliche Niederschlag pro Jahr, die geringste Temperatur im kältesten Monat, der durchschnittliche Niederschlag im trockensten Monat, der durchschnittliche Niederschlag im feuchtesten Monat usw. Welche Relevanz diese Variablen für das Klima einer Stadt, für das Klima der 520 Städte, die im Sample vorhanden sind, haben, wir wissen es nicht, und die 15 des Autorenrudels scheinen es auch nicht zu wissen, sonst hätten sie es sicher irgendwo auf den wenigen Textseiten vermerkt.

Die 19 Variablen für die 520 Städte sind zuviele, als dass sie von den Autoren einzeln zu handhaben wären, also werden sie von den Autoren in eine Faktorenanalyse geworfen, das mehrfaktorielle Ergebnis reduzieren die 15 hoffentlich Fachkundigen und hoffentlich für Faktoren mit einem Eigenwert von mehr als 1 auf vier Faktoren, die sie mit Sinn füllen können. 85% der Gesamtvarianz sind nun noch übrig.

Diese 85% Varianz sind insofern wichtig, als sie die Grundlage für die Unterschiede zwischen heutigem London und morgigem London oder heutigem Seattle und morgigem Seattle darstellen. Die Faktorenanalyse ist wichtig, weil die vier Faktoren die Grundlage bilden, auf der mit Hilfe euklidischer Distanzen Städte nach Ähnlichkeit gruppiert werden.

Wir haben somit Städte, die nach Ähnlichkeit und in Abhängigkeit von 19 Variablen, die Ergebnisse des Klimas (Niederschlag, Temperatur usw.) enthalten, angeordnet sind. Und jetzt kommt das, was unter Insidern als „Computer speak to me“ bekannt ist: Das Modell. Im vorliegenden Fall kommt RCP 4.5, das eine durchschnittliche Temperatursteigerung von 2,5 Grad Celsius für den gesamten Planeten bis 2050 vorhersagt, zum Einsatz (wie hoch der mit dieser Prognose verbundene Vorhersagefehler ist, das ist eine Information, die wie gewöhnlich nicht gegeben wird, die fast unterschlagen wird). Mit den 19 Variablen für Klimaereignisse die auf vier Faktoren gruppiert wurden, ist sichergestellt, dass sich die 520 Städte im Hinblick auf das RCP-Modell unterscheiden, es wäre blöd, wenn man berichten müsste, dass alle 520 Städte sich um 2,5 Grad Celsius erwärmen, ergo wird eine Feedback-Schleife in das Modell eingebaut, die unter der Annahme einer globalen Erwärmung um 2,5 Grad Celsius berechnet, wie sich die 19 Variablen über die vier berechneten Faktoren auf die jeweilige Konstellation in den einzelnen Städten auswirken. Und siehe da: Sie wirken sich unterschiedlich aus, Temperatursteigerungen von 3,5 Grad Celsius und 4,7 Grad Celsius können die Modell-Hexer damit für die europäischen Städte im Modell (welche und wie viele das sind, verraten sie freilich nicht) vorweisen.

Die Temperatursteigerungen werden dann als durchschnittliche Temperatursteigerung für Europa verkauft, und die Ergebnisse, die auf gerade einmal 520 Städten basieren, werden kurzerhand zu Ergebnisse „aller Metropolen“ ernannt, und weil alle Städte, das war die Annahme, sich bis 2050 erwärmen und sich die Erwärmung auf Niederschlag und Temperatur auswirkt, das ist eine Zwangsläufigkeit, deshalb kommen die Autoren zu dem Ergebnis, dass die betrachteten Städte wärmer und zuweilen nässer, zuweilen auch trockener werden.

Ein Triumph entweder der Fähigkeit, sich selbst vorzumachen, man habe ein Ergebnis gefunden, das man nicht durch seine Annahmen bereits determiniert hätte ,oder ein Triumph der Fähigkeit, anderen, vor allem den Allesgläubigen, soweit es die eigene Agenda stützt, im ZDF, einen Instantkaffee verkauft zu haben, der sich dann nach Anrühren als Instantkaffee entpuppt.
Wenn das die neue Art der Kommunikation ist, mit der Klimaalarmisten der wachsenden Zahl derer, die den Klima-Hokuspokus bezweifeln, dessen Korrektheit vermitteln will, dann können wir nur feststellen, dass diese Kommunikation gescheitert ist, sich bestenfalls dazu eignet, diejenigen, die jeden Stuss glauben, wenn er ideologisch passt und man ihnen erzählt, er sei „wissenschaftlich belegt“, in ihrem Wahn zu bestärken.

Der Beitrag erschien zuerst bei Science Files hier


Sich durch den Informationswald, den u.a. das IPCC angelegt hat, zu fressen, relevante Informationen zu sammeln, diese aufzubereiten und zur Verfügung zu stellen und dabei gegen den politisch-korrekten Mainstream zu schwimmen, kostet Zeit, Nerven und Geld.
Wenn Sie uns dazu mit einer Spende den Rücken stärken, dann freuen wir uns, über diese Anerkennung unserer Arbeit.




Bayrischer Kohleausstieg

Es södert aus dem Süden. Auf 2030 soll der Kohleausstiegvorgezogen werden, empfiehlt der aktuell regierende bayrische Löwe. Dies sei die effektivste Strategie, die „Klimaziele“ 2030 zu erreichen. Drei Gründe mögen Herrn Söder veranlasst haben, diese Forderung zu erheben. Zum einen nimmt eine schnellere Senkung der Emissionen im Energiesektor etwas den Druck von der Automobilindustrie. Die ist in Bayern immer noch erfolgreich und privatwirtschaftlich organisiert, eine Vergesellschaftung nach Kevins Vorstellung ist erst nach ihrem wirtschaftlichen Zusammenbruch denkbar (in „Auffanggesellschaften“ und selbstverständlich als „Chance“ interpretiert). Zum zweiten denkt man an der Isar, man bleibe vom Abschied von der Kohle unbeeinflusst.

Der dritte Grund dürfte pekuniärer Erwägung entspringen. Je länger sich der Kohleausstieg zieht, desto mehr Geld könnte in die Ausstiegsregionen fließen. Da man den Kohlestrom aber aus Gründen der Systemsicherheit noch braucht, wird er am Tropf der Staats- oder Verbraucherknete hängen. Je länger ein Strukturwandel in den Ostländern dauert, desto teurer. Der jahrzehntelange Steinkohleausstieg stellt sich in der Rückschau als zu teuer heraus, zumal das Ruhrgebiet heute wirklich nicht zu den Boomregionen des Landes gehört.

Den Ostlern einen zweiten, diesmal politisch motivierten Strukturbruch nach 1990 überzuhelfen, scheint einfacher. Die schaffen das und nach Westen abwandernde Arbeitskräfte sind gut gegen den dortigen Fachkräftemangel, der durch Buntheit allein wohl nicht bewältigt werden kann.

Nun haben die Bayern, wie alle gut Betuchten, ein enges und strenges Verhältnis zum Geld. Dies ist keinesfalls als Vorwurf gemeint. Im Gegenteil, das ist die Grundlage des bayrischen wirtschaftlichen Erfolgs.

Schon vor einiger Zeit sagte Markus Söder: „Der Norden hat den Wind, Ost und West Ersatzgeld für die Kohle und wo bleibt der Süden? Auch Bayern und Baden-Württemberg als Wirtschaftsregionen brauchen eine nachhaltige energiepolitische Perspektive.“ Er könnte dazu die ehemaligen CSU-Bundestagsabgeordneten befragen, die 2011 den Atomausstieg mit beschlossen (CDU/CSU: 224 Ja- und 5 Neinstimmen). Die Kolleginnen und Kollegen werden doch gewusst haben, was sie da beschließen und wie die süddeutschen Kernkraftkapazitäten ersetzt werden. Ahnungslosigkeit oder blinde Kanzlerinnenfolgschaft wird von den damals Beteiligten allerdings kaum jemand zugeben.

Tief im Innern der bayrischen Seele brodelt natürlich der jahrelang aufgestaute Zorn über die Berge von Geld, die jedes Jahr über den Länderfinanzausgleich in den Norden geschaufelt werden müssen. Das ist verständlich, aber zum Glück sorgt das EEG mit seinen Kapitalströmen von unten nach oben, also von arm zu reich, für einen soliden Rückfluss. 2017 zahlte Bayern 5,9 Milliarden Euro an andere Länder2),5,48 Milliarden Euro1)kamen bundesweit eingesammelt über die massenhaft verspiegelten bayrischen Haus- und Scheunendächer, riesige ökologisch fragwürdige Freiflächenanlagen und Bioenergieanlagen zurück.

Der Hartzer aus Bremen, der in Marzahn wohnende Hermes-Bote und die Rentnerin aus Recklinghausen garantieren den Villenbesitzern am Starnberger See (26,5 Prozent Grünwähler bei der Landtagswahl 2018) die auskömmliche Rendite auf dem Dach.

Markus Söder sorgt sich ums Geld, das Problem ist aber ein anderes. Die energetischen Besonderheitender Südzonesind vielfältig. Heute gibt es permanente Stromflüsse aus deutscher Nord- und Nordostrichtung nach Bayern, die zurückgehen werden. Vorgänger Seehofer machte gegen den Ausbau von Freileitungen mobil und erreichte beim damaligen Wirtschaftsminister Gabriel, dass ein Großteil der Leitungen aus Richtung Norden verbuddelt werden soll, zum etwa achtfachen Preis, mit längeren Bauzeiten und deutlicheren Umweltauswirkungen. Eine teurere Strompreiszone Süd als Forderung aus Brüssel konnte die Bundesregierung noch abwehren. Eine Ewigkeitsgarantie gibt es dafür nicht.

Schlechter Deal

Seit April hat sich die deutsche Strom-Außenhandelsbilanz deutlich geändert (hierfür verschiedene Zeiträume sichtbar). Der Stromüberschuss tagsüber, hervorgerufen durch die hohe installierte Solarkapazität und sonnenreiche Sommertage, führt zum Export in die Nachbarländer. Konventionelle Kraftwerke, vor allem auf Steinkohle-Basis, gehen außer Betrieb und bleiben dies aus Gründen der Wirtschaftlichkeit  auch für die Nachtstunden. Die Anfahrkosten im fünfstelligen Euro-Bereich und der höhere Verschleiß im Stop-and-go-Betrieb sind der nachvollziehbare Grund. Zudem führen die gestiegenen Zertifikatepreise für CO2 zu höheren Gestehungskosten und Börsenpreisen, so dass sich der Import eher lohnt.

Wir exportieren subventionierten abnahmepflichtigen Solarstrom für wenig Geld an unsere Nachbarn und importieren nachts zu höheren Preisen zurück. Im Saldo ein auf die Verbraucher umgelegtes Verlustgeschäft.

Die Habsburger kommen vor Lachen kaum mehr in den Schlaf. Nicht nur, dass die gescheiterte Ösi-Maut auf die Piefkes zurückschlagen wird, durch den Stromhandel mit Deutschland machen sie prächtige Geschäfte. Mit dem für sie billigen germanischen Sonnenstrom füllen sie die Oberbecken ihrer Pumpspeicherwerke, um nachts quasi denselben Strom aus herunter fließendem Wasser mit deutlichem Gewinn zurück zu verkaufen.

Nun könnten die Bayern mit einem eigenen Kohleausstieg vorangehen. Um im Jargon zu bleiben: Vorreitend, ehrgeizig, entschlossen, mutig, ambitioniert, verantwortungsbewusst, klimagerecht, unbeirrt und mit welchen Adjektiven man beschleunigte Abschaltungen noch so bezeichnen will. Die progressive Münchner Bevölkerung stimmte schon 2017 für die Abschaltung des Kohleblocks des Heizkraftwerks Nord der Stadtwerke bis 2022. Nun teilt das Unternehmen mit1), dass es nicht gelungen sei, die thermischen 420 Megawatt in der Wärmeversorgung zu ersetzen. Zudem sei davon auszugehen, dass die Bundesnetzagentur die Anlage als systemrelevant einstufen und eine Stilllegung untersagen wird.

Die Suche nach Alternativen sei erfolglos gewesen. Die Errichtung einer GuD-Anlage in Unterföhring sei vom Gemeinderat abgelehnt worden, der Bau sieben dezentraler Heizwerke im Münchner Stadtgebiet sei am „Nein“ der jeweiligen Bezirksausschüsse gescheitert. Nun will man verstärkt Geothermie nutzen. Auch hier ist Widerstand zu erwarten, wenn die Bürger in den potenziellen Bohrgebieten die Erfahrungen mit der Geothermie im baden-württembergischen Staufenwahrnehmen. Schon vor den ersten Informationsveranstaltungen werden sich die Bürgerinitiativen gegründet haben. Vor der Hacke ist es duster, sagt der Bergmann. Vor dem Brunnenbohrer ist es genauso.

Gut gebrüllt, Löwe? Wann kommt nun der bayrische Kohleausstieg? Schaun mer mal. Sollen doch andere erst mal abschalten und die Bajuwaren dennoch versorgen, wenn die aus CSU-Sicht unsicheren Kernkraftwerke abgeschaltet werden.

Seit wir wissen, dass es Menschen gibt, die CO2 sehenkönnen, soll kein CO2-Molekül aus böser Kohle den weiß-blauen bayrischen Himmel mehr trüben.

Die Berliner sind da allerdings weiter. Sie werden bis 2030 aus der Kohle aussteigen und das auch schaffen, dank Brandenburg. So gesehen sind die Überweisungen von München nach Berlin nicht als Länderfinanzausgleich zu sehen, sondern als Klimamilliarden. Das ändert nichts am Sachverhalt, schmerzt aber nicht mehr so.

  • „energate messenger“ vom 4.7.2017

Der Beitrag erschien zuerst bei TICHYS Einblick hier




Klima und Medien: schlimm wie nie!

Klima, Wetter und Medienberichte darüber – das ist ein besonderer Stoff. Im Juni herrschte in weiten Teilen Deutschlands Hitze, ein Phänomen, das in diesem Monat nicht ganz überraschend auftritt.
In mehreren Medienberichten ging es um einen deutschen Juni-Temperaturrekord. Und um einen passenden Spin hin zum Großthema Klimapolitik.
Die Tagesschau veröffentlichte eine so genannte Kachel – eine kurze, grafisch aufbereitete Botschaft für Social-Media-Kanäle – für die sie sich auf den Wissenschaftler Stefan Rahmstorf vom Potsdam-Klima Institut berief.
„Noch nie war es in Deutschland im Juni so heiß: 38,6 Grad“, textete die Tagesschau. Und stellte das Zitat von Rahmstorf dazu: „Wir verlieren die Kontrolle über das Klimasystem.“
Die Mitteilung aus der ARD-Hauptnachrichtensendung enthält eine Falschbehauptung und eine Irreführung.
Die Behauptung: „So heiß war es noch nie“ ist falsch. Natürlich war es in Deutschland schon heißer. Beispielsweise im der mittelalterlichen Warmzeit von etwa 950 bis 1250. Damals herrschten höhere Temperaturen nicht nur in Mitteleuropa, sondern deutlich darüber hinaus. Baumreste, die heute immer wieder von Schweizer Gletschern bei ihrem Rückzug freigegeben werden, belegen, dass die Eisflächen früher auch schon einmal deutlich kleiner waren*. Um das Jahr 985 begann die Besiedlung des damals überwiegend eisfreien Grönland durch die Wikinger. Auf der britischen Insel gediehen Weingärten bis nach Schottland (mehr Informationen dazu finden sich in “Winelands of Britain“ des Geologen Richard C. Selley).
In noch viel früheren Perioden herrschte im heutigen Deutschland sogar ein subtropisches Klima, im Tal des Ur-Rheins lebten von etwa 15 bis 10 Millionen Jahren Kolibris, Krokodile und Urelefanten. Der Schädel des so genannten „Riesigen Schreckenstiers“ (Deinotherium giganteum), eines Rheinelefanten, dessen Schädel 1835 bei Eppelsheim gefunden wurde, lässt sich heute im Naturkundemuseum Wiesbaden bestaunen.
Die Tagesschau meint tatsächlich: Noch nie seit Beginn der Temperaturaufzeichnungen, also seit etwa 1860. Zwischen „noch nie“ und „seit 150 Jahren“ besteht gerade bei Klimabetrachtungen ein erheblicher Unterschied. Denn 150 Jahre gelten hier als kurzer Zeitraum.Stimmt wenigstens die Feststellung, seit Beginn der systematischen Temperaturmessungen sei es in einem Juni in Deutschland noch nie so heiß gewesen wie 2019? Sie steht zumindest auf sehr wackligem Boden. Wir wissen es nicht genau. Der Unterschied zum bisherigen Rekord von 1947 beträgt nämlich gerade 0,1 Grad. Das liegt innerhalb der Messfehlertoleranz. Außerdem gab es 1947 deutlich weniger Messstationen als heute. Dazu kommt ein Wechsel der Messinstrumente – vom Glas- zum deutlich genaueren elektronischen Thermometer.Die zusätzliche Irreführung liegt in dem Tagesschau-Zitat von Rahmstorf: „Wir verlieren die Kontrolle über das Klimasystem“. Eine menschliche „Kontrolle“ über „das Klimasystem“ gibt es nicht. Einige Einflussfaktoren entziehen sich komplett der Beeinflussbarkeit, etwa die Sonnenaktivität und der Vulkanismus. Auch das Kohlendioxid, dem eine Klimasensitivität zugeschrieben wird, stammt zu 96 Prozent nicht aus von Menschen verursachten Quellen.Den Unterschied zwischen „noch nie“ und „seit einer klimageschichtlich sehr kurzen Periode“ ließ nicht nur die Tagesschau unter den Tisch fallen.
„Noch nie war es im Juni so heiß“, dichtete die BILD.

„So heiß wie nie zuvor“, textete die Süddeutsche Zeitung.Die Information, dass sie eigentlich „seit Beginn der Wetteraufzeichnungen“ meinte, versteckte das Münchner Blatt deutlich weiter unten im Text.

Auf das Problem der Fehlertoleranz und der schwierigen Vergleichbarkeit der Messergebnisse von 1860, 1947 und heute gingen weder ARD, BILD oder Süddeutsche ein.

Spiegel Online meldete sogar: „Juni war weltweit heißester Monat der Geschichte“.

Auch hier hätte es heißen müssen: Bestenfalls in der sehr kurzen Geschichte wissenschaftlicher Temperaturmessung. Hier liegt die Abweichung zum vorher heißesten gemessenen globalen Jahr – 2016 – bei den gleichen 0,1 Grad, also ebenfalls in der Fehlertoleranz. Auch die WELT, sonst in Wetter- und Klimafragen vergleichsweise nüchtern, berichtete unter der Überschrift:
„Vergangener Monat heißester Juni aller Zeiten weltweit“.

Medienpreise gibt es in Deutschland mehr als genug. Ein Preis für nüchterne, unalarmistische Wetter- und Klimaberichterstattung fehlt allerdings.


*Zur Geschichte der Gletscherausdehnung in der Schweiz: ein Video der ETH Zürich

Der Beitrag  erschien zuerst bei Publico hier




Mein Coming-out als Öko-Egoist

So sehr ich meinen Diesel aus dem Hause Täuschen und Tricksen mit seinem geringen C02-Ausstoß auch liebe: So sauber wie ein E-Auto wird der nie werden. Jedenfalls nicht bei mir vor der Haustür. In meiner Stadt. Vor meiner Nase. Dass schafft nur ein E-Auto. Dass unsere E-Autos für andere Leute, nämlich für die dort hinten in Asien und dort unten in Afrika, eine ziemliche Schweinerei sind, kann ich leider nicht ändern.

Die armen Hunde in den Rohstoffländern, von denen ich das „E“ für mein künftiges E-Auto beziehe, tun mir ja irgendwie leid. Aber ich schließe mich der großen Mehrheit an und sage: E-Auto first! Donald Trump sagt ja schließlich auch: America first! Und ich sage: E first! Es lebe der Öko-Egoismus! Hauptsache unsere eigenen Innenstädte werden zu Luftkurorten.

Sicher, ideal ist es nicht, dass die Leute weit hinter der Türkei unter erbärmlichen Bedingungen nach den seltenen Erden buddeln, die wir für unsere dicken Autobatterien brauchen. Aber irgend einen Tod müssen wir sterben. Also, nicht wir, sondern die da hinten. Sorry. Aber ohne Lithium geht’s nun mal nicht. Und das gibt’s bei uns leider nicht. Das gibt’s nur da hinten. Wo es auch die neuen Kohlekraftwerke gibt, die man zur Lithium-Gewinnung einsetzt. Wir steigen zwar aus der bösen Kohle aus, aber das muss ja nicht für alle gelten. Für unsere saubere E-Mobilität sollen die anderen dort hinten ruhig wieder Kohle-Dreck machen. Sie dienen ja unserer guten Sache.

Und es tut mir auch leid, dass für die netten Kongolesen und ihre Kinderarbeiter die Kobalt-Gewinnung in ihrer demokratischen Republik so eine Sau-Arbeit ist. Wir sollten wirklich dankbar sein, dass die das für uns tun. Zum Glück brauchen sie selber ja keine E-Autos. Sie kriegen nun mal so wenig Geld für die Kobalt-Schufterei, dass dabei höchstens ein Fahrrad rausspringt. Ist ja auch ökologisch. E for future. Also für unsere Zukunft. Es kann ja nicht jeder eine haben.

Die Erde hat schon so viele Wüsten

Ein bisschen blöd ist auch, dass bei dieser Buddelei neue Wüsten entstehen. Andererseits: Die Erde hat schon so viele Wüsten, da kommt es auf ein paar mehr auch nicht mehr an. Wir wollen schließlich die Erde insgesamt retten und nicht einzelne Teile. Das heißt: unsere Teile schon. Mit dem Reinheitsgebot für unsere Lungen ist das wie mit dem Reinheitsgebot für unser Bier. Das gilt ja auch nicht überall.

Suboptimal ist – zugegeben – auch, dass die E-Mobilität so viel Energie verbraucht. Schon die aufwändige Herstellung der supereffektiven neuen Batterien haut so richtig rein. Und dann dieser ständige Stromverbrauch, wenn Millionen E-Autos an den bald überall vorhandenen Ladestationen neuen Saft tanken! Da müssen wir uns, um der guten Sache willen, wohl auf gelegentliche oder häufigere Stromausfälle einstellen.

Wirklich? Wir hier? Bei uns? Also, das stinkt mir schon ein bisschen. Lässt sich da nichts machen? Können die da hinten und die da unten die Stromausfälle nicht für uns übernehmen? Die sind doch daran gewöhnt. Die haben sowieso kein so tolles Stromnetz. Ließe sich da nicht eine Art E-Transfer einrichten? Wir verbrauchen den Strom und die kriegen den Stromausfall?

Auf jeden Fall sollten wir es mit den ziemlich schnell verbrauchten Batterien so halten. Es wäre wirklich schon schön, wenn die da hinten und die da unten eventuell bereit wären, unseren giftigen Batterie-Müll bei sich endzulagern. Wir würden es ja selber probieren, aber wir müssen erst noch ein passendes Endlager für unseren Atom-Müll finden. Da muss sich doch ein Gegengeschäft organisieren lassen. Preisgünstiger Export unserer alten Benzin-Kutschen wäre die Lösung. Ach, der läuft schon? Na, also. Geht doch.

Wenn der Dreck und die Not der anderen unsere Luft sauber macht, könnte man natürlich sagen: Das ist ein bisschen unsauber. Aber das muss ich als angehender Öko-Egoist aushalten. Denn wie heißt der Schlachtruf? E first!

Der Beitrag erschien zuerst bei ACHGUT hier




Vahrenholt: Merkels erhöhtes Klimaziel kostet Deutschland 3000 Milliarden Euro mehr

Die Erhöhung der Klimaschutzziele, die Bundeskanzlerin Angela Merkel auf dem Evangelischen Kirchentag angekündigt hat, würde die deutsche Volkswirtschaft und jeden einzelnen Haushalt erheblich belasten. Wird das von Merkel formulierte Ziel wirklich umgesetzt, das CO2-Reduktionsziel von 90 auf 100 Prozent bis 2050 zu erhöhen, entstünden dadurch nach einer Berechnung des früheren Hamburger Umweltsenators Fritz Vahrenholt (SPD) Mehrkosten von rund 3000 Milliarden Euro. Damit stiegen die Kosten für das Erreichen der Klimaneutralität bis zum Jahr 2050 von bislang geschätzten 4600 Milliarden auf 7600 Milliarden Euro. Das ist etwa doppelt so viel wie das Bruttoinlandsprodukt Deutschland im Jahr 2018. Das berichtet das Magazin Tichys Einblick in seiner am heutigen Montag erscheinenden Ausgabe.

Bei diesen Zahlen stützt sich Vahrenholt auf eine Studie im Auftrag der Bundesregierung über die Kosten der Energiewende, die die Nationale Akademie der Wissenschaften Leopoldina, die Deutschen Akademie der Technikwissenschaften (acatech) und die Union der deutschen Akademien der Wissenschaften im November 2017 vorgelegt hatten. Danach rechnen die Forscher mit Kosten zur Erreichung des 90-Prozent-Ziels bis 2050 in Höhe von 4600 Milliarden Euro. Das entspricht laut Studie einer Mehrbelastung der Haushalte in Deutschland von im Schnitt 320 Euro monatlich.

Eine Erhöhung der Klimaschutzziele über das 90-Prozent-Ziel hinaus, wie jetzt von Angela Merkel als Ziel formuliert, ist besonders teuer, weil alle „günstigen“ Möglichkeiten zur CO2-Einsparung und Ersetzung schon ausgeschöpft sind. „Der technische Aufwand für jede weitere Minderung wird bei bereits hohen Werten ungleich höher, da alle Potenziale für direkte Stromnutzung ausgereizt sind und kostengünstiges fossiles Erdgas durch aufwendig hergestellte synthetische Energieträger ersetzt werden muss“, konstatierten die Forscher schon 2017. Auf Basis der Kostenannahmen der Forscher hat Vahrenholt die Kosten für die letzten zehn Prozent fortgeschrieben. Danach liegen die Kosten für die letzten zehn Prozent bei 3000 Milliarden Euro. Zum Vergleich: Die Forscher haben in ihrem Regierungsgutachten die Mehrkosten für die Erhöhung des Klimaschutzzieles von 85 auf 90 Prozent mit 1300 Milliarden Euro angegeben.

Würde man der Forderung der Klimademonstranten von „Fridays for Future“ nachkommen, und die Klimaneutralität schon 2035 erreichen wollen, fallen die Kosten in kürzerer Zeit an. Die Kostenbelastung würde laut Vahrenholt pro Haushalt auf 1050 Euro steigen – pro Monat!


Sie lesen die ausführlichen Kostenberechnungen in der am letzten Montag erscheinenden Ausgabe von Tichys Einblick. Den Artikel finden Sie auch im Internetangebot hier.

www.tichyseinblick.de




Die Schizophrenie der französischen Energiepolitik

Die Kosten des 2018 in Betrieb gegangenen Reaktors Taishan-1 beliefen sich auf umgerechnet über 7 Milliarden Euro. Mit dessen Bau war bereits im Jahre 2009 begonnen worden. Infolge des Reaktor-Unglücks von Fukushima war der Bau jedoch für zwei Jahre unterbrochen worden. Die Bauzeit für diesen Prototyp hielt sich also in einem vernünftigen Rahmen.

Das kann man von seinem heimischen Bruder, dem EPR von Flamanville in der Normandie, nicht sagen. Da in Frankreich über ein Jahrzehnt lang keine neuen Nuklear-Reaktoren mehr gebaut wurden, ist offenbar auch dort (wenn auch nicht im selben Ausmaß wie in Deutschland) viel Fachwissen und Übung verloren gegangen. Im Jahre 2017 hat der Abnehmer des EPR, der staatliche Strom-Monopolist Électricité de France (EdF), der Überwachungsbehörde ASN (Autorité de Sûreté Nucléaire) insgesamt 66 „nicht-konforme“ Schweißnähte an den Dampf-Leitungen der Anlage gemeldet. Vor einem Jahr hat EdF dann einen Plan für die Reparatur der beanstandeten Schweißnähte vorgelegt. Wann der Reaktor betriebsbereit sein wird, steht in den Sternen. Grund zur Freude bei den Grünen aller Parteien, die nun neue Chancen für die von ihnen in den Himmel gelobten zufallsabhängigen „erneuerbaren“ Energien wittern. In der Tat hat kündigte François de Rugy, Macrons Energiewende-Minister, die Errichtung eines großen Offshore-Windparks mit 75 Wind-Turbinen vor Dünkirchen unweit von Flamanville an. Dieser soll Strom zu einem Preis von 50 Euro je Megawattstunde liefern, während der EPR den Strom, nach mehrfach korrigierten Kostenschätzungen, ab 2030 wohl nicht unter 70 Euro je Megawattstunde wird liefern können.

Das energiepolitische Programm der Regierung Macron/Philippe sieht bis 2035 die Reduktion des Kernenergie-Anteils an der Elektrizitätserzeugung von derzeit über 70 auf 50 Prozent vor. Das entspricht der Stilllegung von 14 der zurzeit betriebenen 58 Kern-Reaktoren. Die Laufzeiten eines großen Teils der verbleibenden Reaktoren soll um 10 bis 20 Jahre verlängert werden. Deshalb sollen 32 der 900-Megawatt-Reaktoren bis zum Jahre 2031 generalüberholt und sicherheitstechnisch ertüchtigt werden. Für dieses Programm des „grand carénage“ stellt EdF für den Zeitraum zwischen 2014 und 2025 insgesamt 45 Milliarden Euro zur Verfügung. Umgerechnet auf den Strompreis für Endverbraucher entspricht das ungefähr einem von derzeit 15 Euro-Cent je Kilowattstunde. Der französische Rechnungshof (Cour des comptes), bestätigt diese Schätzung, indem er davon ausgeht, dass die Produktionskosten der Kernenergie in Frankreich, die sich einschließlich der Uranerschließung  und -förderung sowie der Endlagerung der radioaktiven Abfälle bislang auf 5 Euro-Cent je Kilowattstunde belaufen, durch das umfangreiche Sanierungs- und Modernisierungsprogramm um einen Euro-Cent ansteigen werden.

Die Produktionskosten je Kilowattstunde des EPR werden wohl zunächst fast doppelt so hoch sein. Jedenfalls rechnet EdF für sein EPR-Projekt Hinkley Point in Großbritannien mit etwa 23 Milliarden Euro Investitionskosten. Bei einem Abzinsungssatz von 9 Prozent ergäben sich daraus 11 Euro-Cent je Kilowattstunde über mehrere Jahrzehnte. EdF geht aber davon aus, dass diese Kosten auf 7 Eurocent je Kilowattstunde sinken werden, sobald der EPR in Serie produziert wird. Hier fällt die aufwändige redundante Sicherheitstechnik des EPR (einschließlich Core Catcher) ins Gewicht. Dieser Sicherheitsaufwand war nicht alternativlos, sondern wurde den Partnern Areva und Siemens nach der Aufregung um den Super-GAU von Tschernobyl von der Politik diktiert. (Dass die Technik des in Tschernobyl durchgegangenen Reaktors bei weitem nicht den im Westen geltenden Standards entsprach, interessierte in den politischen Auseinandersetzungen kaum jemanden.) Die US-Firma Westinghouse, die die Technik der älteren französischen Kernreaktoren lieferte, hatte ein kostengünstigeres Konzept der passiven Sicherheit vorgeschlagen, kam aber nicht zum Zuge.

Die Umsetzung des EPR-Konzeptes setzt nicht nur die Serienproduktion der Reaktoren, sondern auch die Verstaatlichung und Zentralisierung der Energiewirtschaft voraus, was in Frankreich ohnehin längst geschehen ist. Denn es ist kaum vorstellbar, dass private Firmen so hohe Kapitalbeträge aufbringen und für Jahrzehnte festlegen können. Die Serienproduktion kann allerdings erst richtig anlaufen, wenn der französische Staat entscheidet, die 14 stillgelegten 900-Megawatt-Reaktoren durch acht EPR zu ersetzen. Danach sieht es zurzeit allerdings nicht aus. Die immer zahlreicher werdenden französischen Nuklear-Gegner, die übrigens über das Office Franco-Allemand pour la Transition Energétique (OFATE) mit dem deutschen Lobby-Think Tank Agora Energiewende vernetzt sind, schöpfen infolge der Verzögerung an der EPR-Baustelle von Flamanville neue Hoffnung, das EPR-Projekt noch stoppen und eine totale „Energiewende“ nach deutschem Vorbild einleiten zu können.

Dadurch kommt es im Staatskonzern EdF zu absurden Situationen, weil ganze Abteilungen gegeneinander statt miteinander arbeiten. Diese Schizophrenie soll nun durch die Aufspaltung von EdF in einen grünen und einen blauen Teilkonzern beendet werden. Der modische grüne Teil würde dann zum Subventionsempfänger, während der weniger sexy blaue (nukleare) Teil die Dreckarbeit der sicheren Elektrizitätsversorgung leisten müsste.

 




Wer kollabiert zuerst: Der Planet oder der Euro?

Die Deutschen schätzen ihre sprichwörtliche German Angst hoch ein, eine meist irrationale, diffuse Furcht vor Dingen, die sie sich bereitwillig einreden lassen. Waldsterben, Rinderwahn, Radioaktivität, Genmanipulation, Amalgam, Fipronileier, Dieselfeinstaub, Dioxin oder Ozonloch – in keinem Land reagiert die Öffentlichkeit auch nur halb so schrill und hysterisch wie in Deutschland.

Auf dieser German Angst fußt das Geschäftsmodell der Grünen. Es funktioniert so: Eine „wissenschaftliche“ Studie macht eine potenzielle Gefahr aus. Die Medien machen eine Tatsache daraus. Experten aller Art heizen die Diskussion mit immer neuen grenzwertigen Theorien an. Die Grünen verweisen auf tausende Todesopfer und fordern den sofortigen Schutz der Bevölkerung. Es bleibt der Politik kein anderer Ausweg, sie muss öffentlichkeitswirksame – das heißt möglichst kostspielige – Maßnahmen einleiten, um nicht den Volkszorn zu erregen. Nach einigen Wochen oder Monaten legt sich die Angst, weil nichts passiert. Und die Grünen verbuchen einen weiteren Erfolg, weil sie unser aller Ableben mit ihrem Alarmismus gerade nochmal verhindert haben.

Jährlich 420.000 Tote durch Lebensmittelvergiftungen120.000 Tote durch Feinstaub1.400.000 Opfer durch Tschernobyl500.000 Erkrankte durch Dioxin, dagegen muten die 120-BSE-Toten pro Jahr in Deutschland fast harmlos an. Wir könnten alle schon 120 Jahre alt sein, wenn wir nicht ständig von irgendwelchen bösartigen Kapitalisten vergiftet und gestorben würden.

Wissenschaftliche Studien malen ein Klima-Höllenszenario aus, was als Dauerfeuer aus allen Rohren der Medien auf die Deutschen niederprasselt. Der Meeresspiegel steigt um 60 Meter an – die Sintflut droht. Der Permafrostboden taut, die Amazonaswälder verdorren in der Hitze. Stürme, Waldbrände, Dürre, Überschwemmungen, dann versiegt auch noch der Golfstrom und eine neue Eiszeit kommt. Das ist nichts anderes als die zehn Plagen, nur etwas modern aufgemotzt.

Dann gehen in Deutschland hin und wieder die Lichter aus

Und natürlich will Deutschland die Welt retten, am besten ganz alleine. Jetzt soll „de-karbonisiert“ werden, was das Zeug hält. Wir können unsere 25 nennenswerten Kohlekraftwerke abschalten. Dann gehen in Deutschland hin und wieder die Lichter aus und die Industrie muss leider auswandern. Das ist aber mit den Kohlekraftwerken so ähnlich wie mit den Kernkraftwerken: Für jedes Kohlekraftwerk, das wir hier abschalten, werden woanders 56 neue gebaut. Weltweit sind 1.400 Kohlekraftwerke im Bau oder in Planung. Und die kohlekraftwerksbauenden Länder denken gar nicht daran, bei der Weltrettung auf Kosten ihres Wohlstandes mitzumachen – genauso wenig, wie alle anderen Länder nicht daran denken, beim deutschen Atomausstieg mitzumachen.

Was kann Deutschland überhaupt zur Dekarbonisierung der Welt beitragen? Machen wir mal eine kleine Bilanz. Die Atmosphäre der Erde besteht zu 78 Prozent aus Stickstoff und zu 21 Prozent aus Sauerstoff – das sind 99 Prozent der Atmosphäre. Argon, Dämpfe und Spurengase machen 0,93 Prozent aus. Nur 4.000 von 10 Millionen Molekülen in der Atmosphäre sind CO2, das sind 0,04 Prozent. Von den 4.000 CO2-Molekülen sind 120 menschengemacht. Von diesen 120 menschengemachten CO2-Molekülen stammen drei (3) aus Deutschland, das sind 0,00003 Prozent. Drei CO2-Gasmoleküle von 10 Millionen sind Gasmoleküle aus Deutschland.

Um sich das bildlich vorstellen zu können, machen wir mal einen Höhenvergleich daraus. Wenn die Erdatmosphäre so hoch wie der Eiffelturm (324 m) wäre, dann wäre Stickstoff etwa 253 m hoch, so wie der Messeturm in Frankfurt. Sauerstoff wäre 68 m hoch, so etwa wie die Thomaskirche in Leipzig. Argon und die Spurengase wären 3 m hoch, wie das Goethe-/Schiller-Denkmal in Weimar. CO2 wäre so hoch wie eine Büro-Kaffeetasse, etwa 13 cm. Und der deutsche Anteil am CO2 wäre so hoch wie ein Blatt Papier, nämlich 0,1 mm. Der deutsche Beitrag zum weltweiten CO2 ist so viel, wie ein Blatt Papier im Vergleich zum Eiffelturm. (Vielen Dank an die Ersteller eines Videoclips mit diesem Vergleich auf Facebook.) Tja, liebe Deutsche, von ganzem Herzen: Viel Erfolg beim Weltretten!

Schluss mit der Klimakrise und mit lustig

Ich ordne die Forderungen nach sofortiger Abschaltung deutscher Kohlekraftwerke zwecks Weltrettung unter dem Begriff „Wohlstandsignoranz“ ein. Das sind Forderungen in Ermanglung echter Probleme, von denen es zugegebenermaßen schon heute ein paar gibt, über die man weniger gern spricht. Doch Greta, Annalena und Luisa wären sofort weg vom Fenster, wenn akut echte Probleme auftauchten, die jeden deutschen Angsthasen sofort und unmittelbar betreffen würden.

Das wäre spätestens der Fall, wenn uns allen in nicht allzu langer Zukunft der Euro um die Ohren fliegen würde. Die Zeit dafür ist reif. Die Nachrichten über eine Bankenkrise verdichten sich. Deutschland sitzt auf einem Berg Schuldscheine aus Target-Salden in höhe von 941 Milliarden Euro, die von den Schuldnern niemals zurückgezahlt werden können und für die im Falle eines Euro-Crashs die Steuerzahler haften. Die EZB druckt weiterhin munter jeden Monat 60 Milliarden, die Zinsen bleiben bei null, damit die Südländer weiter fröhlich Schulden machen können, mit Billigung von Brüssel.

Es ist sehr wahrscheinlich, dass der Eurocrash noch lange vor dem Klima-Armageddon dazwischen kommt. Man muss kein Volkswirt sein, um zu erkennen, dass durch die Politik des lockeren Geldes im letzten Jahrzehnt zu viel Schulden bei der Zukunft aufgenommen wurden, dass zu viel Pseudo-Geld ohne Gegenwert gedruckt und dass zu viel Steuer-Geld für unsinnige Weltrettungsideen verschleudert wurde.

Im Falle eines Eurocrash ist in Deutschland Schluss mit der Klimakrise und mit lustig. Denn dann ist nicht nur die Altersvorsorge futsch, womöglich das klein‘ Häuschen weg – falls es noch nicht abbezahlt ist oder eine Zwangshypothek kommt, es droht darüber hinaus Mammutinflation mit Arbeitslosigkeit und Massenverelendung. Wir haben noch 13 Jahre? Vielleicht auch nicht.

Der Beitrag erschien zuerst bei ACHGUT hier




Der Klimasommer

Dieses schöne Wort wurde uns von Annalena Baerbock geschenkt.

Im Gegensatz zu vielen anderen Sprachen ist es im Deutschen problemlos möglich, Substantive zu kombinieren. Das ist oft sinnvoll, erspart es doch längere Formulierungen oder Umschreibungen. Es kann aber auch zu Irrtümern führen, denn ein Kreiskrankenhaus ist nicht rund, ein Kronzeuge trägt keine Krone und ein Zitronenfalter faltet keine Zitronen.

Was ist nun ein „Klimasommer“? Tauchen wir also tief in den Kübel politischer Sprachpanscherei ein und greifen zunächst den Sommer: Aha, eine Jahreszeit. Die wärmste, wo die Sonne am höchsten steht und die Tage am wärmsten sind. Sie dauert genau drei Monate und ist global verschieden. Wenn wir Sommer haben, ist in Australien Winter. Klingt seltsam, ist aber so.

Beim zweiten Griff halten wir das Klima in der Hand. Es entsteht aus der Kette Wetter → Witterung → Klima und ist eine Statistik von Temperatur, Niederschlag, Luftfeuchte, Sonnenscheindauer und Windaufkommen, ermittelt über mindestens 30 Jahre. Weiter kann man unterscheiden in Mikro-, Meso- und Makroklima, je nach räumlicher Dimension der Betrachtung.

Nun haben wir in jeder Hand ein Wort – „Klima“ und „Sommer“ und pappen das einfach zusammen, wie es Frau Baerbock getan hat. Fügt man die Begriffe aber anders  zusammen als sie es tat, erhält es einen Sinn:Sommerklima. Da erinnert sich jeder, wie das Wetter in seiner Region so im Durchschnitt in den letzten Jahrzehnten war. Der Grönländer stöhnt bei fünf Grad plus über die Hitze, während der Nordafrikaner in seinem Winterklima bei zehn Grad plus die Mütze aufsetzt und die dicken Stiefel anzieht.

Also, alles relativ mit dem jahreszeitlichen Klima. Aber was ist nun ein Klimasommer? Hat das Klima, also eine Wetterstatistik über eine längere Zeit, jetzt auch Jahreszeiten? Das könnte man so sehen, wenn man an die Warm- und Kaltzeiten der Erdgeschichte denkt und die heutige Zeit als Warmzeit interpretiert. Ein weiterer Wortsinn ergibt sich nicht.

Vermutlich meinte Frau Baerbock auch etwas anderes, als sie sich anmaßte, das Auftreten der Kanzlerin, immerhin der ersten Person im Staat, völlig taktlos einer laienmedizinischen Diagnose zu unterziehen und dies gleichzeitig politisch zu instrumentalisieren. Da hat Annalena wieder einen Baerbock geschossen, der ihrer Kanzlerinnenkanditatinneneignung (um wiederum ein zusammengesetztes Substantiv zu benutzen) schaden dürfte. Sie hat mit dem rhetorisch atemlos im Stil einer Singer-Nähmaschine ratternden Stakkato in gewohnt hoher Platitüdenfrequenz schlicht überzogen. Um meinerseits eine laienmedizinische Diagnose abzugeben, vermute ich bei ihr eine cerebrale kognitive Insuffizienz, hervorgerufen durch lokale Hyperthermie in der Cortex cerebri als Ursache.

Als Politiker*_In der ersten Reihe hätte ihr das nicht passieren dürfen. Eine nachgeschobene Entschuldigung ist kosmetischer Natur, spontane Sprache legt das Denken offen. Wechselweises Gift sprühen und Kreide fressen gehört allerdings zum Instrumentarium der Politiker und auch der Grünen.

Was wollte Frau Baerbock mit dem Begriff „Klimasommer“ nun transportieren? Sie meinte mit einiger Wahrscheinlichkeit einen Sommer, der infolge eines Klimawandels wärmer ist als vorherige und der entsprechende Auswirkungen auf die Gesundheit der Menschen hat. Warum sagt sie das nicht? Weil Politikersprech sich zunehmend verschlagwortet und in Phrasen ergötzt. Unklare Sprache zeigt unklares Denken. Dies zeugt wiederum vom Elend unserer Eliten, dem Bildungselend.

Es gibt eine Vielzahl weiterer in dieser Weise unzulässig erfundener Begriffe, die zunehmend auch menschenfeindliche Assoziationen wecken. „Klimasünder“ und „Klimaleugner“ sind Menschenfeinde, „Klimaschädlinge“ sind offenbar nicht mal mehr Menschen. Am Klima kann man sich nicht „versündigen“, auch wenn manche pro Kopf mehr CO2ausstoßen als andere. Niemand leugnet den Klimawandel, es gibt nur verschiedene Ansichten zu den Ursachen. Und einen „Klimamanager“ kann es auch nicht geben, denn Management des Klimas würde gezielte Beeinflussung des Wetters bedeuten. Wenn Herr Rahmsdorf vom PIK nun meint, wir hätten die Kontrolle über das Klima verloren, bitte ich um die Angabe, wann und wie der Mensch diese Kontrolle schon jemals hatte.

 

Die Grünen in ihrer moralinsauren Abgehobenheit, die erntereife Felderzertrampeln oder dies gutheißen, scheinen von hohen Temperaturen deutlich beeinflusst, auch wenn sie derzeit wohl eher angesichts hoher Umfragewerte erregt zittern. Sie werden ihre ungedeckten Schecks auf die Zukunft noch einlösen müssen, wenn nach mehr als 14 Jahren Merkel die Scherben zusammengefegt werden. Egal, bei welcher Temperatur.

Der Beitrag erschien zuerst bei TE hier

 




„Atommüll“ im Bohrloch

Man kann heute nicht nur einige tausend Meter senkrecht in die Tiefe bohren, sondern auch noch bis zu 5 km waagerecht. Dabei ist entscheidend, daß man die waagerechten Bohrungen bis auf etwa einen Meter zielgenau innerhalb einer Schicht ausführen kann. Damit ergeben sich völlig neue Aspekte für den Bau eines Endlagers.

Bergwerk oder Bohrfeld

Der klassische Weg ist die Anlage eines Bergwerkes. Bis man mit der Einlagerung beginnen kann, muß man tatsächlich ein komplettes Bergwerk mit allen zugehörigen Einbauten errichten. Entscheidender Faktor ist hierbei der Mensch: Bergleute müssen von der ersten Stunde bis zum endgültigen Verschluß – ein Zeitraum von rund 100 Jahren – in diesem Bergwerk arbeiten. Das erfordert einen enormen Aufwand für die Sicherheit und begrenzt die Tiefe: Es muß nicht nur eine mehrere Kilometer lange Rampe für den Transport der Abfallbehälter aufgefahren werden, sondern zusätzlich noch Schachtanlagen für die Belüftung und den Personentransport. Für all die aufwendige Technik müssen im Berg komplette Werkstätten, Sozialräume etc. eingerichtet und betrieben werden. Ein enormer Kostenfaktor. Abschließend müssen alle Einbauten und Installationen (Kabel, Rohrleitungen usw.) wieder zurückgebaut werden und alle Hohlräume sorgfältig verfüllt und abgedichtet werden. Bei einem konventionellen Bergwerk holt man nur die wertvollen Dinge raus und läßt das Bergwerk absaufen und langsam in sich zusammenfallen. Genau das geht bei einem Endlager nicht. Hier muß der ursprüngliche Zustand des Gebirges möglichst gleichwertig wieder hergestellt werden – ist doch das Gestein die entscheidende Barriere eines Endlagers. Durch all diese bergmännischen Tätigkeiten wird die ursprüngliche Einlagerungsstätte erheblich verletzt. Dabei sind nicht nur die Hohlräume wieder zu verschließen, sondern auch die durch den Abbau gestörten Randzonen entsprechend abzudichten.

Legt man ein Bohrfeld an, muß zu keinem Zeitpunkt irgendein Mensch unter Tage arbeiten. Alle Bau-, Einlagerungs- und Verfüllarbeiten werden ausschließlich von der Oberfläche aus ausgeführt. Die Arbeiten gehen abschnittsweise vor sich. Sobald eine Bohrung fertiggestellt ist, kann sie befüllt werden und (wunschgemäß sofort) wieder fachgerecht verschlossen werden. Für jede Bohrung sind nur einige Monate erforderlich und anschließend ist sofort der Endlagerzustand erreicht. Dies bedeutet eine enorme Flexibilität. Man muß nicht mehr ein zentrales Endlager betreiben, in dem alle radioaktiven Abfälle eingelagert werden, sondern kann mehrere spezielle Lagerstätten einrichten. Dies könnte auch eine bessere Akzeptanz bei der Bevölkerung bedeuten. Es gibt nicht mehr eine Region, die sich als „Atomklo“ der Nation verstehen muß, sondern viele Endlager sind möglich. Der Nutzen von einem Kernkraftwerk kann besser mit den (vermeintlichen) Nachteilen eines Endlagers ausgeglichen werden. Insbesondere durch horizontale Bohrungen werden ganz neue Gebiete für die Endlagerung gewonnen. Für ein Bergwerk braucht man eine möglichst dicke Schicht (z. B. Salzstock). Für horizontale Bohrungen reichen sehr dünne Schichten (Abweichungen von weniger als einem Meter bei der Bohrung) aus. Ein stark geschichteter Untergrund kann sogar von Vorteil sein, wie man von den Gaslagerstätten weiß. Einzelne Schichten im Untergrund sind oft so dicht, daß sie nicht einmal unter Druck stehendes Erdgas durchlassen. Ein gewaltiger Vorteil für ein Endlager.

Senkrecht oder horizontal?

Die Idee „Atommüll“ in tiefe Bohrungen zu versenken ist nicht neu. So hat man in den USA versuchsweise Bohrungen bis 5000 m Tiefe ausgeführt. In den unteren 1 bis 2 km sollten dann Kanister mit „Atommüll“ endgelagert werden. Hier galt das Prinzip: Je tiefer, je sicherer, denn Tiefe schützt vor durchgehenden Rissen und es verbleibt nur noch die (langsame) Diffusion zum Transport. Der „Atommüll“ sollte also mindestens drei Kilometer unter der Erdoberfläche gelagert sein. Bei dieser Bauart stehen die Kanister übereinander, was zu einer entsprechenden Belastung für den untersten Kanister führt. Gemildert kann dies werden, indem man mehrere Pfropfen in die Bohrung einbaut, auf denen jeweils ein separater Turm steht. Dies verkürzt aber die nutzbare Länge entsprechend und erhöht die Baukosten. Nachteilig ist auch bei einem Wassereintritt, daß die radioaktiven Stoffe – angetrieben durch den Auftrieb durch die Wärmeentwicklung – bevorzugt in der Bohrung und ihrer Störzone nach oben steigen wollen. Es ist also eine besonders sorgfältige Wiederverfüllung nötig, damit auch langfristig keine radioaktiven Stoffe in Grundwasser führende Schichten gelangen.

Bei einer horizontalen Lagerung ist der Auftrieb naturbedingt wesentlich kleiner, da die Wärmeentwicklung eher flächig auftritt. Technisch arbeitet man dem Auftrieb entgegen, indem man den horizontalen Teil leicht ansteigend ausführt. Flüssigkeiten und Gase haben dadurch die Tendenz sich entgegen der Hauptbohrung zu bewegen. Bei einer solchen Anlage spielt Wasser in der Einlagerungszone eine geringe Rolle. Anders als bei einem Bergwerk muß es gar nicht abgepumpt werden und es werden somit nicht die Strukturen gestört. Es muß lediglich gewährleistet sein, daß es oberhalb ausreichende Sperrschichten gibt, die einen Austausch mit oberflächennahen Grundwasserschichten verhindern. Wie lange dieses Wasser schon keinen Kontakt mehr mit der Oberfläche hatte, kann man leicht über eine Isotopenanalyse ermitteln. So stammen beispielsweise die Wässer in den Ölfeldern von Texas (permian) überwiegend aus dem gleichen Meer, in dem auch die öl- und gasbildenden Organismen gelebt haben – sie sind Millionen Jahre alt. Genau die Schichten, die auch das Öl und Gas gefangen gehalten haben, haben auch sie von der Oberfläche fern gehalten. Ein weiterer Vorteil dieser alten Wässer ist, daß sie längst mit Mineralien gesättigt sind und keinen Sauerstoff mehr enthalten – sie können deshalb nur sehr schlecht den „Atommüll“ auflösen bzw. die Behälter korrodieren.

Die Konstruktion eines horizontalen Lagers

Der Bau eines solchen Endlagers vollzieht sich in drei Schritten: Im ersten Schritt wird eine ganz konventionelle Bohrung bis in die gewünschte Tiefe (mindestens so tief wie die geplanten Bergwerke) niedergebracht. Ist sie fertig gebohrt, wird sie komplett mit einem Stahlrohr ausgekleidet, welches einzementiert wird. Der Spezialzement verbindet das Rohr fest mit dem umgebenden Gestein und festigt die durch das Bohrgerät beschädigte Randzone (jeweils ungefähr einen halben Bohrungsdurchmesser um das Loch). Ab diesem Moment hat man also eine stabile senkrechte Rohrleitung nach unten. Im zweiten Schritt wird der Bogen als Übergang von der Senkrechten in die Horizontale gebohrt. Dies geschieht mit einem Winkel von etwa 0,25° pro Meter (300 bis 600 Höhenmeter zwischen Senkrecht und Waagerecht). Wie stark die Krümmung sein darf, hängt wesentlich von der Länge der „Müllbehälter“ ab. Schließlich sollen diese Behälter später ohne Belastung – wie ein Sattelzug auf einer Straße – um die Ecke gefahren werden. Will man z. B. komplette Brennelemente (in Deutschland z. B. ist eine Wiederaufbereitung politisch ausgeschlossen) einlagern, hat ein solcher Kanister eine Länge von knapp 5 m und wiegt rund 500 kg. Ist auch dieser Teil fertig gebohrt, wird er ebenfalls durchgehend bis zur Erdoberfläche verrohrt. Im senkrechten Teil besteht die Konstruktion nun aus zwei zentrischen Rohren, deren Zwischenraum ebenfalls zementiert wird. Im dritten Schritt wird die horizontale Bohrung ausgeführt. Man realisiert heute im Ölgeschäft bis zu 5 km lange Strecken. Wie lang eine Bohrung sein kann hängt maßgeblich von der Beschaffenheit der Schicht ab, in die die Endlagerung erfolgen soll. Dieser Teil wird nun ebenfalls verrohrt, was zur Folge hat, daß im senkrechten Teil nun drei Rohre ineinander gesteckt sind.

Die „Abfallbehälter“ bestehen aus Rohren mit einer Wandstärke von etwa 1 cm aus „Alloy 625“ (einem rostfreien Edelstahl, aus dem z. B. auch Rohre in Kernkraftwerken gefertigt werden). Hohlräume in den Behältern werden ausgefüllt und diese anschließend gasdicht verschweißt. Solche „Stangen“ – typische Durchmesser 23 bis 33 cm – sind außerordentlich stabil. Bis diese Behälter „durchgerostet“ sind, vergehen mindestens 50 000 Jahre. Ein Zeitraum, in dem fast alle Spaltprodukte bereits zerfallen sind. Erst dann müßte das Gestein seine Aufgabe als weitere Barriere erfüllen. Die Rohre zur Auskleidung der Bohrlöcher haben eine Lebensdauer von mehreren hundert Jahren.

Aus der Ölindustrie kennt man zahlreiche Verfahren, wie man solche Bohrungen befahren kann. Das Ein- und Ausbringen von Messgeräten, Kameras, Werkzeugen usw. ist Routine. Es gibt sogar Spezialfirmen, die abgebrochene oder verklemmte Bohrgestänge wieder aus einem Bohrloch fischen können. Die „Abfallbehälter“ werden wahrscheinlich mit einem elektrisch angetriebenen Traktor, an einem Stahlseil hängend, in die Rohre gedrückt bzw. wieder herausgezogen. Die Lagerung ist also für (mindestens) Jahrzehnte rückholbar. Auch dies eine politische Forderung, die eigentlich im Widerspruch zu einem Endlager steht.

Alle Arbeiten werden also von der Erdoberfläche aus ausgeführt. Einzige Besonderheit ist eine Abschirmung gegen die Strahlung während der Versenkung des „Atommülls“. In der Ölförderung ist es üblich, von einer kleinen Baustelle aus, mehrere Löcher zu bohren. Teilweise sogar mehrere Schichten übereinander zu erschließen. So könnte man auch ein recht großes Lagerfeld für viele Tonnen Abfall anlegen. Auch der oberirdische Platzbedarf wäre somit sehr viel kleiner als für ein vergleichbares Bergwerk.

Was könnte man einlagern?

Wie oben schon erwähnt, könnte man ganze Brennelemente ohne weitere Bearbeitung einlagern. Dies dürfte – wegen der enormen Rohstoffverschwendung – die Ausnahme sein. Viel eher wird man die verglasten Spaltprodukte mit den minoren Aktinoiden nach einer Wiederaufbereitung (französischer Weg) in solche Behälter gießen. Es sind aber auch andere Wege darstellbar. So fällt man in den USA in den militärischen Aufbereitungsanlagen Strontium und Cäsium (Halbwertszeit etwa 30 Jahre) aus der Spaltproduktlösung aus. So erhält man eine relativ große Menge kurzlebigen Abfall und eine relativ geringe Menge langlebigere Spaltprodukte. Diese Cäsium- und Strontium-Kapseln werden getrennt gelagert. Man kann hierfür einen besonders geeigneten Lagerort finden. Dampferzeuger aus Kernkraftwerken werden heute schon in Spezialfabriken zerlegt und dekontaminiert. Übrig bleibt eine große Menge handelsüblicher Schrott zu Wiederverwendung und ein kleiner Block eingeschmolzenen radioaktiven Materials. Diesen Abfall könnte man auch in die „Abfallbehälter“ gießen und endlagern. Heute wird es immer mehr üblich, kontaminierte Stoffe (Schutzkleidung etc.) vorher einzuäschern und nur noch das kleine Volumen der Asche zu lagern. Genauso könnte man belastete Filterharze in „Abfallbehälter“ umfüllen. Alles nur eine Frage der Kosten und des politischen Willens.

Der Beitrag erschien zuerst bei NUKEKLAUS hier




Strom ist nicht gleich Strom – Wieder Engpässe beim Strom in Deutschland

So viel Sonne – und dann Stromengpässe? Wie kann das denn sein? Die chaotischen Zustände kommen bekanntlich nicht erst seit diesem Monat vor, sondern schon seit langem. Wir haben die katastrophalen Folgen der Energiewende hier oft genug beschrieben. Z.B.:

Der Spiegel-Mann schreibt vermutlich von der FAZ ab: »Gerät das System aus der Balance, schwankt auch die sogenannte Stromfrequenz – was ganze Fabriken aus dem Takt bringen kann.«

Sogar ganze Fabriken. Das muss ja schlimm sein. Was, erführe der wackere Spiegel-Mann, dass die Netzfrequenz, nicht die »sogenannte Stromfrequenz«, die entscheidende Regelgröße ist, nach der Stromproduktion dem Verbrauch angepasst wird. Strom ist nämlich ein ganz besonderer Saft. Er kann nicht in größeren Mengen gespeichert werden. Es kommt immer darauf an, wann er gebraucht wird. „Strom ist also nicht gleich Strom“, wie auch der Titel eines lesenswerten Buches lautet.

Es kommt darauf an, wann er gebraucht wird und nicht, wann er zufällig anfällt. Ein Industrieland benötigt die Energie „Strom“, es kann seine Produktion nicht danach ausrichten, wenn zufällig die Sonne so schön scheint und ein paar Stunden tagsüber sehr viel Strom aus den Photovoltaikanlagen kommt. Nachmittags und spätestens abends ist Schluss mit lustig, Strom gibts nicht mehr, weil die Sonne untergegangen ist. Das Gleiche gilt für die Windräder, die auch nur dann Strom liefern, wenn der zufällig weht.

Woher kommt dann der Strom? In den Mengen, in denen er gebraucht wird, kann er nicht gespeichert werden. Wenn die letzten Kohlekraftwerke abgeschaltet sein werden, wird’s dunkel in Deutschland. Nur mit den großen Schwungmassen der Generatoren können die kurzzeitigen Schwankungen im Netz schnell ausgeglichen werden. Die werden sich nicht mehr drehen.

Denn noch steht in Deutschland hinter jedem Windrad, hinter jeder Photovoltaikanlage die Leistung eines konventionellen Kraftwerkes. Das lässt sich nicht eben mal anschalten, das dauert. Es läuft daher tagsüber gewissermaßen im Leerlauf, kostet entsprechend, muss dann liefern, wenn’s dunkel wird und von den Solaranlagen nichts mehr kommt.

Verbrauch und Produktion müssen in einem sehr exakten Gleichgewicht stehen. Die Netzfrequenz ist das entscheidende Maß dafür, ob genügend Strom produziert wird. Sämtliche Stromerzeuger und Verbraucher in Europa takten im Gleichklang von 50 Hertz. Sinkt die Frequenz auch nur geringfügig unter diesen Wert, so herrscht Strommangel und die Netzbetreiber müssen schnellstens weitere Stromquellen dazuschalten – oder eben möglichst schnell Stromverbraucher abschalten, also etwa mal eine Stadt.

Gerät das Verhältnis zwischen Stromproduktion und Verbrauch aus dem Takt, droht nicht nur der Ausfall einer Fabrik, sondern ein weitreichender Stromausfall, ein Blackout, der schnell ganz Europa erfassen kann. Das Beispiel Südamerika, das jüngst einen Stromausfall erlebte, der 48 Millionen Menschen im Dunkeln ließ, sollte für uns ein Warnschuss sein. Besonders bemerkenswert an diesem Ereignis ist, dass seine Ursachen immer noch nicht geklärt sind. Eine stabile Stromversorgung für ein Industrieland aufrecht zu erhalten, ist hoch komplex, insbesondere dann, wenn zwangsweise immer mehr wetterabhängiger Zufallsstrom eingespeist wird. Denn der ist pures Gift für die Netzstabilität.

Wenn wie derzeit tagsüber zu viel Sonnenstrom da ist, wissen die Netzbetreiber oft nicht, wohin damit. Denn auch in den Nachbarländern wartet man nicht auf den Strom, der zufällig mal aus Deutschland kommt. Erst eine kräftige Mitgift in Höhe von einigen Millionen Euro bewegt die Netzbetreiber, die eigene Produktion herunterzufahren und Strom aus Deutschland abzunehmen. Das nennen nur sehr Wohlmeinende Stromexportland.

Sehr nett finden es mitunter eidgenössische Netzbetreiber, Zufallsstrom aus Deutschland abzunehmen und damit Wasser in hochgelegene Speicher in den Alpen zu pumpen. Dafür bekommen sie oft genug viele Euros; die bekommen sie dann auch wieder, wenn sie diese Energie wieder an Deutschland zurückgeben, wenn dort Dunkelflaute herrscht. Der Gelackmeierte ist der Stromkunde, der den Spaß mit den höchsten Strompreisen Europas bezahlt.

Noch nicht erwähnt haben wir bisher die erheblichen Energieverluste, die bei diesen Stromtransporten quer durch Europa entstehen, und die ebenfalls der Stromkunde bezahlt. Denn Energie in Form elektrischer Energie über weite Strecken zu transportieren, ist die ungünstigste Form des Energietransportes. Effektiver geht es in Form der Kohlenwasserstoffe wie Kohle, Öl oder Gas.

Also: Strom ist nicht gleich Strom, es kommt immer darauf an, wann er gebraucht wird. Die Energiewende zerstört diese Regeln gründlich.

Der einzige vernünftige Vorschlag in der unseligen Energiewendendiskussion, den ich kenne, war der, dass Windkraft- und Photovoltaikstromlieferanten dann ihren Strom liefern müssten, wenn er auch benötigt wird. So, wie das der Bäcker machen muss, wenn er seine Brötchen ausliefert – in der Menge und zu dem Zeitpunkt, wenn seine Kunden sie benötigen. So müssen es die Wasserwerke machen, die schlecht sagen können: Jetzt haben wir gerade Wasser, wascht euch!

Das wäre Markt: Das Angebot richtet sich nach der Nachfrage, der Preis wird entsprechend geregelt. Und nicht umgekehrt wie derzeit auf dem Energiesektor, wo Stromproduzenten munter fordern: Wir liefern jetzt Strom, weil wir ihn gerade haben, weil Sonne und Wind liefern, also zahlt uns unseren horrenden Preis, gleichgültig, ob ihr den Strom benötigt oder nicht. In einem solchen System von „Marktteilnehmern“ zu sprechen, wie es der Spiegel tut, ist schräg.

Eine regelmäßige, gesicherte Energieversorgung ist die Voraussetzung für ein Industrieland. Das zerstört man am besten, indem dessen Energieversorgung zerstört wird, wie es die Energiewende gerade macht.

Die Schuld an einem Blackout muss man dann natürlich Spekulanten in die Schuhe schieben. Kennt man von Honecker & Co, die für schlechte Ernten den Klassenfeind verantwortlich machten, aber niemals die eigene Unfähigkeit. Von daher klingt dieses »Framing« bekannt – und bedrohlich.

Der Beitrag erschien zuerst bei TICHYS Einblick hier




90 italienische Wissenschaftler unterzeichnen Petition gegen Klimaalarm

Ja, in Italien haben vor kurzem über 90 Wissenschaftler eine Petition unterzeichnet mit dem Titel: “Klima, eine Gegenstrom-Petition“:

————

An den Präsidenten der Republik
An den Präsidenten des Senats
An den Präsidenten der Abgeordnetenkammer
An den Präsidenten des Rats

19.6.2019

 

PETITION ZUR GLOBALEN ANTHROPOGENEN ERWÄRMUNG

Die Unterzeichnenden, Bürger und Wissenschaftler, schicken eine warme Einladung an die politischen Führungskräfte, eine Umweltschutzpolitik einzuführen, welche im Einklang mit den wissenschaftlichen Erkenntnissen steht.

Insbesondere ist es dringend, die Verschmutzung dort zu bekämpfen, wo sie auftritt, gemäß den Befunden der modernsten Wissenschaft. Diesbezüglich ist die Verzögerung beklagenswert, mit welcher der Wissensreichtum, der von der Welt der Forschung zur Verfügung gestellt wird, benutzt wird, um die anthropogenen Schadstoffemissionen zu reduzieren, welche sowohl in den kontinentalen als auch Meeresumweltsystemen weit verbreitet vorhanden sind.

Aber uns muss bewusst sein, dass KOHLENDIOXID SELBST KEIN SCHADSTOFF IST. Im Gegenteil. Es ist für das Leben auf unserem Planeten unentbehrlich.

In den letzten Jahrzehnten hat sich eine These verbreitet, dass die Erwärmung der Erdoberfläche um rund 0,9°C, welche ab 1850 beobachtet worden ist, anomal wäre und ausschließlich von menschlichen Aktivitäten verursacht werden würde, insbesondere durch den Ausstoß von CO2 in die Atmosphäre beim Gebrauch fossiler Brennstoffe.

Dies ist die These der anthropogenen globalen Erwärmung, welche von dem Weltklimarat (IPCC) der Vereinten Nationen gefördert wird, deren Konsequenzen Umweltveränderungen sein würden, die so ernst wären, dass man enormen Schaden in der unmittelbaren Zukunft fürchten muss, außer wenn drastische und kostenintensive Abschwächungsmaßnahmen unverzüglich ergriffen werden.

Diesbezüglich sind viele Nationen in der Welt Programmen beigetreten, um Kohlendioxidemissionen zu reduzieren, und werden unter Druck gesetzt, auch durch eine nicht nachlassende Propaganda, zunehmend fordernde Programme anzunehmen, deren Umsetzung, welche mit hohen Belastungen auf die Wirtschaften der einzelnen Mitgliedsstaaten verbunden ist, von Klimakontrolle abhängig wäre und daher die „Rettung“ des Planeten.

Jedoch ist der anthropogene Ursprung der globalen Erwärmung EINE UNBEWIESENE HYPOTHESE, nur abgeleitet von einigen Klimamodellen, d.h. komplexen Computerprogrammen, genannt ‚General Circulation Models‘.

Hingegen hat die wissenschaftliche Literatur zunehmend die Existenz einer natürlichen Klimaschwankung betont, welche die Modelle nicht reproduzieren können.

Diese natürliche Schwankung erklärt einen beachtlichen Teil der globalen Erwärmung, welche seit 1850 beobachtet worden ist. Die anthropogene Verantwortung für die Klimaveränderung, welche in dem letzten Jahrhundert beobachtet worden ist, wird daher UNGERECHTFERTIGT ÜBERTRIEBEN und Katastrophenvorhersagen SIND NICHT REALISTISCH.

Das Klima ist das komplexeste System auf unseren Planeten, daher muss man sich damit mit Methoden befassen, welche adäquat sind und mit seinem Niveau der Komplexität übereinstimmen.

Klimasimulationsmodelle reproduzieren nicht die beobachtete natürliche Schwankung des Klimas und rekonstruieren insbesondere nicht die warmen Perioden der letzten 10.000 Jahre. Diese haben sich ungefähr alle tausend Jahre wiederholt und schließen die gut bekannte mittelalterliche Warmzeit ein, die heiße römische Periode, und generell die Warmzeiten während des „Holozänen Optimums“.

Die PERIODEN DER VERGANGENHEIT SIND AUCH WÄRMER GEWESEN ALS DIE GEGENWÄRTIGE ZEIT, obwohl die CO2 Konzentration niedriger war als die gegenwärtige, dieweil sie mit den tausendjährigen Zyklen der Sonnenaktivität verbunden sind. Die Auswirkungen werden von den Modellen nicht reproduziert.

Es sollte daran gedacht werden, dass die Erwärmung, welche seit 1900 beobachtet worden ist, tatsächlich in den 1700en begann, d.h. am Tiefpunkt der Kleinen Eiszeit, der kältesten Periode der letzten 10.000 Jahre (übereinstimmend mit dem tausendjährigen Tiefpunkt der Sonnenaktivität, welche Astrophysiker Maunder Minimum nennen). Seitdem ist die Sonnenaktivität, ihrem tausendjährigen Zyklus folgend, angestiegen, wobei sie die Erdoberfläche erwärmt.

Des Weiteren versagen die Modelle dabei, die bekannten Klimaschwankungen von ungefähr 60 Jahren zu reproduzieren.

Diese waren zum Beispiel verantwortlich für eine Warmzeit (1850-1880) gefolgt von einer kühleren Periode (1880-1910), eine Erwärmung (1910-40), eine Abkühlung (1940-70) und einer neuen wärmeren Periode (1970-2000) ähnlich der, welche 60 Jahre früher beobachtet wurde.

Die folgenden Jahre (2000-2019) sahen einen Anstieg, der nicht von den Modellen vorhergesagt wurde, von ungefähr 0,2°C pro Jahrzehnt, und eine beachtliche Klimastabilität, welche sporadisch von den schnellen natürlichen Schwankungen des äquatorialen Pazifischen Ozeans  unterbrochen wurde, bekannt als die El Nino Southern Oscillations, wie diejenige, welche zu der temporären Erwärmung zwischen 2015 und 2016 führte.

Die Medien behaupten auch, dass extreme Ereignisse, wie z.B. Hurrikans und Zyklone, alarmierend angestiegen sind. Umgekehrt sind diese Ereignisse, wie viele Klimasysteme, seit dem zuvor erwähnten 60-Jahre-Zyklus moduliert worden.

Zum Beispiel, wenn wir die offiziellen Daten von 1880 über tropische Atlantikzyklone betrachten, welche Nordamerika getroffen haben, scheinen sie eine starke 60-Jahre Schwankung zu haben, entsprechend der thermischen Schwankung des Atlantiks, genannt Atlantic Multidecadal Oscillation (=atlantische mehrdekadische Schwankung).

Die Spitzen, welche pro Jahrzehnt beobachtet wurden, sind in den Jahren 1880-90, 1940-50 und 1995-2005 miteinander kompatibel. Von 2005 bis 2015 nahm die Anzahl der Zyklone ab, wobei dies präzise dem zuvor erwähnten Zyklus folgte. Somit gibt es in der Zeitspanne von 1880-2015 zwischen der Anzahl der Zyklone (welche schwanken) und dem CO2 (welches monoton ansteigt) keine Korrelation.

Das Klimasystem wird noch nicht ausreichend verstanden. Obwohl es wahr ist, dass CO2 ein Treibhausgas ist, ist laut dem IPCC die Klimasensitivität auf dessen Anstieg in der Atmosphäre immer noch extrem unsicher.

Es wird geschätzt, dass eine Verdoppelung der Konzentration des atmosphärischen CO2 von ungefähr 300ppm vorindustriell auf 600ppm die Durchschnittstemperatur des Planeten von einem Minimum von 1°C bis zu einem Maximum von 5°C erhöhen kann.

Diese Unsicherheit ist enorm.

Jedenfalls schätzen viele neue Studien, die auf experimentellen Daten basieren, dass die Klimasensitivität auf CO2 BEDEUTEND NIEDRIGER ist als jene, die von den IPCC Modellen geschätzt wird.

Dann ist es wissenschaftlich unrealistisch, die Verantwortung für die Erwärmung, welche vom vergangenen Jahrhundert bis heute beobachtet wurde, den Menschen zuzuschreiben. Die voreilenden Vorhersagen der Panikmacher sind daher nicht glaubwürdig, da sie auf Modellen basieren, deren Ergebnisse den experimentellen Daten wiedersprechen.

Alle Beweise legen nahe, dass diese MODELLE den anthropogenen Beitrag ÜBERSCHÄTZEN und die natürliche Klimaschwankung unterschätzen, besonders jene, die von der Sonne, dem Mond und den Meeresschwankungen verursacht wird.

Schließlich veröffentlichen die Medien die Nachricht, laut dessen es in Bezug auf die menschliche Ursache der gegenwärtigen Klimaänderung einen fast einstimmigen Konsens unter den Wissenschaftlern gibt, dass die wissenschaftliche Debatte abgeschlossen werden würde.

Jedoch müssen wir uns zuerst einmal bewusst werden, dass die wissenschaftliche Methode bestimmt, dass die Fakten und nicht die Anzahl der Anhänger eine Mutmaßung zu einer gemeinsamen wissenschaftlichen Theorie machen.

Wie dem auch sei, der gleiche angebliche Konsens EXISTIERT NICHT. Es gibt tatsächlich eine bemerkenswerte Variabilität an Meinungen unter den Spezialisten – Klimatologen, Meteorologen, Geologen, Geophysiker, Astrophysiker – von denen viele einen wichtigen natürlichen Beitrag zur globalen Erwärmung anerkennen, welche von der vorindustriellen Zeit und sogar von der Vorkriegszeit bis heute beobachtet worden ist.

Es hat auch Petitionen gegeben, welche von tausenden von Wissenschaftlern unterschrieben worden sind, die eine abweichende Meinung zur Mutmaßung der anthropogenen globalen Erwärmung ausgedrückt haben.

Diese umfassen diejenige, welche 2007 von dem Physiker F. Seitz gefördert wurde, ehemaliger Präsident der American National Academy of Science, und diejenige, welche von dem nichtstaatlichen Weltklimarat (NIPCC) gefördert wurde, deren Bericht von 2009 zu dem Schluss kommt, dass „die Natur, und nicht die Aktivität des Menschen, regiert das Klima“.

Zum Schluss, angesichts der ENTSCHEIDENDEN WICHTIGKEIT, WELCHE FOSSILE TREIBSTOFFE für die Energieversorgung der Menschheit haben, schlagen wir vor, dass sie  nicht der Politik von kritikloser Reduzierung der Emission von Kohlendioxid in die Atmosphäre unterworfen werden sollten mit DEM ILLUSORISCHEN ANSCHEIN DES BEHERRSCHENS DES KLIMAS.

 

FÖRDERKOMITEE :

1. Uberto Crescenti, Emeritus Professor of Applied Geology, University G. D’Annunzio, Chieti-Pescara, formerly Rector and President of the Italian Geological Society.

2. Giuliano Panza, Professor of Seismology, University of Trieste, Academician of the Lincei and of the National Academy of Sciences, called of the XL, 2018 International Award of the American Geophysical Union.

3. Alberto Prestininzi, Professor of Applied Geology, La Sapienza University, Rome, formerly Scientific Editor in Chief of the magazine International IJEGE and Director of the Geological Risk Forecasting and Control Research Center.

4. Franco Prodi, Professor of Atmospheric Physics, University of Ferrara.

5. Franco Battaglia, Professor of Physical Chemistry, University of Modena; Galileo Movement 2001.

6. Mario Giaccio, Professor of Technology and Economics of Energy Sources, University G. D’Annunzio, Chieti-Pescara, former Dean of the Faculty of Economics.

7. Enrico Miccadei, Professor of Physical Geography and Geomorphology, University G. D’Annunzio, Chieti-Pescara.

8. Nicola Scafetta, Professor of Atmospheric Physics and Oceanography, Federico II University, Naples.

UNTERZEICHNENDE

1. Antonino Zichichi, Emeritus Professor of Physics, University of Bologna, Founder and President of the Ettore Center for Scientific Culture Majorana di Erice.

2. Renato Angelo Ricci, Professor Emeritus of Physics, University of Padua, former President of the Italian Society of Physics and Society European Physics; Galileo Movement 2001.

3. Aurelio Misiti, Professor of Health-Environmental Engineering, University of Sapienza, Rome.

4. Antonio Brambati, Professor of Sedimentology, University of Trieste, Project Manager Paleoclima-mare of PNRA, already President of the National Oceanography Commission.

5. Cesare Barbieri, Professor Emeritus of Astronomy, University of Padua.
6. Sergio Bartalucci, Physicist, President of the Association of Scientists and Tecnolgi for Italian Research.
7. Antonio Bianchini, Professor of Astronomy, University of Padua.
8. Paolo Bonifazi, former Director of the Institute of Interplanetary Space Physics, National Astrophysical Institute.
9. Francesca Bozzano, Professor of Applied Geology, Sapienza University of Rome, Director of the CERI Research Center.
10. Marcello Buccolini, Professor of Geomorphology, University University G. D’Annunzio, Chieti-Pescara.
11. Paolo Budetta, Professor of Applied Geology, University of Naples.
12. Monia Calista, Researcher in Applied Geology, University G. D’Annunzio, Chieti-Pescara.
13. Giovanni Carboni, Professor of Physics, Tor Vergata University, Rome; Galileo Movement 2001.
14. Franco Casali, Professor of Physics, University of Bologna and Bologna Academy of Sciences.
15. Giuliano Ceradelli, Engineer and climatologist, ALDAI.
16. Domenico Corradini, Professor of Historical Geology, University of Modena.
17. Fulvio Crisciani, Professor of Geophysical Fluid Dynamics, University of Trieste and Marine Sciences Institute, Cnr, Trieste.
18. Carlo Esposito, Professor of Remote Sensing, La Sapienza University, Rome.
19. Mario Floris, Professor of Remote Sensing, University of Padua.
20. Gianni Fochi, Chemist, Scuola Normale Superiore of Pisa; scientific journalist.
21. Mario Gaeta, Professor of Volcanology, La Sapienza University, Rome.
22. Giuseppe Gambolati, Fellow of the American Geophysica Union, Professor of Numerical Methods, University of Padua.
23. Rinaldo Genevois, Professor of Applied Geology, University of Padua.
24. Carlo Lombardi, Professor of Nuclear Plants, Milan Polytechnic.
25. Luigi Marino, Geologist, Geological Risk Forecasting and Control Research Center, La Sapienza University, Rome.
26. Salvatore Martino, Professor of Seismic Microzonation, La Sapienza University, Rome.
27. Paolo Mazzanti, Professor of Satellite Interferometry, La Sapienza University, Rome.
28. Adriano Mazzarella, Professor of Meteorology and Climatology, University of Naples.
29. Carlo Merli, Professor of Environmental Technologies, La Sapienza University, Rome.
30. Alberto Mirandola, Professor of Applied Energetics and President of the Research Doctorate in Energy, University of Padua.
31. Renzo Mosetti, Professor of Oceanography, University of Trieste, former Director of the Department of Oceanography, Istituto OGS, Trieste.

32. Daniela Novembre, Researcher in Mining Geological Resources and Mineralogical Applications, University G. D’Annunzio, Chieti Pescara.
33. Sergio Ortolani, Professor of Astronomy and Astrophysics, University of Padua.
34. Antonio Pasculli, Researcher of Applied Geology, University G. D’Annunzio, Chieti-Pescara.
35. Ernesto Pedrocchi, Professor Emeritus of Energetics, Polytechnic of Milan.
36. Tommaso Piacentini, Professor of Physical Geography and Geomorphology, University G. D’Annunzio, Chieti-Pescara.
37. Guido Possa, nuclear engineer, formerly Deputy Minister Miur.
38. Mario Luigi Rainone, Professor of Applied Geology, University of Chieti-Pescara.
39. Francesca Quercia, Geologist, Research Director, Ispra.
40. Giancarlo Ruocco, Professor of Structure of Matter, La Sapienza University, Rome.
41. Sergio Rusi, Professor of Hydrogeology, University G. D’Annunzio, Chieti-Pescara.
42. Massimo Salleolini, Professor of Applied Hydrogeology and Environmental Hydrology, University of Siena.
43. Emanuele Scalcione, Head of Regional Agrometeorological Service Alsia, Basilicata.
44. Nicola Sciarra, Professor of Applied Geology, University G. D’Annunzio, Chieti-Pescara.
45. Leonello Serva, Geologist, Director of Geological Services of Italy; Galileo Movement 2001.
46. ​​Luigi Stedile, Geologist, Geological Risk Review and Control Research Center, La Sapienza University, Rome.
47. Giorgio Trenta, Physicist and Physician, President Emeritus of the Italian Association of Medical Radiation Protection; Galileo Movement 2001.
48. Gianluca Valenzise, ​​Director of Research, National Institute of Geophysics and Volcanology, Rome.
49. Corrado Venturini, Professor of Structural Geology, University of Bologna.
50. Franco Zavatti, Astronomy Researcher, University of Bologna.
51. Achille Balduzzi, Geologist, Agip-Eni.
52. Claudio Borri, Professor of Construction Sciences, University of Florence, Coordinator of the International Doctorate in Engineering Civil.
53. Pino Cippitelli, Agip-Eni Geologist.
54. Franco Di Cesare, Executive, Agip-Eni.
55. Serena Doria, Researcher of Probability and Mathematical Statistics, University G. D’Annunzio, Chieti-Pescara.
56. Enzo Siviero, Professor of Ponti, University of Venice, Rector of the e-Campus University.
57. Pietro Agostini, Engineer, Association of Scientists and Tecnolgi for Italian Research.
58. Donato Barone, Engineer.
59. Roberto Bonucchi, Teacher.
60. Gianfranco Brignoli, Geologist.
61. Alessandro Chiaudani, Ph.D. agronomist, University G. D’Annunzio, Chieti-Pescara.
62. Antonio Clemente, Researcher in Urban Planning, University G. D’Annunzio, Chieti-Pescara.
63. Luigi Fressoia, urban architect, Perugia.
64. Sabino Gallo, nuclear engineer.
65. Daniela Giannessi, First Researcher, Ipcf-Cnr, Pisa.
66. Roberto Grassi, Engineer, Director of G&G, Rome.
67. Alberto Lagi, Engineer, President of Restoration of Complex Damaged Plants.
68. Luciano Lepori, Ipcf-Cnr Researcher, Pisa.
69. Roberto Madrigali, Metereologo.
70. Ludovica Manusardi, Nuclear physicist and scientific journalist, Ugis.
71. Maria Massullo, Technologist, Enea-Casaccia, Rome.
72. Enrico Matteoli, First Researcher, Ipcf-Cnr, Pisa.
73. Gabriella Mincione, Professor of Sciences and Techniques of Laboratory Medicine, University G. D’Annunzio, Chieti-Pescara.
74. Massimo Pallotta, First Technologist, National Institute for Nuclear Physics.
75. Enzo Pennetta, Professor of Natural Sciences and scientific divulger.
76. Nunzia Radatti, Chemist, Sogin.
77. Vincenzo Romanello, Nuclear Engineer, Research Center, Rez, Czech Republic.
78. Alberto Rota, Engineer, Researcher at Cise and Enel.
79. Massimo Sepielli, Director of Research, Enea, Rome.
80. Ugo Spezia, Engineer, Industrial Safety Manager, Sogin; Galileo Movement 2001.
81. Emilio Stefani, Professor of Plant Pathology, University of Modena.
82. Umberto Tirelli, Visiting Senior Scientist, Istituto Tumori d’Aviano; Galileo Movement 2001.
83. Roberto Vacca, Engineer and scientific writer.

—————-

Italienisches Original hier

Englische Übersetzung hier

Der Beitrag erschien zuerst bei „Die kalte Sonne“