1

Die Superbatterie

Die Skandinavier sind vom Klima so einiges gewohnt. Die Temperaturdifferenzen übers Jahr sind deutlich größer als in Mitteleuropa, heiße Sommer mit viel Licht wechseln schnell in lange, dunkle und kalte Winter. Das erfordert ein solides Energiesystem, das relativ wenige Menschen auf großer Fläche sicher versorgt. Viel Bergland gibt ein großes Potenzial an Wasserkraft, die die umsichtigen und pragmatischen Nordländer seit mehr als hundert Jahren auch zur Stromgewinnung nutzen.

Norwegen ist heute der sechstgrößte Wasserkraftproduzent der Welt. Die Stauseen bieten ein Speichervermögen von 82 Terawattstunden (Deutschlands Pumpspeicherwerke: 0,045 Terawattstunden). Das Land mit nur fünf Millionen Einwohnern hat sich ein ausgeklügeltes System seiner Versorgung gebaut und kann sich seinen Ökostromanteil von 90 bis 98 Prozent Wasserkraft vor allem dadurch sichern, dass es seine Wasserspeicher intersaisonal nutzt. Von Frühjahr bis Herbst wird Wasser aufgestaut, um im Winter, wenn es nicht regnet und Flüsse gefroren sind, die Speicher bedarfsgerecht abzulassen. Immerhin die Hälfte der 82 Terawattstunden Speichervermögen wird als Wintervorrat beansprucht. Das System ist mit geringstem Aufwand regelbar.

Das weckt deutsche Begehrlichkeiten, den exzessiv auftretenden deutschen Zappelstrom durch Stromaustausch mit Norwegen glatt gebügelt zu bekommen, wofür der Begriff „Superbatterie“geprägt wurde. Oft ist von norwegischen Pumpspeicherwerken die Rede. Aber schon das ist falsch, denn von den etwa 1.250 dortigen Wasserkraftwerken verfügen nur drei über die Möglichkeit, Wasser auch wieder in ein oberes Becken zu pumpen. Nutzen kann man die Funktion der Staukraftwerke als virtuelle Speicher, die Wasser aufstauen und länger speichern können, wenn zum Beispiel deutscher Windstrom das europäische Netz aufbläst. Diese Superbatterie wird von unseren Wendebegeisterten als wichtiges Element der zukünftigen Versorgung gesehen. Nun sind deutsche Wünsche nicht unbedingt die gleichen wie norwegische. Genau das Prinzip intersaisonaler Speicher bräuchte Deutschland, um den Solarstromüberschuss aus dem Sommer in den Winter zu retten, was Professor Sinn in diesem Vortraganschaulich zeigt. Der Beitrag ist etwas länger – aber es lohnt sich. Natürlich ist der deutsche Speicherbedarf im Vergleich zum dünn besiedelten Norwegen gigantisch.

Die Norweger bauten ihr System, um sich zu versorgen und die Kuppelstellen zu den Nachbarländern, um die Versorgungssicherheit zu erhöhen. Eines werden die Norweger mit Sicherheit nicht tun: Sich auf deutschen Windstrom stützen oder sich ihr System von außen in Schwanken bringen lassen. Wenn es dabei aber Geld zu verdienen gibt, werden sie es schon in kontrollierter Weise tun. Stromhandel kann ein einträgliches Geschäft sein, vor allem wenn es in Deutschland negative Strompreise gibt. Dann sorgt zwischengespeicherter deutscher Strom für eine ordentliche Gewinnspanne, die Österreich und die Schweiz heute schon nutzen. Allerdings gibt es hydrologische Restriktionen. Wenn die Stauseen voll sind, kann man nicht weiter anstauen. Dann könnte aber Wasser über den Bypass ungenutzt abgelassen werden, wenn deutscher Strom verschenkt wird samt Geld dazu.

Dann würden deutschen Kunden verhinderten norwegischen Ökostrom bezahlen.

In diesem Sommer käme überwiegend gar kein Strom aus Norwegen, denn nach einem sehr trockenen Frühjahr und Sommer sind die Speicherseen in Norwegen ziemlich leer. Waldbrände greifen um sich und Strom muss sogar importiertwerden, vor allem aus Schweden. Dort sind die Speicher zwar auch weitgehend leer, aber es bleibt die für Skandinavien wichtige stabile Säule der schwedischen Kernkraft. Wir erinnern uns, dass aus dem nach Tschernobyl getroffenen Ausstiegsbeschluss ausgestiegen wurde und sogar Neubauten wieder erlaubt sind. 2040 wollen die Schweden eine CO2-freie Stromerzeugung haben und sie werden es Dank Wasser- und Kernkraft auch schaffen.

Die reichlich 6 Gigawatt installierte schwedische Windkraft ist derzeit „nicht hilfreich“, um ein geflügeltes Kanzlerinnenwort zu gebrauchen. Sehen wir uns die Lastlage in Schweden am Montag, dem 16. Juli 2018 um 12 Uhr an:

Über 5 Gigawatt Wasserkraft fahren den Tagesgang (das heißt, sie sichern die Regelleistung) ab, die Windkraft dümpelt mit 350 Megawatt so vor sich hin (knapp sechs Prozent der installierten Leistung). Die Kernkraft (über acht Gigawatt) sichert die Grundlast und es bleibt noch was übrig für den Export nach Norwegen, Dänemark und Finnland (1,5 Gigawatt).

Deutscher Wind hätte zu diesem Zeitpunkt auch wenig helfen können: 660 Megawatt (1,16 Prozent der installierten Leistung).

Kernkraft ohne Abgas

Um mit sicherer und sauberer Energie die Versorgung in den nördlichen Breitengraden zukunftsfest zu machen,  baut Finnland seinen Atomanteil aus. Im September 2019 soll endlich nach vielen Bauverzögerungen Olkiluoto-3 in den Dauerbetrieb gehen, der erste EPR (European Pressurized Water Reactor) der Generation III+. Ein Block gleicher Bauart ging am 29. Juni 2018 erstmalig im chinesischen Taishan-1 in Betrieb, womit China nunmehr 40 Kernkraftwerke betreibt. Neu sind beim III+ technische Lösungen zur Abführung der Nachzerfallswärme im Störungsfall und gegen eine eventuelle Kernschmelze sowie ein höherer Wirkungsgrad.

In Skandinavien betrachtet man die Kernenergie als Ökoenergie auf Grund der weitgehenden Emissionsfreiheit. Seit Anfang 2016 läuft der Bau eines weiteren finnischen Blockes, Hanhikivi-1. Um den Leserfragen vorzugreifen: Ein finnisches Endlager in Onkalo ist genehmigt und soll 2023 in Betrieb gehen, das schwedische Endlagerprojekt bei Forsmark liegt derzeit der Regierung zur Genehmigung vor und soll ab 2024 genutzt werden. Natürlich finden sich dazu kaum Meldungen in den deutschen Qualitätsmedien. Die Vermeidung von Treibhausgasemissionen durch Kernkraft ist ein deutschnationales Tabuthema.

Die Frage der Leitungskapazitäten trägt zur Ernüchterung unserer Zukunftsvisionen bei. Bisher ist nur eine Leitung von Norwegen in die Niederlande in Betrieb (Kapazität: 0,7 Gigawatt). Mit „NorLink“ und „NorGer“ kommen 2019/2020 noch zweimal 1,4 Gigawatt dazu. Die Kosten liegen pro Leitung bei über einer Milliarde Euro, aber das wird den energiewendegestählten deutschen Verbraucher nicht schrecken.

Neben den Seekabeln wäre aber auch der Ausbau des norwegischen Netzes nötig, denn viele kleinere Wasserkraftanlagen dienen der regionalen Versorgung im Norden und sind für die Integration ins europäische Netz schlecht angebunden. Ob sich das rechnet, werden die Norweger erst mal prüfen.

Die drei genannten Leitungen werden nur zeitweise die Kapazitäten der noch laufenden Kernkraftwerke Brokdorf, Emsland und eines halben Grohnde ersetzen können.

Norwegen ist eines der wohlhabendsten Länder der Welt und kommt ohne die EU ganz gut zurecht. Es wird sein Energiesystem und die internationale Zusammenarbeit an seinen Interessen ausrichten. Auch aus historischen Gründen wird man sich nicht einer diesmal energetischen deutschen Besatzungsmacht unterwerfen.

Der Beitrag erschien zuerst bei TICHYS Einblick hier




Dr. Claus Kleber (ZDF heute Journal 3.8.18): „.. sich die Atmophäre „grundstürzend“ ändert!“

Der Klimatologe und Physiker Prof. Dr. Werner Kirstein richtete am 04.08.2018 eine Mail an Claus Kleber vom ‚heute-journal’ im Zweiten, bzgl. des Beitrages „Trockener Sommer: Woher kommt die Hitze?“ in der heute-journal-Sendung vom 03.08.2018. Hier von mir, nach besagtem Beitrag aus der Sendung, verlesen. Sehr aufschlussreich. Quelle zu Kirsteins Text: https://www.facebook.com/EIKEeV/posts…

Video nicht mehr verfügbar
Video Ausschnitt der heute Journal Klimakatastrophensendung vom 3.8.18 zur Erklärung der andauernden Hitzewelle durch den (menschgemachten) Klimawandel – mit Widerlegung durch Mail  an ZDF Redaktion durch den Klimatologen und Physiker Prof. Dr. Werner Kirstein.Mit Dank an FMD’s TV-Channel für die Bereitstellung auf Youtube

Hier der Text der Mail

betrifft: heute Journal vom 03.08.2018
Datum 04.08.2018 10:30

An
zuschauerredaktion@zdf.de <zuschauerredaktion@zdf.de>

Sehr geehrter Herr Kleber,

es ehrt Sie, dass Sie im heute Journal im Zusammenhang mit der derzeitigen Hitze und Trockenheit auch mal den Sommer des Jahres 1540 kurz erwähnt haben. Leider nur sehr oberflächlich und in der Sache nicht angemessen bewertet.

Sie haben nämlich verschwiegen, dass das heiße und trockene Jahr 1540 (vom 28.02 bis zum 19.09) bei weitem extremer war als jetzt das Jahr 2018. Zum Beispiel hat es in Zürich in diesem langen Zeitraum nur viermal geregnet. In Mailand blieb es 5 Monate lang völlig trocken.

Aber auch 79 n. Chr. und 1387 und 1473 waren mehr als extrem trocken und heiß. In der viermonatigen Dürre von 1473 konnte die Menschen zu Fuß durch das trockene Donaubett laufen. Stellen Sie sich bitte solche Verhältnisse einmal heute vor! Sie können sich denken worauf ich damit anspiele.

Warum hören Sie nicht mal zur Abwechslung auf Klimatologen und bringen in Sachen Klimawandel immer nur die selbsternannten „Klimawissenschaftler“, die – und das dürfte Ihnen bekannt sein – lediglich von Computer-Modellierung mit CO2 etwas verstehen, in der Klima-kunde sich aber überhaupt nicht auskennen.

Abgesehen davon wurde mit den CO2-Emis-sionen aufs falsche Pferd in den Modellen gesetzt. Weiterhin haben Sie im heute Journal „vergessen“ zu sagen, dass die historischen, extre-men Ereignisse außerhalb der Industrialisierung lagen, ohne CO2- und CH4-Emissionen, ohne Viehwirtschaft und ohne vergleichbar starken Fleischkonsum der Menschen usw. zu-stande kamen.

Sie bleiben also bei der Methode des ZDF, die wesentlichen Informationen wegzulassen, um damit dem politisch gewollten Klimawandel Vorschub zu leisten. Nicht Lügenpresse, aber ganz gezielte selektive Lückenpresse präsentieren Sie in den Nachrichten und wundern sich vielleicht, dass Sie nur bei vielen Zuschauern in Altenheimen kritiklos beliebt sind.

Im übrigen gab es seit 1900 auch extreme Sommer: etwa 12 heiße(!) und 12 kühle Sommer – ohne erkennbare Regelmäßigkeit. Recherchieren Sie und informieren Sie sich richtig, bevor Sie bei vielen Zuschauern falsche Bilder und eine falsche Klimapolitik im Kopf verankern.

Mit freundlichen Grüßen
Prof. Dr. Werner Kirstein
Klimatologe und Physiker

Ergänzend verweisen wir auf dein EIKE Beitrag „Es gibt keine globalen Hitzewellen“ mit der klaren Feststellung von Ryan Maue Klimawissenschaftler des Cato-Institus, dass

dass die derzeitige Wetterlage nicht vom Durchschnitt der letzten 18 Jahre abweicht.

Ryan Maue

Das heißt nicht, dass es keine anhaltende Sommerhitze gibt. Die Medien nehmen jedoch die extremen Temperaturen in Teilen der Welt zum Anlass, diese in eine allumfassende „globale Hitzewelle“ zu verwandeln.

(1) Bspw. der Sommer 1959 Details dazu hier mit Dank an Leser Wischer




Zum Bedarf an Wasser für Pump­speicher­kraftwerke

  1. Zur weiteren Versorgung bei Windstille und PV-Ausfall

  2. Zur Glättung der fluktuierenden Leistung der Wind- und Photovoltaikanlagen.

Zu Punkt 1:

Ich rechne mal ohne Wirkungsgrad. Mit Wirkungsgrad wird die Katastrophe nur größer.

Ich gehe mal von einer maximalen Netzlast von 80 GW aus, die im Notfall aus Pumpspeicherwerken mit 60 GW und 20 GW aus konventionellen Kraftwerken für eine Zeit von 21 Tagen bereitgestellt werden soll. Als Beispiel für ein Pumpspeicherwerk nehme ich mal das Werk Goldisthal in Thüringen. Das hat ein Nutzwasservolumen von 12.000.000 m³ und kann damit für 8 Stunden eine Leistung von 1 GW bereitstellen. Wir brauchen aber 60 dieser Anlagen um Deutschland mit 60 GW zu versorgen. Damit können wir dann 8 Stunden in Ruhe weitermachen. Wenn das Wasser der 60 Oberbecken dann abgearbeitet ist, sind insgesamt 60 * 12.000.000 m³ = 720.000.000 m³ Wasser geflossen. Der Tag hat aber 24 Stunden. Also müssen pro Tag nicht 60 sondern 180 Pumpspeicherwerke zur Verfügung stehen. Dafür benötigen wir dann 2.160.000.000 m³ Wasser. Es sollen aber 21 Tage überstanden werden können, also 21 mal soviel. Das bedeutet den Bau von insgesamt 21 * 180 Pumpspeicherwerken. Das sind dann 3780 Werke mit 45.360.000.000 m³ Wasservorrat im Unterbecken. Diese Wassermenge muss also dauerhaft in den Speichern zur Verfügung stehen, um im Notfall eingesetzt zu werden. Es handelt sich um 3780 Pumpspeicherwerke die Geld kosten aber kein Geld einbringen. Diese Werke stehen für die Vergleichmäßigung der Erzeugung aus volatilen Quellen nicht zur Verfügung. Die müssen noch zusätzlich gebaut werden.

Wer kann sich jetzt vorstellen wie viel Wasser das ist?

Ich habe mal die Wasserführung der großen deutschen Ströme zur Nordsee in Wikipedia nachgelesen :

Rhein 2900 m³/sec , Elbe 870 m³/sec, Weser 327 m³/sec mittlere Wasserführung

Das sind dann zusammen 4097 m³/sec oder 353.980.800 m³/Tag Die Pumpspeicherwerke benötigen also ungefähr die Wasserführung von 128 Tagen der Flüsse, die Deutschland zur Nordsee entwässern, um die Unterbecken zu füllen..

Wie bekommen wir das Wasser aber in die Oberbecken der Pumpspeicherwerke. Dazu müssen wir die gesamte Ökostromproduktion von 21 Tagen aufwenden, wenn denn Wind voll wehen würde. Also 21 Tage kein Strom in Deutschland. Die Sache muss ja fix gehen, denn die nächste Flaute kann ja schon morgen sein.

Jetzt wo scheinbar alles klar ist kommt die entscheidende Frage. Wo kriegen wir das Wasser für die Erstfüllung der Unterbecken her? Wir brauchen für 3780 Unterbecken mit je 12.000.000 m³ Nutzvolumen ja 45.360.000.000 m³ Wasser. Überall da, wo die Unterbecken sind, ist die Wasserführung der Flüsse, es sind Gebirgsbäche, sehr gering und von dem Wasser kann man nur einen Teil abzweigen.

Ich überlasse es dem Leser dieser Arbeit sich vorzustellen, wie das gehen soll ohne die Flüsse und Bäche im Gebirge zu zerstören. Mal abgesehen von der Zerstörung der Mittelgebirge durch 3780 Pumpspeicherwerke. An die Kosten ist ja noch nicht mal gedacht worden.

Ganz schlaue Leute werden jetzt auf die Weiterentwicklung von Batterien hinweisen. Dazu soll ja nur Forschung notwendig sein. Die gibt es schon seit mehr als 100 Jahren ohne den gewünschten Erfolg. Aber vielleicht müssen wir dann ganz Deutschland 10 Meter hoch mit Batterien vollstellen. Auch damit wäre Deutschland endgültig weltweit Vorreiter in Sachen Dummheit und Paranoia.

Zu Punkt 2:

Um die fluktuierende Stromerzeugung aus Windkraft zu glätten, also in eine nahezu konstante Netzeinspeisung zu wandeln sind Speicher notwendig, die bei Überleistung speichern und aus denen bei Unterleistung elektrische Leistung abgegeben wird. Dazu wird ein Speichermanagement gebraucht, das die Speicheranlagen steuert. In der folgenden Grafik ist die Erzeugungsleistung eines Monats aus Wind dargestellt.

Die Basis sind die Viertelstundenwerte der Leistungsmessung, die die Windrauhigkeit (Böen) ausblendet. Die Auswirkungen der Windrauigkeit auf die Netzfrequenz muss von drehzahlregelbaren rotierenden konventionellen Generatoren ausgeglichen werden. Windkraft ist, ebenso wie Photovoltaik, dazu nicht in der Lage. Windanlagen müssen immer die aus dem Wind gewonnene Leistung unmittelbar ins Netz einspeisen. Wenn das nicht geht, folgt die Notabschaltung oder die Windturbine verliert ihre Flügel.

Zum Betrieb einer solchen Anlage ist ein Speichermanager (SM) erforderlich. Hier ist ein Beispiel. Er ermittelt die erforderlichen Betriebswerte für den nächsten Tag, den 1. März. 2012

Der Speichermanager (SM) ermittelt aus den Viertelstundenwerten der Winderzeugerleistung des letzten Monats den Mittelwert, als rote Linie dargestellt. Aus den gelben Flächen ermittelt der SM die maximale Erzeugerleistung der Speicherkraftwerke am 4.Februar. Diesen Wert addiert er auf den Mittelwert und erhält damit den Grenzwert der maximal zulässigen Windleistung (graue Linie), bis zu der eingespeichert wird. Windleistung oberhalb dieses Grenzwertes muss abgeschaltet werden, also WKA abschalten. Dadurch wird erreicht, dass die Auslegung der Leistung für Pump- und Turbinenbetrieb der PSKW ungefähr gleich groß bleibt, was für Pumpturbinen sehr günstig ist. Spitzenleistungen (rote Flächen) zu speichern kostet viel Geld, kommt aber selten vor. Die werden dem Erzeuger aber auch honoriert.

Es ergeben sich drei Bereiche :

  1. Unter der roten Linie ist die direkt ins Netz eingespeiste Windleistung (grün) plus der Leistung der PSKW-Generatoren (gelb)

  2. Zwischen der roten und der grauen Linie ist die Leistung der PSKW-Pumpen (grau)

  3. Über der grauen Linie ist die abgeschaltete Windleistung (rot)

Man braucht jetzt für die Vorausschau auf den 1.März die meteorologische Windvoraussage für diesen Tag. Dann kann man, anhand der Daten des vergangenen Tages, Woche oder Monat, die voraus geschauten Grenzwerte ermitteln und danach die Anlagen fahren.

  1. rote Linie: Beginn der Speicherung von Windarbeit

  2. graue Linie: Beginn der Abschaltung von WKA.

Aus der Grafik, die ja ein Blick in die Vergangenheit ist, kann man weitere Fakten für die Aufgabe der Glättung ableiten :

1. Erzeugung Wind direkt plus Generatoren 4524 GWh

2. Generatorarbeit (geschätzte gelbe Fläche 30%) 1357 GWh

2a. Pumparbeit (geschätzte graue Fläche 30%) 1357 GWh

2b. Abgeschaltete Windarbeit (geschätzte rote Fläche 10% 452 GWh

3.Maximale Generatorleistung am 4.Februar 6,3 GW

Nun wird man einwenden, dass man ja gespeicherten Windstrom nicht in die Vergangenheit verlegen kann. Deshalb mache ich mit der Grafik einen horizontalen Flip und jetzt kann man gespeicherten Windstrom in die Zukunft verlegen. Es ist ja nur zur Veranschaulichung der Funktion eines Speichermanagers. Die grauen Flächen, oberhalb der roten Linie werden mit Turbinen in gelbe Flächen unterhalb der roten Linie gewandelt.

Jetzt kann man grob abschätzen wie viele PSKW vom Typ Goldisthal für den Betrieb des Monats Februar 2012 benötigt werden. Für die maximale Generator/Pumpleistung von

6,3 GW sind rund sechs Werke erforderlich. Es sind aber 1357 GWh elektrischer Arbeit zu speichern. Goldisthal kann 8 GWh speichern. Also braucht man 169 Werke vom Typ Goldisthal um im Februar über die Runden zu kommen. Es ist nur eine grobe Abschätzung, denn zwischen den Speicherungen gibt es ja auch Ausspeicherungen. Das für die Speicheranlagen ein gigantischer Netzausbau erforderlich ist dürfte klar sein. Wie man aber aus Südaustralien zur Kenntnis nehmen musste, ist eine Versorgung aus Erneuerbaren nur bis zu ca. 35% möglich. Die Anpassung an die geforderte Netzlast muss immer mit drehzahlregelbaren Dampf- oder Wasserkraftwerken erfolgen. Von Wasserkraftwerken sollte man lieber Abstand halten wie der Dammbruch in Laos kürzlich gezeigt hat. Stabilität bedeutet die Frequenz von 50 Hz einzuhalten und keine Netzüberlastungen durch regionale Untererzeugung zuzulassen.

Aus den Fakten des Aufsatzes ist klar zu erkennen, dass ein solches Konzept nicht umsetzbar ist, sondern nur dem paranoiden Kopf von ideologisierten Spinnern entfleucht sein kann. Sonst müsste man ja an Kriminalität denken. Das die Mehrheit der Fachleute schweigt ist schon sehr erstaunlich und das eine Bevölkerung so ungebildet ist und das nicht erkennt, ist nicht zu fassen. Solchen Menschen kann man alles einreden. Das kennt man in Deutschland ja bestens und hat nichts dazu gelernt.

Hier ein Zitat aus dem Werk eines deutschen Kanzlers:

„Man ging dabei von dem sehr richtigen Grundsatze aus, daß in der Größe der Lüge immer ein gewisser Faktor des Geglaubtwerdens liegt, da die breite Masse eines Volkes im tiefsten Grunde ihres Herzens leichter verdorben als bewußt und absichtlich schlecht sein wird, mithin bei der primitiven Einfalt ihres Gemütes einer großen Lüge leichter zum Opfer fällt als einer kleinen, da sie selber ja wohl manchmal im kleinen lügt, jedoch vor zu großen Lügen sich doch zu sehr schämen würde. Eine solche Unwahrheit wird ihr gar nicht in den Kopf kommen, und sie wird an die Möglichkeit einer so ungeheuren Frechheit der infamsten Verdrehung auch bei anderen nicht glauben können, ja selbst bei Aufklärung darüber noch lange zweifeln und schwanken und wenigstens irgendeine Ursache doch noch als wahr annehmen; daher denn auch von der frechsten Lüge immer noch etwas übrig- und hängen bleiben wird – eine Tatsache die alle großen Lügenvereine dieser Welt nur zu genau kennen und deshalb auch niederträchtig zur Anwendung bringen.“

Den Namen schreibe ich nicht. Kann sich ja jeder denken wer das war. Es funktioniert aber immer noch prima.

Michael Treml, Bremen

Über den Autor. Er hat sein ganzes Berufsleben in der Stromerzeugung mit Großkraftwerken, der Fernwärmeerzeugung und Verteilung als technischer Angestelter verbracht und ist jetzt im Ruhestand.




Kleine Modulare Kernkraftreaktoren bieten eine nachhaltige Energieproduktion

STT favorisiert die Kernenergie, weil sie funktioniert: Sicher, bezahlbar und zuverlässig ist sie die perfekte Alternative für diejenigen, die von CO2 Vermeidung besessen sind – weil sie kein CO2 emittiert und gleichzeitig Energie auf Abruf erzeugt.

Eine der schwachen „Argumente“ dagegen ist, dass Kernkraftwerke gewaltige Ausmaße haben, der Bau länger braucht als die Pyramiden von Gizeh und doppelt so viel kosten.

Das Gegenteil ist dabei Realität zu werden, wie dieser Artikel von Forbes erläutert.

 

Der kleine modulare Kernreaktor von NuScale hat die größte Hürde genommen
Forbes ; James Conca
15. Mai 2018

NuScale Power ist dabei, den ersten kleinen modularen Kernreaktor in Amerika schneller als erwartet in Betrieb zu nehmen.

[Hinweis: Alle Grafiken mit freundlicher Genehmigung von NuScale Power, außer andere Quelle angegeben.]

Anfang Mai 2018 konnte NuScales die Phase-1-Überprüfung seiner Design-Zertifizierungsanwendung (DCA) durch die US Nuclear Regulatory Commission (NRC) für einen kleinen modularen Kernreaktor (SMR – small modular reactor) abschließen.  Das ist eine große Sache, denn Phase 1 ist die intensivste Phase der Überprüfung und erfordert mehr Zeit und Aufwand als die verbleibenden fünf Phasen zusammen.

Die Überprüfung des NuScale-Designs durch den NRC begann im März 2017 und der endgültige Bericht des NRC für die Genehmigung wird voraussichtlich im September 2020 vorliegen. NuScale ist der erste und einzige SMR, der jemals eine NRC-Überprüfung durchlaufen hat. Nachdem Phase 1 so schnell geschafft wurde, ist das Unternehmen wirklich auf dem besten Weg, in den nächsten Jahren das erste Kernkraftwerk mit kleinen modularen Reaktoren in Amerika zu bauen.

Der erste Kunde ist schon gefunden. Utah Associated Municipal Power Systems ( UAMPS  – Energieversorger) wird die erste NuScale-Anlage, eine SMR mit 12 Modulen bekommen, begleitet vom Idaho National Laboratory (Forschungseinrichtung des Energieministeriums). Der Betreiber ist der erfahrene Energieanbieter Energy Northwest.

NuScale Power, Video der Funktion und des Aufbaus mit Generator.
[update, 06.08.2018, Video zum funktionieren gebracht]

Unterirdisch eingebaute Reaktorzelle(n). Die oberirdischen Anlageteile entsprechen üblichen, konventionellen  Dampfturbinen- Generatoreinheiten, Gebäude mit Leitzentrale und Kühlturm.

 

Quelle NuScale Power; Nuclear power modul;

Jede Zelle hat einen inneren und äußeren Kühlkreislauf:  Aufnahme der Hitze der Brennelemente, Wärmetauscher zur Erzeugung des Dampfes, für konventionelle Dampfturbinen- Generatorkombinationen.

„Wir sind dankbar für die genaue Überprüfung unseres revolutionären nuklearen Entwicklung und schätzen es sehr, dass die Regierung erkannt hat, wie wichtig es ist, die Fortschritte von NuScale zu fördern“, sagte John Hopkins, Chairman und Chief Executive Officer von NuScale Power. „Unsere Technologie bedeutet erhebliche wirtschaftliche und berufliche Vorteile für das Land und ist in der Lage, die heimische Kernkraft-Industrie durch NuScales erschwingliche, flexible und sichere Lösung für die Bereitstellung von CO2-freier Energie zu revitalisieren.“

Der NuScale-Reaktor ist Amerikas beste Chance, auf dem globalen Markt für kleine Kernkraftmodule zu konkurrieren und versetzt die USA in die Lage, ausländische Konkurrenten zu begegnen,  wie Argentinien, China, Russland und Südkorea , die ihre eigenen SMR-Designs entwickeln.  Konservative Schätzungen gehen davon aus, dass im Jahr 2035 zwischen 55 und 75 GW Strom aus dem Betrieb von SMRs weltweit fließen werden, was mehr als 1.000 NuScale Power Modules entsprechen wird und einem  Marktvolumen von einer Billion Dollar entspricht.

Und Amerika sollte in diesen Markt eine Vorreiterrolle einnehmen.

Das US-Energieministerium stimmt dem zu und hat NuScale Power am 27. April eine finanzielle Unterstützung in Höhe von 40 Millionen US-Dollar zugesprochen, um die Markteinführung dieser SMR zu unterstützen. NuScale ist der einzige SMR, der für diese Auszeichnung ausgewählt wurde, mit einem soliden Plan, der durch Design, Tests, Lizenzierung und Kommerzialisierung unterstützt wird, die für den kommerziellen Betrieb in den 2020er Jahren wichtig sind.

Die SMR-Entwickler erwarten, dass die modulare Konstruktion Vorteile einer Serienfertigung realisieren kann und sich vielfältige Liefermöglichkeiten eröffnen. NuScale hat geschätzt, dass seine erste Anlage mit knapp einem Budget von 3 Milliarden US-Dollar auskommt, was zu „overnight capital cost“ von 5.078 US-Dollar / kWe führen wird.

[„overnight capital cost” sind reine Baukosten pro KW-energie, ohne Kapitalkosten oder Grundstück u.ä., in der Energiebranche zum Vergleich zwischen unterschiedlichen Standorten und unterschiedlichen Technologien genutzt]

Aber die wahre Stärke von SMRs ist die Eigenschaft, dass sie nicht zusammenschmelzen können. Das ist eine große Sache. Es bedeutet, dass der Reaktor einfach nicht schmelzen wird oder in irgendeiner Weise Alpträume verursacht, an die die Leute denken, wenn sie sich das Schlimmste für die Kernenergie vorstellen.

Es schaltet sich einfach aus und kühlt ab.

Dr. Jose Reyes , NuScale Chief Technology Officer und emeritierter Nukleartechnik Professor an der Oregon State University, schwärmt von seiner Entwicklung:

 „…dieser modulare Reaktor nutzt die Vorteile des kleinen in kleinen Modulen. Die geringe Größe und das große Oberfläche-zu-Volumen-Verhältnis des NuScale-Reaktorkerns, der sich unter der Erde in einem seismisch beständigen Kühlkörper befindet, ermöglicht es natürlichen Prozessen, ihn im Falle eines vollständigen Stromausfalls unbegrenzt zu kühlen. Es werden keine Menschen oder Computer benötigt, um einzugreifen, keine Wechsel- oder Gleichstromversorgung, keine Pumpen und kein zusätzliches Wasser zum Kühlen.“

Quelle NuScale Power;Sicherheitskonzept für den Reaktor.

Als erstes Unternehmen für kleine Reaktormodule,  das eine Lizenzanwendung bei NRC einreicht, verhindert das kleine Power-Modul von NuScale mit seinem großen Verhältnis von Oberfläche zu Volumen jede Art von Kernschmelze.

Phase 1: Wenn der Strom ausfällt, kühlt der Reaktor über 90% der Wärme am ersten Tag durch natürliche Wasserkonvektion, keine Pumpe nötig

Phase 2: dann 90% der verbleibenden Wärme durch Abkochen des Wassers,

Phase 3: dann ist es kühl genug, um die Restwärme langsam in die Umgebung zu entlüften, so lange wie nötig.

Der Reaktor ist inhärent sicher

Ein paar zusätzliche Merkmale sind: 1) niemand kann diesen Reaktor hacken und 2) das „Nachtanken“ eines Reaktormoduls erfordert nicht, dass das gesamte Kernkraftwerk stillgelegt wird.

Die Komponenten des NuScale-Reaktors können alle in der Fabrik fertiggestellt und geprüft werden –  vor dem Versand und der Montage vor Ort, wodurch ein erhebliches Kostenproblem beim Bau neuer Kernkraftwerke beseitigt wird. Die Reaktorbehälter und andere große Bauteile können mit mittelgroßen Schmieden [Unternehmen für Anlagenbau] hergestellt werden, die wir hier in den Vereinigten Staaten noch haben. Herkömmliche Großreaktoren benötigen extrem große Schmiedeanlagen, von denen es auf der Welt nur wenige gibt – keine in Amerika.

Herkömmliche Kernreaktoren haben Nennleistungen zwischen etwa 600 und 1.200 MW, aber diese kleinen Strommodule haben jeweils etwa 50 MW und mehrere  von ihnen können zu einem Kraftwerk mit einer Leistung von bis zu 600 MW kombiniert werden –das ist dann eine 12er-Packung.

Diese Module verwenden Standard-17 × 17-PWR-Brennelemente  [ein Standard in Kerngröße und  Konstruktion] und sind damit auch bei halber Größe kostengünstig, mit einer durchschnittlichen U-235-Anreicherung von 3,8%. Ein einzelnes Nuklearmodul von NuScale ist rd 23 m hoch und 4,60m im Durchmesser und würde in einer Anlage sitzen, die weniger als ein Zehntel einer Quadratmeile oder etwa ¼ qkm bedeckt.

Im Vergleich dazu braucht es mindestens 360-mal so viel Fläche für einen Windpark,  um die gleiche Nennleistung zu haben, wie ein NuScale-12er-Pack , welches dann im Gegensatz zu Windanlagen die Energie zuverlässig liefert.

Durch diese innovativen Konzepte werden die Lebenszykluskosten für die Stromerzeugung mit dieser SMR unter die der meisten anderen Energiequellen gebracht, knapp über der von Wasserkraft und Erdgas . Diese SMR kann auch in etwa der Hälfte der Zeit für herkömmliche Kernkraftwerke gebaut werden.

Es ist möglich, alle Applikationsdokumente für das NuScale-Design bei NRC einzusehen. Man findet dort auch die Kriterien für die Auszeichnung des DOE (Energieministeriums). DOE fördert Projekte, die sich auf die Entwicklung von „industriegetriebenen Reaktorkonstruktionen und begleitenden Technologien konzentrieren und hohes Potenzial für die Förderung der Kernenergie in den USA“ bieten.

Quelle: Energie Informationsbehörde  EIA,  Anteil der Energiequellen in USA
6 % andere Erneuerbare; dahinter stehen Wind, Solar und Bio

NuScale hat seinen Hauptsitz in Portland, Oregon und Niederlassungen in Corvallis, Or, Rockville, Maryland, Charlotte, North Carolina, Richland, WA, Arlington, Virginia, und London, UK.
Forbes

Gefunden über Stopthesethings am 09.06.2018

Übersetzt und zusammengestellt durch Andreas Demmig

https://stopthesethings.com/2018/06/09/small-modular-reactors-pint-sized-performers-add-to-long-term-nuclear-solution/




Diesel-Nachrichten aus einem überhitzten Deutschland

In China verbinden regelmäßig fliegende Flugzeuge und pünktliche Hochgeschwindigkeitszüge viele Städte in hoher Qualität und Taktzahl. So muss kaum jemand längere Überlandstrecken mit dem Auto fahren.

In dem Land, in dem das Auto erfunden wurde, hat es diese hochentwickelte Fortbewegungsmaschine immer schwerer. Ein paar wenige NGO versuchen in Zusammenarbeit mit grünbesetzter staatlicher Verwaltung, die individuelle Mobilität der Bürger zu beschneiden.

Das Gegenteil in China: Dort explodiert die Nachfrage nach Autos, wie das auch Helmut Becker beschreibt. Doch während sämtliche Experten hierzulande geradezu zwanghaft den Vorrang der Elektromobilität in China beschwören, sieht der Blick in die Praxis anders aus: Etwa die Hälfte aller weltweit neuen Autos von rund 1,197 Millionen im Jahr 2017 wurden in China zugelassen, in Deutschland dagegen nur magere 109.731.

Die werden – oh Wunder – in China zu 90 Prozent von Verbrennungsmotoren angetrieben. China treibt zwar Elektromobilität stark voran, das hat aber mehr wirtschaftliche Gründe, weil ihre Autohersteller die technologisch einfacheren Elektromotoren besser herstellen können als die komplizierten Verbrennungsmaschinen.

Und: In China gilt dieselbe Physik wie hierzulande, und die lässt zumindest derzeit noch keine besseren Lösungen bei den derzeitigen Elektroautos zu. Auch in China wurde das Reichweitenproblem des Elektroantriebes nicht gelöst. Der Energiegehalt einer Batterie ist gegenüber Benzin deutlich beschränkter, die Reichweite also wesentlich geringer.

China hat eine moderne Verkehrsinfrastruktur

In China verbinden regelmäßig fliegende Flugzeuge und pünktliche Hochgeschwindigkeitszüge viele Städte in hoher Qualität und Taktzahl. So muss kaum jemand längere Überlandstrecken mit dem Auto fahren. Der meiste Individualverkehr spielt sich in den großen Städten ab. Dort reicht eine Batterieladung für 200 Kilometer Fahrstrecke im Elektroauto aus. So kann die Elektromobilität dort eine Säule des Verkehrskonzeptes sein.

Außerdem wissen die Chinesen, das wird gerne in Berichten hierzulande unterschlagen, dass der Strom irgendwo herkommen muss. Verlässliche Hauptquelle können nicht Windräder oder Fotovoltaikanlagen sein, sondern nur große Kohle- oder Kernkraftwerke. Fast jede Woche wird ein neues gewaltiges Kraftwerk in Betrieb genommen, um den ungeheuren Stromhunger zu befriedigen.

Anders in Deutschland: Hier werden solche Kraftstationen reihenweise abgeschaltet. Niemand kann verlässlich sagen, wo in Zukunft der Strom herkommen soll. In China dagegen gibt es sehr genaue Vorstellungen und Planungen dazu. Hierzulande sind die Autohersteller schon so verunsichert, dass sie schon von selbst Alarm schlagen und auf die große Gefährlichkeit ihrer Produkte hinweisen, noch bevor Umweltbewegte begriffen haben, dass überhaupt bedrohliche Stoffe im Auto enthalten sind.

Cadmium …

Volkswagen hat von sich aus auf ein mögliches Gefahrenpotenzial ausgerechnet in den so angehimmelten umweltfreundlichen Elektroautos und Hybridfahrzeugen hingewiesen. Schreckensbleich spricht der Hersteller davon, dass möglicherweise 124.000 Elektroautos zurückgerufen werden müssen. Grund: Cadmium inside. VW hatte das Kraftfahrtbundesamt (KBA) bereits im Juli darüber informiert, dass eine mögliche »Nicht-Konformität mit der europäischen Altfahrzeuggesetzgebung« vorliegen könnte. Ein Relais im Ladegerät, so wurde festgestellt, enthalte jeweils 0,008 Gramm Cadmium. Diese winzige Menge könnte die spätere Entsorgung der Fahrzeuge gefährden. Das sind insgesamt knapp ein Kilogramm Cadmium, die in diesen 124.000 Autos verwendet wurden.

Wie Volkswagen erklärte, sei die Serienfertigung und Auslieferung der Fahrzeuge sofort gestoppt worden, das betroffene Bauteil durch das eines anderen Zulieferers ersetzt und die Fertigung wieder aufgenommen. Dass geringe acht Milligramm Cadmium schon derart fast panische Reaktionen hervorrufen können, zeigt, wie nervös Autohersteller heutzutage geworden sind. Welche Worte wählt der Autohersteller, wenn bekannt wird, wieviele andere kritischen Elemente noch alles in gigantischen Mengen in den Batterien enthalten sind?

Mit der Silber-Cadmium-Verbindung sollen die Kontaktflächen der Relaisschalter verbessert werden. Sie sollen vor allem weich sein, damit die kleinen Schaltflächen möglichst eben aufeinander zu liegen kommen. Ansonsten bilden sich beim Schaltvorgang an rauen Stellen auf den Oberflächen wie bei einem Lichtschalter Abreißfunken und zerstören das Relais. Diese Kontaktflächen liegen im kleinen geschlossenen Gehäuse des Relais.

… hier ideologisch böser Schadstoff, dort gut

Gut, dass nicht die sehr hohen Mengen an Cadmium zur Sprache kamen, die auf vielen Hausdächern liegen. Denn in manchen Dünnschicht-Solarmodulen befindet sich dieses Schwermetall ebenfalls und kann sogar durch Regenwasser herausgewaschen werden, wie ein Forschungsprojekt der Universität Stuttgart ergab.

Cadmium – hier ideologisch korrekter Schadstoff. Die EU hat übrigens die Anwendung des giftigen Schwermetalls in der Photovoltaik ausdrücklich nicht verboten. Das ist schließlich eine gute Technologie; hier ist das gleiche Element nicht giftig und gefährlich. Es befindet sich noch in tausenden von Akkus zum Beispiel von Heimwerkermaschinen, die lange Zeit von Nickel-Cadmium Akkus angetrieben wurden.

Wer viel Bio-Schokolade futtert, der kann über einen längeren Zeitraum hinweg beachtliche Mengen an Cadmium direkt aufnehmen. Denn, diese Geschichte sorgte vor einiger Zeit für Aufsehen, Kakaobohnen aus Lateinamerika sind relativ stark mit Cadmium belastet. Das hängt nicht mit bösem Kunstdünger oder anderen gefährlichen Chemikalien zusammen, mit denen die Bauern ihre Kakaopflanzen bearbeiten, sondern schlichtweg mit natürlichen Bodenverhältnissen. In bestimmten Regionen, vor allem mit Schwemmgebietsböden und mit vulkanischen Böden, kommt das Schwermetall häufiger als anderswo vor. Die Kakaobohnen nehmen das auf. Die Lösung der großen Kakaohersteller: Sie mischen für ihre Schokolade Kakaobohnen aus unterschiedlichen Regionen und senken so den Durchschnitt des Cadmiumgehaltes in der Schokolade.

Immerhin hat die EU vor einiger Zeit beschlossen, ihre Bürger zumindest vor den paar Molekülen Cadmium zu schützen und den maximalen Kakaogehalt für 100 g Schokolade auf 0,08 mg Cadmium festgesetzt. Das gilt ab dem kommenden Jahr. 100 Tafeln cadmiumbelasteter Schokolade entsprechen also einem Relais, das in einem VW Elektroauto eingebaut ist.

Der Beitrag erschien zuerst bei TICHYS Einblick hier




Der grobe Fehler der Klimatologie – eine Aktualisierung

[Anmerkung des Übersetzers: Bei der folgenden Übersetzung ist mir bei einigen Begriffen keine sinnvolle Übersetzung ins Deutsche eingefallen. Diese Begriffe sind kursiv gesetzt. Alle anderen Hervorhebungen sind vom Original übernommen. – Ende Anmerkung]

Hier möchte ich unsere Beweiskette für Laien erklären (weil ich auch genau das bin). Falls man einen detaillierteren Einstieg in die dahinter stehende Physik wünscht, dann findet man den in diesem PDF mit dem Titel error-summary.

Nach einer kurzen Darstellung unserer Argumentation möchte ich nur so zum Spaß die prinzipiellen Einwände der Begutachter einflechten, zusammen mit unseren Antworten darauf. Mögen die Leser entscheiden, ob wir oder die Begutachter richtig liegen.

Wie Klimatologen vergessen, dass die Sonne schien

Klimatologen, die globale Erwärmung zu prophezeien versuchen, haben in ihren Ergüssen den Sonnenschein vergessen. Nach der Korrektur dieses groben physikalischen Fehlers ergab sich die globale Erwärmung nicht zu 2 bis 4,5 K pro CO2-Verdoppelung, wie es die Klimamodelle simulieren. Vielmehr ergab sich ein geringer, langsamer, harmloser und insgesamt vorteilhafter Anstieg von 1,17 K.

Das Climate Model Intercomparison Project (CMIP5: Andrews+ 2012) hatte prophezeit, dass eine Verdoppelung des CO2-Gehaltes der Luft die Welt um 1,04 ±1,5 K erwärmen würde (vor Einwirkung von Rückkopplungen) und 3,37 ±1,3 K nach Berücksichtigung von Rückkopplungen. Das IPCC sagt 3,0 ±1,5 K. Einige Studien (z. B. Murphy 2009) prophezeien sogar Schätzungen bis 10 K pro CO2-Verdoppelung.

Klimatologen liegen falsch, wenn sie die Rückkopplungs-Mathematik aus der Regeungsl-Theorie heranziehen, ohne diese überhaupt verstanden zu haben. Sie wendeten eine abgewandelte Rückkopplungs-System-Verstärkungs-Gleichung an, welche sich allein auf geringe Änderungen der Referenztemperatur vor der Rückkopplung stützt und auf die Gleichgewichts-Temperatur nach der Rückkopplung. Aber in die Grundgleichung, welche sie sich aus der Regelungs-Theorie ausgeliehen haben, gehen absolute Temperaturwerte in Kelvin ein und nicht einfach nur Änderungen der Temperatur.

Ihre abgewandelte Gleichung ist eine valide Gleichung, weil sie die Differenz zwischen zwei Fällen der Grundgleichung konstituiert. Allerdings subtrahierten sie effektiv den Term für die 243,3 K Emissionstemperatur heraus, welche auf der Erde ohne nicht kondensierende Treibhausgase herrschen würde, getrieben durch die Tatsache, dass die Sonne scheint. Gleiches gilt für den Term der Erwärmung um 11,5 K durch vorindustrielle Treibhausgase.

Weil sie diese vitale Information verloren haben, kann ihre abgewandelte Gleichung nicht zuverlässig den wahren System-Verstärkungs-Faktor abbilden, also das Verhältnis der Gleichgewichts- zur Referenz-Temperatur. Stattdessen versuchten sie, den Heiligen Gral aus den Studien zur globalen Erwärmung zu finden, indem sie individuellen Rückkopplungen aus den Computermodell-Ergebnissen nachjagten. Sie suchten nach stumpfen Nadeln im falschen Heuhaufen, obwohl sie doch alles, was sie brauchten bereits hatten (wenn sie es denn nur gewusst hätten).

Messungen und Beobachtungen können uns keinen Aufschluss über die Größenordnungen individueller Rückkopplungen geben, und sie können uns nicht dabei helfen zu unterscheiden zwischen individuellen Rückkopplungen der menschengemachten Erwärmung, welche sie hervorrief.

Fügt man den fehlenden Sonnenschein und die vorindustrielle Treibhausgas-Erwärmung wieder ein, kann jeder den wahren System-Verstärkungs-Faktor berechnen. Die Berechnung geht schnell und ist direkt und genau. Man muss nicht einmal die Größenordnung einer jeden individuellen Rückkopplung kennen. Alles, was man braucht, ist die gesamte Referenztemperatur (vor der Rückkopplung) und die Gleichgewichtstemperatur (nach der Rückkopplung) in irgendeinem ausgewählten Jahr.

Im Jahre 1850 betrug die Referenztemperatur – also die Summe der Erwärmung von 243,3 K durch die Sonne und weiteren 11,5 K durch die nicht kondensierenden Treibhausgase vor der industriellen Revolution – 254,8 K. Die gemessene Gleichgewichtstemperatur betrug 287,5 K (HadCRUT4). Daher beträgt der System-Verstärkungs-Faktor für jenes Jahr 287,5/254,8 oder 1,13.

Aus der Anwendung der abgewandelten Gleichung kann man jedoch in keiner Weise den System-Verstärkungs-Faktor des Jahres 1850 ableiten.

Bis zum Jahr 2011 hatten menschengemachte Einflüsse die Referenztemperatur um 0,68 K auf 255,5 K steigen lassen. Die gemessene Temperatur ist um 0,75 K gestiegen, doch müssen noch weitere 0,27 K aufgrund eines imaginären „Strahlungs-Ungleichgewichtes“ zugelassen werden, die sich noch nicht manifestiert haben. Dies würde die Gleichgewichts-Temperatur um 1,02 K auf 288,5 K steigen lassen. Folglich betrug der System-Verstärkungs-Faktor für das Jahr 2011 288,5/255,5 oder 1,13.

Jener Wert für 2011 ist nun genau der Gleiche wie der im Jahre 1850. Der Grund ist einfach zu erkennen. Die 254,8 K Referenztemperatur des Jahres 1850, welche bei den Summen der Klimatologen außen vor gelassen worden ist, beträgt 375 mal die menschengemachte Referenz-Erwärmung um 0,68K von 1850 bis 2011. Das ist der Grund, warum unsere Einwirkung auf den System-Verstärkungs-Faktor minimal ist.

Die Stabilität des Klimas, die sich nach der Korrektur des groben Fehlers der Klimatologen zeigt, sollte keine Überraschung sein. Seit über 800.000 Jahren hat die globale mittlere Temperatur um kaum mehr als 3 K beiderseits der mittleren Temperatur jenes Zeitraumes variiert, wie aus der Analyse von Luftbläschen in historischem Eis hervorgeht.

Obwohl der Begriff „Rückkopplung“ im jüngsten IPCC-Bericht (2013) über 1000 mal auftaucht, kann die Rückkopplung getrost ignoriert werden; man würde nur einen sehr geringen Fehler erhalten. Der System-Verstärkungs-Faktor kann konstant mit 1,13 angenommen werden. Die von den Klimatologen angenommene Nicht-Linearität in den Rückkopplungen macht da kaum einen Unterschied.

Zieht man die abgewandelte Gleichung heran, würde der System-Verstärkungs-Faktor 1,02 / 0,68 oder 1,50 betragen, und die Gleichgewichts-Erwärmung bei CO2-Verdoppelung würde folglich 1,50 mal größer sein als die Referenz-Erwärmung von 1,04 K als Reaktion auf eine CO2-Verdoppelung, d. h. 1,55 K. Aber selbst dieser Wert ist nur etwa halb so groß wie Schätzung von 3,37 K in den CMIP5-Modellen.

Wendet man jedoch die Grundgleichung an, wäre die wahre Gleichgewichts-Erwärmung bei CO2-Verdoppelung noch geringer und läge beim 1,13-fachen der Referenz-Erwärmung von 1,04 K, d. h. harmlose 1,17 K. Um auf der sicheren Seite zu sein, wurden zehn separate offizielle Schätzungen des menschengemachten Strahlungsantriebs untersucht. In jedem einzelnen Fall betrug die globale Erwärmung bei CO2-Verdoppelung 1,17 K.

Eine statistische Monte-Carlo-Simulation zeigt die wahre Bandbreite der globalen Erwärmung zwischen 1,08 und 1,25 K. Die diesem Ergebnis zugrunde liegende Regelungs-Theorie wurde mit zwei Testläufen verifiziert, einer davon in einem Laboratorium der Regierung.

Klimatologen hatten sich vorgestellt, dass individuelle Temperatur-Rückkopplungen sich selbst aufheben würden, außer für Wasserdampf, der größten Rückkopplung. Mit jedem zusätzlichen K Erwärmung kann die Atmosphäre 7% mehr Wasserdampf aufnehmen. Kann, muss aber nicht. Die meisten Modelle hatten prophezeit, dass falls die Erwärmung vom Menschen verursacht wäre und nur dann sich die Luft höheren Luftschichten über dem Äquator dreimal so stark erwärmen würden wie an der Oberfläche. Und doch ist der Wasserdampfgehalt dort oben rückläufig. Folglich ist der mitteltroposphärische „Hot Spot“ nicht existent.

Unter dem Strich: Globale Erwärmung ist also überhaupt kein Problem. Man genieße den Sonnenschein, den die Klimatologen vergessen haben!

Kommentare der Begutachter und unsere Antworten darauf

Die einfache Einfügung der Emissionstemperatur in die Gleichungen an die Stelle der anthropogenen Erwärmung an der Oberfläche und dann so weitermachen wie zuvor ist eine massive Verletzung des Energieerhaltungssatzes“.

Mit Verlaub, nein! Einer meiner Mitautoren, nämlich John Whitfield, konstruierte einen Testlauf – im Grunde ein Analog-Computer – um die unserer Argumentation zugrunde liegende Regelungs-Theorie zu verifizieren. Es gab mit Sicherheit keine „massive Verletzung des Energieerhaltungssatzes“. Stattdessen bestätigten die Ergebnisse des Testlaufes bei 23 unterschiedlichen Experimenten unser Ergebnis in jeder Hinsicht.

Um dies hieb- und stichfest zu machen, beauftragten wir ein Laboratorium der Regierung, einen Testlauf nach ihrem eigenen Design zu konstruieren und die gleichen 23 Experimente durchzuführen. Die Ergebnisse stimmten mit dem überein, was wir aufgrund der Theorie vorhergesagt hatten, und zwar jeweils bis auf ein Zehntel Kelvin genau. Falls es wirklich eine „massive Verletzung des Energieerhaltungssatzes“ gegeben hätte, wäre diese in den Experimenten sicher zutage getreten.

Abgesehen davon – die Begutachter haben keinerlei Beweise oder Argumente irgendeiner Art hervorgebracht, welche die unsinnige Vermutung rechtfertigen würde, dass unser Verfahren eine „massive Verletzung des Energieerhaltungssatzes“ war.

Anstatt die Störungs- (perturbation)-Temperatur eingehen zu lassen und zu fragen, was die Durchdringung im Energiehaushalt an der Oberfläche der Atmosphäre ist, schaufeln sie ohne physikalische Rechtfertigung die gesamte Temperaturdifferenz von absolut Null in die Gleichung. Das ist blanker Unsinn“.

Die physikalische Rechtfertigung ist Folgende: Rückkopplungs-Prozesse können nicht unterscheiden zwischen einer vorher herrschenden Temperatur und einer Störung jener Temperatur. Sie haben keine Mittel, sich zu entscheiden, ob sie überhaupt nicht auf Erstere reagieren sollen und doch heftig auf Letzteres reagieren sollen. Auch sind diese unbelebten Prozesse nicht mit der Frage befasst, was hätte sein können, wenn die Sonne nicht scheinen würde. Denn die Sonne – ob sie es nun mögen oder nicht – scheint.

Rückkopplungs-Prozesse reagieren einfach auf die Temperatur, die sie vorfinden. Auf dem folgenden Blockdiagramm einer Rückkopplungsschleife (Feedback loop) ist der Grund dafür zu erkennen:

Die Referenz-Temperatur (d. h. die Temperatur vor Einwirkung von Rückkopplungen) geht von links oben ein und ist Eingangssignal für den summierenden Knoten zwischen Eingangs- und Ausgangssignal. Aus diesem Knoten läuft der Anteil der Ausgangstemperatur, repräsentiert durch die Rückkopplungs-Reaktion, um die Rückkopplungsschleife herum und zurück zum Knoten zwischen Eingangs- und Ausgangssignal. Dort wird sie der ursprünglichen Referenz-Temperatur hinzugefügt und ergibt die Gleichgewichts-Sensitivität.

Jetzt erhöhe man die Referenz-Temperatur durch irgendeinen Zusatzbetrag. Dann ist das Eingangssignal in die Rückkopplungsschleife etwas größer als zuvor. Der Rückkopplungsprozess trägt der höheren Referenz-Temperatur einfach Rechnung. Es gibt selbstverständlich keinen physikalischen Mechanismus, damit jene Prozesse „wissen“ können, dass sie nicht reagieren dürfen auf eine irgendwie höhere Referenztemperatur als vorher.

Die Analogie mit einem Bode-Verstärker, welche die Autoren so stark betonen, ist keine Analogie. Falls es eine Störungsspannung wäre, die isoliert wurde und es diese Störungsspannung wäre, aufgrund derer die Rückkopplungen ablaufen, würde die Analogie enger sein.

Um zu verstehen, warum die Begutachter das alles so sehen, wie sie es sehen, wollen wir uns die offizielle Definition des IPCC einer „Klima-Rückkopplung“ in Erinnerung rufen (IPCC, 2013, glossary, p. 1450):

Klima-Rückkopplung“: Eine Wechselwirkung, bei der eine Störung einer Klimagröße eine Änderung einer zweiten Klimagröße verursacht und die Änderung der zweiten Klimagröße wiederum ultimativ zu einer Änderung der ersten Größe führt. Bei einer negativen Rückkopplung wird die initiale Störung geschwächt durch die verursachten Änderungen; bei einer positiven Rückkopplung wird die Störung verstärkt. In diesem Zustandsbericht wird oft eine enger gefasste Definition herangezogen, in welcher die Klimagröße, die durchdrungen wird, die globale mittlere Temperatur ist, welche wiederum zu Änderungen des globalen Strahlungshaushaltes führt. In jedem Falle kann die initiale Störung entweder extern getrieben sein oder sich in der Folge der internen Variabilität erheben“.

Man beachte, dass die Begriffe „gestört (perturbed)” oder “Störung (perturbation)” allein in diesem kurzen und aus Berechnung gestrafften Definition fünf mal auftauchen. Zeichnen wir einmal das Blockdiagramm des variierenden Rückkopplungsscheife (feedback loop), wie ihn sich die offizielle Klimatologie vorstellt:

Im gesamten Diagramm ist hier kaum eine absolute Größe zu finden. Was ist also los? Nun, die normale Rückkopplungssystem  Gleichung der offiziellen Klimatologie ergibt, dass die Änderung der Gleichgewichts-Temperatur gleich ist der Summe der Änderung der Referenztemperatur und dem Produkt aus Rückkopplungs-Verstärkungs-Faktor und der Änderung der Gleichgewichts-Temperatur.

Nun ist die abgewandelte Gleichung der Klimatologie eine perfekt valide Gleichung. Im Wesentlichen repräsentiert sie die Differenz zwischen zwei aufeinanderfolgenden Beispielen der Mainstream-Gleichung der Regelungs-Theorie, welche feststellt, dass die Gleichgewichts-Temperatur gleich ist der Summe der Änderung der Referenztemperatur und dem Produkt aus Rückkopplungs-Faktor und der Änderung der Gleichgewichts-Temperatur.

Aber die abgewandelte Gleichung ist unbrauchbar zum Auffinden von Gleichgewichts-Sensitivitäten, weil man sie nicht zuverlässig ableiten kann aus dem Heiligen Gral der Studien bzgl. globaler Erwärmung – nämlich dem Rückkopplung-Verstärkungsfaktor, welcher das Verhältnis ist zwischen Gleichgewichts- und Referenz-Temperatur.

In unserem Falle hier ist jedoch nur erforderlich, das zu beobachten, da die abgewandelte Gleichung der Klimatologie eine valide Gleichung ist ebenso wie die Mainstream Gleichung der Regelungs-Theorie, aus der die abgewandelte Gleichung abgeleitet ist.

Wir wollen die offizielle Definition einer „Klima-Rückkopplung“ wie folgt korrigieren:

Positive Rückkopplung in dynamischen Systemen verstärkt das Ausgangssignal. Negative Rückkopplung schwächt es ab. Bzgl. Klima ist das Eingangssignal die globale mittlere Gleichgewichts-Temperatur Tq nach Einwirkung von Rückkopplung. Die Rückkopplungs-Reaktion fTq konstituiert die gesamte Differenz Tq – Tr zwischen Gleichgewichts- und Referenz-Temperaturen, so dass der Rückkopplungsfaktor f, also der Bruchteil der Gleichgewichts-Temperatur, der die Rückkopplungs-Reaktion konstituiert, gleich ist 1 – Tr/Tq. Der System Verstärkungsfaktor A ist gleich Tq/Tr, d. h. (1 – f)-1“.

Man beachte als Nebeneffekt, dass die Rückkopplungs-Schleifen-Diagramme (a) vereinfachend sind zu den System-Versärkungs-Blockdiagrammen (b) sind. Das bedeutet, dass man alles, was man braucht, das Auffinden des System-Versärkungs-Faktors A für jedes gegebene Jahr ist. Das ist dann die Referenz-Temperatur (vor Rückkopplung) und die gemessene Gleichgewichts-Temperatur (nach Rückkopplung) in jenem Jahr. Man muss nicht den Wert irgendeiner individuellen Rückkopplung kennen.

Test-Läufe sind ja gut und schön, zeigen aber einfach nur, dass man Systeme konstruieren kann, für welche die eindimensionalen Energie-Gleichgewichts-Gleichungen genau wahr sind. Darin ist keine Information enthalten, um zu sagen, ob diese Modelle relevant sind hinsichtlich des realen Klimas“.

Falls die Rückkopplungs-Mathematik, welche sich die offizielle Klimatologie aus der Regelungs-Theorie entliehen hat, so unanwendbar ist wie der Begutachter sagt, dann gibt es keine legitime Grundlage für den derzeitigen irrigen Glauben der Klimatologie, dass Rückkopplungs-Reaktionen verantwortlich sind für mindestens zwei Drittel der Gleichgewichts-Sensitivität. Studie für Studie (z. B. Hansen 1984, Schlesinger 1985, Bony 2006, Roe 2009) wendet Rückkopplungs-Mathematik an mit dem expliziten Hinweis auf Bode. Aber diese und gleichartige Studien verwenden Bode auf eine Art und Weise, welche die genaue Ableitung des System-Versärkungs-Faktors verhindert. Im IPCC-Bericht 2013 taucht das Wort „Rückkopplung“ (feedback) über 1000 mal auf.

Diese und zahlreiche andere Autoren haben akzeptiert, dass die Rückkopplungs-Mathematik relevant ist zur Ableitung der Gleichgewichts-Temperatur. Auch richtig: Weil die Gleichgewichts-Temperatur höher liegt als die Referenz-Temperatur und die Rückkopplungs-Reaktion die gesamte Differenz zwischen beiden konstituiert.

Es ist interessant zu sehen, wie bereitwillig die Begutachter die „settled Science“ verwerfen, welche seit Jahrzehnten durch die Literatur geistert, wann immer sie diese unbequem finden.

Die von der Klimawissenschaft verwendete Energie-Gleichgewichts-Gleichung ist nichts als eine erweiterte Taylor-Reihe der Differenz zwischen dem globalen mittleren Energie-Ungleichgewicht an der Obergrenze der Atmosphäre und dem Strahlungsantrieb. Darum taucht die Emissions-Temperatur in der null-dimensionalen Energie-Gleichgewichts-Gleichung nicht auf. Ich kann kein dem entgegen stehendes Argument erkennen, welche dieser Interpretation der Gleichung widerspricht.

Da die abgewandelte Gleichung der Klimatologie eine valide Gleichung ist, gibt es nichts, was an dieser selbst falsch ist. Sie ist valide abgeleitet aus der Energie-Gleichgewichts-Gleichung, und die Tatsache, dass sie abgeleitet ist via einer leading order-Erweiterung der Taylor-Reihe, widerspricht in keiner Weise unserem Argument: weil eine Erweiterung einer Taylor-Reihe lediglich ein Mechanismus ist, um der Form einer Kurve über einen bestimmten Punkt Ausdruck zu verleihen.

Aber wenn man den Sonnenschein-Term außen vor lässt, ist es unmöglich, den System-Versärkungs-Faktors akkurat aus der abgewandelten Gleichung abzuleiten.

Nichts bei der Ableitung der abgewandelten Gleichung der Energie-Gleichgewichts-Gleichung an der Obergrenze der Atmosphäre sagt uns irgendetwas über die Größenordnung des System-Versärkungs-Faktors. Aus genau diesem Grunde haben die Klimamodellierer Jahrzehnte damit zugebracht, vergeblich zu versuchen, das Intervall von Charney-Sensitivitäten zu begrenzen, welches im IPCC-Bericht (2013) (1,5 bis 4,5) K ausmachte, also genau wie vor vier Jahrzehnten in Charney (1979).

Die Autoren würden besser daran tun, sich hinsichtlich der Literatur zu informieren, welche die Linearität von Rückkopplungen evaluiert.

Jawohl, einige Rückkopplungs-Reaktionen sind nicht linear. Wasserdampf ist ein primäres Beispiel. Wenn sich der Raum, den die Atmosphäre einnimmt, erwärmt, kann sie 7% mehr Wasserdampf pro Kelvin aufnehmen. Und tatsächlich ist genau das nahe der Erdoberfläche im 1000 hPa-Niveau der Fall:

Im 600-hPa-Niveau jedoch gibt es keine Zunahme der spezifischen Feuchtigkeit mit Erwärmung. Und in der entscheidenden mitteltroposphärischen Höhe von 300 hPa geht die spezifische Feuchtigkeit zurück. Warum ist das bedeutsam? Weil die offizielle Klimatologie alle individuellen Rückkopplungen außer Wasserdampf als sich umfassend selbst auslöschend betrachtet. Es ist allein die Wasserdampf-Rückkopplung, welche den Vorwand für die Aussage liefert, dass wegen der Rückkopplungen die Gleichgewichts-Erwärmung drei bis vier, ja bis zu zehn mal größer ist als die Referenz-Erwärmung.

Und doch liegt die einzige Höhe, in der die prophezeite Rate der Zunahme der spezifischen Feuchtigkeit die Realität spiegelt, sehr nahe der Oberfläche, wo Harde (2017) zufolge die Spektrallinien von Wasserdampf nahezu gesättigt sind.

Man betrachte Abbildung 9.1c im IPCC-Bericht 2007. Dort wird der prophezeite mitteltroposphärische „Hot Spot“ – den so zu nennen ich die Ehre hatte – über den Tropen in der Art und Weise dargestellt, die uns inzwischen sattsam bekannt ist: in grellen Farben:

So viel zu den Prophezeiungen. Ich könnte Dutzende weitere ähnliche Abbildungen von verschiedenen Modellen der allgemeinen Zirkulation zeigen. In Wirklichkeit jedoch ist der prophezeite „Hot Spot“ auffällig infolge seines kompletten Fehlens:

Nun erzeugte das Klimawandel-Wissenschaftsprogramm der USA seine Daten der realen Welt, in denen ein Jahr, bevor das IPCC auf seiner falschen Behauptung beharrte, dass der „Hot Spot“ existiert, nicht einmal ansatzweise ein solcher erkennbar war. Und warum sollte er existieren? Weil die spezifische Feuchtigkeit, die hätte zunehmen sollen, um die prophezeite schnellere Erwärmung als an der Oberfläche zu erreichen, in Wirklichkeit abgenommen hat.

Mit unserem Verfahren, den Rückkopplungs-System-Versärkungs-Faktors zu finden, muss man überhaupt nichts wissen über individuelle Rückkopplungen. Alles, was man braucht, ist die Referenz-Temperatur (vor Rückkopplung) und die Gleichgewichts-Temperatur (nach Rückkopplung) in irgendeinem gegebenen Jahr.

Und um herauszufinden, ob Nicht-Linearitäten bei individuellen Rückkopplungen den System-Versärkungs-Faktors mit der Zeit und mit der Temperatur variieren lassen, muss man lediglich diesen System-Versärkungs-Faktors für zwei verschiedene Jahre finden – den einen kurz vor Beginn der industriellen Ära und einen nahe deren Ende. Also haben wir genau das getan. Und wir ließen sogar das (möglicherweise imaginäre) „Strahlungs-Ungleichgewicht“ zu, welche die menschengemachte Erwärmung bis heute um etwa ein Viertel verzögert haben könnte.

Sowohl im Jahre 1850 als auch im Jahre 2011 betrug der System-Versärkungs-Faktors auf drei Dezimalstellen genau 1,129. Selbst in der dritten Dezimalstelle hat er sich nicht verändert. Er hat sich nicht verändert, weil die kombinierte Temperatur von der Sonne und von nicht kondensierenden Treibhausgasen der vorindustriellen Ära 375 mal größer war als die Referenz-Sensitivität von 0,68 K zwischen jenen beiden Jahren. Nichtlinearität? Schmonlinearity.

Die Tatsache, dass Rückkopplungen, ordentlich aus den Modellen berechnet, die richtige Bandbreite der Klimasensitivität in den Modelle angeben, sollte die Autoren nachdenklich gemacht haben hinsichtlich ihrer Überzeugung, dass sie (in ihrer Analyse) fundamental fehlerhaft ist“.

Und dies, verehrter Leser, ist unser alter Freund in dem Zirkelschluss, nämlich dem argumentum ad petitionem principii [d. h. eine Behauptung wird durch Aussagen begründet wird, welche die zu beweisende Behauptung schon als wahr voraussetzen. Mehr. Anm. d. Übers.], einem der paar dutzend am meisten verbreiteten Trugschlüsse. Aus diesem Trugschluss könnte man höchstens als einzige valide Schlussfolgerung ziehen, dass der Eindringling [perpetrator] unzureichend gebildet ist, um es besser zu wissen.

Um die Brauchbarkeit der einfachen System-Verstärkungs-Gleichung zu zeigen bei der Untersuchung von Gleichgewichts-Sensitivitäten haben wir die von der Klimatologie abgewandelte Gleichung herangezogen und gezeigt, dass bei Anwendung der Bandbreite von Rückkopplungs-Faktoren, welche von Vial et al. (2013) aus den Modellen abgeleitet worden waren, das veröffentlichte Intervall der Gleichgewichts-Sensitivitäten herauskommen würde. Aber dieses Vorgehen sagt uns nichts über den korrekten Wert des Rückkopplungs-Faktors oder dessen nahen Verwandten, den System-Versärkungs-Faktors Um die korrekten Werte dieser Variablen abzuleiten, muss man aus dem Fenster schauen und erkennen, dass die Sonne scheint. Und man muss angemessen dieser Tatsache Rechnung tragen, indem man den Normalsystemverstärkung in die Berechnungen eingehen lässt.

Die Sensitivität jedweden Klimamodells ist so, wie sie ist – sie kann sich nicht ändern durch irgendeine Nach-Analyse von deren Rückkopplungen. In einem Modell wird der CO2-Gehalt verdoppelt, die Berechnung das Strahlungs-Transfers verändert, und Temperaturen, Wasserdampf, Zirkulation, Wolken usw. ändern sich. Das simulierte Klimasystem stabilisiert sich eventuell und die daraus resultierende Gesamtänderung der Temperatur ist die Sensitivität jenes Modells.

Und genau das ist der fundamentale relevante Trugschluss, bekannt als das Strohmann-Argument. Und zwar weil wir keinerlei Nach-Analyse durchgeführt haben von irgendwelchen Modell-Rückkopplungen. Anstatt das zum Scheitern verurteilte von-unten-nach-oben-Verfahren der Modelle zu übernehmen, um die Gleichgewichts-Sensitivität abzuleiten mittels Erratens der Werte irgendwelcher Rückkopplungen, haben wir das weitaus einfachere und robustere von-oben-nach-unten-Verfahren angewendet, um Referenz- und Gleichgewichts-Temperatur für zwei unterschiedliche Jahre in der industriellen Ära zu finden. Dabei haben wir entdeckt, dass die aus diesen Werten abgeleiteten System-Versärkungs-Faktors die gleichen waren. Wir haben den System-Versärkungs-Faktorsauf die Referenz-Sensitivität eines verdoppelten CO2-Gehaltes angewendet und über alle Zweifel erhaben gezeigt, dass die Gleichgewichts-Sensitivität bei doppeltem CO2-Gehalt lediglich 1,17 K beträgt, plus/minus einem Zehntel Kelvin.

Im Grunde sagt der Begutachter, dass die Modelle richtig sein müssen. Nun, wie aufwändig diese auch sind, sie haben unrecht. Sie sind schlicht und ergreifend falsch, wie unsere Analyse gezeigt hat.

Es werden keine physikalischen Argumente angeführt, warum die Sensitivität so gering sein soll, und diese einfach Schätzung als plausibel zu akzeptieren würde bedeuten, dass man sämtliche früheren Arbeiten von Wissenschaftlern bzgl. des Verständnisses der Physik des Klimawandels zurückweisen müsse, von denen viele jenseits aller Zweifel bewiesen sind. Die hier vorgelegte Analyse ist sowohl rudimentär als auch fundamental falsch, und ich kann deren Veröffentlichung in einem seriösen Journal nicht empfehlen.

Man betrachte noch einmal die Analyse der Wasserdampf-Rückkopplung oben. Die Größenordnung jener Rückkopplung ist nicht „jenseits aller Zweifel bewiesen“: sie ist jenseits aller Zweifel widerlegt worden. Man betrachte beispielsweise die faszinierende Graphik von Dr. John Christie der prophezeiten mitteltroposphärischen Temperaturänderung über den Tropen in 73 Modellen von 1979 bis 2012. Alle 73 Modelle simulierten eine Erwärmung mit einer mittleren Rate, die etwa vier mal höher war als die beobachtete Erwärmung. Kein einziges Modell zeigt eine geringere als die beobachtete Rate:

Es ist daher sehr wahrscheinlich, dass der Hauptgrund dafür, dass der korrigierte Wert des system-gain-Faktors und damit die Gleichgewichts-Sensitivität so weit unterhalb aller offiziellen Schätzungen liegt, das Überkochen des Wasserdampf-Puddings in den Modellen ist. Aber wir brauchen nicht zu wissen, was die Modelle falsch berechnet haben – es reicht aufzuzeigen, dass sie falsch sind – was unserer Einreichung zufolge unwiderlegbar ist.

In einer Hinsicht hat der Begutachter jedoch recht. Wir weisen in der Tat alle Arbeiten von Wissenschaftlern zur Ableitung der Gleichgewichts-Sensitivität zurück, einfach weil diese Arbeiten – wenngleich ehrlich und gewissenhaft durchgeführt – inkompatibel sind mit den richtigen Ergebnissen, zu welchen wir mit einem weit einfacheren und zuverlässigeren Verfahren gekommen sind.

Man betrachte noch einmal den Rückkopplungs-Faktor oben, und wundere sich über das, was sie gemacht haben. Die perturbation des Klimaantriebs, welchen sie zur Abschätzung der Rückkopplungen heranziehen, ist buchstäblich Anknipsen der Sonne. Man beginne mit der Erde bei Null Kelvin. Nun schalte man die Sonne an, verbiete alle Rückkopplungen, und wir bekommen eine Referenz-Temperatur von 255 K. Jetzt lasse man Rückkopplungen wirken, und unserer jetzigen Welt kommen wir tatsächlich auf eine Gleichgewichts-Temperatur von 287 K.

Vielleicht sind alle Klimatologen Schotten. Es ist nämlich eine große Überraschung für uns, dass immer, wenn wir den Weg nach England einschlagen – oder die Schiffsreise an die Eisküste von Grönland oder einen Flug nach irgendwohin – wir zu unserer Freude feststellen, dass das Land oftmals in die Strahlung eines großen, hellen, warmen gelben Objekts am Himmel getaucht ist. Wir sehen davon nicht so viel im Gaidhealtachd.

Wir müssen die Sonne nicht anknipsen. Weil sie nämlich dank der Großzügigkeit von Divine Providence bereits für uns angeknipst ist (außer in Schottland), und die Engel – in Gestalt der intergalaktischen Mechaniker [grease-monkeys], welche sich das Universum so entfalten lassen, wie es das tut – leisten einen ausgezeichneten Job hinsichtlich Wartung und Fürsorge.

Denn die Sonne scheint nun mal. Liegen wir falsch, wenn wir diese Tatsache berücksichtigen? Wir glauben nicht. Die heute wirksamen Rückkopplungs-Prozesse scheren sich nicht darum, welche Rückkopplungs-Prozesse bei Null Kelvin agierten. Sie reagieren einfach auf die Temperatur, die sie vorfinden. Und das bedeutet, dass es besser ist, die Tatsache zu berücksichtigen, dass die Sonne scheint, als sie zu ignorieren.

Es waren nicht nur die vom begutachtenden Journal nominierten Begutachter, welche unsere Studie begutachtet hatten. Auf irgendwelchen Wegen erreichte eine Kopie unserer Studie den Vizekanzler der University of East Anglia, welcher sofort nach Lektüre der Studie sämtliche 65 Professoren und Doktoren seiner Fakultät Umweltwissenschaften zusammen trommelte und ihnen zurief:

Moncktons Studie ist eine Katastrophe für uns. Falls die allgemeine Öffentlichkeit jemals davon hören würde, dann würde die Hölle losbrechen!“

Er ordnete an, dass die Fakultät alles zurückstellen und sich nur der Widerlegung der Studie widmen sollten – welche zu jener Zeit 2000 Wörter lang war und jetzt in voller Länge 6000 Wörter umfasst. Er leugnete später, dass dieses Treffen stattgefunden hatte, aber wir hörten davon seitens eines Teilnehmers an dem Treffen.

Und schließlich gibt es einen Kommentar von einem notorisch jähzornigen skeptischen Blogger (natürlich nicht unser genialer Gastgeber hier):

Nein, wir werden Moncktons Studie hier nicht besprechen. Wir machen es uns nicht so einfach!“

Was ich in Mathematik und Physik gelernt habe, führte mich zu der Vorstellung – die vielleicht falsch ist – dass es viel besser ist, mit einem einfachen Verfahren ein korrektes Ergebnis abzuleiten als mit der Anwendung eines heillos komplexen Modells ein Ergebnis abzuleiten, welches sich nicht zuletzt aufgrund der Komplexität als falsch herausstellt.

Noch ein paar abschließende Fragen für all jene, die die Geduld hatten, bis hierher zu lesen. Haben die Begutachter recht, oder haben wir recht? Und würden Sie gerne von Entwicklungen wie diesem Beitrag auf dem Laufenden bleiben? Die Studie bleibt immer noch zur Begutachtung draußen, und in angemessener Zeit werden wir sehen, ob sie zur Veröffentlichung genehmigt ist. Wir wurden auch eingeladen, ein Buch zuschreiben, in welchem wir unsere Ergebnisse zusammenfassen und beschreiben, wie wir zu eben diesen Ergebnissen gekommen sind.

Und wir haben dem IPCC eine formelle Notiz zukommen lassen, dass alle seine Zustandsberichte gravierend falsch sind. Obwohl wir minuziös dem eigenen, vom IPCC festgelegten Protokoll der Einreichung von Fehlern gefolgt sind, haben wir bisher vom Sekretariat noch nicht den Erhalt der Notiz bestätigt bekommen, obwohl die IPCC-Regeln genau dies vorschreiben. Daher übergeben wir den Fall dem Bureau de l’Escroquerie, dem Swiss Fraud Office via dem Schweizer Botschafter in England, also in der Nation, wo das IPCC sein Hauptquartier hat.

Eine 45 Minuten lange Youtube-Präsentation, in welcher ich unser Ergebnis erkläre, gibt es hier. Ich bin John Charleston sehr dankbar, dass er diesen meinen Vortrag in seinem eigenen Studio gefilmt und bearbeitet hat.

Und hier ist die Einzelfolie aus meinem Vortrag, den ich nächste Woche am Camp Constitution in Connecticut halte. Sie bringt das gesamte Theater der globalen Erwärmung zu einem Ende, und niemand trauert dem nach:

Link: https://wattsupwiththat.com/2018/07/30/climatologys-startling-error-an-update/

Übersetzt von Chris Frey EIKE




Gericht bestimmt Windkraftbetreiber dazu, die lärmgeschädigten Nachbarn zu Marktpreisen auszuzahlen

Ein australisches Gericht stellte fest, dass langfristige Nachbarschaft zu Windkraftanlagen ein Weg zur Krankheit ist: Ein australisches Gericht erkennt Lärmbelästigungen durch Windkraftanlagen als gesundheitsschädlich an

Und diese Entscheidung erhöht nur die größte Angst der Windindustrie, dass eines Tages das unverblümte Gesetz zugunsten ihrer Tausenden von Opfern angewendet werden könnte. Nach öffentlichem Recht gelten auch unangemessene Lärmbelästigungen als Eingriff in die Eigentumsrechte, indem die Nutzung und den Genuss von Land unter anderem durch übermäßigen Lärm verhindert: Judge finds case to answer in Falmouth Nuisance Claim [… WKAs sind über Nacht stillzusetzen]

Investoren von Windkraftanlagen, die das Risiko auf Multimillionen-Dollar-Ausschüttungen vermeiden wollen sind, schikanieren und treiben die Anwohner dazu, die so genannten „gute nachbarschaftliche Vereinbarungen“  einzugehen. Mit der Unterschrift verzichtet der Anwohner auf jedes gesetzliche und gemeinrechtliche Recht, das ihn schützen könnte, für ein paar Tausend Dollar pro Jahr:

Wind Farm Neighbours Forced to Sign Away All Legal Rights in ‘Good Neighbour Agreements’

Dieser faustische „Vertrag“ bedeutet buchstäblich, dass Sie ihr Leben weggeben.

Die nächste Verteidigungslinie der Windindustrie, um rechtliche Schritte zu vermeiden, besteht darin, dass sie die Immobilien ihrer Opfer in aller Stille kaufen, mit Klauseln, die sie gegen alle möglichen Rücktritte der Besitzer absichern, um Klagen von diesen dann für immer abzuschmettern:

Victorian Planning Department involved in Waubra Wind Farm Non-Compliance Cover Up

[… Zusammenarbeit mit den Behörden; … Lügen über die Nichteinhaltung der Lärmbedingungen von Planungsgenehmigungen und, wenn sie ertappt wurden, Rückfälle und Verschleierungen]

In den USA sind die von den Anwohnern verfolgten Aktionen gegen Geräuschbelästigungen so weit gediehen, dass die Geschworenen bestimmt wurden – nur um die Windindustrie bereits in Panik zu setzen – bevor die Kläger ihre Geschichten nicht tolerierbarer Leiden durch die Windindustrie ihren Mitbürgern [… den Geschworenen] vortragen konnten:

US Wind Farm Operator Settles to Shut Down Neighbours’ Dynamite Damages Case

[… Die Windindustrie … will nie / bzw. darf nie zulassen, dass es in einem dieser Fälle zu einer endgültigen Entscheidung und Beurteilung kommt. (wegen der Vergleichbarkeit bei einer nächsten Klage) … Der übliche Weg ist, hinter verschlossenen Türen einen Vergleich abzuschließen; weit weg vom grellen Licht der Medien… Angesichts der zunehmenden Schadenersatzforderungen in Dänemark (siehe den Beitrag hier) hat die dänische Windindustrie begonnen, die Heime ihre tatsächlichen und potenziellen Opfer  – und sogar ganze Dörfer – aufzukaufen, die Bulldozer kommen zu lassen und das Grundstück einzuebnen (siehe den Beitrag hier)].

Die Windindustrie operiert wie ein Team von staatlich sanktionierten Dieben und zerstört den Wert von benachbarten Immobilien mit völliger Straflosigkeit, wenn nicht gar aktiv von Regierungen und Behörden gefördert:

No Retreat & No Surrender: Wind Industry’s Victims Left Furious at Government Inaction [Kein Rückzug und keine Kapitulation: Die Opfer der Windindustrie sind wütend über die Untätigkeit der Regierung]

Die Bauern, die mit der Windindustrie Geschäfte machen, sind nicht besser:

SA Farmers Paid $1 Million to Host 19 Turbines Tell Senate they “Would Never Do it Again” due to “Unbearable” Sleep-Destroying Noise

[Landwirte in Südaustralien erhielten $ 1 Million als Pacht für eine Windfarm. Sagen Sie dem Senat, dass sie es nie wieder tun würden, wegen „unerträglichen“ Schlafzerstörenden Lärms]

Investoren für Windkraft zahlen „peanuts“, um ihre Industrieanlagen in die hinteren Kuhweiden der Leichtgläubigen und Naiven zu spießen. Und sie zahlen absolut nichts, um den Wertverlust der Immobilie des Nachbarn auszugleichen.

Jedoch, in dem streitsüchtigen Land der Freiheit und Heimat der Tapferen, den Vereinigten Staaten von Amerika, vertreten die Gerichte jedoch eine andere Auffassung.

Nach der langjährigen Regel, „mein Haus ist meine Burg“, schwingen US-Richter den Hammer bei einer wachsenden Liste von Fällen, in denen die Windindustrie schließlich gezwungen wird, ihre Opfer für die sehr hohen Verluste angemessen zu entschädigen.

 

Klagen gegen Geräuschbelästigungen durch WKAs sind gelöst – Zahlen Sie die Hausbesitzer aus!

LPB-Netzwerk , Roger A McEowen ,8. Juni 2018

 

Überblick

Wind „Farmen“ können Konflikte für Grundeigentümer in der Nähe darstellen, indem sie geräuschbedingte Probleme verursachen, die mit Turbinenlärm, Flackereffekten, gebrochenen Rotorblättern, Eiswürfen und kollabierenden Türmen verbunden sind.

Gerichte haben inzwischen eine große Flexibilität bei der Ausarbeitung eines Mittels zur Bewältigung von Belästigungsproblemen. Eine aktuelle Verordnung einer öffentlichen Regulierungsbehörde ist ein Beispiel für diesen Punkt.

 

Prozessführung  bei Windfarm Geräuschen

Die Anfechtungsklagen gegen große „Windparks“ befinden sich in einem frühen Stadium, es gab jedoch einige wichtige Gerichtsentscheidungen. Ein Fall, der 2007 vom Obersten Gericht von West Virginia entschieden wurde, veranschaulicht die Probleme des Landnutzungskonflikts, die Windparks darstellen können. In Burch, et al. v. Nedpower Mount Storm, LLC and Shell Windenergy, Inc., 220 W. Va. 443, 647 S.E.2d 879 (2007), entschied der Gerichtshof, dass ein geplanter Windpark, der aus rund 200 Windrädern in der Nähe von Wohneigentum endsteht, ein Ärgernis darstellen könnte. Sieben Hauseigentümer, die in einem Umkreis von drei Kilometern von dem Ort der Errichtung der Turbinen wohnten, forderten eine dauerhafte einstweilige Verfügung gegen den Bau und den Betrieb des Windparks mit der Begründung, dass sie durch Turbinenlärm beeinträchtigt würden Flickereffekte durch die Flügel, potentielle Gefahr durch gebrochene Rotorblätter, Eisschleudern, kollabierende Türme und eine Reduzierung ihrer Immobilenwerte.

Das Gericht befand, dass, obwohl der Bundesstaat den Windpark genehmigt hatte, dass die gängige Gesetzeslehrmeinung immer noch gilt. Während das Gericht feststellte, dass der Windpark an sich kein Ärgernis war, stellte das Gericht fest, dass der Windpark zum Ärgernis werden könnte. Die Vorwürfe der Kläger reichten aus, um einen Antrag zu stellen, der es dem Gericht erlaubte, die Errichtung des Windparks zu verbieten.

In einem anderen Fall, der mit den lärmbedingten Aspekten großer Windparks verbunden war, bestätigte der Oberste Gerichtshof von Kansas eine Verordnung des Bezirksgerichts, die kommerzielle Windparks in der Grafschaft verbietet. . Zimmerman v. Board of County Commissioners, 218 P.3d 400 (Kan. 2009). Das Gericht stellte fest, dass die Grafschaft die gesetzlichen Vorschriften beim Erlass der Verordnung ordnungsgemäß befolgt hatte und dass die Verordnung vernünftig war, basierend auf der Berücksichtigung der Ästhetik, Ökologie, Flora und Fauna der Grafschaft in den Flint Hills.

Das Gericht führte die zahlreichen nachteiligen Auswirkungen kommerzieller Windparks an, einschließlich der Schädigung der lokalen Ökologie und des Lebensraumes der Präriehühner (einschließlich Brutgebiete, Nist- und Nahrungsgebiete und Flugmuster) und des nicht-zur-Natur gehörenden Anblicks  großer Windkraftanlagen. Der Gerichtshof stellte ferner fest, dass kommerzielle Windparks negative Auswirkungen auf die Immobilienwerte haben und dass auch der landwirtschaftliche und naturnahe Tourismus darunter leiden würde.

 

Buy-Out angeordnet

Ein kürzlich erteilter Auftrag der Minnesota Public Utilities Commission (Kommission ~ für Verbraucherschutz) verlangt von einem Windenergieunternehmen, zwei Familien auszubezahlen, deren Gesundheit und Leben von einem Windparkkomplex in der Nähe von Albert Lea, Minnesota, erheblich beeinträchtigt wurden. Es ist daher ist es wahrscheinlich, dass die Häuser abgerissen werden, so dass der Windpark ungehindert von lokalen Grundeigentümern betrieben werden kann, die sich gegen den Betrieb wehren könnten. Denn die Anordnung besagt, dass die Anwohner, wenn die Häuser stehen bleiben und neue Bewohner einziehen, die Windinvestoren nicht auf die Einhaltung der Lärmvorschriften verzichten dürfen, selbst wenn die Hauseigentümer bereit wären, im Gegenzug für eine Zahlung oder durch eine andere Vereinbarung auf die Lärmstandards der Minnesota Pollution Control Agency [~ Umweltbehörde] zu verzichten.

Der Fall: Wisconsin Power and Light, Co., No. ET-6657/WS-08-573, Minn. Pub. Util. Commission (Jun. 5, 2018) hat bereits eine ziemlich lange Verfahrensgeschichte.

Am 20. Oktober 2009 erteilte die Kommission der Wisconsin Power and Light Company (WPL, Energielieferant) die Genehmigung für die rund 200 Megawatt umfassende erste Phase des Bent Tree Wind Projekts in Freeborn County, Minnesota. Der Windpark hat im Februar 2011 den kommerziellen Betrieb aufgenommen.

Am 24. August 2016 erließ die Kommission eine Anordnung zur Lärmüberwachung und Lärmuntersuchung am Projektstandort. In der Zeit von September 2016 bis Februar 2018 haben mehrere Grundeigentümer in der Umgebung über 20 Briefe zu den gesundheitlichen Auswirkungen eingereicht, die sie durch den Windpark erlitten haben.

Am 28. September 2017 reichte das EERA (Department of Commerce Environmental Review Analysis Unit) einen Bericht über die Lärmbeurteilung nach dem Bau für das Projekt ein und identifizierte 10 Stunden der Überschreitung der Lärmstandards der Minnesota Pollution Control Agency (MPCA) während des zweiwöchiger Überwachungszeitraum.

Am 7. Februar 2018 hat die EERA einen Phase-2-Nach-Bau-Lärmbewertungsbericht eingereicht, der zu dem Schluss kommt, dass bestimmte Projektturbinen einen signifikanten Beitrag zu den Überschreitungen der MPCA-Umgebungsgeräuschstandards bei bestimmten Windgeschwindigkeiten leisten. Am nächsten Tag reichte die WPL ein Schreiben ein, in dem die Kommission darüber informiert wurde, dass sie zu einem späteren Zeitpunkt auf den Phase-2-Bericht reagieren würde und sofort drei Turbinen des Projekts, von denen zwei im Phase-2-Bericht identifiziert wurden, (bei Überschreitungen von … Windgeschwindigkeiten) abschalten würde.

Am 20. Februar 2018 reichten die Grundeigentümer einen Antrag zur Begründung und Anhörung ein und beantragten, dass die Kommission eine Erklärung erstellen solle, warum die Standortgenehmigung für das Projekt nicht widerrufen werden dürfe  und beantragte eine Anhörung im Rahmen des streitigen Verfahrens.

Am 19. April 2018 reichte der Energielieferant WPL bei der Kommission eine Mitteilung über eine vertrauliche Vergleichsvereinbarung und eine gemeinsame Empfehlung und einen Antrag ein, wonach WPL mit jedem Grundstückseigentümer eine vertrauliche Vereinbarung einging, mit der die Parteien den Verkaufsbedingungen ihrer Immobilien an WPL, der Ausführung von Dienstbarkeiten auf dem Grundstück und Freigabe aller Forderungen des Grundbesitzers gegen WPL zustimmten. Das Abkommen legte auch die Bedingungen fest, unter denen die Vereinbarung durchgeführt werden würde.

Die Kommission stellte fest, dass die Beilegung des Streits und die Bedingungen der Vereinbarung im öffentlichen Interesse liegen und zu einer vernünftigen und umsichtigen Lösung der in den Beschwerden des Grundeigentümers aufgeworfenen Fragen führen würden. Daher genehmigte die Kommission die Vereinbarung mit der zusätzlichen Auflage, dass WPL beim Verkauf eines der Grundstücke bei der Kommission die Anmeldung des Verkaufs einreicht und angibt, ob das Grundstück als Wohnsitz [weiter] genutzt wird.

Wenn die Immobilie nach dem Verkauf oder nach der Vermietung als Wohnsitz genutzt werden soll, muss der um die Genehmigung Nachsuchende bei der Kommission mehrere Dinge einreichen – die Meldung des Verkaufs oder der Vermietung, die Dokumentation der gegenwärtigen Einhaltung der Lärmstandards von Turbinen, die Dokumentation jeder früheren schriftlichen Mitteilung zu diesem potenziellen Wohnsitz in Bezug auf frühere Lärmstudien, in denen bemängelt wird, dass die Lärmstandards überschritten wurden, und gegebenenfalls die derzeitigen Lärmstandards in Bezug auf die Immobilie, sowie etwaige Pläne zur Abschwächung oder andere relevante Informationen.

 

Fazit

Die in der Minnesota-Angelegenheit erlassene Anordnung ist nicht völlig einzigartig. Vor einigen Jahrzehnten ordnete der Oberste Gerichtshof von Arizona an, dass ein Immobilienentwickler die Kosten für eine Viehfütterung bezahlte, um die Fütterungsplätze weiter von dem Gebiet wegzuführen, in das der Entwickler expandierte. Spur Industries, Inc. gegen Del E. Webb Development Co., 108, Ariz. 178, 494, Pd 700 (1972).

Aber das Entscheidende ist, dass die Angelegenheit in Minnesota ein Beispiel dafür ist, was in einem ländlichen Gebiet passieren kann, wenn ein Windenergieunternehmen in der Gemeinde investieren will.

LPB Network

 

gefunden auf stopthesethings vom 24. Juli 2018

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2018/07/24/us-courts-ordering-wind-power-operators-to-buy-out-noise-affected-neighbours-at-market-rates/




Es gibt keine “globale Hitzewellen”

In letzter Zeit Sie sind wahrscheinlich auf Schlagzeilen über die „globale Hitzewelle“ gestoßen, die verheerende Schäden  von Japan über Europa bis nach Nordafrika anrichtet.

Falls Sie den Begriff „globale Hitzewelle“  zum ersten Mal hören, sind Sie damit nicht allein. Das liegt daran, dass es sich um einen Begriff handelt, der in hanebüchenden Schlagzeilen verwendet wird, um die Aufmerksamkeit zu steigern.

„‚Global Heat Wave‘ scheint ein neuer Begriff zu sein, den einige Leute in den Medien- und Klima-Lobbygruppen erfunden haben“, sagte Cliff Mass, ein Klimawissenschaftler an der Universität von Washington, dem  Daily Caller.

Der Juli scheint über einen Großteil der nördlichen Hemisphäre hinweg glühende Hitze zu haben, einschließlich Rekordhochs in Kalifornien und Kanada. Dreistellige Wärmegrade (in Fahrenheit 100 F = 38°C) wurden mit Todesfällen in Japan in Verbindung gebracht und brutzelnde Temperaturen trugen zu massiven Waldbränden in Skandinavien bei – Es ist mal wieder richtig Sommer.

Aber der Begriff „globale Hitzewelle“ weckt Bilder von Hitzeglocken, die den gesamten Planeten kochen. Was gemeint ist, sind Hitzewellen, die gleichzeitig in verschiedenen Teilen der Welt auftreten.

(RELATED: Obama Climate Regs Will Have ZERO Impact On Future Warming, So Why Is The Left Fighting So Hard To Keep Them In Place) (… Obamas Klimaregulierungen werden NULL Auswirkungen auf die zukünftige Erwärmung haben. Warum  also kämpft die Linke so hart, sie zu behalten?)

„Hitzewellen sind zwangsläufig lokalisierte Angelegenheiten, die normalerweise mit anomal hohem Luftdruck verbunden sind“, sagte Mass in einer E-Mail. „Globale Hitzewellen sind also weder ein wissenschaftlicher Begriff noch eine gute Beschreibung dessen, was passiert ist.“

Auf die Frage, ob es eine solche globale Hitzewelle gebe, sagte der Klimaforscher Kevin Trenberth vom National Center for Atmospheric Research: „Nein, aber es gibt globale Erwärmung: das bedeutet wirklich globale Erwärmung und manifestiert sich in vielerlei Hinsicht, eine davon sind Hitzewellen und Waldbrände. „

Auch der Klimawissenschaftler des Cato-Instituts, Ryan Maue, kritisierte Schlagzeilen, in denen von einer „globalen Hitzewelle“ die Rede ist und von Wissenschaftlern, die ihre Namen für solche haarstäubenden Behauptungen zur Verfügung stellen.

Quelle @Ryan Maue ; weathermodels.com; Nutzung auf nicht-kommerziellen Webseiten erlaubt

Abgesehen davon, dass es Winter in der südlichen Hemisphäre ist, bemerkte Maue, dass die Temperatur der nördlichen Hemisphäre derzeit dem Durchschnitt der letzten 18 Jahre entspricht. Er stellte außerdem fest, dass die Landtemperaturen der nördlichen Hemisphäre derzeit insgesamt unter dem Normalwert lagen.

Das heißt nicht, dass es keine anhaltende Sommerhitze gibt. Die Medien nehmen jedoch die extremen Temperaturen in Teilen der Welt zum Anlass, diese in eine allumfassende „globale Hitzewelle“ zu verwandeln.

Die Washington Post ging so weit zu sagen, dass die „Schlagzeilen, die eine globale Hitzewelle ankündigen, nicht übertrieben sind“. Und behauptet dann auch noch unschuldig, dass „der größte Teil der nördlichen Hemisphäre, wo es derzeit Sommer ist, viel heißer ist als normal“.

Andrew Freedman berichtete  auf Axios, dass die globale Hitzewelle im Jahr 2018 so allgegenwärtig ist, dass die Wissenschaftler überrascht sind.  Freedman zitiert mehrere Wissenschaftler um seine Behauptungen zu untermauern, wie ‚ungewöhnlich‘ die aktuellen Wetterprofile [.. pattern) sind.

„Selbst für jemanden, der extreme Wetter versteht und wie der Klimawandel extreme Wetterereignisse beeinflusst, ist das, was in diesem Sommer passiert, unglaublich“, erzählte Bernadette Woods, Chef-Meteorologe am Climate Central gegenüber Axios.

Die „globale Hitzewelle“ wurde von Demokraten genutzt, um politische Punkte gegenüber  Präsident Donald Trump gutzumachen.

 

https://www.axios.com/global-heat-wave-stuns-scientists-as-records-fall-4cad71d2-8567-411e-a3f6-0febaa19a847.html …

Im vorstehenden Twitter führt der Link zu Axios und zeigt im Aufmacherbild eine Temperatur von 213°F (=100°C)

 

Dieser Beitrag wird andere Nachrichtenagenturen wahrscheinlich nicht davon überzeugen, ihre „globale Hitzewelle“ fallen zu lassen, aber die Frage, die sie sich stellen sollten, ist, ob sie ihrer Sache helfen oder nicht.

„Es tut weh, weil diejenigen, wo es nicht heiß ist, es ablehnen“, sagte Trenberth zu The Daily Caller. „Man sagt, es ist Wetter, ohne zu merken, dass es immer Wetter gibt und Regionen oberhalb und unter dem Normalen.“

Gefunden auf The Daily Caller News Foundation vom 30.07.2018

Übersetzt durch Andreas demmig




Die jahrelange beispiellose Hitze- und Dürreperiode in Europa um 1540 – ein Worst Case

Auf der Grundlage von über 300 Quellen mit Wetterberichten aus erster Hand aus einem Gebiet mit einer Größe von 2 bis 3 Millionen km² zeigen wir, dass Europa von einer beispiellosen, 11 Monate dauernden Mega-Dürre betroffen war. Die geschätzte Anzahl der Tage mit Niederschlag und die Niederschlagsmenge in Mittel- und Westeuropa im Jahre 1540 ist signifikant niedriger als die 100-Jahre-Minima der Periode mit instrumentellen Messungen für Frühjahr, Sommer und Herbst. Dieses Ergebnis wird gestützt durch unabhängige dokumentarische Beweise über extrem niedrige Pegelstände in Flüssen und weit verbreiteten Wald- und Feldbrände in ganz Europa. Wir haben gefunden, dass ein Ereignis dieser Größenordnung nicht von hypermodernen Klimamodellen simuliert werden kann.

Link: https://link.springer.com/article/10.1007/s10584-014-1184-2

Übersetzt von Chris Frey EIKE

———————————-

Dazu hier ein Bericht aus anderer Quelle:

… Über mehrere Wochen hinweg regnete es kaum noch., nach Quellenaussagen soll es in 26 Wochen an nur 5 Tagen ‚Tropflesregen‘ gegeben haben. Die Hitze des Sommers von 1540 ist das am besten belegte Ereignis im 16. Jahrhundert und kann als eines der Jahrtausendereignisse angesehen werden. Die kaum zu beschreibende Wasserverknappung führte zu einem Schreckensszenario und dokumentiert sich auch in markanten Negativsignaturen der verschiedensten Baumringe. Aus ihnen konnte die Niederschlagssumme zwischen November und Juni rekonstruiert werden: Das Niederschlagsdefizit betrug nach diesen Werten im Juni bereits 25%. Nachdem auch der Herbst zu trocken ausfiel, wurde der Wein durch den extrem hohen Zuckergehalt zu einem Jahrtausendwein, für den man, wie in der Würzburger Hofkellerei heute noch zu sehen ist, eigene Prunkfässer baute. Durch den hohen Zuckergehalt muss der Wein noch sehr lange genießbar gewesen sein, denn man kredenzte ihn zu besonders festlichen Anlässen noch in späteren Jahrhunderten… . Fortan wurde die Qualität dieses Weines zum unerreichten Standard, der noch zwei Jahrhunderte später als Bezugsmaßstab zitiert wurde. Als die Schweden 1631 Würzburg einnahmen, fahndeten sie nach diesem Wein, konnten ihn aber, da das Fass eingemauert war, nicht finden. Im 19. Jahrhundert ersteigerte ein englischer Weinhändler diesen Wein, füllte ihn in Flaschen und verkaufte diese. Letzte Flaschen dieser Kollektion sind heute noch – mit Inhalt – im speyerischen Weinmuseum und und weitere im Bürgerspital in Würzburg zu sehen… . Es gibt aber noch weitere Belege für die extreme Trockenheit: In Regensburg nutzte man den niedrigen Wasserstand, um für den Kranen neue Fundamente zu errichten: Rekordtrockenheit im Frühling sowie Rekordhitze und Rekordtrockenheit im Sommer lautet die nüchterne Klassifizierung… .

Quelle:Rüdiger Glaser, Die Klimageschichte Mitteleuropas, Seite 108, erschienen 2008 im primusverlag.

———————————-

Hinweis des Übersetzers: Das Jahr 1540 lag mitten in der „Kleinen Eiszeit“. Aber Kämpfe (2017) hat ja in mehreren Arbeiten nachgewiesen, dass Wetterextreme umso ausgeprägter sind, je kälter das Erdklima ist.

Das macht durchaus Sinn, denn je kälter das Klima auf der Erde, umso größer ist ja auch der Temperaturgegensatz zwischen niedrigen und hohen Breiten – mit der Folge stärkerer Extreme nach jeweils beiden Seiten.




Klima-Nachrichten aus einem überhitzten Deutschland

Tweet von Katrin Göhring Eckardt kurz KGE

Ganz schön warm. Wenn man es nicht gewohnt ist, kann einem die Hitze zu Kopfe steigen und dort die seltsamsten Regungen hervorrufen. Zum Beispiel bei Mojib Latif, der Klimawandel-Sirene, die zuverlässig wie eine Schwarzwälder Kuckucksuhr regelmäßig mit dem Kopf aus dem Kästchen hervorlugt und »Klimawandel« schreit.

Pastoren und Pfarrern glauben wir nicht mehr, dafür umso mehr den Predigern der Klimakirchen, je mehr, je lauter diese den Untergang prophezeien. Kaum wird es ein wenig wärmer, schlagen die hohen Temperaturen auf die Gemüter durch. Noch nie so warm … Das wärmste Jahr, gut, das findet in den Schlagzeilen in fast jedem Jahr statt. 2007, 2008 bis zum letzten Jahr – so regelmäßig wie die vier Jahreszeiten kann man die Schlagzeilen »bislang wärmstes Jahr seit Beginn der Messungen« erblicken. Ursache entweder El Niño oder El Niña, irgendeine Nord-, Ost- oder west-atlantische Oszillation.

»Natürlich kann Deutschland das Klima nicht retten, aber wir müssen natürlich Vorbild sein.« Das also sprach Mojib Latif, Leiter des Forschungsbereiches Ozeanzirkulation und Klimadynamik am Helmholtz-Zentrum in Kiel, einem Radioreporter ins Mikrofon. Latif ist immer zur Stelle, wenn es darum geht Klimapanik zu verbreiten. Der jetzige heiße Sommer 2018 überrascht ihn nicht: »Das reiht sich mehr oder weniger nahtlos ein in die letzten Jahrzehnte«.

Auch der verregnete Sommer des vergangenen Jahres zeigt seinen Angaben zufolge, wie der Klimawandel fortschreitet. »Das sind eben zwei Seiten derselben Medaille.« Das Wetter werde insgesamt extremer. Es gebe besonders heiße und besonders verregnete Jahre – »und es kann sogar beides in einem Jahr kommen«.

HEISSE TAGE

Wie ein Pastor hat er keinerlei Schwierigkeiten, nicht zusammen Passendes passend zu hämmern. »Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben.« Das hat er vor fast 20 Jahren einmal gesagt. Wen interessiert es noch, welchen nächsten Alarm namens Klimawandel er liefert?Bemerkenswert ist der neue Latif-Satz deswegen, weil der Klimaforscher damit zugibt, dass die hunderte an Milliarden Euro für Energiewende und den Kampf gegen Klimawandel rausgeworfenes Geld sind. Alle diese Aktionen sind ohne Effekt, und über Deutschlands Vorbildrolle lacht die Welt.

Da twittert Katrin Göring-Eckardt von den Grünen panisch:

Tweet von Katrin Göhring Eckardt kurz KGE

Warum bringt ihr niemand den Begriff »Sommer« bei? Da wird es mitunter heiß.
»Feuer-Ökologe« Johann Goldammer – erstaunlich, was der Klimawandel alles für Berufsbilder hervorbringt – erklärt: »Deutschland wird bald Waldbrandland«. Schuld daran sei der Klimawandel. Vielleicht könnte er erklären, dass nach einem solchen Brand neue Vegetation in der Regel umso besser hervorsprießt, und für Pflanzen Feuer Voraussetzung für Vermehrung und weiteres Wachstum sein kann.

Dabei erleben wir derzeit einen schönen warmen Sommer, der bisher noch nicht einmal überdurchschnittlich heiß zu werden verspricht. Der vergangene Juli jedenfalls zählt nicht zu den drei wärmsten Juli-Monaten seit Aufzeichnung der Wetterdaten, hat Stefan Kämpfe herausgefunden. Der Juli 2006 war der Wärmste, 1994 der Zweitwärmste, 1983 der Drittwärmste.

Wetterexperte Jörg Kachelmann sagt ganz unmißverständlich: »Die globale Hitzewelle weltweit und gleichzeitig ist eine Lüge. Nimmt man die momentanen Temperaturen der gesamten Nordhemisphäre und vergleicht man mit der Referenzperiode 2000-2017, ist die durchschnittliche Abweichung über alles genau 0,0 Grad.« Also nichts mit Katastrophe.

Derweil erinnern sich Ältere an frühere Hitzesommer wie den im Jahre 1959, als die Brunnen leer waren, das Vieh in den Ställen brüllte und zum Händewaschen eine Tasse Wasser reichen musste. Eine TE-Leserin aus Frankfurt erinnert sich, wie die Feuerwehr Wasser in Eimern zuteilte.

Traurig sieht es auf den Feldern aus. Dort schalten Pflanzen in Notmodus um und wachsen nicht mehr, beginnen mit der Welke.

Robert Habeck sagt: Landwirte, selbst Schuld! Das ist der neue grüne Hoffnungsträger, der aus persönlichen Pensionsgründen noch bis zum Jahresende Landwirtschaftsminister in Schleswig-Holstein bleibt. Der will öffentliches Geld nur noch für öffentliche Leistungen ausgeben und nicht mehr automatisch für Entschädigungen für Landwirte. Das sagt er, nachdem er und seine Gesellen mit öffentlichen Geldern Schleswig-Holstein in eine unbewohnbare Windmühlen-Wüste verwandelt haben. Glaubwürdig geht anders.Anton Hofreiter, der edle Grüne, wendet sich in sozialistischer Gutsherrenart gegen Dürrehilfen für die Bauern: »pauschales Handaufhalten!« sei das. Ob er versteht, was er sagt? Dann ist da noch die Svenja, die derzeit die Bundesumweltministerin gibt. Sie hat eine Forderung des Deutschen Bauernverbandes nach einer Dürrehilfe in Höhe von einer Milliarde Euro abgelehnt. Kein Wunder, die Kohle ginge ja auch nicht für den Unsinn »Energiewende« drauf. Obwohl viele Landwirte kräftig von Windrädern auf ihren Feldern absahnen.

Sie sülzt von der »Klimaanpassung in der Landwirtschaft«. Und die sollte, na was wohl? – »mit ausreichend Geld unterlegt sein!« Schulze rief zum »Umdenken« auf, denn »die Landwirtschaft«, weiß sie, die mal was auf Germanistik und Politikwissenschaft gemacht und außer einer astreinen SPD-Parteikarriere nichts hingelegt hat, »muaa sich grundsätzlich auf häufigere Extremwetterlagen einstellen, seien es Trockenzeiten wie jetzt oder langanhaltende Regenperioden wie im letzten Jahr«.

In den Bauernbetrieben fiel in diesem Jahr häufig bereits die zweite Heuernte aus; das Futter für Tiere für den Winter wird nun knapp und muss teuer zugekauft werden. Da überlegt es sich der Landwirt zweimal, ob er Vieh nicht lieber reduziert. Ob schon Notschlachtungen notwendig sind, darüber gehen die Meinungen in der Landwirtschaft auseinander, hängen auch von der Region ab, die unterschiedlich von der Dürre betroffen sind.

Bauer Willi

Das gilt übrigens nicht nur für sogenannte »konventionelle«, sondern auch für Biobauern. Denn auch vor der gesinnungstechnisch richtigen grünen Biowiese macht die Trockenheit nicht Halt. Was also sollen die in ihrer Not tun? Von irgendwoher auf dem freien Markt irgendwelches Futter einkaufen passt nicht in den ideologischen Rahmen. Katastrophe, fräße die bio-korrekte Kuh vitiöse Grashalme! Der wunderbare »Bauer Willi« hat sich auf die Suche nach einer Antwort gemacht.

Die dürfen jetzt auch mit Ausnahmegenehmigung nach einem fünfseitigen Antrag über den zuständigen Öko-Verband an die zuständige Behörde »nichtökologisches Raufutter«, sprich Heu von der ideologisch verpönten konventionellen Wiese für seine RGV, also »Raufutter verzehrende Großvieheinheit«, verwenden.

Bauer Willi fand heraus: »Es ist unter anderem der Tierbestand der letzten vier Jahre, die aktuellen Vorräte an Raufutter, der normale und der jetzt erwartete Ertrag, der voraussichtliche Zukauf von ökologischem und konventionellem Futter bis 2019 anzugeben und noch einiges mehr. Dies alles wird geprüft und dann entschieden, ob eine Ausnahmegenehmigung erteilt wird. Laut Auskunft der Zertifizierungsstelle kostet die Antragsstellung 140 €.«

Futter in ausreichenden Mengen gibt es dagegen noch für Biogas-Anlagen. In der Regel Mais, aus dem Gas und Strom erzeugt wird. Muss Vieh notgeschlachtet werden, weil dafür nicht mehr genügend zur Verfügung steht? Teller oder Trog? Vieh oder Strom? Großartige Alternativen haben die Energie- und sonstigen Wender auf den Tisch gebracht.

Bürokratie kennt keine Hitze

Die Bauern könnten noch hurtig einzelne vertrocknete Wiesen umpflügen und schnell wachsendes Grünfutter einsäen, um dann bis zum Herbst ein wenig zusätzlich Futter für das Vieh zu gewinnen. Doch davor steht die Bürokratie: Für jeden Grünland-Umbruch muss ein Antrag gestellt werden. Das dauert. Hitze hin – Hitze her. Bauern müssen lange vorher angeben, was sie anzubauen planen und auf den Feldern zu tun gedenken, zumindest dann, wenn sie öffentliche Beihilfen in Anspruch nehmen. Nur: Wer tut dies nicht? Ohne gehts nicht mehr. Mit freien und raschen Entscheidungen ist da in der Regel nichts getan. Mag das Wetter noch so sehr drängen.

Sollte die Fläche nicht als Acker, sondern als Dauergrünland bei den Behörden eingetragen sein, hat der Bauer sowieso Pech gehabt, dann geht überhaupt nichts mehr. Einen Großteil der Schwierigkeiten auf dem Acker verursacht der Sozialismus in der Bürokratie, der nach der neuen Düngeverordnung zum Beispiel bis hin zum letzten Kilogramm Kuhdung wissen und dokumentiert haben will, wohin sie geflossen ist, der will die Planwirtschaft. Wie gut die funktioniert, hat die ehemalige DDR gezeigt.

Mit Witterungsunbilden kommt der Bauer klar, mit Zentralverwaltungswirtschaft und NGOs nicht mehr.

Zum Wetter früher und zum Klimawandel als permanentem natürlichen Vorgang seit Entstehung der Erde eine Wetter-Draufgabe:

Der Beitrag erschien zuerst bei TICHYS EINBLICK




Staudamm in Laos geborsten! Medien schweigen- Lückenpresse oder doch mehr?

Solche Unglücke im Zusammenhang mit der Gewinnung elektrischer Energie und Naturereignissen — hier außergewöhnliche Regenfälle — wird es immer wieder geben. Nur Laien glauben an „gute“ und „böse“ Arten von Energie. Es soll hier nicht um die technischen Aspekte gehen, sondern das Warum steht hier im Vordergrund und die (zweifelhafte) Reaktion der Medien in Deutschland.

Die Demokratische Volksrepublik Laos ist einer der ärmsten Länder in Asien. Ein vom Kommunismus gebeuteltes Land. Mehr als 23% der Bevölkerung haben weniger als 2 US$ pro Tag zur Verfügung. Von einschlägigen Kreisen wird es wegen seiner Topographie gern als „Batterie Südostasiens“ bezeichnet. Der Mekong durchfließt das Land auf rund 2000 km Länge. Zahlreiche laotische Flüsse münden in ihm. Besonders diese Nebenflüsse werden mit Stauseen zur Stromerzeugung gepflastert. Geld hierfür fließt zur Zeit in Strömen — nicht nur aus China — denn Staudämme sind wie Windräder gut für das Klima. Besonders all die Anleger, die aus der „bösen Kohle“ aussteigen, brauchen dringend neue profitable Geldanlagen. Der gerade zusammengebrochene Xepian-Damm hat bereits über eine Milliarde US$ verschlungen. Er sollte eine Leistung von 410 MWel haben und 1860 GWh pro Jahr liefern. Dies ergibt aufschlußreiche Zahlen: Die spezifischen Investitionskosten betragen somit etwa 2400 US$ pro KWel. Aber halt, da ist ja noch eine zweite Zahl: Geplante Produktion 1860 GWh pro Jahr. Hoppla, das sind ja gerade 4536 Vollbenutzungsstunden. So ist das halt mit den wetterabhängigen Umweltenergien. Ein Kernkraftwerk läuft mindestens 7885 Vollaststunden pro Jahr, also fast doppelt so lange. Und dies immer dann, wenn man den Strom braucht und nicht wenn der Wettergott Lust hat. Somit dürften die gleichwertigen Investitionskosten also rund 4200 US$ pro kWel betragen. Das ist die Antwort, warum ganz Asien Kernkraftwerke (nahezu keine Brennstoffkosten, aber entsprechende Infrastruktur erforderlich) oder Kohlekraftwerke baut.

Hinzu kommt noch ein anderes Problem: Konventionelle Kraftwerke sind nahezu standortunabhängig und benötigen nur wenig Fläche. Wasserkraftwerke können praktisch nur noch in Diktaturen gebaut werden: In diesem Fall mußten sechs Dörfer mit ihren Einwohnern verschwinden. Entschädigung? Es handelte sich um eine Minderheit von Bergstämmen. Wer bekommt den Strom? Die „Eingeborenen“ wären gar nicht in der Lage die elektrische Energie zu bezahlen. Deshalb sollen 90% der Stromproduktion nach Thailand exportiert werden. Langfristige Verträge über 27 Jahre sichern den Banken ihren Rückfluß des eingesetzten Kapitals — plus einer netten Rendite. Umweltbelastung? Bei einem Wasserkraftwerk kommt zwar kein „böses CO2“ aus dem Schornstein, aber jeder Staudamm belastet das „Ökosystem Fluß“. Wenn man dutzende miteinander verbundene Wasserkraftwerke baut, wird das einen erheblichen Einfluß auf Flora und Fauna haben. Der Mekong ist aber die Lebensader für die Flußanrainer von China bis Vietnam.

Die Berichterstattung in unserem Lande

Erinnern sie sich noch an Fukushima? Von morgens bis abends gab es kein anderes Thema. Nun ist Laos auch nicht weiter als Japan. In beiden Fällen war die Ursache ein Naturereignis. In Laos ein Tropensturm mit außergewöhnlichen Niederschlägen und in Japan ein Tsunami. Die immerwährenden Wasserschäden halt. Naturgewalt wird man nie ausschließen können, lediglich sich dagegen durch viel Technik wappnen können. In beiden Fällen entstand erheblicher Sachschaden. Nicht nur für die Anlagenbetreiber, sondern auch für viele völlig unbeteiligte Personen in weiterer Entfernung. In einem Fall wahrscheinlich hunderte Tote durch die direkte Einwirkung der Anlage, im anderen Fall sind keine Menschenleben zu beklagen. Was macht nun den Unterschied in der Wahrnehmung beider Ereignisse aus?

In der Wahrnehmung „normaler Menschen“ gibt es kaum einen Unterschied. Im Gegenteil dürfte das Mitfühlen für die Angehörigen der Todesopfer (überwiegend Kinder) in Laos eher größer sein. Man erinnere sich nur an die Kinder-Fußballmannschaft in Thailand. Weltweit wurde tagelang mit den in der Höhle eingeschlossenen mitgefiebert. Aus aller Welt traf Unterstützung ein. Warum also, reagierten die Medien in Deutschland — das muß ausdrücklich betont werden — so desinteressiert? Es ist ja nicht so, daß kein Bildmaterial oder Hintergrundinformationen vorhanden sind. Es liegt alles vor für eine „Enthüllungs-Geschichte“ a la „Panama-Papers“ etc.: Diktatoren, Indigene Minderheiten, Ausbeutung der „3. Welt“, Banken, internationale Konzerne, großräumige Umweltzerstörung usw. Kurz, alles was einen Linken elektrisiert. Ne richtige „Spiegel Story“ so zu sagen.

Man könnte die Antwort in einem Satz geben: Was nicht sein darf, findet auch nicht statt. Die totale Realitätsverweigerung. Wie einst in der DDR. Tschernobyl hielt erst mit tagelanger Verzögerung Einzug in die Aktuelle Kamera. So funktionieren halt staatliche Medien. Nur mit dem Unterschied, daß die DDR sich selbst gegenüber so ehrlich war, ihre Medien direkt aus dem Staatshaushalt und nicht über eine Zwangsabgabe für Wohnungen zu finanzieren. Die Wirkung ist die gleiche: Von den Regierenden mit üppigen Mitteln und unzähligen Privilegien ausgestattet, weiß man auch ohne direkte Anweisung, was zu tun ist.

Die Vorgabe ist einfach und auch von „Nachrichten-Vorlesern“ mit geringer Bildung auszuführen: Die Energiewende ist um jeden Preis zu verteidigen. Kernenergie und Kohle sind beides Teufelszeug, müssen daher mit allen Mitteln — besser gesagt Gruselgeschichten — madig gemacht werden. Einzig selig machend ist Wind- und Sonnenenergie mit (noch zu erfindenden) Speichern und deshalb darf der Bruch eines Staudammes nicht stattfinden. Höchsten als Randnotiz, sonst könnte der Bürger noch auf abwegige Gedanken kommen.

Das „GEZ-Fernsehen“ ist schon länger auf dem Niveau der Prawda angekommen: Immer mal rein schauen, damit man weiß, was einem die Regierung zum Thema Energie mitteilen will. Aber als Informationsmedium absolut unbrauchbar. Wer glaubt, was einem dort verkauft wird, macht sich selbst und freiwillig zum Deppen.

Wer Informationen sucht, muß sich notgedrungen im kapitalistischen Ausland umschauen. Dort sind Nachrichten immer noch eine Ware und keine ideologischen Verlautbarungen zur Volksertüchtigung. Deshalb war in wenigen Stunden das Staudammunglück verbreitet — samt Hintergrundinformationen: Wer hat den Damm gebaut, wer hat die Finanzierung gemacht, wie haben sich deren Aktienkurse entwickelt usw. Im Internetzeitalter alles was man braucht, um seinen eigenen Ansprüchen entsprechend weiter zu recherchieren. Genau die journalistische Arbeit, die im Deutschen Fernsehen immer mehr verweigert wird — ob schlicht aus Faulheit oder aus Boshaftigkeit sei dahingestellt. Überdeutlich wird dies immer wieder im Zusammenhang mit Donald Trump: Bevor man sich seine Rede selbst anhört, verwendet man lieber einen Beitrag eines klassenbewußten „Experten“ darüber, was der Präsident angeblich gesagt haben soll. Sicher ist sicher, wie bei der Energiewende. Wenn man mit den Wölfen heult und immer nur das nach quatscht, was die einschlägigen „Größten Denker“ vorgekaut haben, ist man immer auf der richtigen Seite. Schlimmstenfalls haben sich halt alle anderen auch geirrt. Die üppige Pension ist damit, gemäß deutscher Tradition, auf jeden Fall gesichert. Später sagt man einfach, wenn man das gewußt hätte….

Der Beitrag erschien zuerst bei NUKEKLAUS




ZDF-Heute: Ist der Ruf erst ruiniert…..Die Sende­anstalt der Grünen und deren Helfer

Panikmache

Suggestion

Manipulation

Aufzeigen der Retter in Form der Grünen

Was es mit der diesmal vorgenommenen Manipulation der Zuschauer und der dahinter verborgenen Story auf sich hat, will der Autor in den folgenden Zeilen darlegen.

Was ist im Sommer, bekanntlich die warme und damit schöne Jahreszeit, in der wir unseren Haupturlaub verbringen, naheliegender und in Anbetracht der warmen Witterungsverhältnisse, die bereits seit Mai vorliegen, als den Zuschauern die vermeintlich vielen Nachteile des warmen Sommers in Form von Panikmache heranzutragen. Ist doch unterschwellig bereits der vermeintliche Wahrheitsgehalt dadurch gesichert, dass der Zuschauer der Ausgangsbasis – warmer und schöner Sommer – uneingeschränkt zustimmt. Also wird auch das andere schon stimmen. Der Zug ist sozusagen auf die Gleise gesetzt.

So hatte ZDF-Heute wieder einmal die vermeintlich vorherrschende Dürre in Deutschland, als Basisobjekt zur Wahlkampfhilfe der Grünen entdeckt.

Dabei will der Autor nicht in Abrede stellen, dass regional, insbesondere in Teilen Ostdeutschlands, seit April zu wenig Niederschlag fiel und es daher zu trocken ist und selbstverständlich ist es die Pflicht einer Solidargemeinschaft, die jedes demokratische Staatswesen darstellt, den Betroffenen zu helfen. Hier insbesondere den betroffenen Landwirten, die unbestreitbar eine der Säulen unserer Gesellschaft verkörpern. Aber dem ZDF geht es offensichtlich gar nicht darum, sondern um Wahlhilfe für die Partei der Scharlatane, nein, das ist doch die Partei der Gutmenschen!

Da war von einer Dürre in ganz Deutschland die Rede. Als Cherry-Picking wurden zufälligerweise in dem Gebiet die Filmaufnahmen gemacht, welches regional am stärksten betroffen ist. Weiter war von Ertragseinbußen durch die vermeintliche Dürre in Deutschland von 1 Milliarde Euro für die Landwirtschaft die Rede, die ausgeglichen werden sollen. Worüber, das darf der Autor den ZDF-Machern versichern, nicht der geringste Disput besteht. Weiter war von Ernteertragsrückgängen nahe oder gar über 50% die Rede. Die Manipulation von ZDF-Heute vom 30.07.18 um 19:00 Uhr nimmt Fahrt auf.

1 Milliarde Euro Ernteertragsrückgänge. Nach Angaben des statistischen Bundesamtes beträgt der Produktionswert in der Landwirtschaft (das stat. Bundesamt zählt hier Forst- und Fischereiwirtschaft mit) bei 52 Milliarden Euro. 1 Milliarde wären demnach gerade einmal 1,9%.

Nun haben Statistiken bekanntlich so ihre Tücken – je nachdem, was damit einbezogen wird. Deshalb wollen wir die Brutto- sowie Nettowertschöpfung der Landwirtschaft betrachten:

Abb.2, Quelle, zeigt die Wertschöpfung der deutschen Landwirtschaft von 2011 bis 2017. Ein Rückgang von 1 Milliarde Euro in 2018 zu 2017 wäre demnach ein Rückgang um nicht einmal 5%. Sicherlich nichts Dramatisches in der Gesamtheit für Deutschland.

Die Bruttowertschöpfung lag alson 2017 bei etwas mehr als 20 Milliarden Euro. In Abb.3 hat der Autor dargelegt, was ein Rückgang von 1 Milliarde € in 2018, aufgrund der vermeintlichen Dürre, bedeutet:

Abb.3 zeigt, von Panikmache keine Spur. 1 Milliarde Ertragsrückgang, so schmerzlich dies für die regional betroffenen Landwirte auch ist und so berechtigt ihnen geholfen werden muss, im Vergleich zu Deutschland 2017 kaum wahrnehmbar. Ähnlich dem Rückgang von 2014 zu 2013: Kaum zu sehen. Da sind die Einbußen in 2015 weit größer.

Aber dieser Tage macht das ZDF aus der bekannten Mücke für Deutschland, einen Elefanten. Warum, erfahren unsere Leser gleich. Vorher möchte der Autor noch einen Blick auf die regionale Landwirtschaft in Ostdeutschland werfen. Am Beispiel Sachsen, Abb.4:

Abb.4, Quelle, zeigt die Bruttowertschöpfung der Landwirtschaft in Sachsen von 2000 bis 2017. Auch hier hat der Autor für 2018 dargelegt, was ein Ertragsrückgang von knapp 5% bedeutet. Deutlich zu sehen: In den Vorjahren lagen deutlich größere Schwankungen vor, ohne dass der Sender der Grünen Kassandrarufe in die Welt sendete, um den Menschen in unserem Land offensichtlich Angst zu machen.

Zur Untermalung seiner Wahlkampfhilfe für die Grünen betreibt das ZDF einmal mehr Manipulation durch Cherry-Picking. Darunter wird das aus einem Ganzen herausgeschnittene Einzelteil verstanden, welches dazu benutzt wird, die eigenen Thesen zu untermauern, wohl wissend, dass es sich dabei einzig um Manipulation handelt, indem dem Betrachter das ganze Bild vorenthalten wird, Abb.5.

Abb.5, Quelle: Screenshot aus ZDF-Heute vom 30.07.2018, 19:00 Uhr mit Nachrichtensprecher Herrn Christian Sievers wie er gleich doppelt die Zuschauer manipuliert. Unten im Bild ist die Quelle vermerkt: Helmholtz Zentrum für Umweltforschung.

Ein ähnliches Bild hatte der Autor in seinem Artikel „Wetter, Klima und Medien“ hier gezeigt, Abb.6:

Abb.6, Dürresituation in Deutschland 2018, Quelle: Helmholtz Zentrum für Umweltforschung zeigt für Juni (und die Monate davor) das Bild von Abb.5. Doch bei genauerer Betrachtung, sind beim ZDF wesentlich mehr rot und orange-Töne, also vermeintlich kritische Töne zu sehen. Leider hat das ZDF in seiner Quelle versäumt anzugeben, was dort gezeigt wird! Während der Autor das Chart für die vergangenen Monate zeigte, hat das ZDF offensichtlich den sog. Dürremonitor beim Helmholtz Zentrum abgegriffen. Aber nicht angegeben, was gezeigt wird. Offensichtlich eine bewusste Irreführung des Zuschauers.

So unterscheidet das Helmholtz Zentrum für Umweltforschung wie folgt und gibt exakt an, was zu sehen ist, Abb.7:

Abb.7, Quelle, zeigt die aktuelle Situation für Deutschland an einem speziellen Tag (dem 29.07.2018, nicht Monat) in zwei verschiedenen Bodentiefen. Von alledem beim ZDF nichts zu sehen, sondern nur eine Grafik, mit vielen Orange- und Rottönen. Natürlich auch nicht, die Monats- sowie Jahresübersicht. Manipulation pur, was die ZDF-Heute-Macher betreiben und deren Sprecher von sich gibt.

Dass in 2018 eine deutlich geringere Trockenheit als in den Jahren davor vorliegt, hatte der Autor in seinem Artikel „Wetter, Klima und Medien“ (hier) dargelegt. In Abb.8 nochmals als Zusammenfassung:

Abb.8, Quelle wie Abb.6, zeigt die Trockenmonate in Deutschland von 2014 bis 2017. Deutlich zu sehen, dass in den Vorjahren deutlich mehr Trockenheit in Deutschland vorlag. Für 2018 geht der Autor für die Monate Juli und August von weiter wenig Niederschlag aus. Warum, wird er in Teil 2 darlegen.

Worum es dem ZDF, dem Zentralen Desinformations Fernsehen aktuell in Wirklichkeit geht, wird im Bericht in den Heute-Nachrichten vom 30.07.18 19:00 Uhr deutlich. Denn nach der „Pflicht“, steigt das ZDF in die „Kür“ ein. (Abb.9)

Nachdem der Zuschauer mit Panik und Angst vor gewaltigen Ernteausfällen sozusagen „sturmreif geschossen“ wurde, werden die vermeintlichen Retter präsentiert (Abb.9 und 10).

Abb.9, Quelle wie Abb.5. Diesmal nicht Herr Resch, sondern Herr Dr. Peter Hoffmann vom sog. Potsdam Institut für Klimafolgenforschung. Da Klima nichts anderes ist, als der statistische Mittelwert des Wetters, per Definition der Mittelwert von 30 Jahren, forscht man dort in Potsdam wohl über die Folgen von Statistikänderungen. Muss es ja auch geben.

Von Herrn Dr. Hoffmann waren dann weitere Kassandra-Rufe zu vernehmen, dass wir uns auf weitere Temperaturerhöhungen einstellen müssen, weitere Extreme zunehmen… Dies alles jedoch im Konjunktiv gehalten. Also von Wissenschaft, die sich üblicherweise in der realen Welt abspielt und in der der Konjunktiv keine Rolle spielt, nichts zu vernehmen. Sozusagen als Höhepunkt kam dann die Politik zu Wort, aber nicht die Ministerin in Person oder regierungsverantwortliche Parteien, sondern nur eine einzige Person wurde befragt und bekam Redezeit zur Wahlwerbung eingeräumt. Nun raten Sie mal wer? Richtig geraten, die grüne Laiendarstellerin (sie werden gleich sehen, warum!) und Parteivorsitzende Frau Annalena Baerbock.

Abb.10, Quelle wie Abb.5 zeigt das eigentliche Instrument der Panikmache in ZDF-Heute, die grüne Parteivorsitzende Frau Annalena Baerbock, geboren in Hannover. Die Tochter eines strammen Marxisten*?

Das ZDF räumte ihr das Schlusswort und gar das Schlussplädoyer ein, was Sie für die ihre abstrusen Vorstellungen über Demokratie und einer freien Gesellschaft wahrlich breit nutzte. Ihr Schlussplädoyer: „Wir müssen an die Ursachen rann und die Ursachen für diese Hitzewellen, die Ursachen für die Dürren auf den Feldern, das ist die Klimakrise (Anmerkung: Siehe hier), und deswegen brauchen wir eine ambitionierte Klimaschutzpolitik…. Der Screenshot fängt ihren Blick ein, als sie gerade „ambitionierte Klimapolitik“ ausgesprochen hatte. Man sieht förmlich, die Selbstzufriedenheit die in ihr aufsteigt, nach dem Gelingen dieses Satzes. Dann geht’s weiter, Abb.11.

* Das Wort ‚Annalena‘ klinkt zwar sowjetisch, ist es aber nicht und kommt aus dem Griechischen. Der Tagesspiegel schreibt „Ihre Eltern nahmen sie in den 80ern mit zu Anti-Atomkraft-Demos“. Die 1980-Jahre. Dies waren die Jahre der Menschenketten, so auch im britischen Sellafield. Damals war im Spiegel zu lesen, dass die sowjetische Botschaft in London nach Moskau ‚kurbelte‘ „Wir haben 500.000 Leute auf die Straße gebracht.“ Passt doch!

Abb.11, Quelle wie Abb.5

„…Eine andere Form der Landwirtschaft.“ Und jetzt, nach dem aussprechen „andere Form der Landwirtschaft“ die Schärfe in ihren Mundwinkeln und der Hass in ihren Augen auf die (jetzige) Landwirtschaft. Der Screenshot gibt genau diesen Moment wieder. Jeder Psychologe hätte daran seine wahre Freude, was sich hinter einer solchen Person verbirgt!

Donnerwetter: „Eine andere Form der Landwirtschaft“. Das ZDF hatte vorher, anhand eines Wissenschaftlers, der sich mit resistenteren Pflanzen gegen Trockenheit beschäftigt, sozusagen den Boden dazu bereitet, dass das Schlusswort vermeintlich wissenschaftlich untermauert wird. Doch der Wissenschaftler ist kein „Systemveränderer“, sondern ein praktisch orientierter Mensch, der vom ZDF für ihr perfides Manipulationsspiel missbraucht wurde. Denn in der Wissenschaft beschäftigt man sich seit langem mit resistenten Pflanzen gegen Trockenheit. Siehe hierzu z.B. den Bericht in Spektrum der Wissenschaft 11/07, “Erde & Umwelt“, S. 92. Der Autor hat darüber auf EIKE geschrieben, hier und hier.

Marxist. „Eine andere Form der Landwirtschaft.“ Dies gab’s schon mal in der Weltgeschichte, bei einem anderen, strammen Marxisten, gemeint ist Josef Stalin. Diesem Landwirtschafts- Gulag fielen nach Schätzungen 30 bis 50 Millionen Menschen zum Opfer. Ist es etwa das, was Frau Annalena Baerbock vorschwebt und was mit Hilfe dümmlicher Journalisten und verantwortungslosen Medienmachern durchgesetzt und der Boden dazu bereitet werden soll?

Abb.12. „Die andere Form der Landwirtschaft“ unter Josef Stalin in der „Zwangskollektivierung“, der 30 – 50 Millionen Menschen zum Opfer fielen. Ist es das, was Frau Annalena Baerbock vorschwebt? Quelle.

Wo wir gerade dabei sind, unser Land mittels Zwangsmaßnahmen zu konvertieren/kollektivieren, sprich zu ruinieren, Annalena Baerbock: „…müssen an die Ursachen ran“. Sind dies nicht im Weltbild grüner Ideologen, der Diesel und der Benziner? Also ist nach deren Lesart der Diesel an allem schuld und muss schnellstmöglich abgeschafft werden, wie der Autobesitz grundsätzlich nur ein paar wenigen vorbehalten bleiben soll? Wie in der Stalinzeit! Soll dahin die Reise gehen? Die Grünen haben dies doch in ihrem (abstrusen) Parteiprogramm gefordert und verankert.

Im Autoland Baden-Württemberg ist ein stramm grün-marxistischer Fundamentalideologe zum Ministerpräsidenten aufgestiegen und regiert dort. Für diejenigen, die mit der Formulierung des Autors nicht einverstanden sind, er wird dem Ministerpräsidenten und dessen wirklichen Gesinnung, einen eigenen Bericht widmen. Im zweiten großen Autoland Bayern, sind bald Landtagswahlen. Soll dort etwa mit medialer Manipulationshilfe ein weiterer politischer Wechsel, wenn auch nicht als größte Partei, so doch als eine, ohne die nicht regiert werden kann, vorgenommen werden, damit man der Autoproduktion in Deutschland ihr Ende bescheren kann, wie das Parteiprogramm der Grünen dies fordert?

Deren „Spiel“ muss offen gelegt werden. Nur vor dem Wissen, was diese Ideologen, die immer noch glauben, der Marxismus-Leninismus sei die Lösung für die Probleme der Moderne, vorhaben, siehe auch hier und hier, kann der Wähler sich ein rundes und objektives Bild von denen Parteien verschaffen, die wirklich für das Wohl unseres Landes und dessen 80 Millionen Menschen eintreten und bei welchen Parteien es sich um „falsche Prediger“ handelt.

———————————

Teil 2: Die Ursachen der vermeintlichen Extremdürre in Deutschland, in Kürze.

Raimund Leistenschneider – EIKE




Immer wenn die Klima­modelle kühlen sollen, streuen wir einfach Vulkan­staub hinein

Abstract:

Vergleich der gegenwärtigen Warmperiode in China mit der Warmperiode zu Beginn des 20. Jahrhunderts

In den meisten Schätzungen der regionalen Temperaturen in China seit Ende des 19. Jahrhunderts erscheinen zwei relativ warme Perioden – 1920 bis 1940 sowie 1990 bis zur Gegenwart. Allerdings gibt es große Debatten darüber, wie man diese beiden Perioden miteinander vergleichen kann. Einige sagen, dass es während der derzeitigen Warmperiode viel wärmer war als seinerzeit. Anderen zufolge ist die frühere Warmzeit durchaus vergleichbar mit der heutigen Warmzeit. In dieser Gemeinschaftsstudie, in der die Gründe für diese anhaltende Debatte erörtert werden, kommen Autoren aus beiden Lagern zu Wort. Mehrere verschiedene ältere und kürzlich erschienene Schätzungen von Temperaturtrends in China werden besprochen. Eine Studie der Auswirkungen von Urbanisierung bzgl. der Verzerrung chinesischer Temperaturtrends wurde durchgeführt mittels der neuen aktualisierten Version des Global Historical Climatology Network (GHCN) – Version 4. Es wird gezeigt, dass es relativ wenige ländliche Stationen mit langen Reihen gibt, aber der Bias durch Urbanisierung lässt die frühe Warmzeit kälter aussehen und die jüngste Warmzeit wärmer. Allerdings neigen gegenwärtige Bemühungen einer Homogenisierung (womit versucht werden soll, nicht dem Klima geschuldete Verzerrungen zu eliminieren) ebenfalls dazu, derartige Auswirkungen mit sich zu bringen. Darum ist unklar, ob eine Reduktion oder eine Zunahme der relativen Wärme einer jeden Periode am besten geeignet ist. Eine Stichprobe von 17 chinesischen Temperatur-Proxy-Aufzeichnungen (12 regionale und 5 nationale Reihen) wird verglichen und spezifisch für die Periode seit dem 19. Jahrhundert gegenübergestellt. Die meisten Proxy-Reihen implizieren eine warme Periode zu Beginn des 20. Jahrhunderts und eine warme derzeitige Periode. Die relative Wärme dieser beiden Perioden differiert jedoch zwischen den Proxies. In einigen Proxies fehlt auch die eine oder die andere Warmperiode.

Die Temperaturen der letzten 100 Jahre waren auch Thema einer neuen Publikation von Folland et al. 2018. Die Autoren gehören dem IPCC-Camp an und räumen zunächst ein, was man in der globalen Temperaturkurve ganz leicht sieht: Es gab Hiatus- und Slowdown-Phasen, in denen die Temperaturen sanken, stagnierten, oder zumindest die Erwärmung abbremste: 1896-1910, 1941-1975, und 1998-2013. Klimamodelle tun sich mit diesen Phasen schwer, denn das CO2 stieg ja stetig an. Wie sollte die Erderwärmung unter diesen Umständen ins Stocken geraten? Folland und Kollegen schauten sich die Modelle unter diesem Gesichtspunkt an und sind davon überzeugt, dass sie trotz einiger kleiner Problemchen ganz super funktionieren und keine weiteren Klimafaktoren hinzugenommen werden müssen. In de 1940er Jahren war es in Wahrheit ein bisschen zu heiß, was die Modelle nicht reproduzieren können. Geschenkt, sagen die Autoren. Treibhausgase wären für nahezu die gesamte Erwärmung der letzte 125 Jahre verantwortlich.

Hier der Abstract:

Gründe für Unregelmäßigkeiten bei den Trends der globalen mittleren Temperatur seit Ende des 19. Jahrhunderts

Die Zeitreihe der monatlichen globalen mittleren Temperatur (GST) seit dem Jahr 1891 wurde erfolgreich rekonstruiert mittels bekannter natürlicher und anthropogener Antriebs-Faktoren einschließlich der internen Klimavariabilität mittels eines multiplen Regressions-Verfahrens. Die Vergleiche wurden durchgeführt mit den Ergebnissen von 40 CMIP5-Modellen der Prophezeiung von GST. Die relativen Beiträge der verschiedenen Antriebsfaktoren zu Änderungen der GST variieren mit der Zeit, aber der größte Teil der Erwärmung seit 1891 konnte dem Gesamteinfluss zunehmender Treibhausgase und anthropogener Aerosole zugeordnet werden. Separate statistisch unabhängige Analysen wurden auch durchgeführt für die drei Perioden einer GST-Verlangsamung (1896–1910, 1941–1975 und 1998–2013 nebst Subperioden); zwei Perioden mit starker Erwärmung (1911-1940 und 1976-1997) wurden ebenfalls analysiert. Eine Reduktion des gesamten Antriebs der solaren Einstrahlung spielte eine signifikante Rolle bei der Abkühlung von 2001 bis 2010. Die einzigen ernsthaften Nicht-Übereinstimmungen zwischen Rekonstruktionen und Beobachtungen traten während des 2. Weltkriegs auf, vor allem 1944 und 1945, wobei gemessene weltweite Ozean-Wassertemperaturen (SSTs) signifikant zum Wärmeren verzerrt sein können. Im Gegensatz dazu waren die Rekonstruktionen der SSTs auf fast der ganzen Welt wärmer als zwischen 1907 und 1910 gemessen. Die allgemein hohe Rekonstruktions-Genauigkeit zeigt, dass bekannte externe und interne Antriebsfaktoren alle wesentlichen Variationen der GST zwischen 1891 und 2015 erklären können, was unser gegenwärtiges Verständnis von deren Unsicherheiten stützt. Es werden also keinerlei bedeutende zusätzliche Faktoren benötigt, um die zwei wesentlichen Erwärmungs- und die drei wesentlichen Verlangsamungs-Perioden während dieser Epoche zu erklären.

Aber ist es nicht seltsam, dass die Autoren die Ozeanzyklen mit keiner Silbe im Abstract erwähnen? Wie unsere Stammleser wissen, laufen die Ozeanzyklen überraschend synchron mit den Schwankungen der globalen Temperaturentwicklung. Stichworte AMO und PDO. Auf phys.org gibt es eine kurze Erläuterung zum Paper. Darin werden die “Schuldigen der drei Hiatus/Slowdown-Phasen genannt, die Folland und Kollegen erkannt haben wollen:

Sie präsentieren dann mögliche Erklärungen für die drei beobachteten wesentlichen Verlangsamungs-Perioden bei der GST-Zunahme. Für die erste Verlangsamungsperiode fanden sie Beweise in den El Niño and La NiñaEreignissen, welche vermutlich die Erwärmung reduzierten, weil sie zu verstärkter Wolkenbildung Anlass gaben. Für die zweite Verlangsamungsperiode machten sie verstärkten Vulkanismus verantwortlich – Rauch und Asche von Vulkanausbrüchen können das Sonnenlicht schwächen. Das Team vermutet, dass die dritte Verlangsamungsperiode,auf die sich viele Skeptiker der globalen Erwärmung stützen, verursacht wurde durch eine Kombination von La Niña-Ereignissen und Vulkanismus.

Die erste Abbremsung soll also durch El Nino/La Nina verursacht worden sein. Immerhin ein Ozeanzyklus. Seltsam aber, dass die PDO nicht genannt wird. Der zweite Slowdown (1941-1975) soll durch Vulkane verursacht worden sein. Haha, einmal laut gelacht. Das war natürlich die PDO, die während dieser Zeit abgestürzt war:

Abb.: Ozeanzyklus PDO und Schwankungen in der globalen Temperaturentwicklung. Quelle: Buch ‘Die kalte Sonne‘.

Und hinter dem dritten Slowdown soll eine Kombination aus El Nino und Vulkanen stecken. Folland und Kollegen tricksen hier, dass sich die Balken biegen. Im Abstract bringen sie zwar die Sonne als Erwärmungsbremser für den kürzlichen Hiatus ins Spiel. Auf phys.org ist davon keine Rede mehr. Und wenn die Sonne bremsen kann, dann könnte sie auch beschleunigen, wofür in den Modellen aber gar kein Platz ist, denn angeblich soll ja nahezu die gesamte Erwärmung der letzten 120 Jahre durch Treibhausgase verursacht worden sein. Unterm Strich kein Durchbruch im Verständnis der natürlichen Klimavariabilität. Stattdessen wird der Vulkan-Joker überstrapaziert. Immer wenn Kühle gebraucht wird, wird einfach Vulkanstaub in die Computer-Klimawelt gestreut. Frei nah Pippi Langstrumpf: Ich mach mir die Welt, widewide wie sie mir gefällt.

Link: http://diekaltesonne.de/immer-wenn-die-klimamodelle-kuhlen-sollen-streuen-wir-einfach-vulkanstaub-hinein/

——————————–

Dieser Beitrag war zuerst auf dem Blog Die Kalte Sonne erschienen. Übersetzung der kursiv gesetzten englischen Passagen von Chris Frey EIKE




Die Deindustrialisierung geht ans Eingemachte

Auf achgut.com wird regelmässig über die Zerstörung der Energiewirtschaft und unserer Landschaft durch das EEG, das vom post-religiösen Mythos des anthropogenen Klimawandels motiviert ist, von der Zerlegung unserer Automobilindustrie, von der Biotechnologiefeindlichkeit der schwarzgrünen Reinheitsfreunde oder von den Digitalisierungs-Verhinderungsinitiativen der EU berichtet. Die Beiträge der Achse-Serie „Deutschland steigt aus“ geben eine gute Übersicht zu diesem Thema, hier am Ende der letzten Folge aufgeführt. Selbst Schüler berichten adäquat über das Phänomen. Es besteht weitgehende Einigkeit darübert, dass Deindustriealisierung allen schadet, aber es ist dennoch gut sich einmal anzuschauen, was sie für unsere Gesellschaft eigentlich genau bedeutet.

Vor fast 50 Jahren erschien das heute nahezu vergessene Buch „Der Staat der Industriegesellschaft“ des Verfassungsrechtlers Ernst Forsthoff, der als Carl Schmitt-Schüler und zu Beginn des „Dritten Reichs“ ein Nazi war („Der Totale Staat“, 1933). Zwar schwor er dem Nationalsozialismus nach dem Krieg gründlich ab, doch blieb er weitgehend eine persona non grata. Forsthoff war einer, der die Probleme der industriellen Massengesellschaft extrem gut verstand – vielleicht gerade, weil er dem Nationalsozialismus, einer politischen Bewegung, die auf die Massengesellschaft und ihre Defizite zugeschnitten war, anfänglich auf den Leim gegangen ist. Modernisiert man seine Erkenntnisse, passen sie immer noch hervorragend auf unsere Situation und helfen uns, zu verstehen, was Deindustriealisierung eigentlich bedeutet.

Anders als der Staat des Absolutismus – im Wesentlichen ein Ordnungsstaat – oder der Staat des 19. Jahrhunderts – ein Ordnungs- und Rechtsstaat – ist der Staat der industriellen Massengesellschaft laut Forsthoff kein Staat im klassischen Sinne mehr. Er war ursprünglich in erster Linie Sozialstaat der Daseinsfürsorge (Arbeitslosen- und Krankenversicherung, Grundsicherung = „Hartz IV“) und Daseinsvorsorge (Rentenversicherung, Unfallversicherung) und ein Staat der Verwaltung einer hochkomplexen Industriegesellschaft. Was heißt das?

Aus Eigeninteresse heraus an Regeln halten

Blicken wir zunächst auf den Zustand unseres Landes bis etwa Mitte der 1990er Jahre, der dem Zustand, den Forsthoff 1971 beschrieb, noch weitgehend gleicht. In dieser sozialstaatlich organisierten, kulturell homogenen Industriegesellschaft mit hochkomplexen Teilsystemen, Technologien und Vollbeschäftigung funktioniert das friedliche Zusammenleben der Menschen durch viele nichtstaatliche Faktoren. (Industriegesellschaft meint nicht nur die industrielle Produktion, sondern auch komplexe Dienstleistungen wie etwa Versicherungspolicen, Bankkredite, Energiegewinnung und -verteilung, Softwarebereitstellung oder Verkehrsplanung.)

Der Wohlstand und die disziplinierende Wirkung des „stahlharten Gehäuses“ eines arbeitsteiligen Erwerbs des Lebensunterhalts führen dazu, dass sich die meisten Menschen aus innerstem Eigeninteresse heraus an Regeln halten. Denn sie merken, dass Wohlverhalten und Disziplin ihnen ein sicheres und auskömmliches Leben ermöglichen. Staatliche Sozialleistungen und Daseinsvorsorge für Alter und Berufsunfähigkeit sichern diese Situation ab, der Bürger findet den Staat vor allem wegen dieser Absicherungsfunktion attraktiv.

Außerdem ermöglichen staatliche Institutionen und Infrastruktur (die der Staat nicht unbedingt bereitstellen, aber notwendigerweise regulieren muss) überhaupt erst das Siedlungsmuster der Industriegesellschaft mit hochverdichtetem Wohnen und intensivem Personen-, Güter- und Energietransport. Des weiteren ist der Staat in Folge der Technologieentwicklung gefordert, Technologienutzung gesetzgeberisch zu begleiten und entsprechende hochspezialisierte Institutionen zu schaffen wie etwa Atomaufsichtsbehörden. Gleichzeitig nimmt die Notwendigkeit ordnungsstaatlichen Handelns ab, mehr noch die Bereitschaft, ordnungsstaatliche Ziele zu definieren und durchzusetzen.

Es besteht auch ein Konflikt zwischen Rechtsstaat und Sozialstaat, da der Sozialstaat Freiheiten einschränkt, die der Rechtsstaat garantiert. In Deutschland ist seit Jahrzehnten die autonome richterliche Rechtsprechung eingesetzt worden, um diesen Konflikt zu Lasten der bürgerlichen Freiheiten aufzulösen. Dabei wird die „entpolitisierende Wirkung der sozialstaatlichen Strukturelemente“ (Forsthoff, S. 146) offenbar, denn nicht nur erfolgt eine Verlagerung von der politischen auf die judikative Ebene, sondern die Parteien organisieren sich hinsichtlich ihrer sozialpolitischen Zielsetzungen nahezu einheitlich (das trifft heute sogar für die AfD zu, die ja in vielen Politikfeldern stark von den Altparteien abweicht).

Die klassischen Funktionen Ordnungs- und Rechtsstaatlichkeit treten also gegenüber dem planenden, organisierenden und betreuenden Staat zurück. Das Rückgrat, die conditio sine qua non dieses Staats, ist die Industriegesellschaft, die nicht nur den Wohlstand erzeugt, mit dessen Hilfe der Staat seine umfassenden Funktionen wahrnehmen kann, sondern dem Staat auch durch die disziplinierende Wirkung des Arbeitslebens viel ordnungsstaatliche Last abnimmt. Industriegesellschaft und moderner Staat sind auf einander zwingend angewiesen.

Donald Trump hat es verstanden

Doch heute haben sich so viele Parameter verändert, dass die Symbiose von Industriegesellschaft und Staat auseinanderzubrechen droht. In welcherlei Hinsicht? Beginnen wir mit der Ausgangsfrage: Was ist die Bedeutung der Deindustriealisierung? Die Deindustriealisierung vollzieht sich wie ein langsam wachsendes Krebsgeschwür, das man lange nicht spürt, bevor es schließlich das Überleben des Organismus bedroht. Wesentliche Schritte der Verfeinerung der Industriegesellschaft und der Steigerung der Wertschöpfung, wie etwa der Einsatz von genetischer Rekombinationstechnologie (Gentechnik) oder der sogenannten „Künstlichen Intelligenz“ (einer verbesserten Form der Automatisierung von Arbeit, die nichts mit echter Willensbildung zu tun hat), werden durch Regulierung und Rechtsprechung verhindert – mit anderen Worten, wir verhindern die Modernisierung unserer Industriegesellschaft und unterbinden neue Quellen der Wertschöpfung.

Zusätzlich dazu werden etablierte, äußerst wirkungsvolle und effiziente Technologien wie die Energiegewinnung mit Hilfe von Kernspaltung oder die Mobilität mit Verbrennungsmotor, in die Millionen Mannjahre der Optimierung gesteckt wurden, bekämpft, so dass sie aufgegeben oder zurückgedrängt werden. Dabei werden diese gigantischen Investitionen implizit abgeschrieben, somit fallen Quellen stetiger Wohlstandsgewinnung einfach weg – bildlich gesprochen, töten wir die milchgebenden Kühe (und in der Tat, Gipfel des Wahns, halten fanatische Öko-Ideologen neuerdings Kuhmilch, die Menschen seit Jahrzehntausenden segensreich nutzen, für Gift).

Gleichzeitig wird ein globales Handelssystem propagiert, das zwar der Finanzwirtschaft nützt, weil es ständig teure Transaktionen generiert und margenstarke Derivate ermöglicht, jedoch zu einer Abwanderung riesiger Bereiche der Realwirtschaft führt – in Länder, die selbst protektionistisch agieren und aus westlichen Unternehmen eine Technologieentnahme anstreben wie China.

Das hochkomplexe Wirtschaftssystem, das wir haben, kompensiert diese partiellen Ausdünnungen und Schließungen von Teilbereichen eine ganze Weile lang: wie ein Organismus, der eine Krankheit durch erhöhte Leistung nicht-befallener Organe kompensiert. Doch irgendwann sind die Kompensationsmöglichkeiten erschöpft und die Krankheit bricht offen aus, der Organismus ist akut bedroht.

So wird es auch der Industriegesellschaft ergehen, wenn wir sie weiter selbst zerstören und nicht – wie der geniale Rabauke Donald Trump, der das verstanden hat – versuchen, diesen Wahnsinn zu stoppen. Irgendwann stagniert oder sinkt sonst der Output. Damit greifen wir den innersten Kern unseres Staatswesens an, das essenziell von der funktionierenden Industriegesellschaft abhängig ist. Denn wenn der Wohlstand fehlt, den wir brauchen, um den Sozialstaat zu betreiben, zerfällt der innere Frieden.

Deindustrialisierung und scheiternder Sozialstaat

Die Deindustrialisierung mit ihren auf die Dauer desaströsen Folgen für die Wirtschaft trifft zu allem Übel nämlich auf einen Sozialstaat, der schon seit mehr als vier Jahrzehnten mit florierender Industriegesellschaft – und das konnte Forsthoff noch nicht sehen – mehr ausgibt, als er einnimmt: wie in Griechenland, nur nicht so drastisch. Der die Sozialsysteme, die sich selbst tragen sollten, aus Steuern bezahlt (Steuerzuschuss zur Rentenkasse pro Jahr fast 100 Milliarden), Beamte und Angestellte beschäftigt, deren Pensionen und Renten er nicht zahlen kann, und seit 2015 zusätzlich zu den – teilweise selbst geschaffenen – deutschen Grundsicherungsempfängern (etwa 4 Millionen) noch eine unbekannte, aber hohe Zahl (1 bis 2 Millionen) von eingewanderten Sozialleistungsempfängern alimentieren, kranken- und sogar altersversichern muss.

Bricht der Euro zusammen, und dem Staat werden Billionen neuer Schulden aufgebürdet, wird der Staat bankrott gehen und weder seine Zahlungsversprechen an seine direkten (Halter von Anleihen) und indirekten (Rentenempfänger) Gläubiger einhalten noch die Sozialleistungen weiterhin aus Steuermitteln finanzieren können. Gleichzeitig wird der Bedarf sich drastisch erhöhen, weil Arbeitslosigkeit und Altersarmut massiv zunehmen werden. Insbesondere die flächendeckende Alimentierung der Migranten, für die lebenslang kaum Aussicht auf einen produktiven Beitrag zum Wirtschaftsoutput besteht, wird unmöglich werden.

Die Folgen der Deindustrialisierung und des scheiternden Sozialstaats verstärken sich nicht linear, da sie miteinander interagieren, sondern sie schaukeln sich gegenseitig auf. Wir sehen also in der Tendenz exponentiellen Folgen der Deindustriealisierung und der Selbstzerstörung des Sozialstaats entgegen. Doch warum zerstören wir die Industriegesellschaft, und was bedeutet das für den Ordnungsstaat?

Selbstzerstörerischen Altruismus zum einzigen Wert erklärt

Was einmal vor dem Hintergrund von offener Umweltverschmutzung und Industriekatastrophen wie Seveso,Bhopal oder Tschernobyl als berechtigtes Anliegen der Technologieplanung und -regulierung begann, hat sich im Rahmen des globalistischen Humanitarimus als Religionsersatz verselbständigt und zerstört nun ohne positive Wirkung auf Gesundheit oder Umwelt unsere Lebensgrundlage.

Stolz jubelnd sägen wir die industriellen Äste, auf denen wir sitzen, einfach ab. Bei biologischen Technologien hat es noch keine Katastrophen des oben genannten Ausmaßes gegeben, und mit modernem Genome Editing, das im Wesentlichen wie eine beschleunigte traditionelle Mutagenesezüchtung wirkt, wird das auch immer unwahrscheinlicher. Doch auch sie trifft der Eifer der Glaubensgemeinde. Bei der Digitalisierung und der Automatisierung ist die Ursache hingegen die absurde Verabsolutierung von Grundrechten auf Kosten der Quelle der Menschenwürde, der individuellen Freiheit (DS-GVO).

Ein weiterer Aspekt: Wenn immer weniger Menschen im disziplinierenden Rad der Wertschöpfung laufen und wir immer mehr Zuwanderer bekommen, die in das Rad gar nicht erst einsteigen können, weil sie nicht dazu qualifiziert sind, entsteht wieder Bedarf am Ordnungsstaat. Das sieht man beispielsweise bei der Migrantenkriminalität schon jetzt. Doch sind wir zu einer Renaissance des Ordnungsstaats noch fähig?  Schaffen wir es uns wieder wirksam wehren zu können, nach außen im Verteidigungsfall und im Notstandsfall auch nach innen? Kann bei

Staatsanwälten und Richtern das Ethos restauriert werden, das wir brauchen, um wieder Recht und Ordnung durchzusetzen?

Niemand kann das wissen. Wir leben in einer  Zeit, in der wir eine Kultur hervorgebracht haben, die einen selbstzerstörerischen Altruismus zum einzigen Wert gesetzt zu haben scheint. Doch der innerste Antrieb des Menschen ist sein Überlebenswille. Wird dieser massenhaft tangiert, und merkt die Mehrheit dann, wie schlecht es eigentlich steht, kann das Umdenken sehr schnell erfolgen – man sagt dann „die Stimmung kippt“.

 

Anmerkung der EIKE-Redaktion

Zu dem Artikel ist wenig hinzuzufügen, außer dass die politisch Verantwortlichen die Entwicklung nicht zur Kenntnis nehmen (die links-grünen Ideologen in den Parlamenten wüschen diese Entwicklung schließlich). Eine, gemessen an der Gesamtbevölkerung, relativ kleine Gruppe von links-grünen Verrückten hat unser Land im Würgegriff, weil sie  von der Mehrheit aller Medien getragen werden, vorne weg von ZDF und ARD.

Ehemals konservative bürgerliche Parteien wie die CDU und CSU beugen sich dem Wahnsinn und unterstützen finanziell gemeinsam mit der FDP Stiftungen, welche der vom Verfassungschutz beobachteten Antifa (die neue Sturmabteilung SA) die Reisekosten erstattet, wenn Antifa-Mitglieder daran gehen Autos anzuzünden, ihre Gegner tätlich angreifen und dabei keine Rücksicht auf deren Leib und Leben nehmen. Von Skandal zu sprechen greift angesichts dieser Zustände in Deutschland viel zu tief. Es lohnt sich im Originalartikel von ACHGUT die Leserkommentare zu lesen, der nachfolgende ein Musterbeispiel:

Jahrzehntelang haben sich die Parteien und die Verbände unseren Staat angeeignet. Sie wirken nicht an der Demokratie mit, sie machen sie zu einer Hure. Dem entsprechend wurden über Jahrzehnte auch die Positionen der Herrschaft nach dem Parteibuch vergeben und die Un-Eliten nach Gesichtspunkten der Anpassungsbereitschaft und Konformität ausgewählt. Übrigens geschah dies in allen Bereichen von Staat und Gesellschaft. Ausbildung, Studium, Wissen, Berufserfahrung, etc. wurden zu drittrangigen Kriterien der Selektion. Auf dieser schon ausgehöhlten Grundlage konnte dann die 68er Generation von Desperados, Mitläufern und Vorteilsnehmern aller Art das Kommando übernehmen und die grün-bunte Gesinnungsherrschaft etablieren. Fortan werden neue Geschlechter eingeführt, Natur, Klima, Tiere und was auch immer gerettet, Fremde zu den neuen Heilsbringern erklärt sowie Bürger, Nation und Staat zu Auslaufmodellen deklariert. Diese Politik entspricht durchaus dem auf Hedonismus beruhenden Massenkonsum und einer zu globalistisch-kapitalistischen Herrschaftsformen neigenden Massendemokratie. Außer Blick bleiben die materiellen, kulturellen und geistigen Voraussetzungen dieses luxuriös ausgerichteten Paradieses auf Erden in Vergangenheit und Gegenwart. Übersehen werden auch die heftigen und sich abzeichnenden Verteilungskämpfe zwischen den Völkern und Kontinenten um Ressourcen. Die grün-bunten Utopien sind in ihrem Selbstvernichtungspotential kein Mittel der Selbstbehauptung, sondern einer großen Preisgabe, die man schon jetzt den Invasoren freiwillig übergibt.

 

 




Zur Feier des Tages: Das Märchen mit den drei Planeten: Gestern war Welt-Misanthropen-Tag

Heute am 2. August sind angeblich die gesamten nachhaltig nutzbaren Ressourcen der Erde für dieses Jahr verbraucht. Das verkünden heute vor dem Brandenburger Tor in Berlin die Organisationen INKOTA, Germanwatch, BUNDjugend, FairBindung, KATE, PowerShift, Naturschutzjugend (NAJU) und GRÜNE JUGEND. 1,6 Erden bräuchte die Weltbevölkerung derzeit, um den weltweiten Bedarf an Rohstoffen, Ackerland, Wasser und Wäldern nachhaltig zu decken. „Würden alle Länder weltweit so wirtschaften wie Deutschland, wären sogar 3,1 Erden notwendig“, sagt Julia Otten von der Umwelt- und Entwicklungsorganisation Germanwatch.

Das sind die gleichen Leute, die uns seit über 40 Jahren erzählen, Rohstoffe wie Nickel, Kupfer oder Erdöl gingen morgen unerbittlich zu Ende – doch die Welt erlebt im Moment beispielsweise mal wieder eine Ölschwemme, verbunden mit einem heftigen Preisverfall. Es ist immer der gleiche Irrtum: Rohstoffe gehen nicht zu Ende, sondern sie werden durch andere Rohstoffe oder neue Ideen ersetzt. Europas Wälder waren schon viel weiter abgeholzt als heute – dann kam die Dampfmaschine und die Kohle, die den Rohstoff Holz ersetzten. Und so weiter und so fort.

Mit Verlaub: Der heutige „Earth Overshoot Day“ ist Quatsch. Und zwar uralter Quatsch. Aber schauen Sie zur Sicherheit mal aus dem Fenster und prüfen, ob die Erde noch da ist oder schon weggefrühstückt. Wenn sie in ein großes schwarzes Loch blicken, dann hab ich nichts gesagt. Wenn die Aussicht die gleiche wie immer ist, dann stimmt etwas mit der Rechnung nicht. Es ist genauer gesagt auch überhaupt keine Rechnung, sondern eine Weltanschauung, die den Mensch nicht als Problemlöser, sondern stets nur als Problemverursacher kennt.

So kursiert in umweltbewegten Kreisen folgender „Öko-Witz“: „Treffen sich zwei Planeten im Weltall. Sagt der eine: ‚Du siehst aber schlecht aus. Fehlt dir was?‘ Sagt der Zweite: ‚Ach mir geht’s gar nicht gut. Ich habe homo sapiens.‘ Tröstet ihn der andere: ‚Mach dir keine Sorgen, das geht schnell vorbei‘.“ Es macht denen, die darüber lachen können, offenbar Spaß, den Menschen zu verachten und ihm das Ende zu wünschen.

Unmenschliches zur Rettung des Planeten
Solche Aussagen haben eine Tradition. Alexander King, einer der Gründer des „Club of Rome“ und Initiator der Studie „Die Grenzen des Wachstums“, meinte einst zum Thema der Malariabekämpfung: „Mein Problem ist, dass es die Überbevölkerung verstärkt.“ Der Biologe Paul R. Ehrlich veröffentlichte 1968 sein berühmtes Buch mit dem Titel „The Population Bomb“ („Die Bevölkerungsbombe“), dessen Geist heute noch weht. Das Titelbild zeigt eine Bombe mit Zündschnur kurz vor der Explosion. Ehrlich beklagte darin die rasante Zunahme der Kinderzahl und sagte voraus, dass die Hälfte der Menschheit verhungern würde.

Ehrlich stellt das Bevölkerungswachstum als eine unmittelbar bevorstehende Katastrophe dar. Er verlangte, die Familienplanung als erfolglose, individualistische Form der Geburtenkontrolle durch eine übergreifende Bevölkerungskontrolle abzulösen. So sollte sich die Zahl der Menschen nach einem kontrollierten Massensterben „die-back“ (!!!) bei etwa zwei Milliarden einpendeln. „Nötigung? Vielleicht, aber zum Wohle der Genötigten“, rechtfertigte Ehrlich seine Vorschläge, schließlich gehe es um das schiere „Überleben“ der Menschheit auf einem begrenzten Globus.

Wer nun glaubt, dass solche totalitären Zukunftsfantasien heutzutage zu einem gesellschaftlichen und medialen Aufschrei führen würden, täuscht sich. Unter einem anderen Etikett feiert Paul R. Ehrlich Auferstehung. Das mag ein Aufsatz verdeutlichen, den die Wissenschaftszeitschrift „Climatic Change“ veröffentlichte. Jedes Baby, so die Forscher, werde Treibhausgase produzieren und damit zum Klimawandel und in der Folge zur Schädigung der Gesellschaft beitragen. Für Industrieländer taxieren sie die Kosten eines kleinen Klima-Schädlings auf 28.200 Dollar, in einem Entwicklungsland auf 4.400 Dollar.

An die Stelle der „Bevölkerungsexplosion“ ist die „Klimakatastrophe“ getreten
Galt es in den Siebzigerjahren des vorigen Jahrhunderts als ausgemacht, dass die Welt so viele Menschen niemals ernähren könne, so wird heute mit der gleichen Überzeugung argumentiert, die große Zahl der Menschen und ihr Ressourcenverbrauch würden das Klima ruinieren und den Planeten unbewohnbar machen.

Zum Glück sind die aufstrebenden asiatischen Länder längst selbstbewusst genug, um sich nicht mehr verrückt machen zu lassen. Statt in Hunger und Depression zu verfallen, entschlossen sich die bitterarmen asiatischen Länder in den Siebzigerjahren, ihr Schicksal selbst in die Hand zu nehmen. Sie legten eine beispiellose Erfolgsgeschichte hin. Indien zählt heute über eine Milliarde Menschen und kann sie auch ernähren, China ebenfalls. Seit den Siebzigerjahren haben diese Länder keine großen Hungersnöte mehr heimgesucht, weil die landwirtschaftliche Produktivität viel schneller wuchs als die Bevölkerung.

Eine große Rolle spielt in diesem Zusammenhang der Bildungshunger der Menschen in Asien (und nicht nur dort). „80 Prozent der Menschen auf der Welt können lesen und schreiben“, sagt der der Stockholmer Mediziner und Professor für internationale Gesundheit, Hans Rosling. “In Europa glauben die Leute laut Umfragen aber, dass 60 Prozent der Menschen Analphabeten sind. “ Vier Milliarden Menschen seien somit sehr viel weiter, als man sich das hierzulande vorstelle: „Viele Europäer haben einfach eine falsche Vorstellung, was im Rest der Welt vor sich geht. Sie sind schlicht ignorant.“ (Schauen Sie unbedingt sein oben eingeblendetes Video dazu an).

Brachialer Anti-Humanismus in Gestalt von Sorge um den Planeten
Seit Jahrhunderten beschäftigt die Wissenschaft sich mit der Frage: Wieviel Menschen kann der Planet Erde ernähren? Und bei der Antwort spielt bis heute der britische Geistliche und Ökonom Thomas Malthus eine große Rolle. Viele umweltbewegte und wohlmeinende Menschen argumentieren in seinem Sinne – ohne Malthus überhaupt zu kennen, geschweige denn, sich mit seinem problematischen Wirken beschäftigt zu haben. Was als fürsorglicher Vorschlag zum Umgang mit dem Planeten daher kommt, entpuppt sich bei näherer Analyse als brachialer Anti-Humanismus.

Zu seiner Zeit im 18. Jahrhundert sah Thomas Malthus sich von Armut und Hunger umgeben. Die Zahl der Slums um die großen Städte wie London und Manchester nahm erschreckend zu, die Angehörigen der Unterschicht stellten bis zu 70 Prozent der Stadtbewohner, über ein Drittel der Engländer waren unterernährt, die Verzweiflung produzierte Hungeraufstände. Malthus suchte nach den Ursachen und formulierte seine Gedanken 1798 in seinem „Essay on the Principle Population“( „Das Bevölkerungsgesetz“).

Seine Kernthese lautete stattdessen, dass Bevölkerungszahl und Nahrungsmittelproduktion sich naturgesetzlich auseinander bewegen. Während sich die Ernte allenfalls linear steigern lasse, vergrößere sich die Bevölkerungszahl exponentiell. Deshalb müssten viele Menschen an Hunger sterben, wenn es nicht gelinge, die Geburtenrate signifikant zu senken. In einem ewigen Wechsel fordere die Natur ihren Tribut, die verarmten und geschwächten Menschen würden durch Hungersnöte und Seuchen dahingerafft, bis sich schließlich ein Zustand einstelle, an dem die Nahrungsmittel für die Überlebenden wieder ausreichten. Doch durch die industrielle Revolution verbesserte sich der Lebensstandard der Unterschichten nachhaltig – Malthus wurde komplett widerlegt. Beim ersten amerikanischen Zensus im Jahre 1790 lag die Zahl der Einwohner gerade mal bei 3,9 Millionen Menschen, heute leben dort 320 Millionen, und der Hunger ist genau wie in England, Frankreich oder Deutschland besiegt.

Deutschland ist siebenmal dichter besiedelt als Afrika
Auch im Weltmaßstab kann keine Rede davon sein, dass das Bevölkerungsgesetz von Thomas Thomas Malthus anwendbar ist. Zur Zeit der Geburt von Malthus lebten auf dem Planeten etwa 750 Millionen Menschen, heute sind es beinahe zehn Mal so viel. Und deren Lebenserwartung hat sich verdoppelt. In der Tat sind noch über 842 Millionen Menschen unterernährt, worunter man allerdings eher einen Mangel an Vitaminen und Mineralstoffen versteht, als ein Defizit an Kalorien. Und auch das liegt nicht an der generellen Verfügbarkeit solcher Nahrung, sondern an ihrer Verteilung.

Die Welt sieht heute folgendermaßen aus: Eine Milliarde Menschen leben in den wohlhabenden Industrieländern. Etwa zwei Milliarden Menschen in Afrika und den ländlichen Regionen Asiens leben in armen Verhältnissen. Die Kluft zwischen arm und reich füllen vier Milliarden Menschen in den Schwellenländern, also die Mehrheit der Weltbevölkerung. 1990 haben knapp 50 Prozent aller Menschen in bitterer Armut gelebt, heute sind es 22 Prozent. Selbst in Afrika ist der Anteil armer Menschen auf etwas weniger als 50 Prozent zurückgegangen.

Das Problem ist jedenfalls nicht die hohe Bevölkerungszahl, weder hinsichtlich der Welternährung noch hinsichtlich der Umweltsituation. Und dies gilt auch für das bis heute in der wirtschaftlichen Entwicklung zurück liegende Afrika. Die Populationsdichte von Afrika entspricht in etwa der USA, Deutschland ist siebenmal dichter besiedelt. Eine Verminderung der Menschenzahl schafft keinen Wohlstand. Doch Wohlstand ist überhaupt erst die Voraussetzung für das Entstehen eines Umweltbewusstseins. Wer um das Überleben kämpft, kann und wird auf die Natur keine Rücksicht nehmen.

„Eine herablassende Geisteshaltung, die für Europa typisch ist“
Menschen entkommen der Armut, sobald sie die Möglichkeiten haben, Wissen zu erwerben und über den Tag hinaus zu wirtschaften. Misanthropen stellen diese Einsicht auf den Kopf, wenn sie den Fortschritt zum Teil des Problems erklären. So wird Technikfeindlichkeit zur Menschenfeindlichkeit. Der bereits erwähnte schwedische Mediziner Hans Rosling vergleicht die Haltung gutmeinender Eliten mit der des Abenteurers aus der Comic-Reihe „Tim und Struppi“. „Der Abenteurer Tim ist für mich das Symbol eines netten Menschen, der im reichen, klugen Teil der Welt lebt, von wo er regelmäßig in als skurril unterentwickelt gezeichnete Länder aufbricht, um dort die Angelegenheiten zu regeln“, meint Rosling. „Tim steht für eine starre, etwas herablassende und Fortschritte ignorierende Geisteshaltung, die für Europa typisch ist.“ Wer sich für soziale Gerechtigkeit einsetzt und möchte, dass arme Menschen eine Chance haben, ihrem Elend zu entkommen, der sollte sich entschieden gegen dieses Malthussche Denken wehren. Es hat der Welt nicht Gutes gebracht, sondern potentielle Probleme in echte Katastrophen verwandelt. Über zwei Jahrhunderte diente es dazu, Ausbeutung, Tyrannei und Völkermorde zu rechtfertigen.

Deshalb ist es wichtig zu erkennen, wenn diese alte Ideologie in neuer ökologischer Verkleidung wieder auflebt. Paul R. Ehrlich mit seiner „Bevölkerungsbombe“ zählten in Sechzigerjahren zu den geistigen Nachfolgern, der „Club of Rome“ mit seinen „Grenzen des Wachstums“ in den Siebzigerjahren. Aktuell wird der alte Wein in neuen Schläuchen beispielsweise von Harald Welzer und seiner Stiftung „Futurzwei“ offeriert. Welzer lehnt mehr Effizienz, mehr ausgeklügelte Technik und mehr Wohlstand ab: „Es geht nicht um Erhöhung von Effizienz, sondern um Reduktion von Effizienz. Ganz schlicht und ergreifend…Solange ich das Kulturmodell beibehalte, nutzen mir die ganzen Innovationen gar nichts, sie tragen zum Beibehalten dieses falschen Prinzips bei.“

Weite Kreise der Wirtschaftselite haben das Widersprechen gegen solche regressiven Sprüche inzwischen verlernt und assimilieren sich lieber – teilweise mit Originalton Malthus: „Die Ressourcen der Erde sind endlich. Doch wir verbrauchen Rohstoffe schneller, als sie nachwachsen oder erneuert werden können“, gibt Kathrin Menges, Personalvorstand und Vorsitzende des „Sustainability Council“ des Chemiekonzerns Henkel, in einem Kommentar im „Handelsblatt“ zum besten, „wir belasten Klima, Luft, Meere und andere natürliche Systeme bis an ihre Grenzen – und darüber hinaus. Gleichzeitig nimmt die Bevölkerung in den Schwellenländern zu.“

Tokio, Seoul oder Singapur haben die ökologische Konversation bereits vollzogen
Der Mensch wird in dieser Denktradition vor allem als Zerstörer und Verbraucher wahrgenommen, nicht aber als kreativer Problemlöser. Das gegenwärtige Standardargument der Malthusianer heißt: „Wenn alle Chinesen oder Inder so leben wollten wie wir, dann bräuchten wir zwei Planeten. “ Wegen ihres Wirtschaftswachstums und des Ressourcenbedarfs würden unsere asiatischen Mitmenschen den Planeten zerstören.

Richtig ist daran: Ja, China und Indien haben gewaltige Umweltprobleme, viele der weltweit schmutzigsten Städte liegen in diesen beiden Ländern. Zwei Drittel der 350 größten Städte Chinas können nicht einmal die lokalen Grenzwerte einhalten. Die Luft ist um den Faktor 10 bis 50 schlechter als an den extremsten Smog-Tagen in Los Angeles. Ähnliches gilt für die Wasserqualität. Nach Schätzungen der Weltbank entstehen durch Umweltkrankheiten Kosten in Höhe von zwei bis drei Prozent des chinesischen Bruttosozialproduktes. In puncto Umweltschutz ist das Land auf dem Stand von Deutschland im Jahr 1950. China macht Ähnliches durch wie Europa und Nordamerika viele Jahrzehnte zuvor.

Eine stürmische Industrialisierung verschlechterte auch hierzulande in ihrer Anfangsphase viele Umwelt-Indikatoren. Soweit die historische Erfahrung Teil eins. Doch es gibt auch einen Teil zwei. Den veranschaulichen Wissenschaftler mit der so genannten „Umwelt-Kuznets-Kurve“. Diese verläuft wie ein auf dem Kopf stehendes U. Nachdem die Umweltverschmutzung zunächst mit wachsendem Wohlstand rapide ansteigt, erreicht sie schließlich ihren Höhepunkt und fällt dann wegen eingeleiteter Umweltschutz-Maßnahmen genauso rapide wieder ab – trotz weiter steigendem Wohlstand. Eine solche Kurve haben alle heutigen Industrienationen durchlaufen. Mit einem Unterschied: Je später ein Land in die Industrialisierung eintritt, desto schneller scheint der Höhepunkt der Verschmutzung überschritten zu sein. Wofür London noch 100 Jahre brauchte, könnte Shanghai in 25 Jahren schaffen. Asiatische Städte wie Tokio, Seoul oder Singapur haben das bereits vorgemacht.

Die Bevölkerung in früher so genannten „Dritten Welt“ übernimmt das Denken zunehmend selbst
Nachdem die Bevölkerung der früher so genannten „Dritten Welt“ das Denken zunehmend selbst übernimmt, haben die Malthusianer eine neue Klientel für ihre Bemühungen entdeckt. Die „künftigen Generationen“ haben Sonntagsreden und Parteiprogramme im Sturm, keine Gruppe erfreut sich so ungeteilter Fürsorge. Es gibt in unserem Land eigentlich nichts mehr, was nicht aus Sorge um sie geschieht. Aus der Atomkraft aussteigen? Selbstverständlich aus Verantwortung für die nachfolgenden Generationen! In die Atomkraft wieder einsteigen? Dito! Egal ob Energiepolitik oder Rentenreform, Studien- oder Müllgebühren – all dies geschieht ausschließlich im Interesse künftiger Menschen. Sämtliche Argumente sind somit als vollkommen selbstlos zu betrachten.

Ursprünglich hatten sich die Ökologiebewegung und die Grünen das Exklusivrecht auf den Begriff gesichert. Genau wie Tiere und Bäume haben auch „künftige Generationen“ den Vorteil, dass sie nicht widersprechen können. Inzwischen haben das auch alle anderen Parteien und Interessengruppen gemerkt, die auf der Suche nach einer pflegeleichten neuen Klientel sind, mit deren Hilfe sie ihre alten Interessen durchsetzen können.

Andererseits ist es richtig, dass auch Menschen in armen Ländern unserer Hilfe bedürfen. Aber selbst dabei verschiebt sich die Aufmerksamkeit weg von den konkreten Problemen der lebenden Menschen hin zu denen künftiger Generationen. Viele Menschen in Afrika und Asien leiden unter unsäglichen hygienischen Verhältnissen, verschmutztem Wasser, verschmutzter Luft oder Malaria. Hierin liegen die häufigsten Todesursachen für Kinder. Ihnen könnte heute geholfen werden. Die Öffentlichkeit hierzulande sorgt sich indes am meisten um die Afrikaner als mögliche Klimaopfer in 100 Jahren. Die simpelste aller Regeln scheint in Vergessenheit zu geraten. Sie heißt: Wer morgen überleben will, muss erst einmal heute überleben.

Beinahe überall, wo es den Menschen besser geht, sinken die Geburtenzahlen
Derzeit kursierende Tipps zur Weltrettung lassen genau dies außer Acht. Keine Fernflüge mehr! Keine billigen Konsumgegenstände aus Asien! Keine exotischen Früchte! Wenn die Reichen von heute darauf zugunsten künftiger Generationen verzichten, so werden die Armen von heute noch ärmer, weil sie uns noch nicht einmal mehr ihre Rohstoffe, landwirtschaftlichen Produkte, Naturschönheiten oder billige Arbeitskraft verkaufen können. Ist es wirklich ein Zeichen höherer Moral, das Elend lebender Generationen in Kauf zu nehmen, um künftige Generationen zu schützen?

Denn beinahe überall, wo es den Menschen besser geht, sinken die Geburtenzahlen. Das katholische Brasilien hat heute beispielsweise eine geringere Geburtenrate als Schweden. „Siehe zu, dass die Babys überleben und zur Schule gehen können“, sagt Hans Rosling. „Räume Frauen gleiche Rechte ein, entwickle Märkte und Institutionen.“ Eine große Entdeckung der Entwicklungspolitik ließe sich so zusammenfassen: “Kümmere dich um die Leute, die Bevölkerung reguliert sich dann selbst.“

Vollends paradox wird es, wenn man sich in Deutschland die Zahl der Geburten anschaut: Aktuell plagt uns wohl eher das Ausbleiben künftiger Generationen, was zu dem Umstand führt, dass man sich um diese weniger Sorgen zu machen braucht, als um die Rentenbezüge der gegenwärtigen Generation. Oder haben wir aus Sorge um künftige Generationen beschlossen, sie nicht mehr in die Welt zu setzen?

Zum Schluss möchte ich den schönsten Anti-Malthus-Song zitieren:

I hear babies cry,

I watch them grow

They’ll learn much more,

Than I’ll ever know

And I think to myself

What a wonderful world

Louis Armstrong

Der Artikel erschien bereits am 8. August 2016 bei ACHGUT. Wir haben ihn nur im Datum angepasst. Der rest blieb unverändert