1

Die Verschlimmbesserung der Stromversorgung

 In der Corona-Krise wird halt bis zur letzten Minute durchregiert. In einem 60-Seitigen Machwerk wird der Abstimmmaschine – ja was eigentlich? – vorgesetzt: Entwurf eines Gesetzes zur zügigen und sicheren Integration steuerbarer Verbrauchseinrichtungen in die Verteilernetze und zur Änderung weiterer energierechtlicher Vorschriften. Der Parlamentarier, der immer noch nicht genug hat, kann noch den ersten Absatz lesen, damit er glaubt er wüßte um was geht und anschließend beruhigt der Empfehlung seines Fraktionsvorsitzenden zur Abstimmung folgen.

Langsam dämmert es auch dem härtesten Energiewender, daß der Zug mit immer höherer Geschwindigkeit dem Abgrund entgegen rast. Plötzlich erkennt man, daß in der schönen, neuen Welt der Elektroautos die elektrische Energie auch noch von den Windmühlen zu den Autobatterien gelangen muß – zum Teufel, daß hätte man nun wirklich auch im Politunterricht erzählt bekommen müssen. Dafür sollen Kabel, Transformatoren und all so’n technisches Zeug nötig sein, damit der Strom aus der Steckdose kommt und die kann man nicht einmal weghüpfen. Man könnte auch sagen, jetzt kommt Klaudia, nachdem Annalena den Strom im Netz gespeichert hat und die Kobolde aus der Batterie vertrieben hat, „digitalisiert“ sie das Netz und macht es so „smart“, daß die „große Transformation“ noch gelingen mag. Betrachtet man diesen Gesetzesentwurf, sieht es allerdings eher danach aus, daß sich die Planwirtschaft wie immer, immer weiter in Details verliert. Es entsteht ein undurchdringliches, widersprüchliches Gestrüpp, in dem sich die Giftschlangen immer öfter in den eigenen Schwanz beißen.

Der notwendige Netzausbau

Langsam, ganz langsam spricht es sich rum: Wenn man alle fossilen Energieträger durch elektrische Energie ersetzen will, muß man alle Tanker, Pipelines, Züge und LKW die Kohle, Öl und Gas verteilt haben, durch Kabel ersetzen. Das ist viel mehr, als die fixe Idee, Windmühlen in die Nordsee zu stellen und damit München usw. (nur) mit Strom zu versorgen. Schon diese relativ kleine Aufgabe des Ausbaues des Hochspannungs-Übertragungsnetzes scheint für das „Land in dem wir (noch) gut und gerne leben“ eine unlösbare Aufgabe zu sein. Wenn wir aber die Elektromobilität – die Betonung liegt hier auf Mobilität – wollen, brauchen wir praktisch vor jedem Haus eine Ladestation. Wer will schon einen Kilometer von und nach einer Ladestation laufen, bevor er fahren kann? Oder ist der Einstieg in die Elektromobilität wirklich nur der Anfang von kein Auto mehr? Wenn wir gleichzeitig auch noch elektrisch heizen müssen (Wärmepumpen etc.), wird das erforderliche Kabel noch dicker. Wohl gemerkt, wir reden hier nicht über drei, vier Hochspannungstrassen in ganz Deutschland, sondern wirklich über jede Straße, die aufgegraben werden muß. Aber unsere Gesetze-Schaffenden glauben für jedes Problem eine Lösung zu besitzen. In diesem Fall heißt der Zauberstab „Digitalisierung“: Man will die Mangelwirtschaft durch Lebensmittelkarten stützen. Was zu wenig ist, wird vielen genommen um es wenigen zu teilen zu können. Im Neusprech: „Energieeffizienz“.

Das Niederspannungsnetz

All unsere Gebäude sind an das Niederspannungsnetz (400V) angeschlossen. Lediglich Großverbraucher (Krankenhäuser, Fabriken usw.) sind direkt mit dem Mittel- oder gar Hochspannungsnetz verbunden. Sie formen mit eigenen Transformatoren die Spannung auf die von ihnen benutzten Spannungsebenen um. Damit nun nicht jedes Haus einen eigenen Trafo braucht, sind die Gebäude wie Perlen auf einer Kette an jeweils ein Kabel des Niederspannungsnetzes angeschlossen. So benötigt man für jeden Ring nur eine Trafo-Station. Es war nun schon immer mit viel Erfahrung verbunden, wie dick das Kabel sein muß. Aus Erfahrung weiß man, daß nie alle in einem Haushalt vorhandenen Elektrogeräte gleichzeitig in Betrieb sind. Es ergibt sich dadurch für jedes Kabel eine „stille Reserve“, die man nun über dieses Gesetz glaubt heben zu können. Der Gedanke ist simpel: Wenn man stets den Verbrauch überwacht, kann man das Kabel bis an seine Grenzen belasten. Nähert man sich der Grenzen, werden einzelne Verbraucher zwangsweise abgeschaltet. Damit nicht einige ganz hinten runter fallen, wird von Zeit zu Zeit gewechselt. Ein Verfahren, das in jedem Entwicklungsland angewendet wird. Man nennt das wechselnde und zeitlich begrenzte Abschalten auch „Brownout“, im Gegensatz zum „Blackout“, dem totalen Ausfall. Nach dem Bekunden der Gesetze-Schaffenden will man damit Zeit gewinnen, bis ein Ausbau erfolgen kann. Will man wirklich nur das oder führt man ganz anderes im Schilde?

Produktion und Verteilung

Auch „Smarte Netze“ ändern nichts an dem Grundproblem des Sozialismus: Was (gütig und gerecht) verteilt werden soll, muß vorher produziert sein. In diesem Gesetzentwurf steht, daß die „Leistungsreduzierung“ nicht mehr als zwei Stunden pro Tag dauern darf. Sie wird euphemistisch als „Spitzenglättung“ verklärt. Ändert dieses Wort irgendetwas an einer tagelangen Dunkelflaute? Natürlich nicht, es ist nur ein Taschenspielertrick. Bei jeder Flaute müssen ausgewählte Verbraucher für die gesamte Dauer abgeschaltet werden, um wenigstens eine eingeschränkte Notversorgung aufrechterhalten zu können. Das ist nun in der Tat „alternativlos“. Die Natur läßt sich durch kein Politbüro täuschen. In dem typischen Volksverdummungsdeutsch unserer Politschranzen wird dies zu: Erst die in dieser Novellierung des §14a Energiewirtschaftsgesetz (EnWG) enthaltene Regelungsarchitektur mit der Verbesserung der Netzzustandsüberwachung in den Niederspannungsnetzen und der Schaffung der notwendigen Marktkommunikationsprozesse sowie der wirtschaftlichen, rechtlichen, technischen und der organisatorischen Voraussetzungen machen netz- und marktorientierte Flexibilitätsansätze möglich. Alles klar, ihr Ingenieure und Elektroinstallateure? Ihr müßt halt nur eure Werkzeugkästen um die „Mao-Bibel“ verstärken, dann klappt das auch mit der Stromversorgung bei euren Kunden.

Die Überwachung

Man kann ja Mangel verwalten. Das ging schon mit Bezugsscheinen in der Kriegswirtschaft. Man hat auch schon früher den Einsatz von Kraftwerken durch Rundsteueranlagen (z. B. Nachtspeicherheizungen, Wärmepumpen) optimiert. Dies wird ausdrücklich im Text mehrfach erwähnt. Wahrscheinlich notwendig, weil schon mal elektrische Nachtspeicher und Wärmepumpen ganz oben auf der rot/grünen Verbotsliste standen. Vielleicht erinnert sich der ein oder andere Genosse noch an diese Kampagnen? Jetzt also die Wende: Plötzlich ist das „Einsparen von Primärenergie“ nicht mehr aktuell, sondern nur noch die gewinnbringende Vernichtung der Überproduktion der (befreundeten) Windmüller und Sonnenbarone.

Wie gesagt, wenn es nur um die Begrenzung von Spitzenlasten gehen würde, reichen Rundsteueranlagen völlig aus. Der Netzbetreiber sendet Signale über die Stromkabel aus, die von den Empfängern in den einschlägigen Anlagen empfangen werden. Jeder Empfänger entscheidet nun, ob ihn die Nachrichten betreffen und was er abschalten bzw. drosseln soll. In diesem Gesetzesentwurf geht es jedoch um die totale Überwachung: Der aktuelle Verbrauch jedes „Smart-Meter“ – umgangssprachlich Stromzähler – soll permanent an den Netzbetreiber übertragen werden. Selbstverständlich nur für Zwecke des Netzbetriebs und streng „datengeschützt“. Wir kennen solche Versprechungen schon von der Einführung der Mobiltelefone. Vielleicht sollte man „Smart-Meter“ zukünftig verständlicher mit „Stasi-Zähler“ übersetzen. Denn es gibt einen qualitativen Unterschied zum „Smart-Phone“: Auf die Nutzung von Mobiltelefonen kann man verzichten oder sie zumindest stark einschränken. Auf einen Strom-Hausanschluss nicht. Der Rückkanal (praktisch Internet) ist zudem ein sicherheitstechnischer Albtraum. Der als Heizungsmonteur oder Elektroinstallateur getarnte Hacker oder Verfassungsschützer kann jederzeit Schad- und Überwachungssoftware einspielen. Wer das für übertrieben hält, sollte sich mal näher mit Stuxnet beschäftigen. Die militärischen Anlagen im Iran waren sicherlich besser gesichert, als die Heizungskeller und Garagen unserer Häuser. Wie gesagt, auf ein Smartphone läßt sich durchaus verzichten, ein Computer vom Netz trennen, aber die gesamte Wohnung vom Stromnetz abhängen?

Leistung und Energie

Die Leistung (kW) steht für die Investitionen – nicht nur ins Netz – und die verbrauchte elektrische Energie (kWh) für die variablen Kosten (Brennstoffe, Verschleiß etc.). Daher war die Aufteilung in bezogene Leistung und verbrauchte Energie in einem Abrechnungszeitraum bei Großabnehmern schon immer üblich. Betriebsintern ergab sich aus den Kosten für die Leistung üblicherweise eine Spitzenlastoptimierung. Aus dem Verbrauch (kWh) und der Spitzenlast (kW) in einem Abrechnungszeitraum konnte durch einfache Division ein Maßstab für die Gleichmäßigkeit gebildet werden. Mit anderen Worten: Verbrauchte der Kunde vornehmlich billige Kernkraft oder Braunkohle oder teuren Spitzenstrom, spürte er das unmittelbar auf seiner Stromrechnung. Insofern nichts neues.

Bei Kleinverbrauchern (Haushalt und Gewerbe) war es günstiger, auf solche Berechnungen zu verzichten. Aus gutem Grund. Durch die große Stückzahl half die Statistik bei der Vorhersage des Verbrauchs. Einzelne Sonderereignisse (z. B. Fußballübertragung) und außergewöhnliche Wetterereignisse (Gewitter etc.) waren ausreichend im Voraus bekannt. Andererseits hat der Kunde kaum eine sinnvolle Einflussmöglichkeit. Der Braten muß zu gegebener Zeit auf den Tisch (Weihnachtsspitze). Kopfgeburten, wie das Wäsche waschen in der Nacht, sind nicht praktikabel und werden sich deshalb nie durchsetzen. Ist das bei Elektromobilen so viel anders? Auch dort wird man Nachladen, wenn das absehbar nötig wird. Die Vorstellung, tags fahren und nachts aufladen ist schlichtweg weltfremd. Sind doch die Reichweiten (besonders im Winter) im Gegensatz zu Verbrennern viel kleiner und die „Tankzeiten“ unvergleichlich größer, um überhaupt eine Wahlmöglichkeit zu bieten. Wird jetzt durch unvorhergesehene Drosselungen die Ladezeit völlig unkalkulierbar, dürfte das ein weiteres Argument gegen den Kauf eines Elektromobils werden.

Kosten

Jede staatlich erzwungene Investition – egal ob auf der Seite des Netzes oder im eigenen Haus – muß letztendlich von uns bezahlt werden. Hinzu kommen noch die laufenden Wartungs- und Betriebskosten. Erinnert sei nur an die gesetzlich vorgeschriebene Heizkostenabrechnung bei Mietern. Kaum einem Mieter ist bekannt, daß die Kosten für die Abrechnung meist mehr als zehn Prozent der eigentlichen Heizkosten betragen. Auch diese Lizenz zum Geldschein drucken für einschlägige „Serviceunternehmen“ wurde vor Jahrzehnten zum Zwecke der Energieeinsparung und „gerechten“ Aufteilung eingeführt. Durch die flächendeckende Einführung moderner Heizsysteme und Regelungen ist die Einsparung kaum noch möglich – es sei denn, um den Preis eines deutlichen Komfortverzichts. Insofern ist das hier abgegebene Versprechen: Die Kosten für die Herstellung der Steuerbarkeit von steuerbaren Verbrauchseinrichtungen werden durch Einsparungen in den Netzentgelten und der verbesserten marktlichen Strombeschaffung mehr als kompensiert. (Seite 23) Noch viel unverschämter als die Aussage von dem Genossen Trittin über die oft zitierte Eiskugel. Es soll hier gar nicht über die erforderlichen Investitionen spekuliert werden, fragen sie einfach den Installateur ihres Vertrauens. Ansonsten wird in dem Entwurf nur so mit Milliarden Einsparungen um sich geschmissen. Wieder ein neues Perpetuum Mobile der Energiewende wird geboren.

Besonders feinsinnig wird die Verteilung der entstehenden Kosten behandelt. Es wird im Gesetzentwurf akribisch zwischen Netzanschluss und Marktlokationen unterschieden: Netzanschluss ist das Kabel von der Straße ins Haus und die wunderbare Neusprechschöpfung Marktlokationen sind die Zähler für die Wohnungen etc. Damit ist auch klar, aus welcher Ecke dieser Entwurf kommt. Es ist charakteristisch für die Grünen, möglichst oft das Wort „Markt“ in den unmöglichsten Kombinationen zu verwenden, um von ihrer Planwirtschaft abzulenken. Besonders praktisch ist es darüberhinaus, wenn ihre „Ideen“ mal wieder völlig schief gehen, vom „Marktversagen“ faseln zu können. Hier geht es eindeutig überhaupt nicht um Marktwirtschaft: Marktwirtschaft war z. B. die Einführung des Smartphone. Ein bunter Bildschirm beim Telefon war den Menschen soviel Geld wert, daß sich Schlangen vor den Geschäften bildeten. Ein Stromzähler, der nur die eigene Überwachung als Zusatznutzen bietet, wäre unverkäuflich. Jetzt sehen wir uns mal ein typischen Wohngebäude an: Den geringsten Aufwand hat der meist kommunale Betreiber des Niederspannungsnetzes mit dem Umbau des Hausanschlusses. Der Hausbesitzer kommt für die notwendigen Baumaßnahmen im Gebäude auf. Anschließend läßt sich wieder trefflich über Mieterhöhungen jammern und den Löwenanteil zahlt wieder einmal der dumme Stromverbraucher. Das Elektroauto wird damit noch unverkäuflicher – trotz gigantischer Zuschüsse der Steuerzahler – als bisher. Deshalb muß nach dem Erfolgsrezept der staatlich gewollten Unterhaltung und des betreuten Denkens (GEZ-Rundfunk) ganz schnell ein Gesetz her, welches über eine weitere Wohnungssteuer den Bürger schröpft. Wehe, wenn Michel eines Tages die Demokratie versteht und alle Mittäter einfach abwählt.

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Anomalien der Meeres­oberflächen-Temperatur

Die meisten SST-Messungen werden von fahrenden Schiffen, Bojen oder Argo-Floats durchgeführt, der Referenzmittelwert wird an einem bestimmten Ort von einer Vielzahl von Instrumenten und in einer Vielzahl von Tiefen ermittelt. Im Fall von HadSST wird die Referenz für 5° mal 5° Breiten- und Längengrad „Gitterzellen“ berechnet. Die Zellen überdecken 308.025 Quadratkilometer am Äquator, ein Quadrat, das auf einer Seite 556 Kilometer lang ist. Der Abstand zwischen den einzelnen Längengraden wird kleiner, je näher wir uns den Polen nähern, aber bei 40° nördlicher oder südlicher Breite sind 5° Längengrad immer noch 425 Kilometer. Diese „Referenzzellen“ sind riesige Gebiete in den mittleren und niedrigen Breiten, aber sie sind klein in der Nähe der Pole.

Erschwerend kommt hinzu, dass die Technologie, die in den Referenzzeiträumen 1961-1990 oder 1971-2000 verwendet wurde, weit weniger genau ist als die heute durchgeführten Messungen. Tatsächlich korrigiert die NOAA die in den frühen 2000er Jahren eingeführten Argo-Float- und Driftbojen um das 6,8-fache im Vergleich zu den Schiffsdaten (Huang, et al., 2017). Das Hadley Centre sagt, dass Argo-Floats ihre Unsicherheit um 30 % reduzieren (Kennedy, Rayner, Atkinson, & Killick, 2019). Während der beiden Referenzperioden stammten fast alle Daten von Schiffen. Das bedeutet, dass die größere Ungenauigkeit der Messungen, relativ zu heute, in den 30-jährigen Referenzzeiträumen signifikant ist. Man könnte annehmen, dass die zusätzliche Unsicherheit zufällig ist, aber das ist wahrscheinlich nicht der Fall.

An Land können alle Messungen während des Referenzzeitraumes von der gleichen Wetterstation stammen. Diese Wetterstation kann sich die ganze Zeit über an genau demselben Ort befunden haben. Es gibt ernsthafte Probleme mit vielen landgestützten Wetterstationen, wie von Fall, Watts und Kollegen dokumentiert (Fall, et al., 2011), aber zumindest sind die Wetterstationen nicht ständig in Bewegung. Landgestützte Stationen sind fest, aber ihre Höhenlagen sind alle unterschiedlich und da die Lufttemperatur eine Funktion der Höhe ist, ist die Erzeugung von Anomalien zur Erkennung von Veränderungen und Trends sehr sinnvoll. Wetterstationen, auf dem Meer und an Land, sind ungleichmäßig verteilt, so dass eine Rasterung der Werte notwendig ist, wenn die Abdeckung nicht ausreicht. In einigen Gebieten, wie z. B. den Conterminous United States (CONUS), gibt es so viele Wetterstationen, dass eine Rasterung unnötig [beim EIKE in deutscher Übersetzung hier] ist und, wenn sie durchgeführt wird, sogar die Genauigkeit des berechneten durchschnittlichen Temperaturtrends verringern kann.

CONUS nimmt eine Fläche von 3,1 Millionen Quadratmeilen ein mit 11.969 Wetterstationen im GHCN (Global Historical Climatology Network). Das sind etwa 260 Quadratmeilen pro Station. Jede Station liefert ungefähr 365 Beobachtungen pro Jahr, in einigen Fällen sogar mindestens 4,4 Millionen Beobachtungen. Dies entspricht etwa 1,4 Beobachtungen pro Quadratmeile. Die Abdeckung ist ausreichend, die Stationen befinden sich an festen Standorten und sind einigermaßen genau. Der Ozean umfasst 139,4 Millionen Quadratmeilen. Im Jahr 2018 hatte HadSST insgesamt 18.470.411 Beobachtungen. Das sind etwa 0,13 Beobachtungen pro Quadratmeile oder 9 % der Abdeckung im Gebiet der kontinentalen USA.

Jede Berechnung einer Durchschnittstemperatur oder eines Temperaturtrends sollte so nah wie möglich an den ursprünglichen Messungen vorgenommen werden. Es sollten nur die erforderlichen Korrekturen und Datenmanipulationen vorgenommen werden. Mehr ist nicht besser. Die Messungen der Meeresoberflächentemperatur sind bereits auf eine Meerestiefe von 20 cm korrigiert. Ihre Referenztiefe ändert sich nicht. Die Quelle und die Qualität der Messungen an jedem Ozeanstandort ändern sich ständig. Die Berechnung der Referenztemperatur erfolgt nicht von einer einzigen Plattform, nicht einmal von einem einzigen Gerätetyp oder in einer einzigen Tiefe, so dass die Referenz sehr fehleranfällig ist und schwere Unstimmigkeiten aufweist. Wer kann schon sagen, dass die Referenztemperatur, die von den Messungen abgezogen wird, genauso genau ist wie die Messung? Es ist allgemein anerkannt, dass Bojen- und Argo-Float-Daten genauer sind als Schiffsdaten und 2018 sind die Bojen- und Float-Daten zahlreicher, das Gegenteil war von 1961-1990 der Fall (Huang, et al., 2017).

Auf den ersten Blick glauben wir, dass die Umwandlung genauer Messungen in ungenaue Anomalien ein unnötiger und verwirrender Schritt ist, der vermieden werden sollte. Als nächstes fassen wir zusammen, wie die Anomalien berechnet werden.

HadSST-Anomalien

Zunächst werden die In-situ-Messungen einer Qualitätsprüfung unterzogen, und die verbleibenden Messungen werden in 1° x 1° Breiten- und Längengrade sowie 5-Tage-Zeitabschnitte unterteilt. Der 5-Tage-Bereich wird als Pentade bezeichnet. Es gibt immer 73 Pentaden in einem Jahr, so dass Schaltjahre eine 6-tägige „Pentade“ haben (Kennedy, Rayner, Atkinson, & Killick, 2019). Die Pentaden werden zu Pseudo-Monaten gruppiert und durch Monatswerte aus teilweise mit Eis bedeckten Zellen ergänzt. Schließlich wird jede Ein-Grad-Pentade in eine Anomalie umgewandelt, indem ihr Mittelwert vom Mittelwert 1961-1990 subtrahiert wird. Die Ein-Grad-Pentad-Anomalien werden als „Superbeobachtungen“ bezeichnet (Rayner, et al., 2006). Schließlich werden die Ein-Grad-Pentaden mit einem gewichteten „korrigierten Mittel“ zu einem monatlichen Fünf-Grad-Gitter kombiniert, welches das grundlegende HadSST-Produkt darstellt. Vor der Berechnung des monatlichen Mittelwertes für die Fünf-Grad-Gitterzelle wird versucht, alle Messungen auf eine Tiefe von 20 cm zu korrigieren.

Während der letzten zwanzig Jahre enthielt die durchschnittliche besiedelte Fünf-Grad-Zelle 761 Beobachtungen, was einer Beobachtung alle 404 Quadratkilometer am Äquator entspricht. Wir halten dies subjektiv für eine gute Abdeckung und betrachten die besiedelten Zellen als solide Werte. Wie wir jedoch in unserem letzten Beitrag gesehen haben, enthält nicht jede Fünf-Grad-Zelle im Weltozean einen Gitterwert oder Beobachtungen. In runden Zahlen ausgedrückt, weisen nur 37 % der Weltozeanzellen im Jahr 2018 monatliche Werte auf, das sind 8.186 monatliche Ozeanzellen von 22.084. Man beachte, dass die polaren Zellen, die den Großteil der Zellen ohne Werte ausmachen, im Vergleich zu den Zellen in den mittleren und unteren Breitengraden flächenmäßig klein sind. Daher ist die Fläche, die von den besiedelten Zellen abgedeckt wird, viel größer als 8.186/22.084 oder 37 % des Ozeans. Ich habe die abgedeckte Fläche nicht berechnet, aber es ist wahrscheinlich mehr als die Hälfte des Weltozeans.

ERSST-Anomalien

Die grundlegenden, bei der Erstellung des ERSST-Datensatzes verwendeten Einheiten sind monatliche Bereiche von 2°x2° Breiten- und Längengraden. Für jedes Feld wird ein Durchschnitt der Jahre 1971 bis 2000 aus qualitätskontrollierten Messungen berechnet. Dieser Mittelwert wird von jeder Messung in diesem Bereich subtrahiert, um eine Anomalie zu erzeugen. Danach werden die verschiedenen Messungen (Schiff, Boje und Argo) angepasst, um den globalen Durchschnittsunterschied in ihren Werten zu berücksichtigen. Die angepassten Werte werden dann zu monatlichen 2°x2°-„Superbeobachtungen“ gemittelt. Bojen- und Argo-Daten werden um das 6,8-fache der Schiffsbeobachtungen gewichtet (Huang, et al., 2017). Seit dem Jahr 2000 dominieren Argo- und Bojendaten den ERSST-Datensatz, sowohl in Qualität als auch in Quantität. Dies ist in Abbildung 1 unseres letzten Beitrags leicht zu erkennen, da die von Argo dominierten mehrjährigen Temperaturschätzungen der Universität Hamburg und des NOAA MIMOC über die ERSST-Linie fallen. Dies wird auch von Huang, et al. bestätigt (Huang, et al., 2017).

Die für ERSST verwendeten 2°x2°-Zellen sind am Äquator 49.324 Quadratkilometer groß. Sobald der ERSST-Gitterprozess abgeschlossen ist und die Interpolationen, Extrapolationen und Ausfüllungen abgeschlossen sind, sind 10.988 Zellen von 11.374 Ozeanzellen gefüllt. Nur 3% sind Null, man vergleiche dies mit den 63% Null-Gitterzellenwerten in HadSST. Die Anzahl der Beobachtungen pro Zelle war in den Datensätzen, die ich von NOAA heruntergeladen habe, nicht verfügbar, aber das ist in ihrem Datensatz weniger wichtig, da sie einen komplizierten Gitteralgorithmus verwenden, um die Zellenwerte zu berechnen.

Die Begründung zur Erzeugung von SST-Anomalien

In den primären HadSST- oder ERSST-Referenzen wird keine Begründung für die Erstellung von SST-Anomalien angeboten, die ich gesehen habe. Sie nehmen es einfach kommentarlos in ihr Verfahren auf. Ein Grund, den wir uns vorstellen können ist, dass Anomalien es einfacher machen, die SSTs mit terrestrischen Aufzeichnungen zu kombinieren. Anomalien werden an Land aufgrund der Höhenunterschiede der Wetterstationen benötigt. Aber das hilft uns nicht bei unserer Aufgabe, die darin besteht, den durchschnittlichen globalen Ozeantemperaturtrend zu bestimmen. Landtemperaturen sind recht variabel, machen aber nur 29 % der Erdoberfläche aus.

In der WUWT-Diskussion zu meinem letzten Beitrag sagte Nick Stokes (sein Blog ist hier):
„Nur ein weiterer in einer endlosen Reihe von Gründen, warum man niemals absolute Temperaturen mitteln sollte. Sie sind zu inhomogen, und sie sind der Art und Weise ausgeliefert, wie auch immer Ihre Stichprobe ausgearbeitet wurde. Man mache das nicht, sondern man nehme zuerst die Anomalien. Sie sind viel homogener, und der ganze Kram mit Masken und fehlenden Gittern spielt keine Rolle. Das ist es, was jeder vernünftige Wissenschaftler tut.

Es stimmt also, dass die Durchschnittstemperatur schlecht definiert ist. Aber wir haben eine ausgezeichnete Vorstellung davon, ob sie sich erwärmt oder abkühlt. Das ergibt sich aus der durchschnittlichen Anomalie.“

Obwohl die Referenzperioden, 1961-1990 für HadSST und 1970-2000 für ERSST mit deutlich schlechteren und weniger konsistenten Daten berechnet wurden, als wir sie heute haben, sollen wir also immer noch Anomalien verwenden, weil sie homogener sind und weil „jeder vernünftige Wissenschaftler es tut“? Macht Homogenität die Anomalien genauer oder weniger genau? Nick sagt, dass Anomalien die Erkennung von Trends ermöglichen, unabhängig davon, wie sich das Gebiet oder die Messungen im Laufe der Zeit verändert haben. Aber die Anomalien mischen Post-Argo-Daten mit Prä-Argo-Daten.

Wie wir im letzten Beitrag gesehen haben, zeigen die Anomalien einen steigenden Temperaturtrend, aber die Messungen, gewichtet mit den Argo- und Driftbojendaten um das 6,8-fache, zeigen einen sinkenden Temperaturtrend. Was sollen wir glauben? Die neueren Messungen sind eindeutig genauer. Huang, et al. nennen die Argo-Daten „einige der besten verfügbaren Daten“. Warum werden diese guten Daten absichtlich herabgestuft, indem minderwertige Referenzmittel von den Messungen subtrahiert werden?

Nick erklärt, dass die Anomalien einen steigenden Temperaturtrend zeigen, weil sich seiner Meinung nach das Klima tatsächlich erwärmt. Er glaubt, dass die gemessenen Temperaturen eine Abkühlung zeigen, weil sich die Abdeckung der kalten Regionen mit der Zeit verbessert und dies einen künstlichen Abkühlungstrend erzeugt. Der Abkühlungstrend ist in Abbildung 1 zu sehen, die eine Darstellung der gemessenen HadSST- und ERSST-Temperaturen über derselben Ozeanregion zeigt. Nur 18% der Weltozeanzellen, im Jahr 2018, sind in Abbildung 1 dargestellt, hauptsächlich in den mittleren Breiten. Die in Abbildung 1 dargestellte Ozeanfläche ist viel größer als 18 %, da die fehlenden nördlichen und südlichsten Zellen kleinere Gebiete abdecken.

Abbildung 1. Die ERSST- und HadSST-Aufzeichnungen über dem gleichen Ozeangebiet. Beide zeigen sinkende Ozeantemperaturen. Die Linien der kleinsten Quadrate dienen nicht dazu, Linearität zu demonstrieren, sondern nur dazu, eine Steigung zu berechnen. Beide Trends liegen bei etwa -3,5 Grad C pro Jahrhundert.

Der Plot unten zeigt fast den gesamten Ozean, unter Verwendung des ERSST-Gitters, das nur 3% Nullzellen hat. Die Zellen sind größtenteils mit interpolierten und extrapolierten Werten gefüllt. Die gemessenen Temperaturen sind stark gewichtet zugunsten der hochwertigsten Argo- und Bojenmessungen.

Abbildung 2. Wenn wir die ERSST-Gittertechnik der NOAA verwenden, sehen wir einen leicht steigenden Trend bei den Oberflächentemperaturen, etwa 1,6 Grad C pro Jahrhundert.

Der ERSST-Trend von 1,6 Grad pro Jahrhundert liegt nahe dem Trend, der in den HadSST- und ERSST-Anomalien zu sehen ist, wie aus Abbildung 3 hervorgeht:

Abbildung 3. Die HadSST- und ERSST-Anomalien wurden auf den gleichen Bezugszeitraum verschoben.

Nick hat also einen Punkt. Abbildung 2 zeigt den ERSST-Trend, der größtenteils aus extrapolierten und interpolierten Daten besteht, aber fast den gesamten Ozean repräsentiert. Er zeigt eine Erwärmung von 1,6°/Jahrhundert. Dies liegt nahe an den 1,7°C/Jahrhundert, die von den HadSST-Anomalien und den ERSST-Anomalien gezeigt werden. Die eigentliche Frage ist, warum die HadSST-Anomalien, die dieselben Daten wie in Abbildung 1 verwenden und dasselbe Ozeangebiet abdecken, zunehmen? ERSST ist konsistent zwischen den Messungen und den Anomalien und HadSST ist es nicht, wie ist das passiert? Nick würde sagen, es ist die kontinuierliche Hinzufügung von polaren Daten, ich bin mir da nicht so sicher. Die Anzahl der besiedelten ERSST-Zellen nimmt nicht viel zu, und sie tendiert auch im HadSST-Gebiet nach unten.

Es ist wahrscheinlicher, dass sich die von HadSST abgedeckte Ozeanfläche abkühlt und der globale Ozean sich leicht erwärmt. Wenn das CO2 die Erwärmung verursacht und global ansteigt, warum nehmen dann die Temperaturen der Ozeane in den mittleren und niedrigen Breiten ab und die Polarregionen erwärmen sich? Siehe den letzten Beitrag, um Karten des Teils der Ozeane zu sehen, der von HadSST abgedeckt wird. Eine der Karten aus diesem Beitrag ist in Abbildung 4 dargestellt. Die weißen Bereiche in Abbildung 4 haben keine Werte im HadSST-Gitter, dies sind die Bereiche, die nicht zu Abbildung 1 beitragen. Das farbige Gebiet in Abbildung 4 zeigt eine abnehmende Ozeantemperatur.

Abbildung 4. Der farbige Bereich enthält Werte, diese Werte sind in Abbildung 1 eingezeichnet. Die weißen Bereiche enthalten keine Werte.

Erkennen wir durch die Verwendung von Anomalien einen zugrunde liegenden globalen Trend? Oder verdecken die Anomalien eine zugrunde liegende Komplexität? Man betrachte die zusätzlichen Informationen, die wir durch die Verwendung der tatsächlichen Temperaturen aufgedeckt haben. Ein Großteil des Ozeans kühlt sich ab. Global gesehen erwärmt sich der Ozean vielleicht um 1,6 bis 1,7 Grad pro Jahrhundert, kaum etwas, worüber man sich Sorgen machen müsste.

Ein weiterer zu berücksichtigender Faktor ist, dass die Anzahl der HadSST-Beobachtungen von 2000 bis 2010 stark gestiegen ist, nach 2010 sind sie einigermaßen stabil. Dies ist in Abbildung 5 zu sehen. Der Temperaturrückgang in Abbildung 1 ist jedoch sehr gleichmäßig.

Abbildung 5. Gesamte HadSST-Messungen nach Jahren

Schlussfolgerungen

In einem Punkt sind sich alle einig: Der Trend der Meeresoberflächentemperatur ist die wichtigste Einzelvariable bei der Messung des Klimawandels. Es sollte richtig und mit den besten Daten gemacht werden. Die Verwendung von minderwertigen Daten aus dem 20. Jahrhundert, um Anomalien zu berechnen, erzeugt einen Trend, der mit dem ERSST-Gitter übereinstimmt, was eine vernünftige Schätzung dessen ist, was global passiert, aber es gibt so viel Interpolation und Extrapolation in der Schätzung, dass wir nicht sicher sein können. Der Teil des Ozeans, für den wir genügend Daten haben, das HadSST-Gebiet, zeigt einen abnehmenden Trend. Das ist etwas, was man bei der Verwendung von Anomalien nicht sieht. Der abnehmende Trend ist auch in den ERSST-Daten über dem gleichen Gebiet zu sehen. Dies deutet darauf hin, dass es sich nicht um die Hinzufügung von neuen polaren Daten im Laufe der Zeit handelt, sondern um einen echten Trend für diesen Teil des Weltozeans.

Wahrscheinlich steigt die SST des gesamten Ozeans leicht an, mit der unauffälligen Rate von etwa 1,6°C/Jahrhundert. Dies zeigt sich in den Anomalien und in der ERSST-Darstellung. Aber dies ignoriert die offensichtliche Komplexität des Trends. In dem Teil des Ozeans mit den besten Daten sinkt die Temperatur. Unterm Strich wissen wir nicht sehr viel darüber, was die Ozeantemperaturen tun und wo es passiert. Da der Trend der Ozeantemperatur die wichtigste Variable bei der Feststellung des Klimawandels ist, wissen wir auch nicht viel über den Klimawandel. Nick hatte Recht, dass Anomalien in der Lage waren, den wahrscheinlichen Trend herauszupicken, vorausgesetzt, dass ERSST korrekt ist, aber durch die Verwendung von Anomalien wurden wichtige Details verschleiert.

Link: https://wattsupwiththat.com/2020/12/20/sea-surface-temperature-anomalies/

Übersetzt von Chris Frey EIKE




Die Anti-Kernkraft-Bewegung von Kernkraft überzeugen

Es ist nun fünfundsiebzig Jahre her, dass die USA den Krieg gegen Japan beendeten, indem sie Atombomben auf Hiroshima und Nagasaki abwarfen (beide Städte florieren). Acht Jahre später lud Präsident Eisenhower in seiner weltberühmten Atoms for Peace“-Rede vor den Vereinten Nationen die Bürger zur Debatte über die Nutzung der Atomwissenschaft und -technologie zur Energiegewinnung ein.

Präsident Kennedy lenkte die Aufmerksamkeit der Nation von der Kernenergie auf das Raumfahrtprogramm, aber beginnend in der Regierung Nixon (und verstärkt nach dem Ölembargo von 1973) bis zum Three-Mile-Island-Zwischenfall im Jahr 1979 genehmigten die USA die meisten der 99 Kernreaktoren in 61 Anlagen, die 2017 noch in Betrieb sind.* Als Präsident Trump sein Amt antrat, veröffentlichte das Aspen Institute einen Bericht des Inhalts: „Die Kernenergie in den USA befindet sich in einer existenziellen Krise. Wenn die gegenwärtigen Herausforderungen nicht angegangen werden, könnte die Zukunft der Kernenergie weit weniger vielversprechend sein und die überlegene nukleare Kompetenz der USA geschmälert werden.“

[*Anmerkung: Präsident Obamas Clean Energy Plan stellte Mittel für die Kernenergie zur Verfügung, einschließlich der Schaffung des Gateway for Accelerated Innovation in Nuclear (GAIN). Und 2012 genehmigte die Nuclear Regulatory Commission (NRC) trotz der Einwände des Vorsitzenden den Bau und Betrieb von zwei neuen Reaktoren im Kernkraftwerk Vogtle in Georgia durch Southern Co., dem ersten in den USA seit 1979].

Der Aspen-Bericht behauptete kühn, dass die USA ein starkes inländisches Atomprogramm brauchen, um ihre außergewöhnliche Kompetenz in Fragen der Sicherheit, der Bedrohungsminderung und der Nichtverbreitung [von Kernwaffen] zu erhalten. Sie umwarben die Umweltschützer mit dem Hinweis, dass die Kernenergie ein notwendiger Bestandteil im Kampf gegen den Klimawandel ist, wenn wir auch eine angemessene Versorgung mit bezahlbarem Strom aufrechterhalten wollen. „Eine Welt ohne Kernkraft“, so die Aspen-Autoren, „würde eine unglaubliche – und wahrscheinlich unrealistische – Menge an erneuerbaren Energien erfordern, um die Klimaziele zu erreichen.“

Die Aspen-Autoren stellten weiter fest, dass die US-Öffentlichkeit die Kernkraft generell unterstützt, aber über den Atommüll besorgt ist. Schlimmer noch, viel zu viele Kernkraftwerke in der Entwicklung haben Budgets gesprengt und sind hinter den Zeitplan zurückgefallen. Angesichts des fehlenden politischen Willens oder einer nationalen Energiekrise zu dieser Zeit setzten die Autoren ihre Hoffnung darauf, dass fortschrittliche Reaktoren, die neue Arten von Kühlmitteln verwenden und die mit anderen Drücken und Temperaturen arbeiten oder kleiner und modularer sind, eine breite Zustimmung finden würden.

Atommüll wird heute als überbewertetes, unwissenschaftliches Thema angesehen. In einer Studie aus dem Jahr 2019 argumentiert der Treuhänder des Aspen-Instituts Bill Budinger dass die Angst vor Atommüll weitgehend unbegründet ist – ein Thema, das „gewaltig übertrieben wurde, als wir versuchten, die Menschen von der Atomkraft abzuschrecken.“ Die Gesamtmenge an Atommüll, die sich in den letzten 60 Jahren in allen US-Kernkraftwerken angesammelt hat, würde in ein zweistöckiges Gebäude passen, das einen Stadtblock einnimmtt. Und Kostenüberschreitungen und Verzögerungen sind größtenteils die Folge von Anti-Atomkraft-Einstellungen, die die Vorschriften-Flut auf die Spitze getrieben haben (und die für neuere Reaktorkonstruktionen unangemessen sind).

Im April 2020 stellte Präsident Trump seine „Strategy to Restore American Nuclear Energy Leadership vor, eine Initiative zur Wiederherstellung des lange verlorenen nuklearen Wettbewerbsvorteils der USA. Der erste in dem Plan skizzierte Schritt ist die Wiederbelebung und Stärkung der US-Uranbergbauindustrie, die Unterstützung von Uranumwandlung, die Beendigung der Abhängigkeit von ausländischer Urananreicherung und der Erhalt der aktuellen Flotte von Flugzeugträgern und U-Booten mit Atomantrieb.

Unter den vielen Zielen des Trump-Plans war die Schaffung einer Uranreserve, die Straffung der Vorschriftenflut und des Landzugangs für die Urangewinnung (Abbau von Bürokratie), die Unterstützung des National Reactor Innovation Center und des Versatile Test Reactors, die Demonstration der Verwendung von Small Modular Reactors (SMRs), Mikroreaktoren zur Stromversorgung von Bundeseinrichtungen und die Hinzufügung von Schutzmaßnahmen, um zukünftiges Uran-Dumping auf dem US-Markt zu verhindern. (Die vollständige Liste findet man hier.)

Im November berichtete die Associated Press, dass das Idaho National Laboratory die erste Wahl des Energieministeriums für den Bau und Betrieb des Versatile Test Reactor (VTR) ist. Dieser erste neue Testreaktor, der seit Jahrzehnten in den USA gebaut wird, würde der Nation eine dedizierte „Fast-Neutron-Spectrum“-Testkapazität geben. Energieminister Dan Brouillette erklärte, dass der VTR „weiterhin ein Projekt von hoher Priorität für das DOE ist, um sicherzustellen, dass die Kernenergie eine Rolle im Energieportfolio unseres Landes spielt.“

In der Zwischenzeit berichtete Llewellyn King im Oktober in Forbes, dass es eine aktive Gemeinschaft von Unternehmern gibt, die Reaktoren verschiedener Bauarten (einschließlich modularer Salzschmelz-Reaktoren SMRs) vorantreiben und dabei zum Teil Startkapital für SMRs nutzen, das durch das GAIN-Programm der Obama-Ära bereitgestellt wurde. Die Zunahme privater Investitionen in die Nukleartechnologie und -entwicklung ist ein starkes Zeichen dafür, dass die Kernenergie das durch die Medien verursachte Stigma von Three Mile Island, Tschernobyl und Fukushima endlich überwunden haben könnte.*

(*Anmerkung: Wie der indische Forscher Vijay Raj Jayaraj kürzlich berichtete [in deutscher Übersetzung beim EIKE hier], geschah der Unfall von Tschernobyl zum Teil aufgrund von vorsätzlicher Fahrlässigkeit bzgl. eines fehlerhaften Reaktors. Der Umweltschützer Michael Shellenberger wies kürzlich darauf hin, dass „die Strahlung von Tschernobyl höchstens 200 Menschen töten wird, während die Strahlung von Fukushima und Three Mile Null Menschen töten wird.“ Außerdem und trotz der Tatsache, dass Hunderttausende von Frauen ihre Babys nach dem Tschernobyl-Vorfall abgetrieben haben, fanden UCLA-Forscher, dass die Kinder, die in der Nähe von Tschernobyl geboren wurden, keine nachweisbaren Anomalien während ihrer Geburt aufwiesen.“)

Und gerade in der vergangenen Woche hat das Senate Committee on Environment and Public Works des US-Senats einen überparteilichen Gesetzesentwurf, den American Nuclear Infrastructure Act (ANIA), verabschiedet, der die Initiative von Präsident Trump zur Einrichtung einer nationalen strategischen Uranreserve in den USA vorantreibt. Der Gesetzesentwurf erhielt starke Unterstützung von Vertretern der Industrie, einschließlich Amir Adnani, CEO der Uranium Energy Corp.

Adnani sagte in einer Erklärung: „Der überparteiliche [American] Nuclear Infrastructure Act ist eine weitreichende Gesetzgebung, die wichtig für die Unterstützung der US-Kernkraftindustrie, die nationale Sicherheit und saubere Energie ist. Die Gesetzgebung wird einen klaren Weg für die Umsetzung der US-Uranreserve vorgeben und eine starke Plattform zur Wiederbelebung der US-Uranindustrie bieten.“

Unter ANIA darf das Energieministerium nur Uran kaufen, das aus Anlagen gewonnen wurde, die von der Nuclear Regulatory Commission oder gleichwertigen Behörden der Vertragsstaaten lizenziert sind. Der Bezug von Uran von Unternehmen, die Russland oder China gehören, von ihnen kontrolliert werden oder deren Gerichtsbarkeit unterliegen, wäre ausgeschlossen.

Nach Ansicht mehrerer Prognostiker wird die voraussichtliche Biden-Administration die von Präsident Obama begonnene und von Präsident Trump vorangetriebene Arbeit zur Wiederbelebung und Priorisierung des US-Atomenergieprogramms fortsetzen oder sogar beschleunigen. Der progressive Analyst James Conca schrieb während des Parteitags der Demokraten, dass der Hauptunterschied zwischen Trumps und Bidens Atompolitik lediglich darin bestehe, dass Bidens Politik Teil einer Klimawandel-Agenda sei, während Trumps Fokus auf den nationalen Sicherheitselementen der Krnenergie liege.

Laut Conca „sagen alle führenden Klimawissenschaftler, dass wir den Klimawandel nicht ohne einen signifikanten Ausbau der Kernkraft angehen können, also ist die Unterstützung der Kernkraft – oder auch nicht – ein klares Signal dafür, wie ernst es einem Kandidaten mit dem Klimawandel ist und wie ernst es ihm mit der Unterstützung der Wissenschaft gegenüber bloßem Aktivismus ist.“ Er betonte weiter: „wenn die Demokraten wollen, dass ein Plan für saubere Energie überhaupt erfolgreich ist, sollte er besser die Kernenergie einschließen.“

Auch Josh Siegel, der im Washington Examiner schrieb, stimmte zu, dass „Bidens Unterstützung für die Kernkraft … einer der seltenen Fälle von energiepolitischer Kontinuität zwischen der neuen und der alten Regierung zu sein verspricht.“ Siegel räumte auch ein, dass die Demokraten, die erkannt haben, dass Wind- und Solarenergie allein nicht ausreichen, um das Stromnetz zu dekarbonisieren, ihren langjährigen Widerstand gegen die Kernkraft größtenteils aufgeben.

Es gibt nur einen Vorbehalt. Sollte Kamala Harris aus irgendeinem Grunde Biden als Oberbefehlshaber ablösen, waren ihre Antworten während des Präsidentschaftswahlkampfes 2020 auf die Frage, ob sie die Kernenergie unterstütze, nicht so zuversichtlich. Mehrfach lautete ihre Antwort: „Ja, vorübergehend, während wir die Investitionen in sauberere erneuerbare Alternativen erhöhen.“
Nicht gerade eine klingende Bestätigung oder Anerkennung der wachsenden überparteilichen Energie-Realität.

Autor: Duggan Flanakin is the Director of Policy Research at the Committee For A Constructive Tomorrow. A former Senior Fellow with the Texas Public Policy Foundation, Mr. Flanakin authored definitive works on the creation of the Texas Commission on Environmental Quality and on environmental education in Texas. A brief history of his multifaceted career appears in his book, „Infinite Galaxies: Poems from the Dugout.“

Link: https://www.cfact.org/2020/12/17/nuking-the-anti-nuke-crowd/

Übersetzt von Chris Frey EIKE

 




Winter – der Erwärmungs­verweigerer?

Über die Januar-Abkühlung in höheren Luftschichten wurde bereits hier berichtet. Diese zeigt sich, wenngleich etwas schwächer, auch im Mittel der drei Wintermonate für ein größeres, etwa Mitteleuropa umfassendes Gebiet anhand der aerologischen Daten, welche der Amerikanische Wetterdienst (NOAA) weltweit bereitstellt:

Abbildung 1: Seit dem Klimasprung von 1987/88 erwärmten sich die bodennahen Luftschichten (grau, oben) noch minimal; aber schon in knapp 1.500 Metern Höhe (entspricht dem 850-hPa-Niveau) zeigt sich ein leichter (nicht signifikanter) Rückgang trotz des enorm milden, letzten Winters. Fast genauso sieht das auch in etwa 5.500 Metern Höhe aus (entspricht dem 500-hPa-Niveau, mittlere Troposphäre). Weil die Temperaturen in 5.500 Metern sehr niedrig sind, wurden ihre Werte durch einfache Addition um 22°C angehoben, damit sie mit den beiden anderen Höhenniveaus anschaulich in einer Grafik dargestellt werden konnten; der reale Trend verändert sich dadurch nicht.

Nun könnten kritische Leser einwenden, diese leichte Höhen-Abkühlung sei doch ohne Belang, da große Teile Mitteleuropas aus Tiefland bestehen. Doch halt – da sind ja noch die Gipfel unserer Mittelgebirge und die Alpen. Und wird in unseren Mainstream-Medien nicht stets unisono behauptet, wegen der immer stärkeren Winter-Erwärmung sei Wintersport bald schon unmöglich? Ein Blick auf die winterliche Temperaturentwicklung in den Bergen, stellvertretend hier Zugspitze und Sankt-Bernhard-Pass, zeigt das Gegenteil:

Abbildung 2: Seit nun schon 33 Jahren wird es im höheren Bergland etwas kälter.

Die fehlende Winter-Erwärmung blieb keinesfalls nur auf Mitteleuropa beschränkt, was folgende Beispiele illustrieren:

Abbildung 3: Totalverweigerer Zentralengland: Während sich der Winter in Deutschland bodennah wenigstens noch minimal erwärmte, verläuft die Trendlinie in Zentralengland völlig eben, trotz stark steigender CO2-Konzentrationen (grün).

Abbildung 4: Die ländliche, in den Appalachen gelegene Station Dale Enterprise erwärmte sich ebenfalls nicht.

Abbildung 5: Sapporo auf Hokkaido, ehemaliger Ausrichter der Olympischen Winterspiele, zeigt eine minimale Winter-Abkühlung.

Abbildung 6: Auch in Östersund/Mittelschweden am Ostabhang des Skandinavischen Gebirges blieben die Wintertemperaturen unverändert.

Den sprichwörtlichen Vogel aber schießt eine Station ab, an der momentan Sommer herrscht – Neumayer in der Antarktis. Im dortigen Südwinter (Juni bis August) ist eine markante, signifikante Abkühlung zu verzeichnen – aber in unserer öffentlich-rechtlichen Medienlandschaft verliert man darüber kein Sterbenswörtchen, obwohl der Winter 2020 mit minus 28,5°C dort der kälteste seit Aufzeichnungsbeginn im Jahre 1985 gewesen ist:

Abbildung 7: Signifikante Winter-Abkühlung an der von Deutschland betriebenen Neumayer-Station in der Antarktis.

Also keine Winter-Erwärmung nicht nur in weiten Teilen West-, Mittel- und Nordeuropas schon seit über drei Jahrzehnten, sondern in höheren Luftschichten gar leichte Abkühlung, und auch andernorts stagnierende oder gar fallende Wintertemperaturen. Man sollte das Ganze nicht überbewerten und deshalb muss auch keine neue Eiszeit ausgerufen werden, aber man fragt sich schon, warum in unseren ideologisch verblendeten, mit Zwangsgebühren finanzierten Medien darüber nicht berichtet wird.




Klimaschau 3 – die Tagesschau von Sebastian Lüning

Keine Vorschau zu sehen? HIER KLICKEN!




Hirnlos in die Zukunft?

Mit der Überschrift: „Ein Scheitern Chinas nutzt dem deutschen Maschinenbau“ faßte die FAZ vom 17. 12.2020 die Kernaussage einer neuen Studie zusammen, die gemeinsam von der Bertelsmann Stiftung und dem Fraunhofer Institut für System- und Innovationsforschung jüngst veröffentlicht wurde. Besonderes Interesse an dieser Studie habe der VDMA (Verband Deutscher Maschinen-und Anlagenbau), weswegen die Überschrift dieser Studie auch folgendermaßen lautet:

Was Chinas Industriepolitik für die deutsche Wirtschaft bedeutet. Szenarien für `Made in China` am Beispiel des deutschen Maschinenbaus.

Die Studie ist hier zu lesen. Ihre Aussage ist so simpel wie peinlich, was aber weder den Autoren, noch Politikern wie Friedrich Merz aufzufallen scheint, der sich die daraus folgende Strategie sogar schon zu eigen machte.

Der von der chinesichen Regierung 2015 vorgestellte Entwicklungsplan ließ von Anfang an keinen Zweifel daran, dass China vor hat, das Land zu einer führenden Industriemacht zu transformieren. Nach anfänglicher Bewunderung ob solch kühner Ziele, dominiert inzwischen längst die Angst in Deutschland, dass ausgerechnet die Filetstücke der deutschen Wirtschaft, darunter insbesondere der Maschinen-und Anlagenbau, dadurch in Gefahr geraten. Woher kommt diese Furcht?

Zunächst zur Aussage der Studie: Wie alle Studien dieser Art, befaßt sich auch diese mit verschiedenen möglichen Entwicklungswegen. Für den ersten Teil der Szenarien lautet die Fragestellung : Sollten Chinas Entwicklungspläne erfolgreich sein, welche Folgen hätte das für die deutsche Wirtschaft? Der zweite Teil dagegen befaßt sich mit einem eventuellen Scheitern dieser Pläne und den entsprechenden Folgen für die deutsche Wirtschaft.

Konzentriert man sich auf die jeweils extremen Varianten, dann hört sich das so an:

I. „In den Szenarien, die von einem vollen Erfolg der Strategie > Made in China 2025 < ausgehen, sei mit einem signifikanten Markteinbruch deutscher Maschinen-und Anlagenbauer bis ins Jahr 2030 zu rechnen ( Exportvolumen 2030: 13 Milliarden Euro gegenüber 18 Milliarden Euro in 2019).“ Hervorhebung im Original.

II. „Nur in den Szenarien, die von einem Scheitern der > Made in China 25 <-Strategie ausgehen, könne der deutsche Maschinen-und Anlagenbau mit einem langfristig starken Wachstum der Exporte nach China rechnen. So wären Entwicklungen möglich, die bis 2030 fast zu einer Verdopplung des Exportvolumens gegenüber dem Vergleichsjahr 2019 führen können ( 34 Milliarden Eurp gegenüber 18 Milliarden Euro in 2019).“ Hervorhebung im Original.

Der Analyse folgend, muß zwangsläufig der Schluß gezogen werden, dass eine erfolgreiche Entwicklung Chinas nicht im Interesse der deutschen Wirtschaft liegen kann, sondern nur ihr Scheitern.

Entsprechend sind die Empfehlungen der Bertelsmann-Stiftung: Europa müsse sich mit den USA zu einer konzertierten Anti-China-Strategie verbinden, in deren Folge man auch das Ziel verfolgen solle, wesentliche Komponenten des Maschinen- und Anlagenbaus mit der Klassifizierung „military use“ zu versehen, um damit die Forschungsaktivitäten Chinas erfolgreich einzudämmen zu können.

„Forschungskooperationen mit China seien also nur unter Vorbehalt möglich“.

Arrogant fordert die Studie eine „globale Abschottung“ Chinas zum Zweck der Eindämmung von Handel und Produktion. Es drängt sich geradezu folgende Frage auf: In welches Fahrwasser läßt sich die deutsche Industrie treiben? Hat das jahrzehntelange Bombardement mit grüner Ideologie uns derart um den Verstand gebracht, dass wir unsere industrielle Zukunft nur dann als gesichert sehen, wenn wir zum Scheitern anderer beitragen? Ist die eigene Bereitschaft zu Forschung und Entwicklung schon derart erlahmt, dass wir uns nur unter der Bedingung eine Zukunft vorstellen können, wenn wir die Forschungstätigkeit anderer erfolgreich ruinieren?

Peinliche Fragen tauchen auf, die darauf hindeuten, dass die eigene Politik dringend einer Analyse und Kehrtwende unterzogen werden muß. Denn es pfeiffen die Spatzen längst von den Dächern, dass die viel gepriesene soziale Marktwirtschaft außer auf dem Papier sowieso nicht mehr existiert und inzwischen einer veritablen, von der EU propagierten Planwirtschaft gewichen ist – stellvertretendes Beispiel ist die deutsche Energiewende.

Vielleicht wäre der VDMA besser beraten, die politischen Vorgaben der EU kritisch unter die Lupe zu nehmen, die unter dem Stichwort EU-Taxonomie im Rahmen des „Green Deal“ gerade eine diktatorische Investitionslenkung in unproduktive grüne Bereiche durchdrückten und uns Schlag um Schlag mit neuen Grenzwerten den wirtschaftlichen Spielraum vorschreiben. Wem diese ungeheuerlichen Ereignisse entgangen sind oder wer sich deren Folgen nicht vorstellen kann, der sei an die programmatischen Aussagen von Prof. Hans-Joachim Schellnhuber (Damals noch Vorsitzender des WBGU) erinnert, an denen bisher nicht gerüttelt wurde. Am 15.3.2017 sagte er zu den deutschen Plänen (im Unterschied zu denen Chinas aus dem Jahr 2015) in einem Interview der Deutschen Welle folgendes:

„…… Es ist ziemlich umwerfend – zum Beispiel bis 2030 müssen wir den Verbrennungsmotor auslaufen lassen. Und wir müssen den Einsatz von Kohle zur Stromerzeugung komplett ausschalten. Bis 2040 müssen wir wahrscheinlich
Beton und Stahl für den Bau durch Holz, Ton und Stein ersetzen….Und tun wir das nicht…. Es wäre das Ende der Welt, wie wir sie kennen, und ich habe alle Beweise….“

„Von was für Beweisen faselt der eigentlich“, denkt sich jeder aufmerksame Zuhörer dieses bodenlosen Unsinns. Es drängt sich beim Anhören zudem gleich die lustige Frage auf: Liegen wir eigentlich mit den Holzhütten im Zeitplan? Die deutsche mittelständische Industrie, die diesem intellektuellen Abstieg bisher so gut wie nichts entgegen setzte, ist gerade dabei, die Zukunft gänzlich zu verspielen.

Die Bertelsmann-Studie und zeigt einen Grad an Dummheit und Selbstzerstörung auf, der vor dem Hintergrund einer einstmals großartigen deutschen Industrietradition nicht mehr zu tolerieren ist. Unzählige Beiträge unserer Industriegeschichte waren vor allem deswegen herausragend, weil sie zur Vermehrung des Wissens und des Wohlstands in vielen Teilen der Welt beigetragen haben. Nicht zuletzt hatte daran der gute Ruf deutscher Industriegüter seinen Anteil.




Quantifizierung des marginalen anthropogenen CO2-Gehaltes in der Atmosphäre – ein seit Jahrzehnten überfälliger Schritt

Die Vernachlässigbarkeit der 4,7 ppm/a wird bei einem Bezug auf den Gesamt-CO2-Gehalt in der Atmosphäre von 410 ppm vollends deutlich.
Maßnahmen zur Absenkung des anthropogenen CO
2-Anteiles sind daher wertlos.
Das Verglühen der Erde durch einen anthropogenen CO
2-Anstieg (Modellrechnungen IPCC) gehört in den Bereich der Fabeln.

1. Einleitung
Seit den 1980er Jahren wird den Menschen durch die vom „Intergovernmental Panel on Climate Change“ (IPCC) der Vereinten Nationen entwickelten Modelle über die tödliche Wirkung des vom Menschen verursachten CO2-Gehaltes in der Atmosphäre auf das Klima bis hin zum Verglühen der Erde bei weiter ansteigenden CO2-Gehalten Angst eingejagt.
Es zeigte sich aber sehr bald, dass die Modelle nicht mit der Realität übereinstimmten.
Dennoch wurden weltweit – insbesondere in Deutschland – Maßnahmen zur Absenkung des anthropogenen CO
2-Ausstosses massiv ergriffen wie der Bau von Windanlagen, Solaranlagen, etc. mit erheblichen Kosten.
Ein Einfluss des CO
2– Gehaltes in der Atmosphäre auf den sog. „Treibhauseffekt“ konnte nie nachgewiesen, zudem der Anteil des anthropogenen CO2-Gehaltes nicht quantifiziert werden.

2. Einfluss der anthropogenen CO22-Einträge in die Atmosphäre auf die CO2-Gehalte
Die Atmosphäre enthält z.Z. etwa 410 ppm CO2 (0,041%). Über das Gewicht der Atmosphäre errechnen sich 3190 Giga Tonnen (Gt) CO2 bzw. 870 Gt C in der Atmosphäre. 1 ppm CO2 entspricht dann bei vollkommener Durchmischung von CO2 in der Atmosphäre (vgl. später) bilanzmäßig 2,12 GtC. (1)
Es wird bisher davon ausgegangen, dass es einen jährlichen CO
2-Kreislauf von etwa 210 GtC gibt, der sich in 2020 wie folgt zusammensetzt (Spalte 1,2):

Entsprechend dieser Aufstellung in Tafel 1 ordnet sich der prozentuale Wert von 4,7% (Spalte 2) für den anthropogenen Anteil gut in die im Schrifttum genannten Werte von 4-5% ein.
Abgesehen von dem messbaren menschlichen Einfluss über die fossile Verbrennung sind die physikalischen, chemischen und biologischen Prozesse, die den CO
2-Kreislauf steuern, jedoch äußerst komplex und nicht messbar und daher nur unsicher zu quantifizieren. Außerdem wird bei dieser Betrachtung der einzelnen Komponenten des CO2-Kreislaufes nur ein Anteil von 210 GtC bei einer gesamten Kohlenstoffmenge von 870 GtC berücksichtigt.
Aus diesen Gründen ist eine Betrachtung des CO
2-Kreislaufes nur unter Einbeziehung ausschließlich messbarer Größen wie die gemessenen CO2-Gehalte der Atmosphäre in ppm sowie das Gewicht der Atmosphäre zwingend erforderlich.
Daher werden in
Tafel 1 in Spalte 3 die einzelnen Kreislaufkomponenten auch auf die Gesamt – Kohlenstoffmenge der Atmosphäre von 870 GtC sowie die gemessenen CO2-Konzentrationen in der Atmosphäre von 410 ppm CO2 bezogen (Spalte 3).
In
Tafel 2 werden nun die verschiedenen Teilnehmer des CO2-Kreislaufes auf den Gesamt – CO2– Gehalt der Atmosphäre nämlich 410 ppm sowie 0,041% CO2 bezogen, um den anthropogenen CO2-Anteil in der Atmosphäre sichtbar machen zu können:

Tafel 2

Die über die fossilen Brennstoffe in die Atmosphäre eingebrachten CO2-Mengen liegen dann in 2020 mit 4,7 ppm/a bzw. 0,00047%/a vernachlässigbar niedrig bei einem Gesamtgehalt von 410 ppm bzw. 0,0410%.

3. Beweis für die kurzzeitige komplette Durchmischung des anthropogenen CO2-Ausstoßes mit der Atmosphäre als Beweis für die Richtigkeit der Einbeziehung der gesamten CO2– Menge der Atmosphäre in die durchgeführten Überlegungen.

Das Maß aller Dinge für die Diskussion der Entwicklung der CO2-Gehalte in der Atmosphäre sind die seit 1958 durchgeführten CO2-Messungen auf dem Vulkan Mauna Loa auf Hawaii, die sog. genannte Keeling-Kurve, sowie die inzwischen u.a. auch in Alaska und Tasmanien durchgeführten Messungen (Bild 1). (2)

Bild 1: CO2-Messungen Alaska, Mauna Loa (Hawaii) und Tasmanien

Die Messungen auf Mauna Loa und Alaska zeigen starke Schwankungen der gemessenen CO2-Gehalte mit einem Maximum jeweils im Mai und einem Minimum im September.
Dabei zeigen die Messstellen in hohen Breiten der nördlichen Hemisphäre in Alaska eine viel größere Amplitude als auf Mauna Loa auf Hawaii. Diese Schwankungen sind auf den Einfluss der Biosphäre (Photosynthese, etc.) zurückzuführen.
Die kurzzeitigen unterschiedlichen jährlichen Schwankungen der CO2-Gehalte und der dennoch gleiche Anstieg der mittleren CO2-Gehalte aller Messstellen weisen auf eine unmittelbare komplette Durchmischung des CO2-Gases mit der Atmosphäre hin.
Im Übrigen wird die Verweilzeit von CO2 in der Atmosphäre allgemein bei etwa 4 Jahren gesehen. (3)
Die NOAA, die für die Messungen verantwortlich zeichnet, schätzt die Zeitverzögerung zwischen CO2-Emissionen und der Messung auf Mauna Loa auf wenige Wochen.

4. Berechnung der zeitlichen Entwicklung des anthropogenen CO2-Anteiles in der Atmosphäre von 1870 bis 2020

Tafel 3 zeigt auszugsweise die weltweite zeitliche Entwicklung des anthropogenen CO2– Ausstoßes von 1870 (vorindustrielle Zeit) bis 2020:

Tafel 3

Lag in 1870 der weltweite CO2-Ausstoß noch bei 1 Gt CO2/a, so stieg der Wert in 2020 auf 37 Gt CO22/a (10,1 GtC/a) an.
Wie bereits erwähnt, führt die in 2020 in die Atmosphäre gelangende anthropogene CO2-Menge von 37 Gt CO2/a zu einem CO2-Anstieg in der Atmosphäre von 4,7 ppm/a (0,000 47%/a) bei einem Gesamt-CO2-Gehalt von 410 ppm (0,0410%).

5. Darstellung des CO2-Zuwachses aus dem anthropogenen CO2-Eintrag von 1870 bis 2020 mit den gemessenen CO2-Gehalten der Atmosphäre

In Bild 2 sind nun die nach (4) und die auf Mauna Loa gemessenen CO2-Gehalte sowie die Temperaturanstiege nach Aussagen von HADCRUT4 von 0,85°C (1969-2020) sowie (1) bis 2020 dargestellt.
Zudem wurden die in
Tafel 3 auf der Basis der anthropogenen CO2-Einträge in die Atmosphäre von 1870 bis 2020 und die daraus errechenbaren CO2-Anstiege in der Atmosphäre dargestellt.

Bild 2: Anteil des anthropogenen CO2-Gehaltes in der Atmosphäre


Der CO2-Anstieg durch die anthropogen eingebrachte CO2-Menge führt – wie in Tafel 2 bereits dargestellt – in 2020 zu einem CO2-Anstieg von nur 4,7 ppm/a und ist gemessen an dem durch die Temperaturerhöhung der Atmosphäre wie der Meere verursachten CO2-Anstieg praktisch vernachlässigbar.
Das bedeutet zusammen gefasst für 2020:
– CO
2-Anstieg durch Temperaturerhöhung: 115 ppm (95,8%)
– CO
2-Anstieg durch anthropogene Maßnahmen: 4,7 ppm (4,2%).
Es verwundert nun auch nicht mehr, dass die durch die Corona-Krise um 17% vermindert eingebrachte CO
2-Emissionen in die Atmosphäre messtechnisch nicht nachgewiesen werden konnten. (1)
Die Maßnahmen zur Absenkung des anthropogenen CO
2-Gehaltes zur Beeinflussung des Klimas sind daher völlig wertlos.
Das gilt für Deutschland umso mehr, da der anthropogene Anteil Deutschlands am weltweiten bei 2% von 4,7 ppm/a oder 0.09 ppm/a bzw. 0,000 009%/a in der Atmosphäre liegt, eine in Deutschland mit mehreren Billionen € belastete CO
2-Spur. (5)
Aus Gründen der Vollständigkeit ist noch darauf hinzuweisen, dass das IPCC von der absurden Vorstellung ausgeht, dass der Abbau der anthropogenen Emissionen in der Atmosphäre Hunderte von Jahren dauert, womit dem „CO
2 anthropogen“ die Fähigkeit abgesprochen wird, sich wie das „CO2 thermisch“ an den chemischen Umsetzungen der Biosphäre wie z.B. der Photosynthese zu beteiligen.
Insgesamt wurden seit der Industrialisierung in 1870 etwa 2 000 Gt CO
2 anthropogen freigesetzt. Das „Pariser Abkommen“ sieht eine Begrenzung des Anstieges der Temperatur von 1,5°C bei einem anthropogenen CO2-Ausstoß von 3 000 Gt CO2, einen Grenzwert von 2°C bei 4 000 Gt CO2.
6. Schlussbetrachtung

Bei dem gegebenen CO2-Anteil in der Atmosphäre von 4,7 ppm/a in 2020 werden vom IPCC Modellrechnungen zum Einfluss von anthropogenem CO2 auf die Temperaturentwicklung bei Verdopplung des Gesamt-CO2-Gehaltes in der Atmosphäre angestellt (ausgehend von 280 ppm CO2 in der vorindustrialisierten Zeit). Das ist meilenweit entfernt von dem weitweiten anthropogen verursachten CO2– Anstieg von 4,7 ppm/a – ein Verglühen der Erde durch anthropogenes CO2 nach den Aussagen des IPCC gehört demnach in den Bereich der Fabeln.
Auf den Aussagen des IPCC zum Verglühen der Erde bei weiter ansteigenden CO
2-Gehalten aufbauend entschied sich Deutschland für eine Energiewende, die ohne Stromspeicher nicht funktionieren kann. Zudem kostet die Energiewende nach Berechnungen einiger Institute etwa 6-7 Billionen €. (5)
Aber weder die vernachlässigbaren weltweiten anthropogenen CO
2-Gehalte von 4,7 ppm/a – geschweige denn die 0,09 ppm/a Deutschlands – noch die Nichtfunktionalität der Energiewende halten Deutschland davon ab, die Atomkraftwerke bis 2022, die Kohlekraftwerke bis 2038 stillzulegen.
Da Einigen dieser Weg nicht mehr gangbar erscheint, wird nun eine neue Sau durch´s Dorf getrieben: Die „Wasserstoff-Strategie“ .
Aber alleine für die Umstellung der Verbrennungsmotoren auf H2-Technologie müsste die Stromleistung von z.Z. etwa 60-80 GW um mindestens 135 GW erhöht werden. (6)
Im „Sektor Verkehr“ wird der Kraftstoff verteuert, im „Sektor Strom“ liegen in 2020 die EEG-Kosten für die alternativen Energien einschließlich der Ausgaben für „Engpassmanagement“, „Offshore-Umlage“ sowie „KWK-Umlage“ bei inzwischen 35 Mrd.€/a – mit dem Ergebnis des Anstieges des Strompreises auf 32 ct./KWh.
Die EEG-Umlage in 2020 liegt bei 6,765 ct./KWh, die zum Jahreswechsel mit 10,8 Mrd.€ auf 6,5 ct./KWh abgesenkt werden soll, 12 Monate später auf 6,0 ct./KWh.
Dabei haben sich die EEG-Kosten in 2020 auf 9,651 ct./KWh erhöht, die dann auf 6,0 ct./KWh heruntergebracht werden sollen.
Das wird dann das finanzielle Ende des begonnenen Kulturkampfes werden, mit Stromausfällen und nicht mehr bezahlbarem Strom – der Weg ins Mittelalter.
Zu diesem Drama gehört auch noch, dass der „Sektor Strom“ nur ein Teil von knapp 40% des deutschen „Primärenergieverbrauches“ ausmacht, der alle „Sektoren“ umfasst.
Die Ökoquote in diesem „Primärenergieverbrauch“ liegt z.Z. bei nur 17% (davon 50% Biomasse, 25% Wind, 10% Solar) („Arbeitsgemeinschaft Energiebilanzen“, letzter Quartalsbericht), ein hoffnungsloser Weg bis 100% in 2050.
Quellen
1. Beppler, E.: „Zur Fragwürdigkeit der Gründe für den angeblichen anthropogenen CO
2-Anstieg in der Atmosphäre und seinen möglichen Einfluss auf das Klima“, EIKE, 18.10 2020
2. Schönfeld, Ch.: „Der globale Kohlenstoff-Haushalt: schöne Zahlen, vorgetäuschtes Vertrauen, aber höchst fragwürdig“, EIKE, 13.06.2020
3. Harde, H.: https://dx.doi.org/10 1016/j. glopacha.2017.02.009
4. Döhler, K.D.: „Sonnenzyklen, globale Temperatur und atmosphärische CO2-Konzentrationen seit Beginn der Industrialisierung“, EIKE, 04.09.2020
5. Beppler, E.: „Der industrielle Niedergang Deutschlands wird nun durch den Beschluss des Bundestages zum Kohleausstieg besiegelt, obwohl die Wirkung von CO
2 auf den sog. „Treibhauseffekt“ marginal ist“, EIKE, 26.03.2020
6. Beppler,E.: „Der Stoff hat das Zeug zu einem Hollywoodstreifen (BWMi, Juni 2020). Die „Nationale Wasserstoff-Strategie“ soll u.a. die Energiewende retten, die Mobilität über Wasserstoff betreiben: eine quantitative Energiebetrachtung zu einer Wasserstoff-Illusion“, EIKE, 30.07.2020




Aus den Augen, aus dem Sinn: Wohin mit nicht recycelbaren Windflügeln in Deutschland?

Nachdem Deutschland in den letzten 20 Jahren mit mehr als 30.000 dieser Dinge zugepflastert wurde, sind viele dieser Umwelt zerstörerischen Dinger am Ende ihrer Lebensdauer Subventionsdauer (??) angelangt und es ist ein [oft erlebtes] „grünes“ Rätsel aufgetreten: Was tun mit all dem giftigen Müll, der zurückbleibt?

Das Hauptanliegen der deutschen Grünen [in allen Parteien] ist nun, was soll mit mehr als 90.000 Windflügeln geschehen? Jedes davon wiegt bis zu 15 Tonnen; vor allem die neuerer Bauart enthalten Karbonfasern, anstatt wie vorher Glasfasern. Keine Flügel können recycelt werden, die Karbonfasern werden als gefährlicher Abfall eingestuft.

No Tricks Zone berichtet über eine weiteres grünes Desaster.

1,35 Millionen Tonnen „Gefahrgut“, Deutschland, es gibt keinen Plan zum Recycling gebrauchter Windturbinenblätter

No Tricks Zone, Pierre Gosselin

Deutschland begann vor rund 20 Jahren mit der Installation von Windkraftanlagen. Jetzt, da ihre Investitionsdauer überschritten ist, werden viele abgerissen, [weil sich der Weiterbetrieb nicht mehr lohnt]. Aber das aufgetretene Problem ist, was passiert mit den übrig gebliebenen kohlenstoff- und glasfaserverstärkten Flügeln, schlimmer noch, was mit den Karbon verstärkten Flügeln?

Ein kürzlich im ZDF veröffentlichter Bericht zeigt, dass derzeit kein Plan für die Flügel mit Karbonfasern und  mit einem Gewicht von jeweils bis zu 15 Tonnen vorliegt.

Es gibt keine Möglichkeit, sie zu recyceln, um sie als Rohmaterial für neue Flügel oder als Füllmaterial im Straßenbau  zu verwenden. Derzeit werden die alten Klingen [mit Glasfasern] zerkleinert und die Späne als Füllmaterial mit Beton vermischt. „Man braucht zu viel Energie und Kraft, um sie zu zerkleinern“, sagt Hans-Dieter Wilcken, Betreiber eines deutschen Recyclingunternehmens.

Das Verbrennen ist ebenfalls keine Option.

Gefährliche Abfälle

Das Problem beim Zerschreddern besteht darin, dass gefährliche Faserpartikel entstehen und die menschliche Gesundheit gefährden, Karbonfasern werden gar ähnlich wie Asbestfasern eingestuft. Gebrauchte Windflügel sind gefährlicher Sondermüll und niemand weiß, wie er damit umgehen soll.

Derzeit sind deutschlandweit rd. 30.000 Windkraftanlagen in Betrieb und viele müssen ab jetzt und bis  in den nächsten 20 Jahren abgebaut werden. Allein dieses Volumen bedeutet über eine Million Tonnen gefährlicher Abfälle (30.000 Turbinen x 3 Schaufeln / Turbine x 15 Tonnen / Schaufel = 1,35 Millionen Tonnen).

Bis 2100, da die Nutzung von Windkraftanlagen eher noch  zunehmen wird, werden künftige Generationen mit Millionen Tonnen nicht recycelbarer gefährlicher Abfälle belastet werden  – und das allein in Deutschland.

Bloomberg: Massiver Sondermüll „für immer“

In den USA dient Casper Wyoming derzeit als Deponie für gebrauchte Flügel. Bloomberg  berichtet:

„Die Flügel der Windkraftanlage werden letztendlich für immer da sein“, sagte Bob Cappadona, Chief Operating Officer der nordamerikanischen Einheit der in Paris ansässigen Veolia Environment SA, die nach besseren Möglichkeiten sucht, mit den massiven Abfällen umzugehen. „Die meisten Deponien gelten als trockenes Grab. Das Letzte, was wir tun wollen ist, noch mehr ökologische Umweltschäden zu hinterlassen.“

Neben dem gefährlichen Abfall von Flügeln  gibt es auch das Problem der massiven stahlverstärkten Fundamente, die einfach nur bis auf einen Meter unter Normalboden abgetragen werden. Auch diese werden für immer Auswirkungen auf Boden, Grundwasser [und Pflanzenwuchs wie Bäume] haben.

Vermächtnis von Zerstörung, atemberaubende Dummheit

Zukünftige Generationen werden sich fragen, wie dumm ihre Vorfahren gewesen sein müssen, sich für eine Energieform zu entscheiden, die die Landschaft zerstört, Ökosysteme über weite Gebiete zerstört, wild lebende Vögel tötet, eine unzuverlässige und teure Energiequelle ist und die Anwohner in der Nähe krank gemacht hat und dann noch Millionen und Abermillionen Tonnen Abfall  hinterlassen hat.

Denken wir für einen Moment mal nicht an den giftigen Abfall aus Photovoltaikpanels, der noch hinzukommt.

No Tricks Zone

https://stopthesethings.com/2020/12/19/out-of-sight-what-to-do-with-germanys-1-35-million-tonnes-of-toxic-wind-turbine-blades/

Übersetzt durch Andreas Demmig




Bahnfahren ist Klimaschutz: Tatsächlich? Die falsche Mär vom Öko-Champion

Tatsächlich kommt der Strom für die Hamburger S-Bahn seit dem 1.1. 2010 aus 11 Wasserkraftwerken mit einer Leistung von zusammen 471 Megawatt.  Die bahneigene Tochter DB-Energie GmbH mit Sitz in Frankfurt unterhält in Reichenhall und Kammerl sogar zwei eigene Wasserkraftwerke. Ansonsten wird der Strom aber von E.ON, RWE und der österreichischen Verbund AG bezogen. Der TÜV-Süd zertifiziert seit 2010, dass es sich tatsächlich nur um Strom aus Wasserkraftwerken handelt.

Was es mit der Zertifizierung so auf sich hat und wo die Haken sind, hatten wir bereit in unseren Redaktionsbeiträgen vom 1.7. 2017 (siehe> hier) und vom 15.08.2020 (siehe > hier) deutlich gemacht. Ferner behauptet die Bahn, dass ihre ICE-Züge sowie der Strom in 15 Bahnhöfen ebenfalls zu 100 % aus Ökostrom stammen. Das stimmt. Allerdings muß man wissen, dass der Fernverkehr die kleinste Sparte im DB-Konzern darstellt und dass die Bahn 5.600 Bahnhöfe unterhält.

Zur ganzen Wahrheit gehört eben auch, dass die Bahn Miteigentümer des AKW  Neckarwestheim 2 ist und zu 55 % ihren Strom aus 4 Kohlekraftwerken und 3 fossilen Gaskraftwerken mit einer Gesamtleistung von 4320 Megawatt bezieht.

Darunter das hochmoderne Uniper-Steinkohlekraftwerk Datteln 4, welches in der Lage ist, ausschließlich Bahnstrom mit einer Frequenz von 16,7 Hz über Umformer und Umrichter mit einer Leistung von 413 Megawatt bereitzustellen. Lediglich 30 Megatt Leistung werden aus einem Windpark in Märkisch-Linden (gelegentlich und bei Windflaute nicht) bereitgestellt.

Wir halten das für vernünftig, weil es keinen Sinn macht, in Zukunft ausschließlich auf Ökostrom setzen zu wollen. Denn dann würde die Bahn wegen des volativen Stroms nur noch gelegentlich fahren oder sie müßte wieder verstärkt Dieselloks einsetzen.

Das normale Wechselstromnetz mit 50 Hz kann Bahnstrom mit 16 2/3 Hz nicht liefern, das etwa 7.700 km lange Bahnstromnetz nutzt Fernleitungstrassen mit 110 kV, an der Oberleitung steht 15kV (+20% – 30%) für den Betrieb der Züge bereit. Wenn man den gesamten Stromverbrauch aller 20.000 Züge der Bahn zusammenzählt, dann kommt man auf einen Verbrauch von rd. 27,5 Terrawattstunden pro Jahr. Das sind mehr als 5 % des Stromverbrauchs für ganz Deutschland. (512 Terrawatt in 2019) Insoweit relativiert sich der Wasserstromanteil für die Hamburger S-Bahn in Höhe von 471 Megawatt pro Jahr ganz schnell.

Hochrechnen kann jeder, auch die Bahn. Quelle: DB- integrierter Bericht, Frankfurt 2019

Und noch ein relativierender Hinweis:

Ein ICE der Baureihe 3 benötigt für die Stromaufnahme rd. 5 Megawatt (Anmerkung der EIKE REdaktion: Vermutlich im Mittel). 1 Megawatt werden für die Rückspeisung benötigt. Bei einer Durchschnittsgeschwindigkeit von 170 km/h und 220 Reisenden (=48 % Auslastung) verbraucht ein ICE der Baureihe 3 10,7 kWh auf 100 Streckenkilometer. 40 % entfallen auf die Überwindung des Luftwiderstandes. Bei 300 km/h sind es bereits 80 % der aufzuwendenden Energie. (Kuhne 2015 s.u.)

Mal abgesehen davon, dass wir CO2 für ein überlebenswichtiges Spurengas halten und dieses wiederum wenig Einfluss auf die Klimaerwärmung hat (jedenfalls konnte bisher wissenschaftlich  nicht nachgewiesen werden, dass der Mensch allein hierfür verantwortlich sein soll) und von daher gesehen Reduzierungsstrategien keinen großen Sinn machen, ist das Öko-Versprechen der staatseigenen Bahn eher propagandistisch zu sehen, da nur 60 % der Strecken bisher elektrifiziert sind.

Das Ökoversprechen gilt auch nicht für den Güter- und Nahverkehr und für die zahlreichen sonstigen Liegenschaften einschließlich der bahneigenen Schenker-Spedition. Einstweilen bleibt die grüne Mär vom Ökostrom der Bahn daher nichts weiter als eine große Show.

Und wenn die Bahn zusammen mit der Bundesregierung bis 2038 es tatsächlich schaffen sollte, alle Bereiche mit 100% Ökostrom zu versorgen, dann werden sich drei brennende Fragen erneut stellen: wie soll die Grundlast ohne Bahnstromkraftwerke  sichergestellt werden ? Und wie wird sich das auf die Pünktlichkeit sowie auf die Tarifpolitik auswirken?  Denn Ökostrom ist dreimal so teuer wie konventioneller Strom. Wir sind gespannt.

Bis dahin: gute Fahrt mit „100% Öko“!

Anmerkung der EIKE-Redaktion

Der Beitrag entstammt der Dezember 2020 Ausgabe der Reviekohle-Energienachrichen. Wir danken der Revierkohle und bekunden unsere volle Unterstützung der deutschen Kohleverbrennung. Da zunehmendes CO2 das Pflanzenwachstum und damit die Welternährungsernten erhöht und da bis heute kein wissenschaftlicher Nachweis einer maßgebenden oder gar gefährlichen globalen Erwärmung vorliegt, halten wir alle direkte CO2-Vermeidung oder gar gesellschaftspolitische Vorhaben bis hin zur „großen Transformation“ oder dem „great reset“ als eine neue Art von gefährlichem Sozialismus.

Nach kommunistischem Sozialismus, National-Sozialismus soll es nun offensichtlich in den Öko-Sozialismus gehen. Die Folgen waren und sind stets die gleichen: Abschaffung von Demokratie, Freiheit und konträrer Diskussion bis hin zu brutaler Diktatur. Alle Bewegungen, ob weltlich oder religiös, die absolute Umwälzung planen, haben noch stets mit Mord, Totschlag und unzähligen Opfern geendet.

 

 

Quellenhinweise:

Hamburger Abendblatt vom 27.11.2020;

S-Bahn 4.de, Fahrgastinformation der DB Energie GmbH vom 28.11.2017;

S-Bahn-Aktuell vom 08.12.2019, Hildesheimer Presse vom 11.10.2019; Energieexperten. org vom 05.02.2012;

Stern vom 12.09. 2019;

Horizont.net vom 25.09.2020;

Kupferinstitut.de vom 09.02. 2020;

Gruen. Deutschebahn.com: Wasserkraft ist unser Zugpferd, (Hauspostille Nr. 16 vom Nov. 2020;

Inside-Bahn.de vom 13.11.2019; Kuhne, Manfred: Energieverbrauch von Bahn und Flugzeug, in: airliners.de vom 22.09. 2015;

Integrierter Bericht, Deutsche Bahn (Hrsg.) Frankfurt 2019;

Welt vom 04.12.2009 und 11.09.2019;

Frankfurter Rundschau vom 2.4.2018; Deutsche Welle vom 27.11.2020;

DB Energie GmbH, wikipedia;

Der Spiegel vom 19.11.2020 sowie RK-Redaktion vom 11.12.2020

 

 




Does Trapping Running Make Running Run Faster?

1. Das von Satelliten gemessene Absorptions-Spektrum von CO2 beweist, dass Wärme „eingeschlossen“ ist.

Wir wissen, dass es ihre primäre Taktik ist, die Sprache der Thermodynamik zu missbrauchen, wie es hier getan wird. Da Wärme ein vorübergehendes Phänomen ist, wenn Energie über die Grenze einer kühleren Oberfläche im Vergleich zur Oberfläche der Energiequelle übertragen wird, hat diese Aussage keine erkennbare Bedeutung. Aus dem 1. Gesetz, dU = H + W, sehen wir, dass Wärme (H) mit Arbeit (W ) identisch ist, da sie zusammen addiert auftreten. Die Arbeit, die die Wärme verrichtet, besteht in der Erhöhung der Bewegung, in der Beschleunigung der thermischen Schwingungen, der kühleren Oberfläche. Die Wärmeübertragung steht in direktem Zusammenhang mit der erhöhten Bewegung auf der mikroskopischen Skala der Moleküle des kühleren Objekts, so wie wir normalerweise an Arbeit denken, wenn wir etwas bewegen.

Was würde also „Arbeit einschränken“ bedeuten? Wenn überhaupt, könnte es möglicherweise bedeuten, die Arbeit zu stoppen, die ausgeführt wird? Das wäre unwirksam, da es sich um das Aufhören von etwas handelt, das stattfindet. Oder bedeutet es, die Bewegung, die die Arbeit gemacht hat, „einzufangen“? Auch das wäre unwirksam, da die Bewegung ja trotzdem ausgeführt wurde.

Aber genau das ist die Absicht der Sophisterei: Begriffe zu kreieren und Konzepte zu implizieren, die keinen Bezug zur Realität und überhaupt keine rationale Bedeutung haben. Es gibt so etwas wie „gefangene Wärme“ nicht und auch keine Möglichkeit zu interpretieren, was es tatsächlich bedeuten würde. Der Wärmestrom ist spontan und flüchtig und stellt die Leistung von Arbeit dar, die auf molekularer Ebene verrichtet wird – es bedeutet nichts zu sagen, dass man dies „einfangen“ kann; es ist so, als würde man sagen, dass wir „Laufen einfangen“ können, oder dass wir „Schwimmen einfangen“ können, oder dass wir „Tippen einfangen“ können. Wärme ist kein Substantiv, sie ist ein Verb, genauso wie Arbeit ein Verb ist. Dies ist der Grund, warum im Ersten Gesetz Wärme und Arbeit gleichgesetzt werden mit einem Delta, d.h. mit einer ÄNDERUNG, der dU, also einer Änderung der inneren Energie.

Wenn man jemals wieder einem begegnet, der von „Wärme einfangen“ spricht (das ist natürlich eine Konstante), dann frage man ihn, wie man „Laufen“ einfängt. Wärme ist eine Aktion von Energie, nicht Energie selbst, und Energie kann diese Aktion nur durchführen, wenn sie genügend Potential hat. Das ist genau wie bei der Arbeit: Energie kann aufgewendet werden, um etwas zu bewegen, aber wenn es keine Bewegung gibt, weil die Energie nicht stark genug ist, dann wird auch keine Arbeit verrichtet. Natürlich versucht man deshalb, alle Energie mit Wärme gleichzusetzen, aber das ist identisch mit der Aussage, dass ein Schuh dasselbe ist wie Laufen. Energie ist ein Substantiv, ein Objekt; Wärme (und Arbeit) ist ein Verb, eine Aktion.

Was das Absorptionsspektrum angeht: Das bedeutet, dass entweder IR-Energie resonant gestreut wurde, da CO2 bereits durch intermolekulare Kollisionen schwingungsaktiviert ist, und/oder dass das CO2 die Energie absorbiert hat und dadurch „erwärmt“ wurde. Im letzteren Fall würde das Absorptionsspektrum bei den CO2-Wellenlängen darauf hinweisen, dass die Wärme tatsächlich übertragen und nicht „eingefangen“ wurde. Es ist natürlich nichts falsch daran, dass die wärmere Oberfläche die kühlere Atmosphäre erwärmt, und dies ist NICHT der Treibhauseffekt, von dem die Alarmisten fortwährend sprechen.

2. Die Zunahme des „effektiven Strahlungs-Nivaus“ durch mehr CO2 führt zu Erwärmung.

3. IR-Kameras wie FLIR belegen den Gegenstrahlungs-Effekt.Diese können zusammengehen, weil sie sich sofort widersprechen.

Wie wir wissen, ist es wiederum ihr Ziel, eine Sprache zu schaffen, die keinen rationalen Sinn hat und die sich ständig selbst widerspricht. Das meiste ihres Ziels scheint nur zu sein, das Denken zu verwirren… was natürlich ein Schritt auf dem Weg zu ihren Zielen ist, Pseudowissenschaft zu implementieren, um sie dann für die politische Kontrolle zu verwenden, usw.

Wird die Erwärmung durch den Treibhauseffekt durch 2 oder 3 verursacht? Welcher davon ist es? Das sind unterschiedliche Mechanismen. Typischerweise wird ihr Treibhauseffekt zuerst über 3 beschrieben. Die Zahl 3 sagt aber nur aus, dass die Atmosphäre eine Temperatur hat. Wir können mit FLIR die Temperatur eines Eiswürfels aus der Ferne messen. Wie ein Eiswürfel ist auch die Atmosphäre lediglich ein passives Objekt, das durch eine vorher durchgeführte Erwärmung irgendwie eine Temperatur erreicht hat. Durch welchen Prozess hat die Atmosphäre ihre Temperatur erhalten? Natürlich: von der Sonne. Aus der Ferne zu erkennen, dass ein Objekt eine Temperatur hat, bedeutet nicht, dass das Objekt in der Lage ist, einem wärmeren Objekt die Leistung von Wärme zu liefern.

Das atmosphärische Gas in Anwesenheit eines Gravitationsfeldes und einer harten Oberfläche am Boden sortiert sich dann selbst so, dass der durchschnittliche thermische Energiezustand irgendwo in den mittleren Regionen zu finden ist: Es ist mathematisch unmöglich, dass der durchschnittliche thermische Zustand der Atmosphäre entweder ganz unten in der Atmosphäre oder ganz oben zu finden ist, *obwohl* der größte Teil der Erwärmung der Atmosphäre am Boden über die Konduktion mit der vom Sonnenlicht erwärmten Oberfläche stattfindet. Aufgrund der Schwerkraft, weil es sich um ein freies Gas handelt, und aufgrund der statistischen Mechanik (Mathematik) muss der durchschnittliche thermische Zustand der Atmosphäre um den Durchschnitt der Atmosphäre herum gefunden werden, d. h. um die mittleren Höhen (der Troposphäre).

Dies geht nun zu 2, indem die einzige Möglichkeit, die Höhe des durchschnittlichen thermischen Zustands der Atmosphäre zu erhöhen, darin bestünde, *mehr Atmosphäre* zu haben. Das ist der Grund, warum Nikolov und Zeller ihre Lösung bestimmt haben, dass die oberflächennahe Lufttemperatur nur eine Funktion der Solarkonstante und der Masse der Atmosphäre ist.

Wie man also sieht, erfinden die Alarmisten eine Sprache und Begriffe, die undefinierbar und unverständlich sind, und die nicht mit den grundlegenden mathematischen Gesetzen übereinstimmen, usw. Mit anderen Worten, sie lügen und sophistizieren einfach, weil sie damit durchkommen, weil nur wenige Menschen auf der Welt die Fähigkeit haben, ihre Aussagen zu analysieren und zu dekonstruieren. Das Wunder ist, dass sie die Unterstützung der Medien sowie einiger Regierungen und die Finanzierung durch NGOs haben, welche beabsichtigen, mit ihrer Sprache der Öffentlichkeit Sand in de Augen zu streuen. Das belegt, dass hier eine ganze und sehr gut durchdachte Kampagne im Spiel ist.

Wenn man schließlich über „Trapping“ sprechen möchte, dann sollten wir über das Einfangen der von einer Oberfläche ausgehenden Wärmestrahlung sprechen. Die Emissions-Fähigkeit einer Oberfläche wird als „Emissionsgrad“ bezeichnet. Der Emissionsgrad ist eine natürliche Eigenschaft einer Oberfläche und kann nicht aus der Ferne verändert werden. Wenn ein Objekt jedoch einen niedrigen Emissionsgrad hat, dann ist seine Fähigkeit, Energie thermisch abzustrahlen, tatsächlich „gefangen“, und das Objekt steigt dadurch in seiner Temperatur bis zu dem Punkt, an dem ihm Energie zugeführt werden muss. Das ganze Prinzip der Treibhausgase ist, dass sie gute Emittenten sein sollen, um Energie abzustrahlen, und dass sie ihre Energie in den Weltraum und auch zurück an die Oberfläche abstrahlen sollen. Nicht-THGs haben jedoch ein schlechtes Emissionsvermögen und strahlen ihre Energie weder in den Weltraum noch zurück an die Oberfläche. Wenn also ein Gas Energie in den Weltraum abstrahlen kann, ein anderes aber nicht, welches Gas erleichtert dann den Energieverlust und welches Gas erleichtert das Einfangen von Energie? Vermeintliche Treibhausgase müssen dazu dienen, zu kühlen, da sie emittieren können, während Nicht-THGs bereits dazu dienen, thermische Energie festzuhalten und einzufangen. Dies ist also nur ein weiteres Beispiel für die logischen und philosophischen und wissenschaftlichen Umkehrungen, die durch die Flat-Earth-Treibhaustheorie entstehen.

Ich nehme an, der korrekte Titel, um ganz im Einklang mit der alarmistischen Pseudowissenschaft zu sein, wäre: „Does trapping running make shoes move faster?“ [Etwa: Macht das Einfangen des Laufens die Schuhe schneller?]

„Laufen einfangen“ ist natürlich „Wärme einfangen“. „Schuhe bewegen sich schneller“ ist natürlich „höhere Temperatur“. Das heißt: „Lässt das Einfangen von Wärme die Temperatur steigen?“

Aber der von mir verwendete Titel ist eingängiger.

„Lässt das Einfangen von Wärme die Temperatur steigen?“ klingt doch völlig plausibel, oder nicht?

Does trapping running make shoes move faster?“ klingt wie Kauderwelsch … was das Vorhergehende natürlich thermodynamisch gesehen auch ist.

Übersetzt von Chris Frey EIKE




Wind und Sonne schicken keine Rechnung – Warum können sich dann mehr als 300.000 Haushalte keinen Strom mehr leisten?

Bei den Strompreisen für die Verbraucher, kämpft Deutschland um die Pole- Position bei Wind- und Sonne, mit gleichermaßen Besessenheit wie Dänemark, Großbritannien und Südaustralien. Momentan hat Deutschland seine Nase vorn vor Dänemark, aber Großbritannien drückt nach, als sie die Zielgerade erreichen. [… keinerlei konventionelle Kraftwerke mehr]

Dass sich 300.000 Haushalte in Deutschland keinen Strom mehr leisten können, ist keine Überraschung. Dass Hunderttausende Menschen in Europas reichster Wirtschaft gezwungen sind, ihre Häuser mit Holz aus Wäldern zu heizen, ist kriminell.

Aber so sieht der unvermeidliche Übergang zu einer wind- und solarbetriebenen Zukunft für diejenigen aus, die gezwungen sind, darunter zu leiden.

[Nicht nur] No Tricks Zone berichtet über die Ergebnisse der von Deutschland selbst verursachten Katastrophe im Bereich der erneuerbaren Energien.

 

Unzuverlässig und teuer: Grüne Energien treiben Deutschlands Strompreise zu den höchsten in Europa!

No Tricks Zone, Pierre Gosselin, 28 November 2020

Warum folgen nur so wenige Länder in Europa Deutschlands Leidenschaft für Ökostrom? Die Antwort könnte in den Strompreisen liegen:

Eurostat_NRG_pc204_europe-power-prices

https://appsso.eurostat.ec.europa.eu/nui/show.do?dataset=nrg_pc_204&lang=en

Eurostat listet diese für das erste Halbjahr 2020 auf. Von allen Ländern sind Deutschland, Dänemark und das Vereinigte Königreich die Windenergieländer, die in Bezug auf die Verbraucherpreise sehr weit vorne liegen.

Wind, Sonne ohne längere Zeiträume
In diesen Ländern ist nicht nur Strom teuer geworden, sondern die Versorgung ist auch sehr unzuverlässig. Deutschlands enorme installierte Sonnen- und Windenergiekapazität von 110 GW produzierte Anfang dieses Monats über einen Zeitraum von fünf Tagen so gut wie nichts und kam der Nachfrage des Landes nicht einmal nahe:

Agora_Strombedarf Deutschland

Oder im tiefsten Winter, wenn Strom stark nachgefragt wird, siehe unten für einen Zeitraum von zwei Wochen:

Agora_Strombedarf Deutschland – Jan-Feb 2020

Charts: Agora Energiewende

Glücklicherweise standen fossile und nukleare Kraftwerke noch zur Verfügung, um den Zusammenbruch des Stromnetzes zu verhindern. Aber es gibt ein Problem: Es ist sehr unwirtschaftlich, diese konventionellen Anlagen nur in Teilzeit zu betreiben. Die zusätzlichen Kosten werden letztendlich vom Verbraucher getragen.

Und aufgrund der hohen Stromtarife werden jedes Jahr Zehntausende deutscher Haushalte wegen unbezahlter Stromrechnungen vom Stromnetz getrennt, lesen Sie  hier und  hier

Die hohen Kosten treffen die Armen und Rentner besonders hart. Die Welt schreibt in 2012(!):

Klaus Müller, Vorsitzender des Verbraucherbüros in Nordrhein-Westfalen, schätzt: „Zehn bis fünfzehn Prozent der Bevölkerung haben Probleme, die ständig steigenden Energiekosten zu finanzieren.“ Jedes Jahr werden 600.000 Haushalte vom Stromnetz getrennt. “

Laut einer Umfrage der Verbraucherschutzgruppe werden 600.000 Haushalte pro Jahr wegen unbezahlter Stromrechnungen vom Stromnetz getrennt. Vor allem der rasche Ausbau der erneuerbaren Energien hat zu einem Anstieg der Strompreise um 10% geführt. “

„Früher war Energiearmut ein Randproblem. In der Zwischenzeit ist es jedoch zu einem alltäglichen Problem geworden “, sagte Müller.

… Die Fraktionsvorsitzende der Grünen, Renate Künast, gibt der Regierung die Schuld an der zunehmenden Energiearmut: „Schwarz-Gelb hat stromintensive Betriebe bei den Netzentgelten massiv entlastet – dieser Einnahmeausfall treibt die Kosten für Verbraucher und Mittelstand in die Höhe.“

https://www.welt.de/print/die_welt/wirtschaft/article106238261/Wenn-Strom-unbezahlbarer-Luxus-ist.html

https://www.augsburger-allgemeine.de/wirtschaft/600-000-Haushalten-wird-jaehrlich-Strom-gesperrt-id19824631.html

https://www.handelsblatt.com/politik/deutschland/verbraucherzentrale-15-prozent-der-deutschen-droht-energiearmut/

No Tricks Zone

 

https://stopthesethings.com/2020/12/17/re-reckoning-germans-suffer-europes-highest-power-prices-300000-families-cant-afford-electricity/

Übersetzt durch Andreas Demmig

Wenn das mit Merkels Energiewende so weitergeht…




Vor elf Jahren sagte Al Gore voraus, dass der Nordpol in fünf Jahren eisfrei sein würde

Gore machte seine Vorhersage auf der COP15 in Kopenhagen, die vom 7. bis 18. Dezember 2009 stattfand. Dort verwies er wiederholt auf „Computermodelle auf dem neuesten Stand der Technik“, um darauf hinzuweisen, dass die nordpolare Eiskappe bis 2014 ihr gesamtes Eis verlieren könnte.

„Einige Modelle deuten darauf hin, dass die Wahrscheinlichkeit, dass die gesamte nordpolare Eiskappe in einigen Sommermonaten innerhalb der nächsten fünf bis sieben Jahre vollständig eisfrei ist, liegt bei 75 Prozent „, erklärte Gore.

„Unterstützen Sie mich, Präsident Obama und den US-Senat aufzufordern, den 22.April als Frist festzulegen, dass der US Senat die endgültigen Maßnahmen festlegt. Ich glaube nicht, dass wir bis zum nächsten November oder Dezember warten können.“

Der Guardian schrieb dann am 16. Dezember 2009 einem Artikel mit dem Titel“Al Gore rallies the troops in Copenhagen“: [~ Al Gore sammelt die Truppen in Kopenhagen]:

[Gore] gab den Takt vor, indem er die internationale Gemeinschaft aufforderte, bis Juli 2010 einen vollwertigen Klimaschutzvertrag zu unterzeichnen – und dann bekannt gab, dass Mexiko bereit sei, einen  Klimagipfel zur Vertragsunterzeichnung auszurichten.

Er beschimpfte die reichen Ländern, weil sie forderten, dass die Entwicklungsländer Beweise für Emissionssenkungen vorzulegen haben, während er gleichzeitig versuchte, die Mittel zu erweitern, die sie bereit sind, armen Ländern zur Bewältigung des Klimawandels bereit zu stellen. Und er war genauso hart gegenüber Aktivisten, die ihn als Helden umarmten und forderte, dass sie ihren Stolz und ihre Prinzipien beiseitelegen und einen Deal annehmen – egal wie unvollkommen. Er sagte, er habe ihre Frustration über das Tempo der Verhandlungen erkannt. Er stimmte zu, dass Cap-and-Trade-Programme zur Reduzierung der CO2-Emissionen eine unvollständige Lösung seien – Gore gab zu, eine CO2-Steuer zu befürworten -, aber die derzeitigen Bemühungen um ein Abkommen wären die beste Aussicht, einen katastrophalen Klimawandel zu vermeiden.

Und es gab keine Spur von Sympathie für Gegner von Maßnahmen gegen den Klimawandel. Gore begann mit einem kurzen Überblick über die neuesten wissenschaftlichen Erkenntnisse zum Schmelzen der arktischen Eiskappe. Er sagte, dass „nur rücksichtslose Dummköpfe dies ignorieren könnten“.

Nun, wer ist jetzt der Dummkopf:

Das Jahr 2020 ist fast vorbei, Al- und DMI-Daten zeigen, dass das arktische Meereisvolumen in diesem Sommer an seinem tiefsten Punkt kaum unter 5.000 km3 gesunken ist und dann bis September in Rekordtempo zu wachsen begonnen hat.

 

http://polarportal.dk/en/sea-ice-and-icebergs/sea-ice-thickness-and-volume/

 

[im Original animierte Grafik der Eisbedeckung ]

Aber anstatt die falsche Prophezeiung gnädig zuzugeben, hat das AGW-Lager lediglich das Datum des Untergangs verschoben:

Die meisten Alarmisten erkennen nicht, wie unglaublich komplex das Klimasystem der Erde ist.

Die Fehlerquoten in den IPCC-eigenen Modellen sind wirklich immens. Das sie wirklich meinen, uns etwas mit Sicherheit sagen zu können, das auf diesen Modellen basiert, ist wirklich ein Witz und einer, der mich zynisch macht.

Das IPCC wurde von den Vereinten Nationen ausschließlich zu dem Zweck ins Leben gerufen, seine AGW-Agenda voranzutreiben – und keine Beobachtungen der Realität, egal wie widersprüchlich diese Agenda auch sein mag, werden im Weg stehen.

Schauen Sie sich nur die Veränderungen in der Vergangenheit an, als sich die Beobachtungen in der realen Welt änderten: Wir glauben jetzt, dass eine sich erwärmende Welt mehr Rekordschnee und mehr Rekordkälte bedeutet, nicht weniger wie zuvor prophezeit.

Aber für diese politischen Gremien werden Beobachtungen aus der realen Welt bald unüberwindbar. Die Sonne schaltet (relativ) einen Gang zurück  – alle vier Magnetfelder sind außer Phase ( Zharkova ) – und das Ergebnis wird ein dramatisch kühlerer Planet sein.

https://electroverse.net/eleven-years-ago-today/

Übersetzt durch Andreas Demmig

 

Al Gore begann den 24h Livestream über den Klimawandel, als Tausende von Demonstranten gegen CO2 Steuern auf die Straße gingen




Klimaerwärmung: New York-Stadt und Japan unter Schneemassen begraben

„Weiße Weihnacht: New York versinkt im Schnee“ titelt ganz unschuldig-verniedlichend die Tagesschau. In der Stadt fahren Bürger mit Schlitten und Skiern durch den Park.

In Westen Japans, auf der Hauptinsel Honschu, sieht es noch schlimmer aus: Hunderte Wagen steckten über Nacht auf der Autobahn fest und mußten mit schwerem Gerät befreit werden. (Man stelle sich vor, Japaner würden elektrisch fahren…).

In der ARD hatte Sven Plöger schon behauptet, das europäische Schneechaos käme von der warmen Arktis.

Nun könnte man sagen, daß ein einmaliges Ereignis Zufall sei und nichts mit einem Trend zu tun habe. Die „einmaligen“ Ereignisse häufen sich aber auffällig: Ende 2017 wurden zB. an der US-Ostküste gefrorene Haie angespült, was Trump zu dem Kommentar veranlaßte, er hätte gern mehr von „Eurem Klimawandel“.

Die „klimabedingt gehäuft auftretenden“ Naturkatastrophen und Waldbrände hingegen häufen sich nicht, im Gegenteil. Brennt es einmal im Regenwald, was normal ist, wird das Phänomen einfach nur als besonders verkauft, wie in den 80ern der „sterbende Wald“.




Klimawandel: Haben die Länder ihre Versprechungen gehalten?

Autor Matt McGrath zeigt eine Graphik für jedes dieser „Länder“:

Da ich wusste, dass Matt McGraths Einschätzung sehr politisch geprägt sein würde, war meine Erwartung ein „OK“ für die EU und China, ein „gescheitert“ für Australien und ein „Weiß nicht“ für Großbritannien und die Philippinen. Warum wurden Australien und die Philippinen einbezogen und nicht viel bedeutendere CO2-Emittenten wie Indien oder Japan? Der Grund für die Einbeziehung Australiens ist ziemlich offensichtlich – ein Zweck des Artikels war es, Australien schlecht aussehen zu lassen (man bedenke, dass Australien von der jüngsten virtuellen „Klima“-Konferenz ausgeschlossen wurde, also ist es für Australien jetzt wichtiger denn je, schlecht auszusehen). Der Grund für die Aufnahme der Philippinen ist für mich weniger offensichtlich, vielleicht wollten sie ein kleineres Land in die Liste aufnehmen, damit Australien nicht offensichtlich in einer anderen Liga spielt als die anderen (hat jemand andere Vorschläge?).

Wenn wir uns diese Diagramme ansehen, was können wir erkennen?

1. Australien wurde „ohne Forstwirtschaft“ bewertet. Warum wurde die Forstwirtschaft ausgeschlossen? Bei den anderen wurde nichts ausgeschlossen. Nun, ich denke, die Antwort liegt hier:

[Australiens] Emissionen aus dem Landsektor sind zwischen 2005 und 2016 um 80% gesunken

{..} Die THG-Emissionen des Landsektors in Queensland sanken von 97,7 Millionen Tonnen Kohlendioxid-Äquivalent (MtCO2e) im Jahr 1990 auf 12 MtCO2e im Jahr 2016

(Ich habe nicht die Gesamtzahl von Australien, aber Queensland ist ein großer Teil). Matt McGrath wäre nicht in der Lage gewesen, Australien so schlecht aussehen zu lassen, wenn er das ganze Bild betrachtet hätte. Die Unehrlichkeit in gewissen Kreisen kennt keine Grenzen. Wahrscheinlich hat er eine ganze Weile gebraucht, um herauszufinden, wie er die Zahlen Australiens fälschen kann. Unter Einbeziehung der Forstwirtschaft wäre Australien das einzige der fünf Länder gewesen, das seine Ziele für 2020 und 2030 deutlich übertroffen hätte.

2. Die prozentuale und gesamte Änderung der CO2-Emissionen im Zeitraum 1990 bis 2019 betrug laut den Graphiken in etwa:

UK: –45% (–350 Mt)

Australien (ohne Forstwirtschaft): +30% (+135 Mt)

EU: –30% (–170 Mt)

China: +350% (+10.500 Mt)

Philippinen: +30% (+110 Mt)

Wenn man seekrank ist, sollte man auf die leeseitige (windabgewandte) Seite des Schiffes zu gehen, damit man nicht sein Erbrochenes ins Gesicht bekommt. Großbritannien und die EU haben sich mit ihren „Klima“-Bemühungen ziemlich kaputt gemacht, aber wenn man sich die Zahlen Chinas ansieht, muss man sich fühlen, als wäre man auf die Luvseite gegangen. Nur dass es nicht von einem selbst stammte, was man ins Gesicht bekommen hat.

Das BBC kam in seiner Abschätzung bzgl. der fünf „Länder“ und deren Versprechungen zu folgender Einschätzung:

UK: „überwiegend ja“

Australien: „Nicht wirklich“

EU: „überwiegend ja“

China: „meist ja, aber mit Schwächen“

Philippinen: „Die Maßnahmen dieses Landes sind kompatibel damit, die Erwärmung in diesem Jahrhundert deutlich unter 2°C zu halten“.

Meine Einschätzung: Dieser Artikel ist so hochgradig politisiert, dass er nichts als ein schlechter Witz ist.

Es gibt einen sehr guten Grund dafür, dass die USA nicht im BBC-Artikel vorkommen – sie sind nicht im Pariser Abkommen – aber nur aus Interesse, ihre Zahlen für 1990-2019 sind (ungefähr):

USA: 0% (0Mt) –4.800Mt in 1990, 5.800Mt in 2007, 4.800Mt in 2019 (Daten von hier und hier).

Der BBC-Artikel ist hier zu finden. Ich habe nicht überprüft, ob die Zahlen von Matt McGrath korrekt sind. Er gibt keine Quellen an. Wer den Projektionen im China-Chart Glauben schenkt, befindet sich sicherlich in Wolkenkuckucksheim.

Link: https://wattsupwiththat.com/2020/12/13/climate-change-have-countries-kept-their-promises/

Übersetzt von Chris Frey EIKE

 




Zu Weihnachten ein Quantensprung

Warum?

Fast so berühmt wie Albert Einstein war in den USA der Physiker Richard Feynman. Er war bekannt dafür, dass er die kompliziertesten Dinge ganz einfach erklären konnte.

Ein Journalist wollte das auf die Probe stellen und fragte ihn in einem Interview, warum sich zwei Magneten manchmal abstoßen und manchmal anziehen würden. Aber anstatt über Magnetismus zu reden, klärte Feynman den Mann über die Bedeutung des Wortes „warum“ auf. Das ging etwa so:

Ein Kind kommt nach Hause und erfährt, dass Tante Minnie im Krankenhaus ist. „Warum?“ fragt das Kind. „Weil die Ambulanz sie da hin gebracht hat“. „Warum?“ – „Weil sie sich die Hüfte gebrochen hat.“ „Warum?“ – „Weil sie ausgerutscht ist und hingefallen.“ „Warum?“ – „Weil es kalt war und der Weg vereist.“

An diesem Punkt wird das Kind vermutlich aufhören zu fragen, denn es ist selbst schon mal auf Eis ausgerutscht. Das überraschende Phänomen, nämlich dass Tante Minnie nicht da ist, wurde also erklärt durch die alltägliche Beobachtung, dass Eis glatt ist. Diese Tatsache ist allgemein akzeptiert und das „warum“ hat damit ein Ende.

Das heißt natürlich keineswegs, dass allgemein bekannt ist, „warum“ Eis glatt ist. Man weiß nur, „dass“ es so ist. Die Wissenschaft nun hinterfragt auch die alltäglichsten Dinge und versucht Gesetzmäßigkeiten zu finden, die möglichst viele unterschiedliche Phänomene gemeinsam erklären.

Feynman machte dem Reporter dann klar, dass die Kraft zwischen den Magneten auf der elektromagnetische Wechselwirkung beruht, und dass letztere auch die Ursache dafür sei, dass sein Arm, trotz Schwerkraft, auf der Armlehne des Sessels liegen bleibt und nicht darin versinkt.

Wir wissen nicht, ob der Journalist mit der Antwort zufrieden war, aber auf jeden Fall hatte er jetzt gelernt, dass man wissen sollte warum man fragt, bevor man fragt „warum“.

Willkommen bei den Quanten

Die Theorie des Elektromagnetismus kann also viele unterschiedliche Phänomene erklären: sowohl die Magneten als auch die Armlehne.

Eine andere wichtige physikalische Theorie beschreibt das Verhalten von Gegenständen unter dem Einfluss der Gravitation: etwa den Lauf des Mondes um die Erde oder den Fall eines Apfels vom Baum. Das wird auch als Newtonsche Mechanik bezeichnet, weil sie von jenem im 17. Jahrhundert entwickelt wurde.

Mit diesen beiden Theorien kann man schon eine ganze Menge erklären, aber noch nicht alles.

Sicherlich haben Sie schon einmal den Begriff „Quantensprung“ gehört. Etwa dass jemand sagt, die Entdeckung von Penicillin sei ein Quantensprung für die Medizin gewesen. Der hat dann zumindest nichts von Physik verstanden. Und zwar deswegen:

Vor gut hundert Jahren zerbrach man sich den Kopf, wie wohl die Atome funktionieren. Die sind ja so ähnlich aufgebaut wie das Sonnensystem: in der Mitte eine schwere Masse, der Atomkern. Um ihn kreisen, wie Planeten, die Elektronen. Was lag da näher, als die ganze Sache mit Newtons Physik zu beschreiben, die sich ja am Himmel schon so gut bewährt hatte. Insbesondere lag das nahe, weil die Anziehungskräfte zwischen Sonne und Planeten, ebenso wie zwischen Kern und Elektronen, mit dem Quadrat der Entfernung abnehmen.

Aber da war die Ähnlichkeit dann zu Ende. Man fand heraus, dass die Elektronen in allen Atomen auf ganz bestimmten Bahnen laufen, während sich die Planeten bei der Schöpfung des Universums diejenige Bahn um die Sonne ausgesucht haben, der ihnen gerade gefiel.

Aber nicht nur bei Atomen, bei allen Objekten die so winzig klein sind fand man heraus, dass sie sich nicht kontinuierlich verändern können, sondern dass ihnen nur ganz bestimmte Zustände zur Verfügung stehen. Ein Apfel im Garten etwa durchläuft bei seinem Fall zum Boden unendlich viele verschiedene Zustände; seine Höhe über Grund nimmt k0ntiunuierlich ab. Wären unsere Apfelbäume aber so winzig klein wie Atome, dann würde der Apfel auf einer Leiter vom Baum steigen, und jede Sprosse wäre ein anderer „Quantenzustand“ und jeder Schritt abwärts ein „Quantensprung“.

Ein Quantensprung ist also die kleinst-mögliche Veränderung, die ein atomares oder sub-atomares Gebilde ausführen kann. Mit solch einem Vergleich würden wir dem Penicillin und seinem Entdecker sehr Unrecht tun, denn das war ein gigantischer Schritt vorwärts.

Die allerkleinsten Teilchen

Die Spielregeln für Atome und Co, genannt Quantenmechanik, wurden vor 100 Jahren entdeckt und sie waren eine gewaltige Bereicherung der Physik über Mechanik und Elektromagnetismus hinaus. Es gab aber, und es gibt immer noch Geheimnisse.

Die alten Griechen dachten, dass wenn man Materie, etwa ein Stück Eisen, in immer kleinere Stückchen teilt, dass man dann irgendwann an einen Punkt kommt, wo das Teilen sein Ende hat. Diese kleinsten, unteilbaren Fragmente nannten sie Atome.

Damit lagen sie einerseits ganz richtig, denn das kleinste Stück Eisen, das es gibt, ist tatsächlich ein Eisen-Atom. Das allerdings kann man dann noch weiter teilen, wobei diese Bruchstücke dann allerdings nicht mehr „aus Eisen“ sind.

Wie oben schon erwähnt besteht ein Atom ja aus Elektronen und dem Kern, und der Kern seinerseits ist aus Neutronen und Protonen zusammengesetzt. Sind das denn nun endlich die allerletzten kleinen Teilchen, sind das die ultimativen Bausteine des Universums oder sind die selbst noch teilbar?

Dieser Frage hat man viele Überlegungen gewidmet und man hat gigantische Maschinen gebaut, so genannte Beschleuniger, um die Sache im Experiment zu untersuchen. Und was hat man gefunden? Mehr als man wollte. Man hat heute einen ganzen Zoo voller mehr oder weniger exotischer Individuen, von denen man annimmt, dass sie unteilbar sind.

Für diesen Zoo hat man eine Gehege gebaut, das so genannte „Standardmodell“, welches 17 Käfige hat für die vermutlich 17 verschiedenen Elementarteilchen. An dieser Stelle eine bedauerliche Nachricht: Protonen und Neutronen, die Bausteine der Atomkerne, sind nicht dabei. Sie bestehen ihrerseits aus drei echten Elementarteilchen, den so genannten „Quarks“.

Das zumindest ist der heutige Stand der Kenntnis. Aber die Wissenschaftler in der Teilchenphysik sind immer offen für neue Ideen und neue Teilchen, denn sie wurden ja immer wieder von der Wirklichkeit überrascht. Das ist ganz anders als bei den Klimaforschern, die sich noch nie geirrt haben, deren Behauptungen in Stein gemeißelt sind, und die daher jegliche Kritiker mit Acht und Bann strafen.

Schnell genug?

Ein Zoo kann verwirrend sein. Da stößt man etwa auf eine Riesenfledermaus vom Amazonas, direkt daneben schläft ein Stachelschwein und im Tümpel versteckt sich ein Waran. Im Teilchenzoo herrscht ein ähnliches Durcheinander. Hier ein Beispiel, das Ihnen zeigen soll, wie bizarr es da zugeht.

Die Teilchen haben, wie jegliche Materie, eine Masse. Dank Einsteins Gleichung E = mc2 wissen wir, dass die Masse zunimmt, wenn sich ein Gegenstand schnell bewegt, weil die Bewegungsenergie selbst Masse hat. Und wenn wir uns der Lichtgeschwindigkeit nähern könnten, das sind ziemlich genau eine Milliarde km/h, dann würde die Masse unendlich groß.

Und dennoch gibt es Teilchen, die genau mit Lichtgeschwindigkeit unterwegs sind. Die haben auch Masse, die allerdings nur aus ihrer Energie besteht. Deswegen können diese Kandidaten nicht langsamer werden, sie sind immer mit einer Milliarde km/h unterwegs.

Während Sie gerade lesen treffen Unmengen dieser Teilchen auf Ihren Körper, einige davon in Ihre Augen, landen dort auf der Netzhaut und werden von Ihrem Nervensystem letztlich als Buchstaben in einem Text über Physik interpretiert. Es sind Photonen, Lichtteilchen, die ganz legitim mit Lichtgeschwindigkeit unterwegs sind.

Man bemüht sich natürlich, alle Bewohner dieses Zoos unter einen Hut zu bringen. Man versucht zu verstehen, „warum“ es genau diese Teilchen gibt und keine anderen. Dazu wurde die Quantenfeld-Theorie erfunden. Hier hat der eingangs erwähnte Physiker ganz wesentlich beigetragen, unter anderem die berühmten Feynman-Diagramme, von denen eines diesen Artikel ziert.

Diese Theorie hat übrigens behauptet, dass es ein Schwergewicht unter den Teilchen geben müsste, das noch nie jemand beobachtet hat, namens „Higgs-Boson“. Das war 1964. Ein halbes Jahrhundert lang musste man mit den kompliziertesten Apparaturen nach dem Teilchen forschen, bis man es endlich fand. Es ist ein Triumph für die Wissenschaft, wichtig genug, dass auch die Tagespresse davon berichtete.

Bei der nervenaufreibenden Suche fiel sicher auch einmal ein Fluch wie: „Wo versteckt es sich denn, das gottverdammte Teilchen.“ Daraus machten Journalisten dann das „Gottesteilchen“.

Die Entdeckung dieses Higgs Bosons hat vorerst keine Konsequenzen für das alltägliche Leben, es ist nur eine wichtige Ergänzung zur existierenden Kollektion der Elementarteilchen; etwa so wie es ein australischer Wombat im Zoo der Tiere wäre.

The Theory of Everything

Da haben wir uns jetzt einige sehr erfolgreiche physikalische Theorien angeschaut. Aber eine einzige Theorie, die alles beschreibt, das wäre noch schöner, das wäre der Heilige Gral der Physik. Aber auch wenn man diese Weltformel fände ginge das Fragen trotzdem weiter: „Und warum sieht diese Formel nun genau so aus und nicht anders?“

An dieser Stelle hilft dann die Feststellung eines anderen genialen Physikers weiter. Der Entdecker der „Unschärferelation“, Werner Heisenberg erkannte:

„Der erste Schluck aus dem Becher der Wissenschaft führt zum Atheismus, aber auf dem Grund des Bechers wartet Gott.“

Ich wünsche Ihnen frohe Weihnachten

Ihr Hans Hofmann-Reinecke

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazon erhältlich.