1

Willkomen im Land der Stromsperren! oder Lockdown der Physik.

Nicht nur E-Fahrzeugen und Wärmepumpen, auch Nachtspeicherheizungen sollte ferngesteuert der Saft abgedreht werden. „Spitzenglättung“ hieß die Zwangspause in Paragraph 14a des geänderten Energiewirtschaftsgesetzes. Die Welt am Sonntag veröffentlichte am 17. Januar einen Artikel, und innerhalb weniger Stunden erhob sich ein Shitstorm mit mehr als 1.000 wütenden Zuschriften. Und das, obwohl die Welt nur noch Abonnenten kommentieren lässt.

Das Ganze sieht aus wie ein Versuchsballon. „Wir beschließen etwas, stellen das dann in den Raum und warten einige Zeit ab, was passiert. Wenn es dann kein großes Geschrei gibt und keine Aufstände, weil die meisten gar nicht begreifen, was da beschlossen wurde, dann machen wir weiter – Schritt für Schritt, bis es kein Zurück mehr gibt.“ Das sagte niemand geringerer als der ehemalige EU-Kommissionschef Jean-Claude Juncker.

Um 9.55 Uhr am Sonntag bemerkte der Wirtschaftsminister Peter Altmaier sein Eigentor und ruderte zurück. „Es handelt sich um einen Entwurf der Arbeitsebene, der nicht die Billigung des Ministers gefunden hat“, teilte seine Sprecherin über einen Gesetzentwurf mit, der schon auf der Internetseite des Ministeriums veröffentlicht und den Lobbyverbänden zur Kenntnis gegeben worden war. Übersetzt: Der Peter ist nicht schuld, sein Name ist Hase. Der Entwurf verschwand sang- und klanglos von der Webseite des Ministeriums.

Wer geglaubt hat, dass eine Regierung absurde Politik nur bis zu einer gewissen Grenze betreiben kann, der sieht sich getäuscht. Dümmer geht immer. Vor 11 Jahren gab es die Abwrackprämie. Da sollten die Bürger mit Steuer-Milliarden zum Kauf von Neuwagen gepuscht werden – bevorzugt Diesel, wegen der Umwelt. Seit zwei Jahren dürfen die Leichtgläubigen, die damals der Politik glaubten, mit ihren unverkäuflichen Diesel nicht mehr in viele Städte einfahren.

Derzeit fördert der Staat mit Fantastilliarden den Kauf von Elektrofahrzeugen, pro Wagen bis zu 11.000 Euro – wegen der Umwelt. Das staatliche Ziel waren eine Million Elektroautos bis zum Jahr 2020, es wurde leise weinend beerdigt. So dumm sind die Bürger nun doch nicht.

Lockdown der Physik

Auch die Umrüstung von Heizungen auf Wärmepumpen wird mit viel Steuergeld massiv gefördert, mit bis zu 45 Prozent der immensen Kosten, natürlich für die Umwelt.

Gleichzeitig legt dieselbe Regierung zwangsweise alle Kernkraftwerke bis zum Jahr 2022 still und beschließt, auch alle Kohlekraftwerke stillzulegen. Auch dazu werden weitere Fantastilliarden Steuergeld bereitgestellt. Hochmoderne funkelnagelneue Kraftwerke werden reihenweise verschrottet.

Wer vor einem Erzeugungsengpass gewarnt hat, war Klimaleugner oder Atomfuzzi – ein neurechter Nazi eben. Schließlich ist das alles hoheitlich ausgerechnet, der Flatter-Strom kann im Netz gespeichert werden – nach einem Lockdown der Physik.

An Tagen wie diesen, wo es grau ist, da haben wir natürlich viel weniger erneuerbare Energien. Deswegen haben wir Speicher. Deswegen fungiert das Netz als Speicher. Und das ist alles ausgerechnet. Ich habe irgendwie keine wirkliche Lust, mir gerade mit den politischen Akteuren, die das besser wissen, zu sagen, das kann nicht funktionieren.“

Das sagt eine Frau, die sich allen Ernstes und mit einer gewissen Berechtigung Chancen ausrechnet, einmal Bundeskanzlerin zu werden. Ich will hier aus Höflichkeit lieber nicht den Satz des berühmten Philosophen Dieter Bohlen einfügen.

Wirtschaftsminister Peter Altmaier bringt die Energiewende voran und erklärt das auch den unkundigen Bürgern auf seine angemessene Weise: „Wir haben mit der Energiewende gute Erfahrungen gemacht…“ Stimmt, hat er. Fließt doch die gute Hälfte des exorbitanten Strompreises in seine Staatskasse.

Beamte, die noch Grundrechenarten beherrschen

Offenbar sitzen aber im Wirtschaftsministerium immer noch ein paar Beamte, die wenigstens die Grundrechenarten und das Lesen von Texten in einfacher Sprache beherrschen. Es müssen welche von denen die launigen Blackout-Kochanleitungen ihrer Kollegen vom Bundesamt für Bevölkerungs- und Katastrophenschutz gelesen und sogar verstanden haben. Die Ministeriumskantine ohne Strom? Das geht gar nicht. Da muss sofort gehandelt werden.

Kannibalisiert die Energiewende die Verkehrswende? Irgendwer in der Regierung hat erkannt, dass es bei den Stromleitungen genauso ist wie bei den Wasserleitungen: hinten kann nicht mehr rauskommen, als vorne reingepumpt wird. Mich beeindruckt diese Erkenntnistiefe. Da will das Wirtschaftsministerium also jetzt ausgerechnet den Unbedarften den Stromhahn zudrehen, die den Ankündigungen der Politik Glauben geschenkt haben und sich einen Elektroauto oder eine Wärmepumpe als Beitrag zur Rettung der Welt gekauft haben.

Das kommt davon, wenn die Politik vom Ende her, aber nicht zu Ende denkt. Deutschland steht vor einem energiepolitischen Scherbenhaufen. Jeder Fünftklässler, der freitags noch in die Schule geht, hätte sich das ausrechnen können. Wer jetzt aber meint, dass es das war mit den energiepolitischen Pleiten, Pech und Pannen, der irrt. Der Energie- und Verkehrswende-Unfug geht munter weiter. Elektromobilität und Wärmepumpen werden staatlich weiter massiv gefördert, es sind sogar Verbote von Verbrennern und anderen Heizungen im Gespräch. Liebe Politik-Genies, wie wollt ihr die Millionen neuen Verbraucher powern, wenn es nicht mal für die schon Existierenden reicht, weil ihr die Kraftwerke verschrottet?

Wer den Medien oder der Politik abnimmt, dass die geplante Zwangsabschaltung von Auto-Ladestationen und Wärmepumpen eine nur in Extremfällen vorkommende Notmaßnahme wäre, der weiß nichts davon, dass schon heute industrielle Großverbraucher wie Aluhütten und Walzwerke ziemlich regelmäßig bei Flaute und Dunkelheit abgeschaltet werden müssen – natürlich vergütet mit Steuermitteln.

Es wird nicht bei Ladesäulen und Wärmepumpen bleiben

Außerdem wird es beim großen Abschalten nicht bei Ladesäulen und Wärmepumpen bleiben. Liebe Bürger, nur die Masse macht’s. Wenn der Damm erst mal gebrochen ist, dann kommt die Zwangsabschaltung der Waschmaschinen, Elektroherde, Wasserboiler, Geschirrspüler und Internet so sicher wie das Amen in der Kirche. Schließlich hat das große Abschalten der Kohlekraftwerke ja noch gar nicht richtig begonnen, und es laufen noch ein paar Kernkraftwerke. Das soll alles weg.

Vor dem Gesetz und bei der Stromsperre sind alle gleich? Na ja, eher nicht. Allerdings müssen die Ministerien nur noch die Prioritätenlisten für die Durchführungsbestimmungen des neuen Spitzenglättungsgesetzes erstellen. Dort muss festgelegt werden, wessen Stromverbraucher „systemrelevant“ sind, damit nicht etwa versehentlich den Verursachern der Misere der Saft abgedreht wird.

Was wird, wenn nach Corona der Verbrauch wieder ansteigt? Die Spitzenglättung muss im Gesetz bleiben, weil es ohne sie irgendwann Blackouts gäbe. Es werden jetzt also andere Verbraucher sein müssen, die bei Flaute und Dunkelheit abgeschaltet werden. Die Auswahl ist gering, man darf gespannt sein. Mein Tipp: es werden Flächen-Netze sein, die für einige Zeit abgeschaltet werden müssen. Dann sind lokal auch Wärmepumpen und Ladestationen schwarz, man muss es ja nicht gleich ins Gesetz schreiben. Die gute alte Zeit der lokalen Stromabschaltungen kommt wieder, die Pläne dazu gibt es schon länger

Der Beitrag erschien zuerst bei ACHGUT hier




100 Prozent garantierter Kernkraftstrom für Privathaushalte und Kleinunternehmen.. Zwei Schweden mischen den Strommarkt auf.

„Es dauerte 15 Minuten, bevor das Telefon zu klingeln anfing, und innerhalb von 24 Stunden war diese Nachricht überall – mit ihrer Botschaft  von zwei Freunden und Unternehmern,  die beide nicht von der Energie- und Kernkraftindustrie kamen, jedoch mit der Absicht, die Kernkraft wieder populär zu machen“,  erinnert sich Ahlberg mit einem Lächeln.

Sjölander und Ahlberg waren sich der Einzigartigkeit der Kernkraft als einzige saubere, stets vorhandene und verfügbare sowie regelbare Energiequelle wohl bewusst und sie sahen jetzt eine zunehmende  Notwendigkeit für ihre Verstärkung in einer Welt, die nach Möglichkeiten sucht, um Emissionen zu reduzieren und zur stärkeren Elektrifizierung.
Sie wussten, dass – zumindest in Schweden – eine deutliche Unterstützung für die Kernkraft besteht und fragten sich, ob sie diese passive Befürwortung einsetzen könnten, um das in etwas Wesentliches, Starkes zu verwandeln.

Aber anstatt wieder eine weitere NGO oder eine Facebook-Gruppe zu gründen, um damit öffentliche Unterstützung zu erreichen, entschloss sich das Duo, dieses Konzept zu kommerzialisieren und es für rationale Umweltfreunde möglich zu machen, dass sie einen Teil ihrer  Lebensweise  auf die Kernkraftnutzung ausrichten – direkt von ihrem schwedischen Favoriten-Kraftwerk.  Indem sie dieses Unternehmen gründeten,  könnte die „schweigende Mehrheit“ in die Lage versetzt werden,  „mit ihrer Brieftasche abzustimmen“ und Kernkraftstrom zu wählen.

Sie nahmen an, dass durch die Versorgung ihrer Kunden und Befürworter mit Tatsachen, mit Werbung sowie mit anschaulichen, verständlichen Info-Grafiken deren Wahlentscheidung zu Gesprächen an Küchentischen und  Arbeitsplätzen führen werde, wodurch Kärnfull von dieser Mund-zu-Mund Propaganda profitieren würde.
Wie sich herausstellte, hatten sie recht.

Aber wie konnte das funktionieren? Ein hundertprozentiger Kernkraft-Tarif wirkt in der gleichen Art wie ein 100 % Ökostromtarif: Liefere die elektrische Energie und kompensiere das mit der gleichen Anzahl von Kilowattstunden durch Erzeugungs-Garantien.

„Das ist bei Weitem kein perfektes System, aber es ist die beste Art und Weise, in der die Verbraucher ihre Bevorzugung einer bestimmten Energiequelle  äußern können. In Schweden gibt es 140 Energieanbieter, die fast alle „bra miljöval“ anbieten – damit sind Erzeugungsgarantien für Erneuerbare gemeint. Wir dachten uns, dass wir mit der gleichen Methode für Kernkraftenergie das gleiche Bewusstsein im gesamten System voranbringen können“, fügt Sjölander hinzu. „Unsere schwache Stelle liegt vielleicht darin, dass wir entschieden haben, eine kleine Spende pro verkaufter Kilowattstunde für die Nuklearforschung hinzuzufügen. “

Ein Jahr darauf sind die beiden Gründer von der Akzeptanz sowie davon, wie sich die Sache seit dem Start entwickelt hat, geradezu überwältigt.
Die Startphase war ein geradezu rauschender Erfolg und führte zu nahezu 3000 Namen, was das Team zwang, rasch zuzulegen um diesen Bedarf in zahlende Kunden zu verwandeln.  Am 1. Dezember 2019 bezogen die ersten Haushalte ihre Stromversorgung über Kärnfull – auf der Grundlage eines   stundenbasierten flexiblen Vertrags, der durch niedrige Preise und gute Kundenbetreuung gekennzeichnet war und keine festgelegten Termine enthielt.

„Von diesem Tag an entwickelte es sich buchstäblich lawinenartig. Unser organisches Wachstum ist erstaunlich – sowohl bezüglich der Gewinnung neuer Kunden als auch in unserer Weiterentwicklung. Die Annahme unseres Angebots war phänomenal und unsere schwedischen Sozial-Media-Kanäle wurden das Zentrum der Diskussionen über technisch-neutrale saubere Energie – während unser Newsletter jede Woche etwa 15.000 Leser erreicht.“

Man kann heute nur feststellen, dass die Ankündigung von 2019 erhebliches Aufsehen erregte. Politiker, Journalisten, Wettbewerber und das normale Publikum fingen gemeinsam an, das eingehend zu beobachten, wobei eine klare Botschaft über die zahlreichen Vorzüge der Kernkraft für eine sich verändernde Welt vermittelt wird.
Auch wenn Kärnfull, mit dem Vorteil der ersten Initiative ausgestattet – und mit der Qualität in der Lieferung und deren Ausführung – in die Führungsrolle in diesem Segment gekommen ist, haben sie auch registriert, dass in den vergangenen Monaten ca. 20 andere schwedische Anbieter diesem Vorbild folgten und nun 100-Prozent-Kernkraftstrom-Tarife in ihren Angeboten haben.

„Das sind natürlich gute Nachrichten sowohl für das Klima als auch für die Industrie. Es gibt schon heute etwa eine halbe Million Haushalte in Schweden, die ausdrücklich 100 % Kernkraftenergie-Verträge wünschen.
Es gibt also viel Raum für das Wachstum von uns allen. Zudem expandiert der ansprechbare Markt, weil der Bedarf für die Kernenergie zunimmt.
Wir sind ein Teil dieser neuen Debatte als ein vertrauenswürdiges  unpolitisches und unabhängiges Start-Up mit einem eindeutigen Markennamen, einem großartigen Angebot sowie einem eindrucksvollen Ratgeber-Gremium“, sagt John und weist auf einen weiteren unterstützenden Faktor der Erfolgsgeschichte hin.

Käirnfulls Markenname ist auf den Punkt gerichtet: Skandinavisch-cool und voll auf ihren wichtigsten Marktsektor ausgerichtet. Also wissenschaftsorientierte, junge und vornehmlich städtische Schweden. Das sind die Leute, die am stärksten über den Klimawandel besorgt sind – und weil sie jung sind, haben sie nicht die tiefsitzende Furcht vor der Kernspaltung, wie diejenigen, die im Schatten des Kalten Kriegs aufgewachsen sind. Aber mehr als das: Sie haben eine Dosis von Popkultur in den Nuklearbereich eingebracht.

Während des Gesprächs schalten die beiden Gründer oft vom Macro-Level („Es gibt heute 2-3 Milliarden Menschen ohne Zugang zur Elektrizität – und dies muss geschehen“) in die Aussichten im Micro-Level
(„Südschwedens Stromnetz leidet enorm unter Ausfällen, schwankenden Preisen, steigenden Emissionen und vorzeitigen Stilllegungen.
Wir riskieren, Deutschlands schwachsinniger Energiewende zu folgen, falls wir es nicht schaffen, die Menschen für die Kernenergie zu begeistern – und zwar jetzt“).

„Als wir in Schweden starteten war unser Fokus – und er ist es selbstverständlich weiterhin – unserem Heimatland dabei zu helfen, „umweltvernünftig“ zu werden. Aber innerhalb von Wochen nach unserem Start begannen große Pro-Nuklear-Vereinigungen im UK, in Frankreich, in den USA etc. uns zu folgen. John und ich haben viele Jahre im Ausland gelebt und internationale Geschäfte aufgebaut. Deshalb sind wir dabei, darüber nachzudenken, wie wir das Konzept exportieren könnten“, erklärt Sjölander.

„Es stellt sich heraus, dass es einen beträchtlichen Appetit für unsere Marke und auch für unsere Pläne für mehrere Länder gibt. Wir werden in der Tat in den kommenden Monaten in einen neuen Markt starten. Hoffentlich als Erste von Vielen.“

Es ist nicht gerade leicht, Kärnfulls Erfolg anzuschauen und sich zu fragen, was das für den großen Nuklear-Sektor bedeutet. Zumindest in Schweden hat der Aufbau einer Marke, die völlig auf die Kernenergie baut, funktioniert. Nicht nur immerzu nur über das Thema Sicherheit zu sprechen, war erfolgreich. Aber kann Kärnfulls Erfolg irgendwo wiederholt werden?

„Ja wir glauben das gewiß. Und wir suchen stets nach Wegen, um neue Märkte für den breiteren Nuklearsektor zu erschließen – indem wir mit herausragenden örtlichen Persönlichkeiten sprechen und um Partner zu finden. Es braucht einiges an Investment zu Beginn, aber mit Schweden als Erfolgsbeweis sieht es recht gut aus“, stellt John fest.

(Anmerkung: Unterstreichungen vom Übersetzer.)

Quellen:
1. atw – International Journal for Nuclear Power; Vol. 66 (2021).
Ausgabe Nr.1, Januar. Titel: „Kärnfull Energi. Making nuclear energy
cool  (again).“  Keine Autorenangabe; somit atw-Redaktion.
Internet: nucmag.com
2. Übersetzung und erste deutschsprachige Veröffentlichung:
https://www.ageu-die-realisten.com
3. Verbindungen zur Fa. Kärnfull Energi
E-Mail: hej@kärnfull.se
Web: www.karnfull.se

7

 




Deutschlands wacklige Stromversorgung

Dieser Trend setzt sich dramatisch fort – augenfällig in der kalten Jahreszeit.

Jedes Jahr im Winter ein ähnliches Bild: Ohne Strom aus Kohle- oder Kernkraftwerken säßen wir im Dunkeln. Die Energiemengen, die Windräder und Photovoltaikanlagen liefern, reichen bei weitem nicht aus, sie gehen sogar an vielen Tagen gegen null. Beispiel 9. Januar, 18:00 Uhr. Deutschland verbrauchte knapp 65 Gigawatt (GW), dazu trug der Wind gerade einmal 1,6 GW an Leistung bei. Nicht verwunderlich, daß die Photovoltaikanlagen vollends dunkel blieben.

Stromerzeugung und -verbrauch vom 6. bis zum 13. Januar Grafik: Agora Energiewende

Und das war kein Einzelfall: In den vergangenen Wochen sah das Bild nicht viel besser aus. Ohne die gewaltigen Stromlieferungen von Kohle und Kernkraft wäre es im Dezember mit der knusprig gebratenen Weihnachtsgans im Backofen nichts geworden. Die Sonne lieferte erwartbar wenig, an den dünnen gelben Flächen auf der Grafik nicht zu übersehen. Die blauen darunter repräsentieren die Energiemengen aus Wasserkraft – sie reichen bei weitem nicht; ganz zu schweigen von der geringen Leistung der Kraftwerke, die mit Biomasse betrieben werden, wie man an dem dunkelgrünen Streifen am unteren Rand erkennen kann. Erschreckend dünn, vergleicht man das Resultat mit den gewaltigen Flächen, auf denen Mais für Biogasanlagen angebaut werden.

Stromerzeugung und -verbrauch von November bis Januar Grafik: Agora Energiewende

„Erneuerbare“ Energien sind privilegiert die Kosten hoch

Gerade veröffentlichte die Bundesnetzagentur die Bilanz von Stromerzeugung und Stromhandel des vergangenen Jahres. Die dramatischen wirtschaftlichen Folgen aufgrund der „Lockdowns“ schlugen sich auch im reduzierten Stromverbrauch nieder. Der sank um 3,2 Prozent auf 474,9 Terawattstunden (TWh). Der sogenannte regenerativ erzeugte Strom lieferte mit 49,3 Prozent fast die Hälfte der Netzlast, im Vorjahr waren es 46,1 Prozent.

Wenn insgesamt weniger Strom erzeugt wird, steigt der Anteil des Stroms der sogenannten „Erneuerbaren“. Die sind aufgrund des EEG-Gesetzes privilegiert, deren Strom muß zuerst abgenommen werden, im Zweifel müssen Kohle- und Kernkraftwerke heruntergefahren werden.

Das ist vor allem eins: extrem teuer, weil große Kraftwerke unproduktiv in der Landschaft stehen. Gegen ein vollständiges Abschalten sträubt sich die Bundesnetzagentur. Dort sitzen noch einige Experten, die wissen: Ohne Kohle und Kernkraft geht es nicht, sie erklären diese Kraftwerke für systemrelevant. Deren Stillstand wird vom Stromverbraucher bezahlt.

Der Stromverbrauch steigt mit zunehmender Technisierung

Bis vor zehn Jahren noch – in Zeiten eines gedeihenden Industrielandes Deutschland – lag der Stromverbrauch mit bis zu 541 TWh deutlich höher. Doch bekanntlich hatte sich die Bundesregierung im Energiekonzept aus dem Jahre 2010 das Ziel gesetzt, den Energieverbrauch zu senken. Die Folgen für ein Industrieland kann sich jeder leicht selbst ausmalen, wenn man weiß, daß mit steigender Zivilisation immer auch der Energieverbrauch ansteigt.

„Der tägliche Energiebedarf eines Erwachsenen hat sich im Laufe der Menschheitsgeschichte laufend erhöht. Er betrug um die 8 kWh bei Jägern und Sammlern der Steinzeit, 30 kWh im Mittelalter und ist auf über 300 kWh in modernen Industriegesellschaften angestiegen.“ So beschreibt diese Entwicklung Physiker Horst-Joachim Lüdecke in seinem Buch „Energie und Klima« die Zusammenhänge“.

Wenn man Grünen-Fraktionschef ist und Anton Hofreiter heißt, kann man vom Erfolg der Energiewende und vom Stromexportland Deutschland reden. Oder man redet von einem Exportüberschuß in Höhe von 60 Milliarden kWh wie ein Felix Matthes, Energieexperte beim Öko-Institut in Berlin, das vor drei Jahren getan hat: „Wir erreichen in diesem Jahr einen Exportüberschuss von 60 Milliarden Kilowattstunden, das ist die Jahresproduktion von 20 Kraftwerksblöcken.“

Wenn man realistisch ist, fragt man, wann Strom exportiert und wann importiert wird. Ein Blick auf die technischen Hintergründe verschafft Klarheit: Strom ist ein besonderer Saft. Er kann nicht wie Zement, Mehl oder Benzin gelagert werden, sondern muß in sekundengenau dem Augenblick erzeugt werden, in dem er gebraucht wird. Umgekehrt muß die Produktion sofort reduziert werden, wenn die Nachfrage sinkt. Gewaltige Energiemengen werden dazu in Sekundenbruchteilen durch europäische Netze verschoben, äußerst empfindliche Regelvorgänge finden dazu im Hintergrund statt.

Photovoltaikanlagen können nicht gleichmäßig Strom liefern

Es hat genau 130 Jahre findiger Ingenieursarbeit gebraucht von der ersten Fernübertragung von Drehstrom aus einem Flußkraftwerk in Lauffen am Neckar nach Frankfurt zur Internationalen Elektrotechnischen Ausstellung 1891 bis zum heutigen noch sehr gut funktionierenden komplizierten Netzbetrieb, der sehr zuverlässig preiswerten Strom zur Verfügung stellt. Es sind nur wenige Jahre „Energiewende“ notwendig, um mal eben milliardenteure Kraftwerke abzuschalten, das System zu zerschlagen und die Energieversorgung wackligem und teurem Strom aus Windrädern und Photovoltaikanlagen zu überlassen.

Die können nicht gleichmäßig dann Strom liefern, wenn er benötigt wird. Stahlwerke, Eisenbahnen und Lebensmittelherstellung sollen sich nach dem Windangebot richten – wie früher, als die Windmüller das angelieferte Getreide nicht mahlen konnten, wenn kein Wind wehte. Aluhütten wird der Strom kurzzeitig abgeschaltet, wenn zu wenig vorhanden ist. Nach drei Stunden ist die Schmelze erkaltet, das Aluwerk Schrott.

Windräder und Photovoltaikanlagen liefern häufig dann viel Strom, wenn er nicht in den Mengen gebraucht wird. Dann muß er „entsorgt“, also europaweit angeboten werden – in genau jenen Augenblicken, in denen Windräder liefern. Wenn kein Nachbarland gerade den Strom gebrauchen und abnehmen kann, geraten die Übertragungsnetzbetreiber ins Schwitzen. Eine gehörige Mitgift erleichtert das „Geschäft“, damit zum Beispiel Österreich oder die Schweiz die hierzulande überflüssigen Strommengen annehmen und mit ihnen Wasser in ihre Pumpspeicher in den Alpen hinaufpumpen. Das lassen sie sich je nach Marktsituation gut bezahlen.

Der ökonomische Wert dieses Stromes ist gering, ihn benötigt zu dem Augenblick niemand. Er sinkt sogar noch weiter, je mehr Windräder die Landschaft zerstören. Nicht umsonst müssen die Verbraucher immer mehr für Strom bezahlen.

Kauft Kerzen

Es ist wie beim Bäcker, von dem morgens früh alle Brötchen kaufen wollen, nachmittags aber niemand mehr, und er dennoch munter weiter produziert, weil eben gerade der Ofen noch so schön warm ist. Wäre er Energiewender, würde er ins Rathaus marschieren und verlangen, daß ihm seine überflüssigen Nachmittagsbrötchen bezahlt werden. Man hätte sie ja abnehmen können.

Genügend Grund, sich freudig auf die Schenkel zu schlagen, haben allerdings Österreicher und Schweizer dann, wenn Wind und Sonne mal wieder nichts liefern, aber in Deutschland plötzlich Strommengen benötigt werden. Dann drehen sie die Schieber in den Alpen auf, lassen Wassermassen wieder herab, die Turbinen erzeugen Strom, den sie gern für teures Geld an die Piefkes im Nachbarland verkaufen. Dieser Spaß wird lediglich getrübt, wenn die Stauseen in den Alpen ziemlich leer sind.

Speicher in Batterieform für größere Mengen elektrischer Energie gibt es nicht; sie sind auch nicht am fernen Horizont in Sicht. Pumpspeicherkraftwerke in Deutschland sind rar, sie wären nach ein paar Stunden unter Volllast leergelaufen. Nicht umsonst liegt der beste Energiespeicher in chemischer Form als Kohle, Erdöl oder Gas vor.

Das neue knuffige Zauberwort der Stromversorger heißt „Spitzenglättung“. Auf deutsch: Strom abschalten. Die Stromversorger wollen ein Gesetz, nach dem sie den Strom einfach abschalten können, wenn keiner mehr da ist. Daher drängen sie auf die „Spitzenglättung“. Helfen sollen dabei digitale Smartmeter, die in alle Wohnungen eingebaut von Ferne auf Mausklick Strom ein- und ausschalten können. Rationierung des Stroms als letztes Mittel, die Energiewende zu retten.

Nicht umsonst empfiehlt die Bundesregierung: Kauft Kerzen!

Der Beitrag erschien zuerst bei JF hier

Zum Schluss noch ein gefälliges Video (leider mit einiger Werbung) was erklärt was am 8.1.21 geschehen ist und auch ahnen lässt, dass das Ende der Fahnenstange noch längst nicht erreicht ist.



Schaden durch Lockdown mindestens um das Fünffache höher als sein Nutzen – Studienüberblick

Wir sprechen von Ari Joffe, University of Alberta, Kanada:

“Ari Joffe, MD, FRCPC, is a specialist in Pediatric Critical Care and Pediatric Infectious Diseases, practicing at the Stollery Children’s Hospital in Edmonton since 1995. Ari is a Clinical Professor in the Department of Pediatrics and with the John Dossetor Health Ethics Centre, University of Alberta”

Die Arbeit von Ari Joffe liegt uns nicht nur nahe, weil sie so umfassend ist, Joffe beschreibt darin auch seine Entwicklung von einem, der SARS-CoV-2 angesichts der vielen Horrormeldungen und Studien, die sein Auftauchen begleitet haben, die mit nicht vorhandener Immunität, exponentieller Verbreitung und mehreren Millionen Toten geschockt haben, zunächst einmal vorsichtig und mit dem “besser auf der richtigen Seite irren”-Ansatz gegenübergetreten ist, zu einem, der die fast schon mutwillige Zerstörung von Gesellschaften und Wirtschaften durch Politiker, die offenkundig über keinerlei Möglichkeit verfügen, einmal begonnene Irrwege zu verlassen, bekämpft, eine Entwicklung, die der Entwicklung, die wir genommen haben, sehr ähnlich ist.

Gab es im Februar und im März des Jahres 2020 noch triftige Gründe, Non-Pharmaceutical Interventions, Lockdown, soziale Distanz und dergleichen zu unterstützen, so gibt es in der Zwischenzeit eine Vielzahl von Belegen, die zeigen, dass der beschrittene Weg ein Holzweg ist, den man besser gestern verlassen hätte.

Joffe, Ari (2020). COVID_19: Rethinking the Lockdown Groupthink.

Die Horrorgeschichten, die zu Beginn des letzten Jahres verbreitet wurden, sind dieselben, die noch heute verbreitet werden: Davon, dass die Intensivstationen den Ansturm der COVID-19-Erkrankten nicht verkraften, war und ist die Rede, von 7 Millionen Toten, die es ohne einen Lockdown schon im April 2020 gegeben hätte, war die Rede, später dann von 3,5 Millionen Toten, die durch Lockdowns verhindert worden seien:

” A war effort analogy is apt, with the “unquestioning presumption that the cause is right, that the fight will be won, that naysayers and non-combatants [e.g., not wearing a mask] are basically traitors, and that there are technical solutions [e.g., vaccine and drugs] that will quickly overcome any apparent problem or collateral damage.” (3)

Wenn es überhaupt eine Entwicklung bei Polit- und Journalisten-Darstellern gibt, dann die, dass Menschen, die diesen Horrorgeschichten kritisch gegenüberstehen, heute noch heftiger bekämpft werden als noch vor Monaten, eine normale Entwicklung, denn je mehr diejenigen, die Katastrophen an die Wand malen, mit ihren Prognosen daneben liegen, desto heftiger bekämpfen sie diejenigen, die auf diese Diskrepanz hinweisen. Und je mehr sich abzeichnet, dass Lockdowns die Pandemie nicht beeinflussen, bestenfalls in die Länge ziehen, desto mehr wird stur der Weg der Lockdowns beschritten und versucht, zu erzwingen, was gegen die Realität nicht durchzusetzen ist, und zwar ohne Rücksicht auf Verluste.

Schon 2011 haben Bonneux und Van Damme angemerkt, dass die damalige Influenza Pandemie der Jahre 2008/2009 von einer Kultur der Angst beherrscht wurde, in der nur für Worst-Case-Szenarien Platz gewesen sei und in der niemand derjenigen, die für sich in Anspruch nehmen, politische Entscheidungen zu treffen, auch nur auf die Idee gekommen wäre, die Kosten seiner Entscheidungen dem vermeintlichen Nutzen gegenüber zu stellen. Wo eine qausi religiöse Mission ausgeführt wird, da ergibt sich die Effektivität der eigenen Entscheidungen für diese Priester quasi aus der Heiligkeit der eigenen Mission.


Bonneux L & Van Damme W. (2011). Health is more than influenza. Bulleting World Health Organization 89:539-540.


Angesichts dessen, was seit Februar an Wissen über SARS-CoV-2 und die vom Virus ausgelöste Krankheit “COVID-19” bekannt geworden ist, ist eine Kosten-Nutzen-Rechnung, die den Nutzen eines Lockdowns den Kosten durch diesen Lockdown gegenüberstellt, längst überfällig. Joffe leistet sie in seiner Arbeit. Die folgenden Parameter sind für das Verständnis der präsentierten Ergebnisse von Bedeutung.

  • Die Infection Fatality Rate für SARS-CoV-2 ist gering: Von denen, die sich infizieren, sterben rund 0,23%.
  • Die Infection Fatality Rate ist altersgradiert: Unter 70jährige: IFR = 0,05%; Unter 45jährige: IFR = 0,00%; Über 70jährige: IFR = 1%, Personen in Alten- und Pflegeheimen: IFR = 25%. Das höchste Risiko, an COVID-19 zu sterben, haben also Menschen in Alten- und Pflegeheimen.
  • Schätzungen der WHO zufolge, sind weltweit 10% der Bevölkerung mit SARS-CoV-2 infiziert. Das entspricht zum Zeitpunkt der Schätzung einer IFR von 0,15%.
  • Personen in Alten- und Pflegeheimen machen rund 50% der COVID-19 Toten in Europa und den USA aus, rund 80% der COVID-19 Toten in Kanada.
  • Der Median der Überlebensdauer in Alten- und Pflegeheimen liegt unter normalen Umständen bei rund 2,2 Jahren, d.h. die Hälfte der Personen, die in Pflegeheimen lebt, stirbt vor 2,2 Jahren Aufenthalt, die Hälfte danach.
  • Die Sterberaten in Alten- und Pflegeheimen liegen in normalen Jahren bei rund 30%.
  • Alter ist der mit Abstand größte Risikofaktor im Hinblick auf die Sterblichkeit an COVID-19. Ko-Morbiditäten, Immunschwäche, Erkrankungen der Atemwege, Übergewicht, eine kürzliche Erkrankung an Krebs, sie spielen auch eine Rolle, aber eine viel geringere als Alter.
  • Die Grenze für Herdenimmunität, die für einen Reproduktionsfaktor von 2,5 bei 60% liegen soll, geht von homogenen Gesellschaften aus, deren Mitglieder gleichermaßen für SARS-CoV-2 empfänglich sind, gleiche Muster sozialer Kontakte und Begegnungen aufweisen und dergleichen. Eine Annahme, die offenkundig falsch ist. Junge Leute haben mehr Kontakte als alte, sind häufiger unterwegs, wechseln häufiger die Partner uvm. Wird bei Kontakten die Annahme in die Modelle aufgenommen, dass nicht alle Mitglieder der Bevölkerung dieselbe Anzahl sozialer Kontakte und dieselbe Anzahl sozialer Begegnungen haben, dann sinkt die Grenze für Herdenimmunität auf 48%, werden zudem individuelle Unterschiede in der Wahrscheinlichkeit, an COVID-19 zu erkranken, in Rechnung gestellt, dann sinkt die Grenze auf 10% bis 20%.

Dazu:

Aguas R, Corder RM, King JG, Goncalves G, Ferreira MU, Gomes MGM. Herd immunity thresholds for SARS-CoV-2 estimated from unfolding epidemics. medRxiv.

Britton T, Ball F, Trapman P. (2020). A mathematical model reveals the influence of population heterogeneity on herd immunity to SARS-CoV-2. Science 369(6505):846-849.

Gomes MGM, Corder RM, King JG, Langwig KE, Souto-Maior C, Carneiro J, et al. (2020). Individual variation in susceptibility or exposure to SARS-CoV-2 lowers the herd immunity threshold. medRxiv.


Vor dem Hintergrund der natürlichen Grenze zur Herdenimmunität (60%), die Polit-Darsteller zur richtigen und einzig relevanten Größe erklärt haben, stellt sich die Armut dessen, was derzeit als “Strategie” gegen SARS-CoV-2 verbreitet wird, in eklatanter Weise dar:

  • Lockdowns sind kein Mittel, um Herdenimmunität zu erreichen, denn es würde mehrere Jahre dauern, um dieses Ziel zu erreichen, vorausgesetzt Immunität gegen SARS-CoV-2, die mit Lockdowns kontrolliert erreicht werden soll, hält so lange vor;
  • Test-und-Trace-Systeme haben sich als nicht durchführbar erwiesen; Damit Herdenimmunität über Test-and-Trace-Systeme erreicht werden kann, müssten innerhalb eines halben Tages 75% der Kontakte infizierter Personen ermittelt werden.
  • Herdenimmunität ist durch Impfung nur dann zu erreichen, wenn Impfstoffe für eine lang anhaltende Immunität gegen Neuansteckung sorgen. Derzeit gibt es keinerlei Grund anzunehmen, dass die Impfstoffe von Biontech/Pfizer, Moderna oder Oxford/AstraZeneca diese Leistung erbringen.

Kurz: alle derzeit verfolgten Strategien führen nirgendwo hin. Derzeit verkaufen Politik-Darsteller eine Hoffnung, von der manche sicher wissen, dass es eine Täuschung ist, eine bewusste Täuschung, während es wohl auch Naive gibt, die tatsächlich glauben, eine der drei Strategien oder alle zusammen könnten erfolgreich sein (immer bezogen auf die Annahmen für Herdenimmunität der Polit-Darsteller, die sie machen, um den Lockdown zu rechtfertigen. Ginge man von einer geringeren Schwelle zur Herdenimmunität aus, dann wäre ein Lockdown in erster Linie nicht notwendig.).

Vor diesem Hintergrund hat sich Joffe die Frage gestellt, wie das Verhältnis aus Nutzen des Lockdowns zu den Kosten des Lockdowns ist und diese Frage beantwortet.

Bereits eine Auflistung der bisherigen Kollateralschäden ist erschreckend (wir beschränken uns auf Kollateralschäden in westlichen Ländern, wer sich für die Kollateralschäden in Entwicklungsländern interessiert, kann diese bei Joffe nachlesen):

  • Anstieg der Tode infolge von Herzinfarkt, Herz-Kreislauf-Erkrankungen, Krebserkrankungen aufgrund aufgeschobener Behandlung, entfallener Vorsorgeuntersuchungen oder einer Vermeidung, das Krankenhaus aufzusuchen, bei den entsprechenden Patienten;
  • Anstieg psychischer Erkrankungen;
  • Anstieg bei Selbstmorden;
  • Unerklärte Anstiege bei Dementia-Toten und Toten, die an Alzheimer sterben;

In mehreren Studien wird geschätzt, dass zwischen 20% und 50% des Anstiegs der Übersterblichkeit, der derzeit so medial verkauft wird, NICHT auf COVID-19, sondern auf Tote, die man als Kollateralschäden des Lockdowns bezeichnen muss, zurückzuführen sind.


Die entsprechenden Studien:

Docherty K, Butt J, de Boer R, Dewan P, Koeber L, Maggioni A, et al. (2020). Excess deaths during the Covid19 pandemic: an international comparison. medRxiv

Kontis V, Bennett JE, Rashid T, Parks RM, Pearson-Stuttard J, Guillot M, et al.(2020) Magnitude, demographics and dynamics of the effect of the first wave of the COVID-19 pandemic on all-cause mortality in 21 industrialized countries. Nature Medicine. DOI: https://doi.org/10.1038/s41591-010-1112-0.

Postill G, Murray R, Wilton A, Wells RA, Sirbu R, Daley MJ, Rosella LC. (2020). An analysis of mortality in Ontario using cremation data: rise in cremations during the COVID-19 pandemic. medRxiv

Woolf SH, Chapman DA, Sabo RT, Weinberger DM, Hill L, Taylor DDH (2020). Excess deaths from COVID-19 and other causes March-July 2020. Journal of the American Medial Association 325(15):1562-1565.


Joffe (2020).

Wie kann man nun die Kosten und den Nutzen berechnen, die mit dem Lockdown verunden sind? Joffe nutzt Konzepte, die schon seit Jahren in der Ökonomie, vor allem der Wohlfahrtsökonomie genutzt werden, QALY und WELLBY. Ersteres umschreibt den Versuch, die Anzahl der Lebensjahre (für eine Gesellschaft, also als Aggregatdatum) mit dem “gesundheitlichen Wohlbefinden” dieser Jahre (operationalisiert über die Erkrankungshäufigkeit und die Sterbewahrscheinlichkeit für bestimmte gesellschaftliche Gruppen) zu gewichten (= QALY Quality Adjusted Life Years). Letzteres umschreibt den Versuch, den Wert all dessen zu messen, das ein Leben zu einem erfüllten Leben macht, wobei hier ein Sammelmaß, nämlich die Lebenszufriedenheit zum Einsatz kommt: “Wie zufrieden sind Sie mit ihrem Leben”, so lautet die Frage, auf deren Basis die Ergebnisse aus entsprechenden Befragungen für gesellschaftliche Gruppen aggregiert werden. Man kann an dieser Vorgehensweise vieles aussetzen, aber sie hat zwei unschlagbare Vorteile: Zum einen ist es eine standardisierte Vorgehensweise, die die gleiche Messgrundlage für Kosten und Nutzen benutzt, zum anderen resultiert diese Vorgehensweise in quatifizierbaren Größen, die dafür sorgen, dass die Relation zwischen Kosten und Nutzen korrekt abgebildet wird. Gerechnet wird im vorliegenden Fall mit verlorenen Jahren. Eine Person, die im Vereinigten Königreich an COVID-19 verstorben ist, hatte im Durchschnitt noch 3,5 GESUNDE Jahre zu leben, das ergibt 3,5 QALY, aus denen man 18-30 WELLBY, je nach Studie, berechnen kann.

Wer sich für die Berechnung interessiert, sie kann hier nachgelesen werden:

Frijters P. (2020). The Corona Dilemma. Club Troppo.

Miles D, Stedman M, Heald A. (2020) Living with Covid-19: balancing costs against benefits in the face of the virus. National Institute Economic Review 253: R60-R76.


Das Ergebnis dieser Rechnungen bei Joffe ist in der folgenden Tabellen dargestellt:

Joffe (2020).

Durch einen Lockdown werden somit 380 Millionen Jahre weltweit, die Menschen noch gesund verbringen können, gerettet, während 1,8 Milliarden Jahre, die Menschen noch hätten gesund verbringen können, geopfert werden, fünfmal so viele.

In den Worten von Joffe:

“The cost-benefit analysis is shown in Table 6, finding on balance the lockdowns cost a minimum of 5X more WELLBY than they save, and more realistically, cost 50-87X more. Importantly, this cost does not include the collateral damage discussed above [from disrupted healthcare services, disrupted education, famine, social unrest, violence, and suicide] nor the major effect of loneliness and unemployment on lifespan and disease.”

Die Studie von Joffe ist nicht die einzige, die zu dem Ergebnis kommt, dass die Kosten, die sich mit Lockdowns verbinden, weit höher sind als der Nutzen:

Frijters P, Krekel C. (2020). “Chapter 5: Applying wellbeing insights to existing policy evaluations and appraisals”. In: Frijters P, Krekel C, (eds). A handbook for Wellbeing Policy-Making: history, theory, measurement, implementation, and examples. London: Oxford University Press (2020).

Fritjers und Krekel schätzen, dass die IFR, die die Kosten der derzeitigen Lockdowns rechtfertigen würde, 7,8% betragen müsste, und somit das 33fache der derzeitigen IFR.

Foster G. (2020). Cost-benefit analysis executive summary. Presented to Victorian Parliament in Australia.

Foster G. (2020). Early estimates of the impact of COVID-19 disruptions on jobs, wages, and lifetime earnings of schoolchildren in Australia. Australian J Labour Economics (2020) 23(2):129-151.

Foster kommt für Australien zu dem Ergebnis, dass die Kosten des Lockdown dessen Nutzen um das 6,6fache übersteigen.

Miles D, Stedman M, Heald A.(2020). Living with Covid-19: balancing costs against benefits in the face of the virus. National Institute Economic Review 253:R60-R76

Miles, Stedman und Heald schreiben für das Vereinigte Königreich, dass der Nutzen, der davon ausgeht, den Lockdown zu beenden, den Nutzen, der vom Lockdown ausgeht, um das 7,3 bis 14,6fache übersteigt.

Cutler DM, Summer LH. (2020). The COVID-19 pandemic and the $16 Trillion virus.Journal of the American Medical Association 324(15):1495-1496. [Accessed October

Cutler und Summer zeigen für Neuseeland [!sic], dass die Kosten des Lockdowns um das 97,9fache höher waren als der Nutzen.


Alle Ergebnisse gehen in dieselbe Richtung. Alle Ergebnisse zeigen, dass Polit-Darsteller derzeit mutwillig Gesellschaften und Ökonomien zerstören, um einen im Vergleich zu den Kosten minimalen Nutzen zu erreichen, der, wenn man gezielt Alten- und Pflegeheime sowie die besondere gefährdeten Bevölkerungsgruppen schützen würde, viel besser zu erreichen wäre.

Die Kosten für diese Poltiker-Folly werden natürlich, wie gewöhnlich, von allen getragen.

Der Beitrag erschien zuerst bei ScienceFiles hier




Grundgesetz: Professor Ahnungslos vom RKI

Bei Wikipedia kann man nachlesen, dass Brockmann am Robert-Koch-Institut die Projektgruppe P4 „Epidemiologische Modellierung von Infektionskrankheiten“ leitet. Im Ergebnis handelt es sich bei ihm also zweifellos um einen jener Experten am RKI, die von der Bundesregierung bei der Bewältigung der Corona-Pandemie zu Rate gezogen werden. Um so erstaunlicher ist es, welche Erklärungen er in dem Interview von sich gegeben hat, die juristisch betrachtet – gelinde formuliert – unhaltbar sind.

In dem Interview wird Brockmann unter anderem vorgehalten, dass Politiker und Juristen eine Beschränkung von Reisen auf 15 Kilometer als unverhältnismäßig kritisieren und dass es bessere, passgenauere Maßnahmen gebe, beispielsweise das Schließen von Skigebieten. Laut t-online antwortete Brockmann: „Ich lehne das Wort „unverhältnismäßig“ in diesem Zusammenhang ab. Da steckt ‚Verhältnis‘ drin. Das suggeriert, dass man Zahlen zum Zusammenhang zwischen Kontakten und Reisen kennt… Es gibt diese Daten nicht. Bisher wurde der Zusammenhang zwischen Reisen und der Anzahl der Kontakte nur wenig beziehungsweise unzureichend erforscht“.

Diese Aussage ist, wenn man ehrlich bleibt, ein geistiges Armutszeugnis. Es sollte jedem gebildeten Staatsbürger in Deutschland, auch Herrn Brockmann, mittlerweile klar sein, dass der Grundsatz der Verhältnismäßigkeit ein Rechtssatz ist und nicht nur die Beschreibung eines mathematischen Zusammenhangs von Zahlen. Der Grundsatz der Verhältnismäßigkeit hat darüber hinaus – dieses Wissen kann man bei einem Physik-Professor wahrscheinlich nicht erwarten, sondern nur bei einem Juristen – nach jahrzehntelanger Rechtsprechung des Bundesverfassungsgerichts Verfassungsrang!

Der Grundsatz der Verhältnismäßigkeit gilt also immer und in jedem Zusammenhang, auch im Zusammenhang mit Corona. Brockmanns Satz: „Ich lehne das Wort ‚unverhältnismäßig‘ in diesem Zusammenhang ab“ ist folglich absurd und schlicht unvertretbar. Brockmann hat erkennbar von Grundrechten und vom Verhältnismäßigkeitsgrundsatz so viel Ahnung, wie ein Medizinmann aus dem Busch Kenntnis hat von moderner Herzchirurgie: nämlich gar keine. Sein Satz, er lehne das Wort „unverhältnismäßig“ im Zusammenhang mit Corona ab, ist etwa so richtig, wie wenn er gesagt hätte, dass er im Zusammenhang mit Corona die Beachtung von Grundrechten ablehne. Leider gibt das Interview Anlass dafür, genau das zu vermuten.

Im juristischen Sinne völlig unverhältnismäßig

Die Antwort von Brockmann ist auch in einem weiteren Punkt bemerkenswert. Denn aus seiner oben erwähnten Antwort ergibt sich, wenn auch von ihm unbeabsichtigt, dass die Anordnung einer Beschränkung von Reisen auf 15 Kilometer im juristischen Sinne völlig unverhältnismäßig ist.

Für alle juristischen Laien, zu denen erkennbar Brockmann sowie einige Ministerpräsidenten in Deutschland gehören, sei daher an dieser Stelle ein kurze juristische Einführung in den Grundsatz der Verhältnismäßigkeit gegeben: Nach jahrzehntelanger Rechtsprechung des Bundesverfassungsgerichts und aller übrigen obersten Bundesgerichte ist eine staatliche Maßnahme nur dann verhältnismäßig, wenn sie geeignet ist, das beabsichtigte Ziel zu erreichen, wenn sie erforderlich ist, um das beabsichtigte Ziel zu erreichen und wenn sie verhältnismäßig im engeren Sinne ist, also nicht gegen das Übermaßverbot verstößt.

Das beabsichtigte Ziel ist klar definiert: Eine Absenkung der Infektionszahlen zur Eindämmung der Pandemie. Ist eine Beschränkung von Reisen auf 15 Kilometer geeignet, um dieses Ziel zu erreichen?

Klare Antwort: Nein! Sogar Brockmann, ein Experte für „Epidemiologische Modellierung von Infektionskrankheiten“, erklärt selbst in seiner oben zitierten Antwort, dass es keine Daten gibt, die einen Zusammenhang zwischen Reisen und Kontakten belegen und dass diese gesamte Frage bisher nicht erforscht ist! Es fehlt also bereits an einem Nachweis, dass die beabsichtigte staatliche Maßnahme der Beschränkung der Reisen auf 15 Kilometer überhaupt geeignet ist, um das beabsichtigte Ziel zu erreichen. Zumindest die Geeignetheit einer Maßnahme muss aber zweifelsfrei feststehen, wenn sie als Rechtfertigung für einen Eingriff in Grundrechte herhalten soll. Von der Erforderlichkeit der Maßnahme (gibt es nicht tatsächlich weniger einschneidende und mildere Mittel?) und der Verhältnismäßigkeit im engeren Sinne (schießt man hier nicht deutlich übers Ziel hinaus?) braucht gar nicht mehr gesprochen zu werden. Sie liegen beide zweifelsfrei ebenso nicht vor.

Aus der eigenen Antwort eines Experten des Robert-Koch-Instituts ergibt sich also bereits, dass die Beschränkung von Reisen auf 15 Kilometer Entfernung im Rechtssinne völlig unverhältnismäßig ist. Die Bundesregierung bzw. die Landesregierungen haben insoweit auch keinen Beurteilungsspielraum mehr und keine Einschätzungsprärogative. Im Gegensatz zum ersten Lockdown im Früjahr 2020, als man über das Corona-Virus so gut wie nichts wusste, keine Masken und keine Impfungen hatte und man eine Pandemie mit Millionen von Toten allein in Deutschland befürchten musste, wissen wir heute eine ganze Menge über das Virus, haben Masken und Impfmittel und können auch mit Sicherheit sagen, dass keine Millionen von Menschen in Deutschland an Corona sterben werden.

Ein Akt der Willkür und bloßer Aktionismus

Da nach den eigenen Angaben des RKI-Experten Brockmann keinerlei Zahlen und keine Forschung dafür vorliegen, dass ein Zusammenhang zwischen Reisen von mehr als 15 Kilometern Entfernung und vermehrten Kontakten und Infektionen besteht, liegt das generelle Verbot von Reisen von mehr als 15 Kilometern Länge nicht mehr im Beurteilungsspielraum der Regierenden, sondern stellt einen Akt der Willkür bzw. bloßen Aktionismus dar.

Brockmann offenbart in dem Interview, aber auch ansonsten, eine – vorsichtig formuliert – sehr eigenwillige Sichtweise auf die freiheitliche demokratische Grundordnung des Grundgesetzes. So erklärt er u.a.: „Generell gilt: Jede Reise, die nicht unternommen wird, schadet nicht“.

Diese Aussage lässt tief blicken. In der freiheitlichen demokratischen Grundordnung ist nämlich, was Brockmann offenbar nicht weiß, grundsätzlich erst einmal alles erlaubt, was nicht verboten ist. Das ergibt sich aus der allgemeinen Handlungsfreiheit (Art. 2 Abs. 1 GG). Der Staat darf nicht völlig willkürlich und nicht unverhältnismäßig irgendwelche Verbote erlassen. Vielmehr muss der Staat einen vernünftigen Grund vorweisen können, um in die Freiheit seiner Bürger eingreifen zu dürfen.

In einem freiheitlichen Rechtsstaat stellt sich also nicht die Frage, ob eine Reise „nicht“ schadet. Das ist eine Sichtweise, die in Diktaturen gehört. Sondern in einem freiheitlichen System ist die einzige Frage, „ob“ eine Reise schadet. Denn nur dann kann sie verboten werden! Sonst nicht. Die Denkweise, erst einmal prophylaktisch alles zu verbieten, was unter Umständen schaden könnte, gehört, wie bereits erwähnt, in Diktaturen, aber nicht in eine freiheitliche Demokratie.

Wenn es darum ginge, alles zu verbieten, was möglicherweise schaden könnte, müsste man nicht nur Reisen von mehr als 15 Kilometer Entfernung, sondern beinahe sämtliche Errungenschaften der modernen Gesellschaft verbieten. Hier nur einige Beispiele: Man müsste den Autoverkehr komplett verbieten, weil nachweislich durch den Autoverkehr jedes Jahr in Deutschland durchschnittlich mehr als 3.000 Menschen ums Leben kommen. Man müsste sämtliche Demonstrationen und den Zusammentritt des Bundestages verbieten. Überlegen Sie sich mal, welches Infektionsrisiko besteht, wenn sich 709 Abgeordnete des Bundestages bei den Debatten einfinden, dort Stunden lang debattieren und sich teilweise sogar lautstark beschimpfen. Man möchte gar nicht wissen, wie viele Aerosole und wie viele Tröpfchen dort umherschwirren und andere Menschen anstecken könnten. Und man müsste Computer und Internet – zumindest für die Allgemeinheit – verbieten, weil sie Strom benötigen, viel CO2-Ausstoß verursachen und von „schlechten“ Menschen missbraucht werden.

Das Modell der vorbeugenden Inhaftierung

Eine solche Herangehensweise, alles zu verbieten, was möglicherweise gefährlich werden könnte, wäre auch im Strafrecht interessant. Wenn jemand beispielsweise schon viermal rechtskräftig wegen Diebstahls verurteilt wurde, müsste er beim fünften Mal ohne Wenn und Aber – auch ohne komplizierte und mühevolle Gerichtsverhandlung – sofort eingesperrt werden. Denn er könnte ja möglicherweise wieder stehlen gehen. Und eine solche Prognose wäre statistisch nicht einmal von der Hand zu weisen. Denn es ist wissenschaftlich erwiesen, dass jemand, der ein bestimmtes Verhaltensmuster erlernt hat und mehrfach einschlägig zuvor verurteilt wurde, auch in Zukunft mit signifikant höherer Wahrscheinlichkeit wieder eine solche Straftat begehen wird als ein unbescholtener Bürger aus der Durchschnittsbevölkerung.

Das Modell der vorbeugenden Inhaftierung hatten wir übrigens schon einmal in Deutschland zwischen 1933 und 1945. Damals wurden auch missliebige Personen ohne Gerichtsverhandlung in „Schutzhaft“ genommen, weil angeblich die Gefahr bestand, sie könnten weitere Straftaten begehen oder dem System gefährlich werden.

Dieses drastische Beispiel zeigt, wie absurd eine solche Denkweise ist, prophylaktisch alles zu verbieten, was gefährlich werden könnte, und dass diese Denkweise in einer freiheitlich-demokratischen Grundordnung nach dem Grundgesetz nichts zu suchen hat. Die Tatsache, dass Brockmann anscheinend nicht viel von Freiheit hält, wird auch noch an einer anderen Stelle des Interviews deutlich.

Auf das Ansprechen der Ein-Personen-Regel (dass sich also die Angehörigen eines Haushalts nur noch mit einer einzigen haushaltsfremden Person treffen dürfen), antwortet Brockmann:

„Das ist die sinnvollste Regel überhaupt! Es sprengt die Kontaktnetzwerke, zerstückelt sie. Das ist das wichtigste.“

Wenn man die Situation allein und ausschließlich unter dem Blickwinkel der Absenkung der Infektionszahlen betrachtet, hat Brockmann sicherlich recht. Aber mit einem freiheitlichen Staat, der seinen Bürgern Grundrechte, unter anderem das Recht auf Freizügigkeit und Berufsfreiheit garantiert, hat das nicht mehr viel zu tun. Außerdem blendet Brockmann die negativen Folgen solcher Beschränkungen einerseits für die Menschen und ihre Bedürfnisse, andererseits für die Wirtschaft, die unser aller Lebensgrundlage darstellt, völlig aus. Er orientiert sich leider völlig einseitig nur an dem Ziel, die Infektionszahlen zu senken.

Sofern man die Aussage von Brockmann zugrunde legen würde, nämlich um jeden Preis die Kontaktnetzwerke zu „sprengen“ und zu „zerstückeln“, läge die effektivste Bekämpfung der Infektionszahlen zweifellos darin, alle Deutschen, mit Ausnahme der Menschen in systemrelevanten Berufen, einzusperren und zu isolieren, entweder im Gefängnis oder in einem geschlossenen Krankenhaus oder bei sich zu Hause. Man müsste auf jeden Fall verhindern, dass sich noch eine nennenswerte Zahl von Menschen in Deutschland frei auf den Straßen bewegt. Vielmehr wäre es nach Brockmann sinnvoll, eine Friedhofsruhe herzustellen, bei der sich niemand mehr anstecken könnte. Das würde dann aber leider sehr den Verhältnissen in Nordkorea ähneln.

Von unserer Rechts- und Werteordnung keine Ahnung

Auch an einer weiteren Stelle wird Brockmanns problematisches Verständnis von unserer Gesellschaftsordnung nach dem Grundgesetz deutlich.

Er führt u.a. aus: „Wir brauchen einen System-Switch, glaube ich. Die Dauer des Lockdowns würde ich nicht mehr von einem Datum abhängig machen, sondern von der Inzidenz“.

Mit einem solchen Unterfangen hätten wir einen unbefristeten Lockdown (!), und die Bevölkerung dürfte sich in ängstlicher Neugier täglich die Inzidenzzahlen angucken, ob dort eine Besserung in Sicht ist. Auch das erinnert leider fatal an Diktaturen, die wir in Deutschland schon hatten, als beispielsweise während des Zweiten Weltkrieges die Menschen gläubig die Wehrmachtsberichte von den Geschehnissen an der Front hören oder während der Zeit des Arbeiter- und Bauernstaates die Erfolge der sozialistischen Wirtschaft in den Fünfjahresplänen zur Kenntnis nehmen durften. Beide Diktaturen waren nicht sehr menschenfreundlich und auf Dauer nicht erfolgreich. Sie dürften daher kaum als Vorbild für die Bewältigung der heutigen Aufgaben in der Bundesrepublik dienen.

Brockmann und andere „Experten“, zu denen anscheinend auch mancher Ministerpräsident gehört, mögen zwar viel über Corona und die Ausbreitung von Infektionen wissen. Von unserer Rechts- und Werteordnung nach dem Grundgesetz, zu der auch die Abwägung von Belangen und der Verhältnismäßigkeitsgrundsatz gehören, haben sie aber offenbar keine Ahnung. Oder, was ebenso schlimm wäre, sie ignorieren sie, um die eigene Macht und das eigene Prestige zu bewahren.

 

Der Autor ist Richter an einem deutschen Gericht und schreibt hier unter Pseudonym.

Der Beitrag erschien zuerst bei ACHGUT hier




Europa ist vorgestern wohl gerade an einem Blackout vorbeigeschrammt

Das europäische Stromnetz ist ein meist verlässliches, aber auch fragiles System. Es bringt sich diesbezüglich hin und wieder in Erinnerung.

Freitag, 8. Januar 2021, 13:04:55 Uhr (MEZ)

Zu diesem Zeitpunkt kam es im europäischen Höchstspannungsnetz (ENTSO-E) zu einem deutlichen Frequenzeinbruch. Innerhalb von 14 Sekunden erfolgte ein Frequenzabfall von 50,027 auf 49,742 Hertz.

Damit wurde der Regelbereich mit einer Untergrenze von 49,8 Hertz verlassen, eine ernsthafte Gefahr bestand noch nicht. Die in diesem Fall vorgesehenen Maßnahmen – Einsatz positiver Regelenergie, Stopp des eventuellen Pumpbetriebes in Pumpspeicherwerken – reichten aus, nach wenigen Sekunden die Frequenz wieder über die 49,8 Hertz nach oben zu bringen. In folgendem Bild wurde der oben gelb angegebene Bereich nur kurzzeitig nach links überschritten, dennoch war es der stärkste Frequenzeinbruch seit November 2006 (der damals zu einem großflächigen Blackout in Westeuropa führte):

Zunächst gab es Unklarheit zur örtlichen Herkunft der Störung, die sich aber bald dem Versorgungsgebiet der Transelectrica im Nordwesten Rumäniens, auf Transsilvanien und Siebenbürgen, zuordnen ließ. Zu den Ursachen gibt es noch keine Erkenntnisse, eher offene Fragen: Ein Kraftwerksausfall, selbst mehrerer Blöcke, hätte einen solchen Einbruch kaum verursachen können. Missverständnisse im Handelsgeschehen können auch ausgeschlossen werden, denn der Zeitpunkt lag deutlich nach der vollen Stunde. Eine großflächige Abschaltung des regionalen Netzes in Rumänien wiederum hätte die Frequenz nach oben und nicht nach unten abweichen lassen. Gesicherte Informationen muss man abwarten.

Bei deutschen Netz- und Kraftwerksbetreibern liefen entsprechende Meldungen aus der Leittechnik auf. In Frankreich, das zu diesem Zeitpunkt viel Strom importierte, wurden Verbraucher aufgefordert, ihren Bezug zu verringern.

Gridradar.net äußerte sich zu begünstigenden Faktoren. Zum einen ist derzeit die Last pandemiebedingt geringer, was zur Folge hat, dass weniger konventionelle Kraftwerke am Netz sind. Dadurch sinkt der Effekt der rotierenden Massen, die im Netzverbund die Mikroschwankungen wegbügeln und die in einem solchen Störfall die erste Verteidigungslinie bilden. Ein 500-Megawatt-Braunkohleblock bringt zum Beispiel mit seinem Turbosatz 170 Tonnen Schwungmasse – vom Turbinen-Hochdruckteil bis zum Generator-Induktor – auf die Waage. Diese Masse an Stahl und Kupfer und einer Drehzahl von 3.000 Umdrehungen pro Minute stellt eine erhebliche Schwungmasse dar. Gekoppelt über das Netz sind also mehrere tausend Tonnen Massenträgheit mit dem entsprechenden Drehmoment wirksam.Mit der sinkenden Zahl in Betrieb befindlicher Turbo-Generator-Sätze geht nicht nur die Massenträgheit, sondern auch die Menge der verfügbaren Primär- und Sekundärregeleistung zurück, die nur von konventionellen Kraft- und Pumpspeicherwerken bereit gestellt werden kann. Die innerhalb weniger Sekunden erforderliche Primärregelleistung könnte auch durch Großbatterien erbracht werden, dies jedoch zu erheblichen Kosten und gegenwärtig sind sie nicht in nennenswerter Zahl verfügbar.

Was leisteten die massenhaft installierten Wind- und Solaranlagen in Deutschland im fraglichen Zeitraum? Bei einer Netzlast von 66,26 Gigawatt (GW) um 13 Uhr lieferten sie gemäß Einspeisevorrang des EEG alles, was sie konnten: 4,34 GW Windstrom (6,5 Prozent des Bedarfs) und 2,12 GW Solarstrom (3,2 Prozent)1. Da sie in keiner Form an der Netzregelung und Netzdienstleistungen beteiligt sind, waren sie bezüglich der Störung weder betroffen noch beteiligt. Sie waren, um eine populäre Kanzlerinnenformulierung zu gebrauchen, „nicht hilfreich“. Eine frequenzstabilisierende Wirkung durch die Massenträgheit der Rotoren der Windkraftanlagen gibt es nicht, da die Netzkopplung elektrisch über Umrichter erfolgt. Der erzeugte Gleichstrom wird in eine digitalisierte Sinuskurve überführt und als Drehstrom abgeführt, bei zu starker Abweichung von der Netzfrequenz schalten sich die Anlagen ab.

Nun soll ausgerechnet der massenhafte Ausbau dieser Technologien das künftige Stromversorgungssystem dominieren. Die Fragen der rotierenden Massen, der Frequenzhaltung und der Spannungsregelung wird im Zusammenhang mit dem fortschreitenden Zubau volatiler Einspeiser schon lange in der Branche diskutiert. Nur im politischen Raum mit der ausschließlich CO2-zentrierten Sicht auf die Energieversorgung nicht. Schon längst hätte man den „Erneuerbaren“ Systemverantwortung übertragen müssen.

Unterdessen steigt die Anfälligkeit des Systems durch immer höhere Komplexität, durch die erhöhte Einspeisung von Strom in die unteren Spannungsebenen (dezentrale Erzeugung, vor allem regenerativ), durch verstärkten Handel, durch stärkere Erzeugungsschwankungen und Verringerung der gesicherten Einspeisung.
Einige Störungen aus jüngerer Vergangenheit zeigen verschiedene Ursachen. Bedenklich dabei ist, dass einige Ereignisse nicht oder nicht vollständig aufgeklärt werden konnten:

14. Dezember 2018: Abschaltungen von Teilen der deutschen Aluminiumindustrie („Prognosefehler bei den erneuerbaren Energien aufgrund einer komplexen Wetterlage“).

10. Januar 2019: Frequenzabfall auf 49,8 Hz – zwei gestörte Kraftwerke in Frankreich, in Verbindung mit einer defekten Messstelle im Netz. Dennoch hätte es diesen Einbruch nicht geben dürfen

24. Januar 2019: Überfrequenz von fast 50,2 Hz, Ursache unbekannt, evtl. hat sich das Netz „aufgeschaukelt“.

3. April 2019: Frequenzabfall 49,84 Hz – Ursache unklar

20. Mai 2019 „Alarmstufe rot“ bei Swissgrid

6., 12. und 25. Juni 2019: bis zu 7 GW Unterdeckung im deutschen Netz – Auswirkung des „Mischpreisverfahrens“ – Spotmarktpreis höher als Regelenergiepreis, Bilanzkreisverantwortliche haben gepokert. Inzwischen sind die Regularien geändert.

7. Juni 2019 Datenpanne bei der europäischen Strombörse EPEX, dadurch Entkopplung des europäischen Marktes. Ursache war vermutlich ein „korruptes“ Datenpaket.

8. Januar 2021 Unterfrequenz 49,742 Hz ?

(Aufzählung nicht vollständig)

Wie man sieht, können die Störungsursachen vielfältig sein und unglückliche Kombinationen verschiedener Ursachen unabsehbare Folgen haben. Dass die richtunggebende Politik dies wahrgenommen hat, ist nicht zu erkennen.

Daten aus: https://energy-charts.info/

Der Beitrag erschien zuerst bei TE hier




Neue grüne Energiewelt: Rationierung aus Mangel war mal Stromsperre ist jetzt Spitzenglättung

Die Netzfrequenz von 50 Hertz ist die Regelgröße, die unter allen Bedingungen eingehalten werden muss, um einen Kollaps zu vermeiden. Dazu braucht es das Gleichgewicht von Erzeugung und Verbrauch. Da der volatile, unplanbare Anteil an der Erzeugung stetig zunimmt, die Anzahl der regelbaren Kraftwerke aber ab, müssen sich Verbraucher mit steuerbaren Verbrauchseinrichtungen künftig an der Systemregelung beteiligen. Sie können sich auch dagegen entscheiden, zahlen dann aber mehr.

Spitzenglättung wie bei Struwelpeter, Bild Strom R. Schuster, Scherenmann: Struwelpeter, Komposition EIKE Redaktion

Kurz vor Weihnachten und medial fast unbeachtet wurde das „Steuerbare-Verbrauchseinrichtungen-Gesetz (SteuVerG)“ in die Abstimmungsrunden gegeben, der zustimmende Beschluss ist absehbar. Es soll die Gleichzeitigkeit des Strombezugs bei denjenigen Stromverbrauchern beeinflussen, die steuerbar sind wie die Betreiber von Wärmepumpen, Elektroheizungen, Wallboxen oder auch die Prosumer, die nicht nur Verbraucher, sondern auch Erzeuger sind. Durch zeitweise, variable und wechselseitige Abschaltungen sollen örtliche Überlastungen wie auch ein Teil des aufwändigen Netzausbaus vermieden werden. Es ist eine Form des geregelten Brownouts, die den Blackout verhindern soll. In jedem Fall muss dieses System flächendeckend zur Anwendung kommen, denn absehbar werden Zeiten kommen, in denen unsere Nachbarländer mit der Aushilfe im deutschen Netz überfordert sein werden. Selbst in der verbrauchsarmen Weihnachtszeit schwankten Export und Import kräftig. Schoben wir am 28. Dezember 2020 noch mehr als 12 Gigawatt über die Grenzen, brauchten wir einen Tag später fast 5 Gigawatt retour. Der deutsche Außenhandelssaldo  weist beim Strom noch einen Überschuss von mehr als 19 Terawattstunden auf, geht aber seit 2017 (52 Terawattstunden) kontinuierlich zurück. Die Importmenge erhöhte sich seit 2016 von 14 auf 33 Terawattstunden. Bei diesem Strom von außen herrscht betretenes Schweigen zu seiner Herkunft. Während heimischer Atom- und Kohlestrom verteufelt wird, ist der graue Importstrom grundsätzlich positiv.

So sieht es in der Praxis aus, wenn „Wind, Sonne und Co. die Oberhand über fossile Kraftwerke erlangen“, wie strom-report.de begeistert berichtet, weil 2020 mehr als 50 Prozent des Stroms von „Erneuerbaren“ geliefert wurde. 47 Versorger erhöhen 2021 die Preise, trotz staatlicher Deckelung der EEG-Umlage. Grund sind steigende Netzentgelte.

Ein anderes Windraftvorreiterland, Dänemark, ist Vizemeister beim Strompreis und hat ähnlich starke Schwankungen des Stromsaldos zu verzeichnen. Am 29. Dezember importierte das Land ein Drittel seines gesamten Strombedarfs. Bei fünfeinhalb Millionen Einwohnern und wenig Großindustrie ist das machbar, zumal mit Norwegen und Schweden sichere Lieferanten zur Verfügung stehen.

Die Macht der Paragrafen

Der Entwurf des SteuVerG enthält 5 Artikel, die Änderungen in anderen Regularien wie zum Beispiel dem Energiewirtschaftsgesetz bewirken. Insgesamt 61 Seiten sind nötig, dies zu formulieren und erklären. Es sind dann – nach meiner Zählung und ohne Gewähr – 26 nationale Gesetze zum Energiesystem in Kraft, hinzu kommen mindestens 33 Verordnungen und 26 EU-Strategien, -Verordnungen, -Richtlinien und -Leitlinien. Noch vor zwanzig Jahren kam das Energierecht mit 200 Einzelnormen aus, heute sind es etwa 13.750. 

„Kein Staat kann ohne Recht, kein Recht ohne Staat bestehen“, wusste der alte Römer Aurelius. Tacitus. Ein anderer alter Römer und später lebend, formulierte dann wohl Erfahrungen mit dem Rechtssystem: „Der verdorbenste Staat hat die meisten Gesetze.“

Dieses Wachstum der Regularien ist allerdings folgerichtig. Die Energiewende als staatsplanerisch angelegtes Projekt zwingt zu immer weiteren Detailregelungen mit zunehmender Regelungstiefe, weil marktliche Selbstregelung nicht mehr stattfindet. Jede neue Regelung schafft Umgehungstatbestände, denen dann wiederum begegnet werden muss. Die Kreativität der Erneuerbaren-Investoren geht nicht mehr in den technischen Fortschritt (die Anlagen sind weitgehend ausentwickelt), sondern in das Anzapfen möglichst vieler Fördertöpfe und Subventionen. Dabei schützt die Politik vor eventuellen Belastungen. Selbst die in der EEG-Novelle festgelegte Vergütung, die Windkraftinvestoren an betroffene Kommunen zahlen müssen, wird über die Netzentgelte, also durch alle Stromverbraucher, finanziert.

Technisch ist es natürlich möglich, die Verbraucherseite zu regeln, die Idee des demand site managements (DSM) gibt es schon lange. Absehbar ist aber, dass man dieses Instrument nur bis zu einem gewissen Umfang ausbauen kann. Zum einen entstehen den Netzbetreibern wie den Kunden Kosten, zum anderen muss man die teilnehmenden Kunden belohnen für ihren Beitrag. Das geht realistisch nur über den Strompreis. Wer für seine regelbare Verbrauchsstelle durchgängig Strom haben möchte, wird künftig kräftig draufzahlen. Wer sich abschalten lässt zahlt weniger. Je länger, öfter und flexibler er sich abschalten lässt, umso billiger der Strom. Auch dadurch wird sich die soziale Spaltung des Landes verstärken. Wer wenig Geld hat und sparen muss, bekommt seltener Strom. Der normale Haushaltsstrom soll davon ausgenommen sein. Wie lange noch? Regelungen zu planmäßigen Lastabwürfen der Haushalte (load-shedding) sind international durchaus üblich, zum Beispiel in Südafrika.

Da seit Jahrzehnten keinerlei Aktivitäten erfolgen, die „Erneuerbaren“ grundlast- und regelfähig zu machen, wird auch das DSM an Grenzen stoßen. Wir wollen zwar mit aller Kraft dekarbonisieren, aber es gibt kein Zielbild für das künftige Energiesystem. Welcher Strommix soll es sein? Im Netz wird es zunehmend spannender, zeitweise wird es eben auch spannungslos sein.

Die Regelung und die Speicherung des Stroms verschiebt man auf das Wunderelement Wasserstoff. Für die Kohle- und Kernkraftwerke gibt es in Gesetzen fixierte Abschalttermine beziehungsweise Ausschreibungen zu solchen Terminen. Wann wir Wasserstoff aus marokkanischer oder australischer Sonnen- und Windkraft bekommen werden oder aus einem im Kongo noch zu bauenden Wasserkraftwerk samt Staudamm, wie von deutschen Politikern ins Auge gefasst, ist zeitlich offen und auf der Kostenseite nicht kalkulierbar. Aber der Glaube daran ist fest.

Das Gesetz wird problemlos den Bundestag passieren. Die praktische Umsetzung dürfte sich über viele Jahre hinziehen und die Unterdeckung im deutschen Netz wird zunehmen. Spitzenglättung in absehbaren Zeiten des Mangels bedeutet nichts anderes als Rationierung. Es klingt aber besser.

Ergänzung der Redaktion

Der Artikel erschien unter einer anderen Überschrift zuerst bei TE hier

Leser R.J. Machte dazu folgenden Vorschlag

Sehr geehrter Herr Hennig, vielen Dank für diese Analyse. Gleichwohl würde ich mich vor Pessimismus und Spott hüten wollen. Sie erwähnen den Wasserstoff. Das ist der Stoff, aus dem Wasser ist, darum heißt er ja so. Wasser kreist in der Attmossfähre wie Strom. Folglich kreist auch Stoff. Stoff ist für alle da. Doch dies nur am Rande. Alles ist mit kulturell sensibler, diskriminierungsfreier 1-2-3-viele-Mathematik genau ausgerechnet. Sie können es schon der genialen Doktorarbeit von Dr. Merkel entnehmen (die nicht ohne Grund gesperrt ist, na sehen Sie). Mit dem Kongoo ist das so. Der Staudamm hat einen Wasserstoffabscheider. Wenn das Wasser über denselben flutet, wird an ökologisch einwandfreien Nanorechen (Patent Dr. Habeck, aus natürlich gefallenem Hanf hergestellt) ganz ohne Zusatzstoffe der Wasserstoff abgestreift. Sauerstoff zum Atmen bleibt übrig. Sie fragen sich, woher die erforderliche Energie kommt. Nun, hier konnten die Physiker*innen Dr. Roth & Dr. Künast die Heisenbergsche Unschärferelation erweitern. Nach dieser kann man ja Energie borgen, wenn man sie eine Zeit später zurückgibt. Die numerischen Beträge hängen vom Planckschen Wirkungsquantum ab. Wenn man das passend vergrößert (Parteitagsbeschluss), geht das Borgen über Jahrhunderte. So schlägt man den Physikern der AfD ein Schnippchen. Ein weiterer Trick ist dabei. Im Vakuum, besonders im geistigen, entstehen laufend virtuelle Teilchen und Antiteilchen, die sich sodann annihilieren. Diese Annihilationsenergie kann man nutzen, wenn man auf beschriebene Weise die Zeitskalen streckt. Ich hörte diese geniale Idee von Prof. Altmaier und Prof. Dr. Dr. Dr. Prof. Dr. Dr. Dr. Prof. Lauterbach-Lauterbach. Es klingt wie ein Perpetuum mobile, ist aber etwas ganz anderes: ein Perpetuum merkile. In diesem Sinne: ad multos annos.

 




RKI zu PCR-Tests: Corona-Inzidenz unter 100 nicht erreichbar

Am 5. Januar haben die Ministerpräsidenten über eine Verlängerung und Verschärfung der Ausgangsbeschränkungen beraten. Als Grenzwert soll künftig eine Inzidenz von 100 Coronafällen pro 100.000 Einwohnern dienen.

Nicht nur betreffen derartige Einschränkungen damit „faktisch fast ganz Deutschland„, wie es aus den Ländern heißt. Die Maßnahmen könnten noch dazu nie wieder aufgehoben werden. Denn dieser Wert könne selbst von einer nachweislich gesunden, vollständig durchgetesteten Bevölkerung nicht unterschritten werden.

So schreibt das RKI: „Ein negatives PCR-Ergebnis schließt die Möglichkeit einer Infektion mit SARS-CoV-2 nicht aus“ und spricht von einer Spezifität von „nahezu 100 Prozent“. Beides lässt vermuten, dass PCR-Tests nicht fehlerfrei sind. An anderer Stelle schreibt das RKI:

Wie bei allen Testverfahren mit einer Spezifität < 100 % ist – insbesondere bei einer geringen [Verbreitung] in der Bevölkerung – ein gewisser Anteil falsch positiver Testergebnisse unvermeidbar.“

Letzteres lässt darauf schließen, dass insbesondere bei einer kleinen Anzahl tatsächlich Erkrankter die Aussagekraft der Tests nachlässt. Das bedeutet im Umkehrschluss: Je mehr Menschen tatsächlich infiziert sind, desto zuverlässiger sind die Ergebnisse.

Bereits eine Fehlerquote von 0,1 Prozent – bei einer angenommen Test-Genauigkeit von 99,9 Prozent – führt jedoch dazu, dass unter 100.000 nachweislich gesunden Menschen 100 falsch-positive Testergebnisse zu erwarten sind. Eine Lockerung der beschlossenen Maßnahmen wie Ausgangssperren, Beschränkung des Mobilitätsradius und der Zeit im Freien, wäre daher unmöglich.

Auch der kleinste Fehler ist ein Fehler

Entscheidend für die (statistische) Qualität eines Tests sind zwei Größen: Die Sensitivität und die Spezifität. Sucht man mit einem Test in einer Bevölkerung nach einer Erkrankung oder einem Erreger, gibt es zwei Ziele:

    • Der Test sollte zuverlässig alle finden, die wirklich krank sind, also niemanden übersehen – daraus ergibt sich die Sensitivität.
    • Der Test sollte zuverlässig nur die finden, die wirklich krank sind, also bei niemandem positiv ausfallen, der nicht krank/infiziert ist – das ergibt die Spezifität.

Die Sensitivität gibt an, bei wie viel Prozent der Tests das untersuchte Merkmal (COVID-19) korrekt erkannt wird, also ein „richtig-positives“ Testresultat auftritt. Die Spezifität hingegen gibt die Wahrscheinlichkeit an, mit der tatsächlich Gesunde richtigerweise als gesund beziehungsweise „richtig-negativ“ erkannt werden. Je größer diese Werte liegen, desto besser ist der Test. Dennoch übersieht jeder Test mit einer noch so kleinen Fehlerrate einen Teil der tatsächlich Kranken oder Infizierten.

Das heißt, der Test zeigt negative Testergebnisse bei Menschen, die eigentlich hätten positiv ausfallen müssen, sogenannte „falsch-negative Ergebnisse“. Außerdem kann der Test positive Testergebnisse bei Menschen anzeigen, die eigentlich hätten negativ ausfallen müssen, weil diese Menschen nicht krank/infiziert sind, sogenannte „falsch-positive Ergebnisse“.

Antigen- und PCR-Tests: Fehlerquote 0,1 bis 30 Prozent

Das Robert Koch-Institut (RKI) gibt für PCR-Tests weder für Spezifität noch Sensitivität exakte Werte an. In den Antworten auf Häufig gestellte Fragen hießt es:

Aufgrund des Funktionsprinzips von PCR-Tests und hohen Qualitätsanforderungen liegt die analytische Spezifität bei korrekter Durchführung und Bewertung bei nahezu 100 %.“

Nahezu 100 Prozent kann 99,9 Prozent oder 95 Prozent bedeuten – beides ergibt mathematisch korrekt gerundet 100 Prozent. Eine im April 2020 erfolgte Qualitätskontrolle unter der Leitung von Prof. Zeichhardt vom Institut für Qualitätssicherung in der Virusdiagnostik gab die durchschnittliche Spezifität der PCR-Tests (Untersuchung des Rachenabstrichs auf Coronaviren) mit 99,3 Prozent an. Unabhängig davon bezifferte eine Studie der Johns Hopkins School of Medicine die Sensitivität dieses Testverfahrens unter realen Bedingungen und den Testkriterien in Deutschland auf etwa 70 Prozent.

Für Antigen- oder Schnelltests nennt das RKI in einem Eckdaten-Papier des lokalen Corona-Monitorings für Straubing exakte Zahlen. Hierbei liegt die Sensitivität bei 88,3 Prozent. Die Spezifität gibt das RKI mit 99,4 Prozent an.

Sowohl für PCR- als auch Schnelltests gilt jedoch, dass die unsachgemäße Anwendung zu Fehlern führen kann. Das hat auch die WHO erkannt und warnt ausdrücklich: PCR-Anwender „sollten [die] Gebrauchsanweisungen sorgfältig lesen“. Je nach Hersteller steht dort, dass der Test für Patienten bestimmt ist, „die Symptome der COVID-­19 aufweisen“. Im Umkehrschluss bedeutet das, PCR-Tests sind nicht für die Untersuchung asymptomatischer Personen vorgesehen. Die angegebenen Fehlerquoten können daher nur für symptomatische Patienten gelten.

Sofern nicht anders angegeben, werden für die nachfolgende Betrachtung sowohl Spezifität als auch Sensitivität für PCR-Tests von 99,9 Prozent angenommen.

19 von 20 „positiv Getesteten“ sind gesund

Aus Sensitivität und Spezifität ergeben sich zwei weitere statistische Größen, die die Genauigkeit der Testergebnisse veranschaulichen. Der positive Vorhersagewert (positive predictive value, PPV) gibt die Wahrscheinlichkeit an, mit der ein positiv erhobenes Testergebnis tatsächlich auf eine COVID-19-Erkrankung hinweist. Der negative Vorhersagewert (NPV) gibt analog die Wahrscheinlichkeit an, mit der ein negatives Testergebnis richtig ist.

Die mathematischer Herleitung erfolgt anhand einer Vierfeldertafel mit den Merkmalen „infiziert/nicht infiziert“ und „positiv/negativ getestet“. Darüber hinaus bietet das Internet Werkzeuge zur Ermittlung der beiden statistischen Kenngrößen. [Hinweis der Redaktion zur richtigen Rechenweise: Beim Online-Tool besteht die virtuelle Testgruppe aus zehntausend statt einhunderttausend Personen, sodass die täglich veröffentlichten Inzidenz-Werte durch zehn geteilt werden müssen, um ein realistisches Bild zu erhalten.]

Für die angenommenen Werte für Sensitivität und Spezifität von je 99,9 Prozent sowie der aktuellen (9. Januar 2021) bundesweiten Corona-Inzidenz von 154 Fällen pro 100.000 Einwohnern – vorausgesetzt alle gemeldeten Fälle (0,15 Prozent der Bevölkerung) sind tatsächlich infiziert – ergibt sich ein PPV von 60,98 Prozent. Das heißt, 60 Prozent der positiven Tests liegt tatsächlich eine Corona-Infektion zugrunde. Gleichzeitig bedeutet dieser Wert jedoch auch, dass 40 Prozent oder etwa jedes zweite positive Testergebnis falsch ist.

Mit den Werten von Prof. Zeichhardt und der Johns Hopkins School of Medicine sinkt der PPV für PCR-Tests auf 13,7 Prozent oder „nur jeder Achte Positive ist infiziert“. Ein Antigen-(Schnell-)Test zeigt unter Annahme praxisnaher Werte von 80 Prozent Sensitivität und 98 Prozent Spezifität nur in 5,7 Prozent der Fälle ein richtig-positives Ergebnis an. Das heißt, 19 von 20 positiv Getesteten sind gesund.

Corona-Inzidenz unter 100 mit PCR-Tests nicht erreichbar

Für den niedersächsischen Landkreis Friesland registrierte das RKI am 10. Januar 42 Corona-Positive pro 100.000 Einwohner (7-Tage-Inzidenz). Wiederum unter der Voraussetzung, dass alle Positiven tatsächlich infiziert sind, ergibt sich dort ein PPV (für 99,9 Prozent genaue PCR-Tests) von 29,0 Prozent. Das heißt: Nur einer von vier positiv Getesteten ist tatsächlich infiziert. Der Schnelltest-PPV liegt bei etwa 1,5 Prozent.

Im sächsischen Landkreis Bautzen betrug die 7-Tage-Inzidenz 545,4 (RKI-Dashboard, 10.1., 12:50 Uhr). Der dazugehörige PPV liegt bei 85,1 Prozent: Fünf von sechs PCR-Positiven sind tatsächlich infiziert. Der PPV für Schnelltests liegt unter diesen Umständen bei 18,2 Prozent.

Steigt die Prävalenz – die Zahl der tatsächlich Infizierten –, steigt auch die Genauigkeit der Tests. Andererseits zeigt auch ein zu 99,9 Prozent zuverlässiger Test 0,1 Prozent Fehler an. In einer vollständig Corona-verseuchten Bevölkerungsgruppe von 100.000 Personen sind daher immer noch 100 falsch-negative Testergebnisse zu erwarten – und in einer nachweislich gesunden Bevölkerung 100 falsch-positive Ergebnisse und damit eine Corona-Inzidenz von 100.

Mit den von Prof. Zeichhardt und der Johns Hopkins School of Medicine ermittelten Werten, könnte die Inzidenz – in einer vollständig durchgetesteten, gesunden Bevölkerungsgruppe – nicht unter 700 sinken.

Die aktuellen Werte zwischen 42 und 545 ergeben sich, wenn beispielsweise nur ein Teil der Bevölkerung getestet wird und aus dieser Stichprobe auf die Gesamtheit geschlossen wird. So registrierte das RKI binnen der letzten sieben Tage in Bautzen 1.635 Corona-Positive (RKI-Dashboard, 10.1., 12:50 Uhr) – von denen rechnerisch jeder sechste falsch positiv ist. Bezogen auf die Gesamtbevölkerung des Landkreises von etwa 300.000 Einwohnern, errechnet sich die aktuelle Inzidenz von 545,4 pro 100.000.

Update 11. Januar

Eine frühere Version dieses Artikels verwies auf eine ungeprüfte Quelle, die Aussage des Artikels war davon nicht betroffen. Seit Veröffentlichung des Artikels wurden die eingangs erwähnten Maßnahmen beschlossen, außerdem erfolgte eine Aktualisierung der Zahlen anhand des COVID-19-Dashboards (zuletzt aufgerufen 10.1., 12:50 Uhr) des RKIs.

Dieser Beitrag stellt ausschließlich die Meinung des Verfassers dar. Er muss nicht zwangsläufig die Sichtweise der Epoch Times Deutschland wiedergeben.



Stuttgarter Luft: Der NO2-Trick mit der Gasheizung

Die Stuttgarter Lösung ist einfach: Man lässt die Messstation einfach in die Nähe der Auslassöffnungen einer Gasheizung rücken, so wie sie früher häufig eingebaut wurden. Gleich unter mehreren Fenstern des Hauses Pragstraße 90/92 entweichen Stickstoffdioxide – bei älteren Gasöfen sogar relativ viel. Die 39. BImSchV aber verbietet eine Positionierung von Messstellen in unmittelbarer Nähe von Emittenten.

Messstation mit Gas-Entlüftung, Bild Autor

Das Ergebnis: An dieser Stelle misst ein sogenannter Passivsammler im ersten Halbjahr im Mittel 43 µg/m3. Ein weiterer Passivsammler nur ein Haus weiter misst nur 38 µg/m3 – immerhin zwölf Prozent weniger. Doch der Passivsammler an der Pragstraße 90/92 dient Verkehrsminister Hermann als ‚Ausrede‘, warum tausende von Euro 5 Dieselbesitzer ‚enteignet‘ werden. Absicht oder nicht?

Nachdem im neu erstellten Gutachten für die Stuttgarter NO2-Immissionen nicht nur die Pragstraße wieder hervorsticht, sondern auch gleich unterschlagen wurde, dass ein Umgehungstunnel 2021 die Pragstraße von Lkw-Verkehr entlasten wird, ist es schwer, an Zufall zu glauben. Eher ein kleiner Trick von Hermann, die Messwerte hinaufzuschrauben.

Eigentlich sollte ein Luftreinhalteplan umgesetzt werden. Im März dieses Jahres hatte das Regierungspräsidium die fünfte Fortschreibung veröffentlicht, in der eine kleine Umweltzone in Stuttgart eingerichtet werden sollte. Die sah auch ein Fahrverbot für jetzt auch neuere Euro fünf Diesel ab dem 1. Juli 2020 vor, ja sie sollten sogar nicht mehr parken dürfen.

Diese Umweltzone fiel wesentlich kleiner aus, als die »Deutsche Umwelthilfe e.V.« wollte. Wenn es nach diesem Abmahnungverein gegangen wäre, dürften auch neuere Euro-5 Dieselfahrzeuge bis in die höher gelegenen Vororte nicht mehr fahren, obwohl in diesen ländlich strukturierten Gebieten seit langem sehr niedrige NO2-Emissionen vorherrschen. Ein Stichtag in diesem Frühjahr sollte entscheidend sein. »Sollte der drei Monatswert im April 2020 prognostisch ergeben«, so hieß es in der fünften Fortschreibung, »dass der Grenzwert im Jahresmittel 2020 eingehalten wird, wird von der Maßnahme M1 mangels Erforderlichkeit abgesehen.«Ingenieur und Messexperte Martin Schraag weist darauf hin: »Allerdings lag dieser Drei-Monatswert an allen Messstationen in Stuttgart exakt beim zulässigen Grenzwert oder sogar tiefer, mit seit 12 Monaten fallender Tendenz.« Doch die DUH wollte dennoch unbedingt drastische Fahrverbote als Siegestrophäe in ihr Lenkrad ritzen. Sie klagte auch auf ein Fahrverbot für Euro-5 Diesel im Großraum Stuttgart. Im Januar 2019 verdonnerte der Richter des Verwaltungsgerichts Stuttgart das Land zum dritten Mal zu Zwangsgeld. Spektakulär begleitet von der DUH, die Zwangshaft für Ministerpräsident Kretschmann forderte. Sie braucht eben Brachial-PR, auch um ihre Geldgeber und internationalen Kooperationspartner Client-Earth zufrieden zu stellen.

Angesichts eines solch hohen Aktivismus‘ kam sogar aus den Landtagsfraktionen Kritik auf. »Die Luft ist so sauber wie noch nie!« rief bereits vor fast zwei Jahren der Sprecher der CDU-Landtagsfraktion für neue Mobilität Albrecht Schütte aus: »Nach dem, was ich gesagt habe, wird es mit der CDU-Fraktion keine flächendeckenden Fahrverbote für die Diesel der Abgasnorm Euro 5 geben, weil wir sie nicht brauchen. Wir werden auch im schlimmsten Fall mit der Ausnahme von ganz wenigen Strecken unter die 50 Mikrogramm kommen. Dann braucht man eben keine Fahrverbote mehr.«

Thomas Strobl (CDU), der stellvertretende Ministerpräsident Baden-Württembergs, betonte ebenfalls wacker, flächendeckende Fahrverbote für Euro 5 werde es »mit uns nicht geben«. Die setzte der grüne Hermann dennoch durch. Strobl ist nur Juniorpartner. Jetzt hagelt es Kritik wegen eines Gutachtens zur Luftreinhaltung in Stuttgart. Das benutzt Hermann als Begründung für die Fahrverbote.

Doch Thomas Dörflinger, der verkehrspolitische Sprecher der CDU-Landtagsfraktion, sagte gegenüber den Stuttgarter Nachrichten: »Die Landtags-CDU ist nicht einverstanden damit, dass die Landesregierung das neue Gutachten zur Luftreinhaltung in Stuttgart kritiklos hinnimmt. Das Gutachten sagt für die Messstelle an der Pragstraße im kommenden Jahr selbst bei einem Fahrverbot für Euro-5-Dieselautos weiter Überschreitungen voraus, doch der hunderte Millionen Euro teure Rosensteintunnel, der im Sommer in Betrieb gehen soll, sei darin gar nicht berücksichtigt.

Überflüssig ist ein Euro-5 Fahrverbot für Jochen Haußmann, stellvertretender Fraktionsvorsitzender der FDP/DVP im Stuttgarter Landtag. Im September stellte er fest: »Das vorgelegte Gutachten zeigt für mich ganz klar, dass ein generelles Fahrverbot in der so genannten kleinen Umweltzone in Stuttgart weder erforderlich noch verhältnismäßig ist. Die vorliegenden Messwerte im 8-Monats-Zeitraum dieses Jahres bewegen sich bis auf die Messstelle Pragstraße im Rahmen des Grenzwerts von 40 Mikrogramm. Ein einzelner überschrittener Messwert an der Pragstraße kann es keinesfalls rechtfertigen, über die bereits vorhandenen streckenbezogenen Euro-5-Diesel-Fahrverbote die Fläche der kleinen Umweltzone zu sperren.«Es spielen andere Faktoren eine wesentliche Rolle. Ingenieur und Messexperte Martin Schraag hat sich ausführlich mit merkwürdigen nächtlichen NO2-Spitzen und anderen Phänomenen beschäftigt sowie mit Wissenschaftlern unterhalten. Der typische Tagesgang von NO2 in Städten hat sein Minimum am Nachmittag, die Maxima liegen in den Morgenstunden und erstaunlicherweise um Mitternacht. Schraag: »Gerade die nächtlichen Spitzen sind auf den ersten Blick irritierend, da um diese Zeit der als Hauptverursacher gesehene Straßenverkehr eher gering ist.

Das Phänomen hat eine wohl einfache Erklärung: Die über den Städten liegende atmosphärische Grenzschicht hat eine typische, vom Sonnenstand abhängende Höhe. Die Grenzschicht verhindert den Luftaustausch nach oben, kann bis zu 50 Meter in der Nacht absinken und so die Konzentration der Schadstoffe ansteigen lassen. Am Tage verschwindet die Grenzschicht, sodass ein Austausch in größere Höhen stattfinden kann. Der Verlauf der NO2-Konzentration ist natürlich moduliert mit dem zeitlichen Verlauf der Emissionen (Verkehr, Haushalte, Industrie). Auch die Quelle temporärer Spitzen mit dem Stuttgarter ‚Nesenbächer‘ sind so erklärbar. Die NO2-Quelle ist das unter der Grenzschicht gefangene NO2.«

Einige Vergleiche sind mitunter hilfreich. Kurz zur Erinnerung, worum es eigentlich geht: NO2 ist ein Reizgas, das insbesondere in den Atemwegen zu entzündlichen Reaktionen führt. Wie immer ist die Menge entscheidend: Keine Wirkung wurde in Versuchen mit Probanden und Tieren bei Konzentrationen von etwa 3.000 µg/m3 Luft gefunden. Reizungen der Atemwege wurden im Tierversuch erst bei Konzentrationen ab 8.000 µg/m3 festgestellt, also bei deutlich höheren Gehalten als in der Stadtluft. Gewitter erzeugen erhebliche Mengen an NO2, Bakterien im Boden können Stickstoffdioxide und in die Luft freisetzen. Doch die sind nicht von langer Dauer. Der nächste Regen spült das wasserlösliche NO2 aus der Luft, die UV-Strahlung der Sonne zerstört es ebenso. Der »natürliche« Wert von NO2 liegt durchschnittlich bei 10 bis 20 µg/m3.

Ein sehr gefährlicher Ort ist die Küche mit einem Gasherd. Beim Gasherd, auf dem der Sonntagsbraten gegart wird, können NO2-Werte bis auf 4.000 µg/m3 hochschnellen. Von den Wachskerzen, die im Augenblick in vielen Wohnungen und Kirchen brennen und die Luft mit NO2 und Ruß belasten, wollen wir im Augenblick nicht mehr reden.

Schon lange bekannt: Innenräume sind sehr gefährlich, sie weisen meist höhere Konzentrationen an Schadstoffen auf als die Außenluft. So hat der Rat der Sachverständigen für Umweltfragen in seinem Innenraumgutachten klar gesagt, dass Ergebnisse epidemiologischer Studien ohne die Belastung der Innenräume einzubeziehen, wertlos sind. Das war bereits 1999.

Als Treppenwitz kann daher auch der gegenwärtige Lockdown mit Ausgangssperren gelten. Es sind völlig irrelevante Größen, die hier aufgebauscht werden und die Begründung zu einer der größten wirtschaftlichen Katastrophen liefern. Und viele profitieren davon. »Das Verkehrsministerium hatte die DUH wegen Corona um Aufschub gebeten, die DUH hat abgelehnt«, stellt Schraag fest und fragt: »Worum geht es der DUH eigentlich? Und worum geht es Hermann? Ziehen sie am Ende am gleichen Strang?«

Verkehrsminister Hermanns Rezept aus dem Mai 2020 passt zur Agenda der DUH: „Die Zahlen machen Hoffnung. Wenn aber wieder mehr mit dem Auto gefahren wird, kann es sein, dass die Grenzwerte überschritten werden und weitere Maßnahmen erforderlich sind.“ Und: „Mit Bussen, Bahnen, mit dem Rad fahren oder zu Fuß gehen, gemeinsam Auto fahren oder ältere Diesel-Autos nachrüsten.“ Ansonsten sei er aber nun verpflichtet, das Fahrverbot umzusetzen, wäscht Hermann seine Hände in Unschuld. Von einer Umsetzung der in der 5. Fortschreibung geschriebenen Bedingung, ganz auf eine kleine Umweltzone zu verzichten, war keine Rede mehr.

Der Verkehrsminister Hermann ist übrigens Mitglied im Rat der NGO Agora-Verkehrswende. Die Lobbyorganisationen, die die Autos möglichst verbannen wollen, trommeln in Brüssel zu diesem Zweck schon längst auf eine weitere Absenkung der NO2-Grenzwerte auf 20 µg/3. Dabei liegen beispielsweise in Stuttgart die NO2-Werte gleich hinter den Verkehrsmessstellen an eng begrenzten ‚hotspots‘ im Bereich von 20μg/m³.

Der Beitrag erschine zuerst bei TE hier

 




Den Bann der Angst durchbrechen

Das ist furchtbar. Niemand hier hat die Schwere der Krankheit oder gar ihre Existenz geleugnet. Aber die Wahrscheinlichkeit, sich als einer von 83 Millonen in Deutschland länger oder kürzer hier Lebenden überhaupt zu infizieren, liegt bei unter einem Prozent. Und diese Dimension respektive Verhältnismäßigkeit hat kaum jemand im Auge.

Wenn es denn jemals eine gab, war die Strategie der Politik jedenfalls nicht zielführend. Und das scheint nahezu ein weltweites Phänomen zu sein. Die Regierungen handeln kopflos und panisch. Angst regiert die Welt. Und ein schlechter Ratgeber laut Volkes Munde. Was muss man tun, damit sich derlei nicht wiederholt? Damit meine ich ausdrücklich nicht ein neues Virus, sondern die fast schon

n verantwortungslose, hektische Reaktion auf eine beherrschbare oder vermeintliche Notlage.

Wir haben es ja nicht nur in Sachen Corona mit diesem Phänomen zu tun. Wenn die bestenfalls pubertierende 16-jährige Greta Thunberg vor den Vereinten Nationen heraus schreit, “I want you to panic”, bringt sie das Konzept der Drohung mit dem modernen Fegefeuer auf den Punkt. Und der mittlerweile unvermeidliche Karl Lauterbach erklärt schon in DIE WELT, dass vergleichbare Einschränkungen zur Rettung des Klimas notwendig seien. Nicht nur bei der Pandemie.

Bei der Finanz- und Eurokrise hat Bundeskanzlerin Merkel das Thunberg-Prinzip vorweg genommen: “Scheitert der Euro, scheitert Europa”. Als ob wegen des Untergangs einer Währung ein Kontinent untergehen könnte. Das haben zwei Weltkriege nicht geschafft und auch wegen des “menschengemachten Klimawandels” wird er nicht absaufen. Die Politik agiert mit den Methoden des digitalen Mittelalters. Angst essen nicht nur Seele auf. sondern auch Verstand. Und das macht einen faktenbasierten Diskurs, der auf Emotionalisierung und Personalisierung verzichtet, unmöglich. Wenn wichtiger ist, wer etwas sagt und nicht was, läuft gehörig etwas schief. Mittlerweile sind Augenmaß und Verhältnismäßigkeit vollends verlorengegangen.

Das Erkenntnisproblem der selektiven Wahrnehmung

Arthur Schopenhauer hat sein Hauptwerk “Die Welt als Wille und Vorstellung” genannt und wurde damit zum Gründungsvater des Konstruktivismus. Dessen Protagonist Paul Watzlawick (“Anleitung zum Unglücklichsein”), österreichisch-amerikanischer Psychologe und Kommunikationsforscher, spricht davon, dass wir nur erkennen, was wir erwarten. Einen Widerspruch übersehen wir allzu leicht, weil er nicht in unser “Weltbild” passt. Man kann es aber auch mit Astrid Lindgrens Pippi Langstrumpf sagen: “Ich mach mir die Welt, wie sie mir gefällt.”

Der Schlüssel, sein Weltbild der Realität auszusetzen, sind Aufklärung und kritischer Rationalismus. “Aufklärung ist der Ausgang des Menschen aus einer selbstverschuldeten Unmündigkeit.” So beginnt Immanuel Kant sein Manifest und meint damit, dass wir denken müssen und nicht bloß glauben dürfen. Er ordnet die Verantwortung dafür dem Bürger zu und nicht dem Potentaten. Die Stürmer und Dränger und die Aufklärer haben den Absolutismus vertrieben und die Grundlagen für den freiheitlichen Rechtsstaat, die moderne Wissenschaft, den technologischen Fortschritt und den sukzessive wachsenden Wohlstand der Industriegesellschaft gelegt.

Wir müssen uns also an die eigene Nase fassen und fragen, warum wir nicht im Kleinen den Diskurs fördern, unter Freunden und Bekannten Stellung beziehen und unseren Zweifel äußern. Auf Wissenschaft, Politik und Medien alleine zu zeigen, ist nicht ausreichend.

Man kann es Greta Thunberg nicht übelnehmen, dass sie laut hinausposaunt: “Hört auf die Wissenschaft”. Was sie meint, bedeutet: Glaubt der und glaubt an die Wissenschaft”. Aber wer ist “die Wissenschaft”?

Wissenschaft ist der aktuelle Stand des Irrtums

Das kann keiner wissen, denn die Wissenschaft ist nicht als homogene Institution existent. Wer hier auf die Mehrheitsmeinung pocht, hat das Prinzip nicht verstanden. Wissenschaft ist Wettbewerb um die beste Erklärung. Und Naturwissenschaft ist genauso wenig vom Irrtum gefeit wie die Geisteswissenschaften oder die ökonomischen Wissenschaftler. Natürlich bis auf die physikalischen Gesetze wie das der Schwerkraft, dass sich jederzeit experimentell wiederholen lässt. Würde Wissenschaft konsensbasiert arbeiten, käme die Entdeckung neuen Wissens zum Erliegen.

Um mit Karl Popper zu sprechen: Nichts ist wahr. Alles darf nur solange als bewährt gelten, bis es widerlegt ist. Wenn wir heute also davon sprechen, dass wir die Durchschnittstemperatur auf der Erde im Jahre 2050 vorhersagen könnten, und ein Getriebe entwerfen, mit dessen Zahnrädern wir sie so einstellen könnten wie mit dem Thermostat im heimischen Wohnzimmer, unterliegen wir einem gewaltigen Irrtum und der Anmaßung, den wissenschaftlichen und technischen Fortschritt bis auf die erste Stelle hinter dem Komma prognostizieren zu können.

Ähnlich verhält es sich mit den Prognosen zur Pandemie. Der “R-Faktor” ist eine geschätzte Modellierung, die wie auch die ökonomischen Prognosen auf eine simple Formel zurückgehen, wenn man sie zu Ende differenziert hat. Und die heisst: Pi mal Daumen.

Die normative Kraft der Zahl

Würde man den „R-Faktor“ im Nachhinein mit dem tatsächlichen Infektionsgeschehen vergleichen, was eine komplexe mathematische Operation ausmacht, so wette ich, dass er mit der tatsächlichen Infektionsentwicklung nicht korrealiert. Anders gesagt: Die Modellierungen sind nicht mal für die Katz. Aber einmal von Professor Doktor Lothar H. Wieler auf einer Pressekonferenz vorgetragen und live über die Nachrichtenkanäle und die Social Media verbreitet, steht eine Zahl im Raum und sei sie noch so infiziert. Am 18. März hat der Mann verkündet, ohne Lockdown sei spätestens im Juni 2020 mit 10 Millionen Infizierten zu rechnen.  Nur in Deutschland.

Um bei der Bevölkerung Eindruck zu schinden, arbeitet die CORONA-Statistik bei Wieler, Funk und Fernsehen mit dem Instrument der Kumulation. Es wird nicht dargestellt, wie viele Menschen derzeit positiv getestet sind und als infiziert gelten, wie viele so schwer erkrankt sind, dass sie das Krankenhaus aufsuchen mussten, lediglich die Zahl derjenigen, die sich auf Intensivstation befinden oder dort beatmet werden, wird tagesaktuell kommuniziert. Auch die Zahl der täglich Verstorbenen wird als Addition zu den in den vergangenen 9 Monaten genannt. Das ist die Macht der hohen Zahl. Alles erscheint viel schrecklicher.

Steht die Zahl einmal im Raum, so verbreitet sie Angst und Schrecken. Das gleiche Prinzip funktioniert ja auch schon bei der globalen Durchschnittstemperatur oder den vermeintlichen CO2-Emissionen, die werden auch im Nachhinein nicht gemessen (wie sollte das funktionieren?), sondern geschätzt. Und das vom Bundesumweltamt.

Wie gut solche Vorhersagen funktionieren, kann man alljährlich an den Steuerschätzungen beobachten. Ähnlich wie bei den Voraussagen der Wahlergebnisse durch die Demoskopen lässt sich mit Sicherheit nur eins prognostizieren: Sie werden so nicht eintreffen. Entweder verschätzt man sich um ein paar Milliarden oder ein paar Prozent. Und je früher die Prognosen, desto diffuser das Bild. Aber das mit der Durchschnittstemperatur, bei der noch Milliarden weitere Parameter berücksichtigt werden müssen, das kriegen wir angeblich hin.

Wenn die Zahl allerdings zu positiv ausfällt und nicht in das jeweilige Schreckensszenario passt, wird sie nicht genannt. Deutschland wird Ende 2020 – und das wäre auch ohne Corona geschehen – im Vergleich zum Stand 1990 etwa 40 Prozent der Klimagase eingespart haben. 2019 waren es ja bereits schon mehr als 38 Prozent (da gibt es unnterschiedliche Aussagen – es handelt sich ja um Schätzzahlen). In Kyoto hatten wir uns zu 35 Prozent verpflichtet. Es besteht also kein Grund zur Panik.

Zahlen suggerieren eine Objektivität, die sie nicht haben. Es handelt sich nicht um das Ergebnis höherer Mathematik, sondern letztlich um Formeln, Modellierungen und Erklärungsmodelle, denen das unvollständige Wissen derjenigen zugrunde liegt, die sie formulieren und entwickeln. Ich bestreite gar nicht, dass solche Prognosen ihren Wert haben und sie einen Trend indizieren. Nur für bare Münze darf man sie nicht nehmen.

Die Macht der Bilder

Können Sie sich noch an die Bilder aus Bergamo erinnern? Kein Regisseur eines Katastrophenfilms hätte sich das besser ausdenken können. Martialische Militär-Lastwagen transportierten wie Lafetten jeweils einen Sarg, obwohl auch ein paar mehr auf die Pritsche gepasst hätten. Die Prozession der Fahrzeuge mit mindestens 7,5 Tonnen Transportgewicht wurde dabei abgelichtet, wie sie in angemessen langsamer Geschwindigkeit durch die menschenleeren Landstriche Norditaliens rollte. Was für ein Bild für eine Pandemie.

Es gab in Norditalien dramatische Verhältnisse und eine deutliche Übersterblichkeit (also mehr Sterbefälle als im üblichen Vergleichszeitraum). Aber die meisten leider Verstorbenen waren schon damals über 80 Jahre alt und hatten mindestens eine Vorerkrankung. Die Pandemie hat ihnen, wenn man das despektierlich ausdrücken möchte, den Rest gegeben. Und während die Ärzte auf den Intensivstationen in Bergamo und Mailand bis zum Umfallen kämpften, standen die Intensivbetten in Neapel leer. Wie wäre die Wahrnehmung der Pandemie wohl ohne die Bilder von den überfüllten Intensivstationen und die LKW-Kolonnen verlaufen? Und hätten die Regierungen europaweit genauso reagiert?

Die “Bilder” haben auch bei einem anderen Thema eine Rolle gespielt. Ich meine nicht den berühmten Satz des Moderators eines Nachrichtensenders auf den Unfall in Fukushima, der, um die Zuschauer über die Werbepause bei der Stange zu halten, sagte: “Und nach der Werbepause sehen Sie hier die Kernschmelze” (aus dem Gedächtnis zitiert).

Die Grenzen wurden nach Angaben des Welt-Journalisten Robin Alexander in seinem Buch im September 2015 nicht aus humanitären Gründen offen gehalten, sondern weil man die dabei entstehenden “Bilder”, für nicht “vermittelbar” hielt. Es ging also nicht um humanitäre Gründe, sondern um den Machterhalt.

Deshalb war das Abkommen mit der Türkei folgerichtig, das möglichst viele “Geflüchtete” zurückhalten sollte. Die haben da die Kamerateams und Fotografen unter Kontrolle. Und wovon es keine Bilder gibt, das passiert in der Wahrnehmung von Politik und Medien gar nicht. Ob die Menschen und Bürger das auch immer so sehen, lassen wir mal dahingestellt.

Der Schrecken des Todes

Sterben war bisher eine private Angelegenheit. Zwar taten die Angehörigen ihre Trauer in Anzeigen oder mittlerweile den sozialen Medien kund, luden zu Trauerfeier, Beerdigung und Leichenschmaus ein, aber eben doch nicht jedermann, sondern nur diejenigen, die am Tod des jeweiligen Menschen Anteil nahmen.

Die einzigen Zahlen von Todesopfern, die mir regelmäßig über den Weg liefen, sind die kolportierten der Verkehrstoten. Das sind bedauernswerte mehr als  3.000 Menschen zuviel. Aber wohl der Preis für unsere Mobilität.

In den deutschen Medien wird stets die Zahl aller jemals an oder im Zusammenhang mit dem Virus Verstorbenen genannt. Das sind seit März mehr als 30.000 Menschen. Auch hier war die absolute Mehrheit über 80 Jahre alt und litt unter einer oder mehreren Vorerkrankungen. Aber in Deutschland sterben jedes Jahr mehr als 900.000 Menschen. Eine Zahl, die vorher niemand kannte und von Lothar Wieler, dem Präsidenten des Robert-Koch-Instituts in seinen bedeutungsschwangeren Pressekonferenzen nie genannt wurde. Täglich sterben im Schnitt rund 2.572 Menschen (Wie gesagt beim Straßenverkehr sind das mehr als 3.000 im Jahr). Wenn am Tag 1.000 Menschen an oder mit dem CORONA-Virus sterben, sind das rund 39 Prozent der täglich Sterbenden. Wenn im Monat rund 77.500 Menschen sterben, sind das 697.500 von März bis April. Davon machen die bedauernswerten rund 30.000 Toten unter 5 Prozent aus.

Mit den vermeintlich offiziellen Zahlen wird Angst geschürt und Panik gemacht. Sie sollen die Ausrufung der “Pandemie von nationaler Tragweite”  begründen und damit den Zweck des vollständigen Entzug der Bürgerrechte rechtfertigen. Es ist nicht auszuschließen, dass ihre Erzeuger selber glauben, was sie verkünden.

Das Wort der Propheten

Wussten Sie vor einem Jahr, wer Prof. Dr. Christian Drosten ist? Heute wissen wir: Der Mann trägt schwer das vermeintliche Wissen der weltweiten Virologie auf seinen Schultern. Sein Ruf verhallt nicht ungehört. Schon gar nicht bei der Kanzlerin. Wenn es nötig wird, bestellt sie ihn in die Ministerpräsidentenrunden ein, um die unwilligen Landesfürsten mit einem Blick in den Corona-Abgrund zu disziplinieren. In einem eigenen von den Rundfunkgebühren finanzierten Podcast verbreitet er diesen Blick auch über den reichweitenstarken NDR ohne ausreichende journalistische und wissenschaftliche Kontrolle.

Statt auf die Corona-Propheterie zu vertrauen, hätten Kanzler wie Helmut Schmidt, Helmut Kohl oder auch Gerhard Schröder anders gehandelt. Schmidt hat etwa bei der Schleyer-Entführung einen Krisenstab einberufen, der über Wochen tagte und die Vielfalt der Argumente auf den Tisch des Bonner Kanzleramts brachte. Darin vertreten war auch der Oppositionsführer Helmut Kohl und die Fraktionsvorsitzenden, die nicht im Nachhinein vom Ergebnis obskurer Video-Konferenzen “unterrichtet” wurden.

Nicht anders ist es etwa mit Professor Hans Joachim Schellnhuber und dessen Potsdamer Institut für die Klimafolgenabschätzung. Zwar ist der Mann mittlerweile im Ruhestand, doch Propheten lassen sich nicht pensionieren. Man könnte diese Art von Wissenschaftlern wahlweise Propheten oder Hofalchemisten nennen, die scheinbar alleine im Besitz der allgemeingültigen Wahrheit zu sein scheinen. Die haben früher Gold versprochen und wenigstens Porzellan geliefert. Zweifelhafte Organisationen wie die Leopoldina, die vorher abseits des Lichtes der Öffentlichkeit operiert hatten, liefern Politik und Kanzlerin allzu gerne die Begründung für den ein oder anderen Lockdown. Das unterminiert Vertrauen.

Das multiple Organversagen der Medien

Aus falsch verstandenem Verantwortungsgefühl hat sich bei den Medien spätestens seit der  Finanzkrise ein vorauseilender Gehorsam eingeschlichen, der kontroverse Diskussionen und die Abbildung von Meinungspluralismus nur noch in Ausnahmefällen erlaubt. Daraus ergibt sich eine merkwürdige Konsistenz, die über die Bildschirme flackert und aus den Lautsprechern quillt. Gefangen sind die Medienmacher dabei in einer Hatz, die den meisten von ihnen die Chance zur Reflektion und Einordnung nimmt. Beim Nutzer wird diese Hektik durch den Algorithmus verschärft, eine Art mediales Schneeballsystem: Was viele sehen, bekommen noch mehr zu sehen. Dabei wird die mediale Fertigsoße immer gleichförmiger.

Medien stoßen kaum noch Kontroversen an und bilden sie auch nicht ausreichend ab. Außenseiter werden zu “Leugnern” erklärt und oft persönlich diskreditiert, statt ihre Auffassung sachlich zu widerlegen, wenn dies denn nötig und möglich ist. Das Unvermögen mit der Informationsflut der sozialen Netzwerke schafft Begriffe wie “Hatespeech” oder “Fakenews”, mit denen auch Argumente aussortiert werden, die tatsächlich bedenkenswert waren. Das über Jahrhunderte erkämpfte Prinzip der Meinungsfreiheit wird so geschleift. An die Stelle ordentlicher Gerichte sind Laien und Algorithmen getreten. Das Phänomen des vorauseilenden Gehorsams wird so manifestiert.

Natürlich brauchen Politiker, Wissenschaftler und Medienleute Vernunft im Kantschen Sinne. Und dafür braucht es Mut. Und der ist nötig, um ein mögliches Medientrommelfeuer durchzustehen. Betrachtet man den zarten Virologen Hendrik Streeck, dessen empirische Studien geeignet gewesen sind, die Lockdown-Strategen zu widerlegen und wie er angefeindet wurde, versteht man, wovon die Rede ist. Ein Wissenschaftler, der den möglichen menschlichen Einfluß auf das Klima nicht für bestimmmend hält, kann in den Augen der Meute, gar keiner sein. Aber es gibt diesen Mut der Vernunft.

Aber wir lassen ihn oft genug allein. Weil wir selber nicht besser sind als 709 Bundestags- und 1.886 Landtagsabgeordnete, über deren Linientreue wir uns so gern ereifern, und die Talk-Show-Unterhalter, über die wir uns bestenfalls auf der Couch mokieren. Vielleicht sollten die Bürger, egal ob liberal oder konservativ, darüber nachdenken, dass der Prozess, der zur Veränderung führt, unten beginnt. Und nicht von oben. Bevor man die Angst vertreibt, darf man selbst keine haben und sich auch keine machen lassen. Sich auf sein eigenes Urteil zu verlassen und das für recht und richtig Erkannte durchzusetzen, ist als guter Vorsatz womöglich weiterführender, als auf eine Impfung zu hoffen. Gegen die Vernunft sind schon zu viele immun. In diesem Sinne auf ein gutes Neues Jahr.

Der Beitrag erschien zuerst bei ACHGUT hier




Ist die „amtlich verordnete Panik“ übertrieben? Eine mathematische Analyse

Bild von OpenClipart-Vectors auf Pixabay

Die Sterbefallzahlen von 2006 bis 2019 zeigt die folgende Tabelle:

Die steigende Tendenz ist nicht zu übersehen und wird noch deutlicher, wenn man die Daten in ein übliches Streudiagramm einträgt.

Zusammen mit den Punkten, die den jeweiligen Datenpaaren aus der Tabelle entsprechen, wurde die Regressionsgerade eingezeichnet, gewonnen mit der üblichen Methode der linearen Regression. Die deutliche lineare Tendenz sieht man schon mit bloßem Auge, doch man muss sich zum Glück nicht auf das bloße Auge verlassen. Um den Grad der Übereinstimmung der gegebenen Daten mit dem linearen Verlauf in Zahlen zu fassen, kann man den Korrelationskoeffizienten r berechnen. Dafür gibt es eine nicht allzu unangenehme Formel, die man auch bei Bedarf komplett umgehen kann, indem man einfach die entsprechende Excel-Funktion verwendet. Heraus kommt in beiden Fällen das Gleiche, nämlich r=0,957. Um das klarzustellen: Bei einem steigenden Verlauf kann r nicht größer als 1 sein, und der Wert 1 bedeutet, dass die Punkte alle auf einer Geraden liegen, während der Wert 0 anzeigt, dass die Daten keinerlei lineare Tendenz aufweisen. Der Wert r=0,957 liegt nun sehr nahe bei 1, woraus folgt, dass es eine annähernd lineare – und zwar ansteigende – Tendenz bei der Anzahl der Sterbefälle in Deutschland gibt. Woran immer das liegen mag: Bisher hat es noch niemanden nennenswert gestört, schon gar nicht hat man darin einen Grund für einen Lockdown gesehen.

Nun muss man natürlich nicht bei der Grafik stehenbleiben, man kann auch die Gleichung der Regressionsgeraden ausrechnen und erhält ohne großen Aufwand die Formel fälle=9949,468 * jahr – 19140919,47. Dabei handelt es sich nicht um die gezählten Fälle, sondern um die Anzahl der Sterbefälle, die nach dem linearen Trend jeweils zu erwarten wären. Um den erwarteten Trendwert zu berechnen, muss man also nur die gewünschte Jahreszahl mit dem Faktor 9949,468 multiplizieren und dann die Zahl 19140919,47 abziehen. Für das Jahr 2013 ergibt das beispielsweise eine vermutete Zahl von 9949,468 * 2013 – 19140919,47 = 887359,61, also von 887360 Sterbefällen, die von der korrekten Zahl 893825 um 6465 nach unten abweicht. Für jedes Jahr kann man nun die Abweichung ausrechnen und dann den Durchschnitt der Absolutbeträge bilden mit dem Resultat einer durchschnittlichen Abweichung von 9467 Fällen. Alternativ kann man auch die jeweilige prozentuale Abweichung ausrechnen und damit feststellen, wie weit das echte Ergebnis vom Trendwert abweicht, indem man die absolute Abweichung durch den Trendwert teilt. Das ergibt dann eine durchschnittliche prozentuale Abweichung von 1,06%.

Interessant ist nun, was sich für das Jahr 2020 ergeben müsste, wenn man den Trend, der sich nun seit 14 Jahren sehr stabil gezeigt hat, einfach fortrechnet. Das ist leicht, man muss nur das Jahr 2020 in die obige Formel einsetzen und erhält den Prognosewert 957006. Genau so viele Sterbefälle wären also 2020 zu erwarten, wenn sich der gut bestätigte Trend ohne weiteren äußeren Einfluss fortsetzt und die Entwicklung sich genau an das lineare Szenario hält. Das ist selbstverständlich nicht anzunehmen, aber für eine realistischere Einschätzung liegen ja die durchschnittlichen Abweichungen vom Trend vor. Verwendet man die absoluten Abweichungen, so ergibt sich der Bereich zwischen 957006 – 9467 = 947539 und 957006 + 9467 = 966473. Wirft man nun noch einmal einen genaueren Blick auf die Grafik, so stellt man fest, dass auf ein eher mildes Jahr tendenziell ein härteres Jahr folgen dürfte, was auch dem allgemeinen Prinzip der Regression zum Mittelwert entspricht. Somit wäre ein Ergebnis zwischen 957006 und 966473 Sterbefällen für das Jahr 2020 völlig normal und mit den Daten der Jahre 2006 bis 2019 problemlos vereinbar. Legt man die prozentuale Abweichung von 1,06% zugrunde, so ergibt sich für das Jahr 2020 sogar eine im üblichen Durchschnitt liegende Abweichung von 10144, womit man den oberen Wert 957006+10144=967150 erreicht.

Wie man auch rechnet, es ergibt sich, dass im Jahre 2020 eine zwischen 957000 und 967000 liegende Zahl von Sterbefällen in Deutschland völlig im Rahmen der Sterbedaten der Jahre 2006 bis 2019 liegen würde. Betrachtet man nun die bisher ermittelte Anzahl der Sterbefälle, die man beim Statistischen Bundesamt heute, am 27.12.2020, 12 Uhr, bis zum 22.11.2020 tagesgenau aufgelistet findet, so ergibt sich eine Zahl von knapp 850000 bisherigen Sterbefällen, genauer gesagt sind es 849982. Vom 23.11. bis zum 31.12.2020 verbleiben 39 Tage, und nach der oben ausgeführten Rechnung sollte man im Normalfall mit weiteren 107000 bis 117000 Sterbefällen innerhalb dieser 39 Tage rechnen, umgerechnet sind das 2744 bis 3000 Todesfälle pro Tag. Bis zum 22.11.2020 lag die Zahl der durchschnittlichen Sterbefälle pro Tag bei ziemlich genau 2600. Am Ende des Jahres wird man sehen, was die letzten 39 Tage noch beigetragen haben. In jedem Fall ergibt sich unter Beibehaltung des Trends die Prognose von 957000 bis 967000 Sterbefällen für das Jahr 2020, mit deren Eintreten man im Normalfall rechnen müsste.

Sollte nun die Gesamtzahl der Sterbefälle den Wert 967000 nicht übersteigen, könnte man auf die Idee kommen, dass die amtlich verordnete Panik doch etwas übertrieben war. In diesem Fall gibt es also im Laufe des Jahres nicht mehr Sterbefälle, als man nach den Entwicklungen der letzten 14 Jahre erwarten sollte, sie haben sich unter Umständen nur auf andere Todesursachen verteilt. Das gerne vorgebrachte Argument des Präventionsparadoxons, nach dem nur die harten Maßnahmen zu einer auch unter normalen Umständen erwartbaren Sterberate geführt habe, kann dann nicht angewendet werden, denn trotz aller Maßnahmen wird noch immer Tag für Tag eine hohe Zahl mutmaßlich neu Infizierter gemeldet, die aber im Falle der vermuteten Sterberate keinen nennenswerten Einfluss auf die Gesamtzahl der Toten gehabt haben können – die Rate liegt dann ja im Rahmen des auch ohne Infektionsfälle Erwartbaren.

Und natürlich gilt auch hier: eventuelle Übertragungs-, Rechen-, Denk- oder Interpretationsfehler sind durchaus nicht ausgeschlossen und ausschließlich mir anzulasten.

Gastbeiträge geben immer die Meinung des Autors wieder, nicht meine. Ich schätze meine Leser als erwachsene Menschen und will ihnen unterschiedliche Blickwinkel bieten, damit sie sich selbst eine Meinung bilden können.

 

Über den Autor

Thomas Rießinger ist promovierter Mathematiker und war Professor für Mathematik und Informatik an der Fachhochschule Frankfurt am Main. Neben einigen Fachbüchern über Mathematik hat er auch Aufsätze zur Philosophie und Geschichte sowie ein Buch zur Unterhaltungsmathematik publiziert.

Der Beitrag erschien zuerst bei Reizschuster.de hier

 




Die Verschlimmbesserung der Stromversorgung

 In der Corona-Krise wird halt bis zur letzten Minute durchregiert. In einem 60-Seitigen Machwerk wird der Abstimmmaschine – ja was eigentlich? – vorgesetzt: Entwurf eines Gesetzes zur zügigen und sicheren Integration steuerbarer Verbrauchseinrichtungen in die Verteilernetze und zur Änderung weiterer energierechtlicher Vorschriften. Der Parlamentarier, der immer noch nicht genug hat, kann noch den ersten Absatz lesen, damit er glaubt er wüßte um was geht und anschließend beruhigt der Empfehlung seines Fraktionsvorsitzenden zur Abstimmung folgen.

Langsam dämmert es auch dem härtesten Energiewender, daß der Zug mit immer höherer Geschwindigkeit dem Abgrund entgegen rast. Plötzlich erkennt man, daß in der schönen, neuen Welt der Elektroautos die elektrische Energie auch noch von den Windmühlen zu den Autobatterien gelangen muß – zum Teufel, daß hätte man nun wirklich auch im Politunterricht erzählt bekommen müssen. Dafür sollen Kabel, Transformatoren und all so’n technisches Zeug nötig sein, damit der Strom aus der Steckdose kommt und die kann man nicht einmal weghüpfen. Man könnte auch sagen, jetzt kommt Klaudia, nachdem Annalena den Strom im Netz gespeichert hat und die Kobolde aus der Batterie vertrieben hat, „digitalisiert“ sie das Netz und macht es so „smart“, daß die „große Transformation“ noch gelingen mag. Betrachtet man diesen Gesetzesentwurf, sieht es allerdings eher danach aus, daß sich die Planwirtschaft wie immer, immer weiter in Details verliert. Es entsteht ein undurchdringliches, widersprüchliches Gestrüpp, in dem sich die Giftschlangen immer öfter in den eigenen Schwanz beißen.

Der notwendige Netzausbau

Langsam, ganz langsam spricht es sich rum: Wenn man alle fossilen Energieträger durch elektrische Energie ersetzen will, muß man alle Tanker, Pipelines, Züge und LKW die Kohle, Öl und Gas verteilt haben, durch Kabel ersetzen. Das ist viel mehr, als die fixe Idee, Windmühlen in die Nordsee zu stellen und damit München usw. (nur) mit Strom zu versorgen. Schon diese relativ kleine Aufgabe des Ausbaues des Hochspannungs-Übertragungsnetzes scheint für das „Land in dem wir (noch) gut und gerne leben“ eine unlösbare Aufgabe zu sein. Wenn wir aber die Elektromobilität – die Betonung liegt hier auf Mobilität – wollen, brauchen wir praktisch vor jedem Haus eine Ladestation. Wer will schon einen Kilometer von und nach einer Ladestation laufen, bevor er fahren kann? Oder ist der Einstieg in die Elektromobilität wirklich nur der Anfang von kein Auto mehr? Wenn wir gleichzeitig auch noch elektrisch heizen müssen (Wärmepumpen etc.), wird das erforderliche Kabel noch dicker. Wohl gemerkt, wir reden hier nicht über drei, vier Hochspannungstrassen in ganz Deutschland, sondern wirklich über jede Straße, die aufgegraben werden muß. Aber unsere Gesetze-Schaffenden glauben für jedes Problem eine Lösung zu besitzen. In diesem Fall heißt der Zauberstab „Digitalisierung“: Man will die Mangelwirtschaft durch Lebensmittelkarten stützen. Was zu wenig ist, wird vielen genommen um es wenigen zu teilen zu können. Im Neusprech: „Energieeffizienz“.

Das Niederspannungsnetz

All unsere Gebäude sind an das Niederspannungsnetz (400V) angeschlossen. Lediglich Großverbraucher (Krankenhäuser, Fabriken usw.) sind direkt mit dem Mittel- oder gar Hochspannungsnetz verbunden. Sie formen mit eigenen Transformatoren die Spannung auf die von ihnen benutzten Spannungsebenen um. Damit nun nicht jedes Haus einen eigenen Trafo braucht, sind die Gebäude wie Perlen auf einer Kette an jeweils ein Kabel des Niederspannungsnetzes angeschlossen. So benötigt man für jeden Ring nur eine Trafo-Station. Es war nun schon immer mit viel Erfahrung verbunden, wie dick das Kabel sein muß. Aus Erfahrung weiß man, daß nie alle in einem Haushalt vorhandenen Elektrogeräte gleichzeitig in Betrieb sind. Es ergibt sich dadurch für jedes Kabel eine „stille Reserve“, die man nun über dieses Gesetz glaubt heben zu können. Der Gedanke ist simpel: Wenn man stets den Verbrauch überwacht, kann man das Kabel bis an seine Grenzen belasten. Nähert man sich der Grenzen, werden einzelne Verbraucher zwangsweise abgeschaltet. Damit nicht einige ganz hinten runter fallen, wird von Zeit zu Zeit gewechselt. Ein Verfahren, das in jedem Entwicklungsland angewendet wird. Man nennt das wechselnde und zeitlich begrenzte Abschalten auch „Brownout“, im Gegensatz zum „Blackout“, dem totalen Ausfall. Nach dem Bekunden der Gesetze-Schaffenden will man damit Zeit gewinnen, bis ein Ausbau erfolgen kann. Will man wirklich nur das oder führt man ganz anderes im Schilde?

Produktion und Verteilung

Auch „Smarte Netze“ ändern nichts an dem Grundproblem des Sozialismus: Was (gütig und gerecht) verteilt werden soll, muß vorher produziert sein. In diesem Gesetzentwurf steht, daß die „Leistungsreduzierung“ nicht mehr als zwei Stunden pro Tag dauern darf. Sie wird euphemistisch als „Spitzenglättung“ verklärt. Ändert dieses Wort irgendetwas an einer tagelangen Dunkelflaute? Natürlich nicht, es ist nur ein Taschenspielertrick. Bei jeder Flaute müssen ausgewählte Verbraucher für die gesamte Dauer abgeschaltet werden, um wenigstens eine eingeschränkte Notversorgung aufrechterhalten zu können. Das ist nun in der Tat „alternativlos“. Die Natur läßt sich durch kein Politbüro täuschen. In dem typischen Volksverdummungsdeutsch unserer Politschranzen wird dies zu: Erst die in dieser Novellierung des §14a Energiewirtschaftsgesetz (EnWG) enthaltene Regelungsarchitektur mit der Verbesserung der Netzzustandsüberwachung in den Niederspannungsnetzen und der Schaffung der notwendigen Marktkommunikationsprozesse sowie der wirtschaftlichen, rechtlichen, technischen und der organisatorischen Voraussetzungen machen netz- und marktorientierte Flexibilitätsansätze möglich. Alles klar, ihr Ingenieure und Elektroinstallateure? Ihr müßt halt nur eure Werkzeugkästen um die „Mao-Bibel“ verstärken, dann klappt das auch mit der Stromversorgung bei euren Kunden.

Die Überwachung

Man kann ja Mangel verwalten. Das ging schon mit Bezugsscheinen in der Kriegswirtschaft. Man hat auch schon früher den Einsatz von Kraftwerken durch Rundsteueranlagen (z. B. Nachtspeicherheizungen, Wärmepumpen) optimiert. Dies wird ausdrücklich im Text mehrfach erwähnt. Wahrscheinlich notwendig, weil schon mal elektrische Nachtspeicher und Wärmepumpen ganz oben auf der rot/grünen Verbotsliste standen. Vielleicht erinnert sich der ein oder andere Genosse noch an diese Kampagnen? Jetzt also die Wende: Plötzlich ist das „Einsparen von Primärenergie“ nicht mehr aktuell, sondern nur noch die gewinnbringende Vernichtung der Überproduktion der (befreundeten) Windmüller und Sonnenbarone.

Wie gesagt, wenn es nur um die Begrenzung von Spitzenlasten gehen würde, reichen Rundsteueranlagen völlig aus. Der Netzbetreiber sendet Signale über die Stromkabel aus, die von den Empfängern in den einschlägigen Anlagen empfangen werden. Jeder Empfänger entscheidet nun, ob ihn die Nachrichten betreffen und was er abschalten bzw. drosseln soll. In diesem Gesetzesentwurf geht es jedoch um die totale Überwachung: Der aktuelle Verbrauch jedes „Smart-Meter“ – umgangssprachlich Stromzähler – soll permanent an den Netzbetreiber übertragen werden. Selbstverständlich nur für Zwecke des Netzbetriebs und streng „datengeschützt“. Wir kennen solche Versprechungen schon von der Einführung der Mobiltelefone. Vielleicht sollte man „Smart-Meter“ zukünftig verständlicher mit „Stasi-Zähler“ übersetzen. Denn es gibt einen qualitativen Unterschied zum „Smart-Phone“: Auf die Nutzung von Mobiltelefonen kann man verzichten oder sie zumindest stark einschränken. Auf einen Strom-Hausanschluss nicht. Der Rückkanal (praktisch Internet) ist zudem ein sicherheitstechnischer Albtraum. Der als Heizungsmonteur oder Elektroinstallateur getarnte Hacker oder Verfassungsschützer kann jederzeit Schad- und Überwachungssoftware einspielen. Wer das für übertrieben hält, sollte sich mal näher mit Stuxnet beschäftigen. Die militärischen Anlagen im Iran waren sicherlich besser gesichert, als die Heizungskeller und Garagen unserer Häuser. Wie gesagt, auf ein Smartphone läßt sich durchaus verzichten, ein Computer vom Netz trennen, aber die gesamte Wohnung vom Stromnetz abhängen?

Leistung und Energie

Die Leistung (kW) steht für die Investitionen – nicht nur ins Netz – und die verbrauchte elektrische Energie (kWh) für die variablen Kosten (Brennstoffe, Verschleiß etc.). Daher war die Aufteilung in bezogene Leistung und verbrauchte Energie in einem Abrechnungszeitraum bei Großabnehmern schon immer üblich. Betriebsintern ergab sich aus den Kosten für die Leistung üblicherweise eine Spitzenlastoptimierung. Aus dem Verbrauch (kWh) und der Spitzenlast (kW) in einem Abrechnungszeitraum konnte durch einfache Division ein Maßstab für die Gleichmäßigkeit gebildet werden. Mit anderen Worten: Verbrauchte der Kunde vornehmlich billige Kernkraft oder Braunkohle oder teuren Spitzenstrom, spürte er das unmittelbar auf seiner Stromrechnung. Insofern nichts neues.

Bei Kleinverbrauchern (Haushalt und Gewerbe) war es günstiger, auf solche Berechnungen zu verzichten. Aus gutem Grund. Durch die große Stückzahl half die Statistik bei der Vorhersage des Verbrauchs. Einzelne Sonderereignisse (z. B. Fußballübertragung) und außergewöhnliche Wetterereignisse (Gewitter etc.) waren ausreichend im Voraus bekannt. Andererseits hat der Kunde kaum eine sinnvolle Einflussmöglichkeit. Der Braten muß zu gegebener Zeit auf den Tisch (Weihnachtsspitze). Kopfgeburten, wie das Wäsche waschen in der Nacht, sind nicht praktikabel und werden sich deshalb nie durchsetzen. Ist das bei Elektromobilen so viel anders? Auch dort wird man Nachladen, wenn das absehbar nötig wird. Die Vorstellung, tags fahren und nachts aufladen ist schlichtweg weltfremd. Sind doch die Reichweiten (besonders im Winter) im Gegensatz zu Verbrennern viel kleiner und die „Tankzeiten“ unvergleichlich größer, um überhaupt eine Wahlmöglichkeit zu bieten. Wird jetzt durch unvorhergesehene Drosselungen die Ladezeit völlig unkalkulierbar, dürfte das ein weiteres Argument gegen den Kauf eines Elektromobils werden.

Kosten

Jede staatlich erzwungene Investition – egal ob auf der Seite des Netzes oder im eigenen Haus – muß letztendlich von uns bezahlt werden. Hinzu kommen noch die laufenden Wartungs- und Betriebskosten. Erinnert sei nur an die gesetzlich vorgeschriebene Heizkostenabrechnung bei Mietern. Kaum einem Mieter ist bekannt, daß die Kosten für die Abrechnung meist mehr als zehn Prozent der eigentlichen Heizkosten betragen. Auch diese Lizenz zum Geldschein drucken für einschlägige „Serviceunternehmen“ wurde vor Jahrzehnten zum Zwecke der Energieeinsparung und „gerechten“ Aufteilung eingeführt. Durch die flächendeckende Einführung moderner Heizsysteme und Regelungen ist die Einsparung kaum noch möglich – es sei denn, um den Preis eines deutlichen Komfortverzichts. Insofern ist das hier abgegebene Versprechen: Die Kosten für die Herstellung der Steuerbarkeit von steuerbaren Verbrauchseinrichtungen werden durch Einsparungen in den Netzentgelten und der verbesserten marktlichen Strombeschaffung mehr als kompensiert. (Seite 23) Noch viel unverschämter als die Aussage von dem Genossen Trittin über die oft zitierte Eiskugel. Es soll hier gar nicht über die erforderlichen Investitionen spekuliert werden, fragen sie einfach den Installateur ihres Vertrauens. Ansonsten wird in dem Entwurf nur so mit Milliarden Einsparungen um sich geschmissen. Wieder ein neues Perpetuum Mobile der Energiewende wird geboren.

Besonders feinsinnig wird die Verteilung der entstehenden Kosten behandelt. Es wird im Gesetzentwurf akribisch zwischen Netzanschluss und Marktlokationen unterschieden: Netzanschluss ist das Kabel von der Straße ins Haus und die wunderbare Neusprechschöpfung Marktlokationen sind die Zähler für die Wohnungen etc. Damit ist auch klar, aus welcher Ecke dieser Entwurf kommt. Es ist charakteristisch für die Grünen, möglichst oft das Wort „Markt“ in den unmöglichsten Kombinationen zu verwenden, um von ihrer Planwirtschaft abzulenken. Besonders praktisch ist es darüberhinaus, wenn ihre „Ideen“ mal wieder völlig schief gehen, vom „Marktversagen“ faseln zu können. Hier geht es eindeutig überhaupt nicht um Marktwirtschaft: Marktwirtschaft war z. B. die Einführung des Smartphone. Ein bunter Bildschirm beim Telefon war den Menschen soviel Geld wert, daß sich Schlangen vor den Geschäften bildeten. Ein Stromzähler, der nur die eigene Überwachung als Zusatznutzen bietet, wäre unverkäuflich. Jetzt sehen wir uns mal ein typischen Wohngebäude an: Den geringsten Aufwand hat der meist kommunale Betreiber des Niederspannungsnetzes mit dem Umbau des Hausanschlusses. Der Hausbesitzer kommt für die notwendigen Baumaßnahmen im Gebäude auf. Anschließend läßt sich wieder trefflich über Mieterhöhungen jammern und den Löwenanteil zahlt wieder einmal der dumme Stromverbraucher. Das Elektroauto wird damit noch unverkäuflicher – trotz gigantischer Zuschüsse der Steuerzahler – als bisher. Deshalb muß nach dem Erfolgsrezept der staatlich gewollten Unterhaltung und des betreuten Denkens (GEZ-Rundfunk) ganz schnell ein Gesetz her, welches über eine weitere Wohnungssteuer den Bürger schröpft. Wehe, wenn Michel eines Tages die Demokratie versteht und alle Mittäter einfach abwählt.

Der Beitrag erschien zuerst auf dem Blog des Autors hier




EIKE wünscht allen Lesern ein frohes Fest und ein gesundes Neues Jahr

Ein Ausnahmejahr im schlechten Sinne neigt sich dem Ende zu. Zusätzlich zu den katastrophalen Entscheidungen im Bereich der Klima-, der Energie, der Industrie-, der Währungs-, und der Migrationspolitik, gefiel es unserer Regierung Millionen von Existenzen zu vernichten, um ein Virus zu bekämpfen. Das Virus breitete sich trotzdem aus, aber die weit aus schlimmeren Folgen der oben erwähnten Fehlentscheidungen werden uns aber bis weit in die 30er Jahre des neuen Jahrhunderts begleiten. Unausweichlich.

Deutschland wurde einmal mehr als Industriestaat geschliffen und damit als Wirtschaftsstandort massiv geschwächt.

Trotzdem bitten wir unsere Leser den Mut nicht zu verlieren und weiter zur Verbreitung von Fakten, die diese Seite und unser Institut täglich bieten, beizutragen. Wir halten es da wie der große Luther:

„Und wenn ich wüsste, dass morgen die Welt untergeht, dann würde ich heute ein Apfelbäumchen pflanzen.“

Lassen Sie uns daher mit Familie und Freunden fröhlich das Weihnachtsfest feiern und mutigen Schrittes auf das neue Jahr zugehen. Wir wünschen Ihnen dazu jedenfalls alles Gute.

Jeder auf seine Weise.

EIKE hat sich für das neue Jahr ein paar Schwerpunkte gesetzt.

Einer davon ist unsere Arbeit „hinter den Kulissen“. Dazu gehört der EIKE-Webauftritt, er wird überarbeitet. Wir haben dafür einen sehr kompetenten Ingenieur gewonnen, der es uns ermöglicht, die EIKE-Website nicht nur benutzerfreundlicher zu gestalten, sondern auch den aktuellen Sicherheits- und Datenschutzanforderungen anzupassen. Ein Unterfangen, das aufgrund des Umfangs der EIKE-Website ein größeres Projekt ist.

Speziell in einer Zeit, in der solche juristischen Anforderungen andere „klimakritische“ Webseiten bereits aufgeben ließen, bemühen wir uns also verstärkt, so das Meinungsmonopol der Alarmisten zu brechen.

Vor dem Hintergrund, dass es auf absehbare Zeit unmöglich sein wird, dass Sie zu uns kommen, haben wir beschlossen zu Ihnen zu kommen. Aus diesem Grund planen wir, unser Büro in Jena zu erweitern und ein Internet-Fernsehstudio einzurichten. Damit wollen wir sicherstellen, dass wir Sie im nächsten Jahr regelmäßig in Bild und Ton über unsere Arbeit und Entwicklungen auf den Gebieten Klima und Energie informieren können.

Des Weiteren gehören natürlich auch Berichte über das Forschungsprojekt des Teams um Prof. Svensmark (TU Kopenhagen)dazu, das wir seit einiger Zeit mit Ihrer Hilfe unterstützen und über das sonst kaum etwas bekannt werden würde.

Da wir zur Umsetzung dieser Projekte die entsprechenden Dienstleistungen zukaufen und die dafür notwendigen Anschaffungen tätigen müssen und auch den „normalen“ EIKE-Betrieb aufrechterhalten wollen, bitten wir Sie einmal mehr, unser Institut mit Ihrer Spende zu unterstützen.

Mit Ihrer Spende tragen Sie dazu bei, den ideologisch getriebenen Weg in die Scheinrationalität zu stoppen und zur Vernunft zurückzukehren.
EIKE ist (noch!) gemeinnützig und wegen Förderung von Wissenschaft und Forschung und Förderung der Bildung von der Körperschaftssteuer und nach § 3 Nr. 6 des Gewerbesteuergesetzes von der Gewerbesteuer befreit und können daher abzugsfähige Spendenquittungen ausstellen. Alle Spenderdaten werden streng vertraulich behandelt.

Mit Dank für Ihre rege Beteiligung und mit freundlichen Grüßen und den besten Wünschen für die kommenden Festtage

Ihr

EIKE Vorstand für alle Mitglieder und der Redaktion

 




Lockdown und Dieselfahrverbote haben keinen Einfluss auf Werte der Messstationen

Lockdown in Stuttgart – weniger Autos, weniger Luftschadstoffe, sollte man annehmen. Doch weit gefehlt: Die Luftmesswerte zeigen sich vom deutlich verminderten Verkehrsaufkommen unbeeindruckt.
Die Dieselfahrverbote und der durch den Lockdown bedingt geringere Autoverkehr zeigen keine Auswirkungen auf die Werte, die die Luft-Messstationen liefern.
Die Diagramme der vergangenen Tage zeigen für Stickstoffdioxid ein Pendeln um Werte zwischen 40 und 50 µg/m3. Deutschlands berühmteste Messstation Stuttgarter Tal Am Neckartor wies am 21.12. um 10 Uhr eine Stickstoffkonzentration von 44 µg/m3 aus.

Ebenso schwankten die NO2-Immissionen an der Hintergrundmessstelle in Bad Cannstatt um 40 µg/m3. Der 12-Monats-Mittelwert wird dort übrigens mit 23 µg/m3 angegeben, also deutlich unter den geltenden Grenzwerten. Die liegen für das Jahresmittel bei 40µg/m3, für Innenräume bei 80 µg/m3 und am Arbeitsplatz sogar bei 950 µg/m3. In den Vereinigten Staaten liegt er mit 100 µg/m3 sogar mehr als doppelt so hoch wie auf deutschen Straßen.

Zu diesem Ergebnis kommt auch Messspezialist Martin Schraag, der den Werten auch den gesunkenen Verkehrsfluss gegenüber gestellt hat, wie er bei Tomtom zu sehen ist. Sein Resumee: „Das tägliche Muster der Verkehrs-Messstellen Am Neckartor und Pragstraße hat sich praktisch ab dem Lockdown nicht geändert. An der Pragstraße, einer langen Steigung vom Neckar zum Pragsattel, lag der Spitzenwert am 18.12. um 17 Uhr nach dem Lockdown. Ansonsten sehen wir auch hier um 40 µg/m³ schwankende Werte, mit typischen Maxima um 17 Uhr.“

Er weist auf die überdies geltenden weitreichenden Fahrverbote in Stuttgart hin: „Es ist unwahrscheinlich, dass diese Werte von Diesel-Pkw verursacht werden. Selbst Euro 5 Diesel sind seit Monaten aus der kleinen Umweltzone Stuttgart verbannt! Beim Lockdown im April waren Euro 5 Diesel nur an Einzelstrecken verbannt, die Kontrolle war noch lax.“

Denn zusätzlich zum Lockdown gibt es in Stuttgart die wohl weitgehendsten Fahrverbote deutscher Städte: Dieselfahrzeuge der Euro 3 und 4 Norm dürfen seit 1. Januar 2019 nicht mehr in die Landeshauptstadt Baden-Württembergs fahren. Betroffen von dem Fahrverbot sind nicht nur einige besonders frequentierte Straßen der Innenstadt wie in anderen Städten, die Fahrverbotszone reicht bis nach Kornwestheim, Gerlingen und gilt bis in die Vororte, die droben auf den Fildern liegen – eher ländliche Gebiete mit lockerer Bebauung als in der Innenstadt. Selbst neue Euro-5 Diesel sind seit 1. Juli 2020 aus der Stuttgarter Innenstadt verbannt.

Die Begründung meinte Baden-Württembergs Verkehrsminister Winfried Herrmann (Grüne), dass die zugrundeliegenden Rechenmodelle sehr gut seien. Er nahm außerdem die mit alten Passivsammlern – eine reguläre Messstation existiert dort erst seit Oktober – gewonnenen nicht sonderlich genauen Messwerte an der Pragstraße und eine Hochrechnung für das Jahr 2021 als Begründung dafür, den Euro-5 Diesel aus Stuttgart auszusperren. Er unterschlug dabei, dass der neue Rosensteintunnel ab 2021 erhebliche Verkehrsströme unter die Erde verlegt und wesentlich zur Entlastung der Pragstraße beiträgt. Das hat aber die Stadt Stuttgart in ihrem Luftreinhalteplan schon vor längerem beschrieben.

Der Chef des Vereins „Deutsche Umwelthilfe e.V.“, Vielflieger Jürgen Resch, überzieht wie viele andere Städte auch Stuttgart mit Klagen wegen Überschreitungen der extrem niedrigen Grenzwerte. Nur Fahrverbote für Dieselfahrzeuge könnten die Werte senken und Menschenleben retten, argumentierte er. Drunter ging es nicht. Die Verwaltungsrichter winken solche Klagen durch, während das Bundesverwaltungsgericht Leipzig einst noch hinzugefügt hatte, Fahrverbote müssten auch verhältnismäßig sein. Herrmann meinte seinerzeit, der Begriff „verhältnismässig“ beziehe sich auf die Übergangsfristen und nicht auf die Fahrverbote.

Die wirtschaftlichen Folgen in der Stadt sind dramatisch. Autobesitzer mussten neuwertige drei, vier Jahre alte Autos verramschen, die heute häufig in Ländern in Osteuropa fahren. Nach diesem fundamentalen Kampf gegen den Diesel in der Stadt, in der das Auto erfunden wurde, sollte man aufgrund des Lockdowns und des drastisch gesunkenen Autoverkehrs erwarten, dass die Luftwerte in der Stadt sich deutlich verändert haben.

Der Großtest „Corona-Autolockdown“ zeigt: Der Diesel kann es nicht sein. Die Diesel-Lüge geht also weiter.

Der Beitrag erschien zuerst bei TE hier




Wie zuverlässig sind die ermittelten Globaltemperaturen der letzten 170 Jahre?

Jedes Messergebnis wird unter speziellen Messbedingungen erzielt. Diese sind möglichst konstant zu halten und stets anzugeben. Das Messresultat ist immer mit einer Messunsicherheit (Messabweichung, veraltet: Fehler) behaftet.

Die für Messungen verwendeten Messgeräte wurden im Laufe der Zeit immer genauer.
Problematisch war in der 2. Hälfte des 20. Jahrhunderts der Übergang von Analog-Anzeigen auf Digitalanzeigen. Die digitale Anzeige von Messergebnissen gaukelt oft dem ungeschulten Anwender eine Genauigkeit vor, die nicht vorhanden ist. Liegt beispielsweise die abgelesene Spannung von 12,62 V an den Messpunkten an, die wir ablesen? Oder fahren wir tatsächlich die 88 km/h, die uns der Digital-Tacho anzeigt? Nein, Messungen sind immer mit Messabweichungen behaftet. Im allgemeinen Sprachgebrauch wird für eine Messabweichung meist (noch) der Begriff Messfehler oder kurz Fehler verwendet. Jedoch empfehlt z.B. die DIN-Norm 1319, diesen Begriff durch den der
(Mess-)Abweichung zu ersetzen.

Abb 1:  Welcher Waage vertrauen wir mehr?  Analog oder Digital…
Bild links: Frank C. Müller, Personenwaage fcmCC BY-SA 4.0, Bild rechts: Digital-Personenwaage (Bild ohne Lizenz)

1.2.) Kalibrieren und Eichen
Kalibrieren bzw. Eichen (Eichamt) ist der Vergleich einer bezifferten Skala mit einem Normal. Jedes Messgerät (Messeinrichtung), das auf einem physikalischen Messprinzip beruht, muss an ein Sekundär- oder Primär-Normal mit geringerer Messunsicherheit gekoppelt sein. Kalibrierte bzw. geeichte Messgeräte sind somit mit geringeren Messunsicherheiten behaftet. Trotzdem sind Messungen mit diesen Geräten nicht fehlerfrei. Es verbleibt die Messunsicherheit des Gerätes und die Fehleranfälligkeit durch die messende Person.

Als Erkenntnis dieser Einleitung sollte erreicht werden, dass der Leser an fremde Messergebisse kritisch herangehen sollte. Informationen zu den Messgeräten, den Mess-Bedingungen, Anzahl der Messungen, u.s.w. sind unerlässlich. Deutlich ausgedrückt: Ohne Zusatzinformationen sind Messergebisse wertlos! Weitere Informationen in den nächsten Kapiteln. Diese grundlegenden Voraussetzungen werden in den folgenden Kapiteln auf die Zuverlässigkeit der Global-Temperatur-Daten angewendet.

2.) Art der Messabweichungen

2.1.) Zufällige Messabweichungen
Zufällige Messabweichungen entstehen aufgrund nicht beherrschbarer, nicht determinier- ter Einflüsse. Sie sind nicht vorausbestimmbar. Werden die Messungen am selben Messobjekt unter gleichen Bedingungen wiederholt, führen sie zur Streuung der Messwerte. Deshalb lassen sich diese zufälligen Messabweichungen sehr gut mit mathematisch statistischen Methoden ermitteln und eingrenzen. Diese Methode soll jedoch nicht innerhalb dieses Aufsatzes behandelt werden. Es gibt hierzu genügend gute Fachliteratur.

2.2.) Systematische Messabweichungen
Systematische Messabweichungen haben einen konstanten Betrag mit einem bestimmten Vorzeichen oder unterliegen nur einer sehr langsamen Veränderung aufgrund einer Ursache, die die Messgröße nur in eine Richtung verändert. Sie führen zu einer immer gleichen, zeitlich konstanten Differenz des Messwerts vom wahren Wert, d. h. zu einem „falschen“ Messergebnis. Systematische Messabweichungen sind durch Wiederholungen der Messungen unter gleichen Bedingungen nicht erkennbar!

3.) Temperatur-Messungen

Die Bestimmung der genauen Temperatur eines Systems ist trotz der alltäglichen Anwendungen keine triviale Sache – jedenfalls nicht, wenn man es genau nimmt. Im Gegenteil, die genaue Temperatur-Messung ist eine besondere Herausforderung. Eine Vielzahl von Unwägbarkeiten beeinflussen eine exakte Messung: Richtiges Thermometer für die jeweilige Anwendung, Genauigkeit des Thermometers, Sorgfältigkeit der Messung, äußere Einflüsse wie Licht oder Wärmestrahlung, u.s.w.. Einfach formuliert, die möglichen systematischen Fehler sind zahllos. Temperaturmessungen sind häufig falsch.

3.1.)  Definition der Temperaturmessung
Sämtliche Verfahren zur Bestimmung der Temperatur eines thermodynamischen Systems durch Vergleich mit einer Temperaturreferenz, z.B. dem Thermometer. Hierfür können im Prinzip jegliche physikalischen Größen (z.B. Länge, elektrischer WiderstandStrahlungsgrößen) oder chemischen Eigenschaften (z.B. Temperatur-Messfarben) verwendet werden, die sich mit der Temperatur gesetzmäßig ändern.

3.2.)  Arten von Thermometer
Die Zahl der unterschiedlichen Arten von Thermometern ist nahezu unüberschaubar. Prinzipiell wird unterschieden zwischen Berührungs-Thermometern und Thermometern, die auf berührungslosen Verfahren beruhen. Die Diskussion zu den unterschiedlichen Arten von Thermometern würde den Rahmen dieses Aufsatzes sprengen.

4.) Temperatur-Messung in der Meteorologie / Klimatologie

Inzwischen nähern wir uns der eigentlichen Fragestellung zur „Zuverlässigkeit der Temperatur-Messdaten der letzten 170 Jahre“. Betrachten wir die Fakten zur Ermittlung der mittleren Global-Temperaturen in diesem Zeitraum. Doch zunächst 2 entscheidende Begriffs-Definitionen.

4.1.)  Direkte Messung durch Thermometer
Viel Menschen haben schon eine meteorologische Mess-Station gesehen. Seit dem 17. Jahrhundert (England) werden weltweit regelmäßig verschiedene Parameter des Wetters gemessen. Insbesondere ab dem 19. Jahrhundert sind Mess-Stationen in vielen Ländern weit verbreitet. Hauptzweck ist es, die Daten-Grundlage für die lokale Wetter-Vorhersage zu erlangen. Nicht zu vergessen die Einsätze von Wetter-Ballonen oder Flugzeugen durch Meteorologen. Dadurch wird es möglich, auch Daten von unterschiedlichen Luftschichten der Atmosphäre zu erhalten.

Abb. 2:  DWD-Wetterwarte bei Weiden/Opf. (Bild: ohne Lizenz)

 

4.2.)  Indirekte Messung durch Proxy-Daten

Die meisten Leute werden sich bei der aktuellen Klimawandel-Diskussion fragen: Woher kommen eigentlich die Temperatur-Daten aus dem Mittelalter, aus dem Römischen Zeitalter, viele Jahrtausende oder 100 Tausende oder sogar Millionen Jahre zurück? Da gab es keine Thermometer bzw. gar keine Menschen! Wie ist das möglich?

Natürlich wurden die Temperaturen bei den Römern nicht direkt gemessen, sie hatten definitiv noch keine Thermometer. Hier sprechen die Forscher von so genannten Proxy-Daten. Das sind Temperatur-Daten, die durch indirekte Messungen erhalten werden. „Proxy-Daten“ ist ein Sammelbegriff für Informationen, die indirekt Auskunft über vergangene Klimaverhältnisse geben. Proxydaten erhalten wir aus Baumringen und Wachstumsringen in anderen Organismen (wie Korallen), Isotopenmessungen in Eisbohrkernen oder Sedimenten, oder biologische Proben wie etwa Pollenanalysen.

 5.) Zuverlässigkeit der Temperatur- Daten

 5.1.) Zuverlässigkeit der Proxy-Daten
Proxy-Daten werden grundsätzlich über längere Zeiträume der Erd-Vergangenheit ermittelt.Zum Beispiel bei Baumringen hunderte von Jahren oder Eisbohrkerne 10 Tausende von Jahren. Die große Stärke der Proxy-Daten-Ermittlung liegt in der in sich abgeschlossenen Methodik, der Konsistenz der Daten. Nehmen wir als Beispiel die zeitliche Abfolge der Schichten in Eisbohr-Kernen. Alle Proben werden an einer Stelle eines Gletschers bzw. eines Inlandeis-Panzers entnommen, gleich aufbereitet und mit derselben Methode gemessen. Vorausgesetzt, es werden keine groben Fehler gemacht, sind die Ergebnisse in sich konsistent und zuverlässig. Die besondere Stärke liegt in der guten Genauigkeit der relativen Änderungen innerhalb der jeweiligen Messreihen. Die Ermittlung der absoluten Temperatur im betrachteten Zeitraum ist kaum möglich.

5.2.) Zuverlässigkeit der direkt gemessenen Temperaturen seit 1850

Somit sind wir beim Hauptpunkt dieses Aufsatzes. Die gesamte Diskussion zum Thema „Klimawandel“ und „Erderwärmung“ basiert auf den Temperaturdaten der letzten 170 Jahre. Warum wird immer auf das Jahr 1850 referenziert? Der Zeitraum rund um das Jahr 1850 gilt als der Startpunkt der industriellen Revolution. Sozusagen der Beginn allen Übels bei vielen Protagonisten. Doch wie zuverlässig sind die weltweit direkt gemessenen Daten der letzten 170 Jahre? Das soll in den folgenden Kapiteln behandelt werden.

6.) Pseudo-Wissenschaft. „Gefahr“ durch Klima-Erwärmung.

Eine verbreitete Aussage bei den Physikern lautet „Wer viel misst, misst Mist“. Die Physik legt höchste Maßstäbe in die Ermittlung und Verarbeitung von Mess-Ergebnissen. Deshalb sind Physiker auch besonders kritisch, wenn sie Messungen in anderen Fachgebieten der Naturwissenschaft und Ingenieurs-Wissenschaften beurteilen.

 6.1.) Ivar Giaever bezeichnet die Klimawissenschaft als Pseudo-Wissenschaft.

Der hoch angesehene norwegisch amerikanische Physiker und Nobelpreis-Träger Ivar Giaever bezeichnete in dem viel beachteten Gast-Vortrag während des Nobelpreisträger-Treffens von 2012 in Lindau die Klimawissenschaft, basierend auf den seit 1850 ermittelten jährlichen Durchschnitts-Temperaturen der Erde, als Pseudo-Wissenschaft. Die Begründung ist nicht von der Hand zu weisen. Selbstverständlich verunglimpfen die „Klima-Alarmisten“ diese Position und versuchen die Argumente und Beweise von Giaever klein zu reden. Es sei betont, dass die nachfolgend beschriebenen Giaever-Kritikpunkte grundsätzlichen wissenschaftstheoretischen Prinzipien entsprechen. Andere Schlussfolgerungen wurden von ihm durch konsequent logische Denkweise erarbeitet.

Abb. 3:  Ivar Giaever, Physik-Nobelpreisträger und Klima-Kritiker  [1;2]. Bildlizenz: NTNU VitenskapsmuseetIvar Giæver, verkleinert von Dr. Andreas Karl, CC BY 2.0

 

Giaevers Hinweise und Kritikpunkte sind vielschichtig, gleichzeitig typisch für einen Physiker, der über den eigenen Tellerrand hinausschaut.

 6.2.) Ivar Giaevers Argumente und Beweise.

Außerordentlich bemerkenswert ist die Grundposition, mit der Giaever an die Thematik heran geht. Eigentlich interessierte ihn das Thema Klimawandel nicht. Er wurde gebeten dazu einen Gast-Vortrag in Lindau zu halten. Alleine diese Haltung, den Sachverhalt von außen als neutrale Person zu analysieren, spricht Giaever von Parteilichkeit frei. Er betrachtet die Fakten und Daten als kritischer Physiker, der sein gesamtes Wissenschaftler-Leben seine eigenen und fremde Mess-Ergebnisse bewerten musste. Sein Urteil ist vernichtend. Der Umgang und die Bewertung der gemessenen Temperaturen der Klimaforschung sei eindeutig eine Pseudowissenschaft.

6.1.1.) Grundsätzliche Kritik an der Genauigkeit

Giaevers Grundkritik besteht zunächst in der Angabe von zehntel Graden bei den Temperaturen zur Erderwärmung im Betrachtungs-Zeitraum. Eine angebliche Erwärmung von weniger als 1,5°C in 170 Jahren sei eine höchst erstaunliche Kontinuität des Klimas, völlig unabhängig von den Ursachen der Erwärmung. Die Temperatur-Angabe mit einer Auflösung von 0,1°C ist messtechnischer und physikalischer Unsinn.

Dazu ein treffendes Zitat des Mathematik-Genies Carl Friedrich Gauß: „Durch nichts zeigt sich mathematischer Unverstand deutlicher als durch ein Übermaß an Genauigkeit im Zahlenrechnen.“ Die Naturwissenschaft spricht bei der Verwendung von Messwerten von „Signifikanten Stellen“. Der korrekte Umgang mit Messwerten bezüglich der signifikanten Stellen wird sogar in der DIN 1333 beschrieben. Der Autor dieses Aufsatzes hatte in seinem Studium ein prägendes Erlebnis zu diesem Thema. Der damalige Physik-Professor kündigte im Vorfeld der Physik-Vordiplom-Klausur an: „Prüflinge, die den Rechenweg und das Ergebnis einer Aufgabe korrekt erarbeitet haben, jedoch das Ergebnis mit zu vielen signifikanten Stellen angeben, bekommen Punktabzug.

6.1.2.) Unterschiedliche Thermometer vor Ort und im Laufe der Zeit

Giaever kritisiert zu Recht, es sei mehr als naiv zu glauben, die auf der Welt verteilten Thermometer (Abb. 3) seien alle von gleicher Qualität und zeigen alle die korrekte Temperatur an. Dazu kommt die technische Entwicklung der letzten 170 Jahre. Selbst die optimistischste Phantasie reicht nicht aus zu glauben, all die weltweit über viele Jahrzehnte tausende Thermometer seien im Laufe der Zeit gleich genau und gleich zuverlässig gewesen.

Abb. 4: Thermometer (17. Jhdt.) und modernes Infrarot-Thermometer. Bildlizenzen: Links: Ferdinand II de‘ Medici [attr.] Museo GalileoTermometri cinquantigradi inv 85 IF 46774CC BY-SA 4.0. Rechts: Hedwig Storch1024 Pyrometer-8445CC BY-SA 3.0

 

6.1.3.) Ungleiche Verteilung der Thermometer auf der Erde

Alleine die Tatsache der ungleichmäßigen Verteilung der meteorologischen Mess-Stationen über die Erdoberfläche reicht aus, die Berechnung einer fiktiven Durchschnitts-Temperatur der Erde als unrealistisch bzw. unmöglich zurückzuweisen. Abbildung 4 zeigt die Häufung der Mess-Stationen auf der nördlichen Erdhalbkugel und den Industrie-staaten. Weite Bereiche Afrikas, Südamerikas, Kanadas, Grönlands und von Sibirien werden nicht abgedeckt. In der Antarktis, die einen großen Einfluss auf das Erdklima hat, gibt es nur wenige Stationen an der Küste.

Abb. 5: Verteilung meteorologischer Mess-Stationen auf der Erde im 21. Jhdt. [3;4]

 

Abb. 6: Gemeldete Wetterwerte für die Woche vom 2. bis 8. Januar 2000 (Schiffe) [3;4]

 

Ca. 70% der Erde sind mit Wasser bedeckt. Wie die Forschungen der letzten Jahrzehnte ergeben haben, spielen die Ozeane eine entscheidende Rolle für das Klima der Erde. Entgegen der meteorologischen Bedeutung der Ozeane ist die dort die Abdeckung der Mess-Stationen nur mangelhaft. Sowohl in Abbildung 5 als auch in Abbildung 6 ist zu erkennen, welche riesigen Lücken nicht durch Messungen abgedeckt werden. Abbildung 7 zeigt die zeitliche Entwicklung der über die Erde verteilten Mess-Stationen über einen Zeitraum von 100 Jahren.

Abb. 7: Meteorologische Mess-Stationen von 1885-1985 [3;4]

 

6.1.4.) Veränderungen im Umfeld von Mess-Stationen und deren Einfluss auf
die gemessenen Temperaturen.

Beispiele: Eine Mess-Station lag 100 Jahre außerhalb einer Stadt, inzwischen ist die Stadt um die Station herum gewachsen. Nahe einer Mess-Station gab es keinen nennenswerten Bewuchs, dann wurde in der Nähe ein Wald aufgeforstet. In 30m Entfernung einer Mess-Station wurde ein Gebäude errichtet. Die Liste solcher Beispiele kann beliebig verlängert werden. Niemand ist in der Lage, die veränderten Einflüsse aus der unmittelbaren Umgebung der Mess-Stationen zu bewerten und einzurechnen. Ein Argument Giaevers, das sicherlich einen großen Einfluss auf den Fehler in der zeitlichen Betrachtung hat.

6.2.) Giaevers philosophische Grundsatz-Kritik zur Klima-Diskussion

Ivar Giaever begnügt sich nicht mit den reinen Sachargumenten oder den Beweisen, die er vorgelegt hat. Er blickt tiefer, macht sich grundsätzliche Gedanken zur Klima-Debatte. Seine im Folgenden beschriebenen Überlegungen haben den Autor dieses Aufsatzes am meisten beeindruckt und gleichzeitig überzeugt.

Giaever blickt auf die Welt als Gesamtes und auf sich als Person. Alles und jeder ist betroffen von Veränderung und Alterung, das kann niemand bestreiten. Er fragt, warum in den meisten Bereichen der politischen und gesellschaftlichen Diskussion die Dinge sich nur zum Negativen bewegen, immer wieder negativ, negativ. Niemand kann bestreiten, dass die Entwicklung der Menschheit seit 1850 einen positiven Weg genommen hat. Die Menschen leben angenehmer, sicherer, Hungern weniger und werden älter. Was soll so negativ an der Temperatur-Entwicklung sein? Wer sagt uns, was die „Optimale Temperatur auf der Erde ist? Wie bereits gesagt, alle Klimaforscher referenzieren auf die Temperatur um 1850. Es ist absolut unwahrscheinlich, dass ausgerechnet diese Temperatur optimal gewesen sein soll. Im Gegenteil, die Klimatologen sprechen vom Römischen Temperatur-Optimum und dem Mittelalterlichen Temperatur-Optimum.

6.3.) Ergänzende Informationen zur Klimaerwärmung (CO2-Einfluss)

Die Zeit um 1850 gilt als das Ende der „Kleinen Eiszeit“, eine Kaltperiode über ca. 400 Jahre innerhalb der aktuellen Eiszeit. Anders formuliert: Um 1850 begann eine Warmphase innerhalb der aktuellen Eiszeit. Gleichzeitig begann um das Jahr 1850 auch die industrielle Revolution (s. unter 5.2.). Folgt nach einer Kaltperiode eine Warmzeit, so muss sich die Erde auch ohne Zutun des Menschen erwärmen. Eine einfache und logische Schlussfolgerung. Schließlich wurde die kleine Eiszeit ja nicht vom Menschen verursacht. Das IPCC (Klimawandel-Organisation der UNO) behauptet jedoch seit 2016, dass die gesamte Erderwärmung seit 1850 ausschließlich auf die Wirkung des anthropogenen CO2 zurückzuführen ist. Mit massiven Auswirkungen auf die Wirtschaft und Energie-Politik der jeweiligen Staaten. Leider ist ausgerechnet Deutschland der Protagonist dieser unsäglichen Ideologie.

Abb. 8: Veröffentlichung von Patrica Adams [5]

 

Was die „Klima-Alarmisten“ der religiös anmutenden Glaubensgemeinschaft übersehen, ist die Entwicklung in den entscheidenden Ländern Indien und China. Beide haben dem Pariser Klima-Abkommen zugestimmt, sind jedoch berechtigt bis 2050 soviel CO2 auszustoßen, wie sie wollen. Patricia Adams hat kürzlich einen Aufsatz mit dem treffenden Titel „THE RED AND THE GREEN CHINA´S USEFUL IDIOTS“ veröffentlicht.

Mit der von der Politik ausgerufenen Energiewende in Deutschland zerstören wir unsere sichere und unabhängige Energie-Versorgung. Hierzu gibt es viele Veröffentlichungen von unabhängigen Wissenschaftlern, Ökonomen und Ingenieuren. Am bekanntesten ist wohl der ehemalige Chef des ifo-Instituts Prof. Hans-Werner Sinn. Er warnt seit vielen Jahren vor dem Umbau der deutschen Strom-Versorgung hin zu einem Übermaß an regenerativer Stromerzeugung.

6.4.) Stimmen anderer Wissenschaftler

Es gibt auch Wissenschaftler, die sich in Veröffentlichungen kritisch zur Problematik der Ermittlung der mittleren Lufttemperatur der Erde in den letzten 170 Jahren geäußert haben. Verstärkt wird diese Kritik durch geachtete wissenschaftliche Stimmen, welche die Methodik der Temperatur-Ermittlung, das Verständnis des Klimas und den Ausblick auf die Zukunft des Klimas durch die Klimawissenschaftler mit ihren aufwändigen Computer-Modellen in Frage stellen. Dazu 2 ausgewählte Bespiele.

6.4.1.) Fundamentalkritik durch das Genie Freeman Dyson

Freeman Dyson (s. Abb. 9, links), der geniale Mathematiker und Physiker lehrte über 40 Jahre Jahre lang an der Princeton University am Lehrstuhl für Theoretische Physik. Sein Vorgänger auf diese Position war Albert Einstein. Leider ist Freeman Dyson am 28.02.2020 im Alter von 96 Jahren verstorben. In Amerika, sowie in naturwissen-schaftlichen Kreisen, galt Freeman Dyson als Genie. Wegen seiner freundlichen und humorvollen Art war er ein „Wissenschafts-Superstar“. In Interviews wusste er immer zu überraschen und sorgte für Heiterkeit. Andererseits war er kein Mensch, der gemütlich auf der Mainstream-Welle schwamm (s. Abb. 9, rechts).

Abb. 9  Freeman Dyson (2007) am Institute of Advanced Study. Bildlizenz: MonroemFreeman dysonCC BY-SA 3.0 

 

Bereits Ende der 60er-Jahre und Anfang der 70er-Jahre war Dyson an den ersten Computer-Modellrechnungen zur Darstellung und Voraussage des Wetters beteiligt. Kein Wissenschaftler auf der Welt kann diese jahrzehntelange Erfahrung auf diesem Gebiet vorweisen. Kaum jemand kennt die Stärken und Schwächen der Klima-Vorhersage besser als er. In vielen Interviews der letzten 15 Jahre wurde er zu seiner Position in der Diskussion zum Klimawandel befragt. Seine Haupt-Thesen stellte er folgendermaßen (hier vereinfacht) dar:  1.) Die Wissenschaft ist noch nicht annähernd in der Lage die Komplexität des Wetters und des Klimas zu verstehen. Viele Fragen zur Wolkenbildung, der Rolle der Ozeane, Einflüsse der Sonne, usw. sind ungeklärt.  2.) Versuche, das Klima über längere Zeiträume vorauszusagen, müssen zwangsläufig scheitern. 3.) Der Einfluss des anthropogenen CO2 zur Erderwärmung der letzten 170 Jahre wird überbewertet. Dagegen werden die positiven Effekte der gestiegenen CO2-Konzentration in der Atmosphäre nicht ausreichend berücksichtigt.

6.4.2.) Positive Auswirkungen der erhöhten CO2-Konzentration

Die USDA (U.S. Department of Agriculture) meldet seit vielen Jahren eine stetig steigende weltweite Getreideernte. Diese Meldungen beschränken sich nicht auf nur auf die weltweite Weizenernte (s. Abb. 10) sondern sind für alle wichtigen Getreidearten wie Reis, Gerste, Mais oder Soja zu beobachten. Wo sind die Auswirkungen der Hitzeperioden, Trockenperioden, Stürmen und Hochwasser, wie sie von den Klima-Alarmisten propagiert werden? Fakt ist, CO2 ist der mit Abstand beste Pflanzendünger.

Abb. 10  Weltweite Weizenernte der letzten 20 Jahre (Quelle: USDA)

 

Abb. 11  Bild aus einer NASA-Studie von 2016 „Carbon Dixoide Fertilisation, Greening Earth“ [6]

 

Eine NASA-Studie aus 2016 belegt eindeutig den Düngungs-Effekt durch vermehrtes CO2 in der Atmosphäre. Die Satelliten-Daten (s. Abb. 11) zeigen einen unerwarteten und höchst erstaunlichen Effekt. Die Erde wird grüner! Dank der erhöhten CO2-Konzentration wachsen die Pflanzen besser und schneller, die Wüsten der Erde werden kleiner.

Die Weltbevölkerung steuert bald auf 8 Mrd. Menschen zu. Deshalb sollte die Welternährungs-Organisation der UNO (FAO) eine Studie in Auftrag geben, wieviel Menschen die Erde im Jahr 1850 mit einer CO2-Konzentration von 280 ppm im Vergleich zu heute mit einer CO2-Konzentration von 410 ppm hätte ernähren können. Eine spannende Frage, zumal das Jahr 1850 als „gute“ vorindustrielle Zeit gilt. Die Klima-Alarmisten fordern doch die Rückkehr zu den CO2-Werten der Atmosphäre vor 170 Jahren.

6.4.3.) Bewertung der Temperaturdaten durch Pat Frank

Unterhalb des Radars der Öffentlichkeit wird der der Druck im „Schnellkochtopf“ der Klimawandel-Diskussion immer größer. Die klimakritischen, nicht IPCC-konformen wissenschaftlichen Papers sind von Jahr zu Jahr in größerer Anzahl zu vermelden. Bisher schaffen es jedoch die gleichgeschalteten Medien, besonders in Deutschland, diese Informationen gut unter den Teppich zu kehren. Nur Leute, die bewusst nach nicht klima-alarmistischen Informationen suchen, werden fündig. Ansonsten ist die Meinungs-Hoheit  fest in der Hand der Mainstream-Medien.

Abb. 12  Bewertung der Messfehler bei den durchschnittlichen weltweiten Temperaturen nach Pat Frank

 

Was in diesem Aufsatz eher qualitativ bewertet wurde, hat Pat Frank bereits 2010 und 2011 in 2 interessanten Veröffentlichungen quantifiziert. Er untersuchte die vorliegenden Temperaturdaten nach mathematisch physikalisch Prinzipien auf Zuverlässigkeit. Seine Ergebnisse sind in einem Diagramm zusammengefasst (s. Abb.12).

Quellen: Energy & Environment · Vol. 21, No. 8, 2010; Pat Frank; Uncertainty in the global average surface air temperature index: representative lower limit

Energy & Environment · Energy & Environment · Vol. 22, No. 4, 2011; Pat Frank „Imposed and Neglected Uncertainty in the Global Average Surf

Die Schlussfolgerungen von Pat Frank zu den Fehlergrößen der Temperatur-Messungen in den letzten 170 Jahren sind logisch und nachvollziehbar. Dabei kommt es nicht darauf an, ob der Fehlerbalken 0,46K (s. Abb. 12) groß ist, etwas größer oder kleiner. Entscheidend ist die Erkenntnis, dass die Darstellungen in allen wissenschaftlichen Veröffentlichungen und in den Medien deutlich fehlerbehaftet sind.

Abb. 13: The black line shows the global annual average land-surface air temperature anomalies from 1856 to 2013 from the CRUTEM4 dataset (data here in this format). The grey area shows the 95% confidence range on the annual averages. [7]

Mit großer Wahrscheinlichkeit sind die einheitlichen Fehlerbalken von Pat Frank über den gesamten Zeitraum von 170 Jahren nicht durchgehend realistisch. Die messtechnischen Entwicklungen und bessere Verteilung der Mess-Stationen über die Erde im Laufe der Zeit werden von ihm nicht berücksichtigt. Realistischer dürfte die Abschätzung des englischen Metoffice-Instituts sein (Abb. 13). Die Fehlerbalken sind im 19. Jahrhundert groß und werden im Laufe der Zeit kleiner. Eine Darstellung, die wesentlich besser die Argumente in den vorhergehenden Kapiteln dieses Aufsatzes berücksichtigen.

7.) Schlussfolgerungen

Die Grundlage aller Argumente und Schlussfolgerungen des IPCC, der Klima-wissenschaftler und Klima-Alarmisten sind die verfügbaren weltweiten Durchschnitts-Temperaturen seit 1850. Die Zeit zu Beginn der Industrialisierung ist sozusagen der „Absolute Nullpunkt“ für die Temperatur-Entwicklung auf unserer Erde. Dieser Bezugspunkt wurde gewählt, weil ab dort die Menschheit relevant zum Anstieg der CO2-Konzentration in der Atmosphäre beigetragen hat. Der so genannte anthropogene CO2-Anteil. Was nützten starke Mauern, massive Zwischendecken und ein festes Dach, wenn das Fundament eines Gebäudes zu schwach ausgelegt ist? Fakt ist, die verfügbaren Temperaturdaten (Fundament) sind fehlerbehaftet. Die Fehlergröße bewegt sich in einem Bereich, wo eine Referenzierung auf diese Daten wissenschaftlich keinen Sinn macht. Alle noch so großen Anstrengungen der Klimawissenschaftler mit ihren immer leistungsfähigeren Großcomputer werden die Simulationen zur Zukunft des Erdklimas nicht verbessern. Die Datenbasis ist schlecht, die Kenntnisse über das hoch komplexe Klima immer noch gering (Freeman Dyson). Deshalb bleibt die Klimawissenschaft, die einzig auf die Wirkung des anthropogenen CO2 abzielt, eine Pseudo-Wissenschaft.

Referenzen:

[1]  Ivar Giaever, The Strange Case of Global Warming, 2012 in Lindau (DE)
https://www.mediatheque.lindau-nobel.org/videos/31259/the-strange-case-of-global-warming-2012

[2]  Ivar Giaever, Global Warming Revisited, 2015 in Lindau (DE)
https://www.mediatheque.lindau-nobel.org/videos/31259/the-strange-case-of-global-warming-2012

[3]   Energy & Environment · Vol. 21, No. 8, 2010; Pat Frank; Uncertainty in the global average surface
air temperature index: representative lower limit

[4]  Energy & Environment · Energy & Environment · Vol. 22, No. 4, 2011; Pat Frank „Imposed and
Neglected Uncertainty in the Global Average Surface

[5]   Patricia Adams in GWPF, 2020   https://www.thegwpf.org/content/uploads/2020/12/Green-reds.pdf?utm_source=CCNet+Newsletter&utm_campaign=ac7e32fda3-EMAIL_CAMPAIGN_2020_12_11_10_30_COPY_01&utm_medium=email&utm_term=0_fe4b2f45ef-ac7e32fda3-36485917&mc_cid=ac7e32fda3&mc_eid=a769d95777

[6]  https://www.nasa.gov/feature/goddard/2016/carbon-dioxide-fertilization-greening-earth

[7]  Metoffice:  https://www.metoffice.gov.uk/hadobs/hadcrut3/diagnostics/comparison.html

Der Beitrag erschien zuerst bei Die Kalte Sonne hier

Über den Autor:

Andreas Karl, ist promovierter Diplom-Chemiker (Organische Chemie)  55 Jahre alt, verheiratet, 3 erwachsene Kinder und auch schon stolzer Opa.
Lebt in der Mittleren Oberpfalz. Seit der Uni-Ausbildung nicht mehr in der Forschung tätig, hat jedoch nie den Bezug und das Interesse an Naturwissenschaft und Technik verloren. Seit ca. 2 Jahren großes Interesse zum Thema „ Klimawandel“. Arbeitet im Vertrieb bei einem großen Chemie-/ Pharma-Konzern.

Anmerkung der Redaktion

Es sei auch in diesem Zusammenhang auf die grundlegenden Arbeiten unseres Vizepräsidenten Michael Limburg verwiesen. Der sie im März 2010 über seine offiziell eingereichte Dissertation  der Öffentlichkeit vorstellte. Wer sie nachlesen möchte mag dies hier tun.