1

China umarmt Kohle viel mehr als Wind

China nutzt Windkraft ein wenig, aber sie sind klug genug, sich davon nicht beirren zu lassen (im Gegensatz zu uns). Die erneuerbaren Energien treiben unsere Stromkosten in die Höhe, während China klugerweise im billigen Saft schwelgt.

Zur Veranschaulichung: Vor nicht allzu langer Zeit verbrannten die USA etwa eine Milliarde Tonnen Kohle pro Jahr, um Strom zu erzeugen. Wir erzeugten etwa 2.000 Terawattstunden (TWh) Strom aus Kohle, etwa die Hälfte unserer gesamten 4.000 TWh. Der törichte Krieg gegen die Kohle hat diese Menge auf etwa 600 Millionen Tonnen reduziert, wobei weitere Reduktionen geplant sind.

Durch einen seltsamen Zufall hörte genau zu der Zeit, als der Kohleverbrauch vor etwa 12 Jahren von Wachstum auf Schrumpfung umschaltete, auch Amerikas Stromverbrauch auf zuzunehmen. Seitdem ist er bei etwa 4.000 TWh geblieben. Vielleicht wurden neue energieintensive industrielle Entwicklungen alle von Amerika nach China verlagert, in Erwartung der folgenden US-Strompreiserhöhungen.

China hingegen erzeugt jetzt satte 7.500 TWh Strom, also knapp das Doppelte von Amerika. Richtig gelesen: sie produzieren fast doppelt so viel Strom wie wir.

Noch schlimmer ist, dass weniger als 25 % unseres Stroms für industrielle Zwecke verwendet wird, während in China angeblich 70 % des Stroms industriellen Zwecken dient. Das sind etwa 1.000 TWh in Amerika gegenüber 5.000 in China, also fünfmal so viel industrielle Nutzung von Strom. Kein Wunder, dass China die meisten der Produkte herstellt, die wir verwenden (und für die wir bezahlen).

Darüber hinaus wird der Großteil des Stromes in China mittels Kohle erzeugt. Von ihren 7.500 TWh werden etwa 5.000 TWh, also ganze zwei Drittel, mit billiger Kohle betrieben. Zufälligerweise entspricht das ihrem gesamten industriellen Verbrauch. Oder vielleicht ist es kein Zufall, sondern der Grund, warum sie in der Weltwirtschaft so wettbewerbsfähig bleiben.

Auf jeden Fall erzeugt China mehr Strom mit Kohle als Amerika aus allen Quellen zusammen. Das ist eine riesige Menge. Chinas boomende Wirtschaft läuft im Wesentlichen mit Kohle.

Wenn es um Windenergie geht, ist die Geschichte ganz anders. China verfügt über einen gewissen Anteil, nämlich etwa 400 TWH aus Windkraft, das sind etwa 5 % der Gesamterzeugung. Das ist zwar nur eine symbolische Menge, aber sie nimmt zu, wie alle anderen Formen der Stromerzeugung auch.

Am interessantesten ist aber der angegebene „Kapazitätsfaktor“ für Windenergie. Der Kapazitätsfaktor (CF) ist das Verhältnis zwischen der in einem Jahr produzierten Strommenge und der Menge, die produziert werden könnte, wenn die Generatoren die ganze Zeit mit voller Leistung laufen würden. Letzteres wird als Nennleistung bezeichnet, so dass der CF gleich der produzierten Leistung geteilt durch die Nennleistung ist, ausgedrückt in Prozent.

Da Wind intermittierend ist, ist sein CF ziemlich niedrig, typischerweise 30 bis 35% in den USA. Aber China berichtet eine Wind-CF von weniger als 20%! Der Grund dafür ist ein wichtiger Baustein des wirtschaftlichen Erfolgs Chinas. Im Gegensatz zu uns drosseln sie nicht die Kohleverstromung, nur um Platz für Windkraft zu schaffen, wenn der Wind gerade weht.

China nutzt also die Windenergie, wenn sie sie brauchen, aber sonst nicht. Wir hingegen drosseln unsere mit Kohle und Gas befeuerten Kraftwerke, wenn Windstrom da ist, was wirklich dumm ist.

China erzeugt fast doppelt so viel Strom wie Amerika, und zwei Drittel dieses Stroms kommen aus Kohle. Wind ist mit 5 % ein Alibi-Generator und darf der Kohlekraft nicht in die Quere kommen.

Jeder, der glaubt, dass China die Kohle durch Wind ersetzen wird, ist einfach nur ein grüner Träumer. Kohle ist zentral für Chinas Macht.

[Hervorhebung vom Übersetzer]

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting

Übersetzt von Chris Frey EIKE




Grundgesetz: Professor Ahnungslos vom RKI

Bei Wikipedia kann man nachlesen, dass Brockmann am Robert-Koch-Institut die Projektgruppe P4 „Epidemiologische Modellierung von Infektionskrankheiten“ leitet. Im Ergebnis handelt es sich bei ihm also zweifellos um einen jener Experten am RKI, die von der Bundesregierung bei der Bewältigung der Corona-Pandemie zu Rate gezogen werden. Um so erstaunlicher ist es, welche Erklärungen er in dem Interview von sich gegeben hat, die juristisch betrachtet – gelinde formuliert – unhaltbar sind.

In dem Interview wird Brockmann unter anderem vorgehalten, dass Politiker und Juristen eine Beschränkung von Reisen auf 15 Kilometer als unverhältnismäßig kritisieren und dass es bessere, passgenauere Maßnahmen gebe, beispielsweise das Schließen von Skigebieten. Laut t-online antwortete Brockmann: „Ich lehne das Wort „unverhältnismäßig“ in diesem Zusammenhang ab. Da steckt ‚Verhältnis‘ drin. Das suggeriert, dass man Zahlen zum Zusammenhang zwischen Kontakten und Reisen kennt… Es gibt diese Daten nicht. Bisher wurde der Zusammenhang zwischen Reisen und der Anzahl der Kontakte nur wenig beziehungsweise unzureichend erforscht“.

Diese Aussage ist, wenn man ehrlich bleibt, ein geistiges Armutszeugnis. Es sollte jedem gebildeten Staatsbürger in Deutschland, auch Herrn Brockmann, mittlerweile klar sein, dass der Grundsatz der Verhältnismäßigkeit ein Rechtssatz ist und nicht nur die Beschreibung eines mathematischen Zusammenhangs von Zahlen. Der Grundsatz der Verhältnismäßigkeit hat darüber hinaus – dieses Wissen kann man bei einem Physik-Professor wahrscheinlich nicht erwarten, sondern nur bei einem Juristen – nach jahrzehntelanger Rechtsprechung des Bundesverfassungsgerichts Verfassungsrang!

Der Grundsatz der Verhältnismäßigkeit gilt also immer und in jedem Zusammenhang, auch im Zusammenhang mit Corona. Brockmanns Satz: „Ich lehne das Wort ‚unverhältnismäßig‘ in diesem Zusammenhang ab“ ist folglich absurd und schlicht unvertretbar. Brockmann hat erkennbar von Grundrechten und vom Verhältnismäßigkeitsgrundsatz so viel Ahnung, wie ein Medizinmann aus dem Busch Kenntnis hat von moderner Herzchirurgie: nämlich gar keine. Sein Satz, er lehne das Wort „unverhältnismäßig“ im Zusammenhang mit Corona ab, ist etwa so richtig, wie wenn er gesagt hätte, dass er im Zusammenhang mit Corona die Beachtung von Grundrechten ablehne. Leider gibt das Interview Anlass dafür, genau das zu vermuten.

Im juristischen Sinne völlig unverhältnismäßig

Die Antwort von Brockmann ist auch in einem weiteren Punkt bemerkenswert. Denn aus seiner oben erwähnten Antwort ergibt sich, wenn auch von ihm unbeabsichtigt, dass die Anordnung einer Beschränkung von Reisen auf 15 Kilometer im juristischen Sinne völlig unverhältnismäßig ist.

Für alle juristischen Laien, zu denen erkennbar Brockmann sowie einige Ministerpräsidenten in Deutschland gehören, sei daher an dieser Stelle ein kurze juristische Einführung in den Grundsatz der Verhältnismäßigkeit gegeben: Nach jahrzehntelanger Rechtsprechung des Bundesverfassungsgerichts und aller übrigen obersten Bundesgerichte ist eine staatliche Maßnahme nur dann verhältnismäßig, wenn sie geeignet ist, das beabsichtigte Ziel zu erreichen, wenn sie erforderlich ist, um das beabsichtigte Ziel zu erreichen und wenn sie verhältnismäßig im engeren Sinne ist, also nicht gegen das Übermaßverbot verstößt.

Das beabsichtigte Ziel ist klar definiert: Eine Absenkung der Infektionszahlen zur Eindämmung der Pandemie. Ist eine Beschränkung von Reisen auf 15 Kilometer geeignet, um dieses Ziel zu erreichen?

Klare Antwort: Nein! Sogar Brockmann, ein Experte für „Epidemiologische Modellierung von Infektionskrankheiten“, erklärt selbst in seiner oben zitierten Antwort, dass es keine Daten gibt, die einen Zusammenhang zwischen Reisen und Kontakten belegen und dass diese gesamte Frage bisher nicht erforscht ist! Es fehlt also bereits an einem Nachweis, dass die beabsichtigte staatliche Maßnahme der Beschränkung der Reisen auf 15 Kilometer überhaupt geeignet ist, um das beabsichtigte Ziel zu erreichen. Zumindest die Geeignetheit einer Maßnahme muss aber zweifelsfrei feststehen, wenn sie als Rechtfertigung für einen Eingriff in Grundrechte herhalten soll. Von der Erforderlichkeit der Maßnahme (gibt es nicht tatsächlich weniger einschneidende und mildere Mittel?) und der Verhältnismäßigkeit im engeren Sinne (schießt man hier nicht deutlich übers Ziel hinaus?) braucht gar nicht mehr gesprochen zu werden. Sie liegen beide zweifelsfrei ebenso nicht vor.

Aus der eigenen Antwort eines Experten des Robert-Koch-Instituts ergibt sich also bereits, dass die Beschränkung von Reisen auf 15 Kilometer Entfernung im Rechtssinne völlig unverhältnismäßig ist. Die Bundesregierung bzw. die Landesregierungen haben insoweit auch keinen Beurteilungsspielraum mehr und keine Einschätzungsprärogative. Im Gegensatz zum ersten Lockdown im Früjahr 2020, als man über das Corona-Virus so gut wie nichts wusste, keine Masken und keine Impfungen hatte und man eine Pandemie mit Millionen von Toten allein in Deutschland befürchten musste, wissen wir heute eine ganze Menge über das Virus, haben Masken und Impfmittel und können auch mit Sicherheit sagen, dass keine Millionen von Menschen in Deutschland an Corona sterben werden.

Ein Akt der Willkür und bloßer Aktionismus

Da nach den eigenen Angaben des RKI-Experten Brockmann keinerlei Zahlen und keine Forschung dafür vorliegen, dass ein Zusammenhang zwischen Reisen von mehr als 15 Kilometern Entfernung und vermehrten Kontakten und Infektionen besteht, liegt das generelle Verbot von Reisen von mehr als 15 Kilometern Länge nicht mehr im Beurteilungsspielraum der Regierenden, sondern stellt einen Akt der Willkür bzw. bloßen Aktionismus dar.

Brockmann offenbart in dem Interview, aber auch ansonsten, eine – vorsichtig formuliert – sehr eigenwillige Sichtweise auf die freiheitliche demokratische Grundordnung des Grundgesetzes. So erklärt er u.a.: „Generell gilt: Jede Reise, die nicht unternommen wird, schadet nicht“.

Diese Aussage lässt tief blicken. In der freiheitlichen demokratischen Grundordnung ist nämlich, was Brockmann offenbar nicht weiß, grundsätzlich erst einmal alles erlaubt, was nicht verboten ist. Das ergibt sich aus der allgemeinen Handlungsfreiheit (Art. 2 Abs. 1 GG). Der Staat darf nicht völlig willkürlich und nicht unverhältnismäßig irgendwelche Verbote erlassen. Vielmehr muss der Staat einen vernünftigen Grund vorweisen können, um in die Freiheit seiner Bürger eingreifen zu dürfen.

In einem freiheitlichen Rechtsstaat stellt sich also nicht die Frage, ob eine Reise „nicht“ schadet. Das ist eine Sichtweise, die in Diktaturen gehört. Sondern in einem freiheitlichen System ist die einzige Frage, „ob“ eine Reise schadet. Denn nur dann kann sie verboten werden! Sonst nicht. Die Denkweise, erst einmal prophylaktisch alles zu verbieten, was unter Umständen schaden könnte, gehört, wie bereits erwähnt, in Diktaturen, aber nicht in eine freiheitliche Demokratie.

Wenn es darum ginge, alles zu verbieten, was möglicherweise schaden könnte, müsste man nicht nur Reisen von mehr als 15 Kilometer Entfernung, sondern beinahe sämtliche Errungenschaften der modernen Gesellschaft verbieten. Hier nur einige Beispiele: Man müsste den Autoverkehr komplett verbieten, weil nachweislich durch den Autoverkehr jedes Jahr in Deutschland durchschnittlich mehr als 3.000 Menschen ums Leben kommen. Man müsste sämtliche Demonstrationen und den Zusammentritt des Bundestages verbieten. Überlegen Sie sich mal, welches Infektionsrisiko besteht, wenn sich 709 Abgeordnete des Bundestages bei den Debatten einfinden, dort Stunden lang debattieren und sich teilweise sogar lautstark beschimpfen. Man möchte gar nicht wissen, wie viele Aerosole und wie viele Tröpfchen dort umherschwirren und andere Menschen anstecken könnten. Und man müsste Computer und Internet – zumindest für die Allgemeinheit – verbieten, weil sie Strom benötigen, viel CO2-Ausstoß verursachen und von „schlechten“ Menschen missbraucht werden.

Das Modell der vorbeugenden Inhaftierung

Eine solche Herangehensweise, alles zu verbieten, was möglicherweise gefährlich werden könnte, wäre auch im Strafrecht interessant. Wenn jemand beispielsweise schon viermal rechtskräftig wegen Diebstahls verurteilt wurde, müsste er beim fünften Mal ohne Wenn und Aber – auch ohne komplizierte und mühevolle Gerichtsverhandlung – sofort eingesperrt werden. Denn er könnte ja möglicherweise wieder stehlen gehen. Und eine solche Prognose wäre statistisch nicht einmal von der Hand zu weisen. Denn es ist wissenschaftlich erwiesen, dass jemand, der ein bestimmtes Verhaltensmuster erlernt hat und mehrfach einschlägig zuvor verurteilt wurde, auch in Zukunft mit signifikant höherer Wahrscheinlichkeit wieder eine solche Straftat begehen wird als ein unbescholtener Bürger aus der Durchschnittsbevölkerung.

Das Modell der vorbeugenden Inhaftierung hatten wir übrigens schon einmal in Deutschland zwischen 1933 und 1945. Damals wurden auch missliebige Personen ohne Gerichtsverhandlung in „Schutzhaft“ genommen, weil angeblich die Gefahr bestand, sie könnten weitere Straftaten begehen oder dem System gefährlich werden.

Dieses drastische Beispiel zeigt, wie absurd eine solche Denkweise ist, prophylaktisch alles zu verbieten, was gefährlich werden könnte, und dass diese Denkweise in einer freiheitlich-demokratischen Grundordnung nach dem Grundgesetz nichts zu suchen hat. Die Tatsache, dass Brockmann anscheinend nicht viel von Freiheit hält, wird auch noch an einer anderen Stelle des Interviews deutlich.

Auf das Ansprechen der Ein-Personen-Regel (dass sich also die Angehörigen eines Haushalts nur noch mit einer einzigen haushaltsfremden Person treffen dürfen), antwortet Brockmann:

„Das ist die sinnvollste Regel überhaupt! Es sprengt die Kontaktnetzwerke, zerstückelt sie. Das ist das wichtigste.“

Wenn man die Situation allein und ausschließlich unter dem Blickwinkel der Absenkung der Infektionszahlen betrachtet, hat Brockmann sicherlich recht. Aber mit einem freiheitlichen Staat, der seinen Bürgern Grundrechte, unter anderem das Recht auf Freizügigkeit und Berufsfreiheit garantiert, hat das nicht mehr viel zu tun. Außerdem blendet Brockmann die negativen Folgen solcher Beschränkungen einerseits für die Menschen und ihre Bedürfnisse, andererseits für die Wirtschaft, die unser aller Lebensgrundlage darstellt, völlig aus. Er orientiert sich leider völlig einseitig nur an dem Ziel, die Infektionszahlen zu senken.

Sofern man die Aussage von Brockmann zugrunde legen würde, nämlich um jeden Preis die Kontaktnetzwerke zu „sprengen“ und zu „zerstückeln“, läge die effektivste Bekämpfung der Infektionszahlen zweifellos darin, alle Deutschen, mit Ausnahme der Menschen in systemrelevanten Berufen, einzusperren und zu isolieren, entweder im Gefängnis oder in einem geschlossenen Krankenhaus oder bei sich zu Hause. Man müsste auf jeden Fall verhindern, dass sich noch eine nennenswerte Zahl von Menschen in Deutschland frei auf den Straßen bewegt. Vielmehr wäre es nach Brockmann sinnvoll, eine Friedhofsruhe herzustellen, bei der sich niemand mehr anstecken könnte. Das würde dann aber leider sehr den Verhältnissen in Nordkorea ähneln.

Von unserer Rechts- und Werteordnung keine Ahnung

Auch an einer weiteren Stelle wird Brockmanns problematisches Verständnis von unserer Gesellschaftsordnung nach dem Grundgesetz deutlich.

Er führt u.a. aus: „Wir brauchen einen System-Switch, glaube ich. Die Dauer des Lockdowns würde ich nicht mehr von einem Datum abhängig machen, sondern von der Inzidenz“.

Mit einem solchen Unterfangen hätten wir einen unbefristeten Lockdown (!), und die Bevölkerung dürfte sich in ängstlicher Neugier täglich die Inzidenzzahlen angucken, ob dort eine Besserung in Sicht ist. Auch das erinnert leider fatal an Diktaturen, die wir in Deutschland schon hatten, als beispielsweise während des Zweiten Weltkrieges die Menschen gläubig die Wehrmachtsberichte von den Geschehnissen an der Front hören oder während der Zeit des Arbeiter- und Bauernstaates die Erfolge der sozialistischen Wirtschaft in den Fünfjahresplänen zur Kenntnis nehmen durften. Beide Diktaturen waren nicht sehr menschenfreundlich und auf Dauer nicht erfolgreich. Sie dürften daher kaum als Vorbild für die Bewältigung der heutigen Aufgaben in der Bundesrepublik dienen.

Brockmann und andere „Experten“, zu denen anscheinend auch mancher Ministerpräsident gehört, mögen zwar viel über Corona und die Ausbreitung von Infektionen wissen. Von unserer Rechts- und Werteordnung nach dem Grundgesetz, zu der auch die Abwägung von Belangen und der Verhältnismäßigkeitsgrundsatz gehören, haben sie aber offenbar keine Ahnung. Oder, was ebenso schlimm wäre, sie ignorieren sie, um die eigene Macht und das eigene Prestige zu bewahren.

 

Der Autor ist Richter an einem deutschen Gericht und schreibt hier unter Pseudonym.

Der Beitrag erschien zuerst bei ACHGUT hier




Die Temperaturen im Dezember 2020 und das deutsche Stromabschaltungsgesetz

Aber zunächst zur Temperaturentwicklung.Die globale Mitteltemperatur der satellitengestützten Messungen ging im Dezember stark zurück. Die Abweichung vom 30-jährigen Mittel (1981 bis 2010) betrug nur noch 0,27 Grad Celsius (November 0,53 Grad Celsius). 2020 blieb allerdings das zweitwärmste Jahr seit 1979 (hinter 2016). La Nina wird sich in den nächsten Monaten noch stärker bemerkbar machen, so dass im neuen Jahr 2021 mit einem weiteren Temperaturrückgang zu rechnen ist.

Trotz Rückgang der CO2– Emissionen steigt die Konzentration in der Atmosphäre

Die weltweiten CO2-Emissionen gingen in 2020 um 6,7 % zurück, und zwar von 36,4 Milliarden Tonnen CO2 auf 34,1 Milliarden Tonnen. Die Emissionen gingen Coronamaßnahmen-bedingt in den USA um 12,1 %, in Europa um 11,2 % zurück. In China blieben die Emissionen aus Kohlekraftwerken unverändert ; die Gesamtemissionen gingen nur um 1,7 % zurück. Der Anteil Chinas an der Gesamtemission der Welt stieg demzufolge auf 29,3 %. Fast jede dritte Tonne CO2 stammt nunmehr aus China. Der Anteil wird weiter steigen, da China nach dem Pariser Abkommen für sich den Status eines Entwicklungslandes beansprucht und demzufolge bis 2030 die Emissionen an CO2 weiter ansteigen lassen darf. Allein der Anstieg in diesem Jahrzehnt bis 2030 entspricht der Gesamtemission von Europa.

Die Verteilung des Rückgangs der CO2-Emissionen zeigt die Grafik des Global carbon projekts. Sie zeigt eindrucksvoll, dass es seit Mai keinen Rückgang der CO2-Emissionen in China mehr gegeben hat.


Und warum gehen die CO2 Konzentrationen nicht zurück ?

Trotz des Rückgangs der Emissionen gehen die Konzentrationen in der Luft nicht etwa zurück, sondern steigen weiter. Im Jahre 2019 hatten wir eine CO2– Konzentration von 409,5 ppm im Jahresmittel und 2020 von 412 ppm.

In 2020 wurden nur noch 34 Milliarden Tonnen CO2 emittiert. Zusammen mit den Landnutzungsänderungen ergeben sich rund 40 Milliarden Tonnen CO2. Mehr als die Hälfte wurden durch die Pflanzen und die Meere aufgenommen, so dass 19 Milliarden Tonnen in der Luft verblieben. Das entspricht einem Anstieg von 2,5 ppm in 2020 gegenüber 2019. In 2018 war der Anstieg 1,9 ppm, in 2019 betrug er 2,8 ppm. Die Messungen von Mauna Loa zeigen die Entwicklung sehr anschaulich. Die rote Kurve zeigt die jahreszeitlichen Schwankungen. Bei der schwarzen Linie sind die jahreszeitlichen Schwankungen herausgemittelt.

Die Schwankungen entstehen durch die Vegationsunterschiede von Sommer zu Winter in der Nordhemisphäre und der unterschiedlichen Aufnahme des CO2 von Sommer zu Winter durch die größeren Ozeanflächen der Südhemisphäre. Die CO2-Zunahme würde langfristig erst gestoppt, wenn die Emissionen um die obengenannten 19 Milliarden Tonnen vermindert würden. Eine Emissionsminderung um 40 Milliarden Tonnen auf Null ist nicht erforderlich,denn die Aufnahme von etwa 21 Milliarden Tonnen CO2 durch Pflanzen und Meere richtet sich allein nach der Gesamtkonzentration von 412 ppm und wird sich daher nach einer Emissionssenkung nicht wesentlich ändern.

Das deutsche „steuerbare-Verbrauchseinrichtungen-Gesetz“ oder Stromabschaltungsgesetz

Wenn man sich die oben beschriebenen globalen CO2-Emissionsentwicklungen vergegenwärtigt und betrachtet die völlig aus den Fugen geratenen europäischen und deutschen Massnahmen zur Energiewende, so wird man sprachlos.

Das neueste Produkt der Energiewende ist das Steuerbare-Verbrauchseinrichtungen Gesetz. Die Politik hat sich einreden lassen, dass der Umstieg auf die Elektromobilität aus Klimaschutzgründen dringend geboten sei (wer sich vom Gegenteil überzeugen will, sollte dies in unserem Buch „Unerwünschte Wahrheiten“ nachlesen). Das Niederspannungsnetz, das unsere Häuser und Wohnungen versorgt, kommt aber mit steigender Zahl an Ladestationen für E-Autos an seine Kapazitätsgrenze. Das gleiche Problem einer Überlastung der Netze ensteht auch beim Umstieg von Gas-und Ölheizungen auf elektrisch betriebene Wärmepumpen. Beides zusammen kann den Strombedarf und den Anschlusswert einer Wohnung oder eines Hauses schnell verdoppeln bis verdreifachen und die Niederspannungnetze zum Zusammenbruch führen, wenn die E-Auto -Besitzer nach Hause kommen und ihr E-Auto aufladen wollen oder wenn alle Wärmepumpenbesitzer gleichzeitig ihre Wohnung mit Strom heizen wollen.

Der Gesetzentwurf des Bundesministers für Wirtschaft schreibt nun vor, dass bei einem Anschluss einer Ladestation oder einer Wärmepumpe der Netzbetreiber das Recht hat, den Strom für zwei Stunden abzuschalten. Wir kennen das aus Entwicklungsländern, in denen reihum der Strom abgeschaltet wird. Dort nennt man es „load shedding“ ( Lastabwurf oder Stromabschaltung). Im deutschen Gesetzentwurf nennt man dies schönfärberisch Spitzenglättung:

„Die Einführung der Spitzenglättung ist ein erster Schritt, um die Flexibilität in den Verteilernetzen zu stärken.“ In der Begründung heisst es, „das Gesetz ist erforderlich, um Flexibilität in den Verteilernetzen zu stärken und den bevorstehenden Hochlauf der Elektromobilität zu unterstützen“.

Wir können uns schon vorstellen, wie das Gesetz als Vorkehrung bei tagelangen Dunkelflauten weiterentwickelt wird. Denn selbstverständlich wird der Stromkunde auch verpflichtet, über smart meter seine Stromverbrauchsdaten durch den Netzbetreiber rund um die Uhr per internet überwachen zu lassen. Eine beeindruckende Kritik dieses Gesetzentwurfes gibt es hier durch Dr. Humpich.
Nachdenklich stimmt, dass kaum eine deutsche Zeitung über diesen geplanten Eingriff in die autonomen Entscheidungen der Bürger über ihre Energieversorgung berichtet hat. Wird nicht berichtet, weil es vielleicht eher ein Zeichen für die bevorstehende Strom-Mangel-Wirtschaft ist ? Oder ist es gar eine zu abschreckende Nachricht für alle, die beabsichtigen, sich ein E-Auto anzuschaffen ?
Es ist ein Offenbarungseid der Energiewende und der Einstieg in die planwirtschaftliche Zuteilung von Strom und Energie. Und darüber berichtet man ungern, wenn man die bejubelte Energiewende für alternativlos hält.




Wind und Sonne verlieren an Anteilen zum Energiemix

Amüsant ist, dass die gasbefeuerte Stromerzeugung, ein fossiler Brennstoff ohne Subvention, immer noch schneller wächst als Wind und Sonne. Wind und Sonne sind weit davon entfernt, im amerikanischen Stromkapazitätsmix an fossilen Brennstoffen zu verlieren.

Das letzte Jahr, für das wir umfassende Übersichtsdaten von der US Energy Information Administration haben, ist 2018. Dies war ein gutes Jahr, denn es gab einen kleinen Ansturm für den Ausbau erneuerbarer Energien, bevor die Subventionen wie geplant eingestellt wurden. [Aufgrund der politischen Änderungen, wird von den Demokraten wieder verstärkt auf EE gedrängt]

Schauen wir uns zunächst die Basiszahlen der sogenannten Stromerzeugungskapazität an, die in Megawatt oder kurz MW gemessen wird. Ein großes [fossiles] Kraftwerk hat typischerweise eine Nennkapazität von rund 600 MW.

In 2018 wurden Gaskraftwerke mit rund 19.000 MW neu gebaut, bei Windkraft 9.000 MW t und bei Solarstrom 7.000 gebaut. (Kleinere private PV Anlagen – „hinter dem Zähler“, sind nicht enthalten.)

Es wurde also mehr Kapazität an zuverlässigen  Gaskraftwerken, als die zusammengezählten Wind- und Solarkraftwerke ergeben. Der Anteil von Wind und Sonne an der amerikanischen Erzeugungskapazität ging tatsächlich zurück, die erneuerbaren Energien verloren an Boden.

Dies ist jedoch nur die [von Befürwortern der Erneuerbaren gerne genannte] Spitze des Unterschieds. Bei Wind- und Sonne werden die Nennleistungen nur selten und unbestimmbar geliefert,  das kann nur unter idealen Bedingungen aus Wind und Sonne in Strom umgewandelt werden.

Für Sonnenenergie stellen sich diese idealen Bedingungen nur bei klarem Himmel mit der Sonne im Zenit und ohne Schnee oder Schmutz usw. auf dem Kollektor ein. Bei Wind benötigt es einen anhaltenden Luftstrom von mehr als 48 km/h. Beachten Sie, dass diese Bedingungen nicht allzu oft auftreten.

Aus diesem Grund werden Wind und Sonne als „intermittierend“ bezeichnet, da sie häufig weit weniger Strom produzieren als auf dem Typenschild angegeben,  oft wird überhaupt kein Strom produziert, wenn der „Brennstoff“ fehlt. Im Gegensatz dazu läuft das Gaskraftwerk, bis auf geringe,  planbare Wartungszeiten rund um die Uhr – wenn es gewünscht wird.

Der Unterschied zwischen der tatsächlichen Stromerzeugung und dem Typenschild wird als „Kapazitätsfaktor“ [CF] bezeichnet. Die typischen Kapazitätsfaktoren für verschiedene Erzeugungstechnologien sind ziemlich bekannt, obwohl sie von Standort zu Standort variieren können.

Um gegenüber erneuerbaren Energien großzügig zu sein, nehmen wir an, dass Solar einen CF von 15% und Wind einen CF von 40% hat. (In der Realität meist niedriger) Gaskraftwerke erreichen leicht 80% und mehr. Die Anwendung dieser Faktoren auf unsere Ernergieerzeuger gibt den folgenden Vergleich:

  • Gas: 19.000 x 0,8 = 15.200 MW
  • Wind: 9.000 x 0,4 = 3.600 MW
  • Solar: 7.000 x 0,15 = 1.050 MW

Die neu gebauten Gaskraftwerke liefern also rund dreimal so viel Strom wie die Erneuerbaren – und das auch zuverlässig planbar.

Anders ausgedrückt, Amerika hat damit seine Kapazität der Stromerzeugung aus fossilem Gasbrennstoff um das Dreifache gegenüber erneuerbaren Energien erhöht. Offensichtlich fallen erneuerbare Energien in dem was sie liefern,  weit hinter fossile Brennstoffe zurück.

Aber 2018 fällt nicht aus dem Rahmen. In den sechs Jahren 2013 bis 2018 hat die nutzbare Erzeugungskapazität, die mit gasbefeuerten Kraftwerken hinzugefügt wurde, in jedem Fall die von Wind plus Sonne überhaupt gelieferten Strommengen überschritten. Geht es um die tatsächlich gelieferten Strommengen, verlieren Erneuerbare Energien immer den Vergleich.

Die Befürworter von Strom aus Erneuerbaren fordern nun riesige Batteriesysteme im Netzmaßstab, die eines Tages unseren Saft liefern sollen, wenn die intermittierenden erneuerbaren Energien dies nicht tun. Die im Jahr 2018 hinzugefügte Gesamtkapazität betrug rund 200 MW, was im Grunde genommen fast nichts zum Bedarf beiträgt. Gleiches gilt für die Vorjahre.

Zum jetzigen Zeitpunkt sind Batterien nur ein aus der Not heraus geborenes, kostenintensives Zusatzteil, das zur Aufrechterhaltung der Netzstabilität verwendet wird. Ironischerweise ist dieses Bedürfnis aufgrund der [von den Befürwortern unvorhergesehenen] Unregelmäßigkeit der Wind- und Sonnenstrom-Erzeugung entstanden. Batterien sind keine Stromerzeuger, sondern müssen aus Strom-Überschüssen erstmal  aufgeladen werden, bevor sie für eine begrenzte Zeit diesen zurück liefern können – natürlich abzüglich der Lade- Entladeverluste.

Amerika hat damit keine Chance auf eine gesicherte Stromerzeugung aus Wind und Sonne zur Stromerzeugung; Erneuerbaren Energien sind damit nur ein Alibi für mehr und mehr Subventionen, ohne fossile Stromerzeugung keine Industrie und kein Wohlstand. Das würde man nie erfahren, wenn man der Presse und den Politikern zuhört.

https://wattsupwiththat.com/2020/12/28/wind-and-solar-are-losing-ground-to-gas/

Übersetzung (mit technischer Korrektur) durch Andreas Demmig

***

Zum Thema – hier ein Klage von Befürwortern der Erneuerbaren [vor den letzten Wahlen in USA]

Die Trump-Administration unterdrückt erneuerbare Energien auf öffentlichen Grundstücken und Gewässern

Von Nicole Gentile und Kate Kelly 25. Juni 2020, 00:01 Uhr

Während der Coronavirus-Pandemie rückt die mangelnde Unterstützung und Behinderung der Trump-Regierung für die Branche der erneuerbaren Energien in den Fokus.

… Präsident Trump hat jedoch unbegründete Behauptungen aufgestellt, dass Windkraftanlagen Krebs verursachen und die Immobilienwerte drücken. 2…   Trumps Abneigung gegen die Entwicklung erneuerbarer Energien spiegelt sich in der Politik seiner Regierung wider – von der Einführung von Zöllen bis zur Ablehnung von Steuergutschriften -, die den Sektor Arbeitsplätze gekostet, das Wachstum gebremst und die Fähigkeit des Landes behindert hat, den Klimawandel durch reduzierte Energie- Emissionen zu bekämpfen.

Inmitten der globalen Pandemie, in der die Branche für erneuerbare Energien erhebliche Arbeitsplatzverluste verzeichnet, zeigt die Trump-Regierung weiterhin zu gleichen Teilen Vernachlässigung und Feindseligkeit gegenüber Wind- und Solarunternehmen und ihren Arbeitnehmern. Nirgendwo ist diese Dynamik so offensichtlich wie im US-Innenministerium, das versucht hat, einer bereits in Schwierigkeiten geratenen Öl- und Gasindustrie während der Krise rasche Hilfe zu gewähren, aber keine ähnlichen Aussagen für die Industrie erneuerbarer Energien gemacht hat, die in derselben Öffentlichkeit tätig . Im Gegenteil, die Behörde hat Solar- und Windentwicklern große, rückwirkende Nachzahlungen [für nicht erfüllte Lieferverpflichtungen] in Rechnungen gestellt, zu einer Zeit, in der sich die Branche diese am wenigsten leisten kann.

Diese Analyse des Center for American Progress bietet neue Informationen darüber, wie die Regierung vor und während der Pandemie die Weiterentwicklung verantwortungsbewusster Wind- und Solarenergieprojekte auf öffentlichen Grundstücken und Gewässern behindert und die von der Obama-Regierung erzeugte Dynamik verschleudert hat. …. die für die Förderung erneuerbarer Energien auf öffentlichen Flächen und Gewässern von entscheidender Bedeutung sind. Dabei stellte sie fest, dass die Trump-Regierung weniger Projekte für erneuerbare Energien genehmigt hat als die Obama-Regierung zum gleichen Zeitpunkt während ihrer ersten Amtszeit….

https://www.americanprogress.org/issues/green/reports/2020/06/25/486852/trump-administration-stifling-renewable-energy-public-lands-waters/

 

EWE und Enercon: Wind-Joint-Venture nimmt Form an

Von Dr. Stefan Preiß -23. Dezember 2020

Die Aloys Wobben Stiftung, Alleingesellschafterin des Auricher Windenergieanlagenherstellers Enercon, und der Oldenburger Energiedienstleister EWE sind der Gründung eines Gemeinschaftsunternehmens zum Ausbau der Windenergie an Land einen wichtigen Schritt näher gekommen. …

… Das neue Unternehmen wird den Angaben zufolge über mehr als 2.300 MW installierte Leistung im Bestand und eine Projektpipeline von über 9.400 MW verfügen. Damit sei man Marktführer im Bereich Onshore Wind in Deutschland. Ziel ist es, mehr als 200 MW Zubau jährlich zu realisieren und den Bestand auf bis zu 5 GW im Jahr 2030 zu steigern.

https://www.euwid-energie.de/ewe-und-enercon-wind-joint-venture-nimmt-form-an/




Europa ist vorgestern wohl gerade an einem Blackout vorbeigeschrammt

Das europäische Stromnetz ist ein meist verlässliches, aber auch fragiles System. Es bringt sich diesbezüglich hin und wieder in Erinnerung.

Freitag, 8. Januar 2021, 13:04:55 Uhr (MEZ)

Zu diesem Zeitpunkt kam es im europäischen Höchstspannungsnetz (ENTSO-E) zu einem deutlichen Frequenzeinbruch. Innerhalb von 14 Sekunden erfolgte ein Frequenzabfall von 50,027 auf 49,742 Hertz.

Damit wurde der Regelbereich mit einer Untergrenze von 49,8 Hertz verlassen, eine ernsthafte Gefahr bestand noch nicht. Die in diesem Fall vorgesehenen Maßnahmen – Einsatz positiver Regelenergie, Stopp des eventuellen Pumpbetriebes in Pumpspeicherwerken – reichten aus, nach wenigen Sekunden die Frequenz wieder über die 49,8 Hertz nach oben zu bringen. In folgendem Bild wurde der oben gelb angegebene Bereich nur kurzzeitig nach links überschritten, dennoch war es der stärkste Frequenzeinbruch seit November 2006 (der damals zu einem großflächigen Blackout in Westeuropa führte):

Zunächst gab es Unklarheit zur örtlichen Herkunft der Störung, die sich aber bald dem Versorgungsgebiet der Transelectrica im Nordwesten Rumäniens, auf Transsilvanien und Siebenbürgen, zuordnen ließ. Zu den Ursachen gibt es noch keine Erkenntnisse, eher offene Fragen: Ein Kraftwerksausfall, selbst mehrerer Blöcke, hätte einen solchen Einbruch kaum verursachen können. Missverständnisse im Handelsgeschehen können auch ausgeschlossen werden, denn der Zeitpunkt lag deutlich nach der vollen Stunde. Eine großflächige Abschaltung des regionalen Netzes in Rumänien wiederum hätte die Frequenz nach oben und nicht nach unten abweichen lassen. Gesicherte Informationen muss man abwarten.

Bei deutschen Netz- und Kraftwerksbetreibern liefen entsprechende Meldungen aus der Leittechnik auf. In Frankreich, das zu diesem Zeitpunkt viel Strom importierte, wurden Verbraucher aufgefordert, ihren Bezug zu verringern.

Gridradar.net äußerte sich zu begünstigenden Faktoren. Zum einen ist derzeit die Last pandemiebedingt geringer, was zur Folge hat, dass weniger konventionelle Kraftwerke am Netz sind. Dadurch sinkt der Effekt der rotierenden Massen, die im Netzverbund die Mikroschwankungen wegbügeln und die in einem solchen Störfall die erste Verteidigungslinie bilden. Ein 500-Megawatt-Braunkohleblock bringt zum Beispiel mit seinem Turbosatz 170 Tonnen Schwungmasse – vom Turbinen-Hochdruckteil bis zum Generator-Induktor – auf die Waage. Diese Masse an Stahl und Kupfer und einer Drehzahl von 3.000 Umdrehungen pro Minute stellt eine erhebliche Schwungmasse dar. Gekoppelt über das Netz sind also mehrere tausend Tonnen Massenträgheit mit dem entsprechenden Drehmoment wirksam.Mit der sinkenden Zahl in Betrieb befindlicher Turbo-Generator-Sätze geht nicht nur die Massenträgheit, sondern auch die Menge der verfügbaren Primär- und Sekundärregeleistung zurück, die nur von konventionellen Kraft- und Pumpspeicherwerken bereit gestellt werden kann. Die innerhalb weniger Sekunden erforderliche Primärregelleistung könnte auch durch Großbatterien erbracht werden, dies jedoch zu erheblichen Kosten und gegenwärtig sind sie nicht in nennenswerter Zahl verfügbar.

Was leisteten die massenhaft installierten Wind- und Solaranlagen in Deutschland im fraglichen Zeitraum? Bei einer Netzlast von 66,26 Gigawatt (GW) um 13 Uhr lieferten sie gemäß Einspeisevorrang des EEG alles, was sie konnten: 4,34 GW Windstrom (6,5 Prozent des Bedarfs) und 2,12 GW Solarstrom (3,2 Prozent)1. Da sie in keiner Form an der Netzregelung und Netzdienstleistungen beteiligt sind, waren sie bezüglich der Störung weder betroffen noch beteiligt. Sie waren, um eine populäre Kanzlerinnenformulierung zu gebrauchen, „nicht hilfreich“. Eine frequenzstabilisierende Wirkung durch die Massenträgheit der Rotoren der Windkraftanlagen gibt es nicht, da die Netzkopplung elektrisch über Umrichter erfolgt. Der erzeugte Gleichstrom wird in eine digitalisierte Sinuskurve überführt und als Drehstrom abgeführt, bei zu starker Abweichung von der Netzfrequenz schalten sich die Anlagen ab.

Nun soll ausgerechnet der massenhafte Ausbau dieser Technologien das künftige Stromversorgungssystem dominieren. Die Fragen der rotierenden Massen, der Frequenzhaltung und der Spannungsregelung wird im Zusammenhang mit dem fortschreitenden Zubau volatiler Einspeiser schon lange in der Branche diskutiert. Nur im politischen Raum mit der ausschließlich CO2-zentrierten Sicht auf die Energieversorgung nicht. Schon längst hätte man den „Erneuerbaren“ Systemverantwortung übertragen müssen.

Unterdessen steigt die Anfälligkeit des Systems durch immer höhere Komplexität, durch die erhöhte Einspeisung von Strom in die unteren Spannungsebenen (dezentrale Erzeugung, vor allem regenerativ), durch verstärkten Handel, durch stärkere Erzeugungsschwankungen und Verringerung der gesicherten Einspeisung.
Einige Störungen aus jüngerer Vergangenheit zeigen verschiedene Ursachen. Bedenklich dabei ist, dass einige Ereignisse nicht oder nicht vollständig aufgeklärt werden konnten:

14. Dezember 2018: Abschaltungen von Teilen der deutschen Aluminiumindustrie („Prognosefehler bei den erneuerbaren Energien aufgrund einer komplexen Wetterlage“).

10. Januar 2019: Frequenzabfall auf 49,8 Hz – zwei gestörte Kraftwerke in Frankreich, in Verbindung mit einer defekten Messstelle im Netz. Dennoch hätte es diesen Einbruch nicht geben dürfen

24. Januar 2019: Überfrequenz von fast 50,2 Hz, Ursache unbekannt, evtl. hat sich das Netz „aufgeschaukelt“.

3. April 2019: Frequenzabfall 49,84 Hz – Ursache unklar

20. Mai 2019 „Alarmstufe rot“ bei Swissgrid

6., 12. und 25. Juni 2019: bis zu 7 GW Unterdeckung im deutschen Netz – Auswirkung des „Mischpreisverfahrens“ – Spotmarktpreis höher als Regelenergiepreis, Bilanzkreisverantwortliche haben gepokert. Inzwischen sind die Regularien geändert.

7. Juni 2019 Datenpanne bei der europäischen Strombörse EPEX, dadurch Entkopplung des europäischen Marktes. Ursache war vermutlich ein „korruptes“ Datenpaket.

8. Januar 2021 Unterfrequenz 49,742 Hz ?

(Aufzählung nicht vollständig)

Wie man sieht, können die Störungsursachen vielfältig sein und unglückliche Kombinationen verschiedener Ursachen unabsehbare Folgen haben. Dass die richtunggebende Politik dies wahrgenommen hat, ist nicht zu erkennen.

Daten aus: https://energy-charts.info/

Der Beitrag erschien zuerst bei TE hier




Grüne Energie sollte alle durch sie verursachten Kosten selbst tragen

Jetzt, da immer mehr Strom aus Wind und Sonne kommt, macht es viel Ärger, wenn diese Anlagen nicht funktionieren oder nur Bruchteile der [optimistischen] Nennleistung in Strom umwandeln können, wie die Befürworter uns immer gerne vorrechnen: „…versorgt so viele Haushalte …“.

[das Verhältnis von tatsächlicher gelieferter Energie / Nenn-Anschlussleistung (beides aufs Jahr bezogen) wird Kapazitätsfaktor oder load factor genannt. Das ist immer weniger als 1]

Im Januar 2017 hatte Belgien die Aussicht auf Stromausfälle, als es eine satte neuntägige Ruhe und Langeweile erlebte. Um Störungen zu vermeiden, musste der Netzversorger sich bemühen, genügend Strom liefern zu können, um Störungen [der Bürokratie in Brüssel] zu vermeiden. Erneuerbare Quellen konnten nur 9% ihrer Nennleistung in das Netz des Landes liefern.

Auch ohne Dunkelflaute – im Allgemeinen ein europäisches Phänomen –bereiteten  erneuerbare Energiesysteme auch in weiter entfernten Ländern Probleme. Kalifornien verärgerte seine Einwohner kürzlich durch Stromabschaltungen [Lastabschaltungen], nachdem ein Waldbrand zu Beschädigungen der Schaltanlagen geführt hatte.

Der Umgang mit Intermittenz  [hier:  chaotische, unplanbare Stromlieferung] ist eine der Herausforderungen wetterabhängiger Stromerzeugung. Es geht nicht nur darum, für das zuverlässige back-up System zu bezahlen, das im Hintergrund ständig bereit gehalten werden muss, um im Bedarfsfall möglichst blitzartig einzuspringen, damit die [empfindlichen] Verbraucher  keine Unterbrechung erleiden, wenn die Natur sich weigert, den Energierohstoff zu liefern. Manchmal können glühende Sonne und böige Winde das gegenteilige Problem verursachen: zu viel Strom wenn gerade wenig gebraucht wird [so wie am Wochenende]. Dann müssen die Erneuerbaren trotzdem bezahlt werden, obwohl sie nicht gebraucht und – wenn möglich, abgeschaltet werden, um eine Überlastung des Netzwerks zu verhindern.

Es gibt jedoch eine melancholische Konstante in all diesen Ausgleichs- und Sicherungsaktivitäten: Die Verursachung von zusätzlichen Systemkosten, die ausschließlich bei dieser Art von einspeisenden Energiequellen anfallen.

Ein kürzlich veröffentlichter Bericht des britischen Ministerium für Wirtschaft, Energie und Industriestrategie (Department for Business, Energy and Industrial Strategy BEIS) zeigt, wie die Berücksichtigung dieser Faktoren die relative Wirtschaftlichkeit verschiedener kohlenstoffarmer Energiequellen verändern können.

Ein Großteil der jüngsten Geschichte unterstellte sinkende Kosten für erneuerbare Energien. Zum Beispiel schätzte die britische Regierung 2013, dass eine Offshore-Windparkeröffnung im Jahr 2025 Strom für 140 GBP pro Megawattstunde (MWh) erzeugen würde. Es wird jetzt prognostiziert, dass dies für nur 54 GBP / MWh erreicht werden könnte.

Der Bericht geht davon aus, dass sich dieser Trend fortsetzt. Schätzungen zufolge könnte ein Offshore-Windpark bis 2035 im Durchschnitt nur 41 GBP / MWh Strom produzieren. und großflächige Solar nur £ 33. In diesen Zahlen sind diese Systemkosten jedoch nicht enthalten, hauptsächlich weil der Solar- oder Windentwickler sie nicht tragen muss. Gegenwärtig sind diese einfach über das gesamte Netzwerk verteilt.

[[ Einschub aus dem Bericht

Anmerkung:  auf Seite 10 des o.g. Berichts.pdf, wird für onshore-Wind ein Kapazitätsfaktor von 35%, konstant über 25 Jahre angenommen

Anmerkung:  auf Seite 11 des o.g. Berichts.pdf, wird für offshore-Wind mit steigender Größe auch ein steigender load factor angenommen

Anmerkung:  auf Seite 11 des o.g. Berichts.pdf, werden für offshore-Wind trotz steigender Größe fallende Kosten für Construction und Operation & Maintenance  angenommen. Das und die Lebensdauer halte ich für Anlagen im Seewasser äußerst unrealistisch. Vergleichen Sie mal die Zahlen unter dem Jahr 2040 mit den onshore Werten. Der Übersetzer]]

 

Wenn Sie diese Kosten,  wie im Beis-Bericht, der sie generierenden Quelle zuordnen, die sie verursacht hat, ändert sich das Bild. Nehmen Sie das Jahr 2035 mit der Schätzung von 41 GBP / MWh für Offshore-Wind. Beis geht davon aus, dass der Gesamtpreis angesichts der geschätzten Systemkosten näher bei 59 bis 79 GBP liegt (43 bis 92 Prozent höher). Für Solar werden 33 GBP / MWh zu 45 bis 61 GBP. In jedem Fall hängt es davon ab, wieviel Leistung [Gigawatt / Megawatt] an erneuerbare Energien ans Netz angeschaltet sind / einspeisen, ohne jedoch die genauen Annahmen darzulegen, die im Bericht verwendet werden.

Im Wesentlichen steigen die Grenzkosten für jede zusätzliche erneuerbare Energiequelle im System mit zunehmender Nutzung / Einspeisung weiter an. Dies untergräbt nicht nur ihren Vorteil gegenüber anderen Alternativen wie der nuklearen und [der im großen Maßstab] noch nicht erprobten Kohlenstoffabscheidung und -speicherung (CCS). Es deutet darauf hin, dass 100 Prozent erneuerbare Energien zu teuer sein werden.

Könnten diese Kosten gesenkt werden? Einige argumentieren, dass es durch Hilfsmittel wie den Bau von mehr Verbindungsleitungen zu / mit anderen Ländern möglich sein könnte, bei Bedarf Strom länderübergreifend auszugleichen oder Elektrofahrzeuge als verteilte Batteriespeicherung zu verwenden. Die Idee ist, dass wenn Sie Ihr Auto nachts anschließen, sie Batteriestrom zurück ins Netz speisen. Obwohl dies technisch möglich ist, würde es eine Infrastruktur und eine weitaus größere Flotte von Elektrofahrzeugen erfordern.

[Zusätzliche Zyklenzahl geht auf die Lebensdauer der Batterie. Die Entladung muss überwacht werden. Was machen Sie, wenn Sie ihr Batterieauto morgens für den Weg zur Arbeit brauchen?]

All diese Innovationen werden jedoch immer noch zusätzliches Geld kosten, um das Problem der Intermittenz zu mildern. Wenn diese Kosten nicht für jedes Solar-, Wind- oder CCS-Projekt berechnet werden, besteht das Risiko, dass wir ein teureres dekarbonisiertes System erhalten, als wir benötigen. [Alle Industrieländer hatten vor den Hype der Erneuerbaren eine zuverlässige und preiswerte Energieversorgung – die bislang aber nicht komplett abgeschaltet werden kann]

Ein einfacher Vorschlag des Ökonomen Dieter Helm besteht darin, alle Betreiber dazu zu bringen, die Systemkosten zu tragen, für die sie verantwortlich sind. Anstatt den Betreibern erneuerbarer Energien die kostenlose Möglichkeit zu geben, den von ihnen erzeugten Strom wie derzeit abgenommen zu bekommen, wenn Wind oder die Sonne gerade Lust dazu haben –sollten die sich selbst Energielieferanten nennenden Betreiber der Anlagen, dazu vertraglich verpflichtet werden, zu bestimmten Tageszeiten bestimmte Strommengen zu liefern, mit Strafen, wenn sie zu viel oder zu wenig liefern[gibt es zum Teil in USA]. Das würde sie zu anderen Strom Lieferanten  gleichberechtigter machen.

Eine solche Reform könnte etwas näher die tatsächlichen Kosten erneuerbarer Megawattstunden aufzeigen und Wind- und Solarparks Anreize bieten, keine zusätzlichen Systemkosten zu verursachen. Wenn dann die nächste Dunkelflaute kommt, wäre es weniger wahrscheinlich, dass wir im Dunkeln bleiben.

https://www.newscabal.co.uk/green-power-needs-to-account-for-all-its-costs/

 

Übersetzt durch Andreas Demmig

PS: Letzteres wissen die Betreiber von Wind- oder Solarparks schon selbst und meiden es daher wie „der Teufel  das Weihwasser“ so in die Verpflichtung genommen zu werden – der Übersetzer




CO2-Steuer: ordentlicher Anstieg der Kraftstoffpreise

Wie?
So:

Quelle: https://www.benzinpreis-aktuell.de/benzinpreise-entwicklung

In Zahlen:

  • 30.12.2020: 1 Liter Benzin: 1,30 Euro;
  • 31.12.2020: 1 Liter Benzin: 1,32 Euro;
  • 01.01.2021: 1 Liter Benzin: 1,37 Euro;
  • 02.01.2021: 1 Liter Benzin: 1,38 Euro;

8 Cent Preiserhöhung innerhalb von vier Tagen sind das Ergebnis des neuen CO2-Preises der Bundesregierung auf fossilen Brennstoff.
8 Cent mehr, das wird ihnen die Umwelt doch wert sein – oder? Die 8 Cent gibt es als dritte Zugabe zur CO2-Abgabe, die über die Kfz-Steuer zu entrichten ist und zur Ökosteuer, die ohnehin auf Kraftstoffe erhoben wird.

Damit reiht sich Deutschland in die Reihe der Hochpreisländer in Europa ein. Der Liter Benzin kostet in Schweden: 1,39 Euro,

in Dänemark: 1,43 Euro,

in Griechenland: 1,45 Euro.

Billiger ist der Liter Benzin in Frankreich: 1,36 Euro,

im Vereinigten Königreich: 1,28 Euro,

in Spanien: 1,19 Euro,

in der Tschechei: 1,06 Euro,

in Taiwan: 0,74 Euro oder

in Ägypten: 0,44 Euro.

Doch Deutsche werden nicht nur bei fossilen Brennstoffen für die Umwelt geschröpft, auch beim Strompreis ist Deutschland Spitze. Derzeit zahlt ein deutscher Endverbraucher für eine Kilowattstunde 34,71 Cent. Damit liegt der Strompreis für deutsche Konsumenten weit über dem Strompreis, den die meisten anderen Europäer pro Kilowattstunde Strom bezahlen müssen. Eine Auswahl (Durchschnittspreise):

  • Spanien: 21,8 Cent/kwh;
  • Italien: 20,8 Cent/kwh;
  • Schweden: 19,9 Cent/kwh;
  • Vereinigtes Königreich: 18,6 Cent/kwh;
  • Frankreich: 17,6 Cent/kwh;
  • Griechenland: 16,2 Cent/kwh;
  • Tschechien: 14,9 Cent/kwh;

Die hohen Kosten entstehen, weil die deutsche Bundesregierung einen Spleen mit Erneuerbaren Energien verfolgt, einen Spleen, der nicht nur dazu führt, dass die Strompreise in Deutschland steigen, wenn sie an den Strombörsen fallen, eine Perversion mit System, die wir hier erklärt haben, sondern der auch dazu führt, dass die Stromsicherheit in Deutschland zunehmend gefährdet wird. In den letzten Tagen haben Erneuerbare Energien die folgenden Beiträge zur Deckung des Stromverbrauchs in Deutschland erbracht:

Angeblich erneuerbare Energieträger (angeblich, weil Windräder und Solarzellen natürlich nicht erneuerbar sind. Sie stellen vielmehr Sondermüll dar, dessen Entsorgung nach wie vor ungeklärt ist) haben in den letzten Tagen zwischen 22% und 62,7% zur Deckung der Stromnachfrage beigetragen. Wie man es dreht und wendet, die Abschaltung konventioneller Kraftwerke und die Stilllegung von Kernkraftwerken erhöht die Abhängigkeit von Stromimporten und damit die Unsicherheit der Stromversorgung.

Während derzeit alle Augen auf den Dilettantismus der deutschen Regierung im Zusammenhang mit der Corona-Hysterie gerichtet sind, vollzieht sich mehr oder weniger abseits des medialen Hypes eine schleichende Katastrophe, die dem Wirtschaftsstandort Deutschland und dem Wohlstand seiner Bürger einen Schaden zufügt, der die Vokabel “Katastrophe” rechtfertigt und die Vokabel “Apokalypse” vielleicht nahelegt.


ScienceFiles steht für rationalen Diskurs und rationalen Widerstand.




Woher kommt der Strom? Volatile Weihnachtswoche

52. Woche 2020 (Abbildung, es öffnen sich alle Abbildungen und Mehr).

Eine verlässliche Kalkulation der Entwicklung der regenerativen Stromerzeugung war unmöglich. Man mühte sich redlich (Abbildung 1). Dennoch: Die Weihnachtswoche war Bescherungswoche (Abbildung 2) für unsere Nachbarn. Dreimal wurde der Strom nicht nur verschenkt. Negative Strompreise sorgten für Bonusschecks, die unsere Nachbarn mit dem Gratisstrom entgegennahmen. Die Augen glänzten vor Freude (Abbildung 3).  

Abbildung 4 bildet die Ex-/Importzahlen des aufgelaufenen Jahres 2020 und die der 52. Woche ab. Die Tabelle mit den Werten der Energy Charts und der daraus generierte Chart liegen unter Abbildung 5 ab. Dreimal musste Deutschland zusätzlich Geld zum geschenkten Strom mitgeben. Dreimal reichte die angenommene Verdoppelung von Wind- und Sonnenstromerzeugung aus, um den Strombedarf Deutschlands zu decken (Abbildung 6). Der Energierechner nebst Benutzerhinweisen liegt als Download unter Abbildung 7 ab. Sie können vielfältige Simulationen berechnen. Energiewende live. Probieren Sie es aus. Es ist richtig spannend. 

Tagesanalysen

Sonntag, 20.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 47,15 Prozent, davon Windstrom 33,33 Prozent, Sonnenstrom 2,44 Prozent, Strom Biomasse/Wasserkraft 11,38 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der Sonntag wartet mit einer ruhigen, kontinuierlichen regenerativen Stromerzeugung auf. Die konventionelle Stromerzeugung wird von Ingenieuren und Technikern (Wie viele Frauen sind in diesem Bereich tätig? Weiß das jemand?) sehr gut der erneuerbaren Stromerzeugung angepasst, so dass die Strompreise überwiegend im auskömmlichen Bereich liegen.  Diese Nachbarn kaufen, verkaufen Strom.

Montag, 21.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 51,77 Prozent, davon Windstrom 39,72 Prozent, Sonnenstrom 2,13 Prozent, Strom Biomasse/Wasserkraft 9,93 Prozent. Die Agora-Chartmatrix: Hier klicken.

Montag, Werktag. Der Strombedarf wird größer. Bis zum Abend gelingt die Nachführung durch die Konventionellen. Dann steigt die Windstromerzeugung. Der Bedarf sinkt. Der Strompreis auch. Gegen Null €/MWh. Weil die Konventionellen die Produktion nicht stark genug absenken (können/wollen). Um die 20 GW Strom aus konventionellen Kraftwerken muss in das Netz gespeist werden, um die Netzsicherheit zu gewährleisten. Diese Nachbarn kaufen, verkaufen den Strom.

Dienstag, 12.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 61,49 Prozentdavon Windstrom 49,32 Prozent, Sonnenstrom 1,35 Prozent, Strom Biomasse/Wasserkraft 10,81 Prozent. Die Agora-Chartmatrix: Hier klicken.

Heute ist es umgekehrt. Die Windstromerzeugung sinkt ab Mittag rapide ab. Die Konventionellen gleichen aus, so gut es geht. Um 17:00 Uhr passt es: Deutschland erzielt den Stromhöchstpreis des Tages. Zahlen tun diese Nachbarn.

Mittwoch, 23.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 37,70 Prozentdavon Windstrom 23,77 Prozent, Sonnenstrom 0,82 Prozent, Strom Biomasse/Wasserkraft 13,11 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der Tag vor Heiligabend zeichnet sich durch Stromerzeugung auf Kante aus. Leichte Lücken müssen per Import geschlossen werden. Ab Mittag zieht die Windstromerzeugung an. Die Preise fallen.  Nur in der Vorabendzeit passt die Stromerzeugung. Da wird teuer exportiert. Dann fallen die Preise weiter. Ins Bodenlose, wie der Heiligabend zeigen wird. Der Verlauf der konventionellen Stromerzeugung und die Nachbarn, die Strom kaufen/verkaufen.

Donnerstag, 24.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 60,33 Prozent, davon Windstrom 45,45 Prozent, Sonnenstrom 1,65 Prozent, Strom Biomasse/Wasserkraft 13,22 Prozent. Die Agora-Chartmatrix: Hier klicken.

Heiligabend, Tag der Bescherung. Strom wird für unter 5€/MWh abgegeben. Um 3:00 Uhr sogar mit Minibonus verschenkt. Die Konventionellen geben ihr Bestes in Sachen Stromnachführung. Ihnen ist zu verdanken, dass Strom nur billig abgegeben werden und nicht teuer importiert werden muss. Diese Nachbarn handeln den Strom.

Freitag, 25.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 45,45 Prozent, davon Windstrom 26,26 Prozent, Sonnenstrom 3,03 Prozent, Strom Biomasse/Wasserkraft 16,16 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der erste Weihnachtstag. Stromgeschenke werden nachgereicht. Der morgens billig verkaufte Strom wird – es ist nicht derselbe Strom – teuer zurückgekauft. Die Konventionellen schaffen heute es nicht, die Versorgungslücke zu schließen. Diese Nachbarn kaufen/verkaufen den Strom.

Samstag, 26.12.2020: Anteil Erneuerbare an der Gesamtstromerzeugung 62,50 Prozent, davon Windstrom 46,67 Prozent, Sonnenstrom 2,50 Prozent, Strom Biomasse/Wasserkraft 13,33 Prozent. Die Agora-ChartmatrixHier klicken.

Die Weihnachtstage gehen mit einem fetten Stromgeschenk zu Ende. Die Windstromerzeugung zieht heftig an, was die Preise folgen lässt. Allerdings nach unten. Es ist auch angesichts des geringen Bedarfs zu viel Strom im Markt. Die konventionelle Stromerzeugung liegt knapp über der 20 GW-Grenze, kann als nicht mehr gedrosselt werden. Folge: Ab Mittag kontinuierlicher Preisverfall, der erst tags drauf um 6:00 Uhr mit -33,58€/MWh sein erstes Tief erreicht. Macht einen Bonus von gut 381.000 € zusätzlich zu den 11,586 GW geschenkten Strom. Nur um 6:00 Uhr. Nachbarn, die das Weihnachtsabschlussgeschenk gerne genommen haben. 

Dieser Artikel erscheint bereits im Jahr 2021, behandelt aber die 52. Woche 2020. Am 10.1.2021 wird die 53. Woche das Jahr 2020 abschließen. Mit Sonntag, dem 3.1. 2021. Die 1. Woche 2021 unserer Betrachtungen wird am Montag den 4.1.beginnen. Womit der korrekte Wochenrhythmus Montag bis Sonntag für diese Kolumne eingeführt wird. Der Versatz um jeweils eine Woche wird selbstverständlich beibehalten. Nur so sind die Werte der Energy-Charts und von Agora zumindest einigermaßen verlässlich. Wobei von deren Seite Änderungen/Korrekturen immer möglich sind und manchmal sogar weit in der Vergangenheit vorgenommen werden. Da die Werte, welche in der Kolumne analysiert werden, alle per Hand eingetragen werden und deshalb fix sind, kann es zu Differenzen zwischen den offiziellen Werten und den von mir verarbeiteten/berechneten Werten kommen. Erst wenn alle möglichen Differenzen und Unstimmigkeiten geklärt sind, werde ich einen Jahresrückblick 2020 wagen.

Ordnen Sie Deutschlands CO2-Ausstoß in den Weltmaßstab ein. Zum interaktiven CO2-Rechner: Hier klicken. Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr. 

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.




Neue grüne Energiewelt: Rationierung aus Mangel war mal Stromsperre ist jetzt Spitzenglättung

Die Netzfrequenz von 50 Hertz ist die Regelgröße, die unter allen Bedingungen eingehalten werden muss, um einen Kollaps zu vermeiden. Dazu braucht es das Gleichgewicht von Erzeugung und Verbrauch. Da der volatile, unplanbare Anteil an der Erzeugung stetig zunimmt, die Anzahl der regelbaren Kraftwerke aber ab, müssen sich Verbraucher mit steuerbaren Verbrauchseinrichtungen künftig an der Systemregelung beteiligen. Sie können sich auch dagegen entscheiden, zahlen dann aber mehr.

Spitzenglättung wie bei Struwelpeter, Bild Strom R. Schuster, Scherenmann: Struwelpeter, Komposition EIKE Redaktion

Kurz vor Weihnachten und medial fast unbeachtet wurde das „Steuerbare-Verbrauchseinrichtungen-Gesetz (SteuVerG)“ in die Abstimmungsrunden gegeben, der zustimmende Beschluss ist absehbar. Es soll die Gleichzeitigkeit des Strombezugs bei denjenigen Stromverbrauchern beeinflussen, die steuerbar sind wie die Betreiber von Wärmepumpen, Elektroheizungen, Wallboxen oder auch die Prosumer, die nicht nur Verbraucher, sondern auch Erzeuger sind. Durch zeitweise, variable und wechselseitige Abschaltungen sollen örtliche Überlastungen wie auch ein Teil des aufwändigen Netzausbaus vermieden werden. Es ist eine Form des geregelten Brownouts, die den Blackout verhindern soll. In jedem Fall muss dieses System flächendeckend zur Anwendung kommen, denn absehbar werden Zeiten kommen, in denen unsere Nachbarländer mit der Aushilfe im deutschen Netz überfordert sein werden. Selbst in der verbrauchsarmen Weihnachtszeit schwankten Export und Import kräftig. Schoben wir am 28. Dezember 2020 noch mehr als 12 Gigawatt über die Grenzen, brauchten wir einen Tag später fast 5 Gigawatt retour. Der deutsche Außenhandelssaldo  weist beim Strom noch einen Überschuss von mehr als 19 Terawattstunden auf, geht aber seit 2017 (52 Terawattstunden) kontinuierlich zurück. Die Importmenge erhöhte sich seit 2016 von 14 auf 33 Terawattstunden. Bei diesem Strom von außen herrscht betretenes Schweigen zu seiner Herkunft. Während heimischer Atom- und Kohlestrom verteufelt wird, ist der graue Importstrom grundsätzlich positiv.

So sieht es in der Praxis aus, wenn „Wind, Sonne und Co. die Oberhand über fossile Kraftwerke erlangen“, wie strom-report.de begeistert berichtet, weil 2020 mehr als 50 Prozent des Stroms von „Erneuerbaren“ geliefert wurde. 47 Versorger erhöhen 2021 die Preise, trotz staatlicher Deckelung der EEG-Umlage. Grund sind steigende Netzentgelte.

Ein anderes Windraftvorreiterland, Dänemark, ist Vizemeister beim Strompreis und hat ähnlich starke Schwankungen des Stromsaldos zu verzeichnen. Am 29. Dezember importierte das Land ein Drittel seines gesamten Strombedarfs. Bei fünfeinhalb Millionen Einwohnern und wenig Großindustrie ist das machbar, zumal mit Norwegen und Schweden sichere Lieferanten zur Verfügung stehen.

Die Macht der Paragrafen

Der Entwurf des SteuVerG enthält 5 Artikel, die Änderungen in anderen Regularien wie zum Beispiel dem Energiewirtschaftsgesetz bewirken. Insgesamt 61 Seiten sind nötig, dies zu formulieren und erklären. Es sind dann – nach meiner Zählung und ohne Gewähr – 26 nationale Gesetze zum Energiesystem in Kraft, hinzu kommen mindestens 33 Verordnungen und 26 EU-Strategien, -Verordnungen, -Richtlinien und -Leitlinien. Noch vor zwanzig Jahren kam das Energierecht mit 200 Einzelnormen aus, heute sind es etwa 13.750. 

„Kein Staat kann ohne Recht, kein Recht ohne Staat bestehen“, wusste der alte Römer Aurelius. Tacitus. Ein anderer alter Römer und später lebend, formulierte dann wohl Erfahrungen mit dem Rechtssystem: „Der verdorbenste Staat hat die meisten Gesetze.“

Dieses Wachstum der Regularien ist allerdings folgerichtig. Die Energiewende als staatsplanerisch angelegtes Projekt zwingt zu immer weiteren Detailregelungen mit zunehmender Regelungstiefe, weil marktliche Selbstregelung nicht mehr stattfindet. Jede neue Regelung schafft Umgehungstatbestände, denen dann wiederum begegnet werden muss. Die Kreativität der Erneuerbaren-Investoren geht nicht mehr in den technischen Fortschritt (die Anlagen sind weitgehend ausentwickelt), sondern in das Anzapfen möglichst vieler Fördertöpfe und Subventionen. Dabei schützt die Politik vor eventuellen Belastungen. Selbst die in der EEG-Novelle festgelegte Vergütung, die Windkraftinvestoren an betroffene Kommunen zahlen müssen, wird über die Netzentgelte, also durch alle Stromverbraucher, finanziert.

Technisch ist es natürlich möglich, die Verbraucherseite zu regeln, die Idee des demand site managements (DSM) gibt es schon lange. Absehbar ist aber, dass man dieses Instrument nur bis zu einem gewissen Umfang ausbauen kann. Zum einen entstehen den Netzbetreibern wie den Kunden Kosten, zum anderen muss man die teilnehmenden Kunden belohnen für ihren Beitrag. Das geht realistisch nur über den Strompreis. Wer für seine regelbare Verbrauchsstelle durchgängig Strom haben möchte, wird künftig kräftig draufzahlen. Wer sich abschalten lässt zahlt weniger. Je länger, öfter und flexibler er sich abschalten lässt, umso billiger der Strom. Auch dadurch wird sich die soziale Spaltung des Landes verstärken. Wer wenig Geld hat und sparen muss, bekommt seltener Strom. Der normale Haushaltsstrom soll davon ausgenommen sein. Wie lange noch? Regelungen zu planmäßigen Lastabwürfen der Haushalte (load-shedding) sind international durchaus üblich, zum Beispiel in Südafrika.

Da seit Jahrzehnten keinerlei Aktivitäten erfolgen, die „Erneuerbaren“ grundlast- und regelfähig zu machen, wird auch das DSM an Grenzen stoßen. Wir wollen zwar mit aller Kraft dekarbonisieren, aber es gibt kein Zielbild für das künftige Energiesystem. Welcher Strommix soll es sein? Im Netz wird es zunehmend spannender, zeitweise wird es eben auch spannungslos sein.

Die Regelung und die Speicherung des Stroms verschiebt man auf das Wunderelement Wasserstoff. Für die Kohle- und Kernkraftwerke gibt es in Gesetzen fixierte Abschalttermine beziehungsweise Ausschreibungen zu solchen Terminen. Wann wir Wasserstoff aus marokkanischer oder australischer Sonnen- und Windkraft bekommen werden oder aus einem im Kongo noch zu bauenden Wasserkraftwerk samt Staudamm, wie von deutschen Politikern ins Auge gefasst, ist zeitlich offen und auf der Kostenseite nicht kalkulierbar. Aber der Glaube daran ist fest.

Das Gesetz wird problemlos den Bundestag passieren. Die praktische Umsetzung dürfte sich über viele Jahre hinziehen und die Unterdeckung im deutschen Netz wird zunehmen. Spitzenglättung in absehbaren Zeiten des Mangels bedeutet nichts anderes als Rationierung. Es klingt aber besser.

Ergänzung der Redaktion

Der Artikel erschien unter einer anderen Überschrift zuerst bei TE hier

Leser R.J. Machte dazu folgenden Vorschlag

Sehr geehrter Herr Hennig, vielen Dank für diese Analyse. Gleichwohl würde ich mich vor Pessimismus und Spott hüten wollen. Sie erwähnen den Wasserstoff. Das ist der Stoff, aus dem Wasser ist, darum heißt er ja so. Wasser kreist in der Attmossfähre wie Strom. Folglich kreist auch Stoff. Stoff ist für alle da. Doch dies nur am Rande. Alles ist mit kulturell sensibler, diskriminierungsfreier 1-2-3-viele-Mathematik genau ausgerechnet. Sie können es schon der genialen Doktorarbeit von Dr. Merkel entnehmen (die nicht ohne Grund gesperrt ist, na sehen Sie). Mit dem Kongoo ist das so. Der Staudamm hat einen Wasserstoffabscheider. Wenn das Wasser über denselben flutet, wird an ökologisch einwandfreien Nanorechen (Patent Dr. Habeck, aus natürlich gefallenem Hanf hergestellt) ganz ohne Zusatzstoffe der Wasserstoff abgestreift. Sauerstoff zum Atmen bleibt übrig. Sie fragen sich, woher die erforderliche Energie kommt. Nun, hier konnten die Physiker*innen Dr. Roth & Dr. Künast die Heisenbergsche Unschärferelation erweitern. Nach dieser kann man ja Energie borgen, wenn man sie eine Zeit später zurückgibt. Die numerischen Beträge hängen vom Planckschen Wirkungsquantum ab. Wenn man das passend vergrößert (Parteitagsbeschluss), geht das Borgen über Jahrhunderte. So schlägt man den Physikern der AfD ein Schnippchen. Ein weiterer Trick ist dabei. Im Vakuum, besonders im geistigen, entstehen laufend virtuelle Teilchen und Antiteilchen, die sich sodann annihilieren. Diese Annihilationsenergie kann man nutzen, wenn man auf beschriebene Weise die Zeitskalen streckt. Ich hörte diese geniale Idee von Prof. Altmaier und Prof. Dr. Dr. Dr. Prof. Dr. Dr. Dr. Prof. Lauterbach-Lauterbach. Es klingt wie ein Perpetuum mobile, ist aber etwas ganz anderes: ein Perpetuum merkile. In diesem Sinne: ad multos annos.

 




Klimaschutz und Virenhysterie: Instrumente des kommenden Machtmodells – Teil 2

Etwas später (1979) startete George Soros die Open Society Foundations, unter der er noch heute seine Aktivitäten zur Vertiefung der Globalisierung bündelt. Diese und viele andere private und staatliche Institutionen arbeiten seit Jahrzehnten an einem neuen Herrschaftsmodell, das die im Nationalstaat gegründete, rechtstaatlich-repräsentative Demokratie ablösen soll. Was ist die Agenda dieser Vordenker, die das reichste Promille der Eigentumspyramide vertreten? [1]

Einerseits hat das bisherige Modell die Entstehung der heutigen globalen Eigentumselite ermöglicht. Andererseits erkennen deren Vordenker, dass das Modell ökonomisch wegen der ohne Staatsbankrotte nicht mehr aufzulösenden Überschuldung am Ende ist und dass es Alternativen gibt, die ihre Vorherrschaft noch deutlich besser absichern.

Das neue Herrschaftsmodell soll die Trennung von Eigentum und politischer Macht, die mit dem Ende des Absolutismus zumindest formell und teilweise auch de facto erfolgte, rückgängig machen, und Oligopoleigentum wieder mit der vollständigen politischen Macht vereinigen – wie zur Zeit des Feudalismus, aber mit besseren Herrschaftstechniken. Das Modell hat folgende essenzielle Komponenten:

  1. Eine Schwächung des Nationalstaats mit dem mittelfristigen Ziel seiner Ablösung durch supranationale Regierungsformen ohne wirksame Gewaltenteilung und effektive demokratische Kontrolle – ein Verzicht auf die „veraltete“, aufklärerische Fiktion der Volkssouveränität.
  2. Eine Ablösung der traditionellen Rechtsstaatlichkeit des Common Law (USA, Commomwealth) und des römischen Rechtsprinzips (Kontinentaleuropa und Einflussgebiete) durch politisiertes Recht in Form einer Modifikation des klassischen Rechts mit Aufhebung der Isonomie und der Einführung eines Zuteilungsrechts.
  3. Eine möglichst umfassend Kontrolle von Medien, Kultur und politischer Willensbildung. Insbesondere eine hoheitliche Definition der Realität – was real ist, soll von den Eliten gesetzt werden.
  4. Eine Verwendung der großen Mehrheit derjenigen, die kein Eigentum an Produktionsmitteln haben, als passive Angestellte und Konsumenten der möglichst globalen Unternehmen.
  5. Eine umfassende Überwachung der Bevölkerung über die Nutzung des Internets.

Dabei wird der dekonstruktivistische Westmarxismus eingesetzt, um die Reste des noch bestehenden, legitimen Modells zu diskreditieren, wie etwa bei Derrida oder Butler. Der aufklärerisch-liberale Westmarxismus wird hingegen verwendet, um das neue Herrschaftsmodell als Gipfel der Aufklärung zu idealisieren. So, wie es sich etwa in den politischen Schriften von Jürgen Habermas findet, wo er sich für den Europäischen Zentralstaat einsetzt. Die ideologische Begleitung der Herrschaftskomponenten ist ubiquitär und penetrant. Sie beruft sich nur scheinbar auf die Werte der Aufklärung.

Die optimale Verwaltung

Was sind die Motive für diese Hauptkomponenten und wie sollen sie durchgesetzt werden? Die Schwächung des Nationalstaats ist in der Europäischen Union am weitesten fortgeschritten. Das Ziel ist ein Supranationalstaat, der die optimale Verwaltung einer von der Partizipation weitgehend ausgeschlossenen Bevölkerung erlaubt. Die nicht oder nur scheinbar gewählten, von der Elite bestimmten Politiker sollen die Interessen der Eigentumseliten möglichst reibungslos durchsetzen, deutlich effektiver als im Nationalstaat.

Dabei sollen Besteuerung und Steuermittelverwendung willkürlich festgelegt werden, es soll wieder das Prinzip der „taxation without representation“ (eine Abkehr vom Bill of Rights von 1688) gelten. Dies ist in der Eurozone dank der EZB bereits partiell gelungen. Die EZB-Bilanz wird durch Gelddrucken und den Kauf von Schrott-Assets Mitte nächsten Jahres wohl das Volumen des Bruttosozialproduktes der Eurozone erreichen, was bedeutet, dass dort gewaltige zukünftige Verpflichtungen des Staates angehäuft werden. Für diese wird der Steuerzahler oder, im Fall des Staatsbankrotts, jeder Immobilienbesitzer, aufkommen müssen. Bei anderen Zentralbanken ist das Legitimitätsdefizit zwar nicht ganz so groß wie bei der EZB, weil die Institutionen national sind, doch auch diese handeln nicht im Interesse der Bürger, sondern verwerten zukünftige Steuereinnahmen. In beiden Fällen fließen die Erträge der Geldschöpfung den Reichsten und den Politikern zu. Letztere nutzen sie zum Legitimitätskauf über Staatskonsum in Form von Sozialausgaben. Die nächste Stufe des Vorgangs ist die Abschaffung des Bargeldes und die Einführung einer internationalen Fiktivwährung, die von einem demokratisch nicht legitimierten Zentralkomitee verwaltet werden könnte, wie dies etwa von Facebook, aber auch von staatlichen Akteuren und NGOs vorgeschlagen wird.

Der Umbau des klassischen abendländischen römischen Rechts und des Common Law in ein neues Willkürrecht soll es ermöglichen, gesellschaftliche Normen nicht durch spontane Herausbildung oder politische Willensbildung zu verrechtlichen, sondern Normen beliebig zu setzen. Entscheidend für die Eliten des neuen Modells ist dabei die Aufhebung der Isonomie, aber ein vollständiger Ersatz wäre nicht zielführend, da ohne Rechtsrahmen keine moderne Wirtschaft funktionieren kann. Ein wichtiges Beispiel dafür sind die (medizinisch sinnlosen) Corona-Gesetze, die fast überall im Westen ohne Beteiligung der Parlamente von den Regierungen durchgesetzt wurden. Andere Beispiele sind Energiewende, Atomausstieg oder die willkürliche Bekämpfung des Individualverkehrs durch technisch nicht umsetzbare Abgasverordnungen. An der chaotischen und widersprüchlichen Ausformulierung solcher Vorhaben lässt sich schon ablesen, welche Folgen diese Art der Normensetzung hat.

Doch insbesondere ist die Corona-Politik nicht nur Symptom des neuen Herrschaftsmodells, sondern, nachdem die Errichtung globaler Herrschaftsstrukturen mit Hilfe der Klimapanik nicht recht gelungen ist, derzeit auch deren wichtigstes Durchsetzungsmittel. Denn diese Politik beschleunigt die globale Eigentumskonzentration gewaltig, da sie große Unternehmen schützt, gleichzeitig aber kleine und mittlere, oft eigentümergeführte oder zumindest im kleinteiligen Eigentum befindliche Unternehmen zerstört. Damit geht noch mehr Eigentum an den Finanzsektor und dessen Eigentümer über. Hier nutzt der Globalismus die klassische Rechtsordnung des Westens (Schuldeintreibung statt Erlass), um die Eigentumskonzentration so lange voranzutreiben, bis man sich wesentlicher Elemente des Rechtsmodells entledigen zu können glaubt.

Gestaltete Alarmrealität

Die Kontrolle der Medien ist ein weiteres wichtiges Herrschaftsinstrument, dessen Ausbau bereits weit fortgeschritten ist. In Deutschland ist der Marktanteil von Facebook, das die hier geschilderte Herrschaftsagenda vorbildlich vertritt, an Selbstdarstellungsplattformen nahe 100 Prozent. Das Internetoligopol aus Facebook, Google, Netflix, Amazon und wenigen anderen bedient in der Wahl der Inhalte und der Art, wie Suchergebnisse angezeigt und Produkte empfohlen oder beworben werden, ebenfalls diese Ideologie. Klassische private Medien, wie die traditionellen Zeitungen und Zeitschriften, private Radio- und Fernsehsender, sind unter dem hohen Druck des dekonstruktivistischen Westmarxismus (Rassismus- und Genderkampagnen, Kampf-gegen-Rechts, Kontaktschuldkampagnen) weitgehend eingeknickt und mehrheitlich sogar begeisterte Verbreiter dieses nihilistischen Kulturmarxismus; von den staatlichen Medien ganz zu schweigen. Alle beteiligen sich an der propagandistischen Diffamierung und Diskreditierung von Kritikern des Herrschaftsgeschehens als „Rechtsextremisten“. Doch die Propaganda erreicht ein neues Niveau, wenn Tatsachen der Realität verfälscht werden, um die Subjekte besser zu kontrollieren. Orwell beschreibt es in „1984“ überdeutlich: Geschichte, Gegenwart und die Aussicht auf die Zukunft werden nach Belieben der Partei beschrieben, und die Ideologie entscheidet alleine über die Wahrnehmung der Wirklichkeit. Es wird ein Framing über die Realität gelegt, wie man neuerdings sagt. Schon heute wird die Realität des endemischen Virus SARS-CoV-X, eines medizinisch in seiner Gefährlichkeit unter der von Influenza liegenden Erregers grippaler Infekte [11], von NGOs und Regierungen zur Pandemie erklärt. Sie setzen damit die eigentliche Realität außer Kraft und ersetzen sie durch eine gestaltete Alarmrealität, die die Journalisten und Bürger dann wahrnehmen und verbreiten. Entsprechend reagieren die Bürger mit Panik und befürworten totalitäre Maßnahmen – das Herrschaftsnarrativ ist bisher erfolgreich, die Herrschaft wird stabilisiert.

Besonders radikale Befürworter des neuen Herrschaftsmodells setzen sich für weitere Migration von Menschenmassen aus Gegenden mit geringem Zivilisationsniveau in die OECD-Staaten ein. Diese Menschen, die im Westen nach Wohlstand und Frieden suchen, aber lediglich Sozialität in Form der Vergemeinschaftung kennen und nicht in der Lage sind, sich in moderne Vergesellschaftungsstrukturen einzugliedern, sollen die Zusammengehörigkeit unterminieren und dadurch die zivilgesellschaftliche Willensbildung zur Abwehr der Herrschaftsagenda verhindern.

Eine weitere Komponente des neuen Modells ist die Überwachung. Jede Aktivität im Internet, ob durch Surfen oder der Nutzung von Gegenständen, die mit dem Internet verbunden sind (Autos, Zahlungsmittel, Wearables, Haushaltsgegenstände) erzeugt Spuren, die zur Überwachung von Individuen genutzt werden können. In einer Gesellschaftsordnung ohne Repräsentation und durchgehende Rechtsstaatlichkeit ist Überwachung essenziell, um Widerstand aufzuspüren und zu brechen.

Die führenden politischen Parteien in Westeuropa und Nordamerika, die die Prinzipien der repräsentativen politischen Willensbildung und der Amtstreue im Wesentlichen im Parteienstaat ausgelöscht haben, tragen diese Herrschaftsagenda weitgehend mit [1]; die einzige echte Ausnahme ist Donald Trump, dessen Wirkungsradius allerdings beschränkt blieb.

Es handelt sich allerdings nicht um eine Verschwörung, und dieser Aufsatz skizziert keine Theorie einer solchen, sondern Vertreter von Machtinteressen und ihre Vordenker erkennen Möglichkeiten und nutzen diese.

Die Probleme des neuen Modells

Was sind die Probleme dieses Herrschaftsmodells?

Erstens Widerstand der Bürger der Nationalstaaten, die das etablierte Legitimitätsmodell behalten wollen. Dazu könnten auch die Ordnungskräfte gehören. Der dauerhafte Wechsel von einem legitimen zu einem illegitimen Modell ist schwierig. Russland und China sind keine Gegenbeispiele, denn in beiden Ländern stehen totalitärer Zentralismus und lokale Patronatsstrukturen in langer Tradition der absolutistischen Vorgängerstaaten. Zwar wurden die Eliten ausgetauscht, aber nicht die Strukturen.

Zweitens eine Erosion der ökonomischen Produktivität infolge der Effekte der Migration und der aktiven (kulturmarxistischen) Normenzerstörung im Bildungswesen, aber auch in der parlamentarischen Normengestaltung und deren exekutiver Durchsetzung. Doch ohne die hohe Produktivität der voll ausgebauten Industriegesellschaft verfällt die wichtigste Legitimitätsgrundlage der Herrschaft. So kann es von der raschen Wohlstandserosion, deren Zeugen wir gerade werden, bis zur Versorgungskrise kommen.

Drittens die mangelnde machttechnische Absicherung des Modells. Wenn es zu der Versorgungskrise kommt, auf die wir uns gerade zubewegen, werden westliche Staaten mit datensetzender, instrumenteller und autoritativer Macht und Machtmitteln wie Propaganda, Sprachkontrolle und Diffamierung nicht mehr auskommen, sondern auf die Urform der Herrschaftssicherung, die Aktionsmacht [7], zurückgreifen müssen. Wo werden dann die bewaffneten Ordnungskräfte stehen?

Teil 1 finden Sie hier.

Zuerst erschienen bei der Achse, mit freundlicher Genehmigung.

Literaturhinweise

  1. Hans Herbert von Arnim. Staat ohne Diener: was schert die Politiker das Wohl des Volkes? Rowohlt Verlag GmbH, 2018.
  2. Egon Flaig. Die Niederlage der politischen Vernunft: wie wir die Errungenschaften der Aufklärung verspielen. zu Klampen Verlag GbR, 2017.
  3. Friedrich A von Hayek. Denationalisation of money: The argument refined. Ludwig von Mises Institute, 2009.
  4. Gertrude Himmelfarb. On looking into the abyss: Untimely thoughts on culture and society. Knopf New York, 1994.
  5. Bernard Manin. The principles of representative government. Cambridge University Press, 1997.
  6. Thomas Piketty. “About capital in the twenty-first century”. In: American Economic Review 105.5 (2015), S. 48–53.
  7. Heinrich Popitz. Phänomene der Macht. Tübingen: Mohr Siebeck, 1992.
  8. Guido Preparata. The Ideology of Tyranny: Bataille, Foucault, and the Postmodern Corruption of Political Dissent. Springer, 2007.
  9. Richard Rorty. Achieving our country: Leftist thought in twentieth-century America. Harvard University Press Cambridge, MA, 1998.
  10. Murray N Rothbard. Man, economy, and state. Ludwig von Mises Institute, 2009
  11. John P. A. Ioannidis: Global perspective of COVID‐19 epidemiology for a full‐cycle pandemic, E J Clin Invest, 10/2020. https://doi.org/10.1111/eci.13423



RKI zu PCR-Tests: Corona-Inzidenz unter 100 nicht erreichbar

Am 5. Januar haben die Ministerpräsidenten über eine Verlängerung und Verschärfung der Ausgangsbeschränkungen beraten. Als Grenzwert soll künftig eine Inzidenz von 100 Coronafällen pro 100.000 Einwohnern dienen.

Nicht nur betreffen derartige Einschränkungen damit „faktisch fast ganz Deutschland„, wie es aus den Ländern heißt. Die Maßnahmen könnten noch dazu nie wieder aufgehoben werden. Denn dieser Wert könne selbst von einer nachweislich gesunden, vollständig durchgetesteten Bevölkerung nicht unterschritten werden.

So schreibt das RKI: „Ein negatives PCR-Ergebnis schließt die Möglichkeit einer Infektion mit SARS-CoV-2 nicht aus“ und spricht von einer Spezifität von „nahezu 100 Prozent“. Beides lässt vermuten, dass PCR-Tests nicht fehlerfrei sind. An anderer Stelle schreibt das RKI:

Wie bei allen Testverfahren mit einer Spezifität < 100 % ist – insbesondere bei einer geringen [Verbreitung] in der Bevölkerung – ein gewisser Anteil falsch positiver Testergebnisse unvermeidbar.“

Letzteres lässt darauf schließen, dass insbesondere bei einer kleinen Anzahl tatsächlich Erkrankter die Aussagekraft der Tests nachlässt. Das bedeutet im Umkehrschluss: Je mehr Menschen tatsächlich infiziert sind, desto zuverlässiger sind die Ergebnisse.

Bereits eine Fehlerquote von 0,1 Prozent – bei einer angenommen Test-Genauigkeit von 99,9 Prozent – führt jedoch dazu, dass unter 100.000 nachweislich gesunden Menschen 100 falsch-positive Testergebnisse zu erwarten sind. Eine Lockerung der beschlossenen Maßnahmen wie Ausgangssperren, Beschränkung des Mobilitätsradius und der Zeit im Freien, wäre daher unmöglich.

Auch der kleinste Fehler ist ein Fehler

Entscheidend für die (statistische) Qualität eines Tests sind zwei Größen: Die Sensitivität und die Spezifität. Sucht man mit einem Test in einer Bevölkerung nach einer Erkrankung oder einem Erreger, gibt es zwei Ziele:

    • Der Test sollte zuverlässig alle finden, die wirklich krank sind, also niemanden übersehen – daraus ergibt sich die Sensitivität.
    • Der Test sollte zuverlässig nur die finden, die wirklich krank sind, also bei niemandem positiv ausfallen, der nicht krank/infiziert ist – das ergibt die Spezifität.

Die Sensitivität gibt an, bei wie viel Prozent der Tests das untersuchte Merkmal (COVID-19) korrekt erkannt wird, also ein „richtig-positives“ Testresultat auftritt. Die Spezifität hingegen gibt die Wahrscheinlichkeit an, mit der tatsächlich Gesunde richtigerweise als gesund beziehungsweise „richtig-negativ“ erkannt werden. Je größer diese Werte liegen, desto besser ist der Test. Dennoch übersieht jeder Test mit einer noch so kleinen Fehlerrate einen Teil der tatsächlich Kranken oder Infizierten.

Das heißt, der Test zeigt negative Testergebnisse bei Menschen, die eigentlich hätten positiv ausfallen müssen, sogenannte „falsch-negative Ergebnisse“. Außerdem kann der Test positive Testergebnisse bei Menschen anzeigen, die eigentlich hätten negativ ausfallen müssen, weil diese Menschen nicht krank/infiziert sind, sogenannte „falsch-positive Ergebnisse“.

Antigen- und PCR-Tests: Fehlerquote 0,1 bis 30 Prozent

Das Robert Koch-Institut (RKI) gibt für PCR-Tests weder für Spezifität noch Sensitivität exakte Werte an. In den Antworten auf Häufig gestellte Fragen hießt es:

Aufgrund des Funktionsprinzips von PCR-Tests und hohen Qualitätsanforderungen liegt die analytische Spezifität bei korrekter Durchführung und Bewertung bei nahezu 100 %.“

Nahezu 100 Prozent kann 99,9 Prozent oder 95 Prozent bedeuten – beides ergibt mathematisch korrekt gerundet 100 Prozent. Eine im April 2020 erfolgte Qualitätskontrolle unter der Leitung von Prof. Zeichhardt vom Institut für Qualitätssicherung in der Virusdiagnostik gab die durchschnittliche Spezifität der PCR-Tests (Untersuchung des Rachenabstrichs auf Coronaviren) mit 99,3 Prozent an. Unabhängig davon bezifferte eine Studie der Johns Hopkins School of Medicine die Sensitivität dieses Testverfahrens unter realen Bedingungen und den Testkriterien in Deutschland auf etwa 70 Prozent.

Für Antigen- oder Schnelltests nennt das RKI in einem Eckdaten-Papier des lokalen Corona-Monitorings für Straubing exakte Zahlen. Hierbei liegt die Sensitivität bei 88,3 Prozent. Die Spezifität gibt das RKI mit 99,4 Prozent an.

Sowohl für PCR- als auch Schnelltests gilt jedoch, dass die unsachgemäße Anwendung zu Fehlern führen kann. Das hat auch die WHO erkannt und warnt ausdrücklich: PCR-Anwender „sollten [die] Gebrauchsanweisungen sorgfältig lesen“. Je nach Hersteller steht dort, dass der Test für Patienten bestimmt ist, „die Symptome der COVID-­19 aufweisen“. Im Umkehrschluss bedeutet das, PCR-Tests sind nicht für die Untersuchung asymptomatischer Personen vorgesehen. Die angegebenen Fehlerquoten können daher nur für symptomatische Patienten gelten.

Sofern nicht anders angegeben, werden für die nachfolgende Betrachtung sowohl Spezifität als auch Sensitivität für PCR-Tests von 99,9 Prozent angenommen.

19 von 20 „positiv Getesteten“ sind gesund

Aus Sensitivität und Spezifität ergeben sich zwei weitere statistische Größen, die die Genauigkeit der Testergebnisse veranschaulichen. Der positive Vorhersagewert (positive predictive value, PPV) gibt die Wahrscheinlichkeit an, mit der ein positiv erhobenes Testergebnis tatsächlich auf eine COVID-19-Erkrankung hinweist. Der negative Vorhersagewert (NPV) gibt analog die Wahrscheinlichkeit an, mit der ein negatives Testergebnis richtig ist.

Die mathematischer Herleitung erfolgt anhand einer Vierfeldertafel mit den Merkmalen „infiziert/nicht infiziert“ und „positiv/negativ getestet“. Darüber hinaus bietet das Internet Werkzeuge zur Ermittlung der beiden statistischen Kenngrößen. [Hinweis der Redaktion zur richtigen Rechenweise: Beim Online-Tool besteht die virtuelle Testgruppe aus zehntausend statt einhunderttausend Personen, sodass die täglich veröffentlichten Inzidenz-Werte durch zehn geteilt werden müssen, um ein realistisches Bild zu erhalten.]

Für die angenommenen Werte für Sensitivität und Spezifität von je 99,9 Prozent sowie der aktuellen (9. Januar 2021) bundesweiten Corona-Inzidenz von 154 Fällen pro 100.000 Einwohnern – vorausgesetzt alle gemeldeten Fälle (0,15 Prozent der Bevölkerung) sind tatsächlich infiziert – ergibt sich ein PPV von 60,98 Prozent. Das heißt, 60 Prozent der positiven Tests liegt tatsächlich eine Corona-Infektion zugrunde. Gleichzeitig bedeutet dieser Wert jedoch auch, dass 40 Prozent oder etwa jedes zweite positive Testergebnis falsch ist.

Mit den Werten von Prof. Zeichhardt und der Johns Hopkins School of Medicine sinkt der PPV für PCR-Tests auf 13,7 Prozent oder „nur jeder Achte Positive ist infiziert“. Ein Antigen-(Schnell-)Test zeigt unter Annahme praxisnaher Werte von 80 Prozent Sensitivität und 98 Prozent Spezifität nur in 5,7 Prozent der Fälle ein richtig-positives Ergebnis an. Das heißt, 19 von 20 positiv Getesteten sind gesund.

Corona-Inzidenz unter 100 mit PCR-Tests nicht erreichbar

Für den niedersächsischen Landkreis Friesland registrierte das RKI am 10. Januar 42 Corona-Positive pro 100.000 Einwohner (7-Tage-Inzidenz). Wiederum unter der Voraussetzung, dass alle Positiven tatsächlich infiziert sind, ergibt sich dort ein PPV (für 99,9 Prozent genaue PCR-Tests) von 29,0 Prozent. Das heißt: Nur einer von vier positiv Getesteten ist tatsächlich infiziert. Der Schnelltest-PPV liegt bei etwa 1,5 Prozent.

Im sächsischen Landkreis Bautzen betrug die 7-Tage-Inzidenz 545,4 (RKI-Dashboard, 10.1., 12:50 Uhr). Der dazugehörige PPV liegt bei 85,1 Prozent: Fünf von sechs PCR-Positiven sind tatsächlich infiziert. Der PPV für Schnelltests liegt unter diesen Umständen bei 18,2 Prozent.

Steigt die Prävalenz – die Zahl der tatsächlich Infizierten –, steigt auch die Genauigkeit der Tests. Andererseits zeigt auch ein zu 99,9 Prozent zuverlässiger Test 0,1 Prozent Fehler an. In einer vollständig Corona-verseuchten Bevölkerungsgruppe von 100.000 Personen sind daher immer noch 100 falsch-negative Testergebnisse zu erwarten – und in einer nachweislich gesunden Bevölkerung 100 falsch-positive Ergebnisse und damit eine Corona-Inzidenz von 100.

Mit den von Prof. Zeichhardt und der Johns Hopkins School of Medicine ermittelten Werten, könnte die Inzidenz – in einer vollständig durchgetesteten, gesunden Bevölkerungsgruppe – nicht unter 700 sinken.

Die aktuellen Werte zwischen 42 und 545 ergeben sich, wenn beispielsweise nur ein Teil der Bevölkerung getestet wird und aus dieser Stichprobe auf die Gesamtheit geschlossen wird. So registrierte das RKI binnen der letzten sieben Tage in Bautzen 1.635 Corona-Positive (RKI-Dashboard, 10.1., 12:50 Uhr) – von denen rechnerisch jeder sechste falsch positiv ist. Bezogen auf die Gesamtbevölkerung des Landkreises von etwa 300.000 Einwohnern, errechnet sich die aktuelle Inzidenz von 545,4 pro 100.000.

Update 11. Januar

Eine frühere Version dieses Artikels verwies auf eine ungeprüfte Quelle, die Aussage des Artikels war davon nicht betroffen. Seit Veröffentlichung des Artikels wurden die eingangs erwähnten Maßnahmen beschlossen, außerdem erfolgte eine Aktualisierung der Zahlen anhand des COVID-19-Dashboards (zuletzt aufgerufen 10.1., 12:50 Uhr) des RKIs.

Dieser Beitrag stellt ausschließlich die Meinung des Verfassers dar. Er muss nicht zwangsläufig die Sichtweise der Epoch Times Deutschland wiedergeben.



Das Web und das Klima

Schadet das Internet dem Klima?

Ich frage Sie jetzt nicht, ob Sie manchmal im Internet surfen. Und so lange Sie bei THINK-AGAIN oder EIKE unterwegs sind ist das völlig in Ordnung. Aber ich habe den Verdacht, dass Sie noch in ganz andere Regionen streunen; dass bei der Hausarbeit ein Musik-Stream im Hintergrund läuft und Sie sich abendfüllende Filme in HD genehmigen.

Haben Sie sich jemals überlegt, wie viel Elektrizität dabei verbraucht, wie viel CO2 produziert wird? Vielleicht sind Sie ja sonst energiebewusst; vielleicht protestieren Sie gegen elektrische Zahnbürsten und stellen die Waschmaschine auf 30° ein, machen sich aber andererseits über all die Kilowattstunden, die Sie im Web verbraten keine Gedanken.

Dazu möchte ich Ihnen jetzt die Fakten präsentieren, vorher aber ein paar Begriffe klären.

Ein IQ-Test

Der Verbrauch eines elektrischen Gerätes wird in Watt angegeben. Die gute alte Glühbirne brauchte 60 Watt, eine neue 10 Watt, ist aber genauso hell. Ein vernünftiger Staubsauger zieht sich neben dem Staub vom Teppich auch noch 1500 Watt = 1,5 Kilowatt (kW) aus der Steckdose rein, etwa so viel wie ein Wasserkocher. Diese Zahlen beschreiben die „Leistung“ und sind eine Kenngröße jeden elektrischen Gerätes.

Wenn Sie also jemandem erklären, dass Ihr Computer 100 Watt verbraucht, und der fragt dann: „pro Stunde oder pro Tag?“ dann stellen Sie dem eine Gegenfrage: „Wieviel PS hat dein Auto?“ Der antwortet dann ganz stolz: „180 PS, ich hab den Turbo“. Dann fragen Sie dagegen: „180 PS? Ist das pro Stunde oder pro Tag?“.

Wenn Sie eine Stunde lang die Leistung von ein kW aus der Steckdose ziehen, dann haben Sie eine Kilowattstunde (kWh) an „Energie“ verbraucht und müssen 0,30 € dafür bezahlen. Leistung mal Zeit ergibt Energie. Wenn Sie diese Unterscheidung beherrschen, dann sind Sie klüger als die meisten Politiker, die bei dem Thema oft unfreiwillig ihren zweistelligen IQ offenbaren.

Zur Sache

Ich unterstelle Ihnen jetzt, dass Sie beim Surfen moderne Hardware wie Smartphone oder Tablett einsetzen. Der Schnelllade-Adapter für die Geräte holt sich etwa 15 Watt aus der Steckdose. Wie viel ist das pro Tag? Das ist die falsche Frage, denn Sie laden ihre elektronischen Lieblinge ja während der Nacht. Da ist der Akku dann nach einer Stunde wieder voll.

Eine Stunde lang haben wir also 15 Watt aus der Leitung geholt, macht 0,015 kWh. Wenn Sie das 30 mal im Monat machen, dann gibt das rund eine halbe Kilowattstunde. Im Vergleich zu Ihrem typischen monatlichen Gesamtverbrauch von, sagen wir, 350 kWh können wir das getrost vergessen. Und auch wenn zusätzlich noch diverses Gerät der im Hause ansässigen Minderjährigen geladen wird bleibt der Verbrauch dennoch sehr niedrig.

You Ain’t Seen Nothin‘ Yet

Was soll dieser Artikel also?“, werden Sie jetzt protestieren „So viel Text, nur um mir zu erklären, ich bräuchte mir um den Stromverbrauch beim Surfen keine Sorgen zu machen? Die hab ich mir eh nie gemacht!“

Warten Sie, Sie haben noch nicht alles gesehen. Während Sie, mit dem Tablett auf den Knien und einer Tasse Cappuccino in der Hand auf dem Sofa sitzen, und einen Artikel auf der Website „Think-Again“ lesen wollen, spielt sich hinter den Kulissen eine digitale Großveranstaltung ab.

Beim Anklicken des entsprechenden Links erzeugt Ihr Tablett eine kurze Botschaft, die über den Wi-Fi Router in der Zimmerecke und das Modem – das ist das Kästchen gleich daneben – in eine Glasfaser eingespeist wird. Von hier geht es zum professionellen Computer Ihres Internet Service Providers.

Dieser Computer schaut sich die Botschaft an. Er erkennt, wohin die Reise gehen soll, schickt die Sache weiter an einen regionalen Datenverteiler und von dort geht es zu einem der großen deutschen Datenzentren, vielleicht in der Nähe von Frankfurt. Letzteres ist durch Kabel mehr oder weniger direkt mit dem Rest der Welt verbunden.

Ihr Auftrag wird jetzt in die Stadt Orem geschickt, rund 8.400 km westlich von Frankfurt im US Staat Utah. Dort lagert das blog „think-again“ im datenzentrum von Bluehost, einem der großen amerikanischen web-anbieter. Das Zentrum ist eine größere Anlage, deren Ausdehnung etwa vergleichbar ist mit dem Volkswagenwerk in Wolfsburg.

Hier wird Ihre Botschaft dann gelesen und Ihr Wunsch wird erfüllt. Der angeforderte Artikel von Think-Again wird gesucht, gefunden und auf gleichem Weg, aber in der anderen Richtung, auf die Reise geschickt, sodass er schließlich vor Ihren Augen auf dem Tablett erscheint.

Tatsächlich werden Ihre Botschaft bzw. der gewünschte Artikel nicht in einem einzigen Paket transportiert, sondern sie werden in viele kleine Päckchen zerteilt, die selbstständig und auf unterschiedlichen Wegen zu ihrem Bestimmungsort gelangen, um sich dort dann spontan wieder zusammenzusetzen – und das auch noch in der richtigen Reihenfolge. Damit das funktioniert hängt an jedem Päckchen ein „Zettel“ mit seiner Destination, ähnlich wie an unseren Koffern beim Fliegen. Allerdings ist im Web dieser Zettel oft größer als das Stück „Gepäck“ an dem er hängt.

Sie werden verstehen, dass der ganze Vorgang dann schon mal ein oder zwei Sekunden dauern kann. Seien Sie also nicht ungeduldig, wenn Sie warten müssen; vielleicht ist ja gerade eines Ihrer Päckchen im Unterseekabel südlich von Grönland in einen Stau geraten.

Die Gretchenfrage

Das Bearbeiten und Versenden der Daten über größere Entfernungen benötigt Energie und zwar außerhalb Ihres Wohnzimmers. Da werden irgendwo Kilowattstunden verbraten, die niemals auf ihrer Stromrechnung stehen. Ein Maß dafür sind die verbrauchten kWh pro Gigabyte Datenmenge.

Eine Londoner Firma fand heraus, dass 2017 durchschnittlich 1,8 kWh pro Gigabyte Datenmenge verbraucht wurden. Wenn Sie sich also ein zweistündiges HD Video reinziehen, dann laden Sie bei der Gelegenheit 4GB herunter und verbrauchen 4 x 1,8 kWh = 7,2 kWh. Eine typische Website hat dagegen nur um die 2 MB, kostet also ganze 0,0036 Kilowattstunden. Surfen Sie also lieber auf Think-Again oder EIKE, statt sich zum x-ten Mal einen alten „James Bond“ anzuschauen.

Die oben erwähnten Experten haben auch ausgerechnet, dass pro Jahr durch das Internet weltweit 416,2 Terawattstunden (TWh) verbraucht würden. Das entspricht drei Vierteln des jährlichen deutschen oder 5% des weltweiten Stromverbrauchs.

Kann man die Zahlen glauben?

Seit sich jegliche Industrie (außer in China) vor den sehr mächtigen und wenig kompetenten Klima- Aposteln rechtfertigen muss, werden Verbrauchszahlen von den Betreibern nicht an die große Glocke gehängt. Die Forderung nach dem „Sustainable Web“ hängt wie ein Damoklesschwert über Netflix, Google, Facebook und Co. Die versuchen also den Ball flach zu halten, betonen die Nachhaltigkeit ihrer Energiequellen und pflanzen symbolische Solarpanels neben ihre gigantischen „Hyperscale Data Centers“.

Derzeit gibt es weltweit rund 500 dieser Zentren, die jeweils Zehntausende von Servern, also individuelle Computer beherbergen. Falls so ein Server, wild geschätzt, 500 Watt verbraucht, dann kommen wir auf „Zig“ Megawatt für solch ein Zentrum. Das lässt die oben erwähnten „416,2 TWh“ plausibel erscheinen, wobei ich die Zahl hinter dem Komma nicht ganz ernst nehmen würde.

Das Paradoxe ist nun, dass auf den Serverfarmen 50% der Leistung dazu gebraucht wird, die Hitze zu beseitigen, welche die anderen 50% erzeugen. Diese Situation kann man entschärfen, wenn man sich in kalten Gegenden ansiedelt. Und so ist aus Island ein beliebter Standort für Server Farmen geworden, so wie auch Norwegen – dort nördlich des Polarkreises. Zudem haben beide Länder jede Menge Strom aus Wasserkraft bzw. auch aus Geothermie, aus erneuerbaren Quellen also.

Wie geht’s weiter?

Der Verkehr im Web, gemessen in Gigabyte, wird in den kommenden Jahren weiterhin „exponentiell“ wachsen. Der Löwenanteil kommt von dem Trend, dass Daten nicht mehr vom Benutzer auf dem eigenen Gerät gespeichert werden, sondern in der „Cloud“ eines der riesigen Datenzentren.

Zwar wird der spezifische Energieverbrauch kWh/GB durch Fortentwicklung und weitere Miniaturisierung der Hardware abnehmen, aber diese Einsparung wird durch das enorme Wachstum des Datenverkehrs locker überrollt.

Derzeit werden neue Hyperscales mit einer Rate von weltweit 50 bis 100 pro Jahr gebaut. Eines der größten Europas ist gerade in Frankfurt entstanden, mit einem Bedarf von geschätzten 70 MW elektrischer Leistung. Zum Vergleich: der durchschnittliche Verbrauch eines deutschen Haushalts beträgt 3500 kWh. Nach Adam Riese verbraucht besagtes Datenzentrum so viel Strom  wie 200.000 Haushalte bzw. 400.000 Einwohner.

Vorreiter Deutschland?

Diese Computerfarm alleine hat also den CO2-Fußabdruck einer richtigen Großstadt! Darf man das hinnehmen? Hier könnte Deutschland ein weiteres Mal Vorbild für den Rest der Welt sein. So wie man heute den Kraftwerken in Philippsburg und Moorburg den Garaus macht, so könnte man es vielleicht morgen mit dem Datenzentrum in Frankfurt tun.

Als ersten Schritt könnte man sich allerdings auch einen „sanften“ Eingriff vorstellen. Neben dem „Netzwerkdurchsetzungsgesetz“ könnte ein „Netzwerkklimaschutzgesetz“ verabschiedet werden, welches die Nutzung des Webs nur durch„systemrelevante“ Anwender zulässt. Und was systemrelevant ist, das wird, wie gehabt, durch spezielle NGOs entschieden.

Vielleicht fragen Sie sich jetzt, wieso dieses riesige Zentrum genau in Frankfurt gebaut wurde, wo doch der Strom in Deutschland so teuer und flatterhaft ist, und die Bevölkerung so grün und unerbittlich. Die Antwort: der deutsche Cloud-Kunde hat ein besseres Gefühl, wenn seine wichtigen und sensitiven Daten in Computern  gespeichert werden, die auf deutschem Boden stehen.

Das soll mir mal jemand erklären.

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazon erhältlich.




Jobs mit Grüner Energie

Kurze Zusammenfassung

  • „Schaffung von Arbeitsplätzen“ ist nur dann eine gute Sache, wenn es sich bei diesen Arbeitsplätzen um produktive Arbeitsplätze handelt. Wenn die Regierung die Menschen dafür bezahlt, minderwertige Produkte und Dienstleistungen zu produzieren, oder die Leute dafür bezahlt, ineffizient zu produzieren, dann ist das „Wohlfahrtsarbeit“, die den amerikanischen Verbrauchern und der amerikanischen Wettbewerbsfähigkeit schadet.
  • Viele der durch den Biden-Plan geschaffenen Arbeitsplätze würden den Bau einer neuen, unzuverlässigen Solar- und Windinfrastruktur beinhalten. 1 Diese Infrastruktur kann unsere zuverlässigen Kraftwerke nicht ersetzen – sie wird nur eine Menge neuer Kosten verursachen, die Verbraucher und Industrie zahlen müssen. Klassische Wohlfahrtsarbeit. 2

Alex Epstein_Kosten der Erneuerbaren – „.. wie Eisberge..“

  • Durch die Erhöhung der Energiekosten für Verbraucher werden Bidens „Green Energy Jobs“ das Realeinkommen jedes Amerikaners senken, da er viel mehr für die Heizung und Stromversorgung seiner Häuser und für das Autofahren ausgeben muss.
  • Solar und Wind haben die „Energiearmut“ in den USA bereits erhöht – Menschen haben Schwierigkeiten, ihren grundlegenden Energiebedarf zu bezahlen. 25 Millionen US-Haushalte geben an, auf Lebensmittel oder Medikamente verzichtet zu haben, um Energie zu bezahlen. 12 Millionen sagen, dass sie ihr Heim auf einer ungesunden Temperatur halten. 3
  • Deutschland, das 1/3 seines Stroms aus Sonne und Wind bezieht 4 , bietet eine milde Vorschau auf den Biden-Plan. Die Deutschen haben ihre Strompreise in 20 Jahren dank verschwenderischer, unzuverlässiger Sonne und Wind verdoppelt. Ihre Strompreise sind dreimal so hoch wie unsere, bereits zu hohen Preise. 5
  • Durch die Erhöhung der industriellen Energiekosten werden Bidens „Green Energy Jobs“ jedes in Amerika hergestellte Produkt teurer und jedes amerikanische Unternehmen weniger wettbewerbsfähig machen. Dies bedeutet, dass produktivere Arbeitsplätze für andere Länder verloren gehen, in denen Energie zuverlässiger ist und weniger kostet.
  • Um eine Vorschau darauf zu erhalten, was Bidens „grüne Energiearbeitsplätze“ für die amerikanische Industrie bedeuten werden, sollten Sie die zunehmende „grüne Arbeitslosigkeit“ in Europa und Australien in Betracht ziehen. Wie die Arbeiter des australischen Recyclingunternehmens, das nach 37 profitablen Jahren unterging, als „grüne“ Richtlinien die Stromkosten verdoppelten. 6
  • Bidens „grüne Energiearbeitsplätze“ werden in der gesamten Wirtschaft zu „grüner Arbeitslosigkeit“ führen, wobei diejenigen, die mit der Industrie für fossile Brennstoffe verbunden sind, am stärksten betroffen sind. Das Global Energy Institute schätzt, dass allein durch ein Fracking-Verbot „19 Millionen Arbeitsplätze abgebaut werden würden“. 7
  • Während Biden jetzt sagt, dass er ein Fracking-Verbot nicht unterstützt, unterstützt er einen „Übergang“ weg von allen fossilen Brennstoffen, was weitaus umfassender wäre als ein Fracking-Verbot. 8 Das bedeutet, dass weitaus mehr produktive Arbeitsplätze verloren gehen als die Schätzung des Global Energy Institute von 19 Millionen für ein Fracking-Verbot.
  • Zusammenfassung: Bidens Energieplan wird eine Handvoll unproduktiver „grüner Energiearbeitsplätze“ schaffen, die, indem sie amerikanische Energie unzuverlässig und unerschwinglich machen, nicht nur in der fossilen Brennstoffindustrie, sondern in jeder energieintensiven Industrie zu massiver „grüner Arbeitslosigkeit“ führen.

Verweise

  1.  „Zusammen werden diese Schritte eine Revolution für saubere Energie in Amerika auslösen, gut bezahlte Gewerkschaftsarbeitsplätze schaffen, die nicht ausgelagert werden können, und die Installation von Millionen von Solarmodulen – einschließlich Solaranlagen im großen Versorgungsmaßstab, auf den Dächern und in der Gemeinde – und Zehntausenden von Windkraftanlagen – einschließlich Tausende von Windrädern vor unseren Küsten – in Bidens erster Amtszeit.
    The Biden Plan to build a modern, sustainable infrastructure and an equitable clean energy future
    Der Biden-Plan zum Aufbau einer modernen, nachhaltigen Infrastruktur und einer gerechten Zukunft für saubere Energie
  2. „… wir stellen fest, dass die Strompreise sieben Jahre nach dem RPS-Übergang um 11% höher sind, was hauptsächlich auf indirekte Netzintegrationskosten (z. B. Übertragung und Unterbrechung) zurückzuführen ist.“
    Michael Greenstone and Ishan Nath – Do Renewable Portfolio Standards Deliver Cost-Effective Carbon Abatement?
    Michael Greenstone und Ishan Nath – Liefern Standards für erneuerbare Portfolios eine kostengünstige CO2-Reduzierung?… Renewable Portfolio Standards (RPS) schreiben die Anteile von EE vor https://epic.uchicago.edu/wp-content/uploads/2019/07/Do-Renewable-Portfolio-Standards-Deliver.pdfSteffen Henne – How bad are solar and wind?https://youtu.be/bcdsiHT0iOo/
    Steffen Henne – Wie schlimm sind Sonne und Wind?
  3. Talking Points on Energy Poverty
    Gesprächsthemen zur Energiearmut
  4. Solar und Wind lieferten in 2019 33,6% der deutschen Nettostromerzeugung.
    Fraunhofer ISE energy-charts.info
  5. deutsche Haushaltsstrompreise

    Folie 8 von  https://www.bdew.de/media/documents/201013_BDEW-Strompreisanalyse_Juli_2020-Haushalte_und_Industrie.pdfBDEW Strompreisanalyse July 2020 p. 7

    Dem gegenüber die Amerikanischen Strompreise
    Der durchschnittliche US-Haushaltspreis im Jahr 2019 betrug 0,1301 USD pro kWh.
    U.S. Energy Information Administration – Electric Power Annual table 5a

  6. Die Plastics Granulating Services (PGS) mit Sitz in Kilburn im inneren Norden von Adelaide gab bekannt, dass die monatlichen Stromrechnungen in den letzten 18 Monaten von 80.000 USD auf 180.000 USD gestiegen sind.ABC News Australia – SA plastics recycling business closes due to $100k hike in power bills
    ABC News Australia – Das Kunststoffrecyclinggeschäft von SA wird aufgrund einer Erhöhung der Stromrechnungen um 100.000 USD geschlossen
  7. Global Energy Institute – What if… Hydraulic Fracturing was Banned? (2020 Edition)
    Global Energy Institute – Was wäre, wenn … Hydraulic Fracturing verboten wäre? (Ausgabe 2020)
  8. Talking Points on Joe Biden’s Energy Plan
    Gesprächsthemen zu Joe Bidens Energieplan

Gefunden auf

https://energytalkingpoints.com/green-energy-jobs/

Übersetzt durch Andreas Demmig

 




Der Nahe Osten setzt verstärkt auf Öl und Gas, während die UN vor einem „Klima-Notstand“ warnen

Der Generalsekretär fragte ernsthaft: „Kann irgendjemand noch leugnen, dass wir uns in einer dramatischen Notlage befinden?“ Die Frage verdeutlicht den tiefen Graben zwischen den politischen Positionen der wichtigsten westlichen Regierungen einerseits sowie den Öl- und Gasproduzenten im Nahen Osten andererseits. Für die Kohlenwasserstoffproduzenten im Nahen Osten, die von dem „doppelten Schlag“ des stark gesunkenen Öl- und Gaspreises – der Hauptstütze der Staatseinnahmen – und den Auswirkungen der Covid-19-Sperren auf die inländische Wirtschaftstätigkeit betroffen sind, ist die Strategie für das nationale Überleben klar und könnte nicht gegensätzlicher sein als die des UN-Generalsekretärs: das Tempo der Monetarisierung der Öl- und Gasreserven, mit denen ihre Länder gesegnet sind, stark erhöhen.

Naher Osten wird mehr Öl und Gas liefern

Innerhalb von zwei Wochen nach dem UN-Gipfel gab der saudi-arabische Energieminister am 27. Dezember die Entdeckung von vier neuen Öl- und Gasfeldern bekannt, darunter auch unkonventionelle Ressourcen. Die Entdeckungen werden den Plänen des Landes Auftrieb geben, seine maximale nachhaltige Rohölproduktionskapazität von derzeit 12 Mio. b/d [Barrel pro Tag] auf 13 Mio. b/d zu erhöhen sowie seine Gasressourcen zu erschließen, um mehr Öl für den Export freizusetzen, anstatt es für die Stromerzeugung zu verbrennen.

Der geschäftsführende Direktor Sultan Al Jaber von der ADNOC, einer der führenden nationalen Ölgesellschaften in der Golfregion, sagte, dass das Unternehmen aus Abu Dhabi „nichts unversucht lässt, um den Wert unserer reichhaltigen Kohlenwasserstoffressourcen freizusetzen“. Ende 2019 genehmigte die Regierung von Abu Dhabi einen Investitionsplan in Höhe von 122 Milliarden US-Dollar für die nächsten fünf Jahre, um die Öl- und Gasförderkapazitäten zu erhöhen. Mit massiven neu entdeckten Reserven und dem Startschuss für die Vergabe großer Lizenzen für die Öl- und Gas-Ausbeutung freut sich das Land darauf, seine Ölförderkapazität von derzeit 4 Mio. Barrel/Tag auf 5 Mio. Barrel/Tag zu steigern.

Während der Westen versucht, auf sie zu verzichten

Im Gegensatz dazu war der Klimagipfel eine Gelegenheit für Premierminister Boris Johnson, seine Führungsrolle in der Klimapolitik zu demonstrieren – als Aufwärmübung für die Weltklimakonferenz im nächsten Jahr, die in Glasgow stattfindet und von Großbritannien ausgerichtet wird. Großbritannien fordert ein radikales Ende der Abhängigkeit von fossilen Brennstoffen und hat bereits ein Verbot von neuen Diesel- und Benzinautos bis 2035 sowie eine Senkung der Kohlenstoffemissionen um satte 68% unter die Werte von 1990 bis 2030 angekündigt. Auf dem Klimagipfel versprach Premierminister Johnson, die Finanzierung von Öl- und Gasprojekten in Übersee „so bald wie möglich“ zu beenden. Er wiederholte auch seine Forderung, dass Großbritannien „das Saudi-Arabien der Windenergieerzeugung“ werden solle, um den „Fuß auf das Gaspedal zu setzen, und zwar auf Kohlenstoff-freundliche Weise“.

Die Politiker einer Reihe westlicher Länder, die ehrgeizige Null-Emissions-Reduktionsziele bis 2050 angekündigt hatten, haben sich darauf konzentriert, die Krise der Coronavirus-Pandemie in eine „Chance“ für eine „grüne industrielle Revolution“ (Boris Johnson) und den „Great Reset“ der globalen Wirtschaft (Klaus Schwab, Gründer des Weltwirtschaftsforums) zu verwandeln. Und uns wird versprochen, dass eine bevor stehende Biden-Präsidentschaft vom ersten Tag ihres Amtsantritts an das Versprechen „Netto-Null bis 2050“ unterschreiben wird.

Während die politischen Eliten im Westen vor den „drohenden“ katastrophalen Folgen einer ausbleibenden Emissionsreduzierung warnen, sehen sich die übrigen Länder der Welt mit der Notwendigkeit konfrontiert, harte Entscheidungen zur Wiederherstellung von Wachstum und Beschäftigung für ihre von Rezessionen betroffenen Bürger inmitten einer globalen Pandemie zu treffen. Kohlenwasserstoffe machen fast 85 % des weltweiten Energieverbrauchs aus, während erneuerbare Energietechnologien wie Wind, Sonne, moderne Biokraftstoffe und Batterien kaum 5 % liefern können. Können diese erneuerbaren Energietechnologien die Welt in absehbarer Zeit mit der benötigten Energie versorgen?

Dabei werden diese Öl- und Gasvorkommen dringend gebraucht

Trotz des beispiellosen Einbruchs der Nachfrage durch die Coronavirus-Pandemie seit März und trotz des endlosen Stroms von Meldungen über das robuste Wachstum erneuerbarer Energien steht die Welt vor einer langfristigen Versorgungslücke bei Öl und Gas. Laut der Energieberatungsfirma Wood Mackenzie ist nur etwa die Hälfte des bis 2040 benötigten Angebots aus produzierenden Feldern verfügbar, „der Rest erfordert neue Kapitalinvestitionen“.

Angesichts des jüngsten Einbruchs der Investitionen in die Öl- und Gasförderung wies das International Energy Forum IEF in einem aktuellen Bericht darauf hin, dass wir vor einem Versorgungsschock „historischen Ausmaßes“ stehen, wenn die Investitionen in die Öl- und Gasexploration und -produktion in den nächsten drei Jahren nicht jährlich um 25 % steigen. Dem Generalsekretär des IEF zufolge „führt die Kürzung von Investitionen in neue Förderanlagen zu einem geringeren Gesamtangebot… es wird nicht lange dauern, bis dieses geringere Angebot mit einer wiederauflebenden Nachfrage kollidiert. Das Ergebnis werden höhere und volatilere Ölpreise und Gegenwind für die Erholung der Weltwirtschaft nach der Pandemie sein.“

Der Zugang zu in großem Umfang verfügbaren fossilen Brennstoffen ist der einzige bekannte Weg zur wirtschaftlichen Entwicklung. Seit der industriellen Revolution im 18. und 19. Jahrhundert hat sich kein Land der Erde ohne die Nutzung von leicht zugänglichen Kohlenwasserstoffen entwickelt. Großbritannien kann durchaus das „Saudi-Arabien der Windenergie“ werden (auch wenn es viele Zweifler gibt), aber was die Entwicklungsländer brauchen, die mehr als drei Viertel der Weltbevölkerung ausmachen ist, dass Saudi-Arabien zusammen mit anderen Öl- und Gasproduzenten bereit und in der Lage ist, fossile Brennstoffe so zu liefern, wie sie für das menschliche Gedeihen benötigt werden.

Link: https://wattsupwiththat.com/2020/12/30/the-middle-east-doubles-down-on-oil-and-gas-as-the-un-warns-of-climate-emergency/

Übersetzt von Chris Frey EIKE




Klimaschutz und Virenhysterie: Instrumente des kommenden Machtmodells – Teil 1

Zahlreiche Autoren haben in den letzten Jahren gezeigt, dass wir derzeit in den westlichen OECD-Staaten, also in Europa und seinen ehemaligen Siedlerkolonien, eine Erosion des gesellschaftlichen Legitimitätsmodells der Nachkriegsära und die Herausbildung eines neuen, usurpatorischen (nicht legitimen) Herrschaftsmodells beobachten.

Ich betrachte im Folgenden die Eigenschaften des alten Modells, die Ursachen für den Übergang, sowie die Herrschaftstechniken und -probleme des neuen Machtmodells.

Jede urbane Gesellschaft benötigt ein Gewaltmonopol, weil Gesellschaften – anders als Gemeinschaften – mit ihren nicht nur auf persönlichen, sondern auch auf rechtlichen Normen beruhenden, anonymen sozialen Beziehungen zur Prävention von Gewalt darauf angewiesen sind [7]. Die Amtsträger, die dieses Monopol ausüben, neigen stets dazu, es für eigene Zwecke zu missbrauchen und ihre Stellung zu perpetuieren. Dies gilt für alle Staatsformen von den ersten Städten bis zur Demokratie der Nachkriegszeit, wobei die Arten des Missbrauchs um die Hauptthemen des Eigentums und der Gestaltungsmacht variieren. Das Ausmaß dieses Missbrauchs ist die Summe des illegitimen Herrschaftsertrages.

Mißbrauch des Gewaltmonopols ist immer an Eigentumskonzentration gebunden. Im extremsten Fall ist das Eigentum nahezu vollständig in den Händen des Herrschers konzentriert, der in traditionellen Gesellschaften dann den Status eines Gottes erhält. In Gesellschaften mit moderater Eigentumskonzentration ist die Tendenz zum Machtmissbrauch schwächer. Im Übergang vom Absolutismus des 17. und 18. Jahrhunderts zur konstitutionellen Monarchie und zur Republik im 19. Jahrhundert erfolgte eine deutliche Verbreiterung der Eigentumsbasis auf das Bürgertum, der Trägerschicht des neuen Herrschaftsmodells. Daher wurde der Eigentumsbegriff in den bürgerlichen Verfassungen seit 1776, anders als im Sozialismus, der Ideologie der Eigentumslosen, nicht problematisiert.

Die Nachkriegsordnung des Westens hatte folgende wesentliche tragende Strukturen: funktionstüchtige und verlässliche Rechtsstaatlichkeit mit einem historisch fast nie anzutreffenden Ausmaß an Isonomie wie im frühen römischen Prinzipat, repräsentative Demokratie mit einem geringen Ausmaß an Partizipation [5], homogene Bevölkerungsstruktur mit einem kleinen Anteil an Migranten, hohes Maß an innerer Sicherheit, außenpolitische Sicherheitsarchitektur unter der Hegemonie der USA, relativ breite Eigentumsverteilung und Goldbindung der Papierwährung.

Der Anteil der Bürger, die von der Nutzung des eigenen Besitzes lebten – sei es als Händler, Landwirte, Dienstleister oder Industrielle – lag bei etwa 15 bis 20 Prozent der Bevölkerung. Die überwältigende Mehrheit der unselbstständigen Angestellten arbeiteten in kleinen oder mittleren Betrieben mit einer persönlichen Beziehung zum Unternehmer. Insgesamt war die Legitimität dieser Ordnung bis in die 1970er Jahre hinein überwältigend, auch wenn die marxistische Studentenrevolte seit 1968 das Herrschaftsparadigma infrage zu stellen begann.

Die Voraussetzungen des neuen Herrschaftsmodells

Das heutige, illegitim-usurpatorische Modell hat Voraussetzungen, die in den 1970er Jahren zu finden sind und dann, nach einem langen Vorlauf, Ende der 1990er Jahre voll zu wirken begannen, um sich zum derzeitigen Zustand zu entfalten. Es handelt sich um drei wesentliche Gruppen.

Westmarxismus

Der wichtigste kulturelle Voraussetzung war der Westmarxismus mit zwei Varianten, einer aufklärerisch-idealistischen und einer Heidegger’sch-dekonstruktivistischen. Die erste Variante findet man beispielsweise in der Frankfurter Schule bei Max Horkheimer, Theodor W. Adorno und Jürgen Habermas sowie bei John Rawls, die zweite vor allem bei Michel Foucault, Jacques Derrida, François Lyotard, Richard Rorty, Paul de Man, oder Judith Butler. Beide Strömungen sind sehr gut untersucht [4, 8] – sogar am Ende seines Lebens von Richard Rorty selbst, der zu merken begann, dass etwas nicht stimmte [9].

Sehr verkürzt gesagt, dient diese Ideologie besonders in der dekonstruktivistischen Ausprägung dazu, dem Westen Selbstbewusstsein und Stolz auf die Errungenschaften der Zivilisation zu nehmen und diese als Geschichte von Unterdrückung und Ausbeutung im Inneren und nach Außen (Kolonialismus) umzudeuten, um so der freiheitlichen Gesellschaft das Substrat zu nehmen und eine kollektivistische Gesellschaftsform zu bahnen [2]. Beide Varianten sind in den 1980er Jahren eine Symbiose mit dem globalen Liberalismus eingegangen, viele der Vertreter beider Ideologien haben dessen Ideen aufgegriffen.

Fiktivwährung

Die Schaffung einer reinen Fiktivwährung war ein weiterer entscheidender ökonomischer Faktor. Als US-Präsident Richard Nixon 1971 die Goldbindung des Dollars, der Weltleitwährung im Bretton-Woods-System, aufhob, entstand schlagartig weltweit in allen bedeutenden Wirtschaftsnationen ein System der ungedeckten Papiergeldwährung – in Kombination mit dem Teilreservesystem der Banken (was bedeutet, dass Banken ein Vielfaches ihres Eigenkapitals als Kredite vergeben und Geld aus dem Nichts schöpfen können). Wie Rothbard [10], Hayek [3] und andere Vertreter der Österreichischen Schule gezeigt haben, führt diese Kombination zu einer unkontrollierten Ausweitung der Geldmenge, chronischer Inflation, massiv verschärften Konjunkturzyklen („boom and bust“), galoppierender Staatsverschuldung mit regelmäßigen Staatsbankrotten und vor allem zu einer radikalen Konzentration des Privateigentums auf einen sehr kleinen Teil der Bevölkerung.

Es seien hier zumindest kurz die wichtigsten Ursachen der Eigentumskonzentration genannt. Im System der Fiktivwährung mit Teilreserve wird ständig neues Geld geschaffen, und zwar deutlich schneller, als die Realwirtschaft wächst. Dadurch steigen die Preise, und zwar in einem Umfeld zunehmender Rationalisierung und Auslagerung von Arbeit in das Ausland vor allem die Preise für hochwertige Realgüter: Immobilien, Unternehmen, Edelmetalle und -steine sowie Kunstwerke und andere Sammlerstücke – zunächst nicht aber die Preise des alltäglichen Warenkorbes.

Dadurch werden Eigentümer dieser Güter im Verhältnis zu denen, die nur ihr Einkommen haben, automatisch wohlhabender. Außerdem erhalten diejenigen Akteure, die als erstes das frisch erschaffene Geld empfangen, einen höheren Wert als die Letztempfänger – wie Angestellte und Sozialhilfeempfänger. Insbesondere Anleger, die seit den 1970er Jahren am Finanzsektor beteiligt waren, konnten sich durch die Kombination dieser Effekte massiv bereichern. Die Verzinsung ihrer Vermögen war viel höher als die Einkommenszuwächse der abhängigen Angestellten, weshalb sie den überwiegenden Teil des Wirtschaftswachstums der letzten 50 Jahre vereinnahmt haben; ohne Veränderung der fundamentalen Faktoren wird sich dieser Trend weiter beschleunigen [6].

Skaleneffekte, Privatisierung, Globalisierung

Der technische Fortschritt ermöglichte nach dem zweiten Weltkrieg eine schnell fortschreitende Konzentration der Produktionsmittel des Primär- und Sekundärsektors mit Hilfe massiver Skaleneffekte. Der Investitionsbedarf in vielen Branchen wurde so enorm, dass nur noch große Einheiten ihn bewältigen konnten. Gleichzeitig ermöglichten globale Produktion, Vertrieb und Konsum eine bisher nie dagewesene Skalierung von Unternehmensideen und Branchen.

So wurde es beispielsweise möglich, Agrarkonzerne zulasten selbstständiger Landwirte zu schaffen und diese von nicht-vermehrungsfähigem Saatgut großer Biokonzerne abhängig zu machen. Der kleinbürgerliche Einzelhandel wurde weitgehend abgeschafft und durch Handelskonzerne ersetzt, bis hin zum virtualisierten Handel per Internet (wie etwa Amazon oder Zalando). Kleine Pharmaunternehmen gibt es kaum noch; fast alle Branchen sind von diesem Konzentrationstrend betroffen. Gleichzeitig sank der Anteil selbstständig geführter Unternehmen an der volkswirtschaftlichen Leistung, der Anteil der Konzerne daran nahm zu.

Insgesamt hat sich die Wertschöpfung in den letzten 50 Jahren auf deutlich weniger Akteure konzentriert; immer mehr Berufsgruppen werden in das Angestelltenverhältnis gedrängt, neuerdings auch „Trägerberufe der bürgerlichen Gesellschaft“ (John Dewey) wie Ärzte oder Apotheker. Die Haupteigentümer der großen Unternehmen oder der Ketten abhängiger Angestellter oder Franchise-Nehmer sind sehr reiche Familien mit vielfachem Millionen- oder Milliardenvermögen (die oberen 0,5 bis 1 Prozent der globalen Eigentumspyramide).

Durch die Privatisierungspolitik ab den 1980er Jahren wurde Staatseigentum an Infrastruktur, Immobilien und Dienstleistungskonzernen im Wesentlichen direkt dieser kleinen Schicht verkauft, was zu einer weiteren Eigentumskonzentration geführt hat. Die Globalisierung hat ebenfalls dazu beigetragen, Nutznießer waren die Finanzindustrie, die wohlhabenden Eigentumsschichten und die Exportwirtschaft im Westen und in Asien (erst Japan, dann China und andere) sowie die asiatischen Arbeitnehmer. Verlierer sind die Arbeiter und Angestellten im Westen.

Zwischen Papierwährung, Teilreservesystem, technischen Skalierungsmöglichkeiten, Globalisierung und weiteren Faktoren sind zahlreiche sich gegenseitig verstärkende Interaktionseffekte entstanden. Dadurch hat sich das globale Privateigentum in den letzten 50 Jahren derartig konzentriert, dass nun deutlich weniger als 1 Prozent der Weltbevölkerung zwischen 40 und 50 Prozent und die oberen 10 Prozent etwa 85 Prozent des globalen Privateigentums besitzen, wobei das Tempo der Konzentration laufend zunimmt (Global Wealth Report der Crédit Suisse, 2019). Die Konzentration könnte noch deutlich höher sein, was aber sehr schwer abzuschätzen ist.

Literaturhinweise

  1. Hans Herbert von Arnim. Staat ohne Diener: was schert die Politiker das Wohl des Volkes? Rowohlt Verlag GmbH, 2018.
  2. Egon Flaig. Die Niederlage der politischen Vernunft: wie wir die Errungenschaften der Aufklärung verspielen. zu Klampen Verlag GbR, 2017.
  3. Friedrich A. von Hayek. Denationalisation of money: The argument refined. Ludwig von Mises Institute, 2009.
  4. Gertrude Himmelfarb. On looking into the abyss: Untimely thoughts on culture and society. Knopf New York, 1994.
  5. Bernard Manin. The principles of representative government. Cambridge University Press, 1997.
  6. Thomas Piketty. “About capital in the twenty-first century”. In: American Economic Review 105.5 (2015), S. 48–53.
  7. Heinrich Popitz. Phänomene der Macht. Tübingen: Mohr Siebeck, 1992.
  8. Guido Preparata. The Ideology of Tyranny: Bataille, Foucault, and the Postmodern Corruption of Political Dissent. Springer, 2007.
  9. Richard Rorty. Achieving our country: Leftist thought in twentieth-century America. Harvard University Press Cambridge, MA, 1998.
  10. Murray N Rothbard. Man, economy, and state. Ludwig von Mises Institute, 2009
  11. John P. A. Ioannidis: Global perspective of COVID‐19 epidemiology for a full‐cycle pandemic, E J Clin Invest, 10/2020. https://doi.org/10.1111/eci.13423