1

Brüssel wurde in einen Skandal gefälschter Buchhaltung hineingezogen…

Die Eurokraten geben ihre Subventionsprämien an die Bauern als Klimaausgaben ab, solange die Bauern ein bestimmtes Maß an Klimastandards erfüllen.

Der Rechnungshof sagte in seinem Bericht, die Kommission habe den Beitrag des aktuellen Haushalts 2014-2020 zur Bekämpfung des Klimawandels überbewertet.

Er warnte davor, dass dasselbe wahrscheinlich auch für den nächsten Siebenjahreszyklus gelten würde.

Die Auditoren sagen:

Unsere Analyse der ländlichen Entwicklungsprogramme der Mitgliedstaaten im selben Bericht zeigte, dass die Kommission deren Beitrag zum Klimaschutz um mehr als 40 Prozent oder fast 24 Milliarden Euro überschätzt.

Dies liegt daran, dass die Kommission nicht ausreichend zwischen den Klimabeiträgen der verschiedenen Aktivitäten unterschieden hatte.

Die Kommission begründete diesen Ansatz mit der Notwendigkeit, ein Gleichgewicht zwischen der Minimierung des Verwaltungsaufwands und der Kosten und der Bereitstellung einer einigermaßen zuverlässigen Schätzung der klimabezogenen Ausgaben im Rahmen des Europäischen Landwirtschaftsfonds für die Entwicklung des ländlichen Raums zu finden“.

Die Rechnungsprüferin des ERH Joelle Elvinger forderte die Kommission auf, robustere Methoden zur Verfolgung ihrer Ausgaben zu entwickeln.

Sie sagte:

Die voraussichtlichen Beiträge zu klimabezogenen Ausgaben, insbesondere aus einigen landwirtschaftlichen Programmen, werden wahrscheinlich zu hoch angesetzt.

Ohne eine robuste Methodik sind die geschätzten Klimaausgaben möglicherweise nicht zuverlässig“.

Es wird erwartet, dass die Agrarausgaben fast die Hälfte der Klimaausgaben aus dem Blockhaushalt 2021-2027 ausmachen werden, der mit insgesamt 1,075 Billionen Euro veranschlagt wurde.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/eu-embroiled-in-e25-billion-bogus-climate-accounting-scandal/

Übersetzt von Chris Frey EIKE




Welt ohne Klimakonferenzen – und sie dreht sich weiter

Vor knapp dreißig Jahren legte das Kyoto-Protokoll den Rahmen für die Senkung  der Emission von Treibhausgasen fest. Seither ist der globale CO2-Ausstoß um 50 Prozent gestiegen – kontinuierlich, Jahr für Jahr. Um das zu verhindern, trafen sich die mächtigsten Männer und Frauen der Welt im gleichen Zeitraum insgesamt 25-mal – ganz offensichtlich mit wenig Erfolg.

Das letzte dieser Treffen fand 2019 in Madrid statt. Immerhin kamen damals 27.000 Personen zu der „COP25“ genannten Tagung. Das folgende Meeting wurde für November 2020 in Glasgow anberaumt, es fällt jedoch Covid-19 zum Opfer. Das Kohlendioxid aber lässt sich von alledem nicht beeindrucken.

Was würden Sie sagen, wenn jemand seit 30 Jahren jedes Frühjahr zu einer aufwändigen Fastenkur ins Sanatorium geht und jedes Mal zwei Kilo zunimmt? Die Definition von Wahnsinn ist, immer wieder das Gleiche zu tun und andere Ergebnisse zu erwarten (A. Einstein). Entweder ist unser Dickerchen also verrückt oder er trifft sich heimlich mit seiner Freundin. Und so müssen die Anstrengungen der Mächtigen zur Rettung der Welt entweder Wahnsinn sein oder aber ein gigantischer Betrug.

Ein Vertrag für einen Gebrauchtwagen

Schauen wir mal hinter die Kulissen solch einer Konferenz, zum Beispiel der COP15, bei der 2009 in der dänischen Hauptstadt 183 Nationen Versprechungen für ihr Wohlverhalten in Sachen CO2 abgaben. Unter den Teilnehmern fanden sich teils bedeutende, teils schillernde Persönlichkeiten wie Jacob Zuma (ZA), Robert Mugabe (ZIM), Lula da Silva (BRA), Barack Obama (USA), Hugo Chavez (VEN), Recep Erdogan (TUR), Angela Merkel (DE), Nicolas Sarkozy (FRA), Shimon Peres (ISR), Ban Ki-moon (UN) und Jose M. Barroso (EU).

Nach zwölf Tagen harter Arbeit verfassten China, Indien, Brasilien, Südafrika und die Vereinigten Staaten eine Vereinbarung, die von Obama als „bedeutungsvolles Abkommen“ beurteilt wurde. In einer Debatte aller Länder wurde das Dokument dann „zur Kenntnis genommen“, aber nicht „angenommen“, und es wurde auch nicht „einstimmig verabschiedet“.

In dem Text wurde anerkannt, dass der Klimawandel eine der größten Herausforderungen der Gegenwart darstellt und dass Maßnahmen ergriffen werden sollten, um Temperaturerhöhungen unter zwei Grad Celsius zu halten. Das Dokument als solches ist aber nicht rechtskräftig, es enthält keine verbindlichen Verpflichtungen.

Wenn Sie schon einmal versucht haben, einen Vertrag für einen Gebrauchtwagen gemeinsam mit dem Käufer zu verfassen, dann wissen Sie, wie schwer so etwas ist. Da darf man sich nicht wundern, dass 183 Nationen Probleme haben, etwas auf einen gemeinsamen Nenner zu bringen. Aber das, was in diesem Abkommen stand, das wusste man vielleicht auch schon vor der Konferenz. Es ist ein mageres Resultat angesichts der zwölf Tage harter Arbeit von tausenden Experten.

China ist mörderisch über die Stränge geschlagen

In der Konferenz machten verschiedene Länder unverbindliche Zusagen über die Reduktion des nationalen CO2-Ausstoßes. Man orientierte sich am Niveau vergangener Jahre und gab an, was im Vergleich dazu bis 2020 erreicht sein sollte. Ob das erreicht wurde, dazu können wir heute also etwas sagen.

Zunächst muss man wissen, dass Japan, Russland, Indien, EU, USA gemeinsam ein Drittel des globalen CO2-Ausstoßes produzieren, China alleine fast ebenso viel. Das restliche Drittel teilen sich rund 180 Länder.

Auf besagter COP15 in Kopenhagen versprach die EU, 30 Prozent unter das Niveau von 1990 – 4.500 Millionen Tonnen – zu kommen; heute ist man bei 3.500 Megatonnen. Das ist recht ermutigend.

Die USA versprachen, bis 2020 um 17 Prozent unter den Level von 2005 – 6.000 Mt – zu kommen. Heute sind sie knapp über 5.000 Mt.

Indien versprach, bis 2020 um 20 bis 25 Prozent unter den Level von 2005 – 1,1 Mt – zu kommen. Heute ist man bei 2,8 Mt.

China versprach, dass man 2020 um 1,8 bis 5 Prozent unter dem Ausstoß von 1990 zu liegen käme. 1990 lag China bei 2.500 Mega-t, zum Zeitpunkt der Konferenz im Jahre 2009 bei 8000 Mega-t, und heute wissen wir, dass China jährlich um die 12.000 Mega-t in die Luft pustet.

Der globale CO2-Ausstoß ist seit 2009 von 29.000 auf 34.000 Mt gestiegen, das sind 17 Prozent Zuwachs in zehn Jahren. (Hier für Sie graphisch dargestellt).

Zusammengefasst könnte man sagen, dass „der Westen“ seine Hausaufgaben gemacht hat, dass aber Asien – allen voran China – mörderisch über die Stränge geschlagen hat. Woher kommt das?

Verschiebebahnhof für CO2

Eine Überlegung: Deutschland hat ca. 33.000 Windturbinen installiert, das sind nach Adam Riese rund 100.000 Rotorblätter, von denen jedes ca. zehn Tonnen wiegt. Insgesamt sind das eine Million Tonnen Kohlefaser-Verbundmaterial, die über unseren Köpfen rotieren. Die Herstellung von 1 kg dieses Materials verbraucht ca. 70 kWh Energie. Nehmen wir an, wir würden die in China fertigen lassen, all diese Energie wäre elektrisch und käme aus Kohlekraftwerken, dann würden für jedes Kilogramm Material 70 kg CO2 emittiert.

Bei der Herstellung von einer Million Tonnen Rotorblätter würden also 70 Millionen Tonnen CO2 erzeugt. Das wären 9% der 800 Millionen Tonnen, die Deutschland jährlich produziert.

Die Zahlen hier sind hypothetische Annahmen, und die 100.000 Rotorblätter wurden auch nicht in einem Jahr produziert und nicht alle in China, aber sie machen deutlich, in welchem Umfang die Verlagerung der Produktion von Industriegütern nach China zum Anstieg der dortigen CO2-Emissionen führt – und bei uns zu einem Absinken.

Die jährliche Pro-Kopf-Emission – der „Carbon Footprint“ – ist in China seit dem Jahr 2000 von 3 auf rund 9 Tonnen gestiegen und damit auf deutsches Niveau. Das liegt aber weniger daran, dass die 1,3 Milliarden Chinesen jetzt alle so dicke Autos fahren und drei Klimaanlagen in jedem Haus sind, sondern am Ausbau der Industrie. Und dafür trägt der Rest der Welt eine Mitverantwortung.

Es ist eigentlich erstaunlich, dass diese Verschiebung kein stärkeres Absinken der CO2-Emissionen im Westen bewirkt hat.

CO2-Produktion ausgelagert

1990 begann ich eine Tätigkeit als Berater für wissenschaftliche Entwicklungsprojekte. Die Mehrzahl meiner Kunden waren Pharmafirmen. Man lud mich dort erst einmal zu einem Rundgang durchs Werk ein: durch Labors, wo Mitarbeiter in weißen Kitteln mit Ratten oder Kaninchen experimentierten, dann kamen Produktionshallen, wo Flaschen auf Förderbändern von Robotern befüllt wurden und wo die Etikettendrucker ihren Dienst taten. Schließlich kamen wir ins Lager, wo LKWs mit dem Logo der Firma vor den Toren warteten.

Heute wäre solch eine Tour langweilig: nur Großraumbüros. Wo sind all die Ratten und Kaninchen geblieben, die Förderbänder und die Lastwagen?

Die Arbeit der Labors macht jetzt ein Start-up-Unternehmen in der Tschechischen Republik, die Wirkstoffe werden in Indien hergestellt und von dort gleich an einen Lohnhersteller in China geschickt, der daraus Pillen und Säfte macht.

Was mich damals beeindruckte war eine gigantische Anlage, in der tausende Plastikflaschen mit Infusionslösung, so wie sie an den Krankenbetten hängen, samt Verpackung bei hoher Temperatur sterilisiert wurden. All das lief automatisch. Unmengen an Energie wurden hier verbraucht, die heute in China aus der Steckdose kommen müssen. Heute braucht man in der Mutterfirma nur noch Strom für die Computer auf den Schreibtischen, aber das sind vergleichsweise Peanuts.

Wenn man uns heute also über den Erfolg der Energiewende erzählt, so müssen wir bedenken, dass wir einen Großteil unserer CO2-Produktion ausgelagert haben: nach Asien und insbesondere China.

Produktion braucht Energie

Die Forderung „weniger CO2“ weltweit ist primär die Forderung „weniger CO2 aus China“. Das wäre schon mehr als die halbe Miete. Ist das realistisch? Die Welt hat sich entschieden, in China die Produktionsstätten für den Großteil ihrer Konsum- und Industriegüter aufzuschlagen. Das funktioniert gut, weil so die „economy of scale“ optimal zum Einsatz kommt. Zudem ist die Bevölkerung dort anspruchslos, gebildet und fleißig, und das politische System gibt Unternehmern kapitalistische Anreize. Unter diesen Bedingungen kann man dort die gleiche Qualität billiger produzieren als sonstwo auf der Welt.

Produktion braucht aber Energie. Die deutsche Energiewende hat bewiesen, dass die Sache mit Wind und Solar bestenfalls ein teures Hobby für eine arrivierte Gesellschaft wie die unsere ist, aber keine Lösung für China. Dort ist man dabei, so schnell es geht und mit eigenem Know-how, die Kernkraft ausbauen. Von den insgesamt 2.000 GW installierter Leistung sind derzeit 43 GW nuklear, elf weitere GW sind im Bau. Vorerst wird man also, wohl oder übel, den Löwenanteil seiner Energie durch Verbrennen von Kohle erzeugen.

Sollte man China das verbieten? Das ist einerseits undenkbar und wäre andererseits nicht gewollt. Dann würde die gut eingespielte Beziehung der Welt zu ihrem wichtigsten Lieferanten zusammenbrechen. Und der unmittelbar fühlbare Vorteil billiger Konsumgüter ist machtvoller als die Furcht vor einer Klimaveränderung, die wir gar nicht wahrnähmen, wenn man sie uns nicht ständig einsuggerieren würde.

An dieser Situation hätte auch COP26 im November 2020 in Glasgow nichts ändern können. Gut, vielleicht hätte man dort mit viel Fanfaren ein Projekt verabschiedet, um in Burkina Faso mit deutscher Entwicklungshilfe drei Windgeneratoren aufzustellen, die hier beim „Repowering“ abgebaut worden waren; oder man hätte den mutigen Vorschlag diskutiert, weltweit die Leistung von Staubsaugern auf 600 Watt zu begrenzen. Aber das kann man ja nächstes Jahr machen, wenn die Gefahr für Leib und Leben der 27.000 Teilnehmer hoffentlich überwunden ist und der Planet bis dahin überlebt hat.

Dieser Artikel erschien zuerst bewww.think-again.org, bei der Achse und im Buch „Grün und Dumm“.

 




Klimamodelle: 30 Jahre lang keine Erwärmung – möglicherweise

Quelle

Natürliche Klimavariabilität war schon immer ein Thema, das viele Unbekannte enthält, aber es wurde selten explizit gesagt, wie wenig wir darüber wissen. Diese Variabilität wurde gewöhnlich unterschätzt, da es „offensichtlich“ war, dass die Hauptursache für die globale Temperatur die Akkumulation von Treibhausgasen in der Atmosphäre ist, wobei die natürliche Variabilität schwächere Auswirkungen zeitigt.

Aber die globalen Temperaturdaten dieses Jahrhunderts zeigen, dass die natürliche Variabilität in Form von El Ninos dominiert hat. „Egal, warten wir einfach ab und das Signal der Treibhauserwärmung wird aus dem Lärm der natürlichen klimatischen Variabilität heraustreten“. Wie lange werden wir auf dieses Signal warten müssen? Ziemlich lange, so einige Forscher, da immer mehr Arbeiten nachweisen, dass die natürliche Klimavariabilität einen großen, wenn nicht sogar dominierenden Einfluss auf die globalen Temperaturtrends hat.

Mit dem üblichen Vorbehalt bzgl. Klima-Prophezeiungen scheint es eine wachsende Zahl von Forschungsarbeiten zu geben, die darauf hindeuten, dass die globale Durchschnittstemperatur zumindest während der nächsten fünf Jahre weitgehend unverändert bleiben wird. Der Grund: die natürliche klimatische Variabilität.

Erst letzte Woche legte das UK Met.-Office Zahlen vor, die darauf hindeuten, dass die Wahrscheinlichkeit des Überschreitens der 1,5°C-Schwelle während der nächsten fünf Jahre nur 1 zu 34 beträgt. Nun erweitert ein neues Papier von Klimamodellentwicklern solche Vorhersagen und legt nahe, dass aufgrund der natürlichen Variabilität die globale Durchschnittstemperatur bis 2049 relativ unverändert bleiben könnte – selbst bei der größten Zunahme der Treibhausgasemissionen.

In einer ersten Studie dieser Art haben Nicola Maher vom Max-Planck-Institut für Meteorologie, Hamburg, Deutschland und Kollegen in den Environmental Research Letters geschrieben, wie sie den Zeitraum 2019-2034 anhand zweier Arten von Computermodellen untersucht und zu dem Ergebnis gekommen waren, dass genau dies der Fall ist:

Wir bestätigen zunächst, dass auf kurzfristigen Zeitskalen (15 Jahre) Temperaturtrends von interner Variabilität dominiert werden. Dieses Ergebnis erweist sich als bemerkenswert robust“.

Wenn man noch weiter in die Zukunft blickt, sagen sie, dass die natürliche Variabilität weiterhin bedeutsam ist:

… selbst in dreißig Jahren könnten große Teile des Globus‘ aufgrund interner Schwankungen immer noch keine Erwärmung aufweisen“, fügen sie hinzu.

Die Forscher demonstrieren die interne Klimavariabilität und ihre Bedeutung für den von uns beobachteten Klimawandel. Mit einer Reihe von Karten visualisieren sie sowohl das Maximum als auch das Minimum globaler, zukünftiger Trends, die auf kurz- und mittelfristigen Zeitskalen auftreten könnten. Sie zeigen auch deutlich die globale Abkühlung auf, die bei einem Anstieg der Treibhausgase – verursacht durch interne Variabilität – auftreten könnte.

In Prozent, die Rolle der internen klimatischen Variabilität. Quelle: Maher et al., 2020

Die Forscher erklären:

Kurzfristig könnten alle Punkte auf dem Globus einzeln eine Abkühlung oder keine Erwärmung erfahren, obwohl sie sich in einem probabilistischen Sinne viel eher erwärmen“.

Wenn man über das Kurzfristige hinausblickt, fügen sie hinzu:

Wir stellen fest, dass selbst auf der mittelfristigen Zeitskala ein großer Teil des Globus aufgrund interner Schwankungen zufällig immer noch keinen Erwärmungstrend erfahren könnte, obwohl dieses Ergebnis etwas modellabhängig ist“.

In der Vergangenheit haben Klimaextremisten die natürlichen El Ninos erfasst und sie als Beispiele für die rasche globale Erwärmung der Treibhausgase angeführt. Das ist eine unaufrichtige Herangehensweise, die immer schwieriger werden kann, falls solche Forschungen ein Indiz dafür sind.

Link: https://www.thegwpf.com/climate-models-no-warming-for-30-years-possibly/

Übersetzt von Chris Frey EIKE




RKI und Corona: Phantombetten und Steinzeitkommunikation

Insgesamt wurde die Einrichtung von 10.600 solcher Plätze bezahlt. Nach ein paar Monaten ist dem Ministerium nun aufgefallen, dass für die 530 Millionen Euro, die man in die Hand nahm, nur 3.300 zusätzliche Betten im DIVI-Register entstanden sind. Reichlich früh. Immerhin weiß man jetzt, wie viele Intensivbetten es derzeit gibt. Denn das ist in der Corona-Pandemie ja der Flaschenhals, der uns vor tausenden weiteren Toten retten sollte. Wenn er nicht überlastet ist. Dafür können das Gesundheitsministerium oder aber das Robert-Koch-Institut aber nix.

Da sollte man doch eigentlich wissen, wie viele Betten existieren, noch besser wäre es, zu wissen, wie viele mit Corona-Patienten belegt sind und ob diese Zahl zu- oder abnimmt. Übrigens sind momentan nach dem DIVI-Intensivregister 249 von 32.567 Betten mit Covid-19-Patienten belegt, davon werden 118 beatmet. Das Worldometer, das auf den Zahlen der Johns-Hopkins-Universität beruht, meldet 255 schwere oder kritische Fälle und 8 Verstorbene am 16.07.2020. Die Zahl der freien Intensivbetten verharrte während der Krise nach Einführung des DIVI-Intensivregisters stets um die 10.000, selbst als 3.000 und mehr Betten mit positiv Getesten belegt waren. Und sie ist nach Corona auch nicht gestiegen. Immer bleiben rund 20.000 Betten belegt, ob mit Corona oder ohne.

Dass das Gesundheitsministerium übersieht, dass rund 7.300 für die Bewältigung der Corona-Krise angeblich so dringend gebrauchte Betten nicht geschaffen wurden, ist nicht verwunderlich. Die Zahl der zu Beginn stets genannten 27.000 Betten, die den Grund für den Lock-Down lieferten, war geschätzt. Wie viele es wirklich waren, wusste keiner. Und das war 2017. Mit dem Aufsetzen des Intensivregisters begann die Deutsche Interdisziplinäre Vereinigung für Notfallmedizin Ende März, als der Lockdown schon in vollem Gange war. Die FAZ meldete am Dienstag den 7.4.2020, dass dieses Register “bis zum Wochenende” eingerichtet sei. Als der Lockdown beschlossen wurde, wusste niemand, wie viele Plätze es gab und wie viele belegt waren.

Das Robert-Koch-Institut erging sich zwar schon 2013 in apokalyptischen Schätzungen, bei einer CoViD-Pandemie würden binnen zweier Jahre 17 Millionen Menschen sterben. Die war Gegenstand einer Bundestagsdrucksache. Und der Präsident des RKI, Lothar Wieler, warnte noch am 1.4.2020 vor 10 Millionen Toten bis Juni 2020, wenn der Lockdown nicht käme. So schlimm kam es nicht mal im bösen Schweden, das sich dem Rat der Weltgemeinschaft verweigerte, endlich die Volkswirtschaft zum Erliegen zu bringen.

Nur Zahlen zählen

Ich gebe zu: 1984 im VWL-Grundstudium bin ich erst mal am Statistik-Schein gescheitert. Allerdings hieß MS Excel noch Multiplan, und ich hatte eh keinen PC. Der Informatikunterricht fand im Zweifel noch mit Lochstreifen statt. Doch seit es moderne Tabellenkalkulationssoftware gibt, kann ich mitreden. Die Statistik des Robert-Koch-Instiuts bewegt sich auf dem Weltniveau der zentralen Plankommission der Deutschen Demokratischen Republik. Fehlendes Wissen wird durch Anmaßung und Schätzung ersetzt. Neumodisch könnte man auch vom Prinzip Wirecard sprechen. Allerdings verschwinden nur Millionen, die allerdings einen Billionen-Schaden anrichten. Nur vertut man sich schon mal um ein paar Millionen Tote mit dem Schätzen. Die Folgen hat man eh nicht im Blick.

Je schneller man je mehr Daten und vor allen Dingen detaillierte Datensätze bekommt, desto leichter kann man seine eigene Vermutung verbessern und – wenn eine nötig ist – seine Schätzung anpassen. Das RKI wusste zu Beginn der “Pandemie” nicht, wie viele wirklich Erkrankte es gab und wie viele davon schwer erkrankt waren. Auch die Zahl der Genesenen kann die staatliche Instanz nur schätzen. Bis heute. Ein Armutszeugnis.

Deutschlands Gesundheitswesen arbeitet mit dem Telefax

Selbst der Deutschlandfunk-Moderator Zurheide fragt in einem Deutschlandfunk-Interview am 25.4.2020 beim Vorsitzenden des Sachverständigenrates im Gesundheitswesen, Ferdinand Gerlach, ungläubig nach:

Zurheide: „Sie haben ja gerade Fax gesagt, ich habe das richtig gehört oder?“

Gerlach: „Ja, wir haben in Deutschland noch den Fax-Standard, sowohl zwischen Gesundheitsämtern und RKI als auch zwischen Ärzten in Praxen und Kliniken, oft auch übrigens die papiergebundene Karteikarte. Das führt natürlich dazu, dass das länger dauert, dass das fehlerträchtig ist. Und dann schauen wir mehr auf die Daten der Johns-Hopkins-University, die auch nicht so viel besser sind, aber schneller da sind als auf unsere eigenen Daten.”

Mit der Kommunikationstechnik Telefax der Achtziger gegen das Virus der Globalisierung.

Ich habe schon am 20.3.2020 hier kritisiert, dass Quantität und Qualität der Daten für eine so weitreichende Entscheidung, einen Lockdown anzuordnen, nicht ausreichten. Die notwendigen Arbeitshypothesen der Virologen konnten nur durch eine Überprüfung durch empirische Daten verifiziert werden. Das Robert-Koch-Institut und der nordrhein-westfälische Gesundheitsminister Laumann wussten Mitte März nicht mal, wieviel Covid-19-Patienten überhaupt im Krankenhaus lagen. Die Deutsche Krankenhausgesellschaft schätzte sie auf ein paar hundert. Auf dieser Basis legte man die ganze Volkswirtschaft lahm. Selbst die bis heute Genesenen sind geschätzt. Und bei den Verstorbenen wissen wir auch nicht, wie viele gar nicht an der Covid-Infektion gestorben sind sondern an der Vorerkrankung. Das Robert-Koch-Institut versuchte lange förmlich, Obduktionen zu verhindern.

Auch die Zahlen der Grippeepidemie von 2017/18 beruhen auf Schätzungen und Hochrechnungen. Hier dienten die Meldungen einzelner Kliniken und Arztpraxen zu Erstellung einer Hochrechnung. Und die 2010 auf gleicher wissenschaftlicher Basis getroffenen Annahmen zur sogenannten Schweinegrippe haben – wie Gunter Frank hier beschrieb – sich komplett als falsch erwiesen. Trotzdem folgte die Risikoanalyse im Bevölkerungsschutz in Drucksache 17/12051 vom 3.1.2013 im Bezug auf eine mögliche Pandemie ein Horrorszenario, das man auch als Treatment für einen Horror- und Action-Blockbuster nach Hollywood schicken sollte. Binnen zweier Jahre hätte die Pandemie 17 Millionen Deutsche dahinraffen sollen. Pikanterweise wird als Konsequenz nicht einmal die Bereithaltung von Schutzkleidung empfohlen.

Spätestens 2010 hätte das RKI evaluieren müssen, warum es bei der Schweinegrippe so daneben lag. Einen gewissen Professor Christian Drosten einzubeziehen, wäre sinnvoll, denn der hatte die Szenarien ja noch weiter übertrieben. Das Ergebnis wäre einfach zu prognostizieren: mehr Daten, mehr Merkmale und das schneller. Und das wäre durch eine Verbesserung des Reporting- und Meldesystems durch eine Datenbank, die im Fall einer Epidemie möglichst schnell möglichst viele Daten erfasst, zu realisieren gewesen. Und natürlich auch eine Veränderung der Risikoeinschätzung anhand der nicht eingetretenen erwarteten Epidemien wäre wohl angezeigt gewesen.

Eine webbasierte Datenbank

Zentrale Datenbanken mit dezentralen Eingabemasken für Arztpraxen, Krankenhäuser, Labors und Gesundheitsämter erfassen die entsprechenden Meldungen in Echtzeit über das Netz. Das DIVID-Register belegt, wie schnell so eine Datenbank einzurichten gewesen wäre. Der Zugang erfolgt passwortgeschützt, und die Datenlage kann mit den Ergebnis des traditionellen Meldewegs abgeglichen werden. Dabei wären/würden folgende Daten erfasst (worden).

  • Persönliche Daten: Name, Alter, Gewicht, ledig, verheiratet, Kinder/keine Kinder, Jahreseinkommen, Beruf, Hobbies, Ausbildung, Hobbies, Geschlecht, Vorerkrankungen, Wohnadresse, Arbeitsort, vermuteter Ort der Infizierung, Person, bei der man sich vermutlich infiziert hat, vermuteter Zeitpunkt der Infizierung.
  • Testdaten: Anzahl der Tests. Je Test: Testdatum, Testergebnis.
  • Krankheitsdaten der positiv Getesteten täglich: Ohne Symptome, leicht erkrankt, schwer erkrankt, hospitalisiert, Intensivbehandlung, Beatmung. Genesung. Therapie. Beginn der Quarantäne, Ende der Quarantäne. Folgeschäden.
  • Daten eines Sterbefalls: Todesursache nach Autopsie: Vorerkrankung oder Covid-19. Art der Therapie (Beatmungspflichtig?).
  • Daten zur Kapazität des Gesundheitswesens (tägliche Meldung durch Arztpraxen und Krankenhäuser). Anzahl der Betten, Anzahl der belegten Betten nach Krankheit, Anzahl der Betten mit den Infizierten in der jeweiligen Einrichtung. Anzahl der Intensivbetten, Anzahl davon belegt, Anzahl nach Krankheit, davon Anzahl der an der Pandemie Erkrankten, Anzahl der Beatmungsplätze, Anzahl der belegten Beatmungsplätze nach Krankheiten. Dauer der Hospitalisierung, Intensivbehandlung, Beatmung.
  • Testkapazität, durchgeführte Tests, Kosten der Tests, Kosten der Behandlung.

Diese Daten werden für alle Getesteten erhoben; auch auf der Basis dieser Daten hätte man zu Beginn der Pandemie bereits viel fundierter entscheiden können und bereits bei der Grippewelle 2017/18 vielleicht eine effiziente Strategie zur Reduzierung der Infektionen, Krankheits- und Todesfälle finden können. Und ich persönlich bin entsetzt, dass es eine solche Datenbank zur Erfassung von angeblich so furchtbaren Pandemien nicht gibt. Sie sollte unbedingt und sofort eingerichtet werden, auch wenn sie bei der Bewertung des derzeitigen Szenarios keine Erkenntnisse mehr liefern kann.

Die Richtigkeit kann man verifizieren, in dem man das bisherige System parallel laufen lässt und die Daten abgleicht.

Die Realitätsverweigerung des RKI

Der Lockdown wurde zunächst damit begründet, das Gesundheitssystem, deren Kapazität man zu diesem Zeitpunkt schätzte, aber nicht kannte, dürfe nicht überlastet werden. Als diese sich nicht im Ansatz einstellen wollte – im Gegenteil, die Krankenhäuser mussten ihre Mitarbeiter in Kurzarbeit schicken –, musste eine andere Begründung her: Der R-Faktor besagt, wieviel Personen von einem als infiziert Getesteten angesteckt werden. Und um die Pandemie auszutrocknen, muss dieser Faktor unter eins bleiben. Dann steckt ein als infiziert getesteter Mensch weniger als einen anderen Menschen an.

Das Problem beim R-Faktor: Wie das RKI selbst zugibt, handelt es sich (wieder mal) um eine Schätzung. Und weil deren Kalkulation nicht zu stimmen scheint, ist seit Wochen nicht mehr davon geredet worden.

Für die Freiheitseinschränkungen muss seither die Anzahl der Neu-Infizierten pro 100.000 Einwohner herhalten. Auch diese Maßzahl ist genauso wenig relevant wie die Zahl der Infizierten überhaupt.

Das RKI hat in seinen Verlautbarungen immer darauf abgestellt, 80 Prozent der Infizierten blieben ohne Symptome, 20 würden erkranken und davon 5 Prozent schwer. Bei rund 10.000 freien Intensivbetten würde die Kapazitätsgrenze also bei 200.000 gleichzeitig als infiziert getesteten Bürgern liegen. Würden alle rund 30.000 Betten mit Covid-19-Patienten belegt, müssten nach dieser Faustformel 600.000 Menschen infiziert sein. Es wären dann ca. 120.000 Menschen gleichzeitig schwer erkrankt und hospitalisert. Die Gesamtkapazität deutscher Krankenhäuser ist mit 500.000 angegeben. Eine Entwicklung eines solchen Szenarios war spätestens Anfang April mehr als unwahrscheinlich. Insgesamt wurden tatsächlich aber nur 15 Prozent hospitalisiert. Nach Angaben des Statistischen Bundesamtes waren in etwa die Hälfte davon in intensivmedizinischer Behandlung, also ca. 15.000, das sind dann 7,5 Prozent der als infiziert Getesteten.

Die Ergebnisse der Streeck-Studie (Heinsberg), die Untersuchung in Ischgl und auch das Geschehen um den Corona-Ausbruch bei Tönnies in Rheda-Wiedenbrück, wo von 1.500 positiv getesteten Personen 6 als erkrankt gemeldet wurden, legen die Vermutung nahe, dass die Zahl der Infizierten, die nicht einmal leichte Symptome entwickeln, deutlich höher liegt. Auf der anderen Seite gibt es ja noch das Phänomen falsch positiver Tests.

Die verzerrende Statistik des RKI

Auch am Samstag hieß es wieder in den Nachrichten: 583 Menschen hätten sich mit Corona infiziert, insgesamt 200.843, 9.082 seien im Zusammenhang mit Corona verstorben, davon 4 am 18.7.2020, insgesamt sind geschätzte 186.900 genesen. Durch die Kumulation der seit Mitte Februar aufgetretenen Fälle entstehen riesige Zahlen, die uns allen Angst einflößen.

Der aktuelle Lagebericht müsste lauten: 583 Menschen sind seit gestern als infiziert getestet worden, 4.861 sind derzeit insgesamt als infiziert getestet. Das Intensivregister meldet derzeit 247 Patienten auf Intensivstation, davon müssen 115 invasiv beatmet werden. Das sind 0,000030 Prozent der Bevölkerung. 4 Menschen sind bedauerlicherweise im Zusammenhang mit dem Virus gestorben.

Die Öffentlichkeitsarbeit des RKI suggerierte dabei offensichtlich eine Kenntnis der Lage, die offensichtlich nicht vorhanden war.

Es ist nicht entscheidend, wie viele Menschen als infiziert getestet sind, sondern wer

Schon das kümmerliche Zahlenwerk des RKI widerlegt dessen eigene Hypothesen. Das lässt sich besonders am Fall Tönnies belegen. Hier ist die Unverhältnismäßigkeit ja sogar gerichtsnotorisch.

Ich habe versucht zu ermitteln, wie viele der als infiziert gemeldeten Mitarbeiter der Fleischfabrik erkrankt, hospitalisiert oder gar verstorben seien. Eine aktuelle Zahl findet sich nicht.

Finden lässt sich dagegen im täglichen RKI-Bericht vom 18.7.2020, dass Einrichtungen nach § 42 des Infektionsschutzgesetzes (Fleischindustrie, Großküchen) im gesamten Zeitraum insgesamt 4.782 Menschen infiziert wurden, davon wurden 202 hospitalisiert und 5 (!) sind verstorben. 4.600 gelten als genesen. Derzeit gelten also noch 177 als infiziert-getestet. Das lässt die Entscheidung, gleich zwei Landkreise wieder in den Stillstand zu schicken in fraglichem Licht erscheinen.

In derselben Tabelle hat das RKI die Zahlen der Krankenhäuser, Alten- und Pflegeheime und vergleichbaren Institutionen zusammengefasst. Dort haben sich 21.810 Bewohner und Patienten infiziert, von denen bedauerlicherweise 4.236 verstorben sind. Ob am Virus oder einer anderen Erkrankung, ist nicht bekannt. Das sind aber eben 46,26 Prozent aller positiv getesteten Toten, obwohl die Zahl der positiv Getesteten nur 10,78 Prozent der Gesamtzahl ausmacht. Die Wahrscheinlichkeit, als positiv Getester in einer solchen Einrichtung zu sterben, liegt bei 19,5 Prozent gegenüber 4,53 Prozent bei der Gesamtbevölkerung.

Zieht man die Zahl der in diesen Einrichtungen Verstorbenen von der Gesamtzahl ab, so verbleiben 180.535 Infizierte und 4.924 Verstorbene. Allerdings halbiert sich der Anteil der Verstorbenen auf 2,73 Prozent.

Noch dramatischer wird das Ergebnis, wenn man die Altersstruktur berechnet. 7.772 der Verstorbenen waren über 70 Jahre. Als infiziert getestet gelten 13.910 Menschen in dieser Altersgruppe. Auf 28 Prozent der als infiziert Getesten entfallen somit 56 Prozent der Verstorbenen.

Dreht man die Perspektive, wird deutlich: Von 188.434 Menschen unter 70 Jahren, die als infiziert getestet wurden, sind 1.388 verstorben. Das sind 0,74 Prozent. Wenn ich das auf 83 Millionen hochrechne, bekommt die Zahl zu viele Nullen hinter dem Komma.

War diese Entwicklung vorhersehbar? Bis zum 30.3.2020 waren 455 Menschen als infiziert Getestete verstorben, davon waren 397 oder 87 Prozent über 70 Jahre alt. Über die Fälle in den medizinischen Einrichtungen nennt das RKI keine Daten in diesem Bericht. Die Altersstruktur der Betroffenen hat sich nicht verändert.

Hätte man seinen eigenen Zahlen vertraut und sie nüchtern analysiert, dann hätte man bereits Ende März, spätestens zu Ostern, den Lockdown aufgehoben und alle Ressourcen in den Schutz der Risiko-Gruppe gesetzt. Systematische Testungen aller Beschäftigten in diesen Einrichtungen hätten Infektionen unterbunden, denn insgesamt wurden dort 24.205 Mitarbeiter als positiv getestet. Die zügige Ausstattung mit Schutzkleidung hätte die früher immunisiert und und so die Infektionskette da unterbrochen, wo sie gefährlich war, statt in den Gesundheitsämtern eine ziemlich überflüssige Schnitzeljagd zu betreiben. Man nennt das “Unterbrechen der Infektionsketten”. Vor allem die Bereitstellung von Schutzkleidung hätte eine Ausbreitung in Krankenhäusern und Seniorenresidenzen reduziert. Der Lockdown war dafür keine geeignete Maßnahme.

Die Plausibilität des internationalen Vergleichs

Wenn man vom Rathaus kommt, ist man schlauer. Aber das war eben schon am 30.3.2020 der Fall. Damals hätte man radikal umschwenken müssen und damit wirkliche Erkrankungen vermieden und damit auch Todefälle.

Aber wir klagen auf hohem respektive niedrigem Niveau. „Nur“ 109 Tote je eine Million Einwohner sind schließlich „Weltklasse“. Aber es hätten eben auch weitaus weniger sein können, wenn man die Ressourcen auf den Schutz der Risikogruppe konzentriert hätte.

Auch hier zeigt sich im internationalen Vergleich, dass die Zahl der Infizierten nichts über die Dramatik der sogenannten Pandemie sagt. In der Vergleichsgruppe schneiden nach Deutschland mit bisher 429 Toten je eine Millionen Einwohner die USA noch am besten ab. Während Deutschland bisher insgesamt 4,53 Prozent der als infiziert getesteten Todesfälle verzeichnet, sind es in den USA 3,77 Prozent.

Das Vereinigte Königreich schneidet da drastisch schlechter ab. 1.543 der als infiziert Getesteten sind verstorben, und mit 666 Toten je Millionen Einwohner nimmt es auch im Vergleich einen traurigen Spitzenplatz ein. Als “Kontrollgruppe” habe ich Schweden eingeführt, das wie Großbritannien ein staatlich rationiertes Gesundheitssystem hat und keinen Lockdown durchgeführt hat. Schweden liegt bei den Toten je Millionen Einwohnen zwischen den USA und deutlich unter dem Vereinigten Königreich mit 556 Toten je einer Million Einwohner. So wird die Pandemie ein Beleg dafür, dass die “Bürgerversicherung” genannte Verstaatlichung des gesamten Gesundheitssystems mehr Opfer kostet als das duale deutsche System.

Dass es weder eine Korrelation zwischen den positiven Tests und dem Pandemie-Verlauf gibt, offenbart sich, wenn man die Zahlen vergleicht. Die Schweden haben mit 67.492 Tests pro Million Einwohner am wenigsten getestet, aber mit 11,33 Prozent der Tests die höchste positive Quote. Deutschland hat 82.159 Tests je Million Einwohner durchgeführt, davon waren ca. 3 Prozent positiv. Die Briten haben mehr als das Doppelte mit fast 190.000 Tests durchgeführt, davon waren nur 2,27 Prozent positiv. Die USA haben mit 140.773 Tests je eine Million Einwohner ebenfalls ein dreistelliges Ergebnis, haben aber mit 8,09 Prozent positiven Tests nach den wenig testenden Schweden eine deutlich bessere Trefferquote als die Deutschen oder die Briten.

Was lernen wir daraus?

Evidenz erzeugen – Wissen teilen – Gesundheit schützen und verbessern. An diesem selbst gewählten Motto muss sich das Robert-Koch-Institut messen lassen. Und es versagt nicht nur im Falle der Corona-Krise.

“Als nationales Public Health-Institut spielt das Robert Koch-Institut eine zentrale Rolle für den Schutz der Gesundheit der Bevölkerung in Deutschland. Doch die Herausforderungen, mit denen sich Public Health konfrontiert sieht, nehmen zu – sowohl auf nationaler als auch internationaler Ebene (Global Health). Diesen Themen wird sich das RKI in Zukunft stellen müssen. Gelingen kann dies nur, wenn das Institut seine Struktur und Arbeitsweise an die kommenden Aufgaben anpasst. Das RKI arbeitet bereits heute wissenschaftlich und evidenzbasiert – das macht die Empfehlungen des Instituts glaubwürdig und ist zentral für seine Funktion als Berater der Bundesregierung und im Gesundheitswesen. In Zukunft möchte das Robert Koch-Institut seine Fähigkeiten stärken und strategisch ausbauen. Die Strategie RKI 2025 formuliert die Ziele für diesen Weg.”

Dieses Selbstbildnis findet sich auf den Seiten des RKI. Danach kann man gelassen feststellen, dass es seinen eigenen Ansprüchen nicht genügt. “Evidenzbasiert war hier so ziemlich keine Regierungsberatung, weil das Institut die entsprechenden Daten gar nicht kannte. Die erzeugte veröffentlichte Meinung und die Empfehlungen an die Bundesregierung hatten keinen empirischen Hintergrund. Sie folgten dem Konzept der bekannten Sendung “Rate mal mit Rosenthal.” Vielleicht hätte das RKI mal jemanden fragen sollen, der sich damit auskennt, statt dürftige Zahlen mit hochkomplexen mathematischen Modellen zu verbrämen. Die laufen am Ende immer auf die bekannte Formel “Pi mal Daumen” hinaus. Das RKI ist überflüssig. Es sollte geschlossen werden. Die Erhebung und Verarbeitung von Daten ist beim statistischen Bundesamt besser aufgehoben.

An dem glimpflichen Verlauf hatte das RKI jedenfalls keinen Anteil. Der Grund scheint mir zu sein, dass unser Gesundheitssystem effektiver zu sein scheint als die staatlichen Systeme Schwedens, Italiens oder Großbritanniens. Der Wettbewerb zwischen privaten und öffentlich-rechtlichen Trägern scheint selbst auf den staatlichen Teil auszustrahlen, und die Quersubventionierung der gesetzlichen Krankenkassen durch die Privaten führt offensichtlich zu einer besseren Finanzierung. Es sind also die Pfleger und Schwestern, die Ärzte und die Kliniken, denen zu danken ist. Unser System ist schlecht, aber es ist immer noch besser als alle staatlichen Systeme, die unterfinanziert sind und darauf mit Rationierung reagieren. Wer etwa in Großbritannien mit 80 Jahren noch eine künstliche Hüfte braucht, bekommt stattdessen einen neuen Krückstock. Die Befürworter der “Bürgerversicherung” sollten mal darüber nachdenken.

Ich bin übrigens gespannt, ob sich die 7.300 Betten doch noch anfinden.

Der Beitrag erschien zuerst bei ACHGUT hier




Pläne: Noch viel mehr Windräder in der Ostsee

Schweinswale und alle anderen Meeresbewohner in Nord- und Ostsee sollten rasch verschwinden: Es wird unter Wasser wieder ziemlich laut. Nord- und Ostsee sollen weiter mit Windrädern zugebaut werden. Dazu müssen Pfähle in den Boden gerammt werden, auf denen die Windräder aufgebaut werden und erzeugen einen Höllenlärm, der sich im Wasser besonders gut fortpflanzt. Der BUND fordert, beim Bau auf die stark lärmerzeugende Rammtechnik zu verzichten.

Jetzt hat das zuständige Bundesamt für Seeschifffahrt und Hydrographie (BSH) seinen Vorentwurf für mögliche neue Standorte vorgelegt und damit für Entsetzen bei »Umweltschützern« gesorgt. Bereits jetzt stehen 1.500 Windräder vor den Küsten mit einer Nennleistung von 7,5 Gigawatt. Bis 2030 soll die Leistung knapp verdreifacht und bis 2040 auf 40 Gigawatt verfünffacht werden.Grundlage ist der Beschluss der Bundesregierung, mehr Windparks in Nord- und Ostsee zu bauen. Änderungen im »Windenergie-auf-See-Gesetz« sollen einen schnelleren Ausbau von Windrädern auf See ermöglichen: »Die Erhöhung der Ausbauziele und die langfristige Planbarkeit entfalten Nutzen für die Allgemeinheit und die Stromverbraucherinnen und Stromverbraucher.«

Der »zielstrebige, effiziente, netz-synchrone und zunehmend marktorientierte Ausbau der erneuerbaren Energien« sei ein entscheidender Baustein, »um die Klimaziele in der Energiewirtschaft zu erreichen«, heißt es in der Offshore-Vereinbarung vom 11. Mai 2020 zwischen dem Bund, den Küstenländern Hansestadt Bremen, Hansestadt Hamburg, Mecklenburg-Vorpommern, Niedersachsen und Schleswig-Holstein sowie den Übertragungsnetzbetreibern 50Hertz, Amprion und TenneT.»Windenergieanlagen auf See können hierzu aufgrund der guten Standortbedingungen im Meer, der stetigen Stromerzeugung, der gesunkenen Technologiekosten und der hohen gesellschaftlichen Akzeptanz einen wichtigen Beitrag leisten«, heißt es im Entwurf. Klar auch im Berliner Politneusprech unter Punkt »Alternativen«: »Keine.«

Die Bundesregierung erklärt auch nicht, woher der Strom in Zeiten der Flaute kommen soll. Denn ohne konventionelle Kraftwerke würde in den letzten Tagen wieder eine erhebliche Lücke zwischen Stromverbrauch und Erzeugung durch Sonne und Wind klaffen, wie man gerade an den vergangenen Tagen sehen kann.

Die Bundesregierung müsste jedoch ziemlich viel erklären. Denn sogar an sehr guten Offshore-Standorten werden nur 4.500 Vollaststunden angegeben, an schlechten relativ nahe an der Küste nur 3.200 Stunden. Woher die restlichen Strommengen kommen sollen, ist offen, zumal sich der Wind eher nicht danach richtet, wann ein Industrieland Strom benötigt. Das Jahr hat immerhin 8.760 Stunden.

Motto: Wenn schon Windräder in der Größenordnung von 7,5 Gigawatt bei Flaute nichts liefern, dann müssen noch mehr gebaut werden. Die liefern dann wenigstens etwas mehr als nichts. Gespalten sind »Umweltschützer«, die einerseits im Ausbau »erneuerbarer Energien« die Rettung vor einer vermeintlichen Klimakatastrophe sehen, andererseits die gigantischen Umweltschäden solcher Großindustrieparks nicht länger verheimlichen können. Spätestens nicht mehr, seitdem Michael Moore in seinem neuesten Dokumentarfilm die drastischen Folgen deutlich dargestellt hat.

MICHAEL MOORES FILM „PLANET OF THE HUMANS“
Der Schwindel von der vermeintlich grünen und erneuerbaren Energie

Die Umweltkonzerne BUND und Greenpeace befürworten zwar die Windparks, wie ein Greenpeace-Vertreter sagt: »Der Ausbau der erneuerbaren Energien und der Windenergie auf See ist für das Erreichen der Energiewende- und Klimaziele von großer Bedeutung.« Doch müssten »ökologische Belastungsgrenzen« beachtet werden.

Nabu-Präsident Jörg-Andreas Krüger kritisierte laut Hamburger Morgenpostdie Pläne: »Ein solcher Ausbau wäre nicht naturverträglich umsetzbar und wäre nicht vereinbar mit dem Naturschutzrecht.«Die Leiterin des WWF-Meeresschutzzentrums in Hamburg, Heike Vesper, befürchtet, dass mehr als 50 Prozent der Fläche für bedrohte und geschützte Vogelarten verloren gingen und der Deutsche Fischereiverband sorgt sich um die Fanggebiete, die verschwinden würden. Denn innerhalb der Windparkbereiche darf im Gegensatz zu Dänemark und Großbritannien kein Fischfang betrieben werden.

Am Ende des Jahres soll nach dem derzeitigen Stand ein Flächenentwicklungsplan verabschiedet werden, dann sollen die Flächen auf ihre Eignung untersucht und von der Bundesnetzagentur versteigert werden.

Der Beitrag erschien zuerst bei TE hier




Betrüge­rische Prognosen und falsche Klima-Narrative halten ganze Nationen in Geiselhaft

Indien importiert große Mengen an Kohle, Öl und Erdgas aus den USA, vor allem um erschwinglichen Strom für sein Stromnetz zu erzeugen. Dieses Netz muss schnell wachsen, um den Bedarf von über 1,3 Milliarden Menschen zu decken. Über 300 Millionen von ihnen – vergleichbar mit der gesamten US-Bevölkerung – haben derzeit keinen Zugang zu Strom. Aber sie brauchen ihn dringend für ihre Gesundheit und für ihren Weg aus der schweren Armut.

Die Rechtfertigung für die Reduktion des Verbrauchs fossiler Brennstoffe ist die Behauptung, dass der Klimawandel in der Zukunft verheerende Folgen haben wird, falls wir unsere Treibhausgasemissionen (THG) nicht reduzieren. Aber diese Behauptung steht nicht auf so festem Boden wie es die Mainstream-Medien und Politiker behaupten.

Tatsächlich deuten die Temperaturdaten darauf hin, dass die Behauptung übertrieben ist und tendenziell durch falsche Interpretationen fehlerhafter Modelle beeinflusst wird.

Das niemals endende Problem mit Modellen

Das Pariser Klimaabkommen und andere wichtige Klimaschutz-Vorgaben der Vereinten Nationen basieren strikt auf den Richtlinien, die in den Zustandsberichten eines als Intergovernmental Panel for Climate Change (IPCC) bekannten Klima-Flügels enthalten sind.

Der IPCC verwendet Vorhersagedaten, die von einer Vielzahl von Computer-Klimamodellen verarbeitet werden, um zu den politischen Empfehlungen in seinen Zustandsberichten zu gelangen.

Darunter sind auch Prognosen des Coupled Model Inter-Comparison Project (CMIP). CMIP besteht aus 100 verschiedenen Klimamodellen, die von führenden Modellierungsgruppen auf der ganzen Welt betrieben werden. Ihre Vorhersagen bilden die Grundlage für die Berichte des IPCC. Im Jahr 2013 enthielt der fünfte IPCC-Zustandsbericht (AR5) Klimamodelle des CMIP5 (fünfte Generation).

Doch die Prognosen dieser Modelle erwiesen sich als falsch. Sie übertrieben den Temperaturtrend und unterschieden sich deutlich von den Temperaturdaten, die von bodengestützten Thermometern, Sensoren an Wetterballons, Flugzeugen, Schiffen und Bojen, Satelliten-Fernerkundung und „Reanalysen“ abgeleitet wurden – letztere integrierten die Eingabe vieler verschiedener Datenquellen.

Dennoch nutzten weltweit für die Festlegung der Klima- und Energiepolitik zuständigen politischen Beauftragten diese Prognosen, um internationale Klimaabkommen wie das Pariser Abkommen zu rechtfertigen – und hören damit auch nicht auf.

Der bevorstehende sechste IPCC-Zustandsbericht (AR6), dessen Veröffentlichung für 2021 geplant ist, enthält Prognosen des CMIP6. Die CMIP6-Modelle erweisen sich jedoch als nicht besser als die CMIP5-Modelle. Tatsächlich sind die CMIP6-Modelle sogar schlechter!

Der leitende Klimatologe Dr. Roy Spencer hat beobachtet, dass „die CMIP6-Modelle von 1979 bis April 2020 eine um 50 Prozent höhere Nettooberflächenerwärmung (+1,08 Grad Celsius) zeigen als tatsächlich vom Boden aus gemessen (+0,72 Grad Celsius)“.

Zweifellos offenbart der Vergleich der CMIP5- und CMIP6-Vorhersagen mit den offiziellen HadCRUT-Temperaturdatensätzen eine sehr alte Geschichte: Modelle liegen bei der Vorhersage von Temperaturen in der realen Welt immer weit daneben und – verdächtigerweise – immer in die gleiche Richtung, nämlich nach oben.

Wir werden also nicht nur bezüglich des Klimas belogen, sondern werden durch den nächsten IPCC-Zustandsbericht erneut in die Irre geführt. Und mit noch extremeren falschen Prognosen wird es Forderungen nach einer noch restriktiveren Energiepolitik geben.

Es ist ziemlich erstaunlich, wie die nicht gewählten Politiker bei der UNO die führenden Politiker der Welt davon überzeugen und dazu überreden können, eine Klimapolitik zu verfolgen, die auf unwissenschaftlichen Schlussfolgerungen aus fehlerhaften Modellen beruht.

Auch die Mainstream-Medien haben ihren Teil dazu beigetragen. Die öffentliche Wahrnehmung des Klimawandels wurde stark durch eine voreingenommene Berichterstattung über das Klima-„Problem“ beeinflusst, wobei den enormen Diskrepanzen zwischen den Modellprognosen und den Beobachtungen in der realen Welt keine große Aufmerksamkeit geschenkt wurde.

Es ist nicht klar, um wie viel fehlerhafter die Projektionen bis zur endgültigen Veröffentlichung des neuen Bewertungsberichts werden. Aber eines ist klar: Die Energieversorgung auf der ganzen Welt wird durch pseudowissenschaftliche Interpretationen des Klima-Flaggschiffs der Vereinten Nationen in Geiselhaft genommen.

Vijay Jayaraj (M.Sc., Environmental Science, University of East Anglia, England), is a Research Contributor for the Cornwall Alliance for the Stewardship of Creation living in New Delhi, India

Link: https://wattsupwiththat.com/2020/07/15/faulty-forecasts-and-false-climate-narrative-hold-nations-hostage/

Übersetzt von Chris Frey EIKE




Die Fälscher-Fabrik der NASA: Das GISS fälscht die Daten schon wieder!

Aber jetzt ist diese Periode aus klimatischer Sicht zu einer Peinlichkeit für die Wissenschaftler geworden, welche die AGW-Theorie beschwören. Damals waren die CO2-Konzentrationen in der Atmosphäre viel niedriger, so dass es nach ihrer Theorie hätte kühler sein müssen als heute. War es aber nicht!

Aber anstatt die Rolle von CO2 bei der globalen Temperaturerhöhung in Frage zu stellen, hat die NASA GISS beschlossen, die historischen Daten einfach umzuschreiben, so dass sie zu ihrer Theorie passen. Das ist natürlich wissenschaftlicher Betrug.

Heute untersuchen wir die NASA-GISS-Daten für die Station Wellsboro in Pennsylvania. Zuerst schauen wir uns die „unbereinigten“ Jahresmitteltemperaturdaten der Version 4 an und vergleichen sie mit den neuen „homogenisierten“ Daten der Version 4:

Daten: NASA GISS

Oben sehen wir, wie sich NASA-Wissenschaftler einfach die alten Datensätze vorgenommen und sie einfach neu geschrieben haben, so dass die heißen Jahre des frühen 20. Jahrhunderts erheblich kälter daherkommen – um über zwei Grad in vielen Jahren.

Früher sah Wellsboro einen Abkühlungstrend. Aber jetzt, seit NASA-Wissenschaftler an den Daten herum manipuliert haben, ist der Trend so geschmiedet worden, dass er zur AGW-Theorie passt.

Als nächstes folgt ein Diagramm, in dem Version 3, die 1883 beginnt und 2019 endet, mit Version 4, die 1882 beginnt, verglichen wird:

Version 4 Daten: NASA GISS, Version 3 hier.

Die frühere Version 3 zeigte ebenfalls eine Abkühlung, bevor die NASA die Daten neu schrieb und sie vernichtete. Die aktuelle Version 4 zeigte eine Abkühlung, aber auch diese wurde manipuliert und zeigt nun eine starke Erwärmung.

Viele würden argumentieren, dass dies keine Wissenschaft ist, sondern glatter wissenschaftlicher Betrug in klassischer Orwell-Manier.

Link: https://notrickszone.com/2020/07/17/nasas-fudge-factory-goddard-institute-for-space-studies-fudges-the-data-again/

Übersetzt von Chris Frey EIKE




Teure Energiewende – Die Stromrechnung zeigt es

Ich habe vor ein paar Tagen meine jährliche Stromrechnung erhalten, weil ich wieder mal gewechselt habe, um die deutlichen Wechselrabatte zu nutzen. Meinen Strom habe ich in der Abrechnungsperiode für 27,2 Cent/Kilowattstunde brutto bezogen. Das ist etwa 10 Prozent weniger als der derzeitige Durchschnittspreis. Dafür kann man die Mühe des Lieferantenwechsels schon auf sich nehmen.

Der Lieferant führte als Anlage die Steuern, Umlagen und andere staatliche Abgaben auf. Es waren genau 50 Prozent des Bruttostrompreises. Ohne gesetzliche Abgaben wäre der Strom also nur halb so teuer. Die Abgaben sind zum 1. Januar dieses Jahres um gut 3 Prozent gestiegen. Wesentlichen Anteil daran hat die Umlage nach dem Erneuerbaren-Energien-Gesetz (EEG).

Doch die EEG-Umlage mit rund 30 Milliarden Euro/Jahr einschließlich Mehrwertsteuer ist nur ein Teil der Wendekosten. Die Profiteure der Wende haben mit ihrer gut vernetzten Lobby weitere Abgaben durchgesetzt. Den Strom ihrer Windgeneratoren auf hoher See brauchen sie nicht an Land zu leiten. Diese Aufgabe wurde den Übertragungsnetzbetreibern auferlegt. Wenn die Stromtrassen zum Land nicht rechtzeitig fertig sind, wird der Off-Shore Strom, der nicht geliefert werden kann, trotzdem vergütet. Zahlen muss das der Stromkunde mit der Off-Shore Netzumlage nach § 17f, Absatz 5 des Energiewirtschaftsgesetzes mit 2 Milliarden Euro/Jahr.  Die Kosten für den Stromtransport an Land sind in den allgemeinen Netzgebühren enthalten. Es sollen 5 Cent/Kilowattstunde sein. Sie werden nicht als Off-Shore Kosten ausgewiesen.

Stromintensive Betriebe sind mit den hohen Netzkosten in Deutschland nicht mehr wirtschaftlich. Ihnen wird ein Teil der Netzgebühren erlassen auf Kosten der übrigen Letztverbraucher. Die werden nach der Stromnetzentgeltverordnung (StromNEV) mit einer Netzumlage von 1,7 Milliarden Euro/Jahr belastet, die den Gebührenausfall von den stromintensiven Betrieben deckt.

Schnell heranziehende Wolken und abflauender Wind führen zu einem kritischen Leistungsabfall im Stromnetz, weil Wind- und Solaranlagen nicht mehr genügend liefern. Um einen Zusammenbruch zu vermeiden, werden dann Betriebe mit hoher Leistung (Aluminium-Elektrolyse usw.) abgeschaltet. Der Produktionsausfall wird vergütet. Zahlen muss das wiederum der Endkunde mit einer Umlage nach § 18 der Verordnung über Vereinbarungen zu abschaltbaren Lasten (AbLaV) mit 33 Millionen Euro/Jahr. Mit jeder weiteren Wind- und Solaranlage wird dieser Betrag steigen.

Bei der Stromerzeugung geht rund 60 Prozent der eingesetzten Energie als Abwärme verloren. Es ist sinnvoll, diese Abwärme zum Heizen zu nutzen. Dabei gibt es ein Problem. Im Sommer braucht man keine Wärme. Daher müssen solche kombinierten Strom- und Wärme erzeugenden Anlagen entweder auf den Wärmebedarf oder aber auf den Strombedarf ausgelegt werden. Meistens wird die Bedarfswärme erzeugt und Strom ist ein Nebenprodukt. Der Strom wird nach dem Gesetz für die Erhaltung, die Modernisierung und den Ausbau der Kraft-Wärme-Kopplung (Kraft-Wärme-Kopplungsgesetz – KWKG) vergütet. Auch dafür muss der Letztverbraucher mit einer Umlage von 1,1 Milliarden Euro/Jahr zahlen.

Für das Einsammeln des Stroms von den dezentralen Wind-, Solar- und Biogasanlagen muss das Verteilernetz ausgebaut und verstärkt werden. Stromtrassen werden von Nord- nach Süddeutschland gebaut, um Windstrom in den Süden zu bringen. (Niemand erklärt, welcher Strom fließen soll, wenn der Wind nicht weht.) Wegen Bürgerproteste werden große Teile der Leitungen in die Erde verlegt. Die Kosten steigen damit von 1 Million auf 7 Millionen Euro für jeden Kilometer. Lange Leitungen haben hohe Stromverluste. Bei dem Transport nach Süddeutschland sind es etwa 10 Prozent. Hinzu kommen die Kosten für den Regelstrom, der den vom Wetter gesteuerten Wind- und Solarstrom auf den Bedarf ergänzt. Allein die Bedarfsregelung ist durch die Energiewende von 100 Millionen Euro/Jahr auf 1,5 Milliarden gestiegen. Der Netzausbau, die Regelungskosten und die Leitungsverluste wegen der Energiewende dürften Kosten von mehr als 10 Milliarden Euro im Jahr verursachen, die als Netzkosten versteckt sind.

Ökostrom wird nicht geliefert

Mein Stromlieferant bietet einen Strommix aus Kraftwerken und Ökostromanlagen an. Zusätzlich gibt es noch den Naturstrom Gold, der nur aus Ökostrom besteht. Jeder Kunde erhält jedoch den Strommix, der in seinem lokalen Netz ist, egal, ob er Naturstrom oder einen beliebigen Mix haben wollte. Der Lieferant kauft lediglich die verschiedenen Strommengen ein, die zu beliebigen Zeiten in das Netz eingespeist werden. Der Verkauf von Ökostrom ist also eine Irreführung der Kunden. Sie erhalten ihn nicht.

Mit jeder weiteren Ökostromanlage steigen die Stromkosten weiter. Als Folge müssen Industriebetriebe schließen oder in kostengünstigere Länder abwandern. Wann wird dies den Politikern bewusst?

Die direkten Kosten der Energiewende belaufen sich auf annähernd 50 Milliarden Euro/Jahr. Das sind mehr als 600 Euro je Einwohner. Mit der Beendigung der Energiewende wird die Kaufkraft der Bevölkerung deutlich erhöht. Gleichzeitig sinken die Stromkosten für die Industrie. Produkte werden preiswerter. Der Export wird gestützt und das Abwandern der Betriebe aus Deutschland gestoppt. Dies ist ein effektiver Beitrag zur Bewältigung der Corona-Krise. Werden die Politiker diesen Weg gehen?

 

Stromverbraucherschutz NAEB e.V.




Warum der „grüner-Wasserstoff“-Hype in Europa wahrschein­lich ein Flop wird

Wasserstoff ist gefährlich; Wasserstoff ist sicher; Wasserstoff ist billig; Wasserstoff ist sehr teuer; Wasserstoff ist ein alter Hut; Wasserstoff ist die Zukunft. Wasserstoff ist… alles für alle Menschen, und jede dieser widersprüchlichen Behauptungen ist aus irgendeiner Perspektive mehr oder weniger wahr. Was auch immer Wasserstoff ist, es ist ein sehr starkes Gas und sorgt für den perfekten klimapolitischen Fußball. In der Tat wird das eigentliche Versprechen von Wasserstoff schnell zum Opfer einer verfehlten grünen Politik.

Da die erneuerbaren Energien weltweit im thermodynamischen Sand versickern, vertuschen verzweifelte Befürworter ihre katastrophal schlechten Ratschläge, indem sie noch ehrgeizigere Netto-Null-Emissionsziele fordern. Um diese extremen Forderungen plausibel erscheinen zu lassen, wird Wasserstoff als Energieträger für jene Sektoren angeführt, in denen es am schwierigsten ist, den Anschein einer Dekarbonisierung zu erwecken.

Das Vereinigte Königreich ist ein gutes Beispiel für den im Entstehen begriffenen europäischen Ansatz. Das Vereinigte Königreich plant, zur Stromerzeugung Wasserstoff statt Erdgas zu verbrennen, um das instabile Wind- und Solarsystem auszugleichen und zu sichern, das durch Subventionen in Höhe von 12 Milliarden Dollar pro Jahr geschaffen wurde. Wasserstoff wird Dieselkraftstoff für landwirtschaftliche Zugmaschinen und Lastwagen ersetzen und fast die gesamte industrielle Prozesswärme liefern. In Ammoniak umgewandelt, wird Wasserstoff Bunkertreibstoffe für den Schiffsverkehr ersetzen. Und um sicherzustellen, dass Privathaushalte nicht auf elektrische Widerstandsheizungen zurückgreifen, wenn ihre Boden- und Luftwärmepumpen an den kältesten Tagen des Jahres ausfallen, wird jedes Haus mit einem mit Wasserstoff betriebenen Reservekessel ausgestattet.

Für Klimapolitiker, die unter Net Zero-Kopfschmerzen leiden, ist Wasserstoff das universelle Aspirin. Nehmen Sie so viele, wie Sie brauchen, und legen Sie sich in einen abgedunkelten Raum, bis der Nachrichtenzyklus weitergeht.

Aber diese verzweifelte, gesichtswahrende Eile bedeutet, dass Wasserstoff durch zwei relativ unkomplizierte Verfahren der Rohstoffproduktion erzeugt werden muss, nämlich durch die Elektrolyse von Wasser und die chemische Umwandlung von Erdgas unter Verwendung von Dampf (Steam Methane Reforming SMR). Beide Verfahren sind akzeptabel, wenn Wasserstoff für Nischen- und nicht-energetische Zwecke benötigt wird, aber es ist schlichtweg töricht, vorzuschlagen, sie für die Herstellung von Wasserstoff als allgemeinem Energieträger einzusetzen. Es gibt vier Hauptnachteile.

Erstens werden die Kosten gigantisch sein. Dampfmethan-Reformer und Elektrolyse-Apparate sind teuer in Bau und Betrieb, und letztere haben zumindest keine lange Lebensdauer, was einen kurzen Kapitalauffrischungszyklus bedeutet. Hinzu kommen der Austausch von Endumwandlungsgeräten und die Einrichtung einer Wasserstoffinfrastruktur, von Pipelines und Speichersystemen, die von Tanks bis zu Salzkavernen reichen.

Zweitens kann Wasserstoff aus Elektrolyse und SMR aufgrund von Umwandlungs- und Speicherverlusten prinzipiell nie wirtschaftlich mit den eigenen Einsatzbrennstoffen konkurrieren. Der Verbraucher wird immer besser bedient sein, wenn Strom und Erdgas direkt genutzt werden. Folglich wird es erhebliche Wettbewerbsvorteile für Volkswirtschaften geben, die sich nicht selbst mit Wasserstoff Hindernisse in den Weg legen.

Drittens werden bei SMR große Mengen Kohlendioxid freigesetzt, wodurch jedes Netto-Null-Ziel gefährdet wird, es sei denn, die SMRs sind mit einer Kohlenstoffabscheidung und -sequestrierung (CCS) ausgestattet, was teuer und derzeit in großem Maßstab nicht verfügbar ist. Was der aktuelle Hype um Wasserstoff zeigt ist, dass die globalen Netto-Null-Ziele in der Tat entscheidend von Methan abhängen – Großbritannien plant, 80% seiner jährlichen 270 TWh Wasserstoff aus KMRs zu gewinnen – und daher ein Risiko für die Kohlenstoffabscheidung darstellen. Aber wenn CCS rentabel wird, was möglich ist, wird es effektiver sein, das Methan direkt in Gas- und Dampfturbinen mit CCS zu nutzen und den Verbraucher mit Elektrizität zu versorgen, und es gäbe keinen Grund, Wasserstoff herzustellen, mit all den damit verbundenen Kosten, Problemen und Gefahren.

Schließlich werden bei der Herstellung von Wasserstoff sowohl durch Elektrolyse als auch durch SMR große Mengen sauberen, frischen Wassers verbraucht. Das derzeitige Wasserstoffziel Großbritanniens würde den nationalen Wasserverbrauch um 1 bis 2 Prozent erhöhen, und das zu einer Zeit, in der klimapolitische Berater selbst eine eingeschränkte Frischwasserversorgung vorhersagen, mit Defiziten in einem Viertel der Ressourcenzonen des Landes gegen Mitte des Jahrhunderts.

Dies ist eindeutig schlechter Wasserstoff. Gibt es einen guten Wasserstoff? Vielleicht. Bereits Anfang der 70er Jahre überzeugte der Physiker Cesare Marchetti, damals EURATOM, die japanische Regierung, dass Wasserstoff eine Zukunft als universeller Energieträger haben könnte, wenn er aus einer sehr hochwertigen Energiequelle, wie z.B. Hochtemperatur-Kernreaktoren, und durch die thermische Zersetzung von Meerwasser in Gegenwart eines geeigneten Katalysators erzeugt wird. Japan arbeitet weiterhin in aller Stille daran. Aber die nuklearen und chemisch-technischen Probleme sind von erster Ordnung, und Ergebnisse werden nicht schnell kommen. Aber zumindest hat das Konzept eine authentische physikalische Perspektive.

Tatsächlich ist es vielleicht die einzige Zukunft ohne fossile Energieträger, die auch das menschliche Wohlergehen bewahrt. Diejenigen, die diese Zukunft gefährden, indem sie eine rasche und suboptimale Einführung des Wasserstoffs erzwingen, um die derzeitige, von Fehlkonstruktionen geprägte Farce der erneuerbaren Energien zu verlängern, sollten sich schämen, ihren Kopf hängen zu lassen.

Weitere Informationen über Kosten, Nutzen und Grenzen von Wasserstoff finden Sie im neuen Bericht von John Constable Hydrogen: The Once And Future Fuel (pdf).

Link: https://www.thegwpf.com/europes-green-hydrogen-hype-is-likely-to-flop/

Übersetzt von Chris Frey EIKE




Sieg der Wissenschaft über die Politik

Temperaturmessungen dienen in der Bundesrepublik nicht zuletzt dazu, „Spitzenwerte“ zu erzielen, welche die Bundesbürger zu Opfern für die „Klimarettung“ gemahnen sollen. Dafür werden Messstationen auch schon einmal an aus wissenschaftlicher Sicht ungeeigneten Plätzen errichtet.

Ein Beispiel ist der  „deutsche Allzeit-Hitzerekord“ von Lingen im Emsland. Auf 42,6 Grad Celsius sei die Quecksilbersäule in der Station 3023 zwischen dem Stadion und dem Freibad der niedersächsischen 55.000-Seelen-Kommune geklettert, verkündete am 25. Juli vergangenen Jahres der Deutsche Wetterdienst (DWD), eine Bundesoberbehörde, die dem Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) untersteht.

Interessen-geleitete Messungen

Dabei hatten Experten wie der Schweizer Meteorologe und Gründer der privaten Meteomedia AG, Jörg Kachelmann, bereits im Jahre 2018 kritisiert, dass der Standort der Wetterwarte in Lingen nicht den Qualitätskriterien der World Meteorological Organization (WMO) entspreche. Und tatsächlich liegt sie am Boden einer Senke, in der sich Wärme stauen kann. Darüber hinaus behindern dichte Hecken die Luftzirkulation innerhalb der Station, was besonders dann der Fall ist, wenn der Wind – so wie am 25. Juli des Vorjahres – aus Osten weht. Deshalb maß man in Lingen schon oft um bis zu drei Grad höhere Temperaturen als sonst in der Region. Trotzdem bestätigte der DWD den „Rekord“ unverzüglich.

Am 21. Mai dieses Jahres meldete Lingen 29,4 Grad. Dadurch wurde die Stadt im Emsland nun auch zum bundesweit wärmsten Ort im diesjährigen Frühling proklamiert. Und wieder erklärte der DWD den Lingener Wert für korrekt, obwohl die Thermometer im Umland nur 25 bis 26 Grad angezeigt hatten.

Nun warf auch der mit dem TV Weather Forecast Award der European Meteorological Society (EMS) ausgezeichnete ARD-Wettermoderator Karsten Schwanke den staatlichen Meteorologen öffentlich Ignoranz und Unprofessionalität vor. Die reagierten wie üblich kühl-abweisend, verzichteten dann jedoch ab dem 6. Juni auf die weitere Bekanntgabe von Wetterdaten aus Lingen. Zugleich verkündete der Leiter des Geschäftsbereichs Technische Infrastruktur des DWD, Klaus-Jürgen Schreiber, dass die Messstation an einen neuen Standort in Lingen-Baccum verlegt werden solle.

=================================================================

)*  Anmerkung der EIKE-Redaktion : Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung;  17. Juli 2020, S.4 ; EIKE dankt der PAZ-Redaktion sowie dem Autor Wolfgang Kaufmann  für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln :   https://www.preussische-allgemeine.de/

=================================================================




Geomar wirbt per Pressemitteilung für Buch von Mojb Latif: Darf das Geomar das?

Umso überraschender war es, dass das Geomar am 29. Juni 2020 per offizieller Pressemitteilung ein neues Buch von Mojb Latif, der am Geomar tätig ist, bewarb:

Heißzeit – Schmilzt unser Planet wie Eis in der Sonne?

Neues Buch von Mojib Latif, ein Weckruf vor der nahenden Klimakatastrophe

29.06.2020/Kiel. Dass sich das Klima auf der Erde in den letzten Jahrzehnten immer schneller erwärmt, kann niemand bestreiten. Wie auch, dass menschliche Aktivitäten dafür der Hauptgrund sind. Klimaforscher wie Mojib Latif vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel weisen schon seit Jahrzehnten darauf hin. In seinem neuen Buch „Heißzeit – Mit Vollgas in die Klimakatastrophe – und wie wir auf die Bremse treten“, dass heute erschienen ist, zeigt Professor Latif auch die Wege aus der Klimakrise auf.

Das Klima auf unserem Planeten war schon immer Schwankungen unterworfen. Prominente Beispiele sind das Entstehen und Vergehen von Eiszeiten. Doch was sich zurzeit auf unserem Planeten abspielt, ist nach Ansicht der Klimaforscher weltweit ohne Beispiel. Primär durch die bei der Verbrennung fossiler Energieträger entstehenden CO2-Emissionen steigt die Temperatur auf der Erde in einer bisher noch nie dagewesenen Geschwindigkeit, mit jetzt schon sichtbaren und zum Teil drastischen Folgen.

Dabei haben wir es selbst in der Hand, wie stark die vom Menschen verursachte Klimaänderung in Zukunft ausfallen wird. „Wenn wir jetzt rasch und konsequent handeln, kommen wir noch mit einem blauen Auge davon“, sagt Prof. Dr. Mojib Latif vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel, der in seinem neuen Buch „Heißzeit – Mit Vollgas in die Klimakatastrophe – und wie wir auf die Bremse treten“ auch Lösungswege aus der Klimakrise aufzeigen will.

„Die Lösungsansätze existieren schon lange. Es sind in erster Linie die erneuerbaren Energien, die uns aus der Klimakrise führen können“, so Latif. Technisch sei dies kein Problem und innerhalb weniger Jahrzehnte umsetzbar. An den Geldmitteln für die notwendigen Investitionen mangele es der Welt nicht, wie Corona zeigen würde. „Die Menschheit muss es nur wirklich wollen, einen entsprechenden Plan entwickeln und ihn konsequent und zügig umsetzen“, so der Kieler Klimaforscher.

„Die Physik lässt nicht mit sich verhandeln. Mit der Natur kann man keine Kompromisse schließen. Schnelles Handeln ist nötig. Wir haben nur diese eine Erde. Es gibt keinen Planeten B, auf den wir zur Not ausweichen könnten“, so Prof. Latif.

Mit seinem neuen Buch will er die Diskussion über die Klimaproblematik auf eine wissensbasierte Ebene zurückführen. Dabei geht es ihm weder um Verharmlosung noch um Panikmache. Die Fakten sprechen für sich. Latif stellt zudem die Klimakrise in gesellschaftliche Zusammenhänge. Das Thema werde würde mehr und mehr zum Spielball wirtschaftlicher und politischer Interessen. Die Diskussion über den Klimaschutz spalte inzwischen Gesellschaften, was keine guten Voraussetzungen für die Lösung des Klimaproblems schaffe. Mojib Latif sendet einen eindringlichen Appell, die Fakten endlich ernst zu nehmen. Ein letzter Weckruf!

Referenz:

Mojib Latif: Heißzeit – Mit Vollgas in die Klimakatastrophe – und wie wir auf die Bremse treten. 224 Seiten, gebunden mit Schutzumschlag. 20.00 €. ISBN 978-3-451-38684-8 HERDER 2020.

Kontakt:

Dr. Andreas Villwock (GEOMAR, Kommunikation & Medien), Tel.: 0431 600-2802, presse(at)geomar.de

Ist es eigentlich gestattet, die institutseigene Presse-Infrasktruktur zur Bewerbung des eigenen privaten Buches zu nutzen? Spendet Latif vielleicht alle Einnahmen für einen guten Zweck? Würde das Geomar auch eine ähnliche Pressemitteilung für das neue Buch „Unerwünschte Wahrheiten“ herausgeben, um potentielle Leser hierfür zu gewinnen? Der endzeitlich, klimaalarmistische Ton der Pressemitteilung hat nun wirklich nichts mehr mit ausgewogener Wissenschaftsinformation zu tun. Zudem ist es schlichtweg falsch, dass dies „technisch kein Problem“ sei. Wie gut kennt sich der Meteorologe Latif eigentlich mit der technischen Seite der Erneuerbaren Energien aus? Ist ihm bewusst, dass wir momentan noch keinen wirtschaftlich arbeitenden Energiespeicher besitzen, der die riesigen Mengen an Energie speichern könnte, die zur Überbrückung der Launen von Sonne und Wind benötigt werden? Eine Kaufempfehlung für Latifs Buch können wir leider nicht aussprechen.

Der Beitrag erschien zuerst bei „Die kalte Sonne“ hier




Aus welchem Grund der Bundespräsident das Kohleausstiegsgesetz nicht gem. Artikel 82 GG wird ausfertigen können

  1. Das Bundespräsidialamt ist zuletzt mit einem Schreiben, das jederzeit auf diesem BLOG angefordert werden kann, über den Inhalt der verfassungsrechtlichen Argumentation von Professor Dr. Dietrich. Muerswiek informiert worden. Es kennt die Anstrengen, mit denen unermüdlich versucht worden ist, eine öffentliche Debatte über die Verfassungsfrage aus Artikel 20 a GG im Lichte dieser Argumentation herbeizuführen. (vgl. Insoweit www.Gegenwind-Greven.de).Die Prüfer wissen also, dass sie rechtliche Argumente suchen müssen, die geeignet sind, überzeugend zu begründen, dass es dem Staat erlaubt ist, soviel Anlagen zu bauen, wie benötigt werden, um Strom nur noch aus „erneuerbaren Energien“ herstellen zu können.Bislang ist es noch niemandem in Deutschland gelungen, die Feststellung von Prof. Murswiek zu widerlegen, dass mit dem Bau von immer mehr Windenergieanlagen (WEA) gegen das Schutzgebot in Artikel 20 a GG verstossen wird!Das liegt nicht daran, dass die Verbotswirkung von Artikel 20a GG für Juristen nicht erkennbar ist. Es ist allgemein anerkannt, dass Artikel 20 a GG ein Verschlechterungsverbot beinhaltet und die immensen Schadwirkungen, die WEA schon bis heute in Natur und Landschaft und in der Tierwelt verursacht haben, sind unübersehbar!

    Es kann davon ausgegangen werden, dass der Bundespräsident seinen prüfungspflichtigen Mitarbeitern schon deshalb intensive Anstrengungen abverlangen wird, weil ihm bekannt ist, dass sich die Exekutive einer Debatte über die Verfassungsfrage stets entzogen hat. Ihm ist bekannt, dass alle Anfragen an die Politik unbeantwortet geblieben sind.
    Zu dem häufig geäusserte bekannten Bekenntnis des Bundespräsidenten für die Wichtigkeit einer politischen Debattenkultur würde es gut passen, wenn jetzt seine Behörde mit Argumenten aus der Sicht der WEA – Befürworter die dringend notwendige Debatte eröffnen würde.

    Seine Glaubwürdigkeit stünde auf dem Spiel, wenn auch diese Behörde argumentationslos bleibt.

  2. Die Aufgabe der Prüfer im Bundespräsidialamt ist mit der Kontrollaufgabe der Richter am Bundesverfassungsgericht im Falle einer Normenkontrollklage gem. Artikel 92 GG vergleichbar:
    Es empfiehlt sich deshalb folgende Formulierung für die Prüffrage:„Beruht die Rechtsgrundlage für die Genehmigung von WEA auf einer Norm, die mit dem Schutzgebot in Artikel 20 a unvereinbar ist?“Wenn diese Frage mit Ja beantwortet werden muss, hat eine Normenkontrollklage Erfolg. Natürlich verbietet sich dann auch für den Bundespräsidenten; diese Erkenntnis zu ignorieren und ein Gesetz auszufertigen, das seinen Zweck nur mit dem Bau von immer mehr WEA erreichen kann.
  3. Vorhaben der Windindustrie werden bauplanunsrechtlich nach Paragraf 35 Absatz 1 Nr. 5 BauGB beurteilt. Diese Vorschrift ist erst mit Inkraftsetzung durch die BauGB Novelle vom 30. 07. 1996 formell geltendes Recht geworden, materielle Wirksamkeit hat die Änderungsbestimmung nie erlangen können!Das ergibt sich eindeutig aus deren Entstehungsgeschichte:Vor dem 30.07.1996 hätte die Beurteilung nach Absatz 2 von Paragraf 35 BauGB erfolgen müssen.Das Bundesverwaltungsgericht hat im Jahre 1994 rechtskräftig festgestellt, dass Windenergieanlagen nicht zu den nach Absatz 1 privilegierten Anlagen gehören, sondern als „sonstige Vorhaben“ nach Absatz 2 diese Vorschrift behandelt werden müssen. Das bedeutet: ihre Zulassung ist grundsätzlich nicht möglich!

    Tatsächlich haben die Genehmigungsbehörden aber von Anfang an WEA als privilegierte Außenbereichsvorhaben behandelt. Nachdem der Gesetzgeber seinen Rechtsirrtum erkannt hatte, hat er mit der BauGB – Novelle vom 30. 07. 1996 die Gesetzeslage seiner politischen Zielsetzung angepasst.

    Das geschah, ohne zu fragen, wie dieser Federstrich des Änderungsgesetzgebers sich auf das geltende normative Schutzsystem auswirken wird.

    Welche Verschlechterung mit diesem Wechsel von Absatz 2 nach Absatz 1 Nr. 5 in Paragraf 35 Bau BG für die Schutzgüter i.S von Artkel 20 a bewirkt worden ist, wird klar, wenn man folgendes bedenkt:

  4. Die Regelungen für das Bauen im Aussenbereich sind von grundlegender Bedeutung für den Erhalt von von Natur und Landschaft, Der ökologische Nutzen des Schonungsgebots wird durch eine Zulassung von Bauvorhaben beeinträchtigt, Absatz 1 beschränkt deshalb die Bautätigkeit im Aussenbereich auf solche Vorhaben, die wegen Ihrer Ortsgebundenheit mit dem Privileg eine Bebaubarkeit nicht zuletzt aus verfassungsrechtlichen Gründen ausgestattet sein müssen. Für alle Bauvorhaben, die diesen Anforderungen nicht entsprechen, wirkt sich Absatz 1 als generelles Bauverbot aus! Sie können nur noch verwirklicht werden, wenn die Gemeinde im Wege der Bauleitplanung eigens ein Baurecht für sie normiert. Wirksames Baurecht kann aber mit einem Bebauungsplan nur dann begründet werden, wenn die Planer eine sachgerechte Abwägung vorgenommen haben. Der Ökologische Belang muss dabei, verstärkt durch Artikel 20a GG als besonders gewichtig bewertet werden.Man kann erkennen: das generell geltende Bauverbot und das planerische Abwägungsgebot sind die Säulen eines gesetzlichen Schutzsystems, das in seiner Wirkung nicht verschlechtert werden darf!
  5. Die BauGB Novelle hat dieses System auf den Kopf gestellt. Aus dem Bauverbot hat sie für Anlagen der Windenergie eine Bau-Zulassungsnorm gemacht!Die Novelle macht den Weg frei für massenhafte Ansprüche auf Genehmigungserteilung., Antragsteller erhalten in unbegrenzter Zahl Rechtsansprüche, denen der Staat – von besonderen Fällen abgesehen – stattgeben muss. Soweit in besonderen Fällen Gründe des öffentlichen Interesses eine hemmende Wirkung haben können, versteht die Rechtsprechung die Privilegieungentscheidung des Gesetzgebers als Ausdruck seines Willens, wonach möglichst viel Vorhaben verwirklicht werden sollen.Dass eine derartige Verschlechterung des optimalen gesetzlichen Schutzsystems vor Artikel 20 a GG nicht gerechtfertigt sein kann, ist im Lichte der verfassungsrechtlichen Argumentation offenkundig. Der Gesetzgeber hat mit der Novelle vom 30. 07.1996 ein als Hindernis empfundenes Schutzsystem beseitigt, ohne zu ermitteln, was für Folgen diese Entscheidung haben wird. Die Preisgabe eines funktionierenden Schutzsystems war für den an Artikel 20 a gebundenen Gesetzgeber unverantwortlich.
  6. Die BauGB – Novelle markiert mittlerweile verfassungswidriges Staatshandeln über den Zeitraum von 24 Jahren. Der in diese Zeit entstandene ökologische Schaden ist immens, die Klimaschutzwirkung ist „gleich Null“!Die Prüfung im Bundespräsidialamt muss mit der Feststellung schließen, dass die BauGB Novelle die im Jahre 1996 geltende schutzwirksam geregelte Rechtslage nicht wirksam hat verändern können.Das Kohleausstiegsgesetz, das seinen Zweck nur erreichen kann, wenn immer weiter verfassungswidrige WEA genehmigt werden, darf nicht ausgefertigt werden.
  7. Politisch soll bemerkt werden, dass im Deutschen Bundestag offenbar nicht bemerkt worden ist, dass dem Parlament ein kastrierter Entwurf für das Ausstiegsgesetz vorgelegt worden ist, ein Entwurf, der in dieser Verstümmelung bedeutungslos (sinnlos) bleiben wird weil er für die Rechtsanwendung läßt offen, wie künftig der Anlagenbau bewerkstelligt werden soll!In seiner ursprünglichen Konzeption waren noch Regelungen konzipiert, mit denen erreicht werden sollte, dass der wegfallende Kohlestrom tatsächlich auch durch Windstrom substituiert werden kann. Eine Rechtsgrundlage, die durchsetzbare Ansprüche auf Zubau von Windkraftanlage zur Sicherstellung des Anlagenbaus für die Produktion von Windstrom schuf, war für jeden Einsichtigen unverzichtbarDie Regierung der Groko hat vor dem Hintergrund des Zusammenbruchs des WEA Ausbaus immer wieder betont, dass ein forcierter Anlagenbau für den Erfolg der Energiewende unerlässlich ist. Es wurde beklagt, das Widerstand in der Bevölkerung die Ursache für den desaströsen Rückgang des Anlagenbaus sei, Widerstand, den man mit einer Politik der Akzeptanz Gewinnung überwinden werde. Als deutlich wurde, wie zeitraubend und schwierig das Werben für Akzeptanz in der Bürgerschaft wurde, ist der Kastrationsschritt erfolgt. Irgend wann – so macht insbesondere Wirtschaftsminister Altmaier hoffen – werde mit einer Kompromisslösung Akzeptanz erreicht werden können.Diese Einschätzung verkennt, dass es in der bürgerschaftlichen Opposition. („im GEGENWIND“) eine verfassungsrechtlich argumentierende Gruppierung gibt, die vornehmlich aus rechtsstaatlichen Gründen agiert und nie und nimmerverfassungswidriges Staatshandeln akzeptiere wird.
  8. Wie sollte sich der Bundespräsident in einer solchen Situation verhalten?Dem Bundespräsidenten ist zu Sondierungen zu raten:
    macht es wirklich Sinn, das Konstrukt, dass der Bundestag in dieser sinnlos verstümmelten Form verabschiedet hat, als Gesetz zu behandeln? Spricht nicht alles dafür, dass das legislative Vorhaben, das schon aus verfassungsrechtlichen Gründen zieluntauglich und nutzlos für die Rechtsanwendung ist aufzugeben?Die Rolle des Bundespräsidenten verlangt von dem Amtsinhaber, mit allen Verfassungsorganen zum Wohl der Republik zusammenzuarbeiten. Es fehlt ihm also nicht an der Möglichkeit, eine Konferenz einzuberufen.In einer Demokratie darf daraus allerdings keine Geheimkonferenz werden. Die Bevölkerung kann Aufklärung erwarten:

    Die Politik – inzwischen der Bundespräsident – muss den Bürgerinnen und Bürgern sagen, wie es um das Projekt Kohleausstieg steht!

  9. Freilich: Bürger müssen auch selber Fragen stellen. Medien müssen Fragen Gehör verschaffen! Abgeordnete haben ein gesetzlich verankertes parlamentarisches Fragerecht! Ministerien haben Infomationspflichten!

Wenn niemandem zu denken gibt, dass überall die Verfassungsfrage aus Artikel 20a GG verdrängt wird, muss der Bundespräsident seine Aufgabe wahrnehmen: als „Schirmherr“ einer rechtsstaatlich geboten Debatte!

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Studie zu „Extinction Rebellion“: akademisch, links, weiblich, mittelalt, aus derselben Gegend wie „Black lives matter“

von Michael Klein, Sciencefiles

Clare Saunders, University of Exeter, Brian Doherty, Keele University und Graeme Hayes, Aston University, haben heute einen Bericht veröffentlicht, in dem sie ihre Ergebnisse aus Befragungen von Extinction-Rebellen veröffentlichen. Die Forscher waren im April und im Oktober 2019 bei Demonstrationen in London zugegen und haben 124 bzw. 179 persönliche Interviews geführt, sie können zudem auf 232 postalische Interviews zurückgreifen und haben eine Reihe von Informationen für 144 Teilnehmer an Protesten von Extinction Rebellion in Gerichtsverfahren, die gegen die Teilnehmer angestrengt wurden, gesammelt.

Soweit also eine ganz brauchbare Datengrundlage, auf der man einiges über die Extinction-Rebellen sagen kann.

Räumen wir zunächst das meiste aus dem Weg, was die drei Autoren an Ergebnissen ihren Daten entnommen haben:

  • Extinction-Rebellen (XR) sind geübte Demonstranten: rund 75% von ihnen hat vor der jeweiligen Demonstration an bis zu 10 anderen Demonstrationen teilgenommen;
  • Das Durchschnittsalter der Rebellen ist 41,1 Jahre, was zeigt, dass es sich schon um etwas angealterte Rebellen handelt; Die genau Altersverteilung sieht so aus:
  • Die Rebellen, die von der Polizei festgenommen wurden, waren im Durchschnitt noch älter – je oller, je doller…
  • Der Anteil weiblicher Extinction-Rebellen ist mit 64,5% deutlich höher als der männlicher.
  • Die meisten XR-Rebellen verfügen über einen tertiären Bildungsabschluss: 85% haben mindestens einen Hochschulabschluss, mehr als ein Drittel einen Magister oder Doktortitel.
  • Die meisten XR-Rebellen sehen sich als Angehörige der Mittelschicht, der Anteil der Teilzeitkräfte und Studenten ist im Vergleich zur Gesamtgesellschaft überdurchschnittlich hoch.
  • Die XR-Rebellen sind überdurchschnittlich oft Parteimitglied. Raten Sie in welcher Partei? Richtig, den Grünen. Die Green Party ist im Vereinigten Königreich eine Fringe Party, die keinerlei Einfluss auf die Politik hat und mit genau einem Sitz im House of Commons vertreten ist.
  • Neben der Green Party gehört die Labour Party zu den von XR-Rebellen unterstützten Parteien. Die Rebellion kommt also von links.

Damit sind die Ergebnisse, die die drei Autoren präsentieren, zwar nicht erschöpft, es fehlt z.B. noch der Hinweis, dass XR-Rebellen von Frustration, Ärger und Sorgen getrieben sind, wir wollen die Autoren aber dennoch hier verlassen, uns ihrer Ergebnisse bemächtigen und die Interpretation vornehmen, die die Daten aufdrängen, die die drei aber wohl aufgrund politisch korrekter Erwägungen nicht vornehmen können.

Extinction Rebellion ist ein lokal zentriertes Unterfangen von Landpomeranzen, die in ihren eigenen Echozimmern verkehren, in der Gegend um Bristol und Exeter zu finden sind und dort im eigenen Saft ihres Kults schmoren.

Die lokale Klumpung ist schnell belegt, die Autoren selbst berichten, dass die meisten Rebellen aus den West Counties kommen, vor allem aus Bristol, Frome, Stroud und Totnes. Für alle diejenigen, die außer Bristol nur Bahnhof verstehen, Totnes liegt westlich von Exeter, Frome und Stroud in unmittelbarer Nähe zu Bristol, ober- bzw. unterhalb. Es ist also kein Zufall, dass Bristol in den letzten Wochen zu einem Hotspot von Black Lives Matter geworden ist. Die dortige Universität scheint ground zero nicht nur für XR zu sein. Vermutlich ist nicht einmal das Personal von XR und BLM verschieden.

Dass es sich bei den Extinction Rebellen um Landpomeranzen handelt, vornehmlich weibliche Landbevölkerung, die im eigenen Saft brät und wenig Kontakt zur Außenwelt aufnimmt, ist nunmehr im Hinblick auf die regionalen Schwerpunkte gezeigt. Es fehlt noch der Beleg für das Braten im eigenen Saft. Wir finden ihn auf den Seiten 20 und 22 des Berichts von Saunders, Doherty und Hayes:

Was in beiden Tabellen zu sehen ist, ist fast schon der Idealtypus einer Subkultur, eines Zirkels von Leuten, der sich um sich selbst dreht. XR-Rebellen informieren sich vornehmlich untereinander, bei Bekannten und Mitgliedern ihres XR-Kults oder sie suchen Informationen in sozialen Medien, vermutlich in einer geschlossenen Gruppe von XR auf Whatsapp. Ein Blick auf die Organisationen, mit denen “Intersektionalität” für XR-Rebellen besteht, zeigt das linke Syndrom aus Umwelt, Partei, Entwicklungshilfe, Menschenrechte, Frauen und LGBT, also identitätslinke Inhalte. Charity kann im Vereinigten Königreich eine Vielzahl unterschiedlicher Dinge vom National Trust bis zur Royal Society for the Protection of Birds bedeuten. Man kann die Kategorie also nicht ohne Weiteres sinnvoll interpretieren.

Fassen wir zusammen:

  • XR Rebellen sind vornehmlich weiblich;
  • Sie kommen häufig aus dem selben Kaff;
  • Sie haben weitgehend dieselben Interessen;
  • Verfügen über formal betrachtet hohe Bildungsabschlüsse, aber wohl nicht die Gelegenheit, diese Abschlüsse auch so einzusetzen, dass sie weniger ärgerlich, frustriert oder besorgt sind;
  • Eine Hochschule bildet das Hub;
  • Die Bekannten und anderen Mitglieder derselben Organisation sind Informationsquelle;

Eine 1a-Beschreibung für eine Subkultur, eine Art moderne Jugendbande, deren Mitglieder indes biologisch gealtert sind, obschon die Reife wohl auf der Strecke geblieben ist. So erklärt ein Rentner, der XR-Mitglied ist, seine Teilnahme am Doomsday Cult damit, dass er

„Ich habe keinen Grund, mir Sorgen über die Auswirkungen eines möglichen Strafregisters zu machen. Auch weil ich schon da war, bevor der Klimawandel als Problem in Frage gestellt wurde, und mir des Notfalls, den unser Lebensstil mit sich brachte, weitgehend nicht bewußt war. “

Je oller, je doller…


Saunders, Clare, Doherty, Brian & Hayes, Graeme (2020). A New Climate Movement?

Bitte unterstützen Sie unseren Fortbestand als Freies Medium.
Vielen Dank!




Das Klima als Druckmittel, um andere zu bevormunden

Nicht nur die immer wieder aufgelistete Zusammensetzung der Erdatmosphäre, wo ab und an mal vergessen wird, dass da auch Wasser drin enthalten ist, das unter anderem auch den Albedo der Erde erhöht. Auch die veränderliche Aktivität der Sonne spielt hier eine gewichtige Rolle. Möglicherweise haben auch die selten genannte Exzentrizität der Erdbahn und die kreiselnde Bewegung der Erdachse (Präzession) Einfluss auf das Klima.

Schwankungen in der Dichteverteilung der Erdmasse und der rotierende flüssige Erdkern könnten auch mitverantwortlich sein für die in diesem Zusammenhang immer wieder genannte Zunahme des Meeresniveaus. Vielleicht sind es auch nur Schwankungen (hier mehr, da weniger) und keine Zunahme.  Und zu guter Letzt soll ja angeblich auch die CO2-Konzentration in der Atmosphäre der Temperaturkurve nachlaufen, also erst erwärmt sich die Erde, dann folgt der CO2-Anstieg in der Atmosphäre. Vielleicht weil die CO2-Konzentration in den Ozeanen temperaturabhängig ist. Es ist sehr schwierig, hierfür Daten zu bekommen, an denen nicht herummanipuliert wurde. Und es fällt auch auf, dass Dinge, die die Menschheit nicht beeinflussen kann, gerne verschwiegen werden.

Betrachtet man die biologischen Strömungen mal ohne Menschen auf diesen Planeten und dreht ein wenig am Zeitrad in Richtung schneller, würde man erkennen, dass dieser Kohlenstoffzyklus CO2– Pflanze – Tier – CO(also die Pflanzen entnehmen CO2aus der Luft, die Pflanzen werden von den Tieren gefressen, die Tiere atmen CO2 aus) eigentlich gar kein Kreislauf ist. Ähnlich wie die Versalzung der Meere immer nur in Richtung salziger abläuft, würde dieser Kohlenstoffzyklus immer weiter ausdünnen. Immer weniger Kohlenstoff, damit immer weniger CO2in der Luft. Jeder zweite Baum, der dem Waldbrand entwischt wäre, würde umfallen und vom Erdboden auf natürliche Weise begraben, läge irgendwann tief unter der Erde vergraben und wäre dadurch für immer diesem Kreislauf entzogen. Mitsamt all den mühsam aus der Atmosphäre entnommenen Kohlenstoff. Jener Pflanzennahrung also, die dadurch immer knapper werden würde.

Die Ironie der Geschichte: Welch ein Segen, dass irgendwann Homo Sapiens auf der Bildfläche erschienen ist, um mit schweren Maschinen in tiefen Schächten ein Teil des für alle Zeiten dem Kreislauf entzogenem Kohlenstoff wieder ans Tageslicht zu fördern, zu verbrennen und den Pflanzen wieder als schmackhaftes CO2zur Verfügung zu stellen. Ist nur mal eine andere Betrachtungsweise.

Und – last but not least ein wenig Physik – entscheidend bei einem Körper, sofern keine einheitliche Temperatur wie bei einem idealen Körper mit einer unendlich hohen Wärmeleitfähigkeit, ist nicht die Temperatur selbst sondern der Energiegehalt. Also die Temperatur mal genommen mit der spezifischen Wärmekapazität und mal genommen mit der Masse. Warum? Wenn sich ein kleiner Körper von geringer Masse um sagen wir mal 2°C durch Sonneneinstrahlung erwärmt, steckt da genau so viel Energie drin als wenn sich ein doppelt so schwerer Körper sich nur um 1°C durch Sonneneinstrahlung erwärmt. Einziger Unterschied, 2°C klingen doppelt so hoch wie 1°C.

Jedoch, da dieser Text über die Sucht, andere zu bevormunden handelt und nicht etwa über das Klima, werden wir uns hier nicht weiter mit möglichen klimatechnisch relevanten Sachverhalten auseinandersetzen.

Die Debatte, ob denn nun der Mensch die Schuld an der angeblichen Erderwärmung trägt oder nur teilweise oder gar nicht und welche Mechanismen da tatsächlich wirken, muss zwar dringend und vor allen Dingen unhysterisch geführt werden, ist hier, das mag überraschen, aber nicht unser Thema. Es geht hier nicht darum, wer der Buhmann ist beim Klimawandel und ob das überhaupt alles richtig ist was da behauptet wird.

Es geht hier darum, in wie weit ein Klimawandel als „Druckmittel“ benutzt wird, um Mitmenschen zu bevormunden. Ähnlich dem Waldsterben aus den 90ern. Da ist, entgegen den Aussagen der Weltretter der Wald nicht gestorben, der hat sich auch während dieser Waldpanikzeit kräftig vermehrt. Aber das nur am Rande.

Tatsache ist, es vergeht kaum ein Tag, an dem nicht irgendwo in den Medien über die Veränderung des Klimas berichtet wird. Allerlei angsteinflößende Kommentare werden da gebracht, meistens mit dem Hinweis auf eine Erwärmung der Erde mit katastrophalen folgen für Mensch und Umwelt. Auch ohne wissenschaftlichen Hintergrund setzen sich Teilnehmer in Talkshows mit dramatischen Worten leidenschaftlich in Szene oder demonstrieren mit bunten Fahnen auf den Marktplätzen der Innenstädte. Der oben schon genannte Meeresspiegel steigt unaufhörlich, die Hurrikane nehmen zu und überhaupt, früher war auch das Wetter viel besser.

Jede Trockenperiode, jeder Herbststurm, jeder milde Winter und jeder schöne Sommer wird gleich dazu genutzt, deutlich zu machen, dass irgendetwas nicht stimmen kann mit dem Klima. Egal ob viel oder wenig Regen, alles Indizien für den baldigen Weltuntergang. Bilder von im Meer schmelzenden Eisbergen helfen dabei, dieses apokalyptische Szenario zu untermalen, am besten noch mit Eisbären drauf. Wobei Eisberge schmelzen immer, wenn sie im Meer sind, aber auch das nur am Rande.

Oft genug tauchen auch Bilder auf, wo ein Kraftwerk zusammen mit diesen klassischen Kühltürmen abgebildet ist, aus denen dicke weiße Wolken entweichen. Obwohl diese Wolken aus harmlosen Wasserdampf bestehen (der Kühlturm arbeitet mit der Verdunstungskälte), drängt sich der Verdacht auf, dass damit etwas anderes suggeriert werden soll. Jedoch, auch wenn noch so beeindruckend und damit Medienwirksam, aus Kühltürmen entweicht kein CO2.

Unzählige Grafiken kursieren im Netz mit steil ansteigenden Temperaturkurven und zig Tabellen mit erschreckendem Zahlenwerk werden verteilt. Alles angeblich mehrfach wissenschaftlich belegt. Mehrere tausend Leute treffen sich regelmäßig irgendwo auf der Welt (und erzeugen viel CO2um da hinzukommen…), diskutieren und halten Vorträge um Maßnahmen festzulegen, Steuern zu erhöhen (vermutlich der eigentliche Beweggrund) und natürlich reihenweise Vorschriften zu erlassen, um dieses angeblich so gefährliche CO2loszuwerden.

 

Was ist das besondere an diesem Thema?

Die öffentliche und die veröffentlichte Meinung sind beide fast gleich. Bis auf ein paar lästige Querulanten, auch gern als Klimaleugner diffamiert, sind sich alle einig: Das Klima ist bedroht, basta. Keine Widerworte. Das ist allseits bekannt und da gibt es auch nichts zu hinterfragen. Da arbeiten sogar die meisten Regierungen dran, das Klima zu retten. Unser heiliges Klima!

Ist das Wissenschaft?

Nein, niemals.

Auch wenn sich fast alle einig sind, egal ob nun 97 oder 99% der „Wissenschaftler“, das ist keine Wissenschaft, ganz im Gegenteil. Es reicht noch nicht einmal, wenn sich alle einig sind. Und warum ist das keine Wissenschaft? Weil in der Wissenschaft Mehrheiten irrelevant sind. In der Wissenschaft ist jeder Querulant willkommen. In der Wissenschaft wird etwas herausgefunden und als Gedankengebäude aufgestellt und jeder ist herzlich eingeladen, einen stichhaltigen Beweis für das Gegenteil zu liefern, das aktuelle Gedankengebäude zum Einsturz zu bringen und damit existierendes Wissen von was auch immer über den Haufen zu werfen. Wissenschaft lebt von dem Infragestellen bestehender Theorien. Wissenschaft heißt kontrovers mit jedem zu diskutieren.

Nur die Theorien, die auch den unangenehmsten Kritiken standhalten, scheinen richtig zu sein, wenigsten bis zu dem Moment, wo neue Erkenntnisse auftauchen.

Wissenschaft ist nicht der Versuch, Behauptungen aufzustellen und diese anderen einzutrichtern. Wissenschaft ist keine Demokratie, in der Wissenschaft gibt es auch keine Autoritäten. Natürlich ist es nicht ausgeschlossen, dass sich auf Grund wissenschaftlicher Erkenntnisse auch mal alle einig sind. Aber aus der Menge derer, die das gleiche behaupten, auf dessen Richtigkeit zu schließen, ist mehr als leichtsinnig. Und völlig unwissenschaftlich. In der Wissenschaft folgt man nicht dem Herdentrieb.

Wissenschaft heißt Wissen zu schaffen. Natürlich passieren Fehler in der Wissenschaft, und zwar mehr als genug. Aber gerade dadurch, dass sich die Wissenschaft immer wieder selbst kritisch betrachtet, werden diese Fehler aufgedeckt, analysiert und auch korrigiert.

Sozusagen eine Evolution der Erkenntnisse.

Ist das denn überhaupt ein Problem, wenn die Klimadebatte nicht so wissenschaftlich fundiert ist? Selbstverständlich ist das ein Problem. Die  Klimadebatte muss eine wissenschaftliche Grundlage haben. Der Grund für internationale Maßnahmen und die Ausgabe bzw. Bereitstellung von Milliarden von Steuergeldern für „Klimazwecke“ sollte ausschließlich auf belegbaren und nachvollziehbaren Fakten und nicht wie in Diktaturen auf Vermutungen, Meinungen und Willkür einzelner basieren. Mögen diese noch so berühmt, mächtig und einflussreich sein.

Sofern es dem Einzelnen gelingt, die Klimadebatte emotionsarm, sachlich und vor allen Dingen auch mal mit dem nötigen Mindestabstand zu betrachten, erscheint ihm diese den Religionen beklemmend nahe. Auch hier ein weltumspannendes, alle betreffendes Thema, wo jeder allein schon wegen der skizzierten Bedrohlichkeit eingeschüchtert wird und es hohe Überwindung kostet, gegen den Strom zu schwimmen und hier Einspruch zu erheben.

Bei den Religionen, zumindest in der westlichen Welt, kommt man den Systemnutznießern langsam auf die Schliche. Dieses ganze Religionsgebäude hat schon leichte Risse im Fundament, viele Menschen werden skeptisch gegenüber den Religionen und dem Klerus, also denjenigen, die auf dieses ganze Gebäude aufbauen bzw. ganz gut davon leben. Vielen scheint das Thema Religion zu „altbacken“, einfach nicht mehr auf der Höhe der Zeit. Das sehen natürlich nicht alle Menschen so, aber die Anzahl derer, die sich von den klassischen Religionen abwenden, wächst.

 

Und was ist die Folge davon?

Das angeborene Verlangen von Homo Sapiens auf beiden Seiten, also sowohl bei denen, die unbedingt an etwas glauben wollen als auch bei denen, die den Drang verspüren, diesen Glauben zu verkünden, scheint ungebrochen. Die Folge davon sind neue Glaubensrichtungen.

Eine sicherlich recht provokante These, die viele verstören mag, aber der Blick in die Gesellschaft zeigt, wie stark das Bedürfnis immer wieder ist, entweder an irgendetwas zu glauben oder eben Gläubige um sich zu versammeln, die man bevormunden kann. Schwindet ein Thema, wie zum Beispiel das der Religionen, wird auf Biegen und Brechen nach Ersatz gesucht.

Wie muss dieser Ersatz beschaffen sein?

Ein komplexer, nicht sofort durchschaubarer Sachverhalt mit bedrohlichen Ausmaßen muss her. Vor allen Dingen aber auch – und das ist wohl die entscheidende Komponente, sofern man dran glaubt – am besten ein angeblich von Menschen verschuldeter Sachverhalt inklusive der Möglichkeit, ein schlechtes Gewissen einreden zu können. Und schon hat man eine vergleichbare Konstellation, nämlich ein Szenario, von dem eine Bedrohung ausgehen könnte. Und wer dies negiert, ist so was wie ein Ketzer aus dem Mittelalter, der zwar nicht mehr wie früher auf dem Scheiterhaufen landet, dafür aber von der Presse schikaniert wird. Oder in Talkshows nicht mehr eingeladen wird. Oder dessen Webseite gesperrt wird.

Aber, um hier keine Missverständnisse aufkommen zu lassen, nicht die Klimawissenschaft selbst, sofern tatsächlich wissenschaftlich betrieben, ist die Religion, sondern das, was viele Strategen aus diesem Thema machen und insbesondere auch den Nutzen, den einige Zeitgenossen für sich daraus ziehen, zeigt die Parallelen auf.

 

Was sind das für Parallelen?

Wer sich die Mühe macht, genau hinzuhören, entdeckt bei denen, die mit erhobener Stimme mahnen, auch immer wieder diese drohenden Zeigefinger, die da unterschwellig mitschwingen. All diese bösen Autofahrer, Fleischesser, Vielflieger, Kreuzfahrer und sonstige, vor allem aus der Reihe tanzenden Übeltäter würden durch ihren hohen CO2-Ausstoß eine schwere Mitschuld an der angeblichen Klimakatastrophe unserer empfindlichen Erde tragen. Auch hier gilt analog zu „wenn Du nicht artig bist, kommst Du nicht in den Himmel“ die einschüchternde Formulierung „wenn Du viel CO2erzeugst, bist du böse und sollst dafür bezahlen“.

Klimabevormunder, also Politiker und solche Strategen, die die Möglichkeit haben, dem Bürger in die Tasche zu greifen, übernehmen mit Begeisterung diese Formulierung. Eine einmalige Chance bietet sich hier, weitere Steuern zu erheben bzw. die existierenden Steuern zu erhöhen. Der Lockruf des Geldes. Keine Partei wird dieser Versuchung widerstehen. Die edle Begründung dazu wird gleich mitgeliefert, natürlich um die Welt vor dem nahendem Hitzetod zu retten. Viele Politiker und weitere einflussreiche Personen sind hier ideologisch fixiert und glauben auch noch, die Moral gepachtet zu haben. Dafür gibt es sogar kräftigen Beifall.

Passend hierzu lehrt auch die leidvolle Erfahrung, Steuern und entsprechende Abgaben, die einmal zu diesem Thema festgelegt wurden (Ökosteuer, Energiesteuer,Erdölbevorratungsbeitrag, usw.) bleiben auch dann noch bestehen, wenn der eigentliche Grund für die Erhebung der Steuer gar nicht mehr da ist. Es finden sich immer Gründe für die Beibehaltung von Steuern und Abgaben. Und mittels Schülermarionetten lässt sich neuerdings auch einiges durchsetzen, was noch vor Jahren als völlig undenkbar erschien.

Wäre hier irgendwann eine Besserung denkbar? Also eine Besserung in dem Sinne, dass der Missbrauch komplexer Zusammenhänge für den eigenen Vorteil endlich mal eingedämmt wird? Möglicherweise. Aber erst dann, wenn die Erkenntnis, dass der Mensch gar nichts zur Klimaveränderung beiträgt, wissenschaftlich belegt ist. Was aber nicht so einfach ist, da dies naturwissenschaftliche Erkenntnisse voraussetzt. Außerdem ist es schwierig, die Nichtexistenz eines Sachverhaltes zu beweisen. Es scheint, als läge da noch ein langer und mühsamer Weg davor.  Eines ist aber ganz sicher:

 

Es wird neue Steuern geben.

 

 

 

 




Institut für Weltwirtschaft: „Elektro-Auto für Klimaschutz kontraproduktiv“

EIKE-Leser wissen es schon lange: Zwar sind Elektromotoren die effizientesten bekannten Energiewandler (99%); außerdem sind sie schön kompakt und benötigen kein aufwendiges Getriebe. Nützt aber nichts: Die Energiequelle, der redox-/elektrochemische Akkumulator, macht die Vorteile mit seinen Problemen mehr als wett. Teuer, schwer, brandgefährlich, unsozial und umweltgefährdend. Für die Produktion wird wesentlich mehr CO2 emittiert als für einen Verbrenner. Erst durch die langjährige Nutzung soll sich der Stromer amortisieren, da kein Kohlendioxid mehr anfalle. Was nicht stimmt, da die Akkus überwiegend mit Kohle- oder Gasstrom geladen werden (müssen).

Diese Rechnung bestätigt Ulrich Schmidt vom IWF; ergänzend zu den bereits vorher veröffentlichten Texten vom Fraunhofer-Institut für System- und Innovationsforschung und vom Heidelberger Institut für Energie- und Umweltforschung. Zitat zu Publikationen, die das E-Auto als „Ökomobil“ darstellen:

„Diese Studien vernachlässigen den erhöhten Stromverbrauch, der aus dem Ausbau der Elektrombilität resultiert.“

Daher seien die Emissionen an CO2 um 73% höher als bei einem modernen Diesel. Konkrete Rechnung: Ohne E-Autos bleibe der Strombedarf Deutschlands konstant; mit steige er erheblich an. Jährlichen legen laut Behörden PKW 630 Milliarden Kilometer auf deutschen Straßen zurück. Benötigt ein Stromer zurückhaltend gerechnet im Schnitt 15kWh* pro 100 Kilometer, ergibt sich ein Gesamt-Jahresbedarf von 94 tWh**; das sind rund 18 Prozent der deutschen Nettoerzeugung per annum (rund 515 tWh).

Daher empfiehlt Schmidt, auf E-Auto-Förderung zu verzichten und stattdessen die „Erneuerbaren Energien“ auszubauen, um die Kohle zu ersetzen. Daß ein Ökonom so etwas ernst meint, darf bezweifelt werden, da ihm bekannt sein dürfte, daß der Zappelstrom von Windkraft- und Solaranlagen nicht regulierbar, speicherbar und somit unbrauchbar ist. Er muß sich halt im Rahmen des von der Politik und vor allem den Medien wie der FAZ konstruierten Meinungskorridors bewegen und Holzschuhe in das Räderwerk des Wahnsinns werfen, wo es noch geht (frz. sabo = Holzschuh; daher „Sabotage“). Wenn das IWF dadurch wenigstens einen Baustein von Merkels ruinöser Energiewende wegnehmen kann und damit unsere lebenswichtige Autoindustrie rettet, soll es uns recht sein.

Allerdings bezweifle ich, daß die Regierung ihr wahnwitziges Industrie-Vernichtungsprogramm noch stoppen wird. Altmaier und Merkel haben ihr Elektromobilitätsprogramm angefahren und neben VW auch die anderen großen Autobauer mit der Förderung von Tesla in Grünheide gezwungen, nachzuziehen. Ansonsten würde Elon Musk, bezahlt mit deutschen Steuern, durch seinen Wettbewerbsvorteil den Verbrenner-Herstellern massiv Marktanteile wegnehmen. VW, BMW und Co. müssen also mitmachen, um einen Teil der Subventionen in ihre Kassen zu leiten und den ausländischen Konzern so in die Markt-Schranken zu weisen. Man merkt: Marktwirtschaft ist das nicht mehr, weil die staatsgetragene E-Mobilität Wohlstand und Substanz vernichtet, statt aufzubauen. Beim deutschen Wähler, versteht sich. Musk und die Manager hingegen verdienen sich eine goldene Nase.

*Kilowatt-Stunden. Leistung mal Zeit = Energiemenge, bezogen auf elektrischen Strom. Wer das in Joule umrechnen kann, bekommt von der EIKE-Redaktion eine Eins!

** Terawatt-Stunden; also Tausend Million Kilowatt-h.