1

(Nicht nur) Minister Altmaier wieder ohne jegliche Ahnung worüber er spricht

Ein herrliches Beispiel, was daraus folgt, „erlebte“ kürzlich (wieder) das Bundestags-Parlament.

Deutschland erzeugt 1000 Mal mehr Energie als die Messdaten anzeigen

Jeder kann sich mal versprechen. Bei den GRÜNEN ist das geradezu ein „Qualitäts-Standard“ in der Führungsmannschaft. Allerdings nicht, wenn man vom Blatt abliest und für das Thema auch noch zuständig ist.

In der Bundestagsdebatte am 30.10.2020 las Wirtschaftsminister Altmaier vom Blatt ab und berichtete freudig, dass Deutschland an dem Tag um 10 Uhr 71.760 Gigawatt Strom aus Erneuerbaren und 31.526 GW aus Konventionellen erzeugt hätte .
Anbei der Protokollauszug seiner Rede:

Bild 1 [1] Bundestagsprotokoll der Sitzung vom 30.10.2020 (Auszug)
Leider sind Altmaiers im Bundestag so freudig-ernst vorgetragenen „Erfolgszahlen“ 1.000 Mal mehr, als im Netz wirklich gemessen wurde.

Erschütternd ist, dass mit Sicherheit hochbezahlte „Fachpersonen“ in einem Ministerium (denn nur solche dürfen solche Reden vor-schreiben) solchen Unsinn ihrem Minister vorlegen. Erschütternd ist, dass es einem Wirtschafsminister bei seiner Vorbereitung zu dieser Fachveranstaltung nicht auffällt (oder ist es ein Zeichen, dass er sich gar nicht vorbereitet hat?). Doch sollte man meinen, ein solch hochgradiger Irrsinn an Falschaussage würde dann zumindest den Abgeordneten auffallen.

Leider weit gefehlt: Ein Abgeordneter (Politologe, war schon energiepolitischer Sprecher und hatte einen Job beim Vorstand der SMA Solar Technology AG, aktuell ordentliches Mitglied im Ausschuss für Wirtschaft und Energie) klatscht dazu noch Beifall.

Bild 2 Altmaier bei seiner Bundestagsrede am 30.10.2020. Bearbeitetes Bild aus dem NAEB-Strom-Newsletter 2020/11. (Link zum Redebeitrags-Auszug mit Untertiteln: NAEB)

Niemandem der (wenigen) anwesenden Abgeordneten schien das aufzufallen. In keinem der vielen und umfangreichen Redebeiträge hörte man eine Erwähnung dazu. Bis auf die AfD kamen lediglich „Beweihräucherungen“ der EEG-„Erfolge“ und Forderungen, mehr davon und es noch schneller weiter zu machen.

Rosinenpickerei verschleiert das wirkliche Desaster

Dass man im Parlament nicht mehr bemerkt, wenn ein Minister absolute Schwachsinnszahlen erzählt, ist das Eine, dass die Rede bewusst Probleme verschleiert und auch das niemand bemwerken will, das Andere.

Die Agoradaten am 30.10.2020, 10 h:
Verbrauch: 75,906 GW
– Erzeugung gesamt: 81,199 GW, davon
– Konventionelle Erzeugung: 37,771 GW
– GRÜNE Erzeugung: 43,428 GW

Dazu der Verlauf am 30.10.2020:

Bild 2a Leistungs/Angebotsverlauf im Deutschen Stromnetz am 30.10.2020. Quelle: Agora-Viewer

Was 58 % aus Erneuerbaren für einen Energiemangel bedeuten, zeigt die folgende Grafik mit Bedarf und Ökoenergie-Angebot:

Bild 3 Daten von Bild 2 ohne konventionelles Energieangebot am 30.10.2020. Quelle: Agora-Viewer

Und welche Rosinenpickerei Herr Altmaier in seinem Vortrag den Abgeordneten zumutete, zeigt das folgende Bild. Den gesamten Monat herrscht Ökoenergie-Mangel, zeitweise wird fast überhaupt keine geliefert. Wären die Konventionellen bereits abgeschaltet, gingen für Tage schon jetzt die Lichter aus. Obwohl es dafür noch nicht einmal im Ansatz eine Lösung (nur Hoffnungen) gibt, ging kein Redner der Abgeordnetenseite auf dieses Problem ein.

Bild 4 Leistungs-Angebotsverlauf im Deutschen Stromnetz im Oktober 2020. der 30.10., ca. 10 h gekennzeichnet. Quelle: Agora-Viewer

Redeschnipsel“

Anbei noch aus dem Protokoll [1] ein paar Redeauszüge:

Altmaier:

Bild 5, „Redeschnipsel“ aus dem Redeprotokoll

Altmaier:

Bild 6, „Redeschnipsel“ aus dem Redeprotokoll

Dr. Julia Verlinden (BÜNDNIS 90/DIE GRÜNEN):

Bild 7, „Redeschnipsel“ aus dem Redeprotokoll

Für Frau Dr. Verlinden steht bei WIKIPEDIA: Julia Maria Kornelia Verlinden ist eine deutsche Umweltwissenschaftlerin und Abgeordnete im Deutschen Bundestag.
Ihre Dissertation lautet: Energieeffizienzpolitik als Beitrag zum Klimaschutz Analyse der Umsetzung der EU-Gebäude-Richtlinie in Deutschland (Bereich Wohngebäude)
Der Fakultät Kulturwissenschaften der Leuphana Universität Lüneburg zur Erlangung des Grades Doktorin der Philosophie – Dr. phil.
Es stellt sich die Frage, wie (nicht nur) „WIKIPEDIA“ darauf kommt, dass diese Dissertation einen Anspruch als Umweltwissenschaftlerin begründet. Die Dissertation ist eine reine Fleißarbeit folgsamer Umsetzungsbeschreibungen der von verschiedenen Seiten angeordneten CO2-Reduzierungen. Irgendeine Umwelt-, gar Klima-Einflussabschätzung und/oder Wirkungs-/Nutzenabschätzung findet sich darin nicht.
Die gesamte Dissertation argumentiert rein juristisch: Was ist vorgegeben, wie kann es umgesetzt werden. Fragen nach einem Sinn werden nicht gestellt.
Wohl deshalb wurde auch im Fachbereich Kulturwissenschaft zur Doktorin der Philosophie promoviert.
Anmerkung des Autors: Beim Nachsehen von Promotionen unserer Politiker und auch sonstiger „Fachpersonen“ fällt auf, dass in solchen Fakultäten Dissertationen zu anspruchsvollen, aber fremden Fachgebieten möglich scheinen, wenn das Niveau für eine Durchführung im eigentlich zuständigen Fachbereich wohl nicht ausgereich hätte (rein persönliche Vermutung des Autors, die nicht belegt ist).

Ergänzend:
Johann Saathoff (SPD, Diplom-Verwaltungswirt (FH)) wusste die gesamte Litanei des schauerlichen Klimas zu berichten. Nur vergaß er zu erwähnen, dass es diese Probleme seit vielen Tausend Jahren gibt und wir aktuell vergleichsweise eher wenige davon haben. Aber vielen Abgeordneten hat es gefallen. Schließlich weiß jeder Abgeordnete der Altparteien, wie schlimm es um unser Klima steht, kann man ja täglich in der Zeitung lesen … :

Bild 8, „Redeschnipsel“ aus dem Redeprotokoll

Hinweis: Information und Anregung zu diesem Artikel kamen von: NAEB-Strom-Newsletter 2020/11

Fazit

Damit ist offensichtlich, dass sich die Koalitionsparteien endgültig auf das Niveau der GRÜNEN „erniedrigt“ haben, wie es die unfehlbare Merkel fordert und Herr Altmaier wohl schon vorbeugend gehorsam im Parlament „übt“. In einer künftigen Koalition wäre es auch mehr als hinderlich, über das was man verbietet Ahnung zu haben.

Und so reiht sich Herrn Altmaiers Aussage vorbildlich zu der führender, GRÜNER Politiker*innen:
– jeder Deutsche emittiert „pro Kopf 9 Gigatonnen CO2“,
– Stromnetze sind Speicher,
– Kobolde benötigt man für Akkus,
– das EEG produziert Gigabyte an Strom,

– der Atomunfall in Fukushima … haben gezeigt, dass man den Klimawandel nicht mehr leugnen kann,
– (Merkels Zitteranfälle) „Bei der Bundeskanzlerin wird deutlich, dass dieser Klimasommer gesundheitliche Auswirkungen hat“

Mama, fängt jedes Märchen mit: ‚Es war einmal…‘ an?“. „Nein, viele fangen an mit: ‚Wenn die Grünen gewählt werden…’“

Quelle: Die Grünen Witz

Quellen

[1] Plenarprotokoll 19/187 Deutscher Bundestag Stenografischer Bericht 187. Sitzung Berlin, Freitag, den 30. Oktober 2020




Luftmassen und Klima­erwärmung – eine Bestands­aufnahme

Teil 1 – Was zeichnet die Luftmassen Europas aus, wie erkennt man sie?

FREUER hat in seinem Beitrag „Luftmassen – was heißt das?“ (hier) schon die wesentlichen Grundlagen der Luftmassenbestimmung, deren Definition und Eigenschaften genannt; es ist sehr empfehlenswert, diesen vor den folgenden, vertiefenden Ausführungen zu lesen. Die Herkunft einer Luftmasse wird unter anderem mit Trajektorien bestimmt. Als Trajektorie (Luftbahn) bezeichnet man die Bahn, die ein einzeln betrachtetes Luftpartikel in einem gewissen Zeitraum durchläuft. Das bedeutet, dass die Trajektorie alle Orte verbindet, die ein Teilchen während seiner Bewegung einmal berührt hat. Durch die Berechnung von Trajektorien lässt sich u.a. die Herkunft und die weitere Verfrachtung von Luftverunreinigungen bestimmen. Schematisch sei das an zwei Grafiken für die typischen Wege warmer und kalter Luftmassen nach Mitteleuropa gezeigt:

Abbildungen 1a und 1b: In der oberen Abbildung (1a) erkennt man die Herkunftsgebiete der in Europa vorkommenden warmen Luftmassen sowie deren typische Wege und Umwandlungen im Herbst. In 1b (unten) Selbiges für kalte Luftmassen im Winter. Die Nomenklatur der Luftmassen wird an späterer Stelle in einer Tabelle erläutert. Es können nur typische Fälle gezeigt werden; Einzelfälle verlaufen mitunter anders. So kann mP auch aus Nordosten über die Ostsee nach Deutschland gelangen, und cS kann bei starkem Föhn auch am Alpennordrand oder bei sehr starkem Absinken in einem Hochdruckgebiet mitunter sogar über Norddeutschland entstehen. Bildquelle beider Abbildungen (1)

Wesentliche Luftmasseneigenschaften sind Temperatur, Wasserdampfgehalt, Verunreinigungen (Staub, Pollen, Salzkristalle, Schwefel- und Stickoxide), Durchsichtigkeit, Wolkenbild, Intensität des Himmelsblaus, Niederschlagsverhalten und vertikale Schichtung. In der Bioklimatologie ist die Schwüle, eine Kombination aus hoher Lufttemperatur und hohem Wasserdampfgehalt, ein gängiger Begriff:

Abbildung 2: Als ein Grenzwert, ab dem Schwüle beginnt, wird ein Taupunkt von 16 °C angenommen, was unter Normalbedingungen einer absoluten Luftfeuchtigkeit von 13,5 g Wasserdampf pro Kubikmeter Luft entspricht. Bedeutsam ist die Schwüle in unseren Breiten etwa von April bis Oktober. Bildquelle hr-Fernsehen.de, Sendung vom 20.07.2020

Zur Klassifikation der Luftmassen nach ihrer Temperatur und ihrer pseudopotentiellen Temperatur wurden vom Meteorologischen Institut der FU Berlin Tabellen entwickelt; hier sei das für das 850 hPa-Niveau im Winterhalbjahr gezeigt (entspricht in etwa 1500 Metern Höhe):

Abbildung 3: Tabelle zur Luftmassenbestimmung im 850-hPa-Niveau (Radiosonde) für das Winterhalbjahr. Schwarz Lufttemperatur in dieser Höhe, darunter blau die pseudopotentielle Temperatur. Fett markiert sind die Mittelwerte des Intervalls für die jeweilige Luftmasse. Je südlicher die Herkunft der Luftmasse, desto höher sind die Werte. Bildquelle (1)

Auch der Staubgehalt variiert je nach Luftmasse stark:

Abbildung 4: Staubgehalte einiger Luftmassen in Mikrogramm je Kubikmeter Luft. 1 Mikrogramm (μg) = 1 Millionstel Gramm = 10−6 g. Nach PELZ, Bildquelle (2)

Seit den 1980er Jahren nahm die Staubbelastung der Luft stark ab, was mit einer zunehmenden Sichtweite einherging:

Abbildungen 5a und 5b: Nach dem Höhepunkt der Staubbelastung um 1970 nahm diese in Berlin-Dahlem stark ab; Jahresmittel in Mikrogramm je m³ Luft (oben, 5a). Nach 1970 stieg am selben Ort die Sichtweite in Km (Jahresmittel) stark an; besonders ab dem Ende der 1980er Jahre (unten, 5b). Leider enden diese Beobachtungen in den 1990er Jahren; doch dürften seitdem der Staubgehalt noch weiter ab- und die Sichtweite weiter zugenommen haben. Bildquellen (3)

Das Ganze erinnert an den „Klimasprung“ Ende der 1980er/Anfang der 1990er Jahre mit mehr und intensiverer Besonnung; worauf im Teil 2 noch näher eingegangen wird. Luftmassen können labil oder stabil geschichtet sein. Ersteres begünstigt die Durchmischung der Luft (Thermik) und kann bei genügend Wasserdampfgehalt zu Schauern und Gewittern führen; Letzteres geht oft mit einer Temperaturzunahme nach oben und Flaute am Boden einher; was sich nicht selten an Dunst, Nebel und Hochnebel erkennen lässt. Im Winter kann diese stabile Schichtung in Bodennähe eine ganz andere Luftmasse vortäuschen, als reell vorhanden; das ist bei der Luftmassenbestimmung unbedingt zu beachten:

Abbildung 6: Am Spätwintermorgen des 27. Februars 1948 herrschten in Thüringen enorme, höhenbedingte Temperaturunterschiede durch Inversion. Mit „+“ sind alle Gebiete über minus 6, mit „–„ solche unter minus 12°C gekennzeichnet. Während auf dem Rennsteig (Oberhof) nur etwa minus 4°C gemessen wurden, waren es in der Senke bei Arnstadt unter minus 20°C – das ist eine Temperaturdifferenz von mehr als 16 Kelvin auf kaum mehr als 600 Meter Höhendifferenz; räumlich sind beide Orte kaum 20 Km Luftlinie voneinander entfernt. Das Temperaturminimum von unter minus 20°C würde der Luftmasse cA entsprechen – aber es entstand nur durch nächtliche Ausstrahlung bei klarem Himmel in einer kontinentalen Subpolarluft und wurde bald von der Vorfrühlingssonne weggeheizt – nachmittags herrschte in Arnstadt leichtes Tauwetter. Bildquelle (4), ergänzt.

Dieses Einzelbeispiel verdeutlicht die Schwierigkeit, jeder Luftmasse in der Grundschicht, in welcher wir ja nun mal leben und auch die DWD-Temperaturen für die „normalen“ Wetterberichte gemessen werden, einen Temperaturbereich zuzuweisen. Denn Sonnenscheindauer, Exposition, Hanglage, Oberflächenbeschaffenheit, Bewuchs oder Bebauung beeinflussen die bodennahen Temperaturverhältnisse stark. Hinzu kommen die Jahreszeiten; manche Luftmassen zeigen im Winter ein gänzlich anderes Temperaturverhalten, als im Sommer. Außerdem verfälschen Stau und Föhn die Luftmasseneigenschaften oft stark; Näheres unter (6) und (7).

Abbildungen 7a und b: Temperaturintervalle der Luftassen in den beiden Hauptjahreszeiten Winter (7a, oben) und Sommer (7b, unten) nach den Erfahrungen des Autors. Die großen Variationen resultieren im Winter vor allem aus den unterschiedlichen nächtlichen Bewölkungsverhältnissen (je klarer, desto kälter!) und den unterschiedlichen Wegen der Luftmassen nach Mitteleuropa; im Sommer kommt noch die Sonnenscheindauer hinzu (je sonniger, desto wärmer!). Auf die noch viel komplizierteren Übergangsjahreszeiten kann hier nicht eingegangen werden.

So kann die Luftmasse mP an einem windigen, trüben, regnerischen Sommertag nur Temperaturmaxima von 10 bis kaum 15°C (Flachland) erreichen; während bei voller Sonne und schwachem Wind angenehme 20 bis 23°C, ganz selten sogar fast 25°C, möglich sind. Und in klaren, windstillen Winternächten kann sich cP über einer Schneedecke auf unter minus 20°C abkühlen, während in trüben, windigen Nächten nur Werte um oder etwas unter minus 5°C möglich sind. Die folgende Tabelle zeigt weitere, wesentliche Luftmassen-Merkmale:

Abschließend sollen noch einige Fotos zur visuellen Veranschaulichung der Luftmasseneigenschaften gezeigt werden. Besonders alle Gläubigen der CO2-Klimaerwärmung sollten diese genau betrachten. Denn sie zeigen die WAHREN Beeinflusser unseres Klimas – Wolken und feste Luftbeimengungen.

Arktische Meeresluft (mA) mit kräftiger Quellbewölkung, guter Fernsicht und Graupelschauer, der als Fallstreifen sichtbar wird. Foto: Stefan Kämpfe

Arktikluft (xA) verursacht mitunter noch spät im Frühjahr kräftige Schneeschauer. Foto: Stefan Kämpfe

Kontinentale Subpolarluft (cP) unter Hochdruckeinfluss. Nach gefrierendem Nebel mäßiges Himmelsblau und mäßige Fernsicht. Foto: Stefan Kämpfe

Maritime Subpolarluft (mP) bei leichtem Hochdruckeinfluss. Foto: Stefan Kämpfe

Subpolarluft (xP) unter Hochdruckeinfluss. Meist gute Fernsicht bei ganz schwachem Dunst und mäßiger Quellbewölkung. Foto: Stefan Kämpfe

Kontinental gealterte Subpolarluft (cPs) unter Hochdruckeinfluss. In dieser im Hochsommer extrem trockenen Luftmasse entwickeln sich bei kräftigem Himmelsblau trotz guter Thermik oft nur spärliche Quellwolken, meist sehr gute Fernsicht. Foto: Stefan Kämpfe

Gealterte Subpolarluft (xPs) unter Hochdruckeinfluss. Diese oft aus mP über Mitteleuropa entstehende Luftmasse ist häufig etwas dunstig und weist fast stets Quellbewölkung auf, hier Cumulus fractus. Nicht selten wirkt die Lichtstimmung etwas kraftlos und bleiern; Fernaufnahmen gelingen nur selten; doch kann xPs mitunter auch sehr klar und mit intensivem Himmelsblau auftreten. Foto: Stefan Kämpfe

Erwärmte maritime Subpolarluft (mPs) unter Zwischenhocheinfluss. Mehr oder weniger kräftige Schichthaufenwolken bei oft guter Fernsicht und kräftigem Himmelsblau sind typisch. Da die Erwärmung dieser Luftmasse von unten erfolgt, weist sie in der Regel sehr starke vertikale Temperaturgradienten auf, was zu jeder Jahreszeit zu häufigen Schauern und Gewittern in dieser Luftmasse führt. Foto: Stefan Kämpfe

Kontinental gealterte Warmluft (cSp) im Herbst unter Hochdruckeinfluss. Morgendliche, meist flache Dunst- und Nebelfelder verschwinden auch in der kälteren Jahreszeit abseits der Flusstäler stets tagsüber; dann kann in dieser trockenen, fast immer sonnigen Luftmasse eine mitunter gute Fernsicht herrschen. Foto: Stefan Kämpfe

Warmluft (xSp) in einem Warmsektor mit Lenticularis-Wolken bei leichtem Föhn. Foto: Stefan Kämpfe

Kontinentale Subtropikluft (cS) unter Hochdruckeinfluss bei schwachem Föhn. Relativ gute Fernsicht und mäßiges Himmelsblau; diese Luftmasse kann öfters völlig wolkenlos sein. Foto: Stefan Kämpfe

Subtropikluft (xS) in einem Warmsektor. Mehr oder weniger dichte Cirrus-Felder, oft durch den Luftverkehr verstärkt, dazu Altocumuli bei deutlichem Ferndunst. Foto: Stefan Kämpfe

Subtropische Meeresluft (mS) unter schwachem Hochdruckeinfluss. Die meist tiefen Schicht- und Schichthaufenwolken lockern selten einmal auf; aber gerade im Winterhalbjahr herrscht eine gute Fernsicht. Foto: Stefan Kämpfe

Quellennachweis und weiterführende Literatur (nicht im Internet verfügbar)

  1. Geb, M.: Klimatologische Grundlagen der Luftmassenbestimmung in Mitteleuropa. Beilage SO 7/81 zur Berliner Wetterkarte des Instituts für Meteorologie der Freien Universität Berlin, 1981
  2. Pelz, J.: Luftmassen und Luftbeimengungen in Berlin-Dahlem. Beilage SO 7/94 zur Berliner Wetterkarte des Instituts für Meteorologie der Freien Universität Berlin, 1994
  3. Pelz, J.: Das Zeitverhalten des Schwebstaubes und der Niederschlagsbeimengungen in Berlin-Dahlem. Beilage SO 4/93 zur Berliner Wetterkarte des Instituts für Meteorologie der Freien Universität Berlin, 1993
  4. Koch, H. G.: Wetterheimatkunde von Thüringen. Jena 1953, Gustav-Fischer-Verlag
  5. Kämpfe, S.: Die Horizontalsichtweite – Anmerkungen zu einer interessanten meteorologischen Größe. Beilage Nr. 53/1999 zur Wetterkarte des Deutschen Wetterdienstes (Amtsblatt)
  6. Kämpfe, S.: Stau und Föhn in Thüringen. Beilage Nr. 25/1998 zur Wetterkarte des Deutschen Wetterdienstes (Amtsblatt)
  7. Kämpfe, S.: Nebel in Thüringen. Beilage Nr. 179/1997 zur Wetterkarte des Deutschen Wetterdienstes (Amtsblatt)



Klimaretten: 10 Tipps für den Kampf gegen das CO2

In Teil 1 geht es um: 1. Das Auto muss weg 2. Flugscham: Verzichte auf Reisen in ferne Länder 3. Klimasünde Kleidung

Teile 2 und 3 folgen in Kürze




Globale Mitteltemperatur steigt an? Nicht im Oktober 2020

Der 25. Solarzyklus ist im Oktober mit einer starken Entwicklung der Sonnenflecken in Erscheinung getreten. Lag die Sonnenfleckenzahl im September noch bei 0,7, belief sie sich im Oktober schon bei 14,4. Es wird nun spannend, zu verfolgen, ob der Zyklus so schwach wird, wie prognostiziert.

Die Energiewende wird an der Windenergie scheitern

Die Ziele der deutschen Energiewende sind energiepolitisch schlicht: Nach dem Ausstieg aus der Kernenergie bis 2022 folgt der Ausstieg aus der Kohle bis 2035, parallel und vollständig bis 2050 erfolgt der Verzicht auf Öl und Gas. Die Energie für Strom, Wärme, Mobilität und Industrielle Prozesse des klimaneutralen Deutschland sollen geliefert werden durch Windenergie, Solarenergie und wenige Prozente an Wasserkraft und Biomasse, so jedenfalls die Pläne der Bundesregierung, die von allen wesentlichen gesellschaftlichen Akteuren unterstützt werden.

Ist das realistisch?

Heute liefern Wind und Photovoltaik etwas weniger als 30 % der 600 Terawattstunden an Strom (1 Terawattstunde Twh sind 1 Milliarde Kilowattstunden Kwh). 126 Twh liefert die Windenergie und 46 Twh die Photovoltaik.

Für 600 TWh werden bei gleichem Mix 439 Twh Wind und 161 Twh Solar benötigt. Wir nehmen der Einfachheit halber an, dass diese Menge an Strom mit den größten Anlagen, nämlich 5 Megawatt-Anlagen erzeugt werden solle, die in einem Abstand von 1000 m platziert werden. Bei einem Jahresnutzungsgrad von 25 % produziert eine Anlage durchschnittlich 5 MW x 0,25 x 8760(Stunden) = 10950 Mwh =0,01095 Twh. Für 439 Twh benötigt man also 40 000 Anlagen. Dafür benötigt man eine Fläche von 200 km x 200 km.

Aber wir sind noch nicht am Ende.

Die Windenergie wird produziert, wenn der Wind bläst, nicht wenn der Verbraucher ihn benötigt. Bei einer Stromversorgung in Deutschland, die sich allein auf volatile Quellen stützt, können 36 % des jährlich erzeugten Stroms direkt verbraucht werden (Quelle: Dr. Ahlborn). Der Rest ist Überschusstrom, der gespeichert werden muss. Hier bietet sich aus wirtschaftlichen Gründen allein die Speicherung in Wasserstoff an. Dazu müssen eine gigantische Zahl an Elekrolyseuren errichtet werden. Es ist aber völlig unwirtschaftlich, die Kapazität nach den extremen Spitzen der Starkwindereignisse zu dimensionieren, daher müssen etwa 12 % der Windenergie abgeregelt werden. So verbleiben 52 % des erzeugten Stromes, der in Wasserstoff gespeichert werden kann. Durch Elektrolyse von Wasserstoff, Speicherung/Methanisierung und Rückverstromung bleiben von den 52 % nur 15,6 % übrig. Die Kette erzeugt einen Verlust von 2/3 der eingesetzten Strommenge.

36 % plus 15,6 % ergeben rd. 50 % des erzeugten Windstroms, die nutzbar sind. Wir brauchen also doppelt so viele Anlagen. Die Fläche für die 80 000 Windkraftanlagen beträgt 80 000 km², das entspricht einer Fläche von sind 283 km x 283 km.

Aber wir sind noch nicht am Ende.

Bislang haben wir mit 2 x 439 Twh nur den Strombedarf, aber nicht Verkehr und Wärmeversorgung abgedeckt.

Auch beim Verkehr (heute 600 Twh) und Wärme(heute 1200 Twh) gibt es Speicher- und Umwandlungsverluste, wenn der dafür notwendige Strom durch Wind und Solar erzeugt wird.

Wir betrachten hierfür nur noch den Wind, denn bei der Photovoltaik ist der Jahresnutzungsgrad mit 10 % Jahresvolllaststunden deutlich kleiner und der Flächenverbrauch um ein Vielfaches höher.

Wir nehmen zugunsten der Energiewendeplaner an, dass der Verkehr tatsächlich durch Batterieautos erfolgen kann, woran füglich gezweifelt werden kann. Schwerlastverkehr, Schiffsverkehr oder den Flugverkehr auf Strom umzustellen, ist schon abenteuerlich. Eher werden hier synthetische Kraftstoffe eingesetzt werden müssen. Aber auch hier ist die Strombilanz vernichtend. Wie Detlef Ahlborn zeigen konnte, verbraucht allein der Frankfurter Flughafen vor Corona 14,7 Millionen Liter Kerosin am Tag, das sind umgerechnet 4,3 Millionen Tonnen im Jahr. 4,3 Millionen Tonnen Kerosin entsprechen einem Energiewert von 47 Twh. Wollte man Kerosin aus Strom mit Hilfe von Wasserstoff synthetisieren (angenommener Wirkungsgrad 50 %) , werden also 100 Twh Strom benötigt. Allein für den Frankfurter Flughafen also fast so viel, wie die deutsche Windenergie heute erzeugt (126 Twh).

Wir nehmen zugunsten der Energiewende-Vertreter an, dass sich sämtlicher Verkehr mit Strom durchführen lässt und somit nur ein Viertel der heute von 600 Twh verbrauchten Energiemenge benötigt wird (da Stromautos um diesen Faktor effizienter sind) So werden aus 600 Twh 150 Twh. Wir wollen allerdings auch Auto fahren, wenn kein Wind weht. Daher muss auch dieser Strom, wie oben gezeigt, größtenteils über die Kette Wasserstoff, Speicherung, Wiederverstromung geführt werden, so dass sich der Strombedarf verdoppelt: 300 Twh.

Wir nehmen weiter an, dass sich der heutige Wärmebedarf von 1.200 Twh durch Elektrifizierung (Wärmepumpe) auch auf ein Viertel reduzieren lässt, so dass auch hier wegen der notwendigen Zwischenspeicherung des Windstroms über Wasserstoff die notwendige Verdoppelung der Windenergie zu 600 Twh führt. Nützt man synthetisches Gas aus Windstrom/Wasserstoff/Gas direkt, kommt man zu einer noch schlechteren Ausbeute, da hier die Effizienz der Wärmepumpe wegfällt.

Verkehr und Wärme führen also im günstigsten Fall zu einem Windstrombedarf von 900 Twh. Das ergibt einen Flächenbedarf von weiteren 80 000 km², so dass wir bei 160 000 km² angekommen sind.

Aber wir sind noch nicht am Ende, denn der schwierigste Teil ist noch ungelöst.

Die Prozessemissionen aus Stahl-, Chemie- und Zementindustrie (10 % des CO2-Ausstoßes) erfordern nach Schätzungen der Industrie 600 Twh. Das ist leicht nachvollziehbar, wenn man sich an das obige Beispiel des Frankfurter Flughafens erinnert. Und Kunststoffe, Pharmaka, Dämmstoffe, Farben, Lacke, Klebstoffe, Wasch-und Reinigungsmittel sind dann nur noch auf dem Wege CO2 plus Wasserstoff herstellbar.

Der Ersatz der industriellen CO2-Emissionen führt somit noch einmal zu 55 000 km² Windkraftanlagen, so dass wir bei 215.000 km² angekommen sind. 2/3 von Deutschland sind nun in einem Abstand von 1000m mit 200 Meter hohen Windkraftanlagen bestückt, egal ob da eine Stadt steht, eine Fluss oder eine Autobahn verläuft, ob es dort einen Wald, einen See oder ein Naturschutzgebiet gibt.

Können wir uns, kann die Politik sich ein solches Deutschland vorstellen?

Wer wissen will, welche Auswirkungen Windkraftwerke in großer Zahl auf das Aussterben von Greifvögeln, Fledermäusen, dem Rückgang von Insekten schon heute haben, kann dies in unserem Buch „Unerwünschte Wahrheiten“ nachlesen. Dort findet er auch die verschwiegene Tatsache, dass Windparks zu einer erheblichen Erwärmung in ihrem Einwirkungsgebiet führen von etwa 0,5° Celsius, da die rotierenden Flügel der Windkraftanlagen das starke Temperaturgefälle in der Nacht ausgleichen und wärmere Luft zurück zum Erdboden schaufeln. Zahlreiche Studien belegen eine erhebliche Austrocknung der Böden in den Windfeldern.

Doch die Politik verweigert die Diskussion über die Umweltverträglichkeit eines massiven Ausbaus der Windkraftanlagen. Kürzlich hat der Deutsche Bundestag beschlossen, dass bei Klagen gegen Anlagen, die höher als 50 Meter sind, die sogenannte aufschiebende Wirkung von Widerspruch und Anfechtungsklage entfällt. So kann Deutschland ohne lästigen Widerspruch zu einem einzigen großen Windfeld gemacht werden.

Es ist fast überflüssig darauf hinzuweisen, daß wir über astronomische Kosten sprechen. Elekrolyseure und Power-to-gas-Anlagen sind ja nicht kostenlos zu betreiben. Aus heutiger Sicht muss mit einem zehnfach höheren Strompreis gerechnet werden.

Die Folgen für Arbeitsplätze und Wohlstand kann sich jeder selbst ausmalen.




Wirkte Kohlendioxid 47 Jahre lang abkühlend?

Inzwischen existiert der selbst ernannten Weltklimarat und das PIK Potsdam, die praktisch per Satzung festgeschrieben haben, dass CO2 der alleinige Hauptverursacher einer fortdauernden menschengemachten Erwärmung wäre. Und dass die Zunahme ausschließlich vom Menschen erzeugt ist. Den Kohlendioxidanstieg der Atmosphäre bestreitet niemand. Die Messung am Mauna Loa, nach der eigentlich alle anderen CO2-Messstationen der Welt geeicht sind, zeigt die erste Abbildung.

Abb. 1: Seit 1958, dem Messbeginn nimmt der CO2-Gehalt in der Atmosphäre zu. Derzeit um etwa 2 ppm pro Jahr. Derzeitiger Stand 2020: 417 ppm

Zu dieser Gruppe an Klimawissenschaftlern, die sich selbst Klimafolgenwissenschaftler nennen, gehört auch, dass sie die CO2-Klimasensitiviät von 1,5°C bis 4,5°C aufgrund von Computersimulationen und Szenarien taxieren.

Diese Gruppe vor allem bei uns PIK Potsdam tritt radikal und Angst verbreitend auf und beherrscht die Medien. Radikal, weil sie wie eine Glaubensgruppe keine andere Meinung dulden. Inzwischen sind die Medien selbst zu deren Angsttreibern und Handlagern avanciert. Selbst Wissenschaftler, die eine geringere Sensitivität angeben, werden als Klimaleugner verunglimpft.

Ihr größter Trumpf ist dabei der Anstieg der Temperaturen, also die Wiedererwärmung nach der kleine Eiszeit, die auch in Mitteleuropa auf dem Boden des einstigen Kaiserreiches stattgefunden hat. Die DWD-Temperaturreihe seit 1881 sieht so aus

Abb. 2: Seit 1881 sind die Temperaturen im damaligen Kaiserreich, gemessen bei den damaligen Wetterstationen im Vergleich zur heutigen BRD bei den nun ganz anderen Stationen, deutlich gestiegen.

Dass somit ein großer Anteil des Anstieges vom Menschen erzeugten Wärmeinseleffekt bei den Stationen verursacht wird, soll hier zunächst außer Acht gelassen werden, genauso die Frage nach der Höhe des WI-Anteils. Wir tun so, als wären die Temperaturen vergleichbar und die Erhöhung würde ausschließlich durch Menschen verursachtes CO2 erzeugt. Dann wäre die Erwärmung beachtlich und hätte bereits 2 Grad seit 1881 überschritten.

Betrachten wir nun einzelne Zeitabschnitte bei den DWD-Deutschlandtemperaturen.

  1. Von 1881 bis 1940: Gleichmäßiger Anstieg der Jahrestemperaturen:

Abb. 3: Von 1881 bis 1940 zeigen die Temperaturen einen gleichmäßigen Anstieg, wobei 1940 ein ausgesprochenes Kaltjahr war. Ein Zeichen für einen Temperaturwechsel

  1. 1941 bis 1987: gleichmäßige Abkühlung in Deutschland.

Abb. 4: Im Zeitraum 1941 bis 1987, also 47 Jahre erlebte Mitteleuropa eine Abkühlungsphase. Wo bleibt die CO<sub>2</sub>– Treibhauswirkung?

Abb. 4: Im Zeitraum 1941 bis 1987, also 47 Jahre erlebte Mitteleuropa eine Abkühlungsphase. Wo bleibt die CO2– Treibhauswirkung?

  1. Seit 1988: Fortsetzung der Erwärmung

Abb. 5: In der dritten Phase der Temperaturbetrachtung setzt sich die bei Abschnitt 1 nach der kleinen Eiszeit begonnene Erwärmung fort.

Zusammenfassung:

Behauptet wird vom Mainstream, eine gut bezahlte Gruppe an Klimafolgenwissenschaftlern samt Medien, dass die Erwärmung seit der Industrialisierung ausschließlich durch den ebenfalls vom Menschen erzeugten CO2-Anstieg verursacht würde.

Im Zeitraum 1940 bis 1987, also 47 Jahre lang kühlte Mitteleuropa ab. Ein Zeitraum, in welchem diverse Klimawissenschaftler eine neue kleine Eiszeit vorhersagten.

Dieser 47-jährige Abkühlungszeitraum zeigt bereits, dass CO2 nichts mit der Temperaturentwicklung zu tun haben kann.

Unsere Frage war: Wirkte Kohlendioxid 47 Jahre lang abkühlend?

Antwort: Nein, CO2 hat entweder gar keine oder eine nur sehr untergeordnete Wirkung auf die Temperaturen.

Eine seriöse Klimawissenschaft sucht wertneutral nach den tatsächlichen Ursachen der ständigen Klimaschwankungen. Wann die nächste Abkühlungsphase oder der nächste Temperaturstillstand bevorsteht wissen wir nicht. Spannend sind allerdings die Vorhersagen.

Zum Wärmeinseleffekt: In allen drei Phasen der Betrachtung ist dieser bei den Wetterstationen gestiegen. Dadurch ist die Trendlinie in Phase 1 etwas weniger steil, in Phase 2 etwas stärker fallend und in Phase 3 wieder weniger steil ausgefallen als …

ja, als wenn sich Deutschland überhaupt nicht seit 1881 verändert hätte.

Fazit: Will man den menschengemachten Anteil an der Erwärmung bekämpfen, dann müsste man die weitere Bebauung, Technisierung und Trockenlegung der Landschaft einstellen. Eine CO2-Einsparung bewirkt nichts, das zeigt die Graphik 4 im Vergleich zum CO2-Anstieg




Gibt es einen Treibhaus­effekt?

1. Einleitung

Der Begriff Treibhauseffekt verleitet zur Annahme, dass man diesen Effekt mit dem Modell eines bestrahlten Gewächshauses, mit und ohne CO2, demonstrieren kann. Bereits 1909 hatte Robert Wood jedoch herausgefunden, dass sich ein Gewächshaus nur deshalb erwärmt, weil es das Aufsteigen und Entweichen erwärmter Luft verhindert. In der Folgezeit wurde Wood‘s Experiment mehrfach wiederholt und seine These bestätigt (Nasif S. Nahle, 2011 [1]; Jan-Eric Solheim, 2017 [2]).

Einen besonders hohen Temperatur-Anstieg konnte Hoimar von Ditfurth 1978 [3] bei einem spektakulären Selbst-Versuch erzielen. Eine Überprüfung des Ditfurth-Experimentes ergab, dass der beobachtete Temperatur-Anstieg einem Schichtungseffekt geschuldet ist, der ähnlich wie eine Mehrfachverglasung von Fenstern eine sehr gute Wärmeisolierung verursacht (M. Schnell, 2020) [4]). Eine solche Schichtung tritt auf, wenn reines CO2 von unten in eine Vorrichtung eingebracht wird. Ist das CO2, wie in der Atmosphäre, gleichmäßig mit der Innenluft vermischt, gibt es bei einem Treibhaus-Modell nur eine minimale oder gar keine Luft-Erwärmung. Mit diesen Treibhaus-Experimenten kann der Treibhauseffekt grundsätzlich nicht nachgewiesen werden, was einen neuen Denkansatz erforderlich macht.

Es ist unbestritten, dass CO2 ein infrarot (IR) aktives Gas ist und Wärmestrahlung absorbieren und auch wieder emittieren kann, was durch eine Vielzahl von IR-Spektren nachgewiesen ist. Diese Daten sind in der HITRAN-Datenbank [5] auch für die Öffentlichkeit zugänglich. Strittig ist, ob und in welchem Umfang die Temperatur der Erde durch CO2 beeinflusst wird (H. Harde, 2014 [6]; H. Harde, 2017 [7]). Der erste Teil dieser Fragen, ob auch kältere Treibhausgase zu einem Temperatur-Anstieg eines wärmeren, beheizten Körpers beitragen können, soll durch eine neue experimentelle Untersuchung geklärt werden.

Zunächst muss man sich bewusst machen, dass Energie in ganz verschiedenen Formen auftreten kann und in der Atmosphäre durch eine Reihe unterschiedlicher Mechanismen transportiert wird. Dazu gehören vertikale und horizontale Luftströmungen, Verdampfung, Kondensation und Gefrieren von Wasser, Wärmeleitung der Luft aber auch Wärmestrahlung (IR-Strahlung). Der Treibhauseffekt betrifft nur den letzten Fall, den Austausch von Wärmestrahlung der Erdoberfläche mit verschiedenen Schichten der Atmosphäre und den dort vorhandenen IR-aktiven Bestandteilen. Diese IR-aktiven Komponenten der Atmosphäre können Treibhausgase, Aerosole oder Wolken sein.

2. Versuchsaufbau

Man benötigt also einen Versuchsaufbau, der einen Strahlungstransport von A nach B realisiert, was in dem vorgestellten Experiment durch eine 30 °C warme und eine -1,8 °C kalte Fläche ermöglicht wurde, die einen Abstand von 1,11 m voneinander besitzen. Im Gegensatz zu den o.g. Treibhaus-Experimenten wird hier keine Bestrahlung mit einer Lichtquelle vom sichtbaren bis zum mittleren infraroten Spektralbereich verwendet, sondern Wärmestrahlung untersucht, die auch bei der Erde und der Atmosphäre in dieser Form auftritt. Wärmeströme, die nicht zum Strahlungsaustausch gehören, müssen durch entsprechende Maßnahmen verhindert oder minimiert werden.

Abb. 1 zeigt den schematischen Aufbau der Apparatur und die wichtigsten Bauteile. Ihre senkrechte Aufstellung, mit der warmen Fläche in oberster Position, erzeugt eine stabile Luftschichtung, die per se eine vertikale Luftbewegung (Wärmestrom durch Konvektion) verhindert (kalte Luft steigt nicht auf).
Ein möglicher Energietransport mittels Wasserdampf (latente Wärme) kann ausgeschlossen werden, da entweder getrocknete Luft oder Argon als Gasfüllung eingesetzt wird (siehe Anhang).

Wärmeleitung, sowohl durch die Gefäßwand oder längs der Gasphase, lässt sich nicht verhindern, wohl aber minimieren. So befindet sich die warme Fläche (Erd-Platte) in einem halbkugelförmigen Raum (Dom) (Abb. 1), der von außen mit einem Vinylschlauch umwickelt ist. Durch diesen Schlauch fließt Wasser mit einer konstanten Temperatur von 29,6 °C. Wegen der geringen Temperatur-Differenz von 0,4 K zwischen Dom und Erd-Platte gibt es in diesem Bereich auch nur eine geringe Wärmeleitung.

Die konstante Dom-Temperatur ist essentiell für diese Untersuchung und wird durch eine konstante elektrische Heizung des Wassers für die Dom-Heizung erreicht.

Die hohe Temperatur des Domes garantiert eine gute thermische Isolierung der Erd-Platte, aber ist auch gleichzeitig eine Orientierungshilfe für die Auswertung der Versuche. Der Dom hat eine polierte Edelstahloberfläche, wodurch sie weitgehend unempfindlich für Wärmestrahlung ist. Eine mögliche Erwärmung der schwarzen Erd-Platte nach Zugabe von Treibhausgasen lässt sich dann visuell am zunehmenden Abstand zur Dom-Temperatur erkennen (Abb. 2 und folgende).

Die Erd-Platte hat von vornherein die höchste Temperatur im Versuchsaufbau (0,4 K höher als der Dom und wesentlich höher als alle anderen Teile der Apparatur und auch höher als die Probengase). Dadurch ergibt sich ein kleiner, unvermeidbarer Wärmestrom von der Erd-Platte hauptsächlich zum Dom aber auch zur Gefäßwand und zur kalten unteren Platte. Erwärmt sich die Erd-Platte, nimmt dieser Wärmeverlust noch zu. Ohne diese Störung wäre ein noch höherer Temperatur-Anstieg möglich, als er hier beobachtet wurde. Der Wärmestrom zum Dom lässt sich verringern, indem man die Dom-Temperatur während eines Versuches parallel zur Erd-Temperatur erhöht. Das soll bei der vorliegenden Untersuchung jedoch nicht geschehen, um jeden Verdacht einer Manipulation kategorisch auszuschließen.

Die Wärmeleitung der Gase, zwischen warmer und kalter Platte, ist von Natur aus sehr gering, da Gase schlechte Wärmeleiter sind. Trotzdem könnte hier ein Einfluss der unterschiedlichen Wärmeleitfähigkeiten von Luft und den Probengasen vermutet werden. Das ist ein ernstzunehmendes Argument, das durch Kontroll-Experimente mit Edelgasen entkräftet werden kann.

Die Methodik der Versuche orientiert sich an der erfolgreichen Untersuchung zum „Ditfurth-Experiment“, das sich durch eine hohe Transparenz auszeichnet (M. Schnell, 2020 [4]). Es geht nicht um eine einzige Temperatur-Angabe, nach dem Motto „Friss oder Stirb“, sondern um eine lange Beobachtungsphase mit mehr als siebzig Temperatur-Daten, die in den Diagrammen auf einer Zeitachse von links nach rechts verfolgt werden können.

Die ersten 90 Minuten, vor Zugabe eines Probegases, sollen zeigen, dass sich die Erd-Platte im thermischen Gleichgewicht befindet. Die elektrische Heizung der Erd-Platte entspricht dem Wärmeverlust durch Wärmestrahlung und Wärmeleitung (Input = Output). Die Erd-Platte hat dabei eine konstante Temperatur von 30,0 °C. Die Anzeige-Genauigkeit beträgt ±0,13 K, d.h. um diesen Wert verändert sich die digitalisierte Temperaturanzeige der Erd-Platte bei Erwärmung. Eine Temperatur-Änderung von ±0,13 K wird deshalb als LOD (limit of detection) gewertet. Der Treibhauseffekt gilt als nachgewiesen, wenn bei einem Experiment ein deutlicher Temperatur-Anstieg ∆TpE >> LOD registriert wird, also ein Mehrfaches des LOD-Wertes.

Nach Ablauf der 90-minütigen Messungen mit der luftbefüllten Apparatur werden die Probengase mit einer Geschwindigkeit von 1 l/min von unten in die Apparatur eingeleitet. Danach wird für kurze Zeit mit einer Aquarien-Pumpe die Innenluft aus dem oberen Gasrohr abgesaugt und in das untere Gasrohr (in den Totraum unterhalb der kalten Platte) wieder eingeleitet (Abb. 1). Durch dieses Umpumpen werden die Probengase aus dem Totraum verdrängt und eindeutig zwischen warmer und kalter Platte positioniert. Die Zugabe der Probengase und das Umpumpen sind die einzigen äußeren Eingriffe während eines Experimentes. Von nun an wird nur noch beobachtet, wie sich die Messwerte verändern.

3. Wirkung der Probengase bei konstanter Heizung der Erd-Platte

3.1 Das CO2-Experiment

Eine Messung mit CO2 als Probengas bei einer Konzentration von 15,4 Vol.-% in trockener Luft ist in Abb. 2a wiedergegeben.
Zum Vergleich: bei dieser Konzentration und einem Abstand der Platten von 1,1 m entspricht dies etwa der Absorption und Emission, wie dies von 100 ppm CO2 (ohne andere Treibhausgase) in der Atmosphäre zu erwarten wäre.

Unmittelbar nach dem Einleiten und Umpumpen, befindet sich das CO2 im Bereich des Tp4-Sensors bei rund 12 °C, also 18 K kälter als die Erd-Platte (siehe Abb. 2b). Trotzdem reagiert die weit entfernte Erd-Platte nur wenige Minuten nach Beginn der CO2-Einleitung mit einem deutlichen Temperatur-Anstieg. Diese CO2-Schicht dehnt sich langsam durch Diffusion in der gesamten Apparatur aus, wobei immer wärmere Regionen erreicht werden. Die Erd-Platte reagiert hierauf mit einem kontinuierlichen Temperatur-Anstieg, der bei 290 Minuten ein Maximum von ∆TpE = 0,9 K erreicht. Auch ein weiteres 10-minütiges finales Umpumpen verändert diesen Wert nicht mehr.

An dieser Stelle soll erinnert werden, dass bei der Überprüfung des Ditfurth-Experimentes ein finales Umpumpen ein „KO“-Kriterium war. Der ursprüngliche Temperatur-Anstieg verschwand beim Umpumpen, dem Homogenisieren der Gasmischung, und das Ditfurth-Experiment konnte als fake entlarvt werden (M. Schnell, 2020 [4]).

Offensichtlich ist das neue experimentelle Konzept nicht mit den vielen „Treibhaus-Experimenten“ in der Art von Ditfurth & Co. vergleichbar. Auch bei den Temperaturen des Gasraumes zwischen warmer und kalter Platte gibt es gravierende Unterschiede. Über die gesamte Messzeit zeigen die Sensoren eine konstante Temperatur und einen stabilen Gradienten von 27,3 °C bei Tp1 bis 12,6 °C bei Tp4. Die Zugabe von CO2 führt zu keiner signifikanten Temperatur-Änderung an diesen Messpunkten (Abb. 2b).

Die konstanten Temperaturen der Gasphase sollten aber nicht überbewertet werden, da die Dom-Temperatur absichtlich konstant gehalten wurde, um Manipulationsvorwürfe zu vermeiden.

Würde man die Dom-Temperatur im gleichen Abstand zur Temperatur der Erd-Platte erhöhen, würden auch die Temperaturen der benachbarten Luftschichten leicht ansteigen. Das ist allerdings eine andere Geschichte und Gegenstand der laufenden experimentellen Untersuchung zur Klimasensitivität von CO2.

Reaktion der Thermoelemente

Gemäß dem Seebeck-Effekt entsteht in einem Stromkreis aus zwei verschiedenen elektrischen Leitern eine elektrische Spannung, die u.a. von der Temperaturdifferenz zwischen den Kontaktstellen abhängig ist. Auf die kalte Platte wurden fünf Thermoelemente geklebt, die auf ihrer Unterseite von der Temperatur der kalten Platte und auf ihrer Oberseite von den Wärmeströmungen in der Röhre beeinflusst werden. Diese Elemente sind in Reihe geschaltet, und ihre Klemmspannung wird von einem empfindlichen Voltmeter registriert.

Beim CO2-Einleiten entsteht in den ersten Minuten ein „CO2-See“ oberhalb der kalten Platte, der wegen eines Schichtungs-Effektes und einer geringeren Wärmeleitfähigkeit von CO2 zu einem Wärmestau führt (M. Schnell, 2020 [4]). Das hat zur Folge, dass der kalten Platte weniger Wärme von der wärmeren Röhre (im Bereich von Tp4) zufließt. Die Oberseite der Thermoelemente kühlt sich ab und die ursprüngliche Spannung von Th = 74,6 mV geht um ∆Th = -16,8 mV zurück. Beim Umpumpen wird die CO2-Schicht etwas angehoben und wärmere Luft umströmt die Thermoelemente, wodurch die Spannung kurzzeitig bis auf Th = 76 mV wieder ansteigt. Nach Beendigung des Pumpens bildet sich erneut ein leichter Wärmestau aus, und die Spannung sinkt auf Th = 70,7 mV. Im Verlauf der Diffusion kommt es dann zu einer gleichmäßigen Vermischung von CO2 und der Innenluft, wodurch der Schichtungs-Effekt beseitigt wird und sich die Spannung der Thermoelemente Th langsam dem Ausgangswert von Th = 74,6 mV annähert (Abb. 2c). Die finale Differenz von ∆Th = -1,6 mV ist der geringeren Wärmeleitung einer 15%igen CO2-Luft-Mischung geschuldet.

Die Reaktion der Thermoelemente zeigt, dass man die Einleitung schwerer Gase und ihre anschließende Diffusion sehr gut verfolgen und somit auch dokumentieren kann. Diese Eigenschaft wird sich später beim Argon-Versuch bezahlt machen.

3.2 Das Propan-Experiment

Propan ist ein wesentlich stärkeres Treibhausgas als CO2. Man erreicht mit nur 13 % der CO2-Menge (4,5 g Propan vs. 35,3 g CO2 bzw. 2 Vol.-% Propan vs. 15,4 Vol.-% CO2) einen ungefähr gleichen Temperatur-Anstieg von ∆TpE = 0,8 K wie beim CO2 (Abb. 3a).

Der Versuch wurde in Argon durchgeführt, um den Einfluss der Wärmeleitung auf die Reaktion der Thermoelemente zu untersuchen. Argon hat eine kleinere Wärmeleitfähigkeit als Luft (0,018 vs. 0,026 W/(m∙K)) aber eine etwas größere als Propan (0,015 W/(m∙K)). Demzufolge verursacht die Einleitung von Propan auch nur einen geringen Rückgang der Spannung der Thermoelemente ∆Th = 4,6 mV, der schon beim Umpumpen wieder den Ausgangswert erreicht, was zu beweisen war.

Während der Diffusion des Propans steigt die Spannung der Thermoelemente Th jedoch weiter an und ist am Ende sogar 4,3 mV höher als der Anfangswert, obwohl mit Propan die Wärmeleitung zwischen Wand und kalter Platte weiter leicht reduziert wird und eher eine niedrigere Spannung zu erwarten wäre. Dieser Anstieg von Th ist nur durch die Emission von IR-Strahlung durch Propan in Richtung der kalten Platte zu erklären, da ein Treibhausgas nicht nur Wärmestrahlung absorbiert, sondern in gleichem Maße aufgrund seiner Eigentemperatur auch wieder emittieren kann. Gleichzeitig kühlt sich dabei das Gasgemisch leicht ab (siehe Abb. 3b).

Um einem Missverständnis vorzubeugen, diese zusätzliche Ausstrahlung und die Abkühlung der Gasphase ist ein Phänomen der Labor-Experimente. Dies wird durch die Konstruktion der Apparatur verursacht und soll nur als ein weiterer Beweis des Treibhauseffektes verstanden werden. Dieser Effekt wird durch die geringe Größe der Erd-Platte im Vergleich zum Dom und Röhren-Durchmesser verursacht. Die anderen (verspiegelten) Flächen senden nur eine geringe Wärmestrahlung aus, die in diesem Fall vom Propan übertroffen wird.

In der Atmosphäre gibt es solche Energieströme nicht. Die Temperaturen der Troposphäre werden hauptsächlich durch den Druckgradienten der Atmosphäre (adiabatische Temperaturänderung von Luftpaketen) und Wetterphänomenen bestimmt. Ob und in welchem Umfang Treibhausgase einen Einfluss auf die Temperatur der Troposphäre haben, ist umstritten und kann nicht durch einfache Labor-Experimente entschieden werden.

3.3 Das Freon-Experiment

Das Freon-Experiment (Abb. 4a u. 4b) zeigt sowohl bei den Thermoelementen als auch bei den Temperaturen ähnliche Ergebnisse wie das Propan-Experiment. Bemerkenswert ist die sehr kleine Menge an Freon 134a, die mit 0,13 Vol.-% bereits einen Temperatur-Anstieg von knapp 1,2 K verursacht. Die Wärmeleitung von Gasmischungen geringer Konzentration errechnet sich in guter Näherung über den Molenbruch. Eine relevante Veränderung der mechanischen Wärmeflüsse ist angesichts der kleinen Freon-Konzentration bei vollständiger Durchmischung nicht zu erwarten.

3.4 Das Argon-Kontrollexperiment

Die Zugabe von Argon als Probengas in die mit trockener Luft befüllte Apparatur hat keinen messbaren Einfluss auf die Temperaturen der Erd-Platte und der Luft. Dass überhaupt Argon eingeleitet wurde, wird am vorübergehenden Rückgang der Spannung der Thermoelemente ∆Th = -11,5 mV erkennbar (Abb. 5a). Beim Einleiten bildet sich eine Argon-Schicht, die die Wärmeleitung im Bereich der Thermoelemente durch einen Schichtungseffekt erheblich verringert. Umpumpen und Diffusion beseitigt die Schichtung, und die Spannung der Thermoelemente Th erreicht wieder annähernd den Ausgangswert (siehe Abb. 5b) wie bereits beim CO2 beobachtet (Abb. 2c). Damit wird nachgewiesen, dass der Spannungsrückgang ∆Th durch einen Schichtungs-Effekt beim Einleiten schwerer Gase verursacht wird.

3.5 Das Helium-Kontrollexperiment

Da Helium leichter als Luft ist, wird es von oben unterhalb der Erd-Platte eingeleitet. Ein Umpumpen ist hier nicht erforderlich, da es bei der Erd-Platte keinen Totraum gibt.
Helium hat eine wesentlich höhere Wärmeleitfähigkeit als Luft (0,157 vs. 0,026 W/(m∙K)), trotzdem hat die Temperatur der Erd-Platte auch nach 350 Minuten immer noch den Anfangswert (Abb. 6). Ein deutliches Zeichen, dass die Wärmeleitung der Gase keine Rolle spielt. Damit lässt sich Wärmeleitung als mögliche Erklärung der oben geschilderten Temperatur-Anstiege in Gegenwart von Treibhausgasen endgültig ausschließen.

Nur direkt beim Einleiten von Helium kommt es zu einem leichten Temperatur-Rückgang von TpE, da das kalte Helium an der Erd-Platte vorbeiströmt.

Bemerkenswert sind die Thermoelemente, die bei diesem Versuch, keine Reaktion zeigen. Da das Helium von oben, weit von den Thermoelementen entfernt, eingeleitet wird, kommen diese Sensoren erst nach vollständiger Diffusion in Kontakt mit dem Edelgas. Es gibt somit keinen Schichtungs-Effekt und selbst die 13 %-ige Helium-Luft-Mischung am Ende des Versuches macht sich bei den Thermoelementen nicht bemerkbar.

4. Wirkung von Freon 134a bei konstanter Temperatur der Erd-Platte

Bis zur 235. Minute sieht der Versuch Freon Nr. 15 wie eine Wiederholung des Freon-Experimentes Nr. 13 aus (siehe Abb. 7a bis 7c). Aber es gibt einen Unterschied: Die kalte Platte ist rund 10 K kälter als beim vorherigen Experiment. Trotz der geringeren Temperatur der kalten Platte (TpK = -11.4 ° vs. TpK = -1,8 °C) ist der Temperatur-Anstieg ∆TpE der Erd-Platte um 0,55 K größer als beim Experiment 13 (∆TpE = 1,69 vs. ∆TpE = 1,17 K).
Schon früher wurde auf diesen scheinbar paradoxen Zusammenhang hingewiesen (M. Schnell, [8]). Die Temperatur der kalten Platte spielt beim Treibhauseffekt eine wichtige Rolle. Bei einem geringeren Temperatur-Unterschied zwischen den Treibhausgasen und dieser Platte wird die Strahlung der Moleküle stärker durch die Hintergrundstrahlung der kalten Platte überlagert (ähnlich der Hintergrundstrahlung, die durch Wolken in der Atmosphäre verursacht wird, siehe auch H. Harde [7]). Bei identischen Temperaturen gibt es keine Erwärmung der Erdplatte durch das IR aktive Gase. Ein Phänomen, das weiterer experimenteller Untersuchungen bedarf, aber für die aktuelle Fragestellung, bei der es um den prinzipiellen Nachweis des Treibhauseffekts geht, keine Rolle spielt.

Nach Feststellung der maximalen Temperatur-Erhöhung ∆TpE(max) wird die Heizung schrittweise solange reduziert, bis die Erd-Platte wieder die Anfangs-Temperatur von 30 °C hat. Dabei zeichnet sich Freon durch eine besonders gute „Wärmeisolierung“ aus. Die geringe Konzentration von 0,13 Vol.-% Freon (0,15 l) bewirkt, dass die Heizung der Erd-Platte um rund 11 % von 169,9 W/m2 auf 151,2 W/m2 gesenkt werden muss. Dieser Isolations-Effekt wird jedoch nicht durch Wärmeleitung, sondern durch einen veränderten Strahlungsaustausch verursacht (siehe Kap. 5). Erinnert sei hier an das Argon-Kontrollexperiment (Kap. 3.4), das trotz einer 10-fachen Menge an Argon (15 l) keinen Isolations-Effekt zeigte.

Damit weist dieses Experiment überzeugend nach, dass die von Freon ausgehende Wärmestrahlung von der Erd-Platte als sogenannte Gegenstrahlung aufgenommen wird und dies unter den gegebenen experimentellen Bedingungen (Konzentration des Gases, Temperatur, „eingesehener“ Raumwinkel) zu einer entsprechend geringeren Heizleistung von rund 19 W/m2 führt.

5. Die Heizung der Erd-Platte

Bei diesem Versuch geht es vordergründig um die Frage: „Wie verändert sich die Temperatur der Erd-Platte, wenn ihre Heizung verzögert eingeschaltet wird?“

Das Experiment beginnt mit den gleichen Vorbereitungen wie in Kap. 2 angegeben, jedoch ohne Heizung der Erd-Platte. Die ersten 86 Minuten zeigen, dass die Erd-Platte im thermischen Gleichgewicht eine Temperatur von 19,2 °C annimmt, wenn ihre Heizung ausgeschaltet ist (Abb. 8a). Sie ist jetzt 10,4 K kälter als ihre unmittelbare Umgebung, dem Dom, der dank seiner Wasser-Heizung 29,6 °C warm ist. Das ist vergleichbar mit der Abkühlung von Körpern, die einem kalten Himmel ausgesetzt sind, was in unseren Breiten z.B. als Strahlungsfrost bekannt ist.

Das Experiment, das man als einen weiteren Test bezeichnen kann, soll nachweisen, dass die Temperatur der Erd-Platte hauptsächlich durch Strahlungsaustausch I mit der 1,11 m entfernten kalten Platte bestimmt wird.

Der Strahlungsaustausch I beschreibt den Wärmeverlust eines warmen Körpers in einer kalten Umgebung. Es ist ein Wärmeverlust, der ausschließlich durch einen gegenseitigen Austausch von Wärmestrahlung verursacht wird. Beim Einschalten der Heizung steigt die Temperatur der Erd-Platte und damit erhöht sich auch ihre Wärmestrahlung. Die Thermoelemente reagieren auf diese zusätzliche Wärmestrahlung mit einem Anstieg der Spannung ∆Th um 15,1 mV, synchron zur Temperatur der Erd-Platte.

Aus dieser Beobachtung lässt sich die Reaktion der Thermoelemente wie folgt erklären:

  • Ein Anstieg der Spannung Th zeigt die von oben kommende Wärmestrahlung.
  • Ein Absinken von Th zeigt vor allem die geringe Wärmeleitung schwerer Gase bzw. einen Schichtungs-Effekt.

Die Temperatur der ungeheizten Erd-Platte von 19,2 °C ergibt sich aus dem Wärmeverlust durch Strahlungsaustausch I (hauptsächlich mit der kalten Platte) und Zufuhr von Wärme Q aus seiner wärmeren Umgebung (Dom).
Beim Einschalten der Heizung verändern sich die Temperatur-Differenzen zwischen Erd-Platte, Dom und kalter Platte, wodurch der Wärmestrom Q abnimmt und der Strahlungsaustausch I zunimmt. Es stellt sich ein neues Gleichgewicht bei der Erd-Platten-Temperatur von 30 °C ein.
Unter der Annahme, dass bei nahezu gleichen Temperaturen von Dom und Erd-Platte der Wärmestrom Q vernachlässigt werden kann, lässt sich der Strahlungsaustausch I mit der Stefan-Gleichung berechnen (Wikipedia [8]).

Für E=1 (Emissionsaustauschgrad), TE = 303,15 K (30 °C) und TK = 271,35 K (1,8 °C) errechnet sich eine Intensität I für den Strahlungsaustausch mit B als Boltzmann-Konstante:

Tatsächlich wird für die Temperatur der Erd-Platte von 30 °C aber nur eine elektrische Heizleistung von 143 W/m2 benötigt, also nur 83 % des theoretischen Strahlungsaustausches I. Dieses bestätigt sich auch weitgehend, wenn die kalte Platte auf -11,4 °C gekühlt wird. In diesem Fall beträgt wurde eine Heizleistung von 169,9 W/m2 benötigt, entsprechend 80% des theoretischen Wertes. Diese so ermittelten Leistungen sind ein Qualitätsmerkmal der Apparatur und zeigen, wie die Apparatur auf die Wärmestrahlung der kalten Platte reagiert.

Die Abweichung vom theoretischen Wert entsteht durch einen zweiten Strahlungsaustausch I‘ der Erd-Platte mit der Röhre. Die Röhre hat eine höhere Temperatur als die kalte Platte, wodurch die Erd-Platte weniger Wärme in dieser Richtung verliert.

Die Messungen der Lufttemperatur zeigen, dass sich beim Einschalten der Heizung hauptsächlich die Luft in der Nähe der Erd-Platte, im Bereich der Messstelle Tp1, erwärmt (Abb. 8b).

6. Fazit

Der Versuchsaufbau des Experimentes kann als ein Modell bezeichnet werden, das den Strahlungsaustausch der Erdoberfläche unter einer Wolkenschicht abbildet. Die gewählten Temperaturen einschließlich eines Temperatur-Gradienten zwischen Erd- und kalter Platte können auch auf der Erde und in der Atmosphäre gefunden werden.
Andere Parameter wie die Sonnenstrahlung, der Einfluss von Wasserdampf, ein Druckgradient, vertikale und horizontale Luftströmungen, Wärmetransport durch latente Wärme und viele Wetter-Phänomene werden von dem Versuchsaufbau nicht berücksichtigt. Es lassen sich somit auch keine Global-Temperaturen der Erde ableiten oder gar vorhersagen.

Alle ermittelten Temperaturen sind nur Demonstrationen, die zeigen, dass Treibhausgase grundsätzlich zur Erwärmung der Erde beitragen können, dass der Treibhauseffekt physikalisch möglich ist.
Die gezeigten Diagramme sind nur eine kleine Auswahl von rund 50 durchgeführten Experimenten. In allen Fällen, ohne Ausnahme, verursachte die Zugabe eines IR-aktiven Gases eine Temperatur-Erhöhung der Erd-Platte, trotz konstanter Heizung dieser Platte und konstanter Temperatur ihrer unmittelbaren Umgebung.

Bisher vorgebrachte Einwendungen gegen einen Treibhauseffekt wurden bei den Untersuchungen weitgehend berücksichtigt. So konnte eindeutig gezeigt werden, dass ein beheizter Körper, hier die Erd-Platte, sich auch in Gegenwart deutlich kälterer Treibhausgase erwärmt. Es wurde demonstriert, dass der Erwärmungs-Effekt sowohl von der Gas-Temperatur als auch von der Art des Gases abhängt. Auch eine sehr kleine Menge eines IR-aktiven Gases spricht nicht gegen den Treibhauseffekt, der aufgrund der langen Ausbreitungswege von Strahlung in der Atmosphäre auch dann noch einen deutlichen Einfluss verursachen kann.
Die Gastemperaturen sind kleiner als die der Erd-Platte und verändern sich während eines Versuches nicht oder sinken sogar leicht. Die Erwärmung der Erd-Platte kann somit nicht durch einen Wärmestrom aus ihrer Umgebung erklärt werden.

Kontrollexperimente mit den Edelgasen Argon und Helium, zeigen, dass die unterschiedliche Wärmeleitfähigkeit dieser Probengase im Vergleich zu Luft keinen Einfluss auf die Temperatur der Erd-Platte haben.

Die Ursache für die Erwärmung der Erd-Platte ist die Fähigkeit der Treibhausgase, nicht nur IR-Strahlung zu absorbieren, sondern aufgrund ihrer Eigentemperatur auch Strahlung auf den gleichen Wellenlängen wieder zu emittieren. Hierdurch wird die bereits vorhandene Gegenstrahlung der kalten Platte weiter verstärkt. Entsprechend der Stefan-Gleichung wird dadurch bei konstanter Temperatur der Erdplatte der Transport von Energie von der Erd-Platte zur kalten Platte verringert. Das hat allerdings ein Ungleichgewicht von Input und Output zur Folge. Wegen der Energieerhaltung muss sich die Erd-Platte erwärmen, um bei einer höheren Temperatur das Gleichgewicht von Input und Output wieder herzustellen.
Vereinfacht ausgedrückt handelt es sich beim Treibhauseffekt im Grunde um eine Art „Isolations-Effekt“, der beim Austausch von Wärmestrahlung wirksam wird (wie unsere Bettdecke, die uns nachts schön warm hält, nur dass wir hier eine Gasschicht haben und von Wärmestrahlung sprechen).

In einigen weiteren Experimenten konnte diese Wärmestrahlung auch für Propan und Freon 134a nachgewiesen und quantifiziert werden.

Eine Klimasensitivität kann aus den Versuchen nicht abgeleitet werden, da die Temperatur des Doms, die unmittelbare Umgebung der Erd-Platte, konstant gehalten wurde. Der gefundene Temperatur-Anstieg von 0,9 K bei einer recht hohen CO2 Menge lässt jedoch jetzt schon ahnen, dass die IPCC-Angaben bezüglich der CO2-Wirkung wohl deutlich zu hoch gegriffen sind. Der Streit um die CO2-Klima-Katastrophe wird also weitergehen. Danach lautet die strittige Frage nicht ob, sondern wie hoch der CO2-Treibhauseffekt ist. Das ist jedoch eine andere Geschichte und Gegenstand einer weiteren experimentellen Untersuchung.

Danksagung:

Herrn Ing. Ulrich Tengler danken wir an dieser Stelle für seine Unterstützung und die kostenlose Überlassung des Kryostaten Isotemp 1016S.

Anhang

Versuchsablauf: Am Tag vor einem Experiment wird eine Natronlauge-Kassette zwischen Pumpe und Sauerstoffsensor geschalten und für 4 Stunden die Innenluft mit 1,5 l/min im Kreis gepumpt, wodurch Wasserdampf und CO2 entfernt werden (Siehe Abb. 1). Im Falle von Argon als Gasfüllung, werden 300 Liter Argon von unten in die oben offene Apparatur geleitet, wodurch die Luft verdrängt wird.

Nachts, um 1:30 Uhr werden mit einer Schaltuhr Kühlaggregat, Domheizung und Raum-Thermostatisierung in Betrieb genommen und nach einer gewissen Verzögerung die Heizung der warmen Platte eingeschaltet.
Für die elektrische Heizung der Erd-Platte wird ein digitales Labornetzgerät (KA3005D) im Konstant-Spannungsbetrieb mit einer Auflösung von 0,01 V verwendet. Die erforderliche Heizleistung für die 219 cm2 große Erd-Platte wird mit dem Faktor 45,654 multipliziert, um auf die Heizung einer Fläche von 1 m2 umzurechnen.
Gegen 7:30 Uhr beginnt die computergestützte Aufzeichnung der Messwerte für TpE, TpK und Dom Temperatur im Minutentakt. Alle 6 Minuten wird ein Durchschnittswert der letzten 6 Minuten errechnet und für eine Excel-Tabelle gespeichert. Alle anderen Daten werden manuell in gewissen Zeitabständen abgelesen.
Mit den ersten 90 Minuten wird die Konstanz aller Messwerte innerhalb eines Schwankungsbereiches von ± 0,13 K demonstriert. Gegen 9:00 Uhr wird das Probegas von unten in die Apparatur eingeleitet und danach für kurze Zeit mit einer Aquarium-Pumpe die Luft aus dem Dom abgesaugt und in den unteren Totraum wieder eingeleitet (Umpumpen). Im Falle von CO2 und Propan wird die Menge der Probengase durch Wägung der Gasflaschen ermittelt. Das Volumen von Argon und Helium wird mit Hilfe eines Rotameters ermittelt. Für das Freon 134a wird eine verschließbare Gasmaus mit dem Volumen von 0,15 l verwendet, die zwischen Luftpumpe und Feuchtesensor geschaltet wird.

Interessenten an weiteren Diagrammen oder technischen Details können bei EIKE um einen Kontakt nachfragen.

Referenzen

  1. N. S. Nahle: Repeatability of Professor Robert W. Wood’s 1909 experiment on the Theory of the Greenhouse,. Biology Cabinet Online-Academic Resources and Principia Scientific International. Monterrey, N. L. , July 5, 2011
    http://www.biocab.org/experiment_on_greenhouses__effect.pdf
  2. J.-E. Solheim: Start des zweitägigen „Al Gore-Experiments“, 10. Internationale Klima- und Energie-Konferenz (10. IKEK), EIKE, Berlin, 12. November 2016
    https://eike.institute/2017/02/04/10-ikek-prof-em-jan-erik-solheim-start-des-zweitaegigen-al-gore-experiments/
  3. H. v. Ditfurth 1977: https://www.youtube.com/watch?v=lORAR1nvfjs
  4. M. Schnell, 2020: Die falschen Klimaexperimente,
    https://eike.institute/2020/11/06/die-falschen-klima-experimente/
  5. HITRAN-Datenbank: https://www.cfa.harvard.edu/hitran/welcometop.html
  6. H. Harde, Advanced Two-Layer Climate Model for the Assessment of Global Warming by CO2, Open Journal of Climate Change, Vol. 1, No. 3, Nov. 2014
    http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.909.4771&rep=rep1&type=pdf
  7. H. Harde, Radiation Transfer Calculations and Assessment of Global Warming by CO2 , International Journal of Atmospheric Sciences, Volume 2017, Article ID 9251034, pp. 1-30 (2017), https://www.hindawi.com/journals/ijas/2017/9251034/ https://doi.org/10.1155/2017/9251034
  8. M. Schnell, 2020, Die Hintergrundstrahlung der Wolken und Aerosole
    https://eike.institute/2018/06/03/experimentelle-verifikation-des-treibhauseffektes/
  9. Wikipedia, Strahlungsaustausch: https://de.wikipedia.org/wiki/Strahlungsaustausch

 

Die englische Version dieses Beitrags ist hier:

Is there a greenhouse effect?




Gigafabrik von Tesla bei Berlin zahlt „Kracher“-Gehälter – von welchem Geld?

Das Arbeitsamt in Frankfurt/Oder vermeldet, daß die neuen Angestellten in der entstehenden Gigafaktorei von Tesla „Kracher“-Gehälter verdienen werden. Heißt, Einstiegsgehalt für Ungelernte beträgt schon rund 2.700,- brutto. Mit Ausbildung geht es ab 3.500,- los. Zunächst sollen etwa 7000 unbefristete Vollzeitstellen geschaffen werden.

Das ist schön, das ist Wertschätzung für die Mitarbeiter.

Oberflächlich gesehen. Denn wovon bezahlt Tesla seine Mitarbeiter? Die Firma produziert weniger Autos als Lada und lebt bislang eigentlich nur von Milliarden-Subventionen, die es in den USA vom Staat gab. Was Musk in Brandenburg von der Regierung an Steuergeldern bekommt, wurde noch nicht abschließend bekannt. Peanuts werden es sicher nicht sein, da Minister Altmaier die Elektromobilität, vor allem in Form von Teslas Luxusboliden aus Grünheide, als Werbemittel für die krachende Energiewende benutzte.

Der Potsdamer Wirtschaftsminister Jörg Steinbach (SPD) traf sich kürzlich persönlich mit Musk und versicherte, daß der Produktionsbeginn 2021 beginnen könne.




Der Lockdown-Denkfehler, den bisher keiner entdeckte

Seit einiger Zeit treibt mich ein Widerspruch um, zu dem ich mich noch nicht öffentlich geäußert habe. Das hat zwei Gründe. Erstens war ich unsicher, wie groß die praktische Bedeutung dieser, sagen wir mal, „Unstimmigkeit“ ist. Zweitens fiel das Problem offenbar niemandem auf außer mir.

Genau das war mein Problem mit dem Problem. Es ist nämlich so offensichtlich, dass es mir nicht in den Kopf wollte und will, warum es keiner sieht. Meine Überlegung ist weder besonders originell noch gar preisverdächtig. Im Gegenteil, sie drängt sich auf, liegt quasi auf der Hand. Um den Fehler zu erkennen, muss man nicht die hellste Leuchte sein, auch kein Experte in Sachen Seuche.

Nun gibt es diese seltenen Fälle, in denen jemand einen Gedanken formuliert, worauf die anderen rufen: Holla, die Waldfee, stimmt! Ist doch klar! Hätte ich auch drauf kommen können! Das Wesen dieser Ausnahmen ist leider, dass sie die Ausnahme sind. Langer Rede Sinn: Mittlerweile bin ich ziemlich sicher, dass nicht ich der Geisterfahrer bin, sondern die Hundertschaft, die mir entgegenkommt. Daher also dieser Beitrag.

Logisch, nicht ideologisch

Eine weitere Vorbemerkung: Es geht hier um ein logisches Problem, kein ideologisches. Was ich Ihnen darlege, bewegt sich vollständig innerhalb der Matrix unbestrittener, allgemein bekannter und anerkannter Umstände. Daher ist es vollkommen egal, ob Sie sich eher Team Streeck, Team Drosten oder gar Team Lauterbach zugehörig fühlen. Selbst wenn Sie Fan von Team Attila sind und Covid-19 nur für einen Schnupfen halten, dürfen Sie weiterlesen.

Nachdem ich dieses Stück nun über die Maßen angeteasert habe, ein Dämpfer zur Klarstellung: Ich behaupte nicht, dass mit den folgenden Ausführungen alles auf den Kopf gestellt wird, was man zum Thema Corona weiß oder zu wissen glaubt. Allerdings, einiges ändert sich doch.

So manche Alarm-Argumentation erweist sich als heiße Luft. Unzählige Statements von Politikern und Experten erscheinen im Nachgang sinnfrei. Vor allem: Der politisch bedeutendsten Kennzahl ist die Grundlage entzogen. Diese Kennzahl diente nicht nur als Hauptargument für den jetzigen Lockdown. Sie ist zugleich erklärtermaßen der einzige handfest bezifferte Maßstab, den die Entscheider anlegen wollen, um entweder die aktuellen Einschränkungen weiter zu verschärfen oder sie zu lockern.

Quizfrage: Wo liegt der Fehler?

Wenn diese besagte Kennzahl wegen Untauglichkeit entfällt, ergeben sich eine Menge Fragen. War der November-Lockdown in seiner konkreten Ausgestaltung überhaupt gerechtfertigt? Genügen die restlichen, von der Politik nur allgemein formulierten und nicht näher spezifizierten Ziele, um die angeordneten Maßnahmen aufrechtzuerhalten?

Hätte die Politik unter Berücksichtigung valider Aspekte zu einem anderen Vorgehen, einer anderen Strategie finden können oder sogar müssen? Last but not least: Wenn die offizielle Messlatte für die Aufhebung der aktuellen Einschränkungen obsolet ist – nach welchen Kriterien ist nun zu entscheiden?

Genug der Vorrede. Bevor wir uns über Konsequenzen Gedanken machen, gibt es noch etwas Arbeit. Legen wir also los, und zwar am praktischen Beispiel. Während Sie die folgenden Statements lesen, haben Sie die letzte Chance, sich am großen Finde-den-Fehler-Quiz zu beteiligen: Was ist der fundamentale Irrtum, der all diesen Aussagen innewohnt? Und welches eine Wort bringt die Sprechblasen zum Platzen?

Modellierer und Experten

Stellvertretend für Myriaden vergleichbarer Aussagen sei zunächst Dr. Viola Priesemann zitiert. Frau Priesemann ist Leiterin einer Max-Planck-Forschungsgruppe an der Uni Göttingen und beschäftigt sich unter anderem mit Computer-Modellen, die die Corona-Ausbreitung vorhersagen sollen. Ihr Job ist also ähnlich wie der von Prof. Michael Meyer-Hermann in Braunschweig. Sie erinnern sich? Das war der Lockdown-Radikalinski, den die Kanzlerin Mitte Oktober zum Corona-Kränzchen geladen hatte, um die Ministerpräsidenten zu manipulieren.

Das soll natürlich nicht unser Urteil über Frau Dr. Priesemann beeinflussen. Wir wollen nicht ausschließen, dass es auch Seuchen-Modellierer gibt, die zu irgendwas gut sind. So oder so, jedenfalls war Viola P. einen Tag vor Lockdown-Beginn zu Gast bei „Anne Will“.

Neben Priesemann saß ein richtiger Seuchenexperte, nämlich Stefan Willich, Professor für Epidemiologie an der Berliner Charité. Willich plädierte kurz vor Schluss der Sendung dafür, „auf die intensivmedizinische Kapazität zu schauen“, statt sich undifferenziert auf „die Zahl der Neuinfektionen“ zu konzentrieren.

„Ganz massiv widersprechen“

Priesemann unterbrach Willich erregt (hier ab Min. 56:26): „Da möchte ich einmal massiv widersprechen, wirklich ganz massiv widersprechen. Wir können entweder auf die Krankenhäuser gucken und die Intensivkapazität. Oder wir schauen drauf, ob die Ausbreitung unter Kontrolle ist oder nicht unter Kontrolle ist. Und das ist die Einigkeit von Leopoldina, von Max-Planck-Gesellschaft, Leibniz-Gesellschaft und so weiter, das ist nicht [nur] meine Meinung.“

„In dem Moment, wo wir die Kontakte nachverfolgen, gibt es fast niemanden, der nicht weiß, dass er Träger ist. In dem Moment, wo wir die Kontakte gut unter Kontrolle haben, wie das im Juli, August und am Anfang des Septembers der Fall war […] Aber, das würde ich echt gern für … dass das verstanden wird: Wenn wir diesen Punkt überschreiten, das ist ein Kipp-Punkt! In dem Moment, wo wir die Kontrolle verlieren, dann wird der Anstieg dieser Fallzahlen selbstverstärkend! […]

So und ähnlich äußern sich landauf, landab Entscheider und Experten. In derselben Talkshow zum Beispiel auch der zugeschaltete bayerische Ministerpräsident Söder (Min. 24:38): „Ab einer bestimmten Infektionszahl ist die Rückverfolgung so kaum mehr leistbar, deswegen müssen wir ja wieder auf ein Level kommen, in dem diese Rückverfolgung dann eben gut funktioniert.“

Verfolgung ist gut, Kontrolle ist alles

Oder Kanzleramtsminister Helge Braun, ebenfalls bei „Anne Will“ (ab Min. 51:06): „Wenn wir in Deutschland jeden Tag 5.000 Fälle haben, dann können wir die Kontaktnachverfolgung über die Gesundheitsämter noch schaffen, und dann können wir auf Beschränkungen ansonsten weitestgehend verzichten.“

Fassen wir zusammen. Das alles bestimmende Wort ist „Kontrolle“. „Kontrolle“ über die Entwicklung des Infektionsgeschehens besteht, solange die Gesundheitsämter alle (oder fast alle) Infektionsketten nachvollziehen und unterbrechen können. Dies erreichen sie per Ermittlung, Unterrichtung und Isolierung der potenziellen Virenverbreiter.

In dem Moment, in dem die Ämter nicht mehr umfassend nachverfolgen können, gerät die Situation „außer Kontrolle“. Das Virus verbreitet sich „unkontrolliert“, die Folge ist exponentieller Anstieg der Infektionen. Um nach „Kontrollverlust“ wieder in eine „kontrollierte“ Lage zu kommen, sind mannigfaltige Einschränkungen des täglichen Lebens zu verordnen – und zwar so lange, bis die Fallzahlen wieder in einem „kontrollierbaren“ Bereich sind.

Und? Haben Sie’s erraten?

So lautet also die herrschende Meinung – wobei die Superspreader dieses Narrativs davon ausgehen, dass es sich keineswegs um eine Meinung handelt, sondern um einen quasi naturgesetzlichen Umstand. Das ist natürlich Quatsch.

Und? Haben Sie erraten, welcher Trugschluss all diesen und vergleichbaren Äußerungen zugrundeliegt? Ich spare mir an dieser Stelle tiefergehende Überlegungen zu den Abgründen der Volksseele. Ob die Sehnsucht nach Kontrolle „typisch deutsch“ ist, sei dahingestellt. Ob es einen Zusammenhang zwischen Kontrollsucht, Waschzwang und Fesselungsphantasien gibt, kann ebenfalls offenbleiben. Das Psychologisieren sollen Berufenere als ich übernehmen. Konzentrieren wir uns auf die Fakten. Und zwar auf die echten.

Die Fakten besagen – und das ist der erste Teil der Auflösung in unserem kleinen Ratespiel –, die vielbeschworene „Kontrolle“ des Infektionsgeschehens bestand zu keinem Zeitpunkt. Wenn im Sommer das Infektionsgeschehen auf niedrigem Niveau stabil war, ist dies jedenfalls nicht einer angeblich umfassenden Nachverfolgung durch die Gesundheitsämter zuzuschreiben.

Die Auflösung ist banal

Warum, fragen Sie? Ganz einfach. Eine vollständige (oder annähernd vollständige) Kontaktnachverfolgung fand niemals statt. Was den Gesundheitsämtern an Positiv-Testungen mitgeteilt wurde, war immer nur ein kleiner Teil der tatsächlichen Infektionen. Das weiß jeder – oder sollte jeder wissen, der sich auch nur ein bisschen mit Corona beschäftigt hat.

Damit sind wir beim zweiten Teil der Lösung unserer Quizfrage. Ein einziges Wort lässt die heiße Luft aus den oben zitierten (und zahllosen weiteren) Äußerungen. Dieses Zauberwort ist – Tusch! – „Dunkelziffer“. Sagen Sie jetzt bloß nicht, Sie seien enttäuscht. Enttäuschung findet legitimerweise dort statt, wo übertriebene Erwartungen geweckt wurden. Ich habe von Anfang an betont, dass nichts Spektakuläres zu erwarten ist, sondern Banales.

Die Corona-Dunkelziffer, also die Zahl unerkannter Sars-CoV-2-Infektionen, ist hoch. Das ist unstrittig und einfach zu erklären. Nehmen wir zum Beispiel Ebola. Wer sich mit hämorrhagischem Fieber infiziert, hat vergleichsweise schlechte Karten. Ebola produziert im Normalfall heftige Symptome und ist ziemlich tödlich. Deshalb gibt es – jedenfalls in zivilisierten Ländern – bei einem Ebola-Ausbruch keine nennenswerte Dunkelziffer.

Epidemie light

Corona hingegen ist eine Epidemie light. Covid-19 hat eine relativ geringe Sterblichkeitsrate, die irgendwo zwischen unter 0,2 und einem Prozent der Infizierten liegt. Außerdem verlaufen die Infektionen laut RKI in rund 80 Prozent der Fälle mit nur leichten Symptomen oder völlig asymptomatisch. Wer nichts oder kaum etwas von seiner Infektion spürt, geht auch nicht zum Arzt. Daher ist das Dunkelfeld unerkannter Infektionen hoch, solange nicht die gesamte Bevölkerung regelmäßig durchgetestet wird.

Wie hoch genau, weiß man nicht. Diverse Studien legen einen Wert zwischen ungefähr Faktor 4 und Faktor 20 nahe, um den das tatsächliche Infektionsgeschehen höher ist als das bekannte. Ich habe mir vor einiger Zeit den Spaß gemacht, die mögliche Dunkelziffer anhand der Zahlen des Seuchen-Gurus John Ioannidis auszurechnen. Wenn man für Deutschland eine Infektionssterblichkeit von 0,2 Prozent ansetzt, landet man unter Berücksichtigung der Corona zugeordneten Todesfälle etwa bei einem Faktor 15.

Aber wir müssen uns hier gar nicht darüber streiten, wie hoch die Dunkelziffer wirklich ist. Einig sind sich alle darin, dass es sie gibt und dass sie erheblich ist. Das genügt, um alle Aussagen über „Kontrolle durch vollständige Nachverfolgung“ im Zusammenhang mit Corona als Bullshit zu entlarven. Genau wie die Behauptung vom „Kontrollverlust“. Wer etwas nicht unter Kontrolle hat, kann sie auch nicht verlieren.

„Kontaktverfolgung ist praktisch nicht vorhanden“

Erinnern wir uns an die Aussage von Merkel-Adlatus Helge Braun: „Wenn wir in Deutschland jeden Tag 5.000 Fälle haben, dann können wir die Kontaktnachverfolgung über die Gesundheitsämter noch schaffen, und dann können wir auf Beschränkungen ansonsten weitestgehend verzichten.“

Selbst wenn wir nur den eher niedrigen Dunkelziffer-Faktor 4 ansetzen, bedeutet das, dass statt der von Braun genannten 5.000 ans RKI gemeldeten Infizierten real 20.000 neue Virenträger an einem Tag durch Deutschland laufen. Die Nachverfolgung kann also in diesem Beispiel maximal 25 Prozent des Infektionsgeschehens erfassen. Bei einem Faktor 10 wären es sogar 50.000 potenzielle Virenschleudern, von denen nur jede Zehnte einen Anruf vom Gesundheitsamt bekommen könnte.

Apropos „könnte“: Es gibt diverse Berichte, wonach die Ämter eine zügige und vollständige Nachverfolgung selbst bei niedrigen Fallzahlen nicht hinkriegen. Der Tübinger Oberbürgermeister Boris Palmer offenbarte vor ein paar Tagen bei „Markus Lanz“ (hier ab Min. 27:30): „Kontaktverfolgung – sag ich Ihnen jetzt aus der Praxis – ist in Deutschland praktisch nicht vorhanden. Wenn wir Kontakte ermitteln, ist die Infektion in der Regel schon weitergegeben.“ Ein weiterer Hinweis darauf, dass „Kontrolle durch Nachverfolgung“ bei Corona hierzulande eine Mär ist.

Was folgt daraus?

Fassen wir zusammen: Es gibt ein großes Dunkelfeld von nicht erkannten Sars-CoV-2-Infektionen. Alle Behauptungen, bei einer bestimmten Zahl gemeldeter Fälle könne man vollständige (oder nahezu vollständige) Nachverfolgung des realen Infektionsgeschehens erreichen, entsprechen daher nicht der Wahrheit. Die umfassende Nachverfolgung ist eine Illusion – egal, wie niedrig die Fallzahl ist, die das Robert-Koch-Institut erfasst.

Na und? Die Erkenntnis, dass Politiker und sogenannte Experten eine Menge dummes Zeug reden, wenn der Tag lang ist, ist nicht neu. Was also folgt daraus für die Praxis, werden Sie sich und mich fragen. Hier die Antworten.

Zunächst einmal ist die derzeit für die politische Entscheidungsfindung bedeutendste Kennzahl kaputt, die sogenannte Sieben-Tage-Inzidenz. Dieser Richtwert wurde bereits im Mai eingeführt. Überschreitet die Anzahl der „Neuinfektionen“ (genauer: der gemeldeten Positiv-Testungen) pro 100.000 Einwohner auf lokaler Ebene innerhalb von sieben Tagen bestimmte Obergrenzen, sollen verschärfte Maßnahmen zur Eindämmung quasi automatisch in Kraft treten.

Sieben-Tage-Inzidenz: Willkürlich

Auf welche Einschränkungen sich Bund und Länder Mitte Oktober bei Überschreitung der Richtwerte verständigten, können Sie hier nachlesen. Die konkreten Obergrenzen der Sieben-Tage-Inzidenz liegen bei 35 und 50 „Neuinfektionen“ pro 100.000 Einwohner pro Woche. Sowohl die 35 als auch die 50 sind nicht unmittelbar epidemiologisch begründet. Sie wurden allein aufgrund der Kapazitäten der Gesundheitsämter festgelegt.

Die Festsetzung der Richtwerte beruhte also einzig auf der Annahme, dass bei diesen Zahlen noch eine „vollständige“ Aufklärung durch die Ämter möglich ist. Diese Annahme unterlag einem fundamentalen Irrtum, wie wir nun wissen. Egal, ob 35 oder 50 gemeldete Corona-Positive pro Woche – wegen der nicht berücksichtigten Dunkelziffer kann in keinem Fall das postulierte Ziel erreicht werden.

Da die Prämisse falsch war, ist den unter eben jener Prämisse ermittelten Grenzwerten die Grundlage entzogen. Ohne faktische Grundlage sind die Grenzwerte objektiv willkürlich. Das ist kein kleines Problemchen. Wer hierzulande in großem Umfang Grundrechte einschränkt, braucht verdammt gute Gründe dafür. Und Willkür ist das exakte Gegenteil von einem guten Grund.

Luftnummer Nachverfolgbarkeit

Die praktische Folge ist, dass Rechtsanwälte in ganz Deutschland ab sofort „Rotkäppchen extra trocken“ palettenweise ordern können. Jede obrigkeitliche Verfügung, die sich ausschließlich oder ganz überwiegend auf die Sieben-Tage-Inzidenz oder allgemeiner auf die Luftnummer „Nachverfolgbarkeit von Infektionsketten“ stützt, sollte mit guten Erfolgsaussichten anfechtbar sein.

Wer nicht glaubt, welch überragende Rolle die Sieben-Tage-Inzidenz bei den politischen Entscheidungen spielt, möge sich den Auftritt der Kanzlerin vor der Bundespressekonferenz zu Gemüte führen. Am Tag, als der jetzige „milde Lockdown“ in Kraft trat, begründete Angela Merkel die beschlossenen Einschränkungen noch einmal ausführlich. Aus der Mitschrift:

„Deshalb müssen wir wieder in eine Situation kommen, in der die Gesundheitsämter Kontakte nachverfolgen können; sonst nimmt das exponentielle Wachstum immer weiter zu. […] Wir müssen wieder in eine Region von 50 Infektionen in sieben Tagen pro 100 000 Einwohnern kommen; denn bis zu dieser Zahl können die Gesundheitsämter das einigermaßen nachvollziehen. Das Ziel der Maßnahmen der nächsten vier Wochen ist also, wieder in diese Region zu kommen.“

„Entscheidend ist die Sieben-Tage-Inzidenz“

Frage: „Zu dem Treffen mit den Ministerpräsidenten in zwei Wochen: Nach welchen Kriterien soll dann entschieden werden? Welche epidemiologischen Kennzahlen sind entscheidend?“

BK’in Merkel: „Entscheidend ist die Sieben-Tage-Inzidenz. […] Wir müssen wieder in den Bereich von unter 50 kommen, weil wir dann sagen können, dass die Gesundheitsämter die Kontaktnachverfolgung hinbekommen. […] Das Ziel ist, wieder in den Bereich der Kontaktnachverfolgung durch die Gesundheitsämter zu kommen.“

Bereits am Tag zuvor hatte auch Kanzleramtsminister Braun in der „Will“-Sendung unmissverständlich klargestellt, dass es nur eine Zahl gibt, an der sich die Regierung orientiert, wenn es um Verschärfung, Lockerung oder Aufhebung von Maßnahmen geht.

Frage der ehemaligen FDP-Justizministerin Leutheusser-Schnarrenberger: „Was ist denn die Marschroute, welche Zahl ist es denn, wo man sagen kann, jetzt kann man wieder lockern?“ Antwort Braun: „Unter 50 müssen wir, unter die Inzidenz von 50. Das ist die ganze Zeit unser Maßstab, bundesweit. Da müssen wir hin, dann ist die Kontaktnachverfolgung sicher möglich.“

Allgemein formulierte Absicht genügt nicht

Wir fassen zusammen: Derzeit gibt es nur ein einziges konkret beziffertes Kriterium, an dem sich die Verantwortlichen bei ihren Corona-Entscheidungen orientieren. Diese Kennzahl, die Obergrenze von „50 Neuinfektionen pro 100.000 Einwohner pro Woche“, taugt jedoch nicht als Maßstab, weil sie auf einer irrigen Annahme beruht.

Damit wir uns nicht missverstehen: Daraus folgt nicht, dass die Exekutive ohne diese Kennzahl keinerlei Maßnahmen zur Eindämmung des Infektionsgeschehens mehr verfügen könnte. Allerdings wird es deutlich schwieriger. Die Politik benötigt für Art, Umfang und Dauer von Einschränkungen eine neue Begründung – und zwar eine nachvollziehbare, tragfähige und hinreichend konkrete.

Ein allgemein formuliertes Bestreben à la „Wir wollen die Infektionen so weit wie möglich reduzieren“ genügt nicht – genauso wenig, wie die Regierung den Straßenverkehr verbieten kann, um „die Zahl der Verkehrstoten so weit wie möglich zu reduzieren“. Wer massivste Grundrechtseinschnitte rechtfertigen will, muss sich etwas Besseres einfallen lassen.

Höchst umstrittenes Gesetz

Die Zielsetzung, eine Überlastung des Gesundheitssystems zu vermeiden, wäre ein tauglicher Ansatz. Dafür müssten die Veranwortlichen allerdings überzeugend darlegen, ab welcher Infektionsrate sich diese Gefahr tatsächlich realisiert. Möglicherweise stellt sich bei unvoreingenommener Prüfung heraus, dass wir statt mit 5.000 auch mit 20.000 oder 30.000 Positivfällen pro Tag umgehen können.

Vielleicht käme man gar zu der Einsicht, dass die starre Fixierung auf „Neuinfektionen“ ohnehin nicht der Königsweg ist, sondern ein Strategiewechsel hin zu differenzierten Schutzmaßnahmen angeraten ist, wie ihn etwa Boris Palmer oder Julian Nida-Rümelin vorschlagen.

Derartige Überlegungen weisen die Entscheider jedoch von sich. Lieber jagt man weiterhin der Schimäre von der „Kontrolle durch Nachverfolgung“ hinterher. Derzeit versucht die Regierung sogar, im Eiltempo eine Novelle des Infektionsschutzgesetzes durchzupeitschen – trotz massiver Kritik von Opposition, Verbänden und Juristen. In den Verhandlungen „sei auch über andere Kennziffern diskutiert worden, etwa die Belegung von Intensivbetten“heißt es„Insbesondere das Kanzleramt habe aber darauf gedrungen, am Kriterium der Neuinfektionen festzuhalten.“ Und so wird wohl die Sieben-Tage-Inzidenz von 35 beziehungsweise 50 Neuinfektionen pro 100.000 Einwohner gesetzlich verankert werden.

Das ist wirklich kompletter Nonsens, wie ich Ihnen hoffentlich überzeugend dargelegt habe. Und? Wer ist nun Geisterfahrer? Ich oder die regierenden Kontrollfreaks?

Der Beitrag erschien zuerst bei ACHGUT hier




Aktualisierung: Fakten und Theorien

Manchmal fragt man Klimaskeptiker, ob sie an die Evolution oder die Schwerkraft glauben. Sie wollen unseren Skeptizismus lächerlich machen, indem sie den vom Menschen verursachten, alias anthropogenen Klimawandel mit Evolution oder Schwerkraft gleichsetzen. Evolution und Schwerkraft sind Fakten, der anthropogene Klimawandel dagegen ist eine Hypothese. Die Gleichsetzung von „Klimawandel“ mit der Schwerkraft oder der Evolution ist hingegen in Ordnung, da alle drei Tatsachen sind. Das Klima ändert sich, die Schwerkraft hält uns an die Erdoberfläche und die Arten entwickeln sich weiter.

Der berühmte Philosoph Karl Popper würde sagen, dass diese beobachteten Phänomene keine wissenschaftlichen Hypothesen oder Theorien sind, weil sie nicht falsifizierbar sind (Popper, 1962). Wie kann man beweisen oder widerlegen, dass sich das Klima verändert?

Es gibt andere Vorstellungen, die Popper als Pseudowissenschaft bezeichnet. Diesen Vorstellungen zufolge ist es völlig egal, was man beobachtet, die Beobachtung wird immer als Bestätigung der Vorstellung gesehen. Popper bietet die Geschichtstheorie von Marx als Beispiel an und stellt fest, „dass ein Marxist keine Zeitung aufschlagen könnte, ohne auf jeder Seite einen bestätigenden Beweis“ für diese Theorie zu finden. Freuds Theorien waren die gleichen, jeder klinische Fall war eine Bestätigung der Freudschen Theorien. Es war genau diese Tatsache, dass die Beweise immer zu diesen Gedanken passten, die ihre Schwäche ausmachten. Eine Theorie, die durch kein denkbares Ereignis widerlegt werden kann, ist nicht wissenschaftlich (Popper, 1962, S. 35-36). Die Astrologie ist ein weiteres Beispiel.

Popper fragte sich 1919, wie sich Marxismus, Freud und Astrologie von wirklich wissenschaftlichen Vorstellungen wie Newtons Gravitationsgesetz oder Einsteins Relativitätstheorie unterscheiden. Er erkannte, dass letztere getestet und als falsch nachgewiesen werden konnten. Er war inspiriert von Frank Dyson, Andrew Crommelin und Arthur Eddingtons Bestätigung von Einsteins Relativitätstheorie während der Sonnenfinsternis vom 29. Mai 1919. Einsteins Theorie sagte voraus, dass sich das Sternenlicht aufgrund der Schwerkraft um die Sonne krümmen würde. Das Newtonsche Gravitationsgesetz sagt ebenfalls eine Ablenkung voraus, aber Einsteins Theorie sagte eine doppelt so große Ablenkung voraus. Die Beobachtungen während der Sonnenfinsternis zeigten, dass dies genau so geschah, wie Einstein es vorhergesagt hatte (Coles, 2019).

Dies war die erste wirkliche Bestätigung der Einsteinschen Theorie, und sie beruhte auf einer riskanten Vorhersage. Eine Bestätigung einer Theorie muss eine riskante Vorhersage von Dingen beinhalten, die nicht geschehen können oder geschehen werden, wenn die Theorie zutrifft. Theorien sollten Dinge erfolgreich vorhersagen, und es sollte nichts auftreten, das im Widerspruch zu der Theorie steht. Je mehr das der Fall ist, desto besser. Bestätigungen beweisen eine Theorie nicht, aber sie erlauben es ihr, zu überleben.

Popper zieht eine klare Grenze zwischen Wissenschaft und Pseudowissenschaft. Wissenschaftliche Hypothesen und Theorien sagen voraus, was geschehen wird und was nicht geschehen wird, wenn die Theorie wahr ist. Die Pseudowissenschaft zieht keine solche Grenze.

Mit anderen Worten: Wenn ein Krieg stattfindet und jemand durch ihn reich geworden ist, bestätigt das nicht Marx‘ Sicht der Geschichte. Marx hätte vorhersagen müssen, dass der Mann reich werden würde, und er hätte zugeben müssen, dass er Unrecht hatte, wenn der Mann arm blieb. Wir müssen uns vorstellen können, wie die Theorie widerlegt werden kann.

Schwerkraft und Evolution agieren wie es allgemein anerkannte Theorien vorgeben. Einstein entwickelte unsere heutige wissenschaftliche Theorie der Schwerkraft. Newton lieferte uns sein beschreibendes „Gesetz der Gravitation“. Das Newtonsche Gesetz sagt uns, was die Schwerkraft bewirkt, und es ist nützlich, aber es sagt uns nichts darüber, wie sie funktioniert. Dafür brauchen wir Einsteins Relativitätstheorie.

In der wissenschaftlichen Gemeinschaft werden sowohl ein Gesetz als auch eine Theorie durch ein einziges widersprüchliches Experiment oder eine einzige Beobachtung widerlegt. Entweder Einstein oder Popper sollen es einmal so ausgedrückt haben:

„Keine noch so große Menge an Experimenten kann je beweisen, dass ich Recht habe; aber ein einziges Experiment reicht aus, um zu beweisen, dass ich Unrecht habe“. (Autor unbekannt)

Beide sagten ähnliche Dinge, beide glaubten, dass keine wissenschaftliche Theorie jemals bewiesen, sondern nur widerlegt werden kann. Lassen Sie uns also unsere Themen in diesem Licht betrachten. Gibt es Ausnahmen von Newtons beschreibendem Gravitationsgesetz, das auf Masse und Entfernung basiert? Nur in Größenordnungen wie der des Sonnensystems, in der Nähe von Schwarzen Löchern und im atomaren Bereich. Im täglichen Leben auf der Erde funktioniert das Newtonsche Gesetz gut. Wie steht es mit Einsteins Gravitationstheorie (Relativitätstheorie), gibt es Ausnahmen? Keine, die wir in irgendeiner Größenordnung kennen.

Wie steht es mit der Evolution? Arten entwickeln sich, das können wir in den geologischen Aufzeichnungen sehen (Jepson, Mayr, & Simpson, 1949). Wir können dies auch bei einigen sich schnell reproduzierenden Arten beobachten (Wilcox, 2011; Soltis & Soltis, 1989). So könnten wir die Evolution als eine Tatsache beschreiben. Sie erfolgt, aber wir können ohne weitere Arbeit nicht beschreiben wie. Zu den frühen Theorien des Evolutionsprozesses gehören Charles Darwins Theorie der natürlichen Auslese (Darwin, 1859) und Jean-Baptiste Lamarcks Theorie der vererbbaren Anpassung von Arten aufgrund von äußeren Umweltbelastungen. Lamarck hat den Gedanken der vererbbaren Anpassung nicht erfunden; sie wurde allgemein schon lange vor seiner Geburt angenommen. Aber er hat sie in seine Ideen zur Evolution neuer Arten aufgenommen.

Die aktuelle epigenetische Forschung (Nature, 2020) zeigt, dass Darwin und Lamarck beide Recht hatten und dass die Evolution beide Prozesse einschließt. Eine Zusammenfassung der jüngsten Forschung über die epigenetische Komponente der Evolution findet sich in diesem Artikel aus dem Oxford Journal (Mendizabal, Keller, Zeng, & Yi, 2014). Die natürliche Auslese spielt eine wichtige Rolle beim Aussterben, da Arten, die sich nicht an eine neue Umgebung anpassen können, aussterben. Die vererbbare Anpassung des Lamarck’schen Typs spielt eine entscheidende Rolle bei der Entwicklung neuer, robusterer Sorten und Arten.

Lamarck stellte seine neue Theorie, dass sich die verschiedenen Arten auf der Erde allmählich von den einfachsten zu den komplexesten entwickelten, erstmals in zwei Vorträgen am 17. Mai 1802 im Pariser Museum für Naturgeschichte vor. Die erste Vorlesung richtete sich an seine Studenten, die zweite an seine Professorenkollegen. Die zweite Vorlesung wurde von einem Bericht begleitet (Lamarck, 1802). Wie der Historiker an der University of Illinois Richard Burkhardt beschreibt, waren Lamarcks Ideen bahnbrechend und revolutionierten die Biologie, aber dies wurde damals nicht anerkannt (Burkhardt, 2013).

Die moderne DNA-Forschung beschreibt, wie Anpassungen vererbt werden können. John Smythies von der Universität von Kalifornien und seine Kollegen erklären, dass Umweltstress normalerweise die DNA eines Lebewesens unverändert lässt, aber Spermien tragen nicht nur DNA zur Eizelle, sondern auch eine Vielzahl von RNA-Molekülen, die die Expression und das Timing der verschiedenen Teile der DNA regulieren. Stress wirkt sich auf diese RNA-Moleküle aus, und sie beeinflussen die Entwicklung und die Eigenschaften der Nachkommenschaft (Smythies, Edelstein, & Ramachandran, 2014).

Mit dem Fortschritt der Wissenschaft ändern sich etablierte Fakten und wissenschaftliche Gesetze selten, aber Theorien entwickeln sich weiter. Fakten und Gesetze werden leicht abgetan, wenn widersprüchliche Daten gesammelt werden, und manchmal werden sie, wenn wir mehr erfahren, wieder eingesetzt. Die moderne Evolutionstheorie ist ein gutes Beispiel dafür, wo konkurrierende Theorien zu einer einzigen verschmelzen und eine verworfene Theorie wieder aufgenommen werden kann.

Die meisten wissenschaftlichen Theorien beginnen als Hypothesen. Eine Hypothese lässt sich am besten als eine Vorstellung davon beschreiben, was die Ursache für das Eintreten eines bestimmten Ereignisses sein könnte. Wie oben diskutiert, müssen sowohl Hypothesen als auch Theorien falsifizierbar sein. Der „Klimawandel“ ist nicht falsifizierbar, er ist weder eine wissenschaftliche Hypothese noch eine Theorie. Popper würde „Klimawandel“ als Pseudowissenschaft bezeichnen, da jedes Wetterereignis als Unterstützung der Idee interpretiert werden kann und oft auch so interpretiert wird, ähnlich wie der Marxist mit seiner Zeitung.

Der vom Menschen verursachte oder anthropogene Klimawandel ist eine richtige wissenschaftliche Hypothese, da er falsifizierbar ist. Wissenschaft ist meistens Skepsis. Wir suchen nach dem, was nicht passt, wir stöbern in etablierten Fakten und Gesetzen, in Theorien und Hypothesen. Wir versuchen, Fehler zu finden; wir überprüfen die Zahlen. Schlimmer noch: Wenn Wissenschaft richtig gemacht wird, bedeutet das, dass wir mehr Zeit damit verbringen, zu beweisen, dass wir uns selbst und andere im Unrecht sind, als zu beweisen, dass wir Recht haben. Das Leben ist manchmal hart, und Wissenschaftler gewinnen nur selten Popularitätswettbewerbe.

Tabelle 1 unten enthält Phrasen. Jede wird als Fakt, Theorie, Gesetz, Hypothese oder einfach als Idee identifiziert. Wir sehen, dass der anthropogene Klimawandel und die Möglichkeit einer anthropogenen Klimakatastrophe nicht mit den Relativitäts- und Evolutionstheorien vergleichbar sind. Der anthropogene Klimawandel ist mehr als eine Idee, er beruht auf einigen Beobachtungen und vernünftigen Modellen des Prozesses. Aber keines der Klimamodelle hat die globale Erwärmung erfolgreich und genau vorhergesagt. Die Relativitäts- und Evolutionstheorien dagegen haben jeweils erfolgreiche Vorhersagen mit großer Genauigkeit und Präzision gemacht.

Wie Popper sagte, müssen die Befürworter des anthropogenen Klimawandels riskante Vorhersagen machen, die eintreten, um zu behaupten, dass ihre Hypothese eine gültige Theorie ist. Der anthropogene Klimawandel ist nach wie vor eine noch nicht abgeschlossene Arbeit und keine wissenschaftliche Theorie. Er ist mit Sicherheit keine Tatsache.

Nur validierte und reproduzierbare Modelle und Experimente können ausnahmslos zur Unterstützung einer wissenschaftlichen Theorie verwendet werden. Die Meinungen von Wissenschaftlern und Politikern sind nicht relevant. Damit soll nicht gesagt werden, dass der anthropogene Klimawandel oder die Möglichkeit einer anthropogenen Klimakatastrophe widerlegt sind, es soll nur gesagt werden, dass es keine gültigen Beweise gibt, um diese Hypothesen zu stützen.

Die Vorstellung, dass der vom Menschen verursachte Klimawandel eine Katastrophe in der Größenordnung des islamischen Terrorismus oder von Massenvernichtungswaffen auslösen könnte, wie John Kerry 2014 behauptete (Almasy, 2014), ist reine Spekulation. Die Modelle, die zur Berechnung des menschlichen Einflusses auf die globale durchschnittliche Oberflächentemperatur verwendet werden, stimmen nicht mit den Beobachtungen überein. Dies ist leicht in Abbildung 1 zu erkennen, die John Kerrys Diagramm der IPCC-Klimamodellvorhersagen im Vergleich zu Beobachtungen von Satelliten und Wetterballons darstellt (Christy, 2016). Satelliten- und Wetterballonmessungen sind unabhängig voneinander und sie sind unabhängig von den verschiedenen Oberflächentemperatur-Datensätzen, wie HadCRUT4 in Abbildung 2 zeigt. Alle Kurven auf dem Diagramm wurden mit gleitenden Fünfjahresdurchschnitten geglättet. Die Fünfjahresdurchschnitte sollen kurzfristige Wetterereignisse, wie El Niños und La Niñas (NOAA, 2020), herausfiltern. Klima wird normalerweise definiert als Veränderungen über 30 Jahre oder länger.

Abbildung 1: Ein Vergleich von IPCC-CMIP5-Klimamodell-Prognosen mit drei Datensätzen von Satellitenbeobachtungen und 4 Datensätzen von Ballon-Messungen. Die Graphik präsentierte John Christy im Jahre 2016 dem Committee on Science, Space and Technology des Weißen Hauses (Christy 2016)

Die Linie, die durch die Beobachtungen verläuft, ist das russische Modell „INM-CM4“ (Volodin, Dianskii, & Gusev, 2010). Es ist das einzige Modell, das den Beobachtungen nahe kommt. INM-CM4 schneidet über längere Zeiträume sehr gut bei hintereinander beobachteten Temperaturen ab. Ron Clutz ist ein Blogger und kanadischer Unternehmensberater mit einem Abschluss in Chemie aus Stanford. Clutz hat INM-CM4 untersucht und geschrieben, dass es eine CO2-Zwangsreaktion (ECS) verwendet, die 37% niedriger ist als bei den anderen Modellen, etwa 2°C pro CO2-Verdoppelung. Er verwendet auch eine viel höhere Wärmekapazität der tiefen Ozeane (Trägheit des Klimasystems), und er entspricht genau dem niedrigeren Wassergehalt der Troposphäre und ist darüber hinaus niedrig verzerrt. Die anderen Modelle sind hoch verzerrt (Clutz, 2015). Das russische Modell sagt zukünftige Temperaturanstiege mit einer Rate von etwa 1°C/Jahrhundert voraus, was keineswegs alarmierend ist und viel niedriger als die Vorhersagen der anderen Modelle. Der Durchschnitt der anderen Modelle sagt eine Erwärmung von 2,15°C/Jahrhundert voraus. Der beobachtete lineare Erwärmungstrend für den Globus liegt laut dem Satellitenrekord der UAH (University of Alabama in Huntsville) seit 1979 zum Zeitpunkt der Erstellung dieses Artikels (4. April 2020) bei 1,3°C pro Jahrhundert (Spencer, 2020). Abbildung 2 zeigt, dass die Erwärmung nach Angaben des Met Hadley Center/Climatic Research Unit im letzten Jahrhundert etwa 0,8⁰C betrug.

Abbildung 2. Die Rekonstruktion der globalen Durchschnittstemperatur des Met Office Hadley Center und der Climatic Research Unit an der University of East Anglia seit 1850. Sie wird in Erwärmungs- und Abkühlungsperioden unterteilt. Insgesamt zeigt sie eine Erwärmung von ~0,8°C im 20. Jahrhundert.

Man kann jedes in Abbildung 1 dargestellte Klimamodell als ein digitales Experiment betrachten. Der Bereich der vorhergesagten Erwärmung aus diesen digitalen Experimenten beträgt von 1979 bis 2025 über ein Grad. Dies übertrifft die von CMIP5 (Coupled Model Intercomparison Project 5) vorhergesagte durchschnittliche Erwärmung um ein Grad seit 1979. Vergleichen Sie die CMIP5-Vorhersage mit dem tatsächlichen Erwärmungstrend von 0,5°C, der von UAH gemessen und von Roy Spencer berichtet wurde (Spencer, 2020). Die Bandbreite der Modellergebnisse und der Vergleich mit den tatsächlichen Messungen gibt uns kein Vertrauen in die Genauigkeit der Modelle. Dennoch verwendet der IPCC die Differenz zwischen den mittleren Modell-Temperaturvorhersagen mit und ohne berechneten menschlichen Einfluss seit 1950, um den menschlichen Einfluss auf das Klima zu bestimmen (Bindoff & Stott, 2013, S. 879). In Abbildung 3, nach Bindoff und Stott, ihrer Abbildung 10.1, Seite 879, ist das CMIP3 (AR4)-Modell als schwache hellblaue Linien, das CMIP5 (AR5)-Modell als schwache gelbe Linien, die Mittelwerte des Modells als stärkere blaue (CMIP3-AR4) und rote (CMIP5-AR5) Linien dargestellt. Überlagert wird die Darstellung durch Oberflächentemperaturmessungen als dicke schwarze Linie.

In Abbildung 3, Schaubild (a), verwenden die Modelle ein Szenario, das nach Ansicht des IPCC sowohl die natürlichen als auch die menschlichen Klimaeinflüsse widerspiegelt. In Schaubild (b) verwenden sie ein Modellszenario, von dem sie glauben, dass es nur natürliche (d.h. nicht-menschliche) Klimaeinflüsse repräsentiert.

Abbildung 3. IPCC AR5 Abbildung 10.1, Seite 879. Die Grafiken veranschaulichen, wie das IPCC den menschlichen Einfluss auf das Klima berechnet. Die rote und die blaue Linie sind Modellergebnisse ohne menschlichen Antrieb (b) und mit menschlichem Antrieb (a). Die schwarzen Linien kennzeichnen beobachtete Temperaturen.

Die Diagramme sind recht klein und decken über 150 Jahre ab, aber dennoch sind Abweichungen der beobachteten Temperaturen vom Mittelwert des Modells von 1910 bis 1940 und von 2000 bis 2010 deutlich erkennbar. Außerdem ist die Bandbreite der Modellergebnisse ärgerlich groß. Das Diagramm in Abbildung 3(b) zeigt einen flachen natürlichen Klimatrend, und der gesamte beobachtete Temperaturanstieg von 1950 bis heute wird dem menschlichen Einfluss zugeschrieben. Dieses Ergebnis hat viel Kritik von Willie Soon, Ronan Connolly und Michael Connolly (Soon, Connolly, & Connolly, 2015), sowie Judith Curry, Marcia Wyatt (Wyatt & Curry, 2014) und anderen hervorgerufen. Soon, Connolly und Connolly (SCC15) sind der Meinung, dass der IPCC ein ungeeignetes Modell der Variation der Sonnenleistung (TSI oder Gesamtsonneneinstrahlung) gewählt hat.

In der begutachteten Literatur gibt es viele Modelle der Sonnenvariation, und die Frage, welches davon richtig ist, wird heftig diskutiert. Acht neuere Modelle sind in Abbildung 8 von SCC15 dargestellt (siehe unsere Abbildung 4). Nur Modelle mit geringer Sonnenvariabilität (rechts in Abbildung 4) werden vom IPCC verwendet, um den Einfluss des Menschen auf das Klima zu berechnen, obwohl für die Modelle mit höherer Variabilität auf der linken Seite ebenso viele Beweise vorliegen. Die in den Diagrammen verwendeten Skalen sind alle gleich, aber die oberen und unteren Werte variieren. Der IPCC hätte mindestens zwei Fälle durchlaufen müssen, einen für hohe Variabilität und einen für geringe Variabilität. SCC15 zeigt deutlich, dass das verwendete Modell bei der Berechnung des menschlichen Einflusses auf das Klima einen großen Unterschied macht.

Abbildung 4. Verschiedene begutachtete Modelle der Sonnenvariabilität der letzten 200 Jahre. Das IPCC verwendet Sonnenmodelle mit geringer Variabilität wie die rechts abgebildeten, um die natürliche Variabilität zu berechnen, damit sie den menschlichen Einfluss ableiten können, wie in Abbildung 3 dargestellt. Quelle: (Bald, Connolly, & Connolly, 2015).

Marcia Wyatt und Judith Curry (Wyatt & Curry, 2014) oder WC14 glauben, dass die natürliche Temperaturschwankung aufgrund langfristiger natürlicher Zyklen in Abbildung 3(b) nicht korrekt dargestellt ist. Ihre „Zustands-Welle“ (Wyatt, 2014) deutet darauf hin, dass in den 1980er und 1990er Jahren eine beträchtliche natürliche Erwärmung stattgefunden hat. Würde man die in WC14 beschriebenen langfristigen (etwa 30-jährigen Halbzyklus) Schwingungen in Abbildung 3(b) einbeziehen, wäre das Ausmaß der dem Menschen zugeschriebenen Erwärmung viel geringer. Marcia Wyatt hält eine Schwankung der gesamt-solaren Einstrahlung für eine mögliche Ursache.

Jedes Computer-Klimamodell muss eine Erfolgsbilanz erstellen, bevor sein Ergebnis in Berechnungen verwendet wird. Der Planet Erde ist einfach zu komplex, und die natürlichen Klimaschwankungen werden nur unzureichend verstanden. Wenn sich Eigenschwingungen nicht vorhersagen lassen, können sie nicht von Beobachtungen abgezogen werden, um den menschlichen Einfluss auf das Klima zu berechnen. Die Debatte dreht sich nicht darum, ob der Mensch das Klima beeinflusst, die Debatte geht darum, wie viel wir beitragen und ob die zusätzliche Erwärmung gefährlich ist. Die Jury ist noch immer nicht einig. Sicherlich wurde nicht für eine drohende Katastrophe plädiert, da dies zwei spekulative Sprünge erfordert. Erstens müssen wir davon ausgehen, dass der Mensch den Klimawandel vorantreibt, zweitens müssen wir davon ausgehen, dass dies zu einer Katastrophe führen wird. Man kann eine mögliche Katastrophe vorhersagen, wenn die extremsten Modellvorhersagen richtig sind, aber Beobachtungen zeigen, dass sie es nicht sind. Nur INM-CM4 stimmt mit den Beobachtungen einigermaßen gut überein, und INM-CM4 sagt nichts voraus, was auch nur annähernd einer Katastrophe gleichkommt.

Bei der Untersuchung des Evolutionsprozesses ist das Problem dasselbe. Einige glauben, dass der vorherrschende Prozess die natürliche Auslese und die epigenetische Veränderung gering ist. Andere glauben das Gegenteil. Jeder glaubt, dass beides eine Rolle spielt. Wie in der Klimawissenschaft ist es schwierig, herauszufinden, welcher Prozess vorherrschend ist.

Die jüngste Klimageschichte (der „Stillstand“ in der Erwärmung und die jüngste langsame Erwärmung) legt nahe, dass wir viel Zeit haben, dieses Problem in den Griff zu bekommen, bevor wir etwas Drastisches tun wie die Zerstörung der fossilen Brennstoffindustrie und die Verarmung von Milliarden von Menschen aufgrund des Mangels an erschwinglicher Energie. Wir schulden den billigen fossilen Brennstoffen heute viel. Darauf haben Roger Revelle [in deutscher Übersetzung beim EIKE hier] und seine Kollegen bereits im Jahre 1988 hingewiesen, und das gilt auch heute noch. Wenn die Projektionen in WC14 richtig sind, kann die „Pause“ noch eine ganze Weile andauern und uns viel mehr Zeit geben.

Zusammenfassend lässt sich sagen, dass die Wissenschaft ein Prozess der Widerlegung von Hypothesen ist, die vorgeben zu zeigen, wie und warum Naturereignisse stattfinden. Wissenschaft kann nicht dazu benutzt werden, etwas zu beweisen. Wissenschaftliche Gedanken und Hypothesen können vorgestellt werden, aber sie müssen falsifizierbar sein. Wenn niemand eine Hypothese widerlegen kann, überlebt sie. Wenn sie über einen längeren Zeitraum lebensfähig bleibt, wird sie zu einer Theorie.

Somit haben Klimawissenschaftler nicht bewiesen, dass der Mensch das Klima mit atmosphärischen Emissionen kontrolliert, und sie könnten es auch niemals tun. Sie haben auch nicht widerlegt, dass die Natur das Klima kontrolliert. Dies ist ihre Aufgabe, etwas, das sie tun müssen, wenn sie erwarten, dass sie jemals zeigen können, dass der Mensch das Klima kontrolliert. Es gibt reichlich Beweise dafür, dass die Natur und die Sonnenvariation eine große Rolle beim Klimawandel spielen. Es gibt auch ziemlich viele Beweise dafür, dass Treibhausgase eine kleine Rolle bei der Beeinflussung der globalen Erwärmung spielen, wie Lindzen und Choi (Lindzen & Choi, 2011), Lewis und Curry (Lewis & Curry, 2018) und (Lewis & Curry, 2015) zeigen. Der von Lewis und Curry berechnete Medianwert und die beste Schätzung liegt bei 1,5°C pro CO2-Verdoppelung (Lewis & Curry, 2018). Dies ist etwas weniger als die Sensitivität (~2°C), die aus dem russischen INM-CM4-Klimamodell berechnet wurde (Clutz, 2015). Ihr Wert ist viel geringer als die Sensitivität, die aus dem Durchschnitt der anderen Klimamodelle berechnet wurde (~3,1°C). Lindzen und Choi berechnen einen noch kleineren Wert, etwa 0,44°C pro CO2-Verdoppelung (ECS).*

[*Zu einer ordentlichen wissenschaftlichen Diskussion hätten hier auch die Arbeiten von Dr. Gerhard Stehlik erwähnt werden müssen, die dem Autor offenbar unbekannt waren. Auch die o. g. genannten Berechnungen der Klima-Realisten sind also nicht die eindeutige Wahrheit. Anm. d. Übers.]

Man kann nicht sagen, dass diese Papiere und andere Arbeiten von Klimaskeptikern die Hypothese widerlegen, dass der Mensch mehr Kontrolle über das Erdklima hat als die Natur und die Sonne, aber sie werfen erhebliche Zweifel an der Hypothese auf. Es gibt keine Daten, die die Hypothese einer drohenden Klimakatastrophe irgendeiner Art unterstützen. Es gibt Möglichkeiten, ein Klimamodell zu erstellen, das eine problematische Erwärmung in der fernen Zukunft zeigt, aber ein Modell kann so konstruiert werden, dass es alles heraus bekommt, was man will.

Wir haben versucht zu zeigen, wie Wissenschaft funktioniert, und zwar aus der Sicht eines Wissenschaftlers. Dann haben wir diese Methodik verwendet, um den Stand der Klimawissenschaft im Jahr 2020 aufzuzeigen. Klimawissenschaftler debattieren heftig über die Ursachen des Klimawandels heute und in Zukunft. Alarmisten haben Modelle verwendet, um eine drohende Klimakatastrophe zu prophezeien. Die Skeptiker haben anhand von Beobachtungen einen viel geringeren Einfluss von CO2 auf das Klima empirisch berechnet. Traditionell und praktisch herrschen Beobachtungen. Es scheint unwahrscheinlich, dass die Verbrennung fossiler Brennstoffe gefährlich ist.

Nichts ist klar, nichts ist bewiesen und nichts ist widerlegt. Dies ist ein stetig sich weiter entwickelnder Prozess.

Link: https://wattsupwiththat.com/2020/11/10/facts-and-theories-updated/

Übersetzt von Chris Frey EIKE

 




Neue Abstandregelung Windräder und Ausblick Biogas

Das die Generierung von Windstrom alles andere als Naturschutz und Tierschutz darstellt, wissen unsere Leser schon, ebenso das es genügend Studien gibt, die nachgewiesen haben: Infraschall macht krank. In Bayern gab es mal die 10-mal-Höhe- Regelung, die dann bei den gut 200m hohen Windrädern (Incl. Flügel), zu 2000m Abstand zum nächsten Wohnhaus führte.

Allerdings haben sich einige Gemeinden nicht daran gehalten, „…. Bereits im Plan seit … vor der Regelung…“ und andere Ausflüchte mehr, kam bei mir in der Nachbarschaft, um weitere Windräder hinzubauen.

Als Entscheidungshilfe für die Gesetzgeber kann diese Grafik des DIW angesehen werden, in dem die Auswirkungen der bayrischen 10H Regelung im Vergleich dargestellt wird.

DIW Wochenbericht 48-2019

In GRÜN – andere Bundesländer, In ORANGE – Bayern, nach Inkrafttreten der 10H Abstandsregelung

Die Abstandsregelungen für WKAs zu Wohnhäusern, waren schon immer ärgerlicher Punkt für die Investoren von Windparks- die selbst natürlich „meilenweit“ entfernt davon wohnen.  Außerdem sollen die vielen Einsprüche der Anwohner und Gegner der WKAs mundtot gemacht werden.  Dazu lasen Sie vor u.a. kurzen auf Eike Unantastbarer Sonderstatus für Windräder und EEG Novelle 2021: Der Bock wird zum Gärtner gemacht.

Nun hatten sich die Parteien in der Regierung darauf geeinigt, 1000 Meter Mindestabstand bundesweit verpflichtend zu machen,  was den Befürwortern der Windkraft aber immer noch nicht gering genug ist.

https://www.topagrar.com/energie/news/neue-studie-mindestabstaende-bremsen-windenergie-aus-11919859.html?utm_source=topagrar

Nach letzter Einigung (s.o.) sollen / wollen die Länder nun selbst entscheiden, ob mindestens 1000 Meter Abstand zwischen Siedlungen und Windrädern bei ihnen eingehalten werden müssen.

Irgendwie ist es nicht zum Wundern, nun jubelt die Tagesschau: Einigung bei Mindestabstand für Windräder.

… Auch Bundesumweltministerin Svenja Schulze begrüßte die Einigung. „Ich bin sehr erleichtert, dass es eine Einigung zwischen den Koalitionsfraktionen gegeben hat, wie wir nun bei Windenergie an Land und Photovoltaik richtig durchstarten können“, sagte sie dem „Spiegel.“

… Nun könnte eine sogenannte Opt-in-Regelung kommen: Wer 1000 Meter Abstand will, muss sich dann aktiv dafür entscheiden.

In ähnlicher Weise schreibt die Kreiszeitung  (Bremen, Niedersachsen)

Wut aufs Windrad: Ökostrom? Ja, klar – aber bitte ohne Windpark vor der Nase

Die 1000m Regel wurde gekippt, um dem Windstrom neuen Schwung zu geben.

… „Eine pauschale Festlegung von 1.000 Metern Mindestabstand zu Wohnsiedlungen würde unseren Zielen widersprechen.“ Beim Klimaschutz könne man den Ausbau der Windenergie nicht abwürgen. Nur jedes achte Windrad hat einen Mindestabstand zu Siedlungen. 1582 Windräder sind dichter als 400 Meter an Wohnsiedlungen dran.

Ein interessantes Detail am Rande: Im vorstehend verlinktem Artikel steht, dass „der Windparkentwickler PNE“ … seine fertiggestellten Projekte nicht an Investoren verkaufen konnte.

Im Klartext, da gibt es  Typen, die bauen Windräder auf Vorrat und suchen dann Dumme, die Anteile kaufen. Wie oft bekannt, werden alle Anteile verkauft (nennt sich dann Bürgerwindräder) – damit sind dann alle Risiken weg. Natürlich nicht ohne mit der eigenen Firma vorher einen Wartungsvertrag abzuschließen. Die Wartung fällt dann unter Kosten und wird immer bezahlt.

In diesem, von den Gebührenzahlern zwangsfinanziertem Medium, finde ich keinerlei Hinweise auf Schutz der Anwohner.

 

Biogasanlagen

Auch hier gilt in Zukunft das Ausschreibungsverfahren. Der durchschnittliche Preis lag im letzten Jahr bei 14 ct/kWh.  Vor knapp 20 Jahren (Förderzeitraum) wurden noch 25 ct/ kWh gezahlt. Über 9.000 Biogasanlagen sind im Deutschland verteilt. Nachdem ursprünglich mit der Verwertung der „Brennstoffe“ Gülle, Mist und Abfälle Reklame gemacht wurde, sieht man heutzutage vor allem die Bauern gehäckselten Mais oder  andere frische Energiepflanzen heranfahren. Bei der Besichtigung einer großen Anlage im Westen von Fürth wurde uns  erzählt, dass der Radius der Zulieferbetriebe inzwischen mehr als 50km erreicht hat, weil einfach nicht genügend mehr in der Nähe verfügbar ist.

Die Biogasbesitzer stöhnen natürlich über das Auslaufen der lukrativen Fördersätze. Der im Interview von DW vorgestellte Landwirt, klagt dass er einen Finanzierungsbedarf hat, um seine Anlage wirtschaftlicher auszubauen und evtl. auch ins Erdgasnetz einspeisen zu können. Sein Hof ist zu weit entfernt von anderen Gebäuden, um die anfallende Wärme ebenfalls zu vermarkten. Er sagt auch: „Am Anfang hatten wir eine Überförderung und jetzt wird der Geldhahn abgedreht“. Seine Äcker sind zu klein, um die Menge der benötigten Pflanzen selbst anzubauen, so dass er zukaufen muss.

Der Interviewpartner der FH Münster schätzt das 30 bis 40% der Biogaswirte nun Pleite gehen. Er hält Biogas für einen wichtigen Baustein der Energiewende.

Video (lässt sich nicht einklingen) auf Deutsche Welle: https://www.dw.com/de/biogasanlagen-vor-dem-aus/av-55324293

Über Europa erfährt man in einem anderen Beitrag der DW, dass es Biobauern gibt, die Abfälle der Lebensmittelindustrie vergären, darunter auch Kosmetika und Schokolade.

Mais bleibt jedoch die Energiepflanze Nr 1., jedoch ist nach dem neuen EEG nur noch 50& Mais in Biogasanlagen erlaubt. Andere Energiepflanzen wie Miscanthus, Ackergras sind teurer und werden nicht mehr unterstützt.

https://www.dw.com/de/biogas-in-der-eu-vor-unklarer-zukunft/a-19406884

Interessant auch, das nun die Biobauern in Konkurrenz zu Biogasbauern stehen. Die Subventionen für Biogas und den Strom daraus summieren sich auf höhere Summen als Bio-Lebensmittel-Bauern einstreichen  können. Die Preise für landwirtschaftliche Nutzflächen haben stark zugenommen.

https://www.dw.com/de/%C3%B6ko-energie-contra-bio-landbau/a-17435588

Die Produktion von Bio-Energiepflanzen für Biogas oder aucvh Kraftstoffe, bedroht die biologische Vielfalt. Bereits in 2013 klagten US- Wissenschaftler bei der Obama Regierung, dass der Ausbau von Gräser-Arten für die Produktion von Biokraftstoffen die Artenvielfalt drastisch reduzieren würde. Die aus Asien stammende und als Futtermittel eingeführte „Kudzu“-Kletterpflanze, die Pflanzen und Bäume überwächst und dabei gleichsam erstickt.

https://www.dw.com/de/der-anbau-von-energiepflanzen-bedroht-die-biologische-vielfalt/a-16665361

Zusammengestellt von Andreas Demmig




Welche Auswirkungen würde ein Leben ohne fossile Treibstoffe auf die Gesellschaft haben?

Der größte Teil der Weltbevölkerung lebt bereits ohne die Produkte und Treibstoffe aus Erdöl, während die gesünderen und wohlhabenderen Länder ihre Anstrengungen auf die Reduzierung ihrer Emissionen aus der Nutzung fossiler Brennstoffe wie Erdgas und Kohle konzentrieren und mittels umfangreicher Subventionen die intermittierende Stromerzeugung aus Wind- und Sonnenenergie in ihren Ländern beschleunigen. Bevor sie zu schnell in die sprichwörtliche Schlangengrube der „grünen“ religiösen Bewegung springen, sollten sich die Grünen Zeit nehmen, um zu antworten: Wie können wir unseren Lebensstil und unsere Wirtschaft aufrechterhalten, ohne wieder zu dem zurückzukehren, wie die Welt vor dem Jahr 1900 aussah?

Es ist fast unmöglich zu verstehen, dass fast die Hälfte der Welt – über drei Milliarden Menschen – von weniger als 2,50 Dollar pro Tag lebt. Heute gibt es in ganz Südasien, Teilen Europas sowie Teilen Afrikas und Australiens Familien, die sich abmühen, von praktisch nichts zu leben.

Ein komplexer Kompromiss im Zusammenhang mit politischen Entscheidungen, zu schnell in den GND einzusteigen, besteht darin, dass der Verzicht auf fossile Brennstoffe den 6 Milliarden Menschen auf dieser Welt, die von weniger als 10 Dollar pro Tag leben, den Zugang zu den 6.000 Produkten weiter erschwert und/oder verzögert, die wir in den wohlhabenden und gesunden Ländern genießen und die alle aus Ölderivaten hergestellt werden, von denen die meisten vor 1900 in den entwickelten Ländern noch nicht einmal existierten.

Zur Anschauung gibt es ein Diagramm von Leben ohne Öl und ein kurzes YouTube-Video von Leben ohne Öl, d.h. es ist nicht so einfach, wie man vielleicht denkt. Es ist vielleicht an der Zeit, an die unbestreitbare Wissenschaft zu glauben. Erneuerbare Energien können nur Strom erzeugen, und auch das allenfalls nur intermittierend. Absolutes Faktum ist, dass erneuerbare Energien KEINE der Ölderivate herstellen können, welche die Grundlage für Tausende von Produkten sind, auf deren Basis heute Gesellschaften und Volkswirtschaften auf der ganzen Welt leben.

Wenn man fossile Brennstoffe zu schnell eliminiert, führt das dazu, dass jedes Jahr 11 Millionen Kinder auf der Welt an vermeidbaren Ursachen wie Durchfall, Malaria, Neugeborenen-Infektionen, Lungenentzündung, Frühgeburt oder Sauerstoffmangel bei der Geburt sterben. Diesen Kindern in armen Ländern mangelt es noch immer an sauberem Trinkwasser, Abwasserentsorgung, angemessener Ernährung, zuverlässiger Elektrizität (wenn überhaupt), angemessener Gesundheitsversorgung und den Infrastrukturen und Produkten, die wir als selbstverständlich erachten und die alle auf Mineralien und Brennstoffen aus den Tiefen der Erde basieren. Übrigens leben die Erwachsenen in diesen armen Ländern kaum länger als 40 Jahre.

Man sollte sich darauf konzentrieren, all jene Produkte, für die wir seit fast 200 Jahren noch keine Klone oder Generika entdeckt haben, mit den unterentwickelten Ländern zu teilen, damit sie einen ähnlichen Lebensstil wie die wohlhabenden und gesunden Länder genießen können. Die wohlhabenderen entwickelten Länder haben auch Zugang zu Heizung, Klimaanlagen und Isolierung, wodurch wetterbedingte Todesfälle praktisch ausgeschlossen werden konnten.

Die gegenwärtige Leidenschaft, sich eine Welt mit intermittierender Elektrizität zu erschaffen, ist sich der unbeabsichtigten Folgen einer Welt ohne fossile Brennstoffe nicht bewusst. Die Unterzeichner der grünen Bewegung haben es versäumt, sich vorzustellen, wie das Leben ohne jene Industrie sein könnte, also vor dem Jahr 1900: KEINE Medikamente und medizinische Geräte, KEINE Impfstoffe, KEINE Wasserfiltersysteme, KEINE Abwassersysteme, KEINE Düngemittel, die Milliarden von Menschen ernähren könnten, KEINE Pestizide zur Bekämpfung von Heuschrecken und anderen Schädlingen, KEINE Kommunikationssysteme, einschließlich Handys, Computer und I-Pads, KEINE Fahrzeuge, KEINE Fluggesellschaften, die jetzt 4 Milliarden Menschen um die Welt befördern, KEINE Handelsschiffe, die jetzt monatlich Produkte im Wert von Milliarden Dollar um die Welt transportieren, KEINE Reifen für Fahrzeuge und KEIN Asphalt für Straßen und KEIN Weltraumprogramm. Wenn wir nur auf ein paar kurze Jahrhunderte zurückblicken, haben wir seit den Pioniertagen einen langen Weg zurückgelegt. Der Klimawandel mag ein wichtiges Thema sein, aber die wirtschaftliche Überlebensfähigkeit ist es auch.

Falls nicht mehr erinnerlich, wir hatten vor 1900 auch praktisch keine militärischen Flugzeugträger, Zerstörer, U-Boote, Flugzeuge und Panzer auf der ganzen Welt. Ein Hauptgrund dafür, dass sowohl der Erste als auch der Zweite Weltkrieg von den Alliierten gewonnen wurden war, dass sie über mehr Öl, Petroleum und Kohle verfügten als die Achsenmächte Deutschland, Italien und Japan, um ihre militärische Ausrüstung an Flugzeugträgern, Schlachtschiffen, Zerstörern, U-Booten, Flugzeugen, Panzern und Panzerungen, Lastwagen, Truppentransportern und Waffen zu betreiben.

Außerdem hatte die Welt vor 1900 nur sehr wenig Handel, und ohne Transport gibt es keinen Handel. Die beiden Zugpferde, die mehr für die Sache der Globalisierung getan haben als alle anderen sind der Dieselmotor und die Düsenturbine. Beide beziehen ihre Energie aus Öl. Straßen- und Flugverkehr dominieren heute das Leben der meisten Menschen.

Nach 1900 verfügen wir heute über Medikamente, Elektronik, Kosmetika, Kunststoffe, Düngemittel, Verkehrsinfrastrukturen und Tausende von Produkten, die aus den Derivaten des Rohöls gewonnen werden, darunter alle Teile* von Sonnenkollektoren und Windturbinen sowie die verschiedenen Brennstoffe, mit denen Flugzeuge, Lastwagen, Baumaschinen, Handelsschiffe, Kreuzfahrtschiffe und Autos weltweit betrieben werden.

[*Dieser Beitrag stammt zwar schon aus dem Jahr 2016, doch sollte man den darin beschriebenen Umstand lauthals immer wieder verkünden: Ohne fossile Treibstoffe gibt es keinerlei Solarpaneele und Windmühlen! Anm. d. Übers.]

Die Fragen, für deren Beantwortung sich Demonstranten gegen fossile Brennstoffe sowohl von der Demokratischen als auch von der Republikanischen Partei Zeit nehmen sollten, sind zweifacher Art: 1) Wie können wir zulassen, dass jedes Jahr 11 Millionen Kinder auf der Welt in den Entwicklungsländern an vermeidbaren Ursachen sterben? und 2) Wie werden wir uns an Lebensstile anpassen, wie sie vor dem Jahr 1900 gang und gäbe waren – also ohne Zugang zu den Tausenden von Produkten, die heute aus Erdölderivaten hergestellt werden, und zu den Brennstoffen, die von Fluggesellschaften, Handelsschiffen, Verkehrsinfrastrukturen und dem Militär benötigt werden und die es vor 1900 noch nicht gab?

[Hervorhebung vom Übersetzer]

Autor: Ronald Stein, P.E. is the co-author of the newly released book, “Just GREEN Electricity,” an internationally published columnist, and a policy advisor for The Heartland Institute.

Full Bio

Link: https://www.heartland.org/news-opinion/news/how-would-life-without-fossil-fuels-impact-society

Übersetzt von Chris Frey EIKE




Moderne Klimawandel-Wissenschaft

Sie liefern auch einen wahrscheinlichen Wert von 2,4°C auf Seite 9, obwohl sie auf Seite 2 einen Wert „nahe 3,0“ angeben. Der Wert auf Seite 9 ist nicht weit entfernt von der empirischen Schätzung von 2°C von Guy Callendar aus dem Jahr 1938, aber deutlich höher als der von Nic Lewis und Judith Curry (Lewis & Curry, 2018) angegebene Wert von 1,2°C bis 1,95°C (Bereich von 17% bis 83%, best estmate 1,5°C).

Das IPCC schätzt in seinem AR5-Bericht (Bindoff & Stott, 2013) die ECS auf einen Temperaturbereich zwischen 1,5°C und 4,5°C und liefert kein best estimate. Diese Spanne entspricht genau der des Charney-Berichts vor 34 Jahren. Während sich die empirischen, auf Beobachtungen basierenden Schätzungen deutlich verringert haben, hat sich die theoretische Bandbreite nicht verändert, obwohl Tausende von staatlich finanzierten Wissenschaftlern Milliarden von Dollar dafür ausgegeben haben. Die Daten sind heute sehr ähnlich, und es scheint keine Rolle zu spielen, dass sie mit leistungsfähigeren Computern und Milliarden von Dollar schneller ausgegeben werden. Mit Dung funktioniert es auf dieselbe Weise.

[Hervorhebung vom Übersetzer]

Wenn wir den AR5 genau unter die Lupe nehmen, wie es Monckton et al. in MSLB15 taten, einem Aufsatz mit dem Titel „Why Models run hot: results from a irreducially simple climate model“ (Monckton, Soon, Legates, & Briggs, 2015), sehen wir, dass die Elemente der theoretischen AR5-Berechnungen darauf hindeuten, dass sich der Bereich nach unten verengt. Angesichts des politischen Umfelds beim IPCC kann man leicht vermuten, dass die Politiker nicht zugeben wollen, dass die theoretischen Risiken des CO2-bedingten Klimawandels abnehmen. Je mehr empirische Schätzungen des CO2-Effekts erscheinen und je mehr theoretische Arbeit geleistet wird, desto mehr fragt man sich, wie lange die Politiker die deutlich überhöhte Spanne von 1,5°C bis 4,5°C noch unterstützen können.

Die Schätzungen der ECS sind seit langem rückläufig, wie Nicola Scafetta und Kollegen 2017 gezeigt haben. Abbildung 1 stammt aus ihrer Studie:

Abbildung 1: Der Rückgang der Schätzungen der ECS von 2000 bis 2015. Quelle: Scafetta, Mirandola und Bianchini, 2017.

In den 1980er Jahren wurde die Idee der katastrophalen, vom Menschen verursachten (oder anthropogenen) globalen Erwärmung (CAGW) entwickelt. Seitdem schlagen die Alarmisten Jahr für Jahr die Trommel. In den Vereinigten Staaten fand am 23. Juni 1988 im Dirksen-Senatsbürogebäude in Washington, DC eine Senatsausschusssitzung zum Thema CAGW statt, die von Senator Tim Wirth ausgerichtet wurde. Es war ein heißer und feuchter Tag im sumpfigen Washington, DC. Das Treffen war ein Wendepunkt, was nicht zuletzt Dr. James Hansen von der NASA zu verdanken war. In seiner Präsentation vor dem Kongressausschuss sagte er:

1988 ist es wärmer als jemals zuvor in der Geschichte der instrumentellen Messungen.

Alles in allem sind die Beweise dafür, dass sich die Erde um einen Betrag erwärmt, der zu groß ist, um eine zufällige Fluktuation zu sein, und die Ähnlichkeit der Erwärmung mit der durch den Treibhauseffekt zu erwartenden, ein sehr starker Fall. Meiner Meinung nach … ist der Treibhauseffekt entdeckt worden, und er verändert jetzt unser Klima.

Die gegenwärtig beobachtete globale Erwärmung liegt nahe 0,4 Grad C, relativ zur ‚Klimatologie‘, die als Mittelwert der dreißig Jahre (1951 – 1980) definiert ist. … können wir mit etwa 99-prozentiger Sicherheit feststellen, dass die gegenwärtigen Temperaturen eher einen echten Erwärmungstrend als eine zufällige Schwankung über den Zeitraum von 30 Jahren darstellen“. (Hansen, 1988)

ExxonMobil glaubte, dass die natürliche Variabilität ±0,5°C betrug. Man war der Meinung, dass eine Veränderung größer als diese sein musste, um signifikant zu sein. Offensichtlich schränkte Hansen diesen natürlichen Bereich irgendwie ein. Die Welt kühlte sich von 1944 bis 1977 global ab und begann sich dann 1978 zu erwärmen. Ein Anstieg von 0,4°C ist nicht viel, so dass die Verwendung dieses Wertes, um festzustellen, dass der „Treibhauseffekt“ nach einer langen Abkühlungsperiode festgestellt wurde, hätte Stirnrunzeln und Fragen hervorrufen müssen. Man beachte, dass Hansen „Treibhauseffekt“ sagt, wenn er den „vom Menschen verursachten Treibhauseffekt“ oder „verstärkter Treibhauseffekt“ meint. Es gibt einen natürlichen Treibhauseffekt, der durch natürliches CO2 und andere Treibhausgase, insbesondere Wasserdampf, verursacht wird. Dies ist der Beginn einer Täuschungstaktik, die von den Alarmisten häufig angewendet wird. Um die natürlichen Ursachen des Klimawandels zu ignorieren, setzen sie den „Treibhauseffekt“ mit dem „vom Menschen verursachten Treibhauseffekt“ gleich. Außerdem verwenden sie „globale Erwärmung“ als Synonym für „vom Menschen verursachte globale Erwärmung“, und „Klimawandel“ ist gleichbedeutend mit „vom Menschen verursachter Klimaänderung“. Diese Art von trügerischer und manipulativer Sprache wird auch heute noch verwendet.

Die IPCC-Berichte

Der erste IPCC-Bericht (FAR) unter dem Vorsitz von Bert Bolin stellte fest, dass die globale Erwärmung bis 1992, als der Bericht veröffentlicht wurde, in den Bereich der „natürlichen Klimavariabilität“ fiel und nicht unbedingt auf menschliche Aktivitäten zurückzuführen war (IPCC, 1990, S. XII). Sie hielten den eindeutigen Nachweis eines menschlichen Einflusses „für ein Jahrzehnt oder länger für unwahrscheinlich“. Bert Bolin war der Meinung, dass James Hansens Aussage im Kongress 1988 die Bedeutung der jüngsten globalen Erwärmung übertrieben habe.

Der zweite, 1996 veröffentlichte Bericht SAR kam zu dem Ergebnis, dass „die Abwägung der Beweise auf einen erkennbaren menschlichen Einfluss auf das globale Klima hindeutet“. (IPCC, 1996, S. 4). Dies basierte jedoch auf unveröffentlichten und nicht überprüften Arbeiten von Benjamin Santer und Kollegen. Seine Studie legte nahe, dass die Vorhersagen der Klimamodelle über die Erwärmung in der Troposphäre und die Abkühlung in der Stratosphäre dem entsprachen, was sich abspielte. Er nannte dies einen „Fingerabdruck“ des menschlichen Einflusses auf das Klima (Santer, et al., 1996a). Nach der Veröffentlichung der Studie stellte sich heraus, dass Santer bzgl. dieses Fingerabdrucks „Rosinenpickerei“ betrieben hatte (Michaels & Knappenberger, 1996). Die Studie wurde zurückgewiesen, und der IPCC wurde gedemütigt. Diese Demütigung wurde noch dadurch verstärkt, dass die für den IPCC verantwortlichen Politiker dabei erwischt wurden, wie sie die wissenschaftlichen Berichte innerhalb der SAR veränderten, um sie ihrer Summary for Policymakers anzupassen (Seitz, 1996).

Der 2001 veröffentlichte dritte Bericht TAR stellte fest, dass „der Großteil der in den letzten 50 Jahren beobachteten Erwärmung wahrscheinlich auf den Anstieg der Treibhausgaskonzentrationen zurückzuführen ist“. (IPCC, 2001, S. 10). Sie stützten diese Entscheidung auf den „Hockeyschläger“, der sich später als fehlerhaft erwies. Bis zur Veröffentlichung des vierten Berichts (AR4) im Jahr 2007 zeigten zahlreiche Untersuchungen des Hockeyschlägers, dass er fehlerhaft war und zu wenig Variabilität aufwies. Dies wurde im vierten Bericht, AR4, von Keith Briffa eingeräumt, der, etwas beschönigend, schrieb, dass der Hockeyschläger zu empfindlich auf bestimmte Proxies (Baumringe) und die statistischen Verfahren (Hauptkomponenten) reagierte, welche zu seiner Konstruktion verwendet worden waren (IPCC, 2007b, S. 436). Willie Soon und Sallie Baliunas zeigten, dass der Hockeyschläger nicht die Daten widerspiegelte, die zu seiner Konstruktion verwendet wurden (Soon & Baliunas, 2003). Der Hockeyschläger entpuppte sich als eine ausgeklügelte Fiktion, die einzig und allein aus einem fehlerhaften statistischen Verfahren und einem schlecht ausgewählten Satz von Temperaturproxies entstand (National Research Council, 2006, S. 112-116) und (Wegman, Scott, & Said, 2010, S. 4-5, 48-50).

Als AR4 im Jahr 2007 veröffentlicht wurde, hatte die Führung des IPCC aufgegeben, direkte Beweise dafür zu finden, dass der Mensch den Klimawandel beherrscht. Sie hatten es mit dem „Fingerabdruck“ von Santer und dem „Hockeyschläger“ von Michael Mann versucht und konnten die Öffentlichkeit mit beidem nicht überzeugen. So versuchten sie im AR4, die Öffentlichkeit mit Klimamodellen zu überzeugen, dass „der größte Teil des beobachteten Anstiegs der globalen Durchschnittstemperaturen seit Mitte des 20. (IPCC, 2007b, S. 10) sehr wahrscheinlich der beobachteten Zunahme von Treibhausgasen in der Atmosphäre geschuldet ist“. Sie präsentieren keine Beobachtungen, sondern lediglich Modellergebnisse. Der fünfte Bericht, AR5, war lediglich eine Wiederholung von AR4. Dieselben zwei Modelle, dasselbe Ergebnis. Wie bereits erwähnt, zeigte MSLB15 (Monckton, Soon, Legates, & Briggs, 2015), dass die neueren Ergebnisse des AR5-Modells darauf hindeuteten, dass die Schlagzeilen des IPCC die Empfindlichkeit des Klimas gegenüber CO2 überbewerten, aber dieses Ergebnis wurde im Bericht weder erklärt noch eingeräumt.

Während also die empirischen Berechnungen der Klimasensitivität gegenüber CO2 nun eine ECS zwischen 1,1°C und 2,45°C zeigen (siehe Tabelle 1), blieben die theoretischen Schätzungen bei 1,5 bis 4,5 – mit Ausnahme von AR4, als diese auf 2,0 bis 4,5 geändert wurde. Die Bereiche in Tabelle 1 sind allesamt 5% bis 95% Bereiche, soweit ich das beurteilen kann.

Tabelle 1. Verschiedene Schätzungen der ECS. Alle sind theoretische Berechnungen mit Ausnahme von Lewis und Curry, deren Schätzung auf Beobachtungen beruht:

Tausende von Wissenschaftlern und Milliarden von Dollar später haben wir also immer noch die gleiche theoretische Unsicherheit über die Auswirkungen von CO2 auf das Klima. Die einzige empirische Schätzung der ECS, die gezeigt wird, liegt bei etwa 1,5°C. Die meisten dieser empirischen Schätzungen liegen unter 2°C und gruppieren sich um 1,5°C bis 1,6°C (Lewis & Curry, 2018). Die empirische Schätzung von Guy Callendar lag bei 2°C (Callendar, 1938) und die theoretische Schätzung von Arrhenius (Arrhenius, 1908) bei 4°C. Man kann also sagen, dass die gesamte Arbeit und das Geld, das seit 1938 aufgewendet wurde, um den Klimawandel dem Menschen zuzuschreiben, verschwendet wurde.

[Hervorhebung vom Übersetzer]

Wird es nun besser? Wie steht es mit der neuesten Generation theoretischer Modelle, CMIP6? Erste Anzeichen deuten darauf hin, dass die Ergebnisse nicht besser, sondern schlechter werden, wie Ron Clutz und John Christy berichten. Während die meisten der neuen Modelle absurd überhöhte Werte für die ECS zeigen, ist es interessant, dass die neueste Version des russischen Modells, INM-CM4, auf das ich in meinem vorherigen Beitrag Bezug genommen habe, jetzt eine ECS von 1,83 vorhersagt. Mit Ausnahme des INM-CM4 haben wir also seit 1938 keine Fortschritte gesehen. Wie meine verstorbene Großmutter Marie McCartney sagen würde, „ist das jetzt nicht einfach großartig?“.

This is a condensed excerpt, with minor modifications, from my new book, Politics and Climate Change: A History.

To download the bibliography, click here.

Link: https://wattsupwiththat.com/2020/11/12/modern-climate-change-science/

Übersetzt von Chris Frey EIKE




Klimaschutz aus Ilmenau: Energiewende-Durchbruch dank künstlicher Photosynthese?

Unweit von EIKEs Heimstatt Jena liegt das kleine Ilmenau, eine renommierte Hightech-Schmiede seit DDR-Zeiten, wo hervorragende Ingenieure für Maschinenbau und IT ausgebildet werden. Sogar Klimalesch beehrte die kleine-feine Uni dort schon mit einem Hörsaalvortrag, währenddessen er einen unbotmäßigen Kritiker zur Schnecke machte.

Der Forscher Thomas Hannappel und sein Team entwickeln dort eine Art spezielle Fotozelle, die mit Hilfe von Sonnenlicht etwas Ähnliches macht wie die Pflanzen bei der Fotosynthese: Wasser spalten, und die gewonnene Energie speichern. Nun ja, so ganz kann man die Natur nicht nachstellen, denn Pflanzen und einige Bakterien erzeugen keinen hochexplosiven und extrem flüchtigen Wasserstoff, sondern speichern die gewonnene Energie in extrem haltbaren organischen Molekülen:

Wasser + Kohlenstoffdioxid + Lichtquanten Traubenzucker + Sauerstoffgas

Gottes Weisheit ist eben noch lange nicht zu toppen; vor allem, wenn man vor lauter Hybris seine Demut verliert und „das Klima retten will“. Vielleicht will Hannappel aber gar nicht das Klima retten, sondern einfach nur Technologien beforschen und verkauft sein Projekt halt „sexy“. Mit dem Etikett Klimaschutz kann man heute bekanntlich alles beforschen. Immerhin wird Hannappels Technologie nicht erst seit Beginn der Klima-Energiewende beforscht, sondern schon seit 17 Jahren. Und die ursprüngliche Idee stammt von 1912. Wer an Einstein und die Deutung des photoelektrischen Effektes denkt, weiß, wie man darauf kam.

Zur Technik, die durchaus fasziniert: Die biologische Fotosynthese ist frappierend ineffizient, wenn man bedenkt, daß große Teile des Planeten grün sind. Rund 1% des Sonnenlichtes werden über Chlorophyll und andere Sammelmoleküle eingefangen. Wer sich schon immer fragte, warum Pflanzen sich meist nicht aktiv bewegen können, weiß es jetzt; sie haben schlicht keine Energie dafür. Da bietet es sich für Ingenieure natürlich an, im Sinne der Bionik den biologischen Enzym-abhängigen Prozeß zu optimieren. Das künstliche Blatt des Ilmenauer Teams, das mit Kollegen aus dem Helmholtz-Zentrum Berlin und aus den USA zusammenarbeitet, besteht aus extrem dünnen Halbleiterflächen – Photoelektrochemische Zelle PEC genannt. Hochinteressant an der Technik ist, daß man die PEC nur ins Wasser legen und bescheinen muß – schon entsteht Wasserstoffgas. Keine Kabel und keine Energiezufuhr zum Starten der Reaktion nötig. In dem künstlichen Blatt stecken Solarzellen, die Quanten verschiedenster Wellenlängen (Farben) einfangen und an den Elektroliseur weiterleiten. Die bisher erreichte Effizienz wird vom Team mit 19% angegeben, was bei 1.000 Watt Einstrahlungs-Leistung pro Quadratmeter also 190 Watt entsprechen soll. Allerdings korrodieren die verwendeten Materialien im Wasserbad recht schnell – mehr als 100 Stunden Betriebsdauer schafft die PEC noch nicht, ohne daß der Abbau einsetzt.

Die Regierung fördert und schätzt die Technologie natürlich, erkennt sie hierin doch eine mögliche Rettung für die eigene wirklichkeitsfremde Politik. Immerhin erkennen die Politiker an, daß bis zur Marktreife noch einiges an Wasser die Ilm herunterfließen wird – viele Stromausfälle später, wie der Klimawende-Kritiker ergänzen würde.

Auch Hannappel sieht seine Entwicklung erst in zehn Jahren am Markt. Dann könnten bei Serienreife große Flächen damit bedeckt werden; ähnlich wie bei geförderten Photovoltaik-Paneelen.




Will man während eines Stromausfalls nicht im Dunkeln sitzen, sollte man daheim immer einen Grundvorrat an Kerzen und Teelichtern haben! – Frohmutsphrasen zum Blackout

Wenn es nach der Presse geht, sollen die Deutschen gefälligst vor den richtigen Dingen Angst haben. Corona-Angst ist richtig, bitte zittern und kuschen, nur nicht demonstrieren. Der Klima-Tod ist nah, bitte zittern und zahlen, auch für die Luft zum Ausatmen. Der Atomtod durch den GAU kommt gewiss, bitte zittern und stromlos frieren, passt ja auch gut zusammen. Der Feinstaub bringt 400.000 EU-Bürger um, bitte zittern und zu Fuß gehen, neues Diesel-Auto verschrotten, Nitrat wird uns alle vergiften, bitte zittern und Grenzwerte auf unmöglich erreichbar setzen. Die Liste ist beliebig verlängerbar. Angst ist seit Jahren das Mittel der Wahl, wenn es um Politik geht.

Dann aber gibt es reale Gefahren, da wird entwarnt und verharmlost, was das Zeug hält. Die Energiewende in ihrem Lauf, halten weder Corona noch die Wirtschaftskrise auf, schon gar kein Blackout.

Im weiteren Lauf der Energiewende ist die Stromversorgung ohne Blackout ungefähr genauso sicher, wie es beim seligen Norbert Blüm die Rente war und beim unseligen Peter Altmaier die Arbeitsplätze nach Corona-Lockdowns sind. Und vielleicht genau so glaubwürdig, wie Angela Merkels: „Niemand wird gezwungen werden, sich impfen zu lassen“. Es hatte ja auch niemand die Absicht, eine Mauer zu bauen, schon gar nicht Walter Ulbricht.

Von DPA inspiriert, titelt n-tv: „Keine Angst vorm Blackout – gut gerüstet für den Stromausfall“. Ein Bild mit einer Familie, gemütlich beim Kerzenschein mit Hund und Kind sitzend, illustriert die Verharmlosung der Blackout-Gefahr perfekt. Dann wird eine Statistik bemüht: „Statistisch gesehen ist bei uns jeder Stromkunde jährlich nur 14 Minuten vom Stromnetz getrennt.“ Tja, liebe NTV-Journalisten, statistisch gesehen können die Erneuerbaren Energien schon bald den Strombedarf decken. Wozu brauchen wir dann eigentlich noch die ganzen blöden Kraftwerke? Und relativiert der Autor die eigene Verharmlosung: „Längere Stromausfälle sind in Deutschland zwar sehr selten, aber nicht völlig ausgeschlossen. Mit etwas Vorbereitung ist man für diesen Ernstfall gerüstet.

Wie sieht diese Vorbereitung nach der Vorstellung des n-tv-Schreibers aus? Der „Experte“ rät bei einem Stromausfall vor allem: „Ruhe bewahren! Man sollte unbedingt Taschenlampen, Kerzen und Feuerzeuge in der Wohnung haben, ebenso ein batteriebetriebenes Radio und genügend Ersatzbatterien. Und man muss wissen, wo diese Dinge im Ernstfall griffbereit sind. Auch ein Smartphone und eine aufgeladene Powerbank sind wichtig“. Na, wenn’s weiter nichts ist. Tun es vielleicht Streichhölzer statt des Feuerzeugs?

Der sogenannte Blackout

Doch dann treibt den Autor die Sorge um den Inhalt des Gefrierschrankes um. Daher wird bei n-tv aus dem Blackout schnell mal ein „sogenannter Blackout“, so wie einst aus der DDR eine „sogenannte DDR“ wurde.

„Die Inhalte von Kühlschränken und Gefriertruhen scheinen besonders anfällig für die Folgen eines sogenannten Blackouts zu sein. Bei modernen Geräten müssen die Auswirkungen eines Netzausfalls kurzfristig aber keine größeren Schäden verursachen, beruhigt Ellen Großhans vom Bundesministerium für Ernährung und Landwirtschaft (BMEL): „Je nach Energie-Effizienzklasse verfügen Kühl- und Gefriergeräte über eine eingebaute Kältedämmung, die beim Ausfall der Energieversorgung den Temperaturanstieg im Inneren verlangsamt.“ Wenn dann Türen und Deckel möglichst geschlossen bleiben, überstehen selbst empfindliche Lebensmittel mehrere Stunden ohne Strom unbeschadet“. 

Und wenn es dann doch ein bisschen länger dauert mit dem Blackout, hat man immer noch die „Katastrophenschutz-Expertin Julia Höller vom Bundesamt für Katastrophenschutz“ vorrätig, die eine längere Störung der Energieversorgung „grundsätzlich für plausibel“ hält:

In diesem Fall würden in Häusern und Wohnungen alle elektrisch betriebenen Geräte wie Lampen, Heizung, Kühlschrank und Kommunikationsgeräte dauerhaft ausfallen. Ampeln und Straßenbahnen funktionieren dann nicht, auch wird man nicht wie gewohnt einkaufen können.“ 

Soso, die Straßenbahn fährt nicht mehr? Man kann nicht einkaufen?

Kein Wort vom kompletten Zusammenbruch der gesamten Gesellschaft, vom Zusammenbruch der Verkehrs- und Handelsstrukturen, von Bränden, die nicht mehr gelöscht werden können, vom Kommunikationsnetz, das zusammenbricht, kein Wort vom Zusammenbruch des Gesundheitswesens. Kein Wort vom Zusammenbruch der inneren Ordnung und von marodierenden Banden.

Alles paletti, wenn „Haushalte darauf vorbereitet sind, bis zu zehn Tage lang ohne fremde Hilfe auszukommen“, sagt Höller. Das BBK empfiehlt einen ausreichend großen Vorrat an haltbaren Lebensmitteln, Getränken sowie Hygiene- und Gebrauchsgegenständen, ebenso genügend Bargeld. Je nach Lebenssituation sollten auch genug Babynahrung, dringend benötigte Medikamente und Futter für die Haustiere sicher gelagert sein. Gerade im Winter dürfen auch warme Kleidung und ausreichend Decken nicht fehlen, da mit dem Strom auch die Heizung ausfällt.

Die Krux mit dem „bis zu…“

Immer wenn jemand einen Satz mit „bis zu…“ sagt, werde ich misstrauisch. Das jüdische Sprichwort sagt: Alles vor dem „aber“ ist eine Lüge. Ich sage: Alles nach dem „bis zu“ ist eine Lüge.

Die Kosmetikfirma meint, dass ihre Gesichtscreme Falten bis zu 87 Prozent beseitigt? Der Autoverkäufer meint, das sein Elektroauto eine Reichweite von bis zu 500 km hat? Spahn sagt, dass „bis zu 40 Prozent der Deutschen zur Corona Risikogruppe gehören“?  Die Grünen sagen, „dass eine Vollversorgung des Strombedarfs bis zum Jahre 2030 möglich ist“? Alles nach dem „bis zu“ ist eine freche Lüge.

Beim Blackout braucht die Familie nur ein paar Vorräte, um „bis zu“ 10 Tagen ohne fremde Hilfe auszukommen? Bis zu 10 Tagen, wenn nicht geheizt werden kann, wenn das Klo nicht mehr funktioniert, kein Wasser mehr läuft, die Oma nicht zur Dialyse fahren kann und das Fläschchen fürs Baby nicht mehr warm gemacht werden kann? Und wo lagert die Familie dauerhaft Vorräte für „bis zu“ 10 Tage? Und wie schafft sie die Logistik des ständigen Umwälzens der Vorräte?

Ich versuche mir gerade vorzustellen, was bei einem „sogenannten“ Blackout in Corona-Zeiten passieren würde. Aber leider ist die Flasche Pastis leer, also lasse ich es lieber. Vielleicht ein anderes Mal.

Der Beitrag erschien zuerst bei ACHGUT hier




Woher kommt der Strom? Je mehr Windstrom, desto billiger – für unsere Nachbarn

(Abbildung, bitte unbedingt anklicken. Es öffnen sich alle Abbildungen & mehr)

Denn der Wind weht. Auf See recht kontinuierlich, an Land schwankend. Plus über Tag die insgesamt schwache Sonnenstromerzeugung. Die im Winter immer unterdurchschnittlich ist. Im Sommer hingegen überdurchschnittlich. Das liegt auch in der Natur der Sache: Des Sonnenstandes in der jeweiligen Jahreszeit.  Sonne scheint so gut wie nie durchschnittlich. So wenig, wie Wind durchschnittlich weht. Im Winterhalbjahr mal sehr stark, mal recht wenig. Insgesamt aber immer mehr als im Sommerhalbjahr. Daran liegt es, dass die konventionelle Stromerzeugung (Abbildung 1) so anspruchsvoll und schwierig geworden ist. Sie muss dann hochgefahren werden, wenn es so aussieht, dass regenerativ erzeugter Strom über einen längeren Zeitraum fehlt. Und umgekehrt. Wegen der starken Erzeugungsschwankungen der Regenerativen ist eine Kalkulation kaum verlässlich möglich. Es bleibt immer ein Vabanquespiel. Denn eines darf keinesfalls geschehen: Dass der Strom ausfällt.  Versorgungssicherheit muss immer gewährleistet sein. Oder soll der Strom demnächst zugeteilt werden? Wir werden sehen.

Die 44. Woche (Abbildung 2) bescherte unseren europäischen Nachbarn jedenfalls eine Menge günstigen Strom und die Möglichkeit zu einigen profitablen Preisdifferenzgeschäften (Abbildung 3)

Die Tabelle mit den Werten der Energy-Charts und die daraus generierte Tabelle (Abbildung 4) plus die beiden Im- Exportcharts Woche und Jahr (Abbildung 5) vervollständigen die Datensammlung dieser Woche. Abbildung 6 bringt zeigt die Auswertung der Im- und Exportpreise für Strom. Datenquelle ist Agora-Energiewende.

Vor den Tagesanalysen noch der Hinweis auf den Chart mit der Auswertung einer angenommenen Verdoppelung der Wind- und Sonnenstromerzeugung dieses Jahres (Abbildung 7). Am 30.10.2020 waren Stromerzeugung mittels erneuerbarer Energieträger und der Bedarf über den Tag verteilt identisch. Was nicht bedeutet, dass es auch zu jeder Stunde, Viertelstunde oder Minute ausgereicht hätte. Es vielmehr so, dass die Stromschwankungen mal für eine Überversorgung, mal eine Unterversorgung bezogen auf den Bedarf sorgen. Meine Hochrechnung ist lediglich ein Anhalt.

Die Tagesanalysen

Sonntag, 25.10.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 65,19 Prozent, davon Windstrom 45,93 Prozent, Sonnenstrom 6,67 Prozent, Strom Biomasse/Wasserkraft 12,59 Prozent. Die Agora-Chartmatrix: Hier klicken.

Bis 15:00 Uhr ist viel zu viel Strom im Markt. Dieser wird praktisch verschenkt oder sogar mit einem Bonusscheck (3:00 bis 7:00 Uhr) abgegeben. Erst zum Abend werden etwas höhere Preise erzielt. Dafür muss die konventionelle Stromerzeugung ganz schön bullern. Denn die Windstromerzeugung lässt nach. Diese Nachbarn kaufen günstig ein.

Montag, 26.10.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 40,71 Prozent, davon Windstrom 26,43 Prozent, Sonnenstrom 2,14 Prozent, Strom Biomasse/Wasserkraft 12,14 Prozent. Die Agora-Chartmatrix: Hier klicken.

Die bereits am Sonntag sinkende Windstromerzeugung bleibt schwach. Für den Herbst. Deutschland kauft – trotz hochgefahrener konventioneller Erzeugung – fast den ganzen Tag über Strom ein, um den Bedarf zu decken. Die Preise liegen vom frühen Morgen und ab 21:00 Uhr immer über 40€/MWh. Wenigstens müssen keine Preisspitzen (60€/MWh und mehr) hingenommen werden. Der Stromhandel ist heute recht ´dünn`.

Dienstag, 27.10.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 54,27 Prozentdavon Windstrom 39,02 Prozent, Sonnenstrom 4,27 Prozent, Strom Biomasse/Wasserkraft 10,98 Prozent. Die Agora-Chartmatrix: Hier klicken.

Windstromerzeugung zieht heute über Nacht an und legt am Abend noch mal zu. Dennoch muss wie immer Strom konventionell hinzu erzeugt werden, damit der Bedarf gedeckt werden kann. Hier das Preisniveau und die Nachbarn, die den Strom abnehmen. Der Vormittag und der Vorabend bringen erkleckliche Erträge. Bemerkenswert ist, dass Dänemark und Schweden den ganzen Tag über Strom nach Deutschland importieren.

Mittwoch, 28.10.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 56,97 Prozentdavon Windstrom 41,82 Prozent, Sonnenstrom 4,24 Prozent, Strom Biomasse/Wasserkraft 10,91 Prozent. Die Agora-Chartmatrix: Hier klicken.

Viel Windstrom am Mittwoch. Als über Tag der Wind etwas nachlässt, scheint die Sonne. Was genau von 11:00 bis 13:00 Uhr die Preise unter 40 €/MWh fallen lässt. Ansonsten werden am Vormittag und am Vorabend Preise über 40€/MWh erzielt. Die konventionelle Stromerzeugung und die Nachbarn, die unseren Überschuß abnehmen.

Donnerstag, 29.10.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 55,83 Prozent, davon Windstrom 41,72 Prozent, Sonnenstrom 3,68 Prozent, Strom Biomasse/Wasserkraft 10,43 Prozent. Die Agora-Chartmatrix: Hier klicken.

Das Preisniveau liegt heute vom Vormittag und Vorabend abgesehen unter 30€/MWh, teilweise sogar unter  20, ja sogar unter 10€/MWh. Immerhin muss kein Strom nicht verschenkt werden. Die konventionelle Stromerzeugung und die Nachbarn, die den Strom abnehmen. 

Freitag, 30.10.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 55,84 Prozent, davon Windstrom 42,21 Prozent, Sonnenstrom 1,95 Prozent, Strom Biomasse/Wasserkraft 11,69 Prozent. Die Agora-Chartmatrix: Hier klicken

Zum Abend des Freitags deutet sich eine Windflaute an. Die Windstromerzeugung nimmt rapide ab. Die konventionellen Stromerzeuger können folgen, so dass zum Vorabend noch ein nominal auskömmlicher Exportpreis erzielt werden kann, während in der Nacht zum Freitag nochmal mit um die 5€/MWh, die 0€-Grenze fast gekratzt wird. Diese Nachbarn bekommen den Strom.

Samstag, 31.10.2020: Anteil Erneuerbare an der Gesamtstromerzeugung 48,74 Prozent, davon Windstrom 27,73 Prozent, Sonnenstrom 6,72 Prozent, Strom Biomasse/Wasserkraft 14,29 Prozent. Die Agora-Chartmatrix: Hier klicken.

Am frühen Morgen des Samstags kommt es tatsächlich zu einem Einbruch der Windstromerzeugung. Glücklicherweise bringt die aufgehende Sonne etwas Ausgleich. Auch zieht die Offshore-Windstromerzeugung wieder an, so dass die Stromunterdeckung gegen Mittag vorüber ist. Die Preise, welche Deutschland für den Importstrom zahlen muss, sind moderat, was am Zeitraum der Lücke liegt. Dass sie zur Mittagsspitze, als Deutschland überschüssigen Strom, absinken, sei nur der Vollständigkeit halber erwähnt. Die konventionelle Stromerzeugung könnte morgens mehr bringen. Sie bleibt eingedenk der erwartbar niedrigen Preise faktisch konstant. Was sich als richtig erweist. Diese Nachbarn liefern Strom, nehmen Strom ab.

Oben erwähnte ich, dass Strompreise nominal auskömmlich sein können. Wo aber liegt der tatsächliche Preis des Stroms. Der Preis, der unter Berücksichtigung aller Faktoren und Aspekte der realistische ist. Ist regenerativ erzeugter Strom tatsächlich so günstig, wie Freunde der Energiewende behaupten. Unter dem Strich? Meine Analysen lassen da schon Zweifel aufkommen. Je mehr regenerativ erzeugter Strom im Markt ist, desto niedriger wird das Preisniveau. Fehlt hingegen Strom, muss er in aller Regel teuer hinzugekauft werden. Jedenfalls im Verhältnis zum Exportstrompreis.

Sehr ausführlich und umfassender hat sich. Dr. Björn Lomborg mit diesem Themenfeld beschäftigt. Björn Lomborg ist Präsident des Copenhagen Consensus Centers und Visiting Fellow an der Hoover Institution, Stanford University. Die Ergebnisse können Sie unter Abbildung 8 aufrufen.

Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de Aber bitte immer höflich. Ist klar, nicht wahr?

Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr.

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

Rüdiger Stobbe betreibt fast fünf Jahre den Politikblog  www.mediagnose.de

Schon erschienen auf der Achse des Guten.