1

Windkraft: Energiewende-Tricksereien in der Schweiz

Deutsche und Österreicher denken häufig, felix Helvetica; Schweiz, Du hast es besser. Direkte Demokratie, eine seit Jahrhunderten an die Kette gelegte Bundesregierung, deren Vertretern sogar bei jeder kleinen Auslandsreise auf die Finger geguckt wird. Weltrettungsfantasien abgehobener Nationalpolitiker wie Merkel oder O’Bama scheinen da ausgeschlossen.

Denkste!

Wußten Sie, daß das Binnen-I, also der erste Genderneusprech, eine Schweizer Erfindung ist? Und von einem Autor namens Herodot erfuhren wir neulich in der Schweizer Weltwoche, daß die Großstädte der Eidgenossenschaft ähnlich wie die in der BRD oder Österreich zum Teil schon mehrheitlich von Secondos, Immigranten (-Kindern), bevölkert seien.

Da darf die Schöne Neue Schweiz natürlich auch in Sachen Klimasozialismus nicht nachstehen. Man könnte denken, das Alpenland hätte mit seinen Berggipfeln schön viel Wind für die bei linken Politikern beliebten Vogel-Schredder-Anlagen. Mitnichten: Das Bundesamt für Energie (BfE) hatte für die Abstimmung zum Schweizer Energiegesetz 2017 wohl Winddaten manipuliert. Die Politik hat ähnlich wie in Merkeldeutschland vor, den Schweizer Energiebedarf 2050 mit bis zu 10% über Windkraft zu decken. Dafür bräuchte man bis zu 800 neue Windräder (der Tourismusverband wird sich freuen).

Das BfE betreibt im Internet einen Windatlas, der zeigt, wie stark es wo weht, bzw. nicht weht. Denn gegenüber 2016 fallen die aktuellen Daten deutlich magerer aus. Selbst wenn die Angaben von 2016 nicht geschönt wären: Das BfE beweist hier selber, daß Wind eine unstetige Energiequelle mit geringer Dichte ist. Ohne große und effiziente Energiespeicher, die wir schlicht nicht haben, ist Windkraft für ein hochentwickeltes Industrieland keine Option.

Die Windkraftgegner von der Bürgerinitiative „Freie Landschaft Schweiz“ werfen dem Bundesamt nun vor, vor der Abstimmung 2017 die Daten manipuliert und anschließend korrigiert zu haben. Das BfE reagiert darauf mit dem Hinweis, daß der aktuelle Windatlas mit Hilfe einer mittlerweile viel höheren Zahl von Messgeräten erstellt worden sei, daher die veränderten Daten. Die geringeren Windwerte reichten trotzdem aus, das idyllische Urlaubsland vollzuspargeln. Und man habe auf keinen Fall aus politischen Gründen manipuliert. Wollen wir es hoffen. Nicht, daß sich wie beim Climate-Gate ein Computerhäcker einschleicht und verräterische Emails ins Internet stellt. Hieße das dann „Wind-Gate“?

 




Windenergie, Infraschall und das Schweigen im Umwelt-Bundesamt

Kürzlich erschien im Deutschen Ärzteblatt eine einführende Übersicht zum Thema Windenergie und Infraschall. Genauer: zum Forschungsstand über mögliche gesundheitliche Auswirkungen des von Windenergieanlagen (WEA) emittierten Infraschalls. Dazu fasst der Artikel die aktuelle relevante Forschungsliteratur zusammen. Bei diesem nicht ganz einfachen Thema kommen die beiden Autorinnen durchweg zu Schlussfolgerungen, die auch nach eigener Durchsicht der Originalliteratur bestehen können.

Stutzig macht ihre Feststellung, dass gerade jene Länder wenig Forschungsehrgeiz an den Tag legten, die zu den größten Windparkbetreibern weltweit gehören. So seien in Deutschland lediglich zwei (medizinische) Studien durchgeführt worden, obwohl das Land die dritthöchste Windenergieerzeugungskapazität besitze. Damit stellt sich für den kritischen Leser natürlich auch die Frage, welche Rolle in diesem Zusammenhang das Umweltbundesamt mit seinen 1.600 Mitarbeitern spielt. Schließlich lautet der Leitspruch des Amtes „Für Mensch und Umwelt“. Dazu später mehr.

Als Infraschall wird Schall unterhalb einer Frequenz von 20 Hertz bezeichnet. Damit ist er normalerweise für das menschliche Ohr nicht zu hören. Vielmehr geht die Wahrnehmung dieser Frequenzen – in Abhängigkeit vom Schalldruckpegel – vom Hören zum Fühlen über. Betroffene schildern Vibrationen, Erschütterungen oder ein Unsicherheitsgefühl. Noch eine weitere Besonderheit zeichnet Infraschall aus: Er breitet sich nahezu verlustfrei aus, wird also nicht durch Hindernisse wie Gebäude oder Schutzwälle abgeschirmt. Darüber hinaus nimmt der Schallpegel von Infraschall mit zunehmendem Abstand von der Schallquelle nur in vergleichsweise geringem Maße ab: bei Infraschall von 10 Hertz mit einer Wellenlänge von 34 Metern nach 68 Metern um 6 dB, nach 136 Metern um weitere 6 dB usw.

An verschiedenen Organen messbare Effekte

In der Nähe von Windkraftanlagen (WEA) lebende Personen machen den Infraschall verantwortlich für eine ganze Reihe von gesundheitlichen Problemen, etwa Erschöpfung, Schlafstörungen, Depressionen, Kopf- und Ohrenschmerzen, Übelkeit und Schwindel. Allerdings konnte mittels Polysomnographie gezeigt werden, dass der Schlaf nicht nennenswert durch nicht hörbare Schallphänomene beeinflusst wird. Auch die anderen Symptome werden nicht unwesentlich durch eine negative Erwartungshaltung beeinflusst, so dass auch eine Art Nocebo-Effekt eine Rolle spielt.

Demgegenüber stehen etliche Studien, die an verschiedenen Organen messbare Effekte durch Infraschall entweder direkt oder indirekt nachweisen konnten. Sogar ein (mittelbarer) Effekt von Infraschall auf das Hören erscheint grundsätzlich möglich. Eine kanadische Arbeitsgruppe hält es aufgrund ihrer Ergebnisse ebenfalls für möglich, dass bisher symptomlose Menschen mit bestimmten Anomalien im Gleichgewichtsorgan besonders empfänglich für die Auslösung von Übelkeit und Schwindel durch Infraschall sind. Verwiesen wird in diesem Zusammenhang auf die ja mit ganz ähnlichen Symptomen einhergehende Seekrankheit, von der auch nur fünf bis zehn Prozent der Bevölkerung wirklich stark betroffen seien.

In speziellen kernspintomographischen Untersuchungen zeigten sich – unter der Stimulation mit Infraschall nahe der Hörschwelle – eindeutige Aktivitätsveränderungen in verschiedenen Hirnregionen. Dabei muss es sich allerdings nicht zwingend um die Gesundheit beeinträchtigende Effekte handeln. Aber auch diese Befunde belegen, dass nicht hörbarer Schall unseren Körper nicht nur erreicht, sondern auch eine Wirkung auf ihn hat. In eine grundsätzlich ähnliche Richtung weisen Studien aus der Mainzer Uniklinik: An isolierten Herzmuskelpräparaten führt Infraschall zu einer um bis zu zwanzig Prozent reduzierten Kontraktionskraft. Möglicherweise beeinträchtigt Infraschall also die Muskelkraft und damit die Pumpleistung des Herzens, was zunächst im Tierversuch und dann am Menschen aber noch zu bestätigen wäre. Kurz gesagt: Es gibt noch eine Menge Forschungsbedarf.

Krachende Funkstille beim UBA

Wie bewertet nun das UBA die gesundheitlichen Risiken durch von WEA erzeugten Infraschall, was schlägt es vor und was hat es bereits unternommen? Schließlich dürften in Deutschland Zehntausende, möglicherweise auch deutlich mehr, diesem Risiko ausgesetzt sein. Gibt man in die Suchfunktion der Homepage des UBA Windenergie, Infraschall, Gesundheit ein, erhält man 13 Treffer, der letzte datiert aus dem Jahr 2016. Seitdem herrscht Funkstille.

In einer Publikation des UBA mit dem Schwerpunkt Energiewende und Gesundheit vom September 2013 legt man sich ohne jedes Wenn und Aber fest: “Die Infraschallimmissionen liegen bereits bei geringem Abstand zu einer WEA unterhalb der Hör- und Wahrnehmungsschwelle. Daher ist nicht von einem gesundheitlichen Risiko auszugehen.“ Und: „Gesundheitliche Wirkungen des Infraschalls sind aufgrund der sehr niedrigen Schalldruckpegel nicht plausibel.“

Ein Jahr später liest sich das in einer im Auftrag des UBA unter anderem von Mitarbeitern der Fakultät Elektrotechnik der Uni Wuppertal erstellten „Machbarkeitsstudie zu Wirkungen von Infraschall“ auf den Menschen durch unterschiedliche Quellen schon etwas anders. Der die Studie redaktionell betreuende UBA-Mediziner – weitere medizinische Kompetenz war ganz offensichtlich bei der Studie nicht vertreten – fasst die Ergebnisse so zusammen: „Wie sich der Infraschall auf den Menschen auswirkt, muss noch genauer erforscht werden. Wie, dafür wurden in der Studie Vorschläge erarbeitet.“

Das hört sich erst einmal nicht schlecht an. Nur passiert ist in den seitdem vergangenen immerhin knapp fünf Jahren im Hinblick auf entsprechende UBA-Forschungsprojekte nichts. Was auch nicht wirklich verwundert. Denn zum einen sind die „erarbeiteten Vorschläge“ so umfassend, dass sie allein schon deshalb kaum eine Chance auf praktische Realisierung haben dürften. Zum anderen wurde die politische Brisanz des durch WEA erzeugten Infraschalls auch dadurch entschärft, dass dieser nur als eine Quelle unter vielen –  etwa Wärmepumpen, Biogasanlagen, Lüftungen, Pressen und Stanzen – abgehandelt wurde.

Die bisher letzte Äußerung des UBA zu dem hier interessierenden Thema stammt aus dem November 2016. Auf zwölf Seiten positioniert es sich zu möglichen gesundheitlichen Effekten von WEA. Gemeint sind damit also nicht nur die Risiken durch Infraschall, sondern auch durch hörbaren Schall, Schattenwurf, Lichtemissionen, Eiswurf und weitere „Belästigungen“. Von zwölf Seiten zu sprechen, trifft eigentlich nicht ganz zu. Denn ohne Umschlag, die einleitende Eloge auf die Windenergie und das Literaturverzeichnis sind es nur fünf.

Beim Infraschall macht man sich das Resümee einer US-amerikanischen Übersichtsarbeit aus dem Jahr 2014 zu eigen, „dass keine Gesundheitsbeeinträchtigungen von WEA durch Infraschall zu erwarten sind.“ Allerdings, so das UBA, „fehlen noch Langzeitstudien, die über chronische Effekte nach langjähriger niederschwelliger Infraschallbelastung Aufschluss geben könnten.“ Aber diese Ergebnisse will man offensichtlich entspannt auf sich zukommen lassen, um dann in zehn Jahren gegebenenfalls sagen zu können: „Tja, Pech gehabt. Aber jetzt sind die WEA nun einmal da.“

Das UBA kümmert sich lieber um „Gendergerechtigkeit“

Das Kontrastprogramm zu diesem Laissez-faire oder auch einer aktiven Vermeidungshaltung läuft im UBA beim Thema „Gender“ oder „Gendergerechtigkeit“. Bei den Suchwörtern „Windenergie, Gender“ erhält man stolze 82 Treffer, bei „Energiewende, Gender“ 107 und bei „Klimaschutz, Gender“ gar 244. Dort spielt für das UBA die Musik also deutlich lauter. Kein noch so abwegiges Thema ist sicher vor den Kampftruppen der Genderista, wie man in diesem „Zwischenbericht“ des UBA, mitverfasst von den Women for Climate Justice, nachlesen kann. Gleichzeitig ist es ein bedrückendes Dokument über den Verfall der empirischen Sozialforschung.

Ähnliche Forschungsübungen könnte man im Übrigen auch veranstalten für andere Teilgruppen der Gesellschaft: etwa die Aktienbesitzer, die Hartz-IV-Bezieher, die Alleinstehenden, die Älteren, die Kirchgänger oder die Haustierhalter. Damit kein Missverständnis entsteht, sei darauf hingewiesen, dass es natürlich bei speziellen Fragestellungen angemessen oder auch zwingend erforderlich sein kann, diese auf Teilgruppen der Gesellschaft herunterzubrechen. Aber alles, und wirklich alles, durch die vom UBA finanzierte Genderbrille zu betrachten, macht vor allem eines deutlich: den völligen Verlust an Respekt gegenüber dem steuerzahlenden Bürger, egal ob der nun männlich oder weiblich ist.

 

 

Anmerkungen der EIKE-Redaktion

Wir danken Herrn Maxeiner von Achgut und natürlich dem Autor dises Beitrags ganz herzlich für die Genehmigung, den Artikel auch in den EIKE-News bringen zu dürfen. Über Nutzlosigkeit (nur nicht für Pächter und Hersteller) von Windrädern haben wir schon vielfach berichtet. Wegen der hohen Anzahl von EIKE-Beiträgen, ist es am besten, in der EIKE-Suchfunktion den Begriff „Windräder“ einzugeben. Insbesondere ist auf eine EIKE-Übersichtssammlung der Fachliteratur „Fakten und Quellen zu Windrädern“ mit den folgenden Kapitelüberschriften hinzuweisen:

Kurzinformation zu Energie/Klima, Allgemeines zu Windrädern und Energiewende, Gesundheitsschädigung durch Infraschall von Windrädern, Töten von Flugtieren durch Windräder, Schädigung der Atmosphäre durch Windräder sowie schließlich Blackout-Gefahr durch Wind- und Sonnenstrom.

 

 




Wie Sven Plöger einfach 1 Grad Erwärmung verschwinden ließ!

In der Politik streitet man sich über das 1,5-Grad-Ziel; nicht mehr darf angeblich die Erde sich erwärmen. Aber wenn ARD-Meteorologe Sven Plöger im TV den angeblich natürlichen Treibhauseffekt um ein ganzes Grad nach unten „korrigiert“, dann scheint das ok zu sein!?

Video nicht mehr verfügbar
Kurzer Ausschnitt aus der Sendung „Ihre Meinung“ im WDR-Fernsehen, vom 11.04.2019, von FMD´s TV Channel kommentiert (13.04.2019); inspiriert durch das Medienkritik-Video von ‚Klima Manifest Heiligenroth’, „Sven Plöger lässt 1°C beim Treibhauseffekt verschwinden !!“.

► Weitere Infos zum Thema Klimawandel: ▪ YouTube-Playlist ‚Klimawandel / CO2-These‘: https://www.youtube.com/playlist?list… ▪ Günter Ederer auf welt.de: „Die CO2-Theorie ist nur geniale Propaganda“ http://www.welt.de/debatte/kommentare…




Teure Hinterlassenschaften – Die Rückbaukosten von Windrädern

Ein Windrad, das aus der Windrichtung gesehen in der ersten Reihe eines Windparks liegt, wird selbst unter günstigen Bedingungen im Durchschnitt nur 15 Jahre alt. Die hinter der ersten Reihe liegenden Windkraftanlagen werden je nach Entfernung zur ersten Reihe im Durchschnitt zwischen 5 und 12 Jahre alt. Die Folgen für die Ertragsberechnungen von Windkraftanlagen in nicht optimalen Windgebieten liegen auf der Hand: sie müssen häufiger ausgetauscht oder stillgelegt werden als erwartet. Die Stilllegung zieht hohe Kosten und auch Umweltprobleme nach sich.

Stillgelegte Windenergieanlagen müssen zurückgebaut werden

Stillgelegte Windenergieanlagen müssen zurückgebaut werden und dürfen nicht als Ruine in der Landschaft stehen bleiben. Dies schreibt das Baugesetzbuch vor (§ 35 Abs. 5 Satz 2 BauGB). Um eine Betriebsgenehmigung zu erlangen, müssen Anlagenbetreiber (bzw. Vorhabenträger) eine Verpflichtungserklärung zum Rückbau der Anlage samt der Beseitigung von Bodenversiegelungen abgeben. Dies ist eine zusätzliche Genehmigungsvoraussetzung gemäß § 6 BImSchG für Windvorhaben im Außenbereich. Diese bodenrechtliche Regelung dient der “größtmöglichen Schonung des Außenbereichs”. Der Rückbau bedeutet den “vollständigen Abriss aller baulichen Anlagen, die dem privilegierten Vorhaben gedient haben, einschließlich Beseitigung von Bodenversiegelungen, die mit diesem Vorhaben in einem funktionalen Zusammenhang gestanden haben.“ (Außenbereichserlass, Rückbauverpflichtung). So weit, so gut.

Aber es gibt keine Sicherheit dafür, dass der Rückbau auch tatsächlich durchgeführt wird, wie dieses Foto aus Oldenburg/Bensersiel zeigt. Das alte Fundament der sogenannten „Zeiger-Mühle“ betrachten verärgerte Landschafts- und Naturschützer als ein „Denkmal“ der verfehlten Entsorgungspolitik im Landkreis Wittmund.

Fundament der nach einem Gerichtsurteil versetzten „Zeiger-Mühle“ in Oldendorf/Bensersiel, LK Wittmund. Im Hintergrund die versetzte Anlage, Foto (C): Manfred Knake

Die Verpflichtungserklärung zum Rückbau der Anlage ist kein vollstreckbarer Titel. Um zu verhindern, dass ein Verpächter oder eine Gemeinde im Fall einer Insolvenz des Betreibers oder bei einem Betreiberwechsel auf den Rückbaukosten sitzen bleibt, müssen finanzielle Rücklagen und Bürgschaften für den Rückbau bereitgestellt werden. Damit sichergestellt wird, dass die Verpflichtung auch tatsächlich eingehalten wird und der Verursacher die Kosten für den Rückbau trägt, muss der Anlagenbetreiber oder Vorhabenträger bis spätestens zum Baubeginn eine finanzielle Sicherheitsleistung beibringen, in der Regel eine selbstschuldnerische Bankbürgschaft, sodass im Falle einer Insolvenz die eingebrachte Rücklage zum Tragen kommen kann.  In einer Nebenbestimmung kann außerdem zum Beispiel geregelt werden, dass bei einem Betreiberwechsels eine neue Bankbürgschaft vorgelegt werden muss. Eine Sicherheit für den Grundstückseigentümer/Verpächter oder die Gemeinde besteht dennoch nicht.

Gigantisches Volumen

Die moderne E 126 erreicht eine Gesamthöhe von fast 200 Metern. Sie benötigt ein Fundament von 1.500 Kubikmetern Beton, der mit 180 Tonnen Stahl armiert ist. Auf dem runden Fundament, das 3.500 Tonnen wiegt, steht der Turm aus konischen Stahlbeton-Segmenten, der 2.800 Tonnen auf die Waage bringt. Das auf dem Turm sitzende Maschinenhaus mit Generator wiegt 340 Tonnen, die Nabe mit den Rotorflügeln aus glasfaserverstärktem Kunststoff noch einmal 320 Tonnen. Damit der Boden das Gesamtgewicht von über 7.000 Tonnen tragen kann, muss er zuvor mithilfe von Schottergranulat, das in 30 Meter tiefe Bohrlöcher gepresst wird, verdichtet werden.

Wie teuer ist der Rückbau einer Windkraftanlage?

Der Windenergie-Erlass NRW sieht vor,  dass die Sicherheitsleistung „den Rückbau der Windenergieanlage einschließlich des den Boden versiegelnden Fundaments am Ende der voraussichtlichen Lebensdauer der Anlage vollständig abdecken“ muss (Windenergie-Erlass NRW, Ziffer 5.2.2.4). Danach sind 6,5 Prozent derGesamtinvestitionskosten des Vorhabens als Sicherheitsleistung anzusetzen, je nach Hersteller und Bautyp auch höher oder niedriger. Die Einschätzung übernimmt ein Fachunternehmen (z. B. Abbruchunternehmen). Die zuständige Genehmigungsbehörde hat einen Ermessensspielraum, sie muss den zukünftigen finanziellen Aufwand für den Rückbau prognostisch abschätzen.

NRW nennt ein Beispiel: Betragen die Gesamtinvestitionskosten für eine Anlage zwei Millionen Euro so ist eine Sicherheitsleistung in Höhe von 130.000 Euro je Anlage (6,5 Prozent) nachzuweisen (z. B. Bankbürgschaft), sofern keine hiervon abweichenden Kosten festgestellt werden.  Für alle bis zur Novelle des Baugesetzbuches im Sommer 2004 errichteten Windenergieanlagen greifen diese Regelungen aufgrund des Bestandsschutzes nicht in dieser umfassenden Form. Es gibt lediglich bauordnungsrechtliche Möglichkeiten, den Rückbau im Falle der Betriebsaufgabe behördliche anzuordnen. Dies bedeutet aber einen finanziellen Aufwand, den man dadurch zu umgehen versucht, dass “finanzielle Anreize” geschaffen wurden, um die alte Anlage durch eine neue, effizientere Anlage zu ersetzen (Repowering).

Auf die brandenburgischen Richtwerte beruft sich auch beruft sich auch klimaretter.info. Zehn Prozent der Rohbausumme, die wiederum mit 40 Prozent der Herstellungskosten angesetzt wird, für den Rückbau kalkuliert werden müssen – am Ende seien  das also vier Prozent der Baukosten. Das Onlinemagazin lässt einen Sprecher des Bundesverbandes Windenergie zu Wort kommen, der sagt, dass man in der Praxis von etwa 30.000 Euro pro Megawatt installierter Kraftwerksleistung ausgehen könne. Dieser Wert entspreche “den heutigen Erkenntnissen”. Auf die Windenergieanlage Enercon WKA E-126 umgerechnet betrüge der notwendige Rückstellung rund 60.000 Euro pro Megawatt installierter Kraftwerksleistung, insgesamt 440.000 Euro.

Ob damit die Rückbaukosten wirklich abgedeckt sind, ist fraglich. Und ob tatsächlich 6,5 Prozent der Gesamtinvestitionskosten des Vorhabens als Sicherheitsleistung angesetzt werden, unterliegt einem Ermessensspielraum der Genehmigungsbehörde.

Aus Frankreich liegt der Kostenvoranschlag einer Abbruchfirmen im Departement Aisne vor. Er kommt auf rund  345.000 Euro pro Windrad, ohne Mehrwertsteuer. Dabei ist das Gelände frei zugänglich.

Was gehört zum Rückbau einer Windkraftanlage?

Die Verpflichtung zum Rückbau des gesamten Vorhabens beinhalte die Beseitigung der baulichen Anlagen einschließlich Nebenanlagen, Leitungen, Wege und Plätze und der durch die Anlagen bewirkten Bodenversiegelung. Ziel sei es dabei, den ursprünglichen Zustand mit der entsprechenden Bodenqualität wiederherzustellen. Diese Erläuterung erhielt der CDU-Abgeordneten Steeven Bretz, Brandenburg, auf eine kleine Anfrage. Er wollte wissen:

“Welche Auflagen sind mit dem Rückbau von Windkraftanlagen – insbesondere im Hinblick auf eine vollständige Beseitigung und Entsorgung der Stahlbetonfundamente, der Türme und Turbinen sowie der Wiederherstellung des ursprünglichen Zustandes im Bereich der Zuwegung und der von den Windkraftanlagen genutzten Fläche – verbunden?”

Der Umfang der Beseitigungspflicht wird nicht generell, sondern nur im Einzelfall festgelegt. Der zuständigen Behörde muss im Falle der dauerhaften Nutzungsaufgabe von Windkraftanlagen ein Konzept für die Beseitigung der Anlage vorgelegt werden. Die unteren Bauaufsichtsbehörden sind nach § 74 Abs. 1 BbgBO ermächtigt, Beseitigungsanordnungen zur Herstellung rechtmäßiger Zustände zu erlassen.

Die Behörde entscheidet über den Umfang der Rückbaumaßnahmen. Wie detailliert müssen der Abbau der Anlage einschließlich Fundament, die Beseitigung der Nebenanlagen (z.B. Trafostation), die Beseitigung der Wege und sonstiger versiegelter Flächen (z.B. Kranstellflächen), die Beseitigung von Anpflanzungen und die anschließende Rekultivierung aufgeführt werden? Wenn die Behörden bei der Genehmigung unterschätzt haben, werden sie Nach-Forderungen stellen können?

Die Berechnung der Rückbaukosten

Bei der Berechnung der Rückbaukosten wird von der Öffentlichkeit häufig nur dem Abbau der Rotorblätter, der Gondel und des Schaftes Beachtung geschenkt, vielleicht noch der Zuwegung, den Kabeln und Trafohäuschen, weniger dem Fundament. Und das hat, wie man sieht, gute Gründe.

Das erste Video zeigt den spektakulären Rückbau von insgesamt drei Windkraftanlagen auf der Hornisgrinde, die durch eine einzige, größere Anlage ersetzt wurden (Repowering).  Es handelt sich um zwei Seewind Modelle, ein Modell 20/110 mit 110 kW und ein Modell 25/132 mit 132 kW, ersetzt durch eine Enercon E-70. Die Beseitigung der beiden Fundamente wird nicht gezeigt.

Das zweite Video dokumentiert die Beseitigung des Fundaments einer relativen kleinen Windkraftanlage (Nordex N50, am Standort Kirchberg Jagst in Kleinallmerspann). Das Fundament wird vollständig entfernt. Die Arbeit gibt  eine Vorstellung von dem Aufwand, der bei größeren Anlagen getrieben werden muss.

Das Fundament einer 200 m hohen und 7.000 Tonnen schweren Enercon WKA E-126 wiegt 3.500 Tonnen und besteht aus 1.400 Kubikmetern hochfestem Beton. Völlig zu Recht bemerkt ein Youtube-Nutzer, dass so ein Rückbau von Windkraftanlagen wirklich zeitaufwändig sei , wenn er sich dieses Video ansehe. Ihn interessiere, wie lang es dann dauern würde, bis man ein Fundament von zum Beispiel einer Enercon E-126 vollständig entfernt habe?

Berechnungen der Rückbaukosten weichen extrem stark voneinander ab. Bei der Planung kann in einem ersten Schritt ein Steuerberater einer Gemeinde oder einer Bürgerinitiative für eine Wirtschaftlichkeitsberechnung von Windkraftanlagen hilfreich sein, wie Johann Richter zeigt. Er setzte 2011 für eine Rückbaurückstellung jährlich einen Betrag von € 12.500 an (€ 250.000 in 20 Jahren) an und empfahl wegen der extremen Unterschiede bei Gewinn- und Verlustberechnungen, seine Berechnungen von einem neutralen Gutachter überprüfen zu lassen.

Die Baukosten der E-126 zum Beispiel betragen 11 Mio €. Ein Rückbau kann bei 6,5 % der Baukosten in 20 Jahren, wie laut Windenergie-Erlass NRW vorgesehen, nicht nur € 700.000, sondern ohne weiteres auch eine Million Euro und mehr kosten.

Keine detaillierte Aufschlüsselung für den Rückbau erforderlich

In der bereits erwähnten kleinen Anfrage wollte der Abgeordnete Steeven Bretz, CDU-Fraktion Brandenburg, wissen: “Wie hoch sind die Kosten für den Rückbau erfahrungsgemäß?” Er bat um eine detaillierte Aufschlüsselung nach Rückbau der Zuwege und genutzten Flächen, nach Rückbau und Entsorgung des Turmes und der Turbine in Abhängigkeit zur Größe des Windrades und nach Rückbau und Entsorgung des Betonfundamentes in Abhängigkeit zur Größe des Windrades.

Das Bundesland Brandenburg antwortete, es setze bei der Ermittlung der Rückbaukosten und nach der Verwaltungsvorschrift zur BbgBO (Nr. 67.3.3.7) 10 Prozent der Rohbaukosten an. Bei Windenergieanlagen seien als fiktive Rohbausumme 40 Prozent der Herstellungskosten gemäß § 4 Absatz 2 Satz 3 der Brandenburgischen Baugebührenordnung (BbgBauGebO) zu berücksichtigen und kommt damit für eine Enercon WKA E-126 auf einen  Rückstellungsbetrag von € 440.000.

Eine detaillierte Aufschlüsselung erhielt der Abgeordnete allerdings nicht. Begründung: “Sonstige Erfahrungswerte zu den Rückbaukosten liegen nicht vor.”

Der Teufel steckt im Kleingedruckten

Das Neumarkter Landratsamt hatte 2013 den Betreiber eines großen Windrades vor der Errichtung oder Inbetriebnahme der Anlage zu einer Sicherheitsleistung in Form einer „selbstschuldnerischen“ Bankbürgschaft in Höhe von 770.00 Euro verpflichtet. Die Sicherheit sollte dazu dienen, dass am Lebensende einer Windmühle nicht eine Ruine in der Landschaft stehen bleibt, sondern dass der uralte Stromerzeuger „rückgebaut“, spurlos beseitigt werden kann — auch dann, wenn vielleicht der Betreiber dafür nicht aufkommen kann, weil er längst insolvent ist.  Das Landratsamt geht von einer Lebensdauer derAnlagen von zwei oder drei Jahrzehnten aus. Nach seiner Darstellung ist dieses Verhalten bei den Rückstellungen für den Abbau nicht bei allen Investoren gegeben: „Zum Teil werden die Rückbaukosten zu niedrig angesetzt“, sagt Jürgen Schreiner von der Landkreisbehörde. Die Bürgschaften dienten dazu, dass die öffentliche Hand im Notfall das Geld hat, um eine ausgemusterte Anlage beseitigen zu lassen — wobei die Gemeinden und Kreise trotz der möglichen „Ersatzvornahme“ nie Eigentümer der Windräder werden.

Doch der Teufel steckt in allerlei Kleingedrucktem — vor allem für die Grundstückseigentümer. Denn in zahlreichen Fällen verkaufen die Land- und Forstwirte jene 2000 bis 3000 Quadratmeter pro Windrad nicht an die Investoren, sondern verpachten sie langfristig und bleiben Eigentümer. Für die könnte es tatsächlich eng werden, wenn der Betreiber längst in einer Insolvenz untergegangen ist. Denn nach Angaben des Landratsamtes haftet zuerst der Grundstückseigentümer notfalls aus der Privatschatulle; die von den Genehmigungsbehörden erwirkte Bankbürgschaft sei da „nachrangig“, erklärt Jürgen Schreiner.

Für eine dynamische Anpassung der Rückbaukosten gibt es keine rechtliche Handhabe

Der Bayerische Bauernverband (BBV) und der Landkreis als Genehmigungsbehörde beklagen gleichermaßen: Eine Anpassung der zu erwartenden Rückbaukosten sei nach einem gewissen Zeitablauf durch Gutachten und Neubewertung nur möglich, wenn sich der Investor kooperativ zeige und diese freiwillig vereinbare. BBV-Geschäftsführer Bayerl fordert hier unmissverständlich eine Absicherung „von Amts wegen“. Doch Jürgen Schreiner vom Landratsamt bedauert: „Wir sind uns des Problems bewusst, aber es gibt keine rechtliche Handhabe, eine Dynamisierung einzubauen.“

Die Windkraftlobby erzählt den Bürgern gerne von den hohen Rückbaukosten der Kernkraftwerke. Die Rückbaukosten der Windräder bleiben bleiben entweder unerwähnt oder werden sehr niedrig angesetzt.

In Zusammenhang mit der Wirtschaftlichkeitsberechnung lohnt es sich für Ratsmitglieder eine kritische Schrift über „Kommunale Windparks“ der Gemeinde Weisenheim, über die wir 2014 berichtet haben, nachzulesen.

Versteckte Rückbaukosten, Rosstäuscher  – alles ganz easy!

“Windräder erzeugen umweltfreundlichen Strom, können jederzeit wieder demontiert werden ohne strahlende Erde zu hinterlassen und sie helfen die CO 2 Problematik zu entschärfen.” So oder ähnlich werben die Hersteller von Windkraftindustrieanlagen, aber auch die Anhänger der Erneuerbaren Energien. Die Rotorblätter, die Gondel und der Generator werden per Kran vom Turm gehievt und anschließend in ihre Einzelteile zerlegt. Das Kupfer aus den Kabeln oder der Stahl aus den oberen Turmsegmenten lässt sich wiederverwenden. Der Betonturm wird vor Ort zersägt oder gesprengt. Das Material lässt sich für den Straßenbau verwenden. Die Rotorblätter würden in der Regel geschreddert und als Brennmaterial in der Zementindustrie genutzt. Vieles davon lasse sich wiederverwerten. So einfach stellt topagrar der Rückbau dar. Er koste nach Angaben des Instituts für Integrierte Produktion Hannover (IPH), auf das sich topagrar beruft, zwischen 20.000 und 30.000 Euro pro Anlage. Die Einnahmen aus dem Verkauf der Rohstoffe seien dabei schon eingerechnet.

Die Einnahmen aus dem Verkauf der Rohstoffe lassen sich nicht beziffern.

Es gibt keine Möglichkeit, die Menge der Rotorblätter, die in den nächsten Jahren anfallen wird, ohne schwerwiegende gesundheitliche Schäden für die Bevölkerung zu entsorgen.  Die Realität der Energiewende sieht so aus: Windkraftanlagen sind SONDERMÜLL! Seit 2005 bleibt nur die thermische Beseitigung und Verwertung der Rotorblätter, vorrangig in Müllverbrennungsanlagen und Zementwerken oder der Export oder die Deponierung. Nach dem Recycling, falls es denn stattfindet, bleiben schätzungsweise an die 20 Prozent nicht wiederverwertbaren Abfalls zurück. Radioaktivität zerfällt, die nuklearen Abfälle aus Kernkraftwerken lassen sich recyclen, Sondermüll bleibt ewig giftig.

Der Rückbau von Windkraftanlagen ist nicht nur aufwändig, sondern auch teuer, und die Kosten für den Sondermüll sind unkalkulierbar. Der Rückbau einer einzigen Anlage kann für den Grundstückseigentümer/Verpächter/die Gemeinde den wirtschaftlichen Ruin bedeuten. Die Untertreibung der Kosten durch topagrar ist schlichtweg ein Skandal.

Demontage-Unternehmen warten auf Aufträge. Aber eine Gewähr, dass die Windkraftanlagen im großen Stil demontiert werden können, dass es sich für die Abbaufirmen und Windparkbetreiber überhaupt lohnt, gibt es nicht. Bekannt ist lediglich, dass sich die bisherige Demontage-Strategie nicht mehr lohnen werden, meinen die Mitarbeiter am IPH. Es gibt Überlegungen dazu, mehr nicht. “Müsste”, “könnte” – die üblichen Konjunktive der Erneuerbaren Industrie.


James Lovelock ist einer der Gründerväter der grünen Bewegung. Berühmt wurde er für seine Erfindung der “Gaia-Theorie”. Er hat seine Verzweiflung zum Ausdruck gebracht, dass die ursprünglichen Absichten der Bewegung missverstanden worden seien, als Lizenz, unser “unbezahlbares ökologisches Erbe” beiseite zu schaffen. In einem Brief an eine örtliche Planungsbehörde schrieb James Lovelock:

“Wir müssen dafür Sorge tragen, dass die sich drehenden Windmühlen nicht wie die Statuen auf den Osterinseln werden – Denkmäler einer gescheiterten Zivilisation.”

Übernommen von Ruhrkultour hier


Quellen:

Fotos:
Windräder Silhouette: https://pixabay.com/de/wind-windpark-landschaft-licht-sun-374904/
Osterinseln: MattJP, “tongariki sunrise visitors”, © www.piqs.de




Ein einfaches Modell des atmosphä­rischen CO2-Budgets

Die residualen Auswirkungen großer Vulkanausbrüche (nicht im Modell enthalten) zeichnen sich eindeutig ab. Zwei interessante Ergebnisse sind Folgende: 1) das natürliche, in den Modellen implizit vorhandene Gleichgewichts-Niveau von CO2 in der Atmosphäre beträgt etwa 295 ppm und nicht 265 oder 270 ppm wie oftmals angenommen, und 2) falls sich die CO2-Emissionen stabilisieren und konstant auf dem Niveau des Jahres 2018 gehalten werden würden, dann würde sich die atmosphärische Konzentration eventuell bei nahe 500 ppm stabilisieren, selbst mit fortgesetzten Emissionen.

[Ende SUMMARY].

Eine E-Mail-Diskussion hinsichtlich der nicht-anthropogenen Quellen von CO2 ließ mich ein einfaches Modell betrachten, um die Historie der CO2-Messungen am Mauna Loa seit 1959 zu erklären. Dabei habe ich hier nicht die Absicht zu beweisen, dass irgendwelche natürlichen Quellen ursächlich für den jüngsten CO2-Anstieg sind, glaube ich doch, dass es zumeist anthropogene Quellen sind. Stattdessen versuche ich zu ergründen, wie gut ein einfaches Modell den CO2-Anstieg erklären kann und welche nützlichen Erkenntnisse aus einem solchen Modell abgeleitet werden können.

Das Modell verwendet die Schätzungen der jährlichen anthropogenen CO2-Erzeugungsraten seit 1750 von Boden et al. (2017), aktualisiert bis 2018. Das Modell geht davon aus, dass die Rate, mit der CO2 aus der Atmosphäre entfernt wird, proportional ist zum atmosphärischen Überschuss über einem bestimmten natürlichen „Gleichgewichts-Niveau“ der CO2-Konzentration. Eine Tabellen-Kalkulation mit dem Modell findet sich hier.

Der vermutete jährliche CO2-Eintrag in das Modell sieht so aus:

Abbildung 1: Vermuteter jährlicher CO2-Eintrag in die Modell-Atmosphäre

Ich habe auch die Auswirkungen von El Nino und La Nina hinzugefügt, welche nach meiner Berechnung eine jährliche Änderung von 0,47 ppm CO2 pro Einheit des Multivariate ENSO Index (MEI)-Wertes (Mittel von Mai bis April). Dies hilft, einige der Ausschläge in den Mauna Loa-Messungen zu erfassen.

Der resultierende Fit zu den Mauna Loa-Daten erforderte ein vermutetes „natürliches Gleichgewicht“ der CO2-Konzentration von 295 ppm, was höher ist als das normalerweise angesetzte Niveau von 265 oder 270 ppm in vorindustrieller Zeit:

Abbildung 2: Einfaches Modell der atmosphärischen CO2-Konzentration auf Grundlage der Schätzungen von Boden et al. (2017) der jährlichen anthropogenen Emissionen, eine natürliche El Nino/La Nina-Quelle/Senke nach dem Fitting von drei modell-freien Parametern.

Man beachte, wie gut selbst die geringen, von El nino und La Nina induzierten Änderungen abgebildet werden. Mit der Rolle von Vulkanen befasse ich mich später.

Die nächste Abbildung zeigt den gesamten Modellzeitraum seit 1750, verlängert bis zum Jahr 2200:

Abbildung 3: Wie in Abbildung 2, aber über den gesamten Modellzeitraum 1750 bis 2200

Man beachte, dass sich interessanterweise die atmosphärische Konzentration trotz fortgesetzter CO2-Emissionen bei nahe 500 ppm stabilisiert. Dies ist die direkte Folge der Tatsache, dass die Mauna Loa-Messungen die Vermutung stützen, dass die Rate, mit welcher CO2 aus der Atmosphäre entfernt wird, direkt proportional ist zu der Menge des „Überschuss“- CO2 in der Atmosphäre über einem „natürlichen Gleichgewichts“-Niveau. Mit der Zunahme des CO2-Gehaltes nimmt auch die Rate oder Entfernung zu, bis sie zur Rate des anthropogenen Eintrags passt.

Wir können auch die Entfernungsrate von CO2 als einen Anteil der anthropogenen Quelle untersuchen. Wir wissen schon lange, dass nur die Hälfte dessen, was emittiert wird, in der Atmosphäre „auftaucht“ (was nicht das ist, was wirklich vor sich geht), und vor Jahrzehnten hat das IPCC vermutet, dass Biosphäre und Ozeane nicht das Überschuss-CO2 mit einer derartig hohen Rate entfernen können. Aber tatsächlich ist es so, dass der Bruchteil der Rate der Entfernung zugenommen und nicht abgenommen hat. Und das einfache Modell bildet dies ab:

Abbildung 4: Rate der Entfernung atmosphärischen CO2 als Anteil der anthropogenen Quelle, im Modell und in den Messungen.

Die Auf-und-Ab-Variationen in Abbildung 4 sind El Nino und La Nina-Ereignissen geschuldet (und Vulkanausbrüchen, die als Nächstes diskutiert werden).

Und zum Schluss eine Graphik, welche die Differenz zeigt zwischen dem Modell und den Mauna Loa-Messungen. Dabei werden die Auswirkungen von Vulkanen sichtbar. Nach einem großen Ausbruch wird die CO2-Menge in der Atmosphäre gedrückt, entweder durch eine Abnahme der natürlichen Emissionen von der Oberfläche oder durch eine Zunahme des atmosphärischen Aufnehmens von CO2 der Atmosphäre:

Abbildung 5: Einfaches Modell der jährlichen CO2-Konzentrationen minus Mauna Loa-Messungen (ppm). Dies enthüllt die Auswirkungen von Vulkanen, welche nicht im Modell enthalten sind.

Was für mich erstaunlich ist: Ein Modell mit so einfachen, aber physikalisch sinnvollen Annahmen kann so genau die Mauna-Loa-Aufzeichnungen der CO2-Konzentration abbilden. Ich gebe zu, kein Experte bzgl. des globalen Kohlenstoff-Zyklus‘ zu sein, aber die Mauna Loa-Daten scheinen die Vermutung zu stützen, dass für globale jährliche Mittelwerte an der Oberfläche eine Gesamt-Menge von CO2 aus der Atmosphäre entfernt wird, welche direkt proportional ist zu wie stark die CO2-Konzentration über 295 ppm steigt. Die biologischen und physikalischen ozeanographischen Gründe hierfür mögen komplex sein, aber das Ergebnis insgesamt scheint einer einfachen Relation zu folgen.

Link: https://wattsupwiththat.com/2019/04/11/a-simple-model-of-the-atmospheric-co2-budget/

Übersetzt von Chris Frey EIKE




Aus Respekt vor den Schülerprotesten: Freitags alle Kohlekraftwerke abschalten!

Hier bei uns verstopft der Kohlestrom das Stromnetz und deshalb kann dieses Netz nicht genügend alternative Energien speichern. Dadurch fällt wiederum die bereits fest eingepreiste CO2-Einsparung unserer EEG-Energiewende flach und Deutschland verfehlt seinen zwingend notwendigen Beitrag für das globale 1,5-Grad-Klimaziel. Nach Aussage der „Scientists for Future“ reichen die derzeitigen Maßnahmen zum Klima-, Arten-, Wald-, Meeres- und Bodenschutz bei Weitem nicht aus, um eine katastrophale Veränderung des 30-jährigen globalen Wetterdurchschnitts (= Klima) zu verhindern.

Und weil die Erwachsenen in den westlichen Industrienationen beim Klimaschutz völlig versagt haben, demonstrieren hier die Schüler jetzt jeden Freitag ganz spontan für eine klimagerechte Welt. Alle übrigen Schüler dieser Welt lernen inzwischen fleißig weiter, damit es ihnen später auch einmal so gut geht, wie diesen Schülern in den westlichen Industrienationen.

Also, liebe Kohlekommission, aus Respekt vor den „Fridays for Future“-Schülerprotesten sollten zukünftig an jedem Freitag die deutschen  Kohlekraftwerke abgeschaltet werden, denn dadurch können wir alle nur dazulernen:

 

 

Der Beipackzettel zu „RESPEKT am Freitag“:

Der Beitrag erschien zuerst in der „Kalten Sonne“ am 10.April 2019. Wir danken Herrn Weber und der KA für die freundliche Genehmigung, den Beitrag auch bei uns bringen zu können.




Hütet Euch vor den falschen Propheten: Greta Thunfisch, Papst Bergoglio und Claudia Roth

Den Grünen Parteien in Europa wird häufig vorgeworfen, sie seien quasi-religiöse Prediger, die völlig ahnungsfrei eine Art Ablaß vom schlechten Gewissen versprechen. Daß Greta Thunberg nun beim Oberhaupt aller Katholiken zur Audienz geladen war, passt also historisch recht gut. Das arme Mädchen wurde vom Erzbischof von Berlin (Gehalt bezahlt von Steuergeldern) schon mit einem Propheten verglichen. Papst Bergoglio, Amtsname Franziskus I., ist zudem Fan der Klimakatastrophentheorie und bezeichnete Leute wie uns von EIKE als „dumm“ (danke schön, zurück). Das Treffen der beiden Religionsführer war allerdings erstaunlich kurz und fand durch eine Absperrung getrennt statt. Vielleicht hat die Kurie verstanden, dass die Klimawahnsinnigen einen Konkurrenzkult aufbauen, und deswegen wollte man die Berührung zwischen Papst und Päpstin möglichst klein halten.

Dennoch erdreisten sich Greta und ihr Vater, der PR-Profi Svante, dem Papst einen Zettel mit der Aufforderung zur Teilnahme an Freitags-Schwänzdemos zu überreichen. Daß der Oberste Brückenbauer tatsächlich zu so etwas antritt, ist ihm zuzutrauen, werden die Berater aber wohl verhindern. Es wäre dem Amt unwürdig.

Vielleicht haben einige Kurienkardinäle in letzter Zeit das Matthäus(7,15)-Zitat vor Augen, welches vor Typen wie Al Gore oder Svante Thunberg warnt:

Seht euch vor vor den falschen Propheten, die in Schafskleidern zu euch kommen, inwendig aber sind sie reißende Wölfe. An ihren Früchten sollt ihr sie erkennen. Kann man auch Trauben lesen von den Dornen oder Feigen von den Disteln?

Daß unsere postmodernen grünen Prediger Dornen produzieren statt Trauben, zeigte wieder einmal Claudia Roth, ihres Zeichens Vizepräsidentin des Deutschen Bundestages. Vera Lengsfeld und die Bild berichten gerade, dass Roth mit zwei MdB-Kollegen auf Klimarettungstour rund um den Planeten war. Das dürfen Sie wörtlich nehmen: Roth und ihre grün-schwarzen Reisebegleiter sind sage und schreibe 42.000 Kilometer geflogen – das ist ziemlich genau der Erdumfang. Angeblich haben die drei sich über absaufende Atolle und so informieren wollen. Dazu  muß man also persönlich hinfahren. Quatsch – Roth & Co wollten einfach gratis auf unsere Kosten zu den traumhaft schönen tropischen Paradiesen reisen.

Roth hat übrigens  die „Ergebnisse“ ihrer „Dienstreise“ nur auf Druck der Bild veröffentlicht. Seltsam, oder? Reichstagsabgeordnete verdienen übrigens rund 10.000 Euro brutto im Monat. Plus Aufwandspauschale ca. 5.000 Euro, plus Jahresticket Deutsche Bahn Erster Klasse, plusplusplus….. Und für das Präsidium gibt’s noch mal ordentlich was obendrauf. Ob Claudia schon Millionärin ist? Könnte ihre Weltreisen trotzdem selber bezahlen.

Wie auch immer, Roths Verhalten wird mit Sicherheit nicht die geringsten Folgen haben. Unsere „Volksherrschaft“ wird tatsächlich hauptsächlich von der politisch-korrekten Klasse gelenkt, und die ist vor allem eines nicht: ökologisch korrekt. Sie reden nur, aber was man selber, oder Claudia, macht, ist irrelevant. Eine Verbalideologie. Hütet Euch vor den falschen Propheten.




Personenkult bei „Fridays for Future“ – Aktivisten streiten sich untereinander

Wer nicht gerade sehr leichtgläubig ist oder sowieso schon grün fühlt, weiß, dass jungsche „Klimaschützer“ wie Luisa Neubauer, die bis kurz vor Greta noch fleißig um den ganzen Planeten gejettet sind, sicher nicht an den Weltuntergang glauben, sich nicht davor fürchten und ohne Druck der Öffentlichkeit auch nichts für die „Klimarettung“ tun. Zumindest nichts, was ihnen nicht nützlich ist. Es muß schon karriereförderlich sein, wenn man sich – zumindest zeitweise – beschränkt.

Und wenn es um Karriere geht, ist in der Politik bekanntlich nichts heilig. Freunde kennen die Karrieristen meist nicht. So ist es nicht verwunderlich, dass der Tagesspiegel gerade meldete, dass es hinter den Kulissen der Freitags-Schwänz-Demo-Organisation kracht. „Wenige Gesichter würden <krass hervorgehoben>, andere außen vorgelassen.“ Wer die meisten Ellenbogen hat, eventuell auch: wer am telegensten ist, drängelt sich vor und wird von den Verbündeten gefördert. Franziska Wessel, Jakob Blasel, Luisa Neubauer und Therese Kah, das sind die bekanntesten, von ARD&ZDF neben Robert Habeck besonders promovierten „Klimaschützer“.

Die „Kleinen“ in der Organisationsleitung von FFF beschwerten sich offenbar darüber, dass die kleine Freundesgruppe an der Spitze die begehrten Medientermine unter sich aus macht, die Kollegen nicht  informiert und Nachfragen auch noch abtut.

„Einige unter uns neigen dazu, Profit aus dem Ganzen zu schöpfen – denen geht es um die Karriere und den Fame“

Zerlegen sich die FFFler nun selbst? Ich denke nicht. Die Politiker und die Quantitätsmedien wollen die Demos und werden Konflikte wie viele andere unerwünschte Informationen unterschlagen. Außerdem sind die Umwelt-Ferkeleien von grünen Politikern Legion – und haben ihnen noch nie geschadet. ARD& ZDF sei Dank.

 




Schwarze Zukunft – unberechenbare Erneuerbare erhöhen die Anzahl und Dauer der Stromabschaltungen

Das dortige Stromnetz arbeitet in den letzten Jahren immer am Rande des Zusammenbruchs.

Aber es ist nicht einzigartig für Südaustralien. Jeder Landstrich, der versucht, seinen Strom mit Sonnenschein und Wind zu erzeugen, hat große Schwierigkeiten, das Stromversorgungssystem vor dem Zusammenbruch zu schützen.

Es sei daran erinnert, dass es nicht Ingenieure waren, die Windmühlen und Sonnenkollektoren forderten; das kam von schwachsinnigen Politikern, die den Wählerstimmen von klimabesessenen, innerstädtischen Grünen nachjagten. Während die Ingenieure das Problem nicht verursacht haben, bleibt es ihnen überlassen, sich dem Chaos anzunehmen und zu versuchen, „die Lichter eingeschaltet zu lassen“ (soweit möglich).

Wie bei jedem technischem-Problem lohnt es sich, genauer hinzusehen, so wie für uns David Watson im folgenden Artikel. Er ist diplomierter Elektroingenieur und war vor seiner Pensionierung Manager bei Foster Wheeler Energy in Glasgow.

 

Bei Marktversagen könnte Großbritannien fünf Tage lang unter Stromausfall leiden.

Engineering & Technology, David Watson, 11. März 2019

Die heutige Strom-Infrastruktur, die von kommerziellen Kräften sehr beeinflusst ist, wird schwer zu handhaben sein, wenn die Dinge ernsthaft schief gehen.

Selbst in den Industrieländern des 21. Jahrhunderts ist der Ausfall von Stromnetzen, wie er in den letzten Jahren in Teilen Australiens beobachtet wurde, nicht ungewöhnlich. In Großbritannien steigt das Risiko eines Totalausfalls oder einer erheblichen teilweisen Abschaltung des Übertragungsnetzes.

Die Zunahme von erneuerbaren Energien am Netz macht ein Versagen wahrscheinlicher. Durch das Wachstum von Windparks entstehen Frequenz-Regelungsprobleme, die auf eine verringerte Trägheit des Systems zurückzuführen sind, während eine Verringerung der Netzwerkstärke längere, stabilitätsgefährdende Fehlerbeseitigungszeiten verursachen kann. Dann gibt es die Herausforderungen, das Angebot [unterbrechungsfrei] an die Nachfrage anzupassen, nachdem plötzliche Schwankungen bei der Windstromerzeugung auftreten und Eingangsschwankungen der europäischen Verbindungsleitungen weniger als eine Stunde vorher bekannt gegeben wurden. Andere Risikofaktoren sind ein Ausfall der Netzstation, Blitzeinschläge in oder Ausfälle von Überlandleitungen und Cyberangriffe.

Für das Wiederherstellen des Netzes nach einem weitreichenden Zusammenbruch wird ein als „Schwarz-Start“ bezeichneter Prozess gestartet, unter Berücksichtigung der im Plan bestimmten Reihenfolge der verschiedenen Bereiche im Vereinigten Königreich. In der Lage zu sein, das Stromnetz und die Stromversorgung im Land schnell wieder herstellen zu können – Priorität der öffentlichen Gesundheitseinrichtungen kann zu Recht erwartet werden – aber in Schottland und wahrscheinlich in London ist dies nicht realisierbar. Die Wiederherstellung der Netzwerke würde mehrere Tage dauern. Das Problem ist so ernst geworden, dass es die Aufmerksamkeit des staatlichen Ausschusses für zivile Notfälle „Cobra civil contingencies committee“ auf sich gezogen hat.

Die professionelle Erwartung an die Dauer bis zur Rückkehr der Stromversorgung in Schottland ist inzwischen, wie mir gesagt wurde, auf fünf Tage gestiegen, was hauptsächlich darauf zurückzuführen ist, dass großräumige, disponierbare und bedarfsgesteuerte Erzeugung von Strom durch zeitweilig verteilte erneuerbare Energien ersetzt wurde. In London wurde eine ähnliche progressive Reduzierung verzeichnet, und der [wieder Auf-] Ladevorgang wird auch länger dauern, da ein Großteil des Hochspannungsnetzes Kabel und keine Freileitungsübertragung verwendet.

[Nur an meine Nicht-Elektrotechnischen Leser – die Elektrotechniker kennen das:  Ein Kabel muss sich nach dem Einschalten (anlegen von Spannung) erst aufladen. Vergleichsbeispiel: Ein langer Gartenschlauch muss nach dem Wasser-aufdrehen erst volllaufen, bevor hinten etwas rauskommt. Bei richtig langen Stromversorgungskabeln kann das eine Zeitlang dauern und es ist auch nennenswerte Energie. Umgekehrt dauert es eine Zeitlang nach dem Abschalten, bis das Kabel keine Spannung (Energie) mehr hat. Wenn es wichtig ist, wird gezielt „entladen“. Diese „Energie im Kabel“ kann aber als Speicher nicht genutzt werden. Denken Sie wiederum an den Gartenschlauch, wenn sie den Hahn zudrehen. Freileitungen benötigen aufgrund anderer physikalischer Eigenschaften weniger „Füllung“.

Das Thema greife ich demnächst mit auf, Demmig.]

Die Schottische Arbeitsgruppe zur Wiederherstellung der Energieversorgung nach einem Schwarz-Start, hat ihre Prozeduren im September 2018 überprüft. Diese basieren auf lokalen gemeinsamen Wiederherstellungsplänen, bei denen die Übertragungsbetreiber die lokalen Übertragungsinseln [gemeint ist z.B. die Versorgungseinheit eines Stadtteils sein] hochfahren und stabilisieren, die dann synchronisiert [alle im Gleichtakt des Wechselstromes] und schrittweise miteinander verbunden werden müssen.

Der Bericht der Gruppe warnt davor, dass es nach der Schließung des Kohlekraftwerks Longannet [es wurde gesprengt] in Fife im Jahr 2016, zu erheblichen Verzögerungen bei der Wiederherstellung der Stromversorgung kommen wird. Das Peterhead Gaskraftwerk, jetzt Schottlands einziges hochleistungsfähiges und mit hoher Trägheit (unverzichtbar für die Frequenzstabilisierung da rotierende Generatoren mit hoher Schwungmasse) einsetzbares Kraftwerk, bittet um eine Genehmigung zur Installation von 31 Dieselgeneratoren, die sieben Tage lang volle Leistung bringen können, um den Wiederanlauf sicherzustellen. Das Gaskraftwerk hat jedoch nur die Hälfte der Kapazität von Longannet und kann nicht ganz Schottland neu starten, ohne die Kapazitäten der Pumpspeicherwerke bei Cruachan und Foyers und, ganz entscheidend, aus England, zu verwenden – eine bislang noch nicht getestete Kombination.

Windparks können das Netz nicht hochfahren. Die verwendeten Generatortypen benötigen externe Energie, um mit der Stromerzeugung zu beginnen. Einige neuere Konstruktionen sind selbststartend, aber die Verbindung zu einem toten Netz über lange (Offshore-) Wechselstrom-Kabelverbindungen bleibt ein ungelöstes Problem, da die Generatoren nicht genug Blindleistung bereitstellen können, um tatsächlich große Kabelstrecken aufzuladen. In jedem Fall sind sie nicht in der Lage, die Anforderungen des National Grid für Hochfahren des Speiseabschnittes, Regelung der Netzspannung oder Frequenzsteuerung zu erfüllen.

Die erste lokale gemeinsame Netzwiederherstellungsaktivität besteht darin, die gesamte Offshore-Erzeugung abzuschalten. Onshore-Windparks können nach Wiederherstellung des Netzes schrittweise wieder eingetaktet werden, jedoch nur, wenn sie nicht stromlos [in ihren Regelkreisen] sind und der Wind weht. Die beiden schottischen Kernkraftwerke Hunterston und Torness können nur in ein stabiles Netz eingebunden werden, was mehrere Tage dauert.

Die neuen HGÜ-Verbindungen [Hochspannungs-Gleichstrom-Übertragungsleitungen] im Wert von 2,4 Mrd. GBP von Wales in die Gegend von Hunterston und von Moray Firth nach Spittal wurden nicht für den Schwarzstart konzipiert, da sie nicht die neueste 4-Quadranten-Umwandlungstechnologie (VSC) enthalten und nicht in ein totes Netz liefern [kommutieren ~Betrieb der Leistungshalbleiter] können. Schottland steht jetzt buchstäblich am Ende der Leitung [Versorgungsnetz], und ein notwendiger  Wiederanlauf würde erst gelingen, wenn das Netz im Norden Englands wiederhergestellt worden wäre. In ähnlicher Weise können für London die beiden HGÜ-Verbindungsleitungen nach Frankreich und in die Niederlande keinen Schwarzstart unterstützen.

National Grid bestätigte im Jahr 2016, dass die Wiederanlaufstrategie „angepasst werden muss“, da „Systemstärke und die Anzahl der Schwarz-Start-[geeigneten] Anbieter sinken“ und dass die Kosten für den Schwarz-Start „in den nächsten 10 Jahren um einen Faktor 7-10 ansteigen wird“. Während National Grid, wie Ofgem [Amt für Gas- und Elektrizitätsmärkte], die Bereitstellung von bis zu sieben neuen VSC-Verbindungsleitungen zwischen Großbritannien und dem europäischen Festland begünstigt, sind diese noch nicht gebaut, und die Verfügbarkeit von Strom hängt von den Marktbedingungen ab. Großbritannien ist ein Nettoimporteur von Elektrizität. Und außerdem gibt es den Brexit…

Die Situation ist eindeutig unhaltbar. Es zeigt beispielhaft die Notwendigkeit einer ordnungsgemäßen Steuerung des britischen Elektrizitätssystems, um die derzeit unterschiedliche, gewinnorientierte Schwächung des Netzes, die der „Markt“ verursacht hat, zu ersetzen.

Einige der technisch orientierten Institutionen plädieren für Veränderungen, darunter das IET – Institution of Engineering and Technology, das IMechE: Institution of Mechanical Engineers und die IESIS Institution of Engineers and Shipbuilders in Scotland. Wir müssen gehört werden.

Engineering and Technology

 

Gefunden auf Stopthesethings vom 10.04.2019

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2019/04/10/all-black-future-intermittent-renewables-chaos-means-longer-blackouts-much-more-often/




“Peak Oil” nach Venezuela-Art!

Und Venezuelas Wirtschaft ist fast ausschließlich von den Einnahmen aus Ölexporten abhängig. Als Hugo Chávez sein Amt antrat, produzierte Venezuela täglich fast 3,5 Millionen Barrel Öl (bbl / d). Bis 2015 waren es rund 2,4 Millionen Barrel / Tag und im März unter 1 Million Barrel / Tag.

Wie konnte das passieren? In gewisser Weise ist es ein Déjà Vu, die Wiederholung von schon mal erlebten. Robert Rapier schrieb eine schöne Zusammenfassung in diesem Forbes- Artikel:

Die Ölproduktion Venezuelas erreichte 1970 einen historischen Höchststand, als das Land 3,8 Millionen Barrel pro Tag (BPD) produzierte. 1971 verstaatlichte Venezuela seine Erdgasindustrie und begann mit der Verstaatlichung seiner Erdölindustrie. Die Erdölindustrie wurde 1976 offiziell verstaatlicht. Damals wurde die staatseigene venezolanische Ölgesellschaft Petróleos de Venezuela SA (PDVSA) gegründet.

Zwischen 1970 und 1985 ging die Ölproduktion in Venezuela um über 50% zurück. Aber dann begann die Produktion wieder anzusteigen. Im Jahr 1997, als es darum ging, ausländische Investitionen anzuziehen und das Schweröl im Orinoco-Gürtel zu fördern, öffnete Venezuela seine Ölindustrie für ausländische Investitionen.

Bis 1998 hatte sich die Erdölproduktion Venezuelas auf 3,5 Millionen BPD erholt und fast ihren bisherigen Höchststand erreicht. Im Jahr 1999 begann Hugo Chávez als Präsident von Venezuela. Während des Generalstreiks in Venezuela 2002–2003 entließ Chávez 19.000 PDVSA-Angestellte und ersetzte sie durch Angestellte, die seiner Regierung gegenüber loyal waren.

[PDVSA Petróleos de Venezuela S.A. ist die größte Erdölgesellschaft Lateinamerikas und Venezuelas größter Exporteur. Sie wurde 1976 im Zuge der Verstaatlichung der Erdölindustrie des Landes gegründet und unter dem Kürzel Petroven bekannt.]

[…]

Im Jahr 2007 stiegen die Ölpreise, und die Regierung von Chávez suchte ihre [eigenen] Einnahmen zu erhöhen, als sich die Investitionen der internationalen Ölfirmen auszuzahlen begannen. Venezuela forderte Änderungen der mit den internationalen Mineralölgesellschaften getroffenen Vereinbarungen, um PDVSA die Mehrheit der Projekte zu übertragen [~an sich zu reißen].

ExxonMobil und ConocoPhillips lehnten dies ab, und ihre Vermögenswerte wurden enteignet. (Diese Enteignungen wurden später als illegal eingestuft und beide Unternehmen erhielten eine Entschädigung).

Forbes

Eingesetzte Hinweise: Robert Rapier, Datenquelle BP Statistik 2018

Um es mit Margaret Thatcher zu sagen: „Der Sozialismus funktioniert nur solange, bis das Geld anderer Menschen ausgeht.“ Durch die Ersetzung der qualifizierten Arbeitskräfte von PDVSA durch politische Kumpane und die Vertreibung von ausländischem Fachwissen und Kapital aus Venezuela blieb viel schweres Öl „zurück“, was schwierig zu fördern ist und die Mittel wurden weniger, um es zu verarbeiten. Aber es dauerte noch bis zum Januar 2019, dass die Produktion auf nur noch rund 1,2 Mio. Barrel / Tag sank. Danach war der Bodensatz erreicht. [nein, siehe Nachsatz am Ende]

Quelle US EIA, Einfügung Robert Rapier: „USA verhängte harte Sanktionen gegen PDVSA“

Die Naptha-Klippe!

Die US-Sanktionen gegen PDVSA behinderten in zwei Punkten:

  1. Ihr Exportkunde Nr. 1 [USA] fiel aus
  2. Das Naptha und andere Verdünnungsmittel, die zum Transportieren des schweren Rohöls erforderlich sind.

Dieser „Doppelschlag“ hatte in weniger als einem Monat gravierende Auswirkungen…

Die Sanktionen der USA sind ein Doppelschlag für Venezuela.

Die Vereinigten Staaten war nicht nur der Nummer Nr. 1 Kunde von Venezuela, sondern auch die wichtigste Naphtha-Quelle des Landes, das flüssige Kohlenwasserstoffgemisch, das zur Verdünnung von Rohöl verwendet wird. Ohne sie kann Venezuelas schweres Rohöl nicht ohne weiteres transportiert werden. Rystad Energy prognostiziert, dass bei einigen Betreibern in Venezuela das Verdünnungsmittel bis März aufgebraucht sein wird.

CNN

Tut mir leid, Peak Oilers… Venezuela ist vielleicht schon als Nation von der Seneca Klippe [… ist ein mathematisches Modell für Ökonomie] in die Olduvai-Schlucht gesprungen; aber es hat nichts mit Peak Oil zu tun. Venezuelas Ölproduktion wird sich schließlich erholen.

[Die Olduvai-Schlucht ist eine Schlucht im Norden Tansanias. Sie gilt – gemeinsam mit dem Afar-Dreieck in Äthiopien und Fundplätzen in der südafrikanischen Provinz Gauteng – als die „Wiege der Menschheit“. International bekannt wurde die Schlucht durch den Fund zahlreicher pleistozäner Fossilien von Menschenaffen.]

Das „Low Case“ -Szenario von Rystad Energy führt nach Schätzungen dazu, dass die Ölproduktion Venezuelas in diesem Jahr auf 800.000 Barrel / Tag und im nächsten Jahr auf 680.000 Barrel / Tag zurückgeht, bevor sie sich erholt. Die Erholung wird trotz Regimewechsel nur langsam vor sich gehen, aber sie wird geschehen…

Rystad_Energy_Ucube-080219-venezuela-crude-production-base-high-low-cases-1

** Kurzfristig: Die Produktion wird ihren Abwärtstrend verlangsamen. [Die Öl-Sand-] Felder im Orinoco-Gürtel, [mit den größten Erdölvorkommen der Welt], die derzeit unterhalb ihrer Kapazität arbeiten, können relativ leicht verjüngt werden. Weitere Produktionssteigerungen werden viel komplizierter, da die reifen Felder ihren natürlichen Produktionsrückgang erreicht haben und einer großen Anzahl von Bohrungen erheblicher Schaden zugefügt wurde.

** Mittelfristig: Die Verbesserung von Produktionsrückgängen und Schäden an den reifen Feldern – die den größten Beitrag zur Produktion der venezolanischen Produktion von mehr als 2 Millionen Bpd leisteten – wird technisch und finanziell eine große Herausforderung darstellen. Um die Produktion zu steigern, muss Venezuela die Felder im Orinoco-Gürtel weiter ausbauen.

** Langfristig: Rystad Energy erwartet kein massives Wachstum, sieht jedoch ein erhebliches Aufwärtspotenzial im Laufe der Zeit. Venezuela sitzt auf massiven nachgewiesenen Reserven. Die Kostenstruktur ist relativ niedrig und das Explorationsrisiko ist minimal. Darüber hinaus sind die [Verarbeitung der] Ölsande des Orinoco Belt durch das wärmere Klima Venezuelas. weniger energieintensiv als die Ölsande in Kanada. Dies bedeutet, dass weniger Energie erforderlich ist, um das schwere Rohöl ausfließen zu lassen. Schließlich erwarten wir, dass trotz der möglichen CO2-Vorschriften und der IMO 2020-Beschränkungen für Schiffstreibstoffe, die Nachfrage nach Schweröl hoch bleiben wird, da komplexe Raffinerien wie die in den USA, diese Art von Rohöl umweltgerecht verarbeiten können.

Rystad Energy

Es könnte verlockend sein, sich eine Grafik wie diese anzusehen und zu folgern, dass sich eine „Peak Oil“ Seneca Klippe wie aus dem Nichts gebildet haben könnte.

Quelle H/T Javier

Wenn Sie sich jedoch die größere Grafik betrachten …

BP and Restuccia- 2018_venezuela_2

Venezuelas Öl Produktion 1920-2017 (millions of bbl/yr and thousands of bbl/d).

Die „Seneca Klippe“ erweist sich eher als eine Hubbert-Kurve. Peak Oil ist echt. Irgendwann wird die weltweite Erdölproduktion ihren Höhepunkt erreichen und dann wird sie langsam zurückgehen… Aber sie wird nicht von einer Seneca-Klippe in die Olduvai-Schlucht fallen.

[Die Hubbert-Kurve ist eine Annäherung an die Produktionsrate einer Ressource über die Zeit. Es handelt sich um eine symmetrische logistische Verteilungskurve, die oft mit der „normalen“ Gaußschen Funktion verwechselt wird. Wikipedia (Englisch)]

BP _ Global petroleum production 2018

Mineralölproduktion (einschließlich Rohöl, Kondensat, Ölschiefer, Ölsand und NGL). USA in Rot, Venezuela in Gelb.

 

References

Egan, Matt. “How US Sanctions on Venezuela Are Rippling through Oil Markets.” CNN, Cable News Network, 19 Feb. 2019, www.cnn.com/2019/02/19/investing/venezuela-oil-sanctions-pdvsa/index.html.

Hubbert, M. King. “Nuclear Energy and the Fossil Fuels. Presented before the Spring Meeting of the Southern District, Division of Production, American Petroleum Institute, San Antonio, Texas, March 7-8-9, 1956.” Nuclear Energy and the Fossil Fuels. Presented before the Spring Meeting of the Southern District, Division of Production, American Petroleum Institute, San Antonio, Texas, March 7-8-9, 1956, 1956. https://debunkhouse.files.wordpress.com/2017/03/1956_hubbert.pdf

Peak Oil. “The Seneca Cliff of Oil Production”. Exploring Hydrocarbon Depletion. June 7, 2016. https://peakoil.com/production/the-seneca-cliff-of-oil-production

“Peak Oil And The Olduvai Gorge.” Peak Oil And The Olduvai Gorge  |  Peak Oil News and Message Boards, peakoil.com/generalideas/peak-oil-and-the-olduvai-gorge.

Rapier, Robert. “Charting The Decline Of Venezuela’s Oil Industry.” Forbes, Forbes Magazine, 5 Feb. 2019, www.forbes.com/sites/rrapier/2019/01/29/charting-the-decline-of-venezuelas-oil-industry/#1be7ec664ecd.

Restuccia, Diego. “The Monetary and Fiscal History of Venezuela: 1960–2016.” SSRN Electronic Journal, 2018, doi:10.2139/ssrn.3237748. https://www.economics.utoronto.ca/diegor/research/MFHLA_paper.pdf

“Short-Term Energy Outlook > International Petroleum and Other Liquids > Supply > OPEC.” U.S. Energy Information Administration (EIA) – Qb, www.eia.gov/opendata/qb.php?category=1039874.

“Statistical Review of World Energy | Energy Economics | Home.” BP Global, www.bp.com/en/global/corporate/energy-economics/statistical-review-of-world-energy.html.

“Venezuela-Related Sanctions.” U.S. Department of State, U.S. Department of State, www.state.gov/e/eb/tfs/spi/venezuela/.

“Venezuela Update: Production Could Fall below 700,000 Bpd by 2020.” Rystad Energy, www.rystadenergy.com/newsevents/news/press-releases/Venezuela-update-Production-could-fall-below-700000-bpd-by-2020/.

Gefunden auf WUWT vom 11.04.2019

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2019/04/11/la-cumbre-del-petroleo-venezuela-style/

¡La cumbre del petróleo! Venezuela-Stil!

 

Nachsatz:

Auf der Webseite der PDVSA ist von einem Sabotageakt gegen die Stromversorgung die Rede (Wasserkraftzentrale „Simón Bolívar“ im Bundesstaat Bolívar, speziell im El Guri-Staudamm). … „Durch unermüdlichen Einsatz der Mitarbeiter kann die Produktion von 165.000 Barrel pro Tag gehalten / erreicht werden.“ ist im weiteren Text zu lesen.

PDVSA Ölproduktion – Sabotage

Weitere Informationen habe ich nicht gesucht.




Unsere Energieversorgung wird immer fragiler

erschienen im Reviertransfer, Seite 44 (hier)

„Wir müssen die Energiewende vom Grundsatz her neu denken“

Interview mit Prof. Dr.-Ing. Harald Schwarz, Lehrstuhlinhaber Energieverteilung und Hochspannungstechnik an der BTU Cottbus-Senftenberg

Im Frühjahr 2018 war Prof. Harald Schwarz Mitautor einer BTU-Kurzstudie des brandenburgischen Wirtschaftsministeriums  zu den technischen Zusammenhängen zur sicheren Stromversorgung. Wir suchten mit ihm das Gespräch zu seiner Sicht auf die Ergebnisse des Abschlussberichts der
WSB-Kommission. Daraus wurde eine umfangreiche Aufklärung zu den Unzulänglichkeiten der Umsetzung von Deutschlands Energiewende.

Die Kommission wurde mit den Begriffen Wachstum, Strukturwandel und Beschäftigung ins Rennen geschickt, was entnehmen Sie dem Abschlussbericht in diesen Themenbereichen für die Lausitz?

Ich habe den Bericht nur auszugsweise gelesen und mich auf die Absätze zur Versorgungssicherheit konzentriert. Es gibt eine logische Reihenfolge: Wir müssen zuerst die Versorgung sicherstellen und können dann schauen, wie wir CO2-Emissionen reduzieren. Erst dann brauchen wir uns über Themen wie Wachstum, Strukturwandel und Beschäftigung Gedanken machen. Wenn die Versorgungssicherheit als Primat nicht gegeben ist, brauchen wir über den
Rest nicht zu reden. Da ich in dem Bericht hierzu keinen Ansatz erkennen konnte, ist die Debatte um den Strukturwandel meines Erachtens obsolet.

Stehen Sie mit dieser Meinung nicht recht allein? 

Das ist nicht meine Denke. Es gibt seit zehn Jahren ausreichend Studien dazu.
Möchte man in einem Land sichere Stromversorgung, benötigt man gesicherte Kraftwerksleistung. Seit hundert Jahren heißt die Regel, dass die gesicherte Leistung die mögliche Höchstlast in einem Stromnetz übersteigen muss. Schauen wir uns die letzten zehn bis 15 Jahre Energiewende in
Deutschland an, so haben wir um die 120 Gigawatt PV- und Windstrom aufgebaut. Die gesicherte Leistung von PV ist aber 0%, bei Wind onshore ist es 1%, bei Wind offshore 2%. Im Klartext liefern die 120 GW, die wir in den letzten 15 Jahren aufgebaut haben, nahezu null Beitrag zur gesicherten
Leistung. Wir werden ausschließlich mit Wind und PV nie eine gesicherte Stromversorgung aufbauen. Vor zehn Jahren standen uns deshalb rund 100 GW Kraftwerksleistung aus sicheren Energieträgern zur Verfügung, das sind Kohle, Gas, Atom, Biomasse und Laufwasser. Die mögliche Höchstlast in Deutschland liegt derzeit bei ca. 85 GW. Inzwischen ist die gesicherte
Leistung auf knapp 90 GW abgeschmolzen – und der Kohlekommissionsbericht sieht vor, dass wir davon bereits in drei Jahren weitere 20 GW gesicherte Leistung abschalten. Das soll dann noch weiter fortgesetzt werden. Wir geben in drei Jahren also unsere sichere Stromversorgung „aus eigener Kraft“ auf und haben dann nur noch 80% der notwendigen gesicherten Kraftwerkleistung im eigenen Land, die wir
brauchen, um uns verlässlich zu versorgen. 2030 sinkt das weiter auf 60%. Wo soll der Rest herkommen? Es gibt kein Konzept und bei unseren Planungshorizonten kann ich mir keine reale Lösung vorstellen. Fest steht, dass bis 2022 definitiv gar nichts passiert. Was heute im Bau ist, ist 2022 fertig, sonst nichts. Wir werden in drei Jahren die Abschaltung von Kohle und Atom nicht verkraften und können nur darauf hoffen, dass im angrenzenden Ausland noch genügend Reserven im Bereich Kohle und Atom vorhanden sind, um Deutschland mit zu versorgen, wenn wir es selbst nicht mehr
können.

Wie sieht es mit der Hilfe der Nachbarn aus?

Das ist die bislang einzige Hoffnung der Bundesregierung: Der europäische Strommarkt wird schon liefern. Aber was ist dieser Markt? Das sind Kraftwerke in den Nachbarstaaten. Hier stellt man schnell fest, dass Windflauten bei uns auch mit Windflauten bei den Nachbarn einhergehen. Dazu gibt es Fakten und Zahlen. Laufen unsere Kraftwerke unter Höchstlast, tun sie das in Polen und Tschechien auch. Die Wahrscheinlichkeit, dass uns die Nachbarn in einer kalten Dunkelflaute, bei weitgehendem Ausbleiben von Strom aus Wind und PV, mal eben 20 GW über den Strommarkt verkaufen können, halte ich für unrealistisch. Genau an diesem Punkt hat sich der Abschlussbericht der Kommission für mich wegen Realitätsferne erledigt.

Viele Wissenschaftler untermauern die Notwendigkeit und Möglichkeit des Kohleausstiegs – handelt es sich schlicht um unterschiedliche Sichtweisen oder einen unterschiedlichen Grad der wissenschaftlichen Expertise?

Die Aussagen zur gesicherten Leistung sind physikalische Fakten. An denen kann kein Wissenschaftler etwas ändern. Wir leben allerdings seit längerem in einer Phase der Energiewende, bei der physikalische Fakten und Naturgesetze ausgeblendet werden. Das Motto lautet: Es muss einfach gehen. Wir betreiben die Energiewende schon seit 20 Jahren. Das EEG ist Mitte der 1990er-Jahre erstmals wirksam geworden und vor der Jahrtausendwende
wurden dann die ersten Anlagen für Erneuerbare installiert. Das
Ziel der Energiewende besteht aber nicht im Aufbau regenerativer Energien, sondern im Senken der CO2-Emissionen. Bis heute erleben wir bei vielen Beteiligten einen wahren Rausch, was die jährliche Steigerung des prozentualen Anteils der Erneuerbaren an der Stromproduktion angeht. Daraus ist der Glaube entstanden, dass ein „weiter so“ bei der Steigerung
dieses Anteils die Lösung bringt.

In den Medien wird suggeriert, dass mit 40% Quote der Erneuerbaren auch 40% Deutschlands mit regenerativem Strom gesichert versorgt werden. Dem ist nicht so. Das physikalische Grundverständnis energietechnischer Zusammenhänge in den Medien und der Bevölkerung ist leider sehr gering. Schaut man hingegen auf die CO2-Emissionen in der Energiewirtschaft, so wurde in den letzten 20 nichts erreicht. Lediglich Anfang der 1990er-Jahre gab es einen starken Abfall, der mit der Deindustrialisierung der ehemaligen DDR einherging. Von 1994 bis 2013 waren die Emissionen der Energiewirtschaft dann trotz Energiewende konstant. Sie betrugen jedes Jahr 360 Mio. Tonnen CO2 plus minus 5 Prozent. Der Aufbau von PV und Windenergie gefördert über das EEG zeigte keine Wirkung bei den CO2-Emissionen.

Seit 2015 gibt es wieder einen leichten Abwärtstrend, allerdings sind das noch unbestätigte Daten des Umweltbundesamts aus dem Sommer 2018. Da war noch von Hochrechnungen und Expertenschätzungen die Rede, das ist also nicht belastbar. Vielleicht gibt es hier tatsächlich einen kleinen Abwärtstrend, aber über 20 Jahre haben sich die Emissionen gar nicht verändert und selbst jetzt wäre das nur sehr geringfügig. Trotzdem sind alle glücklich und feiern den Ausbau der Erneuerbaren. Das kann ich nicht verstehen.

Woraus resultiert der fehlende Effekt auf die Emissionen?

Parallel zum Aufbau der Erneuerbaren haben wir CO2-freie Kernenergie abgebaut. Was wir auf einer Seite aufgebaut haben, wurde auf der anderen Seite abgebaut. Zudem wurden Kohle- und Gaskraftwerke durch die volatile Einspeisung der Erneuerbaren zu einem extrem fluktuierenden Betrieb gezwungen, um so die ständigen Einspeiseschwankungen von Wind und PV
mit dem Strombedarf in Übereinstimmung zu bringen. Das ist wie Stop and Go mit dem Auto in der Stadt. Das führt auch zu höheren Emissionen pro Kilometer, als auf der gleichen Strecke mit konstanter Geschwindigkeit
auf der Autobahn oder Bundesstraße zu fahren. Wir haben im Ergebnis über 20 Jahre hinweg in blindem Aktionismus im dreistelligen Milliardenbereich Steuergelder ausgegeben, ohne nennenswert etwas bei den Emissionen zu erreichen.

Wie weit sind wir bei der Verstetigung der Erneuerbaren, damit wäre ja ein Effekt auf die Emissionen gegeben?

Wir wissen schon lange, dass überschüssige regenerative Energien gespeichert werden müssen. Das hat in den letzten 15 Jahren aber niemanden interessiert. Es gab bereits 2008 und 2010 Konzepte, die vor der kommenden Phase einer massiven Unterdeckung mit gesicherter Leistung warnten. Die Energiewende wurde trotzdem blind vorangetrieben. Hier müssen wir dringend umsteuern und die Energiewende neu denken, um zu einer nachhaltigen Stromversorgung mit deutlich geringeren CO2-Emissionen zu kommen.

Es wird dennoch viel über grünes Gas gesprochen, wie weit sind wir in der Praxis?

Im Jahr 2006 gab es eine Pilotanlage mit 6 MW und weitere im Bereich um 2 MW. Seitdem ist bundesweit nichts mehr passiert. Aktuell plant RWE nach meiner Kenntnis eine Anlage mit 50 bis 100 MW. Um von dieser Größe in den Bereich von mehreren 10.000MW zu kommen, brauchen wir nicht nur einen, sondern mehrere Schritte zum Hochskalieren und das dauert mehrere Jahrzehnte, zumal wir ja auch die Kosten dafür irgendwie verteilen müssen. Es rächt sich, dass wir 15 Jahre nichts getan haben.

Was müsste jetzt getan werden?

Wir reden inzwischen bei Phasen mit Überspeisung regenerativer Energien über hunderte Gigawattstunden. Die Big Batterie der LEAG wird 0,05 Gigawattstunden bringen, das macht die Dimensionen des regenerativen
Überschusses deutlich. Batterien werden in Zukunft zwar mehr im Netz auftauchen, aber als Elemente, über die man schnelle Regelleistung bereitstellen kann, um einem kritischen Frequenzabfall oder –anstieg in wenigen Minuten entgegenzuwirken. Bei einer mehrtägigen Überspeisung
der Netze, so wie wir es schon heute in Ostdeutschland im Winter teils mehrfach in der Woche haben, können wir nur abregeln, oder wir müssten diese Überschüsse in Wasserstoff umwandeln und als grünes Gas ins Gasnetz einspeisen. Das ist für Deutschland m.E. die einzige Option, den massiven EE-Überschuss zu verstetigen und nachhaltig zu nutzen. Das ist aber ein weiter, sehr weiter und auch teurer Weg.

Was kann bis dahin Kohle und Atom ersetzen?

Wenn wir auf Kohle und Atom verzichten, bleibt nur Gas als Ersatz für gesicherte Leistung.Auch hier lügen wir uns seit Jahren in die Tasche. Wir betrachten die CO2-Emissionen nur im Wandlungsprozess vor Ort, in diesem Fall ist Gas deutlich günstiger als Kohle. Das ist zwar statistisch korrekt,
aber CO2 ist nun mal ein globales Problem. Wenn die tatsächlichen CO2-Emissionen durch Erzeugung und Transport mitbetrachtet werden, dann nimmt das bei Braunkohle aufgrund des geringen Abstandes zwischen Tagebau und Kraftwerk nur wenig zu, Steinkohle geht deutlich nach
oben, da viel Steinkohle für unsere Kraftwerke heute aus Australien kommt und bei Gas explodieren die Emissionswerte geradezu. Es gibt Gasfelder wie das amerikanische Schiefergas samt Transport nach Deutschland, bei dem die Gesamtemissionen dann weit über der Braunkohle liegen. Denken wir aber tatsächlich über globalen Klimaschutz nach, sind diese Gesamtemissionen
der entscheidende Wert.

Wenn wir über Klimaschutz reden, dann leistet
Gas als einziger möglicher Lückenfüller für Atom und Kohle also wenig Beitrag?

Klimaschutz ist ein globales Thema. Da hilft es nicht, wenn wir nur den Wandlungsprozess in Deutschland betrachten. Wir müssen die regenerativen Überschüsse umwandeln, das ist der einzig richtige Weg. Der Netzentwicklungsplan 2030 sieht 200 GW Wind und PV vor, die uns das Netz gigantisch belasten werden. Diese Überschüsse müssen ins Gasnetz. Der notwendige Prozess der Elektrolyse ist aber immens teuer und müsste dringend vorangetrieben werden, anstelle riesige Summen in die Verkabelung
der großen Nord-Süd Leitungstrassen zu stecken – nur mit dem Effekt, dass
man die Leitung dann nicht mehr sieht. Alles in allem sind wir in Deutschland dabei leider ohne Konzept.

 

Entspricht das inzwischen oft beschworene Szenario eines Blackouts einem realen Problem?

Nach Köpenick muss man den Begriff Blackout leider oft klarstellen. Es handelt sich dabei um eine lang anhaltende und großflächige Versorgungsunterbrechung. Das entspricht mehreren Tagen auf einer Fläche von mehreren hundert Quadratkilometern. Köpenick war eine zwar unschöne,
aber lokal und auch zeitlich noch sehr begrenzte Versorgungsunterbrechung.
Über die „Blaulichtorganisationen“ konnte man das locker von außen versorgen. Zur Notversorgung eines Stromausfalles im gesamten Berliner Stadtgebiet müsste das Technische Hilfswerk vermutlich alle in Deutschland verfügbaren Ressourcen zusammenziehen – und wenn die Fläche noch größer wird, dann wird es richtig hart. Insgesamt betreiben wir das Stromnetz in den letzten Jahren immer stärker am Limit. Anfang der 2000er-Jahre gab es zwei größere Blackouts (Italien bzw. Teile Westeuropas), weil der neu eingeführte Stromhandel über das europäische Verbundnetz und die physikalischen
Randbedingungen für den Netzbetrieb plötzlich nicht zusammenpassten.
Auch im Winter 2011 auf 2012 war das Gleichgewicht zwischen Verbrauch und Erzeugung empfindlich gestört, als es durch den Konflikt zwischen Russland und der Ukraine zur verminderten Gasdurchleitung und damit einem Gasmangel in Süddeutschland kam. Wir waren kurz vor dem kritischen Punkt der Unterfrequenz, bei dem dann alle verfügbaren Kraftwerksreserven ans Netz gebracht werden und bereits erste große Verbraucher abgeschaltet werden, um ein weiteres Absinken der Frequenz zu verhindern, das ungebremst nach sehr kurzer Zeit zu einem Netzzusammenbruch führen
kann. Es gab helle Aufregung in der Politik, daraufhin wurde eine Regelung zur Abschaltung energieintensiver Industrie im Falle besonderer Herausforderungen geschaffen. Allein in 2018 wurden Teile der Aluminiumindustrie über diese Maßnahme 78 Mal abgeschaltet. Das waren
zwar keine Katastrophenszenarien, aber man hat in diesen Zeiten gemerkt, dass die Regelleistung nicht mehr ausreicht und der Markt die Lücke nicht schließen kann. Zum vergangenen Jahreswechsel gab es auch eine plötzlich auftretende Unterdeckung von 6 GW, die man ausgleichen konnte, weil die Kraftwerke nicht auf Höchstlast waren. Am 10. Januar gab es eine Situation, in der die Frequenz in wenigen Minuten, quasi aus dem Nichts, bis auf 49,8 Hertz abgesunken ist. 14 Tage später gab es das gleiche Phänomen in die
andere Richtung. Bis heute weiß in diesen Fällen niemand, worin genau die Ursachen lagen. Der Netzbetrieb in Europa ist durch die beliebige Ein- und Ausspeisung hochgradig wacklig geworden. Das wird weiter zunehmen.

Im Kommissionsbericht steht, dass auch die Nachbarländer aus der Kohle aussteigen, ist ganz Europa auf dem Holzweg?

Die Nachbarn weniger. Um einen deutlichen Vergleich zu bedienen, schauen wir mal etwas weiter nach China. Dort gibt es auch viel Kohle und eine ähnliche EEGQuote wie in Deutschland. Es gibt aber einen wesentlichen Unterschied. Dreiviertel von Chinas EEG-Quote entstammen sicherer
Wasserkraft und nur ein Viertel Wind und PV. Bei uns sind es 90 % Wind und PV. Andere Länder haben einen anderen Mix, Deutschlands Weg folgt niemand.

Ist einmal durchgerechnet worden, was die
Energiewende kostet?

Was immer man rechnet, es gibt einfach zu viele Unklarheiten und aktuell läuft man bei der Energiewende in Deutschland Lemmingen gleich einer Religion hinterher. Die Politik wird die Physik erst akzeptieren, wenn 2022 eine Situation eintritt, in der der Markt nicht liefern kann. Man sagt da immer schnell, dass so ein größerer Blackout vielleicht auch „heilsam“ wäre, man darf aber nicht vergessen, dass ein großflächiger und langanhaltender Blackout
in Deutschland unvorstellbar schlimm werden würde. Der Bundestag hat hierzu mal 2011 eine große Studie in Auftrag gegeben, die man auch mit etwas Suchen herunterladen kann. Dort wurde alles zumindest für den ersten Tag des Blackouts sehr detailliert untersucht – und wer das gelesen hat, möchte das nicht erleben.

Warum gibt es keinen Aufstand aus der Wissenschaft?

Das Thema ist zu komplex für die heutige Medienlandschaft, es fehlt in unserem Land
der Resonanzboden. Große Teile der Gesellschaft sind darauf eingeschworen, die Welt zu retten, auch wenn unser Anteil an den globalen Emissionen nur 2,7 % beträgt.

Was würden Sie vorschlagen?

Im Abschlussbericht der Kommission sind Jahreszahlen für ein Monitoring festgelegt worden. Man müsste allerdings definieren, wie man genau ein Monitoring ansetzt, um die Sicherheit der Stromversorgung im Allgemeinen
und der Netze im Besonderen zu bewerten. Bei der Stromversorgung ist
das m.E. die gesicherte Kraftwerksleistung und bei den Netzen z.B. die Eingriffe nach §13 und 14 EnWG, da diese dann aktiviert werden, wenn eine Überlastung der Netze durch regenerative Überspeisung verhindert werden muss. Dazu braucht es eine Kommission, in der tatsächlich Experten zur Versorgungssicherheit zusammenkommen. Die bisherige WSB-Kommission ist dafür fachlich nicht qualifiziert. Ich habe aber wenig Hoffnung für ein Umdenken. Über das Lockmittel „Strukturhilfen“ wird das Thema „Versorgungssicherheit“ völlig ausgeblendet.

Eine große Bedeutung misst der Bericht der Kommission der Lausitzer Hochschullandschaft als Motor des Strukturwandels bei. Teilen Sie diese Ansicht?

Hier sollen die neuen Institute Impulse liefern. Das Fraunhofer und das DLR-Institut werden wohl bis Ende 2019 formal vor Ort sein und dann in zwei bis
drei Jahren hochfahren. Wir können da sicher sehr gut kooperieren. In drei Jahren sollte die Mannschaft pro Institut um die 50 Personen betragen. Mit Blick auf den WSB-Bericht geht es sicher darum, wie eine Hochschule Arbeitsplätze in der Industrie induzieren kann. Bis aus einer Idee eine Fertigung wird, das dauert. Ernsthaften Ersatz für Industriearbeitsplätze
in Größenordnungen allein aus der Hochschule heraus sehe ich als unrealistisch. Da brauchen wir Investoren, für die eine Hochschule, die Ideen und gut qualifizierte Absolventen liefert zwar ein positives Add-on ist. Entscheidungen zu Investitionen in neue Fertigungsstandorte in der Lausitz werden aber nach anderen Kriterien gefällt.

Dennoch erhält die BTU mit den Instituten Rückenwind, gibt es derzeit eine Aufbruchstimmung?

Wir müssen erst einmal schauen, was konkret hinter den neuen Einrichtungen steckt. Fraunhofer muss später Drittmittel einwerben und eigenes Geld verdienen. Da muss man schauen, ob sie in Konkurrenz zu Aktivitäten bestehender BTU-Lehrstühle arbeiten. Da die beiden neuen Institute in
den Bereich der thermischen Energietechnik gehen wollen, können die BTU-Lehrstühle der elektrischen Energietechnik hier sehr gut anknüpfen, der gerade in der Wiederbesetzung befindliche Lehrstuhl für Thermische Energietechnik an der BTU ist allerdings im gleichen Feld wie die neuen
Institute aktiv. Hier kann es zu Überschneidungen kommen.

Sehen Sie die BTU für eine Begleitung des Lausitzer Wandels gut aufgestellt?

Wir haben einen extrem geringen Wert bei wissenschaftlichen Mitarbeitern. Die RWTH Aachen hat meinen Bereich „Energieverteilung und Hochspannungstechnik“ z.B. in zwei Institute mit je sechs wissenschaftlichen und von der Uni bezahlten Mitarbeitern aufgesplittet. Diesen zwölf Wissenschaftlern im Mittelbau stehen bei mir zwei gegenüber, wir reden
also über ein Verhältnis 1:6! Daran merkt man, welchen Vorteil das Rheinische Revier beim Strukturwandel mit der RWTH Aachen gegenüber dem Lausitzer Revier auch in diesem Bereich hat. Wir haben mangels Manpower nicht die Option, viele Anträge vorzubereiten. Gemeinsam mit DRL und Fraunhofer sind Lösungen denkbar, aber auch hier wird es mit dem schmalen Mittelbau schwer.

Welchem Projekt Ihres Lehrstuhls trauen Sie für den Strukturwandel den größten Effekt zu?

Es gibt viele spannende Themen, am Ende geht es aber schlicht darum, für welche wir Geld erhalten. Deshalb machen wir aktuell viel zur Netzintegration Erneuerbarer Energien und Elektromobilität. Ein weiteres Thema ist der BTU Smart Campus. Aber was kann ein Lehrstuhl mit zwei wissenschaftlichen Mitarbeitern für die Lausitz bewegen? Es wäre sicher sinnvoll, den Power System Simulator an meinem Lehrstuhl mit dem LEAG-Kraftwerkstrainer
zu verknüpfen, um so ein singuläres Kompetenzzentrum aufzubauen. Dazu braucht es aber Geld, Zeit und Personal – oder einen externen Partner, der in das Projekt mit einsteigt.

Was müsste sich an der BTU verändern?

Das neue Fraunhofer bzw. DLR-Institut haben je einen Umfang von 50 Mitarbeitern. Dem steht bei uns ein Professor mit zwei wissenschaftlichen Mitarbeitern gegenüber. Viele Planstellen für den wissenschaftlichen
Mittelbau sind hier verschwunden und irgendwo im Stab der Hochschulleitung gelandet. Wenn nun alle oben koordinieren und unten keiner mehr zum Arbeiten da ist, wird das problematisch. Fraunhofer und DLR
marschieren mit 100 Planstellen in einen Bereich, in dem die BTU aktuell zwei Professoren mit jeweils zwei Mitarbeitern einsetzt.

Wir danken für das Gespräch.

EIKE dankt dem Reviertransfer für die Genehmigung, seinen Beitrag ungekürzt auch in unseren News zu bringen.




Deutschland mit Wetter und Deutsch­land im Griff des Klima­wandels

Wetter in Bayern: Der Frühling bleibt, droht eine neue Dürre?

Der Bayerische Staatsfunk nimmt seinen Informationsauftrag fürs Volk ernst und informiert regelmäßig über wichtige Themen, also auch das Klima und dessen stetigem Wandel. In welcher Form und wie „(des-)informativ“ dies (nicht nur beim BR) geschieht, wurde bereits mehrmals berichtet [2] [3] [4] [5] [6] [13].

Nun scheint der BR extra einen Meteorologen mit ausreichender Klima-Alarmstimmung engagiert zu haben, der in der richtigen Form über das Wetter zu berichten weiß. Für den Autor wieder ein Anlass, anhand der gleichen Daten die Darstellungen eines Öffentlich-Rechtlichen Fachmannes und seine laienhaften nebeneinander zu legen:
BR24, 31.03.2019: Wetter in Bayern: [1] Der Frühling bleibt, droht eine neue Dürre?
Das trockene und warme Hochdruckwetter bleibt uns erhalten. BR-Meteorologe Michael Sachweh rechnet mindestens bis Mittwoch mit Sonne und Temperaturen von 14 bis 18 Grad. Es gebe sogar Anzeichen, dass in diesem Jahr eine neuerliche Dürre droht.
Der Wetterbericht sah das mit der „droht eine neue Dürre“ am nächsten Tag wie folgt (Anmerkung: zumindest in Franken regnete es dann allerdings weniger, als im Wetterbericht vorhergesagt):

Bild 1 Wettervorhersage Nürnberg am 01.04.2019

Zur drohenden (Sommer-)Dürre in diesem Jahr weiß auch der FOCUS Neues zu berichten. Vor allem, dass man es nicht weiß, aber vorbeugend schon einmal herrlich darüber fabulieren kann:
[9] FOCUS ONLINE, 03.04.2019:
… Wir haben besonders in den vergangenen zwei Wochen bereits die starken Westwinde zu spüren bekommen, als ein Sturm nach dem anderen von Westen nach Deutschland hereingezogen ist. Ein Blick auf die Wetterstatistiken zeigt, dass in der Vergangenheit der April bei Westströmungen in Nordeuropa zu warm und in Westeuropa etwas zu trocken ausgefallen ist.
In Deutschland bekommen wir ein bisschen von beidem ab: … Dazu wird es etwas weniger regnen als normalerweise.
Wie wird der Sommer?

Bild 2 Screenshots aus dem Videovortag bei FOCUS ONLINE [9]
[9] FOCUS ONLINE, 03.04.2019:
Eine zuverlässige Sommerprognose ist aus heutiger Sicht nicht möglich, da sich bis dahin noch viel ändern kann …
… Auch das Wettergeschehen in Iberien spielt eine Rolle für Deutschland: Hält die Trockenheit dort noch bis in den Mai an, könnte das Hitzewellen bei uns verstärken. Es zeichnet sich ab, dass der Sommer ebenfalls heiß wird, wenn auch nicht ganz so heiß wie der Rekordsommer des vergangenen Jahres. Das Jahr 2019 könnte so ausfallen wie die die Sommer in 2015 und 2017 …

Im Winter hat es weit überdurchschnittlich geregnet, aber eben „nicht so viel wie nötig“

Inzwischen ist jedes Wetter welches sich nicht wunschgemäß verhält, Anlass für mögliche Klimasorgen.
BR24 [1]: Ein unangenehmes Wiedersehen
… Für Michael Sachweh ist es fast wie ein Déjà-Vu. Denn letztes Jahr habe im Frühjahr eine regelrechte Dürre geherrscht. Die Grundwasserpegel sind stark gefallen, die Trockenheit verursachte auch in der Landwirtschaft starke Schäden.
Die Hoffnungen hätten also auf dem Winter geruht, so Sachweh. Aber da habe es nicht so viele Niederschläge gegeben, wie nötig gewesen wären, um die Grundwasserbestände wieder aufzufüllen. Jede Nachricht, dass es nicht regnet, sei also eine schlechte Nachricht, so Sachweh.

Trotz dem „Déjà-Vu“ des „Experten“ weist der DWD allerdings auch für den März die folgenden, weit über dem langjährigen Mittelwert liegenden Niederschlagsmengen aus:

Bild 3 Niederschlag März 2019 Deutschland

Bild 4 Niederschlag März 2019 Bayern

Gerade einmal einen Tag später publizierte der DWD zum Winterniederschlag die folgende Information:
DWD: Winter 2018/19
… Der Winter 2018/19 (meteorologischer Winter: Dezember bis Februar) war zu mild, zu feucht und sehr sonnenscheinreich.
und die Bayerische LWF die folgende zum Grundwasserpegel:

Bild 5 Nordbayerische Nachrichten, lokale Printausgabe vom 01.04.2019. Fotoausschnitt vom Autor

Der Kreisobmann des Bayerischen Bauernverbandes sagte am 08. April einer Zeitung:
… Dass es seit Mitte März keine nennenswerten Regenfälle gibt und die Wasserbilanz in unserer Gegend (Anmerkung: Mittelfranken) seit Februar negativ ist, also weniger Regen fällt … macht mir keine Sorgen. Abgesehen vom trockenen Waldboden gab es im Dezember und Januar genug Niederschläge …
Dem einen ist es demnach nicht genug Regen, dem anderen dagegen zu feucht und wieder andere sind ganz einfach zufrieden. Man lernt daraus, dass es das Wetter wirklich nie allen recht machen kann.

Ergänzend dazu die Winterdaten aus dem DWD-Viewer. Der diesjährige Winterniederschlag lag – wie vom DWD auch berichtet – erheblich über dem Mittelwert, in Bayern sogar fast wieder in der Nähe der Extremwerte (Bild 7)
Man könnte also genau so gut beruhigend berichten: Trotz des ausnahmsweise extrem trockenen Sommers zeigte der Winterniederschlag seine hohe Dynamik auch zur nassen Seite und füllte die fehlenden Wasservorräte erfreulich gut auf.

Bild 6 Winterniederschlag 2018/2019 Deutschland. Quelle: DWD Viewer

Bild 7 Winterniederschlag 2018/2019 Bayern. Quelle: DWD Viewer

Als Rückblende auch der Sommerniederschlag in Langzeitdarstellung. Man sieht, dass der letzte wirklich extrem gering war, aber nicht einmal im Ansatz dazu ein Trend vorliegt. Er belegte lediglich wieder, dass beim Niederschlag extreme Schwankungen schon immer normal waren und gar nicht so selten vorkommen.

Bild 8 Sommerniederschlag seit 1881. Quelle: DWD Viewer

Der März stürmt extrem – sofern man ihn einseitig genug betrachtet

BR24 [1]: Der stürmischste März seit Jahrzehnten
Die Windbilanz der DWD-Wetterstationen belegt: Der März 2019 stellt neue Windrekorde auf, z.B. in Bamberg, Augsburg und München.
Es ist laut Sachweh ein Phänomen, dass Meteorologen schon seit mehreren Jahren beobachteten.
Wenn eine Großwetterlage kommt, dann nistet sie sich deutlich länger ein als früher.
Beispiel Monat März, der von sich abwechselnden Sturmtiefs geprägt war: Es sei der stürmischste März seit vielleicht 30 Jahren gewesen, so der Meteorologe. Die Sturmböen der Tiefs „Bennet“ am 4. und „Eberhard“ am 10. verursachten in Bayern große Schäden. Ebenfalls ein Indiz dafür, dass sich die Wetterlagen lange Zeit nicht mehr abwechselten.

Wieder lohnt es sich, Daten anzusehen. Leider gibt es im DWD-Viewer keine Winddaten, weshalb der Autor solche von den Messstationen der genannten Städte geladen und angesehen hat. Da in der (öffentlichen) DWD-Datenbank keine Daten von Bamberg hinterlegt sind, wurden ersatzweise die vom nahe gelegenen Nürnberg verwendet.

Winddaten Nürnberg

Zuerst die Tagesmittel über das Gesamtjahr seit Beginn der Datenreihe im Jahr 1955 (Bild 9). Man sieht, dass seit 1990 die Extreme abnehmen und der Trendkanal seit ca. 1996 horizontal verläuft.

Bild 9 Nürnberg, gänzjähriges Tagesmittel Wind seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Ähnlich sieht es bei den Tagesmaxima aus.

Bild 10 Nürnberg, Tagesmaximum Wind seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Und nun zum windschlimmen, gerade vergangenem März.
Die Tages-Maximalwerte lagen im seit wenigen Tagen vergangenen März hoch, waren bei Weitem aber nicht über-extrem.
Gleiches gilt für den Tages-Maximalwert und das Tagemittel.

Bild 11 Nürnberg, Tages-Maximalwerte Wind im März seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 12 Nürnberg, Tagesmittel Wind im März seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Wo findet sich nun das vom Wetterfachmann berichtete Extrem?
Dazu die März-Windsummen seit Beginn der Messreihe
Erst diese zeigen einen neuen Extremwert. Woran das liegt, ist ebenfalls ersichtlich. Dieses Jahr könnte die Spitze einer Periodizität erreicht sein. Zeichnet man einen groben Trendkanal, dann sieht man, dass die März-Windsumme seit ca. 1980 darin liegt, wobei sich die Spitzen-Windwerte scheinbar etwas leicht erhöht haben.

Bild 13 Nürnberg, Windsumme März seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Der Wetterfachmann leitet daraus ab:
BR24 [1]: Es sei der stürmischste März seit vielleicht 30 Jahren gewesen, so der Meteorologe.
Der Autor sagt: Die Windextreme scheinen insgesamt mittelfristig leicht abzunehmen. Auf keinen Fall ist eine Zunahme erkennbar. Auffällig ist, dass – wie auch beim Niederschlag – Extreme ohne „Vorboten“ oder Trend erscheinen. Nur in der Monats-Windsumme übertraf der diesjährige März geringfügig das letzte Maximum von 1994. Ob das signifikant ist, darf bezweifelt werden.

Wie geringfügig – fast eher zufällig – der diesjährige März „der stürmischste“ war, zeigt der folgende Ausschnitt ab 1975. Interessant ist dabei: Die Regressionsgerade der März-Windsumme liegt horizontal bis ganz, ganz wenig negativ.
Im folgenden bild zur besseren Übersicht die Windsumme März von Nürnberg etwas gezoomt:

Bild 14 Nürnberg, Windsumme März seit 1975 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Winddaten München und Augsburg

Ähnlich wie bei Nürnberg ist mit München und Augsburg. Wer sich wundert: Die Umwelt-Messreihe München beginnt (mit zwei wechselnden Standorten) im Jahr 1879. Die Winddaten beginnen aber erst mit dem Jahr 1984. Für „Klimafachleute reicht das, um zu erkennen, ob etwas „noch nie so schlimm gewesen war“ oder „immer schlimmer wird“.

Bild 15 München, Tagesmaxima Wind seit 1984 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 16 München, Windsumme März seit 1984 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 17 München, Tages-Maximalwerte März seit 1984 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 18 Augsburg, Tages-Maximalwerte Wind im März seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 19 Augsburg, Tages-Maximalwerte Wind im März seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Hinweis: Am Schluss finden sich dazu noch die interessanten Daten der Langzeitreihe vom Hohenpeissenberg.

Nochmals Niederschlag(-Extreme)

BR24 [1]: Obwohl Bayern mit rund 140 Stunden (Soll: 119 Stunden) ein sonnenscheinreiches Bundesland war, erreichte die Niederschlagsmenge in diesem Monat gut 70 l/m² (Durchschnitt: 62 l/m²). Die stärksten Niederschläge fielen am 15. Einige Flüsse traten dabei über ihre Ufer. Schöfweg im Bayerischen Wald meldete an diesem Tag mit 91 l/m² die bundesweit größte Summe.
Wie alle Untersuchungen (des Autors
[7], aber auch anderer) zeigen, nehmen Niederschlagsextreme nicht zu, bleiben aber weiterhin – wie schon immer – extrem. Deutlich zeigt das der DWD-Viewer. Die diesjährigen 70 l/m2 liegen etwas über dem Mittel und „herrlich“ innerhalb der Spanne. Der Verlauf zeigt, dass der Märzniederschlag in Bayern grob wieder den Wert vom Beginn der Messreihe hat. Von irgendwelchen Extremen ist der Wert weit entfernt. Der Mittelwert hat sich nach zwei deutlichen Ausschlägen sogar ungefähr auf den Wert zu Beginn der Messreihe „gesetzt“, liegt also ebenfalls weit weg vom Trend zu immer schlimmer oder sonst etwas. Das ist bemerkenswert, denn Bayern soll besonders stark vom Klimawandel betroffen sein.

Bild 20 Bayern, Niederschlag März seit 1881. Quelle: DWD Viewer

Wie der Extremniederschlag lokal aussehen kann, zeigt das folgende Bild von Nürnberg. Seit 1955 wurden die Extrem-Niederschlags-Tageswerte niedriger, der Mittelwert verläuft seit dem Beginn der Messreihe in einem horizontalen Trendkanal.

Bild 21 Nürnberg, täglicher Niederschlag seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

München zeigt ein etwas anderes Bild (und wieder die aus heiterem Himmel erscheinenden Extreme). Aber es zeigt ebenfalls, dass die Extremniederschläge keinesfalls zunehmen.

Bild 22 München, täglicher Niederschlag seit 1879 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Fazit
Unser Wetter hat es bei den Fachpersonen der Öffentlich-Rechtlichen genau so „verschissen“, wie der aktuelle US-Präsident. Es kann es einfach nicht richtig machen. Es wird sich aber weigern, „abgewählt“ zu werden und auf unsere, die Staatsfinanzen und weitere ruinierende CO2-Vermeidung, wohlwollend zu reagieren,

Anlage: Daten Hohenpeissenberg

Bayern hat eine der längsten Umweltmessreihen der Welt, die vom Hohenpeissenberg. Daraus die Winddaten, um zu sehen, wie Klima(wandel)Spezialisten erkennen können, ob, wie und welche Wetterphänomene sich gegenüber denen der Urzeiten infolge dem menschenverursachten CO2-Eintrag „unnatürlich“ verändern und dass vor allem Bayern besonders stark vom Klimawandel betroffen ist.
Beim Ansehen der folgenden Windgrafiken wird sich mancher fragen: Wo sind die Langzeitdaten? Die Messreihe beginnt doch mit dem Jahr 1781! Das stimmt, aber Winddaten beginnen darin erst mit dem Jahr 1940 und 1950. Zumindest in dem beim DWD für das Volk hinterlegtem Datensatz.
Um auch mit dieser Station zu zeigen, dass Wetterextreme in Bayern nicht laufend zunehmen, reicht es. Um behaupten zu können, die angeblich furchtbar schnellen Änderungen wären „noch nie dagewesen“ und damit unnatürlich, reicht es bei Weitem nicht.
Dabei ist anzumerken, dass die Grafiken zum Niederschlag oft auch etwas anders aussehen. Dazu sind die Verlaufsbilder sehr stark stationsabhängig, wie die in diesem Artikel und die in anderen Publikationen dazu [10] [11] zeigen.

Bild 23 Hohenpeissenberg, Tagesmaximum Windspitzen seit ca. 1950 bis 31.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 24 Hohenpeissenberg, Tagesmittel Wind seit ca. 1940 bis 31.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 25 Hohenpeissenberg, Monatssumme März seit ca. 1950 bis 31.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Niederschlag

Bei Niederschlags-Extremen ist es extrem schwierig, Trends zu erkennen. Das liegt einmal daran, dass er wohl die extremsten Streuungen hat, Extremwerte sehr oft „aus heiterem Himmel“ ohne irgend einen Hinweis-Trend kommen und Extreme in der Regel nur auf eng begrenztem Gebiet fallen. Der Zeitraum von 100 Jahren ist damit zur Erkennung oder Ableitung eines Trends mit Sicherheit nicht ausreichend.
Da die Stations-Flächenabdeckungen früher viel geringer waren, wurden früher mit Sicherheit auch weniger Extremniederschläge erfasst als mit dem heutigen Messnetz.

Wie stark der Extremniederschlag vom Messstandort abhängt, zeigen die folgenden Bilder, die alle unterschiedliche Verläufe zeigen. In vielen Details nachlesen lässt es sich bei [7] [10] [11]. Wie über-extrem Niederschlag sein kann, zeigt das Beispiel aus der Namib-Wüste [12] (vor dem Industriezeitalter).
Den deutschlandweiten Extremregen von 1926 (Zeitungsausschnitt von damals, Bild 29) zeigt Nürnberg nicht, weil es diese Zeit nicht erfasst; die Station Hohenpeissenberg zeigt nichts davon, aber die Station Magdeburg zeigt es wie ein Menetekel (mehr Details dazu in [10] ).

Bild 26 Hohenpeissenberg, Täglicher Niederschlag seit ca. 1871 bis 31.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 27 (21) Nürnberg, täglicher Niederschlag seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 28 Tagesniederschlag Magdeburg (DWD-Station 3126). Grafik vom Autor anhand der Daten erstellt. [10]
Bild 29 Zeitungsausschnitt von 1926 mit Bericht über das Starkregenereignis (im Bild 28 gekennzeichnet) [10]
Es ist erschütternd, wie auf solch widersprüchlichen Berichte und Daten, sowie einer solch schlechten Datenqualität der fremdgesteuerte Politikzirkus in Berlin hemmungslos ihre Klimahysterie schürt und nun noch behauptet, die protestierenden Schüler*innen und Kinder bis fast zum Kindergartenalter wären Beleg dazu.
Unsere Umweltministerin –an Inkompetenz zum Fach nahtlos an ihre Vorgängerin anknüpfend – ist inzwischen als ältliche „jean d’arc“ des entrechteten Klimas mutiert: [14] Es geht um nichts Weiteres als um die Rettung der Welt …
wobei sich ihr „Wissen“ –wie man im Artikel deutlich erkennen kann – einzig darauf beschränkt: CO = Klimagift und muss koste, was es wolle und ohne erlaubte Zweifel verhindert werden.
Für solche „Weltretter“ (mit dem Geld der Bürger) ist es eben eine Zumutung, Informatives wie zum Beispiel:
[15] EIKE 11. April 2019: Die Kleine Eiszeit – zurück in die Zukunft
zu lesen, um etwas über die verheerenden Auswirkungen des bis vor Kurzem zu kalten Klimas zu erfahren.

Quellen

[1] BR24, 31.03.2019: Wetter in Bayern: Der Frühling bleibt, droht eine neue Dürre?

[2] EIKE 7. März 2018: Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 2 und Abschluss)

[3] EIKE 24.05.2016: Wie der Bayerische Rundfunk auf die Überschrift einer Pressemitteilung der Munich Re hereinfällt

[4] EIKE 12.06.2017: Fake News: Zuerst der SWR, nun der BR: Ein Südseeparadies versinkt im Meer. Öffentlich-Rechtliche Klimawandel-Agitation in Endlosschleife

[5] EIKE 27. April 2018: SOS Südsee – Der Ozean steigt nicht übernatürlich, dafür umso stärker die Propaganda in der öffentlich-rechtlichen Berichterstattung (Teil 2)

[6] EIKE 11. August 2017: ARTE-Film zum Senegal: Eine Insel versinkt – und mit ihr (wieder) jegliche Glaubwürdigkeit der Klimawandel-Berichterstattung

[7] EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels

[9] FOCUS ONLINE, 03.04.2019: Dürre-Prognose vom Weather Channel Meteorologin erklärt, ob ein neuer Hitze-Sommer Deutschland austrocknet

[10] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)

[11] EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels

[12] EIKE 14.10.2015: Der Klimawandel bedroht die Wüste Namib – glaubt Deutschlandradio Kultur

[13] EIKE 10.04.2016 : Nachgefragt: BR Programm 14.3.2016, Sendung: „Jetzt mal ehrlich Verstrahltes Bayern: Wie viel Wahrheit ist uns zumutbar?

[14] Deutschlandfunk: Umweltministerin Svenja Schulze (SPD)„Zeit für Symbole in der Klimaschutzpolitik ist vorbei“

[15] EIKE 11. April 2019: Die Kleine Eiszeit – zurück in die Zukunft




Experimen­telle Unter­suchung der IR-Strahlung von den Gasen CO2 und Butan/Propan im Labor und Feld­versuch

Die grundsätzlichen Fragestellungen dieser Forschung sind: Kann ein Treibhausgas die Temperatur eines Körpers durch eine dabei auftretende Gegenstrahlung erhöhen?

Ist es möglich, dass es eine Sättigungsgrenze der Treibhausgaskonzentrationen gibt, bei der keine weitere Steigerung der Gegenstrahlungseffekte mehr eintreten? Ist diese Sättigungsgrenze bei CO2 in der Atmosphäre bereits erreicht?

Die hier vorgestellten Experimente sind nur ein erster Schritt und sollen ausschließlich einem grundlegenden Wissensgewinn dienen.

Bei den Versuchen wurde das Prinzip der Vordergrund- und Hintergrundstrahlung zugrunde gelegt (M. Schnell, Experimentelle-Verifikation-des-Treibhauseffektes hier).

Nach diesem Prinzip kann eine Hintergrundstrahlung die Wirkung einer

Vordergrundstrahlung vollständig überlagern, wenn beide die gleichen Wellenlängen nutzen und hier die gleiche Strahlungsdichte besitzen. Aus diesem Grunde sind Messungen des Treibhauseffektes nur vor einem kälteren Hintergrund möglich. Deswegen hatten die untersuchten Gase eine höhere Temperatur als der Hintergrund, der durch eine Eiswasserschale bzw. einen wolkenfreien Himmel gebildet wurde.

Hatten bei Kontrollversuchen Gas und Hintergrund die gleiche Temperatur, wurde auch tatsächlich kein messbarer Effekt festgestellt.

Der Messsensor

Um festzustellen, ob ein Körper durch ein Treibhausgas erwärmt wird, musste ein Messsensor entwickelt werden, welcher nur auf Strahlungseffekte reagiert. Umwelteinflüsse bzw. Wärmetransporte anderer Art, mussten möglichst verhindert werden. Gleichzeitig wurde ein Sensor-Aufbau angestrebt, welcher auch im Feldversuch möglichst genaue Aufzeichnungen liefert, um vergleichbare Ergebnisse, mit dem Laborversuch, zu erzielen.

Abbildung 1 Messsensor

Als abstrahlender Körper im Messsensor wurde ein einseitig schwarz beschichtetes Cu-Plättchen gefertigt. Die geringe Wandstärke von 1 mm mit gleichzeitig guter Wärmeleitfähigkeit des Materials, wirkt sich positiv auf schnelle Reaktionszeiten aus (< 10 Sek.). Dieses Plättchen wurde mit einer Klammer und Wärmeleitpaste zusätzlich mit einem Gleichstrom Heizelement (Vollkeramisches Heizelement aus Siliziumnitrid Typ Hi, 7,5 Ohm bei Raumtemperatur) verbunden. Dieses Heizelement wurde jedoch bei den hier vorgestellten Versuchen noch nicht in Betrieb genommen und soll erst bei zukünftigen Experimenten verwendet werden.

Damit der abstrahlende Körper möglichst nur in die gewünschte Richtung (zum IR Fenster) strahlt, wurde die Rückseite des Cu-Körpers poliert. Ein verchromtes Messingteil, sowie die verspiegelte Innenseite des Druckgehäuses verhindern weitgehend Abstrahlung in die falsche Richtung.

Damit die Temperatur des Cu-Plättchens ermittelt werden kann, wurde auf der Rückseite ein poliertes Messingröhrchen aufgelötet. Dieses wird als Einschub für den Messstab des elektronischen Thermometers verwendet und mit einer Wärmeleitpaste gefüllt.

Abbildung 2 Beschichtetes Cu Plättchen

Der gesamte Messsensor wird für den Messbetrieb evakuiert. Damit ist Konvektion im Messsensor verhindert, als auch der Einfluss der Wärmeleitfähigkeiten der gemessenen Gase. Für die Temperaturerfassung kam ein Handmessgerät XP100 von Lufft® mit dem Temperaturfühler PT100 zum Einsatz.

Der Versuchsaufbau im Laborbetrieb/Funktionsprinzip

Abbildung 3 Laborbetrieb des Messsensors im Schema und Fotografie

Der Messsensor wird für den Laborbetrieb, mittels Dichtung, gasdicht auf ein poliertes Edelstahlrohr fixiert. Das Edelstahlrohr wird auf der anderen Öffnung in ein Gefäß mit Eiswasser getaucht, um es ebenso gasdicht zu verschließen.

Durch das IR Fenster hat der abstrahlende Körper im Messsensor nun eine optische Verbindung mit den Eiswürfeln im Eiswasser (Eis absorbiert nahezu 100% der Infrarotstrahlung und bleibt im Wasser konstant bei 0 °C).

Das Edelstahlrohr (Durchmesser 120 mm x 500 mm) hat zwei seitliche, verschließbare Öffnungen. Diese dienen zur Befüllung des Rohres mit einem Gas (Entlüftungs- und Befüllstutzen). Die polierte Oberfläche des Rohres hat einen hohen Reflektionsgrad und damit absorptionsarme Eigenschaften.

Mit diesem Aufbau können Infrarot aktive Gase geprüft werden, in wie weit diese, den Strahlungsfluss beeinflussen können

Abbildung 4 Reaktion des Messsensors auf Eisoberfläche

Wie in der Abbildung 4 zu sehen ist, stellt sich nach dem Platzieren des Eiswassers ein niedrigeres Temperaturniveau des Messsensors ein.

Diese Abkühlung wird durch IR-Abstrahlung verursacht, bis sich ein Gleichgewicht zwischen IR-Strahlung und Wärmezufuhr aus der unmittelbaren Umgebung eingestellt hat.

Messergebnisse des Versuchsaufbaus im Laborbetrieb

Messergebnisse Argon

Um festzustellen, ob die Änderung der Wärmeleitfähigkeit der eingelassenen Gase einen Einfluss auf den Messsensor hat, wurde Argon als nicht IR aktives Gas verwendet.

Bei der Messung mit Argon wurde kein Einfluss auf den Verlauf der Temperaturkurve festgestellt. Es ist davon auszugehen, dass der Messsensor nicht von unterschiedlichen Wärmeleitfähigkeiten der Prüf-Gase beeinflusst wird.

Messergebnisse CO2

Bei der Messung von CO2 regierte der Messsensor durch eine unmittelbare Reaktion

auf das Einlassen des Kohlendioxids, die Abkühlung des Sensors wurde deutlich beeinflusst.

Abbildung 5 Reaktion Messsensor auf Kohlendioxid im Laborversuch

Wie in Abbildung 5 zu erkennen ist, war die Temperatur des Messsensors noch in einem deutlichen Abwärtstrend. Dieser kehrte sich augenblicklich nach dem Einleiten von 0,75 L CO2 in einen positiven um.

Messergebnisse Propan/Butan

In Abbildung 6 ist zu sehen, dass sich der Messsensor beim Einlassen von 0,75 L Propan/Butan noch stärker als beim CO2 erwärmt.

Abbildung 6 Reaktion Messsensor auf Butan/Propan im Laborversuch

Nachdem das Propan/Butan wieder aus der Messröhre durch Spülen mit Luft entfernt wurde, trat wieder eine Abkühlung des Sensors, mit der bereits bekannten Abkühlungsrate, ein.

Diskussion der Ergebnisse:

Es konnte demonstriert werden, dass die IR-aktiven Gase die Temperatur des Sensors messbar beeinflussen können. Die Wirksamkeit einer Gegenstrahlung wurde damit nachgewiesen.

Die untersuchten Gase wurden vor dem Einlassen auf die gleiche Temperatur wie die Röhre erwärmt und ohne große Druckdifferenz (< 2 Pa) in das Prüfrohr eingelassen.

Gegenprobe mit IR-Kamera

Um die erhaltenen Ergebnisse mit einem anderen Messverfahren zu überprüfen, wurden die Strahlungen der untersuchten Gase mit der Wärmebildkamera der Firma Testo detektiert und auch der Versuchsaufbau variiert.

Hierbei wird die mit dem Messsensor der Testo-Kamera empfangene IR-Strahlung in eine fiktive Temperatur umgerechnet.

Verwendetes Gerät: Testo 872, Thermografie Kamera 320 x 240 Pixel, 60mK

IR Kamera Laborversuch

Abbildung 7 IR Kamera Laborversuch im Schema und Photographie

Bei dem Einsatz der IR-Kamera im Laborversuch blickt diese durch ein verspiegeltes gasdichtes Rohr auf den Boden mit Eiswasser und misst aus dieser Position die Temperatur des Eiswassers.

Wird nun ein Gas in die Versuchsanordnung eingelassen, kann nun direkt an der IR-Kamera

abgelesen werden, ob das zu prüfende Gas, die in den Messsensor gelangende IR-Strahlung, verstärkt, abschwächt oder unverändert lässt.

Messergebnisse des Versuchsaufbaus im Laborbetrieb

Messergebnisse Kohlendioxid:

Abbildung 8 Reaktion der IR Kamera auf Kohlendioxid im Laborversuch / T1= -3,1 °C T2= -0,2 °C

Die Kamera gibt für das Eiswasser ohne IR-Gase eine Temperatur von -3,1 °C an. Da die Kamera nicht geeicht werden kann und ohnehin nur die Veränderung von Interesse ist, wird dieser Wert als Startwert genommen.

Die Temperatur der Eiswasseroberfläche stieg nach Einlassen von 0,75 L Kohlendioxid unmittelbar von -3,1 °C auf -0,2 °C; also ein Temperaturanstieg von 2,9 Kelvin.

Messergebnisse Propan/Butan:

Abbildung 9 Reaktion der IR Kamera auf Propan/Butan im Laborversuch T1= -1,5 °C T2= 3,0 °C

Die angezeigte Temperatur der Eiswasseroberfläche stieg nach Einlassen von 0,75 L Propan/Butan unmittelbar von -1,5 °C auf 3 °C; also ein Temperaturanstieg von 4,5 Kelvin.

Diskussion der Ergebnisse:

Es konnte demonstriert werden, dass die IR-aktiven Gase den Strahlungsfluss messbar beeinflussen können.

Die verwendete IR-Kamera ist also in der Lage, Veränderungen der Strahlungsintensitäten welche durch die untersuchten Gase verursacht werden zu detektieren.

Auch hier wurden die untersuchten Gase vor dem Einlassen auf die gleiche Temperatur wie die Röhre erwärmt und ohne große Druckdifferenz (< 2 Pa) in das Prüfrohr eingelassen.

Der Versuchsaufbau im Feldversuch/Funktionsprinzip

Um den Ansatz der Vorder- und Hintergrundstrahler weiter zu verfolgen, wurde nach den Laborversuchen der klare Nachthimmel anstatt der Eiswürfel als „Hintergrundstrahler“ herangezogen.

Die Versuche wurden bei 20 °C auf 800 m Seehöhe und ca. 75% rel. Luftfeuchte durchgeführt.

Abbildung 10 Feldbetrieb des Messsensors im Schema und Fotographie

Der Messsensor wird für den Feldversuch, mittels Dichtung, gasdicht auf ein poliertes Edelstahlrohr fixiert. Die Messöffnung blickt nach oben. Das am oberen Ende offene Edelstahlrohr wird nahezu senkrecht dem klaren Himmel entgegen gerichtet. Dabei darf kein Objekt der Umgebung höher als das Edelstahlrohr sein, da sonst IR Strahlung aus der Umgebung in das Edelstahlrohr eingestrahlt wird. Die Messungen werden bei Dunkelheit durchgeführt, um eine Bestrahlung durch die Sonne auszuschließen.

Durch die polierte Oberfläche des Rohres (hoher Reflektionsgrad) hat der abstrahlende Körper im Messsensor nun eine optische Verbindung mit dem Himmel.

Das Edelstahlrohr hat zwei seitliche, verschließbare Öffnungen. Diese dienen zur Befüllung des Rohres mit einem Gas. Mit diesem Aufbau kann somit geprüft werden, ob eine zusätzliche Menge an IR-aktiven Gasen die Gegenstrahlung erhöht und die Abkühlungsrate des Sensors beeinflusst

Um möglichst den Gasverlust an die Umgebung durch das offene Rohr zu minimieren,

kann eine Rohrverlängerung eingesetzt werden. Ebenso sollten nur Prüf-Gase verwendet werden, die deutlich schwerer als die Umgebungsluft sind.

Messergebnisse CO2

Abbildung 11 Reaktion des Messsensors im Feldbetrieb auf Kohlendioxid 3.8.2018 / 23:02 + 23:06

Wie in Abbildung 11 zu sehen, konnte keinerlei Beeinflussung des Temperaturverlaufes durch Einlassen von 0,75 L Kohlendioxid in das Messrohr festgestellt werden, auch ein nochmaliges Einlassen von weiteren 0,75 L Kohlendioxid brachte keinerlei Beeinflussung des Messsensors.

Messergebnisse Propan/Butan

Abbildung 12 Reaktion des Messsensors im Feldbetrieb auf Butan/Propan 3.8.2018 / 23:13

Später, aber im selben Messzyklus, wurde auch Propan/Butan in das Messrohr eingelassen, siehe Abbildung 12.

Unmittelbar nach dem Einlassen von 0,75 L Propan/Butan wurde der Temperaturverlauf messbar beeinflusst.

Diskussion der Ergebnisse

Bei diesem Feldversuch konnte, im Gegensatz zum Laborversuch, keinerlei Reaktion des Messsensors auf das Einlassen von Kohlendioxid in das Prüf-Rohr beobachtet werden.

Bei Propan/Butan erfolgte unmittelbar nach ihrer Zugabe, sowohl im Laborversuch als auch im Feldversuch, eine Erwärmung des Sensors.

Weitergehende Erläuterungen der unterschiedlichen Reaktionen der IR-Gase finden sich im Kapitel „IR Kamera Feldversuch“.

Bild: Joujou  / pixelio.de

IR Kamera Feldversuch

Abbildung 13 IR Kamera Feldversuch im Schema und Photographie

Bei dem Einsatz der IR-Kamera im Feldversuch blickt diese durch ein verspiegeltes gasdichtes Rohr direkt in den wolkenfreien Nachthimmel. Die Erd- Atmosphäre strahlt gemäß ihrer Gaseigenschaften und Temperatur in die IR-Kamera und diese ordnet der (Gegen)Strahlung eine Temperatur zu.

Wird nun ein Prüf-Gas in die Versuchsanordnung eingelassen, kann nun direkt an der IR-Kamera abgelesen werden, ob das zu prüfende Gas, die in den Messsensor gelangende IR-Strahlung (in diesem Fall die atmosphärische Gegenstrahlung), verstärkt, abschwächt oder unverändert lässt.

Messergebnisse des Versuchsaufbaus im Feldversuch

Messergebnisse Kohlendioxid:

Abbildung 14 Reaktion der IR Kamera im Feldversuch auf Kohlendioxid: T1= -35,8 °C, T2= -35,7 °C

Beim Einlassen von 0,75 L Kohlendioxid wurde keine signifikante Änderung der Temperatur festgestellt. Der angezeigte Unterschied von 0,1 K liegt innerhalb der Messgenauigkeit der IR-Kamera.

Messergebnisse Propan/Butan:

Abbildung 15 Reaktion der IR Kamera im Feldversuch auf Propan/Butan: T1= -36,5 °C, T2 = -19,4 °C

Nach Einlassen von 0,75 L Propan/Butan-Gases wurde ein Temperaturanstieg von rund 17 Kelvin festgestellt!

Diskussion der Ergebnisse:

Propan/Butan sind nur in sehr kleinen Spuren in der Atmosphäre vorhanden und Ihre Absorptionsbanden sind bei rund 3 bzw. 7 µm teilweise von der Wasserdampf-Strahlung und vom atmosphärischen Fenster (8 – 13 µm) betroffen. Die Hintergrundstrahlung des wolkenfreien Himmels kann die Strahlung von Propan/Butan nicht vollständig überlagern. Die Strahlung des viel wärmeren Propan/Butans in der Röhre verursachte deswegen einen deutlichen Erwärmungseffekt bzw. eine Zunahme der Gegenstrahlung.

CO2 ist mit 400 ppm ein relevanter Bestandteil der Atmosphäre. Da seine Strahlung schon nach wenigen 100 m gesättigt ist (Lit. M. Schnell, siehe Einleitung), hat das atmosphärische CO2 auch keinen signifikanten Temperatur-Nachteil gegenüber dem CO2 in der Röhre. Die atmosphärische CO2-Strahlung überlagert hier vollständig die CO2-Strahlung in der Röhre, so dass eine Temperatur-Erhöhung nicht feststellbar war.

Die beiden Versuche mit den IR-aktiven Gasen CO2 und Propan/Butan sind eine experimentelle Bestätigung des Prinzips der Vorder- und Hintergrundstrahlung.

Drüber hinaus sollte mit den CO2-Versuchen auch der Frage nachgegangen werden, ob die atmosphärische CO2-Strahlung bei einer Konzentration von 400 ppm bereits gesättigt ist. Die Ergebnisse sprechen für diese Aussage, allerdings muss man auch die einfache Versuchsdurchführung und die geringe Empfindlichkeit der Detektoren berücksichtigen. Es kann nicht ausgeschlossen werden, dass der Nachweis eines geringen CO2-Effektes an begrenzten Möglichkeiten der Messsysteme gescheitert ist.

Geplante Versuchsreihen:

Die Feldversuche wurden bis dato in Sommernächten durchgeführt, welche eine feuchte Luft aufwiesen (75% relative Luftfeuchtigkeit). Daher sind nun im Winter klare und trockene Nächte für weitere Versuchsreihen angestrebt.

Ebenso wird in der laufenden Arbeit die Sensitivität des Messsensors überprüft, da eine Detektion der Gegenstrahlung im sehr kleinen Leistungsbereich liegt.

Als weiteres „Treibhausgas“ soll auch Methan untersucht werden.




Werden die Methoden der Klimaforscher im SPIEGEL etwa als „Kaffeesatzleserei“ und „Faustregel“ bezeichnet?

von Karsten Leibner

Nein! Hat uns doch so manch anderer Wissenschaftler auf die Tonne das CO2-Budget und den Wochentag der Klimakatastrophe vorhersagen wollen. Zugegeben ein wenig überspitzt von mir. Aber als Intro zu einem Artikel der gängigen Massenmedien in unserer Zeit liest man es selten.

Und weiter:

Es ist eine schlich­te Zahl, doch wird sie das Schick­sal die­ses Pla­ne­ten be­stim­men. Sie ist leicht zu be­schrei­ben, doch ver­trackt schwie­rig zu be­rech­nen. Die For­scher nen­nen sie: »Kli­ma­sen­si­ti­vi­tät«.Sie gibt an, um wie viel sich die Durch­schnitts­tem­pe­ra­tur auf der Erde er­wärmt, wenn sich die Kon­zen­tra­ti­on der Treib­haus­ga­se in der At­mo­sphä­re ver­dop­pelt. Schon in den Sieb­zi­ger­jah­ren wur­de sie mit­hil­fe pri­mi­ti­ver Com­pu­ter­mo­del­le er­mit­telt. Die For­scher ka­men zu dem Schluss, dass ihr Wert ver­mut­lich ir­gend­wo zwi­schen 1,5 und 4,5 Grad lie­gen dürf­te.

An die­sem Er­geb­nis hat sich bis heu­te, rund 40 Jah­re spä­ter, nichts ge­än­dert. Und ge­nau dar­in liegt das Pro­blem. Die Re­chen­leis­tung der Com­pu­ter ist auf das Viel­mil­lio­nen­fa­che ge­stie­gen, aber die Vor­her­sa­ge der glo­ba­len Er­wär­mung ist so un­prä­zi­se wie eh und je. »Es ist zu­tiefst frus­trie­rend«, sagt Bjorn Ste­vens vom Ham­bur­ger Max-Planck-In­sti­tut für Me­teo­ro­lo­gie.

Ste­vens hat selbst viel bei­ge­tra­gen zum Fort­schritt. Und doch muss­te er sich im­mer wie­der aufs Neue eingestehen, dass sei­ne Zunft, was die Vor­her­sa­ge des Kli­ma­wan­dels be­trifft, auf der Stel­le tritt. Es ist nicht leicht, die­ses Ver­sa­gen der Öffent­lich­keit zu ver­mit­teln. Ste­vens will ehr­lich sein, er will kei­ne Pro­ble­me ver­tu­schen. Trotz­dem möch­te er nicht, dass die Leu­te den­ken, die jüngs­ten Jahr­zehn­te der Kli­ma­for­schung sei­en um­sonst ge­we­sen.

Ich vermute, dass ich jetzt zutiefst frustriert sein werde, ehrlich!

Weiter unten im Artikel ein Satz

»Un­se­re Com­pu­ter sa­gen nicht ein­mal mit Si­cher­heit vor­aus, ob die Glet­scher in den Al­pen zu- oder ab­neh­men wer­den«, er­klärt Ste­vens.

Und dann:

»Die Ge­nau­ig­keit der Vor­her­sa­gen ist nicht bes­ser ge­wor­den, aber un­ser Ver­trau­en in sie ist ge­wach­sen«, sagt er. Die For­scher hät­ten al­les ge­prüft, was der glo­ba­len Er­wär­mung viel­leicht ent­ge­gen­wir­ken könn­te. »Nun sind wir si­cher: Sie kommt.«

Geht es ihnen genauso? Erst habe ich gedacht: „Wow, da macht sich einer ehrlich!“ Und dann: Wir sind uns sicher! Er hätte sagen müssen, wir wollen uns gerne sicher sein! Wir wissen nichts Genaues, aber darin sind wir uns sicher?

Stevens, ein Amerikaner in Deutschland, am Max-Planck-Institut, und ein deutscher Forscher namens Ta­pio Schnei­der vom Cal­tech im ka­li­for­ni­schen Pa­sa­de­na versuchen eine der Unwägbarkeiten der Klimamodelle zu knacken: die Wolken.

Im Artikel heißt es:

Wol­ken. Die trä­ge über den Him­mel zie­hen­den Ge­bir­ge aus Was­ser­dampf sind der Fluch al­ler Kli­ma­for­scher. Die ei­nen be­ste­hen aus win­zi­gen Was­ser­tröpf­chen, an­de­re ent­hal­ten vie­le klei­ne Körn­chen aus Eis.  Je­der die­ser Wol­ken­ty­pen wirkt an­ders auf das Kli­ma ein. Und vor al­lem: Sie wir­ken kräf­tig.

In den IPCC-Berichten werden Wolken nur als vereinfachte Modelle berücksichtigt. Der Fluch sind die träge dahin ziehenden Wissenschaftler (Ich meine die kräftig wirkenden).

Wolken? Wo habe ich das schon mal gehört? Prof. Nir Shaviv, Prof. Henrik Svensmark?

Nachtijall ick hör`dir loufen!

Eine weitere Erkenntnis zur „Errechnung des Klimas“ folgt:

Na­tür­li­che Pro­zes­se im Com­pu­ter zu si­mu­lie­ren wird im­mer dann be­son­ders hei­kel, wenn klei­ne Ur­sa­chen gro­ße Wir­kung her­vor­brin­gen. Für kei­nen an­de­ren Fak­tor im Kli­ma­ge­sche­hen gilt das so sehr wie für die Wol­ken. …Die For­scher kön­nen in ih­ren Mo­del­len das Was­ser nicht ver­duns­ten, auf­stei­gen und kon­den­sie­ren las­sen, so wie es dies in der Wirk­lich­keit tut. Sie müs­sen sich mit mehr oder we­ni­ger plau­si­blen Faust­re­geln be­hel­fen.

Plausible Faustregeln! Aha, mein Schwiegervater nennt das „messing-vernickeltes Augenmaß“. Schlosser halt. Heute trägt er eine Brille wegen der schweren Krankheit AZK. Keine Angst, AZK bedeutet nur „Arm-Zu-Kurz“. Welche Brille haben die Klimamodelleure auf? Aber: Schätzen ist erlaubt!

Es kommt noch schöner:

»Pa­ra­me­tri­sie­rung« heißt das Ver­fah­ren, doch die For­scher wis­sen: In Wirk­lich­keit ist das der Name ei­ner chro­ni­schen Krank­heit, von der all ihre Kli­ma­mo­del­le be­fal­len sind. Oft lie­fern sie dras­tisch von­ein­an­der ab­wei­chen­de Er­geb­nis­se. Die Tem­pe­ra­tu­ren in der Ark­tis zum Bei­spiel klaf­fen in den ver­schie­de­nen Mo­del­len um teil­wei­se mehr als zehn Grad aus­ein­an­der. Das lässt jede Pro­gno­se der Eis­be­de­ckung wie blo­ße Kaf­fee­satz­le­se­rei er­schei­nen. »Wir brau­chen eine neue Stra­te­gie«, sagt Ste­vens. Er sieht sich in der Pflicht, ei­ner vom Kli­ma­wan­del be­droh­ten Ge­sell­schaft bes­se­re Ent­schei­dungs­hil­fen an die Hand zu ge­ben. »Wir brau­chen neue Ide­en«, fin­det auch Ta­pio Schnei­der vom Cal­tech im ka­li­for­ni­schen Pa­sa­de­na.

Watt? Kaffeesatzleserei, aber wir sind vom Klimawandel bedroht? Kinn auf die Tischplatte klapp!

Wir brauchen tatsächlich neue Ideen!

Um es kurz zu machen. Beide Forscher untersuchen die unterschiedlichsten Wolkentypen und wollen sie den „Gleichungen anpassen“. Anders herum wäre es mir lieber. Sie halten das auch für sehr komplex. Wer wollte es Ihnen verdenken. Und hoffen auf neue Klimamodelle und KI (Künstliche Intelligenz). Warum nicht, wenn die menschliche zuweilen abwesend ist? Ich meine nicht die beiden Wissenschaftler!

„Einst­wei­len al­ler­dings ist nur ge­wiss, dass die Mensch­heit noch ei­ni­ge Zeit auf hand­fes­te­re Kli­ma­pro­gno­sen wird war­ten müs­sen.“

Pfeift doch mal einer die Schüler zurück!

Ge­ra­de hat er (Anm.: Schneider) aus­ge­rech­net, was pas­siert, falls sich die Stra­to­ku­mu­lus-Wol­ken über den sub­tro­pi­schen Ozea­nen groß­flä­chig auf­lö­sen soll­ten. Sei­nen Mo­dell­rech­nun­gen zu­fol­ge wür­de das zwar erst bei ei­ner Koh­len­di­oxid­kon­zen­tra­ti­on von 1200 ppm ge­sche­hen. Die­ser Wert liegt drei­mal so hoch wie der heu­ti­ge, selbst in den düs­ters­ten Treib­haus­sze­na­ri­en gilt es als un­wahr­schein­lich, dass er er­reicht wird. Trotz­dem war Schnei­der über­rascht, als er sah, wie sich in sei­nem Mo­dell die Wol­ken­de­cke über Pa­zi­fik und At­lan­tik ver­flüch­tig­te und die Welt­tem­pe­ra­tur dar­auf­hin un­auf­halt­sam klet­ter­te – um vol­le acht Grad. »Es scheint dort eine Nicht­li­nea­ri­tät zu ge­ben, die wir bis­her nicht kann­ten«, sagt er. »Das zeigt, wie schlecht die Stra­to­ku­mu­li bis­her ver­stan­den sind.«

Sind Sie jetzt auch überrascht?  Hat den Wissenschaftlern keiner zugehört oder hat man sie schlecht verstanden?

Ste­vens un­ter­des­sen fürch­tet eher, dass es die Ku­mu­lon­im­bus-Wol­ken sind, die un­er­war­tet Un­frie­den stif­ten könn­ten. Tro­pi­sche Sturm­sys­te­me sei­en be­rüch­tigt für ihre Un­be­re­chen­bar­keit. »Der Mon­sun zum Bei­spiel könn­te an­fäl­lig für plötz­li­che Ände­run­gen sein«, meint er. Mög­lich sei, dass die Be­rech­nun­gen der fein­ma­schi­gen Com­pu­ter­mo­del­le es er­laub­ten, sol­che Kli­ma­ka­prio­len früh­zei­tig zu pro­phe­zei­en. »Denk­bar ist aber auch, dass es prin­zi­pi­ell un­vor­her­seh­ba­re Kli­ma­phä­no­me­ne gibt«, sagt Ste­vens. »Dann kön­nen wir noch so ge­nau si­mu­lie­ren und kom­men trotz­dem zu kei­nen ver­läss­li­chen Er­geb­nis­sen. « Das ist die schlimms­te al­ler Mög­lich­kei­ten. Denn dann steu­ert die Mensch­heit auch wei­ter­hin ins Un­ge­wis­se.

„Prinzipiell unvorhersehbar“ finde ich mal eine Aussage! Und solange nur Wolken Unfrieden stiften, ist alles gut, solange man nicht unter so einer Wolke steht. Dann auf alle Fälle Eichen weichen und bitte keine Buchen suchen. Das könnte dann so oder so ausgehen… nichtlinear eben! Der Bauer, der diese Regel einst aufgestellt hatte, ist der schlimmsten aller Möglichkeiten erlegen.

Da sind wir uns sicher! Prinzipiell zumindest!




Es ist für uns alle an der Zeit, den 97%-Schwindel zu erkennen

Viele Beiträge zur Widerlegung dieser Behauptung sind schon geschrieben worden, aber sie alle verlieren sich im statistischen Dickicht. Der gesunde Menschenverstand würde nämlich ausreichen, um zu sehen, wie es ist. Falls jemand den Original-Beitrag von Naomi Oreskes lesen würde, mit dessen Veröffentlichung im Science Magazine im Jahre 2004 alles begonnen hatte, würde man sich totlachen.

Die fehlgeleiteten Herrschaften, welche aus einer wahrhaft bizarren Umfrage aus der wissenschaftlichen Literatur abgeleitet hatten, dass 97% aller Autoren an den Menschen als Ursache der globalen Erwärmung glauben, hätten sich einen größeren Gefallen getan, wenn sie die Zahl 70% genannt hätten. Das hätte tatsächlich sein können. Allerdings reicht eigentlich schon ein Minimum an gesundem Menschenverstand aus, dass keine einzige größere Gruppe von Menschen auf unserem Planeten jemals Einigkeit von 97% bzgl. irgendetwas erreichen kann. Ja, irgendetwas, einschließlich dass die Erde rund und nicht flach ist oder dass die Sonne im Osten und nicht im Westen aufgeht oder gar die Schwerkraft.

Ein einfacher Beweis für dieses irrige Gerede bietet das Global Warming Petition Project am Oregon Institute of Science and Medicine im Jahre 1997. Dort haben 31.478 amerikanische Wissenschaftler unterschrieben, darunter 9021 mit einem Ph.D., dass sie nicht an eine signifikante Auswirkung der Menschheit auf das Klima glauben. In der Deklaration finden sich u. A. diese Worte [übersetzt]: „Es gibt keinerlei überzeugende Beweise, dass menschliche Freisetzungen von Kohlendioxid, Methan oder anderen Treibhausgasen eine katastrophale Aufheizung der Erdatmosphäre verursachen oder eine Störung des Klimas. Mehr noch, es gibt substantielle beweise, dass ein gesteigerter atmosphärischer Kohlendioxidgehalt viele vorteilhafte Auswirkungen auf die natürliche Pflanzen- und Tierwelt auf der Erde haben“.

Alle Namen werden in einem Buch genannt. Es ist ziemlich zweifelhaft, dass alle diese Menschen die 3% der Nicht-Gläubigen umfassen.

Wir zweifeln nicht daran, dass viele Wissenschaftler tatsächlich daran glauben, dass die Menschheit eine Hauptrolle spielt bei der Entwicklung des Klimas. Allerdings hat die fast universelle Behauptung von „den 97%“ bei der arglosen Bevölkerung sehr viel Schaden angerichtet. Sie führte zu einer erbärmlichen Anti-Fossile-Politik in allen US-Staaten. Darunter fällt auch, dass einige [US-]Staaten die Paris-Bemühungen übernehmen, welche 3 Billionen amerikanischer Dollars an Nationen umverteilen würde, die wenig fossile Treibstoffe verbrauchen. Die Politik dieser amerikanischen Staaten dürften Null Auswirkungen auf die Thermometer des Planeten haben, aber sie kann und wird die Ökonomie dieser Staaten sowie den Lebensstandard der Bürger schädigen.

Der betrügerische 97%-Konsens ist eindeutig ein marktwirtschaftlicher Trick. Was Wissenschaft von Religion unterscheidet ist, dass ausschließlich empirische Beweise gelten und nicht irgendwelche Meinungen. Konsens spielt in der gesamten Wissenschaft keine Rolle.

Es ist nicht das erste Mal in der Wissenschaft, dass falsche Sichtweisen Jahrzehnte, wenn nicht Jahrhunderte lang Bestand haben, bevor die Massen sich wieder unwiderlegbaren Beweisen öffnen. Die Historie der Medizin ist voll mit Minderheiten, die versuchen, Operationen erfolgreicher zu machen einfach dadurch, dass man sich die Hände wäscht. Von Geschwüren glaubte man lange Zeit, dass sie die Folge von Persönlichkeiten des Typus‘ „A“ seien anstatt dass eine bestimmte Bakterienart die Ursache derselben ist. Einstein höchstselbst stand allein gegen alle bei seinem Kampf um die Relativitätstheorie. Als 100 deutsche Konsens-Wissenschaftler bei ihm vorstellig geworden waren und sich gegen seine Theorie wandten, äußerte er den berühmten Spruch: „Warum so viele? Wenn ich unrecht habe, hätte doch ein einziger genügt!“.

Man denke lieber mal ein wenig nach, wenn man das nächste Mal mit gefährlichen Absurditäten konfrontiert wird – was schon morgen der Fall sein kann.

Link: https://www.cfact.org/2019/04/10/its-time-for-us-all-to-recognize-the-97-con-game/?mc_cid=d109d7e337&mc_eid=1ad97dafa6

Übersetzt von Chris Frey EIKE