1

Beweist die Temperatur des Mondes den hemisphärischen Stefan-Boltzmann Ansatz?

Uli Weber

Die Fragen in meinem Artikel auf EIKE, „Noch ein paar Fragen zum „natürlichen“ atmosphärischen Treibhauseffekt“, wurden zwar nicht beantwortet, aber dafür wurde der Artikel wieder einmal sehr kontrovers diskutiert. Ich nehme den dankenswerten Vorschlag eines Kommentators daher diesmal gerne auf, um ihn einmal über die tatsächlichen physikalischen Grundlagen aufzuklären. Denn eine solche Darstellung grundlegender physikalischer Zusammenhänge könnte schließlich auch noch weiteren Kommentatoren aufs Pferd helfen.

Also schaunmerdiesmal bitte ganz konzentriert hin:

Das Stefan-Boltzmann-Gesetz ist keine simple Rechenanleitung, sondern ein physikalisches Gesetz. Und das dort enthaltene Gleichheitszeichen ist kein mathematisches Gleichheitszeichen, sondern eine zwingende physikalische Bedingung.
Man kann dieses Gesetz also nicht einfach als mathematische Formel missbrauchen, um beliebige Durchschnittstemperaturen in irgendeine Strahlungsleistung umzurechnen oder umgekehrt. Vielmehr ist nach diesem Gesetz eine ganz konkrete Temperatur ganz ausschließlich einem bestimmten Strahlungswert zugeordnet. Und das Gleichheitszeichen zwischen Strahlung und Temperatur steht als zwingende Bedingung dieses Gesetzes für ein gemeinsames thermisches Gleichgewicht genau zwischen diesen beiden physikalischen Größen.

Das bedeutet, das Gleichheitszeichen im Stefan-Boltzmann-Gesetz bezieht sich auf einen gleichzeitigen Zusammenhang zwischen Strahlung und Temperatur, nämlich Temperatur erzeugt Strahlung oder Strahlung erzeugt Temperatur, und zwar jetzt, hier, in diesem Augenblick – und nicht erst später auf der Nachtseite der Erde. Und genau deshalb heißt dieser physikalische Zusammenhang ja auch Stefan-Boltzmann-Gesetz und nicht etwa Stefan-Boltzmann-Gleichung.

Die geometrischen Verhältnisse für die Sonneneinstrahlung auf unserer Erde sind eigentlich ganz einfach zu verstehen (beide nachfolgenden Abbildungen aus meinem neuen Buch „Klima-Mord“):

Das Sonnenlicht trifft praktisch als ebene Wellenfront auf die Atmosphäre unserer Erde. Daraus ergeben sich dann die nachfolgend dargestellten geometrischen Verhältnisse:

  • Die Strahlung der Sonne trifft mit einer Kreisfläche von (pR²) auf die Erde,
  • Diese Strahlung verteilt sich auf der Tagseite der Erde, also auf einer Halbkugel mit (2pR²)
  • Die Gesamtfläche der Erde ist eine Kugeloberfläche mit (4pR²)

Die beteiligen Flächen haben also das Verhältnis von 1 : 2 : 4.

Wie wir in der Erklärung des Stefan-Boltzmann-Gesetzes gesehen haben, kann man nach diesem Gesetz nur diejenigen Größen ins Verhältnis setzen, die direkt in einem gleichzeitigen thermischen Verhältnis miteinander stehen. Gleichzeitig beteiligt an der Temperaturgenese auf unserer Erde sind aber ausschließlich die einfallende Sonnenstrahlung mit (pR²) und die Tagseite der Erde mit (2pR²). Für die ursprüngliche Sonneneinstrahlung von 1.367 [W/m²] ergibt sich daher der Divisor 2 für den Strahlungsdurchschnitt auf der Tagseite der Erde.

Hier auf der Tagseite der Erde, und nur hier, gilt das Stefan-Boltzmann-Gesetz. Die Nachtseite der Erde hat mit der S-B Gleichgewichtstemperatur auf der Tagseite überhaupt nichts zu tun, weil sie ja keine temperaturgenerierende Sonnenstrahlung erhält.

Und jetzt widmen wir uns einmal dem Mond, der ja argumentativ immer wieder gerne als ein Beispiel für einen idealen atmosphärelosen Schwarzkörper herangezogen wird und, im Vergleich zur Erde, auch als Beweis für den „natürlichen“ atmosphärischen Treibhauseffekt herhalten muss. Ich zitiere einen Kommentar zu meinem Artikel auf EIKE:

Die Apollo 15 Landestelle hat eine ungefähre Durchschnittstemperatur von 252 K, Tmassah, das auf ähnlicher Breite, aber auf der Erde (Sahara) liegt, hat 295 K Durchschnittstemperatur.

Macht einen „Atmosphäreneffekt“ vom 43K. Oder liege ich mit meinem Ansatz falsch?

Meine Antwort: Ja, Sie machen da etwas grundsätzlich falsch, denn Sie stellen hier einen unzulässigen Vergleich an. Die von Ihnen genannten Durchschnittstemperaturen beziehen nämlich die Nachtseiten von Mond und Erde mit ein. Und die Nachtseite des Mondes hat nun einmal ein ganz anderes Temperaturverhalten als die Nachtseite der Erde. Nach den oben beschriebenen Randbedingungen des Stefan-Boltzmann-Gesetzes kann man nämlich nur die entsprechenden Tagestemperaturen miteinander vergleichen.

Aberschaunmereinfachmalgenauernach: In einem älteren Artikel auf EIKE wurden die am Landeplatz von Apollo 15 gemessenen Mondtemperaturen in einer Grafiküber drei Mond-Tage (= 3 x 29,5 Erdtage) dargestellt:

 

Abbildung: Oberflächentemperatur auf dem Mond am Landeplatz von Apollo 15 (lila/blau)
Aus einem Artikel auf EIKE, Primärquelle WUWT

Nach dieser Abbildung schwanken die Temperaturen über den Mond-Tag (=29,5 Erdtage) an der Landestelle von Apollo 15 zwischen etwa +90 °C und – 190 °C.

Wenn man jetzt für die Landeposition von Apollo 15 einmal die Stefan-Boltzmann Gleichgewichtstemperatur berechnet, dann erhält man einen ziemlich ähnlichen Temperaturverlauf wie die oben dargestellten Messwerte (Abbildung vom Autor):

Eckwerte dieser Berechnung:

Landepunkt von Apollo 15:                                            Mond @ 26° 7′ 55.99″ N 3° 38′ 1.9″ E

Solarkonstante:                                                                                      1.367 [W/m²]

Albedo des Mondes:                                                          0,11

Temperaturwirksame Solarstrahlung:                                   1.217 [W/m²]

dito bei 26,125° geogr. Breite:                    1.092 [W/m²]

Effektive Solarstrahlung Seff für α = [0° – 360°]:                   IF SIN α >0 THEN Seff = SIN α* 1.092 [W/m²]

IF SIN α <0 THEN Seff = 0 [W/m²]

Und wenn man diese beiden Abbildungen dann übereinander projiziert, ergibt sich eine ganz erstaunliche Übereinstimmung:

 

Kombination der beiden vorherigen Abbildungen WUWT/Weber:

Die gemessene und die mit S-B berechnete Temperatur am Landepunkt von Apollo 15 stimmen bei Tage hervorragend überein, während die minimalen (Nacht-) Temperaturen um etwa 70 bis 90 Grad differieren. Diese Differenz ist aber eher ein Problem zwischen Theorie und Praxis, denn in der S-B Berechnung wird für die Nachtseite des Mondes streng mit 0 [W/m²] gerechnet, während die Nachtseite in der Realität gestreute Sonneneinstrahlung von der Erde erhält, deren Albedo immerhin 30% betragt.
Abschätzung: Eine Temperatur von -196 °C entspricht nach Stefan-Boltzmann einer Strahlung von 2 {W/m²], dafür dürfte die Rückstrahlung der Erde von etwa 418 [W/m²] allemal ausreichen.

Warum schwankt aber nun die Temperatur auf der Erde so viel weniger als auf dem Mond?

Erde und Mond unterscheiden sich zunächst einmal durch ihre Tageslängen von 24 Stunden und 29,5 Erdtagen. Die Erde unterscheidet sich vom Mond weiterhin durch die thermische Speicherfähigkeit ihrer globalen Zirkulationen (Atmosphäre und Ozeane). Die kurze Tageslänge der Erde und ihre Wärmespeicher sorgen also für eine geringe Nachtabkühlung, während die durchschnittliche Nachttemperatur auf dem Mond schnell in den 3-stelligen Minusbereich absinkt.

Der Mond ist daher ein stark vereinfachtes Modell der Erde ohne Atmosphäre und Ozeane.

Was herkömmlich als „natürlicher“ atmosphärischer Treibhauseffekt bezeichnet wird, ist also lediglich der Wärmeinhalt der globalen Zirkulationen auf der Erde. Allein diese Wärmespeicher verhindern eine nächtliche Auskühlung unserer Erde in derselben Größenordnung, wie wir sie beim Mond beobachten können. Während nun aber der Mond ohne Atmosphäre und Ozeane auf seiner Tagseite die S-B Gleichgewichtstemperatur annähernd erreicht, wird auf unserer Erde ein Teil dieser Energie für die thermische Aufladung der globalen Zirkulationen „abgezweigt“. Und wegen dieser Wärmespeicher sinkt die Minimaltemperatur der Erde über Nacht dann wiederum höchstens um einige Dekagrad ab. Wenn man also auf der Erde überhaupt von einem Atmosphäreneffekt sprechen will, dann besteht dieser in einer Dämpfung der örtlichen Temperatur gegen maximale Schwankungen der solar verursachten Temperaturgenese, wie wir sie auf dem Mond beobachten können. Für eine Ortslage in mittlerer geographischer Breite auf der Erde (Potsdam) werden in der nachstehenden Abbildung die im Zeitraum zwischen 1890 und 2013 gemessenen maximalen Monatstemperaturen und die S-B Gleichgewichtstemperatur im Strahlungszenit der Sonne dargestellt:

Abbildung: Temperaturvergleich in °C für Potsdam über ein Jahr

Blau: Rechnerische S-B Temperatur im solaren Zenit @Potsdam

Rot: Gemessenes Monatsmaximum in Potsdam im Zeitraum
1890-2013

Anmerkung: Die S-B Gleichgewichtstemperatur im solaren Zenit wurde unter Berücksichtigung der durchschnittlichen globalen Albedo mit netto 780 W/m jahreszeitabhängig berechnet

Daten von: https://www.pik-potsdam.de/services/klima-wetter-potsdam/wetterextreme

Wie diese Abbildung zeigt, bleibt die örtlich gemessene Maximaltemperatur auf der Erde im jeweiligen Sommerhalbjahr deutlich unter der berechneten S-B Gleichgewichtstemperatur. In den Wintermonaten ist in mittleren und höheren Breiten dann der Wärmetransport der globalen Zirkulationen gegenüber der S-B Gleichgewichtstemperatur deutlich zu erkennen, hier noch verstärkt durch die vom Golfstrom verursachte Nordverschiebung der geographischen Klimazonen. Auf der Erde erhöht sich also treibhausmäßig gar nichts, sondern unsere Atmosphäre und die Ozeane wirken vielmehr wie ein natürlicher Pufferspeicher gegen sehr hohe und sehr niedrige Gleichgewichtstemperaturen aus der direkten solaren Einstrahlung.

So, damit ist jetzt hoffentlich endgültig geklärt, dass es gar keinen „natürlichen“ atmosphärischen Treibhauseffekt auf unserer Erde geben kann. Vielmehr lassen sich die gemessenen Temperaturen auf der Erde und auf dem Mond ganz allein aus der natürlichen Sonneneinstrahlung herleiten.

Am Ende habe ich es also meinen schärfsten Kritikern zu danken, dass ich hier, ausgehend von den Temperaturen am Landeplatz von Apollo 15, die Richtigkeit meines hemisphärischen Stefan-Boltzmann Ansatzes mit dem Mond als Kronzeugen nochmals überzeugend nachweisen konnte.

Anmerkung der EIKE Redaktion

EIKE versteht sich auch als Diskussionsforum für Sonder-Hypothesen. Dies bedeutet nicht, dass EIKE mit dem Inhalt solcher Beiträge einverstanden ist. Wir überlassen die Diskussion dem Kommentar-Bereich.




Deutschland brütet ein Windei aus

von Manfred Haferburg

Eigentlich sollte es jedes Kind aus dem Physikunterricht wissen: Energie lässt sich nicht wenden. Aber der Physikunterricht ist wohl auch nicht mehr das, was er mal war. Meinungsumfragen zur Energiewende vermeidet die Politik ungefähr mit der gleichen Ängstlichkeit, wie solche zur Massenimmigration. Nur so lässt sich der Eindruck aufrechterhalten, dass die Mehrheit der Deutschen der Energiewende positiv aufgeschlossen gegenübersteht. Ob das wirklich so ist, weiß keiner. Fakt ist aber, dass die Bürger per Gesetz gezwungen werden, die von der Regierung gewollte Energiewende zu bezahlen. Bis zum Jahr 2025 müssen geschätzt rund 520 Milliarden Euro aufgewendet werden. Eine vierköpfige Familie zahlt somit direkt und indirekt über 25.000 Euro für die Energiewende.

Die „Energiewende“ ist in Wahrheit eine „Stromwende“, denn die Politik hat noch gar nicht richtig damit angefangen, auch die Transportenergie (Elektromobilität) und Heizungsenergie (Wärmedämmung) zu wenden. Das Ziel der Regierung bei der Stromwende ist derweil die Steigerung des Anteils erneuerbarer Energien am Bruttostromverbrauch auf 35 Prozent bis 2020, auf 50 Prozent bis 2030, auf 65 Prozent bis 2040 und auf 80 Prozent bis 2050. Dieses Ziel kann allerdings mit der gegenwärtigen Physik und Meteorologie nicht erreicht werden.

Beim Ausbau der Windenergie wird geklotzt und nicht gekleckert. Die installierte Nennleistung sämtlicher Windenergieanlagen in Deutschland hat sich in den letzten 16 Jahren, von Anfang 2001 bis Ende 2016, auf 50.000 Megawatt (MW) verachtfacht. In den 18 betrachteten europäischen Ländern, die Windenergie heute nutzen, erhöhte sich die Nennleistung im gleichen Zeitraum um das Zwölffache auf mehr als 150.000 MW.

Die Ingenieure Thomas Linnemann und Guido S. Vallana vom VGB-Powertech haben jetzt eine Studie erstellt und dafür fünf Millionen Datensätze über die europaweite Windstromproduktion der letzten Jahre ausgewertet: Thomas Linnemann, Guido S. Vallana: Windenergie in Deutschland und Europa Status quo, Potenziale und Herausforderungen in der Grundversorgung mit Elektrizität Teil 1: Entwicklungen in Deutschland seit 2010

Die ganze Studie inklusive der detaillierten Präsentationsfolien finden Sie hier:

Das Ergebnis dieser Studie ist ernüchternd und zeigt, dass eine der wesentlichsten Grundannahmen von der die Energiewender beim Ausbau der Windenergie ausgehen, schlicht falsch ist.

Grundannahme: Irgendwo ist immer Wind und daher wird die Leistung bei weiterem Ausbau immer stabiler, so dass am Ende keine Energiespeicher gebraucht werden. Man muss nur genügend Windräder aufstellen.

Richtig ist: der Wind weht nicht überall zur gleichen Zeit gleich stark. Das heißt, das das hundert Kilometer weite lokale Wetter darüber entscheidet, wieviel Strom die in diesem Bereich aufgestellten Windräder produzieren. Allerdings ist Europa viel grösser und demzufolge schwankt auch die Windstromproduktion nahezu chaotisch mit dem regionalen Wind – mal viel zu viel, mal eben fast nichts. Und es gibt so etwas wie „Großwetterlagen“.

Das Argument: „Irgendwo weht der Wind immer“ und die daraus abgeleitete Erwartung einer deutlichen Glättung der Gesamtleistung in einem Maße, das einen Verzicht auf Backup-Kraftwerksleistung ermöglichen würde, ist allerdings an Hand der realen Daten niemals eingetreten. Das gilt auch für die vielgepriesenen Offshore Windräder. Das Gegenteil ist der Fall, nicht nur für ein einzelnes Land, sondern für ganz Europa. Für das Jahr 2016 weist die entsprechende Zeitreihe (Stundenwerte) einen Mittelwert der Windstromproduktion von 33.000 MW und ein Minimum von weniger als 6.500 MW auf. Man bedenke: bei Windstille werden europaweit gerade mal 6.500 Megawatt von installierten 150.000 Megawatt Wind erzeugt. Dies entspricht trotz der europaweit verteilten Windparkstandorte gerade einmal 4 % der insgesamt installierten Nennleistung. Oder anders gesagt: von den 150 „Wind-Großkraftwerken von je 1000MW“ produzieren europaweit gerad mal noch sechs. Der Rest steht nur so rum und wartet auf Wind.

Die schlechte Nachricht ist: Windenergie trägt praktisch nicht zur Versorgungssicherheit bei und erfordert 100 % planbare konventionelle Backup-Kraftwerke.

Das heißt zu gut deutsch: wir werden auch bei noch viel umfangreicherem Windausbau den kompletten alten Kraftwerkspark brauchen und bezahlen müssen, da sonst die Lichter bei „Dunkelflaute“ ausgehen. Von der Dunkelflaute sind nämlich oft große Teile Europas gleichzeitig betroffen.

Für eine der nicht seltenen zweiwöchigen Dunkelflauten würde man zur Stromversorgung Deutschlands 21 Terawatt Stunden Speicherkapazität benötigen. Es existieren aber nur Speicherkapazitäten (Pumpspeicherwerke, alle anderen Speicher tragen gar nicht messbar bei) in einer Größe von 0,04 Terawatt Stunden. Um also diese zweiwöchige Dunkelflaute zu beherrschen benötigt man zusätzlich 17.500 Pumpspeicherwerke von je 200 MW, oder aber den kompletten konventionellen Kraftwerkspark von Kohle und Gas.

Und sollte wieder das Argument kommen: dann speichern wir eben überschüssige Windenergie als Gas, das dann die Versorgung bei Flaute übernimmt. Die Studie hat auch darauf eine Antwort. Die Kilowattstunde kostet bei diesem Verfahren auf Grund des grottenschlechten Wirkungsgrades mindestens 45 Eurocent, ohne Kosten wie Gewinn des Bertreibers, Netzentgelt und Steuern gerechnet, die locker diesen Preis nochmal verdoppeln. Wir reden also von einem Euro pro Kilowattstunde „Windstrom zu Gas“. Liebe deutsche Steuerzahler und Stromkunden – das gibt eine gigantische Eiskugelparty!

Link zum Fachtext der Studie: https://www.vgb.org/studie_windenergie_deutschland_europa_teil1.html?dfid=84459

Link zu den Präsentationsfolien (alle Fakten in grafischer Form) der Studie:

https://www.vgb.org/studie_windenergie_deutschland_europa_teil1.html?dfid=84458

Manfred Haferburg ist Autor des Romans „Wohn-Haft“ mit einem Vorwort von Wolf Biermann.Anmerkung der Redaktion:

Auf diesen unleugbaren Umstand hat EIKE schon vielfach hingewiesen z.B. hier, hier oder hier

 

 

 

 

 

Manfred Haferburg ist Autor des Romans „Wohn-Haft“ mit einem Vorwort von Wolf Biermann.




Dämmstoff-Profite für wenige, Tod und Krankheit für die Bevölkerung – Dämmwahn: Hausbewohner mutwillig in Gefahr gebracht

Dass Kunststoffe – die ja nichts anderes sind als modifiziertes Erdöl – hoch brennbar sind, ist allgemein bekannt. Besonders spektakuläre Vorfälle waren der Flughafenbrand in Düsseldorf 1996 mit 17 Toten und 88 Verletzten, die Feuertragödie von Kaprun mit fast 160 Toten sowie diverse Hausbrände z.T. mit Todesopfern u.a. in Duisburg, Frankfurt, Delmenhorst und Berlin.

Jetzt hat die Londoner Katastrophe dies wieder nachdrücklich in Erinnerung gebracht. Dabei sind diese besonders spektakulären Vorfälle nur die Spitze des Eisbergs, weil es unzählige Brände gibt, bei denen es ebenfalls zu vermeidbaren Sachschäden, Verletzten oder gar Toten kommt. Sie werden jedoch achselzuckend als „normale“ Brandereignisse abgehakt und meist nur in der Lokalpresse erwähnt. Da es keine entsprechende Sensibilisierung der Öffentlichkeit gibt, unterliegen sie keiner Meldepflicht und werden dementsprechend auch nicht statistisch erfasst. Dabei haben diese speziellen Brände, die man als „Fassadenbrände“ bezeichnet, seit Beginn des Dämmwahns stark zugenommen. Sie sind besonders tödlich, da sie sich rasend schnell ausbreiten und den Bewohnern kaum Zeit zur Flucht lassen. „Dass ein Zimmerbrand dazu führt, dass die Fenster platzen, die Flammen raus schlagen, das ist nichts Besonderes“, erinnert sich Albrecht Broemme, der damals als Leiter der Berliner Feuerwehr vor Ort war. „Dass aber die Fassade dann anfängt zu brennen, von sich aus den Brand mit einer ganz starken Intensität weitertreibt und dann von der Fassade aus das Feuer in weitere Wohnungen rein läuft – das ist schon ein Fall, der Gott sei Dank sonst nicht vorkommt“ [FaBra].

Wie gravierend das Problem inzwischen ist, kann man an der derzeit laufenden Untersuchung von Hochhäusern in Großbritannien erkennen, wo laut einer „Spiegel“-Meldung jedes einzelne der bisher 75 auf Brandsicherheit untersuchten Gebäude den Test nicht bestanden habe [Spie]. Nicht nur in England stehen inzwischen Tausende auf der Straße, auch in Deutschland musste inzwischen ein erstes Hochhaus geräumt werden.

 

Dämmwahn die Erste – Fachleute wurden ignoriert

Zahlreiche Fachleute z.B. aus den Bereichen Architektur, Feuerwehr und Zivilschutz haben schon seit langem auf diese Risiken hingewiesen [Kofi], doch konnten sich die Lobbyisten und Profiteure des Dämmwahns stets über deren Bedenken hinwegsetzen. Mehr noch: Es ist ihnen gelungen, so gut wie alle politischen Parteien sowie einen Großteil der Bevölkerung dank der aktuell unglaublich massiv betriebenen „Klimarettungs“-Kampagnen von der angeblichen Notwendigkeit massiver Dämmmaßnahmen zu überzeugen. Inzwischen sind entsprechende Vorschriften in Form von Gesetzen, Normen und Bauvorschriften zementiert und werden von den Behörden rigoros durchgesetzt. Die Planungen z.B. der Bundesregierung im Rahmen der „Dekarbonisierungs“-Strategie sehen vor, dass bis 2050 möglichst die Gesamtheit des deutschen Gebäudebestandes entsprechend den Vorstellungen von einer „CO2-freien Gesellschaft“ nahezu lückenlos in Dämmstoffen eingepackt wird.

 

Kunststoffe sind nicht feuersicher

Erdöl ist ein sehr energiereicher Brennstoff und entsprechend feuergefährlich. Das gilt nicht nur für Benzin und Diesel, sondern eben auch für die zur Dämmung eingesetzten Hartschaumstoffe. Große Mengen davon im oder am Haus zu haben ist fast genauso riskant wie die Lagerung von Benzin, die zu Recht verboten ist. Als Verbrechen ist deshalb zu werten, dass man es seitens der Verantwortlichen in der Politik und den Medien geschafft hat, die tatsächlich sehr hohen Brandrisiken dieser Dämmstoffe auf Polystyrol- oder Polyurethanbasis durch läppische Tricks zu kaschieren. Die hierbei eingesetzten Zauberworte lauten „schwer entflammbar“ und „flammhemmend“. Man beachte diese raffinierten Wortspielereien, die elegant die Tatsache umgehen, dass diese Produkte eben nicht „unbrennbar sind“. Sie sind lediglich schwerer zu entzünden, doch hat sich ein Brand erst einmal entwickelt, dann sind sie eine hervorragende Nahrung für die Flammen. In einer so gedämmten Fassade breitet sich ein einmal entstandenes Feuer dann rasend schnell aus, hüllt das gesamte Gebäude in kürzester Zeit vollständig ein und schneidet den Bewohnern die Fluchtwege ab. Es kommt sogar noch eine zusätzliche Gefahr hinzu, denn die eingesetzten Flammhemmer setzen massive und extrem giftige Rauchwolken frei, welche Opfern und Rettern die Luft und die Sicht nehmen und die Erstickungs- und Vergiftungsgefahr erhöhen. Über die tatsächliche Gefährlichkeit dieser Materialien kann man sich bei zahlreichen Quellen sowie bei auf Youtube abrufbaren Kurzfilmen informieren [FaBra, FaBra1-3].

Der grüne Klimarettungswahn hat dafür gesorgt, dass Millionen von Häusern mit solchen feuergefährlichen Dämmstoffen umhüllt wurden

 

Zusatzrisiken durch Gift

Hinzu kommt, dass viele dieser Flammhemmer teils hochgiftig sind. Interessanterweise ist es gerade die für den Dämmwahn an vorderster Front mit verantwortliche Nichtregierungsorganisation (NGO) Greenpeace, die auf höchst eindrückliche Weise beschrieben hat, welches Teufelszeug man uns da über Jahrzehnte direkt auf die Fassaden gepackt hat: „Polybromierte Flammschutzmittel sind Chemikalien, die…in zahlreichen Alltagsprodukten, wie Fernsehgeräten oder Computern enthalten sind.…Das am meisten eingesetzte Flammschutzmittel dieser Gruppe ist das Tetrabrombisphenol A (TBBA), weiters werden Hexabromcyclododecan (HBCD) und verschiedene polybromierte Diphenylether (PBDEs) verwendet. Viele polybromierte Flammschutzmittel sind schwer abbaubar, einige von ihnen, die niedriger bromierten (aber dafür giftigeren Verbindungen), reichern sich in der Umwelt an……Es besteht der Verdacht, dass auch höher bromierte Verbindungen in die Nahrungskette gelangen…..“ [PolyBro].

Zwar wurde die Verwendung von z.B. HBCD inzwischen verboten, doch sind bereits Millionen von Gebäuden mit solchen Produkten „klimakompatibel“ gemacht worden. Um dem Ganzen die Krone aufzusetzen, hat die Politik die Entsorgung dieses Drecks jetzt fast unmöglich gemacht, indem sie es zum Sondermüll deklarierte. Bei Sanierungen stehen Hausbesitzer und Handwerker dadurch vor einem extrem teuren Entsorgungsproblem. Es ist wie beim Diesel: Erst haben Staat und Parteien dafür gesorgt, dass zahllose Verbraucher in gutem Glauben angeblich besonders „umweltfreundliche“ oder „klimarettende“ Produkte erworben haben, und jetzt bestraft man sie dafür und lässt sie mit den Problemen sowie den horrenden Kosten alleine.

 

Dämmwahn die Zweite – Schimmel, das heimtückische Atemgift

Seit rund zwei Jahren läuft eine offensichtlich systematisch gesteuerte Kampagne diverser „grüner“ NGOs und ihrer Spezis in den Medien, die darauf abzielt, das Auto und hier insbesondere den Diesel zu verteufeln. In gewohnter Weise wird dabei mit Horrorzahlen über die angebliche Gefährlichkeit der Feinstaub- und NOx-Emissionen aufgewartet, denen angeblich allein in Deutschland jedes Jahr abertausende Menschen zum Opfer fallen. Diese Behauptungen werden teils gar nicht, teils mit äusserst dubiosen „Studien“ begründet, während die Meinung von Fachleuten schlicht ignoriert wird [Leist, Heyd]. Auch werden Feinstaub und NOx munter durcheinandergebracht und alles nur dem Auto angelastet, obwohl dieses bei weitem nicht die einzige Ursache dieser Emissionen ist.

Massiver Schimmelbefall im feuchten Bereich einer Wandverkleidung

In Wirklichkeit wird die große Mehrheit der deutschen Bevölkerung von einem ganz anderen Killer bedroht, dem sie nahezu schutz- und wehrlos dauerhaft ausgeliefert ist: Dem Schimmel, der dank der sinnfreien Überdämmungspolitik inzwischen in immer mehr Wohnungen gedeiht. Schwarze oder farbige Schimmelflecken an Wänden, in Ecken oder auf bzw. hinter Möbeln, Verkleidungen und Tapeten sind nicht nur unschön, sie sondern vor allem einen ständigen Strom teils giftigen, teils allergenen Feinstaubs ab, dem wir an unserem Lebensmittelpunkt, in unserer eigenen Wohnung, sowohl tagsüber als auch in der Nacht ausgesetzt sind. Die hierdurch ausgelöste Aspergillose betrifft häufig die Nasennebenhöhlen und die Lunge, kann aber auch andere Organsysteme wie die Haut, den Magen-Darm-Trakt oder das Nervensystem befallen. Und da sie häufig Menschen mit schwacher Abwehr trifft, nimmt sie trotz Therapie oft einen schweren Verlauf und kann auch tödlich enden [Asper]. Das wahre Gefährdungspotenzial von Schimmel wird selbst von Fachmedizinern oft unterschätzt: Die Weltgesundheitsorganisation (WHO) geht beispielsweise davon aus, dass das Risiko für Atemwegserkrankungen und Asthma um bis zu 75 % steigt, wenn sich Menschen dauerhaft in Räumen mit Schimmelbefall aufhalten [Asthm].

Besonders schlimm ist jedoch, dass insbesondere Kleinkinder gefährdet sind, da deren Immunsystem noch im Aufbau begriffen ist. Außerdem sind gerade Kleinkinder der Gefahr in noch viel höherem Maße ausgesetzt als Erwachsene. Sie stecken bekanntlich alles Mögliche in den Mund und krabbeln auch in solchen Bereichen der Wohnung herum, wo der Schimmel sich – von den Erwachsenen oft unbemerkt – als lockerer Belag ausgebreitet hat.

Schwarzer Schimmel auf Beton

 

Das Fanal von London ist ein Weckruf. Es ist Zeit, den von den grünen Weltuntergangspropheten verantworteten Übergriffen auf Gesundheit, Leben und Besitz der Bevölkerung entgegenzutreten. Seit grüne Politiker mit der Horrorstory vom Waldsterben an die Macht gespült wurden, haben sie sich pausenlos neue Schreckensvisionen einfallen lassen, weil sie damit Erfolg hatten. Deshalb wird ein Angriff nach dem anderen auf die Grundfesten unserer technischen Zivilisation und damit unseres Wohlstandes gefahren, „und das nicht nur zur Wahlenzeit“, denn wie bei jeder Droge gewöhnt man sich an die Wirkung und muss die Dosis immer weiter erhöhen. Waren es vor dreißig Jahren lediglich die Wälder und dann die Atomkraft, so geht es heute um nichts weniger als die Rettung des Planeten und des ganzen Menschengeschlechts. Und gleichzeitig schaffen diese Leute im Interesse ihres Machterhalts die Voraussetzungen dafür, dass die Bevölkerung ohne Sinn und Verstand enormen Brand- und Gesundheitsrisiken ausgesetzt werden. Man sollte sich einmal damit beschäftigen, welche Zusammenhänge es zwischen dem heute grassierenden Dämmwahn nebst Schimmel und der inzwischen explosionsartig zur Volksseuche angewachsenen Ausbreitung von Allergieerkrankungen gibt. Das Schlimmste von allem ist jedoch, dass diese Gefahren gerade die Schwächsten unserer Gesellschaft betreffen, nämlich kleine Kinder und Menschen mit angegriffener Gesundheit. Leider gibt es derzeit keine entsprechenden Statistiken, weder für die Toten und Verletzten durch erhöhte Brandgefahren noch für die vermutlich noch viel zahlreicheren Opfer des mutwillig in unseren Wohnungen verbreiteten Schimmels. Die wahren Zahlen dürften jedoch in die Tausende gehen. Bald sind Wahlen: Man sollte den Grünen die Rote Karte zeigen.

Fred F. Mueller

 

Quellen

[Asper] http://www.netdoktor.de/krankheiten/aspergillose/

[Asthm] http://www.t-online.de/ratgeber/gesundheit/krankheiten/id_61506316/wenn-schimmel-krank-macht-symptome-und-massnahmen.html

[FaBra] http://www.daserste.de/information/wissen-kultur/w-wie-wissen/sendung/2011/fragwuerdig-polystyrol-fassaden-100.html

[FaBra1] https://www.youtube.com/watch?v=SS6w7UfQ7OA

[FaBra2] https://www.youtube.com/watch?v=AWD0HeZLufM

[FaBra3] http://www.presseportal.de/pm/6561/2156173

[Heyd] http://www.stern.de/panorama/wissen/natur/feinstaub–vielleicht-messen-wir-das-falsche–3553812.html

[Kofi] http://www.konrad-fischer-info.de/

[Leist] https://eike.institute/2017/03/10/die-gruenen-maennchen-von-heute-oder-was-der-feinstaubalarm-in-stuttgart-wert-ist/

[PolyBro] http://www.greenpeace.org/austria/Global/austria/dokumente/Factsheets/umweltgifte_polybromierte_flammschutzmittel.pdf

[Spie] http://www.spiegel.de/wirtschaft/unternehmen/london-grenfell-tower-arconic-stoppt-verkauf-der-brennbaren-fassadenteile-a-1154544.html

[Stadtall] https://baufuesick.wordpress.com/2015/06/22/fassadenbrand-dammung-erschwert-das-loschen/




In eigner Sache – zur Erhöhung der Sicherheit neues Captcha eingebaut

Wir vermuten daher als Quelle DOS Attacken, durchaus auch von unseren Gegnern, die auf Biegen und Brechen, dieses Land mittels Klimaschutz strangulieren wollen und auch vor illegalen Methoden nicht zurückschrecken.

Denn täglich kommen – trotz eingeschalteter Abfangscripts wie Akismet- bei uns 10 – 15 Anmeldungen an, denen man ansehen kann, dass sie von Robotern stammen müssen. Um diese automatisierte Anmeldung zu verhindern, haben wir ein neues Captcha von Google eingebaut. Es fragt bei jedem Anmelden ab, ob der Anmeldende ein Mensch ist.

Google Captcha Hinweis -z.B. rechts unten bei Kontakt

Wollen Sie such registrieren, oder wollen Kontakt aufnehmen, dann – aber nur zufällig gesteuert, nicht jedesmal– wird eine Bildfolge eingeblendet, zu der eine einfache Frage gestellt wird, die Sie durch Auswahl aus den Bildern richtig beantworten müssen. Ist das geschehen, werden Sie registriert oder können Kontakt aufnehmen.

Beispiel für Abfrage, die wohl nur ein Mensch beantworten kann.

Wir bedauern diese zusätzliche Hürde errichten zu müssen, denken aber dass es in Bezug auf die verbesserte Sicherheit dieses für viele unbequemen Blogs zumutbar ist. Die EIKE Redaktion  bedankt sich für Ihr Verständnis.

Michael Limburg




EIKE wieder online!

Diese hohe Belastung veranlasste unseren Provider unseren Blog abzuschalten „um andere Kunden vor einem potentiellen Ausfall zu schützen“. Aus Kostengründen teilen wir uns den Server mit anderen Nutzern.

Eine erste Überprüfung der Logfiles ließ zwar vglw. viele Zugriffe erkennen, aber eigentlich nichts ungewöhnliches. Trotzdem war die Belastung offenbar zu hoch. Das wiederum lässt uns anonyme DOS Angriffe unserer zahlreichen Feinde vermuten.

Um dem in Zukunft zu begegnen, wollen wir diesen Blog auf einen eigenen „Managed Server“ umziehen.

Das wiederum bedeutet einen ziemlich hohen Umzugsaufwand, wie auch ein finanziell, teureren Daueraufwand. Um uns das leisten zu können, bitten wir um Ihre großzügige Spende. Am Besten als Dauerauftrag. Jeder Euro ist willkommen, denn jeder Euro zählt. Spenden können Sie über den Paypalbutton unter „Spenden“ rechts oder auf dieses Konto unter diesem link (Impressum)




Eine Zahlen-basierte Quantifizierung der Unsinnigkeit des Pariser Abkommens

Dabei geht es längst nicht mehr um Fakten. Der Soziologe N.Luhmann spottet:“Angst widersteht der reinen Vernunft. Wer Angst hat, ist moralisch im Recht.“

Das sind die  Bausteine einer postfaktischen Politik.

Bei dieser von jedem Realismus losgelösten Hysterie (oder gar Religion) muß zwingend an die Fakten erinnert werden, um nicht gerade in Deutschland insbesondere über die „Energiewende“ in einer unendlichen Kostenfalle zu versinken.

Fakten zum möglichen Einfluß des anthropogenen CO2 auf das Klima

  1. Das Klima der Erde befindet sich schon immer in einem ständigen Wandel: Eiszeiten (etwa alle 100 000 Jahre) im Wechsel mit Warmzeiten, ohne anthropogenes CO2
  2. Nach der letzten Eiszeit zeigt die jetzige Warmzeit sechs wärmere Phasen, von denen ohne anthropogenes CO2 alle wärmer waren als die jetzige wärmere Phase
  3. Seit etwa 20 Jahren bleibt der Trend der globalen Mittel-Temperatur in der jetzigen wärmeren Phase – von El Niño Ereignissen abgesehen- statistisch konstant, trotz steigender CO2-Gehalte
  4. Einen Treibhauseffekt durch CO2 kann es m.E.n. nicht geben, da in der Troposphäre die Energieübertragung durch die weitaus leistungsfähigeren Wege wie Wärmeleitung und Wärmeübergang bestimmt wird und nicht wie im Vakuum-ähnlichen Zustand die Strahlungsgesetze, d.h. es gelten in der Troposphäre die thermodynamischen Gesetzmäßigkeiten (u.a. der 2.Hauptsatz der Thermodynamik). Im Übrigen würden 0,040% CO2 in der Atmosphäre massenmäßig nicht ausreichen, um eine Wärmemenge von 342 W/m2 (IPCC) zur Erdoberfläche zurück zu strahlen, da bei 0,040% CO2 schließlich nur 4 Moleküle CO2 10 000 Luftmolekülen gegenüber stehen.

Geht man weiter davon aus, dass von den 0,040% CO2 in der Atmosphäre nur 0,001% CO2 aus der Verbrennung fossiler Brennstoffe herrühren (vgl.später), um deren Diskussion es in Paris hätte gehen müssen, so wird der anthropogene CO2-Anteil auf ein Maß gestutzt, das die mögliche anthropogene Beeinflussung des Klimas durch CO2 über einen möglichen „Treibhauseffekt“ gänzlich zur Perversion macht.

Video zum Vortrag von Michael Limburg anlässlich der 10. IKEK im November 2016 zur Bedeutung des Pariser Klimaabkommens.

Erwartungsgemäß scheitern auch die in den letzten Jahren unter Einbeziehung des vermeintlichen Einflusses von CO2 aufgestellten 102 Klimamodelle zur Vorhersage der Temperatur jämmerlich an der Wirklichkeit.

  1. Die Atmosphäre enthält etwa 3000 Gt CO2. Etwa ein Viertel davon befindet sich in einem Naturkreislauf.

Dieser Naturkreislauf entspricht etwa 230 Gt Kohlenstoff/a und wird gespeist – ohne vulkanische und nicht vulkanische Ausgasungen – aus: (1)

– Ausgasung Meere                                                              40,4%

– Atmung Pflanzen                                                               23,9%

– Atmung Organismen und Zersetzung                           23,9%

– Menschen und Tiere                                                         6,5%

– Entwaldung                                                                        2,6%

– Verbrennung fossiler Brennstoffe                                 2,6%

Das „Intergovernmental Panel on Climate Change“ (IPCC) beziffert im Bericht 2007 die jährlichen Kohlenstoffemissionen über CO2 ohne vulkanische und nicht vulkanische Bodenausgasungen in Summe mit 205 Gt C/a: Ausgasung Meere 90 Gt C/a, Atmung Bodenorganismen 59 Gt C/a, Atmung Landorganismen 50 Gt C/a und Verbrennung fossile Brennstoffe 50 Gt C/a – entsprechend auch hier 2,6% über fossile Brennstoffe.

Bei 0,040% (400 ppm) CO2 in der Atmosphäre entstammen also nur 2,6% aus der Verbrennung von fossilen Brennstoffen entsprechend 0,001% (10 ppm).

Im Abkommen von Paris (das im Übrigen keine Sanktionen bei Nichterfüllung vorsieht – also eine Absichtserklärung) geht es also nur um diesen lächerlichen Betrag von 0,001% (10 ppm), wobei „Treibhausgasneutralität in der 2. Jahrhunderthälfte“ vorgesehen ist.

Durch die Photosynthese liegen die jährlichen Schwankungsbreiten der gemessenen CO2-Gehalte in der Atmosphäre in einer Höhe von bis zu 0,002% (20 ppm), also doppelt so hoch wie die eigentliche Zielvorgabe in Paris von 0,001% (10 ppm), mit der man sich in Paris selbstredend nicht beschäftigt hat – aber wen interessierten in Paris schon Fakten.

Das ganze Vorhaben Paris ist also an Lächerlichkeit nicht mehr zu überbieten

  1. Der Anteil Deutschlands am weltweiten CO2-Ausstoß liegt bei 2,7% von 2,6% weltweit oder 0,000 028% (0,28 ppm). Davon entstammen 42% aus fossilen Kraftwerken, so dass der CO2-Ausstoß über die Stromerzeugung in Deutschland nur noch bei 0,000 012% (0,12 ppm) liegt – nicht mehr meßbar.(2)

Für diesen Betrag zur Absenkung des CO2-Gehaltes in der Atmosphäre von 0,000 012% (0,12 ppm) hat Deutschland die „Energiewende“ erfunden und in 2000 gestartet und immer wieder neu definiert. In 2017  wird sie 25 Milliarden € verschlingen. Das Institut für Wettbewerbsökonomik an der Uni Düsseldorf errechnete die Kosten für die Energiewende für die Zeit 2000 bis 2015 auf 150 Milliarden € und schätzt die zwischen 2015 und 2025 anfallenden Kosten auf 370 Milliarden € (Summe 520 Milliarden €).

Von den diversen Energiewenden seit 2000 ist die letzte Energiewende aus dem Jahre 2016 mit der Bezeichnung „Klimaschutzplan 2050“ eine besondere Herausforderung: „Dekarbonisierung“ (kompletter Abbau des CO2-Ausstoßes) für alle Bereiche wie Stromerzeugung, Verkehr, Industrie, Heizung, Landwirtschaft, etc..

Für die Stromerzeugung bedeutet dies (bis 2050 müßten dann die Energien für die anderen Bereiche über eine erweiterte Stromerzeugung übernommen werden): ausschließliche Stromerzeugung über die alternativen Energien bis 2050 und Beendigung jeglicher Verbrennung fossiler Brennstoffe.

Aber die Sonne scheint nicht immer, der Wind weht auch nicht immer.

Wo kommt der Strom dann her, denn die letzten Kernkraftwerke werden in 2022 geschlossen. Adäquate Speichertechnologien in der erforderlichen Größenordnung sind weder jetzt noch in Zukunft zu erwarten, außerdem nicht bezahlbar. Es existiert lediglich der Glaube an eine Stromspeichererleuchtung. Für eine z.B.10-tägige Windflaute im Winter wären z.B. 1957 Pumpspeicherwerke der Goldisthalgröße erforderlich. (3)

Es bleibt dann nur noch der Status von zwei Erzeugungssystemen – erneuerbar und konventionell – wie jetzt.

Muß man das Pariser Abkommen schon mit lächerlich bezeichnen, so ist der Aufwand für die „Deutsche Energiewende“ für diesen nicht meßbaren CO2-Betrag von 0,000 012% (0,12 ppm), und eine Energiewende, die nicht einmal funktionieren kann, nur noch beschämend.

Es ist schon mehr als verwunderlich, wenn unsere Kanzlerin Aussagen vernehmen läßt wie: „Nicht jeder Generation ist es gegeben, solche technischen Umbrüche zu erleben und dabei zu sein, ist schön“.

  1. Alles Leben auf der Erde verdanken wir der Anwesenheit von CO2 in der Atmosphäre nach der Photosynthese

6 CO2 + 6 H2O = C6H12O16 + 6 O2     (+ 2882 KJ/Mol)

Ohne CO2 in der frühen Erdatmosphäre wäre auch kein Sauerstoff entstanden, kein Wachstum, kein menschliches Leben.

Im Übrigen hätte die Erde bei über 10% CO2 in der Atmosphäre in der Frühzeit nach den jetzigen Vorstellungen der Erwärmung durch CO2 schon längstens verglühen müssen – aber sie tat es zum Glück nicht.

Konsequenzen

Diese durch den Ausstieg der USA aus dem Pariser Abkommen ausgebrochene Hysterie gleicht einem Aufbruch in ein „postfaktisches Zeitalter“, ungeachtet aller Fakten-basierten Überlegungen

Eine Beibehaltung des Pariser Abkommens wäre eine gewaltige Vergeudung von Geld, nicht zuletzt durch die Abermilliarden Euro an Ausgleichszahlungen an die Entwicklungsländer, in welchen Taschen ein solches Geld auch immer landen mag. Für Deutschland kommen dann noch für z.B. 2017 die erwähnten rd. 25 Milliarden € für unsere „Energiewende“ oder 520 Milliarden € bis 2025 hinzu, denn schließlich heben wir uns als Vorbild ab vom Rest der Welt und fühlen uns als Vorreiter für die Bewahrung der Schöpfung.

Nach dem Ausstieg der USA hat sich nämlich unsere Bundeskanzlerin an die Spitze zur Durchführung des Pariser Abkommens mit den Worten in Szene gesetzt wie „..weiter alle Kraft für globale Klimapolitik, die unsere Erde bewahrt“.

Zum Glück wagt nun eine Gruppe von CDU-Abgeordneten, die sich „Berliner Kreis“ nennt, in Sachen Klimawandel und Energiewende mit einer sehr beeindruckenden Ausarbeitung selbst zu denken (hier):

Es bleibt nur zu hoffen, dass der „Berliner Kreis“ unserer Kanzlerin endlich die Augen öffnet, denn Deutschland muß weg von dieser Volksverdummung, weg von dieser Klimareligion und der unkritischen Begleitung durch die Zeitgeistmedien, hin zu Fakten und nicht zu postfaktischen Erleuchtungen.

 

Quellen

  1. Ewert, F.-K.: EIKE- Klima- und Energiekonferenz in München; 25.-26-11.2012
  2. Beppler,E.: „Energiewende – zweite industrielle Revolution oder Fiasko“; 2013; ISBN 978-3-7322-0034-4
  3. Beppler, E.: „Die euphorischen Klimawandelmaßnahmen der Bundeskanzlerin und die Hoffnungslosigkeit der Umsetzung in Form der „Deutschen Energiewende“; EIKE Newsletter; 06.06.2017

 

Anmerkung der EIKE Redaktion

EIKE versteht sich als Diskussionsforum, in welchem auch abweichende physikalische Auffassungen diskutiert werden können. Die die Atmosphärenphysik betreffenden Ausführungen von Herrn Dr. Beppler stellen seine persönliche Meinung dar. Dies bedeutet nicht automatisch, dass EIKE diese Meinung teilt.

 

 




Das Kobalt-60 Ereignis von Taiwan — und was ist daraus zu schließen?

Die Macht der ständigen Wiederholung hat den Glauben an die Strahlengefahr fest im Bewusstsein der Menschen verankert. Gerade Strahlenbiologen haben immer wieder dagegen Stellung genommen – vergeblich. Jetzt hat sich durch das Co-60-Ereignis von Taiwan [2] die Möglichkeit ergeben, durch einen ungewollten Versuch an einer großen Zahl von Menschen die Strahlen“gefahr“ als ein Gespenst zu entlarven und den Nutzen zu beweisen.

 

Was ist in Taiwan passiert?

Dort war Baustahl mit Kobalt-60 kontaminiert mit der Folge, daß die Bewohner ständig einer Ganzkörperbestrahlung durch harte Gamma-Strahlung ausgesetzt waren. Die Gebäude waren in 1982 / 1983 gebaut worden, die erhöhte Gamma-Strahlung in Räumen wurde erst nach 10 Jahren in 1992 entdeckt. Man machte sich auf die Suche nach weiteren kontaminierten Bauten und wurde fündig. Insgesamt hatte man ein Kollektiv von 10 000 Personen, die über 9 bis 20 Jahre einem Strahlenpegel ausgesetzt waren, wie er weder in der Natur noch im Bereich der Kerntechnik vorkommt. Anhand der gemessenen Ortsdosisleistung in den Gebäuden konnte man auf den Strahlenpegel von 1982 rückrechnen und mit dem Wohnverhalten der Leute die gesamte erhaltene Dosis abschätzen. Und man konnte die Gesundheit der Bewohner beobachten. Hier die Daten von dem Teilkollektiv von 1100 Personen mit der höchsten Dosis:

In 1983 betrug die mittlere Jahresdosis 74 mSv, und die maximale 910 mSv.

Die kumulierten Jahresdosen waren im Mittel 4 Sv, der Maximalwert 6 Sv.

Bei einer angenommenen Aufenthaltsdauer in den Wohnungen von 4000 Stunden im Jahr lag der

Strahlenpegel 1983 im Mittel bei 20 µSv/h und maximal bei 200 µSv/h.

Diese Zahlen sind so hoch, daß sie jedem Fachmann, der in Sachen Strahlen ausgebildet ist, erschaudern lassen.

In dem gesamten Kollektiv hätte es unter den Erwachsenen

186 Krebstodesfälle geben müssen.

Nach dem im Strahlenschutz angewandten LNT-Modell hätte es durch Strahlung weitere

56 Krebstodesfälle geben müssen.

Bisher wurden tatsächlich aber nur

5 Krebstodesfälle beobachtet.

Damit wurde an einem Kollektiv von 10 000 Personen überraschend eindrucksvoll das bewiesen, was aus Versuchen mit Zellkulturen, an Tieren, und auch an Menschen seit einem halben Jahrhundert weltweit bekannt ist, aber von der Lehrmeinung im Strahlenschutz ignoriert wird [2]:

  • Die LNT-Hypothese (Linear no Threshold) ist nicht haltbar, ebenso die Folgerung wie das ALARA-Prinzip (As Low As Reasonably Archievable).
  • Gamma-Strahlung im Niedrigdosisbereich als Langzeitbestrahlung ist nützlich für Lebewesen, es trainiert das körpereigene Abwehrsystem und bekämpft Krebs (Hormesis).

Das Co-60-Ereignis bietet eine ideale Möglichkeit, die auf der LNT-Hypothese beruhenden Strahlenschutzprinzipien ohne Gesichtsverlust für die hauptamtlichen Strahlenschützer auf den Müll zu werfen und die biopositive Wirkung von Niedrigdosisstrahlung bei kleiner Dosisleistung anzuerkennen.

 

Die Dosis macht das Gift

Die heute gültigen Gesetze sind begründet an den Überlebenden von Hiroshima und Nagasaki, wo in einer Langzeituntersuchung eine erhöhte Krebsrate festgestellt wurde. Hier hatte eine hohe Dosis innerhalb sehr kurzer Zeit gewirkt. Nun macht man Strahlung die Annahme, dass auch jede noch so kleine Strahlendosis schädlich sei, und zwar unabhängig von der Zeit seines Einwirkens. Das wird Vorsorgeprinzip genannt. Die Unsinnigkeit dieser Annahme ist am Beispiel Alkohol klar erkenntlich: eine Flasche Schnaps in einer halben Stunde hinunter gekippt ist schädlich. Aber die gleiche Alkoholmenge auf lange Zeit verteilt ist anregend für den Kreislauf, macht Lebensfreude, ist eher nützlich, niemals schädlich.

 

Wie ist die Beobachtung der nützlichen Strahlenwirkung zu verstehen?

Durch Strahlung werden Elektronen in den Molekülen von ihren Plätzen verlagert. Soweit es sich dabei um Bindungselektronen handelt, bedeutet das chemische Veränderungen in den Zellen. Diese Veränderungen werden vom Immunsystem wieder korrigiert. Zusätzliche Verlagerung von Bindungselektronen bedeutet daher Anregung für zusätzliche Korrekturprozesse in der Zelle. Es werden alle Bindungselektronen mit gleicher Wahrscheinlichkeit getroffen, daher werden alle möglichen chemischen Reaktionen in der Zelle angeregt. Alle möglichen Korrekturreaktionen in den Zellen werden trainiert. Das wiederum bedeutet sehr vielseitige Möglichkeiten, infolge Strahlung das Immunsystem der Zellen zu stärken.

Bei der Gabe von Medikamente an Patienten geschieht ähnliches, aber es werden spezifische Reaktionen angeregt, immer nur in Bezug auf eine bestimmte Krankheit. Die Wirkung von Strahlung ist unspezifisch, vielseitiger als bei Medikamenten. So erklärt sich auch die Tatsache, daß schädliche Wirkungen von Chemikalien durch Strahlung gemildert oder vermieden werden können [3].

Krebs ist eine Alterskrankheit, sie schlägt zu, wenn das Immunsystem bei den Menschen mit zunehmendem Alter in seinen Fähigkeiten nachlässt. Daher lässt die anregende Wirkung der Strahlung auf die Abwehrkräfte der Zellen hoffen, daß auch andere Alterskrankheiten wie Parkinson und Demenz durch niedrig dosierte Langzeitbestrahlung bekämpft oder gemildert werden können. Eine gut trainierte körpereigene Abwehr spielt auch bei der Bekämpfung von Infektionskrankheiten eine wichtige Rolle.

 

Was bedeutet ein Milli-Sievert (1 mSv), ist es viel oder wenig?

1 mSv bedeutet eine Spur pro Zelle [4. Somit bedeutet 1 mSv im Jahr, daß jede Zelle einmal im Jahr von einem Strahl getroffen wird und die Immunabwehr der Zelle trainiert wird. Das ist sehr wenig und kann auf den gesamten Organismus keinen Trainingseffekt bewirken. Das wird verständlich beim Blick auf sportliches Training, ein Training einmal im Jahr ist ohne Effekt und zu wenig für den Erfolg im Wettkampf. Es muß gezielt trainiert werden, je nach Sportart ist das Training unterschiedlich, z.B. bei Triathlon oder bei 100m-Spurt. Auch beim Training der Zellen kann erwartet werden, daß Strahlung sehr verschieden wirkt je nach Art des Krebses oder anderen Krankheiten.

T.D. Luckey, M. Doss und C.L. Sanders geben Empfehlungen als optimale Dosis für biopositive Wirkung der Strahlung:

 

T.D. Luckey [5] M. Doss [6] C.L. Sanders [1]
Dosis im Jahr 60 mSv 200 mSv 150 bis 3000 mSv
Dosisleistung bei 4000 h/a 15 µSv/h 50 µSv/h 40 bis 800 µSv/h
Training der Zellen einmal pro Woche jeden zweiten Tag 3 x pro Woche bis 10 x täglich

 

Beim Co-60-Ereignis in Taiwan wurden die Bewohner der Gebäude regelmäßig bestrahlt, das regelmäßige Training von Zellen/Immunsystem erklärt die überraschende Wirkung. Eine Übersicht zur Dosisleistung bei Annahme von 4000 Stunden Bestrahlung im Jahr:

Übersicht zu den Dosisleistungen über viele Größenordnungen mit den Bereichen „normal; ohne Wirkung“, „Nutzen“, „Gefahr“ (grün); dem Co-60 Ereignis (rot) und dem von T.D. Luckey und M. Doss empfohlenen nützlichen Bereich (blau).

 

Es ist festzustellen:

  • Gefahren bestehen nur bei sehr hoher Dosisleistung, denn nur dann können auch hohe Dosen erreicht werden. Bei Bestrahlung nach einer Krebs-OP wird täglich mit einer Organdosis von 2 Sievert mit hoher Dosisleistung bestrahlt. Es heißt im Dt. Ärzteblatt: „Gesundes Gewebe kann subletale Schäden (das sind 2 Sievert pro Tag) in den Bestrahlungspausen (von einem Tag zum nächsten) weitgehend reparieren.“ [7]
  • Die evakuierten Zonen von Tschernobyl und Fukushima liegen im nützlichen Bereich der Dosisleistung, dennoch werden sie von den Medien als „Todeszonen“ bezeichnet, das ist fake news. Durch die Evakuierung der Menschen in Tschernobyl und Fukushima hat man diesen Personen eine Dosis vorenthalten, die deren Gesundheit gut getan hätte. Wenn aus einem Kernkraftwerk radioaktive Stoffe frei gesetzt werden, so ist höchstens in unmittelbarer Nähe auf dem Kraftwerksgelände kurzzeitig Gefahr vorhanden.
  • Es gibt Gebiete auf der Erde mit einer höheren Dosisleistung der Bodenstrahlung, aber diese Stellen sind klein und die Menschen halten sich meistens nicht im Freien sondern in ihren Häusern auf. Daher sind die biopositiven Effekte dort an Menschen nicht zu sehen. Das gleiche gilt für das fliegende Personal. Nur an Astronauten mit langem Aufenthalt in der ISS konnte man eine Wirkung erkennen [8].

 

Wie ist die Situation außerhalb von Deutschland?

Im Februar 2015 haben die Professoren Carol S. Marcus, Mark L. Miller und Mohan Doss an die Genehmigungsbehörde NRC (Nuclear Regulatory Commission) der USA eine Petition gerichtet mit der Bitte zur Korrektur der zur Zeit geltenden Prinzipien beim Umgang mit Strahlung [9]. Dabei ging es den Initiatoren nicht nur um die Beseitigung der zu niedrigen Grenzwerte, die eine nicht vorhandene Gefahr vorgaukeln, sondern es ging um die Akzeptanz der biopositiven Wirkung von Strahlung im Niedrigdosisbereich, die von der Internationalen Strahlenschutzkommission ICRP (International Commission on Radiological Protection) abgelehnt wird. Die Petition hatte mit den dazu abgegebenen ca. 650 Kommentaren ein gewaltiges Echo in der Fachwelt der USA.

Im Oktober 2015 hat die NRC die Petition zurück gewiesen und beruft sich dabei auf die nationalen und internationalen Strahlenschutzgremien. Dennoch wurde die Existenz der biopositiven Wirkung von Strahlung anerkannt, daher erscheint die Antwort des NRC als ein Versuch, eine deutliche Stellungnahme zu vermeiden und den Schwarzen Peter an andere weiter zu schieben.

In der Internationalen Strahlenschutzkommission ICRP gibt es Anzeichen von Einsicht in die Fehler der Strahlenschutzrichtlinien. So werden in dem Bericht einer von der ICRP eingesetzten task group „Radiological protection issues arising during and after the Fukushima nuclear reactor accident“ die Strahlenschutzgrundsätze als „speculative, unproven, undetectable and ‚phantom‘“ beschrieben [10]. Das heißt in klarer deutscher Sprache: die Gefahr durch Strahlung ist „spekulativ, unbewiesen, nicht feststellbar, also ein Phantom“. Ein Phantom ist ein Trugbild, ein Geisterbild, ein Gespenst. Strahlenangst ist wie Angst vor Gespenstern.

Die Verfasser bezeichnen ihren Bericht als private Meinung, die nicht von der ICRP unterstützt wird. Auch in diesem Falle haben die offiziellen Stellen nicht den Mut, die Dinge beim rechten Namen zu nennen.

Prof. Jaworowski (†) bezeichnete die heutigen Strahlenschutzrichtlinien in einer Veröffentlichung als kriminell.

 

Was ist zu tun?

Luckey schrieb in den 1980-er Jahren: „Es wird allmählich Zeit, daß sich die für die Volksgesundheit verantwortlichen Stellen darüber Gedanken zu machen beginnen, wie sicher gestellt werden kann, das jeder die Dosis, die er zur Erhaltung seiner Vitalität und Gesundheit benötigt, auch immer erhält.“

Luckey bezog sich mit diesem Ausspruch auf 1260 Veröffentlichungen über die biopositive Wirkung von Strahlung. Heute ist die Anzahl der diesbezüglichen Veröffentlichungen auf mehr als 3000 gestiegen. Es gibt mit „dose-response“ eine Zeitschrift nur zu diesem Thema.

Heute sagt Luckey in Kenntnis des Co-60-Ereignisses von Taiwan: Mehr als 500 000 Krebstote könnten jedes Jahr in den USA durch Exposition mit ionisierender Strahlung vermieden werden. Die Möglichkeit dazu wird allerdings durch gesetzliche Restriktionen verboten [5]. Bezogen auf die Bevölkerung in Deutschland, könnte man bei uns von 200 000 Personen sprechen [11]. Rechnet man diese Zahlen hoch auf alle westlichen Industriestaaten, kommt man mehrere Million Fälle pro Jahr.

 

Angesichts dieser gigantischen Zahlen ist es gerechtfertigt, wenn Fachleute die heutigen Strahlenschutzprinzipien als den folgenreichsten wissenschaftlichen Irrtum der Neuzeit bezeichnen [12].

 

In unabhängigen Fachmedien wird über die nützlichen Strahlenwirkungen diskutiert, aber in den Massenmedien wird das Thema ignoriert. Die deutschen Hochschulen und Forschungseinrichtungen bekommen viele ihrer Gelder aus der Politik, sie sind von der Politik abhängig, müssen der Politik gehorchen um zu überleben. Auch Galileo Galilei mußte seine Einsichten widerrufen und durfte daher weiter leben.

Es gibt einen Vorschlag, wie Unabhängigkeit in der Information auf verschiedensten Gebieten per Gesetz erreicht werden könnte: Man sollte die Medien per Gesetz zu kontroversen Diskussionen verpflichten, damit der Bürger selber über richtig oder falsch entscheiden kann [13]. Das ist dringend erforderlich, denn die LNT-Hypothese und das ALARA-Prinzip sind zutiefst unmoralisch. Die Obrigkeit hat kein Recht, den Menschen die für eine optimale Gesundheit erforderliche Strahlendosis zu verweigern. Jeder Mensch sollte die Möglichkeit haben, in freier Entscheidung selber zu bestimmen, um sein Strahlendefizit durch eine Zusatzdosis auszugleichen.

 

Literatur

[1] Veröffentlichungen von Wachsmann, Feinendegen, Becker, Luckey, Calabrese, Doss; Buch von Charles L. Sanders „Radiation Hormesis and the Linear-No-Threshold Assumption“ Springer-Verlag 2010; Buch „Radiation and Health“ von T. Henriksen et.al., 2012, kostenlos unter http://tinyurl.com/nlsm4wm u.v.a.m.

[2] “Effects of Cobalt-60 Exposure on Health of Taiwan Residents Suggest New Approach Needed in Radiation Protection”, zu finden unter http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2477708/

[3] E. Calabrese, L. Baldwin, „Hormesis: The Dose-Response Revolution”, Rev. Pharm. Toxi. 2003 S. 175 – 197

[4] Vortrag R. Mitchel beim Symposium „Entwicklungen im Strahlenschutz“ am 29.11.2001, München

[5] T.D. Luckey, “The health effect of low dose ionization radiation”, J. Amer. Phys. Surgeons Vol. 13, 2, 39-42

[6] M. Doss, “Linear-No-Threshold Model vs. Radiation Hormesis”, Dose-Response, 11:495-512, 2013

[7] Deutsches Ärzteblatt Jg. 110, Heft 17, 26.4.2013, Seite 720 – 721

[8] DIE WELT vom 2.2.2017 „Nasa entdeckt Jungbrunnen-Effekt bei Weltraumreisen“ auf Seite 1

[9] http://www.regulations.gov, dort suchen nach Docket ID NRC-2015-0057

[10] J Radiol Prot. 2013 Sep;33(3):497-571.

[11] StrahlenschutzPRAXIS 4/2016 Seite 81

[12] Muckerheide: “It’s Time to Tell the Truth About the Health Benefits of Low-Dose Radiation” http://www.21stcenturysciencetech.com/articles/nuclear.html

[13] Vorschlag von Detlef Rostock, in “DEUTSCHLAND das glaubt man nicht“, ISBN 978-3-943168-93-8




Die große Koalition macht Tiere töten leicht

Die Macht-Besoffenheit der Großen Koalition kennt keine Grenzen mehr. Reihenweise werden verfassungswidrige und dilletantische Gesetze bei Nacht und Nebel durchgewunken. Hier der nächste Hammer: Vergangenen Donnerstag, am 22. Juni 2017, kam es im deutschen Bundestag zu einer erneuten Gespenster-Show. Das Parlament enteierte in einer der mittlerweile üblichen klandestinen Nachtsitzungen das deutsche Naturschutgesetz und hebt bisherige Artenschutzregelungen teilweise auf. Und dies ganz offensichtlich, um die Errichtung von Windkraftanlagen auch in Regionen zu ermöglichen, wo dies bisher tabu war.

Im Zentrum der Änderungen steht das sogenannte Tötungsverbot für Tiere. Fledermäuse beispielsweise waren nach dem Bundesnaturschutzgesetz besonders geschützt und durften nicht getötet werden. Drohte ein Bauvorhaben gegen dieses Tötungsverbot zu verstoßen, durfte es nicht genehmigt werden. Galt es, eine Straße zu verhindern, war das Gesetz sehr willkommen, beim Bau von Windrädern allerdings ein unbeliebtes Hindernis.

Jetzt haben es die Windrad-Ideologen geschafft: Parlament und Regierung setzten ein seit 2008 gehegtes Ansinnen des Bundesverbandes Windenergie durch und stellten die Interessen einer subventionsverwöhnten Branche über das artenschutzrechtliche Tötungsverbot. Das  Tötungs- und Verletzungsverbot wird zugunsten von Windenergieprojekten ausgehöhlt. Der im Dezember 2016 erstmalig aufgetauchte Gesetzentwurf für eine Novelle des Bundesnaturschutzgesetzes wurde gegen 22:15 Uhr vor wenigen Dutzend Personen zur beschlossenen Sache.

Der Verein für Landschaftspflege und Artenschutz in Bayern VFLAB und die Initiative „Vernunftkraft“ schreiben dazu:

„Nach einem Sturm der Entrüstung seitens ideologiefreier Naturschutzorganisationen war es mehrere Monate still um dieses Vorhaben gewesen. Es galt als sicher, dass in dieser Legislaturperiode nichts mehr dazu beschlossen würde. Entgegen aller Erwartung wurde das Vorhaben jedoch kurzfristig auf die Tagesordnung des Bundestages gesetzt. Offensichtlich sollte eine Aufmerksamkeitslücke genutzt und diese weitreichende Gesetzesänderung zugunsten der Windenergielobby noch kurz vor dem parlamentarischen Toresschluss herbeigeführt werden.“

Schon bisher wurden beim Bau der oft unnützen 27.000 Windenergieanlagen Artenschutzregelungen bis zum Geht-nicht-mehr gedehnt und die vom Gesetzgeber vorgegebenen Ausbaukorridore regelmäßig weit überschritten. Jetzt gibt es kein Halten mehr, in der Windanlagenbranche knallen die Sektkorken. Die ideologische  Aushebelung des Artenschutzes erinnert an die finstersten Beton-Zeiten in den 60er-Jahren, als der damalige Verkehrsminister Georg Leber versprach: „Kein Deutscher soll mehr als 20 Kilometer von einer Autobahnauffahrt entfernt leben.“ Das hat sich zum Glück erledigt, dafür soll jetzt jeder ein Windrad vor dem Schlafzimmerfenster kreiseln sehen.

Hier eine Mitteilung der Deutschen Wildtier Stiftung, die im Dezember, als der Entwurf bekannt wurde, zu dem Gesetzesentwurf Stellung nahm:

Zentrale Belange des Naturschutzes sollen im Rahmen dieser Gesetzes-Novellierung bei der Errichtung von Windkraftanlagen außer Acht bleiben. „Die Novellierung führt zu einer dramatischen Verschärfung der Bedrohung von Vögeln und Fledermäusen durch Windenergieanlagen. Und das ist inakzeptabel“, sagt Professor Dr. Fritz Vahrenholt, Alleinvorstand der Deutschen Wildtier Stiftung.

Die beabsichtigte Neufassung des § 44 des Bundesnaturschutzgesetzes soll eine Lockerung des bisherigen Tötungs- und Verletzungsverbots von Tieren festschreiben, wenn eine „Beeinträchtigung unvermeidbar ist“. Unvermeidbare Beeinträchtigungen können im Sinne der Gesetzesnovelle bei dem Betrieb von Windrädern entstehen. Das heißt, es können sowohl betriebs-, aber auch bau- und anlagenbezogene Risiken für Vögel und Fledermäuse lascher gehandhabt werden. „Die Tötung von Vögeln ist damit kein prinzipieller Hinderungsgrund für den Bau von Windkraftanlagen“, kritisiert Professor Dr. Vahrenholt.

Die ohnehin schon große Gefahr einer Kollision von Wildtieren wie Vögeln und Fledermäusen mit den Rotoren der Windenergieanlagen wird dadurch noch größer. Diese Gesetzesänderung wird dadurch begründet, dass der Ausbau der Windenergie öffentliches Interesse sei. Dies ermöglicht es Windparkbetreibern, Ausnahmegenehmigungen vom Tötungsverbot zu erhalten.

Der rasante Ausbau Erneuerbarer Energien wie der Windkraft führt schon heute zu schwerwiegenden Verstößen des artenschutzrechtlichen Tötungsverbotes (§ 44 BNatSchG). Wie dramatisch sich der Konflikt zwischen Windenergie und Artenschutz in Deutschland zuspitzt, belegt die kürzlich veröffentlichte Studie „Windenergie im Lebensraum Wald“ von Dr. Klaus Richarz, die im Auftrag der Deutschen Wildtier Stiftung entstanden ist.

Schon heute töten Windenergieanlagen rund 250.000 Fledermäuse und über 12.000 Greifvögel pro Jahr. Die Liste der gefährdeten Arten in der Studie liest sich wie das „Who is Who“ im Vogelreich. Auch der Widerstand in der Bevölkerung wächst: Eine Emnid-Umfrage vom Oktober dieses Jahres belegt: 80 Prozent der Befragten sprechen sich gegen Windkraft im Wald aus – im Osten ist die Ablehnung mit 87 Prozent besonders groß.

Während Unternehmen wie die Deutsche Bahn per Gesetz gezwungen werden, für Millionenbeträge Eidechsen umzusiedeln, eröffent der selbe Gesetzgeber jetzt dem massenweisen Töten von selten Tieren Tür und Tor. Dieses zweierlei Maß ist rein ideologisch begründet.  Ein Tier, das infolge normaler wirtschaftlicher Aktivität zu Tode kommt (beispielsweise, weil ein Industriebetrieb Abwässer verunreinigt), darf sich weiterhin als Mordopfer fühlen und genießt das volle Mitgefühl des Gesetzgebers. Ein Tier, das durch Windkraftanlagen für den Zweck der “Energiewende” getötet wird, stirbt für die gute Sache. Das hat mit einer sachgerechten Gesetzgebung nichts mehr zu tun, dafür aber viel mit Ideologie. Die Art und Weise, wie dieses Gesetz an der Öffentlichkeit vorbeigeschmuggelt wurde, spricht dafür, dass die Beteiligten das auch ganz genau wissen.

Übernommen von ACHGUT hier




RT Deutsch Exklusiv zum Klimawandel: Prof. Dr. Kirstein „CO2 ist harmlos“

In dem Gespräch mit Maria Janssen von RT Deutsch erklärt Kirstein auf welche Erkenntnisse er im Rahmen seiner Forschungsarbeit gestoßen ist und warum die Öffentlichkeit den Bericht vom Intergovernmental Panel for Climat Change unbedingt hinterfragen sollte.

Video des Interviews von RT Deutsch Reporterin Maria Janssen und Prof. Dr. Werner Kirstein Universität Leipzig

Kirstein stellt sich mit seinen Thesen gegen den weit verbreiteten Konsens in den Wissenschaften, die den Klimawandel als von Menschen verursacht ansehen.

Kirstein stellt sich mit seinen Thesen gegen den weit verbreiteten Konsens in den Wissenschaften, die den Klimawandel als von Menschen verursacht ansehen.
Mehr auf unserer Webseite: https://deutsch.rt.com/




Noch ein paar Fragen zum „natürlichen“ atmosphärischen Treibhauseffekt

Kein vernünftiger Mensch würde nämlich ernsthaft behaupten wollen, die Sonne würde zur Hälfte am Tage und zur anderen Hälfte in der Nacht scheinen. Genau das wird aber implizit bei der konventionellen Herleitung des THE aus dem Stefan-Boltzmann-Gesetz unterstellt – und das Ergebnis von -18 Grad Celsius wird dann einfach geglaubt. Ausgerechnet der vorgebliche theoretische Nachweis einer „atmosphärischen Gegenstrahlung“ als Ursache für diesen THE scheitert an genau dieser Herleitung einer „Gleichgewichts-Temperatur“ von 255° Kelvin (= -18° Celsius) für das System Erde-Atmosphäre aus dem konventionellen S-B Ansatz über die globale Energiebilanz und stellt damit einen eindeutigen Zirkelbezug auf den bereits widerlegten konventionellen S-B Ansatz dar (hier Punkt 4.11.1 Gleichung 4.87).

Beschäftigen wir uns nun einmal mit den inneren Widersprüchen dieses „natürlichen“ atmosphärischen Treibhauseffektes. Der atmosphärische Treibhauseffekt von 33 Grad wird nach seiner Ableitung aus dem Stefan-Boltzmann-Gesetz eindeutig als ein globaler Durchschnittswert berechnet. Ein solcher Durchschnittswert ist eindimensional, unsere Erde ist aber dreidimensional. Dieser THE müsste also eigentlich ebenso, wie auch die individuelle örtlich gemessene Temperatur, über Ortslage, Tages- und Jahreszeiten variieren. Aber der tatsächliche Verlauf dieses „natürlichen“ atmosphärischen Treibhauseffektes auf unserer Erde bleibt völlig ungeklärt.

Es bleibt also ernsthaft nachzufragen:

  • Gibt es beim THE eine Abhängigkeit zwischen Tag und Nacht?
  • Gibt es beim THE Unterschiede zwischen Sommer und Winter?
  • Gibt es beim THE eine Abhängigkeit von der geographischen Breite?

In der wissenschaftlichen Literatur ist nirgendwo ein Hinweis über die exakte zeitliche und räumliche Verteilung dieses THE aufzufinden, einfach nur dessen ominöser globaler Durchschnittswert von 33 Grad. Da es sich beim THE aber um einen atmosphärischen Effekt handeln soll, der über die sogenannten „Treibhausgase“ direkt von der Infrarot-Rückstrahlung der Erdoberfläche abhängig ist, müsste er überall auf der Erde nach Tages- und Jahreszeit schwanken. Denn auf der Nachtseite der Erde und im Winter auf den jeweiligen Polkappen gibt es gar keinen primären solaren Energieeintrag, um einen solchen THE über die infrarote Rückstrahlung der Erdoberfläche energetisch überhaupt „versorgen“ zu können.

Die Strahlung der Sonne ist der alleinige Klimaantrieb auf unserer Erde, und die Sonne vermag unsere Erde lediglich auf ihrer Tagseite zu erwärmen und aufzuheizen. Wenn wir einmal die durchschnittliche solare Einstrahlung nach Hartmann (1994) auf unserer Erde betrachten, dann müssen wir feststellen, dass sich die Pole unserer Erde als sommerliche „Hotspots“ erweisen:

Abbildung: Mittlere tägliche Einstrahlung an der Außengrenze der Atmosphäre in Abhängigkeit von der Jahreszeit und der geographischen Breite.

Bezugsgröße: Intergral der örtlichen Sonneneinstrahlung über 24 h geteilt durch 24 h, mit 50 [W/m²] Konturintervall

Originalquelle:        Abbildung 2.6 aus Dennis L. Hartmann “Global Physical Climatology”, Chapter 2

Volume 56 in the INTERNATIONAL GEOPHYSICS SERIES, ACADEMIC PRESS 1994

Die in der obigen Abbildung aufgetragenen gemittelten Strahlungswerte sind in der Tat etwas verzwickt: Es handelt sich hierbei nämlich nicht um absolute Strahlungswerte im üblichen Sinne, aus denen sich also mittels des Stefan-Boltzmann-Gesetzes eine Gleichgewichtstemperatur ermitteln ließe. Vielmehr wurde hier die täglich verfügbare solare Strahlungsintensität an der Außengrenze der Atmosphäre über die jeweilige Einstrahlungszeit integriert und diese tägliche Gesamtenergieenergiemenge dann durch 24 Stunden geteilt. Im Ergebnis ergibt sich also eine 24-stundendurchschnittliche solare Strahlungsintensität an der Oberfläche der Atmosphäre. Die entsprechende stundendurchschnittliche Nettointensität am Boden ergäbe sich dann unter Berücksichtigung des individuellen solaren Zenitwinkels für den jeweiligen Atmosphärendurchgang und der örtlichen Albedo.

Damit wird hier von Hartmann (1994) die These von Köppen und Wegener aus ihrem Buch „Die Klimate der geologischen Vorzeit“ (Bornträger 1924) optisch sehr eindrucksvoll bestätigt, die dort die Temperaturschwankungen über die Eiszeitalter durch die sommerliche Sonneneinstrahlung in mittleren und höheren geographischen Breiten erklärt hatten.
In der Veröffentlichung “An Albedo Approach to Paleoclimate Cycles” (Mitteilungen der Deutschen Geophysikalischen Gesellschaft Nr.3/2015) über den Zusammenhang zwischen Erdalbedo und paläoklimatischen Zyklen war das Nordpolarmeer als möglicher „Schwachpunkt“ für die zyklische Enteisung der Nordhalbkugel identifiziert worden (hier ab Seite 18, Hotspot Nordpolarmeer S. 21, untere Hälfte links). Auch hierfür liefert die Abbildung von Hartmann einen sehr wichtigen Hinweis. Aufgrund der Elliptizität der Erdbahn fällt in der Antarktis nämlich der sommerliche Stundendurchschnitt der Sonneneinstrahlung deutlich höher aus als in der Arktis. Und trotzdem bleibt dort, im Gegensatz zur Nordhalbkugel, die Eisbedeckung während der gegenwärtigen Warmzeit erhalten.

Das Aktualitätsprinzip der Geologie schreibt vor, dass für neue geowissenschaftliche Erkenntnisse zunächst eine Übereinstimmung mit den gesicherten Vorgängen der geologischen Erdgeschichte nachzuweisen ist.
Und an diesem Nachweis scheitern bisher alle Hypothesen für einen nicht-solaren Klimaantrieb:

Für einen paläoklimatischen CO2-Klimaantrieb, eine abrupte Freisetzung von Erdwärme durch „gravitationsinduzierte Modulationen“ oder gar irgendeinen hypothetischen Klimaantrieb aus dem „Plasma Universum“ als Erklärung für die paläoklimatischen Temperaturschwankungen der Eiszeitalter fehlt nämlich weiterhin jegliche wissenschaftliche Indikation.

Und die ganz neue Theorie einer gravitativen solaren Kompressionsaufheizung der Planeten will lediglich den vorgeblichen paläoklimatischen CO2-Klimaantrieb durch die Hintertür als ein natürliches planetarisches Phänomen installieren (N&Z Aussage auf S.13 Mitte links). Die Ableitung dieser Theorie krankt aber an einer impliziten Stefan-Boltzmann Herleitung über die planetare Gesamtfläche (bei N&Z in Gleichung 3), einem unbewiesenen Paläoklima-Antrieb durch Treibhausgase (N&Z Aussage auf S.13 Mitte links) und schließlich auch noch an einer vorgeblich nicht klimawirksamen planetarischen Albedo (Aussage N&Z S.15 oben links). Am Ende will man der Allgemeinheit damit also nur wieder einmal den „natürlichen“ CO2-Paläoklimaanrieb in einer neuen Verpackung als „natürlichen planetarischen“ Treibhauseffekt unterjubeln…

Alleiniger Klimamotor unserer Erde ist und bleibt aber weiterhin die Sonne!

Aus der Abbildung von Hartmann wird auch sofort deutlich, warum von der Klimawissenschaft immer wieder behauptet wird, bei einer menschengemachten Klimakatastrophe würden sich die Polarregionen doppelt so schnell erwärmen, wie die übrige Erdoberfläche. Erstaunlicherweise wird diese Aussage dann aber an die Ergebnisse von computergestützten Klimamodellen geknüpft und nicht an ihre tatsächlichen physikalischen Ursachen.
Klar wird aus solchen Aussagen auf jeden Fall, dass die Klimawissenschaft dem „natürlichen“ atmosphärischen Treibhauseffekt einen jahreszeitlich breitenabhängigen Verlauf unterstellt, ohne dass dieser jemals wissenschaftlich exakt formuliert oder spezifiziert worden wäre. Denn richtig müsste eine solche Aussage eigentlich im Präsens formuliert werden:
Die Polarregionen erhalten in den jeweiligen Sommermonaten die höchste tägliche Energiemenge auf der gesamten Erde und müssten somit auch den stärksten Einfluss eines vorgeblich menschengemachten THE-abhängigen Klimaeinflusses zeigen.

Daraus ergibt sich unmittelbar die Aufforderung an alle Protagonisten dieses „natürlichen“ atmosphärischen Treibhauseffektes, beziehungsweise einer „atmosphärischen Gegenstrahlung“:

Bitte weisen Sie uns klar und unmissverständlich den zeitlichen Verlauf nach, mit dem sich ein eindimensionaler „natürlicher“ atmosphärischer Treibhauseffekt von 33 Grad, respektive eine vorgeblich dafür ursächliche „atmosphärische Gegenstrahlung“, auf unserer dreidimensionalen Erde abbildet!

Und erzählen Sie uns bitte nicht, beides ergäbe sich vollautomatisch aus der fälschlicherweise mit dem Stefan-Boltzmann-Gesetz über die gesamte Erdoberfläche berechneten Globaltemperatur…

 

Hier einiges über das Buch des Autors (übernommen von die kalte Sonne)

Uli Webers Buch “Klimahysterie gefährdet die Freiheit” ist jetzt auch im erschwinglichen schwarz-weiß Paperback-Format erhältlich. Preis: Euro 7,99. ISBN-13: 978-3-7448-3560-2

 

Inhalt: 

Katastrophenszenarien haben sich zu den Gelddruckmaschinen der modernen Forschung entwickelt. Der Mainstream der globalen Klimaforschung macht sich gerade zum politischen Gefangenen einer CO2-Apokalypse, und aus Angst vor der prophezeiten Klimakatastrophe setzen wir unsere Marktwirtschaft außer Kraft. Dabei findet diese Klimakatastrophe vorerst nur in unseren Köpfen statt, denn es geht dabei weniger um den aktuellen CO2-Ausstoß der Menschheit, als vielmehr um den befürchteten Anstieg dieser Emissionen in der Zukunft.

Immer und zu jeder Zeit wurden der Menschheit Katastrophen vorhergesagt, insofern ist die Klimakatastrophe eigentlich gar nichts Neues. Neu ist eher, dass sich die Protagonisten dieser Katastrophe nicht mehr alter Weissagungen oder plötzlich auftauchender Kometen bedienen, um ihre Thesen unters Volk zu bringen, sondern grob vereinfachender wissenschaftlicher Modellrechnungen. Solche Berechnungen ergeben aber keine eindeutigen Lösungen, sondern Lösungswolken, deren Größe dramatisch anwächst, je weiter man sie in die Zukunft hochrechnet. Die mediale Darstellung dieser Ergebnisse bleibt dann auf plakative Katastrophenszenarien beschränkt und positive Auswirkungen eines möglichen globalen Temperaturanstiegs, allein schon durch eine Verlängerung der Vegetationszeiten in höheren geographischen Breiten, gehen in der monokausalen Panikmache um unseren anthropogenen CO2-Ausstoß völlig unter.
Die Weltbevölkerung als Ganzes hat riesige Probleme, die sich nicht auf die griffige Formel reduzieren lassen, wenn wir den Ausstoß von CO2 verhindern, wird alles gut! Die CO2-Vermeidung um jeden Preis ist eine Wette unzureichender Computermodelle gegen Mutter Erde. Eine Beschränkung auf unseren CO2-Ausstoß als alleinige Ursache für den Temperaturanstieg seit 1850 lässt die Weltbevölkerung auch in Zukunft völlig ungeschützt gegen alle natürlichen Klimaschwankungen bleiben!

Daher sollten wir das Aufkommen jeglicher Angstgläubigkeit um die vorgebliche Klimakatastrophe vermeiden und unsere begrenzten wirtschaftlichen Mittel in unserer Verantwortung als der besser verdienende Teil der Weltbevölkerung nicht nur ökologisch, sondern auch ökonomisch sinnvoll und vorausschauend zum Nutzen aller Menschen auf dieser Erde einsetzen.

Anmerkung der EIKE-Redaktion

EIKE versteht sich als Diskussionsforum, in welchem auch abweichende physikalische Auffassungen diskutiert werden können. Das bedeutet nicht unbedingt, dass EIKE diese Auffassungen teilt.

 

 

 




Offener Brief an Stadthagen: E-Mobile beim Parken zu bevorzugen ist ungerecht!

Stadt Stadthagen

Sehr geehrter Herrn Theiß, Bürgermeister-Stadthagen

Sehr geehrte Damen und Herren des RATES der Stadt Stadthagen!

Sehr geehrter Herr Eduard Hunker,

Sehr geehrter Herr Beermann MdB,

Sehr geehrter Herr Jürgen Rother, SW-Redaktionsleitung,

Sehr geehrter Herr Fügmann, SN-Redaktionsleitung,

Sehr geehrter Herr Landrat Farr – (Landkreis Schaumburg)
weiter einen freundlichen Tag!

 

Kostenloses PARKEN von E-Mobilen in Stadthagen, lt. SN vom 17.06. und 19.06.2017.

 

Ich möchte SIE bitten, ALLEN ERDGAS-PKWs den gleichen PARK-Vorteil zu gewähren. Diese Fahrzeuge sind nach ADAC ECO-Test von 2015 die UMWELTFREUNDLICHSEN PKWs. Sauberer als Alle E-Mobile und auch sauberer als alle HYBRID-PKWs.

Es geht mir hier um das PRINZIP der KLARHEIT und der EHRLICHKEIT – wie es der Schweizer Staat bzgl. der CO2-Werte RICHTIG für die ERDGAS-PKWs beurteilt.

Wenn SIE einmal auf Ihre Strombrechung von zB. 2017 schauen, steht dort, wenn SIE STROM von 1kWh verbrauchen – zB. um die Batterie eines E-Mobils aufladen, dann verursachen SIE eine CO2 ZUNAHME von 476g pro kWh, was nicht geschrieben wird + NOx + Partikel + Kohlenwasserstoffe!!!

Vergleich mit einem E-PKWs zum Beispiel einem E-GOLF lt. Zeitschrift Auto – Motor – Sport durch Testfahrten des TÜV-Süd – Kosten entsp. dem Haushaltsstrom von 28Cent/kWh:

  1. Nennfahrt 100km bei 20,6kWh = Stromverbrauchskosten von ca. 5,77€/100km
    2. Bei einer Autobahngeschwindigkeit von 120km/h bei 27,8kWh = Stromverbrauchskosten von ca.7,78€/100km.

Der CO2 Ausstoß liegt dann:

  1. bei der CO2-ZUNAHME von 98,056 CO2 g/km
  2. bei der CO2-ZUNAHME von 132,328 CO2 g/km

Lt. Deutscher Handwerks Zeitung bestätigt durch Herrn Prof. Dr.Ing. Alt FH-Aachen können SIE Ihre CO2 Zunahme selber mit der nachstehenden Formeln recht genau berechnen:

http://www.deutsche-handwerks-zeitung.de/kraftstoffverbrauch-in-co2-ausstoss-umrechnen/150/3097/57956

Ein Liter Benzin entspricht 2.320 Gramm Kohlendioxid.

Ein Liter Diesel schlägt mit 2.650 Gramm CO2 zu Buche.

Ein Liter Autogas LPG mit 1.790 Gramm CO2 zu Buche.

Für ein Kilogramm Erdgas müssen 1.630 Gramm CO2 angesetzt werden. (H und L-Erdgas)

So wird der Kraftstoffverbrauch in CO2-Emissionen umgerechnet:

Benzin: Kraftstoffverbrauch pro 100 Kilometer mit 23,2 multiplizieren. Beispiel: 7,5 Liter/100 km => 7,5 mal 23,2 = 174 g CO2/km

Diesel: Kraftstoffverbrauch pro 100 Kilometer mit 26,5 multiplizieren. Beispiel: 5,5 Liter/100 km => 5,5 mal 26,5 = 145,8 g CO2/km

LPG Autogas : Kraftstoffverbrauch pro 100 Kilometer mit 17,9 multiplizieren. Beispiel: 9,5 Liter/100 km => 9,5 mal 17,9 = 170,1 g CO2/km

CNG Erdgas : Kraftstoffverbrauch pro 100 Kilometer mit 16,3 multiplizieren. Beispiel: 5,3 Kilogramm/100 km => 5,3 mal 16,3 = 86,4 g CO2/km.

Mein 3. Erdgas-Pkw ist eine Skoda-Octavio-Combi G-TEC, Baujahr 4.2016 – gesamt gefahren seit 2001 ca. 430.000km deutschland- und europaweit!

Ich fahre mit H-Erdgas auf der Autobahn im Bereich von 3,4-3,7kg x 16,3 = 57,9g/km CO2 !!!

Da ich im Bereich Bad Nenndorf nur L-Erdgas bekomme, benötige ich für die kleinen Strecken ca. 4,6kg x 16,3 = 74,9g/km !!!

Im Bereich Landkreis Schaumburg tanke ich überwiegend in Bückeburg ERDGAS, somit Kosten für den Nahbereich 4.14€/100km!!! Ich habe in ca. 1 1/2 Jahren dafür gesorgt, dass die Erdgas-Tankstelle an der Autobahnabfahrt Bad Nenndorf gebaut wurde – auch da tanke ich!

Also ist eine Erdgas-PKW das umweltfreundlichste Auto, auch viel besser als die e-Mobile – wie der TÜV-SÜD richtig feststellte. Im Winter bei 0 bis -5 Grad Cel. haben diese PKWs nur noch eine ca. 40-50% Reichweite.

Ich glaube heute mehr an die Entwicklung der PKWs in Richtung Brennstoffzellen lt. Messe-Hannover von Audi ca. 6kg Wasserstoff ca. 500km Reichweite = wirklich umweltfreundlich!

Wie schon Herr Prof. Dr.-Ing. Endres – UNI-Clausthal-Harz – Batterieforschung feststellt, sind die Energiedichten der heutigen Batterien mit max. von 0,17 kWh/kg (TESLA) Materialgewicht noch viel zu gering. Es wird sicherlich noch mehr als 20 Jahre Entwicklungsarbeit benötigt, um in den Bereich von 0,5 bis 1kWh/kg zu kommen.
Benzin liegt hier bei 11,8kWh/kg und Erdgas bei 12,9kWh/kg = 76 x größer als 1kg Batterie.

  1. Anmerkungen zum Thema Batterien:

Eine neue Untersuchung durch die staatlich schwedische Verkehrsverwaltung über die Klimaauswirkungen (CO2) bei der Herstellung von Lithium-Ionen-Batterien zeigt folgendes:

Untersucht für die E-PKWs Nissan Leaf und Tesla Model S.

Allerdings sind die Batterien von Elektroautos bei der Herstellung nicht umweltfreundlich. Mehrere Tonnen Kohlendioxid werden freigesetzt, noch bevor die elektrischen Batterien das Werk verlassen kann. Sobald Sie das Auto kaufen, werden CO2-Emissionen von ca. 5,3 Tonnen (Leaf) bzw. 17,5 Tonnen (Tesla) der Umwelt zugeführt!

Es wurde dann berechnet wie lange Sie dafür einen Benzin- oder Diesel-PKW fahren können – es sind für den kleinen PKW 2,7 Jahre und für den Tesla ca. 8,2 Jahre – Man sollte nicht mit einer Menge Kilowattstunden unnötig herumfahren. In einigen Fällen kann ein Plug-in-Hybrid das Optimum sein – so die Studie!

 

Besser gleich einen Skoda-Octavia-ERDGAS G-TEC PKW – wie ZB. von der SchWEIZ mit 4.000,-SF beim KAUF gefördert – in Deutschland wird dieses aus ideologischen Gründen dem Umweltfreund VERWEIGERT – ein deutsches Trauerspiel!!!

Lithium-Reserven am Limit – Elektromobile weltweit – eine Utopie – Die globalen Reserven an Lithiumsalzen beziffert MIR mit 58 Millionen Tonnen. Doch wirtschaftlich gewinnen lassen sich nur 35 Millionen. Der größte Teil davon – rund 75 Prozent – ist in Salzseen zu finden die im „Lithium Dreieck“ Chile Bolivien und Argentinien liegen. Globale Automobilflotte =  1,3 Milliarden Fahrzeuge!

Auch wenn statt reinen E-Mobilen Hybridfahrzeuge gebaut würden, die mit Elektro- und Verbrennungsmotor fahren, würde die Weltproduktion an Lithiumkarbonat nicht für die globale Fahrzeugflotte reichen!!!

Mehr zu der Studie:

http://www.thegwpf.com/new-study-large-co2-emissions-from-batteries-of-electric-cars/

 

Mit einem „ freundlichen Gruß aus “ Bad Nenndorf „

W.-Ing. Büro Hartmut Hüne

 

Anlage: die Umweltprämie für ERDGAS-PKWs lt. der Schweiz und WO bleibt DEUTSCHLAND, wie immer = NULL???

 

Hartmut Hüne ist EIKE Mitglied und arbeitet und lebt in der Nähe von Stadthagen

 




Grenfell-Tower, Asbest, Fukushima – einige unbequeme Vergleiche

Die Zahl der Toten und für tot gehaltenen Vermissten ist nach dem Brand im Grenfell-Tower-Hochhaus in London – Stand 19. Juni – auf 79 gestiegen. Es ist inzwischen klar, dass die aus Klimaschutzgründen angebrachte Fassadendämmung dabei wie ein Brandbeschleuniger wirkte. Es ist auch eine Tatsache, dass in Deutschland ebenfalls aufgrund sich rasend ausbreitender Dämmstoff-Brände Menschen gestorben sind. Es ist ferner belegt, dass es nur glücklichen Umständen zu verdanken ist, dass bisher nicht mehr passiert ist. Die Feuerwehren warnen seit langem. Das wurde auf der „Achse“ unlängst ausführlich hier beschrieben.

Angesichts dieser Sachlage ist die politische und mediale Reaktion auf ein Hochrisiko, das viele tausend Menschen bedroht, überaus erstaunlich. Schulterzuckend wird beispielsweise in der „tagesschau“ gemeldet, „dass sich die Flammen über die Fassadendämmung rasch ausbreiten konnten“. Der Ruf nach irgendwelchen Konsequenzen auch hierzulande aber bleibt weitgehend aus. Statt dessen wird das Problem auf illegale oder schlampige Bauausführung verlegt: „Die Gebäudeverkleidung war möglicherweise verboten.“ Der Subtext solcher Analysen lautet: „Bei uns kann das nicht passieren.“ Ganz so, als ob bei uns nicht geschlampt und beschissen wird, ich empfehle einen Abstecher zum BER.

Video zu den Gefahren der Wärmedämmung bei Verwendung von Styropor als Dämmmaterial. Die teurere Steinwolle ist zwar unbrennbar aber auch ihre Verarbeitung mit Harzen und den Trägergerüsten – oft aus Holz- auch nicht gänzlich ungefährlich.

Vor allem aber: Es ist bei uns schon passiert. Zwar sind Dämm-Materialien wie die in London verwendeten ab einer Höhe von 22 Metern hierzulande verboten, darunter sind sie aber erlaubt, weil angeblich „schwer entflammbar“. Wenn diese Stoffe allerdings erst einmal „schwer“ entflammt sind, brennen sie bedauerlicherweise wie Benzin und es entstehen giftige Gase mit Inhaltsstoffen wie Dioxin. Und das ist eben auch unter 22 Metern lebensbedrohlich.

„Dazu sollte der Brand Anlass geben, über die monumentale Öko-Schizophrenie nachzudenken, in die Politiker und Planer sich von einer mächtigen Dämmstoffindustrie drängen ließen“, mahnt Niklas Maak in der FAZ  vom 19. Juni („Die mordende Stadt“, leider nicht online), „mag sein, dass eine korrekt aufgebrachte Wärmedämmverbundfassade…schwer brennt, wenn die Bauaufsicht die minutiöse Einhaltung der Regeln überwacht. Das Problem ist nur: Sie wird selten hundertprozentig korrekt aufgebracht…“. Stimmen, wie die von Maak sind aber die Ausnahme.

Kanzlerin macht unverdrossen Dämmstoff-PR

Ansonsten bleibt in der Medienlandschaft der Ruf nach Konsequenzen und einer Korrektur der völlig überzogenen deutschen Dämmvorschriften aus. Die Krönung ist freilich ein aktuelles, gerade drei Tage altes PR-Video der Bundeskanzlerin mit einer „Immobilienwissenschaftlerin“ auf der Internet-Seite der Bundesregierung. Wer das Video anschaut, traut seinen Ohren nicht. „Der größte Teil des Wohnungsbestandes ist vor 1979 gebaut und da muss man sagen sind mindestens die Hälfte nicht wärmegedämmt, das heißt der Altbau ist der schlafende Riese, bei der Frage, wie kann ich CO2 sparen“, sagt die Kanzlerin und fügt hinzu: „Wir wissen, dass von den Umweltverbänden bis zu den Handwerkern, alle dahinter stehen…“.

Richtig: Alle die, die an diesem gefährlichen Irrsinn verdienen, stehen dahinter. Mit einer Ausnahme: Die Mieter, die für eine ökonomisch unsinnige, ökologisch oft kontraproduktive und gesundheitlich obendrein bedenkliche Sanierungsmaßnahme höhere Mieten bezahlen müssen. Das trifft natürlich besonders Menschen mit kleineren Einkommen, die in sogenannten „Mietskasernen“ wohnen. Zur Belohnung dürfen sie jetzt auch noch jeden Abend beten, dass niemand eine brennende Mülltonne an die Fassade schiebt.

Der „schlafende Riese – oder besser gesagt „Der Elefant im Raum“  – ist erstens das Brandrisiko, zweitens sind es Schimmel- und Gebäudeschäden, weil sich alter Baubestand und luftdichte Kunststoffe schlecht vertragen, und drittens die spätestens nach 20 Jahren – wenn nicht viel früher – anfallenden Entsorgungskosten, weil viele dieser Stoffe als Sondermüll deklariert sind. Die Dämm-Manie erinnert auf fatale Weise an die Karriere des Baustoffes Asbest, der aber zumindest einen Vorteil hatte: Er brannte nicht. „Asbest wurde auch ‚Wunderfaser‘ genannt, weil er eine große Festigkeit besitzt, hitze- und säurebeständig ist, hervorragend dämmt und die Asbestfasern zu Garnen versponnen und diese verwebt werden können“, heißt es auf Wikipedia. Als sich dann aber herausstellte, dass die lungengängigen Fasern gesundheitsgefährdend sind, wenn sie in die Raumluft gelangen, wurde das lange ignoriert. Als ignorieren nicht mehr ging, wurden alleine in Deutschland viele Milliarden ausgegeben, um das Zeug wieder loszuwerden. Statt dessen kleben wir jetzt Brandbeschleuniger an die Fassaden.

Fest entschlossen, aus Schaden nicht klug zu werden

Man ist offenbar fest entschlossen, aus Schaden nicht klug zu werden. Es drängt sich auch auf, einmal zu fragen, in welcher Weise von der Bundesregierung und im Gros der Medien bei Katastrophen und Unfällen die Gefahren und Risiken abgewogen werden. Als beispielsweise der Tsunami 2011 das japanische Atomkraftwerk Fukushima zerstörte, fackelte die Bundeskanzlerin nicht lange und verkündete den Atomausstieg. „Die dramatischen Ereignisse in Japan sind ein Einschnitt für die Welt, ein Einschnitt für mich ganz persönlich“, erklärt sie. Erst drei Monate danach sei das ganze Ausmaß deutlich geworden. „Noch immer steigt radioaktiver Dampf in die Atmosphäre“, so Angela Merkel. Die Katastrophe von Fukushima habe ihre Einschätzung des Restrisikos der Kernkraft verändert. Frau Merkel warf daraufhin und auf Empfehlung einer „Ethik-Komission“ die bewährte deutsche Energie-Infrastruktur kurzerhand auf den Müll – und langfristig einige Billionen Euro hinterher.

Dazu muss man wissen: Die Weltgesundheitsorganisation (WHO) stellte ein Jahr später fest, dass durch die Strahlung nach der AKW-Katastrophe in Japan kein einziger Mensch ums Leben kam und kaum gesundheitliche Spätfolgen zu erwarten sind. Doch wer dies in Deutschland ausspricht, ziehst allgemeine Empörung auf sich, gilt als zynischer Verharmloser. Auch nach Fukushima kam übrigens aus der Fachwelt der Hinweis, dass eine solche Katastrophe bei uns nicht möglich sei. Allerdings stimmte dies im Falle Fukushima sogar nachweislich: Ein Tsunami ist in Deutschland nun wirklich nicht zu erwarten. Und auch sonst ist im Land der sichersten AKW’s bislang nichts wirklich Beunruhigendes vorgefallen: Dank strikter Sicherheitsstandards musste kein einziger Bewohner dieses Landes im Zusammenhang mit einer von einem deutschen AKW ausgehenden Strahlengefahr auch nur evakuiert werden.

Die mehr als 15.000 Opfer des Tsunamis und des Erdbebens in Japan waren in deutschen Medien übrigens nur kurz ein Thema, sie ließen sich schlecht instrumentalisieren (allenfalls indem man sie in bester fake news-Manier dem AKW-Unfall unterschob). Statt auf die schreckliche Naturkatastrophe konzentrierte sich die öffentliche Aufmerksamkeit auf die zerstörten Reaktoren. Die passten offenbar besser ins mediale Feindbild. Genauso wie Fassadenbrandsätze offenbar nicht ins mediale Feindbild passen, wenn sie angeblich das Klima retten. Und das trotz des furchtbaren Todes von 79 Menschen alleine jetzt in London. Die Beteiligten sollten jedoch eines wissen: In der Geschichte werden sie einst einen ähnlichen Platz einnehmen wie die Gesundbeter von Asbest.

Der Beitrag erschien zuerst auf ACHGUT hier




Das wärmste Jahr seit Aufzeichnung ? Wie uns öffentlich rechtliche Medien in die Irre führen!

So gut wie immer – wenn wir mit dem als künftig katastrophal eingestuften Temperaturanstieg – kurz Klimawandel genannt – von den Medien konfrontiert werden, vermelden diese unisono nur eine Temperaturdifferenz, statt wie beim Wetterbericht die absoluten Temperaturen zu nennen. Wie dumm würden sämtliche Wetterfrösche im Fernsehen oder Rundfunk aus der Wäsche gucken, wenn man von ihnen verlangte, dass sie das Wetter von morgen mit der Meldung beginnen sollen :

„Morgen wird es um 4 Grad wärmer als letzte Woche, aber es kann auch 10 Grad mehr werden. Das wäre dann die Höchsttemperatur.“

Sie würden nicht nur dumm aus der Wäsche schauen, sondern sich vermutlich vehement dagegen wehren. Schließlich wollen sie seriös bleiben, zumindest aber so erscheinen.

Denn wenn sie das nicht täten, dann würde seitens der Zuschauer ein Shitstorm, wie man das heute nennt, und das völlig zu Recht- über sie hereinbrechen. Denn Flora und Fauna, die gesamte belebte wie unbelebte Natur, reagieren einzig allein auf die absoluten Temperaturwerte, nicht auf irgendwelche Differenzen. Und weil Wetter eine viel zu ernste Angelegenheit ist, bei der jeder sachkundig mitreden kann, unterlassen die Wetterfrösche diesen Versuch von vornherein

Doch beim Klima mutet man uns das zu. Und nennt nur Temperaturdifferenzen. Die werden dann in Beziehung gesetzt mit wissenschaftlich präzise klingenden Metaphern wie „.. seit dem Beginn der Aufzeichnungen“. Ganz Ehrliche melden dann noch eine Jahreszahl „..seit dem Beginn der Aufzeichnungen im Jahre 1880“.

Dann gibt es auch noch solche die völlig Unbestimmtes sagen, aber Bestimmtheit vorgaukeln wollen. Die sagen dann ..“bezogen auf die vorindustriellen Werte!“, wie z.B. die hochrangigen Diplomaten und Staatschefs, die das Pariser Klimaübereinkommen von 2015 verhandelt und beschlossen haben.

Und jeder glaubt zu wissen, was gemeint ist.

Doch das ist falsch! Denn niemand weiß, wie hoch diese Werte waren. Jedenfalls nicht auf ein Grad C oder gar weniger genau. Niemand! Wer das behauptet, hat entweder keine Ahnung von Messtechnik, Fehlerstatistik etc. oder will betrügen.

Und genau das ist vermutlich das Problem, vielleicht sogar die Absicht, derjenigen, die uns beinahe täglich von neuen Temperaturrekorden berichten und es dabei absichtlich unterlassen, die zugehörigen absoluten Temperaturen zu benennen. (Siehe auch hier „kühler ist das neue wärmer“)

So kann unwidersprochen ein Professor aus Potsdam namens Schellnhuber (Im Video 9:56 Min) im Fernsehen auftreten und über eine winzige, unmessbare und völlig im Fehlerrauschen verschwindende Mikro-Temperaturdifferenz einen „deutlichen Abstand“ zu 2015 nennen, sein Kollege Latif (Im Video 9:44 min) darf dann – ohne Augenzwinkern- von „großem Abstand zu 2015“ reden.

Und keiner von den hochbezahlten Anchorman oder Anchorwoman, keine Dunja Hayali, keine Anja Reschke, sonst mit großer und spitzer Klappe immer schnell dabei, fällt diesen Leuten ins Wort und fragt ob sie das wirklich ernst meinten, oder ob sie sie auf den Arm nehmen wollten.

Denn dieser „große und deutliche Abstand“ betrug gerade mal 7/100 °C, aber auch nur dann, wenn man daran glaubt, dass diese Leute bei der Bestimmung des Kunsbegriffes „globale Mitteltemperatur“ zaubern können.

Das 30-minütige Video dokumentiert, wie bei ARD und ZDF VORSÄTZLICH (!) über den Schwindel mit der Erderwärmung getäuscht wird, denn Rundfunkräte beim WDR und NDR waren nachweislich über die Täuschungspraktiken in den TV-Sendern informiert worden. Und nun, just sogar während der Ankündigung von Donald Trump aus dem Pariser Klimaabkommen auszusteigen, haben es die Journalisten beim WDR und NDR wieder getan..

Für alle anderen, ist das eine Differenz, die niemand messen, schon gar nicht weltweit, und erst recht nicht fühlen kann. Und den mit Abstand stärksten El Nino seit Jahrzehnten, der für die Erwärmung unbestritten verantwortlich war, unterschlugen sie auch alle.

Schon der Fürst der Mathematiker, Carl Friedrich Gauss, hatte solche Leute treffsicher auf dem Kieker, als er korrekt feststellte

„Übertriebene Genauigkeit ist das Kennzeichen schlechter Mathematiker“.

Doch wir sollen denen glauben, wenn es um das „Weltklima“ geht. Lächerlich! Einfach lächerlich!

An vorderster Front dabei sind natürlich die öffentlich rechtlichen Medien, egal ob in Deutschland oder in der Schweiz oder in Österreich.

Wie sie das anstellen, welche Darstellungs-Tricks – sozusagen ihre gezinkten Karten- sie dabei verwenden, hat dankenswerter Weise das Team vom Klimamanifest von Heiligenroth sauber recherchiert und dokumentiert. Es ist wieder mal eine klare Abrechnung mit der Lückenpresse.

Und da nützt auch die künstliche Erregung einer Frau Hayaly oder einer Anja Reschke nichts mehr. Der Zuschauer erkennt die Absicht und ist verstimmt. Sollte er wenigstens.

 

Das obige Video enthält thematisch einen Zusammenschnitt aus dem folgenden 138minütige Video:
https://youtu.be/GtBqlRUiP2g

 




WAZIRISTAN UND ANGEWANDTE MATHEMATIK

Kapitel 1Das Ministerium von Tarek Al Wazir versucht sich unter dem 19.05.2016 in einem Flyer, daselbst Nr. 5, an der höheren Mathematik.

Oft hilfreich: Das kleine Einmaleins, Bild Fotolia #62775127 | Urheber: Sauerlandpics

Auf die angeblich mythische (weil windkraftnutzungskritische) Behauptung „JEDES WINDRAD BRINGT TAUSENDE LITER GEFÄHRLICHER STOFFE IN DEN WALD!” präsentiert das Ministerium den ebenso angeblichen Fakt „Jeder vollgetankte Traktor bringt potenziell mehr gefährliche Stoffe in den Wald als ein Windrad.”

Nein, es ist keine Polemik, zu behaupten, daß dieser vermeintliche Fakt erst recht ein Mythos ist und daß in Waziristan die Windmühlen wohl auf dem Jahrmarkt beschafft werden, getriebefrei und umweltverträglich. Denn bewegte sich die Heeresleitung im Hessischen Wirtschaftsministerium näher an den Realitäten, lägen ihm die folgenden Gedanken nicht fern.

Kapitel 2

Vergleichen wir nun einen Traktor mit einer WKA, die über ein Getriebe verfügt.

Als Traktor wählen wir den Fendt 312 Vario (120 PS).


Abb.1 Fendt 312 Vario (Ádám Bánki TRakodó Import gépek 2017)

Als WKA nehmen wir die Vestas 126 (mit Getriebe, sorry, liebe Fa. Enercon)


Abb.2 V-126 Hainhaus (Tilman Kluge 2016)

Wichtig ist, daß der Vergleich auf einer gemeinsamen Grundlage, hier sinnvollerweise und realistisch auf der Fläche eines Windparkes, erfolgt.

Kapitel 3

Der Traktor enthält etwa 130 l Betriebsöle für Getriebe, Kühlung, u. Hydraulik, dazu 200 l Sprit (Diesel), der jedoch, da der Traktor nicht immer vollgetankt ist, nur zur Hälfte angerechnet wird. Wir gehen also von 230 Litern einschlägiger Betriebsmittel aus.

Eine WKA Vestas 126 enthält insges. ca. 2000 l Betriebsöle für Getriebe, Kühlung u. Hydraulik, Selbst bei Substitution der Hydraulikmotoren durch E-Motoren (Azimut, Pitch) und damit einer Einsparung dünnflüssiger Hydrauliköle, bliebe es immer noch bei 1800 l.

Nun verlangt die Realität nach weiteren Faktoren, z.B. nach dem Faktor „Anzahl” und auch nach dem Faktor „Zeit”.

Die Anzahl der WKA liegt in einem Windpark nicht bei 1, sondern bei idR › 3 Stück, also mit Betriebsölmengen von › 8000 l. Und die WKA halten sich 24 Stunden am Tag im von ihnen bestandenen Waldsegment auf. Ein Traktor bringt es dort im Jahr auf weit weniger Stunden, lassen wir es 200 im Jahr sein.

Das Risiko in dem Vergleich „Gefahr durch Traktor ./. Gefahr durch WKA” in einem Windpark errechnet sich vergleichsweise weiter wie folgt:

Kapitel 4

Wir rechnen [(Betriebsöl von 4 WKA 8.000 Liter) × (8766 Stunden) ÷ (Betriebsstoffe v. 1 Traktor 230 Liter) × (200 Stunden)] = 1.524 : 1, im Ergebnis also „gerundet” 1.500 : 1. Das Risiko liegt also für den Traktor 1.500 mal niedriger als bei einem Windpark mit 4 WKA oder 375 mal niedriger als bei einer WKA.

Kapitel 5

Zusammenfassend bleibt festzustellen, daß es sich eigentlich bei dem perversen Vergleich „Traktor ./. WKA” schon vom Grunde her verbietet, hier nachzurechnen. Doch die hier vorgenommene Berechnung ist der Tatsache gezollt, daß es zum einen immer noch Menschen gibt, die an die Korrektheit derlei perverser Vergleiche glauben und daß diesem Mißstand abgeholfen werden muß. Zum anderen ist das dem Fakt gezollt, daß einige Rechenübungen noch niemandem, zumal verbunden mit zweifellos gegebenem Unterhaltungswert, geschadet haben. Denn wer den Schaden hat, spottet jeder Beschreibung.

Tilman Kluge, Steinhohlstrasse 11a, 61352 Bad Homburg (6/2016)

 




Negative Preise – Planillusion und bizarrer Markt

Dem alten Gemüsehändler traten immer mehr Schweißperlen auf die Stirn, die in der Abendsonne glänzten. Aber was sollte ich tun? Ihm am Ende des Tages die letzten Tomaten aus Mitleid abkaufen? Er wollte für das Kilo wirklich nur einen Spottpreis haben, aber es lagen noch genügend Tomaten daheim. Sollte ich meine wegwerfen, statt er seine? Schließlich kam er um den Tisch herum und verbesserte sein Angebot, indem er mir die Tomaten samt Tüte schenken wollte. Aber was hätte ich davon, für ihn die Entsorgung zu übernehmen? So betrachtete ich das Gespräch als beendet und wandte mich zum Gehen. Nach wenigen Schritten hatte er mich eingeholt. Einen Euro wolle er mir zahlen, wenn ich die Tüte und Inhalt mitnehme.

Abbildung 1 oben
Am 1. Mai wurde ab Mitternacht bis 17 Uhr in deutschen Kraftwerken für negative Strompreise produ- ziert! Der Produktionsertrag von rd. 619 Millionen kWh wurde mit rd. 27 Millionen Euro (rd. 4,3 ct/kWh) an die vergütet, die bereit sind den überschüssig erzeugten Strom als Geschenk zu über- nehmen. Auf dieser Basis sind keine gerechten Löhne der erbrachten „Arbeit“ zu erwarten, für die der 1. Mai steht. Auszug aus Ausgewählte Kapitel der Energiewirtschaft von Prof. Dr. Helmut Alt
 

Während ich noch sinnierte, was ihn wohl dazu bewogen haben könnte, hatte er schon auf zwei Euro erhöht.

Auf dem Heimweg entsorgte ich die roten Früchte im Straßengraben und freute mich über drei Euro mehr in der Tasche, die ich am nächsten Bierstand zum Einsatz brachte. So war der Händler die Tomaten los und ich hatte anstelle der nicht benötigten Tomaten auch einen Vorteil.

Dunkelflaute von Frank Hennig; zu bestellen zB. hier

 

Tomaten und Elektrizität

Total unglaubwürdig, die Geschichte? Nein, nicht wenn es sich bei dem Produkt anstelle der Tomaten um elektrische Energie handelt. Bei diesem Wirtschaftsgut gibt es die Besonderheit, dass es zeitsynchron erzeugt und verbraucht oder, korrekt ausgedrückt, umgewandelt werden muss. Der Unterschied im Handel besteht nun darin, dass der Gemüsehändler die nicht mehr verwertbaren Früchte kompostiert oder verfüttert, niemals aber einem Kunden für die Abnahme noch Geld gezahlt hätte.

Anders beim Strom im weltweit einmaligen Energiewendewunderland. An 19 Tagen im Jahr 2016 taten für 97 Stunden die Stromhändler das, was der oben beschriebene Gemüsehändler in seinem Leben nie getan hätte – Ware verschenken und Geld dazugeben. Ein Zeichen erschöpfter Regelfähigkeit des Systems und Folge von Planwirtschaft, die Technologien bevorzugt (Einspeisevorrang), überwiegend fest vergütet und auf Marktsignale nicht gesamtwirtschaftlich sinnvoll reagieren kann.

Als erste Reaktion auf solche Ereignisse kommt von Seiten der Wendebewegten der Vorwurf des „verstopfenden“ Kohle- und Atomstroms. Warum fahren die Konventionellen nicht weiter zurück oder gehen außer Betrieb, wenn zum Zeitpunkt niedriger Last die Regenerativen powern? Dafür gibt es mehrere Gründe:

  • Zur Netzstabilität sind zwingend Systemdienstleistungen erforderlich (Wirk-  und Blindleistungsregelung, also Frequenz- und Spannungshaltung). Die Massenträgheit der Turbogeneratoren glättet die Mikroschwankungen im Netz. Die Netzreserve zum kurzfristigen bedarfsgerechten Hochregeln muss erhalten bleiben. Man spricht hier auch vom „Must-Run-Sockel“. Ohne Einbettung in ein stabiles und regelfähiges Netz würden die volatilen Einspeiser das Netz innerhalb von Sekunden kollabieren lassen.
  • Konventionelle Kraftwerksblöcke haben in der Regel Anfahrzeiten im Stundenbereich. Wenn man alle Blöcke an einem Standort abschalten würde, lägen die Anfahrzeiten im Bereich eines Tages. Dann könnte schon längst wieder Flaute sein.
  • Weitere Restriktionen ergeben sich durch die technisch fahrbaren Mindestlasten und die teils nötige Bereitstellung von Fern- oder Prozesswärme für Haushalte und Industrie (wärmegeführte KWK-Anlagen).
  • Für die Betreiber ist es eine wirtschaftliche Abwägung, einige Stunden Verluste in der Hoffnung auf nur kurzfristige negative Strompreise durchzuschwitzen und damit die erheblichen Außer- und Inbetriebnahmekosten zu sparen. Auch die Teilnahme am Regelleistungsmarkt fließt in die Betrachtung der Opportunitätskosten ein. Im Grunde ein betriebswirtschaftliches Problem, das neben den ohnehin niedrigen Strompreisen die wirtschaftliche Situation der konventionellen Kraftwerksbetreiber weiter verschlechtert, erkennbar an den Bilanzen von Stadtwerken und Großversorgern.

Im Jahr 2011 traten an sechs Tagen stundenweise negative Strompreise auf, 2015 an 25 Tagen, Tendenz weiter steigend. Starkwind zu Weihnachten und viel Sonne zu Pfingsten sind bei entsprechend niedrigem Bedarf die besten Voraussetzungen für negative Strompreise.

 

Bezahlte Geschenke

Am 8. Mai 2016 drückte so viel Wind- und Sonnenstrom ins Netz, dass 352 Millionen Kilowattstunden Strom und 21,3 Millionen Euro den benachbarten Energieunternehmen geschenkt wurden. Mit dieser Strommenge hätte man etwa 117.000 Dreipersonenhaushalte ein Jahr lang versorgen können. Für die deutschen Kunden wurde es teuer, denn der überschüssige Strom kostete sie per EEG 70 Millionen Euro, macht in Summe also 91,3 Millionen. Am 1. Mai 2017 waren es sogar 40 Millionen Euro Geldgeschenk ans Ausland. Für die Strombörse EEX in Leipzig ein „natürliches Phänomen des kurzfristigen Stromhandels“. Die Börse verdient bei jedem Handel mit – auch beim schlechten.

Die Unionsfraktion im Bundestag forderte, man dürfe neu gebauten Wind- und Solaranlagen bei negativen Strompreisen keine Vergütung mehr zahlen. Angesichts der zunehmenden Marktverzerrung kam die Regierung nicht umhin, die bisher für sakrosankt erklärte Einspeisevergütung tatsächlich anzutasten – wenigstens ein klein wenig. Seit 2016 gilt nun für Neuanlagen der Paragraf 24 des EEG, der festlegt, dass Windkraftanlagen größer als drei Megawatt und andere EE-Anlagen größer als 500 Kilowatt installierter Leistung bei negativen Preisen für mehr als sechs Stunden keine Vergütung mehr erhalten. Freiwillig änderte die Bundesregierung das EEG 2016 allerdings nicht. Der zeitweise Stopp der Vergütungszahlung geht im Kern auf Vorgaben der Europäischen Union zum Beihilferecht zurück. Die Umwelt- und Energie-Beihilfe-Leitlinie der EU (UEBLL) untersagt eine Förderung der Stromerzeugung bei negativen Preisen. Ausnahmen sind grundsätzlich zugelassen.

 

Sanfte Korrektur

Die Windbranche war zunächst bezüglich der Auswirkungen des Paragrafen 24 verunsichert. Erstmalig durchwehte ein leichter Hauch unternehmerischen Risikos die Branche. Befürchtungen zu den Auswirkungen reichten bis zu einer kompletten Unwirtschaftlichkeit zukünftiger Windprojekte. Die Thinktanks der Branche stellten Wirtschaftlichkeitsrechnungen auf, in denen befürchtet wird, dass neue Windkraftanlagen bis 2040 dadurch die Hälfte ihres Profits einbüßen könnten. Schon der betrachtete Zeithorizont lässt erkennen, dass man überhaupt nicht daran denkt, die Stromeinspeisung grund- und regellastfähig, mithin systemkompatibel zu machen. Die rückwirkende Betrachtung ergibt jedenfalls, dass sich Paragraf 24 bisher kaum ausgewirkt hätte. Dennoch grübelt man gegen den Paragrafen an und forderte zunächst seine Abschaffung. Da dies erfolglos war, zieht man Möglichkeiten der Gestaltung in Erwägung, indem man beispielsweise die hohe Einspeisung mit der Folge negativer Preise ab der fünften Stunde durch gezielte Abschaltungen und somit die Wirkung des Paragrafen verhindert. Nach einer Stunde eines Null- oder Positivstrompreises kann man wieder zuschalten und die Uhr läuft wieder los.

Die Tendenz ist deutlich, die Zeiten negativer Strompreise werden zunehmen. Maßgeblichen Einfluss haben auch die Austauschkapazitäten mit den Nachbarländern. Da die Übertragungskapazitäten zwischen Deutschland und Südeuropa nicht ausreichen, sucht sich der Strom oft den Weg über Polen und Tschechien. Diese Länder intervenierten darauf hin beim europäischen Regulierungsverband ACER, der nun die Aufhebung der gemeinsamen Preiszone Deutschland/Österreich durchsetzen will. Sollte diese heute einheitliche Zone aufgeteilt werden, ergeben sich in Deutschland längere Zeiten negativer Preise und für die Endkunden in der Alpenrepublik, die bisher vom niedrigen deutschen Börsenpreis profitierten, höhere Preise.

Energiepolitik bizarr: Während in Brüssel Europa-Politiker von einem baldigen Binnenmarkt für Elektrizität oder sogar einer Energie-Union reden, passiert in der Realität das Gegenteil: Re-Nationalisierung und Fragmentierung des europäischen Marktes, die Errichtung von Grenzen und der Aufbau neuer Handelshemmnisse auf Grund eines deutschnationalen Sonderwegs. Dabei besteht der Engpass nicht in fehlenden Leitungen zwischen Deutschland und Österreich, sondern an mangelnden Trassenkapazitäten zwischen Nord- und Süddeutschland. Verschiedene Strompreiszonen in Deutschland sind politisch allerdings (noch) nicht durchsetzbar.

Es bleibt die spannende Frage, ab wann auf dem Weg zu „100-Prozent-Erneuerbar“ die Regenerativen endlich Verantwortung am System Netz übernehmen werden. Dies wird mit dem Ziel der Gewinnmaximierung der Branche kollidieren, so dass neue Subventionstatbestände oder Umlagen zu erwarten sind.

 

Was tun?

Wie sähe eine pragmatische Lösung aus? Negative Preise dürften an der Börse nicht mehr zugelassen werden, was bedeuten würde, alle Einspeiser oberhalb des Must-Run-Sockels ohne Entschädigung abzuschalten, aus Kostengründen die mit den höchsten Einspeisevergütungen zuerst. Dies würde den bloßen und der Versorgungssicherheit abträglichen massenhaften Zubau volatiler Einspeisung begrenzen und vor allem den Druck erzeugen, Systemdienstleistungen bereitzustellen und, noch wichtiger, Speicherkapazitäten zu schaffen. Die mächtige Wind- und Solarlobby wird dies aber nicht zulassen. Eher gehen die Konventionellen in die Insolvenz, um dann vom Staat gerettet und wegen ihrer systemsichernden Rolle auch subventioniert zu werden.

Wirtschaftsgüter, Strom wie auch Tomaten, haben grundsätzlich einen Preis von größer Null, wenn der Markt funktionieren soll. Negative Preise sind die Perversion von Markt, ein Schritt zu seiner Zerstörung und hier eine Folge staatlicher Regulierung, die in eine Planwirtschaft führt.

Der Mörder ist nicht immer der Gärtner, aber in Deutschland ist am Ende immer der Stromkunde der Dumme.