1

Die wunder­same Speiche­rung des EEG-Zappel­stroms, oder: Die nächste Abzocke privater Strom­kunden durch die EEG-Energie­ernter

Wer die Welt rettet, kann bei Ökoflaute ja auf konventionelle Grundlastversorgung zurückgreifen

Wer eine eigene Solaranlage besitzt, weiß, dass er für die weite Welt etwas Gutes tut. Aber nicht nur das: Inzwischen haben die Kosten des Haushaltsstromes eine Dimension erreicht, welche – dank billiger, chinesischer Module – die Eigenversorgung langsam durchaus rentabel gestaltet.
Ein Wehrmutstropfen bleibt dabei jedoch übrig: Die Sonne scheint nachts immer noch nicht und auch tagsüber kann es recht wenig werden. Im Winter ist eine erhebliche Minderung ebenfalls nicht zu verhindern. Zur vollständig autarken Eigenversorgung wäre also ein teurer Akkuspeicher erforderlich. Alle bisher im Großversuch getesteten Projekte sind daran kläglich gescheitert (als Letztes Pellworm). Private scheitern nicht so spektakulär, rechnen sich aber trotzdem ebenfalls nicht:
[3] EIKE 18.05.2017: Rechnerisch lohnt sich die solare Eigenversorgung nicht
[1] … Die Rendite der eigenen Solaranlage wird vornehmlich durch die Eigenverbrauchsquote bestimmt. Je mehr Strom selbst verbraucht wird, desto weniger muss man an den Stromversorger für seinen Haushaltsstrom bezahlen. Um den Eigenverbrauch zu optimieren, kann man seinen Verbrauch ohne oder mithilfe von Energiemanagementsystemen anpassen oder auch zusätzlich einen Stromspeicher installieren. Trotz dieser Hilfsmittel müssen in der Praxis immer rund 30% bis 40% des Stromverbrauchs extern vom Energieversorger gedeckt werden.

Im EEG-System ist dieses Problem „gelöst“. Man lässt einfach zu den Erzeugern des EEG ein zweites Energiesystem parallel mitlaufen, welches in den Öko-Flautezeiten die fehlende Grundlast-Versorgung liefert. Zusammen mit der erforderlichen, zusätzlichen Infrastruktur kostet es viel Geld, aber das bezahlt ja zwangsweise der private Stromkunde.

Bei der solaren Eigenversorgung kostet das Lösen ebenfalls viel Geld (für Akkuspeicher). Dies kann man sich sparen, denn durch Bezahlen der Grundgebühr beim Versorger kann man fehlenden Strom ja jederzeit auch von dort beziehen. In der restlichen Zeit – wo das eigene Solar wieder ausreichend liefert – stellt man um und die für das EEG-System erforderlichen, hohen Kosten, zusätzlich dem des Backupsystems, verteilen sich auf die restlichen Strombezieher.

Grundlastversorgung auch für Solar-Selbstverbraucher, aber bitte ohne Zusatzkosten

Wer eine eigene Solaranlage hat, sieht aber auch dies nicht so wirklich ein. Schließlich ist der eigenerzeugte Ökostrom ideell viel hochwertiger als der aus den „dreckigen“ Backup-Kraftwerken in Deutschland. Und da Strom nach der Überzeugung GRÜNER Fachpersonen sich selbst im Netz speichert [6], muss es reichen – wie es die EEG-Vorrangeinspeisung auch befürwortet – mit Ökostrom in beliebiger Menge die Netze zu fluten. Und es ist nach GRÜNER Denke naheliegen, diesen im Netzt „geparkten“, persönlichen Ökostrom, bei Bedarf wieder dem Versorgungsnetz entnehmen zu dürfen, natürlich ohne die für den dreckigen, konventionellen, zu bezahlenden Aufschläge.

Speichern kann man den Strom weiterhin nicht, aber man kann den Mangel andere bezahlen lassen

E.ON – dessen CEO die Lösung des Speicherproblems „sexy“ findet [2] – ist dazu der Durchbruch gelungen. Solaranlagenbesitzer können „ihren“ Ökostrom dank E.ON zwischenspeichern [2] und billig rund um die Uhr“ zurückholen“:
energie-experten.org: [1] Lohnt sich die E.ON SolarCloud?
[1] … In der E.ON SolarCloud lässt sich Strom wie auf einem Bankkonto anlegen und bei Bedarf jederzeit wieder zum eigenen Verbrauch abheben. So kann der selbst produzierte Solarstrom zu 100% selbst verbraucht werden.

So funktioniert das SolarCloud-Stromkonto

Die E.ON SolarCloud ist seit Anfang April 2017 im Komplettpaket mit einer PV-Anlage und dem Batteriespeicher E.ON Aura verfügbar. Das E.ON Aura Komplettpaket kostet ab 14.699 Euro und besteht aus der Photovoltaikanlage mit Solarmodulen und Wechselrichter, der Aura Speicherbatterie, einem Controller, der Installation und der Inbetriebnahme der Solaranlage.
Durch eine Speicherung
im Aura und in der virtuellen SolarCloud lässt sich der selbst erzeugte Sonnenstrom das ganze Jahr selbst an bewölkten und regnerischen Tagen zum Eigenverbrauch nutzen. Die SolarCloud funktioniert dabei wie ein Stromkonto, auf das man Strom „einzahlt“ und rund um die Uhr an 365 Tagen im Jahr wieder abrufen kann. Vor allem in den Sommermonaten lässt sich dadurch mit der E.ON SolarCloud kontinuierlich eine Rücklage an ökologisch erzeugten Kilowattstunden ansparen, um den Strom beispielsweise in den Wintermonaten zu nutzen …
…. Der physische Solarstromspeicher
speichert den Großteil des Stroms der eigenen PV-Anlage dezentral, effizient und kostengünstig vor Ort in der eigenen Wohnung. Der virtuelle SolarCloud-Speicher ergänzt diesen optimal, um bilanziell eine 100%ige Versorgung mit eigenem Solarstrom zu realisieren …

Die Digitalisierung löst alle „alte-Herren-Physik“ Probleme im Nu

E.ON hat nichts von den erforderlichen Speichern gelöst, oder gar welche errichtet:
EIKE 03. April 2018: [2] EEG-Neusprech erklärt: Solarcloud und Sonnenscheingarantie

Wie beim EEG üblich, wurde jedoch wohl ein Weg gefunden, durch Vertragskniffe die regulären Preise für den Bezug von (rund um die Uhr bereitgestelltem) Haushaltsstrom zu umgehen. Und das funktioniert wie folgt:
Ein „Sonnenstromernter“ mit Eigenverbrauch speist Überschussstrom ins Netz und kann dafür später zu beliebiger Zeit konventionellen Grundlaststrom ohne die hohen Haushaltsstromkosten „zurückfließen“ lassen, als wäre sein Überflussstrom wirklich gespeichert worden. Je mehr dieser Solar-Bevorzugten das machen, umso höher steigt dadurch der Preis für die restlichen Stromkunden.

[1] Wieviel Stromkosten lassen sich mit der SolarCloud einsparen?

Noch lohnt sich das Model etwas wenig. Konkurrenz wird dieses „Speichergeschäft“ aber bestimmt beleben. Und wenn die GRÜNEN (und auch SPD-) Energieexpert*innen erst einmal erfahren – beziehungsweise glauben – dass sich das EEG-Speicherproblem einfach so durch Parken des Stromes auf einem „Stromkonto“ lösen lässt, wird es an Subventionierungen dieser grandiosen „Alte-Herren-Physik-Überrumpelungs-Erfindung“ nicht mangeln. Startups werden entstehen (und gefördert) und alle werden verkünden, was doch alles dank der „Digitalisierung Deutschlands“ möglich geworden ist.
Eine Vorwegnahme von dem, was ein Schüler bei der Frage nach den Vorteilen der Digitalisierung einmal sinngemäß sagte: … dann denkt der Computer und man braucht(s) nicht mehr zu lernen … und das Geld verdient er auch …
[1] Soll- oder Habenzinsen gibt es beim SolarCloud-Konto nicht. Wer also Strom auf das Konto einspeist und später abruft, spart insbesondere PV-Anlagen, die in den letzten vergangen 3 bis 4 Jahren zu der deutlich abgesunkenen Einspeisevergütung errichtet wurden. Die Differenz aus Haushaltsstrompreis und PV-Gestehungskosten übersteigt in diesen Fällen deutlich die Vergütung, die man über das EEG bekommen würde. Lediglich Kontoführungsgebühren werden fällig. Diese sind gestaffelt nach dem individuellen Jahresstromverbrauch und fangen bei 21,99 Euro pro Monat für eine E.ON SolarCloud für kleinere PV-Anlagen an.
Müsste ein
Drei-Personen-Haushalt mit einem Jahresstromverbrauch von 4.000 kWh und einem Eigenverbrauch des Solarstroms (Autarkie) von angenommen 60% bisher noch 40% Strom bzw. rund 1.600 kWh aus dem Netz beziehen, so spart diese Familie mit Hilfe der SolarCloud bei einem Strompreis von 30 Cent 480 Euro pro Jahr ein. Abzüglich der PV-Gestehungskosten von durchschnittlich rund 12 Cent ergibt sich mit der SolarCloud eine Nettoersparnis von 288 Euro. Zieht man hiervon noch die monatliche Gebühr für die E.ON SolarCloud ab, so ergibt sich letztlich ein Jahresgewinn von 24,12 Euro. Die Einspeisevergütung für den Strom, den man selbst verbraucht, tritt der Kunde an E.ON ab.

Der lokale Versorger wird nicht mehr benötigt

[1] Wer die SolarCloud nutzt, braucht aber auch keinen klassischen Stromvertrag mehr, da der SolarCloud-Nutzer ja 100 Prozent seiner selbst erzeugten Energie durch die SolarCloud auch selbst nutzen kann und in der Regel keinen Strom mehr aus dem Netz beziehen muss. Somit entfällt auch die Grundgebühr von in der Regel mehr als 100 Euro pro Jahr. SolarCloud-Nutzer mit einer kleinen Solaranlage profitieren somit von einer autarken Versorgung mit eigenem Solarstrom auch von einer Stromkostenersparnis von 125 bis 150 Euro pro Jahr.

Gibt es Einschränkungen bei der Nutzung der SolarCloud?

Da natürlich das Speichern des Solarstroms im eigenen Batteriespeicher auch Kosten verursacht und diesen auch altern lässt, denkt eventuell der ein oder andere über Schlupflöcher nach, die es ermöglichen, die SolarCloud auch ohne Stromspeicher zu nutzen. Aktuell empfiehlt E.ON jedoch aus wirtschaftlichen Gründen die Kombination aus physischem Speicher im Haushalt und virtueller SolarCloud. Grundsätzlich gibt es aber keine Vorschriften zum Betrieb des Stromspeichers.

Ein weiterer Meilenstein im Betrug am regulären Stromkunden

So sieht es der Autor. Wenn dieses virtuelle „Speichermodell“ rechtlich zulässig ist, kann in Zukunft jeder – der das Geld und die Fläche hat – in Zukunft eine beliebig überdimensionierte Solarfläche errichten. Ihn brauchen dann weder Speicherprobleme, noch um die rasant steigenden EEG-Strompreise zu kümmern. Davon ist er abgekoppelt, während ihm die billige „Rückspeisung“ seines „Eigenerzeugungs-Überbudgets“ gesichert bleibt.
Bestimmt auch eine neue Vorlage für „Bürgermodelle“ der Zukunft, um den stagnierenden Solarausbau wieder anzukurbeln.

Bisher ist diese zusätzliche Subventionierung der Solarbesitzer auf Kosten der restlichen Stromkunden anscheinend noch keiner Partei aufgefallen.
Nur die Sprecherin der GRÜNEN für Energiepolitik, Dr. Julia Verlinden (Dr. der Philosophie) monierte kürzlich Kosten für den Bürger. Dabei meinte sie aber nicht, Abzocken wie diese zu verhindern, sondern im Gegenteil, dass die „Öko-Energieernter“ – von ihr als „Bürgerenergie“ bezeichnet -, zu sehr belastet würden. Mehr als den LINKEN – wenn die eigene Ideologie ein Desaster anrichtet, dieses nicht abschaffen, sondern „den Reichen“ Geld wegnehmen, um es weiter bis zum Untergang betreiben zu können -, fällt ihr dabei allerdings auch nicht ein. Klientelpolitik auf GRÜN eben.
27.03.2018 Bundesregierung torpediert Bürgerenergie auf EU-Ebene
Julia Verlinden hat die Bundesregierung zu ihrer Haltung zum Vorschlag des EU-Parlaments gefragt, unnötige Belastungen der Bürgerenergie zu vermeiden. Die Antwort zeigt: Die Bundesregierung will der Bürgerenergie weiter Steine in den Weg rollen … Das ist ein Schlag ins Gesicht für die vielen engagierten Bürgerinnen und Bürger, ohne die die Energiewende in Deutschland im Stromsektor niemals so erfolgreich gewesen wäre.
… Die Ausrede der Bundesregierung hinkt: Wenn es ihr wirklich wichtig wäre, die Kosten des Stromsystems „gerecht“ zu verteilen, dann würde sie z.B. die Industrierabatte der energieintensiven Industrie deutlich reduzieren und nicht mehr von den privaten Haushaltskunden oder den kleinen und mittleren Unternehmen quersubventionieren lassen. Hier sieht man mal wieder, dass mit zweierlei Maß gemessen wird
.

Quellen

[1] energie-experten.org: Lohnt sich die E.ON SolarCloud?

[2] EIKE 03. April 2018: EEG-Neusprech erklärt: Solarcloud und Sonnenscheingarantie

[3] EIKE 18.05.2017: Rechnerisch lohnt sich die solare Eigenversorgung nicht

[4] EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)

[5] EIKE 03. April 2018: EEG-Neusprech erklärt: Solarcloud und Sonnenscheingarantie

[6] EIKE 24.01.2018: GRÜNE Energieexpertin: Das Netz fungiert als Speicher

[8] EIKE 11.04.2018: Harald Leschs Klimavideo restlos widerlegt
EIKE 27.12.2016: Harald Lesch, die Claudia Roth des Klimawandels: Glaubt einfach, was ich erzähle – Nachprüfen schadet nur!
EIKE 24.08.2016: Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?




Zirkel­schluss: das Scheitern des Rück­kopplungs-Schwindels des IPCC

Meine Antwort auf Roy Spencers Kommentar, geschrieben auf seinem Blog drroyspencer.com, wurde inzwischen 1400 mal angeklickt, und die drei vorherigen Artikel wurden jeweils über 1000 mal, über 350 mal und über 750 mal angeklickt. Anderswo hat ein notorisch jähzorniger skeptischer Blogger auf die Frage, ob er zu unserem Ergebnis einen Kommentar schreiben will, geantwortet, er lasse sich nicht dazu herab, etwas so Einfaches zu diskutieren. Einfach ist es. Wie kommt man bloß darauf, dass es keine Klima-Rückkopplungs-Prozesse auf die große Emissionstemperatur gibt, jedenfalls nicht im gleichen Ausmaß, wie sie auf die geringe Erhöhung jener Temperatur reagieren, verursacht durch das Hinzufügen nicht kondensierender Treibhausgase in die Atmosphäre? Das ist ein einfacher Punkt. Aber einfach heißt nicht notwendigerweise falsch.

In diesem Beitrag wird die Mathematik hergeleitet, was weder einfach noch intuitiv, wenngleich auch nicht besonders komplex ist. Wie in Beiträgen zuvor möchte ich einige Fragen aus Kommentaren zu jenen Beiträgen beantworten. Wie zuvor akzeptieren wir ad interim, ad argumentum oder ad experimentum alle Ergebnisse der offiziellen Klimatologie – es sei denn, wir können nachweisen, dass diese Ergebnisse falsch sind.

Führen wir doch einfach ein simples Gedankenexperiment durch. Dabei kehren wir das Modell von Lacis et al. (2010) um. Lacis hatte herausgefunden, dass das Klima, nachdem man alle nicht kondensierenden Treibhausgase aus der Atmosphäre entfernt hatte, ein neues Gleichgewicht erreicht hätte. Dann wäre die Erde ein Schneeball oder ein Wasserplanet mit einer Albedo von 0,418, was eine Emissionstemperatur von 243,3 K impliziert. Kraft dieses Experimentes sollten wir folglich annehmen, dass es im Jahre 1800 keine Treibhausgase in der Atmosphäre gab. Für all jene, die mit wissenschaftlicher Logik nicht vertraut sind: Damit ist nicht gesagt, dass es im Jahre 1800 wirklich keine Treibhausgase gab.

Lacis zufolge soll die globale mittlere Temperatur 20 Jahre nach Entfernung aller nicht kondensierenden Treibhausgase aus der Atmosphäre auf 253 K sinken. Während der folgenden 30 Jahre soll die Temperatur um lediglich ein weiteres K zurückgehen auf 252 K oder 8,7 K über der Emissionstemperatur. Folglich erreicht die Temperatur in Lacis‘ Modell bereits nach 50 Jahren ihr neues Gleichgewicht.

Eine Frage, die nur Wenige in den bisherigen Beiträgen beantwortet haben, und keiner davon überzeugend, lautet: Aus welcher Quelle stammen diese zusätzlichen 8,7 K, wenn es doch keine nicht kondensierenden Treibhausgase als Antrieb gab? Unsere Antwort lautet, dass Lacit implizit die Existenz einer Rückkopplungs-Reaktion auf die Emissionstemperatur von 243,3 K eingeräumt hat, wenngleich dieser Wert viel zu klein ist, um realistisch zu sein. Viel zu klein deshalb, weil wie im vorigen Artikel gezeigt, Lacis die Temperaturdifferenz von 45,1 K zwischen der impliziten Emissionstemperatur von 243,3 K bei der spezifizierten Albedo von 0,418 einerseits und der heutigen globalen Mitteltemperatur andererseits von 288,4 K (ISCCP, 2018), wie folgt zuordnet: Rückkopplungs-Reaktion auf die Emissionstemperatur 252 – 243,3 = 8,7 K. Direkt von natürlich vorkommenden, nicht kondensierenden Treibhausgasen angetriebene Erwärmung (288,4 – 252)/4 = 9,1 K, und bei Anwendung der Rückkopplungs-Reaktion von 0,75 nach Lacis aus den nicht kondensierenden Treibhausgasen 27,3 K: insgesamt 45,1 K. Diese asymmetrische Zuordnung der Differenz zwischen Emissionstemperatur und gegenwärtiger Temperatur impliziert, dass die Rückkopplungsreaktion von 8,7 K auf die Emissionstemperatur lediglich 3,6% von 243,3 K ausmacht, während die Rückkopplungs-Reaktion von 27,3 K auf die Treibhaus-Erwärmung 300% der 9,1 K ausmacht. Später wird formell nachgewiesen, dass diese implausible Zuordnung irrig ist.

Es ist nützlich zu unterscheiden zwischen der vorindustriellen Lage im Jahre 1850 (dem ersten Jahr der HadCRUT-Reihe, dem längsten globalen Temperatur-Datensatz) und der industriellen Ära. Wir wollen annehmen, dass die gesamt globale Erwärmung vor 1850 natürlichen Ursprungs war. In jenem Jahr lag die Temperatur um etwa 0,8 K unter dem heutigen Wert von 287,6 K (HadCRUT4) oder um 44,3 K über der Emissionstemperatur. Lacis‘ Aufteilung der 44,3 K wäre also 8,7 K; 8,9 K und 26,7 K.

Nehmen wir einmal an, dass Lacis recht hatte damit, dass die direkt getriebene Erwärmung durch Hinzufügen der natürlich vorkommenden, nicht kondensierenden Treibhausgase 8,9 K betragen hatte. Lassen wir das Experiment ab 1850 umgekehrt laufen, können wir den Rückkopplungs-Anteil berechnen, der implizit in Lacis‘ Modell steckt nach der Korrektur, um eine ordentliche Rückkopplungs-Reaktion auf die Emissionstemperatur zuzulassen. Bevor wir das tun sei an die gegenwärtig vom IPCC verwendete Liste der Rückkopplungen erinnert, die relevant für die Ableitung sowohl der kurzlebigen als auch der Gleichgewichts-Sensitivitäten sind:

Die vom IPCC gewählte Luxus-Rückkopplungs-Summe [high-end feedback sum] impliziert eine Charney-Sensitivität irgendwo zwischen minus unendlich und plus unendlich pro CO2-Verdoppelung. Kein wirklich gewaltiges Ergebnis nach 30 Jahren und der Ausgabe von hunderten Milliarden Steuerzahler-Dollar. Die Rückkopplungssumme des IPCC in der Mitte der Bandbreite impliziert eine mittlere Charney-Sensitivität von nur 2,2 K und nicht die in den früheren IPCC-Berichten genannten 3,0 bis 3,5 K; und auch nicht die 3,3 K der CMIP3 und CMIP5-Modelle. Da ist es keine Überraschung, dass das IPCC im Jahre 2013 zum ersten Mal keine mittlere Schätzung der Charney-Sensitivität genannt hat.

Keine der vom IPCC gelisteten Rückkopplungen ist vom Vorhandensein irgendwelcher nicht kondensierender Treibhausgase abhängig. Daher wären alle diese Rückkopplungs-Prozesse in unserer Welt um das Jahr 1800 ganz ohne derartige Gase präsent. Um eine Rückkopplungs-Reaktion zu induzieren, so irgendein Rückkopplungs-Prozess präsent ist, bedarf es als einzige Notwendigkeit einer Temperatur, d. h. die Emissionstemperatur. Da Rückkopplungs-Prozesse präsent sind, ist eine Rückkopplungs-Reaktion unvermeidlich.

Die Emissionstemperatur hängt von lediglich drei Größen ab: Einstrahlung, Albedo und Emissivität. Man begeht kaum einen Fehler, falls man die Emissionstemperatur wie gewöhnlich als Einheit betrachtet. Damit beträgt die Emissionstemperatur bei der heutigen Einstrahlung von 1364,625 W/m² und einer Lacis-Albedo von 0,418: [1364,625(1 – 0.418) / d / (5,6704 x 10–8)]0.25 = 243.3 K. Dies steht in Übereinstimmung mit der fundamentalen Gleichung des Strahlungstransports, wobei d das Verhältnis ist zwischen dem Gebiet der sphärischen Oberfläche der Erde zu ihrem großen Kreis = 4 ist. Genauso läge die Emissionstemperatur bei der heutigen Albedo von 0,293 bei 255,4 K. Dieser Wert wird allgemein in der Literatur zur Klimasensitivität genannt.

Der Grund, warum die offizielle Klimatologie bis jetzt der Rückkopplungs-Reaktion auf die Emissionstemperatur nicht das angemessene Gewicht verliehen hat (oder besser, überhaupt kein Gewicht) ist, dass man eine entartete Form der Null-Dimensions-Modell-Gleichung verwendet hat, die da lautet ΔTeq = ΔTref / (1 – f ), wo die Gleichgewichts-Sensitivität ΔTeq nach Berücksichtigung von Rückkopplungen gleich ist dem Verhältnis der Referenz-Sensitivität ΔTref zu (1 minus Rückkopplungs-Anteil f). Das Rückkopplungs-Loop-Diagramm (unten) räumt der Emissionstemperatur keinen Raum ein und daher auch nicht irgendeiner Rückkopplungs-Reaktion.

Der Rückkopplungs-Loop in der von der offiziellen Klimatologie verwendeten Null-Dimensions-Modell-Gleichung ΔTeq = ΔTref / (1 – f )

Diese entartete Form der Null-Dimensions-Modell-Gleichung ist angemessen, wenn nicht sogar ideal, um Gleichgewichts-Sensitivitäten abzuleiten unter der Voraussetzung, dass zunächst eine Rückkopplungs-Reaktion auf die Emissionstemperatur zugelassen wird. Dennoch finden es viele Kommentatoren empörend, dass die offizielle Klimatologie eine so einfache Gleichung anwendet, um die Gleichgewichts-Sensitivitäten zu diagnostizieren, welche zu prophezeien von den komplexen Zirkulations-Modellen erwartet wird. Einige wenige haben versucht zu leugnen, dass diese Gleichung angewendet wird. Allerdings haben Hansen (1984), Schlesinger (1985), das IPCC (2007, p. 631 fn.), Roe (2009), Bates (2016) und einige andere Größen diese Gleichung angewendet:

f = 1 –Tref / Teq = 1 – (TE + ΔTB) / TN

= 1 – (255,4 + 8) / 287,6 = 0,08. (4)

Jetzt wollen wir beweisen, dass die Form dieser diagnostischen Gleichung, wie sie von der offiziellen Klimatologie angewendet wird, das offizielle Intervall der Charney-Sensitivitäten ergibt, wenn man die offiziellen Werte eingibt. Das IPCC (2013, Abb. 9.43) erwähnt Vial et al. (2013), der den CO2-Antrieb ΔQ0 diagnostiziert hat, ebenso wie den Planck-Parameter λ0 und die Rückkopplungs-Summe k bei einer abrupten Vervierfachung der CO2-Konzentration in 11 CMIP5-Modellen via des linearen Regressions-Verfahrens in Gregory (2004). Vial gibt die mittlere Schätzung kmid der Rückkopplungs-Summe aus 11 CMIP5-Modellen als 1,57 W/m²K an mit der Implikation fmid = kmidλ0 = 0,49 und der 2σ-Grenzen von f als fmid ± 40%, d. h. 0,49 ± 0,20.

Der implizite CO2-Antrieb ΔQ0, in welchen schnelle Rückkopplungen mit eingehen, betrug 4,5 W/m² im Vergleich zu den 3,5 W/m² in Andrews 2010. Die Referenz-Sensitivität ΔTS, von Vial mit 1,41 K bewertet, lag um 20% über der mittleren Schätzung der CMIP5-Modelle von 1,1 K. Verwendet man diese Werte erweist sich die Version der von der offiziellen Klimatologie herangezogenen Null-Dimension-Modell-Gleichung als gut kalibriert. Sie ergibt eine Charney-Sensitivität ΔT auf 3,3 (2,0; 4,5) K, fast genau inhaltsgleich mit vielen veröffentlichten offiziellen Intervallen der CMIP3 und CMIp5-Modelle (Tabelle 2):

Aus dieser erfolgreichen Kalibrierung folgt, dass obwohl die von der Gleichung vermuteten Rückkopplungen linear, einige aber auch nicht linear sind, sie immer noch die Gleichgewichts-Sensitivitäten korrekt aufteilt zwischen der erzwungenen Erwärmung und der Rückkopplungs-Reaktion. Im Besonderen reproduziert sie das von den CMIP5-Modellen projizierte Intervall der Charney-Sensitivitäten, welche Nicht-Linearitäten berücksichtigen. Die Kalibrierung bestätigt nicht, dass der Modellwert f ≈ 0,7 für den Rückkopplungs-Anteil oder ihr Intervall der Charney-Sensitivitäten korrekt ist. Sie bestätigt jedoch, dass die Gleichung mit den offiziellen Werten von f die offiziellen, von den komplexen CMIP-Modellen veröffentlichten Prognosen der Charney-Sensitivität bestätigt. Und das, obwohl keinerlei Berücksichtigung der großen Rückkopplungs-Reaktion auf die Emissionstemperatur erfolgte.

Die offizielle Klimatologie adjustiert ihre Modelle so lange, bis sie das Klima der Vergangenheit reproduzieren. Folglich wurden die Modelle so frisiert, dass sie der Differenz von 33 K Rechnung tragen zwischen der Emissionstemperatur von 255,4 K und der heutigen Temperatur von 288,4 K. Man hatte hypothetisiert, dass ein Drittel der 33 K der direkt getriebenen Erwärmung geschuldet war seitens natürlich auftretender, nicht kondensierender Treibhausgase, und die anderen zwei Drittel bis drei Viertel waren die Rückkopplungs-Reaktion auf diese direkte Erwärmung. Folglich haben sie hypothetisiert, dass der Rückkopplungs-Anteil zwei Drittel bis drei Viertel der Gleichgewichts-Sensitivität ausmacht: d. h. dass f irgendwo zwischen 0,67 und 0,75 liegt.

Als einen ersten Schritt zur angemessenen Berücksichtigung der Rückkopplungs-Reaktion auf die Emissionstemperatur kann die Version der offiziellen Klimatologie der Null-Dimension-Modell-Gleichung überarbeitet werden, um die Delta-Eingangs- und -Ausgangssignale durch absolute Werte zu ersetzen, welche lediglich Änderungen der Temperatur sind. Man beachte, dass die korrekte Form jedweder Gleichung, welche natürliches Auftreten (oder jedwede Naturgesetzte) beschreibt, absolute Werte sind: Die Anwendung von Deltas ist nur zulässig, falls die Delta-Gleichungen korrekt abgeleitet sind aus der absoluten Gleichung. Demzufolge sollte ΔTeq = ΔTref / (1 – f ) werden zu Teq = Tref / (1 – f ). Das überarbeitete Rückkopplungs-Loop-Diagramm sieht so aus:

Nach Amendierung, um Delta-Eingangs- und -Ausgangssignale durch absolute Werte zu ersetzen, wird die offizielle Version der Null-Dimension-Modell-Gleichung zu Teq = Tref / (1 – f ).

Um f bei bekannter Referenz- und Gleichgewichts-Temperatur zu berechnen, kann diese überarbeitete Gleichung umgeschrieben werden zu f = 1 – Tref / Teq. In dem umgekehrten Lacis-Experiment setzt sich die Referenz-Temperatur Tref vor der Rückkopplung zusammen aus Emissionstemperatur TE und der zusätzlichen Temperatur ΔTE = 8,9 K. Diese ist die direkte Erwärmung bei Hinzufügen der natürlich auftretenden, nicht kondensierenden Treibhausgase in die Luft. Folglich gilt: Tref = TE + ΔTE = 243.3 + 8.9 = 252.2 K. Die Gleichgewichts-Temperatur Teq ist einfach die Temperatur des Jahres 1850, nach 50 Jahren des umgekehrten Lacis-Experimentes. Dann ist f = 1 – Tref / Teq = 1 – 252.2 / 287.6 = 0.123, also nur ein Fünftel bis ein Sechstel des Wertes der offiziellen Klimatologie. Ursache dieser Differenz ist, dass wir anders als die offizielle Klimatologie die Rückkopplungs-Reaktion auf die Emissionstemperatur korrekt berücksichtigen.

Weiter. Wie viel der Differenz von 35,4 K zwischen Tref = 252,2 K und Teq = 287,6 K geht zurück auf die Rückkopplungs-Reaktion auf die Emissionstemperatur TE = 243,3 K und wie viel macht die Rückkopplungs-Reaktion auf die direkte Treibhausgas-Erwärmung ΔTE = 8.9 K aus? Man nehme einfach das Produkt von jedem Wert, und f / (1 – f) = 0,14. Folglich: 243,3 x 0,14 = 34,1 K und 8,9 x 0,14 = 1,3 K. Dass dies die korrekte Aufteilung ist, beweisen wir mittels der Standard-Mainstream-Form der Null-Dimension-Modell-Gleichung, die in allen dynamischen Systemen universell ist außer Klima. Die Mainstream-Gleichung separiert anders als die degenerierte Form der Klimawissenschaft explizit das Eingangssignal (bei Klima die Emissionstemperatur von 255,4 K) von jeder Verstärkung ( wie etwa die Erwärmung um 8,9 K durch Hinzufügen der nicht kondensierenden Treibhausgase zur Atmosphäre).

Die Mainstream-Null-Dimension-Modell-Gleichung lautet Teq = Tref μ / (1 – μβ), wobei Tref das Eingangssignal ist (hier: die Emissionstemperatur); μ = 1 + ΔTref / Tref der Verstärkungsfaktor, der jedwede Verstärkung von Tref repräsentiert wie etwa jenen, die verursacht wird durch die Präsenz der natürlich vorhandenen, nicht kondensierenden Treibhausgase; β ist der Rückkopplungs-Anteil; μβ ist der Rückkopplungs-Faktor, äquivalent zu f in der gegenwärtigen Version der offiziellen Klimatologie; und Teq ist die Gleichgewichts-Temperatur bei Re-Equilibration des Klimas, nachdem alle Rückkopplungen kürzer als ein Jahrzehnt wirksam geworden sind.

Der Rückkopplungs-Loop für diese korrigierte Form der Null-Dimension-Modell-Gleichung sieht so aus:

Das Rückkopplungs-Loop-Diagramm der Standard-Null-Dimension-Modell-Gleichung Teq = Tref μ / (1 – μβ)

Ein Vorteil der Anwendung dieser Form der Null-Dimension-Modell-Gleichung der Mainstream-Wissenschaft ist, dass sie explizit und separat das Eingangssignal Tref berücksichtigt und jede Verstärkung desselben via dem gain factor μ im Verstärker. Daher ist es nicht mehr möglich, entweder Tref oder die Rückkopplungs-Reaktion zu ignorieren oder zu gering zu bewerten, wozu es kommen muss, solange der Rückkopplungs-Anteil β ungleich Null ist.

Weiter unten wird nachgewiesen, dass die Aufteilung der Differenz von 35,4 K zwischen Tref = 252,2 K und Teq = 287,6 K im Jahre 1850, was wir aus unserem Gedankenexperiment zuvor abgeleitet haben, tatsächlich die korrekte Aufteilung ist. Beginnt man mit der Mainstream-Gleichung, führen wir zur rechten Zeit den direkten oder open-loop gain factor μ = 1 + ΔTref / Tref ein. Der Rückkopplungs-Faktor μβ, also das Produkt aus dem direkten oder open-loop gain factor μ und dem Rückkopplungs-Anteil β, hat genau die Form, welche wir angewendet haben, um unseren Rückkopplungs-Anteil f abzuleiten als 1 – (243,3 + 8,9) / 287,6 = 0,123. Dies bestätigt, dass unsere Aufteilung korrekt war.

Man beachte im Vorübergehen, dass f in der offiziellen Klimatologie sofort der Rückkopplungs-Anteil und der Rückkopplungs-Faktor ist, nimmt doch die offizielle Klimatologie an, dass der direkte oder open-loop gain factor μ = 1 ist. In der Praxis führt diese einzelne Hypothese die offizielle Klimatologie in die Irre, weil die Verstärkung der Emissionstemperatur, getrieben durch die Präsenz der nicht kondensierenden Treibhausgase, nur ein kleiner Anteil jener Temperatur ist.

Für uns war jedoch die Annahme vernünftiger, dass die Temperatur von 287,6 K im Jahre 1850 vor jedem potentiellen Einfluss des Menschen eine Gleichgewichts-Temperatur war. Wir wissen, dass sich die Welt während der 168 Jahre seit 1850 um nur 0,8 K erwärmt hat. Die offizielle Klimatologie ordnet diese gesamte Erwärmung dem Menschen zu, nicht der Natur.

War es sinnvoll von uns, mit der impliziten Emissionstemperatur von Lacis von 243,3 K anzufangen, welche die spezifizierte Albedo 0,418 auf einer Wasser-Erde beim Fehlen nicht kondensierender Treibhausgase reflektiert? Warum fingen wir nicht mit Pierrehumbert (2011) an, welcher sagte, dass eine Schneeball-Erde eine Albedo von 0,6 aufweisen würde, was eine Emissionstemperatur von 221,5 K impliziert? Rechnen wir mal. Der Rückkopplungs-Anteil f = μβ würde dann zu 1 – (221,5 + 8,9) / 287,6 = 0,20.

Folglich wäre der mittlere Rückkopplungs-Anteil einer Schneeball-Erde im Jahre 1850 0,20; derjenige von einer Wasser-Erde in jenem Jahr 0,12 und bei der heutigen Albedo 0,293 mit einer impliziten Emissionstemperatur von 255,4 K. Es ergibt sich 1 – (255,4 + 8,9) / 287,6 = 0,08. Damit begannen wir auch unsere Reihe. Man bemerkt, dass beim Schmelzen der großen Eisschilde die Dominanz der Albedo-Rückkopplung unaufhaltsam geringer wird, während der Rückkopplungs-Anteil mit der Zeit sinkt.

Obwohl die Albedo-Rückkopplung bis jetzt dominiert haben mag, was ist mit der größten aller heutigen Rückkopplungen, der Wasserdampf-Rückkopplung? Die Clausius-Clapeyron-Gleichung impliziert, dass der von der Atmosphäre eingenommene Raum bei Erwärmung derselben fast exponentiell mehr Wasserdampf enthalten kann, aber nicht muss. Wentz (2007) kam zu dem Ergebnis, dass die Gesamt-Säule Wasserdampf pro 1 K Erwärmung um etwa 7% zunimmt. Lacis (2010) kam aufgrund dieser Zuwachsrate zu der Aussage, dass falls man die nicht kondensierenden Treibhausgase aus der heutigen Atmosphäre entfernt und die Temperatur um 36 K, also von 288 auf 252 K sinken würde, sich etwa 10% des heutigen Wasserdampfes in der Atmosphäre befinden würde, also: 100% / 1.0736 = 9%.

Spezifische Feuchtigkeit (g/kg) in den Druckniveaus 300, 600 und 1000 hPa

Obwohl die Zunahme der Wasserdampf-Säule mit Erwärmung folglich als exponentiell angesehen wird, ist der daraus folgende Rückkopplungs-Antrieb jedoch in etwa logarithmisch (genau wie der direkte CO2-Antrieb logarithmisch ist). Was noch mehr zählt ist, dass ein substantieller Anteil der daraus folgenden Rückkopplungs-Reaktion ausgeglichen wird durch eine Reduktion der Rückkopplung des geringer werdenden vertikalen Temperaturgradienten. Demzufolge ist die Wasserdampf/lapse rate-Rückkopplung in etwa linear.

Während des Zeitraumes der NOAA-Aufzeichnungen der spezifischen Feuchtigkeit in drei verschiedenen Druckniveaus (oben) erfolgte eine globale Erwärmung von 0,8 K. Wentz hätte eine Zunahme des Wasserdampfes um etwa 5,5% erwartet. Tatsächlich fand sich nahe der Erdoberfläche, wo sich der meiste Wasserdampf befindet, ein Trend der spezifischen Feuchtigkeit mit etwa diesem Wert. Aber die Reaktion der Wasserdampf-Rückkopplung in niedrigen Höhen ist gering, weil die Luft alles andere als bereits gesättigt ist.

Allerdings sank die spezifische Feuchtigkeit mit der Höhe, wo die Luft trockener ist und zunehmender Wasserdampf die einzige in Frage kommende Quelle von Erwärmung ist. Das bestätigt die Nicht-Existenz des prophezeiten „Hot Spots“ in mittlerer Höhe der Atmosphäre über den Tropen, welcher angeblich durch zunehmenden Wasserdampf-Gehalt entstehen sollte. Also gibt es kaum Beweise dafür, dass die Temperatur-Reaktion auf einen gestiegenen Wasserdampf-Gehalt und die korrespondierende Verringerung der lapse rate nicht linear ist. Andere Rückkopplungen sind nicht groß genug, um einen großen Unterschied auszumachen, selbst wenn sie nicht linear sind.

Unser Verfahren prognostiziert eine Erwärmung von 0,78 K von 1850 bis 2011. Beobachtet worden waren 0,75 K.

Ein Kommentator hat sich darüber beklagt, dass der Planck-Parameter (die Quantität, mit der ein Strahlungsantrieb in W/m² multipliziert werden muss, um in eine Temperaturänderung konvertiert zu werden) weder konstant noch linear ist: stattdessen sei er die erste Ableitung einer Relation zur vierten Potenz, die fundamentale Gleichung des Strahlungstransports. Hier müssen wir eine kleine Berechnung durchführen. Übernimmt man die gewöhnliche harmlose und vereinfachende Hypothese der konstanten Einheit Emissivität ist die erste Ableitung, d. h. die Änderung ΔTref der Referenztemperatur pro Einheitsänderung ΔQ0 der Dichte des Strahlungsflusses einfach Tref / (4Q0), und das ist linear.

Eine einfache Approximation, um breitenabhängige Variationen des Planck-Parameters zu integrieren ist es, das Schlesinger-Verhältnis anzuwenden: d. h. das Verhältnis der Temperatur TS zum Vierfachen der Flussdichte Q0 = 241,2 W/m² in der Emissionshöhe. Bei den 255,4 K, welche ohne Rückkopplungen und Treibhausgase vorherrschen würden, wäre der Planck-Parameter 255,4 / (4 X 241,2) = 0,26 K/Wm². Bei der heutigen Temperatur von 288,4 K ist der Planck-Parameter 288,4 / (4 X 241,2) = 0,30. Da ist nicht sehr viel Nichtlinearität.

Es ist daher sinnvoll anzunehmen, dass so etwas wie der mittlere Rückkopplungs-Anteil 0,08; abgeleitet aus dem Experiment, in welchem man der Atmosphäre nicht kondensierende Treibhausgase hinzufügt, weiterhin vorherrschen wird. Falls das so ist, beträgt die Gleichgewichts-Erwärmung, die man aus dem anthropogenen Antrieb der 2,29 W/m² während der industriellen Ära bis 2011 (IPCC 2013, Abb. SPM.5) erwarten kann, 2,29 / 3,2 / (1-0,08) = 0,78 K. Und tatsächlich zeigt der Trend der linearen Regression kleinster Quadrate im Datensatz der globalen mittleren Temperatur von HadCRUT4 von 1850 bis 2011 eine Erwärmung um 0,75 K.

Aber warum zeigen die Temperaturmessungen der ARGO-Bojen dann ein „Strahlungsenergie-Ungleichgewicht“, was auf mehr Erwärmung in der Pipeline hindeutet, sondern dass die enorme Wärmekapazität der Ozeane diese für jetzt absorbiert hat?

Eine Möglichkeit ist, dass die ganze Erwärmung seit 1850 anthropogenen Ursprungs ist. Nehmen wir an, dass das Strahlungs-Ungleichgewicht bis 2010 0,59 W/m² betragen hat (Smith 2015). Die Erwärmung hat dann 2,29 – 0,59 = 1,70 W/m² in den Weltraum abgestrahlt. Die Gleichgewichts-Erwärmung sowohl durch anthropogene als auch durch natürliche Antriebe bis 2011 kann damit um 34,8% größer gewesen sein als die während der industriellen Ära gemessene Erwärmung von 0,75 K: d. h. 1,0 K. Falls 0,78 dieser 1 K anthropogenen Ursprungs wäre, dann gibt es nichts, um zu verhindern, dass die restlichen 0,22 K natürlichen Ursprungs sind, geschuldet der internen Variabilität. Dieses Ergebnis ist tatsächlich konsistent mit dem vermeintlichen „Konsens“, dass über die Hälfte der jüngsten Erwärmung anthropogenen Ursprungs ist.

Die Implikation für die Charney-Sensitivität – d. h. die Gleichgewichts-Sensitivität bei einer verdoppelten CO2-Konzentration – ist geradlinig. Den Modellen zufolge beträgt der CO2-Antrieb 3,5 W/m² pro Verdoppelung. Teilt man dies durch 3,2, um dem heutigen Planck-Parameter Rechnung zu tragen, konvertiert sich dieser Wert zu einer Referenz-Sensitivität von 1,1 K. Dann ist die Charney-Sensitivität 1,1 / (1 – 0,08) = 1,2 K. Und das ist die Grundlinie. Nicht die 3,3 K Schätzung der CMIP5-Modelle. Nicht die 11 K von Stern (2006). Nur 1,2 K pro CO2-Verdoppelung. Und das liegt weit unterhalb allem, weswegen man sich Sorgen machen muss.

Keiner der Einwände gegen unsere Ergebnisse hat sich als substantiell erwiesen. Als Beispiel seien hier Yahoo-Antworten angeführt (sogar noch unzuverlässiger als Wikipedia) mit der folgenden herrlich albernen Antwort auf die Frage „hat Monckton einen grundlegenden Fehler entdeckt?“

Damit treibt der Fragesteller das folgende unsinnige Argument vor sich her:

1. Falls ich die Temperatur von 255,4 K auf der Erde ohne Treibhausgase heranziehe und die 8 K mit Treibhausgasen dazu addiere, erhalte ich eine Temperatur von 263,4 K.

2. Was ich sagen will: diese Total-Temperatur (anstatt lediglich des Treibhausgas-Effektes) führt zu einer Rückkopplung. Und falls ich dies anwende, erhalte ich eine Rückkopplung von 1 – (263,4 / 287,6) = 0,08.

Das Problem: Wie kann die Temperatur des Planeten (255,4 K) ohne Treibhausgase dann zu einer Rückkopplung führen? Die Rückkopplung ist den Gasen selbst geschuldet. Man kann nicht argumentieren, dass die Rückkopplung und in der Folge die höhere Temperatur infolge der Treibhausgase tatsächlich der Temperatur des Planeten ohne die Treibhausgase geschuldet ist! Was er gemacht hat ist, dass er die Grundlinie, auf der die Zunahme und die Rückkopplung fußt, herangezogen hat und diese dann als Grundlinie der Quelle von Zunahme und Rückkopplung angewendet hat.

Also, ich fürchte, das ist totaler Unsinn …

Der von Yahoo Answers begangene Fehler liegt in der falschen Annahme, dass „die Rückkopplung den Gasen selbst geschuldet ist“. Nein: man muss unterscheiden zwischen den kondensierenden Treibhausgasen einerseits (eine Änderung des Wasserdampfgehaltes der Atmosphäre ist ein Rückkopplungs-Prozess) und den nicht kondensierenden Treibhausgasen andererseits wie etwa CO2 (fast alle Änderungen der Konzentration nicht kondensierender Treibhausgase sind Antriebe). Alle in Tabelle 1 gelisteten Rückkopplungs-Prozesse wären präsent sogar beim Fehlen irgendeines der nicht kondensierenden Treibhausgase.

Ein weiterer Einwand ist, dass die offizielle Klimatologie vielleicht die Rückkopplungs-Reaktion auf die Emissionstemperatur berücksichtigt. Diesem Einwand kann rasch begegnet werden. Hier ist die typische eingestampfte und verschleiernde Definition einer „Klima-Rückkopplung“ vom IPCC (2013):

Klima-Rückkopplung: Eine Wechselwirkung, bei der eine Änderung in einer Klima-Quantität eine Änderung in einer zweiten verursacht, und die Änderung in der zweiten Quantität ultimativ zu einer zusätzlichen Änderung in der ersten Quantität führt. Bei einer negative Rückkopplung wird die Änderung abgeschwächt durch die Änderungen, die sie verursacht; eine positive Rückkopplung ist eine solche, in welcher die initiale Änderung verstärkt wird. In diesem Zustandsbericht wird oft eine engere Definition angewendet, in welcher die Klima-Quantität, welche sich ändert, die globale mittlere Temperatur ist, was wiederum Änderungen des globalen Strahlungshaushaltes verursacht. In jedem Falle kann die initiale Änderung entweder externen Ursprungs sein oder als Teil der inneren Variabilität daher kommen.

Diese IPC-Definition schließt also explizit jedwede Möglichkeit einer Rückkopplungs-Reaktion aus auf eine zuvor herrschende Temperatur wie die 255,4 K Emissionstemperatur, welche auf der Erde beim Fehlen jedweder Treibhausgase und Rückkopplungen herrschen würde. Aus diesem Grunde dachte Roy Spencer, dass wir falsch lagen.

Unser einfacher Punkt bleibt: wie kann ein unbelebter Rückkopplungs-Prozess wissen, wie man zwischen der Eingangs-Emission der Temperatur von 255,4 K und weiteren 9 K unterscheidet, der sich aus dem Hinzufügen nicht kondensierender Treibhausgase zur Atmosphäre ergibt? Wie kann dieser Prozess wissen, dass er auf Ersteres schwächer reagieren sollte als auf Letzteres? Oder, falls man der IPCC-Definition folgt, auf Erstere überhaupt nicht und auf Letztere extravagant? Trotz einiger wackerer Versuche seitens der wahrhaft Gläubigen, alles zu komplizieren, ist am Ende unser Punkt so einfach – und in unserer Eingabe unwiderlegbar.

Link: https://wattsupwiththat.com/2018/04/06/looping-the-loop-how-the-ipccs-feedback-aerobatics-failed/

Übersetzt von Chris Frey EIKE




Rundbrief der GWPF vom 9. April 2018

1) 48.000 Kältetote in UK nach dem schlimmsten Winter seit 42 Jahren

In UK hat der vergangene Winter so viele Todesfälle verursacht wie seit 42 Jahren nicht mehr. Man schätzt, dass zwischen Dezember und März 20.275 Briten mehr als im Mittel zu erwarten gestorben sind. Das bedeutet, dass im vergangenen Winter insgesamt fast 48.000 Todesfälle auf das kalte Wetter zurückzuführen sind – oder rechnerisch ein Todesfall alle dreieinhalb Minuten. Campaigner haben diesen Umstand als „nationale Tragödie“ bezeichnet, zumal die Todesfälle bzgl. kalten Wetters hätten vermieden werden können – vor allem unter den Älteren. – Hayley Coyle, Daily Star, 7. April 2018

2) Energiepreise müssen sinken, um Todesfälle durch Kälte zu reduzieren

In UK hat die Anzahl exzessiver Todesfälle durch kaltes Winterwetter im vorigen Jahrhundert abgenommen, aber im vergangenen Jahrzehnt ist dieser Fortschritt zum Stillstand gekommen. Der Trend könnte sich sogar umkehren, steigen doch Rechnungen immer mehr, um Technologien unzuverlässiger erneuerbarer Energie zu stützen. Die Temperatur in zentral beheizten Wohnungen ist ebenfalls gesunken, was ein Indiz dafür ist, dass die steigenden Energiekosten die Menschen davon abhalten, ihre Wohnungen angemessen zu heizen. Angesichts der Verbesserungen bzgl. Dämmung ist dies umso überraschender, hätte doch dieser Vorgang zu wärmeren und nicht kälteren Wohnungen führen müssen. – The Conservative Woman, 9. März 2018

3) Energiearmut in UK: Kosten grüner Subventionen steigen auf 11,3 Milliarden Pfund

Das Office for Budget Responsibility hat jüngst ihr Frühjahrs-Gutachten veröffentlicht. Die wirtschaftlichen und finanziellen Aussichten darin enthüllen, dass die Kosten für Umweltabgaben in diesem Jahr auf 11,3 Milliarden Pfund steigen werden. Das ist ein Anstieg von 2 Milliarden Pfund im Vergleich zum Vorjahr. – Paul Homewood, Not A Lot Of People Know That, 7. April 2018

4) Solarparks erhalten mehr Geld durch grüne Subventionen als sie mit dem Verkauf der von ihnen erzeugten Energie einnehmen.

Die größten Solarparks in UK erhalten mehr Geld durch grüne Subventionen als durch den verkauften Strom, den sie erzeugen. Dies geht aus neuen Zahlen hervor. Energieerzeuger werden mittels großzügiger Garantien zum Bau weiterer Solarparks ermutigt, finanziert durch ,grüne Abgaben‘, welche den Rechnungen der Steuerzahler hinzugefügt werden. Aber viele der Erzeuger erzielen die Mehrheit ihrer Einkünfte durch die Subventionen – anstatt durch den Strom, den sie erzeugen. – Colin Fernandez, Daily Mail, 9. April 2018

5) Öl und Kohle verhinderten Stromausfälle in den USA während des vergangenen Winters

Neuen Daten und Analysen der US-Regierung zufolge konnten während des schweren Schneesturms im Osten der USA zum Jahreswechsel 2017/18 Stromausfälle nur durch verstärkte Stromerzeugung aus konventionellen Quellen verhindert werden, vor allem Kohle und – so unglaublich es klingt – Öl. Erneuerbare waren eine Enttäuschung auf der ganzen Linie. Die Warnung an Europa ist laut und deutlich! [Hervorhebung vom Übersetzer] – John Constable, GWPF Energy, 8. April 2018

Übersetzt von Chris Frey EIKE




Abbruchstimmung in Deutschland : Vielen Windparks droht das Aus. Der Rückbau könnte zu unerwarteten Problemen führen.

Alex Reichmuth*

In Deutschland stehen mittlerweile fast 29 000 Windanlagen. Sie machten im letzten Jahr rund 16 Prozent der Stromproduktion aus. Doch nachdem es beim Windstrom jahrzehntelang nur vorwärts ging, könnte das Abschalten zahlreicher Anlagen bald zu einem Rückgang der Produktion führen. Der Grund ist nicht, dass die Anlagen nicht mehr funktionieren – sondern dass ihre finanzielle Förderung demnächst ausläuft.

Das deutsche Erneuerbaren-Energie-Gesetz, das im Jahr 2000 in Kraft getreten ist, garantiert Windpark-Betreibern während zwanzig Jahren kostendeckende Tarifefür den Strom, den sie ins Netz speisen. Ab 2020 läuft diese Förderung jährlich für Tausende Windräder aus.Die Betreiber müssen ihren Strom dann auf dem freien Markt anbieten, wo die Preise im Keller sind. Die Erträge dürften in vielen Fällen den Weiterbetrieb der Anlagen nicht decken, zumal viele von ihnen nach zwanzig Jahren Betrieb wartungsintensiver sind und mancherorts kostspielige Reparaturen fällig werden.

Konkret läuft 2020 die Förderung für 5700 Anlagen mit einer gesamten installierten Leistung von 4500 Megawatt (MW) aus.

In den darauf folgenden Jahren dürften es jeweils zwischen 2000 und 3000 MW sein, für die die staatliche Subventionierung wegfällt. Der deutsche Bundesverband Windenergie schätzt, dass bis 2023 rund 14 000 MW installierte Leistung die Förderung verlieren, was mehr als ein Viertel der deutschen Windenergie-Kapazität an Land ist. Wie viele Anlagen tatsächlich vom Netz gehen, hängt vom künftigen Strompreis ab. Bleibt dieser so tief wie heute, könnten mehr Anlagen stillgelegt als neu errichtet werden.

Allerdings ist der Rückbau von Windanlagen nicht ohne Tücken.

Heute können alte Anlagen zwar noch mit Gewinn in andere Weltgegendenwie Osteuropa, Russland oder Nordafrika verkauft werden, wo sie dann weiterbetrieben werden. Aber das Angebot gut erhaltener Altanlagen steigt und dürfte die Nachfrage bald übertreffen. Dann bleibt nur der Rückbauvon Anlagen. Und dieser geht ins Geld. Laut dem Bundesverband Windenergie ist pro Megawatt installierte Leistung mit Kosten von 30 000 Euro zu rechnen. Für eine grosse Turbine fällt so rasch ein sechsstelliger Betrag an.Viele Betreiber, zu denen auch Gemeinden gehören, dürften auf diese Kosten nicht vorbereitet sein.

Probleme beim Recycling

Eine besondere Herausforderung beim Rückbau stellt das Recycling der Bestandteile dar.«Wir stellen mit massiven Subventionen Windräder auf, aber niemand hat sich Gedanken gemacht, was danach mit den Anlagen passiert, dass die eingesetzten Mittel zum Beispiel auch recyclingfähig sein müssen»,so Herwart Wilms, Geschäftsführer des grössten deutschen Entsorger Remondis.

Zwar ist das Material von Stahlteilen oder Kupferleitungen sehr gut verwertbar. Ein Problem stellen aber die Rotorblätter dar, die aus einer Mischung aus Glas- und Kohlefasern bestehen und mit Polyester-Harzen verklebt sind.

«Wir laufen auf ein Riesenproblem zu»,sagte Michael Schneider von Remondis zum Handelsblatt. Denn es sei kaum möglich, die mit Harz verklebten Fasern wieder zu trennen. «Wir kriegen die nicht mehr auseinander», so Schneider. Ab 2021 könnten jährlich 16 000 Tonnen solcher Materialien anfallen.

Zwar will die Windkraftbranche Lösungen für die Wiederverwertung entwickeln. Ob diese dann nicht nur technisch, sondern auch ökonomisch aufgehen, steht aber in den Sternen. So könnte am Ende nur die energetische Verwertung übrig bleiben, sprich Verbrennung. Aber auch diese ist schwierig, weil die Rückstände von Rotormaterial feinkörnig sind und die Filter von Verbrennungsanlagen verstopfen.

Doch mit dem Rückbau der Anlagen selber ist es nicht getan.

Verschwinden müssten auch die Betonsockel, die das Fundament von Windrädern bilden.

Bei einer grossen Anlage kann dieser Sockel schnell mehr als 3000 Tonnen Stahlbeton umfassen und nicht selten über zwanzig Meter tief in die Erde reichen. Laut dem deutschen Baugesetzbuch müssen Windanlagen «vollständig rückgebaut werden» –und aus den Erläuterungen zum Gesetz wird klar, dass der Rückbau die Fundamente einschliesst.

Die vollständige Abtragung des Betonsockels kann rasch Kosten von mehreren Hunderttausend Eurozur Folge haben.

Auch haben mehrere Gerichte bestätigt, dass nach dem Ende einer Anlage die Betonfundamente abgetragen werden müssen. Das macht ökologisch durchaus Sinn. Wie Godehard Hennies, Geschäftsführer des Wasserverbandstages Bremen/Niedersachen/Sachsen-Anhalt gegenüber der Welt ausgeführt hat, durchstossen die Fundamente oft mehrere geologische Horizonte und verursachen eine bedenkliche Vermischung von vorher getrennter Grundwasserleiter.

Die vollständige Abtragung des Betonsockels kann aber rasch Kosten von mehreren Hunderttausend Euro zur Folge haben.Viele Windkraft-Betreiber haben keine entsprechenden Rückstellungen gebildet. Entsprechend werden die Regeln nicht durchgesetzt. An vielen Orten einigen sich die Betriebe mit den Landbesitzern darauf, dass sie nur die obersten zwei bis drei Meter des Sockels abtragen müssen – vermutlich meist gegen Ausrichtung einer Abgeltung.

Wie der Norddeutsche Rundfunk vor Kurzem berichtete, wird in der Region Dithmarschen in Schleswig-Holstein gar nur der oberste Meter von Betonfundamenten entfernt. Das für Umwelt verantwortliche Landesamt billigt offenbar solche Deals.

Auch deutschlandweit ahndet das zuständige Bundesamt das widerrechtliche Vorgehen bei den Windkraft-Sockeln bis heute nicht.

Geht es um erneuerbare Energie, haben Gesetze offenbar nur Empfehlungscharakter.

(Basler Zeitung)

=====================================================

)*  Dieser Artikel erschien zuerst in der BASLER ZEITUNG (ol.) am 05.04.2018

https://bazonline.ch/ausland/europa/abbruchstimmung-in-deutschland/story/18862585

EIKE dankt der Redaktion der BasZ sowie dem Autor Alex Reichmuth für die Gestattung des ungekürzten Nachdrucks.

======================================================




Widerlegung eines persönlichen Angriffs der gegnerischen Berater im Exxon Fall

Ich fragte Christopher Monckton, ob er etwas dazu sagen wollte. Er sagte:

„Es wird oft nicht erkannt, wie sehr diejenigen von uns, die es wagen, die Linie der Partei in Frage zu stellen, leiden müssen und wie viel dafür ausgegeben wird, uns leiden zu lassen.

„Um ein Beispiel zu nennen: Im Oktober 2009 hielt ich eine Rede in St. Paul, Minneapolis, in der ich in der Rede verriet, dass der damalige Entwurf des Klimavertrags von Kopenhagen die Einrichtung einer globalen „Regierung“ vorschlug. Das Wort „Regierung“ tauchte tatsächlich im Vertragsentwurf auf. Jemand hat bei diesem gut besuchten Vortrag die letzten vier Minuten meiner Rede gefilmt und auf YouTube veröffentlicht. Innerhalb einer Woche hatte es etwa fünf Millionen Zugriffe, verteilt auf mehrere YouTube-Kanäle. Dann hörten die Trefferzähler auf zu steigen. Ich hatte naiver weise  angenommen, dass jeder, der mich hören wollte, mich gehört hatte.

Dann erhielt ich einen Anruf von einem Professor der Texas A&M University, der mir sagte, dass die Überwachung der Universität ergeben hätte, dass meine Rede schließlich 20 Millionen Klicks erreicht hätte, aber dass jemand viel Geld bezahlt hätte, um ein Dutzend gefälschte Seiten voller Kauderwelsch einzurichten, aber mit ‚Monckton‘ und verwandten Tags versehen, um den gesamten Verkehr vom echten Kanal abzulenken. Ich fragte, wie es war, dass diese Seiten mehr Hits als die echte Seite angezogen hatten. Der Professor erklärte, dass die großen Suchmaschinen gut bezahlt worden seien, um die gefälschten Seiten über die echte Seite zu stellen. Ich fragte, wie viel diese Übung gekostet hat. Der Professor sagte, dass die Kosten mindestens $250.000, aber vermutlich viel höher  waren, um von meiner Rede abzulenken.

Es ist also bedeutsam, dass die Anwälte zweier Städte im „Sunstroke State“ (Wordspiel = Sonnenstichstaat) entschieden haben, dass sie den Richter im Fall der Ölkonzerne durch persönliche Angriffe auf unseren Ruf leichter beeindrucken können, als durch den Versuch, die beiden von uns angesprochenen wissenschaftlichen Punkte zu beantworten: Erstens, dass der vermeintliche wissenschaftliche Konsens nicht mehr als 0,5% betrug, und zweitens, dass die Klimapanik ausschließlich auf einem bedeutenden wissenschaftlichen Fehler beruhte, den wir kürzlich entdeckt hatten.

„Durch Reputationsangriffe haben sich die totalitären Regime des 20. Jahrhunderts etabliert und ihre Gegner neutralisiert. Durch Reputationsangriffe versuchen die Totalitaristen des 21. Jahrhunderts dasselbe zu tun. Aber die Totalitaristen des 21. Jahrhunderts haben die gleichen Fehler gemacht wie die Totalitaristen im 20. Sie haben die Wissenschaft falsch verstanden, weshalb der Schaden, den sie uns auf kurze Sicht zufügen wollen, mit großem Interesse auf lange Sicht auf sie zurückprallen wird. Sie haben das Geld, die Macht und den Ruhm, aber wir haben die Wahrheit, und die Wahrheit wird siegen.“

Monckton et.al; Eingabe an das Gericht

Hier finden Sie das eingereichte Dokument der Antwort: 20180327_docket-317-cv-06011_statement-1 (PDF)

Erschienen auf Wattupwiththat am 07.04.2018

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2018/04/07/a-rebuttal-to-an-ugly-amicus-brief-attack-in-the-exxonknew-case/




Umwelt­behörden: Panik­mache mit „Voodoo-Wissenschaft“

Hilfe, Deutschland wird vergiftet!

Unsere Messergebnisse zeigen an 89 Prozent der Messstellen zu viel NO2 in der Luft! Hier verpesten Diesel-Abgase die Luft! Gemeinsam mit vielen hundert freiwilligen Helfern haben wir einen Monat lang an 559 Orten in Deutschland die Luftqualität nachgemessen. Die Ergebnisse sind erschreckend! 89 Prozent der Messstellen zeigen mit Werten über 20 Mikrogramm NO2 pro Kubikmeter Luft (µg/m3) gesundheitlich bedenkliche Belastungen der Atemluft mit dem Dieselabgasgift Stickstoffdioxid [DECKE]“. Mit dieser Panikmeldung wirbt die angeblich gemeinnützige DUH, in Wirklichkeit ein Lobby- und Abmahnverein mit dubiosen Finanzierungen durch amerikanische und japanische Konzerne sowie durch Industriestiftungen, auf ihrer Webseite um Freiwillige und um Spenden für ihre Aktivitäten gegen die deutschen Autofahrer, Bild 1.

Bild 1. Raffiniert im sonstigen Wortgeklingel verpackt unterstellt hier die DUH, dass bereits ein NO2-Wert von 20 µg/m3 eine „gesundheitlich bedenkliche Belastung“ darstelle

Das ist sehr geschickt gemacht, denn wer nicht aufpasst, hat den Köder schon geschluckt: Die DUH ist in einer anrüchigen Zusammenarbeit im Huckepackverfahren mit der „Abgasalarm“-Aktion des SWR sowie weiteren Sendern unterwegs auf der Jagd nach angeblich überhöhten NO2-Abgaswerten. Dabei versucht sie der Öffentlichkeit Grenzwertvorgaben unterzuschieben, die bei lediglich der Hälfte des gesetzlichen Limits von 40 µg/m3 liegen. So kann man wunderbar Panik schüren. Aber woher stammt eigentlich diese seltsame, in keinem europäischen oder US-Gesetz aufgeführte Angabe von 20 µg/m3? Denn einen derart niedrigen Wert findet man in keinem einzigen Gesetzestext beiderseits des „großen Teichs“, Bild 2.

Bild 2. Aktuelle Vorgaben und daraus abgeleitete Handlungsanweisungen für die Gehalte an NO2 in der Außenluft in der EU (links) sowie in den USA (Grafik: Autor)

Auftakt zur nächsten Stufe der Dieselverteufelung

Die Antwort auf diese Diskrepanz ist einfach: Die DUH interessiert sich für den aktuellen Stand der Gesetzgebung nur insoweit, wie es ihren Profitinteressen dient. Gleichzeitig ist sie längst dabei, dieses Geschäft, das sich bereits bisher als äußerst profitabel erwiesen hat, noch erheblich auszuweiten. Zusammen mit einer kleinen Clique von Beamten sowie den von diesen finanziell abhängigen sogenannten Forschungsinstitutionen arbeitet man intensiv daran, den deutschen Autofahrer in Zukunft noch viel weitergehender zu schädigen. Was wir im Moment erleben, ist die Vorbereitung der „Grenzwertfalle 2.0“, nachdem sich bereits die erste als erfreulich wirksam erwiesen hat. Die dabei verfolgte Strategie: Das Auto als gesundheitsgefährliches Übel darzustellen, das Menschen vergiftet und tötet. Wie das bei der ersten Grenzwerfalle gemacht wurde, zeigt Bild 3.

Bild 3. Das gesamte „Dieselproblem“ ergab sich erst durch die abrupte Absenkung des NO2-Grenzwerts von 100 auf 40 µg/m3 in den Jahren 2008 (EU) bzw. 2010 (DE) (Grafik: [GREFAL])
Erst die drastische Verschärfung des Immissionsgrenzwerts für NO2 von vorher 100 µg/m3 auf nur noch 40 µg/m3 führte zu jenem plötzlichen Anstieg der Grenzwertüberschreitungen, der heute der DUH ihre Klagewelle ermöglicht. In den USA blieb der Grenzwert dagegen selbst bei neuerlicher Begutachtung im Jahre 2017 unverändert bei 100 µg/m3, siehe auch Bild 2.

Diese massive Verschärfung durch die Brüsseler EU-Bürokratie ist ein durchschlagender Erfolg der intensiven Lobbyarbeit grünlinker NGO’s auf EU-Ebene. Dabei erhielten sie tatkräftige Unterstützung durch das von Trittin mit eigenen Leuten sowie Gesinnungsgenossen aus der SPD durchsetzte Umweltministerium und das diesem angegliederte Umweltbundesamt UBA. Letzteres hat soeben mit seiner neuesten „Studie“ den Startschuss für eine neue Verteufelungskampagne gegeben. Das Ziel ist hierbei, dem Diesel durch erneute drastische Absenkung von Immissionsgrenzwerten endgültig den Garaus zu machen.

Die neue Horrorstudie des UBA

Die neue UBA-Studie über angeblich neue Erkenntnisse bezüglich der „Giftigkeit“ von NO2 [UBASTU] wurde am 8. März 2018 präsentiert. Diese unterstellt knapp 6.000 im Jahr 2014 angeblich direkt mit dem NO2-Gehalt verknüpfte Todesfälle sowie einen Zusammenhang mit hunderttausenden weiteren Erkrankungen, Bild 4.

Bild 4. Aussagen der vom UBA vorgelegten Studie zu den angeblichen Auswirkungen von NO2 auf die Gesundheit in Deutschland

Noch weitaus erschreckender sind die Angaben zum Auftreten von Diabetes Typ 2. Zwar werden hier für 2014 „nur“ 1.492 (zusätzliche!) Todesfälle, aber volle 436.841 Krankheitsfälle dem NO2 zugeschrieben. Obwohl die Gesamtzahl der behaupteten Todesfälle damit immer noch unter derjenigen anderer Studien wie derjenigen der Europäischen Umweltagentur EEA liegt, übersteigt die Zahl der angeblichen Todesfälle die Gesamtzahl der Verkehrstoten um gut das Doppelte.

An der Studie fällt auf, dass es für nachteilige Auswirkungen von NO2 keine Untergrenze geben soll. Dieser sogenannte LNT-Ansatz (Linear-No-Threshhold) geht davon aus, dass jedes zusätzliche Mikrogramm/m3 einen schädlichen Einfluss hat, so dass es im Prinzip keinen unschädlichen unteren Grenzwert geben kann. Herr Resch von der DUH hat diese „regierungsamtliche“ Steilvorlage natürlich sofort genutzt und seine Kampagnen für das laufende Jahr sofort angepasst, indem er jetzt bereits Gehalt ab 20 µg/m3 als gesundheitsschädlich verteufelt.

Ein abstraktes Computer-Zahlenspiel…

Schon der erste Blick auf das vom Institut für Epidemiologie des Helmholtz-Zentrums in München sowie der IVU Umwelt GmbH in Freiburg vorgelegte Werk offenbart, dass es sich hierbei um eine reine statistische Zahlenspielerei ohne Realitätsbezug handelt. Man hat Messung und Erfassung durch Simulation und Statistik „ersetzt“, den Computer simulierte Jahresverteilungen für NO2-Gehalte in der Luft vor allen deutschen Haustüren ausrechnen lassen und diese NO2-Gehalte dann den in den jeweiligen Gebäuden wohnenden Bürgern zugeschrieben, Bild 5.

Bild 5. Einteilung der Bevölkerung nach Konzentrationsklassen (Grafik: UBA)

Interessant an Bild 5 ist der (so ganz bestimmt nicht beabsichtigte) Nachweis, dass nur ganz geringe Anteile der Bevölkerung in Bereichen mit NO2-Mittelwerten oberhalb von 40 µg/m3 wohnen. Zudem beweist es die Unsinnigkeit des Untersuchungsansatzes nach Wohnort. Der halb im Grünen bei 15-20 µg/m3 wohnende Bergmann in Datteln, der jedoch im Bergwerk jeden Arbeitstag acht Stunden mit einen NO2-Gehalt von 950 µg/m3 zu tun hat, gilt von vornherein als weit weniger exponiert als der Stuttgarter Buchhalter aus der Hohenheimer Straße (69 µg/m3), der beruflich in der siebten Etage eines reinen Bürogebäudes in Botnang den ganzen Arbeitstag lang höchstens 20 µg/m3 ausgesetzt ist. Dieser Ansatz ignoriert die Tatsache, dass unsere Bevölkerung ihre Zeit zu mehr als 90 % nicht etwa auf der Straße direkt vor dem Haus verbringt, sondern sich überwiegend in Innenräumen aufhält, wo sich die NO2-Gehalte drastisch von denjenigen auf der Straße unterscheiden. Dabei ist diese Erkenntnis schon seit mehr als zehn Jahren Stand der Wissenschaft, siehe z.B. die Arbeiten von Mitchell et al. [MITCH] oder Oglesby et al. [OGLE]. Die Verwendung derart sinnlos klassifizierter Eingangsdaten macht die Studie daher vorn vorherein wertlos. Schade um das Papier. Wieviel Steuergeld wurde dafür verschwendet?

mit sinnlosen „Ergebnissen“

Ein weiterer Kardinalfehler, der schon vom Ansatz her die Arbeit wissenschaftlich wertlos macht, ist das Ignorieren gesicherter toxikologischer Zusammenhänge. Toxikologen machen dasselbe wie Pharmazeuten, indem sie genau erforschen, wie der Körper auf Substanzen reagiert und welche Mengen welche Auswirkungen haben. Ohne diese Grundlagenforschung wäre es nicht möglich, Medikamente wirksam zu dosieren. In der UBA-Studie wird dagegen ausdrücklich erwähnt, dass „keine Tierstudien, In-vitro-Versuche und experimentelle oder toxikologische Studien berücksichtigt“ wurden. Stattdessen wurden Schlüsse rein aufgrund statistischer Auswertungen von mangelhaft selektierten Eingangsdaten gezogen. Dies kann man als äußerst fragwürdigen Umgang mit Statistik einstufen. Zu den wichtigsten Irrtümern bei statistischen Auswertungen zählen sogenannte Scheinkorrelationen, d.h. die Ermittlung von „Geister-Zusammenhängen“. Sehr bekanntes Beispiel ist der statistisch ermittelbare Zusammenhang zwischen der Storchenpopulation und der Geburtenrate, Bild 6.

Bild 6. Da Störche keine Kinder bringen, ist der statistisch nachweisbare Zusammenhang zwischen Storchenpopulationen und Geburtenraten eine Scheinkorrelation [STORCH]
Solche Scheinkorrelationen sind alltäglich. Sie kommen auch vor, wenn zwei verglichene Merkmale eine gemeinsame Ursache haben, z.B. die positive Korrelation zwischen zivilen Opfern und zerstörten Häusern in Kriegsgebieten. Beide sind – obwohl voneinander völlig unabhängig – auf die gemeinsame Ursache „Bombardierungen“ zurückzuführen. Dabei töten weder kaputte Häuser Zivilisten noch umgekehrt.

Bei jeder statistischen Untersuchung besteht eine der Hauptaufgaben darin, sich vorab zu vergewissern, dass man nicht solchen Scheinkorrelationen aufsitzt. Wichtigste Voraussetzung hierfür ist die genaue Untersuchung möglicher Wirkmechanismen. Korrelationen, für die es keine biologisch oder toxikologisch gesicherten Wirkzusammenhänge gibt, sollte mit größtem Misstrauen begegnet werden. Dies gilt umso mehr, wenn die Erfassung der Eingangsgrößen auf derart wackliger, um nicht zu sagen dubioser Basis beruht wie bei der UBA-Studie.

Warum wurden Raucher, Säufer & Co. „vergessen“?

Zu den wichtigsten Ursachen für zahlreiche der auch in der UBA-Studie aufgeführten Erkrankungen zählt beispielsweise auch das Rauchen. Starke Raucher leiden wesentlich häufiger an Krebs sowie anderen schweren Krankheiten insbesondere auch des Herz-Kreislaufsystems und sterben im statistischen Mittel wesentlich früher als andere Mitbürger [SPIRA]. Bei einer solchen Untersuchung hätte man daher in jedem Fall das Merkmal „Rauchen“ ebenfalls erfassen müssen, um dessen Einflüsse herauszurechnen. Im gesamten Bericht findet sich jedoch kein einziger diesbezüglicher Hinweis. Das Gleiche gilt auch für andere entscheidende Kriterien wie Einkommen, Sport, Arbeitsplatz, Arbeitslosigkeit, Stockwerk und Orientierung der Wohnung (siehe Bild 7 und Bild 8), Beruf, Alkoholkonsum oder geographische Herkunft.

Bild 7. Selbst in Straßen, wo der NO2-Gehalt auf EG-Niveau über dem Grenzwert liegt, liegen die Luftwerte der oberen Etagen im grünen Bereich (Grafik: [RBBAVR])
Bild 8. Bei größeren Mietshäusern macht es einen enormen Unterschied, ob die Fenster der Wohnung zur Straße oder zum Hinterhof hin orientiert sind (Grafik: [RBBAVR])
Die Forderung nach Erfassung der geografischen Herkunft hat nichts mit Rassismus zu tun, sondern mit der bekannten Tatsache, dass z.B. Diabetes genetisch und von den Essgewohnheiten her bei Menschen in Ozeanien, dem mittleren Osten und Nordafrika ein besonders hohes Erkrankungsrisiko ist und dort wesentlich häufiger auftritt als bei solchen aus Nordwesteuropa [DIABE]. In diesen Regionen sind die Diabetes-Raten heute fünf- bis zehnmal so hoch wie bei uns. Und die von dort kommenden Migranten müssen sich meist mit dem billigsten verfügbaren Wohnraum bescheiden. Den finden sie vor allem entlang der besonders stark verkehrsbelasteten Straßen mit entsprechend hohen NO2-Werten in der Luft. Mit Eingangsdaten, die dies nicht berücksichtigen, kann man keine vernünftige Statistik betreiben.

Ein weiterer, für die individuelle NO2-Beaufschlagung ganz entscheidender Punkt sind die NO2-Gehalte in der Wohnung selbst. Von außen eindringendes NO2 wird in Innenräumen sehr schnell in erheblichem Umfang abgebaut, so dass die Innenraumwerte nur äußerst selten über dem Grenzwert liegen. Sie können jedoch auch teils extrem höher liegen als auf der Straße, falls die Bewohner NO2-Quellen wie Zigaretten, Schischas, Räucherwerk, Kerzen, Gasherde, Gas-Zusatzheizungen etc. verwenden, Bild 9 und Bild 10.

Bild 9. Das Kerzenlicht eines Adventskranzes vermittelt ein starkes Gefühl von Heimeligkeit und familiärer Geborgenheit. Zugleich sind Kerzen jedoch regelrechte NO2-Schleudern (Foto: Autor)

Bild 10. Simulation der NO2-Konzentration in einem 50-qm-Wohnzimmer beim Abbrennen von Kerzen (Grafik: Uni Wuppertal/ Kleffmann) Hellgrün: Zulässiger Konzentrationsbereich auf der Straße, Dunkelgrün: Zulässig für Innenräume, Gelb: Bereich unterhalb des 1-Stunden-Grenzwerts für den Schutz der menschlichen Gesundheit, Orange: als gefährlich definierter Bereich zwischen 1-Stunden-Grenzwert und MAK-Wert. Die rote Linie markiert den Grenzwert für die Luft auf der Straße.

Der vom UBA vorgelegte Bericht enthält jedoch keinerlei Hinweise auf die Erhebung entsprechender Daten. Die Macher dieser Studie scheinen die Regeln ordentlichen wissenschaftlichen Arbeitens weitgehend ignoriert zu haben.

Degeneriert die Epidemiologie zur Voodoo-Gefälligkeitswissenschaft?

Die Wissenschaftler hinter dieser Studie – insbesondere die zuständige Professorin Annette Peters – müssen sich fragen lassen, was sie geritten hat, dass sie ihren wissenschaftlichen Ruf in derartiger Weise in Gefahr gebracht haben. Zusätzlich hat man sich durch den Versuch, die bestehende Untergrenze von 40 µg/m3 infrage zu stellen, gefährlich weit aus dem Fenster gelehnt. Die Tatsache, dass die DUH diese Folgerungen der Studie sofort und verschärfend in ihre politische Kampagne eingebunden hat, ist entlarvend und zeigt, wie sich deutsche Beamte, um Geld für Forschungsaufträge bemühte Institute sowie die DUH mit verteilten Rollen gegenseitig auf Kosten der auf’s Auto angewiesenen Bevölkerung die Bälle zuspielen. Dem Ruf der Epidemiologie als Ganzes sowie dem der beteiligten Institute haben die Autoren damit keinen Gefallen getan. Denn die Mängel dieser Untersuchung sind so eklatant, dass sie inzwischen eine ganz besondere „Auszeichnung“ erhalten hat.

Unstatistik des Monats: Eine Ohrfeige der peinlichsten Art

Die Auszeichnung als „Unstatistik des Monats“ gilt als eine der schlimmsten Peinlichkeiten, die einem Wissenschaftler widerfahren können. Verliehen wird sie vom RWI – Leibniz-Institut für Wirtschaftsforschung, einem hochkarätig besetzten Forschungs- und Beratungsinstitut mit einem breiten Betätigungsfeld in Politik, Wirtschaft und Gesellschaft. Mit der „Unstatistik des Monats“ hinterfragen Prof. Gerd Gigerenzer, Direktor des Harding-Zentrums für Risikokompetenz am Max-Planck-Institut für Bildungsforschung, Prof. Dr. Walter Krämer, Leiter des Sonderforschungsbereichs „Statistik nichtlinearer dynamischer Prozesse“ der TU Dortmund und RWI-Vizepräsident Prof. Thomas K. Bauer jeden Monat sowohl jüngst publizierte Zahlen als auch deren Interpretationen. Hier Zitate aus der Begründung:

Die Unstatistik März 2018 sind die 6.000 angeblichen Stickstofftoten im Jahr 2014 in Deutschland. Eine Studie, die im Auftrag des Umweltbundesamtes erstellt wurde, will herausgefunden haben, dass 5.996 Bundesbürger an Herz-Kreislauf-Krankheiten vorzeitig verstorben seien, die sie sich durch NO2-Belastung zugezogen hätten. Die methodischen und konzeptionellen Mängel dieser Studie wurden schon an anderer Stelle kritisiert…Die Zahl 6.000 ist das Produkt einer reinen Modellrechnung; es gibt zwar die Vermutung, aber keinen Nachweis, dass NOx zum Tod durch Herz-Kreislauf-Erkrankungen führt. Kaum ein Arzt hat bisher die NOx-Belastung als Todesursache angegeben“.

Bild 11. Stellungnahme des Statistikprofessors Krämer zur UBA-Studie über angeblich 6.000 Dieseltote in einem Interview [KRA1]
Dem ist kaum noch etwas hinzuzufügen. Sehr zu empfehlen sind in diesem Zusammenhang die Interviews von Prof. Krämer in den „Stuttgarter Nachrichten“ [KRA1] sowie in der WAZ [KRA2].

Fred F. Mueller

Quellen

[DECKE] https://www.duh.de/abgasalarm/

[DIABE] http://www.spiegel.de/gesundheit/diagnose/diabetes-bericht-der-who-die-welt-ist-zuckerkrank-a-1085458.html

[GREFAL] https://postimg.org/image/5m5xgtfth/

[KRA1] https://www.stuttgarter-nachrichten.de/inhalt.statistikprofessor-kritisiert-studien-zu-diesel-abgasen-die-abgastoten-sind-reine-panikmache.eccdfa2c-1441-49b9-88d5-c52735b9e41b.html

[KRA2] https://www.waz.de/staedte/essen/es-ist-panikmache-von-tausenden-abgas-toten-zu-sprechen-id213702577.html

[MITCH] http://www.healthyheating.com/Thermal_Comfort_Working_Copy/indoor_environmental_quality_health.htm#.WsefNpcuCUk

[OGLE] Oglesby, L., Rotko, T., Krutli, P., Boudet, C., Kruize, H., Nen, M.J., et al. (2000): Personal exposure assessment studies may suffer from exposure-relevant selection bias. J Expo Anal Environ Epidemiol 10(3): 251-266.

[RBBAVR] https://www.rbb24.de/politik/thema/2017/abgasalarm/beitraege/abgasalarm-Stickoxid-Werte-in-Berlin-flaechendeckend-zu-hoch.html#top

[SPIRA] http://www.spiegel.de/gesundheit/diagnose/rauchen-toetet-in-deutschland-vor-allem-die-sozial-schwachen-a-1201327.html

[STORCH] http://robertmatthews.org/wp-content/uploads/2016/03/RM-storks-paper.pdf

[UBASTU] https://www.umweltbundesamt.de/publikationen/quantifizierung-von-umweltbedingten

[UNSTA] http://www.rwi-essen.de/unstatistik/77/




Der ökologische Suizid der Osterinseln – Mythos und Realität

Kristof wiederholt den archäologischen Mythos, dass die Einheimischen der Osterinsel „ökologischen Selbstmord“ begingen, indem sie alle ihre Palmen fällten. Sie sollen die Stämme als Rollen benutzt haben, um ihre berühmten riesigen Statuen zu bewegen. Danach konnten sie keine Kanus mehr bauen, um die Fische zu fangen, die ihre wichtigste Proteinquelle waren. Schlimmer noch, er sagt, das Abholzen der Bäume führte zu so viel Bodenerosion, dass sich die meisten der Bevölkerung verhungerten oder aus Verzweiflung gegenseitig töteten.

Ein Gleichnis von Selbstzerstörung

… „Die Isolation von Ostern macht es zum deutlichsten Beispiel einer Gesellschaft, die sich selbst zerstörte, indem sie ihre eigenen Ressourcen überbeutete“, schrieb Jared Diamond in seinem Buch “ Collapse “ von 2005. „Die Parallelen zwischen der Osterinsel und der ganzen modernen Welt sind erschreckend offensichtlich.

Das bringt uns zum Klimawandel, zu den chemischen Prozessen, die wir jetzt auslösen, deren Ergebnisse wir nicht vollständig vorhersagen können. Die Folgen könnten ein transformierter Planet mit steigenden Wassern und heißem Wetter sein, sterbende Korallenriffe und saurere Ozeane. Wir fürchten um die Nahrungskette des Ozeans und sorgen uns um Rückkopplungsschleifen, die diesen Prozess irreversibel beschleunigen werden. Dennoch verhalten wir uns wie Osterinselbewohner, die ihre Bäume hacken.

Gemeinsam könnte unsere Generation auf der Erde jetzt die Geographie unseres Planeten für Tausende von Jahren neu gestalten.

Dieser Mythos verschleiert die Auswirkungen der Kleinen Eiszeit auf die Osterinseln und ignoriert die unvermeidliche Realität, dass unsere kommenden Generationen relativ bald mit einem weiteren eisigen Zeitalter konfrontiert sein könnten, das unsere Technologien auf eine harte Probe stellen wird. Die kalten Jahrhunderte können sogar die vom Menschen verursachte globale Erwärmung attraktiv erscheinen lassen!

[Einschub:

Eine differenzierte Meinung wird auch in der  „Welt“ gebracht. Ratten hätten die Pflanzensamen gefressen.

Woher haben die Osterinseln ihren Namen?
Ihren Namen bekam die Insel vom niederländischen Seefahrer Jakob Roggeveen, der sie am Ostersonntag des Jahres 1722 entdeckt hat.]]

Die Bewohner der Osterinseln schneiden nie ihre Palmen! Nach ihren kulturellen Legenden, als die Kanus der Polynesier um 1000 n. Chr. Ostern erreichten, war die Insel mit Gräsern bedeckt. Es gab nur wenige Palmen. Moderne Pollenstudien bestätigen dies und zeigen, dass die Insel in der Antike Palmen hatte – aber die meisten starben in den kalten Dürren des Mittelalters (600-950 n. Chr.). Die wenigen überlebenden Palmen starben während der Kleinen Eiszeit, nachdem die Polynesier die Insel besiedelt hatten. Die letzte Palme ging ein um 1650.

Kristof scheint die tödliche Kraft des kalten, chaotischen, kohlendioxidarmen Klimas in diesen „kleinen Eiszeiten“ nicht zu verstehen.

Die Inselbewohner hätten ohnehin keine Palmenstämme für Kanus benutzt. Die Polynesier wussten, dass Palmenstämme viel zu schwer sind. Kanus müssen auf den Wellen gleiten, auch wenn sie schwere Lasten tragen. Die Polynesier machten ihre Kanus aus den viel leichteren Toromiro-Bäumen, deren Setzlinge sie von den Marquesas-Inseln mitgebracht hatten.

Bodenerosion? Die Osterinsulaner mussten keine Bäume von ihrem Land räumen, um Taro, Yamswurzeln und Süßkartoffeln anzubauen. Sie pflanzten die Knollen zwischen den Stümpfen kleinerer Bäume, die für den gelegentlichen Hausbau geschnitten wurden. Die gefällten Bäume wuchsen aus ihren lebenden Stümpfen wieder auf; ihre Wurzelsysteme blieben lebendig und schützten den Boden weiter. Tatsächlich schützten die landwirtschaftlichen Techniken der Inselbewohner den Boden noch besser als auf dem Festland bis zur Einführung der modernen Direktsaat.

Kein Fisch zum Essen? Ein Leutnant der U.S. Navy, der die Osterinseln 1886, kurz nach dem Ende der Kleinen Eiszeit, besuchte, berichtete, dass die Einheimischen riesige Mengen an Meeresfrüchten aßen! Die meisten Fische wurden mit kleinen Küstenkanus gefangen, wobei Steinfische sehr beliebt sind. Die Einheimischen spießen auch Delfine in die Untiefen, nachdem sie das berühmte „Sonar“ der Tiere durch das Klatschen von Steinen verwirrt hatten. Flusskrebse und Aale gab es in den Felsspalten der Küste, und fliegende Fische schleuderten sich selbst an die Strände. Schildkröten und Schalentiere waren reichlich vorhanden.

Die Inselbewohner töteten sich auch nicht gegenseitig in Hungerkriegen – obwohl die Süßkartoffelernte spärlich war und die Bevölkerungszahl während der kalten Dürre in der Kleinen Eiszeit zurückging.

Was ist mit der Osterbevölkerung passiert? Die Wahrheit ist ein abscheulicher Blick auf die Ausbeutung einiger der schwächsten Menschen auf der Erde durch einige der Mächtigsten der [damaligen] Zeit. Peruanische Sklavenjäger brachten die meisten Männer im 18. Jahrhundert nach Peru, um Schiffsladungen mit Seevogelmist (Guano) von den dort vorgelagerten Inseln abzugraben, um Europas Felder zu befruchten. Schreckliche Zustände, Überarbeitung und europäische Krankheiten töteten die meisten der entführten Sklaven.

Die Empörung der peruanischen Bürger über diese Misshandlungen zwang die Behörden schließlich dazu, die wenigen Überlebenden zurückzugeben. Leider trugen die Überlebenden die Pocken zurück nach Ostern. Nur wenige Einheimische überlebten die folgende Epidemie. Später steckten wohlmeinende Missionare die Bewohner mit Tuberkulose an.

Die letzte Katastrophe war die Verpachtung der Grasflächen der Insel an weiter weg wohnende Schäfer für die Beweidung. Die Schafe zerstörten die letzten der Toromiro-Bäume, während die überlebenden Eingeborenen (unglaublich) hinter Stacheldraht eingesperrt wurden – bis 1960 – als schließlich die Welt davon erfuhr und die Sache verurteilte.

Kristof, der vielleicht seine Osterinsel-Mythen aus Jared Diamonds fehlgeleitetem Buch „Collapse“ erhalten hat, schätzt die nachhaltigen Traditionen der polynesischen Siedler im Südpazifik nur als gering ein. Ihre aufschlussreiche Tradition bestand darin, eine Ressource nicht schneller zu verbrauchen, als sie sich selbst wiederherstellen konnte.

Mutter Natur, nicht die Polynesier, zerstörten die Bäume. Es passierte immer wieder: in der eisenzeitlichen Abkühlung, im kalten Mittelalter und dann wieder in der kleinen Eiszeit. Auch war Mutter Natur nicht „fahrlässig“. Die Natur reagierte auf die uralten Befehle der Sonne, die Gravitationsfelder der vier größten Planeten und die anderen mächtigen Naturkräfte, die seit jeher das Klima der Erde bestimmen.

Dieselben planetarischen Muster bestimmen auch unsere Zukunft, ob wir wollen oder nicht. Ein weiteres „Eiszeitalter“ wird unweigerlich unsere gegenwärtige und relativ unterstützende Klimawärme und -stabilität ersetzen. Das wird wahrscheinlich (hoffentlich) erst in einigen Jahrhunderten eintreffen. Unsere aktuelle Erwärmungsperiode ist erst 150 Jahre alt; die kürzeste Dansgaard-Oeschger-Warmphase war das Mittelalter, das 350 Jahre dauerte.

Die Osterinsulaner waren technologisch in der Lage (wenn auch kaum), ihre Gesellschaft durch die Klimazyklen der Natur zu erhalten. Andernorts überlebten Nomaden aus der Schwarzmeerregion das letzte Gletschermaximum (bei Temperaturen unter -40 Grad Celsius), indem sie Zelte aus Mammutfellen bauten, um die Kälte zu überleben, während sie den wandernden Mammutherden folgten. Diese riesigen pelzigen Tiere waren selbst gezwungen, auf Wanderschaft zu gehen, da die Eiszeit das Gras in eine weniger nahrhafte Tundra verwandelte.

nsere Vorfahren entdeckten die Landwirtschaft erst vor etwa 10.000 Jahren, was als die wichtigste Entwicklung in der gesamten Menschheitsgeschichte anzusehen ist. Die Landwirtschaft erlaubte es den Menschen schließlich, mehr als nur herum streunende Banden auf Jagd zu werden, die ihre Babys und spärlichen Habseligkeiten auf dem Rücken trugen. Durch Arbeitsteilung konnten sie mehr Menschen ernähren, Sprachen erschaffen, Tempel, Städte und Handelsschiffe bauen und Industrien gründen, die Gegenstände aus Kupfer, Bronze und dann Eisen herstellten.

Kollektives Lernen hat uns nun an den Punkt gebracht, an dem wir Ressourcen schaffen, anstatt sie nur zu finden. Denken Sie an Stickstoffdünger, der zu 78% aus der Luft gewonnen und dann durch natürliche Prozesse wieder in die Atmosphäre zurückgeführt wird. Denken Sie an Computerchips und Glasfaserkabel aus Silizium, das auf Sand basiert.

Wir sind nicht mehr dazu verdammt aufzuwachsen, nur um irgendwann wieder an Krankheiten zu sterben. Unsere Herausforderung besteht heute nicht darin, die harte und unsichere Abhängigkeit von Mutter Natur und ihrem tödlichen Klima zu meistern. Vielmehr können und müssen wir uns auf das nächste „Eiszeitalter“ vorbereiten, von dem wir wissen, dass es kommen wird – indem wir unser kollektives Lernen fortsetzen, eine natürliche Weisheit anwenden und uns nicht von den fossilen, nuklearen und anderen zuverlässigen, erschwinglichen Energiequellen abwenden, die unsere Industrien, unsere Gesundheit, Innovationen und unseren Lebensstandard ermöglicht haben.

Mr. Kristofs Mythologie führt uns zurück in die Unwissenheit, nicht vorwärts.

Dennis Avery ist Co-Author des New York Times best-seller “Unstoppable Global Warming: Every 1,500 Years mit dem Atmosphärenphysiker Fred Singer. Sein nächstes Buch ist betitelt „Climates of Collapse: the Deadly “Little Ice Ages.”

Erschienen auf Wattsupwiththat am 07.04.2018

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2018/04/07/easter-islands-ecological-suicide-myths-and-realities/




Gibt es im Winter bald auch keinen zuver­lässigen Nah­verkehr?

Bei Kälte wurde es ab 100 km schon eng

Diese Aussage stammt vom Verkehrsbetriebschef der Fürther Verkehrsbetriebe bei der Vorstellung des in seinen Augen erfolgreichen Probebetriebes des ersten Elektrobusses [1]. Dabei hatte Franken diesen Winter fast keine Kälte und nur einen nicht warmen Frühling. „ … Es zeigte sich, dass die vom Hersteller angegebene Reichweite von 200 km in der Realität kaum verfügbar ist“, ging es weiter. Die technischen Sachverständigen der Verkehrsbetriebe Nürnberg, welche ebenfalls Elektrobusse testen, kamen nach langen Versuchsreihen sogar dahinter, woran es unter anderem liegen könnte: „ Auch in Nürnberg stellte man fest, dass schon der volle Betrieb der Heizung die Reichweite enorm reduziert“.
Darauf, dass Akkus bei tieferen Temperaturen auch generell weniger Strom speichern können, wird man wohl erst nach weiteren, langwierigen Versuchsreihen (mit öffentlicher Förderung und der unvermeidbaren, wissenschaftlichen Begleitung) kommen. Eine solche Versuchsreihe bei kaltem Winter steht noch aus. Die (Er-)Kenntnis der zuständigen Fachleute wird also noch ein paar Jahre auf sich warten lassen müssen.
Diese geschilderten Probleme gelten für Busse, welche zwei-, bis dreimal so viel kosten wie konventionelle und zusätzlich eine Ladesäule für ca. 75.000 EUR „benötigen“.

Nach den Erfahrungen aus dem Wetterverhalten der Bahn lässt sich daraus nur ableiten, dass bei etwas strengeren Wintern zukünftig mangels Reichweite der neuen Elektrobusse auch im Nahverkehr der Betrieb eingeschränkt werden muss.

Damit bekommen die Umweltenthusiasten recht: Das einzige, in Zukunft wirklich zuverlässige Beförderungshilfsmittel wird das Fahrrad – natürlich ohne Elektroantrieb, weil ja auch das Stromkontingent bald wetterabhängig ist. Und ihre Konsequenz daraus erscheint zielführend: keine Straßen mehr ausbauen oder pflegen, sondern nur noch Fahrrad-(Schnell)Wege forcieren.

Mit Elektrobussen hat man für nichts eine Lösung, aber mehr Probleme

[4] SPON 12.03.2017: Elektrobusse in Deutschland Zu teuer, zu unzuverlässig, zu aufwendig
… Die Busse sind noch nicht verlässlich genug: … kann etwa einer von fünf E-Bussen in den Testprojekten wegen technischer Probleme seine Fahrt nicht antreten oder zu Ende bringen. Durch die neue sensible Elektronik gibt es beispielsweise Ausfälle bei den Türen oder beim Kompressor. „Auf Dauer bringt das nichts, weil die Fahrgäste unzufrieden sind und man mehr Busse vorhalten muss“, sagt ein VDV-Pressesprecher. Zum Vergleich: Bei den Diesel-Bussen klappen etwa 9,5 von 10 Fahrten.
Anteil von Bussen an Luftverschmutzung ist fraglich
… „Es gibt keine belastbaren Zahlen über den generellen Anteil von Bussen an der Luftbelastung aus dem Straßenverkehr.“
Nach Daten der Landesanstalt für Umwelt in Baden-Württemberg aus dem Jahr 2014 waren im von Feinstaub und Stickoxiden belasteten Stuttgart Autos für den Großteil von Feinstaub (72 Prozent) und Stickoxiden (63 Prozent) verantwortlich. Schwere Nutzfahrzeuge, zu denen die Busse zählen, machten 30 Prozent der Stickoxide und 22 Prozent des Feinstaubs aus. Der Anteil der Busse dürfte aber weit darunter liegen, so Langner.
„Wenn alle Busse von Diesel auf Elektro umgestellt würden, gäbe es keinen Rieseneffekt“, stellt er fest: „Das wäre noch nicht die Lösung des Problems.“

Eventuell bessere Alternativen passen nicht zur Strom-Ideologie

Lasse man die bewährten, preiswerten und problemlosen Dieselbusse beiseite. Deren Zeit ist aus politischen Gründen abgelaufen. Es gibt aber auch Gas-betriebene Möglichkeiten. Diese sind viel geeigneter als reine Elektrobusse, doch: auch diese Technologie passt nicht zu den politischen Vorgaben:
Stadtwerke Münster 02.05.2017: [5] Stadtwerke testen erfolgreich Elektrobus mit Wasserstofftank

… Dort nämlich befindet sich ein Tank für Wasserstoff … So kann er den ganzen Tag unterwegs sein, ohne nachzutanken.
… Die ersten Ergebnisse sind auch dabei positiv, die Reichweite liegt bei über 350 Kilometern.
Zum Vergleich:
[5] … Bereits seit 2015 setzen die Stadtwerke erfolgreich Elektrobusse auf der Linie 14 ein, die inzwischen über 100.000 Kilometer im Fahrgastbetrieb zurückgelegt haben. Anders als Busse mit Wasserstofftank laden diese an den Endhaltestellen an Schnellladstationen Ökostrom in ihre Batterien, die Reichweite liegt hier bei rund 50 Kilometern …

Interessant ist darin vor allem, dass die Erzeugung von Gas durch Elektrolyse als zu teuer gilt.
Zum Argumentations-Vergleich: Um das EEG zu retten, ist es das in Summe noch viel teurere Power to Gas mit Rückverstromung natürlich nicht.
Interessant auch der Schluss in der SZ: „ Trotzdem geht die Forschung an der Brennstoffzelle weiter, weil Europa hier weltweit in der ersten Liga spielt …. Als Technologie in Reserve hat die Brennstoffzelle noch lange nicht ausgedient.
Besser kann man den Unsinn ideologiegetriebener Technologien nicht beschreiben. Forscht man in Europa nun nur weiter, weil man es halt kann, und das tote Pferd nicht abdecken will, oder glaubt man nicht wirklich an die Akkuautos und macht wie beim EEG weiter: Immer mindestens zwei Backuptechnologien bevorraten (und bezahlen), weil die ideologie-bedingt präferierte mit ziemlicher Sicherheit irgendwann zusammenbricht.

Kaum Vorteile, aber hohe Kosten

Ein rein elektrisch betriebener Nahverkehr verschlingt neben den Mehrkosten für die Fahrzeuge zusätzlich Unsummen für die Lade-Infrastruktur und den unvermeidbaren Akkuverschleiß.
Dazu eine kleine Abschätzung für die Stadt Nürnberg:
Nürnberg: Plant die Umrüstung der Hälfte des Busbestandes von 200 Fahrzeugen bis zum Jahr 2030.

Mehrkosten der Fahrzeugflotte:
-Pro Elektrobus ca. 300.000 EUR Mehrkosten und insgesamt für die Umrüstung der halben Flotte: ca. 60 Mio. EUR
-Zusätzlich Aufbau der einfachen Lade-Infrastruktur (ohne Schnelladestationen an den Endstellen): [1] „ … mit einer Investition von 15 … bis 20 Millionen Euro für Ladesäulen rechnet man in Nürnberg, um wie geplant bis 2030 die Hälfte der rund 400 VAG-Busse elektrisch betreiben zu können.“
-Akku-Lebensdauer: Angegeben sind ca. 4.000 Ladungen [2]. Alleine bei täglich zwei Nachladungen ergibt sich damit eine Lebensdauer von gerade einmal fünf Jahren. Kosten: [1] „ … alleine die Akkus schlagen sechsstellig zu Buche“. Das sind mindestens 100.000 EUR pro Stück. Für einen Bestand von 200 Fahrzeugen demnach alle fünf Jahre zusätzlich ca. 20 Millionen EUR an Kosten.
Das gilt für den halben Bestand. Die Jahre danach kommt die andere Hälfte dazu.
Wer meint, das wäre etwas zu restriktiv geschätzt: Bei der Elektrobuslinie in Genf [10] sind für einen dort eingesetzten Bus mit 600.000 km Jahresstrecke die 4000 Ladungen bereits nach einem Jahr erreicht (bei 150 km mittlerer Akkureichweite).
Dort wird am Akku-Verschleiß allerdings gespart, indem man es intelligent, aber noch teurer macht. Die Elektrobusse in Genf [10] werden an jeder Haltestelle nachgeladen. Das verringert den Verschleiß erheblich [6].

Ladezeiten

Die oft angegebenen, kurzen Ladezeiten von wenigen Minuten, gar Sekunden, sind „Stromtröpfchen“ an Flash-Stationen als (teure) Notlösung.

Bild 1 Flash-Laden eines Elektrobusses an jeder Haltestelle in Genf [10]
In Genf soll für eine Elektrobuslinie damit jede Haltestelle ausgerüstet werden [10] [12]. Mit diesem „Stromstoß“ schaffen es die Busse dann laut Prospektaussage „bequem bis zur nächsten Ladestation“, sprich: Wenn überhaupt, dann gerade so bis zur nächsten Bushaltestelle:

-Die angegebenen, pompösen 600 kW für 20 Sekunden entsprechen lausigen 3,3 kWh
-Bei 80 % Wirkungsrad des Schnelladens verbleiben davon noch 2.7 kWh
-Damit kommt der (vergleichsweise kleine) Elektrobus in Hannover im Winter maximal einen Kilometer weit.

Das müsste man sich als Anforderung für einen Dieselbus vorstellen. Doch so sieht der Öko-Fortschritt aus, nach dem sich laut unserer Umweltministerin die ganze Welt sehnt. Leider steht im Artikel nichts über die Kosten der so in Genf ausgebauten Buslinie.
Wirkliches Laden kostet nach wie vor seine Zeit. In Deutschland darf man dies wohl nicht sagen, weshalb der wissenschaftliche Dienst des Bundestages danach in China googelte:
Wissenschaftliche Dienste, Deutscher Bundestag (diese Experten googeln und „erkundigen“ sich auf YouTube über genaue Daten, zum Beispiel aus China: [2] Shenzhen … Das Aufladen der Batterien erfolgt über Nacht im Busterminal. Nach 6 h sind die Batterien zu 100 % geladen. Es gibt auch eine Schnelllademöglichkeit mit 3 h Ladezeit ...
Mit Angaben aus Projekten in Deutschland kann man dazu Weiteres abschätzen.
ÜSTRA Hannover: [3] Die Elektrobusse
… Im Depot sollen die Busse über Nacht vorgeladen und am Endpunkt der Linien 100 und 200 nachgeladen werden. Die Ringlinien 100 und 200 sind ca. 16 km lang. Es werden ca. 25 kWh (Sommer) und bis 40 kWh (Winter) Energie benötigt, um die gesamte Strecke einmal zurückzulegen; die Batterie des Busses speichert 125 kWh.

Nachgerechnet ergibt das an Linienrunden:
5 Runden im Sommer,
3 Runden im Winter,
danach wäre vollständiges Nachladen fällig.
Gut, „moderne“ Busse haben mehr Akkukapazität (aktuell 324 kWh [2]). Selbst dann erhöht sich die ohne Nachladen mögliche Rundenzahl gerade einmal auf 13 und 8 (wohl weniger, da das deutlich höhere Akkugewicht zusätzlich Energie kostet.

Bei den Stadtwerken Hannover funktioniert der Betrieb nur so reibungslos, weil an den Endhaltepunkten dank dort vorhandener Oberleitungen in jeder Fahrrunde nachgeladen werden kann (siehe Headerbild). Die wenigsten Buslinien in Deutschland verfügen jedoch an den Endpunkten „zufällig“ über Oberleitungen. Konsequenz: An allen Endpunkten Ladestationen nachrüsten – zu immensen Kosten, oder nach kurzer Betriebszeit zurück in einen Betriebshof. Vorteile sehen anders aus.
Als Konsequenz bleibt damit nur das übrig, was beim EEG bereits „erfolgreich“ angewandt wird: Für die Ideologie fährt man elektrisch. Wenn es kälter wird, muss man notgedrungen auf eine Nahverkehrs-Versorgung verzichten, oder mit einem geeigneteren Treibstoff wie Diesel fahren. Alternativ ist natürlich auch denkbar, die Elektrobus-Flotte so weit zu erhöhen, dass immer ein geladener Bus zum Ablösen bereitsteht. Da Kosten keine Rolle spielen, werden einige diese Lösung wählen.

Bei (daran verdienenden) Ökotheologen „sprudelt“ Strom überall aus dem Boden

Die Elektrobuslinie in Genf hat an jeder Haltestelle und an der Endhaltestelle Ladestationen. Wer meint, das würde zusammen mit dem Verlegen der erforderlichen Leitungen viel Geld kosten, kann sich überzeugen lassen, wieder einmal zu irren.
Man erinnere sich: Moses schlug an einen Felsen und in der Wüste sprudelte Wasser. Ähnlich „wundersame Strom-Zapfstellenfunde“ versprechen auch moderne Ökotheologen. Gott hat eben wirklich an alles gedacht und seine Wunder geschehen immer wieder:
[6] … Sie brauchen nur ca. 70 cm (tief) zu graben. Ich schwöre Ihnen, Sie werden auf ein Stromkabel stoßen … Das heißt, die Infrastruktur ist schon da, sie muss nur intelligent gesteuert werden ...

Wenn man viele Schulden hat, stören noch mehr auch nicht

Wer sich fragt, warum Elektrobusse so „gehypt“ werden, findet schnell die Erklärung: Sie werden vom Bund massiv gefördert:
[1] „ 80 % der Mehrkosten gegenüber Dieselfahrzeugen werden ab sechs Bussen gewährt … „
Da widersteht kein Vorstand eines Nahverkehrsbetriebes und kein mit darin sitzender, lokaler Bürgermeister, bei der Entscheidung, Gutes tun zu dürfen. Denn durch diese Förderung können es sich selbst tiefrot verschuldete Kommunen „leisten“:
Franken Fernsehen 03.11.2016: Mit einer „Pro-Kopf-Verschuldung“ von 2700 Euro ist die Noris in Sachen Schulden bayernweit ganz vorne mit dabei! Ein negativer Trend, der sich kaum stoppen lässt. Ganz im Gegenteil…
Man muss es natürlich relativ sehen. In anderen Bundesländern wäre man heilfroh, eine Stadt mit „so wenig Schulden“ zu haben. Und diese rüsten auch auf Elektrobusse um und denken nicht daran, Geld zu sparen [14].

Was die Städte können, macht Siemens auch

In Deutschland unterstützen Konzerne in der Regel das, was sich die Person an der politischen Spitze Deutschlands wünscht. Folgerichtig macht auch Siemens dabei mit, die Welt retten zu wollen, indem man den Grünpflanzen ihren lebensnotwendigen Dünger-Luftbestandteil CO2 wegnimmt.
[1] „Siemens will bis 2030 CO2-frei sein“.
Ein Steinchen dazu ist der Elektro-Lastwagen [7], die anscheinend innovativste Transportproduktentwicklung Deutschlands im jüngeren „Klimawandeltechnologie-Zeitalter“:
[8] EIKE: 30.08.2016: Streetscooter: Mit diesem Elektroauto hebt die Post ab. Wenn der Rückschritt Grün ist, heißt er Fortschritt
Ganz im Sinne unserer neuen Umweltministerin, welche als Germanistin und „Politikstudierte“ weiß, welche Zukunftstechnologien sich gut verkaufen werden:
[9] … Jetzt, nach dem großartigen Klimaschutzabkommen von Paris und der Agenda 2030, wird die weltweite Nachfrage nach Umwelttechnologie weiter steigen …
Die neue Ministerin sollte einmal nachsehen, wie die Kurve der Solarindustrie in Deutschland nach der wohl allerletzten Pleite von Solarworld verläuft (Bild 2). Mag sein, dass Nachfrage steigt, aber nicht (mehr) mit Artikeln aus Deutschland.

Bild 2 [15] Anschauliche Darstellung, wie sich ein Markt nach Reduzierung staatlicher Fehl-Subventionierung bereinigt
Bei öffentlicher Elektromobilität fällt auf, dass praktisch überall, wohin man danach in Deutschlang googelt, ein vom Bund gefördertes und von einem Uniinstitut „begleitetes“ – also mindestens öffentlich teilfinanziertes – Projekt dahinter steckt.
Sogar die Einsatztauglichkeit der richtungsweisenden Elektrotransporter der Post für die Stadt Nürnberg muss erst noch erforscht werden: [1] … Doch zunächst soll zusammen mit der Uni Erlangen-Nürnberg geprüft werden, wie alltagstauglich der „Greenliner“ ist und wie hoch die laufenden Kosten der elektrischen Belieferung sind. Also werden die Wissenschaftler das zeitlich unbefristete Siemens-Pilotprojekt auswerten …
Man könnte meinen, so wie inzwischen jeder Schüler*in neben dem Lehrpersonal parallel auch Psychologen „benötigt“, braucht jedes Elektrofahrzeug einen „wissenschaftlichen Begleiter“. Da die Anforderungen an die Ermittlung „wie hoch die laufenden Kosten der elektrischen Belieferung sind“ das Können eines buchhalterischen Sachbearbeite*in wohl kaum übersteigen, lassen sich auch weniger gut ausgebildete „Wissenschaftler“ einsetzen. Spöttisch ausgedrückt: Die Akademikerschwemme findet ihre erforderlichen Betätigungsfelder.

Elektrobuslinie in Genf, ein Vorbild?

Prestigeprojekt ohne Geldprobleme zeigen oft, zu welchen Auswüchsen Planer fähig sind. Im Projekt „Genf“ ist aber auch die Begründung exklusiv.

Reichweitenangst ist die Abkehr von „Überflussdenkweise“

UNTERNEHMER ZEITUNG: [12] Revolutionärer Stadtverkehr
… Denn heute bekommen es viele Menschen noch mit der Panik zu tun, leuchtet im Auto plötzlich die Lampe für den Reservesprit. Auch, wenn nur noch eine kurze Strecke zurückzulegen ist. «Bei Ressourcen können wir uns diese Überfluss-Denkweise bald nicht mehr leisten», sagt Chevrey. Er ist Berater beim Amt für Industrie- und Technologieförderung Genf (OPI) und der Leiter des Elektrobus-Projektes Tosa. Und Chevrey plädiert klar für die Tosa-Philosophie: eine bewusste und clevere Mangel-Verwaltung.

Um am Akkuplatz zu sparen, muss tröpfchenweise nachgeladen werden

[12] … Der Elektrobus aus Genf bekommt immer nur soviel Energie, wie er gerade braucht – das verschafft ihm das notwendige Quäntchen Effizienz für den Konkurrenzkampf im Markt gegen Diesel- und Trolleybusse. Dafür hat der Technologiekonzern ABB eine vollautomatische und ultraschnelle Ladetechnologie entwickelt. Der Bus lädt sich an den planmässigen Stopps an den Haltestellen in nur 15 Sekunden über eine Vorrichtung auf dem Dach auf.

Für 1000 Tonnen CO2-Einsparung im Jahr 16 Millionen Franken
(13,5 Mio. EUR) ausgeben

Seit man vom CO2 als Klimagift „weiß“, lässt sich schon ein „nur daran Denken“ in Gold aufwiegen und als Rettungstat der Welt präsentieren.
[13] Die zwölf bestellten vollelektrischen Trolleybusse der Firma Hess sollen eine Einsparung von 1000 Tonnen Kohlendioxid jedes Jahr bringen. Die Anschaffung der neuen Busse kostet die Genfer Verkehrsbetriebe 16 Millionen Franken.

… Ob auch andere Städte am leitungsfreien System Interesse zeigen, bleibt noch offen. Anfang Jahr sagten etwa die Verkehrsbetriebe Zürich (VBZ) gegenüber dem «Tages-Anzeiger», man setze vorläufig weiter auf klassische Hybridbusse. Schnellladesysteme würden eine zusätzliche Infrastruktur benötigen. Die VBZ prüfe jedoch die Möglichkeiten für reine Batteriebusse.

Könnte ein ganz anderes Kalkül dahinter stecken?

Liest man sich durch eine Printausgabe der Mitteilung, ahnt man, warum mit dieser Transportinnovation begonnen wird: Man hat Angst, bald mit Fahrverboten konfrontiert zu werden. Dagegen will man gewappnet sein.
[1] „Wer mit E-Mobilität ausliefert, wird von Fahrverboten nicht betroffen sein“ betonte Tobias Meyer vom Lehrstuhl für für Supply Chain Management der Universität …
Nicht undenkbar, dass genau dies auch „Sinn“ der Nahverkehrsumstellung auf Elektrobusse ist: Fahren nur noch solche, lassen sich Benziner und Diesel viel leichter verbieten. Und diesem einhelligen Wunsch unserer Berliner Politikelite [11] kann sich keine Stadt entziehen. Dass in Berlin irgendwann nochmals Verstand gegen die Ideologie gewinnt, hat man längst aufgegeben.

Fazit

Der Umbau des öffentlichen Nahverkehrs dürfte vor allem eine willkommene „Investitionsorgie“ für die Hersteller von E-Bussen und Lade-Infrastruktur werden. Für die Städte und Kommunen vor allem eine willkommenen Gelegenheit, trotz hoher Schulden Geld „zum Nutzen für ihre Bürger“ auszugeben und damit lokale Politik zu betreiben.
Der Nutzen selbst, dürfte sich dagegen in Grenzen halten. Für das Klima geht er gegen Null, für die Luftverschmutzung dürfte er kaum hoch genug sein, um die Kosten zu rechtfertigen.

Quellen

[1] nordbayern 29.03.2018: Erster Fürther Elektrobus hat Härtetest überstanden (ergänzt um Angaben aus einer Printausgabe)

[2] Wissenschaftliche Dienste, Deutscher Bundestag: WD 8 – 3000 – 006/18 (17.1.2018) Kurzinformation Elektrobus – Einzelfragen zur Spezifikation

[3] ÜSTRA Hannover, Homepage: Die Elektrobusse

[4] SPON 12.03.2017: Elektrobusse in Deutschland Zu teuer, zu unzuverlässig, zu aufwendig

[5] Stadtwerke Münster 02.05.2017: Stadtwerke testen erfolgreich Elektrobus mit Wasserstofftank

[6] EIKE 2. Januar 2018: Das Elektroauto erzeugt nur Gewinner – und man verdient sogar Geld damit

[7] nordbayern: Saubere Sache: Elektro-Lkw liefert für Siemens in Nürnberg Pakete aus (ergänzt um weitere Angaben aus einer Printausgabe)

[8] EIKE: 30.08.2016: Streetscooter: Mit diesem Elektroauto hebt die Post ab. Wenn der Rückschritt Grün ist, heißt er Fortschritt

[9] EIKE 31. März 2018: Weil alle voneinander abschreiben, merkt keiner mehr, wenn etwas daran falsch ist – zur Bundestagsdebatte Umwelt

[10] INGENIEUR DE: Elektrobusse: In 15 Sekunden an Haltestellen Strom nachladen

[11] EIKE 31. März 2018: Weil alle voneinander abschreiben, merkt keiner mehr, wenn etwas daran falsch ist – zur Bundestagsdebatte Umwelt

[12] UNTERNEHMER ZEITUNG: Revolutionärer Stadtverkehr

[13] BLICK: Innert 15 Sekunden geladen Genf kauft Super-Elektro-Busse

[14] EIKE 25.04.2017: Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr

[15] ScienceScepticalBlog 5. April 2018: Die Solarwende in Deutschland steht vor dem Aus?!




Harald Leschs Klimavideo restlos widerlegt

In diesem Videobeitrag kann man sehen, wie echte Klimaexperten* die Behauptungen des ausgewiesenen ZDF-Klimaalarmisten Prof. Dr. Harald Lesch widerlegen – im Sommer 2016 machte Lesch für einen der YouTube-Kanäle des ZDF, „Terra X Lesch & Co“, den Videobeitrag, „Das AfD-Programm wissenschaftlich geprüft“, der für Furore sorgte. (Btw – der Titel „Das AfD-Programm pseudowissenschaftlich geprüft“ hätte m. E. besser gepasst.)

center>

Video zur Sendung von Harald Lesch über das Klimaprogramm der AfD
*Prof. Dr. rer. nat. Horst-Joachim Lüdecke, Pressesprecher des Europäischen Instituts für Klima & Energie (EIKE), und Dipl.-Ing. Michael Limburg, Vizepräsident des EIKE, schrieben kurze Zeit später einen Blog-Beitrag, in dem sie die Behauptungen aus besagtem „Terra X Lesch & Co“-Beitrag widerlegen: 

„ZDF-Wissenschaftserklärer Harald Lesch gegen die AfD: Mogeln, tricksen, täuschen.“

Dieser Beitrag ist nun von mir als Videobeitrag hier zu sehen. 

Der Blog-Beitrag ist, inkl. Quellen zu Lüdeckes und Limburgs Ausführungen, hier abrufbar: https://eike.institute/201…

Weitere EIKE-Beiträge zu Harald Lesch, siehe: https://eike.institute/?s=…

Weitere klimakritische Videos, siehe: https://www.youtube.com/playlist?list…

Tags: Harald Lesch Terra X Lesch & Co Klimawandel Globale Erwärmung Das AfD-Programm wissenschaftlich geprüft Pseudowissenschaft Faktencheck AfD Parteiprogramm Klimaschwindel Kritik Medienkritik entlarvt Klimalüge Energiewende Pariser Klimaabkommen COP21 CO2 Treibhausgase Klimaschutz Klimamodelle Klima-Modelle IPCC IPCC-Bericht Weltklimarat Analyse Europäisches Institut für Klima & Energie EIKE Klimaforschung Aufklärung aufgeklärt Michael Limburg Horst-Joachim Lüdecke Klimaforscher Klimaexperten Klimaskeptiker Klimarealisten

*** Anm.: Ich bin KEIN Anhänger der AfD, unterstütze jedoch die Arbeit des EIKE. Und in Sachen Klimawandel muss ich der AfD Recht geben; unabhängig davon, was ich sonst von dieser Partei halte. ***

 




Forsythie: Der Vorzeige­strauch des Deutschen Wetter­dienstes verspätet sich deutlich seit über 30 Jahren.

Der immer frühere Beginn sei ein eindeutiger Beweis der Klimaerwärmung, die wiederum ausschließlich CO2 bedingt wäre, wird behauptet, aber ohne jedweden wissenschaftlichen Versuchsnachweis. Vor allem die deutschen Medien verschärfen die meist noch neutral gehaltenen Texte des Deutschen Wetterdienstes. Dem unbedarften Leser soll suggeriert werden, dass die Forsythien vor 40 Jahren erst im Mai geblüht hätten und jetzt rücke der Termin von Jahr zu Jahr weiter vor. Als Beweis wird dann oftmals nicht die Blühgrafik gezeigt, sondern die Grafik des CO2-Anstieges, einen Anstieg, den niemand bezweifelt.

Wir sind der Sache nachgegangen und fragen uns: Blühen die Forsythien wirklich früher? Hält der Lenz tatsächlich immer einen früheren Einzug in Deutschland? Zu 2018: Für dieses Jahr gibt der Phänologe Iska Holtz den Referenzbusch an der Hamburger Lombardsbrücke mit dem Blütenbeginn 4. April an. Das sind 94 Tage seit Jahresbeginn. Ein bis zwei Tage wohl verfrüht, wenn man den Temperaturverlauf von Februar und März in Hamburg betrachtet. Denn auch unser Strauch im Garten blühte am 4. April, Februar und März waren in Süddeutschland jedoch wärmer als in Hamburg.

Wie verhalten sich die Blühtermine der Forsythie seit 1988 bis heute?

Ende der 80-er Jahre war der Wiederaufbau der Innenstadt Hamburg weitgehend abgeschlossen, so dass zusätzliche Wärmeinseleffekte wohl nur noch gering auf die Temperaturen einwirken. Interessant wäre aber ein Temperaturverlauf der Alster, denn der Strauch steht direkt am Ufer und die Wassertemperatur bestimmt den Blütentermin ebenfalls mit. Eine Zunahme warmer Abwässer infolge des gestiegenen Lebensstandards seit 1988 hätten selbstverständlich Auswirkungen auf die Erstblüte, aber genauso auch eine Düngezugabe am Ufer und natürlich auch die CO2-Zunahme der Luft.

Doch nun zur Grafik: Vor allem für die Laien und Medienvertreter, bitte beachten: In der folgenden Grafik sind auf der y-Achse die Blühtermine der Forsythie als Tage nach Neujahr aufgetragen, ein Ausschlag nach oben bedeutet somit einen späten Blühtermin.

Abbildung 1: Vorsicht, nicht verwechseln, die dunkelblaue Trendlinie steigt, das bedeutet aber nicht Erwärmung. Auf der linken senkrechten Achse sind nicht die Temperaturen aufgetragen, sondern die Kalendertage seit Jahresbeginn. Je mehr Kalendertage, desto später der Forsythien-Blütenbeginn. 1988 lag der Blühbeginn der Forsythien noch im Februar.

Die Überraschung ist groß. 1988 lag der Blühbeginn noch im Februar. Die Hamburger Daten zeigen eine Verspätung seit 1988 und nicht die stets in allen Medien behauptete Verfrühung. Können die meist nicht naturwissenschaftlich ausgebildeten Reporter der Medien die Diagramme nicht lesen, oder handelt es sich um ideologische Verblendung?

Wir stellen hier nur fest: Obwohl die Beobachtungsreihe mitten in der großen Wärmeinsel Hamburg aufgenommen wurde, und damit gar nicht die Bedingungen einer objektiven Beobachtung erfüllt, ist der Blütenbeginn des DWD Vergleichsbusches seit 31 Jahren eindeutig verspätet. Der Frühling erwacht in Deutschland innerhalb der letzten 31 Jahre später und nicht wie behauptet früher.

Halten wir fest: Die vom DWD beobachtete Forsythienblüte der Stadt Hamburg zeigt seit 1988 einen deutlich verspäteten Frühlingsbeginn. Alle Veröffentlichungen in den Medien, dass just dieser Strauch an der Lombardsbrücke immer früher blühen würde, sind falsch.

Wegen des in den letzten 30 Jahren zweifellos gestiegenen CO2-Gehaltes der Luft hätten die Forsythien und andere Märzenblüher eigentlich früher blühen oder austreiben müssen, denn Kohlendioxid ist für die Pflanzen ein anregendes Düngemittel.

Es gibt andere Gründe, und die überwiegen: Die Temperaturen von Januar bis März sind gefallen, wobei der Januar wohl nur noch sehr wenig den Blühtermin entscheidet. Wichtiger sind die beiden Monate Februar und März und die Wärme der letzten Woche vor Blühbeginn.

Zunächst die Grafik des Februars für Hamburg:

Abbildung 2: Auch ohne eingezeichnete Trendlinie würde man auf Anhieb erkennen: Der Februar wurde eindeutig kälter in Hamburg. Der Februar 2018 ist der zweitkälteste, damit ist ein später Frühlingsbeginn bereits festgelegt.

Die Grafik für den März von Hamburg

Noch mehr als der kalte Februar beeinflussen die Märztemperaturen den Blühtermin der Forsythie an der Hamburger Lombardsbrücke. Und auch der März war in Hamburg noch kein Frühlingsmonat, an vielen Tagen zeigte er sich vor allem 1988 sehr winterlich. Mit 2,0 C im Schnitt war es der viertkälteste März der letzten 30 Jahre. Und die letzten Märztage waren in Hamburg besonders kalt. Nur nebenbei, auch die beiden Ostertage 2018 hatten nur einen Schnitt von 3,4°C, so dass der diesjährige Blühtermin etwas früher ist als man aufgrund der Februar- und Märztemperaturen erwarten dürfte

Abbildung 3: Das Diagramm zeigt den kälter werdenden Monat März in den letzten 30 Jahren in Hamburg. Die Abkühlung beträgt deutlich über 1 Grad. Der März 2018 war der viertkälteste im Betrachtungszeitraum.

Kürzere Dauer des Erstfrühlings in Deutschland?

Ähnlich wie die Forsythie verhält es sich mit dem Laubaustrieb der Wilden Stachelbeere, welcher sich ebenfalls verspätet hat. Wegen eines tendenziell etwas wärmeren Aprils hat sich jedoch der Einzug des Vollfrühlings (Beginn der Apfelblüte) leicht verfrüht. Aus der Differenz beider Eintrittstermine ergibt sich die Dauer des Erstfrühlings. Bei der Analyse der Forsythiendaten käme man zu ähnlichen Ergebnissen mit insgesamt geringeren Tageszahlen der Erstfrühlingsdauer:

Abbildung 4: Leichte Verkürzung der Dauer des Erstfrühlings in Weimar von 52 auf 44 Tage seit 1990. Würde man die etwas spätere Forsythienblüte verwenden, käme man zu einem ähnlichen Trend bei geringerer Tageszahl.

Momentan wird also die durch eine Abkühlung der Monate Januar bis März verursachte Vegetationsverspätung durch einen wärmeren April noch mehr als egalisiert. Den Trend darf man keinesfalls in die Zukunft extrapolieren, allerdings zeigt er, wie sich Vorgänge in der belebten Natur den Witterungsverhältnissen anpassen

Zusammenfassung:

  1. Februar und März wurden deutlich kälter in Hamburg in den letzten 30 Jahren. Da auch die beiden Osterfeiertage 2018, der 1. und der 2.te April recht kalt waren in der Hansestadt ist der angegebene Blühtermin 4. April schmeichelhaft. Da wir dem Phänologen Iska Holtz vertrauen, zeigt die Forsythie, dass es auch noch andere Ursachen für den Blühtermin einer Pflanze oder eines Strauches gibt. Zumindest ist die Zunahme an CO2 seit über 30 Jahren ein Faktor für einen früheren Blühtermin, da CO2 wie ein Düngemittel wirkt.

 

  1. Der Vorzeigestrauch des Deutschen Wetterdienstes, die Forsythie in Hamburg zeigt eine deutliche Verspätung seit 1988, was in erster Linie auf die fallenden Temperaturen der ersten drei Monate des Jahres zurück zu führen ist, vor allem aber auf die Monate Februar und März.
  2. Ebenso mitbestimmend für die Erstblüte sind die Tageslänge, sowie die Sonnenscheindauer und der UV- Anteil im Sonnenlicht, Feuchtigkeit und Nachtfröste sowie Düngefaktoren im weitesten Sinne. Bekanntlich hat der Nitratgehalt im Grundwasser wieder zugenommen. Die gestiegene CO2-Konzentration der Luft dürfte in den letzten 3 Jahrzehnten bei allen Gehölzen die Blühwilligkeit gefördert haben.

 

Unser aller Wunsch: Der Frühling möge wieder früher kommen. Niemand von uns will einen verspäteten Frühlingsbeginn.

Wie wir aus diversen Artikeln nicht nur der Autoren Kämpfe/Kowatsch wissen, wurde es nach 1945 in Deutschland erst einmal kälter, nicht zuletzt auch deshalb, weil die Städte ausgebombt waren und das Leben, besser das Überleben auf Sparflamme kochte. Auch deswegen waren die Winter und der März sehr kalt nach 1945 in den deutschen Städten. Der steigende Wohlstand, die rege Bautätigkeit und die allmähliche Beheizung aller Räume nebst steigendem Warmwasserverbrauch im Haus und die zunehmende Industrialisierung brachten wieder Wärme in Deutschlands Städte. Aus diesem Grunde kam nach dem Kriege der Frühling auch in Hamburg zunächst früher. Der Frühling folgte dem Wohlstand. Ein Vorgang, der in den 80-er Jahren in Hamburg wohl sein Ende gefunden hat. In der Innenstadt Hamburgs scheint der Wärmeinseleffekt ausgereizt zu sein.

Abbildung 5: Seit 1971 ist der Blühtermin der Forsythie in Hamburg ausgeglichen. Er liegt etwa bei 80 Tagen nach Neujahr. Trotz CO2-Zunahme – ein Dünger aus der Luft – und trotz Zunahme der Düngemittel im Grundwasser, alles wachstumsfördernde und blühtreibende Faktoren, hat sich der Frühling in Hamburg nicht verfrüht.

Es will einfach nicht wärmer werden, obwohl sich das jeder vor allem in der kalten Jahreszeit wünscht.

Liebe Medienvertreter, es wird endlich Zeit, dass den Deutschen die Wahrheit erzählt wird. Wir leben keinesfalls mittendrin in einer gefährlichen Erwärmung. Kohlendioxid ist ein sauberes Gas, das mit dem Klima wenig zu tun hat. Kohlendioxid ist neben Sauerstoff und Wasser die Grundbedingung des Lebens auf der Erde. Die Erde braucht mehr und nicht weniger Kohlendioxid. Das Klima wandelt sich immer, und das aus vielerlei Gründen, aber Kohlendioxid hat keine Wirkung.

Das Klima lässt sich nicht schützen; es ist als „chaotisches System“ viel zu komplex und erst recht wenig erforscht. Oder anders ausgedrückt: Die Forschung ist noch absolut ergebnisoffen. Notwendig wäre jedoch ein umfangreicher Natur- und Umweltschutz. Sauberes Wasser, saubere Luft und saubere Nahrungsmittel sind ein Grundgut, das allen Menschen zusteht. Natur- und Umweltschutz sind notwendig, Klimaschutz gibt es nicht.

Josef Kowatsch, Naturbeobachter, Naturschützer und unabhängiger, weil unbezahlter Klimawissenschaftler

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Ontarios Besessenheit: Wie die Premierministerin Kathleen Wynne mit Windkult eine Provinz zerstört

In den letzten zehn Jahren ist Ontario von diesen Dingen überrannt worden: die Strompreise sind in schwindelnde Höhen getrieben, die Anwohner sind stinkig geworden und außer Haus vertrieben; die unterirdisch laufende Wasserversorgung ist ruiniert.

Angefangen bei Kathleen Wynne, hat Ontarios Regierung alles in ihrer Macht Stehende getan, um einst friedliche und sehr wohlhabende ländliche Gemeinschaften zu zerstören.

Hier finden Sie einen Überblick darüber, wie das Desaster begann.

 

Einschub: Am .7. Juni ist „Landtagswahl“ in Ontario.

The Star schreibt:

… Wie unpopulär ist Kathleen Wynne als Ministerpräsidentin? Quälend. Nicht nur in den Umfragen, sondern auch bei Kontakten von Tür zu Tür, wenn die Leute den Kandidaten von ihrer Abneigung gegen sie erzählen.

Einiges davon ist verständlich. Nachdem sie den Vorsitz bei so problematischen Themen wie dem Verkauf von Hydro One, steigenden Stromkosten und den Lehrergewerkschaften innehatte, fiel sie im vergangenen Jahr auf ein Allzeittief von 12 Prozent. Sie war immer unter 20 Prozent Zustimmung. …

Financial Post schreibt:

… Die Liste der Versäumnisse der Linken ist lang – ein katastrophales Grüne Energie Gesetz, eHealth-Debakel, skandalöser Ornge-Skandal [Hilfs- und Wohlfahrtsorganisation], ökologisch unbrauchbares und teures Cap-and-Trade-Programm, parteiisch motivierte Schließungen von Gaskraftwerken – zusätzlich zu allgegenwärtiger Bürokratie, erdrückenden Steuern und wachsenden Schulden. Das kumulative Ergebnis hat das Leben weniger erschwinglich und die Unternehmen weniger wettbewerbsfähig gemacht und den größten subnationalen Schuldner der Welt noch mehr in die Knie gezwungen. Herzlos kommt mir in den Sinn….

 

Grüne Energie ist eine Mega-Fehlleistung

Toronto Sun, Lorrie Goldstein, vom 25 März 2018

Wenn es um die unzähligen Fehler geht, die die linke Regierung von Ontario in Bezug auf die zukünftige Energieversorgung gemacht hat, war die Verabschiedung des Gesetzes über grüne Energie und Green Economy im Jahr 2009 der größte Fehler von allen.

Es erleichterte die Verschwendung von Milliarden von Dollar an öffentlichen Geldern, wie von zwei Auditoren in Ontario dokumentiert.

Den Bürgern des ländlichen Ontarios wurde keinerlei Entscheidungsmöglichkeit zugestanden, indem die Planungsbefugnisse ihrer Gemeindeverwaltungen diktatorisch in Bezug auf den Standort industrieller Windfabriken und Solarparks missbraucht wurden.

Damit wurden Nachbarn gegen Nachbarn ausgespielt, grüne Energieentwickler schlossen heimlich und still bereits Verträge, um Privatgrundstücke im ländlichen Ontario für Windfabriken und Solarparks zu pachten. Die Projekte wurden den angrenzenden Gemeinschaften dann als vollendete Tatsachen vorgestellt, Einwände waren nicht mehr möglich.

Die Schuld lag nicht bei Leuten, die ihr Land an diese Entwickler verpachteten.

Es liegt bei der liberalen Regierung, zuerst unter Dalton McGuinty und jetzt Kathleen Wynne, die die ordnungsgemäße Rolle der Regierung, öffentliche und private Interessen auszubalancieren, aufgab.

Stattdessen wurden die Linken zu schamlosen Cheerleadern, Befürwortern und Verbündeten der grünen Energiewirtschaft, bis zu dem Punkt, an dem die Bürger, die gegen diese Projekte waren, die unmögliche Situation erlebten, gegen die Industrie und die linke Regierung gleichzeitig zu kämpfen.

Im Jahr 2011, als der damalige Auditor General Jim McCarter [~Präsident des Rechnungshofes] die Grüne Energiestrategie der Linken untersuchte, berichtete er, dass seine Abteilung bei null anfangen müsse, weil die Linken – unglaublich, „keine Überprüfung zu Erneuerbare-Energien-Initiativen durchgeführt hätten.“

Unter Berufung auf das Grüne Energie Gesetz warnte McCarter, dass die Linken „einen neuen Prozess zur Beschleunigung der Entwicklung erneuerbarer Energien geschaffen hätten, indem sie dem Minister (der Energie) die Befugnis erteilten, viele der üblichen Planungs- und Regulierungsaufsichtsprozesse der Regierung zu ersetzen, bzw. überflüssig zu machen. … Als Ergebnis , wurde keine umfassende Business-Case-Evaluierung durchgeführt, um die Auswirkungen der Milliarden-Verpflichtung objektiv zu bewerten.

McCarter sagte, die Linken hätten sogar den Rat ihrer eigenen Energieexperten ignoriert, als sie beschlossen, über ihr „Feed-in Tariff” (FIT) [Einspeisetarif] 20-jährige öffentliche Subventionen für Wind- und Solarinvestoren zu zahlen. Die linke Regierung hätte bei Befolgung der Vorschläge von Experten, der öffentlichen Hand über zwei Jahrzehnte hinweg 4,4 Milliarden Dollar einsparen können.

Bonnie Lysyk, McCarters Nachfolgerin, schloss das Thema im Jahr 2015 für die Linke Regierung ab und so wird die Öffentlichkeit in 20 Jahren 9,2 Milliarden Dollar für Wind- und Solarenergie bezahlen, doppelt so viel wie die Amerikaner für Wind- und 3,5 Mal so viel für Solarenergie.

Trotz der weit überbezahlten Subventionen für unzuverlässige Wind- und Solarenergie, die weniger als 7% des Strombedarfs von Ontario decken und auch keine Grundlast des Netzes bereitstellen kann, haben die Linken ihr Vorrang vor allen anderen Energieformen eingeräumt. Es muss für Wind- und Solarenergie bezahlt werden, auch wenn sie nicht genutzt werden kann, weil das Stromnetz in Ontario gerade einen riesigen Energieüberschuss hat.

Dies macht das Elektrizitätssystem weniger effizient und teurer, was dazu führt, dass sogar andere Formen grüner Energie, wie zum Beispiel Wasserkraft, entsorgt oder mit Verlust an Quebec und die USA verkauft werden.

Während die Linken vor zwei Jahren widerwillig ihren Fehler eingestanden haben, indem sie die Finanzierung von Mega-Projekten für grüne Energie endgültig eingestellt haben, bringen sie unerklärlicherweise immer noch Hunderte von kleineren Projekten online und kaufen teurere und unzuverlässige Elektrizität, die keiner braucht.

Schließlich sind Wind- und Solarenergie nicht notwendig, um Ontarios Abhängigkeit von kohlebefeuertem Strom zu beenden, wie die Linken behaupten, denn Ontario hätte genügend Kernkraft und Erdgas.

Toronto Sun

 

Erschienen auf StopTheseThings am 06.04.2018

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2018/04/06/ontario-obsession-how-wynnes-wind-power-cult-wrecked-once-prosperous-province/




Der Unsinn des EEG wird immer offensicht­licher

EEG im März 2018

Herr Schuster von VERNUNFTKRAFT Hessen e.V. hat freundlicher Weise die EEG-Daten des gerade vergangenen Monats aufbereitet.
Die rote Linie im Bild 1 ist die bereits installierte Leistung Wind + Solar. Gelb und Blau zeigen die wirklich gelieferten Werte als Ganglinien:
– Nicht im Ansatz kam die EEG-Erzeugung den Monat auch nur in die Gegend der benötigten Leistung (braun)
– Davon, dass sie gar in die Höhe der installierten Leistung kämen (an die rote Linie) – wie es Herr Özdemir einmal behauptete [3] – ganz zu schweigen. Im Monatsmittel waren es nur 18,35 % davon
Wieder ein schönes Beispiel, um zu zeigen, welchen Schwachsinn selbsternannte „Energiefachpersonen“ – leider oft in wichtigen, politischen Positionen sitzend -, hier C. Özdemir, sich öffentlich zu äußern trauen, ohne schamrot zu werden (weil sie wissen, dass der „Öffentlich-Rechtliche“ Interviewer*in pflichtgemäß jeden Unsinn verbreiten wird):
EIKE 15.08.2017: [3] Cem Özdemir versucht sich in Energie
Leider kein Einzelfall, sondern im (ehemaligen) Hochtechnologieland faktisch schon „Quasi-Standard“, selbsternannter „Energieexpert*innen“ [2]:
EIKE 24.01.2018: GRÜNE Energieexpertin: Das Netz fungiert als Speicher

Bild 1: Ganglinien März 2018. Quelle R. Schuster

Nun geht bei den „üblicherweise befragten Energiefachpersonen“ die Sage um, mit einem weiteren Ausbau würde sich das Problem automatisch erledigen. Dazu hat Herr Schuster den dreifachen EEG-Ausbau für den März simuliert.
Sofort werden alle künftigen Probleme des EEG deutlich:
Zeitweiligen, massiven Überproduktionen folgen genau so massive Einbrüche. Eine zwingend notwendige Basis-Lösung – enorme Kapazitäten an (bezahlbarem) Speicher – ist nicht in Sicht.
– Das Abregeln („Wegwerfen“ des Stromes, welchen die Privatkunden jedoch trotzdem bezahlen müssen), ergänzt um immer mehr Redispatch-Aufwand, wird immer häufiger und voluminöser (mit parallelem Anstieg der Kosten).

Bild 2: Ganglinien März 2018 mit simuliertem, dreifachen EEG-Ausbau. Quelle R. Schuster

Und damit wird das Drama der instabilsten und gleichzeitig teuersten Stromversorgung, genannt EEG, zumindest in Deutschland unerbittlich weitergehen.

Den Mangel beheben, verbietet die Ideologie. Und viel einfacher sind bewährte Lösungen

Unsere neue Umweltministerin – genau so faktenresistent und frei von jeglichem fachlichen Wissen wie ihre Vorgängerin [4] – und auch genau so tief beseelt, die Welt durch Reduzierung von Deutschlands Anteil von 0,0004712 Prozent in der Atmosphäre [5] vor dem bösen CO2 zu retten – verkündete es bereits: [4] … Wir werden jetzt mit aller Kraft darangehen, die Lücke bis 2020 so weit wie möglich zu schließen, zum Beispiel durch Sonderausschreibungen für Wind- und Solarstrom…
Dafür dürfen die System-Mängelkosten des EEG unerbittlich weiter steigen:
energate messenger 02.01.2018: Netzstabilität Kosten für Netzeingriffe auf Rekordniveau

Wer sich frei von technischen Fakten hält, weil sie ihm/ihr ein Gräuel sind, sieht natürlich nach, wie politisch Geschulte solche Probleme lösen. Und dafür gibt es gelobte, sozialistische Länder, welche nach immer der gleichen Art Mangelverwaltung optimieren. Eine typische Lösung wurde schon übernommen:
EIKE 22.02.2018: Die Lösung des EEG-Problems wurde von der EU gestartet – Energie (in Deutschland) immer teurer zu machen, bis sie niemand mehr „benötigt“
Einem möglichen Einwand – Deutschlands Parlament könnte ja immer noch selbst entscheiden – soll gleich begegnet werden: Im Koalitionsvertrag steht, dass EU-Vorgaben von Deutschland diskussionslos 1:1 umgesetzt werden (und sich unser Parlament damit als überflüssig abschafft, natürlich bei gleichbleibender Bezahlung). Eine erste, daraus resultierende Entscheidung liegt schon vor:
EIKE 2. April 2018:
Das Ende des Verbrennungsmotors: Bundestag lässt Einspruchsfrist gegen EU verstreichen

Hat man in Berlin ein Gesetz übersehen?

Die wenigen, gerade einmal 900 Bundestags-Abgeordneten können nicht überall ihr Auge drauf haben. Es gibt ein Gesetz, welches das Abregeln im EEG mit bedingungsloser Bezahlung des nicht eingespeisten Stromes wenigstens etwas begrenzt*.
Dr. Björn Peters, Kolumne: Die Energiefrage
… Eine oft übersehene Bestimmung im EEG regelt die „Verringerung des Zahlungsanspruchs bei negativen Preisen“ (§51 EEG). Dort heißt es: „Wenn der Wert der Stundenkontrakte für die Preiszone für Deutschland am Spotmarkt der Strombörse in der vortägigen Auktion in mindestens sechs aufeinanderfolgenden Stunden negativ ist, verringert sich der anzulegende Wert für den gesamten Zeitraum, in dem die Stundenkontrakte ohne Unterbrechung negativ sind, auf null.“
Die Regelung gilt für alle größeren Anlagen, die unters EEG fallen und seit 2016 in Betrieb gegangen sind. Bislang kam §51 EEG nie zur Anwendung, weil es zwar immer wieder Zeiten mit negativen Strompreisen gab, diese aber nie länger als fünf Stunden andauerten. In der Zukunft wird sich dies jedoch ändern …Interessant ist hierbei auch, dass diese Phänomene bei noch viel stärkerem Ausbau hin zu vermeintlich „100% erneuerbar“ geradezu existenzbedrohend für die WSK-Betreiber werden. Das Wissen hierüber wird die Investitionslaune in „erneuerbare“ Energien aber sicher dämpfen …

Damit wäre die bisher geförderte, bedingungs- und rücksichtslose Übereinspeisung in Zukunft gekappt. Mit entsprechenden Folgen für die Erträge der Öko-Energieärnter.
Es bleibt abzuwarten, ob dieses (wohl versehentlich durchgerutschte) Gesetz bestehen bleibt (und angewendet wird), oder ob es unsere Politik, sobald es zum Tragen kommen müsste, sich nach bewährter Sitte über den Umweg „Brüssel“ verbieten lässt. Irgendjemanden wird es ja bestimmt diskriminieren.

*Dank an Herrn R. Schuster für die Information

Quellen

[1] EIKE 14.01.2018: Am Neujahrsmorgen hat sich Deutschland zum ersten Mal in der Geschichte komplett mit Ökostrom versorgt

[2] EIKE 7. Januar 2018: Ministerin Hendricks: Wir haben im Gegenteil sogar gigantische Stromüberschüsse

[3] EIKE 15.08.2017: Cem Özdemir versucht sich in Energie

[4] EIKE 31. März 2018: Weil alle voneinander abschreiben, merkt keiner mehr, wenn etwas daran falsch ist – zur Bundestagsdebatte Umwelt

[5] EIKE: Nur 0,0004712 Prozent!! BUND Aktivist weiß nicht wie viel CO2 von Deutschland in die Luft abgegeben wird!




Kohlekraftwerke – hier Stilllegung – 1600 neue Kohlekraftwerke in Asien

Wer nicht nur naiv die Bulletins der europäischen Regierungen, insbesonders in Berlin, verfolgt, kommt um überraschendes Wundern nicht herum. Die gerade zäh neu angelaufene deutsche Bundesregierung, will noch in diesem Jahr 2018 ein „Ausstiegdatum aus der Kohlenutzung“ bekanntgeben. Eine Art „Kommission“ soll dies managen und geleitet wird es vermutlich nachher eher von gelernten Soziologen, als von Energiefachleuten. Glaube ist wichtiger als Naturgesetze und Physik. Kritk daran, scheint ausser der AfD, keine andere Partei im deutschen Bundestag dazu zu haben. Es wirkt irgendwie ein wenig wie zu Kaiser Wilhelms Zeiten: „Am Deutschen Wesen – soll die Welt genesen!“

Geht man aber von den USA mit auch plötzlich neuer Kohlepolitik, mal rüber nach Asien, dann sieht das ganz anders aus. In den nächsten Jahren, sollen allein chinesische Unternehmen, ganze 1600 (eintausendsechshundert) nagelneue Kohlekraftwerke in 62 Ländern bauen. Dazu kommen noch hunderte Weitere dazu, die von Unternehmen in Japan, Südkorea, Indonesien und Myanmar gebaut werden sollen. Man kann also sagen, gerade in Asien, steht ein wahrer Boom an neuen Kohlekraftwerken bevor und die Nutzung von Kohle als Kraftwerksbrennstoff, wird bedeutend steigen. Das sind Realitäten. Dinge wie ein „Pariser Klimaabkommen“ sind dafür übrigens keinerlei Hindernis. China (und auch z.B. Indien+Indonesien) darf gemäss „Paris“ ja bekanntlich jeweils bis mindestens 2030, soviel an Kraftwerken und Fabriken neu dazubauen, wie man es dortselbst möchte.

Gemäss einer seriösen und zahlengenauen Ermittlung der bayerischen Wirtschaft, hat China in nur einem Jahr (2015) soviel an Kohlekraftwerkskapazitäten NEU zugebaut, wie Deutschland überhaupt insgesamt aktuell besitzt! Jede Schliessung in Deutschland, wird weltweit zugleich um das zigfache neu dazugebaut. Das scheint die zuständige Politik in Berlin und Brüssel, aber nicht zu jucken. Das Wort „gesunder Menschenverstand“ seit den Zeiten von Immanuel Kant, scheint heute abgeschafft zu sein. Oder hat irgendwer dazu eine halbwegs plausible Erklärung?

Inzwischen sind gerade chinesische Banken, neben Japanern, die zunehmend weltweit führenden Finanzierer solcher Anlagen, weil sich fast alle europäische Banken und Fonds, im „grünen“ Selbstbeschränken von solchen Investitionen „in Kohle“ einfach pauschal verabschiedet haben. Länder wie Pakistan, haben bedeutsame Kohlevorkommen, die bislang kaum genutzt werden. Doch will man hier nun nachbessern und die Kohlenutzung forciert erschliessen. Vermutlich weiss in Berlin wohl niemand, dass Pakistan Kohlevorkommen besitzt und nutzen möchte. Das muss man ja auch nicht wissen, das interessiert Berlin einfach nicht! Basta!

Wie oft wird bei Massnahmen begründet, dass gerade die „Globalisierung“ diese und solche Massnahmen erfordere. Doch hier, wird gerade die globale Vergleichsseite völlig ignoriert. Offenbar gilt: „Asien juckt uns nicht! Wir bauen unsere Kohlenutzung ab! Koste es was es wolle!“

Süffisant sei hier noch gefragt, warum man damals in Kambodscha, den Steinzeitkommunismus von Pol Pot überhaupt bekriegt und abgeschafft hat? Abgesehen davon, dass der Mann immerhin ca. 4 Millionen Kambodschaner ermorden liess, hatte seine „Wirtschaftsverlagerung in Richtung Steinzeit“ wohl zweifellos fantastisch gute „Öko-Werte“ was Energie, Emissionen und so betraf. Ist diese „Pol-Pot-Mittelalter-Wirtschaftsebene“ etwa bereits das heimliche Fernziel der heutigen europäischen Klimapolitik? Oder ist allein schon das lästige Fragen hiernach, bereits als „Ketzerei“ möglichst gnadenlos zu ahnden?

*

Der Originalartikel dazu, erschien in der „South China Morning Post“ (Druckausgabe)
Er kann in englischer Sprache und mit Comic, angesehen werden unter:
http://www.scmp.com/comment/insight-opinion/article/2139667/new-coal-war-frontier-emerges-china-and-japan-compete-energy?utm_source=CCNet+Newsletter&utm_campaign=e173cecd48-EMAIL_CAMPAIGN_2018_04_03&utm_medium=email&utm_term=0_fe4b2f45ef-e173cecd48-20138561

 



Die Straße zur Hölle ist gepflastert mit Solar­paneelen – „Solar Road“ scheitert kläglich

Anthony traf den Nagel schon damals auf den Kopf:

Alles in allem ist es ein kolossaler grüner Schrott-Zug, aber diese Clowns mögen die ganze Zeit lachen bis zum Anschlag, oder sie mögen Ganoven sein – wie auch immer, in jeder Minute wird ein Säugling geboren.

Seitdem sind ein paar Jahre vergangen, und ich dachte mir, die Informationen hinsichtlich dieses Projektes zu aktualisieren. Hier folgt zunächst eine Auflistung der Finanzierung des Solar-Road-Projektes:

100.000 Dollar – eine Zuwendung im Jahre 2009 aus dem Verkehrsministerium der USA [Dept. SBIR] für eine „Phase I einer Machbarkeits-Studie“.

750.000 Dollar – eine weitere SBIR-Zuwendung im Jahre 2011 für Phase II, um einen Solar-Parkplatz zu entwickeln und zu bauen. Der ausgewählte Parkplatz war 4 X 11 Meter groß.

2,2 Millionen Dollar – im Jahre 2014 von den immer leicht zu Beeindruckenden für eine Kampagne.

750.000 Dollar im Jahre 2015 vom SBIR für mehr Forschung

750.000 Dollar im Jahre 2016 vom SBIR für noch mehr Forschung.

Bis heute haben sie also 2.350.000 Dollar erhalten von Ihnen und von mir, von den US-Steuerzahlern. Dazu kommen weitere 2,2 Millionen Dollar aus der scheinbar unerschöpflichen Quelle mit der Bezeichnung „ein Narr und sein Geld sind rasch getrennt“. Insgesamt also 4,55 Millionen Dollar.

Und was haben wir für diese viereinhalb Millionen Privat-Verschwendung und Steuerzahler-Gelder bekommen?

Erstens den Solar-Parkplatz. Hier sind die Gründer des Unternehmens mit ihrer monumentalen Leistung…:

Wow … das ist sehr eindrucksvoll … darf ich mir die Frage erlauben, was mit der Stromerzeugung ist, wenn Autos auf diesem Parkplatz stehen? Oder ist das eine zu konkrete Frage?

Zweitens, die Test-Solarstraße, gelegen in Sandpoint in Ohio. 25 der ersten 30 Paneele gaben innerhalb der ersten wenigen Wochen ihren Geist auf. Sie wurden ersetzt durch Paneele, welche abblätterten …:

Also wurden auch diese abgeblätterten Paneele ersetzt. Aber um fair zu sein – wer hätte jemals gedacht, dass beladene Lastwagen bei der Fahrt über die Paneele diese beschädigen können? … Nun, Sie und ich hätten sich das denken können, sie aber nicht. Ich denke, dass sie deswegen so viel Geld gebraucht haben.

Wie auch immer, das System war jetzt einige Jahre lang mit 30 Paneelen in Betrieb. So neugierig, wie ich nun einmal bin, klickte ich mich auf deren Website, um zu sehen, wie gut sie vorankommen … und fand Folgendes:

Am besten Tag, nämlich dem 9. Mai 2017, erzeugten die Paneele insgesamt 1,3 kWh Strom, wie aus obiger Graphik hervorgeht … und am letzten Tag, nämlich gestern, erzeugten sie 0,25 kWh Strom. Im Mittel wurden seit Beginn der Erzeugung 0,65 kWh pro Tag erzeugt.

Das System wurde am 22. März 2017 in Betrieb genommen. Es lief nunmehr 378 Tage, und in dieser Zeit wurden etwa 246 kWh Strom erzeugt.

Nun ist meine Stromrechnung schon ziemlich hoch – dank der idiotischen „Erneuerbaren-Vorschriften“, in Kraft gesetzt von Gouverneur Moonbeam* hier in Kalifornistan. Ich zahle 0,15 Dollar pro Kilowattstunde, das ist etwa doppelt so hoch wie der Preis in den benachbarten US-Staaten, wo man noch nicht dem grünen Rausch erlegen ist.

[*Der jetzige Gouverneur von Kalifornien heißt Edmund Brown Jr. Sein Vorgänger war Arnold Schwarzenegger. Eschenbach verwendet also eine Spott-Bezeichnung. Anm. d. Übers.]

Und mit dieser Rate ist die Gesamtmenge des erzeugten Stromes von 246 kWh etwa 36,86 Dollar wert – gekostet hat die Erzeugung aber 4.450.000 Dollar!

Ich liebe diese grünen Hirngespinste … man genieße den Sonnenschein! Man wird mehr davon haben als wenn die Sonne auf Straßen mit Solarpaneelen scheint.

Link: https://wattsupwiththat.com/2018/04/04/the-road-to-hell-is-paved-with-solar-panels/

Übersetzt von Chris Frey EIKE




Kommen irgendwann die Autos mit Brennstoffzellen-Antrieb?

 Dabei lässt sich Wasserstoff aus erneuerbaren Quellen relativ leicht herstellen und obendrein gut speichern. Und der Strom der Akku-Autos kommt immer noch zum großen Teil aus „schmutzigen“ fossilen Quellen.

Doch halt! Im Umfeld der Olympischen Winterspiele 2018 in Pyeongchang hat die südkoreanischen Autofirma „Hyundai“ eine Miniserie von fünf Geländewagen, (sprich: SUV), aufgelegt, die allesamt durch eine Brennstoffzelle angetrieben werden. Die Autos mit der Bezeichnung „Nexo“ waren während der Spiele mehrere Wochen störungsfrei in Betrieb. Wenn sie im Sommer an die normale Kundschaft ausgeliefert werden, können sie fahrerlos ein-und ausparken und auf der Autobahn selbstständig Abstand und Spur halten. Die Reichweite zwischen den Tankstopps beträgt derzeit 550 Kilometer; in 9,2 Sekunden beschleunigt der SUV von Null auf 100 km/h. Den Verkaufspreis wollen die Koreaner unter 60.000 Euro halten.



Die Brennstoffzelle und ihre Tanks


Die Brennstoffzelle eines Autos ist eine galvanische Zelle, zumeist eine Wasserstoff-Sauerstoff-Brennstoffzelle. Die Brennstoffzelle ist kein Energiespeicher, sondern ein Wandler. Erfunden wurde sie bereits 1838, also vor knapp zweihundert Jahren, von dem Deutschen Christian Friedrich Schönlein,wobei dieser zwei Platindrähte mit Wasserstoff bzw. Sauerstoff umspülte und dabei zwischen den Drähten eine elektrische Spannung registrierte.

In Fahrzeugen kommt heutzutage praktisch nur noch die sog. PEM (=Polymer-Elektrolyt-Membran) -Brennstoffzelle zum Einsatz. Eine Membran trennt die vom Wasserstoff (H2) umspülte Anode von der Kathode mit dem Sauerstoff (02).  An der Anode trennen sich die Wasserstoffmoleküle in Ionen und Elektronen. Die Ionen wandern durch die PEM zur Kathode und verbinden sich dort mit dem  Luftsauerstoff zu Wasser – der einzigen und ökologisch problemlosen Emission. Weil die Membran für die Elektronen undurchlässig ist, müssen sie auf ihrem Weg zur Kathode einen Umweg über eine Leitung gehen. Die „wandernden“ Elektronen führen dann zu einem Stromfluss, der direkt von den Elektromotoren des Autos zum Antrieb genutzt wird.

Derzeit gibt es in Deutschland nur 43 Tankstellen, an denen Wasserstoff getankt werden kann. Bis Ende 2018 soll sich die Zahl verdoppeln. Beim Nexo strömen in fünf Minuten 6,3 Kilogramm Wasserstoff in drei große Karbontanks, die unter dem Kofferraumboden und dem Rücksitz montiert sind. Angesicht der bislang raren Tankstellen in Deutschland relativiert sich die oben genannte beträchtliche Reichweite des Nexo.

Erfahrungsgewinn beim Betrieb von Omnibussen

Um Erfahrungen beim Alltagsbetrieb von Fahrzeugen mit Brennstoffzellen zu sammeln, nahm das „Karlsruher Institut für Technologie“ (KIT) im Jahr 2013 zwei Omnibusse in Betrieb. Damit wurde ein fahrplanmäßiger Linienverkehr zwischen den beiden ca. 15 km entfernten  Standorten Nord und Süd des KIT aufgebaut, wodurch täglich ca. 800 Mitarbeiter und Studenten befördert werden. Am Campus Nord (früher Forschungszentrum Leopoldshafen) wurde eine Wasserstofftankstelle eröffnet, die in der Lage ist, 80 Kilogramm Wasserstoff pro Tag abzugeben, was in etwa drei Busladungen entspricht. Die Betankung der sog. „KIT-Shuttle“ dauert im Schnitt 20 Minuten. An 200 Arbeitstagen werden ca. 160.000 Passagiere pro Jahr befördert. Die Fahrleistung der Busse im Jahr 2016 betrug 92.000 Kilometer. Die Erfahrungen mit der Tankstelle und dem Linienbetrieb sind sehr gut. Das Vorhaben wird vom baden-württembergischen Umweltministerium mit 3,2 Mio Euro pro Jahr gefördert. Künftig soll vermehrt Wasserstoff aus erneuerbaren Energien verwendet werden.

Historisches und Aktuelles


Die Forschung an Brennstoffzellen wurde im ehemaligen Kernforschungszentrum Karlsruhe (KfK) bereits zu Anfang der 1990er Jahre betrieben. Nicht ohne Erfolg, denn ein LKW mit diesem Antrieb drehte damals vielbeachtet seine Runden im Zentrum und (dank einer Straßenzulassung) auch außerhalb.  Sinnigerweise wurde der ganze Aufwand finanziert aus dem – thematisch weit entfernt liegenden – Schnellbrüterbudget des Blogautors. Als Experimentatoren und Promotoren sind die Herren Dorner, Schretzmann, Kessler und Hennies zu nennen. 


Enge Kontakte gab es damals zur Firma Mercedes-Benz, die 1994 mit NECAR 1das erste Brennstoffzellenauto der Welt präsentierte. Der Prototyp ist heute noch im Mercedes-Museum in Stuttgart zu besichtigen. Bald waren alle großen Autohersteller (GM, Ford, Fiat, Nissan, VW, BMW) an diesem Thema dran – aber nach kurzer Zeit setzten sie doch lieber auf den billigeren Diesel. In diesem Jahr will Mercedes – vielleicht – endlich den oft angekündigten GLC F-Cell auf den Markt bringen. Vielleicht als Kleinstserie.

Mittlerweile haben in Asien bereits drei Marken Wasserstoffautos in ihrem Portfolio:
Honda mit dem Clarity, Toyoto mit dem Mirai und Hyundai mit dem Nexo.
Die deutschen Entwicklungschefs mögen den verlorenen 25 Jahren nachtrauern.
Die Asiaten haben ihre modernen Antriebe im Verkaufsprospekt –
das Mercedes-Brennstoffzellenauto steht im Museum.

Der Beitrag erschien zuerst im Blog des Autors hier