1

Zurück zu den Wurzeln: DWD – Deutscher Wetterdienst – Seine Aufgabe heißt Wettervorhersage

Aktuelle Meldung der Redaktion:

Unmittelbar nach dem verregneten Juli und bisherigen August veröffentlichte der DWD am 9.8.11 seinen Klimaatlas für Deutschland, und macht sich anheischig damit das Klima in Deutschland bis zum Jahr 2100 zu prognostizieren. Fast alle Medien berichteten darüber. Die Aufgabe des DWD ist das jedoch nicht, seine Kompetenz ebenso wenig. So berichtete denn auch "der Stern" über diese "Großtat" unter der ironischen Überschrift "Es wird wärmer – in den nächsten 100 Jahren".

Weiter im Text:

Der englische Marineoffizier Robert FitzRoy (1805-1865) gründete 1854 den britischen Wetterdienst als Teil des ‚Board of Trade‘. Als Meteorologe war er überzeugt, dass er das zukünftige Wetter vorhersagen könne. Er veranlasste auch, dass die Wettervorhersagen in der nationalen Presse veröffentlicht würden. Am 1. August 1861 erschien die erste ‚amtliche‘ Wettervorhersage in der ‚Times‘. Dies war vor genau 150 Jahren.
Noch vor Großbritannien wurde 1851 in Wien, im damaligen Kaiserreich Österreich-Ungarn die Zentralanstalt für Meteorologie und Geodynamik gegründet. Frankreich begann 1855 mit der Herausgabe täglicher Wetterkarten, bevor es 1865 den staatlichen Wetterdienst begründete. Die Anfänge des Deutschen Wetterdienstes, der erst seit 1952 diesen Namen trägt, sind auf das Jahr 1871 zurückzuführen mit Gründung der deutschen Seewetterwarte in Hamburg. Mit dem Aufkommen des Luftverkehrs entstand 1921 in Nürnberg die erste Flugwetterwarte Europas. Der Deutsche Wetterdienst (DWD) ist eine Anstalt öffentlichen Rechts und untersteht als Bundesoberbehörde dem Verkehrsministerium. Bereits 1873 kam es anlässlich eines Internationalen Kongresses der Meteorologen zur Gründung der Internationalen Meteorologischen Organisation (IMO). Ihre Aufgabe übernimmt 1951 die ‚World Meteorological Organization‘ (WMO) mit Sitz in Genf. Die WMO ist eine Unterorganisation der Vereinten Nationen (UN), die 1945 in San Francisco ins Leben gerufen wurden.
Langsam etablierte sich die Meteorologie als Wissenschaft und eigenständiger Zweig der Physik. Dazu trug auch die Erkenntnis von Hermann von Helmholtz (1821-1894) bei, dass die hydrodynamischen Flüssigkeitsgleichungen auch auf die gasförmigen Luftströmungen anwendbar und damit zur Strömungsvorhersage nutzbar sind. Im Jahre 1904 äußerte Vilhelm Bjerknes (1862-1951) die Überzeugung, dass für eine numerische Wetterprognose eine genaue Kenntnis des atmosphärischen Anfangszustandes wie der physikalischen Prozesse erforderlich ist. Dieses versuchte 1920 Lewis Richardson (1881-1953). Für die erste numerische Wettervorhersagenberechnung von Hand benötigte er fünf Jahre. Wenn auch das Ergebnis sehr weit vom tatsächlichen Wettergeschehen abwich, so ist diese Pionierarbeit zu würdigen. Mit Hilfe der zuerst von Konrad Zuse (1910-1995) im Jahre 1936 entwickelten elektronischen Schnellrechner gelang es 1950 John von Neumann (1903-1957), eine numerische Wettervorhersage in immerhin 24 Stunden zu erstellen. Über die Qualität ist nichts bekannt.
Doch nicht die Geschwindigkeit ist das entscheidende Kriterium bei der Wettervorhersage sondern die Genauigkeit und die Reichweite. Beiden Zielen sind relativ enge Grenzen gesetzt. Die Genauigkeit hängt ganz entscheidend von der Dichte der meteorologischen wie aerologischen Beobachtungsnetze ab. Die Vorhersagedauer ist mathematischer Natur. Bei der iterativen Lösung von Differentialgleichungen summieren sich auch winzigste Fehler bei der gigantischen Zahl von Rechenoperationen zur großen Fehlern, die eine weitere Vorhersage unmöglich machen. Die mögliche theoretische Reichweite bei den numerischen Wettervorhersagen liegt bei etwa 14 Tagen. Darüber hinaus beginnt praktisch das, was man als Kaffeesatzleserei bezeichnen kann.
In diese Kategorie gehören alle mittel- und langfristigen Klimavorhersagen, zumal sie vorgeben etwas vorhersagen zu können, was laut gängiger internationaler Definition vom Wetter abhängt. Wenn das Klima von dem an einem Ort über 30 Jahre gemessenen und zu einer statistischen Maßzahl verdichteten Wetter abhängt, wie soll man dann seriös Klima vorhersagen können, wenn man nichts, aber auch rein gar nichts über das zukünftige Wetter weiß? Die in den Klimarechenzentren angestellten Szenarien-Rechnungen haben weder etwas mit Wetter- geschweige denn „Klimavorhersagen“ zu tun. Diese als solche auszugeben ist wissenschaftlich Betrug und eine vorsätzliche Täuschung der Öffentlichkeit. Auch wenn das Verhalten des Deutschen Wetterdienstes von der Politik gedeckt und von ihr möglichweise sogar gewünscht wird, weil es völlig absurde Erwärmungsängste in großen Bevölkerungskreisen schürt und gesellschaftspolitischen Veränderungen dient, so ist dies eindeutig zu missbilligen.
Gemäß Wetterdienstgesetz (DWD-Gesetz) vom 10. September 1998 (BGBl. I S. 2871) hat  der DWD nach §b4 (1) 6. „die Vorhersage der meteorologischen Vorgänge“ als originäre Aufgabe. Trendspekulationen über das mögliche Wetter, die Witterung oder das Klima in 90 Jahren gehören eindeutig nicht dazu. Die Dienst- und Fachaufsicht über den Deutschen Wetterdienst obliegt dem Bundesminister für Verkehr. Es wird höchste Zeit, das der Bundesverkehrsminister seine Aufsichtspflicht wahrnimmt und disziplinarisch einschreitet. Zu den Aufgaben des DWD gehört die „Erbringung meteorologischer Dienstleistungen“. Von der Erstellung von teuren „Klimavorhersagen“ ist keine Rede! Diese liegen eindeutig im Zuständigkeitsbereich anderer Ressorts wie z. B. dem Bundesumweltministerium.
Oppenheim, den 3. August 2011
Dr. Wolfgang Thüne  
(gekürzte Fassung m.G.d.Verf.)  

Die Langfassung des Beitrages von Dr. Thüne können Sie als pdf Datei im Anhang herunterladen

Related Files




Wenn der große Bruder nachts das Mittagessen kocht… Ökologisch korrektes Verhalten durch „intelligente“ Zähler

Betrachtet man den tatsächlichen Stromverbrauch in einem Einfamilienhaus, so stellt sich rasch heraus, daß nur wenige "dicke" Verbraucher die gesamte Bilanz bestimmen. Es ist einfach, diese zu finden: Es sind allein die Geräte, die mit Strom Wärme oder Kälte erzeugen. Also der Kochherd, die Spülmaschine, der Kühlschrank, die Tiefkühltruhe, die Waschmaschine und der Wäschetrockner.

Vergessen Sie alle übrigen Verbraucher: Beleuchtung, Computer, Fernseher, alle Geräte mit Motor, die Umwälzpumpe der Heizung, selbst Fön, Toaster, Kaffeemaschine oder die Mikrowelle spielen – trotz teilweise intensiver Wärmeerzeugung – wegen ihrer geringen Nutzungsdauer praktisch keine Rolle bei Ihrer Stromrechnung. Geht man mit diesem Hintergrund auf die geeignete Geräte-Zielgruppe der intelligenten Zähler ein, bleiben allein die oben genannten "Dicken".

Dann geht es zur nächsten Frage: Welches dieser Geräte eignet sich dazu, extern vom Stromversorger je nach aktueller, sich ständig ändernder Tarifsituation ein- oder ausgeschaltet zu werden ? Die Antwort liegt in deren Nutzung: Kühlschrank und Tiefkühltruhe müssen ständig eingeschaltet bleiben; sie halten nur dann ihre Temperatur, wenn sie sich in einem regelmäßigen Takt selbst ein- und ausschalten.

Auch der Kochherd wird dann betrieben, wenn er zum Kochen gebraucht wird – und niemand wird auf die Idee kommen, mit der Zubereitung einer Mahlzeit so lange zu warten, bis das Energieversorgungsunternehmen (EVU) vielleicht um Mitternacht den Herd einschaltet.

Der Wäschetrockner verbraucht ziemlich viel Strom – aber nur Altgeräte tun das. Moderne Trockner arbeiten mit nicht aufgeheizter Luft. Kein Problem mit hohem Stromverbrauch.

Bleibt vor allem  die Waschmaschine übrig. Jetzt fällt auf, daß in sämtlichen Werbeartikeln für die Smart Meter immer nur die Waschmaschine als tolles Beispiel dafür genannt wird, wie ein Verbraucher in den billigen Schwachlastzeiten extern ein- und ausgeschaltet werden kann und wie sehr das Strom spart.

Aber nicht einmal dieses Beispiel wird der Realität in einem Haushalt gerecht: Eine intelligent für verschiedene, nacheinander erfolgende Waschvorgänge genutzte Waschmaschine erfordert eine entsprechende Bedienung, die über das nächtliche EIN und AUS erheblich hinausgeht. Dieses restliche Beispiel hinkt auch noch auf einem weiteren Fuß: Eine Waschmaschine verbraucht für die meiste Zeit, in der sie in Betrieb ist, nur sehr wenig Strom, und zwar nur für ihren Motor.  Zum nennenswerten Stromverbraucher wird sie einzig und allein dann, wenn sie Wasser aufheizt, also Wärme erzeugen muß. Und das geschieht nur während weniger Minuten. Das Gleiche gilt für die Spülmaschine.

Kaum jemand wird wegen der dabei vom intelligenten Zähler verursachten geringen Geldersparnis – die verbrauchte Energie bleibt schließlich die selbe, nur der Tarif ist billiger – das nächtliche Rumoren seiner Waschmaschine oder Spülmaschine  in Kauf nehmen.

Daß es sehr wahrscheinlich zu überhaupt keiner Geldersparnis kommt, hat der SPIEGEL am 16.8.2010 in einem vernichtenden Artikel mit der Überschrift "Teure Ersparnis" dargelegt: Die Smart Meter führen zu beträchtlichen Kosten – für den Austausch des Zählers, eine jährliche Dienstleistungsgebühr, eine permanente DSL-Verbindung -, die sehr wahrscheinlich sehr viel mehr Geld verschlingen, als jemals gespart werden kann. Im Übrigen führt die DSL-Verbindung zu einem nicht unbeträchtlichen Strom-Mehrverbrauch, der am Ende sogar zu einer insgesamt höheren Stromrechnung führen kann.

Die einzigen Vorteile liegen bei den Herstellern der Geräte und beim Energieversorger. Aber in Anbetracht der offensichtlichen Unbrauchbarkeit dieser Technik für Privatkunden und ihres  entsprechend geringen Interesses  würden diese Unternehmen in einer normalen Marktwirtschaft ihre Aktivitäten auf Industriekunden richten, die schon lange darauf achten, zeitlich verschiebbaren hohen Stromverbrauch in günstige Tarifzeiten zu verlegen.

Aber leider leben wir in einem Land, in dem jede Regierung auch Technologien ohne Marktchancen nach Kräften zu fördern bereit ist, wenn ihnen ein ökologischer Anschein zugesprochen werden kann. Und Stromsparen ist zwar in der Wirtschaft ökonomisch sinnvoll, bei Privatleuten bedeutet es jedoch vor weitaus mehr ein umweltgerechtes Verhalten, erst recht, wenn die Kosten höher sind als die Ersparnis.

In der Technik der intelligenten Stromzähler sah die Regierung nun eine gute Gelegenheit, um unwilligen Bürgern das Stromsparen mit Nachdruck nahe zu bringen. Selbst wenn es in der Sache nichts bringt, dient es doch der Öko-Erziehung der Menschen.

Deshalb gaben die Unternehmen den Privatsektor nicht auf, sondern setzten auf die Politik. Und sie hatten damit recht, denn diese hat beschlossen, die von den Kunden überwiegend abgelehnte Technik nun zwangsweise einzuführen. Das hat inzwischen in Deutschland Tradition: Siehe das unsoziale Erneuerbare Energien-Gesetz (EEG), mit dem – koste es was es wolle – für eine zuverlässige Stromversorgung vollkommen unbrauchbare und teure Techniken wie die Photovoltaik und die Windkraft zwangsweise eingeführt werden. Von der massiv umweltschädlichen Biogaserzeugung gar nicht erst zu reden.

Der Hebel dazu und der Grund für die Gewinnerwartungen der Industrie ist die Novelle des Energiewirtschaftsgesetzes (EnWG) und der neuen Meßstellenzugangsverordnung von 2008. Mit der Änderung des EnWG besteht seit dem 1.1.2010 die Pflicht, bei Neubauten und Modernisierungsmaßnahmen Smart-Metering-Geräte zu verwenden. Ebenso muß allen Endverbrauchern ein "intelligentes Zählermanagement" angeboten werden. Diese Umstellung soll bis 2016 abgeschlossen sein.

Es beginnt vorsichtig: Zunächst soll der kluge Zähler den Verbrauchern nur einen Überblick über ihren Stromverbrauch geben.

Inzwischen wird bei den EVU und den Herstellern über die richtige Technik für die Kommunikation zwischen Zähler und EVU debattiert. Die bisher verwendete GPRS-Technik verursacht für jede abfrage deutliche Kosten. Auch sei die Anzeige-Verzögerung von 24 Stunden zu lang. Man denkt daher an eine Anbindung durch Breitbandnetze – z.B. das in Unternehmen verwendete Ethernet – nach. Dienstleister träumen jetzt von der Entwicklung neuer Geschäftsmodelle auf der Basis einer Echtzeit-Kommunikation mit dem Verbraucher. Gerade für die Versorger sei es interessant, nun ein viel größeres Produktspektrum aus einer Hand anzubieten, zum Beispiel Strom, Gas, Telefon und Internet – und dies zusätzlich mit neuen Informationsmöglichkeiten, sprich Werbung, zu verknüpfen. Die Kabelnetzbetreiber wiederum könnten über das Vermieten ihrer Leitungen hinausgehen und selbst als Meß-Dienstleister auftreten. Goldgräberstimmung kommt da auf.

Zwangseingriffe sind vorerst nicht geplant, bei unserer in Energiefragen auf Zwangsbeglückung fixierten Regierung aber keineswegs auszuschließen.

Man muß dazu das EnWG nur ein wenig ändern. Die Öko-Nachtigall hört man bereits trappsen:

In einem Fachartikel schwärmt Thomas Prauße, der geschäftsführende Vorsitzende der Stadtwerke Leipzig GmbH, daß "das eigene Verhalten somit auf objektiver Basis kritisch hinterfragt werden (kann). Eine Visualisierung des eigenen CO2 –Ausstoßes ermöglicht eine ökologische Bewertung des eigenen Verbrauchs." Es fehlt eigentlich nur noch die automatische Abbuchung von Strafgebühren bzw. Ablaßzahlungen für Bürger, die ein ihnen vom Staat zugestandenes CO2 – Kontingent überzogen haben.

Peinlich nur, wenn dann bei wachsendem Atomstrom-Import aus Frankreich und Tschechien der reuevolle CO2 –Sünder am Display sogar eine  Verbesserung seiner Treibhausbilanz sieht – wahrscheinlich aber verbunden mit den erhöhten Kosten dieses CO2–freien Auslandsstroms.

Auch Herr Prauße träumt nach wie vor von "netzwerkfähigen Haushaltsgeräten", die "zukünftig exakt in den Zeiten betrieben werden, in denen Energie zum Beispiel durch mehr Sonne oder stärkeren Wind günstiger ist. Unabhängig von vordefinierten Zeiten (!!) werden Steuerimpulse für die netzintegrierten Haushaltsgeräte abgegeben, um diese einzuschalten."

Schöne Grüße vom Großen Bruder, der es auch mit dieser Entmündigung nur gut meint. Vom Nutzer dieser Haushaltsgeräte und seinen eigenen Interessen ist bezeichnenderweise gar nicht mehr die Rede.

Damit aber noch nicht genug: "Über das intelligente Netz (Smart Grid) sind Elektroautos in der Lage, einen Beitrag zur Ausbalancierung des schwankenden Angebots erneuerbarer Energien im Stromnetz zu leisten. Sie fungieren als mobile Speicher, die geladen werden können, wenn zu viel Strom zur Verfügung steht. Und sie können elektrische Energie ins Netz speisen, wenn ein Mehrbedarf verlangt wird." (T. Prauße, BWK Bd. 63 , 2011, Nr.3).

Was Herr Prauße übersieht: Die Lebensdauer der extrem teuren Batterien von Elektroautos wird wesentlich von der Anzahl der Lade-Entladezyklen bestimmt und es ist schwer vorstellbar, daß sich die Besitzer auf eine solche sowohl schädliche als auch zeitlich vollkommen unberechenbare Fremdnutzung einlassen würden.

Man muß diesem Herren dafür danken, daß er die Eingriffsmöglichkeiten in die Lebensführung der Bürger, die intelligente Stromzähler bieten, so deutlich beschrieben hat.

Er ist ein Visionär, der nur etwas voreilig beschrieben hat, wohin die Einführung der Smart Meter führen kann – bzw. führen soll.

Unseren Datenschützern ist es womöglich noch nicht aufgefallen, in welchem Maße mit einer derartigen Technik aber auch eine Kontrolle dieser Lebensführung verbunden ist und wie diese Kontrolle noch ausgeweitet werden kann.

Techniken sind wertfreie Werkzeuge, weder gut noch böse. Die Frage ist immer nur, was man damit macht. Und was man bleiben läßt.

Dr. Günter Keil

Dr. Ing. Günter Keil arbeitete bis zu seiner Pensionierung 2002 in leitender Funktion im Bundesforschungsministerium

Sankt Augustin, 28.07.2011

Update 12.8.11:

NZZ Intelligente Stromzähler sparen weniger als erwartet




Klima-Fehldiagnose

Roy W. Spencer und William D. Braswell zufolge, beide vom Earth System Science Center (ESSC) an der University of Alabama in Huntsville, ist die Magnitude der Reaktion der Bodentemperatur im Klimasystem auf ein herbei geredetes Ungleichgewicht bei der Strahlungsenergie – die Klimasensitivität – heute genauso unsicher wie sie es vor Jahrzehnten auch schon war. In einer atemberaubenden Studie unter dem Titel „On the Misdiagnosis of Surface Temperature Feedbacks from Variations in Earth’s Radiant Energy Balance“ [etwa: Über die Fehldiagnose der Feedbacks der Temperatur auf Variationen in der Bilanz der Strahlungsenergie der Erde], die im Journal Remote Sensing veröffentlicht worden ist, wird das Fehlen von Fortschritten bei der Verbesserung der Genauigkeit von Klimamodellen auf die Komplexität des Systems zurück geführt sowie auf die Unfähigkeit, Feedbacks im realen Klimasystem zu quantifizieren. In der Kurzbeschreibung (abstract) werden die von den Autoren gefundenen Ergebnisse gut zusammengefasst:

Die Sensitivität des Klimasystems hinsichtlich eines Strahlungsungleichgewichtes ist nach wie vor die größte Quelle der Unsicherheit bei Projektionen der zukünftigen anthropogenen Klimaänderung. Hier präsentieren wir weitere Beweise, dass diese Unsicherheit aus einer Beobachtungsperspektive hauptsächlich auf die Maskierung des Feedback-Signals durch den internen Strahlungsantrieb zurückzuführen ist, möglicherweise aufgrund natürlicher Veränderungen der Bewölkung. Dass diese internen Strahlungsantriebe existieren und wahrscheinlich die Diagnose des Feedback verschleiern, wird mit einer phasenverschobenen Regressionsanalyse und damit gekoppelten Klimadaten gezeigt und mit einem einfachen Feedback-Modell interpretiert. Während die satellitengestützten Messungen im Zeitraum 200 bis 2010 wesentlich in Richtung einer geringeren Klimasensitivität von den gleichen, von gekoppelten Klimamodellen simulierten Daten abweichen, sehen wir, dass es mit herkömmlichen Methoden nicht möglich ist, diese Diskrepanz hinsichtlich Feedbacks zur Klimasensitivität zu quantifizieren. Daraus schließen wir, dass die Diagnose des atmosphärischen Feedbacks zur Bestimmung der Klimasensitivität ein ungelöstes Problem bleibt, hauptsächlich wegen der Unfähigkeit, zwischen Strahlungsantrieb und –feedback aus dem mit Satelliten ermittelten Strahlungshaushalt zu unterscheiden.

Sie glauben, dass die wesentliche Schwierigkeit bei der Diagnose des Klimafeedbacks in der „Verunreinigung des Feedback-Abdrucks“ durch unbekannte Strahlungsfaktoren besteht, die intern erzeugt werden. Ein Beispiel eines solchen ‚unerzwungenen’ Feedbacks ist die natürliche Veränderung der Bewölkungsmenge. „Einfach gesagt, Strahlungsänderungen hervorgerufen durch Temperaturänderungen (feedback) können nicht so leicht von den Strahlungsänderungen getrennt werden, die eine Temperaturänderung verursachen (Antrieb)“, stellen die Autoren fest.

Zur Durchführung ihrer Analyse unterzogen die Autoren die Temperatur und die Strahlungsflüsse einer phasenverschobenen Regressionsanalyse. Die sich daraus ergebenden Regressions-Koeffizienten werden unten in der Abbildung dargestellt. Auflistungen der globalen Anomalien (a) und Anomalien, die nur aus Daten der globalen eisfreien Ozeane (b) stammen, werden separat gezeigt.


Phasenverschobene Regressionen zwischen der Temperatur und dem Strahlungsfluss

Die offensichtlichste Schlussfolgerung aus der obigen Abbildung lautet, dass die Satellitenbeobachtungen und die Klimamodelle ein markant unterschiedliches zeitabhängiges Verhalten zeigen. Temperaturunterschiede im Vergleich mit Variationen der Strahlung zeigen sich besonders über den Ozeanen. Man beachte die Änderung des Vorzeichens des Strahlungsungleichgewichtes, welches davon abhängt, ob die Strahlung[sänderung] vor oder nach der Temperatur[änderung] liegt. Die Modelle stimmen mit den realen Messungen ganz klar nicht überein. Die Daten, die für diese Studie genutzt worden sind, waren monatliche Anomalien des globalen Mittels der Temperatur von HadCRUT3 und Strahlungsflüsse gemessen von Terra CERES SSF Edition 2,5; und zwar im Zeitraum März 2000 bis Juni 2010.

Klimasensitivität wird allgemein so definiert: wie stark wird sich der Planet erwärmen, falls sich das Niveau des atmosphärischen CO2-Gehaltes verdoppelt? Die Beobachtungen von Spencer und Braswell lassen Versuche als albern erscheinen, die Klimaänderung auf nur einen einzigen Grund zu reduzieren. Natürlich ist dies nicht der erste Beitrag, aus dem hervorgeht, dass Klimamodelle keine akkurate Repräsentation des realen Klimasystems darstellen (siehe “The Sensitive Kind”).

Jüngste Untersuchungen haben gezeigt, dass die Modelle katastrophale Änderungen nicht vorhersagen können (hier). Jetzt haben Spencer und Braswell gezeigt, dass die Modelle nicht einmal in der Lage sind, die Änderungen von Tag zu Tag korrekt wiederzugeben. In der abschließenden Diskussion zu dieser Studie drücken sie es so aus:

Ein einfaches Modell des Antriebs-Feedbacks [?] zeigt, dass dies das Verhalten ist, das man von strahlungsbedingten Temperaturänderungen erwarten kann, und es ist mit Überlegungen hinsichtlich der Energieerhaltung konsistent. In solchen Fällen ist es schwierig, die Feedback-Parameter mit Regressionsverfahren abzuschätzen.

Im Gegensatz dazu würden vorherrschend nicht strahlungsbedingte Temperaturänderungen eine relativ genaue Diagnose der Feedback-Parameter mit Regressionen ohne Zeitverzögerung erlauben, da der größte Teil der Strahlungsvariabilität aus dem Feedback kommen würde. Unglücklicherweise scheint dies weder in Satellitenbeobachtungen noch in gekoppelten Klimamodellen der Fall zu sein.

Dies führt die Autoren zu der Schlussfolgerung, dass es eine „ziemlich große Diskrepanz“ zwischen dem Einfluss der Strahlung, wie sie das reale Klimasystem zeigt und von Satelliten gemessen wird, und den Klimamodellen gibt. Was bedeutet das für die Abschätzung der Klimasensitivität, einem der Lieblingsspiele der Klimawissenschaftler? „Während diese Diskrepanz nominell in Richtung einer geringeren Klimasensitivität des realen Klimasystems geht, gibt es eine Reihe von Parametern abweichend von Feedback, die die phasenverschobene Regressionsstatistik beeinflussen, so dass es schwierig ist, das genaue Feedback zu diagnostizieren.“ Mit anderen Worten, obwohl es schwierig ist, das zu beziffern, sagt ihre Analyse, dass sie niedriger liegt als die Angaben, die von den Alarmisten benutzt werden.

 „Die Satellitenbeobachtungen weisen darauf hin, dass viel mehr Energie während und nach einer Erwärmung in den Weltraum abgestrahlt wird als die Klimamodelle zeigen“, sagt Spencer in einer Presseerklärung der University of Alabama. „Es gibt eine gewaltige Diskrepanz zwischen den Daten und der Vorhersage, die über den Ozeanen besonders groß ist“.

 „Auf die Spitze getrieben zeigen die Satelliten, dass Energie verloren geht, während die Klimamodelle immer noch davon ausgehen, dass Energie gewonnen wird“, sagte Spencer. Also sind die Modelle falsch, aber können sie mit lediglich einigen weiteren Optimierungen verbessert werden, wie die Modellierer behaupten? „Das Hauptergebnis dieser Untersuchung besteht darin, dass es keine Lösung für die Messung des atmosphärischen Feedbacks gibt, hauptsächlich wegen unserer Unfähigkeit, zwischen dem Strahlungsantrieb und dem –feedback in unseren Beobachtungen zu unterscheiden“. Mit anderen Worten, die Modelle werden weiterhin falsch sein.

Diese Ergebnisse belegen ein weiteres Mal, wie inadäquat heute Klimawissenschaft betrieben wird: Die Modelle sind falsch; unser Wissen des Systems Erde steckt voller Lücken und Fehler; und die Komplexität des Systems macht jeden Versuch akkurater Vorhersagen zunichte. Die Studie illustriert auch die Überlegenheit von realen Daten über computererzeugte Ratereien. Die Zeloten der globalen Erwärmung sind vor eine harte Wahl gestellt – entweder sie bestehen weiterhin darauf, dass ihre Modelle genau sind, und geben alle Ansprüche auf, echte Wissenschaftler zu sein, oder sie geben zu, dass ihre Vorhersagen der zukünftigen Klimakalamität keinerlei Grundlage haben.

Wenn ein Arzt eine Krankheit falsch diagnostiziert und mit einer Behandlung fortfährt, die dem Patienten schadet, nennt man das Fehldiagnose. Ein weltumspannendes Kader von Klimapfuschern hat das irdische Klimasystem fehldiagnostiziert und Regierungen gedrängt, drakonische Maßnahmen durchzuführen, um die Krankheit der globalen Erwärmung zu „heilen“. Es ist höchste Zeit, dass diese wissenschaftlich Inkompetenten der Fehldiagnose bzgl. der Klimaänderung angeklagt werden, und dass sie für die Schäden, die sie damit angerichtet haben, bestraft werden.

Alles Gute, genießen sie das Interglazial und bleiben Sie skeptisch!

Doug L. Hoffman

Link: http://theresilientearth.com/?q=content/climate-malpractice

Übersetzt von Chris Frey für EIKE

 




Haus-Wärmedämmung unter den neuen Energiespargesetzen

Prof. Lüdecke: Sehr geehrter Herr Fischer, wie aus Ihrer Webseite hervorgeht, sind Sie ein gefragter Fachmann auf dem Sektor der Gebäudesanierung, Wärmedämmung und weiteren, angesichts der jüngsten Pläne der Bundesregierung aktuellen Tätigkeitsfelder (K. Fischer, Tel. 09574-3011). Wir alle, als Mieter oder als Hauseigentümer, werden davon betroffen sein. Können Sie bitte unseren Lesern kurz schildern, was sie hier erwartet und „wie heiß“ die Suppe gegessen werden muss?

Konrad Fischer: Seit den frühen 1980er Jahren beobachte ich aus beruflichen Gründen die Bau- und Energie-Gesetzgebungs- und Novellierungstätigkeit bis hin zu den amtlichen Begründungen. Dabei ist mir – wie wohl jedem aufmerksamen Beobachter – schnell aufgefallen, dass die Energiegesetze nach dem Stil der Salamitaktik immer weiter verschärft werden.

Prof. Lüdecke: Um welche Gesetze geht es dabei im Einzelnen?

Konrad Fischer: Bei den uns interessierenden aktuellen Gesetzgebungsverfahren handelt es sich um

Gesetz zur Stärkung der klimagerechten Entwicklung in den Städten und Gemeinden

Gesetz zur steuerlichen Förderung von energetischen Sanierungsmaßnahmen an Wohngebäuden

Energiedienstleistungsgesetz

Erneuerbare Energien Wärmegesetz

und die schon seit 2010 für 2012 vorbereitete Novelle der

– Energieeinsparverordnung mit Einbindung der neuen EU-Gebäuderichtlinie, Niedrigstenergiestandard für Neubauten

sowie weiter verschärfte Energieausweisregelungen. All diese Gesetze und Regelungen gießen meiner Meinung nach nur alten Wein in neue Schläuche und verfolgen dieselben Partikularinteressen wie seit jeher. Die sich um den Atomausstieg rankenden Vorstellungen unserer Regierung zur künftigen Energieversorgung unseres Landes – bis 2050 soll die Ökoenergie 100 Prozent übernehmen – beruhen auf einem grenzenlosen Optimismus und sind völlig unrealistisch. Orchestriert wird das von sogenannten Expertenstudien aus interessierten Kreisen, die von der Energiewenderei massiv profitieren. Widerlegende Gegendarstellungen haben dagegen keine Chance, ein typisches Merkmal der gesamten Klimaschutzwissenschaft und -gesetzgebung.

Prof. Lüdecke: Darf ich Ihren bisherigen Ausführungen entnehmen, dass sie diesen Bemühungen der deutschen Bundesregierung kritisch gegenüber stehen?

Konrad Fischer: Absolut korrekt! Der sich als „Klimaschutz“ gebende Politikstil der verbrannten Erde wird als entscheidender deutscher Beitrag zur Menschheitsrettung vor einer polaren Eiskernschmelze und sonstigen global wirksamen Wind- und Wetterereignissen verkauft. Zumindest Ihre EIKE-Leser wissen, was davon zu halten ist. Im Ergebnis zeigt sich die Klimaschutzpolitik bisher lediglich als Wirtschaftsförderung zugunsten der Kreditwirtschaft und der nachgeordneten Profitmacher mit den bewährten Folterinstrumenten und Stimulantien: Gesetzlich gestützter Investitionszwang mit sich verschärfendem Enteignungscharakter und Mißbrauch von Steuermitteln nach dem Gießkannenprinzip.

Prof. Lüdecke: Wird die Regierung die angekündigten Gesetze denn überhaupt durchsetzen können?

Konrad Fischer: Der sogenannte Atomausstieg ist scheinbar schon fast geschafft. Insider warten jetzt auf die leicht vorhersehbaren Folgen – massiv spürbare Energiepreisverteuerung, Energieimport im großen Stil, möglicherweise gekoppelt mit Stromausfällen im ganzen Land. Das scheinen die Regierung und ihre Einflüsterer aber nicht zu befürchten, oder es ist ihnen total egal. Nach den bisherigen Erfahrungen wird auch die folgende Verschärfung der „Energiewende „im großen und ganzen“ gelingen. Wenn nicht ganz genau nach Plan, dann eben wieder mal scheibchenweise. Die Pläne der Ministerialen und der Wunschkataloge ihrer Einflüsterer sind weitestgehend bekannt.

Prof. Lüdecke: Um was geht es da im Detail?

Konrad Fischer: Der Sanierungszwang für Altbauten ohne Beachtung der Wirtschaftlichkeit, sowie weitere Verschärfung der ohnehin schon gegebenen Ökovorschriften in sogenannten „städtischen Klimaschutzgebieten“ sind seit langem als Vorreiter der grenzenlosen Einflussnahmen von Profiteuren in der Pipeline und fertig ausformuliert. Auch der gesetzliche Zwangsanschluß an die Netze der Ökoenergie gehört dazu. Dies alles und noch mehr sollte mit der Novelle des Baugesetzbuches eingeführt werden. Nach einigem Medienspektakel hat man diesen weiteren merkelgestützten Anschlag auf das Eigentum – die DDR Wohnungszwangswirtschaft läßt grüßen! – Ende Juni erst mal etwas entschärft. Es bleiben diverse baurechtliche Begünstigungen der bizarren Alternativenergien aus Sonne und Wind, die in Wahrheit nichts taugen und nur den Strompreis erhöhen. Ob das in der ökologischen Reform des Baugesetzbuchs auf Anhieb durchgeht, wird der Herbst zeigen. Der Bundesrat hat die 100-Prozent-Abschreibung in Zehnjahresfrist für die energetische Sanierung eines Altbaus auf einen Energieverbrauch von nur noch 85 Prozent des Neubauniveaus erst einmal gestoppt. Die Länder befürchten dadurch krasse Verluste beim ihnen zustehenden Steueraufkommen. Doch der Vermittlungsauschuß wird sich bestimmt sehr bemühen, eine Entschädigungsregelung zu finden. Vielleicht durch eine weitere Mehrwertsteuererhöhung? Die sich um ihre gesetzlich garantierten Gewinne sorgenden Klimaschutzbegünstigten und sonstige Auftragslamentierer haben schon ihr bekanntes Greinen begonnen, das die Qualitätsmedien nun nach besten Kräften verstärken werden. Motto: Bundesrat verhindert sofortige Weltrettung durch deutsche Regierungskunst.

Prof. Lüdecke: Wie beurteilen Sie den Sachgehalt des vorgesehenen Sanierungszwangs? Sind damit wesentliche Einsparungen an den Energieträgern Gas, Kohle und evtl. Elektrizität erzielbar?

Konrad Fischer: Jetzt wird es lustig. Das extreme Einsparen der in Gebäuden verbrauchten Energie ist ein wesentlicher Baustein der Energiewende. Ohne diesen Minderverbrauch geht nämlich die angekündigte Komplettumstellung auf „Öko“ überhaupt nicht auf. Der Witz dabei ist, dass all die bisherigen Energiesparanstrengungen aber so gut wie nichts gebracht haben, da die gesetzlich erzwungenen und steuersubventionierten Maßnahmen überhaupt nicht geeignet sind, sinnvoll und wirtschaftlich Energie einzusparen. Probieren Sie mal, an unverfälschte Abrechnungsdaten heranzukommen, die belegen, dass Häuser allein durch nachträgliche Wärmedämmung Energie gespart haben. Es gibt sie nicht, wie erst unlängst der Verbraucherschutzverband Hausgeld-Vergleich/Hausverwalter-Check durch schriftliche Befragung der zuständigen Behörden und Institutionen herausgefunden hat. An vergleichende Verbrauchsdaten von gedämmten und ungedämmten Wohnblöcken gleicher Bauarten ist bisher nur mein Kollege und Gerichtssachverständige Prof. Jens Fehrenberg herangekommen. Ein stellvertretendes Ergebnis: Ein gedämmter Wohnblock in Hannover verbraucht nicht weniger, sondern am Ende mehr als die bauartgleichen ungedämmten Nachbarn. Das wissen sowohl die Regierung als auch die Dämmprofiteure. Deswegen gehen sie immer nur von berechneten „Bedarfszahlen“ und nicht erwiesenen „Verbrauchszahlen“ aus. Auch für die vorhin genannten „85-Prozent Energieverbrauch“ gilt das in gleicher Weise. Ein „Sachverständiger“ muß die Fiktion bestätigen – für ein Entgelt. So funktioniert der ganze Ökoladen: Prächtig auf dem Papier – in Wahrheit ein grausamer Flop.

Prof. Lüdecke: Wieso soll denn die Wärmedämmung nicht funktionieren?

Konrad Fischer: Die gedämmte Wand verhält sich eben nicht so, wie im getürkten Rechenmodell.

Prof. Lüdecke: Können Sie das etwas näher erläutern?

Konrad Fischer: Zum einen werden Dämmfassaden schnell naß. Da Dämmstoff keine Wärme speichern kann, kühlen sie nach Sonnenuntergang extrem ab und unterschreiten stundenlang den Taupunkt. Dabei kondensiert die Luftfeuchte auf und vor allem auch im Dämmstoff, er säuft ab. Die Thermografie-Aufnahme mit der Wärmebildkamera erfolgt – ein raffinierter Trick! – immer tief in der Nacht oder früh am Morgen und beweist dann die extrem abgekühlte Dämmfassade. Dann strahlt der Massivbau immer noch die tagsüber aufgenommene Solarenergie ab – im Bild rotgelb, während die aufnässende Dämmfassade unter dem Taupunkt blauschwarz dahinfrostet. Das lobt der Thermograf dann als „gut gedämmt“! Am Tag aufgenommene Wärmebilder zeigen dagegen „kalte“ Massivfassaden und glühende Dämmoberflächen, da deren dünne Putzschwarten durch Solarstrahlung extrem viel heißer als die Massivfassaden werden. Vom dünnen Autoblechdach in der Sommerhitze und seiner nächtlichen Befrostung kennt jeder diesen Effekt. (Anm. der Redaktion: Thermografie in Theorie und Praxis, http://members.aon.at/osterrg2/ebs.pdf)

Aber lassen Sie mich noch weiter ausholen. Es ist doch logisch, dass bei Sonneneinstrahlung die Verschattung bzw. Wärmedämmung der Hauswand weniger mitheizende Solarenergie in die Wand lässt. Nachts erhöht dagegen die nächtliche Extremabkühlung und vor allem die Nässung der Dämmfassade das Temperaturgefälle der Wand – und damit auch den Energieverbrauch. Wie mir vorliegende Vergleichsmessungen der Bundesanstalt für Landwirtschaft belegen, entsprechen die sich tatsächlich einstellenden Temperaturen an massiven und gedämmten Wänden im jahreszeitlichen Tag-und-Nacht-Rhythmus keinesfalls den stationär angesetzten Rechenmodellen.

Prof. Lüdecke: Noch einmal zum besseren Verständnis für unsere Leser. Darf ich Ihre Ausführungen so verstehen?: Nachts wird durch das Nasswerden des Dämmstoffs und durch starke Abkühlung beim Unterschreiten des Taupunkts die Dämmwirkung der Außendämmung ins Gegenteil verkehrt, denn seine Wärmeleitfähigkeit nähert sich der (guten Wärmeleitfähigkeit) des Wassers an. Der jetzt sehr kalte Dämmstoff verliert also seine Wärmeisolationseigenschaft und wird zum Wärmeleiter. Als Folge davon verliert die  Massivwand des Hauses Wärme – also gerade dies, was man durch die Dämmung verhindern möchte. Und tagsüber, bei Sonneneinstrahlung, verhindert umgekehrt die Dämmung die erwünschte Erwärmung der Wand. Erwünscht deshalb, weil wir nicht in tropischem Klima leben, in dem jede Aufheizung der Wände verhindert werden soll.

Konrad Fischer: So ist es!

Prof. Lüdecke: Nun haben wir bislang ja nur von Dämmung der Hausaußenwand gesprochen. Wie verhält es sich aber mit Dämmung im Inneren, beispielsweise der Ausdämmung eines Dachstuhls, der bisher oft nur eine dünne Alufolie unter den Ziegeln aufwies?

Konrad Fischer: Bei der Dachdämmung müssen wir vor allem den sommerlichen Hitzeschutz betrachten. Es zählen die sogenannte Temperaturamplitudendämpfung und die Phasenverschiebung: Die einseitige Temperaturerhöhung außen – die Ziegeloberflächen kommen bei starker Sonneneinstrahlung locker auf 70 bis 80 Grad °C – soll stark abgemildert (Temperaturamplitudendämpfung) und möglichst erst in den kühlen Nachtstunden im Raum ankommen  (Phasenverschiebung). Diesen Dämpfungs- und Verzögerungseffekt schaffen auf Grund ihrer geringen Dichte nicht die üblichen Dämmstoffe, sondern nur Massivbaustoffe wie Holz und Ziegel. Deren Speicherfähigkeit schützt auch im Winter am

besten vor der Raumauskühlung. Und obendrein schaffen es die Massivbaustoffe, dank ihrer Kapillarität, auch dem unausweichlichen Feuchteangriff durch sommerliches und winterliches Kondensat verlässlich standzuhalten. Fasrige und porige Dämmstoffe dagegen nässen oft auf, da die Dichtheit der sogenannten Dampfsperrfolie in der Leichtbaukonstruktion „Dach“ zwangsläufig nur von kurzer Dauerhaftigkeit ist.

Bei den anderen Formen der Innendämmung an Zimmerwänden sind die Feuchteeffekte inzwischen recht gut erforscht: Die Schimmelpilzgefahr ist geradezu extrem. Bei Fachwerkwänden ist dadurch die Trocknung gestört, Vermorschung droht. Und was die Kosten und den Nutzen betrifft: Ein krasses Mißverhältnis. Ich rate deswegen: Finger weg.

Prof. Lüdecke: Zurück zur Außendämmung. Kann man hier nicht sogar von vorsätzlichem Betrug sprechen?

Konrad Fischer: Wahrscheinlich könnte man das so bezeichnen.

Prof. Lüdecke: Wie reagiert denn das Material und die Struktur der Dämmfassaden a la longue auf die von Ihnen geschilderte Extrembewitterung?

Konrad Fischer: Da es sich um klapperige Leichtbautechnik handelt, ganz ihrem Naturell entsprechend. Sie müssen ständig repariert werden oder gehen schnell kaputt. Die Materialbelastung durch die dämmstofftypische Ausdehnung und Schrumpfung bei Temperaturwechsel – etwa das 15- bis 20-fache des Ziegelsteins – führt zum Auf- und Abreißen der Dämmhaut. Ihr feuchtebedingtes Absaufen fördert Verschmutzen und das mikrobiologische Wachstum von Schimmelpilzen und Algen. Jeder kennt inzwischen die versauten Dämmfassaden, oft muß man nur aus dem Fenster schauen. Die Dämmindustrie vergiftet deswegen die Dämmoberflächen mit Fungiziden und Algiziden. Leider werden die Pestizide schnell ausgeregnet und verseuchen dann das Grundwasser und die Kläranlagen. Die Ewald Dörken AG hat deswegen jüngst die im Dämmsystem eingebettete Fassadenheizung erfunden, mittels elektrischer Heizmatten oder warmwasserbeheizter Heizschlangen. Schilda läßt grüßen.

Ganz unbekannt ist hierzulande auch, was an den Holzrahmenhäusern Amerikas passierte: Dort haben die systematisch aufnässenden Wärmedämmverbundsysteme deutscher Bauart an über 90 Prozent der sachverständig untersuchten Fälle zu entsetzlichen Hausschwammkatastrophen und Bewohnerkrankheiten geführt. Sie sind deswegen seit 1996 sukzessive verboten worden, zuletzt 2007 in Oregon. In Deutschland nehmen wir dagegen jeden Pfusch in Kauf, fördern ihn mit Steuermitteln und erzwingen ihn mit Energiespar-Gesetzen. Über neun Euro pro Fassadenquadratmeter und Jahr kostet die Instandhaltung einer Dämmfassade mehr, als eine verputzte Massivfassade, so das Institut für Bauforschung in Hannover. Und die durch Sommer- und Winterkondensat aufgenässten Zwischensparrendämmungen sind Legion.

Prof. Lüdecke: Aber bei den Wärmeschutzfenstern mit extremer Abdichtung gegen Aussenluft sollte das Energiesparen doch wenigstens funktionieren?

Konrad Fischer: Dass man mit dichteren Fenstern den Heizenergieverbrauch etwas vermindern kann, ist zwar richtig – aber keinesfalls mit akzeptabler Amortisation der Investitionskosten und nur auf Kosten der Raumlüftung. Das Ergebnis heißt dann Geldverlust – was angesichts des Hausbesitzerreichtums vielleicht zu verschmerzen wäre, aber leider nicht der Schimmelpilzbefall in der überfeuchten Wohnung. Die propagierte Stoßlüftung bekommt nämlich die anfallende Raumluftfeuchte nicht in den Griff – bei vier Personen an die 10 bis 15 Liter täglich! Dies schafft nur die stetige Lüftung – durch schnell verkeimende Lüftungsanlagen im Dauerbetrieb oder eben mit der ausreichenden Luftwechselrate alter Fenster ohne Lippendichtung. Doch davon will die Fensterindustrie rein gar nichts wissen. Sie verkauft inzwischen Lüftungsschlitzbeschläge, rahmenintegrierte Lüftungsklapperatismen und perforierte Dichtungslippen – alles für teuer Geld und passivhauszertifiziert und die Lichtsäcke des Schildaer Rathaus an technischer Raffinesse weit hinter sich lassend.

Prof. Lüdecke: Wie sieht es dann mit den neuen Heiztechniken durch Wärmeentnahme aus dem Erdboden aus?

Konrad Fischer: Diese sind im Nachrüstfall meistens unwirtschaftlich, technisch anfällig und bleiben in ihrer tatsächlichen Effizienz weit hinter den Rechenannahmen zurück. In der Stadt Staufen hat sich das Extremrisiko der Tiefenbohrungen für den Wärmetauscher durch eine Unzahl fortschreitende Gebäuderisse gezeigt. Die Wärmeentnahme aus dem Boden kühlt diesen außerdem ab und mündet in immer geringeren Wärmeerträgen, denen mit immer aufwendigeren Verlegesystemen begegnet wird. Der gelieferte Energieüberfluß bleibt oft weit hinter den Erwartungen zurück und erfordert dann massive elektrische Zuheizung. Und die kühlen Abgastemperaturen moderner Heizkesseltechnik haben schnellere Korrosion im Kesselraum und aufwendige Kaminsanierung als betriebswirtschaftlichen Pferdefuß. All das erhöht den baulichen und finanziellen Aufwand und spart im Effekt doch keine Energie!

Prof. Lüdecke: Wie kann man denn dann richtig Heizenergie sparen?

Konrad Fischer: So richtig sparen kann man nach meiner Erfahrung nur, wenn man sinnlose Energiespar-Aufwendungen unterläßt, da liegt das größte Sparpotential. Und vielleicht die Wärmeverteilung einer alten Heizung mit eingeputzten Rohrleitungen gegen offen auf dem Putz liegende Rohre eintauscht und die Nachtabsenkung mit ihren exponentiellen Energieverlusten beim abendlichen Auskühlen und morgendlichen Aufheizen abstellt. Niemand putzt ja seine Neonleuchten ein, bis die Wand nur noch müde schimmert, und beim Autofahren weiß jeder, was Stop and Go im Stadtverkehr – das Analogon zur Nachtabsenkung der Heizung – sinnlos Sprit frißt. Bei der Wohnungsbeheizung verbaggern die Deutschen die Wärme jedoch am liebsten in Wand und Boden und lassen gerne die Reifen quietschen. Ganz davon abgesehen, dass sie extrem teure und störungsanfällige Holzheizmethoden in ihre Keller einbauen und sich daran freuen, mit aufquellenden Holzpellets, toxisch belastetem Altholz und schimmelversportem Holzschnitzelchen Giftgaswolken aus ihren Hauskaminen zu pusten oder mit wasserbasierter Wärmetauscherei ganze Städte in Rißruinen und ihre Gartenböden in Permafrostgebiete zu verwandeln.

Prof. Lüdecke: Was ist mit Brennwertheizungen? Sind die sinnvoll? Ich bin da persönlich ein wenig skeptisch, weil diese neuen Systeme wesentlich teurer sowie anfälliger sind und daher auch höhere Wartungskosten verursachen. Gibt es hier seriöse Vergleiche?

Konrad Fischer: Da möchte ich keine langatmigen Technikdiskussionen entfalten, ich zitiere eine Zuschrift eines Beratungskunden: „Entgegen der Zusicherung des Heizungsbauers, mit einem neuen Gasbrennwertkessel 25-30% Energie einsparen zu können, habe ich in der Heizperiode 2007/2008 gegenüber der Vorperiode 9% mehr Gas verbraucht – was unter Berücksichtigung des um 15% höheren Klimafaktors der Vorperiode für meine Postleitzahl lt. DWD einem 6% höheren Wirkungsgrad entspricht.“ Ich finde, das sagt alles. In zwei Worten: Finger weg!

Prof. Lüdecke: Wie kann sich der Hausbesitzer gegen die offensichtlich sinnlosen Zumutungen der Energiesparvorschriften schützen?

Konrad Fischer: Bisher ist das Wirtschaftlichkeitsgebot des Energieeinspargesetzes entscheidend. Deswegen gibt es in den darauf fußenden Verordnungen – die Heizkostenverordnung und die Energieeinsparverordnung – Befreiungsregelungen. Sie greifen immer, wenn die Investition unwirtschaftlich ist. Jeder Planer ist aus haftungsrechtlichen Gründen verpflichtet, seinen Bauherren darüber aufzuklären, denn er schuldet ja die Wirtschaftlichkeit der Planung als vertragliche Nebenpflicht. Wer das als Planer und Energieberater vernachlässigt, setzt sich dann eben einem schwer einzuschätzenden Haftungsrisiko aus. Entsprechende Prozesse sind am laufen und auch früher schon zuungunsten der untreuen Planer entschieden worden.

Prof. Lüdecke: Und wie ist der Begriff „Unwirtschaftlich“ hier zu verstehen, um welche Amortisationszeit handelt es sich denn dabei?

Konrad Fischer: Zunächst die amtliche Vorschrift zur Frage der Unwirtschaftlichkeit einer Energiespar-Investition im Verhältnis zur Ersparnis. Im Paragrafen 11 der Heizkostenverordnung hat der Gesetzgeber selbst den angemessenen Amortisationszeitraum festgesetzt: „Unverhältnismäßig hohe Kosten liegen vor, wenn diese nicht durch die Einsparungen, die in der Regel innerhalb von zehn Jahren erzielt werden können, erwirtschaftet werden können.“ An diese Frist hat sich bisher auch die einschlägige Rechtsprechung gehalten und deswegen ist sie auch für die Bearbeitung unserer Befreiungsanträge von der Energieeinsparverordnung im Altbau maßgeblich, wobei wir im Neubau und bei der Befreiung vom Erneuerbare-Energien-Wärmegesetz die zu erwartende Lebensdauer der betroffenen Bauteile heranziehen. Und damit – bisher jedenfalls – immer eine Befreiung erwirken konnten.

Doch viele Hausbesitzer sind der Klimaschutz-Halluzination schon erlegen und machen jeden Blödsinn eifrig mit, egal wie unwirtschaftlich das auch sein mag.

Für die vernünftigen gilt: Skeptisch bleiben, nachrechnen und sich befreien lassen. So lange das noch geht.

Prof. Lüdecke: Ich danke Ihnen für dieses Gespräch.

Nachtrag: Konrad Fischer ist mit seiner Expertise nicht alleine. Immer öfter berichten regionale und überregionale Zeitungen über die Fragwürdigkeit, Häuser nachträglich mit den heute von der einschlägigen Industrie und den ausführenden Handwerksbetrieben angebotenen Maßnahmen zu dämmen. EIKE hatte schon einmal darüber berichtet.Am 22. Juli 2011 schrieb Rolf Kornemann in der FAZ (Preisschulder für die Energiewende, Immobilienbrief) einen kritischen Beitrag, ferner die WELT Online am 21.Juli 2011 den Artikel „Schimmel-Dämmplatten können krank machen“. Für weiter Interessierte ein Video-Beitrag von Fischer hier.




Sensationelle Meldung: Die globale Temperatur steuert das CO2-Niveau – nicht der Mensch!

Hören Sie seinen Vortrag: “Global Emission of Carbon Dioxide: The Contribution from Natural Sources” [etwas: „Globale Emission von Kohlendioxid: Der Beitrag aus natürlichen Quellen”]

Die CO2-Variationen korrelieren nicht mit den anthropogenen Emissionen. Spitzen und Senken korrelieren mit warmen Jahren (z. B. 1998) und kalten Jahren (1991-1992). Von Salbys Studie oder seinem Vortrag stehen noch keine Graphen zur Verfügung. Der Graph oben stammt aus einer hiermit zusammenhängenden Arbeit von Tom Quirk (siehe unten).

Die höheren Niveaus von CO2 während der letzten Dekaden scheinen hauptsächlich aus natürlichen Quellen zu kommen. Er präsentierte seine Forschungen vor kurzem auf der IUGG-Konferenz in Melbourne, was eine Reihe von Leuten erschreckt hat und zu intensiven Diskussionen führte. Das Sydney Institute hörte davon und beeilte sich, einen Vortrag von ihm zu arrangieren, und zwar wegen der Wichtigkeit seiner Arbeit im gegenwärtigen politischen Klima Australiens.

Das Verhältnis von C13 zu C12 (zwei Isotope von Kohlenstoff) in unserer Atmosphäre ist zurückgegangen, was gewöhnlich als ein Hinweis menschlicher CO2-Emissionen angesehen wird. C12 bildet 99% des Kohlenstoffs in der Atmosphäre (nahezu der gesamte Kohlenstoff in der Atmosphäre liegt in der Form von CO2 vor). C13 ist viel seltener – nur etwa 1%. Pflanzen mögen den selteneren C13-Anteil nicht so sehr; die Photosynthese geht am Besten mit dem C12-Typ von Kohlendioxid und nicht mit dem C13-Typ, wenn sie der Luft das CO2 entnehmen.

Prof. Salby weist auf Folgendes hin: Während fossile Treibstoffe mehr mit C12 angereichert sind als die Atmosphäre, so gilt das auch für die Pflanzen der Erde, und es gibt keinen großen Unterschied (nur 2,6%) im Verhältnis zwischen C13 und C12 im Vergleich zwischen Pflanzen und fossilen Treibstoffen. (Fossile Treibstoffe sind nach der Theorie aus Pflanzen entstanden, von daher ist es nicht überraschend, dass es schwierig ist, ihre „Signatur“ zu separieren). Wenn also das Verhältnis zwischen C13 zu C12 fällt (da mehr C12-Kohlenstoff durch das Verbrennen fossiler Treibstoffe in die Luft gelangt), können wir nicht mehr unterscheiden, ob dies aus anthropogen erzeugten CO2 oder dem natürlich von Pflanzen erzeugen CO2 stammt.

Im Wesentlichen können wir anthropogene Emissionen ganz gut messen, nicht jedoch die natürlichen Emissionen und Abscheidungen – die Fehlergrenzen sind gewaltig. Die Menschen emittieren 5 Gt oder so pro Jahr, aber die Ozeane emittieren 90 GT und die Landpflanzen etwa 60 GT, was zu einer Gesamtemeission von etwa 150 Gt führt. Viele Wissenschaftler haben vermutet, dass sich der Austausch von Kohlenstoff zwischen natürlichen Quellen und Senken in etwa die Waage hält, aber es gibt keine realen Daten, die dies bestätigen, und so ist es nichts weiter als eine bequeme Hypothese. Das Problem besteht darin, dass selbst bruchstückhafte Änderungen in den natürlichen Emissionen oder Abscheidungen durch die menschlichen Emissionen schwappen.

 

Eingeschobenes Update:

E.M.Smith hat diesen Punkt 2009 gut dargestellt:

„Es wird oft erklärt, dass wir den menschlichen Beitrag zum atmosphärischen CO2 messen können, indem wir uns das Verhältnis zwischen C12 und C13 ansehen. In der Theorie absorbieren Pflanzen mehr C12 als C13 (um etwa 2%, keine große Signatur), so dass wir uns nur die Luft ansehen müssen, um zu wissen, welches CO2 von Pflanzen, welches aus Vulkanen und welches von fossilen Treibstoffen stammt, von uns. Pflanzen sind hinsichtlich C13 „instabil“, und daraus folgt, dass dies auch für das aus unseren fossilen Brennstoffen gebildete CO2 gelten müsste.

Da Kohle und Öl  von Pflanzen stammt, geht man allgemein davon aus, dass „Pflanzenabdruck“ heißt „menschlich über fossile Treibstoffe“. Aber ganz so einfach ist es nicht. Man betrachte die Abbildung oben rechts. Von uns stammen 5,5, und Pflanzen bringen 121,6 jedes Jahr in die Luft (ohne Meerespflanzen). Es gibt z.B. eine Menge Kohlenstoff, der zwischen Quellen und Senken hin und her wandert.

Chiefio fand auch einige interessante Details, die darauf hinweisen, dass Mais (eine C4-Pflanze) mehr C13 absorbiert, und unser Massenanbau von Mais könnte die Statistik aufmischen… (es ist ein guter Beitrag).

Die Quellen von CO2 scheinen nicht industrialisierte Gebiete zu sein!

Wenn Satelliten das atmosphärische CO2-Niveau weltweit aufzeichnen, finden sie komischerweise, dass die Hauptquellen offensichtlich nicht an den Orten liegen, an denen wir sie vermuten – Industrie- oder Bevölkerungskonzentrationen wie in Westeuropa, das Ohio-Tal oder China. Statt dessen scheinen die Hauptquellen an Orten wie dem Amazonas-Becken, Südostasien und dem tropischen Afrika zu liegen – also nicht so sehr Orte mit großen menschlichen CO2-Emissionen!

Aber CO2 ist ein gut durchmischtes Gas, und daher ist es nicht möglich, Quellen oder Senken mit Messungen von CO2 auszumachen. Die Unterschiede liegen nur in einer Größenordnung von 5%.

Der bessere Weg, dieses Puzzle aufzulösen, besteht darin, die eine lange Reihe der Aufzeichnung zu betrachten, die wir haben (vom Mauna Loa in Hawaii seit 1959) und die Änderungen von CO2 und C13 Jahr für Jahr aufzutragen. In manchen Jahren von Januar bis Januar könnte es einen Anstieg von 0 ppmv geben (d. h. keine Änderung), in anderen bis zu 3 ppmv. Falls diese Änderungen auf den menschlichen CO2-Eintrag zurückzuführen sind, sollten wir in jüngster Zeit mehr dieser raschen Anstiege sehen im Zuge der immer schneller steigenden menschlichen Emissionen.

Was Salby jedoch fand, entsprach nicht im Mindesten den Erwartungen!

Die größten Steigerungen von Jahr zu Jahr gab es bei starken globalen Erwärmungen unter El Niño-Bedingungen. Die geringsten Zuwächse korrelieren mit Vulkanausbrüchen, die Staub hoch in die Atmosphäre blasen und die Welt eine Zeitlang kühler halten. Mit anderen Worten, die Temperatur kontrolliert das CO2-Niveau in einer jährlichen Zeitskala, und Salby zufolge haben menschliche Emissionen darauf wenig Einfluss.

Die Klimamodelle nehmen an, dass der meiste Anstieg des CO2 (von 280 ppmv 1780 bis 392 ppmv heute) infolge der Industrialisierung und dem Verbrennen fossiler Energieträger erfolgt ist. Aber der Globus hat sich in dieser Zeit auch erwärmt (tatsächlich seit den Tiefen der kleinen Eiszeit um das Jahr 1680), so dass auch die wärmeren Bedingungen Grund für den Anstieg des CO2-Gehaltes sein können.

Salby bestreitet nicht, dass Einiges des CO2-Anstiegs tatsächlich von menschlichen Emissionen herrührt, fand aber heraus, dass Temperaturänderungen allein bereits 80% der Veränderungen des CO2-Gehaltes erklären können.

Die entsprechende Studie mit allen Darstellungen wird in sechs Wochen erscheinen. Sie wurde bereits wissenschaftlich begutachtet und klingt so, als ob bis zum Erscheinen viel Zeit vergangen sei. Salby erklärte, dass er sechs Monate lang über die Ergebnisse gegrübelt und sich die Frage gestellt hatte, ob nicht irgendeine andere Interpretation möglich sei, und als er dann Wissenschaftler einlud, die er bewunderte und denen er vertraute, die Studie zu kommentieren, brüteten auch diese darüber ein halbes Jahr. Sein Vortrag schlug Wellen auf der IUGG-Konferenz, und seine Worte breiten sich aus.

Später in diesen Jahr wird ein Buch veröffentlicht werden: Physics of the Atmosphere and Climate.

Roy Spencer äußerte sich im vorigen Jahr ähnlich

Could the Ocean, Rather Than Mankind, Be the Reason?” and Part II

[etwa: „Könnte der Grund eher im Ozean als bei den Menschen liegen?” und Teil II“]

…In der Abbildung kann man erkennen, dass die jährliche mittlere CO2-Zunahme auf dem Mauna Loa weit entfernt von 0% der menschlichen Quelle liegt, bis 130%. Dies scheint mir ein Beweis zu sein, dass natürliche Ungleichgewichte im Fluss zumindest genauso groß sind wie die menschliche Quelle (Roy Spencer)

…die menschliche Quelle repräsentiert nur 3% (oder weniger) des natürlichen Flusses aus dem Erdboden und in hinein. Dies bedeutet, dass wir über die natürlichen steigenden und fallenden Flüsse viel besser als die 3% Bescheid wissen müssten, um zu sagen, ob die Menschen für den gegenwärtigen Aufwärtstrend des atmosphärischen CO2-Gehaltes verantwortlich sind. Sind Messungen des globalen CO2-Flusses genauer als 3%?? Ich bezweifle es.“

Roy Spencer

Tom Quirk hat diese Fragen in Australien seit Jahren gestellt

Tom Quirk konnte zeigen, dass das meiste CO2 in der Nordhemisphäre erzeugt wird und die Stationen auf der Südhemisphäre Monate brauchen würden, um diesen Anstieg zu registrieren. Statt dessen scheint es nicht die geringste Zeitverzögerung zu geben… [ there did not appear to be any lag…] (d. h. die Hauptquelle des CO2 ist global und nicht menschliche Aktivität).

Über 95% der (anthropogen emittierten) CO2 wurde in der Nordhemisphäre freigesetzt…

 „Der CO2-Transport von der nördlichen auf die südliche Hemisphäre konnte mit dem bei den Atombombentests der fünfziger und sechziger Jahre freigesetzten Isotop C14 gemessen werden. Die Analyse von C14 im atmosphärischen CO2 zeigte, dass es einige Jahre dauerte, bis das C14-Isotop relativ gleichmäßig in beiden Hemisphären verteilt war…

Wenn wirklich 75%  CO2 aus Verbrennung fossiler Rohstoffe nördlich des 30. Breitengrades kommt, sollte man einige Zeitverzögerungen wegen der Variationen der geschätzten Menge von Jahr zu Jahr erwarten. Ein einfaches Modell, das dem Beispiel der C14-Daten diesen ein Jahr Zeit zur Durchmischung gibt, würde eine Verzögerung von 6 Monaten ergeben, bis sich Änderungen des CO2-Gehaltes in der Nordhalbkugel auch in der Südhalbkugel bemerkbar machen.

Stellt man die Unterschiede der monatlichen Messungen auf dem Mauna Loa von Jahr zu Jahr mit denen am Südpol gegenüber … zeigt sich eine positive Differenz, wenn die Daten am Südpol größer sind als die Daten vom Mauna Loa. Jeder negative Bias (Verzerrung in der Graphik) würde auf eine verspätete Ankunft des CO2 in der Südhemisphäre hindeuten.

Es scheint jedoch keinerlei Zeitunterschied zwischen den Hemisphären zu geben. Dies bedeutet, dass die jährliche Zunahme (des atmosphärischen CO2) aus einer globalen oder äquatornahen Quelle stammen“.

Tom hat hierzu viel gearbeitet:

Die Konstanz jahreszeitlicher Änderungen des CO2 und das Fehlen von Zeitverzögerungen zwischen den Hemisphären zeigt, dass das aus fossiler Verbrennung stammende CO2 im Jahr, in dem es emittiert worden ist, fast vollständig lokal absorbiert wird. Dies bedeutet, dass die natürliche Variabilität des Klimas der hauptsächliche Grund für die Zunahme des CO2 ist, und nicht das CO2 aus dem Gebrauch fossiler Brennstoffe.

‘Sources and Sinks of Carbon Dioxide’ von Tom Quirk, Energy and Environment, Volume 20, Seiten 103-119.  http://www.multi-science.co.uk/ee.htm

Mehr Informationen von Tom Quirk: SOURCES AND SINKS OF CARBON DIOXIDE  [17 page PDF]

Aber was ist mit den Eisbohrkernen?

Der Eisbohrkern aus Wostok zeigt, dass das CO2-Niveau seit 800 000 Jahren nicht mehr so hoch lag, aber wenn Salby recht hat und die Temperatur den CO2-Gehalt bestimmt, sollte das CO2-Niveau vor – sagen wir – 130 000 Jahren höher gewesen sein, als es global 2 bis 4 Grad wärmer war als jetzt.

Salby stellt die Proxies aus dem Eiskern in Frage und weist darauf hin, dass mit dem Temperaturanstieg C13 zurückgeht, wie es während der letzten 50 Jahre der Fall war. Wenn der Eiskern auf die gleiche Weise vor hunderttausenden von Jahren ähnlich reagiert, kann man das Verhältnis zwischen C12 und C13 kaum als Fingerabdruck menschlicher Emissionen bezeichnet werden.

Über die Natur der Wissenschaft

Nach Salby besteht Wissenschaft aus Diskussion und Fragen. Er betonte, wie wichtig die Debatte „Der Ausschluss von Diskussion ist keine Wissenschaft!“ sei. Er fühlte sich nicht in der Position Politik zu kommentieren und sagte, dass Wissenschaftler, die dies tun, mehr Aktivisten als Wissenschaftler sind.

Nachdem er mit sorgfältig gewählten Worten vorgetragen hatte, beendete er seine Präsentation mit der Bemerkung „jeder, der glaubt, dass die Wissenschaft zu diesem Thema gesichert [settled] ist, befindet sich in Phantasien“.

Salby war früher IPCC-Reviewer und kommentierte verdammenswerterweise, falls es diese Ergebnisse schon 2007 gegeben hätte, „hätte das IPCC nicht die Schlussfolgerungen ziehen können, die es gezogen hat“. Ich glaube, dass er dem IPCC auch die rote Karte gezeigt hat.

———————————————————

Professor Murry Salby ist Vorsitzender von Climate Science an der Macquarie University. Er hatte Gastprofessuren in Paris, Stockholm, Jerusalem und Kyoto. Außerdem verbrachte er einige Zeit im Bureau of Meteorology in Australien. Er hat in führenden Forschungseinrichtungen gearbeitet, einschließlich des US National Center for Atmospheric Research, der Princeton University und der University of Colorado. Er ist Autor von Fundamentals of Atmospheric Physics und Physics of the Atmosphere and Climate,welches 2011 erscheinen soll (mit Dank an Andrew Bolt)

Joanne Nova

Link: http://joannenova.com.au/2011/08/blockbuster-planetary-temperature-controls-co2-levels-not-humans/#more-16345

Übersetzt von Chris Frey für EIKE

Weiterführender Link: bei Judith Curry "Carbon cycle questions"

 




Wolken bestimmen unser Klima – Das Geheimnis der Wolken!

"Das Geheimnis der Wolken" Ein Film von Lars Mortensen 2007




Satelliten- Klima-Experte Dr. Roy Spencer zu den Diskrepanzen zwischen Messungen und Modellen!

Ihre Widerlegungen grenzen ans Bizarre, und so muss ich mich fragen, ob auch nur einer von ihnen unser Papier überhaupt gelesen hat. Ich warte ungeduldig auf ihre veröffentlichten Studien, die irgendwelche Fehler in unserer Analyse zeigen.

Offensichtlich ist alles, was sie wissen müssen, dass unsere Studie die UN-Klimamodelle schlecht aussehen lässt. Und das können sie mit Sicherheit nicht leiden!

Wirklich eigenartig dabei ist, dass diese Wissenschaftler wissentlich oder unwissentlich den Ersten Hauptsatz der Thermodynamik leugnen: den Energieerhaltungssatz. Wir zeigen, dass er tatsächlich für mittlere globale Änderungen der Temperatur gültig ist: eine strahlungsbedingte Akkumulation von Energie führt zu einem Temperaturmaximum… später! Genau so wie bei einen Wasserkessel: stellt man ihn auf den Herd, dauert es eine Weile, bis das Wasser warm ist.

Aber während es höchstens 10 Minuten dauert, ein paar Zentimeter Wasser zu erwärmen, dauert es viele Monate im realen Klimasystem, bis sich die oberen 20 bis 50 Meter Ozeanwasser erwärmt haben.

Wir zeigten eindeutige Beweise für diese Zeiträume der Akkumulation von Strahlungsenergie aufgrund von Satellitenbeobachtungen, bevor die Temperatur steigt… und den Energieverlust danach. Energieerhaltung kann von keinem vernünftigen, gesunden Wissenschaftler geleugnet werden.

Wir haben weiter gezeigt (seufz… wieder einmal… wie schon 2010), dass man keine Diagnose des Feedback angeben kann, wenn dieser Strahlungsantrieb der Temperaturänderung stattfindet, zumindest nicht in einem Zeitraum bei Null, wie es Dessler und ein paar andere getan zu haben behaupteten.

Falls man es versucht, wird man ein “falsches Positiv” bekommen, selbst wenn das Feedback stark negativ sein sollte.

Die Demonstration hiervon ist einfach und überzeugend. Sie wird verstanden von Dick Lindzen am MIT, Isaac Held in Princeton (welcher bei weitem kein „Skeptiker“ ist), und vielen anderen, die sich tatsächlich Zeit genommen haben, es zu verstehen. Man muss nicht einmal glauben, dass „Wolken eine Klimaänderung auslösen können“ (wie ich zum Beispiel), weil es die Zeitverzögerung ist – und das ist eindeutig – die zu dem Problem der Feedback-Abschätzung führt.

Haben wir „bewiesen”, dass die IPCC-Klimamodelle mit ihren Vorhersagen einer substantiellen Erwärmung in der Zukunft falsch liegen?

Nein, aber das schmutzige kleine Geheimnis ist, dass es nach wie vor keine Möglichkeit gibt, sie auf ihre Erwärmungsprognosen zu testen. Und solange die Modellierer darauf bestehen, die kurzfristige Klimavariabilität heranzuziehen, um die langzeitliche Erwärmung in ihren Modellen „abzusichern“, solange werde ich die gleiche kurzfristige Variabilität nutzen, um zu zeigen, wie sehr die Modellierer sich mit ihrem Glauben an ein positives Feedback selbst zum Narren machen. Und ohne ein allgemeines positives Feedback wird die menschengemachte globale Erwärmung für alle Ziele in der Praxis kein Thema mehr sein (z. B. kann ein negatives Wolkenfeedback jedes positive Feedback im Klimasystem überkompensieren).

Wenn ich ein „Leugner” der Theorie von einer gefährlichen anthropogenen Klimaänderung bin, dann sei es. Aber als Wissenschaftler leugne ich lieber eine Theorie als dass ich den Ersten Hauptsatz der Thermodynamik leugne. 

Link: http://wattsupwiththat.com/2011/08/01/rise-of-the-1st-law-deniers/

Übersetzt von Chris Frey für EIKE

Anmerkung: EIKE bereitet eine allgemeinverständliche Beschreibung der Spencer-Hypothese zum Einfluss des Wolkenfeedback vor (Autoren: Prof. Lüdecke, Dr. Link und weitere).




100.000 neue Öko-Jobs für Berlin? Update 16.11.9 Solarbranche 50.000 Beschäftigte weniger

Eine der hartnäckigsten Mythen ist die Aussicht auf eine Vielzahl neuer Jobs im Zuge des ökologischen Umbaus der Wirtschaft. Auch im Wahlprogramm der Grünen für das Berliner Abgeordnetenhaus findet sich dieser Mythos wieder. Mit Hilfe simpler Beschäftigungsmultiplikatoren, an deren Existenz außerhalb der Politik ohnehin niemand mehr glaubt, werden aus einem Investitionsvolumen der „Green Economy“ von einer Milliarde Euro 25.000 zusätzliche Arbeitsplätze geschaffen, ohne auch nur einen einzigen Gedanken daran zu verschwenden, dass die Investition dieser Mittel in jedem beliebigen anderem Bereich Arbeitsplatzeffekte in ähnlicher Größenordnung erzeugt hätte.

Update 16.11.10: Solarbranche beschäftigt nur 80.000 Menschen, statt wie bisher angegeben 130.000. Dazu noch die meisten als Teilzeitbeschäftigte im Handwerk (Montage & Wartung)

Mit Dank an Spürnase Solarkritik R. Hoffmann

 Die Mittel für diesen Investitionsschub fallen in diesem Denken offenbar einfach so vom Himmel. Kein Wort liest man davon, dass die Finanzierung der Investitionen andere Investitionen verdrängt und dass der Aufwand für den energetischen Umbau der Stadt nur dann zu dauerhaften Impulsen für Wirtschaft und Beschäftigung führt, wenn er sich später auch in Form von Energieeinsparungen, Produktivitätsgewinnen und verbesserter Lebensqualität für die Bürger auszahlt. Doch allein die Tatsache, dass der ökologische Umbau der Stadt mit politischem Druck und finanzieller Förderung erzwungen werden soll, deutet auf das Fehlen dieser notwendigen Bedingung für einen langfristigen Effekt für Einkommen und Beschäftigung hin. Das ganze Land beschwert sich inzwischen darüber, dass die Mieten steigen werden, weil sich nur ein Teil der ambitionierten Maßnahmen zur energetischen Sanierung von Gebäuden durch zukünftige Energieeinsparungen rentiert, und dass der Ausbau der Nutzung sogenannter erneuerbarer Energieträger nur mit einer immer weiter wachsenden finanziellen Belastung der Bürger realisierbar ist. Unter solchen Bedingungen wird Arbeit vor allem umverteilt und geht dort verloren, wo durch die zusätzliche Kostenbelastung an Ausgaben gespart werden muss. Wer auf diese Art und Weise für Beschäftigung sorgen will, der kann gleich tausenden Menschen im öffentlichen Straßenbau eine Schippe in die Hand drücken, um damit den Einsatz von Baggern zu ersetzen. Schließlich erreicht eine „Green Economy“, die ineffiziente Energieträger und ökonomisch unsinnige Energiesparmaßnahmen fördert, den gleichen Effekt. Sie leitet wertvolle Ressourcen fehl, reduziert dadurch die Produktivität der Wirtschaft und zwingt die Bürger für den gleichen oder sogar geringeren Wohlstand mehr Arbeit einzusetzen. Kurzfristig mögen solche Subventionen den Anschein eines blühenden Arbeitsmarktes erwecken und die Einkommensverluste der Verlierer dieser Entwicklung kaschieren. Auf lange Sicht jedoch bleibt von einem solchen Strohfeuer nicht viel übrig. Wenn die Gerüste erst wieder abgebaut sind, werden sich die geprellten Wähler dort wiederfinden, wo sie die Verheißungen dieser Politik zuerst wahrgenommen haben: Auf der Straße.

Steffen Hentrich Liberales Institut.

Zuerst erschienen bei Ökowatch




Neue Studie: Wärmeinseleffekt in China: ungebremst und mit voller Stärke

Für die Untersuchung des Effektes rapider Verstädterung auf Temperaturänderungen wurden folgende Daten verwendet: Monatliche Daten der Mitteltemperatur von 463 meteorologischen Stationen, einschließlich jener Aufzeichnungen von 1981 bis 2007 aus normalen und nationalen Referenzstationen in Ostchina sowie Analysen vom Nationalen Zentrum für Umweltvorhersagen und vom Nationalen Zentrum für atmosphärische Forschung (NCEP/NCAR).*

*(Wegen der vielen Eigennamen folgt hier das Original dieses Absatzes: Monthly mean surface air temperature data from 463 meteorological stations, including those from the 1981–2007 ordinary and national basic reference surface stations in east China and from the National Centers for Environmental Prediction and National Center for Atmospheric Research (NCEP/NCAR) Reanalysis, are used to investigate the effect of rapid urbanization on temperature change. )

Diese Stationen wurden nach sechs Kategorien klassifiziert, und zwar: Metropole, große Stadt, mittelgroße Stadt, kleine Stadt, Vorort und ländlich. Hierzu wurden die mit Satelliten gemessene nächtliche Lichtausbeute sowie Daten aus Volkszählungen verwendet.  Sowohl Beobachtung minus Analyse (OMR) und städtische minus ländliche (UMR) Methoden wurden verwendet, um die durch die Verstädterung induzierten Änderungen der Temperatur zu ermitteln. Diese objektiven und dynamischen Stationsklassifizierungen zeigen hinsichtlich beobachteter und analysierter Temperaturänderungen in ländlichen Gebieten gute Übereinstimmung, was darauf hindeutet, dass die Analyse ländliche regionale Temperaturtrends gut abbilden kann. Die Trends der UHI-Effekte, ermittelt aus den Näherungen von OMR und UMR, sind allgemein konsistent und weisen darauf hin, dass die rapide Verstädterung einen signifikanten Einfluss auf die Erwärmung in Ostchina hat. Alles in allem tragen UHI-Effekte 24,2% zu regionalen mittleren Erwärmungstrends bei. Am stärksten zeigt sich dieser UHI-Effekt bei den Trends der mittleren monatlichen Temperatur über Metropolen und sehr großen Städten mit einem Beitrag von 44% bzw. 33% zur Gesamterwärmung. Die UHI-Trends liegen bei 0,398°C bzw. o,26°C pro Dekade. Der stärkste UHI-Effekt trat nach der Jahrtausendwende auf und spiegelt die signifikante Auswirkung der dann einsetzenden rapiden Verstädterung.

Abbildung

Mehr bei: JOURNAL OF GEOPHYSICAL RESEARCH, VOL. 116, D14113, 12 PP., 2011
doi:10.1029/2010JD015452

Autoren:

Xuchao Yang

Shanghai Typhoon Institute of China Meteorological Administration, Shanghai, China, Institute of Meteorological Sciences, Zhejiang Meteorological Bureau, Hangzhou, China

 

Yiling Hou

Shanghai Climate Center, Shanghai, China

 

Baode Chen

Shanghai Typhoon Institute of China Meteorological Administration, Shanghai, China

Link: http://wattsupwiththat.com/2011/07/28/new-paper-uhi-alive-and-well-in-china/

Übersetzt von Chris Frey für EIKE




Es gibt ihn-Inhärent sicherer Kernreaktor: “Die Technik der Hochtemperaturreaktoren”

Vor allem wird der 2malige Test-Supergau beschrieben, zum Nachweis, daß mit einem HTR keine "Kernschmelze" möglich ist. Mit diesen Erfahrungen wurde der Konzeptvorschlag eines neuen HTR erarbeitet, bei dem nichts "strahlendes" mehr das KKW- Betriebsgelände verlassen muß. Auch die Endlagerung  und Behandlung aller "strahlenden" Teile ist damit konstruktiv lösbar.

Vortrag von Dr. U. Cleve gehalten am 15.7.2011

Die Technik der Hochtemperaturreaktoren. Kolloquium an der RWTH Aachen.

Sehr geehrter Herr Prof. Dr. Gudenau, liebe Studentinnen/en und Studierende, meine sehr verehrten Damen und Herren,

einige werden sich über das Thema wundern, wurde doch gerade erst die KKW-Technik in Deutschland abgeschafft. Aber außer der BRD tut das  kein Land in der Welt, deshalb können wir auch international weiter arbeiten.

Preiswerte und vor allem sichere Energie ist die Grundlage zum Betrieb auch aller Werke der Eisen- und Stahlindustriem, sowie aller Werke mit hohem Strombedarf. Kernkraftwerke werden sich weltweit hierzu als unverzichtbar erweisen. Leider habe ich nur eine sehr kurze Vortragszeit. Ich habe zahlreiche Vorträge in den letzten Monaten über dieses Thema gehalten, zuletzt auf Einladung des EU-FZ-Petten bei einem Internationalen Kongress  in Nizza. Erlauben Sie mir daher bitte, daß ich heute nur kurze „Statements“ vortrage. Ich erwähne nichts, was ich nicht schon veröffentlicht habe, mit detaillierter Erläuterung.

Kurz zu meiner Person:

1964 übernahm ich die Leitung der Hauptabteilung Technik der BBC/Krupp Reaktorbau GmbH. Prof.Dr. Schulten ging als Professor zur KFA Jülich.  Ich frug meinen Vorstand warum ich das machen solle, ich verstände doch davon überhaupt nichts. Er meinte nur, ich sei noch jung genug, um etwas dazu zu lernen. Meine Verantwortung war Konstruktion, Bauleitung, Prüfungen, E-Technik und Inbetriebnahme des AVR. Beim THTR habe ich an der Erstellung der ersten baureifen Unterlagen mitgewirkt.

2008, nach 40 Jahren, in denen ich mich mit dieser Technik nicht mehr befaßt hatte, wurde ich zunächst von der KTG, später auch von Minister Prof. Dr.Pinkwart und Frau Bundesministerin Prof. Dr. Schavan gebeten, meine Erfahrungen zusammenzufassen, als letzter noch Lebender aus der oberen Führung von ehemals BBC/Krupp. Das habe ich jetzt vollendet, alles ist veröffentlicht. Es hat mich viele hundert Stunden an Arbeit gekostet, aber es hat Spaß gemacht. Dies ist also praktisch mein kurzgefaßter Abschlußbericht.

Nun meine Statements, zunächst zum AVR:

–       Prof.Dr. Schulten erdachte den HTR – Kugelhaufenreaktor mit den Grundlagen Kugelförmiges BE; He als Kühlgas; Uran und Thorium als Brennstoffe; Grafit als Kugel- und  Core-Werkstoff und Moderator; Hohe Betriebstemperaturen von 850grd später sogar 950 grd. C; ein integriertes geschlossenes Kühlgassystem;

–       Es waren geradezu visionäre Überlegungen aus den 50iger Jahren, die zum Erfolg dieser Technik führten. Alle diese Grundlagen sind auch heute noch uneingeschränkt gültig. Schulten war ein Vordenker, dessen Leistung eigentlich nur mit der von Wernher von Braun vergleichbar ist.

–       Diese Prämissen waren die Grundlage zum Ziel eines „katastrophenfreien“ KKW.

–       Mit dem AVR wurde der „Supergau“ zweimal erprobt, erstmals 1967. Es war  der weltweit erste „Testgau“. Alle Sicherheitseinrichtungen wurden blockiert, die gesamte Anlage stromlos gemacht, also im Prinzip der gleiche Zustand wie in Fukushima 2011. Tschernobyl hatte völlig andere Ursachen.

–       Nichts passierte, der Reaktor ging von alleine aus. Er ist damit der weltweit einzige Reaktor, bei dem ein „Test-Supergau“ zweimal erfolgreich durchgeführt worden ist. Mit keinem anderen KKW-Typ hat man das gewagt, es wäre auch nicht gut gegangen.

–       Mit Grundlage für diesen Erfolg war vor allem auch die erfolgreiche  Entwicklung der „coated particles“ in großartiger internationaler Zusammenarbeit mir maßgeblicher finanzieller Unterstützung des BMFT. In einer BE-Kugel sind etwa 15.000 „CP“ eingelagert.

–       Die dreifache Beschichtung der nur 0,9 mm großen Partikel verhindert den Durchtritt von Spaltprodukten bis etwa 1.600 grdC.

–       Dadurch sank die  Primärgas- Radioaktivität von zunächst geplanten 10 hoch 7 Curie auf auf nur noch 360 Curie.

–       Bei Bruch eines BE erhöhte sich die Primärgasaktivität nicht, da die Coated Particles zu hart sind.

–       Die Kugel-BE haben sich als die besten und sichersten BE aller bisher bekannter Kernkraftwerke erwiesen.

–       Erstmals kritisch wurde der Reaktor am 28. August 1966. Am 18. Dezember 1966 wurde erstmals Strom erzeugt.

–       In 22 erfolgreichen Betriebsjahren gab es nur eine Störung nach Iness 1 „Abweichung vom Normalbetrieb“.  Von mehreren tausend  Schweißnähten im Dampferzeuger wurde eine undicht. Die erhöhte Feuchte wurde gemessen. Wie vorausgeplant und in der Betriebsanweisung, Betriebsgenehmigung und dem Sicherheitsbericht beschrieben, wurde der Reaktor kaltgefahren. Dann wurde durch Abdrücken der 4 getrennten Systeme der undichte Strang gefunden, abgedichtet, das eingedrungene Wasser entfernt, und die Anlage problemlos weitere 11 Jahre betrieben.

–       Trotz der vollständig neuen Konstruktionen für alle weiteren Komponenten ist keine größere Störung mehr eingetreten. Schwierigkeiten und Reparaturen bei einzelnen Komponenten konnten z. T. während des laufenden Betriebes behoben werden. Alle „Ereignisse“ wurde nach Iness „0“ – „Keine oder nur sehr geringe sicherheitstechnische Bedeutung“- bewertet.

–       Herausragend war die Funktion des Brennelementekreislaufs. /Abb. 5/Nur 220 BE sind in 22 Betriebsjahren gebrochen. Gefördert wurden 2.400.000 Elemente, eine Bruchrate von nur 0,0092%.

–       Die Grafiteinbauten, ursprünglich wegen fehlender Erfahrung als besonders kritisch angesehen, blieben stabil und haben sich ausgezeichnet bewährt.

–       Es gab keine „Strahlenunfall“, weder im Betrieb, vor allem aber nicht „nach außen“.

–       Der Reaktor erfüllte vor allem auch seine Aufgabe als international genutzter Reaktor zur Erprobung und Weiterentwicklung verschiedener Brennelemente hervorragend.

–       Trotz der Arbeit als Versuchsreaktor erreichte er eine durchschnittlich Verfügbarkeit von 66,4 % , im Jahre 1976  sogar 92%. Dies war sicher ein Weltrekord für eine in allen Details völlig neu konstruierte Kraftwerksanlage.

–       Der Betrieb des AVR war damit eine wohl einmalige Erfolgsgeschichte. Er wurde am 31.12.1988 auf Weisung der Landesregierung stillgelegt, obwohl zahlreiche BE-Erprobungen aus verschiedenen Ländern noch durchgefürt werden sollten………..

 den ganzen Vortrag können Sie undefinedhier abrufen

………Das neu erarbeitete HTR-Konzept, basierend auf den positiven und negativen Erfahrungen mit AVR und THTR, sieht wie folgt aus, erstmals vorgetragen in Varel bei der KTG am 27. März 2010, veröffentlicht jetzt in atw 6/2011 und in Nizza beim ICAPP am 3.5.2011.

–       Kugelförmige Brennelemente, diese sind den „Stäben“ weit überlegen, aber auch allen anderen BE-Konstruktionen.

–       Spannbetonbehälter, aus Sicherheitsgründen./Abb. 6/

–       Ringcore, also die Konstruktion, die ich 1967 als Alternative zu den „Stäben ins Kugelbett“ vorgeschlagen hatte.

–       Abschalt- und Regelstäbe in den Grafiteinbauten, wir wissen heute, daß dies problemlos geht.

–       He-He-Wärmetauscher anstelle des Dampferzeugers innerhalb des Primärgassystems.

–       Gebäude mit der Möglichkeit, das gesamte Primärgasvolumen aufzufangen, so daß nichts nach außen dringen kann.

–       Schnellabzug von Brennelementen.

–       Großer, erdbebensicherer,gas- und wasserdichter Betonunterbau.

–       Dort Platz zur Dekontamination defekter Komponenten, deren Reparatur und Lagerung; Lager für abgebrannte Brennelemente.

Dann wird nichts „strahlendes“ mehr das KKW verlassen. Alles geschieht in der Anlage. Die frischen BE könnte man in der Aktentasche ins KKW tragen. Castor-Transporte entfallen bei BE, die im Reaktor vollständig abgebrannt werden.

Damit ist die Konstruktion eines katastrophenfreien KKW ohne jegliche Gefährdung der Umwelt möglich. Ebenso der sichere Einschluß bei Betriebsende, also keine Kosten für Endlagerung irgendwo, wohin man noch nicht weiß.

Das klingt alles so einfach, ist es aber gar nicht. Der Weg dorthin ist und war steinig, viel steiniger und schwerer als man zu glauben vermag. Viel Rückschläge und Pannen waren zu verkraften. Ich wollte einmal „die Brocken hinschmeißen“, ich sagte meinem BBC-Vorstand, was ich denn nun machen solle, Kosten und Termine einhalten oder „einen Reaktor bauen, der läuft“, beides ginge nicht. Er lächelte nur und sagte, „doch beides“.

Auch international gab es schwere Rückschläge. So wurde in SA zu spät erkannt, daß der PMBR, ein KKW, in dem eine mit Primärgas-He zu betreibende HE- Gasturbine sicherheitstechnsich nicht geht. Dieses Konzept war  bei BBC/Krupp schon 1967  in einer AR-Sitzung als sicherheitstechnisch nicht realisierbar eingeschätzt worden.

Ob der neue 450 MWth- Reaktor in China in Betrieb gehen wird, weiß ich auch nicht. Ich bin  skeptisch. Er hat m.E. größere Schwachstellen. Meine Vortragskonkurrenten aus China sind beim ICAPP nicht erschienen, ich hatte mich als alter „Leistungssportler“ auf diesen „Wettkampf“ eigentlich gefreut. Von den von mir vorerwähnten 9 wesentlichen Konstruktionskriterien erfüllt er nur 2 bis 4.

Die ingenieurtechnische Umsetzung der Schultenschen Visionen war langwierig und kompliziert. Aber dieses neue  Konzept ist nach meiner Einschätzung das richtige Konzept, mit dem seine Visionen erfüllt werden können, alle anderen, weltweit in 40 Jahren erdachte Lösungen erfüllen nicht alle Kriterien , die ich mir bei der Planung eines nach außen absolut störungssicheren KKW gestellt habe.

Ich bin mir sehr sicher, daß für alle genannten Kriterien die erforderlichen Erfahrungen für Berechnung und Konstruktion vorliegen und auch alles planungstechnisch gut zusammengefügt werden kann.

Alle, ich betone alle, Sicherheitskriterien, die für Wasserreaktoren gestellt werden, sind einhaltbar. Ja man könnte sogar darüber hinausgehen. Alles ist detailliert in den atw 12/2009 und 6/2011 beschrieben.

Vielen Dank, daß Sie mir so geduldig zugehört haben.

Dr. Urban Cleve

 




Vereinfachtes Atmosphärenmodell beweist eine Klimasensitivität des CO2 von 1,1 °C auf der Basis beobachteter Strahlungsflüsse

Eine rein qualitative Beschreibung des Treibhauseffekts wurde von den Autoren bereits in EIKE publiziert. Ferner wurden von uns die Veröffentlichungen von Gerlich/Tscheuschner sowie von Kramm/Dlugi, die beide den erwärmenden Einfluss des anthropogenen CO2 in Frage stellen, einer Fachkritik unterzogen. In den Erwiderungen dieser Autoren auf unsere Kritik konnten wir keine Fehler unserer physikalischen Argumentation feststellen, jeder Leser sollte bei Bedarf selber nachprüfen.

Die Erwiderungen enthielten aber auch den zutreffenden Hinweis, wir hätten nicht selber zum Thema in Peer-Review-Fachzeitschriften publiziert. Dies ist zwar kein Sachargument gegen eine physikalisch einwandfrei belegte Kritik, war uns aber dennoch Ansporn. Unser Bemühen in der nun vorliegenden eigenen Publikation folgte im wesentlichen den Pfaden von Schneider/Mass und von Liou. Der maßgebende Unterschied zu deren Veröffentlichungen bestand indes darin, jedwede substantiellen Vernachlässigungen zu vermeiden. Um keine Missverständnissen aufkommen zu lassen, weisen wir in diesem Zusammenhang darauf hin, dass weder Gerlich/Tscheuschner noch Kramm/Dlugi eigene vollständige Modelle vorstellen, wie wir es in unserer Arbeit tun. Insbesondere Kramm/Dlugi gingen den Weg, über eigene „Berichtigungen“ des  Modells von (vorwiegend) Schneider/Mass zu belegen, dass mit ihren „Berichtigungen“ kein substantieller Nachweis für den Treibhauseffekt des CO2 mehr vorliege. Die „Berichtigungen“ enthielten gravierende Vernachlässigungen, so dass damit die, unserer Auffassung nach zwangsläufig falschen, Schlussfolgerung von Kramm/Dlugi bestens erklärt sind.

Unsere Publikation liegt als pdf bei. Als ein Ergebnis ermittelten wir die Klimasensitivität des CO2, also die mittlere globale Erwärmung bei hypothetischer Verdoppelung der CO2-Konzentration, zu 1,1 °C bei vorgegebener Änderung des Strahlungsgleichgewichtes (Radiative Forcing) ohne Rückkoppelungen. Unser Modell bestätigt, dass der Einfluss des anthropogenen CO2 sich als eine prinzipiell messbare Größe den weiteren Einflüssen von langfristigen globalen Temperaturänderungen zugesellt. Dieser Einfluss ist aber unbedenklich (im Gegenteil, CO2-Zunahme und eine leichte globale Erwärmung sind für die Menschheit günstig und wünschenswert) und erweist sich daher zu alarmistischen Prognosen zukünftiger Klimaentwicklungen als völlig ungeeignet. Unser Aufsatz belegt, dass die gelegentlich zu vernehmenden Auffassungen, anthropogenes CO2 übe überhaupt keinen erwärmenden, oder umgekehrt sogar einen abkühlenden Einfluss auf mittlere Globaltemperaturen aus, keine physikalische Basis aufweisen.

Wir bitten nun an dieser Stelle alle eventuellen Kommentare-Schreiber um Nachsicht, wenn wir aus Zeitgründen nur auf Kommentare antworten, die physikalisch einwandfrei begründet sind, sich ausschließlich und im Detail auf unseren Aufsatz beziehen und keine Anmerkungen darstellen, die auf offensichtlichen Missverständnissen beruhen. Das Journal IJMPC (International Journal of modern Physics C), in dem unser Aufsatz erschien, ist wie die meisten ordentlichen Fachzeitschriften absolut offen, was die Diskussion gegensätzlicher Ansichten zu einem in ihm veröffentlichten Aufsatz angeht. Jeder, der meint, gute physikalische Kritikpunkte gegen unsere Veröffentlichung anführen zu können und bereit ist, sich dem Peer-Review-Prozess von IJMPC zu unterziehen, ist daher im gegebenen Falle herzlich eingeladen, ein „debate paper“ bei IJMPC einzureichen.

Dr. Rainer Link

Prof. Dr. Horst-Joachim Lüdecke

(EIKE-Pressesprecher)

Related Files




Der herbeigeredete Klima-Konsens

Einige wichtige Einblicke hierzu finden sich in dieser Studie von Jean Goodwin an der Iowa University mit dem Titel:  The authority of the IPCC and the manufacture of consensus [etwa: Die Autorität des IPCC und die Produktion eines Konsens’]. Hier folgen einige Auszüge:

Durch eine Serie von (bis heute) vier Zustandsberichten seit 1990 gelang es dem IPCC, als eine politische „Gegebenheit“ durchzusetzen, dass sich die Erde erwärmt, und dass menschliche Aktivitäten ein signifikanter Grund dafür sind. Der vierte Zustandbericht war die Gelegenheit für die Administration Bush II, von der ursprünglichen Feststellung aus dem Jahr 2001:

…Wir wissen nicht, wie groß die Auswirkungen natürlicher Fluktuationen auf die Erwärmung sind. Wir wissen nicht, wie stark die Änderung unseres Klimas erfolgt oder in Zukunft erfolgen wird. Wir wissen nicht, wie schnell das geht, geschweige denn, ob einige unserer Maßnahmen die Änderung überhaupt beeinflussen können. …

 

…mit den typischen Beteuerungen der “Unsicherheiten” als Grund dafür, nichts zu tun, zu der Feststellung aus dem Jahr 2007 zu schwenken:

(Der Bericht des IPCC) spiegelt das umfangreiche und robuste Wissen um die physikalische Wissenschaft der Klimaänderung, einschließlich dass die Erde sich erwärmt und das menschliche Aktivitäten sehr wahrscheinlich für den größten Teil dieser Erwärmung der letzten 50 Jahre verantwortlich sind.

Wie hat das IPCC das gemacht? Im Gegensatz zu jenen, die Zweifel anmelden, hat das IPCC eine breite und tiefe Übereinstimmung unter den Wissenschaftlern als offenkundig hingestellt – sie haben den Konsens „fabriziert“.

So weit ich das sagen kann, fehlt das Wort „Konsens“ im WGI-Kapitel [WGI bei Google: 332.000 Treffer verschiedenster Bedeutungen! Man suche sich etwas aus! A. d. Übers.] des FAR [Treffer bei Google: 184 Millionen! Den Abkürzungen nach könnte der erste oder vierte Bericht gemeint sein. Oder ist vielleicht die False Alarm Rate, also die Rate falscher Alarme gemeint? A. d. Übers.] – vor allem fehlt es in der ursprünglichen „Zusammenfassung für Politiker“. Zum ersten Mal taucht es in der frühesten Präsentation des FAR auf: ein Statement, das für die Öffentlichkeit definiert, was FAR ist und wie man es lesen muss. John Houghton, leitender Meteorologe in GB sowie Vorsitzender von WGI, schrieb Folgendes in seinem „Vorwort“ des Berichtes:

 „An der Vorbereitung der grundlegenden Begutachtung waren die meisten der in diesem Bereich tätigen Wissenschaftler beteiligt. 170 Wissenschaftler aus 25 Ländern haben dazu beigetragen, entweder durch Teilnahme an den zwölf internationalen Workshops, die speziell zu diesem Zweck abgehalten worden waren, oder durch schriftliche Beiträge. Weitere 200 Wissenschaftler waren mit der wissenschaftlichen Begutachtung des Berichtsentwurfes beschäftigt. Obwohl es wie in vielen sich entwickelnden wissenschaftlichen Bereichen eine Minderheit von Meinungen gab, die wir nicht übernehmen konnten, hat die wissenschaftliche Begutachtung dabei geholfen, einen hohen Grad an Konsens sicherzustellen, und zwar unter Autoren und Begutachtern gleichermaßen, wenn man die präsentierten Ergebnisse betrachtet.“

Kommentar von Judith Curry (JC): Es scheint, dass John Houghton mit dieser Argumentation für die Anfangsentscheidung verantwortlich war, Konsens als Schlüsselelement der IPCC-Rhetorik zu benutzen, und zwar im Zusammenhang damit, der Öffentlichkeit den FAR zu verkaufen.

Was wird zu diesem Komplex getan – dieser rhetorischen Form, die ich eine „Behauptung des Konsens’“ nennen möchte? Eine Stelle, damit anzufangen, ist das Erkennen der Kuriosität dieser Behauptung. Schließlich lehren wir unseren Studenten, dass sie das Offensichtliche und Populäre erkennen und zurückweisen. Ich glaube, dass man kaum einen Wissenschaftler finden dürfte, der anderen gegenüber behauptet, dass man dies und das glauben sollte, weil ein „Konsens der Wissenschaftler“ dahinter steht. Tatsächlich hat der WGI-Bericht selbst seine Aussagen nicht „sozial“ eingerahmt, z. B. indem es schrieb, wie viele Wissenschaftler aus welchem Fachgebiet und welchem Land dazu beigetragen haben. Stattdessen wurden die Aussagen „erkenntnistheoretisch“ umrahmt dergestalt, dass es in der Zusammenfassung für Politiker hieß, worüber wir „sicher waren… was wir vertrauensvoll berechnet haben… und vorhergesagt haben“; und auch, wo „Unsicherheiten“ verbleiben sowie die detaillierte Auflistung einiger Beweise  in mehreren Kapiteln, die diese Behauptungen stützen. Falls Wissenschaftler dazu tendieren, sich gegenseitig erkenntnistheoretisch gegenüber zu treten als Gegensatz zu sozialen Grundlagen, ist es keine Überraschung, dass es keine Mechanismen zu geben scheint, die etablieren, dass es einen wissenschaftlichen Konsens gibt.

Kommentar von JC: Was wikipedia zum Thema wissenschaftlicher Konsens sagt, ist lesenswert.  Es heißt dort: „Wissenschaftlicher Konsens ist nicht aus sich selbst heraus ein wissenschaftliches Argument und ist auch nicht Teil der wissenschaftlichen Methode.“ Er dient dazu, „eine Zusammenfassung der Wissenschaft vom „Inneren“ der Wissenschaft nach „außen“ zu tragen“.

Die Behauptung des Konsens’ scheint also vordergründig auf Nichtwissenschaftler zu zielen, und macht im Besonderen (ich gebe zu, teils auch spekulativ) einen Anschein von Autorität. In der Präsentation des FAR werden die Auditorien eingeladen, die Begutachtung nicht wegen seiner erkenntnistheoretischen Grundlage zu akzeptieren, sondern wegen des sozialen Faktors desjenigen, der es geschrieben hat… Während Laien fast per Definition nicht in der Lage sind, die Ausführungen eines Experten zu durchschauen, ist es ihnen aber durchaus möglich, soziale Fakten zu beurteilen, beispielsweise ob einige Verfahren enthalten sind oder nicht. Um einen Satz von Collins und Pinch anzuwenden, wo es uns unmöglich ist, die Wissenschaftler auf ihrem Fachgebiet zu beurteilen, können wir sie stattdessen auf der gleichen alltäglichen, pragmatischen Grundlage beurteilen, mit dem wir einem Klempner trauen.

Kommentar von JC: Bei Klimagate ging es um die sozialen Aspekte des Konsens’. Während die Wissenschaftler zu recht behaupteten, dass Klimagate nichts Erkenntnistheoretisches hinsichtlich der Klimawissenschaft verändert hat, hatte die Öffentlichkeit substantielle Probleme in den Verfahren gesehen, mit denen der Konsens erzeugt worden ist.

Die Behauptung des Konsens’ scheint des Weiteren eine Ausschmückung des Anscheins von Autorität zu sein, speziell geschaffen, um seine Macht zu erhöhen. „Akzeptieren sie, was ich sage, weil ich es sage!“ ist die minimalistische Version des Anscheins von Autorität. An anderer Stelle habe ich ausgeführt, dass die Macht dieses Anscheins auf einer Art „Betrug“ basiert: es stellt die Zuhörer scheinbar unüberlegt dar, wenn sie sich deutlich gegen die Sicht von jemand aussprechen, der offensichtlich mehr weiß. Der Anschein des Minimalen ist jedoch für die Zuhörer relativ einfach zu umgehen. Zum Beispiel können die Zuhörer auf die Suche nach einer zweiten Meinung gehen und danach ihr Nicht-konform-gehen aufgrund dessen, dass die Experten selbst geteilter Meinung sind, entschuldigen. Falls jedoch alle Experten das Gleiche sagen, ist die „plausible Entschuldbarkeit“ des Laien begrenzt.

Kommentar von JC: Diese Strategie findet sich ganz klar in den Argumenten von Oreskes und Anderegg et al.

Eine Konsensbehauptung aufzustellen ist also das Gleiche, was im Vorwort angesprochen wird: eine “autoritative Aussage“ aufstellen. Es ist erwähnenswert, dass es einige Beweise dafür gibt, dass einige Teilnehmer des IPCC-Prozesses genau das gemacht haben, um so eine Autorität zu erreichen. Bert Bolin, der Gesamtvorsitzende (overall chairman) des IPCC selbst, erinnert daran, dass er selbst „wiederholt die Arbeitsgruppen darauf hingewiesen hatte, dass das Ziel nicht notwendigerweise darin bestand, Übereinstimmung zu erzielen, sondern eher unterschiedliche Ansichten wenn nötig anzusprechen und die Gründe für die Nichtübereinstimmung zu klären, wenn möglich“. Er fährt fort: „Aber selbst das wurde nur selten versucht“. Auf der gleichen Schiene heißt es, dass Houghton selbst (bei der Gründung des IPCC 1988) gesagt hatte: „wir müssen bei einer generellen Übereinstimmung ankommen!“

Kommentar von JC: Es ist dieses Ziel, was das Ganze zu einem fabrizierten Konsens macht. Es ist erhellend zu sehen, dass der Gedanke des Konsens’ von Houghton vorangetrieben worden ist, wenn auch mit etwas Widerstand von Bolin.

Wissenschaftler, die an der Erstellung des ersten Zustandsberichtes beteiligt waren, präsentierten dessen endgültige Ausgabe als einen „Konsens der Wissenschaftler“; soweit ich das beurteilen kann, war dies jedoch nicht die offizielle Position des IPCC selbst. Das änderte sich jedoch im weiteren Verlauf des IPCC-Prozesses. Wie auch immer es angefangen hat, die Behauptung des Konsens’ scheint eine der Arten zu sein, wie sich das IPCC selbst seinen Zuhörern präsentiert. Zum Beispiel hieß es in einem Flyer zum Dritten Zustandsbericht, dass er „ein autoritativer internationaler Konsens der wissenschaftlichen Meinung“ sei.

Die Betonung des Konsens’ zog sich auch durch die internen Prozeduren des IPCC, als diese nach dem ersten (und ziemlich eilig zusammen gezimmerten) ersten Zustandbericht zunehmend etabliert wurden. Schon 1991 wurde eine Regel übernommen, die da lautete, dass „beim Treffen von Entscheidungen, beim Ziehen von Schlussfolgerungen und der Übernahme von Berichten das Plenum und die Arbeitsgruppen des IPCC alle Anstrengungen unternehmen sollten, um Konsens zu erreichen“.

Inzwischen musste das IPCC jedoch fast zwanzig Jahre aushalten, in denen seine Autorität durch Bedenken unterminiert wurden, die eigentlich unter den eigenen verkündeten Standards legitim wären. Indem man das IPCC quantitativer Aufgeschlossenheit anheim gab, schufen diejenigen, die dessen Arbeiten als „Konsens“ präsentierten, die Grundlagen für Kontroversen.

Kommentar von JC: Ich stimme zu, dass die Behauptung des Konsens’ die ultimative Quelle für Kontroversen im Umfeld des IPCC ist. Wie ich schon vorher in meinem Beitrag no consensus on consensus ausgeführt habe, ist ein Konsens zu diesem Thema weder notwendig noch wünschenswert.

Das IPCC und seine Fürsprecher waren daher gezwungen, eine zweite Aufgabe anzugehen: „Arbeiten zur Abgrenzung“, die erforderlich waren, um zwischen denen, die qualifiziert waren, zu einem wissenschaftlichen Konsens bzgl. der globalen Erwärmung beizutragen, und denen, die das nicht waren. Diese Arbeit schimmert immer wieder in einigen Presseberichten durch, in denen die „Minderheit“ nicht nur als quantitativ klein, sondern auch als „extrem“ und „wissenschaftlich unseriös“ charakterisiert worden ist. Unglücklicherweise sorgte die Notwendigkeit der Arbeit zur Abgrenzung wahrscheinlich auch für Versuchungen, illegitimerweise die wissenschaftliche Glaubwürdigkeit jener anzugreifen, deren Ansichten nicht mit dem Konsens übereinstimmten. Selbst wenn es erfolgreich und legitim war, erzeugte das Ziehen solcher Grenzen zusätzliche Probleme. Falls wirklich jeder Wissenschaftler innerhalb des Konsens’ zustimmte, dass politische Aktionen dringend erforderlich seien, und jeder Wissenschaftler außerhalb genau das in Abrede stellte, muss es zu einer starken Politisierung kommen – d. h. die Grenze zwischen „Insidern“ und „Outsidern“ basierte auf politischen Ansichten und nicht auf wissenschaftlicher Relevanz.

Kommentar von JC: dies ist ein scharfsinniger Einblick, wie die Wissenschaftler in dieser Sache politisiert worden sind.

Schließlich bot die Behauptung des Konsens’ Gelegenheiten für Opponenten, darauf hinzuweisen, dass das Hervorheben des Konsens’ durch das IPCC die Wissenschaft selbst verzerrt. Als die Konsens-Behauptung einmal im Raum stand, hatten Wissenschaftler, die in die weitergehenden Prozesse des IPCC involviert waren, Gründe, nicht nur die wissenschaftlichen Beweise zu überdenken, sondern auch die möglichen Auswirkungen ihrer Feststellungen auf ihre Fähigkeit, die Konsens-Behauptung zu verteidigen.

Kommentar von JC: Ich habe schon früher darauf hingewiesen, dass das IPCC die Klimawissenschaft korrumpiert, und dieser Artikel macht klar, dass die Quelle dieser Korruption dieser Prozess zur Konsensbildung ist.

 „Konsens” ist eine schwerwiegende Behauptung, und es öffnet weiten Raum für Diskussionen; das ist es, worauf ich mit dem obigen Sketch hinweisen wollte. Indem sie ihre Arbeit als „Konsens“ präsentierten, haben die Wissenschaftler des IPCC die Einwände von den üblicherweise als „Leugner“ bezeichneten Leuten tatsächlich legitimiert und sich selbst in einen zwanzig Jahre währenden Prozess begeben, ihnen zu antworten.

Lassen Sie mich diese Passage mit der Aufforderung schließen, „noch mehr Forschung ist notwendig!“, und zwar als Einschub in den Bericht als eine rhetorische Strategie – ein Thema, das meines Wissens fast völlig unerforscht ist. Es kann sein, dass wir herausfinden, dass die „Berichtsstrategie“ nicht darauf abzielt, den Anschein einer Expertenautorität zu konstruieren, sondern dass sie versucht, eine Audienz aus Laien mit den Methoden wissenschaftlicher Begründungen vertraut zu machen, um diese Schlussfolgerungen zu erreichen. Wie ich oben vorgeschlagen habe, würde eine „Berichtsstrategie“ eine „erkenntnistheoretische [epistemic]“ im Gegensatz zu einer „sozialen“ Annäherung zur wissenschaftlichen Kommunikation darstellen… Und es ist wohl wahrscheinlich, dass das Verfolgen einer „Berichtsstrategie“ von seinen Autoren Bekenntnisse verlangt, die sich von der Strategie des Herstellens eines Konsens’ unterscheiden und viel weniger dazu beitragen.

Kommentar von JC: Goodwin trifft den Nagel auf den Kopf, wenn er die Notwendigkeit zum Ausdruck bringt, eine Zuhörerschaft aus Laien ernsthaft mit den Arten wissenschaftlichen Argumentierens vertraut zu machen, um diese Schlussfolgerungen ziehen zu können. Da im IPCC jede Transparenz und Angaben zu Unsicherheiten fehlen, habe ich den Verdacht, dass es eine substantielle Menge abwegiger Begründungen (vor allem Zirkelschlüsse) gibt, die nur zu vielen der Schlussfolgerungen und Feststellungen des IPCC passen.

Schlussfolgerung von JC: Lassen Sie uns für einen Moment zu dem früheren Beitrag zu agnoiology und diesem Statement von Lehrer zurückkommen:

Wir sollten darlegen, dass Konsens in einer Referenzgruppe von damit befassten Experten nur dann relevant ist, wenn nicht nach Übereinstimmung gesucht wird. Sollte ein Konsens zufällig in der Suche nach Wahrheit und dem Vermeiden von Fehlern auftauchen, ist ein solcher Konsens, obwohl er später wieder in Frage gestellt werden kann, dazu geeignet, dass Konformität damit vernünftig und Dissens nicht vernünftig ist. Falls jedoch auf einen Konsens durch die Referenzgruppe hingearbeitet wird mit dem Ziel, diesen auf jeden Fall  zu erreichen, wird es konspirativ und irrelevant hinsichtlich unserer intellektuellen Ansprüche.

Godwins Ausführungen sind ein starkes Argument dafür, dass das IPCC ein fabrizierter Konsens ist, der erreicht werden sollte, koste es, was es wolle.  Lehrer hat schon 1975 geschrieben, dass ein solcher Konsens konspirativ und irrelevant für unsere intellektuellen Ansprüche ist.

Das IPCC muss die Hervorhebung des Konsens’ los werden und dem Verstehen der Unsicherheiten und der aktuellen Argumentationsweise viel mehr Aufmerksamkeit widmen. Ich möchte diesen Artikel mit diesem Statement von Oppenheimer et al. (2007) beschließen:

Der vom IPCC etablierte Konsens ist nicht länger so wichtig für Regierungen wie eine volle Erforschung der Unsicherheiten.

Link: http://judithcurry.com/2011/07/16/manufacturing-consensus/

Link zum Artikel, auf den sich diese Kommentare beziehen: http://goodwin.public.iastate.edu/pubs/goodwinipcc.pdf

Übersetzt von Chris Frey für EIKE

 




Das Geheimnis der Wolken

Update: Aufgrund des hohen Interesses am Thema verlinken wir den Film von Youtube hier

Die ARTE-Sendung ist eine Mischung aus hochwertiger wissenschaftlicher Dokumentation – in dieser Qualität in Deutschland zumindest bei Klimathemen absolut unbekannt – und dem persönlichen Leidensweg eines Klimawissenschaftlers, hier Henrik Svensmark. Svensmark war bei der Durchsetzung und Anerkennung seiner Theorie der Wirkungskette von Sonnenmagnetfeld, kosmischer Strahlung, Aerosol- und Wolkenbildung und schlussendlich den sich daraus ergebenden Klimaänderungen nicht nur wissenschaftlichen sondern auch ad hominem Anfeindungen ausgesetzt. In der ARTE-Sendung kommt zudem die Arbeit von Jan Veizer (ehemals Univ. Bochum, heute Univ. Ottawa, Kanada) zs. mit Nir J. Shaviv (Univ. Jerusalem, Israel) mit dem Titel "Celestial driver of Phanerozoic climate", GSA today 13, No. 7 (2003) der Geological Society USA zu Wort.

Ähnlich wie Svensmark wurden auch Veizer und Shaviv nach Veröffentlichung ihres Fachbeitrags in einer zumindest nach dem 2. Weltkrieg in Deutschland unbekannten Schärfe und unter Einsatz fragwürdiger Mittel angegriffen. Veizer verließ im Jahre 2004 schließlich Bochum, um an der kanadischen Universität als distinguished professor weiterzuarbeiten. Er ist heute emeritiert. EIKE wird über diese Affaire, die damals ein weites Medienecho auslöste und ihre Verursacher in einem zukünftigen Beitrag noch im Detail berichten.

Zurück zur ARTE-Sendung "Das Geheimnis der Wolken": Wissenschaftlich untadelig, mit Ausnahme der ärgerlichen Verwendung einer Grafik, bei der das Zeitfenster wissenschaftlich unzulässig selektiert wurde (zumindest dies fiel dem Autor beim zuschauen auf). Der unvorbelastete Zuschauer bemerkt es zwar überhaupt nicht, ein solches Vorgehen ist aber schade, denn so sicher, wie es Journalisten gewöhnlich gerne haben, ist keine wissenschaftliche Theorie. Im gegebenen Zusammenhang weisen wir schlussendlich auf folgenden aktuellen Veröffentlichungen zum Thema Sonne, Wolken und Klima hin:

W. Weber, Strong Signature of the Active Sun in 100 Years of Terrestrial Insolation Data, Annalen der Physik, 23. September 2009 – EIKE hatte über diesen Beitrag bereits berichtet

R. Spencer and W.D. Braswell, On the Misdiagnosis of Surface Temperature Feedbacks from Variations in Earth’s Radiant Energy Balance, Remote Sens. 3, p. 1603, DOI:10.3390/rs3081603 (2011) – EIKE wird über diesen Beitrag noch im Detail berichten

H.-J. Lüdecke, Long-term instrumental and reconstructed temperature records contradict anthropogenic global warming, Energy & Environment, erscheint im aktuellen August-Heft 2011 – EIKE wird über diese Arbeit berichten

Prof. Dr. Horst-Joachim Lüdecke

(EIKE-Pressesprecher)




Die Funktion eines Blockheizwerkes!

Ein BHKW ist eine wärmetechnische Anlage die gleichzeitig der Erzeugung von Strom und Wärme dient. Als Arbeitsmaschine dient in der Regel ein Gasmotor der dann einen elektrischen Generator antreibt. Das Gas entnimmt der Betreiber meist dem öffentlichen Gasnetz oder einer Biogasanlage. Wie schön risikolos der Betrieb einer Biogasanlage ist kann uns ja mal ein biologisch Gebildeter vortragen. Wie risikolos die Gasversorgung ist wissen am besten die Berufsgenossenschaften. Ein Restrisiko ist überall. Das grösste heisst Merkel.

Bild 1 Schema eines BHKW

In unserem Beispiel hat der Motor eine Wärmeleistung von 40kW. Wie jeder Verbrennungsmotor muss der Motor gekühlt werden. Dazu hat er einen Kühler der die Abwärme an die umgebende Luft abgibt. Dann ist sie verloren. Damit das nicht geschieht hat das BHKW einen Wärmespeicher (A). Das ist in diesem Beispiel ein wärmeisolierter Behälter mit einen Rauminhalt von 1500 Litern und darin enthalten 110kWh Wärme wenn er geladen ist, also mit 90 grädigem Wasser gefüllt ist. In diesem Behälter befindet sich zunächst das Motorkühlwasser bei einer Temperatur von ca.25°C. Wenn der Motor läuft wird aus dem unteren Teil des Behälters das Kühlwasser mit Hilfe der Kühlwasserpumpe (B) entnommen und dem Motor zugeführt. Die 25 °C sind aber für einen Motor bei  einer Betriebstemperatur von 90 °C zuwenig da sonst zu grosse Materialspannungen am Motor auftreten. Deshalb wird dem Kühlwasser über ein Dreiwegemischventil (C) warmes Wasser vom Motoraustritt beigemischt so das sich eine Eintrittstemperatur von 70°C und eine Austrittstemperatur von 90°C im Normalbetrieb einstellt. Die Regelung erfolgt über einen elektrischen PI-Dreipunktregler. Seine Regelgrösse ist die Kühlwassertemperatur vor Motor. Der Wärmeerzeuger wird also mit einer Temperaturspreizung von 20°C gefahren. Das erfordert einen Durchsatz von 1719 l/h durch den Wärmeerzeuger.

1719l/h = 40000W / (90°C -70°C) / 1,163

Man stellt diesen Wert fest mit einem Nadelventil (D) ein. Der Umlauf durch den Speicher liegt bei 529l/h bei einer Temperaturspreizung von 65°C.

529l/h = 40000W / (90°C -25°C) / 1,163

Das 90 grädige Kühlwasser wird oben in den Wärmespeicher eingespeist und bildet dann eine Trennlinie (F) zum darunterliegenden kalten Kühlwasser. Da sich da zwei unterschiedlich temperierte Wasserschichten berühren wird ein Temperaturausgleich über einen Zeitraum von Stunden/Tagen stattfinden. Die Trennlinie wird durch das von oben in den Speicher strömende warme Kühlwasser langsam nach unten gedrängt. Solange der Motor läuft und sich die Temperaturtrennlinie nicht im unteren Bereich des Wärmespeichers befindet ist alles gut. Unterschreitet die Trennlinie aber den unteren Thermometeranschluß dann steigt die Kühlwassertemperatur von 25°C auf 90°C und der Motor muss abgeschaltet werden. Ein weiterer Betrieb des Motors ist nicht möglich, es muss erst durch Entnahme von Wärme die Trennschicht nach oben verlagert werden. Die Lage der Trennschicht wird mit elektrischen Thermometern (E) am Speicher gemessen und zur Steuerung der Anlage durch ein Leitgerät verwendet.

Jetzt nochmal zum Motor. Ein Verbrennungsmotor hat eine Leistung bei der der beste Wirkungsgrad ist, der Bestpunkt. An diesem Punkt lässt man den Motor laufen, also mit fester

Leistung. Das erreicht man durch die Begrenzung der Treibstoffzufuhr mit einer Stellschraube am Gasregelventil.  In unserem Beispiel 40kW Wärmeleistung. Beim Anfahren schaltet das Leitgerät die Kühlwasserpumpe (B) ein, startet den Motor und fährt ihn auf ca. 3000 U/min. Das erreicht man durch die Einstellung einer Mindestöffnung des Gasregelventils durch eine Stellschraube. Dann schaltet man den Asynchrongenerator auf das  Netz und  dann gibt man Vollgas. Ein Motor der praktisch nur auf  voller Leistung gefahren wird kann mit Sicherheit kein Automotor sein. Beim Abschalten schaltet das Leitgerät die Zündung des Motors aus, die Gasventile fallen zu und  es öffnet der Generatorschalter und nach einer Wartezeit von einigen Minuten schaltet das Leitgerät die Kühlwasserpumpe (B) aus.

Wo bleibt jetzt die Wärme aus dem Speicher ?

Aus der Wärme des Speichers macht der Vermieter eines 4 Parteienhauses, dafür reicht die Maschine, Heizwärme und Gebrauchswarmwasser. Jetzt merkt der aufmerksame Leser das man ja Heizung nur bei kälterer Witterung braucht und Gebrauchswarmwasser täglich. In dem Haus wohnen 12 Personen und die Duschen täglich einmal 5 Minuten. Das ist dann eine Stunde Betriebszeit für den Warmwasserbereiter mit einer Leistung 20kW. Er entnimmt dazu 20kWh Wärme aus dem Wärmespeicher mit Hilfe der Heizkreispumpe (G) durch den oberen Anschluss. Ich gehe von einer guten Gebrauchswarmwasseranlage mit Speicher und aussenliegendem Wärmetauscher aus . Die Rücklauftemperatur des Heizwassers ist 25°C und es kommt am unteren Anschluss des Wärmespeichers wieder an. Aus dem Wärmespeicher sind also 20kWh entnommen worden. Die Temperaturtrennlinie verschiebt sich dadurch um ein fünftel nach oben. Um möglichst grosse Laufintervalle für den Motor zu erhalten schaltet man ihn erst wieder ein wenn die Temperaturtrennlinie im Speicher am oberen Thermometer angekommen ist. Das ist nach 5 Tagen der Fall. Dann sind 100kWh entnommen und der Speicher muss geladen werden. Der Motor hat eine Wärmeleistung von 40kW. Er braucht also 2,5 Stunden um den Speicher zu laden. Während dieser Zeit  liefert die Maschine auch Strom und hilft dem Ökofritzen die Stromversorgung zu dezentralisieren. Dann ist wieder für 5 Tage Ruhe im Keller und keine Dezentralisierung.

So ein Motor könnte einen Wirkungsgrad von 25% und Abgasverluste von 10% haben. Das bedeutet das die elektrische Leistung der Maschine bei 15,4kW liegt. Im Sommerbetrieb kommt man auf eine Betriebszeit von im Mittel 30 min/t. Wie sieht die Sache im Winterbetrieb aus ?

Grundlage ist die Auslegung der Heizanlage. Ich gehe mal zB.von folgenden Werten aus :

Raumtemperatur 20°C

Heizgrenztemperatur 15°C

Tiefsttemp. Klima -10°C

Bei sehr genauer Auslegung der Anlage hätte man dann bei 15°C den Anfang des Heizbetriebs (das macht bestimmt nicht der Ökofritze) mit 4 Heizbetriebsstunden/Tag und bei -10°C hätte man 24 Heizbetriebsstunden/Tag der Maschine mit kurzen Unterbrechungen für Warmwasserbereitung. Dabei ist noch keine Nachtabsenkung berücksichtigt. In der folgenden Grafik ist der typische Wärmebedarf eines Wohnhauses dargestellt (Wikipedia). Ich denke ja das eine Familie ab Mai die Heizung ab- und im Oktober wieder anstellt. Die Berührungslinie von blau und rot sollte besser bei 5% liegen. Dann hat man die gestrichelten Linien.

Zur Berechnung der täglichen Betriebszeit nimmt man überschlägig folgende Formel:

Betriebszeit/Tag=24h*(Raumtemp–mittlereTagesaussentemp)/(Raumtemp-TiefsttempKlima)

 

Bild 2  Typischer Jahresgang einer Gebäudeheizung (aus Wikipedia)Man kann Bild 2 verwenden um den Nutzungsgrad der Anlage zu ermitteln :

Dies entspricht einem Nutzungsgrad von 37%. Das ist nicht sehr viel, für eine so grosse Investition. Die Stromerzeugung mit diesen Maschinen ist wie man sieht nicht sehr ergiebig. Wer das will muss immer schön lange und oft die Dusche laufenlassen damit im Speicher kaltes Kühlwasser ist.  Die Machinen können weder die Netzfrequenz noch die Netzspannung stützen. Zum Betrieb ist immer ein stabiles Netz in das diese Maschine einspeist erforderlich. Kosten spart der Hauseigentümer nicht. Es ist egal womit er die Wärme für seine Mieter erzeugt. Die Maschine ermöglicht es lediglich über das KWK-Gesetz anderen Leuten das Geld aus der Tasche zu ziehen, aber das ist zur Zeit auch ganz mau. Die finanzielle Belastung die der Eigentümer für eine Anlage dieser Art eingehen muss ist ein vielfaches des Aufwandes für eine Kesselanlage. Damit kann man keine Mieter beglücken, Wohnungseigentümer auch nicht. Öffentliche Fördergelder kann man zur Zeit auch nicht dafür abgreifen. Um so eine Anlage zu bejubeln muss man schon Ökofritze sein.

Hier mal eine Preisliste der Firma SenerTec :

Dachs HKA G 5.5 19.896,80 €

Dachs HKA F 5.5 20.194,30 €

Dachs NE G 5.0 Low Nox MSR1 27.048,70 €

Zusatzplatine SE (Heizkreis- und Warmwasserregelung) 835,40 €

Nachrüstpaket SE (SE-Pufferspeicher inkl. Zubehör) 1.513,70 €

SE30 Warmwassermodul 2.061,10 €

Kondenser für Dachs 1.800,50 €

Leistung 12,5 kW Wärme 5,5 kW Strom. Bis alles zusammen ist braucht man locker bei 50000 €, denn die Klamotten müssen ja noch im Keller angeschlossen werden und man hat dann noch lange nicht die Leistung wie im Beispiel.

Link zur Preisliste : http://www.bhkw-prinz.de/senertec-dachs-mini-bhkw/108

Das Beispiel ist angelehnt an ein frühes Angebot der Firma Lichtblick aus Hamburg. Aber denen ist dann ein Licht aufgegangen und die Anlage wurde etwas kleiner, wie auch die Werbetrommel, die verspricht mit  diesen Dingern sogar Kernkraftwerke mit 2000 MW ersetzen zu wollen, dabei läuft so ein Apparat ja nur ca. 0,5 Stunden am Tag wenn Sommer ist.

Hier noch einige Links zu BHKW:

http://www.bhkw-prinz.de/lichtblick-kritisiert-wegfall-der-forderung-fur-mini-bhkw/1192

http://www.bhkw-prinz.de/lichtblick-vw-zuhausekraftwerk-schwarmstrom/407

http://www.lichtblick.de/h/index.php?s=1

Jetzt eine kleine Abschweifung  zur kommerziellen Abrechnung von Wärmelieferungen im Mietsektor. Die Heizwärme wird für jede Wohnung über einen Wärmezähler, der in gesetzlichen Abständen beglaubigt werden muss, abgerechnet. Ausbauen, zur Prüfstelle schicken, einbauen, Kosten Zahlen. Null Problemo !!!!

In unserem Mietshaus gibt es eine zentrale Gebrauchswarmwasserbereitung (GWW). Im Keller befindet sich ein Vorratsbehälter mit 250 l GWW mit einer Temperatur von 55°C. Die Abrechnung des GWW erfolgt über geeichte Wasserzähler im Keller die in gesetzlichen Abständen beglaubigt werden müssen. Ausbauen, zur Prüfstelle schicken, einbauen, Kosten Zahlen. Null Problemo !!!!

Und jetzt kommt es ganz dick. Vertraglich ist den Mietparteien eine GWW-Temperatur von 55°C zugesichert. Wenn man aber den Wasserhahn aufdreht kommt erst nur kaltes Wasser, dann nach einiger Zeit steigt die Temperatur auf 55°C. Auch dieses Wasser wird als Warmwasser abgerechnet, was den Mietern nicht gefällt. Also hat der Bauherr vorgesorgt und die Steigeleitungen mit einer elektrischen Begleitheizung ausstatten lassen. Der Stromverbrauch geht zu Lasten jedes einzelnen Mieters. Jetzt fließt sofort warmes Wasser aber der Mieter hat eine gesalzene Stromrechnung. Das gefällt den Mietern überhaupt nicht. Also muss eine GWW-Zirkulationsanlage her. Die Zirkulationspumpe nimmt warmes Wasser aus dem GWW-Speicher und pumpt es in kleiner Menge durch die GWW-Verteilleitung, die dann durch alle Wohnungen geht, zurück in den Zirkulationsanschluss des GWW-Speichers. Die Wasserzähler für die Abrechnung sind jetzt an jeder Zapfstelle, also zwei oder drei in jeder Wohnung, die in gesetzlichen Abständen beglaubigt werden müssen. Ausbauen, zur Prüfstelle schicken, einbauen, Kosten Zahlen. Null Problemo !!!!

Die Wärmeverluste der Zirkulationsanlage werden als Festbetrag in Rechnung gestellt. Die Kosten haben sich nicht geändert, sind sogar etwas gestiegen.

Diesen ganzen Unfug umgeht man, wenn man bei Verstand ist, mit einer Therme mit GWW-Erwärmung in jeder Wohnung. Man spart viel Geld und alle sind zufrieden. Die Zähler für Gas, Wasser und Strom gehören dem regionalen Versorger und der macht auch die Abrechnung. Zurück zum BHKW.

Die beschriebene Anlage kann auch statt wärmegeführt, über den Speicher stromgeführt, ausgeführt werden. Dann gibt es aber keine Staatsknete. Man benötigt dann einen Wärmetauscher der die Abwärme der Maschine an die Umgebungsluft abgibt. Dann liegt der Wirkungsgrad der Anlage bei 25% und damit schlechter als bei alten Dampfkraftwerken der ja bei 35% liegt. Neue GuD-Kraftwerke haben einen Wirkungsgrad von über 60%.

Wenn man Fernwärme aus einem Dampfkraftwerk auskoppeln will, so entnimmt man der Mitteldruckturbine über eine Anzapfung Heizdampf und überträgt die Wärme mit einem Wärmetauscher auf Heizwasser bei einer Temperatur von zB. 130°C. Weil der entnommene Heizdampf nun keine mechanische Arbeit in der Turbine leisten kann sinkt die Stromerzeugung, je nach Heizdampfmenge, etwas ab. Sollte das Dampfkraftwerk mal ausfallen, was bei Dampfanlagen zB. durch Rohrschäden im Dampferzeuger vorkommen kann, so ist ein Reserveheizkessel vorzuhalten, der dann die Heizwärme liefert. Der kostet in der Regel viel Geld und bringt nichts ein, es ist eben ein Reservekessel. Ansonsten haben diese Anlagen das gleiche Problem wie die BHKW :

Im Sommer wird man nicht viel Wärme los, nur für Warmwasserbereitung. Glücklich ist der Betreiber der einen Industriekunden hat, der ganzjährig grosse Mengen an Prozesswärme benötigt. Sonst ist der Nutzungsgrad der Anlagen vergleichbar mit dem der BHKW und die Sache wird für den Abnehmer sehr teuer.

Ein weiterer Punkt in der Betrachtung ist der Leitungbau im Stadtgebiet. Wegen der grossen Leistung der Heizanlage im Kraftwerk sind auch grosse Rohrdurchmesser erforderlich. Durchmesser von 700mm sind nicht selten. Als Freileitung will das niemand im Stadtbild sehen. Also ist Erdverlegung gefragt. Nun weiss man aber was schon alles unter den Strassen verlegt ist und nun sollen noch die Vorlauf- und die Rücklaufleitung der Fernheizung als isolierte Mantelleitung dazugelegt werden. Das kostet Summen die man sich kaum vorstellen kann, Verkehrschaos ist angesagt, Umlegungen anderer Leitungen sind erforderlich usw. usw. Am Ende ist Fernheizung die schönste aber teuerste Heizung an die sich keiner anschliessen lassen will, weil er ja schon billigeres Gas im Haus hat. Bleibt nur der Anschlusszwang durch die Kommune. Die will das aber nicht, aus gutem Grund macht das kein Bürgermeister freiwillig. Der Nutzungsgrad dieser Anlagen liegt in der Grössenordnung wie beim BHKW. Dazu kommt bei weit verzweigten Anlagen noch der Wärmeverlust der Rohrleitungen im Erdreich. Im Sommerbetrieb kann der größer sein als der Wärmeverbrauch zur Warmwasserbereitung. Man muss ja die Verteilleitungen bis zum Kunden warmhalten damit der seine Warmwasseranlage betreiben kann.

Nun noch ein Gedanke zu einem Rohrschaden im Transportnetz bei Heizbetrieb im Winter. Dann muss die Leitung abgestellt werden und die Kunden sitzen im Kalten. So was ist sehr selten, muss aber bedacht sein. Eine Reparatur kann schon mal mehrere Tage dauern und draussen sind -10°C. Der Boden ist gefroren. Der Bürgermeister will die Leute in Turnhallen einquartieren. Die haben aber Fernheizung. Was jetzt kommt kann sich der Leser selbst ausmalen.

BHKW sollen ja in der Vorstellung eines Ökofritzen städtische Grosskraftwerke mit Fernwärmeauskopplung ersetzen. So ein Grosskraftwerk hat eine elektrische  Leistung von zB. 300 MW. Unser Beispiel-BHKW hatte 15,4kW. Man braucht also 19480 BHKW um Ersatz in installierter Leistung zu schaffen. Die Dinger laufen aber im Sommer nur ca. 0,5 Stunden/Tag. Ich schreib jetzt nicht mehr weiter. Den Rest kann sich jeder Leser selber denken; bloss nicht der Ökofritze.

Also lieber Leser : Wenn man die Funktion kennt, kann man auch beurteilen, ob flotte Werbesprüche belastbar sind. Bei Ökofritzen meistens nicht.

Michael Treml für EIKE

Es grüsst alle Leser

Michael Treml

Related Files




Neue NASA-Daten schlagen ein klaffendes Loch in den globalen Erwärmungsalarmismus

Der Mitautor der Studie, Dr. Roy Spencer, ein führender Forschungswissenschaftler an der University of Alabama in Huntsville und Leiter des US-Wissenschaftlerteams für das Advanced Microwave Scanning Radiometer an Bord des NASA-Satelliten AQUA, berichtet, dass die unverfälschten Daten der realen Welt von den TERRA-Satelliten zahlreiche Hypothesen widerlegen, die in die alarmistischen Computermodelle eingeflossen sind.

„Die Satellitenbeobachtungen zeigen, dass viel mehr Energie während und nach einer Erwärmung in den Weltraum entweicht, als die Klimamodelle zeigen“, sagte Spencer in einer Presseerklärung [press release] der University of Alabama am 26. Juli. „Es herrscht eine gewaltige Diskrepanz zwischen den Daten und den Vorhersagen, die über den Ozeanen besonders groß ist“.

Zusätzlich zu dem Ergebnis, dass viel weniger Wärme zurückgehalten wird als die Computermodelle angenommen haben, zeigen die Daten des NASA-Satelliten auch, dass die Wärmeabstrahlung der Atmosphäre in den Weltraum lange vor den von den UN-Computermodellen vorhergesagten Zeitpunkten beginnt.

Die neuen Ergebnisse sind extreme wichtig und sollten zu einer dramatischen Veränderung der Debatte um die globale Erwärmung führen.

Wissenschaftler auf allen Seiten der Debatte zur globalen Erwärmung stimmen im Allgemeinen darin überein, wie viel Wärme direkt durch menschliche Emissionen von Kohlendioxid zurückgehalten wird (die Antwort lautet „nicht viel!“). Allerdings ist der wichtigste Einzelaspekt in dieser Debatte, ob Kohlendioxid indirekt viel mehr Wärme einfängt durch eine starke Zunahme atmosphärischer Feuchtigkeit und Cirruswolken. Alarmistische Computermodelle nehmen an, dass die Kohlendioxidemissionen indirekt zu einer substantiellen Zunahme atmosphärischer Feuchtigkeit und Cirruswolken führen (von denen beide jeweils sehr effektiv Wärme zurückhalten), aber die realen Daten haben schon lange gezeigt, dass Kohlendioxidemissionen lange nicht so viel Feuchtigkeit und Cirruswolken hervorrufen, wie die alarmistischen Computermodelle vorhergesagt haben.

Die neuen Daten des TERRA-Satelliten sind konsistent mit langzeitlichen NOAA und NASA-Daten, die belegen, dass Feuchtigkeit und Cirruswolken nicht in der von den alarmistischen Computermodellen angenommenen Weise zunehmen. Die TERRA-Daten stützen auch Daten des NASA-ERBS-Satelliten, die gezeigt hatten, dass viel mehr langwellige Strahlung (und damit Wärme) zwischen 1985 und 1999 in den Weltraum abgestrahlt worden ist, als die alarmistischen Computermodelle vorhergesagt haben [had predicted]. Die NASA_ERBS und TERRA_Satellitendaten zusammen zeigen, dass Kohlendioxidemissionen seit 25 Jahren direkt und indirekt viel weniger Wärme in der Atmosphäre zurück gehalten haben, als die alarmistischen Computermodelle angenommen haben.

Kurz gesagt: Die zentrale Prämisse der alarmistischen AGW-Theorie ist, dass Kohlendioxidemissionen direkt und indirekt eine gewisse Wärmemenge in der Atmosphäre zurückhalten und sie daran hindern, in den Weltraum zu entweichen. Real weltweit gemessene Daten zeigen jedoch, dass viel weniger Wärme in der Erdatmosphäre zurückgehalten wird, und dass viel mehr Wärme in den Weltraum entweicht als die alarmistischen Computermodelle angenommen haben.

Wenn objektive, von NASA-Satelliten gemessene Daten, die in einem wissenschaftlich begutachteten Journal veröffentlicht werden, eine „riesige Diskrepanz“ zwischen alarmistischen Computermodellen und wirklich gemessenen Tatsachen ausmachen, wäre es klug und wünschenswert, dass Klimawissenschaftler, die Medien und unsere gewählten Vertreter dieses zur Kenntnis nehmen würden. Ob sie das tun oder nicht wird uns Aufschluss darüber geben, wie ehrlich die Vertreter des Alarmismus bzgl. der globalen Erwärmung wirklich sind.

James M. Taylor; mit freundlicher Genehmigung

James M. Taylor ist leitendes Mitglied für Umweltpolitik am The Heartland Institute und managing editor bei Environment & Climate News.

Also Read

Link zum Artikel in der Zeitschrift  Remote Sensing

Link: http://news.yahoo.com/nasa-data-blow-gaping-hold-global-warming-alarmism-192334971.html

Übersetzt von Chris Frey für EIKE