1

Nachbars Dach

Sicher können Sie sich an den vergangenen Sommer noch gut erinnern. Hoch Harald liegt über Mitteleuropa, kein Lüftchen weht. Am Horizont ragen die Rotoren eines Windparks reglos gleich riesiger Kreuze eines hünenhaften Friedhofs in die Höhe. Das letzte Sonnenlicht spiegelt sich in den Solarpanels auf Nachbars Dach und während dieser noch etwas an seinen Sträuchern herum schneidet und dann den neuen SUV in die Doppelgarage zirkelt, stellt seine Fotovoltaik die Stromproduktion sanft ein. In den Häusern ringsum gehen die ersten Lichter an.

Sicher haben Sie sich bei einer solchen oder ähnlichen Szenerie schon gefragt, wie viel Geld Ihr Nachbar wohl mit seinem Solardach jährlich verdient, das heißt, in welcher Höhe er die Einspeisevergütung kassiert.

Diese wurde bereits mit dem Stromeinspeisegesetz 1990 eingeführt und später im Erneuerbare-Energien-Gesetz festgeschrieben. Die Besonderheit besteht in der technologiebezogenen zwanzigjährenden Festschreibung des Vergütungssatzes, ein Privileg, das kein anderer Investor für ein Produkt im Wirtschaftsleben für sich in Anspruch nehmen kann. Die degressive Gestaltung hat inzwischen zu einem deutlichen Abfall der Vergütung der eingespeisten elektrischen Energiemenge abhängig vom Jahr der Inbetriebnahme geführt. Für Dachanlagen kleiner 10 Kilowattpeak gibt es statt ehemals 51,8 Cent pro Kilowattstunde (2006) für 2016 nur noch 12,31 Cent pro kWh. Die eigene Dachanlage lohnt sich heute im Grunde nur noch, wenn man über Zwischenpuffer und Eigenverbrauch die eigene Stromrechnung reduzieren kann.

Für alle alternativlos zur Kasse gebetenen Stromkunden bedeutet dieser Rucksack an langfristigen Vergütungszusagen eine andauernde Belastung. Prognosen der Energiewender gehen davon aus, dass die EEG-Umlage ab 2023 wieder fallen könnte.

Auszahlungen p.a, Auszahlungen kumuliert, Zahlungsverpflichtungen

Sonne ohne Rechnung?

Zurück zum Nachbarn. Sein Dach hat reine Südausrichtung, die Anlage leistet nach seiner Angabe 9,2 Kilowattpeak und ging 2006 in Betrieb. Nehmen wir an, wir befinden uns am Stadtrand von Potsdam und der zuständige Verteilnetzbetreiber ist die Netzgesellschaft Potsdam. Also schauen wir mal nach:

http://www.50hertz.com/de/EEG/Veroeffentlichung-EEG-Daten/EEG-Jahresabrechnung

Wir scrollen etwas runter und werden für die Jahre 2014 und 2015 fündig. Als Netzbetreiber wählen wir die Netzgesellschaft Potsdam GmbH aus, entfernen alle Häkchen außer „Solar“, wählen das Jahr aus und als Spannungsebene „Niederspannung“ (NS). Weiterhin das Bundesland Brandenburg und das Inbetriebnahmejahr 2006 eintragen.

Unter „Details ansehen“ erhalten wir jetzt eine Zusammenfassung aller in Frage kommenden Anlagen und können eine Excel-Tabelle herunterladen, die uns weiterführt. In diesem Fall sehen wir 11 in Frage kommende Anlagen, von denen nur eine in der Größe 9,2 Kilowattpeak verzeichnet ist. Wir brauchen also nicht mehr über die Postleitzahl eingrenzen (nur die ersten drei Ziffern sind angegeben) oder mehrere in Frage kommende Anlagen vergleichen, um wenigstens die Größenordnung des Geldbetrages zu erfahren.

4.824,65 Euro für 2015 erfüllen nun nicht die Erwartungen der oben aufgemachten und mit Neidpotenzial angereicherten Szenerie. Knapp fünftausend Euro im Jahr sind zu wenig für echte Bereicherung, aber über die vergangenen zehn Jahre dürften um die 48.000 Euro geflossen sein und für die kommenden zehn Jahre ist ein ähnlicher Betrag garantiert, sonnenarme Jahre und Kapazitätsverlust durch Alterung der Anlage mal vernachlässigt. Bei Immobilienbesitzern im Berliner Speckgürtel mit 9-kWp-Fotovoltaik auf dem Dach kann man ohnehin eine ausreichende finanzielle Grundausstattung vermuten und den SUV hätte sich der Nebenmann auch ohne das Glitzerdach leisten können. Reiche werden reicher.

Wir wissen jetzt auch, dass sein Dach im Durchschnitt übers Jahr 1,06 Kilowatt liefert, was einer Arbeitsverfügbarkeit von 11,5 Prozent entspricht und vergessen in diesem Zusammenhang alle Begriffe, die das Wort „Versorgung“ betreffen – die eventuelle Nachrüstung mit einer Pufferbatterie für die vergleichmäßigende Einspeisung in den eigenen Haushalt nicht betrachtet.

Immerhin können Sie jetzt in Kenntnis seines allen Bürgern abgezapften Betrags das nächste Gespräch über den Gartenzaun anders gestalten, sollte der Nachbar Unzufriedenheit mit seiner diesbezüglichen Lebenssituation äußern.

Damit sein Zusatzeinkommen auch dann nicht abbricht, wenn die 20-jährige Förderperiode endet, lässt das SPD-geführte Bundeswirtschaftsministerium zur Zeit untersuchen , wie man die Unterstützung verlängern und vorhandenen Reichtum weiter mehren kann. Denkbar wären feste Gebühren analog der GEZ, die natürlich Geringverbraucher deutlich benachteiligen würden, oder auch die Verbreiterung der Geldquelle, das heißt die zusätzliche Belastung der Energieträger Kohle, Öl, Benzin und Gas. Ziel ist, die Profite der Hersteller und Betreiber von Ökoenergieanlagen um jeden Preis (im wahrsten Sinne des Wortes) zu sichern.

Frank Drieschner schrieb dazu in der ZEIT: „Rund um die Erneuerbaren-Energien-Branche ist ein regelrechter politisch-ökonomischer Komplex herangewachsen . . . Alle Akteure in diesem Komplex verbindet ein Interesse: Probleme der Energiewende müssen lösbar erscheinen, damit die Wind- und die Sonnenbranche weiter subventioniert werden.“ Dem ist nichts hinzuzufügen.

Wer liefert wann?

Natürlich schickt die Sonne keine Rechnung. Das Kohleflöz unter der Erde auch nicht, beide sind Geschenke der Natur. Entscheidend sind die Wandlungskosten und der Zeitpunkt der Stromentstehung. Zur realen Solarstromkalkulation gehören zwingend Speicher- und Regelkosten dazu (bei „100-Prozent-Erneuerbar“ fallen sie auch an), während die Kohleverstromung die Speicherung in den vorgelagerten Prozessen (Flöz, Halde, Bunker) bereits beinhaltet. Verstromt wird dann zeitgerecht.

Nebel liegt über dem Land. Die stehenden Rotoren der Windkraftanlagen am Horizont sind nicht zu sehen. Neuschnee bedeckt Straßen und Dächer. Der Nachbar tritt aus dem Haus und greift zum Schneeschieber. Seinen Strom bekommt er zuverlässig vom nächstgelegenen Kraftwerk, völlig ungeachtet seines Ökostromtarifs. Er wird auch für dieses Jahr über den festgeschriebenen Vergütungssatz knappe 5.000 Euro überwiesen bekommen, unabhängig von der Höhe des den Rest an Markt abbildenden Großhandelspreises. Beruhigt stellt er nach ein paar Minuten den Schneeschieber wieder weg.

 

 




Trumps Anordnung, die Globalen Erwärmungsprogramme auf Null zu setzen

Der Budgetplan, der vom Amt für Management und Budget (OMB) an die EPA-Führung geschickt wird, fordert die Beseitigung von Dutzenden von Programmen, darunter mindestens 16, die mit der globalen Erwärmung zu tun haben und die Klimapolitik des früheren Präsidenten Barack Obama umsetzen.

OMB forderte auch eine 30-prozentige Kürzung der Zuschüsse an die Bundesstaaten und eine 20-prozentige Reduzierung der EPA-Belegschaft durch Buy-outs und Entlassungen. Insgesamt fordert Präsident Donald Trump einen rund 25-prozentigen Rückgang des EPA-Budgets – etwa 2 Milliarden US-Dollar.

Die Kürzungen sind in einem Brief von William Becker, der Geschäftsführer der National Association of Clean Air Agenturen (NACAA), an seine Mitgliedsstaaten und lokalen Regulierungsbehörden dargelegt. Becker sagte, NACAA erhielt die „zurückgeschraubten “ Budget Informationen des Finanzministeriums nach EPA Insidern.

Hier sind alle [Förder-] Programme von denen NACAA sagt, das Finanzministerium will sie auf „Null“ setzen:

  • Eingeborenen Dörfer in Alaska
  • Strand und Fischerei
  • Brownfield projects [Brown Field Investing umfasst sowohl den Kauf und die Vermietung von bestehenden [Fabrik-] Anlagen. Das spart Geld für die Erschließung. Der Begriff Braunfeld bezieht sich auf die Tatsache, dass das Land selbst durch die vorherigen Aktivitäten, z.B. nicht (mehr) für Gemüseanbau geeignet sein könnte.]
  • Umsetzung Clean Power Plan
  • Freiwillige Klimapartnerschaften (Es gibt 14 davon)
  • Diesel Emissions Reduzierung
  • Endokrine Zuschüsse
  • Energy Star Zuschüsse (Programm zur Energieeinsparung)
  • Umwelt-(aus-)Bildung
  • Umweltgerechtigkeit
  • Geographische Programme für Gewässer, Champlain See (südlich Montreal), Long Island Sound (gezeitengeprägter Meeresarm), San Francisco Bay und Südflorida
  • Globale Veränderungsforschung
  • Grenzzuschüsse Mexico
  • Mehrzweckstipendien
  • Office of Public Engagement [~ähnlich Bundesagentur für Arbeit)
  • Radon [~Belastung in Häusern, Gesundheitsministerium)
  • Energieeffizience Forschung
  • Kleine Minoritätenunternehmen
  • Bundesstaatliche Innen-Radon Programme
  • Gezielte Luftreinhaltung (z.B. Ozon)
  • S. (Umweltschutz an der ) Mexikanischen Grenze
  • Water Sense (Wasserspar Programm)

Demokraten und Umweltschützer haben gegen Trump’s Budgetkürzungen opponiert, und EPA-Gewerkschaftsführer stottern wegen des Personalabbaus herum. Sogar einige Republikaner sind gegen die umfangreiche Kürzung des EPA Budgets.

„Sie arbeiten mit dem Personalniveau von 1989. So sollten Sie wirklich sicher sein, dass Sie nicht „das Fleisch und die Muskeln mit dem Fett abschneiden“, so Oklahomas Republikaner Tom Cole, der dem House Komitee für Staatliche Zuwendungen angehört.

„Es gibt nicht so viel in der EPA, um darüber laut zu jammern“, sagte Mike Simpson, ein Idaho-Republikaner gegenüber der Washington Post. Thompson führte früher das Komitee für staatliche Zuwendungen, der sich mit EPA befasste.

Nicht überraschend ist es, dass Trump mehr als ein Dutzend globale Erwärmungsprogramme der EPA loswerden will, einschließlich der Finanzierung zur Umsetzung des Clean Power Plan (CPP).

Trump versprach, Obamas „Klimaplan“ aufzuheben – der CPP ist der Dreh- und Angelpunkt des Klimaprogramms des ehemaligen Präsidenten. Der CPP begrenzt die Kohlendioxidemissionen aus neuen und bestehenden Kraftwerken.

EPA-Administrator Scott Pruitt half, eine Koalition von 28 Staaten zu führen, die den CPP stürzen wollten, während er Generalanwalt von Oklahoma war. Trump bereitet sich darauf vor, eine Verfügung zu unterzeichnen, um die CPP zu annullieren, es ist also nicht verwunderlich, dass sie die Finanzierung dafür streichen wollen.

Quelle The Daily Caller

Die Washington Post berichtete, dass das „Büro für Forschung und Entwicklung von EPA bis zu 42 Prozent seines Budgets verlieren könnte, je nach den Plänen der Verwaltung.“

Der Budgetplan beseitigt die Finanzierung für den Beitrag der EPA zur U.S. Globalen Veränderungsforschung.

Ein Bereich der Besorgnis ist jedoch die Verringerung der staatlichen und Stammes-Stipendien [- Ureinwohner-Stämme] für Infrastruktur und Umwelt-Verbesserung. Der Umweltrat der Staaten (ECS) schickte ein Schreiben an EPA und das Finanzministerium (OMB) und drängte sie, diese Programme nicht zu beschneiden.

ECS schrieb, dass „Kürzungen zu [staatlichen und Stammes-] kategorischen Stipendien oder zu EPA-Programmen, die von Staaten betrieben werden, tiefgreifende Auswirkungen auf die Fähigkeit der Staaten haben, die von unseren Bürgern erwarteten Umweltprogramme umzusetzen.“

Quelle The Dailly Caller

Mehr als 90 Prozent der EPA-Programme werden von staatlichen Umweltbehörden durchgeführt. Das ist etwas, was Pruitt betrifft, der versprach, sich beim Finanzministerium für die Bewahrung der Zuschüsse an Bundesstaaten einzusetzen [~Länderfinanzausgleich].

„Ich bin besorgt über die Zuschüsse, die vor allem für die Wasser-Infrastruktur vorgesehen sind und die sehr wichtige, sich erneuernde [mitlaufende ?] staatliche Fonds sind“, sagte Pruitt den E & E News .

„Für uns ist es wichtig, das Finanzministerium zu informieren, was die Prioritäten der EPA sind, von der Wasserinfrastruktur bis zum Superfund [Beseitigung von Umweltschäden durch Altlasten], was einige unserer konkreten Vorteile für unsere Bürger bietet“, sagte Pruitt, „während gleichzeitig sichergestellt wird, dass wir neu zuordnen, Re-priorisieren in unserer Agentur, um Reformen der Regulierungen zu bekommen, um wieder innerhalb der Bestimmungen des Kongresses zu arbeiten.“

Erschienen am 02.03.2017 auf The Daily Caller News

Übersetzt durch Andreas Demmig

http://dailycaller.com/2017/03/02/trump-orders-epa-to-zero-out-glo02.03.2017warming-programs/

 

Bei den Recherchen zu dieser Übersetzung gefunden.

Einer unserer alten bekannten Journalisten Toralf Staud:

http://www.zeit.de/wirtschaft/2016-12/scott-pruitt-usa-donald-trump-umweltpolitik-klimawandel

Donald Trumps idealer Kandidat

Einfach abschaffen, wie im Wahlkampf versprochen, kann Trump die US-Umweltbehörde nicht. Also schwächt er sie bestmöglich: mit einem Klimawandelskeptiker als neuen Chef.




In einer Zeit, die immer mehr von Unsicherheit und Ängsten geprägt ist, macht Klimaschutz Mut

Beide Themen haben eine Information gemeinsam: Mag etwas auch noch so deutlich vor Problemen stehen und auch der Anlass weiterhin fragwürdig sein, unsere politische Führung denkt nicht über ein Thema neu nach, sondern verstärkt ausschließlich konsequent ihre „Kampfanstrengungen“. Entsprechend verbreitet sie dazu Durchhalteparolen und „frohe Botschaften zur Motivation“.

Zu diesem Thema kam jüngst bereits eine Darstellung über den Altbundespräsidenten, Horst Köhler und seiner Rede zum 25-jährigen Bestehen der Deutschen Bundesstiftung Umwelt Berlin:
EIKE: Wem wir erlauben, langfristig seinen eigenen Körper zu schädigen, dem sollten wir auch zutrauen, über die Zukunft unserer Gesellschaft mitzuentscheiden

Dieser Artikel mit der Rede von Umweltministerin Hendricks ergänzt den Zyklus an Statements von Berliner Politikern zum Klima und EEG. Es sind wieder stark gekürzte Auszüge. Zum tieferen Verständnis bitte die vollständige Rede lesen.

[1] Rede von Dr. Barbara Hendricks bei der Handelsblatt-Jahrestagung zur Energiewirtschaft

Ich muss nichts korrigieren, im Gegenteil

B. Hendricks [1]: … vor gut einem Jahr habe ich Ihnen vom Zustandekommen des Pariser Abkommens berichtet. Die Erinnerung an diese sehr emotionale und aufwühlende Situation war noch sehr frisch, wir sind alle sehr euphorisch aus Paris zurückgekehrt. … Muss ich heute Einschätzungen korrigieren? Vielleicht sogar etwas zurücknehmen von dem, was ich Ihnen gesagt habe?

Die Antwort ist: Nein. Im Gegenteil: Der Klimaschutz hat 2016 weltweit betrachtet eine weitere Dynamik bekommen, die zu Jahresbeginn noch nicht abzusehen war.

Die treibhausgasneutrale Weltwirtschaft bleibt unser Ziel, egal mit welchen Partnern

B. Hendricks [1]: … wir packen die globale Umkehr hin zu einer treibhausgasneutralen Weltwirtschaft entschlossen an.
falls die Vereinigten Staaten unter der neuen Administration auf internationaler Ebene beim Klimaschutz keine Vorreiterrolle mehr einnehmen wollen, sollte Europa zusammen mit China und anderen Industrie- und Schwellenländern weiter nach vorn gehen.

Uns Verzagten gibt das Mut, denn wir sind der Vorreiter

B. Hendricks [1]: … In einer Zeit, die immer mehr von Unsicherheit und Ängsten geprägt ist, macht das Paris-Abkommen Mut.

… Es war ein hartes Stück Arbeit – und macht mich deshalb auch ein wenig stolz – dass wir vergangenen November unseren Klimaschutzplan 2050 vorlegen konnten. Wir haben damit als eines der ersten Länder eine derartige Langfriststrategie vorgestellt.
Wir wollen bis zum Jahr 2050 ein weitgehend treibhausgasneutrales Deutschland erreichen. … Ich bin davon überzeugt, dass die Wettbewerbsfähigkeit einer Volkswirtschaft künftig davon abhängen wird, wie schnell und effizient sie sich dekarbonisieren kann.

Moderner EEG-Strom kostet nicht mehr als konventioneller

B. Hendricks [1]: … Rund ein Drittel des Stroms, der heute in Deutschland verbraucht wird, kommt aus Wind, Sonne und Biomasse. Das ist für sich genommen bereits ein Riesenerfolg. … Die Stromgestehungskosten neuer Photovoltaik- und Windenergieanlagen an Land liegen in Deutschland heute auf dem gleichen Niveau wie die Stromerzeugungskosten neuer Steinkohle- und Erdgas-Kraftwerke.

Den Beleg haben wir gemeinsam mit Dänemark erbracht

B. Hendricks [1]: Ein praktisches Beispiel: Gemeinsam mit Dänemark haben wir im vergangenen Jahr bei einer grenzüberschreitenden Auktion den niedrigsten europäischen Preis für Solarenergie von fünfeinhalb Cent die Kilowattstunde erzielt. Und die Internationale Agentur für Erneuerbare Energien IRENA berichtet sogar von Solarparks, die für rund 3 Cent pro Kilowattstunde produzieren. Aber, das muss an dieser Stelle sein, es geht auf der anderen Seite auch wesentlich teurer. Sie wissen, dass die britische Regierung den Betreibern der geplanten neuesten Atomreaktoren eine Vergütung von knapp 11 Cent pro Kilowattstunde garantiert. Das ist ein wirklich teurer Sonderweg, der am Ende niemandem nützt!

Stromspeicher werden dramatisch billiger

B. Hendricks [1]: Die Investitionen, die in Deutschland durch das EEG ausgelöst worden sind, zahlen sich dagegen jetzt aus: IRENA rechnet beispielsweise mit weiter rasant fallenden Preisen für Solarstrom und einer noch dramatischeren Entwicklung bei Stromspeichern.

Klimaschutz schafft Arbeit…

B. Hendricks [1]: … Denn Klimaschutz macht nicht nur Arbeit, er schafft auch Arbeit: Deutsche Unternehmen profitieren im internationalen Wettbewerb massiv von einer Vorreiterrolle bei Energieeffizienz und Erneuerbaren. Bereits heute stehen Erneuerbare Energien und energieeffiziente Technologien für 700.000 bis 800.000 Arbeitsplätze in Deutschland. Wir können getrost davon ausgehen, dass Deutschland mit seinen exportstarken Unternehmen und als Vorreiter bei der Energiewende von der Umsetzung des Pariser Abkommens besonders profitieren wird.

…und davon können andere Branchen nur träumen

B. Hendricks [1]: … Das ist – alles in allem – eine Situation, von der andere Branchen nur träumen können und ich kann nur dringend dazu raten, sich dieses Vorteils sehr bewusst zu sein und ihn nicht leichtfertig aufs Spiel zu setzen. Deshalb plädiere ich für eine offene und ehrliche Debatte.

Die Atomausstiegskommission war eine gute Erfahrung

B. Hendricks [1]: … Wir haben mit Kommissionen im Energie-Bereich gute Erfahrungen gemacht, etwa beim zweiten Atomausstieg oder zuletzt, als es um dessen Finanzierung ging. Deshalb denke ich, dass die beschlossene Kommission „Wachstum, Strukturwandel und Regionalentwicklung“ ein erfolgversprechender Ansatz ist.

Weil alles bisher so erfolgreich war, muss es weiter ausgebaut werden

B. Hendricks [1]: Künftig müssen Erneuerbare Energien auch im Bereich der Mobilität und der Wärme- und Kälteversorgung die wichtigste Primärquelle werden. Elektromobilität beispielsweise kann nicht auf Kohlestrom basieren, sie muss und wird auf Strom aus Sonne und Wind beruhen.

Wer auch nur entfernt die nackten Tatsachen – auf EIKE im Archiv zu jedem einzelnen von Frau Hendricks angesprochenen „Erfolgsstatement“ nachlesbar – kennt, merkt, wie weit entfernt von der Wirklichkeit unsere Politikkaste inzwischen agiert. Es erinnert fatal an die Engstirnigkeit und Erfolgsparolen der ehemaligen DDR-Führung bis zur Wende. Wichtig ist und bleibt ausschließlich die Umsetzung der Ideologie. Dieser Prämisse hat sich die Wirklichkeit anzupassen.

Bild Energielandschaft. Quelle: BMWIde © iStock.com/nullplus

Und als ob es bestellt worden wäre, erschien eben ein Artikel auf Achgut, der die Aussage von Frau Hendricks über den EEG-Erfolg ad absurdum führt:

Achgut.com: Energiepreise: Deutschland endlich mal wieder Spitze!
… Mit ca. 30 Cent pro Kilowattstunde hat Deutschland den zweithöchsten Strompreis Europas und gute Chancen, Dänemark in diesem Jahr zu überholen und damit auf dem wohlverdienten ersten Platz zu landen. Strompreismässig weit abgeschlagen sind dagegen solche zurückgebliebenen Agrarländer wie Frankreich oder Finnland mit einem Strompreis von 16 Cent pro Kilowattstunde. Aber die betreiben ja auch viele der bösen Atomreaktoren …

Wir müssen insgesamt in der Lage sein, den Politikern, die wirklich nachhaltig denken und vorgehen wollen, zu glauben

In einer kürzlich auf EIKE erschienen Buch-Rezension von W. Thüne: Mit Deindustrialisierung und Dekarbonisierung zum Klimaschutz?
wird am Ende zitiert, was im Buch von Prof. H. Lesch als Abschlussstatement ein Professor Ernst-Peter Fischer von der Universität Heidelberg (Wissenschaftsgeschichte) als Wunsch und zukunftsfördernd betrachtet:
Es gäbe bisher noch „keine Erziehung zum Irrationalen, zum Ästhetischen, zum Träumerischen, zum Fantasievollen“. Unsere Instinkte, unsere Emotionalität sind daher unterentwickelt.
Er fordert: „
Wir müssen insgesamt in der Lage sein, den Politikern, die wirklich nachhaltig denken und vorgehen wollen, zu glauben.

So stellen uns unsere Eliten inzwischen die moderne, transformierte Demokratie vor.
Warum wählen wir dann nicht gleich den Papst zum nächsten Bundeskanzler auf Lebenszeit und ermächtigen seine Glaubenskongregation (früher Inquisitionsbehörde), denen, die nicht bereit sind, das alles zu glauben, wieder mit „allerchristlichsten Mitteln“ zu „überzeugen“.

Achgut.com: Intellektuelle als Bodyguards der Konsens-Republik
Novo Argumente: Sanfter Paternalismus statt harter Überzeugungsarbeit

Die Bundesregierung

Demokratie erklärt in leichter Sprache (oder wie Politiker sich darstellen)
Damit jeder mit-entscheiden kann:
Die Menschen in Deutschland wählen
Politiker.
Politiker arbeiten in der
Bundes-Regierung.
Von Deutschland.
Sie
entscheiden zusammen wichtige Sachen.
Für die Menschen in Deutschland.
Zum Beispiel
Gesetze.
Oder Sachen mit
Geld.

Deutschland sagt:
Jeder Mensch soll
bei der Demokratie
mit-machen.
Die
Bundes-Regierung von Deutschland
macht darum
Programme.
Sie können bei den Programmen
mit-machen.
In der Schule.
Bei der Arbeit.
Oder mit Ihren Freunden.
Die Programme helfen.
Damit es mehr Demokratie in Deutschland gibt.

Das gleiche Thema in schwerem Deutsch (oder wie Bürger die Politik sehen):
TYCHIS EINBLICK: Gewaltenteilung verwirklichen

Quellen

[1] BMUB, 25.01.2017: Rede von Dr. Barbara Hendricks bei der Handelsblatt-Jahrestagung zur Energiewirtschaft




Greenpeace Mitbegründer Dr. Patrick Moore hatte recht: @Greenpeace STECKT voller Sch…

Dr. Patrick Moore, einer der Mitbegründer von Greenpeace, welchen die Organisation von ihrer Website zu entfernen versucht hatte, hat sich aus der Organisation zurückgezogen, weil:

Die von mir mitgegründete Organisation ist zu einem Monster geworden. Als ich während der Anfänge Mitglied in deren Zentralkomitee war, traten wir Kampagnen los gegen wahre Umweltbedrohungen wie Kernwaffentests in der Atmosphäre, Walfang und Robbenschlachten.

Als Greenpeace dann antiwissenschaftlich wurde mit ihrer Kampagne gegen Chlor (man rekapituliere die schiere Dummheit, eine Kampagne gegen ein Element im Periodensystem zu reiten!), kam ich zu dem Schluss, dass Greenpeace seinen Zweck aus den Augen verloren und sich nach Erreichen der ursprünglichen Ziele dem Extremismus zugewandt hatte, um seine weiter bestehende Existenz zu rechtfertigen.

Inzwischen hat sich Greenpeace mit voller Absicht selbst zu einem eingeschworenen Feind allen Lebens auf der Erde gemacht. [Da steht sie nicht allein! Politik und Medien hierzulande, allen voran wieder einmal die „Süddeutsche Zeitung“ ist ihr längst beigesprungen. Anm. d. Übers.] Sie steht gegen das eine Wirtschaftssystem, dass hinsichtlich Schutz und Erhalt der Umwelt am erfolgreichsten war.

Quelle: https://wattsupwiththat.com/2015/12/08/breaking-greenpeace-co-founder-reports-greenpeace-to-the-fbi-under-rico-and-wire-fraud-statutes/

Man lese und staune:

Greenpeace beansprucht Immunität gegen Gerichtsverfahren, weil deren Behauptungen ,Übertreibungen‘ sind

von Kathie Brown, PhD

Es gab eine interessante Wendung der Greenpeace involvierenden Ereignisse, eine der großen Vereine, die die scheiternde #ExxonKnew-Kampagne trieben: Sie wurde von der kanadischen Holzverarbeitungsfirma Resolute verklagt wegen Verleumdung und falscher Behauptungen bzgl. der Aktivitäten des Unternehmens.

Aber als Greenpeace vor Gericht Rede und Antwort stehen musste für deren Aktivitäten, war sich der Verein nicht sicher, ob er seine Behauptungen würde verteidigen können. Tatsächlich hat man zugegeben, dass jene Behauptungen keinen Sinn hatten. In einem kürzlich erschienenen Op-Ed erklärte der Präsident und Geschäftsführende Direktor Richard Garneau von Resolut:

Etwas Lustiges geschah, als Greenpeace und deren Verbündete gezwungen worden waren, zu ihren Behauptungen vor Gericht Stellung zu nehmen. Sie begannen mit dem Herbeten ihrer Litanei. Ihre Verdammung unserer Waldarbeiten „sind nicht strikt buchstäblich oder mit wissenschaftlicher Präzision zu nehmen“, wie sie in ihren jüngsten legalen Eingaben einräumen. Ihre Vorwürfe gegen Resolute waren stattdessen „Übertreibungen“ und „nicht verifizierbare Statements subjektiver Meinungen“, welche man nicht „wörtlich“ nehmen oder ihnen irgendeine legale Verbindlichkeit verleihen sollte. Das sind schlichte Erkenntnisse nach Jahren unverantwortlicher Angriffe (Hervorhebung hinzugefügt).

Kein „Waldverlust“ war von Resolute verursacht worden, räumte der Verein ein – jetzt, da man sie zur Rechenschaft zieht.

Auch die Financial Post berichtete darüber:

Aber jetzt sagt Greenpeace, dass sie niemals im Sinn hatten, dass die Leute ihre Aussagen über die Holzwirtschaft von Resolute als buchstäbliche Wahrheit auffassten.

In den Veröffentlichungen tauchte beispielsweise das Wort ,Wald-Zerstörer‘ auf, welches offensichtlich rhetorischer Natur ist“, schreibt Greenpeace in seinen Bemühungen, die Klage von Resolute abzuwehren. „Resolute hat nicht im Sinne des Wortes einen ganzen Wald zerstört. Es lässt sich natürlich darüber streiten, dass Resolute Teile der kanadischen borealen Wälder zerstört hat, ohne den Vorschriften und Praktiken zu folgen, die von der kanadischen Regierung und dem Forest Stewardship Council etabliert worden waren, aber das ist der Punkt: Die ,Wald-Zerstörer‘-Behauptung kann nicht bewiesen oder widerlegt werden, es ist lediglich eine Meinung“.

Mit anderen Worten, Greenpeace gibt zu, dass man sich auf „nicht verifizierbare Aussagen subjektiver Meinung“ stützt, und weil deren Behauptungen nicht faktisch gemeint waren, glaubt der Verein, nicht vor Gericht gezerrt werden zu können für das, was er sagt.

Bemerkenswerterweise hat Greenpeace aktiv an juristischen Klagen gegen ExxonMobil mitgewirkt. Man hat dem Unternehmen vorgeworfen, dass es während der siebziger und achtziger Jahre über den Klimawandel Bescheid „wusste“, bevor die führenden Wissenschaftler der Welt zu irgendwelchen soliden Schlussfolgerungen gekommen waren. Als die von Rockefeller finanzierte InsideClimate News and Columbia School of Journalism ihre #ExxonKnew-Schlagworte erfand, forderte Greenpeace sofort das Justizministerium auf, ein Ermittlungsverfahren gegen ExxonMobil einzuleiten, und zwar mit der Begründung:

Das Justizministerium sollte sofort ein Ermittlungsverfahren einleiten und das Unternehmen gerichtlich wegen Irreführung der Öffentlichkeit, von Gesetzgebern und Investoren hinsichtlich der Auswirkungen des Klimawandels zur Rechenschaft zu ziehen. Eine Untersuchung des Ministeriums sollte umfassend sein und auch die Rolle anderer Fossile-Treibstoffe-Unternehmen beleuchten, ebenso wie Handelsgesellschaften und Denkfabriken, welche Zweifel säen hinsichtlich der Risiken des Klimawandels. (Hervorhebung hinzugefügt).

Greenpeace behauptet, man kann nicht verklagt werden, weil deren irreführende Behauptungen nicht faktisch gemeint waren, aber danach behauptet der Verein, dass das US-Justizministerium gegen ein Energieunternehmen ermitteln muss wegen etwas, dass man „Irreführung der Öffentlichkeit“ nennt.

Es wird keine Überraschung sein, dass Greenpeace auch vom Rockefeller Brothers Fund und Rockefeller Family Fund finanziert worden ist, den gleichen Institutionen also, die auch jedem Schritt der #ExxonKnew-Kampagne den Weg gebahnt hatten.

Repräsentanten von Greenpeace waren zugegen bei einem geheimen Strategie-Treffen im Januar 2016, welches in den Büros des Rockefeller Family Funds in New York stattfand. Dort hatten sich die Aktivisten getroffen, um auszutüfteln, wie man „die Meinung der Öffentlichkeit dazu bringen kann, im Gedächtnis zu verankern, dass Exxon eine korrupte Institution ist“ und „das Unternehmen als einen politisch Handelnden zu delegitimieren“ und „Funktionäre zwingen, sich von Exxon loszusagen“.

Ein ehemaliges Mitglied des Direktoriums von Greenpeace, Kenny Bruno, twitterte im vorigen Jahr:

Ich möchte Exxon nicht aus der Welt schaffen.Ich möchte das Unternehmen einfach auf die Größe reduzieren, mit der ich es in das Badezimmer bringen und in der Badewanne ertränken kann“.

Falls es nicht ohnehin schon überaus offensichtlich gewesen wäre – diese jüngsten Entwicklungen zeigen einfach, wie leichtgläubig Greenpeace ist.

Quelle: https://energyindepth.org/national/greenpeace-claims-immunity-from-lawsuits-because-its-claims-are-hyperbole/

Ich hoffe, dass Resolute diese Öko-Clowns mit jedem Penny, den sie haben, zum Schweigen bringt. Wie in dem Fall, als Gawker wegen einer Verleumdung zu einer hohen Geldstrafe verurteilt worden war. Greenpeace verdient Gleiches in jeder Hinsicht.

Link: https://wattsupwiththat.com/2017/03/03/dr-patrick-moore-was-right-greenpeace-is-full-of-shit/

Übersetzt von Chris Frey EIKE




Gedanken zu: Klimawissenschaft vs. Klimatologie; Spezialisierung vs. Generalisierung; Wald vs. Bäume

Das Problem ist, das alles schon öffentlich war. Ich hörte den Kongressabgeordneten Lamar Smith während der großen Anhörung anlässlich der Heartland Conference im Juni 2015 sagen, dass die Vorladungen eingereicht wurden, um die vollständige Offenlegung des gesamten Materials zu erlangen. Er erzählte uns auch, dass die Anträge abgelehnt wurden, aber ein Follow-up war im Gange. Die gleichen Informationen wurden in den Mainstream-Medien gemeldet, allerdings mit einer Voreingenommenheit.

Warum ging Bates nicht zu Smith und berichtete ihm im Vertrauen, was er wusste?

Die Smith-Anfragen müssen von Gesprächen im Büro oder am Kaffeeautomaten initiiert worden sein.

Alle Arten von lahmen Ausreden wurden für Bates gemacht, vielleicht die einzige mit begrenztem Verdienst war, dass seine späte Offenlegung besser war als niemals. Das Problem ist, dass er und seine Unterstützer nicht beide Wege gehen können. Er kann kein kenntnisreicher Klimaforscher sein, der wertvolle Arbeit leistet, wenn das, was er und alle anderen um ihn herum taten, korrumpiert war, nicht in Frage gestellt wurde,  naiv und begrenzte politische Wissenschaft war.

Es muss mehr sein als ein bewusst blindes „ich befolge nur meine Anweisungen“. Die größere Frage ist, warum hat er nicht gesehen, was los war? Sogar als er erkannte, dass Thomas Karl nur unzureichende Daten genutzt hat, um „die Pause“ zu beseitigen. Es scheint, dass er davon ausgegangen ist, dass es ein Einzelfall war. Er sah nur, was er sehen wollte, weil er korrupte Wissenschaft ohne Frage akzeptierte. Wie konnte ich als Wissenschaftler die konsequent falschen IPCC-Vorhersageversagen sehen und nicht fragen, was an der Wissenschaft falsch war?

Die offensichtlichste Antwort ist, dass ein Wissenschaftler und ein Bürokrat sich gegenseitig ausschließen. Interessanterweise, der Nachweis dieser Aussage ist, das Wissenschaftler wie James Hansen, die offen das was ihre politischen Meister wollen befürworteten, öffentlich handelten und den Hatch Act brechen konnten [Verbot für Beamte, sich an aktiv an politischen Auseinandersetzungen zu beteiligen]. Das Gesetz wurde speziell entwickelt, um diese Aktivitäten zu begrenzen. Er tat dieses in so unverschämter Weise, dass er außerhalb des Weißen Hauses verhaftet wurde. Diejenigen, die wussten, was falsch war, hielten den Mund und die Gesellschaft litt.

Verhaftung Dr James e Hansen anlässlich einer Demonstration am Weißen Haus 2011
Übernommen vom Original Beitrag dieser Übersetzung; Quelle gefunden: de.Wkipedia.org.

Es ist unmöglich, ein Wissenschaftler und gleichzeitig ein Bürokrat zu sein, denn die Definition eines Bürokraten erfordert, Sie müssen tun, was Ihnen gesagt wird. Walter Gilbert sagte: „Die Tugenden der Wissenschaft sind Skepsis und Unabhängigkeit des Denkens“

Beide sind Anathemen für Bürokratien [Der Ausdruck Anathema, auch Anathem bezeichnet eine Verurteilung durch … , die mit dem Ausschluss / … Bann aus der … Gemeinschaft einhergeht]. Es gibt eine größere Erklärung, die alle gegenwärtigen Verständnisse, nicht nur die Wissenschaft umfasst und einschränkt. Ich habe darüber geschrieben und es in meinen Büchern aufgenommen, weil es vor allem für das Verständnis von Klima und Klimawandel gilt.

Ich habe bereits vor WUWT darüber geschrieben, aber der Bates / NOAA Fall zeigt, dass ein Update erforderlich ist. Es ist ein Problem der „Überspezialisierung“, das von der Klimaforschung geschaffen wurde. Fast jeder in der Klimawissenschaft ist ein Spezialist in einem anderen Bereich, der diese Spezialisierung auf das Studium des Klimas anwendet, in der Regel, weil die Finanzierung verfügbar war und immer ohne Zusammenhang mit dem Kontext. Hal Lewis, der späte Emeritus Professor für Physik, erklärte die Auswirkungen,

„Der Betrug mit der globalen Erwärmung, der mit (buchstäblich) Billionen von Dollar angetrieben wird, hat so viele Wissenschaftler verdorben … Es ist der größte und erfolgreichste pseudowissenschaftliche Betrug, den ich in meinem langen Leben als Physiker gesehen habe.“

Einige folgende Absätze sind aus meinen früheren Schriften. Ich sage dies, um zu veranschaulichen, wie verrückt, hirnverbrannt und unlogisch die Welt der Forschung ist. Was ohne Quellenangabe zitiert wird, gilt als Plagiat. Natürlich unterstreicht es die satirische Bedeutung, denn wenn aus mehreren Quellen kopiert wird, ist es Forschung.

Das Jahr 1859 war entscheidend im menschlichen Verständnis, weil Ereignisse auftraten, die einen großen Fortschritt zu bieten schienen, aber auch eine ernsthafte Begrenzung hervorrief. In diesem Jahr wurde Darwins Herkunft der Arten veröffentlicht und Alexander von Humboldt starb. Wir erreichten jetzt einen Punkt, wo die Wirkungen dieser Ereignisse ein Umdenken von Wissen, Verständnis und Erklärung erfordern; Eine Aktualisierung von dem, was wir die Wahrheit nennen.

In meinen Eröffnungskommentaren zu Kunstkursen, lehrte ich die Studenten, dass ich ihnen die heutige Wahrheit erzähle. Es wird nicht die gestrige ‚Wahrheit‘ sein, obwohl diese den Menschen so real war, wie die heutige Wahrheit es für uns ist. Und es wird nicht die „Wahrheit“ von morgen sein, aber sie können sicher sein, dass es eine geben wird, weil die Wahrheit, wie die Wissenschaft, niemals abgeschlossen sein wird. Leider sind sie alle als logische Positivisten erzogen, für die es nur absolute Wahrheiten gibt.

Alexander von Humboldt, der gerade wiederentdeckt wird, gilt als der letzte „universelle Mensch“. Es ist ein endgültiges Ende, weil er alle bekannten Wissenschaften seiner Zeit kannte und das schiere Volumen der bekannten Wissenschaft jetzt über die menschliche Fähigkeit hinausgeht, alles zu wissen. Eine von Humboldts Fähigkeiten war die Produktion der ersten Wetterkarte. Das ist wichtig, weil er einzelne diskrete Informationen, den atmosphärischen Druck an einem Ort, genommen und auf eine Karte gezeichnet hat. Er verband dann Punkte von gleichem atmosphärischem Druck mit einer Linie, die Isobar genannt wird, wodurch ein Muster für das Verständnis von Wetter, das aus den einzelnen Informationen nicht verfügbar ist, geschaffen wird.

Darwins Arbeit, die, wie Alfred Russell Wallace darauf hinwies, die Menschen nicht erwähnte, löste den wissenschaftlichen Bedarf an Daten aus, um eine Theorie zu stützen. Seine Arbeit wurde von Carolus Linnaeus unterstützt, der ein Klassifizierungssystem erstellte, das ein Sortier-/ [Einteilungs-] System lieferte. Das Problem ist, es hat auch die Analyse eingeschränkt, denn wenn eine Kreatur gefunden wurde, die nicht ins Schema passt, das entenartige Platypus [„Das Schnabeltier – ist ein eierlegendes Säugetier aus Australien. Es ist die einzige lebende Art der Familie der Schnabeltiere], haben sie einfach eine andere Kategorie erstellt, ohne zu bedenken, dass es darauf hindeuten könnte, dass das Klassifizierungssystem falsch war.

Unabhängig davon, führte das schiere Datenvolumen zur Schaffung unterschiedlicher Forschungszweige, die zu individuellen Spezialitäten wurden. Die westlichen Universitäten expandierten von zwei großen Fakultäten, den Geisteswissenschaften und den Naturwissenschaften, zu einer neuen und heute größten Fakultät, den hybriden Sozialwissenschaften. Innerhalb jeder, explodierte die Anzahl der Fachgebiete, bis sich Konflikte in jenen Gebieten entwickelten, die mit der realen Welt jenseits der Elfenbeintürme arbeiten wollten. Einige Universitäten reagierten darauf, was sie interdisziplinäre Studien nannten, aber auch diese waren problematisch, weil sie die institutionellen Fachgebietsgrenzen überlappten, was Grabenkämpfe verursachte.

All dies löste eine intellektuelle Verschiebung aus, als es das Diktum in der Akademie wurde, das sich zu spezialisieren das Zeichen des Genies war, um die Anmerkung eines Narren zu verallgemeinern. Das Problem in der realen Welt ist es, dass jedes spezialisierte Stück in das größere allgemeine Bild passen muss , denn die meisten Menschen leben und funktionieren in einer verallgemeinerten Welt. Der [daraus entstandene] Ausdruck „es ist rein akademisch“ bedeutet, dass es für die reale Welt irrelevant ist. Im zwanzigsten Jahrhundert verließ die westliche Welt das Diktum: ‚es gibt allgemeine Regeln mit Ausnahmen‘ hinzu:  ‚es gibt keine Regeln und alles ist eine Ausnahme‘. Dies manifestiert sich in der Gesellschaft als Verurteilung von Verallgemeinerungen und die Förderung, dass alles eine Ausnahme ist – die Grundlage der politischen Korrektheit.

 (Selbst-Plagiatsalarm). Eine häufige Anklage ist, ich habe keine Glaubwürdigkeit, weil ich nur „einen Geographiegrad“ habe. Es ist ein ignoranter Angriff auf vielen Ebenen und wird gewöhnlich als Zeichen der Überlegenheit von Spezialisten in den „harten Wissenschaften“ verwendet. Meine Promotion machte ich in der Geographie-Abteilung an Queen Mary College, weil Klimatologie traditionell Teil der Geographie war. Der eigentliche Dr. Grad wurde in der Fakultät für Naturwissenschaften erteilt.

Klimatologie, ist wie Geographie eine generalistische Disziplin, die Muster und Beziehungen studiert. Geographie ist die ursprüngliche integrative Disziplin, traditionell Chorologie genannt wird. In den späten 1960er Jahren, als ich nach einer Schule der Klimatologie suchte, gab es effektiv nur zwei, die Hubert Lamb’s Climatic Research Unit (CRU) in Ostanglien und Reid Brysons Programm in Madison Wisconsin. Keines davon war eine gangbare Option, obwohl ich privilegiert war, mit Professor Lamb über meine These zu sprechen.

Ian Plimer sagte, Studien über die Erdatmosphäre erzählen uns nichts über zukünftiges Klima.

Ein Verständnis des Klimas erfordert eine Verschmelzung von Astronomie, Sonnenphysik, Geologie, Geochronologie, Geochemie, Sedimentologie, Plattentektonik, Paläontologie, Paläoökologie, Glaziologie, Klimatologie, Meteorologie, Ozeanographie, Ökologie, Archäologie und Geschichte.

Es ist eine interessante Beobachtung, die das Dilemma unterstreicht. Die Klimatologie ist als Teilmenge aufgeführt, muss aber alle Disziplinen und mehr enthalten. Sie können das Muster des Klimas im Laufe der Zeit oder in einer Region nicht studieren oder verstehen, ohne sie alle einzuschließen. Er [Ian Plimer] ist in einigen Disziplinen nicht korrekt, aber es veranschaulicht das Problem, zum Beispiel ist die Meteorologie eine Untergruppe der Klimatologie.

Er lässt viele Spezialisierungen aus, indem er seine Liste auf ein Verständnis der Atmosphäre beschränkt, während die Liste für das Klima viel länger ist. Meteorologie ist das Studium der Physik der Atmosphäre, aber die Anzahl der anderen Disziplinen, die erforderlich sind, um die Atmosphäre zu verstehen, ist in Abbildung 1 impliziert.

 

Abbildung 1, ein einfaches Systemdiagramm des Wetters (nach Kellogg und Schneider 1974). Beachten Sie, dass drei Felder das Wort „Flux“ enthalten, aber der 2007 IPCC Science Report sagt: „Leider sind die gesamten Oberflächenwärme- und Wasserströme nicht gut beobachtet [… genug verstanden].

Quelle, siehe Text

Wie viele Fachgebiete können Sie in diesem Diagramm erkennen?

Klimawissenschaft ist die Arbeit von Spezialisten, die an einem kleinen Teil der Klimatologie arbeiten. Es ist ein klassisches Beispiel dafür, den Wald vor lauter Bäumen nicht zu sehen. Manche denken, Computer-Modellierer sind Generalisten. Sie sind Spezialisten, die versuchen, Generalisten zu sein, die aber die Zusammenhänge, Interaktionen und Feedbacks im großen Ganzen nicht kennen. Wegman hat das Problem in seinem Bericht über das Hockey-Stick-Fiasko identifiziert.

Als Statistiker wurden wir von der Isolierung von Gemeinschaften wie der Paläoklima-Gemeinschaft getroffen, die sich stark auf statistische Methoden stützen und dennoch nicht mit der Mainstream-Statistik zusammenarbeiten. Die politikpolitischen Implikationen dieser Debatte sind finanziell schwankend und doch wurde anscheinend kein unabhängiges statistisches Fachwissen gesucht oder verwendet.

In der Klimaforschungs-Gruppe wurde es bis zum Extrem getrieben und in den zugespielten E-Mails von Climategate entblößt.

Das Problem der Spezialisierung erschien tauchte früh auf in der Klimatologie und verhinderte von Anfang an eine breitere Querschnittsperspektive. Zwei frühe Beispiele veranschaulichen das Problem. Ein früherer Durchbruch in der Klimatologie trat auf, als Ericson und Wollin 1964 außerhalb der Akademie „The Deep and The Past“ [„Die Tiefe und die Vergangenheit“, eine populär wissenschaftliche Abhandlung von 17 Jahre ozeanographischer Forschung] veröffentlichten. Es erregte Aufmerksamkeit, weil die Autoren es als „Handelsbuch“ veröffentlichten.

Robert Claiborne erkannte, dass er bei der Untersuchung der natürlichen Einflüsse unterschiedliche und widersprüchliche Zeitabläufe zwischen Anthropologie und Glaziologie in Bezug auf das Muster und der Sequenz der menschlichen Geschichte bekam. Er schlug eine Doktorarbeit vor, um das Problem zu untersuchen. Wieder war es interdisziplinär und so wurde abgelehnt. Claiborne wandte sich von der Akademie ab und schrieb ein Handelsbuch mit dem Titel “Climate, Man and History”  [„Klima, Menschheit und Geschichte“] das 1970 veröffentlicht wurde. Abgesehen von der intellektuellen Starrheit [~Sturheit?], die durch die Spezialisierung gefördert wurde, verdeutlicht sie auch, wie das IPCC sinnvolle Forschung im Jahr 1990 beendet hat.

Folgend einige gute Beispiele, von Forschern, die sich bis zum Ende des Tunnelblicks der akademischen Spezialisierung und die späteren Einschränkungen des IPCC durchkämpfen, um Klima und Klimawandel besser zu verstehen;

  • Sun, Weather and Climate, (1978) by John Herman and Richard Goldberg
  • Ice Ages: Solving the Mystery, (1979) by John and Kathrin Imbrie
  • The Manic Sun: Weather Theories Confounded, (1997) by Nigel Calder
  • The Maunder Minimum and the Variable Sun-Earth Connection (2003) by Willie Soon and Steven Yaskell
  • Taken by Storm: The Troubled Science, Policy, and Politics of Global Warming. (2003) Christopher Essex and Ross McKitrick
  • The Chilling Stars: A New Theory of Climate Change, (2007) by Henrik Svensmark and Nigel Calder

Die Gesellschaft hat spezialisierte Akademiker, insbesondere Wissenschaftler, vergöttlicht. Bedenken Sie die Phrase „Sie müssen nicht ein Raketenwissenschaftler sein“ um „harte Wissenschaft“ und intellektuelle Überlegenheit anzuzeigen.

Ersetzen Sie es durch eine andere Beschäftigung und Vorurteile entstehen: „Du musst kein Bauer sein„. Betrachten wir nun die Palette der spezialisierten Bereiche, die für den Erfolg auf einem modernen Bauernhof erforderlich sind. Ein Bauernhof, wie so viele Arbeitssegmente der Gesellschaft, kann nur als generalistischer Betrieb gelingen. Ich erkannte das Problem, als ein Landwirt mir sagte, er vermutete, dass er Probleme mit seinem Boden hatte. Er ging zur Universitätsfakultät der Landwirtschaft, um zu erfahren, dass sie keine „Bodenspezialisten“ hatten. Sie hatten Leute, die sich mit Nematoden [Fadenwürmer], Tonmineralkomplexen, Spurenmineralien, allen Teilmengen des Bodens auskannten, aber keinen „Bodenspezialisten“.

Die Klimatologie ist eine generalistische Disziplin, die alle Fachdisziplinen beinhaltet. Die moderne Verherrlichung von Spezialisierung ermöglichte es den Klimaforschern zu dominieren, indem sie behaupteten, ihr Stück eines riesigen Puzzles wäre kritisch. IPCC-Klimawissenschaftler missbrauchen Spezialgebiete, vor allem in Klimamodellen, um ein vorgegebenes Ergebnis zu erzielen. Dieses wird nur offenbart, wenn andere Spezialisten, wie zB Steve McIntyre, untersuchen, was getan wurde oder Klimatologen finden ein Stück des Puzzles, das nicht passt.

Das Bates-Ereignis ist ein Symptom für ein viel breiteres Problem. Es ist viel mehr als nur die Angst, über Fehlverhalten am Arbeitsplatz zu sprechen. Es ist mehr als das Problem der Bürokraten, der Wissenschaft oder Menschen die Wissenschaft für eine politische Agenda nutzen. All das existiert und erfordert Aufmerksamkeit. Allerdings maskiert dieses die größeren Probleme unserer Unfähigkeit, Dinge zu beschreiben, zu verstehen und voranzutreiben in einer generalistischen Welt, die eine Forschungsstruktur entwickelt hat, die Spezialisten verherrlicht, die viel über ein winziges Stück wissen, aber nicht einmal wissen, wie es in ein größeres Bild passt.

Erschienen am 27.02.2107

Übersetzt durch Andreas Demmig

http://principia-scientific.org/climate-science-climatology-specialization-generalization-forest-trees/




Wie die NOAA und schlechte Model­lierung eine „Ozean-Versauerung“ erfunden haben: Teil 2 – schlechte Modelle

    Versauern die oberen Schichten der Ozeane wirklich?

Im Teil 1 ordnete ein Herr Bednarsek von der NOAA den Zerfall von Schalen der Flügelschnecken [Thecosomata; mehr dazu hier bei Wikipedia. Anm. d. Übers.] anthropogenem CO2 zu, obwohl die Beweise eindeutig sind, dass aufwallendes Tiefenwasser mit geringeren pH-Werten dafür verantwortlich war. Auf der Grundlage von Modellen, die Mitarbeiter der NOAA herangezogen hatten, behauptete Bednarsek, dass die oberen Ozeanschichten saurer werden und weniger geeignet sind als Habitat für Thecosomata im Vergleich zu vorindustriellen Zeiten. Allerdings ist das Auffinden des Ortes und der Tiefe, in der sich anthropogenes CO2 derzeit befindet, eine sehr, sehr schwierige Sache. Weil der Ozean ein großes Reservoir anorganischen Kohlenstoffes enthält, 50 mal größer als das atmosphärische Reservoir, ist der anthropogene Beitrag ziemlich gering. Außerdem umfasst anthropogener Kohlenstoff weniger als 2% der CO2-Menge, die jedes Jahr kombiniert von Ozean aufgenommen und wieder ausgegast wird. Folglich gibt es nur ein sehr schwaches Signal im Verhältnis zu Rauschen, was eine genaue Erkennung von anthropogenem CO2 verhindert. Trotz zugegebenermaßen großer Unsicherheiten versuchen die Modellierer stur zu folgern, welche Schichten des Ozeans versauern.

(To clarifying terminology, an organic carbon molecule is a molecule that is joined to one or more other carbons, such as carbohydrates and hydrocarbons. CO2 with a lone carbon is considered inorganic, and when dissolved can take 3 forms (or “species”) collectively referred to as Dissolved Inorganic Carbon (henceforth DIC): 1) Carbonic acid (H2CO3), 2) Bicarbonate ion (HCO3) after losing one H+ 3) Carbonate ion (CO3-2) after losing a second H+ )

[Diesen Absatz lasse ich mangels Fachkenntnis in Chemie lieber unübersetzt, bevor ich falsche deutsche Begriffe verwende. Anm. d. Übers.]

Die Modellergebnisse basieren jedoch auf drei sehr dubiosen Annahmen:

1) Die Modelle nehmen an, dass die Oberflächenschichten anthropogenes CO2 absorbieren, indem sie ein Gleichgewicht mit der atmosphärischen Konzentration erreichen. Mit kleineren Adjustierungen berechnen die Modelle einfach, wie viel anorganischer Kohlenstoff (DIC) dem Ozean hinzugefügt wird auf der Grundlage eines gestiegenen CO2-Gehaltes der Atmosphäre seit vorindustrieller Zeit.

2) Die Modelle nehmen an, dass CO2 in den oberen Ozeanschichten diffundiert und durch den Ozean transportiert wird ähnlich wie Indikatoren wie CFCs. Weil sich CFCs unverhältnismäßig nahe der Oberfläche akkumulieren, nehmen die Modelle an, dass dies auch bei DIC der Fall ist.

3) Die Modelle nehmen an, dass sich die Biosphäre in einem stationären Zustand [steady state] befindet. Folglich tragen sie nicht einer gestiegenen Primärerzeugung und dem rapiden Export von Kohlenstoff in die Tiefe Rechnung.

Obwohl es keinerlei Zweifel daran gibt, dass die Ozeane anthropogenes CO2 aufnehmen, sind die Behauptungen, dass die oberen Schichten der Ozeane versauern, das Ergebnis falscher Modellhypothesen.

Welches Gleichgewicht?

Ein CO2-Gleichgewicht [equilibrium] zwischen Ozean und Atmosphäre wird sehr selten erreicht. Der pH-Wert an der Ozeanoberfläche und folglich die Sättigung mit Kalziumkarbonat [Kalk] werden bestimmt durch die Effizienz der biologischen Pumpe. Mit anderen Worten, wann wo wie viel CO2 in die Ozeanoberfläche eintritt, muss die CO2-Konzentration an der Oberfläche geringer sein als die atmosphärische Konzentration. Diese Differenz ist davon abhängig, wie viel CO2 in organischem Kohlenstoff gebunden ist mittels Photosynthese und nachfolgend in die Tiefe transportiert wird, oder wie viel CO2 nach oben wallt. Die Photosynthese zieht willkürlich alle CO2-Moleküle hinab, die in die Oberflächengewässer eingedrungen sind, entweder durch Aufwallen aus der Tiefe oder durch Diffusion aus der Atmosphäre. Trotz gegenwirkender Effekte wie Durchmischung und Diffusion erhält die biologische Pumpe einen starken vertikalen Gradienten aufrecht eines hohen pH-Wertes an der Oberfläche und geringem DIC, wobei pH-Werte mit der Tiefe abnehmen und DIC zunimmt. In Regionen, in denen ein starkes Aufwallen von DIC aus der Tiefe die Fähigkeit photosynthetisierender Organismen überkompensiert, Kohlenstoff abzuscheiden, fällt der pH-Wert an der Oberfläche und das CO2 wird in die Atmosphäre ausgegast. Viele Modelle schätzen, dass ohne die biologische Pumpe das atmosphärische CO2 um 200 bis 300 ppm über das derzeitige Niveau hinaus zunehmen wird.

Die Effizienz der biologischen Pumpe bestimmt, bis zu welchen Tiefen anthropogener Kohlenstoff vordringt. Allerdings modelliert Sabine [gemeint: Christopher L. Sabine, Pacific Marine Environmental Laboratory/NOAA, Seattle, Washington 98115-6349, siehe Link] nicht die Auswirkungen der biologischen Pumpe, wobei er komischerweise feststellt: „Obwohl die Ozean-Biologie eine integrale Rolle spielt bei der natürlichen Verteilung von Kohlenstoff im Ozean, gibt es keine endgültigen [conclusive] Beweise, dass die Aufnahme durch den Ozean und die Speicherung anthropogenen Kohlenstoffs bisher irgendetwas anderes involviert hat als eine chemische und physikalische Reaktion auf steigendes atmosphärisches CO2“.

Glaubt Sabine wirklich, dass die unleugbare biologische Pumpe unterscheidet zwischen anthropogenem und natürlichem Kohlenstoff? Oder glaubt er, dass es keinerlei Änderungen hinsichtlich der Primärerzeugung und dem Kohlestofftransport gegeben hatte? Nimmt die Primärerzeugung zu, nimmt auch der Transport von Kohlenstoff in die Tiefe zu. Die jährliche Primärerzeugung in der Arktis hat seit 1998 um 30% zugenommen. Wir können auf der Grundlage einer Zunahme von 61% von Mesoplankton zwischen 1994 und 2006 in der Sargasso-See die Primärerzeugung ableiten. Coccolithophores [hier] im Nordatlantik haben zwischen 1990 und 2012 um 37% zugenommen. Und Primärerzeugung und Kohlenstoff-Transport im Peru-Strom hat seit Ende der Kleinen Eiszeit dramatisch zugenommen. Der zunehmende Trend der Primärproduktion und der begleitende Kohlenstoff-Export sind potente Beweise, die eine alternative Hypothese stützen, der zufolge die biologische Pumpe den zunehmenden Eintrag anthropogenen Kohlenstoffs sequestriert hat.

Eine Untersuchung saisonaler Änderungen der oberflächennahen CO2-Konzentration illustriert, wie die biologische Pumpe bestimmt, wann und wie viel CO2 in den Ozean eintritt und wie viel DIC sich nahe der Oberfläche akkumuliert. Wie die folgende Graphik mit Bojen-Daten vor der Küste von Newport aus dem Jahr 2008 veranschaulicht (Evans 2011), erniedrigt jede Frühjahrs-Photosynthese das CO2 an der Ozeanoberfläche auf 200 ppm, weit unter den gegenwärtigen atmosphärischen Konzentrationen und viel niedriger als das, was aus dem Gleichgewicht einer vorindustriellen Atmosphäre zu erwarten ist. Frühjahrs-Oberflächengewässer sind übersättigt, und jedwedes Abtauchen oder Durchmischung dieser übersättigten Gewässer kann nicht aufwallendes Wasser oder Schichten unter der Oberfläche versauern. Außerdem sorgt der Abwärtstransport des Wassers im Frühjahr schlüssig für die Entfernung irgendwelchen anthropogenen CO2, welches in sonnendurchfluteten Gewässern noch übrig ist. Weitere Experimente zeigen, dass CO2 oftmals ein begrenzter Nährstoff ist, und das zusätzliches atmosphärisches CO2 die Photosynthese stimuliert. Mikrokosmos-Experimente zeigten: wenn der atmosphärische CO2-Gehalt höher war, verbrauchte die Plankton-Gemeinschaft 39% mehr DIC.

Die Saison der Aufwallung beginnt im Sommer und dauert bis zum Herbst. Wie oben dargestellt lassen Aufwall-Ereignisse die Oberflächen-Konzentration von CO2 rapide steigen, bis 1000 ppm. Die Physik schreibt vor, dass es keine Diffusion aus der Atmosphäre in den Ozean geben kann, wenn die ozeanische Konzentration höher ist als die atmosphärische Konzentration. Folglich gibt es praktisch keine anthropogenen Hinzufügungen während der Aufwall-Saison. Hier muss jedwede Abnahme des pH-Wertes oder der Karbonat-Sättigung an der Oberfläche auf Aufwallen zurückgehen.

Und schließlich, im Winter (nicht illustriert) zeigen die Oberflächengewässer eine stetige CO2-Konzentration von 340 ppm. Obwohl die Photosynthese herabgesetzt ist und die winterliche Durchmischung mehr unter der Oberfläche befindlichen Kohlenstoff und Nährstoffe an die Oberfläche bringt, bleibt die Atmosphäre unter dem Gleichgewicht mit der Atmosphäre. Obwohl die Oberflächen-Konzentrationen niedrig genug sind, um die Aufnahme atmosphärischen CO2 zuzulassen, sorgt die biologische Pumpe weiterhin dafür, dass Kohlenstoff in die Tiefe transportiert wird, so dass die Oberflächenschichten den ganzen Winter über übersättigt bleiben.

Die Diffusion von CO2 in den Ozean ist ein langsamer Prozess. Man glaubt, dass es etwa 1 Jahr dauert, bis die Ozeane mit einer atmosphärischen Störung ins Gleichgewicht kommen. Aber mit der Annäherung des Frühjahres verstärkt das zunehmende Sonnenlicht die Photosynthese. Wie viel anthropogenes CO2 auch immer in die Ozeanoberfläche im Verlauf des Jahres eingedrungen ist – es ist wieder einmal vollständig sequestriert und in die Tiefe gepumpt worden, was die CO2-Konzentrationen an der Oberfläche auf 200 ppm erniedrigt. Bednarseks Behauptung, dass anthropogenes CO2 das aufwallende Wasser entlang der Küste von Oregon und Kalifornien versauert, wird also wieder nicht gestützt.

Indikatoren simulieren den Transport anthropogenen Kohlenstoffes nicht korrekt

Indikatoren wie chlorofluorocarbons (CFCs) sind synthetische Gase, die biologisch inaktiv sind. Sie kamen während der zwanziger Jahre des vorigen Jahrhunderts in die Welt, hauptsächlich als Kühlmittel. Klimawissenschaftler haben vermutet, dass der physikalische Transport und die Akkumulation von CFCs sowie zunehmender anthropogener Kohlenstoff ähnlich sind. Unten in der Abbildung zeigt der rote Bereich unmittelbar südlich von Grönland ein Gebiet, in dem sich die meisten CFCs akkumuliert haben. Zu dieser lokalen Konzentration kommt es, wenn Wasser aus dem Atlantik mit hohem Salzgehalt sich abkühlt und das Oberflächenwasser zusammen mit den darin gelösten Gasen in die Tiefe sinkt und das Nordatlantische Tiefenwasser bildet. Man schätzt, dass dieses Absinken 18% aller CFCs unter 1000 m tief transportiert hat; was impliziert, dass gelöster anthropogener Kohlenstoff ähnlich transportiert und abgeschieden worden ist. Anderswo jedoch akkumulieren CFCs unverhältnismäßig in Oberflächengewässern, so dass die Modelle annehmen, dass sich gelöstes anthropogenes CO2 ähnlich näher an der Oberfläche akkumuliert.

Sowohl CFCs als auch CO2 sind Gase, und deren Löslichkeit wird von der Temperatur gleichlaufend moduliert. Warmes Wasser in den Tropen absorbiert die geringste Menge von CFCs und CO2, wie die dunkelblauen Bereiche in der folgenden Abbildung zeigen (aus Willey 2004). Folglich haben Äquator-Gewässer, welche die Kalifornische Tiefenströmung füttern, deren Wasser an der Westküste aufsteigt, ebenfalls die geringsten Mengen anthropogenen Kohlenstoffs absorbiert, wenn überhaupt welches. (Das extrem geringe Niveau der CO2-Diffusion in den tropischen Ozean plus die Übersättigung tropischer Gewässer widerspricht sehr jedweden Behauptungen, dass Korallenriffe signifikant beeinträchtigt sind durch anthropogene Versauerung).

Allerdings wird jedwedes in sonnendurchflutetes Wasser eindringende CO2 durch Photosynthese rasch in viel organische Materie umgewandelt, anders als bei den inerten CFCs. Obwohl gelöste CFCs und gelöster Kohlenstoff auf die gleiche Weise passiv transportiert werden, verhält sich organischer Kohlenstoff (lebend oder tot) sehr viel anders. Partikulärer Kohlenstoff sinkt rasch und bringt so Kohlenstoff von der Oberfläche in die Tiefe. CFC-Spurengase können dies nicht simulieren. Eine Durchsicht der Literatur zeigt: „Verschiedene Verfahren und Messungen haben Schätzungen erzeugt von Sink-Geschwindigkeiten für organische Partikel. Dieses Sinken weist eine riesige Bandbreite auf, nämlich von 5 bis 2700 m pro Tag. Allgemein liegt die Geschwindigkeit aber zwischen zehner und hunderten Metern pro Tag“. Niedrige Schätzungen sind verzerrt durch suspended Partikel, die mit den sinkenden Partikeln gemittelt werden. Schnellere Sinkraten werden bei pteropod shells, Foraminiferen, Diatomeen, Flügelschnecken, Panzer von Zooplankton und Anhäufungen von Abfallstoffen beobachtet, die alle in der Lage sind, 500 bis 1000 Meter pro Tag zu sinken. Diese Sinkraten sind viel zu schnell um zu gestatten, dass aufgenommenes CO2 aus deren Zerfall entweder das aufwallende Wasser versauert wie entlang der Küsten von Oregon bis Kalifornien, oder das Wasser an der Oberfläche.

Frühere Experimente hatten gezeigt, dass Einzelzellen sehr langsam sinken mit Raten von nur 1 Meter pro Tag und folglich erheblich unterschätztem Kohlenstoff-Export. Aus Einzelzellen bestehende Organismen werden sich jedoch zu Klumpen zusammenfügen, was die Sinkrate erhöht. Neue Studien zeigten die „allgegenwärtige Präsenz gesunder photosynthetischer Zellen, dominiert von Diatomeen, bis hinab zu 4000 m“. Je nach Länge der Zeit, mit der photosynthetische Zellen in der Dunkelheit bestehen, wurden Sinkraten berechnet mit einer Bandbreite von 124 bis 732 Meter pro Tag, was konsistent ist mit einer hoch effizienten biologischen Pumpe. Obwohl die Wissenschaftler der NOAA Bedenken geäußert haben, dass die globale Erwärmung die Effizienz der biologischen Pumpe verringern würde, indem Bestandteile der Phytoplankton-Gemeinschaften zu kleinen, langsam sinkenden Bakterien geschoben werden, zeigen neue Forschungen, dass sich auch Bakterien zu Clustern zusammenfinden, mit raschen Sinkraten von 440 bis 660 Meter pro Tag.

Die Abscheidung von Kohlenstoff ist abhängig von der Sinkgeschwindigkeit und wie schnell organisches Material abgelagert wird. Die Abscheidung variiert teilweise infolge Variationen in den Phytoplankton-Kolonien. In Tiefen um 1000 m wird angenommen, dass Kohlenstoff relativ permanent abgeschieden wird, wird Wasser aus dieser Tiefe doch 1000 Jahre lang nicht mit der Oberfläche ausgetauscht. Weber 2016 zeigt, dass 25% der organischen Partikel in hohen Breiten bis auf 1000 m sinken, während dies in niedrigen Breiten nur zu 5% der Fall ist. Aber langfristige Abscheidung erfordert keine Absinktiefe bis 1000 Meter. Es erfordert Absinken bis unter die Pycnocline-Schicht [hier bei Wikipedia steht, was das ist. Anm. d. Übers.], eine Region, in der sich die Dichte rapide ändert. Dichtes Wasser kann sich nicht so ohne Weiteres über die Pycnocline-Schicht hinauf bewegen, so dass der vertikale Transport von Nährstoffen und Kohlenstoff behindert wird, was zu langfristiger Abscheidung führt. Weil die Pycnocline-Schicht über den Globus variiert, ist das auch bei der Tiefe der Abscheidung der Fall.

Unten links (a) ist eine Graphik von Weber 2016, in der abgeschätzt wird, bis zu welcher Tiefe Partikel sinken müssen, um 100 Jahre lang abgeschieden zu werden. Im größten Teil des Pazifiks müssen die Partikel dazu nur auf Tiefen zwischen 200 und 500 Metern absinken. Im Gegensatz dazu müssen sie in den goldenen Gebieten um den Golfstrom, Neuseeland und Südafrika bis auf 900 Meter sinken.

Die Karte rechts (b) zeigt Schätzungen, welcher Anteil organischer Materie, welche die sonnendurchfluteten Gewässer verlässt, sequestriert wird. Das Gold im Indischen Ozean schätzt, dass 80% davon die 100-Jahre-Abscheidungstiefe erreichen werden. Entlang der Küste von Oregon bis Kalifornien ist das nur bei 60% der Fall. Auch dies weckt Zweifel an Bednareks Behauptung, dass kürzlich versauertes Wasser die Flügelschnecken beeinträchtigt. Anderswo in Graphik (b) erreichen nur 20% oder weniger des exportierten Kohlenstoffes die zur Abscheidung erforderliche Tiefe.

Die Kombination von Sinkgeschwindigkeiten und Abscheidungs-Tiefen zeigt, dass bedeutende Anteile der Primärproduktion im Zeitmaßstab von Tagen bis Wochen abgeschieden werden. Dies ist konsistent mit dem Erhalt des vertikalen DIC- und pH-Gradienten, der in unseren Ozeanen gefunden worden ist. Es steht jedoch im Widerspruch zu Behauptungen der NOAA-Wissenschaftler.

Verzerrt durch CFC-Beobachtungen schrieb Sabine: „Weil anthropogenes CO2 in die Ozeane eindringt mittels Gasaustausch an der Grenzschicht Wasser-Luft, finden sich die höchsten Konzentrationen anthropogenen CO2 nahe der Wasseroberfläche. Außerhalb von Tiefwassergebieten kann der Zeitmaßstab der Durchmischung von Wasser nahe der Oberfläche mit Tiefenwasser Jahrhunderte betragen, und bis Mitte der neunziger Jahre blieb die Konzentration athropogenen CO2 in der Tiefsee unter dem Erkennungshorizont mit der Delta-C*-Technik.

Wenn die NOAA-Wissenschaftler die Tatsache außer acht lassen, dass Kohlenstoff in Partikelform bis zu harmlosen Tiefen im Zeitmaßstab von Tagen bis Wochen anstatt von „Jahrhunderten“ abgeschieden werden kann, scheint dies der Grund für ihre katastrophalen Fehleinschätzungen der Ozean-Versauerung zu sein. Außerdem, weil sich CFCs nahe der Oberfläche akkumuliert haben mit nur minimalen Anteilen in tieferen Ozeanbereichen, bietet das Spurengas absolut keinen Hinweis, wie Aufsteigen historisches DIV an die Oberfläche bringen kann. Verlässt man sich daher auf ein CFC-Spurengas, werden ihre Modelle fälschlich annehmen, dass gesteigerte Konzentrationen von DIC nahe der Oberfläche auf sich akkumulierenden anthropogenen Kohlenstoff zurückgehen müssen und nicht auf aufgestiegenen historischen Kohlenstoff.

Der Steady State der Biosphäre im Ozean?

Bei einem gegebenen stetigen Prozentanteil von Primärproduktion werden zunehmende Mengen Kohlenstoff im Verhältnis zu gesteigerter Produktivität exportiert. Folglich ist es vernünftig zu hypothetisieren, dass falls die maritime Produktivität seit dem Ende der Kleinen Eiszeit, also seit vorindustrieller Zeit, zugenommen hat, die gesteigerte Produktion die gesteigerten Mengen anthropogenen Kohlenstoffs abgeschieden hat. Obwohl es nur wenige Ozeanbecken ohne Sauerstoff gibt, wo sich organische Sedimente gut erhalten können, zeigen alle diese Becken, dass seit der Kleinen Eiszeit die maritime Produktivität und der Kohlenstoffexport tatsächlich mit der Erwärmung der Ozeane zugenommen haben.

Hier folgen Forschungen von Chavez 2011, die zeigen, dass während der Kleinen Eiszeit die maritime Primärproduktion (d) niedrig war, aber um das 2- bis 3-fache zugenommen hat während der letzten 150 Jahre. Sedimente zeigen, dass rasch sinkende Diatomeen um das 10-fache am Ende der Kleinen Eiszeit zugenommen haben, aber wahrscheinlich aufgrund limitierten Siliziums reduzierte sich der Fluss von Diatomeen in Ozean-Sedimente auf eine etwa 2-fache Zunahme über die Kleine Eiszeit. Nichtsdestotrotz finden zahlreiche Studien, dass Schätzungen der Diatomeen-Vielfalt repräsentativ sind für die Kohlenstoffexport-Erzeugung in küstennahen Aufstiegsgebieten.

Die gesteigerte Primärproduktion fällt zusammen mit einer über 100-fachen Zunahme von Fischschuppen und Gräten (f). Und konsistent mit einer Notwendigkeit für mehr Nährstoffe, um die gesteigerte Primärproduktion zu stützen, zeigen Proxy-Beweise eine 2-fache Zunahme von Nährstoffen in der Wassersäule (c). Es sind diese Beweise, welche die Forscher dazu bringen anzunehmen, dass die beobachteten dekadischen Zunahmen aufgestiegenen DIC und Nährstoffe Teil eines viel längeren Trends sein können. Und schließlich, im Gegensatz dazu, dass die globale Erwärmung zur Erklärung für den aufgebrauchten Sauerstoff herangezogen wird, ist die Ablagerung gesteigerten organischen Kohlenstoffes eine viel bessere Erklärung für Beobachtungen gesunkener Sauerstoff-Konzentrationen in der Wassersäule (a) und in Sedimenten (b). Weil sich die Primärproduktion bis 1900 verdoppelt hatte, lange bevor globale Erwärmung oder bevor anthropogenes CO2 signifikante Konzentrationen erreicht hatte, ist es unwahrscheinlich, dass anthropogenes CO2 zu gesteigertem Aufstieg beigetragen hat, zu gesteigerter Primärproduktion oder irgendwelchen anderen Trends in diesem Gebiet.

Gesteigerte Primärproduktion allein garantiert jedoch nicht, dass absinkender partikulärer Kohlenstoff genügend Kohlenstoff entfernt, um anthropogenen Hinzufügungen entgegen zu wirken. Es gibt jedoch eine Dynamik, die nahelegt, dass dies der Fall sein muss. Erstens betrachte man, dass bei einer Untersuchung der Elemente einer Phytoplankton-Kolonie ein allgemeines Verhältnis von 106 Kohlenstoff-Atomen auf 16 Stickstoff-Atome entdeckt worden ist (d. h. Redfield-Verhältnis). Angesichts des Umstandes, dass Stickstoff typischerweise photosynthetische Produktion begrenzt, falls Kohlenstoff und Stickstoff im gleichen Redfield-Verhältnis aufsteigen, solange nicht andere Prozesse für einen Stickstoff-Überschuss sorgen, könnte die Photosynthese lediglich aufgestiegenen Kohlenstoff assimilieren, aber nicht genug, um dem gesamten zusätzlichen anthropogenen Kohlenstoff Rechnung zu tragen.

Kalk bildende Organismen exportieren jedoch größere Anteile anorganischen Kohlenstoffs, weil ihren sinkenden Schalen aus Kalziumkarbonat Stickstoff fehlt. Dies kann zu einem Überschuss an Stickstoff beitragen relativ zu bis in Oberflächengewässer aufgestiegenem Kohlenstoff. Zweitens, Diazotrophen [noch einmal bei Wikipedia] sind Organismen, die atmosphärischen Stickstoff in biologisch nutzbare Formen konvertieren. Freilebende Diazotrophen wie das Cyanobakterium Trichodesmium können so üppig auftreten, dass ihr Erblühen beobachtet werden kann. (Die Blüten einer Spezies sind primär verantwortlich für die Färbung des Roten Meeres). Einige Diazotrophen bilden symbiotische Beziehungen, um sowohl aufgestiegenen als auch anthropogenen Kohlenstoff zu assimilieren. Außerdem, wie bei Mackey 2015 (sowie deren Literaturhinweisen) diskutiert, zeigen bis heute fast alle Studien, dass die Stickstoff-Bindung aufgrund gesteigerten CO2 zunehmen wird“.

Berücksichtigt man all dies, zeigen die Beweise, dass die NOAA-Wissenschaftler eine Charakterisierung des „Steady State“ des Ozeans haben, die verkehrt herum steht. Es gibt keine starre Rate von Primärproduktion und Export, welche die Assimilation anthropogenen Kohlenstoffes und deren Pumpen in die Tiefe verhindert. Im Gegenteil, die kombinierte Dynamik der Stickstoff-Bindung und der biologischen Pumpe zeigen, dass die oberen Schichten des Ozeans wahrscheinlich ein pH-Gleichgewicht [pH homeostasis] oder einen pH-Steady-State erhalten haben, zumindest seit vorindustrieller Zeit. Eine Zunahme atmosphärischen Kohlenstoffs, ob nun aus natürlichem Aufsteigen oder aus anthropogenen Quellen, wird höchst wahrscheinlich rasch assimiliert und in Ozeantiefen transportiert, wo sie für Jahrhunderte und Jahrtausende sicher abgelagert sind. Behauptungen, denen zufolge der obere Ozean seit vorindustrieller Zeit versauert sind, beruhen nicht auf Messungen, sondern sind lediglich das Ergebnis der Modellierung eines „toten“ Ozeans unter Ignoranz entscheidender biologischer Prozesse (mehr dazu hier).

Jim Steele is Director emeritus Sierra Nevada Field Campus, San Francisco State University and author of Landscapes & Cycles: An Environmentalist’s Journey to Climate Skepticism

Link: https://wattsupwiththat.com/2017/03/02/how-noaa-and-bad-modeling-invented-an-ocean-acidification-icon-part-2-bad-models/

Übersetzt von Chris Frey EIKE, der inhaltlich aber nicht immer ganz folgen konnte.




Langfristige Planungen auf realistischer Grundlage: Chinas Energiepolitik

In Deutschland will man dem Bürger eine streng asketische Zukunft verordnen. Um die uns angeblich drohende Klimakatastrophe durch konsequente „Dekarbonisierung“ zu verhindern, sollen die Bürger zu massivem Konsumverzicht erzogen werden. Das geht schon bei Nebensächlichkeiten los, so z.B. im Bundesumweltministerium, wo Besucher keine Fleischgerichte mehr erhalten werden [VEGG]. Das Umweltbundesamt rät dagegen den Bürgern zu einem 40tägigen freiwilligen „Autofasten“ ab Aschermittwoch [AUFA]. Die Regierung selbst definiert in einem Bericht an ein UNO-Gremium ihre Ziele bezüglich der Energieversorgung wie folgt: „Der Gesamt-Primärenergieverbrauch soll bis 2020 gegenüber 2008 um 20 % sinken, bis 2050 wird eine Senkung um 50 % angestrebt. Der Bruttostromverbrauch soll bis 2050 gegenüber 2008 in einer Größenordnung von 25 % vermindert werden“ [STZI]. Rechnet man diese Angaben entsprechend um, so hat sich Deutschland demnach zu einer Verbrauchsobergrenze von lediglich noch ca. 436 TWh (Terawattstunden) verpflichtet, für die Produktion ergäbe sich daraus ein Maximalwert von ca. 450 TWh. Im Jahr 2016 lag die Produktion mit 648,2 TWh um 44 % höher. Da zudem Öl, Gas und Kohle (und zugleich die Kernkraft) drastisch reduziert werden sollen, kann man sich eine Vorstellung davon machen, welche Abstriche am bisherigen Lebensstandard auf die Bevölkerung zukommen. Und die Umstellung des Verkehrs auf Elektroautos sollten wir auch nicht vergessen: 45 Mio Pkw und die bisher mit Diesel betriebenen Flotten von LKW und Bussen würden alleine schon beim jetzigen Stand jährlich 337 TWh benötigen. Da bliebe für den restlichen Bedarf der Bevölkerung nicht allzu viel übrig. Aber das steht auf einem anderen Blatt und soll hier nicht weiter vertieft werden.

Chinas Zukunftsplanung beim Strom…

Rechnet man die für Deutschland vorgesehenen 450 TWh jährlicher Stromproduktion auf die Gesamtbevölkerung von 82 Mio. um, so sollen jedem Bürger künftig pro Jahr rechnerisch ca. 4.500 kWh zur Verfügung stehen. Das sind etwa 30 % weniger als 2016. Wie sieht es diesbezüglich in China aus? Dazu gibt es in der Zeitschrift Nuclear Street News [CHIN] aktuelle Zahlen der dortigen National Energy Administration (NEA). Demzufolge liegt der aktuelle Pro-Kopf-Verbrauch an elektrischer Energie in China nach einem Ranking des „Index Mundi“ derzeit bei 3.926 kWh. Das ist lediglich rund ein Drittel der 12.186 kWh, die jedem US-Bürger zur Verfügung stehen.

Doch während Deutschland seinen Bewohnern den Energieverbrauch massiv kürzen will, sieht man in China die ausreichende Verfügbarkeit von Energie als eine unabdingbare Voraussetzung zur Aufrechterhaltung einer Hochzivilisation. Deshalb plant man eine kontinuierliche Steigerung. Aktuell befindet sich das Land diesbezüglich nur auf dem 69. Rang, was sich auch im Lebensstandard widerspiegelt. Bis zum Jahr 2030 will die Staatsführung 5.500 kWh pro Kopf und Jahr erreichen und diesen Wert bis 2050 auf 8.500 erhöhen. Damit befände man sich dann an der Schwelle zu den 25 bestversorgten Ländern der Erde.

 

…setzt ein wenig auf Wind und Sonne…

Viele Ideologen der „erneuerbaren“ Energien sehen China derzeit als eine Art gelobtes Land von Wind- und Solarenergie, weil man dort im Rahmen des laufenden Fünjahresplans bis 2020 insgesamt 343 Mrd. € in „CO2-freie“ Stromerzeugungstechnologien investieren will [SPIE]. Die Entwicklung der entsprechenden Investitionen veranschaulicht Bild 1.

Bild 1. Die Vertreter der „erneuerbaren“ Energien setzen große Hoffnungen auf China, das inzwischen gut 35 % der weltweiten Investitionen auf diesem Gebiet tätigt (Grafik: [REN21])

Schaut man auf die Entwicklung z.B. der Kapazität der installierten Windenergieanlagen [WIWI], so findet man beeindruckende Zahlen und Steigerungsraten (Bild 2). Vertreter der „erneuerbaren“ Energien stellen diese gerne als vorbildlich für den Rest der Welt heraus.

 
Bild 2. In den vergangenen zwölf Jahren steigerte China die Kapazität der installierten Windenergieanlagen um mehr als das Hundertfache von 1,26 auf 149 GW [WIWI]. Auch bei der Solarenergie wurden hohe Steigerungsraten erzielt

Diese Euphorie etlicher „Öko-Energetiker“ rührt allerdings wohl zu einem nicht geringen Teil daher, dass viele unter ihnen kaum Übung darin haben, nüchterne Fakten wie Dimensionen, Aufwendungen und Kosten einer technisch anspruchsvollen Aufgabenstellung zu erfassen. Zunächst muss man sich vor Augen führen, wie riesig das Land im Vergleich zu Deutschland ist. Chinas Kraftwerke erzeugen derzeit jährlich ca. 5.000-6.000 TWh an elektrischer Energie, rund 8-9 Mal soviel wie Deutschland. Hiervon sind allerdings lediglich rund 23 % „erneuerbar“, und davon zählen mehr als 18 % zu den „konventionellen“ Erneuerbaren, nämlich der Wasserkraft, zu der insbesondere der Drei-Schluchten-Staudamm beiträgt. Eine Aufschlüsselung der Beiträge der verschiedenen Energieträger für das Jahr 2014 zeigt Bild 3.


Bild 3. Anteile der verschiedenen Energieträger an der chinesischen Stromproduktion im Jahre 2014. Daten: [WIKI]

Im Jahr 2014 trugen Wind mit 2,7 % und und Solar mit 0,5 demnach zusammen nur etwas mehr als 3 % zu Chinas Stromerzeugung bei, was trotz der beeindruckenden Brutto-Kapazitätsangaben an den im Vergleich zu konventionellen Kraftwerken beschämend schlechten Nutzungsgraden der „erneuerbaren“ Energielieferanten liegt. Bis zu deutschen Dimensionen – derzeit ca. 18 %, davon 12 % Wind und 6 % Solar – wäre auf jeden Fall noch ein weiter Weg zurückzulegen, und 80 oder gar 100 % sind für das Schwellenland China finanziell auf keinen Fall zu bewältigen. Bereits jetzt stößt man dort trotz dieser vergleichsweise niedrigen Prozentsätze hart an seine Grenzen, insbesondere was die Belastung der Stromnetze angeht, deren Errichtungs- und Betriebskosten in diesem riesigen Land entsprechend hoch sind. Bereits 2015 wurden deshalb 15 % der chinesischen Windenergieproduktion schlicht „weggeworfen“ [CHDI]. Dies zeigt sich auch am Nutzungsgrad, der mit durchschnittlich 15,8 % selbst unter den deutschen Werten liegt. Das führte zu Auseinandersetzungen zwischen den Provinzen, deren Netzbetreiber versuchen, diesen Störstrom möglichst aus ihren Netzen herauszuhalten, und der Zentralregierung, die aus diversen Gründen gerne mehr davon verwendet sehen möchte.

Interessanterweise scheint die Zentralregierung angesichts dieses Gegenwindes jetzt ihre Ziele in diesem Bereich zurückzuschrauben. So hieß es noch 2016 aus der NEA, dass man im laufenden Fünfjahrplan die Kapazitäten bei Wind von 129 GW auf 210 GW und bei Solar von 43 GW auf 110 GW ausbauen wolle, was dann noch auf auf 250 GW Wind und 150 GW Solarkapazität aufgestockt wurde [CHDI].


Bild 4. Im Bereich Fotovoltaik sind chinesische Hersteller an der Weltspitze

 

Inzwischen scheint man jedoch wieder umzudenken. Kürzlich gab es Berichte, dass diese Aufstockung zurückgenommen wurde und China jetzt wieder zu den ursprünglichen niedrigeren Zahlen zurückkehre, wobei darin jetzt auch Offshore eingebunden ist [RECH]. Zudem gibt es Meldungen über Einschnitte bei den Vergütungssätzen für Fotovoltaik.

 

…und immer stärker auf Kernkraft

Ein entscheidender Punkt, den viele Anhänger der „Erneuerbaren“ bei ihren Blütenträumen bezüglich asiatischer Nationen häufig übersehen, ist der Pragmatismus dieser Länder bei der Bewältigung existenzieller Herausforderungen. So z.B. in Japan, wo Greenpeace, WWF und Co. seit den Nuklearhavarien von Fukushima die Wiederinbetriebnahme von Kernkraftwerken mit allen Mitteln bekämpfen und behindern, wobei ihnen die internationalen Medien als Sprachrohr und Multiplikator dienen. Hierbei fällt unserer von diesen „Fake-News“-Medien eingeschläferten Bevölkerung anscheinend nicht einmal der Umstand auf, dass diese Organisationen offensichtlich auch dort unten erstaunlich häufig von Leuten mit erkennbar westlicher Herkunft geführt werden. Da die Inbetriebnahme freigegebener Kernkraftwerke kaum vorankommt und sich die „Erneuerbaren“ als kostspieliger Irrweg erwiesen haben, setzt Premier Shinzo Abe jetzt stattdessen auf Kohle und will in den kommenden Jahren 45 neue Kohlekraftwerke bauen lassen. So dämlich, sich gleichzeitig von der Kern- und der Kohlekraft zu trennen, ist man in Japan nicht.

Deshalb hätten auch die jubelnden „Ökos“ sich nicht davon täuschen lassen sollen, als China dreistellige Milliardeninvestitionen in CO2-freie Stromerzeugungstechnologien ankündigte. Für China sind dies nur Peanuts, und sehr zum Leidwesen von Greenpeace & Co. gehört zu ihren Planungen auch die Kernenergie. Und hier hat China wirklich große Pläne, denn das Land wurde in seiner diesbezüglichen Entwicklung durch die Fukushima-Ereignisse erheblich zurückgeworfen. Chinas Führung hat ab 2011 auf diesem für das Land extrem wichtigen Sektor zunächst zahlreiche Projekte gestoppt und sich ausreichend Zeit genommen, um die Situation und die mit der Kernkraft verknüpften Risiken ausführlich zu analysieren. Man nahm lieber eine mehrjährige Verzögerung in Kauf, als unvertretbare Risiken für das Land einzugehen. Im Unterschied zu Deutschland hat man anschließend jedoch beschlossen, die Kernkraft weiter auszubauen. Im aktuellen Fünfjahrplan ist nahezu eine Verdopplung der Nuklearkapazität des Landes vorgesehen [CHNU].

Im November 2016 waren in China 36 Kernkraftwerke mit einer Kapazität von 31,4 GW in Betrieb. Von den derzeit im Bau befindlichen 40 Reaktoren [STAT] sollen allein in diesem Jahr fünf in Betrieb genommen werden. Bei acht weiteren ist der Baubeginn noch in diesem Jahr vorgesehen, und zugleich sollen acht weitere Projekte „auf Kiel gelegt“ werden. Aktuell veröffentlichter Planungsstand sind 58 GW KKW-Kapazität bis 2020 und 150 bis 250 GW bis 2030 [CHIN]. Damit würde die Nuklearkapazität des Landes innerhalb von nur 13 Jahren um den Faktor acht (!) zulegen. Für die Zeit nach 2030 sagen Berichte über entsprechende Planungen noch weit höhere Zuwachsraten voraus. Ein wichtiges Hemmnis scheint derzeit der Mangel an geeigneten Fachleuten zu sein. In Betrieben und Universitäten arbeitet man bereits daran, diese Ausbildungsgänge entsprechend auszubauen. Für den Zeitraum nach 2040 soll in China dann die Stunde der „schnelle-Neutronen“-Reaktoren („schnelle Brüter“) schlagen, die nuklearen Abfall, Plutonium sowie abgereichertes Uran verwerten können. Ihre Kapazität soll bis 2100 auf 1.400 GW anwachsen [NUK]. Das allein entspräche etwa 1.000 bis 1.400 weiteren Kernkraftwerken.

 

China will mit jeder Technologie verdienen

Betrachtet man die Lage der verschiedenen Energiesektoren in China, so erkennt man eine geschickte Verknüpfung mit einer mehrgleisigen Handelsstrategie. Man setzt einerseits auf den aktuell ungebrochenen weltweiten Markttrend zugunsten von Wind und Solar. Dieser soll künftig ja zusätzlich durch jährliche Klima-Ablasszahlungen von 100 Mrd. US-$ Dollar der Industrieländer für Energieprojekte in der 3. Welt befeuert werden. Nicht zuletzt deshalb stützt China durch große inländische Investitionen die eigenen Industrien und ermöglicht es ihnen, auf diesen Märkten in vorderster Position mitzumischen. Dies dürfte erklären, warum die Zentralregierung aktuell neben der hohen Kapitalbindung sogar negative Auswirkungen im Lande in Kauf nimmt.

Langfristig setzt man jedoch erkennbar auf die Kernenergie. Auch wenn deren Anteil im eigenen Land ebenso wie die Marktchancen im internationalen Umfeld im Moment noch gering sind, so sind die Investitionen ebenso wie die Entwicklungsaktivitäten erkennbar auf hohe Steigerungsraten ausgelegt. Aufgrund der hohen Nutzungsgrade der Kernkraft erbringt die Investition in ein GW Kernenergie jährlich rund 6 Mal soviel Strom wie Windenergieanlagen mit gleicher Kapazität. Geplant sind derzeit 61 GW Wind und 27 GW KKW, welche den gleichen Stromertrag liefern wie 162 GW Windenergieanlagen. Aus diesen Zahlen ist die Stoßrichtung der chinesischen Energiepolitik klar abzuleiten.

Zudem ist sich China bewusst, dass dieser Markt in vielen Ländern erst dann attraktiv werden dürfte, wenn sich der aktuelle Hype mit den „Erneuerbaren“ totgelaufen hat. Bis es soweit ist, wird man für die künftigen eigenen KKW-Modelle über internationale Zulassungen verfügen, so beispielsweise in Großbritannien. In einigen Jahren wird Deutschland mit brummendem Schädel aus seinem energetischen Selbstzerstörungsrausch namens „Dekarbonisierung“ aufwachen. Dann werden lächelnde chinesische Handelsdelegationen bereitstehen, uns alles zu liefern, was für die Versorgung der deutschen Bevölkerung mit preisgünstiger und sicher verfügbarer Energie so benötigt wird. Zu großzügigsten Konditionen, versteht sich. Allerdings dürfte die Inzahlungnahme gebrauchter Solarpaneele und Windanlagen nicht dazugehören.

Fred F. Mueller

 

Quellen

[AUFA] http://www.n-tv.de/politik/Umweltamt-ruft-zum-Autofasten-auf-article19723009.html

[CHDI] https://www.chinadialogue.net/blog/9113-All-eyes-on-China-s-13th-Five-Year-Plan-for-energy/en

[CHIN] http://nuclearstreet.com/nuclear_power_industry_news/b/nuclear_power_news/archive/2017/03/02/china-maps-out-its-nuclear-future-030202#.WLmmXH_OxLh

[CHNU] http://www.world-nuclear-news.org/NP-China-sets-out-nuclear-plans-for-2017-0203174.html

[DACA] http://dailycaller.com/2017/02/01/japan-infuriating-enviros-by-building-45-new-coal-power-plants/

[NUK] http://www.world-nuclear.org/information-library/country-profiles/countries-a-f/china-nuclear-power.aspx

[RECH] http://www.rechargenews.com/wind/1188761/china-eases-back-2020-re-targets-with-latest-5yp-goals

[REN21] RENEWABLES 2016 – GLOBAL STATUS REPORT RENEWABLE ENERGY INDICATORS Key Findings

[SPIE] http://www.spiegel.de/wirtschaft/unternehmen/china-investiert-343-milliarden-euro-bis-2020-in-oekostrom-und-atomkraft-a-1128741.html

[STAT] http://de.statista.com/statistik/daten/studie/157767/umfrage/anzahl-der-geplanten-atomkraftwerke-in-verschiedenen-laendern/

[STZI] Bericht der Bundesregierung zum High-Level Political Forum on sustainable Development 2016, 12. Juli 2016. http://www.bmz.de/de/index.html

[VEGG] http://www.spiegel.de/politik/deutschland/umweltministerium-serviert-bei-veranstaltungen-nur-noch-vegetarische-kost-a-1135231.html

[WIKI] https://en.wikipedia.org/wiki/Renewable_energy_in_China

[WIWI] https://en.wikipedia.org/wiki/Wind_power_in_China

 

 




Beim Klimawandel bleiben Fake-News wohl „politisch korrekt“

WWF zum Welt-Eisbärtag: Lebensraum geht mit erschreckender Geschwindigkeit verloren

Zum „Welt-Eisbärtag“ meldeten einschlägige NGOs und kommunale Institutionen unisono, dass der Klimawandel die niedlichen Eisbären weiterhin am Bestand bedroht und dagegen dringendst (mit CO2-Vermeidung) geholfen werden muss:
SOLARIFY, 26.02.2017: Eisbären sterben aus
WWF zum Welt-Eisbärtag: … Längst eine Binsenweisheit – die größten Landraubtiere der Welt sind in Gefahr: Die Eisbären sind durch den Klimawandel massiv bedroht, der Verlust der Lebensräume passiert in einem erschreckenden Ausmaß und in hoher Geschwindigkeit. Nur noch rund 20.000 Tiere gibt es in der Arktis. Die Weltnaturschutzorganisation stuft sie daher als „gefährdet“ ein.

BERLINER ZEITUNG, 24.02.17: Welt-Eisbär-Tag: Kleiner Fritz soll große Wirkung zeigen
Es geht um die gefährdeten Artgenossen von Eisbärenbaby Fritz in der Arktis: Vor dem Welt-Eisbärentag am 27. Februar ruft Tierparkdirektor Andreas Knieriem zu mehr Bewusstsein für den vom Menschen verursachten Klimawandel auf.
„Ich hoffe, dass die große Zuneigung, die unserem Fritz entgegen gebracht wird, die Menschen auch zum Nachdenken anregt – nicht nur am Welt-Eisbär-Tag“. Bei wildlebenden Eisbären werde in den kommenden 45 Jahren ein Rückgang der Population um 30 Prozent und mehr erwartet.

muenchen.de, Tierpark Hellabrunn: Das Eisbär-Baby genoss seinen ersten Ausflug ins Freie
Christine Strobl, Bürgermeisterin und Aufsichtsratsvorsitzende des Tierparks, … „Die neuerliche Geburt eines Eisbären-Babys ist für den Tierpark ein wunderbarer Erfolg und ein bedeutender Beitrag zum Artenschutz dieser hochbedrohten Tierart.“
WWF:
WWF zum Welt-Eisbärtag: Der Lebensraum für Eisbären geht in erschreckender Geschwindigkeit verloren

Nur das (Des-)Informationsportal Klimaretter.Info muss man diesmal loben. Es brachte zwar erst letzten September eine rührende Story zu gefährdeten Eisbären (Eisbären ohne Eis), hielt sich am Jahrestag aber zurück.

Doch der Eisbär vermehrt sich so stark, dass er zur Plage wird

Wie inzwischen allgemein bekannt, leiden die Eisbären jedoch überhaupt nicht unter einem Klimawandel. Im Gegenteil, sie vermehren sich und werden eher zur Plage.

EIKE 4.03.2016: Der Eisbär vermehrt sich stetig – aber sein Aussterben simulieren darf man doch (2)

Bild aus dem EIKE-Artikel. Es zeigt den Populationsverlauf seit dem Jahr 1960 und ab dem Jahr 1990 den Verlauf, wenn danach die massive Bejagung eingestellt worden wäre.

Wie sie uns einen Eisbären aufbinden

Auf Achgut wurde das Thema der angeblich weiterhin so gefährdeten Eisbären aufgrund des Anlasses in einem Artikel zusammengefasst, weshalb daraus zitiert wird.

Achgut.com, Dirk Maxeiner: Wie sie uns einen Eisbären aufbinden
… Die Eisbären werden nicht weniger, sondern mehr. Deshalb zum Mitschreiben: Laut der neusten Untersuchungen beträgt die Zahl der Eisbären jetzt zwischen 22 600 und 32 250. Das ist das vier bis sechsfache des Bestandes nach dem zweiten Weltkrieg. Neben den Populationen der Eisbären und nehmen auch die ihrer Beutetiere, der Sattelrobben, zu. Mehr dazu hier und hier.
Auch in Regionen wie Buffin Bay und Kane Basin, in denen bislang tatsächlich abnehmende Populationen vermutet wurden, ist davon keine Rede mehr, sondern die Bestände sind stabil. Die ortsansässigen Inuit haben darauf übrigens schon seit längerem hingewiesen. Das Schrumpfen der Eismassen in den arktischen Sommern macht den Polarbären offenbar nichts aus.
Das hinderte die Klima-Katastrophen-Fraktion natürlich nicht daran, weiter den Stuss vom in der Arktis dahinsiechenden Meister Petz zu verbreiten. Vor drei Tagen (27.2.2017) war „Welt Eisbärtag“ und die gute alte Fakenews wurde prompt wieder ausgepackt. Beispielsweise
hier und hier und hier. Die Verfasser dieser Traktate sind gegen Fakten mindestens so immun wie die Bevölkerung von Mekka gegen christliche Missionierung.
Alle Prognosen, die ein Aussterben der schönen Tiere innerhalb kurzer Zeit voraussagten, treffen nicht zu. Das ist deshalb besonders delikat, weil die Eisbären schon seit 2008 eine politische Mission haben. Da wurden sie nämlich vom „U.S. Fish and Wildlife Service“ (FWS) nach dem sogenannten „Endangered Species Act“ als erste Art überhaupt gelistet, die vom Klimawandel bedroht sei. Klima-Aktivisten sehen darin einen möglichen juristischen Hebel um gegen die Emittenden von Kohlendioxid als Verursacher dieses „Aussterbens“ vorzugehen.

Ein Vorreiter beim Fake-New ist der WWF

Ganz perfide und bewusst verfälschend informiert der WWF. Dort heißt es im Text: … Der Klimawandel ist für die Eisbären der Arktis eine sehr ernste Gefahr. Die letzten 20.000 bis 25.000 Eisbären sind massiv bedroht, bereits 2050 könnten zwei Drittel der Tiere ausgestorben sein … “
Wie man am Bestandsverlaufs-Bild sehen kann, kennzeichnen die „20.000 bis 25.000“ Eisbären eine sich seit dem Jahr 1960 stetig erhöhende Population. Die Angabe „ … die letztenEisbären … „ ist somit eine bewusst fälschende, weil eine Bestandsverringerung suggerierende Darstellung.

Quellen

[1] Süddeutsche Zeitung, 18. Dezember 2016: Falschmeldungen Schulz fordert EU-weites Gesetz gegen Fake News
http://www.sueddeutsche.de/politik/fake-news-schulz-fordert-eu-weites-verbot-von-falschmeldungen-1.3299552

[2] POLITICALLY INCORRECT, 18. Dez 2016: Heiko Maas will fünf Jahre Haft für “Fake-News”

Bundesjustizminister Heiko Maas (SPD) fordert die Justiz auf, härter gegen gefälschte Nachrichten in Sozialen Netzwerken wie Facebook vorzugehen. “Verleumdung und üble Nachrede sind nicht von der Meinungsfreiheit gedeckt. Das muss die Justiz auch im Netz konsequent verfolgen”, sagte Maas BILD am SONNTAG.

Bei “übler Nachrede und Verleumdung einer Person des öffentlichen Lebens” drohe eine Freiheitsstrafe von bis zu fünf Jahren. “Das sollte jedem klar sein, der versucht, mit solchen Lügen politische Debatten zu manipulieren. Den rechtlichen Rahmen sollten wir konsequent ausschöpfen”, so Maas.




Warum spekulieren?

Es gibt zwei Anlässe im Leben eines Menschen, bei denen er nicht spekulieren sollte: Wenn er es sich nicht leisten kann, und wenn er es sich leisten kann“ – Mark Twain

Mein Thema heute ist die Vorherrschaft von Spekulation in den Medien. Was bedeutet das? Warum ist das so allgegenwärtig? Sollten wir etwas dagegen tun? Falls ja, was – und warum? Sollten wir uns überhaupt darum kümmern? Ist Spekulation überhaupt validierbar? Und so weiter.

Ich möchte diesem Spekulationstrend beitreten und darüber spekulieren, warum es so viel Spekulation gibt. Im Zuge, diesem Trend zu folgen, möchte ich meine Standpunkte ohne jedwede faktische Stützung darlegen, einfach indem ich eine Reihe von schlichten Behauptungen aufstelle.

Bevor wir anfangen, möchte ich eine Definition klären. Mit Medien meine ich Filme, Fernsehen, Internet, Bücher, Zeitungen und Zeitschriften. Um dem allgemeinen Trend der Spekulation zu folgen, wollen wir nicht zu viele Kleinstunterscheidungen treffen.

Anfangen können wir damit, uns zu fragen, bis zu welchem Grad sich die Medien der reinen Spekulation verschrieben haben. Jemand könnte hierzu eine Studie durchführen und Fakten präsentieren, aber bislang hat das niemand getan. Ich würde es mit Sicherheit nicht tun. Es gibt keinen Grund, sich damit zu behelligen. Die Erfordernis, eine Faktenbasis für eine Behauptung zu demonstrieren, ist schon vor langer Zeit entfallen. Sie wurde ausgesondert mit dem universellen Lob für das Buch Backlash von Susan Faludis, welches im Jahre 1991 den National Book Critics Circle Award für Allgemeine Sachbücher verliehen bekam, und welches hunderte Seiten quasi-statistischer Behauptungen auf der Grundlage einer Prämisse enthält, welche niemals belegt wurde und die fast mit Sicherheit falsch war.

Aber das ist ein alter Hut, und ich erwähne es hier nur, um Standards zu setzen.

Heute weiß natürlich jedermann, dass „Hardball“, „Rivera Live“ und ähnliche Shows nichts weiter sind als ein stetiger Strom von Vermutungen über die Zukunft. Die Talkshows am Sonntag Morgen sind reine Spekulation. Jeder weiß, dass es sonntags keine Nachrichten gibt.

Aber Fernsehen ist Unterhaltung. Betrachten wir die so genannten seriösen Medien. Zum Beispiel die New York Times [ein Ober-Alarmisten-Blatt! Anm. d. Übers.] vom 6. März, also von dem Tag, als Dick Farson mir gesagt hat, dass ich diese Gedanken von mir gebe. In der Kolumne an erster Stelle jenes Tages geht es um die Zölle von Bush auf importierten Stahl. Jetzt lesen wir: Die Maßnahme von Mr. Bush „wird wahrscheinlich den Preis von Stahl scharf in die Höhe treiben, vielleicht um bis zu zehn Prozent…“. Amerikanische Verbraucher „werden ultimativ höhere Preise zahlen müssen“. Amerikas Verbündete „würden fast mit Sicherheit die Entscheidung anfechten“. Ihr legales Anliegen „könnte Jahre dauern, um in Genf einen Prozess anzustrengen“ um Dieses und Jenes.

Man beachte auch die vage und versteckte Spekulation. Die Anfechtung seitens der Alliierten würde „die Bühne bereiten für einen großen Handelskrieg mit vielen der gleichen Länder, die Bush zusammenhalten möchte in der zerbrechlichen Koalition gegen den Terror“. Mit anderen Worten, in der Story wird spekuliert, dass Zölle den Kampf gegen den Terrorismus beeinträchtigen können.

Inzwischen bin ich unter dem Faludi-Standard zu dem festen Standpunkt gekommen, dass Medien hoffnungslos von Spekulation durchsetzt sind, und wir können darangehen, die Auswirkungen dieses Umstandes zu betrachten.

Nun könnte man diese Story über Zölle lesen und sich fragen „na und?“. Es ist keine schlechte Geschichte. Ist es nicht vernünftig, über Auswirkungen gegenwärtiger Ereignisse auf diese Weise zu reden? Ich antworte, absolut nicht! Derartige Spekulationen sind komplette Zeitverschwendung.Sie sind sinnlos. Es ist Mist auf der Frontseite der Times.

Der Grund dafür, dass es sinnlos ist, ist natürlich der Umstand, dass niemand weiß, was die Zukunft bereit hält.

Stimmen wir alle darin überein, dass niemand weiß, was die Zukunft bereit hält? Oder muss ich Ihnen das erst beweisen? Ich stelle diese Frage, weil es einige sehr gut untersuchte Auswirkungen der medialen Berichterstattung gibt, was passiert, wenn man das Fernsehgerät verkehrt herum aufstellt: die Kinder werden sagen, dass das Popcorn aus der Tüte herausfällt. Dieses Ergebnis wäre erheiternd, falls es auf Kinder beschränkt bleibt. Aber die Studien zeigen, dass niemand davon ausgenommen ist. Alle Menschen unterliegen diesem medialen Effekt, einschließlich all jener unter uns, die glauben, dass wir ich-bewusst und hip und gut unterrichtet sind.

Medien bringen eine Glaubwürdigkeit mit, die total unverdient ist. Wir alle haben schon das erlebt, was ich den Murray Gell-Mann Amnesie-Effekt nenne. (Ich beziehe mich auf diesen Namen, weil ich über dieses Thema einmal mit Murray Gell-Mann diskutiert habe, und mit der Einführung eines berühmten Namens impliziere ich größere Bedeutung für mich selbst und den Effekt, welche er anderenfalls nicht hätte).

Kurz beschrieben lautet der Gell-Mann-Amnäsie-Effekt so: Man schlägt die Zeitung auf und stößt auf einen Artikel über etwas, über das man gut Bescheid weiß. In Murrays Fall war das Physik. In meinem Fall war es Show-Business. Man liest den Artikel und stellt fest, dass der Journalist absolut keine Ahnung hat, weder hinsichtlich der Fakten noch der Thematik. Oftmals ist der Artikel so falsch, dass er tatsächlich die Story von hinten aufzäumt – indem Ursache und Wirkung vertauscht werden. Ich nenne dies die „wet streets cause rain“-Storys [was man etwa übersetzen könnte mit „weil die Straßen nass sind, regnet es“]. Zeitungen sind voll davon.

In jedem Falle liest man mit Verbitterung oder auch amüsiert die multiplen Fehler in einer Story und blättert dann um zur Seite mit den nationalen oder internationalen Angelegenheiten. Diese liest man dann so, als ob sie irgendwie genauer sind über Palästina als der Unsinn, den man eben gelesen hat. Man blättert um und vergisst, was man weiß.

Das ist der Gell-Mann-Amnäsie-Effekt. Ich möchte betonen, dass er in anderen Arenen des Lebens nicht aktiv ist. Im normalen Leben ist es so: falls jemand einen permanent anlügt, wird man bald alles, was jener sagt, verwerfen. Vor Gericht gibt es eine gesetzliche Doktrin von falsus in uno, falsus in omnibus, was bedeutet Unwahrheit in einem Teil – Unwahrheit in Allem. Aber wenn es um Medien geht, glauben wir gegen alle Beweise, dass es uns unsere Zeit wahrscheinlich wert ist, andere Teile der Zeitung zu lesen. Und das, wenn das fast mit Sicherheit nicht der Fall ist. Die einzig mögliche Erklärung für unser Verhalten ist Amnäsie.

[Und ich dachte, nur die Deutschen wären so zeitungsgläubig, wie sie nun mal sind! Anm. d. Übers.]

Ein Problem mit der Spekulation besteht also darin, dass man den Gell-Mann-Effekt unberechtigter Glaubwürdigkeit huckepack mit sich herumträgt, was die Spekulation als brauchbarer aussehen lässt als sie ist.

Ein weiteres Thema ist die schiere Masse von Spekulation. Die schiere Masse impliziert einen Wert, der fadenscheinig ist. Ich nenne dies den There-Must-Be-A-Pony-Effekt, abgeleitet aus dem alten Witz, dass ein Kind am Weihnachtsmorgen die Treppe herabkommt, den Raum voller Pferdemist vorfindet und vor Freude in die Hände klatscht. Seine erstaunten Eltern fragen: Warum bist du so glücklich? Es antwortet, bei so viel Pferdemist muss ein Pony da gewesen sein.

Weil wir in jeder Hinsicht mit Spekulation konfrontiert werden, in gedruckter Form, in Videos, im Internet, bei der Konversation können wir möglicherweise zu dem Schluss kommen, dass sie von Wert sein muss. Das ist sie aber nicht. Und zwar weil – egal wie viele Menschen spekulieren, egal wie bekannt deren Gesichter, wie gut ihr Makeup ist und wie gut sie daherkommen; egal wie lange sie vor uns persönlich oder in Kolumnen in Erscheinung treten – es wahr bleibt, dass keines dieser Individuen weiß, was die Zukunft bringt.

Einige Menschen glauben insgeheim, dass die Zukunft bekannt gemacht werden kann. Sie stellen sich zwei Gruppen vor, die über die Zukunft Bescheid wissen und auf die man deswegen hören sollte. Die erste Gruppe sind die Experten [pundits]. Da sie sich die ganze Zeit über die Zukunft auslassen, müssen sie doch wissen, wovon sie reden. Ist das so? „Brill’s Content“ [hier steht, was damit gemeint ist; Anm. d. Übers.] geht üblicherweise den Vermutungen der Experten nach, und während der eine oder andere auch mal einen Treffer erzielt, sind diese Vermutungen über die Zeit nicht besser als Zufall. Dies würde man auch erwarten. Weil niemand die Zukunft kennt.

Ich möchte im Vorübergehen noch erwähnen, dass Expertentum mit den Jahren eine subtile Veränderung durchlaufen hat. In den alten Zeiten haben Kommentatoren wie Eric Sevareid die meiste Zeit damit zugebracht, Ereignisse in einen Zusammenhang zu stellen und einen Standpunkt zu beschrieben über das, was bereits geschehen ist. Darüber sprechen, was sie dachten, war wichtig oder irrelevant hinsichtlich der Ereignisse, die bereits stattgefunden hatten. Dies ist natürlich eine legitime Funktion der Expertise in jedem Bereich menschlichen Wissens.

Aber mit den Jahren hat sich das vertrauen in Expertentum von der Diskussion über Geschehenes weg verschoben hin zu Diskussionen über das, was geschehen könnte. Und hier haben die Experten keinerlei Vorteil aus ihrer Expertise. Schlimmer noch, sie könnten versuchen, wie die Sonntagspolitiker die eine oder andere Agenda durchzupauken mittels der Prophezeiung von deren unmittelbar bevorstehenden Kommen oder Niedergang. Das ist politischer Aktionismus, keine Prophezeiung*.

[*Unübersetzbares Wortspiel: ,This is politicking, not predicting‚].

Die zweite Gruppe, von denen manche Menschen die Vorstellung haben, dass sie über die Zukunft Bescheid wissen, sind Spezialisten unterschiedlicher Art. Die wissen das aber auch nicht. Als Grenzfall möchte ich daran erinnern, dass es einen neuen Bereich gibt, der Spezialisten gebiert – ich weigere mich, es eine Disziplin oder einen Studienbereich zu nennen – Futurismus genannt. Das Narrativ hier lautet, dass einen Weg gibt, Trends zu studieren und zu wissen, was die Zukunft bringt. Das wäre tatsächlich wertvoll, falls es möglich wäre. Aber es ist nicht möglich. Futuristen wissen nicht mehr über die Zukunft als Sie und ich. Man lese deren Zeitschriften von vor ein paar Jahren, und man wird eine endlose Kette der Irrtümer finden.

Expertise ist kein Schutzschild gegen grandiose Fehleinschätzungen. Darum war es Thomas Watson, der Chef von IBM, der prophezeite, dass die Welt höchstens 4 oder 5 Computer brauchen würde. Das ist so falsch wie etwas nur sein kann – prophezeit von einem Mann, der in jeder Hinsicht informiert war darüber, wovon er sprach.

Nicht nur, dass er einen Trend falsch bewertete oder eine Technologie, sondern auch, dass er die Myriaden Verwendungszwecke nicht verstand, für die man eine Maschine allgemein rüsten kann. Genauso lag auch Paul Ehrlich, ein brillanter Akademiker, der sein gesamtes Leben ökologischen Themen widmete, mit fast allen seinen großen Prophezeiungen falsch.

Er lag falsch hinsichtlich schwindender Ressourcen, hinsichtlich der Bevölkerungsexplosion, und er lag falsch mit seiner Prophezeiung, dass bis zum Jahr 2000 50% aller Spezies ausgestorben sein würden. Er widmete sein Leben intensiv empfundenen Bereichen – und lag doch spektakulär falsch.

Nun gut, könnte man sagen, wir akzeptieren, dass man die Zukunft nicht kennen kann in der Art und Weise, wie ich es hier beschreibe. Aber was ist mit dringlicheren Dingen wie etwa die Auswirkungen unerledigter Gesetzgebung? Sicher ist es wichtig, darüber zu reden, was passieren kann, falls bestimmte Gesetze eingeführt werden. Nun – nein, ist es nicht. Niemand weiß, was passieren wird, wenn das Gesetz eingeführt wird. Hierfür möchte ich zwei Beispiele nennen, eines von den Linken und eines von den Rechten.

Das erste Beispiel ist die Clinton’sche Wohlstandsreform, welche hart kritisiert wurde seitens seines eigenen linken Flügels, weil er Anleihen in einer Agenda der Republikaner machte [Clinton war natürlich von den Demokraten. Anm. d. Übers.]. Den Prophezeiungen der Linken zufolge sollten sich daraus menschliches Leiden, bittere Kälte, Kindesmissbrauch, und schreckliche Folgen ergeben. Und was geschah? Nichts dergleichen! Kindesmissbrauch nahm ab. Tatsächlich war die Reform, wie es bei Reformen der Regierung manchmal ist, ein Erfolg; aber Mother Jones [eine Zeitschrift; mehr hier bei Wikipedia] prophezeit immer noch düsterste Effekte, die unmittelbar bevorstehen.

Dieses Scheitern bei der Prophezeiung von Auswirkungen eines Programms spiegelte sich in hysterischem Geschrei von den Rechten bei den Republikanern über steigenden Mindestlohn. Chaos und düstere Zeiten würden sicher folgen, wenn Firmen ihre Türen schließen und das Land in eine überflüssige Rezession gestürzt würde. Aber was waren die wirkliche Auswirkungen? Im Grunde gar keine. Wer diskutiert jetzt noch darüber? Niemand! Was wird geschehen, falls es einen neuen Versuch geben würde, den Mindestlohn anzuheben? Die gleichen düsteren Prophezeiungen noch einmal. Haben wir irgendetwas gelernt? Nein!

Aber mein Punkt ist – bei bevorstehender Gesetzgebung ebenso wie mit allem Anderen – niemand kennt die Zukunft.

Gleiches ist auch wahr hinsichtlich der Auswirkungen von Wahlen und Verabredungen. Welche Auswirkungen hat die Wahl eines bestimmten Präsidenten oder eines Obersten Gerichtshofes? Niemand weiß es. Einige von Ihnen sind alt genug, sich an die berühmte Kolumne von Art Buchwald während der Tage der Johnson-Regierung zu erinnern. Buchwald schrieb einen Beitrag mit dem Titel „Thank God we don’t have Barry Goldwater“ [seinerzeit der Gegenkandidat zu Johnson. Anm. d. Übers.]. Darin erinnerte er daran, wie jedermann befürchtete, dass Goldwater uns in einen großen Krieg ziehen würde. Also wählten wir Johnson, der nichts Eiligeres zu tun hatte als 200.000 Soldaten nach Vietnam zu schicken. Das ist es, was passiert, wenn man einen sich friedlich gerierenden Kandidaten wählt [a dove-ish candidate]. Man bekommt einen Krieg. Oder man wählt den intellektuell brillanten Jimmy Carter, und wird Zeuge, wie er persönlich damit endet zu bestimmen, wer auf den Tennisplätzen des Weißen Hauses spielen darf. Oder man wählt Richard Nixon, der den Stecker aus der Vietnam-Sache herausziehen kann und der dann den Kampf noch Jahre fortsetzt. Und dann China öffnet*.

[*Damit ist hier natürlich nicht China gemeint, sondern das ,China Syndrome‘. Mancher wird mit dem Begriff noch etwas anfangen können. Wer nicht – hier bei Wikipedia steht mehr. Anm. d. Übers.]

Genauso ist die Historie von Entscheidungen des Obersten Gerichtshofes eine endlose Folge von Fehlern hinsichtlich Prophezeiungen von Rechtsprechung, wenn man erst einmal vor Gericht landet. Nicht alle sind überraschend, aber sehr viele schon.

Können wir also hinsichtlich unmittelbar bevorstehender Ereignisse überhaupt irgendetwas vorhersagen? Nein! Dazu reicht es schon sich anzuschauen, was vor dem Fall der Mauer in Berlin gesagt worden ist. Schon dabei sieht man, dass niemand auch nur ein paar Stunden im Voraus etwas prophezeien kann. Menschen sagten alle Arten von Dummheiten bzgl. des Kommunistischen Weltreiches – nur Stunden vor dessen Zusammenbruch. Ich kann hier keine Beispiele zitieren, weil ich dazu erst Faktensuche betreiben müsste, was ich versprochen habe, nicht zu tun. Aber glauben Sie mir, man findet idiotische Statements noch von 24 Stunden zuvor.

Niemand kennt die Zukunft!

Nun ist das keine neue Information.Es war Mark Twain, der gesagt hat: „Ich habe einen Haufen Schwierigkeiten in meinem Leben vorhergesehen, und die meisten davon sind niemals passiert“.

Und Vieles von dem, was die Politiker sagen, ist nicht so sehr eine Prophezeiung, sondern ein Versuch, es wahr werden zu lassen. Es ist Argumentation maskiert als Analyse. Aber es überredet nicht wirklich irgendjemanden. Weil die meisten Menschen es durchschauen.

Falls Spekulation also nutzlos ist, warum gibt es dann so viel davon? Liegt es daran, dass die Menschen sie haben wollen? Das glaube ich nicht. Ich selbst spekuliere, dass sich die Medien der Spekulation zugewandt haben aus den Medien eigenen Gründen. Schauen wir also mal auf die Vorteile der Spekulation von einem Standpunkt der Medien aus:

1. Sie ist unglaublich billig. Schwatzen ist billig. Und Spekulations-Shows sind das Billigste, was man im Fernsehen bieten kann. Sie sind fast genauso billig wie das Senden eines Testbildes. Spekulation erfordert keine Forschung, keinen großen Stab an Mitarbeitern. Minimalen Aufwand. Lediglich den Moderator, Buchung der Teilnehmer – an denen es keinen Mangel gibt – und fertig! Einfach Show! Keine Reporter in verschiedenen Städten auf der ganzen Welt, keine Film-Crew am Drehort. Keine Ultimaten, kein Filmmaterial, welches bearbeitet werden müsste, keine Editoren … nichts! Einfach nur Gerede. Billig.

2. Man kann nicht verlieren. Obwohl die Spekulation nur zufällig auch mal stimmt, was bedeutet, dass man in jedem Falle zu 50% falsch liegt, erinnert sich niemand daran, weshalb sich auch niemand darum schert. Man ist niemals haftbar. Die Zuhörerschaft erinnert sich nicht an gestern, geschweige denn an die vorige Woche oder den vorigen Monat. Medien existieren nur im ewigen Jetzt, in dieser Minute, in dieser Krise, bei diesem Fernsehansager, in dieser Kolumne, bei dieser Spekulation.

Einer der klarsten Beweise hierfür ist die Kontroverse um die Currents of Death [= elektromagnetische Strahlung unter Strom-Überlandleitungen. Anm. d. Übers.]. Sie hatte ihren Ursprung im Journal The New Yorker, welches seit fünfzig Jahren eine sprudelnde Quelle falscher wissenschaftlicher Spekulation ist. Aber mein Punkt ist Folgender: Viele der Menschen, die vor zehn Jahren wild darauf waren, in ihren Häusern gefährliche elektromagnetische Strahlung zu messen, geben jetzt Tausende Dollar aus für den Kauf von Magneten, die sie um ihre Arme und Fersen wickeln wegen der vermeintlich die Gesundheit fördernden Effekte von Magnetfeldern. Diese Menschen erinnern sich nicht daran, dass es sich dabei um genau die gleichen magnetischen Felder handelt, die sie früher zu vermeiden trachteten. Und weil sie sich nicht erinnern, kann das Journal genau wie der Medien-Spekulant nicht verlieren.

Diesen Gedanken, dass man dabei nicht verlieren kann, möchte ich noch etwas weiter ausführen. Das ist nicht auf die Medien beschränkt. In den meisten Bereichen des intellektuellen Lebens hat man die Werte der Spekulation entdeckt und wild für sich vereinnahmt. In der Akademia wird Spekulation normalerweise als Theorie gewürdigt. Es ist faszinierend: sogar obwohl die intellektuelle Haltung der postmodernen deconstructionist era gegen die Theorie ist, besonders gegen allumfassende Theorien, ist das was jeder Akademiker zum Ausdruck bringen möchte, eine Theorie.

Dies ist teilweise übergeschnappte Wissenschaft, aber es ist auch ein Flucht-Türchen. Eine genaue Lektüre der Texte von Jane Austen kann man gut als falsch empfinden, und ein kenntnisreicherer Antagonist kann auch zeigen, dass sie falsch sind. Aber die Theorie der radikalen Feminisierung und autoritären Revolte in den Arbeiten von Jane Austen sind auch unberührbar. Unsere Standpunkte hinsichtlich der Ursprünge der Ersten Weltkrieges können durch andere Institutionen wesentlich genauer erklärt werden als von uns. Aber ein Beitrag eines New Historicist, in welchem durchaus unsere eigene Phantasie enthalten sein kann, welche das sein könnten, würden so sein wie als ob man während des ersten Krieges Soldat war … nun, das ist nicht debattierbar.

Ein hervorragender Bereich für spekulative akademische Arbeiten ist das Unbekannte. Dieser Tage sind religiöse Gegenstände in Ungnade, aber es gibt immer noch viele gute Themenbereiche. Die Natur des Gewissens, die Arbeit des Gehirns, der Ursprung von Aggression, der Ursprung der Sprache, der Ursprung des Lebens auf der Erde, SETI und Leben auf anderen Welten … all das ist großartiges Zeug. Wunderbares Zeug. Man kann endlos darüber debattieren. Aber dem kann nicht widersprochen werden, weil niemand die Antwort auf irgendeines dieser Themen kennt – was wahrscheinlich auch niemals der Fall sein wird.

Aber das ist nicht die einzige Strategie, die man heranziehen kann. Weil die medien-indoktrinierte Öffentlichkeit Behauptungen aus der Vergangenheit ignoriert und vergisst, kommen heutzutage selbst Autoren ungeschoren davon, wenn sie harte Daten präsentieren, die sich dann erwiesenermaßen als falsch herausstellen.

[Woher ,wusste‘ Crichton im Jahre 2002, als er dies schrieb, von den jetzt offenbar gewordenen Manipulationen der NOAA? Anm. d. Übers.]

Eine der am konsistentesten falsch liegenden Denker der letzten Jahre, Carol Gilligan von Harvard, einst ,Wissenschaftlerin des Jahres‘ des MS-Magazins, musste vieles von dem, was sie je geschrieben hatte, zurückziehen oder modifizieren. Und doch hat ihr Ruf als profunde Denkerin und bedeutende Untersucherin keinerlei Schaden genommen. Man muss nicht recht haben, nicht mehr. Niemand erinnert sich.

[Gibt’s da nicht auch einen Mojib Latif von gleichem Kaliber? Anm. d. Übers.]

Dann gibt es da die spekulativen Arbeiten von Anthropologen wie Helen Fisher, die behaupten, uns etwas über die Ursprünge der Liebe oder der Untreue mittels Verweisen auf andere Gesellschaften, auf das Verhalten von Tieren und fossilen Aufzeichnungen zu vermitteln. Wie kann sie falsch liegen? Es ist unüberprüfbar, unbeweisbar, einfach so Stories.

Und damit nicht jemand sich vorstellt, dass Dinge in der Hard Science anders sind, denke man an die String-Theorie, seit fast zwanzig Jahren die dominante physikalische Theorie. Mehr als eine Generation von Physikern hat an der String-Theorie gearbeitet. Aber – falls ich sie richtig verstehe, was vielleicht nicht der Fall ist – die String-Theorie kann nicht getestet oder bewiesen oder widerlegt werden. Obwohl einige Physiker bei dem Argument, dass eine unüberprüfbare Theorie nichtsdestotrotz wissenschaftlich ist, die Augen verdrehen, wer leistet wirklich Widerstand? Man erkenne: Eine unüberprüfbare Theorie ist ideal! Die Karriere ist gesichert!

Kurz gesagt, so lange man spekuliert, kann man nicht verlieren. Diese Erkenntnis ist weit verbreitet. Und sie ist perfekt für das Informations-Zeitalter, welches ein Füllhorn von Wissen verspricht, aber nur ein Füllhorn voll Quacksalberprodukten liefert.

Und nirgendwo steht geschrieben, dass die Medien akkurat oder nützlich sein müssen. Das waren sie nicht während der allermeisten Zeit der Historie. Also spekulieren sie jetzt … na und? Was ist daran falsch?

1. Die Tendenz zum Exzess. Die Tatsache, dass es sich nur um Gerede handelt, macht Dramatik und Spektakel unwahrscheinlich – es sei denn, das Gerede wird hitzig und exzessiv. Also wird es exzessiv. Nicht in jeder Show tritt der Kampf um Stoff nach Art eines Kreuzverhörs zutage, aber es ist eine Tendenz in allen Shows.

2. Die „Verkritisierung“ von allem und jedem ist möglich. Die meiste Spekulation ist nicht fesselnd, weil die meisten Ereignisse nicht fesselnd sind – Mensch, ich frage mich was mit der Deutschen Mark passieren wird! Werden sie ihre Arbeits-Probleme unter Kontrolle bekommen? Dies dient dem wohlbekannten Bedarf der Medien nach einer Krise. Krise bei der Deutschen Mark! Oh je! Passt auf! Krisen einigen das Land, ziehen Zuschauer in großer Zahl an und liefern etwas, über das sich treffend spekulieren lässt. Ohne Krise wird das Gerede bald zu einer Debatte darüber degenerieren, ob die Schiedsrichter eines Footballspiels das letzte Footballspiel hätten noch einmal begutachten sollen. Es gibt also eine Tendenz zu Dringlichkeit und Bedeutung zu hypen und ein Geh-Hin-Gefühl zu vermitteln, wenn das nicht wirklich angemessen ist. Man betrachte die ellenlange Schriftrolle unten im Bildschirm bei der Beerdigung der Königin-Mutter. Wie auch immer die Story um die Königin-Mutter geartet ist, es ist keine Krise. Ich habe sogar ein paar Tage lang die Berichterstattung über meine eigene Scheidung auf CNN verfolgt. Es ist irgendwie schmeichelhaft, obwohl die Darstellung falsch war. Aber meine Scheidung ist mit Sicherheit keine ultimative Brandnachricht.

3. Oberflächlichkeit als Norm. Es muss schnell gehen. Man muss sofort zu den Höhepunkten kommen. Spekulation ist der Oberflächlichkeit förderlich. Das ist es, oder?

4. Endlose Präsentation von Unsicherheit und Konflikten kann Lösungen von Dingen in die Quere kommen. Es gibt einige Beweise, dass die Verteilungskämpfe im Fernsehen nicht nur nicht die Meinungen der meisten Menschen repräsentieren – die nicht so polarisiert sind – sondern dass sie dazu tendieren, die Lösungen aktueller Streitfälle in der realen Welt schwieriger zu machen. Zu allermindest verschleiern diese Verteilungskämpfe die Erkenntnis, dass Streitfälle jeden Tag gelöst werden. Kompromisse bei relativ zentralen Positionen sind viel einfacher als bei extremen oder feindlichen Positionen, die miteinander im Konflikt stehen: Greenpeace gegen die Holzindustrie.

5. Die unendliche Kette von Spekulationen pflastert den Weg zum Streit über Brustimplantate, Hysterie über das Jahr-2000-Problem oder globale Erwärmung, Artikel im The New Yorker über Todesströmungen [currents of death] und eine Vielzahl anderer Resultate, deren Eintreffen keine guten Dinge wären. Es kommt irgendwann zu der Vorstellung – was für die Medien sehr bequem ist – dass am Ende nichts sicher ist. Wenn das tatsächlich nicht wahr ist.

Ich möchte auf eine vorzeigbare schlimme Auswirkung der Hypothese hinweisen, dass nichts wirklich erfahrbar ist. Das Whole Word Reading [ein neues System zum Erlernen von Wörtern in der Grundschule, Anm. d. Übers.] wurde eingeführt durch die Bildungsschulen im ganzen Land, meines Wissens ohne irgendein Test der Effizienz der neuen Methode. Sie war auf einmal da. Generationen von Lehrern wurden mit diesen Methoden indoktriniert. Als Folge davon weisen die USA eine der höchsten Analphabetenrate in der industrialisierten Welt auf. Die Hypothese, dass man nichts mit Sicherheit weiß, hat schreckliche Konsequenzen.

GK Chesterton sagte (in einem anderen Zusammenhang): „Falls man an nichts glaubt, glaubt man an alles“. Genau das erleben wir heute. Die Menschen glauben alles.

Aber einfach ausgedrückt als allgemeine emotionale Haltung des Lebens glaube ich oft, dass Menschen nervös und überspannt sind in diesem medialen Klima von Was ist, wenn… vielleicht…, könnte sein, dass… obwohl es einfach keinen Grund gibt, nervös zu sein. Genau wie ein bärtiger Kuttenträger auf einem Bürgersteig, der unentwegt das kurz bevorstehende Ende der Welt verkündet, machen die Medien genau das, was sich gut anfühlt, und berichten nicht über harte Fakten. Wir müssen anfangen, die Medien als den bärtigen Ultra auf dem Bürgersteig zu sehen, der falsche Befürchtungen hinaus brüllt. Es ist nicht vernünftig, darauf zu hören.

Wir müssen anfangen, uns daran zu erinnern, dass jeder, der seinerzeit sagte, das Jahr-2000-Problem sei kein wirkliches Problem, entweder niedergebrüllt oder von der Öffentlichkeit fern gehalten worden ist. Gleiches gilt für Bereiche wie das Aussterben von Spezies und globale Erwärmung. Man hört niemals jemanden, der sagt, das ist keine Krise. Das möchte ich nicht weiter vertiefen, weil es uns zur Heranziehung von Fakten bringen könnte, aber ich möchte zwei Berichte erwähnen, von denen ich spekuliere, dass Sie von diesen noch nie gehört haben. Der erste Bericht findet sich im Magazin Science vom 18. Januar 2001 (Oha! Eine Tatsache!), dass im Gegensatz zu früheren Studien die Antarktische Eismasse zu- und nicht abnimmt, und dass diese Zunahme bedeutet, dass wir endlich ein Ende des Schrumpfens der Eismasse sehen, welche bereits seit Tausenden von Jahren im Gange ist, seit Beginn des Holozäns. Ich weiß nicht, was überraschender ist – das Statement, dass das Eis zunimmt, oder das Statement, dass die Schrumpfung Tausende Jahre der globalen Erwärmung vorausgegangen ist.

Die zweite Studie ist ein Bericht der National Academy of Sciences über die ökonomischen Auswirkungen des jüngsten El Nino-Ereignisses von 1997 [zur Erinnerung, dieser Beitrag stammt aus dem Jahr 2002, Anm. d. Übers.]. Jene Erwärmung erbrachte einen Gesamt-Profit von 15 Milliarden Dollar für die Wirtschaft. Darin enthalten sind die Verluste von 1,5 Milliarden in Kalifornien durch Regen, welche jedoch ausgeglichen wurden durch billigere Treibstoffrechnungen infolge eines milderen Winters und einer längeren Wachstumssaison. Gesamtergebnis 15 Milliarden an gestiegener Produktivität.

Das Andere, was ich erwähnen möchte ist, dass während der letzten 100 Jahre, während die mittlere Temperatur um lediglich 0,3°C gestiegen ist, das Magnetfeld der Erde um 10% abgenommen hat. Dies hat viel stärkere Auswirkungen als globale Erwärmung und ist potentiell für das Leben auf diesem Planeten weitaus ernster.

Unser Magnetfeld ist das, was die Atmosphäre bereit hält. Sie schirmt uns ab vor tödlicher Strahlung aus dem Weltall. Eine Abnahme des Erdmagnetfeldes um 10% ist extrem besorglich. Aber wer ist besorgt? Niemand! Wer ruft nach Gegenmaßnahmen? Niemand! Warum nicht? Weil man nichts dagegen tun kann. Wie das in Relation zur globalen Erwärmung zu setzen ist, möchte ich Ihrer eigenen Spekulation überlassen.

Persönlich denke ich, dass wir uns von den Medien abwenden sollten, und die Daten zeigen, dass wir das bereits tun, zumindest was die Fernsehnachrichten betrifft. Ich finde, dass wann immer es mir fehlt, den Medien ausgesetzt zu sein, ich viel glücklicher bin, und mein Leben fühlt sich besser an.

Abschließend möchte ich daran erinnern: Während es so Manches gibt, das wir nicht sicher wissen können, gibt es viele Dinge, die herausgefunden werden können und tatsächlich auch herausgefunden werden. Jedoch nicht durch Spekulation. Sondern durch sorgfältige Untersuchung und rigorose statistische Analyse. Da wir in diesem vorübergehenden Ozean von Spekulation schwimmen, vergessen wir, dass man Dinge mit Sicherheit wissen kann, und dass wir nicht in einer angstvollen Welt unendlicher, nicht gestützter Meinungen leben. Aber der Graben, der harte Fakten von Spekulation trennt, ist inzwischen so unbekannt, dass die meisten Menschen ihn nicht fassen können. Vielleicht kann ich ihn mit folgender Geschichte verdeutlichen:

Auf einem Flug nach Europa platzierte man mich neben einem Mann, der sehr unglücklich ist. Es stellt sich heraus, dass er ein Arzt ist, den man für eine zweijährige Doppelblind-Studie für die FDA [= die amerikanische Gesundheitsbehörde, Anm. d. Übers.] engagiert hatte bzgl. der Wirksamkeit von Medikamenten, und es könnte zum Fenster hinaus geworfen sein. Nun bedeutet eine Doppelblind-Studie, dass es vier separate Forscherteams gibt, die untereinander keinen Kontakt haben – vorzugsweise arbeiten sie an unterschiedlichen Universitäten in verschiedenen Teilen des Landes. Das erste Team definiert die Studie und legt die Behandlungsweisen fest, die wirklichen Arzneien und die Kontrollen. Das zweite Team erklärt die Einnahme den Patienten. Das dritte Team sammelt die Daten und schätzt unabhängig die Wirkung der Arznei auf jeden Patienten. Das vierte Team sammelt die Daten und führt eine statistische Analyse durch. Die Kosten dieser Art von Studien betragen, wie man sich vorstellen kann, Millionen Dollar. Und die Teams dürfen sich niemals treffen.

Mein Nachbar ist unglücklich, weil Monate nach Ende der Studie er in einem Wartesaal am Flughafen Frankfurt ins Gespräch mit einem anderen Mann dort gekommen war, und sie entdecken – zu ihrem Schrecken – dass sie beide in der Studie involviert waren. Mein Nachbar war in dem Team, welches die Arzneien verabreichte. Der andere Mann war in dem Team mit den Statistiken. Es gibt keinen Grund, warum einer den anderen zu diesem späten Zeitpunkt beeinflussen sollte, aber nichtsdestotrotz verlangt das Protokoll, dass sich die Teammitglieder niemals treffen. Und so wartet mein Nachbar jetzt darauf, von der FDA zu hören, ob diese die Studie insgesamt einstampfen wollte wegen dieses zufälligen Zusammentreffens in Frankfurt.

Das sind jene Strapazen, durch die man hindurch muss, falls man sicher sein will, dass seine Information korrekt ist. Aber wenn ich den Menschen diese Story erzähle, starren sie mich nur verständnislos an. Sie finden das absurd. Sie glauben nicht, dass es notwendig ist, all das zu tun. Sie glauben, es ist Overkill. Sie leben in der Welt von MSNBC und der New York Times. Und sie haben vergessen, was reale, zuverlässige Informationen sind sowie die Mühen, diese zu erhalten. Das ist so viel schwerer als einfach nur zu spekulieren.

Herzlichen Dank!

International Leadership Forum, La Jolla (26 April 2002)

Quelle: http://larvatus.com/michael-crichton-why-speculate/

Übersetzt von Chris Frey EIKE




Energiepreise: Deutschland endlich mal (fast) wieder Spitze!

Wir in Deutschland sind die Guten. Deutschland rettet die Welt vor dem Klimakollaps, der Feinstauberdrosselung und dem Atomtod. Wir sind Vorreiter. Wir streben nach einer nachhaltigen Energieversorgung. Koste es, was es wolle.

Dafür wenden wir in Deutschland sogar die Energie. Wenden uns weg von den bösen Energieträgern Atom, Diesel, Kohle und Gas, hin zu den guten Energieträgern Sonne und Wind. Die sind bekanntlich gut, weil sie keine Rechnung schicken. Dafür schickt der Staat eine: 54 Prozent beträgt derzeit der Staatsanteil an den Stromkosten. Nö, nicht bezahlt, sondern einkassiert. Je teurer der Strom in Deutschland wird, umso mehr Geld streicht der Finanzminister ein. Für den guten Zweck natürlich.

Eine weitere Rechnung schicken die Windbarone und Sonnenkönige, die „Umlage für die Förderung der Erneuerbaren Energie“ ist 2017 von 6,35 auf 6,88 Cent pro Kilowattstunde  gestiegen. Das bedeutet einen Stromkostenanstieg für einen Durchschnittshaushalt um 45 Euro pro Jahr. Die nächste Welle der Strompreiserhöhung rollt. Da freut sich der Finanzminister, weil er durch sprudelnde Steuerquellen „noch mehr Überschuss erzielt„, ohne dass die Regierung die Steuern erhöhen muss. Da freut sich auch der Zahnarzt mit dem Solardach, dass von seiner Sprechstundenhilfe bezahlt wird – natürlich auch nur für den guten Zweck (Womit ich nichts gegen Zahnärzte sagen will, sie können hier jeden Gutverdiener Ihrer Wahl einsetzen).

Der Thinktank Agora-Energiewende hat versprochen:

Nach der Bundestagswahl sollte die Energiepolitik daher das System der Steuern, Abgaben und Umlagen auf Energie komplett überarbeiten. Denkbar wäre es etwa, die Stromkosten zu senken, und die Abgaben und Umlagen auf klimaschädliche Energieträger wie Kohle, Heizöl, Diesel, Benzin und Gas zu verlagern.“

Da haben wir ja nochmal Glück gehabt, dass dann Strompreise nicht noch weiter ansteigen sollen, sondern nur die Preise für die klimaschädliche Kohle, das böse Heizöl, das üble Benzin und Russen-Gas.

Kalt duschen ist bekanntlich sehr gesund

Mit ca. 30 Cent pro Kilowattstunde hat Deutschland den zweithöchsten Strompreis Europas und gute Chancen, Dänemark in diesem Jahr zu überholen und damit auf dem wohlverdienten ersten Platz zu landen. Strompreismässig weit abgeschlagen sind dagegen solche zurückgebliebenen Agrarländer wie Frankreich oder Finnland mit einem Strompreis von 16 Cent pro Kilowattstunde. Aber die betreiben ja auch viele der bösen Atomreaktoren.

Mehr als 330.000 deutschen Haushalten wurde 2016 der Strom abgestellt, weil sie ihn nicht mehr bezahlen konnten. „Energiearmut“ wird das böswillig von den ewig gestrigen Gegnern der Energiewende genannt, dabei ist es nur Geldarmut. Und häufig wird den Gegnern der Energiewende der Gemütlichkeitsfaktor der Energiearmut verschwiegen: Familien sitzen gemütlich beim trauten Kerzenschein zusammen und lesen wieder mal gemeinsam in der Bibel oder singen zur Blockflöte „Schneeglöckchen, Weißröckchen„, weil auch Fernseher und Radio nicht ohne Strom funktionieren. Und kalt duschen ist ja bekanntlich auch sehr gesund. Diese Gemütlichkeit wird allerdings den „vor Kurzen zu uns Gekommenen“ nicht vergönnt. Die Kosten für ihren Energieverbrauch werden nämlich „von der Kommune bezahlt„, wie es so schön heißt.

Laut Agora-Energiewende „wird in der Bevölkerung die Energiewende weiterhin positiv gesehen – die Zustimmung ist 2016 sogar noch gewachsen. So halten 93 Prozent der Bundesbürger in einer jährlich wiederholten Umfrage die Energiewende für „wichtig“ oder „sehr wichtig“ – eine Verbesserung um drei Prozentpunkte seit 2015 und der höchste Wert in fünf Jahren. Auch die Umsetzung wird besser beurteilt: 47 Prozent der Befragten halten sie inzwischen für „gut“ oder „sehr gut“. Das entspricht ebenfalls einer Verbesserung um drei Prozentpunkte…Die Jahresauswertung zeigt auch, dass 2016 das Jahr der billigen Energie war…„.

Jetzt verstehe ich auch die Statistiken, wonach sich eine Mehrheit der Deutschen den heiligen St. Martin Schulz als Bundeskanzler wünschen und sowohl CDU, als auch SPD jede Woche  in der Wählergunst zulegen.




Winter 2016/17 in Deutschland mit Hochdruck und eiskalten Über­raschungen- gute Aussichten für Frühjahr und Sommer?

 

Nur etwas überschätzt: Ein halbes bis ein Kelvin zu mild war der Winter diesmal in Mitteleuropa nicht, sondern fast temperaturnormal. Das ergab immerhin „Note 4“. Quelle: NOAA, Eingabezeitraum 21. bis 30.11.2016.

Hier zunächst die Daten für den abgelaufenen Winter 2016/17 (offizielles DWD- Deutschlandmittel):

Dezember 2016 +2,2°C Januar2017 -2,2°C Februar 2017 +2,9°C, Winter +1,0°C

Mittel 1981 bis 2010 Dez. +1,2°C Jan. +0,4°C, Feb. +0,9°C Winter 1980/81 bis 2009/10 +0,9°C

Abweichung Dez. +1 K, Jan. -2,6 K, Feb. +2,0 K, Winter +0,1 K

Zuerst wird im Folgenden nochmals die ursprüngliche Prognose gezeigt; direkt unter jeder Prognose erfolgt die Bewertung; generell auf die CLINO- Periode 1981 bis 2010 bezogen. Eine Bewertung mit objektiven Maßzahlen wie etwa dem Root Mean Square Error (rmse) oder der Reduktion der Varianz (RV) war leider bei keiner Prognose möglich; da man hierfür eine genaue Prognosezahl benötigt. Bei Intervallangaben wurde ein „Treffer“ daher mit Note 2 bewertet, wenn er dieses vorhergesagte Intervall traf; verfehlte er dieses um eine Stufe (statt etwa +0,5 bis +1,0 K vorhergesagt lag die Wintertemperatur in Deutschland diesmal im Intervall -0,5 bis +0,5 K), so ergab das Note 4, bei zwei Stufen Abweichung Note 5; bei noch mehr Abweichung Note 6. Bei Prognosen mit mehreren Teilprognosen (etwa für den gesamten Winter und die 3 Einzelmonate) wurden diese einzeln gewertet und dann die Gesamtnote gemittelt. Wo Bezugswerte und/oder konkrete Zahlenprognosen fehlten, so wurde eine Note abgewertet. Reine Wahrscheinlichkeitsaussagen konnten, sofern sie in etwa zutrafen, bestenfalls die Note 4 erhalten, weil ihr Aussagewert einfach zu gering ist.

UKMO (Großbritannien): Stand 14.11.2016 Winter (D, J, F) mit undeutlicher Wahrscheinlichkeit nur in Norddeutschland zu mild (folgende Karte):

Anmerkung: Hier wird nur die erste UKMO- Karte gezeigt. Es gibt zwei weitere, eine mit der Probability (Wahrscheinlichkeit) für einen normalen Winter und eine für einen zu kalten; beide weisen diesmal ebenfalls keine eindeutigen Wahrscheinlichkeiten auf. Die aktuellen Karten jederzeit unter http://www.metoffice.gov.uk/research/climate/seasonal-to-decadal/gpc-outlooks/glob-seas-prob

Bewertung: Fast zutreffend, besonders im Dez/Jan. war es an den Küsten zu mild, aber sehr unkonkret, Note 4

Meteo Schweiz Stand Nov. 2016: Leicht erhöhte Wahrscheinlichkeit für einen zu kalten Winter. Zu milder Winter fast so wahrscheinlich wie der Zufall (33,3%); normaler etwas weniger wahrscheinlich. Die „doppelten T“ sind die Fehlerbalken:

Bewertung: In der Nordostschweiz waren der Dezember etwas und der Januar deutlich sowie der Winter insgesamt etwas zu kalt, daher fast zutreffend, aber sehr unkonkret, Note 4

LARS THIEME (langfristwetter.com) Vorhersage vom 04.12.2016: Dezember und Februar normal; Januar deutlich zu mild; Winter insgesamt etwas zu mild und niederschlagsreich.

Bewertung: Winter insgesamt fast getroffen, aber Dezember und Februar deutlich und Januar völlig verfehlt, Note 5

Kaltwetter.com Prognose vom 28.11.2016: Winter insgesamt normal, wobei Dezember und Februar etwas zu mild werden sollen, der Januar aber deutlich zu kalt ausfällt.

Bewertung: Winter insgesamt und Dez/Jan. gut getroffen, Feb. leicht unterschätzt; Bezugswerte und konkret prüfbare Zahlen fehlen aber leider, daher Note 3

IRI (folgende Abbildung), Vorhersage vom Nov. 2016: Mit leicht erhöhter Wahrscheinlichkeit zu mild.

Bewertung: Fast zutreffend, aber sehr unkonkret, Note 4

DWD (Offenbach): Leicht erhöhte Wahrscheinlichkeit für einen kalten oder normalen Winter (Stand Nov. 2016):

Bewertung: Nur bedingt zutreffend, eine höhere Wahrscheinlichkeit für „mittel“ wäre richtiger gewesen, dazu sehr unkonkret, Note 5

NASA (US- Weltraumbehörde) Karte vom November 2016: Winter in Mitteleuropa etwa 1,5 bis 2,5 K zu mild. Bei dieser Karte liegt Mitteleuropa am linken Kartenrand, weit oben:

Bewertung: Winter deutlich um mehr als 2 Intervalle verfehlt, da bei weitem nicht so mild, Note 6. Die später veröffentlichten Prognosen, speziell die Vorhersage eines zu kalten Januars, waren dann deutlich zutreffender.

CFSv2- Modell des NOAA (Wetterdienst der USA, folgende 2 Abbildungen, Eingabezeitraum 15. bis 24.11.2016): Dezember (links) nur im Alpenraum und Januar (rechts) in den meisten Gebieten etwas zu mild; Februar (unten) überall viel zu mild. Winter insgesamt eher mild. Die vorhergesagten Temperaturabweichungen beziehen sich auf die Mittelwerte der Periode 1981 bis 2010. Die fast täglich aktualisierten, aber leider oft falschen Prognosen unter http://www.cpc.ncep.noaa.gov/products/people/wwang/cfsv2fcst/ (Europe T2m, ganz unten in der Menütabelle; E3 ist der aktuellste Eingabezeitraum):

Bewertung: Winter insgesamt fast getroffen und von den Einzelmonaten Dezember etwas zu kalt und Januar viel zu mild vorhergesagt; Februar gut getroffen, Note 4

Stefan Kämpfe (hier bei EIKE am 03.12.2016 veröffentlicht):

Die Prognosesignale sowie die Vorhersagen der Wetterdienste und Institute sind nicht eindeutig und sehr widersprüchlich. Es kündigen sich aber zumindest einige kältere Phasen im Frühwinter an; auch Perioden mit häufigen Frösten im Flachland sind im Dezember deutlich wahrscheinlicher, als in den Vorjahren. Insgesamt fällt der Winter nach momentanem Stand aber erneut zu mild aus, wenngleich vermutlich weniger deutlich, als in den Vorjahren, und wird im Deutschland- Mittel auf +1,0 bis +3,0°C geschätzt (LJM 1981 bis 2010 +0,9°C); bei den sehr widersprüchlichen Prognosesignalen muss die weitere Entwicklung aber noch abgewartet werden. In den Mittelgebirgen bestehen zumindest zeit- und stellenweise Wintersportmöglichkeiten, und Schneekanonen können gut eingesetzt werden. Geschätzte Dezember- Monatsmitteltemperatur für Erfurt- Bindersleben (Mittel 1981- 2010 +0,5°C) -1,5 bis +1,5°C (zu kalt bis etwas zu mild). Für Jan/Feb. 2017lässt sich noch kein Temperaturbereich schätzen! Das Schneeaufkommen ist kaum vorhersehbar (langfristige Niederschlagsprognosen sind besonders unsicher). Zur Winterlänge fehlen bisher ebenfalls noch Hinweise. Die Hochwinterwitterung (Jan/Feb.) kann erst anhand des Witterungstrends zum Jahreswechsel etwas genauer abgeschätzt werden; momentan muss noch ein Übergang zu sehr milder Witterung ernsthaft mit hoher Wahrscheinlichkeit in Betracht gezogen werden. Dank der bisherigen Zirkulationsverhältnisse (viele Trog- und Meridionallagen) bleiben aber winterliche Phasen oder wenigstens einen einzelner, kalter bis sehr kalter Wintermonat noch möglich. Sollte allerdings der Dezember tatsächlich zu mild ausfallen oder ein Umschwung zu milder Witterung mit Westwetter nach Mitte Dezember erfolgen, so erhöht das die Wahrscheinlichkeit für einen milden Hochwinter 2017 noch weiter.

Dieses Fazit wurde aus 30% der Tendenz der 2- K- September- Regel, 10% Sonnenaktivität, 20% Zirkulationsverhältnisse, 10% Mittelfrist- Modelle, 10% NAO, AMO,QBO, Polarwirbel, 10% Analogfälle und 10% der vorwiegenden Tendenz der Langfristprognosen gewichtet. Aktualisierung voraussichtlich Ende Dezember.

Bewertung: Aussage mit konkret nachprüfbaren Intervallen. Das Dezembermittel für Erfurt betrug 1,3°C und lag im vorhergesagten Intervall; das Wintermittel für Deutschland erreichte nach DWD 1,0°C und wurde gerade noch getroffen. Ein kalter Wintermonat wurde aber nur vage vermutet, dass es der Januar war, wurde nicht vorhergesagt. Die Charakteristik der Dezember- Temperaturverhältnisse traf insgesamt sehr gut zu; die Einschätzung des Hochwinters war teilweise ungenügend, der Übergang zu sehr mild erfolgte aber doch noch, wenngleich sehr spät (erst Mitte Feb.), wegen teilweiser Unkonkretheit Note 3

Ein lehrbuchreifes Beispiel für Inkonsistenz- die Schwierigkeiten einer Langfristprognose: Der Februar- Schlingerkurs des CFSv2- Modells (NOAA)

Wie schwer sich Modellrechnungen schon mit der Temperaturprognose des Folgemonats tun, zeigt das folgende Beispiel. Der Eingabezeitraum vom 21. bis zum 31. Januar 2017 ergab überall in Europa einen viel zu milden Februar. Gemessen am ohnehin schon hohen CLINO- Wert 1981- 2010 sollte es in Süd- und Mitteldeutschland um 3 bis 4 Kelvin (graubrauner Farbton) und in Norddeutschland um 1 bis 3 Kelvin (roter bis dunkelroter Farbton, Quelle: NOAA) zu warm sein:

Nur 9 Tage später, als die Kaltluft eines Skandinavien- Hochs längst in Nord- und Mitteldeutschland angekommen war, sah die Februarprognose ganz anders aus:

Nun sollte es in Norddeutschland um 0,5 bis 2 Kelvin zu kalt und nur in Südbayern um 0,5 bis 2 Kelvin zu warm werden. Letztendlich traf keine der beiden Prognosen zu; immerhin wurde das Temperaturgefälle zwischen Süd- und Norddeutschland in der ersten Prognose vage und in der zweiten relativ gut wiedergegeben.

Versagte diesmal die „2 K- Septemberregel“?

Auf den ersten Blick traf die Regel, wonach einem sehr milden September mit sehr hoher Wahrscheinlichkeit ein milder Winter folgen soll, diesmal nicht zu. Aber derart milde September sind im aktuellen Bezugszeitraum (1981 bis 2010) nur 3mal (1982, 1999 und 2006) aufgetreten- nach den Gesetzen der Statistik viel zu selten, um daraus brauchbare Prognosen abzuleiten. Zwar waren diese 3 Folgewinter teils extrem mild, aber der Februar 1983 fiel zu kalt aus; im Januar 2000 gab es kältere Abschnitte; nur der Winter 2006/07 war, abgesehen von einer kalten Woche im Januar, durchgängig zu mild. Bei Betrachtung des gesamten, seit 1761 verfügbaren Zeitraumes zeigte sich, dass die Regel auch diesmal für den gesamten Winter zutreffend war; einzelne, kalte Wintermonate schließt sie ja nicht aus:

Der Winter 2016/17 war, gemessen am Langfrist- Mittel seit 1761/62, also etwas zu mild.

Fazit: Obwohl die Langfristprognosen diesmal ein etwas besseres Ergebnis als in der Vorsaison lieferten, sind sie keine sicheren Vorhersagen und bleiben mit vielen Mängeln behaftet. Der chaotische Charakter der Abläufe in der Atmosphäre lässt trotz modernster Computer und fortschreitender Erkenntnisse in Meteorologie und Klimatologie keine sicheren Langfristprognosen zu. Vor diesem Hintergrund erscheint die politische Agenda des „Klimaschutzes“, welche sich ja auf noch viel langfristigere Vorhersagezeiträume von Jahrzehnten bis zu 100 Jahren bezieht, als ein aussichtsloses Vorhaben.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 02.03. 2017




Oberstes Gericht hat entschieden: Bundesbehörde darf Journalisten denunzieren

Was ist passiert?

Das Oberverwaltungsgericht (OVG) Magdeburg hat am 2. Februar 2017 einen Beschluss in der Sache „Miersch gegen Bundesrepublik Deutschland“ (Aktenzeichen 3 L 44/16.Z) gefasst. Darin lehnt das OVG meinen Antrag auf  Berufung gegen das Urteil des Verwaltungsgerichts Halle vom 18. November 2015 ab.

Dieser Beschluss ist letztinstanzlich. Seit Beginn des Verfahrens waren fast alle Beobachter davon überzeugt, dass das strittige Vorgehen des Umweltbundesamtes (UBA) vor Gerichte nicht bestehen wird. Jetzt hat die Behörde juristisch gesiegt.

Durch eine Verzögerung bei der Zustellung erreichte mich die Entscheidung erst jetzt.  Diese Pressemitteilung macht sie erstmals öffentlich. Weder das OVG Magdeburg noch das UBA haben (bisher) die Medien informiert.

Worum geht es?

2013 brachte das UBA eine Broschüre mit dem Titel „Und sie erwärmt sich doch“ heraus. Darin wurde erklärt, dass es bedauerlicherweise Wissenschaftler und Journalisten gibt, die Unwahrheiten über den Klimawandel verbreiten. Neben einigen anderen wurden ich (damals Ressortleiter Wissenschaft beim FOCUS) genannt. Konkret hieß es, meine Artikel würden „nicht mit dem Kenntnisstand der Klimawissenschaft übereinstimmen“ (Seite 112).

Die Broschüre ordnet mich in die Kategorie „Klimawandelskeptiker“ ein. An anderen Stellen des Textes werden die Machenschaften von Klimawandelskeptikern als unlauter dargestellt. Auch wird der Vorwurf erhoben, Klimawandelskeptiker seien bezahlte Lobbyisten der Ölindustrie. Dagegen habe ich geklagt, zunächst gemeinsam mit Dirk Maxeiner, der später aufgab, als die Kosten immer drückender wurden.

Am 18. November 2015 urteilte die 1. Kammer des Verwaltungsgerichts Halle (das Verfahren fand dort statt, weil das UBA in Sachsen-Anhalt beheimatet ist), die Äußerungen in der Broschüre seien nicht überzogen. Die Einordnung von Journalisten stehe im Einklang mit der Aufgabe des UBA, über Umweltfragen aufzuklären. Die Behauptung, Klimawandelskeptiker seien unlauter und von der Ölindustrie bezahlt, würden Leser nicht auf mich beziehen, da sie weiter vorne im Text steht und nicht direkt mit meinem Namen verknüpft ist.

Nach diesem Urteil stellte ich den Antrag auf Berufung beim OVG Magdeburg, der jetzt abgelehnt wurde. 

Wie begründet das OVG seine Ablehnung?

Das OVG Magdeburg schließt sich dem Urteil des Verwaltungsgerichts Halle voll und ganz an. Es sei rechtens mir zu unterstellen, ich hätte gegen den „Kenntnisstand der Wissenschaft“ berichtet. Auch sei es statthaft, dass das Umweltbundesamt einem „postfaktischen Diskurs“ (Seite 13 der Begründung) entgegenwirkt (mit „postfaktischen “ sind somit meine Artikel gemeint). Es sei außerdem im Rahmen des Erlaubten, wenn das Umweltbundesamt mich den „Klimawandelskeptikern“ zuordnet.

Warum ist das relevant?

Die jetzige Entscheidung schafft einen Präzedenzfall. Mit dem gleichen Recht könnte das Wirtschaftsministerium seine Kritiker als „entgegen dem Kenntnisstand der Ökonomie“ denunzieren. Ein Journalist, der dem Gesundheitsministerium nicht passt, wäre dann einer der „entgegen dem Kenntnisstand der Medizin“ berichtet.

„Eine staatliche Behörde hat nicht die Aufgabe, Kritiker der Regierungspolitik als Abweichler zu brandmarken,“ erklärte der Deutsche Journalisten-Verband (DJV) beim Erscheinen der UBA-Broschüre: Der Vorsitzende forderte den damaligen Bundesumweltminister Peter Altmaier auf, „die Broschüre in der vorliegenden Form nicht weiter zu verbreiten und sich bei den betroffenen Kollegen zu entschuldigen.“

Altmeier entschuldigte sich nicht und die Broschüre wird bis heute vom Umweltbundesamt verbreitet.

Wie andere Beobachter auch, war der DJV zuversichtlich, dass die Gerichte das UBA in seine Grenzen verweisen werden.

Was sagt der Berufsverband zum Beschluss des OVG?

Jutta Müller, Geschäftsführerin des Bayerischen Journalisten-Verband (BJV), dem ich angehöre, schrieb mir: „Es scheint, dass das Gericht die Aspekte der Pressefreiheit und den Wert eines von Staatseinflüssen unabhängigen und freien Journalismus nicht ausreichend gewürdigt hat. Damit wurde ein falsches Signal gesetzt. Es gilt, wachsam zu bleiben, wenn journalistisches Handeln durch Behördenhandeln bewertet und damit letztlich auch eingeschränkt werden soll.“

Was ist das für eine UBA-Broschüre?

Die 122-Seiten-Publikation erschien Im Mai 2013 und ist bis heute auf der Website des UBA abrufbar (http://www.umweltbundesamt.de/publikationen/sie-erwaermt-sich-doch-was-steckt-hinter-debatte-um). In 23 Kapiteln vermittelt sie die Ansichten des IPCC (Intergovernmental Panel on Climate Change) und das PIK (Potsdam-Institut für Klimafolgenforschung) zum Klimawandel. Führende Vertreter des PIK werden oft zitiert, ihre Aussagen als unzweifelhafter Stand der Wissenschaft präsentiert.

Fünf Kapitel widmen sich den so genannten Klimawandelskeptikern, worunter im Wortgebrauch der Broschüre alle fallen, die an der Alleingültigkeit der Sichtweise von PIK und IPCC zweifeln. Klimawandelskeptiker werden als anrüchige Personen mit einer unverantwortlichen Agenda dargestellt. Die Leser bekommen den Eindruck vermittelt, dass alle Kritik an PIK oder IPCC von der Ölindustrie gesteuert wird.

Bei diesen Vorwürfen beruft sich die Broschüre hauptsächlich auf die Union of Concerned Scientists (UCS), eine amerikanische Aktivisten-Organisation, die sich als Lobby für grüne Politikziele engagiert.

Wer sind die Autoren? 

Hauptautor der Broschüre ist der UBA-Fachbereichsleiter Harry Lehmann. Er gehört dem „Verein der Freunde und Förderer des Potsdam-Instituts“ an. Laut Satzung soll der Verein das PIK „vor allem durch Beschaffung von Mitteln“ unterstützen. 

Das UBA hat nach FOCUS-Recherchen von 2007 bis 2013 ein Dutzend Forschungsaufträge in Höhe von insgesamt rund zwei Millionen Euro an das PIK vergeben und diese nicht – wie vorgeschrieben – europaweit ausgeschrieben. 

Die Vergabepraxis des UBA sei „eine massive und auffallend häufige Verletzung des Vergaberechts“, urteilt Vergaberechtsexperte Heiko Höfler. Das UBA verteidigt die umstrittenen Zuwendungen, sie seien unter eine „vergaberechtliche Ausnahmeregelung“ gefallen. Höfler überzeugt dies nicht: „Das ist nach den Vertragsbedingungen des Amtes gar nicht vorgesehen. Es spricht viel dafür, dass es sich um eine Schutzbehauptung handelt.“ 

Harry Lehmann hat lange Jahre für den Lobbyverband „Eurosolar“ gearbeitet und es dort bis zum europäischen Vizepräsidenten gebracht. Aus dieser Position heraus wechselte er dann 2007 in eine Spitzenstellung als Abteilungsleiter in das Umweltbundesamt.

Auch unter anderen drei Autoren ist kein Klimawissenschaftler.

Mit-Autor Dr. Klaus Müschen ist Leiter der Abteilung Klimaschutz und Energie des UBA. Er studierte Elektrotechnik und Sozialwissenschaft an der Universität Hannover und arbeitete als Hochschulassistent für Elektrotechnik an der Universität Hamburg. Später leitete er das Referat für Klimaschutz, Luftreinhaltung und Lokale Agenda 21 in der Senatsverwaltung für Stadtentwicklung Berlin.

Dr. Steffi Richter arbeitet in der von Klaus Müschen geleiteten UBA-Abteilung. Auch über sie kann man im Internet keine klimawissenschaftlichen Publikationen finden.

Dr. Claudia Mäder trat als Autorin des beim UBA kostenlos bestellbaren Kinderbuches „Pia, Alex und das Klimaprojekt – Eine abenteuerliche Entdeckungsreise“ in Erscheinung. Auch hier finden sich keine Hinweise auf eine naturwissenschaftliche Tätigkeit.

Wie waren die Reaktionen, als die UBA-Broschüre 2013 veröffentlicht wurde?

Gleich nach Erscheinen der UBA-Broschüre solidarisierten sich viele Redaktionen mit den denunzierten Journalisten. Zu meiner Freude machte es dabei keinen Unterschied, welche Haltung sie in der Klimadebatte vertraten. Auch Redakteure und Autoren, die meine Kritik an der deutschen Klimapolitik falsch finden, protestierten. Was jedoch zu keinerlei Konsequenzen von Seiten des UBA oder seines Dienstherren, des Umweltministers, führte.

Josef Joffe, Herausgeber der ZEIT, schrieb: „Es gibt in diesem Land kein ‚Ministerium für Wahrheit’ wie bei George Orwell, aber das UBA hat einen Schritt in diese Richtung getan.“ Es sei ein „Skandal“ so der damalige Chefredakteur der WELT-Gruppe, Jan-Eric Peters, dass eine staatliche Behörde in einer „mit Steuergeld finanzierten Broschüre quasi eine schwarze Liste missliebiger Journalisten veröffentlicht“. Der Klimaforscher Prof. Hans von Storch nannte die UBA-Broschüre: „Unfug.“

Martin Schneider, Vorsitzender der Wissenschafts-Pressekonferenz (WPK), erklärte: „Es ist nicht Aufgabe einer staatlichen Institution festzulegen, welche Meinungen geäußert werden dürfen und welche nicht. Journalisten dürfen und müssen unterschiedliche Positionen vertreten, und sie dürfen und müssen immer wieder auch etablierte Wissenschaftler in Frage stellen.“

Im Bundestag kritisierten mehrere Abgeordnete das Umweltministerium für die beleidigende Broschüre seiner Behörde. Erkenntnisse in Frage zu stellen, sei eine Kernaufgabe der Wissenschaft, sagte der Vize-Fraktionschef der Unionsfraktion, Arnold Vaatz, und bezeichnete die UBA-Broschüre als „Gipfel der Unverschämtheit.“

Diese und viele andere Proteste konnten das UBA nicht zum Einlenken bewegen. Es vertreibt weiterhin die Broschüre und darf dies ab jetzt auch mit höchstrichterlichem Segen tun.

Warum ist „Klimawandelskeptiker“ eine Beleidigung?

Ein Klimawandelskeptiker zweifelt an, dass ein Klimawandel stattfindet. Dies ist eine absurde Position, da sich das Klima seit Entstehung der Erde immer wieder gewandelt hat.  Auch ist durch zahlreiche Messungen bewiesen, dass das Klima sich in der Gegenwart wandelt. Es gibt solche „Klimawandelskeptiker“, eine kleine Gruppe von Sektierern, die von niemandem ernst genommen werden, ähnlich den religiösen Fanatikern, die die Evolutionstheorie ablehnen. Keiner der Wissenschaftler, die ich als Journalist zitiert habe, gehört in diese Kategorie.

Das Wort „Klimawandelskeptiker“ wird jedoch von Politikern und Energiewende-Lobbyisten viel benutzt. Sie versuchen damit jeden als Spinner hinzustellen, der an der deutschen Klimapolitik oder an den Prognosen des IPCC und des PIK  zweifelt.

Was ist der Kenntnisstand der Klimawissenschaft?

Folgendes ist Konsens bei der überwiegenden Mehrheit der Wissenschaftler, die sich mit Klimafragen befassen (auch bei allen, die ich zitierte oder über die ich schrieb):

  • Es gibt einen Treibhauseffekt.
  • Der Anteil des Kohlendioxids in der Luft ist stark angestiegen.
  • Die Durchschnittstemperatur der erdnahen Atmosphäre ist in den vergangenen 100 Jahren um zirka ein Grad Celsius gestiegen.
  • Es ist sehr wahrscheinlich, dass die Emission von Kohlendioxid (und anderen Treibhausgasen) durch den Menschen (Industrie, Kraftwerke, Waldrodung, Auto- und Flugverkehr, Nutztiere usw.) zur Erwärmung beiträgt.

Wer dies in Abrede stellt, verlässt tatsächlich den Kenntnisstand der Wissenschaft und führt einen postfaktischen Diskurs.

Nur habe ich dies nie in Abrede gestellt. Es gibt keinen Text von mir, in dem Solches behauptet wird. In meinen Büchern und Artikeln geht es um folgende Fragen:

  • Wie gut sind die auf Computermodellen beruhenden Zukunftsprognosen, die eine katastrophale Erwärmung voraussagen?
  • Ist das durch Menschen verursachte Kohlendioxid die einzige Wirkkraft im Klimageschehen, oder gibt es noch andere?
  • Ist eine Erwärmung nur schlecht, oder hat sie auch gute Seiten? Angesichts dessen, dass in der Vergangenheit für Menschen, Tiere und Pflanzen Warmzeiten weitaus besser waren als Kaltzeiten.
  • Ist die deutsche Energiewende die einzig richtige Antwort auf die Klimaproblematik?

Als Journalist ließ ich in Artikeln und Büchern Wissenschaftler zu Wort kommen, die die Positionen von IPCC, PIK und Bundesregierung zu diesen Fragen nicht teilen. Hier ist es wichtig zu bemerken, dass ich mich dabei niemals selbst als Wissenschaftler aufgespielt habe.

Dies ist definitiv kein Abweichen von den messbaren Fakten und vom Kenntnisstand der Wissenschaft. Es ist ein Abweichen im Bereich der Schlüsse, die aus diesem Kenntnisstand gezogen werden und der politischen Konsequenzen daraus.

Warum habe ich gegen das UBA geklagt?

Wenn das UBA die Arbeit eines Journalisten als „entgegen dem Kenntnisstand der Wissenschaft“ bezeichnet und ihn in die Kategorie „Klimawandelskeptiker“ einordnet, bekommt der auf diese Weise Denunzierte einen „amtlichen Stempel“ unredlich zu arbeiten. Entgegen den Fakten zu berichten, heißt zu lügen. Ich hätte nicht geklagt, wenn mich eine Privatperson als Lügner beschimpft hätte. Dies kann im Eifer einer Debatte mal passieren. Doch wenn eine Bundesbehörde mich in einer offiziellen Broschüre (die von Tausenden gelesen wird) als Lügner hinstellt, kann ich das nicht auf mir sitzen lassen. Leider sieht das OVG Magdeburg dies anders.

Da das UBA nun juristisch gesiegt hat, ist Öffentlichkeit umso wichtiger. Ich bitte alle Redaktionen das Thema aufzugreifen und diese Pressemitteilung an möglichst viele andere Journalisten und Parlamentarier weiter zu senden.

Für Nachfragen:

Michael Miersch

Geschäftsführer Bildung und Kommunikation der Deutschen Wildtier Stiftung

Büro: 030 209 12 84 -11

Mobil: 0175 2419007

E-Mail: michael@miersch.media

Website: www.miersch.media

Wer eine genauere juristische Einschätzung möchte, kann sich an meine Rechtsanwältin wenden:

Dr. Katy Ritzmann

GSK Stockmann + Kollegen

Büro: 030 203907-0

E-Mail: katy.ritzmann@gsk.de

Bei Interesse sende ich gern den aktuellen Beschluss des OVG Magdeburg und das Urteil des Verwaltungsgerichts Halle vom 18. November 2015.


Links zu drei Artikeln über die UBA-Broschüre und das Urteil der ersten Instanz:

DIE ZEIT

http://www.zeit.de/2013/23/klimastreit-erderwaermung-umweltbundesamt

SÜDDEUTSCHE ZEITUNG

http://www.sueddeutsche.de/medien/umweltbundesamt-warnt-vor-journalisten-amtlich-unserioes-1.1683586

DER TAGESSPIEGEL

http://www.tagesspiegel.de/wissen/umweltbundesamt-behoerde-darf-abweichler-anprangern/12607984.html

Anmerkung der EIKE – Redaktion

  1. Bis zum Einstellen dieses Beitrages hier, hat nur die Zeitschrift CICERO in der Online Ausgabe (hier) durch ihren Redakteur Kissler (Ressortleiter „Salon“) diesen Skandal kommentiert. Kissler spricht allerdings den meisten der EIKE Leser und tausenden seriöser internationaler Klimawissenschenchaftler  zu Teilen ihre Zurechnungsfähigkeit ab, wenn er schreibt: „Niemand, der bei Sinnen ist, bestreitet den Einfluss der menschlichen Lebensweise auf das Weltklima, den Treibhauseffekt und den Anstieg der Erderwärmung.“ Und beklagt nur die Anmaßung der Behörde wie des OLG Mainstream-Meinungen „….sieht im „staatlichen Informationshandeln“ eine Methode, die „herrschende Meinung“ vorzutragen und letztlich durchzusetzen. Es begrüßt den Triumphzug der „herrschenden Meinung“, weil so die „Staatsleitung“ eine „Aufklärung der Bevölkerung“ leiste.“ Das ist schlimm genug, jedoch wünscht man dem Herrn Kissler, wohl vergeblich, eine bessere naturwissenschaftliche Ausbildung, um zu erkennen, dass – abgesehen von mikroklimatischen Auswirkungen- es keinen Einfluss der menschlichen Lebensweise auf das Weltklima und den „Treibhauseffekt“ gibt. Das „Weltklima“ wandelt sich davon unbeeindruckt wie eh und je. Das ist Fakt. Kissler ist aber leider naturwissenschaftlich zu ungebildet, um das zu erkennen, und trotzdem oder gerade deswegen, begreift er nicht,  dass er seinen  Lesern  diesbezüglich Unsinn erzählt. Dieses Schicksal teilt er aber mit sehr vielen seiner Kollegen.
  2. Auch EIKE wurde in der UBA Broschüre (S 111) ohne nähere Begründung scharf angegriffen, weil wir es wagten…„Thesen verbreiten würden, die dem wissenschaftlichen Konsens widersprechen..“ Dass das zu den vornehmsten Aufgaben der Wissenschaft gehört, ist dem UBA und seinen Autoren offenbar völlig fremd. Ebenso werde die Autoren des Buches „die kalte Sonne!“ und der Journalist Günter Ederer (S 113) in nämlicher Weise verunglimpft und damit bewusst an den öffentlichen Pranger gestellt. Wir haben uns juristisch nicht dagegen gewehrt, weil wir erstens nicht das Geld haben, und zweitens dieses Art von läppischer Diffamierung gewöhnt sind. Sie wird ausgeführt von Leuten, die ihren Lebensunterhalt mit Katastrophengeschrei verdienen, und ihre eigene Bedeutung daraus ableiten, aber selber keinerlei Ahnung von dem haben, über das sie schreiben und befinden.
  3. Wir bestreiten nicht nur, dass es, wie Michael Miersch behauptet, einen Konsens der überwiegenden Mehrheit der Klimawissenschaftler gibt, die dem anthropogen emittierten CO2 eine Rolle bei der Erwärmung zuweisen, wir bestreiten auch, dass Mehrheiten eine wissenschaftliche Relevanz haben. Und halten es da mit Albert Einstein, der auf den Vorwurf, 200 Wissenschaftler hätten seine Relativitätstheorie für falsch befunden, lakonisch antwortete: „Wenn die recht hätten genügte einer!“ Wir behaupten auch, dass es auch gut begründete Zweifel an der Erwärmung überhaupt gibt, denn der kräftige von Städten verursachte  wohl bekannte aber schwer berechenbare Wärmeinseleffekt (WI) wurde nirgends herausgerechnet- trotz Anstiegs der Weltbevölkerung von rd. 1 Mrd. Menschen um 1900 auf jetzt gut 7 Mrd und zunehmender Verstädterung – ca. 50 % der Weltbevölkerung leben bereits in Städten- und zusätzlich manipulierten die damit beauftragten Institute – angeführt vom NASA GISS- die früheren Temperaturen auf breiter   Front rückwirkend nach unten, mit dem Ziel die Gegenwart wärmer erscheinen zu lassen,
  4. Mit der Solidarisierung der Journalistenkollegen mit den in der Broschüre vom UBA diffamierten Kollegen (von EIKE gar nicht zu reden) scheint es nicht weit her zu sein. Sie schweigen! Ist es so abwegig, wenn dann manchem das  Wort von Martin Niemöller in den Sinn kommt, besonders dann, wenn Ex-Bundespräsident Horst Köhler die „Rechten“ als Klimaskeptiker verunglimpft und ungeniert der „großen Transformation“ das Wort redet und Justizminister Maas „Fakenews“ Verbreitern mit Gefängnis droht. Martin Niemöller sagte: „Als die Nazis die Kommunisten holten, habe ich geschwiegen; ich war ja kein Kommunist. Als sie die Sozialdemokraten einsperrten, habe ich geschwiegen; ich war ja kein Sozialdemokrat. Als sie die Gewerkschafter holten, habe ich geschwiegen, ich war ja kein Gewerkschafter. Als sie mich holten, gab es keinen mehr, der protestieren konnte“ Nun, noch werden wir nicht „abgeholt“ Dieses Urteil könnte aber den Weg bereiten, dass sich das, vielleicht sogar schneller als viele glauben, ändert.

 

 

 

 




Die Energiewende  ist unsozial

 Martin Schulz, der SPD Kanzlerkandidat und zukünftiger Parteivorsitzender, will von ihm erkannte Fehler der Agenda 2010 korrigieren. Wer die dadurch entstehenden Zusatzkosten tragen wird bleibt im Nebel. Die Wohltaten, von denen Martin Schulz spricht, werden zum Großteil wohl von den Arbeitnehmern aufgebracht werden müssen, von denen viele schon heute trotz Vollzeitbeschäftigung an der Existenzgrenze leben. 

Umverteilung von unten nach oben beenden

Von Schulz, wie auch von anderen führenden SPD Mitgliedern, war dagegen kein Wort zu hören über die Abschaffung der riesigen Umverteilung von unten nach oben durch die Energiewendepolitik der Bundesregierung. Inzwischen sind es mehr als 30 Milliarden Euro pro Jahr, die als Vergütung für Ökostrom aus Wind, Sonne und Biomasse nach dem Erneuerbaren-Energien-Gesetz (EEG) an die gut betuchten Erzeuger, Betreiber und Investoren von Ökostromanlagenfließen. Pro Einwohner sind dies fast 400 Euro im Jahr, die nur zu einem Drittel auf der Stromrechnung erscheinen. Die restlichen Kosten erhöhen die Preise für Waren und Dienstleistungen versteckt. 

Die Haushalte mit wenig Einkommen werden überproportional belastet 

Die Stromkosten sind für alle Haushalte vergleichbar, die elektrisch kochen, eine Waschmaschine, einen Kühlschrank, einen Fernseher und einen Computer haben, sowie elektrische Beleuchtung und weitere zum heutigen Lebensstandard zählende Geräte. So müssen auch alle Haushalte im Mittel die gleiche EEG-Umlage zahlen, egal ob arm oder reich. Je geringer das Einkommen ist, umso höher wird die relative Belastung durch die Stromkosten.

Stromsparen ist nur bei den Wohlhabenden angesagt, die sich stromsparende Geräte leisten können. Die Mitbürger am Existenzminimum müssen dagegen mit veralteten stromfressenden Geräten weiter leben. So wird die Umverteilung von unten nach oben noch krasser. 

Forderungen von Schulz sind eine Luftnummer 

Die Forderungen von Martin Schulz, mit denen er sich um die Kanzlerschaft bemüht, sind also ein Luftnummer. Sie entlasten und helfen den hart arbeitenden Bürger nicht, denn er muss die von Schulz angekündigten Wohltaten mit höheren Sozialabgaben auf sein Einkommen bezahlen. Eine spürbare Entlastungist dagegen die Beendigung der Ökostrom-Subventionen. Die Vergütung von Ökostrom ist im Mittel viermal höher als die Erzeugungskosten der konventionellen Kraftwerke. Mit dem Wegfall der Vergütung sinken die Stromkosten wesentlich. Die unsoziale Umverteilung von unten nach oben wird beendet. Das verfügbare Einkommen der Bürger (bis auf die Profiteure) steigt. Dies wäre eine echte SPD Politik. Doch davon ist nicht die Rede. Warum? 

NAEB fordert sachliche Entscheidungen

Sind die führenden Genossen tatsächlich so dumm, dass sie sich nicht klarmachen, eine sichere und bezahlbare Stromversorgung rund um die Uhr ist mit Ökostrom nicht möglich?Alle Daten dazu stehen ihnen zur Verfügung. Auch die Fachleute mit langjähriger Erfahrung in der Energieversorgung vom Stromverbraucherschutz NAEB e.V. helfen gern mit ihrem Wissen. Oder verstecken sie sich hinter der unbewiesenen Klimarettung der Welt? Doch auch in diesem Fall bleibt es dabei: Deutschland ist nicht sicher und kostengünstig mit Ökostrom zu versorgen.    

Prof. Dr. Hans-Günter Appel

Pressesprecher NAEB e.V. Stromverbraucherschutz

Kontakt: hans-guenter.appel@naeb.info




Auch der Februar wird in Deutschland seit 30 Jahren kälter

Pollenallergiker waren ab dem 15. Februar durch die Haselpollen geplagt. In den Städten und entlang der sehr milden Rheintals teilweise auch schon ab Ende Januar. natürlich etwas früher. Der Deutsche Wetterdienst (DWD) gibt den Monat am 26.2. mit einem Schnitt von 3 C für Deutschland an. In Weimar wurde der Beginn der Haselblüte diesmal am 2. Februar beobachtet:

Grafik 1: Der Eintritt der Haselblüte (Vorfrühlingsbeginn) variierte in Weimar seit 1990 zwischen Anfang Dezember und Ende März. Wegen dieser enormen Streuung ist der Verfrühungstrend nicht signifikant.

Im Folgenden wollen wir uns wieder fragen, wo ist diese Februartemperatur von 3 C einzuordnen: a) innerhalb der letzten 100 Jahre und b) wie verhielten sich die letzten 30 Februarmonate?

Wie jedermann weiß, werden beim Klima den Deutschen die schönsten Märchen aufgetischt. Es sollte immer wärmer geworden sein aufgrund der Zunahme der Treibhausgase, insbesondere von Kohlendioxid, und in den letzten beiden Jahrzehnten sollte der Erwärmungstrend besonders stark sein. Und vor allem die Wintermonate sollten die ersten Opfer der Erwärmung sein.

Im Folgenden wollen wir diese Orakel der gut verdienenden Computer-Erwärmungswissenschaft einer Prüfung unterziehen. Beginnen wir mit 100 Jahren Februartemperaturen anhand der Originaldaten des Deutschen Wetterdienstes:

Grafik 2: Der Monat Februar zeigt das gewohnte Bild aller deutschen Monate. Der Temperaturverlauf ähnelt einer Schwingung mit zwei Wellenbergen und einem leichten Tal. Zunächst wurde der Monat kälter bis über die Jahrhundertmitte hinaus. Vor der Jahrtausendwende wurde der Monat wieder wärmer und erreichte ein neues Plateau

Das derzeitige Plateau liegt nach dieser DWD-Grafik etwas höher als das vor über 100 Jahren. Es erfolgte jedoch nicht kontinuierlich wie die Trendlinie vorgibt, sondern hauptsächlich durch einen Temperatursprung in den Jahren zwischen 1986 bis 1989. Außerdem sind die Werte des Deutschen Wetterdienstes nicht wärmeinselbereinigt, die Zusatz-Temperaturen der immer wärmer werdenden Städte, Siedlungen und Industriezonen messen die Thermometer der Wetterstationen mit. Wo vor 100 Jahren noch freie Fläche war stehen heute wärmende Flughäfen, Häuser oder Industrie- und Gewerbezonen. Wärmeinselbereinigt wären beide Plateaus gleich hoch, bzw. der Februar wäre derzeit leicht kälter wie vor 100 Jahren.

Leider gibt es keine einzige deutsche Wetterstation, deren Umgebung unverändert geblieben ist und noch so dasteht wie vor 100 Jahren. Unbeheizte Klöster oder Forsthäuser am Waldrand mit Wetterstationen gibt es nicht mehr. Wir wollen als Beispiel aber doch die Zugspitze betrachten, deren Besucherströme und der damit verbundene wärmende Ausbau erst nach der Einheit so richtig zugenommen haben und derzeit verstärkt anhält und Deutschlands höchster Berg mit 2962 m Höhe noch bis vor der Wende mit weniger Touristen und mit weniger Zusatzwärme beeinflusst war.

Grafik 3: Die Zugspitze, Deutschlands höchster Berg zeigt einen ähnlichen Temperaturverlauf wie die Deutschlandtemperaturen. Allerdings ist das momentane Temperaturplateau nicht so ausgeprägt wie beim DWD-Februarverlauf der letzten 100 Jahre.

Ergebnis: Die Zugspitze als weniger mit Zusatzwärme aus den Wärmeinseln beeinflusste Wetterstation zeigt über die letzten 100 Jahre gar keine Erwärmung. Trotz eines mit – 7,8C relativ warmen Februars 2017 im Vergleich zu den Vorjahren.

Die beiden Grafiken zeigen erneut, dass die behauptete CO2 induzierte Erwärmung im Monat Februar wirkungslos ist, falls es sie überhaupt geben sollte. Der Leser muss wissen: CO2 als erwärmendes Treibhausgas konnte bislang noch durch keinen einzigen wissenschaftlichen Versuch bestätigt werden, selbst Svante Arrhenius hatte am Ende seines Lebens entnervt aufgegeben. Deshalb bleibt die Treibhauserwärmung seit über 100 Jahren eine Hypothese. Die Temperaturen werden von anderen Faktoren bestimmt.

Die letzten 30 Jahre des Monates Februar in Deutschland

30 Jahre sind eine Klimaeinheit, deshalb ist es notwendig, diesen Zeitraum anhand der Daten des DWD näher zu untersuchen. Die einzelnen deutschen Stationsleiter erheben ihre Daten gewissenhaft und auch die wissenschaftlich ausgebildeten Mitarbeiter in der 2.ten Reihe des DWD werten die Einzelergebnisse sorgfältig aus. Nur eben, dass die einzelnen Jahreswerte nicht wärmeinselbereinigt sind. Das Ergebnis ist überraschend, weil es den ständigen Medienerwärmungsmeldungen, die auf uns Deutsche hereinprasseln, widerspricht. Diese nun folgenden Grafiken werden natürlich in den Medien nicht abgebildet, sondern immer nur behauptet, dass es wärmer würde und dann orakelt, dass die Apfelbäume bald zu Jahresanfang blühen würden.

Grafik 4: Der Monat Februar wurde in den letzten 30 Jahren kälter in Deutschland, das zeigen die vom Deutschen Wetterdienst bzw. von den einzelnen Stationsleitern sorgfältigst erhobenen Temperaturdaten. Allerdings sind die Daten nicht wärmeinselbereinigt, sonst wäre die Trendlinie noch fallender.

Wärmeinselarme Stationen:

Nun gibt es in Deutschland auch Wetterstationen, deren Umgebung sich in den letzten 30 Jahren weniger durch menschliche Zusatzwärme verändert hat. Wie oben erwähnt, scheidet die Zugspitze wegen der umfangreichen Baumaßnahmen, die derzeit verstärkt anhalten, als wärmeinselarme Station für die letzten 30 Jahre und erst recht für die letzten 20 Jahre aus. In einem früheren Artikel sind wir bereits ausführlich darauf eingegangen. http://www.eike-klima-energie.eu/news-cache/warum-die-zugspitze-und-andere-bergstationen-fuer-temperaturvergleiche-wenig-brauchbar-sind/

Eine WI-arme Wetterstation ist hingegen Neugersdorf (sprich Neu-Gersdorf) in der Oberlausitz. Der kleine Ort befindet sich am Nordhang des Hutungsberges, Landkreis Görlitz im Quellgebiet der Spree an der deutsch-tschechischen Grenze im Lausitzer Bergland, nahe dem kleinsten Mittelgebirge Deutschlands, dem Zittauer Gebirge; daran schließen sich nach Osten das Iser- und Riesengebirge an. Wie im Erzgebirge lebt man auch hier vom Einfluss des böhmischen Windes, aber Neugersdorf hat klimatisch und geografisch wenig mit dem Erzgebirge zu tun.

Grafik 5: In der Oberlausitz sind die Februar-Temperaturen viel stärker gefallen als bei den DWD-Stationen. Neugersdorf ist ein Beispiel für eine ländliche Station, deren Umgebung keine größeren Änderungen in den letzten 30 Jahren erfahren hat.

Im Folgenden zeigen wir mit Amtsberg die Februartemperaturen einer weiteren wärmeinselarmen Station im Vergleich zu den DWD-Deutschlanddaten.

Grafik 6: Die ländliche und wärmeinselarme Station Amtsberg/Dittersdorf zeigt zweierlei: Einmal ist sie kälter als die DWD-Daten, auch vor 30 Jahren, weil bei den DWD-Daten natürlich auch ausgeprägte wärmeinselbehaftete Stationen in den Städten und Flughäfen mitgezählt werden. Zum anderen geht die Trendlinienschere immer mehr auseinander. Die freie Fläche in Deutschland – das sind 85%- kühlt viel stärker in den letzten 30 Jahren ab als der Gesamtschnitt.

Ergebnis: Bei der wärmeinselarmen, ländlichen Station Amtsberg-Dittersdorf im Erzgebirge ist die Februarabkühlung wie erwartet stärker. Somit zeigt auf dem Lande der Monat Februar genauso wie der Monat Januar eine enorme Abkühlung. Dabei haben die CO2-Konzentrationen, die erwärmend wirken sollten, besonders in den letzten 30 Jahren weltweit und damit auch in Amtsberg und Neugersdorf zugenommen.

Februar in der Gegenwart: Gegenwart = letzte 20 Jahre.

Als Gegenwart definieren wir die letzten 20 Jahre. Gerade in diesem Zeitraum wurden wir Deutsche besonders geängstigt über die Gefahr einer zunehmenden Klimaerwärmung. Angeblich wären wir mittendrin und besonders die Wintermonate und die Gegenwart sollte abrupt wärmer werden, so die Prognosen der gläubigen Erwärmungswissenschaft.

Die Realität der deutschen DWD- Wetterstationen zeigt das genaue Gegenteil:

Grafik 7: In der Gegenwart, also in den letzten 20 Jahren ist die Trendlinie des Monates Februar viel stärker negativ als über 30 Jahre. Der Hauptteil der Abkühlung des Monates Februar passierte also in den letzten 20 Jahren. Anmerkung: Die Zugspitze hat wegen der oben geschilderten starken Zunahme des Wärmeinseleffektes in den letzten 20 Jahren eine ebene Trendlinie mit y = + 0,003 x

Ergebnis: Besonders in den letzten 20 Jahren wurden wir Deutsche durch falsche Medienberichte gequält: Eine katastrophale Erwärmung wurde uns prophezeit und die drei Wintermonate sollten doch die Vorreiter der Erwärmung sein. Insbesondere die behördlich anerkannten und ideologisierten deutschen Umweltverbände wie BUND, NABU, WWF und Greenpeace malten ihren Mitgliedern wahre Katastrophenszenarien in ihren Mitgliederzeitschriften der letzten Jahre vor. Die wirkliche Klimaänderung des Monates Februar in Deutschland heißt Klimaabkühlung. Wie es weitergeht weiß niemand, denn das Klima der nächsten 30 Jahre ist nicht vorhersagbar.

Ein Blick weit nach Osten: Keine Februar- Erwärmung seit 50 Jahren!

Grafik 8: Am kältesten, dauerhaft bewohnten Ort der Erde (Oimjakon, etwa 700 Einwohner, gelegen in einem Hochtal des ostsibirischen Berglandes) gibt es schon seit 50 Jahren keine Februar-Erwärmung. Der Februar blieb hier unter minus 42 °C kalt. Für 2017 liegen noch keine Werte vor.

Eines ist aber sicher: Der angebliche wärmende CO2-Treibhauseffekt hatte keine erwärmende Wirkung beim Februar in den letzten 100 Jahren in Deutschland. Hätte sich Deutschland in den letzten 100 Jahren nicht verändert, dann wären die Februartemperaturen der Gegenwart sogar etwas unter dem Temperatur-Wellenberg vor 100 Jahren. Einzig in den Städten und in den anderen Wärmeinseln wurde der Februar in den letzten 100 Jahren wärmer.

Und die letzten 30 Jahre? Es bleibt fraglich, ob es überhaupt eine deutsche Wetterstation gibt, in welcher der Monat Februar in den letzten 30 Jahren wärmer wurde.

Wieder – wie schon beim Monat Januar – sind die Leser aufgerufen, bei ihrer Heimatwetterstation nach den Temperaturdaten der letzten 30 Jahre zu forschen und deren Trendlinienverlauf bei den Kommentaren uns zu melden. Genauso sind die Leser aufgerufen, ihre Tageszeitungen auf das Kälter werden des Monates Februar hinzuweisen. Wir bitten die Leser, sich die Falschmeldungen der Medien nicht weiter gefallen zu lassen. Weil es im Januar und Februar kälter wurde müssen logischerweise auch alle zeitigen Frühjahrsblüher verspätet sein. Das werden wir in einem unserer nächsten Artikel zeigen. Schließlich blüht das Märzenveilchen immer noch oder wieder im März wie zu Mozarts Zeiten.

Josef Kowatsch, täglicher Naturbeobachter und unabhängiger, weil unbezahlter Klimawissenschaftler.

Stefan Kämpfe, unabhängiger Natur- und Klimaforscher




Wem wir erlauben, langfristig seinen eigenen Körper zu schädigen, dem sollten wir auch zutrauen, über die Zukunft unserer Gesellschaft mitzuent­scheiden

Anmerkung: Durch die erheblichen Auslassungen soll die staatsdirigistische Tendenz aufgezeigt werden, welche die CDU-Führungsspitze inzwischen vertritt, und wie man sieht, immer aggressiver verkündet. Auf die „Belegführungen“ wird diesmal nicht eingegangen, da dazu in letzter Zeit aufgrund vieler Anlässe in mehreren EIKE-Veröffentlichungen von unterschiedlichen Autoren bereits umfangreiche Gegendarstellungen gebracht wurden [2][3][4].
Die Rede zeigt, dass (nicht erst) seit Verabschiedung des Klimavertrages eine politisch gesteuerte, mediale Kampagne begann, welche genau die Mittel der Fake-Information benutzt, welche unser Justizminister dem Volk verbieten möchte. Allerdings stellte Heiko Maas dies unter den Titel „Wer News fälscht, soll in den Knast!“. Was die Elite wie Herr Köhler macht, die einfach alte, falsche Nachrichten wiederholt und ausschmückt, wird deshalb von dem geplanten Verbot nicht berührt.

Zudem würde man sich nicht wundern, falls CDU und GRÜNE demnächst nicht nur eine Koalition bilden (inzwischen sind sie ja Wunschpartner von Herrn Kauder), sondern bei so viel ideologischer Überlappung einmal gar fusionieren würden.
Man versteht auch nach dem Durchlesen, warum eine Frau Hendricks in Berlin mit ihrer ungebremsten Klimahysterie absolute Narrenfreiheit genießt.
Hinweis: Die Rede beinhaltete in größerem Umfang weitere Themenbereiche. Wer diese erfahren will, lese bitte das Original.

Auszüge der Rede zum 25-jährigen Bestehen der Deutschen Bundesstiftung Umwelt Berlin

Auf der ganzen Welt leugnet wer Rechts ist, den Klimawandel

[1] … Aber es macht mich zornig zu sehen, wie die Scharlatane mit ihren politischen Mogelpackungen dieses Unbehagen ausnutzen, wie sie falsche Hoffnung verkaufen und damit die Lösung jener Fragen, die die Menschen umtreiben, nur noch schwerer machen…. Es ist doch zum Beispiel kein Zufall, dass die neuen Rechten in der ganzen Welt den menschengemachten Klimawandel leugnen, übrigens auch die AfD.
… Lassen Sie mich beginnen mit einer Schilderung dessen, was ich als Ausgangslage für die große Transformation verstehe.
Die weltweite Verbrennung fossiler Energieträger hat die Treibhausgase in der Atmosphäre auf ein beispielloses Niveau getrieben. 15 der 16 heißesten Jahre seit dem Beginn der Klimaaufzeichnungen liegen im 21. Jahrhundert.

Das Flüchtlingsproblem kann man nur über das Zwei-Grad-Ziel lösen

[1] … Und während wir bei jeder Schneeflocke im November Witze darüber machen, dass das mit dem Klimawandel ja so ernst nicht sein kann, bedroht die globale Erwärmung schon heute diejenigen am meisten, die am wenigsten dazu beigetragen haben:
seien es die Nomaden der Sahelzone, die Bewohner der Pazifikinseln oder die Bauern in den Anden.
Wir werden die Folgen spätestens dann direkt zu spüren bekommen, wenn sich diese Menschen als Klimaflüchtlinge auf den Weg machen. Die Vereinten Nationen schätzen ihre Zahl in den nächsten 30 Jahren auf bis zu 200 Millionen, sollte das Zwei-Grad-Ziel nicht erreicht werden.
Und während man einen Flüchtling auch wieder zurückschicken kann (fragt sich nur wohin, wenn seine Heimat dann unter dem Meeresspiegel liegt), sind die meisten
ökologischen Folgen der Erderwärmung irreversibel. Unser Ökosystem ist eben nicht wie die Zimmerpflanze im Wohnzimmer, von der man sich einfach eine neue kaufen kann, wenn sie eingeht.

In vielen Bereichen nähern wir uns gefährlichen Kipp-Punkten

[1] Wir nähern uns in vielen Bereichen gefährlichen Kipp-Punkten, die, einmal überschritten, zu abrupten und unumkehrbaren Veränderungen im Erdsystem führen können. Sei es das Abschmelzen des Grönlandeises, der Hitzekollaps tropischer Korallenriffe oder die Destabilisierung des indischen Monsuns – die Folgen für den Menschen wären schwer vorhersehbar und kaum zu kontrollieren.
Das macht die Herausforderung der Bekämpfung des Klimawandels so einzigartig: dass sie konkrete zeitliche Anforderungen an die Klimapolitik stellt und damit eine ganz neue Qualität von Politik erfordert, die sich an
Terminen messen lassen muss. Mit dem Klima kann man um keinen Aufschub verhandeln. Die in der Politik so beliebte Methode des Zeit-Kaufens stößt hier an ihre Grenzen. Ich komme später noch einmal darauf zurück.

Nur die Große Transformation unseres Gesellschaftssystems kann uns retten

[1]… Und darauf will ich hinaus: Wenn wir die extreme Armut beenden wollen, und wenn wir dabei den Planeten nicht zerstören wollen, dann ist eine neue große Transformation in Wirtschaft und Gesellschaft unvermeidlich. Und diese Transformation muss zuallererst bei uns in den Industrieländern stattfinden. Das ist keine kleine Verantwortung.
.. aber letztes Jahr gab es zwei solcher Hoffnungsfeuer und wir sollten verdammt nochmal schauen, dass sie weiter brennen.
Ich spreche von der Agenda 2030 für Nachhaltige Entwicklung der Vereinten Nationen und dem Pariser Klimavertrag. Das Zustandekommen beider Abkommen ist selbst schon ein kleines Wunder … eine Übereinkunft der Staatengemeinschaft, dass wir die erste Generation sein wollen, die die extreme Armut beendet, und die letzte Generation, die vom Klimawandel bedroht ist.
… Es geht darum, die Transformation an den Maßstäben zu messen, welche die Realität des Klimawandels selbst uns stellt.

Wem wir erlauben, langfristig seinen eigenen Körper zu schädigen, dem sollten wir auch zutrauen, über die Zukunft unserer Gesellschaft mitzuentscheiden

[1] Und da darf man sich schon fragen: Ist das notwendige Ausmaß und das notwendige Tempo des Wandels schon erkannt?
Wenn ich darüber nachdenke, wie wir dieses Prinzip in unserer Demokratie noch systematischer stärken können, wie wir die politische Ökonomie zugunsten der Transformation verändern können, dann fällt mir vor allem die junge Generation ein. Ich glaube, wir sollten Fragen von Nachhaltigkeit, aber auch von politischer Beteiligung noch viel stärkere Aufmerksamkeit in den Bildungsprozessen widmen. Und ich finde, dass unserem Land ein allgemeines Wahlalter ab 16 Jahren gut tun würde.
Wer rauchen darf, soll auch wählen dürfen – wem wir erlauben, langfristig seinen eigenen Körper zu schädigen, dem sollten wir auch zutrauen, über die Zukunft unserer Gesellschaft mitzuentscheiden.

In Produktpreis gehören die (simulierten) Zukunfts-Folgekosten eingerechnet

[1] … Und die Realität heißt, dass die Dekarbonisierung der Wirtschaft kommen wird.
… Zu diesen Bedingungen gehören der freie Wettbewerb und Preise, die die Wahrheit sagen, also die tatsächlichen Kosten eines Produktes widerspiegeln… Denn wir leben ja in einer globalen Externalisierungsökonomie, die die wahren sozialen und ökologischen Kosten von Produktion auf andere Erdteile und zukünftige Generationen auslagert. Mit freiem Wettbewerb hat das wenig zu tun, weil jene, die aus Eigenverantwortung versuchen, die echten Kosten einzupreisen, im Wettbewerb viel schwerer mithalten können und quasi auf nachhaltigkeitsbewusste Konsumenten angewiesen sind.
Deshalb ist die globale Erwärmung das größte Marktversagen in der Geschichte der Menschheit. Weil der Ausstoß von Kohlendioxyd noch immer weitgehend gratis ist, geht die CO
2-Party in absoluten Zahlen unvermindert weiter, schließlich werden die Folgekosten des Klimawandels von der Allgemeinheit übernommen. … Wir brauchen deshalb jetzt endlich einen wirksamen Preis auf CO2, und zwar entweder durch eine Steuer oder einen Emissionshandel, der funktioniert.

Die globale DDR 2.0 wird eine Hoffnungsgeschichte

… Das ist mein letzter Punkt für heute: Ich glaube, wir dürfen die große Transformation [5] nicht als Gruselgeschichte erzählen, sondern als Hoffnungsgeschichte.

Fazit

Die Überschrift des EIKE-Artikels: DDR 2.0 – oder wie ich lernte die Energiewende als Erfolgsgeschichte zu sehen
trifft die ideologische Ausrichtung der heutigen CDU (auch wenn der Artikel sich auf ein SPD-geführtes Ministerium bezieht).
Während man bei den „kleinen Leuten“ und ihren Aussagen zum Klimawandel irgendwie noch Mitleid verspüren kann:
EIKE: Der Klimawandel lebt nur noch von Wiederholungen
wandelt sich dies bei den Aussagen dieser „Intelligenz“ [1][3][4][5] eher in Entsetzen, wenn man an den Einfluss dieser Personen denkt.

Quellen

[1] Bundespräsident a.D. Horst Köhler: Rede zum 25-jährigen Bestehen der Deutschen Bundesstiftung Umwelt Berlin, 8. Dezember 2016

[2] EIKE 11.02.2017: Selbsternannte Klimaapostel sägen an Deutschlands Klimaeichen

[3] EIKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels

[4] EIKE 01.01.2016: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor

[5] EIKE: Bürger hört die Signale! Das Gutachten des Umweltrates. Die „Große Transformation“ – ein Ökologistisches Manifest