1

Warum Modelle keine Temperatur prognosti­zieren können: Ein Kaleidoskop des Scheiterns

Allerdings hatte er sich dabei auf – wie sich herausstellte – fehlerhafte Mondspektraldaten verlassen. Als er dies erkannte, rechnete er zehn Jahre später nach und veröffentlichte 1906 eine zweite Arbeit, in der er das tat, was sich Klima-„Wissenschaftler“ heute zu tun strikt weigern: Er widerrief seine erste Arbeit und veröffentlichte eine revidierte Schätzung, diesmal in deutscher Sprache, die von wahrhaft gläubigen Thermageddonisten nur selten zitiert wird:


Seine korrigierte Berechnung, die in dem damals neu gegründeten Journal of the Royal Nobel Institute veröffentlicht wurde, schlug 1,6 C° ECS vor, einschließlich der Wasserdampf-Rückkopplung.

Guy Stewart Callendar, ein britischer Dampfingenieur, veröffentlichte 1938 seine eigene Berechnung und präsentierte sein Ergebnis vor der Royal Society (die anschließende Diskussion in der Gesellschaft ist sehr lesenswert). Auch er sagte 1,6 C° ECS voraus, wie die gestrichelten Linien zeigen, die ich seiner Grafik hinzugefügt habe:

Dann gab es einen plötzlichen Sprung in der vorhergesagten ECS. Plass (1956) sagte 3,6 C° ECS voraus. Möller (1963) sagte eine direkte oder Referenz-CO2-Verdoppelungssensitivität (RCS) von 1,5 C° voraus, die auf bis zu 9,6 C° anstieg, wenn sich die relative Feuchte nicht veränderte. Er fügte einen wichtigen Zusatz hinzu: „…die Veränderung des Strahlungsbudgets durch eine veränderte CO2-Konzentration kann vollständig ohne Veränderung der Oberflächentemperatur kompensiert werden, wenn die Bewölkung um +0,006 erhöht wird.“ Es überrascht nicht, dass er zu dem Schluss kam, dass „die Theorie, dass klimatische Variationen durch Variationen des CO2-Gehalts bewirkt werden, sehr fragwürdig wird.

[Hervorhebung im Original]

Manabe & Wetherald (1975), die ein frühes radiativ-konvektives Modell verwendeten, sagten 2,3°C ECS voraus. Hansen (1981) gab eine mittlere Schätzung von 2,8°C° ECS an. Im Jahr 1984 kehrte er zu dem Thema zurück und führte zum ersten Mal die Rückkopplungsformel aus der Regelungstheorie ein, dem Studium der Rückkopplungsprozesse in dynamischen Systemen (Systeme, die ihren Zustand über die Zeit verändern). Er sagte 1,2°C RCS und 4°C ECS voraus, was einen Rückkopplungsanteil von 0,7 impliziert.

Im Jahr 1988 sagte er in seiner inzwischen berüchtigten Aussage vor dem US-Senat in einem Juni, der so heiß war, wie es in Washington DC seither nicht mehr der Fall war, 3,2°C pro Jahrhundert voraus (was in etwa dem ECS entspricht), bei einem Business-as-usual-Szenario (und es ist das Business-as-usual-Szenario, das seither eingetreten ist), aber die tatsächliche Erwärmung beträgt kaum mehr als ein Drittel der von ihm vorhergesagten Business-as-usual-Rate:

Im Jahr 1988 kehrte der verstorbene Michael Schlesinger zum Thema Temperaturrückkopplung zurück und fand heraus, dass in einem typischen allgemeinen Zirkulationsmodell der Rückkopplungsanteil – d. h. der Anteil der Gleichgewichtsempfindlichkeit, der durch die Rückkopplungsreaktion beigetragen wird – ein absurd hoher Wert von 0,71 war, was einen Systemgewinnfaktor (das Verhältnis der Gleichgewichtsempfindlichkeit nach der Rückkopplung zur Referenzempfindlichkeit davor) von 3,5 und somit, unter der Annahme von 1,05 RCS, einen ECS von 3,6 C° bedeutet.

Gregory et al. (2002) stellten eine vereinfachte Methode zur Ableitung der ECS unter Verwendung einer Energiebilanzmethode vor. Energiebilanzmethoden gab es schon seit einiger Zeit, aber erst in den frühen 2000er Jahren wurden die Satelliten- und Ozeandaten zuverlässig und umfassend genug, um diese einfache Methode anzuwenden. Gregory generierte eine Wahrscheinlichkeitsverteilung, die stark rechts-verschoben ist (aus einem Grund, der später deutlich wird), mit einer mittleren Schätzung von 2 C° ECS:

Auf Gregorys Ergebnis folgten viele weitere Arbeiten, die die Energiebilanzmethode verwendeten. Die meisten von ihnen finden, dass ECS 1,5-2 C° beträgt, ein Drittel bis die Hälfte des mittleren Bereichs von 3,7-4 C°, den die aktuellen allgemeinen Zirkulationsmodelle vorhersagen.

Im Jahr 2010 schrieben Lacis et al. in Anlehnung an die Methode der GCMs:

Für den verdoppelten CO2-Einstrahlungsantrieb, … für den die direkte, nicht rückgekoppelte Antwort der globalen Oberflächentemperatur 1,2 C° beträgt …, impliziert die ~4 C° Oberflächenerwärmung [einen] … [Systemverstärkungsfaktor] von 3,3. …“

Lacis et al. fuhren fort zu erklären, warum sie dachten, dass es einen so großen Systemverstärkungsfaktor geben würde, der einen Rückkopplungsanteil von 0,7 impliziert:

Nicht kondensierende Treibhausgase, die 25 % des gesamten terrestrischen Treibhauseffekts ausmachen, … sorgen für die stabile Temperaturstruktur, die das derzeitige Niveau des atmosphärischen Wasserdampfs und der Wolken über Rückkopplungsprozesse aufrechterhält, die die restlichen 75 % des Treibhauseffekts ausmachen.

Leider wird in der obigen Passage explizit ein außerordentlicher, in der gesamten Klimatologie universeller Fehler begangen, der der Grund dafür ist, dass die Modellierer eine weitaus größere Erwärmung erwarten – was daher auch ihre Modelle simulieren – als es die direkte und einfache Energiebilanzmethode nahelegen würde. Das einfache Blockdiagramm unten demonstriert den Fehler, indem es die fehlerhaften (rot) mit den korrigierten (grün) Werten in der gesamten Schleife vergleicht:

Werfen wir einen Blick auf die Rückkopplungsschleife für das vorindustrielle Zeitalter. Wir untersuchen die vorindustrielle Ära, denn als die Modellierer zum ersten Mal versuchten, den Einfluss des Wasserdampfs und anderer Rückkopplungen abzuschätzen, von denen keine direkt und zuverlässig durch Messung oder Beobachtung quantifiziert werden kann, begannen sie mit der vorindustriellen Ära.

Zum Beispiel sagt Hansen (1984):

… diese Voraussetzung der Energiebilanz ergibt eine [Emissionstemperatur] von etwa 255 K. … die Oberflächentemperatur ist etwa 288 K, 33 K wärmer als die Emissionstemperatur. … Die gleichgewichtige globale mittlere Erwärmung der Oberflächenluft beträgt etwa 4°C … Dies entspricht einem [Systemgewinnfaktor] von 3-4, da die zur Wiederherstellung des Strahlungsgleichgewichts mit dem Weltraum erforderliche rückkopplungsfreie Temperaturänderung 1,2-1,3°C beträgt.“

Lassen Sie uns zunächst den Kreislauf der Klimatologie durchlaufen. Die direkte Erwärmung durch vorindustrielle, nicht kondensierende Treibhausgase (das kondensierende Gas Wasserdampf wird als Rückkopplung behandelt) beträgt etwa 8 K, aber der gesamte natürliche Treibhauseffekt, die Differenz zwischen der 255 K hohen Emissionstemperatur und der 287 K hohen mittleren globalen Oberflächentemperatur im Jahr 1850, beträgt 32 K. Daher ist der Systemgewinnfaktor der Klimatologie 32 / 8 oder 4, so dass ihr imaginärer Rückkopplungsanteil 1 – 1/4 oder 0,75 beträgt – wiederum absurd hoch. Somit würde aus 1 K RCS 4 K ECS werden.

Gehen wir nun den Weg der Regelkreistheorie, der zuerst von Black (1934) in den Bell Labs in New York bewiesen und in der Praxis lange und schlüssig verifiziert wurde. Man muss nicht nur die vorindustrielle Referenzsensitivität gegenüber nicht kondensierenden Treibhausgasen über den summativen Ein-/Ausgangsknoten am Scheitelpunkt der Schleife in die Schleife eingeben: man muss auch die 255 K Emissionstemperatur (gelb) eingeben, die als Eingangssignal bekannt ist (der Hinweis steckt im Namen).

Es ist die Sonne, Dummkopf!

Dann ist der Ausgang des Kreislaufs nicht mehr nur der natürliche Treibhauseffekt von 32 K: Es ist die globale mittlere Oberflächentemperatur im Gleichgewicht von 287 K im Jahr 1850. Der Systemgewinnfaktor ist dann 287 / (255 + 32), oder 1,09, weniger als ein Drittel der Schätzung der Klimatologie. Der Rückkopplungsanteil ist 1 – 1 / 1,09, oder 0,08, also um eine Größenordnung kleiner als die Schätzung der Klimatologie.

Daher gibt es im Gegensatz zu dem, was Hansen, Schlesinger, Lacis und viele andere sich vorstellen, keinen guten Grund in den vorindustriellen Daten zu erwarten, dass die Rückkopplung auf der Erde in ihrer Größenordnung einzigartig im Sonnensystem ist, oder dass ECS so etwas wie das imaginäre Drei- oder Vierfache von RCS sein wird.

Wie aus dem Zitat von Lacis et al. ersichtlich ist, geht die Klimatologie in der Tat davon aus, dass der System-Gain-Faktor im Industriezeitalter etwa gleich groß sein wird wie der für das vorindustrielle Zeitalter. Daher ist das übliche Argument gegen die korrigierte vorindustrielle Berechnung – dass sie keine Inkonstanz der Rückkopplungsantwort der Einheit mit der Temperatur berücksichtigt – nicht relevant.

Darüber hinaus kommt eine einfache Energiebilanzberechnung des ECS unter Verwendung aktueller Mainstream-Daten aus der Industriezeit in einem Verfahren, das sich völlig von der vorindustriellen Analyse unterscheidet und in keiner Weise von ihr abhängig ist, zu demselben Ergebnis kommt wie das korrigierte vorindustrielle Verfahren: ein vernachlässigbarer Beitrag der Rückkopplungsreaktion. Demnach ist die Rückkopplungsreaktion der Einheit annähernd konstant mit der Temperatur, und ECS ist kaum mehr als die 1,05 K RCS.

Warum also liegen die Modelle mit ihren Vorhersagen so falsch? Mittelfristig (oben im Diagramm unten) betrug die mittelfristig projizierte anthropogene Erwärmung pro Jahrhundertäquivalent 3,4 K, wie vom IPCC 1990 vorhergesagt, aber die beobachtete Erwärmung betrug nur 1,65 K, wovon nur 70% (Wu et al. 2019) oder 1,15 K anthropogen waren. Die Vorhersage des IPCC war also etwa dreimal so hoch wie die nachträgliche Beobachtung, was mit dem Fehler, aber nicht mit der Realität übereinstimmt.

Da der gegenwärtig geschätzte verdoppelte CO2-Strahlungsantrieb in etwa dem vorhergesagten Strahlungsantrieb aus allen anthropogenen Quellen für das 21. Jahrhundert entspricht, kann man in der neuesten Generation von Modellen die gleiche dreifache Übertreibung im Vergleich zu den 1,1 K ECS beobachten, die sich aus den aktuellen Klimadaten (untere Hälfte des obigen Diagramms) ableiten lassen, einschließlich der realen Erwärmung und des Strahlungsungleichgewichts, und zwar über die Energiebilanzmethode.

Der Fehler, die große Rückkopplungsreaktion auf die Emissionstemperatur zu vernachlässigen und sie somit effektiv zu der eigentlich winzigen Rückkopplungsreaktion auf die direkte Treibhausgas-Erwärmung zu addieren und falsch zu zählen, ist elementar und schwerwiegend. Dennoch scheint es in der gesamten Klimatologie universell zu sein. Hier sind nur ein paar Aussagen davon:

[Es folgen diese Statements, auf deren Übersetzung hier verzichtet wird. Sie gehen alle in die gleiche Richtung und untermauern Moncktons Vorwurf. A. d. Übers.]

Die Auswirkung des Fehlers ist in der Tat drastisch. Der Systemgewinnfaktor und damit der ECS wird um das Drei- bis Vierfache überschätzt; der Rückkopplungsanteil wird um das Zehnfache überschätzt; und die Einheitsrückkopplung (d.h. die Rückkopplungsantwort pro Grad direkter Erwärmung vor Berücksichtigung der Rückkopplung) wird im mittleren Bereich um das 30-fache und am oberen Rand der Modellvorhersagen um das 100-fache überschätzt.

[Hervorhebungen im Original]

Der Fehler kann sehr einfach verstanden werden, wenn man sich anschaut, wie die Klimatologie und die Regelungstheorie den Systemverstärkungsfaktor auf der Grundlage vorindustrieller Daten berechnen würden:

Da RCS kaum mehr als 1 K beträgt, ist ECS, nachdem die Sonnenscheintemperatur von 255 K zur Glättung von Zähler und Nenner der Klimatologie hinzugefügt wurde, kaum mehr als der Systemgewinnfaktor. Und das ist das Ende des „Klimanotstands“. Es war alles ein Irrtum.

Natürlich wird die Rückkopplungsformel in den Modellen nicht direkt berücksichtigt. Rückkopplungen werden ex post facto aus ihren Outputs diagnostiziert. Kürzlich sagte ein angesehener skeptischer Klimatologe mit Blick auf unser Ergebnis, dass wir aus der Diskrepanz zwischen den ECS-Schätzungen der Modelle und unseren eigenen hätten erkennen müssen, dass wir falsch liegen müssen, weil die Modelle das Klima perfekt abbilden.

Es erweist sich sicherlich als nicht weniger schwierig, den Skeptikern den Fehler der Regelungstheorie zu erklären als der totalitären Fraktion, die von diesem Fehler so mächtig profitiert. Hier ist also, wie unser angesehener Co-Autor, ein führender Professor für Regelungstheorie, es ausdrückt:

Natürliche Größen sind, was sie sind. Eine Größe als die Summe aus einem Basissignal und dessen Störung zu definieren, ist ein vom Beobachter geschaffenes Modell. Wenn das Basissignal – analog zum Eingangssignal in einer elektronischen Schaltung – willkürlich gewählt wird, hört die Störung (die Differenz zwischen der willkürlich gewählten Basislinie und der Größe, die die Summe aus Basislinie und Störung ist) auf, eine reale, physikalische Größe zu sein: Sie ist lediglich ein Artefakt eines Konstrukts, das eine physikalische Größe willkürlich in mehrere Komponenten aufteilt. Das reale System kümmert sich jedoch nicht um die Modelle, die von seinem Beobachter erstellt werden. Dies lässt sich leicht an der wichtigsten Rückkopplungsschleife von allen demonstrieren, der Wasserdampf-Rückkopplung, bei der die Erwärmung dazu führt, dass Wasser verdunstet und der entstehende Wasserdampf, ein Treibhausgas, eine zusätzliche Erwärmung erzwingt.

Die Klimatologie definiert die Rückkopplung so, dass nur die Störung – nicht aber auch das Basissignal, die Emissionstemperatur – die Rückkopplung auslöst. Die Implikation ist, dass in der Sicht der Klimatologen die Sonne kein Wasser verdunstet. In ihren Modellen verdunstet die gesamte Sonneneinstrahlung von 1363,5 W/m² kein einziges Wassermolekül, während die Erwärmung, die durch nur 25 W/m² des vorindustriellen Antriebs durch nicht kondensierende Treibhausgase verursacht wird, allein für die gesamte natürlich vorkommende Verdunstung von Wasser auf der Erde verantwortlich ist. Dies ist offensichtlicher Unsinn. Wasser kümmert sich weder um die Quelle der Wärme, die es verdunstet, noch um die fehlerhaften Definitionen der Klimatologie für Rückkopplungen. Im Modell der Klimatologie würde die Wasserdampf-Rückkopplung aufhören zu funktionieren, wenn alle Treibhausgase aus der Atmosphäre entfernt würden. Die Sonne würde durch ihre Emissionstemperatur kein einziges Wassermolekül verdampfen, denn nach der Definition der Klimatologen verdampft Sonnenschein kein Wasser.

Wärme ist immer die gleiche physikalische Größe, unabhängig von der Quelle der Wärme. Der Zustand eines Systems kann durch die darin enthaltene Wärmeenergie beschrieben werden, unabhängig von der Quelle der Wärme. Temperatur-induzierte Rückkopplungen werden durch verschiedene Wärmequellen ausgelöst. Die Sonne ist die größte dieser Quellen. Die Wärme aus der Sonneneinstrahlung folgt genau den gleichen Naturgesetzen wie die Wärme aus dem Treibhauseffekt. Alles, was bei der Analyse des Verhaltens eines physikalischen Systems zählt, ist der Gesamtwärmeinhalt, nicht seine ursprüngliche Quelle oder Quellen.

Die Modelle der Klimatologie spiegeln diese Tatsache nicht wider. Ein Modell eines natürlichen Systems muss die inneren Abläufe dieses Systems widerspiegeln, die nicht durch irgendeinen „Konsens“ wegdefiniert werden dürfen. Der Maßstab für ein gutes Modell eines realen Systems ist nicht „Konsens“, sondern die objektive Realität. Die Funktionsweise eines Rückkopplungs-Verstärkers in einem dynamischen System wie dem Klima (ein dynamisches System ist ein System, das seinen Zustand im Laufe der Zeit ändert) ist seit langem theoretisch bewiesen und wurde wiederholt in realen Anwendungen demonstriert, wie z. B. in den Steuerungssystemen für Kraftwerke, Space Shuttles, den Fliegen auf den Saphirwellen von Kirchturmuhren, den Reglern von Dampfmaschinen und der erhöhten spezifischen Luftfeuchtigkeit bei wärmerem Wetter im Klima und den Systemen, die uns zum Mond gebracht haben.

Jeder Regelungstheoretiker, dem wir unsere Ergebnisse gezeigt haben, hat die Sache sofort kapiert. Jeder Klimatologe – ob Skeptiker oder Thermagedonist – hat sich unangenehm verrenkt. Denn die Regelungstheorie liegt genau außerhalb der Kompetenz und Komfortzone der Klimatologie.

Lassen Sie uns also mit einer Untersuchung darüber enden, warum die „perfekten“ Modelle in Wirklichkeit und formal völlig unfähig sind, uns irgendetwas Nützliches darüber zu sagen, wie viel globale Erwärmung unsere Industrien und Unternehmen verursachen könnten.

Die Modelle versuchen, die Navier-Stokes-Gleichungen mithilfe der numerischen Strömungsmechanik für Zellen von typischerweise 100 km x 100 km x 1 km in einer Reihe von Zeitschritten zu lösen. In Anbetracht der Erdoberfläche und der Tiefe der Troposphäre müssen die Gleichungen immer und immer wieder, Zeitschritt für Zeitschritt, für jede von etwa einer halben Million solcher Zellen gelöst werden – in denen viele der relevanten Prozesse, wie z. B. die Bildung von Kondensationskernen nach der Svensmark-Theorie, auf der Sub-Grid-Skala stattfinden und von den Modellen überhaupt nicht erfasst werden.

Nun sind die Navier-Stokes-Gleichungen notorisch widerspenstige partielle Differentialgleichungen: tatsächlich so widerspenstig, dass noch keine Lösungen in geschlossener Form gefunden wurden. Sie können nur numerisch gelöst werden, und gerade weil es keine Lösungen in geschlossener Form gibt, kann man nicht sicher sein, dass die numerischen Lösungen keine Fehler enthalten.

Es gibt eine weitere große Schwierigkeit mit Modellen, die in einer Reihe von Zeitschritten ablaufen. Wie Pat Frank vor zwei Jahren in einem bahnbrechenden Papier von großer Genialität und Auffassungsgabe zum ersten Mal dargelegt hat – ein Papier übrigens, das bisher noch keine von Fachleuten begutachtete Widerlegung erfahren hat – macht die Ausbreitung der Unsicherheit durch die Zeitschritte der Modelle sie formal unfähig, uns irgendetwas darüber zu sagen, wie viel oder wie wenig globale Erwärmung wir verursachen könnten. Was auch immer die Modelle sonst noch für einen Nutzen haben mögen, ihre Vorhersagen zur globalen Erwärmung sind reine Vermutungen und völlig wertlos.

Ein Problem ist, dass die Unsicherheiten in den Schlüsselvariablen so viel größer sind als das winzige mittlere anthropogene Signal von weniger als 0,04 Watt pro Quadratmeter und Jahr. Zum Beispiel unterliegt der wolkenarme Anteil einer jährlichen Unsicherheit von 4 Watt pro Quadratmeter (abgeleitet durch Mittelwertbildung über 20 Jahre). Da die Ausbreitung von Unsicherheiten in Quadratur erfolgt, breitet sich diese eine Unsicherheit so aus, dass sie für sich allein eine Unsicherheits-Bandbreite von ±15 bis ±20 °C über ein Jahrhundert ergibt. Und es gibt viele, viele solcher Unsicherheiten.

Daher ist jede Vorhersage auf der Hundertjahresskala, die in diesen Bereich der Unsicherheit fällt, nichts weiter als eine aus der Luft gegriffene Vermutung. Hier sieht man, wie die Unsicherheitsausbreitung dieser einen Variable in nur einem Modell aussieht. Das gesamte Intervall der CMIP6 ECS-Projektionen liegt deutlich innerhalb der Unsicherheits-Bandbreite und sagt uns daher nichts – gar nichts – darüber, wie viel Erwärmung wir verursachen könnten.

Pat hatte die gleichen Schwierigkeiten wie wir, Skeptiker und Thermageddonisten gleichermaßen von seiner Richtigkeit zu überzeugen. Als ich ihn das erste Mal sah, wie er einen erstklassigen Vortrag zu diesem Thema hielt, auf dem Treffen der World Federation of Scientists in Erice auf Sizilien im Jahr 2016, wurde er von Wissenschaftlern auf beiden Seiten in einer skandalös bösartigen und ignoranten Art und Weise niedergebrüllt, die an die grobe Misshandlung von Henrik Svensmark durch die profitgierigen Rohlinge der einst so angesehenen Royal Society vor einigen Jahren erinnert.

Hier sind nur einige der unsinnigen Antworten, mit denen Pat Frank in den letzten paar Jahren seit der Veröffentlichung zu tun hatte, und davor von Gutachtern bei mehreren Zeitschriften, die einfach nicht bereit waren, ein so bahnbrechendes Ergebnis zu veröffentlichen:

Fast alle Gutachter von Dr. Franks Arbeit a) kannten den Unterschied zwischen Genauigkeit und Präzision nicht; b) verstanden nicht, dass eine Temperaturunsicherheit kein physikalisches Temperaturintervall ist; c) erkannten nicht, dass die Ableitung einer Unsicherheit zur Bedingung einer projizierten Temperatur nicht impliziert, dass das Modell selbst zwischen Eishaus- und Treibhaus-Klimavorhersagen oszilliert [ein tatsächlicher Einwand eines Gutachters]; d) behandelte die Fortpflanzung der Unsicherheit, eine statistische Standardmethode, als ein fremdes Konzept; e) verstand nicht den Zweck oder die Bedeutung eines Kalibrierungsexperiments; f) verstand nicht das Konzept der instrumentellen oder Modellauflösung oder deren empirische Grenzen; g) verstand überhaupt nicht die physikalische Unsicherheitsanalyse; h) erkannte nicht einmal, dass ±n nicht dasselbe ist wie +n; i) erkannte nicht, dass die Unsicherheit von ± 4 W/m² im Wolkenantrieb ein jährlicher Mittelwert war, der aus den Daten von 20 Jahren abgeleitet wurde; j) verstand nicht den Unterschied zwischen dem Basiszustandsfehler, dem räumlichen Effektivwertfehler und dem globalen Netto-Mittelwertfehler; k) erkannte nicht, dass die Bildung des Mittelwerts der Unsicherheiten die Vorzeichen der Fehler aufhebt und das wahre Ausmaß der Unsicherheit verbirgt; l) erkannte nicht, dass die Gewohnheit der Klimamodellierer, Differenzen gegenüber einem Basiszustand zu bilden, die Unsicherheit nicht abzieht; m) stellte sich vor, dass ein Simulationsfehler im troposphärischen Wärmeinhalt keine falsche Lufttemperatur erzeugen würde; verstand nicht, dass die Unsicherheit des geringen Wolkenanteils, auf der die Analyse basierte, weder eine Basiszustandsunsicherheit, noch ein konstanter Fehler, noch ein zeitinvarianter Fehler war; n) stellte sich vor, dass die angeblich korrekte Temperaturprojektion von Hansen (1988) für 1988-2020 die Analyse ungültig machte.

Pah! Wir haben dieselbe Art von Unsinn ertragen müssen, und zwar aus demselben Grund: Die Klimatologen sind mit den relevanten Bereichen der Mathematik, Physik und Wirtschaft außerhalb ihres eigenen engen und allzu oft stumpfsinnig engstirnigen Spezialgebiets nur unzureichend vertraut, und sie sind höchst unwillig zu lernen.

Die Quintessenz ist, dass die Klimatologie einfach falsch liegt, was das Ausmaß der zukünftigen globalen Erwärmung angeht. Keine Regierung sollte dem, was sie sagt, auch nur die geringste Aufmerksamkeit schenken.

[Hervorhebung vom Übersetzer]

Link: https://wattsupwiththat.com/2021/05/09/why-models-cant-predict-temperature-a-history-of-failure/

Übersetzt von Chris Frey EIKE

 




Klima-Wissenschaft: Psst, irren muss menschlich bleiben

Notwendig für den Erfolg sind in jedem Fall Geld, fachliche Kompetenz und wissenschaftliche Ethik. Wenn letztere fehlt, dann sieht es schlecht aus, dann wird aus der Wissenschaft eine Machenschaft. Dazu zwei Beispiele.

Die Statistik spricht dafür, dass Sie, lieber Leser, liebe Leserin, sich nie für Physik interessiert, die Schule trotzdem gemeistert und im Leben bisher Erfolg hatten. Der zweite Hauptsatz der Thermodynamik oder Schrödingers Gleichung können Ihnen gestohlen bleiben.

Die Physik aber hat etwas mit der Rechtsprechung gemeinsam: ihre Gesetze gelten, egal ob wir sie kennen oder nicht. Im Gegensatz zur Rechtsprechung haben sie allerdings keine Ausnahmen. Alle Elektronen in allen Atomen im Weltall gehorchen in jedem Moment denselben Regeln. Nicht eines tanzt aus der Reihe.

Vielleicht entgegnen Sie jetzt, die Wissenschaft sei keineswegs unfehlbar und hätte nach den Entdeckungen von Einstein & Co jedes Mal neu geschrieben werden müssen; dass durch Relativitätstheorie und Quantenmechanik die klassische Physik auf dem Müllhaufen gelandet sei.

Das ist nicht der Fall. Die von Newton im 17. Jahrhundert formulierten Gesetze erlaubten es, den Lauf der Planeten zu erklären und vorauszuberechnen. Die Gestirne haben ihren Lauf aber nicht an dem Tag im 20. Jahrhundert geändert, als Relativitätstheorie und Quantenmechanik erfunden wurden. Saturn, Jupiter und Venus ziehen ihre göttlichen Bahnen wie eh und je. Der Götterbote Merkur allerdings tanzt jetzt so ein kleines bisschen aus der Reihe, aber das ist eine andere Geschichte.

Wir teilen uns dann den Nobelpreis

Es gibt natürlich Abläufe, die nicht vorhersehbar sind – etwa wenn wir eine Münze werfen, dann wissen wir nicht, ob es Kopf oder Zahl wird. Das heißt aber nicht, dass hier die Physik außer Kraft wäre. Wenn das Stück Metall auf der Tischplatte landet, dann gelten die Regeln für Erhaltung von Energie und Impuls genauso wie im übrigen Universum.

Und falls Sie, liebe Leserin, eine Beobachtung gemacht haben sollten, die der Physik widerspricht, dann lassen Sie es mich wissen. . Bitte kommen Sie mir aber nicht mit Ihren Jack Russel Terrier, dessen Zugkraft an der Hundeleine allen Naturgesetzen spottet.

Physik ist ein Haus aus soliden Quadern, an dem fortlaufend gearbeitet wird. Es ist noch nicht vorgekommen, dass einer der tragenden Steine sich als marode herausgestellt hätte, auch wenn er gelegentlich etwas verstärkt werden musste. Diesen Erfolg verdanken wir der wissenschaftlichen Methode, mit der das Gebäude geschaffen wurde.

Zur Erklärung ein Beispiel aus eigener Erfahrung. Ich besuchte vor vielen Jahren einen befreundeten Wissenschaftler am Argonne National Laboratory. Wir fuhren abends im Auto auf verschneiten Straßen durch Chicago, und er erzählte mir, so nebenher, dass er in einem Experiment die Verletzung der Heisenbergschen Unschärfe-Relation gemessen hätte.

Dieses Gesetz ist der heilige Gral der Quantenphysik, und ich wunderte mich über die Nonchalance, mit der er diese revolutionäre Mitteilung machte. Ich reagierte, so wie jeder andere Physiker es auch getan hätte, indem ich fragte: „Und was habt ihr in dem Experiment falsch gemacht?“ Er versicherte, dass alle möglichen Fehlerquellen x-mal überprüft wurden, dass Irrtümer ausgeschlossen seien, und dass diese brisante Sache schnell veröffentlicht werden soll.

So geschah es, und bald wurde das Experiment weltweit an anderen Instituten wiederholt – allerdings mit anderem Resultat: Die Verletzung der Unschärferelation wurde nicht gemessen.  Es kam zu intensivem Gedankenaustausch zwischen den Forschern, und bald sah mein Bekannter ein, dass der Hund bei ihm begraben war. Über seinen Irrtum schrieb er dann auch eine Veröffentlichung. Damit war alles geklärt und der heilige Gral der Quantenphysik blieb unangetastet.

Das Haus bleibt sauber, ohne Leichen im Keller

Da haben wir also die Methode: Der Forscher gewährt dem Rest der Welt totale Transparenz darüber, was er wie gemessen und gerechnet hat. So können Kollegen weltweit seine Resultate prüfen und entweder bestätigen oder infrage stellen. In letzterem Fall werden sie sich gegenseitig nicht als Leugner schmähen, sondern als nützliche Gesprächspartner willkommen heißen, und die Chancen stehen gut, dass man gemeinsam den sachlichen Grund für den Widerspruch findet. Dieses Ergebnis wird der Welt dann mitgeteilt; das Haus bleibt sauber, ohne Leichen im Keller.

So läuft Qualitätssicherung in der Wissenschaft. Und der Forscher, der den Fehler gemacht hatte, wird weder verspottet noch geächtet, denn Irren ist menschlich, aber auf dem Irrtum beharren ist idiotisch – zumindest in der Wissenschaft. Die Ansammlung solcher geprüfter Erkenntnisse ist unser Wissen. Ist es auch die Wahrheit? Das ist eine Frage für den Semantiker oder den Philosophen. Auf jedem Fall wäre es töricht, bei der Lösung von Problemen das existierende Wissen nicht einzusetzen – in der Medizin wäre das sogar sträflich.

Einen phantastischen Erfolg erzielte man im Jahr 2015, als zum ersten Mal Gravitationswellen gemessen wurden. Dieses Phänomen tritt auf, wenn schwere Massen beschleunigt werden. Vielleicht denken Sie jetzt an Ihre 300-Kilo Kawasaki, die einen Wheelie macht, wenn Sie aufdrehen – die erzeugt bestimmt Gravitationswellen! Im Prinzip ja, aber hier ging es um andere Kaliber, die nicht in Kilogramm, sondern in Sonnenmassen und deren Speed in Prozent der Lichtgeschwindigkeit beschrieben wird.

Folge dieser Wellen ist, dass sich der umgebende Raum in ihrem Takt ausdehnt und zusammenzieht; das hat Einstein jedenfalls behauptet und dafür auch eine Gleichung hinterlassen. So konnte man in recht anspruchsvollen Rechnungen abschätzen, wie sehr sich der Raum verändert, wenn so eine Welle von weit her bei uns auf der Erde einfällt. Man kam darauf, dass es hier um den Bruchteil des Durchmessers eines Atomkerns geht. Das wollte man nun messen.

Manchmal ist es schon schwierig, die Löcher für eine Gardinenstange auf ein paar Millimeter genau in die Wand zu bohren, und die ist nur zwei Meter lang. Hier nahm man eine Strecke, die mehrere Kilometer lang ist und wollte kleinste Längenänderungen messen, für die es keinen Vergleich gibt. Wie soll das gehen?

Es ist tatsächlich gelungen, die Forscher bekamen den Nobelpreis, und auch die Medien nahmen sich des Falls an.

Ein Triumph moderner Technik und wissenschaftlicher Ethik

Eine Apparatur mit solch grotesker Messgenauigkeit wird natürlich auf viele andere Einflüsse reagieren, die dann von den Forschern versehentlich als echtes Messsignal interpretiert werden könnten, wie vielleicht das Knattern der Kawasaki – also die Schallwellen, nicht die Gravi-Wellen. Um solche Fehlinterpretationen zu bekämpfen gab es ein eigenes Team mit der Aufgabe, Störungen zu erzeugen, die von den Forschen vielleicht irrtümlich für eine echtes Ereignis gehalten würden. Die beiden Teams durften keinen Kontakt zueinender haben. So lernte man bei den Messungen die Spreu vom Weizen zu trennen und hat inzwischen mehrere Ereignisse beobachtet, deren gewaltige Energien selbst die erfahrensten Astronomen zu leichtem Kopfschütteln motivierten.

Das erste, welches Schlagzeilen machte, stammte von zwei Schwarzen Löchern mit jeweils mehreren Sonnenmassen, die sich umkreisten und dabei gegenseitig aufsogen, wie zwei riesige Vampire, um schließlich einen einzigen Himmelskörper zu bilden. Die Gravitationswellen der letzten halben Sekunde dieses Tanzes wurden aufgezeichnet in dieser Graphik und sie entsprachen den Rechnungen gemäß der allgemeinen Relativitätstheorie.

Konnte man diesem Ergebnis trauen? Die Tatsache, dass die beiden Zwillingsapparaturen, die eine in Louisiana und die andere im Staate Washington, identische Messungen machten, war ermutigend. Dennoch ließ man sich mit der Veröffentlichung ein halbes Jahr Zeit, in dem man selbstkritisch alle Möglichkeiten eines Irrtums ausschloss – mit Erfolg. Es war ein Triumph moderner Technik und wissenschaftlicher Ethik.

Es gibt ein weiteres interessantes Experiment, welches derzeit auf der Erde läuft, und wieder geht es um die Bestätigung einer wissenschaftlichen Theorie durch Messungen. Hier die Fakten:

Die Konzentration von CO2 in der Erdatmosphäre hat in den vergangenen 50 Jahren um etwa ein Viertel zugenommen. CO2 in der Atmosphäre absorbiert gewisse Teile der infraroten Strahlung, welche die Erdoberfläche dank ihrer Temperatur von durchschnittlich 15°C  abgibt. Die durch Strahlung abgegebene Leistung ist proportional zur vierten Potenz der Temperatur, gemessen in Kelvin. Eine Erwärmung von 15 auf 16°C würde die die Wärmeabstrahlung um ca. 1,4 Prozent erhöhen.

Die Erdoberfläche nimmt eine solche Temperatur an, dass die abgestrahlte Leistung im Mittel gleich der von der Sonne empfangenen ist (Wärmequellen im Inneren der Erde vergessen wir mal).

Die Abschirmung der Abstrahlung durch CO2 (d.h. die Tatsache, dass durch mehr CO2 die Erde immer weniger einem „schwarzen Strahler“ gleicht) wird also spontan ausgeglichen durch eine Erhöhung der Temperatur.

Wenn wir nur diese Fakten betrachten, dann sollte es auch in diesem Fall möglich, wenn auch nicht ganz einfach sein, den Temperaturverlauf theoretisch zu berechnen, das theoretische „Modell“ an Temperaturdaten der Vergangenheit anzupassen (zu „fitten“) und für die Zukunft Prognosen zu machen. Wie bei den Gravitationswellen, so gibt es aber auch hier zahlreiche „Störfaktoren“, welche Einfluss auf die Temperatur haben, sodass CO2 nur einer der Akteure ist.

Insgesamt kein überzeugendes mathematisches Modell

Tatsächlich zeigt der gemessene Temperaturverlauf kaum Korrelation mit dem CO2-Anstieg. Es gibt lange Jahre mit fast konstanter Temperatur und dann vorübergehende Erhöhungen, die El Niño zugeschrieben werden. Aber insgesamt gibt es kein überzeugendes mathematisches Modell. Wie wollen jetzt hier keinesfalls in die wissenschaftliche Diskussion einsteigen, sondern „Meta-Wissenschaft“ betreiben, also die Art und Weise beurteilen, in der die Klimawissenschaft betrieben wird. Und da scheint es doch einige Mängel zu geben: Es fehlt nicht an Geld, aber an Ethik.

Die Klimaforschung ist nicht frei auf ihrer Suche nach der Wahrheit, ihre Arbeit ist nicht „ergebnisoffen“. Ihre Finanzierung hängt von der Produktion politisch opportuner Ergebnisse ab. Die Erkenntnis „Wir haben uns getäuscht, es ist alles halb so schlimm“ wäre a priori ausgeschlossen.

Auch die Praxis, dass eine Mehrheit der Forscher – die viel zitierten 97 Prozent – über richtig oder falsch entscheidet, ist in der Wissenschaft absurd. Vielleicht haben die 3 Prozent ja gute Gründe, wenn sie anderer Meinung sind. Auch das Dogma, die Forschung sei abgeschlossen, ist sehr verdächtig. In der Wissenschaft muss auf alle Einwände reagiert werden. Wenn sie trivial sind, dann ist das mit einem Satz erledigt. Wenn sie nicht trivial sind, dann könnten sie ein wertvoller Beitrag sein.

Der Behauptung, dass die Unschärferelation verletzt sein könnte, wurde nachgegangen, und sie stellte sich als Irrtum heraus. Die herrschende Klimawissenschaft aber wehrt jegliche Einwände gegen ihre Thesen mit dem Argument ab „The Science is settled.“ (hierein Beispiel).

Und was haben eigentlich die zigtausend Klimaforscher noch zu tun, wenn die Forschung abgeschlossen ist?

Sehr befremdlich sind auch die häufigen Pannen, bei denen Unkenntnis über elementarste Zusammenhänge zutage tritt. Immer wieder wird offensichtlich, dass wichtige Mitspieler keine Ahnung vom Thema haben. Nicht nur der Präsident des Sierra Clubs, auch Al Gore. Auf dem Umschlag von seinem neuem Buch „Our Choice“ waren zusätzliche Hurrikane mit Photoshop in ein echtes Foto gemalt worden. Gut, das ist künstlerische Freiheit. Einige davon drehten sich aber falsch rum: mit dem Uhrzeiger statt dagegen. War denn da wirklich niemand in Gores Stab, dem das aufgefallen wäre? Kein Lektor, der schon mal von Tiefdruckgebieten gehört hatte? Das ist wie ein Reiseführer von London, auf dessen Umschlagsbild die Autos rechts fahren.

In Wirklichkeit ein riesiges Potemkin’sches Dorf

Die Prognosen der Klimawissenschaftler sind immer wieder falsch. Die Vorhersagen für Temperaturanstiege lagen von Anfang an völlig daneben. Es begann mit der berüchtigten „Hockey Stick“ Kurve, dann kamen kryptische – und irrelevante – Prognosen vom Typ „mit 86,7% Wahrscheinlichkeit wird der Temperaturanstieg bis 2030 zwischen 0,62 und 3,17°C liegen“. Der Himalaya sollte demnächst schneefrei sein, und auch die Kassandra-Nachricht, der Montana Glacier National Park hätte bis 2020 seine Gletscher verloren, bewahrheitet sich nicht. Da waren vor zehn oder fünfzehn Jahren Schilder ins Eis gesteckt worden „Dieses Eis wird 2020 geschmolzen sein.“ Man stellte Ende 2019 fest, dass die Schilder noch immer solide im Eis steckten…

Kritiker werden von der Klima Community persönlich angegriffen. Es wird ihnen die Qualifikation abgesprochen, mitreden zu können. Auch Physik-Nobelpreisträger werden nicht geschont, weil sie keine „Klimawissenschaftler“ seien. Dabei kann ein Physiker ohne Klimawissen vermutlich mehr beitragen als ein Klimaexperte ohne Kenntnisse in Physik.

All diese Beobachtungen legen es sehr nahe, dass die globale „Scientific Community“, die vorgibt, den Planeten retten zu wollen, in Wirklichkeit ein riesiges Potemkin’sches Dorf ist, durch das Menschheit und Medien getrieben werden, und hinter dessen Fassaden ein Konglomerat aus NGOs, UN-Ablegern und Emissären nationaler Regierungen ein Geschäft nie dagewesenen Ausmaßes betreibt, finanziert von den Steuerzahlern dieser Welt.

Die Tatsache, dass die Bemühungen der vergangenen 25 Jahre das erklärte Ziel  – die Reduktion des CO2 Ausstoßes – total verfehlt haben, führt nicht zu Besinnung oder Selbstkritik, sondern zum Aufruf „Jetzt erst recht“.

So wird diese gigantische Geldmaschine zum Perpetuum mobile, welche im Dezember 2019 immerhin 27.000 Teilnehmer – so viele Einwohner hat Garmisch Partenkirchen –  zur UN Klimakonferenz COP25 nach Madrid gelockt hat. Und niemand rechnet damit, dass das CO2 jetzt tatsächlich reduziert wird. Drum hat man sich auch schon auf die nächste Konferenz geeinigt: November 2020 in Glasgow.

Es erinnert an einen Klub von Übergewichtigen, die seit 25 Jahren vergeblich versuchen abzunehmen, und die bei ihren jährlichen Treffen jedes Mal voller Empörung feststellen, dass sie weiter zugenommen haben. Aber die Zahl der Mitglieder steigt, nicht zuletzt, weil die Gastronomie bei den Treffen erste Klasse ist. Und bei der Abschlusskonferenz mit reichlich Speis und Trank heben alle das Glas und prosten sich zu: „Jetzt erst recht“.

 

Dr. Hans Hofmann-Reinecke studierte Physik in München und arbeitete danach 15 Jahre in kernphysikalischer Forschung. In den 1980er Jahren war er für die Internationale Atomenergiebehörde (IAEA) in Wien als Safeguards Inspektor tätig. Er lebt heute in Kapstadt. Dieser Artikel erschien zuerst auf www.think-again.org und im Buch des Autors „Grün und Dumm“ https://think-again.org/product/grun-und-dumm/




Facetten der Mathematik

Die Ägypter besaßen eine hochentwickelte Mathematik und Geometrie, sonst hätten sie nie und nimmer die Pyramiden berechnen und bauen können. Mit dem „Papyrus Rhind“ (aufbewahrt im Britischen Museum) haben sie uns gewissermaßen ein Buch zur Mathematik hinterlassen, in dem sogar x-Gleichungen vermerkt sind. Die wichtigste Schule der Mathematik befand sich jedoch um 350 v. Chr. in Alexandria. Das Genie Euklid, von dessen Leben wir fast nichts wissen, war der Begründer einer Schule, welche das berühmte Lehrbuch „Die Elemente“ herausgebracht hat.

Klassischerweise unterscheidet man in der Mathematik vier große Disziplinen: Geometrie, Algebra, Analysis und Stochastik. (Heute würden wir noch die Logik und die Topologie benennen.) Die Geometrie ist die Lehre des umgebenden Raumes mit Punkten, Geraden, Vierecken und Kreisen etc. Sie hatte ihre Blütezeit in der griechischen Antike. Bei der Algebra studiert man die Zahlen und ihre Eigenschaften, z. B. die Primzahlen. Die Analysis ist die Differential- und Integralrechnung und die Stochastik die Lehre vom Zufall.

Null – Eins – Unendlich

Die Erfindung der Null („0“) war eine Großtat, ähnlich wie die Erfindung des Rads. Vor gut tausend Jahren tauchte sie erstmals auf einem Tempel in Indien auf; um 1.200 n.Chr. war sie auch in Westeuropa angekommen. Manchmal entsteht ein Streit um das Vorzeichen der 0. Nun, der ist überflüssig, denn die 0 kann man sowohl mit einem plus-Zeichen, als auch mit einem minus-Zeichen versehen. Also: +0 oder -0 ist egal.— Anders verhält es sich bei der Frage, ob die 0 eine gerade Zahl (wie beispielsweise 4) oder eine ungerade Zahl (wie 5) ist. Nun, die Mathematiker sehen die 0 als eine gerade Zahl an, denn sie lässt sich zwei Mal auf 0 aufteilen: 0+0 ist wiederum 0.

Die natürliche Zahl 1 kennt jeder. Sie verleitet uns dazu immer weiter zu zählen, also: 1, 2, 3… bis in das Unendliche, welches die Mathematiker sich als (unbeweisbares) Axiom vorstellen. Mit dem Begriff „unendlich“ (geschrieben als liegende acht) lässt sich trefflich spielen, z. B. beim Bruchrechnen. So geht die Summe der unendlichen Bruchreihe 1/2 + 1/3 + 1/4 + 1/5 … = ∞

Sie geht also über alle Grenzen hinweg, bis ins Unendliche.
Demgegenüber ist die Summe der nur leicht veränderten Bruchreihe

1/2 + 1/4 + 1/8 + 1/16….= 1.

Die erste Reihe divergiert ins Unendliche,  die zweite konvergiert zu 1.

Ein Teilbereich der natürlichen Zahlen sind die Primzahlen; sie sind größer als 1 und nur durch 1 und sich selbst teilbar. Die ersten Primzahlen sind: 2, 3, 5, 7, 11, 13, 17, 19… Die Primzahlen haben eine große Bedeutung in der Verschlüsselungstechnik bei Großrechnern. Fakt ist, dass es unendlich viele Primzahlen gibt, aber dass (leider) keine Formel existiert, sie zu berechnen.

Mit dem Begriff ∞ man sich verrückte Sachen ausdenken. Eine Anwendung ist das sog.“Hilbert Hotel“, das im vorigen Jahrhundert von dem deutschen Mathematiker David Hilbert vorgestellt wurde. Er dachte sich ein Hotel aus mit unendlich vielen Zimmern, welche die Nummern 1, 2, 3… bis ∞ trugen. Alle Zimmer dieses Hotels sind belegt, aber nun taucht ein weiterer Gast auf, der Einlass begehrt. Für Hilbert ist dies kein Problem. Er bittet den (bisherigen) Gast in Zimmer 1 ins Zimmer 2 zu wechseln, den Gast in Zimmer 2 ins Zimmer 3 usf. bis ins Unendliche. Dadurch haben alle bisherigen Gäste wieder ein Zimmer – und der neue Gast kann in Zimmer 1 einziehen. Mathematisch gesprochen funktioniert dies, weil ∞ + 1 = ∞ ist.

 

Berühmte Mathematiker

Geniale Mathematiker gab es in den vergangenen zweieinhalbtausend Jahren in großer Zahl. Unter den noch Lebenden ist der Brite Andrew Wiles zu nennen, dem es gelang, eine vierhundert Jahre alte Behauptung des Franzosen Pierre de Fermat zu beweisen. Der sog. Fermat´sche Satz lautet vereinfacht: „Es ist unmöglich, einen Würfel exakt in zwei gleiche, kleinere Würfel zu zerlegen“. Klingt simpel, aber Wiles schuftete – im geheimen – volle sieben Jahre an der Lösung, die mehr als hundert Schreibmaschinenseiten umfasste. Danach genoss er seinen Ruhm in vollen Zügen.

Ein gegensätzlicher Charaktertyp war der (ebenfalls noch lebende) Russe Grigori Perelmann. Er bewies 2003 die sog. Poincaré-Vermutung. Sie besagt (vereinfacht), dass der vierdimensionale Raum in etwa so ähnlich ist, wie der uns zugängliche dreidimensionale. Noch mehr vereinfacht behauptet der Satz, dass jedes geometrische Objekt, welches kein Loch hat, in eine Kugel überführt werden kann. Trotz (oder wegen?) des Presserummels lehnte Perelmann nach der erfolgreichen Lösung jede Ehrung ab – auch den Millionenpreis einer amerikanischen Universität. Er kündigte sogar seine Stellung im Moskauer Forschungsinstitut und ist seitdem untergetaucht.

Keiner der beiden hat sich für den Nobelpreis qualifiziert, denn diese Auszeichnung gibt es nur in den Sparten Physik, Chemie, Medizin, Literatur und Frieden. Warum der schwerreiche Stifter AlfredNobel die Mathematik ausgelassen hat, dafür gibt es eine Legende: angeblich hatte der damals bekannteste schwedische Mathematiker, Gösta Mittag-Leffler (1846 – 1927), ein Verhältnis mit Nobels Frau, weswegen Nobel in seinem Testament, quasi aus Rache, keinen Preis für Mathematiker auslobte. Gegen diese Legende spricht allerdings die Tatsache, dass Alfred Nobel nie verheiratet war. Aber vielleicht hatte er eine attraktive Geliebte?!

Um diese offensichtliche Vakanz zu füllen, gibt es seit einiger Zeit die sog. Fields-Medaille. Sie wird alle vier Jahre an zwei bis max. vier Mathematiker – die jünger als 40 Jahre sein müssen! – für herausragende Entdeckungen in ihrem Gebiet vergeben. Damit ist ein bescheidenes Preisgeld von 15.000 kanadischen Dollars verbunden.

Geniale, aber nicht mehr lebende, Mathematiker des vorigen Jahrhunderts waren u. a. David Hilbert (1867 – 1943) und Kurt Gödel (1906 – 1978). Hilbert listete im Jahr 1900 in einer berühmten Rede 23 bedeutende, aber ungelöste Probleme der Mathematik auf. Von diesen ist in der Zwischenzeit ein Gutteil gelöst, entsprechend der alten Weisheit: „Durch Intuition entdeckt man, durch Wissenschaft beweist man“. Unter Hilberts Problemen war auch der Gödelsche Unvollständigkeitssatz, eine der wichtigsten Behauptungen der modernen Logik. Er besagt, dass man nicht alle Aussagen der Mathematik formal beweisen kann, womit er diese Wissenschaft in beträchtliche Nöte brachte.

Erstaunen mag, dass unter diesen Geistesheroen Albert Einstein (1879 – 1955), der Entdecker zweier Relativitätstheorien fehlt. Aber Einstein war in erster Linie ein genialer (theoretischer) Physiker. Auf dem Gebiet der Mathematik war er eher schwach – nach eigener Einschätzung!

Gehen wir weiter in die Vergangenheit zurück, dann treffen wir auf hervorragende Mathematiker wie Leonhard Euler (1707 – 1783), Carl Friedrich Gauß (1777 – 1855), Gottfried Wilhelm Leibniz (1646 – 1716) und Isaac Newton(1642 – 1726).

In der griechisch-römischen Antike ragen heraus: Thales von Milet, der um das Jahr 600 v. Chr. gelebt hat, Pythagoras von Samos (um 550 v. Chr.) und Euklid von Alexandria (um 350 v. Chr.). Der Allergrößte unter diesen antiken Genies war wohl Archimedes von Syrakus (um 250 v. Chr.). Er berechnete als Erster die Kreiszahl π und leiste auch als Physiker und Ingenieur Bedeutendes.
Pythagoras hat den nach ihm benannten Satz erstmals bewiesen; benutzt wurde er bereits von den Babyloniern. Seitdem gibt es für ihn mehr als 300 Beweise.

Archimedes

Schöne Formeln

In der Mathematik gibt es Tausende, ja Millionen von Formeln und Gleichungen. Kein Wunder, dass manche besonders „schön“ anmuten. Nach allgemeiner Ansicht gebührt die Krone der sog. Eulerschen Formel:


In dieser einfachen Beziehung kommen fünf wichtige Zahlen der Mathematik vor,
nämlich 0, 1, die Kreiszahl π, die Eulersche Zahl e und die imaginäre Einheit i.
Eine sonderliche Bedeutung für die Anwendung hat diese Formel nicht, sie ist nur einfach „schön“.

Besser für die Anwendung geeignet ist eine andere schöne Formel, die ebenfalls von Euler ist und aus dem Gebiet der Geometrie stammt. Sie lautet:

e – k + f = 2

Es ist die Eulersche Polyederformel, wobei Polyeder Vielflächner sind wie Würfel, Pyramiden – oder Fußbälle. Nicht jedoch, wohlgemerkt, die Kugel. Dabei bedeutet e die Anzahl der Ecken, k die Anzahl der Kanten und f die Anzahl der Flächen. Nehmen wir den Würfel als Beispiel. Er hat 8 Ecken (e), 12 Kanten (k), und 6 Flächen (f). Eingesetzt in die Polyederformel ergibt sich: 8-12+6=2.

Ein anderer, allen bekannter Polyeder ist der klassische Fußball. Er besteht in der Regel aus 12 (schwarzen) Fünfecken und 20 (weissen) Sechsecken, also insgesamt 32 Flächen (f). Durch Nachzählen kommt man auf 60 Ecken. Die Zahl der Kanten kann man aus der Formel errechnen:

60 + 32 – 2 = 90 Kanten.

Nach dieser vorbereitenden Tätigkeit ist Bayern München bereit zum Angriff:

Toooor!!
Übernommen vom Rentnerblog hier