OpenAI verkündete stolz, GPT-5 habe uralte Matheprobleme gelöst. Doch wie sich herausstellt, war das ein Missverständnis. Die KI bezog sich letztlich auf bestehende Forschungsergebnisse.
Was wurde genau behauptet? Am 17. Oktober 2025 veröffentlichte der Assistenzprofessor für Statistik der Harvard University Mark Sellke auf X einen Beitrag, der den Anschein erweckte, dass GPT-5 bei der Lösung von bisher ungelösten mathematischen Problemen geholfen habe.
Autoplay
Im Anschluss behauptete der Produktmanager von OpenAI, Kevin Weil, dass GPT 5 „10 offene Paul-Erdős-Probleme gelöst“ und bei weiteren 11 signifikante Fortschritte erzielt habe.
Diese Aussage wurde in einem mittlerweile gelöschten Tweet verbreitet, ohne klare Erklärung, was genau damit gemeint war oder welche Beweise zugrunde lagen (via Xataka). Der alleinige Verweis war der Ursprungs-Post von Sellke.
Was sind diese Erdős-Probleme eigentlich? Paul Erdős war ein legendärer ungarischer Mathematiker, der für seine große Zahl an Veröffentlichungen und tiefgreifende mathematische Fragen bekannt ist. Viele seiner Probleme, sogenannte Erdős-Probleme, gelten als besonders komplex und bisher noch ungelöst.
Sie betreffen unter anderem:
Primzahlen und deren Verteilung
Graphentheorie (z. B. Netzwerke oder Knotenpunkte)
Kombinatorik (die Mathematik des Zählens und Anordnens)
Auf der Plattform erdosproblems.com werden diese Probleme dokumentiert und mit aktuellen mathematischen Papern verknüpft.
Alles nur abgeschrieben?
Was lief bei OpenAIs Aussage schief? OpenAI stützte sich bei seiner Behauptung auf die Plattform „Erdős Problems“, wo Forscher mathematische Fortschritte zusammentragen. Zudem interpretierte Kevin Weil den Post des Assistenzprofessors schlichtweg falsch.
Der Mathematiker Thomas Bloom, der die Plattform betreibt, auf der diese offenen mathematischen Fragen gesammelt werden, stellte rasch klar, worum es sich wirklich handelte. Wie er auf X erläuterte, sei die Darstellung von OpenAI eine „dramatische Fehlinterpretation“. GPT-5 habe schlicht aktuelle Studien und Forschungsergebnisse gefunden.
Also wurden die Probleme nicht im mathematischen Sinne gelöst. Stattdessen hatte das Sprachmodell lediglich bekannte Paper zugeordnet oder trivial erweitert – was seitens OpenAI fälschlich als „Lösung“ interpretiert wurde.
GPT-5 ordnete also lediglich vorhandene Informationen neu zu. Das Problem eigenständig zu lösen, übersteigt, Stand jetzt, die Fähigkeiten des LLM (Large Language Models) (via Xataka).
Der Vorfall ist gewissermaßen sinnbildlich für den Zustand der KI-Welt im Jahr 2025: Der Druck, immer neue Durchbrüche zu liefern, ist enorm. Unternehmen wie OpenAI, Google DeepMind oder Meta buhlen um Aufmerksamkeit und nicht selten mit überzogenen Versprechen.
Doch nicht nur große Konzerne laufen Gefahr, sich zu sehr auf künstliche Intelligenz zu verlassen – auch im Alltag kann eine KI völlig danebenliegen. In einem anderen, etwas absurden Fall versuchte ein Nutzer, mit Googles KI Gemini einen harmlosen Fehler zu korrigieren – und löste damit eine ungewollte Endlossschleife aus: Google-KI rastet aus und beschimpft sich 86 Mal selbst
Der Beitrag KI schien „Lösungen für zehn bisher ungelöste Probleme gefunden zu haben“, nutzt faulen Trick, den ihr aus der Schule kennt erschien zuerst auf Mein-MMO.
