KI schien „Lösungen für zehn bisher ungelöste Probleme gefunden zu haben“, nutzt faulen Trick, den ihr aus der Schule kennt

OpenAI verkündete stolz, GPT-5 habe uralte Matheprobleme gelöst. Doch wie sich herausstellt, war das ein Missverständnis. Die KI bezog sich letztlich auf bestehende Forschungsergebnisse.

Was wurde genau behauptet? Am 17. Oktober 2025 veröffentlichte der Assistenzprofessor für Statistik der Harvard University Mark Sellke auf X einen Beitrag, der den Anschein erweckte, dass GPT-5 bei der Lösung von bisher ungelösten mathematischen Problemen geholfen habe.


Autoplay

Im Anschluss behauptete der Produktmanager von OpenAI, Kevin Weil, dass GPT 5 „10 offene Paul-Erdős-Probleme gelöst“ und bei weiteren 11 signifikante Fortschritte erzielt habe.

Diese Aussage wurde in einem mittlerweile gelöschten Tweet verbreitet, ohne klare Erklärung, was genau damit gemeint war oder welche Beweise zugrunde lagen (via Xataka). Der alleinige Verweis war der Ursprungs-Post von Sellke.

Quelle: X

Was sind diese Erdős-Probleme eigentlich? Paul Erdős war ein legendärer ungarischer Mathematiker, der für seine große Zahl an Veröffentlichungen und tiefgreifende mathematische Fragen bekannt ist. Viele seiner Probleme, sogenannte Erdős-Probleme, gelten als besonders komplex und bisher noch ungelöst.

Sie betreffen unter anderem:

Primzahlen und deren Verteilung

Graphentheorie (z. B. Netzwerke oder Knotenpunkte)

Kombinatorik (die Mathematik des Zählens und Anordnens)

Auf der Plattform erdosproblems.com werden diese Probleme dokumentiert und mit aktuellen mathematischen Papern verknüpft.

Alles nur abgeschrieben?

Was lief bei OpenAIs Aussage schief? OpenAI stützte sich bei seiner Behauptung auf die Plattform „Erdős Problems“, wo Forscher mathematische Fortschritte zusammentragen. Zudem interpretierte Kevin Weil den Post des Assistenzprofessors schlichtweg falsch.

Der Mathematiker Thomas Bloom, der die Plattform betreibt, auf der diese offenen mathematischen Fragen gesammelt werden, stellte rasch klar, worum es sich wirklich handelte. Wie er auf X erläuterte, sei die Darstellung von OpenAI eine „dramatische Fehlinterpretation“. GPT-5 habe schlicht aktuelle Studien und Forschungsergebnisse gefunden.

Also wurden die Probleme nicht im mathematischen Sinne gelöst. Stattdessen hatte das Sprachmodell lediglich bekannte Paper zugeordnet oder trivial erweitert – was seitens OpenAI fälschlich als „Lösung“ interpretiert wurde.

GPT-5 ordnete also lediglich vorhandene Informationen neu zu. Das Problem eigenständig zu lösen, übersteigt, Stand jetzt, die Fähigkeiten des LLM (Large Language Models) (via Xataka).

Mehr zum Thema

Mehr zum Thema
Nutzer will Daten analysieren, lässt ChatGPT die Kosten viel zu niedrig schätzen, bekommt wenig später Rechnung über 50.000 Euro

von Benedikt Schlotmann

Mehr zum Thema
Neue KI von OpenAI ist so gut, dass die Macher von ChatGPT jetzt von der japanischen Regierung verwarnt werden

von Cedric Holmeier

Mehr zum Thema
Neue KI kann aus wenigen Worten eine Mission in Cyberpunk 2077 „erschaffen“, aber Fans fordern: „Klagt sie in Grund und Boden“

von Cedric Holmeier

Der Vorfall ist gewissermaßen sinnbildlich für den Zustand der KI-Welt im Jahr 2025: Der Druck, immer neue Durchbrüche zu liefern, ist enorm. Unternehmen wie OpenAI, Google DeepMind oder Meta buhlen um Aufmerksamkeit und nicht selten mit überzogenen Versprechen.

Doch nicht nur große Konzerne laufen Gefahr, sich zu sehr auf künstliche Intelligenz zu verlassen – auch im Alltag kann eine KI völlig danebenliegen. In einem anderen, etwas absurden Fall versuchte ein Nutzer, mit Googles KI Gemini einen harmlosen Fehler zu korrigieren – und löste damit eine ungewollte Endlossschleife aus: Google-KI rastet aus und beschimpft sich 86 Mal selbst

Der Beitrag KI schien „Lösungen für zehn bisher ungelöste Probleme gefunden zu haben“, nutzt faulen Trick, den ihr aus der Schule kennt erschien zuerst auf Mein-MMO.

Leave a Reply

Your email address will not be published. Required fields are marked *