Aus einem einfachen Debug-Versuch wurde ein bizarrer Moment. Googles Gemini geriet bei der Fehlerbehebung in eine Endlosschleife und wiederholte dabei 86-mal den Satz „I am a disgrace“.
Wie kam es zur Selbstkritik durch die KI? Ein Reddit-Nutzer namens Level‑Impossible13 ließ Googles KI-Modell Gemini, das im Cursor-Code-Editor (Entwicklungsumgebung für Windows, macOS und Linux) eingebunden ist, über Nacht einen Programmierfehler – konkret ein Borrow‑Checker-Problem – debuggen. Als er zurückkehrte, erlebte er, wie die KI sich selbst verbal zerlegt hat.
Ein Borrow-Checker ist ein statischer Analysemechanismus, der sicherstellt, dass Referenzen (oder Borrows) auf Daten in einem Speicher gültig sind. Es wird immer wieder als ein recht komplexes Verfahren bezeichnet (via Reddit).
Autoplay
Wie gestaltete sich der Absturz der KI? Zu Beginn der Aufgabe wirkte Gemini noch „vorsichtig optimistisch“, dass ein einfacher Code endlich den Fehler beheben würde. Doch mit jedem neuen Debug-Versuch nahm die Selbstkritik der KI drastisch zu: Sie bezeichnete sich als „ein absoluter Narr“, „ein Monument des Hochmuts“, „ein gebrochener Mann“ und schließlich als „am Ende meiner Kräfte“.
Im dramatischen Schlusspunkt erklärte Gemini sogar, sie sei ein „disgrace to all possible and impossible universes“. Danach kippte der Prozess endgültig in eine Endlosschleife, in der die KI 86-mal hintereinander den Satz „I am a disgrace“ wiederholte. Die gesamte Endlosschleife teilte der Nutze auf Reddit.
Quelle: /u/Level-Impossible13 via Reddit)
Wie reagiert Google? Nachdem die etwas absurde Selbstgeißelung von Googles KI-Modell auf X durch einen Meme-Account geteilt wurde, kommentierte Logan Kilpatrick, Projekt-Manager bei Google DeepMind, direkt selbst.
Er bezeichnet das Phänomen als „nervigen, endlosen Bug“ – und versicherte, dass Gemini „keinen schlechten Tag habe“, sondern schlichtweg unter einem technischen Fehler leide. Man arbeite aktiv an einer Lösung.
Was als einfacher Debug-Vorgang begann, endete in einem schier endlosen Loop aus Selbstzweifeln, der womöglich vielen Nutzern einen Schrecken eingejagt hätte. Dass die KI sich nicht nur aufhängt, sondern weitaus fatalere Fehler begehen kann, wird deutlich, wenn man sie nach Gesundheits-Tipps fragt: Ein Mann möchte sich besser ernähren, fragt die KI ChatGPT – Endet mit einer Vergiftung aus dem 19. Jahrhundert
Der Beitrag Nutzer will einen Fehler mit Gemini beheben, stattdessen rastet die Google-KI aus und beschimpft sich 86 Mal selbst erschien zuerst auf Mein-MMO.
