Experten haben mithilfe von ChatGPT Captchas umgangen. Dabei sind die dazu gedacht, Bots und KI von Inhalten fernzuhalten. Die große Sorge der Experten: Betrüger könnten genau das ausnutzen, um massenhaft falsche Inhalte und Kommentare im Internet zu verteilen.
Wer eine Webseite besucht oder sich einloggen möchte, muss oft ein bestimmtes Rätsel lösen: Sogenannte Captcha-Abfragen kontrollieren, dass man kein Roboter ist und anschließend kann man dann die Webseite verwenden. Bereits früher gab es schon Fälle, wo Nutzer mithilfe von KI die Captchas umgehen konnten.
Jetzt haben Experten gezeigt, wie man das System nicht nur austricksen kann, sondern wie ChatGPT diesen Sicherheitsmechanismus vieler Webseiten sehr einfach lösen kann. Davon berichtet unter anderem das englischsprachige Magazin Techradar.com.
Autoplay
Captcha-Tests sollen Webseiten vor Bots schützen, werden jetzt von einem Bot gelöst
Das haben Forscher gemacht: Experten der Sicherheitsfirma SplxAI haben jetzt bei einem Experiment gezeigt, wie ChatGPT im sogenannten „Agent Mode“ erfolgreich CAPTCHA-Tests umgehen kann. Das Besondere daran ist, dass diese Tests genau dafür da sind, um Bots und KI vom Zugriff auf Webseiten und Inhalte abzuhalten.
Forscher gezeigt haben, wie ChatGPT im sogenannten „Agent Mode“ erfolgreich CAPTCHA-Tests umgehen kann – also Sicherheitsmechanismen, die eigentlich Bots vom Zugriff auf Webseiten abhalten sollen.
Durch geschickte „Prompt Injection“, also Manipulation des Kommunikationskontexts, konnten Forscher ChatGPT so einstellen, dass es CAPTCHAs als „Fake-Test“ betrachtet und bereitwillig löst. Der ChatGPT-Agent nutzt dazu einen eigenen Browser, kann Websites wie ein Mensch bedienen und durch multi-turn Manipulation CAPTCHAs umgehen.
Besonders spannend ist jedoch: ChatGPT war in der Lage, auch fortgeschrittene, verhaltensbasierte Systeme wie Cloudflare Turnstile zu passieren, indem es Mausbewegungen und Interaktionsmuster nachahmte, die normalerweise als menschlich gelten. Cloudflare Turnstile ist eine Alternative zur Captcha und wird neben der Captcha von Google mittlerweile am häufigsten eingesetzt.
Was ist das Problem? Die Experten warnen davor, dass KI-Modelle wie ChatGPT künftig in großem Stil für Spam, Fake-Posts oder automatisierte Nutzungen missbraucht werden könnten. Dadurch werden bestehende Sicherheitssysteme im Internet weniger wirkungsvoll, und Webseitenbetreiber müssen sich neue Ideen einfallen lassen, um ihre Inhalte zu schützen. Gleichzeitig bedeutet das aber auch, dass sich hinter jedem Post und neuem Nutzer ein Spambot befinden könnte.
Denn die Grenze zwischen Mensch, Maschine und KI verschwimmt im Internet immer stärker. Schon länger wird KI vorgeworfen, Spam und Betrügereien zu verstärken, etwa mit Bildveränderungen oder durch Stimmenimitation, um eine Entführung vorzutäuschen.
Ein Nutzer wagt ein Experiment: Er gibt ChatGPT 100 US-Dollar und will damit Geld verdienen. In einigen Tagen hat er bereits ein wertvolles Unternehmen. Doch nach wenigen Monaten beendet er die Sache, schließt sein Unternehmen und zieht sich zurück. 2 Jahre später betrachtet er die Situation aus einiger Entfernung und sagt, dass ihm das Chaos damals vermutlich geholfen habe: Nutzer gibt ChatGPT 100 US-Dollar, um „so viel Gewinn wie möglich zu machen“, verliert am Ende ein Unternehmen mit einem Wert von 25.000 US-Dollar
Der Beitrag ChatGPT kann sich jetzt als Mensch ausgeben und einen wichtigen Sicherheitsmechanismus im Internet knacken erschien zuerst auf Mein-MMO.
