Ein Tech-Startup verlässt sich komplett auf das KI-Tool Claude und steht kurzerhand fast komplett still, weil der Zugang gesperrt wurde. Erst Stunden später gibt es eine Lösung.
Welchem Start-up wurde der Zugriff verwehrt? Das argentinische Finanz-Tech-Startup Belo nutzte das KI-Tool Claude von Anthropic als zentralen Bestandteil seiner täglichen Arbeit. Genau das wurde zum Problem, als plötzlich sämtliche Accounts deaktiviert wurden.
Wie der CTO Pato Molina des Unternehmens auf X teilte, haben mehr als 60 Mitarbeiterinnen und Mitarbeiter gleichzeitig den Zugriff verloren. Er kritisierte den Vorfall öffentlich und teilte mit, dass die Sperrung ohne jede Vorwarnung erfolgt sei.
Anthropic hat beschlossen, unsere gesamte Organisation aufgrund einer angeblichen Verletzung ihrer Nutzungsbedingungen zu sperren. Welche spezifische Richtlinie wir verletzt haben, keine Ahnung – wir haben einfach nur eine E-Mail bekommen, und zack, tschüss Claude. Wenn man die Maßnahme anfechten will, muss man ein Google-Formular ausfüllen, so lächerlich das klingt.
Studenten spionieren Passanten mit versteckter Kamera und einer KI aus, finden Name und Adresse in Sekunden heraus
Autoplay
Fragile Abhängigkeit
Wie stark war das Unternehmen betroffen? Die Auswirkungen für das Startup waren erheblich. Da viele interne Abläufe über die KI liefen, konnte ein Großteil der täglichen Arbeit nicht mehr durchgeführt werden (TimesOfIndia).
Für ein Tech-Unternehmen, das stark auf Effizienz und Geschwindigkeit angewiesen ist, bedeutet ein solcher Ausfall nicht nur Verzögerungen, sondern auch wirtschaftliche Schäden. Die Situation machte nicht zuletzt auch dem CTO deutlich, wie abhängig gewisse Branchen inzwischen von externen Diensten geworden sind.
Pato Molinsa betont auf X, dass es für Softwareunternehmen, die bei kritischen Prozessen auf KI-Tools setzen, entscheidend sei, besser nicht alles auf eine Karte zu setzen.
Gab es eine Erklärung von Anthropic? Zunächst blieb mehrere Stunden unklar, warum die Accounts gesperrt wurden. Besonders ärgerlich war dabei, dass es im Vorfeld keine Hinweise oder Warnungen gegeben habe. Erst später erklärte Anthropic, dass es sich offenbar um eine automatisierte Sicherheitsmaßnahme gehandelt habe.
Solche Systeme greifen in der Regel ein, sobald ungewöhnliche Aktivitäten erkannt werden. Nach einer internen Prüfung wurden die Zugänge schließlich wieder freigegeben, was darauf hindeutet, dass keine Verletzung von Richtlinien vorlag.
Wenn ein einzelner Dienst ausfällt, steht plötzlich nicht nur ein Tool still, sondern mitunter ein großer Teil gesamter Firmen. Gewisse Arbeitsbereiche bauen so stark auf KI-Lösungen, dass gewisse Abhängigkeiten entstehen. Dabei kann KI schlimme Fehler machen, das zeigt ein aktuelles Beispiel: Eine Großmutter ist im Gefängnis gelandet, weil Kriminalbeamte einer künstlichen Intelligenz vertrauten.
Der Beitrag Startup setzt für die tägliche Arbeit komplett auf KI-Tool, verliert plötzlich den Zugriff für die gesamte Firma erschien zuerst auf Mein-MMO.
