Ein 60-jähriger US-Amerikaner wollte mithilfe von ChatGPT seine Ernährung verbessern – und endete stattdessen mit einer Vergiftung, die heute fast niemand mehr kennt, in der Notaufnahme.
Was ist vorgefallen? Ein Mann wollte sich gesünder ernähren, nachdem er über mögliche Nachteile von herkömmlichem Tafelsalz (Natriumchlorid) gelesen hatte. In seiner Konsequenz entschied er sich dazu, Salz konsequent aus seiner Ernährung zu streichen. Weil er dazu wenig hilfreiche Infos gefunden hat, startete er eine Art Selbstexperiment und suchte Rat bei ChatGPT. Laut seiner Schilderung bekam er den Vorschlag, Chlorid durch Bromid zu ersetzen – also tauschte er kurzerhand in seiner Küche Natriumchlorid gegen Natriumbromid aus. Die Folge: Bromismus (via acpjournals).
Autoplay
Eine Krankheit aus dem 19. Jahrhundert
Was ist Bromismus? Bromismus ist eine heute weitgehend unbekannte Erkrankung, da sie hauptsächlich im 19. Jahrhundert auftrat. Damals waren Medikamente mit Bromsalzen weit verbreitet – sie wurden zur Behandlung von Schlaflosigkeit, Kopfschmerzen, zur Dämpfung der Libido und für andere medizinische Zwecke eingesetzt (via The American Psychiatric Publishing Textbook of Substance Abuse Treatment).
Die häufige Folge der Verabreichung der Medikamente war Bromismus, der hauptsächlich durch neurologische und psychiatrische Symptome erkennbar wird. So nun auch im Falle des 60-jährigen Mannes, der das Subjekt einer Fallstudie ist, die in den Annals of Internal Medicine publiziert wurde (via acpjournals).
Mit den gesellschaftlichen und medizinischen Entwicklungen des 20. Jahrhunderts ging die Häufigkeit dieser Vergiftungserscheinungen deutlich zurück. Heutzutage ist Bromismus eine sehr seltene Diagnose.
Welche Folgen traten durch die Einnahme auf? Nach rund drei Monaten entwickelte er neurologische und psychiatrische Symptome: Verwirrtheit, Paranoia, Halluzinationen. Er kam laut Bericht in die Notaufnahme, überzeugt, sein Nachbar würde ihn vergiften. Die paranoiden Reaktionen und Halluzinationen machten laut Bericht eine psychiatrische Behandlung erforderlich.
Erst nach der Stabilisierung durch Flüssigkeitsgabe und der Verbesserung seines Geisteszustands durch Antipsychotika konnte er den Ärzten mitteilen, dass er Bromid eingenommen hatte. Zusätzlich berichtete er von charakteristischen Symptomen wie Gesichtsakne, roten Hautwucherungen, Schlaflosigkeit, Müdigkeit, Koordinationsproblemen und übermäßigem Durst – alles Anzeichen, die seine Ärztinnen und Ärzte letztendlich als typisch für eine Bromvergiftung (Bromismus) einstuften (via LiveScience)
Mit einer intensiven Flüssigkeitstherapie, Elektrolytausgleich und dem Absetzen des Bromsalzes gingen die Symptome innerhalb weniger Wochen fast vollständig zurück, sodass der Patient nach kurzer Zeit wieder entlassen werden konnte.
Generell gilt: Nach dem Absetzen klingt Bromismus in der Regel ab und die mentalen Beeinträchtigungen sind meist reversibel, also umkehrbar (derStandard).
Welche Rolle spielten ChatGPT und OpenAI?
OpenAI weist Verantwortung zurück: Die behandelnden Ärzte hatten laut Fallstudie keinen Zugriff auf die ursprüngliche Chat-Konversation des Patienten. Journalistinnen und Journalisten von derStandard und 404 Media versuchten jedoch, ähnliche Fragen an ChatGPT zu stellen. Letztere erhielten tatsächlich Antworten, in denen Bromid als „Ersatz“ für Chlorid auftauchte, ohne klaren Hinweis darauf, dass es nicht zum Verzehr geeignet ist (via derStandard).
LiveScience fragte zudem direkt bei OpenAI nach: Ein Sprecher verwies auf die Nutzungsbedingungen, wonach die KI-Antworten keine professionelle Beratung ersetzen und nicht als alleinige Grundlage für Gesundheitsentscheidungen dienen sollen (via LiveScience).
In den Nutzungsbedingungen heißt es zumindest:
Our Services are not intended for use in the diagnosis or treatment of any health condition. You are responsible for complying with applicable laws for any use of our Services in a medical or healthcare context.
Dt. Übersetzung: Unsere Dienste sind nicht für die Diagnose oder Behandlung von Gesundheitsproblemen bestimmt. Sie sind dafür verantwortlich, bei der Nutzung unserer Dienste im medizinischen oder gesundheitlichen Kontext die geltenden Gesetze einzuhalten.
Service Terms auf Openai.com
Der Fall zeigt, wie schnell ein gut gemeinter Selbstversuch mit KI‑„Hilfe“ aus dem Ruder laufen kann: Ein ungeprüfter und scheinbar smarter Tipp – und plötzlich steckt man in einer Diagnose, die eher ins 19. als ins 21. Jahrhundert gehört. Wie es auch laufen kann, wenn man ChatGPT um Hilfe bittet, zeigt ein anderer Mann, der seine Fitnessziele mithilfe der KI völlig anders anging – und damit tatsächlich 12 Kilo verlor: Mann ist zu faul für Sport, fragt KI ChatGPT und verliert 12 Kilo
Der Beitrag Ein Mann möchte sich besser ernähren, fragt die KI ChatGPT – Endet mit einer Vergiftung aus dem 19. Jahrhundert erschien zuerst auf Mein-MMO.
