ChatGPT kann in vielen Alltagssituationen ein praktischer Helfer sein. Jetzt berichtet ein Nutzer, dass ihm der Chatbot in einer Notsituation geholfen habe.
Chatbots wie ChatGPT sind ein umstrittenes Thema. Denn sie können nicht nur praktischer Alltagshelfer sein, sondern Leute klagen auch darüber, dass sie wegen ChatGPT ihren Job verlieren. Nun erzählt ein Nutzer, dass er mithilfe des Chatbots seinen Vater gerettet habe. Doch nachmachen solltet ihr die Aktion nicht unbedingt.
Wichtige Gesundheitstipps von Experten findet ihr auch im Plus-Report über Gesundheit bei der GameStar (Paywall).
Vater erleidet Herzinfarkt, ChatGPTs Anweisungen retten ihm angeblich das Leben
Wie hat der Nutzer seinen Vater gerettet? Ein Nutzer erzählte auf Reddit, dass sein Vater vor dem Fernseher einen Herzinfarkt erlitten habe. Als Erstes habe er den Notruf informiert und einen Krankenwagen gerufen. Anschließend habe er ChatGPT um Hilfe gebeten.
So führt er aus, dass die Erklärungen von ChatGPT seinem Vater vermutlich das Leben gerettet haben. Denn er hätte ansonsten falsch reagiert und aus Panik vermutlich die Herzdruckmassage viel zu oft eingesetzt:
(…) ich erzählte die Geschichte [dem Chatbot] und bat um Hilfe. [Chat-]GPT gab mir Anweisungen über die Herzdruckmassage und wie ich das Problem, das ich habe, bewältigen kann. Wahrscheinlich wollte ich in dieser Zeit wegen der Angst und Furcht nonstop massieren, aber ich habe gelernt, dass ich warten und manchmal zuhören sollte usw.
Der Krankenwagen kam und nahm meinen Vater mit. Er ist am Leben. Der Arzt sagte, ich hätte ihn mit der richtigen Herzmassage gerettet.
Das klingt erst einmal nach einer starken Rettungsaktion, die mithilfe der KI auch ein gutes Ende finden konnte. Dennoch weisen einige Kommentare und auch der Leser daraufhin, dass die Unterstützung in Notsituation mit der KI eher eine Ausnahme sein sollte. Denn Chatbots sind dafür bekannt, teilweise harte Fehler zu machen.
Verlasst euch in gefährlichen Situationen nicht auf künstliche Chatbots
Was ist das Problem mit ChatGPT und anderen Chatbots? Alle KI-gestützten Chatbots sind fehleranfällig. Wer einmal mit solchen Programmen gearbeitet hat, der kennt die Probleme: Antworten sind nicht immer korrekt und ChatGPT verkauft Antworten gern als Tatsachen, die aber in Wirklichkeit keine sind. Das kann in einer Situation wie dieser dann noch gefährlicher werden. Notärzte und fachlich ausgebildete Mitarbeiter machen dagegen deutlich seltener Fehler.
Was sagt der Nutzer dazu? Der Thread-Ersteller warnt davor, seine Erfahrung nachzumachen und sich auf einen Chatbot in gefährlichen Situationen zu verlassen:
Ich denke, ich sollte klarstellen, dass ich niemandem empfehle, sich auf Anleitungen zu verlassen, die von der KI generiert wurden, wenn man wie ich ein gefährliches Problem hat.
Auch ein anderer Nutzer erklärt in den Kommentaren: Die Geschichte sei zwar großartig, aber Notdienstmitarbeiter seien normalerweise darin geschult, Anweisungen schneller und effizienter zu geben. Obendrein müsste man sich dann nicht auf die Premium-Mitgliedschaft bei einer KI verlassen.
Und den Notruf sollte man bei lebensgefährlichen Situationen immer als Erstes wählen, bevor man sich auf KI oder andere Werkzeuge verlassen sollte.