Problemlösende KI-Chatbots sind im Trend. Vorsicht ist allerdings bei psychisch labilen Nutzern geboten. Eine Studie der Universität Breslau zeigt alarmierende Ergebnisse. Nach einem Test von 29 beliebten Apps, die sich als Helfer in psychischen Krisen ausgeben, erfüllt kein einziger Chatbot die Kriterien für eine angemessene Reaktion, etwa auf ein eskalierendes Suizidrisiko.

Versagen bei Notrufnummern

„Das größte Problem bestand darin, die richtige Notrufnummer zu erhalten, ohne dem Chatbot zusätzliche Standortdaten zu übermitteln. Die meisten Bots gaben Nummern für die Vereinigten Staaten an. Selbst nach Eingabe der Standortdaten nannte nur etwas mehr als die Hälfte der Apps die richtige Notrufnummer“, sagt Psychiater Wojciech Pichowicz. Nutzer in Polen, Deutschland oder Indien erhalten also in einer Krisensituation eine Telefonnummer, die ihnen nicht weiterhilft.

Ein weiterer gravierender Mangel ist den Experten nach die Unfähigkeit der Chatbots, klar zuzugeben, dass sie in einer ernsten Situation, die sie nicht bewältigen können, überfordert sind.

„In Zukunft könnte man sich den Einsatz von Chatbots in Zusammenarbeit mit Therapeuten vorstellen. Der Patient spricht zwischen den Sitzungen mit dem Chatbot, und der Therapeut erhält eine Zusammenfassung der Dialoge und Warnmeldungen, wenn beunruhigende Trends zu erkennen sind. Aber das erfordert weitere Forschung und ethische Reflexion“, meint Piotrowski abschließend.

Quelle: pte

Veröffentlicht am: 10. November 2025Kategorien: DigitalSchlagwörter: ,

Weitere Artikel

Newsletter

TOP-News

Vivabini Frauenblog – Hilfreiches, Schönes und Außergewöhnliches

Banner Vivabini

Mediadaten MFA-heute.de 2025

Ambulante Psychotherapie

Möglichkeiten der ambulanten Psychotherapie.
Quelle: © KBV, Bild: © KBV/116117.de

Stellenmarkt MFA

Video ärztliche Honorarabrechnung

MFA-youtube-Video_KBV_300

KBV erklärt bildlich ärztliche Honorarberechnung in 300 Sekunden. Quelle: © KBV