ChatGPT als Paartherapeut: Antworten von menschlichen kaum unterscheidbar

Zusammenfassung
- KI-gestützte Chatbots wie ChatGPT können in Paartherapie-Szenarien ähnlich wie menschliche Therapeuten agieren.
- Studienteilnehmer konnten kaum zwischen Antworten von KI und echten Therapeuten unterscheiden.
- Obwohl Chatbots potenziell entlastend sein können, bleibt fraglich, ob sie langfristige Therapieerfolge wie echte Psychotherapie erreichen können.
Eifersucht, häufige Konflikte, sexuelle Probleme, Trennungsgedanken – die Gründe, weshalb Paare eine Therapie in Anspruch nehmen, sind vielfältig. Eine aktuelle US-Studie zeigt, dass es dazu nicht unbedingt einen realen Therapeuten bzw. eine reale Therapeutin braucht. Auch Künstliche Intelligenz (KI) kann Paaren helfen, ihre Beziehungsprobleme zu lösen.
Die Forschenden legten dem KI-gestützten Chatbot Chat-GPT 18 fiktive Paartherapie-Szenarien vor und ließen die KI als Therapeut antworten. Ein Beispiel für ein solches Szenario: Ein Partner zeigt Anzeichen einer Depression, fühlt sich niedergeschlagen und unglücklich, der andere Partner beachtet dies jedoch nicht. Dadurch fühlt sich die Person missverstanden und nicht wahrgenommen.
Zudem bearbeiteten 13 reale Therapeutinnen und Therapeuten die Fallbeispiele und gaben Antworten, wie das Paar vorgehen könnte. Beide Antworten, jene von Menschen und jene von ChatGPT, wurden dann 830 Studienteilnehmern vorgelegt. Diese waren Laien und sollten beurteilen, ob die Antworten von einem menschlichen Therapeuten stammten oder von einer KI.
Außerdem wurden die Antworten hinsichtlich allgemeiner Wirkfaktoren der Psychotherapie, welche Aufschluss über die Effektivität der Psychotherapie geben sollten, bewertet. Diese waren: Empathie, die Verbindung zwischen Therapeut und Klient (therapeutische Allianz), Erwartungen, kulturelle Kompetenz und Therapieeffekte.
KI-Antworten und reale Therapeutenantworten kaum unterscheidbar
Das Ergebnis: Die Teilnehmenden konnten kaum feststellen, ob die Antwort von einer realen Person stammte oder von ChatGPT verfasst wurde. Die Sprachmuster wie auch die Inhalte unterschieden sich kaum. Zudem wurden die Antworten von ChatGPT allgemein besser hinsichtlich der Wirkfaktoren bewertet. Die Antworten der KI enthielten mehr positive und weniger negative Gefühle und waren im Mittel länger.
Fachleute sehen die Studie allerdings kritisch. "Generell scheint das Potenzial von Chatbots zur Verbesserung der mentalen Gesundheit vielversprechend, insbesondere bei depressiven Störungen. Es bestehen jedoch noch diverse Hürden wie Anwendungsfreundlichkeit, Vorbehalte von manchen Nutzenden, Engagement der Nutzenden und ethische Fragestellungen. Chatbots haben damit noch einen eher längeren Weg hin zur Implementierung und Integration in das Gesundheitssystem", sagt Johanna Löchner, Professorin für Klinische Psychologie und Psychotherapie des Kindes- und Jugendalters an der Friedrich-Alexander-Universität Erlangen-Nürnberg.
Hohe Sprachqualität bei Chatbots, Therapieerfolg aber nicht erfasst
Es sei aufgrund der hohen Sprachqualität nicht überraschend, dass die Antworten der KI nicht von menschlichen Antworten unterschieden werden konnten. Der Therapieerfolg, also etwa die Verbesserung der Paarqualität, konnte in der aktuellen Studie jedoch nicht erfasst werden, da es sich um fiktive Beispiele ohne Therapie-Endergebnis handelte.
"Für Personen, die Hemmungen haben, sich in Psychotherapie zu begeben – etwa aufgrund des Stigmas für psychische Erkrankungen, oder wegen schambesetzter Themen –, kann es entlastend sein, mit einer nicht-bewertenden Maschine anonym in Kontakt zu treten. Allein seine Gedanken zu sortieren und negative Gefühle zu verbalisieren kann positive Effekte haben. Nichtsdestotrotz ist Psychotherapie verbunden mit Konfrontation von vermeidendem Verhalten und Unterstützung von Klienten dabei, beispielsweise durch Expositionen, Ängste zu überwinden", betont Löchner.
Dieser Prozess sei in dem konkreten Moment sehr anstrengend und kurzfristig nicht nur "wohltuend", längerfristig werde das Problemverhalten jedoch positiv beeinflusst. Es sei fraglich, ob Chatbots dies leisten können.
Kommentare