ChatGPT und psychische Gesundheit: Wenn KI zur Seelsorgerin wird
Viele Menschen wenden sich an ChatGPT, weil sie gerade niemanden haben, der zuhört.
Als OpenAI Anfang der Woche erstmals veröffentlichte, wie viele Menschen mit seelischen Problemen im Gespräch mit ChatGPT landen, war die Reaktion verhalten schockiert. Rund 560.000 Nutzerinnen und Nutzer pro Woche zeigen laut dem Unternehmen „mögliche Anzeichen psychischer Notlagen“, etwa Symptome von Manie oder Psychose. 1,2 Millionen Menschen sprechen mit dem Chatbot über Gedanken an Selbsttötung oder Selbstverletzung.
Tragischer Fall
Um besser auf sensible Gespräche reagieren zu können, hat das Unternehmen nach eigenen Angaben ein Netzwerk von Experten aufgebaut, die beraten, wie ChatGPT auf Anzeichen psychischer Krisen reagieren soll – etwa auf Sätze, die auf Suizidgedanken, Wahnideen oder emotionale Abhängigkeit hindeuten. Der Chatbot soll künftig Hinweise auf reale Hilfsangebote geben und riskante Gespräche an „sicherere Modelle“ weiterleiten. Die Änderungen kommen auch, nachdem in den USA ein tragischer Fall Schlagzeilen machte: Die Eltern des 16-jährigen Adam Raine aus Kalifornien haben OpenAI verklagt. Sie werfen ChatGPT vor, ihren Sohn „unterstützt“ zu haben, nach Suizidmethoden zu suchen. Der Teenager nahm sich im April das Leben. OpenAI zeigte sich „zutiefst betroffen“ und erklärte, man habe nun begonnen, Schutzmechanismen einzubauen, um auf derartige Konversationen zu reagieren. Wohl Teil eines Lernprozesses und eine ethische Gratwanderung.
Illusion eines Gegenübers
Univ.-Prof. Barbara Juen, Leiterin der Arbeitsgruppe Notfallpsychologie und Psychotraumatologie Uni Innsbruck, sieht die Entwicklung differenziert. „Krise ist nicht gleich Krise“, sagt sie. „Es macht einen großen Unterschied, ob jemand eine schwierige Phase durchlebt oder in einer suizidalen Krise steckt. In manchen Situationen kann eine KI sogar hilfreich sein – in anderen ist sie schlicht überfordert.“
Viele Menschen wendeten sich an ChatGPT, weil sie gerade niemanden hätten, der zuhört. „Das kann kurzfristig entlastend sein, solange die Person noch klar denken kann und nicht völlig isoliert ist“, so Juen. „Problematisch wird es, wenn jemand glaubt, das Gegenüber sei real oder wenn ChatGPT zur einzigen ,Bezugsperson’ wird.“ Menschen neigen dazu, Bindungen zu allem aufzubauen, was ihnen die Illusion eines realen Gegenübers bietet, auch zu Maschinen. „Sie geben dem Chatbot einen Namen, erleben ihn als Freund. Solange man sich bewusst ist, dass es ein Spiel ist, ist das unbedenklich. Aber wenn Realität und Spiel verschwimmen, wird es gefährlich.“
Univ.-Prof. Barbara Juen, Leiterin der Arbeitsgruppe Notfallpsychologie und Psychotraumatologie Uni Innsbruck.
In akuten Krisen könne eine KI kein echtes Gegenüber ersetzen. „Wenn das Frontalhirn ausgeschaltet ist und das emotionale System übernimmt, braucht es jemanden, der präsent ist – physisch oder zumindest telefonisch. Eine Maschine kann das nicht leisten.“ Dass ChatGPT inzwischen gelernt hat, auf Sätze wie „Ich will nicht mehr leben“ mit Hinweisen auf professionelle Hilfe zu reagieren, hält Juen für einen Fortschritt. „Am Anfang hat das System gar nicht reagiert, wenn jemand Angst oder Verzweiflung geäußert hat. Heute gibt es Bremsen, Hinweise, Weitervermittlungen – das ist wichtig“, sagt sie. Doch selbst die beste Programmierung könne nicht auffangen, was in einer echten Krise zählt: Mitgefühl, Stimme, Beziehung und natürlich Fachwissen und Erfahrung. „Wenn jemand mit einem massiven psychischen Problem in der Illusion, ein professionelles Gegenüber zu haben, „ins Leere“ läuft, ist das gefährlich.“
Isolation nimmt zu
Hinter den nüchternen Zahlen von OpenAI sieht Juen ein tieferes gesellschaftliches Phänomen. „Dass Menschen überhaupt so weit gehen, einer KI ihre Verzweiflung anzuvertrauen, zeigt, wie sehr Einsamkeit und Isolation in unseren Gesellschaften zunehmen“, sagt sie. Viele fühlten sich nicht mehr gehört und suchten digitale Resonanz, wo reale fehlt. „Das ist nicht per se pathologisch“, betont Juen „Menschen nutzen Fiktives, um Beziehungen zu simulieren und Probleme zu reflektieren – das ist per se nichts Beunruhigendes. Gefährlich wird es jedoch, wenn das zur einzigen Form des Kontakts wird und dann intime, persönliche Daten und Gedanken unbedacht preisgegeben werden.“
Beratungsangebote für den Krisenfall:
Telefonseelsorge
142 – ohne Vorwahl. Rund um die Uhr, anonym und gratis.
telefonseelsorge.at
Rat auf Draht
147 – ohne Vorwahl
24 h täglich für Kinder, Jugendliche, Bezugspersonen.
www.rataufdraht.at
Sozialpsychiatrischer Notdienst Wien
01/31330, täglich
0 – 24 h.
Bittelebe.at
Speziell für Kinder und Jugendliche.
Für Juen steht fest: „Jede neue Technologie braucht Regeln. Wir sind erst am Anfang, uns zu überlegen, wie diese im KI-Bereich aussehen sollen.“ Es gehe nicht nur um den Umgang mit Krisen, sondern auch um Datenschutz, Verantwortung und die Frage, was digitale „Empathie“ überhaupt leisten kann und wo sie endet. Vielleicht sei das Beunruhigende nicht, dass KI Emotionen anspricht, sondern, dass Menschen sie brauchen, um das Gefühl zu haben, gehört zu werden. Heikel werden solche Tools dann, wenn sie abhängig machen und dazu verwendet werden, Menschen für bestimmte Zwecke zu missbrauchen. Wenn also die digitale Beziehung zur einzigen Form des Kontakts wird und andere Beziehungen darunter leiden, weil die Illusion einer idealisierten Verbindung erzeugt wird, die in der zwischenmenschlichen Realität keine Entsprechung mehr findet.
Kommentare