KI-basierte Therapie: In der Krise nur einen Klick entfernt.
KI-basierte Therapie-Bots werden immer versierter darin, psychisch belastete Menschen aufzufangen. Macht das Psychotherapeutinnen und -therapeuten künftig obsolet?
Der Satz klingt beinahe beängstigend einfühlsam. Beängstigend, weil er nicht von einer guten Freundin stammt, sondern von ChatGPT. Also jenem künstlich intelligenten Chatbot, über den gerade die ganze Welt spricht. Vertraut man dem Programm Bedrückendes an, reagiert es mit regem Interesse: ChatGPT will mehr erfahren und lässt auch nicht locker, wenn man ins Stocken gerät.
Intime Dialoge mit Maschinen haben schon vor 60 Jahren fasziniert. Damals entwickelte der Computerwissenschafter Joseph Weizenbaum ein Dialogsystem namens ELIZA. Ein recht simpler Programmiercode befähigte ELIZA dazu, Texteingaben nach wichtigen Stichworten abzusuchen. Aus einem Fundus an Synonymen und Phrasen konstruierte das Programm eine möglichst passende Antwort. ELIZA täuschte vor, zu verstehen, obwohl es sich nur substanzloser Gesprächsstrategien bediente. Eingesetzt wurde das Programm auch zur Simulation einer Psychotherapie. Daraus entwuchs Anfang der Siebziger die Vision eines künstlichen Psychotherapeuten.
Was damals reichlich utopisch klang, scheint heute keineswegs mehr abwegig.
KI-basierte Therapiebots gibt es bereits: Psychologinnen und Psychologen der Universität Stanford haben etwa einen Chatbot entwickelt, der Depressionen und Angstzustände lindern soll. Der "Woebot" leitet wohltuende Übungen an, animiert dazu, eingefahrene Denkmuster zu hinterfragen – und ist auch mal für einen Scherz zu haben.
Kummer-Chatbots laden auf die Couch
Das wirkt, zeigen Studien. "Solche Anwendungen haben positive Effekte, weil die Menschen reflektieren, innehalten und im Alltag achtsamer sind", sagt Marisa Tschopp. Sie erforscht am Leibniz-Institut für Wissensmedien künstliche Intelligenz (KI) aus psychologischer Perspektive und seziert Beziehungsmuster zwischen Mensch und Maschine. Anders als ein Ratgeber vermag es der Computer "Interaktion herzustellen: Dadurch ist man involvierter, mehr bei der Sache." So können sich tiefere Wirkungen entfalten. "Allerdings", sagt Tschopp, "gaukelt uns die Maschine immer etwas vor".
Im Vergleich zu ELIZA seien "moderne Programme aber raffinierter, sprachlich versierter und vermenschlichter". Und sie sind "besser darin geworden, Identität und Empathie vorzutäuschen".
Natürlich kann man Empathie simulieren.
von Marisa Tschopp
KI-Forscherin
Die mitfühlende Maschine
Stichwort Empathie – die im Zentrum jeder Psychotherapie steht. Kann KI tatsächlich mitfühlend sein? "Natürlich kann man Empathie simulieren", sagt Tschopp. Dank ausgeklügelter Gesprächstechniken fühlen sich Nutzerinnen und Nutzer gehört und gut genug aufgehoben, um sich dem Chatbot anzuvertrauen. "Dennoch sind diese Gespräche niemals echt." Langfristig müsse man sich fragen, "bis zu welchem Punkt ein vollkommen simulierter Beziehungsaufbau gesund ist. Und welche Auswirkungen er auf reale Beziehungen hat".
Dass KI zu einfühlsamen Reaktionen fähig ist, bezweifelt Béa Pall vom Österreichischen Bundesverband für Psychotherapie. "Und selbst wenn, sind sie doch immer programmiert." Um auf einen Menschen eingehen zu können, müsse man Mimik, Körper und Atmung des Patienten beobachten können.
Ähnlich zentral in der Psychotherapie ist die Verschwiegenheit. Patientinnen und Patienten teilen Höchstpersönliches, das setzt Vertrauen voraus. Digitale Sphären werden mit Blick auf den Schutz persönlicher Daten mit Skepsis beäugt. "Es ist ein Trugschluss, zu denken, dass unsere Geheimnisse bei Chatbots sicher sind", sagt Tschopp, die von einem Schwarzmarkt für sensible Daten zu berichten weiß. "Aus Gefühlszuständen lassen sich wertvolle Daten generieren." Natürlich sei es möglich, Systeme so sicher wie möglich gestalten. "Hacker finden aber immer neue Wege, anzugreifen."
Psychotherapeutinnen und Psychotherapeuten werden geschult, Patientinnen und Patienten frei von Werturteilen zu begegnen. Chatbots sind von Haus aus emotional unbeschrieben. Es sei aber "ein Trugschluss", zu denken, dass Chatbots wertfrei sind, sagt Tschopp. "Menschen denken, dass Maschinen rational und objektiv sind. Sie wurden von Menschen programmiert, die ihre Werte und Ansichten eingebracht haben."
Wenn jemand mit einer akuten Angststörung auf einen Platz wartet, können via KI angeleitete Übungen kurzfristig entlasten.
von Béa Pall
Psychotherapeutin
Die Versorgungslücke schließen
Wer psychisch erkrankt, dem sollte schnell geholfen werden. Der "Woebot" ist auch darauf programmiert, krisenhaftes von nicht krisenhaftem Verhalten zu unterscheiden und mit Hilfsangeboten zu versorgen, wenn es emotional brenzlig wird. Maschinen könnten also künftig dabei helfen, Menschen, die in eine Krise schlittern, frühzeitig zu identifizieren.
In Österreich stehen nach wie vor zu wenig vollfinanzierte Kassenplätze für Psychotherapie zur Verfügung. Wer keinen ergattert, muss lange warten oder tief in die Tasche greifen. "Wenn jemand mit einer akuten Angststörung auf einen Platz wartet, können via KI angeleitete Übungen kurzfristig entlasten", sagt Pall. Auch für Menschen, die noch nie etwas von Psychotherapie gehört haben, können Chatbots als Vorstufe zum Erstkontakt unterstützend sein. Dass Therapiebots überall und rund um die Uhr verfügbar sind, hält Pall für gefährlich: "Es können sich Abhängigkeiten entwickeln, man bekommt das Gefühl, dass man ohne nicht mehr leben kann." Das stehe dem Wiedererlangen und Erleben von Selbstwirksamkeit im Weg. "Eine Psychotherapie ist darauf ausgerichtet, Stressoren zu erkennen, Ressourcen nutzbar zu machen und die innere Überzeugung, schwierige oder herausfordernde Situationen gut meistern zu können, zu fördern."
Tschopp sieht das anders: "Im Bereich der psychischen Gesundheit, wo wir es noch nicht mit schweren Zustandsbildern zu tun haben, ist es wünschenswert, dass solche Hilfsstationen immer verfügbar sind. Sie können die Spitzen des Leids nehmen und dazu anleiten, die nächsten Schritte zu planen."
Niemand verbringt so viel Zeit mit uns wie unser Smartphone. Damit kann man heute allerhand aufzeichnen. KI könnte, so die Idee einiger Forschender, anhand messbarer Biomarker auch objektivere Diagnosen stellen. Und damit die Rutsche für zielgerichtetere Behandlungen legen. "Man muss aber nachvollziehen können, wie die KI zu ihrer Entscheidung kommt", sagt Tschopp. Ob das langfristig hilfreich ist, sei fraglich. "Im schlimmsten Fall kontrollieren wir irgendwann nur noch Maschinen, ob sie gute Entscheidungen treffen."
Es ist unwahrscheinlich, dass künstliche Intelligenz echte Psychotherapeuten ersetzen werden.
von ChatGPT
über künstlich intelligente Psychotherapie
Viele Fragen bleiben offen
Derzeit besteht das Risiko, dass die Technologie schroff oder grenzüberschreitend antwortet, womöglich in vulnerabelsten Momenten schlechte oder unpassende Ratschläge gibt. Fraglich ist, wer haftet, wenn die KI therapiert – und dabei versagt.
Das ist nur eine von vielen offenen Fragen. Dazu zählt auch jene, ob es immer Platz für Psychotherapie von Mensch zu Mensch geben wird. "Die wichtigere Frage ist, was man tun kann, damit mehr Menschen Zugriff auf psychologische Beratung haben. Dann wären therapeutische Chatbots, die eine Lücke im kränkelnden Gesundheitssystem füllen, überflüssig", sagt Tschopp.
Und was sagt die KI dazu? Es sei "unwahrscheinlich, dass künstliche Intelligenz echte Psychotherapeuten ersetzen" werde. Eine Psychotherapie erfordere ein "hohes Maß an emotionaler Intelligenz", die Chatbots "derzeit nicht erreichen".
Kommentare