KI-basierte Therapiebots gibt es bereits: Psychologinnen und Psychologen der Universität Stanford haben etwa einen Chatbot entwickelt, der Depressionen und Angstzustände lindern soll. Der "Woebot" leitet wohltuende Übungen an, animiert dazu, eingefahrene Denkmuster zu hinterfragen – und ist auch mal für einen Scherz zu haben.
Kummer-Chatbots laden auf die Couch
Das wirkt, zeigen Studien. "Solche Anwendungen haben positive Effekte, weil die Menschen reflektieren, innehalten und im Alltag achtsamer sind", sagt Marisa Tschopp. Sie erforscht am Leibniz-Institut für Wissensmedien künstliche Intelligenz (KI) aus psychologischer Perspektive und seziert Beziehungsmuster zwischen Mensch und Maschine. Anders als ein Ratgeber vermag es der Computer "Interaktion herzustellen: Dadurch ist man involvierter, mehr bei der Sache." So können sich tiefere Wirkungen entfalten. "Allerdings", sagt Tschopp, "gaukelt uns die Maschine immer etwas vor".
Im Vergleich zu ELIZA seien "moderne Programme aber raffinierter, sprachlich versierter und vermenschlichter". Und sie sind "besser darin geworden, Identität und Empathie vorzutäuschen".
Die mitfühlende Maschine
Stichwort Empathie – die im Zentrum jeder Psychotherapie steht. Kann KI tatsächlich mitfühlend sein? "Natürlich kann man Empathie simulieren", sagt Tschopp. Dank ausgeklügelter Gesprächstechniken fühlen sich Nutzerinnen und Nutzer gehört und gut genug aufgehoben, um sich dem Chatbot anzuvertrauen. "Dennoch sind diese Gespräche niemals echt." Langfristig müsse man sich fragen, "bis zu welchem Punkt ein vollkommen simulierter Beziehungsaufbau gesund ist. Und welche Auswirkungen er auf reale Beziehungen hat".
Dass KI zu einfühlsamen Reaktionen fähig ist, bezweifelt Béa Pall vom Österreichischen Bundesverband für Psychotherapie. "Und selbst wenn, sind sie doch immer programmiert." Um auf einen Menschen eingehen zu können, müsse man Mimik, Körper und Atmung des Patienten beobachten können.
Ähnlich zentral in der Psychotherapie ist die Verschwiegenheit. Patientinnen und Patienten teilen Höchstpersönliches, das setzt Vertrauen voraus. Digitale Sphären werden mit Blick auf den Schutz persönlicher Daten mit Skepsis beäugt. "Es ist ein Trugschluss, zu denken, dass unsere Geheimnisse bei Chatbots sicher sind", sagt Tschopp, die von einem Schwarzmarkt für sensible Daten zu berichten weiß. "Aus Gefühlszuständen lassen sich wertvolle Daten generieren." Natürlich sei es möglich, Systeme so sicher wie möglich gestalten. "Hacker finden aber immer neue Wege, anzugreifen."
Psychotherapeutinnen und Psychotherapeuten werden geschult, Patientinnen und Patienten frei von Werturteilen zu begegnen. Chatbots sind von Haus aus emotional unbeschrieben. Es sei aber "ein Trugschluss", zu denken, dass Chatbots wertfrei sind, sagt Tschopp. "Menschen denken, dass Maschinen rational und objektiv sind. Sie wurden von Menschen programmiert, die ihre Werte und Ansichten eingebracht haben."
Die Versorgungslücke schließen
Wer psychisch erkrankt, dem sollte schnell geholfen werden. Der "Woebot" ist auch darauf programmiert, krisenhaftes von nicht krisenhaftem Verhalten zu unterscheiden und mit Hilfsangeboten zu versorgen, wenn es emotional brenzlig wird. Maschinen könnten also künftig dabei helfen, Menschen, die in eine Krise schlittern, frühzeitig zu identifizieren.
In Österreich stehen nach wie vor zu wenig vollfinanzierte Kassenplätze für Psychotherapie zur Verfügung. Wer keinen ergattert, muss lange warten oder tief in die Tasche greifen. "Wenn jemand mit einer akuten Angststörung auf einen Platz wartet, können via KI angeleitete Übungen kurzfristig entlasten", sagt Pall. Auch für Menschen, die noch nie etwas von Psychotherapie gehört haben, können Chatbots als Vorstufe zum Erstkontakt unterstützend sein. Dass Therapiebots überall und rund um die Uhr verfügbar sind, hält Pall für gefährlich: "Es können sich Abhängigkeiten entwickeln, man bekommt das Gefühl, dass man ohne nicht mehr leben kann." Das stehe dem Wiedererlangen und Erleben von Selbstwirksamkeit im Weg. "Eine Psychotherapie ist darauf ausgerichtet, Stressoren zu erkennen, Ressourcen nutzbar zu machen und die innere Überzeugung, schwierige oder herausfordernde Situationen gut meistern zu können, zu fördern."
Tschopp sieht das anders: "Im Bereich der psychischen Gesundheit, wo wir es noch nicht mit schweren Zustandsbildern zu tun haben, ist es wünschenswert, dass solche Hilfsstationen immer verfügbar sind. Sie können die Spitzen des Leids nehmen und dazu anleiten, die nächsten Schritte zu planen."
Niemand verbringt so viel Zeit mit uns wie unser Smartphone. Damit kann man heute allerhand aufzeichnen. KI könnte, so die Idee einiger Forschender, anhand messbarer Biomarker auch objektivere Diagnosen stellen. Und damit die Rutsche für zielgerichtetere Behandlungen legen. "Man muss aber nachvollziehen können, wie die KI zu ihrer Entscheidung kommt", sagt Tschopp. Ob das langfristig hilfreich ist, sei fraglich. "Im schlimmsten Fall kontrollieren wir irgendwann nur noch Maschinen, ob sie gute Entscheidungen treffen."
Viele Fragen bleiben offen
Derzeit besteht das Risiko, dass die Technologie schroff oder grenzüberschreitend antwortet, womöglich in vulnerabelsten Momenten schlechte oder unpassende Ratschläge gibt. Fraglich ist, wer haftet, wenn die KI therapiert – und dabei versagt.
Das ist nur eine von vielen offenen Fragen. Dazu zählt auch jene, ob es immer Platz für Psychotherapie von Mensch zu Mensch geben wird. "Die wichtigere Frage ist, was man tun kann, damit mehr Menschen Zugriff auf psychologische Beratung haben. Dann wären therapeutische Chatbots, die eine Lücke im kränkelnden Gesundheitssystem füllen, überflüssig", sagt Tschopp.
Und was sagt die KI dazu? Es sei "unwahrscheinlich, dass künstliche Intelligenz echte Psychotherapeuten ersetzen" werde. Eine Psychotherapie erfordere ein "hohes Maß an emotionaler Intelligenz", die Chatbots "derzeit nicht erreichen".
Kommentare