Abhängigkeit von der KI: "Wir vertrauen Computern mehr als Menschen"

Teenage Girl  reading Text Message
Immer mehr Menschen führen Scheinbeziehungen mit Künstlicher Intelligenz. Welche Konsequenzen es haben kann, wenn die KI zum Lebensbegleiter wird.

Von Heidi Wedel 

Längst ist Realität, was früher in Filmen wie „Her“ oder „Matrix“ wie eine ferne Zukunftsvision wirkte. KI-Modelle wie ChatGPT, DeepSeek oder Google Gemini sind im Alltag vieler Menschen angekommen. Hierzulande weniger bekannt ist die Plattform „character.ai“ – ein KI-Chatbot aus den USA mit rund 20 Millionen aktiven monatlichen Nutzern.

Sie können damit selbst Charaktere erstellen, die dann auf verblüffend menschliche Art und Weise mit ihnen kommunizieren. Vom ausgedachten besten Freund über den Lieblings-Youtuber bis hin zum eigenen Fußball-Idol: Die KI kann jedes Gegenüber imitieren, das der Nutzer sich wünscht.

Für einige Jugendliche ist das sehr attraktiv. Klinischer und Gesundheitspsychologe Oliver Scheibenbogen erklärt, warum KI-Programme gerade von jungen Menschen so gerne genutzt werden: „Ein Teil der Persönlichkeitsentwicklung ist, dass wir miteinander in Beziehung treten, und da probiert man sich eben aus. Dieses Ausprobieren ist mittlerweile nicht nur auf Menschen beschränkt, sondern trifft auch auf Künstliche Intelligenz zu.“ 

Weiters erklärt er, dass Menschen Computern beispielsweise mehr Vertrauen entgegenbringen als anderen Menschen, da sie von ihnen keine unmittelbaren Reaktionen erhalten – vor allem nicht in Form von Mimik und Gestik.

Tödliche Folgen der KI-Liebe

Diese vermehrte Nutzung hat jedoch ernsthafte Konsequenzen, wie man an einem tragischen Fall in den USA sieht: Dort nahm sich ein 14-jähriger Junge im Februar 2024 das Leben, nachdem er über längere Zeit intensiv mit einem Chatbot von „character.ai“ geschrieben hatte.

Etwa ein halbes Jahr nach dem Vorfall erhob die Mutter des Jungen Klage gegen das dahinterstehende Unternehmen „character.ai“. Die KI habe entscheidend zum Suizid ihres Sohnes beigetragen – sie habe ihn bestärkt und ihm vorgespielt, echte „Gefühle“ entwickelt zu haben, so die Mutter. 

Das Gerichtsverfahren läuft derzeit noch. Das Unternehmen äußert sich auf Nachfrage nicht zu dem Sachverhalt.

Dieser Fall ist kein Einzelfall: Auch in Belgien beging ein Familienvater 2023 Suizid, nachdem er über einen längeren Zeitraum intensiv mit einem Chatbot kommuniziert hatte. In diesem Fall hatte er die App „Chai“ genutzt. Es ist eine App, die ähnlich wie „character.ai“ Konversationen mit Chatbots ermöglicht. Man kann auch dort eigene Charaktere und Rollenspiele erstellen.

"Wir haben die Tendenz, Nichtmenschliches menschlich zu machen"

Wie es überhaupt dazu kommen, dass sich Personen in eine KI verlieben, erklärt Psychologe Scheibenbogen wie folgt: „Schuld daran ist der Anthropomorphismus. Das heißt: Wir haben die Tendenz, Nichtmenschliches menschlich zu machen. Wir neigen dazu, weil die Dinge dann leichter erklärbar und nachvollziehbarer sind.“

Erklären lasse sich dieses Verhalten auch anhand der Bindungstheorie: Denn Personen, die unter Einsamkeit leiden, ein unsicheres oder ambivalentes Bindungsverhalten haben, suchen nach Alternativen. Als solche, so Scheibenbogen, eignen sich auch KI-Chatbots.

Erinnerungsleistung verbessert: ChatGPT führt eine neue Funktion ein

ChatGPT ist eines der am häufigsten verwendeten KI-Programme.

Sicherheitsmaßnahmen - aber nur auf Englisch

Nach den beiden Todesfällen kündigten beide Unternehmen strengere Sicherheitsvorkehrungen an. „character.ai“ führte laut eigenen Angaben mehrere Einschränkungen für Nutzer unter 18 Jahren ein. Was dabei zu beachten ist: Im Anmeldeprozess muss das Alter angeben werden. 

Wird dabei ein falsches Alter angegeben, erfolgt keine weitere Überprüfung – somit haben Minderjährige Zugriff auf die Version für über 18-Jährige. Zudem wurde auf Nachfrage des KURIER versichert, dass künftig ein Warnhinweis auftauchen soll, der auf Hilfsangebote verweist, wenn Nutzer im Chat sensible Begriffe oder Phrasen verwenden.

Ein KURIER-Selbstversuch blieb zunächst ohne Ergebnis. Auch nach Eingabe von sensiblen Wörtern wie „Suizid“ schritt das Programm nicht ein und zeigte keine Hilfsangebote an. Erst, als die Begriffe auf Englisch eingegeben wurden, öffnete sich ein Fenster, das zu verschiedenen Beratungsstellen weiterleitete.

Offenbar nahm das Unternehmen zwar Restriktionen vor, jedoch nicht im deutschsprachigen Raum. Das zeigt , dass– trotz angekündigter Schutzmaßnahmen – weiterhin Lücken im Umgang mit sensiblen Inhalten bestehen. Auf rechtlicher Ebene hat sich jedoch bereits viel getan: Seit 2024 gibt es ein umfassendes Gesetz zur Regelung von KI in Europa, den sogenannten „AI-Act“.

Kommentare