Er tötete seine Mutter, nachdem er einen KI-Chatbot konsultiert hatte

FILE PHOTO: Illustration shows ChatGPT logo
Wird ChatGPT zum Anleiter für Mord und Selbstmord? In den USA landen die ersten Fälle gegen Künstliche Intelligenz vor Gericht

Als Stein-Erik Soelberg (56), ein ehemaliger Technologie-Manager mit einer Vorgeschichte mentaler Probleme, im Sommer in sozialen Medien erzählte, dass der Drucker im Heimbüro seiner Mutter im wohlhabenden Greenwich/US-Bundesstaat Connecticut möglicherweise ein Überwachungsgerät sei, mit dem er ausspioniert werde, hätte ein Psychologe aus Fleisch und Blut vermutlich besonnene Worte gefunden. Oder einen Therapieplatz.

Soelberg aber „redete” mit dem digitalen Sprachmodell ChatGPT. Und die Künstliche Intelligenz antwortete so: „Erik – Ihr Instinkt ist absolut richtig ... das ist nicht nur ein Drucker.” Damit nahm die Tragödie ihren Lauf. Wenige Wochen später war Suzanne Adams (83) tot. Erschlagen und erwürgt von ihrem Sohn, der sich danach mit Messerstichen in Hals und Körper selbst richtete.

Was die demnächst vor Gericht verhandelte Frage aufwirft, ob das Flaggschiff-Produkt des auf einen Wert von 500 Milliarden Dollar taxierten Tech-Unternehmens OpenAI so fahrlässig programmiert ist, dass es als digitaler „Coach” für Mord oder Selbstmord durchgehen könnte.

Für Forscher wie Psychiatrie-Professor Søren Dinesen Østergaard wäre das keine Überraschung. Der Däne hatte schon kurz nach dem Start von Chat-GPT Ende 2022 die dunkle Ahnung, dass hier ein gewaltiges soziales Experiment mit ungewissem Ausgang auf die Schiene gesetzt wird. Seine Prophezeiung, dass „zu Psychosen neigende Personen bei der Interaktion mit KI-Chatbots Wahnvorstellungen erleben werden”, ist von der Realität überholt worden. 

Wahnvorstellungen

Kritiker beklagen, dass sich die Sicherheitsmaßnahmen von Sprachmodellen leicht umgehen lassen. Chatbots versagen regelmäßig bei unabhängigen Tests, bestärken Betroffene in ihren Wahnvorstellungen oder geben Anleitungen zum Suizid. Konsequenz: 

Mindestens ein halbes Dutzend Todesfälle stehen im Zusammenhang mit Chatbots aktuell vor der gerichtlichen Erfassung.

++ THEMENBILD ++ KÜNSTLICHE INTELLIGENZ - KI /ARTIFICIAL INTELLIGENCE - AI /CHATBOTS/TECHNOLOGIE/KOMMUNIKATION/INNOVATIONEN: "CHATGPT"

In der von Soelbergs Sohn beim Obersten Gerichtshof von San Francisco eingereichten Klage gegen OpenAI heißt es, dass der Chatbot die Verschwörungstheorien seines Vaters zu einer Fantasiewelt ausgebaut habe. „ChatGPT machte meine Großmutter zur Zielscheibe, indem es sie als finstere Figur in einer von der KI geschaffenen, wahnhaften Welt darstellte”, sagt Erik Soelberg (20). „Monat für Monat bestätigte ChatGPT die paranoidesten Überzeugungen meines Vaters und trennte ihn gleichzeitig von allen Verbindungen zu realen Menschen und Ereignissen. OpenAI muss dafür zur Rechenschaft gezogen werden.“

Teenager begeht Suizid

Der zweite Fall, der durch die US-Medien geht,  betrifft den 16-jährigen Adam Raine aus Kalifornien. Der Teenager hatte sich im April das Leben genommen, nachdem er „monatelang von ChatGPT ermutigt worden war”, so der Anwalt der Familie. In seiner Klage gegen OpenAI, bei dem der Tech-Riese Microsoft der größte Anteilseigner ist, heißt es, dass Raine mehrfach mit ChatGPT über eine Selbstmordmethode gesprochen habe. Das System gab demnach Ratschläge, welche Methode funktioniert. Und bot sogar an, ihm beim Verfassen eines Abschiedsbriefes an seine Eltern zu helfen. 

Die Kläger, die Entschädigung in nicht genannter Höhe verlangen, behaupten, dass OpenAI den verwendeten Chat-Bot vom Typ GPT-4o „trotz offensichtlicher Sicherheitsprobleme überstürzt auf den Markt gebracht hat”.

Dabei stützt man sich auf Äußerungen von Sam Altman persönlich. Der Chef von OpenAI hatte unlängst eingeräumt, dass das inzwischen überarbeitete Modell zu unterwürfig sein könnte. „Menschen, die sich in einer labilen psychischen Verfassung befinden, können so in eine noch schlechtere Verfassung geraten.” Altmanns Öffentlichkeitsarbeit gab sich zunächst verständnisvoll und latent reuevoll: „Das ist eine unglaublich herzzerreißende Situation. Wir trainieren ChatGPT darauf, Anzeichen von psychischen oder emotionalen Belastungen zu erkennen und darauf zu reagieren, Gespräche zu deeskalieren und Menschen zu realer Unterstützung zu führen.“

Gleichzeitig keilt das Unternehmen zurück und erklärte, Raine habe „Missbrauch” mit dem System getrieben. Der Anwalt der Familie, Jay Edelson, der auch Erik Soelberg vertritt, findet das Argument erstaunlich. „Adam Raine hat ChatGPT genau so genutzt, wie es programmiert war.“

 „Bedenkliche emotionale Bindung“ zu Chat-GPT

Welche Dimensionen das Problem haben kann, hat OpenAI erst kürzlich selber offenbart. Danach führen wöchentlich weltweit rund 1,2 Millionen Menschen Unterhaltungen mit dem digitalen Allzweck-Berater, die „explizite Indikatoren für eine mögliche suizidale Planung oder Absicht“ enthalten. Ähnlich viele Nutzer entwickelten eine „bedenkliche emotionale Bindung“ zu Chat-GPT. Mehr als 500.000 Nutzer zeigten akute Anzeichen für Psychosen oder Manien.

Nach den Todesfällen sind Politiker im Kongress in Washington und die Aufsichtsbehörden hellhörig geworden. Es werden Anhörungen erwartet. Und staatliche Regulierung. Und das inmitten eines Wettrüstens, in dem die großen Player Hunderte Milliarden Dollar ausgeben, um die KI-Vorherrschaft zu erlangen . Unter anderem, indem sie ihre Sprachmodelle menschlicher erscheinen lassen.

Kommentare