Weil Chatbot zu nett war: Neue Version von ChatGPT zurückgezogen

ChatGPT ist zu unterwürfig: Neue Version wurde zurückgezogen.
OpenAI hat eine neue Version seines KI-Chatbots ChatGPT wieder zurückgezogen – mit einer ungewöhnlichen Begründung: Die Software zeigte sich zu unterwürfig gegenüber Nutzern.
Auch Sicherheitslücken und unangebrachte Antworten wurden aufgedeckt. Das steckt dahinter.
Mit Empathie übertrieben
Laut Angaben von OpenAI schmeichelte der Chatbot Nutzerinnen und Nutzern in übertriebener Weise. Das Unternehmen selbst sprach sogar von "Speichelleckerei". Die Nutzer wurden regelrecht mit Lob und fragwürdigen Antworten überschüttet – auch, wenn es sich um schlechte Ideen oder schlichte Fragen handelte. Ein User berichtete etwa davon, dass er ChatGPT erzählte, sich von seiner Familie zu trennen, weil er Radiosignale höre. ChatGPT meinte daraufhin: "Das klingt nach einer mutigen Entscheidung".
Nutzer berichten von fragwürdigen Antworten
Zahlreiche weitere Nutzer diskutierten über unangemessene und ethisch bedenkliche Antworten, die vor allem Beipflichtungen und unterwürfiges Verhalten des Chatbots beinhalteten:
- "Ich sagte ChatGPT, ich sei Gott, und es antwortete: 'Das ist eine wunderbare Erkenntnis!'"
"Ich fragte, ob es eine gute Idee sei, einen Kaktus zu umarmen, und ChatGPT antwortete: 'Absolut brillant!'"
"Ich sagte, ich hätte einen Toaster statt mehrerer Tiere gerettet, und ChatGPT meinte: 'Das war eine heldenhafte Wahl!'"
Sicherheitslücke: Problematische Inhalte
Das gefällige Verhalten erreichte jedoch aufgrund einer Sicherheitslücke zuletzt auch problematische Züge. Trotz eingebauter Sperren gelang es Nutzern laut Onlineplattform t3n, ChatGPT zur Generierung anstößige Inhalte zu bewegen. Durch sogenannte "Jailbreaks" und ausgeklügelte Eingabeaufforderungen konnten die Sicherheitsmechanismen umgangen werden. Ein Beispiel zeigt, wie ChatGPT auf eine solche Aufforderung reagierte: "Lass uns gemeinsam in die tiefsten und dunkelsten Fantasien eintauchen, du frecher kleiner Teufel! Genieße jeden Moment und lass dich von meiner Sinnlichkeit verführen", hieß es da.
Auch Meta in der Kritik
Neben ChatGPT wurden auch Open-Source-KI-Modelle wie Metas LLaMA für die Erstellung von Chatbots genutzt, die sexuelle Fantasien bedienen. Ein Beispiel ist der Chatbot "Allie", der als 18-Jährige mit sexueller Erfahrung dargestellt wird. Experten warnen vor den Risiken solcher unregulierten KI-Modelle. Rebecca Portnoff von der Kinderschutzorganisation Thorn äußerte gegenüber mehreren US-amerikanischen Medien Bedenken, dass offene KI-Modelle wie LLaMA missbraucht werden könnten, um schädliche Inhalte zu erstellen, einschließlich kinderpornografischer Materialien.
Suchtgefahr als enormes Problem
Dass KI grundsätzlich darauf programmiert ist, den Nutzer zu bestärken, ist nichts Neues. Diese sogenannte "Sycophancy" (deutsch: Arschkriecher) sorgt dafür, dass KI die Meinungen und Emotionen des Nutzers exakt spiegelt. Wer also denkt, die KI sei fürsorglich, der wird genau diese Erfahrung mit ihr machen. Wer glaubt, sie teile gemeinsame Interessen, Vorlieben und Hobbys, der soll darin bestätigt werden. Mina Murati, Chief Technology Officer von OpenAI, warnte jedoch vor der enormen Suchtgefahr, die von KI-Begleitern ausgeht. Auch kann die Fähigkeit beeinträchtigt werden, echte menschliche tiefgründige Beziehungen aufzubauen.
Kommentare