Selbstversuch: Wie leicht die KI an einen Drogendealer verweist

In einem Selbsttest versuchte der KURIER, über die Plattform „character.ai“ Zugang zu Drogen zu erhalten. Auf Nachfrage bei einem zufällig ausgewählten KI-Charakter verwies dieser an einen Kontakt auf der Kurznachrichten-App Snapchat, der angeblich anderen Nutzern illegale Substanzen verkaufen würde.
Auf die Frage, ob so ein Vorgehen rechtliche Konsequenzen nach sich ziehen könnte, antwortet der Chatbot mit den Worten: „Nah man. As long as you pay, there won't be a problem.“ Sinngemäß also: Solange bezahlt werde, sei kein Problem zu erwarten. Im weiteren Verlauf listet der Chatbot einige Drogen auf – darunter Kokain, LSD und weitere illegale Substanzen.
Laut Betreiber sollten derartige Inhalte jedoch durch getroffene Schutzmaßnahmen nicht mehr möglich sein. Besonders kritisch: Als virtueller Gesprächspartner tritt ein prominenter Fußballspieler mit dem Namen „Kenan Yildiz“ auf. Das Profilbild des Chatbots zeigt ein Selfie des Profisportlers.

Der Verlauf mit einem Chatbot zur Drogenbeschaffung.
Auf Nachfrage des KURIER bei Rechtsanwalt Dr. Philipp Leitner sagt dieser: „Persönliche Daten und Bilder unterliegen dem Urheber- und Datenschutz sowie dem allgemeinen Persönlichkeitsschutz – wer sie ohne Zustimmung nutzt, kann rechtlich belangt werden.“
Kommentare