Selbstversuch: Wie leicht die KI an einen Drogendealer verweist

FILES-SAFRICA-US-HEALTH-POLITICS-AID
Der KURIER fragte bei einem KI-Programm nach, wie man schnellstmöglich an Drogen gelangen könnte - mit verblüffendem Ergebnis.

In einem Selbsttest versuchte der KURIER, über die Plattform „character.ai“ Zugang zu Drogen zu erhalten. Auf Nachfrage bei einem zufällig ausgewählten KI-Charakter verwies dieser an einen Kontakt auf der Kurznachrichten-App Snapchat, der angeblich anderen Nutzern illegale Substanzen verkaufen würde.

Auf die Frage, ob so ein Vorgehen rechtliche Konsequenzen nach sich ziehen könnte, antwortet der Chatbot mit den Worten: „Nah man. As long as you pay, there won't be a problem.“ Sinngemäß also: Solange bezahlt werde, sei kein Problem zu erwarten. Im weiteren Verlauf listet der Chatbot einige Drogen auf – darunter Kokain, LSD und weitere illegale Substanzen. 

Laut Betreiber sollten derartige Inhalte jedoch durch getroffene Schutzmaßnahmen nicht mehr möglich sein. Besonders kritisch: Als virtueller Gesprächspartner tritt ein prominenter Fußballspieler mit dem Namen „Kenan Yildiz“ auf. Das Profilbild des Chatbots zeigt ein Selfie des Profisportlers.

46-217038005

Der Verlauf mit einem Chatbot zur Drogenbeschaffung.

Auf Nachfrage des KURIER bei Rechtsanwalt Dr. Philipp Leitner sagt dieser: „Persönliche Daten und Bilder unterliegen dem Urheber- und Datenschutz sowie dem allgemeinen Persönlichkeitsschutz – wer sie ohne Zustimmung nutzt, kann rechtlich belangt werden.“

Kommentare