Pornos und Anrufe: Das Fälschen ist bedenklich einfach
Mit schweren Vorwürfen wandte sich die deutsche Schauspielerin Collien Fernandes am Donnerstag an die Öffentlichkeit: Ihr Ex-Mann Christian Ulmen soll unter ihrem Namen gefälschte Profile erstellt und Personen aus ihrem beruflichen Umfeld anzügliche Nachrichten sowie pornografisches Material geschickt haben. Dazu kamen Anrufe von einer Frauenstimme, die genauso klang wie ihre. (Es gilt die Unschuldsvermutung).
Laut der KI-Expertin Julia Krickl vom Österreichischen Institut für Angewandte Telekommunikation (ÖIAT) sei es vor allem partnerschaftliche Gewalt, für die neue technologische Mittel eingesetzt werden. Technisch ist dies aber kein Wunderwerk – im Gegenteil. Der KURIER hat bei Martin Boyer vom Austrian Institute of Technology nachgefragt, einem Experten für Deepfake-Erkennung. So nennt man mit Künstlicher Intelligenz erstellte Medien, die Menschen imitieren.
Wie können Täter gefälschte Pornovideos von Frauen erstellen, obwohl die Szenen nie passiert sind ?
Die erste Möglichkeit ist ein sogenannter „Face Swap“ („Gesichtertausch“). „Das ist eine Technologie, bei der man das Gesicht eines Menschen auf ein anderes Video montiert“, erklärt Boyer. Im Grunde ist es nichts anderes als eine raffinierte Version des Ausschneidens eines Gesichtes, das man dann auf ein anderes klebt. Als Vorlage reiche teilweise ein zehn- bis 15-minütiges Video vom Opfer. Ein KI-Programm tauscht das Gesicht dann nachträglich.
Deepfake-Pornos lassen sich auch mit der „Text-to-Video“-Methode erstellen. Wer bei ChatGPT Bilder bestellt, kennt das: In einem kurzen Text erklärt der Ersteller dem Programm, was er auf dem Ergebnis sehen möchte. Die missbräuchliche Verwendung solcher Generatoren für Deepfake-Pornografie sorgte in jüngster Zeit immer wieder für Diskussionen: Gegen Elon Musks KI-Firma xAI läuft in den USA derzeit mindestens ein Gerichtsverfahren, weil der Chatbot Grok auf diese Weise Nacktbilder von Minderjährigen erstellt hatte.
Wie führen Betrüger Telefongespräche mit gefälschten Stimmen?
Für Stimm-Deepfakes wird häufig sogenannte „Retrieval Based Voice Conversion“ verwendet. „Man kann sich das vorstellen, als würde man bei einer Musikanlage den Equalizer drehen, Höhen und Bässe so einstellen, dass das dann klingt wie meine Stimme“, erklärt Boyer. Als Vorlage reiche eine kurze Audioaufnahme vom Opfer. Damit können Stimmfälscher den Klang so lange anpassen, bis sich das Ergebnis anhört wie die Stimme des Opfers.
Eine weitere Möglichkeit ist die Erstellung eines Stimmmodells. Hier erstellen die Täter eine digitale, lebendige Stimmkopie einer realen Person. Eine KI lernt aus Audioaufnahmen davor, wie jemand Dinge ausspricht und betont und lernt das dann nachzuahmen. Abgesehen von Betrügern setzen auch Callcenter solche Simmmodelle im Kundendienst ein. Auch Stimmen von Chatbots wie ChatGPT beruhen darauf.
Woher bekommen Täter die Software zur Erstellung von gefälschten Pornos?
Leider sind solche KI-Programme mittlerweile weit verbreitet. „Sie müssen nicht ins Darknet, um diese Tools zu bekommen“, sagt Boyer. „Wenn keine Hürden eingebaut sind, so ein Material zu erzeugen, ist das fatal für die Opfer.“ Das Erstellen und Verbreiten von gefälschten Pornos und Stimmen sei zwar illegal, aber möglich. Weniger technisch versierte Kriminelle würden solche Medien außerdem in versteckten Foren oder in Messenger-Gruppen kaufen.
Können sich Frauen davor schützen?
„Bei Betrug raten wir, dass man Social-Media-Profile auf privat stellt, damit Bilder nicht verwendet werden können“, sagt Krickl. „Wenn der Angreifer aber aus dem Naheverhältnis kommt, kann man wenig tun. Dass er keine Bilder von mir macht, ist 2026 unrealistisch.“ Neben Schutzmaßnahmen wie strengeren Regeln für App Stores brauche es ein gesellschaftliches Umdenken: „Selbst wenn es echte Aufnahmen wären, hätten sie die Betroffenen das nicht selbst veröffentlicht. Das ist ein Akt der Gewalt.“
Kommentare