Taylor Swift bis Rosalía: Was tun gegen Deepfake-Pornos und Nacktbilder?
Von Elisabeth Kröpfl
Manchmal sind die Bilder lustig. Das vom Papst zum Beispiel, der eine übergroße Balenciaga-Jacke trägt, oder vom ehemaligen US-Präsidenten Donald Trump, der mit einer winzigen Weihnachtsmütze posiert. Manchmal sind sie es nicht. Die von Taylor Swift etwa, die sich am vergangenen Donnerstag in Windeseile über den Kurznachrichtendienst X verbreiteten. Sie zeigen die amerikanische Popsängerin (34) nackt.
➤ Mehr lesen: Von Taylor Swift kursieren Nacktfotos aus der KI
Denn: All diese Fotos sind nicht echt. Der Papst, Trump, Swift: Sie alle wurden Ziel von Deepfakes, also Fotos, die mit Künstlicher Intelligenz (KI) erstellt worden sind. Der Begriff ist ein Kofferwort aus Deep-Learning, einer Methode des maschinellen Lernens, und Fake, also Fälschung. Um sie zu erstellen, reicht ein beliebiges Foto als Vorlage. Über entsprechende Apps und Webseiten kann es in realistische Montagen verwandelt werden. Dass das weitreichende Folgen haben kann, zeigt nicht nur der Fall Swift, sondern auch die unzähligen Beispiele, in denen KI-generierte Nacktfotos von Privatpersonen, oft Minderjährigen, im Internet kursierten.
➤ In Spanien häufen sich Fälle von KI-generierten Nacktfotos Minderjähriger
93 Prozent der Deepfake-Videos im Internet sind Pornos
In diesen Fällen spricht man von Deepfake-Nudes oder Deepfake-Porn. Nötig ist dafür ebenfalls nur gewöhnliches Video- oder Bildmaterial einer Person, das dann in Nacktbilder oder Pornografische Videos eingesetzt wird.
Die erste App, die das ermöglichte, kam bereits 2019 erstmals auf den Markt. Seitdem haben sich Deepfakes rasant verbreitet. Im Jahr 2020 waren 93 Prozent aller Deepfake-Videos, die online zu finden sind, pornografisch. Laut einer Studie, die Wired zur Verfügung gestellt wurde, wurden in den letzten sieben Jahren fast 250.000 solcher Pornovideos auf die 35 größten Websites hochgeladen. Im Sommer machte etwa ein KI-generiertes Pornovideo der spanischen Sängerin Rosalía die Runde.
Die Folgen für Betroffene können fatal sein. Fast immer fehlt ihr Wissen darüber, geschweige denn ihre Zustimmung. Betroffene berichten von einem Anstieg psychischer Probleme wie Depressionen, Angstzuständen oder Selbstmordgedanken. Gerade aus feministischer Sicht ist das eine gefährliche Entwicklung, argumentiert die Social-Media-Expertin Ingrid Brodnig. Vor allem Frauen in der Öffentlichkeit müssen mit dieser neuen Form der Herabwürdigung rechnen. Dennoch gaben in einer kürzlich in den USA durchgeführten Studie 74 Prozent der Personen, die bereits gefälschte Pornografie konsumiert haben, an, kein schlechtes Gewissen deswegen zu haben.
Wie sieht das rechtlich aus?
Ein Deepfake-Video oder Foto zu erstellen ist per se nicht illegal, der Kontext eventuell jedoch schon. Persönlichkeitsrechte wie das Recht am eigenen Bild oder das Urheberrecht können verletzt werden, aber auch die Tatbestände der Beleidigung, Verleumdung oder der üblen Nachrede. "Bei einer Verletzung des Rechts am eigenen Bild habe ich grundsätzlich nur zivilrechtliche Handhabe", sagt der Jurist Karl Gladt von der Internet Ombudsstelle. "'Die abgebildete Person kann verlangen, dass die andere Person das Foto löscht und das in Zukunft nicht mehr macht." Auch Schadenersatzansprüche können gestellt werden.
➤ "Deep Fake": Wie täuschend echte Fälschungen entstehen
Unter Umständen sind Deepfake-Nudes oder Deepfake-Pornos ein Fall von Cyber-Mobbing, das auch mit Freiheitsstrafen geahndet werden kann. Dafür müsste es jedoch wiederholt vorgekommen sein "und ich in meiner Lebensführung eingeschränkt worden sein, z.B. wenn ich mich nicht mehr in die Schule traue". In der Praxis kommt es hier nur selten zu Verurteilungen, so der Experte. Ein Problem ist unter anderem, dass die Täter nicht ermittelt werden können.
Typische Merkmale, an denen Sie Deepfakes erkennen können, sind:
- Unnatürliches Gesicht: Eine unnatürliche Mimik oder ein leerer Blick können Hinweise darauf sein, dass es sich um ein Deepfake handelt. Auch unlogische Schatten im Gesicht oder seltsam aussehende Haare können entlarvend sein.
- Unscharfe Übergänge: Achten Sie auf Übergänge wie jenem zwischen Gesicht und Haaren oder Gesicht und Hals. Diese sind bei Deepfakes oft unscharf.
- Fehlendes Blinzeln: Menschen blinzeln ganz automatisch und alle paar Sekunden. Blinzeln Personen in einem Video nicht, ist das ein Alarmsignal.
- Unterschiedliche Qualität: Hat das Gesicht eine andere Qualität als das restliche Video oder Bild, handelt es sich wohl um ein Deepfake.
- Unlogischer Hintergrund: Schauen Sie den Hintergrund sowie den Übergang von Gesicht zum Hintergrund an, oftmals zeigen sich bei genauer Prüfung Fehler.
- Tools verwenden: Tools wie Deepware Scanner, den DeepFake-o-meter oder die Deepfake Detection von DuckDuckGoose helfen, Deepfakes zu erkennen.
- Kontext überprüfen: Ist die Quelle vertrauenswürdig oder dubios?
- Umgekehrte Suche: Auf Webseiten wie TinEye.com oder berify.com können Sie Videos und Bilder hochladen, um ihre Echtheit zu überprüfen.
Und die Plattformen selbst?
Aktuell unterliegen Plattformen dem gesetzlichen Rahmen des Kommunikationsplattformen-Gesetzes, das in zwei Wochen vom Digital Services Act ersetzt wird. "Bis jetzt hatten Plattformen noch die Frist von 24 Stunden und sieben Tagen, um entsprechende Inhalte zu löschen. Das wird es in Zukunft nicht mehr geben, aber die Plattformen sollten natürlich möglichst schnell reagieren."
➤ Ludwig-Telefonat mit falschem Klitschko: Was sind Deep Fakes und wer steckt dahinter?
Das Problem: Online-Plattformen unternehmen zu wenig gegen diese gefälschten Pornos, so eine häufige Kritik. Nach Recherchen von Bloomberg sorgen große Unternehmen wie Google oder Microsoft sogar für ein "Supercharging" von Deepfake-Pornos, sie tragen also massiv zur Verbreitung solcher Videos bei. Im Fall von Taylor Swift wurden entsprechende Bilder beispielsweise erst nach 17 Stunden und 47 Millionen Aufrufen von der Plattform X gelöscht. Bei X wurde laut Social-Media-Expertin Ingrid Brodnig "zu einem entscheidenden Zeitpunkt Moderationspersonal abgebaut". Die Plattform gilt daher als besonders gefährlich für solche Inhalte.
Sie selbst hat vor Monaten einen Kanal gemeldet, der Deepfake-Pornos verbreitet. Er ist bis heute online. "Ich frage mich, hat überhaupt ein Mensch meine Meldung angeschaut? Weil so ein Kanal würde keine wirkliche Prüfung bestehen."
Viele Deepfake-Daten sind aber auch über gängige Suchmaschinen leicht auffindbar. Laut Brodnig sollten Suchergebnisse von Deepfake-Pornos vollständig aus dem Suchindex entfernt werden. Da davon auszugehen sei, dass sie ohne Einwilligung der abgebildeten Person entstanden seien, "sind sie anders zu behandeln als pornografisches Material, das mit Einwilligung der Betroffenen entstanden ist". Zudem sollten Plattformen stärker auf automatisierte Überprüfung setzen und Meldungen genauer überprüft werden. Aus der Gesellschaft erhofft sie sich künftig höheren Druck auf Plattformen und Hosts von Deepfake-Pornoseiten.
Was Betroffene tun können
Für Betroffene ist es wichtig, Beweise zu sichern, also das Video- oder Bildmaterial zu speichern oder Screenshots zu machen. Nutzer, die das Material verbreiten, sollte man sperren und die Inhalte über die Meldefunktion der jeweiligen Plattform melden, damit diese reagieren können. Werden Deepfakes auf Messengerdiensten wie Whatsapp verbreitet, wird es komplizierter. Anders als bei öffentlich abrufbaren Postings, sind die Inhalte verschlüsselt. Die Anbieter können also nicht in die private Kommunikation eingreifen und z.B. ein Foto löschen.
Doch auch hier gibt es eine Meldefunktion und die Person kann gesperrt werden. Wird ein Foto in größeren Gruppen geteilt, z.B. im Schulkontext, kann wie auf Social-Media-Plattformen Cyber-Mobbing und Beleidigung vorliegen.