Meta-Umfrage: Jeder 5. Teenager hat Nacktbilder auf Instagram gesehen

Das Unternehmen kündigte Ende 2025 an, dass jugendlichen Nutzern keine sexualisierten Bilder und Videos mehr angezeigt werden sollen.
Junge Menschen informieren sich primär über TikTok und Instagram

Zusammenfassung

  • Nahezu jeder fünfte Instagram-Nutzer zwischen 13 und 15 Jahren gab an, unerwünschte Nacktbilder oder sexuelle Inhalte gesehen zu haben, wie aus einer Gerichtsakte hervorgeht.
  • Meta steht in den USA wegen Vorwürfen, suchtgefährdende Produkte zu entwickeln und die psychische Gesundheit von Minderjährigen zu gefährden, unter Druck und sieht sich Tausenden Klagen gegenüber.
  • Das Unternehmen kündigte an, explizite Inhalte für Jugendliche zu entfernen, betont aber auch den Schutz der Privatsphäre bei privaten Nachrichten.

Nahezu jeder fünfte Nutzer im Alter von 13 bis 15 Jahren gab gegenüber Meta an, auf Instagram "Nacktheit oder sexuelle Bilder gesehen zu haben", die sie nicht sehen wollten, wie aus einer Gerichtsakte hervorgeht. Das Dokument, das am Freitag im Rahmen einer bundesweiten Klage in Kalifornien öffentlich gemacht und von Reuters eingesehen wurde, enthält Auszüge aus einer Aussage von Instagram-Chef Adam Mosseri aus dem März 2025. 

Tausende Klagen gegen Meta in den USA

In einem weiteren Dokument, das im Zuge der Klage publik wurde, empfiehlt ein Meta-Forscher dem Unternehmen, sich auf jugendliche Nutzer zu konzentrieren, da sie als "Katalysatoren" für ihre Haushalte fungieren und das Nutzungsverhalten jüngerer Geschwister und Eltern beeinflussen. Das Dokument ist auf den 20. Januar 2021 datiert. "Wenn wir neue Nutzer gewinnen (und halten) wollen, müssen wir den Einfluss von Teenagern im Haushalt anerkennen, um dies zu erreichen", heißt es in dem Memo des Forschers. 

Meta, zu dem Facebook und Instagram gehören, sieht sich weltweit dem Vorwurf ausgesetzt, dass die Produkte des Unternehmens jungen Nutzern schaden. In den USA gibt es Tausende Klagen auf Bundes- und Landesebene, in denen dem Unternehmen vorgeworfen wird, suchtgefährdende Produkte zu entwickeln und eine psychische Gesundheitskrise bei Minderjährigen zu verschärfen. 

Meta reagierte nicht auf Anfrage

Die Statistik zu expliziten Bildern stammt laut Meta-Sprecher Andy Stone aus einer Umfrage unter Instagram-Nutzern im Jahr 2021 über deren Erfahrungen auf der Plattform und nicht aus einer Überprüfung der Beiträge selbst. Meta reagierte nicht umgehend auf eine Anfrage von Reuters zu dem Memo des Forschers. Etwa 8 Prozent der Nutzer in der Altersgruppe 13 bis 15 gaben in der Umfrage 2021 an, auf Instagram "gesehen zu haben, wie sich jemand selbst verletzt oder damit droht", so Mosseris Aussage. 

"Stolz auf die Fortschritte"

Das Unternehmen kündigte Ende 2025 an, dass für jugendliche Nutzer Bilder und Videos "mit Nacktheit oder expliziter sexueller Aktivität, auch wenn sie von KI generiert wurden", entfernt werden, wobei Ausnahmen für medizinische und Bildungsinhalte geprüft werden. "Wir sind stolz auf die Fortschritte, die wir gemacht haben, und arbeiten stets daran, uns weiter zu verbessern", sagte Stone.

Die meisten sexuell expliziten Bilder wurden laut Mosseri über private Nachrichten zwischen Nutzern verschickt, und Meta müsse bei deren Überprüfung die Privatsphäre der Nutzer berücksichtigen. "Viele Menschen wollen nicht, dass wir ihre Nachrichten lesen", sagte er.

Kommentare