Warum Teenager nun Obdachlose in ihre Wohnungen lassen

Obdachloser schläft am Boden einer Unterführung
Der "AI Homeless Man Prank" trendet derzeit in den sozialen Medien. Doch Behörden warnen vor dem "Scherz", der vermehrt zu Polizeieinsätzen führt.

Derzeit sorgt ein Trend in den sozialen Medien zunehmend für Besorgnis. Insbesondere in den USA verbreitet sich der sogenannte "AI Homeless Man Prank" und führt vermehrt zu Polizeieinsätzen. Die Polizei von Oak Harbor (Washington) warnt in einem offiziellen Statement davor, dass dieser KI-Trend "unnötige Ängste auslösen oder Ressourcen der öffentlichen Sicherheit belasten kann".

"AI Homeless Man Prank": Worum geht es?

Bei dem "Streich" lassen überwiegend junge Menschen mithilfe einer App oder einer speziellen Website täuschend echte Szenarien erstellen. Die Nutzer laden Fotos ihrer eigenen Wohnung hoch und lassen von KI-Tools sogenannte "Deepfakes" (täuschend echte Fälschungen) erstellen, etwa einen fremden, obdachlos wirkenden Mann mit struppigem Haar, schmutziger Kleidung und ohne Schuhe, der an der offenen Haustür steht oder auf der Couch schläft.  

Nutzer verschicken KI-Bilder von fremdem Mann in ihrer Wohnung

Die KI-generierten Bilder werden dann per Messenger an Eltern oder Partner geschickt – oft mit dem Aufhänger: "Kennst du diesen Mann? Er sagt, er kennt dich." Daraufhin wird die fiktive Geschichte weitergesponnen: "Der Mann meinte, ihr wart zusammen auf der Schule, deshalb habe ich ihn hereingelassen."

Nutzer veröffentlichen anschließend den Chatverlauf, in dem die Empfänger ihre Sorge und teils ihr Entsetzen ausdrücken, auf TikTok oder Instagram, wo die Clips wegen des viralen Trends rasch Verbreitung finden.

Junge Leute finden Reaktion ihrer Angehörigen amüsant

In den Kommentarspalten heizen sich die User gegenseitig mit ihren Reaktionen an, wodurch der Trend weiter an Fahrt gewinnt. Viele fühlen sich bestens unterhalten ("Definitiv der beste Streich aller Zeiten!! 🤣🤣"), während andere unbedingt wissen wollen, wie sie den "AI Homeless Man Prank" selbst nachstellen können. 

Bedenken äußern nur ein paar wenige Nutzer: "Das ist nicht lustig. Respektiert eure Eltern, Leute … Mein Mann hätte einen Schlaganfall bekommen können…", schreibt eine TikTok-Userin

Besorgte Eltern verständigen Polizei

In den Chatverläufen ist zu sehen, wie Eltern verzweifelt versuchen, ihre Kinder telefonisch zu erreichen, nachdem sie Bilder eines vermeintlich obdachlosen Mannes in deren Wohnung erhalten haben. Um das Ganze nicht sofort aufzulösen, nehmen die Nutzer die Anrufe ihrer besorgten Angehörigen zunächst nicht entgegen. 

Häufiger kam es dabei zuletzt vor, dass Eltern oder Partner die Polizei alarmierten.

Polizei warnt vor Gefahren und Ressourcen-Verschwendung

Immer mehr örtliche Behörden sprechen öffentliche Warnungen aus, den Trend zu verbreiten. In einer offiziellen Aussendung der Polizei von Salem (Massachusetts) heißt es: 

"Abgesehen davon, dass dieser Streich geschmacklos ist, gibt es viele Gründe, warum er – offen gesagt – dumm und potenziell gefährlich ist. [...] Der Streich entmenschlicht Obdachlose, versetzt den verängstigten Empfänger in Panik und verschwendet Polizeiressourcen. Einsatzkräfte, die zu einem solchen Vorfall gerufen werden, wissen nicht, dass es sich um einen Scherz handelt, und behandeln den Fall als laufenden Einbruch – was eine gefährliche Situation schaffen kann."

"Es ist eine Straftat"

Die Polizei von Ohio weist in einem Facebook-Beitrag zudem darauf hin, dass die Jugendlichen für ihren "Scherz" möglicherweise zur Verantwortung gezogen werden können: "Wir möchten eines klarstellen: Dieses Verhalten ist kein 'Streich' – es ist eine Straftat." 

Auch hierzulande können Personen straf- und zivilrechtlich belangt werden, wenn Einsatzkräfte wegen eines solchen KI-basierten "Pranks" ausrücken müssen selbst wenn keine böse Absicht dahintersteckt. 

"AI Homeless Man Prank" mit ChatGPT erstellen?

KURIER Trend Hub prüfte, wie der KI-Chatbot ChatGPT auf eine derartige Anfrage reagiert. Die Antwort lautete: "Das kann ich nicht tun. Anleitungen dazu, wie man täuschende KI‑Bilder oder -Videos erstellt, die andere verängstigen, in Gefahr bringen oder Einsatzkräfte binden, würde dazu beitragen, Schaden zu verursachen — das lehne ich ab. Solche Anleitungen würden außerdem rechtliche Probleme nach sich ziehen können."

Kommentare