Betrug mit KI: Abzocken mit geklonter Identität

Der Einsatz von KI birgt Chancen, aber auch Gefahren. Die EU ringt um Regeln  
Täter agieren häufig aus dem Ausland. Das macht es schwierig, Straftaten zurückzuverfolgen.

Auf einem Handybildschirm poppt eine Videonachricht auf: „Moin moin und viele Grüße aus meinem Urlaub. Ich habe hier Thomas Kreuzer von der Firma ABC Labs getroffen. Er wird sich in den nächsten Tagen mit einem Angebot bei euch melden“, sagt ein Mann, der aussieht und spricht wie Sven Kurras, KI-Experte bei der Firma „Risk Ident“, das intelligente Software im Kampf gegen Online-Betrug anbietet. 

Künstliche Intelligenz als der perfekte Verbrecher?

Worte, die niemals tatsächlich ausgesprochen wurden. Sogenannte Deepfake-Clips gelten als neue große Herausforderung für Strafverfolgungsbehörden. Deepfakes sind Videos, bei denen ein falsches Gesicht auf das Gesicht einer Person „montiert“ wird. Dieses Gesicht übernimmt nicht nur die Gesten, sondern auch die Stimme und den Text. 

Wie häufig mithilfe von Deepfake-Clips in Österreich bzw. im deutschsprachigen Raum bereits Betrug begangen worden ist, steht nicht fest. „Es gibt keine Zahlen, wie viele Delikte es in Österreich bereits in Zusammenhang mit Künstlicher Intelligenz gibt“, sagt dazu Manuel Scherscher, Leiter der Abteilung für Wirtschaftskriminalität und Betrug im Bundeskriminalamt. 

700 Millionen Euro Schaden

Fest steht nur, dass die Anzahl der Betrugsdelikte im Internet grundsätzlich enorm steigt. Im Jahr 2022 sind die angezeigten Straftaten im Bereich des Cybercrime um 30 Prozent auf mehr als 60.000 gestiegen. Bei Betrugsdelikten gab es ein Plus von 23 Prozent auf mehr als 27.600 Fälle, der Schaden belief sich auf 700 Millionen Euro.

Schwere Rückverfolgung

Je stärker sich KI im Bereich der Internetkriminalität durchsetzt, desto mehr sind auch Strafverfolgungsbehörden gefordert. „Die Täter agieren häufig aus dem Ausland, was die Rückverfolgbarkeit der Straftaten sowie den Zugriff auf die Täter sowie das entwendete Vermögen erschwert“, erklärt Scherscher.

Derzeit spielt die KI aber noch eine untergeordnete Rolle, betont KI-Experte Kurras. Kriminelle würden zumeist auf personalisierte Text-Nachrichten zurückgreifen, um ihre Opfer zu betrügen. 

➤ Zweite Meinung: Eine künstliche Intelligenz fragt die andere

„Die Masche mit der geklonten Stimme erfordert schon mehr Aufwand. Es ist heutzutage möglich, mithilfe von KI den Rhythmus, die Tonhöhe und die Emotion einer Stimme zu klonen.“ Das Sprachmodell sei extrem flexibel und würde mittlerweile 29 Sprachen beherrschen. „Österreichische Dialekte sind aber noch nicht dabei“, sagt Kurras mit einem Lachen. Der Experte geht davon aus, dass dies nur mehr eine Frage der Zeit sei.

Teilweise fehlerbehaftet

Auch wenn die Manipulation von Gesichtern, Stimmen, Videos und Dialogen mittlerweile gelingt, sei diese teilweise noch fehlerbehaftet. Es gibt Indikatoren, an denen man sich orientieren kann, sagt Kurras. „Unscharfe Übergänge zwischen Gesichtern und dem Hintergrund sind verdächtig, ebenso asymmetrische Brillen. Wenn Teile von Bildern oder Videos eine unterschiedliche Auflösung haben, sollte man ebenfalls auf der Hut sein.“

➤ Mehr lesen: Werden wir bald von künstlicher Intelligenz behandelt?

Kommentare