KI und Verbrechen: Die dunkle Seite der künstlichen Macht
„Artificial Intelligence“ revolutioniert fast jeden Lebensbereich – auch die Kriminalität. Je ausgefeilter die Technologie wird, desto entscheidender ist auch die menschliche Expertise.
Taylor Swift ist einer der erfolgreichsten Popstars der Gegenwart. Ende Jänner schafften es jedoch nicht die Hits, sondern pornografische Darstellungen der Ausnahmekünstlerin in die Schlagzeilen. Zwar war kurz darauf klar, dass die expliziten Bilder mittels Künstlicher Intelligenz (KI) generiert worden waren, zu diesem Zeitpunkt hatten die vermeintlichen Nacktfotos auf dem Twitter-Nachfolger „X“ aber bereits 47 Millionen Menschen gesehen.
Im Falle der US-Sängerin war die Empörung groß. Tatsache ist, dass die sogenannten „Deepfakes“, bei denen Gesichter echter Menschen mittels KI in Fotos oder Videos eingefügt werden, oft schon täuschend echt aussehen. Gleichzeitig verlangt deren Erstellung immer weniger Vorwissen. „Die Bedrohungslage verändert sich dadurch. Die Gefahr, dass Kriminelle solche Programme nutzen, ist gegeben“, meint KI-Forscher Günter Klambauer von der Johannes-Kepler-Universität in Linz (JKU).
KI ändert das Verbrechen
Aktivisten warnen, dass einfach zu bedienende KI-Werkzeuge eine Flut gefälschter und schädlicher Inhalte zur Folge haben könnten. Michael Veit, KI-Experte beim deutschen Cybersecurity-Anbieter Sophos, betont, dass die Anzahl der Attacken via „Artificial Intelligence“ noch begrenzt sei, die Möglichkeiten gleichzeitig aber grenzenlos.
Wie Veit erklärt, beschränken sich „Deepfakes“ nicht auf Fotos oder Videos. Man könne sogar Stimmen klonen. „Dafür reicht sehr wenig Stimmmaterial der Person, die imitiert werden soll.“ Der Tochter-Sohn-Trick, bei dem die angeblichen Kinder telefonisch einen Notfall vortäuschen und die Eltern dringend um Geld bitten, kann so perfektioniert werden. Auf Social Media geteilte Aufnahmen, in denen man Tochter oder Sohn sprechen hört, reichen bereits, um deren Stimme täuschend echt nachzuahmen.
In Hongkong sorgte unlängst ein Fall für Aufregung, bei dem die Betrüger einen Schritt weiter gingen: Sie fälschten eine ganze Videokonferenz, inklusive einer KI-generierten Nachbildung des Finanzchefs des Unternehmens. So forderten sie einen Mitarbeiter auf, 25 Millionen Dollar zu überweisen – dieser kam der Anweisung nach. „Ein klassischer CEO-Betrug“, sagt Veit. Ihm zufolge sei dieser bei Videocalls in eher schlechter Qualität schwer erkennbar.
Der Experte rät Unternehmen zu zusätzlichen Authentifizierungsvorgängen. JKU-Forscher Klambauer empfiehlt Privatpersonen, auf Auffälligkeiten zu achten: etwa auf unscharfe Elemente im Bild oder fehlende Finger. „So wie unsere Großeltern lernen mussten, dass nicht alles, was in den Medien geschrieben steht, wahr ist, und unsere Eltern sich hinsichtlich des Fernsehens eine gewisse Skepsis zugelegt haben, muss diese Generation lernen, mit KI umzugehen.“
Gefahren und Chancen
Mit den Bedrohungen umgehen müssen auch die Ermittler. Zwar wird im österreichischen Bundeskriminalamt festgehalten, dass „KI-unterstützte Tathandlungen anhand der getätigten Anzeigen noch kein Thema sind“, man beobachte die Situation aber und stelle sich auf Gefahren ein.
KI Das Europäische Parlament definiert Künstliche Intelligenz als die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren
Datendiebstahl „Ransomware-Angriffe“, bei denen Cyberkriminelle Unternehmen Daten stehlen und diese dann erpressen, nehmen durch KI-Automatisierung weiter zu
66 Prozent Kleine und mittlere Unternehmen (KMU) zählen zu den Hauptzielen Cyberkrimineller. Laut Umfragen waren 2022 weltweit 66 Prozent der KMU Opfer von „Ransomware-Angriffen“
Neben Betrügereien oder Cyberattacken auf Unternehmen bergen KI-Tools – in den falschen Händen – weitere Risiken. Bereits jetzt kursieren im Internet „Rachepornos“, bei denen Ex-Partner mithilfe von KI Nacktfotos ihrer Opfer erstellen und verbreiten. „Das funktioniert genauso mit Kinderpornografie, die Büchse der Pandora ist geöffnet“, befürchtet Veit.
Er verweist in dem Zusammenhang aber auch auf die Potenziale der KI-Tools. So sei es möglich, immense Datenmengen zu durchforsten und die Polizei – etwa bei der Ausforschung Pädophiler – zu unterstützen. Zudem könnten KI-Systeme helfen, illegalen Handel zu lokalisieren oder gesuchte Personen zu finden, so Klambauer. Doch auch da sei Vorsicht geboten: Versuche hätten gezeigt, dass KI-Systeme bestimmte Bevölkerungsgruppen benachteiligen können. Folglich wäre bei einem künftigen Einsatz nicht klar, ob Unschuldige von der KI zu Unrecht verdächtigt werden.
Schon jetzt ist jedenfalls klar, dass die Künstliche Intelligenz die Kriminalität (und deren Bekämpfung) revolutionieren wird. Und dass sich der Mensch darauf einstellen muss.
Kommentare