Gefälschte Videos und Stimmen: Wie Deepfakes Unternehmen zusetzen
Der Schmäh ist nicht neu und hat vor Jahren etwa den oberösterreichischen Flugzeugzulieferer FACC mehrere Millionen Euro gekostet. Beim sogenannten „CEO-Fraud“ geben sich Cyberkriminelle in Chats oder auch in eMails als Geschäftsführer oder Finanzchef eines Unternehmens aus und veranlassen Mitarbeiter zu Überweisungen von hohen Geldbeträgen.
Mit Deepfakes, also mit Hilfe von Künstlicher Intelligenz (KI) erstellter Audiodateien, Bilder und Videos, eröffnen sich Cyberkriminellen bei der Betrugsmasche neue Möglichkeiten der Täuschung. Sie kommen auch bereits zum Einsatz, wie Roland Pucher, Leiter des Cybersecurity und Innovations Labs bei PwC Österreich erzählt.
Im Februar wurde ein Unternehmen aus Hongkong mit Hilfe von mit KI erstellten gefälschten Videos von führenden Managern um 25 Mio. Dollar erleichtert. Telefonanrufe mit geklonten Stimmen von Führungskräften, die wesentlich einfacher hergestellt werden können, haben auch bereits heimische Unternehmen erreicht.
Material auf YouTube
Das Material dazu finden Angreifer etwa in Werbevideos von Unternehmen, die im Netz veröffentlicht wurden. „Das geht mit YouTube-Videos relativ einfach“, sagt Pucher. Mehr als 5 Minuten Video- oder 2 Minuten Sprachaufnahmen seien nicht notwendig, um täuschend echte Deepfakes in Video- oder Audioform zu erstellen, sagt der Experte, der zu Recherchezwecken selbst mit der Technologie experimentiert.
Beispiele, die er am Dach der österreichischen PwC-Unternehmenszentrale im Wiener DC Tower vor Journalisten präsentiert, wirken zumindest in Ansätzen durchaus überzeugend. Eine Kamera nimmt Pucher beim Sprechen auf. Ein mit Bild- und Tonaufnahmen eines Kollegen trainiertes KI-Modell verwandelt ihn unterstützt von leistungsfähigen Grafikkarten am Bildschirm in die andere Person. Genug um etwa bei einer Videokonferenz in niedriger Auflösung als der Kollege auftreten zu können und auch in Echtzeit Fragen beantworten zu können.
Weil die technischen Möglichkeiten derzeit nur in der Lage sind, Gesichter und Stimmen in Echtzeit täuschend echt nachzuahmen, aber mit Frisuren, Ohren und auch Brillen noch zu kämpfen haben, ist das Fake nicht allzu schwer zu erkennen. Auch Lippenbewegungen erscheinen manchmal zeitverzögert am Bildschirm. Wenn Pucher sich mit dem Finger auf die Nase greift, wird der Fluss der gefälschten Bilder überhaupt jäh unterbrochen und das Täuschungsmanöver fällt in sich zusammen.
Videos, die nicht für die Echtzeitinteraktion zum Einsatz kommen, seien hingegen weit schwerer enttarnen, sagt der Experte. Der Angreifer können sich Zeit nehmen und das Material ordentlich aufbereiten. Tools zur Erstellung der Fälschungen sind im Netz verfügbar. Derzeit seien etwa ein bis zwei Wochen notwendig, um die Modelle mit Bildern und Tonaufnahmen von Zielpersonen zu trainieren.
10.000 Euro
Die Kosten für das Equipment, um einigermaßen professionelle Video-Deepfakes erstellen zu können, beziffert Pucher mit rund 10.000 Euro. Neben einer leistungsfähigen Grafikkarte seien ein entsprechender Computer sowie eine gute Kamera notwendig. „Tools zur Erstellung von Deepfakes werden täglich mehr und sie werden täglich leistungsfähiger“, sagt der Experte. „Wir gehen davon aus, dass es bald schneller gehen und auch die Qualität besser wird.“
Zum Einsatz können Deepfakes auch bei der Wirtschaftsspionage kommen. Vorstellbar sei etwa, dass sich Personen mit gestohlenen Personalien bei Unternehmen bewerben, nicht vor Ort erscheinen und einige Monate aus dem Homeoffice mitarbeiten. „Sie ziehen Informationen ab und sind dann weg“, sagt Pucher. Davor hat auch bereits die US-Bundespolizei FBI gewarnt. Eingesetzt werden Deepfakes auch für Erpressung und Desinformationskampagnen gegen Firmen.
Wie können sich Unternehmen schützen?
Wichtig sei es, Bewusstsein für die Möglichkeiten der Technologie zu schaffen. Helfen kann auch, die Authentifizierungsmaßnahmen zu verstärken, etwa für die Teilnahme an Videokonferenzen.
Eine wichtige Rolle bei der Erkennung von Fälschungen wird auch Künstliche Intelligenz einnehmen, sagt Pucher. Sein Unternehmen arbeitet mit dem AIT Austrian Institute Of Technology an Erkennungsmaßnahmen. Pucher: „Um Deepfakes zu erkennen, braucht es sowohl die Technologie als auch den Menschen.“
Kommentare