Was sie nicht wissen konnte: Die Videokonferenz wurde auf Basis alter Aufnahmen der Mitarbeiter mithilfe von Künstlicher Intelligenz (KI) erstellt. Sie ist auf einen sogenannte „CEO-Fraud“ hereingefallen Ihr Unternehmen ist jetzt um 25 Mio. Dollar ärmer. Noch sei der Einsatz solcher Deepfakes in der Cyberkriminalität nicht weit verbreitet, sagt Mikko Hyppönen, Forschungschef beim finnischen Cybersicherheitsunternehmen WithSecure auf der Konferenz Sphere 2024 in Helsinki: „Aber sie beginnen gerade.“
„Liebesgeschichte“
Künstliche Intelligenz und Cyberkriminelle sei eine Liebesgeschichte, sagt die israelische Sicherheitsexpertin Keren Elazari. KI helfe Cyberkriminellen, ihre Attacken schneller und in vielen Fällen besser durchzuführen als jemals zuvor. Die Technologie senke die Eintrittsbarrieren. Fertigkeiten, wie etwa das Programmieren von Schadsoftware, könnten heute zum Teil automatisiert erledigt werden, sagt Elazari: „Es ist viel einfacher geworden, Cyberkrimineller zu werden.“
Hyppönen sieht noch eine Reihe weiterer Bedrohungen, die kurzfristig von der Technologie ausgehen. Er erwartet etwa die starke Zunahme sogenannter Love Scams, bei denen Nutzer von Internet-Bekanntschaften um Geld erleichtert werden sollen. Bisher habe ein Betrüger vielleicht fünf Opfer zur selben Zeit umgarnen können. Mit Sprachmodellen wie ChatGPT oder Googles Gemini könne man gleichzeitig mit Tausenden Leuten in allen Sprachen chatten. Das mache die Masche finanziell ungleich attraktiver.
Warum werden solche Chats von den Programmen nicht blockiert? Weil es auch viele zahlende Klienten gebe, die virtuelle Freundinnen und Freunde zu kommerziellen Zwecken anbieten, sagt Hyppönen. Aber selbst wenn das passieren sollte, gebe es bereits eine Reihe „bösartiger Chatbots“, die von Kriminellen für ihre Zwecke trainiert wurden und über keinerlei Einschränkungen verfügen.
Sie heißen WormGPT oder DarkBard und werden auf Marktplätzen in den dunkleren Ecken des Webs zum Kauf angeboten. Solche Tools seien zwar noch fehlerbehaftet, sie würden die Entwicklung der Cyberkriminalität aber beschleunigen, sagt Elazari. Erpresserische Software oder Ransomware habe Jahre gebraucht, um zum Milliardengeschäft für Kriminelle zu werden. „Das wird bald viel schneller gehen.“
Massenweise Schwachstellen
Es sei auch nur eine Frage der Zeit, bis Attacken selbstständig auf Abwehrversuche reagieren, prognostiziert Hyppönen. Heute dauere es oft Stunden oder gar Tage bis Angreifer bemerken, dass ihre Internet-Adressen oder Zugänge zu Netzwerken blockiert werden. Künftig würden Programme nach Möglichkeiten suchen, die Blockaden zu umgehen.
Mit KI-Tools könnten auch bestehende Programme auf Sicherheitslücken überprüft werden. Man werde massenweise Schwachstellen finden, die ausgenutzt werden können, sagt der Sicherheitsforscher. Umgekehrt können die Tools genutzt werden, um Programme zu verbessern.
Warum viele der Möglichkeiten von KI noch nicht breitflächig bei Cyberattacken zum Einsatz kommen, lässt auch den Sicherheitsforscher rätseln. Noch sei man gut gerüstet, da die Technologie in der Verteidigung bereits seit Jahren zum Einsatz komme, etwa um Anomalien in Netzwerken ausfindig zu machen.
Mit KI könne man alles machen: Text, Bilder, Videos, Musik und mehr, sagt Hyppönen. Man wisse noch nicht, was alles passieren werde, sagt Hyppönen: „Aber es wird eine größere Veränderung sein, als wir uns vorstellen können.“
Hinweis: Die Reisekosten nach Helsinki wurden von WithSecure übernommen.
Kommentare