Cyberattacken: Wenn Künstliche Intelligenz angreift
Verdächtige Aktivitäten nahmen Sicherheitsexperten beim französischen KI-Unternehmen Anthropic erstmals Mitte September wahr. Später sollten sie sich zum ersten „Fall einer groß angelegten, autonomen Cyberattacke, die von einem KI-Modell ausgeführt wurde“ summieren, wie Anthropic Mitte November auf seiner Website darlegte.
Eine mit hoher Wahrscheinlichkeit von der chinesischen Regierung finanzierte Hackergruppe soll laut dem KI-Unternehmen seinen Chatbot Claude für eine Serie von Angriffen gegen rund 30 Unternehmen und Behörden weltweit missbraucht haben.
Nachdem die Ziele von Menschen ausgewählt und einzelne Arbeitsschritte festgelegt wurden, um die Sicherheitsmechanismen des Chatbots zu umgehen, wurde die KI aktiv. Sie untersuchte die Systeme und die Infrastruktur der Ziele und machte die wertvollsten Datenbanken ausfindig. Sie recherchierte auch Sicherheitslücken in dem System und testete sie aus. Den Code dafür schrieb die KI selbst. Dabei wurden auch Zugangsdaten abgegriffen, mit deren Hilfe Daten extrahiert werden konnten.
Weitgehend autonom
Alles in allem, resümierten die Anthropic-Experten, hätten die Angreifer 80 bis 90 Prozent der Kampagne mithilfe von KI durchgeführt, menschliches Eingreifen sei nur in wenigen Fällen notwendig gewesen. Die schiere Menge an Arbeit, die von der KI geleistet worden sei, hätte ein menschliches Team nur mit einem enormen Zeitaufwand bewältigen können. Auf dem Höhepunkt des Angriffs habe die KI Tausende Anfragen, oft mehrere pro Sekunde, gestellt, heißt es in dem Anthropic-Bericht: „Eine Angriffsgeschwindigkeit, die für menschliche Hacker schlichtweg unmöglich zu erreichen gewesen wäre.“
Sie räumen aber auch ein, dass Claude nicht immer einwandfrei funktioniert hat. So habe der Chatbot in einigen Fällen Zugangsdaten halluziniert oder auch behauptet, geheime Informationen abgegriffen zu haben, die in Wirklichkeit öffentlich zugänglich gewesen seien. Für vollständig autonome Cyberangriffe bleibe dies ein Hindernis, heißt es.
Florian Skopik, Cybersicherheitsexperte beim Austrian Institute of Technolgy (AIT)
Solche KI-Agenten könnten zwar Handlungen selbst ausführen und Ziele in mehrere Arbeitsschritte herunterbrechen und sich ihnen schrittweise annähern, sagt Florian Skopik, der beim Austrian Insitute of Technology (AIT) die Forschung zur Cybersecurity leitet. Allerdings nur, wenn sie davor mit entsprechenden Daten trainiert worden seien und auf bestehende Muster zurückgreifen könnten. „Was sie nicht können, sei neuartige Angriffstechniken zu entwickeln“, sagt Skopik. Die tatsächliche Gefahr bestehe deshalb weniger in komplett autonomen Angriffen durch KI, sondern in der massiven Automatisierung menschlicher Fähigkeiten und repetitiver Schritte.
Generative KI und Chatbots haben jedenfalls in den vergangenen Jahren die Hürden für Cyberangriffe deutlich gesenkt. Was früher technisch sehr anspruchsvoll war, sei heute auch Laien zugänglich. Was früher Wochen gekostet habe, könne heute mit wenigen Eingaben (Prompts) erledigt werden, sagt der Experte.
Die Technologie hat auch dazu beigetragen, die Qualität von Phishingmails deutlich zu steigern. Die erreichen Ihre Empfänger häufig bereits individualisiert. Auch Sprachbarrieren sind weitgehend gefallen. Auch für Deepfakes, als gefälschte Stimmen und Videos kommt sie bereits zum Einsatz. Aber auch beim Schreiben von Schadsoftware wird KI verwendet. Bestehende Programme könnten schnell verändert und angepasst werden. Auch Schwachstellen in Programmen könnten leicht gefunden werden.
Wettrüsten
Diese Fähigkeiten stehen allerdings auch der Verteidigung zur Verfügung, sagt der Experte. Maschinelles Lernen und Künstliche Intelligenz würden seit Jahrzehnten eingesetzt, um Anomalien bei Computernetzwerken ausfindig zu machen. Mit der Technologie könnte ein Abweichen vom Normalverhalten wesentlich detaillierter und zuverlässiger erkannt werden. Skopik spricht von einem Wettrüsten. Mal seien die Angreifer im Vorteil, mal die Verteidiger.
Unternehmen und Organisationen müssten sich auf einen strukturellen Wandel einstellen. Angriffe würden schneller und variantenreicher: „Klassische Schutzmaßnahmen werden schon bald nicht mehr ausreichen.“
Wichtig sei es, Künstliche Intelligenz nicht nur als Risiko zu sehen, sondern auch als Ressource und Chance für die Verteidigung zu nutzen. Durch die zunehmende Automatisierung könnten Kriminelle heute Attacken auch zu wesentlich geringeren Kosten durchführen. Für Unternehmen bedeute dass, das niemand zu klein oder unbedeutend sei, um ins Visier zu geraten, sagt Skopik: „Besonders für Betriebe, die bislang kaum als potenzielle Ziele wahrgenommen wurden – häufig im KMU-Sektor –, wird es daher entscheidend sein, ihre Sicherheitsvorkehrungen an den aktuellen Stand der Technik anzupassen.“
Kommentare