Gastkommentar: KI und Cybersecurity? Wissenschaft ist gefragt
Künstliche Intelligenz (KI) gilt in vielen Bereichen derzeit als das neue Allheilmittel. Die Cybersicherheit ist hiervon nicht ausgeschlossen, denn auch hier werden KI-basierte Systeme als digitale Wunderwaffen beworben, die automatisch Bedrohungen wie Schadsoftware oder Phishing Emails erkennen können.
Klingt gut, ist aber nur die halbe Wahrheit: Ja, KI kann Muster entdecken, die Menschen übersehen würden, und die manuelle Arbeit von Sicherheitsteams stark reduzieren. Aber wer glaubt, dass damit alle Probleme gelöst sind, hat die Rechnung ohne die Gegenseite gemacht. Denn auch diese nutzt KI, um etwa fehlerfreie Phishing Emails in verschiedenen Sprachen zu schreiben.
Moderne KI-Systeme finden automatisch Schwachstellen und passen sich Abwehrmaßnahmen an wie digitale Chamäleons. Eine große Schwäche der KI ist zudem, dass sie nur so gut ist wie die Daten, auf denen sie trainiert wurde. Und diese Daten sind oft lückenhaft, verzerrt oder nicht aktuell genug. Dies vereinfacht gezielte Angriffe gegen KI-basierte Erkennungssysteme, sodass diese etwa einen harmlosen Code für gefährlich halten oder echte Bedrohungen übersehen.
Hier ist die Wissenschaft gefragt: robustere Modelle entwickeln, Transparenz schaffen, KI-Systeme erklärbar und überprüfbar machen. Trotz der beachtlichen Fortschritte erwarte ich in absehbarer Zeit keine vollständig autonomen Systeme.
KI wird Sicherheitsteams unterstützen, sie jedoch nicht ersetzen. Fortschritt entsteht nicht durch KI-Modelle allein, sondern erst durch ihr Zusammenspiel mit kluger Forschung und menschlicher Expertise.
Kommentare