Wählen Sie KURIER als bevorzugte Google-Quelle

"Mythos": Wie eine KI zu mächtig wurde, um veröffentlicht zu werden

Der US-Konzern Anthropic hält sein neuestes Modell "Mythos" aus Sicherheitsgründen unter Verschluss. Experten warnen vor einem Wendepunkt in der Cyberabwehr - und fordern klare Regeln.
FRANCE-TECHNOLOGY-SCIENCE-IT-AI-ANTHROPIC

Im September 2025 wurden Mitarbeiter des US-KI-Unternehmens Anthropic von der CIA auf "verdächtige Aktivitäten" einer Handvoll Nutzer hingewiesen - sie ahnten nicht, dass es sich dabei um eine Zeitenwende in der IT-Sicherheit handeln würde. Eine offenbar staatlich finanzierte, chinesische Hackergruppe hatte mithilfe des von Anthropic entwickelten KI-Modells „Claude“ rund 30 Ziele im Westen angegriffen – darunter Technologieunternehmen, Finanzdienstleister und Regierungsbehörden.

Das Besondere daran: Laut Anthropic lief ein Großteil der Operation automatisiert ab. Das heißt: Die Hacker hatten "Claude" vorbereitet und mit Anweisungen versorgt, die eigentlichen Cyberangriffe führte die KI dann aber eigenständig aus, "ohne nennenswertes menschliches Eingreifen". 

Zwei US-Sicherheitsexperten beschrieben den Vorfall später im Fachmagazin Foreign Affairs als „erste KI-orchestrierte Spionagekampagne“. Und als möglichen Vorgeschmack auf eine neue Ära der Cyber-Kriegsführung.

Anthropic hält seine KI "Mythos" für zu mächtig, um sie zu veröffentlichen

Die Konzernführung hatte das Erlebte wohl noch im Hinterkopf, als sie im April eine aufsehenerregende Entscheidung traf: Anthropics neuestes KI-Modell "Mythos" werde aufgrund von Sicherheitsbedenken vorerst nicht veröffentlicht. Das Programm soll Programmierern dabei helfen, Schwachpunkte in ihrem Software-Code aufzudecken. Dabei sei es jedoch "viel mächtiger als erwartet", warnte Firmengründer Dario Amodei.

FILE PHOTO: 56th annual World Economic Forum (WEF) meeting in Davos

Anthropic-CEO Dario Amodei war einst Chefentwickler bei OpenAI, ehe er aus ethischen Bedenken seine eigene Firma gründete.

Sicherheitslücken in Software zu finden galt lange als aufwendige Arbeit für Spezialisten. Millionen Zeilen an Code mussten analysiert werden, manchmal monatelang. KI-Modelle können jedoch riesige Datenmengen automatisiert analysieren – wesentlich schneller als Menschen.

Bei Testläufen habe "Mythos" selbstständig Sicherheitslücken in praktisch allen wichtigen Betriebssystemen und Internetbrowsern gefunden, darunter sogenannte "Zero Day Vulnerabilities" - also Schwachstellen, die seit der Veröffentlichung einer Software existieren, aber jahrzehntelang von keinem Menschen entdeckt wurden. Als Beispiel nannte Anthropic den Browser Firefox.

„Diese KI-Modelle sind tatsächlich sehr, sehr mächtig“, sagt Matteo Maffei, Professor für IT-Sicherheit an der TU Wien, im Gespräch mit dem KURIER. „Sie machen es möglich, dass auch jemand ohne besondere Expertise relativ schnell Sicherheitslücken finden kann, und zwar automatisiert und in großem Maßstab.“ Das ist nicht weniger als ein Paradigmenwechsel in der IT-Sicherheitsbranche. Auch der britische Economist warnte auf seinem Cover zuletzt vor dem "Mythos-Moment". 

"Wenn es irgendeine Sicherheitslücke gibt, wird sie heute sofort gefunden."

Noch vor wenigen Jahren konnten vor allem kleinere Unternehmen darauf hoffen, dass Schwachstellen in ihrer Software womöglich niemals entdeckt werden. „Das war schon damals riskant“, sagt Maffei. „Heute aber muss man davon ausgehen: Wenn es irgendeine Sicherheitslücke gibt, wird sie von Angreifern höchstwahrscheinlich sofort gefunden.“

Statt "Mythos" also auf die Welt loszulassen, stellte Anthropic seine KI zunächst nur 50 führenden Unternehmen der Tech-, Finanz- und Sicherheitsbranche zur Verfügung. Sie sollen das Modell nutzen, um Sicherheitslücken in ihren Systemen zu schließen. Am besten schnell - bevor andere Entwickler ähnlich leistungsstarke KI-Modelle entwickeln, dann aber der breiten Öffentlichkeit zur Verfügung stellen.

„Es ist sinnvoll, den Zugang zu solchen Modellen insbesondere in ihrer Anfangsphase zu begrenzen“, meint Maffei. Langfristig lasse sich das Problem so jedoch nicht lösen. „Die entscheidende Frage ist nicht, ob Angreifer irgendwann solche Werkzeuge haben werden, denn das werden sie. Sondern wie wir Systeme von Grund auf so bauen, dass sie trotzdem sicher bleiben.“

In der IT-Sicherheit gibt es dafür ein Konzept namens „Security by Design“. Die Idee dahinter: Software und Hardware sollen von Anfang an so entwickelt werden, dass es keine Sicherheitslücken gibt. Ein aufwendiger und teurer Prozess, der lange als "akademischer Luxus" galt, sagt Maffei. "Heute ist er aber eine dringende Notwendigkeit."

Selbst Trump will KI nun stärker regulieren

Der "Mythos-Moment" bringt offenbar auch die US-Regierung ins Grübeln. Noch im Herbst hatte Donald Trump erklärt, man dürfe KI "nicht mit dummen Regeln ersticken". Nun plant der US-Präsident Medienberichten zufolge eine Executive Order: Jedes neue KI-Modell müsste dann vor seiner Veröffentlichung von einer Arbeitsgruppe aus Regierungsbeamten und Vertretern von Tech-Konzernen überprüft werden.

U.S. President Donald Trump holds an event with UFC fighters at the White House

US-Präsident Donald Trump will künftige KI-Modelle vor Veröffentlichung durch eine Arbeitsgruppe prüfen lassen.

TU-Professor Maffei sieht in der gesetzlichen Regulierung von KI-Modellen eine der zentralen politischen Fragen der kommenden Jahre. Die Nutzung von KI durch Militärs und Geheimdienste sei etwa weitgehend unreguliert. Auch das zeigte sich zuletzt am Beispiel Anthropic: Der Konzern befindet sich gerade in einem Rechtsstreit mit der US-Regierung, weil er sich weigerte, dem US-Militär seine KI-Modelle zur Verfügung zu stellen.

"Es kann nicht sein, dass Privatunternehmen entscheiden, was gut für die Gesellschaft ist", sagt Maffei. "Natürlich braucht ein moderner Staat technologische Fähigkeiten für Verteidigung und Cyberabwehr", so Maffei", "aber gerade weil diese Modelle so mächtig sind, müssen die Grenzen und Anwendungsmöglichkeiten vorher rechtlich definiert werden".

Hinzu kommt ein geopolitisches Problem: Praktisch alle leistungsfähigen KI-Modelle stammen derzeit aus den USA. „Wenn unser Alltag auf Systemen basiert, die wir in Europa nicht kontrollieren können, ist das ein Sicherheitsproblem“, warnt der Experte. 

Um echte digitale Souveränität in der EU zu erlangen, bräuchte es eigene, vertrauenswürdige europäische KI-Modelle. Die technische Kompetenz dafür sei vorhanden, so Maffei. „Es ist vor allem eine Frage der Finanzierung.“

Kommentare