Eine Machtfrage, keine der Moral: Wer steuert KI-Waffen?
Darf man Künstliche Intelligenz uneingeschränkt militärisch nutzen? Also riskieren, dass Algorithmen über Leben und Tod entscheiden?
Um diese Grundsatzfrage dreht sich der Machtkampf zwischen dem KI-Konzern Anthropic und der US-Regierung. Im Sommer vergangenen Jahres unterzeichnete das Unternehmen einen 200 Millionen-Dollar-Vertrag mit dem Pentagon, der die Nutzung seines Sprachmodells Claude durch das Militär erlaubte. Auch andere Branchengrößen wie OpenAI, Google und xAI stimmten damals solchen Abkommen zu.
Anthropics Zugang unterschied sich jedoch in einem Punkt: Das Modell operiert nach eigenen ethischen Leitlinien, eine „Verfassung“, die direkte Nutzung für autonome Waffen oder Massenüberwachung ausschließen. Der Grund dafür ist simpel: KI-Modelle halluzinieren nach wie vor, ihnen können so potenziell tödliche Fehler unterlaufen.
Knackpunkt Maduro
Hegseth war das von Anfang an ein Dorn im Auge, zumal die anderen KI-Größen kein Problem mit der uneingeschränkten Nutzung ihrer Systeme hatten. Sie wiesen lediglich darauf hin, dass all das nur im legalen Rahmen erfolgen dürfe.
Doch den setzt die US-Administration mitunter selbst fest, wie der Fall Maduro zeigte. Wegen dessen Entführung eskalierte der Streit zwischen Anthropic und Hegseth: Das Ministerium hatte Claude nicht nur zur Planung, sondern auch zur Durchführung des Militärschlags eingesetzt. Anthropic-Chef Dario Amodei wollte daraufhin nicht nur seinen Vertrag mit Hegseth nachverhandeln, sondern warnte auch medienwirksam vor der möglichen Unterdrückung der Menschheit durch KI.
Hegseths "Kriegsministerium" reagierte mit einem Ultimatum. Bis Freitagnachmittag hat Anthropic nun Zeit, um dem Ministerium vollen Zugriff auf Claude zu geben. Wenn nicht, könnte die Firma auf der Unternehmens-Blacklist der Regierung landen, die bisher nur Firmen feindlicher Mächte vorbehalten war – oder per Defense Production Act gezwungen werden, Claude herauszurücken.
Kriegsminister Pete Hegseth setzt KI-Branche unter Druck.
Machtfaktor Claude
Anthropic hat darauf noch nicht reagiert. Noch hat die Firma ein Ass im Ärmel, sie stellt die einzige KI, die das Pentagon auch für „klassifizierte“ Aktionen, also Geheimoperationen nutzt. Zuletzt hat Anthropic auch mehrfach seine Marktmacht demonstriert, indem es allein durch die Vorstellung neuer Claude-Anwendungen die Aktienkurse mancher Firmen in den Keller rasseln ließ.
Trumps Regierung stilisiert den Streit darum auch als Machtkampf: CEOs privater Unternehmer dürften schließlich nicht über nationale Sicherheit entscheiden, wird behauptet. Beobachter wie der renommierte US-Jurist Alan Z. Rozenshtein sehen allerdings beide Positionen kritisch. „Die Regeln für militärische KI sollten nicht irgendein CEO oder ein gerade im Amt befindlicher Minister machen“, schreibt er. Zuständig wäre eigentlich der Kongress – doch der sehe nur von der Seitenlinie zu.
Kommentare