Der Auftrag war einfach: "Zerstöre die Luftabwehrsysteme des Feindes". Doch in einer kürzlich vom US-Militär durchgeführten Testsimulation fügte eine von künstlicher Intelligenz gesteuerte Drohne ihre eigenen problematischen Anweisungen hinzu: "Und töte jeden, der es schwieriger machen könnte, dein Ziel zu erreichen". Sie tötete den Drohnenpiloten – jene Person, die ihr durch ein Punktesystem Regeln aufzwang. Und jene Person, der zu folgen ihr einprogrammiert worden war.
Der Vorfall fand in einem Testszenario statt – und ist dennoch schockierend.
Auf einer Konferenz vergangene Woche in London warnte Oberst Tucker Hamilton, Leiter der Abteilung für KI-Tests und -Operationen der US-Luftwaffe, davor, dass sich KI-gestützte Technologie auf unvorhersehbare und gefährliche Weise verhalten kann. Als Beispiel beschrieb er jenen Vorfall.
➤ Mehr lesen: FPV-Drohnen werden für die Kämpfer zum Albtraum
Das Problem, so Hamilton, bestand darin, dass die Künstliche Intelligenz beschloss, lieber ihren eigenen Instinkten zu folgen - Dinge in die Luft zu jagen - als auf ein Säugetier zu hören.
"Das System begann zu erkennen, dass es zwar die Bedrohung identifiziert hatte", sagte Hamilton auf der Veranstaltung am 24. Mai, "aber der menschliche Bediener ihm in einigen Situationen befahl, es solle die Bedrohung nicht töten. Allerdings bekam das System Punkte, indem es die Bedrohung tötete. Was hat es also getan? Es hat den Bediener getötet. Es hat den Bediener getötet, weil diese Person es daran gehindert hat, sein Ziel zu erreichen.“
Künstliche Intelligenz ist effizienter - und das wird zum Dilemma
Bislang galt es – zumindest aus offiziellen Quellen – als klar, dass stets ein Mensch die Letztentscheidung vornimmt, wenn es darum geht, ein Ziel mit einer Drohne zu bekämpfen.
Bereits dieses ethische Dilemma warf und wirft Fragen auf. Dass nun – auch wenn es nur im Testverfahren war – eine Künstliche Intelligenz in der Lage ist, die Befehle des Menschen zu ignorieren, sollte laut vielen Experten für die Staaten und Unternehmen, die an Kriegsführung mit Künstlicher Intelligenz ein Weckruf sein.
➤ Künstliche Intelligenz im Krieg: Eine Revolution gleich der Atombombe
Wie bei jedem Waffensystem in der Geschichte findet zwischen den Weltmächten ein Wettrüsten und vor allem ein gegenseitiges Misstrauen statt. Die Tatsache, dass Künstliche Intelligenz schneller entscheidet als der Mensch, so die Denkweise, führe dazu, dass man ohne menschliche „Begrenzung“ im Kriegsfall einen Vorteil habe. Beziehungsweise der Gegner, bliebe man bei der ethischen Begrenzung. „Wir treten also in eine sehr gefährliche Zeit mit einer Technologie ein, die wir nicht einmal verstehen. Gleichzeitig könnte eine einseitige Begrenzung ihres Potenzials für uns einen massiven Nachteil bedeuten. Umso mehr sollten wir versuchen, als Weltgemeinschaft präventiv damit umzugehen und nicht auf dem Schlachtfeld“, schrieb etwa Tyler Rogoway, Chefredakteur des Onlinemediums „The War Zone“.
"KI-Systeme mit einer dem Menschen ebenbürtigen Intelligenz können tiefgreifende Risiken für die Gesellschaft und die Menschheit darstellen", warnte ein offener Brief, den das gemeinnützige Future of Life Institute im März veröffentlichte. "Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind."
Anstrengungen, etwas gegen dieses gefährliche Wettrüsten zu unternehmen und die Forschung zu begrenzen, gibt es zu genüge – allerdings zeigen sich vor allem die USA und China davon unbeeindruckt. Das US-Militär weist Vergleiche mit einem Terminator-Szenario routinemäßig zurück, spricht stets davon, dass ein Mensch die letzte Entscheidungsinstanz bleiben werde.
Kommentare