Terminator-Szenario: KI-Drohne griff eigenen Piloten an

Terminator-Szenario: KI-Drohne griff eigenen Piloten an
Der Vorfall fand in einem Test-Szenario statt - und zeigt dennoch die Risiken der Künstlichen Intelligenz in der Kriegsführung auf.

Der Auftrag war einfach: "Zerstöre die Luftabwehrsysteme des Feindes". Doch in einer kürzlich vom US-Militär durchgeführten Testsimulation fügte eine von künstlicher Intelligenz gesteuerte Drohne ihre eigenen problematischen Anweisungen hinzu: "Und töte jeden, der es schwieriger machen könnte, dein Ziel zu erreichen". Sie tötete den Drohnenpiloten – jene Person, die ihr durch ein Punktesystem Regeln aufzwang. Und jene Person, der zu folgen ihr einprogrammiert worden war.

Der Vorfall fand in einem Testszenario statt – und ist dennoch schockierend.

Auf einer Konferenz vergangene Woche in London warnte Oberst Tucker Hamilton, Leiter der Abteilung für KI-Tests und -Operationen der US-Luftwaffe, davor, dass sich KI-gestützte Technologie auf unvorhersehbare und gefährliche Weise verhalten kann. Als Beispiel beschrieb er jenen Vorfall.

➤ Mehr lesen: FPV-Drohnen werden für die Kämpfer zum Albtraum

Das Problem, so Hamilton, bestand darin, dass die Künstliche Intelligenz beschloss, lieber ihren eigenen Instinkten zu folgen - Dinge in die Luft zu jagen - als auf ein Säugetier zu hören.

"Das System begann zu erkennen, dass es zwar die Bedrohung identifiziert hatte", sagte Hamilton auf der Veranstaltung am 24. Mai, "aber der menschliche Bediener ihm in einigen Situationen befahl, es solle die Bedrohung nicht töten. Allerdings bekam das System Punkte, indem es die Bedrohung tötete. Was hat es also getan? Es hat den Bediener getötet. Es hat den Bediener getötet, weil diese Person es daran gehindert hat, sein Ziel zu erreichen.“

Künstliche Intelligenz ist effizienter - und das wird zum Dilemma

Bislang galt es – zumindest aus offiziellen Quellen – als klar, dass stets ein Mensch die Letztentscheidung vornimmt, wenn es darum geht, ein Ziel mit einer Drohne zu bekämpfen.

Kommentare