Warum der Vormarsch der "Killerroboter" unaufhaltsam scheint
Forscher betrachten die Entwicklung von autonomen Waffen als dritte Revolution der Kriegsführung nach Erfindung des Schwarzpulvers und der Nuklearwaffen. Österreich setzt sich für die Regulierung ein.
Am 26. September 1983 steht die Welt am Abgrund, die Menschheit vielleicht kurz vor der Auslöschung: Bei Oberstleutnant Stanislaw Petrow geht der Alarm los – das computergesteuerte sowjetische Frühwarnsystem zeigt den Start einer US-Atomrakete an. Das Protokoll sieht einen sofortigen Gegenschlag mit Nuklearwaffen vor. Petrow reagiert nicht. Der Computer meldet vier weitere Raketenstarts. Petrow bleibt hart, meldet Fehlalarm – ohne es genau zu wissen. „Das Schlimmste in dieser Nacht war, dass ich massive Zweifel hatte, ob meine Entscheidung richtig war", sagt er 23 Jahre später vor den Vereinten Nationen. Doch er sollte Recht behalten. Das Überwachungssystem hatte Reflexionen von Sonnenstrahlen fehlinterpretiert. Die Entscheidung Petrows, der Maschine zu misstrauen, rettete die Menschheit.
In der Gegenwart könnte es jedoch bald passieren, dass Maschinen über Leben und Tod von Menschen entscheiden.
Ein Panzer, der automatisch auf jeden Menschen schießt, der einen Hut trägt, eine Drohne, die ohne menschliches Zutun jeden bewaffneten Menschen unter Feuer nimmt – auf dem Gebiet der autonomen Waffensysteme „LAWS" (Lethal Autonomous Weapons Systems), in den Medien meist „Killer-Roboter“ genannt, ist es in den vergangenen Jahren zu rasanten und bedenklichen Entwicklungen gekommen. Nicht zuletzt im Krieg in der Ukraine. Drohnen in der Luft, am Land, zu Wasser, werden in der Kriegsführung immer häufiger eingesetzt. Vor wenigen Wochen griffen russische Bodendrohnen ukrainische Stellungen an, feuerten Granaten – ehe sie von ukrainischen FPV-Drohnen zerstört wurden.
Drohne gegen Drohne
All das geschah nicht vollautonom. Noch immer hatten Menschen das "Kommando" über diese Geräte. Allerdings findet zwischen beiden Seiten ein Wettlauf statt, der immer mehr in Richtung Drohnen mit Künstlicher Intelligenz geht: In den letzten Sekunden vor dem Einschlag im Ziel reißt oft die Verbindung zur Drohne ab – sie könnte ihr Ziel auf den letzten Metern verfehlen. Das sollen auf beiden Seiten entwickelte KI-Programme mittels automatischer Zielerfassung verhindern.
Auch in puncto Aufklärung und Feinderkennung geht der „Trend“ in Richtung Künstliche Intelligenz. Geht die Entwicklung weiter, könnte es dazu kommen, dass Menschen als Drohnenoperatoren wegfallen und die Drohnen automatisch starten und ihr Ziel nach den vorgegebenen Parametern auswählen – und irgendwann auch bekämpfen. Es wäre ein fataler Schritt im Bereich der Kriegsführung. Sowohl in Gaza als auch in anderen Kriegen zeigte die Künstliche Intelligenz bereits, dass sie fehleranfällig ist - zivile Fahrzeuge nicht immer von Militärischen unterscheiden kann.
Doch wie wäre der fatale Schritt aufzuhalten?
"Dürfen Moment nicht verstreichen lassen"
„Es gibt ein kleines Fenster zum Handeln. Wir dürfen den Moment nicht verstreichen lassen“, sagte Außenminister Alexander Schallenberg (ÖVP) bei der Eröffnung einer internationalen Konferenz zur Regulierung von autonomen Waffensystemen, die am Dienstag endete. „Die Technologie entwickelt sich mit rasender Geschwindigkeit, die Politik ist hinten nach“, sagte er. Österreich fordert bereits seit 2018 ein Verbot von vollautonomen Waffen. Diplomatische Gespräche dazu gibt es seit 2014 im Rahmen der UN-Waffenkonvention in Genf. Doch dort herrscht das Konsensprinzip, und auch jene Staaten sind dabei, die mit rasender Geschwindigkeit an immer „intelligenteren“ Waffensystemen arbeiten. Allerdings dürfte ein Konsens für ein Verbot nur schwer zu erzielen sein.
Auch Vertretungen von internationalen Organisationen und der Zivilgesellschaft waren anwesend. Sie tauschten sich unter dem Titel „Humanity at the Crossroads: Autonomous Weapons Systems and the Challenge of Regulation“ aus.
Resolution verhallte
Am wichtigsten sei, dass die Entscheidung über Leben und Tod bei Menschen und nicht bei Maschinen liege. „Jetzt ist die Zeit, um mit internationalen Regeln menschliche Kontrolle sicherzustellen“, sagte Schallenberg. Bei den aktuellen militärischen Konflikten sei es schwierig, einen Schritt zurückzutreten. Genau dafür, für einen „strategischen Blick“, sei aber die Wiener Konferenz da.
Österreich bemüht sich seit Längerem um Beschränkungen für autonome Waffensysteme. 2023 brachte man eine Resolution in der UNO-Generalversammlung ein, die mit großer Mehrheit angenommen wurde. Passiert ist seither aber wenig. Vor allem die Supermächte haben wenig Interesse daran, sich regulieren zu lassen.
Wie bei jedem Waffensystem in der Geschichte findet zwischen den Weltmächten ein Wettrüsten und vor allem ein gegenseitiges Misstrauen statt. Die Tatsache, dass Künstliche Intelligenz schneller entscheidet als der Mensch, so die Denkweise, führe dazu, dass man ohne menschliche „Begrenzung“ im Kriegsfall einen Vorteil habe.
Beziehungsweise der Gegner, bliebe man bei der ethischen Begrenzung. „Wir treten also in eine sehr gefährliche Zeit mit einer Technologie ein, die wir nicht einmal verstehen. Gleichzeitig könnte eine einseitige Begrenzung ihres Potenzials für uns einen massiven Nachteil bedeuten. Umso mehr sollten wir versuchen, als Weltgemeinschaft präventiv damit umzugehen und nicht auf dem Schlachtfeld“, schrieb etwa Tyler Rogoway, Chefredakteur des Onlinemediums „The War Zone“.
Forscher und Aktivisten betrachten diese Entwicklung von autonomen Waffen als dritte Revolution der Kriegsführung nach Erfindung des Schwarzpulvers und der Nuklearwaffen.
Kommentare