Ein Panzer, der automatisch auf jeden Menschen schießt, der einen Hut trägt, eine Drohne, die ohne menschliches Zutun jeden bewaffneten Menschen unter Feuer nimmt – auf dem Gebiet der autonomen Waffensysteme „LAWS" (Lethal Autonomous Weapons Systems), in den Medien meist „Killer-Roboter“ genannt, ist es in den vergangenen Jahren zu rasanten und bedenklichen Entwicklungen gekommen, wie der aktuelle Krieg in der Ukraine zeigt.
➤ Lesen Sie hier mehr zum den russischen Lancet-Drohnen
Technologien wie Drohnen oder Roboter-Panzer existieren bereits, werden aber vorerst teilautonom betrieben. Das heißt: Ein Mensch gibt den Feuerbefehl. Die Forschung, ausgestattet mit viel Geld, schreitet aber voran, vollautonome Waffen sind keine Utopie mehr. Zahlreiche Staaten treiben diese technologische Entwicklung voran und wir stehen heute knapp davor, diese moralische und rechtliche Schwelle zu überschreiten. Forscher und Aktivisten betrachten diese Entwicklung solcher Waffen als dritte Revolution der Kriegsführung nach Erfindung des Schwarzpulvers und der Nuklearwaffen.
Vor allem große Tech-Konzerne kooperieren in der Forschung und Entwicklung künstlicher Intelligenz mit dem Militär. Etwa in den USA am „Project Maven“, mit dem Google im Jahr 2017 begann. Die Technologie soll das Videomaterial, das unbewaffnete US-Überwachungsdrohnen aufzeichnen, effizienter als bisher nach militärisch bedeutungsvollen Objekten absuchen. Bald regte sich Widerstand in den Reihen der Google-Mitarbeiter. Mit dabei, Laura Nolan. “Für mich hat das ein gewaltiges moralisches Defizit in der Führungsebene aufgezeigt“, sagt sie zum KURIER.
Tech-Firmen und das Militär
Auch wenn die Google-Führung betonte, dass die eigene Technologie nicht für den Kampfeinsatz genutzt wird, war das einigen Mitarbeiterinnen und Mitarbeitern – darunter Nolan – zu viel. „Wenn es den politischen Befehl gäbe, hätten die US-Streitkräfte mit diesem Programm ein System, das sie sofort einsetzen könnten“, sagt sie. 2018 kündigte Nolan ihre Stelle bei Google, 2019 beendete der Konzern seine Zusammenarbeit mit dem Pentagon. Mittlerweile wurde bekannt, dass Amazon und Microsoft für Google eingesprungen sind.
Erst kürzlich präsentierte das US-Softwareunternehmen "Palantir" eine Plattform für künstliche Intelligenz, die Soldaten unterstützen soll.
All diese Entwicklungen bereiten auch dem Österreichischen Außenministerium, das traditionell einen starken Schwerpunkt auf Abrüstung legt, Sorgen: „Welchen größeren Angriff auf die Menschenrechte und die Würde des Menschen könnte es geben, als dass ein Algorithmus über Leben und Tod entscheidet? Menschenrechte und das humanitäre Völkerrecht sind unser Kompass; sie müssen weiterhin den Menschen, nicht die Maschine im Fokus haben. Ansonsten droht die digitale Anarchie“, sagte Außenminister Alexander Schallenberg auf einer internationalen Konferenz über autonome Waffensysteme.
Wer entscheidet über Leben und Tot?
Ziel dieser Konferenz war der „Erhalt menschlicher Kontrolle in autonomen Waffensystemen“. Somit stellt sich das Außenministerium nicht gegen die Entwicklung künstlicher Intelligenz an sich, sondern dagegen, dass der Mensch die Entscheidung über Leben und Tod an eine Maschine abgibt. Denn genau das würde passieren, würden vollautonome Waffensysteme in den Krieg ziehen. Die Konsequenzen wären nicht überschaubar. Österreich fordert bereits seit 2018 ein Verbot von vollautonomen Waffen.
Diplomatische Gespräche dazu gibt es seit 2014 im Rahmen der UN-Waffenkonvention in Genf. Doch dort herrscht das Konsensprinzip, und auch jene Staaten sind dabei, die mit rasender Geschwindigkeit an immer „intelligenteren“ Waffensystemen arbeiten. Allerdings dürfte ein Konsens für ein Verbot nur schwer zu erzielen sein.
Im Gegenteil, es findet ein Wettrüsten mit autonomen Waffensystemen statt. Von Staaten, die einen strategischen Nachteil befürchten, wenn sie selbst die Entwicklung dieser Systeme stoppen. Das Misstrauen ist zu groß.
Eine Reihe von Initiativen kämpft darum, gleiche Minimalregeln für alle zu schaffen, bevor im Rüstungswetteifer die rechtlichen, ethischen und sicherheitspolitischen Grenzen niedergerissen werden.
Rotes Kreuz und KRC
Ein Anliegen, das auch Marit Seyer massiv unterstützt. Die Juristin rief 2019 den Verein „Campaign to Stop Killer Robots (KRC) Austria“ ins Leben. Er ist ein Zweig einer globalen Initiative, der auch Laura Nolan angehört. Seyer will das Thema und seine Problematiken in der Öffentlichkeit bekannt machen, organisiert Demonstrationen und Informationsveranstaltungen.
„Ziel ist es, der Regierung den Rücken zu stärken, sodass ein nationales Gesetz erlassen wird, das den Einsatz autonomer Waffensysteme verbietet. Das könnte wiederum eine Vorbildwirkung auf andere Länder haben und so zu einem Erfolg führen“, sagt sie gegenüber dem KURIER..
Ein weiterer Unterstützer der Initiative des Außenministeriums ist das Rote Kreuz. „Wir sind ja im Grunde ein Ergebnis des humanitären Völkerrechts. Der Initiativen aus dem 19. Jahrhundert, die negativen Auswirkungen des Krieges möglichst zu limitieren, wenn man ihn schon nicht verhindern kann“, sagt Bernhard Schneider vom Österreichischen Roten Kreuz. „So wollte man zumindest erreichen, dass auch dort zumindest gewisse Schutznormen gelten sollen, um eben all jene zu schützen, die nicht oder nicht mehr an einem bewaffneten Konflikt teilnehmen.“ Doch gerade der Einsatz von autonomen Waffensystemen würde Zivilisten und zivile Einrichtungen wie Krankenhäuser noch stärker gefährden.
Am Beispiel der selbst fahrenden Autos sei zu sehen, dass diese zwar auf geregelten Verkehrswegen durchaus funktionieren würden, „aber am Schlachtfeld selbst ist es sehr unübersichtlich. Da gelten keine Regeln. Es ist vollkommen chaotisch dort. Und in so einem Umfeld müssten diese Waffensysteme zuverlässig zwischen Zivilisten und Kombattanten unterscheiden. Darüber hinaus müssten sie in der Lage sein, bei einem Beschuss auf militärische Ziele abzuschätzen, wie hoch der Schaden aufseiten der Zivilisten wäre. Das ist aus meiner Sicht nach derzeitigem technischen Stand nicht möglich“, sagt Schneider.
Auch Laura Nolan hat Zweifel an der Einsatztauglichkeit der autonomen Waffensysteme im Feld: „Niemand weiß, wie sie sich außerhalb der Tests verhalten werden, wenn es wirklich ernst wird. Ich gehe auch davon aus, dass diese Systeme, zum Beispiel Drohnen, nicht als Nahunterstützung der eigenen Truppen verwendet werden, weil kein Kommandant seine eigenen Soldaten diesem Risiko aussetzen will“, sagt sie und führt dazu ein Ereignis aus der Geschichte an: Als der sowjetische Offizier Stanislaw Petrow 1983 von seinem Computer irrtümlicherweise einen nuklearen Angriff der Amerikaner gemeldet bekommen hatte, hat er sich geweigert, einen Gegenschlag zu genehmigen. Da kommt der menschliche Faktor der Vernunft zum Einsatz. Hätte er anders entschieden, würden wir wahrscheinlich alle nicht am Leben sein.“
Kommentare