Die dunkle Seite der KI

Paul Sailer-Wlasits
Ein begleitender ethischer KI-Kodex wäre dringend vonnöten. Ein Gastkommentar von Paul Sailer-Wlasits.

Im Schatten der Künstlichen Intelligenz lauert beunruhigendes Potenzial. Dieses überschreitet die menschlichen Grenzen ethischer Vorstellungen. Denn KI kennt keine Moral, keine Gefühle, auch Loyalität ist ihr fremd. Ihr größtes Gefahrenpotenzial liegt im Missbrauch von Daten und Algorithmen.

Dieser Tage steht die EU kurz davor, den AI-Act, ihre KI-Verordnung, zu verabschieden. Das weltweit erste große Regelwerk beruht auf einer Einteilung nach Risikoklassen von Anwendungszwecken. Doch während politische Debatten über die Einordnung von KI-Anwendungen toben, schreiten andere internationale Akteure ungehindert voran. Führende globale Streitkräfte etwa testen KI-gesteuerte Kampfjets, derzeit noch in Begleitung menschlicher Piloten. Diese KI-Jets sollen in wenigen Jahren voll einsatzfähig sein, mit der Fähigkeit, Ziele selbstständig anhand von Zielprofilen zu selektieren und Zerstörungs- bzw. Tötungsentscheidungen autonom zu treffen.

Nicht nur die Auslagerung von Tötungsentscheidungen an KI-Algorithmen ist moralisch, kulturell und politisch völlig inakzeptabel. Auch die Zuordenbarkeit von Verantwortung, insbesondere im Falle schwerwiegender KI-Fehlentscheidungen, wird im Dickicht der Entscheidungsautonomie schwierig bis unmöglich.

Mehr lesen: Kreise: EU-Länder einigen sich auf KI-Regelung

Die digitalen Grenzen zwischen Wahrheit und Lüge verschwimmen bereits heute. Dank KI wird die Möglichkeit, täuschend echte Informationen zu generieren, perfektioniert. KI-generierte Desinformation, mit welcher Social Media überflutet werden, könnten den Diskurs destabilisieren und gesellschaftliche Bruchlinien weiter vertiefen.

Während die KI-Entwicklung mit exponentieller Geschwindigkeit fortschreitet, fehlt es an ethischen Leitlinien. Zusätzlich zu den geplanten gesetzlichen Maßnahmen wäre ein ethischer Rahmen dringend vonnöten. Etwa ein „ethischer KI-Kodex“, nicht als einmaliger ausgearbeiteter „KI-Katechismus“, sondern als verpflichtender, begleitender Prozess. Dieser könnte sämtliche Entwickler von KI-Grundlagenmodellen weltweit kontinuierlich dazu zwingen, die Zielsetzungen und möglichen gesellschaftlichen Auswirkungen der in Entwicklung befindlichen Modelle nach ethischen Gesichtspunkten zu bewerten. Eine kontinuierliche Beurteilung im Sinne der Grundsätze normativer und angewandter Ethik hätte den Vorteil, dass auch die Bewertungskriterien gemeinsam mit der Entwicklung von KI wachsen; dadurch entfernten sich die Bewertungen nicht zu weit aus dem Schatten der KI-Modelle.

Ohne einen verbindlichen ethischen KI-Kodex könnte ein Abstieg in die Unkontrollierbarkeit drohen. Dem Rentabilitätsdenken der KI-Konzerne folgend, wären große Teile der Globalgesellschaft potenziell jenem ungehemmten Informationsfluss ausgesetzt, der letzten Endes in einen letalen „elektronischen Griff nach den Gehirnen“ münden könnte.

Paul Sailer-Wlasits ist Sprachphilosoph und Politikwissenschaftler in Wien

Kommentare