Künstliche Intelligenz: Ethikunterricht für KI-Systeme

Künstliche Intelligenz: Ethikunterricht für KI-Systeme
Roboter und Co. treffen mittlerweile selbstständig Entscheidungen, doch welche?

Als KI-Modell habe ich keine persönliche Meinung, Überzeugung oder Emotionen“, schreibt ein bekanntes KI-basiertes Textprogramm auf die Frage, wie man es mit der Ethik hält. Die Funktion des Programms bestehe vor allem darin, Informationen bereitzustellen, und Anfragen auf Grundlage des zugrunde liegenden Trainingsdatensatzes zu beantworten. Der Haken bei der Sache – KI-basierte Systeme treffen längst schon kritische Entscheidungen. 

Selbstfahrende Autos könnten sich beispielsweise dafür entscheiden, nicht anzuhalten, wenn sie auf der Straße auf ein Objekt treffen, das kein Lebewesen zu sein scheint. Wie geht man damit um? Was bedeutet es auch, wenn ein KI-gestütztes Textprogramm einem Nutzer die Anleitung zum Bau einer Bombe bereitstellt? Sollte es das dürfen? Wenn intelligente Systeme den Menschen immer mehr unterstützen, in manchen Fällen sogar ersetzen sollen, müssen wir uns mit diesen Fragen beschäftigen.

Künstliche Intelligenz: Ethikunterricht für KI-Systeme

Agata Ciabattoni, Informatikerin, TU Wien

Nachhilfe

Agata Ciabattoni will mit dem vom WWTF geförderten Projekt TAIGER (Training and guiding AI aGents with Ethical Rules) jene Lücke schließen. „TAIGER hat sich zum Ziel gesetzt, die Grundlagen zu schaffen, sodass KI-Agenten auf rechtlich einwandfreie, ethisch sensible und sozial akzeptable Weise arbeiten können“, erklärt Ciabattoni das Forschungsvorhaben. Für sogernannte autonome Agenten, wie es etwa das selbstfahrende Auto oder ein Pflegeroboter ist, die selbstständig und ohne menschliche Aufsicht agieren sollen, „ist dieses Unterfangen besonders entscheidend, aber auch besonders schwierig“, sagt Ciabattoni. 

Die Integration der deontischen Logik, einer speziellen Form der Logik, soll dies zusammen mit dem so genannten Reinforcement Learning ermöglichen. „Das ist eine Art des maschinellen Lernens, bei dem Computer trainiert werden, durch das Prinzip von Versuch und Irrtum Entscheidungen zu treffen. Sie erhalten dabei Rückmeldungen in Form von Belohnungen oder Bestrafungen, ähnlich wie Menschen durch Erfahrung lernen“, erklärt Ciabattoni. Damit lassen sich komplexe sowie neue Situationen meistern. Eine Garantie dafür, dass autonome Agenten dadurch immer ethisch korrekt handeln, gibt es aber auch hier nicht. Ciabattoni erinnert an den Vorfall vergangenen Sommer, als ein Schachroboter seinem menschlichen Gegner den Finger brach.

Deontische Logik bezieht sich hingegen, im Gegensatz zur klassischen Logik, nicht auf Ist-, sondern auf Soll-Begriffe. Was soll oder was soll nicht getan werden? Fragen, mit denen man üblicherweise in der Ethik oder in der Rechtsprechung konfrontiert ist. Um über solche Entscheidungen Aussagen treffen zu können, müssen mathematische und computergestützte Hilfsmittel zum Einsatz kommen, denn nur so lässt sich Maschinen etwas „beibringen“.

Logische Ethik

KI ist mittlerweile ein Synonym für maschinelles Lernen, das Daten aus der realen Welt verwendet, um den Agenten beim Erlernen neuer Verhaltensweisen zu unterstützen. Um intelligentes Verhalten zu erzeugen, gibt es jedoch auch einen anderen Ansatz, der sich auf die Verarbeitung und Manipulation von Symbolen statt von Daten konzentriert. Beide Ansätze haben ihre Stärken und Schwächen. Ciabattoni und ihre Projektpartner Ezio Bartocci und Thomas Eiter arbeiten an der Integration dieser beiden unterschiedlichen Ansätze. „Indem wir Reinforcement Learning und die deontische Logik zusammenführen, können wir den autonomen Agenten beibringen, richtig zu handeln. 

Damit verbinden wir das Beste aus beiden Welten“, so Ciabattoni. Offen bleibt allerdings die Frage, auf Basis welcher Normen und Werte solche autonomen Agenten überhaupt programmiert werden sollen? „Das Verhalten des Agenten muss in der Tat mit einer Reihe von potenziell widersprüchlichen und mehrdeutigen Normen aus den Bereichen Recht, Ethik, Gesellschaft usw. vereinbar sein“, sagt Ciabattoni. „Das Projekt TAIGER zielt darauf ab, Rahmenwerke zu entwickeln, die diese Anforderungen in die Praxis umsetzen. Aber wir verzichten darauf, Aussagen darüber zu machen, welchen Normen KI-Agenten folgen sollen. Diese heikle Frage überlassen wir Ethikern, Juristen, Philosophen und Praktikern.“