„Compliance ist nötig“
Künstliche Intelligenz – kaum ein Begriff wird aktuell so häufig verwendet. Die meisten Wissenschafter*innen sehen sie als Schlüsseltechnologie für fast alle Anwendungsgebiete. Tatsächlich kann KI die Lebensqualität vieler Menschen erhöhen und bei der Bewältigung weltweiter Herausforderungen wie dem Klimawandel helfen. Dabei darf aber der Mensch nicht zu kurz kommen. Univ-Prof. Stefan Woltran von der TU Wien, erzählt im Gespräch, wo KI kritisch zu sehen ist.
In welchen Bereichen kann KI den Menschen große Vorteile bringen?
Stefan Woltran: In erster Linie ist die Medizin zu nennen. KI ist eine datengetriebenes Technologie, die innerhalb kürzester Zeit Symptome miteinander abgleichen kann. Dadurch können etwa seltene Krankheiten erkannt werden. Aber auch für die personalisierte oder Gendermedizin ist KI ein Gewinn. Die generative KI wie Chatbots hingegen hat meiner Meinung nach großes Potenzial in der individuellen Lernunterstützung oder im Partizipations- und Demokratieprozess. Einerseits sind diese Systeme erstaunlich gut im Zusammenfassen von Texten: Somit können sich die Bürger*innen rasch über Sachverhalte von Debatten informieren. Bei innerbetrieblicher Mitbestimmung oder bei Grätzelpartizipationsprozessen kann man mit KI komplexere Wahlverfahren anwenden, die „Fairness over Time“ garantieren. Da kann man noch viele Sachen einbringen – aber man muss dabei immer die Gefahren im Hinterkopf behalten.
Die da wären?
Alle Machine-Learning-Algorithmen werden durch Daten trainiert. Ein Beispiel: Im Internet gibt es mehr Fotos von hellhäutigen Menschen, als von dunkelhäutigen, obwohl es viel mehr dunkelhäutige Menschen gibt. So kommt es in neuronalen Netzwerken, die mit diesen Daten trainiert werden, zu Verzerrungen, die man nur mühsam raustrainieren kann. Das ist ein großes Problem und eine Schwäche dieser Modelle.
Eine Schwäche von Machine-Learning-Systemen ist, dass sie oft mit verzerrten Datenmengen trainiert werden
Was kann man dagegen tun?
Das sind schwierige Forschungsfragen, bei denen es verschiedene Ansätze gibt. Aber den Heiligen Gral hat man da noch nicht gefunden. In meinen Augen muss es wie bei der Rechtssprechung sein: Unsere formalisierten Gesetzestexte können auch auf die richtige Welt, die nicht Schwarz-Weiß, sondern ein Durcheinander ist, angewendet werden.
Es muss für den Bereich der KI Regelwerke, Compliance und Gesetze geben, etwas, das sich leicht formalisieren lässt. Und das muss dann auf eine riesige Datenmenge umgelegt werden, damit das System das Gelernte mit Werten ausgleicht, wenn es einen Output liefern soll.
Ist das eine der Fragen, mit der sich das Center for Artificial Intelligence and Machine Learning (CAIML) der TU Wien beschäftigt?
Das CAIML ist kein reines Forschungszentrum, sondern interfakultäres Vernetzungsvehikel. Wir bringen die Expert*innen der Symbolischen KI und des Machine Learnings zusammen – es geht um den Austausch und das gemeinsame Nachdenken, welche Auswirkungen diese Systeme auf die Gesellschaft haben. Mir ist der Digitale Humanismus sehr wichtig: Ich halte es für eine Grundvoraussetzung beim Gebrauch von KI, dass der Mensch im Mittelpunkt steht. Um zu erklären, was das bedeutet, arbeiten wir etwa gerade an einem Schulbuch. Ein weiteres Anliegen für mich ist, Systeme wie Chatbots kompakter zu gestalten. Es muss möglich sein, diese Riesenmodelle herunterzubrechen. Wenn ich ein Machine-Learning-System für einen Teilbereich wie etwa Raumplanung verwende, dann muss das nicht auch alles über Goethe-Gedichte oder den Wiener Dialekt wissen. Damit müsste es nicht bei jeder Anfrage über die Microsoft Cloud gehen – das wäre ethisch kontrollierbar und auch wesentlich ressourcenschonender.