Wie Algorithmen unser Wahlverhalten beeinflussen können

Hacker-Cyberangriffe, futuristische Computerkriminalität.
Forschung: Warum Transparenz bei Algorithmen entscheidend ist, damit Menschen Entscheidungen besser verstehen können.

In unserer modernen Zeit sind es zunehmend Algorithmen, die Entscheidungen treffen und die damit direkte Auswirkungen auf unser Leben haben. So beeinflussen sie politische Strategien, Verwaltungsabläufe oder auch die Vergabe von Krediten. Oft wissen die Betroffenen gar nicht, wie diese Entscheidungen zustande kommen – und können sie daher kaum hinterfragen. Genau hier setzt das Forschungsprojekt „Interpretability and Explainability as Drivers to Democracy“ an, das seit 2021 an der Universität Wien läuft.

Der Hintergrund

Projektleiter Assoc. Prof. Sebastian Tschiatschek will mit seinem Team untersuchen, wie man maschinelles Lernen transparenter und damit auch demokratisch nachvollziehbarer machen kann. „Interpretierbarkeit bedeutet, dass ein Modell oder seine Entscheidungen direkt verständlich sind“, erklärt er. „Ein einfaches Beispiel wäre: Wenn es regnet, empfehle ich, einen Regenschirm mitzunehmen. Solche Regeln sind intuitiv und leicht nachzuvollziehen.“ Bei komplexen Systemen wie Sprachmodellen sei das anders: „Diese sind kaum direkt verständlich, aber mit Erklärbarkeitstechniken lässt sich teilweise nachvollziehen, welche Faktoren für eine Entscheidung wichtig waren.“ Die Herausforderung besteht darin, dass Menschen sehr unterschiedliche Vorkenntnisse mitbringen. Während manche ein Modell visuell verstehen, benötigen andere textliche oder mathematische Erläuterungen. „Und oft wollen Betroffene gar nicht das ganze System verstehen, sondern eine konkrete Entscheidung nachvollziehen – etwa, warum ein Kredit abgelehnt wurde“, sagt Tschiatschek. Deshalb untersucht das Projekt, wie Erklärungen an Zielgruppen angepasst werden können.

Auf diesem Bild sehen Sie Prof. Tschiatschek von der Uni Wien.

Assoc. Prof. Sebastian Tschiatschek von der Universität Wien

Der Schwerpunkt

Ein Schwerpunkt liegt auf der Entwicklung von Leitfäden, die Behörden, Unternehmen oder Institutionen dabei unterstützen sollen, Entscheidungen aus KI-Systemen verständlich zu kommunizieren. Darin enthalten sind Empfehlungen, wie man Transparenzfragen („Welche Daten wurden verwendet?“), Vertrauensfragen („Wie zuverlässig ist das Modell?“) oder Handlungsfragen („Was kann ich tun, um das Ergebnis anzufechten?“) strukturiert beantworten kann. Aber auch die ethische Dimension spielt eine Rolle: Verzerrungen oder mögliche Diskriminierungen sollen sichtbar gemacht werden.

Eine Frau mit Brille arbeitet an einem Computer mit Diagrammen.

Kommentare