Rassistische KI kann das soziale Gefüge ins Wanken bringen

Rassistische KI kann das soziale Gefüge ins Wanken bringen
Wie lässt sich rassistische und diskriminierende Künstliche Intelligenz verhindern - und warum das so wichtig ist. Ein Gastkommentar von Dalibor Mitrovic.

Wenn sich eine Künstliche Intelligenz aufgrund der verwendeten Trainingsdaten rassistisch oder diskriminierend verhält, verstärkt sie Ungleichheiten und Stereotypen. Das führt zur Benachteiligung von Teilen unserer Gesellschaft, die ohnehin bereits benachteiligt werden und bringt so das soziale Gefüge ins Wanken. Ein bekanntes Beispiel ist der umstrittene Google Chatbot LaMDA, der sich in Chats rassistisch äußerte und Vorurteile gegenüber Religionen und Minderheiten wiedergab. So soll er laut Berichten bei einem Gespräch zum Thema Religion erklärt haben, dass Muslime gewalttätiger seien als Christen.

Wenn die Wirtschaft nun noch stärker als bisher auf KI setzt, muss gewährleistet sein, dass diese KI neutral und sachlich vorgeht – andernfalls wären die Auswirkungen auf Gesellschaft und Wirtschaft unabsehbar. Hohe Qualität der Daten, transparente und verantwortungsvolle Weiterentwicklung mit Bias-Tests (Prüfen auf bestehende Vorurteile) und Audits (systematische Überprüfungen) und ein politisches Regelwerk sowie eine Aufsicht sind unabdingbar, um einen KI-GAU zu verhindern.

Zuerst ist es wichtig, qualitativ hochwertige Trainingsdaten zu verwenden, die eine vielfältige und repräsentative Stichprobe der Gesellschaft abbilden. Diese Daten müssen möglichst frei von Vorurteilen und Diskriminierung sein und verschiedene Ethnien und Geschlechter, sowie sozioökonomische Hintergründe und andere relevante Merkmale umfassen. Des Weiteren ist die transparente und verantwortungsvolle Weiterentwicklung von KI-Systemen von entscheidender Bedeutung: Sie müssen regelmäßigen Tests unterzogen werden, um sicherzustellen, dass sich keine unfairen und diskriminierenden Verhaltensweisen einschleichen.

Entwicklerinnen und Entwicklern muss klar sein, dass KI-Systeme bestehende gesellschaftliche Vorurteile aus den Trainingsdaten aufgreifen und sie aktiv dagegen vorgehen müssen. Die Politik ist gefordert, ein Regelwerk für den Einsatz von KI zu implementieren, um bestimmte ethische Standards zu sichern. Diese Richtlinien und Vorschriften zur KI-Entwicklung und -Nutzung müssen Diskriminierung verbieten und klare Verantwortlichkeiten festlegen.

Notwendig sind auch unabhängige Aufsicht und Prüfung, um sicherzustellen, dass KI-Systeme verantwortungsvoll eingesetzt werden. Das kann durch die Schaffung von mit Fachleuten besetzten Aufsichtsgremien, Ethikkommissionen oder unabhängigen Prüfstellen erfolgen, die die Einhaltung ethischer Standards überwachen und bei Verstößen Sanktionen verhängen können.

Es ist von größter Wichtigkeit, rassistische und diskriminierende KI zu verhindern. Die Folgen für die Gesellschaft und die Wirtschaft könnten enorm schädlich sein und den sozialen Zusammenhalt stark beeinträchtigen. Hochwertige Daten, transparente Entwicklung, politische Regulierung und unabhängige Aufsicht sind in Anbetracht der dynamischen Entwicklung der Thematik dringend erforderlich. Nur so können wir das volle Potenzial von KI ausschöpfen und gleichzeitig sicherstellen, dass sie zum Wohl der gesamten Gesellschaft eingesetzt wird.

Dalibor Mitrovic ist Senior Data Scientist beim heimischen IT-Dienstleister Tietoevry Austria


 

Kommentare