Warum wir eine KI brauchen, die nicht diskriminiert
Wer kennt sie nicht, die Nervosität am Flughafen, wenn man möglichst schnell die Sicherheitskontrollen passieren möchte. Manche Personen sind nervöser als andere, weil sie es gewohnt sind, öfters kontrolliert zu werden. Dahinter steckt oft eine KI, die über gespeicherte Datensätze das Gesicht erkennt, abgleicht und als "potenziell gefährlich" einstuft. Warum KI-Systeme diskriminierende Entscheidungen treffen können, erzählen eine Expertin und ein Experte dem KURIER.
➤ Mehr lesen: IWF-Studie: Wie Künstliche Intelligenz den Arbeitsmarkt verändern wird
"Diese Methode der Gesichtserkennung ist nicht neu. Neu ist die Verfügbarkeit der Daten und wie diese genutzt werden", erklärt Barbara Prainsack, Politikwissenschafterin und Buchautorin. Prainsack gehört zum Fachbeirat Ethik der Künstlichen Intelligenz der Österreichischen UNESCO-Kommission. Sie beschäftigt sich seit längerem mit dem Thema. "Private Firmen nutzen beispielsweise die Daten bei der Erkennung von Ladendieben". Das heißt, eine Person wird auf einer Kamera als verdächtige Person (wieder-)erkannt. An dieser Stelle würden die ethischen Probleme beginnen, so Prainsack. Aufgrund antrainierter Datenmuster kann die Gesichtserkennungssoftware unbewusste Vorurteile oder Diskriminierungen von Minderheiten verstärken. Gleiches gelte für die Überwachung und Unterdrückung politischer Aktivistinnen und Aktivisten in autoritären Regimen.
➤ Lesen Sie mehr: Künstliche Intelligenz als der perfekte Verbrecher
"Antrainierte Datenmuster": Was ist das und woher kommen diese Daten?
Viele Menschen helfen täglich aktiv mit, den Firmen freiwillig ihre Daten zu liefern, wenn sie bei Facebook, TikTok, X (ehemals Twitter) und Co. Bilder von sich hochladen oder andere Personen verlinken. Die Firmen verkaufen das Material an Konzerne weiter, die gezielt Personen (wieder-)erkennen wollen (Stichwort Ladendiebstahl). Eine Grauzone, teilweise illegal. Aber eben nur teilweise.
Der Datenverkauf ist vor allem in den USA, Großbritannien und in China weitverbreitet. In London gibt es im öffentlichen Raum unabhängige Überwachungskameras, die nicht zentral mit anderen Datenbanken verknüpft sind. Prainsack sieht darin durchaus einen Vorteil. „Ich habe lange in London gelebt und meine Meinung hinsichtlich der Überwachung geändert. Ich konnte mich nachts sicherer und frei bewegen. Das hat mir ein gutes Gefühl gegeben.“ Doch sie sieht auch die Probleme. In China gibt es eine umfassende, zentrale Datenverknüpfung. Das bedeutet: Deutlich weniger Privatsphäre, als durch Systeme, die nicht miteinander verknüpft sind.
➤ Mehr dazu: Wie künstliche Intelligenz Kinder und Kunden selektiert - und was die EU dagegen tun will
"Es gibt zahlreiche Fälle, wo eine KI Menschen unbewusst diskriminiert"
Am Massachusetts-Institut für Technologie (MIT) erhalten Studierende Zutritt zum Universitätsgebäude über eine Gesichtserkennungssoftware. Dabei kam es zu Fehlern, als Personen mit schwarzer Hautfarbe nicht erkannt wurden. "Ähnliches würde passieren, wenn man an der Universität Wien eine Gesichtserkennungssoftware trainieren würde", so Prainsack. "In erster Linie würden Personen zwischen 20 und 35 Jahren mit weißer Hautfarbe erkannt werden. Das ist die Mehrheit der Studierenden. Um die Diversität und Inklusion der Uni zu fördern, muss der Algorithmus hinsichtlich Alter, Geschlecht und Hautfarbe trainiert werden."
Man befinde sich hier in einem Raum der Ungleichheit, in dem Technologien diese Ungleichheit reproduzieren und verstärken. Neben der unsicheren Privatsphäre werden auch Stereotype und Vorurteile produziert. Nur weil ein Mensch einmal etwas getan hat, muss er das nicht wieder tun (Ladendieb). Auch Stereotype werden durch Algorithmen festgelegt.
➤ Mehr lesen: Künstliche Intelligenz: Ethikunterricht für KI-Systeme
"If the service is free, you are the product“
Weiter verweist Prainsack auf einen Fall der berühmten Veranstaltungsstätte Madison Square Garden in New York. Auch dort würde seit einiger Zeit beim Einlass zu Veranstaltungen eine Gesichtserkennungssoftware eingesetzt. Trotz gültiger Eintrittskarte wurde Personen der Zugang verwehrt. Bei den Betroffenen handelte es sich um Anwälte, die an juristischen Streitereien gegen die Firma beteiligt sind.
Und dennoch laden wir munter - und freiwillig - Fotos im Internet hoch. Oder nutzen beispielsweise am iPhone die Funktion der Face ID. "Im Vergleich zu anderen Firmen zahlt man bei Apple dafür, dass die Daten nicht weitergegeben werden. Wir zahlen also mehr, um unsere Privatsphäre zu schützen. Ganz nach dem Motto: If the service is free, you are the product", erklärt Prainsack.
➤ Mehr lesen: Jede vierte Wiener Firma nutzt Künstliche Intelligenz
Ethisch-kompliziert
An dieser Stelle erwähnt die Politikwissenschafterin das Buch der Technologiejournalistin Kashmir Hill: „Your face belongs to us“. Hill schreibt für die New York Times. Die Journalistin deckte umstrittene Aktivitäten der Softwarefirma Clearview AI auf. Das Unternehmen kann Gesichtern Namen, Profile und weitere Informationen zuordnen. Auch das ist keine neue Erfindung. Der Unterschied sei, dass Firmen wie Meta, Apple und Google ähnlich viele Daten über uns haben, sie aber bewusst aus ethischen Gründen nicht veröffentlichen.
Hill begann ihre Recherche Ende 2019, als sie erfuhr, dass Strafverfolgungsbehörden Clearview AI nutzten, um Menschen zu identifizieren. Die Datenbank bestehe aus über dreißig Milliarden Bildern, die aus der Echtzeit-Gesichtserkennung gesammelt wurden. Alle Bilder stammen aus sozialen Medien. 2020 kam es zu einem Datenbruch und die weitreichende Kundenliste des Unternehmens wurde veröffentlicht. Als Konsequenz verpflichtete man das Unternehmen dazu, seine Daten nur noch an staatliche Institutionen zu verkaufen.
➤ Mehr dazu: AMS setzt auf spielerische Beratung mit künstlicher Intelligenz
Vom Kaffeekochen zum Datensatz
Dass Datensammeln längst zum Alltag gehört, weiß auch Nikolaus Forgó. Der Rechtswissenschafter und Leiter des Instituts für Innovation und Digitalisierung im Recht an der Juristischen Fakultät der Universität Wien lehrt und forscht auf dem Gebiet. "Stromzähler, wie Smart Meter, erfassen über unseren Stromverbrauch unser Nutzungsverhalten. Mit diesen Daten kann zum Beispiel überprüft werden, wann und wie viel Kaffee eine Person täglich kocht und ob sie dadurch Herzinfarkt gefährdet ist. Das sind natürlich Vorteile."
Aber: Ist das tolerierbar oder überhaupt erwünscht?
Forgó kritisiert, dass sich die EU-Rechtsrahmenbedingungen diesbezüglich schleppend entwickeln. Vieles werde einfach nicht fertig gedacht. Er sieht drei wichtige Punkte, die ausgearbeitet werden müssten:
- Man müsse wettbewerbsfähiger werden.
- Über Risiken, aber auch über Chancen, müsse viel mehr politisch diskutiert und informiert werden - insbesondere über ethische Grundfragen (Freiheit vs. Sicherheit).
- Im selben Zug müsse mehr Aufklärung für die Öffentlichkeit stattfinden.
Aktuell wird in der EU über das umstrittene KI-Gesetz diskutiert. Derzeit gibt es noch keine Einigung, das Gesetz wird noch geschrieben.
Zu Unrecht vom Algorithmus verdächtigt
Amnesty International kritisiert, wie Forgó, den Entwurf des KI-Gesetzes. Er sieht große Mängel in Bezug auf die Gewährleistung des Schutzes der Menschenrechte und Rechtsstaatlichkeit. Seit 2021 setze sich Amnesty für Verbesserungen des Vorschlagsentwurfs ein, um sicherzustellen, dass das Gesetz zukunftsfähig wird.
Als Negativbeispiel gilt die niederländische Kindergeldaffäre (Toeslagenaffaire), die seit Ende 2020 das Land bewegt. Die Finanzbehörden verwendeten jahrelang einen diskriminierenden Algorithmus, um betrügerische Anträge auf Kindergeld aufzudecken. Zehntausende Menschen wurden fälschlicherweise des Betrugs beschuldigt. Betroffen waren überwiegend migrantische Familien und Haushalte mit niedrigem Einkommen. Sie mussten hohe Geldbeträge zurückzahlen.
Das KI-Gesetz (AI Act) ist weltweit der erste umfassende Gesetzesvorschlag zur Regulierung der Entwicklung und Nutzung von KI-Technologien, sofern diese Auswirkungen auf die Menschen in der EU haben. Aufgrund des breiten Anwendungsbereichs des KI-Gesetzes, einschließlich KI-Systemen, die in öffentlichen Bereichen wie Arbeit, Bildung, Dienstleistungen, Justiz, Strafverfolgung, Migration und Grenzkontrolle hat das Gesetz erhebliche Auswirkungen auf bürgerliche, politische, soziale, wirtschaftliche und kulturelle Rechte, einschließlich der Rechte von Migranten, Geflüchteten und Asylbewerbern.
Die EU-Kommission hat im KI-Gesetz einen risikobasierten Ansatz übernommen, bei dem die Strenge der Regulierung an dem angenommenen Risikoniveau des KI-Systems ausgerichtet ist. Die meisten KI-Systeme gelten als risikoarm und werden nicht durch das KI-Gesetz reguliert. Chatbots stellen ein „begrenztes Risiko“ dar und müssen daher Transparenzanforderungen erfüllen. Personen müssen darauf hingewiesen werden, dass sie mit einem KI-Chatbot - einer Maschine - interagieren. Das KI-Gesetz verbietet alle KI-Systeme, die ein „inakzeptables“ Risiko für Menschenrechte, Sicherheit und Gesundheit darstellen.
Eine letzte Ausarbeitung des endgültigen Textes findet noch statt. Das Gesetz soll bis zum Ende des aktuellen EU-Mandats verabschiedet werden. Aufgrund des Brüsseler Effekts des EU-(Digital-)Rechts wird erwartet, dass das KI-Gesetz den Ton für die weltweite Regulierung von KI vorgibt und damit seine Bedeutung weiter erhöht.
Wie war das möglich?
Der Algorithmus besaß Informationen über die Einkommensschwelle sowie über die Staatsangehörigkeit der Personen, die als "Risikofaktoren" eingestuft wurden. Die betroffenen Familien hatten mit schweren Folgen zu kämpfen, wie Schulden, Arbeitslosigkeit, Zwangsräumungen und Gesundheitsproblemen.
Kommentare