Stellen Sie sich vor: Sie schlendern durch eine Einkaufsstraße, als eine mit Künstlicher Intelligenz (KI) gestützte Kamera Sie entdeckt. Flugs sind die Bilder an die Polizei weitergeschickt. Die Hoffnung, nicht gesehen zu werden, müssen Sie vergessen. Denn ausgereifte KI-Systeme der Massenüberwachung erkennen Sie an Ihrem Gang, selbst wenn Sie der Ischias-Nerv quält und humpeln lässt.
Szenen wie diese zählen in China bereits zum Alltag. In Europa sollen sie „im Prinzip verboten bleiben“, wie EU-Vizekommissionschefin Margrethe Vestager am Mittwoch versicherte. Denn die nun in Brüssel präsentierten Regeln zur Nutzung von Künstlicher Intelligenz sehen kein Totalverbot von Gesichtserkennung auf Grundlage biometrischer Merkmale vor.
Das bedeutet: Ausnahmen soll es geben, um vermisste Kinder zu finden, drohende Terroranschläge zu verhindern oder Menschen auszumachen, die schwere Verbrechen begangen haben. „Aber diese Ausnahmen bleiben zeitlich und örtlich limitiert“, sagt Vestager.
KI stellt die Diagnose
KI-gestützte Systeme und Anwendungen haben längst Einzug in unser Leben gehalten. Von der Wirtschaft über die Medizin, wo Algorithmen Diagnosen erstellen können, bis hin zum Handy, wo Navigationsapps den schnellsten Weg zum Ziel ermitteln oder personalisierte Werbung aufpoppt.
Was KI demnächst noch ermöglichen wird: selbstfahrende Autos; eigenständig Pakete ausliefernde Drohnen; miteinander kommunizierende Fabriken und sehr vieles mehr.
Regeln dafür gab es bisher keine. Die große Mehrheit aller KI-Anwendungen wird in Europa auch künftig frei von Einschränkungen bleiben, so lange sie keine Gefahr darstellen. Doch „je höher das Risiko ist, das ein KI-System birgt, desto strenger die Regeln“, kündigte EU-Kommissarin Vestager an.
Verweigerter Job
Als „niedriges Risiko“ stuft die Kommission etwa Chatbots ein: „Bei ihnen muss zumindest kristallklar sein, dass man es mit einer Maschine zu tun hat“, sagt Vestager. Als „hochriskant“ werden KI-Systeme eingeschätzt, die Menschen diskriminieren könnten: Wenn etwa auf der Grundlage von vorliegenden Daten die Bewerbungen für Jobs, Studienplätze oder Kredite verweigert werden. Dann haben Hersteller und Nutzer der KI-Systeme die Pflicht, zu überprüfen. Wie das ablaufen soll, bleibt vorerst noch vage.
Selbstlernende KI-Systeme sind so gut wie die Daten, mit denen sie gespeist werden. Die Vorgabe der Kommission lautet also: Die Daten müssen neutral sein und dürfen sich nicht auf gesellschaftliche Vorurteile stützen.
Keine soziale Bewertung
„Wer in diesem Regel-Paket der Kommission zu kurz kommt, sind die Betroffenen und die Bürger“, gibt Leonie Beining zu bedenken. Die KI-Expertin beim Berliner Think Tank Stiftung Neue Verantwortung sagt zum KURIER: „Von Transparenzregeln oder Entschädigung war nichts zu hören.“ Entschädigung etwa für jemanden, dem aufgrund eines Algorithmus der gewünschte Arbeitsplatz verweigert wurde.
Gänzlich verboten aber werden in Europa soziale Bewertungssysteme nach chinesischem Vorbild: Dabei werden Menschen je nach systemkonformem Verhalten belohnt oder bestraft.
Bis alle KI-Regeln zur Anwendung kommen, wird es jedoch noch lange dauern: Erst müssen EU-Staaten und EU-Parlament darüber einen Kompromiss aushandeln.
Kommentare