Polizei setzte Software zur Gesichtserkennung knapp 1.600 Mal ein
Als Mittel zur Bekämpfung von Terroristen, Mördern oder Räubern wurde die Gesichtserkennungssoftware der österreichischen Polizei vor gut zwei Jahren vorgestellt. Offenbar eignet sich das Programm aber auch zur Verfolgung vergleichsweise kleiner Delikte. So wurde der Gesichtsabgleich seit der Einführung im Dezember 2019 von der Polizei auch genutzt, um Anrufer zu verfolgen, die über den Notruf die Einsatzkräfte narrten. Oder gegen Personen, die Nichtstaatsbürgern durch Adoption zu einer einem Aufenthaltstitel verholfen haben. Sogar ein Wilderer ist mit der Software überführt worden.
All das geht aus einer parlamentarischen Anfragebeantwortung von Innenminister Karl Nehammer (ÖVP) hervor. Ebenso, dass der „digitale Bildabgleich“, wie das Ermittlungswerkzeug bei der Polizei offiziell heißt, seit Ende 2019 insgesamt 1.574-mal verwendet wurde. Für die SPÖ-Abgeordnete und Anfragestellerin Katharina Kucharowits ist das klar eine „ausufernde Nutzung“.
„Dass eine Software, die eigentlich im Kampf gegen Schwerverbrecher konzipiert wurde, nun gegen Kleinkriminelle genutzt wird, ist demokratiepolitisch brandgefährlich.“ Ein Dorn im Auge sei ihr besonders der Einsatz auf Demos, welche auf potenzielle Teilnehmer abschreckend wirken könne. Von der Polizei heißt es, dass nur auf Bildaufnahmen aus dem öffentlichen Raum zurückgegriffen werde, wenn der begründete Verdacht einer strafbaren Handlung vorliege.
Diskriminierungsgefahr
Kritisch sieht die Parlamentarierin auch die Fehleranfälligkeit des Programms. Demnach könnte es in der Datenbank zu Treffern kommen, die sich im Nachhinein als falsch herausstellen. Diese Einschätzung teilt auch Thomas Lohninger, Geschäftsführer des Datenschutz-NGOs „Epicenter.works“: „Es kann nicht sein, dass die Polizei bei Unschuldigen vor der Tür steht und diese sich dann im Extremfall sogar vor Gericht verantworten müssen.“
Im Innenministerium (BMI) hält man diese Befürchtung für unbegründet, da erkannte Personen immer nur einen „Ermittlungsansatz“ darstellen würden. Beamte würden stets prüfen, ob die vom System angezeigten Personen überhaupt mit der Straftat in Verbindung stehen könnten.
Dessen ungeachtet sieht Datenexperte Lohninger einen massiven Eingriff in die Grundrechte. Auch weil ein derartiger Algorithmus seiner Einschätzung nach Diskriminierung begünstigen könne. „Maschinen lernen und können so eine ethnische Bias entwickeln.“ Gemeint ist damit, dass das Programm verstärkt nach Merkmalen Ausschau hält, die in der Vergangenheit zu Treffern geführt haben. Konkret etwa die Hautfarbe oder Gesichtsbehaarung.
Das BMI betont in diesem Zusammenhang, dass ohnehin nur Daten aus der „erkennungsdienstlichen Evidenz“ abgeglichen werden. Darin seien Personen gespeichert, die im Verdacht stehen, gerichtlich strafbare Handlungen begangen zu haben oder diese begangen haben. Aktuell beinhaltet die Datenbank 640.000 Personen. Wie aus der Anfrage hervorgeht, wurden mit dem Bildabgleich seit 2019 immerhin 16 Mord-, 100 Raub- sowie zwölf Terrorverdächtige identifiziert.
Kommentare