Manipulative Praktiken im Netz: Arbeiterkammer warnt vor "Dark Patterns"

Manipulative Praktiken im Netz: Arbeiterkammer warnt vor "Dark Patterns"
Manipulative Praktiken im Netz werden immer raffinierter und personalisiert, warnt die Arbeiterkammer Wien.

Konsumentenschützer warnen vor einem Vormarsch der "Dark Patterns" ("Dunklen Muster") im Netz. Manipulative Praktiken werden immer raffinierter und personalisierter, warnt die Arbeiterkammer Wien.

Technisch könne Künstliche Intelligenz etwa durch Mimik- und Spracherkennung den idealen Zeitpunkt für die Bewerbung bestimmter Produkte und Dienstleistungen erkennen.

Verschachtelte Menüs, Psycho-Tricks, Countdowns etc.: Es sei gängige Praxis, Konsumenten durch ausgeklügelte Gestaltungstricks zu bestimmtem Verhalten zu animieren. Besonders alarmiert zeigten sich die Experten von der technisch möglichen Emotionserkennung.

Sie befürchten nicht nur eine Verletzung des Konsumentenschutzes, sondern der Menschenwürde. Die AK fordert "mehr digitale Fairness", vor allem bezüglich vulnerabler Gruppen.

In der Analyse "Dark Patterns im Netz: Achtung, verlorene Zeit, verlorenes Geld, verlorene Daten!" erhob die AK Wien illustrative Web-Beispiele und internationale Studien, die sich dem Phänomen widmen. Durchgeführt wurde die Untersuchung vom Österreichischen Institut für angewandte Telekommunikation (öiat) im Auftrag der Arbeiterkammern Österreich.

Demnach findet man vor allem bei Online-Shops zahlreiche Manipulationsversuche, die in erster Linie darauf ausgelegt sind, mehr preiszugeben und/oder zu kaufen als gewollt. Die AK fordert einen Schutz sensibler Daten und ein komplettes Verbot von Emotionserkennung.

Man begrüße, dass sich die EU mit dem "Digitalen Dienste Gesetz" und ihrer "Digitalen Fairness"-Initiative nun der Causa widmet, IT und Marketing würden aber "immer öfter eine Allianz mit den Neurowissenschaften und der Psychologie bilden".

Die OECD hatte in ihrem jüngsten Bericht "Dark commercial patterns" (2022) betont, dass Konsumenten im digitalen Raum weniger aufmerksam für Manipulationsversuche sind, außerdem können Unternehmen digital deutlich mehr Information über Verbraucher sammeln.

Auch kann die Wirksamkeit der Tools leicht bei unterschiedlichen Gruppen getestet und graduelle Personalisierungen umgesetzt werden. Dabei handle es sich um ein breit eingesetztes, aber bis dato wenig bekanntes Phänomen. Einer im Vorjahr von der Europäischen Kommission publizierten Studie zufolge setzen 97 Prozent der in der EU populärsten Websites mindestens ein "Dark Pattern" ein.

Versteckte Buttons

Konkret geht es dabei nicht nur um die "Klassiker" wie die unfreiwillige Akzeptanz aller Cookies, weil eine Ablehnung komplizierter und schlechter erkennbar ist, sondern auch um versteckte Buttons zur Abmeldung von Newslettern etc., um künstliche Verknappung ("Nur mehr xy Mal verfügbar", "Aktion nur für Sie" etc.), den Abschluss versteckter Abonnements oder anderer Verträge. Meist treten viele Effekte gleichzeitig auf.

Die EU-Kommission habe zwar eine Initiative zur "digitalen Fairness" gestartet und bereite neue Regeln gegen unfaire Online-Praktiken vor, die Rahmenbedingungen hinken der Realität aber hinterher.

Der Mensch werde zu "Datenquelle und Manipulationsobjekt", vor allem, wenn Emotionen erkannt und gezielt stimuliert werden, mahnte AK-Konsumentenschutzexpertin Daniela Zimmer. "Anbieter schleichen sich da in die intimste Privatsphäre ein." Es brauche eine breite Debatte zur Frage "Was darf Digitalmarketing und was ist unverantwortliche Manipulation?"

Große Bedenken löse vor allem die Emotionserkennung fürs personalisierte "Gefühlsmarketing" aus: Die AK fordert ein Verbot von Geschäftspraktiken, die die Menschenwürde berühren. Anbieter hätten heute dank Unmengen an Personendaten, Algorithmen, Künstlicher Intelligenz und ausgeklügeltem Webseitendesign besonders machtvolle Mittel, Userverhalten auch völlig unbemerkt zu steuern.

Individuelle Merkmale

Klassifizierung nach Hunderten individuellen Merkmalen in Kombination mit neuropsychologischen Erkenntnissen und technischen Gestaltungsmöglichkeiten erleichtern Manipulationsversuchen und die Schaffung von Abhängigkeiten.

Handys, Sprachassistenten oder Wearables liefern heute ausreichend Bild-, Audio- und andere biometrische Daten um Mimik, Sprache, Gestik nach Ausdrücken wie Freude, Wut, Ekel, Furcht, Überraschung usw. zu untersuchen.

Scheinbar "mitfühlende" KI kann hochpersonalisierte Werbebotschaften entwickeln, die emotionale Reaktion auf einen Firmenauftritt etc. prüfen und Chatbots eruieren Persönlichkeitsmerkmale. Neue Funktionen von Amazon ermöglichen Echo-Geräten zu erkennen, ob jemand krank ist, etwa wenn Stimmprofile auf eine verstopfte Nase hinweisen. 

Emotionserkennung

Umgehend kann ein Hühnersuppenrezept oder ein Lieferangebot von Hustenbonbons folgen. Bedeutet: Emotionserkennung und Analysen der bisherigen Verhaltens- und Transaktionsdaten ermöglichen es, punktgenau jene (schwächsten) Momente im Leben zu bestimmen, in denen jemand am empfänglichsten für ein bestimmtes Produkt ist.

Es folgen Angebote als willkommene Ablenkung, Rettungsanker oder Trost.

Konkret verlangt die AK, einen zulässigen Umfang der Datensammlung zu definieren und den Einsatz von personalisierten Angeboten und Werbung zu begrenzen. Die Verwendung besonders schützenswerter Daten wie Gesundheit, biometrische Merkmale wie Gesichtszüge, Stimme oder Herzfrequenz für Marketingzwecke sei generell zu verbieten.

Komplett tabu sollten Emotionserkennung und psychografische Profile sein.

Der EU-Entwurf zu einem KI-Gesetz enthalte bloße Hinweispflichten auf Emotionserkennung. Auch der österreichische Gesetzgeber kann aktiv werden: Eine Öffnungsklausel in der Datenschutzgrundverordnung gestattet es den Mitgliedstaaten in Bezug auf die Verarbeitung biometrischer Daten Beschränkungen einzuführen.

Kommentare