Ein Cartoon, der gerade in sozialen Medien kursiert, zeigt eine militärische Kommandozentrale. Auf Bildschirmen sieht man, dass Raketen abgeschossen werden, ein Kommandant aber ist entsetzt: „No, I said: Alexa, order lunch!“ ruft er.
Der digitale Sprachassistent hat das Kommando zum Raketenstart („launch“) mit der Mittagessenbestellung („lunch“) verwechselt, da hilft auch Alexas kleinlautes „Sorry“ nichts: die Apokalypse ist unabwendbar.
Die Problematik der Künstlichen Intelligenz (KI), die uns mittlerweile auf Schritt und Tritt begleitet, ist damit gut umrissen: Ihre Mechanismen sind fehlbar, ihre Prozesse, wenngleich zur Entwicklung fähig, von Menschen gemacht. Es braucht mehr Bewusstsein dafür.
Vor diesem Hintergrund kommt einmal mehr die Kunst ins Spiel – als Avantgarde im ursprünglichen Sinn, als Spähtrupp und Aufklärungskommando. Während sich ein Teil der Diskussion um die Frage dreht, ob Maschinen jemals Kreativität werden hervorbringen können, beschäftigen sich viele technikaffine Kunstschaffende damit, gezielt Sand ins Getriebe der scheinbar rational agierenden Algorithmen und Systeme zu streuen.
Ok, Google?
Im Kunstraum Niederösterreich in der Wiener Herrengasse erweiterte man jüngst den Fokus auf das Alexa-Problem, also auf das Feld der Töne: „Wake Words“ (so nennt man Phrasen wie „Alexa“ oder „Ok, Google“, die ein Spracherkennungssystem „aufwecken“) hieß eine recht komplexe Auseinandersetzung, bei der etwa der Künstler Clemens von Wedemeyer eine Firma narrte, die auf Basis von Sprachaufnahmen „Persönlichkeitsprofile“ erstellt. Wedemeyer setzte ihnen zwei Gespräche mit Patientinnen einer psychiatrischen Institution aus dem Jahr 1952 vor, die vor und nach einer Lobotomie entstanden waren, und enttarnte so die grobmaschige und im Kern vorurteilsbeladene Erfassung der Daten.
Dass Maschinen bei der Erfassung von Gefühlen, dem sogenannten „Affective Computing“, oft irren, ihre Daten aber unhinterfragt zur Einschätzung von Kunden oder Bewerbern herangezogen werden, kritisiert die Künstlerin Jessica Feldman in einer Podcast-Reihe, die auch nach Ende der Kunstraum-Schau noch nachzuhören ist.
Die Kritik an der maschinenmäßigen Erfassung und Verarbeitung von Bildern könnte indes schon fast als Sub-Genre der zeitgenössischen Kunst gelten – mit Stars wie dem US-Amerikaner Trevor Paglen oder die eben in die Berliner Akademie der Künste aufgenommene Hito Steyerl. Ihr Film „How Not To Be Seen“(2013), in dem sie Wege aufzeigt, „zum Bild zu werden“ und von Überwachungssystemen „übersehen“ zu werden, ist heute schon fast ein Klassiker und u. a. Teil der MoMA-Sammlung.
Ungerechte Algorithmen
Der Weg von hier ist nicht weit zu den Aktionen der „Algorithmic Justice League“: Das junge US-Kollektiv, das seinen Namen nicht ganz zufällig vom Superheldenverein aus dem DC-Comic-Universum ausborgte, veranstaltet etwa Workshops, in denen sich Teilnehmer verkleiden und schminken.
Das Ziel der Maskerade ist, die Zuordnungen von automatischen Gesichtserkennungs-Systemen zu verwirren: Denn dass diese gerade im Hinblick auf Geschlecht und Hautfarbe nicht vorurteilsfrei agieren, ist vielfach belegt. Selbst Michelle Obama wurde in einer Versuchsreihe als „junger Mann mit Toupet“ klassifiziert. „Haben sie keine Worte für unsere Locken?“ heißt es in einem Gedicht, das eine Aktivistin der „Justice League“ darüber schrieb und in einem Video vorträgt: In der Begegnung mit scheinbar allwissenden Digitalgiganten können oft auch traditionelle Formate mächtig Wirkung entfalten.
Kommentare