Billie Eilish, Stevie Wonder und Co. wehren sich gegen Künstliche Intelligenz

96th Academy Awards - Oscars Show - Hollywood
Sie fordern, dass KI-Firmen damit aufhören, ihre Musik als Lernmaterial zu verwenden. Bildende Künstler sind schon einen Schritt weiter: Software kann verhindern, dass ihre Bilder "gestohlen" werden.

Auch nicht so oft, dass Billie Eilish und Engelbert Humperdinck auf einem Blatt gemeinsam stehen. Einen offenen Brief von Musikkünstlern haben nun beide unterzeichnet, und nicht nur sie: Mehr als 200 Künstler haben sich in dem Aufruf gegen den Missbrauch von Künstlicher Intelligenz (KI) in der Musikindustrie ausgesprochen. Zu den Unterzeichnern des am Dienstag (Ortszeit) in sozialen Medien veröffentlichten Briefes zählen laut der Artist Rights Alliance (ARA) Künstler wie Nicki Minaj, Stevie Wonder, Norah Jones, Jamie Cullum, Peter Frampton, Katy Perry, Smokey Robinson, J Balvin, Jon Bon Jovi oder R.E.M oder auch die Erben von Frank Sinatra.

Einige Plattformen und Entwickler setzten KI ein, um die Kreativität zu sabotieren und Künstler, Songschreiber, Musiker und Rechteinhaber zu untergraben, heißt es in dem Schreiben der ARA. Das in den USA ansässige Bündnis setzt sich für die Rechte von Songwritern und Musikern ein. „Wenn KI unverantwortlich eingesetzt wird, stellt sie eine enorme Bedrohung für den Schutz unserer Privatsphäre, unserer Identität, unserer Musik und unseres Lebensunterhalts dar", beklagen die Künstler in dem Schreiben.

Tantiemen beeinträchtigt

Einige der mächtigsten Unternehmen nutzten ohne Erlaubnis die Arbeit von Musikern, um KI-Modelle zu trainieren. Dies ziele darauf ab, die Arbeit menschlicher Künstler durch riesige Mengen von KI-erstellten „Klängen" und „Bildern" zu ersetzen. Das beeinträchtige auch die Tantiemen der Kunstschaffenden. Für berufstätige Musiker und Songschreiber, die nur versuchten, über die Runden zu kommen, könne dies katastrophal sein.

Wenn sie verantwortungsvoll eingesetzt werde, habe KI ein enormes Potenzial, menschliche Kreativität zu fördern. Bei unverantwortlicher Nutzung schmälere sie aber die Arbeit der Künstler und bedrohe deren faire Vergütung. Die Unterzeichner fordern KI-Entwickler, Tech-Unternehmen und digitale Musikdienste daher auf, sich zu verpflichten, keine Technologie zu entwickeln oder einzusetzen, die die Kunst von Musikern und Songschreibern untergräbt oder ersetzt.

Urheberrecht verletzt

Es ist nicht das erste Mal, dass sich Künstler dagegen wehren, dass ihre Arbeiten ungefragt und unhonoriert als "Lernmaterial" für KI verwendet werden. Anfang des vergangenen Jahres brachten die Künstlerinnen Sarah Andersen, Kelly McKernan und Karla Ortiz eine Sammelklage gegen die bildergenerierenden Plattformen Stability AI und Midjourney ein. Mit diesen KI-Maschinen kann man Bilder im Stil von verschiedensten Kunstrichtungen, aber auch nach der Art von bestimmten Künstlern erstellen lassen. 

Die Klägerinnen fordern Schadenersatz, weil der Datenschatz, mit dem KI trainiert wird und schließlich viel Geld verdient, das Urheberrecht von den eigentlichen Kreativen verletzt. Sie argumentieren, die Plattform Stable Diffusion konnte nur erschaffen werden, weil die dahinterstehende Firma (Stability AI) "Kopien von Milliarden urheberrechtlich geschützten Bildern ohne Erlaubnis heruntergeladen oder anderweitig bezogen hat, um Stable Diffusion zu erstellen". Dadurch seien auch die Kunstwerke der Klägerinnen in das KI-Tool integriert worden, allerdings ohne die Künstlerinnen dafür zu entschädigen.

Technologische Tricks

Die Klage wurde zwar abgewiesen, aber Sarah Andersen, Kelly McKernan und Karla Ortiz haben schon eine neue eingebracht.

Mittlerweile gibt es aber auch schon technologische Tricks, um sich gegen die Vereinnahmung von KI zu wehren. Eine Software namens „Glaze“ sorgt dafür, dass die Bilddaten „verschleiert“ werden, und für das Training nicht mehr brauchbar sind. Ähnlich, aber ein wenig subversiver arbeitet „Nightshade“: Diese Software vergiftet Bilddaten, indem sie unsichtbare Veränderungen an den Pixeln der Originalkunst vornimmt und so manipuliert, was bei ihrer Verwendung bei Midjourney herauskommt. Da kann es dann passieren, dass eine Katze ein Hund wird oder eine Kuh ein Auto. 

Diese Form der Verteidigung muss offenbar für die Musikbranche noch erfunden werden. 

Kommentare