© Getty Images/iStockphoto/Devrimb/iStockphoto

Kultur
01/06/2020

Die Pophits der Zukunft komponiert der Computer

Musik und künstliche Intelligenz. Wie Algortihmen die Musik verändern.

von Brigitte Schokarth

"Wir leben in der für das Musikmachen aufregendsten Zeit, die wir je hatten!“

Jean-Michel Jarre, 71-jähriger Pionier der elektronischen Musik, hat mit „Oxygen in Moscow“ das mit 3,5 Millionen Zuschauern zweitgrößte Konzert der Musikgeschichte gespielt und 80 Millionen Tonträger verkauft. Die Überzeugung, dass er trotzdem jetzt die spannendste Zeit seiner Karriere erlebt, liegt an den Chancen, die er der künstlichen Intelligenz (KI) in der Musik zuschreibt – also Computerprogrammen, die Daten sammeln, daraus lernen und darauf basierend selbstständig komponieren.

„Viele sagen, es ist das Ende der menschlichen Kreativität, wenn Computer neue Musik erschaffen“, erklärt Jarre. „Ich will mich aber nicht diesen dystopischen Visionen hingeben. Denn ich sehe keinen Grund, es nicht aufregend zu finden, wenn Roboter in 10 oder 15 Jahren Gefühle haben, nostalgisch werden und weinen können. Wie bei jeder neuen Technologie liegt es an den Menschen, etwas Positives oder etwas Negatives daraus zu machen. Es liegt an uns Musikern, aus den KI-Anwendungen Schönheit zu schöpfen und sie als Inspiration zu nutzen, anstatt uns davon etwas diktieren zu lassen.“

Unendliches Album

Jarre selbst hat gerade die App Eōn veröffentlicht. Sie ist das „unendliche Album, das für jeden Hörer anders ist“, von dem er seit seiner Jugend geträumt hat. Sie baut basierend auf sieben Stunden von Fragmenten wie Hip-Hop-Beats, Ambient-Sounds und klassischen Phrasen, die Jarre dafür komponiert hat, einen ununterbrochenen, niemals gleichen Strom von Musik. Jarre arbeitet außerdem mit Computertechnikern der Firma Sony an der Weiterentwicklung der „Flow Machines“ – einem Projekt, das mithilfe von KI die Kreativität von Musikern fördern will.

2018 lieferte „Flow Machines“ das Album „Hello World“, das angebliche erste, dessen Musik komplett mit künstlicher Intelligenz erstellt wurde. Allerdings „kuratierte“ Benoît Carré, der Mann hinter dem Musik-KI-Projekt Skygge, damals den Schwall von Melodien und Soundvorschlägen, editierte sie, stellte sie mithilfe von Musikern wie Stromae und Kiesza fertig. Schon davor veröffentlichte er den Song „Daddy’s Car“, der basierend auf den Daten von 45-Beatles-Songs von KI komponiert wurde.

Neue Klassik

Auch in der klassischen Musik gibt es bereits ähnliche Ansätze. Anfang 2019 stellte Google anlässlich des 334. Geburtstages von Johann Sebastian Bach eine ihm gewidmete Grafik des Firmenschriftzuges ins Netz. Wer darauf klickte, konnte eine eigene Melodie eingeben, die mithilfe von KI im Stile von Bach harmonisch ergänzt wurde.

Noch sind all diese Apps in ihren Möglichkeiten beschränkt, funktionieren nicht komplett ohne menschliches Zutun. Man gibt bestimmte Parameter ein, aus denen die Maschine schöpft. Es ist trotzdem berechtigt, dieser Entwicklung kritisch gegenüber zustehen. Denn schon jetzt wird unser Konsum von Musik maßgeblich von KI beeinflusst (wenn nicht gesteuert), wenn uns die Streamingdienste aufgrund undurchsichtiger Algorithmen den nächsten Song vorschlagen.

Experten schätzen, dass man in zwei Jahren keinen Unterschied mehr zwischen von Menschen und von der Maschine gemachter Musik hören wird. Sie prognostizieren, dass Computer in spätestens zehn Jahren vollkommen selbstständig Musik machen. Die US-Schauspielerin Taryn Southern, die für „I AM AI“ ein von KI erstelltes Album besungen hat, vermutet: „In 20 Jahren sind Songs, die Codes entspringen, die Regel und nicht mehr die Ausnahme.“

Zwar können KI-Musik-Apps schon jetzt gewisse Daten aus anderen Apps der Nutzer erfassen (musikalische Vorlieben, Gesundheitszustand, Alter), daraus auf ihren Gemütszustand schließen und ihren Output entsprechend anpassen. Die Frage aber ist: Will man all das?

Will man „Songs“ hören, die ein Algorithmus aus Versatzstücken der eigenen Welt zusammensetzt? Will man „neue“ Beatles-Songs aus der Retorte? Und unvollendete Symphonien von großen Meistern, die Hunderte Jahre später vom Computer fertigstellt wurden? Oder bleibt man bei dem Modell, dass Musik der Ausdruck individueller Gefühle ist?

Und neue Fragen

Um diese und ähnliche Fragen zu klären, hat die Universität Oxford ein Institut gegründet, das sich mit „Ethik der KI“ beschäftigt. Anders als Jarre ist man sich dort offenbar sicher, dass KI nicht nur der Kreativität nützen, sondern auch von konsumorientierten Unternehmen und Individuen gebraucht, wenn nicht missbraucht werden wird. Denkbar sind Szenarien, wo sich Major-Labels massiv der KI bedienen. Schon jetzt funktionieren die nach dem Prinzip: „Veröffentlichen, was geht, und schauen, was davon beim Hörer hängen bleibt und Geld macht!“ Weil es billiger ist, als Komponisten und Musiker zu beauftragen, könnten sie die Musik am Fließband vom Computer erstellen lassen und nur mehr Interpreten suchen, die drüber singen.

Trotzdem glaubt Musikwirtschaftsforscher Peter Tschmuck von der Universität für Musik und darstellende Kunst in Wien nicht, dass KI Künstler ersetzen wird: „Wie Billie Eilish zeigt, zählt für großen kommerziellen Erfolg immer noch Innovation, das Anderssein. Und dabei ist der Mensch ungeschlagen. Weil künstliche Intelligenz aber auf Ähnlichkeiten basiert, funktioniert es nicht, ihr zu sagen, mach etwas ganz anderes als bisher da war. Das ist meine Hoffnung – obwohl die Majors historisch schon dazu tendieren, einen neuen Sound, der aufgrund von Innovation erfolgreich geworden ist, aufzugreifen und etwas Ähnliches zu produzieren, bis es ausgelutscht ist.“

Durch KI gefährdet sind Jobs in der sogenannten Produktionsmusik. Also Musik für Werbung und Filme – Hintergrundmusik, die nicht so wichtig ist. Die größte Hoffnung gibt Tschmuck aber die Beobachtung der Studenten an seiner Universität: „Da sehe ich, dass es immer Leute gibt, die ein Instrument lernen und musizieren wollen. Das scheint ein Grundbedürfnis der Menschheit zu sein. Selbst in einer Zeit, wo es tagtäglich ums Überleben ging, hatte Musizieren eine wichtige Funktion. Die Art der Instrumente verändert sich sicherlich. Heute wird mit dem Laptop Musik gemacht, und man wird das mit KI ergänzen. Aber dass einmal alles aus der Retorte kommt, glaube ich nicht.“

Jarres Optimismus ist anders begründet: „Was, wenn wir mit KI Zugang zu den ungenutzten Hirnarealen bekommen und damit eine Art von Kreativität entdecken, von der wir bisher nicht einmal geträumt haben?“