Screenshot via YouTube

Roboter statt Popstars: Was bedeutet künstliche Intelligenz für die Musikwelt?

Werden Maschinen jemals fähig sein, Meisterwerke wie "Bohemian Rhapsody" zu komponieren? Wer besitzt die Rechte an der Musik, die von AI kreiert wird?

|
Feb. 13 2018, 12:33pm

Screenshot via YouTube

Der Gedanke, dass Roboter Menschen ersetzen könnten, ist gelinde gesagt kein angenehmer. Wenn uns jemand sagt, dass unsere Arbeit auch von einer künstlichen Intelligenz ausgetragen werden könnte, dann verletzt das unseren Stolz und es sticht wie ein Dolch in die Mitte unseres Egos. Dass die menschliche Intelligenz übertroffen werden kann, fällt uns fast so schwer zu akzeptieren wie die Tatsache, dass Justin Timberlake jetzt offiziell uncool ist. Ganz abgesehen von den Alpträumen, die uns Videos wie das von dem zwielichtigen Roboter, der sagt "OK, ich werde die Menschheit zerstören", bereiten.

Auch die Musikwelt bleibt von technischen Entwicklungen nicht verschont, auch wenn diese vielleicht weniger angsteinflößend, sondern eher unterhaltsam sind. Auf YouTube könnt ihr euch zum Beispiel Battles zwischen Roboter-Metal-Bands ansehen. Außerdem könnten Flow-Maschinen den Stil unserer Lieblingsmusiker nachahmen und neue Songs in ihrem Stil komponieren – so wie es bereits mit den Beatles gemacht wurde. Wer wünscht sich nicht ein artificial Comeback von den Spice Girls, ähm, ich meine Nirvana.

Aber was bedeuten diese Entwicklungen nun wirklich? Wir wollten herausfinden, wie stark die "Bedrohung" für die musikmachende Menschheit wirklich ist und haben mit Christine Bauer – einer Expertin für Artificial Intelligence im Bezug auf Musik – über mögliche Szenarien gesprochen. Ursprünglich aus Wien kommend ist sie nun hauptsächlich am Institut für Computational Perception der JKU in Linz tätig, ist aber über die Grenzen Österreichs hinaus schon für ihre Arbeit ausgezeichnet worden.

Foto von Weinwurm

Noisey: Ihr wissenschaftliches Interesse ist sehr breit gefächert, aber Sie interessieren sich speziell auch für künstliche Intelligenz in Zusammenhang mit Musik. Woher kommt dieses Interesse?
Christine Bauer: Ich habe schon immer Musik gemacht und praktiziere es jetzt auch noch hobbymäßig. Alles, was man auf Musik anwenden kann, macht mir deswegen gleich viel mehr Spaß. An der Informatik gefällt mir die Struktur – die Patterns, die es dabei gibt. Es ist toll, dass man das so verbinden kann und besonders Artificial Intelligence ist ein Feld, wo man immer wieder etwas Neues entdeckt.

Eines Ihrer Interessensfelder ist "Reactive Music". Können Sie mir ein bisschen mehr darüber erzählen?
Bei Reactive Music reagiert die Musik auf das Umfeld. Das bedeutet, die Komposition ist eigentlich erst in dem Moment fertig, in dem sie ein Nutzer hört. Übers Mikro können Sounds aufgenommen werden und diese werden dann beispielsweise als Echo in der Musik wiedergegeben. Ein anderes Beispiel ist Musik zum Joggen: Je nachdem, wie aktiv man ist, passt sich die Musik an. Wir hatten folgende Idee: Wenn man langsam läuft hört man nur Bass und wenn man sich mehr anstrengt, kommen andere Instrumente dazu. Als ich das einmal selbst ausprobieren durfte, war das ein einschneidender Moment.



Dass Roboter Musik schreiben oder dass es Roboter-Bands gibt, ist nicht unbedingt neu. Vor kurzem aber hat Benoît Carré ein Album mit einem Artificial Intelligence Musik-Programm produziert und beispielsweise BBC meint, dass es das erste "gute" Album sei, das von AI produziert wurde. Befinden wir uns also derzeit an einem Wendepunkt, was Artificial Intelligence und Musik betrifft?
Es ist viel möglich, aber noch immer sehr, sehr viel nicht möglich. Es ist natürlich ein großer Schritt, wenn die Musik fürs menschliche Gehör als Angenehm empfunden wird und versucht mitzuhalten, mit dem, was Menschen kreieren. Aber davon, dass Computer so eine Musik kreieren können, wie wir Menschen sie erschaffen, sind wir noch weit entfernt.

Das heißt, Sie glauben, dass auch in Zukunft Maschinen keine Musiker ersetzen werden können?
Nein, weil so viel Emotion drinnen steckt im Ausdruck und auch beim Hören. Die Umsetzung wird schwierig, aber es wird auch an dieser Problemstellung am Institut für Computational Perception der JKU gearbeitet. Mittlerweile ist Musik nicht mehr nur das, was man hört, sondern auch das, was man sieht – Musikvideos zum Beispiel –, und auch die Verbindung zu einer Person ist sehr wichtig. Maschinen sind eher dazu da, um zu helfen und zu unterstützen, noch bessere Musik zu machen, indem sie Künstler beispielsweise im Kreativprozess neue Inspirationen geben. Dahingehend werden wir sicher noch einiges erleben.

Können Sie sich trotzdem vorstellen, dass Menschen einmal einen Roboter derart bejubeln werden wie Teenager heutzutage Justin Bieber bejubeln?
Doch, das kann ich mir durchaus vorstellen. Aber das ist der Überraschungsmoment und ich glaube nicht, dass dann nach dem fünften Roboter der sechste Roboter noch so gehypt wird.

Welche Entwicklungen sehen Sie im Bereich AI und Musik kommen?
Die Recommender Systems wie Spotify oder YouTube werden sich verbessern und verändern, nämlich, dass man nicht nur die Top-Artists vorgeschlagen bekommt, sondern vielmehr das, was man als Long Tail bezeichnet – die vergleichsweise weniger populären Artists. In Zukunft könnte auch der Long Tail mehr Aufmerksamkeit bekommen oder – von der anderen Seite betrachtet – dass man diese Künstler auch entdecken kann. Hier kann sich viel tun, aber es wird ein langer Prozess, nicht wegen der fehlenden Intelligenz der Systeme, sondern wegen dem Markt und der Lobby dahinter.

Hören Sie persönlich Musik, die von AI (mit)kreiert wurde?
Ich habe schon was gehört, aber ich habe emotionale Musik sehr gerne, darum ist es nicht meine Lieblingsmusik. Was ich aber interessant finde ist, die Unterschiede zu hören, wenn ein Klavierstück von einem Pianisten oder von einem Computer-Programm gespielt wird – dazu gibt es Projekte an unserem Institut.

Gibt es neben dem emotionalen Aspekt noch andere menschliche Stärken, die Roboter oder Maschinen nicht ersetzen können?
Auch Bedeutung und die Semantik in der Musik spielen eine Rolle. Das kann zwar zu einem gewissen Grad auch von einer AI verstanden werden, aber zum Beispiel – wenn wir schon in Wien sind – der Sarkasmus, der sehr verbreitet ist, ist nicht das Geradlinigste für eine Maschine. Außerdem wird besonders, wenn es um die Lyrics geht, sehr viel mit Metaphern und deren tiefgründiger Bedeutung gearbeitet. Das ist das, was den Menschen anspricht und das ist eben für Maschinen, die Pattern und Strukturen analysieren können, nicht das Einfachste.

Werden Maschinen jemals fähig sein, Meisterwerke wie "Bohemian Rhapsody" zu komponieren?
Nein! Ich bin vollkommen überzeugt davon, dass das nicht funktioniert oder zumindest werde ich das nicht mehr erleben und ich glaube auch, die Generationen danach nicht. Ich lasse mich aber gerne vom Gegenteil überraschen, aber das muss ich gehört und gesehen haben.

Ist für AI jede Musikrichtung "gleich viel wert"? Gibt es Musikrichtungen, die leichter nachzuahmen sind als andere?
Es gibt manche Genres, die mehr mit Strukturen arbeiten als andere – zum Beispiel Techno ist anders als eine Jazz-Ballade. Bei einer Jazz-Ballade ist sehr viel Ausdruck dahinter und es sind vor allem sehr viele Freiheiten erlaubt. Sehr strukturierte Songs mit gleichmäßigen Tempi und sich wiederholender Schemen kann man leichter nachahmen. Ich möchte jetzt keinem Genre Emotion absprechen. Das sind nur persönliche Wahrnehmungen von Genres, die mit meinem Verständnis für das Thema zusammenkommen.

Eines der Probleme, die immer wieder angesprochen werden, ist die Frage nach den Rechten. Wer besitzt die Rechte an der Musik, die von AI produziert wird?
Ja, wenn ich diese Antwort nur hätte! Das ist ähnlich zu sehen wie die Haftungsfrage eines selbstfahrenden Autos. Wenn es einen Unfall baut, dann ist nicht klar, wer dafür haftet – der Fahrer? Der, der das System designed hat? Der, der den Auftrag gegeben hat? Ähnlich kompliziert ist es mit der Urheberrechtsfrage bei Musik von Artificial Intelligence, nur dass bei Musik glücklicherweise kein Menschenleben auf dem Spiel steht. Ich kann die Frage nicht beantworten und ich glaube, sie wird auch länger nicht beantwortet werden.

Wie, finden Sie, wird das Thema von der Gesellschaft aufgenommen?
Das hat sehr viel mit den Medien zu tun. Gerade Fragen wie "Werden Roboter Menschen ersetzen?" werden oft aufgegriffen, aber nicht als Frage, sondern gleich als Antwort und es kommt dann so rüber, als würden schon morgen ganz viele Menschen arbeitslos sein. Damit sind dann viele Emotionen verbunden und deshalb wird es auch entsprechend aufgenommen. Ich glaube, in Österreich wird das Thema Artificial Intelligence und Musik nicht so gerne gehört – besonders von Leuten, die selbst im Musikbereich tätig sind, weil einfach der Punkt "Die Maschine kann ersetzen" durchkommt, was so nicht funktioniert, sondern dass es da mehr ums Unterstützen geht.

Es gibt sogenannte Flow-Machinen, die man quasi mit Musik füttert, um neue Lieder zur kreieren. So ist zum Beispiel "Daddy’s Car" entstanden, ein Lied, das von einer AI-Software im Stil der Beatles geschrieben wurde. Mit welcher Musik würden Sie persönlich eine Flow-Machine füttern?
Ich würde die unterschiedlichsten Genres reinspielen und schauen, was passiert – spaßhalber vielleicht einfach eine jazzig angehauchte Liebesballade und Death Metal. Falls so etwas schon am Markt ist – ich bin interessiert. (Anm.: Es gibt tatsächlich Metal-Bands, die von Jazz beeinflusst sind und die natürlich auch ab und zu einmal von der Liebe singen, aber man muss sich schon anstrengen, den Jazz zwischen dem Geschrei rauszuhören.)

Michael Lovett, ein Musiker, der auch schon mit AI zusammengearbeitet hat, hat in einem Interview gesagt "Hoffentlich bin ich in 20 Jahren nicht eine der Personen, die für den Untergang kreativer Musik verantwortlich sind". Könnte so eine Aussage auch von Ihnen kommen?
Nein, ich glaube ans Gute und ich bin überzeugt, dass kreative Musik nicht ersetzt werden wird.

**

Folgt Noisey Austria bei Facebook, Instagram und Twitter.

Noisey Schweiz auf Facebook, Instagram & Spotify.