El ordenador que crea letras mejor que cualquier cantautor

LyricJam, un sistema en tiempo real que utiliza inteligencia artificial (IA) para generar líneas de letras para música instrumental en vivo

EP

0 Comentarios

Neil Young, uno de los mayores compositores vivos de la música folk-rock. Foto EP.
Neil Young, uno de los mayores compositores vivos de la música folk-rock. Foto EP.

Los músicos pueden encontrar inspiración y nuevas direcciones creativas para escribir canciones con tecnología desarrollada por investigadores de la Universidad de Waterloo.

LyricJam, un sistema en tiempo real que utiliza inteligencia artificial (IA) para generar líneas de letras para música instrumental en vivo, ha sido creado por miembros del Laboratorio de Procesamiento de Lenguaje Natural de la Universidad.

El laboratorio, dirigido por Olga Vechtomova, profesora de Ingeniería con nombramiento cruzado en Ciencias de la Computación, ha estado investigando aplicaciones creativas de la IA durante varios años.

El trabajo inicial del laboratorio llevó a la creación de un sistema que aprende las expresiones musicales de los artistas y genera letras en su estilo.

Recientemente, Vechtomova, junto con los estudiantes graduados de Waterloo Gaurav Sahu y Dhruv Kumar, desarrollaron tecnología que se basa en varios aspectos de la música, como progresiones de acordes, tempo e instrumentación para sintetizar letras que reflejan el estado de ánimo y las emociones expresadas por la música en vivo.

Cuando un músico o una banda toca música instrumental, el sistema recibe continuamente los clips de audio sin procesar, que la red neuronal procesa para generar nuevas líneas de letras. Los artistas pueden usar las líneas para componer sus propias letras de canciones.

"El propósito del sistema no es escribir una canción para el artista", explica Vechtomova. "En cambio, queremos ayudar a los artistas a realizar su propia creatividad. El sistema genera líneas poéticas con nuevas metáforas y expresiones, potencialmente conduciendo a los artistas en direcciones creativas que no han explorado antes".

La red neuronal diseñada por los investigadores aprende qué temas, palabras y dispositivos estilísticos están asociados con diferentes aspectos de la música capturada en cada clip de audio.

Por ejemplo, los investigadores observaron que las letras generadas para la música ambiental son muy diferentes a las de la música alegre.

El equipo de investigación realizó un estudio de usuarios, invitando a los músicos a tocar instrumentos en vivo mientras usaban el sistema.

"Un hallazgo inesperado fue que los participantes se sintieron animados por las líneas generadas a improvisar", dijo Vechtomova. "Por ejemplo, las líneas inspiraron a los artistas a estructurar los acordes de manera un poco diferente y llevar su improvisación en una nueva dirección a la que se pretendía originalmente. Algunos músicos también usaron las líneas para verificar si su improvisación tenía el efecto emocional deseado".

Otro hallazgo del estudio destacó el aspecto co-creativo de la experiencia. Los participantes comentaron que veían el sistema como un socio de interferencia acrítico y se sentían animados a tocar sus instrumentos musicales incluso si no estaban tratando activamente de escribir letras.

Desde que LyricJam se puso en marcha en junio de este año, más de 1.500 usuarios en todo el mundo lo han probado.

La investigación del equipo, que se presentará en la Conferencia Internacional sobre Creatividad de Computaciones en septiembre, ha sido prepublicada en arXiv.

Los interesados en probar LyricJam pueden acceder a él en https://lyricjam.ai.

Tienes que iniciar sesión para ver los comentarios

Destacados
Lo más leído