Una inteligencia artificial ha creado una versión aceptable de la canción Another Brick in the Wall, Part 1 de Pink Floyd analizando la actividad cerebral registrada mientras las personas escuchaban la original. Estos hallazgos profundizan en nuestra comprensión de cómo percibimos el sonido y podrían mejorar eventualmente dispositivos para personas con dificultades en el habla.

Robert Knight, de la Universidad de California en Berkeley, y sus colegas estudiaron grabaciones de electrodos que se habían implantado quirúrgicamente en la superficie del cerebro de 29 personas para tratar la epilepsia.

La actividad cerebral de los participantes fue registrada mientras escuchaban Another Brick in the Wall, Part 1 de Pink Floyd. Al comparar las señales cerebrales con la canción, los investigadores identificaron grabaciones de un subconjunto de electrodos que estaban fuertemente relacionados con el tono, la melodía, la armonía y el ritmo de la canción.

Luego entrenaron a una inteligencia artificial para que aprendiera las conexiones entre la actividad cerebral y estos componentes musicales, excluyendo un segmento de 15 segundos de la canción de los datos de entrenamiento. La inteligencia artificial entrenada generó una predicción del fragmento de canción no visto basándose en las señales cerebrales de los participantes. El espectrograma, una visualización de las ondas de audio, del fragmento generado por la inteligencia artificial fue 43 por ciento similar al fragmento real de la canción.

Aquí está el fragmento original de la canción después de un procesamiento simple para permitir una comparación justa con el fragmento generado por la inteligencia artificial, que sufre cierta degradación al convertirse de un espectrograma a audio:

https://images.newscientist.com/wp-content/uploads/2023/08/14171701/audio-file-1.wav

Y aquí está el fragmento generado por la inteligencia artificial:

https://images.newscientist.com/wp-content/uploads/2023/08/14171709/audio-file-2.wav

Los investigadores identificaron una zona del cerebro dentro de una región llamada giro temporal superior que procesaba el ritmo de la guitarra en la canción. También encontraron que las señales del hemisferio derecho del cerebro eran más importantes para procesar la música que las del hemisferio izquierdo, confirmado resultados de estudios anteriores.

Al profundizar en nuestra comprensión de cómo el cerebro percibe la música, este trabajo podría eventualmente ayudar a mejorar dispositivos que hablan en nombre de personas con dificultades en el habla, según Knight.

"Para aquellos con esclerosis lateral amiotrófica (una condición del sistema nervioso) o afasia (una condición del lenguaje), que tienen dificultades para hablar, nos gustaría tener un dispositivo que realmente suene como si estuvieras comunicándote con alguien de manera humana", dice. "Comprender cómo el cerebro representa los elementos musicales del habla, incluyendo el tono y la emoción, podría hacer que dichos dispositivos suenen menos robotizados".

La naturaleza invasiva de los implantes cerebrales hace poco probable que este procedimiento se utilice para aplicaciones no clínicas, según Knight. Sin embargo, otros investigadores han utilizado recientemente la inteligencia artificial para generar fragmentos de canciones a partir de señales cerebrales registradas mediante resonancia magnética (IRM).

Si las inteligencias artificiales pueden utilizar señales cerebrales para reconstruir la música que las personas imaginan, no solo la que escuchan, este enfoque podría incluso utilizarse para componer música, según Ludovic Bellier, de la Universidad de California en Berkeley, miembro del equipo de estudio.

A medida que avanza la tecnología, las recreaciones basadas en IA de canciones mediante la actividad cerebral podrían plantear preguntas sobre la infracción de derechos de autor, dependiendo de qué tan similar sea la reconstrucción a la música original, según Jennifer Maisel en el bufete de abogados Rothwell Figg en Washington DC.

"La pregunta sobre la autoría es realmente fascinante", dice. "¿Podría ser el autor la persona que graba la actividad cerebral? ¿Podría ser el propio programa de IA el autor? Lo interesante es que el autor puede no ser la persona que escucha la canción".

Incluso la posesión de la recreación por parte de la persona que está escuchando la música podría depender de las regiones cerebrales involucradas, dice Ceyhun Pehlivan en el bufete de abogados Linklaters en Madrid.

"¿Habría alguna diferencia si el sonido proviene de la parte no creativa del cerebro, como la corteza auditiva, en lugar de la corteza frontal responsable del pensamiento creativo? Es probable que los tribunales tengan que evaluar estas preguntas complejas caso por caso", dice.

PLOS Biology DOI: 10.1371/journal.pbio.3002176

Temas:

- Neurociencia /

- Inteligencia artificial