Un nuevo estudio reveló que la música hecha con IA también emociona
Un nuevo estudio europeo analiza cómo respondemos emocionalmente a la música creada por IA y revela resultados que podrían cambiar el futuro de la industria sonora.
Durante siglos, se pensó que la emoción musical era un don exclusivamente humano. El ritmo de un corazón roto detrás de una balada, la furia sorda en un riff de guitarra o el suspiro contenido en un acorde menor. Sin embargo, una investigación reciente desafía esa idea: la música creada por inteligencia artificial puede emocionar más que la compuesta por personas.
El estudio fue realizado por la Universitat Autònoma de Barcelona (UAB) junto al Instituto RTVE y publicado en la revista científica PLOS One. Allí se analizó cómo respondían emocionalmente 88 personas ante piezas audiovisuales idénticas en imagen, pero con música distinta: una hecha por humanos y otra generada por IA.
Los resultados fueron contundentes. La música compuesta por IA provocó una mayor dilatación pupilar y variaciones en la conductancia de la piel, dos indicadores fisiológicos que reflejan activación emocional intensa y carga cognitiva. Es decir, las personas no solo se emocionaron más, sino que sus cuerpos también lo evidenciaron.
"La música generada con instrucciones más complejas fue percibida como más estimulante", explicó el sociólogo esloveno Nikolaj Fišer, primer autor del estudio. Aunque los participantes describieron la música humana como “más familiar”, la generada por IA fue vista como “más excitante”.
El experimento también reveló un dato interesante: la música de IA requería mayor esfuerzo cognitivo para ser procesada. Al no seguir estructuras tan predecibles o conocidas, el cerebro debía involucrarse más activamente en su interpretación. Esta “complejidad emocional” puede ser la clave para explicar por qué genera una reacción más intensa.
El estudio abre la puerta a una paradoja contemporánea: si la música que más nos conmueve no fue compuesta por nadie, ¿qué lugar queda para el músico? ¿Cómo se reconfigura el valor de lo humano frente a lo artificial?
¿Cuál será el futuro de la música?Más allá del debate filosófico, los investigadores destacan que este hallazgo tiene implicaciones directas en la industria audiovisual. La posibilidad de generar música personalizada con IA puede revolucionar desde la publicidad hasta el cine.
Además, puede optimizar recursos creativos, automatizar procesos y democratizar el acceso a composiciones de alta calidad sin necesidad de una orquesta o estudio de grabación.
Lejos de dictar sentencia, el estudio invita a repensar el vínculo entre música y emoción. Tal vez no se trate de elegir entre IA o humanos, sino de entender cómo ambas formas pueden coexistir, complementarse o incluso fusionarse.




