Fundación Caser premia el proyecto sobre el subtitulado accesible de la música

Imagen del premio. Una escultura abstracta y circular de bronce sobre un soporte cuadrado de madera clara.

El proyecto de investigación ha sido desarrollado con la colaboración de los grupos de investigación Human Languages & Accesibility Tecnologies (HULAT), Grupo de Display y Aplicaciones Fotónicas (GDAF) de la UC3M, el CESyA del Real Patronato sobre Discapacidad, el departamento de Informática de la Universidad de Oviedo y los departamentos de Neuropsiquiatría y de Comunicaciones Aplicadas de la Universidad Complutense de Madrid (UCM). 

Esta investigación parte de un estudio colaborativo del CESyA iniciado con los trabajos del Dr. Pablo Revuelta Sanz de la Universidad de Oviedo sobre la limitación del subtitulado accesible de la música para transmitir la emoción musical y continuado con las tesis Estudio de alternativas de subtitulado accesible de estímulos sonoros no verbales para discapacidad auditiva de Mª José Lucía Mulas bajo la dirección de la directora técnica del CESyA, la catedrática Belén Ruiz Mezcua, y la tesis Nuevos sistemas hápticos para la evocación de emociones en eventos audiovisuales en personas con discapacidad auditiva del investigador del CESyA, Álvaro García López, con la dirección del director gerente del centro, el catedrático José Manuel Sánchez Pena, y el Dr. Ricardo Vergaz Benito, profesor titular del departamento de Tecnología Electrónica.

El proyecto premiado también ha contado con la participación del investigador Víctor M. Cerdán Martínez y del catedrático Tomás Ortiz Alonso, ambos pertenecientes a la UCM.  

El objetivo de este proyecto es aportar las bases científicas para una transmisión de la emoción de la música a las personas sordas o con discapacidad auditiva, que se ha denominado subtitulado emocional de la música de películas, complementario a los subtítulos tradicionales, y capaz de identificar la intención emocional de las melodías —como la alegría, el miedo o la tristeza– de forma automática a través de técnicas de inteligencia artificial basadas en modelos de aprendizaje automático profundo y la transmisión mediante patrones vibro-táctiles.

Dicho campo de investigación, centrado en la experiencia vibro-táctil para mejorar la percepción emocional de la música por parte de las personas con discapacidad auditiva, “está experimentando un gran auge en los últimos tiempos”, según afirma el equipo del proyecto, y añaden que “el subtitulado de la emoción de la música daría acceso a una experiencia audiovisual más completa, que además permitiría a las personas con discapacidad auditiva compartirla con el resto de espectadores y complementarían de una forma multisensorial la intencionalidad del autor en las obras audiovisuales”.