La investigación, que ha contado con financiación de la Unión Europea, se ha llevado a cabo durante tres años y ha comprendido tres fases diferenciadas. En primer lugar, se abordó el problema semántico para lo que se generó el denominado Inventario General de Música, GMBI según sus siglas en inglés, un conjunto de términos que sirven para caracterizar una canción en el entorno del marketing. Nueve expertos en audiobranding establecieron por convención un grupo de palabras para definir los atributos subjetivos de cualquier canción. El resultado fue un primer listado que posteriormente se depuró con las aportaciones de más de 300 expertos en marketing hasta llegar a los 36 términos claves con los que se puede definir una canción en un entorno corporativo: relajada, glamurosa, urbana o feliz son algunos de ellos.
Un complejo algoritmo que predice cómo se percibe una canción
Otro de los miembros del consorcio, la institución de investigación acústico musical francesa IRCAM, desarrolló un algoritmo para detectar las características de una canción, tales como tempo, género, estilo, etc y realizar un etiquetado automático. Esto se hizo basado en una biblioteca musical con más de 60.000 canciones ya etiquetadas manualmente y se fueron corrigiendo desviaciones hasta lograr que fuese muy fiable el resultado de la predicción.
En la siguiente fase del proyecto, se llevó a cabo un experimento de audición a gran escala en Alemania, España y Reino Unido en el que 10.144 participantes escucharon las mismas canciones y calificaron el nivel de coincidencia con los términos definidos en la GMBI. El resultado concluyó con 53.344 medidas creadas en base a 2.018.704 datos.
En la última fase, IRCAM creó un algoritmo para predecir cómo se percibe una canción, basado en todos los datos generados y utilizando aprendizaje automático (o machine learning). Esta predicción determina la relación de la canción con cada uno de los 36 términos definidos en la GMBI y en función de esto, caracteriza la canción con un sorprendente 80,1% de acierto.
Durante el experimento, se tomó en cuenta los grupos socioeconómicos a los que pertenecían los participantes. Esto permitió posteriormente modelar el algoritmo para que pudiese ajustar la predicción en función del ámbito socioeconómico de la audiencia a la que se dirige.
Una herramienta eficaz que generará oportunidades a más artistas
El algoritmo desarrollado, tal y como explican sus creadores, establece una idoneidad superior al 80%: “un hipotético valor máximo del 100% no se podría alcanzar nunca puesto que siempre habrá diferentes reacciones a determinados sonidos”, explica Dr. Jochen Steffens de la Universidad Técnica de Berlín, la institución que ha liderado la investigación. En opinión de Borja Torres de Lovemonk, empresa que forma parte del consorcio y una de las principales compañías en el ámbito de la supervisión musical en España, “esta herramienta viene a complementar la labor desarrollada por los asesores musicales de agencias creativas y marcas, aportando soluciones de objetivación y la posibilidad de trabajar con bibliotecas musicales mucho más amplias, cuestiones que hasta ahora requerían de un ingente esfuerzo.”
Y esto, ¿para qué es útil? Para el equipo de ABC_DJ, los beneficios potenciales de la investigación van en tres líneas: “identidades corporativas más fuertes y coherentes, experiencias más significativas para los consumidores y más música para todos. Esto se puede trasladar a todos los puntos de contacto entre las marcas y los consumidores, desde los puntos de venta hasta las herramientas de marketing y comunicación.” Esperan que estas investigaciones añadan más amplitud al rango de música usadas por las marcas y ofrezcan a los artistas y sellos independientes nuevas oportunidades para la monetización.