Cuña Radiofónica campaña publicitaria Residencias de Personas Mayores de Navarra “Con Total Seguridad” Abril 2021

 

Proceso de composición de la música:

La actividad muscular de las sonrisas de los participantes queda registrada en unas gráficas. El eje Y (vertical) refleja la intensidad de la actividad muscular, y el eje X (horizontal) refleja el tiempo en el que esa actividad se desarrolla. Esa relación altura/tiempo está también en la base de cualquier pieza musical. Podríamos definir una pieza musical como una serie de valores (alturas) determinados, con una duración determinada, que se desarrollan durante un tiempo determinado.
Lo que yo he utilizado para componer la música son dichos valores registrados en las gráficas facilitadas por la campaña. Son esos registros los que determinan los valores de altura de las notas musicales, otras variables relacionadas con el color de su sonido, la duración de dichos valores y su desarrollo temporal.

Cómo los registros musculares determinan la altura, duración y otras variables de la música?

He creado un instrumento híbrido analógico-digital que traduce esos valores en notas musicales y en modulaciones del timbre del sonido. El instrumento consta de una microcomputadora que he programado a través del lenguaje de programación musical y visual Pure Data. A través de esa microcomputadora y el programa, leo los valores de las gráficas a un tempo determinado y envío los valores, escalados, a través de MIDI y a través de voltaje al sintetizador analógico semimodular Moog Mother-32.

Cada gráfica refleja dos participantes interactuando. He decidido utilizar los registros de un participante para dar el valor a la altura de las notas (a través de MIDI) y los registros del otro participante para modular el color del sonido (a través de control de voltaje, modulando el valor del corte del filtro del sintetizador, es decir, ecualizando el sonido y dandole así diferente timbre). De esta forma, mientras un participante determina por ejemplo la nota DO, el otro participante hace que esa nota suene con un timbre específico. La tonalidad y tempo de la música son decisiones que he tomado yo, así como el rango de variación del filtro.

El resultado final son dos melodías sonando juntas creadas como he explicado anteriormente, pero con la función de cada participante invertida para cada una de dichas melodías. Así, en la melodía 1, el participante A determina las notas y el participante B determina el timbre del sonido y en la melodía 2 esas funciones se invierten, siendo el participante B el que determina las notas y el participante A quien determina el timbre. Por supuesto, las dos melodías están reproducidas con el mismo tempo y desde un mismo punto de partida sincronizado. Su interacción es estrictamente la que proviene de las gráficas. Después he seleccionado cual de las tres piezas musicales resultantes de cada una de las tres gráficas utilizar, así como qué parte de la pieza utilizar (cada pieza dura unos 3 minutos, y la cuña, unos 30 segundos).

Además he añadido un pitido, agudo, simulando lo que generalmente se reconocería como sonido de una máquina que detecta cualquier actividad vital en un entorno científico, que también ha sido generado estrictamente con el ritmo de las gráficas de la campaña. La pieza musical comienza con ese pitido al que posteriormente se va añadiendo las melodías correspondientes a las sonrisas, interactuando entre ellas y con el pitido y finalizando con el pitido aislado de nuevo.

La mezcla final y el master de la grabación de la música ha sido realizado por Arturo Ramón.

Encargo para el Gobierno de Navarra por Brandok (agencia de cominucación, Pamplona). María Llorens, directora creativa y creadora del concepto.

https://brandok.es/proyectos/gobierno-de-navarra-las-emociones-se-pueden-ver-y-escuchar/

Visualización del desarrollo de las gráficas de dos melodías juntas (afinadas y con filtro tonal, sin modular timbre). Pure Data en Laptop.


Parte de la grabación de una de las melodías finales. Melodía determinada por una gráfica con timbre modulado por otra gráfica, sin ningún tipo de manipulación añadida durante la grabación.Pure Data en microcomputadora + Moog Mother-32.


Selección de la grabación favorita: dos melodías juntas correspondiente a la gráfica “Patricia_MAngeles_2_Toma_de_la_risa_al_final”, moduladas, con el pitido añadido.


Conversión de foto de la gráfica en datos


Primera traducción de un registro muscular en notas (sin afinar y sin filtro tonal). Pure Data en Laptop


Ejemplo de dos melodías juntas (afinadas y con filtro tonal, sin modular timbre). Pure Data en Laptop


Cómo se va formando la gráfica a utilizar en la microcomputadora. Pure Data en Laptop.


Primera aproximación a melodía determinada por una gráfica con timbre modulado por otra gráfica (con delay sincronizado, que al final descarté). Pure Data en microcomputadora, Moog Mother-32, Roland Demora (delay semimodular)


Exploración/improvisación cambiando parámetros (ataque, tempo, octavas, …) con melodía determinada por una gráfica y timbre modulado por otra gráfica (con delay sincronizado, que al final descarté). Al final también descarté cualquier manipulación extra por mi parte durante la grabación. Pure Data en microcomputadora, Moog Mother-32, Roland Demora (delay semimodular).


Grabación completa de una de las melodías finales. Melodía determinada por una gráfica con timbre modulado por otra gráfica, sin ningún tipo de manipulación añadida durante la grabación. Pure Data en microcomputadora + Moog Mother-32.