El robot cantante de ocho brazos y otras máquinas capaces de hacer música
Gil Weinberg, músico y director del Georgia Tech Center for Music, repasa sus logros y tareas pendientes en su aventura para crear máquinas capaces de crear e interpretar de forma más humana
- 6 minutos de lectura'
Shimon es el resultado de diez años de trabajo. O, mejor dicho, es la metálica encarnación de diez años de resultados. En este robot músico confluyen líneas de investigación que van desde el aprendizaje automático hasta la psicología, pasando, claro, por la teoría musical. Lo primero que hizo fue aprender a tocar la marimba. Pero no se detuvo ahí. Desarrolló su propia voz, comenzó a moverse al ritmo de la música y obtuvo las nociones de improvisación y rap necesarias para participar en peleas de gallos, entre otras habilidades. Detrás de sus logros están los investigadores que han pasado por el Georgia Tech Center For Music y, a la batuta, Gil Weinberg (Israel, 1967), director y fundador de este laboratorio. “No es habitual que un robot permanezca activo tanto tiempo y siga desarrollando nuevas habilidades”, razona durante una entrevista por videollamada.
Este investigador llegó a la robótica desde el marco de una temprana educación musical: después de estudiar Ciencias de la Computación y Música, se enroló en el Medialab del Massachusetts Institute of Technology (MIT) para poder explorar la unión de sus dos carreras. “Decidí que si realmente quería innovar en este campo, necesitaba saber más”, recuerda Weinberg. Ha explorado las posibilidades del pensamiento algorítmico como fuente de inspiración para crear nuevos tipos de música, ha ideado nuevos instrumentos musicales y puede presumir de haber desarrollado uno de los primeros programas informáticos de karaoke, en 1992.
Logrado todo lo anterior, echó en falta el sonido acústico. “Hay algo único en la cualidad física, los gestos, en mirar al otro músico y ser capaz de sincronizarse”, señala Weinberg. Así empezaron los robots. Hayle fue el primero de ellos. Tenía la habilidad de tocar el tambor, escuchar lo que hacían los otros músicos y responder con ritmos acordes. Sorprendente para una máquina y suficiente para despertar el interés de la National Science Foundation, que vio en este proyecto una manera amable de acercar los robots al gran público; pero aún por debajo de las expectativas del investigador. “No tenía muchos de los elementos que eran importantes para mí como músico”.
Una bola de nieve musical
La respuesta a esas carencias es lo que ha ido engordando el currículum de Shimon durante la última década. El autómata echó a rodar como un marimbista de ocho brazos capaz de sincronizar sus movimientos con la música, mirar a su alrededor y hacer algunos gestos para introducir cierta emoción en sus actuaciones. En lo relativo a la generación de melodías, el robot empezó a componer a través de un sistema basado en reglas procedentes de la teoría musical. Esto hacía posible, por ejemplo, determinar qué notas pueden seguir a una combinación determinada. “Sonaba similar a lo que hacemos a los humanos, algo distinto. Algunas veces resultaba interesante y muchas otras no tanto”, admite Weinberg. El siguiente paso fue entrenar a Shimon con una enorme base de datos de composiciones musicales. Con este océano de melodías, la máquina alcanzó la capacidad de crear mezclas insólitas. “Por ejemplo, tomar un 30% de Thelonius Monk, un 40% de Madonna y un 20% de Bach”, precisa el investigador.
El movimiento es una parada clave en el camino hacia la creación de un robot músico. En lo que respecta a sus interacciones con el instrumento, Shimon y sus cuatro pares de extremidades capaces de tocar a velocidades de más de 20 hercios –20 impactos por segundo– ya superan ampliamente las capacidades humanas. “Toca tan rápido que ni siquiera lo oyes como ritmo. Se escucha como un nuevo color de sonido”, explica Weinberg, que ya ha recibido en su laboratorio a productores musicales interesados en grabar esos sonidos electrónica y humanamente imposibles de generar.
Para la expresión corporal, el robot bebe de la psicología, pero concentra esas enseñanzas en un estrecho rango de movimientos de cabeza, cejas y ojos. “Los robots deben tener el aspecto de robots, no necesitan parecer humanos”, comenta el experto. En sus giras con Shimon, que han incluido actuaciones en docenas de congresos y festivales, Weinberg ha visto como el público responde mejor a esta parte de la representación que al contenido de las canciones: “Siempre puedes hacer el robot más rápido o mejorar el algoritmo para que sea más interesante musicalmente, pero muy poca gente lo va a notar. El público conecta con pequeñas cosas que ni siquiera son musicales”.
Esa efectividad ha dado pie a nuevas líneas de investigación que exploran la posibilidad de utilizar los gestos y la entonación de Shimon y otros robots para establecer relaciones de confianza con sus interlocutores humanos y superar así el miedo atávico a esas máquinas autónomas. “Si el robot es capaz de comunicar su humor, estado e intenciones a través de ciertos sonidos, la gente confía más”, explica el investigador. Por el momento, ya han publicado algunos estudios que confirman que incorporar estos modos de expresión mejoran la aceptación y la percepción del robot como una entidad animada, y están buscando vías para escalar esos intercambios a interacciones entre grupos.
Cuanto más avanzadas son las capacidades de Shimon, más poder de computación exigen. Esto explica, por ejemplo, que la voz que emplea en su disco y sus actuaciones —desarrollada con la colaboración del grupo de Tecnología Musical de la Universidad Pompeu Fabra– no sea la misma que utiliza en sus improvisaciones de rap. “Suena más bien como Alexa rapeando”, admite Weinberg, que confía en que los avances en las unidades de procesamiento les permitan integrar más funcionalidades en las melodías generadas en tiempo real.
Pese al camino recorrido, sigue habiendo competencias fuera del alcance de este robot de ocho brazos. “Aún no he escuchado una canción compuesta por inteligencia artificial que sea capaz de hacerme llorar”, resume el investigador. “¿Qué hace una melodía de los Beatles tan pegadiza y una de otro autor no tanto? No lo sabemos”. Mientras los investigadores se afanan en encontrar ese ingrediente secreto, Weinberg no cree posible que hallemos una respuesta en el futuro próximo. Pero no le preocupa. “Creo que el reto es conseguir a través de la robótica elementos que los humanos no tenemos. Enriquecernos y ampliarnos. No reemplazarnos”.
En línea con esa visión colaborativa, el Georgia Tech Center For Music está trabajando en el desarrollo de una herramienta de composición de audio digital en la que el humano recibe recomendaciones basadas en un sistema de aprendizaje automático. “Puedes usarlas o no, y el sistema aprende de lo que te gusta y lo que no”, precisa el director del laboratorio. Los avances de Shimon se traducen además a campos próximos, como el desarrollo de prótesis para percusionistas y pianistas, y a otros más lejanos. “Imagina a un astronauta en una nave espacial tratando de arreglar algo y un robot que le entrega la herramienta correcta en el momento justo”, propone Weinberg.
EL PAIS