¿Sueñan los autómatas con el sonido Glitch?    
Adolfo García Jun. 2002 webb, autómatas, inteligencia artificial, MIDI


¿Cómo surgió la idea de Robot Software?
La semilla de la idea original se remonta a 1984 cuando estaba trabajando con un ordenador BBC y un Commodore VIC-20.  Tenía que aprender cómo programarlos y descubrí que podía trasladar la lógica de la programación, con sus bucles y decisiones, a una especie de  “partitura” para controlar la salida de sonido de estos ordenadores. Por ejemplo, en el BBC podía controlar las envolventes y los pitches para las voces, de esta forma yo podía desarrollar modelos controlados por código para envolventes, pitches y volúmenes de tonos simples.  Estos experimentos duraron aproximadamente 6 meses y  no retomé la idea hasta 1988 cuando vi un cartel en el departamento de informática para un concierto de música por ordenador, donde la música era escrita por algoritmos. Éste fue el mismo año que descubrí unos libros en la biblioteca sobre la música por ordenador y grabaciones de Xenakis.  

Pero no es hasta 1991 cuando dedico totalmente mi tiempo a la música por ordenador y los procesos algorítmicos para la composición, investigando sobre cómo un ordenador puede componer  música autónomamente. De modo que Robot, los buenos chicos autónomos capaces de tomar sus propias decisiones, son una analogía a las ideas básicas que he estado poniendo en la música hecha por un programa.

Después de tres años dirigiendo Robot Software ¿Cuál es tu balance del tiempo transcurrido y cuáles son tus planes secretos?
Una cosa que tengo clara es que durante los próximos años no quiero crear aplicaciones de música de shareware.  Sólo me concentraré en el desarrollo de software para mi propio uso, para actuaciones y para  instalaciones. Después de 3 años  concentrado en  aplicaciones quiero volver a un papel de compositor y artista, y no programador.

Lo anterior no quiere decir que no esté satisfecho con los programas que he producido en estos últimos años. Ellos me han permitido explorar ideas sobre el papel del software en la música, tocando asuntos que yo consideré importantes. Asuntos como la autoría de la obra, música de duración infinita, la pérdida de una versión "ideal y singular" producida por un sistema y las nociones pasadas de moda de reproducción (de un original), contra las producciones de un sistema generador de originales.  Tomé la decisión de no grabar nada de lo producido cuando pensé que esto debilitaba uno de los puntos de estos sistemas –una nueva versión a cada clic del ratón-. Todos estos temas son importantes en el campo de los sistemas generativos.

Por ejemplo,  con Cellular Grid Machine consideré la música casi secundaria frente a su proceso y mecanismo. Para mí la música era un excremento-auditivo, el derivado del sistema y sus algoritmos.  De esta forma nunca haría un CD usando CGM porque la estética de la música “entregada” está completamente integrada con su proceso y es inválida si se separa.

Esto es totalmente contrario a la filosofía de “Absolute Music” de Francisco López.  Esto es así porque yo escojo un revoltijo de procesos, procesos que necesariamente no se inspiraron por un pensamiento musical cualquiera. Recuerdo la lectura de una cita que decía "cualquier cosa diseñada sin la música en la mente perjudica a la música "... Entonces, como lo hice yo exactamente... sin la música en la mente. 

Prometeo robó el fuego a los Dioses para que los mortales no pasáramos frío y para que las noches resultaran menos oscuras... ¿Crees que con herramientas similares a las desarrolladas por Robot Software en algún momento no muy lejano, la composición musical estará al alcance de todos? ¿Se producirá un antes y un después? ¿Democratización? ¿Cuál es tu regalo para los mortales?
Cuando estaba desarrollando CGM escribí sobre la "Democratización de la Composición":  "Una era donde todos somos compositores y nadie es un oyente ", lo que supondría "Cantidad sobre Calidad"  y otras conclusiones como el cuestionado giro de una forma de arte dentro de una forma de entretenimiento.

Pienso que las herramientas no deben hacer sencillo el proceso de “creación artística”, es la dificultad de las herramientas lo que estimula el uso y la actuación creativa. Si el software es amistoso para el usuario probablemente es porque esta herramienta carezca de suficiente flexibilidad expresiva y de un juego rico de conceptos, conceptos difíciles que los diseñadores de software intentan evitar porque excluirían a grandes sectores de un posible mercado. Además, la composición no es sólo conocer cómo usar una herramienta, o conocer cómo controlar la herramienta para hacerla tuya.  Las mismas ideas están apareciendo en el vídeo digital, “cualquiera puede ser un creador de películas”. Conocemos cómo usar el botón de Record en una cámara digital y el programa FinalCut y ya se piensa que podemos hacer películas. Lo que está sucediendo es que hay abundancia de películas mediocres hechas sin el conocimiento del lenguaje cinematográfico, pero publicitadas usando la misma vieja retórica. Esta idea está siendo manipulada como un “estilo de vida digital” para vender ordenadores, y por compañías de producción que juegan a convertirse en Digeratis.

Cuando las cosas son demasiado fáciles de hacer pierden valor, no creo que la gente obtenga mucha satisfacción al comprar un software que componga para ti. En ese momento surge la cuestión sobre el autor de la obra. Con este tema pueden surgir muchos enfoques: el desarrollador del software, la máquina o el usuario. La proximidad de cada uno de ellos a la música generada es diferente. Para una herramienta de “iCOMPOSITION " yo creo que el usuario es el más alejado.

Con las herramientas de Robot Software los usuarios todavía necesitan configurar. Son herramientas para automatizar la composición, no de composición automática. Yo los diseñé con estas ideas en mente.

Pero yo pienso que sí, que el software futuro permitirá a cualquiera componer música y las personas no necesitarán saber cómo tocar un instrumento. El software puede por ejemplo tomar una idea simple de un dibujo tuyo, un gráfico, una melodía tarareada o un sonido y a continuación, crear una composición completa. Él sugerirá mejoras o probar variaciones. Tú le indicarás de esta manera o de esa otra. El usuario desempeñará principalmente el papel de director creativo. El software tendrá conocimiento de centenares de estilos musicales y podrá fusionar estas bases de conocimiento. Será posible añadir la expresión sobre el modo de reproducción, para que puedas indicarle hazlo triste, feliz, ligero, oscuro o malhumorado. O haz que suene más a los ‘80,  más como Michael Jackson o como el álbum “Lick my I/O”  de los glicheBeatManiacs  que apareció en el 2010.

Personas como David Cope, han investigado bastante para conseguir que los ordenadores puedan crear nueva música con el estilo de compositores clásicos mediante el análisis de los trabajos de estos compositores y la creación de una compleja base de conocimiento. Y Tod Machover, del MIT, está trabajando en proyectos para permitir a los no-músicos hacer  música.

Hace unos años medio planeta se conmociono con el fenómeno Tamagoshi. Aquello fue un ejemplo muy básico de autómata orientado al entretenimiento. ¿Qué posibilidades crees que pueden tener tus investigaciones el día de mañana? ¿Crees que representarán una nueva forma de ocio  y que incluso pueden ayudarnos a desarrollar nuestras atrofiadas capacidades artísticas?
Este tipo de robots que mencionas tiende a tener ciertos funcionamientos que los hacen seguros además de encajar en las normas sociales. Disney no dudará en entrar en marketing y promoción de robots con saludables características orientadas a la familia.  Los artistas a continuación, hackearán el código y corromperán su funcionamiento para producir respuestas y funcionamientos contestatarios, rehaciendo su sentido auditivo y su interacción gestual con los humanos y otros robots. Si los robots “sienten”, “piensan” y “actúan”, cada uno de estos componentes puede ser alterado. Actualmente hay artistas mutando a Aibo, el perro-robot de Sony.

La industria del sexo tiene un montón de dinero y los droides de placer serán muy populares y descubrirán un mercado muy beneficioso. Esto  inspirará a los artistas, examinando los códigos políticos y culturales de estos droides.

¡Quién desea hacer arte cuando hay droides de placer!

Desde los tiempos de Pitágoras ha existido la inquietud de buscar un modelo matemático que explicara la música o la organización de los sonidos. Desde entonces hasta ahora se han sucedido numerosas corrientes que de una u otra forma  han intentado formalizar la organización de sonidos, quizás las más influyentes haya sido el formalismo markoviano, el enfoque lingüista de Chomsky o los planteamientos estocásticos de Xenakis. Estas corrientes, junto a investigaciones en torno a la geometría fractal,  algoritmos de vida artificial y algoritmos genéticos son el punto de partida de numerosos modelos generativos. De todos ellos, ¿con cuáles has experimentado? ¿Con cuáles te sientes más cómodo y cuáles crees que ofrecen mayores posibilidades estéticas?
Los científicos intentan reducir un fenómeno en unos pocos principios básicos y como sabios han hecho muchos intentos de explicar la música con unas pocos principios básicos. Uno de los mayores problemas con esto es que ellos asumen que ES  música. A continuación, si ellos deciden qué es música y qué no, un artista puede proponerse violar intencionadamente todos estos principios para crear una nueva forma de música. La música tiene también un contexto cultural.

En estos días hay científicos que con ordenadores están intentando “explicar” los principios de la música con algoritmos e inteligencia artificial, habitualmente, tomando algoritmos de otras disciplinas o campos científicos con la esperanza de compartir los mismos profundos principios de organización. Por ejemplo reuniendo algoritmos para emular el comportamiento de las improvisaciones de Jazz.  Pero terminan fallando. ¿Por qué sucede esto? Yo no creo que sea un problema de los algoritmos, pero alguno de estos científicos no tiene las ideas claras sobre composición y sí mal gusto (¿y por qué siempre es Jazz?).

Los algoritmos pueden sugerir organizaciones particulares, estructuras de sonidos y sonidos pero se requiere que un compositor los escuche para que los resultados se revelen interesantes, influenciándose y trabajando con ellos. Una simbiosis algoritmos/compositor. ¿Esto es “COMPUTER music” o “computer MUSIC”? Hay distinciones... aunque me gusta hacer ambas.

Me ha sorprendido gratamente que el sonido producido por tus últimos agentes ISA (Interactive Sonic Agents) está muy próximo al microsound y al sonido glitch. ¿A quién le interesa más explorar estos territorios, a ti o a tus criaturas?
Actualmente a mí, principalmente. Este proyecto necesita mucho trabajo e investigación y me tomará algunos años más. El sonido glitch producido es el resultado de dedicar algunos meses a probar diferentes algoritmos para llevar al límite a la Yamaha MU128 y ver qué sucedía. Con el sistema actual he seleccionado alguno de esos algoritmos y los he agrupado dentro de un conjunto de instrumentos específicos “glitch”. Éstos pueden ser controlados de cierta forma y dentro de unas fronteras de funcionamiento. Alguno tiene añadido código extra que funciona como “corruptor del proceso”, cuando se activa causará la disfunción parcial del algoritmo. Los agentes por sí mismos controlan estos instrumentos a partir de unas simples reglas que yo les he puesto. La paradoja de los agentes autónomos es que ellos tienen que ser diseñados y compuestos, en este sentido ellos no son autónomos, son esclavos de su programación.

En lo que he escuchado, tus agentes controlan vía MIDI una Yamaha MU128. ¿Hasta donde llegas en la programación de sonidos en este tipo de máquinas para extraer ese sonido “DSP”?
Yo las llamo técnicas MIDI extendidas. Estas técnicas fueron inspiradas por un artículo que leí en 1992 sobre Síntesis Granular usando MIDI. Mediante el envío de cientos o  miles de notas muy cortas cada segundo y ajustando continuamente sus envolventes, filtros y efectos se pueden obtener las ricas texturas del sonido DSP. Todavía tengo mucho que investigar sobre esto. Esta técnica presenta límites en términos del número de flujos en paralelo y problemas de sobrecarga en el sintetizador (pero esto también produce sonidos interesantes), pero los límites inspiran creatividad e ideas.  Diseñando algoritmos he encontrado otros sonidos y formulas para controlar la distribución y cambios de notas pudiendo emular por ejemplo crujidos eléctricos, ajustando densidades, distribuciones de los rangos de pitch, filtros y ecualizadores. Estas técnicas también implican que los métodos de cómo un agente “escucha” por MIDI la salida de otro es más compleja. Típicamente, los sistemas de música interactiva se han fundamentado en la interacción basada en el “tema” musical o por datos MIDI a baja velocidad generados en una performance.  Tengo un problema extra ya que mis flujos de datos van a velocidades superiores y representan además “la forma de producir” el sonido glitch. Toma tiempo desarrollar un sistema de reglas que conozca cómo interpretar este vasto flujo de datos MIDI entrantes de manera útil, y aplicar una clasificación representativa de la  estética  por los agentes.

¿En algún momento tus agentes serán capaces de controlar la generación de sonidos programando directamente en tiempo real los DSPs?
Tengo planes para usar la generación de sonidos en tiempo real empleando DSP. Estoy considerando varios caminos. Si cuento con el presupuesto suficiente compraré y emplearé una Kyma. Pero también estoy considerando tener otro MAC corriendo registros MAX-DSP, los cuales serán controlados por agentes vía MIDI. Otra posibilidad es buscar clases C++ para DSP y usarlas, o escribir mi propio C++ DSP y código Digital Sound. Hace algunos años trabajé con algoritmos Digital Sound en Amiga y me gustaría emplear estas técnicas de nuevo. ¿Cuándo? Puede ser este año, puede ser el año que viene. Este paso significa que la forma en la que un agente escucha a otros debe de cambiar. Tendré que dotarles de oídos artificiales y aprender sobre procesos algoritmos para la percepción del sonido, esto puede ser bastante difícil y no estoy muy seguro si deseo introducirme en este campo.

Entrando en las técnicas de escucha. Cómo un agente es capaz de extraer características de la música producida por otro agente es un factor importante en el proceso de composición. Esto es porque todos los componentes del agente afectan a los otros, así que un agente extrae influencias que él genera en dos escalas de tiempo, una inmediata y otra, en un periodo más largo. Surgen cuestiones de cómo un agente es capaz de escuchar únicamente pitches e interpretarlos como melodías si él escucha el rápido caudal MIDI generado por otro agente. Estas aparentes diferencias son interesantes y deber proporcionar algunas interacciones inusuales.

En mi sitio Web he escrito sobre conceptos como “reconocimiento reducido”. Dotando a un agente con mínimos mecanismos de escucha, él es diseñado con lo se considera por los improvisadores humanos, inapropiadas e insuficientes habilidades para escuchar. Las técnicas de escucha son un factor importan

El hecho de interconectar tus agentes a través de MIDI puede limitar la escalabilidad cuando quieras que participen docenas de ellos y que estos estén separados remotamente. ¿Crees que una posible especificación de MIDI sobre el protocolo IP abriría  nuevas posibilidades y aplicaciones a tus criaturas?
Más que los posibles problemas generados al conectar docenas de ordenadores, el problema que he encontrado está relacionado con los generadores al emplear técnicas MIDI de alta velocidad debido al limitado ancho de banda MIDI. Si ellos enviaran datos MIDI a velocidad normal no habría problema. Así que, la combinación de técnicas rápidas con docenas de ordenadores representará el mayor problema a resolver. Tendré que alterar la infraestructura y conectar los ordenadores empleando interfaces USB o Firewire y tendrán que intercambiar otra información.

No tengo intención de usar ordenadores remotos, la proximidad física ayuda a asociar a la idea de interacción.

Mi imaginación se dispara... ¿Has considerado alguna vez una comunidad de agentes ISA distribuidos por todo el planeta, conectados entre sí por Internet y organizando espontáneamente entre ellos Generative-Music-Chats?
Hacia 1991/1992 divisé la idea de gente interactuando remotamente mediante PDAs ejecutando avanzado software musical de inteligencia artificial, este software encontraba automáticamente gente para unirla al grupo de improvisación, formando y cambiando la red. Imaginaba que sería divertido estando en el metro o sentado en el retrete. Los agentes que estoy diseñando en este momento están trabajando para ser capaces de organizarse automáticamente dentro de redes, buscando a otros agentes para poder improvisar con ellos.  Este sistema permite crecer con docenas y docenas de agentes diferentes, alguno comenzará una sesión de improvisación mientras que otros se desconectarán debido a que el entorno musical no sea de su agrado. A esto lo llamo Ecología porque está basado en un entorno natural donde las co-dependencias y las interacciones auto organizan. Algunas criaturas se desarrollan mientras que otras se extinguen.

Cuando llegué a Madrid, consideré la idea de convertir mi casa en una instalación con múltiples altavoces en las paredes, en el sofá, bajo el fregadero de la cocina, en los límites, etc. Todos con agentes ISA entre bastidores y algunos sensores de detección de luz, temperatura, etc. Si no en el planeta, puede comenzar en casa. He usado las palabras “PANDILLAS DE INCESTUOSOS ELECTRODOMESTICOS, EN ORGIAS DE DATOS DE INFORMACIÓN INTELIGENTE, INTERCAMBIAN SUS FLUIDOS PRODUCIENDO UNA PLACENTA MUSICAL PARA TUS SISTEMAS DE ENTRETENIMIENTO DOMESTICO” para describirlo. Estaba leyendo mucho a la vez sobre los dispositivos del hogar inteligente y sobre la trasformación de la economía en puro intercambio de datos.

Tu formación es claramente académica y los que te conocen te ubican en el ámbito electroacústico. ¿Es esto así?
Yo diría que no. Los últimos diez años he estado trabajando al margen de cualquier institución o compañía. Completamente aislado en casa, es lo que prefiero. Sin distracciones, sin tener que seguir un dictado sobre en lo que debo trabajar, o tener que buscar la aprobación de mis proyectos.

Mis relaciones con el mundo académico se circunscriben a lo que leo en publicaciones académicas como ComputerMusicJournal, Organised Sound e Interface, y en otros de documentos y ponencias, así como mi asistencia a festivales de música electroacústica y conciertos. En términos de ideas para trabajar con redes, música interactiva y estética de la interacción  me siento más influenciado por los pioneros de la escena Computer Music de la Costa Oeste de los años ’70-’80. Mucha de esta gente también trabajó independientemente. Musicalmente tiendo a escuchar obras contemporáneas del 20 siglo de estilo clásico más que electroacústico, pero actualmente tengo una creciente colección de microsound.

¿Crees que en estos tiempos es sostenible la diferenciación entre el mundo académico y no-académico?  Según tu punto de vista, ¿esta “separación” es debida a cuestiones culturales, generacionales o de formación?
En estas dos aproximaciones las fronteras cada vez son más borrosas, se están empezando a entrelazar con cruces beneficiosos. Muchas de las herramientas que fueron desarrolladas en el mundo académico están llegando al gran público, como por ejemplo MAX. Pienso que sucederá como en bellas artes, donde existen cruces y mezclas pero donde todavía hay bolsillos independientes. Ahora hay bastantes cursos de arte y sonido abiertos a personas sin formación clásica a los que antes sólo podía acceder gente con conocimientos de música. El cuerpo del conocimiento está siendo compartido por todos, incluyendo las contribuciones de personas ajenas a las instituciones académicas. En todo caso, éste no es un tema que ocupe mi tiempo.

Además de tus actividades como desarrollador de software has creado instalaciones interactivas. Estas obras han sido expuestas obteniendo el reconocimiento del público en importantes eventos como el Sonic Arts Network Conference de Birmingham. ¿Crees que la instalación sonora interactiva es el vehículo ideal para trasladar al público tus investigaciones con autómatas y algoritmos generativos?
Para las instalaciones el lugar es importante, así como la influencia sobre el trabajo de las ideas, los conceptos y los temas a explorar. Creo que los agentes ISA se sitúan mejor en una galería con una red de ordenadores en el centro, rodeados por múltiples altavoces. Esto es así porque el sistema ha sido diseñado para estar cambiando constantemente, lo que quiere decir que una actuación es solo un extracto. En el espacio de una galería el visitante puede seguir los desarrollos durante horas e incluso días, sin importar si el desarrollo en un determinado momento se hace aburrido. Tampoco es necesario que yo esté allí, situado en la escena como un actor tradicional. De esta manera, los elementos humanos pueden ser eliminados y la naturaleza autónoma será más aparente. Poniendo estos sistemas por otro lado, en las situaciones dónde el público espera  un actor, cambiando sus expectativas y normas culturales.

¿Actualmente estás preparando nuevas obras?, ¿cuándo podremos disfrutar de ellas en España?
El próximo 23 de Junio tengo una actuación en Radar (Madrid) empleando algunos sistemas de primera generación. Estoy pensando que después del concierto del 23 trabajaré a fondo durante 9 ó 12 meses, para, a continuación, presentar mis desarrollos a través de una serie de conciertos y exposiciones.

Háblanos de tu debut  en España el próximo mes de Junio en Radar.
Será una versión reducida de cosas que están en camino. Por ejemplo he estado trabajando con la generación de sonidos glitch desde sintetizadores comerciales y con sonido granular volando e interactuando en localizaciones espaciales. Los tipos de interacciones están relacionados con el movimiento espacial, densidades granulares, patrones de tono y mutaciones del patrón, registros de frecuencia y movimiento, niveles y formas dinámicas, variaciones en los parámetros de los efectos y trayectorias de ecualización. Hay muchas interacciones operando que afectan a la textura y sonido en pequeñas escalas de tiempo, pero estos sistemas tienden a crear similares estructuras en la composición global. Estoy trabajando en técnicas para más variedades de estructuras emergentes.

Habitualmente, las actuaciones en Radar son continuas, pero yo tengo que intervenir antes de que cada sistema comience, por esta razón habrá pequeños intermedios de 2 minutos. Cada sistema comprende alrededor de 7 a 9 agentes analizando y respondiéndose entre sí, cada uno controla aspectos diferentes del sonido global empleando algoritmos generativos, enviando cantidades ingentes de información MIDI al sintetizador y a la unidad de efectos, a veces, controlándose entre sí en el espacio sonoro con colisiones paramétricas.

¿Hacia donde crees que evolucionará la música electrónica en los próximos años? ¿Dónde ve Paul Webb la próxima frontera?
Es muy difícil predecir nuevas estéticas de sonido y música. Creo que cada vez más gente trabajará con autonomía interactuando con ordenadores, pero se necesitarán nuevas aplicaciones diseñadas específicamente para este propósito. Cada vez están siendo más y más comentadas por los medios la existencia de Soundtoys, y estos son programas que permiten a cualquiera hacer música electrónica, usando una combinación de procesos visuales, manipuladores directos e interacciones. Los ordenadores serán más pequeños, rápidos y baratos.