¿Cómo surgió la idea de Robot Software?
La semilla de la idea original se remonta a
1984 cuando estaba trabajando con un ordenador BBC y un Commodore
VIC-20. Tenía que aprender cómo programarlos y descubrí que
podía trasladar la lógica de la programación, con sus bucles y decisiones,
a una especie de “partitura” para controlar la salida de sonido
de estos ordenadores. Por ejemplo, en el BBC podía controlar las
envolventes y los pitches para las voces, de esta forma yo podía
desarrollar modelos controlados por código para envolventes, pitches
y volúmenes de tonos simples. Estos experimentos duraron aproximadamente
6 meses y no retomé la idea hasta 1988 cuando vi un cartel
en el departamento de informática para un concierto de música por
ordenador, donde la música era escrita por algoritmos. Éste fue
el mismo año que descubrí unos libros en la biblioteca sobre la
música por ordenador y grabaciones de Xenakis.
Pero no es
hasta 1991 cuando dedico totalmente mi tiempo a la música por ordenador
y los procesos algorítmicos para la composición, investigando sobre
cómo un ordenador puede componer música autónomamente. De
modo que Robot, los buenos chicos autónomos capaces de tomar sus
propias decisiones, son una analogía a las ideas básicas que he
estado poniendo en la música hecha por un programa.
Después de tres años dirigiendo
Robot Software ¿Cuál es tu balance del tiempo transcurrido y cuáles
son tus planes secretos?
Una cosa que tengo clara es que durante los
próximos años no quiero crear aplicaciones de música de shareware.
Sólo me concentraré en el desarrollo de software para mi propio
uso, para actuaciones y para instalaciones. Después de 3 años
concentrado en aplicaciones quiero volver a un papel de compositor
y artista, y no programador.
Lo anterior
no quiere decir que no esté satisfecho con los programas que he
producido en estos últimos años. Ellos me han permitido explorar
ideas sobre el papel del software en la música, tocando asuntos
que yo consideré importantes. Asuntos como la autoría de la obra,
música de duración infinita, la pérdida de una versión "ideal
y singular" producida por un sistema y las nociones pasadas
de moda de reproducción (de un original), contra las producciones
de un sistema generador de originales. Tomé la decisión de
no grabar nada de lo producido cuando pensé que esto debilitaba
uno de los puntos de estos sistemas –una nueva versión a cada clic
del ratón-. Todos estos temas son importantes en el campo de los
sistemas generativos.
Por ejemplo,
con Cellular Grid Machine consideré la música casi secundaria frente
a su proceso y mecanismo. Para mí la música era un excremento-auditivo,
el derivado del sistema y sus algoritmos. De esta forma nunca
haría un CD usando CGM porque la estética de la música “entregada”
está completamente integrada con su proceso y es inválida si se
separa.
Esto es totalmente
contrario a la filosofía de “Absolute Music” de Francisco López.
Esto es así porque yo escojo un revoltijo de procesos, procesos
que necesariamente no se inspiraron por un pensamiento musical cualquiera.
Recuerdo la lectura de una cita que decía "cualquier cosa diseñada
sin la música en la mente perjudica a la música "... Entonces,
como lo hice yo exactamente... sin la música en la mente.
Prometeo robó el fuego a los
Dioses para que los mortales no pasáramos frío y para que las noches
resultaran menos oscuras... ¿Crees que con herramientas similares
a las desarrolladas por Robot Software en algún momento no muy lejano,
la composición musical estará al alcance de todos? ¿Se producirá
un antes y un después? ¿Democratización? ¿Cuál es tu regalo para
los mortales?
Cuando estaba desarrollando CGM escribí sobre
la "Democratización de la Composición": "Una
era donde todos somos compositores y nadie es un oyente ",
lo que supondría "Cantidad sobre Calidad" y otras
conclusiones como el cuestionado giro de una forma de arte dentro
de una forma de entretenimiento.
Pienso que
las herramientas no deben hacer sencillo el proceso de “creación
artística”, es la dificultad de las herramientas lo que estimula
el uso y la actuación creativa. Si el software es amistoso para
el usuario probablemente es porque esta herramienta carezca de suficiente
flexibilidad expresiva y de un juego rico de conceptos, conceptos
difíciles que los diseñadores de software intentan evitar porque
excluirían a grandes sectores de un posible mercado. Además, la
composición no es sólo conocer cómo usar una herramienta, o conocer
cómo controlar la herramienta para hacerla tuya. Las mismas
ideas están apareciendo en el vídeo digital, “cualquiera puede ser
un creador de películas”. Conocemos cómo usar el botón de Record
en una cámara digital y el programa FinalCut y ya se piensa que
podemos hacer películas. Lo que está sucediendo es que hay abundancia
de películas mediocres hechas sin el conocimiento del lenguaje cinematográfico,
pero publicitadas usando la misma vieja retórica. Esta idea está
siendo manipulada como un “estilo de vida digital” para vender ordenadores,
y por compañías de producción que juegan a convertirse en Digeratis.
Cuando las
cosas son demasiado fáciles de hacer pierden valor, no creo que
la gente obtenga mucha satisfacción al comprar un software que componga
para ti. En ese momento surge la cuestión sobre el autor de la obra.
Con este tema pueden surgir muchos enfoques: el desarrollador del
software, la máquina o el usuario. La proximidad de cada uno de
ellos a la música generada es diferente. Para una herramienta de
“iCOMPOSITION " yo creo que el usuario es el más alejado.
Con las herramientas
de Robot Software los usuarios todavía necesitan configurar. Son
herramientas para automatizar la composición, no de composición
automática. Yo los diseñé con estas ideas en mente.
Pero yo pienso
que sí, que el software futuro permitirá a cualquiera componer música
y las personas no necesitarán saber cómo tocar un instrumento. El
software puede por ejemplo tomar una idea simple de un dibujo tuyo,
un gráfico, una melodía tarareada o un sonido y a continuación,
crear una composición completa. Él sugerirá mejoras o probar variaciones.
Tú le indicarás de esta manera o de esa otra. El usuario desempeñará
principalmente el papel de director creativo. El software tendrá
conocimiento de centenares de estilos musicales y podrá fusionar
estas bases de conocimiento. Será posible añadir la expresión sobre
el modo de reproducción, para que puedas indicarle hazlo triste,
feliz, ligero, oscuro o malhumorado. O haz que suene más a los ‘80,
más como Michael Jackson o como el álbum “Lick my I/O” de
los glicheBeatManiacs que apareció en el 2010.
Personas como
David Cope, han investigado bastante para conseguir que los ordenadores
puedan crear nueva música con el estilo de compositores clásicos
mediante el análisis de los trabajos de estos compositores y la
creación de una compleja base de conocimiento. Y Tod Machover, del
MIT, está trabajando en proyectos para permitir a los no-músicos
hacer música.
Hace unos años medio planeta
se conmociono con el fenómeno Tamagoshi. Aquello fue un ejemplo
muy básico de autómata orientado al entretenimiento. ¿Qué posibilidades
crees que pueden tener tus investigaciones el día de mañana? ¿Crees
que representarán una nueva forma de ocio y que incluso pueden
ayudarnos a desarrollar nuestras atrofiadas capacidades artísticas?
Este tipo de robots que mencionas tiende a tener
ciertos funcionamientos que los hacen seguros además de encajar
en las normas sociales. Disney no dudará en entrar en marketing
y promoción de robots con saludables características orientadas
a la familia. Los artistas a continuación, hackearán el código
y corromperán su funcionamiento para producir respuestas y funcionamientos
contestatarios, rehaciendo su sentido auditivo y su interacción
gestual con los humanos y otros robots. Si los robots “sienten”,
“piensan” y “actúan”, cada uno de estos componentes puede ser alterado.
Actualmente hay artistas mutando a Aibo, el perro-robot de Sony.
La industria
del sexo tiene un montón de dinero y los droides de placer serán
muy populares y descubrirán un mercado muy beneficioso. Esto
inspirará a los artistas, examinando los códigos políticos y culturales
de estos droides.
¡Quién desea
hacer arte cuando hay droides de placer!
Desde los tiempos de Pitágoras
ha existido la inquietud de buscar un modelo matemático que explicara
la música o la organización de los sonidos. Desde entonces hasta
ahora se han sucedido numerosas corrientes que de una u otra forma
han intentado formalizar la organización de sonidos, quizás las
más influyentes haya sido el formalismo markoviano, el enfoque lingüista
de Chomsky o los planteamientos estocásticos de Xenakis. Estas corrientes,
junto a investigaciones en torno a la geometría fractal, algoritmos
de vida artificial y algoritmos genéticos son el punto de partida
de numerosos modelos generativos. De todos ellos, ¿con cuáles has
experimentado? ¿Con cuáles te sientes más cómodo y cuáles crees
que ofrecen mayores posibilidades estéticas?
Los científicos intentan reducir un fenómeno
en unos pocos principios básicos y como sabios han hecho muchos
intentos de explicar la música con unas pocos principios básicos.
Uno de los mayores problemas con esto es que ellos asumen que ES
música. A continuación, si ellos deciden qué es música y qué no,
un artista puede proponerse violar intencionadamente todos estos
principios para crear una nueva forma de música. La música tiene
también un contexto cultural.
En estos días
hay científicos que con ordenadores están intentando “explicar”
los principios de la música con algoritmos e inteligencia artificial,
habitualmente, tomando algoritmos de otras disciplinas o campos
científicos con la esperanza de compartir los mismos profundos principios
de organización. Por ejemplo reuniendo algoritmos para emular el
comportamiento de las improvisaciones de Jazz. Pero terminan
fallando. ¿Por qué sucede esto? Yo no creo que sea un problema de
los algoritmos, pero alguno de estos científicos no tiene las ideas
claras sobre composición y sí mal gusto (¿y por qué siempre es Jazz?).
Los algoritmos
pueden sugerir organizaciones particulares, estructuras de sonidos
y sonidos pero se requiere que un compositor los escuche para que
los resultados se revelen interesantes, influenciándose y trabajando
con ellos. Una simbiosis algoritmos/compositor. ¿Esto es “COMPUTER
music” o “computer MUSIC”? Hay distinciones... aunque me gusta hacer
ambas.
Me ha sorprendido gratamente
que el sonido producido por tus últimos agentes ISA (Interactive
Sonic Agents) está muy próximo al microsound y al sonido glitch.
¿A quién le interesa más explorar estos territorios, a ti o a tus
criaturas?
Actualmente a mí, principalmente. Este proyecto
necesita mucho trabajo e investigación y me tomará algunos años
más. El sonido glitch producido es el resultado de dedicar algunos
meses a probar diferentes algoritmos para llevar al límite a la
Yamaha MU128 y ver qué sucedía. Con el sistema actual he seleccionado
alguno de esos algoritmos y los he agrupado dentro de un conjunto
de instrumentos específicos “glitch”. Éstos pueden ser controlados
de cierta forma y dentro de unas fronteras de funcionamiento. Alguno
tiene añadido código extra que funciona como “corruptor del proceso”,
cuando se activa causará la disfunción parcial del algoritmo. Los
agentes por sí mismos controlan estos instrumentos a partir de unas
simples reglas que yo les he puesto. La paradoja de los agentes
autónomos es que ellos tienen que ser diseñados y compuestos, en
este sentido ellos no son autónomos, son esclavos de su programación.
En lo que he escuchado, tus agentes
controlan vía MIDI una Yamaha MU128. ¿Hasta donde llegas en la programación
de sonidos en este tipo de máquinas para extraer ese sonido “DSP”?
Yo las llamo técnicas MIDI extendidas. Estas
técnicas fueron inspiradas por un artículo que leí en 1992 sobre
Síntesis Granular usando MIDI. Mediante el envío de cientos o
miles de notas muy cortas cada segundo y ajustando continuamente
sus envolventes, filtros y efectos se pueden obtener las ricas texturas
del sonido DSP. Todavía tengo mucho que investigar sobre esto. Esta
técnica presenta límites en términos del número de flujos en paralelo
y problemas de sobrecarga en el sintetizador (pero esto también
produce sonidos interesantes), pero los límites inspiran creatividad
e ideas. Diseñando algoritmos he encontrado otros sonidos
y formulas para controlar la distribución y cambios de notas pudiendo
emular por ejemplo crujidos eléctricos, ajustando densidades, distribuciones
de los rangos de pitch, filtros y ecualizadores. Estas técnicas
también implican que los métodos de cómo un agente “escucha” por
MIDI la salida de otro es más compleja. Típicamente, los sistemas
de música interactiva se han fundamentado en la interacción basada
en el “tema” musical o por datos MIDI a baja velocidad generados
en una performance. Tengo un problema extra ya que mis flujos
de datos van a velocidades superiores y representan además “la forma
de producir” el sonido glitch. Toma tiempo desarrollar un sistema
de reglas que conozca cómo interpretar este vasto flujo de datos
MIDI entrantes de manera útil, y aplicar una clasificación representativa
de la estética por los agentes.
¿En algún momento tus agentes
serán capaces de controlar la generación de sonidos programando
directamente en tiempo real los DSPs?
Tengo planes para usar la generación de sonidos
en tiempo real empleando DSP. Estoy considerando varios caminos.
Si cuento con el presupuesto suficiente compraré y emplearé una
Kyma. Pero también estoy considerando tener otro MAC corriendo registros
MAX-DSP, los cuales serán controlados por agentes vía MIDI. Otra
posibilidad es buscar clases C++ para DSP y usarlas, o escribir
mi propio C++ DSP y código Digital Sound. Hace algunos años trabajé
con algoritmos Digital Sound en Amiga y me gustaría emplear estas
técnicas de nuevo. ¿Cuándo? Puede ser este año, puede ser el año
que viene. Este paso significa que la forma en la que un agente
escucha a otros debe de cambiar. Tendré que dotarles de oídos artificiales
y aprender sobre procesos algoritmos para la percepción del sonido,
esto puede ser bastante difícil y no estoy muy seguro si deseo introducirme
en este campo.
Entrando en
las técnicas de escucha. Cómo un agente es capaz de extraer características
de la música producida por otro agente es un factor importante en
el proceso de composición. Esto es porque todos los componentes
del agente afectan a los otros, así que un agente extrae influencias
que él genera en dos escalas de tiempo, una inmediata y otra, en
un periodo más largo. Surgen cuestiones de cómo un agente es capaz
de escuchar únicamente pitches e interpretarlos como melodías si
él escucha el rápido caudal MIDI generado por otro agente. Estas
aparentes diferencias son interesantes y deber proporcionar algunas
interacciones inusuales.
En mi sitio
Web he escrito sobre conceptos como “reconocimiento reducido”. Dotando
a un agente con mínimos mecanismos de escucha, él es diseñado con
lo se considera por los improvisadores humanos, inapropiadas e insuficientes
habilidades para escuchar. Las técnicas de escucha son un factor
importan
El hecho de interconectar tus
agentes a través de MIDI puede limitar la escalabilidad cuando quieras
que participen docenas de ellos y que estos estén separados remotamente.
¿Crees que una posible especificación de MIDI sobre el protocolo
IP abriría nuevas posibilidades y aplicaciones a tus criaturas?
Más que los posibles problemas generados al
conectar docenas de ordenadores, el problema que he encontrado está
relacionado con los generadores al emplear técnicas MIDI de alta
velocidad debido al limitado ancho de banda MIDI. Si ellos enviaran
datos MIDI a velocidad normal no habría problema. Así que, la combinación
de técnicas rápidas con docenas de ordenadores representará el mayor
problema a resolver. Tendré que alterar la infraestructura y conectar
los ordenadores empleando interfaces USB o Firewire y tendrán que
intercambiar otra información.
No tengo intención
de usar ordenadores remotos, la proximidad física ayuda a asociar
a la idea de interacción.
Mi imaginación se dispara...
¿Has considerado alguna vez una comunidad de agentes ISA distribuidos
por todo el planeta, conectados entre sí por Internet y organizando
espontáneamente entre ellos Generative-Music-Chats?
Hacia 1991/1992 divisé la idea de gente interactuando
remotamente mediante PDAs ejecutando avanzado software musical de
inteligencia artificial, este software encontraba automáticamente
gente para unirla al grupo de improvisación, formando y cambiando
la red. Imaginaba que sería divertido estando en el metro o sentado
en el retrete. Los agentes que estoy diseñando en este momento están
trabajando para ser capaces de organizarse automáticamente dentro
de redes, buscando a otros agentes para poder improvisar con ellos.
Este sistema permite crecer con docenas y docenas de agentes diferentes,
alguno comenzará una sesión de improvisación mientras que otros
se desconectarán debido a que el entorno musical no sea de su agrado.
A esto lo llamo Ecología porque está basado en un entorno natural
donde las co-dependencias y las interacciones auto organizan. Algunas
criaturas se desarrollan mientras que otras se extinguen.
Cuando llegué
a Madrid, consideré la idea de convertir mi casa en una instalación
con múltiples altavoces en las paredes, en el sofá, bajo el fregadero
de la cocina, en los límites, etc. Todos con agentes ISA entre bastidores
y algunos sensores de detección de luz, temperatura, etc. Si no
en el planeta, puede comenzar en casa. He usado las palabras “PANDILLAS
DE INCESTUOSOS ELECTRODOMESTICOS, EN ORGIAS DE DATOS DE INFORMACIÓN
INTELIGENTE, INTERCAMBIAN SUS FLUIDOS PRODUCIENDO UNA PLACENTA MUSICAL
PARA TUS SISTEMAS DE ENTRETENIMIENTO DOMESTICO” para describirlo.
Estaba leyendo mucho a la vez sobre los dispositivos del hogar inteligente
y sobre la trasformación de la economía en puro intercambio de datos.
Tu formación es claramente académica
y los que te conocen te ubican en el ámbito electroacústico. ¿Es
esto así?
Yo diría que no. Los últimos diez años he estado
trabajando al margen de cualquier institución o compañía. Completamente
aislado en casa, es lo que prefiero. Sin distracciones, sin tener
que seguir un dictado sobre en lo que debo trabajar, o tener que
buscar la aprobación de mis proyectos.
Mis relaciones
con el mundo académico se circunscriben a lo que leo en publicaciones
académicas como ComputerMusicJournal, Organised Sound e Interface,
y en otros de documentos y ponencias, así como mi asistencia a festivales
de música electroacústica y conciertos. En términos de ideas para
trabajar con redes, música interactiva y estética de la interacción
me siento más influenciado por los pioneros de la escena Computer
Music de la Costa Oeste de los años ’70-’80. Mucha de esta gente
también trabajó independientemente. Musicalmente tiendo a escuchar
obras contemporáneas del 20 siglo de estilo clásico más que electroacústico,
pero actualmente tengo una creciente colección de microsound.
¿Crees que en estos tiempos es
sostenible la diferenciación entre el mundo académico y no-académico?
Según tu punto de vista, ¿esta “separación” es debida a cuestiones
culturales, generacionales o de formación?
En estas dos aproximaciones las fronteras cada
vez son más borrosas, se están empezando a entrelazar con cruces
beneficiosos. Muchas de las herramientas que fueron desarrolladas
en el mundo académico están llegando al gran público, como por ejemplo
MAX. Pienso que sucederá como en bellas artes, donde existen cruces
y mezclas pero donde todavía hay bolsillos independientes. Ahora
hay bastantes cursos de arte y sonido abiertos a personas sin formación
clásica a los que antes sólo podía acceder gente con conocimientos
de música. El cuerpo del conocimiento está siendo compartido por
todos, incluyendo las contribuciones de personas ajenas a las instituciones
académicas. En todo caso, éste no es un tema que ocupe mi tiempo.
Además de tus actividades como
desarrollador de software has creado instalaciones interactivas.
Estas obras han sido expuestas obteniendo el reconocimiento del
público en importantes eventos como el Sonic Arts Network Conference
de Birmingham. ¿Crees que la instalación sonora interactiva es el
vehículo ideal para trasladar al público tus investigaciones con
autómatas y algoritmos generativos?
Para las instalaciones el lugar es importante,
así como la influencia sobre el trabajo de las ideas, los conceptos
y los temas a explorar. Creo que los agentes ISA se sitúan mejor
en una galería con una red de ordenadores en el centro, rodeados
por múltiples altavoces. Esto es así porque el sistema ha sido diseñado
para estar cambiando constantemente, lo que quiere decir que una
actuación es solo un extracto. En el espacio de una galería el visitante
puede seguir los desarrollos durante horas e incluso días, sin importar
si el desarrollo en un determinado momento se hace aburrido. Tampoco
es necesario que yo esté allí, situado en la escena como un actor
tradicional. De esta manera, los elementos humanos pueden ser eliminados
y la naturaleza autónoma será más aparente. Poniendo estos sistemas
por otro lado, en las situaciones dónde el público espera
un actor, cambiando sus expectativas y normas culturales.
¿Actualmente estás preparando
nuevas obras?, ¿cuándo podremos disfrutar de ellas en España?
El próximo 23 de Junio tengo una actuación en
Radar (Madrid) empleando algunos sistemas de primera generación.
Estoy pensando que después del concierto del 23 trabajaré a fondo
durante 9 ó 12 meses, para, a continuación, presentar mis desarrollos
a través de una serie de conciertos y exposiciones.
Háblanos de tu debut en
España el próximo mes de Junio en Radar.
Será una versión reducida de cosas que están
en camino. Por ejemplo he estado trabajando con la generación de
sonidos glitch desde sintetizadores comerciales y con sonido granular
volando e interactuando en localizaciones espaciales. Los tipos
de interacciones están relacionados con el movimiento espacial,
densidades granulares, patrones de tono y mutaciones del patrón,
registros de frecuencia y movimiento, niveles y formas dinámicas,
variaciones en los parámetros de los efectos y trayectorias de ecualización.
Hay muchas interacciones operando que afectan a la textura y sonido
en pequeñas escalas de tiempo, pero estos sistemas tienden a crear
similares estructuras en la composición global. Estoy trabajando
en técnicas para más variedades de estructuras emergentes.
Habitualmente,
las actuaciones en Radar son continuas, pero yo tengo que intervenir
antes de que cada sistema comience, por esta razón habrá pequeños
intermedios de 2 minutos. Cada sistema comprende alrededor de 7
a 9 agentes analizando y respondiéndose entre sí, cada uno controla
aspectos diferentes del sonido global empleando algoritmos generativos,
enviando cantidades ingentes de información MIDI al sintetizador
y a la unidad de efectos, a veces, controlándose entre sí en el
espacio sonoro con colisiones paramétricas.
¿Hacia donde crees que evolucionará
la música electrónica en los próximos años? ¿Dónde ve Paul Webb
la próxima frontera?
Es muy difícil predecir nuevas estéticas de
sonido y música. Creo que cada vez más gente trabajará con autonomía
interactuando con ordenadores, pero se necesitarán nuevas aplicaciones
diseñadas específicamente para este propósito. Cada vez están siendo
más y más comentadas por los medios la existencia de Soundtoys,
y estos son programas que permiten a cualquiera hacer música electrónica,
usando una combinación de procesos visuales, manipuladores directos
e interacciones. Los ordenadores serán más pequeños, rápidos y baratos.
|