Estratégias composicionais na interação homem-máquina

Cristiano Figueiró é formado em Violão erudito pela UFSM, Mestre em Composição e novas tecnologias pela UFG e atualmente cursa o Doutorado em composição pela UFBA. Sua pesquisa se foca no desenvolvimento  de um sistema interativo  de composição e performance.

Introdução

Esse artigo apresenta alguns aspectos de minha pesquisa em sistemas musicais interativos. A motivação dessa pesquisa vem de vários desejos: o desejo de compreender os ambientes composicionais assistidos por computador e sua interação com o universo sonoro dos instrumentos tradicionais, e dentro dessa perspectiva desenvolver uma consciência composicional e progredir na busca por uma identidade artística. E também o desejo de aprimorar o meu sistema pessoal  de composição interativa para um nível de autonomia e independência de maneira que eu possa me reconhecer musicalmente nele, que tenha capacidade de aprender padrões melódicos, rítmicos e harmônicos de minhas performances como também padrões de resposta e de diálogo entre músicos.
Durante meu mestrado desenvolvi composições musicais para instrumentos tradicionais e computador rodando Max/Msp, de maneira que o computador se sincronizasse com a performance do músico através de um score-follower*. Essa experiência me motivou a continuar na pesquisa no campo de sistemas musicais interativos. Um campo que tem como marca a multidisciplinaridade por exigir conhecimentos em diferentes níveis em música, computação, eletrônica, cognição musical e outros campos adjacentes e derivados.                                                                                                                                                                              O campo de pesquisa em sistemas musicais interativos consiste em sistemas de software e hardware criados para o fazer musical, mais tipicamente na performance de concertos ao vivo combinando máquinas e músicos humanos. Os trabalhos atuais nesse campo incluem ao mesmo tempo a análise de áudio em tempo-real, cognição musical e experiências em IA e robótica.
Nesse artigo, serão expostos alguns tópicos que norteiam a pesquisa em sistemas musicais interativos: Composição algorítmica – interação entre compositor e  processo composicional, compondo Música interativa,  Pure data e novos desenvolvimentos em interfaces com o universo físico.


Composição algorítmica – interação entre compositor e  processo composicional

Um algoritmo é uma sequência não ambígua de instruções que é executada até que determinada condição se verifique. Mais especificamente, em matemática, constitui o conjunto de processos (e símbolos que os representam) para efetuar um cálculo. Na composição algorítmica, delegamos tarefas ao computador, transformando-o em nosso assistente composicional. Segundo Roads (1996):

“Modelos de processos são naturais ao pensamento musical. Enquanto escutamos, parte de nós bebe na sensual experiência do som , enquanto outra parte está constantemente colocando uma espera perceptual, e fazendo isso, construindo hipóteses de processos musicais. Compositores sabem há séculos que qualquer processo musical pode ser formalizado em uma representação simbólica. Uma composição algoritmica formal é uma máquina de criação musical; neste caso o computador pode servir como um veículo para idéias musicais.”*
Com a possibilidade da composição algorítmica, o compositor pode ampliar a sua “personalidade musical”, descobrindo sons e estruturas que ainda não conhecia. Segundo Burt (1996):” …eu, a qualquer preço, acho muito mais válido usar métodos algorítmicos como meios de descobrir o que eu não sei, antes de fazer o que eu já sei. Para mim, este tem sido um método de expansão dos meus gostos, uma ferramenta para o crescimento individual, antes de um método de expressar o que eu já senti.” Esssa colocação sintetiza a estratégia pessoal do compositor no sentido de se expressar criando um espaço de diálogo com a subjetividade de seu próprio gosto que é um sentimento não-passivo, que se diferencia da sensação que é modo como nos relacionamos com os objetos externos, sendo portanto, receptiva; ao contrário, o gosto não é uma simples faculdade de registro e análise. Ele possui uma verdadeira virtude criadora, portanto ponto fundamental de auto-análise no trabalho composicional. Neste sentido, a composição por algoritmos pode fornecer material em diversos níveis como timbres/processamento de sinais, sequências de notas, dinâmicas, articulações, gestos, estruturas ou até a forma.
Ao pensarmos em composição assistida por computador e ambientes composicionais interativos, podemos dizer que a pesquisa nesse contexto se torna o processo em si, antes do produto. O que coloca um novo paradigma para o fazer musical mais próximo da pesquisa científica. A relação criada através da analogia entre composição musical e pesquisa tecnológica provoca mal entendidos no senso-comum. Em relação a isso, Ferraz (1999), acrescenta:
“[…]a pesquisa corre exatamente no rumo em que corre o compositor, ela é ato de criação. Mas o que ela cria não é a composição musical, se bem que se cruzem. A música não tem por papel criar funções ou conceitos. Ela cria sensações, ela distorce funções e conceitos. Veja-se por exemplo todo o trabalho de composição com algoritmos, o que resulta não são números, nem sequer são relações numéricas, e não é isto que ouvimos. Até as composições por algoritmos desembocam num jogo de sensações, de perceptos e afectos.”
Pode-se ainda acrescentar que a aproximação do fazer musical com a pesquisa científica permeia toda a vanguarda musical do século XX, resultando esta característica da ênfase no processo, ter chegado ao nível de que, muitas vezes pré-conduz a percepção de uma obra.
Quando propõe-se a desenvolver um processo composicional em determinado software, deve-se perguntar: o que veio primeiro, a idéia ou a possibilidade? Minhas idéias são limitadas pelas possibilidades existentes? Em qual nível o algoritmo pré-definido desse programa está conduzindo meu fluxo criativo-musical? O compositor Sílvio Ferraz, que no seu artigo “Criação musical com suporte tecnológico” (1999), trabalha com a idéia de que o pensamento composicional induz a criação de ambientes de composição ao computador, expõe:

“É interessante notar que esta passagem da matéria sonora a material composicional, embora pareça rápida, ela já vem permeada por processos previstos no próprio software. Ou seja, a passagem não é tão rápida assim, tal qual quando nos defrontamos com composições realizadas com base em processos composicionais já tradicionais (a tonalidade, as improvisações modais ou os modelos seriais): a aparente intuição e rapidez com que a matéria sonora se torna material composicional não se dá senão por ingenuidade, pois os processos todos de transformação já vem previstos e largamente desenvolvidos no próprio campo de composição.”
Em relação à interação que a composição algorítmica propicia ao compositor, Roads (1996) nos fala:

“Para um compositor que não é um programador, programas de composição totalmente automatizados exigem pouco em termos de criatividade. A interação com o compositor é limitada em suprir uma pequena quantidade de dados, como sementes, necessários a execução do programa[…].Um caminho de passar através da estratégia fixa é modificar a lógica do programa. Neste caso, um compositor que também é programador retém toda a responsabilidade.”
Este parágrafo sintetiza o desafio do compositor contemporâneo, que é o fato de dispôr de um arsenal sonoro em um computador e ter que aprender a controlar isso de maneira que sua inventividade composicional não seja guiada por pré-configurações de software.


Vídeo 1: Nesse vídeo podemos observar uma improvisação sendo realizada entre dois computadores e um piano, usando o programa Pure data, onde os computadores disparam sequências algoritmicas criadas em tempo-real pelo programa.


Compondo música interativa

Uma constante no trabalho composicional de caráter interativo é o desejo de se agregar maior nível de interatividade tanto no nível da composição quanto no nível da performance. Segundo Almeida (1997):

“Tornar um sistema interativo significa dar ao compositor diferentes níveis de acesso, seja no nível timbrístico, no nível de construção de eventos sonoros, ou no nível macro, no planejamento da estratégia composicional. Sob este ponto de vista, o sistema seria um tipo de assistente musical, cabendo ao compositor a terefa de formular o melhor possível o problema a ser resolvido, e escolher o assistentemais adequado. Um ambiente interativo de composição musical se assemelha a uma caixa de ferramentas. A flexibilidade destas ferramentas permite aos compositores o domínio dos processos composicionais”.
O problema está em como fazer o computador responder aos impulsos que o músico lhe manda. O histórico de pesquisa em música computacional nos leva à peça Hornpipe de Gordon Mumma de 1967. Segundo Nyman (1974):

“Hornpipe é uma composição para Trompa solo modificada com console “cibersônico”. O console é um tipo de computador analógico que é usado pelo performer e preso ao seu cinto (o que possibilita se ver muito claramente como os artefatos eletrônicos podem ser literalmente uma extensão do performer e seu instrumento). A Trompa em si é modificada com várias palhetas em vez do bocal convencional e com chaves rearranjadas que permitem que o som seja ouvido de diferentes partes do instrumento[…]o que o circuito do console faz é monitorar as ressonâncias da Trompa no espaço da performance e se ajustar para complementar estas ressonâncias[…]Estas respostas, ouvidas através dos alto-falantes, por sua vez produzem três tipos de atividade sonora além do som puro da trompa – a Trompa em conjunto com sons eletrônicos, sequências somente de sons eletrônicos de longas respostas cibersônicas, e sons eletrônicos articulados diretamente pelos sons produzidos pela Trompa.”

Vídeo 2: Nesse vídeo podemos conferir o sistema de Mumma em ação com o próprio tocando serrote.

Muitos trabalhos interativos caminham no sentido da extensão física e virtual das possibilidades dos instrumentos tradicionais. É o caso da peça Mirror-Rite de Jonathan Impett (1996), que é para “meta-trompete”, computador e live-electronics. A composição não possui notação nem gravação, mas ela se forma como um complexo de estruturas baseadas em regras, transformações e processos sobre a improvisação de um performer em tempo-real. Segundo Impett (1996): “O meta-trompete é um sistema interativode integração instrumento-interface-composição. […] Aspectos físicos da performance inerente ao trompete são abstraídos e estendidos para resultarem tanto em parâmetros de controle como em material composicional. O sistema tem um conhecimento de seu passado, estado presente e, por análise, aspectos da natureza de seu comportamento.” O sistema desta peça se alimenta de dados provindos de sensores no palco, nas chaves do trompete e dos sons emitidos pelo trompete. Estes dados são filtrados e processados em diferentes níveis como a realização dinâmica da forma da composição, parâmetros de síntese e processamento e acionamento de samples. O performer tem acesso direto ao nível composicional, através do seu comportamento, manuseando dinâmicamente a forma e o caráter.
O campo de pesquisa em sistemas musicais interativos  consiste em sistemas de software e hardware criados para o fazer musical, mais tipicamente na performance de concertos ao vivo combinando máquinas e músicos humanos. Os trabalhos atuais nesse campo incluem ao mesmo tempo a análise de áudio em tempo-real, cognição musical e experiências em IA e robótica; um projeto inspirador nesse campo é o MahaDeviBot de Ajay Kapur, que é um robô percussionista armado de treze tambores, capaz de se sincronizar com um sitarista humano através de sensores.

Vídeo 3: MahaDeviBot em ação com seu criador.

Segundo a classificação de sistemas musicais interativos de Rowe (1993) este é um sistema centrado no paradigma da performance, focando tanto no instrumento quanto no performer. A classificaçãode sistemas musicais interativos de Rowe prevê 3 dimensões de classificação de sistemas:
1.Programas dirigidos pela “partitura” (score-followers) ou dirigidos pela performance (interação pela improvisação);
2.Diferenças em relação ao método de resposta pelo sistema que podem ser: transformativos, generativos ou sequenciados.
3. Distinção entre paradigmas de construção do sistema. Podemos distinguir entre sistemas com paradigma no instrumento, com a idéia de extender virtualmente as capacidades tradicionais dos instrumentos gerando estruturas como hiper-instrumentos. E finalmente sistemas calcados no paradigma do performer que tentam construir músicos artificais, uma presença musical com personalidade e comportamento próprios com graus diferentes de intervenção e influência do músico humano.
Alguns projetos relacionados podem servir como fonte de inspiração pra a presente pesquisa como o Cypher de Rowe (1993) que usa a metáfora da sociedade da mente de Minsky na forma de músicos artificiais dentro de um sistema multi-agente – o Meta-Cypher inclui múltiplos ouvintes e performers além de um meta-ouvinte. O Drum Circle de Arne Eigenfeldt (2006) é um sistema escrito em Max/MSP e explora o uso de multi-agentes sobre uma rede local onde cada agente emula um percussionista improvisando em um grupo de tambores, tendo como resultante um ritmo evolutivo.
Um dos projetos mais amplos nessa área é o projeto Omax Brothers (2007), desenvolvido no Ircam. Um sistema multi-agente criado para improvisação musical entre homem-máquina que aprende em tempo-real com o performer humano. O núcleo da improvisação é baseado em modelamento de sequência e aprendizado estatístico. O sistema envolve uma arquitetura híbrida usando dois ambientes populares para composição e performance, OpenMusic (baseado em Lisp) para modelamento e programação de alto nível e Max/Msp para a performance do sistema e processamento de áudio em tempo-real.

Estratégias na interação homem-máquina


No seu livro “Composing Interactive Music – Techniques and Ideas Using Max” (1996), Todd Winkler nos apresenta uma visão ampla sobre as possibilidades do ambiente MAX, além de considerar a dinâmica da composição, onde o ambiente composicional, muitas vezes, conduz o pensamento, afastando da idéia original ou levando a produzir resultados diferentes.
Segundo Winkler (1996): “A multiplicidade de opções disponíveis para a música interativa deixa a arte de compor mais difícil. As possibilidades técnicas sozinhas, podem ser irresistíveis: sampleamento, síntese e processamento de sinal, estruturas lineares e não-lineares, algorítmos improvisacionais, performance improvisacional, partituras totalmente notadas, resposta computacional sequenciada, e assim por diante. Se trabalhando sob uma perspectiva de “top-down ou bottom-up”, o que é necessário é um forte conceito estético ou guia que irá ajudar a definir o propósito, a maneira, os limites, e o campo de ação do trabalho. Fenômeno científico, emoções, poesia, relações humanas, narrativa, processos musicais, som e artes visuais são algumas das influências que podem guiar o processo de modelagem. Um claro conceito de como idéias musicais são realizadas através de relações interativas também irá sugerir como estruturas musicais são formadas. Ainda que abordagens bottom-up sejam estenciais para a pesquisa e experimentação, ao definir o trabalho como um todo, seu propósito essencial, irá ajudar a inspirar uma apropriada estratégia composicional.”

Em relação a escolha da estratégia certa de trabalho em relação a proposta composicional Winkler coloca:

“Não existe muito objetivo em ir atrás do trabalho de criar e tocar uma peça interativa se muito pouco irá mudar de uma performance para outra. Para trabalhos pré-determinados que requerem pouca interação, o formato tape e instrumento tem a prática vantagem de ter maior garantia em relação a defeitos, playback confiável, portabilidade e fácil distribuição. E além disso, trabalhos bem elaborados podem simular interação computador/performer, incorporando as trocas esperadas de tempo do performer, dinâmicas, timbre, articulaçãoe fraseado em uma parte num suporte fixo. Ainda assim, a interpretação do performer não é refletida no playback, e a indiferença é especialmente notada no que diz respeito ao tempo. Outros potenciais problemas de sincronização originam-se quando o tape requer paradas e recomeços durante uma performance, ou, em peças longas, podem requerer a localização do começo de seções para ensaios. Em fato, muito das primeiras pesquisas em sistemas de música interativa foram em resposta a estes problemas.”
Sobre a peças que proponham a improvisação e ações indeterminadas do computador, Winkler nos fala: “Este tipo de trabalho tem uma grande amplitude de possibilidades. Na maioria dos exemplos, um performer pode tocar qualquer coisa, e o computador irá responder com algo que é inesperado e não repetível, mas que, espera-se, tenha senso para o performer e para o público. Com total liberdade vem a possibilidade de se produzir resultados selvagemente randômicos, caóticos e incompreensíveis. A sensibilidade e habilidades do performer são mais cruciais para o sucesso deste tipo de trabalho, como também são as capacidades de resposta do software.”
Independente da técnica ou da estratégia composicional utilizada, uma constante é de que a técnica em si orienta ou conduz o processo criativo. Winkler (1996), possui uma opnião de que a técnica se submete ao conceito composicional: “Elas irão inevitavelmente refletir os conceitos musicais e a estrutura ditada pela demanda da composição e a desejada qualidade de interação”. Devemos lembrar que esta declaração vem de um compositor com larga experiência em programação e desenvolvimento tecnológico.

Pure Data

O Pure data (Pd) pode ser considerado atualmente como um dos melhores e mais poderosos programas para composição de música interativa aliando as possibilidades computacionais de síntese sonora e processamento de áudio a um ambiente gráfico de programação voltado à interação sonora em tempo-real. Se trata de um programa gráfico com interface amigável, multi-plataforma, com o código fonte aberto, e com formato não proprietário. Ele é a terceira maior ramificação da família de programas que usam linguagem de programação modular, conhecida como Max (Max/MSP, jMax, etc.) originalmente desenvolvida por Miller Puckette (IRCAM). O núcleo do Pd é escrito e mantido por Miller Puckette e adicionado ao trabalho de muitos outros desenvolvedores.

Uma das principais dificuldades da composição com Pure data é a ausência de uma linha do tempo explícita visualmente onde se pode descrever os eventos temporalmente. Os músicos tem sua formação baseada na notação musical tradicional que estabelece uma cadeia de binômios de parâmetros de estruturação sonora [Zampronha, 2000] como altura versus ataque, duração versus articulação ou métrica versus expressão. O sistema da notação tradicional tem uma estrutura que possui uma sequencialidade temporal dos eventos explícita. A adaptação dos músicos à ambientes de composição e design sonoro como Csound tende a ser natural pela sequencialidade temporal explícita nos dois sistemas (a partitura tradicional e a partitura do Csound). No Csound os eventos temporais são descritos em um arquivo de texto puro chamado “partitura”. No exemplo abaixo o instrumento 1 (i1) toca três notas sequencialmente com frequências de 220, 440 e 660 hertz respectivamente. Todas as notas duram 1 segundo e começam nos tempos 0, 1 e 2 respectivamente.

i1 0 1 220

i1 1 1 440

i1 2 1 660

Programas como Max e Pd são convidativos por permitirem uma programação intuitiva similar a um fluxograma. Por outro lado, o fato do design do Pd ser calcado na performance em tempo-real pode gerar dificuldades de organização dos dados composicionais como notas, acordes, eventos e mudanças de parâmetros de síntese devido a falta de uma sequencialidade temporal de eventos explícita.

Programadores são acostumados com linguagens de programação de uso geral como C, Lisp ou Pascal que, assim como a notação musical tradicional, tem sua gramática baseada na sequencialidade das ações. A vantagem de usar uma ferramenta de síntese embutida em uma linguagem é que se pode ter uma flexibilidade muito maior na criação de relações entre os elementos devido a possibilidade de criar novas abstrações. No exemplo abaixo podemos ver a definição do instrumento simp que implementa um oscilador (osc) com envelope (make-env).

(definstrument simp (start dur frequency amp &optional

(amp-env ‘(0 0 .5 1.0 1.0 0)))

(multiple-value-bind (beg end) (times->samples start dur)

(let ((osc (make-oscil :frequency frequency))

(amp-env (make-env :envelope amp-env :scaler amp

:dur dur)))

(run

(loop for i from beg below end do

(outa i (* (env amp-env) (oscil osc))))))))

Esse instrumento pode ser utilizado de uma maneira semelhante ao exemplo do Csound anterior:

(with-sound ()

(simp 0 1 220 1)

(simp 1 1 440 1)

(simp 2 1 660 1))

Uma possível implementação do mesmo instrumento (simp) no Pd pode ser vista na figura 1, onde duas notas com frequências de 440 e 660 Hz respectivamente são tocadas. A primeira caixa de mensagem tem o argumento 440 que se refere a frequência da primeira nota. Quando essa caixa é acionada ouvimos a primeira nota e ao mesmo tempo ela aciona o objeto delay com o parâmetro de 1000 ms. Esse objeto agenda no intervalo de 1 segundo a ação da próxima caixa de mensagem com parâmetro de 660 Hz. Para tocar apenas duas notas foram necessárias três caixas (duas de mensagem e uma de objeto) além de cinco ligações. É fácil observar que a complexidade vai aumentar proporcionalmente ao número de notas utilizadas.

Figure 3: 2 notas num oscilador simples

O fato do Pd ser uma linguagem gráfica possibilita uma facilidade de descrição do processo de síntese sonora pelo fato de que o próprio patch é semelhante ao fluxograma tradicional de representação da síntese. A estrutura de um fluxograma possui uma sequencialidade implícita (da saída final até os parâmetros de cada gerador), mas não explicita como vão ser manipulados os parâmetros nem qual será a duração da música.

Os ambientes Max e Pd são construídos sob o paradigma do envio da mensagem que não necessariamente possibilita que a linguagem seja adequada para o armazenamento e a recuperação de dados. A abordagem do Max e Pd quanto aos dados é ao mesmo tempo simples e evasiva: objetos especiais de armazenagem de dados como table, qlist, dentre outros são disponibilizados. Os dados são essencialmente colocados dentro de objetos contêiner, e para cada tipo de objeto-conteiner uma abordagem particular é colocada para sua armazenagem, edição, interface e comunicação com o resto do patch. A composição em Pd tem como característica a facilidade do controle de síntese, porém exige um tratamento especial na metodologia empregada no controle de eventos temporais. Segundo Puckette (2004):  “the Pd patch looks more complex than the C code. One possible reason for the complexity is the dificulty of sequencing actions in Pd patches, which lack the natural sequentiality of a text programming language like C”. O fato de cada objeto de controle temporal apresentar uma sintaxe diferente pode ser antes um convite a criatividade composicional do que um problema estrutural da música resultante.

Vídeo 4: Pequeno tutorial de utilização do Pd para ler uma forma de onda que é desenhada em tempo-real.

Novas interfaces físicas
Atualmente estamos saindo de uma fase de extremo fetiche genérico pela “tela do computador” e entrando em uma nova fase de interação musical através de hardware com o computador. Diversos projetos tem sido amplamente desenvolvidos como por exemplo a plataforma Arduíno e toda a discussão sobre hardware livre, o Nintendo Wii e a ReacTable desenvolvida pelo grupo de computação musical na Universidade Pompeu Fabra em Barcelona. A transcendência dos comandos de computador para o controle manual de objetos no mundo real tem sido um elemento revigorante na pesquisa em interação musical. Outro ponto é a re-descoberta do prazer pela criação de novos instrumentos embutido em novos conceitos emergentes como circuit bending e o artesanato digital. Essa abertura está possibilitando que os músicos agreguem elementos de performance a suas composições eletrônicas, trazendo os compositores de volta aos palcos, trazendo para a mesma realidade a ancestralidade do ritual musical e a parafernália digital da música do século XXI.

Vídeo 5: Demonstração de uso da ReacTable.

Vídeos 6 e 7: Demonstração de uso do Arduíno com sensores de distância.

Vídeo 8: Nesse vídeo o guitarrista amarrou um dispositivo Nintendo Wii ao corpo da guitarra. Esse dispositivo manda mensagens ao computador via Bluetooth. O som da guitarra também está entrando no computador , portanto quando o guitarrista movimenta o instrumento o dispositivo Bluetooth manda mensagens ao Pure data no computador, controlando assim a manipulação do som da guitarra.

Referências Bibliográficas

ALMEIDA, Anselmo Guerra de. A arte como modelo de interatividade. In:Anais da Anppom, 1999.

ASSAYAG, G. (G. Bloch, M. Chemillier, A. Cont, S. Dubnov. Omax Brothers): A Dynamic Topology of Agents for Improvization Learning . In: Proc. ACM Workshop on Music and Audio Computing, 2006.

CAESAR, Rodolfo. Novas interfaces e a produção eletroacústica. In: Anais do SBCM, Brasília, 1997.

ECO, Umberto. Obra Aberta. Perspectiva, São Paulo, 1992.

EIGENFELD, A. Drum Circle: Intelligent agents in Max/MSP. In:  Proceedings of the International Computer Music Conference, Copenhagen, 2007.

FERRAZ, Silvio. Criação musical com suporte tecnológico. In: Anais da Anppom, 1999.

Composição e pesquisa: A categoria compositor-pesquisador ou o compositor que se perdeu num tubo de ensaio. In: Anais da Anppom, 2000.

KAPUR, A, et al… Integrating hyperinstruments, musical robots & machine musicianship for North Indian classical music. In: Proc. NIME, pages 238-241, 2007.

LEE, Allan S. C. Granular Synthesis in Csound. In: The Csound Book, MIT Press , Massachussets, 2000.

MCLUHAN, Marshall. Os meios de comunicação como extensões do homem (Understanding Media). Cultrix, São Paulo, 1993.

NYMAN, Michael. Experimental music – Cage and beyond. Schirmer Books, New York, 1974.

PUCKETTE, M. A divide between ‘compositional’ and ‘performative’ aspects of pd. In: Proceedings of the First Pd convention,  2004

ROADS, Curtis. Computer music tutorial. MIT Press, Massachussets, 1996.

ROWE, Robert. Interactive Music Systems. MIT Press, Cambridge, Massachussets, 1993.

TOOP, Richard. György Ligeti. Londres, Phaidon Press, 1999.

WINKLER, Todd. Composing Interactive Music – Techniques and ideas using Max. MIT Press, Massachussets, 1993.

XENAKIS, Iannis. Determinacy and indeterminacy. In: Organised Sound, Vol. 1, Nº 3, December 1996. Cambridge University Press, Cambridge, 1996.

ZAMPRONHA, Edson. Notação, Representação e Composição – Um novo paradigma da escritura musical. São Paulo, Annablume/Fapesp, 2000.


* Score-follower: capacidade do programa de seguir a partitura que está sendo executada pelo instrumentista.

* Tradução do autor desse artigo

Author Image

RUA

RUA - Revista Universitária do Audiovisual

More Posts

RUA

RUA - Revista Universitária do Audiovisual

Este post tem 2 comentários

  1. Author Image
    Alessandra

    Nossa é muito difícil compor através do csound!

Deixe uma resposta