Entre a produção e a mediação sonora: a presença de alto-falantes na experiência musical

Sérgio Freire possui graduação em Música – composicao pela Universidade Federal de Minas Gerais (1990), mestrado em Sonologia – Instituut Voor Sonologie – Koninklijk Conservatorium (1993) e doutorado em Comunicação e Semiótica pela Pontifícia Universidade Católica de São Paulo (2004). Atualmente é professor adjunto da Universidade Federal de Minas Gerais. Tem experiência na área de Artes, com ênfase em Composição Musical e Sonologia, atuando principalmente nos seguintes temas: composição musical, música e novas tecnologias, sistemas musicais interativos.

sfreire@musica.ufmg.br

http://www.musica.ufmg.br/~sfreire

Resumo:

O texto aborda de forma panorâmica as grandes mudanças ocorridas na experiência musical a partir da virada do século XX, devido ao desenvolvimento de novas tecnologias de produção e reprodução sonoras. Em uma primeira etapa, podemos caracterizar essas mudanças através de uma escuta musical que acontece predominantemente através de alto-falantes; já na etapa atual, baseada na representação digital dos sons e da própria realidade, nota-se a convivência de experiências já bastante consolidadas ao lado de idéias e possibilidades ainda não devidamente exploradas.

A transição entre os séculos XIX e XX trouxe rupturas significativas e duradouras para a experiência auditiva: juntamente com a superação das limitações de tempo e espaço, intransponíveis até então, destaca-se também o fim da causalidade mecânica na geração sonora. Sons de outros lugares e momentos passam a fazer parte do ambiente sonoro, trazidos pelo telefone, gramofone e rádio. Novos instrumentos musicais elétrico-eletrônicos são desenvolvidos, cuja produção sonora já não passa por uma ação direta de causa e efeito sonoro. Uma percepção puramente auditiva, tradicionalmente ligada a situações de tensão (escuro, sons produzidos fora do alcance visual), passa a se incorporar à vida cotidiana de boa parte da população mundial.

A música – tanto em sua produção quanto em sua recepção – também passa por grandes transformações, embora mantenha sua denominação nessa transição que a leva de um acontecimento bastante definido no tempo e no espaço (música ao vivo) a um produto industrial de ampla distribuição (música gravada). As diferenças entre música ao vivo e música gravada são variadas, e abrangem tanto aspectos técnicos quanto subjetivos. A autonomia oferecida ao ouvinte para escutar (“tocar”) uma obra musical quando e onde quiser é certamente o efeito mais significativo da gravação sobre a experiência musical.

Características e limitações das técnicas de gravação de diferentes períodos também influem diretamente nessa experiência. A gravação mecânica, vigente até os anos 20, definiu as características fundamentais de seu repertório: uso de vozes potentes, obras de curta duração, instrumentação condicionada às possibilidades de captação. A introdução da gravação elétrica (com a invenção dos microfones) proporcionou a construção de novas formas de equilíbrio sonoro, impensáveis em situações puramente acústicas: é o caso dos crooners, capazes de cantar com uma voz suave e clara, ao mesmo tempo em que são acompanhados por conjuntos de grande potência sonora. A exploração de diferentes tipos de reverberação também se inicia nessa época.

A disseminação dos gravadores de fita magnética após a segunda grande guerra proporcionou o desenvolvimento de uma nova técnica de estúdio: a edição ou montagem, na qual trechos de diferentes execuções de uma obra podem ser montados lado a lado, criando-se assim a ilusão de uma performance praticamente sem erros. A introdução da estereofonia, nos anos 50, já que as gravações passam a oferecer à escuta uma ambientação espacial, com sensações de profundidade e largura similares aos de uma sala de concertos. A gravação multicanal, amplamente difundida a partir dos anos 60, possibilita que a gravação de uma obra musical possa contar com as contribuições de músicos que tocam em horários e locais diversos (e que talvez nunca tenham se encontrado pessoalmente).

O desenvolvimento de técnicas de processamento sonoro e de instrumentos eletrônicos permite o surgimento de novos estilos musicais, como o rock. Todo este processo foi induzido/acompanhado por uma indústria fonográfica, que nas últimas décadas do século XX conseguiu construir um setor com altíssimo grau de concentração – a produção super-localizada de músicas e sua distribuição globalizada -, que atualmente começa a ser desafiado pelas novas tecnologias digitais de produção e transmissão de dados.

É interessante notar que o conceito de gravação como “documentação” de uma performance ao vivo, primeiramente utilizado para a legitimação de gravações, seja ainda bastante forte na apreciação musical, apesar de todos os artefatos utilizados na construção de um fonograma. Se, por um lado, foi comum a caracterização pejorativa de uma gravação como música enlatada (canned music[1]), por outro lado, foram também várias as iniciativas tomadas para se mostrar a equivalência entre as versões ao vivo e gravada de uma mesma obra. Thomas Edison, por exemplo, realizou uma curiosa campanha de marketing para seu diamond disc, entre 1915 e 1926, que foi baseada em tonetests:

Um artista posiciona-se ao lado do New Edison Phonograph e canta ou toca. De repente, e sem aviso, o artista pára e o New Edison continua sozinho. O teste consiste em verificar se o público, de olhos fechados, pode dizer quando o artista parou de cantar ou tocar. Onde as instalações permitem, as luzes são apagadas de repente e o artista se retira do palco, deixando o New Edison realizar seu feito miraculoso de recriação da voz do cantor ou da performance instrumental – com tal realismo que o público não se dá conta da retirada do artista até que as luzes sejam novamente acesas.[2]

Esta mistura de atuação musical ao vivo com gravações realizadas anteriormente é ainda bastante comum nos dias de hoje, como pode ser constatado em karaokês e performances de DJs. No caso de grandes shows, o desafio que se vive é o inverso dos tonetests de Edison: para que a qualidade da performance e da sonoridade ao vivo seja similar à da gravação, muitas vezes  lança-se mão de um playback das seções de estúdio, seja para cobrir falhas eventuais ou mesmo para que o músico atue apenas dublando sua própria gravação.

A exploração das técnicas de estúdio não apenas como construção de uma “documentação” (reprodução) musical, mas como ferramentas de produção sonora de sons inauditos, também contou com várias iniciativas e pensadores durante o século XX: Vertov[3], Weill (1925), Ruttmann (1929), Arnheim (1933), Schaeffer[4] e demais praticantes do gênero chamado a partir de 1958 de música eletroacústica. Aqui, a dependência de alto-falantes para que essa música aconteça é total, pois não há outra maneira de se tocá-la (ou escutá-la). Mas não seria justo atribuir esta exclusividade à música eletroacústica de concerto, pois se torna cada vez evidente a dependência da maior parte da produção musical atual (excetuando-se os concertos puramente acústicos) de alto-falantes para sua verdadeira apreciação. Seria melhor dizer que a distinção entre produção e reprodução

encontra-se menos na função do aparelho do que naquilo que é proposto ao ouvinte através do alto-falante: a documentação da execução musical de uma obra existente, uma criação totalmente original, ou ainda uma proposta situada em algum ponto entre estes dois extremos.[5]

Essa dupla função do alto-falante, de servir ao mesmo tempo como uma fonte sonora real e como uma espécie de “buraco” por onde entram sons de outros momentos e lugares, proporciona que ele assuma outras funções além de sua utilização básica, que é a de amplificar sons. Em eventos artísticos ao vivo (concertos, shows, peças, espetáculos de dança, instalações de arte sonora, performances), os alto-falantes podem ser fonte de ambigüidades desejáveis, as quais denomino genericamente de anamorfoses[6]. Essas anamorfoses podem estar ligadas à localização espaço-temporal, direcionalidade e qualidade do timbre das fontes sonoras presentes nesses contextos. Para resumir essas deformações em um só exemplo: não é difícil imaginar a criação de uma espécie de alter-ego de um músico ou ator, quando os sons por ele produzidos reaparecem pouco tempo depois, em outra localização do recinto, e com suas características sonoras transformadas (sem chegar ao ponto de que seu reconhecimento e origem sejam mascarados). Outras vantagens de um “personagem” puramente acústico é que sua aparição somente se dá quando necessário, sem as inevitáveis entradas, permanências em ação e saídas de personagens de carne e osso[7].

A busca por uma ambientação sonora tri-dimensional também conta com iniciativas precursoras do atual sistema surround. O primeiro exemplo vem do próprio cinema. O desenho animado Fantasia (1940), de Walt Disney contou com um sistema sonoro especial, chamado Fantasound, destinado a “enfatizar as características direcionais de uma orquestra sinfônica, p. ex., metais claramente separados das cordas”. O sistema contava com três canais (esquerdo, centro, direita) mais um canal de controle. “Em sua estréia em Los Angeles, Disney adicionou um primitivo canal surround com 96 pequenos alto-falantes, que podia receber sons de um ou mais canais principais”[8].

http://frank.mtsu.edu/~smpte/forties.html

Outro exemplo famoso é o do pavilhão Philips, construído em Bruxelas, para a exposição mundial de 1958. O arquiteto Le Corbusier e o compositor Edgard Varèse trabalharam juntos em um projeto audiovisual chamado Poème Electronique, que contou com pelo menos 350 alto-falantes espalhados pela construção. Toda a distribuição sonora podia ser eletronicamente programada de antemão. [http://emfinstitute.emf.org/exhibits/varesepoeme.html] Já década de 70, François Bayle desenvolve uma orquestra de alto-falantes batizada de acusmonium, pensada idealmente para difundir uma gravação realizada a dois canais por diversos pares de alto-falantes cuidadosamente espalhados em uma sala de concertos. [http://emfinstitute.emf.org/exhibits/acousmonium.html] Atualmente, as pesquisas e produções na reprodução/criação de ambientes acústicos em três dimensões podem ser encontradas não só no cinema (sistemas Dolby 5.1 e 7.1), mas também em apresentações musicais, em instalações de artes, e em games que se baseiam na realidade virtual.

Para sintetizar este grande processo de transformações pelo qual a música passou no século XX que é simbolizado pela escuta através de alto-falantes, gosto de usar a expressão experiência eletroacústica. Mais recentemente, as possibilidades de representação, manipulação e transmissão digital de fenômenos físicos e das mais diversas atividades humanas vem alterando significativamente as maneiras de organização e comunicação da sociedade, com implicações futuras de previsão ainda incerta, mas já estabelecendo firmemente a idéia de um fluxo global de informações em tempo real[9]. Obviamente, a experiência musical também não está imune a essas influências.

A face mais visível dessas transformações é a distribuição digital de músicas pela internet, que, ao mesmo tempo em permite um acesso quase ilimitado ao vasto repertório existente, também desafia os meios tradicionais de produção e distribuição musicais, com a proposição de novas alternativas. As tecnologias digitais também permitiram que recursos antes só disponíveis em grandes estúdios pudessem ser amplamente disseminados, favorecendo a proliferação de home studios. O processamento digital de sinais trouxe ainda um aumento considerável no número, variedade e flexibilidade de processos disponíveis para a criação e manipulação sonoras, quando comparado com seus predecessores elétrico-eletrônicos.

Paralelamente, um grande número de iniciativas – industriais, científicas, comerciais, acadêmicas, independentes – vem se voltando para o desenvolvimento e uso de sistemas musicais interativos, nos quais se busca formas mais eficientes e interessantes de relacionamento entre pessoas e máquinas digitais. A interação é, antes de tudo, uma via de mão dupla, e várias alternativas ao uso de botões, teclados e mouse por parte das pessoas têm sido exploradas. Em 1984, Joel Chadabe propôs uma sistematização da composição musical interativa, segundo o esquema reproduzido abaixo. Vale lembrar que uma interação efetiva depende do funcionamento desses sistemas em tempo real, cujas possibilidades dependem inteiramente do rápido desenvolvimento das tecnologias digitais. Em 1993, Robert Rowe propõe um modelo um pouco mais genérico para sistemas musicais interativos, baseado em três etapas independentes e complementares: captação de dados (sensing), análise e processamento desses dados (processing) e resposta sonora (response).


Figura 1: Organização de um sistema de composição musical interativo, segundo Chadabe (1983)

Em um primeiro momento, a captação de dados de performance se baseou quase exclusivamente no protocolo Midi[10]; no início dos anos 90, o sinal de áudio também passou a ser analisado, tornando-se uma nova fonte de informações sobre a performance musical. Atualmente, um grande número e variedade de sensores vêm sendo oferecidos, com uma facilidade crescente em sua aquisição e uso. Sensores de posição de partes do corpo, acelerômetros em três dimensões, sensores de pressão, biosensores (medidores de tensão muscular, eletrocardiogramas etc.), imagens de vídeo (visão computacional) são facilmente acoplados a sistemas musicais interativos. A tecnologia sem fio começa a superar as limitações do sinal infravermelho (altamente dependente da direção e da iluminação ambiente), com o uso de novos protocolos baseados na transmissão em freqüência de rádio[11]. Essas novas ferramentas não estão, logicamente, limitadas ao campo musical. Pode-se observar um crescente uso da interação em museus, exposições, instalações artísticas e novas modalidades audiovisuais.

A análise e processamento das informações captadas pelos sensores também possui um amplo espectro de possibilidades, que variam segundo os tipos de dados obtidos – que vão de um mapeamento simples de dados (uma resposta sonora para estímulo ou gesto) até intrincados algoritmos de inteligência artificial.

A infinita variedade de respostas sonoras possíveis de se obter em sistemas musicais interativos não nos permite tecer mais do que duas observações no breve espaço deste texto: a primeira é que em qualquer sistema digital não há mais relações diretas de causa e efeito, tudo é programado e programável, do simples acionamento de luzes a intrincados algoritmos de síntese sonora. A segunda é que, em muitos casos, é desejável a criação de uma teleologia virtual (uma simulação de cadeias de causas e efeitos sonoros), que podem também sofrer distorções de variados tipos (anamorfoses gestuais).

Concluindo: embora sistemas digitais musicais também possam ter suas respostas dirigidas a sistemas puramente mecânico-acústicos, com o uso de relés, motores e mesmo de elementos de robótica, nota-se claramente um predomínio do uso de alto-falantes, não apenas pela facilidade de seu uso e integração a projetos de natureza bastante distintas, mas principalmente pelo estímulo à imaginação sonora por eles proporcionada, que vem sendo constantemente (re-)construída há mais de cem anos.

Bibliografia

Arnheim, Rudolf. Rundfunk als Hörkunst (und weitere Aufsätze zum Hörfunk). Frankfurt am Main: Suhrkamp, 2001. Livro escrito em 1933 como “Der Rundfunk sucht seine Form” e publicado originalmente em inglês, em 1936, como Radio. Primeira edição alemã em 1979.

Chadabe, Joel. “Interactive Composing: an Overview”. In: Roads,Curtis (ed.). The Music Machine. Cambridge: MIT Press, 1989, pp. 143-148. Publicado originalmente no Computer Music Journal, vol. 8, no. 1, 1984, pp. 22-27.

Chanan, Michael. Repeated Takes: a short history of recording and ist effects on music. London: Verso, 1995.

Chion, Michel. Audio-vision: sound on screen. New York: Columbia University Press, 1994. Original francês de 1990.

Fischer, Lucy. “Enthusiasm: From Kino-Eye to Radio-Eye”. In: Weis e Belton (eds.), pp. 248-249.

Freire, Sérgio. Auto-, alter-, alto-falantes: concertos eletroacústicos e o ao vivo musical. Tese de doutorado. Puc-SP, 2004.

___________”Early Musical Impressions from Both Sides of the Loudspeaker”. Leonardo Music Journal, vol 13, 2003, pp. 67-71.

Handzo, Stephen. “Appendix: A Narrative Glossary of Film Sound Technology”. In: Weis e Belton (eds.), pp. 383-426.

Harvith, John e Harvith, Susan E. Edison, Musicians, and the Phonograph. New York, Westport and London: Greenwood Press, 1987.

Rowe, Robert. Interactive Music Systems: Machine Listening and Composing. Cambridge: MIT Press, 1993.

Ruttmann, Walter, “Neue Gestaltung von Tonfilm und Rundfunk: Programm einer photographischen Hörkunst”. In: Goergen, Jeanpaul. Walter Ruttmanns Tonmontagen als Ars Acustica. Massenmedien und Kommunikation No. 89, 1994, pp. 25-26. Publicado originalmente no Film-Kurier, vol. 11, no. 255 (26 de outubro de 1929). Tradução para o português em Freire (2004).

Schaeffer, Pierre. Traité des Objets Musicaux. Paris: Seuil, 1966.

Varèse, Edgar. Écrits. Paris: Christian Bourgois, 1983.

Weill, Kurt. “Möglichkeiten absoluter Radiokunst”. In: DREW, David (ed.). Kurt Weill: Ausgewählte Schriften. Frankfurt: Suhrkamp, 1975, pp. 127-132. Publicado originalmente em Der Deutsche Rundfunk, em 28 de junho de 1925. Tradução para o português em Freire (2004).

Weis, Elisabeth e Belton, John (eds.). Film Sound: Theory and Practice. New York: Columbia University Press, 1985.

Webliografia

sussuro.musica.ufrj.br (site dedicado à produção experimental brasileira contemporânea)

www.nime.org (site das Conferências New Interfaces for Musical Expression, com a disponibilização de anais on-line)


[1] Termo atribuído ao compositor americano John Philip Souza, em 1906. Para mais detalhes sobre este tema, ver Freire (2004), p.17.

[2] Este texto é citado por Harvith (1987), p. 12, onde o leitor é remetido à seguinte nota: “From a letter drafted by the Federal Advertising Agency, March 2, 1920, and sent on Edison company letterhead to James Montgomery Flagg, in the files of the Edison National Historic Site” (p. 20).

[3] Ver Fischer (1985).

[4] Músico e engenheiro francês, criador da musique concrète em 1948.

[5] Freire (2003), p. 68.

[6] Este termo, cujo significado está ligado às deformações visuais de espelhos não planos, foi aplicado à percepção sonora por Schaeffer (1966).

[7] A discussão sobre o uso do som, da voz e da música no cinema está além do escopo deste trabalho. Para uma discussão detalhada sobre o assunto, ver a produção teórica de Michel Chion, principalmente Audio-Vision (1994).

[8] Handzo (1985), pp. 418-19.

[9] Revolução digital, sociedade em rede, cybercultura são alguns dos termos utilizados para designar este processo.

[10] Abreviatura de Musical Instrument Digital Interface, protocolo desenvolvido no início dos anos 80, que permitiu que sintetizadores de diferentes fabricantes se comunicassem entre si. No final dessa década, inicia-se a disseminação dos seqüenciadores de informações Midi, até hoje importantes na produção musical.

[11] A mais recente e largamente difundida tecnologia nessa área foi desenvolvida pela Nintendo: o wii remote é um controlador sem fio, que se vale tanto do infravermelho quanto do protocolo serial Bluetooth, oferecendo aos seus usuários um grande leque de funções: joystick, botões do tipo on-off, acelerômetros em três eixos, mouse sem fio em duas dimensões, além da capacidade de fornecer a localização em duas dimensões de quatro fontes independentes de radiação infravermelha. Possui também memória para armazenamento de programações específicas e entradas para outros controladores.

Author Image

RUA

RUA - Revista Universitária do Audiovisual

More Posts

RUA

RUA - Revista Universitária do Audiovisual

Deixe uma resposta