quarta-feira, 30 de dezembro de 2009
PixeROgliFO
ICq
Msn
skype
orkut
chats
porno
etc etc
terça-feira, 15 de dezembro de 2009
SINCOPANI
En la matemática, la función sinc (tambien encontrada con el nombre Sa) és la função seno(x)/x, con valor sinc(0) = 1 (por lo tanto una función contínua).Esta funcción és analítica para todos los valores.El nombre sinc viene del latim sinus cardinalis.
De ahy me fue en busca de la "función continua" que: En matemáticas, una función es continua, con las pequeñas variaciones en los objetos que representan a las pequeñas variaciones en las imágenes. En los puntos donde la función no es continua, se dice que la función es discontinua, o que es un punto de discontinuidad.
Al respecto de la Continuidad en un Espacio topológico:
Se dice que una función F: X -> Y entre espacios topológicos es continua si la imagen previa de cualquier abierto de Y es un abierto de X.
Espacios topológicos son estructuras que permiten la formalización de conceptos tales como la convergencia, conectividad y continuidad. Ellos aparecen en prácticamente todas las ramas de las matemáticas modernas y son un concepto unificador central. La rama de las matemáticas que estudia los espacios topológicos se llama topología.
Ahy llego en Topologia, parcero de la nada...bien , me acuerdo de ti e mucho querido Ernesto! Pero ahy tambien en el concepto de topologia llego a muchas posibilidades...
Concepto ampliamente basado en las matemáticas continuo.
En matemáticas, la topología es la zona en la que estudiar los espacios topológicos.
En la ingeniería, el concepto se asocia con la ordenación lógica de los elementos.
En la topografía, la topología se refiere al estudio de las formas externas (reducción) de la tierra, a ser representados por el contorno y los puntos enumerados.
En informática, la topología de la red es el medio por el que se presenta físicamente, es decir, los elementos de red (nodos de la red) están dispuestas.
En el psicoanálisis, es una característica del inconsciente lacaniano.
Bueno para empezar elijo la perspectiva del psicoanálisis de Lacan. Buscando esto encuentro esta clase dada en video en youtube, por un senor que habla de manera re didacta de la geometria euclidiana plana e espacial, con formas rigidas. E despues habla de la Geometria Topologia e de como esta es como la cinta de moebius, que Lacan llama de contrabanda.
Habla de que la cinta como el espacio topologico no tiene lados, es continua e unilateral. Tiene apenas una margen con continuidad plena e que retorna por si mesma a el punto de partida siempre, también habla que nos es posible abordala senão del lado cualquier, pues solo tiene una borda, tambien la orientacion de dirección es instable.
domingo, 13 de dezembro de 2009
QUASE CINEMA - Alexandre Rangel
segunda-feira, 5 de outubro de 2009
La interacción en el arte tecnológico , Octavio Lasane
Octavio Lasane
La tecnología como una extensión de la capacidad creativa y de percepción del actuante que ya no espectador.
¿Cómo serán los museos del futuro, acaso enormes lugares repletos de máquinas a semejanza de un laboratorio o una fábrica? ¿No estamos siendo demasiado seducidos por la idea del cuerpo como un todo perceptivo? ¿No estamos limitando la acción de la imaginación a un número N de posibles significados?
quinta-feira, 17 de setembro de 2009
Algo de Marcos Veronese (creio)
domingo, 13 de setembro de 2009
Pra explorar...Web com links para MUITOS DOCS...
sexta-feira, 11 de setembro de 2009
algunas ideas...al respecto del arte digital...
Cual es el papel de la creación visual digital en la sociedad de la información;
Intercambio de las experiencias en torno a los diversos lenguajes narrativos e procesos creativos generados en los nuevos medios;
Un poco de Arte Digital...
Imagen fija: Imágenes digitales de expresión plástica o con objetivos de comunicación visual.
CAGUAMAS SINÁPTICAS
o OMR, Mexico 2004.
o Art Basel Miami, OMR 2004
o ARCO, OMR, Madrid 2005
o Guy Bärtschi, Ginebra 2005
Vídeo:
http://lozano-hemmer.com/video/caguamas.html
PÚBLICO SUBTITULADO
quinta-feira, 10 de setembro de 2009
First.Virtual.Night.Club. Alpha Version.
First.Virtual.Night.Club. Alpha Version.
"Estamos extremando los tiempos modernos proponiendo ya no solo vivir conectados a los mensajeros, sino hasta ir a bailar digitalmente"Desarrolla una idea que desde su comienzo revoluciona todo concepto en relacion a las fiestas y discos.
sexta-feira, 7 de agosto de 2009
Os VJs e as imagens ao vivo, inacabadas, imersivas: o corpo em partilha com a obra
Christine Mello
2004
A corrente desconstrutiva encontrada nos trabalhos de vídeo ao vivo da atualidade é uma vertente experimental da arte que tem origem no “conceito de experimentação científica como método de pesquisa que parte da anulação dos postulados da sabedoria tradicional e autoritária instalada como dogma ou crença que dirige a conduta científica, predeterminando suas conclusões” (Menezes, 2001: 196). Para Philadelpho Menezes, a vertente experimental é acompanhada do desejo de dissolução das fronteiras do objeto artístico em que “a própria concepção de fusão da arte com a vida aponta para a dissolução das esferas estéticas nas atividades cotidianas”. (Menezes, 2001: 200)
É possível observar que para Julio Plaza e Mônica Tavares o método experimental opera com “o conhecimento transmitido pelos sentidos” (Plaza e Tavares, 1998: 103). Para eles, o que define a prática experimental diz respeito à não existir plano artístico nem projeto pré-concebido. Eles afirmam que:
Para Cecília Almeida Salles, as relações existentes entre construção-desconstrução do objeto artístico dizem respeito ao fato do artista lidar com sua obra em estado de permanente inacabamento. Esta forma de visão desenvolvida por ela diz respeito aos estudos da Crítica Genética26. Este tipo de crítica implica a substituição da análise do produto (ou obra acabada) pela análise do processo (ou obra inacabada).
Nas manifestações do vídeo ao vivo há uma visão mais contemporânea do vídeo por meio da idéia de desconstrução do sistema tradicional de produção e de circulação do contexto audiovisual. Neste processo, há a desmontagem de valores sígnicos tanto relacionados à partilha do corpo com o ato artístico e à superfície da tela quanto à idéia de produto acabado.
Spetto tem um tipo de trabalho baseado nas imagens geradas em seu software VRStudio 5 e nos sons, na grande maioria das vezes, do DJ Fernando Maylinch. Ele realiza um trabalho de deconstrução-reconstrução das imagens com o intuito de mostrar que ícones gráficos podem criar sentidos diversos quando recombinados, sugerindo novas histórias e interpretações. Este é o caso de trabalhos que empreende como Fui ao Iraque para pedir ao Aladdin a lâmpada mágica emprestada e fazer três pedidos: um vinil, uma pickup e uma jaca. Em seu software VRStudio 5, o VJ Spetto busca “formas de substituir o teclado do computador por instrumentos musicais utilizando interfaces comandadas por sinais midi, a fim de ‘tocar’ as imagens, afastando-se um pouco do referencial do computador e do teclado qwert.” (Bambozzi, 2003: 73)
Para Spetto, a pista de dança é uma entre as várias possibilidades de articulação do trabalho do VJ. Nesta entrada do século 21, Spetto vem produzindo software para a interação do espectador com dados videográficos manipulados de forma aleatória e ao vivo. Desta forma, ele admite estar criando uma nova forma de produção de TV, na medida que acredita que o futuro da televisão digital diz respeito às possibilidades interativas que cada espectador-interator poderá ter de construir o seu próprio programa televisivo.
35 O depoimento do artista e pesquisador Rodrigo Minelli acerca de trabalhos do grupo mineiro Feitoamãos foi extraído em 6/12/02 de debate on-line coordenado por André Brasil na Internet.
homem da câmera (1929) – para a abertura do Festival Internacional de Curtas-Metragens de BH.
6. Vídeo ao vivo: novas dinâmicas de se processar a arte
BAMBOZZI, Lucas (2003). “Outros cinemas”. In: Kátia Maciel e André Parente (orgs.). Redes sensoriais: arte, ciência, tecnologia. Rio de Janeiro: Contra Capa Livraria, pp. 61-75.
BASBAUM, Ricardo (2001) (org). Arte contemporânea brasileira: texturas, dicções, ficções, estratégias. Rio de Janeiro: Rios Ambiciosos.
BASTOS, Marcus (2002). Samplertropofagia: das relações entre literatura e tecnologia. São Paulo: PUC-SP. [Palestra proferida em 25/11/02 no Seminário Poéticas Digitais e o Corpo Biocibernático]
BASUALDO, Carlos (org.) (2001). Hélio Oiticica: Quasi-cinemas. Columbus, New York e Cologne: Wexner Center for the Arts/ New Museum of Contemporary Art/ Kolnischer Kunstverein.
37 O VJ Spetto, ou Ricardo Lara, ofereceu este depoimento no decorrer do Workshop Live Images, realizado em maio de 2003 em Belo Horizonte (como atividade integrante do Fórum Mídias Expandidias).
65
Christine Mello
2004
CABO, Sheila (2001). In: Ricardo Basbaum (org). Arte contemporânea brasileira: texturas, dicções, ficções, estratégias. Rio de Janeiro: Rios Ambiciosos, pp. 98-110.
MACHADO, Arlindo (1988). A arte do vídeo. São Paulo: Brasiliense.
__________ (1996, 2ª ed.). Máquina e imaginário. O desafio das poéticas tecnológicas. São Paulo: Edusp.
MELLO, Christine (1999). Conexões processuais no vídeo: estudo sobre a gênese de Love Stories de Lucas Bambozzi. São Paulo: Comunicação e Semiótica/PUC. [Dissertação de Mestrado]
__________ (2003a). “Arte desmaterializada, em tempo real, em rede”. In: Lucia Leão (org.). Cibercultura 2.0. São Paulo: U. N. Nojosa, pp. 107-128.
__________ (2003b). “Arte nas extremidades”. In: Arlindo Machado (org.). Made in Brasil: três décadas do vídeo brasileiro. São Paulo: Itaú Cultural, pp. 143-174.
__________ (2003c). “Experiências sensórias da contemporaneidade”. In: Urbano Nojosa e Wilton Garcia (orgs.). Comunicação & tecnologia. São Paulo: U. N. Nojosa, pp. 105-120.
A performance interativa em Pele
Departamento de Música - ECA - Universidade de São Paulo (USP)
Av. Prof. Lúcio Martins Rodrigues, 443 - CEP 05508-900 - São Paulo - SP - Brazil
iazzetta@usp.br
espetáculos multimídia envolvendo dança, música e vídeo. É feita uma
reflexão a respeito das possibilidades oferecidas por diversas tecnologias
digitais para a integração de informação sonora, gestual e imagética num
mesmo ambiente computacional. Em seguida são descritos os processos de
composição da trilha sonora para um desses espetáculos, intitulado Pele.
1. Introdução
Durante a década de 1980, a idéia de interação musical ganha corpo à medida em que
sistemas capazes de controlar e gerar informação musical em tempo real vão se
tornando mais acessíveis (em termos de custo e flexibilidade de uso). Dois eventos
foram decisivos nesse processo: o estabelecimento do protocolo MIDI e a difusão dos
computadores pessoais. Durante a década de 1990, o rápido crescimento na capacidade
de processamento de máquinas digitais tornou possível não apenas o processamento de
símbolos musicais (notas, acordes, esquemas rítmicos), mas também a geração, controle
e processamento de sinais de áudio em tempo real. Quer dizer, além das abstrações
previstas pelo protocolo MIDI, tornou-se possível trabalhar sons de maneira concreta
durante a performance. Além disso, MIDI e outros protocolos de transmissão de dados
permitiram a integração e controle de diversos tipos de equipamento (consoles de luz,
projetores de vídeo, etc) a partir de um mesmo ambiente computacional (Rowe 2001).
Isso alimentou a possibilidade de desenvolvimento de um grande número de
projetos de performance multimídia em que elementos como música, luz e imagem
ocorrem de modo integrado por meio da correlação da informação de mídias variadas.
Assim, tornou-se possível utilizar informação sonora para controlar a projeção de
sequências pré-gravadas de imagens, bem como a utilização de sinais captados por
sensores diversos pôde ser usada para o controle de dispositivos de produção sonora
(módulos sintetizadores, samplers, etc) ou de iluminação cenotécnica.
O ferramental eletroacústico deixou de ser quase que exclusivamente voltado
para a produção e composição dentro do estúdio e conquistou um espaço bastante
razoável no ambiente da performance. Diversos programas foram desenvolvidos nessa
fase visando especificamente a atuação do músico em tempo real, entre eles M, Max,
PD, Interactor e SuperCollider. Se na década de 1980 a maioria dos programas voltados
para performance operava basicamente com informação MIDI, em meados da década de
1990 o poder de processamento de computadores pessoais passou a permitir o
processamento direto de áudio em tempo real.
Nos últimos 3 ou 4 anos, avanços na área de computação gráfica aliados à
chegada ao mercado de computadores pessoais com velocidade de processamento de
algumas centenas de megahertz e com capacidade de armazenamento de grande
quantidade de informação digital, fizeram com que certos tipos de processo em tempo
real que apenas recentemente tinham se tornado possíveis na área de áudio, passassem a
ser aplicados também a vídeo digital. Isso representou um salto em relação à integração
entre som e imagem em espetáculos de diversas naturezas, a um custo relativamente
baixo e com a utilização de programas que oferecem interfaces amigáveis ao usuário e
que, embora muitas vezes possam exibir uma certa complexidade de uso, não exigem
conhecimentos avançados de programação.
Essa integração deu-se em dois sentidos. Por um lado, permitiu que se
desenvolvessem projetos na área de captura de movimentos a partir de sistemas
relativamente simples, geralmente baseados em uma câmera de vídeo conectada ao
computador (BigEye, EyesWeb). Esses sistemas permitem extrair informação dos
movimentos de um performer (um músico, um bailarino, ou do próprio público) e
utilizar essa informação para controle e geração de sons. Por outro lado, ampliou a
possibilidade de realização de sistemas em que som e imagem interagem em tempo real
por meio de processamentos diversos, em que o vídeo pode ser utilizado para modificar
ou criar uma informação sonora e vice-versa (Imagine, Isadora, PixelToy, BigEye,
ArKaos).
2. Trabalhos em performance
Desde 1996 foi iniciado na Pontifícia Universidade Católica de São Paulo (PUC-SP) um
trabalho de experimentação em performances envolvendo música, imagem e dança com
diversos artistas colaboradores. As apresentações começaram de modo informal visando
a participação em eventos artísticos e acadêmicos. Durante esse período estabeleceu-se
um processo de colaboração entre a bailarina e coreógrafa Ivani Santana e o compositor
Fernando Iazzetta, com a participação frequente de outros artistas e colaboradores, entre
eles o compositor Silvio Ferraz e a iluminadora Simone Donatelli. Durante esse período
foram criados diversos trabalhos em que a tecnologia atuou como objeto de exploração
de processos interativos e de conexão entre linguagens. Aos poucos estabeleceu-se um
ambiente de performance baseado na utilização de alguns programas de produção e
tratamento de imagem e som em tempo real.
Nesses trabalhos o processo de criação é colaborativo e a tecnologia funciona
como agente de conexão entre sons, imagens e movimento. Processos de improvisação
e acaso dividem espaço com processos determinísticos, a partir dos quais os espetáculos
são criados. A coreografia e concepção geral (a cargo da coreógrafa Ivani Santana)
servem de ponto de partida para a construção da música e das imagens. Diversas
estratégias têm sido utilizadas para a integrar temporal e espacialmente os elementos de
criação.
O uso de microcâmeras presas ao figurino dos bailarinos ou instaladas em
pontos estratégicos do palco oferecem um ponto de vista dinâmico da performance. As
imagens captadas são projetadas em telas dispostas no palco permitindo que o público
tenha a visão de detalhes inacessíveis a partir de sua posição na plateia. Eventualmente,
essas imagens podem ser enviadas a um computador e processadas antes de serem
projetadas nas telas, gerando um contraponto entre o evento real que ocorre no palco e
sua imagem modificada pelas tecnologias. Muitas vezes os processamentos da imagem
são controlados por parâmetros da própria música que está sendo gerada em tempo real.
Assim configura-se uma rede de inter-relação em que o movimento dos performers
fornecem a matéria-prima para a geração das imagens e para o desenvolvimento da
música, enquanto que as informações sonora e imagética podem ser cruzadas nos
computadores influenciado no resultado produzido em termos de música e vídeo.
No espetáculo Gedanken (2000) (Santana, 2002), a própria coreografia parte de
um ambiente computacional, tendo sido criada no programa Life Forms (desenvolvido
por Thomas Calvert na Simon Fraser University, Canandá). Em sua transposição para o
palco, imagens de microcâmeras eram enviadas para um computador executando o
programa Image/ine (desenvolvido por Tom Demeyer na Fundação Steim), antes de
serem projetadas em uma tela. Image/ine permite que a imagem capturada por uma
câmera sofra diversos processamentos cujos parâmetros podem ser alterados em tempo
real, inclusive via informação sonora ou MIDI proveniente da música que está sendo
executada.
Já no espetáculo Corpo Aberto (2001) (Santana, 2002), entre os procedimentos
utilizados para a integração entre coreografia, imagem e música, estava a geração de
imagens abstratas fazendo uso do programa PixelToy (desenvolvido por Leon McNeill).
Este programa funciona como um sintetizador de imagens que são configuradas por
meio de um 'script'. Diversos processamentos podem ter seus parâmetros modificados
em tempo real de acordo com a amplitude do sinal sonoro enviado para o computador,
ou por dispositivos como mouse e joystick que permitem o controle de diversos aspectos
da imagem, inclusive seu deslocamento na tela. Embora a interface do programa seja
bastante simples e o mesmo permita apenas uma intervenção limitada do usuário, o uso
criativo de seus scripts mostrou-se bastante eficaz na produção de imagens e de
interação entre os elementos da cena.
Em Op_Era (2001), concebido por Daniela Kutschat e Rejane Cantoni, foram
introduzidas algumas ferramentas computacionais novas na produção de processos
interativos. O palco foi circundado por três telas de projeção -- uma no fundo, uma na
lateral direita e uma tela frontal transparente -- onde eram projetadas imagens de três
projetores independentes numa espécie de espaço virtual, criando a impressão de que os
limites do palco eram dados por imagens e não por superfícies concretas como cortinas
ou paredes. As projeções eram geradas por um programa desenvolvido pelo Laboratório
de Sistemas Integrados (LSI) da USP, especificamente para o projeto a partir de um
computador com três saídas independentes de vídeo, uma para cada projetor. No chão
do palco, circundados pelas telas de projeção, foi instalada uma matriz de 16 (8x8)
sensores de luz infravermelha. Esses sensores permitiam acompanhar o movimento da
bailarina no palco cada vez que interceptava os feixes de luz infravermelha com o
corpo. Digitalizada, essa informação posicional era usada para controlar a geração e
posicionamento das imagens nas três telas criando uma sincronia entre movimentos
corporais e movimentos imagéticos. Além disso, a informação dos sensores era
codificada em informação MIDI e enviada a um segundo computador, sendo
decodificada por um programa criado no ambiente MAX/MSP. Esses dados convertidos
em informação MIDI eram então utilizados para disparar sons pré-gravados na memória
do computador ou para controlar parâmetros de síntese sonora.
3. A experiência em Pele
Pele (2002) é um espetáculo concebido por Ivani Santana e apresentado no Teatro
castro Alves, em Salvador - Bahia, durante o Ateliê de Coreógrafos Brasileiros em
setembro de 2002. No espetáculo um grande aparato tecnológico faz contraponto com o
movimento de 5 bailarinos. Foram utilizadas várias câmeras de vídeo cuja imagem
gerada durante o espetáculo era distribuída por 4 projetores e vários monitores de TV.
Imagens em slides, iluminação e cenografia completavam o ambiente cênico do
espetáculo que aborda as fronteiras entre a dança e a tecnologia, jogando com as noções
de presente/ausênte, real/virtual.
Nosso trabalho consistiu na elaboração da trilha sonora do espetáculo e em sua
execução durante a performance. Toda a música foi produzida no ambiente MAX/MSP.
Para a apresentação foi realizado um programa que controlava a geração sonora em
tempo real. Basicamente o programa foi constituído de dois módulos. O primeiro,
chamado "tocador", permitia que fossem executados até oito arquivos de áudio prégravados
e armazenados na memória do computador. Esse módulo oferecia recursos
para sincronização de arquivos, looping, fadein/out e volume. O segundo módulo
continha diversos sub-módulos (patches na linguagem usada no ambiente MAX)
interativos que podiam ser controlados em tempo real.
Três tipos diferentes de material foram utilizados para compor a trilha sonora de
quase uma hora de duração e executada em tempo real: sons sintetizados no ambiente
MAX/MSP; sons retirados de gravações diversas de música brasileira; e sons produzidos
durante o próprio espetáculo por instrumentos de percussão (acústicos e eletrônicos), e
vozes dos bailarinos e do próprio músico. Uma vez que todas essas fontes eram
manipuladas num mesmo programa, era possível fazer com que as mesmas fossem
controladas de modo interativo durante a performance.
Na cena que abre o espetáculo uma sequência de acordes tocados com timbres
sintetizados serviam de base para o desenvolvimento da trilha sonora. Sobre esses
acordes diversas trilhas de áudio eram mixadas em tempo real no módulo tocador. O
material básico dessas trilhas foi extraído de uma gravação de cantoria nordestina cuja
temática é um ciclo sobre o Padre Cícero. Foi utilizada uma faixa em que uma criança
entoa uma espécie de louvação à Padre Cícero, com um forte sotaque nordestino. O
áudio foi fragmentado em pequenas sessões de duração em torno de 1 segundo em
programa realizado no ambiente MAX. Os fragmentos receberam envoltórias dinâmicas
variadas e foram remontados em um novo arquivo cujo resultado foi uma rica e densa
polifonia de sons vocais. Embora nesse processo de fragmentação tenha se perdido o
sentido das palavras, permaneceram as características fonéticas (sotaque, entonação)
presentes no registro original. A trilha de áudio resultante serviu como fio condutor de
toda a primeira cena. Dela foram extraídos também outros arquivos de áudio que
passaram por processamentos no ambiente MAX (granulação e time stretch)
completando o material usado nessa primeira parte.
A segunda cena apresenta dois focos nas laterais do palco. Num deles, um dos
bailarinos costura a própria mão enquanto produz sons vocais, de respiração e pequenos
ruídos que são captados por um microfone, processados e amplificados. No outro foco,
as mãos do músico executam pequenos gestos sobre uma membrana plástica esticada
que funciona como um tambor. Os sons de baixa intensidade resultantes são captados
por um microfone de contato e processados no ambiente MAX antes de serem
amplificados. Foram utilizados uma série de filtros de ressonância em paralelo cujas
frequências de sintonia encontram-se em relação harmônica. Os sons captados da
membrana serviam de impulso para alimentar esses filtros gerando sonoridades
irregulares, mas que conservavam sempre alguma relação harmônica. As frequências de
sintonia dos filtros sofrem pequenas alterações de acordo com a intensidade do sinal
sonoro gerado pela membrana conferindo um comportamento dinâmico aos sons
produzidos. As mãos, tanto do bailarino, como do músico, eram filmadas e projetadas
em uma tela e em monitores de TV. O que se cria é um conflito entre dimensões: por
um lado, as mãos que produzem gestos pequenos em relação ao tamanho do palco e
sonoridades com pouca energia; por outro, esses gestos e sonoridades são amplificados
pelas projeções nas telas e monitores de TV, e pelos processamentos realizados no
computador e reproduzidos pelos alto-falantes.
Em seguida é utilizado novamente um arquivo de áudio pré-gravado. Dessa vez
o material sonoro foram dois discos de embolada nordestina. Os procedimentos foram
muito semelhantes aos utilizados por DJs na criação de músicas baseadas na montagem
de pequenos loopings de material retirado de outras gravações. O ritmo do pandeiro e as
vozes dos emboladores foram, mais uma vez, processados e trabalhados em diversos
programas, entre eles o MAX/MSP. Segue-se, ao final deste trecho, um solo do músico
de aproximadamente 3 minutos. Um instrumento com 6 pads para percussão funciona
como interface de sensores para a improvisação do músico. Dois tipos de informação
são geradas simultaneamente: sons de caráter percussivo e informação MIDI referente
ao disparo de cada um dos pads. Dois pedais geram informação adicional, permitindo
que sejam feitas mudanças rápidas nos parâmetros de processamento dessa informação
no ambiente MAX.
Após uma cena em que basicamente os bailarinos intercalam movimentos e falas
que se referem aos próprios movimentos, inicia-se a última cena. Além de resgatar
sonoridades das cenas anteriores, é apresenta uma base rítmica que passa a dominar até
o fim do espetáculo. Essa base é montada em MAX numa estrutura complexa que acaba
gerando um ritmo estável, mas que jamais se repete exatamente. Três elementos sonoros
foram utilizados. O primeiro é um clic que, processado por diversos filtros e efeitos,
adquire uma sonoridade aguda e brilhante e é usado de modo semelhante a um prato de
contra-tempo de bateria. A condução rítmica baseia-se numa estrutura ternária regida
por regras probabilísticas. Essas regras gerenciam a ocorrência dos sons no tempo, sua
acentuação, e pequenos desvios de afinação. Desse modo, embora possa-se "sentir" uma
pulsação ternária, como num compasso 6/8, a execução dessa base nunca se repete de
modo idêntico, como se estivesse sendo tocada por um músico que improvisa sobre uma
fórmula rítmica dada. Um atraso (delay) sincronizado com o andamento e de disparo
intermitente (também controlado de modo probabilístico) adiciona outro fator de
variação a esse pulso. O mesmo ocorre com o segundo elemento sonoro composto por
dois sons graves separados por um intervalo de terça menor. Sua ocorrência é também
vinculada a processos probabilísticos e está atada às transformações do pulso ternário.
Mais uma vez, são formadas frases que são percebidas como sendo referentes a um
compasso ternário, mas que são deslocadas durante todo tempo criando uma
instabilidade rítmica. O terceiro elemento são sons percussivos que dialogam com os
dois elementos anteriores. Alterando os parâmetros de probabilidade que regem a
produção dessa base rítmica o resultado pode ser modificado pelo músico em tempo real
tornando-a mais densa ou mais instável, por exemplo. Sobre essa base é realizado um
improviso com elementos percussivos processados por filtros e com o disparo de
módulos de síntese.
Durante essa cena, três imagens são projetadas simultaneamente em telas no
fundo do palco. Uma delas é pré-gravada; as outras são geradas por dois cinegrafistas
situados nas coxias esquerda e direita do palco e que fornecem pontos de vista da
coreografia diferentes daqueles vistos diretamente pela plateia. Uma dessas imagens,
antes de ser projetada é enviada a um computador controlado pelo músico em que é
executado o programa Isadora (desenvolvido por Mark Coniglio). Este programa
oferece objetos gráficos que desempenham funções de processamento digital de
imagem. Esse processamento pode ser controlado em tempo real, inclusive via MIDI ou
pela informação sonora gerada pelo músico. Assim, o processamento das imagens pode
ser controlado pelo mesmo ambiente criado em MAX para gerar a música. A conexão
entre o computador em que se processa a música e o computador em que se processa o
vídeo é feita por uma interface MIDI e pelas entradas e saídas de áudio. Desse modo,
informações gerados para o processamento de imagem podem ser utilizadas para
controlar eventos musicais (sincronizando o disparo de um arquivo sonoro com a
mudança do tipo de processamento aplicado ao vídeo, por exemplo) ou vice-versa.
4. Conclusões
A realização de espetáculos interativos em colaboração com a bailarina e coreógrafa
Ivani Santana tem se configurado com uma importante experiência na utilização de
sistemas computacionais para a integração de diversas mídias num mesmo ambiente.
Nossa proposta tem se dirigido à exploração da presença física, corporal dos intérpretes
em interação com ferramentas tecnológicas. Ao mesmo tempo que as tecnologias
digitais introduzem elementos artificiais nas performances, elas podem também
amplificar as relações entre os diversos participantes (bailarinos, músicos, técnicos e
mesmo o público). Embora a articulação entre dança e tecnologia venha se
desenvolvendo desde as pioneiras experiências de Merce Cunningham nos anos 70
(Wechsler 1997, Santana 2002), no Brasil essa tem sido uma das únicas realizações que
tem se desenvolvido de modo regular nessa área.
Futuros trabalhos deverão explorar de modo mais intenso as tecnologias de
captura de movimento (por meio de sensores e câmeras de vídeo) de modo a permitir
uma simbiose mais efetiva entre os gestos dos performers e os resultados produzidos
por esses gestos. O ambiente de programação MAX tem se mostrado como ferramenta
ideal para esse tipo de aplicação em função de estabilidade de funcionamento e
flexibilidade de uso. Neste momento estão sendo avaliadas possibilidades introduzidas
nesse ambiente para a manipulação de imagens em tempo real (Jitter, Cyclops, Eyes), o
que possibilitará a integração de informação MIDI, áudio e vídeo digital num mesmo
ambiente e de modo transparente.
5. Referências
Rowe, Robert (2001). Machine Musicianship. Cambridge, Massachusetts: The MIT
Press.
Santana, Ivani (2002). Corpo Aberto: Cunningham, dança e novas tecnologias. São
Paulo: Educ/Fapesp.
Wechsler, Robert (1997). "O Body Swayed to Music (and Vice Versa): roles for the
computer in dance". In Leonardo, nº 5, pp. 385-389.
O fenômeno da manipulação de imagens
Práticas multisensoriais de processamento de imagens ao vivo pervertem noções de áudio, vídeo, mídia e arte
Refletir sobre as mídias tem levado naturalmente ao pensamento em torno das novas tecnologias. Mas o inverso tem se mostrado verdadeiro também. As tecnologias estão hoje a serviço das mídias (e não é exagerado pensar que as políticas, a religião e a guerra também travam seu combate mais prioritário, sua “propaganda” e ideologia no campo das mídias). As mídias exercem essa promiscuidade inconfundível com a técnica vigente, seja com a alta ou com a baixa tecnologia1.
E há projetos que forçam essas barreiras de modo bem interessante. O conceito de “Generative Art”, por exemplo, coloca em xeque não apenas o autor mas a própria audiência. Trabalhos que se “regeneram” e adquirem complexidade independentemente dos “inputs” (“self-generating”), apesar de não serem uma absoluta novidade no campo da arte, continuam a incomodar críticos e curadores ansiosos por alguma estabilização de conceitos ligados às tecnologias da imagem. Os conceitos envolvidos neste caso se alastram de tal forma que se tornam inviáveis nesse artigo. São resultados de aspectos de uma revolução digital que se move bem abaixo da superfície do grande cinema e mesmo das artes visuais.
As experiências com manipulação de imagens anteriores ao contexto atual (sejam aquelas aqui mencionadas ou esquecidas) encontram cada vez mais no aparato digital a ferramenta perfeita para o exercício radical das possibilidades de duplicação, reprodução e sampleagem.
Como imagem entende-se também dados digitais, códigos e informações numéricas, que podem adquirir inúmeras e novas formas de representação (não apenas visuais). Mas não são essas definições que configuram a superfície mais aparente do contexto de produção e veiculação de imagens. A suposta novidade se constitui pela confluência dos procedimentos digitais com os fenômenos que envolvem a cultura da música eletrônica.
Uma nova noção de “participação” renasce nesse ambiente reforçado pelo êxtase, pelo contato coletivo, pelo transe proporcionado pela música. Já a idéia de autoria, permanece no incógnito terreno do relativismo. Por um lado, há grupos que produzem bancos de imagens para uso por parte de outros VJ’s. Num mundo que permite a reprodução infinita, faz sentido que as imagens não tenham dono. Por outro lado, nesse terreno devassado, é a afirmação pontual de estéticas pessoais que gera algum diferencial.
É principalmente a partir de intersecções desse tipo que as mídias se expandem -e “se” resultam impuras, sedutoras, instigantes. No loop da história, voltamos mais uma vez ao conceito de cinema expandido de Gene Youngblood (1970).
A euforia em torno das facilidades de manipulação de imagens se mostra assim mais fácil de ser contextualizada2. Complicado é aceitar o quão difícil é ser original nesse contexto. Ao olharmos para trás, sempre haverá um parentesco mais ou menos próximo com várias das referências colocadas pela turbulenta história das mídias.
Grosso modo, alguns (como os VJs Palumbo, Spetto e Jodele) se inclinariam mais para o lado de um Nam June Paik; vários grupos (Bijari, FAQ, Alexis, Visual Farm) poderiam ser referenciados a partir dos scratch-videos “a la Gorilla Tape”, incluindo o direcionamento político que orientou essa vertente iniciada nos anos 80.
Outros encontram como modelo estético as interferências do cinema direto de Stan Brakhage ou o cinema do cronista do underground Jonas Mekas (como o coletivo Embolex e a dupla MM não é confete).
Outros, como Luiz Duva e FAQ, transpuseram conceitos e procedimentos da videoarte para esta nova arena e muitos (principalmente os VJ’s lá de fora) se dão conta de que tudo o que precisam já está disponível na internet ou em bancos comercias de imagens. Como sempre, as ferramentas utilizadas são peças decisivas para se definir uma referência direta (consciente ou não) com experiências e estéticas anteriores.
O fato é que o trabalho dos VJ’s, ao mesmo tempo que ganhou uma “over-exposição” na mídia, estimulou a propagação de uma forma de cinema sem dramaticidade narrativa, pouco conteúdo e conceitos diluídos. Há quem questione o propósito de tanta manipulação (um mero exercício de sobreposições e cortes) assim como há quem considere essas experiências uma espécie de “papel de parede de festas”, onde predomina a associação aleatória de sentido entre gráficos e imagens.
Mas o que se promete é que o processamento de vídeo em tempo real teria supostamente a capacidade de potencializar as experiências anteriores, sejam elas do cinema de vanguarda ou da videoarte, num nível sensorial nunca visto.
É inegável que as tecnologias abriram formas realmente novas de manipulação e de formulação de uma narrativa mais permeável às instabilidades do acontecimento ao vivo. E essas experiências vêm ganhando muito com os sistemas interativos.
A precisão de sincronismo dos eventos virtuais com as ações da cena real pode ser realmente absoluta. Softwares, como o Keyworx, Isadora, Image/ine ou o pacote Max/MSP-Jitter normalmente associados ao sincronismo eletrônico-musical em palcos e performances cênicas, vêm cada vez mais sendo utilizados nesse tipo de performance com vídeo. A maioria dispõe de recursos de input via Midi3, detectando o beat da música e garantindo a experiência sensorial nas mesmas batidas por minuto (BPM).
Se marcações sonoras podem gerar automaticamente pulsos visuais, ou se o próprio público pode desencadear acontecimentos no plano da imagem e do som, agora o "performer" pode se dedicar a uma espécie de regência geral dos vários instrumentos que compõem essa orquestração.
Além disso, a concepção do sistema em si torna-se cada vez mais um desenho complexo de interfaces, conceitos estéticos e gerenciamento de mídias. E isso não é pouco.
Interface e interação
Ao longo dos anos 90, a função cultural do computador foi mudando. Antes uma ferramenta, agora um meio: um veículo de informações. Já não nos damos conta de que há cerca de dez anos o computador ainda era pensado como a simulação de uma máquina de escrever, um quadro de desenhos, uma prancheta de arquitetura ou design.
No fundo, estamos interagindo não apenas com uma máquina, mas com formas culturais codificadas digitalmente. Tais interfaces consistem basicamente em metáforas utilizadas para contextualizar e organizar os dados no computador, seja na forma de ícones, hipertexto, metonímias ou outras formas de associação. É a interface que sugere interatividade -pela intuição, pelo reconhecimento cognitivo, por aproximação.
Pois as interfaces existentes ainda são pobres. Interações via teclas “datilográficas” ou cliques em mouses constituem pontos de contato muito limitados entre homem e computador.
Uma relação como essa sugere que os milhões de anos gastos na evolução perceptiva sejam desprezados e que nossas facilidades com a linguagem expressiva sejam ignoradas. O desenvolvimento das interfaces deveria levar em conta o poder da linguagem, incluindo aí as conexões poéticas, os valores culturais e a subjetividade.
A interatividade que de fato interessa é quase sempre resultado de um processo físico, sensorial e/ou gestual. Sistemas em que o próprio computador ativa mecanismos situados em ambientes e espaços físicos remotos são cada vez mais comuns no dia-a-dia (um exemplo imediato são os medidores de velocidade que gerenciam câmeras fotográficas e ativam o envio de multas). Mas como quase todo hardware, estes são produzidos para alguma indústria, quase nunca para a produção de arte.
As perspectivas imagináveis para uma situação envolvendo imagens e público podem potencializar experiências multisensoriais. Voltamos aos aspectos que revelam a novidade das performances envolvendo “live-images”. Grupos, como o feitoamãos/FAQ, estão cada vez mais interessados em situações em que todos os sentidos são mobillizados.
Essa participação coletiva, o potencial das tecnologias interativas e a experimentação com a interface, possibilitam questionar as relações entre os sentidos e distribuir os papéis (entre emissor/receptor, entre espectador passivo e ativo) novamente. O predomínio do olho na organização do mundo visível, apenas um exemplo, pode vir a ser radicalmente questionado. Outras formas de contato, outras sensibilidades tendem a ser estandardizadas.
Experiências envolvendo vibrações sub-sônicas, superfícies hapticas (como o trabalho “Haptic Wall”, de Rejane Cantoni e Daniela Kutschat, apresentado no Sonar Sound), bem como odores, informações subliminares (algumas perversas, como determinados anúncios invasivos, cada vez mais presentes em festas e clubes noturnos) vêm explorando conexões e formas complementares de potencialização de nosso aparelho sensorial.
Enquanto isso há algo que se apresenta como paradoxal: as novas interfaces que vislumbramos pela frente viabilizam manipulações tipicamente analógicas. Uma invenção considerada genial, como o “Final Scratch”4, carrega um sentido de anacronismo muito grande. Por mais que todos procurem formas de interatividade para fora do computador (o termo “out-of-the-box” é outra denominação impregnada de uma tendência generalizada) é curioso observar que o VJ hoje queira adotar técnicas associadas a uma pickup.
Passeando por apresentações de “live-images”, por listas de discussão ou por sites de referência à cultura dos “audiovisualizers” (“visualizadores de áudio”), como Vjcentral, Audiovisualizers, Vjing, VJBR), vemos crescer o que pode ser chamado de interfaces de simulação, algo observável tanto nas interfaces físicas como nas interfaces gráficas (graphics user interfaces - GUI).
Como mencionado anteriormente, essas referências são notadamente culturais e por isso mesmo baseiam-se sobretudo na apropriação de técnicas pré-existentes. Esse fenômeno se caracteriza menos pelo desafio de se buscar novas linguagens a partir de novas tecnologias do que pelo emprego de novas técnicas para a reprodução de procedimentos analógicos, de um contexto pré-digital.
Isso talvez reflita a tese de que qualquer tecnologia, seja ela sofisticada ou não, sempre emprega qualidades anacrônicas, baseadas em mídias anteriores. Não sem razão, Lev Manovich (1998) justifica que computadores são máquinas de simulação e nada mais natural que eles simulem outras mídias, mais antigas ou não.
Imagens como música
Na busca por uma análise mais consensual, arrisco afirmar que sempre houve um ideal de se produzir imagens como se opera num instrumento de música. Na esteira do “Final Scratch”, as experiências mais atuais de manipulação privilegiam processos típicos daqueles ligados à música.
VJ Spetto, por exemplo, vem buscando formas de substituir o teclado do computador por instrumentos musicais (a partir de interfaces comandadas por sinais midi, um recurso que permite entre outras coisas, “expandir” os controles dos softwares para fora do computador). É cada vez mais essencial que se possa “tocar” as imagens, afastando-se um pouco do referencial do computador e do anacrônico teclado “qwert” (que pouco tem a ver com música ou imagem).
Os próprios softwares de manipulação de vídeo tomam emprestado do universo do áudio não apenas suas interfaces e sua lógica intrínseca como em muitos casos são os mesmos (Image/ine, Arkaos, Max/MSP -antes associado a Nato ou Jitter e agora autônomo).
Outros mais notadamente orientados a efeitos visuais e com grandes possibilidades de customização se proliferam aos montes (Isadora, Grid2, Resolume, KeyWorx, Gephex -estes dois últimos ainda livres!). Em instalações onde a programação deve ser mais detalhada, o uso do velho Director (Macromedia) vem ganhando novas perspectivas com o uso de Xtras como XMidi e SequenceXtra.
As possibilidades são inúmeras, dependendo da plataforma e do que realmente se espera a partir da manipulação. Mas, curiosamente, um ícone desse universo ainda é o Theremin5, que lê sinais provocados pela aproximação da mão ou do corpo.
O que interessa nessas experiências? Por que tanto se persegue o sentido do “manipular”? E o que a arte a ver com isso?
As mídias baseadas no digital viabilizam pirotecnias, mas, de certa forma, também constrangem. Apesar de todos os avanços, espera-se um contato mais orgânico, mais tátil com a imagem. E, quando travestido de arte, o digital anseia por se libertar de sua condição. Trata-se de uma síndrome da arte das mídias. Ela tende a se rebelar contra si mesma, contra sua função midiática, meramente comunicacional.
É sempre bom lembrar que o vídeo nasceu ao vivo. O registro veio depois, principalmente como forma de eliminação de gafes da TV ao vivo. E hoje a “imperfeição” (o improviso), são elementos viabilizadores de adrenalina, que supostamente injetam “vida” nos sistemas automatizados.
1 - Esse artigo é uma atualização e uma revisão de um texto publicado em 2003 em “Redes Sensoriais: Arte, Ciência, Tecnologia”, organizado por Katia Maciel e Andre Parente (Rio de Janeiro: Contra Capa ). Ele dá continuidade ao ensaio “A era do ready made digital”, publicado nesta revista e acessível no “link-se”, no final.
2 - Acredito também que a união entre DJ's e Vj's entrou em evidência na agenda dos festivais no mundo todo por um motivo simples: percebeu-se que essas "festas" tinham o poder de “quintuplicar” o público visitante em um festival de arte eletrônica. Ao final do evento, ao somar o público visitante nas mostras com o público das festas, o resultado era a alegria que faltava aos patrocinadores.
3 - MIDI (Musical Instrument Digital Interface) é um protocolo para gravação e reprodução de músicas em sintetizadores digitais aceito por uma grande diversidade dde placas de som de computador digital.
4 - O Final Scratch é um aparelho fabricado pela Stanton que faz com que as músicas disponíveis em um computador sejam tocadas como se estivessem num vinil (o sistema vem com um par de vinis especiais, que armazena códigos e roda em Linux), permitindo assim a mudança de rotação, o scratch, avançar para frente para trás e outras manipulações com a mão já conhecidas entre os DJ’s. Trata-se essencialmente de uma interface analógico-digital, havendo similares para interação não apenas para música mas também para imagens.
5 - Instrumento criado em 1919 por Leon Theremin (Lev Thermen).
domingo, 2 de agosto de 2009
Bs As
Feed back
SirveVerse -Ciclo de Improvisção Audiovisual
Roberto Padilha - http://padillarte.blogspot.com/
sábado, 25 de julho de 2009
Intervenção Urbana - intervencaourbana.org
Artistas e grupos
...realizadores de intervenção urbana:
- Poro - Intervenções Urbanas e Ações Efêmeras
- GIA - Grupo de Interferência Ambiental
- EIA - Experiência Imersiva Ambiental
- Esqueleto Coletivo
- Descalços
- Rubens Mano
- Joan Brossa
- Frente 3 de Fevereiro
- Espaço Coringa
- Media Sana
Saiba mais sobre Intervenção Urbana
- Intervenção Urbana - Vírgula-imagem
- Interveção urbana - revista Polêmica Imagem/UERJ nº15
- e na edição nº16 também…
- PIA - Programa de Interferência Ambiental
- SPA das Artes
- Terreno Baldio
- Arte&Fato - Rizoma.net
- Intervenção - Rizoma.net
- Perdidos no Espaço/Formas de pensar a escultura
- Paisana - desdobramentos sobre a paisagem
- Projeto Arte/Cidade
- Coletivos em Rede e Ocupações
- Arte.Coletivos
- Insurgências poéticas: arte ativista e ação coletiva
Fontes: