Palestra do Gelo sobre Blender na Unicamp

De Rede Mocambos
Edição feita às 17h04min de 5 de abril de 2012 por Jorgedersu (disc | contribs)
(dif) ← Edição anterior | ver versão atual (dif) | Versão posterior → (dif)
Ir para: navegação, pesquisa
No espaço tridimensional a gente utiliza os mesmos conceitos. Nós temos, dentro da cena tridimensional o nosso ator, que são os elementos, iluminados por algumas cenas e são registrados por uma câmera, de algum determinado ponto de vista, enxergando o que vamos transformar em imagens. A câmera tem ajustes similares aos que têm as câmeras de cinema. A questão da abertura de lente, se ela é uma câmera com perspectiva ou se ela é ortográfica, qual a distância que ela enxerga, a abertura, com algumas vantagens de determinar as distâncias, essa ou aquela, quanto de informação vai estar dentro disso e naturalmente também a questão da resolução que trabalho. Se 640X480, se vai ser isso o resultado da minha cena, se num padrão de cor e resolução já voltado para a questão do NTSC por exemplo, o PAM em termos de cor e dimensão do quadro e aspectos dos pixels, até estar trabalhando com resoluções maiores ou formatos diferentes, 16X9 ou até estar trabalhando com TV de alta definição, estar gerando um filme de 1920X1080 de área de interesse. Estou falando que é uma situação análoga ao cinema, porque essa câmera registra a quantidade de fotografias por unidade de tempo. Registra tantas imagens por unidade de tempo quanto eu determinar nos Frames Por Segundo (FPS). Cada quadro que ele registra seria o que uma câmera real faria com a fotografia. Na computação gráfica a gente conhece como renderização, o Blender renderiza tantos quadros por segundo quanto eu determinar no meu campo de frequência de disparo das fotografias para para ele entender a minha cena, quanto mais quadros por segundos, mais sutil é a transformação da minha animação. Também há maior conjunto de dados por unidade de tempo, um volume de kilobytes maior do que se eu tivesse trabalhando com 12 quadros por segundo. Todas essas informações de resolução e frequência de imagem estão associadas ao destino que eu vou dar para o meu vídeo. Se eu quero mais qualidade, se tenho espaço para isso, e se eu tenho velocidade de transmissão para trabalhar uma quantidade de informação maior por unidade de tempo, eu adiciono mais qualidade, mais resolução na minha imagem, mais quantidade de fotogramas por instantes, ou menos. Ao trabalhar com um fluxo de informação que vai para a internet, não vou trabalhar com FULL HD, 60 qps. Isso é absolutamente impraticável, nem na Suécia eu acho que se assiste em tempo real um vídeo com a qualidade tão exagerada. Óbviamente se fosse visar a internet, faria com uma área menor, menos pixel de largura e de altura e menos qps. Para combinar com algum vídeo que eu já tenha, capturei de alguma câmera uma filmagem que tenha 30 qps, eu vou ter que trabalhar numa velocidade análoga para não ter erro de sincronia. Se faço uma animação que vá se sobrepor a um vídeo, crédito, telepronto, o nome da pessoa, gerador de caracteres para por em cima de um programa de TV, naturalmente teria que trabalhar com a dimensão de quadro, aspecto de pixel e a frequência com que se exibe e as imagens são fotografadas, análoga ao meu vídeo. Por exemplo, um sistema clássico de NTSC, trabalhando com um vídeo que peguei de uma câmera ou de um DVD, numa área de 720X480m pixels, e a imagem que vai ser registrada terá 30 qps, não exatamente precisos, pois no sistema NTSC em cada 1000 quadros ele atrasa 1, sendo 30/1001 e por aproximação 29,97 qps. Estamos trabalhando com uma linguagem razoavelmente técnica, mas que é análoga e correlata à linguagem da produção cinematográfica. Tudo o que é registrado na cena tridimensional, no Blender, gera pseudo fótons que atinge os elementos, cenário e personagens da minha situação, que reflete uma quantidade de luz de volta para a câmera. Não havendo luz nada se vê ou se faz. Havendo luz, os elementos, personagens e cenário, refletem um tanto de luz na câmera que vai fotografar a minha cena, gerando uma imagem, rasterizada, um mapa de pixels com valores de cores. Os valores de cada pixel em 800X600 têm uma informação de cor RGB, mais a transparência, se essa estiver habilitada. Quando eu faço sucessão de fotografias, tenho uma sequência de imagens que tipicamente nos tapeiam, como se estivéssemos assistindo um vídeo. Temos a ilusão de que a coisa está se movendo, vendo uma sucessão de imagens, tendo a ilusão de que é um filme, uma animação. Quanto menor a frequência de imagens que são disparadas, mais óbvio fica do que é um filme, uma sequência de imagens e não um movimento real, vai-se quebrando um pouco a ilusão cinematográfica. É importante perceber que existe um sistema de iluminação que atinge os objetos da minha cena, que refletem, com base da propriedade do material que é configurado, o tanto de luz que recebe e absorve, atingindo a câmera, dando a imagem. E a sequência dessas imagens, vai nos dar a ilusão de animação ou de um vídeo. Então quando a gente vê aqui no Blender a cana animada, e vê o resultado disso já renderizado, esse processo de renderização vai ser rápido ou lento, de acordo com a complexidade da cena que estou renderizando. Isso difere um pouco do universo cinematográfico, onde não importa a complexidade da minha cena. A foto é disparada instantaneamente e fica registrado aquilo. Às vezes depende da complexidade do cálculo, não recebe-se assim a imagem que vem do mundo, ele calcula a luz saindo de cada lâmpada, atingindo cada pedaço da superfície e se tem alguma transparência, o quanto refrata a luz quando passa nessa superfície, calculando tudo para compor essa imagem, esse quadro, esse frame de animação. Dependendo do trabalho, podemos ter horas de renderização, para ter um quadro da imagem. Se for um longa-metragem, dá para imaginar o tempo que ficará o contador trabalhando, e a gente esperando a coisa acontecer. Temos formas e formas de realização, de tapear a ilusão da realidade, de renderizar só o que passa na câmera, esquecer o que tem em volta para que o trabalho seja executado. Aonde eu quero chegar com isso? A renderização, apesar de ser análoga ao cinema, ela tem essa divergência, porque ela vai calcular aquele espaço para gerar uma imagem. Esse é um processo um pouco demorado, mas uma vez que esteja pronto, é instantâneo, têm-se uma sequência de imagem muito fácil de manipular aqui no Blender, em termos de sequência. Tendo um conjunto de imagens renderizadas na minha cena da computação gráfica armazenada no meu disco, eu consigo facilmente trazê-las aqui para a interface e sequência-las para que tenham o aspecto de um filme. Posso aplicar toda a ciência de edição de áudio e de vídeo para combinar esses elementos já prontos e dar o acabamento. Além de ser um editor de texto, um ilustrador vetorial, um editor de imagem, de modelagem e animação, o Blender também passa necessariamente pela questão da edição de áudio e de vídeo. Dentro do próprio programa, ao final dessas etapas, já com a minha animação renderizada e concluída, seja em sequência de imagem ou num próprio vídeo, eu vou conseguir encadear e organizar isso, fazer fusão entre cenas, fazer passagens complexas entre uma cena e outra, para estar fazendo a finalização do meu filme. Não é só modelar e animar. Não vou fazer todas as fusões e transições dentro do universo tridimensional, vou renderizar as minhas cenas e vou, como se numa ilha de edição, numa mesa de corte, estar pegando as minhas cenas prontas e montando o filme propriamente. Quando digo que dentro do Blender editamos áudio e vídeo, eu quero dizer que conseguimos organizar subdivisões e janelas, com áreas de interesse que equivalem a uma edição de vídeo.
Justified (flush left and right) Flush left, ragged right
  • Texto transcrito por Jorge Dersu de vídeo na internet, sobre palestra do autor na Unicamp, Campinas – SP.
Ferramentas pessoais
Espaços nominais
Variantes
Ações
Navegação
Ferramentas
Rede Mocambos