Há mais de 25 anos, os personagens da Pixar, como o xerife Woody, o peixinho Nemo, o ratinho Remy ou a princesa Valente impressionam pelo nível de realismo de seus personagens. O cabelo que balança ao vento, o movimento do peixe no oceano ou do ratinho preparando um ratatouille faz com que os espectadores esqueçam, pelo menos por um momento, de que são animações.

A culpa disso é de um programa chamado RenderMan. É essa tecnologia que faz as histórias da Pixar ganharem vida no mundo digital de um modo assustadoramente realista. Pois, em constante evolução, o software responsável pela renderização, o processamento de todos os cálculos que a cena em 3D contém, chega à versão 23.4 em agosto. E isso significa muito para a indústria da animação.

Embora tenha sido criado em 1988 pela Pixar, o uso do software não é exclusivo do estúdio que revolucionou o mercado de animação com a computação gráfica e com “Toy Story” (1995). Outros estúdios e profissionais têm acesso ao RenderMan mediante o pagamento de licença (de US$ 595, mais a taxa anual de manutenção de US$ 250). Há ainda uma versão gratuita para uso não comercial.

Desenvolvido para tornar as tarefas de computação gráfica automáticas, o RenderMan gera as imagens em alta definição a partir do processamento das informações. Trabalhando integrado aos softwares de modelagem e de animação 3D, que criam propriamente os personagens e os cenários, o processo de render se encarrega de toda a iluminação e do sombreamento, por exemplo.

É na renderização que se define como a cor e o brilho de um objeto, cenário ou outra superfície vão variar de acordo com a iluminação estipulada para a cena. Graças a uma técnica chamada “ray tracing” (rastreamento de raios, na tradução), o RenderMan é capaz de calcular tanto a luz direta quanto a indireta, reproduzindo a reflexão e a refração automaticamente.

Ao simular como a luz interage com o ambiente, com cálculos baseados na Física, o programa deixa a iluminação dos filmes parecida com a da vida real. Isso promete interferir positivamente na percepção do espectador, já que o cérebro estaria sempre procurando identificar como o objeto está posicionado no espaço, apoiando-se muitas vezes na sombra do mesmo.

A profundidade de campo também é aplicada nas cenas pelo RenderMan, determinando o que aparece em foco ou fora de foco. Até as projeções da câmera virtual são ajustadas aqui, fazendo o mapeamento do espaço visualizado pelas lentes do software.

“O RenderMan permite que a equipe técnica execute a visão do diretor do filme da maneira mais realista possível”, contou Dylan Sisson. De sua casa, em São Francisco, o artista técnico do grupo RenderMan, da Pixar, participou de evento online que teve cobertura do NeoFeed.

Foi uma espécie de preview da conferência de computação gráfica que será realizada em Turim, na Itália, em outubro, a VIEW Conference. “Hoje a tecnologia nos permite contar com ferramentas como se estivéssemos em um set de filmagem de verdade. Não precisamos mais trapacear com a luz, como tínhamos de fazer há dez anos”, disse Sisson.

A cada nova versão, ele conta que a ideia é estabelecer novos padrões de velocidade e de eficiência de memória, além da aprimorar os recursos já existentes no RenderMan.

O próximo lançamento da Pixar

Algumas novidades já serão notadas em “Soul”, o próximo lançamento da Pixar nos cinemas. Com a pandemia, a estreia que deveria ter acontecido em junho foi transferida para novembro nos EUA (e janeiro de 2021 no Brasil).

A trama sobre um professor que busca uma nova chance de realizar um antigo sonho, o de ser um músico de jazz, aproveitou algumas melhorias recentes. “Aqueles que já viram o trailer de ‘Soul’ provavelmente repararam que alguns dos personagens são praticamente volumes, modelados como esboços”, afirmou Sisson, referindo-se às almas do filme.

https://www.youtube.com/watch?v=xOsLIiBStEs

Na história, elas são preparadas em uma espécie de seminário, antes de assumirem suas personalidades e serem enviadas para nascer no corpo de um humano. Por elas serem apenas vultos, os contornos de seus corpos não têm traços tão marcantes, ao ganharem um aspecto semitranslúcido.

“Uma das coisas mais insanas que você pode exigir de uma equipe é fazê-la trabalhar com figuras que caracterizamos como volumes na animação. Para atingir um bom resultado visual, muitos desafios precisam ser vencidos”, comentou o artista.

Na computação gráfica, os personagens, objetos e cenários são quase sempre modelados com superfícies e renderizados com um sistema geométrico. É o tratamento ideal para os objetos sólidos e não transparentes, o que não é o caso dos volumes, que exigem um método de renderização menos comum, conhecido como não geométrico.

Nos volumes, que em “Soul” são modelados como se fossem uma espécie de névoa, o sistema aplicado é o de partículas, mais usado para criar efeitos de fumaça, fogo ou explosões. E quanto mais complexidade no personagem, maior o tempo de renderização das cenas, o que costumava ser um problema para os artistas da animação.

Para o brasileiro Ivo Kos, diretor do departamento de cenários da Pixar, um avanço importante na renderização foi justamente a rapidez. “Hoje em dia o RenderMan pode processar qualquer cena, independentemente de sua complexidade, levando um tempo aceitável”, contou Kos, ao NeoFeed.

O brasileiro Ivo Kos, diretor do departamento de cenários da Pixar

O diretor trabalhou em “Procurando Nemo” (2003), “Ratatouille” (2007), “Carros 2” (2011), “Procurando Dory” (2016), “Toy Story 4” (2019) e outros. “Algumas imagens de Procurando Nemo demoravam 70 horas para serem geradas”, lembrou.

Há alguns anos teria sido impensável conseguir renderizar certas cenas. “Como a de milhares de luzes na cidade dos mortos de Viva: A Vida é uma Festa (2017). O mesmo vale para Procurando Dory, pela complexidade dos efeitos de água, e para Toy Story 4, pela quantidade de objetos no Antiquário”, comentou o diretor.

Para Kos, dá para perceber a evolução tecnológica dos filmes da Pixar só ao comparar a sombra natural que ocorre entre objetos no primeiro Toy Story com a da quarta aventura dos bonecos, com um intervalo de 24 anos.

“Há uma diferença marcante no realismo das imagens devido ao efeito chamado ‘ambient occlusion’ (algo como obstrução no ambiente).” Na época dos primeiros filmes do estúdio, o RenderMan ainda não apresentava o recurso. “O que nos obrigava a criar manualmente essas sombras de contato entre objetos”, recordou ele.

Siga o NeoFeed nas redes sociais. Estamos no Facebook, no LinkedIn, no Twitter e no Instagram. Assista aos nossos vídeos no canal do YouTube e assine a nossa newsletter para receber notícias diariamente.