Você não sabe o que é Ray Tracing na RTX? A NVidia explica!

V

Batemos um papo super bacana com Sean Kilbride, gerente técnico de marketing da NVidia sobre o uso de inteligência artificial e ray tracing em tempo real nas novas placas RTX e o seu impacto tanto no mercado profissional quanto de entretenimento.

No fim do ano passado, passamos uns dias no Vale do Silício e visitamos algumas empresas, entre elas a NVidia

Clique para ampliar

…sendo que graças a uma ajudinha dos nossos chapas de sempre (hi Dave! hi Rich! hi Ziebert!) marcamos uma conversa com Sean Kilbride, gerente técnico de marketing para workstation, sistemas pessoais e review de produtos da NVIDIA que nos falou sobre os avanços da sua empresa nas áreas de inteligência artificial e ray tracing (ou RT) em tempo real nas novas plataformas gráficas da empresa.

Note que essa conversa ocorreu no fim de novembro do ano passado, ou seja, bem antes dos anúncios oficiais do GDC 2019, de modo que algumas coisas que ele disse na época ainda podem ser novidade e outras não:

Para resolver os problemas que nós temos

Nagano: Estamos aqui na Endeavor e toda vez que venho para cá eu nunca me canso de apreciar o visual deste prédio e o quanto do DNA da empresa está aqui representado tanto na sua forma quanto da sua função…

Sean: Sim, essa é uma das coisas que fazemos em nossa área que é mostrar como nossa tecnologia pode ser usada par resolver problemas do mundo real e trazer de um modo ou de outro alegria para as pessoas.

Por exemplo, na área de arquitetura queremos ajudar esses profissionais como visualizar espaços e, no caso de prédios, isso vai muito além da sua simples aparência já que outros fatores precisam ser levados em consideração, como por exemplo, como a edificação como um todo vai se integrar com o ambiente ao seu redor…

… e do mesmo modo como o interior do mesmo vai interagir com as pessoas que nela habitam e é nesse momento que começamos a perceber como a posição de uma janela ou de um ponto de iluminação influencia o ambiente, e que pode variar de acordo com hora do dia e da estação do ano, sendo que muitos desses controles foram automatizados a partir de informações obtidas a partir de simulações feitas com ray tracing.

A grande novidade neste caso é que muitas dessas tecnologias que desenvolvemos e utilizamos internamente estão finalmente chegando ao consumidor final na forma de produtos.

E além do uso do ray tracing em tempo real em jogos, também estamos aplicando essa mesma tecnologia no mercado profissional, onde essas visualizações eram criadas por meio de técnicas convencionais de rasterização, agora podem ser feitas em ray tracing com resultados bem mais realistas.

E isso é uma das coisas bacanas que estamos vendo com essa nova tecnologia — é o rápido desenvolvimento de coisas como representações baseadas na física da luz e nas características dos materiais está se espalhando não apenas no mercado de hi-end mas também no segmento de mainstream com os produtos da série RTX.

Um bom exemplo disso é uma demo do Star Wars que apresentamos na GDC do ano passado (2018)…

… que rodava originalmente numa workstation topo de linha equipada com quatro GPUs Tesla V100 e que agora roda numa única placa RTX porque os novos núcleos RT “Turing” possuem um recurso de aceleração de ray tracing ou seja, é muito legal ver como essa transição dos sistemas hi-end está chegando ao mainstream.

Nagano: Como esses novos sistemas RTX se comparam com a geração anterior? Você teria alguma referência em termos de economia de tempo?

Sean: Para medir a capacidade de processamento dessas placas usamos uma escala que chamamos de gigapixel (109 ou 1 bilhão)/segundo sendo que a placa GeForce RTX 2080 Ti

… ou a Quadro 6000

… alcançam algo em torno de 10 a 11 gigapixels/s o que envolve o uso de milhares de raios na criação da imagem.

Já se olharmos para a geração anterior, como a microarquitetura Volta está presente em um número relativamente restrito de produtos e ray tracing não é o seu foco, acredito que a melhor referência seja a microarquitetura Pascal, só que eu não tenho os números exatos na cabeça mas o seu desempenho em gigapixels é significativamente menor.

A grande diferença para essa nova geração é o uso de um hardware dedicado.

Carros, machine learning e I.A.

Nagano: E quais seriam os outros benefícios que essa tecnologia pode trazer para os usuários finais?

Sean: Eu acho que isso é algo importante que eu gostaria que nossos usuários entendessem, ou seja, que tudo isso é muito mais do que “números” e sim uma maneira de entender as coisas como no desenho de carros onde novas tenologias estão entrando nesses produtos como machine learning e inteligência artificial.

De fato estamos desenvolvendo muitas coisas nesta área, como por exemplo produtos dedicados com Tensor Cores criados para treinar redes neurais o que nos permite construir uma estrutura que permite que esses carros possam dirigir sozinhos, utilizando processamento intensivo de imagens:

Fora isso estamos também desenvolvendo uma série de parcerias com empresas como Adobe e Sensei para trazer a tecnologia de inteligência artificial para todas as pessoas.

E essa é uma das áreas em que a inteligência artificial da Nvidia representa um grande benefício, já que ela abre as portas para essa grande rede de tecnologias que irão permitir que as pessoas sejam capazes de fazer coisas como essa.

I.A. na produção de vídeo

Na minha área profissional, temos pessoas que trabalham com vídeo e coisas do tipo e eles tem tanta coisa pra fazer no seu dia a dia, sendo que na verdade eles nem precisariam gastar tanto tempo.

Por exemplo, quando uma equipe sai para filmar, quando voltam eles tem que catalogar minuciosamente cada sequência com informações detalhadas de o que e onde foi filmado, para depois separá-los em grupos que chamamos de A-roll e B-roll, sendo que o A-roll é usado para a contar a história principal…

… enquanto que o B-roll é usado para armazenar detalhes que podem ajudar a complementar a narrativa:

O problema neste caso é que na hora da edição perde-se um tempo para achar aquele trecho no B-roll que tornaria a história mais interessante — e é nessa hora que técnicas como a identificação automática de objetos e cenas no vídeo por meio de IA pode ser de grande ajuda — já que o sistema de inteligência artificial pode analisar todos os vídeos e fazer todos os cortes necessários e catalogá-los automaticamente, de modo que as pessoas que tem um lado mais criativo não precisam mais ficar fazendo toda essa preparação, deixando isso para o sistema de IA e se concentrar naquilo que realmente importa que é filmar, editar e criar histórias realmente cativantes.

Nagano: Com isso você quer dizer é que os usuários das placas profissionais da NVidia também podem tirar proveito das tecnologias de IA.

Sean: Exatamente!

Nagano: Isso é fascinante porque quando pensamos numa placa Quadro só lembramos na sua capacidade de gerar imagens.

Sean: Sim! — É que essa nova série RTX também vem equipada com Tensor Cores o que permite utilizar uma rede neural treinada de uma maneira bem mais veloz e eficiente do que num CUDA Core por meio de inferência, tirando assim o máximo proveito delas em aplicações reais do dia a dia.

Nagano: O interessante é que isso extrapola completamente o conceito de placa gráfica, né?

Sean: Sim… Estou na NVidia já faz um bom tempo — quase 20 anos — e quando comecei nós só colocávamos pontos na tela, mas depois colocamos polígonos, aplicamos sombras (ou shades) e os iluminamos…

… depois criamos sombras programáveis e vértices programáveis e depois as GPUs passaram também a rodar rotinas computacionais complexas por meio da tecnologia CUDA e agora estamos fazendo coisas como simulações físicas de materiais por meio de ray tracing o que vai muito além dos gráficos rasterizados.

Isso porque agora estamos pegando as propriedades físicas dos materiais e da iluminação do ambiente e combinando essas duas informações para criar uma impressão mais realista do mundo real.

Ray tracing na telona

Isso vai ser muito bom para os jogos porque o nível de realismo e de imersão é ótimo, mas isso também vai ser super importante para quem trabalha com design de produtos, para arquitetos e até mesmo para a indústria do cinema que será capaz de criar efeitos cinemáticos e de CGI (Computer Generated Imagery).

Mas no caso de produções de alto nível, ele ainda não vai substituir a demanda por ray tracing em larga escala. Já que isso ainda vai exigir o uso de várias GPUs montadas em servidores que levarão de minutos até horas para criar os quadros finais.

Mas de repente, você vai pode usar um PC para compor suas tomadas e dar uma olhada para entender como você vai querer a cena, colocando personagens bem antes do processamento final.

Imagine um filme totalmente animado como os da Pixar ou outro que tenha um monte de efeitos especiais e veja que para cada frame que é projetado na tela existem dezenas ou milhares de outros quadros que foram analisados até chegar nas decisões que determinaram como a cena deverá ser enquadrada, iluminada e quais materiais serão aplicados nos personagens e objetos, de modo que se você tem condições de tomar essas decisões antecipadamente, isso fará com que o processo seja muito mais produtivo.

Não existe “menos tempo” no cinema

Eu trabalho com uma pessoa que trabalhou na produção de filmes e o que ele sempre me diz, é que neste mercado “você nunca tem menos tempo“.

A idéia neste caso é que se fizermos algo que te faça ganhar tempo, esse tempo será ocupado com outra coisa. Isso porque quando você trabalha na produção de um filme ninguém vai dizer “Oh, o serviço está pronto? Então vamos pra casa!” (risos!)

O que isso significa é que a partir do momento que você consegue fazer algo mais rápido, o que os outros vão te dizer é “Ah, então faça isso maior! Faça isso melhor! Faça isso mais realista!” — ou seja — você aumenta o nível de realismo de todas as coisas até o ponto que não reste mais tempo!

Dai, como o tempo é algo que não muda, o tempo que você ganha com mais desempenho é reinvestido na melhora da qualidade do seu trabalho.

Assim se você consegue eliminar deste processo todo o tempo que se perde com renderização de imagens e coisas do tipo, só para ver como as coisas vão ficar e trocar tudo isso por um sistema de visualização em tempo real, no fim das contas o seu produto final ficará ainda melhor!


E de fato, existem vários exemplos de filmes que você assiste e pensa “Hum… O filme até que é bom, mas seria muito melhor se os gráficos não fossem tão ruins!” — ou seja — o CGI pode até comprometer a estória se mostrar coisas que parecem falsas, uma crítica por sinal que ouvimos muito de filmes como Justice League.

Nagano: Você está se referindo ao bigode do Superman, né? Mas você acha que aquilo foi real ou não passa de um meme?

Sean: Sim aquilo foi real! — O que acho que aconteceu é que eles já tinham gravado um monte de sequências (com o ator Henri Cavill) mas tiveram que refazê-las. Só que ele já estava trabalhando em outro filme onde o personagem tinha bigode de modo que eles resolveram removê-lo usando CGI e o resultado ficou horrível!


Nagano: Sim, o lábio de cima parece estar anestesiado ou coisa do tipo!

Sean: Sim! Se eles tivessem mais tempo para pensar como a aparência final deveria ser, eles teriam condições de fazer um trabalho muito melhor e ter obtido no final melhores resultados.

O que fazemos aqui no espaço profissional é que trabalhamos realmente juntos com os desenvolvedores de aplicações, seja na área de produção de vídeo com o pessoal da Davinci Resolve na parte de graduação de cores ou a Adobe com sua linha Premiere Pro, no lado do 3D com a Autodesk com a linha Maya e 3D Max Studio no sentido de permitir que todos esses produtos possam oferecer mais para seus clientes por meios de novos recursos que possam rodar na GPU.

De fato, fomos os primeiros a transferir o trabalho de renderização de imagens da CPU para a GPU, permitindo assim que as coisas andassem mais rápidas.

Isso é particularmente interessante no caso dos artistas individuais que podem fazer o seu trabalho localmente sem precisar de enviá-los para um rendering farm para se ter uma idéia do resultado final ou até uma visão bem próxima do mesmo.

E até numa situação contrária do que disse antes, isso pode até ser bom para o artista já que ele poderá até passar mais tempo com a família ao invés de ficar 12 horas na frente do PC esperando uma renderização terminar.

Isso também não deixa de ser algo importante, ou seja, como a tecnologia pode impactar positivamente na vida das pessoas e é nossa preocupação fazer com que a ferramenta não seja a coisa que impeça as pessoas de criar.

Rendering x ray tracing

Nagano: Você sabe que muitos de nós jornalistas entendemos de um pouco de tudo mas não somos mestres em nada, de modo que você poderia me explicar a diferença entre as tecnologias de rendering e ray tracing?

Sean: Sim claro! — A grande diferença é que quando você observa um gráfico em 3D estamos falando em gráficos rasterizados (ou raster graphics) que é algo bem simples — ou seja — é a idéia de pegar uma representação tridimensional (feita de polígonos) que é convertida para uma imagem bidimensional. Só que para tornar essa imagem bonita, aplicamos diversas técnicas avançadas com o objetivo de transformar esse modelo 3D numa representação mais próxima possível da realidade.

E também tem a luz, de modo que para iluminar esses objetos de maneira correta nós precisamos recorrer a alguns “truques” porque algumas dessas superfícies que criamos não reagem à luz do mesmo modo que no mundo real, de modo que fazemos um monte de coisas para que eles pareçam mais reais.

Já no ray tracing, esse processo é inerentemente diferente porque ele funciona mais ou menos do mesmo jeito que a nossa visão funciona, ou seja, partículas de luz (ou fótons) incidem em um objeto que depois são refletidas na direção dos nossos olhos, formando assim uma imagem.

Só que essa luz também pode vir de diversas fontes (como o sol ou uma lâmpada) e depois de chegarem no objeto elas podem ser refletidas para diversas direções e rebater em outras superfícies e objetos e, eventualmente, também chegar aos nossos olhos.

O ray tracing funciona de maneira semelhante, só que ao invés da luz vir de algum lugar, os raios partem da câmera (1.) na direção ao objeto (2.). Isso porque não estamos interessados em todos os raios de luz que incidem e rebatem no ambiente e sim apenas naquelas que irão formar a imagem (3.)
que iremos ver:

Então o que fazemos é trabalhar ao contrário e o desafio neste caso é que nós precisamos saber como a luz irá se comportar ao refletir em qualquer material que existe neste mundo.

Para simplificar esse processo foi criado o que foi batizado de BVH (Bounding volume hierarchy) é uma representação hierárquica (na forma de árvore) que determina como um objeto se relaciona com outros dentro de um mesmo cenário, ou seja ele começa no nível individual que são empacotados em grupos maiores…

… e a maneira com que essa técnica acelera as coisas que nós testamos a luz primeiro nos grupos maiores e, se a luz escapa e não incide sobre nenhum objeto nós simplesmente o descartamos porque isso significa que não enxergamos o objeto.

O que acontece na nova linha RTX é que ela possui componentes de hardware dedicado que acelera a construção e a navegação dessas estruturas de BVH e se você imaginar uma cena realmente complexa, você começa a ter uma idéia da complexidade dessas estruturas, onde temos objetos que são parte de outros objetos e como eles respondem a luz.

Assim se um raio incide em algo e o resultado é um grande volume de reflexos, isso indica que precisamos nos aprofundar ainda mais na estrutura do BVH para chegarmos finalmente no objeto final e descobrir quais são as características físicas desse material e como ele deve ser representado.

Outra coisa que é muito bacana no ray tracing é que ele é baseado nas atributos físicos como cor, textura, reflectividade e transparência que juntos mostram como um objeto é visto no mundo real, ao contrário do processo de rasterização onde temos que usar todos os nossos truques e técnicas de programação para “simular” esse mesmo resultado.

Já no Ray tracing, isso simplesmente funciona porque os objetivos que você está representando é baseado uma simulação física.

Por exemplo, se determinarmos que um objeto é de madeira, quando a luz incidir na sua superfície nós já sabemos como esse material se comporta mesmo se a superfície for brilhante ou opaca acelerando assim a geração da imagem.

Representando o mundo real

Nagano: Baseado nisso, quais seriam os materiais mais difíceis de serem representados com ray tracing?

Sean: Hum… Coisas como vidro são particularmente desafiadoras, porque a luz se espalha ao passar por ele e podem de comportar de maneiras diferentes por causa de combinação de características como transparência, refração e reflectância do material…

Nagano: E pelos?

Sean: Sim, pelo e cabelo também são materiais bem interessantes porque eles possuem uma estrutura que é muito fina o que faz com que apesar deles serem um material sólido, eles deixam a luz passar por entre os fios, de modo que para representá-lo de maneira adequada, você tem que usar técnicas como subsurface scatering e internal opacity.

Fora isso, a representação de pelos é particularmente desafiadora quando temos que lidar com uma grande quantidade desse material e temos que testar a luz em cada fio individualmente.

Nagano: Como vocês determinam as características físicas de cada tipo de material? Isso é analisado em um laboratório ou é calculado de algum modo?

Sean: Existem diversos métodos para determinar as características de certos materiais físicos. Por exemplo, alguns sistemas possuem ferramentas equipadas com sondas capazes de tocar numa superfície e medir seus níveis de cor e reflectância enquanto que outros usam câmeras.

Nós temos nossa própria biblioteca de materiais físicos batizada de vMaterials que fornecemos na forma de SDK para qualquer um interessado em desenvolver aplicações e isso sem falar de outras empresas que também criam suas próprias bibliotecas de materiais.

Aquilo que fazem as coisas

Grandes empresas como as da área automobilística também criam suas próprias bibliotecas de materiais que são usados na construção dos seus carros, de modo que cada uma pode ter suas próprias representações de vidros ou de cores exclusivas para os produtos que eles estão desenvolvendo, e quando eles aplicam esses materiais em seus carros, os projetistas tem uma idéia mais precisa de como ele realmente será e irá se comportar no mundo real — algo que eles chamam de measuring materials.

Por exemplo, no caso de um novo tipo de material — digamos, um vidro — realizamos um verdadeiro estudo teórico do mesmo ou seja, como ele se comporta numa janela, quais são seus índices de refração, como tratar diferentes cores e tons de acordo com os ingredientes usados na sua fabricação, etc.

Com tudo isso é possível depois pegar esse novo perfil de informações e usá-lo como um measure material por exemplo, na simulação de um projeto arquitetônico para analisar como a luz irá realmente se comportar no seu interior tendo assim uma percepção mais precisa de como será sensação de habitar o mesmo.

E isso sem falar de outras análises bem interessantes, já que a partir do momento em que sabemos exatamente a quantidade de luz que entra no interior de uma sala, é possível avaliar o que isso representa em termos de geração de calor o que, por sua, vez pode influenciar outros fatores ambientais como o dimensionamento do sistema de ar condicionado.

Nagano: Quando você fala nesses atributos físicos — de todos esses materiais que já foram estudados e classificados — estamos falando numa ordem de grandeza de que tamanho? — Milhares? Milhões?

Sean: Eu não teria um número preciso, mas eu diria que é uma quantidade substancial. Mas isso vai mesmo depender do modelo de uso.

Por exemplo, se for um filme e eu quiser aplicar um efeito gráfico onde os movimentos dos atores presentes na mesma sincronizem perfeitamente com objetos virtuais que serão adicionados posteriormente — como um carro em movimento — dá para se virar bem com uma biblioteca padrão de materiais que não precisam ser 100% precisos como um measure material, já que o objetivo final é que ele simplesmente fique bem na tela.

Mas se você for de uma equipe de fórmula 1 e estiver projetando partes de um carro onde você precisa saber como ele vai se comportar na pista — digamos, quando o carro entrar numa curva e essa peça começar a refletir intensamente o brilho do sol direção da câmera de diversos ângulos — ai vai ser melhor contar com um measure material.

Nagano: Sim! Eu me lembro de uma matéria da época do lançamento do filme Procurando Nemo que falavam sobre a complexidade de como reproduzir perfeitamente as escamas dos peixes…

Sean: Sim… E uma das coisas que eles aprenderam naquela produção é a importância do subsurface scatering, principalmente na maneira como a luz refletia nos peixes, já que muitos deles eram muito finos de modo que parte da luz passava por eles. Antes disso, o resultado final sempre foi meio opaco.

O engraçado é que quando você vê algo como Nemo você sabe que ele não é real porque é um personagem de desenho animado — porém, ele parece muito vivo — e o motivo para isso é que os atributos físicos usados nesses personagens imitam tudo aquilo que esperávamos ver.

São pequenos detalhes como esses que fazem a grande diferença quando vemos aquelas primeiras animações por computador que não adotavam aquela tecnologia…

Toy Story (1995)

… e as mais recentes:

Toy Story 4 (2019)

Mesmo assim, esse tipo de animação não precisa ser hiper-realístico porque você nunca vai confundir Nemo como um peixe de verdade. Porém, ele vai sempre te passar aquela sensação de que sim — ele é um personagem verdadeiro!

Computer graphics nunca regride

Nagano: Sim, eu me lembro que na época em que a Pixar lançou seus primeiros filmes, havia aquele atrativo de ser algo novo e exótico — um filme gerado num computador (UAU!) — mas com o passar do tempo, isso deixou de ser novidade mas as pessoas ainda continuavam a ver os filmes subsequentes porque a estória era realmente boa e não porque era feito por computador…

Sean: Sim, uma coisa interessante sobre os gráficos visuais é que eles nunca regridem — ao invés disso eles sempre avançam.

Eu entendo seu ponto de vista porque quando a gente viu pela primeira vez filmes como Vida de Inseto (1998) ou o primeiro Toy Story (1995) era algo revolucionário que nunca tinha sido feito no passado, nunca!

Mas trazer esse tipo de gráficos para um filme de hoje é praticamente impossível porque o público simplesmente já viu aquilo e espera que a tecnologia evolua e que a qualidade visual também melhore.

Mas para isso você precisa de ter um hardware capaz de realizar isso e entregar essa mesma qualidade usando ray tracing em tempo real em um jogo, como por exemplo em Battlefield V onde podemos ver coisas como fogo refletindo nas vitrines das lojas ao passarmos por elas, o que eleva o nível de detalhamento e de imersão para um nível de cinema:

Ray tracing em jogos

Nagano: Até onde me lembre, implementar Ray Tracing em Jogos é uma velha promessa do mercado de modo que gostaria de saber se isso já é realidade ou ainda não?

Sean: Até recentemente estávamos vivendo o dilema do ovo ou da galinha — ou seja — o ray tracing em tempo real ainda não era totalmente viável porque a oferta de hardware compatível ainda não era grande o suficiente para fazer algum desenvolvedor implementar essa tecnologia em um jogo e o público por sua vez, também não vai gastar com hardware novo enquanto não houver uma boa oferta de títulos compatíveis com ray tracing em tempo real .

De fato, somente agora com o lançamento das novas placas da série RTX é que essa tecnologia começa a se tornar viável e o resultado disso é que como o processo de desenvolvimento com essa tecnologia é meio lento, o que estamos vendo é a chegada dos primeiros títulos, como o já citado Battlefield V

… e Shadow of Tomb Raider

… eu só não me recordo se o recurso já está presente ou será implementado em breve, mas fato é que o ray tracing em tempo real começará a aparecer com mais força a partir de agora, já que antes era bem mais difícil para os estúdios desenvolverem ou adaptarem seus produtos para essa tecnologia, o que deve mudar a partir do momento que as novas placas RTX chegarem ao mercado.

Isso também deve gerar um fenômeno semelhante ao que aconteceu no passado na época do lançamento do CUDA onde o recurso estava presente nas placas mas ninguém tirava muito proveito porque ainda não havia muito desenvolvimento com essa linguagem.

Já hoje, exitem diversas aplicações como os sistemas de renderização que rodam em GPUs que são muito populares nos dias de hoje como vRay, Octane Render, RedShift, etc.

Nagano: Você acredita que o ray tracing possa substituir os gráficos rasterizados como um novo padrão para o mercado de jogos ou ele só vai servir pontualmente para tornar algumas partes dos jogos mais bonitas?

Sean: O que estamos vendo hoje é uma abordagem “híbrida” onde o ray tracing e os gráficos rasterizados estão sendo combinados.

Nagano: E como eles fazem isso?

Sean: Cada jogo faz isso de uma maneira diferente. Mas a idéia principal é que nas partes do jogo onde rasterizar faz sentido são rasterizadas e as partes que fazem sentido serem criadas via ray tracing assim vai ser feito.

Por exemplo, digamos que este prédio esteja dentro de um jogo, só que gerar essas paredes brancas e lisas com ray tracing não faz nenhum sentido, de modo que elas podem ser facilmente rasterizadas. De fato, até mesmo as plantas poderiam ser criadas com esse mesmo processo:

Já as partes que refletem muita luz (e mesmos as áreas sombreadas) como o tampo desta mesa ou o chão de mármore poderia ser criado com ray tracing já que desse modo não será preciso criar sombras falsas, o que demanda bastante processamento no modo rasterizado, enquanto que no ray tracing isso é algo simples e direto porque neste caso, a sombra nada mais é do que o local onde a luz não chega — fora que essa tecnologia é mais adequada para gerar esses efeitos complexos de luz e sombra de maneira super precisa, assim como os efeitos translúcidos:

E isso é feito em duas passadas, ou seja, na primeira cria-se a parte rasterizada e na segunda a com ray tracing que juntas formam na imagem final — resultando assim no melhor de dois mundos.

I.A. + ray tracing

O interessante é que também estamos combinando técnicas de inteligência artificial com uma técnica de ray tracing onde utilizamos bem menos raios que o necessário para criar uma imagem completa o que resulta numa imagem aparentemente cheia de ruído …

… mas que passa por um “filtro” que utiliza técnicas de redes neurais e aprendizado de máquina para criar novas informações que são usadas para para “preencher” os espaços vazios resultando assim numa imagem “limpa”:

Nagano: Essa abordagem híbrida é baseada apenas em software ou é preciso algum hardware dedicado para suportá-lo?

Sean: Ela precisa de um hardware dedicado porque o ray tracing não seria veloz o suficiente para manter o número de frames necessários para criar o efeito de animação, principalmente no caso de jogos que exige uma velocidade de, pelo menos 30 quadros por segundo para mais.

Nagano: E esse hardware já existe?

Sean: Sim, é exatamente essa técnica que é usada em Battlefield V onde a imagem é rasterizada e o ray tracing é aplicado por cima. De fato é assim que a tecnologia DXR (DirectX Raytracing) funciona.

Jogos contemplativos

Nagano: A impressão que tenho é que o uso do ray tracing em jogos como Battlefield V é que ele é pouco relevante em termos de jogabilidade já que no calor da batalha, o jogador médio vai estar mais preocupado em não tomar um tiro e morrer do que parar para admirar aquele belo reflexo na vitrine da loja — ou me perdi em algo nesse raciocínio?

Sean: Essa observação é interessante porque o que eu acho — mas só o tempo dirá né? — é que o que poderemos ver no futuro, é uma mudança no tipo de jogo que as pessoas irão jogar, que será mais baseado na experiência de imersão do que na ação propriamente dita.

Por exemplo, no passado existia um jogo chamado Myst

… que estava longe de ser um jogo de ação já o que todos apreciavam neste título era o seu belíssimo mundo que nunca havia sido visto antes:

… só que depois vieram os jogos de ação onde o mais importante era mover-se o mais rápido possível pelo cenário e fazer coias (como airar em tudo que se move) ou seja, o principal atrativo desse tipo de jogo é a sua mecânica, certo?

Mas existem ocasiões onde um nível de realismo adicional vai ser algo tão divertido ao ponto da imersão do ambiente se tornar um elemento chave da experiência de jogar, algo tão bacana que a pessoa até parece ter vivido uma grande aventura naquele mundo.

Nagano: O que você está querendo dizer é que no futuro poderão existir novos tipos de jogos que ainda nem foram criados que poderão tirar melhor proveito desses novos efeitos de realismo?

Sean: Sim. No meu caso eu realmente aprecio quando eu vejo algo e penso “eu não acredito, parece que estou num filme!”

De fato, para mim o que mais aprecio num jogo é que ele nos dá a oportunidade sairmos do lugar comum e fazer algo que ele nunca faríamos no mundo real.

Nagano: Sim. É uma maneira bacana de se pensar (risos!)

Disclaimer: Mario Nagano viajou por conta própria para a Califórnia e visitou a Endeavor a convite da NVidia. As fotos bacanas, sacadas brilhantes e piadinhas infames são dele mesmo.

Sobre o autor

Mário Nagano

Desde o século passado Mario Nagano analisa produtos e já escreveu sobre hardware e tecnologia para veículos como PC Magazine, IDGNow!, Veja e PC World.
Em 2007 ele fundou o Zumo junto com o Henrique assumindo o cargo de Segundo em Comando, Editor de Testes e Consigliere.

RSS Podcast SEM FILTRO




+novos