A Intel está dando um grande impulso no futuro dos gráficos. A empresa está apresentando sete novos trabalhos de pesquisa para a Siggraph 2023, uma conferência gráfica anual, uma das quais tenta abordar as limitações de VRAM em GPUs modernas com renderização neural.
O artigo visa possibilitar o rastreamento de caminho em tempo real com renderização neural. Não, a Intel não está apresentando um rival DLSS 3, mas está procurando alavancar a IA para renderizar cenas complexas. A Intel diz que a “quantidade limitada de memória onboard [on GPUs] pode limitar a renderização prática de cenas complexas.” A Intel está introduzindo um nível neural de representação de detalhes de objetos e diz que pode atingir taxas de compactação de 70% a 95% em comparação com “representações clássicas de origem, além de melhorar a qualidade em relação ao trabalho anterior”.
Não parece diferente da Neural Texture Compression da Nvidia, que também foi introduzida por meio de um artigo enviado à Siggraph. O papel da Intel, no entanto, procura lidar com objetos 3D complexos, como vegetação e cabelo. É aplicado como uma técnica de nível de detalhe (LoD) para objetos, permitindo que pareçam mais realistas de longe. Como vimos em jogos como Redfall recentemente, as limitações de VRAM podem fazer com que objetos próximos apareçam com texturas lamacentas e poucos detalhes conforme você passa por eles.
Além dessa técnica, a Intel também está introduzindo um algoritmo de rastreamento de caminho eficiente que, segundo ela, tornará possível o rastreamento de caminho complexo em GPUs intermediárias e até em gráficos integrados.
O traçado de caminho é essencialmente a maneira mais difícil de traçar raios, e já o vimos ser usado com grande efeito em jogos como Cyberpunk 2077 e Portal RTX. Por mais impressionante que seja o rastreamento de caminho, ele é extremamente exigente. Você precisaria de uma GPU principal como a RTX 4080 ou RTX 4090 para rodar esses jogos em resoluções mais altas, e isso com a complicada geração de quadro DLSS da Nvidia habilitada.
O documento da Intel está apresentando uma maneira de tornar esse processo mais eficiente. Ele está fazendo isso introduzindo um novo algoritmo que é “mais simples que o estado da arte e leva a um desempenho mais rápido”, de acordo com a Intel. A empresa está desenvolvendo a função matemática GGX, que a Intel diz ser “usada em todos os filmes e videogames CGI”. O algoritmo reduz essa distribuição matemática a um espelho hemisférico que é “extremamente simples de simular em um computador”.
A ideia por trás do GGX é que as superfícies são formadas por microfacetas que refletem e transmitem a luz em diferentes direções. Isso é caro para calcular, então o algoritmo da Intel basicamente reduz a distribuição GGX a uma inclinação simples de calcular com base no ângulo da câmera, tornando possível a renderização em tempo real.
Com base nos benchmarks internos da Intel, isso leva a uma velocidade superior a 7,5% na renderização de cenas de rastreamento de caminho. Isso pode parecer um pequeno obstáculo, mas a Intel parece confiante de que algoritmos mais eficientes podem fazer toda a diferença. Em uma postagem no blog, a empresa diz que demonstrará como o rastreamento de caminho em tempo real pode ser “prático mesmo em GPUs integradas e de médio porte no futuro” na Siggraph.
Quanto a quando esse futuro chegar, é difícil dizer. Lembre-se de que este é um trabalho de pesquisa no momento, portanto, pode levar algum tempo até que vejamos esse algoritmo amplamente implantado em jogos. Certamente faria alguns favores à Intel. Embora as placas gráficas Arc da empresa tenham se tornado excelentes nos últimos meses, a Intel ainda se concentrou em GPUs intermediárias e gráficos integrados, onde o rastreamento de caminho não é possível atualmente.
No entanto, não esperamos que você veja essas técnicas em ação tão cedo. A boa notícia é que estamos vendo novas técnicas para aumentar a qualidade visual e o desempenho na renderização em tempo real, o que significa que essas técnicas devem, eventualmente, aparecer nos jogos.
Recomendações dos editores