Actualmente generar las animaciones contenidas en un videojuego moderno puede requerir meses e incluso años de trabajo continuo, todo para que el resultado final deje que desear por la apreciación de esa pequeña pero perceptible falta de naturalidad en la articulación de los gestos. La solución desarrollada por Nvidia y Remedy busca solucionar en medida de lo posible esta clase de problemas dejando que sean redes neuronales las encargadas de procesar esas animaciones a partir de actores reales.
El método en cuestión comienza suministrando a un servidor Nvidia DGX-1 armado con procesadores Tesla V100 una serie de datos faciales en vídeo y animaciones realizadas manualmente. Aparentemente solo 10 minutos de metraje son suficientes. Una vez que tiene la información necesaria para conocer el rango de movimientos del rostro del actor, el sistema es capaz de generar las animaciones. Más aún, el sistema es capaz de generar gestos virtuales a partir de la propia voz del actor.
De acuerdo con sus responsables, este sistema simplifica notablemente la creación de animaciones realistas al dejar en manos de una máquina gran parte del trabajo. Y a juzgar por el vídeo publicado por uno de los investigadores involucrados en el proyecto, los resultados pueden ser de muy alta calidad, rivalizando con la captura de movimientos faciales en tiempo real pero con muchas horas menos de trabajo de por medio.
Esta avanzada técnica de generación de animaciones faciales mediante redes neuronales no es la única novedad que Nvidia presentó durante la Siggraph. Según indica ArsTechnica, la compañía también avanzó un tipo de antialiasing que utilizaría inteligencia artificial para detectar los dientes de sierra en objetos tridimensionales y suavizarlos de forma selectiva en lugar de aplicándose sobre toda la escena. Esta técnica debería brindar una mejora perceptible en la calidad de imagen con respecto a las técnicas actuales.