Aunque en teoría el proceso de puede hacer a base de CPU, es recomendable tener un equipo potente y con una gráfica potente, preferentemente una nVidia de la serie 10 para arriba. Se supone que si tienes una RTX saca partido de los Tensor Cores y debe acelerar mucho el proceso. En mi caso tengo un i7 6600k, con 32 GB de RAM y una GTX 1080, y con esta configuración he comprobado que si en vez de usar la GPU uso sólo la CPU el tiempo de procesado se multiplica casi por 10 (y ya de la otra forma tarda bastante también).
Os voy a contar el proceso que sigo yo para aclarar vuestras dudas... En realidad es sencillo de hacer, como veréis a continuación.
Lo primero es encontrar una buena fuente... Como es lógico, cuanto mejor calidad tenga, mejor suele ser el resultado. Funciona especialmente bien con dibujos animados y con gráficos por ordenador, como habéis podido comprobar. El primer paso es el de interpolar los fotogramas para pasar de los típicos 24, 25 o 30 al doble, es decir, 48, 50 o 60 fps. Para ello vamos a usar DAIN, una herramienta gratuíta y fácil de usar que da unos resultados espectaculares, también usando IA. Sin embargo, está en estado alpha, por lo todavía tiene que mejorar algunas cosas y tiene algunas limitaciones, aunque se actualiza con muchísima frecuencia y mejora rápido. La más importante es que da problemas si la resolución del vídeo original sobrepasa los 900 pixels en alguna de sus dimensiones. Por esa razón suelo partir siempre de archivos con una resolución de 480p (los típicos son 640x480, 720x480 y 854x480), y si el archivo es superior a dichas resoluciones, lo paso antes a 480p. Esto es más que suficiente para obtener unos buenos resultados, por lo que no supone mucho problema. Para un minuto de vídeo, el proceso suele llevar entre 20 y 40 minutos.
Una vez tenemos nuestro vídeo con mayor número de fotogramas, tan sólo hemos de cargarlo en el Topaz Video Enhance AI para aumentar su resolución. Primero elegimos en qué proporción o a qué resolución queremos ampliarlo (hasta un 600%, que es el máximo), y luego elegimos uno de los tres modelos disponibles que usará la IA para trabajar y dar lugar al resultado final. Cada modelo se supone que está más indicado para un tipo diferente de vídeo, siendo los siguientes:
- Upscaling HQ. Es el que está seleccionado por defecto y se supone que es el ideal para vídeos de imagen real.
- Upscaling HQ-CG: Al final, es el que mejores resultados da, y se supone que está especialmente indicado para díbujos animados y gráficos por ordenador, con los que funciona de maravilla. Sin embargo, con ciertos vídeos de imagen real dá un resultado mucho más notorio y mejor que el modo anterior, aunque a veces produce una sensación de exceso de maquillaje en la piel de las personas.
- Upscaling LQ: Este se supone que es el que se debería usar cuando la fuente de origen está muy estropeada y es de baja calidad, llena de pixelaciones y defectos de compresión. Sin embargo, no funciona bién casi nunca, aunque curiosamente me ha funcionado muy bién con vídeos de hace algunos años grabados con una cámara de fotos Panasonic de la serie TZ (de antes de que estas cámaras pudieran grabar en HD).
Es recomendable hacer uso de la función preview, que renderiza sólo 30 fotogramas, para ver el resultado que podríamos obtener, y probar con los tres modelos hasta ver qué resultado nos convence más, antes de poner el vídeo a codificar. Por lo general, en mi caso pasar de un vídeo a 480p y 60 fps a otro a 2160p (un aumento del 450%), me tarda entre 35 y 50 minutos por minuto de vídeo (lógicamente si el vídeo es a 30 fps tarda justo la mitad). Un minuto de vídeo a 480p y 30 fps suele rondar los 42-46 MB, y una vez pasado a 2160p y 60 fps pasa a ocupar entre 420 y 460 MB. Decir también que el vídeo por el momento lo genera sin audio, que hay que añadirlo después con algún programa de edición como Vegas, aunque es tan sencillo como cargar la pista de audio y arrastrar y soltar, para codificar el vídeo de nuevo. En este proceso se pueden retocar un poco los colores si se quiere, como en lo que mostré antes de Dragon's Lair.
Respecto al Topaz Video Enhance AI, no todo es bueno y hay una cosa que me gustaría comentar. Cuando se trata de imagen real y la calidad de la fuente es media, el resultado puede ser bastante irregular o no notarse en absoluto, sobre todo si lo comparamos con lo que hace Topaz Gigapixel AI con las fotos, programa de la misma compañía y que se supone que es la base para este. Imagino que han rebajado el procesado de los fotogramas para evitar que aparezcan aberraciones (que con todo a veces aparecen), mucho más frecuentes con Gigapixel (aunque este permite modificar la configuración de enfoque y reducción de ruido de forma manual y mejorar el resultado). He probado a procesar un fotograma del mismo vídeo con Gigapixel AI y compararlo con el resultado de Video Enhance AI y la diferencia es muy notoria. Por todo esto, para ese tipo de vídeos se puede usar Gigapixel AI en lugar del otro programa, ya que permite procesar múltiples imágenes en batch. Afortunadamente, DAIN al interpolar los fotogramas del vídeo, genera dos carpetas en las que guarda por separado todos los fotogramas, tanto del vídeo de origen como del resultado, por lo que usar Gigapixel para procesarlos es muy sencillo, aunque eso sí, vamos a necesitar bastante espacio en el disco duro y el proceso quizás sea más lento que de la otra forma. Una vez generados los nuevos fotogramas, es cuestión de convertirlos en vídeo con un editor, algo bastante sencillo.