Devs echando pestes y sin congruencia, veremos en un futuro a ver que tal:
Se les nota el resquemor y el desprecio que tienen por este tipo de tecnología, dejamos esto aquí para recordarlo más adelante, hablan de altividad pero se los ve poco altivos a ellos.
El argumento del español medio y porque la industria de este país está estancada en el indie:
"Gente que no ha desarrollado videojuegos explicando como se desarrollan los videojuegos". Españoles medios que no saben que la mayoría de figuras relevantes actuales de la industria no tenían nada que ver con la programación ni la tecnicidad, aunque tampoco voy a negar que detrás esas figuras había buenos equipos técnicos, pero Sam Houser, Kojima, Todd Howard, Myazaki, Miyamoto, Mikami, Josef Fares podría seguir con la lista, estas figuras no saben programar ni esculpir y han creado géneros y son creadores de propiedades intelectuales de las mejores que se han hecho nunca, o las han impulsado a otro nivel, y no tienen una carrera en diseño de videojuegos, ni han pinchado código en su vida, en este país serían parias.
Sobre el efecto wow comparándolo con el internet... el efecto wow ha ocurrido siempre con los gráficos, cuando ha salido RDR2, RE4, P.T mismo, la gente se ha impresionado, en los gráficos de juegos siempre ha habido efecto wow, cuando se pasó del 2D al 3D o con el primer Gears of war o Dead Rising, aunque ahora ya no hay tanto porque los saltos no son tan altos y si no viene Rockstar o una empresa que sorprenda con algo concreto no ocurre, por ejemplo, Bethesda se ha quedado atrás tecnológicamente, se ha estancado completamente en todo, físicas, simulación de conducción de vehículos, animaciones faciales, etc...; el juego por ejemplo de bodycam, que era una triste demo preparada y que gran parte del wow de los gráficos es por la fotogrametría, por mucho que digan que es por el efecto deblur que le meten, que algo tiene de efecto en que parezca más real, pero la fotogrametría, que el entorno parezca real, es lo que más hace, y puede que ese escenario esté hasta incluso generado por IA mediante NeRF, de hecho la fotogrametría clásica está muriendo, va a ser sustituida por tecnología como gaussian splat, esto obviamente hablando de juegos que busquen fotorealismo.
Sobre que es un filtro, pues es un postprocesado, como lo puede ser otro filtro que le aplicas a un juego, la única realidad que hay que tener en cuenta es que esto aún no es real en tiempo real y por eso se dice que será el futuro, otra cosa sería que se dijera que es ya el presente y el ahora, pero vamos, que no se había visto algo así en la vida aplicado a todo tipo de juegos y es normal que sorprenda, es como la clonación de voz, de la cual casi nadie ahí se ha sorprendido, pero también existe; son cosas que no existían y aún menos producirlas en cuestión de segundos, el fotorrealismo este no se había logrado nunca antes de esta forma y si se había acercado algo eran prerenders muy concretos con Houdini u otro tipo de software muy específico que lleva meses de hacer, mucho trabajo y hecho por personas muy cualificadas técnicamente que se dejan meses o semanas, porque he visto simulaciones con Houdini que son alucinantes, eso si, aquí hablamos de diseño de entornos, si nos vamos a personajes ya es muchísimo más difícil, aunque he visto cosas sorprendentes, pero te las hace uno entre un millón, no cualquier escultor consigue esos flujos de trabajo y tiene esa calidad técnica, hablamos de prerenders de Houdini.
Por otra parte partamos de la base de que Houdini se usa para VFX en cine, para hacer parques y recreaciones o prototipos y efectos, no es algo que se utilice mucho en videojuegos salvo para efectos y luego está muy alejado de las simulaciones técnicas de esos vídeos, no tiene nada que ver, aunque son sorprendentes sus resultados visuales, yo lo he flipado muchas veces, pero es que no tiene nada que ver con esto, esto es un postprocesado que se puede aplicar directamente a un juego, eso es un motor para generar vfx y simulaciones, y creo que estamos mucho más cerca de poder generar imágenes realistas con eso que renderizando todos los polígonos que requeriría un render de houdini, la idea es menos polígonos y que el resto del trabajo lo haga la IA con un modelo prentrenado con imágenes y un dataset concreto para cada juego que esté ligado a cada elemento del juego.
Estamos hablando que si pepito, uno entre un millón, te hacía x gran trabajo en meses o semanas esto te lo saca en segundos, ignorarlo me parece que es estar muy desnortado, otra cosa es pensar que vamos a tener esto mañana corriendo en consolas o incluso PCs y que cuando eso sea posible será perfecto, esto ahora mismo es como el RT, que antes no se podía ejecutar en tiempo real, pero existía, aunque nadie lo pedía, la diferencia es que esto si lo queremos, por lo menos algunos, pero tiempo al tiempo, y no lo digo yo, lo dice el CEO de la empresa más importante de aceleración en gráficos e IA, que no creo que sea un desnortado, pero bueno, y me permito también el dudar porque me puedo equivocar, y el CEO de NVIDIA también, o quien sabe, igual nos está engañando para vender más GPUs.
Sobre lo de que la IA les va a quitar el trabajo, yo ahí no me meto, puede que a largo plazo ocurra, no sería la primera vez que ocurre, y si ocurre igual hay una transición en que aún serán demandados profesionalmente porque podrán generar renders básicos para filtrarlos por IA, pero pensar que mañana se van a quedar sin trabajo no es realista, y dudo que la gente les diga eso, de hecho estas tecnologías actualmente no son sustitutas de nada, aunque si las usas con cabeza pueden hacerte el apaño bueno para lograr cosas interesantes, y una persona que denosta tecnologías es una persona cerrada de mente, yo si tuviera un estudio y gente tan cerrada en ese aspecto no la querría a no ser que fuesen muy buenos en lo que hacen y los necesitase si o si, porque no quisiera que hubiera gente metiéndole ideas tan cerradas de mente.
No creo que se queden sin trabajo ahora ni en 10 años, pero quizás si deberán de actualizarse a nuevas herramientas, muchas de ellas de IA, pero vamos, eso ha ocurrido siempre, si estudio x trabajaba con x motor y se cambian a y igual te echan a la p calle si no sabes manejar el motor y, y solo hablamos de un cambio de motor, en el mundo tecnológico conviene estar despierto y no dormirse porque la tecnología siempre cambia y evoluciona, aparecen herramientas nuevas que son mejores, y eso es así y lo seguirá siendo, y con la IA guste o no va a ser una realidad, mi consejo es que sigan estudiando y que no se cierren a las tecnologías, pero ellos sabrán, luego que no lloren cuando un niño de 14 años consiga mejores resultados con un flujo de trabajo mucho más simple y rápido.
"Llevan dos años diciendo que es el futuro ¿Dónde están las películas de IA?" Pues es que no hay, hay cortometrajes de IA, aún no hay control total sobre una escena 3D ni puedes ordenar a la IA "Actor tal con voz tal entra andando con posición chulesca y dice tal frase", eso aún no existe, no van a salir películas enteras ahora cuando se está aún luchando por controlar el lipsync, y aún menos bien hechas en dos años, es estar muy desnortado, pensar que la tecnología hace un pico de golpe, el desarrollo tecnológico es progresivo, por eso impresiona ver estos vídeos, porque es un salto, es un postprocesado que pega un salto visual e impresiona, en unos meses la gente ya estará cansada de estos vídeos, el efecto wow no durará siempre.
Es que yo creo que esta gente se monta más películas que nosotros, se piensa que en nuestra cabeza nos pensamos que ya hay películas por IA o juegos en tiempo real moviéndose así, y sus cabezas piensan eso, cuando lo que hay es un proceso de evolución que toma tiempo en establecerse, ni hay películas por IA, ni las habrá seguramente tan pronto, lo que habrá es experimentación, quizás alguna escena intercalada en una película, pero ya, que no se monten películas, que hace dos años teníamos a will smith comiendo espaguetis que daba grima y lo que hay hoy en día no tiene nada que ver, ha mejorado una barbaridad, pero tampoco como para pensar que ya se están haciendo largometrajes enteros o cortos de calidad, esta gente vive en una nube en su mundo de yupi.
Que por cierto, hablando de cine, se pueden hacer escenas muy chulas con esto, tu agarras un videojuego y puedes hacer escenas de película, algunas pueden salir muy buenas, los videojuegos van a ser un entorno brutal para crear escenas de cine, persecuciones en coche, saltos imposibles, situaciones peligrosas, etc... quiero decir, le veo más utilidad a la herramienta para hacer "cine" cutre usando ahora mismo un videojuego que como está haciendo la gente con imágenes estáticas de animarlas, incluso si tienes la habilidad de crear render 3D como igual saben hace esos chicos del vídeo, con un motor gráfico y pasarlo por la herramienta te puedes crear unas buenas escenas realistas de cine para una película indie como flujo de trabajo, ahí lo dejo, no te vas a crujir una película entera pero si quizás unas buenas escenas que serían imposibles para una persona que tiene pocos recursos.
De hecho ya hay algunos vídeos de alguien haciendo prerenders con runway simulando en GTA otros países como la india
Y eso que estas IAs, aún estando muy lejos de ser perfectas, porque lo están, no son tampoco tan aberrantes si se usan bien, el tema de los dedos raros los suelen respetar por ejemplo, algo que me he fijado es que runway pelea mucho con los elementos alejados, o con los detalles muy pequeños, las personas a la lejanía se ven raras, o los elementos como los vehículos alejados, pero en macro se defiende bastante bien, en planos cercanos, por eso actualmente yo tampoco la usaría en escenas de cine como persecuciones alejadas de cámara a no ser que la cámara esté muy pegada al coche, pero es que cuando estos modelos mejoren estoy seguro que se usarán para hacer cine independiente con simulaciones en entornos 3D porque sale más barato que contratar un stuntman o pedir permisos para grabar en x sitio con todas las movidas legales que acarrea, actualmente runway es que no renderiza ni en HD y solo tiene 10 segundos, entonces ya simplemente por eso, además de las aberraciones, no es una opción profesional para cine, aunque se puede hacer alguna cosa chula en entornos muy concretos, repito, en una escena concreta.
Sabiendo esto no entiendo como esta gente, repito, pueden pedir películas enteras dos años después de los cutres espaguetis de will smith, películas enteras va para diez años o veinte, lo que vamos a ver son escenas donde se usa IA en alguna de ellas, para rejuvenecer a personajes que ya están adultos para escenas donde interpreten su yo más joven, en efectos, en alguna secuencia, etc... pero es que no vamos a ver ya ni en cinco años películas de Hollywood enteras hechas por IA, eso es estar muy fumado.
Aterrizando un poco más en la realidad, con ese modelo se ve lo que se necesita, es bueno tener una referencia de lo necesario, aunque con gráficas de 20 GBs se puede también producir vídeo, aunque seguramente será muy lento y un modelo mucho más simple, con muchos menos pasos, el resultado no será tan bueno.
Hace un año teníamos solo imágenes, solo un frame, ahora ya tenemos vídeos, veremos que tenemos en otro año más o dos, si mejoran por lo menos los modelos, a nivel de calidad técnica, si hay HD, si hay mejor comprensión de la escena, etc... si hay más tiempo de procesado. Veremos si en cuatro sale algún modelo cutre que se ejecute en tiempo real con dos tarjetas, algo que ya he dicho muchas veces, que no sorprenda a nadie, ya que lo he dicho muchas veces lo de jugar por streaming de vídeo o usar dos GPUs en PC, la cuestión es conseguir el postporcesado en tiempo real, un runway en tiempo real no estaría mal, aunque al cambiar de escena con el mismo personaje te lo alucine diferente 20 veces.
Dejo este también por aquí:
Habla de STADIA como el futuro y un fracaso del futuro, el streaming de vídeo en videojuegos es una servicio más hoy en día y funciona, hay servicios de empresas que funcionan como geforce now, psnow, xcloud, alguna más igual hay ¿Amazon Luna? Así que si, es parte del futuro.
Y yo siempre he sido contrario a este tipo de tecnología, me refiero al streaming de vídeo, de hecho temo que se pueda imponer si los modelos de IA solo pueden ejecutarse con GPUs que cuestan un riñón, obligándote a pagar un servicio cloud, pero vamos, que el streaming de vídeo hace años que existe, no lo creó ni google con stadia ni incluso xbox con xcloud, creo que fue playstation que compró una empresa que se dedicaba a eso y lo integró en su servicio mucho antes de todo eso, digamos que playstation puso el servicio en marcha en 2014, que podías jugar a juegos de PS3 y stadia se lanzó en 2018 o 2019, vamos que el chaval si piensa que stadia era pionera en algo de esto es que está muy desnortado.
Lástima que tenga pánico escénico y no haga vídeos confrontando ese tipo de argumentos de esta gent porque son ridículos y sin sentido, y si, el streaming de vídeo, guste o no, es parte del futuro, por mucho que stadia se haya gastado un pastón en marketing lavándole el cerebro a la gente haciéndole creer que eran los pioneros en algo.
Sobre los NFTS y la blockchain no creo que ningún forero me haya oído hablar mucho, como mucho he hablado de implementar marketplaces en videojuegos, por ejemplo, crear construcciones en GTA o RDR2 y venderlas a otros para que las coloquen en el mapa, algo que le propuse a Rockstar siguiendo el modelo que siguen empresas como Mojang con Minecraft, no es nada nuevo, aunque no tengo ni idea si eso tiene mucho que ver con los NFTS o no, nunca me ha interesado ese tema la verdad, pero igual podría ser un caso parecido a lo de stadia, que ya existía pero que se vende de otra forma, esta vez con cripto divisas o vete a saber, no soy muy entendido en ese tema la verdad.
El resto del vídeo es hablando sobre runway sin tener ni idea como funciona y echando pestes, aunque en los comentarios por lo menos lo ponen en su sitio la gente que le sigue
Runway solo produce 10 segundos de vídeo consistente, por eso tiene esos cambios en esos vídeos de gameplays largos, es algo de loque ni se ha informado, y runway no genera un juego, no en esos vídeos, es una IA generativa que dibuja encima del frame, repito, sería como un efecto de postprocesado pero basado en IA, y aún lejos de ser perfecto.
Aunque el generador de text to vídeo de runway puede generar simulaciones de juegos, vídeos donde simula juegos, y ya hay juegos generados por IA como DOOM AI y otras historias que ya he hablado en el otro hilo de IA y videojuegos y que no me voy a matar a explicar por aquí, quien lea y no le suponga un esfuerzo que lo haga.
De todas formas esta gente ha agarrado los mejores vídeos de este tipo que se han encontrado por internet, a ver si tienen huevos de agarrar uno medianamente bien hecho y no los típicos de gameplay largo con cambios raros y prompts cutres, que repito, aún está muy lejos de ser perfecto, pero han agarrado lo mejorcito de youtube para hacer una crítica.
Y aún así reírse de eso que no es perfecto, repito, es como exigirle a un bebé de dos años que sabe correr, andar y que te aprueba primero de la eso que te saque matrícula de honor en una carrera técnica universitaria, es como los del otro vídeo que piensan que la IA ya debería estar generando películas de cine o si no no sirve pa na o hay que echarle mierda aunque haga cosas que en la vida se habían visto antes
Porque dudo que se haya visto esto antes
Y negarlo es ser un desnortado.
Sobre lo que dice de la dirección de arte es cierto, se tiene que poder controlar la iluminación o los elementos como la ambientación, la vestimenta, etc... pero claro, habla sin saber las limitaciones del modelo, es un modelo genérico, es un modelo muy verde, y lo que hace en ciertos entornos es sorprendente, ahora, perfecto no es, no te vas a encontrar algo perfecto, es algo que acaba de nacer, ten un poco de piedad chico, valora lo bueno, está bien que critique lo malo, yo por ejemplo soy consciente de los problemas de este modelo, pero oye, que yo he visto cosas alucinantes también, yo puedo ver lo malo, pero también lo bueno.
Por otra parte, si mañana sale un modelo como runway en tiempo real no creo que la gente juegue con eso, porque es un modelo muy poco consistente, es una curiosidad tecnológica, en lo de la dirección tiene razón, si esto no va acompañado de un modelo pre entrenado, que ya lo hemos hablado, que asocie cada elemento del juego a elementos del modelo no tiene sentido, va a ser una ensaladilla rusa o algo poco preciso y poco consistente, y luego está la parte de poder analizar la geometría del juego, la iluminación y las sombras, para lograr formas más precisas y comprender mucho mejor esos elementos, no simplemente una imagen, hablamos de que tenga acceso a un mapa con profundidad, y para eso aún queda, bastante será si tenemos algo como runway en tiempo real dentro de cinco años, y esta gente le echará mierda igual porque no entenderá que el logro en ese momento habrá sido lograr que un modelo así corra en tiempo real sin ser un prerender a pesar de las aberraciones.
Y lo repito, te lo está diciendo un taiwanés que ha fundado la compañía de aceleración gráfica más avanzada del mercado, una persona que pertenece a uno de los países con el IQ más alto del mundo.