[HILO] SUPER UPSCALERS por IA I El DLSS del futuro I Hiperrealismo en videojuegos

D_a_r_z_ escribió:Ahora mismo el concepto "IA" no deja de ser una especie de buzzword para muchas empresas quemando dinero y otras que si que tienen puesta pasta en algunos desarrollos que pueden llegar a tener un impacto positivo.
Pero creo que hay que tener siempre los pies en la tierra y pensar sobre desarrollos en aplicaciones más o menos realistas.

Ahí tienes el tema reescalado (que pudiera parecer un salvavidas para gráficas que se van quedando atrás y al final está siendo un salvavidas para desarrollos menos optimizados), asistencia para el desarrollo... pero no que pongas un prompt y de repente tengas un nuevo juego o el ejemplo en el que haces tanto hincapié, en un escalador de imágenes hiperrealistas. Que como ya comenté en el otro hilo, más allá de gustos o no gustos, la falta de un control creativo, si o si va a afectar negativamente a un desarrollo, y esto me da igual que sea un juego de corte realista o estilizado.

Si tu quieres pensar que esto es el futuro de los videojuegos, adelante. Pero para que algo funcione de verdad en los videojuegos, no basta con que sea técnicamente posible, también debe integrarse bien, ser estable y realmente mejorar la experiencia del jugador. Anda que no ha habido tecnologías muy prometedoras que se quedan en la etapa de prototipo y no llegan a ser productos que la gente pueda usar fácilmente... Además, que hacer proyecciones a dos generaciones de GPU te pueda parecer razonable, la historia ha demostrado que las predicciones tecnológicas no siempre se cumplen y pensar que pueda pasar en 10-15 años es prácticamente imposible.


no hay mucho más que añadir, por lo demás puedes volver en cuatro años o diez y dejar de ensuciar el hilo, aquí estamos para compartir resultados, no para llorar 50 veces sobre lo mismo en bucle, el título ya te dice que esto es futuro, si no te ha quedado claro deberías mejorar la compresión lectora, yo poco más puedo hacer.


Sobre esto. Esto no es compartir resultados, casi todo lo que has posteado son videos cortados y pasados por filtros, no tienen una aplicación en ningún juego real más allá de postearlo como curiosidad y hacer 400 videos al estilo "así será el iPhone 25 o la Xbox 720" y no parece que vaya a ser tampoco una realidad. Es una pena que pienses que las respuestas del compañero sean "ensuciar el hilo", en vez de tener una mente más abierta y tener un debate donde simplemente se aporta una perspectiva más completa y realista sobre los desafíos y limitaciones actuales.

Vaya que si el objetivo es hablar del futuro de los videojuegos, es perfectamente válido cuestionar las predicciones optimistas y señalar que la adopción de ciertas tecnologías puede ser más complicada de lo que parece.


Totalmente de acuerdo, quien sepa realmente cómo funciona este mundo sabe que las cosas no funcionan como pretende que funcione el OP.

Es como los vídeos demo del unreal engine, que todo se ve fenomenal pero no hay juegos que presenten esa calidad y encima los juegos que implementan el motor están llenos de problemas.
Veo más probable ver implementaciones de diálogos, secundarias y demás con IA con voz generada, pero buena parte de las reimaginaciones que veo en este hilo me parecen muy verdes. Hiperrealismo y artefactos/aberraciones es muy cantoso... En fin, ya veremos cómo evoluciona esto
A ver si el próximo Tom Raider se parece algo a esto generado por IA XD :

Parece que en este vídeo se les ha ido de madre la IA:
¿Starfield dónde estás?

@LynX tiene como un filtro de los años 60 y por eso se ve así, aún así la IA es genérica, se puede entrenar con un juego en concreto alimentándola de imágenes de lo que quieres que se vea y como, pero la gente que hace esos vídeos usa una IA genérica que es la que debe dar la empresa, aunque creo que como digo ofrecen la opción de poder crear modelos personalizados pero debe costar bastante dinero.
LynX escribió:Parece que en este vídeo se les ha ido de madre la IA:
¿Starfield dónde estás?


Que pasada, ojalá estar vivo cuando lleguemos a esa calidad técnica
Este está bastante mejor hecho:

Devs echando pestes y sin congruencia, veremos en un futuro a ver que tal:


Se les nota el resquemor y el desprecio que tienen por este tipo de tecnología, dejamos esto aquí para recordarlo más adelante, hablan de altividad pero se los ve poco altivos a ellos. [carcajad]

El argumento del español medio y porque la industria de este país está estancada en el indie: "Gente que no ha desarrollado videojuegos explicando como se desarrollan los videojuegos". Españoles medios que no saben que la mayoría de figuras relevantes actuales de la industria no tenían nada que ver con la programación ni la tecnicidad, aunque tampoco voy a negar que detrás esas figuras había buenos equipos técnicos, pero Sam Houser, Kojima, Todd Howard, Myazaki, Miyamoto, Mikami, Josef Fares podría seguir con la lista, estas figuras no saben programar ni esculpir y han creado géneros y son creadores de propiedades intelectuales de las mejores que se han hecho nunca, o las han impulsado a otro nivel, y no tienen una carrera en diseño de videojuegos, ni han pinchado código en su vida, en este país serían parias.


Sobre el efecto wow comparándolo con el internet... el efecto wow ha ocurrido siempre con los gráficos, cuando ha salido RDR2, RE4, P.T mismo, la gente se ha impresionado, en los gráficos de juegos siempre ha habido efecto wow, cuando se pasó del 2D al 3D o con el primer Gears of war o Dead Rising, aunque ahora ya no hay tanto porque los saltos no son tan altos y si no viene Rockstar o una empresa que sorprenda con algo concreto no ocurre, por ejemplo, Bethesda se ha quedado atrás tecnológicamente, se ha estancado completamente en todo, físicas, simulación de conducción de vehículos, animaciones faciales, etc...; el juego por ejemplo de bodycam, que era una triste demo preparada y que gran parte del wow de los gráficos es por la fotogrametría, por mucho que digan que es por el efecto deblur que le meten, que algo tiene de efecto en que parezca más real, pero la fotogrametría, que el entorno parezca real, es lo que más hace, y puede que ese escenario esté hasta incluso generado por IA mediante NeRF, de hecho la fotogrametría clásica está muriendo, va a ser sustituida por tecnología como gaussian splat, esto obviamente hablando de juegos que busquen fotorealismo.


Sobre que es un filtro, pues es un postprocesado, como lo puede ser otro filtro que le aplicas a un juego, la única realidad que hay que tener en cuenta es que esto aún no es real en tiempo real y por eso se dice que será el futuro, otra cosa sería que se dijera que es ya el presente y el ahora, pero vamos, que no se había visto algo así en la vida aplicado a todo tipo de juegos y es normal que sorprenda, es como la clonación de voz, de la cual casi nadie ahí se ha sorprendido, pero también existe; son cosas que no existían y aún menos producirlas en cuestión de segundos, el fotorrealismo este no se había logrado nunca antes de esta forma y si se había acercado algo eran prerenders muy concretos con Houdini u otro tipo de software muy específico que lleva meses de hacer, mucho trabajo y hecho por personas muy cualificadas técnicamente que se dejan meses o semanas, porque he visto simulaciones con Houdini que son alucinantes, eso si, aquí hablamos de diseño de entornos, si nos vamos a personajes ya es muchísimo más difícil, aunque he visto cosas sorprendentes, pero te las hace uno entre un millón, no cualquier escultor consigue esos flujos de trabajo y tiene esa calidad técnica, hablamos de prerenders de Houdini.



Por otra parte partamos de la base de que Houdini se usa para VFX en cine, para hacer parques y recreaciones o prototipos y efectos, no es algo que se utilice mucho en videojuegos salvo para efectos y luego está muy alejado de las simulaciones técnicas de esos vídeos, no tiene nada que ver, aunque son sorprendentes sus resultados visuales, yo lo he flipado muchas veces, pero es que no tiene nada que ver con esto, esto es un postprocesado que se puede aplicar directamente a un juego, eso es un motor para generar vfx y simulaciones, y creo que estamos mucho más cerca de poder generar imágenes realistas con eso que renderizando todos los polígonos que requeriría un render de houdini, la idea es menos polígonos y que el resto del trabajo lo haga la IA con un modelo prentrenado con imágenes y un dataset concreto para cada juego que esté ligado a cada elemento del juego.



Estamos hablando que si pepito, uno entre un millón, te hacía x gran trabajo en meses o semanas esto te lo saca en segundos, ignorarlo me parece que es estar muy desnortado, otra cosa es pensar que vamos a tener esto mañana corriendo en consolas o incluso PCs y que cuando eso sea posible será perfecto, esto ahora mismo es como el RT, que antes no se podía ejecutar en tiempo real, pero existía, aunque nadie lo pedía, la diferencia es que esto si lo queremos, por lo menos algunos, pero tiempo al tiempo, y no lo digo yo, lo dice el CEO de la empresa más importante de aceleración en gráficos e IA, que no creo que sea un desnortado, pero bueno, y me permito también el dudar porque me puedo equivocar, y el CEO de NVIDIA también, o quien sabe, igual nos está engañando para vender más GPUs.

Sobre lo de que la IA les va a quitar el trabajo, yo ahí no me meto, puede que a largo plazo ocurra, no sería la primera vez que ocurre, y si ocurre igual hay una transición en que aún serán demandados profesionalmente porque podrán generar renders básicos para filtrarlos por IA, pero pensar que mañana se van a quedar sin trabajo no es realista, y dudo que la gente les diga eso, de hecho estas tecnologías actualmente no son sustitutas de nada, aunque si las usas con cabeza pueden hacerte el apaño bueno para lograr cosas interesantes, y una persona que denosta tecnologías es una persona cerrada de mente, yo si tuviera un estudio y gente tan cerrada en ese aspecto no la querría a no ser que fuesen muy buenos en lo que hacen y los necesitase si o si, porque no quisiera que hubiera gente metiéndole ideas tan cerradas de mente.

No creo que se queden sin trabajo ahora ni en 10 años, pero quizás si deberán de actualizarse a nuevas herramientas, muchas de ellas de IA, pero vamos, eso ha ocurrido siempre, si estudio x trabajaba con x motor y se cambian a y igual te echan a la p calle si no sabes manejar el motor y, y solo hablamos de un cambio de motor, en el mundo tecnológico conviene estar despierto y no dormirse porque la tecnología siempre cambia y evoluciona, aparecen herramientas nuevas que son mejores, y eso es así y lo seguirá siendo, y con la IA guste o no va a ser una realidad, mi consejo es que sigan estudiando y que no se cierren a las tecnologías, pero ellos sabrán, luego que no lloren cuando un niño de 14 años consiga mejores resultados con un flujo de trabajo mucho más simple y rápido.


"Llevan dos años diciendo que es el futuro ¿Dónde están las películas de IA?"
Pues es que no hay, hay cortometrajes de IA, aún no hay control total sobre una escena 3D ni puedes ordenar a la IA "Actor tal con voz tal entra andando con posición chulesca y dice tal frase", eso aún no existe, no van a salir películas enteras ahora cuando se está aún luchando por controlar el lipsync, y aún menos bien hechas en dos años, es estar muy desnortado, pensar que la tecnología hace un pico de golpe, el desarrollo tecnológico es progresivo, por eso impresiona ver estos vídeos, porque es un salto, es un postprocesado que pega un salto visual e impresiona, en unos meses la gente ya estará cansada de estos vídeos, el efecto wow no durará siempre.

Es que yo creo que esta gente se monta más películas que nosotros, se piensa que en nuestra cabeza nos pensamos que ya hay películas por IA o juegos en tiempo real moviéndose así, y sus cabezas piensan eso, cuando lo que hay es un proceso de evolución que toma tiempo en establecerse, ni hay películas por IA, ni las habrá seguramente tan pronto, lo que habrá es experimentación, quizás alguna escena intercalada en una película, pero ya, que no se monten películas, que hace dos años teníamos a will smith comiendo espaguetis que daba grima y lo que hay hoy en día no tiene nada que ver, ha mejorado una barbaridad, pero tampoco como para pensar que ya se están haciendo largometrajes enteros o cortos de calidad, esta gente vive en una nube en su mundo de yupi.


Que por cierto, hablando de cine, se pueden hacer escenas muy chulas con esto, tu agarras un videojuego y puedes hacer escenas de película, algunas pueden salir muy buenas, los videojuegos van a ser un entorno brutal para crear escenas de cine, persecuciones en coche, saltos imposibles, situaciones peligrosas, etc... quiero decir, le veo más utilidad a la herramienta para hacer "cine" cutre usando ahora mismo un videojuego que como está haciendo la gente con imágenes estáticas de animarlas, incluso si tienes la habilidad de crear render 3D como igual saben hace esos chicos del vídeo, con un motor gráfico y pasarlo por la herramienta te puedes crear unas buenas escenas realistas de cine para una película indie como flujo de trabajo, ahí lo dejo, no te vas a crujir una película entera pero si quizás unas buenas escenas que serían imposibles para una persona que tiene pocos recursos.

De hecho ya hay algunos vídeos de alguien haciendo prerenders con runway simulando en GTA otros países como la india [carcajad]




Y eso que estas IAs, aún estando muy lejos de ser perfectas, porque lo están, no son tampoco tan aberrantes si se usan bien, el tema de los dedos raros los suelen respetar por ejemplo, algo que me he fijado es que runway pelea mucho con los elementos alejados, o con los detalles muy pequeños, las personas a la lejanía se ven raras, o los elementos como los vehículos alejados, pero en macro se defiende bastante bien, en planos cercanos, por eso actualmente yo tampoco la usaría en escenas de cine como persecuciones alejadas de cámara a no ser que la cámara esté muy pegada al coche, pero es que cuando estos modelos mejoren estoy seguro que se usarán para hacer cine independiente con simulaciones en entornos 3D porque sale más barato que contratar un stuntman o pedir permisos para grabar en x sitio con todas las movidas legales que acarrea, actualmente runway es que no renderiza ni en HD y solo tiene 10 segundos, entonces ya simplemente por eso, además de las aberraciones, no es una opción profesional para cine, aunque se puede hacer alguna cosa chula en entornos muy concretos, repito, en una escena concreta.

Sabiendo esto no entiendo como esta gente, repito, pueden pedir películas enteras dos años después de los cutres espaguetis de will smith, películas enteras va para diez años o veinte, lo que vamos a ver son escenas donde se usa IA en alguna de ellas, para rejuvenecer a personajes que ya están adultos para escenas donde interpreten su yo más joven, en efectos, en alguna secuencia, etc... pero es que no vamos a ver ya ni en cinco años películas de Hollywood enteras hechas por IA, eso es estar muy fumado.




Aterrizando un poco más en la realidad, con ese modelo se ve lo que se necesita, es bueno tener una referencia de lo necesario, aunque con gráficas de 20 GBs se puede también producir vídeo, aunque seguramente será muy lento y un modelo mucho más simple, con muchos menos pasos, el resultado no será tan bueno.


Hace un año teníamos solo imágenes, solo un frame, ahora ya tenemos vídeos, veremos que tenemos en otro año más o dos, si mejoran por lo menos los modelos, a nivel de calidad técnica, si hay HD, si hay mejor comprensión de la escena, etc... si hay más tiempo de procesado. Veremos si en cuatro sale algún modelo cutre que se ejecute en tiempo real con dos tarjetas, algo que ya he dicho muchas veces, que no sorprenda a nadie, ya que lo he dicho muchas veces lo de jugar por streaming de vídeo o usar dos GPUs en PC, la cuestión es conseguir el postporcesado en tiempo real, un runway en tiempo real no estaría mal, aunque al cambiar de escena con el mismo personaje te lo alucine diferente 20 veces.

Dejo este también por aquí:


Habla de STADIA como el futuro y un fracaso del futuro, el streaming de vídeo en videojuegos es una servicio más hoy en día y funciona, hay servicios de empresas que funcionan como geforce now, psnow, xcloud, alguna más igual hay ¿Amazon Luna? Así que si, es parte del futuro.

Y yo siempre he sido contrario a este tipo de tecnología, me refiero al streaming de vídeo, de hecho temo que se pueda imponer si los modelos de IA solo pueden ejecutarse con GPUs que cuestan un riñón, obligándote a pagar un servicio cloud, pero vamos, que el streaming de vídeo hace años que existe, no lo creó ni google con stadia ni incluso xbox con xcloud, creo que fue playstation que compró una empresa que se dedicaba a eso y lo integró en su servicio mucho antes de todo eso, digamos que playstation puso el servicio en marcha en 2014, que podías jugar a juegos de PS3 y stadia se lanzó en 2018 o 2019, vamos que el chaval si piensa que stadia era pionera en algo de esto es que está muy desnortado.

Lástima que tenga pánico escénico y no haga vídeos confrontando ese tipo de argumentos de esta gent porque son ridículos y sin sentido, y si, el streaming de vídeo, guste o no, es parte del futuro, por mucho que stadia se haya gastado un pastón en marketing lavándole el cerebro a la gente haciéndole creer que eran los pioneros en algo.


Sobre los NFTS y la blockchain no creo que ningún forero me haya oído hablar mucho, como mucho he hablado de implementar marketplaces en videojuegos, por ejemplo, crear construcciones en GTA o RDR2 y venderlas a otros para que las coloquen en el mapa, algo que le propuse a Rockstar siguiendo el modelo que siguen empresas como Mojang con Minecraft, no es nada nuevo, aunque no tengo ni idea si eso tiene mucho que ver con los NFTS o no, nunca me ha interesado ese tema la verdad, pero igual podría ser un caso parecido a lo de stadia, que ya existía pero que se vende de otra forma, esta vez con cripto divisas o vete a saber, no soy muy entendido en ese tema la verdad.


El resto del vídeo es hablando sobre runway sin tener ni idea como funciona y echando pestes, aunque en los comentarios por lo menos lo ponen en su sitio la gente que le sigue [carcajad]

Runway solo produce 10 segundos de vídeo consistente, por eso tiene esos cambios en esos vídeos de gameplays largos, es algo de loque ni se ha informado, y runway no genera un juego, no en esos vídeos, es una IA generativa que dibuja encima del frame, repito, sería como un efecto de postprocesado pero basado en IA, y aún lejos de ser perfecto.

Aunque el generador de text to vídeo de runway puede generar simulaciones de juegos, vídeos donde simula juegos, y ya hay juegos generados por IA como DOOM AI y otras historias que ya he hablado en el otro hilo de IA y videojuegos y que no me voy a matar a explicar por aquí, quien lea y no le suponga un esfuerzo que lo haga.


De todas formas esta gente ha agarrado los mejores vídeos de este tipo que se han encontrado por internet, a ver si tienen huevos de agarrar uno medianamente bien hecho y no los típicos de gameplay largo con cambios raros y prompts cutres, que repito, aún está muy lejos de ser perfecto, pero han agarrado lo mejorcito de youtube para hacer una crítica.

Y aún así reírse de eso que no es perfecto, repito, es como exigirle a un bebé de dos años que sabe correr, andar y que te aprueba primero de la eso que te saque matrícula de honor en una carrera técnica universitaria, es como los del otro vídeo que piensan que la IA ya debería estar generando películas de cine o si no no sirve pa na o hay que echarle mierda aunque haga cosas que en la vida se habían visto antes [facepalm]

Porque dudo que se haya visto esto antes
Imagen

Y negarlo es ser un desnortado.


Sobre lo que dice de la dirección de arte es cierto, se tiene que poder controlar la iluminación o los elementos como la ambientación, la vestimenta, etc... pero claro, habla sin saber las limitaciones del modelo, es un modelo genérico, es un modelo muy verde, y lo que hace en ciertos entornos es sorprendente, ahora, perfecto no es, no te vas a encontrar algo perfecto, es algo que acaba de nacer, ten un poco de piedad chico, valora lo bueno, está bien que critique lo malo, yo por ejemplo soy consciente de los problemas de este modelo, pero oye, que yo he visto cosas alucinantes también, yo puedo ver lo malo, pero también lo bueno.


Por otra parte, si mañana sale un modelo como runway en tiempo real no creo que la gente juegue con eso, porque es un modelo muy poco consistente, es una curiosidad tecnológica, en lo de la dirección tiene razón, si esto no va acompañado de un modelo pre entrenado, que ya lo hemos hablado, que asocie cada elemento del juego a elementos del modelo no tiene sentido, va a ser una ensaladilla rusa o algo poco preciso y poco consistente, y luego está la parte de poder analizar la geometría del juego, la iluminación y las sombras, para lograr formas más precisas y comprender mucho mejor esos elementos, no simplemente una imagen, hablamos de que tenga acceso a un mapa con profundidad, y para eso aún queda, bastante será si tenemos algo como runway en tiempo real dentro de cinco años, y esta gente le echará mierda igual porque no entenderá que el logro en ese momento habrá sido lograr que un modelo así corra en tiempo real sin ser un prerender a pesar de las aberraciones.


Y lo repito, te lo está diciendo un taiwanés que ha fundado la compañía de aceleración gráfica más avanzada del mercado, una persona que pertenece a uno de los países con el IQ más alto del mundo.
Imagen
@katatsumuri me he visto un poco el video principal porque no me puedo poner las 3 horas de este ni del resto de videos, no tengo tanto tiempo y de hecho ya voy a perder unos minutos contestandote. Pero bajo mi opinión, creo que ya puedes poner 400 videos, 600 gifs más (que por cierto se hace casi imposible navegar con el móvil por este hilo y otros donde has posteado estas cosas y no me extrañaría que en algún momento te den un toque por ello porque es horrible, en serio) que da la sensación de que quien echa pestes y no tiene mucha congruencia con lo que dice eres tú, siento ser tan crudo.

Me ha dado por mirar un poco la experiencia de este chico, Álvaro García y veo que ha trabajado en estudios de animación/VFX (ILM y DN nostamal) y ahora es director en un estudio pequeñito haciendo un juego, que oye yo no se como saldrá pero a la Whislist de Steam se ha ido para seguirle la pista. Yo no sé qué experiencia tienes tú en cuanto a desarrollo de videojuegos, más allá de mandarle "sugerencias" a devs :-| pero me parece que tiene una visión bastante natural sobre las IAs.

En esencia, que el filtro de hiperrealismo del GTA "realista" no tiene mucho recorrido más allá de videos virales típicos de reels o tiktoks (ese ejemplo que puse del iPhone 25 o Xbox 720 que se hacían hace 10-15 años) y que ya sea la IA o cualquier tecnología emergente llegará a su punto dulce cuando realmente encuentre su lugar donde aplicarla y sea beneficioso. Ya sea en algún juego o al animador, desarrollador que en vez de estar 30h en alguna tarea esté... 10h?.

Pero siempre bajo la premisa de que todo el aprendizaje que se pueda usar para sus herramientas, sea propio y no robado o tomado de otras personas sin autorización. Y qué gran razón tiene, esto lo comentan en el 57:41, con que esto puede llegar a ser un tema pasional y que ciertas personas se pueden sentir atacadas.

Iba a seguir comentando, pero es que según leo así por encima veo cosas como esta:

crear construcciones en GTA o RDR2 y venderlas a otros para que las coloquen en el mapa, algo que le propuse a Rockstar siguiendo el modelo que siguen empresas como Mojang con Minecraft,



Es que ya lo siento pero suena a puto cachondeo y no puedo tomármelo en serio. Lo siento y suerte, todo el hilo para ti, no merece la pena.
Te lo llevo al hilo de Rockstar donde se te explica bien, aún así no sé para que pierdo el tiempo con alguien como tú:
D_a_r_z_ escribió:Es que ya lo siento pero suena a puto cachondeo y no puedo tomármelo en serio. Lo siento y suerte, todo el hilo para ti, no merece la pena.
hilo_hilo-oficial-rockstargames_2363333_s100#p1755409457

Más que nada porque sirve de poco, pero haré un último esfuerzo.

D_a_r_z_ escribió:me he visto un poco el video principal porque no me puedo poner las 3 horas de este ni del resto de videos, no tengo tanto tiempo y de hecho ya voy a perder unos minutos contestandote.

No sé si te has dado cuenta pero en el momento que hablan del tema es en el minuto 43, no hace falta verse todo, yo mismo te he marcado el fragmento preciso donde se habla del tema, youtube permite hacer intersecciones de tiempo e incrustarlas en vídeo, y funciona tanto en teléfono como en navegador de escritorio, cuando das al play se reproduce justo la parte de la línea del tiempo que se marca. [hallow]

De todas formas no respondes nada, es lo mismo, X tipo trabaja de dev y ya es vaca sagrada para TODO relacionado con la industria, te repito, que es el problema de este país, desde luego que yo no le daré lecciones de como funciona el software que utiliza para crear vfx, pues es algo técnico que requiere de especialización y conocimiento, eso te aseguro que no lo haré, pero te aseguro que si el ceo de NVIDIA te está diciendo que los píxeles se generarán y no se renderizarán, y además están apareciendo tecnologías que lo hacen es que algo de razón tiene, pero vamos, que puede equivocarse como todos, o estarte vendiendo la moto cual zarrapastroso como con las VRAM.

Sobre su juego, le deseo lo mejor, ni siquiera he visto que tipo de juego está haciendo como para juzgarlo, puede que tenga muy buenas ideas, no me voy a meter en eso aunque ya buscaré el link y lo postearé en el hilo de juegos made in spain y daré mi opinión.

D_a_r_z_ escribió:Pero siempre bajo la premisa de que todo el aprendizaje que se pueda usar para sus herramientas, sea propio y no robado o tomado de otras personas sin autorización. Y qué gran razón tiene, esto lo comentan en el 57:41, con que esto puede llegar a ser un tema pasional y que ciertas personas se pueden sentir atacadas.

Sobre el tema ético de estos modelos, el material con el que son entrenados, ahí no me voy a poner malvado, yo veo bien que si se encuentra una forma de denunciar a estas empresas para regularizar que no usen contenido sin consentimiento para alimentar a sus IAs se haga, de momento aún no he visto que nadie haya podido parar a ninguna empresa de estas legalmente, ellas sabrán lo que hacen bien o mal y si tarde o temprano van a tener que remunerar a las personas afectadas si estas ganan la batalla judicial, es algo que tienen que pelear.

Yo también veo mejor que las empresas paguen a artistas que estén dispuestos a generar arte o datasets con datos para ellas para alimentar a sus máquinas, sería lo más ético y lo más justo, entiendo que alguien no se sienta identificado como esos chicos y diga "pues yo no quiero que mi arte se use para este fin", pero vamos, eso tampoco debería nublarte la vista hasta el punto de negar que lo que se está viendo con estos modelos de IA es algo chocante.


Que por cierto, hace nada le han tirado el github a Tencent de ese modelo de IA que se había entrenado con juegos como RDR2, the witcher 3, horizon zero dawn, Ghost of tsushima, etc... para crear mundos abiertos, lo vi ayer al revisar el hilo de IA [carcajad]

De todas formas, aunque se creasen modelos propios con material propio los artistas seguirían enfadados, porque creo que gran parte del problema es miedo a perder su trabajo, seguirían maldiciendo a la IA, debe ser como sentir que tu pareja te ha dejado por otro, las empresas ya no te necesitan, y eso tiene que generar cierta frustración y odio, el sentir que puedes ser reemplazado en cualquier momento por otro después de años dedicándote a eso.

D_a_r_z_ escribió: (que por cierto se hace casi imposible navegar con el móvil por este hilo y otros donde has posteado estas cosas y no me extrañaría que en algún momento te den un toque por ello porque es horrible, en serio)

La mayoría de mis hilos están llenos de vídeos y de fotos porque me encanta lo visual, y como no, también soy de "muxo texto", lo tengo to, solo tienes que ver las wikis también donde hasta he subido gifs de alta calidad, gracias que tenemos a imgur. [beer]

Pues forea desde un PC chico, yo que quieres que te diga, no tengo la culpa de que tu teléfono no cargue vídeos e imágenes que se postean, a mi me cargan bien y rápido, y creo que eres un 2024 de pocos meses como para estar tan altivo, no me extrañaría que seas un clon ya baneado con pretensión de trollear y confrontar porque me persigues por la mayoría de hilos con la misma intención que es siempre confrontativa, si no te gusta como pienso pues ya sabes, pensamos diferente, bienvenido a la diversidad, yo simplemente te digo que ya veremos.


Y te digo lo de altivo porque en otro comentario ya estabas incluso exigiendo que este hilo no debería de estar en este subforo, como si te molestase la existencia o presencia de este hilo, de todas formas tranquilo porque yo mismo ya he pensado varias veces en moverlo a multiplataforma, aunque puedes pedirlo por mi si quieres. [hallow]


Además estás en un hilo que es visual, aquí vas a ver comparativas visuales te guste o no porque el hilo va de eso, podemos hablar y mucho texto, pero aquí te vas a encontrar demostraciones visuales de esta tecnología desde el primer post hasta el último.

¿No te gusta este hilo? Lo tienes fácil, no participes. [hallow]
¿No te gusta si edito mucho o lo que pienso? Puedes ignorarme [hallow]



D_a_r_z_ escribió:En esencia, que el filtro de hiperrealismo del GTA "realista" no tiene mucho recorrido más allá de videos virales típicos de reels o tiktoks (ese ejemplo que puse del iPhone 25 o Xbox 720 que se hacían hace 10-15 años) y que ya sea la IA o cualquier tecnología emergente llegará a su punto dulce cuando realmente encuentre su lugar donde aplicarla y sea beneficioso.

Por otra parte reducir esto a reels de tiktok... lol tik tok es vertical, los vídeos que ves están en youtube en horizontal y algunos parecen trailers de películas, adaptaciones de juegos a series, se ve poco la intención de desvirtuar algo que molesta. Supongo que lo dices porque tiktok es la plataforma más desprestigiada por los adultos, es la red de los bailecitos y los niños adolescentes. ay dio mio chico [fiu]


Y si, ahora mismo esto no es más que una curiosidad tecnológica, bastante curiosa de ver oiga, no sé, ver un juego que parece un trailer de una serie, no sé, que quieres que te diga, pero si, no es aplicable a un juego en tiempo real, creo que ya se ha dicho en cincuenta posts, este hilo solo hace un seguimiento de como evoluciona este tipo de tecnología, no pretende que ahora mismo sea perfecta, ni dentro de cinco años, es un post que va para largo hasta que la tecnología se normalice y se adopte por la industria, si ocurre, que podría no ocurrir, también existe la posibilidad.


En este hilo nadie te ha dicho que esto se está usando ahora mismo para jugar a juegos, es que te repites con lo mismo cincuenta veces en forma de bucle, hacer volver al inicio, este hilo hace un seguimiento a una tecnología que está evolucionado y que será aplicada a los juegos en tiempo real.
Esto solo demuestra algunas cosas bastante interesantes.

Que los motores de juego jamas han sido realistas.

Que la captura de movimiento del GTA 5 parece de caricatura.

Que MGS V, y su captura de movimiento es una absoluta locura.

pero sobre todo....que esto no es el futuro....muchos moriremos antes de que esto se haga realidad.
¿Esto es real? Me parece bastante... poco creíble.
shimazaki escribió:Esto solo demuestra algunas cosas bastante interesantes.

Que los motores de juego jamas han sido realistas.

Que la captura de movimiento del GTA 5 parece de caricatura.

Que MGS V, y su captura de movimiento es una absoluta locura.

pero sobre todo....que esto no es el futuro....muchos moriremos antes de que esto se haga realidad.

Hombre, si moriremos es más que el futuro [+risas]

También tienes que pensar que GTA V es un juego de 2013 y MGS V es de 2015, para ese entonces muchas cosas ya se hacían mediante fotogrametría y la captura facial era más quirúrgica, se acercaba más a las técnicas de producción de cine, de hecho GTA V no se sabe si utilizaba marcadores faciales, yo diría que no los usó.

Piensa que el Marker-based creo que se empezó a usar en King Kong en 2005, en la película, pero en los videojuegos diría que no se adoptó hasta el 2013, bueno, quizás el primer juego que lo utilizó fue Heavy Rain, pero no fue hasta después de TLOU que no se empezó a estandarizar dentro de la industria del videojuego.

Incluso la técnica de captura de personajes mediante fotogrametría supongo que es mucho mejor, la cosa es que Rockstar tampoco da muchos detalles de como hace sus juegos, la tecnología que utiliza, de Kojima hay bastantes cosas, está bastante documentado MGS V. Los escenarios de MGS V también son increíbles, como se ven las rocas, si lo juegas a día de hoy sigue teniendo muy buenos gráficos.


Este vídeo está muy bien sobre el tema, explica la evolución y cuando se adoptaron esas técnicas



Imagen

La verdad que sería curioso saber como se hizo GTA V.


Y he mirado y no he visto esa técnica en TLOU1, así que pudo adoptarse más tarde por otros estudios.


En uncharted 4 es cuando creo que si empezaron a usarlos, bueno, creo no, en uncharted 4 seguro.


Así que antes fue MGS V, no sabría decir si hay otro juego entre heavy rain y MGS V que use esa técnica de captura facial, porque uncharted salió en 2016, un año después de MGS V.



Y como dije, Kojima también fue pionero con el tema de fotogrametría para el escaneo 3D



Pero es curioso, seguro que siguen usando muchas cámaras, pero hoy en día con gaussian splatting puedes hacerlo con una única cámara, aunque con un set de cámaras puede grabar animaciones tridimensionalmente y lograr resultados así:


Con posibilidad de capturar animaciones completas con sus texturas.
63 respuestas
1, 2