[HILO] Inteligencia artificial en videojuegos DEEP LEARNING

HILOS RECOMENDADOS
🔲NVIDIA RTX REMIX: REMASTERIZACIÓN DE ACTIVOS DE JUEGOS ANTIGUOS I REMASTERIZACIÓN
🔲SUPER UPSCALERS POR IA, El DLSS DEL FUTURO I VIDEOJUEGOS HIPERREALISTAS
🔲NVIDIA RTX HDR I HDR EN CUALQUIER VIDEOJUEGO

INTELIGENCIA ARTIFICIAL Y VIDEOJUEGOS
Durante esta generación vamos a ver muchos cambios en el desarrollo de videojuegos gracias a la inteligencia artificial, pero también vamos a ver una mejora en la inteligencia artificial de los personajes no jugables (NPC's) gracias a esta. Si durante años nos quejábamos que solo avanzábamos en gráficos, esta década sin duda será una década de grandes cambios en muchos ámbitos.

GRAND THEFT AUTO V ( AUTOPILOT)
Dejo un vídeo de un modelo de GTA V, lo están entrenado para que el NPC conduzca de forma autónoma como lo haría un coche con autopiloto de Tesla, obviamente es un proyecto hecho por una persona en su casa usando varias GPU's, no hay una gran empresa detrás. La diferencia entre la IA del juego y la que está siendo entrenada por este chico es que la IA del juego no está guiada por la percepción visual, mientras que la que está siendo entrenada por él si actúa en relación a la percepción visual tal y como lo haría una persona de carne y hueso.

Veréis que el coche no para de chocar, eso es debido a que el modelo está siendo entrenado y para ello antes tiene que cometer miles de errores antes de llegar a no cometerlos, con el paso de las horas o de los días cada vez debería de conducir mejor, realmente entrenar a un modelo es un proceso muy lento que requiere de mucho tiempo.

Explicación de lo que está haciendo:


Este es un modelo muy básico, pues cualquier tesla u otra empresa como comma ya tienen modelos de conducción entrenados que realmente funcionan muy bien; ahora seguramente hay alguna compañía de videojuegos, o una tercera, que está entrenado a modelos para que en un futuro podamos ver su fruto. La gracia sería reconstruir diferentes formas de conducción en un juego y que cada NPCs tenga su propia forma de conducir, una persona que sabe más, otra que menos, etc...

INTELIGENCIA ARTIFICAL CONVERSACIONAL ( GPT-3)
GPT-3 (Generative Pre-trained Transformer 3) es una IA de openai entrenada para mantener conversaciones dinámicas en tiempo real, los modelos se pueden entrenar para temas concretos como podría ser el universo específico de un videojuego. Hasta el momento hay muy pocos ejemplos implementados en videojuegos, simplemente podemos ver estas demos que nos muestran su gran potencial:





Algo así revolucionaría los juegos de mundo abierto tal y como los conocemos, la forma de interactuar en esos mundos podría cambiar completamente.



¿Esto a dónde nos lleva? Pues en un futuro seguramente los NPC's en los videojuegos se conectarán a nuestras a nuestras partidas como si fuesen personajes de personas reales en un MMO, llegándose a comportarse casi como personas reales, hablándonos, con rutinas más dinámicas y actividades más realistas sin patrones marcados, aprendiendo del entorno en el que están, recordando sucesos dentro del juego, haciéndose preguntas existenciales, etc...

Esto nos llevaría, a por ejemplo, que los desarrolladores no tengan que crear tantas quests secundarias y que estas sean generadas de forma dinámica por los mismos NPCs, como si les sucediesen cosas en la vida real, pudiendo los desarrolladores centrarse en crear misiones principales y centrarse más en otros aspectos del juego, como en las animaciones, la interacción con el entorno, las físicas, etc....

Por ejemplo, podrían implementar una variable en la cual los NPC's pueden perder su cartera del bolsillo, con su correspondiente animación y objeto diseñado, a la vez que tienen otra variable que hace que cada cierto tiempo de forma aleatoria comprueben si no han perdido nada, una vez se dan cuenta de que no la tienen estos vuelven al lugar por donde pasaron a buscarla, incluso preguntándote si la has visto, terminar llamando a comisaría por si alguien la ha encontrado, hasta llegando a ir a buscarla, quizás sin dinero dentro.

En un futuro conseguirán cosas muy complejas que ahora mismo son casi inimaginables.
Es complicado usar el deep learning para inventar cosas nuevas.

El objetivo de las redes neuronales es generalizar, en videojuegos creo que el mejor ejemplo es drivatar de Forza. Se entrena un modelo que es capaz de generalizar como se debe conducir el cochecillo, se le da la trazada optima, la velocidad para esa trazada... El modelo aprende y luego cuando el jugador cambia un parámetro determinado de la relación de marchas de x coche en x circuito con x meteorología el modelo devuelve una solución para esas entradas que no necesariamente se han entrenado antes.

Pero si a ese modelo le doy parámetros que no conoce, que están fuera de su entrenamiento, el resultado es impredecible. Por eso es complicado que esto se use para crear quest nuevas en plan arte o algo así, para eso habría que incorporar alguna variable aleatoria. Además que nadie quiere esa mierda, yo creo, los videojuegos son una forma de expresión, para eso hay que ser humano.

Si vería le vería sentido a crear de manera procedimental, por ejemplo, el hilo musical, un escenario o añadir variaciones a los enemigos, pero poco más. Es decir, lo veo bien para el contenido que es básicamente relleno.

Para lo que se usa principalmente esto, o donde yo creo que va a ser beneficioso es en el ahorro de trabajo, por ejemplo, hacer las animaciones automáticamente, la iluminación, texturas, facilitar el curro básicamente. Pero todo lo artístico esta fuera de su alcance, pero porque nadie lo quiere más allá de demostrar que se puede y aprender.
Ernestorrija escribió:Es complicado usar el deep learning para inventar cosas nuevas.

El objetivo de las redes neuronales es generalizar, en videojuegos creo que el mejor ejemplo es drivatar de Forza. Se entrena un modelo que es capaz de generalizar como se debe conducir el cochecillo, se le da la trazada optima, la velocidad para esa trazada... El modelo aprende y luego cuando el jugador cambia un parámetro determinado de la relación de marchas de x coche en x circuito con x meteorología el modelo devuelve una solución para esas entradas que no necesariamente se han entrenado antes.

Pero si a ese modelo le doy parámetros que no conoce, que están fuera de su entrenamiento, el resultado es impredecible. Por eso es complicado que esto se use para crear quest nuevas en plan arte o algo así, para eso habría que incorporar alguna variable aleatoria. Además que nadie quiere esa mierda, yo creo, los videojuegos son una forma de expresión, para eso hay que ser humano.

Si vería le vería sentido a crear de manera procedimental, por ejemplo, el hilo musical, un escenario o añadir variaciones a los enemigos, pero poco más. Es decir, lo veo bien para el contenido que es básicamente relleno.

Para lo que se usa principalmente esto, o donde yo creo que va a ser beneficioso es en el ahorro de trabajo, por ejemplo, hacer las animaciones automáticamente, la iluminación, texturas, facilitar el curro básicamente. Pero todo lo artístico esta fuera de su alcance, pero porque nadie lo quiere más allá de demostrar que se puede y aprender.

Hay muchos tipos de IA que se pueden entrenar.

En videojuegos hay bastantes ejemplos, hay creo una para jugar al dota, lo que pasa que jugar contra una IA de ese tipo competitiva sería muy frustrante para el jugador.

Los autopilotos ya los conocemos con todo lo de tesla, pienso que son modelos con los que ya estamos bastante familiarizados




Yo pienso que el potencial ahora mismo es inimaginable, no ha hecho más que empezar, ya simplemente con poder mantener conversaciones con NPC's eso es un salto brutal, cualquier compañía de videojuegos puede entrenar modelos para sus juegos dándoles información sobre este.

DESCRIPT AI (CLONACIÓN DE VOZ)
Esta es una IA de clonación de voz que muy poca gente conoce, realmente descript es un transcriptor de texto a voz pero el software tiene implementada la opción de clonar tu propia voz, por lo que los estudios de videojuegos podrían pagar a los actores de doblaje por usar su registro y en vez de que los NPC's tengan cuatro frases puedan tener frases ilimitadas.



Aquí se puede ver el resultado después de muchas horas de entrenamiento:






Esta IA de clonación de voz + GPT-3 son el santo grial de los mundos abiertos, la forma en como interactuaremos en esos mundos dentro de muy poco, esto es tecnología real que ya existe pero que ningún juego ha implementado aún, bueno, de GPT-3 están esas demos de arriba que son bastante alucinantes aún no siendo modelos entrenados para un lore en concreto.

Piensa que se pueden crear modelos conversacionales para lugares muy concretos, un pueblo por ejemplo, primero le dan datos genéricos de ese mundo, que es un ciervo, que son las nubes, etc... y luego ya van trabajando cada modelo por separado dependiendo de la localización del NPC. Por ejemplo, un NPC de un pueblo te hablará de la gente de ese pueblo, de lo que sucede, pero si le preguntas por un NPC de otro pueblo pues igual no lo conoce.

Hablamos de texto y voz, para mantener conversaciones, ya lo de tener modelos que a través de lo que ven en el juego puedan hacer cosas tomará bastante tiempo, pero tarde o temprano aparecerá una IA para eso y las empresas pagarán para entrenar sus modelos.
Ojo que yo no veo que el problema sea técnico.

Con IA se han hecho cosas increíbles, y se harán, pero a nivel artístico solo sirven para crear relleno.

A mi no me interesa hablar con un personaje en la pantalla que nadie se ha currado.

Es como mirar cuadros o música hecha con IA, puede ser indiferenciable de la hecha por humanos ojo!, pero no tengo ningún interés en verlos o escucharlos, son maquinas, no tienen nada que contarme, responden matemáticamente.

Google mostró hace unos años un par de herramientas relacionadas con la música, una era muy divertida, permitía crear música que se pareciera a un compositor que escogías. Básicamente entrenaron una red neuronal con música de esos compositores.

Cogían una partitura de un compositor, le quitaban una parte y lo daban como entrada a la red, la salida era la partitura completa, de esa manera la red neuronal aprendía como completar una partitura al estilo de ese compositor. Es la caña, pero es investigación, no tiene un fin practico porque nadie quiere escuchar una partitura hecha por esa maquina, lo que busca la gente cuando escucha música es escuchar lo que han compuesto otros humanos. Te puede servir para un hilo musical o algo así.

Otra cosa que hicieron fueron sintetizadores que eran capaces de mezclar instrumentos, una guitarra con un piano, una trompeta con un no se que. Al final creaban instrumentos nuevos con sonidos rarisimos, recuerdo que estuve probándola con instrumentos ya entrenados por ellos y el resultado eran sonidos muy raros. Pero claro, yo no soy músico, igual eso lo coge un músico y flipamos con los nuevos instrumentos. Supongo que con los sonidos digitales y las mesas de mezclas debió pasar igual.

Con estos ejemplos lo que quiero decir es que en plano artístico (y entiendo que los videojuegos están ahí) la revolución de la IA no está en generar contenido procedimental si no en la capacidad de facilitar el trabajo y de crear nuevas herramientas.

El ejemplo que pones de una IA que genera voz es muy bueno, permite prescindir de un actor de doblaje. Otro ejemplo de estos serían doblajes o traducciones a otros idiomas.

Básicamente todo lo que sea rutinario o repetitivo se puede replicar, pero aquello que tiene un factor artístico carece de sentido replicarlo con una maquina. O por lo menos así lo veo yo.
Ernestorrija escribió:A mi no me interesa hablar con un personaje en la pantalla que nadie se ha currado.

Igual te interesa hablar con un NPC para preguntarle si ha visto a otro NPC, si sabe como se llega a un pueblo o a una calle determinada, o cualquier otro acontecimiento del entorno.

Estamos hablando de una interacción que a día de hoy aún no se ha puesto en práctica como para juzgarla, podríamos hablar casi de la desaparición del clásico minimapa para llegar a determinado punto al ser sustituido por la interacción con los NPC's.

Ernestorrija escribió:El ejemplo que pones de una IA que genera voz es muy bueno, permite prescindir de un actor de doblaje. Otro ejemplo de estos serían doblajes o traducciones a otros idiomas.

Será posible prescindir, pero no por eso simplemente, lo importante del asunto es que los NPC's ya no estarán limitados por un número finito de frases y eso abrirá muchos caminos en cuanto a la interacción con el mundo.

Ernestorrija escribió:Básicamente todo lo que sea rutinario o repetitivo se puede replicar, pero aquello que tiene un factor artístico carece de sentido replicarlo con una maquina. O por lo menos así lo veo yo.

Bueno, yo en ningún momento me refiero en lo artístico, pero deberías de ver lo que se está haciendo con DALL·E 2

Ernestorrija escribió:Es como mirar cuadros o música hecha con IA, puede ser indiferenciable de la hecha por humanos ojo!, pero no tengo ningún interés en verlos o escucharlos, son maquinas, no tienen nada que contarme, responden matemáticamente.

No quería meterme en el arte, pero eso no creo que sea del todo cierto, directamente vivirás rodeado de arte creado por IA's, verás un tablón publicitario y estará hecho por una IA y ni te plantearás quien lo ha hecho.

Gran parte del arte humano dejará de consumirse por su alto costo de producción en cuanto a tiempo y habilidad, es lo que ha ocurrido con muchas cosas que antes se hacían artesanalmente como muebles, por ejemplo, seguro que antes de la existencia de IKEA alguien pensaba lo mismo.


O por ejemplo, el auto tune, que no es ni una IA ¿Quién diría que un software informático que corrige el tono de voz podría estar tan presente en la industria musical? Eso ya da un signo de que mucha gente acepta prescindir de músicos con voces profesionales ¿Quizás estamos dando el paso sin darnos cuenta? ¿Quién dice que mañana no exista una IA con un sintetizador de voz para que puedas cantar como un prodigio sin parecer robótico y que con eso puedas crear un álbum sin saber cantar?

En temas no simplemente de producción musical, hace tiempo vi esa IA que se pasa el día componiendo música electrónica, pero también hay IAs que harán el trabajo de mezcla y masterización, añadir arreglos, etc... de hecho ya existen.

Van a cambiar muchas cosas, y obviamente el humano seguirá estando detrás de muchas de ellas.




Es más, ya lo he dicho muchas veces, hoy en día hacer videojuegos es una jodida locura, se necesitan miles de personas profesionales para hacer un mundo abierto como RDR2, pero en unos años hacer un juego así será posible desde casa. Incluso llegará un momento que la gente creará los juegos que a ellos les gusten, por lo menos esos sucederá con los MMO RPG.


Te meterás en el software y con la voz irás dándole al programa inputs de como quieres que sea ese mundo, obviamente aún estamos bastante lejos de eso, pero ocurrirá, la gente creará sus propios juegos y jugará exactamente a lo que ellos quieren.
katatsumuri escribió:Bueno, yo en ningún momento me refiero en lo artístico, pero deberías de ver lo que se está haciendo con DALL·E 2

No quería meterme en el arte, pero eso no creo que sea del todo cierto, directamente vivirás rodeado de arte creado por IA's, verás un tablón publicitario y estará hecho por una IA y ni te plantearás quien lo ha hecho.


Es que estamos hablando de videojuegos, desligarlos del arte yo creo que es imposible, o muy difícil.

Si los desligas del arte creo que la IA te queda para lo que te he dicho antes, herramientas para facilitar el trabajo, el trabajo artistico.

Por otro lado que el arte va a dejar de consumirse, tengo muchas dudas, de hecho nunca ha sido tan barato ni se ha producido tanto como ahora.

Otra cosa diferente es que los humanos utilicemos los recursos disponibles para facilitar el trabajo o deshacernos de limitaciones, ya sea IA o fabricación en cadena.

De hecho los ejemplos que pones son muy similares al que daba yo del hilo musical, cosas que son "relleno", está bien para eso, pero no voy a ir al teatro a ver una obra hecha por una maquina (o eso creo), otra cosa es que la haga un humano asistido por una maquina.

katatsumuri escribió:El arte humano dejará de consumirse por su alto costo de producción en cuanto a tiempo y habilidad, es lo que ha ocurrido con muchas cosas que antes se hacían artesanalmente como muebles, por ejemplo.


Tengo muebles en mi casa, ¿como que se han dejado de consumir?

¿Quieres decir que ya no se hacen artesanalmente? se hacen con los recursos que tenemos disponibles, como todo.

Las miniaturas, por ejemplo, antes se tallaban una a una, ahora se hace un diseño y se fabrican en cadena, en el futuro igual se le dice a una IA "quiero que tengas estas características", pero sigue siendo una obra que hace un humano con las herramientas que tiene.

Y ojo! que no le quito merito eh! coincido contigo en que es la hostia, pero es eso, una herramienta para facilitar el trabajo y en según que cosas.

En lo que no coincido contigo es en el para que van a ser la hostia.

katatsumuri escribió:Esto nos llevaría, a por ejemplo, que los desarrolladores no tengan que crear tantas quests secundarias y que estas sean generadas de forma dinámica por los mismos NPCs, como si les sucediesen cosas en la vida real, pudiendo los desarrolladores centrarse en crear misiones principales y centrarse más en otros aspectos del juego, como en las animaciones, la interacción con el entorno, las físicas, etc....


Aquí es donde yo no coincido contigo. Creo que precisamente donde la IA va a ayudar es en esos otros aspectos, animaciones, interacción con el entorno, físicas... todo eso es lo que creo que se hará con IA, y los desarrolladores se centraran en todos los componentes artísticos, posiblemente asistidos con herramientas que también utilizaran IA.

Es decir, todo lo que requiera sentimientos me parece que está fuera de la capacidad de la IA, pero no porque no pueda hacer cosas equivalentes o crear cosas nuevas (añadiendo componentes aleatorios) si no porque a nadie le interesa lo que pueda expresar una maquina, porque es una imitación.

Y ojo que tengo dudas eh! el campo ha evolucionado muchísimo y nos podemos llevar sorpresas, nadie nos dice que una IA no se capaz de encontrar matemáticamente cuales son exactamente los parámetros que hay que utilizar para emocionarnos, de hecho es probable que pueda hacerlo, igual que ganan al go o al ajedrez.

En mi opinión, el arte debe ser creado por humanos, igual que en el deporte participan humanos, aunque nadie gane a una maquina.

Muy interesante lo que compartes y leer tu opinión, gracias por compartilo ;)


Edito: estaba escribiendo cuando añadías lo del final, creo que hemos llegado a la misma conclusión
GUERRILLA GAMES ( LOS CREADORES DE HORIZON FORBIDEN WEST ) SE UNEN A LA FIESTA

¡Hola a todos! Me alegra anunciar que voy a cambiar de rol dentro de @Guerrilla, pasando de programador de IA (de juegos) a ingeniero de Machine Learning, ¿qué significa esto?


Voy a implementar soluciones basadas en ML que ayudarán a la producción de assets. El primer dominio en el que nos centramos es la animación, ya que MOCAP nos permite generar toneladas de datos de entrenamiento y la investigación se ha acelerado considerablemente en los últimos años.


Nuestro primer proyecto está inspirado en @FelixGHarvey et al: su objetivo es generar animaciones de transición entre fotogramas clave dispersos. El verde muestra la animación original (no vista), el rojo muestra la transición generada (todavía un prototipo muy temprano)


El siguiente paso es la eliminación de ruido, el etiquetado y la resolución automática de los datos MOCAP, inspirados en


También estamos estudiando la aplicación de ML en otros dominios, y el uso de la inferencia de ML en el juego. Si trabajar en esto te parece interesante, ponte en contacto conmigo. Todavía no tenemos ninguna vacante oficial, pero dependiendo del éxito de estos primeros proyectos ampliaremos el equipo.


Vamos, que han creado una división de machine learning dentro de la compañía, en principio para mejorar las animaciones de la captura de movimientos.
NVIDIA 3D MoMa


INSTANT NeRF
Instant NeRF es una tecnología que partiendo de fotografías normales (es decir, bidimensionales), es capaz de generar toda la información volumétrica necesaria para transformarla en una escena tridimensional. Para ello, como su propio nombre indica, Instant NeRF emplea una tecnología basada en NeRF (siglas, en inglés, de Campos de Radiación Neuronal).










https://www.youtube.com/watch?v=LO3Aak5kyX0
https://www.youtube.com/watch?v=AxX0k9kwxcU
https://www.youtube.com/watch?v=hwpDf3mP7hM
MultiNeRF: A Code Release for Mip-NeRF 360, Ref-NeRF, and RawNeRF
Durante la conferencia CVPR 2022 científicos de google han hecho público el código de su trabajo con Neural Radiance Fields (mip-NeRF 360/Ref-NeRF/RawNeRF)
https://github.com/google-research/multinerf

Esto arroja un poco de luz sobre el futuro de los gráficos 3D realistas y lo sencillo que será capturar el mundo real en entornos virtuales de forma realista y fiel, esta década podríamos tener ciudades virtualizadas a escala real accesibles a cualquier persona que quiera desarrollar un videojuego o crear un entorno virtual.




Sin duda es el NERF más perfecto que he visto.

Mip-NeRF 360: Campos de radiación neuronal anti-aliasing ilimitados
https://jonbarron.info/mipnerf360/
Aunque los campos de radiación neuronal (NeRF) han demostrado impresionantes resultados de síntesis de vista en objetos y pequeñas regiones limitadas del espacio, tienen dificultades en escenas "ilimitadas", donde la cámara puede apuntar en cualquier dirección y el contenido puede existir a cualquier distancia. En esta configuración, los modelos similares a NeRF existentes a menudo producen representaciones borrosas o de baja resolución (debido al detalle y la escala desequilibrados de los objetos cercanos y distantes), son lentos para entrenar y pueden exhibir artefactos debido a la ambigüedad inherente de la tarea de reconstruir una gran escena a partir de un pequeño conjunto de imágenes. Presentamos una extensión de mip-NeRF (una variante de NeRF que aborda el muestreo y el aliasing) que utiliza una parametrización de escena no lineal, destilación en línea y un regularizador novedoso basado en distorsión para superar los desafíos que presentan las escenas ilimitadas. nuestro modelo,





Ref-NeRF: Structured View-Dependent Appearance for Neural Radiance Fields
https://dorverbin.github.io/refnerf/
Neural Radiance Fields (NeRF) es una técnica popular de síntesis de vista que representa una escena como una función volumétrica continua, parametrizada por perceptrones multicapa que proporcionan la densidad de volumen y la radiación emitida dependiente de la vista en cada ubicación. Si bien las técnicas basadas en NeRF se destacan en la representación de estructuras geométricas finas con una apariencia dependiente de la vista que varía suavemente, a menudo no capturan ni reproducen con precisión la apariencia de las superficies brillantes. Abordamos esta limitación al presentar Ref-NeRF, que reemplaza la parametrización de NeRF de la radiación saliente dependiente de la vista con una representación de la radiación reflejada y estructura esta función utilizando una colección de propiedades de escena que varían espacialmente. Mostramos que junto con un regularizador en vectores normales, nuestro modelo mejora significativamente el realismo y la precisión de los reflejos especulares. Además, mostramos que la representación interna de la radiación saliente de nuestro modelo es interpretable y útil para la edición de escenas.


NeRF en la oscuridad: síntesis de vista de alto rango dinámico a partir de imágenes ruidosas en bruto
https://bmild.github.io/rawnerf/

Neural Radiance Fields (NeRF) es una técnica para la síntesis de vistas novedosas de alta calidad a partir de una colección de imágenes de entrada planteadas. Como la mayoría de los métodos de síntesis de vistas, NeRF utiliza un rango dinámico bajo (LDR) de mapa de tonos como entrada; estas imágenes han sido procesadas por una tubería de cámara con pérdida que suaviza los detalles, recorta los puntos destacados y distorsiona la distribución de ruido simple de los datos del sensor sin procesar. Modificamos NeRF para entrenar directamente en imágenes sin formato lineales, preservando el rango dinámico completo de la escena. Al renderizar imágenes de salida sin procesar del NeRF resultante, podemos realizar nuevas tareas de síntesis de vista de alto rango dinámico (HDR). Además de cambiar el punto de vista de la cámara, podemos manipular el enfoque, la exposición y el mapeo de tonos después del hecho. Aunque una sola imagen sin procesar parece significativamente más ruidosa que una posprocesada, mostramos que NeRF es altamente robusto a la distribución de media cero del ruido sin procesar. Cuando se optimiza con muchas entradas sin procesar ruidosas (25-200), NeRF produce una representación de la escena tan precisa que sus nuevas vistas renderizadas superan a los eliminadores de ruido sin procesar profundos dedicados de una o varias imágenes que se ejecutan en las mismas imágenes de entrada de línea de base amplia. Como resultado, nuestro método, al que llamamosRawNeRF , puede reconstruir escenas a partir de imágenes extremadamente ruidosas capturadas casi en la oscuridad.
Yo lo unico que creo que IA y Deep Learning no garantizan forzosamente mejores juegos, no faltara una EA que nos entregue un juego de mundo abierto generado en su mayoria por estas tecnicas y totalmente generico, los mejores juegos son artesanales y no soy enemigo de estas tecnicas pero deben ser de apoyo y en cosas que hoy mismo se abordan de forma masiva y si requieren mas trabajo pero actualmente no les da la vida a los desarrolladores hacerlo.
LostsoulDark escribió:Yo lo unico que creo que IA y Deep Learning no garantizan forzosamente mejores juegos, no faltara una EA que nos entregue un juego de mundo abierto generado en su mayoria por estas tecnicas y totalmente generico, los mejores juegos son artesanales y no soy enemigo de estas tecnicas pero deben ser de apoyo y en cosas que hoy mismo se abordan de forma masiva y si requieren mas trabajo pero actualmente no les da la vida a los desarrolladores hacerlo.

Evidentemente que para hacer buenos juegos se necesitará de profesionales, pero lo que antes costaba meses o años de crear, o requería de alguien que es único, por ejemplo, un programador de físicas para crear una física de un objeto en concreto, la cuerda de TLOU2, pues la IA lo hará en cuestión de minutos.

Poder animar un animal en 3D a partir de vídeos del animal en concreto, ya no hará falta animar con animales reales, una vez aprendidos los movimientos le escribirás a la IA órdenes "Haz que el león se siente en la silla" y el león hará la acción que le pidas, haz que el león ruede" el león rodará, todo en base a descripciones de texto.

Esto del león sería aplicable a la hora de grabar una secuencia cinematográfica donde queremos que el león haga algo concreto, ya hay IA's que programan código con texto o que dibujan con texto.

Yo creo que hay muchas empresas que sustituirán a los trabajadores por IAs, debemos ir asumiendo que habrán cambios grandes nos guste o no, para empezar el humano dejará de conducir vehículos, en unos años los niños se extrañarán al saber que la gente conducía los coches, por ponerte un ejemplo.

Actualmente tenemos tecnología DLSS, en un futuro no muy lejano tendremos remasters al vuelo por IA mediante filtros.







Las aplicaciones de la IA son muchas y como las use cada empresa marcará un antes y un después en su desarrollo futuro, yo creo que muchas empresas que apuesten por la IA mañana serán grandes empresas.

La inteligencia artificial puede mejorarse entrenando modelos, ya no tendremos IA's de combate cutres, hoy en día cuesta mucho programar buenas IA's para los enemigos, muy pocas empresas saben hacerlo realmente bien y aún así estamos muy lejos de tener unos resultados muy realistas, lo más cercano es TLOU2.
O por ejemplo, en un GTA puedes crear diferentes modelos de conducción, por ejemplo, un modelo para un borracho, otro para una persona de edad adulta, otro para un conductor principiante, otro tipo de conducción más agresiva, uno que conduce muy bien.


Por otra parte, que se consigan gráficos realistas de forma sencilla hará que las desarrolladoras tengan que centrar su atención y recursos en otros apartados del juego como jugabilidad, historia, diseño del mundo o del juego, etc...
Estimado @katatsumuri

Por supuesto apoyo y me entusiasma todo lo referente a desarrollo tecnologico, sin embargo pienso tambien que como todo no faltara la desarrolladora que termine prostituyendo todo lo que toca, como una EA donde los videojuegos terminan siendo un producto hecho en serie.

Yo creo en los videojuegos de autor, juegos donde se ve la mano artesanal en detalles que van mas alla del negocio, por ejemplo las capas y capas de escencia jugable que tiene un Hollow Knight dejan en ridiculo a juegos desarrollados por estudios gigantescos.

Por esto la IA y Deep learning es necesario que este al alcance tambien de estudios pequeños y que sea una herramienta mas para llevar mas lejos sus ideas y no sea solo una forma de recortar costos, falta recordar cuando usaron un algoritmo para recrear en automatico movimientos faciales en Mass effect Andromeda [qmparto] no para mejorar los avances logrados sino para recortar trabajo y costos y pues ya sabemos el resultado.

Por eso comento que esto no garantiza mejores juegos, pero si mas posibilidades para gente talentosa, y no se ultimamente pienso que los juegos AAA estan pasando por una crisis muy severa y no asi los juegos de autor donde hay detras gente talentosa y no solo recursos monetarios que terminan sacando juegos "sin alma"
LostsoulDark escribió:Por esto la IA y Deep learning es necesario que este al alcance tambien de estudios pequeños y que sea una herramienta mas para llevar mas lejos sus ideas y no sea solo una forma de recortar costos, falta recordar cuando usaron un algoritmo para recrear en automatico movimientos faciales en Mass effect Andromeda [qmparto] no para mejorar los avances logrados sino para recortar trabajo y costos y pues ya sabemos el resultado.

Precisamente muchas de las cosas que trae toda esta tecnología es poner facilidades al alcance de los pequeños estudios o de gente que tiene la creatividad pero no la habilidad técnica que actualmente es necesaria para desarrollar un videojuego, en nada la gente podrá escribir el código de un videojuego sin saber programar, ya existe AlphaCode o Codex lo cual es un salto bastante grande.



LostsoulDark escribió:Por eso comento que esto no garantiza mejores juegos, pero si mas posibilidades para gente talentosa, y no se ultimamente pienso que los juegos AAA estan pasando por una crisis muy severa y no asi los juegos de autor donde hay detras gente talentosa y no solo recursos monetarios que terminan sacando juegos "sin alma"

La IA no garantiza mejores juegos, la calidad final del juego estará en las manos del que lo toque, pero también te digo que dentro de no mucho cambiará la filosofía de los videojuegos, creo que llegará un momento en que la gente será capaz de crear sus propios juegos, y me refiero a cualquier persona, la persona le dirá a la IA que tipo de juego quiere, ambientación, historia, mecánicas etc... Yo creo que llegaremos a ese punto, se ve lejano, pero sin duda creo que es parte del futuro de este tipo de entretenimiento, no conozco mucho el fenómeno Roblox pero creo que se acerca un poco a este concepto, los usuarios son los que crean esos mundos y juegos, ellos mismos, en este caso hablaríamos de poder crear juegos del nivel de RDR2 o de TLOU2 por cualquier persona, parece una locura, pero ya te digo yo que llegará.

¿Qué ocurrirá con las grandes empresas si eso llega? Pues aún está por ver, pero podrían cambiar mucho las cosas, puede que se convierta en una industria totalmente diferente donde ya no se requiera tanto profesional técnico en ella y la gente tenga que especializarse en otras cosas.

Sin duda pienso que el coste del desarrollo de un AAA se irá reduciendo con los años a medida que vayan saliendo todas estas nuevas técnicas de desarrollo, actualmente se necesita de una organización alucinante con cientos o miles de trabajadores y cada uno en su rol, creo que una de las cosas que prevalecerán es la interpretación y la animación usando humanos, y hay veces que hasta dudo de eso, habrá tanta data que todo será construido alrededor de todo eso.

¿Para qué va a escanear alguien New York o cualquier ciudad de España si ya ha sido escaneada profesionalmente y está al alcance de todos? Todo el mundo tirará de esa data para hacer su juego, la modificará si lo creé conveniente con otra data.

¿Actualmente quien se lo puede permitir? ¿Quién puede tener una ciudad a escala real? Nadie, ni la misma Rockstar Games, quizás Microsoft con Flight Simulator son los que más se han acercado, todo eso cambiará dentro de poco, esa barrera será rota.

Puede que gran parte de la inversión de las empresas pase a alquilar servidores para el almacenamiento de los datos de sus juegos, recordemos que flight sumulator creo que ocupa 2 petabytes, y al procesamiento en tiempo real con IA, servidores que hagan cálculos en tiempo real.

Dependiendo de la evolución de todo esto puede que muchas empresas actuales que nos parecen grandes como ubisoft, puede que desaparezcan.


Todo esto no es nuevo, ya ha ocurrido en el cine y en la música, antes para hacer música se requería de grandes equipos analógicos que eran carísimos, no estaban al alcance de cualquiera, y los artistas dependían de estos, a medida que fueron apareciendo los primeros dispositivos digitales todo eso fue cambiando, ahora cualquiera puede componer, producir y grabar desde su casa. Aún existen los estudios porque lo que no ha cambiado es la naturaleza de la acústica, para mezclar una canción bien necesitas escuchar todo el rango frecuencial de forma plana, lo mismo que para capturar audio del micro, se necesita de un tratamiento acústico para no ver alterado el color del sonido o no añadir efectos acústicos no deseados que pueda producir la sala, pero eso ya tiene solución, ya existen IA's de mastering, incluso IA's que separan canciones por pistas, que eliminan ruido, etc.... por lo que puede que ese proceso para lograr la profesionalidad sonora ya no sea necesario en un futuro.

Así de increíble se ve la vegetación, aunque los vídeos de twitter son de muy poca calidad:


Este es un entorno 3D por instant nerf



Y estamos hablando de una persona con una RTX 3080 desde su casa, imaginemos que una desarrolladora se gasta parte del presupuesto en una empresa tocha que se dedica a los NERFs o tienen un departamento NERF para objetos, físicas, etc... Cambiarán muchas cosas durante estos años.

Lo único que faltaría es una tecnología que haga a esos entornos interactivos, que pises el suelo y dejes una huella, que puedas mover la planta o que se mueva por la fuerza del viento, de todas formas posiblemente se pueda hacer animando con físicas, lo de las huellas con decals, pero me refiero a una tecnología en un motor gráfico mediante IA que lo haga automáticamente, que captures un entorno donde hay hojas en el suelo, lo metas en el motor y que al introducir viento esas hojas se muevan como lo harían en la vida real, que el mismo nerf haya creado la parte posterior a la hoja que falta para que sea un elemento 3D independiente.

Con algo así se rompería el tema de las físicas, lo que antes solo lo hacían de forma realista dos empresas top estaría a manos de cualquiera, sería un estándar, tendríamos entornos con físicas reales en todos los juegos.


MÁS NERF DEL FUTRO DISEÑO DE LA VEGETACIÓN EN VIDEOJUEGOS
Esta IA genera texturas simétricas a partir de una fotografía de una textura.
NVIDIA RTX REMIX / LA REVOLUCIÓN DEL MODDING EN LOS JUEGOS ANTIGUOS https://www.nvidia.com/en-us/geforce/news/rtx-remix-announcement/


Una plataforma de modificación gratuita basada en NVIDIA Omniverse que permite a los modders crear y compartir rápidamente modificaciones #RTXON para juegos clásicos, cada una con materiales mejorados, trazado de rayos completo, NVIDIA DLSS 3 y NVIDIA Reflex .

Presentamos NVIDIA RTX Remix
NVIDIA RTX Remix se lanzará pronto, lo que facilitará la remasterización de juegos compatibles con DirectX 8 y DirectX 9 con canales de gráficos de funciones fijas .

En un juego compatible, presione la tecla de acceso rápido y se capturará la escena circundante, como puede ver aquí en una escena de prueba de The Elder Scrolls III: Morrowind de Bethesda Softworks , uno de los juegos más modificados de Nexus Mods. De repente, uno de los desafíos más difíciles en modding se resuelve fácilmente.
Imagen

RTX Remix puede capturar las texturas, la geometría, la iluminación y las cámaras gracias a un D3D9 Runtime innovador y personalizado llamado RTX Remix Runtime. Los juegos clásicos como Morrowind usan el tiempo de ejecución D3D9 para enviar llamadas de sorteo (instrucciones de renderizado) a la GPU. RTX Remix Runtime intercepta esas llamadas de dibujo, las interpreta en activos distintos y vuelve a ensamblar esos activos en una escena idéntica. A partir de ahí, RTX Remix convierte los activos y la escena en el marco 3D abierto Universal Scene Description (USD) ampliamente adoptado, que es la base de la plataforma NVIDIA Omniverse para construir y operar canalizaciones 3D personalizadas.

Imagen


Dado que RTX Remix se basa en NVIDIA Omniverse, estos activos de juegos en USD se pueden importar fácilmente a la aplicación RTX Remix, o a cualquier otra aplicación o conector de Omniverse, incluidas las aplicaciones estándar de la industria de juegos como Adobe Substance 3D Painter, Autodesk Maya, 3ds Max, Blender, SideFX Houdini y Unreal Engine de Epic Games. Los equipos de mods pueden mejorar y reemplazar activos de forma colaborativa, y visualizar cada cambio, ya que el activo se sincroniza desde el conector Omniverse a la ventana gráfica de Remix. Este poderoso flujo de trabajo cambiará la forma en que las comunidades de modding abordan los juegos que modifican, brindando a los modders un solo flujo de trabajo unificado que les permite llevar su conocimiento a una variedad de títulos, lo que permite la remasterización de un conjunto diverso de juegos sin tener que aprender un multitud de herramientas propietarias.

Imagen

Al remasterizar activos para usarlos con trazado de rayos, cada textura y superficie necesita materiales de renderizado basado en la física (PBR) para permitirles interactuar de forma natural con la luz con trazado de rayos. Por ejemplo, el vidrio refleja el mundo con detalles claros, mientras que los pisos de madera laminada tienen reflejos ásperos y toscos. Y la piedra, aunque sin reflejos visibles, todavía es capaz de hacer rebotar la luz y tener un efecto en la escena. Los juegos clásicos generalmente se construyen con texturas de colores simples que carecen de cualquiera de estas propiedades.

Más allá de las texturas, sus superficies también necesitan nuevos detalles. Para mejorar un juego clásico, se requiere un mapa normal o una superficie completamente nueva con detalles geométricos genuinos que haya sido creado a mano por el modder, los cuales requieren bastante tiempo para hacerlos.
Imagen

RTX Remix simplifica y acelera el proceso de remasterización de arte usando IA. AI Super Resolution aumenta la resolución de las texturas extraídas hasta 4X, convirtiendo las texturas de clase 1080p en activos 4K de mayor calidad. Y AI Physically Based Materials escanea el entorno del juego para agregar propiedades PBR a todos los activos extraídos. Como lo demuestran estas capturas de pantalla de Mount & Blade de TaleWorlds Entertainment , un piso de adoquines pasa inmediatamente de una superficie plana con una textura básica a una superficie de piedra detallada con un mapa de rugosidad que interactúa con la luz de manera realista.

En la imagen de abajo de Bethesda Softworks'En la siguiente imagen de The Elder Scrolls III: Morrowind, los artistas de NVIDIA usaron RTX Remix para remasterizar una escena. Nuestro equipo se cargó en un proyecto RTX Remix compartido a través de Omniverse, y cuando un miembro actualizó las propiedades materiales de un objeto o la malla de un activo en aplicaciones conectadas a Omniverse como Substance o Maya, la escena del juego se sincronizaría en la ventana de visualización de Remix, lo que facilita la colaboración. . Luego, un segundo artista podría pasar su tiempo en la aplicación Remix, moviendo meticulosamente cada elemento completo a su posición perfecta y volviendo a iluminar la escena con los objetos reconstruidos en mente. Es así de simple, lo que permite la colaboración y el desarrollo las 24 horas del día con un equipo de mods repartido por todo el planeta. Anteriormente, tenía que esperar a que el trabajo de una persona terminara y se enviara. Ahora, no hay retrasos, y otro puede continuar donde lo dejó.

Sin embargo, las texturas y los modelos son solo una parte del proceso de remasterización, ya que los juegos clásicos se crearon en una época anterior a las técnicas de iluminación avanzadas, y a menudo se basaban en fuentes de iluminación invisibles para iluminar las escenas. RTX Remix puede convertir las luces heredadas en luces realistas, lo que permite que el trazado de rayos vuelva a iluminar una escena con sombras suaves y realistas.

Además, RTX Remix proporciona una gran flexibilidad para ver la iluminación y las sombras de forma aislada a través de un modo blanco y, con poco esfuerzo, crear nuevas luces que ayudan a traer una iluminación, sombras, oclusión ambiental y reflejos globales realistas a un juego. Un modder puede incluso crear luces dinámicas e introducir volumetría para crear una escena más inmersiva.

Imagen

Con RTX Remix, tomamos nuestra escena de Elder Scrolls III: Morrowind del año 2002 y rápidamente le dimos funciones de trazado de rayos y basadas en la física de última generación. Ese es el poder de RTX Remix.

RTX Remix va más allá de nuestro trabajo para remasterizaciones anteriores como Quake II RTX , e introduce nuevas tecnologías que mejoran aún más el trazado de rayos. Una de las nuevas características más impactantes, NVIDIA RTX Direct Illumination (RTXDI) , le permite agregar millones de luces dinámicas a sus entornos de juego sin preocuparse por el rendimiento o las limitaciones de recursos. Imagine miles de diminutos LED, paneles de control de ciencia ficción, vallas publicitarias de Times Square o incluso bolas de fuego explosivas. RTXDI lo hace posible mientras se renderiza en tiempo real, lo que permite que la geometría de cualquier forma emita luz, proyecte sombras apropiadas y se mueva libre y dinámicamente.

NVIDIA Reservoir Spatio Temporal Importance Resampling Global Illumination (ReSTIR GI) es una nueva técnica de iluminación global que calcula la iluminación indirecta correcta por píxel para múltiples rebotes. Permite que la luz indirecta bañe una escena e ilumine rincones oscuros que ni siquiera están iluminados directamente, de una manera muy eficaz.

Imagen

NVIDIA Real Time Denoisers (NRD) es una biblioteca de eliminación de ruido de trazado de rayos espacio-temporal que ayuda a eliminar señales bajas de rayos por píxel con rendimiento en tiempo real. En comparación con los eliminadores de ruido de la generación anterior, NRD mejora la calidad y garantiza que la salida con trazado de rayos computacionalmente intensivo esté libre de ruido, sin compromisos de rendimiento.

Esta combinación de tecnologías de trazado de rayos se une para crear un trazador de rayos increíblemente preciso según los estándares de los juegos modernos, mucho más allá de nuestros títulos anteriores, así como de lo que es posible con las tecnologías de espacio de pantalla.

Cuando el RTX Remix Mod está listo, es fácil exportarlo y compartirlo con otros jugadores en línea: simplemente descargan el mod y lo colocan en el directorio del juego junto con el archivo .exe e inician el juego. NVIDIA RTX Remix Runtime hace el resto, reemplazando las antiguas API y sistemas de renderizado con el renderizador Vulkan de 64 bits de RTX Remix Runtime y actualizando las imágenes sobre la marcha. El reproductor también se beneficia de la adición instantánea de NVIDIA DLSS 3 , para velocidades de cuadro increíblemente uniformes, y NVIDIA Reflex , que mejora la capacidad de respuesta al reducir la latencia del sistema de extremo a extremo. Y lo mejor de todo, NVIDIA RTX Remix Mods funciona junto con los mods de juego existentes descargados de Nexus Mods u otros sitios, lo que brinda a los juegos con contenido modificado enriquecido una actualización instantánea con trazado de rayos.

Cada RTX Mod también viene con el editor RTX Remix Runtime, que brinda a los jugadores una multitud de opciones para personalizar su experiencia en tiempo real. Ya sea que desee modificar las propiedades del material para hacer que el mundo brille, personalizar la intensidad de la iluminación, agregar niebla y volumetría, o incorporar efectos de posprocesamiento como floración y desenfoque de movimiento, RTX Remix Runtime lo tiene cubierto. Los usuarios avanzados pueden incluso activar herramientas heurísticas y de diagnóstico para resaltar cada activo modificado en un RTX Mod, lo que permite que un equipo colaborativo de mods revise fácilmente un mod en curso mientras juegan, lo que lleva a un mejor lanzamiento público.

Imagen

Portal con RTX, hecho con NVIDIA RTX Remix
Para demostrar el poder de RTX Remix, hemos creado un Portal con RTX DLC que reinventa el juego clásico de Valve. Estará disponible de forma gratuita para los propietarios del Portal en noviembre; lista de deseos ahora y obtenga más información en nuestro artículo Portal con RTX .


Al igual que un equipo de mods real, nuestros desarrolladores de NVIDIA crearon en colaboración este increíble mod usando RTX Remix. Todas las herramientas y procesos documentados anteriormente se aplicaron para hacer este DLC de vanguardia.

Pronto, los jugadores podrán tener en sus manos Portal con RTX , mejorando uno de los juegos mejor calificados de todos los tiempos, y podrán personalizar su experiencia con RTX Remix Runtime mientras juegan.

Imagen

LA IA STABLE DIFFUSION EN VR
La IA stable diffusion se une a los videojuegos, esto es el principio del futuro, donde los videojuegos serán generados proceduralmente de forma dinámica en tiempo real.


¿Creéis que viendo esto llegará un punto en que los motores gráficos en videojuegos dejarán de tener sentido? ¿Seguirá existiendo un motor de background donde controlar al personaje y tal? ¿O todo lo demás será generado por una IA? Incluso hasta el control del personaje puede que hasta sea gestionado por la IA, si por ejemplo vamos adelante la IA generará un output de la imagen mostrando que el personaje avanza, avanzar será decirle a la IA que dibuje el fotograma del personaje moviéndose.


Incluso hablando de físicas, la IA interpretaría las físicas pero sin un motor de físicas, simplemente las dibujaría en tiempo real como un frame más, así si disparamos a alguien en la cabeza la IA hará una interpretación lo más realista de lo que sucedería en ese momento, aunque seguro que hay cosas que igual no serían tan perfectas como si fuese un motor gráfico donde hay física de verdad, geometría, etc...

Yo creo que al principio habrá un hibrido de IAs dentro de los motores, primero se crearán juegos con IAs, me refiero a herramientas que mejoren los juegos visualmente como tecnología de animación facial para hacer las animaciones de los rostros como ya ha sucedido, luego se implementarán IAs dentro de los motores o a través de la nube, por ejemplo, un GTA donde todos los NPC's del mundo son controlados por IA's conectadas al juego como si fuesen un jugador más y que se comportan como humanos, tienen recuerdos, hablan como personas, puedes hablar con ellos, etc... y por último la IA generará todo en tiempo real, esto ya en un futuro un poco más lejano, quizás dentro de diez o veinte años, le pedirás que tipo de juego quieres jugar y podrás jugar al juego que quieras a medida, la historia, los personajes, el mapeado, todo será generado en tiempo real de forma procedural y siempre será diferente.






.Todas estas tecnologías son increíbles, pero como muchas otras, se quedarán olvidadas pues realmente no hay demanda, desde hace años (fuera de convenciones específicas), nos llevan hablando de tecnologías increíbles casi de ciencia ficción, y siempre se quedan en intentos, betas, demos, pruebas "controladas" y prototipos que jamás se vuelven comerciales.

Tristemente, a la gente solo le interesa (más bien les obsesiona hasta el absurdo) la calidad gráfica, 4k, 8k, Ray tracing, PS5 etc, algo realmente ridículo, ya que con televisiones de 50' y full HD todo se ve perfecto, es meramente una cuestión de postureo y de la obsesión enfermiza de la calidad visual.

Globalmente hablando, aunque solo fuese 1 entre 100 (por la calle, en tiendas, transportes publicos etc), ¿donde veis a personas manejar dispositivos holograficos?, ¿donde veis coches sin conductor?, ¿donde veis (fuera de japon), robots o androides serios (bipedos, estilizados y con pies, no con ruedas)?...

Volviendo al tema en si, puede que la moda reciente de las IA, de visibilidad a la tecnologia y pueda extenderse a los videojuegos, pero llegado ese caso, habria que preguntarse que limites estariamos dispuestos a cruzar.

Ya sea que nos lo tomemos con humor como la pelicula Free Guy o que nos pongamos intensos xD y nos vayamos a Westworld, una IA sin restricciones, no solo que fuese muy buena, sino que pudiese aprender, mejorar y evolucionar, podria acercanos terriblemente a Npcs conscientes, y eso, para bien y para mal, treaeria consecuencias impensables.
Lobeznoviejo1982 escribió:.Todas estas tecnologías son increíbles, pero como muchas otras, se quedarán olvidadas pues realmente no hay demanda, desde hace años (fuera de convenciones específicas), nos llevan hablando de tecnologías increíbles casi de ciencia ficción, y siempre se quedan en intentos, betas, demos, pruebas "controladas" y prototipos que jamás se vuelven comerciales.

La IA como tal, lo que está revolucionando NVIDIA desde hace cuatro días es algo completamente nuevo, estamos viendo su nacimiento, estamos casi como en la época cuando casi nadie tenía teléfonos móviles y los cuatro gatos que los tenían eran personas con alto poder adquisitivo y eran cacharros enormes que pesaban como una piedra.

La IA a día de hoy tiene aplicaciones prácticas, muchas empresas están implementado departamentos de deep learning para usar sus datos para entrar IAs como es el caso de arriba que puse de Guerrilla, otras empresas contratan a empresas que han desarrollado IAs para usarlas en el desarrollo de sus juegos, esto no ha hecho más que empezar, aún no hemos visto IAs que interactúen directamente en los juegos con otros jugadores salvo alguna prueba que se hizo con dota que solo tenía un objetivo de probar la competitividad frente a un humano, al principio solo se buscarán IAs que faciliten el desarrollo de los juegos, quizás alguna empresa vaya más allá de eso y nos sorprenda.

Yo no creo que seas consciente de la infinidad de herramientas que están apareciendo y que incluso van a reemplazar a los humanos que ahora trabajan como chinos en el desarrollo de videojuegos.
Lobeznoviejo1982 escribió:Tristemente, a la gente solo le interesa (más bien les obsesiona hasta el absurdo) la calidad gráfica, 4k, 8k, Ray tracing, PS5 etc, algo realmente ridículo, ya que con televisiones de 50' y full HD todo se ve perfecto, es meramente una cuestión de postureo y de la obsesión enfermiza de la calidad visual.

A mi me interesa mucho la calidad gráfica en los juegos, para mi es muy importante, yo juego en 4K en una pantalla de 55 pulgadas y te puedo asegurar que la definición que ofrece el 4K no la ofrece el 1080p, es el doble de píxeles, igual que 30 fps no son 60 fps ni de coña. Negar eso me parece un poco absurdo, sería como decir que un juego de PS3 se ve igual que uno de PS4, que son lo mismo y que no hacen falta juegos como los de PS4

Igual que una iluminación por raytracing es muchísimo mejor, igual que un sonido tridimensional basado en la misma tecnología del raytracing podría revolucionar el sonido en los videojuegos, imagínate que hasta los materiales de cada juego tuvieran coeficientes de absorción y de refracción, montarte en un coche con un NPC y tener que subir la ventanilla para que no se escuche nada de lo que dices, ponerte en un cañón de RDR y gritar y que desde el otro lado otra persona escuche el grito.

El sonido posicional en los juegos, cuando hablas, es horrible, necesita un cambio radical ya, y más si vamos a tener una revolución de interacción con NPCs con los que podremos hablar como si fuesen personas reales.

Por otra parte, la IA traerá el realismo mediante filtros durante esta década, ya hemos visto herramientas reales DeepFaceLive que están al alcance de cualquiera que tenga una RTX.




Lobeznoviejo1982 escribió:Globalmente hablando, aunque solo fuese 1 entre 100 (por la calle, en tiendas, transportes publicos etc), ¿donde veis a personas manejar dispositivos holograficos?, ¿donde veis coches sin conductor?, ¿donde veis (fuera de japon), robots o androides serios (bipedos, estilizados y con pies, no con ruedas)?...

Yo no creo que hayan muchos dispositivos holográficos, a no ser que uses gafas de realidad aumentada/mixta, y precisamente no cuestan poco, además que es una tecnología aún bastante verde, muchísimo más que la VR que ya de por si es cara pero que ha mejorado mucho la tecnología y sus precios, aunque es cierto que cada vez está más presente y en parte el futuro de los videojuegos pasa por ahí, en un futuro la realidad mixta será un boom por el componente social, podrás jugar con amigos en la calle, en la escuela, entre otras muchas cosas como usar un ordenador a través de las gafas sin necesidad de llevar un muerto encima con pantalla, ir andando por la calle y ver proyectado en el suelo un avatar de un perrito que le habla a tu hijo.

Yo no creo que veas muchos robots en muchos sitios, hace dos días Elon Musk presentó un robot bípedo humano que ni andaba, prometió que andaría, no es algo que aún se haya cumplido, no existen esos robots bípedos estilizados que yo sepa.

Además, el tema de los robots es delicado, mucho más que el enfoque que se le da a la IA en este hilo, los robots son físicos y pueden hacer daño físico, ya sea porque se cruzan en una carretera, o porque le puede caer el bicho de metal encima de un crio, que repito, no existen los robots humanoides autónomos y estilizados, que anden sin ayuda y lo hagan de forma fluida; los que hay no tienen mucha utilidad, además que los robots humanoides no son útiles, para eso desarrollamos robots con formas precisas para desarrollar tareas concretas que no requieren de aspecto humanoide.
¿Necesitas un robot con forma humana que conduzca un coche cuando lo puede hacer una IA perfectamente sin necesidad de un piloto humanoide que ocupe espacio y gaste energía? No tienen ningún sentido, pues lo mismo con infinidad de actividades.

Los coches autónomos existen, son una jodida realidad y a día de hoy se están comercializando, te puedes encontrar uno perfectamente, el problema es que empresas como Tesla ofrecen productos que solo son accesibles para personas con alto poder adquisitivo, luego está el tema de recargarlos, de que no hay suficiente infraestructura en muchos países, lo cual no los convierte en una opción agradable para muchos usuarios, pero son el futuro porque reducirán al mínimo los accidentes de tráfico, incluso reducirán la delincuencia porque nadie se podrá dar a la fuga, por lo menos no con un coche.

Luego hay empresas como comma, el propietario de esa empresa es el que hackeó la PS3 y los primeros iphones, pues este tío ha creado un dispositivo que permite que la gran mayoría de coches puedan funcionar con autopiloto, es un paso a que el autopiloto deje de ser algo único de los teslas, que muchas otras marcas pasen a implementarlo, hoy en día puedes comprar su dispositivo e instalarlo en tu coche sin necesidad de tener que pasar por comprar un tesla eléctrico.


Aunque un problema que veo en los autopilotos es la infraestructura, los países deberían de acordar señalizar las carreteras, autopistas y autovías con sensores para garantizar aún más la seguridad de esos autopilotos, vamos, lo que viene a ser el concepto de carreteras inteligentes. Pero a nuestros políticos no les interesa salvar vidas, porque si les interesase eso todo este tema estaría sobre la mesa y el autopiloto sería un plan de futuro para ellos, y debería de serlo si tanto le importa la vida de las personas.

Pero bueno, hablando de IAs y autopilotos, se puede usar una IA para entrenar una simulación con diferentes tipos de conducción, un borracho conduciendo, un conductor novato, un piloto profesional, alguien que conduce bien. Así luego dentro del juego podrías introducir más de una simulación, por lo que a la hora de ver como conduce la gente se sentiría mucho más real, mucho más diferente, como que no todos conducen igual.

Sin embargo, ya hay empresas que están usando IAs para crear carteles publicitarios e incluso anuncios, toda esa tecnología ya está en manos de las personas y está siendo usada por gente a pie de calle, y eso que son los primeros modelos entrenados, cada vez los modelos se mejoran más a cada año que pasa, ya que se siguen entrenando y se sacan mejores versiones.

O por ejemplo CD PROJEKT con las IA que usaron para las animaciones faciales, cada vez más empresas van a usar sus IAs para desarrollar juegos, el siguiente paso a este es usar IAs para que manipulen los juegos, y el último paso será tener juegos procedurales, ya no habrán casi estudios de desarrollo porque los juegos serán a medida, las personas jugarán a lo que ellos quieran, le pedirán a la IA a que quieren jugar más o menos, estilo de juego y el juego se generará de forma procedural en tiempo real, cuando eso suceda es muy probable que los estudios de desarrollo como tal dejen de tener sentido alguno, pues cualquiera podrá tener el juego que quiera a medida al momento, obviamente esos juegos se podrán compartir con otras personas.

Lobeznoviejo1982 escribió:Volviendo al tema en si, puede que la moda reciente de las IA, de visibilidad a la tecnologia y pueda extenderse a los videojuegos, pero llegado ese caso, habria que preguntarse que limites estariamos dispuestos a cruzar.

Esto no es una moda, es una revolución tecnológica que empezó hace poco y que antes era inimaginable, una revolución que va a transformar la sociedad tal y como la conocemos de aquí a diez años, lo mismo que las telecomunicaciones han hecho lo mismo con las sociedades actuales.

¿Es la revolución tecnológica de las telecomunicaciones una moda? ¿Que puedas videollamar a un familiar que vive en otro país es una moda? Una moda igual es un reto de instagram que se vuelve viral o de tik tok, quizás una red social muy activa, pero no creo que lo sea una tecnología en si como lo es la IA en su conjunto o las telecomunicaciones.

Lobeznoviejo1982 escribió:Ya sea que nos lo tomemos con humor como la pelicula Free Guy o que nos pongamos intensos xD y nos vayamos a Westworld, una IA sin restricciones, no solo que fuese muy buena, sino que pudiese aprender, mejorar y evolucionar, podria acercanos terriblemente a Npcs conscientes, y eso, para bien y para mal, treaeria consecuencias impensables.

Una IA muy buena no es compatible con un juego porque frustraría a los jugadores, se puede usar una IA muy buena para probar a los mejores, y seguramente ganaría la IA porque está más que demostrado que todo lo tecnológico es más preciso que un humano, puede que al principio no lo sea pero lo termina siendo al final, por eso en las fábricas donde antes trabajaban 300 personas o más ahora solo trabajan diez, cuando estas personas se han podido sustituir por máquinas mucho más precisas y eficientes se ha hecho el cambio, en un juego donde lo que importa es el entretenimiento de la persona, del humano, no interesa eso, interesa que haya humanidad, margen de error alto en la mayoría de las situaciones, como mucho ensayo error como en los souls, no interesa una IA superinteligente que te venga a cada partida con una estrategia completamente diferente.

Sobre el tema de la consciencia, siempre que sea algo social, tendremos NPC's conscientes, de hecho hay juegos existentes que los tienen hasta cierto punto, RDR2 por ejemplo, donde los NPCs recuerdan si has hecho algo, aunque es todo hardcoded y muy limitado, en pocos años cualquier juego de mundo abierto podrá tener eso sin matarse a programar, cada NPC será un ente independiente que analizará y reaccionará al entorno de forma diferente que los otros, como lo haría un individuo.

De todas formas se puede limitar el entrenamiento y poner barreras, se puede hacer que cuando le pregunten cosas raras a un NPC te envíen a la mierda o incluso te maten.

Por ejemplo, si en RDR2 vas a los NPC's y les hablas de que vienes del futuro, que existen los coches y todas esas historias, es muy probable que termines colgado de una soga en un pueblo, igual eso sería más medieval, me refiero a que te cuelguen por decir esas cosas, colgar si colgaban, o que la gente del pueblo no quiera hablar contigo si te comportas de esa forma, por lo que perderías igual posible interacción para resolver cosas, ya que obviamente no encaja en el contexto histórico y sonaría a loco, el mismo juego te forzaría a adaptarte a el momento histórico, se pueden hacer cosas muy chulas realmente.

Y obviamente habrán glitches conversacionales y cosas muy locas dentro de esas IAs, formas de hacerlas reaccionar con palabras clave, pues como cualquier juego seguro que tendrán sus errores y que no serán perfectas, por lo menos no las primeras.

En este hilo hice un ejemplo real de IA conversacional con RDR2 para darle personalidad a cada NPCs del mundo, para que tengan todos profundidad, cosa que no tienen en el juego, son aburridos y sosos.

Obviamente la IA no es perfecta, es una IA gratuita, seguro que las hay mejores.
El hilo donde se explica: hilo_red-dead-redemption-2-mods-redm-openiv-4-0-1_2401145_s50#p1752854374



En ese hilo puedes ver que yo le doy un contexto a la IA, creo una historia para el personaje que quiero y si yo le pregunto algo al personaje este me responde en función a ese contexto sobre su vida, no es perfecta pero es bastante alucinante el hecho de pensar que podríamos tener ya algo así en un videojuego si las desarrolladoras quisieran meterse manos a la obra cuando yo mismo lo he podido hacer desde mi casa.

Además que yo he creado ese contexto, podría existir una IA que cree contextos, entrenar una IA con todo el lore de RDR2 y darle contextos a cada NPC de forma automática, e incluso modificar esos contextos en función de lo que ocurra en el juego, si disparar en la pierna a un NPC en las líneas del contexto igual se añade "Un hombre con una bandana me disparó en la pierna", lo mismo le pica una serpiente, y entonces va diciendo que le ha picado una serpiente, esa frase activa el buscar ayuda en otros NPCs o medicina.

Una frase puede desencadenar una animación perfectamente, o un estado de ánimo en el NPC, por ejemplo, insultar a un NPC puede poner en estado de alerta al NPC, o incluso volverlo agresivo, igual le puede hacer llorar.

Imagina que es un NPC que tiene un contexto triste, de persona débil y descubres que le ha pasado, te ríes de lo que le ha pasado, pues igual eso le pone triste y a otro le enfada.

Luego está el tema de la memoria, el hecho de que se puedan generar diferentes contextos, podría haber un contexto para la memoria: "Hoy he visto un hombre con una camiseta azul, pelo largo cruzar por la calle tal y pascual". He NPC podría registrar en su contexto varias líneas sobre gente que se cruza ese día en su vida rutinaria, y que esté programado con una aleatoriedad que ese recuerdo se borrará pasados tres días, dependiendo de muchos factores más, porque una animación de hacer algo pues igual genera más memoria que otra, no es lo mismo que ir por la calle andando y ver una persona muy alta, que una persona normal, te fijas más en la muy alta, o una persona peleando con otra en el suelo que una persona que pasa de largo, hay cosas en las que te fijas más, pues eso también se podría tener en consideración, encadenar según que animaciones con valores de permanencia de recuerdos.

Luego puedes acercarte a un NPC y preguntarle ¿Has visto a una persona alta con una camiseta azul? Pues si, ayer vi una persona muy alta por la calle tal.

Se pueden hacer cosas muy chulas.
@katatsumuri

La tecnologia holografica no esta verde en absoluto, solo que no interesa, en un programa de American Idol de ¡¡2007!!, Celine Dion canto a duo al lado de un holograma de Elvis Presley y es increible.

https://m.youtube.com/watch?v=ZWgLJ0mQyWU

En 2012, cuando el fallecido rapero Tupac Shakur, subió al escenario con Snoop Dogg en el festival de música Coachella.

En la gala de los Billboard Music Awards del 2014, un holograma de Michael Jackson bailó en el escenario el tema Slave to the Rhythm.

En 2015, Neill Blomkamp y Hugh Jackman ofrecieron una conferencia de prensa holográfica -para promocionar el film Chappie- en Madrid, pero físicamente estaban transmitiendo desde Berlín.

En cuanto a lo de los robots bipedos estilizados, tambien existen desde hace mas de una decada, son obra del gran experto en robotica Hiroshi Ishiguro, y son estilizados, totalmente humanos, con pelo y piel.

Creo que ninguno puede andar, pero hubo un gran avance con la robot HRP-4C en 2011 que andaba, bailaba etc.

https://www.google.com/amp/s/www.xataka ... humana/amp

https://m.youtube.com/watch?v=xcZJqiUrbnI

Aparte de ella y el conocido Asimo, creo que el unico robot estilizado, con pies y que ande, es la absurda Sophia, pero como todo en ella es el fraude mas ridiculo que existe, pues mira, que pueda andar, me es irrelevante.

Ponla dentro de una jaula de Faraday para que no puedan hablar por ella a distancia y seguro que no sabe decir ni hola xD.

Si el exterior super realista de los androides de Ishiguro se combinara con la maniobralidad y agilidad de los robots de Darpa como por ejemplo Atlas, ya tendriamos androides perfectos tipo Terminator o Blade Runner.


Para terminar, vuelvo a matizar antes de que me aplastes con datos, que yo digo que estas tecnologias no son una realidad "palpable", porque aunque el mundo es inmenso y podemos ofrecer datos de muchisimas de ellas en la practica, a dia de hoy, fuera de japon, no puedes salir a la calle y ver hologramas, robots, coches "voladores" (levitacion magnetica), etc.

Todo lo que lleva prometiendo la ciencia ficcion desde hace decadas (a gran escala y ya estandarizado en nuestra vida diaria), se queda en proyectos y punto, si Marty Mcfly viniera al 2022, se moriria de asco, excepto tablets y ipads, no veria ni un atisbo de revolucion tecnologica por las calles.


Mis disculpas por el offtopic, esto era un hilo sobre IA, no sobre tecnologías en general, pero ya que lo mencione, quería contestar como es debido.
Lobeznoviejo1982 escribió:@katatsumuri

La tecnologia holografica no esta verde en absoluto, solo que no interesa, en un programa de American Idol de ¡¡2007!!, Celine Dion canto a duo al lado de un holograma de Elvis Presley y es increible.

https://m.youtube.com/watch?v=ZWgLJ0mQyWU

En 2012, cuando el fallecido rapero Tupac Shakur, subió al escenario con Snoop Dogg en el festival de música Coachella.

En la gala de los Billboard Music Awards del 2014, un holograma de Michael Jackson bailó en el escenario el tema Slave to the Rhythm.

En 2015, Neill Blomkamp y Hugh Jackman ofrecieron una conferencia de prensa holográfica -para promocionar el film Chappie- en Madrid, pero físicamente estaban transmitiendo desde Berlín.


Ahora que recuerdo yo mismo hice la técnica del pepper ghost hace unos años, es la misma que se suele emplear en los ejemplos que has puesto, por ejemplo lo que hicieron con Tupac, aunque realmente no es un holograma en si, es una técnica de ilusionismo.


Lobeznoviejo1982 escribió:En cuanto a lo de los robots bipedos estilizados, tambien existen desde hace mas de una decada, son obra del gran experto en robotica Hiroshi Ishiguro, y son estilizados, totalmente humanos, con pelo y piel.

Creo que ninguno puede andar, pero hubo un gran avance con la robot HRP-4C en 2011 que andaba, bailaba etc.

https://www.google.com/amp/s/www.xataka ... humana/amp

https://m.youtube.com/watch?v=xcZJqiUrbnI

Aparte de ella y el conocido Asimo, creo que el unico robot estilizado, con pies y que ande, es la absurda Sophia, pero como todo en ella es el fraude mas ridiculo que existe, pues mira, que pueda andar, me es irrelevante.

Asimo si lo conozco, pero es muy antiguo ya, me refiero a que no hay robots bípedos con el movimiento de un humano y que sean autónomos, que otro tema es el problema de las baterías ¿Cuánto duraría un bicho de estos en la calle? Aunque podrían haber centros de carga y cargarse ellos mismos.

Está ameca que tiene unas expresiones faciales increíbles y mueve bastante bien el torso, pero no puede caminar, el problema es el caminar, con estilizado pensaba que te referías a la forma de andar.


También puedes hablar con ella, tiene una IA conversacional que no está mal pero está aún lejos de parecer humana.

Lobeznoviejo1982 escribió:Si el exterior super realista de los androides de Ishiguro se combinara con la maniobralidad y agilidad de los robots de Darpa como por ejemplo Atlas, ya tendriamos androides perfectos tipo Terminator o Blade Runner.

Darpa hace cosas muy chulas, los Atlas tienen movimientos muy naturales pero no son humanos estilizados, el torso no lo tienen hecho adaptado al cuerpo de un humano por el tema de las caídas, además de la cadera, pero se ha avanzado mucho en ese aspecto, aunque es muy jodido un robot, supongo que necesitará mucho mantenimiento, el caerse puede que te cueste un riñón y puede que si se te cae encima te haga daño, imagínate bichos de esos por la calle.

Creo que entre que son peligrosos por lo que pesan y delicados, además de caros de producir, no se lo puede permitir cualquiera por el momento, por eso no son populares, el día que se produzcan en serie cambiará un poco la cosa.

De todas formas yo creo que no estamos tan lejos de ver robots de estos cuando la IA esté lo suficientemente avanzada como para que puedan circular públicamente por la calle sin generar inconvenientes, actualmente no tienen la inteligencia suficiente como para hacerlo, y si la tienen está en manos privadas.

Por ejemplo, los robots aspiradores si que son bastante populares y a más de una abuela no le iría mal un cuadrúpedo que le lleve las bolsas de la compra a casa.

Repito que creo que cada vez estamos más cerca de ver a estos bichos gracias a la IA que los hará autónomos.

Lobeznoviejo1982 escribió:Para terminar, vuelvo a matizar antes de que me aplastes con datos, que yo digo que estas tecnologias no son una realidad "palpable", porque aunque el mundo es inmenso y podemos ofrecer datos de muchisimas de ellas en la practica, a dia de hoy, fuera de japon, no puedes salir a la calle y ver hologramas, robots, coches "voladores" (levitacion magnetica), etc.

A ver, hologramas los ves, los tienes en la tarjeta visa, en los billetes, etc... aunque entiendo lo que quieres decir.

Lo de los coches voladores es una fumada de los que han hecho scfi, aunque existiesen serían poco seguros y peligrosísimos, tanto para el que conduce como para el que está abajo, un vehículo volador requiere de mucho mantenimiento y supervisión.

Los que he visto imitan a los drones, vamos, que tiene hélices, no me acerco a eso ni que me paguen, aún menos subirme.

Lo de los campos magnéticos siempre me ha llamado la atención, siempre he pensado que podrían crearse infraestructuras magnéticas para reducir el gasto energético y reducirlo simplemente a cambiar de pista el dispositivo de transporte.



Lobeznoviejo1982 escribió:Todo lo que lleva prometiendo la ciencia ficcion desde hace decadas (a gran escala y ya estandarizado en nuestra vida diaria), se queda en proyectos y punto, si Marty Mcfly viniera al 2022, se moriria de asco, excepto tablets y ipads, no veria ni un atisbo de revolucion tecnologica por las calles.

La ciencia ficción es ficción como su nombre indica, no promete nada ni tiene porque asemejarse a la realidad, aunque yo siempre he pensado que todo lo que uno pueda imaginar, en cierta forma, lo puede hacer real, aunque igual la forma de hacerlo real no es exactamente parecida a la del sueño, por ejemplo, soñar con dragones, pues se han hecho películas sobre ellos, incluso puedes jugar skyrim en vr, pero no tenemos un dragón real por las calles.

Yo creo que el humano imagina e intenta crear lo que imagina, a veces pues lo expresa a través del 3D, el cine o la literatura si no puede lograrlo a través de otro medios, pero no es más que una imaginación, el futuro no tiene porque ser de esa forma.



Yo creo que vamos a vivir una revolución en muchos aspectos con la IA, va a transformar a la sociedad en muchos aspectos, y evidentemente revolucionará los videojuegos. Es algo que ya existe y que está entre la gente, el coste alto es su entrenamiento donde se necesita invertir mucho tiempo y dinero en recursos, pero los modelos entrenados ya se están liberando a la gente para que los utilicen públicamente, es algo que está al alcance de cualquiera.


La IA no es algo único que cumple una única función, con la IA se pueden crear diferentes modelos de IA, cada uno dedicado a una tarea completamente diferente, incluso se puede crear una IA simplemente dedicada a gestionar diferentes modelos para la implementación de ellos en una plataforma.

Se podría crear una IA que gestionase la política del país y seguramente lo haría mucho mejor que los humanos.
Los gráficos del futuro pasan por NeRF









ZeroEGGS: la red neuronal de voz a gesto de Ubisoft

El marco solo requiere un breve clip de movimiento de ejemplo y un mensaje de voz para generar una animación creíble.

Parece que con el continuo auge de la IA, cada vez más desarrolladores de juegos AAA están comenzando a utilizar redes neuronales e inteligencia artificial en sus flujos de trabajo, buscando formas de llevar la credibilidad de sus juegos a un nivel completamente nuevo. Recientemente, un equipo de investigadores de Ubisoft La Forge presentó una nueva red neuronal capaz de generar animaciones de gestos increíbles.

Titulado ZeroEGGS, el marco solo requiere un mensaje de voz y un breve clip de movimiento de ejemplo para generar gestos de personajes de cuerpo completo realistas. Según el equipo, la red supera las técnicas de vanguardia anteriores en la "naturalidad del movimiento, la idoneidad del habla y la representación del estilo".

"Nuestro modelo utiliza un marco variacional para aprender una incrustación de estilo, lo que facilita la modificación del estilo a través de la manipulación del espacio latente o la combinación y escala de las incrustaciones de estilo", comenta el equipo . "La naturaleza probabilística de nuestro marco permite además la generación de una variedad de salidas con la misma entrada, abordando la naturaleza estocástica del movimiento de gestos".

Rokoko Video de vídeo a ANIMACIÓN
Una nueva IA gratuita que sirve para capturar movimiento y que funciona en el navegador, extrae datos de la imagen de un vídeo y lo aplica en un personaje 3D.


UBERDUCK LO CAMBIA TODO
La IA de clonación de voz y transcripción de texto a audio ya contiene la voz de varios personajes de videojuegos, en este caso aparece Arthur Morgan quejándose del estado de Red Dead Online, pero también es posible crear canciones totalmente inventadas de cero con voces de cantantes, incluso cantantes póstumos.


Obviamente la IA aún no es perfecta, pero como podéis observar interpreta muy bien las expresiones de Arthur Morgan, su acento al hablar es casi el mismo, lo cual no quiere decir que sea perfecta y que no de errores en según que cosas tenga que pronunciar, la IA aún tiene mucho que mejorar.


Este tipo de IA ayudaría a eliminar las cajas de diálogo tan típicas de los juegos RPG, los NPCs tendrían frases ilimitadas y dinámicas, incluso cambiarían con el tiempo en función de los acontecimientos del mundo, pues estos solo tendrían un contexto que sería un texto que limita su historia y ese contexto podría ser modificado en función de los acontecimientos que vivan, por poner un ejemplo, si hay una pareja de NPCs, hombre y mujer, y matan a la mujer, el contexto del hombre sería modificado añadiendo varias líneas explicando que su mujer ha muerto, cuando, las circunstancias en las que murió, como le ha afectado, incluso ese estado podría asociarse a animaciones y rutinas como tristeza, o empezar a beber alcohol.


Los NPCs también podrían morir, puesto que serían sustituidos por otros, actualmente muchos juegos como los de Rockstar no los eliminan por el tema del doblaje, no tienen como sustituirlos al contar con un nombre limitado de voces y frases, además de entre otras cosas. Los PNJ solo tienen cuatro frases contadas, ahora tendrían una historia propia modificable, serían casi como personas reales con las que podemos interactuar usando nuestra voz, preguntarles como se llega a tal pueblo, donde está tal lugar, como encontrar a esa persona o calle, y ellos podrían ayudarlos e incluso no.

Como los NPCs pueden morir y ser sustituidos por otros se podrían introducir variables de mortalidad, como que les de un infarto o que mueran por enfermedad, y si todos los NPCs de un pueblo viesen eso hablarían luego sobre el tema, pues se registraría el evento de "infarto" y se añadiría a sus contextos.

"Pepito ha muerto de infarto en medio de la plaza esta tarde mientras iba a comprar"

Una pasada realmente, puesto que esto podría llegar a sustituir los primitivos mini mapas haciéndonos viajar por estos mundo abiertos usando la interacción social que usamos en el mundo real, que no es más que establecer relaciones sociales preguntado a otras personas para indagar en los asuntos en los que andamos resolviendo.


Esta IA junto a CHAT GPT son el santo grial de los juegos, por lo menos de los de mundo abierto, puesto que daríamos un salto bastante grande en cuanto a inteligencia artificial, sentiríamos que los PNJ de los mundos abiertos no son meros seres vacíos merodeando por esos mundos, sentiríamos que tienen historias, sentimientos, cosas que aportarnos, su percepción del mundo cambiaría con el tiempo y con los acontecimientos, algo que sin duda incrementaría esa sensación de mundo inteligente que hemos estado esperando tantos años al ver que solo avanzaban los gráficos.


Por otra parte ya hemos hablado de este tipo de IAs con Descript, lo cual es bueno que aparezca competencia de modelos, esto significa que cada vez habrán modelos más baratos y públicos, accesibles a cualquiera.

MUCHO CUIDADO
Por otra parte en el mundo real esto podría ser usado por delincuentes para falsear nuestras voces previamente entrenadas, van a necesitar de un registro extenso de la voz de la persona para crear un clon, pues ese clon podría hacerse pasar por nosotros, podría ser nuestra madre pidiéndonos el número de la cuenta del banco desesperadamente o cualquier cosa.

Actualmente sintetizar el texto a voz toma un tiempo, unos segundos, por lo que en cierta forma podríamos aprovechar ese delay para detectar si es una voz falsa, pero por otra parte con el tiempo la latencia será mucho menor e incluso se podrá generar voz en tiempo real desde una misma voz, a la vez que hablas con tu voz se oirá otra voz en tiempo real, lo cual ya no nos permitirá esa diferenciación tan fácil entre real y sintético.

Lo mejor en este caso sería evitar exponernos en redes sociales hablando para que los delincuentes no tengan datos suficientes como para clonar nuestra voz.


De todas formas esto marcará un antes y un después en las suplantaciones de identidad, como hacernos cometer delitos que no hemos cometido, insultar y amenazar a alguien en redes sociales sin haber sido nosotros, extorsionar a alguien, decir cosas inventadas para que piensen que has sido tú quien las ha dicho, etc... De hecho es difícil que escapemos a esto, muchas empresas como amazon graban nuestras voces y las registran para mejorar la atención al cliente, ahora no sabemos si hay una regulación legal con nuestros registros de voz en relación a este tema, pues nuestros modelos de voz podrían ser puestos a la venta, tanto para delincuentes como para una empresa que quiera hacer un videojuego.

El futuro de esta tecnología, además de ser alucinante, es también perturbador.
Chatgpt me dejo sin palabras el otro día, es espectacular.

Otra que me flipa también es get3d de nvidia, para hacer modelos 3D. Esa o similares creo que va a ser importantes también en el desarrollo de videojuegos, me lo imagino integrado en un motor gráfico y se me hace la boca agua.

Imagina, "pared de ladrillos verdes" y zasca la tienes, "oveja alada" y te saca una oveja angelical.

Ojalá! Me iba a marcar unos juegos muy majos. Ahora el tema del 3D... buuuuff se come las horas cuando quieres hacer algo solo.
Ernestorrija escribió:Chatgpt me dejo sin palabras el otro día, es espectacular.

Otra que me flipa también es get3d de nvidia, para hacer modelos 3D. Esa o similares creo que va a ser importantes también en el desarrollo de videojuegos, me lo imagino integrado en un motor gráfico y se me hace la boca agua.

Imagina, "pared de ladrillos verdes" y zasca la tienes, "oveja alada" y te saca una oveja angelical.

Ojalá! Me iba a marcar unos juegos muy majos. Ahora el tema del 3D... buuuuff se come las horas cuando quieres hacer algo solo.

Se abaratará mucho el coste de desarrollo de un juego con el tiempo, como ha pasado con la música que hoy en día cualquiera puede grabar un disco en casa incluso sin saber cantar, es más, ahora mismo podrías sacar un nuevo disco de Michael Jackson en menos de tres horas con su voz y letras totalmente nuevas.

Chatgpt te escribe la letra y uberduck la interpreta, cuando antes hacer un disco era un proceso de incluso años, que si la producción, que si la letra, que si la grabación, que si el mastering, que si los derechos, era un proceso creativo muy largo, hoy en día eso ya ha desaparecido, se ha saltado esa barrera.

Incluso con un teléfono medio podrías filmar una película.


Ya lo he dicho muchas veces y lo sigo diciendo, el futuro de los videojuegos es procedural, llegará un punto en que ya no existirán empresas de videojuegos, ni las más grandes, y no estamos tan lejos. Nosotros pediremos a la IA que juego queremos y como lo queremos, ambientación, mecánicas, etc... tendremos juegos a la carta, no tendremos que esperar 3 o 4 años a que nuestra desarrolladora favorita haga el juego que esperamos y a su manera, jugaremos a lo que nosotros queramos, a lo que nosotros deseemos y al momento, no habrá una limitación creativa marcada por los procesos por los cuales tienen que pasar hoy en día los juegos que requieren de una organización increíble y de incluso personas con mucho talento, como podría ser un programador de físicas para crear las físicas concretas de x elemento del juego, todo eso para que muchas veces un juego AAA como Cyberpunk 2077 salga roto o con muchas carencias.
Esto ya es antiguo pero este twittero es interesante, subió fotos de reinterpretaciones de personajes de videojuegos a la vida real, algo que dibuja como podrían verse las remasterizaciones en un futuro.



Obviamente hay que dar con la tecla, este kratos no me gusta mucho


Este me parece mejor
Imagen


Incluso sería posible hacer adaptaciones cinematográficas parecidas a los personajes de los juegos sin tener que recurrir a la imagen de un actor real, solo a su interpretación.







StyleCLIP. https://github.com/orpatashnik/StyleCLIP
Más generación procedural de entornos, no estamos tan lejos del futuro





Entornos con NeRF




MOVEAI capturar movimiento nunca había sido tan fácil y barato




TEXT-TO-VIDEO (texto a vídeo)
Ya estamos llegando casi al objetivo, texto a vídeo podría simbolizar la muerte de los motores gráficos tal y como los conocemos a cambio de generar imágenes procedurales en tiempo real.

https://modelscope.cn/models/damo/text- ... is/summary


ImagenImagenImagenImagenImagenImagenImagenImagenImagen
Chat GPT ha sido implementado en skyrim mediante un mod, esto no ha hecho más que empezar, la IA en los juegos va a dar el vuelco que no ha dado en todos estos años

katatsumuri escribió:Chat GPT ha sido implementado en skyrim mediante un mod, esto no ha hecho más que empezar, la IA en los juegos va a dar el vuelco que no ha dado en todos estos años


Justamente estábamos comentando esto en el hilo de Skyrim en el subforo de PC

Otro modder de nombre bloc, se creo su propio sistema pasando de chatgpt (inworld Ai), su sistema propio no tiene límites y puedes hacer prácticamente lo que se te ocurra, pasando de lo políticamente correcto



La IA le da una personalidad a cada npc, pueden hablar con nosotros en tiempo real manteniendo conversaciones orgánicas, recuerdan sus interacciones con nosotros, la IA interpreta al personaje y este reacciona a las cosas que hagamos, si somos agresivos con ellos, si somos unos cabrones o personas buenas, son capaces de llamarnos por nuestro nombre y son conscientes del mundo y los sucesos que ocurren en el, si somos unos Monstruos lo recordarán y se cagaran en los pantalones cuando estemos cerca de ellos y vamos, que con esto las posibilidades son directamente infinitas

El mismo modder ya venía trabajando en mount and blade 2 y aquí lleva un trabajo mucho más avanzado, a partir del minuto 9:40



Está será la próxima gran revolución de los videojuegos posterior al 3D, en cuanto se empiece a implementar, todos los RPGs de los últimos 30 años van a quedar automáticamente obsoletos
¿ADIÓS A LOS MOTORES GRÁFICOS CONVENCIONALES PARA SIEMPRE?
Es algo que me he estado planteando ¿Quedarán los motores gráficos para videojuegos obsoletos con la IA? Cuando el mercado se mueva a lo procedural generativo en tiempo real yo creo que si. Miremos el caso de GEN-2, una IA generativa de vídeo con un input de texto, ahora imaginad que estos vídeos sean en tiempo real y que en vez de escribir texto agarramos un mando y es el propio mando el que hace de input generando prompts, entrenado concretamente para frenar, acelerar, girar, etc... Un motor gráfico ya no tendría casi sentido.




Recordemos que también está NeRF, por lo que en vez de simplemente un vídeo podría generarse también un entorno tridimensional real donde los objetos tengan sus posiciones reales.

ASÍ SERÍAN APROXIMADAMENTE LOS GRÁFICOS DE GTA VI CON IA
Imagen

Blockade Labs: Sketch-to-Skybox


TEXTURIZADO CON NeRF
Textura NeRF de Yihua Huang et al. La posibilidad de una tubería de edición 3D basada en NeRF continúa expandiéndose con este modelo que permite el muestreo de escenas para reasignar materiales/detalles volumétricos a formas existentes.

Paper: https://yihua7.github.io/NeRF-Texture-web/


NVIDIA ACE: HOY EN LA COMPUTEX EL PRESIDENTE DE NVIDIA HA PRESENTADO UN MOTOR GENERADOR DE AVATARES CLOUD CONVERSACIONAL PARA VIDEOJUEGOS

Charla completa https://youtu.be/QSWzSRnGEFo

Reconocimiento de voz
Texto a voz
Entendimiento natural del lenguaje
Usar la voz para animar la cara, tanto la tuya como la del personaje, y hacer gestos
Posibilidad para customizar modelos, porque cada juego tiene una historia diferente
VíctorXD está baneado por "clon de usuario baneado"
Menudo spam de hilo.

Los juegos siguen una dirección artística, tener conversación y filosofícas con un NPC no le veo el sentido.

En temas técnicos/gráficos la IA si tendrá bastante lugar en los juegos, ya lo tiene en temas de reescalados, pero animaciones , texturas y assets , también serán aspectos interesantes de ver.
VíctorXD escribió:Menudo spam de hilo.

Los juegos siguen una dirección artística, tener conversación y filosofícas con un NPC no le veo el sentido.

En temas técnicos/gráficos la IA si tendrá bastante lugar en los juegos, ya lo tiene en temas de reescalados, pero animaciones , texturas y assets , también serán aspectos interesantes de ver.


Pues yo he podido hacer charlas con unos cuantos modelos de lenguaje estos meses, y sí le veo el potencial a nivel de interacciones con personajes.

Y puede hacerse de todo, claro...

el uso al que todo el mundo le viene a la cabeza es 'cuentame sobre <esto>' y que el personaje se tire el rollo en chatgpt xD pero obviamente eso va a ser lo que NO se va a querer hacer. El que quiera charlar y filosofar con cualquier personaje se puede ir a hacerlo gratis a https://beta.character.ai/ que uno se puede hacer hasta un personaje de un colega, su novia o su antepasado, y charlar con él en castellano de coñas o de la vida. Gratis y sin entrar en un videojuego.

Por posibilidades, las que de la imaginación. Se podrian hacer misiones procedurales que incluyan personajes interactuables igualmente procedurales, y que estén limitados bajo una serie (ahí sí, limitada por los creadores) de fichas que los restrinjan a una serie de objetivos. Obviamente el modelo de lenguaje usado, cambiará la manera en que los personajes lo digan.

A nivel mas limitado, un mismo personaje te podría saludar de muchas maneras, sintiéndose más fresco y sin que una personaje esté ahí detrás creando 'tanto'.

La idea es que todo esto no deja de ser una herramienta nueva para meter más con menos, y algo más de ambiente también, gracias a todo el tema del entrenamiento previo que se ha hecho con todo esto. Potencial hay y mucho.
Ekir escribió:
VíctorXD escribió:Por posibilidades, las que de la imaginación. Se podrian hacer misiones procedurales que incluyan personajes interactuables igualmente procedurales, y que estén limitados bajo una serie (ahí sí, limitada por los creadores) de fichas que los restrinjan a una serie de objetivos. Obviamente el modelo de lenguaje usado, cambiará la manera en que los personajes lo digan.

A nivel mas limitado, un mismo personaje te podría saludar de muchas maneras, sintiéndose más fresco y sin que una personaje esté ahí detrás creando 'tanto'.

La idea es que todo esto no deja de ser una herramienta nueva para meter más con menos, y algo más de ambiente también, gracias a todo el tema del entrenamiento previo que se ha hecho con todo esto. Potencial hay y mucho.

Tampoco creas que eso no se hará, la gente incluso se divertirá con la IA intentando trolearla, imagínate en un juego intentando convencer a un NPC de que es un NPC, obviamente que todo eso debería de estar programado en el modelo, que cualquier salida de esas se te tache de loco, por ejemplo, que no te dejen entrar en una tienda, o que dejen de responderte y digan "ese está loco".

Otra cosa interesante es por ejemplo llevarlo al extremo, de decirle a un NPC que su mujer le está engañado con otro y hacer que esos dos se peleen y que al final se terminen dando cuenta que todo era mentira.

En 20 años la voz será una forma de interacción increíble en los juegos por el simple hecho de que es una herramienta indispensable en la vida real con la que ejecutamos cientos de acciones, mientras que un mando tienen una limitación de botones y aunque tuviera miles no nos daría para aprendérnoslos todos de la forma en la que si podemos articular el lenguaje para conseguir ejecutar acciones o conseguir objetivos.

Un simple datos, silbar a un perro para que venga, llamar a alguien por su nombre para captar su atención, etc... todo eso se puede lograr con un mando, pero limitado y vas a tener que sacrificar acciones siempre, con el lenguaje eso no ocurre, se abre una enorme ventana a la interacción.



@VíctorXD el hilo contiene contenido bastante interesante, yo no tengo la culpa que poca gente lo comente, pues considero que hay bastantes cosas interesantes, viste como alucinó la gente con ese juego realista, pero nunca casi nadie pasa por el hilo de unreal engine donde hacía tiempo que existían vídeos así, o por el vídeo que hice sobre fotogrametría.

Sobre la libertad del lenguaje, está en el jugador decidir lo que quiera hacer, si quieres tener una charla filosófica pues ya es cosa del jugador. Es casi imposible que por diseño artístico todos los NPCs de un mundo puedan tener la profundidad determinada creada por humanos, pues sería un trabajazo colosal, en ese caso una IA puede crear grandes trasfondos narrativos, basados incluso hasta en cine y literatura, adaptados a la temática del juego, sin mucha más complicación.

El futuro es procedural, un juego hecho en tiempo real, a la carta "quiero esto, así y así" y generado por una IA en tiempo real, el arte está en todo lo aprendido de otros humanos, la IA crea cosas en función de lo que han creado otros humanos, en muchas ocasiones crea cosas totalmente impensables e inimaginables que antes no eran posibles, a mi poco me importa entonces jugar a algo que ha creado una persona en cuanto eso sea posible.

La realidad es que en 20 años es muy probable que la mayoría de empresas que conoces, incluyendo las grandes, desaparezcan totalmente, hablamos de CAPCOM, Rockstar Games, Naughty Dog, etc... Dejarán seguramente de existir si no saben adaptarse a ese modelo de industria, porque cualquiera tendrá juegos de calidad al momento y la gracia estará en lo que crea la propia gente al pedirle algo a una IA, que habrá parte creativa, podrás crear y pedir diseños más o menos exactos, por lo que esas empresas dejarán de tener sentido seguramente ya que diseñar juegos de gran calidad estará al alcance de casi cualquiera, quien moverá el mercado son las empresas que generan esos modelos y los servicios en la nube que almacenan esos mundos enormes y conectan IAs, por lo que si estas empresas no migran su modelo a eso terminarán desapareciendo, como lo han hecho muchas otras.
Este hilo, aunque épico, solo son proyectos, ideas, avances etc, que si, que son increíbles, pero estaría bien que crearas una wiki o algo con los avances que ya existen en juegos de verdad, ps4, ps5 etc, porque sino, es un hilo de "poner los dientes largos" jajaja.

Vale que has puesto ejemplos reales como RDR2, pero es un hilo muy muy denso, con mucho texto y con muchos vídeos y te puedes morir buscando los pocos ejemplos reales que pongas, y de pasada.

Espero no haberte molestado, es solo una idea.

Saludos.
Lobeznoviejo1982 escribió:Este hilo, aunque épico, solo son proyectos, ideas, avances etc, que si, que son increíbles, pero estaría bien que crearas una wiki o algo con los avances que ya existen en juegos de verdad, ps4, ps5 etc, porque sino, es un hilo de "poner los dientes largos" jajaja.

Vale que has puesto ejemplos reales como RDR2, pero es un hilo muy muy denso, con mucho texto y con muchos vídeos y te puedes morir buscando los pocos ejemplos reales que pongas, y de pasada.

Espero no haberte molestado, es solo una idea.

Saludos.

Crear una wiki es un poco locura, cada día salen cosas nuevas a nivel solo de desarrollo como soporte, no creo que existan muchos juegos hechos con IA conocidos salvo cyberpunk por el tema de animaciones faciales, lo que posteo son cosas que salen recientes y que mañana puede que queden totalmente obsoletas por un nuevo modelo, van a salir infinidad de modelos por lo que no tiene mucho sentido hacer una wiki.

La finalidad del hilo es esa, ir poniendo los dientes largos de las posibilidades de lo que va apareciendo en el futuro, repito, a día de hoy muy pocas empresas usan IA con modelos así, no conozco muchos juegos que por ejemplo necesiten estar conectados a internet para ejecutar modelos a través de servidores e inyectar contenido dinámico en el juego.

Por ejemplo, todas esas empresas online deberían de ir ya usando la data de los jugadores, por ejemplo bohemia con dayz, de como juegan estos, para crear modelos de bots de NPCs más realistas adaptados al perfil de los jugadores reales, la de trabajo que se ahorrarán teniendo que programar bots, lo que para ellos era una montaña, que es programar una IA medianamente decente, será una broma.
katatsumuri escribió:Tampoco creas que eso no se hará, la gente incluso se divertirá con la IA intentando trolearla, imagínate en un juego intentando convencer a un NPC de que es un NPC, obviamente que todo eso debería de estar programado en el modelo, que cualquier salida de esas se te tache de loco, por ejemplo, que no te dejen entrar en una tienda, o que dejen de responderte y digan "ese está loco".

Otra cosa interesante es por ejemplo llevarlo al extremo, de decirle a un NPC que su mujer le está engañado con otro y hacer que esos dos se peleen y que al final se terminen dando cuenta que todo era mentira.

En 20 años la voz será una forma de interacción increíble en los juegos por el simple hecho de que es una herramienta indispensable en la vida real con la que ejecutamos cientos de acciones, mientras que un mando tienen una limitación de botones y aunque tuviera miles no nos daría para aprendérnoslos todos de la forma en la que si podemos articular el lenguaje para conseguir ejecutar acciones o conseguir objetivos.

Un simple datos, silbar a un perro para que venga, llamar a alguien por su nombre para captar su atención, etc... todo eso se puede lograr con un mando, pero limitado y vas a tener que sacrificar acciones siempre, con el lenguaje eso no ocurre, se abre una enorme ventana a la interacción.


Esto lleva a pensar, juegos donde directamente no haya misiones, si no que se generen segun las acciones dentro del videojuego. Pasariamos a tener juegos practicamente infinitos.
@hkg36e eso ya lo he hablado muchas veces, el futuro de la industria del entretenimiento en 20 años será muy diferente, lo más seguro es que nos movamos a un modelo totalmente procedural, con productos a la carta "quiero esto y lo quiero así", no será un modelo de esperar 3 años a que una empresa te haga un juego a su manera, sabiendo que hay cosas que seguramente no gustarán del todo al usuario.

En general a nadie le gusta que le vistan otros.

Con eso muchas propiedades intelectuales perderán valor porque cualquiera será capaz de producir productos de calidad en poco tiempo sobre esas IPs, por lo que dejarán de tener cierto valor, empresas tochas como Rockstar Games o CAPCOM se desvanecerán si no saben adaptarse a los cambios, el modelo de negocio, por un tiempo, será vender modelos de IA's procedurales que generen productos de entretenimiento, yo creo que muchas empresas de videojuegos desaparecerán porque viven en otro mundo totalmente diferente, no sabrán adaptarse seguramente, eso les dará de cara y no tendrán casi tiempo de reacción, puede que alguna si sobreviva, veremos.

Siempre pongo el ejemplo de resident evil ¿Qué sentido tendrá una película de Resident Evil hecha por CAPCOM si cualquiera desde su casa puede crear veinte en una tarde y de gran calidad? Por eso las propiedades intelectuales perderán valor, porque internet se llenará de ese tipo de contenido, como está ocurriendo con la música, que ya hay discos enteros de artistas famosos creados por personas random mediante IA, discos con letras nuevas y que suenan a discazos de la mejor época de esos artistas.

¿Qué pueden hacer esos artistas? ¿Denunciar que alguien está usando su voz? Pues puede, pero esto se desbordará totalmente, es algo que no pueden parar, cualquiera puede producir contenido desde su casa.

En este hilo del 2020 ya preguntaba sobre el tema y básicamente era por eso, por el clonado de voz con IA que ya existía por entonces
hilo_te-pueden-denunciar-por-usar-la-voz-de-otra-persona_2403700


La mayoría de todo lo que conocemos terminará siendo abandonware y la gente joven vivirá una realidad totalmente diferente a la nuestra, a mi en realidad me gusta más eso la verdad, poder crear el juego que quieras y que este sea infinito, vivir una experiencia única a cada partida, no sé, de tener que esperar 10 años por un GTA nuevo, o para un nuevo TES a poder crear historias interminables dentro de esos mundos hay un trecho bastante grande.

Ojalá poder adelantar el reloj porque si te digo la verdad, yo no soy de esos nostálgicos del retro, yo veo juegos viejos y los veo con cariño, porque han formado parte de mi vida, pero no soy de mirar para atrás, me atrae más lo nuevo por lo general en el mundo de los juegos porque me gusta la tecnología y como esta avanza.


Lo que no sé es como se transformará la industria del multijugador, como se relacionará la gente para jugar a juegos parecidos o compartir los suyos, será raro la verdad, solo imaginarme que en la música ahora cualquiera puede crear disco de otros ya plantea un gran dilema en el cambio del paradigma, donde cualquiera ya es productor, director de proyectos de gran calidad o de artistas de gran renombre.


En el hilo de EL PODER DE LA NUBE ahí también hablo de eso, de como la nube será importante, conectar IAs generativas en juegos para crear contenido en tiempo real, se habla de inyectar diálogos, paths, metadatos, generar assets y inyectarlos por red al juego, por lo que muchos juegos, en la transición del proceso, posiblemente serán juegos dependientes de conexión a la red, no pasaremos a un modelo totalmente procedural de golpe, todo eso irá apareciendo poco a poco.


Decir que esto es una opinión mía, es una especulación de lo que creo que será el futuro, no de lo que realmente será.
Me acoplo aquí porque he visto el enlace que tenias en tu firma cuando me has contestado y me llama la atención el tema (a día de hoy es raro el que no lo sigue aunque sea de reojo).

Veo que tengo faena.

Gracias (también) por este hilo, @katatsumuri
GAUSSIAN SPLATTING SUPERA E NeRF EN LA RECREACIÓN 3D DE ENTORNOS



74 respuestas
1, 2