› Foros › Xbox Series › General
Lammothh escribió:Sobretodo en los estudios japoneses, no he visto un juego nipón a 60fps de inicio en mi puñetera vida.
Supongo que si cerramos los ojillos como ellos la fluidez aumenta...
daniel78 escribió:Algunos os flipáis demasiado. En esta generación no vamos a ver ni un sólo juego a 120 fps. No se han establecido aún los 60 fps y ya estamos pidiendo 120 fps en consolas q como máximo costarán 500 euros.
logeim1924 escribió:Xlooser escribió:¿Alguien cree en un modo 120 fps en Scarlett? Ya sé que al 99,99999% le parece una locura, pero intentad decir por qué.
Eso tendra que ser en función de juegos no de consolas. Microsoft no puede obligar a nadie a que hagan juegos como ellos quieren
Lammothh escribió:daniel78 escribió:Algunos os flipáis demasiado. En esta generación no vamos a ver ni un sólo juego a 120 fps. No se han establecido aún los 60 fps y ya estamos pidiendo 120 fps en consolas q como máximo costarán 500 euros.
Solo el la plei cinco, que es la mejor del mundo.
Xlooser escribió:eloskuro escribió:Xlooser escribió:¿Alguien cree en un modo 120 fps en Scarlett? Ya sé que al 99,99999% le parece una locura, pero intentad decir por qué.
Porque con 60 fps sobra.
Salvo en VR.
Entonces crees que Microsoft salvará a los que quieren jugar a 120 fps de una imagen mediocre. Yo creo que les dejaría elegir. El motivo de no ponerlo sería/será técnico.
Xlooser escribió:¿Alguien cree en un modo 120 fps en Scarlett? Ya sé que al 99,99999% le parece una locura, pero intentad decir por qué.
David Ricardo escribió:Xlooser escribió:eloskuro escribió:Porque con 60 fps sobra.
Salvo en VR.
Entonces crees que Microsoft salvará a los que quieren jugar a 120 fps de una imagen mediocre. Yo creo que les dejaría elegir. El motivo de no ponerlo sería/será técnico.
Habría suficiente gente queriendo jugar a 120 fps como para que merezca la pena hacer juegos a 120 fps?
Por poder, el fifa que ya va a 4k/60 en PS4 pro seguro que lo podían poner a 120 fps fácilmente. Pero la pregunta es ¿para qué? ¿Cuál es la ventaja?
Xlooser escribió:David Ricardo escribió:Xlooser escribió:Entonces crees que Microsoft salvará a los que quieren jugar a 120 fps de una imagen mediocre. Yo creo que les dejaría elegir. El motivo de no ponerlo sería/será técnico.
Habría suficiente gente queriendo jugar a 120 fps como para que merezca la pena hacer juegos a 120 fps?
Por poder, el fifa que ya va a 4k/60 en PS4 pro seguro que lo podían poner a 120 fps fácilmente. Pero la pregunta es ¿para qué? ¿Cuál es la ventaja?
Si se parte desde un diseño para poder ofrecer 120 fps, es mucho más fácil escalar la CPU y más fácil aún escalar la GPU para que los 60 fps y los 30 fps sean estables. Es que veo difícil que Phil Spencer se refiriera a 60 fps cuando hablaba de "altos framerates", además de que las especificaciones de Microsoft para su Realidad Mixta son 90 fps para la versión ultra. Seguro que superar la barrera de los 60 fps en consola es algo que Microsoft ha pensado, aunque no se materialice al final.
Para mí no hay ventaja en los 120 fps, en la mayoría de juegos elegiré 30 fps; un modo 60 fps si la resolución es de al menos 1440p (1080p y que el juego escale muy bien es para pensárselo, como con el Gears 4) y la carga gráfica no se recorta mucho. He visto juegos en PC con pantalla G-Sync entre 80 y 90 fps, una gozada, pero de lejos me quedo con 50 pulgadas y una calidad de imagen excelente.
@logeim1924 eso ya lo sé. Cuando digo Microsoft, me refiero a sus juegos, no a que va a obligar al resto de compañías.
@Eaniel Kashal gracias.
Xlooser escribió:¿Alguien cree en un modo 120 fps en Scarlett? Ya sé que al 99,99999% le parece una locura, pero intentad decir por qué.
David Ricardo escribió:Xlooser escribió:David Ricardo escribió:Habría suficiente gente queriendo jugar a 120 fps como para que merezca la pena hacer juegos a 120 fps?
Por poder, el fifa que ya va a 4k/60 en PS4 pro seguro que lo podían poner a 120 fps fácilmente. Pero la pregunta es ¿para qué? ¿Cuál es la ventaja?
Si se parte desde un diseño para poder ofrecer 120 fps, es mucho más fácil escalar la CPU y más fácil aún escalar la GPU para que los 60 fps y los 30 fps sean estables. Es que veo difícil que Phil Spencer se refiriera a 60 fps cuando hablaba de "altos framerates", además de que las especificaciones de Microsoft para su Realidad Mixta son 90 fps para la versión ultra. Seguro que superar la barrera de los 60 fps en consola es algo que Microsoft ha pensado, aunque no se materialice al final.
Para mí no hay ventaja en los 120 fps, en la mayoría de juegos elegiré 30 fps; un modo 60 fps si la resolución es de al menos 1440p (1080p y que el juego escale muy bien es para pensárselo, como con el Gears 4) y la carga gráfica no se recorta mucho. He visto juegos en PC con pantalla G-Sync entre 80 y 90 fps, una gozada, pero de lejos me quedo con 50 pulgadas y una calidad de imagen excelente.
@logeim1924 eso ya lo sé. Cuando digo Microsoft, me refiero a sus juegos, no a que va a obligar al resto de compañías.
@Eaniel Kashal gracias.
Si haces el juego para que la CPU lo mueva a 120 fps, al bajarlo a 60 o 30 la CPU estará totalmente desaprovechada. Y la GPU tampoco la exprimes igual de bien si tienes varios modos distintos como si te centrases solo en un objetivo concreto de frames.
Jony ReyeS escribió:Una duda rápida, El HDR al activarlo consume muchos recursos? En plan no se si se pierde un 10% de rendimiento respecto al SDR por ejemplo. O no tiene nada que ver?
Xlooser escribió:Si se mantiene igual sí. La IA y las físicas se pueden escalar, es más fácil pasar de menos complejo a más complejo que al revés.
Para lograr unos fps objetivo lo único que importa es el frametime: 33.3 ms, 16.6 u 8.3, ajustar tus cálculos a que se hagan en determinado tiempo dado no es tan misterioso.
Magnarock escribió:14 DAYS
David Ricardo escribió:Xlooser escribió:Si se mantiene igual sí. La IA y las físicas se pueden escalar, es más fácil pasar de menos complejo a más complejo que al revés.
Para lograr unos fps objetivo lo único que importa es el frametime: 33.3 ms, 16.6 u 8.3, ajustar tus cálculos a que se hagan en determinado tiempo dado no es tan misterioso.
La respuesta te la das tú solo. ¿Por qué es más fácil pasar de menos complejo a más complejo? Porque si diseñas tu juego para que vaya a 120 fps, es fácil añadir pijadas para rellenar el tiempo de cpu extra que tienes. Pero si lo diseñas para que vaya a 60 o 30, es muy difícil quitarle cosas para doblar o cuadruplicar el frame rate. Porque va a haber cosas esenciales al juego que no vas a poder escalar. Pues eso es el aprovechamiento extra de la CPU que podrías haber hecho, que te estás perdiendo por haber diseñado el juego en base a que pueda ir a 120 fps.
Xlooser escribió:David Ricardo escribió:Xlooser escribió:Si se parte desde un diseño para poder ofrecer 120 fps, es mucho más fácil escalar la CPU y más fácil aún escalar la GPU para que los 60 fps y los 30 fps sean estables. Es que veo difícil que Phil Spencer se refiriera a 60 fps cuando hablaba de "altos framerates", además de que las especificaciones de Microsoft para su Realidad Mixta son 90 fps para la versión ultra. Seguro que superar la barrera de los 60 fps en consola es algo que Microsoft ha pensado, aunque no se materialice al final.
Para mí no hay ventaja en los 120 fps, en la mayoría de juegos elegiré 30 fps; un modo 60 fps si la resolución es de al menos 1440p (1080p y que el juego escale muy bien es para pensárselo, como con el Gears 4) y la carga gráfica no se recorta mucho. He visto juegos en PC con pantalla G-Sync entre 80 y 90 fps, una gozada, pero de lejos me quedo con 50 pulgadas y una calidad de imagen excelente.
@logeim1924 eso ya lo sé. Cuando digo Microsoft, me refiero a sus juegos, no a que va a obligar al resto de compañías.
@Eaniel Kashal gracias.
Si haces el juego para que la CPU lo mueva a 120 fps, al bajarlo a 60 o 30 la CPU estará totalmente desaprovechada. Y la GPU tampoco la exprimes igual de bien si tienes varios modos distintos como si te centrases solo en un objetivo concreto de frames.
Si se mantiene igual sí. La IA y las físicas se pueden escalar, es más fácil pasar de menos complejo a más complejo que al revés.
Para lograr unos fps objetivo lo único que importa es el frametime: 33.3 ms, 16.6 u 8.3, ajustar tus cálculos a que se hagan en determinado tiempo dado no es tan misterioso.
Xlooser escribió:David Ricardo escribió:Xlooser escribió:Si se mantiene igual sí. La IA y las físicas se pueden escalar, es más fácil pasar de menos complejo a más complejo que al revés.
Para lograr unos fps objetivo lo único que importa es el frametime: 33.3 ms, 16.6 u 8.3, ajustar tus cálculos a que se hagan en determinado tiempo dado no es tan misterioso.
La respuesta te la das tú solo. ¿Por qué es más fácil pasar de menos complejo a más complejo? Porque si diseñas tu juego para que vaya a 120 fps, es fácil añadir pijadas para rellenar el tiempo de cpu extra que tienes. Pero si lo diseñas para que vaya a 60 o 30, es muy difícil quitarle cosas para doblar o cuadruplicar el frame rate. Porque va a haber cosas esenciales al juego que no vas a poder escalar. Pues eso es el aprovechamiento extra de la CPU que podrías haber hecho, que te estás perdiendo por haber diseñado el juego en base a que pueda ir a 120 fps.
Te has liado.
Si diseñas para 120 fps, lo que controla la CPU es poco complejo. Si dispones del doble de tiempo puedes complicar más los cálculos. Hacer esto es más fácil.
Si diseñas para 60 fps, lo que controla la CPU es más complejo. Si de repente dispones de la mitad de tiempo debes simplificar los cálculos. Hacer esto no es trivial.
¿Por qué un juego que se ha pensado para 30 fps es tan difícil ponerlo a 60? Por eso mismo. Estoy convencido de que en todos los juegos con varios modos, el diseño está orientado a ofrecer 60 fps. El modo a 30 fps es sólo complicar los cálculos.
logeim1924 escribió:Xlooser escribió:David Ricardo escribió:Si haces el juego para que la CPU lo mueva a 120 fps, al bajarlo a 60 o 30 la CPU estará totalmente desaprovechada. Y la GPU tampoco la exprimes igual de bien si tienes varios modos distintos como si te centrases solo en un objetivo concreto de frames.
Si se mantiene igual sí. La IA y las físicas se pueden escalar, es más fácil pasar de menos complejo a más complejo que al revés.
Para lograr unos fps objetivo lo único que importa es el frametime: 33.3 ms, 16.6 u 8.3, ajustar tus cálculos a que se hagan en determinado tiempo dado no es tan misterioso.
En los juegos retrocompatibles si podrian ponerlos a 120fps, pero con las pocas tv que hay con mas de 60fps no creo
Porque si diseñas tu juego para que vaya a 120 fps, es fácil añadir pijadas para rellenar el tiempo de cpu extra que tienes
Pues eso es el aprovechamiento extra de la CPU que podrías haber hecho, que te estás perdiendo por haber diseñado el juego en base a que pueda ir a 120 fps.
Xlooser escribió:Y ese delta es mucho más fácil aumentarlo que disminuirlo. Si de inicio cuentas con que tienes 8.3 ms, adaptar tu lógica para tardar 16.6 ms es más fácil que al revés.
Yo, la pregunta que me haría sería:
¿Una lógica del juego diseñada para 16.6 ms ofrece mejores resultados que una pensada para 8.3 ms y adaptada a 16.6?
Xlooser escribió:logeim1924 escribió:Xlooser escribió:Si se mantiene igual sí. La IA y las físicas se pueden escalar, es más fácil pasar de menos complejo a más complejo que al revés.
Para lograr unos fps objetivo lo único que importa es el frametime: 33.3 ms, 16.6 u 8.3, ajustar tus cálculos a que se hagan en determinado tiempo dado no es tan misterioso.
En los juegos retrocompatibles si podrian ponerlos a 120fps, pero con las pocas tv que hay con mas de 60fps no creo
Es más difícil transformar un diseño existente a 60 fps y ponerlo a 120 que diseñar desde 0 para conseguir 120 fps.
Si en Battlefiled V retiran el bloqueo para Scarlett, correría a 120 fps una gran parte del tiempo, pero las bajadas de frames serían impredecibles. Zen2 es mucho más poderoso, lo que garantizaría pocas bajadas.
@David Ricardo pues que replicas lo que yo he dicho en mi primer comentario y sin embargo pretendes invalidarlo. Lo he aclarado por si no habías entendido lo que dije.
Primero dices:Porque si diseñas tu juego para que vaya a 120 fps, es fácil añadir pijadas para rellenar el tiempo de cpu extra que tienes
Al final dices:Pues eso es el aprovechamiento extra de la CPU que podrías haber hecho, que te estás perdiendo por haber diseñado el juego en base a que pueda ir a 120 fps.
Es contradictorio.
David Ricardo escribió:Porque va a haber cosas esenciales al juego que no vas a poder escalar. Pues eso es el aprovechamiento extra de la CPU que podrías haber hecho, que te estás perdiendo por haber diseñado el juego en base a que pueda ir a 120 fps.
darksch escribió:Es que la lógica no se mete en 8 ni 16 ms, son cosas que van aparte.
Por un lado estableces la lógica, cómo la vas a actualizar, ahí depende más de la velocidad de los objetos, o de la inteligencia.
Por otro lado cada cuánto haces captura. El dibujado en sí consume, y no sólo GPU, así que no es sólo cuestión de querer hacerlo, si no se tener capacidad para poder bajarlo.
Le puedes hacer perfectamente una captura cada 8 ms a una lógica que se actualiza cada 40ms. Simplemente vas a ver desplazamientos suaves entre cambios menos frecuentes.
Xlooser escribió: @David Ricardo eso es lo que yo creo que se puede escalar. No veo una mecánica compleja como un todo, sino como una suma de mecánicas simples.
Xlooser escribió:- Yo tengo entendido que son los Tensor Cores los que están conmutados con los shaders, no los RT Cores. Bueno, ambos están conectados a la misma caché, en teoría los Shader siguen trabajando con sus registros. Leeré el paper que has pasado, me parece muy interesante, gracias.
Xlooser escribió:- Antes veía absurdo medir en TF una posible unidad sólo para recorrer el BVH porque se supone que los TF marcan cálculo, pero ahora me pregunto ¿cómo funciona un "RT Core"?¿qué hace para saber si un rayo colisiona con un elemento? ¿Quién calcula el ángulo de entrada del rayo? ¿y el de salida que se convierte en el de entrada para un nuevo rebote? Honestamente, no tengo ni idea. Si eso lo hacen unidades "RT Core" y además se pueden usar como Shaders si no se quiere RT, el diseño es cojonudo. Aunque si es tan bueno...........toda la GPU tendría esa disposición.
darksch escribió:Bueno pues sabiendo que si trabajan en paralelo, a pensar en que otras opciones de optimización pueden andar.
- Scheduler que ayude a paralelizar mejor, para no depender totalmente del programador.
- Usar eSRAM (o la RAM) para almacenar una estructura simplificada, esto claro lo haría el compilador transparente al desarrollador, para no volver a caer en el error de lo específico, para hacer el recorrido de los rayos más basto en dicha estructura, y así luego los RT Cores sólo lo harían en detalle en un nivel más reducido.
Sugerencias?
Eaniel Kashal escribió:Que haya llegado el dia en que eche de menos las cosas de indigo ...
THANOS-TITAN-Z escribió:De verdad. Próxima parada ingenieros de la NASA . Le mande un MP @N-N para ver si se puede crear un hilo exclusivamente para Scarlet , con lo básico para los que no entendemos y no nos interesan tanto los técnicismos .
Por ejemplo : Tendrá 11 TFLOP
No me interesa si el SSD se tira a la GPU por parte de madre a la CPU por culpa de los Rops
Eaniel Kashal escribió:Que haya llegado el dia en que eche de menos las cosas de indigo ...
Polyteres escribió:Buenas gente.Xlooser escribió:- Yo tengo entendido que son los Tensor Cores los que están conmutados con los shaders, no los RT Cores. Bueno, ambos están conectados a la misma caché, en teoría los Shader siguen trabajando con sus registros. Leeré el paper que has pasado, me parece muy interesante, gracias.
Los Tensor Cores es una forma muy elegante y bonita de decir ALUs especializadas para operar con matrices. En la arquitectura Turing hay tres tipos de ALUs dentro de un SM: ALUs para operar con flotantes, ALUs para operar con enteros y ALUs para operar con matrices del tirón. Las tres están "al mismo nivel" por decirlo de alguna forma. Un Tensor Core no es una unidad específica independiente como puede ser una unidad de textura o los RT Cores, es una ALU más. A partir de esta arquitectura las operaciones de enteros y las de flotantes pueden ejecutarse en paralelo (no así para los Tensor Cores), pero las dependencias de datos están ahí y la mejora será mucho menor q el 36% que clama a los 4 vientos Nvidia. AMD actualmente no tiene este doble camino de datos por lo q cuando la gente se pregunta pq una arquitectura rinde más que otra o pq los teraflops de una no son como los otros es entre otras cosas por esta serie de cositas que aunq sumen poco, pasito a pasito se convierten en grandes diferencias.
Polyteres escribió:Xlooser escribió:- Antes veía absurdo medir en TF una posible unidad sólo para recorrer el BVH porque se supone que los TF marcan cálculo, pero ahora me pregunto ¿cómo funciona un "RT Core"?¿qué hace para saber si un rayo colisiona con un elemento? ¿Quién calcula el ángulo de entrada del rayo? ¿y el de salida que se convierte en el de entrada para un nuevo rebote? Honestamente, no tengo ni idea. Si eso lo hacen unidades "RT Core" y además se pueden usar como Shaders si no se quiere RT, el diseño es cojonudo. Aunque si es tan bueno...........toda la GPU tendría esa disposición.
Como he dicho en mi mensaje anterior, lo realmente intensivo, lo jodido en raytracing es calcular las intersecciones de un rayo con la geometría de la escena. Y pq es esto así?. Primero pq cada vez que lanzas un rayo, ese rayo tiene que "probarse" con todos los triángulos de toda la geometría de la escena (por cada rayo!!!!), y segundo no hay una coherencia en los datos que ayude en el proceso.
Qué se hace para aliviar este problema?. Se discretiza, se usan estructuras de datos jerárquicas que agrupen la geometría de la escena en pequeños paquetes de triángulos que sean mas manejables y a su vez los "envuelven" en "volúmenes mas grandes" y así sucesivamente, estos "volúmenes mas grandes" los agrupan y los "envuelven en "volumenes mas grandes"...asi hasta obtener un único volumen que agrupe a todo. Ahora puedes iterar sobre esta estructura de forma que si un rayo no interseca un "volumen" que contiene todos los paquetes de niveles inferiores, puedes descartar todo lo q esté dentro de ese volumen. Esto hace q realices muchas menos comprobaciones y por tanto ahorres trabajo. Nvidia usa un BVH (Bounding volume hierarchy), que hace justamente lo q digo anteriormente.
Un RT Core acelera este proceso haciendo fundamentalmente 2 cosas: la primera es comprobar si un rayo interseca con los volúmenes que se han construido anteriormente, descartando jeráquicamente todo lo q "cuelgue" de dicho volumen hasta que se "queda" con un paquete de triángulos. La segunda es, una vez determinado dicho paquete de triángulos, comprobar uno por uno si el rayo impacta con alguno de ellos y "lo devuelve".
Un shader es el encargado de iniciar el proceso (es el q lanza el rayo desde donde quiere y con la dirección que quiere), le dice a los RT Cores: tio este rayo con quién impacta?. Una vez tiene esa información se "programa" qué hacer con ella, desde usarla para calcular el color, o la distancia o lanzar otro rayo desde el punto de intersección del rayo anterior...
Puesto que todo el proceso de calcular la intersección de un rayo con la geometría se hace aparte (y lleva su tiempo), el shader que ha lanzado el rayo puede dedicarse a hacer otras tareas (solapamiento de tareas)
TCR escribió:@THANOS-TITAN-Z no es por el baneo, que el motivo como bien dices fue otro, sino por la insistente persecución que había con él.
Que todos sabemos que a veces se excedía y parecía un loro pero tampoco hacía daño. Los spoilers son otro tema, ahí nada que decir.
Que conste que a mí el hilo me gusta. Hay cosas interesantes, otras entretenidas y otras que leo por encima por desinterés y en ese sentido, dentro de esa variedad, el muchacho no era diferente al resto en cambio casi todo eran quejas.
Dicho esto prosigan.
THANOS-TITAN-Z escribió:@Xlooser
Eres más inteligente que todo eso . Seguro que me has entendido perfectamente
Xlooser escribió:THANOS-TITAN-Z escribió:@Xlooser
Eres más inteligente que todo eso . Seguro que me has entendido perfectamente
Es un coñazo para una gran parte de los lectores, pero tiene sitio. Seguro que hay también bastantes que agradecen estas divagaciones.
Xlooser escribió:THANOS-TITAN-Z escribió:@Xlooser
Eres más inteligente que todo eso . Seguro que me has entendido perfectamente
Es un coñazo para una gran parte de los lectores, pero tiene sitio. Seguro que hay también bastantes que agradecen estas divagaciones.
darksch escribió:No creo que haya problema en crear otro del estilo “Anaconda sin chip gordo ni tecnicismos”. Aunque creo que tendría pocas entradas, aparte de lo que ya se sabe de 2 modelos y TF aproximados, no hay más que decir. De haberlo se hubiera puesto ya aquí y no se ha puesto nada más.