Tarjeta Gráfica para rendir como una XBOX SERIES X / PS5

Buenos días:

Estoy pendiente de adquirir una tarjeta gráfica para mi PC y he visto que las XBOX SERIES X y las PS5 pone en la caja que van a 4K. Me resulta curioso, porque quería pillarme una 3070ti y me dicen que esa tarjeta No me va a dar calidad de 4k, solo 1440p, que me pille una XBOX SERIES X mejor.

Mi pregunta es: ¿ Qué tarjeta rinde más que una XBOX SERIES X o PS5 ?

Gracias por vuestra atención
aranparo79 escribió:Buenos días:

Estoy pendiente de adquirir una tarjeta gráfica para mi PC y he visto que las XBOX SERIES X y las PS5 pone en la caja que van a 4K. Me resulta curioso, porque quería pillarme una 3070ti y me dicen que esa tarjeta No me va a dar calidad de 4k, solo 1440p, que me pille una XBOX SERIES X mejor.

Mi pregunta es: ¿ Qué tarjeta rinde más que una XBOX SERIES X o PS5 ?

Gracias por vuestra atención


El que te ha dicho eso no tiene mucha idea...una 3070TI barre el suelo con cualquiera de esas 2 consolas.
El equivalente de esas consolas sería una rx6600/6600XT, para que te hagas una idea.

Una 3070TI te da 4K, pero no siempre a 60fps. Una Series X llega a 4K pero a 30fps en la mayoría de casos.
aranparo79 escribió:Buenos días:

Estoy pendiente de adquirir una tarjeta gráfica para mi PC y he visto que las XBOX SERIES X y las PS5 pone en la caja que van a 4K. Me resulta curioso, porque quería pillarme una 3070ti y me dicen que esa tarjeta No me va a dar calidad de 4k, solo 1440p, que me pille una XBOX SERIES X mejor.

Mi pregunta es: ¿ Qué tarjeta rinde más que una XBOX SERIES X o PS5 ?

Gracias por vuestra atención

Supongo que más de un h-entendido me saltará a la yugular por lo que voy a decir, pero si quieres un dato objetivo para comparar "músculo" de dos GPUs, aunque hay alguna consideración más, mira los FLOPS de una y otra. Una 3070Ti modelo de referencia da 22 TFLOPS, una PS5 10TFLOPS, y una series X 12TFLOPS

Entonces... ¿Por qué pone en la caja de las consolas que funcionan a 4K? Pues porque si bajas la carga de otro sitio (apuntando a 30fps como dice el compañero, bajando LOD, calidad de texturas, etc.) es potencia de sobra para 4K. Cuando alguien te dice que una 3070Ti va justa para 4K en PC es porque cuenta que pondrás todo en ultra y querrás 60FPS o cerca, cosa que lógicamente no tienes por qué hacer, depende del juego y lo exigente que sea podrás poner todo al máximo o no. Pero eso pasa con una 3070 y con una 3090, buena suerte para mover flight simulator 2020 con todo a tope a 4K con cualquier GPU, por ejemplo.

También te digo que yo, si la idea es jugar a 4K, intentaría estirar a una 3080. El salto de rendimiento es bastante considerable (en TFLOPS, casi 30), ya que el salto de precio es poco más o menos proporcional. Si no encuentras nada barato... yo esperaría a verano a que intel saque sus GPUs al menos. Y también que ahora mismo quedan 4 meses para que salga la serie 4000, te vas a gastar un dineral a punto de cambiar de generación de gráficas.

Saludos
Pollonidas escribió:
aranparo79 escribió:Buenos días:

Estoy pendiente de adquirir una tarjeta gráfica para mi PC y he visto que las XBOX SERIES X y las PS5 pone en la caja que van a 4K. Me resulta curioso, porque quería pillarme una 3070ti y me dicen que esa tarjeta No me va a dar calidad de 4k, solo 1440p, que me pille una XBOX SERIES X mejor.

Mi pregunta es: ¿ Qué tarjeta rinde más que una XBOX SERIES X o PS5 ?

Gracias por vuestra atención

Supongo que más de un h-entendido me saltará a la yugular por lo que voy a decir, pero si quieres un dato objetivo para comparar "músculo" de dos GPUs, aunque hay alguna consideración más, mira los FLOPS de una y otra. Una 3070Ti modelo de referencia da 22 TFLOPS, una PS5 10TFLOPS, y una series X 12TFLOPS

Entonces... ¿Por qué pone en la caja de las consolas que funcionan a 4K? Pues porque si bajas la carga de otro sitio (apuntando a 30fps como dice el compañero, bajando LOD, calidad de texturas, etc.) es potencia de sobra para 4K. Cuando alguien te dice que una 3070Ti va justa para 4K en PC es porque cuenta que pondrás todo en ultra y querrás 60FPS o cerca, cosa que lógicamente no tienes por qué hacer, depende del juego y lo exigente que sea podrás poner todo al máximo o no. Pero eso pasa con una 3070 y con una 3090, buena suerte para mover flight simulator 2020 con todo a tope a 4K con cualquier GPU, por ejemplo.

También te digo que yo, si la idea es jugar a 4K, intentaría estirar a una 3080. El salto de rendimiento es bastante considerable (en TFLOPS, casi 30), ya que el salto de precio es poco más o menos proporcional. Si no encuentras nada barato... yo esperaría a verano a que intel saque sus GPUs al menos. Y también que ahora mismo quedan 4 meses para que salga la serie 4000, te vas a gastar un dineral a punto de cambiar de generación de gráficas.

Saludos


No me compares rdna con ampere asi tan simple hombre, por que si lo simplificas tanto la 3070 ti y la 6900 xt tienen los mismos tflops prácticamente y la realidad es que la 6900 xt es un 30% superior en rendimiento, teniendo los mismos 22 tflops....

Para comparar las consolas con gpu de escritorio lo mejor es hacerlo con amd ya que comparten la misma arquitectura, xbox series x es basicamente una 6800 (No XT) a baja frecuencia lo que hace que rinda como una 6700 xt mas o menos, y la ps5 seria como una 6700 xt recortada que hace que rinda como una 6600 xt, eso simplificándolo mucho, y simplificandolo mas aun una ps5 estaria entre una 3060 y una 3060 ti y la series x entre una 3060 ti y 3070
Pollonidas escribió:
aranparo79 escribió:Buenos días:

Estoy pendiente de adquirir una tarjeta gráfica para mi PC y he visto que las XBOX SERIES X y las PS5 pone en la caja que van a 4K. Me resulta curioso, porque quería pillarme una 3070ti y me dicen que esa tarjeta No me va a dar calidad de 4k, solo 1440p, que me pille una XBOX SERIES X mejor.

Mi pregunta es: ¿ Qué tarjeta rinde más que una XBOX SERIES X o PS5 ?

Gracias por vuestra atención

Supongo que más de un h-entendido me saltará a la yugular por lo que voy a decir, pero si quieres un dato objetivo para comparar "músculo" de dos GPUs, aunque hay alguna consideración más, mira los FLOPS de una y otra. Una 3070Ti modelo de referencia da 22 TFLOPS, una PS5 10TFLOPS, y una series X 12TFLOPS

Entonces... ¿Por qué pone en la caja de las consolas que funcionan a 4K? Pues porque si bajas la carga de otro sitio (apuntando a 30fps como dice el compañero, bajando LOD, calidad de texturas, etc.) es potencia de sobra para 4K. Cuando alguien te dice que una 3070Ti va justa para 4K en PC es porque cuenta que pondrás todo en ultra y querrás 60FPS o cerca, cosa que lógicamente no tienes por qué hacer, depende del juego y lo exigente que sea podrás poner todo al máximo o no. Pero eso pasa con una 3070 y con una 3090, buena suerte para mover flight simulator 2020 con todo a tope a 4K con cualquier GPU, por ejemplo.

También te digo que yo, si la idea es jugar a 4K, intentaría estirar a una 3080. El salto de rendimiento es bastante considerable (en TFLOPS, casi 30), ya que el salto de precio es poco más o menos proporcional. Si no encuentras nada barato... yo esperaría a verano a que intel saque sus GPUs al menos. Y también que ahora mismo quedan 4 meses para que salga la serie 4000, te vas a gastar un dineral a punto de cambiar de generación de gráficas.

Saludos


Voy a esperarme a la serie 4000 eso está claro, lo que pasa es que estaba con la duda del 4K de las cajas de la Ps5.
Ten en cuenta que en una consola tienes el plus de que en muchas ocasiones el desarrollo del juego se hace en base a ese hardware, luego esto se porta a PC añadiendo posibilidad de mejores texturas etc, por lo que no es mentira que una series x vaya a 4k incluso 60fps en determinados juegos y, si no eres un usuario avanzado, muy posiblemente comprar una consola ppr precio/rendimiento te de mejor resultado que gastar lo que vale una 3070ti, ademas no te complicaras con combinaciones de hardware que Dan mal rendimiento en determinados juegos, shutering etc etc
Yo diria que el estandar de esta generacion tanto de consolas como de PC es 1440p, el 4k de las consolas en muchos casos son reescalados que por supuesto no son malos pero tambien se puede hacer en PC.

Lo que toca es no subirse al carro de la mercadotecnia hay mucho mas salto visual pasar del 1080p al 1440p que del 1440p al 4k, yo calculo que en 2 generaciones de graficas ya sera ahora si el estandar el 4k pero sabes que, ya nos van a estar vendiendo el 8k [+risas]
aranparo79 escribió:Buenos días:

Estoy pendiente de adquirir una tarjeta gráfica para mi PC y he visto que las XBOX SERIES X y las PS5 pone en la caja que van a 4K. Me resulta curioso, porque quería pillarme una 3070ti y me dicen que esa tarjeta No me va a dar calidad de 4k, solo 1440p, que me pille una XBOX SERIES X mejor.

Mi pregunta es: ¿ Qué tarjeta rinde más que una XBOX SERIES X o PS5 ?

Gracias por vuestra atención


Creo que estás confundido, en el hilo que abriste hace unos meses preguntaste otra cosa, cito:
Ahora quería buscar una tarjeta para jugar en 4k Ultra y ver que cambiaríais de esta configuración para poder jugar a 4k ultra.


No es lo mismo jugar a 4K sin más pretensiones que a 4K Ultra y como tal te aconsejamos entonces. Es más, recuerdo haberte explicado el tema de los 4K en las consolas, así que o no lees lo que te explican o necesitabas más aclaraciones.

Por cierto, si te vas a esperar a la serie 4xxx de Nvidia, tendrás que cambiar la fuente de alimentación casi seguro porque las filtraciones apuntan a que van a chupar vatios como desesperadas. [beer]
FranciscoVG escribió:No me compares rdna con ampere asi tan simple hombre, por que si lo simplificas tanto la 3070 ti y la 6900 xt tienen los mismos tflops prácticamente y la realidad es que la 6900 xt es un 30% superior en rendimiento, teniendo los mismos 22 tflops....

Para comparar las consolas con gpu de escritorio lo mejor es hacerlo con amd ya que comparten la misma arquitectura, xbox series x es basicamente una 6800 (No XT) a baja frecuencia lo que hace que rinda como una 6700 xt mas o menos, y la ps5 seria como una 6700 xt recortada que hace que rinda como una 6600 xt, eso simplificándolo mucho, y simplificandolo mas aun una ps5 estaria entre una 3060 y una 3060 ti y la series x entre una 3060 ti y 3070

Estoy de acuerdo en que es probablemente más razonable comparar las consolas con las gráficas de AMD que comparten arquitectura, como dije textualmente hay alguna consideración más, como por ejemplo el bus y ancho de banda de memoria y cambios de arquitectura de GPU como dices.

Pero si nos ponemos así, también habría que tener en cuenta que una consola es hardware cerrado, y que incluso con Vulkan siempre van a poder optimizar más y aprovechar mejor los recursos que en un PC con todas las configuraciones posibles que hay, habría que ponderar eso con un.. ¿+10-20%?. En resumen... en algún sitio hay que parar y "simplificar", y mantengo que los FLOPS son una buena medida de la potencia de cálculo bruta de una GPU (no necesariamente del rendimiento en juegos). Del rendimiento en juegos, vamos a decir que al menos dan una idea del rango en el que nos movemos, dejando un considerable margen de error, 30% o incluso más, de acuerdo.

Si quieres un ejemplo de esto, la 6900XT da en minería de ETH 64MH/s, la 3070 sin LHR (la Ti tienen LHR todas) da 62MH/s, ambas según minerstat, y... joder, son valores casualmente cercanos, la 6900XT le saca apenas un 3% rinda lo que rinda en juegos. Y mira que el algoritmo de ETH es muy dependiente del rendimiento de RAM. Vaya, que en este caso la AMD hace "más con menos" y se salta una gama hacia arriba para competir con la 3080 (incluso 3080Ti si me apuras), pero en potencia de cálculo pura y dura, no se llevan mucho.

Hay casos en los que ha sido al revés. Por ejemplo en GCN1.0 (7970) vs Kepler (GTX 680) el rendimiento en juegos era bastante parejo (ligera ventaja a favor de nvidia que se diluyó en unos meses según mejoraron los drivers) pero en este caso era la AMD la que tenía más TFLOPS (3.7 vs 3.25 en este caso particular). Pero... creo que estarás de acuerdo conmigo en que incluso siendo gráficas muy diferentes en arquitectura queda muy claro que son comparables en rendimiento. Si en lugar de un 13% de diferencia en FLOPS hubiera habido un 50%, te diría que son gamas diferentes, sea cual sea la arquitectura y la generación.

Saludos
Pollonidas escribió:
FranciscoVG escribió:No me compares rdna con ampere asi tan simple hombre, por que si lo simplificas tanto la 3070 ti y la 6900 xt tienen los mismos tflops prácticamente y la realidad es que la 6900 xt es un 30% superior en rendimiento, teniendo los mismos 22 tflops....

Para comparar las consolas con gpu de escritorio lo mejor es hacerlo con amd ya que comparten la misma arquitectura, xbox series x es basicamente una 6800 (No XT) a baja frecuencia lo que hace que rinda como una 6700 xt mas o menos, y la ps5 seria como una 6700 xt recortada que hace que rinda como una 6600 xt, eso simplificándolo mucho, y simplificandolo mas aun una ps5 estaria entre una 3060 y una 3060 ti y la series x entre una 3060 ti y 3070

Estoy de acuerdo en que es probablemente más razonable comparar las consolas con las gráficas de AMD que comparten arquitectura, como dije textualmente hay alguna consideración más, como por ejemplo el bus y ancho de banda de memoria y cambios de arquitectura de GPU como dices.

Pero si nos ponemos así, también habría que tener en cuenta que una consola es hardware cerrado, y que incluso con Vulkan siempre van a poder optimizar más y aprovechar mejor los recursos que en un PC con todas las configuraciones posibles que hay, habría que ponderar eso con un.. ¿+10-20%?. En resumen... en algún sitio hay que parar y "simplificar", y mantengo que los FLOPS son una buena medida de la potencia de cálculo bruta de una GPU (no necesariamente del rendimiento en juegos). Del rendimiento en juegos, vamos a decir que al menos dan una idea del rango en el que nos movemos, dejando un considerable margen de error, 30% o incluso más, de acuerdo.

Si quieres un ejemplo de esto, la 6900XT da en minería de ETH 64MH/s, la 3070 sin LHR (la Ti tienen LHR todas) da 62MH/s, ambas según minerstat, y... joder, son valores casualmente cercanos, la 6900XT le saca apenas un 3% rinda lo que rinda en juegos. Y mira que el algoritmo de ETH es muy dependiente del rendimiento de RAM. Vaya, que en este caso la AMD hace "más con menos" y se salta una gama hacia arriba para competir con la 3080 (incluso 3080Ti si me apuras), pero en potencia de cálculo pura y dura, no se llevan mucho.

Hay casos en los que ha sido al revés. Por ejemplo en GCN1.0 (7970) vs Kepler (GTX 680) el rendimiento en juegos era bastante parejo (ligera ventaja a favor de nvidia que se diluyó en unos meses según mejoraron los drivers) pero en este caso era la AMD la que tenía más TFLOPS (3.7 vs 3.25 en este caso particular). Pero... creo que estarás de acuerdo conmigo en que incluso siendo gráficas muy diferentes en arquitectura queda muy claro que son comparables en rendimiento. Si en lugar de un 13% de diferencia en FLOPS hubiera habido un 50%, te diría que son gamas diferentes, sea cual sea la arquitectura y la generación.

Saludos


Con lo que estoy alucinado es con las vueltas que eres capaz de darle a algo tan simple con tal de no admitir algo, que a ver yo no estoy diciendo que los tflops sea una medida inutil solo digo que no es un termino eficaz para comparar arquitecturas diferentes, el ejemplo esta bien claro pero hay innumerables mas, una 3090 ti tiene 40Tflops que es justo el doble de una 6800 xt, cuando ni de lejos tiene el doble de rendimiento en juegos, vamos que la 3090 tiene el doble de tflops un 100% pero luego el rendimiento en juegos igual es de un 20-30%, ¿te vale mejor ese ejemplo?

Todo el tema de la mineria no viene a cuento de nada estamos hablando de rendimiento en juegos, asi que comparar rendimiento de dos arquitecturas tan diferentes con unicamente esa medida de tflops es un error, si es que lo demas es irrelevante aqui, que ya ves tu tampoco pasa nada aqui todos hemos metido la gamba alguna vez seguro

Y por supuesto hay muchas variables hablando de hardware cerrado y simplificando muchisimo pero es que tu partes con un error de base, has insinuado que una 3070 ti es el doble de potente que una series x y ps5 y eso es falso, el tema de la optimizacion es algo diferente
aranparo79 escribió:Buenos días:

Estoy pendiente de adquirir una tarjeta gráfica para mi PC y he visto que las XBOX SERIES X y las PS5 pone en la caja que van a 4K. Me resulta curioso, porque quería pillarme una 3070ti y me dicen que esa tarjeta No me va a dar calidad de 4k, solo 1440p, que me pille una XBOX SERIES X mejor.

Mi pregunta es: ¿ Qué tarjeta rinde más que una XBOX SERIES X o PS5 ?

Gracias por vuestra atención

Dar resolución 4K hasta con las integradas se puede.
Si, las consolas dan 4K, pero cuando en PC te dicen que una 3070ti no es para 4K sino para 1440p es porque aquí se acostumbra hablar de jugar en todo en Ultra hasta las trancas, si se puede con Ray Tracing pues con Ray Tracing, resolución nativa de verdad nada de resoluciones dinámicas ni trucos de consola, y sin ninguna bajada de frames, y por supuesto, cualquier cosa por debajo de 60 FPS sólidos como rocas es inaceptable.

En consolas los juegos han estado saliendo con modos Rendimiento para llegar a 60 cuadros por segundo sacrificando calidad visual y resolución, o modo Calidad para jugar 4K pero sacrificando FPS, no tienes las dos cosas.
En PC cuando se habla de que una gráfica va para algo es porque puede con las dos cosas, calidad y rendimiento, en todos los juegos.

Las consolas no corren en Ultra de PC, si quieres bajar los gráficos para ajustarlos como consola o mejor con esa 3070ti te basta y sobra.
@Gnoblis

Aquí se habla con conocimiento de causa. ;)

Como ya he explicado antes, el forero mismo abrió hilo hará un par de meses pidiendo tarjeta (y equipo) para jugar a 4K Ultra. Se le explicó por extenso y entendió lo que le pareció. [beer]
lerelerele escribió:@Gnoblis

Aquí se habla con conocimiento de causa. ;)

Como ya he explicado antes, el forero mismo abrió hilo hará un par de meses pidiendo tarjeta (y equipo) para jugar a 4K Ultra. Se le explicó por extenso y entendió lo que le pareció. [beer]

Si, y está muy bien porque hay gente que se queda nada más con la resolución y no toma en cuenta otros aspectos gráficos.
@FranciscoVG Dijo la sartén al cazo... no pasa nada por reconocer un error (yo me equivoco el primero), pero por si acaso tú ahí sigues erre que erre. ¿En el rendimiento en juegos no hay que tener en cuenta entonces que una consola es un hardware cerrado, eso no afecta al rendimiento en juegos? ¿O es que te gustan los ejemplos que apoyan tu postura y no los que la contradicen? Lo de que una 3070Ti es el doble de potente que una PS5 lo has dicho tú, no yo, pero desde luego que hay un salto considerable, y sí, solo con los TFLOPS sobra para decir eso.
aranparo79 escribió:Buenos días:

Estoy pendiente de adquirir una tarjeta gráfica para mi PC y he visto que las XBOX SERIES X y las PS5 pone en la caja que van a 4K. Me resulta curioso, porque quería pillarme una 3070ti y me dicen que esa tarjeta No me va a dar calidad de 4k, solo 1440p, que me pille una XBOX SERIES X mejor.

Mi pregunta es: ¿ Qué tarjeta rinde más que una XBOX SERIES X o PS5 ?

Gracias por vuestra atención

Como te dicen ,el 4K de las consolas es "engañoso".
Suele ser a 30fps y con los settimgs en niveles medios o bajos.
Así una 3070Ti mueve basicamente casi todo a 4K
Digo casi todo, porque igual que las consolas ,hay juegos que no mueven a 4k ni bajando settings.

Cuando te dicen que una 3070ti no es para 4K, es porque hablan de mantener 60fps con calidad de settings en ultra o alto.
Y ahí, con algunos juegos podrá y con otros no..
Las consolas ,por supuesto que no.
De hecho, hay juegos en consola que dicen que son 4K ,y es mentira.Son de resolución variable.

Una 3070Ti es más potente que las consolas.
El 4K en consolas es, en muchas ocasiones, una resolución dinámica. Además de que los fps pueden oscilar entre 50-60. En PC, como ya han comentado, cuando se habla de resolución se hace en valores absolutos; es decir, en PC 4K siempre será 4K en las reviews y recomendaciones. Dicho esto, una 3070TI es bastante mejor que la GPU de las consolas actuales, pero hay que tener en cuenta que muchas veces la optimización de un juego de PC es peor. También depende de cómo quieras jugar. Si quieres 4K en PC sí o sí, la 3070TI te sirve, pero con el tiempo tendrás que bajar settings para mantener una alta tasa de fps. En consolas tal vez nunca llegues a jugar con los settings en ultra; se recortan aspectos gráficos para mantener esa resolución. Lo que quiero decir es que, para que un juego se vea bien, la resolución es solo un aspecto más a tener en cuenta entre muchos otros. Por ejemplo, yo tengo una 6700XT para jugar a 1080p, pero juego siempre en ultra a unos 90-120fps o más según el juego; y salvo por la resolución mis juegos se ven bastante mejor que en consolas.
  • Para encontrar una tarjeta que rinda similar, lo que debes hacer es buscar cómo rinde una tarjeta gráfica de la misma ensambladora y generación con especificaciones parecidas. En este caso, la más potente (Series X, RDNA2 de 12 TFLOPS) estaría entre la 6600XT (RDNA2 10 TFLOPS) y la 6700XT (RDNA2 13 TFLOPS).
  • El rendimiento en raytracing de las AMD es irregular, en cualquier caso netamente inferior al de las Nvidia, y la 6600XT y 6700XT tienen unidades dedicadas a raytracing que PS5/SeX no tienen, por lo que es esperable que estas gráficas se defiendan algo mejor cuando se utilice el raytracing, aunque en las versiones de consola de los juegos siempre vas a estar seguro de que la desarrolladora va a ajustar al milímetro para que el rendimiento sea bueno y los ajustes gráficos óptimos.
  • Una Nvidia con potencia de rasterizado similar a la 6600XT o la 6700XT va a rendir de todos modos mejor al utilizar DLSS, aunque no todos los juegos lo soportan, no en todos los juegos funciona igual de bien, y aunque en algunos juegos lo parece, no hace magia.
  • La Nvidia más pareja a la 6700XT y por tanto con potencia de rasterizado más similar a Series X es la 3060Ti
  • Es inevitable que el soporte de drivers o la atención al rendimiento de las desarrolladoras de los juegos en tarjetas que se van haciendo viejas vaya decayendo, lo que invariablemente resulta en tarjetas gráficas más potentes que las consolas rindiendo peor con el paso de los años. Por ejemplo, tuve una AMD HD 7950 mucho más potente que una PS4, y sin embargo juegos como Warzone hoy por hoy van mucho peor en la 7950 que en la PS4 (rendimiento pésimo con todo al mínimo, 720p y jaggies insufribles, mientras que en la consola mantiene el tipo).
Hola! Voy a darte mi punto de vista basado en las tarjetas que he tenido y las comparativas que he ido haciendo.

- Una 2070 Super rinde, respecto de PS5:
  • Rasterizado: entre un 80 y 100% del rendimiento de PS5
  • Ray Tracing: bastante más, no podría darte un valor pero quizá un 30-40% más que PS5
  • *1080ti, 3060ti, 2080 Super, 6700XT deberían rendir igual que una PS5 o ligeramente mejor en algunos casos

- Una 1070 rinde, respecto de Xbox Series S:
  • Rasterizado: aproximadamente un 100% del rendimiento de Series S
  • Ray Tracing: no sirve para Ray Tracing, directamente.
  • *980ti, 1070, 2060 y 6600 deberían rendir aproximadamente igual o mejor que una Series S.

- Una 3070 rinde, respecto de PS5 y Xbox Series X:
  • Rasterizado: un 10-15% más que PS5 y similar a Series X
  • Ray Tracing: bastante más, entre un 50-60% más
  • *6700XT y 2080TI deberían rendir aproximadamente igual que Series X. 3080 y 6800XT en adelante, mejor rendimiento.

No hablo de DLSS porque las consolas utilizan técnicas de escalado (checkerboarding) y resolución dinámica según el juego. No es igual, pero con esto también consiguen sacarle un rendimiento extra a la GPU.
LanzaTM escribió:El 4K en consolas es, en muchas ocasiones, una resolución dinámica. Además de que los fps pueden oscilar entre 50-60. En PC, como ya han comentado, cuando se habla de resolución se hace en valores absolutos; es decir, en PC 4K siempre será 4K en las reviews y recomendaciones. Dicho esto, una 3070TI es bastante mejor que la GPU de las consolas actuales, pero hay que tener en cuenta que muchas veces la optimización de un juego de PC es peor. También depende de cómo quieras jugar. Si quieres 4K en PC sí o sí, la 3070TI te sirve, pero con el tiempo tendrás que bajar settings para mantener una alta tasa de fps. En consolas tal vez nunca llegues a jugar con los settings en ultra; se recortan aspectos gráficos para mantener esa resolución. Lo que quiero decir es que, para que un juego se vea bien, la resolución es solo un aspecto más a tener en cuenta entre muchos otros. Por ejemplo, yo tengo una 6700XT para jugar a 1080p, pero juego siempre en ultra a unos 90-120fps o más según el juego; y salvo por la resolución mis juegos se ven bastante mejor que en consolas.

Tal cual.
De hecho, probé hace poco Far Cry 6 en Ps5 porque lo tenía mi hermano .
Estaba en 4K, pero yo al jugar ,sentía que eso era 1080p y que no estaba bien configurado.
Tuve que salirme a opciones f epantalla para verificar que era 4K.
Con eso ,te lo digo todo.

Que mal no se veía, pero vamos ,para ser 4K....Bueno...supuesto 4K...desde luego bajan settings por un tuvo,porque la sensación no es de un buen 4k.
Lo veo mejor ,pero mucho mejor en mi pc 1440p con todo en ultra

@zero2006xl
Eso no lo veo muy cierto
Teniendo en consola que los juegos para consola están mejor optimizados , una 3070 rinde más y mejor que ñS5 y que la Series X.
Eso te lo digo yo ,uqe tengo ambas consolas y tuve la 3070.
Una 3080 o una 3080Ti,ni te cuento.
Es más ,una de 3060ti también da mejores resultados que las consolas.Segiro.
hh1 escribió:
LanzaTM escribió:El 4K en consolas es, en muchas ocasiones, una resolución dinámica. Además de que los fps pueden oscilar entre 50-60. En PC, como ya han comentado, cuando se habla de resolución se hace en valores absolutos; es decir, en PC 4K siempre será 4K en las reviews y recomendaciones. Dicho esto, una 3070TI es bastante mejor que la GPU de las consolas actuales, pero hay que tener en cuenta que muchas veces la optimización de un juego de PC es peor. También depende de cómo quieras jugar. Si quieres 4K en PC sí o sí, la 3070TI te sirve, pero con el tiempo tendrás que bajar settings para mantener una alta tasa de fps. En consolas tal vez nunca llegues a jugar con los settings en ultra; se recortan aspectos gráficos para mantener esa resolución. Lo que quiero decir es que, para que un juego se vea bien, la resolución es solo un aspecto más a tener en cuenta entre muchos otros. Por ejemplo, yo tengo una 6700XT para jugar a 1080p, pero juego siempre en ultra a unos 90-120fps o más según el juego; y salvo por la resolución mis juegos se ven bastante mejor que en consolas.

Tal cual.
De hecho, probé hace poco Far Cry 6 en Ps5 porque lo tenía mi hermano .
Estaba en 4K, pero yo al jugar ,sentía que eso era 1080p y que no estaba bien configurado.
Tuve que salirme a opciones f epantalla para verificar que era 4K.
Con eso ,te lo digo todo.

Que mal no se veía, pero vamos ,para ser 4K....Bueno...supuesto 4K...desde luego bajan settings por un tuvo,porque la sensación no es de un buen 4k.
Lo veo mejor ,pero mucho mejor en mi pc 1440p con todo en ultra

@zero2006xl
Eso no lo veo muy cierto
Teniendo en consola uqe los juegos para consola están mejor optimizados , una 3070 rinde más y mejor que ñS5 y que la Series X.
Eso te lo digo yo ,uqe tengo ambas consolas y tuve la 3070.
Una 3080 o una 3080Ti,ni te cuento.
Es más ,una de 3060ti también da mejores resultados que las consolas.Segiro.


¿Y qué es lo que estoy diciendo? exactamente eso, que una 3070 rinde más que PS5 y similar a Series X (sin entrar a considerar tecnologías de reescalado). Puede haber diferencias según el juego y la optimización, decantándose a favor de la 3070, pero en términos generales es así. En Ray Tracing le da un buen baño la Nvidia a cualquier consola, pero en rendimiento general sin Ray Tracing no se puede generalizar y decir de manera absoluta que una 3070 es superior siempre a Series X. Lo de la 3080 y la 6800XT lo he puesto a rasgos generales, claro que rinden más que una Series X por eso la he puesto en la misma frase que la 2080TI como igual o mejor, lo que no quería era terminar con un testamento como voy a terminar ahora por tener que explicarlo todo al detalle porque si no de repente te llega alguien y te dice "eso no lo veo muy cierto".


To compare performance to the PC version (without DLSS and FSR), the footage uses gameplay sequences where the PS5 version drops below 60fps. The results are overwhelmingly positive for Sony’s flagship console, beating most of Nvidia’s RTX 2000-series GPUs. In particular, Digital Foundry believes that the performance of Death Stranding: Director’s Cut on PS5 is somewhere between the RTX 2080 and RTX 2080 Super. Below are average performance scores for various AMD and Nvidia GPUs compared to PS5:

RTX 2060 Super: 71% RX 5700: 75.4%. RX 5700XT: 83.5% RTX 2070 Super: 88.5%. RTX 2080: 96.6%


Y esto hablando de PS5. Si la GPU de Series X es superior a PS5, extrapola.

Fuentes:
https://www.eurogamer.net/digitalfoundr ... x-compared
https://www.aroged.com/2022/03/31/digit ... s5-and-pc/
Y mi experiencia de haber tenido: 1070, 2070 Super, 6700XT y 3070.
Hola buenas,

Yo voy a dar mi humilde opinión, creo que el problema que han tenido los usuarios de consola en esta generación es que las compañías consoleras vendieron al gran publico datos falseados al principio cuando salieron, la gran mayoría de publico menos entendido en estas materias se dedicaron a sumar 2+2 y todos sabemos que en tecnología la cuenta de la vieja no es siempre es la mas correcta, hay muchas maneras de ofrecer ciertos números llamativos sin querer decir que estén al mismo nivel que un producto que pudiese arrojar datos similares a simple vista, no se si me explico.

Para entrar un poco en materia la consolas ofrecen un gran rendimiento para el precio que tienen, eso es indudable, y para una persona que sea de sit & play sin preocuparse de mas cuestiones o que directamente los fps y esas historias le den igual es desde luego la mejor opción, el problema es cuando empiezan las comparaciones, una tarjeta grafica en una consola no funciona igual que en un pc, ni puedes comparar los teraflops de ambas así como así, no voy a meter un tochazo técnico pero tenéis por ahí muy buenas explicaciones del mito de la teraflops en consola y burradas como aquellos que afirmaron en su dia que con un PS5 tendría una RTX 2080 super de rendimiento y por menos de la mitad de precio que un PC gaming completo, la realidad es bien distinta, para mi a groso modo viene a ser como decir que en tu móvil tienes una cámara que te va a dar el mismo rendimiento que una cámara réflex profesional, el precio de los componentes esta ahora desorbitado eso es una realidad, no es el mejor momento para montarse un PC gaming, pero bajo mi punto de vista no hay comparación posible ya todo depende de lo que entiendas por buscar algo similar, yo si fuera tu me preguntaría que tipo de persona soy a nivel tecnológico y como de exigente eres con la imagen, si eres de los que busca mas fps, si prefieres menos fps pero todo en ultra, en función a eso podría recomendarte algo mas pero si el tope que pones es que llegues al nivel de una PS5 lo tienes sencillo.

Un saludo
una 2060-2060 super tiraras parecido a una ps5, xbox series x, ahora mismo apenas tienen diferencias estas dos consolas.
Pollonidas escribió:
FranciscoVG escribió:No me compares rdna con ampere asi tan simple hombre, por que si lo simplificas tanto la 3070 ti y la 6900 xt tienen los mismos tflops prácticamente y la realidad es que la 6900 xt es un 30% superior en rendimiento, teniendo los mismos 22 tflops....

Para comparar las consolas con gpu de escritorio lo mejor es hacerlo con amd ya que comparten la misma arquitectura, xbox series x es basicamente una 6800 (No XT) a baja frecuencia lo que hace que rinda como una 6700 xt mas o menos, y la ps5 seria como una 6700 xt recortada que hace que rinda como una 6600 xt, eso simplificándolo mucho, y simplificandolo mas aun una ps5 estaria entre una 3060 y una 3060 ti y la series x entre una 3060 ti y 3070

Estoy de acuerdo en que es probablemente más razonable comparar las consolas con las gráficas de AMD que comparten arquitectura, como dije textualmente hay alguna consideración más, como por ejemplo el bus y ancho de banda de memoria y cambios de arquitectura de GPU como dices.

Pero si nos ponemos así, también habría que tener en cuenta que una consola es hardware cerrado, y que incluso con Vulkan siempre van a poder optimizar más y aprovechar mejor los recursos que en un PC con todas las configuraciones posibles que hay, habría que ponderar eso con un.. ¿+10-20%?. En resumen... en algún sitio hay que parar y "simplificar", y mantengo que los FLOPS son una buena medida de la potencia de cálculo bruta de una GPU (no necesariamente del rendimiento en juegos). Del rendimiento en juegos, vamos a decir que al menos dan una idea del rango en el que nos movemos, dejando un considerable margen de error, 30% o incluso más, de acuerdo.

Si quieres un ejemplo de esto, la 6900XT da en minería de ETH 64MH/s, la 3070 sin LHR (la Ti tienen LHR todas) da 62MH/s, ambas según minerstat, y... joder, son valores casualmente cercanos, la 6900XT le saca apenas un 3% rinda lo que rinda en juegos. Y mira que el algoritmo de ETH es muy dependiente del rendimiento de RAM. Vaya, que en este caso la AMD hace "más con menos" y se salta una gama hacia arriba para competir con la 3080 (incluso 3080Ti si me apuras), pero en potencia de cálculo pura y dura, no se llevan mucho.

Hay casos en los que ha sido al revés. Por ejemplo en GCN1.0 (7970) vs Kepler (GTX 680) el rendimiento en juegos era bastante parejo (ligera ventaja a favor de nvidia que se diluyó en unos meses según mejoraron los drivers) pero en este caso era la AMD la que tenía más TFLOPS (3.7 vs 3.25 en este caso particular). Pero... creo que estarás de acuerdo conmigo en que incluso siendo gráficas muy diferentes en arquitectura queda muy claro que son comparables en rendimiento. Si en lugar de un 13% de diferencia en FLOPS hubiera habido un 50%, te diría que son gamas diferentes, sea cual sea la arquitectura y la generación.

Saludos



Pensar que desde la serie rtx 3000 han metido dos unidades de coma flotante por pixel shader, doblando el rendimiento teórico de Tflops y de cuda cores pero realmente sería la mitad real, a nivel de pixel shaders completos. Por eso una 3070ti dobla en Tflops a una 6900xt pero el rendimiento en, por ejemplo, videojuegos no es asi.

Respecto a la pregunta del creador del hilo, una 3060 rinde mas o menos como una ps5/xbox x. Para lograr el 4k utilizan desde resoluciones dinamicas y los settings de los juegos no estan a ultra ni mucho menos y sin contat con que los juegos normalmente estan mejor optimizados para consolas. Tambien en pc ocurre que tenemos “ultritis” queremos todo al maximo, y casi siempre la diferencia entre ultra y alto apenas se nota en pantalla pero si en menos fps.
colado escribió:Pensar que desde la serie rtx 3000 han metido dos unidades de coma flotante por pixel shader, doblando el rendimiento teórico de Tflops y de cuda cores pero realmente sería la mitad real, a nivel de pixel shaders completos. Por eso una 3070ti dobla en Tflops a una 6900xt pero el rendimiento en, por ejemplo, videojuegos no es asi.

Eso que comentas es irrelevante, los TFLOPS teóricos (que es lo que suelen dar los fabricantes) se calculan simple y llanamente con la siguiente fórmula:
[nº shaders] x [frecuencia (normalmente en boost)] x [operaciones de FP por ciclo (normalmente 2 en 32 bits en una GPU de los últimos años)]

Por ejemplo,
En una 3090Ti:
10752 x 1860 x 2 / 10^6 = 39.997 TFLOPS en FP32 (redondeando los 40 que dicen oficialmente)

En una 2080Ti:
10752 x 1860 x 2 / 10^6 = 13.447 TFLOPS en FP32

En una RX6900XT:
5120 x 2250 x 2 / 10^6 = 23.040 TFLOPS (en FP16, con la actual arquitectura de AMD, son 4 en lugar de 2 operaciones por ciclo, así que justamente el doble, 46.080 TFLOPS)

Nadie está diciendo que no pueda haber diferencias significativas en juegos a similares TFLOPS, de hecho dije claramente en el primer post que escribí en este tema que había más consideraciones, y aún así me han saltado a la yugular como ya dije que pasaría. Y sigo diciendo que es una medida bastante objetiva del "músculo" de una GPU. Tampoco dividirlo por 2 en el caso de nvidia por lo que comentas de la serie RTX 3000 me parece muy justo, porque entonces una Titan RTX de la pasada generación con 16 TFLOPS estaría por encima de una 3080 (30.6 / 2), cosa a todas luces falsa.

Por mi parte ya he ignorado a dicho usuario, leo demasiadas tonterías en mi día a día como para tener que soportar en un foro más de lo mismo. Que cada cual lea, se informe, y saque sus conclusiones.

Saludos
Cada vez que se comparan consolas con PCs, Dios debería expulsar a un forero. Ya casi no le quedan gatos.
rafalillo10 escribió:Hola buenas,

Yo voy a dar mi humilde opinión, creo que el problema que han tenido los usuarios de consola en esta generación es que las compañías consoleras vendieron al gran publico datos falseados al principio cuando salieron, la gran mayoría de publico menos entendido en estas materias se dedicaron a sumar 2+2 y todos sabemos que en tecnología la cuenta de la vieja no es siempre es la mas correcta, hay muchas maneras de ofrecer ciertos números llamativos sin querer decir que estén al mismo nivel que un producto que pudiese arrojar datos similares a simple vista, no se si me explico.

Para entrar un poco en materia la consolas ofrecen un gran rendimiento para el precio que tienen, eso es indudable, y para una persona que sea de sit & play sin preocuparse de mas cuestiones o que directamente los fps y esas historias le den igual es desde luego la mejor opción, el problema es cuando empiezan las comparaciones, una tarjeta grafica en una consola no funciona igual que en un pc, ni puedes comparar los teraflops de ambas así como así, no voy a meter un tochazo técnico pero tenéis por ahí muy buenas explicaciones del mito de la teraflops en consola y burradas como aquellos que afirmaron en su dia que con un PS5 tendría una RTX 2080 super de rendimiento y por menos de la mitad de precio que un PC gaming completo, la realidad es bien distinta, para mi a groso modo viene a ser como decir que en tu móvil tienes una cámara que te va a dar el mismo rendimiento que una cámara réflex profesional, el precio de los componentes esta ahora desorbitado eso es una realidad, no es el mejor momento para montarse un PC gaming, pero bajo mi punto de vista no hay comparación posible ya todo depende de lo que entiendas por buscar algo similar, yo si fuera tu me preguntaría que tipo de persona soy a nivel tecnológico y como de exigente eres con la imagen, si eres de los que busca mas fps, si prefieres menos fps pero todo en ultra, en función a eso podría recomendarte algo mas pero si el tope que pones es que llegues al nivel de una PS5 lo tienes sencillo.

Un saludo

Exacto.
Es que no se pueden comparar técnicamente.
Porque ni las gráficas rinden igual, ni las voy son iguales ,ni los juegos están igual optimizados.

Es todo más sencillo que eso.
Pruebas un juego en pc y el mismo en consola.Ya está.
No hay más.
Por eso dije que yo tengo ambas consolas ,yo tuve la 3070, y toooodo lo que podía jugar en pc lo jugaba en pc porque una 3070 se cepilla. A las consolas sin miramientos.
Es la realidad.

Si es que hace nada he probado Far Cry 6 en PS5 y he tenido que mirar si estaba a 4K...no me jodas.Y vaya si lo estaba.
No me daba ni de lejos esas sensación gráfica
Y pruebas en pc que lo juego en 1440p y le da 40 patadas.
Por poner un ejemplo.
25 respuestas