[Hilo Oficial] PS5

flipadin1 escribió:
dFamicom escribió:Tranquilidad, no estropeemos el hilo. Cada cual se compre lo que quiera o pueda. Yo tengo una 4k recientemente y por nada del mundo vuelvo a 1080p y el dia que salga 8k pues si mi la cartera me lo permite ya veremos lo que pasa.



Evidentemente y es lo q he puesto yo. No se a que viene la salida de tiesto de nano diciéndome lo q tengo q quedarme y no. Pero bueno aquí por suerte o desgracia ya nos conocemos casi todos y ya le conozco por otras salidas de tono q ha tenido con otra gente q vamos no me quita el sueño para nada.

El único que se a salido eres tú , léete primero antes de criticar a los demás .
Tú eres el que empezó a hablar de experto , experto que dicen lo que tú quieras , pues tu mismo , esos mismos experto decían que el 4k era un timo .
Primero mira lo que tú haces antes de criticar a los demás .
Buenas gente. Mucho estáis hablando de resoluciones 8K y demás y me da a mi en la nariz que tanto PS5 como Xbox Scarlet van a usar técnicas de reconstrucción para llegar a 4K como ahora hacen Ps4 Pro y Xbox One X.

Un saludo.
Polyteres escribió:Buenas gente. Mucho estáis hablando de resoluciones 8K y demás y me da a mi en la nariz que tanto PS5 como Xbox Scarlet van a usar técnicas de reconstrucción para llegar a 4K como ahora hacen Ps4 Pro y Xbox One X.

Un saludo.

Y también podrían hace lo mismo para llegar a 8k .
Esta claro que nadie está diciendo que sea 8k nativos o reales , sería una tontería , vamos los mismo que los 4k en PS4 pro .
Todo dependerá de la ganas de querer vender TV 8k y los métodos para reescalar a 8k a partir de x resolución .
https://www.noticias3d.com/noticia.asp?idnoticia=76581

Yo creo que algo de raytracing en la parte custom de cada una si le van a meter
chris76 escribió:https://www.noticias3d.com/noticia.asp?idnoticia=76581

Yo creo que algo de raytracing en la parte custom de cada una si le van a meter

Lo dudo mucho , solo tienes que ver los resultados en una gtx2080 para darse cuenta que el raytracing le queda mucho tiempo , quizás para ps6 , por ahora imposible tanto en rendimiento como consumo .
Veo mas cerca los 8k no reales al raytracing .
HongKi está baneado por "Game over"
HongKi escribió:https://www.playstation.com/es-es/explore/ps4/my-ps4-life/

vaya despedida de PS4, no? XD

Las mismas despedidas que se hacía en ps3/xbox360 y ahora ps4/xboxone cada mes de diciembre.
HongKi escribió:https://www.playstation.com/es-es/explore/ps4/my-ps4-life/

vaya despedida de PS4, no? XD


A mi no me crea el video, me da siempre error :-?
chris76 escribió:https://www.noticias3d.com/noticia.asp?idnoticia=76581

Yo creo que algo de raytracing en la parte custom de cada una si le van a meter


Espero que no se metan para nada con el raytracing, porque será marketing en la mayor parte. Esta demasiado verde en Pc, en consolas ya sería un despropósito en cuanto a efectividad y rendimiento...
IridiumArkangel escribió:
chris76 escribió:https://www.noticias3d.com/noticia.asp?idnoticia=76581

Yo creo que algo de raytracing en la parte custom de cada una si le van a meter


Espero que no se metan para nada con el raytracing, porque será marketing en la mayor parte. Esta demasiado verde en Pc, en consolas ya sería un despropósito en cuanto a efectividad y rendimiento...

El Batllefield 5 ha aumentado 15-20 fps cuando usa DXR sólo con un parche. 2 años en tecnología es mucho tiempo.

El Raytracing es el factor diferencial, no dar soporte es un riesgo a estar un pasito por detrás. El error de Nvidia ha sido que utilizar Raytracing afecta negativamente al renderizado, no suma.
Respecto a los que comentáis de las resoluciones. Yo siempre leí que para por ejemplo notar un 4K debías tener una tv de unas dimensiones grandecitas y estar relativamente a una corta distancia. Pues bien, yo tengo un monitor de 27" 1080p que se ve bastante bien y mi hermano se ha comprado un monitor 28" 4K. Os puedo decir que a un metro, metro y medio, las diferencias entre los dos monitores son bastante bestia. Se nota, y mucho :-?
nanoxxl escribió:
chris76 escribió:https://www.noticias3d.com/noticia.asp?idnoticia=76581

Yo creo que algo de raytracing en la parte custom de cada una si le van a meter

Lo dudo mucho , solo tienes que ver los resultados en una gtx2080 para darse cuenta que el raytracing le queda mucho tiempo , quizás para ps6 , por ahora imposible tanto en rendimiento como consumo .
Veo mas cerca los 8k no reales al raytracing .

Si te fijas en los exclusivos de sony veras que tienen una iluminacion especial,la api de sony tiene como una "secret sauce",asi que yo si espero algun sucedaneo del raytracing o de esta caracteristica ya existente en los exclusivos
osan escribió:Respecto a los que comentáis de las resoluciones. Yo siempre leí que para por ejemplo notar un 4K debías tener una tv de unas dimensiones grandecitas y estar relativamente a una corta distancia. Pues bien, yo tengo un monitor de 27" 1080p que se ve bastante bien y mi hermano se ha comprado un monitor 28" 4K. Os puedo decir que a un metro, metro y medio, las diferencias entre los dos monitores son bastante bestia. Se nota, y mucho :-?



Sí se nota. No entiendo los que dicen que no se nota, la verdad. Lo mismo que los que dicen que un móvil tampoco se nota. Es verdad que debe haber un punto en el que el ojo no lo distinga pero ese límite no es 30" a 2 metros ni 7" a 40cm.
Luzbel_bcn escribió:
HongKi escribió:https://www.playstation.com/es-es/explore/ps4/my-ps4-life/

vaya despedida de PS4, no? XD

Las mismas despedidas que se hacía en ps3/xbox360 y ahora ps4/xboxone cada mes de diciembre.


Sí, estos recopilatorios de datos de perfil son habituales. 226 juegos jugados en 5 años de Ps4, not bad...
Joder con lo de ps4 life, top 3 de juegos mas jugados bloodborne con 115 horas XD No sabia que habia jugado tanto. Dep ps4 hola ps5 en noviembre de 2019.
alvarions escribió:Joder con lo de ps4 life, top 3 de juegos mas jugados bloodborne con 115 horas XD No sabia que habia jugado tanto. Dep ps4 hola ps5 en noviembre de 2019.


A mi el que me ha sorprendido es el The Witcher 3 con 203 horas, que recuerdo que le di mucho, pero no recordaba que fuera tanto jejeje. El que mas horas al Destiny 2
HongKi está baneado por "Game over"
@IridiumArkangel ironia no?
pues yo acabo de probar lo de ps4 life y el mio tiene que estar mal o algo porque al juego que mas he jugado es the binding of isaac y ni si quiera lo tengo en el top 3xD que decepcion.. :( es mas mi primer videojuego fue TBOI y pone que es stardew valley que lo compre una semana despues...
A mi me ha salido 1221 horas en The Division y 989 en Rainbow Six Siege. Luego ya 150 en FFXV...

Jajajaja, creo que es evidente a que juego mas xD

PD: lo peor es que es 100% real xD
Y yo preocupado por jugar 153 horas a un juego [qmparto] Estos videos vayan bien o mal son un jode vidas jeje
Aviso para los que habéis visto vuestro video personalizado:
"Esta opción te suscribirá a nuestras comunicaciones de marketing, pero podrás cancelar la suscripción en cualquier momento haciendo clic en ‘Anular suscripción’."
Lo lógico en el mundillo. Aún como te lo dicen.
HongKi está baneado por "Game over"
@IridiumArkangel no es lo mismo ni de coña xD
Hay uno que conozco que le sale que ha jugado 4000 horas a Driveclub. Por si alguno se cree que había jugado mucho a ese juego. CC @David Ricardo
slimcharles escribió:Hay uno que conozco que le sale que ha jugado 4000 horas a Driveclub. Por si alguno se cree que había jugado mucho a ese juego. CC @David Ricardo

Me salieron 913. Pocas me parecen...
HongKi escribió:@IridiumArkangel no es lo mismo ni de coña xD


Trofeo más raro, juego al que más se ha jugado, las horas que le has metido...

Sí es lo mismo sí, sólo que esos son datos sobre la base de 1 año y esto de ahora es sobre la base de 5 años desde que se lanzó la consola. Que tu lo quieres ver como "la despedida" de Ps4!? Oye, pues tu mismo.
"Suscripción" cancelada....

Imagen

Que cachondos, encima dando pena.... [qmparto] [qmparto] [qmparto] [qmparto]
chris76 escribió:
nanoxxl escribió:
chris76 escribió:https://www.noticias3d.com/noticia.asp?idnoticia=76581

Yo creo que algo de raytracing en la parte custom de cada una si le van a meter

Lo dudo mucho , solo tienes que ver los resultados en una gtx2080 para darse cuenta que el raytracing le queda mucho tiempo , quizás para ps6 , por ahora imposible tanto en rendimiento como consumo .
Veo mas cerca los 8k no reales al raytracing .

Si te fijas en los exclusivos de sony veras que tienen una iluminacion especial,la api de sony tiene como una "secret sauce",asi que yo si espero algun sucedaneo del raytracing o de esta caracteristica ya existente en los exclusivos

Y que tiene que ver , estas diciendo que ps4 tiene raytracing ?.
Mira vídeos sobre el raytracing y veras que ni con una GPU de 1000€ va bien , en una prueba con una gtx2080 al activar el raytracing se reducía a la mitad los fps , eso en una consola es igual a 30fps y resolución 4k dinámicos ( ni 4k real ) .
Yo creo que podemos estar una generación de estas cortas sin Raytracing y sin 8k, de todas maneras, si vienen, vendrán por consola intergeneracional, que yo prefiero que no salga y que ps6 se anuncie a los 5-6 años y ps5 salga potente y aguante el tirón.
@nanoxxl no tiene raytracing lógicamente,pero su api propia o su parte custom si tiene "algo" que hace que sus exclusivos luzcan una iluminacion mucho más real asi que si la próxima ps5 no lleva nada de raytracing almenos tendra una evolución de esto
chris76 escribió:@nanoxxl no tiene raytracing lógicamente,pero su api propia o su parte custom si tiene "algo" que hace que sus exclusivos luzcan una iluminacion mucho más real asi que si la próxima ps5 no lleva nada de raytracing almenos tendra una evolución de esto

Que tenga una iluminación especial no se , que no tendrá raytracing es seguro , si la propia AMD a dicho que no usará eso en sus GPU , es por qué saben que es pronto .
Otra cosa es tener un buen TV oled para aprovechar el raytracing , por que eso en una TV normalita dudo que se note .
Yo sí tengo que elegir entre raytracing o 60fps y 4k real me quedo con esto .
https://m.xataka.com/videojuegos/ray-tr ... eno-abismo
Noctisblue está baneado por "Saltarse el ban con un clon"
Hombre los los ratitos de luces no estará para nada.

Si lo sacaran para la futura consolas solo sería posible vía el "poder de la nube" kakajajaja no se si habrá algo de potenciar la consola vía streaming.. Pero vaya no contaría mucho con ello.

Prefiero por ahora potencia suficiente para hacer buenos juegos con las VR y 12tflosp con zen2 puede hacer maravillas.
Y ver RDR 2 a 60fps ( que se que no lo veré puesto que aunque va a mejorar mucho la cpu con respecto a ps4 aun así creo que será una cpu poco potente)
Pero viendo lo que tenemos el futuro solo se espera mejor.
Noctisblue escribió:Hombre los los ratitos de luces no estará para nada.

Si lo sacaran para la futura consolas solo sería posible vía el "poder de la nube" kakajajaja no se si habrá algo de potenciar la consola vía streaming.. Pero vaya no contaría mucho con ello.

Prefiero por ahora potencia suficiente para hacer buenos juegos con las VR y 12tflosp con zen2 puede hacer maravillas.
Y ver RDR 2 a 60fps ( que se que no lo veré puesto que aunque va a mejorar mucho la cpu con respecto a ps4 aun así creo que será una cpu poco potente)
Pero viendo lo que tenemos el futuro solo se espera mejor.

Zen 2 mueve RDR2 a 60fps con la punta del microchip. Incluso podría moverlo a 120fps. El gran salto la próxima gen va a ser en CPU.
nanoxxl escribió:
chris76 escribió:@nanoxxl no tiene raytracing lógicamente,pero su api propia o su parte custom si tiene "algo" que hace que sus exclusivos luzcan una iluminacion mucho más real asi que si la próxima ps5 no lleva nada de raytracing almenos tendra una evolución de esto

Que tenga una iluminación especial no se , que no tendrá raytracing es seguro , si la propia AMD a dicho que no usará eso en sus GPU , es por qué saben que es pronto .
Otra cosa es tener un buen TV oled para aprovechar el raytracing , por que eso en una TV normalita dudo que se note .
Yo sí tengo que elegir entre raytracing o 60fps y 4k real me quedo con esto .
https://m.xataka.com/videojuegos/ray-tr ... eno-abismo

Ahí tenemos que AMD usará Raytracing:

https://www.amd.com/es/technologies/radeon-rays

No hace falta tener una OLED para ver mejor la iluminación por Raytracing, ni HDR ni cosas por el estilo. Por supuesto, la calidad de imagen sería superior.


@chris76 actualmente, hay juegos que cuentan con iluminación volumétrica y son espectaculares, como RDR 2. Otros, usan otras técnicas y el resultado también es muy bueno, como GT Sport o Forza Horizon. Lo que tienen en común es que todo es precalculado. Simplificando, el Raytracing convertiría eso a tiempo real.
Yo es que de momento no veo qué tiene de bueno el raytracing. Veo videos comparativos con y sin raytracing, y no sé qué versión es cuál. Y el frame rate baja a la mitad.

Se nota algo en los reflejos, pero ¿quién se para a mirar si lo que sale en el reflejo es exactamente lo que tiene que salir mientras está jugando? Eso no afecta en nada al aspecto general del juego.
Xlooser escribió:Ahí tenemos que AMD usará Raytracing:

https://www.amd.com/es/technologies/radeon-rays

No hace falta tener una OLED para ver mejor la iluminación por Raytracing, ni HDR ni cosas por el estilo. Por supuesto, la calidad de imagen sería superior.

Y eso en que GPU AMD se usa , por que creo que AMD dijo que hasta que no sea posible en todas las gamas no lo metería .
Hombre meter una técnica que baja a más de 50% el rendimiento y que se basa en efectos de iluminación , está claro que oled o gama alta , por qué en una gama media o baja dudo que le saques el provecho a los efectos de iluminación en tiempo real si la TV no es capaz me mostrar lo , solo en una oled o similar notarias el 100% de la calidad , y si es en una TV sin HDR yo creo que ni se notará la diferencia de estar o no activado .
Yo para el rendimiento que tiene prefiero 4k a 60fps y HDR .
nanoxxl escribió:
Xlooser escribió:Ahí tenemos que AMD usará Raytracing:

https://www.amd.com/es/technologies/radeon-rays

No hace falta tener una OLED para ver mejor la iluminación por Raytracing, ni HDR ni cosas por el estilo. Por supuesto, la calidad de imagen sería superior.

Y eso en que GPU AMD se usa , por que creo que AMD dijo que hasta que no sea posible en todas las gamas no lo metería .
Hombre meter una técnica que baja a más de 50% el rendimiento y que se basa en efectos de iluminación , está claro que oled o gama alta , por qué en una gama media o baja dudo que le saques el provecho a los efectos de iluminación en tiempo real si la TV no es capaz me mostrar lo , solo en una oled o similar notarias el 100% de la calidad , y si es en una TV sin HDR yo creo que ni se notará la diferencia de estar o no activado .
Yo para el rendimiento que tiene prefiero 4k a 60fps y HDR .

Eso sólo demuestra que AMD trabaja en ello, no que lo meta en todas, y en una APU semi-personalizada como la de una consola pueden poner lo que quieran. De todas maneras, no me trago que AMD deje de implementar hardware en una tarjeta de 700-800 euros porque no puede ponerlo en una de 100.

El concepto de Raytracing no tiene nada que ver con el panel de visionado. Ya estás viendo Raytracing en las CGI y películas de animación, y en una LCD SDR lo ves bien, mejor que si no lo utilizaran. El único cambio va a ser que ahora estará en tiempo real. Por supuesto, al inicio estará muy limitado.

Compara la iluminación de los juegos de hoy con los de hace 15 años ¿necesitas una OLED HDR?
Xlooser escribió:
nanoxxl escribió:
Xlooser escribió:Ahí tenemos que AMD usará Raytracing:

https://www.amd.com/es/technologies/radeon-rays

No hace falta tener una OLED para ver mejor la iluminación por Raytracing, ni HDR ni cosas por el estilo. Por supuesto, la calidad de imagen sería superior.

Y eso en que GPU AMD se usa , por que creo que AMD dijo que hasta que no sea posible en todas las gamas no lo metería .
Hombre meter una técnica que baja a más de 50% el rendimiento y que se basa en efectos de iluminación , está claro que oled o gama alta , por qué en una gama media o baja dudo que le saques el provecho a los efectos de iluminación en tiempo real si la TV no es capaz me mostrar lo , solo en una oled o similar notarias el 100% de la calidad , y si es en una TV sin HDR yo creo que ni se notará la diferencia de estar o no activado .
Yo para el rendimiento que tiene prefiero 4k a 60fps y HDR .

Eso sólo demuestra que AMD trabaja en ello, no que lo meta en todas. De todas maneras, no me trago que AMD no implemente hardware en una tarjeta de 700-800 euros porque no puede ponerlo en una de 100.

El concepto de Raytracing no tiene nada que ver con el panel de visionado. Ya estás viendo Raytracing en las CGI y películas de animación, y en una LCD SDR lo ves bien, mejor que si no lo utilizaran. El único cambio va a ser que ahora estará en tiempo real. Por supuesto, al inicio estará muy limitado.

Compara la iluminación de los juegos de hoy con los de hace 15 años ¿necesitas una OLED HDR?

Lo a dicho AMD , no yo .
A qué una PS4 se ve igual en una buena TV de ahora que en una TV de hace 15 años ? .
@nanoxxl es decir, si en otros campos no se avanza, yo no avanzo. No creo que la mentalidad empresarial funcione así.

Evidentemente en una TV de ahora se ve mejor la PS4, y sin esclado, la Gamecube también. Las mejoras gráficas no van de la mano con las mejoras en un panel, son caminos diferentes, pon la PS4 en una televisión de tubo y lo verás mucho mejor que una PS2.
Noctisblue está baneado por "Saltarse el ban con un clon"
David Ricardo escribió:
Noctisblue escribió:Hombre los los ratitos de luces no estará para nada.

Si lo sacaran para la futura consolas solo sería posible vía el "poder de la nube" kakajajaja no se si habrá algo de potenciar la consola vía streaming.. Pero vaya no contaría mucho con ello.

Prefiero por ahora potencia suficiente para hacer buenos juegos con las VR y 12tflosp con zen2 puede hacer maravillas.
Y ver RDR 2 a 60fps ( que se que no lo veré puesto que aunque va a mejorar mucho la cpu con respecto a ps4 aun así creo que será una cpu poco potente)
Pero viendo lo que tenemos el futuro solo se espera mejor.

Zen 2 mueve RDR2 a 60fps con la punta del microchip. Incluso podría moverlo a 120fps. El gran salto la próxima gen va a ser en CPU.


Si pero no creo que PS5 lleve el zen2 de 60 núcleos a 10ghz cada uno. Llevará uno personalizado y tirando a flojo. Para abaratar.
Pero 10 veces mejor que el de ahora. Que es mucho.
Noctisblue escribió:Si pero no creo que PS5 lleve el zen2 de 60 núcleos a 10ghz cada uno. Llevará uno personalizado y tirando a flojo. Para abaratar.
Pero 10 veces mejor que el de ahora. Que es mucho.

Una CPU 10 veces más potente que otra que corre un juego a 30 fps, puede correr el mismo juego a 300 fps.
No sé cómo será la CPU finalmente, pero en foros americanos calculan a ojímetro que será unas 6 veces más potente. Pues 6 veces más que 30 son 180fps. Así que podría correr RDR2 perfectamente a 120fps. Otra cosa es que no lo veremos porque eso no lo aprecia ni lo pide nadie, y la GPU para mover todos esos frames tendría que bajar resolución, pero posible es.
David Ricardo escribió:
Noctisblue escribió:Si pero no creo que PS5 lleve el zen2 de 60 núcleos a 10ghz cada uno. Llevará uno personalizado y tirando a flojo. Para abaratar.
Pero 10 veces mejor que el de ahora. Que es mucho.

Una CPU 10 veces más potente que otra que corre un juego a 30 fps, puede correr el mismo juego a 300 fps.
No sé cómo será la CPU finalmente, pero en foros americanos calculan a ojímetro que será unas 6 veces más potente. Pues 6 veces más que 30 son 180fps. Así que podría correr RDR2 perfectamente a 120fps. Otra cosa es que no lo veremos porque eso no lo aprecia ni lo pide nadie, y la GPU para mover todos esos frames tendría que bajar resolución, pero posible es.

En serio? Espero que estés troleando...
susinsin escribió:En serio? Espero que estés troleando...

Explícame mi error, por favor. Siempre estoy dispuesto a aprender cosas nuevas.
Xlooser escribió:@nanoxxl es decir, si en otros campos no se avanza, yo no avanzo. No creo que la mentalidad empresarial funcione así.

Evidentemente en una TV de ahora se ve mejor la PS4, y sin esclado, la Gamecube también. Las mejoras gráficas no van de la mano con las mejoras en un panel, son caminos diferentes, pon la PS4 en una televisión de tubo y lo verás mucho mejor que una PS2.

Prueba una PS4 en una tele de tubo en blanco y negro , verás lo bien que se ve .
Por mucho que mejores la consola si el panel no es capaz de mostrar lo que le manda la consola es imposible ver lo que genera la consola y en las TV como en videojuea se está avanzando en temas de iluminación ( los oled tiene iluminación por pixel y en videojuegos Raytracing ) , pero una Xbox one x con un juego en 4k y HDR se ve mil veces mejor en una TV 4k con HDR buena que en una vieja TV hdready ( 720p ) .
David Ricardo escribió:
susinsin escribió:En serio? Espero que estés troleando...

Explícame mi error, por favor. Siempre estoy dispuesto a aprender cosas nuevas.



Es que has soltado una burrada más grande que el Empire State [sonrisa]

Por decirlo de una manera sencilla, la relación entre el aumento de desempeño en una cpu, y los fotogramas, no, repito, no de ninguna de las maneras, es lineal.

Dicho mal y pronto, podría decirse que hay una correlación exponencial dependiente de muchos factores, y aunque un aumento muy significativo podría dar un empuje gordo, jamás de los jamases hablariamos de aumento x10 de la cpu = aumento x10 de los fotogramas.
metaljules escribió:
David Ricardo escribió:
susinsin escribió:En serio? Espero que estés troleando...

Explícame mi error, por favor. Siempre estoy dispuesto a aprender cosas nuevas.



Es que has soltado una burrada más grande que el Empire State [sonrisa]

Por decirlo de una manera sencilla, la relación entre el aumento de desempeño en una cpu, y los fotogramas, no, repito, no de ninguna de las maneras, es lineal.

Dicho mal y pronto, podría decirse que hay una correlación exponencial dependiente de muchos factores, y aunque un aumento muy significativo podría dar un empuje gordo, jamás de los jamases hablariamos de aumento x10 de la cpu = aumento x10 de los fotogramas.

Correlación exponencial quiere decir que para sacar el doble de frames hace falta más del doble de potencia no? Es decir, que igual para doblar los frames hace falta el triple o cuádruple de potencia. Y para cuadruplicarlos igual 16 o más veces la potencia?

Yo es que la lógica que apliqué, que deduzco está equivocada, es que si puede hacer 10 veces los cálculos por segundo, puede procesar 10 veces los frames por segundo. Pero igual puede hacer 10 veces los cálculos pero no hacer los mismos cálculos en la décima parte del tiempo, no? O es que puede hacer cálculos más complejos, pero no realmente los simples 10 veces más rápido?

Es algo que no entiendo pero me interesa.
metaljules escribió:
David Ricardo escribió:
susinsin escribió:En serio? Espero que estés troleando...

Explícame mi error, por favor. Siempre estoy dispuesto a aprender cosas nuevas.



Es que has soltado una burrada más grande que el Empire State [sonrisa]

Por decirlo de una manera sencilla, la relación entre el aumento de desempeño en una cpu, y los fotogramas, no, repito, no de ninguna de las maneras, es lineal.

Dicho mal y pronto, podría decirse que hay una correlación exponencial dependiente de muchos factores, y aunque un aumento muy significativo podría dar un empuje gordo, jamás de los jamases hablariamos de aumento x10 de la cpu = aumento x10 de los fotogramas.

En cuanto a CPU sí, hasta es más, porque no todos los cálculos tienen que volver a hacerse en el nuevo frame. Lo que no es lineal es que 2 núcleos, por ejemplo, signifique que un procesador sea el doble de potente que un mononúcleo. Si tienes 10 veces más capacidad, podrás hacer 10 veces más cálculos.


@nanoxxl si lo reducimos al absurdo todo vale. El Raytracing es cosa de la máquina de cómputo, no de visionado. Si eso no se sabe discernir, sobran más palabras.
Xlooser escribió: @nanoxxl si lo reducimos al absurdo todo vale. El Raytracing es cosa de la máquina de cómputo, no de visionado. Si eso no se sabe discernir, sobran más palabras.

Primero el Raytracing se hace por fuerza bruta ( no por hardware específico ) y esto consume muchos recurso , por eso solo la gama alta de Nvidia lo tiene y AMD a dicho no en su gama de usuario .
Segundo si quieres ver bien el Raytracing necesita una pantalla que pueda mostrar lo , si usas una pantalla mala no notarás la diferencia y te puede consumir la mitad de la GPU para nada .
Que lo hace la consola y lo muestra la pantalla , no es difícil entender .
Ahora sí sigues diciendo que una Xbox one x en una TV 4k con HDR con un juego que esté a 4k y HDR se vería igual que en una TV vieja de 720p por qué la consola es la misma tu mismo .
181092 respuestas