› Foros › PlayStation 5 › General
nanoxxl escribió:Xlooser escribió: @nanoxxl si lo reducimos al absurdo todo vale. El Raytracing es cosa de la máquina de cómputo, no de visionado. Si eso no se sabe discernir, sobran más palabras.
Primero el Raytracing se hace por fuerza bruta ( no por hardware específico ) y esto consume muchos recurso , por eso solo la gama alta de Nvidia lo tiene y AMD a dicho no en su gama de usuario .
Segundo si quieres ver bien el Raytracing necesita una pantalla que pueda mostrar lo , si usas una pantalla mala no notarás la diferencia y te puede consumir la mitad de la GPU para nada .
Que lo hace la consola y lo muestra la pantalla , no es difícil entender .
Ahora sí sigues diciendo que una Xbox one x en una TV 4k con HDR con un juego que esté a 4k y HDR se vería igual que en una TV vieja de 720p por qué la consola es la misma tu mismo .
Xlooser escribió:metaljules escribió:David Ricardo escribió:Explícame mi error, por favor. Siempre estoy dispuesto a aprender cosas nuevas.
Es que has soltado una burrada más grande que el Empire State
Por decirlo de una manera sencilla, la relación entre el aumento de desempeño en una cpu, y los fotogramas, no, repito, no de ninguna de las maneras, es lineal.
Dicho mal y pronto, podría decirse que hay una correlación exponencial dependiente de muchos factores, y aunque un aumento muy significativo podría dar un empuje gordo, jamás de los jamases hablariamos de aumento x10 de la cpu = aumento x10 de los fotogramas.
En cuanto a CPU sí, hasta es más, porque no todos los cálculos tienen que volver a hacerse en el nuevo frame. Lo que no es lineal es que 2 núcleos, por ejemplo, signifique que un procesador sea el doble de potente que un mononúcleo. Si tienes 10 veces más capacidad, podrás hacer 10 veces más cálculos.
@nanoxxl si lo reducimos al absurdo todo vale. El Raytracing es cosa de la máquina de cómputo, no de visionado. Si eso no se sabe discernir, sobran más palabras.
metaljules escribió:Pero la cuestión no es que pueda repetir los cálculos hasta diez veces más rápido, si no que no puede sacar 10 veces más frames, por decirlo de alguna manera
Que bueno, eso de hacer los cálculos 10 veces más rápidos también es una frase para estudiarla, pero eso
David Ricardo escribió:metaljules escribió:Pero la cuestión no es que pueda repetir los cálculos hasta diez veces más rápido, si no que no puede sacar 10 veces más frames, por decirlo de alguna manera
Que bueno, eso de hacer los cálculos 10 veces más rápidos también es una frase para estudiarla, pero eso
Si la conclusión te la acepto, lo que quiero entender es cómo se relaciona potencia de la cpu y frame rate.
Por ejemplo, un frame es un problema matemático que hay que resolver en 33,3 ms para mostrar 30fps. Por qué una cpu el doble de potente no pude resolver el problema en 16,6 ms? O lo que significa ese doble de potencia es que podría resolver un problema el doble de complicado en 33,3 ms pero no necesariamente el mismo en 16,6?
Es que no entiendo muy bien cómo se decide cuánto más potente es una CPU respecto a otra. Las expectativas de frecuencia de reloj no llegan al doble de gigaherzios respecto a PS4. De dónde sacan el resto de la mejora hasta sextuplicar los jaguar? Qué supone esa mejora a nivel frames o capacidad de procesamiento?
Por lo que he leído, se supone que podemos ver muchas mejores físicas e IA, y será más fácil tener juegos a 60fps (siempre que la gpu acompañe).
metaljules escribió:David Ricardo escribió:metaljules escribió:Pero la cuestión no es que pueda repetir los cálculos hasta diez veces más rápido, si no que no puede sacar 10 veces más frames, por decirlo de alguna manera
Que bueno, eso de hacer los cálculos 10 veces más rápidos también es una frase para estudiarla, pero eso
Si la conclusión te la acepto, lo que quiero entender es cómo se relaciona potencia de la cpu y frame rate.
Por ejemplo, un frame es un problema matemático que hay que resolver en 33,3 ms para mostrar 30fps. Por qué una cpu el doble de potente no pude resolver el problema en 16,6 ms? O lo que significa ese doble de potencia es que podría resolver un problema el doble de complicado en 33,3 ms pero no necesariamente el mismo en 16,6?
Es que no entiendo muy bien cómo se decide cuánto más potente es una CPU respecto a otra. Las expectativas de frecuencia de reloj no llegan al doble de gigaherzios respecto a PS4. De dónde sacan el resto de la mejora hasta sextuplicar los jaguar? Qué supone esa mejora a nivel frames o capacidad de procesamiento?
Por lo que he leído, se supone que podemos ver muchas mejores físicas e IA, y será más fácil tener juegos a 60fps (siempre que la gpu acompañe).
Bueno, es que estas citandome la respuesta a otro usuario
A ver, voy a intentar explicarme lo mejor posible porque yo tampoco soy una eminencia teórica, así que no lo cojas como algo absoluto, pero así por encima:
Por un lado, la frecuencia de reloj de una cpu (los mhz, ghz, etc) es la velocidad a la que hemos puesto a funcionar esa cpu, pero no es su potencia, su potencia es el cómputo global entre esas velocidades, su arquitectura, su ICP, y otros factores, ergo Velocidad de reloj no es igual a potencia.
Un ejemplo de esto es que en un procesador con menor rendimiento daría peores resultados a 3 Ghz, que uno mucho más eficiente a 2,5 Ghz (esto se puede ver claramente en el enfoque que hace la competencia entre Intel y AMD)
Por otro lado, a lo de sacar el doble de frames si tenemos en doble de "potencia" teórica en el CPU tampoco es viable, ya que esos frames no son sólo un cálculo de la CPU, si no de otros muchos factores, como la GPU, el ancho de banda, etc etc.
Aparte de ello, uno no puede escalar simplemente de manera lineal, ya que a la hora de aumentar la resolución, también se ha de hacer lo mismo con los efectos, texturas... Y como he dicho antes también, este incremento no es lineal, no cuesta lo mismo sacar estos componentes a 720p que a... 4K, por ejemplo. O hacerlos funcionar a 30 frames, que a 60.
Espero haberme explicado un poco por encima, pero si te interesa el tema, te invito a investigar un poco, ya que hay estudios chulisimos sobre el mismo, y seguro que lo hacen mucho mejor que yo
David Ricardo escribió:metaljules escribió:David Ricardo escribió:Si la conclusión te la acepto, lo que quiero entender es cómo se relaciona potencia de la cpu y frame rate.
Por ejemplo, un frame es un problema matemático que hay que resolver en 33,3 ms para mostrar 30fps. Por qué una cpu el doble de potente no pude resolver el problema en 16,6 ms? O lo que significa ese doble de potencia es que podría resolver un problema el doble de complicado en 33,3 ms pero no necesariamente el mismo en 16,6?
Es que no entiendo muy bien cómo se decide cuánto más potente es una CPU respecto a otra. Las expectativas de frecuencia de reloj no llegan al doble de gigaherzios respecto a PS4. De dónde sacan el resto de la mejora hasta sextuplicar los jaguar? Qué supone esa mejora a nivel frames o capacidad de procesamiento?
Por lo que he leído, se supone que podemos ver muchas mejores físicas e IA, y será más fácil tener juegos a 60fps (siempre que la gpu acompañe).
Bueno, es que estas citandome la respuesta a otro usuario
A ver, voy a intentar explicarme lo mejor posible porque yo tampoco soy una eminencia teórica, así que no lo cojas como algo absoluto, pero así por encima:
Por un lado, la frecuencia de reloj de una cpu (los mhz, ghz, etc) es la velocidad a la que hemos puesto a funcionar esa cpu, pero no es su potencia, su potencia es el cómputo global entre esas velocidades, su arquitectura, su ICP, y otros factores, ergo Velocidad de reloj no es igual a potencia.
Un ejemplo de esto es que en un procesador con menor rendimiento daría peores resultados a 3 Ghz, que uno mucho más eficiente a 2,5 Ghz (esto se puede ver claramente en el enfoque que hace la competencia entre Intel y AMD)
Por otro lado, a lo de sacar el doble de frames si tenemos en doble de "potencia" teórica en el CPU tampoco es viable, ya que esos frames no son sólo un cálculo de la CPU, si no de otros muchos factores, como la GPU, el ancho de banda, etc etc.
Aparte de ello, uno no puede escalar simplemente de manera lineal, ya que a la hora de aumentar la resolución, también se ha de hacer lo mismo con los efectos, texturas... Y como he dicho antes también, este incremento no es lineal, no cuesta lo mismo sacar estos componentes a 720p que a... 4K, por ejemplo. O hacerlos funcionar a 30 frames, que a 60.
Espero haberme explicado un poco por encima, pero si te interesa el tema, te invito a investigar un poco, ya que hay estudios chulisimos sobre el mismo, y seguro que lo hacen mucho mejor que yo
Me estás respondiendo a cosas que yo no he preguntado. Mi pregunta es: ¿Por qué una CPU el doble de potente que otra (suponiendo que disponga de gpu ilimitada, ancho de banda ilimitado, el juego se mantenga a la misma resolución, mismas texturas, mismos personajes en pantalla, misma ia, mismo todo...) no puede sacar el doble de frames por segundo?
Que no va a suceder en la realidad ya lo sé, y ya he explicado por qué, porque los desarrolladores van a preferir usar esa potencia en ia, físicas, sonido, etc... y aprovecharán también el reproducir menos frames para meter más resolución, efectos y de todo. Ese no es el tema que estaba debatiendo.
Xlooser escribió:nanoxxl escribió:Xlooser escribió: @nanoxxl si lo reducimos al absurdo todo vale. El Raytracing es cosa de la máquina de cómputo, no de visionado. Si eso no se sabe discernir, sobran más palabras.
Primero el Raytracing se hace por fuerza bruta ( no por hardware específico ) y esto consume muchos recurso , por eso solo la gama alta de Nvidia lo tiene y AMD a dicho no en su gama de usuario .
Segundo si quieres ver bien el Raytracing necesita una pantalla que pueda mostrar lo , si usas una pantalla mala no notarás la diferencia y te puede consumir la mitad de la GPU para nada .
Que lo hace la consola y lo muestra la pantalla , no es difícil entender .
Ahora sí sigues diciendo que una Xbox one x en una TV 4k con HDR con un juego que esté a 4k y HDR se vería igual que en una TV vieja de 720p por qué la consola es la misma tu mismo .
- El Raytracing se hace con hardware especializado, busca información de los RT Cores de la gama RTX. Sin ALUs matriciales es cuando tiene que hacerse por fuerza bruta, algo inviable, incluso dentro de 4-5 décadas.
- Muy bien, piensa eso. El que sepa lo que es el Raytracing no caerá en ese error.
- No he dicho eso, he dicho que no necesitas un Oled para ver mejor los juegos con Raytracing.
metaljules escribió:Xlooser escribió:metaljules escribió:
Es que has soltado una burrada más grande que el Empire State
Por decirlo de una manera sencilla, la relación entre el aumento de desempeño en una cpu, y los fotogramas, no, repito, no de ninguna de las maneras, es lineal.
Dicho mal y pronto, podría decirse que hay una correlación exponencial dependiente de muchos factores, y aunque un aumento muy significativo podría dar un empuje gordo, jamás de los jamases hablariamos de aumento x10 de la cpu = aumento x10 de los fotogramas.
En cuanto a CPU sí, hasta es más, porque no todos los cálculos tienen que volver a hacerse en el nuevo frame. Lo que no es lineal es que 2 núcleos, por ejemplo, signifique que un procesador sea el doble de potente que un mononúcleo. Si tienes 10 veces más capacidad, podrás hacer 10 veces más cálculos.
@nanoxxl si lo reducimos al absurdo todo vale. El Raytracing es cosa de la máquina de cómputo, no de visionado. Si eso no se sabe discernir, sobran más palabras.
Pero la cuestión no es que pueda repetir los cálculos hasta diez veces más rápido, si no que no puede sacar 10 veces más frames, por decirlo de alguna manera
Que bueno, eso de hacer los cálculos 10 veces más rápidos también es una frase para estudiarla, pero eso
No hace falta tener una OLED para ver mejor la iluminación por Raytracing, ni HDR ni cosas por el estilo. Por supuesto, la calidad de imagen sería superior.
David Ricardo escribió:Noctisblue escribió:Si pero no creo que PS5 lleve el zen2 de 60 núcleos a 10ghz cada uno. Llevará uno personalizado y tirando a flojo. Para abaratar.
Pero 10 veces mejor que el de ahora. Que es mucho.
Una CPU 10 veces más potente que otra que corre un juego a 30 fps, puede correr el mismo juego a 300 fps.
No sé cómo será la CPU finalmente, pero en foros americanos calculan a ojímetro que será unas 6 veces más potente. Pues 6 veces más que 30 son 180fps. Así que podría correr RDR2 perfectamente a 120fps. Otra cosa es que no lo veremos porque eso no lo aprecia ni lo pide nadie, y la GPU para mover todos esos frames tendría que bajar resolución, pero posible es.
IridiumArkangel escribió:Yo no se para que le intentáis explicar nada del Raytracing. Responde de mala forma, piensa que sabe más que nadie e intenta menoscabar cualquier respuesta de los demás riéndose en su cara en "criajo mode" para más inri...
A este tipo de gente hay que decirles que sí, que llevan razón; ya se ponen en evidencia ellos solos cada vez que abren la boca.
Con respecto a los supuestos 4k nativos 60 fps que en teoría se apunta en las next-gen, deberíais a estas alturas intuir que nos comeremos también algún 4k nativos/dinámicos 30fps o incluso un 4k checkerboard 30fps. Que todos los juegos vayan a ir a 4k 60 fps no se lo cree ni José en el portal de Belén, y eso que tragó con lo del niño Jesus por mucho que se tenga una Cpu 10 veces más potente...
@Lin Juuichi muy buena y sintetizada explicación. Y es justo lo que hizo Ms con la X, equilibrar todo el hardware para que fuera posible ofrecer 4k nativos 30fps maximizando la eficiencia.
Xlooser escribió: @nanoxxl si estamos hablando de la implementación del Raytracing, he mencionado las RTX...........¿por qué metes a la GTX1080TI? NO hay Raytracing por software, una GTX1080TI no sacaría ni 3 fps con Raytracing por software (literalmente).
NVIDIA habilita Ray Tracing en las GTX 1080 y 1080 Ti: así rinden frente a las RTX 2080 y 2080 Ti
nanoxxl escribió:Xlooser escribió: @nanoxxl si estamos hablando de la implementación del Raytracing, he mencionado las RTX...........¿por qué metes a la GTX1080TI? NO hay Raytracing por software, una GTX1080TI no sacaría ni 3 fps con Raytracing por software (literalmente).
https://hardzone.es/2018/10/16/nvidia-r ... x-2080-ti/NVIDIA habilita Ray Tracing en las GTX 1080 y 1080 Ti: así rinden frente a las RTX 2080 y 2080 Ti
Ok , cierto , usa RT Core , gran error mío , ahora solo hace falta que metan una GPU de 1000€ en una consola de 400/500€ .
Xlooser escribió:nanoxxl escribió:Xlooser escribió: @nanoxxl si estamos hablando de la implementación del Raytracing, he mencionado las RTX...........¿por qué metes a la GTX1080TI? NO hay Raytracing por software, una GTX1080TI no sacaría ni 3 fps con Raytracing por software (literalmente).
https://hardzone.es/2018/10/16/nvidia-r ... x-2080-ti/NVIDIA habilita Ray Tracing en las GTX 1080 y 1080 Ti: así rinden frente a las RTX 2080 y 2080 Ti
Ok , cierto , usa RT Core , gran error mío , ahora solo hace falta que metan una GPU de 1000€ en una consola de 400/500€ .
O está mejor optimizado de lo que pensaba o la carga es muy inferior. Que las Pascal obtengan mejor rendimiento que las Volta (tarjetas profesionales de 3000 euros) es increíble.
Una GTX2080TI cuesta más de 1000 euros por diversos factores:
- El tamaño del chip es del doble que el de la APU de una consola. Y sólo hablamos de la gráfica. No es nada barato.
- Los Tensor Cores tampoco son baratos actualmente. Probablemente no estarán en la PS5 ni en Scarlett, posiblemente una versión más simple para limpiar la imagen (cruzo los dedos).
- Todos sabemos que Nvidia se sube a la parra con los precios.
- El precio minorista siempre es mayor que lo que puedan conseguir Sony o Microsoft.
Además, en los dos años que supuestamente los separen, los precios disminuirán mucho. Yo no pierdo la esperanza de ver una tímida entrada del Raytracing en tiempo real en las consolas. Si esperamos a que una tecnología esté madura el avance iría más lento.
David Ricardo escribió:Xlooser escribió:nanoxxl escribió:https://hardzone.es/2018/10/16/nvidia-r ... x-2080-ti/
Ok , cierto , usa RT Core , gran error mío , ahora solo hace falta que metan una GPU de 1000€ en una consola de 400/500€ .
O está mejor optimizado de lo que pensaba o la carga es muy inferior. Que las Pascal obtengan mejor rendimiento que las Volta (tarjetas profesionales de 3000 euros) es increíble.
Una GTX2080TI cuesta más de 1000 euros por diversos factores:
- El tamaño del chip es del doble que el de la APU de una consola. Y sólo hablamos de la gráfica. No es nada barato.
- Los Tensor Cores tampoco son baratos actualmente. Probablemente no estarán en la PS5 ni en Scarlett, posiblemente una versión más simple para limpiar la imagen (cruzo los dedos).
- Todos sabemos que Nvidia se sube a la parra con los precios.
- El precio minorista siempre es mayor que lo que puedan conseguir Sony o Microsoft.
Además, en los dos años que supuestamente los separen, los precios disminuirán mucho. Yo no pierdo la esperanza de ver una tímida entrada del Raytracing en tiempo real en las consolas. Si esperamos a que una tecnología esté madura el avance iría más lento.
Me puedes enseñar una comparativa de una imagen con raytracing y otra sin ella que justifique el gasto y la pérdida de rendimiento? Yo supongo que el raytracing a la larga será cojonudo. Pero ahora mismo lo veo malgastar recursos y dinero.
Xlooser escribió:nanoxxl escribió:Xlooser escribió: @nanoxxl si estamos hablando de la implementación del Raytracing, he mencionado las RTX...........¿por qué metes a la GTX1080TI? NO hay Raytracing por software, una GTX1080TI no sacaría ni 3 fps con Raytracing por software (literalmente).
https://hardzone.es/2018/10/16/nvidia-r ... x-2080-ti/NVIDIA habilita Ray Tracing en las GTX 1080 y 1080 Ti: así rinden frente a las RTX 2080 y 2080 Ti
Ok , cierto , usa RT Core , gran error mío , ahora solo hace falta que metan una GPU de 1000€ en una consola de 400/500€ .
O está mejor optimizado de lo que pensaba o la carga es muy inferior. Que las Pascal obtengan mejor rendimiento que las Volta (tarjetas profesionales de 3000 euros) es increíble.
Una GTX2080TI cuesta más de 1000 euros por diversos factores:
- El tamaño del chip es del doble que el de la APU de una consola. Y sólo hablamos de la gráfica. No es nada barato.
- Los Tensor Cores tampoco son baratos actualmente. Probablemente no estarán en la PS5 ni en Scarlett, posiblemente una versión más simple para limpiar la imagen (cruzo los dedos).
- Todos sabemos que Nvidia se sube a la parra con los precios.
- El precio minorista siempre es mayor que lo que puedan conseguir Sony o Microsoft.
Además, en los dos años que supuestamente los separen, los precios disminuirán mucho. Yo no pierdo la esperanza de ver una tímida entrada del Raytracing en tiempo real en las consolas. Si esperamos a que una tecnología esté madura el avance iría más lento.
Xlooser escribió:@hit ¿qué el raytracing lleva años usándose? Claro, en CGI está a la orden del día. En cuanto a videojuegos, DirectX y Vulkan no lo han implementado hasta hace poquito, así que me juego el cuello a que no lo has visto en ningún proyecto relevante o conocido.
RT Cores y Tensor Cores no son lo mismo, y seguro que no tienes ni idea de en qué se diferencian. No te las voy a explicar, busca información si eres capaz.
Stylish escribió:AMD no tiene raytracing todavía. Dudo que estén dimensionando hardware pensando en la tecnología inmediatamente siguiente contando con RT. Seguramente pueda ser el argumento de venta de PS5 PRO.
Xlooser escribió:@hit jajajaja tío, que seas tú el que me diga que estoy metiendo la pata es delirante. ¿Conoces la diferencia entre una película de animación y el renderizado en tiempo real?
No dudo de que en Anandtech hagan un buen análisis de la arquitectura Turing. Gracias por el enlace, lo leeré porque nunca viene mal y no voy a ser tan engreído de creer que no necesito leer nada más sobre cualquier tema.
Los Tensor Cores NO son los RT Cores, eso es lo primero que se debe comprender. Los Tensor Cores NO hacen el Raytracing, ni siquiera los RT Cores, lo aplican los Shaders de toda la vida. A partir de ahí, se puede construir todo un razonamiento y debatir sobre ello, y lo haré encantado con alguien que de verdad quiera debatir.
hit escribió:Y para el resto del hilo no os dejeis llevar por este hombre...pide rtx en un aparato que va a costar 400 pavos,que viene de la mano de amd y que ellos han dicho que hasta que la gama media no pueda con esa feature no se va a ver en sus productos,blanco y en botella
nanoxxl escribió:hit escribió:Y para el resto del hilo no os dejeis llevar por este hombre...pide rtx en un aparato que va a costar 400 pavos,que viene de la mano de amd y que ellos han dicho que hasta que la gama media no pueda con esa feature no se va a ver en sus productos,blanco y en botella
Esta claro que se puede estar de a cuerdo o no , se puede estar equivocado o no , pero en un foro lo que tenemos es que tener respeto a todo .
Pedir que se tenga cierta actitud con otro usuario a los demás queda de muy mal gusto .
No estaría mal tener educación hacia todos , que queda muy feo esa actitud y sobretodo resta credibilidad a uno mismo .
Por cierto yo creo que es imposible esto en ps5 .
hit escribió:Vamos a ver,el rt core que del que habla es el nucleo en si de la gpu,los tensor cores lo que hacen hablando en plata es hacer posible esa iluminacion ayudando a liberar de carga al nucleo,partiendo de la base que lleva 4 paginas hablando del rtx como si supiera lo que es,le pongo un enlace donde se ve claramente lo que digo y se toma la libertad de reirse de mi ¿wtf?
Rtx en una apu de amd que va a costar como mucho 500 euros es imposible y por eso me tomo la licencia de decir eso si el se rie de mi,le digo que esta metiendo la pata y encima se toma la libertad de creerse mas que yo,no tio...tengo una 2070 y antes de meterme en el verengenal de pillarla me lei lo que no esta escrito de esto,600 euros de broma como para saber o no lo que es
IridiumArkangel escribió:Leeros esto y poned especial atención cuando hacen "las matemáticas" necesarias para aplicar raytracing (rayos por píxel) con las 2070/80/80ti (que no está demás recordar que NO es raytracing total, sólo una fórmula híbrida) y a que resolución nativa y a cuantos fps.
https://www.pcgamer.com/what-is-ray-tracing/
Ahí es donde caeremos de la burra y veremos que intentar "meter raytracing" en las next-gen parece un error a todas luces. Pero bueno, ya veremos si son capaces de sacarse de la manga algo que merezca la pena o no en relación al aumento de calidad/coste computacional que ello supondría..
Misstic escribió:Digo... Voy a entrar a ver si hay alguna novedad con respecto a PS5, y lo único que me encuentro son discusiones entre uno y otro que si el precio de la RAM esto y lo otro, luego que si el RT con pullitas entre uno y otro y a ver quién la tiene más gorda...
Menos hablar de PS5, cualquier cosa.
Misstic escribió:Digo... Voy a entrar a ver si hay alguna novedad con respecto a PS5, y lo único que me encuentro son discusiones entre uno y otro que si el precio de la RAM esto y lo otro, luego que si el RT con pullitas entre uno y otro y a ver quién la tiene más gorda...
Menos hablar de PS5, cualquier cosa.
David Ricardo escribió:Misstic escribió:Digo... Voy a entrar a ver si hay alguna novedad con respecto a PS5, y lo único que me encuentro son discusiones entre uno y otro que si el precio de la RAM esto y lo otro, luego que si el RT con pullitas entre uno y otro y a ver quién la tiene más gorda...
Menos hablar de PS5, cualquier cosa.
Bueno, es que de PS5 no hay nada sólido. Hay que conjeturar sobre si tiene sentido usar esta cantidad de ram o la otra, si es esperable que tenga RT, si es esperable que tenga retro, qué implica que la cpu tenga esta u otra potencia... con la información que tenemos, es lo más parecido a hablar de PS5 que podemos hacer.
Según tú, de qué se supone que deberíamos estar hablando?
Fifero81 escribió:Para mi no es el qué, sino el cómo.
En lugar de aportar cada uno su conocimiento para tratar de llegar a conclusiones acertadas y que los demás aprendan algo, los mensajes parecen sacados de una pelea de patio de colegio por demostrar quien sabe mas. Se nota mucho vinagre en ellos y eso, a mi por lo menos, me desagrada.
Una lástima...
Xlooser escribió:
Ha resultado surtir el efecto contrario, ahora estoy más convencido de que es posible. Terminan el artículo diciendo que las unidades RT Core doblarán o cuadriplicarán a los SM en las siguientes tarjetas, cuando hoy la relación es 1:1. Vamos, que en la siguiente tarjeta de Nvidia se podrían lanzar 20 Gigarayos (ó 40) por segundo sin tocar nada de la arquitectura del RT Core............¿en 2020? Seguramente. Por lo demás, no dice nada de por qué se pierde rendimiento.
Taking the 2080 Ti and its 10 GR/s as a baseline, if we're rendering a game at 1080p, that's about 2 million pixels, and 60fps means 120 million pixels. Doing the math, a game could do 80 rays per pixel at 1080p60, if the GPU is doing nothing else—and at 4k60 it would be limited to 20 rays per pixel. But games aren't doing pure ray tracing, as they still use rasterization for a lot of the environment
Grinch escribió:@IridiumArkangel lo mismo sale una version ps5 de lujo bañado en oro y metan las ultimas gráficas del momento.
Y con el innovador sistema de pago de ase por aqui caballero. que riñón quiere el izquierdo o derecho
Xlooser escribió:Misstic escribió:Digo... Voy a entrar a ver si hay alguna novedad con respecto a PS5, y lo único que me encuentro son discusiones entre uno y otro que si el precio de la RAM esto y lo otro, luego que si el RT con pullitas entre uno y otro y a ver quién la tiene más gorda...
Menos hablar de PS5, cualquier cosa.
A PS5 le queda un tiempo para tener novedades, hasta que Sony la presente no habrá nada.
Fifero81 escribió:Para mi no es el qué, sino el cómo.
En lugar de aportar cada uno su conocimiento para tratar de llegar a conclusiones acertadas y que los demás aprendan algo, los mensajes parecen sacados de una pelea de patio de colegio por demostrar quien sabe mas. Se nota mucho vinagre en ellos y eso, a mi por lo menos, me desagrada.
Una lástima...
kron-ragnarok escribió:Buenas.
Mis pronósticos para la consola, en tema de fechas, ya que de capacidades ya andáis debatiendo bastante:
-Junio 2019 presentacion (Carcasa y algunos datos generales).
-Diciembre 2019 características generales completas y fecha lanzamiento.
-Junio 2020 lanzamiento solo Japón, día 1 Juegos Olímpicos(y todo lleno de publicidad de ps5, ya que juegan en casa).
-noviembre 2020 lanzamiento resto del mundo.
Yo creo que los Juegos Olímpicos va a ser el punto donde saldrá la máquina, para aprovechar al máximo el aumento de turistas por las olimpiadas.
Un saludo.
Xlooser escribió:@IridiumArkangel debo hablar con jeroglíficos, porque mis mensajes no se entienden. No he dicho que vayan a meter la misma tecnología que en las futuras tarjetas de Nvidia, para las cuales yo también he contado con dos años para su lanzamiento. Por lo demás, no volveré a hablar del Raytracing en ningún hilo, estoy agotado.
No te tomes esto como una crítica personal.