[Hilo Oficial] PS5

nanoxxl escribió:
Xlooser escribió: @nanoxxl si lo reducimos al absurdo todo vale. El Raytracing es cosa de la máquina de cómputo, no de visionado. Si eso no se sabe discernir, sobran más palabras.

Primero el Raytracing se hace por fuerza bruta ( no por hardware específico ) y esto consume muchos recurso , por eso solo la gama alta de Nvidia lo tiene y AMD a dicho no en su gama de usuario .
Segundo si quieres ver bien el Raytracing necesita una pantalla que pueda mostrar lo , si usas una pantalla mala no notarás la diferencia y te puede consumir la mitad de la GPU para nada .
Que lo hace la consola y lo muestra la pantalla , no es difícil entender .
Ahora sí sigues diciendo que una Xbox one x en una TV 4k con HDR con un juego que esté a 4k y HDR se vería igual que en una TV vieja de 720p por qué la consola es la misma tu mismo .

- El Raytracing se hace con hardware especializado, busca información de los RT Cores de la gama RTX. Sin ALUs matriciales es cuando tiene que hacerse por fuerza bruta, algo inviable, incluso dentro de 4-5 décadas.
- Muy bien, piensa eso. El que sepa lo que es el Raytracing no caerá en ese error.
- No he dicho eso, he dicho que no necesitas un Oled para ver mejor los juegos con Raytracing.
Xlooser escribió:
metaljules escribió:
David Ricardo escribió:Explícame mi error, por favor. Siempre estoy dispuesto a aprender cosas nuevas.



Es que has soltado una burrada más grande que el Empire State [sonrisa]

Por decirlo de una manera sencilla, la relación entre el aumento de desempeño en una cpu, y los fotogramas, no, repito, no de ninguna de las maneras, es lineal.

Dicho mal y pronto, podría decirse que hay una correlación exponencial dependiente de muchos factores, y aunque un aumento muy significativo podría dar un empuje gordo, jamás de los jamases hablariamos de aumento x10 de la cpu = aumento x10 de los fotogramas.

En cuanto a CPU sí, hasta es más, porque no todos los cálculos tienen que volver a hacerse en el nuevo frame. Lo que no es lineal es que 2 núcleos, por ejemplo, signifique que un procesador sea el doble de potente que un mononúcleo. Si tienes 10 veces más capacidad, podrás hacer 10 veces más cálculos.


@nanoxxl si lo reducimos al absurdo todo vale. El Raytracing es cosa de la máquina de cómputo, no de visionado. Si eso no se sabe discernir, sobran más palabras.


Pero la cuestión no es que pueda repetir los cálculos hasta diez veces más rápido, si no que no puede sacar 10 veces más frames, por decirlo de alguna manera

Que bueno, eso de hacer los cálculos 10 veces más rápidos también es una frase para estudiarla, pero eso
metaljules escribió:Pero la cuestión no es que pueda repetir los cálculos hasta diez veces más rápido, si no que no puede sacar 10 veces más frames, por decirlo de alguna manera

Que bueno, eso de hacer los cálculos 10 veces más rápidos también es una frase para estudiarla, pero eso

Si la conclusión te la acepto, lo que quiero entender es cómo se relaciona potencia de la cpu y frame rate.

Por ejemplo, un frame es un problema matemático que hay que resolver en 33,3 ms para mostrar 30fps. Por qué una cpu el doble de potente no pude resolver el problema en 16,6 ms? O lo que significa ese doble de potencia es que podría resolver un problema el doble de complicado en 33,3 ms pero no necesariamente el mismo en 16,6?

Es que no entiendo muy bien cómo se decide cuánto más potente es una CPU respecto a otra. Las expectativas de frecuencia de reloj no llegan al doble de gigaherzios respecto a PS4. De dónde sacan el resto de la mejora hasta sextuplicar los jaguar? Qué supone esa mejora a nivel frames o capacidad de procesamiento?

Por lo que he leído, se supone que podemos ver muchas mejores físicas e IA, y será más fácil tener juegos a 60fps (siempre que la gpu acompañe).
David Ricardo escribió:
metaljules escribió:Pero la cuestión no es que pueda repetir los cálculos hasta diez veces más rápido, si no que no puede sacar 10 veces más frames, por decirlo de alguna manera

Que bueno, eso de hacer los cálculos 10 veces más rápidos también es una frase para estudiarla, pero eso

Si la conclusión te la acepto, lo que quiero entender es cómo se relaciona potencia de la cpu y frame rate.

Por ejemplo, un frame es un problema matemático que hay que resolver en 33,3 ms para mostrar 30fps. Por qué una cpu el doble de potente no pude resolver el problema en 16,6 ms? O lo que significa ese doble de potencia es que podría resolver un problema el doble de complicado en 33,3 ms pero no necesariamente el mismo en 16,6?

Es que no entiendo muy bien cómo se decide cuánto más potente es una CPU respecto a otra. Las expectativas de frecuencia de reloj no llegan al doble de gigaherzios respecto a PS4. De dónde sacan el resto de la mejora hasta sextuplicar los jaguar? Qué supone esa mejora a nivel frames o capacidad de procesamiento?

Por lo que he leído, se supone que podemos ver muchas mejores físicas e IA, y será más fácil tener juegos a 60fps (siempre que la gpu acompañe).


Bueno, es que estas citandome la respuesta a otro usuario [carcajad]

A ver, voy a intentar explicarme lo mejor posible porque yo tampoco soy una eminencia teórica, así que no lo cojas como algo absoluto, pero así por encima:

Por un lado, la frecuencia de reloj de una cpu (los mhz, ghz, etc) es la velocidad a la que hemos puesto a funcionar esa cpu, pero no es su potencia, su potencia es el cómputo global entre esas velocidades, su arquitectura, su ICP, y otros factores, ergo Velocidad de reloj no es igual a potencia.

Un ejemplo de esto es que en un procesador con menor rendimiento daría peores resultados a 3 Ghz, que uno mucho más eficiente a 2,5 Ghz (esto se puede ver claramente en el enfoque que hace la competencia entre Intel y AMD)

Por otro lado, a lo de sacar el doble de frames si tenemos en doble de "potencia" teórica en el CPU tampoco es viable, ya que esos frames no son sólo un cálculo de la CPU, si no de otros muchos factores, como la GPU, el ancho de banda, etc etc.

Aparte de ello, uno no puede escalar simplemente de manera lineal, ya que a la hora de aumentar la resolución, también se ha de hacer lo mismo con los efectos, texturas... Y como he dicho antes también, este incremento no es lineal, no cuesta lo mismo sacar estos componentes a 720p que a... 4K, por ejemplo. O hacerlos funcionar a 30 frames, que a 60.

Espero haberme explicado un poco por encima, pero si te interesa el tema, te invito a investigar un poco, ya que hay estudios chulisimos sobre el mismo, y seguro que lo hacen mucho mejor que yo [sonrisa]
El raytracing se lo pueden meter por el floppy bay.
Pues anda que no hay cosas que mejorar antes que eso, es como empezar la casa por el tejado. De momento es tan solo publicidad made in nvidia.
metaljules escribió:
David Ricardo escribió:
metaljules escribió:Pero la cuestión no es que pueda repetir los cálculos hasta diez veces más rápido, si no que no puede sacar 10 veces más frames, por decirlo de alguna manera

Que bueno, eso de hacer los cálculos 10 veces más rápidos también es una frase para estudiarla, pero eso

Si la conclusión te la acepto, lo que quiero entender es cómo se relaciona potencia de la cpu y frame rate.

Por ejemplo, un frame es un problema matemático que hay que resolver en 33,3 ms para mostrar 30fps. Por qué una cpu el doble de potente no pude resolver el problema en 16,6 ms? O lo que significa ese doble de potencia es que podría resolver un problema el doble de complicado en 33,3 ms pero no necesariamente el mismo en 16,6?

Es que no entiendo muy bien cómo se decide cuánto más potente es una CPU respecto a otra. Las expectativas de frecuencia de reloj no llegan al doble de gigaherzios respecto a PS4. De dónde sacan el resto de la mejora hasta sextuplicar los jaguar? Qué supone esa mejora a nivel frames o capacidad de procesamiento?

Por lo que he leído, se supone que podemos ver muchas mejores físicas e IA, y será más fácil tener juegos a 60fps (siempre que la gpu acompañe).


Bueno, es que estas citandome la respuesta a otro usuario [carcajad]

A ver, voy a intentar explicarme lo mejor posible porque yo tampoco soy una eminencia teórica, así que no lo cojas como algo absoluto, pero así por encima:

Por un lado, la frecuencia de reloj de una cpu (los mhz, ghz, etc) es la velocidad a la que hemos puesto a funcionar esa cpu, pero no es su potencia, su potencia es el cómputo global entre esas velocidades, su arquitectura, su ICP, y otros factores, ergo Velocidad de reloj no es igual a potencia.

Un ejemplo de esto es que en un procesador con menor rendimiento daría peores resultados a 3 Ghz, que uno mucho más eficiente a 2,5 Ghz (esto se puede ver claramente en el enfoque que hace la competencia entre Intel y AMD)

Por otro lado, a lo de sacar el doble de frames si tenemos en doble de "potencia" teórica en el CPU tampoco es viable, ya que esos frames no son sólo un cálculo de la CPU, si no de otros muchos factores, como la GPU, el ancho de banda, etc etc.

Aparte de ello, uno no puede escalar simplemente de manera lineal, ya que a la hora de aumentar la resolución, también se ha de hacer lo mismo con los efectos, texturas... Y como he dicho antes también, este incremento no es lineal, no cuesta lo mismo sacar estos componentes a 720p que a... 4K, por ejemplo. O hacerlos funcionar a 30 frames, que a 60.

Espero haberme explicado un poco por encima, pero si te interesa el tema, te invito a investigar un poco, ya que hay estudios chulisimos sobre el mismo, y seguro que lo hacen mucho mejor que yo [sonrisa]

Me estás respondiendo a cosas que yo no he preguntado. Mi pregunta es: ¿Por qué una CPU el doble de potente que otra (suponiendo que disponga de gpu ilimitada, ancho de banda ilimitado, el juego se mantenga a la misma resolución, mismas texturas, mismos personajes en pantalla, misma ia, mismo todo...) no puede sacar el doble de frames por segundo?

Que no va a suceder en la realidad ya lo sé, y ya he explicado por qué, porque los desarrolladores van a preferir usar esa potencia en ia, físicas, sonido, etc... y aprovecharán también el reproducir menos frames para meter más resolución, efectos y de todo. Ese no es el tema que estaba debatiendo.
David Ricardo escribió:
metaljules escribió:
David Ricardo escribió:Si la conclusión te la acepto, lo que quiero entender es cómo se relaciona potencia de la cpu y frame rate.

Por ejemplo, un frame es un problema matemático que hay que resolver en 33,3 ms para mostrar 30fps. Por qué una cpu el doble de potente no pude resolver el problema en 16,6 ms? O lo que significa ese doble de potencia es que podría resolver un problema el doble de complicado en 33,3 ms pero no necesariamente el mismo en 16,6?

Es que no entiendo muy bien cómo se decide cuánto más potente es una CPU respecto a otra. Las expectativas de frecuencia de reloj no llegan al doble de gigaherzios respecto a PS4. De dónde sacan el resto de la mejora hasta sextuplicar los jaguar? Qué supone esa mejora a nivel frames o capacidad de procesamiento?

Por lo que he leído, se supone que podemos ver muchas mejores físicas e IA, y será más fácil tener juegos a 60fps (siempre que la gpu acompañe).


Bueno, es que estas citandome la respuesta a otro usuario [carcajad]

A ver, voy a intentar explicarme lo mejor posible porque yo tampoco soy una eminencia teórica, así que no lo cojas como algo absoluto, pero así por encima:

Por un lado, la frecuencia de reloj de una cpu (los mhz, ghz, etc) es la velocidad a la que hemos puesto a funcionar esa cpu, pero no es su potencia, su potencia es el cómputo global entre esas velocidades, su arquitectura, su ICP, y otros factores, ergo Velocidad de reloj no es igual a potencia.

Un ejemplo de esto es que en un procesador con menor rendimiento daría peores resultados a 3 Ghz, que uno mucho más eficiente a 2,5 Ghz (esto se puede ver claramente en el enfoque que hace la competencia entre Intel y AMD)

Por otro lado, a lo de sacar el doble de frames si tenemos en doble de "potencia" teórica en el CPU tampoco es viable, ya que esos frames no son sólo un cálculo de la CPU, si no de otros muchos factores, como la GPU, el ancho de banda, etc etc.

Aparte de ello, uno no puede escalar simplemente de manera lineal, ya que a la hora de aumentar la resolución, también se ha de hacer lo mismo con los efectos, texturas... Y como he dicho antes también, este incremento no es lineal, no cuesta lo mismo sacar estos componentes a 720p que a... 4K, por ejemplo. O hacerlos funcionar a 30 frames, que a 60.

Espero haberme explicado un poco por encima, pero si te interesa el tema, te invito a investigar un poco, ya que hay estudios chulisimos sobre el mismo, y seguro que lo hacen mucho mejor que yo [sonrisa]

Me estás respondiendo a cosas que yo no he preguntado. Mi pregunta es: ¿Por qué una CPU el doble de potente que otra (suponiendo que disponga de gpu ilimitada, ancho de banda ilimitado, el juego se mantenga a la misma resolución, mismas texturas, mismos personajes en pantalla, misma ia, mismo todo...) no puede sacar el doble de frames por segundo?

Que no va a suceder en la realidad ya lo sé, y ya he explicado por qué, porque los desarrolladores van a preferir usar esa potencia en ia, físicas, sonido, etc... y aprovecharán también el reproducir menos frames para meter más resolución, efectos y de todo. Ese no es el tema que estaba debatiendo.


Te estoy respondiendo justo a lo que has preguntado, ahora, si lo que quieres es hablar en ese supuesto teórico donde tienes poder infinito en todos los demás componentes, es otra cosa [carcajad]

Pues hijo, no lo sé, nunca he visto una máquina de capacidad infinitas excepto su CPU, pero supongo que si, ya que podrían derivarse todos los cálculos a la GPU y santas pascuas [jaja]

Bueno, miento, no todos se pueden, pero yo que sé, el poder del infinito es abrumador, así que a lo mejor si xD
Xlooser escribió:
nanoxxl escribió:
Xlooser escribió: @nanoxxl si lo reducimos al absurdo todo vale. El Raytracing es cosa de la máquina de cómputo, no de visionado. Si eso no se sabe discernir, sobran más palabras.

Primero el Raytracing se hace por fuerza bruta ( no por hardware específico ) y esto consume muchos recurso , por eso solo la gama alta de Nvidia lo tiene y AMD a dicho no en su gama de usuario .
Segundo si quieres ver bien el Raytracing necesita una pantalla que pueda mostrar lo , si usas una pantalla mala no notarás la diferencia y te puede consumir la mitad de la GPU para nada .
Que lo hace la consola y lo muestra la pantalla , no es difícil entender .
Ahora sí sigues diciendo que una Xbox one x en una TV 4k con HDR con un juego que esté a 4k y HDR se vería igual que en una TV vieja de 720p por qué la consola es la misma tu mismo .

- El Raytracing se hace con hardware especializado, busca información de los RT Cores de la gama RTX. Sin ALUs matriciales es cuando tiene que hacerse por fuerza bruta, algo inviable, incluso dentro de 4-5 décadas.
- Muy bien, piensa eso. El que sepa lo que es el Raytracing no caerá en ese error.
- No he dicho eso, he dicho que no necesitas un Oled para ver mejor los juegos con Raytracing.

Pon fuentes de lo que dices ? .
La gtx1080ti no tiene hardware específico para Raytracing y se lo metieron por software usado hardware que no fue diseñado para eso .
Esperando estoy para que me ilumines con esas fuentes donde hablan sobre ese hardware específico para Raytracing .
A ya no dices que da igual la TV , que el Raytracing lo crea la consola/pc , que la TV da igual . [qmparto] .
@David Ricardo primero, la GPU es la encargada de casi toda la parte gráfica (no deja de ser una arquitectura de computador específica para cálculo gráfico, con sus unidades de procesamiento, memoria, cache, etc. propias). Así que la CPU no es lo más o único influyente (aunque lo es y mucho) en cuanto a renderizado por lo que el aumento de potencia de esta no supondrá una mejora lineal (esto y el tercer punto responde tu pregunta más o menos). En las consolas es importante porque en la generación actual las CPUs eran un cuello de botella. No te sirve de mucho tener un ancho de banda brutal en la memoria si luego tu CPU no puede gestionar tanta información. Y exactamente lo mismo con la GPU. Al final un sistema es un equilibrio de todos los componentes donde cada uno tiene su función específica.

Segundo, hablar de que algo tiene el doble de potencia no tiene ningún sentido a nivel técnico. Es un concepto de marketing para vender componentes, PCs y consolas. Es exactamente lo mismo que pasa con las cámaras de fotos y los megapixeles. Se pueden medir los TFlops y pueden ser una guía para saber donde te mueves pero como ya te han dicho hay que tener en cuenta muchas cosas. Sin irme a otros componentes (memoria, disco, etc) una CPU con la misma frecuencia de reloj que otra puede ser mucho más “potente” para ciertas tareas porque trae unidades de procesamiento específicas, o gestiona los distintos hilos de ejecución de una manera más eficiente, o simplemente tiene más cache o es más eficiente energeticamente y por lo tanto se calienta menos al subir aun más la frecuencia en picos determinados...

Tercero... el dibujado de un frame es algo muy complejo en el que entra todo. Para dibujar algo en pantalla en un videojuego tienes que realizar un montón de tareas y no solo gráficas (si no resuelves temas de ia, físicas o netcode, por ejemplo, cómo sabes lo que vas a dibujar?). Y son operaciones que el coste de hacerlas más rápidas o hacer más en menos tiempo no son lineales en “potencia”, casi que son exponenciales (exagerando). Así que el doble de potencia no es el doble de frames.

Y para terminar... pasa en cada generación. Cada salto de potencia se usa para que los juegos se vean mejor, sean más grandes y llamen más la atención; no para que vayan más fluidos :)

Sorry por la chapa y si hay algo mal escrito, estoy desde el teléfono!
metaljules escribió:
Xlooser escribió:
metaljules escribió:

Es que has soltado una burrada más grande que el Empire State [sonrisa]

Por decirlo de una manera sencilla, la relación entre el aumento de desempeño en una cpu, y los fotogramas, no, repito, no de ninguna de las maneras, es lineal.

Dicho mal y pronto, podría decirse que hay una correlación exponencial dependiente de muchos factores, y aunque un aumento muy significativo podría dar un empuje gordo, jamás de los jamases hablariamos de aumento x10 de la cpu = aumento x10 de los fotogramas.

En cuanto a CPU sí, hasta es más, porque no todos los cálculos tienen que volver a hacerse en el nuevo frame. Lo que no es lineal es que 2 núcleos, por ejemplo, signifique que un procesador sea el doble de potente que un mononúcleo. Si tienes 10 veces más capacidad, podrás hacer 10 veces más cálculos.


@nanoxxl si lo reducimos al absurdo todo vale. El Raytracing es cosa de la máquina de cómputo, no de visionado. Si eso no se sabe discernir, sobran más palabras.


Pero la cuestión no es que pueda repetir los cálculos hasta diez veces más rápido, si no que no puede sacar 10 veces más frames, por decirlo de alguna manera

Que bueno, eso de hacer los cálculos 10 veces más rápidos también es una frase para estudiarla, pero eso

Está claro que todos los componentes de la cadena deben ir en consonancia, entonces no sería la CPU la responsable de no poder sacar un alto framerate.

Siguiendo con lo dicho anteriormente, si la CPU de PS5 fuera 6 veces más potente, el frametime correspondiente a la CPU se reduciría 6 veces. No es lineal desde el punto de vista del sistema, desde el punto de vista de un solo componente sí. Número de instrucciones, instrucciones por ciclo, ciclos por instrucción, frecuencia................todas esas medidas son lineales y el tiempo de ejecución disminuye en la misma proporción que aumentan.

http://www.fdi.ucm.es/profesor/jjruz/web2/temas/ec4.pdf

Vamos, que si todos los componentes acompañan (sobre todo la memoria) a una CPU 6 veces más potente, y no se aumenta la resolución ni los assets del juego ni los demás factores, el RDR 2 iría a 180 fps. Todos sabemos que es imposible, porque la GPU no será 6 veces más potente, la memoria no reduciría tanto su latencia, la demanda de otras tareas sería diferente..........

Si yo fuera desarrollador y tuviera una CPU 6 veces más rápida, haría cálculos más complejos 30 veces por segundo antes que los mismos 180 veces.


@nanoxxl si estamos hablando de la implementación del Raytracing, he mencionado las RTX...........¿por qué metes a la GTX1080TI? NO hay Raytracing por software, una GTX1080TI no sacaría ni 3 fps con Raytracing por software (literalmente).

Te copio, tal cual, mi comentario inicial. Dime cómo es posible que deduzcas que digo que la TV da igual y que no importa:

No hace falta tener una OLED para ver mejor la iluminación por Raytracing, ni HDR ni cosas por el estilo. Por supuesto, la calidad de imagen sería superior.


Ahora respóndeme tú a esto, ya que te gusta meter la resolución por medio:

¿Es necesario que el OLED sea 4K?
¿Se vería mejor el Raytracing en un OLED 1080p sin HDR que en un LED 4K con HDR?
¿Y en un hipotético OLED a 720?
Reduciendo al absurdo, como tanto te gusta, ¿se vería mejor en un hipotético (y sin sentido) OLED en blanco y negro?

¿Por qué quieres fuentes si no las vas a leer?

https://devblogs.nvidia.com/nvidia-turing-architecture-in-depth/
@nanoxxl estas mezclando cosas

Si por ejemplo gracias al raytracing salen las olas del mar reflejadas en el capo de un coche moviendose a tiempo real(por poner un ejemplo),que mas dara la televison que uses?

Logicamente contra mejor tele mejor lo veras pero las olas no van a desapsrecer del capo del coche en ninguna tele,siguen ahi reflejándose...
Noctisblue está baneado por "Saltarse el ban con un clon"
David Ricardo escribió:
Noctisblue escribió:Si pero no creo que PS5 lleve el zen2 de 60 núcleos a 10ghz cada uno. Llevará uno personalizado y tirando a flojo. Para abaratar.
Pero 10 veces mejor que el de ahora. Que es mucho.

Una CPU 10 veces más potente que otra que corre un juego a 30 fps, puede correr el mismo juego a 300 fps.
No sé cómo será la CPU finalmente, pero en foros americanos calculan a ojímetro que será unas 6 veces más potente. Pues 6 veces más que 30 son 180fps. Así que podría correr RDR2 perfectamente a 120fps. Otra cosa es que no lo veremos porque eso no lo aprecia ni lo pide nadie, y la GPU para mover todos esos frames tendría que bajar resolución, pero posible es.


jajajajjaja la cosa no va asi. Si no ya estariamos em los 1000000000Fps en pc. El rendiemiento que se espera es mucho. He dicho por decir 10 veces pero pueden ser 5 o pueden ser 10 no lo se con exactitud hasta que la saquen pero se espera un gran salto en la CPU y ni de lejos movera ningun juego a 120fps a no se que sea de Psone.
No se si movera RDR2 a 60fps dependera de varios factores pero sobretodo que la CPU maneje la suficiente informacion para no hacer cuello botella ( que tendra cuello botella pero se espera a unos niveles normales, en ps4 son muyy grandes y aun asi hemos tenido juegazos!!!!)
@nanoxxl Como te han comentado estás mezclando cosas. Que la iluminación y reflejos sea más realista no tiene nada que ver con la tecnología del panel de la tv.

Puede que estés mezclando conceptos con el HDR, que si depende de la calidad del panel, de los bits y de los nits que puede mostrar.
¿Por qué no se habla de cosas realistas en lugar de GPU ilimitadas y cosas así? No termino de entenderlo.
Yo no se para que le intentáis explicar nada del Raytracing. Responde de mala forma, piensa que sabe más que nadie e intenta menoscabar cualquier respuesta de los demás riéndose en su cara en "criajo mode" para más inri...

A este tipo de gente hay que decirles que sí, que llevan razón; ya se ponen en evidencia ellos solos cada vez que abren la boca.

Con respecto a los supuestos 4k nativos 60 fps que en teoría se apunta en las next-gen, deberíais a estas alturas intuir que nos comeremos también algún 4k nativos/dinámicos 30fps o incluso un 4k checkerboard 30fps. Que todos los juegos vayan a ir a 4k 60 fps no se lo cree ni José en el portal de Belén, y eso que tragó con lo del niño Jesus por mucho que se tenga una Cpu 10 veces más potente...

@Lin Juuichi muy buena y sintetizada explicación. Y es justo lo que hizo Ms con la X, equilibrar todo el hardware para que fuera posible ofrecer 4k nativos 30fps maximizando la eficiencia.
sirix105 está baneado por "clon de usuario baneado"
los 4K 60fps no seran todos juegos, porque siempre habra devs que prefieran desmarcarse con graficos WOW a 30 fps siempre salen mejor graficos ya que tienes mas potencia para hacer lo mismo.
IridiumArkangel escribió:Yo no se para que le intentáis explicar nada del Raytracing. Responde de mala forma, piensa que sabe más que nadie e intenta menoscabar cualquier respuesta de los demás riéndose en su cara en "criajo mode" para más inri...

A este tipo de gente hay que decirles que sí, que llevan razón; ya se ponen en evidencia ellos solos cada vez que abren la boca.

Con respecto a los supuestos 4k nativos 60 fps que en teoría se apunta en las next-gen, deberíais a estas alturas intuir que nos comeremos también algún 4k nativos/dinámicos 30fps o incluso un 4k checkerboard 30fps. Que todos los juegos vayan a ir a 4k 60 fps no se lo cree ni José en el portal de Belén, y eso que tragó con lo del niño Jesus por mucho que se tenga una Cpu 10 veces más potente...

@Lin Juuichi muy buena y sintetizada explicación. Y es justo lo que hizo Ms con la X, equilibrar todo el hardware para que fuera posible ofrecer 4k nativos 30fps maximizando la eficiencia.


Efectivamente. Seguiremos viendo los 30fps de forma generalizada en la nueva generación. Es muy tentador para los desarrolladores ofrecer más efectos que entren por los ojos a cambio de sacrificar fluidez, que es algo que no vende para una parte muy importante del mercado.
Xlooser escribió: @nanoxxl si estamos hablando de la implementación del Raytracing, he mencionado las RTX...........¿por qué metes a la GTX1080TI? NO hay Raytracing por software, una GTX1080TI no sacaría ni 3 fps con Raytracing por software (literalmente).

https://hardzone.es/2018/10/16/nvidia-r ... x-2080-ti/
NVIDIA habilita Ray Tracing en las GTX 1080 y 1080 Ti: así rinden frente a las RTX 2080 y 2080 Ti

Ok , cierto , usa RT Core , gran error mío , ahora solo hace falta que metan una GPU de 1000€ en una consola de 400/500€ .
nanoxxl escribió:
Xlooser escribió: @nanoxxl si estamos hablando de la implementación del Raytracing, he mencionado las RTX...........¿por qué metes a la GTX1080TI? NO hay Raytracing por software, una GTX1080TI no sacaría ni 3 fps con Raytracing por software (literalmente).

https://hardzone.es/2018/10/16/nvidia-r ... x-2080-ti/
NVIDIA habilita Ray Tracing en las GTX 1080 y 1080 Ti: así rinden frente a las RTX 2080 y 2080 Ti

Ok , cierto , usa RT Core , gran error mío , ahora solo hace falta que metan una GPU de 1000€ en una consola de 400/500€ .

O está mejor optimizado de lo que pensaba o la carga es muy inferior. Que las Pascal obtengan mejor rendimiento que las Volta (tarjetas profesionales de 3000 euros) es increíble.

Una GTX2080TI cuesta más de 1000 euros por diversos factores:

- El tamaño del chip es del doble que el de la APU de una consola. Y sólo hablamos de la gráfica. No es nada barato.
- Los Tensor Cores tampoco son baratos actualmente. Probablemente no estarán en la PS5 ni en Scarlett, posiblemente una versión más simple para limpiar la imagen (cruzo los dedos).
- Todos sabemos que Nvidia se sube a la parra con los precios.
- El precio minorista siempre es mayor que lo que puedan conseguir Sony o Microsoft.

Además, en los dos años que supuestamente los separen, los precios disminuirán mucho. Yo no pierdo la esperanza de ver una tímida entrada del Raytracing en tiempo real en las consolas. Si esperamos a que una tecnología esté madura el avance iría más lento.
Xlooser escribió:
nanoxxl escribió:
Xlooser escribió: @nanoxxl si estamos hablando de la implementación del Raytracing, he mencionado las RTX...........¿por qué metes a la GTX1080TI? NO hay Raytracing por software, una GTX1080TI no sacaría ni 3 fps con Raytracing por software (literalmente).

https://hardzone.es/2018/10/16/nvidia-r ... x-2080-ti/
NVIDIA habilita Ray Tracing en las GTX 1080 y 1080 Ti: así rinden frente a las RTX 2080 y 2080 Ti

Ok , cierto , usa RT Core , gran error mío , ahora solo hace falta que metan una GPU de 1000€ en una consola de 400/500€ .

O está mejor optimizado de lo que pensaba o la carga es muy inferior. Que las Pascal obtengan mejor rendimiento que las Volta (tarjetas profesionales de 3000 euros) es increíble.

Una GTX2080TI cuesta más de 1000 euros por diversos factores:

- El tamaño del chip es del doble que el de la APU de una consola. Y sólo hablamos de la gráfica. No es nada barato.
- Los Tensor Cores tampoco son baratos actualmente. Probablemente no estarán en la PS5 ni en Scarlett, posiblemente una versión más simple para limpiar la imagen (cruzo los dedos).
- Todos sabemos que Nvidia se sube a la parra con los precios.
- El precio minorista siempre es mayor que lo que puedan conseguir Sony o Microsoft.

Además, en los dos años que supuestamente los separen, los precios disminuirán mucho. Yo no pierdo la esperanza de ver una tímida entrada del Raytracing en tiempo real en las consolas. Si esperamos a que una tecnología esté madura el avance iría más lento.

Me puedes enseñar una comparativa de una imagen con raytracing y otra sin ella que justifique el gasto y la pérdida de rendimiento? Yo supongo que el raytracing a la larga será cojonudo. Pero ahora mismo lo veo malgastar recursos y dinero.
David Ricardo escribió:
Xlooser escribió:
nanoxxl escribió:https://hardzone.es/2018/10/16/nvidia-r ... x-2080-ti/

Ok , cierto , usa RT Core , gran error mío , ahora solo hace falta que metan una GPU de 1000€ en una consola de 400/500€ .

O está mejor optimizado de lo que pensaba o la carga es muy inferior. Que las Pascal obtengan mejor rendimiento que las Volta (tarjetas profesionales de 3000 euros) es increíble.

Una GTX2080TI cuesta más de 1000 euros por diversos factores:

- El tamaño del chip es del doble que el de la APU de una consola. Y sólo hablamos de la gráfica. No es nada barato.
- Los Tensor Cores tampoco son baratos actualmente. Probablemente no estarán en la PS5 ni en Scarlett, posiblemente una versión más simple para limpiar la imagen (cruzo los dedos).
- Todos sabemos que Nvidia se sube a la parra con los precios.
- El precio minorista siempre es mayor que lo que puedan conseguir Sony o Microsoft.

Además, en los dos años que supuestamente los separen, los precios disminuirán mucho. Yo no pierdo la esperanza de ver una tímida entrada del Raytracing en tiempo real en las consolas. Si esperamos a que una tecnología esté madura el avance iría más lento.

Me puedes enseñar una comparativa de una imagen con raytracing y otra sin ella que justifique el gasto y la pérdida de rendimiento? Yo supongo que el raytracing a la larga será cojonudo. Pero ahora mismo lo veo malgastar recursos y dinero.

No la hay. El gasto se justificará según el criterio propio.
hit está baneado por "Troll"
Xlooser escribió:
nanoxxl escribió:
Xlooser escribió: @nanoxxl si estamos hablando de la implementación del Raytracing, he mencionado las RTX...........¿por qué metes a la GTX1080TI? NO hay Raytracing por software, una GTX1080TI no sacaría ni 3 fps con Raytracing por software (literalmente).

https://hardzone.es/2018/10/16/nvidia-r ... x-2080-ti/
NVIDIA habilita Ray Tracing en las GTX 1080 y 1080 Ti: así rinden frente a las RTX 2080 y 2080 Ti

Ok , cierto , usa RT Core , gran error mío , ahora solo hace falta que metan una GPU de 1000€ en una consola de 400/500€ .

O está mejor optimizado de lo que pensaba o la carga es muy inferior. Que las Pascal obtengan mejor rendimiento que las Volta (tarjetas profesionales de 3000 euros) es increíble.

Una GTX2080TI cuesta más de 1000 euros por diversos factores:

- El tamaño del chip es del doble que el de la APU de una consola. Y sólo hablamos de la gráfica. No es nada barato.
- Los Tensor Cores tampoco son baratos actualmente. Probablemente no estarán en la PS5 ni en Scarlett, posiblemente una versión más simple para limpiar la imagen (cruzo los dedos).
- Todos sabemos que Nvidia se sube a la parra con los precios.
- El precio minorista siempre es mayor que lo que puedan conseguir Sony o Microsoft.

Además, en los dos años que supuestamente los separen, los precios disminuirán mucho. Yo no pierdo la esperanza de ver una tímida entrada del Raytracing en tiempo real en las consolas. Si esperamos a que una tecnología esté madura el avance iría más lento.


Estas metiendo la pata hasta el fondo,el rtx como tal lleva años usandose años y como te ha dicho el compañero las que no tienen tensor cores pueden tirar cualquier bench con rtx,con su resultado pauperrimo pero lo corre

Pd: No vas a ver en consolas con hard amd rtx a un precio de 400/500 ni de broma,por mucho zen custom que tenga con graficos vega 20 sera un chip low cost para no salirse de madre con el precio
@hit ¿qué el raytracing lleva años usándose? Claro, en CGI está a la orden del día. En cuanto a videojuegos, DirectX y Vulkan no lo han implementado hasta hace poquito, así que me juego el cuello a que no lo has visto en ningún proyecto relevante o conocido.

RT Cores y Tensor Cores no son lo mismo, y seguro que no tienes ni idea de en qué se diferencian. No te las voy a explicar, busca información si eres capaz.

De todas formas, como veo que no lo has interpretado bien, en el primer párrafo lo que hago es aceptar su palabra. Ese zasca que te mueres por darme tendrá que esperar.
hit está baneado por "Troll"
Xlooser escribió:@hit ¿qué el raytracing lleva años usándose? Claro, en CGI está a la orden del día. En cuanto a videojuegos, DirectX y Vulkan no lo han implementado hasta hace poquito, así que me juego el cuello a que no lo has visto en ningún proyecto relevante o conocido.

RT Cores y Tensor Cores no son lo mismo, y seguro que no tienes ni idea de en qué se diferencian. No te las voy a explicar, busca información si eres capaz.


https://es.wikipedia.org/wiki/Trazado_de_rayos

inventado desde 1980 y usandose en tecnicas en estudios de animacion con gpus bastante tochas desde los ¿finales de los 90? lo unico que hace el TENSOR CORE es ayudar a que la carga disminuya


Imagen


Imagen

https://www.anandtech.com/show/13282/nvidia-turing-architecture-deep-dive/5

Ya tienes lectura para mein cagadero y por supuesto sigue soñando con que te van a dar por ¿500 euros? rtx,lo mismo que la one x tenia una 1070 de gpu [beer]

Edit: Buena pagina anandtech,se aprende mucho de ella,te la recomiendo para que sepas que es el rtx y lo que hacen los tensor cores
AMD no tiene raytracing todavía. Dudo que estén dimensionando hardware pensando en la tecnología inmediatamente siguiente contando con RT. Seguramente pueda ser el argumento de venta de PS5 PRO.
Stylish escribió:AMD no tiene raytracing todavía. Dudo que estén dimensionando hardware pensando en la tecnología inmediatamente siguiente contando con RT. Seguramente pueda ser el argumento de venta de PS5 PRO.

Si tiene , pero no a nivel usuario , para eso dijo que cuando pueda meter lo en todas las gráfica lo meterá .
Muy caro y poco rendimiento para ps5 .
@hit jajajaja tío, que seas tú el que me diga que estoy metiendo la pata es delirante. ¿Conoces la diferencia entre una película de animación y el renderizado en tiempo real?

No dudo de que en Anandtech hagan un buen análisis de la arquitectura Turing. Gracias por el enlace, lo leeré porque nunca viene mal y no voy a ser tan engreído de creer que no necesito leer nada más sobre cualquier tema.

Los Tensor Cores NO son los RT Cores, eso es lo primero que se debe comprender. Los Tensor Cores NO hacen el Raytracing, ni siquiera los RT Cores, lo aplican los Shaders de toda la vida. A partir de ahí, se puede construir todo un razonamiento y debatir sobre ello, y lo haré encantado con alguien que de verdad quiera debatir.

Yo sigo confiado en que de alguna forma se añadirá esa aceleración por hardware. Ahora mismo, Sony y Microsoft tienen una competencia enorme, y el que se quede atrás tecnológicamente llevará una sobrecarga difícil de llevar, sobre todo si Amazon, Google y/o Apple deciden asomar el hocico en el mercado de los videojuegos. Claro que yo hablo para la segunda mitad de 2020, si alguna sale antes lo tendrá más difícil.
hit está baneado por "Troll"
Xlooser escribió:@hit jajajaja tío, que seas tú el que me diga que estoy metiendo la pata es delirante. ¿Conoces la diferencia entre una película de animación y el renderizado en tiempo real?

No dudo de que en Anandtech hagan un buen análisis de la arquitectura Turing. Gracias por el enlace, lo leeré porque nunca viene mal y no voy a ser tan engreído de creer que no necesito leer nada más sobre cualquier tema.

Los Tensor Cores NO son los RT Cores, eso es lo primero que se debe comprender. Los Tensor Cores NO hacen el Raytracing, ni siquiera los RT Cores, lo aplican los Shaders de toda la vida. A partir de ahí, se puede construir todo un razonamiento y debatir sobre ello, y lo haré encantado con alguien que de verdad quiera debatir.


Mira la foto,mira donde esta posicionado el tensor core y mira donde esta el rt core...a partir de ese punto lee el enlace que te he puesto si tu labores de policia no te lo impiden claro

Buenas noches artista

Y para el resto del hilo no os dejeis llevar por este hombre...pide rtx en un aparato que va a costar 400 pavos,que viene de la mano de amd y que ellos han dicho que hasta que la gama media no pueda con esa feature no se va a ver en sus productos,blanco y en botella
Leeros esto y poned especial atención cuando hacen "las matemáticas" necesarias para aplicar raytracing (rayos por píxel) con las 2070/80/80ti (que no está demás recordar que NO es raytracing total, sólo una fórmula híbrida) y a que resolución nativa y a cuantos fps.

https://www.pcgamer.com/what-is-ray-tracing/

Ahí es donde caeremos de la burra y veremos que intentar "meter raytracing" en las next-gen parece un error a todas luces. Pero bueno, ya veremos si son capaces de sacarse de la manga algo que merezca la pena o no en relación al aumento de calidad/coste computacional que ello supondría..
hit escribió:Y para el resto del hilo no os dejeis llevar por este hombre...pide rtx en un aparato que va a costar 400 pavos,que viene de la mano de amd y que ellos han dicho que hasta que la gama media no pueda con esa feature no se va a ver en sus productos,blanco y en botella

Esta claro que se puede estar de a cuerdo o no , se puede estar equivocado o no , pero en un foro lo que tenemos es que tener respeto a todo .
Pedir que se tenga cierta actitud con otro usuario a los demás queda de muy mal gusto .
No estaría mal tener educación hacia todos , que queda muy feo esa actitud y sobretodo resta credibilidad a uno mismo .
Por cierto yo creo que es imposible esto en ps5 .
hit está baneado por "Troll"
nanoxxl escribió:
hit escribió:Y para el resto del hilo no os dejeis llevar por este hombre...pide rtx en un aparato que va a costar 400 pavos,que viene de la mano de amd y que ellos han dicho que hasta que la gama media no pueda con esa feature no se va a ver en sus productos,blanco y en botella

Esta claro que se puede estar de a cuerdo o no , se puede estar equivocado o no , pero en un foro lo que tenemos es que tener respeto a todo .
Pedir que se tenga cierta actitud con otro usuario a los demás queda de muy mal gusto .
No estaría mal tener educación hacia todos , que queda muy feo esa actitud y sobretodo resta credibilidad a uno mismo .
Por cierto yo creo que es imposible esto en ps5 .


Vamos a ver,el rt core que del que habla es el nucleo en si de la gpu,los tensor cores lo que hacen hablando en plata es hacer posible esa iluminacion ayudando a liberar de carga al nucleo,partiendo de la base que lleva 4 paginas hablando del rtx como si supiera lo que es,le pongo un enlace donde se ve claramente lo que digo y se toma la libertad de reirse de mi ¿wtf?

Rtx en una apu de amd que va a costar como mucho 500 euros es imposible y por eso me tomo la licencia de decir eso si el se rie de mi,le digo que esta metiendo la pata y encima se toma la libertad de creerse mas que yo,no tio...tengo una 2070 y antes de meterme en el verengenal de pillarla me lei lo que no esta escrito de esto,600 euros de broma como para saber o no lo que es
hit escribió:Vamos a ver,el rt core que del que habla es el nucleo en si de la gpu,los tensor cores lo que hacen hablando en plata es hacer posible esa iluminacion ayudando a liberar de carga al nucleo,partiendo de la base que lleva 4 paginas hablando del rtx como si supiera lo que es,le pongo un enlace donde se ve claramente lo que digo y se toma la libertad de reirse de mi ¿wtf?

Rtx en una apu de amd que va a costar como mucho 500 euros es imposible y por eso me tomo la licencia de decir eso si el se rie de mi,le digo que esta metiendo la pata y encima se toma la libertad de creerse mas que yo,no tio...tengo una 2070 y antes de meterme en el verengenal de pillarla me lei lo que no esta escrito de esto,600 euros de broma como para saber o no lo que es

Esta claro que es muy difícil por no decir imposible que la ps5 lo tenga .
Pero algunas actitudes , y que conste que otros la tienen mucho peor , pero bueno , supongo que ya cada uno con lo que hace , un hilo mas relajado no estaría mal .
@hit me temo que no te enteraste de todo al comprar la gráfica. El RT Core es un componente de toda la arquitectura, no el núcleo en sí. Los Tensor Core son otro componente y los SM (los Shaders) otro, que por cierto, siguen llevando el mayor peso de la gráfica.

Por mi parte, se acabó de hablar de Raytracing, que parece que molesta. Sólo espero que Mark Cerny sea más optimista que en este hilo, como cuando puso 8 GB de GDDR5 en 2013 y nadie se lo podía creer, que incluso sorprendió a Microsoft.


IridiumArkangel escribió:Leeros esto y poned especial atención cuando hacen "las matemáticas" necesarias para aplicar raytracing (rayos por píxel) con las 2070/80/80ti (que no está demás recordar que NO es raytracing total, sólo una fórmula híbrida) y a que resolución nativa y a cuantos fps.

https://www.pcgamer.com/what-is-ray-tracing/

Ahí es donde caeremos de la burra y veremos que intentar "meter raytracing" en las next-gen parece un error a todas luces. Pero bueno, ya veremos si son capaces de sacarse de la manga algo que merezca la pena o no en relación al aumento de calidad/coste computacional que ello supondría..

Ha resultado surtir el efecto contrario, ahora estoy más convencido de que es posible. Terminan el artículo diciendo que las unidades RT Core doblarán o cuadriplicarán a los SM en las siguientes tarjetas, cuando hoy la relación es 1:1. Vamos, que en la siguiente tarjeta de Nvidia se podrían lanzar 20 Gigarayos (ó 40) por segundo sin tocar nada de la arquitectura del RT Core............¿en 2020? Seguramente. Por lo demás, no dice nada de por qué se pierde rendimiento.

DICE ha conseguido una mejora de entre el 40 y 60 % usando Raytracing en Battlefield 5 con un mísero parche (DF: actualización Battlefield 5, dos años en tecnología es mucho tiempo, el Raytracing es el verdadero valor añadido....En fin, tengo motivos para creer que se implementará. El "NO" se sustenta en un raquítico "es imposible", sin dar más explicaciones.

Además, el Cone Tracing es un gran paso intermedio, que aunque no ofrezca la misma calidad, sigue siendo una variante de Raytracing y mejor que lo que hay ahora.
Seria maravilloso que ps5 llevara RT ... pero sinceramente lo dudo. Es algo "relativamente"nuevo y que las graficas no dominan aun. Gastan MUCHOS recursos para ello.
Dudo que ninguna de nueva GEN traiga esa tecnica.
Digo... Voy a entrar a ver si hay alguna novedad con respecto a PS5, y lo único que me encuentro son discusiones entre uno y otro que si el precio de la RAM esto y lo otro, luego que si el RT con pullitas entre uno y otro y a ver quién la tiene más gorda...

Menos hablar de PS5, cualquier cosa.
Misstic escribió:Digo... Voy a entrar a ver si hay alguna novedad con respecto a PS5, y lo único que me encuentro son discusiones entre uno y otro que si el precio de la RAM esto y lo otro, luego que si el RT con pullitas entre uno y otro y a ver quién la tiene más gorda...

Menos hablar de PS5, cualquier cosa.

Bueno, es que de PS5 no hay nada sólido. Hay que conjeturar sobre si tiene sentido usar esta cantidad de ram o la otra, si es esperable que tenga RT, si es esperable que tenga retro, qué implica que la cpu tenga esta u otra potencia... con la información que tenemos, es lo más parecido a hablar de PS5 que podemos hacer.

Según tú, de qué se supone que deberíamos estar hablando?
Misstic escribió:Digo... Voy a entrar a ver si hay alguna novedad con respecto a PS5, y lo único que me encuentro son discusiones entre uno y otro que si el precio de la RAM esto y lo otro, luego que si el RT con pullitas entre uno y otro y a ver quién la tiene más gorda...

Menos hablar de PS5, cualquier cosa.

A PS5 le queda un tiempo para tener novedades, hasta que Sony la presente no habrá nada.
David Ricardo escribió:
Misstic escribió:Digo... Voy a entrar a ver si hay alguna novedad con respecto a PS5, y lo único que me encuentro son discusiones entre uno y otro que si el precio de la RAM esto y lo otro, luego que si el RT con pullitas entre uno y otro y a ver quién la tiene más gorda...

Menos hablar de PS5, cualquier cosa.

Bueno, es que de PS5 no hay nada sólido. Hay que conjeturar sobre si tiene sentido usar esta cantidad de ram o la otra, si es esperable que tenga RT, si es esperable que tenga retro, qué implica que la cpu tenga esta u otra potencia... con la información que tenemos, es lo más parecido a hablar de PS5 que podemos hacer.

Según tú, de qué se supone que deberíamos estar hablando?

Para mi no es el qué, sino el cómo.

En lugar de aportar cada uno su conocimiento para tratar de llegar a conclusiones acertadas y que los demás aprendan algo, los mensajes parecen sacados de una pelea de patio de colegio por demostrar quien sabe mas. Se nota mucho vinagre en ellos y eso, a mi por lo menos, me desagrada.

Una lástima...
Fifero81 escribió:Para mi no es el qué, sino el cómo.

En lugar de aportar cada uno su conocimiento para tratar de llegar a conclusiones acertadas y que los demás aprendan algo, los mensajes parecen sacados de una pelea de patio de colegio por demostrar quien sabe mas. Se nota mucho vinagre en ellos y eso, a mi por lo menos, me desagrada.

Una lástima...


Aunque nos pese, esa es la tónica general, no de este hilo sino de EOL / redes sociales / foros / internet. Coge un hilo cualquiera de EOL de hace 15 años y verás que el tono no tiene nada que ver al que te encuentras ahora.
Pues si aquí a la salida de 360/ps3 era irrespirable, los tonos y piques actuales dejan en nada a las guerras de entonces.
Buenas.

Mis pronósticos para la consola, en tema de fechas, ya que de capacidades ya andáis debatiendo bastante:

-Junio 2019 presentacion (Carcasa y algunos datos generales).
-Diciembre 2019 características generales completas y fecha lanzamiento.
-Junio 2020 lanzamiento solo Japón, día 1 Juegos Olímpicos(y todo lleno de publicidad de ps5, ya que juegan en casa).
-noviembre 2020 lanzamiento resto del mundo.

Yo creo que los Juegos Olímpicos va a ser el punto donde saldrá la máquina, para aprovechar al máximo el aumento de turistas por las olimpiadas.

Un saludo.
Yo creo que como muy tarde saldrá en marzo de 2020. No me sorprendería nada que la anunciasen en verano y saliera en noviembre del próximo año. De salir antes en un mercado creo que se lanzarían antes en Europa y USA que en Japón.
Xlooser escribió:
Ha resultado surtir el efecto contrario, ahora estoy más convencido de que es posible. Terminan el artículo diciendo que las unidades RT Core doblarán o cuadriplicarán a los SM en las siguientes tarjetas, cuando hoy la relación es 1:1. Vamos, que en la siguiente tarjeta de Nvidia se podrían lanzar 20 Gigarayos (ó 40) por segundo sin tocar nada de la arquitectura del RT Core............¿en 2020? Seguramente. Por lo demás, no dice nada de por qué se pierde rendimiento.



De que es posible en las siguientes consolas next-gen con un presupuesto de en torno a 500€ por todo el hardware!? Pero tu has leído bien el artículo!!?? ¬_¬

Eso que comentas de poder lanzar 20 o incluso 40 Gigarayos por segundo, sería con las futuras Gpu de vanguardia de Pc (que mínimo hasta dentro de un par de años no se verán) en el mejor de los casos. Esas tarjetas saldrán seguramente a precios prohibitivos, requerirán su buena potencia en watios, necesitarán de una buena refrigeración así como de requerir bastante espacio físico y no entran dentro del periodo de desarrollo del hardware de Ps5/Scarlet que se tienen que cerrar en torno a 1 año antes de lanzarse al mercado. Vamos, algo irrealizable a todas luces en las "inminentes" consolas next-gen por múltiples factores...

Por otro lado, me dá que sólo has leído en oblícuo y no te has fijado en los hechos ya constatados con una 2080 ti (que aún no está a la venta y será el mayor pepino tangible actualmente) y con la que han hecho "los números base".

Taking the 2080 Ti and its 10 GR/s as a baseline, if we're rendering a game at 1080p, that's about 2 million pixels, and 60fps means 120 million pixels. Doing the math, a game could do 80 rays per pixel at 1080p60, if the GPU is doing nothing else—and at 4k60 it would be limited to 20 rays per pixel. But games aren't doing pure ray tracing, as they still use rasterization for a lot of the environment


Vamos, que con una 2080 Ti se podrían llegar a conseguir esos números de 10 Gigarayos/segundo (para tener un raytracing sólo parcial y de calidad "discutible" recordemos, ya que no deja de ser un primer acercamiento a la tecnología aplicada a engines de videojuegos comerciales), pero sólo con 80 rayos por pixel a 1080p 60fps o 20 rayos por pixel a 4k 60fps. Pero se conseguirían con una "pequeña pega", esos números sólo serían así si LA GPU SOLO ESTUVIERA HACIENDO ESE TRABAJO! A ver a quien le colgamos las minucias de dibujar y rasterizar toooodo lo demás [+risas]
@IridiumArkangel lo mismo sale una version ps5 de lujo bañado en oro y metan las ultimas gráficas del momento.
Y con el innovador sistema de pago de :pase por aqui caballero. que riñón quiere el izquierdo o derecho
Grinch escribió:@IridiumArkangel lo mismo sale una version ps5 de lujo bañado en oro y metan las ultimas gráficas del momento.
Y con el innovador sistema de pago de :pase por aqui caballero. que riñón quiere el izquierdo o derecho


Igual en los mundos de Yupi si la sacan, vete tu a saber que alguna cosa por el estilo ya se ha visto [+risas] , pero de lo que estoy seguro es que no se producirá en serie para consumir en el mass market...
Xlooser escribió:
Misstic escribió:Digo... Voy a entrar a ver si hay alguna novedad con respecto a PS5, y lo único que me encuentro son discusiones entre uno y otro que si el precio de la RAM esto y lo otro, luego que si el RT con pullitas entre uno y otro y a ver quién la tiene más gorda...

Menos hablar de PS5, cualquier cosa.

A PS5 le queda un tiempo para tener novedades, hasta que Sony la presente no habrá nada.

Como bien ha dicho el compañero @Fifero81 , es el cómo se están tratando los temas, creando un ambiente de crispación elevado y rozando las faltas de respeto.
Fifero81 escribió:Para mi no es el qué, sino el cómo.

En lugar de aportar cada uno su conocimiento para tratar de llegar a conclusiones acertadas y que los demás aprendan algo, los mensajes parecen sacados de una pelea de patio de colegio por demostrar quien sabe mas. Se nota mucho vinagre en ellos y eso, a mi por lo menos, me desagrada.

Una lástima...

Bueno, eso es cosa de moderación, que podría pegar toques a los que faltan al respeto, usan argumentos falaces, discuten con la intención no de aprender sino de enredar para ganar aparentemente la discusión...
si no dicen nada, es que esto es como se supone que debería funcionar el foro.
kron-ragnarok escribió:Buenas.

Mis pronósticos para la consola, en tema de fechas, ya que de capacidades ya andáis debatiendo bastante:

-Junio 2019 presentacion (Carcasa y algunos datos generales).
-Diciembre 2019 características generales completas y fecha lanzamiento.
-Junio 2020 lanzamiento solo Japón, día 1 Juegos Olímpicos(y todo lleno de publicidad de ps5, ya que juegan en casa).
-noviembre 2020 lanzamiento resto del mundo.

Yo creo que los Juegos Olímpicos va a ser el punto donde saldrá la máquina, para aprovechar al máximo el aumento de turistas por las olimpiadas.

Un saludo.

Yo noviembre de 2020 lo veo demasiado tarde, yo creo que será mas en marzo de 2020 y la xbox a finales de 2020. Pero en cuanto a fechas de anuncios sí es posible, en diciembre de 2019 una experience por todo lo alto mostrando el diseño final, sepas y fecha para primavera y que ya se pueda probar en la feria. Un e3 pero para ellos solos con todo el protagonismo
@IridiumArkangel debo hablar con jeroglíficos, porque mis mensajes no se entienden. No he dicho que vayan a meter la misma tecnología que en las futuras tarjetas de Nvidia, para las cuales yo también he contado con dos años para su lanzamiento. Por lo demás, no volveré a hablar del Raytracing en ningún hilo, estoy agotado.

No te tomes esto como una crítica personal.


@Misstic sé a qué te refieres y solo he utilizado un tono burlón con ESE usuario, porque no es la primera vez que me busca.
Xlooser escribió:@IridiumArkangel debo hablar con jeroglíficos, porque mis mensajes no se entienden. No he dicho que vayan a meter la misma tecnología que en las futuras tarjetas de Nvidia, para las cuales yo también he contado con dos años para su lanzamiento. Por lo demás, no volveré a hablar del Raytracing en ningún hilo, estoy agotado.

No te tomes esto como una crítica personal.



Pues no se que intentas decir entonces. Si no es la misma tecnología, no es raytracing híbrido de lo que hablamos que esperas para las next-gen entonces? Sintetiza a que te refieres pues, porque no vi otra alusión...

Ya digo emho, que por lo que he leído por bastantes artículos como el que he puesto, que las siguientes consolas next-gen se metan en ese berenjenal ahora mismo no tiene sentido cuando en Pc aún está dando los primeros pasos a nivel comercial con las últimas Gpu que han sacado. A estas alturas es caro, ineficaz y que sólo pone en escena raytracing limitado en calidad y cantidad (sólo una parte del renderizado).
180659 respuestas