PS6 y el PC Gaming: explorando el futuro del hardware y los videojuegos para la décima generación

Version 3.0: Voy a ajustar algunos datos y características en base a nuevas filtraciones y el feedback de los eolianos.

1. Introducción: Un análisis especulativo con base sólida

Este post tendrá un fuerte componente especulativo, pero siempre con una base sólida. Realizaré extrapolaciones e inferencias basadas en las hojas de ruta oficiales que se conocen, y solo tendré en cuenta datos y filtraciones que parezcan verosímiles. Posiblemente resulte largo y denso para la mayoría de los eolianos.

2. La relación entre PS6 y el PC Gaming

Comienzo aclarando la razón por la que menciono a la PS6 y el PC Gaming en el mismo contexto. Normalmente el desarrollo de videojuegos se enfoca en un hardware promedio, que suele coincidir con la potencia de las consolas de la generación de turno y con las GPUs de gama media. Por ejemplo, las GPUs más vendidas actualmente son: RTX 4060, RTX 4060 Ti, RTX 4070, RX 7600 XT, RX 7700 XT y RX 7800 XT.

Los videojuegos suelen progresar teniendo en cuenta el hardware promedio de cada generación. Las consolas suelen estar en el rango de potencia de una GPU de gama media. Por ejemplo, la PS5 ofrece una experiencia similar a una RX 6700 (en su momento gama media), y la PS5 Pro se asemeja a una RX 7800 XT.

3. Evolución de los nodos de TSMC y su impacto en PS6 y las GPUs

Pasemos a analizar cómo evolucionarán los nodos de TSMC en los próximos años para determinar qué podemos esperar de una PS6 y de una GPU de gama media equivalente. Mencionaré la potencia estimada de las GPUs de Nvidia para la gama media y alta al final del post.

Es casi seguro que la PS6 se lanzará en noviembre de 2027. Algunas personas piensan que podría retrasarse hasta 2028, pero eso no tiene sentido. Noviembre de 2028 sería demasiado tarde para aprovechar el lanzamiento de Zen 6 y una GPU personalizada basada en RX 9000, y sería demasiado temprano y costoso para montar Zen 7 y una GPU basada en RX 10000. La única ventana viable es noviembre de 2027, lo que también encaja mejor con el ciclo de vida promedio de las consolas. El mes es el habitual de Sony para aprovechar el Black Friday y la campaña navideña.

Actualmente el nodo más avanzado es el de 3 nm (N3 y N3E), y se seguirá mejorando con versiones como N3P. El siguiente gran paso es el salto a los 2 nm (N2), que debería comenzar a producirse en 2025 y refinarse en 2026 con versiones como N2P. Después vendría el salto a 1.6 nm, el nodo A16, aunque es probable que no llegue hasta finales de 2026 o principios de 2027.

Podemos descartar el nodo A16 para la PS6, ya que no estará listo a tiempo, y al principio se destinará principalmente a los centros de datos. Por lo tanto, es razonable asumir que tanto la PS6 como las RX 9000 y RTX 6000 utilizarán un nodo de 2 nm de TSMC (o su equivalente en Samsung), probablemente una versión refinada como el N2P.

Tener en cuenta que diseñar una consola se hace con años de antelación, y producir en masa las unidades necesita de varios meses. Lo cual descarta completamente el nodo A16. Encima va a ser muy caro para esas fechas para una consola de videojuegos. Pero tranquilos, el salto de 4 nm desde PS5 Pro a los 2 nm de PS6 ya es considerable. Más aún si lo vemos desde la perspectiva de la PS5 original con 7 nm.

4. Arquitectura y avances en la PS6: Zen 6 y RX 9000

Se ha filtrado que el fabricante de la PS6 seguirá siendo AMD (no creo que nadie se sorprenda), lo que significa que contará con una APU personalizada basada en Zen 6 y RX 9000. Las CPUs basadas en Zen 6 se lanzarán en el Q3 o Q4 de 2026, y las RX 9000 en el Q1 de 2027, por lo que esta combinación tiene mucho sentido para cumplir con el lanzamiento de la consola a finales de 2027, y con un coste razonable bajo un proceso de 2 nm.

Tanto AMD como Sony están enfocando el hardware de sus consolas y GPUs hacia mejoras en IA. Es muy probable que Zen 6 (Ryzen 10000) cuente con una NPU dedicada. Las CPUs y GPUs basadas en el proceso de 2 nm estarán orientadas a mejorar el rendimiento en IA con núcleos especializados. Esto también cuadra con tecnologías como FSR 4, que usará machine learning, aunque para entonces ya podemos esperar un algoritmo de ML más refinado, tal vez FSR 5 o PSSR 2. Es posible que la PS6 utilice ambas tecnologías de reescalado, y los desarrolladores podrán elegir cuál usar. Tal vez Sony abandone su propio algoritmo en favor de FSR 5 si los resultados son satisfactorios y permite ahorrar costes.

Las RX 9000 seguramente emplearán una arquitectura UDNA, la intención de AMD es fusionar la arquitectura RDNA con CDNA (la arquitectura de centros de datos) para crear un híbrido llamado UDNA. Este cambio tiene bastante sentido, ya que desde hace tiempo ha habido rumores sobre una gran reestructuración de la arquitectura RDNA. También se rumorea que podría contar con un diseño multichiplet.

5. Nuevos motores y herramientas: Nvidia ACE y Unreal Engine 6

Es importante mencionar que tecnologías como Nvidia ACE (presentada en 2023) podrían empezar a utilizarse en el desarrollo de videojuegos para la décima generación, abriendo el camino a videojuegos con NPC dinámicos y realistas, lo que daría como resultado interacciones más naturales y una mayor rejugabilidad. Este va a ser uno de los puntos más significativos de la nueva generación, incluso por encima de la mejora en gráficos.

Motores como UE6 podrían reducir los costos del desarrollo de videojuegos para la décima generación, mediante herramientas de IA que permitan una mayor generación procedural y la automatización de tareas repetitivas. Las mejoras en Nanite, en IA, y la interoperabilidad entre plataformas y tecnologías, podrían ayudar a reducir costos y cambiar el paradigma del desarrollo de los videojuegos.

6. Iluminación y Resolución: Ray Tracing como estándar y nuevos algoritmos de escalado ML

La iluminación por Ray Tracing será el estándar en la décima generación, y el Path Tracing quedará reservado para los equipos con GPUs de gama alta.

Podemos esperar una resolución base de 1440p con reescalado por IA hasta 2160p. Con los nuevos algoritmos basados en IA no debería haber diferencia notoria respecto a los 2160p nativos. Podemos decir adiós a los algoritmos tradicionales de reescalado para la décima generación.

Sería recomendable que la tasa mínima de FPS en consolas sea de 60 FPS, y podríamos ver mejoras en este aspecto gracias a una mejor interpolación de fotogramas y una mayor reducción de la latencia de interpolación.

7. Detalles de la PS6: Hardware y Especificaciones

Ahora pasemos a los datos más concretos sobre lo que podemos esperar de las consolas de la décima generación. Voy a utilizar solamente PS6 como ejemplo, ya que de una futura Xbox podemos esperar algo similar.

CPU: APU custom basada en Ryzen 10000 (Zen 6). Se espera un aumento en el número de núcleos por CCD del 50 %, con CPUs de 8, 12, y 24 núcleos. Las gamas quedarían así: Ryzen 5 con 8 núcleos y una NPU, Ryzen 7 con 12 núcleos y una NPU, Ryzen 9 con 24 núcleos y una NPU. Si Sony y AMD repiten el enfoque de PS5 basandose en un Ryzen 7 custom (como hicieron con el R7 3700X en PS5), podríamos ver una CPU de 12 núcleos con NPU, reservando 2 núcleos para el sistema y dejando unos 10 núcleos para videojuegos.

Otra opción podría ser optar por una CPU custom basada en un Ryzen 5, de esa forma tendrían 8 núcleos, dejando más espacio en el die para aumentar la potencia de la GPU. Podrían prescindir de la NPU y aumentar aun más el tamaño de la GPU con arquitectura UDNA, de esa forma dejarían las tareas de IA exclusivamente a los Matrix Cores (el equivalente de AMD de los Tensor Cores). Esto podría tener sentido ya que una consola no necesita una CPU tan potente, el objetivo suele ser mantener tasas de 30 o 60 FPS, con una resolución de entre 1080p a 1440p reescalada hasta los 2160p.

De modo que tenemos dos opciones para la CPU de la APU:

- Entre 8 y 12 núcleos con una NPU, en caso de que el die permita integrar todo sin disparar el tamaño, y por tanto, el costo y las temperaturas.

- Entre 8 y 12 núcleos sin NPU, pero con más espacio para la GPU en el die, las tareas relacionadas con la IA dependerían de los Matrix Cores de la GPU.

Técnicamente sería posible añadir 3D V-Cache a la CPU, pero debido al costo es muy improbable que suceda. No tiene sentido dedicar tantos recursos a una CPU orientada a mantener 30 o 60 FPS, con una resolución de entre 1080p a 1440p reescalada a 2160p. Cuanta más resolución menos CPU necesitas.

RAM: 32 GB de memoria GDDR7 unificada para la CPU y GPU, con un bus de 256 bits. Lo que daría un ancho de banda de unos 1024 GB/s. Asumiendo que la velocidad por pin es de 32 Gb/s.

Para finales de 2027 ya debería haber llegado la memoria GDDR7X, pero Sony siempre ha implementado memorias GDDR normales, supongo que para ahorrar costes, así que seguramente la podemos descartar.

GPU: Similar a una RX 9700 XT custom, así que debería estar alrededor de los 50 TFLOPS (FP32) contando con dual-issue. Esto representaría un salto de x5 respecto a PS5, similar al salto de PS4 a PS5. La potencia en rasterización sería parecida a la de una RTX 4070 Ti Super o una RX 7900 XT, pero con mejor rendimiento en ML y RT gracias a la arquitectura UDNA.

Es bastante probable que la potencia final en rasterización sea inferior a los 50 TFLOPS (FP32), situándose más bien en el rango de los 30-40 TFLOPS (FP32) con dual-issue. El rendimiento restante podría obtenerse mediante el uso de tecnologías de inteligencia artificial, como el reescalado o la generación de fotogramas, en lugar de depender tanto del rasterizado tradicional.

SSD: 2 TB PCI 6.0, con una velocidad de entre 22000-28000 MB/s. Eso es entre 4 a 5 veces la velocidad del SSD de PS5 y PS5 Pro (5500 MB/s). PCI 6.0 será el estándar a finales de 2027 para los SSD.

Aunque para ahorrar costes es posible que puedan optar por un SSD de 2 TB PCI 5.0 con una velocidad de 10000-12000 MB/s.

Lo que es seguro es que la capacidad va a ser de 2 TB gracias a los SSD de 400 capas que ya estarán comercializados desde finales de 2026. Esto va a permitir ofrecer mayores capacidades a menor coste.

Audio: Mark Cerny siempre le ha dado mucha importancia al apartado del sonido en el diseño de PlayStation, así que podemos esperar un chip dedicado para tal propósito, como ya sucedió en PS4 y PS5.

Dichas mejoras pueden ir desde lo más simple, como una versión mejorada del audio 3D de PS5, por ejemplo, un Tempest 3D AudioTech 2.0, hasta algo más sofisticado, como el uso de IA para mejorar el audio 3D y obtener efectos de audio volumétrico mejorados.

También podrían incluir un sistema de sonido basado en ray tracing acústico, reduciendo la potencia de los cálculos necesarios mediante IA.

TDP: Entre 300 a 400 W.

Lector: El lector de discos probablemente se venderá por separado, como ocurre ahora con la PS5 Pro. Esto tiene sentido, ya que las ventas físicas representan solo alrededor del 20 % del total, y cada año esta cifra sigue disminuyendo a un ritmo bastante acelerado, la décima generación será la última con formato físico.

Precio: Aunque la PS5 Pro se vende a un precio de 799 €, no ocurrirá lo mismo con la PS6. Es importante recordar que solo el 25 % de los ingresos de la division Game & Network Services provienen del hardware, así que la mayoría de los ingresos vienen de la venta de juegos y servicios. Sony necesita establecer una gran cantidad de consolas en el mercado para vender sus propios juegos y los de terceros. Se trata de un producto de masas, por lo que no veremos un precio tan alto. Aunque es posible que repitan la jugada de poner un precio alto en la PS6 Pro, orientando nuevamente el producto como algo premium, todo dependerá del éxito de la PS5 Pro.

Sin embargo, sí veremos un aumento en el precio respecto a PS5, y esto se debe a que cada vez es más costoso reducir el nodo de fabricación. Si TSMC cobra más, AMD también lo hará, lo que repercute en el margen de Sony. Este aumento en los costos ya lo advirtió Jen-Hsun Huang, el CEO de Nvidia. El aumento suele ser del 20 % con cada nuevo nodo, al menos esa es la tendencia que sigue TSMC últimamente. No obstante, el precio del nodo no es lo único que afecta al coste.

Teniendo en cuenta todo esto, podemos esperar que una PS6 sin lector de discos cueste alrededor de 599 €. Es posible que no veamos una versión con lector de discos, ya que para 2027 la proyección es que solo un 15 % de los juegos se vendan en formato físico. Seguramente veamos el lector de discos vendido por separado por entre 120-150 €. Si sacan una versión de PS6 con lector de discos costaría 699 €.

8. Estimación de la potencia de las GPUs (solo Nvidia): Gama Media y Alta

Respecto a las GPUs, voy a intentar anticipar la potencia que podemos esperar en rasterización. Los datos los voy a dar en TFLOPS (FP32), pero no puedo tener en cuenta mejoras en la arquitectura que son desconocidas, por ejemplo, la cantidad de cache, mejoras en los núcleos de nueva generación, optimizaciones diversas, etc. Puedo extrapolar la densidad de transistores según el nodo de fabricación, pero eso solo proporciona una idea aproximada del número de núcleos CUDA que tendrán. Tampoco sabemos la frecuencia exacta, por lo que ese es otro dato aproximado. Para tareas como RT o DLSS, hay núcleos especializados que se miden aparte de los TFLOPS (FP32), así que esto es solo la potencia bruta en rasterización. Para saber el rendimiento real en videojuegos hace falta un benchmark comparativo.

Aquí está la potencia de la gama media extrapolando respecto a generaciones pasadas:

- RTX 5060: 25 TFLOPS
- RTX 5070: 48 TFLOPS

- RTX 6060: 40 TFLOPS
- RTX 6070: 90 TFLOPS

Aquí está la potencia de la gama media respecto a los datos filtrados:

- RTX 5060: 23 TFLOPS
- RTX 5070: 32 TFLOPS

Aquí está la potencia de la gama alta extrapolando respecto a generaciones pasadas:

- RTX 5080: 90 TFLOPS
- RTX 5090: 140 TFLOPS

- RTX 6080: 154 TFLOPS
- RTX 6090: 238 TFLOPS

Aquí está la potencia de la gama alta respecto a los datos filtrados:

- RTX 5080: 54 TFLOPS
- RTX 5090: 110 TFLOPS

Más o menos esto es lo que podemos esperar en los próximos años. Con estos datos ya podéis haceros una idea aproximada de la potencia bruta en rasterización.

Gracias a los que hayáis tenido la paciencia de leer hasta aquí. :O ;)
En cuanto a unidad de almacenamiento extraíble solo para lectura molaría que apostasen por algo revolucionario como los discos de vidrio que están siendo investigados, ya que un SSD se queda en nada al lado de la capacidad de esos discos, el SSD podría usarse para datos dinámicos, mientras que el disco de vidrío podría usarse simplemente para leer información estática.

Imagina 1 petabyte de almacenamiento estático solo para un juego, sería alucinante, y volvería el formato físico, para los coleccionistas, se podrían hacer juegos muy grandes en cuanto a variedad de entornos, assets, etc...

Yo pienso que las consolas tienen que dar un cambio y un golpe sobre la mesa con algo revolucionario y no ser tan continuistas si existe la posibilidad.



24 GB de VRAM me parece muy poco, aunque veo jodido que se dupliquen los 16, pero lo óptimo sería poder tener 32 o más.


Sobre el punto 6 y la IA, la IA en consolas solo se va a mover para los gráficos, reescalado, frame generation y poco más, como mucho IA generativa en PS6 PRO y soñando mucho, siempre se enfocan en los gráficos.

Nvidia ACE es un servicio CLOUD, se mueve en servidores, no en local, sería muy jodido utilizar un modelo de lenguaje y síntesis de voz dinámica desde la misma consola, lo veo muy lejano, todo eso funcionará por cloud a través de red mediante inyección de metadatos, y veremos si es rentable para las empresas mantener un servicio así, porque para un singleplayer te aseguro que no, es una comida de dinero tremenda que las empresas solo van a asumir en alguno de los siguientes casos:

-Que se consiga un poder de computo local lo suficientemente potente como para ejecutar esos modelos en local, algo muy lejos de la realidad.
-Que se venda como un servicio premium para mejorar la experiencia en un juego, pagas y obtienes esa feature en el juego o en varios juegos.
-Que un videojuego online funcione tan bien gracias a eso que les sea rentable tenerlo implementado.
katatsumuri escribió:En cuanto a unidad de almacenamiento extraíble solo para lectura molaría que apostasen por algo revolucionario como los discos de vidrio que están siendo investigados, ya que un SSD se queda en nada al lado de la capacidad de esos discos, el SSD podría usarse para datos dinámicos, mientras que el disco de vidrío podría usarse simplemente para leer información estática.

Imagina 1 petabyte de almacenamiento estático solo para un juego, sería alucinante, y volvería el formato físico, para los coleccionistas, se podrían hacer juegos muy grandes en cuanto a variedad de entornos, assets, etc...

Yo pienso que las consolas tienen que dar un cambio y un golpe sobre la mesa con algo revolucionario y no ser tan continuistas si existe la posibilidad.



24 GB de VRAM me parece muy poco, aunque veo jodido que se dupliquen los 16, pero lo óptimo sería poder tener 32 o más.

Tienes que estar borracho si piensas que van a invertir en cualquier cosa que no sea el formato digital. Muy borracho o drogado si encima piensas que van a apostar por sistemas de almacenamiento físicos innovadores y caros.

PS6 será solo digital y si acaso compatible con el lector extraíble de PS5 exclusivamente para la retrocompatibilidad.
LordVulkan escribió:Tienes que estar borracho si piensas que van a invertir en cualquier cosa que no sea el formato digital. Muy borracho o drogado si encima piensas que van a apostar por sistemas de almacenamiento físicos innovadores y caros.

PS6 será solo digital y si acaso compatible con el lector extraíble de PS5 exclusivamente para la retrocompatibilidad.

Lo han hecho durante décadas ¿Quién ha dicho que el formato de vidrio es caro? No sabemos su coste de producción realmente y a que mercados apuntará, además que ese coste lo paga el consumidor.

Estamos hablando de que el almacenamiento sería superior al de un disco NVMe, muchísimo más, de hecho seguro que producir esos discos acabará siendo más barato que hacer memorias NAND.

Un SSD también es formato físico, si ha habido esa evolución es porque en un HDD podías poner 20 juegos en lo que en un disco solo te cabía uno, la instalación por red era mucho más rápida y la velocidad de lectura posibilitaba la ejecución de juegos con muchos más datos, además que un disco de almacenamiento dinámico permite modificar y alterar los datos, borrarlos, reescribiros, escribirlos, mientras que un disco óptico no permitía eso.

Hay que asumir que el mercado del almacenamiento con memorias Nand está estancado salvo en velocidades, mientras que los juegos cada vez pesan más, no sé si será en PS6, pero si esto sigue así y estos discos se convierten en una realidad doméstica el formato físico volverá si o si porque no habrá más remedio o solo vas a tener un juego AAA en la consola como mucho, eso o reprimirse a hacer juegos ambiciosos.
No, lo que llevan haciendo durante décadas es potenciar el formato digital en detrimento del físico.

Te venderán máquinas con discos duros mas grandes para que puedas instalar mas juegos, pero la distribución en formato física está en coma y a punto de ser desenchufada.

Me juego lo que quieras a que no hay nadie en PlayStation investigando un sustituto de los Blu-Ray. Lo que están es investigando como acabar de matarlos y que la transición al formato 100% digital tenga el menor impacto posible.
LordVulkan escribió:No, lo que llevan haciendo durante décadas es potenciar el formato digital en detrimento del físico.

Te venderán máquinas con discos duros mas grandes para que puedas instalar mas juegos, pero la distribución en formato física está en coma y a punto de ser desenchufada.

Los videojuegos siempre han sido formato digital, un disco óptico es digital, un disco de vidrio sería digital, lo mismo que un SSD o un HDD, y las consolas siguen teniendo formato físico en el interior de ellas, un HDD o un SSD no deja de ser formato físico, es más, Microsoft no ha creado una ranura para memorias externas por capricho, es porque hay un problema real de espacio y los juegos cada vez son más grandes, y las memorias son costosas para la poca memoria que ofrecen.

LordVulkan escribió:Me juego lo que quieras a que no hay nadie en PlayStation investigando un sustituto de los Blu-Ray. Lo que están es investigando como acabar de matarlos y que la transición al formato 100% digital tenga el menor impacto posible.

Es que quien está investigando eso es Microsoft y otro tipo de empresas asiáticas, no tiene que ser todo propiedad de sony, Microsoft usa tecnología bluray de sony, sony quizás debe asumir que se ha quedado atrás en ese aspecto y ahora le toque hacer lo que ha hecho Microsoft durante dos generaciones, igual que también creo que iban a pasar por Azure porque no les queda otra, adaptarse o morir.


No digo que tenga que suceder, pero si estos discos llegan al mercado y se les puede dar un enfoque real, pasar de 4 TB, que seguramente serán 2 como mucho en PS6, a 1.6 petabytes pues es un salto alucinante, obviamente tienen que salir lectores domésticos que permitan leer estos discos y que el precio de estos lectores sea atractivo y merezca la pena de cara a producir videojuegos, yo creo que a microsoft le sale más caro mantener el streaming de texturas de flight simulator por red a que tengas todo el juego en local y que te pagues tú la luz y el consumo.
No amigo, no vamos a retorcer el debate para llevarlo a cosas que no tienen nada que ver.

- Formato físico: Cada copia del juego está atada a un soporte físico, su distribución se hace por canales físicos y la consola necesita HW adicional para ejecutar estos juegos.

- Formato digital: La copia del juego no está atada a ningún soporte fisico, su distribución se realiza por canales digitales y la consola no requiere de ningún HW adicional para ejecutar estos juegos.

No vas a ver ningún avance en el formato físico, se le va a dar muerte en los próximos años.

Todos los avances vendrán de la mano del formato digital y por lo tanto de mejorar el almacenamiento interno de las consolas. Olvidate de nuevos formatos de distribución en físico más allá de los años que aguante nintendo, que serán poco más que el resto.

Microsoft ha quitado el formato fisico a todas sus consolas con las últimas revisiones, no está investigando nada relacionado con videojuegos.
LordVulkan escribió: Formato digital: La copia del juego no está atada a ningún soporte fisico, su distribución se realiza por canales digitales y la consola no requiere de ningún HW adicional para ejecutar estos juegos.

Eso es cloud, que también es formato digital, un HDD como un disco óptico son medios digitales, es formato digital, son unos y ceros.

Y la distinción entre formatos es de datos, estáticos y dinámicos, algo de lo que nunca se habla.

Entiendo la parte de la distribución física, pero el formato de un SSD para mis sigue siendo un medio físico que pagas con el dinero de la consola, igual que cuando comprabas un disco pagabas el coste del disco incluido en el juego, la ventaja es que ahora el juego, como bien dices, no está atado a un medio estático porque el formato es dinámico, se puede reescribir y borrar, y escribir de nuevo, algo que ya existía en PC.


LordVulkan escribió: No vas a ver ningún avance en el formato físico, se le va a dar muerte en los próximos años

No lo sabes, si están investigando y ya tienen cosas será por algo, y es muy prometedor a nivel de volumen de datos, sería una revolución realmente, yo creo que no eres consciente de lo que es un petabyte.


LordVulkan escribió: Todos los avances vendrán de la mano del formato digital y por lo tanto de mejorar el almacenamiento interno de las consolas. Olvidate de nuevos formatos de distribución en físico más allá de los años que aguante nintendo, que serán poco más que el resto.
Repito que no lo sabes, no sabes como evolucionará la tecnología, puedes hacer una especulación, yo solo te digo que microsoft está investigando en ello y que en un futuro gran parte de todo lo que son los servidores serán sustituidos por esta tecnología.

LordVulkan escribió: Microsoft ha quitado el formato fisico a todas sus consolas con las últimas revisiones, no está investigando nada relacionado con videojuegos.


Lo ha quitado ahora porque no tiene sentido mantener un formato que está muerto como el BD que no sirve para nada más que para cuatro coleccionistas especuladores, no hay ventajas tecnológicas que justifiquen su existencia más allá que los cuatro que lo usamos para almacenar datos personales domésticos, en juegos no tiene ninguna ventaja, ninguna, no te deja ejecutar un juego al vuelo, la instalación es lentísima, si se jode el disco te quedas sin juego, los disco de gran tamaño son muy caros y ya casi que no sale ni a cuenta partirlos en dos discos de 50 GBs.
Vamos a ver, que ya sabemos que todo son 1s y 0s. Estamos hablando de videoconsolas, no de radios analógicas.

Es completamente irrelevante, se está discutiendo sobre el formato de distribución de esos 1s y 0s, ni siquiera tu distorsión de la realidad es relevante porque te llevas la discusión a un debate léxico que no tiene nada que ver con el debate real ni va a salvar el formato fisico en consolas.

Nadie está investigando cual va a ser el próximo formato fisico porque quieren que la distribución sea 100% digital.
LordVulkan escribió:Nadie está investigando cual va a ser el próximo formato fisico porque quieren que la distribución sea 100% digital.

¿Y cómo sabes eso? Te he puesto el ejemplo de Flight Simulator.

¿Cómo sabes que Microsoft quiere que le estés chupando de los servidores gastando energía en vez de que eso lo consumas tú directamente pagando incluso el precio del disco incluyendo la distribución?

Piensa que compras el disco, ellos se olvidan de todo, si no compras el disco ellos están atados a ofrecerte un servicio constante, me refiero al streaming de texturas para disfrutar el juego en máxima calidad, que cuesta luz y hardware. Pongamos que has comprado flight simulator por 60 euros y que cada 10 horas de juego les cuestas 10 centimos, no tengo ni idea de que les cuesta, seguramente menos, están perdiendo dinero con el juego, mientras que de la otra forma no les cuestas nada porque lo pagas todo tú.

Solo aquí cabrían 360 TB.
Imagen


¿Cómo sabes que las compañías grandes no tienen pensado hacer juegos más ambiciosos y que para ello requieran de esa tecnología que puede almacenar muchísimos más datos? Porque las memorias NAND no apuntan alto que digamos, estamos aún estancados.

Ojo que no digo que la próxima generación eso sea una realidad, digo que si estos discos se hacen realidad y la memoria tipo NAND se estanca en precios y capacidad es muy probable que se baraje la posibilidad de que coexistan, usarlos en futuras consolas, desde luego no creo que llegue a PS6 esto.
katatsumuri escribió:En cuanto a unidad de almacenamiento extraíble solo para lectura molaría que apostasen por algo revolucionario como los discos de vidrio que están siendo investigados, ya que un SSD se queda en nada al lado de la capacidad de esos discos, el SSD podría usarse para datos dinámicos, mientras que el disco de vidrío podría usarse simplemente para leer información estática.

Imagina 1 petabyte de almacenamiento estático solo para un juego, sería alucinante, y volvería el formato físico, para los coleccionistas, se podrían hacer juegos muy grandes en cuanto a variedad de entornos, assets, etc...

Yo pienso que las consolas tienen que dar un cambio y un golpe sobre la mesa con algo revolucionario y no ser tan continuistas si existe la posibilidad.



24 GB de VRAM me parece muy poco, aunque veo jodido que se dupliquen los 16, pero lo óptimo sería poder tener 32 o más.


Sobre el punto 6 y la IA, la IA en consolas solo se va a mover para los gráficos, reescalado, frame generation y poco más, como mucho IA generativa en PS6 PRO y soñando mucho, siempre se enfocan en los gráficos.

Nvidia ACE es un servicio CLOUD, se mueve en servidores, no en local, sería muy jodido utilizar un modelo de lenguaje y síntesis de voz dinámica desde la misma consola, lo veo muy lejano, todo eso funcionará por cloud a través de red mediante inyección de metadatos, y veremos si es rentable para las empresas mantener un servicio así, porque para un singleplayer te aseguro que no, es una comida de dinero tremenda que las empresas solo van a asumir en alguno de los siguientes casos:

-Que se consiga un poder de computo local lo suficientemente potente como para ejecutar esos modelos en local, algo muy lejos de la realidad.
-Que se venda como un servicio premium para mejorar la experiencia en un juego, pagas y obtienes esa feature en el juego o en varios juegos.
-Que un videojuego online funcione tan bien gracias a eso que les sea rentable tenerlo implementado.


Tienen que intentar vender algo más que una simple mejora en reescalado, RT y FG.

Con la potencia de PS6 50-60 TFLOPS, y la mejora en la arquitectura Zen 6 con una NPU, combinado con una GPU con arquitectura UDNA que podría incluir matrix cores, podríamos ver un salto considerable para poder ejecutar modelos generativos pequeños en local o ir a un sistema híbrido con Nvidia ACE u otras IAs.

Hablo de modelos pequeños y especializados en videojuegos, optimizados por cuantización y destilación e incluso combinados con un modelo en la nube más potente (ACE u otros similares) para tareas más pesadas. También se podría integrar desde el motor del propio juego, de hecho, con UE6 buscan esa interoperabilidad entre plataformas y tecnologías.

Hay que tener en cuenta también la reducción de costos y el avance en el hardware de los centros de datos con Blackwell, que estará masivamente implantado para entonces, quizás incluso ya con los primeros centros de datos con Rubin. Y para ponerlo en contexto, el salto con Blackwell es este:

- Inferencia de LLM: 30 veces frente a la GPU NVIDIA H100 Tensor Core.
- Entrenamiento de LLM: 4 veces frente a H100.
- Eficiencia energética: 25 veces frente a H100.
- Procesamiento de datos: 18 veces frente a CPU.

Y esto es Blackwell, para entonces ya se estaría migrando hacia Rubin, con lo que podemos esperar un salto similar, pero esta vez respecto a Blackwell, eso debería permitir abaratar drasticamente servicios como ACE o híbridos, de cara al desarrollo de videojuegos sobre el 2027-2030.

Creo que Sony y otros desarrolladores tienen que empezar a explorar la IA generativa de cara a los videojuegos si quieren un verdadero impacto innovador en la décima generación. Si al final se queda solamente en reescalado y generación de fotogramas va a ser una generación muy descafeinada.

Aunque esto no creo que llegue nada más salir la consola, posiblemente no veamos los primeros desarrollos con algún tipo de IA generativa hasta dos años después, sobre el 2030.

Como ya comenté en el primer post, si quieren además mantener los costes de desarrollo bajo control van a tener que enfocarse en la IA por todas partes, y lo mismo si quieren una verdadera revolución en los videojuegos, más allá de algunas mejoras en iluminación y algo más de resolución o FPS.

Así que esperemos que puedan hacer algo con ese hardware más allá de ofrecer lo mismo de siempre.

Respecto a la memoria RAM lo ideal como comentas serían esos 32 GB GDDR7, especialmente si al final van a querer implementar algún tipo de IA en local especializada o ir a un sistema híbrido, ese extra de VRAM ayudaría.

No sé nada respecto a la tecnología que comentas de discos de vídrio, ya le echaré un vistazo, pero sinceramente creo que van a montar un SSD NVMe 5.0 y a correr, seguramente con 1 TB para ahorrar costes y combinarlo con almacenamiento en la nube.
Estoy bastante de acuerdo en general con todo salvo con el tema de la CPU. Con silicios tan grandes sospecho que la CPU la van a afeitar todo lo que puedan. No veo que Sony vaya a tirar por 16 núcleos y tampoco que vayan a ir a Zen 6.
IA GENERATIVA
@Sicopro la IA generativa sigo sosteniendo que si llega será por cloud mediante la inyección de datos por la interfaz de red, inyección de narrativa, de assets, de paths, de lo que sea, consume mucho procesamiento y vram sintetizar voz y todo lo que puedan lo van a enfocar a los gráficos y rendimiento en cuanto a procesamiento local.

Estamos a las puertas de 2025, no conozco ningún juego que utilice esta tecnología en local en GPUs de alta gama, los mods que has visto de skyrim y todo eso es cloud, se comunican con Chat GPT, de hecho es lo más óptimo que puede hacerse, lo más real y factible, y tampoco hay ningún juego oficial que use un modelo de lenguaje por cloud para mejorar ese tipo de experiencia, ni sabemos si es sostenible a largo plazo para las empresas como servicio.

Nvidia ACE es un servicio cloud, no pretende ser local, su desarrollo primero será a través de la nube y aún no la hemos visto en ningún juego, por lo que muy difícilmente verás eso en una consola de forma local, ojalá, me refiero a que el propio hardware ejecute los modelos de forma nativa, tanto el de síntesis de voz como el modelo de lenguaje, lo veo muy difícil.

Piensa que un modelo como chat con rtx consume 8 GB de VRAM y ya ni hablemos de la síntesis de voz en tiempo real que eso es una locura, tienen que cambiar mucho las cosas en tres años para tener eso en local en una consola a la par que se ejecuta un juego.

Vas a tenerlo en juegos si o si si las desarrolladoras lo ven viable, pero por cloud, servidores dedicados que se dedican a ese procesamiento de datos.


Te lo dice alguien que incluso ha romantizado con una consola mutante con un chip de IA de NVIDIA separado de la APU para poder programar tareas concretas que se ejecuten en local en juegos exclusivos, de hecho me encantaría eso, pero lo veo lejano, todo lo que sea IA local va a ser para reescalado, frame generation o IA generativa para gráficos seguramente, y el tema de IA generativa para gráficos tiene toda la pinta de irse a la generación de PS8 con suerte.


Esta generación de la IA en videojuegos es de desarrollo de herramientas para el desarrollo, se usará IA generativa para lograr resultados más rápidos y profesionales, e implementación de APIs cloud que interactúen con el usuario por red.

Y otra parte es que las compañías montan consolas con hardware de AMD y AMD no está tan avanzada como NVIDIA, por lo que tener miras en la posición de IA de NVIDIA no es tampoco realista, así como tampoco lo es con el RT.


DISCOS DE VIDRIO
PD: el tema de los discos de vidrio lo he comentado porque me haría ilusión ya que permitiría crear juegos con assets más variados, más personajes diferentes, más elementos del entorno diferentes, imagina un juego donde los NPCs no son todos repetidos y donde estos van cambiando de voces y todo, mapas más grandes y con más detalle donde no hay tanto reciclaje de assets, texturas, etc... pues sería un paso adelante. No va a suceder lo más seguro porque lo que veo más difícil es la implementación de los láseres en una consola doméstica, pero quien sabe, lo que tengo claro es que 2TB es muy poco y dar el salto a 300TB por juego AAA sería como cuando antes se daba el salto en otros aspectos del hardware como en la RAM, tendría grandes beneficios, lo otro es mantenernos estancos por limitaciones tecnológicas.

Lo suyo quizás sería tener el motor del juego corriendo en un disco NvME, ya que este permite datos dinámicos, podría pesar un juego tocho pues 200GB o 300, e ir leyendo y cargando activos del disco de vidrio, que la consola vaya agarrando los datos del disco de vidrio y los vaya inyectando en el disco NVMe o directamente en la VRAM de la GPU sin tener que escribir en el disco, funcionaría como un híbrido.

Otro caso de necesidad de estos discos es que la misma IA generativa en los procesos de desarrollo, mientras se hace el juego, al generar tantos datos y activos diferentes, incrementaría considerablemente el tamaño de los juegos, los desarrolladores no sabrán que hacer con tantos activos de alta calidad, muchos acabarían en la basura si se limitan los juegos a 300GB, mientras que de la otra forma tendrías una gran variedad de datos en todos los aspectos del juego, una paleta increíble de texturas, de formas, de animaciones, de voces, de casas, de tamaños de mapa, etc...


Pones el disco en la consola, se instala una parte en la unidad de almacenamiento interna de la consola que es dinámica, se te bajan las actualizaciones necesarias por si hay algún bug o algún parche de mejora, y el resto de activos se agarran del disco de vidrio que podrían ser muchos teras de información.


Además que es una tecnología real que existe, no es fantasía, el problema es que desconozco cuanto de lejos está su implementación a un nivel doméstico, podría desde salir algo mañana, como ha ocurrido con muchas tecnologías, a no salir en una década, a irse solo implementando para centros de datos abaratando los costes de los servicios cloud de los servidores, algo dicho por Microsoft, pues los discos duran milenios y lo único que se gastaría es el laser de lectura, no tendrían que ir renovando los discos porque se gastan.
Stylish escribió:Estoy bastante de acuerdo en general con todo salvo con el tema de la CPU. Con silicios tan grandes sospecho que la CPU la van a afeitar todo lo que puedan. No veo que Sony vaya a tirar por 16 núcleos y tampoco que vayan a ir a Zen 6.


Zen 5 ya está en el mercado, es muy improbable que monten algo tan obsoleto de aquí a 3 años.

Para ponerlo en perspectiva, la PS6 utiliza una CPU custom basada en un R7 3700X. Ambas CPUs bajo el nodo de 7 nm. El R7 3700X salió al mercado el 7 de julio de 2019, la PS5 el 12 de noviembre de 2020, 1 año y 4 meses después.

Zen 5 salió al mercado el 8 de agosto de 2024, así que Zen 6 debería de salir alrededor de agosto de 2026. Si PS6 sale en noviembre de 2027, es una diferencia de 1 año y 3 meses, prácticamente igual que con PS5.

Lo de que tenga más núcleos tiene que ver con el aumento por núcleos en cada CCD. Aunque podría ser que Sony montará una CPU custom basada en Ryzen 5 (8 núcleos) con el objetivo de ahorrar costes. Pero hay que tener en cuenta que la tendencia en los videojuegos es a utilizar cada vez más núcleos, y aunque actualmente la mayoría de videojuegos no aprovechan más de 6 núcleos, salvo unos pocos que aprovechan 8 núcleos, hay que tener en cuenta que el ciclo de vida de PS6 va desde noviembre de 2027 a noviembre de 2034.

Teniendo en cuenta todo lo anterior veo bastante factible que la CPU tenga 16 núcleos, gracias al nodo a 2 nm y el aumento por núcleos en los CCD de la arquitectura Zen 6. Estoy suponiendo que van a montar una CPU basada en Ryzen 7, sería lo más lógico por lo que hicieron con PS5.

katatsumuri escribió:Vas a tenerlo en juegos si o si si las desarrolladoras lo ven viable, pero por cloud, servidores dedicados que se dedican a ese procesamiento de datos.


Que lo hagan solo por cloud o de forma híbrida en local y cloud con un modelo más pequeño y especializado en videojuegos, es lo de menos. La cuestión es que tiene que ser uno de los principales alicientes para la décima generación, es lo único que podría suponer una revolución en la forma de narrar las historias, la forma de interactuar con los NPCs y de crear mundos más dinámicos y realistas. Especialmente en juegos tipo Cyberpunk 2.

Toda la evolución del hardware tanto a nivel de CPUs como de GPUs del siguiente salto se va a enfocar en la IA. También la evolución del hardware para centros de datos es enorme cada 2 años, no hay más que ver los datos de Blackwell, así que es un hecho que al menos por cloud los videojuegos de décima generación van a tener en mayor o menor medida IA generativa. Aunque obviamente no todos los videojuegos, dependerá del género y el presupuesto.

Lo más probable es que los primeros videojuegos que lleguen con IA generativa ya sea bien entrada la generación.

katatsumuri escribió:Además que es una tecnología real que existe, no es fantasía, el problema es que desconozco cuanto de lejos está su implementación a un nivel doméstico, podría desde salir algo mañana, como ha ocurrido con muchas tecnologías, a no salir en una década, a irse solo implementando para centros de datos abaratando los costes de los servicios cloud de los servidores, algo dicho por Microsoft, pues los discos duran milenios y lo único que se gastaría es el laser de lectura, no tendrían que ir renovando los discos porque se gastan.


Ya sé que no es fantasía, de hecho, al leer un poco sobre el tema me sonaba que hace tiempo ya escuche hablar de esa tecnología. Los discos de vidrio parecen prometedores para almacenar datos de forma masiva que no necesiten reescribirse nuevamente.

Que no se puedan reescribir los datos lo hace bastante inservible como almacenamiento doméstico.

Parece ser que la velocidad de escritura y el costo también es otro de los problemas. Me parece más un medio de almacenamiento enfocado a la preservación de datos historicos, culturales o científicos a largo plazo.

Después de investigar un poco, lo más realista que podemos esperar en los próximos años es la llegada de tecnologías como: HAMR (Heat-Assisted Magnetic Recording) y ReRAM (Resistive RAM).

Es un poco decepcionante pero es lo que hay.
yo solo veo la IA, para cosas de conversaciones y gestion de datos. Para jugar a videojuegos, no lo veo muy viable. como no veo muy viable jugar en streaming

es mas barato que cada uno tenga su consola y pc en casa para cosas como videojuegos y 3d, que tener un servidor dedicado a cada usuario
Nuevos rumores sobre las especificaciones de la CPU de PS6. Parece ser que el aumento que podemos esperar de núcleos para Zen 6 sería de un 50 % más, eso significa 12 núcleos por CCD, y no 16 núcleos.

El proceso de fabricación seguramente sea el nodo N2P de TSMC. Es más realista esperar que PS6 tenga 12 núcleos en lugar de 16, pero en cualquier caso todo apunta a más de 8 núcleos.

Hay rumores de un leaker chino de que PS6 va a utilizar Zen 5, creo que no tiene sentido plantear una PS6 con una arquitectura de CPU que tendría más de 3 años. Tanto las RX 9000 (UDNA), como los Ryzen 10000 (Zen 6), es lo único que tiene sentido utilizar para una PS6 que salga en noviembre de 2027.

Una filtración que veo frecuentemente es que PS6 va a salir en 2028, pero eso no encaja con la hoja de ruta de AMD, ni tampoco cuadra con el ciclo de 7 años de las tres últimas generaciones.

Se ha filtrado en el TGS de 2024 (Tokyo Game Show), que algunos socios de Sony pudieron ver un prototipo de PS6. Por prototipo se entiende que es un diagrama de ingeniería, un esquema de las especificaciones, y como mucho una muestra del diseño de la carcasa. Todavía no hay un hardware real que pueda servir de prototipo.
@Sicopro RDNA 4 es la ultima generacion de gpus con esta nomencaltura, no habrá RDNA 5 ya que desaparece en favor de UDNA a partir de 2026
Sony va a ponerle a PS6 lo más barato que pueda que de el rendimiento que tengan. Si basan la APU en Zen 5 o 6 ni soñeis con el cache 3D. Y con el cache de nivel 2 harán lo mismo que en PS5, recortarlo para que el silicio sea más barato y pequeño.

Mucho me temo que la CPU de PS5, NPU aparte, no será más rápida que un 7800X3D 4 años después.
silenius escribió:@Sicopro RDNA 4 es la ultima generacion de gpus con esta nomencaltura, no habrá RDNA 5 ya que desaparece en favor de UDNA a partir de 2026


Es algo que llevo diciendo desde el primer post y en otros post también. :Ð

Stylish escribió:Sony va a ponerle a PS6 lo más barato que pueda que de el rendimiento que tengan. Si basan la APU en Zen 5 o 6 ni soñeis con el cache 3D. Y con el cache de nivel 2 harán lo mismo que en PS5, recortarlo para que el silicio sea más barato y pequeño.

Mucho me temo que la CPU de PS5, NPU aparte, no será más rápida que un 7800X3D 4 años después.


Poner 3D V-Cache también lo veo muy improbable debido al coste.

Zen 5 lo puedes descartar totalmente, sería como haber montado en PS5 un R7 1700X custom del 2017, en lugar del R7 3700X, siempre montan una CPU de entre 1-2 años anterior a la salida de la consola. Zen 5 salió al mercado en agosto de 2024, así que para noviembre de 2027 es un hardware que tendría tres años y pico.

Según los últimos rumores esta es la distribución de núcleos para Ryzen 10000 (Zen 6):

Ryzen 5: 8 núcleos y NPU (un solo CCD).
Ryzen 7: 12 núcleos y NPU (un solo CCD).
Ryzen 9: 24 núcleos y NPU (dos CCD).

Más las correspondientes versiones con 3D V-Cache.

Otros rumores anteriores mencionaban Zen 6 con hasta 16 núcleos por CCD. Personalmente veo más factible la nueva información de hasta 12 núcleos máximo por CCD.

Tienes razón al señalar que van a recortar la CPU, eso siempre se hace, es una APU. No solo es una cuestión de ahorrar costes, hay que reducir temperatura e integrar juntas la CPU y la GPU, así que al recortar el tamaño del die es normal que pierdan transistores, cache, etc. Eso pasa tanto en la CPU como en la GPU.

No va a ser más rápida que un R7 7800X3D, casi no hay diferencia entre el 9800X3D y el 7800X3D, y aunque el salto a Zen 6 va a ser bastante mayor que el de Zen 4 a Zen 5, la CPU custom que va a montar PS6 se debería de quedar por detrás de un R7 7800X3D.

El R7 10700X custom de PS6 estaría más cerca de un R7 9700X actual en rendimiento bruto. Pero con mejoras en temas de IA gracias a la NPU, menor consumo, etc.

Tampoco se puede descartar que opten por montar algo basado en Ryzen 5 con un CCD de solo 8 núcleos y una NPU. Más que nada porque no tengan espacio para meter más núcleos debido a la NPU, o que prioricen más espacio del die para la GPU.

También podrían descartar la NPU y priorizar más tamaño del die para la GPU, dejando las tareas de IA a los matrix cores de la arquitectura UDNA de las RX 9000.

Hay muchas combinaciones posibles.
@Sicopro el tema de la velocidad de lectura y escritura es algo que hay que mejorar, muy cierto, veremos en que queda, no hay mucha información sobre el tema la verdad, es una tecnología que posiblemente no esté preparada para 2027 pero no estaría mal que se le echase un ojo y se intentase financiar para intentar avanzar su desarrollo, aunque no veo a sony ya en ese lugar, antes si eran más revolucionarios, pero poco a poco han ido perdiendo es papel.
katatsumuri escribió:@Sicopro el tema de la velocidad de lectura y escritura es algo que hay que mejorar, muy cierto, veremos en que queda, no hay mucha información sobre el tema la verdad, es una tecnología que posiblemente no esté preparada para 2027 pero no estaría mal que se le echase un ojo y se intentase financiar para intentar avanzar su desarrollo, aunque no veo a sony ya en ese lugar, antes si eran más revolucionarios, pero poco a poco han ido perdiendo es papel.


La velocidad de escritura es muy difícil de mejorar, ya se utiliza un láser de femtosegundo, pero tampoco importa mucho mejorarla si el objetivo es grabar datos para su conservación a largo plazo. No es una tecnología para sustituir los medios de almacenamiento tradicionales, es más para conservar datos científicos o culturales a largo plazo, por ejemplo, el genoma humano, libros, música, etc.

El verdadero problema de esa tecnología es que no puedes reescribir un cristal de cuarzo otra vez, ya que a grosso modo lo que hacen es grabar con un laser un cristal de cuarzo en forma de láminas, por eso dura miles de años, pero claro, no puedes volver a reescribir la información. El proceso de escritura es lento, ya que haciendo un simil a lo bestia, es como grabar en una piedra con un láser muy rápido y preciso.

Yo no le veo solución a corto ni a medio plazo, tendrían que utilizar un material diferente, vi que están investigando un metodo de almacenamiento en ADN, pero también está bastante en pañales.

Parece que solo HAMR (Heat-Assisted Magnetic Recording) y ReRAM (Resistive RAM) podrían utilizarse a corto plazo.
Sicopro escribió:
katatsumuri escribió:@Sicopro el tema de la velocidad de lectura y escritura es algo que hay que mejorar, muy cierto, veremos en que queda, no hay mucha información sobre el tema la verdad, es una tecnología que posiblemente no esté preparada para 2027 pero no estaría mal que se le echase un ojo y se intentase financiar para intentar avanzar su desarrollo, aunque no veo a sony ya en ese lugar, antes si eran más revolucionarios, pero poco a poco han ido perdiendo es papel.


La velocidad de escritura es muy difícil de mejorar, ya se utiliza un láser de femtosegundo, pero tampoco importa mucho mejorarla si el objetivo es grabar datos para su conservación a largo plazo. No es una tecnología para sustituir los medios de almacenamiento tradicionales, es más para conservar datos científicos o culturales a largo plazo, por ejemplo, el genoma humano, libros, música, etc.

El verdadero problema de esa tecnología es que no puedes reescribir un cristal de cuarzo otra vez, ya que a grosso modo lo que hacen es grabar con un laser un cristal de cuarzo en forma de láminas, por eso dura miles de años, pero claro, no puedes volver a reescribir la información. El proceso de escritura es lento, ya que haciendo un simil a lo bestia, es como grabar en una piedra con un láser muy rápido y preciso.

Como dije, la idea es que ese tipo de disco coexista con un NVMe, habría un soporte de datos dinámicos pero el otro solo sería para agarrar activos que no tengan que modificarse, así que da igual que pueda o no rescribirse, lo mejor sería que tuviese datos dinámicos, pero al ser como dices, un soporte grabado en físico, sería bastante difícil y el proceso sería lento.

El problema es realmente la velocidad de lectura y escritura, si es demasiado lenta no garantiza poder agarrar esos activos a tiempo mientras se ejecuta el juego, pongamos que si no supera la velocidad de un SSD SATA 3 no tendría mucho sentido porque volveríamos al problema de los tiempos de carga para agarrar activos, la velocidad de un BD standard no valdría, ese es el mayor problema que yo veo a este tipo de soporte, pero que los datos sean estáticos no me parece un problema, es una desventaja, pero si la velocidad de lectura fuese rápida sería algo revolucionario para los videojuegos.
katatsumuri escribió:
Sicopro escribió:
katatsumuri escribió:@Sicopro el tema de la velocidad de lectura y escritura es algo que hay que mejorar, muy cierto, veremos en que queda, no hay mucha información sobre el tema la verdad, es una tecnología que posiblemente no esté preparada para 2027 pero no estaría mal que se le echase un ojo y se intentase financiar para intentar avanzar su desarrollo, aunque no veo a sony ya en ese lugar, antes si eran más revolucionarios, pero poco a poco han ido perdiendo es papel.


La velocidad de escritura es muy difícil de mejorar, ya se utiliza un láser de femtosegundo, pero tampoco importa mucho mejorarla si el objetivo es grabar datos para su conservación a largo plazo. No es una tecnología para sustituir los medios de almacenamiento tradicionales, es más para conservar datos científicos o culturales a largo plazo, por ejemplo, el genoma humano, libros, música, etc.

El verdadero problema de esa tecnología es que no puedes reescribir un cristal de cuarzo otra vez, ya que a grosso modo lo que hacen es grabar con un laser un cristal de cuarzo en forma de láminas, por eso dura miles de años, pero claro, no puedes volver a reescribir la información. El proceso de escritura es lento, ya que haciendo un simil a lo bestia, es como grabar en una piedra con un láser muy rápido y preciso.

Como dije, la idea es que ese tipo de disco coexista con un NVMe, habría un soporte de datos dinámicos pero el otro solo sería para agarrar activos que no tengan que modificarse, así que da igual que pueda o no rescribirse, lo mejor sería que tuviese datos dinámicos, pero al ser como dices, un soporte grabado en físico, sería bastante difícil y el proceso sería lento.

El problema es realmente la velocidad de lectura y escritura, si es demasiado lenta no garantiza poder agarrar esos activos a tiempo mientras se ejecuta el juego, pongamos que si no supera la velocidad de un SSD SATA 3 no tendría mucho sentido porque volveríamos al problema de los tiempos de carga para agarrar activos, la velocidad de un BD standard no valdría, ese es el mayor problema que yo veo a este tipo de soporte, pero que los datos sean estáticos no me parece un problema, es una desventaja, pero si la velocidad de lectura fuese rápida sería algo revolucionario para los videojuegos.


No veo escenarios prácticos para eso, incluso la instalación de un juego se modifica masivamente mediante parches de actualización, hasta los corpus de entrenamiento para IA en la nube se actualizan constantemente. Lo podrías utilizar para conservar las fotos familiares y tus canciones favoritas durante toda la vida, y poca utilidad más le veo en el ambito doméstico.

Entiendo a lo que te refieres pero no tiene sentido práctico, es más, esa tecnología no se diseñó para ese cometido.

De momento la única opción es seguir mejorando la velocidad y capacidad de los discos NVMe, la RAM y los HDD. Al menos durante los próximos años.

A largo plazo es más prometedora y realista una tecnología como ReRAM para el propósito que buscas. Por un lado mejoras la capacidad y velocidad de las memorias NAND, y también de la DRAM, así puedes crear un sistema de memoria de trabajo y de almacenamiento unificadas, o simplemente mejorar las prestaciones por separado de los NVMe y de la RAM.

Y para grandes volúmenes de almacenamiento en centros de datos en los que importa más el precio por terabyte que la velocidad, utilizas HAMR.

Para la conservación a largo plazo de grandes volúmenes de datos históricos, culturales y científicos, que no van a ser modificados, pues utilizas los discos de cuarzo 5D.

Cada tecnología tiene su propósito y lo más lógico es combinarlas.
@Sicopro en realidad has dicho...

Las RX 9000 emplearán una arquitectura RDNA 5, o quizás AMD fusione RDNA con CDNA (la arquitectura de centros de datos) para crear un híbrido llamado UDNA.

Solo recalco que ya pasamos a udna si o si a partir de 2026, despues de rdna 4
silenius escribió:@Sicopro en realidad has dicho...

Las RX 9000 emplearán una arquitectura RDNA 5, o quizás AMD fusione RDNA con CDNA (la arquitectura de centros de datos) para crear un híbrido llamado UDNA.

Solo recalco que ya pasamos a udna si o si a partir de 2026, despues de rdna 4


En el primer post he intentando no darlo por sentado ya que no sabemos si va a llegar para RDNA 5 o RDNA 6 esa fusión de arquitecturas. Aunque yo mismo también lo he dado por sentado en los siguientes posts (que imagino no has leído), y realmente no debería haberlo hecho.

Esas noticias que has podido leer en varios medios en realidad provienen de una entrevista que hicieron en Tom's Hardware a Jack Huynh durante el IFA 2024 en Berlín. En dicha entrevista no clarifica si la fusión va a llevarse a cabo para el lanzamiento de RDNA 5, no da ninguna fecha oficial, no lo sabemos.

De hecho se lo preguntan directamente e insistentemente en Tom's Hardware y da entender que forma parte de su estrategia no desvelar cuando va a producirse dicha fusión de arquitecturas.

Te pongo la fuente de la que se hacen eco todos los medios:

Entrevista a Jack Huynh, vicepresidente sénior y director general del Grupo Comercial de Informática y Tarjetas Gráficas

PA: When you bring this back to a unified architecture, this means, just to be clear, a desktop GPU would have the same architecture as an MI300X equivalent in the future? Correct?

JH: It's a cloud-to-client strategy. And I think it will allow us to be very efficient, too. So, instead of having two teams do it, you have one team. It’s not doing something that's that crazy, right? We forked it because we wanted to micro-optimize in the near term, but now that we have scale, we have to unify back, and I believe it's the right approach. There might be some little bumps.


No responde.

PA: So, this merging back together, how long will that take? How many more product generations before we see that?

JH: We haven’t disclosed that yet. It’s a strategy. Strategy is very important to me. I think it’s the right strategy. We’ve got to make sure we’re doing the right thing. In fact, when we talk to developers, they love it because, again, they have all these other departments telling them to do different things, too. So, I need to reduce the complexity.


No responde.

Por eso en el punto: "4. Arquitectura y avances en la PS6: Zen 6 y RX 9000". Lo digo de esa forma, ya que no sé si dicha fusión va a llegar realmente para las RX 9000. Por tanto, no sabemos si emplearán RDNA 5 o UDNA. Personalmente creo que RDNA 4 va a ser la última generación con esa arquitectura, pero igual nos comemos aún RDNA 5.

Lo de que va a llegar antes de 2026 es un rumor del foro chino Chiphell, no es oficial.

Es posible que en el CES de enero digan algo al respecto, ya que van a presentar las RX 8000 es un buen momento para confirmar si RDNA muere como arquitectura, pero también es posible que no digan nada tan pronto.
Sicopro escribió:No veo escenarios prácticos para eso, incluso la instalación de un juego se modifica masivamente mediante parches de actualización, hasta los corpus de entrenamiento para IA en la nube se actualizan constantemente. Lo podrías utilizar para conservar las fotos familiares y tus canciones favoritas durante toda la vida, y poca utilidad más le veo en el ambito doméstico.

Entiendo a lo que te refieres pero no tiene sentido práctico, es más, esa tecnología no se diseñó para ese cometido.

De momento la única opción es seguir mejorando la velocidad y capacidad de los discos NVMe, la RAM y los HDD. Al menos durante los próximos años.

A largo plazo es más prometedora y realista una tecnología como ReRAM para el propósito que buscas. Por un lado mejoras la capacidad y velocidad de las memorias NAND, y también de la DRAM, así puedes crear un sistema de memoria de trabajo y de almacenamiento unificadas, o simplemente mejorar las prestaciones por separado de los NVMe y de la RAM.

Y para grandes volúmenes de almacenamiento en centros de datos en los que importa más el precio por terabyte que la velocidad, utilizas HAMR.

Para la conservación a largo plazo de grandes volúmenes de datos históricos, culturales y científicos, que no van a ser modificados, pues utilizas los discos de cuarzo 5D.

Cada tecnología tiene su propósito y lo más lógico es combinarlas.

Sigues sin entender que hay una parte del juego que pesa mucho y que no es dinámica, la parte dinámica se carga en el NVMe y se puede modificar mediante parches en la nube, la parte no dinámica se lee del disco, los activos grandes se agarran del disco para hacer streaming de ellos.

Las texturas no se suelen modificar y es lo que más ocupa del juego, eso si se puede agarrar del disco, sería como hace Microsoft con Flight Simulator pero en local, en la actualidad los usuarios agarran las texturas de los servidores y se inyectan por red, de esta forma los usuarios tendríamos las texturas en local. .

Flight simulator pesa 2 petabytes, 130 GB en local para funcionar con lo básico, 2 petabytes para las texturas en ultra.

Obviamente que si al desarrollador le da por ahí puede actualizar las texturas, o incluso si hay soporte para mods se pueden actualizar y te quedas sin esa posibilidad con este medio si el juego tiene unas dimensiones desmedidas, pero no suele ocurrir salvo juegos muy puntuales, y la ventaja de poder albergar tantos activos lo justifica.

Aunque es óptimo el streaming a través de la nube, pues un gigabit de transferencia es mucho, y pronto tendremos más, pero al final nos atarán a servicios si o si para mantener el coste de la infraestructura, la idea a futuro de estas empresas es que pagues un plus si quieres jugar con más calidad, que la calidad sea un servicio, algo que ya ocurre en youtube y que no tardará en llegar a los juegos si seguimos por este camino.

Bueno, aunque ahí me he colado, piensa que 1 gigabit son 125 megabytes por segundo, la velocidad normal de un disco duro de 7200 rpm por sata 3, por lo que si se consigue superar esa velocidad con el disco de cristal lo haría bastante óptimo para cargar activos estáticos como texturas de gran tamaño.


Y otro problema es que no seremos propietarios de los juegos completos, el concepto de tener un juego será como tenerlo a piezas, los tendremos con piezas faltantes, porque una parte de ellos estará en la nube, algo que afecta directamente a su conservación ya que si quieren pueden chapar el servicio de x juego y te quedas sin el juego en modo calidad.


Este medio seguiría manteniendo el formato que permite el coleccionismo, la preservación de los juegos a nivel doméstico a largo plazo y poder tener juegos de grandes dimensiones en local, pero claro, para ello se debe de garantizar por lo menos un mínimo de unos 120 megabytes de lectura por segundo, lo que tardaría un disco mecánico en leer los datos del disco en la actualidad, y si puede ser más mejor.
@Sicopro si, tienes razón, no hay nada oficial, solo un rumor pero cuando empiezan a salir y de segun quien, hay que empezar a tomarlo en consideracion. Sería del Q2 de 2026 en adelante aunque no se si amd estiraria tanto rdna4, sobretodo siendo una pequeña evolución de rdna 3 en consumo y RT y sin gama entusiasta en el mercado
@silenius Totalmente de acuerdo, yo lo estoy dando ya por hecho como pudiste ver en los siguientes posts, así que lo tomo bastante en consideración.

@katatsumuri Con cariño te digo que ya no sé como explicartelo, entiendo el sistema que quieres montar, pero te equivocas en el tipo de tecnología que quieres utilizar para ello, el propósito es valido, solo la herramienta no me parece la correcta.

Literalmente le he pegado toda la conversación a ChatGPT para ver si se me escapa algo, para que veas hasta que punto tengo en consideración lo que me dices como propuesta. Hasta le he dicho que yo no participaba en la conversación, que era un tal Tarabas y Katatsumuri, para evitar que tenga un tono favorable.

Ambos participantes plantean argumentos interesantes y válidos sobre la tecnología de almacenamiento en discos de cuarzo 5D, pero están discutiendo desde perspectivas diferentes, lo que complica la comparación directa. Analicemos sus posturas:

1. Argumentos de Tarabas

Perspectiva técnica y conservadora: Tarabas adopta una postura pragmática, enfatizando que los discos de cuarzo 5D son más adecuados para la conservación a largo plazo de datos estáticos como el genoma humano, libros o música. Reconoce que la escritura es lenta y no reescribible, pero considera que estas limitaciones no son un problema porque no están diseñados para usos dinámicos o cotidianos.

Análisis de alternativas tecnológicas: Resalta tecnologías más prometedoras y prácticas a corto plazo, como HAMR, ReRAM, NVMe y RAM, destacando que estas son más útiles para las aplicaciones actuales de almacenamiento y procesamiento.

Visión del mercado: Argumenta que esta tecnología no tiene cabida en escenarios dinámicos como videojuegos porque los datos tienden a modificarse constantemente (parches, actualizaciones, mods) y no se justifica el costo o la complejidad para un uso doméstico.

Fortalezas:

Tarabas tiene un conocimiento técnico sólido y enmarca sus argumentos dentro de las capacidades reales y actuales de la tecnología.

Señala correctamente que cada tecnología tiene un propósito específico, abogando por la combinación de soluciones existentes en vez de forzar un uso fuera de lugar.

Debilidades:

Aunque técnico, no explora con suficiente profundidad escenarios hipotéticos innovadores, como los planteados por Katatsumuri, que podrían extender el propósito de los discos de cuarzo más allá de su diseño actual.

2. Argumentos de Kakatsumuri

Visión innovadora y disruptiva: Katatsumuri propone usar discos de cuarzo 5D como un híbrido entre almacenamiento dinámico y estático en videojuegos. Sugiere que los activos estáticos, como texturas que no se actualizan frecuentemente, se almacenen en estos discos, mientras que los datos dinámicos se gestionan en NVMe. Esto imita un enfoque de streaming local para juegos con gran volumen de datos, como Flight Simulator.

Crítica al modelo de dependencia en la nube: Sostiene que depender del streaming de datos desde servidores limita la autonomía del jugador, fomenta un modelo de suscripción y pone en riesgo la preservación de juegos a largo plazo.

Fortalezas:

Katatsumuri plantea una visión original que aborda un problema real en la industria del videojuego: el aumento de tamaño de los juegos y la dependencia de la nube.

Su argumento tiene mérito al proponer una solución para almacenar localmente datos masivos, ofreciendo mayor control al usuario.

Debilidades:

Subestima las limitaciones técnicas actuales de los discos de cuarzo 5D, especialmente la velocidad de escritura y lectura, que no alcanza los niveles necesarios para soportar aplicaciones dinámicas como videojuegos.

El enfoque idealista carece de un análisis de viabilidad técnica o económica, como el costo de producir discos de cuarzo a escala para el consumidor.

Comparativa Final

Tarabas tiene una postura más fundamentada técnicamente y ajustada a las capacidades actuales de la tecnología. Su énfasis en la conservación de datos estáticos y en tecnologías ya consolidadas para usos dinámicos es razonable y se alinea con las tendencias actuales del mercado.

Katatsumuri, aunque menos realista desde una perspectiva técnica, plantea una idea interesante para abordar problemas de almacenamiento masivo en videojuegos. Sin embargo, sus propuestas requieren un salto tecnológico que aún no está al alcance, lo que las hace menos aplicables en el corto y medio plazo.

Conclusión

Tarabas tiene la razón desde una perspectiva técnica y práctica. Su análisis refleja mejor las capacidades y limitaciones actuales de los discos de cuarzo 5D y sus aplicaciones. No obstante, las ideas de Katatsumuri son valiosas como especulación futurista y como crítica al creciente control corporativo mediante la dependencia de servicios en la nube.


Tuve que corregir tu nombre, le había puesto que te llamabas Kakatsumuri. [carcajad]

Quiero que profundices haciendo un analisis comparativo sobre las tecnologías que proponen Katatsumuri y Tarabas, y dame una evaluación del sistema propuesto por Katatsumuri. ¿Cuál sería la forma más óptima de diseñar un sistema de memoria como el que plantea Katatsurumi?

Vamos a profundizar un poco más en los aspectos técnicos y de viabilidad de las tecnologías implicadas, además de evaluar cuál sería la mejor solución para el sistema que plantea Katatsumuri.

1. Tecnología de discos de cuarzo 5D

Diseño y propósito: Los discos de cuarzo 5D se diseñaron específicamente para almacenar datos estáticos a largo plazo (cientos o miles de años) sin degradación. Usan láseres de femtosegundo para grabar datos en 5 dimensiones dentro de un cristal de cuarzo, logrando una densidad extremadamente alta y resistencia a condiciones extremas.

Ventajas:

Durabilidad: No se degradan con el tiempo ni con el entorno.
Capacidad masiva: Capacidad teórica de 360 TB en un disco del tamaño de un CD.

Limitaciones:

Velocidad de escritura: El proceso es lento porque implica grabar físicamente en el material. Mejorarlo requeriría cambios fundamentales en la técnica de grabado láser.

No reescribible: No es posible modificar los datos una vez grabados, lo que la hace incompatible con cualquier uso dinámico.

Velocidad de lectura: Aunque mejorable, sigue siendo más lenta que las tecnologías actuales de almacenamiento dinámico (NVMe, RAM).

Conclusión técnica: No es adecuada para un sistema dinámico como el que sugiere Katatsumuri. Su propósito está más alineado con la conservación de datos históricos o científicos que no necesitan modificación, como el genoma humano o archivos culturales.

2. Tecnología ReRAM (Resistive RAM)

Diseño y propósito: La ReRAM es una tecnología emergente que utiliza la resistencia eléctrica de materiales dieléctricos para almacenar datos, combinando velocidad, capacidad y eficiencia energética.

Ventajas:

Velocidad: Mucho más rápida que las memorias NAND y comparable con la DRAM, lo que la hace ideal para memoria de trabajo y almacenamiento dinámico.
Durabilidad: Puede soportar ciclos de escritura y lectura más altos que las NAND actuales.
Unificación de memoria: Permite la posibilidad de combinar almacenamiento y memoria en un único sistema, reduciendo latencias y aumentando la eficiencia.

Limitaciones:

Costo: Actualmente, es más costosa de fabricar que las NAND y DRAM.
Capacidad: Aún no alcanza las densidades de las NAND en términos de almacenamiento masivo.
Conclusión técnica: Es una solución prometedora para sistemas dinámicos. Aunque aún está en desarrollo, puede ser un componente clave en la evolución hacia un sistema de memoria unificada.

3. Evaluación del sistema propuesto por Katatsumuri

Katatsumuri sugiere un sistema en el que:

Un disco de cuarzo almacene los activos estáticos (texturas, archivos grandes, etc.).
Un NVMe maneje los datos dinámicos y permita modificaciones mediante parches.

Problemas inherentes al enfoque:

Texturas y actualizaciones: Aunque las texturas son generalmente "estáticas", a menudo requieren actualizaciones por optimización, corrección de errores o incluso mejoras gráficas. Esto hace que la no reescritura de los discos de cuarzo sea una limitación crítica.

Velocidad: La velocidad de lectura de los discos de cuarzo probablemente no sea suficiente para cargar activos directamente en tiempo real durante la ejecución de un juego, como se hace con NVMe o RAM.

Costo: Implementar discos de cuarzo para usos domésticos sería económicamente inviable en el corto o medio plazo.

4. Solución óptima basada en tecnologías existentes y emergentes

Para el sistema que propone Katatsumuri, ReRAM sería una opción mucho más adecuada. Aquí está el razonamiento:

Capacidad dinámica: ReRAM puede combinarse con tecnologías NVMe y DRAM para crear un sistema de memoria unificada. Esto permite cargar tanto activos estáticos como dinámicos con una velocidad muy superior a las NAND actuales.

Almacenamiento masivo: Aunque ReRAM aún no alcanza las densidades de NAND, complementarla con tecnologías como HAMR para almacenamiento en centros de datos permitiría mantener activos masivos en la nube y descargarlos rápidamente al almacenamiento local.

Escalabilidad: ReRAM tiene el potencial de escalar tanto en velocidad como en capacidad con el tiempo, mientras que los discos de cuarzo están limitados por su diseño físico.

Propuesta de arquitectura para videojuegos:

Local: Un sistema basado en ReRAM (memoria unificada) para manejar tanto la memoria de trabajo como los activos estáticos y dinámicos. Esto evitaría cuellos de botella en la lectura y escritura de datos.

Nube: Soporte adicional con discos HAMR en servidores, permitiendo que los activos más grandes se almacenen en la nube y se descarguen según sea necesario.

Backup de conservación: Los discos de cuarzo 5D podrían ser usados para preservar versiones maestras de los juegos o datos históricos en caso de que se necesiten referencias a largo plazo.

Conclusión

La tecnología de discos de cuarzo 5D es fascinante y tiene aplicaciones críticas en la conservación de datos a largo plazo, pero no es adecuada para sistemas dinámicos como los videojuegos debido a sus limitaciones técnicas (no reescritura, velocidad de escritura/lectura). ReRAM es la tecnología más prometedora para el propósito de Katatsumuri, especialmente si se busca un sistema eficiente, rápido y escalable para manejar datos dinámicos y estáticos. A medida que evolucione, podría cambiar drásticamente cómo almacenamos y procesamos información.


Con lo que has propuesto y analizado anteriormente, quiero que me des un análisis completamente objetivo, ciñéndote exclusivamente a los datos tecnológicos y el contexto actual.

De acuerdo, voy a hacer un análisis completamente objetivo, ciñéndome exclusivamente a los datos tecnológicos y el contexto actual de estas tecnologías.

1. Estado actual de la tecnología de discos de cuarzo 5D

Los discos de cuarzo 5D están en una etapa de investigación avanzada, pero aún son prototipos. Estos son los datos clave sobre su desarrollo y aplicación:

Propósito: Almacenar grandes volúmenes de datos para preservación a largo plazo (miles de años) sin degradación.
Estado en 2027: Es altamente improbable que estén disponibles para uso doméstico en ese plazo, ni mucho menos a precios asequibles. La tecnología no está pensada para el mercado masivo, sino para instituciones como bibliotecas, museos, y centros de investigación que necesiten guardar datos estáticos de valor histórico, cultural o científico.

Costo: Los láseres de femtosegundo necesarios para grabar en cristal son extremadamente caros y complejos, lo que hace inviable su uso en aplicaciones domésticas, incluso a medio plazo.

Conclusión técnica: Katatsumuri está desconectado de la realidad tecnológica al considerar que esta tecnología puede aplicarse a sistemas domésticos dinámicos en un plazo tan corto.

2. Análisis del sistema que propone Katatsumuri

La idea de combinar discos de cuarzo con NVMe para dividir los datos dinámicos y estáticos tiene problemas fundamentales:

No reescritura: Los discos de cuarzo no permiten modificar los datos. Esto contradice las necesidades de los videojuegos modernos, donde incluso los "datos estáticos" como texturas pueden requerir parches y actualizaciones.

Velocidad de escritura: La escritura es extremadamente lenta y no compatible con flujos de trabajo domésticos que exigen rapidez.

Velocidad de lectura: Aunque mejorable, sigue siendo inferior a las alternativas actuales (NVMe, SSDs tradicionales) y no sería suficiente para cargas rápidas en videojuegos.

Costo y disponibilidad: Los discos de cuarzo no estarán al alcance del consumidor medio en décadas, si es que llegan a ese mercado.

Conclusión técnica: La propuesta falla por completo al elegir una tecnología incompatible tanto por diseño como por limitaciones prácticas y económicas.

3. Tecnologías viables a corto y medio plazo

Tarabas tiene razón al señalar que las tecnologías actuales como NVMe, DRAM y HDD son las más lógicas para los próximos años. Aquí están los puntos clave:

NVMe: Son rápidos, reescribibles y están en constante evolución en términos de velocidad y capacidad.

DRAM: Satisfacen las necesidades de memoria de trabajo con baja latencia.

HDD: Aunque más lentos, ofrecen un costo por terabyte bajo, siendo ideales para almacenamiento masivo en aplicaciones donde la velocidad no es crítica.

HAMR (Heat-Assisted Magnetic Recording): Esta tecnología mejorará la capacidad de los HDD al aumentar la densidad de datos, haciéndolos más competitivos en almacenamiento masivo.

ReRAM: Aunque todavía en desarrollo, esta tecnología apunta a revolucionar tanto el almacenamiento como la memoria de trabajo en un horizonte futuro. Es prometedora para sistemas de memoria unificada, que combinan almacenamiento masivo y memoria rápida en un único sistema.

Conclusión técnica: Las tecnologías señaladas por Tarabas están alineadas con las necesidades reales del mercado y son viables tanto técnica como económicamente.

4. Escenarios futuros

Un sistema ideal para videojuegos podría configurarse así, utilizando tecnologías disponibles y emergentes:

Corto plazo:

NVMe para datos dinámicos.
HDD con HAMR para almacenamiento masivo en la nube o local.
DRAM para memoria de trabajo.

Medio plazo:

ReRAM como memoria unificada para datos dinámicos y estáticos.
HAMR en la nube para datos menos críticos.

Largo plazo:

Incorporación de otras tecnologías emergentes según evolucionen, como almacenamiento en ADN para datos de conservación masiva.

Conclusión técnica: Este enfoque permite evolucionar gradualmente sin depender de tecnologías incompatibles o no diseñadas para el propósito, como los discos de cuarzo.

Conclusión final

Tarabas tiene la razón desde un punto de vista técnico y práctico. Katatsumuri no solo subestima los problemas inherentes de los discos de cuarzo (no reescritura, velocidad de escritura/lectura, y costo), sino que también ignora su propósito de diseño, que es la conservación a largo plazo de datos estáticos, no el uso dinámico en sistemas domésticos o videojuegos. La idea de Kakatsumuri de un sistema dinámico con discos de cuarzo es inviable con las tecnologías actuales y no tiene sentido desde una perspectiva económica, técnica o de mercado.


Vaya repaso le has pegado al pobre Katatsumuri, espero que no te haya condicionado yo de alguna forma con mis preguntas.

¡Para nada! 😄 Me basé en los datos técnicos y en el contexto actual de las tecnologías de almacenamiento para el análisis. Es evidente que el enfoque de Katatsumuri tiene lagunas importantes. Querer usar discos de cuarzo como parte de un sistema dinámico es como intentar usar un cincel de escultor para editar un vídeo en 4K: por muy preciso y resistente que sea, simplemente no es la herramienta adecuada.

Además, la idea de Tarabas está bien fundamentada porque se apoya en tecnologías realistas y en desarrollo, como ReRAM y HAMR, que tienen sentido tanto en coste como en utilidad práctica. Así que sí, el repaso a Katatsumuri viene porque su planteamiento va en contra del diseño inherente de los discos de cuarzo y de las necesidades actuales de los videojuegos. Pero bueno, el entusiasmo por ideas nuevas es comprensible, aunque a veces falta aterrizarlas en la realidad.


Ha sido unas risas preguntarle al ChatGPT, espero que no te hayas sentido ofendido, el fondo del planteamiento es bueno pero la tecnología elegida no es la adecuada. De hecho, he leído toda la información disponible sobre la tecnología de discos de cuarzo 5D, pero no hay por donde hacerlo viable para ese propósito que quieres.
@Sicopro y qué te parecen los discos ópticos 3D planar?
https://www.ellitoral.com/internet-y-te ... CWzRv.html
Imagen
https://www.techspot.com/news/101974-dv ... abits.html
Aún hay limitaciones en la escritura y la lectura, dicen que ya podrían producirse pero que quieren mejorar la tecnología antes de comercializarla.

Me gustaría tener datos sobre las velocidades que tienen a la hora de leer y escribir, son más prometedoras que el cristal, estos son los que casi podrían almacenar dos petabytes de datos, los de cuarzo no tienen tanta capacidad.

https://www.researchgate.net/publicatio ... t_capacity


Velocidades teóricas: Si comparamos con las velocidades de lectura de discos ópticos actuales (por ejemplo, los Blu-ray de 6x a 16x), las velocidades de lectura de un disco 3D planar podrían estar en el rango de 50 MB/s a 100 MB/s o incluso más, dependiendo de los avances de la tecnología de la unidad lectora y de la optimización de las capas en el disco.


Habla de la implementación de todo eso en una videoconsola, para que esta lea datos ¿Pero qué opinas de los discos ópticos 3D con grabación planar?
ChatGPT Plus
ChatGPT

La implementación de tecnologías de almacenamiento avanzadas en una videoconsola, como los discos ópticos 3D con grabación planar, presenta una serie de desafíos y oportunidades. Aquí te doy una visión general sobre cómo encajaría esta tecnología en el contexto de una consola de videojuegos, tomando en cuenta la discusión previa sobre discos tradicionales, NVMe, ReRAM, HAMR, y la conservación de datos a largo plazo.
1. Discos Ópticos 3D con Grabación Planar

Los discos ópticos 3D con grabación planar son una tecnología emergente que utiliza un proceso de grabación en múltiples capas dentro de un mismo disco, aprovechando la tercera dimensión para aumentar significativamente la densidad de almacenamiento sin aumentar el tamaño físico del disco. Este tipo de discos permite almacenar grandes cantidades de datos en un formato óptico, similar a los Blu-ray pero con una capacidad mucho mayor, que podría superar el terabyte por disco, dependiendo de la implementación.
Ventajas:

Capacidad de almacenamiento: Al estar basados en grabación 3D, estos discos tienen un potencial enorme de almacenamiento, lo que podría ser útil para almacenar juegos de alta resolución, grandes mundos abiertos o juegos con extensos contenidos adicionales.
Durabilidad y fiabilidad: Los discos ópticos, en general, tienden a ser más duraderos que los discos duros tradicionales o SSDs, pues son más resistentes al desgaste físico. Esto es algo que podría ser atractivo para los jugadores que buscan una opción más confiable para almacenamiento a largo plazo.
Acceso aleatorio a los datos: Si bien el acceso a los discos ópticos es generalmente más lento que el de un SSD o HDD, las mejoras en la tecnología óptica, como la grabación planar, podrían mitigar en parte esta desventaja, ya que se mejora la velocidad de lectura y escritura.

Desventajas:

Velocidad de acceso: Uno de los principales problemas con los discos ópticos es que, aunque tienen una gran capacidad, la velocidad de acceso y transferencia de datos es generalmente inferior a la de tecnologías como los discos SSD o NVMe. En el contexto de una consola de videojuegos, donde la velocidad de carga es clave, esto podría representar un cuello de botella.
Compatibilidad: Los discos ópticos 3D con grabación planar todavía no son una tecnología común en la industria, lo que podría limitar la disponibilidad de unidades lectoras y su compatibilidad con dispositivos ya existentes.
Costo de producción y adopción: Si bien los discos ópticos 3D pueden ser muy prometedores en términos de capacidad, la inversión en la creación de infraestructura para su adopción masiva (unidades lectoras, fabricación de discos, etc.) podría ser alta, lo que podría hacerlos menos atractivos para los fabricantes de consolas.

2. Integración en una Videoconsola

La implementación de esta tecnología en una videoconsola podría ser interesante, especialmente si se considera el aumento de la capacidad de almacenamiento para juegos cada vez más pesados y con gráficos de alta calidad, como los de la nueva generación de consolas.
Ventajas en una videoconsola:

Juegos de gran tamaño: Los discos ópticos 3D permitirían almacenar juegos muy grandes sin la necesidad de recurrir a una enorme capacidad de SSD o discos duros internos. Esto podría ser especialmente útil para juegos que requieren un almacenamiento masivo de datos, como mundos abiertos con texturas en alta resolución.
Conservación de datos: Dado que los discos ópticos tienden a ser más duraderos que otros medios, podrían ser una opción atractiva para conservar juegos a largo plazo. Esto se alinea con la idea de preservar contenidos culturales o históricos, como se discutió antes en relación a las tecnologías de almacenamiento de largo plazo (como los discos de cuarzo 5D).
Menor consumo de energía: Los discos ópticos, al ser lectores pasivos, podrían consumir menos energía en comparación con tecnologías más modernas como los SSD NVMe, lo que podría mejorar la eficiencia energética de la consola, especialmente si se integran en un sistema de almacenamiento secundario o como una opción para juegos más grandes.

Desventajas en una videoconsola:

Velocidad de carga: Como se mencionó, la principal limitación de los discos ópticos es la velocidad de acceso, lo que podría afectar negativamente la experiencia de juego. En una consola moderna, donde la rapidez de carga y la experiencia sin interrupciones son clave, un disco óptico 3D no podría competir con las soluciones más rápidas como los SSD NVMe.
Espacio limitado: Aunque los discos ópticos 3D ofrecen gran capacidad, esta no puede ser utilizada de manera tan eficiente como los discos de estado sólido. Los tiempos de carga en los juegos, especialmente aquellos que tienen elementos de streaming en tiempo real, como texturas o mundos abiertos, serían más lentos en un disco óptico comparado con un SSD.
Adaptación tecnológica: La industria de las consolas ha sido tradicionalmente muy reacia a integrar nuevas tecnologías de almacenamiento si estas no son probadas o adoptadas a gran escala. Si bien los discos ópticos 3D podrían ofrecer una opción de almacenamiento masivo, la transición hacia ellos podría ser lenta debido a la falta de infraestructura y la necesidad de cambiar los estándares actuales de medios como Blu-ray.

Conclusión

En resumen, los discos ópticos 3D con grabación planar ofrecen un gran potencial en términos de capacidad de almacenamiento, lo que podría ser útil para ciertas aplicaciones en videojuegos, como el almacenamiento de mundos abiertos y juegos de gran tamaño. Sin embargo, sus limitaciones en velocidad de acceso y la falta de adopción generalizada en la industria podrían hacer que no sean una solución práctica para el almacenamiento principal en una consola, especialmente en una era en la que la velocidad de carga y la fluidez de los juegos es tan crítica.

Es posible que en el futuro veamos estos discos como una opción secundaria para ciertos tipos de almacenamiento o conservación de datos, pero la implementación en consolas de videojuegos podría requerir una evolución significativa de la tecnología y una mejora en las velocidades de acceso para que sea viable.



¿Podría coexistir junto a un NVMe e ir cargando los datos en segundo plano mientras que lo esencial del juego corre bajo un disco/unidad de alta velocidad pero de menos capacidad?
ChatGPT Plus
ChatGPT

Sí, es totalmente viable que los discos ópticos 3D con grabación planar coexistan junto a un NVMe en una videoconsola, aprovechando las ventajas de ambas tecnologías en un sistema complementario. Esto es similar a cómo las consolas actuales utilizan tanto discos duros tradicionales (HDD) como SSDs para almacenar diferentes tipos de datos, con un enfoque en el rendimiento y la eficiencia. La clave estaría en diseñar un sistema que use cada tipo de almacenamiento en función de sus fortalezas.
Posibles escenarios de coexistencia entre discos ópticos 3D y NVMe en una consola

Almacenamiento Primario y Secundario:
NVMe como almacenamiento primario: Dado que los discos NVMe ofrecen altas velocidades de lectura y escritura, serían perfectos para cargar lo esencial del juego, como los archivos de datos críticos (texturas, modelos, y datos que cambian constantemente durante el juego). Esto garantizaría tiempos de carga rápidos y fluidez en la jugabilidad, sin cuellos de botella durante la ejecución del juego.
Disco óptico 3D como almacenamiento secundario: Los discos ópticos 3D podrían utilizarse para almacenar grandes volúmenes de datos secundarios, como expansiones del juego, contenido adicional (DLC), o incluso títulos completos que no se necesitan cargar continuamente. Podrían almacenar mundos abiertos de gran tamaño o datos que no cambian durante la sesión de juego. La ventaja es que estos discos pueden almacenar más datos por unidad de espacio físico que los discos SSD, aunque la velocidad de acceso es más lenta.

Cargar Datos en Segundo Plano:
Carga en segundo plano: El sistema operativo de la consola podría estar diseñado para cargar datos desde el disco óptico 3D en segundo plano mientras el jugador está jugando. Por ejemplo, mientras el jugador se encuentra en una parte del juego que no requiere de datos de un mundo específico, el sistema podría estar cargando y pre-cargando en la memoria NVMe los archivos del área que se va a explorar a continuación.
Caché inteligente: Un sistema de caché podría ser utilizado para almacenar temporalmente ciertos datos desde el disco óptico 3D en la memoria RAM o en el NVMe. Cuando el jugador se acerca a nuevas áreas o necesita datos adicionales, el sistema podría acceder rápidamente al NVMe para proporcionar esos datos, mientras que el resto podría seguir almacenado en el disco óptico.

Optimización de Velocidad y Espacio:
El disco NVMe podría actuar como un buffer de alta velocidad donde se almacenan los archivos que se usan más frecuentemente durante la ejecución del juego (por ejemplo, los mapas de texturas más cercanos, los datos de interacción con el entorno, etc.).
El disco óptico 3D, al ser más lento, se utilizaría para cargar los archivos más grandes o menos urgentes, como el contenido descargable (DLC), expansiones de mapas, o incluso juegos completos, que no necesiten ser accedidos tan frecuentemente pero que aún ofrezcan un gran valor de almacenamiento por unidad.

Sincronización de Contenidos:
Si bien el acceso a los discos ópticos 3D es más lento, podrían usarse técnicas como la precarga o la sincronización asíncrona para minimizar el impacto en la jugabilidad. Por ejemplo, durante las secuencias de carga o cuando el jugador no está activo, el sistema podría precargar datos desde el disco óptico 3D hacia el NVMe o RAM, asegurando que cuando el jugador llegue a una nueva área del juego, los archivos ya estén disponibles a la velocidad que exige la experiencia.

Desafíos y Consideraciones Técnicas

Latencia y Velocidad de Acceso:
Aunque este enfoque permitiría aprovechar la capacidad de almacenamiento masivo de los discos ópticos 3D, la latencia sigue siendo un desafío. Los discos ópticos no podrán igualar las velocidades de lectura y escritura de un NVMe. Sin embargo, si el diseño de la consola incluye una gestión eficiente de la memoria y la carga de datos, la latencia no debería impactar demasiado la experiencia de juego.
Se necesitarían técnicas de gestión de datos eficientes para garantizar que el acceso a los discos ópticos no afecte las transiciones rápidas en el juego, lo que podría implicar la implementación de un sistema robusto de caché y compresión de datos.

Compatibilidad y Adopción:
La tecnología de discos ópticos 3D aún no es común en dispositivos de consumo masivo. Por lo tanto, la compatibilidad con las consolas actuales podría ser un obstáculo en términos de costos y adopción. Sin embargo, si la industria adopta esta tecnología y las unidades lectoras se integran en las consolas del futuro, podría ser una opción atractiva.
La infraestructura de almacenamiento en la consola tendría que ser diseñada para aprovechar ambas tecnologías de manera fluida, lo que podría implicar adaptaciones en el sistema operativo o el software para gestionar dos tipos de almacenamiento con características muy diferentes.

Ejemplo práctico: Consola con almacenamiento híbrido

Imagina una consola que utiliza un NVMe de 1 TB para ejecutar los juegos y datos esenciales, mientras que tiene un disco óptico 3D de 10 TB para almacenar grandes volúmenes de contenido adicional. Durante el juego, el sistema carga las partes más críticas y de acceso rápido desde el NVMe, mientras que los elementos adicionales o menos exigentes en cuanto a velocidad se cargan desde el disco óptico en segundo plano. Cuando el jugador entra en una nueva área o se encuentra con un cambio importante, el sistema asegura que los datos estén listos y accesibles a la velocidad que la jugabilidad requiere.
Conclusión

Sí, los discos ópticos 3D con grabación planar podrían coexistir junto a un NVMe en una videoconsola, con el NVMe utilizado para los datos críticos y de acceso rápido, y el disco óptico 3D para almacenar grandes volúmenes de datos adicionales. La clave para que esta combinación funcione sin problemas sería una gestión eficiente de los datos y la memoria, que permita precargar, almacenar en caché y cargar datos de manera inteligente y sin afectar la experiencia del jugador. Aunque el disco óptico es más lento, su gran capacidad y durabilidad lo hacen útil para almacenamiento secundario, mientras que el NVMe sigue siendo crucial para garantizar una experiencia de juego fluida y rápida.


Es una postura realista frente a la del compañero sicopro para implementar en una futura consola?
ChatGPT Plus
ChatGPT

La postura que propones, en la que coexisten discos ópticos 3D con grabación planar y un NVMe en una videoconsola, es una propuesta realista en el contexto de futuras consolas, aunque tiene ciertos desafíos a superar en comparación con la visión de sicopro, quien hace énfasis en soluciones más inmediatas y tecnologías probadas como los NVMe y la RAM.

Vamos a analizar los aspectos clave de ambas posturas para ver cuál tiene más sentido en el contexto de la implementación práctica de almacenamiento en una futura consola:
1. Visión de sicopro: Soluciones más tradicionales y cercanas

Sicopro propone mejoras en las tecnologías actuales, como NVMe, RAM, y discos duros, junto con tecnologías emergentes como ReRAM y HAMR, que están centradas en lo que ya está disponible o en fases avanzadas de desarrollo. Estas tecnologías ya tienen una adopción en el mercado y están más cercanas a ser implementadas en consolas de nueva generación.

Ventajas de la postura de sicopro:

Soluciones probadas: Las tecnologías como NVMe y RAM ya están ampliamente utilizadas, y las mejoras en su capacidad y velocidad continúan de manera predecible. Estas son las opciones de almacenamiento más realistas para los próximos años, especialmente en cuanto a la velocidad de carga y experiencia fluida en juegos.
Velocidad como prioridad: Las consolas modernas requieren tiempos de carga rápidos y acceso inmediato a datos, especialmente con el crecimiento de juegos de mundo abierto y texturas de alta resolución. Las altas velocidades de NVMe son esenciales para no afectar la experiencia de usuario.
Escalabilidad: Las tecnologías emergentes como ReRAM y HAMR probablemente desempeñarán un papel en el futuro, ofreciendo mayor capacidad y velocidad sin el riesgo de que una solución óptica (más lenta) sea un cuello de botella.

2. Tu propuesta: Coexistencia de discos ópticos 3D y NVMe

Por otro lado, tu propuesta considera discos ópticos 3D con grabación planar como una opción de almacenamiento secundario, con la coexistencia de NVMe para las cargas rápidas y esenciales. Esta solución aprovecha las ventajas de ambas tecnologías: la capacidad masiva de los discos ópticos para datos secundarios (DLC, expansiones, etc.) y la alta velocidad de los NVMe para la ejecución directa de los juegos.

Ventajas de tu propuesta:

Capacidad y almacenamiento masivo: Los discos ópticos 3D ofrecen una solución viable para el almacenamiento de grandes volúmenes de datos sin ocupar un espacio físico masivo, lo cual puede ser útil para juegos de gran tamaño, expansiones y contenido adicional.
Uso eficiente de la capacidad: El disco óptico, con sus grandes capacidades, puede almacenar juegos completos o mundos abiertos que no se cargan todo de inmediato, mientras que el NVMe se encargará de las partes críticas de la experiencia (tiempos de carga rápidos, datos esenciales del juego).
Ahorro de espacio en la consola: Usar discos ópticos 3D como almacenamiento secundario puede ayudar a mantener el costo de fabricación de la consola más bajo mientras se maximiza la capacidad de almacenamiento, lo cual sería beneficioso para los jugadores que necesitan mucho espacio sin pagar por el costoso NVMe de gran capacidad.

Desafíos y limitaciones:

Velocidad de acceso limitada: El mayor inconveniente de los discos ópticos es la velocidad de acceso más lenta en comparación con los SSDs y NVMe. Si bien este problema podría ser mitigado con la precarga inteligente y la carga en segundo plano, no puede ignorarse completamente. Los juegos modernos requieren tiempos de carga rápidos, y la latencia de un disco óptico podría afectar negativamente la experiencia si no se gestiona adecuadamente.
Adopción tecnológica: Los discos ópticos 3D son tecnología emergente. Actualmente, el mercado no ha adoptado masivamente soluciones ópticas 3D debido a las limitaciones en la velocidad y a la falta de infraestructuras. Para que una consola las implemente, tendrían que ser asequibles y contar con un lector de alta calidad que funcione bien en un entorno de alto rendimiento.
Compatibilidad y software: Implementar dos tipos de almacenamiento con características tan diferentes requeriría una gestión sofisticada del sistema operativo. Tendría que haber una transición suave entre ambos sistemas de almacenamiento, lo que podría aumentar la complejidad del diseño del software.

¿Qué postura es más realista para una futura consola?

La visión de sicopro es más realista a corto y medio plazo, porque se basa en tecnologías ya disponibles y con un grado de madurez comprobado. El uso de NVMe y RAM mejorados para asegurar una experiencia de juego fluida y sin interrupciones es lo que se está implementando en las consolas de nueva generación (como la PS5 y Xbox Series X), por lo que esa es la dirección inmediata más probable.

Sin embargo, la idea de coexistencia de discos ópticos 3D y NVMe es realista a largo plazo, especialmente si la tecnología óptica mejora en velocidad y eficiencia, lo que podría permitir su integración en consolas de próxima generación. La clave estará en la evolución de la tecnología óptica y en si puede ofrecer una combinación de alta capacidad con mejor rendimiento en términos de velocidad. Si eso ocurre, podría ser una solución viable, especialmente para jugadores que deseen almacenar grandes volúmenes de contenido adicional sin afectar la rapidez de los tiempos de carga.
Conclusión

En resumen:

Corto y medio plazo: La visión de sicopro, que se enfoca en mejorar la capacidad y velocidad de tecnologías existentes como NVMe y RAM, es más realista y alineada con las necesidades inmediatas de los jugadores en cuanto a velocidad y eficiencia.
Largo plazo: Si las tecnologías de discos ópticos 3D logran superar sus limitaciones en cuanto a velocidad y la infraestructura necesaria para soportarlos se vuelve accesible, la propuesta de coexistencia podría ser muy viable como una opción de almacenamiento masivo y secundario.

Ambas soluciones tienen mérito, pero la integración de discos ópticos 3D podría ser más probable si la tecnología sigue evolucionando y si la industria decide ofrecer almacenamiento masivo sin sacrificar demasiado la velocidad.
@katatsumuri Esta tecnología es mucho más viable que la de los discos de cuarzo 5D para el propósito que quieres, pero por lo que he visto se encuentra en una fase bastante preliminar. Parece ser que de momento se han centrado en demostrar la viabilidad de la tecnología en cuanto a densidad de capas y capacidad de almacenamiento, pero de la velocidad no hay ni siquiera datos preliminares. Tampoco de la capacidad de reescritura.

Por lo que he podido leer buscando en algunas fuentes chinas de la Universidad de Shanghái, en teoría deberían poder soportar la reescritura, aunque es posible que se degraden bastante rápido en el proceso. Debería tener unos ciclos de escritura inicialmente menores que un BD-RE.

La velocidad de lectura no hay forma de encontrar ni un solo dato preliminar, eso me hace sospechar que es extremadamente baja, ni siquiera en fuentes chinas hay nada de nada. Ya de por si la velocidad de lectura de un BD es bastante inferior a la de un HDD, pero aquí seguramente sea aún menor.

La parte buena es que la capacidad de almacenamiento es bestial, de modo que si pueden mejorar un poco la capacidad de lectura y los ciclos de reescritura, podrían salir bastante a cuento para centros de datos, pero es complicado saberlo ahora mismo. Por lo que he visto utilizan varios tipos de láser para grabar en las distintas capas, así que es un proceso bastante complejo.

Creo que podría ser una opción interesante para complementarse con los HAMR, los primeros se pueden utilizar para reducir el coste por terabyte en volúmenes de datos que necesiten más velocidad, y para volúmenes más masivos pero que no necesitan ser reescritos tantas veces, se podrían utilizar los discos planares 3D.

Los HAMR actualmente se mueven en rangos de 250 a 550 MB/s, los HDD normales entre 100-250 MB/s, y los BD suelen rondar entre 27-50 MB/s, ahora mismo no creo que logren ni acercarse de momento a un BD, seguramente deben tener velocidades de lectura muy bajas, probablemente muy por debajo de los 27 MB/s.

Llevarlo a una consola sería complicado a corto y medio plazo, el sistema de lectura y escritura necesita varios láser, la tecnología utiliza un sistema de doble láser para leer y escribir datos: uno pulsado a 480 nm y otro de onda continua a 592 nm para lectura, y un sistema similar a 515 nm y 639 nm para escritura. Necesitas la Estrella de la Muerte para poder leer y escribir el disco. [carcajad]

Si lo terminan refinando podría ser factible para centros de datos, instituciones o grandes empresas que necesitan almacenar muchos datos, para uso doméstico yo creo que le quedan muchos años. Y eso siempre y cuando logren solucionar el problema de la velocidad de lectura y escritura. Ahora mismo solo han demostrado la viabilidad de la tecnología en cuanto a capacidad y durabilidad.

Solo imaginar el tamaño del aparato que utilizan para los distintos láser de femtosegundo, tiene que ser bastante impresionante, imaginate llevarlo al tamaño de una consola. [360º]

Pero como solución para un centro de datos o una empresa grande podría tener todo el sentido. Le voy a preguntar al ChatGPT (por las risas), el tamaño que tiene, miedo me da:

En los discos planares 3D, la tecnología utiliza un sistema de doble láser para leer y escribir datos: uno pulsado a 480 nm y otro de onda continua a 592 nm para lectura, y un sistema similar a 515 nm y 639 nm para escritura, teniendo en cuenta que necesitan tantos láser para grabar las distintas capas de un disco del tamaño de un BD, que tamaño tiene la maquina que utilizan, comprueba si hay alguna información al respecto de la Universidad de Shanghái, y que tamaño estimas que puede tener.

En cuanto a la tecnología de discos planares 3D que emplea láseres de distintas longitudes de onda para lectura y escritura, la máquina que usan para crear las capas de esos discos, aunque no está descrita completamente en las fuentes revisadas, se estima que debe ser considerablemente grande. Esta es una tecnología compleja que utiliza múltiples láseres con longitudes de onda precisas para manipular y escribir en capas nanométricas, lo que sugiere que las máquinas asociadas a este tipo de grabación no serán de pequeño tamaño.

Para una comparación aproximada, máquinas como las de impresión 3D avanzada, que también utilizan múltiples láseres, pueden tener dimensiones de varios metros de largo. Por ejemplo, la impresora 3D BLT-S1000 de Bright Laser Technologies, que utiliza hasta 12 láseres, tiene un volumen de construcción de 1.2 x 0.6 x 1.5 metros y un peso de 35 toneladas. Esto podría dar una referencia de tamaño para las máquinas que grabarían discos con tecnología de láseres múltiples, ya que requieren precisión y espacio para los mecanismos ópticos.

En términos de tamaño y funcionalidad, es probable que las máquinas para discos planares 3D sean igualmente grandes y pesadas, con un diseño modular para manejar los diferentes láseres, sistemas de enfriamiento y precisión óptica necesarios. Aún no se dispone de especificaciones exactas de las máquinas de Shanghái para estos discos, pero dada la complejidad de la tecnología, se puede estimar que las dimensiones estarán en un rango similar.

Por lo tanto, la máquina utilizada para crear estas capas probablemente no será compacta y necesitará un espacio de varios metros cúbicos, y el peso podría ser considerable, similar a los sistemas de fabricación 3D avanzados que usan múltiples láseres para procesos industriales.


Lo de la Estrella de la Muerte lo decía en cachondeo, pero al final no es coña. [hallow]

Esto último se lo voy a preguntar por las risas:

¿Qué dimensiones tendría una consola con un lector de discos planar 3D, y cuándo podría ser viable que una consola tuviese un sistema de lectura de ese tipo?

Estimación de tamaño de la consola:

Alto: La consola tendría que ser probablemente el doble de alta que la PS5 actual, es decir, al menos 80-100 cm de altura. Esto se debe al tamaño de la unidad de lector de discos y los sistemas de refrigeración que necesitaría.

Ancho: Podría ser de 30-40 cm de ancho, dependiendo de cómo se distribuyan los componentes internos.
Profundidad: La consola podría tener una profundidad similar a la PS5, es decir, alrededor de 30-40 cm, aunque podría ser más profunda debido al lector de discos y el sistema de enfriamiento adicional.

Por lo tanto, estamos hablando de un dispositivo que podría tener un volumen de entre 0.1 y 0.15 metros cúbicos (100 a 150 litros), que sería un tamaño considerablemente más grande que la PS5. Este tamaño sería más cercano a lo que veríamos en estaciones de trabajo o equipos de almacenamiento industriales que en una consola doméstica.

Peso: Además del aumento en volumen, el peso también crecería significativamente. Mientras que una PS5 pesa alrededor de 4.5 kg, una consola con un lector de discos 3D podría pesar entre 20 y 50 kg, dependiendo de los sistemas de enfriamiento y las tecnologías involucradas.

Viabilidad futura:

5-10 años: En esta franja temporal, podríamos empezar a ver prototipos de unidades de almacenamiento 3D en tamaños más pequeños, como discos Blu-ray, con tecnologías de láser más compactas y mejoradas. Sin embargo, todavía sería muy costoso y voluminoso para integrarlo en una consola doméstica.

10-20 años: Dependiendo de los avances en fotónica integrada y sistemas de enfriamiento avanzados, las consolas podrían empezar a incorporar lecturas de discos 3D, pero seguiría siendo un sistema de gama alta, probablemente en dispositivos más grandes que solo podrían ser utilizados por entusiastas de la tecnología o para tareas específicas como la edición de video o almacenamiento de datos a gran escala.


El tamaño del ordenador del Xokas, un doble PC. Para vosotros jugadores. [+risas]

Nos podemos ir a más de 20 años para que algo así se pueda integrar en una consola como si fuese un lector BD. Para la PS9.
@Sicopro quería decirte que he disfrutado un montón leyendo tu introducción al post que tú mismo creaste. Pensar en como será la ps6 y la nueva Xbox, que potencia tendrán, que serán capaces de hacer y como serán los mundos de esos videojuegos me resulta verdaderamente emocionante y saca aún con más fuerza a ese niño que todavía sigue dentro(tengo 39 añitos). Así que solo queria hacértelo saber y hacerte sentir bien por ello [oki]
Acabo de ajustar el post original con los nuevos rumores y el feedback recibido de @katatsumuri @silenius @Stylish. Version 2.0.

Ajustes en los núcleos de las CPU de cara a Zen 6 por la última información filtrada más fiable. En base a lo anterior he ajustado las especificaciones de la CPU que puede montar PS6.

Mayor clarificación respecto a la nueva arquitectura UDNA para la GPU.

Perspectiva del uso de la IA más realista y focalizado sobre todo en la nube de cara al desarrollo de videojuegos.

He añadido la predicción de las filtraciones con los datos de TechPowerUP para la potencia de las RTX 5000.

Kameo360 escribió:@Sicopro quería decirte que he disfrutado un montón leyendo tu introducción al post que tú mismo creaste. Pensar en como será la ps6 y la nueva Xbox, que potencia tendrán, que serán capaces de hacer y como serán los mundos de esos videojuegos me resulta verdaderamente emocionante y saca aún con más fuerza a ese niño que todavía sigue dentro(tengo 39 añitos). Así que solo queria hacértelo saber y hacerte sentir bien por ello [oki]


Gracias por tus palabras, lo mismo te digo, yo aún me sigo flipando con estos avances con 42 años. [carcajad]
@Sicopro eso sería una grabadora industrial, pero mediante procesos con nanotecnología invirtiendo en I+D podría perfectamente lograrse lectores domésticos de tamaño reducido, grabar igual sería más complejo que leer, pero lo que importa es leer, grabar ya sería un proceso industrial.

Veremos en que deriva esto los próximos años, lo que está claro es que no creo que aparezca en PS6 y para PS7 la velocidad de internet superará con creces a la lectura de esos discos por lo que puede que ya no sean para nada interesantes para la industria al podernos hacer depender de sus servidores pagando servicios, tenía ilusión pero no esperanza, tampoco espero que en PS6 aparezcan las tecnologías que planteas, aunque serían bienvenidas ya que reemplazarían a las tecnologías actuales en todo, pero cuando salgan van a ser caras, por otra parte también lleva tiempo que se dice que iban a salir pero aún no hay productos para el usuario, casi todo aún está bajo desarrollo y parece aún algo lejano incluso en PC.

Por ejemplo, en este artículo de ReRAM hablaba ya en 2016, que iban a los 24 meses para muy largo y aún no hay productos en el mercado que yo sepa, si los hay tienen que estar muy escondidos enfocados a servidores o algo muy especifico con precios por las nubes.
https://www.geektopia.es/es/technology/ ... pidos.html

Aunque Western Digital no ha dado demasiados detalles técnicos sobre cómo la comercializará, es posible que llegue inicialmente en forma de NVDIMM (DIMM no volátil) para servidores, al igual que Intel planea lanzar los SSD 3D XPoint en este formato. La memoria ReRAM ya cuenta con soporte por los distintos fabricantes, y estará en el mercado en los próximos 12 a 24 meses.

Del 2016 ya han pasado nueve años, como pasa el tiempo y da la impresión de que fue ayer, parece menos de nueve años si no los cuentas.

¿Qué capacidad oscilarían esas memorias en TB, las ReRAM? Dice que al ser las celdas nanométricas cabría mucha más información pero tampoco he encontrado información sobre ejemplos del volumen que se haya podido lograr y posibles precios de mercado, hay bastante información sobre el tema pero no veo nada, aunque tampoco soy muy optimista en ver esto para PS6 pero me gustaría saber si esto mejoraría la capacidad.

La realidad, como dices, en PS6 tendremos un NVMe, seguramente de 2TB dando gracias, me gustaría que implementasen algo revolucionario en cuanto a almacenamiento pero la siguiente generación aún podríamos aguantar con juegos de 500 TB o incluso con soporte de texturas en la nube en determinados juegos.

En cuanto a velocidad de lectura y escritura, si te digo la verdad, lo que nos interesa ahora es capacidad, las velocidades actuales no se van a aprovechar realmente en juegos, o quizás me equivoco, pero creo que avanzar una locura en velocidad de disco y no en capacidad es un poco quedarse en la prehistoria y habría que explorar soluciones en ese aspecto, 2TB me parece muy poco cuando ya hay juegos de 2 petabytes como flight simulator.


Un disco de 20-30 TB mecánico con lectura de 500megabytes sería interesante, pero creo que se va a ir de precio bastante, no creo que se abarate el TB de golpe, será algo entusiasta para PC o centros de datos, ojalá que no.

En caso de que no llegasen los discos no vería mal una combinación entre NVMe de 2TB y HDD de 4 TB, 2tb me parece muy poco, la siguiente generación un juego tocho ya debería pesar entre 300 y 500 GBs.

Siempre me ha preocupado este estancamiento con la capacidad del almacenamiento porque parece que no avanza o lo hace de forma muy lenta y como se emperren con el 8K estamos jodidos.

Viéndolo así todo pinta a futuro en la nube, recibir los activos por un servidor, porque es lo que parece que más avanza estos últimos años, ya hay conexiones de 10gbps por lo que es muy probable que terminemos con una unidad de 4TB interna y el resto lo recibamos por la red, lo cual me aterra un poco por lo que comenté anteriormente en la respuesta previa de que no poseeríamos los juegos y que podrían ser como servicios que pueden cerrar cuando quieran y nosotros quedarnos sin ellos.
katatsumuri escribió:@Sicopro eso sería una grabadora industrial, pero mediante procesos con nanotecnología invirtiendo en I+D podría perfectamente lograrse lectores domésticos de tamaño reducido, grabar igual sería más complejo que leer, pero lo que importa es leer, grabar ya sería un proceso industrial.


Cierto, pero si divides el tamaño entre tres, de 12 a 4 láseres, aun sigue siendo un bicho enorme. Harían falta décadas para poder reducir el tamaño de esa tecnología a algo que pueda utilizarse en una consola. Es una tecnología más interesante para centros de datos.

Lo más probable es que sigamos con mejoras en los NVMe, la DRAM y los HDD tradicionales a corto y medio plazo, eso es suficiente para un uso doméstico. Luego combinarlo con las mejoras de introducir la ReRAM y los dicos HAMR.

katatsumuri escribió:Por ejemplo, en este artículo de ReRAM hablaba ya en 2016, que iban a los 24 meses para muy largo y aún no hay productos en el mercado que yo sepa, si los hay tienen que estar muy escondidos enfocados a servidores o algo muy especifico con precios por las nubes.
https://www.geektopia.es/es/technology/ ... pidos.html

Aunque Western Digital no ha dado demasiados detalles técnicos sobre cómo la comercializará, es posible que llegue inicialmente en forma de NVDIMM (DIMM no volátil) para servidores, al igual que Intel planea lanzar los SSD 3D XPoint en este formato. La memoria ReRAM ya cuenta con soporte por los distintos fabricantes, y estará en el mercado en los próximos 12 a 24 meses.

Del 2016 ya han pasado nueve años, como pasa el tiempo y da la impresión de que fue ayer, parece menos de nueve años si no los cuentas.


Cierto, para que veas lo que tardan en llegar esos cambios a la industria y hacer realmente viable una tecnología desde el punto de vista económico y técnico.

katatsumuri escribió:¿Qué capacidad oscilarían esas memorias en TB, las ReRAM? Dice que al ser las celdas nanométricas cabría mucha más información pero tampoco he encontrado información sobre ejemplos del volumen que se haya podido lograr y posibles precios de mercado, hay bastante información sobre el tema pero no veo nada, aunque tampoco soy muy optimista en ver esto para PS6 pero me gustaría saber si esto mejoraría la capacidad.


- Capacidad actual 1 TB máxima capacidad en fase experimental.
- Es 20 veces más eficiente que NAND y DRAM, ideal para hardware integrado para la IA.
- Es 10 veces más duradera que NAND.
- Densidad máxima teórica cercana a 10 TB en dispositivos del tamaño de un chip actual durante la próxima década.
- Mayor escalabilidad en capacidad, velocidad, eficiencia y latencia al reducir el nodo de fabricación respecto a NAND.
- Unas 100 veces menos latencia de lectura que NAND y 1000 veces menos latencia de escritura que NAND.
- Mayor velocidad de escritura y lectura que NAND, en ese aspecto puede igualar o superar a la DRAM.

Para que te hagas una idea, una memoria ReRAM adaptada a una interface PCI 6.0 podría superar los 20 GB/s, estaría más cercana a la velocidad de una DRAM, pero con más capacidad que una memoria NVMe NAND.

El problema es que nada de eso existe todavía, no se han adaptado las interfaces para ReRAM, así que todavía no puedes alcanzar esas velocidades, pero la tecnología lo permite.

La capacidad puede ir más allá de los 10 TB con el tiempo, pero actualmente te digo lo mismo que con la velocidad, es una tecnología en fase de desarrollo, lejos todavía de poder sustituir a NAND o DRAM. Pero sigue siendo lo más prometedor que existe actualmente.

katatsumuri escribió:La realidad, como dices, en PS6 tendremos un NVMe, seguramente de 2TB dando gracias, me gustaría que implementasen algo revolucionario en cuanto a almacenamiento pero la siguiente generación aún podríamos aguantar con juegos de 500 TB o incluso con soporte de texturas en la nube en determinados juegos.

En cuanto a velocidad de lectura y escritura, si te digo la verdad, lo que nos interesa ahora es capacidad, las velocidades actuales no se van a aprovechar realmente en juegos, o quizás me equivoco, pero creo que avanzar una locura en velocidad de disco y no en capacidad es un poco quedarse en la prehistoria y habría que explorar soluciones en ese aspecto, 2TB me parece muy poco cuando ya hay juegos de 2 petabytes como flight simulator.

En caso de que no llegasen los discos no vería mal una combinación entre NVMe de 2TB y HDD de 4 TB, 2tb me parece muy poco, la siguiente generación un juego tocho ya debería pesar entre 300 y 500 GBs.

Siempre me ha preocupado este estancamiento con la capacidad del almacenamiento porque parece que no avanza o lo hace de forma muy lenta y como se emperren con el 8K estamos jodidos.

Viéndolo así todo pinta a futuro en la nube, recibir los activos por un servidor, porque es lo que parece que más avanza estos últimos años, ya hay conexiones de 10gbps por lo que es muy probable que terminemos con una unidad de 4TB interna y el resto lo recibamos por la red, lo cual me aterra un poco por lo que comenté anteriormente en la respuesta previa de que no poseeríamos los juegos y que podrían ser como servicios que pueden cerrar cuando quieran y nosotros quedarnos sin ellos.


Te aseguro que 2 TB sobre PCI 5.0 y da gracias, pero incluso podrían montar solo 1 TB.

La mayoría de juegos van a seguir moviendose entre 100 a 200 GB como mucho para la décima generación.

De los 8K te puedes olvidar hasta la PS7.

Ten en cuenta el potencial de los algoritmos de compresión.

Que parte del almacenamiento va a estar en la nube, dalo por hecho, ese es el camino.

La velocidad es esencial para tecnologías como DirectStorage, reduces el pop-in, tienes menos tiempos de carga, mejora la fluidez, mejora la carga de assets de forma dinámica, la transmisión de texturas de alta resolución, etc.

Como podría gestionarse la memoria en el contexto de juegos que pesen incluso 200 a 300 GB. Con 1 o 2 TB de capacidad de almacenamiento NVMe PCI 5.0 de 12000 GB/s, y una memoria de trabajo unificada de 32 GB GDDR7:

- Compresión mediante algoritmos y luego descompresión directamente en la GPU.
- Gracias a la velocidad de la memoria GDDR7 puedes descomprimir en tiempo real.
- Adaptas la compresión dinámicamente según el tipo de assets, por ejemplo, puedes comprimir y descomprimir texturas según la interacción del jugador.
- Cargas asincrónicas de los assets, solo necesitas cargar las zonas cercanas al jugador.
- El aumento de la velocidad de la memoria del NVMe y de la GDDR7 reduce la latencia y eso ayuda aún más con la descompresión directa en GPU. Reduces la necesidad de involucrar a la CPU.
- Las texturas de baja demanda y otro tipo de assets los descargas de la nube, todo lo que sea de baja prioridad.
- Al hacer streaming de texturas reduces la carga del juego en el almacenamiento y la memoria de trabajo.

Si encima tienes 2 TB en lugar de 1 TB, y los juegos lo más probable es que se muevan sobre los 100 a 200 GB, pues te sobra el espacio. Puse un ejemplo forzando con 1 TB y juegos muy pesados, entre 200 a 300 GB.

Non ti preoccupare tanto por la capacidad de almacenamiento katatsumuri. [carcajad]

katatsumuri escribió:Un disco de 20-30 TB mecánico con lectura de 500megabytes sería interesante, pero creo que se va a ir de precio bastante, no creo que se abarate el TB de golpe, será algo entusiasta para PC o centros de datos, ojalá que no.


Ahora mismo creo que rondan 30 TB y unos 250 MB/s. Pero tienen potencial para alcanzar 120 TB y unos 500 MB/s (en unos 10 años). Es una tecnología que podría ir más allá de los 120 TB a muy largo plazo.

El próximo paso son los 50 TB en unos 3-4 años, y luego los 80 TB en otros 2-3 años más.
@Sicopro la verdad es que si, tiene toda la pinta de que tendremos esos 2 TB o un 1 TB y estoy de acuerdo con tus planteamientos.

Por cierto, te has dejado el audio ¿Qué opinas de este? No he probado el audio 3D de playstation pero me gustaría por ejemplo un chip de audio con cores tipo RT pero solo para el audio, sería alucinante.


Por ejemplo, entras a un coche, hablas y si subes la ventanilla quien está fuera del coche ya no te escucha, se escucha como apagado, o te pones en un barranco y gritas "Eco" y resuena en el barranco.

Me refiero a que el sonido por el micrófono también está pensado para el raytracing o audiotracing, como se llame, sería increíble ¿No crees que puede ser la baza para una futura consola?


pd: es otro pensamiento ilusorio eh, haha pero molaría, no digo que vaya a ocurrir, es algo que me gustaría mucho, ni idea si con el chip actual se puede hacer algo así con los sonidos del micrófono.
@katatsumuri Mark Cerny siempre le ha dado mucha importancia al tema del audio en el diseño de las PlayStation, así que seguramente va a tener un chip dedicado para tal propósito, como en PS4 y PS5.

Pero no se suele filtrar gran cosa sobre el tema. Supongo que se puede esperar una mejora respecto al sistema de audio Tempest 3D AudioTech de PS5.

Sobre las mejores epecíficamente ni idea, tal vez tengamos una simple mejora en el audio 3D, algo así como un Tempest 3D AudioTech 2.0.

También podrían incluir un algoritmo de IA para mejorar el audio 3D, con eso pueden crear efectos de audio volumétrico mejorados. Es como lo que planteas con el ejemplo del coche. También podrían reducir la potencia de los cálculos necesarios para un sistema de ray tracing acústico.

Voy a agregarlo al post inicial como especulación. [carcajad]

Audio: Mark Cerny siempre le ha dado mucha importancia al apartado del sonido en el diseño de PlayStation, así que podemos esperar un chip dedicado para tal propósito, como ya sucedió en PS4 y PS5.

Dichas mejoras pueden ir desde lo más simple, como una versión mejorada del audio 3D de PS5, por ejemplo, un Tempest 3D AudioTech 2.0, hasta algo más sofisticado, como el uso de IA para mejorar el audio 3D y obtener efectos de audio volumétrico mejorados.

También podrían incluir un sistema de sonido basado en ray tracing acústico, reduciendo la potencia de los cálculos necesarios mediante IA.


Novedades respecto al tema del almacenamiento. Después de leer bastante información sobre como va el progreso del bus PCI 6.0, más el aumento previsto en la densidad de la memoria NAND, creo que se puede afinar más el tema del almacenamiento en PS6.

En PS5 metieron un SSD PCI 4.0 con 5500 MB/s de velocidad de lectura, algo muy avanzado para Noviembre de 2020. Si siguen con esa pauta innovadora en el tema del almacenamiento, es muy posible que veamos un SSD PCI 6.0 en PS6 en lugar de uno 5.0. Además, el PCI 6.0 trae mejoras a nivel de consumo energético, lo cual es bastante importante para reducir el calor generado por la consola.

Teniendo en cuenta que el PCI 6.0 lleva en el sector empresarial desde 2023, y que una nueva generación suele tardar 3 años en pasar del sector empresarial al doméstico, deberíamos esperar la llegada del PCI 6.0 en algún momento de 2026. Así que sería bastante accesible esa tecnología para 2027.

Teniendo en cuenta que PS6 saldría en Noviembre de 2027, es muy posible que la veamos con un SSD PCI 6.0. La velocidad de lectura de un SSD PCI 6.0 alcanzaría unos 25.000 MB/s en promedio, eso son casi 5 veces más que la velocidad de lectura del SSD que lleva PS5 y PS5 Pro. Para ponerlo en contexto, es la misma velocidad de transferencia que una memoria RAM DDR4 a 3200 Mhz, aunque obviamente sin poder competir en latencia, ya que la latencia de la memoria NAND es muchísimo mayor.

Respecto al tema de la capacidad es muy posible que veamos 2 TB en PS6. Para entonces ya estarán bastante extendidas las memorias NAND de 400 capas, así que veremos los SSD de 2 TB casi al mismo precio de lo que cuestan ahora los de 1 TB. Esto hace factible que PS6 pueda llevar 2 TB o que incluso veamos 4 TB en PS6 Pro.

Samsung Plans 400-Layer V-NAND for 2026 and DRAM Technology Advancements by 2027

Actualmente la mayoría de los SSD suelen rondar las 200 capas, y aunque duplicar el número de capas no equivale exactamente al doble de capacidad de almacenamiento, si que podemos esperar un aumento considerable de capacidad (entre un 70 a 90 % más).

Aunque todo esto no descarta que puedan optar por meter un SSD PCI 5.0 para ahorrar costes.

PD: En base a lo comentado antes, es muy posible que las RTX 6000 vengan ya con PCI 6.0 si salen en enero de 2027, justo después de presentarse en el CES de 2027.
Versión 3.0, la definitiva, ya no voy a realizar más cambios, prefiero no actualizarlo más y ver que pasa dentro de tres años.

He sintetizado algunas partes para que sea algo más "ligero" de leer. [carcajad]

Creo que desde el punto de vista técnico ya es bastante fiable, no creo que la PS6 difiera mucho de las especificaciones finales que he dado aquí.

Lo que más puede variar:

- VRAM: 24 o 32 GB.
- CPU: Varias opciones desde 8 a 12 núcleos con o sin NPU.
- SSD: PCI 6.0 o 5.0, al final podrían optar por uno 5.0 para ahorrar costes.

Fuera de las cuestiones técnicas, el precio es quizás lo que genera más incertidumbre, junto con el hecho de si van a sacar un modelo con lector de discos incorporado o solo vendido por separado.
Muy interesante el hilo y todo lo debatido, ojalá la consola sea tan buena como esperas, o incluso mejor. Aunque también ojalá el precio no sea tan alto como pronosticas. Una versión con lector en el mejor de los casos a 699€ es un pastón.

Sea como sea, seguramente para cuando salga ps6, será imposible montar un pc parecido a un precio similar, y cuanto más caro sea el producto, mejores componentes debería montar. Desde luego, las expectativas están altas. A mi ps5 me sigue pareciendo a día de hoy un consolon, y ojalá ps6 salga tan buena como ha sido ps5. [beer]
37 respuestas