› Foros › Multiplataforma › General
katatsumuri escribió:En cuanto a unidad de almacenamiento extraíble solo para lectura molaría que apostasen por algo revolucionario como los discos de vidrio que están siendo investigados, ya que un SSD se queda en nada al lado de la capacidad de esos discos, el SSD podría usarse para datos dinámicos, mientras que el disco de vidrío podría usarse simplemente para leer información estática.
Imagina 1 petabyte de almacenamiento estático solo para un juego, sería alucinante, y volvería el formato físico, para los coleccionistas, se podrían hacer juegos muy grandes en cuanto a variedad de entornos, assets, etc...
Yo pienso que las consolas tienen que dar un cambio y un golpe sobre la mesa con algo revolucionario y no ser tan continuistas si existe la posibilidad.
24 GB de VRAM me parece muy poco, aunque veo jodido que se dupliquen los 16, pero lo óptimo sería poder tener 32 o más.
LordVulkan escribió:Tienes que estar borracho si piensas que van a invertir en cualquier cosa que no sea el formato digital. Muy borracho o drogado si encima piensas que van a apostar por sistemas de almacenamiento físicos innovadores y caros.
PS6 será solo digital y si acaso compatible con el lector extraíble de PS5 exclusivamente para la retrocompatibilidad.
LordVulkan escribió:No, lo que llevan haciendo durante décadas es potenciar el formato digital en detrimento del físico.
Te venderán máquinas con discos duros mas grandes para que puedas instalar mas juegos, pero la distribución en formato física está en coma y a punto de ser desenchufada.
LordVulkan escribió:Me juego lo que quieras a que no hay nadie en PlayStation investigando un sustituto de los Blu-Ray. Lo que están es investigando como acabar de matarlos y que la transición al formato 100% digital tenga el menor impacto posible.
LordVulkan escribió: Formato digital: La copia del juego no está atada a ningún soporte fisico, su distribución se realiza por canales digitales y la consola no requiere de ningún HW adicional para ejecutar estos juegos.
LordVulkan escribió: No vas a ver ningún avance en el formato físico, se le va a dar muerte en los próximos años
LordVulkan escribió: Todos los avances vendrán de la mano del formato digital y por lo tanto de mejorar el almacenamiento interno de las consolas. Olvidate de nuevos formatos de distribución en físico más allá de los años que aguante nintendo, que serán poco más que el resto.
Repito que no lo sabes, no sabes como evolucionará la tecnología, puedes hacer una especulación, yo solo te digo que microsoft está investigando en ello y que en un futuro gran parte de todo lo que son los servidores serán sustituidos por esta tecnología.LordVulkan escribió: Microsoft ha quitado el formato fisico a todas sus consolas con las últimas revisiones, no está investigando nada relacionado con videojuegos.
LordVulkan escribió:Nadie está investigando cual va a ser el próximo formato fisico porque quieren que la distribución sea 100% digital.
katatsumuri escribió:En cuanto a unidad de almacenamiento extraíble solo para lectura molaría que apostasen por algo revolucionario como los discos de vidrio que están siendo investigados, ya que un SSD se queda en nada al lado de la capacidad de esos discos, el SSD podría usarse para datos dinámicos, mientras que el disco de vidrío podría usarse simplemente para leer información estática.
Imagina 1 petabyte de almacenamiento estático solo para un juego, sería alucinante, y volvería el formato físico, para los coleccionistas, se podrían hacer juegos muy grandes en cuanto a variedad de entornos, assets, etc...
Yo pienso que las consolas tienen que dar un cambio y un golpe sobre la mesa con algo revolucionario y no ser tan continuistas si existe la posibilidad.
24 GB de VRAM me parece muy poco, aunque veo jodido que se dupliquen los 16, pero lo óptimo sería poder tener 32 o más.
Sobre el punto 6 y la IA, la IA en consolas solo se va a mover para los gráficos, reescalado, frame generation y poco más, como mucho IA generativa en PS6 PRO y soñando mucho, siempre se enfocan en los gráficos.
Nvidia ACE es un servicio CLOUD, se mueve en servidores, no en local, sería muy jodido utilizar un modelo de lenguaje y síntesis de voz dinámica desde la misma consola, lo veo muy lejano, todo eso funcionará por cloud a través de red mediante inyección de metadatos, y veremos si es rentable para las empresas mantener un servicio así, porque para un singleplayer te aseguro que no, es una comida de dinero tremenda que las empresas solo van a asumir en alguno de los siguientes casos:
-Que se consiga un poder de computo local lo suficientemente potente como para ejecutar esos modelos en local, algo muy lejos de la realidad.
-Que se venda como un servicio premium para mejorar la experiencia en un juego, pagas y obtienes esa feature en el juego o en varios juegos.
-Que un videojuego online funcione tan bien gracias a eso que les sea rentable tenerlo implementado.
Stylish escribió:Estoy bastante de acuerdo en general con todo salvo con el tema de la CPU. Con silicios tan grandes sospecho que la CPU la van a afeitar todo lo que puedan. No veo que Sony vaya a tirar por 16 núcleos y tampoco que vayan a ir a Zen 6.
katatsumuri escribió:Vas a tenerlo en juegos si o si si las desarrolladoras lo ven viable, pero por cloud, servidores dedicados que se dedican a ese procesamiento de datos.
katatsumuri escribió:Además que es una tecnología real que existe, no es fantasía, el problema es que desconozco cuanto de lejos está su implementación a un nivel doméstico, podría desde salir algo mañana, como ha ocurrido con muchas tecnologías, a no salir en una década, a irse solo implementando para centros de datos abaratando los costes de los servicios cloud de los servidores, algo dicho por Microsoft, pues los discos duran milenios y lo único que se gastaría es el laser de lectura, no tendrían que ir renovando los discos porque se gastan.
silenius escribió:@Sicopro RDNA 4 es la ultima generacion de gpus con esta nomencaltura, no habrá RDNA 5 ya que desaparece en favor de UDNA a partir de 2026
Stylish escribió:Sony va a ponerle a PS6 lo más barato que pueda que de el rendimiento que tengan. Si basan la APU en Zen 5 o 6 ni soñeis con el cache 3D. Y con el cache de nivel 2 harán lo mismo que en PS5, recortarlo para que el silicio sea más barato y pequeño.
Mucho me temo que la CPU de PS5, NPU aparte, no será más rápida que un 7800X3D 4 años después.
katatsumuri escribió:@Sicopro el tema de la velocidad de lectura y escritura es algo que hay que mejorar, muy cierto, veremos en que queda, no hay mucha información sobre el tema la verdad, es una tecnología que posiblemente no esté preparada para 2027 pero no estaría mal que se le echase un ojo y se intentase financiar para intentar avanzar su desarrollo, aunque no veo a sony ya en ese lugar, antes si eran más revolucionarios, pero poco a poco han ido perdiendo es papel.
Sicopro escribió:katatsumuri escribió:@Sicopro el tema de la velocidad de lectura y escritura es algo que hay que mejorar, muy cierto, veremos en que queda, no hay mucha información sobre el tema la verdad, es una tecnología que posiblemente no esté preparada para 2027 pero no estaría mal que se le echase un ojo y se intentase financiar para intentar avanzar su desarrollo, aunque no veo a sony ya en ese lugar, antes si eran más revolucionarios, pero poco a poco han ido perdiendo es papel.
La velocidad de escritura es muy difícil de mejorar, ya se utiliza un láser de femtosegundo, pero tampoco importa mucho mejorarla si el objetivo es grabar datos para su conservación a largo plazo. No es una tecnología para sustituir los medios de almacenamiento tradicionales, es más para conservar datos científicos o culturales a largo plazo, por ejemplo, el genoma humano, libros, música, etc.
El verdadero problema de esa tecnología es que no puedes reescribir un cristal de cuarzo otra vez, ya que a grosso modo lo que hacen es grabar con un laser un cristal de cuarzo en forma de láminas, por eso dura miles de años, pero claro, no puedes volver a reescribir la información. El proceso de escritura es lento, ya que haciendo un simil a lo bestia, es como grabar en una piedra con un láser muy rápido y preciso.
katatsumuri escribió:Sicopro escribió:katatsumuri escribió:@Sicopro el tema de la velocidad de lectura y escritura es algo que hay que mejorar, muy cierto, veremos en que queda, no hay mucha información sobre el tema la verdad, es una tecnología que posiblemente no esté preparada para 2027 pero no estaría mal que se le echase un ojo y se intentase financiar para intentar avanzar su desarrollo, aunque no veo a sony ya en ese lugar, antes si eran más revolucionarios, pero poco a poco han ido perdiendo es papel.
La velocidad de escritura es muy difícil de mejorar, ya se utiliza un láser de femtosegundo, pero tampoco importa mucho mejorarla si el objetivo es grabar datos para su conservación a largo plazo. No es una tecnología para sustituir los medios de almacenamiento tradicionales, es más para conservar datos científicos o culturales a largo plazo, por ejemplo, el genoma humano, libros, música, etc.
El verdadero problema de esa tecnología es que no puedes reescribir un cristal de cuarzo otra vez, ya que a grosso modo lo que hacen es grabar con un laser un cristal de cuarzo en forma de láminas, por eso dura miles de años, pero claro, no puedes volver a reescribir la información. El proceso de escritura es lento, ya que haciendo un simil a lo bestia, es como grabar en una piedra con un láser muy rápido y preciso.
Como dije, la idea es que ese tipo de disco coexista con un NVMe, habría un soporte de datos dinámicos pero el otro solo sería para agarrar activos que no tengan que modificarse, así que da igual que pueda o no rescribirse, lo mejor sería que tuviese datos dinámicos, pero al ser como dices, un soporte grabado en físico, sería bastante difícil y el proceso sería lento.
El problema es realmente la velocidad de lectura y escritura, si es demasiado lenta no garantiza poder agarrar esos activos a tiempo mientras se ejecuta el juego, pongamos que si no supera la velocidad de un SSD SATA 3 no tendría mucho sentido porque volveríamos al problema de los tiempos de carga para agarrar activos, la velocidad de un BD standard no valdría, ese es el mayor problema que yo veo a este tipo de soporte, pero que los datos sean estáticos no me parece un problema, es una desventaja, pero si la velocidad de lectura fuese rápida sería algo revolucionario para los videojuegos.
silenius escribió:@Sicopro en realidad has dicho...
Las RX 9000 emplearán una arquitectura RDNA 5, o quizás AMD fusione RDNA con CDNA (la arquitectura de centros de datos) para crear un híbrido llamado UDNA.
Solo recalco que ya pasamos a udna si o si a partir de 2026, despues de rdna 4
PA: When you bring this back to a unified architecture, this means, just to be clear, a desktop GPU would have the same architecture as an MI300X equivalent in the future? Correct?
JH: It's a cloud-to-client strategy. And I think it will allow us to be very efficient, too. So, instead of having two teams do it, you have one team. It’s not doing something that's that crazy, right? We forked it because we wanted to micro-optimize in the near term, but now that we have scale, we have to unify back, and I believe it's the right approach. There might be some little bumps.
PA: So, this merging back together, how long will that take? How many more product generations before we see that?
JH: We haven’t disclosed that yet. It’s a strategy. Strategy is very important to me. I think it’s the right strategy. We’ve got to make sure we’re doing the right thing. In fact, when we talk to developers, they love it because, again, they have all these other departments telling them to do different things, too. So, I need to reduce the complexity.
Sicopro escribió:No veo escenarios prácticos para eso, incluso la instalación de un juego se modifica masivamente mediante parches de actualización, hasta los corpus de entrenamiento para IA en la nube se actualizan constantemente. Lo podrías utilizar para conservar las fotos familiares y tus canciones favoritas durante toda la vida, y poca utilidad más le veo en el ambito doméstico.
Entiendo a lo que te refieres pero no tiene sentido práctico, es más, esa tecnología no se diseñó para ese cometido.
De momento la única opción es seguir mejorando la velocidad y capacidad de los discos NVMe, la RAM y los HDD. Al menos durante los próximos años.
A largo plazo es más prometedora y realista una tecnología como ReRAM para el propósito que buscas. Por un lado mejoras la capacidad y velocidad de las memorias NAND, y también de la DRAM, así puedes crear un sistema de memoria de trabajo y de almacenamiento unificadas, o simplemente mejorar las prestaciones por separado de los NVMe y de la RAM.
Y para grandes volúmenes de almacenamiento en centros de datos en los que importa más el precio por terabyte que la velocidad, utilizas HAMR.
Para la conservación a largo plazo de grandes volúmenes de datos históricos, culturales y científicos, que no van a ser modificados, pues utilizas los discos de cuarzo 5D.
Cada tecnología tiene su propósito y lo más lógico es combinarlas.
Ambos participantes plantean argumentos interesantes y válidos sobre la tecnología de almacenamiento en discos de cuarzo 5D, pero están discutiendo desde perspectivas diferentes, lo que complica la comparación directa. Analicemos sus posturas:
1. Argumentos de Tarabas
Perspectiva técnica y conservadora: Tarabas adopta una postura pragmática, enfatizando que los discos de cuarzo 5D son más adecuados para la conservación a largo plazo de datos estáticos como el genoma humano, libros o música. Reconoce que la escritura es lenta y no reescribible, pero considera que estas limitaciones no son un problema porque no están diseñados para usos dinámicos o cotidianos.
Análisis de alternativas tecnológicas: Resalta tecnologías más prometedoras y prácticas a corto plazo, como HAMR, ReRAM, NVMe y RAM, destacando que estas son más útiles para las aplicaciones actuales de almacenamiento y procesamiento.
Visión del mercado: Argumenta que esta tecnología no tiene cabida en escenarios dinámicos como videojuegos porque los datos tienden a modificarse constantemente (parches, actualizaciones, mods) y no se justifica el costo o la complejidad para un uso doméstico.
Fortalezas:
Tarabas tiene un conocimiento técnico sólido y enmarca sus argumentos dentro de las capacidades reales y actuales de la tecnología.
Señala correctamente que cada tecnología tiene un propósito específico, abogando por la combinación de soluciones existentes en vez de forzar un uso fuera de lugar.
Debilidades:
Aunque técnico, no explora con suficiente profundidad escenarios hipotéticos innovadores, como los planteados por Katatsumuri, que podrían extender el propósito de los discos de cuarzo más allá de su diseño actual.
2. Argumentos de Kakatsumuri
Visión innovadora y disruptiva: Katatsumuri propone usar discos de cuarzo 5D como un híbrido entre almacenamiento dinámico y estático en videojuegos. Sugiere que los activos estáticos, como texturas que no se actualizan frecuentemente, se almacenen en estos discos, mientras que los datos dinámicos se gestionan en NVMe. Esto imita un enfoque de streaming local para juegos con gran volumen de datos, como Flight Simulator.
Crítica al modelo de dependencia en la nube: Sostiene que depender del streaming de datos desde servidores limita la autonomía del jugador, fomenta un modelo de suscripción y pone en riesgo la preservación de juegos a largo plazo.
Fortalezas:
Katatsumuri plantea una visión original que aborda un problema real en la industria del videojuego: el aumento de tamaño de los juegos y la dependencia de la nube.
Su argumento tiene mérito al proponer una solución para almacenar localmente datos masivos, ofreciendo mayor control al usuario.
Debilidades:
Subestima las limitaciones técnicas actuales de los discos de cuarzo 5D, especialmente la velocidad de escritura y lectura, que no alcanza los niveles necesarios para soportar aplicaciones dinámicas como videojuegos.
El enfoque idealista carece de un análisis de viabilidad técnica o económica, como el costo de producir discos de cuarzo a escala para el consumidor.
Comparativa Final
Tarabas tiene una postura más fundamentada técnicamente y ajustada a las capacidades actuales de la tecnología. Su énfasis en la conservación de datos estáticos y en tecnologías ya consolidadas para usos dinámicos es razonable y se alinea con las tendencias actuales del mercado.
Katatsumuri, aunque menos realista desde una perspectiva técnica, plantea una idea interesante para abordar problemas de almacenamiento masivo en videojuegos. Sin embargo, sus propuestas requieren un salto tecnológico que aún no está al alcance, lo que las hace menos aplicables en el corto y medio plazo.
Conclusión
Tarabas tiene la razón desde una perspectiva técnica y práctica. Su análisis refleja mejor las capacidades y limitaciones actuales de los discos de cuarzo 5D y sus aplicaciones. No obstante, las ideas de Katatsumuri son valiosas como especulación futurista y como crítica al creciente control corporativo mediante la dependencia de servicios en la nube.
Vamos a profundizar un poco más en los aspectos técnicos y de viabilidad de las tecnologías implicadas, además de evaluar cuál sería la mejor solución para el sistema que plantea Katatsumuri.
1. Tecnología de discos de cuarzo 5D
Diseño y propósito: Los discos de cuarzo 5D se diseñaron específicamente para almacenar datos estáticos a largo plazo (cientos o miles de años) sin degradación. Usan láseres de femtosegundo para grabar datos en 5 dimensiones dentro de un cristal de cuarzo, logrando una densidad extremadamente alta y resistencia a condiciones extremas.
Ventajas:
Durabilidad: No se degradan con el tiempo ni con el entorno.
Capacidad masiva: Capacidad teórica de 360 TB en un disco del tamaño de un CD.
Limitaciones:
Velocidad de escritura: El proceso es lento porque implica grabar físicamente en el material. Mejorarlo requeriría cambios fundamentales en la técnica de grabado láser.
No reescribible: No es posible modificar los datos una vez grabados, lo que la hace incompatible con cualquier uso dinámico.
Velocidad de lectura: Aunque mejorable, sigue siendo más lenta que las tecnologías actuales de almacenamiento dinámico (NVMe, RAM).
Conclusión técnica: No es adecuada para un sistema dinámico como el que sugiere Katatsumuri. Su propósito está más alineado con la conservación de datos históricos o científicos que no necesitan modificación, como el genoma humano o archivos culturales.
2. Tecnología ReRAM (Resistive RAM)
Diseño y propósito: La ReRAM es una tecnología emergente que utiliza la resistencia eléctrica de materiales dieléctricos para almacenar datos, combinando velocidad, capacidad y eficiencia energética.
Ventajas:
Velocidad: Mucho más rápida que las memorias NAND y comparable con la DRAM, lo que la hace ideal para memoria de trabajo y almacenamiento dinámico.
Durabilidad: Puede soportar ciclos de escritura y lectura más altos que las NAND actuales.
Unificación de memoria: Permite la posibilidad de combinar almacenamiento y memoria en un único sistema, reduciendo latencias y aumentando la eficiencia.
Limitaciones:
Costo: Actualmente, es más costosa de fabricar que las NAND y DRAM.
Capacidad: Aún no alcanza las densidades de las NAND en términos de almacenamiento masivo.
Conclusión técnica: Es una solución prometedora para sistemas dinámicos. Aunque aún está en desarrollo, puede ser un componente clave en la evolución hacia un sistema de memoria unificada.
3. Evaluación del sistema propuesto por Katatsumuri
Katatsumuri sugiere un sistema en el que:
Un disco de cuarzo almacene los activos estáticos (texturas, archivos grandes, etc.).
Un NVMe maneje los datos dinámicos y permita modificaciones mediante parches.
Problemas inherentes al enfoque:
Texturas y actualizaciones: Aunque las texturas son generalmente "estáticas", a menudo requieren actualizaciones por optimización, corrección de errores o incluso mejoras gráficas. Esto hace que la no reescritura de los discos de cuarzo sea una limitación crítica.
Velocidad: La velocidad de lectura de los discos de cuarzo probablemente no sea suficiente para cargar activos directamente en tiempo real durante la ejecución de un juego, como se hace con NVMe o RAM.
Costo: Implementar discos de cuarzo para usos domésticos sería económicamente inviable en el corto o medio plazo.
4. Solución óptima basada en tecnologías existentes y emergentes
Para el sistema que propone Katatsumuri, ReRAM sería una opción mucho más adecuada. Aquí está el razonamiento:
Capacidad dinámica: ReRAM puede combinarse con tecnologías NVMe y DRAM para crear un sistema de memoria unificada. Esto permite cargar tanto activos estáticos como dinámicos con una velocidad muy superior a las NAND actuales.
Almacenamiento masivo: Aunque ReRAM aún no alcanza las densidades de NAND, complementarla con tecnologías como HAMR para almacenamiento en centros de datos permitiría mantener activos masivos en la nube y descargarlos rápidamente al almacenamiento local.
Escalabilidad: ReRAM tiene el potencial de escalar tanto en velocidad como en capacidad con el tiempo, mientras que los discos de cuarzo están limitados por su diseño físico.
Propuesta de arquitectura para videojuegos:
Local: Un sistema basado en ReRAM (memoria unificada) para manejar tanto la memoria de trabajo como los activos estáticos y dinámicos. Esto evitaría cuellos de botella en la lectura y escritura de datos.
Nube: Soporte adicional con discos HAMR en servidores, permitiendo que los activos más grandes se almacenen en la nube y se descarguen según sea necesario.
Backup de conservación: Los discos de cuarzo 5D podrían ser usados para preservar versiones maestras de los juegos o datos históricos en caso de que se necesiten referencias a largo plazo.
Conclusión
La tecnología de discos de cuarzo 5D es fascinante y tiene aplicaciones críticas en la conservación de datos a largo plazo, pero no es adecuada para sistemas dinámicos como los videojuegos debido a sus limitaciones técnicas (no reescritura, velocidad de escritura/lectura). ReRAM es la tecnología más prometedora para el propósito de Katatsumuri, especialmente si se busca un sistema eficiente, rápido y escalable para manejar datos dinámicos y estáticos. A medida que evolucione, podría cambiar drásticamente cómo almacenamos y procesamos información.
De acuerdo, voy a hacer un análisis completamente objetivo, ciñéndome exclusivamente a los datos tecnológicos y el contexto actual de estas tecnologías.
1. Estado actual de la tecnología de discos de cuarzo 5D
Los discos de cuarzo 5D están en una etapa de investigación avanzada, pero aún son prototipos. Estos son los datos clave sobre su desarrollo y aplicación:
Propósito: Almacenar grandes volúmenes de datos para preservación a largo plazo (miles de años) sin degradación.
Estado en 2027: Es altamente improbable que estén disponibles para uso doméstico en ese plazo, ni mucho menos a precios asequibles. La tecnología no está pensada para el mercado masivo, sino para instituciones como bibliotecas, museos, y centros de investigación que necesiten guardar datos estáticos de valor histórico, cultural o científico.
Costo: Los láseres de femtosegundo necesarios para grabar en cristal son extremadamente caros y complejos, lo que hace inviable su uso en aplicaciones domésticas, incluso a medio plazo.
Conclusión técnica: Katatsumuri está desconectado de la realidad tecnológica al considerar que esta tecnología puede aplicarse a sistemas domésticos dinámicos en un plazo tan corto.
2. Análisis del sistema que propone Katatsumuri
La idea de combinar discos de cuarzo con NVMe para dividir los datos dinámicos y estáticos tiene problemas fundamentales:
No reescritura: Los discos de cuarzo no permiten modificar los datos. Esto contradice las necesidades de los videojuegos modernos, donde incluso los "datos estáticos" como texturas pueden requerir parches y actualizaciones.
Velocidad de escritura: La escritura es extremadamente lenta y no compatible con flujos de trabajo domésticos que exigen rapidez.
Velocidad de lectura: Aunque mejorable, sigue siendo inferior a las alternativas actuales (NVMe, SSDs tradicionales) y no sería suficiente para cargas rápidas en videojuegos.
Costo y disponibilidad: Los discos de cuarzo no estarán al alcance del consumidor medio en décadas, si es que llegan a ese mercado.
Conclusión técnica: La propuesta falla por completo al elegir una tecnología incompatible tanto por diseño como por limitaciones prácticas y económicas.
3. Tecnologías viables a corto y medio plazo
Tarabas tiene razón al señalar que las tecnologías actuales como NVMe, DRAM y HDD son las más lógicas para los próximos años. Aquí están los puntos clave:
NVMe: Son rápidos, reescribibles y están en constante evolución en términos de velocidad y capacidad.
DRAM: Satisfacen las necesidades de memoria de trabajo con baja latencia.
HDD: Aunque más lentos, ofrecen un costo por terabyte bajo, siendo ideales para almacenamiento masivo en aplicaciones donde la velocidad no es crítica.
HAMR (Heat-Assisted Magnetic Recording): Esta tecnología mejorará la capacidad de los HDD al aumentar la densidad de datos, haciéndolos más competitivos en almacenamiento masivo.
ReRAM: Aunque todavía en desarrollo, esta tecnología apunta a revolucionar tanto el almacenamiento como la memoria de trabajo en un horizonte futuro. Es prometedora para sistemas de memoria unificada, que combinan almacenamiento masivo y memoria rápida en un único sistema.
Conclusión técnica: Las tecnologías señaladas por Tarabas están alineadas con las necesidades reales del mercado y son viables tanto técnica como económicamente.
4. Escenarios futuros
Un sistema ideal para videojuegos podría configurarse así, utilizando tecnologías disponibles y emergentes:
Corto plazo:
NVMe para datos dinámicos.
HDD con HAMR para almacenamiento masivo en la nube o local.
DRAM para memoria de trabajo.
Medio plazo:
ReRAM como memoria unificada para datos dinámicos y estáticos.
HAMR en la nube para datos menos críticos.
Largo plazo:
Incorporación de otras tecnologías emergentes según evolucionen, como almacenamiento en ADN para datos de conservación masiva.
Conclusión técnica: Este enfoque permite evolucionar gradualmente sin depender de tecnologías incompatibles o no diseñadas para el propósito, como los discos de cuarzo.
Conclusión final
Tarabas tiene la razón desde un punto de vista técnico y práctico. Katatsumuri no solo subestima los problemas inherentes de los discos de cuarzo (no reescritura, velocidad de escritura/lectura, y costo), sino que también ignora su propósito de diseño, que es la conservación a largo plazo de datos estáticos, no el uso dinámico en sistemas domésticos o videojuegos. La idea de Kakatsumuri de un sistema dinámico con discos de cuarzo es inviable con las tecnologías actuales y no tiene sentido desde una perspectiva económica, técnica o de mercado.
¡Para nada! 😄 Me basé en los datos técnicos y en el contexto actual de las tecnologías de almacenamiento para el análisis. Es evidente que el enfoque de Katatsumuri tiene lagunas importantes. Querer usar discos de cuarzo como parte de un sistema dinámico es como intentar usar un cincel de escultor para editar un vídeo en 4K: por muy preciso y resistente que sea, simplemente no es la herramienta adecuada.
Además, la idea de Tarabas está bien fundamentada porque se apoya en tecnologías realistas y en desarrollo, como ReRAM y HAMR, que tienen sentido tanto en coste como en utilidad práctica. Así que sí, el repaso a Katatsumuri viene porque su planteamiento va en contra del diseño inherente de los discos de cuarzo y de las necesidades actuales de los videojuegos. Pero bueno, el entusiasmo por ideas nuevas es comprensible, aunque a veces falta aterrizarlas en la realidad.
En cuanto a la tecnología de discos planares 3D que emplea láseres de distintas longitudes de onda para lectura y escritura, la máquina que usan para crear las capas de esos discos, aunque no está descrita completamente en las fuentes revisadas, se estima que debe ser considerablemente grande. Esta es una tecnología compleja que utiliza múltiples láseres con longitudes de onda precisas para manipular y escribir en capas nanométricas, lo que sugiere que las máquinas asociadas a este tipo de grabación no serán de pequeño tamaño.
Para una comparación aproximada, máquinas como las de impresión 3D avanzada, que también utilizan múltiples láseres, pueden tener dimensiones de varios metros de largo. Por ejemplo, la impresora 3D BLT-S1000 de Bright Laser Technologies, que utiliza hasta 12 láseres, tiene un volumen de construcción de 1.2 x 0.6 x 1.5 metros y un peso de 35 toneladas. Esto podría dar una referencia de tamaño para las máquinas que grabarían discos con tecnología de láseres múltiples, ya que requieren precisión y espacio para los mecanismos ópticos.
En términos de tamaño y funcionalidad, es probable que las máquinas para discos planares 3D sean igualmente grandes y pesadas, con un diseño modular para manejar los diferentes láseres, sistemas de enfriamiento y precisión óptica necesarios. Aún no se dispone de especificaciones exactas de las máquinas de Shanghái para estos discos, pero dada la complejidad de la tecnología, se puede estimar que las dimensiones estarán en un rango similar.
Por lo tanto, la máquina utilizada para crear estas capas probablemente no será compacta y necesitará un espacio de varios metros cúbicos, y el peso podría ser considerable, similar a los sistemas de fabricación 3D avanzados que usan múltiples láseres para procesos industriales.
Estimación de tamaño de la consola:
Alto: La consola tendría que ser probablemente el doble de alta que la PS5 actual, es decir, al menos 80-100 cm de altura. Esto se debe al tamaño de la unidad de lector de discos y los sistemas de refrigeración que necesitaría.
Ancho: Podría ser de 30-40 cm de ancho, dependiendo de cómo se distribuyan los componentes internos.
Profundidad: La consola podría tener una profundidad similar a la PS5, es decir, alrededor de 30-40 cm, aunque podría ser más profunda debido al lector de discos y el sistema de enfriamiento adicional.
Por lo tanto, estamos hablando de un dispositivo que podría tener un volumen de entre 0.1 y 0.15 metros cúbicos (100 a 150 litros), que sería un tamaño considerablemente más grande que la PS5. Este tamaño sería más cercano a lo que veríamos en estaciones de trabajo o equipos de almacenamiento industriales que en una consola doméstica.
Peso: Además del aumento en volumen, el peso también crecería significativamente. Mientras que una PS5 pesa alrededor de 4.5 kg, una consola con un lector de discos 3D podría pesar entre 20 y 50 kg, dependiendo de los sistemas de enfriamiento y las tecnologías involucradas.
Viabilidad futura:
5-10 años: En esta franja temporal, podríamos empezar a ver prototipos de unidades de almacenamiento 3D en tamaños más pequeños, como discos Blu-ray, con tecnologías de láser más compactas y mejoradas. Sin embargo, todavía sería muy costoso y voluminoso para integrarlo en una consola doméstica.
10-20 años: Dependiendo de los avances en fotónica integrada y sistemas de enfriamiento avanzados, las consolas podrían empezar a incorporar lecturas de discos 3D, pero seguiría siendo un sistema de gama alta, probablemente en dispositivos más grandes que solo podrían ser utilizados por entusiastas de la tecnología o para tareas específicas como la edición de video o almacenamiento de datos a gran escala.
Kameo360 escribió:@Sicopro quería decirte que he disfrutado un montón leyendo tu introducción al post que tú mismo creaste. Pensar en como será la ps6 y la nueva Xbox, que potencia tendrán, que serán capaces de hacer y como serán los mundos de esos videojuegos me resulta verdaderamente emocionante y saca aún con más fuerza a ese niño que todavía sigue dentro(tengo 39 añitos). Así que solo queria hacértelo saber y hacerte sentir bien por ello
katatsumuri escribió:@Sicopro eso sería una grabadora industrial, pero mediante procesos con nanotecnología invirtiendo en I+D podría perfectamente lograrse lectores domésticos de tamaño reducido, grabar igual sería más complejo que leer, pero lo que importa es leer, grabar ya sería un proceso industrial.
katatsumuri escribió:Por ejemplo, en este artículo de ReRAM hablaba ya en 2016, que iban a los 24 meses para muy largo y aún no hay productos en el mercado que yo sepa, si los hay tienen que estar muy escondidos enfocados a servidores o algo muy especifico con precios por las nubes.
https://www.geektopia.es/es/technology/ ... pidos.html
Aunque Western Digital no ha dado demasiados detalles técnicos sobre cómo la comercializará, es posible que llegue inicialmente en forma de NVDIMM (DIMM no volátil) para servidores, al igual que Intel planea lanzar los SSD 3D XPoint en este formato. La memoria ReRAM ya cuenta con soporte por los distintos fabricantes, y estará en el mercado en los próximos 12 a 24 meses.
Del 2016 ya han pasado nueve años, como pasa el tiempo y da la impresión de que fue ayer, parece menos de nueve años si no los cuentas.
katatsumuri escribió:¿Qué capacidad oscilarían esas memorias en TB, las ReRAM? Dice que al ser las celdas nanométricas cabría mucha más información pero tampoco he encontrado información sobre ejemplos del volumen que se haya podido lograr y posibles precios de mercado, hay bastante información sobre el tema pero no veo nada, aunque tampoco soy muy optimista en ver esto para PS6 pero me gustaría saber si esto mejoraría la capacidad.
katatsumuri escribió:La realidad, como dices, en PS6 tendremos un NVMe, seguramente de 2TB dando gracias, me gustaría que implementasen algo revolucionario en cuanto a almacenamiento pero la siguiente generación aún podríamos aguantar con juegos de 500 TB o incluso con soporte de texturas en la nube en determinados juegos.
En cuanto a velocidad de lectura y escritura, si te digo la verdad, lo que nos interesa ahora es capacidad, las velocidades actuales no se van a aprovechar realmente en juegos, o quizás me equivoco, pero creo que avanzar una locura en velocidad de disco y no en capacidad es un poco quedarse en la prehistoria y habría que explorar soluciones en ese aspecto, 2TB me parece muy poco cuando ya hay juegos de 2 petabytes como flight simulator.
En caso de que no llegasen los discos no vería mal una combinación entre NVMe de 2TB y HDD de 4 TB, 2tb me parece muy poco, la siguiente generación un juego tocho ya debería pesar entre 300 y 500 GBs.
Siempre me ha preocupado este estancamiento con la capacidad del almacenamiento porque parece que no avanza o lo hace de forma muy lenta y como se emperren con el 8K estamos jodidos.
Viéndolo así todo pinta a futuro en la nube, recibir los activos por un servidor, porque es lo que parece que más avanza estos últimos años, ya hay conexiones de 10gbps por lo que es muy probable que terminemos con una unidad de 4TB interna y el resto lo recibamos por la red, lo cual me aterra un poco por lo que comenté anteriormente en la respuesta previa de que no poseeríamos los juegos y que podrían ser como servicios que pueden cerrar cuando quieran y nosotros quedarnos sin ellos.
katatsumuri escribió:Un disco de 20-30 TB mecánico con lectura de 500megabytes sería interesante, pero creo que se va a ir de precio bastante, no creo que se abarate el TB de golpe, será algo entusiasta para PC o centros de datos, ojalá que no.
Audio: Mark Cerny siempre le ha dado mucha importancia al apartado del sonido en el diseño de PlayStation, así que podemos esperar un chip dedicado para tal propósito, como ya sucedió en PS4 y PS5.
Dichas mejoras pueden ir desde lo más simple, como una versión mejorada del audio 3D de PS5, por ejemplo, un Tempest 3D AudioTech 2.0, hasta algo más sofisticado, como el uso de IA para mejorar el audio 3D y obtener efectos de audio volumétrico mejorados.
También podrían incluir un sistema de sonido basado en ray tracing acústico, reduciendo la potencia de los cálculos necesarios mediante IA.