› Foros › Multiplataforma › General
Seto-Ichitaka escribió:Nowcry escribió:Seto-Ichitaka escribió:Entonces solo los juegos de PS5 sera verdaderos next gen, el resto mas de lo mismo.
Emmmm sip, La Xbox no podrá hacer nada mejor que lo que hay en una 2080. Basicamente para ti sera Next Gen para mi llevo ya 2 años y casi tres con ello sera la Now Gen.
Gracias, solo es para asegurarme de lo correcto cuando me compre una consola next gen, bueno, la consola next gen porque la otra al parecer no es nada.
En un par de añitos veremos si eres el nuevo guru de eol
[/quote]Eaniel Kashal escribió:Nowcry escribió:
Emmmm sip, La Xbox no podrá hacer nada mejor que lo que hay en una 2080. Basicamente para ti sera Next Gen para mi llevo ya 2 años y casi tres con ello sera la Now Gen.
OSea bien pero sin cambios. Esta bien pero siempre que veo next gen espero cambios.
Espero que tengas razón, porque si no van a recordarte este mensaje muucho tiempo. Y no me gusta ver a nadie pasarlo mal.
If you look at a PC, said Cerny, "if it had 8 gigabytes of memory on it, the CPU or GPU could only share about 1 percent of that memory on any given frame. That's simply a limit imposed by the speed of the PCIe. So, yes, there is substantial benefit to having a unified architecture on PS4, and it’s a very straightforward benefit that you get even on your first day of coding with the system. The growth in the system in later years will come more from having the enhanced PC GPU. And I guess that conversation gets into everything we did to enhance it."
...
One barrier to this in a traditional PC hardware environment, he said, is communication between the CPU, GPU, and RAM. The PS4 architecture is designed to address that problem.
"A typical PC GPU has two buses," said Cerny. "There’s a bus the GPU uses to access VRAM, and there is a second bus that goes over the PCI Express that the GPU uses to access system memory. But whichever bus is used, the internal caches of the GPU become a significant barrier to CPU/GPU communication -- any time the GPU wants to read information the CPU wrote, or the GPU wants to write information so that the CPU can see it, time-consuming flushes of the GPU internal caches are required."
...
"First, we added another bus to the GPU that allows it to read directly from system memory or write directly to system memory, bypassing its own L1 and L2 caches. As a result, if the data that's being passed back and forth between CPU and GPU is small, you don't have issues with synchronization between them anymore. And by small, I just mean small in next-gen terms. We can pass almost 20 gigabytes a second down that bus. That's not very small in today’s terms -- it’s larger than the PCIe on most PCs!
Nowcry escribió:jose2488 escribió:SangReal escribió:@jose2488 No te olvides de mencionar que ps5 carga el DOBLE. Veo que troleas aqui lo mismo que en de ps4.
No es el.doble es más, un 120% más para ser exactos amigo
Eso solo es el ancho de banda, cuando tienes en cuenta el problema de E/S los cuellos de botella, el problema de depurado de caches. Es posible que la diferencia sea mucho mas alta. Podríamos hablar del 400%.
Los problemas de ancho de banda entre el E/S y el SSD podria comerse aproximadamente el 80% del ancho de banda al segundo, como ocurre actualmente en PC precisamente los tiempos de espera para el hueco. No he podido encontrar nada sobre la referencia a mejoras de E/S que haya mejorado Microsoft o como ha abordado el problema si es que lo ha hecho.
No podemos hablar sobre ello porque no disponemos datos y no esta bien inventarse cosas. Dejemoslo así.
Pero Cerny lo expuso claro estan pensando en el SSD y llevando a cabo todos los cambios para poder usar el SSD y realizar cargar instantaneas en la GDDR. Y ese es un gran cambio y desde luego espero que se estandarice.
josemurcia escribió:La misma cantinela ya la escuchamos a comienzos de la gen actual, allá por 2013, con el GPGPU y la arquitectura de memoria heterogénea. El propio Cerny vendió humo a saco y legiones de fanáticos verdes y azules aparecieron por los foros a evangelizar al personal clamando que se podrían hacer cosas eran imposibles en PC.
https://www.gamasutra.com/view/feature/ ... _mark_.phpIf you look at a PC, said Cerny, "if it had 8 gigabytes of memory on it, the CPU or GPU could only share about 1 percent of that memory on any given frame. That's simply a limit imposed by the speed of the PCIe. So, yes, there is substantial benefit to having a unified architecture on PS4, and it’s a very straightforward benefit that you get even on your first day of coding with the system. The growth in the system in later years will come more from having the enhanced PC GPU. And I guess that conversation gets into everything we did to enhance it."
...
One barrier to this in a traditional PC hardware environment, he said, is communication between the CPU, GPU, and RAM. The PS4 architecture is designed to address that problem.
"A typical PC GPU has two buses," said Cerny. "There’s a bus the GPU uses to access VRAM, and there is a second bus that goes over the PCI Express that the GPU uses to access system memory. But whichever bus is used, the internal caches of the GPU become a significant barrier to CPU/GPU communication -- any time the GPU wants to read information the CPU wrote, or the GPU wants to write information so that the CPU can see it, time-consuming flushes of the GPU internal caches are required."
...
"First, we added another bus to the GPU that allows it to read directly from system memory or write directly to system memory, bypassing its own L1 and L2 caches. As a result, if the data that's being passed back and forth between CPU and GPU is small, you don't have issues with synchronization between them anymore. And by small, I just mean small in next-gen terms. We can pass almost 20 gigabytes a second down that bus. That's not very small in today’s terms -- it’s larger than the PCIe on most PCs!
¿Qué juegos han dado un uso interesante a estas características? Diría que el único es Dreams por su renderizado puramente mediante compute shaders en lugar del rasterizador, y es de los que Jason Schreier dejó caer que saldrían este año en PC (junto a Horizon Zero Dawn).
Nowcry escribió:josemurcia escribió:La misma cantinela ya la escuchamos a comienzos de la gen actual, allá por 2013, con el GPGPU y la arquitectura de memoria heterogénea. El propio Cerny vendió humo a saco y legiones de fanáticos verdes y azules aparecieron por los foros a evangelizar al personal clamando que se podrían hacer cosas eran imposibles en PC.
https://www.gamasutra.com/view/feature/ ... _mark_.phpIf you look at a PC, said Cerny, "if it had 8 gigabytes of memory on it, the CPU or GPU could only share about 1 percent of that memory on any given frame. That's simply a limit imposed by the speed of the PCIe. So, yes, there is substantial benefit to having a unified architecture on PS4, and it’s a very straightforward benefit that you get even on your first day of coding with the system. The growth in the system in later years will come more from having the enhanced PC GPU. And I guess that conversation gets into everything we did to enhance it."
...
One barrier to this in a traditional PC hardware environment, he said, is communication between the CPU, GPU, and RAM. The PS4 architecture is designed to address that problem.
"A typical PC GPU has two buses," said Cerny. "There’s a bus the GPU uses to access VRAM, and there is a second bus that goes over the PCI Express that the GPU uses to access system memory. But whichever bus is used, the internal caches of the GPU become a significant barrier to CPU/GPU communication -- any time the GPU wants to read information the CPU wrote, or the GPU wants to write information so that the CPU can see it, time-consuming flushes of the GPU internal caches are required."
...
"First, we added another bus to the GPU that allows it to read directly from system memory or write directly to system memory, bypassing its own L1 and L2 caches. As a result, if the data that's being passed back and forth between CPU and GPU is small, you don't have issues with synchronization between them anymore. And by small, I just mean small in next-gen terms. We can pass almost 20 gigabytes a second down that bus. That's not very small in today’s terms -- it’s larger than the PCIe on most PCs!
¿Qué juegos han dado un uso interesante a estas características? Diría que el único es Dreams por su renderizado puramente mediante compute shaders en lugar del rasterizador, y es de los que Jason Schreier dejó caer que saldrían este año en PC (junto a Horizon Zero Dawn).
Cuando Rompieron la barrera de la comunicacion de memoria GPU CPU haciendola unificada, eliminaron un problema, pero aun quedaba otro el problema del ancho de banda del HDD y del E/S para traspasar esos datos a la GPU.
Asique mejoraron porque ahora tenian mas ancho de banda en el E/S pero no servia de nada el HDD de 240 MB/s comprimidos y que tras pasar por el E/S quedaria en 100-150 MB/s era un lastre demasiado grande. EL siguiente paso a abordar era precisamente eliminar el HDD y el E/S para por fin hacer efectiva esa propuesta del cambio.
Lo que pasa es que por aquel entonces no era posible poner un NVME ni tampoco un SSD Sata. Después salio la version PRO y no valia la pena el cambio porque había que diseñar para la otra gen. En definitiva este cambio es la continuación del anterior. Los siguientes pasos.
Lo que mas rabia da, es que en PC no haya nada cercano aunque sea al E/S capaz de usar ni 2,4 GB/s y sin compresion.
Voy a seguir investigando a ver que es esto del E/S y que parametros afectan. Lo contare por aqui para que podamos evaluar si vale o no la pena ese Custom Chip o si nos estan vendiendo la moto.
Seto-Ichitaka escribió:Bueno, pues tenemos un escenario claro parece ser, unicamente los juegos first party de ps5 van a ser next gen, el resto de juegos no. Lo que querra decir que los multiplataforma al no poder aprovecharse del ssd de ps5 tendran que tirar de potencia y seran algo mejores en xbox debido a que esta los va a lastrar.
Segun el guru de la next gen:
PS5 First party next gen
Xbox First party old gen y multis.
Seto-Ichitaka escribió:Bueno, pues tenemos un escenario claro parece ser, unicamente los juegos first party de ps5 van a ser next gen, el resto de juegos no. Lo que querra decir que los multiplataforma al no poder aprovecharse del ssd de ps5 tendran que tirar de potencia y seran algo mejores en xbox debido a que esta los va a lastrar.
Segun el guru de la next gen:
PS5 First party next gen
Xbox First party old gen y multis.
GABITIN escribió:@Nowcry
Gracias por tus contestaciones, siempre elaboradas y respetuosas.
Cuando dices que desconocemos información sobre el enfoque de Ms, no es del todo así.
De boca de los responsables de desarrollo de XSX:
"...The CPU is the brain of our new console, and the GPU is the heart, but the Xbox Velocity Architecture is the soul...The Xbox Velocity Architecture is about so much more than fast last times. It's one of the most innovative parts of our new console. It's about revolutionizing how games can create vastly bigger, more compelling worlds..."
Es decir, también han basado la innovación implementada en la nueva máquina en torno a la unidad de almacenamiento, con tecnologías como Xbox Velocity Architecture, DirectStorage o Sampler Feedback Streaming, amén del BCPack orientado exclusivamente a comprimir y trabajar con texturas.
Todas estas tecnologías están diseñadas para extraer el mayor provecho de la unidad de almacenamiento de XSX y sus 4.8 GB/s de tasa de transferencia tras el bloque de compresión. Tanto es así que vienen implementadas en su API DX12U, que también abarcará PC.
Por eso te comentaba antes, que en Sony habrán hecho los deberes, pero los de Redmond también y eso es una evidencia. Como también lo es que todo este nuevo paradigma acabará por tomar el ecosistema Windows.
Un saludo.
josemurcia escribió:La misma cantinela ya la escuchamos a comienzos de la gen actual, allá por 2013, con el GPGPU y la arquitectura de memoria heterogénea.
Nowcry escribió:Seto-Ichitaka escribió:Bueno, pues tenemos un escenario claro parece ser, unicamente los juegos first party de ps5 van a ser next gen, el resto de juegos no. Lo que querra decir que los multiplataforma al no poder aprovecharse del ssd de ps5 tendran que tirar de potencia y seran algo mejores en xbox debido a que esta los va a lastrar.
Segun el guru de la next gen:
PS5 First party next gen
Xbox First party old gen y multis.
PS5 First Partys Van a ser juegos diferentes, se notara no porque lo veas graficamente, que tambien si no por las cosas que pasan ingame. Sera un aaa pero se podia hacer?
Xbox First party y multis van a ser como lo que vemos ahora pero como si tuvieras una 2080, con algo de suerte usaran un SSD SATA y lo pediran en los requisitos. Algo de cambio veremos con respecto a los diseños actuales.
No hay que rayarse. Es lo que hay y soy el primero jodido por ello.
Y no es precisamente por XBox el porque los juegos no podran usar esos diseños, si no porque el cambio que quiero no se va a poder dar en todos los juegos debido al PC. Habrá que esperar que el mercado del PC mueva ficha para poder ver ese cambio que puede que sea en la RTX3000 o en la RTX4000? ojala en la 3000.GABITIN escribió:@Nowcry
Gracias por tus contestaciones, siempre elaboradas y respetuosas.
Cuando dices que desconocemos información sobre el enfoque de Ms, no es del todo así.
De boca de los responsables de desarrollo de XSX:
"...The CPU is the brain of our new console, and the GPU is the heart, but the Xbox Velocity Architecture is the soul...The Xbox Velocity Architecture is about so much more than fast last times. It's one of the most innovative parts of our new console. It's about revolutionizing how games can create vastly bigger, more compelling worlds..."
Es decir, también han basado la innovación implementada en la nueva máquina en torno a la unidad de almacenamiento, con tecnologías como Xbox Velocity Architecture, DirectStorage o Sampler Feedback Streaming, amén del BCPack orientado exclusivamente a comprimir y trabajar con texturas.
Todas estas tecnologías están diseñadas para extraer el mayor provecho de la unidad de almacenamiento de XSX y sus 4.8 GB/s de tasa de transferencia tras el bloque de compresión. Tanto es así que vienen implementadas en su API DX12U, que también abarcará PC.
Por eso te comentaba antes, que en Sony habrán hecho los deberes, pero los de Redmond también y eso es una evidencia. Como también lo es que todo este nuevo paradigma acabará por tomar el ecosistema Windows.
Un saludo.
Todo eso va a mejorar el cambio ojala mucho, pero todo son features de DirectX12 Ultimate orientado a Xbox y a PC. Si el almacenamiento en PC Standart a dia de hoy es el HDD seguido del SSD Sata y muy pocos NVME. Como van a diseñar un juego basandose en un NVME y en la necesidad de DIrectX12 Ultimate?
Por eso los unicos juegos capaces de desarrollar la Xbox Ser X pensados en un NVME serian unos juegos exclusivos, dejando de lado el problema E/S, pero MS quiere un ecosistema PC/Xbox eso destruirá el diseño SSD NVME desde el diseño del juego.
Para cuando quieran sacarle partido ya estarán en el mercado la XBOX series X 2 y la PS5 pro. Aunque Nvidia saque GPU con conexion SSD, se tardara en que se transforme en que sea un Standart que sea rentable economicamente.
Yo soy el primero que no sabia este problema, he preguntado en Reddit, porque no podemos usar RAM para sustituir el ancho de banda del SSD. El problema que me han expuesto es que el controlador E/S es el que se encarga de comunicar a traves PCIeGen4 la GPU con la CPU o con el SSD. POr eso incluso con DIrectStorage o metiendo en la RAM todo el juego no seria suficiente, el controlador E/S es el cuello por el que pasa todo, dicen que sony se dio cuenta de que no servia meter un SSD de 5,5 GB/s sin poner un controlador E/S y al final el silicio comentan es del tamaño de otro procesador. Una locura comentan.
En PC necesitan mejorar ese aspecto o Nvidia AMD deben sacar silicios customizados internos a la GPU para el manejo de datos. Y eso tardara tiempo en volverse Standart.
Como te imaginaras la desilusion ha sido grande por mi parte, porque se me ha reducido mucho el cambio que estoy esperando por los videojuegos. Estoy dudando si comprar la 3080Ti o esperar a la próxima, si esta no incluyera algún tipo de memoria SSD. No molaría invertir 1500E y que el recorrido sea de 2 años.
Tampoco se si cambiar ahora mismo de procesador o placa base a lo que esta por salir sera un desperdicio porque necesitamos que mejoren los Chipset y comuniquen bien la GPU/CPU lo veo imposible desde el lado de placa base. Solo se me ocurre una solución desde el lado de Nvidia.
Estoy en el punto en el que necesito saber que es el E/S y como es porque posiblemente sea el que condiciones mi actualizacion del PC. Y mira que me jode.........
fertrance escribió:josemurcia escribió:La misma cantinela ya la escuchamos a comienzos de la gen actual, allá por 2013, con el GPGPU y la arquitectura de memoria heterogénea.
Lo cierto es que si algo me he cansado de leer en entrevistas o post mortem de juegos de consola (horizon zero down, gears 5, battlefield...) es la cantidad de tareas que habitualmente se procesaban en la cpu y ahora se enviaban a la gpu. Sin esas características hubiera sido mucho más difícil.
Otra cosa es que no sea imposible en pc y que realmente era “hacer de la necesidad una virtud” por las cpu jaguar que montaban.
jose2488 escribió:Nowcry escribió:Seto-Ichitaka escribió:Bueno, pues tenemos un escenario claro parece ser, unicamente los juegos first party de ps5 van a ser next gen, el resto de juegos no. Lo que querra decir que los multiplataforma al no poder aprovecharse del ssd de ps5 tendran que tirar de potencia y seran algo mejores en xbox debido a que esta los va a lastrar.
Segun el guru de la next gen:
PS5 First party next gen
Xbox First party old gen y multis.
PS5 First Partys Van a ser juegos diferentes, se notara no porque lo veas graficamente, que tambien si no por las cosas que pasan ingame. Sera un aaa pero se podia hacer?
Xbox First party y multis van a ser como lo que vemos ahora pero como si tuvieras una 2080, con algo de suerte usaran un SSD SATA y lo pediran en los requisitos. Algo de cambio veremos con respecto a los diseños actuales.
No hay que rayarse. Es lo que hay y soy el primero jodido por ello.
Y no es precisamente por XBox el porque los juegos no podran usar esos diseños, si no porque el cambio que quiero no se va a poder dar en todos los juegos debido al PC. Habrá que esperar que el mercado del PC mueva ficha para poder ver ese cambio que puede que sea en la RTX3000 o en la RTX4000? ojala en la 3000.GABITIN escribió:@Nowcry
Gracias por tus contestaciones, siempre elaboradas y respetuosas.
Cuando dices que desconocemos información sobre el enfoque de Ms, no es del todo así.
De boca de los responsables de desarrollo de XSX:
"...The CPU is the brain of our new console, and the GPU is the heart, but the Xbox Velocity Architecture is the soul...The Xbox Velocity Architecture is about so much more than fast last times. It's one of the most innovative parts of our new console. It's about revolutionizing how games can create vastly bigger, more compelling worlds..."
Es decir, también han basado la innovación implementada en la nueva máquina en torno a la unidad de almacenamiento, con tecnologías como Xbox Velocity Architecture, DirectStorage o Sampler Feedback Streaming, amén del BCPack orientado exclusivamente a comprimir y trabajar con texturas.
Todas estas tecnologías están diseñadas para extraer el mayor provecho de la unidad de almacenamiento de XSX y sus 4.8 GB/s de tasa de transferencia tras el bloque de compresión. Tanto es así que vienen implementadas en su API DX12U, que también abarcará PC.
Por eso te comentaba antes, que en Sony habrán hecho los deberes, pero los de Redmond también y eso es una evidencia. Como también lo es que todo este nuevo paradigma acabará por tomar el ecosistema Windows.
Un saludo.
Todo eso va a mejorar el cambio ojala mucho, pero todo son features de DirectX12 Ultimate orientado a Xbox y a PC. Si el almacenamiento en PC Standart a dia de hoy es el HDD seguido del SSD Sata y muy pocos NVME. Como van a diseñar un juego basandose en un NVME y en la necesidad de DIrectX12 Ultimate?
Por eso los unicos juegos capaces de desarrollar la Xbox Ser X pensados en un NVME serian unos juegos exclusivos, dejando de lado el problema E/S, pero MS quiere un ecosistema PC/Xbox eso destruirá el diseño SSD NVME desde el diseño del juego.
Para cuando quieran sacarle partido ya estarán en el mercado la XBOX series X 2 y la PS5 pro. Aunque Nvidia saque GPU con conexion SSD, se tardara en que se transforme en que sea un Standart que sea rentable economicamente.
Yo soy el primero que no sabia este problema, he preguntado en Reddit, porque no podemos usar RAM para sustituir el ancho de banda del SSD. El problema que me han expuesto es que el controlador E/S es el que se encarga de comunicar a traves PCIeGen4 la GPU con la CPU o con el SSD. POr eso incluso con DIrectStorage o metiendo en la RAM todo el juego no seria suficiente, el controlador E/S es el cuello por el que pasa todo, dicen que sony se dio cuenta de que no servia meter un SSD de 5,5 GB/s sin poner un controlador E/S y al final el silicio comentan es del tamaño de otro procesador. Una locura comentan.
En PC necesitan mejorar ese aspecto o Nvidia AMD deben sacar silicios customizados internos a la GPU para el manejo de datos. Y eso tardara tiempo en volverse Standart.
Como te imaginaras la desilusion ha sido grande por mi parte, porque se me ha reducido mucho el cambio que estoy esperando por los videojuegos. Estoy dudando si comprar la 3080Ti o esperar a la próxima, si esta no incluyera algún tipo de memoria SSD. No molaría invertir 1500E y que el recorrido sea de 2 años.
Tampoco se si cambiar ahora mismo de procesador o placa base a lo que esta por salir sera un desperdicio porque necesitamos que mejoren los Chipset y comuniquen bien la GPU/CPU lo veo imposible desde el lado de placa base. Solo se me ocurre una solución desde el lado de Nvidia.
Estoy en el punto en el que necesito saber que es el E/S y como es porque posiblemente sea el que condiciones mi actualizacion del PC. Y mira que me jode.........
El juego más potente y que mueva más cosas en la talla la next gen no va a estar en ps5, precisamente porque es peor consola en todo. Deja tus farándula tío.
Ahora el pc lastra las consolas.....estarás de broma shur.
El SSD rinde el doble, si y? De hecho kraken rinde peor que el.mecanismo de.compresion y descompresión del SSD de series x.
El exclusivo más importante de ps5 no se verá mejor que el de series x simplemente porque la consola es peor.
fertrance escribió:@josemurcia El tema es que en pc además de ser más difícil, también es innecesario.
SangReal escribió:jose2488 escribió:Nowcry escribió:
PS5 First Partys Van a ser juegos diferentes, se notara no porque lo veas graficamente, que tambien si no por las cosas que pasan ingame. Sera un aaa pero se podia hacer?
Xbox First party y multis van a ser como lo que vemos ahora pero como si tuvieras una 2080, con algo de suerte usaran un SSD SATA y lo pediran en los requisitos. Algo de cambio veremos con respecto a los diseños actuales.
No hay que rayarse. Es lo que hay y soy el primero jodido por ello.
Y no es precisamente por XBox el porque los juegos no podran usar esos diseños, si no porque el cambio que quiero no se va a poder dar en todos los juegos debido al PC. Habrá que esperar que el mercado del PC mueva ficha para poder ver ese cambio que puede que sea en la RTX3000 o en la RTX4000? ojala en la 3000.
Todo eso va a mejorar el cambio ojala mucho, pero todo son features de DirectX12 Ultimate orientado a Xbox y a PC. Si el almacenamiento en PC Standart a dia de hoy es el HDD seguido del SSD Sata y muy pocos NVME. Como van a diseñar un juego basandose en un NVME y en la necesidad de DIrectX12 Ultimate?
Por eso los unicos juegos capaces de desarrollar la Xbox Ser X pensados en un NVME serian unos juegos exclusivos, dejando de lado el problema E/S, pero MS quiere un ecosistema PC/Xbox eso destruirá el diseño SSD NVME desde el diseño del juego.
Para cuando quieran sacarle partido ya estarán en el mercado la XBOX series X 2 y la PS5 pro. Aunque Nvidia saque GPU con conexion SSD, se tardara en que se transforme en que sea un Standart que sea rentable economicamente.
Yo soy el primero que no sabia este problema, he preguntado en Reddit, porque no podemos usar RAM para sustituir el ancho de banda del SSD. El problema que me han expuesto es que el controlador E/S es el que se encarga de comunicar a traves PCIeGen4 la GPU con la CPU o con el SSD. POr eso incluso con DIrectStorage o metiendo en la RAM todo el juego no seria suficiente, el controlador E/S es el cuello por el que pasa todo, dicen que sony se dio cuenta de que no servia meter un SSD de 5,5 GB/s sin poner un controlador E/S y al final el silicio comentan es del tamaño de otro procesador. Una locura comentan.
En PC necesitan mejorar ese aspecto o Nvidia AMD deben sacar silicios customizados internos a la GPU para el manejo de datos. Y eso tardara tiempo en volverse Standart.
Como te imaginaras la desilusion ha sido grande por mi parte, porque se me ha reducido mucho el cambio que estoy esperando por los videojuegos. Estoy dudando si comprar la 3080Ti o esperar a la próxima, si esta no incluyera algún tipo de memoria SSD. No molaría invertir 1500E y que el recorrido sea de 2 años.
Tampoco se si cambiar ahora mismo de procesador o placa base a lo que esta por salir sera un desperdicio porque necesitamos que mejoren los Chipset y comuniquen bien la GPU/CPU lo veo imposible desde el lado de placa base. Solo se me ocurre una solución desde el lado de Nvidia.
Estoy en el punto en el que necesito saber que es el E/S y como es porque posiblemente sea el que condiciones mi actualizacion del PC. Y mira que me jode.........
El juego más potente y que mueva más cosas en la talla la next gen no va a estar en ps5, precisamente porque es peor consola en todo. Deja tus farándula tío.
Ahora el pc lastra las consolas.....estarás de broma shur.
El SSD rinde el doble, si y? De hecho kraken rinde peor que el.mecanismo de.compresion y descompresión del SSD de series x.
El exclusivo más importante de ps5 no se verá mejor que el de series x simplemente porque la consola es peor.
Señor moderador, esto se llama bullying. No hay mensaje de nowcry que José no ataque.
josemurcia escribió:fertrance escribió:@josemurcia El tema es que en pc además de ser más difícil, también es innecesario.
Tan difícil e innecesario no será cuando se hace exactamente igual que en las consolas. Hay juegos cuyas físicas se ejecutan completamente en la GPU y no serían posible de otra manera con las CPUs actuales. Por ejemplo:
https://twvideo01.ubm-us.net/o1/vault/g ... d_Clay.pdf
josemurcia escribió:fertrance escribió:@josemurcia El tema es que en pc además de ser más difícil, también es innecesario.
Tan difícil e innecesario no será cuando se hace exactamente igual que en las consolas. Hay juegos cuyas físicas se ejecutan completamente en la GPU y no serían posible de otra manera con las CPUs actuales. Por ejemplo:
https://twvideo01.ubm-us.net/o1/vault/g ... d_Clay.pdf
Nowcry escribió:"...Como van a diseñar un juego basandose en un NVME y en la necesidad de DIrectX12 Ultimate?..."
Pues igual que han diseñado juegos en base a DX12 que solo puedes jugar bajo Windows 10; los ultimos Forza, GeOW,etc. Las tecnologías avanzan, los equipos se actualizan.
"...Para cuando quieran sacarle partido ya estarán en el mercado la XBOX series X 2 y la PS5 pro..."
Pues hombre, si de verdad crees que están implementando hardware puntero, dedicado y a su vez desarrollando software específico para explotar la máquina y todo para no darle uso...
En MS no tienen a ingenieros recien graduados de una universidad pública trabajando. No es que conozcan el sector, es que manejan la dirección del mismo.
"...dicen que sony se dio cuenta de que no servia meter un SSD de 5,5 GB/s sin poner un controlador E/S y al final el silicio comentan es del tamaño de otro procesador. Una locura comentan..."
Dicen, dicen, dicen. En Sony se han dado cuenta y en MS les ha pillado con el pie cambiado. ¿No? La respuesta anterior es aplicable de nuevo.
Desde luego, no queda más que esperar a que hablen los juegos. Pero, sinceramente, yo no iría por ahi diciendo cosas como que vamos a ver juegos imposibles en una plataforma o en la otra, porque luego vienen los batacazos.
Un saludo.
Nowcry escribió:1 - Cuantos factores afectan al desarrollo de la potencia de la GPU? La CU, Los Tflops, ls caches los text units.los ROPS.
Hay muchísimos factores que afectan a la potencia de la GPU tanto a nivel hardware (arquitectura), como a nivel de driver (muy importante) como a nivel software (como usas la potencia que tienes). Es muy complejo y denso y podríamos estar hablando horas sobre esto. No es una pregunta con una fácil respuesta pq cada decisión que se toma en el diseño de una arquitectura no es trivial, persigue un fin y esto determina otras decisiones sobre otras áreas. Quédate con que el conjunto debe estar equilibrado.
2 - Como se componen las caches como afectan y en que % nutren a las CU? Aunque sea estadístico quiero saberlo. Deduzco que muy alto pero quiero pruebas no mi deducción.
Simplificando muchísimo y que no se me malinterprete, las caches "no son tan importantes" en una GPU puesto que son procesadores masivamente paralelos con mecanismos para ocultar la latencia por traerte las instrucciones o los datos de memoria, están diseñadas para ello. Si pueden influir más en procesos que no son puramente gráficos, pero ni aún así. Las cachés ayudan a bajar el número de veces que vas a memoria a por un dato por lo que el consumo disminuye, y tb reduce el tráfico en el bus, lo cual es un plus importante, pero si el dato no está en caché "no es un drama", las GPUs están diseñadas para gestionar estos caché-miss. El diseño de las cachés en una GPU dependen del nivel de jerarquía en el que te muevas, creo q en RDNA la caché L2 es asociativa de 16 vías.
3 - Los ROPS son útiles pero hasta que punto comienzan a sobrar? Como se que no han puesto de mas?
Las ROPs nunca sobran xD.
4- Hasta que punto puedo poner CU sin modificar caches?
Eso lo sabe el diseñador de la arquitectura. Tienes que tener en cuenta que todo esto está medido, diseñado, testeado y vuelta a empezar, y que depende de cada arquitectura y de como se use dicha caché.
5- Como varia el rendimiento de mas clock o mas CU. Cual debería ser el % optimo entre CU caches clocks y controladores de memoria? Sabemos que mas clocks varían al principio linealmente y se va tornando horizontal.
Lo mejor es muchas CUs a mucha frecuencia xD. No hay una respuesta absoluta en plan, a partir de aqui mejor mas CUs a menos frecuencia o viceversa. Si es cierto que existen ciertas ventajas por tener una frecuencia más alta, por ejemplo hace que algunas partes de la GPU (funionalidad fija) tb aumenten su rendimiento por lo que el throughput puede incrementarse y mejorar su aprovechamiento.
6- Si hay que general 3840x2160 pixeles por 120 fps que es lo que permite el HDMI de la GPU cuantos ROPS se necesitan?
Las ROPs dependen de la frecuencia a la que funcione la GPU por lo que no es solo el número de ROPs sino a la frecuencia a la que trabajen. Si tienes 64 ROPs q procesan un pixel por ciclo y tienes 1.850 GHz tendras 118 GPixels por segundo ahí puedes hacer ya cuentas. No obstante tienes que tener en cuenta que una GPU no solo produce el frame q envía por la salida. Hay muchos buffers/frames intermedios que tb usan las ROPs, por ejemplo al sacar las sombras, buffers de iluminación, buffers normales, buffers intermedios para calcular la luminancia...
7- Cuantas unidades de texturizado hacen falta para desarrollar los Tflops, si lo calculáramos por triángulos? cuantos polígonos se pueden mostrar por Tflops?
Estas preguntas no tienen sentido. Los Teraflops te indican las operaciones MAXIMAS en coma flotante (generalmente de 32 bits FP32) que tu GPU puede alcanzar pero esto es solo la potencia de cálculo bruta. El número de polígonos por segundo no lo determinan los teraflops sino el resterizador y el geometry engine, y tb viene determinada por la frecuencia de la GPU. Los Mesh Shaders puentean estas unidades fijas y por tanto se saltan esta limitación.
8- Porque a mas TFlops el numero de polígonos que se pueden conseguir no siguen una linealidad es decir a mas Tflops un incremento de Tflops no equivale a un incremento igual de polígonos? porque se tiende a una horizontal.
Respuesta de arriba.
9-Que factores provocan el efecto de arriba?
Respuesta de arriba.
10-Tener relojes bajos y muchas CU para cuadrar el coste energetico es aceptable?
Si.
11- Porque es mas complicado poner en paralelo a trabajar 60 CU en vez de 40 CU?
No es mas complicado de por sí, pero si puede haber situaciones donde el aprovechamiento del hardware sea más optimo en una GPU más pequeña a mas frecuencia.
12- Quien optimiza y como se hace para pararelizar las programaciones?
13- Es programador debe cambiar su código para paralizar o el compilador esta preparado? Seguramente sea trabajo de los dos, uno debe derivar operaciones a otras operaciones paralelizables de forma creativa. Pero es esto posible siempre?
14-Que operaciones no son paralelizables? Si no es paralelizable esa operación entonces tener CU mas rápidas beneficiaria. Cuantas de esas operaciones hay? Cual es su efecto? Yo solo quiero respuestas a las preguntas de arriba. La finalidad primera es para saber si estoy comprando bien o mal.
Las últimas 3 preguntas se responden conociendo como funciona una GPU y como he dicho arriba, dar una respuesta a esto me llevaría 3 páginas del foro. Te dejo un enlace a un pdf que te puede servir de ayuda para aprender un poco mejor como funciona una GPU:
https://pdfs.semanticscholar.org/0694/3 ... 6cd052.pdf
Polyteres escribió:Buenas gente. @Nowcry hay algunas preguntas que no tienen respuesta o al menos no una respuesta general, otras preguntas que son muy dependientes de la arquitectura de la GPU, otras preguntas que solo lo pueden saber los diseñadores de la arquitectura...
Aparte, el problema que le veo a esas preguntas es que muchas de ellas se responden si tienes claro como funciona una GPU y su arquitectura. Habría que hacer un repaso general de como funciona una GPU y no es una respuesta trivial ni "corta", es un follón xD. Intentaré dar respuesta a las preguntas sin profundizar demasiado:Nowcry escribió:1 - Cuantos factores afectan al desarrollo de la potencia de la GPU? La CU, Los Tflops, ls caches los text units.los ROPS.
Hay muchísimos factores que afectan a la potencia de la GPU tanto a nivel hardware (arquitectura), como a nivel de driver (muy importante) como a nivel software (como usas la potencia que tienes). Es muy complejo y denso y podríamos estar hablando horas sobre esto. No es una pregunta con una fácil respuesta pq cada decisión que se toma en el diseño de una arquitectura no es trivial, persigue un fin y esto determina otras decisiones sobre otras áreas. Quédate con que el conjunto debe estar equilibrado.
2 - Como se componen las caches como afectan y en que % nutren a las CU? Aunque sea estadístico quiero saberlo. Deduzco que muy alto pero quiero pruebas no mi deducción.
Simplificando muchísimo y que no se me malinterprete, las caches "no son tan importantes" en una GPU puesto que son procesadores masivamente paralelos con mecanismos para ocultar la latencia por traerte las instrucciones o los datos de memoria, están diseñadas para ello. Si pueden influir más en procesos que no son puramente gráficos, pero ni aún así. Las cachés ayudan a bajar el número de veces que vas a memoria a por un dato por lo que el consumo disminuye, y tb reduce el tráfico en el bus, lo cual es un plus importante, pero si el dato no está en caché "no es un drama", las GPUs están diseñadas para gestionar estos caché-miss. El diseño de las cachés en una GPU dependen del nivel de jerarquía en el que te muevas, creo q en RDNA la caché L2 es asociativa de 16 vías.
3 - Los ROPS son útiles pero hasta que punto comienzan a sobrar? Como se que no han puesto de mas?
Las ROPs nunca sobran xD.
4- Hasta que punto puedo poner CU sin modificar caches?
Eso lo sabe el diseñador de la arquitectura. Tienes que tener en cuenta que todo esto está medido, diseñado, testeado y vuelta a empezar, y que depende de cada arquitectura y de como se use dicha caché.
5- Como varia el rendimiento de mas clock o mas CU. Cual debería ser el % optimo entre CU caches clocks y controladores de memoria? Sabemos que mas clocks varían al principio linealmente y se va tornando horizontal.
Lo mejor es muchas CUs a mucha frecuencia xD. No hay una respuesta absoluta en plan, a partir de aqui mejor mas CUs a menos frecuencia o viceversa. Si es cierto que existen ciertas ventajas por tener una frecuencia más alta, por ejemplo hace que algunas partes de la GPU (funionalidad fija) tb aumenten su rendimiento por lo que el throughput puede incrementarse y mejorar su aprovechamiento.
6- Si hay que general 3840x2160 pixeles por 120 fps que es lo que permite el HDMI de la GPU cuantos ROPS se necesitan?
Las ROPs dependen de la frecuencia a la que funcione la GPU por lo que no es solo el número de ROPs sino a la frecuencia a la que trabajen. Si tienes 64 ROPs q procesan un pixel por ciclo y tienes 1.850 GHz tendras 118 GPixels por segundo ahí puedes hacer ya cuentas. No obstante tienes que tener en cuenta que una GPU no solo produce el frame q envía por la salida. Hay muchos buffers/frames intermedios que tb usan las ROPs, por ejemplo al sacar las sombras, buffers de iluminación, buffers normales, buffers intermedios para calcular la luminancia...
7- Cuantas unidades de texturizado hacen falta para desarrollar los Tflops, si lo calculáramos por triángulos? cuantos polígonos se pueden mostrar por Tflops?
Estas preguntas no tienen sentido. Los Teraflops te indican las operaciones MAXIMAS en coma flotante (generalmente de 32 bits FP32) que tu GPU puede alcanzar pero esto es solo la potencia de cálculo bruta. El número de polígonos por segundo no lo determinan los teraflops sino el resterizador y el geometry engine, y tb viene determinada por la frecuencia de la GPU. Los Mesh Shaders puentean estas unidades fijas y por tanto se saltan esta limitación.
8- Porque a mas TFlops el numero de polígonos que se pueden conseguir no siguen una linealidad es decir a mas Tflops un incremento de Tflops no equivale a un incremento igual de polígonos? porque se tiende a una horizontal.
Respuesta de arriba.
9-Que factores provocan el efecto de arriba?
Respuesta de arriba.
10-Tener relojes bajos y muchas CU para cuadrar el coste energetico es aceptable?
Si.
11- Porque es mas complicado poner en paralelo a trabajar 60 CU en vez de 40 CU?
No es mas complicado de por sí, pero si puede haber situaciones donde el aprovechamiento del hardware sea más optimo en una GPU más pequeña a mas frecuencia.
12- Quien optimiza y como se hace para pararelizar las programaciones?
13- Es programador debe cambiar su código para paralizar o el compilador esta preparado? Seguramente sea trabajo de los dos, uno debe derivar operaciones a otras operaciones paralelizables de forma creativa. Pero es esto posible siempre?
14-Que operaciones no son paralelizables? Si no es paralelizable esa operación entonces tener CU mas rápidas beneficiaria. Cuantas de esas operaciones hay? Cual es su efecto? Yo solo quiero respuestas a las preguntas de arriba. La finalidad primera es para saber si estoy comprando bien o mal.
Las últimas 3 preguntas se responden conociendo como funciona una GPU y como he dicho arriba, dar una respuesta a esto me llevaría 3 páginas del foro. Te dejo un enlace a un pdf que te puede servir de ayuda para aprender un poco mejor como funciona una GPU:
https://pdfs.semanticscholar.org/0694/3 ... 6cd052.pdf
Un saludo.
terriblePICHON escribió:Pero si es que es verdad esta todo el Santo día con la misma mierda, ahora que si solo hay una consola next gen y la otra no, luego te tienes que callar que en seguida viene el admin a darte el toque...
No entiendo como se permite semejante cosa, diciendo estas gilipolleces calientas al personal.
Cuando te saquen juegos en series x NEXT GEN no se donde te vas a meter.
Lo que no entiendo es porque no te contratan para hacer la siguiente generacion de consolas, siendo una eminencia en este campo.
Increíble el hilo la verdad.
Nowcry escribió:Polyteres escribió:Buenas gente. @Nowcry hay algunas preguntas que no tienen respuesta o al menos no una respuesta general, otras preguntas que son muy dependientes de la arquitectura de la GPU, otras preguntas que solo lo pueden saber los diseñadores de la arquitectura...
Aparte, el problema que le veo a esas preguntas es que muchas de ellas se responden si tienes claro como funciona una GPU y su arquitectura. Habría que hacer un repaso general de como funciona una GPU y no es una respuesta trivial ni "corta", es un follón xD. Intentaré dar respuesta a las preguntas sin profundizar demasiado:Nowcry escribió:1 - Cuantos factores afectan al desarrollo de la potencia de la GPU? La CU, Los Tflops, ls caches los text units.los ROPS.
Hay muchísimos factores que afectan a la potencia de la GPU tanto a nivel hardware (arquitectura), como a nivel de driver (muy importante) como a nivel software (como usas la potencia que tienes). Es muy complejo y denso y podríamos estar hablando horas sobre esto. No es una pregunta con una fácil respuesta pq cada decisión que se toma en el diseño de una arquitectura no es trivial, persigue un fin y esto determina otras decisiones sobre otras áreas. Quédate con que el conjunto debe estar equilibrado.
2 - Como se componen las caches como afectan y en que % nutren a las CU? Aunque sea estadístico quiero saberlo. Deduzco que muy alto pero quiero pruebas no mi deducción.
Simplificando muchísimo y que no se me malinterprete, las caches "no son tan importantes" en una GPU puesto que son procesadores masivamente paralelos con mecanismos para ocultar la latencia por traerte las instrucciones o los datos de memoria, están diseñadas para ello. Si pueden influir más en procesos que no son puramente gráficos, pero ni aún así. Las cachés ayudan a bajar el número de veces que vas a memoria a por un dato por lo que el consumo disminuye, y tb reduce el tráfico en el bus, lo cual es un plus importante, pero si el dato no está en caché "no es un drama", las GPUs están diseñadas para gestionar estos caché-miss. El diseño de las cachés en una GPU dependen del nivel de jerarquía en el que te muevas, creo q en RDNA la caché L2 es asociativa de 16 vías.
3 - Los ROPS son útiles pero hasta que punto comienzan a sobrar? Como se que no han puesto de mas?
Las ROPs nunca sobran xD.
4- Hasta que punto puedo poner CU sin modificar caches?
Eso lo sabe el diseñador de la arquitectura. Tienes que tener en cuenta que todo esto está medido, diseñado, testeado y vuelta a empezar, y que depende de cada arquitectura y de como se use dicha caché.
5- Como varia el rendimiento de mas clock o mas CU. Cual debería ser el % optimo entre CU caches clocks y controladores de memoria? Sabemos que mas clocks varían al principio linealmente y se va tornando horizontal.
Lo mejor es muchas CUs a mucha frecuencia xD. No hay una respuesta absoluta en plan, a partir de aqui mejor mas CUs a menos frecuencia o viceversa. Si es cierto que existen ciertas ventajas por tener una frecuencia más alta, por ejemplo hace que algunas partes de la GPU (funionalidad fija) tb aumenten su rendimiento por lo que el throughput puede incrementarse y mejorar su aprovechamiento.
6- Si hay que general 3840x2160 pixeles por 120 fps que es lo que permite el HDMI de la GPU cuantos ROPS se necesitan?
Las ROPs dependen de la frecuencia a la que funcione la GPU por lo que no es solo el número de ROPs sino a la frecuencia a la que trabajen. Si tienes 64 ROPs q procesan un pixel por ciclo y tienes 1.850 GHz tendras 118 GPixels por segundo ahí puedes hacer ya cuentas. No obstante tienes que tener en cuenta que una GPU no solo produce el frame q envía por la salida. Hay muchos buffers/frames intermedios que tb usan las ROPs, por ejemplo al sacar las sombras, buffers de iluminación, buffers normales, buffers intermedios para calcular la luminancia...
7- Cuantas unidades de texturizado hacen falta para desarrollar los Tflops, si lo calculáramos por triángulos? cuantos polígonos se pueden mostrar por Tflops?
Estas preguntas no tienen sentido. Los Teraflops te indican las operaciones MAXIMAS en coma flotante (generalmente de 32 bits FP32) que tu GPU puede alcanzar pero esto es solo la potencia de cálculo bruta. El número de polígonos por segundo no lo determinan los teraflops sino el resterizador y el geometry engine, y tb viene determinada por la frecuencia de la GPU. Los Mesh Shaders puentean estas unidades fijas y por tanto se saltan esta limitación.
8- Porque a mas TFlops el numero de polígonos que se pueden conseguir no siguen una linealidad es decir a mas Tflops un incremento de Tflops no equivale a un incremento igual de polígonos? porque se tiende a una horizontal.
Respuesta de arriba.
9-Que factores provocan el efecto de arriba?
Respuesta de arriba.
10-Tener relojes bajos y muchas CU para cuadrar el coste energetico es aceptable?
Si.
11- Porque es mas complicado poner en paralelo a trabajar 60 CU en vez de 40 CU?
No es mas complicado de por sí, pero si puede haber situaciones donde el aprovechamiento del hardware sea más optimo en una GPU más pequeña a mas frecuencia.
12- Quien optimiza y como se hace para pararelizar las programaciones?
13- Es programador debe cambiar su código para paralizar o el compilador esta preparado? Seguramente sea trabajo de los dos, uno debe derivar operaciones a otras operaciones paralelizables de forma creativa. Pero es esto posible siempre?
14-Que operaciones no son paralelizables? Si no es paralelizable esa operación entonces tener CU mas rápidas beneficiaria. Cuantas de esas operaciones hay? Cual es su efecto? Yo solo quiero respuestas a las preguntas de arriba. La finalidad primera es para saber si estoy comprando bien o mal.
Las últimas 3 preguntas se responden conociendo como funciona una GPU y como he dicho arriba, dar una respuesta a esto me llevaría 3 páginas del foro. Te dejo un enlace a un pdf que te puede servir de ayuda para aprender un poco mejor como funciona una GPU:
https://pdfs.semanticscholar.org/0694/3 ... 6cd052.pdf
Un saludo.
Muchas gracias por tu respuestas.
Me has ayudado un monton.
terriblePICHON escribió:@sehito
Echo de menos a nocry o nowcry, desde que lo banearon no se ha aportado nada interesante.
Esta frase es tuya ,de otro hilo,me queda claro tu respuesta, tranquilo.
terriblePICHON escribió:Datos que solo pone él, que sabe más que los ingenieros, diciendo que solo tendremos una consola next gent? Que rendira como una 2080?
Esos datos quieres?
Perfecto, para ti, para mi sigo diciendo que es calentar al personal.
Hasta aquí contigo, no pierdo más el tiempo, sigue bailandole el agua.
Por cierto no soy el único que se queja de esto, mirate el hilo, si fuera solo yo tendría un problema, pero veo que no soy el único.
Jordisan escribió:Gente que aporta "OPINIONES PERSONALES" con argumentos y datos.
VS
Gente que se enfada por leer opiniones ajenas y no aportan nada al hilo.
Os termino de resumir el hilo.
Jordisan escribió:Gente que aporta "OPINIONES PERSONALES" con argumentos y datos.
VS
Gente que se enfada por leer opiniones ajenas y no aportan nada al hilo.
Os termino de resumir el hilo.
Nowcry escribió:Sin la mejora de la comunicación SSD GPU CPU nunca podremos volar por encima de planetas fotorealistas, o de ciudades como Spiderman, habrá que comerse un Menu y posiblemente tampoco podamos movernos rápido por entornos extra detallados y fotorealistas de verdad. Tampoco tendremos entornos con infinidad de detalles que aproveches toda la GDDR en la vista del jugador. Tampoco habrá cambios de entorno instantaneo como cambios de dimensión o viajes en el tiempo que cambien todo el entorno solo con presionar el botón.
josemurcia escribió:Nowcry escribió:Sin la mejora de la comunicación SSD GPU CPU nunca podremos volar por encima de planetas fotorealistas, o de ciudades como Spiderman, habrá que comerse un Menu y posiblemente tampoco podamos movernos rápido por entornos extra detallados y fotorealistas de verdad. Tampoco tendremos entornos con infinidad de detalles que aproveches toda la GDDR en la vista del jugador. Tampoco habrá cambios de entorno instantaneo como cambios de dimensión o viajes en el tiempo que cambien todo el entorno solo con presionar el botón.
Star Citizen con tecnología de PC de hace 4 años.
https://youtu.be/X5XSiww9ZO4
Midian28 escribió:Jordisan escribió:Gente que aporta "OPINIONES PERSONALES" con argumentos y datos.
VS
Gente que se enfada por leer opiniones ajenas y no aportan nada al hilo.
Os termino de resumir el hilo.
El resumen del hilo en realidad es que un usuario random con conocimientos basicos se inventa una y otra vez datos de una arquitectura que no conoce y las implicaciones que dos diferentes soluciones de almacenamiento tendrán sobre ella. Con unas gafas de fan del copón. En medio de un uso cuestionable del calculo y, vamos a decir, relativista de la logica.
Un poco lo que le esta diciendo el otro usuario con cosas como:
"Tienes que tener en cuenta que todo esto está medido, diseñado, testeado y vuelta a empezar, y que depende de cada arquitectura " o: "Eso lo sabe el diseñador de la arquitectura" en tema caches.
Nuestro usuario no entiende siquiera eso, pero tampoco le importa, ni le impide establecer una escala de cosas bien o mal hechas en esas arquitecturas. Y además se arroga la capacidad de repartir etiquetas de next gen desde tamaña ignorancia de base.
Ese es el resumen del hilo estas ultimas páginas. Gente dandose palmaditas en el hombro.
terriblePICHON escribió:@sehito
Echo de menos a nocry o nowcry, desde que lo banearon no se ha aportado nada interesante.
Esta frase es tuya ,de otro hilo,me queda claro tu respuesta, tranquilo.
Nowcry escribió:No hace falta que me lo pongas si ya lo tengo. Suele ser mi referencia. Mola mucho pero yo me refiero a planetas con vegetación, en StarCitizen cuando sobrevueltas esta vació.
Haber es un avance estupendo pero ese va a ser el limite, es el que ya tenemos ahora. Yo quería un planeta fotorealista con velocidad y en plan lleno de cosas. Osea como el cambio de Starcitizen pero en un planeta lleno de cosas y entornos completos.
SangReal escribió:terriblePICHON escribió:@sehito
Echo de menos a nocry o nowcry, desde que lo banearon no se ha aportado nada interesante.
Esta frase es tuya ,de otro hilo,me queda claro tu respuesta, tranquilo.
Esa frase es mía. Nowcry puede estar equivocado, pero aporta datos con educacion. Tu solo insultas y creas crispación.
josemurcia escribió:Nowcry escribió:No hace falta que me lo pongas si ya lo tengo. Suele ser mi referencia. Mola mucho pero yo me refiero a planetas con vegetación, en StarCitizen cuando sobrevueltas esta vació.
Haber es un avance estupendo pero ese va a ser el limite, es el que ya tenemos ahora. Yo quería un planeta fotorealista con velocidad y en plan lleno de cosas. Osea como el cambio de Starcitizen pero en un planeta lleno de cosas y entornos completos.
Por algo he puesto un video de hace 4 años, actualmente tienes ciudades kilométricas y biomas de bosque y montaña en los que puedes pasar de sobrevolarlos a verlos en primera persona de forma super detallada sin ningún tipo de carga.
https://gfycat.com/silverenragedindianc ... -microtech
Que está bien que ahora las consolas aspiren a tener algo como eso, no te digo que no.
josemurcia escribió:Bueno, pues busca en Google como llegar, pero lo que has dejado claro es que hablabas desde el desconocimiento.
josemurcia escribió:Es que si te esperas que planetas enteros tengan el mismo nivel de detalle que un escenario de 5 kilómetros cuadrados vas listo. Ya no por que la tecnología no lo permita, si no porque esos escenarios los tiene que hacer gente.
Star Citizen, como todos los juegos modernos de mundo abierto a gran escala, utilizan técnicas de generación prodecural y luego a mano detallan los puntos más relevantes para el jugador como bases o ciudades.
Pero vamos, has pasado de decir que no había vegetación (mentira) a exigir el mismo detalle a escala planetaria que en el de un mapa de Battlefield, lo cual es una imposibilidad física y económica, no técnica.
Cuando veamos cosas como lo que dices en PS5 hablamos, hasta entonces nos estás vendiendo humo.