Zokormazo escribió:Yo tambien veo que ira sobre eso Nuhar, sobre programacion grafica sobre las tecnologias que listan.
Pero no creo que sea "una conferencia previa al E3 de Microsoft junto a AMD" como se ha presentado la conferencia en este mismo hilo, ni creo que vayan a dar unas esplicaciones de la ostia sobre nada ni vaya a salir ninguna informacion especial de ese dia. Mas que nada porque el que mucho abarca poco aprieta, y un dia de conferencias, con 8 tecnologias distintas, a media hora por tecnologia no dan para poder profundizar lo suficiente en cualquiera de esas tecnologias como para que de esa charla salga ningun bombazo
Bueno, y de paso aprovechan pa irse de cena y puterio por Estocolmo xD
Nuhar escribió:NeCLaRT escribió:Para mi que es ironia.
Premio!
¿No os parece importante q anuncien nuevas tecnologías de iluminación?
No se, si anunciaran raytracing por hardware con Dx12 ya sería un notición, al menos para mí.
darksch escribió:Todo el mundo sabe, aunque no se haya dicho oficialmente, y quien no lo vea es porque no quiere (o no le conviene ), que Mantle es resultado de haber estado trabajando codo con codo con M$ en XO, su arquitectura y su software, basado en DX12. Vamos que no es casualidad que se lo hayan sacado ahora de la manga.
Por eso en Windows es innecesario, pero Mantle estará disponible si no me equivoco también para Linux y SteamOS, que es donde se usaría encima con fácil portabilidad desde DX12.
papatuelo escribió:Xbox One’s eSRAM Can Result Into Substantial Speed Ups, Expensive Draw Calls Can Be Rendered Into It
http://gamingbolt.com/xbox-ones-esram-can-result-into-substantial-speed-ups-expensive-draw-calls-can-be-rendered-into-it
As long as you are in registers you are fine but as soon as you need to access memory, it becomes slower. So the challenge is to access memory in the most efficient way.
Therefore memory access patterns are the most important optimization strategies. So it’s not about counting cycles but it’s about thinking how can we re-factor an algorithm so that we can access memory in a more efficient way. eSRAM is part of that.
Wolfgang definitely has a valid point. Developers can see the benefits of eSRAM only when they plan for it and use it accordingly. We do know that Crytek used it intelligently when developing Ryse Son of Rome and it will be interesting to see how developers utilize it in the coming years.
papatuelo escribió:Vaya vaya, con el parche de la esram queeeeeee tuvo que utilizar micro xq en el momento en el que desarrollo la consola solo estaba pensando en un sitema multimedia y necesitaba 8 gigas de ram, cantidad que no podía utilizar si colocaba GDDR5...
papatuelo escribió:Xbox One’s eSRAM Can Result Into Substantial Speed Ups, Expensive Draw Calls Can Be Rendered Into It
http://gamingbolt.com/xbox-ones-esram-can-result-into-substantial-speed-ups-expensive-draw-calls-can-be-rendered-into-it
Vaya vaya, con el parche de la esram queeeeeee tuvo que utilizar micro xq en el momento en el que desarrollo la consola solo estaba pensando en un sitema multimedia y necesitaba 8 gigas de ram, cantidad que no podía utilizar si colocaba GDDR5...
papatuelo escribió:Eso del parche por no poder usar GDDR5 es lo que alguno ha repetido en este hilo hasta la saciedad.
papatuelo escribió:¿Y como que si se sabe dónde estan los 8 gigas de ram? No entiendo la pregunta, claro que se sabe, perfectamente a la vista en la placa alrededor del SOC. Aunque tambien hay otros 8 gigas de memoria no volatil.
papatuelo escribió:...
Vaya vaya, con el parche de la esram queeeeeee tuvo que utilizar micro xq en el momento en el que desarrollo la consola solo estaba pensando en un sitema multimedia y necesitaba 8 gigas de ram, cantidad que no podía utilizar si colocaba GDDR5...
papatuelo escribió:Como no se va a contradecir si precisamente se ha utilizado la Sram, para minimizar la latencia de la memorias y mejorar el flujo de datos.
GDDR5 no puedo igualar las latencias de la SRam.
papatuelo escribió:Son ocho a la vista, fue una confusión.
eloskuro escribió:16x SK Hynix H5TQ4G63AFR 4 Gb
Esta es la memoria exacta de xbox one.
https://www.skhynix.com/products/computing/view.jsp?info.ramKind=19&info.serialNo=H5TQ4G63AFR
The H5TQ4G43AFR-xxC, H5TQ4G83AFR-xxC and H5TQ4G63AFR-xxC are a 4Gb CMOS Double Data Rate III (DDR3) Synchronous DRAM, ideally suited for the main memory applications which requires large memory density and high bandwidth. SK hynix 4Gb DDR3 SDRAMs offer fully synchronous operations referenced to both rising and falling edges of the clock. While all addresses and control inputs are latched on the rising edges of the CK (falling edges of the CK), Data, Data strobes and Write data masks inputs are sampled on both rising and falling edges of it. The data paths are internally pipelined and 8-bit prefetched to achieve very high bandwidth.
Features
VDD=VDDQ=1.5V +/- 0.075V
Fully differential clock inputs (CK, CK) operation
Differential Data Strobe (DQS, DQS)
On chip DLL align DQ, DQS and DQS transition with CK transition
DM masks write data-in at the both rising and falling edges of the data strobe
All addresses and control inputs except data, data strobes and data masks latched on the rising edges of the clock
Programmable CAS latency 5, 6, 7, 8, 9, 10, 11, 13 and 14 supported
Programmable additive latency 0, CL-1, and CL-2 supported
Programmable CAS Write latency (CWL) = 5, 6, 7, 8, 9, 10
Programmable burst length 4/8 with both nibbleequential and interleave mode
BL switch on the fly
8banks
Average Refresh Cycle (Tcase of 0oC~95oC)
- 7.8 µs at 0oC ~ 85 oC
- 3.9 µs at 85oC ~ 95 oC
JEDEC standard 78ball FBGA(x4/x8), 96ball FBGA(x16)
Driver strength selected by EMRS
Dynamic On Die Termination supported
Asynchronous RESET pin supported
ZQ calibration supported
TDQS (Termination Data Strobe) supported (x8 only)
Write Levelization supported
8 bit pre-fetch
This product in compliance with the RoHS directive.
David Ricardo escribió:papatuelo escribió:Como no se va a contradecir si precisamente se ha utilizado la Sram, para minimizar la latencia de la memorias y mejorar el flujo de datos.
GDDR5 no puedo igualar las latencias de la SRam.
La Esram se puso porque el ancho de banda de la ddr3, como comentan en el artículo que acabas de poner, no es suficientemente rápido por si solo para alimentar la GPU. Ahí entra la ESRAM.
- Bien caballeros, no podemos usar GDDR5, ¿qué hacemos?
- A mi se me ocurre que podríamos poner DDR3 con una un pool de Sram para igualar el ancho de banda de la GDDR5.
papatuelo escribió:¿Tu teoría es simple? Explicala, como palia la Sram la falta de ancho de banda.
Por otro lado, ¿encaja con lo que se está viendo? ¿Seguro?
¿No has notado ningún cambio desde que se libero el SDK de febrero? ¿No has visto declaraciones como la anterior diciendo que la Sram es lo que necesitan?
A ver si va a ser que ves lo que quieres y entiendes lo que puedes.
papatuelo escribió:Imposible que se vuelva el día de la marmota, aun no has explicado ni una sola vez como palía la esram la falta de ancho de banda la DDR3.
Yo personalmente no lo sé, pero tu si debes saberlo.
Te hago la siguiente pregunta, estamos suponiendo que los datos salen de la DDR3 hacia la Sram, que solo son 32 megas. Evidentemente salen a la velocidad que el ancho de banda de la DDR3 le permite y llegan a la esram que tiene un mayor ancho de banda. La esram se encarga de pasar la información que le llega desde la DDR3 hacia la CPU y la GPU a una mayor velocidad, puesto que su ancho de banda es mayor, sin embargo, ¿cómo puede ser que pasen la información más deprisa de lo que la propia DDR3 se lo esta pasando a la Sram?
Si suponemos que la Sram lo que hace es incrementar el ancho de banda de la DDR3, entonces, ¿debemos suponer que la DDR3 se maneja en un sistema troncal para alimentar en todo momento a la Sram? Y de ser así, ¿hemos igualado el ancho de banda de la GDDR5 con menores latencias y una memoria que encima sirve a otros propositos?
De ser así ¿por qué debería haberse tan solo planteado microsoft meter GDDR5 en su máquina?
Todo esto no es que sea así, es que yo no le encuentro otra explicación, pero por favor tu que lo tienes tan claro explicame como lo consiguen.
David Ricardo escribió:Los 32 megas de la esram se llenan, a velocidades de ddr3, en medio milisegundo. Luego la gpu puede trabajar con esos datos usando el ancho de banda de la esram. Cuando acabe de trabajar con esos datos y necesite datos nuevos, los coge de la ddr3 y repetimos el proceso.
Es la gran dificultad de trabajar con la esram, que tienes que organizar el funcionamiento de tu juego de manera que puedas mantener la esram llena y funcionando el máximo tiempo posible.
A Microsoft le iría mejor la GDDR5 (en mi humilde opinión, según los datos que tenemos hasta ahora) porque eso le habría permitido meter un 40% más de GPU en su SOC y sería más fácil para los desarrolladores trabajar con su máquina y sacarle partido.
papatuelo escribió:Edito:
Os pongo esto en cuanto a la memoria, lo puso FlashBackMan360 en 3d juegos pertenece a una visita q hizo una web los laboratorios en los que se estaba desarrolando XBOX ONE.
Es un osciloscopio midiendo el ancho de banda de la memoria de la consola:
A nosotros no nos dice nada, pero entonces miras esto que también aporto flash y tachaaaaan:
papatuelo escribió:Vale, explicame como usas una textura de 1 giga almacenada en la DDR3, sin usar tiled ni una canal troncal de memoria DDR3, y aceleras el proceso con la Sram
Y si usas Tiled y canal troncal dime para qué quieres la GDDR5.
Hoy quiero aprender.
papatuelo escribió:...
Por cierta David Ricardo, misión cumplida!!!
Ya has hecho lo de siempre, has obviado lo que acaba de decir un desarrollador sobre la esRam, has dicho lo que te ha salido se las narices sin ton ni son, evitando el tema y desviando la atención.
Y van...
manmartin escribió:Yo tengo una opinión similar a David Ricardo, creo que Microsoft tenía un plan de trabajo enfocado a más de un año y que Sony le pilló a contrapie.........
PD: hace poco leí por aquí a alguien decir que varias características de dx12 ya se estaban usando en Xbox one y que por ello no se debía esperar un salto enorme de calidad.
laleshe escribió:Estoy cansado de escuchar q ONE estaba pensada para 2014 y sony les pilló a contrapie. Adelantar a última hora un año la salida de una consola es imposible y aunque no lo fuera, creeis q las desarrolladoras de juegos son capaces de adelantar la salida de sus juegos 1 año?