Hablemos del interior de Xbox One

Yo no lo veo para nada como tu Zokormazo

Esta dirigido a programadores graficos, logicamente no es hardware, sino software para ellos.

Por otro lado dice "You will NOT need to sign a Non Disclosure Agreement to attend". No NECESITAS FIRMAR un acuerdo de no divulgacion para asistir.

Vamos, que es abierta y tratara sobre aspectos nuevos en la programación gráfica. Yo es lo que esperaba XD
Yo tambien veo que ira sobre eso Nuhar, sobre programacion grafica sobre las tecnologias que listan.

Pero no creo que sea "una conferencia previa al E3 de Microsoft junto a AMD" como se ha presentado la conferencia en este mismo hilo, ni creo que vayan a dar unas esplicaciones de la ostia sobre nada ni vaya a salir ninguna informacion especial de ese dia. Mas que nada porque el que mucho abarca poco aprieta, y un dia de conferencias, con 8 tecnologias distintas, a media hora por tecnologia no dan para poder profundizar lo suficiente en cualquiera de esas tecnologias como para que de esa charla salga ningun bombazo XD

Bueno, y de paso aprovechan pa irse de cena y puterio por Estocolmo xD
Por eso lo digo, que en la propia noticia ya se ve eso. Es otra multi-conferencia para desarrolladores donde una de éstas es AMD que va a hablar de D3D 12 (tb hablará de Mantle). Presentaciones con diapositivas y demás cosas como las que se han visto a millones, para ir hablándoles a los desarrolladores de lo que les espera, de las ventajas, y blablablá.

Quien se espere que se van a desvelar grandes secretos, interioridades desconocidas hasta por la NSA, y cosas así, pues no.
Zokormazo escribió:Yo tambien veo que ira sobre eso Nuhar, sobre programacion grafica sobre las tecnologias que listan.

Pero no creo que sea "una conferencia previa al E3 de Microsoft junto a AMD" como se ha presentado la conferencia en este mismo hilo, ni creo que vayan a dar unas esplicaciones de la ostia sobre nada ni vaya a salir ninguna informacion especial de ese dia. Mas que nada porque el que mucho abarca poco aprieta, y un dia de conferencias, con 8 tecnologias distintas, a media hora por tecnologia no dan para poder profundizar lo suficiente en cualquiera de esas tecnologias como para que de esa charla salga ningun bombazo XD

Bueno, y de paso aprovechan pa irse de cena y puterio por Estocolmo xD

creo que solo tu has hablado de secret sauce ^^U y de bombazos. aqui hablamos de saber mas sobre dx12. Alguna info nueva darán. Si solo fuese hablar de dx12 se hubiese presentado sola MS. si viene AMD será para hablar tambien sobre arquitectura y de como aprovechan los de amd dx12 y viceversa. es lógico que hablaran algo de eso. Eso si. secret sauce y previa e3 para mostrar megatones y arquitectura desconocida robada a los alienigenas nada de nada. eso solo lo estas comentando tu.
No hay ni una charla conjunta ni ninguna sobre hard eloskuro. Yo dudo muchisimo que den ninguna info nueva
¿No os parece importante q anuncien nuevas tecnologías de iluminación?

No se, si anunciaran raytracing por hardware con Dx12 ya sería un notición, al menos para mí.

Y el eslogan es un tanto "raro".

Q luego no se anuncia nada nuevo, pues no pasa nada, tenemos el E3 a la vuelta de la esquina. Pero no entiendo esa actitud constante de decirle a la gente con q se puede ilusionar y con q no, q pueden esperar de Xbox One y q no pueden esperar.

Normal q la gente con ganas de aportar deje de hacerlo. Somos mayorcitos para cada uno sacar conclusiones de los datos q se exponen.
De hardware no van a hablar, pero esta claro que van a hablar de las nuevas apis, mucho o poco pero estan todo el dia y yo creo que muchas de las conferencias estan ligadas a otras por lo que al final yo espero que se vean cosas nuevas.

No se, no creo que sea una excusa para reunirse y pegarse la fiesta, aunque hoy en dia me lo creo todo jajaja

Me llama la atencion ese holy smoke, a que se refieren? Yo lo estoy tomando por las criticas de las redes hacia microsoft pero igual es otra cosa...
Nuhar escribió:
NeCLaRT escribió:Para mi que es ironia.


Premio!


Pues mis disculpas. De tanto oír como se repite la misma mentira, uno acaba perdiendo la capacidad de juicio razonable.
¿No os parece importante q anuncien nuevas tecnologías de iluminación?

No se, si anunciaran raytracing por hardware con Dx12 ya sería un notición, al menos para mí.

Eso puede ser "parte", en realidad más que ray tracing por hardware es más bien que dada la clara optimización en computación de DX12, basado en un modelo de súper-computación en mente, pueda aprovecharse de dicha computación, que al fin y al cabo es lo que se usa para dichas técnicas. Así quizás hablen sobre mezclar render con otros sistemas basados en computación, como ray tracing, voxels, etc.

Pero será en todo caso a nivel de software y desarrollo, hablarles a los presentes allí de las posibilidades de las nuevas API.
http://wccftech.com/mantle-api-ported-directx-12-amd-white-paper/

En serio, me hace mucha gracia que cuando salió el Mantle en estos foros la gente saltaba de alegria, ilusionandose con las steam machines, echando mierda sobre DX y Microsoft, y ahora que se sabe que sus desarrollos están muy ligados la gente calla como p...s [qmparto]

Que si DX12 era una copiada de mantle, que si era una estocada de muerte a MS, que si la abuela fuma... [fiu]
Imagen

De hecho hasta se quejaban de titulo de este hilo, cuando se llamaba alianza AMD y MS...

Above all, Mantle will present developers with a powerful shortcut to DirectX® 12, as the lingual similarities between APIs will make it easy to port a Mantle-based render backend to a DirectX® 12-based one if needed or desired. In addition, Mantle developers that made the bold decision to support our historic API will be well-educated on the design principles DirectX® 12 also promises to leverage
Todo el mundo sabe, aunque no se haya dicho oficialmente, y quien no lo vea es porque no quiere (o no le conviene XD ), que Mantle es resultado de haber estado trabajando codo con codo con M$ en XO, su arquitectura y su software, basado en DX12. Vamos que no es casualidad que se lo hayan sacado ahora de la manga.

Por eso en Windows es innecesario, pero Mantle estará disponible si no me equivoco también para Linux y SteamOS, que es donde se usaría encima con fácil portabilidad desde DX12.
darksch escribió:Todo el mundo sabe, aunque no se haya dicho oficialmente, y quien no lo vea es porque no quiere (o no le conviene XD ), que Mantle es resultado de haber estado trabajando codo con codo con M$ en XO, su arquitectura y su software, basado en DX12. Vamos que no es casualidad que se lo hayan sacado ahora de la manga.

Por eso en Windows es innecesario, pero Mantle estará disponible si no me equivoco también para Linux y SteamOS, que es donde se usaría encima con fácil portabilidad desde DX12.


Y eso quiere decir que los desarrolladores pueden usar esa capa(mantle) para hacer el juego, que funcione en linux y steamOS y despues portarlo a wndows conDX12

---------------

Some of the high level details were already revealed to respond to your post but it's quite a jump to get to the API details you probably want to hear. D3D 12 doesn't have strongly typed memory allocations like D3D 11, which strictly limited the dimensionality and usage of memory at creation time. On 12, the main memory allocation parameters are CPU access/cacheability and GPU locality vs CPU locality. Some examples:



Dynamic vertex buffers in 11 would be an application managed ring buffer of memory in 12, allocated with write combined CPU cacheability and CPU locality.



11 style default 2D textures do not have CPU access and have GPU locality. 12 will also expose the ability to map multidimensional GPU local resources, useful for reading out the results of a reduction operation with low-latency for example. In this case it would be write combined CPU access with GPU locality. In the GDC unveil of D3D 12 this was briefly mentioned in a slide, called "map default" or "swizzled texture access" IIRC.



Cacheability and locality will not be mutable properties of memory allocations but 12 will allow memory of those given properties to be retasked for multiple resource types (1D/2D/3D, VB/Texture/UAV/..., width/height/depth, etc). More details later this year....



D3D 12 will have multiple methods for moving data between CPU & GPU, each serving different scenarios/performance requirements. More details later this year...
http://www.gamedev.net/topic/656346-direct3d-12-staging-resources/#entry5153199
Mi pregunta es, ¿de Directx12 a Mantle tambien sería facil portar?

Por otro lado, ¿ Mantle <-> Opengl? ¿Directx12 <-> Opengl?
Para OpenGL tendrán extensiones preparadas, eso entendí. Al parecer mantle quiere englobar todo, lo malo que parece más dificil encajar las piezas en una estructura que al parecer no se puede rehacer desde 0 como OpenGL, pero no pondría la mano en el fuego ^^ . Seuro que se podrán hacer ports relativamente rapidos.
Imagen
Xbox One’s eSRAM Can Result Into Substantial Speed Ups, Expensive Draw Calls Can Be Rendered Into It


http://gamingbolt.com/xbox-ones-esram-can-result-into-substantial-speed-ups-expensive-draw-calls-can-be-rendered-into-it

Vaya vaya, con el parche de la esram queeeeeee tuvo que utilizar micro xq en el momento en el que desarrollo la consola solo estaba pensando en un sitema multimedia y necesitaba 8 gigas de ram, cantidad que no podía utilizar si colocaba GDDR5... [fiu]
papatuelo escribió:Xbox One’s eSRAM Can Result Into Substantial Speed Ups, Expensive Draw Calls Can Be Rendered Into It


http://gamingbolt.com/xbox-ones-esram-can-result-into-substantial-speed-ups-expensive-draw-calls-can-be-rendered-into-it

As long as you are in registers you are fine but as soon as you need to access memory, it becomes slower. So the challenge is to access memory in the most efficient way.

Therefore memory access patterns are the most important optimization strategies. So it’s not about counting cycles but it’s about thinking how can we re-factor an algorithm so that we can access memory in a more efficient way. eSRAM is part of that.

Wolfgang definitely has a valid point. Developers can see the benefits of eSRAM only when they plan for it and use it accordingly. We do know that Crytek used it intelligently when developing Ryse Son of Rome and it will be interesting to see how developers utilize it in the coming years.

papatuelo escribió:Vaya vaya, con el parche de la esram queeeeeee tuvo que utilizar micro xq en el momento en el que desarrollo la consola solo estaba pensando en un sitema multimedia y necesitaba 8 gigas de ram, cantidad que no podía utilizar si colocaba GDDR5... [fiu]

y esto , de donde lo sacas , mas información sobre esto ..... , y puesto con la ram se sabe ya donde están los 8gb
Eso del parche por no poder usar GDDR5 es lo que alguno ha repetido en este hilo hasta la saciedad.

¿Y como que si se sabe dónde estan los 8 gigas de ram? No entiendo la pregunta, claro que se sabe, perfectamente a la vista en la placa alrededor del SOC. Aunque tambien hay otros 8 gigas de memoria no volatil.
Esta muy bien si "when they plan for it and use it accordingly" se cumple en los desarrollos.

Si la media va a ser como hasta ahora, la eleccion resultara un fracaso.
papatuelo escribió:Xbox One’s eSRAM Can Result Into Substantial Speed Ups, Expensive Draw Calls Can Be Rendered Into It


http://gamingbolt.com/xbox-ones-esram-can-result-into-substantial-speed-ups-expensive-draw-calls-can-be-rendered-into-it

Vaya vaya, con el parche de la esram queeeeeee tuvo que utilizar micro xq en el momento en el que desarrollo la consola solo estaba pensando en un sitema multimedia y necesitaba 8 gigas de ram, cantidad que no podía utilizar si colocaba GDDR5... [fiu]


Sí, esa es una de las joyas que se han leído en este hilo.
También recuerdo aquella otra perla que afirmaba que Microsoft no tiene ni pajolera idea de cómo implementar máquinas virtuales, y que deberían haber optado por una Máquina Virtual Dalvik (DVM) en lugar de por una variante optimizada de Hyper-V.
Y en el E3 2013 sólo hablaron de TV.

Imagen
papatuelo escribió:Eso del parche por no poder usar GDDR5 es lo que alguno ha repetido en este hilo hasta la saciedad.

vamos que eso es tan cierto como falso , solo un rumor
papatuelo escribió:¿Y como que si se sabe dónde estan los 8 gigas de ram? No entiendo la pregunta, claro que se sabe, perfectamente a la vista en la placa alrededor del SOC. Aunque tambien hay otros 8 gigas de memoria no volatil.

como se dijo que solo tenia 4gb al rededor del SOC con foto y referencias de la memoria que tiene al rededor , no se al final en que quedo el tema , si era verdad o mentira
Son ocho a la vista, fue una confusión.

Y lo de la GDDR5 ni es falso ni cierto ni un rumor, es solo que quien lo cuenta por aquí lo suele hacer como si fuera verdad lo que cuenta, como si hubiera estado presente en las tomas de decisión y se le olvida decir que es su propia teoría.
papatuelo escribió:...

Vaya vaya, con el parche de la esram queeeeeee tuvo que utilizar micro xq en el momento en el que desarrollo la consola solo estaba pensando en un sitema multimedia y necesitaba 8 gigas de ram, cantidad que no podía utilizar si colocaba GDDR5... [fiu]

Una tarde de domingo aburrida y sacas el foco de batman a ver si pica alguien, no? Bueno, vale, picaré pero no mucho...

Que la ESRAM es útil y la xbox one es mejor con ella que sin ella es una obviedad. Los ingenieros de Microsoft no son gilipollas y si sacrificaron un 30% aprox de gpu por la esram es por algo.

Eso no se contradice en nada con la historia que he contado aquí de por qué creo yo que microsoft lleva esram y ddr3 en vez de gddr5.
Como no se va a contradecir si precisamente se ha utilizado la Sram, para minimizar la latencia de la memorias y mejorar el flujo de datos.

GDDR5 no puedo igualar las latencias de la SRam.
papatuelo escribió:Como no se va a contradecir si precisamente se ha utilizado la Sram, para minimizar la latencia de la memorias y mejorar el flujo de datos.

GDDR5 no puedo igualar las latencias de la SRam.


La Esram se puso porque el ancho de banda de la ddr3, como comentan en el artículo que acabas de poner, no es suficientemente rápido por si solo para alimentar la GPU. Ahí entra la ESRAM.
papatuelo escribió:Son ocho a la vista, fue una confusión.

esto es mentira
eloskuro escribió:16x SK Hynix H5TQ4G63AFR 4 Gb

Esta es la memoria exacta de xbox one.

https://www.skhynix.com/products/computing/view.jsp?info.ramKind=19&info.serialNo=H5TQ4G63AFR



The H5TQ4G43AFR-xxC, H5TQ4G83AFR-xxC and H5TQ4G63AFR-xxC are a 4Gb CMOS Double Data Rate III (DDR3) Synchronous DRAM, ideally suited for the main memory applications which requires large memory density and high bandwidth. SK hynix 4Gb DDR3 SDRAMs offer fully synchronous operations referenced to both rising and falling edges of the clock. While all addresses and control inputs are latched on the rising edges of the CK (falling edges of the CK), Data, Data strobes and Write data masks inputs are sampled on both rising and falling edges of it. The data paths are internally pipelined and 8-bit prefetched to achieve very high bandwidth.

Features

VDD=VDDQ=1.5V +/- 0.075V
Fully differential clock inputs (CK, CK) operation
Differential Data Strobe (DQS, DQS)
On chip DLL align DQ, DQS and DQS transition with CK transition
DM masks write data-in at the both rising and falling edges of the data strobe
All addresses and control inputs except data, data strobes and data masks latched on the rising edges of the clock
Programmable CAS latency 5, 6, 7, 8, 9, 10, 11, 13 and 14 supported
Programmable additive latency 0, CL-1, and CL-2 supported
Programmable CAS Write latency (CWL) = 5, 6, 7, 8, 9, 10
Programmable burst length 4/8 with both nibbleequential and interleave mode
BL switch on the fly
8banks
Average Refresh Cycle (Tcase of 0oC~95oC)
- 7.8 µs at 0oC ~ 85 oC
- 3.9 µs at 85oC ~ 95 oC
JEDEC standard 78ball FBGA(x4/x8), 96ball FBGA(x16)
Driver strength selected by EMRS
Dynamic On Die Termination supported
Asynchronous RESET pin supported
ZQ calibration supported
TDQS (Termination Data Strobe) supported (x8 only)
Write Levelization supported
8 bit pre-fetch
This product in compliance with the RoHS directive.

Imagen

mucha gente confirmado esto pero nunca encontré a nadie desmintiendo lo , pero bueno lo lógico es que tenga 8gb ddr3 2133mhz , pero .......
David Ricardo escribió:
papatuelo escribió:Como no se va a contradecir si precisamente se ha utilizado la Sram, para minimizar la latencia de la memorias y mejorar el flujo de datos.

GDDR5 no puedo igualar las latencias de la SRam.


La Esram se puso porque el ancho de banda de la ddr3, como comentan en el artículo que acabas de poner, no es suficientemente rápido por si solo para alimentar la GPU. Ahí entra la ESRAM.


Ves como lo vuelves a decir las cosas como si estuvieras diciendo una verdad y no como si fuera tu propia teoría. Veo que estabas con los ingenieros cuando dijeron:

- Bien caballeros, no podemos usar GDDR5, ¿qué hacemos?
- A mi se me ocurre que podríamos poner DDR3 con una un pool de Sram para igualar el ancho de banda de la GDDR5.


Pero en fin, el tiempo nos dará o no quitará la razón.

Y nano, hazme caso que se desmintio. Fue un error con las magnitudes, no voy a buscarlo ahora pero creeme.

Edito:

Os pongo esto en cuanto a la memoria, lo puso FlashBackMan360 en 3d juegos pertenece a una visita q hizo una web los laboratorios en los que se estaba desarrolando XBOX ONE.
Es un osciloscopio midiendo el ancho de banda de la memoria de la consola:
Imagen
A nosotros no nos dice nada, pero entonces miras esto que también aporto flash y tachaaaaan:
Imagen
Mi teoría es simple y encaja con los tiempos y los hechos observados.

Otras teorías son más complicadas y de momento no parecen encajar con lo que se está viendo.

En lo que sí podemos estar de acuerdo es en que el tiempo dará la razón a quien la tenga.
¿Tu teoría es simple? Explicala, como palia la Sram la falta de ancho de banda.

Por otro lado, ¿encaja con lo que se está viendo? ¿Seguro?

¿No has notado ningún cambio desde que se libero el SDK de febrero? ¿No has visto declaraciones como la anterior diciendo que la Sram es lo que necesitan?

A ver si va a ser que ves lo que quieres y entiendes lo que puedes.
papatuelo escribió:¿Tu teoría es simple? Explicala, como palia la Sram la falta de ancho de banda.

Por otro lado, ¿encaja con lo que se está viendo? ¿Seguro?

¿No has notado ningún cambio desde que se libero el SDK de febrero? ¿No has visto declaraciones como la anterior diciendo que la Sram es lo que necesitan?

A ver si va a ser que ves lo que quieres y entiendes lo que puedes.


Deja de mentir bellaco [qmparto] [qmparto] [qmparto] [qmparto]
Esto se va a volver el día de la marmota para el resto de foreros.

No creo que necesite mucha explicación que una memoria como la esram, que ofrece a grosso modo el triple de ancho de banda que la ddr3, ayuda a proveer a la xbox one de ancho de banda. Está más que visto, se comenta en el artículo que acabas de poner, y supongo que en todos o casi todos los artículos tipo "la esram es maravillosa" que sueles postear por aquí.

Con lo del sdk de febrero no sé a qué te refieres, pero es normal que según vayan saliendo nuevos sdks vaya aumentando el rendimiento y la eficiencia. Para eso se sacan.

Y es perfectamente normal que salgan declaraciones diciendo que la esram es lo que necesitan porque, como te acabo de decir, la esram es útil para la xbox one y la consola es mejor con ella que sin ella.
Imposible que se vuelva el día de la marmota, aun no has explicado ni una sola vez como palía la esram la falta de ancho de banda la DDR3.

Yo personalmente no lo sé, pero tu si debes saberlo.

Te hago la siguiente pregunta, estamos suponiendo que los datos salen de la DDR3 hacia la Sram, que solo son 32 megas. Evidentemente salen a la velocidad que el ancho de banda de la DDR3 le permite y llegan a la esram que tiene un mayor ancho de banda. La esram se encarga de pasar la información que le llega desde la DDR3 hacia la CPU y la GPU a una mayor velocidad, puesto que su ancho de banda es mayor, sin embargo, ¿cómo puede ser que pasen la información más deprisa de lo que la propia DDR3 se lo esta pasando a la Sram?
Si suponemos que la Sram lo que hace es incrementar el ancho de banda de la DDR3, entonces, ¿debemos suponer que la DDR3 se maneja en un sistema troncal para alimentar en todo momento a la Sram? Y de ser así, ¿hemos igualado el ancho de banda de la GDDR5 con menores latencias y una memoria que encima sirve a otros propositos?
De ser así ¿por qué debería haberse tan solo planteado microsoft meter GDDR5 en su máquina?

Todo esto no es que sea así, es que yo no le encuentro otra explicación, pero por favor tu que lo tienes tan claro explicame como lo consiguen.
papatuelo escribió:Imposible que se vuelva el día de la marmota, aun no has explicado ni una sola vez como palía la esram la falta de ancho de banda la DDR3.

Yo personalmente no lo sé, pero tu si debes saberlo.

Te hago la siguiente pregunta, estamos suponiendo que los datos salen de la DDR3 hacia la Sram, que solo son 32 megas. Evidentemente salen a la velocidad que el ancho de banda de la DDR3 le permite y llegan a la esram que tiene un mayor ancho de banda. La esram se encarga de pasar la información que le llega desde la DDR3 hacia la CPU y la GPU a una mayor velocidad, puesto que su ancho de banda es mayor, sin embargo, ¿cómo puede ser que pasen la información más deprisa de lo que la propia DDR3 se lo esta pasando a la Sram?
Si suponemos que la Sram lo que hace es incrementar el ancho de banda de la DDR3, entonces, ¿debemos suponer que la DDR3 se maneja en un sistema troncal para alimentar en todo momento a la Sram? Y de ser así, ¿hemos igualado el ancho de banda de la GDDR5 con menores latencias y una memoria que encima sirve a otros propositos?
De ser así ¿por qué debería haberse tan solo planteado microsoft meter GDDR5 en su máquina?

Todo esto no es que sea así, es que yo no le encuentro otra explicación, pero por favor tu que lo tienes tan claro explicame como lo consiguen.


¿Para que?

Badum tisss
Los 32 megas de la esram se llenan, a velocidades de ddr3, en medio milisegundo. Luego la gpu puede trabajar con esos datos usando el ancho de banda de la esram. Cuando acabe de trabajar con esos datos y necesite datos nuevos, los coge de la ddr3 y repetimos el proceso.

Es la gran dificultad de trabajar con la esram, que tienes que organizar el funcionamiento de tu juego de manera que puedas mantener la esram llena y funcionando el máximo tiempo posible.

A Microsoft le iría mejor la GDDR5 (en mi humilde opinión, según los datos que tenemos hasta ahora) porque eso le habría permitido meter un 40% más de GPU en su SOC y sería más fácil para los desarrolladores trabajar con su máquina y sacarle partido.
Vale, explicame como usas una textura de 1 giga almacenada en la DDR3, sin usar tiled ni una canal troncal de memoria DDR3, y aceleras el proceso con la Sram

Y si usas Tiled y canal troncal dime para qué quieres la GDDR5.

Hoy quiero aprender.
David Ricardo escribió:Los 32 megas de la esram se llenan, a velocidades de ddr3, en medio milisegundo. Luego la gpu puede trabajar con esos datos usando el ancho de banda de la esram. Cuando acabe de trabajar con esos datos y necesite datos nuevos, los coge de la ddr3 y repetimos el proceso.

Es la gran dificultad de trabajar con la esram, que tienes que organizar el funcionamiento de tu juego de manera que puedas mantener la esram llena y funcionando el máximo tiempo posible.

A Microsoft le iría mejor la GDDR5 (en mi humilde opinión, según los datos que tenemos hasta ahora) porque eso le habría permitido meter un 40% más de GPU en su SOC y sería más fácil para los desarrolladores trabajar con su máquina y sacarle partido.


No. a MS (y a cualquier grafica DX12 por extension) les viene mejor la eSRAM porque de esa forma pueden prescindir de los ROPs y meter la escritura a la VRAM en el mismo Shader. Si ademas, esa escritura es Local con escasisima latencia (como una eSRAM), obtienes un plus de velocidad.

y eso sin hablar todavia del dual-pipe de los 12CUs de la XboxONE (duplica la potencia de la GPU en procesos GPGPU) ni de los cores EDGE que son como las meigas: haberlas haylas...
papatuelo escribió:Edito:

Os pongo esto en cuanto a la memoria, lo puso FlashBackMan360 en 3d juegos pertenece a una visita q hizo una web los laboratorios en los que se estaba desarrolando XBOX ONE.
Es un osciloscopio midiendo el ancho de banda de la memoria de la consola:
Imagen
A nosotros no nos dice nada, pero entonces miras esto que también aporto flash y tachaaaaan:
Imagen


Eso no es mas que un diagrama de ojos. Lo que hace es que dibuja la senyal que hay en una linea de transmision en funcion del tiempo. Lo que se hace en el diagrama de ojos es que se superpone la senyal por cada periodo de repeticion (en una senyal binaria la duracion de cada bit T, que es la inversa de la frequencia). Como puedes ver los bits tienen valor 1 (el nivel alto en la traza) o 0 (el nivel bajo). Con esta medida puedes ver diferentes problemas, como son los debidos a jitter, (pequenyas variaciones de la frequencia de reloj) o problemas de adaptacion de impedancias, atenuacion o limitacion de frequencia (lo que hace que las transiciones de un nivel a otro sean mas lentas de lo deseado pudiendo inducir a error).

Vamos que en esas imagenes se ven medidas de diferentes memorias a diferentes velocidades y demostrando que funcionan a dichas velocidades. Pero no es ni mas ni menos que lo que te vas a encontrar en cualquier laboratorio donde se vayan a caracterizar circuitos digitales o modulaciones digitales.

Que se supone que intenta decir el amigo flashman??
papatuelo escribió:Vale, explicame como usas una textura de 1 giga almacenada en la DDR3, sin usar tiled ni una canal troncal de memoria DDR3, y aceleras el proceso con la Sram

Y si usas Tiled y canal troncal dime para qué quieres la GDDR5.

Hoy quiero aprender.

La ESRAM no es para almacenar nada, es un sitio donde meter cosas con las que quieres trabajar intensivamente. Un uso habitual es meter el buffer geométrico, que en un juego a 792p (resolución de titanfall y watchdogs en one) ocupa 30 megabytes. Perfecto para la esram, esa es la explicación de por qué estos 2 juegos concretos usan esa resolución tan rara.

Como te dije antes y te digo constantemente, la gddr5 la quieres para poder trabajar sin tener que andar pendiente de pasar cosas entre una memoria y otra y quitarte de encima la esram y usar ese espacio para meter una gpu mayor.

F5inet, yo no creo en nada de eso que estás diciendo, no te lo voy a rebatir.

Edit: Papatuelo, estás rallando el flameo. Ándate con cuidado.

Edit 2:
papatuelo escribió:...

Por cierta David Ricardo, misión cumplida!!!

Ya has hecho lo de siempre, has obviado lo que acaba de decir un desarrollador sobre la esRam, has dicho lo que te ha salido se las narices sin ton ni son, evitando el tema y desviando la atención.

Y van...

Yo hace mucho que no posteaba aquí. He entrado a responder a una clara alusión tuya a lo que había contado de por qué MS no llevaba gddr5 y luego me he limitado a responder a lo que ibas preguntando. Si no quieres qe te respondan, no sigas preguntando.

De cualquier modo, voy a dejar este hilo tranquilo una temporada porque estoy viendo que la discusión aquí no llega a ninguna parte. Creo que ya he dejado mi opinión bastante clara en demasiadas ocasiones.
Como lo vas a rebatir si no lo entiendes.
Pero queda mas guay lo q has dicho.

Por cierta David Ricardo, misión cumplida!!!

Ya has hecho lo de siempre, has obviado lo que acaba de decir un desarrollador sobre la esRam, has dicho lo que te ha salido se las narices sin ton ni son, evitando el tema y desviando la atención.

Y van...

Edito: ¿que me ande con cuidado? Reportame, me toca un pie. El único que a toda costa trata de desviar la atención y trata de disfrazar opiniones personales de verdades incuestionables eres tu. El que no da una explicación a sus argumentos, el que cuando no entiende algo sencillamente se muestra falsamente codescenciente diciendo que no se va a molestas en rebatir algo que ni remotamente entiende.
Y luego eres tu el que acusa de desinformar...

Creo que hasta el momento, mis aportaciones sacadas de opiniones de desarroladores, de artículos y twitters tienen más valor que tus "las cosas son así xq yo lo valgo y no me voy a molestar en explicarlas" Y al menos cuando son opiniones acepto que puedo estar equivocado.

Ya te banearon de multi y desde entonces cuidas mucho las formas, ahora que no haces más que disfrazar las actitudes que ya demostrabas entonces. Los moderadores te conocen.
Vamos que lo perfecto y lo que deseaba MS tiene que coincidir casual y exactamente con lo que tiene Sony. Esa es la teoria "probada" :-|

Y eso sabiendose que la solucion RAM de MS es asi desde el inicio que se conoce, y Sony siendo la unica que hizo cambios de ultima hora al respecto.


pd, esta muy currada tu pagina web [carcajad]
(no te la quites hombre, si esta claro lo que hay)
Round 34564357
fight!!!!
Por que solo se aportan los enlaces positivos y faborables?,este hilo se supone que es para conocer la verdad o solo alabar su hardware?

http://gamingbolt.com/directx-12-might- ... g-wild-hog

Es que es graciso que sea de la misma web que el otro pero se hos olvide ponerlo por aqui [+risas]
La diferencia entre ese articulo y el anterior, es que uno esta hablando de la Sram que ya ha tenido la posibilidad de ver como funciona y el otro está haciendo predicciones sobre como funcionará una API sobre la que no ha puesto una mano encima en su vida y que se limita a decir que lo único que va a hacer es traer la programación a más bajo nivel.

Ese tipo de cosas hay que dejarlas al mismo niver que el: XBOX ONE será el doble de potente con directx 12" de Brad Wardell, puede que sí y puede que no.
Eso estaba entendiendo yo con mi mal ingles, podria podria podria... podria o no.

Habra que poner cosas que afirmen o desmientan cosas de forma tangible.

Mañana habra una conferencia de amd y microsoft no? Seguro que aunq no aclaremos como funciona la xbox de forma segura, algo de como afectara DX12 sacamos.
Creo que deberíamos hacer un backup de este hilo. Pronto, tengo la impresión, muchos posts se van a borrar misteriosamente y varios personajes dirán que ellos nunca han dicho tal y cual cosa.....

O saldrán por la puerta trasera sin hacer ruido...
Yo tengo una opinión similar a David Ricardo, creo que Microsoft tenía un plan de trabajo enfocado a más de un año y que Sony le pilló a contrapie. Recuerdo discusiones similares respecto a la potencia de Wii y la pasta que pago nintendo a Amd y tal y veo muchas similitudes con cosas que leo aquí, si bien lo mío es más un palpito que otra cosa,si que veo que hay mucha paranoia con la potencia oculta de la Xbox y dx12. Me recuerda al superhypermegacell de la ps3 o a la ps2 que podía dirigir misiles nucleares y no se podía vender Irán.
En fin, a ver si la cosa avanza más y salimos de dudas.
PD: hace poco leí por aquí a alguien decir que varias características de dx12 ya se estaban usando en Xbox one y que por ello no se debía esperar un salto enorme de calidad.
manmartin escribió:Yo tengo una opinión similar a David Ricardo, creo que Microsoft tenía un plan de trabajo enfocado a más de un año y que Sony le pilló a contrapie.........

PD: hace poco leí por aquí a alguien decir que varias características de dx12 ya se estaban usando en Xbox one y que por ello no se debía esperar un salto enorme de calidad.


Lo primero es totalmente cierto. Como dicho un millon de veces, es ahora , o a finales del 2014, cuando la One debería haber salido en verdad.

De lo segundo, es cierto, ahora mismo ya hay first parties trabajando con dx12, pero no 100%, para eso hay que esperar al 2015. Si con los resultados de ahora mas uno va a alucinar, cuando veais desarrollo dedicado , la sorpresa será MAYUSCULA. Y no lo digo yo con mi bola de cristal.
Estoy cansado de escuchar q ONE estaba pensada para 2014 y sony les pilló a contrapie. Adelantar a última hora un año la salida de una consola es imposible y aunque no lo fuera, creeis q las desarrolladoras de juegos son capaces de adelantar la salida de sus juegos 1 año?
laleshe escribió:Estoy cansado de escuchar q ONE estaba pensada para 2014 y sony les pilló a contrapie. Adelantar a última hora un año la salida de una consola es imposible y aunque no lo fuera, creeis q las desarrolladoras de juegos son capaces de adelantar la salida de sus juegos 1 año?


Busca la entrevista de Boyd, estuvieron semanas enteras para hacer correr los juegos sin optimizacion ninguna y cuando lo hicieron espetaron un "buff ya está, los tenemos corriendo en la consola".

Mandaron gente de Ms a varios estudios para ayudarles a que acabaran los juegos, aquellas semanas fueron pesadillas.
17587 respuestas