Hablemos del interior de Xbox One

Horizonte de sucesos escribió:
Notis escribió:
salocin21 escribió:....
Lo que me jode son las mentiras.. El lavado generalizado de cerebro que ha realizado Sony...


Buenas chavales.
Lo que a mi me jode es la desinformación y el afirmar cosas queriendo sentar cátedra sin conocer el alcance que tendrán ambas máquinas en un futuro...

Primero te has hecho eco de unas afirmaciones de no se que insider con perlas como:

"Confirma que la gpu equivale a 1,3 teraflods x 4 = 5,4 debido a la arquitectura de los nuevos CU y la longitud de palabra."
"Ps4 no tendrá capacidad técnica para raytracing y hablan de una posible ps5 en 2016."

Luego te has aventurado a soltar algunas de tu propia cosecha:

"Y el raytracing en una maquina de 1.6 teraflod (1.8 - 0.2 para audio) solo se podrá implementar de manera muy básica."
"Y la ps4 no va a soportar texturas parciales por la arquitectura de su placa y su ridicula latencia debida a la ddr5."

Bien, como has sido tú quien ha empezado a nombrar a la competencia, te voy a dejar algunas citas con alguna información (aunque no enlaces ya que considero que no es el hilo para ello). Si quieres ampliar ésta, te invito a que busques un poco y no sigamos desviando el hilo.

En cuanto a los tiled, ha sido confirmado que la competencia puede utilizar PRT. PRT no solo para megatexturing, sino también para iluminación voxel y algunas cosillas más que no recuerdo. Hay información ampliada en este mismo hilo.

“Sony has announced that Partially Resident Textures (PRT) is available for PS4. This is aimed at doing the same thing as the Tiled Resources feature of DX 11.1+.

Veremos que se puede hacer con tiled en xbox one con la llegada de Dx12.

En cuanto a las técnicas de ray tracing, pego unas declaraciones recientes del presidente de Q-Games:

The Tomorrow Children uses a new lighting technology named Cascaded Voxel Cone Ray Tracing, which allows to simulate lighting in real time, and uses actual real reflections, and not screen space reflections like most games.

Como he comentado antes, te invito a que busques un poquito si tienes interés en ampliar esta información. Por mi parte dejo el hilo para que sigáis aportando cosillas, aunque como ya ha comentado un compañero esto no es un hilo para comparar máquinas.

pd- No te tomes este post como un ataque, no van por ahí los tiros.

Un saludo,



No se permite hablar de PS4 en el hilo, pero si al menos lo vas a hacer, usa tu cuenta buena anda.


Touché.

En fin, cualquier hardware puede hacer muchas cosas, pero curiosamente la única plataforma que demuestra cosas más allá del pixel count es la One. Otros se limtan a decir "y yo más". Recordemos que el juego más espectacular gráficamente hasta la fecha sigue estando en nuestra consola.

Por otro lado, hoy me han confirmado que hay "algo" stacked en el SOC de la One. El fabricante es Samsung.

Saludos.
Y q es exactamente ese stacked samsung....?
Szasz escribió:Y q es exactamente ese stacked samsung....?

http://www.thefreedictionary.com/stacked
stacked: (of a woman) having large breasts.

Es algo bueno :)
Kinder, ¿confirmación interna?

Poruqe a mi hace meses que me lo insinuaron, pero si tienes confirmaciín interna sería la leche.
Como segunda gpu apilada no hay, dicho por Microsoft, ahora tenemos que creernos que hay otra cosa apilada y que es de "Samsung", es mas facil pensar en alguna forma distinta de renderizado o alguna tecnica relativamente novedosa como el tiled resources que en cosas magicas a nivel de hard, pero bueno, si lo han dicho.

Stacked no significa nada mas que apilado, lo que implicaria mejores anchos de banda y bajas latencias, Microsoft ya ha dicho que no hay segunda Gpu y que sepamos en Xbox One no hay mas memorias que los 8gb de ddr3 volatil, los 8gb de memoria no volatil y los 32mb en el propio Apu.

Fat Chip Stacked Next Gen, el tipico chip gordo apilado de nueva generacion, cagate competencia.
(mensaje borrado)
Al final vendra el del mazo....

Eso de samsung se podria ampliar un poco mas?
Que bien, un nuevo clon! [facepalm]
hughroad escribió:Que bien, un nuevo clon! [facepalm]

Si los echaran a la primera todos seríamos más felices.
Si no le citarais hasta mejor. Reportar e ignorar
Grinch escribió:Si no le citarais hasta mejor. Reportar e ignorar

Nadie lo ha citado
KinderRey escribió:Por otro lado, hoy me han confirmado que hay "algo" stacked en el SOC de la One. El fabricante es Samsung.

Saludos.



Ese run run lleva ya tiempo por internet. A FLASHBACKMAN se lo he escuchado decir en alguna ocasión, incluso a MrXmedia. Y ahora a ti [boing]

Creo que es un chip acelerador para raytracing o algo así creo que leí hace tiempo.
antonio613 escribió:
Grinch escribió:Si no le citarais hasta mejor. Reportar e ignorar

Nadie lo ha citado

Citar a alguien no siempre es hacer
esto


Sino nombrarlo o referirse a el
Gracias por tu clase de lengua. Tengo el bachillerato pero me he ido por ciencias. [facepalm]
Jajaja, sois unos superclase... Ahora resulta que soy otro usuario... ya me diréis quien... Deberíais de ponerlo en conocimiento de algún moderador para que lo compruebe y tome medidas. (tanto hacia mi persona como hacia la persona que lo insinúa)

Mira que llevo años en eol (posteando con esta cuenta desde el 2009) pero parece que esto está perdido y se ha convertido en una feria por culpa de cuatro sectarios adoctrinados... Normal que los foreros "de la vieja escuela" fueran emigrando hacia mejores climas. Como echo de menos aquel eol...

¿No se permite hablar de PS4 en este hilo? Estoy de acuerdo pero el compañero lleva nombrándola desde hace unos cuentos posts y no pasaba nada. A mi me da igual la verdad, no tengo ni una ni otra... pero lo que no soporto es la información falseada venga de quien venga.

Ala chavales... ya podéis seguir. Última participación en este hilo. Seguiré leyendo desde las sombras... [oki]

Un saludo,

pd - Por cierto, este post no va por las últimas dos páginas del hilo, sino por un iluminado que me ha aconsejado que utilice mi cuenta buena anda [oki]
Tampoco le veo sentido a no poder hablar de Ps4, cuando ademas se la esta nombrando constantemente, tampoco entiendo esto de "me han dicho que lleva stacked y de Samsung" como algo asi mistico sin fuentes, seran secretas, algo asi como una amigo mio cuyo nombre no puedo revelar un dia vio un extraterrestre, y que encima te crean, tampoco entiendo que Ps4 halla hecho ningun tipo de campaña de lavado de cerebro, la etiqueta esta puesta, Xbox One es inferior a Ps4 y Sony no tiene ni que demostrarlo, es lo que tienen las etiquetas, que mueva ficha Microsoft y saque algo que demuestre algo que sea superior sin fisuras, que conste que para mi son muy parecidas tecnicamente mas interesante Xbox one por una serie de elementos diferenciadores y en los sitios serios ya se comenta que la cpu de Ps4 igual que la de Xbox one pero mas lenta en cuestion de relojes esta lastrando el rendimiento de la gpu y sin embargo de eso no se habla.

Ps4 esta fuera de esta gerra, es superior y es tecnicamente claramente entendible, no lo se pero esto al menos es lo que esta llegando al gran publico cuando pones un video de Digital Foundry y ves comparativas en la que los juegos van a mas frames y te cuentan que encima tambien van a mas resolucion.

Ya me gustaria que Xbox fuera mejor, varias veces que la competencia y mas facil de programar y tubiera mejores exclusivos y todas esas cosas que me la sudaron cuando elegi Xbox.

Los juegos de Xbox seguramente mejoraran y mucho pero lo haran mas por cuestiones relacionadas con nuevas tecnicas o adaptaciones de estas al hardware particular de la consola.

En Microsoft no son tontos y habran hecho mil pruebas pero es que algunos quieren hacer pensar al resto que tenemos una consola del 2020 en 2014.

El hilo como bien dice el "multicuenta", esto es una broma, esta un poco conspiranoico.
Notis escribió:Jajaja, sois unos superclase... Ahora resulta que soy otro usuario... ya me diréis quien... Deberíais de ponerlo en conocimiento de algún moderador para que lo compruebe y tome medidas. (tanto hacia mi persona como hacia la persona que lo insinúa)

Mira que llevo años en eol (posteando con esta cuenta desde el 2009) pero parece que esto está perdido y se ha convertido en una feria por culpa de cuatro sectarios adoctrinados... Normal que los foreros "de la vieja escuela" fueran emigrando hacia mejores climas. Como echo de menos aquel eol...

¿No se permite hablar de PS4 en este hilo? Estoy de acuerdo pero el compañero lleva nombrándola desde hace unos cuentos posts y no pasaba nada. A mi me da igual la verdad, no tengo ni una ni otra... pero lo que no soporto es la información falseada venga de quien venga.

Ala chavales... ya podéis seguir. Última participación en este hilo. Seguiré leyendo desde las sombras... [oki]

Un saludo,

pd - Por cierto, este post no va por las últimas dos páginas del hilo, sino por un iluminado que me ha aconsejado que utilice mi cuenta buena anda [oki]

[plas] [plas] [plas] asi es compi,PS4,uuuuh,se me ha escapao
[qmparto] [qmparto] [qmparto] [qmparto] [qmparto]
Ahora q habéis dado vuestra opinión y tmb os habéis tomado la libertad de catalogarnos de sectarios, ¿Que tal si aportáis cosas?

Sí, hay gente q se carga este hilo, pero no son los q investigan y aportan información.

Con vuestro permiso, ahora sere yo quien me tome la libertad de deciros, q si no os interesa lo aquí expuesto, no entréis y mucho menos desviéis el hilo.

Quizas si tengamos algo de sectarios, porq somos capaces de atraer a gente q no le interesa el tema.
Si el problema es ese, nadie aporta na, esto parece el programa de Iker Jimenez.

Alguien aporta una parida tecnica de proporciones bibilicas y sin ningun tipo de fuente y una parte grande muestra sus esperanzas en que sea real y ya van unas pocas, doble gpu, algo staked lo que sea gpu, memorias lo que sea, doble bus, doble cu, multiplicaciones de capacidades tecnicas en varias veces, de 1,3Tflops que es el numero digamos oficial a 9Tflops que se puede leer con varias paginas tratando el tema y todo con un monton de peña dando bombo y platillo y ......... la Ps4 innombrable.

No me eches, ya me voy yo.


Buenas gente. Forward +, me suena... Me cito, 17 se Septiembre de 2013, antiguo hilo Hablemos de la Next Gen:

Lo dije cuando salieron las informaciones q para un deferred era escaso pq no cogía a 1080p, hay mas opciones para tener muchas luces simultáneas como por ejemplo un Forward+ que me da a mi en la nariz q lo veremos bastante y tb sacarán nuevas formas q ahora mismo ni imaginamos.


Me vuelvo a citar, en este mismo hilo, Marzo de 2014:

Lo dije hace tiempo y lo vuelvo a repetir muchos motores abandonarán los deferred rendering y se pasarán al Fordward+ casi seguro (The Order lo usará, tiene lo mejor de los dos mundos ;) )...


El Forward+ es una variante del Light-Indexed Deferred Rendering, no es nuevo. Se vio, si no me falla la memoria en la demo Leo de AMD de la serie GCN. Tiene muchas ventajas (puedes usar MSAA, muchos materiales distintos, funcionan los objetos transparentes sin problema...) pero tiene tb algunos problemas como por ejemplo q tienes q hacer un Z-Prepass y por tanto renderizas la escena dos veces... A mi personalmente me gusta y tb se verá proximamente en The Order o Sunset Overdrived.

Un saludo.
Como dijo f5inet, los ROPs ya no son necesarios (al menos en grandes cantidades), nuevos motores se avecinan.

"More ROPs benefit ROP bound shaders. Usually pixel shaders that are very simple are ROP bound. Good examples are shadow map rendering, simple particle rendering (to a 32 bpp render target), simple foliage rendering, UI element blitting, etc.

Any alpha blending to (HDR) 64 bpp or higher bit depth render target is always bandwidth bound on all modern GPUs (including Titan and R9 290X). HDR blending is thus never ROP bound. Output to a 64 bpp render target (or MRT) with z-buffering tends to be also BW bound before it is ROP bound, assuming the shader reads some textures. Obviously these kind of shaders can be TMU (texture filtering / cache) or ALU (math) bound instead of BW / ROP bound. Or bound by some other parts of the GPU pipeline.

Modern GPUs are never ROP bound on 2d image processing operations (such as lighting or post processing), because compute shaders do not use ROPs. Obviously many launch window games still use modified old engines or need backwards compatibility and thus still use pixel shaders for post processing and lighting. Simple blur kernels for example can be ROP bound when executed as a pixel shader (compute shader is much faster for blur kernels for various reasons, but old code still exists). "

"In modern graphics engines, GPUs spend less than 30% of the frame running pixel and vertex shaders. Most graphics rendering steps have moved to compute shaders. Even though this new hardware is less efficient in simple tasks (such as simple ROP/depth output), the compute shader programming model with its on chip shared work memory, and very low overhead synchronization primitives allows much reduced memory traffic, reduce the need for latency hiding (most memory ops operate in the work memory, and it is as fast as L1 cache) and make more complex (work efficient) parallel algorithms possible. The total efficiency gain is much greater than the efficiency loss from the slightly more complicated hardware."

sebbbi - Beyond3D Forum -
Todo lo que sean pasadas sin texturas en principio le tendrían que venir bien a la eSRAM, y más cuando dichas transferencias van comprimidas, en la geometría se tiene que poder ahorrar un buen ancho. Recuerdo cuando se hablaba del tema en un principio que algunos hablaban de "1 pasada gratis", es algo exagerar pero venía a decir eso.
El fordward + sustituye totalmente a un deferred?

Tenía la impresión que la mayoría de títulos tirarian por deferred incluso en XONE aunque tuvieran que bajar la resolución y me parece muy raro que The Order use fordward +.

Un Saludo.
naxeras escribió:El fordward + sustituye totalmente a un deferred?

Tenía la impresión que la mayoría de títulos tirarian por deferred incluso en XONE aunque tuvieran que bajar la resolución y me parece muy raro que The Order use fordward +.

Un Saludo.


Buenas gente. Sip, totalmente, es una mezcla entre un light-prepass, un forward y un Tile Deferred Rendering xD. Puedes usar MSAA sin mucho problema y manejar transparencias pero tienes que hacer un Z-Prepass... Personalmente me parece muy interesante, tiene ciertos inconvenientes pero ya depende del desarrollador ver si le sale a cuenta.

Tile Deferred Rendering se está usando mucho ahora y poco a poco se empezará tb a usar este Forward+.

The Order usa Forward+ http://www.readyatdawn.com/slides/RAD_GDC_2014.pptx y creo q Sunset Overdrive (por los papers de Insomniac) tb.

Un saludo.
sebbbi: More ROPs benefit ROP bound shaders. Usually pixel shaders that are very simple are ROP bound. Good examples are shadow map rendering, simple particle rendering (to a 32 bpp render target), simple foliage rendering, UI element blitting, etc.

Any alpha blending to (HDR) 64 bpp or higher bit depth render target is always bandwidth bound on all modern GPUs (including Titan and R9 290X). HDR blending is thus never ROP bound. Output to a 64 bpp render target (or MRT) with z-buffering tends to be also BW bound before it is ROP bound, assuming the shader reads some textures. Obviously these kind of shaders can be TMU (texture filtering / cache) or ALU (math) bound instead of BW / ROP bound. Or bound by some other parts of the GPU pipeline.

Modern GPUs are never ROP bound on 2d image processing operations (such as lighting or post processing), because compute shaders do not use ROPs. Obviously many launch window games still use modified old engines or need backwards compatibility and thus still use pixel shaders for post processing and lighting. Simple blur kernels for example can be ROP bound when executed as a pixel shader (compute shader is much faster for blur kernels for various reasons, but old code still exists).


http://forum.beyond3d.com/showpost.php? ... ostcount=2
I think in the longer run everything is going to be on both platforms running at 1080p. It's just taking developers longer to do it than they expected because the architecture is a little more challenging on the Xbox One.


sacado de :
http://www.eurogamer.net/articles/2014- ... ojekt-says

Y segun he oido estos saben lo que hacen
Grinch escribió:
I think in the longer run everything is going to be on both platforms running at 1080p. It's just taking developers longer to do it than they expected because the architecture is a little more challenging on the Xbox One.


sacado de :
http://www.eurogamer.net/articles/2014- ... ojekt-says

Y segun he oido estos saben lo que hacen



Even though this new hardware is less efficient in simple tasks (such as simple ROP/depth output), the compute shader programming model with its on chip shared work memory, and very low overhead synchronization primitives allows much reduced memory traffic, reduce the need for latency hiding (most memory ops operate in the work memory, and it is as fast as L1 cache) and make more complex (work efficient) parallel algorithms possible. The total efficiency gain is much greater than the efficiency loss from the slightly more complicated hardware."

El hardware de Xbox One es menos eficiente en tareas sencillas. Pero su aumento de eficiencia total es mayor q las perdidas generadas por un hardware "más complicado".

Esto se ira viendo con el tiempo, a medida q los middlewares vayan cambiando.
La noticia es de antes de lo nuevos sdks creo . Lo mismo los nuevos han mejorado este aspecto no ?
Grinch escribió:La noticia es de antes de lo nuevos sdks creo . Lo mismo los nuevos han mejorado este aspecto no ?


Han liberado sobre un 5% la CPU, un 8% la GPU y han liberado tmb ancho de banda de la memoria. Esto es lo q consigue q empuje más pixeles (especialmente el aumento de ancho de banda). Pero no hay cambio de paradigma aún. Hacen falta nuevos motores.

Siempre he dicho q Halo 5 debería ser el máximo exponente de esto. Sigo expectante.
Killos, animad esto con info no?
Agitemos el avispero!

A ver que os parece esto:

El ancho de banda real de la esram es ~1638.9GB/s. Esta imagen explica también que la DDr3 tiene aun mas ancho de banda de lo que se cree


Imagen

Esta imagen afirma que los 200GB/s son de la embdram y no de la esram. Justo al otro lado se ve que hay una supuesta memoria cache de x cantidad de MB sera la tan famosa Esram?

Imagen
Horizonte de sucesos escribió:Agitemos el avispero!

A ver que os parece esto:

El ancho de banda real de la esram es ~1638.9GB/s. Esta imagen explica también que la DDr3 tiene aun mas ancho de banda de lo que se cree


Imagen

Esta imagen afirma que los 200GB/s son de la embdram y no de la esram. Justo al otro lado se ve que hay una supuesta memoria cache de x cantidad de MB sera la tan famosa Esram?
Adjuntos

Imagen


Joer q servicio más rápido coño!!! XD
No queria entrar pero es esto justamente es lo que jode el hilo, el chip gordo con ancho de banda infinito, el as bajo la manda de Microsoft, el cajon de la calderilla de siempre que de repente abres tiene y diamantes, los mundos de Yupi, el que pide sangre en Salvame y un "colaborador" tiene un aborto.
Muy interesantes esos gráficos/esquemas, es curioso el tema de las memorias de la XBOX ONE, tengo mis dudas de por qué Microsoft eligió esta configuración (¿por coste de producción?, no creo que salga mucho más cara la memoria GDDR5).

Un saludo.
vivapikachu escribió:Muy interesantes esos gráficos/esquemas, es curioso el tema de las memorias de la XBOX ONE, tengo mis dudas de por qué Microsoft eligió esta configuración (¿por coste de producción?, no creo que salga mucho más cara la memoria GDDR5).

Un saludo.



La ddr3 stacked y la sram es bastante mas caro que una ddr5,

A elegido esta configuración por que es mucho mas avanzada, de echo es lo que viene a partir de 2015 para PC y para gráficas con SoC "pirate islands"

http://www.chw.net/2014/08/amd-anunciar ... -este-ano/

La ddr5 es cara en la fase de diseño, pero no tanto de producir.
Que es el "direct x12"??
salocin21 escribió:
vivapikachu escribió:Muy interesantes esos gráficos/esquemas, es curioso el tema de las memorias de la XBOX ONE, tengo mis dudas de por qué Microsoft eligió esta configuración (¿por coste de producción?, no creo que salga mucho más cara la memoria GDDR5).

Un saludo.



La ddr3 stacked y la sram es bastante mas caro que una ddr5,

A elegido esta configuración por que es mucho mas avanzada, de echo es lo que viene a partir de 2015 para PC y para gráficas con SoC "pirate islands"

http://www.chw.net/2014/08/amd-anunciar ... -este-ano/

La ddr5 es cara en la fase de diseño, pero no tanto de producir.


Donde dice ese link que las nuevas gpu de AMD vengan con DDR3?

Me extraña muy mucho que las dedicadas vayan a usar ddr.

BTW, sera GDDR5 no DDR5 lo que no es tan caro. Y los pcs van a DDR4 en 2015
Las GPU discretas siempre llevarán GDDR porque para eso se inventó, otra cosa es que le añadan eSRAM para computación que ya se ha visto eficiente.

Esa embDRAM me parece a mí que es la caché de la GPU, lo que sería en una CPU su caché L2, de ahí ese ancho de banda, porque le hace falta. Pero no tiene relación con la eSRAM.
No, las GPUs dedicadas no van a introducir todavía DDR3 stacked. Seguirán con GDDR5. Lo q si puede haber es un cambio de arquitectura en la parte de cómputo. La stacked DRAM aun no es viable su producción en masa.

Las q si funcionaran con DDR3\DDR4 + EDRAM serán las APUs. Tanto de intel como de AMD. Ademas Intel inaugura nueva arquitectura de computo.

https://software.intel.com/sites/defaul ... 4_2014.pdf

Mañana presentan las nuevas GPUs AMD. Habra q estar al loro de los posibles cambios.
La serie raedon r300 y la GeForce m800 vendrán con arquitectura ddr3 + DRAM en vez de gddr5.

Es que ni tiene sentido utilizar gddr5 si quieres un hardware full directx 12.
salocin21 escribió:La serie raedon r300 y la GeForce m800 vendrán con arquitectura ddr3 + DRAM en vez de gddr5.

Es que ni tiene sentido utilizar gddr5 si quieres un hardware full directx 12.


Fuente?

EDIT: la serie mLOQUESEA de geforce no es de laptops? En ese caso no sera que usa ddr3 por usar shared memory, al igual que las APUs?

Obviamente las gpus que tiren de la memoria del sistema funcionaran con DDR3/DDR4 . Lo que pongo muy en duda es que las gpu dedicadas vayan a usar DDR3/DDR4
salocin21 escribió:La serie raedon r300 y la GeForce m800 vendrán con arquitectura ddr3 + DRAM en vez de gddr5.

Es que ni tiene sentido utilizar gddr5 si quieres un hardware full directx 12.


Hombre, Dx12 va a funcionar en GPUs con GDDR5. Solo por software tendrá una importante mejora.

Falta saber q se necesita para ser full Dx12. Mañana veremos q presenta AMD.
Szasz escribió:
salocin21 escribió:La serie raedon r300 y la GeForce m800 vendrán con arquitectura ddr3 + DRAM en vez de gddr5.

Es que ni tiene sentido utilizar gddr5 si quieres un hardware full directx 12.


Hombre, Dx12 va a funcionar en GPUs con GDDR5. Solo por software tendrá una importante mejora.

Falta saber q se necesita para ser full Dx12. Mañana veremos q presenta AMD.


Pues va a presentar lo que lleva anunciando desde hace tiempo, las nuevas arquitectura que tienen mucho que con One, y optimizadas para usar ddr3+sram y soporte nativo de PTR(texturas parciales a menos nivel que tield resources) y tesselacion avanzado

http://www.chw.net/2014/04/se-filtran-l ... e-islands/

Y GeForce presentara su serie 800 con ddr3+ NVram similar a la de one y que hablamos en su momento por aquí..

http://m.slashdot.org/story/199913

Se ira viendo en su momento, pero los tiros van por hay, ya que es microsoft la que al final esta marcando el Hardware que necesita DirectX 12, y por supuesto lo ha implementado en One.

Es el cambio de tendencia que he comentando varias veces.. gdrr5 es lo mejor que existe a dia de hoy, la combinación de ddr3 stacked + DRAM es la tecnología para los próximos 10 años.


Añado fuentes para apoyar lo dicho .. Pero vamos si alguien duda que mire en google.
salocin21 escribió:
Szasz escribió:
salocin21 escribió:La serie raedon r300 y la GeForce m800 vendrán con arquitectura ddr3 + DRAM en vez de gddr5.

Es que ni tiene sentido utilizar gddr5 si quieres un hardware full directx 12.


Hombre, Dx12 va a funcionar en GPUs con GDDR5. Solo por software tendrá una importante mejora.

Falta saber q se necesita para ser full Dx12. Mañana veremos q presenta AMD.


Pues va a presentar lo que lleva anunciando desde hace tiempo, las nuevas arquitectura que tienen mucho que con One, y optimizadas para usar ddr3+sram y soporte nativo de PTR(texturas parciales a menos nivel que tield resources) y tesselacion avanzado

http://www.chw.net/2014/04/se-filtran-l ... e-islands/



Tienes razón. Las series 300 de AMD supondrán un gran cambio y serán full dx12.
a presentan "refritos" con mejores consumos. Siguen siendo serie 200. Así q no hay q esperar nada nuevo.

http://www.chw.net/2014/08/amd-anunciar ... de-agosto/

Pues va a presentar lo que lleva anunciando desde hace tiempo, las nuevas arquitectura que tienen mucho que con One, y optimizadas para usar ddr3+sram y soporte nativo de PTR(texturas parciales a menos nivel que tield resources) y tesselacion avanzado

http://www.chw.net/2014/04/se-filtran-l ... e-islands/



Noo.. Mañana toca salseo ya:

http://www.chw.net/2014/08/amd-anunciar ... -este-ano/

Va a coincidir con el nuevo SDK de one que sale en septiembre y MS la nueva versión de ue4 para xbox One.. En fin huele a que se va levantado la política de NDA sobre One que tienen pactado AMD con MS sobre esta arquitectura.
salocin21 escribió:
Szasz escribió:
salocin21 escribió:La serie raedon r300 y la GeForce m800 vendrán con arquitectura ddr3 + DRAM en vez de gddr5.

Es que ni tiene sentido utilizar gddr5 si quieres un hardware full directx 12.


Hombre, Dx12 va a funcionar en GPUs con GDDR5. Solo por software tendrá una importante mejora.

Falta saber q se necesita para ser full Dx12. Mañana veremos q presenta AMD.


Pues va a presentar lo que lleva anunciando desde hace tiempo, las nuevas arquitectura que tienen mucho que con One, y optimizadas para usar ddr3+sram y soporte nativo de PTR(texturas parciales a menos nivel que tield resources) y tesselacion avanzado

http://www.chw.net/2014/04/se-filtran-l ... e-islands/

Y GeForce presentara su serie 800 con ddr3+ NVram similar a la de one y que hablamos en su momento por aquí..

http://m.slashdot.org/story/199913

Se ira viendo en su momento, pero los tiros van por hay, ya que es microsoft la que al final esta marcando el Hardware que necesita DirectX 12, y por supuesto lo ha implementado en One.

Es el cambio de tendencia que he comentando varias veces.. gdrr5 es lo mejor que existe a dia de hoy, la combinación de ddr3 stacked + DRAM es la tecnología para los próximos 10 años.


Añado fuentes para apoyar lo dicho .. Pero vamos si alguien duda que mire en google.


Ni uno ni otro link menciona que vayan a usar ddr3. Ya que afirmas que la nueva generacion de gpus dedicadas usaran ddr3, nos puedes dar una fuente en la que bases tu afirmacion?
salocin21 escribió:

Pues va a presentar lo que lleva anunciando desde hace tiempo, las nuevas arquitectura que tienen mucho que con One, y optimizadas para usar ddr3+sram y soporte nativo de PTR(texturas parciales a menos nivel que tield resources) y tesselacion avanzado

http://www.chw.net/2014/04/se-filtran-l ... e-islands/



Noo.. Mañana toca salseo ya:

http://www.chw.net/2014/08/amd-anunciar ... -este-ano/

Va a coincidir con el nuevo SDK de one que sale en septiembre y MS la nueva versión de ue4 para xbox One.. En fin huele a que se va levantado la política de NDA sobre One que tienen pactado AMD con MS sobre esta arquitectura.


Madre, pero ¿aun siguen bajo NDA? A ver como se presenta mañana, si ayudará a despejar dudas sobre "esa" arquitectura o si hará que la gente deje ya de lado "Xbox JONEs y la búsqueda del chip perdido"
17587 respuestas