Hablemos del interior de Xbox One

Madre mía alguno se está luciendo. Que AMD vende mierda barata... [facepalm]

Las consolas montan hardware para consola. Si montas CPU+GPU:
- Obligas a usar 2 pool de memoria (RAM + VRAM) a ver como las repartes en un sistema como los actuales.
- A tomar por saco HSA.
- Problemas de diseño y disipación.
- 2 ventiladores = más ruido.
- ...seguro que se ocurren más cosas.

Un recordatorio:
http://wccftech.com/amd-kaveri-i54670k-benchmarks-showdown-continued-hsa-features-test/
http://www.tomshardware.com/news/amd-dx12-asynchronous-shaders-gcn,28844.html

Se ha montado lo perfecto para consolas. Lo que tienen que hacer todos los vagos es usarlo como tal, no como si fuera un PC con CPU Intel y GPU pre-DX12, que así no rinde ni la mitad.

Es como si nos dicen que la Megadrive tendría que haber montado un 8086 de la época. Y los juegos se hicieran con códigos genéricos en C, en lugar de aprovechando el Motorola adecuadamente y sus coprocesadores como el VDP o FM.

De toda la vida se sabe que en un bloque único la solución AMD es mucho mejor que la Intel, tanto por precio como por prestaciones, mucho más equilibrado. Jugar con una APU es posible, con sólo un Intel no lo es de ninguna manera. Y las APU de las consolas están customizadas para llevar una GPU más potente que las de PC además de un bus propio (no la cagarruta de PC) a la shared memory.

Respecto a DX12, día de la marmota:
1) Sí que puede ser full DX12.
2) En caso de no serlo, tampoco preocupa, pues sí que lo es para TODO aquello que va a usar en los juegos. Si hubiera algo que no soportara es porque se le escapa de sus posibilidades. Es como decir que no soporta AA16x, da igual porque tampoco lo podría usar.
Lo que no me gusta de este hilo es que se ataca a saco a alguien que ponga en duda la supremacia de hardware e XBOXONE respecto a cualquier consola, que si que vienen trols a tocar los cojones a mansalva (si los ignorarais como hago yo os iria mejor que contestarles), pero también he visto a gente atacada que solo venía a expresar su opinión y ha sido literalmente apaleada.

Pero llega un usuario que pone que XBOXONE rinde más que una titan por no se que port de Forza 5 que no podemos probar (además es una demo sin optimizar) y la gente no le lleva la contraria, todo el mundo está de acuerdo, parece ser que si se aprovecha XBOXONE rinde más que una TITAN sin problemas 60 vs 45fps como dice él, o sea que es más potente que una 970 por ejemplo, de echo estaría al nivel de una 980ti/TitanX, si hacemos caso a este dato.

Luego claro, probamos los exlcusivos como RISE o Dead Rising 3 que si han salido en PC y pasa lo de siempre un I3 y una 750ti casposo, se mea en rendimiento a XBOXONE, pero claro, es que estos no usa la potencia de XBOXONE pese a ser exclusivo supongo ¬_¬ .

Si XBOXONE fuera mas potente que una TITAN, se rie de los multis que están sacando, irian todos a 1080p a 60fps y lo digo porque tengo una 970 que en potencia es ligeramente inferior a la TITAN (no la X que según el usuario estaría XBOXONE visto lo visto) y en todos los casos los multis van a 1080p/60fps y con mejor apartado gráfico que en consolas.

A mi me encataría que XBOXONE rindiera más que una TITAN con DX12 o con lo que fuera aunque no fuera aprovechados en los multis, porque en exclusivos simplemente estaría en otra liga respecto a cualquier consola, pero ni siendo la persona más optimista del mundo me puedo creer esto lo siento.

Ahora si quereis poneis el icono de potar como he visto que hace alguno o me decís que soy un troll, sonier o lo que querais.

Un Saludo.
darksch escribió:Se ha montado lo perfecto para consolas. Lo que tienen que hacer todos los vagos es usarlo como tal, no como si fuera un PC con CPU Intel y GPU pre-DX12, que así no rinde ni la mitad.

Hombre, no te pases, lo de poder usar la ONE como DX12 esta disponible parte desde hace un año con Mono, y otra parte aun no esta disponible, sera dentro de unos meses ...

Juegos como por ejemplo Fallout 4, que llevará tranquilamente 3 ó 4 años en desarrollo, pues normal que no tengan soporte nativo, les pillo ya en un estado de desarrollo avanzado, hacer un juego de esos cuesta una millonada y supone mucho riesgo, no van a cambiarlo todo a mitad de desarrollo si tienen algo que les va bien.

Antes de salir al mercado estas consolas, Marc Cerny dijo que llevaría 3 años que los DEVs las aprovechasen bien, y viendo como está el panorama el actual, supongo que se refería a HSA/GPGPU ...

Vamos, un poco de paciencia, que ya llegarán los juegos, ahora como mucho los exclusivos, que puede que hayan tenido acceso anticipado a todos los APIs !!!!



@naxeras, estoy de acuerdo contigo, a algunos se les va un poco la pinza. Aunque tambien por otro lado espero que en esta generación se acabe cumpliendo la regla de x2 de Carmack:

https://twitter.com/id_aa_carmack/status/436012673243693056
https://twitter.com/id_aa_carmack/status/50277106856370176

No es lo mismo hacer código genérico, que programar sabiendo cuantos nucleos tienes, cuanta RAM, etc. Para hardware cerrado se puede optimizar mucho.

"... but it isn’t just API in the way, focus a single spec also matters"
@cercata

Yo también lo espero y deseo que el rendimiento en consolas en multi supere a la 750ti, una tarjeta inferior a la PS4.

Seguro que DX12 va a ayudar a esto, vamos que estoy convencido.

Un Saludo.
¿se puede empezar a hablar de HSA, HSAIL, LCUs, TCUs y MCUs, o aun estamos discutiendo si XboxONE es fullDX12?
Kenwood escribió:"Directivo de AMD también confirma que Xbox One soportará DirectX 12"

El director de marketing técnico de AMD, ha confirmado en una entrevista que la GPU de Xbox One y las de núcleo Tonga y Hawaii soportarán las características principales de la API. En una entrevista a la web alemana Computerbase, Robert Hallock explica que las gráficas basadas en el diseño GCN (Graphics Core Next) soportarán Directx 12 y para ir más allá, las que soportarán los siguientes niveles de características de Directx 12, llamadas Feature level 12_0.

En concreto, ha expresado que todas las GPU de AMD con el diseño GCN, soportarán Directx 12, es decir, podrán trabajar con esa API, pero además, los diseños Tonga, Hawaii y la Xbox One, soportarán características de nivel 12_0. Respecto a los chipsets más antiguos como Bonaire, Tahiti y Pitcairn, no se ha pronunciado.

De momento solo Nvidia ha sido la única que ha podido confirmar que sus chipsets GM200 (Titan X), GM204 (GTX 970) y GM206 (GTX 960), son los que ya soportan las características de nivel 12_1 de Directx 12. Aunque Hallock dice que no debería de ser un problema que las tarjetas de AMD sólo soporten las Feature level 12_0, porque todas las características relevantes para los juegos se encuentran en los niveles 11_1 y 12_0 de la API. Además, la mayoría de los juegos se acercarán a los que las consolas usan y lo normal será el nivel 12_0.

En conclusión podemos decir que “de momento” se confirma el Tier 2 de Directx12 para Xbox One. No sabemos que lugar ocuparía su GPU entre las Volcanic Islands de Tonga (GCN 1.2) y las Sea Islands de Hawaii (GCN 1.1). Pero también hay que señalar que AMD aún no ha presentado ninguna gráfica con soporte 12_1, que se espera en sus próximas “Fiji” y APU´s Carrizo.

soloxboxone


Fin de la historia, se fabricó para que soportara DirectX 12, y lo dice un cargo de AMD.


Entonces quedamos en que no es "full DX12" o al final si lo es??
f5inet escribió:¿se puede empezar a hablar de HSA, HSAIL, LCUs, TCUs y MCUs, o aun estamos discutiendo si XboxONE es fullDX12?


Tener memoria unificada, gpgpu, coherencia etc o como lo quieran llamar xD no tiene nada que ver con apis.
djohny24 escribió:
f5inet escribió:¿se puede empezar a hablar de HSA, HSAIL, LCUs, TCUs y MCUs, o aun estamos discutiendo si XboxONE es fullDX12?


Tener memoria unificada, gpgpu, coherencia etc o como lo quieran llamar xD no tiene nada que ver con apis.


Es que como el primer hardware HSA 1.0 'oficial' en salir al mercado va a ser Carrizo de AMD, y sale este año... quizas nos encontremos en la misma situacion que DX12, que como salio despues del lanzamiento de la consola...

por cierto, HSA no es solo memoria unificada y coherencia... es mucho mas... pero parece que todavia no es el momento de hablar de ello. Quizas despues del E3 y de los primeros juegos DX12...
@cercata eso ya lo sé, que algunas cosas no están disponibles aún. Pero otras sí y ni lo tocan (chip de sonido o eSRAM liberada hace varios SDK).

Y si nos ponemos "quisquillosos" en PS4 sí y pasan 3 pueblos.

@f5inet el problema es que DX12 no es directamente correlativo al uso de HSA, es decir haces algo en DX12 y perfectamente puede pasar olímpicamente de usar HSA. Sin embargo sí que están estrechamente relacionados con el aprovechamiento mutuo. DX12 permite usar las CU ociosas de render en computación que ésta puede ser perfectamente HSA. De hecho apostaría que esa es la idea.
Hsa es un método de cómputo acelerado, por decirlo de forma coloquial y simple. Y yo sigo en mis 13 de que no es Hsa, será algo similar y específico para ésta consola, aunque haga casi todo igual (o no) tendrá otro nombre "custom", como casi toda la consola.
darksch escribió:@cercata eso ya lo sé, que algunas cosas no están disponibles aún. Pero otras sí y ni lo tocan (chip de sonido o eSRAM liberada hace varios SDK).

Y si nos ponemos "quisquillosos" en PS4 sí y pasan 3 pueblos.

Por eso te puse lo que dijo Cerny de los 3 años, y eso fue antes del lanzamiento, incluso ... hay que tener en cuenta que los ciclos de desarrollo de los juegos son largos, y si ya esta empezado, cambiarlo puede suponer mucho riesgo. Ademas del periodo de aprendizaje que supone cambiar de tecnologias.

Ponte en la piel de un desarrollador que acaba de tener acceso a DX12 hace unos meses, y tiene que sacar el juego estas navidades. Te pondrías a portarlo todo a DX12 ? Y si llegan las navidades y aun estas en versión alpha ? Teniendo en cuenta que siguiendo con tu desarrollo inicial lo habrias acabado para navidades. Y si para cuando acabas de portarlo a DX12 sale DX13 ? Lo sacas, o alargas el desarrollo de nuevo ?

Detrás de los estudios de desarrollo hay inversores, que ponen unas fechas y demas, y no les puedes alargar esas fechas pq ha salido una API nueva, y vas a rehacer el juego.
Ya, y usar un chip de sonido es una inversión inasumible. O personalizar el control al mando de cada máquina. Cuando se habla de "vagos" es que a veces no tienen justificación, la verdad.
darksch escribió:Ya, y usar un chip de sonido es una inversión inasumible. O personalizar el control al mando de cada máquina. Cuando se habla de "vagos" es que a veces no tienen justificación, la verdad.

Si solo fuese por dinero, yo creo que lo harian. Pero si miras los lanzamientos recientes, ya salen con bastantes bugs, si se pusiesen a meter optimizaciones para hardware especifico, encima con technologias que no conocen, la cantidad de bugs ya se dispararía mucho.

Yo creo que es mas por miedo, que por dinero, pq en los AAA, no les supondría mucho incremento porcentual en el presupuesto meter unos DEVs extras para la ONE.
Es por inutilidad entonces si es como dices. Un par de líneas (en el control no digamos) no va a reventar el proyecto precisamente. Además lo del sonido es tan simple...juegos clásicos de PC daban la opción de 3 API de sonido a la vez. No me parece que sea para tanto.

Mira echa un vistazo:

http://pcgamingwiki.com/wiki/Baldur's_Gate_II:_Shadows_of_Amn#Audio_settings

Total a elegir: DirectSound (el que venía de serie), Aureal3D, EAX.

Y así todos los de la época prácticamente.
Que ya se que es posible ... la cosa es que si ya vas apurado para llegar a una deadline que se impuso antes de que supieses que eso iba a existir, pues es muy arriesgado meterse en cosas nuevas.

Tomarte un cafe lleva solo 5min, pero si ya llegas 5min tarde a una cita, si te paras a tomar una cafe de camino tardas 5 min mas. Y si resulta que pillas cola, pues 15min mas.
Bah excusas. Uno ya está un poco cansado de que toda responsabilidad siempre se delegue en la coyuntura cósmica. Antes se ponían soluciones no excusas. Supongo que es más fácil llegar a un acuerdo común de todos quejarse de lo mismo en lugar de aportar soluciones. Cuando esto se perpetúa una y otra vez en algo que nos cobran a entre 70 y 100 €, pues ya llega a cansar. Ni que nos hicieran descuento o regalaran.

Si añadir unas pocas líneas de código es algo que siempre se ha podido hacer, sin excusas que valieran, y ahora no, es que ahora no se hacen las cosas nada bien y punto. Sin más. Es algo que nunca ha roto nada.

Tan clara es la intencionalidad que, si fuera como dices por plazos, pues que se añadiera en un parche. ¿Se hace?, no. De hecho, extrapolando a lo anterior, no era ajeno que en PC no se incluyera algo y, en alguna versión posterior, se pusiera "añadido soporte para Aureal 3D".

Ahora tira más el cambiar de pestaña (a otra plataforma) y darle al F5 (compilar). Toma tus 70 pavos por ese trabajo concienzudo sobre tu plataforma.
A vueltas con HEVC...

Solo GCN tercera generación lo soporta, las iteraciones anteriores nada de nada.

El HEVC es un estándar creado con el streaming en la cabeza, sabemos que XBOX ONE va a hacer streaming a PC y sabemos que no han confirmado el streaming en el sentido contrario.

Será que necesitas un GCN tercera generación para hacerlo???

Si fuera así, habría muy poca gente que pudiera hacerlo y por lo tanto sería normal que no se anunciara como una feature de W10 a bombo y platillo.
Menteith escribió:
Kenwood escribió:"Directivo de AMD también confirma que Xbox One soportará DirectX 12"

El director de marketing técnico de AMD, ha confirmado en una entrevista que la GPU de Xbox One y las de núcleo Tonga y Hawaii soportarán las características principales de la API. En una entrevista a la web alemana Computerbase, Robert Hallock explica que las gráficas basadas en el diseño GCN (Graphics Core Next) soportarán Directx 12 y para ir más allá, las que soportarán los siguientes niveles de características de Directx 12, llamadas Feature level 12_0.

En concreto, ha expresado que todas las GPU de AMD con el diseño GCN, soportarán Directx 12, es decir, podrán trabajar con esa API, pero además, los diseños Tonga, Hawaii y la Xbox One, soportarán características de nivel 12_0. Respecto a los chipsets más antiguos como Bonaire, Tahiti y Pitcairn, no se ha pronunciado.

De momento solo Nvidia ha sido la única que ha podido confirmar que sus chipsets GM200 (Titan X), GM204 (GTX 970) y GM206 (GTX 960), son los que ya soportan las características de nivel 12_1 de Directx 12. Aunque Hallock dice que no debería de ser un problema que las tarjetas de AMD sólo soporten las Feature level 12_0, porque todas las características relevantes para los juegos se encuentran en los niveles 11_1 y 12_0 de la API. Además, la mayoría de los juegos se acercarán a los que las consolas usan y lo normal será el nivel 12_0.

En conclusión podemos decir que “de momento” se confirma el Tier 2 de Directx12 para Xbox One. No sabemos que lugar ocuparía su GPU entre las Volcanic Islands de Tonga (GCN 1.2) y las Sea Islands de Hawaii (GCN 1.1). Pero también hay que señalar que AMD aún no ha presentado ninguna gráfica con soporte 12_1, que se espera en sus próximas “Fiji” y APU´s Carrizo.

soloxboxone


Fin de la historia, se fabricó para que soportara DirectX 12, y lo dice un cargo de AMD.


Entonces quedamos en que no es "full DX12" o al final si lo es??


Si un cargo de AMD confirma que soporta DirectX 12, no entiendo la pregunta...soporta DirectX12, ahí lo explica, la consola salió en noviembre de 2013, y su GPU fue diseñada para que fuese compatible con DirectX 12, fin de la historia.
indigo_rs está baneado por "saltarse el ban con un clon"
Entonces lo de Full DX12 incoming era cierto. AMD despejó dudas.
indigo_rs escribió:Entonces lo de Full DX12 incoming era cierto. AMD despejó dudas.


No hay nada confirmado, solo una entrevista en la que el jefe de marketing de AMD dice que todas las GCN son 12_0 y no alcanza 12_1.

Un artículo que deja bastante que desear porque no todas son 12_0.

Un artículo al que se la ha dado el bombo que se le ha dado porque aparece la palabra XBOX y junto con la idea de features limitadas.

De otra forma no habría tenido ni la mitad de repercusión que ha tenido.
Kenwood escribió:
Menteith escribió:
Kenwood escribió:"Directivo de AMD también confirma que Xbox One soportará DirectX 12"

El director de marketing técnico de AMD, ha confirmado en una entrevista que la GPU de Xbox One y las de núcleo Tonga y Hawaii soportarán las características principales de la API. En una entrevista a la web alemana Computerbase, Robert Hallock explica que las gráficas basadas en el diseño GCN (Graphics Core Next) soportarán Directx 12 y para ir más allá, las que soportarán los siguientes niveles de características de Directx 12, llamadas Feature level 12_0.

En concreto, ha expresado que todas las GPU de AMD con el diseño GCN, soportarán Directx 12, es decir, podrán trabajar con esa API, pero además, los diseños Tonga, Hawaii y la Xbox One, soportarán características de nivel 12_0. Respecto a los chipsets más antiguos como Bonaire, Tahiti y Pitcairn, no se ha pronunciado.

De momento solo Nvidia ha sido la única que ha podido confirmar que sus chipsets GM200 (Titan X), GM204 (GTX 970) y GM206 (GTX 960), son los que ya soportan las características de nivel 12_1 de Directx 12. Aunque Hallock dice que no debería de ser un problema que las tarjetas de AMD sólo soporten las Feature level 12_0, porque todas las características relevantes para los juegos se encuentran en los niveles 11_1 y 12_0 de la API. Además, la mayoría de los juegos se acercarán a los que las consolas usan y lo normal será el nivel 12_0.

En conclusión podemos decir que “de momento” se confirma el Tier 2 de Directx12 para Xbox One. No sabemos que lugar ocuparía su GPU entre las Volcanic Islands de Tonga (GCN 1.2) y las Sea Islands de Hawaii (GCN 1.1). Pero también hay que señalar que AMD aún no ha presentado ninguna gráfica con soporte 12_1, que se espera en sus próximas “Fiji” y APU´s Carrizo.

soloxboxone


Fin de la historia, se fabricó para que soportara DirectX 12, y lo dice un cargo de AMD.


Entonces quedamos en que no es "full DX12" o al final si lo es??


Si un cargo de AMD confirma que soporta DirectX 12, no entiendo la pregunta...soporta DirectX12, ahí lo explica, la consola salió en noviembre de 2013, y su GPU fue diseñada para que fuese compatible con DirectX 12, fin de la historia.

Claro,es directx12 como cualquier gpu GCN de aquel momento,la cosa esta en que no hacen falta las 2000 milongas customizadas que tienen one para serlo,si microsoft las puso indudablemente es por algo,pero no para que fuese compatible con directx12

El incoming de spencer me imagino que sera por las features que no soporta de forma nativa por hardware,como las maxwell de nvidia,las soporte por software
indigo_rs está baneado por "saltarse el ban con un clon"
Pero por software no se alcanza el mismo rendimiento que por hardware. Creo que las que obtendrán más rendimiento al pasar a DX12 serán las Maxwell de PC.
indigo_rs escribió:Pero por software no se alcanza el mismo rendimiento que por hardware. Creo que las que obtendrán más rendimiento al pasar a DX12 serán las Maxwell de PC.


Logicamente no es lo mismo,ninguna gpu amd tiene el rasterizador para el voxels por hardware con lo que se quedan en dx12.0,solo las ultimas nvidia lo tienen,por eso son las unicas con soporte dx12.1

Yo viendo las ultimas gpu de pc que se estan presentando lo unico que saco en claro es que toda la parte custom que tiene one esta por algun motivo(ddr3,esram,move engines,doble contexto...) y cuando acabe de funcionar como deve seguro que mejora el rendimiento,pero todo eso NO es necesario para que la consola sea comparble con dx12 y hay esta carrizo o maxell para demostrarlo
indigo_rs está baneado por "saltarse el ban con un clon"
Entonces con las nuevas Nvidia si que es viable obtener mejoras de hasta un 100% en PC. Los afortunados jugadores de PC con esas gráficas deben estar contentos.
No se si habeis pasado por alto esto o no se...

" porque todas las características relevantes para los juegos se encuentran en los niveles 11_1 y 12_0 de la API. Además, la mayoría de los juegos se acercarán a los que las consolas usan y lo normal será el nivel 12_0."


La consola estaba preparada por Hardware para soportar DirectX12.

De todas formas, los "anti" ahora dirán que si 12.1, que si no es full....jajajaja

Ya lo veo de venir.

Supongo que más adelante saldrán más datos a ver donde se posiciona realmente esto, y que ya por fin veamos la ONE moviendo un juego en DirectX 12
Kenwood escribió:No se si habeis pasado por alto esto o no se...

" porque todas las características relevantes para los juegos se encuentran en los niveles 11_1 y 12_0 de la API. Además, la mayoría de los juegos se acercarán a los que las consolas usan y lo normal será el nivel 12_0."


La consola estaba preparada por Hardware para soportar DirectX12.

De todas formas, los "anti" ahora dirán que si 12.1, que si no es full....jajajaja

Ya lo veo de venir.

Si tienes razon,one es compatible con dx12,pero lo mismo que cualquier Gpu GCN de esa epoca,no hay nada especial en ello

Lo de amd tambien tiene razon en parte,si hay una caracteristica que no es aplicable en consola,cuantos recursos invertiras en ella para que solo la aprobechen las ultimas targetas dx12.1 de pc?
Voy a exponer lo mismo que puse en otro foro...

Normal que Maxwell si lo soporte si salieron 1 año después de las 290X. De que nos extrañamos? Soy el único que se acuerda que Amd dijo que el Gcn actual iba a ser compatible de forma "casi" total?. Pues están al mismo nivel que las Nvidia solo que Amd aun no las ha sacado a la venta. Importa? No, no tenemos ni siquiera Windows 10...como para hablar de juegos... y menos, juegos que aprovechen el 100% de la api.

Que catastrofismos y que formas de tergiversar las palabras. Nvidia no soporta ni Kepler ni Fermi y no pasa nada. Amd lo mismo y alarma nacional...
hace tiempo Phil Spencer comentó algo de ray tracing en tiempo real en xbox one, igual se refiere a la nube, pero si eso de dx12_1 es para manejo de voxels, no podría xbox one llevar algo similar? Xbox 360 lleva una unidad teseladora...
ElOtroDespistao escribió:hace tiempo Phil Spencer comentó algo debra tracing en tiempo real en xbox one, igual se refiere a la nube, pero si eso de dx12_1 es para manejo de voxels, no podría xbox one llevar algo similar? Xbox 360 lleva una unidad teseladora...


La gpu ésta tiene 2 unidades de teselado, que ni que decir tiene, es muy superior a la 360.
Esas "milongas" como algunos las llaman son ni mas ni menos que para ejecutar la maquina DX12 de forma mas eficiente que la implementación estándar de AMD. Pues el hardware se diseñó para ejecutar esa maquina explícitamente, y no como maquina genérica en la cual entra DX12.

Claro ejemplo es el sustituir los ACE (algo genérico) por las unidades de procesamiento especifico de los 3 tipos de cola de DX12. Sustituimos unidades tipo microprogramadas por unidades cableadas, mas eficientes.
djohny24 escribió:
ElOtroDespistao escribió:hace tiempo Phil Spencer comentó algo debra tracing en tiempo real en xbox one, igual se refiere a la nube, pero si eso de dx12_1 es para manejo de voxels, no podría xbox one llevar algo similar? Xbox 360 lleva una unidad teseladora...


La gpu ésta tiene 2 unidades de teselado, que ni que decir tiene, es muy superior a la 360.


me refiero a que xbox 360 lleva unidad de teselado, cosa que se impuso hasta dx11.
Hombre es su api y ellos ya sabrían que iba a llevar Dx11. De la misma forma que estoy seguro de que sacan la tecnología a cuenta gotas para sacar beneficios. Vamos que Dx11 podría haber sido 9 pero ya no tendrían excusa para vender.

De la misma forma que creo que la gpu de One es como Ms ha querido sabiendo la necesidad de su api y como la quiere manipular.
en el caso de los anteriores DX variaba la versión y capacidad de los shader model no? se podían agregar features a sub-versiones, pero cambiaba de versión mayor con nueva versión de SM, igual estoy mal xD

chau!
ElOtroDespistao escribió:hace tiempo Phil Spencer comentó algo de ray tracing en tiempo real en xbox one, igual se refiere a la nube, pero si eso de dx12_1 es para manejo de voxels, no podría xbox one llevar algo similar? Xbox 360 lleva una unidad teseladora...


Imagen


Ray tracing en DX12 mostrado en el GDC de este año:

Imagen

Para quien no viera la GDC les dire que literalmente dijeron que era una demo antigua de XBOX.

Visita de los chicos de engadget al laboratorio de silicio de XBOX ONE en mayo 2013.

Imagen

[fumando]
Gracias por el aporte no lo conocía :)

Lo que parece más o menos claro, para mi, de forma acertada o no, es lo siguiente:

Para el desarrollo de la gpu se cogió como base Bonaire, por su número de shaders y tamaño en mm2 parecía la más acorde, y le han implantado todo aquello que va a ser relevante en los próximos 5 años (pensando en 2013 como fin de desarrollo), que son: Contexto gráfico, Apis de bajo nivel y paralelismo, cómputo en la nube, procesador de audio independiente, unificación de todos los sistemas operativos a uno, memoria con coherencia adaptada a la consola, gpu adaptada a Dx12...

Menos potente? Puede ser, si nos referimos estríctamente a gigaflops, pero más versatilidad puede tener.
ElOtroDespistao escribió:en el caso de los anteriores DX variaba la versión y capacidad de los shader model no? se podían agregar features a sub-versiones, pero cambiaba de versión mayor con nueva versión de SM, igual estoy mal xD

chau!

Por suerte con la situación actual de computación grafica eso ya no es así. Antes tampoco lo era, y un DX8 con respecto a un DX7 compartia bastante, al ir por funcion fija.

Eso fue un periodo muy oscuro de la tecnología, el pasar de una versión a otra suponiendo que la anterior ya puedes tirarla a la basura completamente. Fue el periodo entre versiones de DX9 (que cada letra tocaba tirar a la basura tu grafica) y DX10. Cada SM era totalmente distinto al anterior. Para mi que esto es la razón de que todos salieran espantados del PC como plataforma para jugar.

Ahora nuevamente entre versiones se vuelve a compartir bastantes aspectos.
es que también era una época en que había muchisimo mas avance que ahora, no solo en potencia:

DX7: tansformación e iluminación por hardware (antes se hacía po CPU)
DX8: Shaders programables (antes eran "fijos")
DX9: Shaders mas potentes y en lenguaje C (antes eran en ensamblador y limitados)
DX10: Shaders mas potentes y con mas opciones de programación
DX11: Shaders mas potentes (y la teselación)
DX12: (...)

de DX7 a DX10 es donde hubo mas avances
Claro, estamos acercándonos al zenit de la tecnología.


Edito:

http://www.amd.com/en-us/press-releases ... mar20.aspx

AMD Demonstrates Full Support for New DirectX 12 at Game Developer Conference

Por tanto...
djohny24 escribió:Hombre es su api y ellos ya sabrían que iba a llevar Dx11. De la misma forma que estoy seguro de que sacan la tecnología a cuenta gotas para sacar beneficios. Vamos que Dx11 podría haber sido 9 pero ya no tendrían excusa para vender.

De la misma forma que creo que la gpu de One es como Ms ha querido sabiendo la necesidad de su api y como la quiere manipular.


XBO es capaz de "cambiar" gracias a la virtualización. Puede por ejemplo, reescribir por completo su gestor de memoria paa la gpu y cpu y que el sistema y los juegos sigan funcionado. Quien sabe si incluso puede mutar a dx12 full.


Share this:
We can do things like update the operating system on the system side of things while retaining very good compatibility with the portion running on the titles, so we're not breaking back-compat with titles because titles have their own entire operating system that ships with the game. Conversely it also allows us to innovate to a great extent on the title side as well. With the architecture, from SDK to SDK release as an example we can completely rewrite our operating system memory manager for both the CPU and the GPU, which is not something you can do without virtualisation. It drove a number of key areas... Nick talked about the page tables. Some of the new things we have done - the GPU does have two layers of page tables for virtualisation. I think this is actually the first big consumer application of a GPU that's running virtualised. We wanted virtualisation to have that isolation, that performance. But we could not go and impact performance on the title.

We constructed virtualisation in such a way that it doesn't have any overhead cost for graphics other than for interrupts. We've contrived to do everything we can to avoid interrupts... We only do two per frame. We had to make significant changes in the hardware and the software to accomplish this. We have hardware overlays where we give two layers to the title and one layer to the system and the title can render completely asynchronously and have them presented completely asynchronously to what's going on system-side.


http://www.eurogamer.net/articles/digitalfoundry-the-complete-xbox-one-interview

De heco ya lo dijo Boyd, el had de xbo está hecho para cambiar. Ese fue el objetivo principal del desarrollo de la consola.

Cando salió el titanfall acabaron trastocando los filtros de la imagen que acaba la propia consola. Eso solo se puede hacer si es microconfigurable de alguna manera.
eloskuro escribió:
djohny24 escribió:Hombre es su api y ellos ya sabrían que iba a llevar Dx11. De la misma forma que estoy seguro de que sacan la tecnología a cuenta gotas para sacar beneficios. Vamos que Dx11 podría haber sido 9 pero ya no tendrían excusa para vender.

De la misma forma que creo que la gpu de One es como Ms ha querido sabiendo la necesidad de su api y como la quiere manipular.


XBO es capaz de "cambiar" gracias a la virtualización. Puede por ejemplo, reescribir por completo su gestor de memoria paa la gpu y cpu y que el sistema y los juegos sigan funcionado. Quien sabe si incluso puede mutar a dx12 full.


Share this:
We can do things like update the operating system on the system side of things while retaining very good compatibility with the portion running on the titles, so we're not breaking back-compat with titles because titles have their own entire operating system that ships with the game. Conversely it also allows us to innovate to a great extent on the title side as well. With the architecture, from SDK to SDK release as an example we can completely rewrite our operating system memory manager for both the CPU and the GPU, which is not something you can do without virtualisation. It drove a number of key areas... Nick talked about the page tables. Some of the new things we have done - the GPU does have two layers of page tables for virtualisation. I think this is actually the first big consumer application of a GPU that's running virtualised. We wanted virtualisation to have that isolation, that performance. But we could not go and impact performance on the title.

We constructed virtualisation in such a way that it doesn't have any overhead cost for graphics other than for interrupts. We've contrived to do everything we can to avoid interrupts... We only do two per frame. We had to make significant changes in the hardware and the software to accomplish this. We have hardware overlays where we give two layers to the title and one layer to the system and the title can render completely asynchronously and have them presented completely asynchronously to what's going on system-side.


http://www.eurogamer.net/articles/digitalfoundry-the-complete-xbox-one-interview

De heco ya lo dijo Boyd, el had de xbo está hecho para cambiar. Ese fue el objetivo principal del desarrollo de la consola.

Cando salió el titanfall acabaron trastocando los filtros de la imagen que acaba la propia consola. Eso solo se puede hacer si es microconfigurable de alguna manera.


Ostias, la One muta, alucina XD.

Creo que os estáis flipando demasiado, me parece que la One es una máquina muy equilibrada, y 100% compatible con DX12, pero ya decir que puede cambiar, hablando de hardware, creo que es fliparse mucho, actualmente no hay ningún hard conocido que pueda mejorar físicamente.

Pero bueno, en 10 días saldremos de dudas, si Microsoft en la One tiene algo revolucionario de verdad, se sacara la polla y se la pasará por la cara a toda la competencia, si no, es que no hay secret sauce ni nada, más que un mejor aprovechamiento de lo que tiene y buenos gráficos. A mi con que anuncien buenos juegos, me vale.

Lo único que si creo que sería posible, es que preparen un bombazo con el tema nube, a ver que pasa.
"With the architecture, from SDK to SDK release as an example we can completely rewrite our operating system memory manager for both the CPU and the GPU, which is not something you can do without virtualisation. It drove a number of key areas... Nick talked about the page tables. Some of the new things we have done - the GPU does have two layers of page tables for virtualisation. I think this is actually the first big consumer application of a GPU that's running virtualised. We wanted virtualisation to have that isolation, that performance. But we could not go and impact performance on the title."

yo lo que entiendo con eso es que se refiere al sistema operativo que maneja los recursos para los otros dos sistemas operativos (el del juego y el del dashboard/apps), ya que todo es virtualizado, pueden hacer esos cambios en el hipervisor y no afectaría, en teoría, a los juegos que han salido antes de esos cambios.
:) No hablo de mutar en extremo. Hablo de ciertas areas
@ElOtroDespistao a mí me parece más una época de como sacarle la pasta a los usuarios [carcajad]
Por cada chorradita nueva que se te ocurra no es excusa para sacarla y hacer borrón y cuenta nueva. Mejor te esperas a acumular suficiente antes de sacar algo nuevo que rompa la compatibilidad. Pero es que lo de los SM fue...horroroso...a mí me echaron totalmente del PC vamos.

Con 3Dfx eso no pasaba, lo que la echamos de menos cuando se fue.
darksch escribió:@ElOtroDespistao a mí me parece más una época de como sacarle la pasta a los usuarios [carcajad]
Por cada chorradita nueva que se te ocurra no es excusa para sacarla y hacer borrón y cuenta nueva. Mejor te esperas a acumular suficiente antes de sacar algo nuevo que rompa la compatibilidad. Pero es que lo de los SM fue...horroroso...a mí me echaron totalmente del PC vamos.

Con 3Dfx eso no pasaba, lo que la echamos de menos cuando se fue.



En cierto modo fue una "jodienda" hablando mal para quien no tenía una, ala, sin glide no se ve así de bien o directamente no funciona, y los demás, que se j.... Ahora "principalmente" solo cambian los fps en función al nivel de detalle. Creo que es más asequible como están ahora las cosas.

Lo que comentas de Shader Model, totalmente de acuerdo.
supremegaara escribió:
ElOtroDespistao escribió:¿dijo CDPR que TW3 no es lo que anunciaron por culpa de las consolas? pero que no acaban de decir hace poco que no hubo downgrade?

y One tiene bastantes juegos que merecen la pena, no veo de donde sale ese comentario de "esperar ppr juegos por losbque valga la pena la One".

chau!


Te animo a que entres en portada de vez en cuando

noticia_cd-projekt-red-responde-a-la-polemica-por-el-bajon-grafico-en-the-witcher-3_26464

“Sin las consolas The Witcher 3 no sería lo que es”


“Si desarrollamos solo para PC, sí, posiblemente hubiéramos conseguido algo más [en términos gráficos] porque sería lo único que tendríamos que hacer, todo el mundo estaría centrado en esa versión. Pero no es algo que nos podamos permitir”


CDPR asume el downgrade y asume que es por las limitaciones en consola. ni más ni menos.

No, ni mucho menos, lo que pone ahi, de manera explicita y ya en castellano, es que si solo hacen una version en vez de 3, esa una habria salido algo mejor por tener a todo el equipo en ella.

Y ahora que lo veo a la primera frase tambien intentas darle la vuelta, cuando se refieren a que gracias a las consolas puedan hacer el juego como es.
NeCLaRT escribió:
supremegaara escribió:
ElOtroDespistao escribió:¿dijo CDPR que TW3 no es lo que anunciaron por culpa de las consolas? pero que no acaban de decir hace poco que no hubo downgrade?

y One tiene bastantes juegos que merecen la pena, no veo de donde sale ese comentario de "esperar ppr juegos por losbque valga la pena la One".

chau!


Te animo a que entres en portada de vez en cuando

noticia_cd-projekt-red-responde-a-la-polemica-por-el-bajon-grafico-en-the-witcher-3_26464

“Sin las consolas The Witcher 3 no sería lo que es”


“Si desarrollamos solo para PC, sí, posiblemente hubiéramos conseguido algo más [en términos gráficos] porque sería lo único que tendríamos que hacer, todo el mundo estaría centrado en esa versión. Pero no es algo que nos podamos permitir”


CDPR asume el downgrade y asume que es por las limitaciones en consola. ni más ni menos.

No, ni mucho menos, lo que pone ahi, de manera explicita y ya en castellano, es que si solo hacen una version en vez de 3, esa una habria salido algo mejor por tener a todo el equipo en ella.

Y ahora que lo veo a la primera frase tambien intentas darle la vuelta, cuando se refieren a que gracias a las consolas puedan hacer el juego como es.


Esto no interesa decirlo claro:

The billowing smoke and roaring fire from the trailer? "It's a global system and it will kill PC because transparencies - without DirectX 12 it does't work good in every game." So he killed it for the greater good, and he focused on making sure the 5000 doors in Novigrad worked instead.



CD Projekt tackles The Witcher 3 downgrade issue head on
http://www.eurogamer.net/articles/2015-05-19-cd-projekt-red-tackles-the-witcher-3-graphics-downgrade-issue-head-on
Las empresas de informacion general solo se han preocupado de alabar las supuestas virtudes y la supuesta superioridad de ps4, ni mas ni menos, han tenido que ser los supuestos magufos los que nos cuenten la verdad, eso no dice mucho de ciertos medios que o no han querido o no han sabido contarnos la verdad tecnica de one
indigo_rs está baneado por "saltarse el ban con un clon"
Ahí pone que sin DX12 no funciona bien en ningún juego, por lo que traerá mejoras importantes, será un nuevo salto gráfico :)
y para colmo:

""Developing only for the PC: yes, probably we could get more [in terms of graphics] as there would be nothing else - they would be so focused, like if we would develop only on Xbox One or PlayStation 4. But then we cannot afford such a game."

dicen que si, si hubiese sido exclusivo de PC probablemente hubiese tenido una mejora gráfica, pero dice que lo mismo hubiese pasado si fuese exclusivo de Xbox One o de PS4.

así que, no recuedo quien fue el que puso la noticia de eol, pero no, el famoso "downgrade" (que ahí aclaran que no lo hay) en si no fue porque las consolas fuesen menos potentes
cch37 escribió:Las empresas de informacion general solo se han preocupado de alabar las supuestas virtudes y la supuesta superioridad de ps4, ni mas ni menos, han tenido que ser los supuestos magufos los que nos cuenten la verdad, eso no dice mucho de ciertos medios que o no han querido o no han sabido contarnos la verdad tecnica de one


Es mas facil decir "tal juego va a la misma resolucion pero mas fps", o "igual de estable pero con mas resolucion", etc, que meterte en si la foto del die se ve unas conexiones mas, o si en tal presentacion se hablo de esto o de lo otro. A los que les interesa el tema tecnico (la mayoria aqui) le interesa lo segundo independientemente de que una consola sea mas potente que la otra. A la inmensa mayoria le interesa si el juego se ve mejor en una u otra consola (para flamear a los usuarios de la otra consola, para autoconvencerse de que ha hecho una buena compra o para decidir en cual comprar el juego si tienes la suerte de tener ambas).

Un saludo!
17587 respuestas