Hablemos del interior de Xbox One

darksch escribió:Es que ahorrar ancho de banda es una gran mejora. Al final en los sistemas consumir el ancho de banda es lo que te provoca los tapones a nivel global.

El ancho de banda es el primer cuello de botella que se encuentran en PS4 y ONE, por eso la mierda de anisotrópico que se gastan en consolas.
darksch escribió:Es que ahorrar ancho de banda es una gran mejora. Al final en los sistemas consumir el ancho de banda es lo que te provoca los tapones a nivel global.


Se refieren esto:

Imagen

El caso es que que solo podría usar ONE si fuera Tier 3 para tiled resources y de momento todas las AMD son Tier 2. No hay información de que en ONE sea diferente.
papatuelo escribió:
darksch escribió:Es que ahorrar ancho de banda es una gran mejora. Al final en los sistemas consumir el ancho de banda es lo que te provoca los tapones a nivel global.


Se refieren esto:

Imagen

El caso es que que solo podría usar ONE si fuera Tier 3 para tiled resources y de momento todas las AMD son Tier 2. No hay información de que en ONE sea diferente.



Tienes un documento oficial q pone q Xbox One es Dx12.1 al igual q Maxwell.
Por otro lado manda cojones q hayan presentado la tecnología hace tiempo y sea a partir de ahora cuando se empiece a implementar en los motores. Vamos lentos, muy lentos....
Szasz escribió:
papatuelo escribió:
darksch escribió:Es que ahorrar ancho de banda es una gran mejora. Al final en los sistemas consumir el ancho de banda es lo que te provoca los tapones a nivel global.


Se refieren esto:

Imagen

El caso es que que solo podría usar ONE si fuera Tier 3 para tiled resources y de momento todas las AMD son Tier 2. No hay información de que en ONE sea diferente.



Tienes un documento oficial q pone q Xbox One es Dx12.1 al igual q Maxwell.
Por otro lado manda cojones q hayan presentado la tecnología hace tiempo y sea a partir de ahora cuando se empiece a implementar en los motores. Vamos lentos, muy lentos....


Son cosas diferentes.
Szasz escribió:Por otro lado manda cojones q hayan presentado la tecnología hace tiempo y sea a partir de ahora cuando se empiece a implementar en los motores. Vamos lentos, muy lentos....

Si se lo hubieses financiado tú, seguro que lo hubiesen hecho nada mas salir, pero cuando tienes que ganar dinero, miras a ver que diferentes cosas puedes hacer, y priorizas las que crees que te van a resultar mas rentables.

Hay que ser optimista y ver el lado bueno, el futuro, lo estan empezando a usar a saco !!!!


Muy interesante, "you are the driver" ... DX12 a pelo para estudios pequeños no parece viable, pero no creo que sea problema si los motores dan buen soporte.

De hecho eso explica pq en PC con DX12 en algunos equipos da peor rendimiento:
http://www.computerbase.de/2016-03/rise-of-the-tomb-raider-directx-12-benchmark/2/#abschnitt_grafikkartenbenchmarks_von_full_hd_bis_ultra_hd
cercata escribió:
Szasz escribió:Por otro lado manda cojones q hayan presentado la tecnología hace tiempo y sea a partir de ahora cuando se empiece a implementar en los motores. Vamos lentos, muy lentos....

Si se lo hubieses financiado tú, seguro que lo hubiesen hecho nada mas salir, pero cuando tienes que ganar dinero, miras a ver que diferentes cosas puedes hacer, y priorizas las que crees que te van a resultar mas rentables.

Hay que ser optimista y ver el lado bueno, el futuro, lo estan empezando a usar a saco !!!!


Muy interesante, "you are the driver" ... DX12 a pelo para estudios pequeños no parece viable, pero no creo que sea problema si los motores dan buen soporte.

De hecho eso explica pq en PC con DX12 en algunos equipos da peor rendimiento:
http://www.computerbase.de/2016-03/rise-of-the-tomb-raider-directx-12-benchmark/2/#abschnitt_grafikkartenbenchmarks_von_full_hd_bis_ultra_hd


Hombre. eso ya quedaba implícito con lo de que DX12 sea una API a bajo nivel. Si quieres ir a bajo nivel tienes que ser un maquina y hacerlo bien o ser una empresa fuerte y pagar a peña capacitada para ello.

Esto ya deja por tierra las palabras de muchos haters de que DX12 es DX11 con funciones de más [bye]
eloskuro escribió:Hombre. eso ya quedaba implícito con lo de que DX12 sea una API a bajo nivel. Si quieres ir a bajo nivel tienes que ser un maquina y hacerlo bien o ser una empresa fuerte y pagar a peña capacitada para ello.

Pues yo no lo tenía tan claro ...

No se, podía haber sido algo con 2 capas, tipo las consolas de "antaño".

Pero parece que han decidido meter sólo la capa de abajo, y la capa de arriba ya la pondran Unreal, Unity, o el estudio que se atreva a ir ellos directamente con DX12.
DX11 se mantiene como API sencilla. Es la que recomiendan a desarrolladores indie.
darksch escribió:DX11 se mantiene como API sencilla. Es la que recomiendan a desarrolladores indie.

Y se pueden combinar ambas ?
cercata escribió:
darksch escribió:DX11 se mantiene como API sencilla. Es la que recomiendan a desarrolladores indie.

Y se pueden combinar ambas ?

No.
Si buscais entre los mensajes de poly en este hilo, encontrareis justo ese comentario hara como un año o mas: quien tenga recursos y ganas de ir a low tirara de dx12 y el resto se quedaran en dx11 xD
Zokormazo escribió:Si buscais entre los mensajes de poly en este hilo, encontrareis justo ese comentario hara como un año o mas: quien tenga recursos y ganas de ir a low tirara de dx12 y el resto se quedaran en dx11 xD


También encontrarás q Dx12 y W10 no llegarán a One. Q ya dispone de una API low xD.

P.D: Creo q tú tmb lo decías xD
P.D.2: Se confirma q para One usaban una API Dx11 "vitaminada".
Szasz escribió:P.D: Creo q tú tmb lo decías xD


Cuando? En fin, a ratos leeis y entendeis lo que os apetece y no creo que sea problema de compresion lectora.

Me referia a que eso que estais hablando ahora ya se hablo en su dia cuando se supo que dx12 era mucho mas cercano al metal y con menos mierda en la API, si fue poly o juanito es lo de menos xD

Que a algunos les vendria bien y sacarian su jugo y para otros supondria una regresion por tener que lidiar con aspectos que antes los hacia la api y por lo tanto para algunos grupos iba a ser mejor pasar de usar dx12 directamente. En algun lugar del hilo esta xD

Dejavu
Sí y yo hace poco lo dije tmb. Q no todos tirarían de Dx12. Ahora bien, grandes estudios todos. Y no es poco. A medida q hagan uso de más y más técnicas next gen, computación asincrona, etc.....quien decida pasar de currar se va a quedar atras.

Tmb dije q quien siguiera pensando q One es una 7790 con DDR3 iba a tener muy difícil explicar el rendimiento de One en juegos como QB. Y para esto ya queda poco para averiguarlo y eso q es un juego tmb Dx12 para PC, q se supone q era el gran beneficiado.
Pero los desarrollos pequeños van a ser casi todos bajo Engines licenciados del estilo Ue4, Unity etc... Y esta clase de engines van a tener el DX12 integrado. Obviamente no le sacarán el rendimiento que un estudio que meta mano hasta el fondo, pero deberían de tener mejores rendimientos que en Dx11
cercata escribió:ALUCINA: :O :O

"Star Wars: Battlefront was the first DirectX 12 title on Xbox One"

http://www.dualshockers.com/2016/03/16/microsoft-shares-its-vision-for-the-future-of-windows-and-xbox-one-development-directx-12-and-more/


Eso es imposible xq directx12 es la API de XBOX one desde el principio, ademas de q XBOX no oba a recibir dx12 xq eso era Una api de PC y no de consola y bla bla bla.
papatuelo escribió:
cercata escribió:ALUCINA: :O :O

"Star Wars: Battlefront was the first DirectX 12 title on Xbox One"

http://www.dualshockers.com/2016/03/16/microsoft-shares-its-vision-for-the-future-of-windows-and-xbox-one-development-directx-12-and-more/


Eso es imposible xq directx12 es la API de XBOX one desde el principio, ademas de q XBOX no oba a recibir dx12 xq eso era Una api de PC y no de consola y bla bla bla.


Ya ves, pero eso si, Vulkan si que era valida desde el primer día. [carcajad]

Bueno, pues ya tenemos la primera prueba real de como puede mejorar ONE con DX12 al portear de DX11.

Siguiente prueba, juegos DX12 nativos.
Horizonte de sucesos escribió:
papatuelo escribió:
cercata escribió:ALUCINA: :O :O

"Star Wars: Battlefront was the first DirectX 12 title on Xbox One"

http://www.dualshockers.com/2016/03/16/microsoft-shares-its-vision-for-the-future-of-windows-and-xbox-one-development-directx-12-and-more/


Eso es imposible xq directx12 es la API de XBOX one desde el principio, ademas de q XBOX no oba a recibir dx12 xq eso era Una api de PC y no de consola y bla bla bla.


Ya ves, pero eso si, Vulkan si que era valida desde el primer día. [carcajad]

Bueno, pues ya tenemos la primera prueba real de como puede mejorar ONE con DX12 al portear de DX11.

Siguiente prueba, juegos DX12 nativos.


Yo ya lo dije, creo que TOMb Raider en ONE es DX12 y de ahí el rendimiento tan bueno que tiene.

Ya se dijo, primero vendrían los ports de DX11 con motores antiguos y progresivamente se iran mejorando las condiciones hasta que lleguen desarrollos full DX12 en nuevos motores. Pero en definitiva, ya está claro que DX12 sí que venía a ONE y que DX12 no era la API que ONE usaba. Q siga la rueda dando vueltas.

Visteis la conferencia de AMD???

Sabéis xq se llamaba capsacicina???

Al principio fue un poco extraño, empezaron a explicar que cuando bebes alcohol de pones de puta madre, pero que si te pasas la cagas y que si no llegas te aburres. Así, yo con los ojos como platos diciendo que mierda están contando.

El tio de AMD dijo yo cuando era joven tenía poco dinero así que me tenía que pillar el puntillos rapido, evidentemente seguía con los ojos como platos. Continuo diciendo que estonces descubrió que si lo combinaba con chiles (la capsaicina es el componente picante de los chiles) se podía mamar más rapido.

Cuando ya lo tradujo a terminos técnológicos lo que dijo fue que los engines gráficos tienem que actualizarse para apoyar los nuevos avances que estaban viniendo xq de lo contrario si no colaboraban iban anecesitar gráficas un millon de veces más potentes para llegar donde quieren llegar.
Entonces Battlefront utilizaba DX12?
Cyborg_Ninja escribió:Entonces Battlefront utilizaba DX12?


Parece q si. Port a Dx12.
Otra cosa es la optimización, q ya esta comprobado q depende de como lo hagas puede ir hasta peor.
Si q hay una mejora respecto a B4 en términos de rendimiento, pero para mí el resultado obtenido es bastante pobre. Espero q les haya servido de toma de contacto.

Por otro lado parece q el rendimiento más importante va a venir por UWP. Ya han dicho q Tomb lo es y estoy seguro q QB tmb.
Szasz escribió:
Cyborg_Ninja escribió:Entonces Battlefront utilizaba DX12?


Parece q si. Port a Dx12.
Otra cosa es la optimización, q ya esta comprobado q depende de como lo hagas puede ir hasta peor.
Si q hay una mejora respecto a B4 en términos de rendimiento, pero para mí el resultado obtenido es bastante pobre. Espero q les haya servido de toma de contacto.

Por otro lado parece q el rendimiento más importante va a venir por UWP. Ya han dicho q Tomb lo es y estoy seguro q QB tmb.


Pero pobre ehh, porque a 720p y con bajadas de frame... Aquí algo no cuadra...
Ahí dice que es el primero juego DX12, pero no se sabe si ya está implementado o está de testeo en el estudio interno.
Guillermo GT3 escribió:
Szasz escribió:
Cyborg_Ninja escribió:Entonces Battlefront utilizaba DX12?


Parece q si. Port a Dx12.
Otra cosa es la optimización, q ya esta comprobado q depende de como lo hagas puede ir hasta peor.
Si q hay una mejora respecto a B4 en términos de rendimiento, pero para mí el resultado obtenido es bastante pobre. Espero q les haya servido de toma de contacto.

Por otro lado parece q el rendimiento más importante va a venir por UWP. Ya han dicho q Tomb lo es y estoy seguro q QB tmb.


Pero pobre ehh, porque a 720p y con bajadas de frame... Aquí algo no cuadra...
Ahí dice que es el primero juego DX12, pero no se sabe si ya está implementado o está de testeo en el estudio interno.


Ya sería de coña que sacaran una actualización del juego para que tirase de puta madre el juego con DX12.
Vaya porquería entonces.... SWB es dx12 y aún así va bastante peor que en PS4... [noop]
La verdad yo no noto mejora respecto al BF4 al comparar relativamente versiones. Seguramente lo único que hicieron de DX12 fue portear código del motor desde DX11 sin mucho lío y sin buscar paralelismos ni nada. Como en DX12 tú eres el driver, si no lo haces bien pues no sacas mejora ninguna.

Otros ejemplos sí son mejores, como RoTR o el QB.
darksch escribió:La verdad yo no noto mejora respecto al BF4 al comparar relativamente versiones. Seguramente lo único que hicieron de DX12 fue portear código del motor desde DX11 sin mucho lío y sin buscar paralelismos ni nada. Como en DX12 tú eres el driver, si no lo haces bien pues no sacas mejora ninguna.

Otros ejemplos sí son mejores, como RoTR o el QB.


Más claro agua.

Además, perdonad mi ignorancia si me equivoco, pero no se supone que hasta el update gordo de Noviembre no había DX12 disponible del todo?? La beta del SWB salió antes de eso, y no hubo cambios después creo yo.
GPU OPEN va a tener plug in para DX12(segundo 2:36)

https://www.youtube.com/watch?v=H0yrzjEReX8






Que me podeis contar de esto?

HDR

•Support for High Dynamic Range and Wide Color Gamut will be implemented, allowing for an improvement in detail “arguably more impactful than raw resilution itself.” If a game uses phisically based rendering, high dynamic range support can be added with a “very minimal engineering cost.” That’s because PBR already generates most of the data necessary for HDR.
•A developer preview of HDR support for Windows 10 will be available later this year.

Imagen

Y luego esto:

•A new and improved shader compiler and Shader Model 6 are coming.
•Performance monitoring tools that are now available for Xbox will be made available for PC
eloskuro escribió:GPU OPEN va a tener plug in para DX12(segundo 2:36)

https://www.youtube.com/watch?v=H0yrzjEReX8






Que me podeis contar de esto?

HDR

•Support for High Dynamic Range and Wide Color Gamut will be implemented, allowing for an improvement in detail “arguably more impactful than raw resilution itself.” If a game uses phisically based rendering, high dynamic range support can be added with a “very minimal engineering cost.” That’s because PBR already generates most of the data necessary for HDR.
•A developer preview of HDR support for Windows 10 will be available later this year.

Imagen

Y luego esto:

•A new and improved shader compiler and Shader Model 6 are coming.
•Performance monitoring tools that are now available for Xbox will be made available for PC


Lo que habría que saber es si el HDR se viene para ONE xq eso mejora mucho la imagen.

El performance monitor es el PIX.

Y por último por esto decía que lo del tio del Epic es una pataleta xq quiere usar herramientas como esas pero by de face.
papatuelo escribió:
eloskuro escribió:GPU OPEN va a tener plug in para DX12(segundo 2:36)

https://www.youtube.com/watch?v=H0yrzjEReX8






Que me podeis contar de esto?

HDR

•Support for High Dynamic Range and Wide Color Gamut will be implemented, allowing for an improvement in detail “arguably more impactful than raw resilution itself.” If a game uses phisically based rendering, high dynamic range support can be added with a “very minimal engineering cost.” That’s because PBR already generates most of the data necessary for HDR.
•A developer preview of HDR support for Windows 10 will be available later this year.

Imagen

Y luego esto:

•A new and improved shader compiler and Shader Model 6 are coming.
•Performance monitoring tools that are now available for Xbox will be made available for PC


Lo que habría que saber es si el HDR se viene para ONE xq eso mejora mucho la imagen.

El performance monitor es el PIX.

Y por último por esto decía que lo del tio del Epic es una pataleta xq quiere usar herramientas como esas pero by de face.


Pues le ha salido bien, porque MS prevee que esas herramientas salgan fuera de UWP, a parte de que la mlti-gpu funcionará en Win32




Más carne para el asador :)



The adoption of DirectX 12 is “huge” among developers, with many more games being worked on.
Microsoft is working on improving stability and performance of the API.
At the moment V-sync tearing, Freesync and G-Sync don’t work correctly, but the team is working actively to solve the issue and to get an update ready as soon as possible, even if a release date hasn’t been shared. More details will come at Build Conference at the end of the month.
Xbox PIX (performance analysis tool for developer) is going to be ported to Windows’ development tools. More details will be shared later this year.
The team is working on both Windows 10 and Xbox One, so improvements will work across the two platforms.
The HLSL update (HLSL stands for High-Level Shader Language, which is the proprietary shader language for Direct3D) has the objective to expose the latest hardware features in order to enable developers to innovate. There’s focus on GPU programming, and the team will adopt the best ideas from across the industry.
Shader Model 6 will be implemented, introducing new features.
The team is working on a concept called procedural textures, which is a new hardware feature that lets developers vary dynamically the amount of pixels rendered in a particular screen area, controlling performance by varying the image quality of individual parts of a frame independently of the rest of the screen.
Innovations that require driver updates will come in the second time of the year, but the rest can be implemented at any time. Those will be added with a much higher frequency than driver changes.
Some features will be deprecated because no one really uses them, while others will be implemented, including language-level features in the second half of the year.
Developers can write their own tools based on the tech, and Microsoft provides a sample to show how to do it.
Microsoft predicts that adoption of High Dynamic Range will be faster than that of 4k. It’s more clearly noticeable to users than 4k, with several TV models that have begun shopping. It’s very difficult for the average consumer to tell the difference between 1080p and 4k unless they get very close to the screen, whereas HDR is something that end users, not just professional graphics artists can see the advantage of.
On a fundamental level, HDR allows a display to emit a peak brightness for certain pixels that is a hundred times higher than on today’s TVs. You can’t run every pixel at that brightness, but having parts of it like stars of floodlights with that kind of brightness is a “big win,”
Windows will allow content to access that additional value.
At the moment games are locked to a brightness that some define “paperweight” or “email background” color, which is comparable to the brightness of the white background of your mail set so that it’s readable. It’s basically the equivalent of a white sheet of paper. That’s the “1.0 value.”
With the new features, the email background will still be set at 1.0 value, but bright spots in games, photos and movies will be able to go substantially above that.
Developers will be able to submit really high values of brightness, and they will be clamped only when it’ll be absolutely necessary.
Color gamuts will work the same way. How colorful a scene can be is currently limited by the official range of colors that current display of windows and HDTV are set at. Going forward those limits will also be removed, and developers will be able to use more than the currently used 30% of the human visual range, up to 75 or 80%. This will allow games to express things visually that they can’t today.
When you see a white spot in a game, you don’t really know if it’s a piece of plaster, the reflection of the sun, or a glowing object, because they’re all clamped to the same 1.0 value. With HDR diffuse surfaces like plaster could be set close to 1.0, while light sources could be two or three times brighter, allowing the user to actually distinguish what the object is. It will be a new level of realism.
As Windows will be able to support HDR on all of its devices, there won’t be a limit to what panel vendors can create.
To take advantage of this, developers need to utilize physically based rendering, which is already widespread among most AAA productions and keep their reference values such as 1.0 is at about 80-100 nits.
After that, developers just need to tweak the buffer values in their game engines so that the intensity of the light sources is actually what it really would be. Most of the content of the game like textures and meshes doesn’t need any additional work.
Post-production effects also need to be tweaked a bit. For instance, bloom is used currently to show that something is really bright, when it really isn’t, because the screen cannot display it. With High Dynamic Range that’s not necessary anymore, and actually using a strong bloom with High Dynamic Range overdoes the effect.
The UI also needs not to be too bright, and black outlines might be necessary in the case it’s displayed in front of things like sunlight reflecting on water. Movie makers are currently running in the same issue with subtitles.
Two formats will be supported, one with a maximum luminance of 5.2 million nits, and the other with a maximum luminance of 10,000 nits.
When buying an HDR panel. people should look at the actual maximum brightness. Most retailers actually try to hide them and have you buy according to brand.
The support of larger color gamuts is less important, as they require more changes to the art of the game, and users can’t tell the difference as easily as with HDR. That said, it will be supported at the same time as HDR on Windows.
Microsoft plans to deliver this feature to developers in calendar year 2016 (those in the Windows Insider program should get an update with it in the second half of the year), while it should become available to end users in calendar year 2017.
http://www.dualshockers.com/2016/03/17/directx-12-adoption-huge-among-developers-hdr-support-coming-in-2017-as-microsoft-shares-new-info/
Guillermo GT3 escribió:
Szasz escribió:
Cyborg_Ninja escribió:Entonces Battlefront utilizaba DX12?


Parece q si. Port a Dx12.
Otra cosa es la optimización, q ya esta comprobado q depende de como lo hagas puede ir hasta peor.
Si q hay una mejora respecto a B4 en términos de rendimiento, pero para mí el resultado obtenido es bastante pobre. Espero q les haya servido de toma de contacto.

Por otro lado parece q el rendimiento más importante va a venir por UWP. Ya han dicho q Tomb lo es y estoy seguro q QB tmb.


Pero pobre ehh, porque a 720p y con bajadas de frame... Aquí algo no cuadra...
Ahí dice que es el primero juego DX12, pero no se sabe si ya está implementado o está de testeo en el estudio interno.


Imagen
Supongo que es lo que tiene ser los primeros. La ventaja por el port a DX12 habrá sido minima. Tambien hay que tener en cuenta que en prinpcio en XBO no usaba asinc compute y en ps4 si
Imagino que Need For Speed tambien es DX12 de salida, pq tb es muy foto-realista.

Algunos parece que si no hay mejora de resolución no hay mejora, pero la mejora en la iluminación y fotorealismo de SWB, a mi me impresionó en su dia. Cuando el primer vídeo salio me dije, ni de palo tendremos esos gráficos en consola, y al final los tuvimos.

Por cierto, ¿ SWB es DX11 en PC ? ¿ Y que requisitos pide ?
Si es cierto que SW es DX12, no entiendo porque tanta diferencia respecto a la version de Ps4. Si hay algo que caracteriza a la nueva api, es que se consiga aprovechar mejor el hard de one y ofrezca un rendimiento grafico igual o muy similar a las versiones de la consola de Sony.
Me lleva a pensar que se han tocado los webos de mala manera.
El nuevo Hitman, es un calco entre versiones, ambos a 1080p, y capado a 30fps son casi casi iguales. Y tiene merito porque se supone que la version de consola si mal no recuerdo, la plataforma base no es precisamente XB1.
Phellan_Wolf escribió:Si es cierto que SW es DX12, no entiendo porque tanta diferencia respecto a la version de Ps4. Si hay algo que caracteriza a la nueva api, es que se consiga aprovechar mejor el hard de one y ofrezca un rendimiento grafico igual o muy similar a las versiones de la consola de Sony.
Me lleva a pensar que se han tocado los webos de mala manera.
El nuevo Hitman, es un calco entre versiones, ambos a 1080p, y capado a 30fps son casi casi iguales. Y tiene merito porque se supone que la version de consola si mal no recuerdo, la plataforma base no es precisamente XB1.


¿Os acordáis de la podadora en el bosque en la versión de Ps4? Pues para eso se ha usado Dx12 en la versión de One. Algún elemento más en pantalla. No se ha optimizado para más resolución. De todas formas démosle tiempo. Ha sido el primero y hay muchísimo margen.
Yo creo que todo justo estamos en la casilla de salida del tema DX12 y que aun queda mucho por ver, no nos quedemos con la imagen del SWB como ejemplo de lo que se puede hacer con la nueva API, la gracia será los juegos realizados desde cero con esta API, a partir de ahí habrá que ver como se comportan ambas máquinas (que bajo mi punto de vista es que será una calidad muy pareja entre ambas).

Un saludo!
jordi1986 escribió:Yo creo que todo justo estamos en la casilla de salida del tema DX12 y que aun queda mucho por ver, no nos quedemos con la imagen del SWB como ejemplo de lo que se puede hacer con la nueva API, la gracia será los juegos realizados desde cero con esta API, a partir de ahí habrá que ver como se comportan ambas máquinas (que bajo mi punto de vista es que será una calidad muy pareja entre ambas).

Un saludo!


No es que sea bajo tu punto de vista, es que es asi.
John Carmack, que no es un cualquiera, cuando se desvelaron las caracteristicas de ambas plataformas y empezo a haber esa marea internauta desproticando sobre el hard de One, lo dijo muy claramente que ambas ofrecerian la misma calidad, pero serian los programadores los responsables en lograrlo.
Pero parece ser que lo que dijo nadie le hizo ni caso, y rd una lastima porque es junto a Tim Sweeny un genio, peeeeeero el marketing y la obsesion pueden mas.
Ésto es lo que pasa al hacer un port a DX12

Imagen
Imagen

Diferencia 0, aumento de rendimiento unos 5fps.

Hasta que no se trabaje bien DX12, no se verá realmente lo que puede ofrecer.
darksch escribió:La verdad yo no noto mejora respecto al BF4 al comparar relativamente versiones. Seguramente lo único que hicieron de DX12 fue portear código del motor desde DX11 sin mucho lío y sin buscar paralelismos ni nada. Como en DX12 tú eres el driver, si no lo haces bien pues no sacas mejora ninguna.

Otros ejemplos sí son mejores, como RoTR o el QB.


Si ni siquiera le metieron computación asincrona, como esperas que se curren bien el DX12?
david1995w escribió:Ésto es lo que pasa al hacer un port a DX12

Imagen
Imagen

Diferencia 0, aumento de rendimiento unos 5fps.

Hasta que no se trabaje bien DX12, no se verá realmente lo que puede ofrecer.


No es exactemente así.

Las diferencias visuales no tiene xq exitir y sí deberían existir diferencias de rendimiento.

Una vez dicho esto te digo otra cosa, estamos acostumbrados a mirar el impacto en la GPU y en este caso el mayor impacto está en la CPU.

En lo que se ha visto hasta ahora en reviews y demás se han centrado en la GPU redimensionando la CPU como hacen siempre.

Pero nosotros estamos hablando de videoconsolas. La CPU es una puñetera mierda y DX12 le viene de perlas. Te pongo un ejemplo. Yo ya lo dije, creo que ROTR usa DX12 en XBOX ONE y te digo porque. ROTR en PC pide CPUs que no tienen nada que ver con lo que hay en ONE. Yo con un i5 2400@3,7 q es infinitamente mejor que el que hay en ONE no podía mover el juego a más de 30 frames. Pero nada, ni bajando lo assets.

Ahora tengo DX12 y puedo jugar. Pero si atiendes al frame rate medio, como hacen la mayoría de las publicaciones, te digo que no vas a ser capaz de comprender la mejora de DX12.

Mi propia experiencia es esta. Esto es un gráfico que he hecho con el rendimiento del juego en mi ordenador.

Imagen

La diferencia con Vsync es de apenas un 10% en frame rate medio. Y quiza con Vsync desactivado el frame rate medio sería más alto en DX11 pero la realidad es que en DX11 era injugable, mientras que la experiencia de juego en DX12 es mucho más fluida y consistente. La diferencia es mucho mayor de los que a priori indica ese 50%

De hecho mirando ese frame rate es normal imaginar darse cuenta que para jugar ese juego en DX11 tendría que caparlo a 30 para no tener tirones y caidas constantes y sin embargo en DX12 lo puedo jugar a 60. Y ahy que tener en cuenta que el juego aún no usa async que aportaría entre otro 5 y 10% adicional.

Otro ejemplo que os puedo dar es el GoW moviendo physx en la CPU sin apenas impacto en el rendimiento. Yo puedo jugar GoW que lleva physx activado por defecto con la CPU que os he dicho antes y una AMD con una carga en la CPU de más o menos un 10%. En lords of the fallen que también hacía uso del physx tenía que limitar a 30 frames xq me devoraba la CPU.

Lo dicho, los cambios son más grandes de lo que parece y hay motivos para pensar que pueden beneficiar a ONE y su hardware.
@papatuelo, pues sí, el gráfico muestra un rendimiento mucho más estable. De todas formas, lo que yo he dicho antes acerca de DX12 no es porque no crea que haya una mejora o no. Lo dije por lo que han dicho algunos por aquí sobre Star Wars Battlefront, que va a 720p siendo DX12 y tal. Me refería a eso, que no tiene por qué haber un cambio gráfico y menos en un port. Y en rendimiento he cogido como ejemplo el análisis de Hitman, para que se vea que la mejora no es tan grande en algunos casos. En cambio, en el gráfico que tu has puesto del Rise sí que hay una mejora evidente.
Yo lo que no entiendo es porque decis que Battlefront en One es un mal port. Se que va a 720p/60fps pero joder, en la competencia tambien va a una resolucion mas baja de la que suele ir (900p), en realidad esta en la linea de la mayoria de multis.

Eso si, segun DF tenia ligeramente un rendimiento mas estable en PS4, el problema es que yo lo jugue en One y estoy 100% seguro de que en uno de los parches de 1 o 2 gb, note que una zona iba mucho mas consistente donde antes tenia rascadas, hubo una mejora en la consistencia del framerate si o si. Con esto quiero decir que hay mucho multi que reciben parches y no tienen reanalisis, tanto a nivel de mejoras de rendimiento como de mejoras graficas. Pero es un juego que se ve muy bien.
Pues nada ya estan puestas las primeras impresiones de DF sobre QB y ........ [enfado1] yo alucino. Empiezan diciendo que parece que va a 720p y que aunque tiene efectos y no va a 1080p pues que ya no es un espectaculo. Mencionan tambien que recortan en varios aspectos como resoluciones de texturas etc etc.
En fin cada dia que pasa me hace mucha mucha gracia esta web y sus analisis, en la que parece que todo juego que sale para One no tiene ningun merito y no son espectaculares por no hablar de algunos multi que son calcos y aun asi..... En fin. Pero vamos ya metieron gambazos y entre ellos The Division por lo que para mi cada vez que realizan un analisis de algun juego lo cojo con pinzas en ciertos aspectos mas sabiendo la tendencia anti-one que tienen.
Phellan_Wolf escribió:Pues nada ya estan puestas las primeras impresiones de DF sobre QB y ........ [enfado1] yo alucino. Empiezan diciendo que parece que va a 720p y que aunque tiene efectos y no va a 1080p pues que ya no es un espectaculo. Mencionan tambien que recortan en varios aspectos como resoluciones de texturas etc etc.
En fin cada dia que pasa me hace mucha mucha gracia esta web y sus analisis, en la que parece que todo juego que sale para One no tiene ningun merito y no son espectaculares por no hablar de algunos multi que son calcos y aun asi..... En fin. Pero vamos ya metieron gambazos y entre ellos The Division por lo que para mi cada vez que realizan un analisis de algun juego lo cojo con pinzas en ciertos aspectos mas sabiendo la tendencia anti-one que tienen.



Si lees el articulo y ves el video dicen que no saben la resolucion del juego que unas veces les sale 720 otras 900 y que el juego se ve demasiado bien para ser 720.
Luego en las traducciones pasa lo que pasa.
Remendy ya confirmo que el juego va a 1080, iluminacion, sombras a 720.
astures escribió:
Phellan_Wolf escribió:Pues nada ya estan puestas las primeras impresiones de DF sobre QB y ........ [enfado1] yo alucino. Empiezan diciendo que parece que va a 720p y que aunque tiene efectos y no va a 1080p pues que ya no es un espectaculo. Mencionan tambien que recortan en varios aspectos como resoluciones de texturas etc etc.
En fin cada dia que pasa me hace mucha mucha gracia esta web y sus analisis, en la que parece que todo juego que sale para One no tiene ningun merito y no son espectaculares por no hablar de algunos multi que son calcos y aun asi..... En fin. Pero vamos ya metieron gambazos y entre ellos The Division por lo que para mi cada vez que realizan un analisis de algun juego lo cojo con pinzas en ciertos aspectos mas sabiendo la tendencia anti-one que tienen.



Si lees el articulo y ves el video dicen que no saben la resolucion del juego que unas veces les sale 720 otras 900 y que el juego se ve demasiado bien para ser 720.
Luego en las traducciones pasa lo que pasa.
Remendy ya confirmo que el juego va a 1080, iluminacion, sombras a 720.


Me lo he leido por encima, pero vamos con esta perla lo dejan claro:

"While Quantum Break remains visually impressive - stunning in many areas, in fact - the core pixel count is clearly a factor in the presentation"

Simplemente el hecho de que son incapaces de sacar la resolución....... Pero como digo ya les paso entre otros con The Division.
Remedy con alan wake en 360 ya hizo algo muy raro, renderizaban por zonas, unas con mas resolucion, y otras con menos dentro de la misma escena. No me extraña que los de DF se vuelvan locos contando pixels.

@papatuelo muy bueno el apunte de los 5fps, con dx12 se gana determinismo, y el juego podria mejorar hasta perdiendo rendimiento. No se como no lo venden diciendo que es real time ...
cercata escribió:Remedy con alan wake en 360 ya hizo algo muy raro, renderizaban por zonas, unas con mas resolucion, y otras con menos dentro de la misma escena. No me extraña que los de DF se vuelvan locos contando pixels.

@papatuelo muy bueno el apunte de los 5fps, con dx12 se gana determinismo, y el juego podria mejorar hasta perdiendo rendimiento. No se como no lo venden diciendo que es real time ...


Pues lo que dices de Alan Wake sería posible ya que ONE puede renderizar en tres plano diferentes con tres resoluciones.

Además acabo de leer de otro forero que tiene MSAA x4. Si eso es cierto desde luego es una decisión basada en el producto final y no en poner un numerito en titulares. Un MSAA x4 es muy demandante diría que aun más que meter los 1080p al juego.

Pero eso tendría que mirarlo despacio.
No creéis que Quantum Break pueda estar usando tiled resources y de ahí que haya ésta polémica de resoluciones? cuando realmente el juego estaría cargando varios LOD a diferentes resoluciones?.

¿sería el primero en usar ésta técnica en Xbox One , no?
josemayuste escribió:No creéis que Quantum Break pueda estar usando tiled resources y de ahí que haya ésta polémica de resoluciones? cuando realmente el juego estaría cargando varios LOD a diferentes resoluciones?.

¿sería el primero en usar ésta técnica en Xbox One , no?


Yo sé lo que he puesto arriba, ONE puede mover tres planos con tres resoluciones diferentes. Lo leí en un slide hace poco.

De todas formas como digo, si mueve MSAA 4X a 720p, entonces con un FXAA debearía poder mover los 1080p, así que parece más una decisión que falta de potencia. Evidentemete es mejor 1080p y MSSA 4X pero eso pide muchiiiisimo.

Imagen

Imagen
17587 respuestas