Horizonte de sucesos escribió:Hemos pasado de negar que ONE soporta DX12, a negar que DX12 aporte algo cuando se ha sabido que ONE si lo era, y ahora que vemos lo buena API que va a ser DX12 volvemos al inicio de la rueda.
Algunos se van a marear tanto perseguirse la cola.
Twitter de NVIDIA: https://twitter.com/nvidia/status/514149676946567169
@f5inet onfire
Szasz escribió:Hagamos un poco de memoria. Hay gente q no entiende porq Microsoft no dice explícitamente q es una maquina Dx12 a la hora de venderla, vamos a recurrir al director de marketing de Xbox One en el momento de lanzamiento para ver q decía.
Albert Penello. Cojamos algunas frases:
- Nuestros juegos se verán una generación más, tan bien o MEJOR q la competencia.
"I get a ton of hate for saying this – but it’s been the same EVERY generation. Sony claims more power, they did it with Cell, they did it with Emotion Engine, and they are doing it again. And, in the end, games on our system looked the same or better"
- Nuestra arquitectura esta completamente balanceada, reduciendo el número de cuellos de botella.
"We have ESRAM, which is very fast and allows developers to have a small cache very quickly.
We have a very balanced architecture. We have done a lot of custom things in the silicon to reduce the number of bottlenecks so every component that we have is running at peak performance."
- Responde a misterxmedia.
"No add'l dGPU. Working on more tech deep-dives. XBO is plenty capable now and in the future. Perf. differences are greatly overstated."
Niega la dGPU, pero confirma q están trabajando en "UNA PROFUNDA INMERSIÓN EN SU TECNOLOGÍA". Más adelante se confirmará Dx12.
- Entrevista en la q dice cosas como q las CUs de Xbox One son más rápidas y no únicamente por el aumentó del 6% de reloj. (la traducción no esta clara)
"Adding to that, each of our CU’s is running 6% faster. It’s not simply a 6% clock speed increase overall."
- Q su ancho de banda es muy superior.
"We have more memory bandwidth. 176gb/sec is peak on paper for GDDR5. Our peak on paper is 272gb/sec. (68gb/sec DDR3 + 204gb/sec on ESRAM). ESRAM can do read/write cycles simultaneously so I see this number mis-quoted."
Y podría seguir con muchas más.
El resumen q se puede hacer es q da igual lo q diga Microsoft, siempre va a ser ninguneada. Este señor tomó la decisión de abandonar la división. Le llamarón paleto por decir q One puede sumar los anchos de banda, cuando esta demostrado q era verdad y fue un acoso y derribo a su persona por defender la arquitectura de One.
Por cierto, un rumor q igual se cumple mña si presentan pirate islands.
"Sea como sea, no saldremos de dudas realmente de si Xbox One alberga algo más en su arquitectura de lo que ya conocemos hasta que finalice el NDA firmado con AMD.
Pero si os apetece seguir con esta serie de rumores y de elucubraciones varias, algunas fuentes informan que todo el tiempo Microsoft no ocultaba nada referente a una dGPU, sino más bien sobre una nueva tecnología por parte de AMD llamada “Volcanic islands”. (Cambiar volcanic islands por pirate islands, ya q volcanic islands oficialmente es gcn 1.1)
http://www.gameit.es/xbox-one-no-tiene- ... ncognitas/
Szasz escribió:El resumen q se puede hacer es q da igual lo q diga Microsoft, siempre va a ser ninguneada. Este señor tomó la decisión de abandonar la división. Le llamarón paleto por decir q One puede sumar los anchos de banda, cuando esta demostrado q era verdad y fue un acoso y derribo a su persona por defender la arquitectura de One.
Por cierto, un rumor q igual se cumple mña si presentan pirate islands.
"Sea como sea, no saldremos de dudas realmente de si Xbox One alberga algo más en su arquitectura de lo que ya conocemos hasta que finalice el NDA firmado con AMD.
Pero si os apetece seguir con esta serie de rumores y de elucubraciones varias, algunas fuentes informan que todo el tiempo Microsoft no ocultaba nada referente a una dGPU, sino más bien sobre una nueva tecnología por parte de AMD llamada “Volcanic islands”. (Cambiar volcanic islands por pirate islands, ya q volcanic islands oficialmente es gcn 1.1)
http://www.gameit.es/xbox-one-no-tiene- ... ncognitas/
Szasz escribió:¿Porque no llega a los gloriosos 1080p? Porq no tiene GDDR5 y la SRAM es muy pequeña.....
Primero deberíamos entender q 1080p no son mejores gráficos. No, no lo son y me podéis contar la película q queráis. Es más resolución, pero un pong a 4K se lo pueden meter por donde les quepa. Así nos va, q nos están metiendo los mismos juegos de la gen pasada a 1080p.
Siempre q se usen técnicas "antiguas", la cantidad de la Sram va a ser un quebradero de cabeza para los programadores. Con técnicas como por ejemplo forward+, no se van a tener tantos problemas. Ya hemos hablado de esto. Fh2 tiene 1080p y MSSAx4.
El problema no es el ancho de banda.
mosotron escribió:Szasz escribió:¿Porque no llega a los gloriosos 1080p? Porq no tiene GDDR5 y la SRAM es muy pequeña.....
Primero deberíamos entender q 1080p no son mejores gráficos. No, no lo son y me podéis contar la película q queráis. Es más resolución, pero un pong a 4K se lo pueden meter por donde les quepa. Así nos va, q nos están metiendo los mismos juegos de la gen pasada a 1080p.
Siempre q se usen técnicas "antiguas", la cantidad de la Sram va a ser un quebradero de cabeza para los programadores. Con técnicas como por ejemplo forward+, no se van a tener tantos problemas. Ya hemos hablado de esto. Fh2 tiene 1080p y MSSAx4.
El problema no es el ancho de banda.
El mismo juego con los mismos efectos , a 1080p es mejor que a 900p pero nos va a dar igual.
Los dos a 900p, habrá uno con mejor , framerate, objetos , texturas , antialising o lo que sea.
Exactamente como pasó la gen anterior excepto en los uncharted o killzone exclusivos. Puede que después de todas las pajas mentales de este hilo , sea posible exprimir la one usando sus buses y memorias y nubes y leches pero te quedará para los exclusivos, por ejemplo el forza5 le dio un palizón al Drive Club que lo mandó a un año más de trabajo...
Una consola se basa en los multiplataformas y si en la otra son mejor mal vamos. Ojo, que no me importa el "por qué son mejores" , sino que lo son. Como en la gen pasada tenían "potencia oculta" para uncharted 2 y sacaban un 90% de multis inferiores.
eloskuro escribió:Aunque veo más lógico que lo que hagan primero sea upscall de 1080p a 4k
Zokormazo escribió:Claro que es capaz de procesar un frame a 4k y que no hay inpedimentos tecnicos.
Pero que complejidad es capaz de alcanzar ese frame? Queremos un pong a 4k? O un Halo 5 a 4k?
Ya esta sufriendo la consola para alcanzar los 1080 en condiciones como para procesar frames 4 veces mas grandes con una complejidad digna del 2015 y con una fluidez aceptable.
Horizonte de sucesos escribió:Usar DX12 para marketing?
Cuando la semana pasada le dije a un amigo que no se pusiera el W7 en el PC gaming y se esperara a ver si W8 soportaba DX12 me dijo: "¿Y eso que es?"
No os confundáis no...
¿Queréis marketing? Gigas., hoy todo se mide en Gigas.
Llas GPU se vende por Gigas, los PC portátiles se venden por Gigas, los móviles se venden por Gigas. LA gente vendería a su madre por un puñado de Gigas.
¿Cuanto pesas? 78 Gigas
¿Qué has comido hoy? Un plato de Gigas
¿Nos hacemos unas paGIGAS?
El dinero mueve al mundo, y el dinero se copra con Gigas.
"However, Tamasi explained that DirectX 12 will introduce a set of new features in addition to the lower-level abstraction, and those features will require new hardware."
papatuelo escribió:Tamashi nos engaña, pues no lo sé, pero según este señor si hace falta nuevo hardware.
Zokormazo escribió:papatuelo escribió:Tamashi nos engaña, pues no lo sé, pero según este señor si hace falta nuevo hardware.
Segun el señor Kowaliski hace falta nuevo hardware para conservative rasterization y los new blend modes
Nuhar escribió:El 4k para juegos esta lejos, pero lejos de cojones jajajaja.
Es un desperdicio absurdo de recursos, 4 veces más de pixeles que los 1080p, buffffff!!!
Se que hay que vender televisores pero vamos... la fiebre que le esta dando a la gente por los 4k ...
papatuelo escribió:Cada paso hacía adelante damos tres hacia atras. Marzo de 2014:"However, Tamasi explained that DirectX 12 will introduce a set of new features in addition to the lower-level abstraction, and those features will require new hardware."
http://techreport.com/news/26210/directx-12-will-also-add-new-features-for-next-gen-gpus
Tamashi nos engaña, pues no lo sé, pero según este señor si hace falta nuevo hardware.
I found it really funny when I read the first GTX 980 reviews and the reviewers were touting voxel rendering as a new GPU hardware feature. Some reviewers even seemed to believe that there was custom hardware inside Maxwell that made this "feature" much faster.
Nowadays all the new GPU/API features are highly technical. For the marketing team it is much more sexy to say that their GPU supports voxel rendering than saying that their GPU supports conservative rasterization and tiled resources for volume textures (sparse volume textures). Obviously conservative rasterization can be used to speed up polygon soup -> voxel conversion algorithms and tiled volume textures can be used to store sparse voxel octree data.
Nobody claimed that NVIDIA was claiming this. The whole discussion was about journalists and masses not understanding highly technical hardware details (and I am not talking about Anandtech here, they understand what they are writing). It has become much harder to write articles abot new graphics API features, as all the new features are highly technical. In the past new DirectX versions always had some new features that also non-techical people understood. Bump mapping, pixel shaders, geometry shaders, tessellation, etc.
The actual new DirectX features are highly technical: conservative rasterization, tiled (sparse/virtual) volumetric textures and rasterizer ordered views. With these new features a programmer could implement some OIT and voxel rendering algorithms more efficiently than before. But these features can be used to implement more efficient lighting and particle rendering as well.
Polyteres escribió:...
darksch escribió:¿Cuál es la otra plataforma con un ARM...? Una simple curiosidad, pero bueno.
Polyteres escribió:The actual new DirectX features are highly technical: conservative rasterization, tiled (sparse/virtual) volumetric textures and rasterizer ordered views. With these new features a programmer could implement some OIT and voxel rendering algorithms more efficiently than before. But these features can be used to implement more efficient lighting and particle rendering as well.
Zokormazo escribió:Pero si ni hoy ni el otro dia dijo nada de que esto va a funcionar asi o asa.
Se dice: DX11.3 trae estas X, Y, y Z features nuevas. Ademas suponen un boost de 300% en calculos de iluminacion.
Y responde Poly: Seran features nuevas para DX, pero tecnicas ya antes utilizadas mediante extensiones OpenGL aqui, alla, y un poco mas para alli. El boost del 300% es en el paso X del proceso, no en el proceso entero.
No se porque tanta guerra con lo que ha dicho xD
Por último hablando del raster conservativo, cuando se refiere a un 3x no es un aumento aplicable al cálculo de la iluminación global en general, sino a una fase concreta de dicho algoritmo. Una fase que consiste en voxelizar las mallas. Dicha voxelización se precalcula para el escenario (solo se hace una vez) y puede hacerse o no por frame para las mallas dinámicas deformables (los personajes), dependiendo de las necesidades (aquí es donde se ganaría rendimiento no en el global de la técnica, se consumen unos 3-4ms pues ahora 1-1.5ms). El grueso de dicha técnica consiste en calcular los voxeles afectados por el BRDF para conseguir el rebote de iluminación global y esto es lo realmente costoso.
Nuhar escribió:Procesamiento de IA y Fisicas en la nube.
mitardo escribió:Nuhar escribió:Procesamiento de IA y Fisicas en la nube.
Eso si que es un avance de verdad y no las DX.
darksch escribió:mitardo escribió:Nuhar escribió:Procesamiento de IA y Fisicas en la nube.
Eso si que es un avance de verdad y no las DX.
Pues seré un anticuado pero yo prefiero que las cosas las haga mi consolita, por lo menos en todo lo que se pueda. Ahora, renegar de una mejora, si el juego es online, sería de tontos. Importante requisito para no tener un juego offline con 2 versiones de detalle, con y sin nube.
Nuhar escribió:Pero se usen o no esas tecnicas, se necesite o no un hardware especifico nuevo, lo que tenemos son datos de mejoras.
Un 50-70% más en cpu en la demostración de Intel (tarjeta gráfica "vieja").
Un 300% en iluminación dinámica (Recordemos que se hace con Fable Legends, titulo para Xbox One).
Procesamiento de IA y Fisicas en la nube.
Que más da como lo hagan, el caso es que antes no se hacían y ahora si. Todo esto son incrementos que veremos de cara al 2015 en adelante. Si luego salen más cosas pues mejor.
Un 50-70% más en cpu en la demostración de Intel (tarjeta gráfica "vieja").
Un 300% en iluminación dinámica (Recordemos que se hace con Fable Legends, titulo para Xbox One).
XboxOne ya tiene una API de bajo nivel del mismo perfil (close to metal, de hecho va incluso más allá) que DirectX12 (sino me creeis a mí, creed a los arquitectos de XboxOne o al desarrollador de la saga Metro).
darksch escribió:XboxOne ya tiene una API de bajo nivel del mismo perfil (close to metal, de hecho va incluso más allá) que DirectX12 (sino me creeis a mí, creed a los arquitectos de XboxOne o al desarrollador de la saga Metro).
Y hay que volver a repetir, que no usará casi nadie, por la falta de portabilidad. De ahí que saquen DX12 para estandarizar el desarrollo.
Polyteres escribió:Buenas gente. @Nuhar es q ahí reside el problema, la confusión.Un 50-70% más en cpu en la demostración de Intel (tarjeta gráfica "vieja").
XboxOne ya tiene una API de bajo nivel del mismo perfil (close to metal, de hecho va incluso más allá) que DirectX12 (sino me creeis a mí, creed a los arquitectos de XboxOne o al desarrollador de la saga Metro).
Polyteres escribió:Buenas gente. @Nuhar es q ahí reside el problema, la confusión.Un 50-70% más en cpu en la demostración de Intel (tarjeta gráfica "vieja").
XboxOne ya tiene una API de bajo nivel del mismo perfil (close to metal, de hecho va incluso más allá) que DirectX12 (sino me creeis a mí, creed a los arquitectos de XboxOne o al desarrollador de la saga Metro).Un 300% en iluminación dinámica (Recordemos que se hace con Fable Legends, titulo para Xbox One).
Fable Legends para iluminación global usa Light Propagation Volumen que es una técnica diferente y no usa esa característica, no tienen nada que ver.
Lo habré repetido mil veces: TODO hardware cerrado avanza y mejora paulatinamente a lo largo de su vida gracias a la mejora CONSTANTE en sus herramientas (independientemente de DirectX12) y a la mejor comprensión de la arquitectura, q te permite saltarte limitaciones o bien mejorar el aprovechamiento de la máquina con nuevos algoritmos. En PC es diferente pq "nunca" se ha tenido una API tan a bajo nivel, aquí la mejora va a ser palpable aunq tb la complicación para usar la nueva API, de ahí q Ms vaya a sacar tb DirectX 11.3.
@Zokormazo exacto, oye y q aunq sea ese porcentaje esta muy bien.
Un saludo.
Oles also expressed his thoughts on the upcoming most anticipated DirectX 12, and AMD’s Mantle API. According to him, both the DirectX 12 and Mantle are ideal shifts in API design, and while his thoughts are that the former might prove to be very significant for Microsoft’s latest video game console, he believes that the latter will just be “temporary.”
“Aside from them being much more close to the (modern) metal, those APIs are a paradigm-shift in API design. DX11 was ‘I will keep track of everything for you’. DX12 says ‘now it’s your responsibility’ – so it could be a much thinner layer. As for Mantle, it is a temporary API, in my honest opinion.”
“No, it’s important [for Xbox One]. All the dependency tracking takes a huge slice of CPU power. And if we are talking about the multi-threaded command buffer chunks generation – the DX11 model was essentially a ‘flop’, while DX12 should be the right one.”
Digital Foundry: DirectX 11 vs GNMX vs GNM - what's your take on the strengths and weakness of the APIs available to developers with Xbox One and PlayStation 4? Closer to launch there were some complaints about XO driver performance and CPU overhead on GNMX.
Oles Shishkovstov: Let's put it that way - we have seen scenarios where a single CPU core was fully loaded just by issuing draw-calls on Xbox One (and that's surely on the 'mono' driver with several fast-path calls utilised). Then, the same scenario on PS4, it was actually difficult to find those draw-calls in the profile graphs, because they are using almost no time and are barely visible as a result.
In general - I don't really get why they choose DX11 as a starting point for the console. It's a console! Why care about some legacy stuff at all? On PS4, most GPU commands are just a few DWORDs written into the command buffer, let's say just a few CPU clock cycles. On Xbox One it easily could be one million times slower because of all the bookkeeping the API does.
But Microsoft is not sleeping, really. Each K that has been released both before and after the Xbox One launch has brought faster and faster draw-calls to the table. They added tons of features just to work around limitations of the DX11 API model. They even made a DX12/GNM style do-it-yourself API available - although we didn't ship with it on Redux due to time constraints.
Lo habré repetido mil veces: TODO hardware cerrado avanza y mejora paulatinamente a lo largo de su vida gracias a la mejora CONSTANTE en sus herramientas (independientemente de DirectX12) y a la mejor comprensión de la arquitectura, q te permite saltarte limitaciones o bien mejorar el aprovechamiento de la máquina con nuevos algoritmos. En PC es diferente pq "nunca" se ha tenido una API tan a bajo nivel, aquí la mejora va a ser palpable aunq tb la complicación para usar la nueva API, de ahí q Ms vaya a sacar tb DirectX 11.3.
Polyteres escribió:
XboxOne ya tiene una API de bajo nivel del mismo perfil (close to metal, de hecho va incluso más allá) que DirectX12 (sino me creeis a mí, creed a los arquitectos de XboxOne o al desarrollador de la saga Metro).“Aside from them being much more close to the (modern) metal, those APIs are a paradigm-shift in API design. DX11 was ‘I will keep track of everything for you’. DX12 says ‘now it’s your responsibility’ – so it could be a much thinner layer. As for Mantle, it is a temporary API, in my honest opinion.”
“No, it’s important [for Xbox One]. All the dependency tracking takes a huge slice of CPU power. And if we are talking about the multi-threaded command buffer chunks generation – the DX11 model was essentially a ‘flop’, while DX12 should be the right one.”
Zokormazo escribió:Mejor que DX11, si mejor o peor que la API close to metal de juana no dice nada.