Hablemos del interior de Xbox One

Horizonte de sucesos escribió:Hemos pasado de negar que ONE soporta DX12, a negar que DX12 aporte algo cuando se ha sabido que ONE si lo era, y ahora que vemos lo buena API que va a ser DX12 volvemos al inicio de la rueda.

Algunos se van a marear tanto perseguirse la cola.

Twitter de NVIDIA: https://twitter.com/nvidia/status/514149676946567169

@f5inet onfire [uzi]



Esto resume todo aquel que a entrado a echar muerda sobre la consola...siempre negando no solo lo del DX12.1 si no mas cosas,, diciendo que imposible que demasiado bueno y que es imposible y cuando se llevan el zasss ,entonces deja de ser algo bueno para buscarle cualquier pega..

Eso si sin tener ni idea de lo que hablan..

Mas potente o no, lo que va a hacer el DX12.1 sin despeinarse es que los juegos que se hagan en PC sean mucho mas fáciles de portar al Xbox y eso es una ventaja muy grande en mas de un aspecto no solo en que mejore el sofw y por lo tanto el hard trabaje mejor..

yo tengo las 2 y no veo diferencia alguna mientras juego y no la vamos a ver por ningun lado,,, ahora la diferencias se ven en el mando, comunidad, online, exclusivos es hay donde uno tiene que decidir que es mejor..
SangReal está baneado del subforo por "Flamer anti Xbox One"
Szasz escribió:Hagamos un poco de memoria. Hay gente q no entiende porq Microsoft no dice explícitamente q es una maquina Dx12 a la hora de venderla, vamos a recurrir al director de marketing de Xbox One en el momento de lanzamiento para ver q decía.

Albert Penello. Cojamos algunas frases:

- Nuestros juegos se verán una generación más, tan bien o MEJOR q la competencia.

"I get a ton of hate for saying this – but it’s been the same EVERY generation. Sony claims more power, they did it with Cell, they did it with Emotion Engine, and they are doing it again. And, in the end, games on our system looked the same or better"

- Nuestra arquitectura esta completamente balanceada, reduciendo el número de cuellos de botella.

"We have ESRAM, which is very fast and allows developers to have a small cache very quickly.

We have a very balanced architecture. We have done a lot of custom things in the silicon to reduce the number of bottlenecks so every component that we have is running at peak performance."

- Responde a misterxmedia.
"No add'l dGPU. Working on more tech deep-dives. XBO is plenty capable now and in the future. Perf. differences are greatly overstated."

Niega la dGPU, pero confirma q están trabajando en "UNA PROFUNDA INMERSIÓN EN SU TECNOLOGÍA". Más adelante se confirmará Dx12.

- Entrevista en la q dice cosas como q las CUs de Xbox One son más rápidas y no únicamente por el aumentó del 6% de reloj. (la traducción no esta clara)
"Adding to that, each of our CU’s is running 6% faster. It’s not simply a 6% clock speed increase overall."

- Q su ancho de banda es muy superior.
"We have more memory bandwidth. 176gb/sec is peak on paper for GDDR5. Our peak on paper is 272gb/sec. (68gb/sec DDR3 + 204gb/sec on ESRAM). ESRAM can do read/write cycles simultaneously so I see this number mis-quoted."

Y podría seguir con muchas más.
El resumen q se puede hacer es q da igual lo q diga Microsoft, siempre va a ser ninguneada. Este señor tomó la decisión de abandonar la división. Le llamarón paleto por decir q One puede sumar los anchos de banda, cuando esta demostrado q era verdad y fue un acoso y derribo a su persona por defender la arquitectura de One.

Por cierto, un rumor q igual se cumple mña si presentan pirate islands.

"Sea como sea, no saldremos de dudas realmente de si Xbox One alberga algo más en su arquitectura de lo que ya conocemos hasta que finalice el NDA firmado con AMD.

Pero si os apetece seguir con esta serie de rumores y de elucubraciones varias, algunas fuentes informan que todo el tiempo Microsoft no ocultaba nada referente a una dGPU, sino más bien sobre una nueva tecnología por parte de AMD llamada “Volcanic islands”. (Cambiar volcanic islands por pirate islands, ya q volcanic islands oficialmente es gcn 1.1)

http://www.gameit.es/xbox-one-no-tiene- ... ncognitas/

Y si los anchos de banda se suman, pq no llega al hd en algunos juegos?
Szasz escribió:El resumen q se puede hacer es q da igual lo q diga Microsoft, siempre va a ser ninguneada. Este señor tomó la decisión de abandonar la división. Le llamarón paleto por decir q One puede sumar los anchos de banda, cuando esta demostrado q era verdad y fue un acoso y derribo a su persona por defender la arquitectura de One.

Por cierto, un rumor q igual se cumple mña si presentan pirate islands.

"Sea como sea, no saldremos de dudas realmente de si Xbox One alberga algo más en su arquitectura de lo que ya conocemos hasta que finalice el NDA firmado con AMD.

Pero si os apetece seguir con esta serie de rumores y de elucubraciones varias, algunas fuentes informan que todo el tiempo Microsoft no ocultaba nada referente a una dGPU, sino más bien sobre una nueva tecnología por parte de AMD llamada “Volcanic islands”. (Cambiar volcanic islands por pirate islands, ya q volcanic islands oficialmente es gcn 1.1)

http://www.gameit.es/xbox-one-no-tiene- ... ncognitas/


Es que es de tomarse todo con pinzas, los hechos son mejores con que las palabras. hasta ahora solo tenemos dos juegos para mi gusto que sobresalen en demostracion de desempeño uno es Ryse y otro es resogun.

De la ONE pues tenemos que ha tirado de muchas cosas el overcloacking, de quitar kinect y liberar recursos, sin quedar suficientemente claro o palpable que eso beneficio a los juegos de una manera dramatica.

Vamos a suponer que estan esas cosas "ocultas" como el darksilicon y de las que hablas, eso me parece un poco maluco en el sentido que nosotras estamos pagando por cosas que si se terminan pues mal que bien las usaremos pero si no llegan a buen fin, estamos financiando una investigacion en un producto supuestamente terminado, vamos si para el siguiente año se aprovecha todo eso oculto y resulta que si, que si lo utilizan pero que pasa si tarda mucho, al final es complicado o resulta la mejora se puede implementar ya hasta final de generacion, no te deja un poco un mal sabor de boca estar esperando beneficios que tenerlos fijos. al menos a mi.

Que hagas y vendas un producto con muchos posibles beneficios a futuro (recalco posibles), tomando a tus clientes como conejillos de indias no me parece nada bien por las mejores intenciones que tengas o alto porcentaje de exito, por que no tienes claro el tiempo, el margen de no exito existe y estas cobrando por ello.

Es que has comprado la ONE por lo que es, no por lo que puede llegar a ser. Si puede ser mejor pues que bien pero siempre y cuando sea un plus del producto que has elegido y que te gusta. no una cosa que a ver si es chicle y pega...

Besos
¿Porque no llega a los gloriosos 1080p? Porq no tiene GDDR5 y la SRAM es muy pequeña.....

Primero deberíamos entender q 1080p no son mejores gráficos. No, no lo son y me podéis contar la película q queráis. Es más resolución, pero un pong a 4K se lo pueden meter por donde les quepa. Así nos va, q nos están metiendo los mismos juegos de la gen pasada a 1080p.

Siempre q se usen técnicas "antiguas", la cantidad de la Sram va a ser un quebradero de cabeza para los programadores. Con técnicas como por ejemplo forward+, no se van a tener tantos problemas. Ya hemos hablado de esto. Fh2 tiene 1080p y MSSAx4.

El problema no es el ancho de banda.
Yo diria que los 1080p no son problemas.. vease destiny, forza , etc.. solo hay que ir al hilo de resoluciones para verlo peroooo.. estoy contigo con lo que estan vendiendo la moto
1080p no significa mejores graficos
Decir a estas alturas que los anchos no se suman, cuando van por buses distintos...más de uno ha estado viviendo bajo una piedra las últimas 200 páginas del hilo XD
(mensaje borrado)
Szasz escribió:¿Porque no llega a los gloriosos 1080p? Porq no tiene GDDR5 y la SRAM es muy pequeña.....

Primero deberíamos entender q 1080p no son mejores gráficos. No, no lo son y me podéis contar la película q queráis. Es más resolución, pero un pong a 4K se lo pueden meter por donde les quepa. Así nos va, q nos están metiendo los mismos juegos de la gen pasada a 1080p.

Siempre q se usen técnicas "antiguas", la cantidad de la Sram va a ser un quebradero de cabeza para los programadores. Con técnicas como por ejemplo forward+, no se van a tener tantos problemas. Ya hemos hablado de esto. Fh2 tiene 1080p y MSSAx4.

El problema no es el ancho de banda.


El mismo juego con los mismos efectos , a 1080p es mejor que a 900p pero nos va a dar igual.
Los dos a 900p, habrá uno con mejor , framerate, objetos , texturas , antialising o lo que sea.

Exactamente como pasó la gen anterior excepto en los uncharted o killzone exclusivos. Puede que después de todas las pajas mentales de este hilo , sea posible exprimir la one usando sus buses y memorias y nubes y leches pero te quedará para los exclusivos, por ejemplo el forza5 le dio un palizón al Drive Club que lo mandó a un año más de trabajo...
Una consola se basa en los multiplataformas y si en la otra son mejor mal vamos. Ojo, que no me importa el "por qué son mejores" , sino que lo son. Como en la gen pasada tenían "potencia oculta" para uncharted 2 y sacaban un 90% de multis inferiores.
(mensaje borrado)
mosotron escribió:
Szasz escribió:¿Porque no llega a los gloriosos 1080p? Porq no tiene GDDR5 y la SRAM es muy pequeña.....

Primero deberíamos entender q 1080p no son mejores gráficos. No, no lo son y me podéis contar la película q queráis. Es más resolución, pero un pong a 4K se lo pueden meter por donde les quepa. Así nos va, q nos están metiendo los mismos juegos de la gen pasada a 1080p.

Siempre q se usen técnicas "antiguas", la cantidad de la Sram va a ser un quebradero de cabeza para los programadores. Con técnicas como por ejemplo forward+, no se van a tener tantos problemas. Ya hemos hablado de esto. Fh2 tiene 1080p y MSSAx4.

El problema no es el ancho de banda.


El mismo juego con los mismos efectos , a 1080p es mejor que a 900p pero nos va a dar igual.
Los dos a 900p, habrá uno con mejor , framerate, objetos , texturas , antialising o lo que sea.

Exactamente como pasó la gen anterior excepto en los uncharted o killzone exclusivos. Puede que después de todas las pajas mentales de este hilo , sea posible exprimir la one usando sus buses y memorias y nubes y leches pero te quedará para los exclusivos, por ejemplo el forza5 le dio un palizón al Drive Club que lo mandó a un año más de trabajo...
Una consola se basa en los multiplataformas y si en la otra son mejor mal vamos. Ojo, que no me importa el "por qué son mejores" , sino que lo son. Como en la gen pasada tenían "potencia oculta" para uncharted 2 y sacaban un 90% de multis inferiores.

Ahí no llevas razón, la versión principal será la de PC, es decir la directx 12, y se portearra con la gorra a XBOX.
la verdad, si la xbox recupera ventas es muy posible que los juegos multi en uno o dos años se hagan principalmente para xbox y pc debido al directx y posteriormente portearlos a la otra consola, vamos, no me sorprendería en absoluto. de hecho creo microsoft contaba con esta carta desde el principio, pero con el inicio que tuvieron veremos si les sale la jugada.
eloskuro escribió:Aunque veo más lógico que lo que hagan primero sea upscall de 1080p a 4k

Pero eso ya pasa, no? Que sucede ahora mismo si conectas una ONE a una pantalla 4K? Imagino que el menu lo saca a 2160p, y que los juegos los re-escala de 1080p a 2160p.

Zokormazo escribió:Claro que es capaz de procesar un frame a 4k y que no hay inpedimentos tecnicos.

Pero que complejidad es capaz de alcanzar ese frame? Queremos un pong a 4k? O un Halo 5 a 4k?

Ya esta sufriendo la consola para alcanzar los 1080 en condiciones como para procesar frames 4 veces mas grandes con una complejidad digna del 2015 y con una fluidez aceptable.

Pero es que lo que MS dijo es que la maquina era compatible o soportaba dicho formato de imagen. Nunca ha dicho que sea la configuracion recomendada de gaming ni nada parecido, es poco esperable mas alla de arcades o indies en el futuro. Por lo tanto esos comentarios en mofa sobre dicha afirmacion de los que derivaba la discusion si estaban fuera de lugar.

Por otro lado el hardware sufrira o no a una determinada resolucion por la carga grafica que lleve, no por sacar a una resolucion en si, la maquina la puedes hacer sufrir si quieres a 480p.
Y en este caso 1080p si es la configuracion recomendada para la maquina y a la que funcionan los first y mayoria de titulos. Quien quiera forzar mas la carga, o no este capacitado para mantener la misma carga que otros, tiene la opcion de bajarla, pero solo es su diseño.
Horizonte de sucesos escribió:Usar DX12 para marketing?

Cuando la semana pasada le dije a un amigo que no se pusiera el W7 en el PC gaming y se esperara a ver si W8 soportaba DX12 me dijo: "¿Y eso que es?"

No os confundáis no...

¿Queréis marketing? Gigas., hoy todo se mide en Gigas.

Llas GPU se vende por Gigas, los PC portátiles se venden por Gigas, los móviles se venden por Gigas. LA gente vendería a su madre por un puñado de Gigas.

¿Cuanto pesas? 78 Gigas
¿Qué has comido hoy? Un plato de Gigas
¿Nos hacemos unas paGIGAS?

El dinero mueve al mundo, y el dinero se copra con Gigas.


Juas, que post mas bueno. La verdad es que la gente es burra a mas no poder con los gigas de los cojones, pero es verdad, para el 99% de la poblacion todo se mide en gigas, y cuantos mas mejor claro.

Respecto a lo que se esta hablando de las caracteristicas de DX 11.3, yo creo que hay que distinguir al menos un par de casos:
1. El que la api incluya soporte para algunas tecnicas nuevas (que no tienen ni por que requerir nuevo hw). Pueden ser algoritmos que son mas eficientes que los usados incluidos en anteriores versiones de DX y simplemente se decide incluirlos en la api para facilitar el trabajo a los desarrolladores y que no tengan que implementar dichos algoritmos por su cuenta.
2. El que los algoritmos nuevos solo puedan ser ejecutados incorporando un hardware extra (o se ejecuten de una forma considerablemente mas eficiente que sin dicho hw), y que son los que hacen que una tarjeta grafica sea compatible por hardware con dicha especificacion de la API.

Lo que se discute es si las nuevas features son del primer o del segundo grupo. Yo, sin ser un experto, me da la impresion de que son del primer grupo, pero puede que alguien que controle mas me pueda corregir.

Un saludo!
Cada paso hacía adelante damos tres hacia atras. Marzo de 2014:

"However, Tamasi explained that DirectX 12 will introduce a set of new features in addition to the lower-level abstraction, and those features will require new hardware."


http://techreport.com/news/26210/directx-12-will-also-add-new-features-for-next-gen-gpus

Tamashi nos engaña, pues no lo sé, pero según este señor si hace falta nuevo hardware.
papatuelo escribió:Tamashi nos engaña, pues no lo sé, pero según este señor si hace falta nuevo hardware.


Segun el señor Kowaliski hace falta nuevo hardware para conservative rasterization y los new blend modes
Zokormazo escribió:
papatuelo escribió:Tamashi nos engaña, pues no lo sé, pero según este señor si hace falta nuevo hardware.


Segun el señor Kowaliski hace falta nuevo hardware para conservative rasterization y los new blend modes


Y eso sin contar las funciones nuevas que se implementen de aqui a mediados del 2015, y las funciones que no hayan dicho
Nuhar escribió:El 4k para juegos esta lejos, pero lejos de cojones jajajaja.

Es un desperdicio absurdo de recursos, 4 veces más de pixeles que los 1080p, buffffff!!!

Se que hay que vender televisores pero vamos... la fiebre que le esta dando a la gente por los 4k ...


Y el input lag? Es que nadie piensa en el input-lag en esos televisores a 4k?? [qmparto]
papatuelo escribió:Cada paso hacía adelante damos tres hacia atras. Marzo de 2014:

"However, Tamasi explained that DirectX 12 will introduce a set of new features in addition to the lower-level abstraction, and those features will require new hardware."


http://techreport.com/news/26210/directx-12-will-also-add-new-features-for-next-gen-gpus

Tamashi nos engaña, pues no lo sé, pero según este señor si hace falta nuevo hardware.


Dx11.3 requiere nuevas características hardware, al igual q las necesitó Dx11.2.

Maxwell aa de hoy es la única GPU Dx11.3 oficialmente. Pirate islands se espera q sea la siguiente en cuestión de horas.
Buenas gente. Seguro q conocéis a sebbbi, al cual se le ha nombrado por aquí en más de una ocasión. Es desarrollador del estudio q hace los Trials. Es curioso lo q dijo el otro día en beyond3d justo el mismo día q se produjo aquí el follón padre. Hay cosas q me suenan no se pq...

I found it really funny when I read the first GTX 980 reviews and the reviewers were touting voxel rendering as a new GPU hardware feature. Some reviewers even seemed to believe that there was custom hardware inside Maxwell that made this "feature" much faster.

Nowadays all the new GPU/API features are highly technical. For the marketing team it is much more sexy to say that their GPU supports voxel rendering than saying that their GPU supports conservative rasterization and tiled resources for volume textures (sparse volume textures). Obviously conservative rasterization can be used to speed up polygon soup -> voxel conversion algorithms and tiled volume textures can be used to store sparse voxel octree data.


Nobody claimed that NVIDIA was claiming this. The whole discussion was about journalists and masses not understanding highly technical hardware details (and I am not talking about Anandtech here, they understand what they are writing). It has become much harder to write articles abot new graphics API features, as all the new features are highly technical. In the past new DirectX versions always had some new features that also non-techical people understood. Bump mapping, pixel shaders, geometry shaders, tessellation, etc.


The actual new DirectX features are highly technical: conservative rasterization, tiled (sparse/virtual) volumetric textures and rasterizer ordered views. With these new features a programmer could implement some OIT and voxel rendering algorithms more efficiently than before. But these features can be used to implement more efficient lighting and particle rendering as well.


Tb habla de ciertas características ya disponibles en OpenGL desde hace bastante tiempo y q ahora se anuncian a bombo y platillo por los PR de turno. Creo q deberíais ir a beyond3d y ponerlo a parir como hicísteis conmigo el otro día.

Un saludo.
Veamos yo lo que he mantenido es que las características las pueden tener, pero que la XOne (que es lo que aquí tratamos) lleva hardware adicional de Microsoft para optimizar esas características.

Por poner un ejemplo un poco radical, ya que es más exagerado que este caso, una CPU sin caché L2 puede hacer lo mismo, pero con ésta lo hace más rápido, ¿cierto?. Pues algo así para los tiled resources, apoyados por coprocesadores Swizzle Copy, Move Engine, eSRAM, etc.

Por cierto, ya que lo mencionáis, algo curioso.
NVIDIA Maxwell: Primera GPU con CPU ARM para 2013
http://www.noticias3d.com/noticia.asp?idnoticia=43654

¿Cuál es la otra plataforma con un ARM...? :) Una simple curiosidad, pero bueno.
Se esta metiendo con Nvidia, q le ha cambiado el nombre a las técnicas de Dx11.3 y les llaman de otra forma. Pero en resumen, dice q Dx11.3 ofrecen más posibilidades a los desarrolladores.

No veo el problema. Lo q tu dabas a entender el otro día es q no valen prácticamente para nada.

One esta hecha para tilear todo. Encaja perfectamente con todo lo q esta mostrando Microsoft.

The DirectX 11.3 API will contain features that form a subset of D3D 12. So any feature you see here is automatically included in the succeeding API. The following list shows the new “Rendering Features”:
•Ordered rasterizer View
•Typed UAV Load
•Volume Tiled Resources
•Conservative grid
Polyteres escribió:...


Me quedo con la parte que las nuevas implementaciones no son entendibles para la gente que no es profesional de este mundo jajaja.

Mas que nada porque me identifico con la sección de "No se empapa de nada"

Pero directx12 requiere un hardware especifico para aprovechar el 100%. Lo que tu has puesto es que la tarjeta XXX no tiene un hardware especial por lo que entonces usa una tecnica especial sino que gracias a su hardware lo hace "mejor"
darksch escribió:¿Cuál es la otra plataforma con un ARM...? :) Una simple curiosidad, pero bueno.


Wii y Wii U por ejemplo, y lo llevan en en la gpu. :P

ARMs hay en todos lados y para mil cuestiones distintas XD
Polyteres escribió:
The actual new DirectX features are highly technical: conservative rasterization, tiled (sparse/virtual) volumetric textures and rasterizer ordered views. With these new features a programmer could implement some OIT and voxel rendering algorithms more efficiently than before. But these features can be used to implement more efficient lighting and particle rendering as well.


Todabia no sabes de lo que algunos nos quejamos de ti? Segun tu hay tecnicas ya utilizadas desde 2012 y bla bla bla .......... y que???? Coño es como decir que el motor de explosion no a evolucionado desde que se inventó. Ni tu ni yo sabemos que mejora supondra Dx12, asi que decir que esto funcionara asi y asi de forma tan categorica como lo haces tu .... pues me parece que no es lo mas adecuado. Y que OpenGL lo incluye pues mas de lo mismo (leete la anterior frase otra vez). Pero bueno ya sabemos que sabes mas que los ingenieros de Ms, Nvidia y Amd [facepalm].

Utilizar una tecnica por software o la misma optimizada por hardware debe arrojar unos rendimientos bien diferentes.

Pero bueno tu a lo tuyo, sigue tirandote flores ....
Pero si ni hoy ni el otro dia dijo nada de que esto va a funcionar asi o asa.

Se dice: DX11.3 trae estas X, Y, y Z features nuevas. Ademas suponen un boost de 300% en calculos de iluminacion.

Y responde Poly: Seran features nuevas para DX, pero tecnicas ya antes utilizadas mediante extensiones OpenGL aqui, alla, y un poco mas para alli. El boost del 300% es en el paso X del proceso, no en el proceso entero.

No se porque tanta guerra con lo que ha dicho xD

Deberiamos de agradecer las aclaraciones de las cuestiones tecnicas para ampliar nuestros conocimientos y hablar con rigor, no lapidarlas.
Buenas gente.

@darksch Te animo a que leas la especificación de las Partially Resident Textures para q puedas tener una visión más general del asunto [beer] . Con respecto a lo de ARM y Nvidia, son los procesadores Tegra K1 q ya se están empezando a ver en varios dispositivos Android, de hecho se rumorea q la proxima tablet de Google (fabricada por HTC y de 9 pulgadas) llevará estos SoC.

@Szasz miedo me da ya corregir a alguien, pero lee con atención y verás que no es exactamente como dices [oki] . Yo no dije que "no valen prácticamente nada" dije y sigo diciendo q son mejoras poco significativas y q por lo q parece no habrá nada suficiemente revolucionario a tenor de lo q los fabricantes de hardware han dicho y están presentando (por ejemplo no hay una característica como pudo ser la teselación).

De las 4 características q has nombrado, solo hay una verdaderamente nueva, y (espero q no se lie pq es mi opinión) tengo mis dudas sobre si será soportada por XboxOne.

@Nuhar siempre digo q muchas cosas son complicadas de entender si no se tiene una base o unos conocimientos previos. Si es complicado de entender pq son cambios sutiles o q debes ser consciente de donde se producen las mejores, imagínate intentar explicarlo para gente q no domina del todo el tema... Linchamientos everywhere.

EDITO:

@Zokormazo es q eso mismo es lo q más gracia me hace de todo [+risas] .

Un saludo.
Hace falta mucho conocimiento de hardware, y casi me atrevería a decir que haber formado parte del desarrollo de éstos, para saber el cómo puede funcionar.

Y uno puede ser un hacha en software, pero eso no se lleva al hardware, son cosas tan distintas. Uno puede hacer virguerías en C++ con tal o cual API, pero de ahí a cómo lo hace ya internamente el hardware a bajo nivel, pues los diseñadores y poco más realmente lo sabrán. Si así a ojo por encima se supiera, ¿cómo es que hay distintos fabricantes con distintas tecnologías?, es decir AMD podría coger una Nvidia, ver así a ojo y programarlo mucho, y copiar el hardware a partir de ahí, anda que no se iban a ahorrar costes de I+D.

Por mucho que se sepa de software, en cuanto a hardware se refiere, y a mayor complejidad de éste más se cumple la norma, todo lo que se diga no dejan de ser especulaciones como las que pueda dar cualquier persona que haya ido informándose. En cuanto a como rendirá, por lo menos.

@Polyteres vale, entonces han metido eso para freír patatas o porque como tenían ahí un hueco, pues oye habrá que rellenarlo con algo. Si es que es de cajón. Por otra parte son Tiled Resources, lo cual puede dar a entender que es como una extensión de la especificación, de hecho así lo dijeron respecto al hardware, que llevaba hardware de Microsoft que extendía al de AMD. Pero bueno, será para freír papas que siempre viene bien.
Zokormazo escribió:Pero si ni hoy ni el otro dia dijo nada de que esto va a funcionar asi o asa.

Se dice: DX11.3 trae estas X, Y, y Z features nuevas. Ademas suponen un boost de 300% en calculos de iluminacion.

Y responde Poly: Seran features nuevas para DX, pero tecnicas ya antes utilizadas mediante extensiones OpenGL aqui, alla, y un poco mas para alli. El boost del 300% es en el paso X del proceso, no en el proceso entero.

No se porque tanta guerra con lo que ha dicho xD


Primero mirate lo marcado en rojo (de mi mensage anterior) y leete bien el mensage (tambien va por ti Polyteres). Yo solo digo que no puede decir que esto ya estaba y ale se queda tan ancho. Coño que es el ejemplo del motor de explosion .... es como en la F1 .... mira los motores mercedes y los ferrari!!! Los dos son de F1 y de equipos punteros. Uno de los dos es tonto por no llegar??? No, pero uno le saca mucho mas rendimiento .......

DX12 incrementa rendimiento !!!!!!!!!!!!

PD: A mi si que me hace gracia el tecnolisto .... Que nadie duda que sus explicaciones no esten bien (se agradecen ademas), lo que cansa es las puyitas que cuela en medio y que el es el superingenieroquelosabetodo.

PD2: Dejo de postear porque creo que ya he dejado clara mi postura ... Solo queria que algun Dios de aqui no se lo crea tanto, y que un poco de humildad no le vendria nada mal.

Ale nos vemos lo se cuando [inlove]
Buenas gente.

@PraBeLLuM, cito el primer mensaje q puse, lee de nuevo:

Por último hablando del raster conservativo, cuando se refiere a un 3x no es un aumento aplicable al cálculo de la iluminación global en general, sino a una fase concreta de dicho algoritmo. Una fase que consiste en voxelizar las mallas. Dicha voxelización se precalcula para el escenario (solo se hace una vez) y puede hacerse o no por frame para las mallas dinámicas deformables (los personajes), dependiendo de las necesidades (aquí es donde se ganaría rendimiento no en el global de la técnica, se consumen unos 3-4ms pues ahora 1-1.5ms). El grueso de dicha técnica consiste en calcular los voxeles afectados por el BRDF para conseguir el rebote de iluminación global y esto es lo realmente costoso.


Donde digo q no se gane rendimiento?. Donde le quito mérito?. Lo explico lo mejor q puedo y es q encima digo expresamente que se gana rendimiento y aporto datos.

Si sigues faltando al respeto vas a durar poco en este hilo.

@darksch [+risas] no creo q lo hayan puesto para freir patatas no. Te vuelvo a animar a q leas la especificación [oki] .

Un saludo.
Pero en este tema, quien ha entrado en rendimientos, aparte de los 300% esos que creo que salian de la nota de presentacion? (no estoy seguro de donde venian la verdad).

Se hablaba de tecnicas nuevas en DX11.3 , poly responde que esas tecnicas no son tan nuevas, que se llevan usando en OpenGL via extensiones. Ahi nadie habla de rendimientos.

Que las implementaciones pueden tener mejor o peor rendimiento? ni idea, pero nadie se ha metido en ello excepto en los 300% de boost y la aclaracion de que era en un punto X del proceso xD

Y @prabellum, tanto poly como yo no hemos quitado en ningun momento ese boost de rendimiento de ningun lado ni dicho que no existe. Poly aclaro que ese boost, no es en el procesado completo de la iluminacion, sino que en X subproceso dentro de todo el procesado, que no es lo mismo ni mucho menos.

EDIT:

@darksch: lo habran puesto porque para algunas computaciones de general purpose ARM se esta meando en todos en consumo/flops. Pero vamos, esto no es nada nuevo, se lleva años investigando y metiendo ARM en entornos que antes no se usaba por esta razon
Y dale, que la especificación la habremos visto ya mil veces. Pero si las transferencias en lugar de un CS lo hace un coprocesador o, una combinación de ambos según la necesidad, pues ya no es lo mismo.
Pero se usen o no esas tecnicas, se necesite o no un hardware especifico nuevo, lo que tenemos son datos de mejoras.

Un 50-70% más en cpu en la demostración de Intel (tarjeta gráfica "vieja").

Un 300% en iluminación dinámica (Recordemos que se hace con Fable Legends, titulo para Xbox One).

Procesamiento de IA y Fisicas en la nube.

Que más da como lo hagan, el caso es que antes no se hacían y ahora si. Todo esto son incrementos que veremos de cara al 2015 en adelante. Si luego salen más cosas pues mejor.
Nuhar escribió:Procesamiento de IA y Fisicas en la nube.


Eso si que es un avance de verdad y no las DX.
mitardo escribió:
Nuhar escribió:Procesamiento de IA y Fisicas en la nube.


Eso si que es un avance de verdad y no las DX.

Pues seré un anticuado pero yo prefiero que las cosas las haga mi consolita, por lo menos en todo lo que se pueda. Ahora, renegar de una mejora, si el juego es online, sería de tontos. Importante requisito para no tener un juego offline con 2 versiones de detalle, con y sin nube.
darksch escribió:
mitardo escribió:
Nuhar escribió:Procesamiento de IA y Fisicas en la nube.


Eso si que es un avance de verdad y no las DX.

Pues seré un anticuado pero yo prefiero que las cosas las haga mi consolita, por lo menos en todo lo que se pueda. Ahora, renegar de una mejora, si el juego es online, sería de tontos. Importante requisito para no tener un juego offline con 2 versiones de detalle, con y sin nube.


Si implementan los cálculos en la nube no creo que solo lo dejen para el online. Si la consola esta "siempre" conectada no habría razón para que no usase la nube. Otra cosa seria si la desconectas, que aun haciendo los mismos cálculos, tardaría algo mas por tener que hacerlo todo localmente.
Nuhar escribió:Pero se usen o no esas tecnicas, se necesite o no un hardware especifico nuevo, lo que tenemos son datos de mejoras.

Un 50-70% más en cpu en la demostración de Intel (tarjeta gráfica "vieja").

Un 300% en iluminación dinámica (Recordemos que se hace con Fable Legends, titulo para Xbox One).

Procesamiento de IA y Fisicas en la nube.

Que más da como lo hagan, el caso es que antes no se hacían y ahora si. Todo esto son incrementos que veremos de cara al 2015 en adelante. Si luego salen más cosas pues mejor.


Segun Poly, esa frase es incorrecta. 300% de boost en un subproceso de la iluminacion dinamica, no en todo el proceso.

Si el proceso de iluminacion dinamica necesita 10ms, con tu afirmacion tendriamos 3,3ms con el boost.
Si el proceso de iluminacion dinamica necesita 10ms y de ellos 4 se los lleva el subproceso, tendriamos 7,3ms despues del boost con la frase de Poly.

Es una diferencia lo suficientemente grande como para tenerlo en cuenta xD
Buenas gente. @Nuhar es q ahí reside el problema, la confusión.

Un 50-70% más en cpu en la demostración de Intel (tarjeta gráfica "vieja").


XboxOne ya tiene una API de bajo nivel del mismo perfil (close to metal, de hecho va incluso más allá) que DirectX12 (sino me creeis a mí, creed a los arquitectos de XboxOne o al desarrollador de la saga Metro).

Un 300% en iluminación dinámica (Recordemos que se hace con Fable Legends, titulo para Xbox One).


Fable Legends para iluminación global usa Light Propagation Volumen que es una técnica diferente y no usa esa característica, no tienen nada que ver.

Lo habré repetido mil veces: TODO hardware cerrado avanza y mejora paulatinamente a lo largo de su vida gracias a la mejora CONSTANTE en sus herramientas (independientemente de DirectX12) y a la mejor comprensión de la arquitectura, q te permite saltarte limitaciones o bien mejorar el aprovechamiento de la máquina con nuevos algoritmos. En PC es diferente pq "nunca" se ha tenido una API tan a bajo nivel, aquí la mejora va a ser palpable aunq tb la complicación para usar la nueva API, de ahí q Ms vaya a sacar tb DirectX 11.3.

@Zokormazo exacto, oye y q aunq sea ese porcentaje esta muy bien.

Un saludo.
XboxOne ya tiene una API de bajo nivel del mismo perfil (close to metal, de hecho va incluso más allá) que DirectX12 (sino me creeis a mí, creed a los arquitectos de XboxOne o al desarrollador de la saga Metro).

Y hay que volver a repetir, que no usará casi nadie, por la falta de portabilidad. De ahí que saquen DX12 para estandarizar el desarrollo.
darksch escribió:
XboxOne ya tiene una API de bajo nivel del mismo perfil (close to metal, de hecho va incluso más allá) que DirectX12 (sino me creeis a mí, creed a los arquitectos de XboxOne o al desarrollador de la saga Metro).

Y hay que volver a repetir, que no usará casi nadie, por la falta de portabilidad. De ahí que saquen DX12 para estandarizar el desarrollo.


Buenas gente. Pues no se q decirte, pq ya se está usando y de forma intensa XD . Además q tb se debe programar para otras APIs, no solo existe DirectX. En una cosa estoy de acuerdo contigo, los port serán mas sencillos entre consolas y PCs.

Un saludo.
Polyteres si empezamos a rescatar declaraciones... volvemos a la misma tónica de siempre.

Son sólo cosas que he rescatado de los últimos días y que en el caso del Fable legends ni me he molestado en entenderlo jejeje (volvemos al desconocimiento por ser amateur). Así que tampoco voy a discutir algo que ni he leido jejeje y que seguramente no entienda.

Quizas algunas cualidades ya esten y de ahi que se expliquen muchas cosas que se discuten en otros hilos pero lo que sabemos seguro es que Xbox One recibirá una actualización para adaptarse a un nuevo directx, esto quiere decir que habrá mejoras.

Por ejemplo, tenemos ya la IA en juegos de Xbox One, pero dicen que por ejemplo para añadir las físicas se necesita el Directx12... pues no se si será verdad... tengo mis dudas de si ahora no se puede hacer, pero de ser así es un proceso que se mejora.
@Polyteres: claro que esta muy bien ;)

Que quede claro, aunque sea solo un subproceso un boost de 300% es un boost importante. Pero claro, decir que la iluminacion dinamica tiene ese boost no seria correcto
Polyteres escribió:Buenas gente. @Nuhar es q ahí reside el problema, la confusión.

Un 50-70% más en cpu en la demostración de Intel (tarjeta gráfica "vieja").


XboxOne ya tiene una API de bajo nivel del mismo perfil (close to metal, de hecho va incluso más allá) que DirectX12 (sino me creeis a mí, creed a los arquitectos de XboxOne o al desarrollador de la saga Metro).


Pregunta, citas a los de Metro, que a fin de cuenta hablaban de mejora a través de los Kits de One, hablas de que One, ya tiene su API "Close to metal". Y yo lo dudo, obviamente para afirmar algo necesito algo que apoye mi decisión. Mi apoyo es Corinne Yu (ex 343i)

Imagen

Fuente

Ella lo que confirma, es que (al menos en el momento en que ella se fue, y dudo que aún ahora se pueda) haya un "Close to metal" real en One. Y ese tweet no es falso, lo puedes buscar.

Y lo de la iluminación ni idea, pero vaya dudo que NVIDIA elija algo que no demuestre ese hipotético poderío que pretenden enseñar.
Polyteres escribió:Buenas gente. @Nuhar es q ahí reside el problema, la confusión.

Un 50-70% más en cpu en la demostración de Intel (tarjeta gráfica "vieja").


XboxOne ya tiene una API de bajo nivel del mismo perfil (close to metal, de hecho va incluso más allá) que DirectX12 (sino me creeis a mí, creed a los arquitectos de XboxOne o al desarrollador de la saga Metro).

Un 300% en iluminación dinámica (Recordemos que se hace con Fable Legends, titulo para Xbox One).


Fable Legends para iluminación global usa Light Propagation Volumen que es una técnica diferente y no usa esa característica, no tienen nada que ver.

Lo habré repetido mil veces: TODO hardware cerrado avanza y mejora paulatinamente a lo largo de su vida gracias a la mejora CONSTANTE en sus herramientas (independientemente de DirectX12) y a la mejor comprensión de la arquitectura, q te permite saltarte limitaciones o bien mejorar el aprovechamiento de la máquina con nuevos algoritmos. En PC es diferente pq "nunca" se ha tenido una API tan a bajo nivel, aquí la mejora va a ser palpable aunq tb la complicación para usar la nueva API, de ahí q Ms vaya a sacar tb DirectX 11.3.

@Zokormazo exacto, oye y q aunq sea ese porcentaje esta muy bien.

Un saludo.


A estos?

Oles also expressed his thoughts on the upcoming most anticipated DirectX 12, and AMD’s Mantle API. According to him, both the DirectX 12 and Mantle are ideal shifts in API design, and while his thoughts are that the former might prove to be very significant for Microsoft’s latest video game console, he believes that the latter will just be “temporary.”
“Aside from them being much more close to the (modern) metal, those APIs are a paradigm-shift in API design. DX11 was ‘I will keep track of everything for you’. DX12 says ‘now it’s your responsibility’ – so it could be a much thinner layer. As for Mantle, it is a temporary API, in my honest opinion.”
“No, it’s important [for Xbox One]. All the dependency tracking takes a huge slice of CPU power. And if we are talking about the multi-threaded command buffer chunks generation – the DX11 model was essentially a ‘flop’, while DX12 should be the right one.”
@papatuelo: Esos estan hablando de diferencias DX11 vs DX12 en Xbox one, no mencionan para nada la API close to metal.

Lo que dicen basicamente es que en DX11 (tanto en pc como en one) la api se encarga de tantas cosas por ti que genera un overhead importante. En DX12, ese control esta en manos del desarrollador, no de la API, y por lo tanto no hay tanto overhead y la API tiene menos capas entra la interface para el desarrollador y el hardware.

Pero eso no dice nada de la API close to metal de xbox one, que es a lo que se referia Polyteres.

EDIT:

Lo que tampoco significa que hayan hablado o dejado de hablar sobre esa API close to metal, sino que lo que quoteas no dice nada sobre ella.

EDIT: @PIXELLOGICS la tia esa no confirma en ningun momento la no existencia de esa API close to metal. Habla de que la API de PS4 no tiene morralla tipo WinOS o drivers GPU entre la interface de programacion y el hardware. Lo que no significa que xbox lo tenga o deje de tener. Estamos hablando de que en Xbox One existen ambas APIs, la close to metal, y la DX11like con mas morralla de por medio. Eso es compatible con lo que dice Corrinne.
@Polyteres que no que esa API no la está usando casi nadie, más allá de los exclusivos, en los cuales se nota por cierto.

http://www.eurogamer.net/articles/digitalfoundry-2014-metro-redux-what-its-really-like-to-make-a-multi-platform-game

Digital Foundry: DirectX 11 vs GNMX vs GNM - what's your take on the strengths and weakness of the APIs available to developers with Xbox One and PlayStation 4? Closer to launch there were some complaints about XO driver performance and CPU overhead on GNMX.

Oles Shishkovstov: Let's put it that way - we have seen scenarios where a single CPU core was fully loaded just by issuing draw-calls on Xbox One (and that's surely on the 'mono' driver with several fast-path calls utilised). Then, the same scenario on PS4, it was actually difficult to find those draw-calls in the profile graphs, because they are using almost no time and are barely visible as a result.

In general - I don't really get why they choose DX11 as a starting point for the console. It's a console! Why care about some legacy stuff at all? On PS4, most GPU commands are just a few DWORDs written into the command buffer, let's say just a few CPU clock cycles. On Xbox One it easily could be one million times slower because of all the bookkeeping the API does.

But Microsoft is not sleeping, really. Each XDK that has been released both before and after the Xbox One launch has brought faster and faster draw-calls to the table. They added tons of features just to work around limitations of the DX11 API model. They even made a DX12/GNM style do-it-yourself API available - although we didn't ship with it on Redux due to time constraints.

Si tienes pruebas fehacientes de equipos que la estén usando, no dudes en ponerlas.
Pero ahora mismo estoy casi seguro que la mayoría tira de ese DX11 que como API de consola deja mucho que desear, ¿CPU overhead en draw-calls, en consola? [facepalm]
Vamos a ver quien no entienda de lo que dice polyteres que Directx 12 en XBOX no pinta mucho xq ya tiene una close to metal que levante la mano...

Lo habré repetido mil veces: TODO hardware cerrado avanza y mejora paulatinamente a lo largo de su vida gracias a la mejora CONSTANTE en sus herramientas (independientemente de DirectX12) y a la mejor comprensión de la arquitectura, q te permite saltarte limitaciones o bien mejorar el aprovechamiento de la máquina con nuevos algoritmos. En PC es diferente pq "nunca" se ha tenido una API tan a bajo nivel, aquí la mejora va a ser palpable aunq tb la complicación para usar la nueva API, de ahí q Ms vaya a sacar tb DirectX 11.3.


Bueno pues solo digo que la mejora en XBOX también va a ser palapable, y si no os lo creeis en palabras de gente más lista que yo "creed a los arquitectos de XboxOne o al desarrollador de la saga Metro"

Que a estos si hay que creelos a los de nvidia no, caca.

Edito: Gracias Darksch, esa es la que buscaba yo realmente pero no la encontr. Es raro pero solo encontre noticas que decian eSRam caca según los desarrolladores de Metro.
Polyteres escribió:
XboxOne ya tiene una API de bajo nivel del mismo perfil (close to metal, de hecho va incluso más allá) que DirectX12 (sino me creeis a mí, creed a los arquitectos de XboxOne o al desarrollador de la saga Metro).


“Aside from them being much more close to the (modern) metal, those APIs are a paradigm-shift in API design. DX11 was ‘I will keep track of everything for you’. DX12 says ‘now it’s your responsibility’ – so it could be a much thinner layer. As for Mantle, it is a temporary API, in my honest opinion.”
“No, it’s important [for Xbox One]. All the dependency tracking takes a huge slice of CPU power. And if we are talking about the multi-threaded command buffer chunks generation – the DX11 model was essentially a ‘flop’, while DX12 should be the right one.”


Lo que dicen es que cuando llegue DX12 será mejor porque es mas close to the metal. Que es justo lo contrario que dice Polyteres.

Ciñendome a estas declaraciones, yo lo que hay o no lo desconozco :P
Mejor que DX11, si mejor o peor que la API close to metal de juana no dice nada.
Dice que es importante para Xbox One ...

Creo que es obvio.
Zokormazo escribió:Mejor que DX11, si mejor o peor que la API close to metal de juana no dice nada.

Hombre, si aún no existe y no han podido usarla pues como que no pueden opinar.

Mirad ahora mismo está clara la cosa, la mayoría de juegos en XOne están hechos con una API no close to the metal, si no tipo PC. DX12 ya será una API para todos tipo close to the metal, y a partir de ahí a ver que se hace con eso.

Como ejemplos pueden servir los juegos exclusivos más cercanos que seguramente sí usan la API exclusiva, como son el motor de Forza (mejorado en FH2) o seguramente usado para bastantes técnicas mostradas en Ryse (el cual recordemos no tenía el 10% extra de Kinect).
17587 respuestas