Hablemos del interior de Xbox One

Morepawer está baneado por "hater, flames y clones"
Lo mejor es que queda poquito para saber mas de la arquitectura de X1 y con afectará Dx12 en la misma.
Morepawer escribió:Lo mejor es que queda poquito para saber mas de la arquitectura de X1 y con afectará Dx12 en la misma.


Siempre queda poquito y es mañana xD
Zokormazo escribió:
Morepawer escribió:Lo mejor es que queda poquito para saber mas de la arquitectura de X1 y con afectará Dx12 en la misma.


Siempre queda poquito y es mañana xD

Pero esta vez es verdad ;) lo dijimos hace dos años y ya se vislumbra ke teniamos razon.

Dijo phil spencer que hablarian del tema.

Toda la gente que ha negado dx12 en xbo desde que salio la consola se lo deberian hacer mirar.

Y si tiene dos o tres features nuevas por hardware para dx12 ke aun no tenga ninguna tarjeta grafica(a parte del doble contexto grafico y las partes desdobladas) puede ser un año de zascas en la firma de papatuelo
Es decir que ahora hemos pasado de Xbox no utilizará DX12.1 jamás ,luego cuando ya se sabe que sí pues que tampoco será para tanto ,,y lo nuevo es que DX11.1 ya utilizaba las mejoras que traerá DX12.1 a Xbox,bueno se discute....

Impresionante es que eso no es necesario discutir...sí el DX va a mejorar el soft de Xbox y exprimirá el hard pues como que no tiene nada que ver un DX con otro..

Curioso pero los que an negado todo resulta que no sólo se an equivocado,sí no que siguen negando la evidencia..
@zokormazo :
El pasado.. pasado es . Aprendemos de el
El presente es un regalo. De ahi su nombre
El mañana. Jodio mañana que no llega el viernes ya ....


xD
@eloskuro, @Grinch: aer si es verdad!

Siempre se va a aclarar todo en la siguiente charla, conferencia, evento de turno, luego apenas sueltan nada y hasta la siguiente cita xDDDD
La verdad es que siempre fechan un dia y luego nos sueltan lo minimo... Ya mismo nos morimos antes de saber que lleva ..



Imagen
Edito el mensaje para no continuar con el off-topic.

eloskuro escribió:
Zokormazo escribió:
Morepawer escribió:Lo mejor es que queda poquito para saber mas de la arquitectura de X1 y con afectará Dx12 en la misma.


Siempre queda poquito y es mañana xD

Pero esta vez es verdad ;) lo dijimos hace dos años y ya se vislumbra ke teniamos razon.

Dijo phil spencer que hablarian del tema.

Toda la gente que ha negado dx12 en xbo desde que salio la consola se lo deberian hacer mirar.

Y si tiene dos o tres features nuevas por hardware para dx12 ke aun no tenga ninguna tarjeta grafica(a parte del doble contexto grafico y las partes desdobladas) puede ser un año de zascas en la firma de papatuelo


El rollo este de los zascas es cuanto menos gracioso,ya veremos hasta que punto se notan esas mejoras,por que como no se noten de manera evidente,los zascas van a ser para otros.

Y que yo sepa DX12 no se anuncio en cuanto salio la consola no?Se anuncio mas tarde,y obviamente ya se dijo que Xone lo soportaria,el tema es hasta que punto va a mejorar la eficacia de la consola en los juegos.

Un saludo.
Morepawer está baneado por "hater, flames y clones"
Para mi que MS simplemente sigue su roadmap y las guerras de consolas las deja para los foros. Después de este primer año duro y de ataques continuos sobre el hardware de x1, la expectación sobre los efectos que tendrá dx12 en x1 son muy elevados. Como buen pcero y consolero toda mejora la recibo con los brazos abiertos.
Es que el rollo de notar es muy relativo. Ya se ha dicho que la programacion tiene que estar basada en ese sentido, y los limites ir en un sentido en concreto, eso por un lado. Aparte, sale un titulo full DX12, nadie sabe cual es su aspecto en DX11.3/APIINICIO/APIACTUAL, la comparacion no cabe. Pongamos que ese titulo funciona a 30 fps estables, siempre podra ser posible que ese mismo titulo sin ese plus no fuera posible estable, y eso nunca se va a poder ver/verificar/comprobar. Luego hay que recordar lo que suponen al ojo los ordenes de mejora de rendimiento de los que estamos hablando, hoy dia una mejora con un impacto visual directo fuerte, casi requeriria doblar la potencia, es lo que yo llamaria masivo y ya han dejado claro que no va a ser.
Jur...

Las DX12 se anunciaron a finales de marzo de 2014. Ya de aquellas avisaron que los juegos saldrían en navidades de 2015.

Un saludo.
Ferdopa escribió:Jur...

Las DX12 se anunciaron a finales de marzo de 2014. Ya de aquellas avisaron que los juegos saldrían en navidades de 2015.

Un saludo.


Y quienes son los que van a sacar los juegos? Los exclusivos que son los que se esfuerzan en aplicar estas mejoras.

Hasta que no usen los nuevos motores de juegos no se veran realmente los juegos con Dx12. Me imagino que Epic ya habrá distribuido betas del UE pero hay desarrolladoras que no usan este motor.
NeCLaRT escribió:Es que el rollo de notar es muy relativo. Ya se ha dicho que la programacion tiene que estar basada en ese sentido, y los limites ir en un sentido en concreto, eso por un lado. Aparte, sale un titulo full DX12, nadie sabe cual es su aspecto en DX11.3/APIINICIO/APIACTUAL, la comparacion no cabe. Pongamos que ese titulo funciona a 30 fps estables, siempre podra ser posible que ese mismo titulo sin ese plus no fuera posible estable, y eso nunca se va a poder ver/verificar/comprobar. Luego hay que recordar lo que suponen al ojo los ordenes de mejora de rendimiento de los que estamos hablando, hoy dia una mejora con un impacto visual directo fuerte, casi requeriria doblar la potencia, es lo que yo llamaria masivo y ya han dejado claro que no va a ser.


Pero entiendo que en los exclusivos de Xone,se sacara todo el jugo posible a DX12,simplemente tendremos que ver la mejora entre los titulos de este año como QB o Halo 5.

Es que,si luego a la practica,ese incremento de potencia no se nota mal vamos,y repito,los exclusivos se supone que si lo aprovecharan al 100%,otra cosa es que en los multis no se saque tanto provecho.


Un saludo.
@Moraydron imagino que te refieres respecto a otros títulos que no usen DX12. Es decir un título que ya usa DX12 en beta no puede mejorar sobre sí mismo a causa de la API, sería a causa de las optimizaciones propias.

A eso estamos esperando, a ver que tal esa campaña de Halo 5 (detalle, framerate, etc.), y otros que usen DX12.

Pero habrá que estar muy atento a los detalles que sin comparativa sobre el mismo título pueden pasar desapercibidos. Por ejemplo me queda claro que Fable Legends tal cual es no sería posible sin DX12, estoy jugando al DA y viendo otros tantos títulos, y por ejemplo en Fable Legends no ocurre ese popping de la hierba, o simplificaciones muy grandes de LOD con la distancia para juntar varios objetos en uno solo, y cada vez tengo más claro que puede deberse a no tener que ahorrar en drawcalls.

También hay que considerar que DX12 abre la puerta a optimizaciones a "bajo nivel" (lo que se entiende hoy en día por eso) lo que da opción de ir mejorando en optimizaciones por una vía adicional, pero de los propios programas no de la API en sí. Esto ahora mismo simplemente no es posible, no hay dicha opción. Con lo cual los 1os juegos tampoco son indicativos máximos de su alcance, al abrirse una nueva vía por donde experimentar y optimizar.

Yo lo que espero principalmente son framerates constantes y mayor riqueza visual, no reducirlo a si lo pueden poner en 1080p o no.
Final de año va a ser una verdadera prueba de fuego para todo esto, los titulos first importantes de Ms que se suponen que estan construyendose en base a dx12 mostraran un poco lo que dx12 puede hacer a la consola y lo que podemos esperar, ya sea un 10% o un 400%.
Espero que la exclusividad de Tomb Raider y esas promesas de apoyar en todo a su desarrollo se traduzcan en juego para DX12 [babas]
[tweet]https://twitter.com/XRays_it/status/560731503429431296[/tweet]

http://gamingbolt.com/stardock-ceo-on-d ... ase-of-sli

[tweet]https://twitter.com/draginol/status/560094416527183872[/tweet]

[tweet]https://twitter.com/draginol/status/560162088497459201[/tweet]






Moraydron escribió:[... simplemente tendremos que ver la mejora entre los titulos de este año como QB...]


QB no usa DX12
Buenas tardes compañeros, mirar que dice esta web, no me convence para nada, que opináis vosotros?

Xbox One: DirectX 12 no solucionará el problema de la resolución | El Chapuzas Informático - http://elchapuzasinformatico.com/2015/0 ... esolucion/

Saludos.
biohazard_256 escribió:Buenas tardes compañeros, mirar que dice esta web, no me convence para nada, que opináis vosotros?

Xbox One: DirectX 12 no solucionará el problema de la resolución | El Chapuzas Informático - http://elchapuzasinformatico.com/2015/0 ... esolucion/

Saludos.


Ja,ja... has puesto la revista salsa rosa.... [carcajad] [carcajad] [carcajad]

Es divertido de leer, como "El Jueves"
biohazard_256 escribió:Buenas tardes compañeros, mirar que dice esta web, no me convence para nada, que opináis vosotros?

Xbox One: DirectX 12 no solucionará el problema de la resolución | El Chapuzas Informático - http://elchapuzasinformatico.com/2015/0 ... esolucion/

Saludos.


Esa página es una autentica vergüenza permamente, no de ahora si no desde hace ya bastante tiempo.

Esta desacreditado en múltiples ocasiones y los comentarios a sus noticias suelen ser una retaila de comentarios diciendo que como no se le cae la cara de verguencia.

Vamos un comprado para vender ps4 y echar mierda a One (otro mas)
biohazard_256 escribió:Buenas tardes compañeros, mirar que dice esta web, no me convence para nada, que opináis vosotros?

Xbox One: DirectX 12 no solucionará el problema de la resolución | El Chapuzas Informático - http://elchapuzasinformatico.com/2015/0 ... esolucion/

Saludos.


El nombre de la web te lo dice todo XD.
Para empezar es que "el problema de la resolucion" ni existe como tal, existira un rendimiento limitado/cerrado y unas decisiones de diseño. Que yo sepa todos los que lanzan a mas resolucion, que son la mayoria, no hacen magia o tienen patente de no problema.

Pues con mas rendimiento seguira habiendo desarrollos en los que preferiran mas carga o rendimiento a cambio de algo menos de pixeles. Pero deberian ser menos al aumentarse el margen.

Por otro lado ni siquiera argumenta nada para ello, pero vamos lo tipico en webs de ese tipo. Tampoco sabia lo que comentan arriba, en ese caso poco mas que comentar.
No te creas nada de esa pagina, la ultima vez dijo que QB era un juego de xbox 360 por su aspecto tenico. [facepalm] [facepalm] [facepalm] [facepalm] [facepalm] [facepalm] [facepalm] [facepalm]

----

Entonces en la GDC tendremos cosas interesantes no?
Guillermo GT3 escribió:No te creas nada de esa pagina, la ultima vez dijo que QB era un juego de xbox 360 por su aspecto tenico. [facepalm] [facepalm] [facepalm] [facepalm] [facepalm] [facepalm] [facepalm] [facepalm]

----

Entonces en la GDC tendremos cosas interesantes no?


No digo de 360.. Dijo de ps2. Que luego edito cuando vio la lluvia de mierda

Y otras como dar 2500 euros como precio confirmado por MS para los hololents.. Y otras tantas todas para echar mierda a One claro.
salocin21 escribió:
Guillermo GT3 escribió:No te creas nada de esa pagina, la ultima vez dijo que QB era un juego de xbox 360 por su aspecto tenico. [facepalm] [facepalm] [facepalm] [facepalm] [facepalm] [facepalm] [facepalm] [facepalm]

----

Entonces en la GDC tendremos cosas interesantes no?


No digo de 360.. Dijo de ps2. Que luego edito cuando vio la lluvia de mierda

Y otras como dar 2500 euros como precio confirmado por MS para los hololents.. Y otras tantas todas para echar mierda a One claro.


Peor jajajaj
Que gente por dios [facepalm]
Y todavia pinchareis en el enlace para darles visitas y dinerito.... [facepalm]
salocin21 escribió:
Guillermo GT3 escribió:No te creas nada de esa pagina, la ultima vez dijo que QB era un juego de xbox 360 por su aspecto tenico. [facepalm] [facepalm] [facepalm] [facepalm] [facepalm] [facepalm] [facepalm] [facepalm]

----

Entonces en la GDC tendremos cosas interesantes no?


No digo de 360.. Dijo de ps2. Que luego edito cuando vio la lluvia de mierda.


Igual no es culpa del pobre, y tiene problemas de vision....
Imagen
Se agradecería que no se hiciera spam a páginas de revistas que si fueran de papel escrito no servirian ni como papel higienico
Horizonte de sucesos escribió:Se agradecería que no se hiciera spam a páginas de revistas que si fueran de papel escrito no servirian ni como papel higienico


[qmparto]

He pinchado el enlace para ver que dicen y mi sorpresa ha sido que no dicen nada. Primera y última vez que visito esa página.

Un saludo.
Curioso, mucho poner a parir la pagina esa, pero del comentario original de Brad Wardell nadie dice nada, parece que se quiere distraer la atención sobre eso [+risas] [carcajad]
Que no se ha dicho nada de que la mejora fuerte esta en CPU? Es una broma? ¬_¬
Claro la gran mejora esta en la comunicacion cpu-gpu, gracias a la arquitectura de one y de dx12 la cpu ya no tiene que estar esperando a la gpu, sin cuellos de botella, uno de los grandes problemas de ps4, recordad lo que dijo uno de los desarroyadores de assasin unity, el juego podria ir a 120 fps si no fuera por ese problema, el video de la comparativa dx11 vs dx12 es esclarecedor, con dx12 la cpu tarda mucho mas en llenarse, eso es lo que es one, eficiencia pura y dura
cch37 escribió:Claro la gran mejora esta en la comunicacion cpu-gpu, gracias a la arquitectura de one y de dx12 la cpu ya no tiene que estar esperando a la gpu, sin cuellos de botella, uno de los grandes problemas de ps4, recordad lo que dijo uno de los desarroyadores de assasin unity, el juego podria ir a 120 fps si no fuera por ese problema, el video de la comparativa dx11 vs dx12 es esclarecedor, con dx12 la cpu tarda mucho mas en llenarse, eso es lo que es one, eficiencia pura y dura


Link al comentario de ese desarrollador que nombras?

Sin contar que viendo como ha salido el Unity,pueden decir lo que quieran,esta mas que claro que el juego salio antes de tiempo.

Supongo que con el cuello de botella te refieres a que la gpu no tenga que esperar a la cpu,que es la que genera el cuello de botella,en ese caso,veremos hasta que punto le sacan provecho.

Siempre he pensado que en parte el CPU-Bound en algunos casos es utilizado como excusa por la desarrolladora,como las bandas negras en The Evil Within o el aspecto "cinematografico" xD.

Un saludo.
Moraydron escribió:
cch37 escribió:Claro la gran mejora esta en la comunicacion cpu-gpu, gracias a la arquitectura de one y de dx12 la cpu ya no tiene que estar esperando a la gpu, sin cuellos de botella, uno de los grandes problemas de ps4, recordad lo que dijo uno de los desarroyadores de assasin unity, el juego podria ir a 120 fps si no fuera por ese problema, el video de la comparativa dx11 vs dx12 es esclarecedor, con dx12 la cpu tarda mucho mas en llenarse, eso es lo que es one, eficiencia pura y dura


Link al comentario de ese desarrollador que nombras?

Unity es CPU Bound por culpa de la IA y demás cosas, dijo el DEV, y eso no tiene nada que ver con DX12. El CPU bound que mejora DX12 es solo cuando la CPU se desborda por exceso de Drawcalls. Y eso pasa en DX11 vainilla, en GNMX/GNM no se si pasará, es la primera noticia que tengo al respecto en cualquiera de los 2 sentidos.

El resto se lo ha inventado @cch37

"Technically we're CPU-bound," he said. "The GPUs are really powerful, obviously the graphics look pretty good, but it's the CPU [that] has to process the AI, the number of NPCs we have on screen, all these systems running in parallel."
http://www.videogamer.com/ps4/assassins_creed_unity/news/assassins_creed_unity_is_900p_30fps_on_both_ps4_and_xbox_one.html

Siempre he pensado que en parte el CPU-Bound en algunos casos es utilizado como excusa por la desarrolladora,como las bandas negras en The Evil Within o el aspecto "cinematografico" xD.

Lo de CPU-Bound no es una excusa, es simplemente detallar técnicamente donde está el cuello de botella en tu juego. Lo que deberían hacer es desplazar físicas y demás cosas para que se hagan en la GPGPU y solucionarlo, en vez de contarnoslo.
cercata escribió:Unity es CPU Bound por culpa de la IA y demás cosas, dijo el DEV, y eso no tiene nada que ver con DX12. El CPU bound que mejora DX12 es solo cuando la CPU se desborda por exceso de Drawcalls. Y eso pasa en DX11 vainilla, en GNMX/GNM no se si pasará, es la primera noticia que tengo al respecto en cualquiera de los 2 sentidos.

Nooo, que equivocado, es precisamente relación directa. Veamos, si te comes casi toda la CPU con IA y demases, y te queda muy muy poca CPU para drawcalls, si éstas consumen CPU precisamente podrás hacer muy pocas, y en el caso de pasarte a cada una que hagas de más estarás más limitado y te bajarán más los fps. Es decir, el objetivo en cualquier caso es necesitar la cantidad mínima de CPU para drawcalls, si encima sabemos que los programas no paralelizan el multi-hilo de forma ideal, DX12 al repartirse aprovechará esos % de cada núcleo sin usarse.
Salvo que hagas el juego ultra-plano, todo está relacionado directamente con la CPU.

Lo de los 120 fps no es inventado, recuerdo la entrevista, solo que como para ponerse ahora a buscar el enlace. De todas formas no hay que darle mucha credibilidad a Ubi.
Por eso digo que el CPU-Bound es un poco una excusa,hay maneras de mejorar el rendimiento frente a ese cuello de botella,pero mejor es decir que la CPU limita por que queremos poner 10k npcs en pantalla tirando de fuerza bruta,de tanta fuerza bruta que hasta los PCs se resentian xD.

Lo que comento el DEV ya lo sabia,lo que queria leer era especificamente lo de los 120fps,que es una burrada,de hecho,no se por que no rula asi de bien en pc.

Un saludo.
darksch escribió:
cercata escribió:Unity es CPU Bound por culpa de la IA y demás cosas, dijo el DEV, y eso no tiene nada que ver con DX12. El CPU bound que mejora DX12 es solo cuando la CPU se desborda por exceso de Drawcalls. Y eso pasa en DX11 vainilla, en GNMX/GNM no se si pasará, es la primera noticia que tengo al respecto en cualquiera de los 2 sentidos.

Nooo, que equivocado, es precisamente relación directa. Veamos, si te comes casi toda la CPU con IA y demases, y te queda muy muy poca CPU para drawcalls, si éstas consumen CPU precisamente podrás hacer muy pocas, y en el caso de pasarte a cada una que hagas de más estarás más limitado y te bajarán más los fps. Es decir, el objetivo en cualquier caso es necesitar la cantidad mínima de CPU para drawcalls, si encima sabemos que los programas no paralelizan el multi-hilo de forma ideal, DX12 al repartirse aprovechará esos % de cada núcleo sin usarse.
Salvo que hagas el juego ultra-plano, todo está relacionado directamente con la CPU.

Lo de los 120 fps no es inventado, recuerdo la entrevista, solo que como para ponerse ahora a buscar el enlace. De todas formas no hay que darle mucha credibilidad a Ubi.


http://www.videogamer.com/ps4/assassins_creed_unity/news/assassins_creed_unity_is_900p_30fps_on_both_ps4_and_xbox_one.html

Y aquí tienes el Alien que se arrastra en consola, supuestamennte con APIs de bajo nivel, cuando sus supuestas GPU en PC lo mueven a casi el doble de frames.
Imagen
@darksch, tu teoría está muy bien, y podría ser así, o podría no serla. Podría ser que Ubisoft haya usando funciones de bajo nivel, y no este sufriendo los problemas de DX11.

papatuelo escribió:url]http://www.videogamer.com/ps4/assassins_creed_unity/news/assassins_creed_unity_is_900p_30fps_on_both_ps4_and_xbox_one.html[/url]

Y aquí tienes el Alien que se arrastra en consola, supuestamennte con APIs de bajo nivel, cuando sus supuestas GPU en PC lo mueven a casi el doble de frames.

Que las consolas tengan APIs de bajo nivel, no significa que todos los DEVs las usen. Por eso los exclusivos se suelen ver mejor que el resto ...
@papatuelo: su supuesta gpu, pero con un i7 que se mea en los jaguar xD

Pero bueno, eso ocurrira despues tambien. En juegos que no lo lleven al maximo no, pero con el cpu overhead bajado pero aun y todo dandole mucha caña a la cpu, el i7 seguira tirando millas mucho mejor que el jaguar

En esta generacion ya se pueden poner las pilas en cpu paralelizando todo, porque osino por mucho que bajen el overhead van a rendir una puta mierda. Ya dijeron los de metro, un mismo proceso cpu en un hilo que en ps360 tardaba X en one4 tarda X*2.

Y no creo yo que hasta ahora esten sacando todo el jugo posible a los 8 cores del jaguar (bueno, para juegos menos, pero siguen siendo muchos). Ya pueden empezar a meter caña a eso - sobre todo los multis - porque vamos...
[quote="Zokormazo"]@papatuelo: su supuesta gpu, pero con un i7 que se mea en los jaguar xD

Pero bueno, eso ocurrira despues tambien. En juegos que no lo lleven al maximo no, pero con el cpu overhead bajado pero aun y todo dandole mucha caña a la cpu, el i7 seguira tirando millas mucho mejor que el jaguar

En esta generacion ya se pueden poner las pilas en cpu paralelizando todo, porque osino por mucho que bajen el overhead van a rendir una puta mierda. Ya dijeron los de metro, un mismo proceso cpu en un hilo que en ps360 tardaba X en one4 tarda X*2.

Y no creo yo que hasta ahora esten sacando todo el jugo posible a los 8 cores del jaguar (bueno, para juegos menos, pero siguen siendo muchos). Ya pueden empezar a meter caña a eso - sobre todo los multis - porque vamos...[/quote]

Precisamente eso quería decir...

Wardell, al que quien quiere toma como un loco ya contesto a alguien que le dijo que a pesar de todo los nucleos jaguar eran demasiado lentos. Su respuesta fue que ocho cores bien usados era suficiente.
Arregla el quote @papatuelo.

Lo de los 8 cores bien usados, tiene razon, con 8 cores bien usados se puede hacer muchisimo. Pero ni tienen 8 a su disposicion ni van a usarlos a full todas apenas nadie.

Desgraciadamente lo tipico sera ir repartiendo por tipo de tareas en distintos hilos, lo que significa que unos hilos iran al 20% y otros a full, desaprovechando ciclos en los cores donde caigan los hilos tontos xD

Y lo mismo en pc eh. Las aplicaciones tipicas suelen desaprovechar muchisimos hilos mientras saturan un par.
Zokormazo escribió:Arregla el quote @papatuelo.

Lo de los 8 cores bien usados, tiene razon, con 8 cores bien usados se puede hacer muchisimo. Pero ni tienen 8 a su disposicion ni van a usarlos a full todas apenas nadie.

Desgraciadamente lo tipico sera ir repartiendo por tipo de tareas en distintos hilos, lo que significa que unos hilos iran al 20% y otros a full, desaprovechando ciclos en los cores donde caigan los hilos tontos xD

Y lo mismo en pc eh. Las aplicaciones tipicas suelen desaprovechar muchisimos hilos mientras saturan un par.


Si fuera para hacer eso no se para que iban a querer DX 12

Imagen
Zokormazo escribió:Lo de los 8 cores bien usados, tiene razon, con 8 cores bien usados se puede hacer muchisimo. Pero ni tienen 8 a su disposicion ni van a usarlos a full todas apenas nadie.

Aunque tuviesen los 8, el salto en potencia bruta disponible desde la generación pasada es muy pequeño, si lo comparamos con el salto en potencia de GPU, o con el salto en la cantidad de RAM.

Cuando salio WiiU se habló mucho de ello, ya que ahí es todavía mas exagerado el problema, y se decía mucho que la clave era usar la GPGPU para cosas que hasta entonces no se usaban.

Yo aun no he visto ningún juego que lo haga, sólo demos, como lo de las bailarinas de Ubisoft, estoy esperando el primero juego que haga uso de ello, aunque ello implique bajar un poco la resolución, para mi sería un avance.
Punto uno, hablo de la arquitectura de one que no me voy a poner a explicar ahora por que creo que ya esta explicado, se pueden hacer tareas a la vez que con otras plataformas no se puede, se trata de evitar atascos de organizar mejor el trabajo y evitar cuellos de botella, no me invento nada, punto dos, ps4 tiene problemas en la comunicacion entre los jaguar y la gpu por que los jaguar son una castaña y en one pasaria lo mismo si no fuera por su arquitectura que aun no se a aprovechado bien y pese a eso los juegos empiezan a demostrar mejor rendimiento, punto tres, lo del dev tampoco es inventado son palabras suyas en una entrevista y punto cuatro, aqui los unicos que inventan o mejor dicho llevan intentando engañar a la gente son sony y sus pelotillas que se compran una consola simplemente por que se llama playstation, no sabiais que kill zone no va a 1080p reales? Informaros bien, un saludo
papatuelo escribió:
Zokormazo escribió:Arregla el quote @papatuelo.

Lo de los 8 cores bien usados, tiene razon, con 8 cores bien usados se puede hacer muchisimo. Pero ni tienen 8 a su disposicion ni van a usarlos a full todas apenas nadie.

Desgraciadamente lo tipico sera ir repartiendo por tipo de tareas en distintos hilos, lo que significa que unos hilos iran al 20% y otros a full, desaprovechando ciclos en los cores donde caigan los hilos tontos xD

Y lo mismo en pc eh. Las aplicaciones tipicas suelen desaprovechar muchisimos hilos mientras saturan un par.


Si fuera para hacer eso no se para que iban a querer DX 12

Imagen


Eso es un bench, la realidad va a distar mucho de eso. Si poner los 8 cores a full lo haces con while true loops sin problema, el tema sera sacarles provecho sin que nada espere a otra cosa ni nada por el estilo. Y eso es mucho mas complicado que usar DX12 y reducir el overhead

@cercata: el salto en cpu no es tan bruto no, es la pieza donde mas curris han sido. Pero bueno, ahora no solo la cpu hace tareas de cpu. Y eso tmb puede dar mucho juego.
cercata escribió:@darksch, tu teoría está muy bien, y podría ser así, o podría no serla. Podría ser que Ubisoft haya usando funciones de bajo nivel, y no este sufriendo los problemas de DX11.

Supongo que está bien soñar, pero es Ubisoft, usan DX a pelo y sin optimizar, y el DX de la consola es DX11 ahora mismo.

Que va, aparte de que la API a bajo nivel no la usa casi nadie (el Forza Engine y poco más), 1) ni ésta soporta fullDX12 y 2) se quiere estandarizar, no vas a tener que currarte el motor en exclusiva para XOne, eso no lo hace nadie seamos realistas.
Zokormazo escribió:
papatuelo escribió:
Zokormazo escribió:Arregla el quote @papatuelo.

Lo de los 8 cores bien usados, tiene razon, con 8 cores bien usados se puede hacer muchisimo. Pero ni tienen 8 a su disposicion ni van a usarlos a full todas apenas nadie.

Desgraciadamente lo tipico sera ir repartiendo por tipo de tareas en distintos hilos, lo que significa que unos hilos iran al 20% y otros a full, desaprovechando ciclos en los cores donde caigan los hilos tontos xD

Y lo mismo en pc eh. Las aplicaciones tipicas suelen desaprovechar muchisimos hilos mientras saturan un par.


Si fuera para hacer eso no se para que iban a querer DX 12

Imagen


Eso es un bench, la realidad va a distar mucho de eso. Si poner los 8 cores a full lo haces con while true loops sin problema, el tema sera sacarles provecho sin que nada espere a otra cosa ni nada por el estilo. Y eso es mucho mas complicado que usar DX12 y reducir el overhead

@cercata: el salto en cpu no es tan bruto no, es la pieza donde mas curris han sido. Pero bueno, ahora no solo la cpu hace tareas de cpu. Y eso tmb puede dar mucho juego.


La virgen!!!!

Como te puede gustar tantisimo llevar la contra, aun no has visto DX12 en marcha y ya sabes si va a sacar partido o no de los ocho nucleos.

Los magufos al menos tenemos aquella cosa de dejar un lugar a la duda.
Morepawer está baneado por "hater, flames y clones"
@papatuelo
Esa imagen me pone muy cachondo. La diferencia de rendimiento es abismal.
@papatuelo: que tiene dx12 para balancear bien las cargas de cpu?

Esque no creo que dx12 influya en hacer bien o mal el balanceo de carga de procesos puramente cpu.

Si, podras paralelizar los draw calls... Y? Eso hace que se programe bien la computacion cpu?

Podras balancear tan bien o tan mal como ahora los procesos putamente cpu, y como no lo hagan bien seguiran pegando techo en algunos cores mientras otros miran esperando respuesta de los saturados
En serio a estas alturas del cuento aun preguntamos que va a traer DX12 al uso de la CPU???

Ya me parece broma.
17587 respuestas