Hablemos del interior de Xbox One

Un dolor de muelas para el que la sdk de MS estará cada vez más y más preparado. A la par que vayan saliendo juegos First party las herramientas se depurarán para esos menesteres y poco a poco los second y los third se aprovecharán de esos avances y facilidades a la hora de crear sus juegos.

Igual que como sucedió con PS3. AL pirncpio era un horror para el programador, y al final las herramientas y el conocimiento de los porblemas, ayudaron a sacar obras maestras sin tanto dolor de muelas.

Un saludo ;)
El problema radica en q estamos pensando en la forma actual de trabajar. Motores actúales, GPU actuales y conocidas.

En ese escenario Xbox One se va a encontrar bastantes problemas. Soy optimista con lo q esta por venir.
No creo q sea casualidad q las nuevas GPUs\APUs se estén retrasando.
Hola!
Me podría alguien decir, cuando este las dx12, como se van a utilizar las CPUs que con el dx11 no se pueda.
También si el uso de la nube para el computo de las físicas por ejemplo, si se va aplicando o es algo q solo aprovechan pocos juegos y como.
Gracias
ziu escribió:Hola!
Me podría alguien decir, cuando este las dx12, como se van a utilizar las CPUs que con el dx11 no se pueda.
También si el uso de la nube para el computo de las físicas por ejemplo, si se va aplicando o es algo q solo aprovechan pocos juegos y como.
Gracias


DX11.2 no puede ver cierto hardware de ONE, y el que ve no lo utiliza como es debido lastrando mucho el rendimiento del sistema.

DX12 no va a multiplicar la potencia de ONE, es DX11 la que está lastrando esa potencia real de la máquina. DX12 trae mejoras a las arquitecturas no nativas, pero solo mediante software, las ganancias que puede traer a hardware nativos aún está por ver, pero va a ser bastante mayor que a los no nativos.

Hay juegos que van a recibir parches para ser adaptados al DX12 y recibir un upgrade, pero solo a lo relativo a la mejora del software, como si fuera un hardware no nativo. Pero van a ser muy pocos juegos, y ya veremos si hay alguno), que reciban un parche para recibir las mejoras del DX12 en un hardware nativo, pues eso es mucho curro, aunque puede dar una segunda juventud al juego que lo recibe y disparar sus ventas. Aún así, yo solo esperaria lo referente a la mejora por software.

La nube la puedes ver como un chip Nvidia physics pero más avanzado y versátil, aunque la nube va más allá de lo que puede ofrecer ese chip, pero es para que te hagas una idea aproximada. Habrán juegos que tengan soporte para la nube, al igual que los hay para Nvidia physics, y habrán otros que no. Todo depende de las herramientas de MS, que cada vez estarán más pulidas, pero que puede, y digo puede porque no lo sé, aún no tenga bien implementado en sus SDK las librerías necesarias para poder usar la nube en juegos de forma fácil y barata.

Si es así, en un principio serán pocos juegos pero con forme se vayan mejorando los SDK (que lo harán hasta dejarlos casi perfectos), pues veremos raro que un juego salga sin soporte para la nube.
Horizonte de sucesos escribió:
ziu escribió:Hola!
Me podría alguien decir, cuando este las dx12, como se van a utilizar las CPUs que con el dx11 no se pueda.
También si el uso de la nube para el computo de las físicas por ejemplo, si se va aplicando o es algo q solo aprovechan pocos juegos y como.
Gracias


DX11.2 no puede ver cierto hardware de ONE, y el que ve no lo utiliza como es debido lastrando mucho el rendimiento del sistema.

DX12 no va a multiplicar la potencia de ONE, es DX11 la que está lastrando esa potencia real de la máquina. DX12 trae mejoras a las arquitecturas no nativas, pero solo mediante software, las ganancias que puede traer a hardware nativos aún está por ver, pero va a ser bastante mayor que a los no nativos.

Hay juegos que van a recibir parches para ser adaptados al DX12 y recibir un upgrade, pero solo a lo relativo a la mejora del software, como si fuera un hardware no nativo. Pero van a ser muy pocos juegos, y ya veremos si hay alguno), que reciban un parche para recibir las mejoras del DX12 en un hardware nativo, pues eso es mucho curro, aunque puede dar una segunda juventud al juego que lo recibe y disparar sus ventas. Aún así, yo solo esperaria lo referente a la mejora por software.

La nube la puedes ver como un chip Nvidia physics pero más avanzado y versátil, aunque la nube va más allá de lo que puede ofrecer ese chip, pero es para que te hagas una idea aproximada. Habrán juegos que tengan soporte para la nube, al igual que los hay para Nvidia physics, y habrán otros que no. Todo depende de las herramientas de MS, que cada vez estarán más pulidas, pero que puede, y digo puede porque no lo sé, aún no tenga bien implementado en sus SDK las librerías necesarias para poder usar la nube en juegos de forma fácil y barata.

Si es así, en un principio serán pocos juegos pero con forme se vayan mejorando los SDK (que lo harán hasta dejarlos casi perfectos), pues veremos raro que un juego salga sin soporte para la nube.


Que bien!
Pues sera increible ver juegos a aprobechan la nube. Lo me lo puedo ni imaginar, pero si ya veo el unrealengine4 y es impresionante, sera algo parecido.
Al uso de las cpus en dx12 habia entendido q podian dar soporte a la gpu en tareas, liberandola de mucho trabajo q hace ahora sola, quisiera saber si es cierto de alguna manera.
Pues visto lo visto, solo queda esperar, me parece q cuando este exprimida la maquina, veremos juegos impresionantes, sobre todo los exclusivos y AAA.
Un saludo
@Horizonte: que componentes del hard de one no puede "ver" DX11?
Pues por ejemplo los otros núcleos para tareas de render.

La computación tampoco aprovecha bien la arquitectura, en DX12 es algo integrado como sistema unificado (unidades de computación en GPU, CPU e incluso la nube) que DX11 simplemente no tiene, porque no está en su especificación.
Los cores los puede ver sin problemas la one. Decir que hay componentes que no puede ver por lo de los cores de cpu tiene tela...
SangReal está baneado del subforo por "Flamer anti Xbox One"
Zokormazo escribió:Los cores los puede ver sin problemas la one. Decir que hay componentes que no puede ver por lo de los cores de cpu tiene tela...

Es el hilo de los deseos, la imaginación no tiene limites
...
Editado por Darkcaptain. Razón: Faltas de respeto
Y tu con este comentario te crees mas listo?
Editado por Darkcaptain. Razón: Quote
(mensaje borrado)
Disculpe pero ni le va ni le viene, no hablo con usted, así que si no le importa, aparte a un lado. Gracias
gresscas escribió:Disculpe pero ni le va ni le viene, no hablo con usted, así que si no le importa, aparte a un lado. Gracias


Me va y me viene igual que a ti, en vez de insultar al chaval, podrías decir otra cosa, o mejor, no decir nada.

Seguimos hablando del interior de xbox o seguimos con tonterias?
HUOPO escribió:
gresscas escribió:Disculpe pero ni le va ni le viene, no hablo con usted, así que si no le importa, aparte a un lado. Gracias


Me va y me viene igual que a ti, en vez de insultar al chaval, podrías decir otra cosa, o mejor, no decir nada.

Seguimos hablando del interior de xbox o seguimos con tonterias?


Mira ya enserio, he puesto eso porq ese usuario a lo unico que entra aqui es a soltar perlitas, no hay mas que leer sus mensajes y ya cansa un poco.
gresscas escribió:
HUOPO escribió:
gresscas escribió:Disculpe pero ni le va ni le viene, no hablo con usted, así que si no le importa, aparte a un lado. Gracias


Me va y me viene igual que a ti, en vez de insultar al chaval, podrías decir otra cosa, o mejor, no decir nada.

Seguimos hablando del interior de xbox o seguimos con tonterias?


Mira ya enserio, he puesto eso porq ese usuario a lo unico que entra aqui es a soltar perlitas, no hay mas que leer sus mensajes y ya cansa un poco.

Eso es verdad. Que no son formas puede ser pero para eso esta moderación.
Valeeee, entonces te perdonaré la vida XD
Reportar a dicho usuario y pasar. cada vez que suelta una perlita se apunta una infraccion. Luego llegaran el ban y punto
Grinch escribió:Reportar a dicho usuario y pasar. cada vez que suelta una perlita se apunta una infraccion. Luego llegaran el ban y punto

Es que lo tengo ignorado y no veo las perlas. Vivo más feliz pero no puedo reportar.
Me refiero a los usarios que lo leen. En vez de contestarle , le reportan . Seguramente no le quedaran muchas infracciones para que vuelvan a banearlo. pero aun asi es mejor hacer un reporte e ignorarlo.
Zokormazo escribió:Los cores los puede ver sin problemas la one. Decir que hay componentes que no puede ver por lo de los cores de cpu tiene tela...

A ver si leemos, no los ve para tareas de render. Ahora mismo se le carga todo a un núcleo en cuanto a API calls de renderizado. Y encima estas llamadas ocupan más que en DX12.
darksch escribió:
Zokormazo escribió:Los cores los puede ver sin problemas la one. Decir que hay componentes que no puede ver por lo de los cores de cpu tiene tela...

A ver si leemos, no los ve para tareas de render. Ahora mismo se le carga todo a un núcleo en cuanto a API calls de renderizado. Y encima estas llamadas ocupan más que en DX12.


Si yo leo...

Horizonte de sucesos escribió:DX11.2 no puede ver cierto hardware de ONE, y el que ve no lo utiliza como es debido lastrando mucho el rendimiento del sistema.


Esto no dice nada de tareas de render. Dice que la API actual de la ONE no tiene interfaz a parte del hardware, por eso le pregunte a que hardware.

Y aun y todo, DX11.2 tiene acceso a todos los cores para tareas de render, los puede ver todos y cada uno de ellos. Que no es eficiente de acuerdo. Que se supone que habra mucha mejora en esa aspecto con DX12, tambien.

Pero que DX11.2 no puede "ver" algunos componentes (cores 1-7)? Mentira. Los puede ver.

EDIT: Ademas, mi pregunta no era sobre los cores. Era sobre la afirmacion de secret sauce de horizonte de sucesos, al que aun no ha respondido. Segun su afirmacion hay hardware dentro de la maquina al que las APIs no pueden acceder. Un secret sauce de la ostia. Era por saber cual era el chip gordo de todo lo que se ha hablado. Si los FPGAs, el segundo GPU, el cluster de ARMs o que carajo es ese componente de hardware que segun el ahora mismo no es posible acceder y despues se podra.

Lo de los cores lo has sacado tu, y sigue siendo incorrecta la afirmacion. Xbox One puede acceder a todos y cada uno de los 8 cores jaguar que tiene.
Siempre se acaba discutiendo por semantica...
Nadie a hablado de secret sauce. Horizonte hablaba de que con DX12 y con juegos en DX12 se aprovechará mejor la maquina, que con DX11.2 + algunas funciones DX12 mal aprovechadas lastradas por el codigo DX11

Por software(con DX11) podrás acceder a todo el hardware de la maquina, pero siendo desarrollador tendrás que complicarte muchísimo como para ser rentable el esfuerzo.

Gracias a las nuevas herramientas y a una AP(DX12)I acorde a la GPU(full DX12) y el resto de hardware de XBO, sacarle el juego a la consola será más facil. A parte de que tendemos funciones nuevas para DX12 (tier 3), que posiblemente sean ejecutadas por HARDWARE y no por software, como se haría ahora con DX11.

Todo lo demás que se diga es discutir por discutir.
Pero siempre vamos.
Y aun y todo, DX11.2 tiene acceso a todos los cores para tareas de render, los puede ver todos y cada uno de ellos. Que no es eficiente de acuerdo. Que se supone que habra mucha mejora en esa aspecto con DX12, tambien.

Pero que DX11.2 no puede "ver" algunos componentes (cores 1-7)? Mentira. Los puede ver.

Que "los pueda ver" en teoría y que en la práctica no los use más allá de un 0,01%, es lo mismo a que no los pueda ver. Dejémonos de tonterías semánticas. La API no los usa correctamente, de hecho casi ni los toca por las comparativas que YA hemos visto en las presentaciones, lo que en la práctica es equivalente a que no los vea, puesto que no los usa.
Hay 3 teorías.
1) Dx12 no va a aportar prácticamente nada a Xbox One.
2) Dx12 mejorará sustancialmente el rendimiento de Xbox One.
3) Dx12 habilitará nuevas funciones hardware de Xbox One. Provocará una mejora enorme en Xbox One.

No hace falta mofarse de ninguna de ellas. Y menos aun de las personas q piensan de una o de otra manera.

Ninguna de las 3 se puede confirmar o desmentir a día de hoy. Cada uno q piense lo q quiera.

Lo q tiene tela es la actitud de algunos en este hilo. Libertad de opinión sin faltar el respeto, gracias.
De semantica?

Afirmar que hay componentes de hardware a los que la API actual no puede acceder no es semantica, es engañar al personal.

Si a lo que se referia es por los cores (que no lo sabemos) con DX11 tienes acceso a todos los cores. El rendering es una de las muchas tareas que hace la consola, no la unica. DX es mucho mas que D3D.

Incluso el rendering puede usar cualquiera de los 8 cores, tiene acceso a todos ellos. Que no es eficiente en multihilo? Vale. Pero eso no es lo mismo que afirmar que hay componentes a los que DX11.2 no puede acceder.

Una cosa es que haya mejoras. Otra bien distinta es afirmar que ahora mismo hay hardware al que las APIs no pueden acceder. No es cuestion de semantica. Es cuestion de informacion erronea, aun mas grave porque esta engañando a una persona que esta preguntando desde el desconocimiento.

Hay una diferencia bien grande entre una cosa y otra. Si se refiere a los cores, con su afirmacion podriamos deducir que ahora mismo la juana solo usa un core... Si luego usa 8 en vez de 1, pedazo boost. Pero no es cierto.

@darksch: De verdad crees que One solo usa un 0,01% de los cores 1-7 ? Repito, DX11 es mucho mas que D3D. Y un juego es mucho mas que las tareas de rendering. Asi que es completamente falso que los juegos solo usen un 0,01% de los cores 1-7.
darksch escribió:Pero siempre vamos.
Y aun y todo, DX11.2 tiene acceso a todos los cores para tareas de render, los puede ver todos y cada uno de ellos. Que no es eficiente de acuerdo. Que se supone que habra mucha mejora en esa aspecto con DX12, tambien.

Pero que DX11.2 no puede "ver" algunos componentes (cores 1-7)? Mentira. Los puede ver.

Que "los pueda ver" en teoría y que en la práctica no los use más allá de un 0,01%, es lo mismo a que no los pueda ver. Dejémonos de tonterías semánticas. La API no los usa correctamente, de hecho casi ni los toca por las comparativas que YA hemos visto en las presentaciones, lo que en la práctica es equivalente a que no los vea, puesto que no los usa.

En mi opinión acertado, creo haberos captado, y de hecho las diapositivas que rulan por ahí como bien dices muestran el uso de la GPU /CPU, y se ve claramente como se aprovecha al máximo todos los núcleos de la CPU cuando Dx12 esta activada. ¿Que sea extrapolable a la XOne? Lo desconozco, pero ¿que puede prometer?... sin lugar a dudas. Habrá que esperar para saber hasta cuanto nos podremos benefciar.
Esas comparativas a las que haceis referencia, solo son de tareas de rendering.

Como los juegos ahora no tienen game mechanics ni IAs ni nada mas que rendering son fiel reflejo del uso que hacen One de los cores cuando ejecuta un juego. Claaaaaro
Zokormazo escribió:Esas comparativas a las que haceis referencia, solo son de tareas de rendering.

Como los juegos ahora no tienen game mechanics ni IAs ni nada mas que rendering son fiel reflejo del uso que hacen One de los cores cuando ejecuta un juego. Claaaaaro


Ni tu ni yo sabemos que porcentaje de utilizacion de la CPU tiene cada juego (temas de IA) y cuanto podria aprovecharse. De ahi que diga que desconozco si es extrapolable a la XOne. [+risas] [+risas]
Sin conocer exactamente cuales son los consumos exactos podemos afirmar sin ningun problema que el gasto computacional de la ejecucion de un juego es bastante superior al mero rendering. Por lo tanto podemos deducir sin problema que el uso de las cpus es mayor en la ejecucion de un juego que en el mero rendering D3D.

Y sabiendo que en el caso de DX11 el core 0 esta generando un cuello de botella con los procesos de rendering, podemos suponer por logica que el resto de computaciones cpu van en el resto de cores. Por lo tanto el uso de uno o mas cores del 1 al 7 es notoriamente superior en esas tareas. Se usan bastante por encima del 0,01%
¿Pero no te das cuenta que esa forma de hablar "tipo los cores de la CPU no se están usando" es moneda de uso corriente incluso entre los que más saben?

No sé xq lo haces pero siempre le buscas tres pies al gato, una y otra vez busca la forma de rebatir las cosas aun cuando sea en terminos semanticos como ya te han dicho. Es como si alguien te dice "Estoy roto" y tu le contestas "Meeec!!! Error, mirate al espejo estas de una pieza".

Darsch no le permites que utilice esos terminos, pero espero que se lo permitas a Robert Hallock de AMD, en caso contrario puedes ponerte en contacto con AMD para que dejen de desinformar:

A common bottleneck in graphics is poor parallelisation across multi-core CPUs, and it’s tough to break up a rendering scene into multiple CPU threads with the APIs we have today. At the moment, some cores could go completely unutilised, and that’s an opportunity to reclaim lost performance by doing graphics work in a new way so that these cores become used.
@papatuelo: pero en ese quote esta clarisimo que esta hablando del subsistema grafico.

A common bottleneck in graphics is poor parallelisation across multi-core CPUs, and it’s tough to break up a rendering scene into multiple CPU threads with the APIs we have today. At the moment, some cores could go completely unutilised,


Queda totalmente inutilizado en ese rendering.

En cuanto a la pregunta y respuesta de este hilo...

ziu escribió:Hola!
Me podría alguien decir, cuando este las dx12, como se van a utilizar las CPUs que con el dx11 no se pueda.


Habla de DX en general, no de graphic pipe.

Respuesta:

Horizonte de sucesos escribió:DX11.2 no puede ver cierto hardware de ONE, y el que ve no lo utiliza como es debido lastrando mucho el rendimiento del sistema.


Respuesta general tambien.
Tenemos por un lado hardware que no ve (secret sauce???) y por otro componentes mal usados lastrando el rendimiento del sistema. Los cores donde van? En lo primero o en lo segundo? Si va en lo primero como afirma dark, que es lo que lastra tanto el rendimiento del sistema?

En caso de que los cores sean el lastre, cual es el hardware que ONE no puede ver con DX11 y si podra ver con DX12?

Te parece que le busco el tercer pie al gato. A mi me parece que la respuesta de Horizonte de sucesos no es correcta e induce al error.
Vamos a ver que os estáis liando TODOS.

Yo creo que he sido claro, hay hardware que no ve DX11 y otro que ve y lo usa mal.

El que no ve son lo coprocesadores, y si no preguntarle a Ckytek la que tuvo que liar para poder usar algunos. Las demás thirds no los han usado porque la API que tenían no prestaba a ello. Crytek simplemente son unos genios (Al César lo que es del César).

Y el hardware que usa mal es la CPU y la esram.

Espero que así quede claro a lo que yo me refería. y os centrés más en si estoy errando o no que en que estoy diciendo. Aunque admito que mis palabras han podido confundir.
Gracias Horizonte ;)

Que coprocesadores son los con la API actual no se pueden ver? Para que son? Te refieres a los FPGAs? Fuentes fiables de la existencia de estos coprocesadores y de su falta de interfaz en la API actual de ONE?
Según los desarrolladores de Metro en la XO con DX11 ellos llegaban al caso de tener ocupado completamente un núcleo sólo con tareas de render. Y eso, aparte de un gran consumo de recursos de CPU, te limita en cuanto a lo que puedes poner en pantalla.

En las comparativas que hemos visto de DX12 no sólo es que se reparta, es que encima la suma de todos es muy inferior al uso del hilo principal en DX11.

DX es casi D3D de cara al uso de CPU, el resto de cosas que acceden a los núcleos que nos puedan poner, como IA, lógica, etc., poco tiene que ver con DX, eso es más bien C++ ¿no?, no depende de la API si no de tu programa. Así que DX en sí realmente poco acceso práctico tiene a los otros núcleos, y por eso se satura. Que los otros puedes acceder, si claro, para tu programa, pero eso de DX tiene más bien poco. Y tampoco te quitas el problema de que al saturar el núcleo del que hace uso intensivo DX ya sea tu limitador.

DX12 va a liberar una burrada de recursos de CPU.
DX es casi D3D de cara al uso de CPU


Claro, Direct2D, DirectPlay, DirectCompute, DirectXMath, Xaudio2 y Xinput apenas usan CPU.

Y como no usan cpu, x360 no dedicaba 3 de sus hilos a computos provenientes de su equivalente de DirectSound/Xaudio
Zokormazo escribió:
Y como no usan cpu, x360 no dedicaba 3 de sus hilos a computos provenientes de su equivalente de DirectSound/Xaudio


????

Creo que no te he entendido bien o quizas estoy confundido. La xbox 360 no tenía 3 hilos y 1 sólo era para el audio?
Direct2D no existe desde hace eones para juegos, ahora se ha reconvertido a dibujado por hardware en sustitución del GDI.

DirectPlay es para la red. Mucha CPU no consume.

DirectCompute-Math mejor me lo pones, otra cosa que DX12 le va a meter con acceso real a todos los recursos del hardware.

En cuanto a sonido SHAPE.
A mi me interesa saber más sobre esos coprocesadores de los que hablais que ahora mismo no se están utilizando.
Cuantos usa no se, pero la 360 tiene 6 hilos (3 cores con 2 threads cada uno).

Salu2.
Dave338 escribió:Cuantos usa no se, pero la 360 tiene 6 hilos (3 cores con 2 threads cada uno).

Salu2.


Ah, me he liado yo, es cierto, tiene 3 cores no 3 hilos :P
Horizonte de sucesos escribió:Vamos a ver que os estáis liando TODOS.

Yo creo que he sido claro, hay hardware que no ve DX11 y otro que ve y lo usa mal.

El que no ve son lo coprocesadores, y si no preguntarle a Ckytek la que tuvo que liar para poder usar algunos. Las demás thirds no los han usado porque la API que tenían no prestaba a ello. Crytek simplemente son unos genios (Al César lo que es del César).

Y el hardware que usa mal es la CPU y la esram.

Espero que así quede claro a lo que yo me refería. y os centrés más en si estoy errando o no que en que estoy diciendo. Aunque admito que mis palabras han podido confundir.


DX 11 (api actual) ve todos los núcleos de la one, pero solo utiliza en la practica uno de los cores y el resto se usa para "desbordar" lo que podéis imaginar ralentiza muchísimo el sistema.

Dx 12 podra paralelizar los procesos y muchos de ellos serán asumidos por la GPU, con lo que la mejora debería ser muy significatica sobre todo a la hora de dibujar.

La sram a dia de hoy se usa obligatoriamente como un frame-buffer al igual que la cache de un pc estandar, lo que a su vez hace que haya problemas de tamaño en la SRAM, pero hay que entender que la SRAM con DX 12 no va a funcionar asi, si no para framear "tildeando"

Los cooprocesadores y los FPGA no los veria una api de DX 12 estándar pero la custom de One habilitara el acceso y van a dar mucho que hablar sobre el rendimiento del sistema, entender que son chips que aportan gran potencia con necesidad de muy poco codigo, ya que son micros altamente especializados lo que servirá para dar una gran potencial adicional con muy pequeña latencia (infinitamente menor que el acceso a RAM).

Por ejemplo si pones a trabajar a algún microcontrolador como "guardián" del bus principal tienes un optimizador bestial por hardware y transparente para el programador, y eso es solo es un ejemplo por que lo que se oye es duplicar la potencia de cálculo general, la piedra angular de un sistema de supercomputación.
¿Lo podéis traducir para los que somos menos entendidos?

Por lo que he podido leer... ¿Estáis afirmando que con el nuevo directx superará a la competidora teniendo la One peor hardware?
sareo escribió:¿Lo podéis traducir para los que somos menos entendidos?

Por lo que he podido leer... ¿Estáis afirmando que con el nuevo directx superará a la competidora teniendo la One peor hardware?


Explicame por que One tiene peor hardware??


One tiene una arquitectura diseñada para el futuro y es una maquina que esta por delante de la tecnología actual 2-3 años.

La "competencia" es una raedon 7xxx "befeteada" con el poco presupuesto que tenian para diseño.

No te creas la publicidad, el hardware de One es imfinitivamnte superior.
salocin21 escribió:
sareo escribió:¿Lo podéis traducir para los que somos menos entendidos?

Por lo que he podido leer... ¿Estáis afirmando que con el nuevo directx superará a la competidora teniendo la One peor hardware?


Explicame por que One tiene peor hardware??


One tiene una arquitectura diseñada para el futuro y es una maquina que esta por delante de la tecnología actual 2-3 años.

La "competencia" es una raedon 7xxx "befeteada" con el poco presupuesto que tenian para diseño.

No te creas la publicidad, el hardware de One es imfinitivamnte superior.


Yo me baso en todo lo que he estado leyendo hasta ahora, que ponen a la competidora como más potente por su memoria y por su gráfica.
sareo escribió:
salocin21 escribió:
sareo escribió:¿Lo podéis traducir para los que somos menos entendidos?

Por lo que he podido leer... ¿Estáis afirmando que con el nuevo directx superará a la competidora teniendo la One peor hardware?


Explicame por que One tiene peor hardware??


One tiene una arquitectura diseñada para el futuro y es una maquina que esta por delante de la tecnología actual 2-3 años.

La "competencia" es una raedon 7xxx "befeteada" con el poco presupuesto que tenian para diseño.

No te creas la publicidad, el hardware de One es imfinitivamnte superior.


Yo me baso en todo lo que he estado leyendo hasta ahora, que ponen a la competidora como más potente por su memoria y por su gráfica.


Si sólo hablamos de tarjeta gráfica la de PS4 es ligeramente superior ya que estamos hablando de una Radeon 7870 en el caso de PS4 y una 7790 en el caso de One. Luego ya el tema de las arquitecturas se lo dejamos para los expertos pero los hechos son los que son y los juegos se ven ligeramente mejor en la consola de Sony en muchos juegos multiplataforma. Pero vamos que yo he tenido las 2 consolas y te digo que tendrías q tener un ojo biónico para apreciar diferencias ya que jugar a 1080 o a 900 reescalados a 1080 es casi inapreciable. Y esta diferencia supongo que con el tiempo se irá mitigando. A mí me parecen más importantes otros aspectos para decantarte por una u otra plataforma, como son los juegos exclusivos, mando, servicio online, plus/gold, etc...

Saludos.
El hardware de One no es una 78xx, ni un núcleos ni en arquitectura, ni en por supuesto capacidad de calculo, si quieres algo homónimo en pc tienes que irte a las gráficas que AMD lanzara con arquitectura "pirate island" o en NVIDIA "pascal" que salen en 2015-2016

Es algo que ya se ha debatido, y a lo que no podemos volver si queremos que este hilo avance (te lo dijo por otra parte sin ninguna acritud ;))
salocin21 escribió:El hardware de One no es una 78xx, ni un núcleos ni en arquitectura, ni en por supuesto capacidad de calculo, si quieres algo homónimo en pc tienes que irte a las gráficas que AMD lanzara con arquitectura "pirate island" o en NVIDIA "pascal" que salen en 2015-2016

Es algo que ya se ha debatido, y a lo que no podemos volver si queremos que este hilo avance (te lo dijo por otra parte sin ninguna acritud ;))


yo hablaba exclusivamente de la GPU. Según los datos de todas las páginas webs ambas montan gráficas AMD de la serie 7000 pero oye si tu dices que no tendrás razón. Luego ya claro está entra el tema de la ESRAM. Pero vamos yo no tengo tan claro eso que comentas que la One sea una máquina adelantada a su tiempo más que nada porque con poco más de 300 euros no se pueden hacer milagros. Ojalá me equivoque y con el tiempo One supere a PS4 pero la cosa no pinta nada bien. Recuerdo leer exactamente lo mismo cuando salió PS3 con el procesador cell que todo el mundo hablaba maravillas y a la postre se vio que Xbox360 la superaba en la mayoría de juegos multiplataforma.

Un saludo.
daniel78 escribió:
salocin21 escribió:El hardware de One no es una 78xx, ni un núcleos ni en arquitectura, ni en por supuesto capacidad de calculo, si quieres algo homónimo en pc tienes que irte a las gráficas que AMD lanzara con arquitectura "pirate island" o en NVIDIA "pascal" que salen en 2015-2016

Es algo que ya se ha debatido, y a lo que no podemos volver si queremos que este hilo avance (te lo dijo por otra parte sin ninguna acritud ;))


yo hablaba exclusivamente de la GPU. Según los datos de todas las páginas webs ambas montan gráficas AMD de la serie 7000 pero oye si tu dices que no tendrás razón. Luego ya claro está entra el tema de la ESRAM. Pero vamos yo no tengo tan claro eso que comentas que la One sea una máquina adelantada a su tiempo más que nada porque con poco más de 300 euros no se pueden hacer milagros. Ojalá me equivoque y con el tiempo One supere a PS4 pero la cosa no pinta nada bien. Recuerdo leer exactamente lo mismo cuando salió PS3 con el procesador cell que todo el mundo hablaba maravillas y a la postre se vio que Xbox360 la superaba en la mayoría de juegos multiplataforma.

Un saludo.


El coste de la maquina no es tan importante como el coste de I+D, tu puedes hacer una buena maquina por 400 euros cuando todos tus componentes son completamente custom.

Y si yo también me acuerdo del cell y de que podía dirigir misiles y mover 1080p.. Y igual que ahora me tire un año explicando por que un sistema con dos velocidades y dos memorias era un desastre, y al igual que ahora me toco defender lo que era la realidad. XD

Es más con el famoso motion engine y sus famosos 100.000 polígonos sin texturizar ya me toco "brearme" por algún foro contra el fanatismo que en aquellas es verdad no era ni el 1% de lo que hay ahora por aquí.

Perdón por offtipar señores admin, mil peldones
17587 respuestas