Hablemos del interior de Xbox One

Si micro dice que la GPU de one tiene 1.31Tfps pues tiene 1.31Tfps,no es un rumor ni viene de un tercero, es información oficial del mismo fabricante, discutir esto es flamear como poco

Es representativo de la potencia total? pues tampoco,ppr que en una consola que es hard cerrado cuentan mucho todos los componentes,y mas en one que tienes unos cuantos extras, asi que no perdamos el tiempo discutiendo lo que ya se sabe oficialmente y hablemos de otras muchas cosas interesantes
Morepawer está baneado por "hater, flames y clones"
chris76 escribió:Si micro dice que la GPU de one tiene 1.31Tfps pues tiene 1.31Tfps,no es un rumor ni viene de un tercero, es información oficial del mismo fabricante, discutir esto es flamear como poco

Es representativo de la potencia total? pues tampoco,ppr que en una consola que es hard cerrado cuentan mucho todos los componentes,y mas en one que tienes unos cuantos extras, asi que no perdamos el tiempo discutiendo lo que ya se sabe oficialmente y hablemos de otras muchas cosas interesantes


Efectivamente, la potencia de X1 es 1,31Tflops, pero cuanto es la eficiencia neta de la consola?

Yo creo que visto las técnicas aplicadas tanto en ROTR y QB, por lo menos, quedándome corto y con un hardware cerrado como la X1, me mojo a que tiene una EFICIENCIA NETA DE MAS DE 3.5 TFLOPS.

Y éste es el término, "EFICIENCIA", el que a muchos les cuesta entender.

Señores, en ésta generación la potencia bruta a pasado a un segundo plano siendo pisada por la EFICIENCIA.

Y guste o no, ésta es la realidad. Así de simple.
Exacto.aunque dar cifras es hablar por no callar,one no es el hardware mas potente pero muy posiblemente si sea el mas eficiente con la potencia que tiene que se a construido hasta la fecha

Si en pc una GPU nunca consigue llegar al 70% por decir algo,posiblemente con todos la arquitectura despoblada de one, esta consiga llegar mucha mas lejos, al 85 o 90% pero nunca puedes superar el máximo físico que son los 1.31Tfps(llegar al 100% creo que no es posible leí)
Morepawer escribió:
chris76 escribió:Si micro dice que la GPU de one tiene 1.31Tfps pues tiene 1.31Tfps,no es un rumor ni viene de un tercero, es información oficial del mismo fabricante, discutir esto es flamear como poco

Es representativo de la potencia total? pues tampoco,ppr que en una consola que es hard cerrado cuentan mucho todos los componentes,y mas en one que tienes unos cuantos extras, asi que no perdamos el tiempo discutiendo lo que ya se sabe oficialmente y hablemos de otras muchas cosas interesantes


Efectivamente, la potencia de X1 es 1,31Tflops, pero cuanto es la eficiencia neta de la consola?

Yo creo que visto las técnicas aplicadas tanto en ROTR y QB, por lo menos, quedándome corto y con un hardware cerrado como la X1, me mojo a que tiene una EFICIENCIA NETA DE MAS DE 3.5 TFLOPS.

Y éste es el término, "EFICIENCIA", el que a muchos les cuesta entender.

Señores, en ésta generación la potencia bruta a pasado a un segundo plano siendo pisada por la EFICIENCIA.

Y guste o no, ésta es la realidad. Así de simple.


Desde cuando se habla de la eficiencia neta de las consolas?Desde que salio Xone,y basicamente por que es una manera de negar lo que hay,que es que sobre el papel Xone no es la mas potente.

Cuando salga Rise of Tomb raider en PC ya veremos si requiere una grafica de 3,5 Tflops para moverlo,y aun asi para algunos no serviran las comparativas,ya se ha visto por aqui.

Un saludo.
Moraydron escribió:
Morepawer escribió:
chris76 escribió:Si micro dice que la GPU de one tiene 1.31Tfps pues tiene 1.31Tfps,no es un rumor ni viene de un tercero, es información oficial del mismo fabricante, discutir esto es flamear como poco

Es representativo de la potencia total? pues tampoco,ppr que en una consola que es hard cerrado cuentan mucho todos los componentes,y mas en one que tienes unos cuantos extras, asi que no perdamos el tiempo discutiendo lo que ya se sabe oficialmente y hablemos de otras muchas cosas interesantes


Efectivamente, la potencia de X1 es 1,31Tflops, pero cuanto es la eficiencia neta de la consola?

Yo creo que visto las técnicas aplicadas tanto en ROTR y QB, por lo menos, quedándome corto y con un hardware cerrado como la X1, me mojo a que tiene una EFICIENCIA NETA DE MAS DE 3.5 TFLOPS.

Y éste es el término, "EFICIENCIA", el que a muchos les cuesta entender.

Señores, en ésta generación la potencia bruta a pasado a un segundo plano siendo pisada por la EFICIENCIA.

Y guste o no, ésta es la realidad. Así de simple.


Desde cuando se habla de la eficiencia neta de las consolas?Desde que salio Xone,y basicamente por que es una manera de negar lo que hay,que es que sobre el papel Xone no es la mas potente.

Cuando salga Rise of Tomb raider en PC ya veremos si requiere una grafica de 3,5 Tflops para moverlo,y aun asi para algunos no serviran las comparativas,ya se ha visto por aqui.

Un saludo.

No tengo animo de respaldar ciertas teorías, pero en consola se consiguen efectos con un hardware austero que en pc a igualdad de condiciones no puedes, simplemente por optimización(vengo e jugar arkham city en la 360 y se ve brutal con solo 512mg de RAM compartida). Ahora tb creo que lo que se vea en consola lo podrás mover con una 960 o una 280 igual o mejor. Entre otras cosas porque cualquier I5 decente le da patadas a los jaguar que montan las consolas.
manmartin escribió:No tengo animo de respaldar ciertas teorías, pero en consola se consiguen efectos con un hardware austero que en pc a igualdad de condiciones no puedes, simplemente por optimización(vengo e jugar arkham city en la 360 y se ve brutal con solo 512mg de RAM compartida). Ahora tb creo que lo que se vea en consola lo podrás mover con una 960 o una 280 igual o mejor. Entre otras cosas porque cualquier I5 decente le da patadas a los jaguar que montan las consolas.


Las consolas consiguen mejores resultados con el mismo hard que en el pc,eso esta claro.Lo que no se puede hacer es negar los numeros cuando son pequeños,y hacer calculos para hacer esos numeros mas grandes por que uno quiere que su hard sea el mas potente.

Si siempre es la misma historia,algunos ven que el hard de las consolas no es suficiente,luego salen juegos que nos sorprende a todo el mundo,pero nunca se le ha querido dar un valor numerico a esa mejora hasta ahora...y adivina por que ahora se le quire dar valor numerico a la eficiencia...

Hay graficas en pc que rinden mejor que otras que en teoria son mas potentes,se habla de eficiencia pero en ningun momento se intenta hacer un calculo de la eficiencia para que te de un valor en Tflops,es que es absurdo.


Un saludo.
Morepawer está baneado por "hater, flames y clones"
Moraydron escribió:
Morepawer escribió:
chris76 escribió:Si micro dice que la GPU de one tiene 1.31Tfps pues tiene 1.31Tfps,no es un rumor ni viene de un tercero, es información oficial del mismo fabricante, discutir esto es flamear como poco

Es representativo de la potencia total? pues tampoco,ppr que en una consola que es hard cerrado cuentan mucho todos los componentes,y mas en one que tienes unos cuantos extras, asi que no perdamos el tiempo discutiendo lo que ya se sabe oficialmente y hablemos de otras muchas cosas interesantes


Efectivamente, la potencia de X1 es 1,31Tflops, pero cuanto es la eficiencia neta de la consola?

Yo creo que visto las técnicas aplicadas tanto en ROTR y QB, por lo menos, quedándome corto y con un hardware cerrado como la X1, me mojo a que tiene una EFICIENCIA NETA DE MAS DE 3.5 TFLOPS.

Y éste es el término, "EFICIENCIA", el que a muchos les cuesta entender.

Señores, en ésta generación la potencia bruta a pasado a un segundo plano siendo pisada por la EFICIENCIA.

Y guste o no, ésta es la realidad. Así de simple.


Desde cuando se habla de la eficiencia neta de las consolas?Desde que salio Xone,y basicamente por que es una manera de negar lo que hay,que es que sobre el papel Xone no es la mas potente.

Cuando salga Rise of Tomb raider en PC ya veremos si requiere una grafica de 3,5 Tflops para moverlo,y aun asi para algunos no serviran las comparativas,ya se ha visto por aqui.

Un saludo.


Que todavía preguntes eso me hace pensar que lo haces para trolear o flamear!!! [toctoc] [toctoc] [toctoc]

La respuesta es muy sencilla.

Desde el momento que MS-AMD-NVIDIA llegaron a la conclusión que los elementos con los que disponen tienen un límite. No se puede estar fabricando cada vez GPU mas potentes por que la resistencia de los materiales tiene un límite. ¿Es tan difícil de entender?. Lo que se busca ahora es romper con la Ley de Moore, fabricar bajando los consumos y la temperatura, pero a su vez, aumentando el rendimiento con nuevas técnicas que consigan un rendimiento impensable. No se busca la potencia bruta, se busca un equilibrio, una eficiencia mayor.

Es tan difícil de entender? Si no sabes que es la Ley de Moore, te aconsejo precisamente el artículo que se publicó en 2014 en ELOTROFORO.


Si fuese por tí, seguiríamos en la época del cromañón!!!! xd

ABRE UN POCO LA MENTE!!!, esto no va de quien la tiene mas grande..........

Deberíamos de estar contentos de lo que está ocurriendo por en definitiva los beneficiados somos nosotros, salvo para algunos que les hubiese gustado que fuese Sony quien hubiese dado este paso.

PD: No es tan difícil de entender que la cosa no va ahora de números brutos!!!, que el paradigma a cambiado. Que los números brutos a pasado a un segundo plano. EFICIENCIA MY FRIEND, EFICIENCIA!!!!.

Saludos [beer]
Moraydron escribió:
manmartin escribió:No tengo animo de respaldar ciertas teorías, pero en consola se consiguen efectos con un hardware austero que en pc a igualdad de condiciones no puedes, simplemente por optimización(vengo e jugar arkham city en la 360 y se ve brutal con solo 512mg de RAM compartida). Ahora tb creo que lo que se vea en consola lo podrás mover con una 960 o una 280 igual o mejor. Entre otras cosas porque cualquier I5 decente le da patadas a los jaguar que montan las consolas.


Las consolas consiguen mejores resultados con el mismo hard que en el pc,eso esta claro.Lo que no se puede hacer es negar los numeros cuando son pequeños,y hacer calculos para hacer esos numeros mas grandes por que uno quiere que su hard sea el mas potente.

Si siempre es la misma historia,algunos ven que el hard de las consolas no es suficiente,luego salen juegos que nos sorprende a todo el mundo,pero nunca se le ha querido dar un valor numerico a esa mejora hasta ahora...y adivina por que ahora se le quire dar valor numerico a la eficiencia...

Hay graficas en pc que rinden mejor que otras que en teoria son mas potentes,se habla de eficiencia pero en ningun momento se intenta hacer un calculo de la eficiencia para que te de un valor en Tflops,es que es absurdo.


Un saludo.
Seguís sin entender la importancia de la eficiencia.

Antes de la xbox one no se utilizaba como medida la eficiencia por que sencillamente no existía nada que funcionara así y todas basaban su potencia en fuerza bruta. Ahora y cuando empiecen a salir gráficas para pc con la misma arquitectura vernos como va a ser una medida mas a tener en cuenta cuando compremos tarjetas gráficas.

Que es mas eficiente un V8 de 3000 cc y 200 cv y 15 litros a los cien. o un 4 cilindros turbo de 1600 cc y 200 cv y 8 litros a los cien?.

PD: he editado lo último para que se entienda mejor.
@ Si nos atenemos a los datos oficiales, para que llevamos casi 1500 paginas discutiendo del interior de one?

Yo opino que xbox one con dx12 rendira mas que casi cualquier gpu dx11 haciendo uso de la nueva api, en el supuesto caso que los programadores hayan tenido acceso a una api mas close to metal el hadware sigue siendo nativo dx12, eso no cambia. Estonces estamos de acuerdo que con dx12 una arquitectura nativa es logico que rinda mas que una preparada para dx11, por eso rise son of rome con una gpu mas o menos como la de one da igual resultado en pc, se a estado usando la api monolitica
Esta "discusión" NO me interesa para nada, ya que se ha dirigido ................ donde se ha dirigido (vamos a comparar con un PC )

Me puede alguien explicar:
1) Por que se tiene que comparar ONE con PC, para explicar sus particularidades

2) Por que cuando algunos se llenan la boca, con comparar ONE con la gráfica de un PC, NO tiene en cuenta la CPU aaaaaaaaaaa claro que da igual una de AMD, que un I3 que un I7 son todos iguales, eso no importa.

3)Al decir que en ONE se hacen trampas y reducciones y tal (que es una realidad de los desarrolladores) , es solo en ONE porque los cientos de videos con reducción de sombras y de texturas ............. NO son de ONE

4) Microsoft ha dada alguna vez esa cifra ein? , solo lo pregunto , ya que no lo recuerdo a micro dando cifras. A los de eurogamer SI, esos si dieron cifras con su PC

5)como interesado en estas cosas que pena que NO se tenga el mismo interés por el resto de plataformas, donde lo que se dice VA A MISA desde siempre. Parece ser que la curiosidad siempre esta en las plataformas de microsoft desde la primera y todo eso que tenía que NO servia para nada.
-Arquitectura de PC
-Uso de disco duro
-etc .... eso era LO PEOR
Xboxman escribió:Seguís sin entender la importancia de la eficiencia.

Antes de la xbox one no se utilizaba como medida la eficiencia por que sencillamente no existía nada que funcionara así y todas basaban su potencia en fuerza bruta. Ahora y cuando empiecen a salir gráficas para pc con la misma arquitectura vernos como va a ser una medida mas a tener en cuenta cuando compremos tarjetas gráficas.

Que es mas eficiente un V8 de 3000 cc y 200 cv y 15 litros a los cien. o un 4 cilindros turbo de 1600 cc y 200 cv y 8 litros a los cien?.

PD: he editado lo último para que se entienda mejor.


Si eso fuera cierto hoy dia trabajariamos con pentiums mononucleo a 50Ghz.

Que parece que la one nunca se han optimizado los chips y lo unico que se ha hecho es subir los relojes, lo cual no es cierto.
Xboxman escribió:
Moraydron escribió:
manmartin escribió:No tengo animo de respaldar ciertas teorías, pero en consola se consiguen efectos con un hardware austero que en pc a igualdad de condiciones no puedes, simplemente por optimización(vengo e jugar arkham city en la 360 y se ve brutal con solo 512mg de RAM compartida). Ahora tb creo que lo que se vea en consola lo podrás mover con una 960 o una 280 igual o mejor. Entre otras cosas porque cualquier I5 decente le da patadas a los jaguar que montan las consolas.


Las consolas consiguen mejores resultados con el mismo hard que en el pc,eso esta claro.Lo que no se puede hacer es negar los numeros cuando son pequeños,y hacer calculos para hacer esos numeros mas grandes por que uno quiere que su hard sea el mas potente.

Si siempre es la misma historia,algunos ven que el hard de las consolas no es suficiente,luego salen juegos que nos sorprende a todo el mundo,pero nunca se le ha querido dar un valor numerico a esa mejora hasta ahora...y adivina por que ahora se le quire dar valor numerico a la eficiencia...

Hay graficas en pc que rinden mejor que otras que en teoria son mas potentes,se habla de eficiencia pero en ningun momento se intenta hacer un calculo de la eficiencia para que te de un valor en Tflops,es que es absurdo.


Un saludo.
Seguís sin entender la importancia de la eficiencia.

Antes de la xbox one no se utilizaba como medida la eficiencia por que sencillamente no existía nada que funcionara así y todas basaban su potencia en fuerza bruta. Ahora y cuando empiecen a salir gráficas para pc con la misma arquitectura vernos como va a ser una medida mas a tener en cuenta cuando compremos tarjetas gráficas.

Que es mas eficiente un V8 de 3000 cc y 200 cv y 15 litros a los cien. o un 4 cilindros turbo de 1600 cc y 200 cv y 8 litros a los cien?.

PD: he editado lo último para que se entienda mejor.


Sabiais que la 750Ti es mas eficiente que otras targetas con la misma potencia?Que la eficiencia no la ha inventado MS,es algo que el ser humano busca desde siempre.

AMD siempre es la que ha tirado de potencia bruta,mientras que NVIDIA siempre ha buscado la eficiencia,es que teneis los dos caminos en pc y llevan una temporada peleandose esas dos.

@Morepawer los moviles cada vez mas pequeños,que buscan baterias mas duraderas y mantener o incluso incrementar su potencia tambien miran la eficiencia...y llevamos ya unos años con los smartphones.

Sobre la ley de moore,hace tiempo que se buscan otros caminos,por que te crees que no se ha pasado de los 4'4Ghz(aprox) de potencia en procesadores de uso cotidiano?Aparecio el dual core,y luego los quad core.

Que abra la mente?elotroforo?Buff paso de comentar sobre todo eso.

Un saludo.
Zokormazo escribió:
Xboxman escribió:Seguís sin entender la importancia de la eficiencia.

Antes de la xbox one no se utilizaba como medida la eficiencia por que sencillamente no existía nada que funcionara así y todas basaban su potencia en fuerza bruta. Ahora y cuando empiecen a salir gráficas para pc con la misma arquitectura vernos como va a ser una medida mas a tener en cuenta cuando compremos tarjetas gráficas.

Que es mas eficiente un V8 de 3000 cc y 200 cv y 15 litros a los cien. o un 4 cilindros turbo de 1600 cc y 200 cv y 8 litros a los cien?.

PD: he editado lo último para que se entienda mejor.


Si eso fuera cierto hoy dia trabajariamos con pentiums mononucleo a 50Ghz.

Que parece que la one nunca se han optimizado los chips y lo unico que se ha hecho es subir los relojes, lo cual no es cierto.

no hombre claro que se ha hecho, pero ahora y mas que nunca la paralelización y eficiencia van a mandar, es a lo que me refería. es dificil cuantificar algo de lo que no hay precedentes.

@Moraydron por supuesto que la eficiencia no es invento de ms, pero me tienes que reconocer que esta arquitectura no es normal para hacer las comparaciones que hacemos.
La paralelizacion y eficiencia hace años que estan presentes en la informatica en general.

Que no hayan llegado al computo grafico es otra cosa, pero a nivel cpu hace muchos años que la paralelizacion y la eficiencia son importantes. Ahi tienes por ejemplo los Sparc T1 desde hace 10 años haciendo incapie precisamente en eso: muchos hilos y consumo moderado.
Zokormazo escribió:La paralelizacion y eficiencia hace años que estan presentes en la informatica en general.

Que no hayan llegado al computo grafico es otra cosa, pero a nivel cpu hace muchos años que la paralelizacion y la eficiencia son importantes. Ahi tienes por ejemplo los Sparc T1 desde hace 10 años haciendo incapie precisamente en eso: muchos hilos y consumo moderado.

mira que sois cuadrados, por supuesto que existía, quien ha dicho que no existiera o que microsoft lo inventara.
El campo en el que se ha aplicado es lo que es nuevo, si tan normal te parece y tan cuantificable es por que se abrió este Hilo?
Xboxman escribió:
Zokormazo escribió:La paralelizacion y eficiencia hace años que estan presentes en la informatica en general.

Que no hayan llegado al computo grafico es otra cosa, pero a nivel cpu hace muchos años que la paralelizacion y la eficiencia son importantes. Ahi tienes por ejemplo los Sparc T1 desde hace 10 años haciendo incapie precisamente en eso: muchos hilos y consumo moderado.

mira que sois cuadrados, por supuesto que existía, quien ha dicho que no existiera o que microsoft lo inventara.
El campo en el que se ha aplicado es lo que es nuevo, si tan normal te parece y tan cuantificable es por que se abrió este Hilo?


Yo no he dicho que sea cuantificable. De hecho, me parece que estais intentado cuantificar de manera estatica algo muy dinamico, ya que la optimizacion y eficiencia cambian no ya en cada interacion de la SDK, sino que en cada build del soft.

El comentario iba porque en este hilo parece que a ratos microsoft ha hecho lo imposible, lo nunca visto hasta ahora y lo que a nadie en el mundo se le habia ocurrido, y no es asi.

o que se esta haciendo (tanto por parte de microsoft como por parte de otros muchos) es quitar de por medio el gran escollo que impedia que toda esa evolucion que ha tenido la informatica en general en cuanto a programacion multihilo y de eficiencia llegue a la programacion grafica (bueno, dentro de la gpu ya habia paralelizacion, donde no lo habia era en la comunicacion entre cpu-gpu)

Pero ni ha inventado la eficiencia ni la programacion multihilo, mucho menos en 2013.
La de la eficiencia es muy importante como dices,pero tampoco esta encontra de la potencia,puedes montar un harware potente y eficiente al mismo tiempo

Y cuando se compara con un pc es por tener una referencia,por saber a que nivel te encuentras,sino con que quereis comparalo con una lavadora?
chris76 escribió:1) La de la eficiencia es muy importante como dices,pero tampoco esta encontra de la potencia,puedes montar un harware potente y eficiente al mismo tiempo

2) Y cuando se compara con un pc es por tener una referencia,por saber a que nivel te encuentras,sino con que quereis comparalo con una lavadora?


1) NO, eso no es verdad , con la concepción de potencia y como funcionan los PC en la actualidad , a más potencia más energía desaprovechas , más consumo para llegar a un poco más (potencia y eficiencia están encontradas)

2) Igual me equivoco, pero creo que a día de hoy en los PC´s no se utiliza esa arquitectura. Ni es gráficas ni en comunicación cpu-gpu ni en paralelización de todo el proceso.

3) Igual sería mas justo comparar una lavadora con ONE, que compararla con un PC con un I7
Xboxman escribió:
Zokormazo escribió:
Xboxman escribió:Seguís sin entender la importancia de la eficiencia.

Antes de la xbox one no se utilizaba como medida la eficiencia por que sencillamente no existía nada que funcionara así y todas basaban su potencia en fuerza bruta. Ahora y cuando empiecen a salir gráficas para pc con la misma arquitectura vernos como va a ser una medida mas a tener en cuenta cuando compremos tarjetas gráficas.

Que es mas eficiente un V8 de 3000 cc y 200 cv y 15 litros a los cien. o un 4 cilindros turbo de 1600 cc y 200 cv y 8 litros a los cien?.

PD: he editado lo último para que se entienda mejor.


Si eso fuera cierto hoy dia trabajariamos con pentiums mononucleo a 50Ghz.

Que parece que la one nunca se han optimizado los chips y lo unico que se ha hecho es subir los relojes, lo cual no es cierto.

no hombre claro que se ha hecho, pero ahora y mas que nunca la paralelización y eficiencia van a mandar, es a lo que me refería. es dificil cuantificar algo de lo que no hay precedentes.

@Moraydron por supuesto que la eficiencia no es invento de ms, pero me tienes que reconocer que esta arquitectura no es normal para hacer las comparaciones que hacemos.


Por supuesto que la arquitectura no es normal,y para comparar lo mejor que tenemos son sus juegos,y asi vemos el rendimiento en los mismos,y aun asi tampoco son indicativos al 100% de la potencia,pues hay que tener en cuenta el presupuesto del juego,tiempo de desarrollo y experiencia/talento de los que lo diseñan.

Que ahora al ver QB y ROTR se hable de que la consola tiene una potencia disparatada en cuanto a numeros no le veo ningun sentido,no sera que tiene que ver el talento de Remedy?El tiempo de desarrollo?.

Cuando alguien dice que la Xone tiene X teraflops de potencia,pues lo normal es para comprobarlo,ver el rendimiento que dan los juegos en una hard con la misma potencia y ver si se llega a ella.

Ejemplo con ROTR,si me dicen que para mover eso necesitas 3,5 Tflops,pues cuando salga en pc vere que hace una grafica de 3,5 Tflops con el juego...y si lo mueve mejor que Xone es que algo falla,si lo mueve peor pues si que se podria decir que Xone iguala la capacidad grafica de una grafica de 3.5 Tflops,pero hacerlo en base a lo bien que se ve un juego me parece un error.

Un saludo.
Hablar de potencias equivalentes y demas es un poco absurdo. Existe un potencial de calculo RAW de cierto componente, que implica lo que implica, y luego unos resultados finales, que es lo que cuenta para hablar de lo que da la maquina de si.

Si se quiere hablar de eficiencia, hay que dejar de hablar en unidades de calculo bruto.
"Ejemplo con ROTR,si me dicen que para mover eso necesitas 3,5 Tflops,pues cuando salga en pc vere que hace una grafica de 3,5 Tflops con el juego...y si lo mueve mejor que Xone es que algo falla,si lo mueve peor pues si que se podria decir que Xone iguala la capacidad grafica de una grafica de 3.5 Tflops,pero hacerlo en base a lo bien que se ve un juego me parece un error".
@Moraydron, comprendo lo que dices y en gran parte estoy de acuerdo contigo.
Eso sí, no por ello tenemos que privarnos de opinar sobre datos técnicos del rendimiento de la consola y el material de próximos juegos que se muestra. Lo normal sobre las novedades que vayan saliendo es, en cierta medida, especular...ese concepto que es tan odiado como amado a partes iguales. Si no, este hilo perdería significado. :(
Un saludo
NeCLaRT escribió:Si se quiere hablar de eficiencia, hay que dejar de hablar en unidades de calculo bruto.


+1 En todo caso habria que hablar de tiempo/consumo o algo asi, y a ver como lo haces en una consola. Que medimos, consumo vs fps? Consumo vs pixeles? Consumo vs triangulos? Consumo vs ... ?
Zokormazo escribió:
NeCLaRT escribió:Si se quiere hablar de eficiencia, hay que dejar de hablar en unidades de calculo bruto.


+1 En todo caso habria que hablar de tiempo/consumo o algo asi, y a ver como lo haces en una consola. Que medimos, consumo vs fps? Consumo vs pixeles? Consumo vs triangulos? Consumo vs ... ?


Pero lo que esta patente, es que NO se puede sacar la (energía) de la ecuación. me explico:

Digamos que ONE consume 133w y tiene tanta potencia de procesado , evidentemente no se puede comparar de ninguna manera con un PC que de base consume 400-500w para realizar la misma tarea.

Aquí es donde la "palabra" eficiencia y todo lo que se intenta defender en este hilo, con cambio de pensamiento, cambios de arquitectura (menos potencia más hilos) , trabajo paralelo MUY optimizado, es donde igual se entiende que "con menos número- fuerza bruta, se consiga más" , el cuanto ????? eso no lo se. Dependerá de TODA la "simbiosis que consiga Hardware-software" para que el trabajo sea lo más fluido posible y la perdida de rendimiento MUY baja.

Comparar los PC actuales , con este planteamiento, es comparar peras con manzanas
Entre otras cosas, me pregunto si los Teraflops de una maquina son una medida de rendimiento infalible para estas cosas. Las operaciones en coma flotante, son una parte de todo el conjunto.

Lo mismo cuando se habla de triángulos por segundo, y siempre son triángulos sin texturizar en un mismo plano, y dando el valor de pico. Tampoco me parece lo mas correcto obviar geometría, iluminación, etc.

Incluso el software, ya que el código fuente no es el mismo: La plataforma base de desarrollo siempre va a tener ventaja. Ya no digamos si se hace un port con los muñones.

En fin, agradezco el creciente uso de la @, últimamente el hilo es profuso en gente que tengo ignorada.
En realidad es al revés, no es que 1.3TF rindan como 5, es que las cifras teóricas que se dan están muy lejos de las prácticas.

Por lo que en realidad importa la capacidad real y no teórica, junto a otros aspectos igual de importantes como las latencias, muy olvidadas las pobres y son cruciales para todo esto del render en tiempo real.
Pero es lo mismo que pasa con Nintendo.

La cuestion es que si las desarrolladoras lo que hacen es productos multiplataforma basados totalmente en tirar de potencia bruta y simplificar/rentabilizar el desarrollo lo maximo posible, al final todo esa maravilla de la ingenieria a la consola no le aporta nada. Si traen un nuevo paradigma de verdad tendran que conseguir que se trabaje en base a él.
NeCLaRT escribió:Pero es lo mismo que pasa con Nintendo.

La cuestion es que si las desarrolladoras lo que hacen es productos multiplataforma basados totalmente en tirar de potencia bruta y simplificar/rentabilizar el desarrollo lo maximo posible, al final todo esa maravilla de la ingenieria a la consola no le aporta nada. Si traen un nuevo paradigma de verdad tendran que conseguir que se trabaje en base a él.


Eso es. Ahí se espera que la llegada de DX12 se haga valer.
NeCLaRT escribió:Pero es lo mismo que pasa con Nintendo.

La cuestion es que si las desarrolladoras lo que hacen es productos multiplataforma basados totalmente en tirar de potencia bruta y simplificar/rentabilizar el desarrollo lo maximo posible, al final todo esa maravilla de la ingenieria a la consola no le aporta nada. Si traen un nuevo paradigma de verdad tendran que conseguir que se trabaje en base a él.


Eso esta claro +100000

Pero y si SUPONGAMOS, el uso de dx12- W10 y sus nuevas herramientas (centradas un poco en todo esto) , fuesen la conexión necesaria para un porteo rápido y de calidad atendiendo a estas necesidades. Primeramente atendiendo a los PC´s vía software (no tienen gran problema) y posteriormente adquiriendo estas características por hardware con el tiempo. De esta forma ya no se ve a ONE como algo aislado.
Gunnm escribió:
chris76 escribió:1) La de la eficiencia es muy importante como dices,pero tampoco esta encontra de la potencia,puedes montar un harware potente y eficiente al mismo tiempo

2) Y cuando se compara con un pc es por tener una referencia,por saber a que nivel te encuentras,sino con que quereis comparalo con una lavadora?


1) NO, eso no es verdad , con la concepción de potencia y como funcionan los PC en la actualidad , a más potencia más energía desaprovechas , más consumo para llegar a un poco más (potencia y eficiencia están encontradas)

2) Igual me equivoco, pero creo que a día de hoy en los PC´s no se utiliza esa arquitectura. Ni es gráficas ni en comunicación cpu-gpu ni en paralelización de todo el proceso.

3) Igual sería mas justo comparar una lavadora con ONE, que compararla con un PC con un I7

Todo eso esta muy bien,pero si cuando salio 360 para equipararse en pc te hacia falta un pc pepino pues sabes que tenias un maquinon,si cuando sale one con un pc gama baja igualas pues sabes que no es tan maquinon,haber que pc pide par el nuevo tomb raider y sabremos cuanto a evolucionado la consola
chris76 escribió:Todo eso esta muy bien,pero si cuando salio 360 para equipararse en pc te hacia falta un pc pepino pues sabes que tenias un maquinon,si cuando sale one con un pc gama baja igualas pues sabes que no es tan maquinon,haber que pc pide par el nuevo tomb raider y sabremos cuanto a evolucionado la consola

Es que eso no es verdad, en ambos casos necesitabas maquinas entre 500 y 600€.

Que entonces un PC de esa cantidad fuera importante y ahora sea gama baja porque dicho mercado se ha disparatado en tirar de potencia bruta, no afecta al otro mercado que sigue su linea de tamaño/consumo/ruido/barato/rendimiento de siempre.
chris76 escribió:Todo eso esta muy bien,pero si cuando salio 360 para equipararse en pc te hacia falta un pc pepino pues sabes que tenias un maquinon,si cuando sale one con un pc gama baja igualas pues sabes que no es tan maquinon,haber que pc pide par el nuevo tomb raider y sabremos cuanto a evolucionado la consola


Si lo único que miras son los números en bruto ............. tienes razón (no atiendo a consumo, no atiendo a Cpu) e igualo con teraflops de gráfica

PD: No puedes comparar el estado en el que estaban los PC en esa época, con el estado que están ahora. Ni con el que van a estar dentro de 18 meses a nivel de hardware/software ni construcción.

Para ser más justos, NO olvides montar ese PC con una CPU como la de las consolas y después tiras de gráfica, claro te queda el dato del consumo, que ese PC consuma los mismos watios que consume ONE para llegar a ese objetivo. Entonces tu planteamiento sería PERFECTO

Mientras tanto es comparar peras con manzanas y no es justo comparar con maquinas con más CPU (i3-i7) y que consumen x3 veces más. Evidentemente hay no existe la eficiencia por ningún lado.
Lo que no creo que sea de recibo es hablar de Teraflops adicionales, son los que son, si finalmente lo queréis enfocar por eficiencia.

En primer lugar porque la eficiencia no se puede medir de una forma sencilla, en segundo porque la potencia de una gráfica no se mide tan solo por sus Teraflops, pues de ser así, y por poner un ejemplo, una R9 290 Tri-x (5,12 Teraflops) sería casi igual que una GTX 980ti (5,63 Teraflops) y por desgracia para mi que tengo una, no es así. Mas ajustado es el ejemplo con la 290x de 5,60

Lo que vengo a decir es que hay que mirar la evolución de XOne, pero no enfrascarse en un guerra de Teraflops para comparar con gráficas de PC, dando con ello la impresión de que se quiere justificar la compra de ese hardware o ridiculizar la compra de otro por ser mas cara y, según algunos, menos potente.

Disfrutad de la consola no una guerra de flops.

Por otro lado, alguien tiene link a algún sitio donde se puedan ver las técnicas de iluminación por Voxels y demás tecnologías nuevas a fondo? Gracias de antemano.

Un saludo!
DX12 está orientado a poner a disposición de todo el mundo y mediante una API multiplataforma todas las características de las máquinas. Aparte de la optimización de sí misma.
darksch escribió:DX12 está orientado a poner a disposición de todo el mundo y mediante una API multiplataforma todas las características de las máquinas. Aparte de la optimización de sí misma.


Mas que multiplataforma, multiples arquitecturas/dispositivos pero una unica plataforma. Solo hay soporte para windows 10.

Para multiplataforma seria mas bien Vulkan.
Zokormazo escribió:
darksch escribió:DX12 está orientado a poner a disposición de todo el mundo y mediante una API multiplataforma todas las características de las máquinas. Aparte de la optimización de sí misma.


Mas que multiplataforma, multiples arquitecturas/dispositivos pero una unica plataforma. Solo hay soporte para windows 10.

Para multiplataforma seria mas bien Vulkan.


Windows 10 es multiplataforma... Por lo tanto la api tmbien.
Que la api solo funciona en un sistema operativo? Ok, pero puedes instalar ese so en cualquier dispositivo
Multiplataforma hardware.
eloskuro escribió:Windows 10 es multiplataforma... Por lo tanto la api tmbien.
Que la api solo funciona en un sistema operativo? Ok, pero puedes instalar ese so en cualquier dispositivo


Uf, ya es cosa de semantica mas que otra cosa...

Pero no estoy de acuerdo.

Windows 10 es una unica plataforma para distintas arquitecturas y dispositivos, por lo tanto no, no es multiplataforma.

Tal como dijo Myerson, One Product Family, One Platform, One Store.

EDIT:

https://blogs.windows.com/bloggingwindo ... indows-10/

Anuncio de Windows 10, hablan de una unica plataforma para multiples dispositivos

Microsoft dixit :P
No hay discursion posible zokor. Los dos sabemos que la api sirve para un so que es multiplataforma.

La api vulkan funciona tmb en linux y android. Bien por ellos.
eloskuro escribió:No hay discursion posible zokor. Los dos sabemos que la api sirve para un so que es multiplataforma.

La api vulkan funciona tmb en linux y android. Bien por ellos.


Y los dos sabemos que es una unica plataforma para distintos dispositivos y arquitecturas. De eso va todo esto de la universalidad no? Mira el link del anuncio de microsoft, hablan de una unica plataforma para todos los dispositivos, no de un unico SO para multiples plataformas.

No nos pondremos nunca de acuerdo y es mas cuestion de semantica que otra cosa.

Dejemoslo mejor o llenaremos esto de cuarenta paginas de darle vueltas a la mierda.
Repito, multiplataforma hardware. La otra es la plataforma software. Cada uno habla de una distinta.
pixius escribió:https://pbs.twimg.com/media/CNlC1y6VEAAKEYG.jpg

Puedes traducir o resumir lo que pone? Es que de ingles voy escaso XD. Perdona las molestias
Specnazz escribió:En primer lugar porque la eficiencia no se puede medir de una forma sencilla, en segundo porque la potencia de una gráfica no se mide tan solo por sus Teraflops, pues de ser así, y por poner un ejemplo, una R9 290 Tri-x (5,12 Teraflops) sería casi igual que una GTX 980ti (5,63 Teraflops) y por desgracia para mi que tengo una, no es así. Mas ajustado es el ejemplo con la 290x de 5,60

Eso igual es por los Drivers, que en DX11 los de NVIDIA eran mucho mas eficientes, y ahora en DX12 parece que se ha dado la vuelta a la tortilla. Has visto los benchmarcks de DF de Ashes of the Singularity ? AMD mejora mazo con DX12, NVIDIA en algún caso hasta pierde rendimiento.
cercata escribió:
Specnazz escribió:En primer lugar porque la eficiencia no se puede medir de una forma sencilla, en segundo porque la potencia de una gráfica no se mide tan solo por sus Teraflops, pues de ser así, y por poner un ejemplo, una R9 290 Tri-x (5,12 Teraflops) sería casi igual que una GTX 980ti (5,63 Teraflops) y por desgracia para mi que tengo una, no es así. Mas ajustado es el ejemplo con la 290x de 5,60

Eso igual es por los Drivers, que en DX11 los de NVIDIA eran mucho mas eficientes, y ahora en DX12 parece que se ha dado la vuelta a la tortilla. Has visto los benchmarcks de DF de Ashes of the Singularity ? AMD mejora mazo con DX12, NVIDIA en algún caso hasta pierde rendimiento.



Si, ya lo he visto y he opinado sobre ello en el hilo de Dx12 ;)

En este caso lo comentaba porque las gráficas no tan solo son Teraflops, hay mas factores importantes a parte de los Tflops como pueden ser Rops, mirar cuantos shaders tiene, unidades de mapeo de texturas, etc.

Igual tengo una idea equivocada, pues mis conocimientos de hardware provienen de leer foros y reviews.

Gracias.
Chungohann escribió:
pixius escribió:https://pbs.twimg.com/media/CNlC1y6VEAAKEYG.jpg

Puedes traducir o resumir lo que pone? Es que de ingles voy escaso XD. Perdona las molestias

Que un sistema equilibrado debe buscar por estar algo limitado en todos los frentes, respecto a un sistema no equilibrado que puede estar sobrado de algunas cosas y muy falto en otras, lo cual produciría cuellos de botella horrendos en esos aspectos respecto a pequeños cuellos de botella del sistema equilibrado. Como la velocidad que se obtiene es la del más lento (el mayor cuello de botella producido en el momento del frame), pues mejor un sistema equilibrado.
darksch escribió:En realidad es al revés, no es que 1.3TF rindan como 5, es que las cifras teóricas que se dan están muy lejos de las prácticas.

Justo eso acabo de poner eso en el hilo multiplataforma ... lo copio aquí:

El tema de los TeraFlops creo que se está enfocando muy mal en este hilo. Los TF teóricos que tiene un chip son los máximos que puede dar, y si los multiplicas por el rendimiento de un juego, te da los TF prácticos de esa plataforma ejecutando ese juego.

En vez de multiplicar por N los TF de una consola, habría que dividir los de PC entre N para comparar.

Y con la CPU algo parecido, ya que al saber cuantos núcleos tiene exactamente, y de que potencia cada uno, en consola se puede optimizar mucho mejor.

Según John Carmack, en PS360 N era 2 mas o menos, o sea, que las consolas igual tenían un rendimiento del 80%, y los PCs del 40%.

"Consoles run 2x or so better than equal PC hardware, but it isn’t just API in the way, focus a single spec also matters."

En ONE y PS4 aun esta por ver como quedará la cosa, ya que aun les falta para aprovecharse al 100% ...
De donde sacas lo del 80% y el 40%? O son números que te has inventado a modo de ejemplo?
Horizonte de sucesos escribió:De donde sacas lo del 80% y el 40%? O son números que te has inventado a modo de ejemplo?


Son cifras orientativas a modo de ejemplo. O eso es lo que entiendo yo
Horizonte de sucesos escribió:De donde sacas lo del 80% y el 40%? O son números que te has inventado a modo de ejemplo?


Se basa en las palabras de carmack
Si el rendimiento de las consolas en un juego era el doble que en PC. Ejemplo. Tarjeta grafica de 1 TF en consola rindiendo como tarjeta grafica de 2 GFLOPS de PC

Si se supone que nunca se llega al rendimiento real podemos hacer ciencia ficcion y decir que un juego top podria llegar a 800GFLOPS en esa consola de 1TF y el mismo juego con los equivalentesen hard para compatibles sería de 400 GLOPS
Horizonte de sucesos escribió:De donde sacas lo del 80% y el 40%? O son números que te has inventado a modo de ejemplo?

El 80% de consola me lo he inventado a modo de ejemplo, y el 40% de PC dividiendolo entre 2 según la "regla" de Carmack.

Lo que ha dicho @eloskuro, pero vamos, que podía haber dicho 90/45, o 70/35 ... a boleo, por poner un ejemplo.
17587 respuestas