Hablemos del interior de Xbox One

Voy a escribirlo por tercera vez.....el tiempo pone a cada uno en su lugar
Sinceramente..............
Espero que en este E3 hagan lo mismo que en el pasado E3 ¬_¬
juegos, juegos, juegos y más juegos y después juegos (mientras que "otros" trolleban el prestamo y tv tv tv del evento previo) funcionalidades que usan en otros sitios (nadie tiene culpa de vivir en Españistan)

Esos mismos, que estan pidiendo a gritos el usar reproducción de archivos, escuchar musica mp3, quitar la protección de red y que han comprado la camarita............... pero ojo esa plataforma es SOLO para juegos [fiu]

Por lo demás "me la trae al pairo" que tenga esto o aquello, quiero más halo, Gear, allan Wake, más Ryse, Forza, nuevas Ip´s, una maquina silenciosa y que después de 5-6 horas parece recien encendida, multifuncional y con la esperanza de las Actualizaciones y mejoras que ya he tenido en 360................ eso aa de hoy se llama ONE

Microsoft(Xbox) para algunos ni regalando un CLON de nigri ............. vamos [facepalm]
Jodido Forzimbras...cada que abre la boca me deja maximus hype con el e3...jajajaj.
Forzimbras escribió:La cosa es que algunas de esas elucubraciones (ojo, que no todas) están en lo cierto, y otras apuntan "caliente caliente" por donde van los tiros de lo que hay dentro de la carcasa. Independientemente de incredulidades y de cachondeos con DirectX, la nube y el máximo de tflps que puede dar la consola, que el tiempo pondrá en su sitio, donde corresponde. Y no queda mucho para ello (y no se me permite decir más).



No seas mamón!! Sueltalo ya o no digas nada pq cada vez que posteas me hypeo X10 y me subo por las paredes XD.

Por cierto, que no se como aun hay debate sobre la calidad, visto lo visto solo con Ryse y Forza,a dia de hoy y siendo los primeros juegos, por poner el ejemplo calidad grafica, aun hay gente empeñada en decir que la consola no llega a x resolucion o x fps.

De verdad tan cegada esta la gente??
Solo como apunte: he estado viendo que se ha dicho por activa y por pasiva que existe cierto secretismo que no es bueno acerca de determinadas specs. Bien. Si no se ha dado no es por culpa de que esas piezas sean malas o de baja potencia de cara a mantener esa información fuera del alcance del público para que éste no piense mal ni nada por el estilo, sino que ha sido por mero interés de la empresa. Muy acertadamente, aquí se ha apuntado que la GPU muestra una arquitectura que si bien presenta alguna similitud puntual con otras gráficas AMD que le preceden, en general se podría decir que es una pieza insólita. Ahora juntad la inversión millonaria que se hizo a la conclusión la anterior, y la respuesta podría deducirse: es una GPU extremadamente custom. Un modelo único por así decirlo, que en términos de rendimiento será más o menos comparable a otras GPU de PC, pero que no se basa en ninguna en particular. Esto ya es algo que se sabía.

La cosa es que esa GPU, es como es y no por casualidad, ya que cuando se diseñó en la fase de planificación de One, se hizo teniendo en cuenta DirectX 12. ¿Cómo? Os preguntaréis. Pues simple: el desarrollo de One, como se puede intuir, lleva planificándose desde años atrás, y la planificación de Dx12, si bien se inició posteriormente, pilló entre medias se hacía la de One. A donde quiero ir sin rodeos: One está pensada desde el principio para usar Dx12, no es que simplemente "lo soporte". Por así decirlo, está trabajando con la versión temporal (DX11) ya que la nueva aún no ha salido oficialmente. Y esta planificación se ha hecho con vistas a largo plazo, ya que será Dx12 con quien tocará convivir más tiempo.

Hace unos días, el CEO de Stardock, ya apuntó por donde iban los tiros, cuando expuso su análisis del rendimiento de las CU's, y cómo había visto que extrañamente, solo una estaba haciendo uso del Dx11 mientras que tiraba del carro del resto, y dijo que con Dx12, no será una CU la que tirará de las demás sino que será un uso de todas simultáneamente y por igual.

"Un modo de mirar Xbox One es el hecho de que con DirectX11 tiene 8 núcleos, pero sólo uno de ellos hace el trabajo de DirectX. Con DirectX 12 los ocho núcleos lo harán"


El resultado es evidente: más del doble de rendimiento, facilidad de programación notablemente incrementada y facilidad extrema de porteo de PC a One, posibilidad de mostrar más detalle gráfico dosificando recursos, mayor resolución con muchísimo menos esfuerzo y en definitiva, lo que se traduce en mejores juegos. Esto explica el que por ahora estén habiendo esos problemas del "resolutiongate", frames inestables, etc, porque está trabajando con una librería gráfica que no es la definitiva, sino una provisional en tanto que sacan aquella para la que se ha desarrollado. O lo que es igual: One no está usando ni un 25% del potencial máximo que puede dar de sí y que solo se va a exprimir con DX12.

A eso sumadle la compresión con las tiled resources, o lo que es lo mismo: posibilidad de mostrar texturas de máxima resolución en pantalla usando un formato que ocupa poquísima memoria, o lo que es lo mismo: no se va a necesitar tener una Titán para poder mover texturas que ésta mueve, gracias a ese tipo de compresión, que requerirá mucha menos memoria para mostrar los mejores gráficos. Obviamente, se requerirán adaptaciones al hard de la consola, ya que en este sentido es materialmente imposible para ninguna consola el recibir un port 1:1 de un juego con config ultra, pero sí podrá estarse muy cerca de ello.

Y a ello sumadle la computación en la nube: Xbox One ha sido planificada desde el principio con esta funcionalidad en mente, por mucho que se haya desactivado el DRM y el resto de la polémica parafernalia. Por tanto las funcionalidades iniciales siguen ahí, unas desactivadas permanentemente al haber ocurrido la vuelta de tornas, y otras esperando a ser activadas. Lo de Forza 5 y los drivatars solo podría considerarse como una pequeñísima punta de iceberg, como una mini-muestra de lo que puede hacerse simplemente con el almacenamiento y uso de la CPU "pregrabada" a base de copiar las pautas de manejo de los jugadores humanos, pero lo que aún no han enseñado, más allá de la muestra de la GDC, ha sido cómo se piensa usar de cara a la potenciación gráfica y a la estabilización de las tasas de frames, sólidas como una roca usando esta tecnología que requiere de escaso ancho de banda.

Esto al fin y al cabo es como todo: innovación a nivel técnico pura y dura. Sobre temas de los componentes del hardware, lo que monte, deje de montar, lo siento pero no puedo entrar.

Los iluminados pedían una pequeña aportación técnica, ahí la tienen.
Dios Forzimbas!! definitivamente tendre que dejar de leerte XD !!

Buenas palabras si señor!
Lo de que es evidente..

Cuando lo vea será evidente.

Yo de momento estoy disfrutando todo se verá y a ver como evoluciona el tema.
Ya lo he dicho....da igual las noticias diarias y declaraciones de desarrolladores y gente puesta sobre direct x12 y el hardware de one, hasta que Microsoft no enseñe no hay nada que hacer...asi que paciencia y a esperar el e3.
David Ricardo escribió:pero cada día que pasa parece más claro que el hardware de One es lo que se ve


Más bien es justo al contrario, cada día que pasa parece más claro que el ardware de ONE no es lo que se cree ver. [bye]

PD: Forzimbras, podríamos quedar una para tomar un café y lo que surja. Puedo ponerme muy cariñoso para sacarte "ciertas cosas". [inlove]
Espero que nadie venga a decir "es que PS4 va a mejorar también", ya que nadie dice lo contrario. PS4 como consola es un maquinón, pero las tecnologías usadas en una y otra consola difieren como de la noche al día, partiendo de que se basan o se apoyan en parámetros diferentes, y voy a intentar ilustrarlo:

PS4 en la potencia bruta, en unas specs "tochas" para lo que viene siendo una consola y un intento de semejanza a lo que monta un PC.

One está pensada, diseñada y construída desde 0 con vistas en la derivación/distribución de recursos físicos para múltiples tareas, y en el uso de la computación en la nube para dar ese "boost", así como DX12 en cuanto pueda usarse para facilitar la programación y obtener mejores resultados consumiendo menos recursos y en menor tiempo y las tiled resources como técnica de maximización de rendimiento al menor coste del mismo, de consumo y de memoria.

Para que se entienda:

Si PS4 hiciese un juego con X calidad usando el 100% de su hardware y One hiciese lo propio sin usar el resto de funciones que he mencionado antes, con toda seguridad el resultado sería superior en PS4.

La cosa es que cuando dijeron que usando esas funciones, se podía alcanzar el rendimiento de más de 2tflops en One tampoco estaban equivocados.

Por eso, volviendo al ejemplo anterior pero contando con las funciones extra de One, ese juego X que se ha hecho usando el 100% del potencial físico del hardware de PS4, podría hacerse usando el 75% de One más DX12+ compresión con tiled resources +nube para obtener idéntico resultado usando menos recursos "físicos" del hard de One, quedando un 25% libre para otras funciones, ya que como es sabido, One está pensada para la multifunción (insisto en que los porcentajes y cifras son a modo orientativo, de ejemplo)

La cuestión que seguro surge es: bueno, si se usa todo eso, entonces qué pasaría si se usase el 100% del hard físico de One + la computación en la nube y todo lo demás.

Pasaría esto: https://www.youtube.com/watch?v=XRU1AJsXN1g

XD

Coñas aparte: se ha comentado que One tenía planificado salir inicialmente al mercado en 2014, pero tuvo que salir finalmente en 2013...bien, casi aciertan pero no del todo. Lo cierto es que hay funcionalidades que estando en la consola, no están operativas aún. Ni DirectX llegará "capado" a One, ni tendrá simple "compatibilidad", ya que ésta viene por hard y DX12 va a configurarse de tal manera que la integración de lo que se haga en Windows y en One, sea TOTAL. Y lo mismo va por la nube (que estar está ahí pero no se está usando ni un 5%) y los tiled resources (cuya integración con DX12 es al igual, plena).

Nada de lo que monta One está ahí por casualidad, sino que es fruto de años de meditación, esfuerzo en su planificación, estudio detallado y cuidado meticuloso en la distribución de su arquitectura interna.
Evitemos hablar de PS4 por favooor que se liará.
Forzimbras escribió:Espero que nadie venga a decir "es que PS4 va a mejorar también", ya que nadie dice lo contrario. PS4 como consola es un maquinón, pero las tecnologías usadas en una y otra consola difieren como de la noche al día, partiendo de que se basan o se apoyan en parámetros diferentes, y voy a intentar ilustrarlo:

PS4 en la potencia bruta, en unas specs "tochas" para lo que viene siendo una consola y un intento de semejanza a lo que monta un PC.

One está pensada, diseñada y construída desde 0 con vistas en la derivación/distribución de recursos físicos para múltiples tareas, y en el uso de la computación en la nube para dar ese "boost", así como DX12 en cuanto pueda usarse para facilitar la programación y obtener mejores resultados consumiendo menos recursos y en menor tiempo y las tiled resources como técnica de maximización de rendimiento al menor coste del mismo, de consumo y de memoria.

Para que se entienda:

Si PS4 hiciese un juego con X calidad usando el 100% de su hardware y One hiciese lo propio sin usar el resto de funciones que he mencionado antes, con toda seguridad el resultado sería superior en PS4.

La cosa es que cuando dijeron que usando esas funciones, se podía alcanzar el rendimiento de más de 2tflops en One tampoco estaban equivocados.

Por eso, volviendo al ejemplo anterior pero contando con las funciones extra de One, ese juego X que se ha hecho usando el 100% del potencial físico del hardware de PS4, podría hacerse usando el 75% de One más DX12+ compresión con tiled resources +nube para obtener idéntico resultado usando menos recursos "físicos" del hard de One, quedando un 25% libre para otras funciones, ya que como es sabido, One está pensada para la multifunción (insisto en que los porcentajes y cifras son a modo orientativo, de ejemplo)

La cuestión que seguro surge es: bueno, si se usa todo eso, entonces qué pasaría si se usase el 100% del hard físico de One + la computación en la nube y todo lo demás.

Pasaría esto: https://www.youtube.com/watch?v=XRU1AJsXN1g

XD

Coñas aparte: se ha comentado que One tenía planificado salir inicialmente al mercado en 2014, pero tuvo que salir finalmente en 2013...bien, casi aciertan pero no del todo. Lo cierto es que hay funcionalidades que estando en la consola, no están operativas aún. Ni DirectX llegará "capado" a One, ni tendrá simple "compatibilidad", ya que ésta viene por hard y DX12 va a configurarse de tal manera que la integración de lo que se haga en Windows y en One, sea TOTAL. Y lo mismo va por la nube (que estar está ahí pero no se está usando ni un 5%) y los tiled resources (cuya integración con DX12 es al igual, plena).

Nada de lo que monta One está ahí por casualidad, sino que es fruto de años de meditación, esfuerzo en su planificación, estudio detallado y cuidado meticuloso en la distribución de su arquitectura interna.


Ojala y tengas razon .
Yo tengo actualmente PS4 pero si XBOX ONE resulta siendo lo que tu dices , no dudare en comprarmela tambien.
De momento todo esto a mi personalmente me parece humo y el movimiento se demuestra andando.
Todos estos parrafos quedan muy bonitos y pueden ser verdad pero luego ves como se arrastra la consola y no consigue mover casi ningun juego a 1080 p.
Asi que ya se vera y el tiempo pondra a cada uno en su sitio.
Por supuesto, no es mi intención convencer a nadie, solo exponer esa información. El que se quiera darle mayor o menos credibilidad, es ya cosa de cada uno. Solo digo que lo importante no es cómo se empiezan las cosas, sino cómo se acaban XD
Xbox One ya ha demostrado el movimiento.
Ryse y Forza así lo atestiguan
antonio613 escribió:Xbox One ya ha demostrado el movimiento.
Ryse y Forza así lo atestiguan


Y eso que son títulos de lanzamiento usando lo que hay disponible en estos momentos. Si ya vimos el salto que hubo en 360 de los títulos iniciales en relación a los últimos, no deberíamos esperar menos ahora. El cambio lo vamos a notar a partir de 2015 cuando esté ya todo en funcionamiento y programado sobre los devkits definitivos. Y DX12 es cuestión aparte, porque empezará a andar a partir de 2015, por lo que no esperaría juegos que se beneficien de esta librería gráfica hasta un año más tarde. Eso sí, en cuanto lo haga, a más de uno los cojones le llegarán al suelo, especialmente en lo relativo a exclusivos de la casa, y eso que yo solo he podido ver pequeños fragmentos de demos técnicas. Cuando eso se aplique 100% a un juego completo, debe ser colosal.

El detalle de Ryse se queda en nada comparado a lo que vamos a ver en los próximos años.
Forzimbras escribió:
antonio613 escribió:Xbox One ya ha demostrado el movimiento.
Ryse y Forza así lo atestiguan


Y eso que son títulos de lanzamiento usando lo que hay disponible en estos momentos. Si ya vimos el salto que hubo en 360 de los títulos iniciales en relación a los últimos, no deberíamos esperar menos ahora. El cambio lo vamos a notar a partir de 2015 cuando esté ya todo en funcionamiento y programado sobre los devkits definitivos. Y DX12 es cuestión aparte, porque empezará a andar a partir de 2015, por lo que no esperaría juegos que se beneficien de esta librería gráfica hasta un año más tarde. Eso sí, en cuanto lo haga, a más de uno los cojones le llegarán al suelo, especialmente en lo relativo a exclusivos de la casa, y eso que yo solo he podido ver pequeños fragmentos de demos técnicas. Cuando eso se aplique 100% a un juego completo, debe ser colosal.

El detalle de Ryse se queda en nada comparado a lo que vamos a ver en los próximos años.


Imagen

Supongo que más de uno lo sospechaba, sí, yo soy ese. Y sí, la XBOX ONE lleva tecnologia de los alienigenas ancestrales. Todo lo que comento lo he visto en las paredes de un templo en el amazonas.
Nada, son simples demos técnicas de cómo puede verse un fragmento de un juego random programado usando los recursos de DX12 y con tiles on fire, no quiere decir que sea de ningún juego que vaya a salir ni nada XD Eso sí, hasta donde me consta, la computación en la nube no se estaba usando en ellas, y aún y con esas ya se veía de escándalo...

Si es que, no se la fecha exacta en que se "insinuó" desde Redmond, pero la One estaba e imagino que sigue estando prevista para una duración a largo plazo, no dependiendo tanto de lo que es el hard físico presente en nuestras salas sino de lo que sea capaz de mover un "servidor" externo. Algo así como una especie de streaming de recursos pero sin consumir bestialidades de ancho de banda (aplicando compresión de datos a saco). Diría que para desplegar el 100% del potencial de One, no es ya que el hard físico sea insuficiente, sino que tampoco sería necesario. Un rendimiento a lo bestia, es prácticamente posible desde ya remotamente, a distancia. En eso es en lo que se quiere enfocar MS: no tanto en disponer de máquinas con piezas de specs top-end, sino que con unas "bases" decentes, el grueso del trabajo se haga vía computación a distancia.
Ya se de donde sale el 33% más de ALUS. [sonrisa]

Los datos que ha dado micro son correctos, tiene 768 stream processors.

Vuelvo con la imagen de la titan:

Imagen

Si los contais como contamos los de XBOX ONE os encontrais con 256 stream processors por SMX.

Pero si mirais la descripción de la titan solo tiene 192 stream procesors, ¿entonces contando con los deditos no salen las cuentas? Pues sí que salen xq tiene 192 stream porcessors y y 64 double precision units que sumados son los 256 bultitos que hemos contado en el die.

Asi que si seguimos el mismo razonamiento y tenemos una tercera parte de precisión units tendríamos entontonces los 768 stream procesors + 256 double precision units = 1024 bultitos que contais en el die de la GPU de XBOX ONE. Edito: (Primer Error: se cuentan 1536 bultitos en el die de la GPU de ONE, ¿proporción single y double = 1 a 1???)

¿Esto podría tener algún sentido? Lo mismo es una gilipollez, pero bueno yo lo pongo y si me tienen que corregir no me importa en absoluto.
papatuelo escribió:Ya se de donde sale el 33% más de ALUS. [sonrisa]

Los datos que ha dado micro son correctos, tiene 768 stream processors.

Vuelvo con la imagen de la titan:

Imagen

Si los contais como contamos los de XBOX ONE os encontrais con 256 stream processors por SMX.

Pero si mirais la descripción de la titan solo tiene 192 stream procesors, ¿entonces contando con los deditos no salen las cuentas? Pues sí que salen xq tiene 192 stream porcessors y y 64 double precision units que sumados son los 256 bultitos que hemos contado en el die.

Asi que si seguimos el mismo razonamiento y tenemos una tercera parte de precisión units tendríamos entontonces los 768 stream procesors + 256 double precision units = 1024 bultitos que contais en el die de la GPU de XBOX ONE. Edito: (Primer Error: se cuentan 1536 bultitos en el die de la GPU de ONE, ¿proporción single y double = 1 a 1???)

¿Esto podría tener algún sentido? Lo mismo es una gilipollez, pero bueno yo lo pongo y si me tienen que corregir no me importa en absoluto.


Jaja, "patapueblo" no tendría desperdicio verte currar de sexador de pollos, xD.

Ahora en serio, a ver si poly, f5inet o alguno de los que controlan pueden decir algo.

Un saludo.
patapueblo no ha dao una en el anterior post, pero es que no me cuadra nada de lo que dicen de la TITAN.

Dicen que tiene 192 stream processors por SMX y tiene 12 SMX activos, son 2304 stream porcessors, pero si miras las especificaciones dan en total 2688 stream processors.

Ok, ya sé lo que pasa. Si los cuentas a mano tiene 288 bultitos por SMX que si le restas las Double precission units y son 224 stream processor por SMX y si lo multiplicas por 12 tienes los 2688 stream processors a pesar de que a mano cuentas 3456. (2688 single + 768 double)

¿Pasará lo mismo con la GPU de XBOX ONE? ¿Habrá single y double y solo han dado los single?
SangReal está baneado del subforo por "Flamer anti Xbox One"
Forzimbras escribió:Nada, son simples demos técnicas de cómo puede verse un fragmento de un juego random programado usando los recursos de DX12 y con tiles on fire, no quiere decir que sea de ningún juego que vaya a salir ni nada XD Eso sí, hasta donde me consta, la computación en la nube no se estaba usando en ellas, y aún y con esas ya se veía de escándalo...

Si es que, no se la fecha exacta en que se "insinuó" desde Redmond, pero la One estaba e imagino que sigue estando prevista para una duración a largo plazo, no dependiendo tanto de lo que es el hard físico presente en nuestras salas sino de lo que sea capaz de mover un "servidor" externo. Algo así como una especie de streaming de recursos pero sin consumir bestialidades de ancho de banda (aplicando compresión de datos a saco). Diría que para desplegar el 100% del potencial de One, no es ya que el hard físico sea insuficiente, sino que tampoco sería necesario. Un rendimiento a lo bestia, es prácticamente posible desde ya remotamente, a distancia. En eso es en lo que se quiere enfocar MS: no tanto en disponer de máquinas con piezas de specs top-end, sino que con unas "bases" decentes, el grueso del trabajo se haga vía computación a distancia.

Eso se llama onlive y fue un fracaso
SangReal escribió:
Forzimbras escribió:Nada, son simples demos técnicas de cómo puede verse un fragmento de un juego random programado usando los recursos de DX12 y con tiles on fire, no quiere decir que sea de ningún juego que vaya a salir ni nada XD Eso sí, hasta donde me consta, la computación en la nube no se estaba usando en ellas, y aún y con esas ya se veía de escándalo...

Si es que, no se la fecha exacta en que se "insinuó" desde Redmond, pero la One estaba e imagino que sigue estando prevista para una duración a largo plazo, no dependiendo tanto de lo que es el hard físico presente en nuestras salas sino de lo que sea capaz de mover un "servidor" externo. Algo así como una especie de streaming de recursos pero sin consumir bestialidades de ancho de banda (aplicando compresión de datos a saco). Diría que para desplegar el 100% del potencial de One, no es ya que el hard físico sea insuficiente, sino que tampoco sería necesario. Un rendimiento a lo bestia, es prácticamente posible desde ya remotamente, a distancia. En eso es en lo que se quiere enfocar MS: no tanto en disponer de máquinas con piezas de specs top-end, sino que con unas "bases" decentes, el grueso del trabajo se haga vía computación a distancia.

Eso se llama onlive y fue un fracaso


Error, onlive era streaming de video, el se refiere a streaming de recursos, ademas no esta chony haciendo su onlive con psnow? Acaso la idea de chony es mas valida?
SangReal escribió:
Forzimbras escribió:Nada, son simples demos técnicas de cómo puede verse un fragmento de un juego random programado usando los recursos de DX12 y con tiles on fire, no quiere decir que sea de ningún juego que vaya a salir ni nada XD Eso sí, hasta donde me consta, la computación en la nube no se estaba usando en ellas, y aún y con esas ya se veía de escándalo...

Si es que, no se la fecha exacta en que se "insinuó" desde Redmond, pero la One estaba e imagino que sigue estando prevista para una duración a largo plazo, no dependiendo tanto de lo que es el hard físico presente en nuestras salas sino de lo que sea capaz de mover un "servidor" externo. Algo así como una especie de streaming de recursos pero sin consumir bestialidades de ancho de banda (aplicando compresión de datos a saco). Diría que para desplegar el 100% del potencial de One, no es ya que el hard físico sea insuficiente, sino que tampoco sería necesario. Un rendimiento a lo bestia, es prácticamente posible desde ya remotamente, a distancia. En eso es en lo que se quiere enfocar MS: no tanto en disponer de máquinas con piezas de specs top-end, sino que con unas "bases" decentes, el grueso del trabajo se haga vía computación a distancia.

Eso se llama onlive y fue un fracaso


Onlive es PSNOW, o juego en streaming, y ni eso es lo que pretende One, ni se le parece siquiera.

Estamos hablando de que el juego fisico lo tienes tú y lo inicias y ejecutas en tu consola, pero determinadas funciones como el procesado gráfico, se hacen remotamente. O lo que es igual: puedes jugar a un juego en lo que vendría siendo ULTRA en PC, sin tener un PC de 1.500 euros. En Onlive tu solo tienes el receptor, pero ni el equipo que lo ejecuta ni el juego los tienes en tu poder. Lo que One busca es que tanto el equipo como el juego los tengas donde estás, solo que hay un segundo equipo auxiliar (un megapepino de PC, por llamarle de algún modo), que MS pone a procesar tareas que requieren de muchos recursos en él, y a enviarte el resultado por internet a través de servers dedicados y Azure. Tú no verías como trabaja ese equipo remoto sino solo el resultado de su procesamiento en la pantalla de tu TV.
Forzimbras escribió:
Estamos hablando de que el juego fisico lo tienes tú y lo inicias y ejecutas en tu consola, pero determinadas funciones como el procesado gráfico, se hacen remotamente. O lo que es igual: puedes jugar a un juego en lo que vendría siendo ULTRA en PC, sin tener un PC de 1.500 euros. En Onlive tu solo tienes el receptor, pero ni el equipo que lo ejecuta ni el juego los tienes en tu poder.


Y yo me pregunto... ¿para qué pagar entonces 500 euros por un hardware como ONE? ¿No sería más lógico correr los juegos directamente en esos servidores con unos graficos imposibles de hacer con un hardware de 500 euros que no correr la mitad en la consola y la otra mitad en la nube?
PoderGorrino escribió:
Forzimbras escribió:
Estamos hablando de que el juego fisico lo tienes tú y lo inicias y ejecutas en tu consola, pero determinadas funciones como el procesado gráfico, se hacen remotamente. O lo que es igual: puedes jugar a un juego en lo que vendría siendo ULTRA en PC, sin tener un PC de 1.500 euros. En Onlive tu solo tienes el receptor, pero ni el equipo que lo ejecuta ni el juego los tienes en tu poder.


Y yo me pregunto... ¿para qué pagar entonces 500 euros por un hardware como ONE? ¿No sería más lógico correr los juegos directamente en esos servidores con unos graficos imposibles de hacer con un hardware de 500 euros que no correr la mitad en la consola y la otra mitad en la nube?


No hombre, la nube esta bien, pero solo si hace el 50% del trabajo. Si hace el 100 entonces no acaba de funcionar.

Palabra de hinjiniero.
PoderGorrino escribió:
Forzimbras escribió:
Estamos hablando de que el juego fisico lo tienes tú y lo inicias y ejecutas en tu consola, pero determinadas funciones como el procesado gráfico, se hacen remotamente. O lo que es igual: puedes jugar a un juego en lo que vendría siendo ULTRA en PC, sin tener un PC de 1.500 euros. En Onlive tu solo tienes el receptor, pero ni el equipo que lo ejecuta ni el juego los tienes en tu poder.


Y yo me pregunto... ¿para qué pagar entonces 500 euros por un hardware como ONE? ¿No sería más lógico correr los juegos directamente en esos servidores con unos graficos imposibles de hacer con un hardware de 500 euros que no correr la mitad en la consola y la otra mitad en la nube?


Si lo hicieses de esa manera tendrias justamente OnLive: streaming de juegos que se están ejecutando en un equipo en otra parte. Si falla el internet puntualmente, ni tienes posibilidad de jugar ni nada. En One no porque ejecutas a nivel local, y el procesado remoto es solo para mejorar el rendimiento que requeriría, por ejemplo, una carga gráfica potente o un número masivo de elementos en pantalla. Es una "ayuda" al procesado, sin más. Y la "potencia de lo que verías en pantalla sería el resultado de los dos dispositivos.

En definitiva: poder reproducir en tu One lo que sería impensable que se reprodujese por ella sola al nivel en que se muestra en pantalla.

Yo personalmente lo veo como una innovación, porque si al hecho de la posibilidad de mods le añades la posibilidad de obtener un rendimiento de PC high-end en un dispositivo de 500 euros, como dices, el resultado es el de una opción más que interesante para el bolsillo, y sin necesidad de optimizar ni configurar nada, ya que como he dicho, todo se hace remotamente.
argam escribió:
PoderGorrino escribió:
Forzimbras escribió:
Estamos hablando de que el juego fisico lo tienes tú y lo inicias y ejecutas en tu consola, pero determinadas funciones como el procesado gráfico, se hacen remotamente. O lo que es igual: puedes jugar a un juego en lo que vendría siendo ULTRA en PC, sin tener un PC de 1.500 euros. En Onlive tu solo tienes el receptor, pero ni el equipo que lo ejecuta ni el juego los tienes en tu poder.


Y yo me pregunto... ¿para qué pagar entonces 500 euros por un hardware como ONE? ¿No sería más lógico correr los juegos directamente en esos servidores con unos graficos imposibles de hacer con un hardware de 500 euros que no correr la mitad en la consola y la otra mitad en la nube?


No hombre, la nube esta bien, pero solo si hace el 50% del trabajo. Si hace el 100 entonces no acaba de funcionar.

Palabra de hinjiniero.


No es q no acabe de funcionar es q son conceptos diferentes. Q no veis lo q no interesa
SangReal está baneado del subforo por "Flamer anti Xbox One"
La nube solo puede cambiar el clima o la IA, y lo sabes perfectamente. Ya salieron los programadores riendose de la nube, por eso hay tanto cachondeo.
Jamas podra hacer la nube grandes cosas con pings altos, tendrian que poner servidores en cada pais y aun asi aqui en españa le iria bien a una minoria.

No le deis mas vueltas, nuestra unica esperanza es dx12 y dios quiera que cumpla lo prometido para x1 no lastre esta generacion

Sobre el gaikai o como sea, no se ni como funciona, pero si es un onlive ya saben por donde se lo pueden meter.
Q hay de los double precision units? Puede ser?
PoderGorrino escribió:
Forzimbras escribió:
Estamos hablando de que el juego fisico lo tienes tú y lo inicias y ejecutas en tu consola, pero determinadas funciones como el procesado gráfico, se hacen remotamente. O lo que es igual: puedes jugar a un juego en lo que vendría siendo ULTRA en PC, sin tener un PC de 1.500 euros. En Onlive tu solo tienes el receptor, pero ni el equipo que lo ejecuta ni el juego los tienes en tu poder.


Y yo me pregunto... ¿para qué pagar entonces 500 euros por un hardware como ONE? ¿No sería más lógico correr los juegos directamente en esos servidores con unos graficos imposibles de hacer con un hardware de 500 euros que no correr la mitad en la consola y la otra mitad en la nube?


En remoto no se renderiza nada, se ejecutan cálculos de físicas, IA y algunos tipos de iluminación en tiempo real no sensibles a la latencia de red. Para renderizar necesitas un equipo local.

Los DP es parte de la historia. Los núcleos de la GPU son virtualizables y adaptables a entornos vectoriales o escalares=Tiled architecture, escalable, adaptable y eficiente. La ESRAM en bloques de 8 MB juegan un papel importante aquí. DX12 por supuesto.
Forzimbras escribió:
PoderGorrino escribió:
Forzimbras escribió:
Estamos hablando de que el juego fisico lo tienes tú y lo inicias y ejecutas en tu consola, pero determinadas funciones como el procesado gráfico, se hacen remotamente. O lo que es igual: puedes jugar a un juego en lo que vendría siendo ULTRA en PC, sin tener un PC de 1.500 euros. En Onlive tu solo tienes el receptor, pero ni el equipo que lo ejecuta ni el juego los tienes en tu poder.


Y yo me pregunto... ¿para qué pagar entonces 500 euros por un hardware como ONE? ¿No sería más lógico correr los juegos directamente en esos servidores con unos graficos imposibles de hacer con un hardware de 500 euros que no correr la mitad en la consola y la otra mitad en la nube?


Si lo hicieses de esa manera tendrias justamente OnLive: streaming de juegos que se están ejecutando en un equipo en otra parte. Si falla el internet puntualmente, ni tienes posibilidad de jugar ni nada. En One no porque ejecutas a nivel local, y el procesado remoto es solo para mejorar el rendimiento que requeriría, por ejemplo, una carga gráfica potente o un número masivo de elementos en pantalla. Es una "ayuda" al procesado, sin más. Y la "potencia de lo que verías en pantalla sería el resultado de los dos dispositivos.

En definitiva: poder reproducir en tu One lo que sería impensable que se reprodujese por ella sola al nivel en que se muestra en pantalla.

Yo personalmente lo veo como una innovación, porque si al hecho de la posibilidad de mods le añades la posibilidad de obtener un rendimiento de PC high-end en un dispositivo de 500 euros, como dices, el resultado es el de una opción más que interesante para el bolsillo, y sin necesidad de optimizar ni configurar nada, ya que como he dicho, todo se hace remotamente.



mmmmm tiene sentido, y desde luego el video de demostración del edificio rompiendose era impresionante. Veremos hasta qué punto se puede aplicar. De todas maneras si reprocuciendo el juego completamente en remoto me ahorro 400 euros en el dispositivo no me importaría tampoco que necesitase internet a narices para jugar. La ayuda al procesado está bien, pero sigue siendo esclava del hardware hasta cierto punto, mientras que hacer un sistema que reproduzca los juegos completamente en remoto como era Onlive no. Dicho esto he de decir que a mi Onlive me iba como el culo, que pienso que para muchos juegos la latencia siempre será molesta (si se notaba en por ejemplo Guitar Hero el Input Lag de algunas TVs imagínate esto) y que veo bien este sistema para ofrecer "tarifas planas" de juegos de consolas de generaciones pasadas simplemente.

Tiene lógica pensar que la nube trabajará sobre elementos digamoslo así "visuales", que pueden tener o no un pequeño lag, pero que por ejemplo no tendremos ningún tipo de lag o problema en la respuesta de nuestro personaje, cosa que sí puede pasar reproduciendo el juego remotamente.
SangReal escribió:La nube solo puede cambiar el clima o la IA, y lo sabes perfectamente. Ya salieron los programadores riendose de la nube, por eso hay tanto cachondeo.
Jamas podra hacer la nube grandes cosas con pings altos, tendrian que poner servidores en cada pais y aun asi aqui en españa le iria bien a una minoria.

No le deis mas vueltas, nuestra unica esperanza es dx12 y dios quiera que cumpla lo prometido para x1 no lastre esta generacion

Sobre el gaikai o como sea, no se ni como funciona, pero si es un onlive ya saben por donde se lo pueden meter.


También las físicas e iluminación. O no has visto las demos?

La demo que mostró Nvidia sobre la iluminación en la nube usaban pings hasta de 500ms y funcionaba bien con ese espantoso ping, que no tienes ni usando la red 3G del móvil. [fumando] . Y tampoco necesitas un gran ancho de banda.

En resumen, que no hay problemas para los españoles. Con gaikai es otra historia, ahí si que pide ping muy buenos y mucho ancho de banda.
FlashBackMan360
Estuve repasando la conferencia del HETEROGENEOUS SYSTEM COHERENCE FOR INTEGRATED CPU-GPU SYSTEMS.

Algunos de vosotros habéis percibido de forma concisa que el "dataflow" y la "coherencia" para la optimización tanto de CPU como de GPU se vuelve un tema "IMPORTANTE". pdf: http://www.microarch.org/micro46/files/ ... slides.pdf

Probablemente si releéis mi post inicial de éste hilo con calma y algunos otros, ahora os suenen más algunos conceptos e ideas lanzadas en ellos puesto que lo que nos han contado en el summit de AMD no es nada más que su visión del hardware nativo dedicado a la API DX12.

Absolutamente todo está relacionado, y encontraréis sentido ahora a cosas explicadas en éste post como el hecho fehaciente de que MS hizo una configuración de memoria con tecnología existente para emular la memoria stackeada del futuro. Además los conceptos de diseño y fabricación son los mismos que usa la arquitectura de XBox One: el primer hardware full DX12 del mercado. Además también os daréis cuenta en éste post que yo ya señalé ésta información como acople de que las nuevas vga del roadmap de AMD usaban la misma tecnología que XBox One. Y si, en parte yo basé mis teorías a través de unos documentos "filtrados" que ahora están a la luz de todos. Así pues en la siguiente captura pueden obtenerse datos interesantes:

Imagen

Lo primero que cabe destacar es que los núcleos GCN1.1 tienen una coherencia tier2 en el aspecto nativo DX12 y que sólo pueden beneficiarse de arquitectura completamente heterogénea los GCN2.0 porque "duplica" la eficiencia del CU.

¿Si no, de que te sirve tener 4 programadores, 2 render pipes, una memoria con 8 controladores unidos en un canal horizontal...etc etc etc? todo es dual, todo está duplicado para su eficiencia. Se puede afirmar que GCN 2.0 y DX12 es donde MS ha invertido su dinero, primero para ayudar a AMD a crecer delante del competidor nVIDIA y después hacer para el hardware que deseaba, una API dedicada como es el DX12. Y puesto que Sony no ha metido un duro en ello, se ha quedado simplemente en un GCN 1.1 con coherencia limitada y tier 2.

En el debate con Isma os habréis dado cuenta que la gente tiene la cabeza un poco cuadrada y tiene a hacer comparaciones que poco o nada tienen que ver. Es la actitud de un PCero empedernido. Es natural, todos hacemos asociaciones mentales dependiendo los conocimientos que tengamos, no hay que culpar a nadie de lo que sabe o no sabe. Para mi, hay cosas que rompen de sobremanera la fama de esos usuarios cuando explican cosas como que para hacer raytracing se necesita un gran poder de cálculo, y eso, simplemente no es cierto, a parte de un poder de cálculo "moderado" lo que realmente se necesita es un grandísimo ancho de banda y una coherencia completa en las "llamadas" y "peticiones" de información. (los que lean en la sombra con grandes conocimientos técnicos como algunos de vosotros que me habéis mandado msg privados felicitandome por el trabajo debéis perdonar que explique los conceptos de manera algo abstracta y sencilla, intento llegar al máximo de público)

Curiosamente y no en bano en la foto te das cuenta que la configuración de la DDR3 está dispuesta en 16 canales, por lo que dota al sistema de 700GB/S de ancho de banda sin los problemas inherentes a las latencias absurdas de la GDDR. Un sistema heteregéneo 100% no puede disponer sólo de GDDR5, tiene que usar en su defecto algún pool extra embebido o no logrará abastecer las peticiones que se demandan. Es por ello que MS elige la configuración DDR3+esRAM, como ya expliqué en el post inicial de éste hilo. No se trata de abaratar costes se trata de dar una solución de futuro con tecnología existente en el momento de fabricación.

Nuestro amigo extranjero @AndrewSalvat me ha mandado unos esquemas donde me comenta que hasta día de hoy "solo se ha usado" la DDR3 para los juegos y usado la esRAM como framebufer, una forma equivocada de hacer trabajar a ese POOL. Puesto que la memoria de la máquina consta de 8 controladores en total, 4 para esRAM y 4 para la DDR3 podemos extrapolar lo siguiente: 32 MB para e/SRAM - 4 memory controllers - 4 lineas, 8MB cada linea - cada linea se compone de 8 módulos (1 MB por modulo), entonces 8 módulos x 4 lineas = 32 módulos (@ 1MB modulo) Entonces quizá es legítimo pensar que esos 8 módulos son el equivalente a 8 nodos y por lo tanto podemos decir de manera acertada que hablamos sin ninguna duda y por confirmación de la propia MS con: 256bits por cada linea que compone un total de 1024 bits la velocidad extrapolada media de escritura y lectura simultanea de la E/SRAM es de 160gb/s por linea 160gb/s*4=640gb/s

Pero aquí viene lo bueno, si cogemos la teoría de @AndrewSalvat y extrapolando los datos que MS nos ha dado tenemos: 64bits por cada linea que compone un total de 256bits La velocidad de cada linea es de 68gb/s 68gb/s*4=272gb/s 272gb/s de DDR3+640gb/s=912gb/s.

Si cogemos la información que tenemos sobre tier 1, 2 y tier 3 nativo y como necesita el ancho de banda que actúe para hacer que la arquitectura heterogénea y el dataflow sea efectivo podemos entender que sólo DX12 puede hacer trabajar a la memoria de ésta manera: La primera configuración de memoria para las third partys fue la siguiente: DDR3 funcionando como 1 sólo canal, 64bits, total 68gbs+ framebufer de 1 sólo canal de la esRAM 160gb/s en un pool de 32mb de 256bits La configuración de febrero con los nuevos SDK es ·tier2" por lo que probablemente dependiendo de lo que requieras puedes activar 2+2 canales con lo cual hablaríamos de 128bits y 136gb/s para ddr3 y 512bits + 320gb/s para esRAM. DX12 activará 4+4 habilitando los 256bits de los cuatro controladores de la DDR3 y los 1024bits de la esRAM. GCN2.0.

Y tal y como dispone el PDF la tecnología XTX que desarrolla AMD como "su visión" de DX12 a nivel de hardware requiere un ancho de banda superior a 600gb/s para una coherencia GCN2.0. Con menos de 600gb/s NO PUEDES TENER UNA ARQUITECTURA DX12 NATIVA, SÓLO EMULARLA POR SOFTWARE CON LAS CORRESPONDIENTES LIMITACIONES.

Por eso en la foto esa pone abajo del todo QUE SÓLO UNA CONSOLA NEXTGEN USA LA MISMA IDEA. Es la teoría de "cuando un CU, no es sólo uno" Two best than one but only one in physical. DX12 APPROVED


Que por cierto en en hilo están usando algunas de las imágenes que yo he hecho con el Paint y he posteado aquí en eol, sin ir más lejos la que acompaña a la explicación técnica. jajajajaj.

El que la cogió ya podía habernos explicado el tema aquí en nuestro querido hilo.


http://www.mundodvd.com/xboxone-la-nueva-xbox-one-salida-el-22-de-noviembre-87273/108/

El gif que hice marcando los alus también lo han cogido:

http://www.3djuegos.com/comunidad-foros/tema/29860552/2/rompiendo-las-reglas-rompiendo-el-mito-el-poder-real-de-xbox-one/

Así que sabemos que se pasan por aquí.

Pues nada, miradme lo de los stream processors de la titan, mas que nada xq se parecen un huevo a las de la XBOX ONE y el amigo Bob Feldestein el que dijo lo de los 3000 millones del partnership se marchó en 2012 a Nvidia y se le acusó de robar información confidencial de AMD antes de irse. La titan salió en 2013 [fiu]
Gracias por los datos y las hipótesis aportadas, que desde luego espero se cumplan algunas [oki] [looco] . y por algunos post verdaderamente interesantes y bien cimentados y explicados [plas]
Con todos mis respetos, pero por favor que alguien invoque a politeres que después de leer a forzimbras y como poseedor de una one tengo un HIPE de la ostia... XD
A mí estos post de Forzimbras me han decepcionado mucho. Con el rollo de hacerse el misterioso diciendo que no estaba autorizado para hablar y tal, pensé que igual sabía algo concreto y nos contaba algún detalle nuevo.

Sin embargo, en vez de un texto breve y concreto, en el que con pocas palabras nos explicase claramente qué es lo que hace a One especial, nos planta un megatocho con todas las expresiones sospechosas habituales: el poder de la nube, pensada para el futuro (directx12), full custom, 3000 millones de dólares, tiled resources y demas "buzz words" que son muy bonitas y tal, pero realmente no explican cómo y por qué un sistema de 1,3 teraflops puede rendir como si tuviese 2 ó más teraflops.

Es todo palabrería para engatusar a quien no tenga idea de tecnología, pero para quien tenga algún conocimiento de tecnología, es leer el tocho ese y te quedas igual. No aclara nada.
David Ricardo escribió: Es todo palabrería para engatusar a quien no tenga idea de tecnología, pero para quien tenga algún conocimiento de tecnología, es leer el tocho ese y te quedas igual. No aclara nada.


entonces tu debes estar totalmente engatusado y lo tienes clarisimo.
Q quieres q haga el hombre? Q te ponga informacion confidencial de la empresa? Y la nomina del mes q viene se la damos nosotros. No es el unico q se calla mas de lo q dice, pero hay quien tiene q guardar silencio o perder un trabajo.
papatuelo escribió:Q quieres q haga el hombre? Q te ponga informacion confidencial de la empresa? Y la nomina del mes q viene se la damos nosotros. No es el unico q se calla mas de lo q dice, pero hay quien tiene q guardar silencio o perder un trabajo.

Para callar algo tienes que saberlo. No creo que forzimbras sepa nada sobre la tecnología de One que no sepa cualquier persona con internet. Yo no he leído nada nuevo en su post. Todo palabrería: directx12, tiled resources, nube y tal y cual. Bueno, miento. Sí ha dicho algo nuevo, que One va a ser superior en los multis a PS4 a partir de 2016. Eso sí, no nos ha explicado cuáles son las características únicas de One que van a permitir que mediante software se duplique su rendimiento de una manera que la competencia no va a poder.

Es decir, que se supone que one tiene algo que hace que menos potencia sea más, pero toda la explicación que da es directx12, tiled resources, nube, 3000 millones de dólares... Palabras bonitas. Ahora explícame por qué One va a poder hacer eso y los demás no.

El directx12 es compatible con todas las gráficas AMD GCN, así que eso no es algo diferenciador en sí mismo. Los tiled resources los puedes usar en cualquier gráfica también, es una manera de economizar espacio en memoria simplemente.
La nube es una manera de llamar al procesamiento remoto. ¿Qué impide a cualquier otra compañía contratar procesamiento con amazon, por ejemplo, y usar también procesamiento remoto? Eso sin contar los problemas de un juego con procesamiento en la nube: si la conexión se va, el juego también, si alguien en tu casa pone el emule, el juego a tomar por saco, etc, etc...

Yo lo que esperaba oir es: "One tiene tal procesador que hace esta función que es fundamental para directx12 y no se puede hacer por software, y esa función es la hostia porque hace noseq que duplica el rendimiento. Las graficas futuras AMD la tendrán pero las gráficas tradicionales no."

Son 2 lineas y media. Si me dice eso, cambiando el noseq por una explicación razonable, yo me quedo encantado. Pero ponerme un megatocho en plan listado de buzz words sin decir nada nuevo, eso no aporta nada a nadie. Solo aporta confusión y decir que One va a ser la mejor, no lo puedo explicar, pero tenéis que creerme porque trabajo en Microsoft.
David Ricardo escribió:
papatuelo escribió:Q quieres q haga el hombre? Q te ponga informacion confidencial de la empresa? Y la nomina del mes q viene se la damos nosotros. No es el unico q se calla mas de lo q dice, pero hay quien tiene q guardar silencio o perder un trabajo.

Para callar algo tienes que saberlo. No creo que forzimbras sepa nada sobre la tecnología de One que no sepa cualquier persona con internet. Yo no he leído nada nuevo en su post. Todo palabrería: directx12, tiled resources, nube y tal y cual. Bueno, miento. Sí ha dicho algo nuevo, que One va a ser superior en los multis a PS4 a partir de 2016. Eso sí, no nos ha explicado cuáles son las características únicas de One que van a permitir que mediante software se duplique su rendimiento de una manera que la competencia no va a poder.

Es decir, que se supone que one tiene algo que hace que menos potencia sea más, pero toda la explicación que da es directx12, tiled resources, nube, 3000 millones de dólares... Palabras bonitas. Ahora explícame por qué One va a poder hacer eso y los demás no.

El directx12 es compatible con todas las gráficas AMD GCN, así que eso no es algo diferenciador en sí mismo. Los tiled resources los puedes usar en cualquier gráfica también, es una manera de economizar espacio en memoria simplemente.
La nube es una manera de llamar al procesamiento remoto. ¿Qué impide a cualquier otra compañía contratar procesamiento con amazon, por ejemplo, y usar también procesamiento remoto? Eso sin contar los problemas de un juego con procesamiento en la nube: si la conexión se va, el juego también, si alguien en tu casa pone el emule, el juego a tomar por saco, etc, etc...

Yo lo que esperaba oir es: "One tiene tal procesador que hace esta función que es fundamental para directx12 y no se puede hacer por software, y esa función es la hostia porque hace noseq que duplica el rendimiento. Las graficas futuras AMD la tendrán pero las gráficas tradicionales no."

Son 2 lineas y media. Si me dice eso, cambiando el noseq por una explicación razonable, yo me quedo encantado. Pero ponerme un megatocho en plan listado de buzz words sin decir nada nuevo, eso no aporta nada a nadie. Solo aporta confusión y decir que One va a ser la mejor, no lo puedo explicar, pero tenéis que creerme porque trabajo en Microsoft.


Tu tranquilo que en el E3 saldras de dudas, y me da que ya te quedaras por otros lares o quizas tengas otra hoja de ruta. Sinceramente siempre que te leo es como si leyese a Sony. o un empleado de ella.
¿por que? porque si estas en el foro de la one lo minimo es tener o darle cierda duda , o incluso esperanza a las palabras de otros foreros y no ir siempre en contra de la one y recalcando lo inferior que es.

Sin acritud solo es opinion de la persona mas negativa es este hilo.
David Ricardo lo que buscas que es también lo que yo buscaba(osea el hardware que solo tiene one para supuestamente duplicar el rendimiento con directx12)lo tienes en los post de 3djuegos con imágenes reales y paneles oficiales y explicado para gente de a pie

si a estas alturas aun no lo sabes es por que no quieres,otra cosa es que te lo quieras creer o no

por cierto mucho nombráis el e3 y el e3 es solo para juegos,alli no se va a decir nada sobre el hardware de one,como mucho esperemos ver juegos que supuestamente empiezen a usar la consola como debe
Lo mas normal es q en el e3 se enseñen juegos normalitos xq para q se empiecen a ver cosas con directx 12 falta mucho tiempo. Pero ten muy claro q como se vea algo muy bruto el discurso sera: eso es humo, eso lo esta moviendo un PC, el hardware de xbox one es el q es y luego vendra el downgrade...
papatuelo escribió:Lo mas normal es q en el e3 se enseñen juegos normalitos xq para q se empiecen a ver cosas con directx 12 falta mucho tiempo. Pero ten muy claro q como se vea algo muy bruto el discurso sera: eso es humo, eso lo esta moviendo un PC, el hardware de xbox one es el q es y luego vendra el downgrade...

Lo de nvidia y su titán a sido bestial,no sabemos si realmente es así pero desde luego que la info que has recopilado cuadra todo,y a mi ya me extrańo que se presentara dx12 en una nvidia

Buen curro [tadoramo]
papatuelo escribió:Q quieres q haga el hombre? Q te ponga informacion confidencial de la empresa? Y la nomina del mes q viene se la damos nosotros. No es el unico q se calla mas de lo q dice, pero hay quien tiene q guardar silencio o perder un trabajo.


Espera que le trajese planes de desarrollo, documentos técnicos e información confidencial, solo para él, por ser él, y que me juegue el puesto de trabajo [carcajad] Si de estas cuestiones no hablo ni a mis amistades mas cercanas o familiares, mucho menos me iba a poner a soltar "bombas" en mitad de un foro, estando encima perfectamente localizado y siendo los posts de público conocimiento.

En fin, viva la lógica...
David Ricardo escribió:
papatuelo escribió:Q quieres q haga el hombre? Q te ponga informacion confidencial de la empresa? Y la nomina del mes q viene se la damos nosotros. No es el unico q se calla mas de lo q dice, pero hay quien tiene q guardar silencio o perder un trabajo.

Para callar algo tienes que saberlo. No creo que forzimbras sepa nada sobre la tecnología de One que no sepa cualquier persona con internet. Yo no he leído nada nuevo en su post. Todo palabrería: directx12, tiled resources, nube y tal y cual. Bueno, miento. Sí ha dicho algo nuevo, que One va a ser superior en los multis a PS4 a partir de 2016. Eso sí, no nos ha explicado cuáles son las características únicas de One que van a permitir que mediante software se duplique su rendimiento de una manera que la competencia no va a poder.

Es decir, que se supone que one tiene algo que hace que menos potencia sea más, pero toda la explicación que da es directx12, tiled resources, nube, 3000 millones de dólares... Palabras bonitas. Ahora explícame por qué One va a poder hacer eso y los demás no.

El directx12 es compatible con todas las gráficas AMD GCN, así que eso no es algo diferenciador en sí mismo. Los tiled resources los puedes usar en cualquier gráfica también, es una manera de economizar espacio en memoria simplemente.
La nube es una manera de llamar al procesamiento remoto. ¿Qué impide a cualquier otra compañía contratar procesamiento con amazon, por ejemplo, y usar también procesamiento remoto? Eso sin contar los problemas de un juego con procesamiento en la nube: si la conexión se va, el juego también, si alguien en tu casa pone el emule, el juego a tomar por saco, etc, etc...

Yo lo que esperaba oir es: "One tiene tal procesador que hace esta función que es fundamental para directx12 y no se puede hacer por software, y esa función es la hostia porque hace noseq que duplica el rendimiento. Las graficas futuras AMD la tendrán pero las gráficas tradicionales no."

Son 2 lineas y media. Si me dice eso, cambiando el noseq por una explicación razonable, yo me quedo encantado. Pero ponerme un megatocho en plan listado de buzz words sin decir nada nuevo, eso no aporta nada a nadie. Solo aporta confusión y decir que One va a ser la mejor, no lo puedo explicar, pero tenéis que creerme porque trabajo en Microsoft.


Mezclas conceptos.
No es lo mismo compatibilidad DX12 por software o por hardware
No es lo mismo tiled respurces que "tiled architecture"
Y PS4 no tendrá cloud computing, primero porque no tiene infraestructura propia y alquilarla penaliza demasiado el coste, y segundo porque no tienen APIS ni servicios propios para realizarlo. Hasta Yoshida afirmó que no tenían ni idea de qué iba eso del cloud computing. En este aspecto llevan años de desventaja.
Si quieres leer algo único en la arquitectura de One, ya lo he comentado varias veces: su GPU es virtualizable incluso a nivel de cores, es dinámica y escalable, capaz de agregar a partir de cores físicos otros cores lógicos para componer, por ejemplo, un sistema superescalar.
Otra cosa que lo diferencia, es full HSA, la competencia no, con un 50% más de ancho de banda coherente.

Resumiendo, no hay nada next-gen en la competencia. Sí lo hay en One.

Por supuesto no tienes por qué creerme, y supongo que no lo harás y como ya dijiste en un post hace meses en un hilo de multi, segurirás sintiéndote obligado a predicar que la competencia es más potente allá por donde pases.
Lo mejor es ignorar a los profetas de sony.
Yo lo tengo ignorado desde antes de salir las consolas. Si lo quoteais me lo tengo que comer.

Muy interesante papatuelo. Todo lo que estas poniendo.
chris76 escribió:David Ricardo lo que buscas que es también lo que yo buscaba(osea el hardware que solo tiene one para supuestamente duplicar el rendimiento con directx12)lo tienes en los post de 3djuegos con imágenes reales y paneles oficiales y explicado para gente de a pie

si a estas alturas aun no lo sabes es por que no quieres,otra cosa es que te lo quieras creer o no

por cierto mucho nombráis el e3 y el e3 es solo para juegos,alli no se va a decir nada sobre el hardware de one,como mucho esperemos ver juegos que supuestamente empiezen a usar la consola como debe

El post de 3djuegos a mí me inspira cero confianza. Se basa todo principalmente en que Microsoft está mintiendo y One es el doble de potente de lo que dice la propia Microsoft.

Me parece poco creíble, la verdad.
Parece ser que todo lo que no diga un ingeniero de la compañía o el propio Satya Nadella, es mentira y queda automáticamente desacreditado, o supone desinformación y humo, porque hable quien hable, o miente, o desinforma. En fin: veo un problema de confianza más bien (y me consta que no es por los asiduos y algunos ingenieros que estáis en el hilo presentes). Pero allá cada cual. Como ya se ha dicho, no es intención de nadie convencer a nadie. Si alguno/a no cree lo que se dice en este post, tampoco le obligan a leerlo. Que se quede con su PS4 y siga tan feliz, que en Sony no mienten y por supuesto, todo lo que se dice es verídico y fehaciente.

Solo me resulta curioso, insisto, que muchos que no han tocado una One ni con un palo más allá de ver fotos en internet y leer pajas mentales de "insiders" anónimos de NeoGAF, parecen saber más que los que están dentro de la compañía y poner en tela de juicio toda nueva información que se aporta y negarlo rotunda y sistemáticamente todo. Decir curioso, es poco.

Y no: no seré ingeniero, pero sí tengo trato diario con muchos de dentro, con lo cual la fuente es plenamente fiable sobre las funciones que he expuesto. Y si posteo lo que posteo es lo que se me permite postear, ni más ni menos. Entiendo que muchos quieran tener en sus manos copias digitales de documentos técnicos que se filtren en plan wikileaks, pero por desgracia, así no funcionan las cosas. Ni aquí ni en ninguna otra compañía.
Algunos estan esperando ver el fracaso de MS, y la ostia que se van a llevar va a ser tremenda... [mamaaaaa]
17587 respuestas