Hablemos del interior de Xbox One

Flashback also compresses and stores said “mega-frames” either in the GPU’s VRAM, or in the RAM or on the SSD/Flash memory of the device. The frames only get decompressed in the GPU’s memory when they’re most likely to be displayed. This allows even huge VR environments to be cached efficiently without using up your smartphone’s entire storage. As an example, a decoded 4K texture uses up to 8MB of memory, but compressed on the flash storage or RAM it only needs 100 KB.


Por otro lado. ¿Que pasaría si microsoft da la opción de hacer streaming a moviles con windows phone y comercializa un casco a lo Samsung Gear ?

Os recuerdo que ya se filtraron imagenes de la proxima build de Windows Phone ofreciendo la posibilidad de hacer streaming desde XBOX
Que ratio de compresion tiene esto? XD en el paper donde dice que 54 gigas para el pueblo vikingo es sin comprimir
Zokormazo escribió:Que ratio de compresion tiene esto? XD en el paper donde dice que 54 gigas para el pueblo vikingo es sin comprimir


Es que eso son todas la imagenes prepapradas, pero como muy bien dice ahí, tu no necesitas todas. El sistema pedirá y descomprimirá las que necesita. Ahí dice que necesitas 8 megas para una textura 4K que se comprime en un paquete de 100KB. Si la textura en lugar de ser 4K es 1080p supongo que pesará menos, y eso es lo que tu tendrías que pedir a la nube.

Por otro lado no sé si estarán usando tiles, pero si no los están usando y le sumas eso...

One major benefit from the use of virtual texturing is that you can use much larger textures, even up to 256Kx256K. A texture of that size compressed with DXT1 would occupy 32GB of memory, and loading that texture would take minutes. With Granite, you need only 32MB of VRAM for that texture, and the loading time is unnoticeable.
@papatuelo pero si es para cloud computing para que usar esto? Que usen los 300k servidores y ya no?
Zokormazo escribió:@papatuelo pero si es para cloud computing para que usar esto? Que usen los 300k servidores y ya no?


Es que no estoy diciendo que sea lo mismo, pero si que está muy relacionado.

Corrigeme si me equivoco:

1) Lo que están haciendo con esta tecnología es tomar frames que se han prerrenderizado y almacenado y se muestran solo aquellos que necesitas. Los frames prerrenderizados se cargan desde una "nube local".

2) Pero que pasa si lo muevo al campo de la nube real. Necesito que los paquetes que me manden sean tan pequeños como sea posible, de ahí todos los temás de compresión.

3) Pero si voy más allá, ¿que pasa con el Lag? En la nube local tengo los frames preparados porque no tengo potencia para renderizarlos, pero en la nube real tengo potencia de sobra con esos 300K como tu dices. Entonces mi problema es ahora otro, no puedo ponerme a renderizar el frame y tener a la consola esperando a que lo mande. Pero entonces, ¿qué puedo hacer? Ejecución especulativa, tengo los frames preparados y si me apuras enviados a una cache en la consola antes de que la consola me los pida. Y aquí entra el proyecto DeLorean.

Pero puedo ir más allá, y si renderizo unos frames en la consola y otros en la nube, y sí solo delego algunos calculos a la nube o incluso solo partes del frame y luego solo tengo que tomarlos de una cache para pintar, etc.

Quiero decir, que esto lo que viene a decir es que los frames no se van a construir enteros en la máquina, si no que voy a tener "almacenes" de recursos preparados para ahorrar tiempo de renderizado.

Por poner un ejemplo, que pasa si la máquina construye un frame a partir de cuatro precalculados en la nube, similar a como ocurre en quantum break, pero ahora la consola solo tiene que hacer esa combinación final y calcular las cosas que no le cuadren.

No sé yo le veo posibilidades muy brutas y como digo todo apunta al mismo sitio, incluido Crackdown que me preguntaste antes que pintaba en el ajo. Pues es lo que más pinta, es el primer juego que hará uso intensivo del calculo en la nube, y encima es de la primera compañia que apuesta por delegar operaciones a la nube para hacer funcionar la VR, Si ya has delegado físicas para un juego no VR xq no vas a poder hacerlo para uno no VR.

Edito: Y por su puesto no me encabezono en que lo vayan a hacer con ONE, solo digo que le veo sentido.
@papatuelo esta clarisimo que ms esta investigando mucho en streaming, servicios etc tirando hacia thin clients apoyados en un backend en nube de poder infinito, lo que dices va por ahi. Al igual que delorean donde se reducia la latencia tirando a saco de flops en nube, o el otro paper cuyo nombre no recuerdo donde se renderiza un trozo en local y otro en remoto. Ambos papers tomaban como base un cliente de poca chicha y un servidor de flops infinitos. Los flops en tiempo real no importan siempre que los saquemos del cliente.

Pero en este ultimo el planteamiento es distinto. Aqui en tiempo de ejecucion se asume que solo tenemos el poder del cliente debil, lo que es infinito es el almacenaje y se batchea ya sea en local o en remoto todo el calculo posible para que en tiempo de ejecucion el poder necesario sea minimo, asumiendo que tenemos una memoria lo suficientemente rapida y grande para que funcione.

Que el cloud tmb cacheara de alguna forma? Obviamente, pero sin necesidad de esta investigacion.

No se, aqui parece que los tiros van a otro sitio
Zokormazo escribió:@papatuelo esta clarisimo que ms esta investigando mucho en streaming, servicios etc tirando hacia thin clients apoyados en un backend en nube de poder infinito, lo que dices va por ahi. Al igual que delorean donde se reducia la latencia tirando a saco de flops en nube, o el otro paper cuyo nombre no recuerdo donde se renderiza un trozo en local y otro en remoto. Ambos papers tomaban como base un cliente de poca chicha y un servidor de flops infinitos. Los flops en tiempo real no importan siempre que los saquemos del cliente.

Pero en este ultimo el planteamiento es distinto. Aqui en tiempo de ejecucion se asume que solo tenemos el poder del cliente debil, lo que es infinito es el almacenaje y se batchea ya sea en local o en remoto todo el calculo posible para que en tiempo de ejecucion el poder necesario sea minimo, asumiendo que tenemos una memoria lo suficientemente rapida y grande para que funcione.

Que el cloud tmb cacheara de alguna forma? Obviamente, pero sin necesidad de esta investigacion.

No se, aqui parece que los tiros van a otro sitio


Pues a mi el concepto que subyace me parece el mismo, pero evidentemente muy limitado. Si tu pones una pared y solo pasas los 0101010 por un glory hole, lo mismo te da de donce vengan, de una nube local o real.

[...] Let's start moving those insensitive loads off to the cloud, freeing up local resources and effectively over time your box gets more and more powerful. This is completely unlike previous generations.
Zokormazo escribió:Tanto los 8gb como azure se quedaran cojos para aplicar eso. 54GB ocupa el cache del poblado vikingo segun el paper (lo lei en diagonal, que alguien me corrija si eso).

Joder, en el vídeo dicen que los moviles tienen poca potencia pero que andas sobrados de almacenamiento, y que por eso es para moviles !!!!!!! [+risas] [carcajad]

Para la ONE si que sería factible, y ademas se podría hacer un hibrido, el poblado en cache de disco y los personajes que los renderize la ONE en tiempo real. Dice algo de eso el paper ?
papatuelo escribió:
papatuelo escribió:Imagen

https://youtu.be/CV_eY7DTRqo

Imagen


http://www.icxm.net/x/minecraft-funs-oc ... chine.html

Microsoft announced that they have managed to run the Oculus on the HP Pavillion Mini, a $300 PC with Pentium Processor, integrated graphics and a mere 4Gb RAM. This is achieved with their new “Flashback” software, which pre-renders most scenes and stores them in the local memory (video memory or SSD drive), this removes the need for ‘real time’ graphics calculations, that can be taxing on the local GPU.

This sounds a lot like the ‘cloudgine’ system, which offloads much of the CPU intensive tasks to Microsoft Azure, so that games like Crackdown 3 can have unlimited destruction, which would cripple the normal GPU in seconds.


Buenooooo

Os recuerdo que la nube va sobrada de espacio, y que además es compartido por todos los conectados. Nada que un streaming de datos no pueda hacer.
cercata escribió:
Zokormazo escribió:Tanto los 8gb como azure se quedaran cojos para aplicar eso. 54GB ocupa el cache del poblado vikingo segun el paper (lo lei en diagonal, que alguien me corrija si eso).

Joder, en el vídeo dicen que los moviles tienen poca potencia pero que andas sobrados de almacenamiento, y que por eso es para moviles !!!!!!! [+risas] [carcajad]

Para la ONE si que sería factible, y ademas se podría hacer un hibrido, el poblado en cache de disco y los personajes que los renderize la ONE en tiempo real. Dice algo de eso el paper ?


Si no me equivoco, ONE estaba preparada para montar hasta tres planos de renderizado diferentes. Uno para el sistema operativo y dos para el juego.

Pero no sé si podría utilizar aquí.
papatuelo escribió:Si no me equivoco, ONE estaba preparada para montar hasta tres planos de renderizado diferentes. Uno para el sistema operativo y dos para el juego.

Pero no sé si podría utilizar aquí.

Eso que dices es mas para que otras apps puedan hacer overlays sobre el juego ... aqui no haría falta recurrir a eso, estaría todo dentro del exclusive OS, se tiene que poder hacer, otra cosa es que les haya dado por hacerlo, por eso preguntaba si ponia algo en el paper, pq en el video dejan caer algo así.
indigo_rs escribió:Nunca entenderé a MS por complicarse la vida de esta forma, con lo fácil que es sacar un hardware y dejarse de inventos raros. Una CPU, una GPU y una memoria, tan fácil y sencillo como eso, pero MS tiene una forma de complicarse que es difícil de entender [facepalm]


Es logico que una gran empresa como MS haga investigacion en temas como esos. Quiza hoy en dia parece que la aplicacion final de dicha investigacion sea una, y acabe siendo algo bastante diferente. Lo que pasa es que MS presenta su trabajo en cualquier rama tecnologica y aqui (logico porque hablamos de videojuegos) se discuta de las posibles aplicaciones al mundo gaming. Pero eso no significa que esa sea su unica finalidad y en muchos casos ni siquiera sea "la finalidad".

Un saludo!
Una cosa para @Cercata y @Darksch que de lejos controlan más que yo.

Scorpion es un tipo de arquitectura (NOC) es decir no es una arquitectura multicore, si no más bien multiprocesador.

Cuando se presento XBOX ONE dijeron literalmente que se había utilizado tecnología propia de supercomputadores, ¿Eso vendría a ser lo mismo no? ¿Estaríamos hablando de un multiprocesador no?

Aqui hay un trabajo en el que se habla de ese tipo de cosas y que incluye trabajos de microsoft, además de hablar de scorpio. ¿Veis alguna relación?

http://www.cs.cornell.edu/courses/cs641 ... 4-Mast.pdf
@papatuelo yo respecto a lo de arquitectura de supercomputador es que repetían bastante el trío CPU/GPU/eSRAM apilados. Supongo que se basarán de esta arquitectura en un modelo de escalabilidad según necesidad. Si nos fijamos en la página 10 de ese documento, la idea es una red "on-chip", es decir, todo conectado con todo, en lugar por ejemplo de tener que pasar por intermedios por temas de cachés separadas.

Así pues vería asequible que la eSRAM y la coherencia de datos (superior al original hUMA de AMD) sirviera de red on-chip. Así tienes unos "procesadores" (en forma de unidades de computación) y algo para procesar, qué uso y de que manera, pues libertad de combinación para usar y sin caer en fallas por dependencias.
darksch escribió:@papatuelo yo respecto a lo de arquitectura de supercomputador es que repetían bastante el trío CPU/GPU/eSRAM apilados. Supongo que se basarán de esta arquitectura en un modelo de escalabilidad según necesidad. Si nos fijamos en la página 10 de ese documento, la idea es una red "on-chip", es decir, todo conectado con todo, en lugar por ejemplo de tener que pasar por intermedios por temas de cachés separadas.

Así pues vería asequible que la eSRAM y la coherencia de datos (superior al original hUMA de AMD) sirviera de red on-chip. Así tienes unos "procesadores" (en forma de unidades de computación) y algo para procesar, qué uso y de que manera, pues libertad de combinación para usar y sin caer en fallas por dependencias.


Claro el tema sería que estaríamos hablando de NOC, de data flow.

Imagen
Bueno eso lo hemos ido viendo en la evolución de la máquina. Los 1os SDK no daban acceso a la eSRAM, recordemos el twit famoso, y fijaos la diferencia.

Ya lo he dicho muchas veces, en lugar de tanta consola nueva, éstas (por lo menos esta que en este hilo es de lo que hay que hablar) aún tendría bastante por delante si se usara debidamente. eSRAM como red on-chip para GPU, coherencia lo mismo para modelo HSA. A partir de ahí lo que se te presentan al final son unos cálculos que tienes que hacer en forma de datos, echarlos a los unidades oportunas asegurándote de no dejar ninguna libre. Aquí está la clave, en lugar de intentar optimizar a nivel de micro-código el orden de operaciones, el pipeline, etc. saber inyectar todos los datos que tienes que procesar en todas las unidades de cómputo que es más importante. Y desde donde, porque hay mucha diferencia entre datos para GPU desde DDR3 (modelo tradicional) que desde la eSRAM (modelo red on-chip).

Entre otras cosas a bajo nivel, DX12 permite, de hecho exige, elegir donde reservas las zonas de memoria. Esta vez es el programador quien gestiona la memoria. Así que podría dar bastante juego.
https://msdn.microsoft.com/en-us/library/windows/desktop/mt613239(v=vs.85).aspx
La barrera entre multicore/multiprocesor es un poco difusa, ya que cuando hay muchos cores, por ejemplo el prototipo ese de IBM con 64 cores powerpc, al final no comparten cache la mayoría, y es mas como si fuese multiprocesador.

El paper que has puesto de Barrelfish, yo creo que tiene que ver mas con el hypervisor de la ONE, de como hace el particionamiento de recursos. Y de como pordría evolucionar hacia multikernel.
Pero parecen poco interesados en optimizar y como todo eso no lo haga "solo" DirectX12 no lo aprovecharán, seguirá todo como hasta ahora (900p) excepto en algún first y las mejoras para la nueva consola que saquen sin esfuerzos.
djfran28 escribió:Pero parecen poco interesados en optimizar y como todo eso no lo haga "solo" DirectX12 no lo aprovecharán, seguirá todo como hasta ahora (900p) excepto en algún first y las mejoras para la nueva consola que saquen sin esfuerzos.


@Cercata, para optimizar para usar en arquitecturas multiprocesador, ¿no vendría al pelo "Helix"?

Recordemos que los dos nombres en clave en los que se basa el rumor de Skorpio son precisamente este y helix.
Lanzo una pregunta al aire que es una paja mental que me he hecho leyendo cosas por ahí, con lo de la nueva Xbox Scorpio y leyendo cosas sobre el pasado de la computación en la nube y que Xbox One estaba preparado para ello.

¿Sería posible que Microsoft lanzase Xbox Scorpio y que en lugar de ser una nueva consola fuera una actualización de Xbox One para crear un cluster de Xbox One conectadas a la red y con servidores de computación?

Es decir, que tirando de esos recursos tanto servidores como del resto de Xbox One conectadas se le asignara una potencia media de 5-6TF de los que se está hablando para la Xbox Scorpio.

De forma que tendríamos que los juegos funcionaran con dos configuraciones gráficas distintas, una que fuera la configuración base para los que no tengan internet o suficiente ancho de banda y otra que fuera la configuración en alto o ultra para los que pudieran estar conectados mientras juegan.

Igual que en PC hay varios ajustes según tu PC: bajo, medio, alto, ultra .... pero reduciéndolo a sólo 2 valores medio para consolas offline y alto o ultra para consolas conectadas.

Ya sé que es una paja mental muy grande pero ¿sería técnicamente posible?
dunkam82 escribió:Lanzo una pregunta al aire que es una paja mental que me he hecho leyendo cosas por ahí, con lo de la nueva Xbox Scorpio y leyendo cosas sobre el pasado de la computación en la nube y que Xbox One estaba preparado para ello.

¿Sería posible que Microsoft lanzase Xbox Scorpio y que en lugar de ser una nueva consola fuera una actualización de Xbox One para crear un cluster de Xbox One conectadas a la red y con servidores de computación?

Es decir, que tirando de esos recursos tanto servidores como del resto de Xbox One conectadas se le asignara una potencia media de 5-6TF de los que se está hablando para la Xbox Scorpio.

De forma que tendríamos que los juegos funcionaran con dos configuraciones gráficas distintas, una que fuera la configuración base para los que no tengan internet o suficiente ancho de banda y otra que fuera la configuración en alto o ultra para los que pudieran estar conectados mientras juegan.

Igual que en PC hay varios ajustes según tu PC: bajo, medio, alto, ultra .... pero reduciéndolo a sólo 2 valores medio para consolas offline y alto o ultra para consolas conectadas.

Ya sé que es una paja mental muy grande pero ¿sería técnicamente posible?


Tecnologicamente me parece que no estamos todavia ahi.

Y por otro lado, cuanto estarias dispuesto a pagar por tener ese boost de potencia de la nube??

Un saludo!
dunkam82 escribió:Lanzo una pregunta al aire que es una paja mental que me he hecho leyendo cosas por ahí, con lo de la nueva Xbox Scorpio y leyendo cosas sobre el pasado de la computación en la nube y que Xbox One estaba preparado para ello.

¿Sería posible que Microsoft lanzase Xbox Scorpio y que en lugar de ser una nueva consola fuera una actualización de Xbox One para crear un cluster de Xbox One conectadas a la red y con servidores de computación?

Es decir, que tirando de esos recursos tanto servidores como del resto de Xbox One conectadas se le asignara una potencia media de 5-6TF de los que se está hablando para la Xbox Scorpio.

De forma que tendríamos que los juegos funcionaran con dos configuraciones gráficas distintas, una que fuera la configuración base para los que no tengan internet o suficiente ancho de banda y otra que fuera la configuración en alto o ultra para los que pudieran estar conectados mientras juegan.

Igual que en PC hay varios ajustes según tu PC: bajo, medio, alto, ultra .... pero reduciéndolo a sólo 2 valores medio para consolas offline y alto o ultra para consolas conectadas.

Ya sé que es una paja mental muy grande pero ¿sería técnicamente posible?


Vamos a ver, de otras XBOX no va a tirar, pero de Azure por supuesto que sí.

Eso es lo que hace crackdown, de hecho la gente de cloudgine dijo que en la demo habían utilizado una potencia equivalente a 13 XBOX ONE para todos los cálculos.

Imagen

En esta imagen se puede ver la potencia que se está usando para las físicas. La primera barra es la consola las otras diez barras se sacan de la nube, el equivalente a 10 consolas.

Imagen

Si ves el video verás como suben las barras conforme aumenta el grado de destrucción.

Además hay un momento en el que se muestra el escenario con zonas de diferentes colores, cada color de cada zona representa un servidor diferente. Los daños en cada zona se calculan en diferentes servidores.

https://youtu.be/EWANLy9TjRc

Lo que se intenta ahora es que los paquetes sean lo más pequeños posibles y que esten en la consola antes de que la consola los necesite, proyecto delorean.

Eso sí, de momento todo es para físicas e iluminación, la consola es la que pinta. Pero no es poco, una buena iluminación es muy muy importante, puede hacer las cosas fotorrealistas.
@papatuelo

El problema que le veo a eso es que el juego tiene que estar diseñado desde cero para poder soportar eso, es decir, que el motor gráfico tiene que estar preparado para soportar esa computación en la nube y me temo que ni el Cry Engine ni el Unreal Engine 4 lo soportan que son los motores más usados ni ningún otro motor gráfico que se haya usado hasta ahora.

Y a lo mejor alguna otra first party si desarrolla un motor gráfico para sacarle partido como el Crackdown aunque sea para el tema de las físicas para computación en la nube, pero lo normal en el 99,99% de los desarrollos es que se sigan reutilizando los motores que tiene cada compañía y eso produce situaciones tan dantescas como que en mitad del 2016 empresas como EA saquen juegos como Mirror Edge Catalyst a 720P, que fueron por cierto los únicos que sacaron un juego a 720P en ONE en las pasadas navidades (Star Wars Battlefront)
La iluminación debería hacerla la consola, ya que para cada cliente es específica. La destrucción sí porque es compartida por todos los jugadores de la partida.
papatuelo escribió:
dunkam82 escribió:Lanzo una pregunta al aire que es una paja mental que me he hecho leyendo cosas por ahí, con lo de la nueva Xbox Scorpio y leyendo cosas sobre el pasado de la computación en la nube y que Xbox One estaba preparado para ello.

¿Sería posible que Microsoft lanzase Xbox Scorpio y que en lugar de ser una nueva consola fuera una actualización de Xbox One para crear un cluster de Xbox One conectadas a la red y con servidores de computación?

Es decir, que tirando de esos recursos tanto servidores como del resto de Xbox One conectadas se le asignara una potencia media de 5-6TF de los que se está hablando para la Xbox Scorpio.

De forma que tendríamos que los juegos funcionaran con dos configuraciones gráficas distintas, una que fuera la configuración base para los que no tengan internet o suficiente ancho de banda y otra que fuera la configuración en alto o ultra para los que pudieran estar conectados mientras juegan.

Igual que en PC hay varios ajustes según tu PC: bajo, medio, alto, ultra .... pero reduciéndolo a sólo 2 valores medio para consolas offline y alto o ultra para consolas conectadas.

Ya sé que es una paja mental muy grande pero ¿sería técnicamente posible?


Vamos a ver, de otras XBOX no va a tirar, pero de Azure por supuesto que sí.

Eso es lo que hace crackdown, de hecho la gente de cloudgine dijo que en la demo habían utilizado una potencia equivalente a 13 XBOX ONE para todos los cálculos.

Imagen

En esta imagen se puede ver la potencia que se está usando para las físicas. La primera barra es la consola las otras diez barras se sacan de la nube, el equivalente a 10 consolas.

Imagen

Si ves el video verás como suben las barras conforme aumenta el grado de destrucción.

Además hay un momento en el que se muestra el escenario con zonas de diferentes colores, cada color de cada zona representa un servidor diferente. Los daños en cada zona se calculan en diferentes servidores.

https://youtu.be/EWANLy9TjRc

Lo que se intenta ahora es que los paquetes sean lo más pequeños posibles y que esten en la consola antes de que la consola los necesite, proyecto delorean.

Eso sí, de momento todo es para físicas e iluminación, la consola es la que pinta. Pero no es poco, una buena iluminación es muy muy importante, puede hacer las cosas fotorrealistas.


No solo es muy importante una buena iluminación, sino que chupa muchos recursos. Si eres capaz de delegar a la nube aunque sea la iluminación indirecta o ciertos reflejos ya le quitas una carga importante a la consola, y encima se supone que la nube lo haría con mejor calidad que la consola.
dunkam82 escribió:@papatuelo

El problema que le veo a eso es que el juego tiene que estar diseñado desde cero para poder soportar eso, es decir, que el motor gráfico tiene que estar preparado para soportar esa computación en la nube y me temo que ni el Cry Engine ni el Unreal Engine 4 lo soportan que son los motores más usados ni ningún otro motor gráfico que se haya usado hasta ahora.

Y a lo mejor alguna otra first party si desarrolla un motor gráfico para sacarle partido como el Crackdown aunque sea para el tema de las físicas para computación en la nube, pero lo normal en el 99,99% de los desarrollos es que se sigan reutilizando los motores que tiene cada compañía y eso produce situaciones tan dantescas como que en mitad del 2016 empresas como EA saquen juegos como Mirror Edge Catalyst a 720P, que fueron por cierto los únicos que sacaron un juego a 720P en ONE en las pasadas navidades (Star Wars Battlefront)

Y así seguirán, el próximo es Battlefield 1. Hay que tener en cuenta también los 60fps, si juegas en pantalla partida a Battlefront, el framerate baja a 30fps y la resolución sube a 1080p.
Pero también es normal por simple tema de portabilidad. Yo como voy a diseñar un juego que exija el disponer de unos ciertos recursos de red? Ahí estás pillado en toda regla. Si buscas algo portable, debe considerar lo que se tenga en común.

Cosa distinta es usar servidores para alojar partidas, porque tú haces la parte de server y host, y luego la máquina que haga de server te es indiferente, eso sí es portable.
El E3 del 2013 ya está aquí.

Y ya me empiezo a cabrear, anuncian que reproduce vídeo a 4k, pero si la One dijeron en el primer e3 que reproduciría 4k tanto para vídeo y juegos, eso si juegos 2d.

Eso significa que mintieron?
@Xboxman según la filtración habla de vídeo 4k con HDR, para esto último se necesita tener hdmi 2.0a con hdcp 2.2, la One actual tiene hdmi 1.4. Otra cosa es que también incluya lector uhd blu ray pero por ahora no se ha dicho nada.
Xboxman escribió:Y ya me empiezo a cabrear, anuncian que reproduce vídeo a 4k, pero si la One dijeron en el primer e3 que reproduciría 4k tanto para vídeo y juegos, eso si juegos 2d.

Eso significa que mintieron?

Esperate al anuncio antes de cabrearte, igual lo activan en la ONE normal. O igual se refieren a discos.
Xboxman escribió:

Y ya me empiezo a cabrear, anuncian que reproduce vídeo a 4k, pero si la One dijeron en el primer e3 que reproduciría 4k tanto para vídeo y juegos, eso si juegos 2d.

Eso significa que mintieron?


Eso exactamente pienso yo!

A ver q pasa.

Porque no es solo uno q lo ha dicho:
-Yusuf Medhi.
- Larry Hryb.
- Ian Spillinger.

Hasta tres lo han dicho.
cercata escribió:
Xboxman escribió:Y ya me empiezo a cabrear, anuncian que reproduce vídeo a 4k, pero si la One dijeron en el primer e3 que reproduciría 4k tanto para vídeo y juegos, eso si juegos 2d.

Eso significa que mintieron?

Esperate al anuncio antes de cabrearte, igual lo activan en la ONE normal. O igual se refieren a discos.

Yo espero que sea que lleva un reproductor específico, por que lo de reproducir 4k ya se suponía que lo haría la nuestra.
De hecho, ONE trae un cable HDMI que soporta 4K, y lo trae desde el día de salida.
Horizonte de sucesos escribió:De hecho, ONE trae un cable HDMI que soporta 4K, y lo trae desde el día de salida.


Ese no lo sabía.

¿Que cable trae?
papatuelo escribió:
Horizonte de sucesos escribió:De hecho, ONE trae un cable HDMI que soporta 4K, y lo trae desde el día de salida.


Ese no lo sabía.

¿Que cable trae?


Sino me equivoco traera un cable HDMI v1.4 [oki] lo malo que aunque soporte 4K es un 4k capado a unos 20-30 fps y solo la version 2.0 del cable HDMI soporta unas tasas de 60 fps.

Saludos.
Lo que yo tengo entendido es que el Bluray de la consola no reproduce 4K, pero si la consola en si, es decir desde streaming u otro medio. Y que no soporta 4K HDR

Saludos
Lo de los 2TFLoPS en la slim, lei algo en neogaf hace unas semanas al respecto, alguien ha leido algo mas o se ha quedado en agua de borrajas?
Faltaba que la slim tuviera mas potencia, y el año que viene scorpio, fraccionando una generación en 3... aunque por otro lado un cambio de hardware es la única lógica a una slim con un alto precio de 450 euros.
papatuelo escribió:
Xboxman escribió:

Y ya me empiezo a cabrear, anuncian que reproduce vídeo a 4k, pero si la One dijeron en el primer e3 que reproduciría 4k tanto para vídeo y juegos, eso si juegos 2d.

Eso significa que mintieron?


Eso exactamente pienso yo!

A ver q pasa.

Porque no es solo uno q lo ha dicho:
-Yusuf Medhi.
- Larry Hryb.
- Ian Spillinger.

Hasta tres lo han dicho.

Puedo prometer y prometo...
Vamos a ver... Que tiene que ver la publicidad de la xbox One S para que la xbox one normal no pueda con video 4K ?

Molaria que sacaran la Xbox One S dijesen HDR, Video 4k, hevec, soporte nativo en algunos juegos de Oculus(chorrijuegos).... y despues de decir el precio que digan, ah... y Xbox One despues de la actualización de hoy tmb.... [beer]
djfran28 escribió:Faltaba que la slim tuviera mas potencia, y el año que viene scorpio, fraccionando una generación en 3... aunque por otro lado un cambio de hardware es la única lógica a una slim con un alto precio de 450 euros.

Por lo que se dice la unica diferencia va a ser la resolucion, los mismos juegos, en one y one slim a 1080 cuando den acceso a todo el harware, y la Scorpio a 4k. no se va a dividir nada.
Todo depende de lo que se entienda de reproduccion 4k de ese marketing xD

La one original se supone que es capaz de sacar 4k@30 y decodear h265. Si solo la nueva es capaz de ello, si, mintieron.

Pero si con la nueva se refieran a hdmi 2.0, hdr, uhd bluray y tal, pero mantienen el 4k@30 y h265 en la vieja, no estarian mintiendo.

Hoy sabremos algo se supone no?
eloskuro escribió:Vamos a ver... Que tiene que ver la publicidad de la xbox One S para que la xbox one normal no pueda con video 4K ?

Molaria que sacaran la Xbox One S dijesen HDR, Video 4k, hevec, soporte nativo en algunos juegos de Oculus(chorrijuegos).... y despues de decir el precio que digan, ah... y Xbox One despues de la actualización de hoy tmb.... [beer]


Yo es lo q espero, porq sino me sentiría muy decepcionado. One tiene hevc 265 y tenemos declaraciones oficiales de q puede reproducir contenido 4K, por lo q poder reproducir por ejemplo netflix a 4K no debe ser ningún problema.

Pero viendo el precio q se esta barajando para la slim me hace pensar q lo pueden usar de herramienta de marketing y dejar tirados a los usuarios de One normal.
Partiendo de que no sabemos nada oficial, puede ser que la Xbox one S sea la Scorpio?. el golpe seria demoledor. la one actual, con su harware operativo al 100x100 para navidades y la Scorpio ya en el mercado.
Xboxman escribió:
djfran28 escribió:Faltaba que la slim tuviera mas potencia, y el año que viene scorpio, fraccionando una generación en 3... aunque por otro lado un cambio de hardware es la única lógica a una slim con un alto precio de 450 euros.

Por lo que se dice la unica diferencia va a ser la resolucion, los mismos juegos, en one y one slim a 1080 cuando den acceso a todo el harware, y la Scorpio a 4k. no se va a dividir nada.


Llevo un año esperando a que "libere el poder" de la one y no hay manera, DX12 traerá mejora pero ya no espero 1080p, ojalá sea como tu dices.
Noctisblue está baneado por "Saltarse el ban con un clon"
Xboxman escribió:Partiendo de que no sabemos nada oficial, puede ser que la Xbox one S sea la Scorpio?. el golpe seria demoledor. la one actual, con su harware operativo al 100x100 para navidades y la Scorpio ya en el mercado.


Espero que no creas algo de lo que has dicho.
Y solo sea un sueño húmedo.
Zokormazo escribió:Todo depende de lo que se entienda de reproduccion 4k de ese marketing xD

La one original se supone que es capaz de sacar 4k@30 y decodear h265. Si solo la nueva es capaz de ello, si, mintieron.

Pero si con la nueva se refieran a hdmi 2.0, hdr, uhd bluray y tal, pero mantienen el 4k@30 y h265 en la vieja, no estarian mintiendo.

Hoy sabremos algo se supone no?


De hecho en teoría X1 no solo es capaz de decodear, se supone que es capaz de codear mientras juegas, que eso ya es mucha tela. Y eso lo dice AMD no Microsoft.

Imagen

Y daros cuenta que según esto HEVC está limitado a APUS a partir de la 6 generación y Fury.

Imagen

Asi que algo raro hay ahí.
djfran28 escribió:Llevo un año esperando a que "libere el poder" de la one y no hay manera, DX12 traerá mejora pero ya no espero 1080p, ojalá sea como tu dices.


Para mi lo más decepcionante es lo de EA y su Frostbyte con la Xbox One, lo del Star Wars Battlefront tras 2 años de consola a la misma resolución (720P) que el Battlefield 4 que era juego de lanzamiento, tras subidas de rendimiento, liberación de recursos de Kinect y nuevos y mejores kits de desarrollo es de juzgado de guardia.

Y no sólo eso sino que decían que el Star Wars Battlefront fue el primer juego o de los primeros en usar DX12 en ONE y lo peor es que el Mirror Edge Catalyst con muchísimos menos personajes en pantalla, sin destrucción en escenarios como las del Battlefield y demás y que también vaya a 720P

Y bueno del Battlefield 1 creo que ya todos sabemos a que resolución va a ir ... yo no pido 1080P pero al menos los 900P que tendría que notarse en algo por parte de EA esa mejora de liberación de recursos, de uso de DX12 y de mejoras en los kits de desarrollo y no se nota en nada

pd: Recemos para que el FIFA 17 que se ha anunciado que va a usar el infame (para Xbox One) Frostbyte no venga también a 720P porque ya sería la hostia
17587 respuestas