Hablemos del interior de Xbox One

Mamaun escribió:
ElOtroDespistao escribió:de hecho ya lo hicieron no? la actual esta overclockeada

chau!


Por eso mismo lo digo. Ya subieron la GPU (800MHz / 853MHz) y la CPU (1.6GHz / 1.75GHz).

Una subida pequeña si podían llegar a 1 y a 2 respectivamente.


Es que hubo un rumor hace tiempo que ahi andaban probando cosas y que podrían subir frecuencias. Ademas, me suena que había por ahi algun hardware similar que funcionaba a esas velocidades, esto ultimo lo digo de memoria y tengo memoria de pez asi que tampoco me hagaís mucho caso jajaja

Se pueda o no se pueda, yo creo que antes de forzar la maquina van a esperar a ver los resultados cuando implementen w10 y ver que pueden rascar y optimizar, si estan contentos no tocaran nada. Un incremento en la velocidad no solo va a disparar el calor interno, sino tambien el consumo de energia.
Una subida a 2Ghz de la Cpu y a 1Ghz la gpu, no aumentaría ni un 10% el consumo y calor. Además es algo totalmente compensable por la mejora de nado de fabricación si hacen una revisión nueva a 28nm o por el contrario, bajan a 20nm. De hecho 28nm pueden pasar de HPL a SHP y mejorar frecuencias sin apenas excederse en consumo y calor.

Si GF (ahora con Samsung) fabricase la version 20nm, tiene FD-SOI que no tendrá problemas además de las patentes que herede de Samsung, aquí ya me pierdo, si es TSMC no se que tal les habrá salido el nodo.
pero si suben las frecuencias en una, pero en la otra (la actual) no, habria cabreos.

me imagino el anuncio en plan "miren la nueva Xbox one, mas silenciosa, consume menos, y mas potente, y los que pagaron 500 dolares en el lanzamiento tendrán juegos con mal framerate"

chau!
djohny24 escribió:Una subida a 2Ghz de la Cpu y a 1Ghz la gpu, no aumentaría ni un 10% el consumo y calor. Además es algo totalmente compensable por la mejora de nado de fabricación si hacen una revisión nueva a 28nm o por el contrario, bajan a 20nm. De hecho 28nm pueden pasar de HPL a SHP y mejorar frecuencias sin apenas excederse en consumo y calor.

Si GF (ahora con Samsung) fabricase la version 20nm, tiene FD-SOI que no tendrá problemas además de las patentes que herede de Samsung, aquí ya me pierdo, si es TSMC no se que tal les habrá salido el nodo.


Si suben a 2 ghz la cpu me da que vas a tener un minivolcan en casa jajaja

Ten en cuenta que las consolas estan limitadas por el transformador, no puedes subir todo lo que quieras, creo que Xbox One con kinect rondaba los 105w y no me acuerdo si tiene 120 o 130 el transformador. Y no van a hacer mejoras para un modelo slim, serían juegos A y juegos B dentro de una misma generacion y eso confunde mucho al consumidor.
indigo_rs está baneado por "saltarse el ban con un clon"
ElOtroDespistao escribió:pero si suben las frecuencias en una, pero en la otra (la actual) no, habria cabreos.

me imagino el anuncio en plan "miren la nueva Xbox one, mas silenciosa, consume menos, y mas potente, y los que pagaron 500 dolares en el lanzamiento tendrán juegos con mal framerate"

chau!


Cabreos porque? estamos encasillados en que las consolas tienen que ser inamovibles y no es asi, el que compra un iPhone 6s tiene derecho a tener mejores prestaciones que el que compra el 6 a secas.
indigo_rs escribió:
ElOtroDespistao escribió:pero si suben las frecuencias en una, pero en la otra (la actual) no, habria cabreos.

me imagino el anuncio en plan "miren la nueva Xbox one, mas silenciosa, consume menos, y mas potente, y los que pagaron 500 dolares en el lanzamiento tendrán juegos con mal framerate"

chau!


Cabreos porque? estamos encasillados en que las consolas tienen que ser inamovibles y no es asi, el que compra un iPhone 6s tiene derecho a tener mejores prestaciones que el que compra el 6 a secas.


Siento mentar la inmentable pero es necesario para este caso, es para ejemplificar.

Si la ps4 tiene un 35-40% mas de potencia (dejemoslo como ejemplo unicamente) mira las diferencias que hay respecto a Xbox one. El mejorar un 5-10% la consola por procesos de produccion más efectivos dentro de un mismo hardware no va significar un cambio tan evidente como para que los diseñadores vayan a hacer una version A y otra B, van a tomar la consola menos potente y lanzaran el producto en base a ella. Les importa bien poco que puedas ganar 2 fps mas por tener mejor producto.
indigo_rs escribió:
ElOtroDespistao escribió:pero si suben las frecuencias en una, pero en la otra (la actual) no, habria cabreos.

me imagino el anuncio en plan "miren la nueva Xbox one, mas silenciosa, consume menos, y mas potente, y los que pagaron 500 dolares en el lanzamiento tendrán juegos con mal framerate"

chau!


Cabreos porque? estamos encasillados en que las consolas tienen que ser inamovibles y no es asi, el que compra un iPhone 6s tiene derecho a tener mejores prestaciones que el que compra el 6 a secas.


cabreos porque asi no es como funciona esto, esto no es un pc o un móvil, es una consola

chau!
indigo_rs está baneado por "saltarse el ban con un clon"
ElOtroDespistao escribió:
indigo_rs escribió:
ElOtroDespistao escribió:pero si suben las frecuencias en una, pero en la otra (la actual) no, habria cabreos.

me imagino el anuncio en plan "miren la nueva Xbox one, mas silenciosa, consume menos, y mas potente, y los que pagaron 500 dolares en el lanzamiento tendrán juegos con mal framerate"

chau!


Cabreos porque? estamos encasillados en que las consolas tienen que ser inamovibles y no es asi, el que compra un iPhone 6s tiene derecho a tener mejores prestaciones que el que compra el 6 a secas.


cabreos porque asi no es como funciona esto, esto no es un pc o un móvil, es una consola

chau!


Ahora las consolas tienen tecnologia de PC, asi que son más PCs que otra cosa, aunque yo también creo que si sacan un nuevo chip lo van a capar en rendimiento como han hecho con la 360, desafortunadamente. Yo no veo el problema en que una consola mueva un juego a una media de 26 fps y la otra al ser más rápida que lo haga a 40fps.
Si suben frecuencia tiene que ser en las 2 ... sino la lian parda !!!

Yo si fuese microsoft habría dejado desde el lanzamiento una consola megaoverclockeada encendida con alguien jugando siempre, para ver la durabilidad de consola subiendo la frecuencia. Pq a 2GHz seguro que la pones y funciona, la cosa es saber si durará lo mismo.

djohny24 escribió:Una subida a 2Ghz de la Cpu y a 1Ghz la gpu, no aumentaría ni un 10% el consumo y calor. Además es algo totalmente compensable por la mejora de nado de fabricación si hacen una revisión nueva a 28nm o por el contrario, bajan a 20nm. De hecho 28nm pueden pasar de HPL a SHP y mejorar frecuencias sin apenas excederse en consumo y calor.

Si GF (ahora con Samsung) fabricase la version 20nm, tiene FD-SOI que no tendrá problemas además de las patentes que herede de Samsung, aquí ya me pierdo, si es TSMC no se que tal les habrá salido el nodo.

¿ Que opinas de esto, que te veo puesto en fabricantes de chips ?

http://www.digitaltrends.com/computing/amd-may-skip-20nm/
http://www.techpowerup.com/211973/amd-to-skip-20-nm-jump-straight-to-14-nm-with-arctic-islands-gpu-family.html
En las consolas la gente busca estabilidad, si cada dos años cambias de hardware para eso se compran un pc, además así las desarrolladoras se olvidarían rápido de las primeras versiones y no optimizarían nada.

sería la muerte de las consolas, pienso yo.
djfran28 escribió:En las consolas la gente busca estabilidad, si cada dos años cambias de hardware para eso se compran un pc, además así las desarrolladoras se olvidarían rápido de las primeras versiones y no optimizarían nada.

sería la muerte de las consolas, pienso yo.

Es que es eso, tú te compras una consola para que te dure unos cuantos años comprando sólo juegos (no hardware).

Para que cambiasen las consolas cada dos o tres años, todos nos compraríamos un PC potente y le iríamos aumentando la tarjeta gráfica y el procesador cuando fuese necesario.
indigo_rs está baneado por "saltarse el ban con un clon"
La mayoría de la gente seguirá jugando en consola por la comodidad y los exclusivos.
DirectX 12 mejorará el rendimiento de Project Cars

Además del primer parche que agregará DirectX 12, Silightly Mad Studios prepara otro que mejora las físicas


Tras el reciente lanzamiento de Project Cars disponible desde 31.34€ (49.99€) para PlayStation 4, Xbox One y PC, muchos han sido los problemas que han salido a la luz en el rendimiento de todas las plataformas, y Silightly Mad Studios está poniendo cartas en el asunto para resolverlos.

Entre las más afectadas por estos inconvenientes se encuentra Xbox One, pero los usuarios de Microsoft están de enhorabuena, ya que Ian Bell, jefe del estudio, ha asegurado que el rendimiento mejorará considerablemente en la consola gracias al parche que van a lanzar con el que se implementará DirectX 12 al juego. Según lo que explica de esta modificación el juego funcionará a 60 fps, sin verse alterado por la variación atmosférica y los ciclos día/noche.

Además de este primer parche, los desarrolladores han trabajado en otro que solucione problemas de físicas y relacionados con el control remoto en consolas, el cual está en proceso de aprobación. Estaremos atentos a los cambios que realicen los chicos de Silightly Mad Studios.
indigo_rs está baneado por "saltarse el ban con un clon"
Pues si con un parche DX12 consiguen que el juego vaya a 60 estables, los que decían que DX12 no haria nada en X1 van a tener que sufrir XD
cercata escribió:Si suben frecuencia tiene que ser en las 2 ... sino la lian parda !!!

Yo si fuese microsoft habría dejado desde el lanzamiento una consola megaoverclockeada encendida con alguien jugando siempre, para ver la durabilidad de consola subiendo la frecuencia. Pq a 2GHz seguro que la pones y funciona, la cosa es saber si durará lo mismo.

djohny24 escribió:Una subida a 2Ghz de la Cpu y a 1Ghz la gpu, no aumentaría ni un 10% el consumo y calor. Además es algo totalmente compensable por la mejora de nado de fabricación si hacen una revisión nueva a 28nm o por el contrario, bajan a 20nm. De hecho 28nm pueden pasar de HPL a SHP y mejorar frecuencias sin apenas excederse en consumo y calor.

Si GF (ahora con Samsung) fabricase la version 20nm, tiene FD-SOI que no tendrá problemas además de las patentes que herede de Samsung, aquí ya me pierdo, si es TSMC no se que tal les habrá salido el nodo.

¿ Que opinas de esto, que te veo puesto en fabricantes de chips ?

http://www.digitaltrends.com/computing/amd-may-skip-20nm/
http://www.techpowerup.com/211973/amd-to-skip-20-nm-jump-straight-to-14-nm-with-arctic-islands-gpu-family.html


Pienso que son cuestiones diferentes, por eso he pensado por una parte que puedan repetir 28nm más depurado para la One y la otra, y dar el salto a 14nm Fin Fet pero claro, no estamos hablando de Amd como fabricante (quiero decir sus CPUS o GPUS en el mercado PC), es decir, es la división Semi Custom la que se encargó del diseño del SoC de Xbox, pero la fabricación es para Ms, asi que no se exactamente que harán y quien tiene la última palabra...

Se que Amd va a ignorar, para el, el nodo de 20nm porque no puedan o porque no quieran.., Pero en éste caso no depende de ellos.
Nuhar escribió:
djohny24 escribió:Una subida a 2Ghz de la Cpu y a 1Ghz la gpu, no aumentaría ni un 10% el consumo y calor. Además es algo totalmente compensable por la mejora de nado de fabricación si hacen una revisión nueva a 28nm o por el contrario, bajan a 20nm. De hecho 28nm pueden pasar de HPL a SHP y mejorar frecuencias sin apenas excederse en consumo y calor.

Si GF (ahora con Samsung) fabricase la version 20nm, tiene FD-SOI que no tendrá problemas además de las patentes que herede de Samsung, aquí ya me pierdo, si es TSMC no se que tal les habrá salido el nodo.


Si suben a 2 ghz la cpu me da que vas a tener un minivolcan en casa jajaja

Ten en cuenta que las consolas estan limitadas por el transformador, no puedes subir todo lo que quieras, creo que Xbox One con kinect rondaba los 105w y no me acuerdo si tiene 120 o 130 el transformador. Y no van a hacer mejoras para un modelo slim, serían juegos A y juegos B dentro de una misma generacion y eso confunde mucho al consumidor.


Un poquito más de 130W tiene.......más bien esta pasando los 200W. Esta sobredimensionada para q vaya más holgada y aumentar su eficiencia, durabilidad y generación de calor, lo q no quiere decir q aún se le pueda apretar un poco más.

En el tema de los nm, los 28nm son el punto dulce. El bajar de los 28nm genera muchos costes de fabricación y la mejora es relativamente pequeña. Por eso se esta buscando otras formas de aumentar el rendimiento y saltarse la ley de Moore. Acabaremos viendo como se baja de nm aún, pero no es casualidad q AMD este alargando tanto los 28nm, ya no es tan determinante como lo fue al principio.
antoniokratos escribió:
djfran28 escribió:En las consolas la gente busca estabilidad, si cada dos años cambias de hardware para eso se compran un pc, además así las desarrolladoras se olvidarían rápido de las primeras versiones y no optimizarían nada.

sería la muerte de las consolas, pienso yo.

Es que es eso, tú te compras una consola para que te dure unos cuantos años comprando sólo juegos (no hardware).

Para que cambiasen las consolas cada dos o tres años, todos nos compraríamos un PC potente y le iríamos aumentando la tarjeta gráfica y el procesador cuando fuese necesario.


Está claro que una consola y un pc pertenecen a targets de usuarios distintos.

Si te cargas esa fina linea no queda nada y aún sería peor opción que la de cambiar cada cierto tiempo de componentes,ya que los early adopters se sentirían obsoletos y los usuarios con el nuevo modelo tampoco tendrían un rendimiento tan superior,con lo que todo son desventajas.

Y el que adoptara ese modelo cavaría su tumba porque nadie compraría su versión 1.0.Todos esperarían a la revisión,o lo que es peor y mas probable,se irían a la competencia.

Eso en consolas no tiene sentido,solo funcionaría si ambas versiones estuvieran disponibles desde el primer día y los usuarios eligieran con conocimiento de causa sin verse atrapados por una política de empresa.
Szasz escribió:
Nuhar escribió:
djohny24 escribió:Una subida a 2Ghz de la Cpu y a 1Ghz la gpu, no aumentaría ni un 10% el consumo y calor. Además es algo totalmente compensable por la mejora de nado de fabricación si hacen una revisión nueva a 28nm o por el contrario, bajan a 20nm. De hecho 28nm pueden pasar de HPL a SHP y mejorar frecuencias sin apenas excederse en consumo y calor.

Si GF (ahora con Samsung) fabricase la version 20nm, tiene FD-SOI que no tendrá problemas además de las patentes que herede de Samsung, aquí ya me pierdo, si es TSMC no se que tal les habrá salido el nodo.


Si suben a 2 ghz la cpu me da que vas a tener un minivolcan en casa jajaja

Ten en cuenta que las consolas estan limitadas por el transformador, no puedes subir todo lo que quieras, creo que Xbox One con kinect rondaba los 105w y no me acuerdo si tiene 120 o 130 el transformador. Y no van a hacer mejoras para un modelo slim, serían juegos A y juegos B dentro de una misma generacion y eso confunde mucho al consumidor.


Un poquito más de 130W tiene.......más bien esta pasando los 200W. Esta sobredimensionada para q vaya más holgada y aumentar su eficiencia, durabilidad y generación de calor, lo q no quiere decir q aún se le pueda apretar un poco más.

En el tema de los nm, los 28nm son el punto dulce. El bajar de los 28nm genera muchos costes de fabricación y la mejora es relativamente pequeña. Por eso se esta buscando otras formas de aumentar el rendimiento y saltarse la ley de Moore. Acabaremos viendo como se baja de nm aún, pero no es casualidad q AMD este alargando tanto los 28nm, ya no es tan determinante como lo fue al principio.


Es que en éste caso pasar de 28 a 20, como en gpus, es algo simbólico y la verdad no creo que haya un elevado porcentaje de fallos por mala disipación como la 360 que requiera emprender una carrera hacia la eficiencia.

Soy partidario de las cosas bien hechas. A 14nm si, porque ahí hay un salgo cualitativo, pero a su tiempo.
Hace tiempo lei un articulo de semiaccurate viejo de cuando la hotchips y hablaban ya de que la CPU trabajaba o estaba pensada para trabajar a 1,9ghz . Asi que no es de extrañar que cuando se implemente DX12 tengamos otro ajuste de las velocidades de CPU y GPU para balancear el sistema , sin necesidades de cambiar nm ni nada , la maquina esta downclockeada segun semiaccurate . Yo voto porque la veremos a esos 1,9ghz y el ghz en la GPU .
Bueno por poder, la arquitectura Puma ya hacía los 2Ghz por núcleo. Una pena que no haya llegado a tiempo Puma+ ya que alcanza los 2.5Ghz pero bueno, la Cpu no es tan tan determinante, teniendo Apis de bajo nivel.

De hecho por mi parte hubiera preferido 1ue dejaran la parte cpu a 1.6Ghz y hubieran subido a 1Ghz la gpu.
Y dale no os pongáis tan pesados con cambiar specs, que eso no va a pasar. Si supierais como se desarrolla para máquinas cerradas igual se os abrían los ojos.

Y la XOne no está overclockeada, que se habla sin tener ni idea. No le hagáis tanto caso a Neogaf.
Dos modelos de Xbox One con potencia diferente?

Despertad.
Microsoft reduces cloud game streaming bandwidth by over 80%..

Game streaming is quite a wasteful way of playing games if you think about it. Rather than using the processing power inside whatever device you are playing a game on, you instead stream it from a remote server that does all the work. That in turn requires a lot of bandwidth to ensure a buffering-free play experience.

You’d think a company like Sony would be at the forefront of game streaming tech breakthroughs due to its PlayStation Now service, but it’s actually Microsoft that’s pushing game streaming forward. Working with a researcher at Duke University, they’ve managed to cut the bandwidth required to stream graphics-intensive games by over 80%, or just one-sixth of what was previously required.



The bandwidth reduction is thanks to a new tool called Kahawai, which is the Hawaiian word meaning “stream.” It works using the simple concept that not all the work should be done remotely while a game is being played. Instead, the performance contained in the hardware local to the player, e.g. their games console or smartphone/tablet, should help.

Kahawai enables collaborative rendering, which means that instead of the server doing all the work, the rendering load is split with the GPU in the player’s device. The server is still doing most of the heavy lifting with regards to shadows, texture mapping, and fine-grain details, but the local GPU can provide the graphical basics of a level, what the research team refers to as the “rough sketch



The splitting of workload makes a huge difference to the amount of data that needs to be streamed without having any impact on how each game plays. An experiment was done using Kahawai with Doom 3 streamed at 60fps, and there was no discernible difference between streaming with and without Kahawai enabled except for a very large saving on the streamed data total.

This is great news for mobile gamers especially as it will save them a lot of data on their capped contracts, albeit it at the cost of increased battery use. It also means games could run more reliably on slower connections with the graphics level adjusted accordingly. There’s also many applications beyond gaming, for example, in the fields of medical imaging and computer-aided design.


http://www.geek.com/games/microsoft-cut ... 0-1623534/
Si eso termina significando que podremos jugar a la xbox desde el movil mañana mismo me tatuo en la frente el logo de xbox :D
El paper de la universidad del articulo que dice nuhar: http://www.cs.duke.edu/~lpcox/mobi093f-cuervoA.pdf

Lo he leido en diagonal, pero me ha parecido un hibrido mu raro donde 54 frames los renderiza el server y los otros 6 el cliente si no lo entendi mal xD Luego lo leo con mas detenimiento.

Me interesaba ver en que latencias hicieron las pruebas porque me parece el talon de aquiles de estos sistemas. Low latency test con 2ms RTT, High latency test a 70ms de RTT. Vamos, las adsls españolas llevan bastante mayor latencia que la prueba de alta latencia sin tener ninguna congestion :S

EDIT: Joder, se me olvido añadi el link al paper xDDD

Con la red de 70ms de RTT el input lag sube a los 100ms :S Como ellos mismos dicen, muy bien para LAN o cuando tienes muy cerca la CDN, pero si no es el caso la experiencia se resiente bastante.
Lo que esta claro es hacia donde apunta el sector.

Microsoft ya tiene este proyecto y el delorean (como se llame ahora). Uno reduce el ancho de banda y el otro reduce el lag...
Nuhar escribió:Lo que esta claro es hacia donde apunta el sector.

Microsoft ya tiene este proyecto y el delorean (como se llame ahora). Uno reduce el ancho de banda y el otro reduce el lag...


Eso mismo he pensado yo. Lo que no tengo claro es hasta donde es viable fusionar ambos proyectos. Delorean especula y saca 4 frames para luego elegir uno en base al input. El kalahari (o como se llame esto de la universidad de duke) renderiza todo lo que puede en client-side y lo que no puede lo manda al server para recibir un stream h264 de vuelta.

Es viable combinar ambos proyectos? La verdad que seria interesante. A nivel de cliente simplifica evita bastantes problemas del streaming hoy en dia aunque a nivel de servidores suponga una carga computacional importante.
El problema es que vas a jugar casi fijo con 50-100ms de lag, hagas lo que hagas y juntes lo que juntes.

Es una tasa admisible, sobretodo si baja de los 100ms pero ¿que pasa en cuanto pongas una peli en yomvi y otro usuario este viendo youtube en el ordenador? Aún son cosas que estan muy verdes, tengo ganas de ver el servicio en funcionamiento pero el problema sigue residiendo en el cableado.
Nuhar escribió:El problema es que vas a jugar casi fijo con 50-100ms de lag, hagas lo que hagas y juntes lo que juntes.


+ el input lag de la tele. Que las pruebas estas son con tablets o pcs con monitor, con input lags del panel irrisorios en comparacion con la mayoria de teles.

Es una tasa admisible, sobretodo si baja de los 100ms pero ¿que pasa en cuanto pongas una peli en yomvi y otro usuario este viendo youtube en el ordenador? Aún son cosas que estan muy verdes, tengo ganas de ver el servicio en funcionamiento pero el problema sigue residiendo en el cableado.


Pues eso. Yo ahora mismo sobre una conexion de coaxial-fibra de esas tengo un ping de 55ms a una server en francia descongestionado, ya me acerco a los 70ms de las pruebas de high latency de kalahari y en una conexion decentilla para las lineas españolas

Donde estarian los servers? De que latencia al CDN estariamos hablando para estos chiringuitos? Porque no me creo que tengamos servers en medio mundo, y en cuanto el ping empieza a subir el servicio empieza a resentirse mucho.

Y esto con cable, un router decente etc. Si metemos en la ecuacion redes wifi, espectros saturados, hermanos bajandose porno por p2p y demas... uf uf, a futuro si, ahora mismo lo veo jodio xD
djohny24 escribió:Bueno por poder, la arquitectura Puma ya hacía los 2Ghz por núcleo. Una pena que no haya llegado a tiempo Puma+ ya que alcanza los 2.5Ghz pero bueno, la Cpu no es tan tan determinante, teniendo Apis de bajo nivel.

De hecho por mi parte hubiera preferido 1ue dejaran la parte cpu a 1.6Ghz y hubieran subido a 1Ghz la gpu.


El problema es q el mayor cuello de botella en Xbox One esta en la CPU, no en la GPU (al menos hasta la llegada de Dx12).
Ya que se mencionan los móviles por lo del cloud gaming, estuve probando algunos juegos y la verdad es que en móvil ya se pueden hacer los mismo juegos que en consolas portátiles. Los japoneses lo han entendido bien. Lo que les falta es un control adecuado, debería sacar cada marca el suyo oficial, como una "carcasa" en la que se encajara el móvil y que se conecte por el microUSB, y otorgue de unos controles físicos. Sería convertir el móvil en consola portátil en un momento.
Zokormazo escribió:
Nuhar escribió:El problema es que vas a jugar casi fijo con 50-100ms de lag, hagas lo que hagas y juntes lo que juntes.


+ el input lag de la tele. Que las pruebas estas son con tablets o pcs con monitor, con input lags del panel irrisorios en comparacion con la mayoria de teles.

Es una tasa admisible, sobretodo si baja de los 100ms pero ¿que pasa en cuanto pongas una peli en yomvi y otro usuario este viendo youtube en el ordenador? Aún son cosas que estan muy verdes, tengo ganas de ver el servicio en funcionamiento pero el problema sigue residiendo en el cableado.


Pues eso. Yo ahora mismo sobre una conexion de coaxial-fibra de esas tengo un ping de 55ms a una server en francia descongestionado, ya me acerco a los 70ms de las pruebas de high latency de kalahari y en una conexion decentilla para las lineas españolas

Donde estarian los servers? De que latencia al CDN estariamos hablando para estos chiringuitos? Porque no me creo que tengamos servers en medio mundo, y en cuanto el ping empieza a subir el servicio empieza a resentirse mucho.

Y esto con cable, un router decente etc. Si metemos en la ecuacion redes wifi, espectros saturados, hermanos bajandose porno por p2p y demas... uf uf, a futuro si, ahora mismo lo veo jodio xD


Es que tu paper no me lo he leido, es muy largo jajaja

Pero lo que he medio intuido leyendo en diagonal y saltando parrafos enteros, parece que jugaban con diferentes tipos de conexión y el peor escenario eran sobre 70-80ms, esto sería perfectamente jugable. Aunque nosotros tengamos el data center mas lejos, también tendríamos mejores conexiones si jugamos con fibra, por lo que no creo que se alejaría mucho de esa cifra.

Pero si baja un 80% los datos necesarios y en ese ancho de banda que tenemos extra, le mandamos los fotogramos de delorean, nos da que podríamos bajar bastante los ms porque tendríamos todos los datos en nuestro dispositivo antes de llamarlos.

Solo especulo en base a lo que he leido y no se si se podría hacer todo esto, lo que esta claro es que Microsoft esta invirtiendo y sacando proyectos para jugar por la nube, ya sea en streaming o con computación asistida.

El input lag no lo cuento ya que es algo que existe igual si o si. Por debajo de 100ms la experiencia de juego creo que seria optima contando todos los factores, por encima ya tengo mis dudas, sobretodo en juegos como fighting games o shooters
darksch escribió:Ya que se mencionan los móviles por lo del cloud gaming, estuve probando algunos juegos y la verdad es que en móvil ya se pueden hacer los mismo juegos que en consolas portátiles. Los japoneses lo han entendido bien. Lo que les falta es un control adecuado, debería sacar cada marca el suyo oficial, como una "carcasa" en la que se encajara el móvil y que se conecte por el microUSB, y otorgue de unos controles físicos. Sería convertir el móvil en consola portátil en un momento.

Lo que tu dices ya existe hace tiempo, por Bluetooth sin cables y compatible con cualquier marca, sin que cada marca tuviera que sacar su propio modelo. Aquí te dejo uno con una imitación del mando de Xbox

Imagen
dunkam82 escribió:
darksch escribió:Ya que se mencionan los móviles por lo del cloud gaming, estuve probando algunos juegos y la verdad es que en móvil ya se pueden hacer los mismo juegos que en consolas portátiles. Los japoneses lo han entendido bien. Lo que les falta es un control adecuado, debería sacar cada marca el suyo oficial, como una "carcasa" en la que se encajara el móvil y que se conecte por el microUSB, y otorgue de unos controles físicos. Sería convertir el móvil en consola portátil en un momento.

Lo que tu dices ya existe hace tiempo, por Bluetooth sin cables y compatible con cualquier marca, sin que cada marca tuviera que sacar su propio modelo. Aquí te dejo uno con una imitación del mando de Xbox

Imagen

Yo tengo ese mando exactamente. Jajajaaj
Zokormazo escribió:Lo he leido en diagonal, pero me ha parecido un hibrido mu raro donde 54 frames los renderiza el server y los otros 6 el cliente si no lo entendi mal xD Luego lo leo con mas detenimiento.

A mi me da mas la impresión de que el cliente renderiza todos los frames en baja definicion, y el servidor los renderiza en baja y en alta, y lo que codifica y envía al cliente es la diferencia entre ambos (Delta encoding), Y como ambos frames se parecen mucho, de ahí que ocupe un 80% el resultado de este delta encondig, que comprimir la imagen en alta definición.
cercata escribió:
Zokormazo escribió:Lo he leido en diagonal, pero me ha parecido un hibrido mu raro donde 54 frames los renderiza el server y los otros 6 el cliente si no lo entendi mal xD Luego lo leo con mas detenimiento.

A mi me da mas la impresión de que el cliente renderiza todos los frames en baja definicion, y el servidor los renderiza en baja y en alta, y lo que codifica y envía al cliente es la diferencia entre ambos (Delta encoding), Y como ambos frames se parecen mucho, de ahí que ocupe un 80% el resultado de este delta encondig, que comprimir la imagen en alta definición.


Entonces porque hablan de la diferencia de consumo de bw entre 12fps y 8fps renderizados en el thin-client?

@nuhar yo tmp lei bien aun, pero si, parece q prueban distintas tecnicas a 2ms y 70ms de latencia de red, obteniendo 40ms y +100ms de input lag global
Zokormazo escribió:Entonces porque hablan de la diferencia de consumo de bw entre 12fps y 8fps renderizados en el thin-client?

Ni pa ti ni pa mi, pa los 2 :P

Parece que hay 2 técnicas posibles dentro de Kahawai, Delta Encoding(la que decia yo) e I-Frame Rendering(la que decias tu), y se usa una u otra.

En tu caso el cliente renderiza sólo los I-Frames, y el servidor rencederiza todo, quita los I-Frames y se quedan solo los P-Frames, se los manda al cliente, y el cliente fusiona luego los P-Frames recibidos con sus I-Frames.

Los P-Frames ocupan mucho menos pq dependen del frame anterior.
@cercata xD

Bien, nos pasa por especular con papers leidos en diagonal xD

EDIT: parte del input lag se lo achacan a su algoritmo a lado de servidor. No se cuan mejorable seria xD
nicaro3 está baneado por "saltarse un ban con un clon"
indigo_rs escribió:Pues si con un parche DX12 consiguen que el juego vaya a 60 estables, los que decían que DX12 no haria nada en X1 van a tener que sufrir XD



Yo no creo que nadie dijera que no iba a hacer nada,lo que decían algunos usuarios era que por direxct 12 de repente xboxone no se iba a igualar a ps4 que si o si iba a seguir siendo màs potente y era una diferencia insalvable en términos técnicos.
nicaro3 escribió:
indigo_rs escribió:Pues si con un parche DX12 consiguen que el juego vaya a 60 estables, los que decían que DX12 no haria nada en X1 van a tener que sufrir XD



Yo no creo que nadie dijera que no iba a hacer nada,lo que decían algunos usuarios era que por direxct 12 de repente xboxone no se iba a igualar a ps4 que si o si iba a seguir siendo màs potente y era una diferencia insalvable en términos técnicos.



No solo se ha dicho que no iba a hacer nada sino que al principio se decía que ni siquiera iba a llegar DX12 a Xbox One porqué ya tenía su propia API low-level.

Fíjate si ha cambiado la historia.

Ahora estamos en el punto de saber si la ganancia en Xbox One será grande o enorme.

Y viendo un retwitt bastante reciente de la cuenta oficial de DX12,dan a entender que puede ser incluso mayor que en PC.Lo cual no es extraño cuando es un hardware fabricado y diseñado por la propia MS en paralelo a DX12.

https://twitter.com/TheStarstrider/stat ... 3817889793

Se le pueden dar muchas vueltas,pero la lógica nos lleva a pensar que ésto último es lo más probable.
pero de verdad la diferencia es "insalvable"?
indigo_rs está baneado por "saltarse el ban con un clon"
Seria interesante que parchearan todos los juegos actuales a DX12, pero es un trabajo extra que muy pocos van a hacer, según Ian Bell casi se podría duplicar el rendimiento pasando de 30 fps a 60. Es un poco difícil de creer pero viendo las mejoras que se ven en PC es posible y si con un simple parche consiguen eso no quiero pensar lo que pueden conseguir con un juego nativa DX12.
indigo_rs escribió:Seria interesante que parchearan todos los juegos actuales a DX12, pero es un trabajo extra que muy pocos van a hacer, según Ian Bell casi se podría duplicar el rendimiento pasando de 30 fps a 60.


Ojala que sea asi, aun que yo me conformaba con algo menos de fps pero que sean estables en todo momento (a no ser que ese comentario se refiriese a eso xD, entonces me autosilencio un rato)...¿os imaginais un fallout 4 dx12? [360º]
indigo_rs está baneado por "saltarse el ban con un clon"
FoxFurius escribió:
indigo_rs escribió:Seria interesante que parchearan todos los juegos actuales a DX12, pero es un trabajo extra que muy pocos van a hacer, según Ian Bell casi se podría duplicar el rendimiento pasando de 30 fps a 60.


Ojala que sea asi, aun que yo me conformaba con algo menos de fps pero que sean estables en todo momento (a no ser que ese comentario se refiriese a eso xD, entonces me autosilencio un rato)...¿os imaginais un fallout 4 dx12? [360º]


Según dice Ian Bell el juego funcionaria a 60fps sin inmutarse por los efectos climáticos o la noche. Recordemos que ahora en estas condiciones es un baile continuo de frames tanto en consolas como en PC.
indigo_rs escribió:Seria interesante que parchearan todos los juegos actuales a DX12, pero es un trabajo extra que muy pocos van a hacer, según Ian Bell casi se podría duplicar el rendimiento pasando de 30 fps a 60. Es un poco difícil de creer pero viendo las mejoras que se ven en PC es posible y si con un simple parche consiguen eso no quiero pensar lo que pueden conseguir con un juego nativa DX12.



Es que en el caso de ONE no solo aportara una mejora por el simple hecho de que DX12 es una mejora de DX11,,si no que ahora mismo la ONE no puede rendir al 100% por temas como la esram ,ect

y si con un simple parche la mejora es palpable en el project cars que eso ya lo veremos cuando salga pues mejor no imaginar lo que puede dar de si ,ya desarrollando desde 0 bajo DX12 ..
Sinceramente, no creo que con un parche pueda pasar de 30 a 60fps el project cars, si fuera así no me quiero ni imaginar lo que pudieran hacer con un juego creado con uno de los nuevos motores...
ya se posteó esta entrevista? http://gamingbolt.com/interview-with-br ... y-and-more

busqué en el hilo pero no encontré nada, mil disculpas si ya se puso

chau!
indigo_rs está baneado por "saltarse el ban con un clon"
Hasta el próximo año creo que no empezaran a trabajar desde 0 con DX12 y algunos creo que seguirán con DX11 porque le será mas fácil hacer los ports a otras plataformas.
Hay juegos donde paralelamente está trabajándose actualmente con DX12, el caso es Fable y Battlefront, así como la próxima hornada de juegos de Mirror Edge, Mass Effect... y apuesto a que Halo 5, Quantum y otros venideros exclusivos saldrán a la par o post Windows 10.

La única "forma" de ver las mejoras es un juego no-nativo DX12, y luego sacar el parche, para ver la diferencia actual a la próxima. Witcher 3 creo que iban a sacar parche al menos en PC, veremos si llega y lo recibimos aquí.
djohny24 escribió:Hay juegos donde paralelamente está trabajándose actualmente con DX12, el caso es Fable y Battlefront, así como la próxima hornada de juegos de Mirror Edge, Mass Effect... y apuesto a que Halo 5, Quantum y otros venideros exclusivos saldrán a la par o post Windows 10.

La única "forma" de ver las mejoras es un juego no-nativo DX12, y luego sacar el parche, para ver la diferencia actual a la próxima. Witcher 3 creo que iban a sacar parche al menos en PC, veremos si llega y lo recibimos aquí.


Por no hacerme falsas ilusiones ¿podrías poner un enlace con la fuente que diga que el Star Wars Battlefront y el Mass Effect están siendo desarrollados con DX12?
17587 respuestas