Hablemos del interior de Xbox One

FoxFurius escribió:
djohny24 escribió:
Pada escribió:Para nada aburres, siempre es interesante que haya gente que controle que aporte al hilo :).

Todo parece indicar que la configuración está pensada para el máximo paralelismo y aprovechar al 100% los recursos. Según lo que comentaron los ingenieros el reto de las gráficas next gen se encontrará más en el movimiento de los datos que en la optimización del microcódigo de los shaders (de ahí los move engines). Cuando salió la consola hicieron un vídeo explicando alguna de estas cosas con los ingenieros (https://www.youtube.com/watch?v=tLBVHZokt1Q), concretamente lo dice Boyd Multerer (minuto 20). Hay una entrevista muy interesante con los ingenieros en eurogamer que se hizo en el lanzamiento de la consola donde explican porque han realizado determinadas decisiones en la configuración (aunque no cuentan todo).

Después, a mayores, hay que destacar que prácticamente todo está virtualilzado (hasta la GPU), que parece ser que es necesario para todo el tema del cloud computing y "aumentar la potencia", de esto dejaron de hablar porque la gente se lo tomó a broma, pero vamos nvidia ya empezó a hablar de estas virtualizaciones de la GPU en el 2012 para su GRID de cloud computing. Actualmente hay cosas interesantes en temas de cloud computing para GPU como lo que hacen los de OTOY como el uso de ray tracing en tiempo real gracias a la nube.

Supuestamente en este E3 volvlerán a hablar de hardware y todo parece indicar que volverán a sacar el tema de la nube y de cómo la eSRAM + move engines ofrecerán un rendimiento similar a las memorias HBM que traerán consigo las nuevas gráficas de AMD.


Si no estoy equivocado dijeron que Witcher 3 recibiría un parche para que soporte DX12 como en su momento Mantle en Battlefield 4, pero no se si en éste caso se quedará sólo en Pc. Aun así el caso más cercano será Project Cars que parece que si lo recibirá, no?.

El cómputo en la nube hace o puede hacer más de lo que la gente piensa, cachondeos a parte, pero es más interesante para la gente ver a Goku en su nube que tratar de una tecnología que va a ser el mañana, denigrante pero bueno así es el ser humano.


Una duda sobre esta ultima parte... ¿en teoria en project cars se puede usar para que cuando vayas a correr en un circuito, las condiciones de este sean identicas a las que haya en ese momento en el circuito? (aparte de que creo que hace mucho se hablo de que la IA ''aprenderia'' ¿no?)
Pregunto esto por que tengo la duda de que si la calidad de nuestras conexiones y la distancia hasta los servidores de MS afectara al rendimiento...(ejemplo, alguien con adsl de 3 o 4Mb Vs alguien con fibra de 200, y viviendo aqui en España que creo que no hay servidores de microsoft ¿no?)

Un salu2


Eso es muy sencillo, es mandar paquetes con información diciendo que está lloviendo o aire o sol o lo que sea y tu One ubica las cosas donde debe, es algo informativo y previo a la carrera en éste caso.

Más complejo es por ejemplo en juegos con IA y el cálculo de iluminación lo haga desde la nube y consola "solo" tenga posicionarlo y renderizarlo, pero la cpu se ahorraría en teoría de hacer dichos cálculos. Es un tema que se me escapa un poco, necesito que expliquen un poco mejor como piensan utilizarlo, pero creo que independientemente de la calidad de la conexión, sería como si la consola recibiese ya los "resultados" de la ecuación hechos en lugar de tener que hacerlos ella, no se si me explico jeje.

La tasa de éxito por oblea lo entendería con muchos más shaders pero teniendo en cuenta que se han ahorrado 2 CUs,... lo veo muy "poco" teniendo en cuenta como son, ahora bien, si esos dos forman parte de los redundantes en caso de que unos fallen, entonces 768shaders en éste caso son reales.
El tema del cloud computing para videojuegos al principio será para cálculos no sensibles a la latencia, por ejemplo: IA, físicas e iluminación.

En el caso de la IA se empezó a ver con forza 5, horizon 2 y titanfall, aunque de momento muy rudimentario. En los forza básicamente el juego se fija en como juegas y crea un "drivatar" que conducirá como lo haces tu, estos "drivatars" se almacenan en la nube y son descargados por otros usuarios para ser utilizados como IA y que haya una mayor variedad de comportamientos. El futuro en este campo será el de aplicar algoritmos mucho más sofisticados y computacionalmente mucho más complejos para definir comportamientos de NPCs, por ejemplo, jugar a un RPG donde puedas interactuar como con Siri o Cortana, que reconozca el lenguaje natural o directamente pueda comportarse de manera imprevisible ante diferentes situaciones. El consumo de tráfico en esto es mínimo ya que básicamente consistiría en el paso de mensajes de operaciones/resultados y la latencia es muy flexible ya que no importa mucho que tarde 500 ms en tomar una decisión un NPC... y esto es un caso extremo ya que es muy extraño tener latencias mayores de 100 ms conectándote a servidores en europa, por muy malo que sea tu ADSL.

En el caso de la física de momento lo único que se ha visto es la tech demo de la build 2014, que hace uso de la tecnología desarrollada por cloudgine para el crackdown 3. Del juego solo se ha visto el tráiler del E3 del año pasado en el que se puede ver un poco la idea de como será el nivel de destrucción, este E3 se espera ver gameplay y la tecnología funcionando. El tráfico generado en este caso, a pesar de ser algo mayor que en el caso de la IA, no debería ser nada que no soporte una conexión de 1 o 2 megas, la latencia también es flexible, aunque menos que en el caso de la IA, pero vamos con 200 ms (que sigue siendo muuuucha latencia) no debería apreciarse inconsistencias en los cálculos de física.

Por último la iluminación, como puse en otro post los de OTOY están haciendo cosas interesantes con raytracing, además tenemos demos de nvidia que muestran la gran resistencia a la latencia también, empezándose a notar inconsistencias a partir de 300 ms aproximadamente. Una vez más el tráfico generado no debería de ser nada que no soporte conexiones ADSL normalitas. En el caso de microsoft no han anunciado nada al respecto del cloud compute para iluminación, pero vamos es cuestión de sumar 2+2 para ser capaz de preveer que están también en ello para incorporarlo a su live compute, quien sabe si pondrán algún ejemplo en este E3, recordemos que Phil ya dijo que había más juegos en desarrollo no anunciados que utilizan el cloud compute a parte de crackdown.

EDIT: Se me había olvidado la aplicación a juegos estilo MMO (destiny, elder scrolls..), aunque obviamente no me refiero a lo que ya existe, sino dar más protagonismo al servidor en el cálculo de casi todo. Esto permitiría por ejemplo mapas gigantes sin ningún tiempo de carga, miles de usuarios e IAs simultáneos que manipulan el entorno y se traslade al resto de usuarios.... Hay un vídeo de shinra en el que muestran y explican esta tecnología también bastante interesante para los juegos online (tiene versión resumida el vídeo)
Buen aporte, deseando estoy de ver el juego y todo funcionando :)

Las latencias siempre importan mas cantidad de de descarga, y apuesto a que la mayoria tenemos mínimo 6 a 10Mb de adsl (en mi caso tengo fibra, como muchisima gente ya).
Gracias por las explicaciones @djohny24 y @Pada

Al principio cuando os he leido asi un poco mas de pasada (estaba saliendo de trabajar xD) he dicho ''pues algo parecido es lo que lleva haciendo blizzard de un tiempo hacia aca con world of warcraft'', pero luego al leerlo otra vez, no es lo mismo, aun que en ciertos aspectos creo que se tiene que parecer...

Un salu2
http://forum.projectcarsgame.com/showth ... post937108

Curioso esto que dice el jefe del estudio de project cars.

Jefe escribió:
alguien escribió:Originally Posted by birel View Post
I was going to ask before you answered with the above quote, do you recommend us getting a PS4 to play project cars on.


With DX12 the Xbox will perform extremely well for us.
With the upcoming imminent patches it's already much better.


Básicamente le preguntan si comprar la de PS4 o X1 y le responde que la de X1 con dx12 está funcionando extraordinariamente bien y con parches que están al caer funciona mucho mejor...

@FoxFurius el WoW la verdad apenas realiza cálculos en la nube más que lo típico de los MMOs que existen desde los años 90. La filosofía del último punto que puse que es lo que está desarrollando shinra (y seguro que otros) es la evolución de eso. Por otra parte el tema de cloud compute en IA, físicas e iluminación no hay nada en el mercado ahora mismo, solo benchmarks y el único juego anunciado que utilice la nube de esta manera es crackdown. Por lo menos que yo sepa.
indigo_rs está baneado por "saltarse el ban con un clon"
Yo estoy deseando que empiecen a hacer juegos nativos DX12 y que se dejen de parches, la mejora tiene que ser mucho mayor, Windows 10 debería de estar en la calle desde el verano pasado y asi ya tendríamos juegos Full DX12.
Las salidas de Windows no se rigen por los juegos, evidentemente. Hay que asegurarse de tener un buen sistema y todo el ecosistema bien preparado antes de lanzarlo para que millones de usuarios, profesionales y empresas actualicen sus equipos.
indigo_rs escribió:Windows 10 debería de estar en la calle desde el verano pasado


"debería" pero no lo esta, asi que solo queda disfrutar de lo que hay y pensar que habrá (aun) mejores juegos en el futuro. asi a sido siempre con todas las consolas no? solo que antes no nos enterabamos de todas estas cosas

chau!
Pada escribió:http://forum.projectcarsgame.com/showthread.php?27276-A-question-to-the-devs-about-the-frame-rate-issue&p=937108&viewfull=1#post937108

Curioso esto que dice el jefe del estudio de project cars.

Jefe escribió:
alguien escribió:Originally Posted by birel View Post
I was going to ask before you answered with the above quote, do you recommend us getting a PS4 to play project cars on.


With DX12 the Xbox will perform extremely well for us.
With the upcoming imminent patches it's already much better.


Básicamente le preguntan si comprar la de PS4 o X1 y le responde que la de X1 con dx12 está funcionando extraordinariamente bien y con parches que están al caer funciona mucho mejor...

@FoxFurius el WoW la verdad apenas realiza cálculos en la nube más que lo típico de los MMOs que existen desde los años 90. La filosofía del último punto que puse que es lo que está desarrollando shinra (y seguro que otros) es la evolución de eso. Por otra parte el tema de cloud compute en IA, físicas e iluminación no hay nada en el mercado ahora mismo, solo benchmarks y el único juego anunciado que utilice la nube de esta manera es crackdown. Por lo menos que yo sepa.

Según este hombre PCars si tendrá un rango de mejora con dx12 en one,subir resolución no creo por temas de gpu,pero alomejor si que estabiliza los 60fp

O incluso solo con que usaran el Shape para el sonido alomejor ya tendrían los 60fps estables
chris76 escribió:Según este hombre PCars si tendrá un rango de mejora con dx12 en one,subir resolución no creo por temas de gpu,pero alomejor si que estabiliza los 60fp

O incluso solo con que usaran el Shape para el sonido alomejor ya tendrían los 60fps estables

Con DX12 + SHAPE se deberían obtener un curioso incremento de framerates. Pero vamos, no seas sacrílego, usar el SHAPE, si parece que a los multis les da urticaria con sólo mencionarlo (panda de flojos por dios).
Pero que aparte de SMS hay alguien mas que no lo haya utilizado?me pareceria muy fuerte que micro se curre un sistema de sonido independiente para liberar recursos de cpu y luego nadie,lo utilize solo que los first
chris76 escribió:me pareceria muy fuerte que micro se curre un sistema de sonido independiente para liberar recursos de cpu y luego nadie,lo utilize solo que los first

Es lo que tiene hacer cosas que no funcionan en todas las plataformas, corres ese riesgo.

Con el tema de HSA está pasando lo mismo, como los PCs potentes no tienen, pues nadie se molesta en ver que mejoras se pueden conseguir con ello.
Pues conforme se vallan quedando mas desfasadas con el tiempo el primer componente en quedarse todavia mas obsoleto sera la cpu,es super importante que ms facilite el uso del Shape a terceros
cercata escribió:
chris76 escribió:me pareceria muy fuerte que micro se curre un sistema de sonido independiente para liberar recursos de cpu y luego nadie,lo utilize solo que los first

Es lo que tiene hacer cosas que no funcionan en todas las plataformas, corres ese riesgo.

Con el tema de HSA está pasando lo mismo, como los PCs potentes no tienen, pues nadie se molesta en ver que mejoras se pueden conseguir con ello.


Y también en buena parte porque HSA aun no está "terminada", es decir Kaveri es la única que tiene ahora soporte y no completo, hasta la próxima apu o próximos productos no va a estar la especificación 1.0 terminada y extendida.

Amén de que como bien dices, al haber poco en el mercado, el desarrollo-compatibilidad va a ser lenta. Veremos como avanza el tema cuando salga Carrizo para portátiles si la adaptan bien, porque la idea es francamente buena y eficaz.

El audio dedicado no sabemos hasta que punto afecta en éste caso, porque o bien es el encargado de gestionar todo el audio eliminando uso casi total de la cpu, o funciona como TrueAudio que no es uno (o unos, ya que se pueden meten más de uno..) dedicado a sonido sino un coprocesador para efectos añadidos como posicionamiento 3d, reverberaciones y otros... pero no hace todas las funciones de audio.
djohny24 escribió:Y también en buena parte porque HSA aun no está "terminada", es decir Kaveri es la única que tiene ahora soporte y no completo, hasta la próxima apu o próximos productos no va a estar la especificación 1.0 terminada y extendida.

Me refería que aunque este terminada, en el mundo de PC no se va a abrazar de momento, solo en sistemas de bajo consumo con APU, pero las GPUs de gama alta seguirán con el esquema de doble memoria, una para la CPU y otra para la GPU. Y de mientras, pues en consola no se usara a penas, salvo en algún exclusivo.
cercata escribió:
djohny24 escribió:Y también en buena parte porque HSA aun no está "terminada", es decir Kaveri es la única que tiene ahora soporte y no completo, hasta la próxima apu o próximos productos no va a estar la especificación 1.0 terminada y extendida.

Me refería que aunque este terminada, en el mundo de PC no se va a abrazar de momento, solo en sistemas de bajo consumo con APU, pero las GPUs de gama alta seguirán con el esquema de doble memoria, una para la CPU y otra para la GPU. Y de mientras, pues en consola no se usara a penas, salvo en algún exclusivo.


Sería ideal que Intel apoyara su tecnología, asi los desarrolladores meterían mano de un día para otro. Culpa de su escaso avance es, la escasa cuota de mercado...

Pero Hsa tampoco iba a ser determinante aquí, si en algunas tareas de cómputo donde la gpu apoye a la cpu pero claro, también quitaría potencia para renderizado. HSA beneficia realmente a tareas para apoyar a la cpu, más como coprocesador, pero para ello en este caso limitaría el uso para juegos. ¿Donde beneficiaría a una consola? En tener un buen reproductor de vídeo que se coma todos los formatos sin apenas alterar la cpu, y para 4K, reconocimiento facial, gesticular, movimiento,....
djohny24 escribió:Pero Hsa tampoco iba a ser determinante aquí, si en algunas tareas de cómputo donde la gpu apoye a la cpu pero claro, también quitaría potencia para renderizado.

En eso tienes razón, pero si a base de rebajar un 10% los gráficos consigues cosas que no se podrian hacer ni con la CPU dedicada al 100%, como mejores fisicas, para mi merecería la pena.

Pero sí, no es comparable con Shape, donde no se pierde nada por usarlo, solo se gana.
Lo ideal, en éste caso hubiera sido de haber tenido coherencia por hardware (Hsa), tener esos 2CU (128 shaders) que no usa, dedicados a ello, a cómputo. Ahí si que se notaría, pero perder un buen % de rendimiento en gráficos por tener mejores físicas o Ia etc, no se hasta que punto compensa, ya que reducirías resolución o fps o cantidad de detalle en pantalla...no lo veo rentable...

Estoy hablando con un amigo que se dedica a éstas cosas para que cómo subsanan ésto, ya que esos dos "Compute Processor" que aparecen en el diagrama de diseño de la gpu, no los posee ninguna Gpu, ni los dos GCP. Os diré algo en cuanto me responda al email que le envié ;)
@djohny24 eso no se puede hacer, la especificación son 12CU y si se fabrican con 14 es para tener un margen de unidades defectuosas y reducir costes de fabricación. De haberse especificado con 14CU llevaría 16 por lo mismo. Así que no cambia nada. Se especificó así y ya está.

La culpa es de la flojera extrema de los desarrolladores y punto. En PC hace ya el mato de años que algunos juegos en las opciones de audio te daban a elegir entre Software, Direct2DSound, Direct3DSound y EAX sin despeinarse, y nadie se murió. Por cambiar 4 llamadas a funciones por usar una u otra API de sonido no es como para flagelarse me parece a mí. Y eso juegos exclusivos de PC (si hasta los Baldur's Gate lo tenían joder), que siempre están destinados a menos ventas que un multiplataforma.

Flojera y punto, no hay más.
darksch escribió:@djohny24 eso no se puede hacer, la especificación son 12CU y si se fabrican con 14 es para tener un margen de unidades defectuosas y reducir costes de fabricación. De haberse especificado con 14CU llevaría 16 por lo mismo. Así que no cambia nada. Se especificó así y ya está.

La culpa es de la flojera extrema de los desarrolladores y punto. En PC hace ya el mato de años que algunos juegos en las opciones de audio te daban a elegir entre Software, Direct2DSound, Direct3DSound y EAX sin despeinarse, y nadie se murió. Por cambiar 4 llamadas a funciones por usar una u otra API de sonido no es como para flagelarse me parece a mí. Y eso juegos exclusivos de PC (si hasta los Baldur's Gate lo tenían joder), que siempre están destinados a menos ventas que un multiplataforma.

Flojera y punto, no hay más.


Si si, lo se, digo que lo lógico sería que de haber tenido más shaders disponibles, estuviesen dedicados a ese fin ;)
La nueva apu a 20nm es un hecho,ahora es solo tiempo para que la presenten

Aparte de los 4k@60fps para video,menor consuno y temperatura podrian intruducir alguna mejora?,como doblar la esram?

Si los problemas de resolucion vienen por falta de ancho de banda o esram y doblaran su densidad como hizo sony a ultima hora podrian haber 2 escenarios,modelo 1 a 900p reescalado a 1080p,modelo 2 mismo juego identico pero a 1080p nativos
chris76 escribió:La nueva apu a 20nm es un hecho,ahora es solo tiempo para que la presenten

Aparte de los 4k@60fps para video,menor consuno y temperatura podrian intruducir alguna mejora?,como doblar la esram?

Si los problemas de resolucion vienen por falta de ancho de banda o esram y doblaran su densidad como hizo sony a ultima hora podrian haber 2 escenarios,modelo 1 a 900p reescalado a 1080p,modelo 2 mismo juego identico pero a 1080p nativos


Cambiar ese tipo de hardware = fragmentacion del parque de consola = mala idea.

A saber lo que hacen, pero la fragmentacion del hard en consolas nunca a funcionado a no ser que el hard adicional viniese con el mismo juego (cartuchos con chips o juegos con dispositivos exclusivos).
chris76 escribió:La nueva apu a 20nm es un hecho,ahora es solo tiempo para que la presenten

Aparte de los 4k@60fps para video,menor consuno y temperatura podrian intruducir alguna mejora?,como doblar la esram?

Si los problemas de resolucion vienen por falta de ancho de banda o esram y doblaran su densidad como hizo sony a ultima hora podrian haber 2 escenarios,modelo 1 a 900p reescalado a 1080p,modelo 2 mismo juego identico pero a 1080p nativos


Meter más ESRAM es meter muchísimos transistores, sería mejor que subieran frecuencias pero creo que conservarán la configuración actual porque el revuelo que generarían y la mala fama es lo último que necesitan (y necesitamos).

Nueva apu implica lo que dices, temperaturas, consumo, y espacio. y costes. Diseñar una consola con posición vertial y meter más HDD (o más rápido) de serie. Un híbrido estaría bien, 500+128Gb.

P.D Puede no ser de 20nm, podrían usar tranquílamente 28nm y mejorar todo ésto. Con usar librerías de alta densidad y tener el nodo más depurado es suficiente.

Edito: Tampoco sería fragmentar, yo lo hemos vivido en el pasado con Saturn y N64 que requerían cartucho de expansión de 4Mb para jugar y no "pasó" nada ni llovió fuego, pero los tiempos han cambiado claro.
djohny24 escribió:Edito: Tampoco sería fragmentar, yo lo hemos vivido en el pasado con Saturn y N64 que requerían cartucho de expansión de 4Mb para jugar y no "pasó" nada ni llovió fuego, pero los tiempos han cambiado claro.


Saturn fue todo un exito, al igual que megacd y 32x, kinect no obligatorio, move en ps3 y demas ideas que ha habido de hardware adicional una misma generacion de consola. La expansion pack de N64 se usaba en miles de juegos...

Yo diria que los cartuchos de snes con chips adicionales habran sido de las pocas ideas de hardware adicional que han funcionado en la industria y mas que nada porque venian junto al juego.

EDIT: y si no es fragmentar, como se llama a tener dos versiones con distinto hardware de una misma consola?
Zokormazo escribió:
djohny24 escribió:Edito: Tampoco sería fragmentar, yo lo hemos vivido en el pasado con Saturn y N64 que requerían cartucho de expansión de 4Mb para jugar y no "pasó" nada ni llovió fuego, pero los tiempos han cambiado claro.


Saturn fue todo un exito, al igual que megacd y 32x, kinect no obligatorio, move en ps3 y demas ideas que ha habido de hardware adicional una misma generacion de consola. La expansion pack de N64 se usaba en miles de juegos...

Yo diria que los cartuchos de snes con chips adicionales habran sido de las pocas ideas de hardware adicional que han funcionado en la industria y mas que nada porque venian junto al juego.

EDIT: y si no es fragmentar, como se llama a tener dos versiones con distinto hardware de una misma consola?


No si no digo que fueran éxito o no, está claro que no son métidos de mercado que funcionen y es un pu... para nosotros. Digo que por existir, han existido, con sus consecuencias claro, lo mismo que el Wiimotion+

De todas formas habría una reventa / devolución y queja masiva... Que podría afectar? Que todo fuera igual y en la "nueva" fuera a 1080 y la "vieja" a 720. Fin.
Eso eran accesorios que usaban pocos juegos, no es lo mismo. En la Saturn por falta (arcades 2D requerían más RAM) y en N64 fue casi más un capricho para decir "oye mira que puedo poner 640x480", porque que lo usaran por falta realmente pocos juegos (el DK64 me parece y se acabó). Tampoco es que segmentara mucho, te perdías 4 juegos y ya está.
Yo lo veo poco probable pero tampoco es algo imposible,seguiria siendo un harware controlado como pasa con ios,el mismo juego dependiendo de si es un iphone 5 o 6 se ajusta a su resolucion y poco mas,no es el batirullo que hay en android,por poner un ejemplo
chris76 escribió:Yo lo veo poco probable pero tampoco es algo imposible,seguiria siendo un harware controlado como pasa con ios,el mismo juego dependiendo de si es un iphone 5 o 6 se ajusta a su resolucion y poco mas,no es el batirullo que hay en android,por poner un ejemplo


Es que yo veo una tontería que uno vaya a 720~900P y vaya bien y se vea bien igual que 1080P... Es todo sugestión y marketing, lo que le ha hecho tanto daño. Parece que ahora si no se tienen 1080P ya no juegas bien :-?

Prefiero que destinen la nueva consola a vertical, más espacio, mejores componentes y cero ruido, que ni sepas que está encendida (y la fuente de alimentación más peque).
Sacar una consola con hardware superior a los dos años a menor precio suena como muy buena idea para que los early adopters que se han comido el kinect obligatorio y el software sin terminar vuelvan a comprar la consola de salida en la siguiente oportunidad.

Que habra version slim antes o despues creo que lo asumen todos, que vayan mejorando el disco duro tambien...

Pero digamos que en navidades 2015, cuando ya por fin vaya a llegar el soft decente a la consola saques una revision con mejor hardware de computo y menor precio es una magnifica idea para hacer amigos entre tus mayores fans.
Si vamos, amigos que los esperarían a la puerta su casa. Y yo el primero.
Zokormazo escribió:Sacar una consola con hardware superior a los dos años a menor precio suena como muy buena idea para que los early adopters que se han comido el kinect obligatorio y el software sin terminar vuelvan a comprar la consola de salida en la siguiente oportunidad.

Que habra version slim antes o despues creo que lo asumen todos, que vayan mejorando el disco duro tambien...

Pero digamos que en navidades 2015, cuando ya por fin vaya a llegar el soft decente a la consola saques una revision con mejor hardware de computo y menor precio es una magnifica idea para hacer amigos entre tus mayores fans.


Si quiere suicidarse Microsoft solo le falta hacer esto.

De todos modos ya no es solo que con Dx12 pudiera ir a full la consola, es que la dirección que esta tomando Microsoft es la de dar soporte por la nube, este sería el nuevo MegaCd. Por lo que veo una insensatez hacer cualquier nuevo producto ahroa mismo.

Otra cosa es que saquen un nuevo producto en 5 años en vez de en 7.
Yo creo que el futuro de microsoft pasa por la nube y sus mega servidores,tambien creo que esta sera la ultima consola de micro y con solo tener una buena conexion a internet y una buena smartv,solo tendremos que bajarnos la aplicacion de xbox live a la tv,conectar mando,teclado,raton etc.....y darle caña a nuestra biblioteca de juegos.
chris76 escribió:La nueva apu a 20nm es un hecho,ahora es solo tiempo para que la presenten

Yo he leido como que AMD al final se va a saltar los 20nm y va a pasar directamente a 14nm ...

yosu888 escribió:Yo creo que el futuro de microsoft pasa por la nube y sus mega servidores,tambien creo que esta sera la ultima consola de micro y con solo tener una buena conexion a internet y una buena smartv,solo tendremos que bajarnos la aplicacion de xbox live a la tv,conectar mando,teclado,raton etc.....y darle caña a nuestra biblioteca de juegos.

Si no existiese la Realidad Virtual pues no sabría que decirte, pero existiendo yo creo que la siguiente generación de consolas va a estar dedicada 100% a la RV.

Zokormazo escribió:Que habra version slim antes o despues creo que lo asumen todos, que vayan mejorando el disco duro tambien...

Un poco mas de RAM para el Shared OS puede que también, pero mas ESRAM, CPU o GPU no creo por lo que dices, fragmentarian el mercado de juegos y joderian bien a los early adopters.
Sobre lo de una nueva consola con otro Hard... si microsoft fuese en cabeza en ventas, no lo veria tan descabellado, ya hizo algo ''parecido'' al sacar una verison con HDMI, aun que evidentemente, no era un cambio de hard que afectase a los juegos... pero por ejemplo fijaos en Nintendo y sus portatiles....entre la primera DS y la 3DS, hay 7 años de diferencia, pasando por 3 modelos, DS, que seria la xone de ahora, ds lite, una xone slim, y dsi, que seria mas bien las primeras xone que se vendieron con kinect, y que como este, no se explota tanto como deberia el uso de esos añadidos como para comprarlo....con ds, nintendo tenia un rival directo, psp, pero ahora, que no tiene rival en portatil mas alla de los moviles/tablets (por que vita es un mal chiste) ha cambiado el hard de la consola en 3 años, que es lo que ha pasado desde 3DS a N3DS...

Conclusion, MS esta en la situacion de nintendo con la DS, con un rival directo, que vende mucho, y que de cara a los medios, va mas ''sobrada''...si MS juega bien las cartas, como hizo nintendo, puede llevarse la batalla a base de buenos juegos...pero no de poner un hard nuevo que sea necesario para jugar...a no ser, que el futuro que quiere MS para xbox y W10 sea el de una steam machine, y xone sera como si te compras un steam machine ahora, y dentro de 3 años, evidentemente, habra steam machines por el mismo precio con mas potencia...

Un salu2
FoxFurius escribió:Sobre lo de una nueva consola con otro Hard... si microsoft fuese en cabeza en ventas, no lo veria tan descabellado, ya hizo algo ''parecido'' al sacar una verison con HDMI, aun que evidentemente, no era un cambio de hard que afectase a los juegos... pero por ejemplo fijaos en Nintendo y sus portatiles....entre la primera DS y la 3DS, hay 7 años de diferencia, pasando por 3 modelos, DS, que seria la xone de ahora, ds lite, una xone slim, y dsi, que seria mas bien las primeras xone que se vendieron con kinect, y que como este, no se explota tanto como deberia el uso de esos añadidos como para comprarlo....con ds, nintendo tenia un rival directo, psp, pero ahora, que no tiene rival en portatil mas alla de los moviles/tablets (por que vita es un mal chiste) ha cambiado el hard de la consola en 3 años, que es lo que ha pasado desde 3DS a N3DS...

Conclusion, MS esta en la situacion de nintendo con la DS, con un rival directo, que vende mucho, y que de cara a los medios, va mas ''sobrada''...si MS juega bien las cartas, como hizo nintendo, puede llevarse la batalla a base de buenos juegos...pero no de poner un hard nuevo que sea necesario para jugar...a no ser, que el futuro que quiere MS para xbox y W10 sea el de una steam machine, y xone sera como si te compras un steam machine ahora, y dentro de 3 años, evidentemente, habra steam machines por el mismo precio con mas potencia...

Un salu2

https://www.youtube.com/watch?v=8To-6VIJZRE

Esto es lo que tiene que hacer microsoft , juegos , juegos , juegos , la potencia importa una mierda : PSX , PS2 , WII , GAME BOY , NDS.
Sigue sin ser lo mismo lo de la Xbox del HDMI, no es lo mismo un cambio de features que un cambio de specs. Esto último es lo que nunca vamos a ver, dadlo por sentado, vendan lo que vendan.
darksch escribió:Sigue sin ser lo mismo lo de la Xbox del HDMI, no es lo mismo un cambio de features que un cambio de specs. Esto último es lo que nunca vamos a ver, dadlo por sentado, vendan lo que vendan.


Esque es eso.

No es comparable para nada a xbox hdmi. Eso seria comparable a one hdmi 2.0, cambiamos el output para adecuarnos a los tiempos. Pero cambiar los internals ya es otra cosa muy distinta.
En xbox 360 tambien pusieron wifi y al final con los pendrives podias simular las tarjetas de memoria, pero al final la potencia era la misma, son cambios en las especificaciones que no afectan al funcionamiento interno.

Yo por ejemplo estoy esperando a una slim con el sintonizador de TDT integrado y espero que un par de puertos usb frontales para renovar mi consola.
de hecho en la Xbox 360 S (la Slim), en el soc tuvieron que "rebajarle" la potencia para que fuese igual a la Xbox 360 sin SoC metiéndole un FSB ficticio.
indigo_rs está baneado por "saltarse el ban con un clon"
ElOtroDespistao escribió:de hecho en la Xbox 360 S (la Slim), en el soc tuvieron que "rebajarle" la potencia para que fuese igual a la Xbox 360 sin SoC metiéndole un FSB ficticio.


Pues espero que no lo hagan asi los juegos podrían ser mas fluidos y con menos caídas de frames. No se debería capar la potencia, además eso no supondría ningún problema para los desarrolladores.
indigo_rs escribió:
ElOtroDespistao escribió:de hecho en la Xbox 360 S (la Slim), en el soc tuvieron que "rebajarle" la potencia para que fuese igual a la Xbox 360 sin SoC metiéndole un FSB ficticio.


Pues espero que no lo hagan asi los juegos podrían ser mas fluidos y con menos caídas de frames. No se debería capar la potencia, además eso no supondría ningún problema para los desarrolladores.


Los juegos serian mas fluidos si los desarrolladores quisieran, aparte, tener dos hardwares si que afectaria a los desarrolladores, testear el juego en dos configuraciones, y tener que optimizar para dos.
indigo_rs está baneado por "saltarse el ban con un clon"
Yo creo que hay margen para subir al frecuencia de la CPU a 2Ghz y la de la GPU a 1 GHz al reducir el tamaño del micro, esto ayudaría mucho a tener un flamerate estable en los juegos que ahora fluctúan.
indigo_rs escribió:Yo creo que hay margen para subir al frecuencia de la CPU a 2Ghz y la de la GPU a 1 GHz al reducir el tamaño del micro, esto ayudaría mucho a tener un flamerate estable en los juegos que ahora fluctúan.


De hecho esa misma CPU se vende a 2Ghz pero no creo que sea ni necesario ni determinante. Subir la gpu a 1Ghz si es más eficaz, o meter en éste caso, más Mhz a la memoria Ram. pero volvemos a la de antes, demasiado pánico general y se cavarían tumba.

Por otro lado, con el nuevo sistema operativo que va a recibir y api y un nuevo sdk, la cosa puede mejorar bastante, al menos en eficacia a la hora de utilizar su hardware y tener más consistencia gráficamente.
djohny24 escribió:
indigo_rs escribió:Yo creo que hay margen para subir al frecuencia de la CPU a 2Ghz y la de la GPU a 1 GHz al reducir el tamaño del micro, esto ayudaría mucho a tener un flamerate estable en los juegos que ahora fluctúan.


De hecho esa misma CPU se vende a 2Ghz pero no creo que sea ni necesario ni determinante. Subir la gpu a 1Ghz si es más eficaz, o meter en éste caso, más Mhz a la memoria Ram. pero volvemos a la de antes, demasiado pánico general y se cavarían tumba.

Por otro lado, con el nuevo sistema operativo que va a recibir y api y un nuevo sdk, la cosa puede mejorar bastante, al menos en eficacia a la hora de utilizar su hardware y tener más consistencia gráficamente.


Si pudiesen subir a esas frecuencias, ¿no lo hubiesen hecho ya?
yosu888 escribió:Yo creo que el futuro de microsoft pasa por la nube y sus mega servidores,tambien creo que esta sera la ultima consola de micro y con solo tener una buena conexion a internet y una buena smartv,solo tendremos que bajarnos la aplicacion de xbox live a la tv,conectar mando,teclado,raton etc.....y darle caña a nuestra biblioteca de juegos.

Pues ese día dejare de jugar a la consola.
de hecho ya lo hicieron no? la actual esta overclockeada

chau!
ElOtroDespistao escribió:de hecho ya lo hicieron no? la actual esta overclockeada

chau!


Por eso mismo lo digo. Ya subieron la GPU (800MHz / 853MHz) y la CPU (1.6GHz / 1.75GHz).

Una subida pequeña si podían llegar a 1 y a 2 respectivamente.
Mamaun escribió:
djohny24 escribió:
indigo_rs escribió:Yo creo que hay margen para subir al frecuencia de la CPU a 2Ghz y la de la GPU a 1 GHz al reducir el tamaño del micro, esto ayudaría mucho a tener un flamerate estable en los juegos que ahora fluctúan.


De hecho esa misma CPU se vende a 2Ghz pero no creo que sea ni necesario ni determinante. Subir la gpu a 1Ghz si es más eficaz, o meter en éste caso, más Mhz a la memoria Ram. pero volvemos a la de antes, demasiado pánico general y se cavarían tumba.

Por otro lado, con el nuevo sistema operativo que va a recibir y api y un nuevo sdk, la cosa puede mejorar bastante, al menos en eficacia a la hora de utilizar su hardware y tener más consistencia gráficamente.


Si pudiesen subir a esas frecuencias, ¿no lo hubiesen hecho ya?


Y estoy seguro de que aun pueden, pero no lo habrán hecho por el temor pasado del anillo de la muerte.
indigo_rs está baneado por "saltarse el ban con un clon"
Al reducir el tamaño del chip y en consecuencia el consumo hay margen para aumentar frecuencias, otra cosa es que no quieran hacerlo para evitar consolas con rendimientos diferentes, pero poder se puede. A ver que pasa con el próximo AC, que son juegos muy exigentes, no me gustaría que volviese a tener un framerate inestable porque por lo que veo Ubisoft de DX12 no entiende y seguirá con DX11 en el AC Syndicate.
ya tienen mas experiencia con la consola, aparte haran el juego lo mas adaptado a consolas.
17587 respuestas