ReinLOL escribió:Johny27 escribió:La diferencia que hay es la latencia, pero en ciclos de reloj. Lo que pasa es que no se puede medir de esa forma (la manera de microsoft) cuando una va muchísimo más rápida que la otra. No es mejor 3 ciclos de latencia a x velocidad que 8 ciclos a 3x. Pero claro, la gente se queda con "3 ciclos frente a 8" y no dan para más.
Además, eso importaba con cpu's in order. Con cpu's OoOE importa entre poco y nada.
No hay nada para lo que la solución de microsoft sea mejor. Han hecho la chapuza de meter la esram porque no se esperaban la barbaridad de ps4, nada más.
te equivocas
microsoft ha copiado el esquema de xbox360 que ha dado un resultado muy bueno (no una chapuza como tu dices)
Dio buen resultado hace 8 años, hoy en día no tenía sentido ya que es complicar por complicar. Los requisitos y la manera de generar los gráficos han cambiado mucho.
en cuanto a las latencias cuanto mayor es el ancho de banda mayor es la latencia. el problema es que hay que buscar un termino medio, de hecho la latencia de las memorias gddr5 de la ps4 estan rebajadas adrede para que no sean tan altas, perdiendo ancho de banda por el camino. hay que buscar un termino medio, ni tan altas son buenas, ni tan bajas (la memoria ddr o ddr2 por ejemplo tienen latencias menores) lo son. hay que equilibrarlo, ver los pros y contras que tienen a la hora de trabajar con ellas, en todos los aspectos de la consola, que repito, no son solo graficos.
O sea lo que yo he explicado, que en el caso de ps4 no influyen negativamente frente a lo que ha ofrecido microsoft.
eloskuro escribió:Microsoft lleva años desarrolando y estudiando el sistema que tu llamas chapuza.
Solo hay que ver el sistema que presentaron, tan bien pensado que han tenido que dejar de lado el 90% de lo que ofrecieron. Xbox Juan era una deco de tv que podía ejecutar juegos, no una consola con capacidades multimedia. La palabra que mas se oyó en la presentación fue "TV".
Ya que sabes tanto, dime porqué Xbox one, de momento es la unica plataforma de las dos, en la que hay "multitarea real" y puedes pasar de un juego a una pelicula sin preocuparte de nada mas.
Porque desperdician recursos en ello.
Dime por qué si Sony le pega tambien un repaso con su gddr5 en rendimiento de CPU, como no puede hacer lo mismo.
Que no puede hacer lo mismo lo dices tú, los desarrolladores ya están diciendo que hay diferencias notorias entre los ports que están creando, y no a favor de juan.
Cada uno tiene su opinion.
El problema es que te crees que todo es opinable, y hay cosas que no, entre ellas los datos técnicos.