Ejem, perdonar, pero un procesador se considera de x bits cuando el bus de datos Y de direcciones tienen ese número de bits, y eso implica que todos sus registros tienen que trabajar con ese número de bits.
Por ejemplo, tanto los Intel actuales como los AMD tienen registros específicos de más de 64 bits que se manejan con las famosas instrucciones multimedia (SSE2, 3D Now! MMX y todo eso) y sirven para ciertas operaciones. Por ejemplo operar con números de coma flotante de más de 32 bits de forma más rápida. Y a nadie se le ocurre decir que un pentium IV es de 64 bits, ¿verdad? Quizá porque sólo puede direccionar 2^32 posiciones de memoria
Luego, la GPU de la XBOX no hace todo el trabajo. Simplemente hace el más costoso jeje. La CPU hace todo lo demás: tratar la E/S, IA, sonido, y parte del proceso de renderizado: la CPU tiene que pasarle los vértices a la tarjeta para que ésta los trate y haga la imagen. El hecho de tener una GPU sólo para ese trabajo es simple: renderizar la escena es lo más costoso por frame. Sin embargo eso no significa que la GPU sea de 128 o 256 bits ya que eso es el bus de datos, mi 5900XT tiene un bus de datos entre la memoria de la tarjeta y la propia GPU (el chip) de 256 bits, pero la tarjeta internamente creo que 'sólo' puede tratar datos de un máximo de 64 o 128 bits (no estoy competamente seguro de cual de los dos) como podeis ver hay diferencia entre bus de datos y arquitectura interna.
La GPU y la CPU van siempre ligados. Si el procesador no puede suministrar información a la GPU de forma constante la GPU no tendrá que hacer, no es un tema tan simple. Prueba a ponerle una geforce 6800 a un pentium 733 (
) y verás como el doom3 no tira un cagao.
Por cierto las consolas actuales si tienen registros para tratar hasta números de 128 bits, tanto enteros como flotantes.