gamer10 escribió:Bolo_assassin escribió:Los bits no son tan importantes.El ejemplo lo tienes en los 256 de las GTX 970 y 980 y rus respectivos de AMD.
Por lo que tengo entendido, mejora mucho la Vram en ancho de banda o algo así.
Hace muchos años había gráficas de 70€ con 512bits, pero no eran reales al igual que la memoria de 2Gb. Era como memoria virtual o algo similar. Hablo de hace unos 10 años. Hoy en día no se que tal esta la cosa. Yo creo que es para meter bien muchos filtros y ni se inmute un juego en altas resoluciones. Eso he leído..
Pero lo que si es importante es el precio alto para los bits, a partir de los 300€ para arriba ya importan. Lo mas normal serian 256bits para 4Gb. Pero 8Gb, posiblemente lo comprenda que sean muy útiles los 512bits para optimizarlo.
Como yo abra muchos que no compren ahora una gráfica estando a la vuelta de la equina las nuevas polaris de amd. Pero no se si por unos 300€, puede ser superior a la r9 390....
A ver si hoy que tengo algo de tiempo tengo, me informo mejor de esta gráfica R9 390. Pero esta muy tentadora...
¿? Eso que dices no tiene sentido, llevo tiempo en este mundillo y eso no pasó jamás, excepto que estés hablando de timos de la estampita que intentan colar por tiendas online estilo "chino Cudeiro".
Hubo gráficas de 512 bits, sí, y enfrentadas contra gráficas de 256 bits también, con los actores invertidos en ese caso. Pero ya puedes dar por supuesto que sí se usaban esos bits (GTX 200 vs HD4800). Y el ancho de banda no era tremendamente distinto (aunque sí jugaba a favor de las GTX 200).
Tú puedes coger y enfrentar a una GTX 285, que tenía y aún tiene un ancho de banda muy respetable (sobre 150 GB/s), y enfrentarla contra una GTX 960 que apenas pasa de 110 GB/s, y te aseguro que bajo cualquier métrica de rendimiento es aniquilada la primera. Aunque sea usando aplicaciones que no usen más de DX10 para asegurar que funciona correctamente en ambos casos y que no se usan "especialidades" de la 960.
También puedes ver que una tarjeta de 512 bits vs una de 128 bits no necesariamente implica un ancho de banda 4 veces mayor (de hecho en este caso mencionado estaríamos hablando de menos del 50% de diferencia).
Los bits en sí no sirven para nada, sólo define una dimensión del acceso a memoria, está la velocidad de la memoria, y en realidad el parámetro que debería medirse es el ancho de banda a memoria. GB/s que se pueden servir.
De todas formas, en cada arquitectura hay aprovechamientos de ancho de banda muy distintos, y de facto algunas arquitecturas necesitan acceder mucho menos a memoria que otras para hacer exactamente lo mismo.
Es lo que tiene el meter cachés generosas (maxwell), dado que evitan muchos accesos redundantes que tienen que hacer otras gpus (las AMD o las nvidia premaxwell). Y ésta es una situación que se da mucho más de lo que la gente se piensa, al fin y al cabo una gpu trabaja con grandes "arrays de datos" que usan una y otra vez (p.ej, una textura), y si la caché es demasiado pequeña tiene que hacer más accesos a memoria para cargar y descargar trozos de ésta en caché, a diferencia de lo que pasaría si cupiera de primeras de cambio.
Eficiencia de acceso (cuánto del ancho de banda teórico se consigue en situaciones reales) y cuánta necesidad real tienen de acceder a memoria una y otra vez (cachés evitan accesos redundantes).
Una muestra:
Puedes consultar los anchos de banda teóricos de cada modelo en su tabla de la wikipedia:
https://en.wikipedia.org/wiki/List_of_A ... 300_Serieshttps://en.wikipedia.org/wiki/List_of_N ... 900_SeriesY verás que ninguna alcanza el máximo teórico en situaciones normales (texturas "aleatorias"), aunque alguna se acerque un poco. Y cosas tan curiosas como que superen el máximo de ancho de banda a memoria cuando las condicones son muy idóneas (textura negra).
Esta prueba es muy simple, y consiste en pintar en pantalla completa una única textura (dos triángulos), cuando se usa una textura negra, el resultado del render se puede comprimir con delta color y se consigue esas ganancias de ancho de banda "imposibles" que dan como resultado el test (que lo que realmente mide es los fps y resolución usada, el peso por imagen a enviar a VRAM para mostrar en pantalla en MB, y de ahí saca el resultado final en ancho de banda, ya que es una prueba limitada sólo por la escritura a memoria).
Pero cuando no, muestra de una forma más o menos fiable el ancho de banda que es capaz de alcanzar (eficiencia) cada chip, sin trucos ni artificios (la caché puede ser una ayuda, pero como básicamente la prueba está limitada por escrituras a VRAM, en realidad no mucho).
La 780 ti y la 980 ti tienen anchos de banda teóricos iguales, y sin embargo su rendimiento efectivo (sin ayudas) no es para nada igual, y tremendamente distinto cuando el viento le sopla favorable a la última. La AMD 290x usa bien su ancho de banda teórico, en teoría un pelín inferior a las 780/980 Ti, pero que a nivel práctico alcanza a usar algo más, aunque no tenga "ayudas" como las otras. La Fury X tiene un ancho de banda muy superior a las anteriores teóricamente, pero es incapaz de usarlo en cualquier condición.
Date cuenta que es la tarjeta que con mayor diferencia se queda lejos de su ancho de banda teórico, casi 200 GB/s ni más ni menos. Eso sí, al tener compresión de delta color es capaz de ganar "ancho de banda" con esa técnica como pasa con las nvidia, sobre todo las maxwell, pero no su hermana la 290x.
Hay muchas razones que hay para explicar esos comportamientos, por ejemplo posiblemente la fury X no puede alcanzar a usar mucho su ancho de banda, y menos en escrituras, porque tiene pocas ROPs para ese ancho de banda y se ve limitada por el chip y no por la memoria. Las cosas no son tan simples como parecen.