Chifrinillo escribió:xzibit escribió:
No lo has entendido, la latencia en ciclos de reloj es una medida relativa a la velocidad en Mhz a la que vaya el reloj de las memorias en cuestión. Si una memoria necesita más ciclos para leer/escribir, pero luego también el reloj va más rápido, pues en términos absolutos de latencia (o sea en tiempo) una cosa se compensa con la otra. ¿Por qué? Pues porque si el reloj va a más Mhz significa que el ciclo de reloj dura menos.
La latencia depende del FSB (front side bus).
Cuanto mas rápido va una memoria, mas costoso es bajar su latencia.
Antiguamente teniamos las DDR2 a CAS 5 o menos, hoy en día es muy raro ver DDR3 a menos de CAS 7. Si hablamos de DDR3 a 2133 son realmente caras a 7 (pongo un enlace de pc componentes y todas son de 9 a 11)
http://www.pccomponentes.com/memorias_ddr3_2133.htmlSi por ejemplo va a el FSB 200mhz en ONE y PS4 (ahora con el overclock de ONE no sabemos si la han subido por multiplicador o por FSB) la memoria de la XBOX ONE es estara entre CAS 9-11, es decir gasta 9/11 ciclos del FSB para posicionarse en el lugar de la memoria que le pidamos.
PS4 por su parte tiene una GDDR5 a 5,5 GHZ, teniendo en cuenta lo que dice antes de que a mas velocidad, mas díficil es mantener baja la latencia. Pues hablamos de que PS4 tiene pinta de tener CAS 30-35 (y estoy siendo muy optimista).
Si, que son rapidísimas, pero hablar de latencias sobre los 30 es simplemente un suicidio en una CPU.
Hacer una prueba, coger vuestro pendrive y copiarle la carpeta SYSTEM32 de vuestro ordena, ¿cuanto tarda? DIOOOOOOOOOOOOOOOOOOOOOOOSSSS tarda una burrada verdad? ¿por qué? porque son muchísimos archivos pequeños y que hace?
Se posiciona, copia, se posiciona en el siguiente, copia..... y tarda mas en posicionarse que en copiar ya que son archivos muuuy pequeños.
Ahora crear un archivo zip sin compresión para que ocupe lo mismo y copiarlo al pendrive. ¿VUELA VERDAD? va sobraño
Pues así son los datos que se maneja la GPU cogen los 3 gigas (por decir algo) que participan en la escena y se envían todos de golpe. Ahí la GDDR5 esta en su salsa.
Sin embargo eso en una CPU no tiene sentido. ¿habéis visto el registro de windows? QUE BURRADA DE VARIABLES DE TRUE/FALSE (la unidad mínima de memoria) maneja verdad? ¿¿Os imagináis eso con GDDR5????
Ahora llegará un lumbreras y dirá "¿a lo mejor SONY hace lo mismo que con los gráficos y envía todos los datos de golpe como en la GPU"
Claro, para cambiar a de false a true una variable enviamos 300 megas del REGISTRO
(y así cientos de veces x segundo
)