mavy escribió:
La fragmentación (y es una suposición) impide en un medio así que se puedan utilizar las optimizaciones de escritura en paralelo. La escritura ha de escribir en un bloque de memoria e imaginemos que el siguiente dato a escribir lo ha de hacer en el mismo bloque de memoria (físico). La segunda escritura deberia esperar la primera.
Bueno no se si se me ha entendido, con un dibujo seria más facil...
Y así es, pero eso afecta mas al desarrollo del test que al uso del dia a dia que le demos a la MS.
En un sistema FAT16 (o 32) le da igual empezar a leer un archivo por el primer cluster de la MS (esto es imposble, pero bueno), irse a la tabla, seguir leyendo el archivo por el cluster 200000, volver a la tabla, seguir en el 500 y así hasta que lo carga entero en la ram.
Al ser memorias de pocos gigas, este proceso se hace muy rápido, asi que la fragmentación solo nos "roba" milésimas que no hay que tener en cuenta.
Además, nuestras MS tienen datos fragementados casi el 100% de las veces (casi siempre llegamos hasta los ultimos sectores de la MS y asi hay que buscar espacio por sectores anteriores, por ejemplo).
Habría que desfragmentar cada vez que le metieramos juegos de PSX, PSP, pelis, etc...
Un marrón, vamos.
Salu2.