Cafetino escribió:Calma señores, no nos chupemos las pollas todavia
Como bien indica Antonio R, me parece surrealista que usando trozos grandes de archivo se llegue a estas cifras, aún mas viendo las probabilidades de colision de hash.
La cosa puede que aumente usando trozos mas pequeños, pero esto probablemente repercutiria en una sobrecarga bastante destacable en el protocolo
Pero el hash sigue siendo el mismo no?
Digo que el amule ve que desaparece cierto archivo, y aparece otro, que por casualidades de la vida resulta ser el mismo
salu2
Joer menos mal que hay alguien sensato en este hilo, se cafetino!
El hash debe ser el mismo, el nombre en principio no tiene nada que ver.
Es que se lee cada burrada por este hilo... >_< (y eso que yo tengo menos idea que nadie)
Para archivos totalmente distintos lo veo más que improbable, así a ojo los archivos troceados deberían ser tan pequeños para que haya una coincidencia de hash con otro archivo, las cabeceras (TCP/IP etc...) ocuparían más que el contenido en si. Así que en cada paquete enviado estaríamos enviando más información de cabeceras que de datos xDDD
Algo que va en contra de todo protocolo xDDD
Así que aún dudándolo mucho debe ser para archivos muy muy muy similares (nada de temática como dicen por ahí ¬¬) con trozos de archivo mas grandes de lo que estamos imaginando y que tienen coincidencia 100%. Un ejemplo seria un archivo con el mismo origen, pero al cual uno se le ha corrompido x bits y tiene coincidencias parciales (casi totales) con el otro.
Y todo eso gracias a que se le adjuntaría un hash a cada parte.
(No se si me he explicado muy bien xD)
PD: Señores, las redundancias de los archivos quedan solventadas con compresores, las eliminan casi totalmente, de eso tratan xDDD
PD2: Ahora leeré el artículo que solo he leido el titular de eol y los comentarios por encima.
Saludetes!!