Algun programa de UltraCompresionMejorada?

Hola, eh visto cosas, como juegos e imagenes de cd(Ikaruga de DC) que ocupan comprimidos 17mb y al descomprimir son 722MB !

El fichero es RAR pero claro, puede haber usado otro para comprimir y crear un RAR para que sea visible a los demás usuarios.

Saludos
Pues si es un RAR, tiene que ser un RAR jaja, no puede usar un codec de compresión del que no dispongas, por que, si no, ¿como diablos descomprimes?

:)

Es posible que se comprima mucho, pero:

a) RAR no es el más eficiente ni de lejos
b) 722Mb de un DivX a 17Mb lo veo DIFICIL ya que el formato "primitivo" ya está comprimido.

Salu2.Ferdy
Estooo... yo solo puedo decir que los .tar.gz y los .tar.bz2 los reconoce el winrar... y que yo sepa son los formatos que más comprimen... eso sí, en cuanto a texto se refiere, porque comprimiendo otras cosas como archivos mp3, el ratio d compresión es mínimo... y dudo que con un juego de DC sea mayor...

Pruebalo a ver...

Un saludoooo!!!
Escrito originalmente por Ferdy
b) 722Mb de un DivX a 17Mb lo veo DIFICIL ya que el formato "primitivo" ya está comprimido.
Ferdy, el Ikaruga es un juego (en este caso de Dreamcast), no una película [+risas]

De todas formas, a mi también me pasó algo parecido una vez con otro juego de Dream, esta vez eran 320 en unos 8 MB .. las cifras son aproximadas, hace ya mucho de esto, y también estaba comprimido con WinRar [agggtt]

Yo sigo sin encontrarle mucha lógica ... sigo pensando que es magia, tal y como pensaba cuando descomprimí el juego en cuestión [mad]
Hay ISOs que comprimidas ocupan bastante poco de lo original, pero es por una de dos razones:

1) Llevan pistas de música fácilmente comprimible
2) Llevan errores anticopia, que como suelen ser 0's o 1's sin más, se comprimen bestialmente.
En el caso del Ikaruga es porque lleva un dummy gigantesco lleno de 0s, que se comprime como si nada. Los datos reales del juego son esos 17 MB, el resto es "paja" para que lo trague bien la DC. XD

Saludos.
Lo que hacen con los juegos de DC es que le meten archivos dummy (sin contenido ninguno) para llenar el cd y que carguen mas rapido los juegos.

Saludos!

Edito: Se me adelanto r09 :P
Olé, por fin respuestas que me convezcan! :D
Para el que le interese, hay articulos muy buenos sobre el tema en muchas revistas de difusión y en internet.

Por ejemplo, uno de los algoritmos más antiguos es el Hoffman (creo que se escribía así) y tambien de los más eficientes: es el único capaz de llegar a la entropía (limite en el que teóricamente es imposible comprimir más), pero sólo en limitados casos, es muy lento, y requiere capacidades de calculo importantes. Una cosa curiosa de este algoritmo es que en archivos pequeños es muy poco eficiente, llegando incluso a ocupar más espacio los archivos comprimidos que los originales (me refiero a pequeños de verdad, del orden de pocos bytes).

Luego está el archiconocido Lempel-Ziv y su variante Lempel-Ziv-Welch (LZW). Este algoritmo no es el más eficiente, pero si que es muy rápido comprimiendo y descomprimiendo, hecho por el cual todos los módems lo utilizan para transferencias de datos. Tambien se utilizan en los archivos GIF y en el compresor de Linux GZIP. Desconozco si el ZIP esta basado en esto. Teoricamente la patente es propiedad de Unisys, por lo cual el GIF no es un formato libre (hay que pagar por usarlo), pero por suerte decidió no cobrar derechos de patentes a las librerías libres que aparecieron con anterioridad, por eso el GZIP y otros programas de Linux siguen siendo libres.

Y por ultimo esta el BZIP2, que no se que algoritmo usará, pero que es bastante más eficiente que GZIP y que ZIP. Sólo hay que mirar la lista de kernels de kernel.org para darse cuenta de la diferencia. Pero eso si, es mucho más lento.

Todo se basa en lo mismo, seguir patrones de repetición. Un ejemplo muy bueno sacado (curiosamente) de una novela de Michel Crichton, si tenemos una foto de una rosa, en vez de guardar un archivo que diga: pixel 1 rosa, pixel 2 rosa, pixel 3 rosa... guardamos un archivo que diga: pixel del 1 al 236 rosa.
Y por ultimo esta el BZIP2, que no se que algoritmo usará, pero que es bastante más eficiente que GZIP y que ZIP. Sólo hay que mirar la lista de kernels de kernel.org para darse cuenta de la diferencia. Pero eso si, es mucho más lento.


bzip2 compresses files using the Burrows-Wheeler block sorting text compression algorithm, and Huffman coding. Compression is generally considerably better than that achieved by more conventional LZ77/LZ78-based compressors, and approaches the performance of the PPM family of statistical compressors.

Pues ya que sale el tema, os pongo un enlace a la que posiblemente sea la FAQ más completa que existe sobre compresión de datos... yo me la leí hace tiempo (sí, sí, enterita... es que tenía mucho tiempo libre XD) y es de lo más interesante. Incluso desmiente algunos de los "mitos" que existen en torno a este tema, como la compresión de datos completamente aleatorios y demás mentiras publicitarias.

http://www.faqs.org/faqs/compression-faq/part1/preamble.html

Saludos.

EDIT: bueno, quizá esté un poco desfasada en algunos aspectos, es del 99... pero lo cierto es que las técnicas de compresión no han dado pasos de gigante desde entonces, solo se ha mejorado lo existente.
Yo no entiendo tanto de algoritmos, lo q si se es q un archivo en el q se repitan muchos caracteres se comprimirá mucho más q uno q no lo tenga. Es el caso de los archivos de texto y los binarios. Un archivo de texto se comprime muchísimo (supongo q como el dummy del Ikaruga, buen juego) en cambio un binario como ejecutables, pelis... apaenas se comprimen al ser más complejos y repetirse mucho menos los patrones que usan los algoritmos para comprimir (se inventó aquello de compresion multimedia, q en el fondo no comprime mas pero lo hace de forma más segura).

Salud y libertad.
10 respuestas