Buenas, estoy haciendo un script un tanto guarro, para descargarme entera una página, asi como los documentos que alberga.
Pues haciendo el script, me ha surgido un problemilla, los enlaces para descargar, se envían a un php, y te devuelve este, una ventana con la descarga (vamos el dialogo de donde quieres guardar el fichero) si ejecutas wget con todo .. tienes un bonito fichero html... pero ni información de la descarga.
Ejemplo,http://papyrefb2.net/frames/bajando3.php?link=0ff0e60f00ce1010e210d1140ea0d10e01061010e610a1170f80f50f81070eb1070d31130f80f60ef1141000f50d71070ff0f10d61160eb0e20f71180eb1070ce0d00ec1181051131000f50d71070ff0ef0db0db&server=externo devuelve la direccion de descarga
http://papyrefb2.net/mobi/10635-178.mobiSi lo haces con wget tienes un bonito html en lo que no hay nada.
Se que el php traduce el link a algo legible, he pensado también en averiguar que codificación es, pero la verdad es que ni idea, he probado a pasar la dirección a ascii y de ahí traducir ese ascii como si fuese base 64, pero nada.
Total, si hay alguna forma de obtener esa dirección de descarga de manera automática.
Tambien he pensado usar curl, pero en mi vida lo he manejado y las pruebas que he hecho , todas han tenido nefastos resutlados.
Lo único que me ha funcionado, pero nose si se podria automatizarlo, es usar links, luego seguiré haciendo mas pruebas.
Saludos.
------------
editado:
Estupido de mi, no estaba poniendo las comillas en wget.
Saludos