Programa para descargar sitio WEB (completo)

Webs, Foros, Blogs relacionados con el cine y sin relacionar. Proveedores de acceso a Internet, etc.
suguru
Mensajes: 186
Registrado: Mié 21 Ene, 2004 01:00

Programa para descargar sitio WEB (completo)

Mensaje por suguru » Dom 13 Ago, 2006 03:59

Holas, estaba buscando un programa para visualizar Web's en modo offline tipo Teleport Pro, pero con una peculiaridad :roll: Necesito que sea capaz de bajar todo, absolutamente *TODO* el sitio como si de un FTP se tratara, y no solo los 'links' que haya en los ficheros .html, me explico vamos...

Tengo una web, que si pongo www.misitio.com me sale una pagina por defecto, pero tengo más capturas y paginas anteriores que estan en el server pero no las tengo listadas del tipo www.misitio.com/juegos o www.misitio.com/fotosmias o www.misitio.com/carpetaquesea que lo escribo en el navegador y me aparecen las Web's que incluyen esas carpetitas y si pongo la ruta pues se me baja todo, pero claro tengo que hacerlo yo manualmente ya que no están enlazadas desde la pagina de inicio y el Teleport Pro, pues solo busca los enlaces http de la pagina y no la estructura completa del site :-(

Es posible hacer esto que digo, sobre esas carpetas 'ocultas' y otras que pueda desconocer y bajarme todo el sitio (no ocupa mucho como 20-30 MB's) Existe algun programa (tanto Win como Linux) para tal efecto??

Venga, espero encontrar algo (aunque lo veo dificil) pero de todos modos, gracias por el interés tomado. Saludos,,,

Avatar de Usuario
jjgomera
Mensajes: 666
Registrado: Vie 09 Jun, 2006 22:01
Ubicación: La Casa del Valle del Paraíso

Mensaje por jjgomera » Dom 13 Ago, 2006 10:09

yo uso el httrack pero no se si hace eso
Si los problemas tienen solución por qué preocuparse,
y si los problemas no tienen solución para qué preocuparse

suguru
Mensajes: 186
Registrado: Mié 21 Ene, 2004 01:00

Mensaje por suguru » Dom 13 Ago, 2006 14:02

Conozco el Httrack , que está bastante bien aparte de ser Free, pero me gusta más el Teleport ^_^ y tanto el uno como el otro se basan en 'links html' no buscan esctructura del site como carpeta que no se muestran pero que están, solo cogen los enlaces y carpetas que figuran el index.html y siguientes y poco más... :-(

Pero de todas formas jjgomera , gracias por el aporte... miraré a ver si en las nuevas versiones de Httrack han cambiado algo... ;-)

Saludos,

Avatar de Usuario
dazzy_22
Mensajes: 96
Registrado: Mié 23 Jul, 2003 02:00

Mensaje por dazzy_22 » Lun 14 Ago, 2006 12:53

Hace tiempo usé el Superbot para bajarme unas webs que me interesaban enteras. Que yo recuerde, el programa era muy fácil de usar, aunque tenías que tener cuidado con los niveles a bajar, porque se lo baja todo y eso puede resultar mucho espacio.

Espero que te sirva.

¡Saludines!

suguru
Mensajes: 186
Registrado: Mié 21 Ene, 2004 01:00

Mensaje por suguru » Lun 14 Ago, 2006 13:52

Gracias por el aporte dazzy_22 , pero el SuperBot, aparte de ser de pago, mientras que el Httrack es Free y lo supera con creces, hace más de lo mismo que los anteriores, ya he estado probando el WebSpider , WebCopier , GrabIt y unas cuantas cosas más, pero nada, todos hacen lo mismo se basan en los links y andando no son capaces de saber si existe y .html que no esté listado, por error o adrede, no se del tipo www.misitio.com/paginasinenlace.html que yo se que existen y están ahí, pero estos programas no las encuentran :-(

Me parece que no va a existir ningun programa de este tipo que yo quiero... jo, /me triste!

Venga, un saludo...