¿Cómo descargar partes de una web para tenerlas accesibles offline? Ayuda, por favor.

Hola. Necesito descargar parte del contenido de una plataforma web para poder tenerlo accesible cuando ya no tenga acceso a ella. Se trata de contenido educacional, concretamente de la FP a distancia. Solamente lo quiero para poder leerlo en cualquier momento de manera offline.

¿Alguien sabe cómo puedo hacerlo de manera automatizada? ¿Algún programa al que le pueda decir que me descargue todo a partir de X punto hacia abajo en el directorio? Que lo haga de uno en uno y lentamente, eso no me preocupa, pues no tengo prisa. Sé que si no, puedes acabar bloqueado por IP (y en mi caso también por usuario, puesto que hay que loguerse).

Estuve echando un vistazo a una aplicación, pero me pareció compleja de configurar. Creo que era HTTrack Website Copier. Necesito uno cuyo aprendizaje sea simple y lo pueda hacer en un par de días. Básicamente porque dentro de pocas semanas dejaré de tener acceso como usuario a la web.

¡A ver si me podéis echar una mano, porfa! :)
Probar, el HTT. Me descargué una wiki y recuerdo que la única dificultad que tuve fue establecer el número de niveles de vínculo a los que debía acceder ( o algo similar, hace mucho de aquello); pero vamos, básicamente fue a base de ensayo y error.
@SirAzraelGrotesque
1) Inicia sesión en el sitio web y copia la cookie de sesión.
2) Configura HTTrack para usar esa cookie.
3) Limita la velocidad y añade retrasos entre conexiones. (Así, evitarás en parte levantar sospechas).
4) Descarga el sitio en varias sesiones, pausando y reanudando el proyecto cada día. (Así, evitarás en parte levantar sospechas).
@Ñomo @Newton Gracias.

Tendré que echarle de nuevo un vistazo a ese mismo programa. Me da un poco de miedo cagarla con la configuración y que acabe bloqueado a las primeras de cambio. Y luego también tengo dudas respecto a cómo configurarlo para que me descarque las páginas correctamente, desde un punto hacia adentro/abajo, con imágenes y todo lo que contenga.
SirAzraelGrotesque escribió:@Ñomo @Newton Gracias.

Tendré que echarle de nuevo un vistazo a ese mismo programa. Me da un poco de miedo cagarla con la configuración y que acabe bloqueado a las primeras de cambio. Y luego también tengo dudas respecto a cómo configurarlo para que me descarque las páginas correctamente, desde un punto hacia adentro/abajo, con imágenes y todo lo que contenga.


Mmmmm y no puedes hacer capturas de todo? Es la forma más sencilla sin complicarte, luego ya creas las carpetas pertinentes de cada tema o lo que sea para guardar todo lo relacionado a X y ya.
sspyd3r escribió:
SirAzraelGrotesque escribió:@Ñomo @Newton Gracias.

Tendré que echarle de nuevo un vistazo a ese mismo programa. Me da un poco de miedo cagarla con la configuración y que acabe bloqueado a las primeras de cambio. Y luego también tengo dudas respecto a cómo configurarlo para que me descarque las páginas correctamente, desde un punto hacia adentro/abajo, con imágenes y todo lo que contenga.


Mmmmm y no puedes hacer capturas de todo? Es la forma más sencilla sin complicarte, luego ya creas las carpetas pertinentes de cada tema o lo que sea para guardar todo lo relacionado a X y ya.


Eso sería un trabajo inabarcable. Son muchísimas cosas.

@Newton No veo la opción para lo de la cookie. Solamente veo una opción para introducir las credenciales.

¿Cómo sería una limitación adecuada? Es que no tengo ni idea cuánto limitarlo. ¿Y te refieres a que lo vaya activando y parando manualmente? Luego, a la hora de reanudar, ¿continúa por donde iba?

Había pensando ponerlo a descargar por la noche, cuando tuviera menos tráfico. También hacerlo por bloques independientes, cada uno en un "Proyecto" de Httrack distinto. Lo que quiero es que descargue todo. Incluyendo imágenes, archivos adjuntos descargables, enlaces a vídeos externos de youtube y también enlaces a otras páginas (pero que no me descargue ni los vídeos, ni las páginas externas). ¿Tengo que configurar algo especial para ello o ya lo hace por defecto?

Ya ves que tengo demasiadas dudas. A lo mejor me pongo a experimentar un poco con una web cualquiera antes de ponerme en serio con la que de verdad me interesa.

P.D.: La duda de la cookie resuelta leyendo la ayuda del programa. Se pone en la raíz del directorio del proyecto. También se puede poner en el directorio del programa.

P.D.2: Estoy haciendo una primera prueba en una web cualquiera, pero sin éxito. La web es http://www.abrirllave.com/c/. ¿Alguien me puede decir si puede descargar algo? Por comprobar si es que no lo estoy configurando bien o es que la web rechaza las conexiones a todos a través del programa. Gracias. ¡Nada, olvidad esta posdata! ¡Ya estoy descargando desde esa web! Lo he puesto muy restringido para hacer la prueba. A ver cuánto tarda y así me hago una idea.
@SirAzraelGrotesque me alegro de que funcione, para no levantar sospechas lo dicho, no dejarlo durante mucho tiempo funcionando, dejarlo a bajas velocidades e incluso podrías jugar con distintos proxies.
@Newton Gracias.

Sí, creo que lo haré en varias veces. Aunque visto lo poco que tardó ayer en descargar la web de prueba, no sé si merece la pena o si podré estar tan al tanto. Tardó poquísimo, aún restringido.

Todavía no he descargado la web que me interesa de verdad. Es de la plataforma moodle y tengo más dudas. Por ejemplo si lo pongo a descargar desde el punto en el que yo entro como usuario, donde me aparecen todos los cursos a los que yo estoy inscrito, ¿el programa intentará descargar todos los cursos insistentes o se limitará a los que que yo puedo ver, a los que yo estoy inscrito? Porque a mí solamente me aparecen los cursos en los que estoy inscrito, pero hay más. Y otra cosa, también me gustaría descargar las entradas del foro. ¿Será posible? Nuevamente, solamente me aparecen los foros a cuyos cursos estoy inscrito, no el resto. ¿Si le pongo la raíz donde aparece el índice de los mismos descargará los que veo o intentará también el resto?
@SirAzraelGrotesque
Contra Moodle para descargas nunca he trabajado, pero entiendo que teniendo 1 cookie o un usuario, te debería dejar interactuar únicamente contra el contenido que puede acceder ese usuario.
Lo mejor que lo intentes, ensayo y error, y nos aclares de dudas cómo sale ;)
Newton escribió:@SirAzraelGrotesque
Contra Moodle para descargas nunca he trabajado, pero entiendo que teniendo 1 cookie o un usuario, te debería dejar interactuar únicamente contra el contenido que puede acceder ese usuario.
Lo mejor que lo intentes, ensayo y error, y nos aclares de dudas cómo sale ;)


Hola. Pues justo ayer me decidí a hacerlo. Puse restricciones por si acaso. Lo conseguí simplemente utilizando la cookie de sesión como sugirió un compañero. Eso sí, el resultado no ha sido muy satisfactorio, la web se ve mal y faltan cosas. Imagino que es porque faltan muchas cosas por descargar, que tendré que añadir más filtros. Lo dejé como 11 horas descargando, ya te digo, con restricciones así que iba poco a poco. Casi 2GB de descarga al final. Y todo para que se vea mal. [looco]
9 respuestas