programa para bajar todas las imagenes de una web

hola me gustaria bajar todos los fondos de http://oreno.imouto.org/ (si no se puede poner el link luego lo kito, es para que se vea que tipo de web es)
de modo que discrimine los thumbails esos(las miniaturas) y me baje las imagenes grandes, he probado con varios programas pero o no se bajan o solo las miniaturas o me peta el programa y no fufa o solo me baja un archivo .html.....

sabeis de algun programa bueno para eso?

thz
netbook está baneado por "clon de usuario baneado"
recuerdo un codigo en script que se ponia en la barra del IE y lo hacia solo ... pero no lo recuerdo ahora. Busca en google
Yo antes usaba WinHTTrack Website Copier. Sirve para descargar webs completas, pero dentro de las opciones puedes indicar qué quieres descargar. Yo señalaba únicamente los archivos de imagen y listo.

Salu2
El FlashGet tenía un plugin para IE, y en las versiones más modernas también para FF, que te permitía hacer eso que dices.

En cualquier caso, estoy seguro que existe algún script para GreaseMonkey o similares que te evita tener que instalarte nada.
por lo pronto estoy usando el winhttrack haber que resultados me da...
el flashget lo instale pero solo me descarga el tipico archivo .html... no se como ponerlo para que me pille todas las imagenes de la web y acerca lo de gerasemonkey no se ni lo k es, si el wintrrack falla ya probare con el mono ese y el plugin de flashget...

gracias
si usas firefox puedes probar este plugin gestor de descargas "downthemall"
puedes filtrar por extensión y más cosas, ya ves todo el contenido de la página donde estás y marcas directamente o aplicas un filtro y ves que queda marcado.
yo lo usé para bajar grupos de pdfs que están linkados en el mismo sitio y como un tiro...
salu2
Pues a ver, no se si te servirá.

Puedes mirar de sacar el código fuente de la web, luego copias todo el código fuente y abres el jDownloader, luego en la pestaña "capturador de enlaces" pulsas en el botón de "agregar URLs".

Pegas el código fuente que has copiado anteriormente. Pulsas en Analizar URLs, y esperas los resultados, que seguramente será todo el contenido de una web, incluida sus imágenes.

A partir de ahí, jdown te clasifica los ficheros por tipo y podrás descartar los que no quieras (como los html).

A mi me funciona.
El único problema por lo que veo, es que debes hacer lo mismo en cada una de las páginas que hay, y por lo que veo, hay mas de 8000
6 respuestas