[FZH] 用什么下载工具能实现批量下载呢?

Devil Wang wxjeacen在gmail.com
星期五 十一月 5 05:09:13 UTC 2010


*wget直接将整个web都拿下来。*
*
*
*搞那么复杂干嘛。
*
2010/11/5 Jian Lee <lijian.gnu在gmail.com>

> 当任务“复杂”后,可以不在一个程序里面实现。
>
> 1. 可以这样下载
>
> i=0;  while test $i -le 100; do wget http://www.aaa.com/$i.htm; let
> "i=i+1";
> done
>
> 其他类似
>
>
> 在 2010年11月5日 星期五 02:45:02,Merlin Web 写道:
> > 我想下载一个网站上连续页面上的图片,
> >
> > 1. 页面的链接有规律,比如http://www.aaa.com/001.htm,... http://www.aaa.com/100.htm;
> > 2. 每个页面(001.htm,002.htm,……,100.htm)上的图片链接规律性不强;
> > 3. 每个页面只需要保存一个需要的图片,页面上也有一些不需要的图片,但是都是固定链接,比如每个页面有“图片A”,它的链接是
> http://www.aaa.com/logo.jpg,怎么排除这些链接?
> > 4.
> 保存的图片文件能不能连续排号,比如001.htm的图片(已经排除掉条件3中的不需要的图片),保存后的图片是001.jpg,以此,100.htm需要
> 保存的图片是100.jpg。
> > _______________________________________________
> > Chinese mailing list
> > Chinese at lists.fedoraproject.org
> > https://admin.fedoraproject.org/mailman/listinfo/chinese
> >
> _______________________________________________
> Chinese mailing list
> Chinese at lists.fedoraproject.org
> https://admin.fedoraproject.org/mailman/listinfo/chinese
>



-- 

**
*

Best Regards,

Devil Wang

*


关于邮件列表 Chinese 的更多信息