[FZH] 用什么下载工具能实现批量下载呢?

刘红丹 hongdanliu在gmail.com
星期五 十一月 5 15:37:32 UTC 2010


提供一个思路:
利用ls找出当前最新下载的图片,然后利用$i来重命名,应该可行

在 2010年11月5日 下午11:27,Merlin Web <merlin.web在gmail.com>写道:

> 实际上我是想下载人民教育出版社网站上的一些书籍,比如初中《生物》课本(
> http://www.pep.com.cn/czsw/jshzhx/qnxc/dzkb/)
>
> 1. 它的页面链接是连续的,第一页的链接是:
> http://www.pep.com.cn/czsw/jshzhx/qnxc/dzkb/200404/t20040407_83141.htm
> ,最后一页(122页)的链接是:
> http://www.pep.com.cn/czsw/jshzhx/qnxc/dzkb/200404/t20040407_83262.htm
> 2. 只需要页面的图片
> 我参照前面朋友的指点写了一个脚本
>
> #begin
> i=83141
> while test $i -le 83262
> do
>        wget -r -np -nd -A jpg -p
> "http://www.pep.com.cn/czsw/jshzhx/qnxc/dzkb/200404/t20040407_$i.htm"
>         let "i=i+1"
> done
> #end
>
> 能把我需要的图片都下载下来,但是还没能实现批量改名。因为wget中我使用了-A
> jpg选项,所以不知道如何更好的使用-O选项来改名。我想生成的图片名字是p001,p002,……p112。
>
> BTW,CyrusYzGTt <cyrusyzgtt在gmail.com>在邮件中提到的wget -p选项帮助我解决了几个问题,thanks。
>
> 2010/11/5 CyrusYzGTt <cyrusyzgtt在gmail.com>:
> > 于 2010年11月05日 02:45, Merlin Web 写道:
> >> 我想下载一个网站上连续页面上的图片,
> >>
> >> 1. 页面的链接有规律,比如http://www.aaa.com/001.htm,... http://www.aaa.com/100.htm
>> >> 2. 每个页面(001.htm,002.htm,……,100.htm)上的图片链接规律性不强;
> >> 3. 每个页面只需要保存一个需要的图片,页面上也有一些不需要的图片,但是都是固定链接,比如每个页面有“图片A”,它的链接是
> http://www.aaa.com/logo.jpg,怎么排除这些链接?
> >> 4.
> 保存的图片文件能不能连续排号,比如001.htm的图片(已经排除掉条件3中的不需要的图片),保存后的图片是001.jpg,以此,100.htm需要保存的图片是100.jpg。
> >> _______________________________________________
> > wget -l0 -p --reject=log.jpg http://www.aaa.com/
> > _______________________________________________
> > Chinese mailing list
> > Chinese at lists.fedoraproject.org
> > https://admin.fedoraproject.org/mailman/listinfo/chinese
> >
> _______________________________________________
> Chinese mailing list
> Chinese at lists.fedoraproject.org
> https://admin.fedoraproject.org/mailman/listinfo/chinese
>



-- 
刘红丹
http://liuhongdan.com/


关于邮件列表 Chinese 的更多信息