AdaDeep
简介:
深度学习模型在跨平台部署时可能会面临具有不同的资源可用性,在运行时可能会面临精度与资源成本的权衡。AdaDeep首次将自适应模型压缩问题与DNN的超参数优化框架相结合,将压缩技术看作是粗粒度的DNN超参数,利用强化学习对不同的计算任务需求和平台资源约束进行自动化选择,从而实现自适应的轻量级模型架构搜索。它考虑了丰富的模型性能(包括精度、计算量、运行时能耗、存储和时延)以及对于不同平台资源约束的可用性。
主要功能:
AdaDeep算法基于Python 3.6+、Tensorflow、torch等依赖库开发。算法输入为深度模型的使用需求(精度或资源限制),输出为根据用户指定的需求组合多种压缩技术以压缩模型。该算法支持在CiFar-10、CiFar-100、ImageNet等数据集上的深度学习模型自适应压缩。在代码的实现过程中,AdaSpring算法参考了Deepx、EIE等第三方资源实现。
模型框架示意图:
算法名称 |
需要驱动的模型选择框架(A Usage-Driven Model Selection Framework,AdaDeep) |
---|---|
输入 | 深度模型的使用需求(精度或资源限制) |
输出 | 根据用户指定的需求组合多种压缩技术以压缩模型 |
支持数据集 | CIFAR-10、CIFAR-100、ImageNet |
依赖库 | Python 3.6+、Tensorflow、torch |
参考资源 | Deepx、EIE |
快速开始
python adadeep.py --config_file config.yaml
Change log
[1.1.2] - 2022-09-01
变更
Node.fn.map()
之前返回 NodeList 自身,现在将正确地返回被 map 后的数组。
修复
修复在非 ks-debug 模式下仍然输出 KISSY.log()
控制台信息的问题。
新增
- node 模块增加 API
Node.fn
,以兼容传统 KIMI 的 node 对象扩展机制。 - ua 模块现在可以识别 Microsoft Edge 浏览器。
已删除
- io 模块默认删除了对 XML 的 converter 支持。
详细教程/算法博客地址
http://blog.crowdhmt.com/article/13
联系我们
E-mail:
Phone:
文章链接:
[1] Liu S, Lin Y, Zhou Z, et al. On-demand deep model compression for mobile devices: A usage-driven model selection framework[C]//Proceedings of the 16th Annual International Conference on Mobile Systems, Applications, and Services. 2018: 389-400.