谷歌MnasNet:实现移动端机器学习模型的自动化
2018年08月08日 由 浅浅 发表
164541
0
在智能手机领域,检测对象,分类图像和识别面部的应用程序并不是什么新鲜事;它们已经被Google Lens和Snapchat等应用推广,但普遍性无法替代质量,而大多数使用卷积神经网络的基础机器学习模型,往往会受到缓慢或不准确的影响。这是硬件约束限制的计算权衡。
尽管如此,谷歌的研究人员开发了一种AI模型选择方法,可以达到记录的速度和精度。
在一篇新论文“MnasNet: Platform-Aware Neural Architecture Search for Mobile”和博客文章中,该团队描述了一个自动化系统MnasNet,该系统从候选列表中识别理想的神经架构,并结合强化学习来考虑移动速度限制。它在特定设备上执行各种模型,在本研究中的例子为谷歌的Pixel,测量它们的真实性能,自动选择最好的一组。
“通过这种方式,我们可以直接衡量在现实世界中实现的目标,”研究人员在博客文章中写道,“鉴于每种类型的移动设备都有自己的软件和硬件特性,可能需要不同的架构才能做到最好在准确性和速度之间进行权衡。”
该系统由三部分组成:(1)循环神经网络驱动的控制器,用于学习和采样模型的架构;(2)训练器,用于构建和训练模型;(3)TensorFlow Lite驱动的推理引擎测量模型的速度。
该团队测试了ImageNet上的首选模型,由斯坦福和普林斯顿维护的图像数据库,以及上下文中的公共对象(COCO)对象识别数据集。结果显示,这些模型比最先进的移动模型MobileNetV2快1.5倍,比神经网络搜索系统NASNet快2.4倍。与此同时,在COCO上,Google的模型比MobileNet实现了“更高的准确性和更高的速度”,与SSD300模型相比,计算成本降低了35倍,这是研究人员的基准。
团队表示,“我们很高兴看到我们的自动化方法可以在多个复杂的移动视觉任务上实现最先进的性能,将来,我们计划在搜索空间中加入更多操作和优化,并将其应用于更多移动视觉任务,如语义分割。”
边缘和离线(与云托管相对)AI获得了大量的研究,特别是在移动领域。在6月份的2018年全球开发者大会期间,Apple推出了改进版的ML Core,它是iOS上的设备上机器学习框架。在谷歌I / O 2018上,谷歌宣布了ML Kit,这是一个软件开发套件,其中包含的工具可以更轻松地在应用程序中部署自定义TensorFlow Lite模型。
论文:arxiv.org/abs/1807.11626