MorphNet:更快更小的神经网络探索

2019年06月04日 由 sunlei 发表 265688 0


深度神经网络(DNNs)在解决图像分类、文本识别和语音转录等实际关联难题方面具有显著的效果。然而,为给定的问题设计合适的DNN体系结构仍然是一项具有挑战性的任务。考虑到可能的架构有很大的搜索空间,从零开始为特定的应用程序设计一个网络在计算资源和时间方面代价可能非常昂贵。神经结构搜索和AdaNet等方法使用机器学习搜索设计空间,以找到改进的结构。另一种方法是使用现有的体系结构来解决类似的问题,并一次性地为手头的任务进行优化。

这里我们描述了一种复杂的神经网络模型细化技术MorphNet,它采用了后一种方法。MorphNet最初是在一篇论文《MorphNet:深度网络的快速和简单的资源约束结构学习》中提出的,它以一个现有的神经网络作为输入,产生了一个新的神经网络,这个神经网络更小,速度更快,并且针对一个新的问题产生了更好的性能。我们已经将该技术应用到google规模的问题中,以设计更小、更精确的生产服务网络,现在我们已经向社区开发了MorphNet的TensorFlow实现,这样您就可以使用它来提高模型的效率。

它是如何工作的?


MorphNet通过收缩和扩展阶段的循环来优化神经网络。在收缩阶段,MorphNet识别效率低下的神经元,并通过应用稀疏正则化器将其从网络中删去,这样网络的总损失功能就包括每个神经元的成本。然而,MorphNet计算的不是每个神经元的平均成本,而是神经元相对于目标资源的成本。随着训练的进展,优化器在计算梯度时知道资源成本,从而了解哪些神经元资源效率高,哪些神经元可以删除。

例如,考虑MorphNet如何计算神经网络的计算成本(例如FLOPs)。为了简单起见,让我们考虑一个表示为矩阵乘法的神经网络层。在这种情况下,该层有2个输入(xn), 6个权重(a,b,…,f)和3个输出(yn;神经元)。使用标准教科书中行与列相乘的方法,您可以计算出计算这个层需要进行6次乘法。

[caption id="attachment_40974" align="aligncenter" width="1167"] 神经元的计算成本[/caption]

MorphNet将其计算为输入计数和输出计数的乘积。注意,尽管左边的示例显示了两个权重为0的权重稀疏性,但是我们仍然需要执行所有乘法来计算这个层。然而,中间的例子显示了结构稀疏性,其中神经元yn的行中所有权重都为0。MorphNet识别出这一层的新输出计数为2,并且这一层的乘法次数从6次下降到4次。利用这个想法,MorphNet可以确定网络中每个神经元的增量成本,从而产生一个更有效的模型,在这个模型中,神经元y3被移除。

在展开阶段,我们使用宽度倍增器来均匀地展开所有的层大小。例如,如果我们扩大50%,那么一个以100个神经元开始并缩小到10个的低效率层只会扩大到15个,而一个只缩小到80个神经元的重要层可能会扩大到120个,并有更多的资源来工作。净效应是将计算资源从效率较低的网络部分重新分配到可能更有用的网络部分。

在缩减阶段之后,人们可以停止MorphNet,只需缩减网络以满足更严格的资源预算。这会导致目标成本方面的网络效率更高,但有时会导致精度下降。另外,用户还可以完成扩展阶段,该阶段将与原始目标资源成本相匹配,但提高了准确性。稍后我们将介绍这个完整实现的一个示例。

为什么是 MorphNet?


MorphNet 提供了四个关键的有价值的主张:

有针对性的正则化:与其他稀疏的正则化方法相比,MorphNet 采取的正则化方法目的性更强。尤其是,MorphNet 方法进行更好的稀疏化的目的是减少特定的资源。这可以更好地控制由 MorphNet 生成的网络结构,根据应用领域和相关约束,MorphNet 可以有明显的不同。例如,下图的左侧面板显示了一个基线网络,该网络具有在 JFT 上训练的常用 ResNet-101 体系结构。当以触发器(中间图,触发器减少 40%)或模型大小(右图,权重减少 43%)为目标时,MorphNet 生成的结构有很大不同。在优化计算成本时,较低层网络中的高分辨率神经元比低分辨率神经元更容易受到修剪。当模型尺寸较小时,在修剪权衡上正好相反。



MorphNet 有针对性的正则化。矩形宽度与层中的通道数成正比。底部的紫色条是输入层。左图:基线网络用作 MorphNet 的输入。中图:输出应用触发器调节器。右图:输出应用大小调整器。

MorphNet 是为数不多的能够针对特定参数进行优化的解决方案之一。这使它能够针对特定实现的参数。例如,可以通过结合特定于设备的计算时间和内存时间,将延迟作为一阶优化参数。

拓扑变形:当 MorphNet 学习每层神经元的数量时,算法在一个层中稀疏所有神经元的过程中可能会遇到一种特殊的情况。当一个层有 0 个神经元时,通过切断网络中受影响的分支,可以有效地改变网络的拓扑结构。例如,当遇到 ResNet 体系结构时,MorphNet 可能保留 skip-connection,但删除残差块,如下左图所示。对于 Inception 样式的架构,MorphNet 可能会删除整个平行的塔,如右图所示。



左图:MorphNet 可以删除 ResNet 样式网络中的残差连接。右图:它还可以删除 Inception 样式的网络中的平行塔。

可扩展性:MorphNet 在一次训练中学习新的结构,在培训预算有限时,它是一个很好的方法。MorphNet 也可以直接应用于昂贵的网络和数据集。例如,在上面的比较中,MorphNet 直接应用于 ResNet-101,而它最初是在 JFT 上花费了 100 个 GPU 月训练的。

可移植性:MorphNet 产生的网络是「可移植的」,从这个意义上说,它们是打算从头开始重新训练的,并且权重与体系结构学习过程无关。你不必担心复制检查点或遵循特殊的训练规则,而只需像平时一样训练你的新网络!

变形网络


作为一个演示,我们将 MorphNet 应用于在 ImageNet 上通过目标定位 FLOPs 训练的 Inception V2(见下文)。基线方法是使用一个宽度倍增器,通过均匀地缩小每个卷积(红色)的输出数量来权衡精度和触发器。MorphNet 方法的目标是直接 FLOPs,并在缩小模型时产生更好的权衡曲线(蓝色)。在这种情况下,与基线相比,触发器成本降低了 11% 到 15%,而精确度相同。



MorphNet 应用于 ImageNet 上的 Inception V2。单独使用 FLOP 正则化器(蓝色)可将性能相对于基线(红色)提高 11-15%。在一个完整的周期中,正则化器和宽度乘法器在相同的成本(「x1」;紫色)下提高了精度,并在第二个周期(「x2」;青色)持续改进。

此时,您可以选择一个 MorphNet 网络来满足较小的 FLOP 预算。或者,您可以通过将网络扩展回原始的 FLOP 成本来完成这个周期,从而在相同的成本(紫色)下获得更好的准确性。再次重复变形网缩小\扩展循环会导致另一个精度增加(青色),使总精度增加 1.1%。

结论


我们已经将 MorphNet 应用到了谷歌的几个量产级图像处理模型中。使用 MorphNet 可以在质量几乎没有损失的情况下显著减少模型大小。所以我邀请您尝试 MorphNet。

 
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消