边缘机器学习的重要性
2020年01月03日 由 KING 发表
502070
0
近年来,人工智能(AI)和机器学习创新一直在迅速发展,可预见的结果随着可访问性的提高而不断发展,在计算能力和存储解决方案中,数据的可访问性和发展趋势越来越明显。如果您了解背景知识,那么到目前为止,您可以发现无数机器学习创新的实例,这些实例已经出现在从消费产品和社交媒体到金融服务和制造业的广泛行业中。
机器学习可以成为处理大量数据的强大分析工具。机器学习和边缘计算的融合可以引导IoT小工具收集的大部分活动,并留下重要信息以供边缘和云分析引擎分析。机器学习算法(尤其是深度学习神经网络)经常会产生可提高预测准确性的模型。但是,准确性会损害较高的计算和内存利用率。深度学习算法(也称为模型)由计算层组成,其中在每个层中处理大量参数,然后迭代地进行到下一层。信息(例如,高分辨率图片)的维数越高,计算需求就越高。经常使用云中的GPU场来满足这些计算需求。
边缘处理是一种分布式计算的世界观,它使计算和数据存储更接近需要的区域,从而提高了响应时间和备用带宽。尽管边缘计算解决了连接性,延迟,可伸缩性和安全性挑战,但边缘小工具上的深度学习模型的计算资产需求在较小的小工具中很难满足。
如今,大多数组织都将其信息存储在云中。这意味着信息需要传递到通常位于数千英里之外的中央数据中心,以进行模型比较,然后才能将结论性见解转移回出生地。例如,在时间至关重要的跌倒检测中,这是一个至关重要的甚至是危险的问题。
延迟问题是促使众多组织从云迁移到边缘的原因。“边缘的洞察力”,“边缘AI”或“边缘机器学习”意味着,与其在云端的算法中进行处理,不如将数据在本地存储在硬件小工具中的算法中进行处理。这可以实现实时活动,但是,它同样可以从根本上减少与处理云中数据有关的电源利用率和安全漏洞。在确定边缘小工具的硬件类型之前,必须建立归纳的关键性能度量。在重要的层面上,边缘机器学习的关键性能度量可以概括为延迟,吞吐量,设备能耗和准确性。延迟指的是收集一个数据点所花费的时间,吞吐量是每秒的派生调用数量,准确度是使用情况所需的预期收益的置信度。
分析人士发现,减少深度神经网络模型中的参数数量有助于减少模型推理所需的计算资源。使用此类系统而精度下降最少(或没有)的一些众所周知的模型是YOLO,MobileNets,固态硬盘(SSD)和SqueezeNet。这些预先准备好的模型中有大量可供下载并在开源平台(例如TensorFlow或PyTorch)中使用。
随着芯片生产商和初创公司致力于加速和简化与AI和机器学习项目相关的从培训到推理的出色任务,专用加速器的另一个时代正在崛起。更快,更便宜,更节能和可扩展。这些加速器保证将边缘小工具支持到另一种性能水平。他们完成此任务的方式之一是减轻边缘小工具的中央处理单元对与运行深度学习模型相关的困惑和压倒性的数学工作的压力。通常,要提高深度学习模型的性能,仍然存在许多挑战。然而,很明显,模型的推论正在向边缘小工具发展。必须理解模型的业务用例和关键性能必要性,以加快资产受限小工具的执行速度。SAP Edge Services和Data Intelligence共同提供了一个从头开始的工具,用于在云中训练机器学习模型并管理边缘设备的生命周期和执行。
显然,在回顾历史和今天的状况时,边缘机器学习的进步是快速而坚定的。随着未来的发展不断发展,请准备好发挥作用,并确保您准备好利用这项创新带来的机会。