亚马逊通过AWS Greengrass将机器学习引入边缘计算
2018年04月10日 由 nanan 发表
817605
0
AWS的边缘计算平台AWS Greengrass,以机器学习推理支持的形式进行了改版。最新版本(v1.5.0)可以在基于NVIDIA Jetson TX2和Intel Atom架构的边缘设备上运行Apache MXNet和TensorFlow Lite模型。
机器学习推理是边缘计算的最佳用例。由于边缘计算网关预计将在离线场景中运行,并与云进行间歇性连接,因此它们可以在运行时提供机器学习模型,从而可以离线工作。当与工业物联网相结合时,机器学习推理可通过预测性维护和分析使部署变得有价值。
亚马逊一直在投资三个关键领域——物联网、边缘计算和机器学习。AWS IoT是一个成熟的连接设备平台,可以提供可扩展的M2M、批量设备、数字双胞胎和分析,以及与AWS Lambda紧密集成的动态规则。AWS Greengrass通过提供本地M2M、规则引擎和路由功能将AWS IoT扩展到边缘。此外,亚马逊SageMaker为AWS带来了可扩展的机器学习服务。客户可以使用它来改进基于流行算法的训练模型。
亚马逊在整合AWS IoT、AWS Greengrass和亚马逊SageMaker等方面做了大量工作,目的是提供端到端的机器学习支持。
在将亚马逊SageMaker指向它之前,客户会将训练数据上传到Amazon S3。他们可以选择SageMaker现有的算法之一来生成一个训练模型,该模型以压缩的zip文件的形式复制到另一个Amazon S3中。该zip文件被复制到设备,且设备将在运行时由AWS Lambda Python函数调用。也可以直接将Greengrass指向预训练的SageMaker模型。
开发人员可以使用Raspberry Pi进行本地开发和测试。对于生产场景,建议使用NVIDIA Jetson TX2或Intel Atom处理器。亚马逊还提供基于Apache MXNet和Tensorflow模型的预构建机器学习库,可以在Greengrass上部署。
作为一个概念的证明,亚马逊已经建立了一个名为AWS DeepLens的网络摄像头,它由AWS IoT、AWS Greengrass和AWS Lambda支持。开发人员可以在云中训练卷积神经网络,并将训练好的模型部署在DeepLens上,以在离线模式下执行对象检测。凭借Greengrass对机器学习的最新支持,客户将能够构建自己的DeepLens设备,并在边缘进行推理。
使用机器学习推理的AWS Greengrass是在现代基础设施上运行机器智能的完美范例。该平台是边缘计算、无服务器计算、物联网和机器学习技术的融合。
公共云在提供所需的智能的同时,负担也过重。期望看到消费类设备变得非常智能。此理念贴近了亚马逊Echo和AWS DeepLens的设计。