亚马逊推出AWS深度学习容器,可简化AI应用程序的开发过程
2019年03月28日 由 董灵灵 发表
426608
0
亚马逊希望用户能够在亚马逊网络服务中更轻松地启动和运行AI应用程序。为此,它推出了AWS Deep Learning Containers,这是一个预装了流行深度学习框架的Docker图像库。
AWS的深度学习和AI总经理Matt Wood在AWS峰会上表示,“我们帮助用户完成了所有复杂的工作,包括构建,编译,生成,配置,优化框架,这样用户可以更轻松,因为这意味着减少了很多繁杂的工作,你无需安装或维护这些非常复杂的框架。”
由亚马逊预配置和验证的新AWS容器图像,支持谷歌的TensorFlow机器学习框架和Apache MXNet,之后也会支持Facebook的PyTorch和其他深度学习框架。它们致力于全方位的AWS服务,包括Amazon ECS,适用于Kubernetes的Amazon Elastic Container Service,Amazon Elastic Compute Cloud(EC2)以及Amazon EC2上的Kubernetes(可以使用Deep Learning Containers将微服务添加到部署在Kubernetes上的应用程序)。
Wood表示,深度学习容器包括许多针对AWS的优化和改进,使它们能够在云中提供训练和推理的最高性能。对TensorFlow的优化允许某些AI模型通过显著提高的GPU扩展使训练速度加快两倍。
“AWS深度学习容器与Amazon EKS和Amazon ECS紧密集成,提供多重选择和灵活性,构建用于训练,验证和部署自定义机器学习工作流程,通过此集成,Amazon EKS和Amazon ECS可处理在虚拟机群集上部署和扩展AWS深度学习容器所需的所有容器编排。”
从今天开始,AWS深度学习容器在AWS Marketplace和Elastic Container Registry中均可免费获取。
几个月前,亚马逊在拉斯维加斯举行的年度re:Invent大会上,推出了为云推理定制的高吞吐量、低延迟处理器Inferentia,支持NT8、FP16和混合精度,以及多种机器学习框架,包括TensorFlow、Caffe2和ONNX。预计今年可在AWS产品中使用,包括EC2和亚马逊的SageMaker。
Elastic Inference Engine服务则允许客户将GPU驱动的推理加速附加到任何Amazon EC2或Amazon SageMaker实例上。弹性推理引擎完全兼容TensorFlow、Apache MXNet和ONNX,亚马逊表示,它可以将深度学习成本降低多达75%。