英特尔首次推出针对神经网络模型的nGraph编译器
2018年03月30日 由 nanan 发表
521406
0
英特尔基于开源软件新nGraph DNN编译器将目标对准了英伟达,使得在不同类型的硬件上运行神经网络变得更加容易。
首席信息官(CIO)们通常会使用基于英伟达的GPU来测试和部署使用深度神经网络模型的AI项目。深度神经网络(DNN)是一种AI系统,在输入层和输出层之间有多个隐藏层,用于建模复杂的非线性关系。许多人在决定用公司的AI工作平台时都在引用英伟达成熟的工具、硬件和cuDNN库。
竞争对手英特尔希望通过最近发布的nGraph DNN编译器在这个新兴领域提升自己的地位,芯片制造商将其描述为“框架中立软件”,可以从TensorFlow、MXNet、PyTorch和CNTK等流行的机器学习框架中获得输入并优化他们针对不同类型的AI硬件,包括CPU。
该公司表示,使神经网络模型能够在不同的框架上运行是有问题的,因为开发人员“必须将模型的本质与对特定硬件使用的性能调整区分开来”。英特尔AI产品小组的首席工程师Scott Cyphers表示,该公司设计了nGraph库来降低这种工程复杂性。
鉴于英伟达在这AI领域的强大领先地位,分析师认为,这种能力对于短期内改变神经网络模型实施的深度现状没有多大作用。但从长远来看,英特尔的新型开源编译器可能会让其他厂商的AI产品更容易在公司的神经网络处理器、现场可编程门阵列和Movidius芯片之上实现。
深度学习平台提供商Deep Cognition的首席数字官Mahesh Kashyap表示:“我认为英特尔公开采购模型编译器是一件好事,它将加速这一领域的创新。”深度认知主要使用各种机器学习框架附带的内置编译器。
Kashyap认为nGraph在当前所使用的机器学习编译器中是新颖的,因为它解决了互操作性问题。他说:“nGraph很适合于深度学习框架,对用户来说它几乎是不可见的,这意味着它可以更容易地集成到现有的机器学习过程中。”
尽管如此,Kashyap表示,他期望看到英伟达在用于训练深度神经网络模型的高性能计算基础架构中占据主导地位,即使nGraph编译器在编译和分发生产模型时更容易,尤其是嵌入式系统。
英特尔已经报告了基于英特尔芯片的最新版nGraph编译的神经网络模型的显著性能改进。据Kashyap称,与其他芯片架构相比,这并没有带来任何重大改进。
事实上,其他人认为英特尔的最新举动在更深层次的深度神经网络模型的工作中显得微不足道。
AI数据管理平台提供商iguazio的创始人兼首席技术官Yaron Haviv表示:“我建议英特尔把精力集中在产生真正的芯片响应上,而不是对抗英伟达在芯片领域的主导地位。”他表示,他不希望开发人员在英伟达硬件上使用英特尔的编译器,因为英伟达的编译器会比nGraph的性能更好,并最大限度地提高供应商芯片的应用性能。
英特尔可能正试图为未来准备一个抽象层,通过阻止开发人员直接编写英伟达API来使其Nervana AI芯片更易于使用。这将降低未来英特尔芯片的转换成本。“但我不认为会有很多人急着采用它,”Haviv说。
然而,深度神经网络模型有时依赖于将一些计算分配给CPU,以减少GPU上需要分析的搜索空间。这类方法可能受益于跨GPU、CPU和其他类型芯片的机器学习编译器。
制造机器学习软件的Anaconda首席执行官Peter Wang说:“英特尔认识到深度神经网络和深度学习主要是在GPU上完成的,英特尔希望确保更多的计算机时间在GPU上完成。”
尽管nGraph在深度学习的计算密集方面不可能缩小与GPU的差距,但它可能会开放更多关于使用CPU来解决问题的部分和使用GPU的解决方案的研究。Peter Wang说:“如果在未来五年内,AI工具和硬件方面的销售额和营业额没有什么变化,我并不会感到惊讶。”