英特尔发布新型AI芯片,可以提高AI开发和部署的性能
2019年11月13日 由 KING 发表
406326
0
英特尔于2019年11月12日在旧金山举行的公司AI峰会上展示了英特尔的新型神经网络处理器(NNP),这是英特尔首款专用的ASIC芯片,旨在加速AI系统开发和从云到边缘部署,同时可为云和数据中心客户提供复杂、高效的深度学习服务。英特尔还发布了用于边缘媒体、计算机视觉推理应用的下一代英特尔Movidius™Myriad™视觉处理单元(VPU)。
英特尔公司副总裁兼英特尔人工智能产品部门总经理Naveen Rao表示:“ 在下一阶段的AI计划中,我们将在计算硬件和内存方面达到一个突破点。诸如英特尔Nervana NNP和Movidius Myriad VPU之类的专用硬件是继续AI发展所必需的。使用更高级的系统级AI形式将帮助我们从数据转换为信息向信息转换为知识转变” 。这些产品进一步增强了英特尔的AI解决方案组合,预计在2019年将产生超过35亿美元的收入。英特尔的AI产品组合是行业内覆盖率最高的产品,可帮助客户实现从大规模的云到微小的边缘设备之间的所有设备上开发和部署AI模型。
新型英特尔Nervana NNP现已投入生产并交付给客户,它是系统级AI方法的一部分,该方法提供了完整的软件堆栈,该软件堆栈采用开放组件和深度学习框架集成开发,以实现最大程度的使用。
英特尔Nervana NNP-T在计算、通信和存储之间实现了真正的平衡,从而实现了从小型集群到最大的Pod超级计算机的近线性高能效扩展。英特尔Nervana NNP-I具有高能效和预算优势,非常适合在现实世界中运行密集的多模式推理。两种产品都是为满足百度和Facebook等领先AI客户的处理需求而开发的。Facebook AI系统协同设计总监Misha Smelyanskiy说:“ 我们很高兴能与英特尔合作,使用Intel Nervana神经网络处理器来部署更快、更高效的推理计算模型,并将对我们最新的深度学习编译器Glow的支持扩展到NNP-I ”。
此外,计划在2020年上半年推出的下一代英特尔Movidius VPU融合了独特、高效的架构优势,推理性能有望是上一代产品的10倍以上、效率是竞争对手处理器的六倍。英特尔还宣布了其新的面向边缘的英特尔®DevCloud,它与英特尔®OpenVINO™工具包发行版一起解决了开发人员面临的一个关键难题,允许他们在各种英特尔处理器上尝试原型设计和测试AI解决方案。随着全球大部分地区的AI都在Intel®Xeon®™可扩展处理器上运行,英特尔继续通过具有矢量神经网络指令(VNNI)的英特尔®深度学习增强功能来改善该平台,从而在整个英特尔®处理器上增强AI推理性能数据中心和边缘部署。尽管多年来它将继续作为强大的AI基础,但英特尔客户最先进的深度学习培训需求要求每3.5个月将性能提高一倍,而只有像英特尔公司这样的AI解决方案组合才能实现这些突破。英特尔能够全面了解计算,内存,存储,互连,封装和软件的全貌,以最大程度地提高效率,可编程性,并确保扩大在数千个节点上依次分布深度学习的关键能力,从而更好的为客户提供服务。