NVIDIA与Run合作,优化跨多云环境的人工智能应用程序部署
2023年07月11日 由 Susan 发表
320922
0
NVIDIA与Run:人工智能将提供一致的全栈解决方案,使开发人员能够在基于GPU的本地或云端实例上构建和测试他们的人工智能应用程序。
一旦在基于GPU的NVIDIA平台上开发和验证了一个人工智能应用程序,它就可以在任何其他基于GPU的平台上部署,而无需进行大量的代码更改。这种灵活性使得组织可以在混合和多云环境中无缝部署人工智能应用程序,节省时间和精力,同时保持一致的性能表现。
NVIDIA认识到,MLOps团队和开发人员面临将人工智能应用程序适应于不同目标平台的复杂性,这是由于技术栈的不断变化所导致的。NVIDIA使组织能够充分发挥人工智能的潜力,而无需大量的代码修改的负担。
Run:ai是人工智能工作负载的计算编排领域的行业领导者,已在其Atlas平台上认证了NVIDIA AI Enterprise,这是一个端到端、安全、云原生的人工智能软件套件。
Run:ai Atlas包括GPU编排功能,可以帮助研究人员更高效地使用GPU。他们通过自动化人工智能工作负载的编排、团队和集群间硬件资源的管理和虚拟化来实现这一点。
Run:ai可以安装在任何Kubernetes集群上,为您的人工智能基础设施提供高效的调度和监控能力。使用NVIDIA Cloud Native Stack VMI,您可以将云实例添加到Kubernetes集群中,使其成为集群的GPU加速的工作节点。
客户可以通过NVIDIA合作伙伴购买NVIDIA AI Enterprise,以获得对NVIDIA VMI和GPU Operator的企业支持。
来源:https://analyticsindiamag.com/nvidia-and-runai-streamlines-ai-application-deployment-across-multi-cloud-environments/