这家初创公司通过共享加速计算基础设施促进 AI 工作负载高效集群的资源利用。
为了帮助客户更加高效地利用其 AI 计算资源,NVIDIA 宣布与基于 Kubernetes 的工作负载管理和编排软件提供商 Run:ai 达成最终收购协议。
客户的 AI 部署正变得更加复杂,其工作负载分布在各个云、边缘和本地数据中心基础设施上。
生成式 AI、推荐系统、搜索引擎等工作负载的管理和编排需要精密复杂的调度,才能优化系统级别和底层基础设施的性能。
无论是在本地、云端还是在混合环境中,Run:ai 都可以帮助企业客户管理并优化其计算基础设施。
Run:ai 在 Kubernetes(现代 AI 和云基础设施编排层)上建立了一个开放平台。该平台支持所有热门的 Kubernetes 变体,并与第三方 AI 工具和框架集成。
Run:ai 的客户中有来自多个行业的全球超大型企业,他们使用 Run:ai 平台管理数据中心规模的 GPU 集群。
Run:ai 联合创始人兼首席执行官 Omri Geller 表示:
Run:ai 从 2020 年开始一直与 NVIDIA 开展密切合作。我们都热衷于帮助客户充分发挥他们基础设施的作用。Run:ai 十分高兴能够加入 NVIDIA 并期待继续双方的合作。
Run:ai 平台为 AI 开发者及其团队提供以下功能:
用于管理共享计算基础设施的集中式界面,能够使复杂 AI 工作负载的访问变得更加简单、快速。
提供添加用户、在团队下管理用户、提供对集群资源的访问、控制配额、优先级别和池,以及监控和报告资源使用情况的功能。
针对不同的任务能够将 GPU 池化并共享算力——从 GPU 分块到多个 GPU 或者在不同集群上运行的多个 GPU 节点。
高效利用 GPU 集群资源,使客户能够从算力投资中获得更大回报。
在不久的将来,NVIDIA 将继续以相同的商业模式提供 Run:ai 产品。同时将继续投资 Run:ai 产品路线图,将其纳入到 NVIDIA DGX Cloud 中。NVIDIA DGX Cloud 是一个与领先的云服务提供商共同设计的针对企业开发人员的 AI 平台,它能够为生成式 AI 提供综合全面的全栈优化服务。
NVIDIA DGX 和 DGX Cloud 客户将获得 Run:ai 为其 AI 工作负载(尤其是大语言模型部署)所提供的功能。Run:ai 的解决方案已经与 NVIDIA DGX、NVIDIA DGX SuperPOD、NVIDIA Base Command、NGC 容器和 NVIDIA AI Enterprise 软件等产品集成。
NVIDIA 加速计算平台和 Run:ai 平台将继续支持广大第三方解决方案生态系统,为客户提供选择和灵活性。
通过与 Run:ai 的合作,NVIDIA 将为客户提供一个可在任何位置访问 GPU 解决方案的单一架构。客户有望受益于更高的 GPU 利用率、更好的 GPU 基础设施管理以及开放式架构所带来的更大灵活性。
审核编辑:刘清
-
NVIDIA
+关注
关注
14文章
4946浏览量
102821 -
gpu
+关注
关注
28文章
4703浏览量
128714 -
大模型
+关注
关注
2文章
2335浏览量
2493
原文标题:NVIDIA 收购 GPU 编排软件提供商 Run:ai
文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论