软件提供商与 NVIDIA 一起帮助客户建立更有效的 AI管线
开发 AI 应用并不容易,而将它们应用于业务之上,这个难度系数则变得更高。
根据 IDC 最近的一项调查,在已经开始采用 AI 的企业中,只有不到三分之一的企业真正将 AI 投入生产。
企业往往要等到发布一个应用之前,才能完全意识到运行 AI 的复杂性。这些临时发现的问题似乎无法很快地得到解决,因此部署工作往往被搁置和遗忘。
为了帮助企业顺利完成 AI 部署,100 多家机器学习运维(MLOps)软件提供商正在与 NVIDIA 开展合作。这些 MLOps 领域的先锋企业提供丰富的解决方案,帮助企业优化他们的 AI 流程,包括现有运行的以及重建的管线。
许多 NVIDIA MLOps 和 AI 平台生态合作伙伴以及 DGX-Ready Software 合作伙伴,包括 Canonical、ClearML、Dataiku、Domino Data Lab、Run:ai 和 Weights & Biases 等在内的公司,正在构建与 NVIDIA 加速的基础设施和软件相集成的解决方案,以满足企业的 AI 运行需求。
包括亚马逊云、谷歌云、微软 Azure、甲骨文云等 NVIDIA 云服务提供商合作伙伴,以及阿里云等其他全球合作伙伴,也在提供简化 AI 部署的 MLOps 解决方案。
NVIDIA 领先的 MLOps 软件合作伙伴均通过 NVIDIA AI Enterprise 软件套件的验证和认证,该套件提供了一个用于创建和加速生产级 AI 的端到端平台。结合 NVIDIA AI Enterprise, NVIDIA MLOps 合作伙伴所提供的工具可以帮助企业成功开发和部署 AI。
以下 NVIDIA MLOps 和 AI 平台合作伙伴可以帮助企业启动和运行 AI:
-
Canonical:在加速大规模 AI 部署的同时,为 AI 的开发开放源码。Canonical 宣布,部署在 NVIDIA DGX 系统单节点和多节点上的 Charmed Kubeflow 现已获准加入 DGX-Ready Software 计划。Charmed Kubeflow 旨在实现机器学习工作流程的自动化,它创建了一个可以将模型转移到生产中的可靠应用层。
-
ClearML:提供一个用于持续机器学习的统一开源平台,覆盖从实验管理、编排到性能提升以及 机器学习 的生产部署,受到全球 1,300 家企业团队的信任。通过 ClearML,企业可以在个性化的运算组织构造上编排和安排工作。无论是在本地还是在云端,企业都可以实现基础设施使用情况的完全可视化,同时减少计算、硬件和资源消耗,优化成本和性能。现在,ClearML 的 MLOps 平台已获准运行 NVIDIA AI Enterprise,在整个工作流程中的效率将变得更高,能够更好地优化 GPU 性能。
-
Dataiku:提供一个使数据和领域专家能够在一起将 AI 融入到日常运营中的 Everyday AI 平台。Dataiku 现已获准加入 NVIDIA DGX-Ready Software 计划,因此企业可以放心地将 Dataiku MLOps 平台与 NVIDIA DGX AI 超级计算机一起使用。
-
Domino Data Lab:所提供的一站式管理平台使全球最先进的企业能够在所有地区运行基于任何云或本地计算集群中的数据科学和机器学习工作负载。Domino Cloud 是一项全新的全托管式 MLOps 平台即服务,现在可用于快速、简单的大规模数据科学研究。Domino Data Lab 的平台去年获准在 NVIDIA AI Enterprise 上运行,它可以降低部署风险,并与 NVIDIA AI 实现可靠、高性能的集成。
-
Run:ai:通过其 AI 计算平台 Atlas,在企业的 MLOps 和 AI 基础设施堆栈中发挥基础层作用。该平台的自动化资源管理功能使企业机构能够适当整合在 Run:ai Atlas 上运行的不同 MLOps 平台与工具的资源。Run:ai 已获准提供 NVIDIA AI Enterprise,而且还完全集成了 NVIDIA Triton 推理服务器,最大程度地提高了 GPU 在 AI 赋能的环境中的利用率和价值。
-
Weights & Biases(W&B):帮助机器学习团队更快地构建更好的模型。只需几行代码,从业者就可以立即调试、比较和复制他们的模型,同时与他们的团队成员开展合作。W&B 得到了全球领先企业和研究机构 50 多万名机器学习从业人员的信任。Weights & Biases 已获准提供 NVIDIA AI Enterprise,着眼于加速包括计算机视觉、自然语言处理和生成式 AI 的深度学习工作负载。
NVIDIA 云服务提供商合作伙伴已将 MLOps 集成其平台,为数据处理、整理、训练和推理任务提供 NVIDIA 加速计算与软件:
-
亚马逊云:Amazon SageMaker for MLOps 使用 NVIDIA 加速计算帮助开发人员在整个机器学习生命周期中实现流程的自动化和标准化。通过训练、测试、排查、部署和治理机器学习模型提高生产力。
-
谷歌云:全托管式机器学习平台 Vertex AI 通过汇集大量特定功能,帮助加快机器学习的部署速度。通过 NVIDIA GPU 为各种 AI 工作负载提供优化,Vertex AI 的端到端 MLOps 能力使机器学习的大规模训练、编排、部署和管理变得更加容易。Vertex AI 还支持各种领先的边缘解决方案,比如最大程度地提高性能并简化模型大规模部署的 NVIDIA Merlin 等。谷歌云和 NVIDIA 合作,将 Triton 推理服务器作为谷歌云的全托管式模型服务平台——Vertex AI Prediction 的后台。
-
Azure:通过 NVIDIA 加速的 Azure Machine Learning 机器学习云平台 统一了机器学习模型的开发和运维(DevOps),还将 DevOps 原则与实践,比如持续集成、交付和部署等,应用于机器学习的流程,以加速将 Azure 机器学习模型部署到生产环境中的实验、开发和生产部署。Azure Machine Learning 通过内置的负责任 AI 工具提供质量保证,帮助机器学习专业人士开发公平、可解释和负责任的模型。
-
Oracle Cloud:Oracle Cloud Infrastructure(OCI)AI Services 是一个提供预制机器学习模型的服务集,它能够帮助开发人员方便地在其应用和业务运营中使用NVIDIA 加速的 AI。企业内部的团队可以在各项服务中重复使用这些模型、数据集和数据标签。OCI AI Services 使开发人员在不减慢应用开发的同时,轻松将机器学习植入应用成为可能。
-
阿里云:阿里云机器学习平台 PAI 提供一站式的机器学习服务,提供高性能的解决方案并减少对用户的技术技能的要求。在 NVIDIA 技术的加速下,阿里云机器学习平台 PAI 使企业能够快速建立和部署机器学习实验以达成业务目标。
扫描海报二维码,或点击“阅读原文”,即可观看 NVIDIA 创始人兼首席执行官黄仁勋 GTC23 主题演讲重播!
原文标题:GTC23 | 众人拾柴火焰高:100 多家 NVIDIA MLOps 和 AI 平台合作伙伴帮助企业将 AI 投入生产
文章出处:【微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。
-
英伟达
+关注
关注
22文章
3771浏览量
90992
原文标题:GTC23 | 众人拾柴火焰高:100 多家 NVIDIA MLOps 和 AI 平台合作伙伴帮助企业将 AI 投入生产
文章出处:【微信号:NVIDIA-Enterprise,微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论