0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

使用NVIDIA Triton推理服务器来加速AI预测

NVIDIA英伟达企业解决方案 来源:NVIDIA英伟达企业解决方案 2024-02-29 14:04 次阅读

这家云计算巨头的计算机视觉和数据科学服务使用 NVIDIA Triton 推理服务器来加速 AI 预测。

作为一名狂热的自行车爱好者,Thomas Park 深知拥有多个变速档位对于平稳、快速骑行的重要性。

因此,当这位软件架构师为 Oracle Cloud Infrastructure(OCI)的视觉 AI 服务设计 AI 推理平台时,他选择了 NVIDIA Triton 推理服务器,因为它可以通过变换“档位”,来快速高效地处理几乎任何 AI 模型、框架、硬件和运行模式。

Park 表示:“NVIDIA AI推理平台为我们的全球云服务客户带来了巨大的灵活性,让他们可以构建和运行 AI 应用。”Park 是一位在苏黎世工作的计算机工程师,同时也是一名富有竞争力的自行车手,他曾先后就职于四家全球超大型云服务提供商。

具体而言,Triton 将 OCI 的总拥有成本降低了 10%、将迁移到 Triton 的 OCI 视觉和文档理解服务模型的预测吞吐量提高了 76%,并将推理延迟降低了 51%。Park 和一位同事在今年早些时候发布的一篇 Oracle 博客中指出,全球有超过 45 个区域数据中心在运行这些服务。

计算机视觉加速深入洞察

依靠 OCI 视觉 AI,客户可以进行各种物体检测和图像分类工作。例如,美国的一家运输公司利用它来自动检测经过的车轴数,以计算和结算过桥费,从而节省了忙碌的卡车司机在收费站的等待时间。

OCI AI 还通过 Oracle NetSuite 提供,Oracle NetSuite 是全球 37,000 多个企业组织使用的一套商业应用程序,它可以用于自动识别发票等工作。

在 Park 的努力下,Triton 如今也被其他 OCI 服务所采用。

能够识别 Triton 的数据服务

负责处理 Oracle 内外部用户机器学习事务的 OCI 数据科学服务产品管理总监 Tzvi Keisar 表示:“我们的 AI 平台能够识别 Triton,以造福于我们的客户。”

Keisar 提到:“想要使用 Triton 的客户不必担心配置问题,因为平台会自动完成配置,为他们启动一个 Triton 驱动的推理终端节点。”

Triton 包含在 NVIDIA AI Enterprise 中,该平台可提供企业所需的全方位的安全和支持,并且可以在 OCI Marketplace 上获得

一个庞大的 SaaS 平台

OCI 的数据科学服务是一个适用于 Oracle NetSuite 和 Oracle Fusion 应用程序的机器学习平台。

“这些商业应用套件规模庞大,有数以万计的客户也在我们的服务上构建他们的框架。”Keisar 说。

这些客户主要是来自于制造业、零售业、交通运输业等行业的企业用户。他们正在构建和使用几乎所有形态与规模的 AI 模型。

推理是该团队推出的首批服务之一,而 Triton 在推出后不久就进入了该团队的视线。

最佳的推理框架

“我们看到 Triton 作为一流的服务框架越来越受欢迎,于是开始试用。”Keisar 说,“我们发现它的性能非常出色,弥补了现有产品的不足,尤其是在多模型推理方面。它是目前功能最全面、最先进的推理框架。”

Triton 于 3 月在 OCI 上发布,已经吸引了 Oracle 许多内部团队的关注。他们希望将其用于需要同时运行多个 AI 模型以作出预测的推理工作。

他表示:“当用于部署在单个端点上的多个模型时,Triton 的表现和性能都非常好。”

加快未来发展

展望未来,复杂的大语言模型(LLM)激发了众多用户的想象力。为了能够在未来为这些模型上的推理提供更强大的助力,Keisar 的团队正在对 NVIDIA TensorRT-LLM 软件进行评估。

身为一名活跃的博主,Keisar 在其最新文章中详细介绍了在 NVIDIA A10 Tensor Core GPU 上运行具有高达 700 亿参数的 Llama 2 LLM 的量化技术。

他表示:“即使减低到四位参数,模型输出的质量仍然相当不错。在 NVIDIA GPU 上的部署使我们能够灵活地在延迟、吞吐量和成本之间找到良好的平衡点。”




审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    5075

    浏览量

    103612
  • 计算机视觉
    +关注

    关注

    8

    文章

    1700

    浏览量

    46097
  • LLM
    LLM
    +关注

    关注

    0

    文章

    298

    浏览量

    388

原文标题:名不虚传:NVIDIA Triton 加速 Oracle Cloud 上的推理

文章出处:【微信号:NVIDIA-Enterprise,微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    GPU加速服务器怎么用的

    GPU加速服务器是将GPU硬件与云计算服务相结合,通过云服务提供商的平台,用户可以根据需求灵活租用带有GPU资源的虚拟机实例。那么,GPU加速
    的头像 发表于 12-26 11:58 122次阅读

    Triton编译在机器学习中的应用

    1. Triton编译概述 Triton编译NVIDIA Triton
    的头像 发表于 12-24 18:13 501次阅读

    日本企业借助NVIDIA产品加速AI创新

    日本领先企业和大学正在使用 NVIDIA NeMo、NIM 微服务NVIDIA Isaac 加速 AI 创新。
    的头像 发表于 11-19 14:34 394次阅读

    NVIDIA助力丽蟾科技打造AI训练与推理加速解决方案

    丽蟾科技通过 Leaper 资源管理平台集成 NVIDIA AI Enterprise,为企业和科研机构提供了一套高效、灵活的 AI 训练与推理加速
    的头像 发表于 10-27 10:03 307次阅读
    <b class='flag-5'>NVIDIA</b>助力丽蟾科技打造<b class='flag-5'>AI</b>训练与<b class='flag-5'>推理</b><b class='flag-5'>加速</b>解决方案

    NVIDIA与思科合作打造企业级生成式AI基础设施

    NVIDIA 加速计算平台、NVIDIA AI Enterprise 软件和 NVIDIA NIM
    的头像 发表于 10-10 09:35 413次阅读

    NVIDIA AI服务器领域重大革新:预计明年首推插槽式设计

    在科技界引起广泛关注的最新动态中,里昂证券于9月26日发布了一份引人注目的报告,揭示了NVIDIAAI服务器领域的一项重大变革。据该报告透露,NVIDIA即将在
    的头像 发表于 09-26 14:25 862次阅读

    什么是AI服务器AI服务器的优势是什么?

    AI服务器是一种专门为人工智能应用设计的服务器,它采用异构形式的硬件架构,通常搭载GPU、FPGA、ASIC等加速芯片,利用CPU与加速芯片
    的头像 发表于 09-21 11:43 1011次阅读

    AMD助力HyperAccel开发全新AI推理服务器

    HyperAccel 是一家成立于 2023 年 1 月的韩国初创企业,致力于开发 AI 推理专用型半导体器件和硬件,最大限度提升推理工作负载的存储带宽使用,并通过将此解决方案应用于
    的头像 发表于 09-18 09:37 452次阅读
    AMD助力HyperAccel开发全新<b class='flag-5'>AI</b><b class='flag-5'>推理</b><b class='flag-5'>服务器</b>

    NVIDIA助力提供多样、灵活的模型选择

    在本案例中,Dify 以模型中立以及开源生态的优势,为广大 AI 创新者提供丰富的模型选择。其集成的 NVIDIAAPI Catalog、NVIDIA NIM和Triton 推理
    的头像 发表于 09-09 09:19 527次阅读

    NVIDIA携手Meta推出AI服务,为企业提供生成式AI服务

    NVIDIA近日宣布了一项重大举措,正式推出NVIDIA AI Foundry服务NVIDIA NIM(
    的头像 发表于 07-25 16:57 596次阅读

    英伟达推出全新NVIDIA AI Foundry服务NVIDIA NIM推理服务

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服务NVIDIA NIM 推理
    的头像 发表于 07-25 09:48 779次阅读

    AI服务器的特点和关键技术

    AI服务器,即人工智能服务器,是一种专门设计用于运行和加速人工智能(AI)算法与模型的硬件设备。随着人工智能技术的快速发展和普及,
    的头像 发表于 07-17 16:34 1943次阅读

    英伟达推出AI模型推理服务NVIDIA NIM

    英伟达近日宣布推出一项革命性的AI模型推理服务——NVIDIA NIM。这项服务将极大地简化AI
    的头像 发表于 06-04 09:15 720次阅读

    利用NVIDIA组件提升GPU推理的吞吐

    本实践中,唯品会 AI 平台与 NVIDIA 团队合作,结合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)将
    的头像 发表于 04-20 09:39 812次阅读

    台积电:AI服务器处理预计翻番,拉动收入增长 

    台积电将 AI 服务器处理严格限定为用于 AI 训练与推理的 GPU、CPU 及 AI
    的头像 发表于 04-19 15:04 399次阅读