0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于NVIDIA Triton的AI模型高效部署实践

NVIDIA英伟达企业解决方案 来源:NVIDIA英伟达企业解决方案 作者:NVIDIA英伟达企业解 2022-06-28 15:49 次阅读

在每周的预告中,你可以:

了解一周的在线研讨会时间及详细内容,选择感兴趣的研讨会并提前安排收听时间;

找到每场研讨会的参会方式,保存并转发到朋友圈及微信群,与朋友分享精彩内容。

基于 NVIDIA Triton 的 AI 模型高效部署实践

内容

NVIDIA Triton 推理服务器(以前称为 TensorRT 推理服务器)是一款开源软件,可简化深度学习模型在生产环境中的部署。借助 Triton 推理服务器,Devops 和 MLops 团队可以将各类框架(TensorFlowPyTorch、TensorRT、ONNX Runtime、MXNet、XGBoost 等或自定义框架后端)训练的 AI 模型,在基于 GPUCPU 的本地、数据中心、云、边缘云等平台,快速可靠地部署在诸如 Kubernetes、KFServing、Prometheus、Grafana 等大规模生产环境中,并轻松扩展。

借助 NVIDIA Ampere 架构 Tensor Core 和多实例并行运行多个工作负载( MIG ),Triton 推理服务器可以最大化 A100 GPU 和 A30 GPU 的利用率。它不仅可在单个 NVIDIA GPU 上同时运行多个模型,以更大限度地提高利用率,与 Kubernetes 集成以用于编排、指标和自动扩展,还可以让多个用户共享一个 GPU ,通过将单个 GPU 划分为多个 GPU 实例,让每个实例都有专用的内存和计算资源,在确保执行工作负载的同时,保证服务质量和故障隔离。

本次研讨会 NVIDIA 解决方案架构师张萌将参与主讲环节, NVIDIA 解决方案架构师申意则将主要参与问答环节。

通过本次在线研讨会您将了解以下内容:

应用 Triton 的收益

基于 Ampere 架构多实例 GPU 特性和 K8s 实现 Triton 大规模部署

如何使用 Triton 部署端到端的 CV 模型

Triton 在行业内的一些应用案例

日程

6 月 28 日,周二,19:00 – 20:00

演讲嘉宾

张萌

NVIDIA 解决方案架构师

申意

NVIDIA 解决方案架构师

内容

随着人工智能、数据科学、虚拟仿真等数据流量负载呈现指数增长,企业需要在任何位置都有足够的处理能力,这对传统的数据中心基础设施带来全新挑战与巨大冲击,需要构建现代数据中心来支撑企业业务应用。

NVIDIA BlueField DPU 是一款非常强大的片上数据中心基础设施,可用于卸载、加速和隔离在主机 CPU 上运行的各种软件定义基础设施服务,将数据中心基础设施与业务应用解耦,提升在云计算、数据中心或边缘计算的性能、安全性和效率,突破性能和可扩展性的瓶颈,并消除现代数据中心的安全威胁,简化运营并降低总拥有成本( TCO)。

为了充分发挥 BlueField DPU 这一强大的片上数据中心基础设施硬件能力,简单、高效的 NVIDIA DOCA 软件框架应运而生,为开发者打造一个全面、开放的开发平台,支持广大的开发者在 BlueField DPU 上进行简单、灵活的软件开发,让开发者可以快速创建 BlueField DPU 加速的、高性能应用程序和服务。

本次课程将帮助开发者深入了解如下内容:

什么是 DPU?

NVIDIA BlueField DPU 简介

NVIDA DOCA 软件框架

NVIDIA BlueField DPU 加速功能

日程

6 月 30 日,星期四,20:00 – 21:00

演讲嘉宾

崔岩

NVIDIA 网络技术专家

负责以技术角度推进 DPU 和 DOCA 产品及联合解决方案在中国的市场营销,驱动 DOCA 开发者社区在中国的增长与发展,促进客户与合作伙伴在未来数据中心基础设施上取得成功。

原文标题:一周预告丨本周 NVIDIA 在线研讨会精彩亮点抢先看

文章出处:【微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4929

    浏览量

    102790
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4700

    浏览量

    128673
  • 服务器
    +关注

    关注

    12

    文章

    9010

    浏览量

    85160
  • AI
    AI
    +关注

    关注

    87

    文章

    30072

    浏览量

    268337

原文标题:一周预告丨本周 NVIDIA 在线研讨会精彩亮点抢先看

文章出处:【微信号:NVIDIA-Enterprise,微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    AI模型部署和管理的关系

    AI模型部署与管理是AI项目成功的两大支柱,它们之间既相互独立又紧密相连,共同推动着AI技术从实验室走向实际应用。
    的头像 发表于 11-21 10:02 51次阅读

    NVIDIA与德勤共同部署适用于医疗健康的数字AI智能体

    渥太华医院使用 NVIDIA AI 驱动的德勤 Frontline AI Teammate 来部署 AI 助手,以提供更好的患者体验并减轻管
    的头像 发表于 11-13 11:37 273次阅读

    企业AI模型部署怎么做

    AI模型部署作为这一转型过程中的关键环节,其成功实施对于企业的长远发展至关重要。在此,AI部落小编为您介绍企业AI
    的头像 发表于 11-04 10:15 98次阅读

    NVIDIA NIM助力企业高效部署生成式AI模型

    Canonical、Nutanix 和 Red Hat 等厂商的开源 Kubernetes 平台集成了 NVIDIA NIM,将允许用户通过 API 调用来大规模地部署大语言模型
    的头像 发表于 10-10 09:49 358次阅读

    NVIDIA助力提供多样、灵活的模型选择

    在本案例中,Dify 以模型中立以及开源生态的优势,为广大 AI 创新者提供丰富的模型选择。其集成的 NVIDIAAPI Catalog、NVIDIA NIM和
    的头像 发表于 09-09 09:19 434次阅读

    NVIDIA RTX AI套件简化AI驱动的应用开发

    NVIDIA 于近日发布 NVIDIA RTX AI套件,这一工具和 SDK 集合能够帮助 Windows 应用开发者定制、优化和部署适用于 Windows 应用的
    的头像 发表于 09-06 14:45 394次阅读

    借助NVIDIA NIM加速AI应用部署

    大语言模型(LLM)在企业组织中的应用日益广泛,许多企业都将其整合到 AI 应用中。虽然从基础模型着手十分高效,但需要花费一定的精力才能将它们整合到生产就绪型环境中。
    的头像 发表于 08-23 16:38 355次阅读
    借助<b class='flag-5'>NVIDIA</b> NIM加速<b class='flag-5'>AI</b>应用<b class='flag-5'>部署</b>

    NVIDIA AI Foundry 为全球企业打造自定义 Llama 3.1 生成式 AI 模型

    Foundry 提供从数据策管、合成数据生成、微调、检索、防护到评估的全方位生成式 AI 模型服务,以便部署自定义 Llama 3.1 NVIDIA NIM 微服务和新的
    发表于 07-24 09:39 678次阅读
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> Foundry 为全球企业打造自定义 Llama 3.1 生成式 <b class='flag-5'>AI</b> <b class='flag-5'>模型</b>

    英伟达推出Flextron AI框架:赋能灵活高效AI模型部署

    在人工智能与机器学习领域,随着技术的不断演进,模型高效部署与适应性成为研究的新热点。近日,英伟达与德克萨斯大学奥斯汀分校携手宣布了一项重大突破——推出了一种名为FLEXTRON的新型灵活模型
    的头像 发表于 07-18 15:22 2692次阅读

    英伟达推出AI模型推理服务NVIDIA NIM

    英伟达近日宣布推出一项革命性的AI模型推理服务——NVIDIA NIM。这项服务将极大地简化AI模型部署
    的头像 发表于 06-04 09:15 636次阅读

    NVIDIA与微软扩展合作,帮助开发者更快构建和部署AI应用

    NVIDIA 在 Microsoft Build 开发者大会上展示了与 Microsoft Azure 和 Windows PC 的集成解决方案,简化了 AI 模型部署并优化了路径规划
    的头像 发表于 05-23 10:14 372次阅读

    NVIDIA数字人技术加速部署生成式AI驱动的游戏角色

    NVIDIA 在 GDC 2024 大会上宣布,Inworld AI 等领先的 AI 应用程序开发者,正在使用 NVIDIA 数字人技术加速部署
    的头像 发表于 04-09 10:08 622次阅读
    <b class='flag-5'>NVIDIA</b>数字人技术加速<b class='flag-5'>部署</b>生成式<b class='flag-5'>AI</b>驱动的游戏角色

    使用CUBEAI部署tflite模型到STM32F0中,模型创建失败怎么解决?

    看到CUBE_AI已经支持到STM32F0系列芯片,就想拿来入门嵌入式AI。 生成的模型很小,是可以部署到F0上的,但是一直无法创建成功。 查阅CUBE
    发表于 03-15 08:10

    使用NVIDIA Triton推理服务器来加速AI预测

    这家云计算巨头的计算机视觉和数据科学服务使用 NVIDIA Triton 推理服务器来加速 AI 预测。
    的头像 发表于 02-29 14:04 542次阅读

    利用NVIDIA产品技术组合提升用户体验

    本案例通过利用NVIDIA TensorRT-LLM加速指令识别深度学习模型,并借助NVIDIA Triton推理服务器在NVIDIA V1
    的头像 发表于 01-17 09:30 647次阅读