0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

在 NGC 上玩转新一代推理部署工具 FastDeploy,几行代码搞定 AI 部署

NVIDIA英伟达企业解决方案 来源:未知 2022-12-13 19:50 次阅读

号外:

全场景高性能 AI 部署工具

FastDeploy 发版 v1.0

几行代码搞定 AI 部署,快速使用 150+ 预置部署示例,支持 CV、NLP、Speech、Cross-model 模型,并提供开箱即用的云边端部署体验,实现 AI 模型端到端的推理性能优化。

欢迎广大开发者使用 NVIDIA 与飞桨联合深度适配的 NGC 飞桨容器,在 NVIDIA GPU 上进行体验 FastDeploy!

全场景高性能 AI 部署工具 FastDeploy

人工智能技术在各行各业正加速应用落地。为了向开发者提供产业实践推理部署最优解,百度飞桨发起了 FastDeploy 开源项目。FastDeploy 具备全场景、简单易用、极致高效三大特点。

(1)简单易用:几行代码完成 AI 模型的 GPU 部署,一行命令切换推理后端,快速体验 150+ 热门模型部署

FastDeploy 精心设计模型 API,不同语言统一 API 体验,只需要几行核心代码,就可以实现预知模型的高性能推理,极大降低了 AI 模型部署难度和工作量。一行命令切换 TensorRT、Paddle Inference、ONNX Runtime、Poros 等不同推理后端,充分利用推理引擎在 GPU 硬件上的优势。

import fastdeploy as fd
import cv2
option = fd.RuntimeOption()
option.use_gpu()
option.use_trt_backend() # 一行命令切换使用 TensorRT部署
model = fd.vision.detection.PPYOLOE("model.pdmodel", 
                                    "model.pdiparams", 
                                    "infer_cfg.yml",
                                    runtime_option=option)
im = cv2.imread("test.jpg")
result=model.predict(im)

FastDeploy 几行命令完成 AI 模型部署

FastDeploy 支持 CV、NLP、Speech、Cross-modal(跨模态)四大 AI 领域,覆盖 20 多主流场景、150 多个 SOTA 产业模型的端到端示例,包括图像分类、图像分割、语义分割、物体检测、字符识别(OCR)、人脸检测、人脸关键点检测、人脸识别、人像扣图、视频扣图、姿态估计、文本分类、信息抽取、文图生成、行人跟踪、语音合成等。支持飞桨 PaddleClas、PaddleDetection、PaddleSeg、PaddleOCR、PaddleNLP、PaddleSpeech 6 大热门 AI 套件的主流模型及生态(如 PyTorch、ONNX 等)热门模型的部署。

ce727aea-7adb-11ed-8abf-dac502259ad0.png

FastDeploy 在 NVIDIA GPU、Jetson上的 AI 模型部署库

(2)全场景:支持多框架,轻松搞定 PaddlePaddle、PyTorch、ONNX 等模型部署

FastDeploy 支持 TensorRT、Paddle Inference、ONNX Runtime、Poros 推理引擎,统一部署 API,只需要一行代码,便可灵活切换多个 GPU 推理引擎后端。内置了 X2Paddle 和 Paddle2ONNX 模型转换工具,只需要一行命令便可完成其他深度学习框架到飞桨以及 ONNX 的相互转换,让其他框架的开发者也能通过 FastDeploy 体验到飞桨模型压缩与推理引擎的端到端优化效果。覆盖 GPU、Jetson Nano、Jetson TX2、Jetson AGX、Jetson Orin 等云边端场景全系列 NVIDIA 硬件部署。同时支持服务化部署、离线部署、端侧部署方式。

cefeae48-7adb-11ed-8abf-dac502259ad0.png

(3)极致高效:一键压缩提速,预处理加速,端到端性能优化,提升 AI 算法产业落地

FastDeploy 集成了自动压缩工具,在参数量大大减小的同时(精度几乎无损),推理速度大幅提升。使用 CUDA 加速优化预处理和后处理模块,将 YOLO 系列的模型推理加速整体从 41ms 优化到 25ms。端到端的优化策略,彻底解决 AI 部署落地中的性能难题。更多性能优化,欢迎关注 GitHub 了解详情。

https://github.com/PaddlePaddle/FastDeploy

cf2995a4-7adb-11ed-8abf-dac502259ad0.png

FastDeploy 一行命令实现自动压缩,充分利用硬件资源提升推理速度

cf465f7c-7adb-11ed-8abf-dac502259ad0.png

FastDeploy 提升 AI 任务端到端推理速

直播预告:服务化部署高并发调优实战

12 月 12 日 - 12 月 30 日,《产业级 AI 模型部署全攻略》系列直播课程,FastDeploy 联合 10 家硬件公司与大家直播见面。

12 月 14 日 20:30 开始,NVIDIA 与百度资深专家将为大家带来以“一键搞定服务化部署,实现稳定高并发服务”为主题的精彩分享,详细解说 FastDeploy 服务化部署实战教学,以及如何提升 GPU 利用率和吞吐量!欢迎大家扫码报名获取直播链接,加入交流群与行业精英深度共同探讨 AI 部署落地话题

一键搞定服务化部署

实现稳定高并发服务

cf8eaeb2-7adb-11ed-8abf-dac502259ad0.png

12 月 14 日,星期三,20:30

精彩亮点

  • 企业级 NGC 容器,快速获取强大的软硬件能力

  • 三行代码搞定 AI 部署,一键体验 150+ 部署 demo

  • 服务化部署实战教学,提升 GPU 利用率和吞吐量

会议嘉宾

cfa5c0fc-7adb-11ed-8abf-dac502259ad0.jpg

Adam | NVIDIA 亚太区资深产品经理

cfd0522c-7adb-11ed-8abf-dac502259ad0.png

Jason|百度资深研发工程师

参与方式

d0400824-7adb-11ed-8abf-dac502259ad0.png

扫码报名获取直播链接


原文标题:在 NGC 上玩转新一代推理部署工具 FastDeploy,几行代码搞定 AI 部署

文章出处:【微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英伟达
    +关注

    关注

    22

    文章

    3739

    浏览量

    90789

原文标题:在 NGC 上玩转新一代推理部署工具 FastDeploy,几行代码搞定 AI 部署

文章出处:【微信号:NVIDIA-Enterprise,微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    AI模型部署和管理的关系

    AI模型的部署与管理是AI项目成功的两大支柱,它们之间既相互独立又紧密相连,共同推动着AI技术从实验室走向实际应用。
    的头像 发表于 11-21 10:02 51次阅读

    如何在STM32f4系列开发板上部署STM32Cube.AI

    已下载STM32Cube.AI扩展包,但是无法使用,感觉像是没有部署AI模型,我是想要通过摄像头拍照,上传图像后,经过开发板处理器进行AI模型处理识别过后,告诉我识别结果,显示
    发表于 11-18 09:39

    设备利用AI Edge Torch生成式API部署自定义大语言模型

    ,从而无缝地将新的设备端生成式 AI 模型部署到边缘设备。本文是 Google AI Edge 博客连载的第二篇。
    的头像 发表于 11-14 10:23 311次阅读
    <b class='flag-5'>在</b>设备<b class='flag-5'>上</b>利用<b class='flag-5'>AI</b> Edge Torch生成式API<b class='flag-5'>部署</b>自定义大语言模型

    YOLOv6LabVIEW中的推理部署(含源码)

    相关介绍文章,所以笔者实现YOLOv6 ONNX LabVIEW中的部署推理后,决定和各位读者分享下如何使用LabVIEW实现YOLO
    的头像 发表于 11-06 16:07 169次阅读
    YOLOv6<b class='flag-5'>在</b>LabVIEW中的<b class='flag-5'>推理</b><b class='flag-5'>部署</b>(含源码)

    企业AI模型部署怎么做

    AI模型部署作为这转型过程中的关键环节,其成功实施对于企业的长远发展至关重要。在此,AI部落小编为您介绍企业AI模型
    的头像 发表于 11-04 10:15 98次阅读

    使用OpenVINO Model Server在哪吒开发板上部署模型

    OpenVINO Model Server(OVMS)是个高性能的模型部署系统,使用C++实现,并在Intel架构部署进行了优化,使用OpenVINO 进行
    的头像 发表于 11-01 14:19 174次阅读
    使用OpenVINO Model Server在哪吒开发板上<b class='flag-5'>部署</b>模型

    Arm推出GitHub平台AI工具,简化开发者AI应用开发部署流程

    专为 GitHub Copilot 设计的 Arm 扩展程序,可加速从云到边缘侧基于 Arm 平台的开发。 Arm 原生运行器为部署云原生、Windows on Arm 以及云到边缘侧的 AI
    的头像 发表于 10-31 18:51 1089次阅读

    混合部署 | RK3568同时部署RT-Thread和Linux系统-迅为电子

    混合部署 | RK3568同时部署RT-Thread和Linux系统-迅为电子
    的头像 发表于 09-06 15:32 347次阅读
    混合<b class='flag-5'>部署</b> | <b class='flag-5'>在</b>RK3568<b class='flag-5'>上</b>同时<b class='flag-5'>部署</b>RT-Thread和Linux系统-迅为电子

    三行代码完成生成式AI部署

    LLM加载与推理部署能力,实现了OpenVINO对CNN网络、生成式模型、LLM网络主流模型的全面推理支持。
    的头像 发表于 08-30 16:49 377次阅读
    三行<b class='flag-5'>代码</b>完成生成式<b class='flag-5'>AI</b><b class='flag-5'>部署</b>

    简单两步使用OpenVINO™搞定Qwen2的量化与部署任务

    英特尔 OpenVINO™ 工具套件是款开源 AI 推理优化部署工具套件,可帮助开发人员和企
    的头像 发表于 04-26 09:39 1548次阅读
    简单两步使用OpenVINO™<b class='flag-5'>搞定</b>Qwen2的量化与<b class='flag-5'>部署</b>任务

    简单三步使用OpenVINO™搞定ChatGLM3的本地部署

    英特尔 OpenVINO™ 工具套件是款开源 AI 推理优化部署工具套件,可帮助开发人员和企
    的头像 发表于 04-03 18:18 2001次阅读
    简单三步使用OpenVINO™<b class='flag-5'>搞定</b>ChatGLM3的本地<b class='flag-5'>部署</b>

    使用CUBEAI部署tflite模型到STM32F0中,模型创建失败怎么解决?

    看到CUBE_AI已经支持到STM32F0系列芯片,就想拿来入门嵌入式AI。 生成的模型很小,是可以部署到F0的,但是直无法创建成功。
    发表于 03-15 08:10

    基于OpenCV DNN实现YOLOv8的模型部署推理演示

    基于OpenCV DNN实现YOLOv8推理的好处就是代码就可以部署Windows10系统、乌班图系统、Jetson的Jetpack系
    的头像 发表于 03-01 15:52 1389次阅读
    基于OpenCV DNN实现YOLOv8的模型<b class='flag-5'>部署</b>与<b class='flag-5'>推理</b>演示

    【爱芯派 Pro 开发板试用体验】模型部署(以mobilenetV2为例)

    样的,只不过主角这次换成了pulsar2: 1、先在服务器训练好网络模型,并以个通用的中间形式导出(通常是onnx) 2、根据你要使用的推理引擎进行离线转换,把onnx转换成你的推理
    发表于 12-10 16:34

    云天励飞发布新一代边缘AI芯片,采用Chiplet技术,可运行百亿级大模型

    工艺,内含国产RISC-V核,支持大模型推理部署。   云天励飞新一代自研AI SoC DeepEdge10   大模型边缘运行对
    的头像 发表于 11-23 01:08 2557次阅读
    云天励飞发布<b class='flag-5'>新一代</b>边缘<b class='flag-5'>AI</b>芯片,采用Chiplet技术,可运行百亿级大模型