0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

YOLOv8模型ONNX格式INT8量化轻松搞定

OpenCV学堂 来源:OpenCV学堂 2023-07-18 09:34 次阅读

ONNX格式模型量化

深度学习模型量化支持深度学习模型部署框架支持的一种轻量化模型与加速模型推理的一种常用手段,ONNXRUNTIME支持模型的简化、量化等脚本操作,简单易学,非常实用。 ONNX 模型量化常见的量化方法有三种:动态量化、静态量化、感知训练量化,其中ONNXRUNTIME支持的动态量化机制非常简单有效,在保持模型精度基本不变的情况下可以有效减低模型的计算量,可以轻松实现INT8量化。

动态量化:此方法动态计算激活的量化参数(刻度和零点)。
静态量化:它利用校准数据来计算激活的量化参数。
量化感知训练量化:在训练时计算激活的量化参数,训练过程可以将激活控制在一定范围内。
当前ONNX支持的量化操作主要有:

e0acd6fc-24b2-11ee-962d-dac502259ad0.png

Opset版本最低不能低于10,低于10不支持,必须重新转化为大于opset>10的ONNX格式。模型量化与图结构优化有些是不能叠加运用的,模型开发者应该意识这点,选择适当的模型优化方法。 ONNXRUNTIME提供的模型量化接口有如下三个:

quantize_dynamic:动态量化
quantize_static:静态量化
quantize_qat:量化感知训练量化

FP16量化

首先需要安装好ONNX支持的FP16量化包,然后调用相关接口即可实现FP16量化与混合精度量化。安装FP16量化支持包命令行如下:

pip install onnx onnxconverter-common

实现FP16量化的代码如下:

e0c49292-24b2-11ee-962d-dac502259ad0.png

INT8量化

最简单的量化方式是动态量化与静态量化。选择感知训练量化机制,即可根据输入ONNX格式模型生成INT8量化模型,代码如下:

e0edb3f2-24b2-11ee-962d-dac502259ad0.png

案例说明

YOLOv8自定义模型ONNXINT8量化版本对象检测演示 以作者训练自定义YOLOv8模型为例,导出DM检测模型大小为,对比导出FP32版本与INT8版本模型大小,相关对比信息如下:

e10cf1ea-24b2-11ee-962d-dac502259ad0.png

使用FP32版本实现DM码检测,运行截图如下:

e13ad98e-24b2-11ee-962d-dac502259ad0.png

使用INT8版本实现DM码检测,运行截图如下:

e15759ec-24b2-11ee-962d-dac502259ad0.png

ONNXRUNTIME更多演示

YOLOv8对象检测 C++

e17efd08-24b2-11ee-962d-dac502259ad0.jpg

YOLOv8实例分割模型 C++ 推理:

e18e3cf0-24b2-11ee-962d-dac502259ad0.jpg

UNet语义分割模型 C++ 推理:

e19fa01c-24b2-11ee-962d-dac502259ad0.png

Mask-RCNN实例分割模型 C++ 推理:

e1b23d58-24b2-11ee-962d-dac502259ad0.png

YOLOv8姿态评估模型 C++ 推理:

e1da8510-24b2-11ee-962d-dac502259ad0.png

e217f3b4-24b2-11ee-962d-dac502259ad0.png

人脸关键点检测模型 C++ 推理:

e24c7eae-24b2-11ee-962d-dac502259ad0.png

人脸关键点检测模型 Python SDK 推理:

e28298ae-24b2-11ee-962d-dac502259ad0.png

学会用C++部署YOLOv5与YOLOv8对象检测,实例分割,姿态评估模型,TorchVision框架下支持的Faster-RCNN,RetinaNet对象检测、MaskRCNN实例分割、Deeplabv3 语义分割模型等主流深度学习模型导出ONNX与C++推理部署,轻松解决Torchvision框架下模型训练到部署落地难题。





审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • C++语言
    +关注

    关注

    0

    文章

    147

    浏览量

    6986
  • python
    +关注

    关注

    56

    文章

    4792

    浏览量

    84614

原文标题:YOLOv8模型ONNX格式INT8量化轻松搞定

文章出处:【微信号:CVSCHOOL,微信公众号:OpenCV学堂】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    esp-dl int8量化模型数据集评估精度下降的疑问求解?

    一 试着将模型进行了esp-dl上int16和int8量化,并在测试数据集上进行精度评估,其中int16的
    发表于 06-28 15:10

    yolov7 onnx模型在NPU上太慢了怎么解决?

    我将 yolov7tiny.pt(yolov7-tiny 模型)转换为具有 uint8 权重的 yolov7tiny.onnx,然后在 i.
    发表于 04-04 06:13

    INT8量化常见问题的解决方案

    一、int8的输出和fp32模型输出差异比较大 解决方案: 检查前后处理是否有问题,int8网络输入输出一般需要做scale处理,看看是否遗漏? 通过量化可视化工具分析
    发表于 09-19 06:09

    【爱芯派 Pro 开发板试用体验】yolov8模型转换

    换为onnx格式。 下载yolov8n.pt 将PyTorch模型格式转为onnx
    发表于 11-20 12:19

    NCNN+Int8+yolov5部署和量化

    【GiantPandaCV引言】 还记得我在两个月前写的文章吗,关于yolov4-tiny+ncnn+int8量化的详细教程:NCNN+INT8+YOLOV4量化
    发表于 01-25 16:01 2次下载
    NCNN+<b class='flag-5'>Int8+yolov</b>5部署和<b class='flag-5'>量化</b>

    Int8量化-ncnn社区Int8重构之路

    本文是对NCNN社区int8模块的重构开发,再也不用担心溢出问题了,速度也还行。作者:圈圈虫首发知乎传送门ncnnBUG1989/caffe-int8-conver...
    发表于 02-07 12:38 1次下载
    <b class='flag-5'>Int8</b><b class='flag-5'>量化</b>-ncnn社区<b class='flag-5'>Int8</b>重构之路

    使用YOLOv8做目标检测和实例分割的演示

    YOLOv8是来自Ultralytics的最新的基于YOLO的对象检测模型系列,提供最先进的性能。
    的头像 发表于 02-06 10:11 7428次阅读

    YOLOv8自定义数据集训练到模型部署推理简析

    如果你只是想使用而不是开发,强烈推荐通过pip安装方式获取YOLOv8包!YOLOv8安装命令行
    的头像 发表于 03-24 09:27 4645次阅读

    在AI爱克斯开发板上用OpenVINO™加速YOLOv8目标检测模型

    《在 AI 爱克斯开发板上用 OpenVINO 加速 YOLOv8 分类模型》介绍了在 AI 爱克斯开发板上使用 OpenVINO 开发套件部署并测评 YOLOv8 的分类模型,本文将
    的头像 发表于 05-12 09:08 1306次阅读
    在AI爱克斯开发板上用OpenVINO™加速<b class='flag-5'>YOLOv8</b>目标检测<b class='flag-5'>模型</b>

    AI爱克斯开发板上使用OpenVINO加速YOLOv8目标检测模型

    《在AI爱克斯开发板上用OpenVINO加速YOLOv8分类模型》介绍了在AI爱克斯开发板上使用OpenVINO 开发套件部署并测评YOLOv8的分类模型,本文将介绍在AI爱克斯开发板
    的头像 发表于 05-26 11:03 1234次阅读
    AI爱克斯开发板上使用OpenVINO加速<b class='flag-5'>YOLOv8</b>目标检测<b class='flag-5'>模型</b>

    教你如何用两行代码搞定YOLOv8各种模型推理

    大家好,YOLOv8 框架本身提供的API函数是可以两行代码实现 YOLOv8 模型推理,这次我把这段代码封装成了一个类,只有40行代码左右,可以同时支持YOLOv8对象检测、实例分割
    的头像 发表于 06-18 11:50 3048次阅读
    教你如何用两行代码<b class='flag-5'>搞定</b><b class='flag-5'>YOLOv8</b>各种<b class='flag-5'>模型</b>推理

    三种主流模型部署框架YOLOv8推理演示

    深度学习模型部署有OpenVINO、ONNXRUNTIME、TensorRT三个主流框架,均支持Python与C++的SDK使用。对YOLOv5~YOLOv8的系列模型,均可以通过C+
    的头像 发表于 08-06 11:39 2719次阅读

    OpenCV4.8+YOLOv8对象检测C++推理演示

    自从YOLOv5更新成7.0版本,YOLOv8推出以后,OpenCV4.6以前的版本都无法再加载导出ONNX格式模型了,只有OpenCV4.
    的头像 发表于 09-27 11:07 1520次阅读
    OpenCV4.8+<b class='flag-5'>YOLOv8</b>对象检测C++推理演示

    Yolo系列模型的部署、精度对齐与int8量化加速

    可视化其他量化形式的engine和问题engine进行对比,我们发现是一些层的int8量化会出问题,由此找出问题量化节点解决。
    的头像 发表于 11-23 16:40 1234次阅读

    基于YOLOv8的自定义医学图像分割

    YOLOv8是一种令人惊叹的分割模型;它易于训练、测试和部署。在本教程中,我们将学习如何在自定义数据集上使用YOLOv8。但在此之前,我想告诉你为什么在存在其他优秀的分割模型时应该使用
    的头像 发表于 12-20 10:51 767次阅读
    基于<b class='flag-5'>YOLOv8</b>的自定义医学图像分割