0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

自训练Pytorch模型使用OpenVINO™优化并部署在AI爱克斯开发板

英特尔物联网 来源:英特尔物联网 2023-05-26 10:23 次阅读

完成人:深圳技术大学 黎逸鹏(中德智能制造学院2021级本科生)

指导教授:张阳英特尔边缘计算创新大使,深圳技术大学中德智能制造学院副教授)

简介

本文章将依次介绍如何将 Pytorch 自训练模型经过一系列变换变成 OpenVINOIR 模型形式,而后使用 OpenVINO Python API 对 IR 模型进行推理,并将推理结果通过 OpenCV API 显示在实时画面上。

本文 Python 程序的开发环境是 Ubuntu20.04 LTS + PyCharm,硬件平台是 AIxBoard 爱克斯板开发者套件。

本文项目背景:针对2023第十一届全国大学生光电设计竞赛赛题2“迷宫寻宝”光电智能小车题目。基于该赛项宝藏样式,我通过深度学习训练出能分类四种不同颜色不同标记形状骨牌的模型,骨牌样式详见图1.1。

08b0c758-fb2d-11ed-90ce-dac502259ad0.png

图1.1 四种骨牌类型

完整指导视频

1.2/Pytorch pth 模型转换成

OpenVINO IR模型

Pytorch是 一个基于 Torch 的开源 Python 学习库,是一个以 Python 优先的深度学习框架。Pth 模型文件是 Pytorch 进行模型保存时的一种模型格式,OpenVINO 暂不支持直接对 Pth 模型文件进行推理,所以我们要将 Pth 格式的模型先转换成 ONNX 格式文件,再通过 OpenVINO 自带的 Model Optimizer(模型优化器)进一步转变成 OpenVINO IR 模型。处理过程如下所示:

1. 通过 Pytorch 将 Pth 模型转换成 ONNX 模型

转换后的文件(Pth —> ONNX):

import torch.onnx

# SZTU LIXROBO 23.5.14 #

#******************************************#

# 1. 模型加载

model = torch.load('Domino_best.pth', map_location=torch.device('cpu'))

# 2. 设置模型为评估模式而非训练模式

model.eval()

# 3. 生成随机从标准正态分布抽取的张量

dummy_input = torch.randn(1,3,224,224,device='cpu')

# 4. 导出ONNX模型(保存训练参数权重)

torch.onnx.export(model,dummy_input,"Domino_best.onnx",export_params=True)

2. 通过终端来将 ONNX 模型转化成 OpenVINO IR 模型格式

在终端中输入(Terminal):

mo --input_model Domino_best.onnx --compress_to_fp16

# mo 启动OpenVINO 的Model Optimizer(模型优化器)

# input_model 输入您转换的ONNX模型内容根的路径

# compress _to_fp16 将模型输出精度变为FP16

等后一会,终端输出:

08c68e3a-fb2d-11ed-90ce-dac502259ad0.png

代表 ONNX 模型转换成 OpenVINO IR 模型成功。这里的信息告诉我们该 Model 是 IR 11 的形式,并分别保存在 .xml 和 .bin 文件下。

转换后的文件(ONNX —> IR 11):

08dace72-fb2d-11ed-90ce-dac502259ad0.png

mapping 文件是一些转换信息,暂时不会用到该文件。

至此,我们模型转换的全部工作已经完成,接下来就是运用 OpenVINO Runtime 对 IR 11 模型进行推理。

1.3/用OpenVINORuntime

对 IR 11 模型进行推理

在这一章节里我们将在 Pycharm 中使用 OpenVINO Runtime 对我们在1.2章中转换得来的 IR 11 模型进行推理,并将推理结果实时展现在摄像头画面中。

在开始之前,我们不妨了解推理程序的整个工作流程:

导入必要的功能库(如 openvino.runtime 以及 cv2和 numpy)

探测硬件平台所能使用的可搭载设备

创建核心对象以及加载模型和标签

输入图像进行预处理,正则化,转变成网络输入形状

将处理后的图像交由推理程序进行推理,得到推理结果和处理时间并显示出来

1.3.1. 导入功能包

import openvino.runtime as ov

import numpy as np

import cv2

import time

这里一共导入4个功能包

openvino.runtime 这是 openvino runtime 推理的主要功能包,也可用 openvino.inference_engine 进行推理,过程大体是一致的。

numpy 这是常用的一个 Python 开源科学计算库

cv2 也即 OpenCV,用来处理有关图像的一些信息

time 记录系统运行时间

1.3.2 设备检测以及模型载入

我们可以使用 Core 对象中的 available_devices 函数来获取当前硬件平台可供推理引擎使用的设备。

core = ov.Core()

print(core.available_devices)

如图所示我们能得到在 AlxBoard 爱克斯开发板上可供我们使用的推理设备有 CPU 和 GPU

08e9f08c-fb2d-11ed-90ce-dac502259ad0.png

将模型进行载入:

# SZTU LIXROBO 23.5.19 #

#************************************#

# 1. 创建核心对象

core = ov.Core()

# 2. 规定IR 11模型的模型文件和权重文件

model = "Domino_best.xml"

weights = "Domino_best.bin"

# 3. 将模型文件和权重文件进行读取

model_ir = core.read_model(model= model,weights=weights)

# 4. 把模型加载到设备上

(此处使用HETERO插件进行异构,加载到GPU和CPU上)

com_model_ir= core.compile_model(model=model_ir,device_name="HETERO:GPU,CPU")

# 5. 获取模型输出层

output_layer_ir = com_model_ir.outputs[0]

# 6. 由于是简单模型,故label手动注入,也可使用导入标签文件等其他方式

label = ['BlueFake','BlueTrue','RedFake','RedTrue']

1.3.3 图像预处理

得到的图像我们需要做一些预先处理才能输入到推理引擎中进行推理并得到结果。这一小节我们将展示如何把图像进行处理。

#************************************#

# 图像预处理、归一化 #

def normalize(img: np.ndarray) ->np.ndarray:

# 1. 类型转换成np.float32

img = img.astype(np.float32)

# 2. 设置常用均值和标准差来正则化

mean =(0.485,0.456,0.406)

std =(0.299,0.224,0.255)

img /=255.0

img -=mean

img /=std

# 3. 返回处理后的img

return img

#************************************#

# 图像处理函数 #

def img_pre(img):

# 1. 对OV输入图像颜色模型从BGR转变成RGB

img = cv2.cvtColor(img,cv2.COLOR_BGR2RGB)

# 2. 对图像进行裁切

res_img = cv2.resize(img, (224, 224))

# 3. 使用我们定义的预处理函数对图像进行处理

nor_img = normalize(res_img)

# 4. 将处理好的图像转变为网络输入形状

nor_input_img = np.expand_dims(np.transpose(nor_img, (2, 0, 1)), 0)

# 5. 返回处理结果

return nor_input_img

1.3.4 推理过程以及结果展示

在上一节中我们把输入图像所要进行的预处理图像进行了一个定义,在这一小节则是 OpenVINO Runtime 推理程序的核心。

#************************************#

# 推理主程序 #

def image_infer(img):

# 1. 设置记录起始时间

start_time = time.time()

# 2. 将图像进行处理

imgb = img_pre(img)

# 3. 输入图像进行推理,得到推理结果

res_ir = com_model_ir([imgb])[output_layer_ir]

# 4. 对结果进行归一化处理,使用Sigmod归一

Confidence_Level = 1/(1+np.exp(-res_ir[0]))

# 5. 将结果进行从小到大的排序,便于我们获取置信度最高的类别

result_mask_ir = np.squeeze(np.argsort(res_ir, axis=1)).astype(np.uint8)

# 6. 用CV2的putText方法将置信度最高对应的label以及其置信度绘制在图像上

img = cv2.putText(img,str(label[result_mask_ir[3]])+' '+ str(Confidence_Level[result_mask_ir[3]]),(50,80), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 0, 255), 2,cv2.LINE_AA)

# 7. 记录推理结束时间

end_time = time.time()

# 8. 计算出摄像头运行帧数

FPS = 1 / (end_time - start_time)

# 9. 将帧数绘制在图像上

img = cv2.putText(img, 'FPS ' + str(int(FPS)), (50, 40), cv2.FONT_HERSHEY_SIMPLEX, 1, (255, 0, 0), 2,cv2.LINE_AA)

# 10. 返回图像

return img

以上推理函数编写已经完成。以下是运行主程序:

#********************主程序***********************#

# 1. 获取摄像头

cap = cv2.VideoCapture(0)

# 2. 循环判断

while 1:

# 1. 获得实时画面

success,frame = cap.read()

# 2. 把实时画面交由推理函数进行推理

frame = image_infer(frame)

# 3. 将画面显示在窗口

cv2.imshow("img",frame)

cv2.waitKey(1)

当我们运行该程序时,会得到如下画面。

08fdc364-fb2d-11ed-90ce-dac502259ad0.png

如图所示,我们的 Pytorch 模型成功在 OpenVINO的优化以及推理下成功部署在 AlxBoard 爱克斯开发板,帧数在40-60之间,推理的结果非常好,很稳定。

1.4/与 Pytorch 模型

CPU 推理进行比较

原先推理的过程我们是通过 torch 功能库进行推理,我们将两者进行比较。

09234dbe-fb2d-11ed-90ce-dac502259ad0.png

(左为 OpenVINO 优化推理,右为 torch 推理)

如图所示 OpenVINO 优化推理过后的结果从实际帧数上看大约有5-8倍的提升,推理精度也有少许加强。

1.5结论

自训练 Pytorch 模型在通过 OpenVINOModel Optimizer 模型优化后用 OpenVINO Runtime 进行推理,推理过程简单清晰。推理仅需几个核心函数便可实现基于自训练 Pytorch 模型的转化以及推理程序。

OpenVINO 简单易上手,提供了强大的资料库供学者查阅,其包含了从模型建立到模型推理的全过程。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    30072

    浏览量

    268337
  • 开发板
    +关注

    关注

    25

    文章

    4933

    浏览量

    97159
  • 模型
    +关注

    关注

    1

    文章

    3158

    浏览量

    48701
  • python
    +关注

    关注

    55

    文章

    4778

    浏览量

    84439
  • pytorch
    +关注

    关注

    2

    文章

    803

    浏览量

    13142

原文标题:自训练Pytorch模型使用OpenVINO™优化并部署在AI爱克斯开发板| 开发者实战

文章出处:【微信号:英特尔物联网,微信公众号:英特尔物联网】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    Pytorch模型训练实用PDF教程【中文】

    本教程以实际应用、工程开发为目的,着重介绍模型训练过程中遇到的实际问题和方法。机器学习模型开发
    发表于 12-21 09:18

    怎样使用PyTorch Hub去加载YOLOv5模型

    PyTorch Hub 加载预训练的 YOLOv5s 模型,model传递图像进行推理。'yolov5s'是最轻最快的 YOLOv5 型号。有关所有可用
    发表于 07-22 16:02

    如何将PyTorch模型OpenVINO trade结合使用?

    无法确定如何转换 PyTorch 掩码 R-CNN 模型以配合OpenVINO™使用。
    发表于 08-15 07:04

    【KV260视觉入门套件试用体验】Vitis AI 构建开发环境,使用inspector检查模型

    compiler来将优化后的模型转换为赛灵思硬件平台支持的格式,生成相应的xmodel,来目标设备上部署我的
    发表于 10-14 15:34

    C++中使用OpenVINO工具包部署YOLOv5模型

    下载并转换YOLOv5预训练模型的详细步骤,请参考:《基于OpenVINO™2022.2和蝰蛇峡谷优化
    的头像 发表于 02-15 16:53 4566次阅读

    AI爱克斯开发板上用OpenVINO™加速YOLOv8分类模型

    本系列文章将在 AI 爱克斯开发板上使用 OpenVINO 开发套件依次部署
    的头像 发表于 05-05 11:47 1011次阅读
    <b class='flag-5'>在</b><b class='flag-5'>AI</b><b class='flag-5'>爱克斯</b><b class='flag-5'>开发板</b>上用<b class='flag-5'>OpenVINO</b>™加速YOLOv8分类<b class='flag-5'>模型</b>

    AI爱克斯开发板上用OpenVINO™加速YOLOv8目标检测模型

    AI 爱克斯开发板上用 OpenVINO 加速 YOLOv8 分类模型》介绍了
    的头像 发表于 05-12 09:08 1257次阅读
    <b class='flag-5'>在</b><b class='flag-5'>AI</b><b class='flag-5'>爱克斯</b><b class='flag-5'>开发板</b>上用<b class='flag-5'>OpenVINO</b>™加速YOLOv8目标检测<b class='flag-5'>模型</b>

    AI爱克斯开发板上使用OpenVINO加速YOLOv8目标检测模型

    AI爱克斯开发板上用OpenVINO加速YOLOv8分类模型》介绍了
    的头像 发表于 05-26 11:03 1186次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>爱克斯</b><b class='flag-5'>开发板</b>上使用<b class='flag-5'>OpenVINO</b>加速YOLOv8目标检测<b class='flag-5'>模型</b>

    AI爱克斯开发板上用OpenVINO™加速YOLOv8-seg实例分割模型

    AI 爱克斯开发板上用 OpenVINO 加速 YOLOv8 目标检测模型》介绍了
    的头像 发表于 06-05 11:52 963次阅读
    <b class='flag-5'>在</b><b class='flag-5'>AI</b><b class='flag-5'>爱克斯</b><b class='flag-5'>开发板</b>上用<b class='flag-5'>OpenVINO</b>™加速YOLOv8-seg实例分割<b class='flag-5'>模型</b>

    如何将Pytorch训练模型变成OpenVINO IR模型形式

    本文章将依次介绍如何将Pytorch训练模型经过一系列变换变成OpenVINO IR模型形式,
    的头像 发表于 06-07 09:31 1877次阅读
    如何将<b class='flag-5'>Pytorch</b><b class='flag-5'>自</b><b class='flag-5'>训练</b><b class='flag-5'>模型</b>变成<b class='flag-5'>OpenVINO</b> IR<b class='flag-5'>模型</b>形式

    AI爱克斯开发板上用OpenVINO™加速YOLOv8-seg实例分割模型

    AI 爱克斯开发板上用 OpenVINO 加速 YOLOv8 目标检测模型》介绍了
    的头像 发表于 06-30 10:43 867次阅读
    <b class='flag-5'>在</b><b class='flag-5'>AI</b><b class='flag-5'>爱克斯</b><b class='flag-5'>开发板</b>上用<b class='flag-5'>OpenVINO</b>™加速YOLOv8-seg实例分割<b class='flag-5'>模型</b>

    使用OpenVINO优化部署训练好的YOLOv7模型

    《英特尔锐炫 显卡+ oneAPI 和 OpenVINO 实现英特尔 视频 AI 计算盒训推一体-上篇》一文中,我们详细介绍基于英特尔 独立显卡搭建 YOLOv7 模型
    的头像 发表于 08-25 11:08 1451次阅读
    使用<b class='flag-5'>OpenVINO</b><b class='flag-5'>优化</b><b class='flag-5'>并</b><b class='flag-5'>部署</b><b class='flag-5'>训练</b>好的YOLOv7<b class='flag-5'>模型</b>

    基于OpenVINO英特尔开发套件上实现眼部追踪

    本文将以训练一个眼部追踪 AI模型为背景,介绍从 Pytorch 自定义网络模型,到使用 Open
    的头像 发表于 09-18 10:11 728次阅读

    基于Pytorch训练部署ONNX模型TDA4应用笔记

    电子发烧友网站提供《基于Pytorch训练部署ONNX模型TDA4应用笔记.pdf》资料免费
    发表于 09-11 09:24 0次下载
    基于<b class='flag-5'>Pytorch</b><b class='flag-5'>训练</b><b class='flag-5'>并</b><b class='flag-5'>部署</b>ONNX<b class='flag-5'>模型</b><b class='flag-5'>在</b>TDA4应用笔记

    使用OpenVINO Model Server在哪吒开发板部署模型

    OpenVINO Model Server(OVMS)是一个高性能的模型部署系统,使用C++实现,并在Intel架构上的部署进行了优化,使用
    的头像 发表于 11-01 14:19 174次阅读
    使用<b class='flag-5'>OpenVINO</b> Model Server在哪吒<b class='flag-5'>开发板</b>上<b class='flag-5'>部署</b><b class='flag-5'>模型</b>