0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

C#调用OpenVINO工具套件部署Al模型项目开发项目

英特尔物联网 来源:英特尔物联网 作者:英特尔物联网 2022-05-06 11:20 次阅读

1.1 项目概述

1.1.1 项目介绍

C#调用OpenVINO工具套件部署Al模型项目开发项目,简称OpenVinoSharp,这是一个示例项目,该项目实现在C#编程语言下调用Intel推出的 OpenVINO 工具套件,进行深度学习等Al项目在C#框架下的部署。该项目由C++语言编写OpenVINO dll库,并在C#语言下实现调用。

项目可以实现在C#编程语言下调用Intel推出的 OpenVINO 工具套件,进行深度学习等Al项目在C#框架下的部署,目前可以支持的Al模型格式:

■ Paddlepaddle 飞桨模型 (.pdmodel)

■ ONNX 开放式神经网络交换模型 (.onnx)

■ IR 模型 (.xml, .bin)

目前该项目针对 Paddlepaddle 飞桨现有模型进行了测试,主要有:

■ PaddleClas 飞桨图像识别套件

■ PaddleDetection 目标检测模型套件

1.1.2 OpenVINO

OpenVINO 工具套件是英特尔基于自身现有的硬件平台开发的一种可以加快高性能计算机视觉和深度学习视觉应用开发速度工具套件,支持各种英特尔平台的硬件加速器上进行深度学习,并且允许直接异构执行。支持在Windows与Linux系统,官方支持编程语言为Python与C++语言,但不直接支持C#。

OpenVINO 工具套件2022.1版于2022年3月22日正式发布,根据官宣《OpenVINO 迎来迄今为止最重大更新,2022.1新特性抢先看》,OpenVINO 2022.1将是迄今为止最大变化的版本。从开发者的角度来看,对于提升开发效率或运行效率有用的特性有:

■ 提供预处理API函数

■ ONNX前端API

■ AUTO设备插件

■ 支持直接读入飞桨模型

该项目开发环境为OpenVINO 2022.1最新版本,因此使用者需在使用时将自己电脑上的OpenVINO 版本升级到2022.1版,不然会有较多的问题。

1.1.3 项目方案

该项目主要通过调用dll文件方式实现。通过C++调用OpenVINO ,编写模型推理接口,将我们所用到的推理方法在C++中实现,并将其生成dll文件,在C#调用dll文件,重写dll文件接口,并重新组建Core类,用于在C#中进行模型的推理,其方案如图1- 1所示。

6e516b7a-ccea-11ec-bce3-dac502259ad0.png

图1- 1 项目解决方案

1.1.4 安装方式

该项目所有文件已经上传到Github和Gitee远程代码仓,大家可以通过Gi在本地进行克隆。

● 系统平台:

Windows

● 软件要求:

Visual Studio 2022 / 2019 / 2017

OpenCV 4.5.5

OpenVINO 2022.1

● 安装方式

在Github上克隆下载

git clone https://github.com/guojin-yan/OpenVinoSharp.git

在Gitee上克隆下载:

git clone https://gitee.com/guojin-yan/OpenVinoSharp.git

1.2 软件安装

1.2.1 Microsoft Visual Studio 2022安装

Microsoft Visual Studio(简称VS)是美国微软公司的开发工具套件系列产品。VS是一个基本完整的开发工具集,它包括了整个软件生命周期中所需要的大部分工具,如UML工具、代码管控工具、集成开发环境(IDE)等等。其支持C、C++、C#、F#、J#等多门编程语言。

本次项目所使用的编程语言为C++与C#两门编程语言,在VS中完全可以实现,可选择安装版本VS2017、VS2019或VS2022版本。对于VS不同版本的选择,该项目不做较多要求,就笔者使用来说,VS2017版本推出时间较久,不建议使用,其一些编程语言规范有一些变动,对于该项目所提供的范例可能会有部分不兼容;VS2019和VS2022版本相对更新,是由起来差异不大,建议选择这两个版本,并且新版OpenVINO 支持VS2022版本Cmake。

笔者电脑安装的为Microsoft Visual Studio Community 2022 版本,其安装包可由VS官网直接下载,下载时选择社区版,按照一般安装步骤进行安装即可。在安装中,工作负荷的选择图1- 2所示。

6e6dea34-ccea-11ec-bce3-dac502259ad0.png

图1- 2 Visual Studio 2022安装负荷

安装完成后,可以参照网上相关教程,进行学习VS的使用。

1.2.2 OpenVINO 安装

该项目所使用的OpenVINO 版本为2022.1版本,是Intel公司在2022年第一季度发布的最新版本。该版本基于之前版本有了较大变动,不在默认包含OpenCV工具;其次,对代码做了更进一步的优化,使得代码在使用时更加灵活。其具体安装方式,参考

https://www.intel.com/content/www/us/en/developer/tools/openvino-toolkit/download.html

1.2.3 OpenCV安装

由于最新版的OpenVINO 2022.1 版本不在默认附带OpenCV工具,所以我们需要额外安装OpenCV工具。

01

下载并安装OpenCV

访问OpenCV官网,选择Library下的Releases,进入到下载页面,或直接访问进入下载页面。

6eb07192-ccea-11ec-bce3-dac502259ad0.png

图1- 3 OpenCV-4.5.5 版本页面

根据负载使用情况,选择Windows版本,如图1- 3所示,跳转页面后,下载文件名为:opencv-4.5.5-vc14_vc15.exe。下载完成后,直接双击打开安装文件,安装完成后,打开安装文件夹,该文件夹下 build、sources文件夹以及LICENSE相关文件,我们所使用的文件在build文件夹中。

02

配置Path环境变量

右击我的电脑,进入属性设置,选择高级系统设置进入系统属性,点击环境变量,进入到环境变量设置,编辑系统变量下的Path变量,增加以下地址变量:

E:OpenCV Sourceopencv-4.5.5uildx64vc15in

E:OpenCV Sourceopencv-4.5.5uildx64vc15lib

E:OpenCV Sourceopencv-4.5.5uildinclude

E:OpenCV Sourceopencv-4.5.5uildincludeopencv2

其中为本机安装OpenCV安装路径。安装完成后,如想在VS中使用,还需要再VS编辑器中设置相关配置,具体配置会在下文中说明。

1.3 OpenVINO 推理模型

与测试数据集

1.3.1 模型种类与下载方式

为了测试该项目,我们提供并整合了训练好的 Paddlepaddle 模型,主要针对 PaddleClas 以及 PaddleDetection 现有的模型,提供了 PaddleClas 下的花卉分类模型以及 PaddleDetection 中的 Vehicle Detection 模型,并针对该模型,提供了pdmodel、onnx以及IR格式。

该项目所使用的测试模型以及数据集,均可以在本文下的gitee上下载,下载链接为:

https://gitee.com/guojin-yan/OpenVinoSharp

1.3.2 PaddleDetection 模型

PaddleDetection 为飞桨 PaddlePaddle 的端到端目标检测套件,提供多种主流目标检测、实例分割、跟踪、关键点检测算法,配置化的网络模块组件、数据增强策略、损失函数等。该项目在此处主要使用的为PaddleDetection应用中的目标检测功能,使用的网络为YOLOv3网络,表1- 1 给出了YOLOv3网络输出与输入的相关信息

表1- 1 YOLOv3模型输入与输出节点信息

6eda9652-ccea-11ec-bce3-dac502259ad0.png

注:None表示batch维度,H、W 分别为图片的高和宽,Num表示识别结果的数量。

本次测试使用的为 PaddleDetection 中 Vehicle Detection 模型,我们可以在 PaddleDetection gitee 上下载。该模型输入图片要求为3×608×608大小,输出为预测框信息,其信息组成为[class_id, score, x1, y1, x2, y2],分别代表分类编号、分类得分以及预测框对角顶点坐标。

1.3.3 PaddleClas 模型

飞桨图像识别套件 PaddleClas 是飞桨为工业界和学术界提供的的一个图像识别任务的工具集,该模型经过数据集训练,可以识别多种物品。在该项目中,我们使用flower数据集,使用ResNet50网络训练识别102种花卉,关于该模型的输入与输出节点信息如所示

表1- 2 ResNet50模型输入与输出节点信息

6efacf08-ccea-11ec-bce3-dac502259ad0.png

注:None表示batch维度,H、W 分别为图片的高和宽,Class表示分类数量。

花卉训练模型要求图片输入为3×224×224大小,输出结果为102中预测结果概率。

1.4 创建OpenVINO 方法

C++动态链接库

1.4.1 新建解决方案以及项目文件

打开vs2022,首先新建一个C++空项目文件,并将同时新建一个解决方案命名为:OpenVinoSharp,用于存放后续其他项目文件。将C++项目命名为:CppOpenVinoAPI。

进入项目后,右击源文件,选择添加→新建项→C++文件(cpp),进行的文件的添加。具体操作如图1- 4所示。

6f1cfa9c-ccea-11ec-bce3-dac502259ad0.png

图1- 4 新建项目解决方案及C++项目

本次我们需要添加OpenVinoAPIcpp以及Source.def两个文件,如图1- 5所示。

6f33c2b8-ccea-11ec-bce3-dac502259ad0.png

图1- 5 CppOpenVinoAPIl函数方法所需文件

1.4.2 配置C++项目属性

右击项目,点击属性,进入到属性设置,此处需要设置项目的配置类型包含目录、库目录以及附加依赖项,本次项目选择Release模式下运行,因此以Release情况进行配置。

01

(1)设置配置与平台

进入属性设置后,在最上面,将配置改为Release,平台改为x64。具体操作如图1- 6所示。

6f64a400-ccea-11ec-bce3-dac502259ad0.png

图1- 6 C++项目属性配置与平台设置

02

设置常规属性

常规设置下,点击输出目录,将输出位置设置为,即将生成文件放置在项目文件夹下的dll文件夹下;其次将目标文件名修改为:OpenVinoSharp;最后将配置类型改为:动态库(.dll),让其生成dll文件。具体操作如图1- 7所示。

6f931042-ccea-11ec-bce3-dac502259ad0.png

图1- 7 C++项目常规属性设置

03

设置包含目录

点击VC++目录,然后点击包含目录,进行编辑,在弹出的新页面中,添加以下路径:

E:OpenCV Sourceopencv-4.5.5uildinclude

E:OpenCV Sourceopencv-4.5.5uildincludeopencv2

C:Program Files (x86)Intelopenvino_2022.1.0.643 untimeinclude

C:Program Files (x86)Intelopenvino_2022.1.0.643 untimeincludeie

其中路径为OpenCV的安装路径,为OpenVINO安装路径,个人根据自己安装的位置及版本确定。操作过程如图1- 8所示。

6fda3f3a-ccea-11ec-bce3-dac502259ad0.png

图1- 8 C++项目属性库目录设置

04

设置库目录

同样的方式,在VC++目录下,点击下方的库目录,点击编辑,在弹出来的页面中增加以下路径:

E:OpenCV Sourceopencv-4.5.5uildx64vc15lib

C:Program Files (x86)Intelopenvino_2022.1.0.643 untimelibintel64Release

如果时配置Debug模式,则需要将Release文件路径改为Debug即可。

05

设置附加依赖项

点击展开链接器,点击输入,在附加依赖项中点击编辑,在弹出来的新的页面,添加以下文件名:

opencv_world455.lib

openvino.lib

具体操作步骤参考如图1-9所示。新版OpenCV与OpenVINO 都将依赖库文件合成到了一个文件中,这极大地简化了使用,如果使用老版本的,需要将所有的.lib文件放置在此处即可。

70103be4-ccea-11ec-bce3-dac502259ad0.png

图1- 9 C++项目属性附加依赖项设置

1.4.3 编写C++代码

01

推理引擎结构体

Core是OpenVINO 工具套件里的推理核心类,该类下包含多个方法,可用于创建推理中所使用的其他类。在此处,需要在各个方法中传递的仅仅是所使用的几个变量,因此选择构建一个推理引擎结构体,用于存放各个变量。

// @brief 推理核心结构体

typedef struct openvino_core {

ov::Core core; // core对象

std::shared_ptr model_ptr; // 读取模型指针

ov::CompiledModel compiled_model; // 模型加载到设备对象

ov::InferRequest infer_request; // 推理请求对象

} CoreStruct;

其中Core是OpenVINO 工具套件里的推理机核心,该模块只需要初始化;shared_ptr是读取本地模型的方法,新版更新后,该方法发生了较大改动,可支持读取Paddlepaddle飞桨模型、onnx模型以及IR模型;CompiledModel指的是一个已编译的模型类,其主要是将读取的本地模型应用多个优化转换,然后映射到计算内核,由所指定的设备编译模型;InferRequest是一个推理请求类,在推理中主要用于对推理过程的操作。

02

接口方法规划

经典的OpenVINO 进行模型推理,一般需要八个步骤,主要是:初始化Core对象、读取本地推理模型、配置模型输入&输出、载入模型到执行硬件、创建推理请求、准备输入数据、执行推理计算以及处理推理计算结果。我们根据原有的八个步骤,对步骤进行重新整合,并根据推理步骤,调整方法接口。

对于方法接口,主要设置为:推理初始化、配置输入数据形状、配置输入数据、模型推理、读取推理结果数据以及删除内存地址六个大类,其中配置输入数据形状要细分为配置图片数据形状以及普通数据形状,配置输入数据要细分为配置图片输入数据与配置普通数据输入,读取推理结果数据细分为读取float数据和int数据,因此,总共有6类方法接口,9个方法接口。

03

初始化推理模型

OpenVINO 推理引擎结构体是联系各个方法的桥梁,后续所有操作都是在推理引擎结构体中的变量上操作的,为了实现数据在各个方法之间的传输,因此在创建推理引擎结构体时,采用的是创建结构体指针,并将创建的结构体地址作为函数返回值返回。推理初始化接口主要整合了原有推理的初始化Core对象、读取本地推理模型、载入模型到执行硬件和创建推理请求步骤,并将这些步骤所创建的变量放在推理引擎结构体中。

初始化推理模型接口方法为:

extern "C" __declspec(dllexport) void* __stdcall core_init(const wchar_t* model_file_wchar, const wchar_t* device_name_wchar);

该方法返回值为CoreStruct结构体指针,其中model_file_wchar为推理模型本地地址字符串指针,device_name_wchar为模型运行设备名指针,在后面使用上述变量时,需要将其转换为string字符串,利用wchar_to_string()方法可以实现将其转换为字符串格式:

std::string model_file_path = wchar_to_string(model_file_wchar);

std::string device_name = wchar_to_string(device_name_wchar);

模型初始化功能主要包括:初始化推理引擎结构体和对结构体里面定义的其他变量进行赋值操作,其主要是利用InferEngineStruct中创建的Core类中的方法,对各个变量进行初始化操作:

CoreStruct* p = new CoreStruct(); // 创建推理引擎指针

p->model_ptr = p->core.read_model(model_file_path); // 读取推理模型

p->compiled_model = p->core.compile_model(p->model_ptr, „CPU“); // 将模型加载到设备

p->infer_request = p->compiled_model.create_infer_request(); // 创建推理请求

04

配置输入数据形状

在新版OpenVINO 2022.1 中,新增加了对Paddlepaddle 模型以及onnx模型的支持,Paddlepaddle 模型不支持指定指定默认bath通道数量,因此需要在模型使用时指定其输入;其次,对于onnx模型,也可以在转化时不指定固定形状,因此在配置输入数据前,需要配置输入节点数据形状。其方法接口为:

extern "C" __declspec(dllexport) void* __stdcall set_input_image_sharp(void* core_ptr, const wchar_t* input_node_name_wchar, size_t * input_size);

extern "C" __declspec(dllexport) void* __stdcall set_input_data_sharp(void* core_ptr, const wchar_t* input_node_name_wchar, size_t * input_size);

由于需要配置图片数据输入形状与普通数据的输入形状,在此处设置了两个接口,分别设置两种不同输入的形状。该方法返回值是CoreStruct结构体指针,但该指针所对应的数据中已经包含了对输入形状的设置。第一个输入参数core_ptr是CoreStruct指针,在当前方法中,我们要读取该指针,并将其转换为CoreStruct类型:

CoreStruct* p = (CoreStruct*)core_ptr;

input_node_name_wchar 为待设置网络节点名,input_size 为形状数据数组,对图片数据,需要设置 [batch, dim, height, width] 四个维度大小,所以input_size数组传入4个数据,其设置在形状主要使用Tensor类下的set_shape()方法:

std::string input_node_name = wchar_to_string(input_node_name_wchar); // 将节点名转为string类型

ov::Tensor input_image_tensor = p->infer_request.get_tensor(input_node_name); // 读取指定节点Tensor

input_image_tensor.set_shape({ input_size[0],input_size[1],input_size[2],input_size[3] }); // 设置节点数据形状

05

配置输入数据

在新版OpenVINO 中,Tensor类的T* data()方法,其返回值为当前节点Tensor的数据内存地址,通过填充Tensor的数据内存,实现推理数据的输入。对于图片数据,其最终也是将其转为一维数据进行输入,不过为方便使用,此处提供了配置图片数据和普通数据的接口,对于输入为图片的方法接口:

extern "C" __declspec(dllexport) void* __stdcall load_image_input_data(void* core_ptr, const wchar_t* input_node_name_wchar, uchar * image_data, size_t image_size);

该方法返回值是CoreStruct结构体指针,但该指针所对应的数据中已经包含了加载的图片数据。第一个输入参数core_ptr是CoreStruct指针,在当前方法中,我们要读取该指针,并将其转换为CoreStruct类型;第二个输入参数input_node_name_wchar为待填充节点名,先将其转为string字符串:

std::string input_node_name = wchar_to_string(input_node_name_wchar);

在该项目中,我们主要使用的是以图片作为模型输入的推理网络,模型主要的输入为图片的输入。其图片数据主要存储在矩阵image_data和矩阵长度image_size两个变量中。需要对图片数据进行整合处理,利用创建的data_to_mat () 方法,将图片数据读取到OpenCV中:

cv::Mat input_image = data_to_mat(image_data, image_size);

接下来就是配置网络图片数据输入,对于节点输入是图片数据的网络节点,其配置网络输入主要分为以下几步:

首先,获取网络输入图片大小。

使用InferRequest类中的get_tensor ()方法,获取指定网络节点的Tensor,其节点要求输入大小在Shape容器中,通过获取该容器,得到图片的长宽信息:

ov::Tensor input_image_tensor = p->infer_request.get_tensor(input_node_name);

int input_H = input_image_tensor.get_shape()[2]; //获得“image“节点的Height

int input_W = input_image_tensor.get_shape()[3]; //获得“image“节点的Width

其次,按照输入要求,处理输入图片。

在这一步,我们除了要按照输入大小对图片进行放缩之外,还要根据 PaddlePaddle 对模型输入的要求进行处理。因此处理图片其主要分为交换RGB通道、放缩图片以及对图片进行归一化处理。在此处我们借助OpenCV来实现。

OpenCV读取图片数据并将其放在Mat类中,其读取的图片数据是BGR通道格式,PaddlePaddle 要求输入格式为RGB通道格式,其通道转换主要靠一下方式实现:

cv::cvtColor(input_image, blob_image, cv::COLOR_BGR2RGB);

接下来就是根据网络输入要求,对图片进行压缩处理:

cv::resize(blob_image, blob_image, cv::Size(input_H, input_W), 0, 0, cv::INTER_LINEAR);

最后就是对图片进行归一化处理,其主要处理步骤就是减去图像数值均值,并除以方差。查询PaddlePaddle模型对图片的处理,其均值mean = [0.485, 0.456, 0.406],方差std = [0.229, 0.224, 0.225],利用OpenCV中现有函数,对数据进行归一化处理:

std::vectormean_values{ 0.485 * 255, 0.456 * 255, 0.406 * 255 };

std::vectorstd_values{ 0.229 * 255, 0.224 * 255, 0.225 * 255 };

std::vectorrgb_channels(3);

cv::split(blob_image, rgb_channels); // 分离图片数据通道

for (auto i = 0; i < rgb_channels.size(); i++){

//分通道依此对每一个通道数据进行归一化处理

rgb_channels[i].convertTo(rgb_channels[i], CV_32FC1, 1.0 / std_values[i], (0.0 – mean_values[i]) / std_values[i]);

}

cv::merge(rgb_channels, blob_image); // 合并图片数据通道

最后,将图片数据输入到模型中。

在此处,我们重写了网络赋值方法,并将其封装到 fill_tensor_data_image(ov::Tensor& input_tensor, const cv::Mat& input_image)方法中,input_tensor为模型输入节点Tensor类,input_image为处理过的图片Mat数据。因此节点赋值只需要调用该方法即可:

fill_tensor_data_image(input_image_tensor, blob_image);

对于普通数据的输入,其方法接口如下:

extern "C" __declspec(dllexport) void* __stdcall load_input_data(void* core_ptr, const wchar_t* input_node_name_wchar, float* input_data);

与配置图片数据不同点,在于输入数据只需要输入input_data数组即可。其数据处理哦在外部实现,只需要将处理后的数据填充到输入节点的数据内存中即可,通过调用自定义的fill_tensor_data_float(ov::Tensor& input_tensor, float* input_data, int data_size) 方法即可实现:

std::string input_node_name = wchar_to_string(input_node_name_wchar);

ov::Tensor input_image_tensor = p->infer_request.get_tensor(input_node_name); // 读取指定节点tensor

int input_size = input_image_tensor.get_shape()[1]; //获得输入节点的长度

fill_tensor_data_float(input_image_tensor,input_data, input_size); // 将数据填充到tensor数据内存上

06

模型推理

上一步中我们将推理内容的数据输入到了网络中,在这一步中,我们需要进行数据推理,这一步中我们留有一个推理接口:

extern "C" __declspec(dllexport) void* __stdcall core_infer(void* core_ptr)

进行模型推理,只需要调用CoreStruct结构体中的infer_request对象中的infer()方法即可:

CoreStruct* p = (CoreStruct*)core_ptr;

p->infer_request.infer();

07

读取推理数据

上一步我们对数据进行了推理,这一步就需要查询上一步推理的结果。对于我们所使用的模型输出,主要有float数据和int数据,对此,留有了两种数据的查询接口,其方法为:

extern "C" __declspec(dllexport) void __stdcall read_infer_result_F32(void* core_ptr, const wchar_t* output_node_name_wchar, int data_size, float* infer_result);

extern "C" __declspec(dllexport) void __stdcall read_infer_result_I32(void* core_ptr, const wchar_t* output_node_name_wchar, int data_size, int* infer_result);

其中data_size为读取数据长度,infer_result 为输出数组指针。读取推理结果数据与加载推理数据方式相似,依旧是读取输出节点处数据内存的地址:

const ov::Tensor& output_tensor = p->infer_request.get_tensor(output_node_name);

const float* results = output_tensor.data();

针对读取整形数据,其方法一样,只是在转换类型时,需要将其转换为整形数据即可。我们读取的初始数据为二进制数据,因此要根据指定类型转换,否则数据会出现错误。将数据读取出来后,将其放在数据结果指针中,并将所有结果赋值到输出数组中:

for (int i = 0; i < data_size; i++) {

*inference_result = results[i];

inference_result++;

}

08

删除推理核心结构体指针

推理完成后,我们需要将在内存中创建的推理核心结构地址删除,防止造成内存泄露,影响电脑性能,其接口该方法为:

extern "C" __declspec(dllexport) void __stdcall core_delet(void* core_ptr);

在该方法中,我们只需要调用delete命令,将结构体指针删除即可。

1.4.4 编写模块定义文件

我们在定义接口方法时,在原有方法的基础上,增加了extern "C" 、 __declspec(dllexport) 以及__stdcall 三个标识,其主要原因是为了让编译器识别我们的输出方法。其中,extern „C“是指示编译器这部分代码按C语言(而不是C++)的方式进行编译;__declspec(dllexport)用于声明导出函数、类、对象等供外面调用;__stdcall是一种函数调用约定。通过上面三个标识,我们在C++种所写的接口方法,会在dll文件中暴露出来,并且可以实现在C#中的调用。

不过上面所说内容,我们在编辑器中可以通过模块定义文件(.def)所实现,在模块定义文件中,添加以下代码:

LIBRARY

"OpenVinoSharp"

EXPORTS

core_init

set_input_image_sharp

set_input_data_sharp

load_image_input_data

load_input_data

core_infer

read_infer_result_F32

read_infer_result_I32

core_delet

LIBRARY后所跟的为输出文件名,EXPORTS后所跟的为输出方法名。仅需要以上语句便可以替代extern "C" 、 __declspec(dllexport) 以及__stdcall的使用。

1.4.5 生成dll文件

前面我们将项目配置输出设置为了生成dll文件,因此该项目不是可以执行的exe文件,只能生成不能运行。右键项目,选择重新生成/生成。在没有错误的情况下,会看到项目成功的提示。可以看到dll文件在解决方案同级目录下x64Release文件夹下。

使用dll文件查看器打开dll文件,如图1- 10所示;可以看到,我们创建的四个方法接口已经暴露在dll文件中。

703eeae8-ccea-11ec-bce3-dac502259ad0.png

图1- 10 dll文件方法输出目录

1.5 C#构建Core类

1.5.1 新建C#类库

右击解决方案,添加->新建项目,选择添加C#类库,项目名命名为OpenVinoSharp,项目框架根据电脑中的框架选择,此处使用的是.NET 5.0。新建完成后,然后右击项目,选择添加->新建项,选择类文件,添加Core.cs和NativeMethods.cs两个类文件。

1.5.2 引入dll文件中的方法

在NativeMethods.cs文件下,我们通过[DllImport()]方法,将dll文件中所有的方法读取到C#中。读取方式如下:

[DllImport(openvino_dll_path, CharSet = CharSet.Unicode, CallingConvention = CallingConvention.Cdecl)]

public extern static IntPtr core_init(string model_file, string device_name);

其中openvino_dll_path为dll文件路径,CharSet = CharSet.Unicode代表支持中文编码格式字符串,CallingConvention = CallingConvention.Cdecl指示入口点的调用约定为调用方清理堆栈。

上述所列出的为初始化推理模型,dlii文件接口在匹配时,是通过方法名字匹配的,因此,方法名要保证与dll文件中一致。其次就是方法的参数类型要进行对应,在上述方法中,函数的返回值在C++中为void* ,在C#中对应的为IntPtr类型,输入参数中,在C++中为wchar_t* 字符指针,在C#中对应的为string字符串。通过方法名与参数类型一一对应,在C#可以实现对方法的调用。其他方法的引用类似,在此处不在一一赘述,具体可以参照项目提供的源代码。

1.5.3 创建Core类

为了更方便地调用我们通过dll引入的OpenVINO 方法,减少使用时的函数方法接口,我们在C#中重新组建我们自己的推理类,命名为Class Core,其主要成员变量和方法如图1- 11所示。

70684df2-ccea-11ec-bce3-dac502259ad0.png

图1- 11 Core类图

在Core.类中,我们只需要创建一个地址变量,作为Core类的成员变量,用于接收接口函数返回的推理核心指针,该成员变量我们只需要在当前类下访问,因此将其设置为私有变量:

private IntPtr ptr = new IntPtr();

接下来,构建类的构造函数,在类的初始化时,我们需要输入模型地址以及设备类型,通过掉用dll文件中引入的方法,获取初始化指针,对成员变量进行赋值,实现类的初始化:

public Core(string model_file, string device_name) {

ptr = NativeMethods.core_init(model_file, device_name);

}

然后构其中的方法,在构建设置数据输入形状时,我们需要提供的为节点名以及形状数据,为了简化该方法,我们合并了图片形状设置与普通数据形状设置接口,通过判断输入数组的长度,来确定是对那一个形状的设置:

public void set_input_sharp(string input_node_name, ulong[] input_size);

对于该类中方法的构建,可以参考源码文件,在此处不做详述。并且其他方法构建方式基本相似,此处不在一一赘述,具体可以参考源码文档。

1.5.4 编译Core类库

右击项目,点击生成/重新生成,出现如下图1- 12所示,表示编译成功。

7098775c-ccea-11ec-bce3-dac502259ad0.png

图1- 12 Core类编译输出

1.6 C#实现OpenVINO

方法的调用

1.6.1 新建C#项目

右击解决方案,添加->新建项目,选择添加C#控制台项目,项目框架根据电脑中的框架选择,此处使用的是.NET 5.0。

70be24fc-ccea-11ec-bce3-dac502259ad0.png

图1- 13 C#项目设置

1.6.2 添加OpenCVsharp

右击项目,选择管理NuGet程序包,在新页面中选择浏览,在搜索框中输入opencvsharp3,在搜索结果中,找到OpenCvSharp3-AnyCPU,然后右侧点击安装,具体操作步骤如图1- 14所示。

70e2a5ac-ccea-11ec-bce3-dac502259ad0.png

图1- 14 NuGet程序包安装

1.6.3添加项目引用

上一步中我们将dll文件中的方法引入到C#中,并组建了Core类,在这一步中,我们主要通过调用Core类,进行Al模型的部署,所以需要引入上一步的项目。

右击当前项目,选择添加,选择项目引用,在出现的窗体中,选择上一步中创建的项目OpenVinoSharp,点击确定;然后在当前项目下,添加using OpenVinoSharp命名空间。具体操作如图1- 15所示。

71185102-ccea-11ec-bce3-dac502259ad0.png

图1- 15 添加项目引用

1.6.4 编写代码测试花卉分类模型

在该项目中,我们提供了两种推理模型,此处我们以花卉分类模型为例,简介如何通过C#调用OpenVINO 进行Al模型的部署。

01

引入相关变量

string device_name = "CPU";

string model_file = "E:/Text_Model/flowerclas/flower_rec.onnx";

string image_file = "E:/Text_dataset/flowers102/jpg/image_00001.jpg";

string input_node_name = "x";

string output_node_name = "softmax_1.tmp_0";

为了让大家更加清晰的看懂后续代码,在此处对引入的相关变量进行解释:

device_name:设备类型名称,可为CPU、GPU以及AUTO(均可);

model_file:模型地址,可以为onnx、pdmodel或者xml格式;

image_file:测试图片地址;

input_node_name:输入模型节点名,当多输入时,可以为数组;

output_node_name:输出模型节点名,当多输出时,可以为数组。

02

初始化Core类

在此处我们直接调用Core类的构造函数,进行初始化:

Core ie = new Core(model_file_paddle, device_name);

03

配置模型输入

花卉分类模型输入只有一个,即待分类花卉图片。如果我们调用的模型未指定输入大小,需要在输入数据前,调用模型输入数据形状设置方法,设置节点输入数据形状。图片数据为三维数组,再加一个batchsize,最终为四维数据,将形状数据放在数组中,调用set_input_sharp()方法:

ulong[] image_sharp = new ulong[] { 1, 3, 224, 224 };

ie.set_input_sharp(input_node_name, image_sharp);

对于图片数据,需要将其转为转为矩阵数据,在此处,我们可以直接使用opencvsharp中的编解码方法,将图片数据放置在byte数组中:

Mat image = new Mat(image_file);

byte[] image_data = new byte[2048 * 2048 * 3];

ulong image_size = new ulong();

image_data = image.ImEncode(".bmp");

image_size = Convert.ToUInt64(image_data.Length);

就最后调用Core类中的load _input_data()方法,将数据加载到推理网络中:

ie.load_input_data(input_node_name, image_data, image_size);

在配置完输入数据后,调用模型推理方法,对输入数据进行推理:

ie.infer();

接下来就是读取推理结果,对于模型的推理结果输出一般为数组数据,可以通过调用Core类中读取推理数据结果的方法,对与花卉分类模型的输出,其结果为长度为102的浮点型数据,所以直接调用read_inference_result ()方法读取即可:

float[] result = new float[102];

result = ie.read_infer_result(output_node_name, 102);

在读取推理数据时,我们一定要根据模型的书名读取正确的结果数据,因为如果超出实际输出长度,其结果数据会掺杂其他干扰数据。

最后一步就是处理输出数据。对于不同的推理模型,其结果处理方式是不同的,对于花卉分类模型,其输出为102种分类情况打分,因此,在处理数据时,需要找出得分最高的哪一类即可。在此处,我们提供了一个方法,该方法可以实现提取数组中前N个max数据的位置,通过调用该方法,我们可以获取分类结果中分数最高的几个结果,并将结果打印输出:

int[] index = find_array_max(result,5);

for (int i = 0; i < 5; i++){

Console.WriteLine("the index is {0} , the score is {1} ", index[i], result[index[i]]);

}

最终输出结果如图1- 16所示,该页面打印出来了推理结果预测分数最大的前五个分数和其对应的索引值,最后可以通过索引值查询flowers102_label_list.txt文件中对应的花卉名称。

71311994-ccea-11ec-bce3-dac502259ad0.png

图1- 16 花卉分类结果

在程序最后,我们该需要将前面在内存上创建推理引擎结构体进行删除,只需要调用Core类下的delet()即可。

1.6.5 编写代码测试车辆识别模型

对于车辆识别模型此处不再进行详细讲解,具体实现可以参考源码文件,此处只对一些不同点进行分析。

在配置输入时,除了需要配置图片数据输入,还需要配置图片长宽数据以及长宽缩放比例数据,在配置时,只需要将数据放置在数组中,通过调用load_input_data()方法实现,对于设置缩放比例数据输入,如下所示:

float scale_h = 608.00f / image.Height;

float scale_w = 608.00f / image.Width;

float[] scale_factor = new float[] { scale_h, scale_w };

ie.load_input_data(input_node_name[1], scale_factor);

对于该模型推理结果数据,总共有两个节点输出,一个是识别结果数量,一个为识别结果信息。对于识别结果数量,其数据类型为整形数据,对于单图片输入,只需要读取一位即可,利用该数据,确定识别结果信息长度。识别结果信息为6列N行数据,在数据读取时,我们将其转化为一维数据,所以在处理数据时,以6位数据为一组,进行处理。

识别结果信息数据中,第1位为识别标签,第2位为识别得分,第3位到第6位四个数据为位置矩形框对角点坐标,通过每6位读取一次数据,获取识别结果。在此处,我们提供了专门的结果处理方法,通过该方法们可以实现直接将结果绘制在原图片上:

image = draw_image_resule(image, resule_num[0], result, lable, 0.2f);

其中image为原图片,resule_num[0]为识别结果数量,result为识别结果数组,lable为结果标签,0.2f为评价得分下限。通过结果处理,将识别结果标注在图片中,并把识别结果以及得分情况打印在图片中,最终识别结果如图1- 17所示。

715a6952-ccea-11ec-bce3-dac502259ad0.png

图1- 17 车辆类型识别结果输出

1.7 程序时间分析

为了对比C++、C#以及Python这三个平台下调用OpenVINO 所使用的时间,我们通过测试flower_clas以及vehicle_yolov3_darknet模型运行时间进行对比,在同一台电脑相同运行环境之下,以及对模型的处理方式在不同编程语言下尽量做到相同,在程序测试100次之后,得到结果表1- 3如所示。

表1- 3 程序运行时间

718c9bac-ccea-11ec-bce3-dac502259ad0.png

在本次检测中,我们通过C++、C#以及Python分别调用OpenVINO 进行模型的部署与推理,通过上述表格,一方面可以看出,C#通过调用C++的dll,实现模型的部署与推理,并没有太大的影响程序的运行速度;另一方面,C++与C#部署模型推理,在总时间上来看,运行速度是优于Python的。

测试模型运行时间所使用的测试代码,已同步到远程成代码托管仓库gitee与github中,具体在https://gitee.com/guojin-yan/OpenVinoSharp/tree/master/openvino_run_time文件夹下,使用人员可以根据自己的设备对C++、C#和Python三个平台进行测试。

1.8 项目总结

该项目通过C++调用OpenVINO ,创建推理方法接口,并通过调用dll文件的方式,在C#中进行重新构建Core模型推理类,并测试了花卉分类模型以及车辆识别模型,在预测结果精度以及预测时间上,和C++相比,并没有较大的差异。

该项目所提供的方法,证实了C#平台调用OpenVINO 的可行性,为后续在C#部署OpenVINO 模型提供了一个技术途径。本文所有源代码参见:

https://gitee.com/guojin-yan/OpenVinoSharp

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • C++
    C++
    +关注

    关注

    22

    文章

    2108

    浏览量

    73623
  • 深度学习
    +关注

    关注

    73

    文章

    5500

    浏览量

    121113

原文标题:在C#中调用OpenVINO™ 模型 | 开发者实战

文章出处:【微信号:英特尔物联网,微信公众号:英特尔物联网】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    基于哪吒开发部署YOLOv8模型

    开发板的推理性能,同时测试所推出的 OpenVINO C# API (https://github.com/guojin-yan/OpenVINO-CSharp-API)
    的头像 发表于 11-15 14:13 223次阅读
    基于哪吒<b class='flag-5'>开发</b>板<b class='flag-5'>部署</b>YOLOv8<b class='flag-5'>模型</b>

    使用OpenVINO Model Server在哪吒开发板上部署模型

    OpenVINO Model Server(OVMS)是一个高性能的模型部署系统,使用C++实现,并在Intel架构上的部署进行了优化,使用
    的头像 发表于 11-01 14:19 273次阅读
    使用<b class='flag-5'>OpenVINO</b> Model Server在哪吒<b class='flag-5'>开发</b>板上<b class='flag-5'>部署</b><b class='flag-5'>模型</b>

    【BearPi-Pico H3863星闪开发板体验连载】SDK架构分析,项目开发

    提供了丰富的功能和工具,使得从项目创建、代码编写、模型训练到部署测试的全过程变得更加简单直观。HiSpark Studio 是一款功能强大、易于使用的海思IC,AI
    发表于 10-25 21:22

    使用OpenVINO C++在哪吒开发板上推理Transformer模型

    OpenVINO 是一个开源工具套件,用于对深度学习模型进行优化并在云端、边缘进行部署。它能在诸如生成式人工智能、视频、音频以及语言等各类应
    的头像 发表于 10-12 09:55 331次阅读
    使用<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C</b>++在哪吒<b class='flag-5'>开发</b>板上推理Transformer<b class='flag-5'>模型</b>

    OpenVINOC++ 在哪吒开发板上推理 Transformer 模型开发者实战

    使用OpenVINO定制你的AI助手丨开发者实战作者:王国强苏州嘉树医疗科技有限公司算法工程师指导:颜国进英特尔边缘计算创新大使研扬科技针对边缘AI行业开发者推出的『哪吒』(Nezha)开发套
    的头像 发表于 09-28 08:01 328次阅读
    <b class='flag-5'>OpenVINO</b>™ <b class='flag-5'>C</b>++ 在哪吒<b class='flag-5'>开发</b>板上推理 Transformer <b class='flag-5'>模型</b>|<b class='flag-5'>开发</b>者实战

    NVIDIA RTX AI套件简化AI驱动的应用开发

    NVIDIA 于近日发布 NVIDIA RTX AI套件,这一工具和 SDK 集合能够帮助 Windows 应用开发者定制、优化和部署适用于 Windows 应用的 AI
    的头像 发表于 09-06 14:45 437次阅读

    三行代码完成生成式AI部署

    OpenVINO2024.2版本跟之前版本最大的不同是OpenVINO2024.2分为两个安装包分别是基础包与生成式AI支持包,新发布的GenAI开发包支持C++与Python语言接口
    的头像 发表于 08-30 16:49 413次阅读
    三行代码完成生成式AI<b class='flag-5'>部署</b>

    使用OpenVINO C# API部署YOLO-World实现实时开放词汇对象检测

    的快速准确识别,并通过AR技术将虚拟元素与真实场景相结合,为用户带来沉浸式的交互体验。在本文中,我们将结合OpenVINO C# API使用最新发布的OpenVINO 2024.0部署
    的头像 发表于 08-30 16:27 628次阅读
    使用<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C#</b> API<b class='flag-5'>部署</b>YOLO-World实现实时开放词汇对象检测

    OpenVINO C# API在intel平台部署YOLOv10目标检测模型

    模型设计策略,从效率和精度两个角度对YOLOs的各个组成部分进行了全面优化,大大降低了计算开销,增强了性能。在本文中,我们将结合OpenVINO C# API使用最新发布的OpenVINO
    的头像 发表于 06-21 09:23 1020次阅读
    用<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C#</b> API在intel平台<b class='flag-5'>部署</b>YOLOv10目标检测<b class='flag-5'>模型</b>

    简单两步使用OpenVINO™搞定Qwen2的量化与部署任务

    英特尔 OpenVINO工具套件是一款开源 AI 推理优化部署工具套件,可帮助
    的头像 发表于 04-26 09:39 1653次阅读
    简单两步使用<b class='flag-5'>OpenVINO</b>™搞定Qwen2的量化与<b class='flag-5'>部署</b>任务

    简单三步使用OpenVINO™搞定ChatGLM3的本地部署

    英特尔 OpenVINO工具套件是一款开源 AI 推理优化部署工具套件,可帮助
    的头像 发表于 04-03 18:18 2051次阅读
    简单三步使用<b class='flag-5'>OpenVINO</b>™搞定ChatGLM3的本地<b class='flag-5'>部署</b>

    【转载】英特尔开发套件“哪吒”快速部署YoloV8 on Java | 开发者实战

    OpenVINO 工具套件基于OneAPI开发,可以加快高性能计算机视觉和深度学习应用开发速度的工具
    的头像 发表于 03-23 08:05 552次阅读
    【转载】英特尔<b class='flag-5'>开发套件</b>“哪吒”快速<b class='flag-5'>部署</b>YoloV8 on Java | <b class='flag-5'>开发</b>者实战

    基于英特尔哪吒开发套件平台来快速部署OpenVINO Java实战

    OpenVINO 工具套件基于OneAPI开发,可以加快高性能计算机视觉和深度学习应用开发速度的工具
    的头像 发表于 03-21 18:24 1478次阅读
    基于英特尔哪吒<b class='flag-5'>开发</b>者<b class='flag-5'>套件</b>平台来快速<b class='flag-5'>部署</b><b class='flag-5'>OpenVINO</b> Java实战

    如何在MacOS上编译OpenVINO C++项目呢?

    英特尔公司发行的模型部署工具 OpenVINO 模型部署套件
    的头像 发表于 01-11 18:07 895次阅读
    如何在MacOS上编译<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C</b>++<b class='flag-5'>项目</b>呢?

    OpenVINO™ 赋能千元级『哪吒』AI开发套件大语言模型 | 开发者实战

    ,大多数高性能模型通常需要昂贵的计算资源,使得它们的应用受限于有限的环境。本文将探讨在OpenVINO的赋能下,如何在不足千元的AI开发板上部署Stable-Zeph
    的头像 发表于 01-06 08:05 1518次阅读
    <b class='flag-5'>OpenVINO</b>™ 赋能千元级『哪吒』AI<b class='flag-5'>开发套件</b>大语言<b class='flag-5'>模型</b> | <b class='flag-5'>开发</b>者实战