简介
Xilinx Vitis-AI 是用于 Xilinx 硬件平台上的 AI 推理的开发堆栈。它由优化的 IP、工具、库、模型和示例设计组成。
简单来说,它主要包含:
AI推理加速器IP,即DPU;
支持将AI模型优化 (Optimizer)、量化 (Quantizer)、最后编译 (Compiler) 成DPU运行指令集的整套工具;
支撑模型运行的运行时库(Vitis-AI runtime, Vitis-AI library);
本案例中,我们将使用 Xilinx Kria KV260开发板(包含ZynqMP器件)为目标运行设备。
本文使用的Vitis-AI 版本为1.4, 使用的platform基于Vitis/Vivado 2020.2。为了方便快速部署,我们直接使用官方发布的Linux系统启动镜像, 并且使用Vitis-AI library为编程接口。
准备工作
开始工作前我们需要先搭建好运行环境,包括设置host端(X86机器)的交叉编译环境,以及 target端(KV260)的启动镜像烧写。
本文的主要目的是阐述 Vitis-AI Library 的使用,故运行环境的搭建不做过多介绍,可以完全参考以下链接中的步骤
“Step1: Setup cross-compiler”
“Step2: Setup the Target”
注意因为KV260 的Vitis-AI 1.4 platform基于Vitis/Vivado 2020.2, 配置交叉编译环境使用的脚本为host_cross_compiler_setup_2020.2.sh
因为我们使用官方启动镜像,Step2中标注为“Optional”的步骤我们都可以省略。
当KV260成功启动,我们会在console中看到如下提示符:
root@xilinx-k26-starterkit-2020_2:~#
程序编译
可通过如下方式获得本案例中的代码,
主要用到的文件为classification.cpp和Makefile。另外几个Jpeg文件可用于后续测试输入。
安装准备工作章节中配置好交叉编译环境后,切换到源码目录中直接运行make。make完成后文件夹中会生成执行文件“classification”。
运行演示
KV260 连接好串口,从SD卡启动运行(记得提前把执行文件和测试图片拷贝到SD下),
切换到执行文件和测试图片目录下,运行 ./classification.JPEG
分类结果如下:
图片原图:
代码分析
Vitis-AI包含了两组编程接口:VART (Vitis-AI Runtime) 比较底层,提供更大的自由度;Vitis-AI library属于高层次API,构建于 VART 之上,通过封装许多高效、高质量的神经网络,提供更易于使用的统一接口。
Vitis-AI Library的组成如下图,包含 base libraries, model libraries, library test samples, application demos几个部分:
base libraries提供底层接口;
model libraries是重要的部分,提供了主流模型(classification, detection, segmentation…) 的调用方法;
library test samples和application demos主要提供library的使用示例;
再来看本例子,如何用简单到10行代码实现图片分类:
int main(int argc, char* argv[]) {
std::string image_name = argv[1];
auto image = cv::imread(image_name);
auto network = vitis::create("resnet50");
auto result = network->run(image);
cout << "Classification result:" << endl;
for (const auto &r : result.scores){
cout << result.lookup(r.index) << ": " << r.score << endl;
}
}
源文件中除去include部分,只有10行代码,代码中最重要的有两句,第一句调用create方法创建了Classification类的一个实例,第二句调用run方法来运行神经网络获得推理结果。
auto network = vitis::create("resnet50");
auto result = network->run(image);
vitis::Classification 是 model libraries 中的一个基础类,其作用是进行图片分类,这个类中包含如下方法:
其中create方法接受一个模型名称作为参数,返回一个Classification类的实例。在安装了Vitis-AI Library的开发板上,已经训练编译好的模型文件放在开发板的/usr/share/vitis_ai_library/models/目录下,Vitis-AI Library会通过传递给create方法的模型名称来调用这些模型文件,比如我们用到的resnet50模型文件位置如下,
如果用户训练并编译好了自己的模型,也可以把自己的模型文件放到对应位置来使用。
run方法接受一个/一组图片作为输入,输出这个/这些图片的分类结果。其工作简单来说就是把模型文件和图片数据传送给DPU, DPU运行并输出推理结果,CPU再读回结果。
再看下添加了注释的代码片段,整个过程实际上非常简单明了。
int main(int argc, char* argv[]) {
std::string image_name = argv[1];
auto image = cv::imread(image_name); // 读入图片
auto network = vitis::create("resnet50"); // 用resnet50模型创建Classification类实例
auto result = network->run(image); //运行模型
cout << "Classification result:" << endl;
for (const auto &r : result.scores){
cout << result.lookup(r.index) << ": " << r.score << endl; //输出模型运行结果
}
}
除了Classification基础类, Vitis-AI Library包含了非常多的常用机器学习任务(classification, detection, segmentation…)的基础类。这些类的使用方法基本一致,
首先通过create方法创建基础类的实例,
通过getInputWidth()/getInputHeight()来获取模型需要的图片尺寸,
resize图片,
运行run方法来运行网络获得输出。
总结
通过这个例子,我们看到通过Vitis-AI工具,可以大大缩减模型到部署之间的距离。Vitis-AI包含了常用模型的Model-Zoo, 提供简单易用的编程接口,甚至可以让不熟悉机器学习或者FPGA的软件开发者都可以在极短的时间内在FPGA/SoC器件上部署神经网络应用。
审核编辑:刘清
-
神经网络
+关注
关注
42文章
4751浏览量
100443 -
SD卡
+关注
关注
2文章
558浏览量
63760 -
DPU
+关注
关注
0文章
354浏览量
24104 -
Zynq
+关注
关注
9文章
607浏览量
47102
原文标题:10行代码轻松在ZYNQ MP上实现图像识别
文章出处:【微信号:HXSLH1010101010,微信公众号:FPGA技术江湖】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论