0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

在ELF 1 开发板上实现读取摄像头视频进行目标检测

ElfBoard 2024-01-24 10:38 次阅读

当前,将AI深度学习算法(如分类、目标检测和轨迹追踪)部署到嵌入式设备,进而实现边缘计算,正成为轻量级深度学习算法发展的一个重要趋势。今天将与各位小伙伴分享一个实际案例:在ELF 1开发板上成功部署深度学习模型的项目,该项目能够实时读取摄像头视频流并实现对画面中的物体进行精准的目标检测

项目所需的硬件设备:1、基于NXP(恩智浦)i.MX6ULL的ELF 1开发板,2、网线,3、USB摄像头。


获取开发板摄像头文件路径

本次项目开发使用的为普通的USB摄像头,将摄像头插在开发板任一USB口均可。

wKgaomWwc62AdHkFAA84k1aIyk4789.png

Linux开发板中使用USB摄像头,通常会涉及到一些基本的命令行操作。这些操作主要是通过 Video4Linux (V4L2)内核框架API进行的。以下是一些常用的命令和概念:

1. 列出所有摄像头设备: 使用 ls /dev/video* 命令可以列出所有已连接的视频设备。这些设备通常显示为 /dev/video0 , /dev/video1 等。如下图,开发板中对应的摄像头为/dev/video2(插入哪个USB口都是一样的)。

wKgZomWwc9aAS0PnAAFY7oKBqK0923.png

2. 查看摄像头信息: 使用v4l2-ctl --all -d /dev/video2可以查看特定摄像头(例如/dev/video2)的所有信息,包括支持的格式、帧率等。可以看到图象尺寸为640×480,为了和后续的目标检测输入图像大小匹配,需要在程序中进行resize。

wKgZomWwc_yADzB3AAMBo4JfDFE785.png

编写程序,读取取摄像头视频进行检测

并传递检测结果到上位机

编写在开发板中运行的程序,开发板中运行的程序主要有两个功能:1. 读取摄像头捕捉的视频并进行检测,2. 将检测结果通过网络通信传递到上位机中。

首先是第一个功能,因为一边要读取视频,一边要进行图片检测,为了提高检测速度,使用多线程来编写相应的程序。线程间通讯采用队列,为避免多线程间的竞态,在访问共享资源时需要添加互斥锁。

第二个功能,采用socket通信,将检测后的图像发送到上位机中即可。

下面是完整的程序实现:

/*命名为 squeezenetssd_thread.cpp */ #include "net.h" #include

#include

#include #include #include #include #include #include

#include /*增加多线程代码*/ #include #include #include #include /*队列通信,全局变量*/ std::queue frameQueue; std::mutex queueMutex; std::condition_variable queueCondVar; bool finished = false; const size_t MAX_QUEUE_SIZE = 2; // 设为两个,因为检测速度实在太慢,多了意义不大

struct Object { cv::Rect_ rect; int label; float prob; }; ncnn::Net squeezenet; int client_sock; static int detect_squeezenet(const cv::Mat& bgr, std::vector& objects)

{ const int target_size = 300; int img_w = bgr.cols; int img_h = bgr.rows; ncnn::Mat in = ncnn::Mat::from_pixels_resize(bgr.data, ncnn::Mat::PIXEL_BGR, bgr.cols, bgr.rows, target_size, target_size);

const float mean_vals[3] = {104.f, 117.f, 123.f};

in.substract_mean_normalize(mean_vals, 0); ncnn::Extractor ex = squeezenet.create_extractor(); ex.input("data", in); ncnn::Mat out; ex.extract("detection_out", out); // printf("%d %d %d\n", out.w, out.h, out.c); objects.clear(); for (int i = 0; i < out.h; i++) 

{ const float* values = out.row(i); Object object; object.label = values[0]; object.prob = values[1];

object.rect.x = values[2] * img_w; object.rect.y = values[3] * img_h; object.rect.width = values[4] * img_w - object.rect.x; object.rect.height = values[5] * img_h - object.rect.y; objects.push_back(object); } return 0; } static void draw_objects(cv::Mat& bgr, const std::vector& objects)

{ static const char* class_names[] = {"background", "aeroplane", "bicycle", "bird", "boat", "bottle", "bus", "car", "cat", "chair", "cow", "diningtable", "dog", "horse", "motorbike", "person", "pottedplant", "sheep", "sofa", "train", "tvmonitor" }; //cv::Mat image = bgr.clone(); //cv::Mat& image = bgr; for (size_t i = 0; i < objects.size(); i++) { const Object& obj = objects[i]; 

fprintf(stderr, "%d = %.5f at %.2f %.2f %.2f x %.2f\n", obj.label, obj.prob, obj.rect.x, obj.rect.y, obj.rect.width, obj.rect.height);

cv::rectangle(bgr, obj.rect, cv::Scalar(255, 0, 0)); char text[256];

sprintf(text, "%s %.1f%%", class_names[obj.label], obj.prob * 100); int baseLine = 0; cv::Size label_size = cv::getTextSize(text, cv::FONT_HERSHEY_SIMPLEX, 0.5, 1, &baseLine); int x = obj.rect.x; int y = obj.rect.y - label_size.height - baseLine; if (y < 0) y = 0; if (x + label_size.width > bgr.cols) x = bgr.cols - label_size.width; cv::rectangle(bgr, cv::Rect(cv::Point(x, y), cv::Size(label_size.width, label_size.height + baseLine)), cv::Scalar(255, 255, 255), -1); cv::putText(bgr, text, cv::Point(x, y + label_size.height), cv::FONT_HERSHEY_SIMPLEX, 0.5, cv::Scalar(0, 0, 0)); } // cv::imshow("image", image); // cv::waitKey(0); } void send_to_client(const cv::Mat& image, int client_sock) { std::vector buffer; std::vector params = {cv::IMWRITE_JPEG_QUALITY, 80}; cv::imencode(".jpg", image, buffer, params); uint32_t len = htonl(buffer.size()); send(client_sock, &len, sizeof(len), 0);

send(client_sock, buffer.data(), buffer.size(), 0); } /*线程1工作函数,此线程是用来采集相机图像的*/ static void captureThreadFunction(cv::VideoCapture& cap) { while (true) { cv::Mat frame; cap >> frame; if (frame.empty()) { finished = true; queueCondVar.notify_all(); break; } cv::rotate(frame, frame, cv::ROTATE_90_COUNTERCLOCKWISE); // 图像旋转90度 std::unique_lock lock(queueMutex); if (frameQueue.size() >= MAX_QUEUE_SIZE) { frameQueue.pop(); // 丢弃最旧的帧

} frameQueue.push(frame); queueCondVar.notify_one(); } } /* 线程2工作函数,此线程是用来检测图像*/

void processThreadFunction() { int frameCount = 0; while (true) { cv::Mat frame; { std::unique_lock lock(queueMutex); queueCondVar.wait(lock, []{ return !frameQueue.empty() || finished; }); if (finished && frameQueue.empty()) { // 退出前释放锁 return; // 使用 return 替代 break 来确保在持有锁时不退出循环

} frame = frameQueue.front(); frameQueue.pop(); } // 锁在这里被释放 // 检测代码...

std::vector objects; // if (++frameCount % 5 == 0) { // detect_squeezenet(frame, objects); // frameCount = 0; // } detect_squeezenet(frame,objects); draw_objects(frame, objects); send_to_client(frame, client_sock); if (cv::waitKey(1) >= 0)

{ break; } } } int main() { int server_sock = socket(AF_INET, SOCK_STREAM, 0); if (server_sock < 0) 

{ perror("socket 创建失败"); return -1; } struct sockaddr_in server_addr; server_addr.sin_family = AF_INET; server_addr.sin_port = htons(12345); server_addr.sin_addr.s_addr = INADDR_ANY; if (bind(server_sock, (struct sockaddr*)&server_addr, sizeof(server_addr)) < 0) 

{ perror("bind 失败"); close(server_sock); return -1; } if (listen(server_sock, 1) < 0) { perror("listen 失败");

close(server_sock); return -1; } printf("等待客户端连接...\n"); struct sockaddr_in client_addr; socklen_t client_len = sizeof(client_addr); client_sock = accept(server_sock, (struct sockaddr*)&client_addr, &client_len); if (client_sock < 0) { perror("accept 失败"); close(server_sock); return -1; } 

printf("客户端已连接\n"); // ... [模型加载和初始化代码] ... cv::VideoCapture cap("/dev/video2");

if (!cap.isOpened()) { fprintf(stderr, "摄像头打开失败\n"); return -1; } squeezenet.opt.use_vulkan_compute = true; // original pretrained model from https://github.com/chuanqi305/SqueezeNetSSD // squeezenet_ssd_voc_deploy.prototxt // https://drive.google.com/open?id=0B3gersZ2cHIxdGpyZlZnbEQ5Snc // the ncnn model https://github.com/nihui/ncnn-assets/tree/master/models if (squeezenet.load_param("squeezenet_ssd_voc.param")) exit(-1);

if (squeezenet.load_model("squeezenet_ssd_voc.bin")) exit(-1);

std::thread captureThread(captureThreadFunction, std::ref(cap)); std::thread processThread(processThreadFunction); captureThread.join(); processThread.join(); cap.release(); close(client_sock); close(server_sock); return 0; }

将上述程序,拷贝到ncnn目录下,并更改CMakeLists.txt文件。

1、拷贝程序

wKgaomWwdPiAS4oeAALOyg8ZGRs995.png

2、更改CMakeLists.txt文件

wKgaomWwdR-AWsvVAAMdliYh20M564.png

wKgaomWwdTuAP9lYAAFc-1-BiPg034.pngwKgaomWwdU6AIqG7AAISuue24A4519.png

做好以上工作后,我们直接进入ncnn-master/build/examples/ 文件夹下进行编译。编译之前直接切换到ncnn-master/build 目录输入:

cmake -DCMAKE_TOOLCHAIN_FILE=../toolchains/arm-linux-gnueabihf.toolchain.cmake - DNCNN_SIMPLEOCV=ON -DNCNN_BUILD_EXAMPLES=ON -DCMAKE_BUILD_TYPE=Release ..

然后切换到ncnn-master/build/examples/ 目录下输入 make -j4 即可。

wKgZomWwd2-AM6VeAALgCsFSxBo812.png

可见编译成功,拷贝到开发板中就行。

wKgaomWwd4uAbCsxAAESAXakkr4044.png

编写上位机软件

上位机软件较为简单,使用ChatGPT生成源码即可,下面附上源码:

import socket import cv2 import numpy as np client_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM) client_socket.connect(('192.168.0.232', 12345)) # Connect to the server while True: # Receive size of the frame size = client_socket.recv(4) size = int.from_bytes(size, byteorder='big') # Receive the frame buffer = b'' while len(buffer) < size: buffer += client_socket.recv(size - len(buffer)) # Decode and display the frame frame = np.frombuffer(buffer, dtype=np.uint8) frame = cv2.imdecode(frame, cv2.IMREAD_COLOR) cv2.imshow('Received Frame', frame) if cv2.waitKey(1) & 0xFF == ord('q'): break client_socket.close() cv2.destroyAllWindows()

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 嵌入式
    +关注

    关注

    5087

    文章

    19149

    浏览量

    306231
  • Linux
    +关注

    关注

    87

    文章

    11322

    浏览量

    209888
  • 摄像头
    +关注

    关注

    60

    文章

    4851

    浏览量

    95936
  • 开发板
    +关注

    关注

    25

    文章

    5084

    浏览量

    97743
收藏 人收藏

    评论

    相关推荐

    ElfBoard技术贴|ELF 1开发板适配摄像头详解

    ELF1ELF1S开发板适配的OV5640摄像头,集成了CMOS图像传感器,作为一款500万像素级别的摄像头,不仅能够支持最高达2592x
    的头像 发表于 12-27 10:16 651次阅读
    ElfBoard技术贴|<b class='flag-5'>ELF</b> <b class='flag-5'>1</b><b class='flag-5'>开发板</b>适配<b class='flag-5'>摄像头</b>详解

    基于FPGA的摄像头心率检测装置设计

    装置, 通过网络摄像头获取人脸视频图像,通过 FPGA 进行分析处理,得到心跳信号, 并将计算得出心率值实时显示 HDMI 屏幕。 1.
    发表于 07-01 17:58

    基于TI AM437x 创龙开发板的OV2659摄像头模块测试

    视频的实时采集,并将视频保存在本地或者显示LCD显示屏开发板图如下:具体测试如下:1.本地
    发表于 05-15 09:40

    通过Dragonboard 410c开发板USB摄像头进行移动侦测

    将我们的USB摄像头、鼠标和键盘链接到dragonbaord 410c开发板即可,如果你使用的是有线的USB鼠标和键盘,USB鼠标和摄像头可以共用一个。搭建好环境后,我们就可以来
    发表于 09-21 10:56

    【FPGA DEMO】Lab 4:摄像头HDMI显示(高速--HDMI&摄像头)

    `项目名称:摄像头HDMI显示。具体要求:摄像头采集的视频图像数据通过HDMI实时显示。 系统设计:Perf-V开发板可以连接高速口——HDMI&
    发表于 07-30 15:21

    OV13850摄像头开发板的配置过程怎样的?

    OV13850摄像头开发板的配置过程怎样的?
    发表于 03-07 08:06

    【合宙Air105开发板试用体验】Ari105开发板开箱,及摄像头使用

    ,直接上摄像头了。要正常使用摄像头,我们需要如下的准备:1. 连接好摄像头2. 了解开发板的拨
    发表于 05-22 21:41

    一键实现V853开发板摄像头自由

    视频中所实现摄像头UI控制效果,是通过全志V853开发板使用InoneGUI+mpp+Ai
    发表于 09-08 13:41

    RK3288开发板安卓5.1实现虚拟摄像头

    1、RK3288下如何实现虚拟摄像头  提示:由于项目技术要求,需要在RK3288开发板安卓5.1实现
    发表于 11-23 17:16

    ELF 1开发板试用】+ 3.2 USB摄像头连接测试 + Ubutu SSH连接

    连接测试 本文继续做一下连接接口的测试,本文使用USB摄像头进行连接,以测试ELF 1 USB功能,以及其对应的摄像头
    发表于 12-06 15:37

    ELF 1开发板试用】板载资源测试3:OV5640 摄像头测试

    飞凌嵌入式ELF1开发板(以下简称为“开发板”)底板设计了一个摄像头接口,正好手里边有一个OV5640摄像头,但由于没有扩展板,手里边也没有
    发表于 12-15 22:49

    基于Dragonboard 410c开发板的USB摄像头图像保存实现

    前一个blog中跟大家分享了如何快速的编写程序从连接在Dragonboard 410c开发板的USB摄像头读取图像信息,给大家简单介绍了一下如何搭建Dragonabord 410c
    发表于 02-17 10:19 1229次阅读

    迅为RK3568开发板Debian系统使用python 进行摄像头开发

    迅为RK3568开发板Debian系统使用python 进行摄像头开发
    的头像 发表于 09-14 16:58 1575次阅读
    迅为RK3568<b class='flag-5'>开发板</b>Debian系统使用python <b class='flag-5'>进行</b><b class='flag-5'>摄像头</b><b class='flag-5'>开发</b>

    项目分享|基于ELF 1开发板的远程监测及人脸识别项目

    小伙伴详尽展示这一项目的相关细节。项目实现步骤1.视频监控这一步骤中需要实现两个程序:(1
    的头像 发表于 03-13 16:41 544次阅读
    项目分享|基于<b class='flag-5'>ELF</b> <b class='flag-5'>1</b><b class='flag-5'>开发板</b>的远程监测及人脸识别项目