0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

opencv双目标定操作完整版

QQ475400555 来源:CSDN 作者:CSDN 2022-12-12 10:20 次阅读

一、首先说明几个情况:

1、完成双目标定必须是自个拿棋盘图摆拍,网上涉及用opencv自带的标定图完成双目标定仅仅是提供个参考流程。我原来还以为用自带的图标定就行,但想不通的是咱们实际摆放的双目摄像头和人家当时摆放的肯定不一样,那用人家的标定图怎么能反应自己摄像头的实际情况;后来问了大神,才知道用opencv自带的标定图(或者说别人提供的图)进行标定,这是完全没有意义的。

2、进行双目标定必须是左右相机同时进行拍摄,再把图保存下来。这点我是看opencv自带的图发现的,左右相机对应的图摆拍的姿势是一模一样的,除了左右相机视角带来的影响。

3、我是先完成单目标定,再完成双目标定。记得把理论看看,要不然有些概念不清楚。

二、

1、先固定好左右相机,拿棋盘标定图摆拍并保存,我左右相机各15张,网上看的说是总共30~40张为宜,这个大家随意。

棋盘标定图在我另发的一个博客里免费下载,当时找了好久,下载的、程序生成的都或多或少有那么一些问题。知识是得有价,但棋盘图这种最最基本的工具,博客里基本都需要拿币下载,真是服。

程序:

// 同时调用两个摄像头,暂停并保存左右相机的标定棋盘图

#include

#include

#include

using namespace cv;

using namespace std; //开头我是从教程学的,一般不变,直接用

int main(int argc, char* argv[])

{

VideoCapture cap(0);

VideoCapture cap1(1); //打开两个摄像头

if(!cap.isOpened())

{

printf("Could not open camera0... ");

return -1;

}

if (!cap1.isOpened())

{

printf("Could not open camera1... ");

return -2;

} //判断还是加上为好,便于调程序

Mat frame, frame1;

bool stop = false;

while (!stop)

{

cap.read(frame);

cap1.read(frame1);

imshow("camera0", frame);

imshow("camera1", frame1);

int delay = 30;

if (delay >= 0 && waitKey(delay) >= 0)

{

waitKey(0); //实时拍摄暂停的程序

}

imwrite("C:/Users/Administrator/Desktop/11/left1.jpg", frame1);

imwrite("C:/Users/Administrator/Desktop/11/right1.jpg", frame); //给个位置保存图片,注意图片到底是左相机还是右相机的(用手在摄像头前晃晃),我用的笨方法,保存一下,再把(left1.jpg/right1.jpg)+1,接着保存

}

cap.release();

cap1.release(); //两个摄像头数据释放

return 0;

}

2、完成单目标定,程序我是借鉴网上的,修改的不多。

//左右单目相机分别标定

#include "opencv2/core/core.hpp"

#include "opencv2/imgproc/imgproc.hpp"

#include "opencv2/calib3d/calib3d.hpp"

#include "opencv2/highgui/highgui.hpp"

#include

#include "cv.h"

#include

#include

using namespace std;

using namespace cv; //人家这开头都长,遇到有红线标记的就删了,把你知道的开头加上,没问题

const int boardWidth = 9; //横向的角点数目

const int boardHeight = 6; //纵向的角点数据

const int boardCorner = boardWidth * boardHeight; //总的角点数据

const int frameNumber = 15; //相机标定时需要采用的图像帧数

const int squareSize = 25; //标定板黑白格子的大小 单位mm

const Size boardSize = Size(boardWidth, boardHeight); //总的内角点

Mat intrinsic; //相机内参数

Mat distortion_coeff; //相机畸变参数

vectorrvecs; //旋转向量

vectortvecs; //平移向量

vector corners; //各个图像找到的角点的集合 和objRealPoint 一一对应

vector objRealPoint; //各副图像的角点的实际物理坐标集合

vectorcorner; //某一副图像找到的角点

/*计算标定板上模块的实际物理坐标*/

void calRealPoint(vector& obj, int boardwidth, int boardheight, int imgNumber, int squaresize)

{

vectorimgpoint;

for (int rowIndex = 0; rowIndex < boardheight; rowIndex++)

{

for (int colIndex = 0; colIndex < boardwidth; colIndex++)

{

imgpoint.push_back(Point3f(rowIndex * squaresize, colIndex * squaresize, 0));

}

}

for (int imgIndex = 0; imgIndex < imgNumber; imgIndex++)

{

obj.push_back(imgpoint);

}

}

/*设置相机的初始参数 也可以不估计*/

void guessCameraParam(void)

{

/*分配内存*/

intrinsic.create(3, 3, CV_64FC1); //相机内参数

distortion_coeff.create(5, 1, CV_64FC1); //畸变参数

/*

fx 0 cx

0 fy cy

0 0 1 内参数

*/

intrinsic.at(0, 0) = 256.8093262; //fx

intrinsic.at(0, 2) = 160.2826538; //cx

intrinsic.at(1, 1) = 254.7511139; //fy

intrinsic.at(1, 2) = 127.6264572; //cy

intrinsic.at(0, 1) = 0;

intrinsic.at(1, 0) = 0;

intrinsic.at(2, 0) = 0;

intrinsic.at(2, 1) = 0;

intrinsic.at(2, 2) = 1;

/*

k1 k2 p1 p2 p3 畸变参数

*/

distortion_coeff.at(0, 0) = -0.193740; //k1

distortion_coeff.at(1, 0) = -0.378588; //k2

distortion_coeff.at(2, 0) = 0.028980; //p1

distortion_coeff.at(3, 0) = 0.008136; //p2

distortion_coeff.at(4, 0) = 0; //p3

}

void outputCameraParam(void)

{

/*保存数据*/

//cvSave("cameraMatrix.xml", &intrinsic);

//cvSave("cameraDistoration.xml", &distortion_coeff);

//cvSave("rotatoVector.xml", &rvecs);

//cvSave("translationVector.xml", &tvecs);

/*输出数据*/

//cout << "fx :" << intrinsic.at(0, 0) << endl << "fy :" << intrinsic.at(1, 1) << endl;

//cout << "cx :" << intrinsic.at(0, 2) << endl << "cy :" << intrinsic.at(1, 2) << endl;//内参数

printf("fx:%lf... ", intrinsic.at(0, 0));

printf("fy:%lf... ", intrinsic.at(1, 1));

printf("cx:%lf... ", intrinsic.at(0, 2));

printf("cy:%lf... ", intrinsic.at(1, 2)); //我学的是printf,就试着改了一下,都能用

//cout << "k1 :" << distortion_coeff.at(0, 0) << endl;

//cout << "k2 :" << distortion_coeff.at(1, 0) << endl;

//cout << "p1 :" << distortion_coeff.at(2, 0) << endl;

//cout << "p2 :" << distortion_coeff.at(3, 0) << endl;

//cout << "p3 :" << distortion_coeff.at(4, 0) << endl;   //畸变参数

printf("k1:%lf... ", distortion_coeff.at(0, 0));

printf("k2:%lf... ", distortion_coeff.at(1, 0));

printf("p1:%lf... ", distortion_coeff.at(2, 0));

printf("p2:%lf... ", distortion_coeff.at(3, 0));

printf("p3:%lf... ", distortion_coeff.at(4, 0));

}

int main()

{

int imageHeight; //图像高度

int imageWidth; //图像宽度

int goodFrameCount = 0; //有效图像的数目

Mat rgbImage,grayImage;

Mat tImage = imread("C:/Users/Administrator/Desktop/11/right1.jpg");

if (tImage.empty())

{

printf("Could not load tImage... ");

return -1;

}

imageHeight = tImage.rows;

imageWidth = tImage.cols;

grayImage = Mat::ones(tImage.size(), CV_8UC1);

while (goodFrameCount < frameNumber)

{

char filename[100];

sprintf_s(filename, "C:/Users/Administrator/Desktop/11/right%d.jpg", goodFrameCount + 1);

rgbImage = imread(filename);

if (rgbImage.empty())

{

printf("Could not load grayImage... ");

return -2;

}

cvtColor(rgbImage, grayImage, CV_BGR2GRAY);

imshow("Camera", grayImage);

bool isFind = findChessboardCorners(rgbImage, boardSize, corner, CALIB_CB_ADAPTIVE_THRESH + CALIB_CB_NORMALIZE_IMAGE);

//bool isFind = findChessboardCorners( rgbImage, boardSize, corner,

//CV_CALIB_CB_ADAPTIVE_THRESH | CV_CALIB_CB_FAST_CHECK | CV_CALIB_CB_NORMALIZE_IMAGE);

if (isFind == true) //所有角点都被找到 说明这幅图像是可行的

{

//精确角点位置,亚像素角点检测

cornerSubPix(grayImage, corner, Size(5, 5), Size(-1, -1), TermCriteria(CV_TERMCRIT_EPS | CV_TERMCRIT_ITER, 20, 0.1));

//绘制角点

drawChessboardCorners(rgbImage, boardSize, corner, isFind);

imshow("chessboard", rgbImage);

corners.push_back(corner);

goodFrameCount++;

/*cout << "The image" << goodFrameCount << " is good" << endl;*/

printf("The image %d is good... ", goodFrameCount);

}

else

{

printf("The image is bad please try again... ");

}

if (waitKey(10) == 'q')

{

break;

}

}

/*

图像采集完毕 接下来开始摄像头的校正

calibrateCamera()

输入参数 objectPoints 角点的实际物理坐标

imagePoints 角点的图像坐标

imageSize 图像的大小

输出参数

cameraMatrix 相机的内参矩阵

distCoeffs 相机的畸变参数

rvecs 旋转矢量(外参数)

tvecs 平移矢量(外参数)

*/

/*设置实际初始参数 根据calibrateCamera来 如果flag = 0 也可以不进行设置*/

guessCameraParam();

printf("guess successful... ");

/*计算实际的校正点的三维坐标*/

calRealPoint(objRealPoint, boardWidth, boardHeight, frameNumber, squareSize);

printf("calculate real successful... ");

/*标定摄像头*/

calibrateCamera(objRealPoint, corners, Size(imageWidth, imageHeight), intrinsic, distortion_coeff, rvecs, tvecs, 0);

printf("calibration successful... ");

/*保存并输出参数*/

outputCameraParam();

printf("output successful... ");

/*显示畸变校正效果*/

Mat cImage;

undistort(rgbImage, cImage, intrinsic, distortion_coeff); //矫正相机镜头变形

imshow("Corret Image", cImage);

printf("Corret Image.... ");

printf("Wait for Key.... ");

waitKey(0);

return 0;

}

注意:(1)把你得到的左右相机标定完的参数记下来,双目标定的时候会用;

(2)如果遇到cvtColor出问题,那就查一下构造一个新图像的Mat类使用方法;

(3)如果遇到结果一闪而过的问题,可以先用网上提供的两种方法试一下(一搜就有),但是我用这两种方法都没解决,最后才知道是frameNumber 的问题,我设的值比现有的图多一张。到时候具体问题具体分析吧,都是应该经历的过程。

3、完成双目标定,程序也是借鉴网上的,稍加修改。

// 双目相机标定

#include "opencv2/core/core.hpp"

#include "opencv2/imgproc/imgproc.hpp"

#include "opencv2/calib3d/calib3d.hpp"

#include "opencv2/highgui/highgui.hpp"

#include

#include

#include

#include

#include

#include

#include

#include

#include

#include "cv.h"

#include

using namespace std;

using namespace cv; //依旧很长的开头

const int imageWidth = 640; //摄像头的分辨率

const int imageHeight = 480;

const int boardWidth = 9; //横向的角点数目

const int boardHeight = 6; //纵向的角点数据

const int boardCorner = boardWidth * boardHeight; //总的角点数据

const int frameNumber = 15; //相机标定时需要采用的图像帧数

const int squareSize = 25; //标定板黑白格子的大小 单位mm

const Size boardSize = Size(boardWidth, boardHeight); //标定板的总内角点

Size imageSize = Size(imageWidth, imageHeight);

Mat R, T, E, F; //R 旋转矢量 T平移矢量 E本征矩阵 F基础矩阵

vectorrvecs; //旋转向量

vectortvecs; //平移向量

vector imagePointL; //左边摄像机所有照片角点的坐标集合

vector imagePointR; //右边摄像机所有照片角点的坐标集合

vector objRealPoint; //各副图像的角点的实际物理坐标集合

vectorcornerL; //左边摄像机某一照片角点坐标集合

vectorcornerR; //右边摄像机某一照片角点坐标集合

Mat rgbImageL, grayImageL;

Mat rgbImageR, grayImageR;

Mat Rl, Rr, Pl, Pr, Q; //校正旋转矩阵R,投影矩阵P 重投影矩阵Q (下面有具体的含义解释)

Mat mapLx, mapLy, mapRx, mapRy; //映射表

Rect validROIL, validROIR; //图像校正之后,会对图像进行裁剪,这里的validROI就是指裁剪之后的区域

/*

事先标定好的左相机的内参矩阵

fx 0 cx

0 fy cy

0 0 1

*/

Mat cameraMatrixL = (Mat_(3, 3) << 462.279595, 0, 312.781587,

0, 460.220741, 208.225803,

0, 0, 1); //这时候就需要你把左右相机单目标定的参数给写上

//获得的畸变参数

Mat distCoeffL = (Mat_(5, 1) << -0.054929, 0.224509, 0.000386, 0.001799, -0.302288);

/*

事先标定好的右相机的内参矩阵

fx 0 cx

0 fy cy

0 0 1

*/

Mat cameraMatrixR = (Mat_(3, 3) << 463.923124, 0, 322.783959,

0, 462.203276, 256.100655,

0, 0, 1);

Mat distCoeffR = (Mat_(5, 1) << -0.049056, 0.229945, 0.001745, -0.001862, -0.321533);

/*计算标定板上模块的实际物理坐标*/

void calRealPoint(vector& obj, int boardwidth, int boardheight, int imgNumber, int squaresize)

{

vectorimgpoint;

for (int rowIndex = 0; rowIndex < boardheight; rowIndex++)

{

for (int colIndex = 0; colIndex < boardwidth; colIndex++)

{

imgpoint.push_back(Point3f(rowIndex * squaresize, colIndex * squaresize, 0));

}

}

for (int imgIndex = 0; imgIndex < imgNumber; imgIndex++)

{

obj.push_back(imgpoint);

}

}

void outputCameraParam(void)

{

/*保存数据*/

/*输出数据*/

FileStorage fs("intrinsics.yml", FileStorage::WRITE); //文件存储器的初始化

if (fs.isOpened())

{

fs << "cameraMatrixL" << cameraMatrixL << "cameraDistcoeffL" << distCoeffL << "cameraMatrixR" << cameraMatrixR << "cameraDistcoeffR" << distCoeffR;

fs.release();

cout << "cameraMatrixL=:" << cameraMatrixL << endl << "cameraDistcoeffL=:" << distCoeffL << endl << "cameraMatrixR=:" << cameraMatrixR << endl << "cameraDistcoeffR=:" << distCoeffR << endl;

}

else

{

cout << "Error: can not save the intrinsics!!!!!" << endl;

}

fs.open("extrinsics.yml", FileStorage::WRITE);

if (fs.isOpened())

{

fs << "R" << R << "T" << T << "Rl" << Rl << "Rr" << Rr << "Pl" << Pl << "Pr" << Pr << "Q" << Q;

cout << "R=" << R << endl << "T=" << T << endl << "Rl=" << Rl << endl << "Rr=" << Rr << endl << "Pl=" << Pl << endl << "Pr=" << Pr << endl << "Q=" << Q << endl;

fs.release();

}

else

cout << "Error: can not save the extrinsic parameters ";

}

int main(int argc, char* argv[])

{

Mat img;

int goodFrameCount = 0;

while (goodFrameCount < frameNumber)

{

char filename[100];

/*读取左边的图像*/

sprintf_s(filename, "C:/Users/Administrator/Desktop/11/left%d.jpg", goodFrameCount + 1);

rgbImageL = imread(filename, CV_LOAD_IMAGE_COLOR);

cvtColor(rgbImageL, grayImageL, CV_BGR2GRAY);

/*读取右边的图像*/

sprintf_s(filename, "C:/Users/Administrator/Desktop/11/right%d.jpg", goodFrameCount + 1);

rgbImageR = imread(filename, CV_LOAD_IMAGE_COLOR);

cvtColor(rgbImageR, grayImageR, CV_BGR2GRAY);

bool isFindL, isFindR;

isFindL = findChessboardCorners(rgbImageL, boardSize, cornerL);

isFindR = findChessboardCorners(rgbImageR, boardSize, cornerR);

if (isFindL == true && isFindR == true) //如果两幅图像都找到了所有的角点 则说明这两幅图像是可行的

{

/*

Size(5,5) 搜索窗口的一半大小

Size(-1,-1) 死区的一半尺寸

TermCriteria(CV_TERMCRIT_EPS | CV_TERMCRIT_ITER, 20, 0.1)迭代终止条件

*/

cornerSubPix(grayImageL, cornerL, Size(5, 5), Size(-1, -1), TermCriteria(CV_TERMCRIT_EPS | CV_TERMCRIT_ITER, 20, 0.1));

drawChessboardCorners(rgbImageL, boardSize, cornerL, isFindL);

imshow("chessboardL", rgbImageL);

imagePointL.push_back(cornerL);

cornerSubPix(grayImageR, cornerR, Size(5, 5), Size(-1, -1), TermCriteria(CV_TERMCRIT_EPS | CV_TERMCRIT_ITER, 20, 0.1));

drawChessboardCorners(rgbImageR, boardSize, cornerR, isFindR);

imshow("chessboardR", rgbImageR);

imagePointR.push_back(cornerR);

//string filename = "res\image\calibration";

//filename += goodFrameCount + ".jpg";

//cvSaveImage(filename.c_str(), &IplImage(rgbImage)); //把合格的图片保存起来

goodFrameCount++;

cout << "The image" << goodFrameCount << " is good" << endl;

}

else

{

cout << "The image is bad please try again" << endl;

}

if (waitKey(10) == 'q')

{

break;

}

}

/*

计算实际的校正点的三维坐标

根据实际标定格子的大小来设置

*/

calRealPoint(objRealPoint, boardWidth, boardHeight, frameNumber, squareSize);

cout << "cal real successful" << endl;

/*

标定摄像头

由于左右摄像机分别都经过了单目标定

所以在此处选择flag = CALIB_USE_INTRINSIC_GUESS

*/

double rms = stereoCalibrate(objRealPoint, imagePointL, imagePointR,

cameraMatrixL, distCoeffL,

cameraMatrixR, distCoeffR,

Size(imageWidth, imageHeight),R, T,E, F, CALIB_USE_INTRINSIC_GUESS,

TermCriteria(TermCriteria::COUNT + TermCriteria::EPS, 100, 1e-5)); //需要注意,应该是版本的原因,该函数最后两个参数,我是调换过来后才显示不出错的

cout << "Stereo Calibration done with RMS error = " << rms << endl;

/*

立体校正的时候需要两幅图像共面并且行对准 以使得立体匹配更加的可靠

使得两幅图像共面的方法就是把两个摄像头的图像投影到一个公共成像面上,这样每幅图像从本图像平面投影到公共图像平面都需要一个旋转矩阵R

stereoRectify 这个函数计算的就是从图像平面投影到公共成像平面的旋转矩阵Rl,Rr。Rl,Rr即为左右相机平面行对准的校正旋转矩阵。

左相机经过Rl旋转,右相机经过Rr旋转之后,两幅图像就已经共面并且行对准了。

其中Pl,Pr为两个相机的投影矩阵,其作用是将3D点的坐标转换到图像的2D点的坐标:P*[X Y Z 1]' =[x y w]

Q矩阵为重投影矩阵,即矩阵Q可以把2维平面(图像平面)上的点投影到3维空间的点:Q*[x y d 1] = [X Y Z W]。其中d为左右两幅图像的时差

*/

//对标定过的图像进行校正

stereoRectify(cameraMatrixL, distCoeffL, cameraMatrixR, distCoeffR, imageSize, R, T, Rl, Rr, Pl, Pr, Q,

CALIB_ZERO_DISPARITY, -1, imageSize, &validROIL, &validROIR);

/*

根据stereoRectify 计算出来的R 和 P 来计算图像的映射表 mapx,mapy

mapx,mapy这两个映射表接下来可以给remap()函数调用,来校正图像,使得两幅图像共面并且行对准

ininUndistortRectifyMap()的参数newCameraMatrix就是校正后的摄像机矩阵。在openCV里面,校正后的计算机矩阵Mrect是跟投影矩阵P一起返回的。

所以我们在这里传入投影矩阵P,此函数可以从投影矩阵P中读出校正后的摄像机矩阵

*/

//摄像机校正映射

initUndistortRectifyMap(cameraMatrixL, distCoeffL, Rl, Pr, imageSize, CV_32FC1, mapLx, mapLy);

initUndistortRectifyMap(cameraMatrixR, distCoeffR, Rr, Pr, imageSize, CV_32FC1, mapRx, mapRy);

Mat rectifyImageL, rectifyImageR;

cvtColor(grayImageL, rectifyImageL, CV_GRAY2BGR);

cvtColor(grayImageR, rectifyImageR, CV_GRAY2BGR);

imshow("Rectify Before", rectifyImageL);

cout << "按Q1退出 ..." << endl;

/*

经过remap之后,左右相机的图像已经共面并且行对准了

*/

Mat rectifyImageL2, rectifyImageR2;

remap(rectifyImageL, rectifyImageL2, mapLx, mapLy, INTER_LINEAR);

remap(rectifyImageR, rectifyImageR2, mapRx, mapRy, INTER_LINEAR);

cout << "按Q2退出 ..." << endl;

imshow("rectifyImageL", rectifyImageL2);

imshow("rectifyImageR", rectifyImageR2);

/*保存并输出数据*/

outputCameraParam();

/*

把校正结果显示出来

把左右两幅图像显示到同一个画面上

这里只显示了最后一副图像的校正结果。并没有把所有的图像都显示出来

*/

Mat canvas;

double sf;

int w, h;

sf = 600. / MAX(imageSize.width, imageSize.height);

w = cvRound(imageSize.width * sf);

h = cvRound(imageSize.height * sf);

canvas.create(h, w * 2, CV_8UC3);

/*左图像画到画布上*/

Mat canvasPart = canvas(Rect(w * 0, 0, w, h)); //得到画布的一部分

resize(rectifyImageL2, canvasPart, canvasPart.size(), 0, 0, INTER_AREA); //把图像缩放到跟canvasPart一样大小

Rect vroiL(cvRound(validROIL.x*sf), cvRound(validROIL.y*sf), //获得被截取的区域

cvRound(validROIL.width*sf), cvRound(validROIL.height*sf));

rectangle(canvasPart, vroiL, Scalar(0, 0, 255), 3, 8); //画上一个矩形

cout << "Painted ImageL" << endl;

/*右图像画到画布上*/

canvasPart = canvas(Rect(w, 0, w, h)); //获得画布的另一部分

resize(rectifyImageR2, canvasPart, canvasPart.size(), 0, 0, INTER_LINEAR);

Rect vroiR(cvRound(validROIR.x * sf), cvRound(validROIR.y*sf),

cvRound(validROIR.width * sf), cvRound(validROIR.height * sf));

rectangle(canvasPart, vroiR, Scalar(0, 255, 0), 3, 8);

cout << "Painted ImageR" << endl;

/*画上对应的线条*/

for (int i = 0; i < canvas.rows; i += 16)

line(canvas, Point(0, i), Point(canvas.cols, i), Scalar(0, 255, 0), 1, 8);

imshow("rectified", canvas);

cout << "wait key" << endl;

waitKey(0);

//system("pause");

return 0;

}

附上最后效果图:

4056ff88-79be-11ed-8abf-dac502259ad0.png

审核编辑 :李倩


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 摄像头
    +关注

    关注

    59

    文章

    4813

    浏览量

    95465
  • OpenCV
    +关注

    关注

    30

    文章

    628

    浏览量

    41273

原文标题:opencv 双目标定操作完整版

文章出处:【微信号:机器视觉沙龙,微信公众号:机器视觉沙龙】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    MS-A2836URAH1C规格书

    MS-A2836URAH1C TOP红灯完整版规格书  广东恒润
    发表于 11-14 15:20 0次下载

    WIFI智能音箱原理图完整版

    WIFI智能音箱原理图完整版
    发表于 11-01 10:20 7次下载

    传感器静态标定的主要步骤是什么

    传感器静态标定的主要步骤通常包括以下几个方面: 一、准备阶段 确定标定范围 :首先,需要明确传感器的全量程(即测量范围),这是标定工作的基础。 准备标准设备 :利用标准仪器或设备产生已知的非电量(如
    的头像 发表于 09-19 17:02 1018次阅读

    第19.1 章-星瞳科技 OpenMV视觉循迹功能 超详细OpenMV与STM32单片机通信

    第19.1 章-[星瞳科技]OpenMV视觉循迹功能 超详细OpenMV与STM32单片机通信 (有完整版源码) 【星曈科技】OpenMv笔记——利用OpenMV与STM32进行串口通信
    的头像 发表于 08-20 11:41 866次阅读
    第19.1 章-星瞳科技 OpenMV视觉循迹功能 超详细OpenMV与STM32单片机通信

    自动控制原理–电子课件

    西北工业大学-自动控制原理–卢京潮 2009 完整版-电子课件,完整课件下载:链接: https://pan.baidu.com/s/1ODTmgbHfHyFctx7WrKVivg?pwd=beqv 提取码: beqv --来自百度网盘超级会员v4的分享
    发表于 07-16 11:39 10次下载

    opencv-python和opencv一样吗

    不一样。OpenCV(Open Source Computer Vision Library)是一个开源的计算机视觉和机器学习软件库,它提供了大量的图像和视频处理功能。OpenCV
    的头像 发表于 07-16 10:38 1004次阅读

    opencv的主要功能有哪些

    OpenCV提供了丰富的图像处理功能,包括图像的读取、显示、保存、转换等。此外,OpenCV还支持图像的滤波、边缘检测、形态学操作、图像金字塔等高级图像处理技术。 特征检测与描述:OpenC
    的头像 发表于 07-16 10:35 1356次阅读

    以色列人工智能目标定位系统实力如何

    2019年,以色列政府宣布成立“目标定位局”,旨在为以色列国防军(IDF),特别是以色列空军(IAF)生成打击目标
    的头像 发表于 04-16 11:13 366次阅读

    工业相机单目和双目的区别

    工业相机标定的方法根据工业相机的数目可分为单目标定双目标定Q以及多目标定
    的头像 发表于 03-26 16:26 1785次阅读
    工业相机单目和<b class='flag-5'>双目</b>的区别

    ez-usb_hx3pd_configuration_utility_1.0_b37_SetupOnlyPackage安装失败的原因?

    ez-usb_hx3pd_configuration_utility_1.0_b37_SetupOnlyPackage在windows10安装失败 哪里可以下载到提示说的完整版本?
    发表于 02-28 08:24

    用stm32cubemx生成一个3.1.5版本的nano工程,移植fal内核无法启动怎么解决?

    用stm32cubemx生成一个3.1.5版本的nano工程,试图移植FAL库用来做bootloader升级用户程序,在f1平台完整版RTT上实现了bootloader引导升级,在nano工程中下
    发表于 02-26 06:17

    ELF 1技术贴|如何移植OpenCV

    OpenCV是一个基于BSD许可(开源)发行的计算机视觉库,广泛应用于跨平台环境,包括Linux、Windows、Android及MacOS操作系统。作为计算机视觉领域广受欢迎的标准工具包
    的头像 发表于 01-09 13:55 360次阅读
    ELF 1技术贴|如何移植<b class='flag-5'>OpenCV</b>

    鸿蒙开发南向环境搭建教学

    南向开发环境搭建教学,更多鸿蒙开发资料可以前往高清完整版 《鸿蒙开发4.0基础-高阶文档》找保存。(附鸿蒙文档)
    发表于 01-05 16:38

    LabVIEW开发自动驾驶的双目测距系统

    LabVIEW开发自动驾驶的双目测距系统 随着车辆驾驶技术的不断发展,自动驾驶技术正日益成为现实。从L2级别的辅助驾驶技术到L3级别的受条件约束的自动驾驶技术,车辆安全性和智能化水平正在不断提升
    发表于 12-19 18:02

    OpenCV4.8 CUDA编程代码教程

    OpenCV4支持通过GPU实现CUDA加速执行,实现对OpenCV图像处理程序的加速运行,当前支持加速的模块包括如下。
    的头像 发表于 12-05 09:56 988次阅读
    <b class='flag-5'>OpenCV</b>4.8 CUDA编程代码教程