0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

用OpenVINO C# API在intel平台部署YOLOv10目标检测模型

英特尔物联网 来源:英特尔物联网 2024-06-21 09:23 次阅读

作者:颜国进

英特尔边缘计算创新大使

最近YOLO家族又添新成员:YOLOv10,YOLOv10提出了一种一致的双任务方法,用于无nms训练的YOLOs,它同时带来了具有竞争力的性能和较低的推理延迟。此外,还介绍了整体效率-精度驱动的模型设计策略,从效率和精度两个角度对YOLOs的各个组成部分进行了全面优化,大大降低了计算开销,增强了性能。在本文中,我们将结合OpenVINO C# API使用最新发布的OpenVINO 2024.1部署YOLOv10目标检测模型。

1前言

1OpenVINO C# API

英特尔发行版OpenVINO工具套件基于oneAPI而开发,可以加快高性能计算机视觉深度学习视觉应用开发速度工具套件,适用于从边缘到云的各种英特尔平台上,帮助用户更快地将更准确的真实世界结果部署到生产系统中。通过简化的开发工作流程,OpenVINO可赋能开发者在现实世界中部署高性能应用程序和算法

2024年4月25日,英特尔发布了开源OpenVINO 2024.1工具包,用于在各种硬件上优化和部署人工智能推理。更新了更多的Gen AI覆盖范围和框架集成,以最大限度地减少代码更改。同时提供了更广泛的 LLM 模型支持和更多的模型压缩技术。通过压缩嵌入的额外优化减少了LLM编译时间,改进了采用英特尔高级矩阵扩展(Intel AMX) 的第4代和第5代英特尔至强处理器上LLM的第1令牌性能。通过对英特尔锐炫 GPU的oneDNN、INT4 和 INT8 支持,实现更好的LLM压缩和改进的性能。最后实现了更高的可移植性和性能,可在边缘、云端或本地运行AI。

OpenVINO C# API 是一个 OpenVINO 的 .Net wrapper,应用最新的 OpenVINO 库开发,通过 OpenVINO C API 实现 .Net 对 OpenVINO Runtime 调用,使用习惯与 OpenVINO C++ API 一致。OpenVINO C# API 由于是基于 OpenVINO 开发,所支持的平台与 OpenVINO 完全一致,具体信息可以参考 OpenVINO。通过使用OpenVINO C# API,可以在.NET、.NET Framework等框架下使用C#语言实现深度学习模型在指定平台推理加速。

2YOLOv10

在过去的几年里,由于在计算成本和检测性能之间取得了有效的平衡,YOLOs已经成为实时目标检测领域的主导范式。然而,对非最大抑制(NMS)的后处理依赖阻碍了yolo的端到端部署,并对推理延迟产生不利影响。为了解决这些问题,首先提出了一种一致的双任务方法,用于无nms训练的YOLOs,它同时带来了具有竞争力的性能和较低的推理延迟。此外,我们还介绍了整体效率-精度驱动的模型设计策略。我们从效率和精度两个角度对YOLOs的各个组成部分进行了全面优化,大大降低了计算开销,增强了性能。我们的努力成果是用于实时端到端目标检测的新一代YOLO系列,称为YOLOv10。大量的实验表明,YOLOv10在各种模型尺度上都达到了最先进的性能和效率。例如,我们的YOLOv10-S在COCO上类似的AP下比RT-DETR-R18快1.8倍,同时参数数量和FLOPs减少2.8倍。与YOLOv9-C相比,在相同性能下,YOLOv10-B的延迟减少了46%,参数减少了25%。

下图为YOLOv10官方提供的模型训练精度以及不同模型数据量,可以看出YOLOv10与之前其他系列相比,数据量在减少的同时,精度依旧有所提升。

ed974c70-2f6b-11ef-a4c8-92fbcf53809c.png

2模型获取

1源码下载

YOLOv10模型需要源码进行下载,首先克隆GitHub上的源码,输入以下指令:

git clone https://github.com/THU-MIG/yolov10.git
cd yolov10

2配置环境

接下来安装模型下载以及转换环境,此处使用Anaconda进行程序集管理,输入以下指令创建一个yolov10环境:

conda create -n yolov10 python=3.9
conda activate yolov10
pip install -r requirements.txt
pip install -e .

然后安装OpenVINO环境,输入以下指令:

pip install openvino==2024.1.0

3下载模型

首先导出目标识别模型,此处以官方预训练模型为例,首先下载预训练模型文件,然后调用yolo导出ONBNX格式的模型文件,最后使用OpenVINO的模型转换命令将模型转为IR格式,依次输入以下指令即可:

wget https://github.com/jameslahm/yolov10/releases/download/v1.0/yolov10s.pt
yolo export model=yolov10s.pt format=onnx opset=13 simplify
ovc yolov10s.onnx

edd5d954-2f6b-11ef-a4c8-92fbcf53809c.png

模型的结构如下图所示:

ee0a475c-2f6b-11ef-a4c8-92fbcf53809c.png

3Yolov10 项目配置

1项目创建与环境配置

在Windows平台开发者可以使用Visual Studio平台开发程序,但无法跨平台实现,为了实现跨平台,此处采用dotnet指令进行项目的创建和配置。

首先使用dotnet创建一个测试项目,在终端中输入一下指令:

dotnet new console --framework net6.0 --use-program-main -o yolov10

此处以Windows平台为例安装项目依赖,首先是安装OpenVINO C# API项目依赖,在命令行中输入以下指令即可:

dotnet add package OpenVINO.CSharp.API
dotnet add package OpenVINO.runtime.win
dotnet add package OpenVINO.CSharp.API.Extensions
dotnet add package OpenVINO.CSharp.API.Extensions.OpenCvSharp

接下来安装使用到的图像处理库OpenCvSharp,在命令行中输入以下指令即可:

dotnet add package OpenCvSharp4
dotnet add package OpenCvSharp4.Extensions
dotnet add package OpenCvSharp4.runtime.win

关于在其他平台上搭建 OpenCvSharp 开发环境请参考以下文章:《【OpenCV】在Linux上使用OpenCvSharp》、《【OpenCV】在MacOS上使用OpenCvSharp》。

添加完成项目依赖后,项目的配置文件如下所示:




 
  Exe
  net6.0
  enable
  enable
 
 
 
  
  
  
  
  
  
 


2定义模型预测方法

使用OpenVINO C# API部署模型主要包括以下几个步骤:

初始化OpenVINO Runtime Core

读取本地模型(将图片数据预处理方式编译到模型)

将模型编译到指定设备

创建推理通道

处理图像输入数据

设置推理输入数据

模型推理

获取推理结果

处理结果数据

3定义目标检测模型方法

按照OpenVINO C# API部署深度学习模型的步骤,编写YOLOv10模型部署流程,在之前的项目里,我们已经部署了YOLOv5~9等一系列模型,其部署流程是基本一致的,YOLOv10模型部署代码如下所示:

static void yolov10_det(string model_path, string image_path, string device)
{
  // -------- Step 1. Initialize OpenVINO Runtime Core --------
  Core core = new Core();
  // -------- Step 2. Read inference model --------
  Model model = core.read_model(model_path);
  OvExtensions.printf_model_info(model);
  // -------- Step 3. Loading a model to the device --------
  CompiledModel compiled_model = core.compile_model(model, device);
  // -------- Step 4. Create an infer request --------
  InferRequest infer_request = compiled_model.create_infer_request();
  // -------- Step 5. Process input images --------
  Mat image = new Mat(image_path); // Read image by opencvsharp
  int max_image_length = image.Cols > image.Rows ? image.Cols : image.Rows;
  Mat max_image = Mat.Zeros(new OpenCvSharp.Size(max_image_length, max_image_length), MatType.CV_8UC3);
  Rect roi = new Rect(0, 0, image.Cols, image.Rows);
  image.CopyTo(new Mat(max_image, roi));
  float factor = (float)(max_image_length / 640.0);
  // -------- Step 6. Set up input data --------
  Tensor input_tensor = infer_request.get_input_tensor();
  Shape input_shape = input_tensor.get_shape();
  Mat input_mat = CvDnn.BlobFromImage(max_image, 1.0 / 255.0, new OpenCvSharp.Size(input_shape[2], input_shape[3]), 0, true, false);
  float[] input_data = new float[input_shape[1] * input_shape[2] * input_shape[3]];
  Marshal.Copy(input_mat.Ptr(0), input_data, 0, input_data.Length);
  input_tensor.set_data(input_data);
  // -------- Step 7. Do inference synchronously --------
  infer_request.infer();
  // -------- Step 8. Get infer result data --------
  Tensor output_tensor = infer_request.get_output_tensor();
  int output_length = (int)output_tensor.get_size();
  float[] output_data = output_tensor.get_data(output_length);
  // -------- Step 9. Process reault --------
  List position_boxes = new List();
  List class_ids = new List();
  List confidences = new List();
  // Preprocessing output results
  for (int i = 0; i < output_data.Length / 6; i++)
  {
       int s = 6 * i;
       if ((float)output_data[s + 4] > 0.5)
   {
      float cx = output_data[s + 0];
      float cy = output_data[s + 1];
      float dx = output_data[s + 2];
      float dy = output_data[s + 3];
      int x = (int)((cx) * factor);
      int y = (int)((cy) * factor);
      int width = (int)((dx - cx) * factor);
      int height = (int)((dy - cy) * factor);
      Rect box = new Rect();
      box.X = x;
      box.Y = y;
      box.Width = width;
      box.Height = height;


      position_boxes.Add(box);
      class_ids.Add((int)output_data[s + 5]);
      confidences.Add((float)output_data[s + 4]);
   }
 }


  for (int i = 0; i < class_ids.Count; i++)
  {
       int index = i;
       Cv2.Rectangle(image, position_boxes[index], new Scalar(0, 0, 255), 2, LineTypes.Link8);
       Cv2.Rectangle(image, new OpenCvSharp.Point(position_boxes[index].TopLeft.X, position_boxes[index].TopLeft.Y + 30),
           new OpenCvSharp.Point(position_boxes[index].BottomRight.X, position_boxes[index].TopLeft.Y), new Scalar(0, 255, 255), -1);
       Cv2.PutText(image, class_ids[index] + "-" + confidences[index].ToString("0.00"),
           new OpenCvSharp.Point(position_boxes[index].X, position_boxes[index].Y + 25),
           HersheyFonts.HersheySimplex, 0.8, new Scalar(0, 0, 0), 2);
  }
   string output_path = Path.Combine(Path.GetDirectoryName(Path.GetFullPath(image_path)),
       Path.GetFileNameWithoutExtension(image_path) + "_result.jpg");
   Cv2.ImWrite(output_path, image);
   Slog.INFO("The result save to " + output_path);
   Cv2.ImShow("Result", image);
   Cv2.WaitKey(0);
}

4使用OpenVINO 预处理接口编译模型

OpenVINO提供了推理数据预处理接口,用户可以更具模型的输入数据预处理方式进行设置。在读取本地模型后,调用数据预处理接口,按照模型要求的数据预处理方式进行输入配置,然后再将配置好的预处理接口与模型编译到一起,这样便实现了将模型预处理与模型结合在一起,实现OpenVINO对于处理过程的加速。主要是现在代码如下所示:

static void yolov10_det_process(string model_path, string image_path, string device)
{
  // -------- Step 1. Initialize OpenVINO Runtime Core --------
  Core core = new Core();
  // -------- Step 2. Read inference model --------
  Model model = core.read_model(model_path);
  OvExtensions.printf_model_info(model);
  PrePostProcessor processor = new PrePostProcessor(model);
  Tensor input_tensor_pro = new Tensor(new OvType(ElementType.U8), new Shape(1, 640, 640, 3));
  InputInfo input_info = processor.input(0);
  InputTensorInfo input_tensor_info = input_info.tensor();
  input_tensor_info.set_from(input_tensor_pro).set_layout(new Layout("NHWC")).set_color_format(ColorFormat.BGR);


  PreProcessSteps process_steps = input_info.preprocess();
  process_steps.convert_color(ColorFormat.RGB).resize(ResizeAlgorithm.RESIZE_LINEAR)
   .convert_element_type(new OvType(ElementType.F32)).scale(255.0f).convert_layout(new Layout("NCHW"));
  Model new_model = processor.build();
  // -------- Step 3. Loading a model to the device --------
  CompiledModel compiled_model = core.compile_model(new_model, device);
  // -------- Step 4. Create an infer request --------
  InferRequest infer_request = compiled_model.create_infer_request();
  // -------- Step 5. Process input images --------
  Mat image = new Mat(image_path); // Read image by opencvsharp
  int max_image_length = image.Cols > image.Rows ? image.Cols : image.Rows;
  Mat max_image = Mat.Zeros(new OpenCvSharp.Size(max_image_length, max_image_length), MatType.CV_8UC3);
  Rect roi = new Rect(0, 0, image.Cols, image.Rows);
  image.CopyTo(new Mat(max_image, roi));
  Cv2.Resize(max_image, max_image, new OpenCvSharp.Size(640, 640));
  float factor = (float)(max_image_length / 640.0);
  // -------- Step 6. Set up input data --------
  Tensor input_tensor = infer_request.get_input_tensor();
  Shape input_shape = input_tensor.get_shape();
  byte[] input_data = new byte[input_shape[1] * input_shape[2] * input_shape[3]];
  //max_image.GetArray(out input_data);
  Marshal.Copy(max_image.Ptr(0), input_data, 0, input_data.Length);
  IntPtr destination = input_tensor.data();
  Marshal.Copy(input_data, 0, destination, input_data.Length);
  // -------- Step 7. Do inference synchronously --------
... ...(后续与上文代码一致)
}

5模型预测方法调用

定义完模型推理接口后,便可以在主函数里进行调用。此处为了让大家更好的复现本文代码,提供了在线模型,用户只需要运行以下代码,便可以直接下载转换好的模型进行模型推理,无需再自行转换,主函数代码如下所示:

static void Main(string[] args)
{
  string model_path = "";
  string image_path = "";
  string device = "AUTO";
  if (args.Length == 0)
 {
    if (!Directory.Exists("./model"))
   {
      Directory.CreateDirectory("./model");
   }
    if (!File.Exists("./model/yolov10s.bin") && !File.Exists("./model/yolov10s.bin"))
   {
      if (!File.Exists("./model/yolov10s.tar"))
     {
        _ = Download.download_file_async("https://github.com/guojin-yan/OpenVINO-CSharp-API-Samples/releases/download/Model/yolov10s.tar",
          "./model/yolov10s.tar").Result;
     }
      Download.unzip("./model/yolov10s.tar", "./model/");
   }


    if (!File.Exists("./model/test_image.jpg"))
   {
      _ = Download.download_file_async("https://github.com/guojin-yan/OpenVINO-CSharp-API-Samples/releases/download/Image/test_det_02.jpg",
        "./model/test_image.jpg").Result;
   }
    model_path = "./model/yolov10s.xml";
    image_path = "./model/test_image.jpg";
 }
  else if (args.Length >= 2)
 {
    model_path = args[0];
    image_path = args[1];
    device = args[2];
 }
  else
 {
    Console.WriteLine("Please enter the correct command parameters, for example:");
    Console.WriteLine("> 1. dotnet run");
    Console.WriteLine("> 2. dotnet run   ");
 }
  // -------- Get OpenVINO runtime version --------


  OpenVinoSharp.Version version = Ov.get_openvino_version();


  Slog.INFO("---- OpenVINO INFO----");
  Slog.INFO("Description : " + version.description);
  Slog.INFO("Build number: " + version.buildNumber);


  Slog.INFO("Predict model files: " + model_path);
  Slog.INFO("Predict image files: " + image_path);
  Slog.INFO("Inference device: " + device);
  Slog.INFO("Start yolov8 model inference.");


  //yolov10_det(model_path, image_path, device);
  yolov10_det_process(model_path, image_path, device);
}

代码提示:

由于篇幅限制,上文中只展示了部分代码,想要获取全部源码,请访问项目GitHub自行下载:

使用OpenVINO C# API部署YOLOv10目标检测模型:

https://github.com/guojin-yan/OpenVINO-CSharp-API-Samples/blob/master/model_samples/yolov10/yolov10_det_opencvsharp/Program.cs

此外为了满足习惯使用EmguCV处理图像数据的开发者,此处我们也提供了EmguCV版本代码:

使用OpenVINO C# API部署YOLOv10目标检测模型:

https://github.com/guojin-yan/OpenVINO-CSharp-API-Samples/blob/master/model_samples/yolov10/yolov10_det_emgucv/Program.cs

4项目运行与演示

1项目编译和运行

接下来输入项目编译指令进行项目编译,输入以下指令即可:

dotnet build

接下来运行编译后的程序文件,在CMD中输入以下指令,运行编译后的项目文件:

dotnet run --no-build

2YOLOv10 目标检测模型运行结果

下图为YOLOv10 目标检测模型运行输出信息,此处我们使用在线转换好的模型进行推理。,首先会下载指定模型以及推理数据到本地,这样避免了开发者在自己配置环境和下载模型;接下来是输出打印 OpenVINO 版本信息,此处我们使用NuGet安装的依赖项,已经是OpenVINO 2024.0最新版本;接下来就是打印相关的模型信息,并输出每个过程所消耗时间。

ee3b9280-2f6b-11ef-a4c8-92fbcf53809c.png

5总结

在该项目中,我们结合之前开发的OpenVINO C# API项目部署YOLOv10模型,成功实现了对象目标检测与实例分割,并且根据不同开发者的使用习惯,同时提供了OpenCvSharp以及Emgu.CV两种版本,供各位开发者使用。最后如果各位开发者在使用中有任何问题,欢迎大家与我联系。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英特尔
    +关注

    关注

    60

    文章

    9591

    浏览量

    169831
  • 计算机
    +关注

    关注

    19

    文章

    6840

    浏览量

    85699
  • 模型
    +关注

    关注

    1

    文章

    2822

    浏览量

    48038
  • OpenVINO
    +关注

    关注

    0

    文章

    65

    浏览量

    104

原文标题:用OpenVINO™ C# API在intel平台部署YOLOv10目标检测模型丨开发者实战

文章出处:【微信号:英特尔物联网,微信公众号:英特尔物联网】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    如何使用OpenVINO C++ API部署FastSAM模型

    象的位置和边界。本文将介绍如何使用 OpenVINO C++ API 部署 FastSAM 模型,以实现快速高效的语义分割。在前文中我们发表了《基于
    的头像 发表于 11-17 09:53 558次阅读
    如何使用<b class='flag-5'>OpenVINO</b> C++ <b class='flag-5'>API</b><b class='flag-5'>部署</b>FastSAM<b class='flag-5'>模型</b>

    【大联大世平Intel®神经计算棒NCS2试用申请】树莓派上联合调试Intel®神经计算棒NCS2部署OpenVINO

    ),CentOS7.4(64位)操作系统内核开发3,计算棒集成Intel最新的视觉处理单元(VPU),进行全面评估、4,全名评估OpenVINO™,搭建计算机视觉和深度学习视觉应用的软件平台。5,使用
    发表于 06-30 16:06

    使用OpenVINO部署PaddleSeg模型库中的DeepLabV3+模型

    下的DeepLabV3+路面语义分割模型转换为OpenVINO   工具套件的IR模型并且部署到CPU上。   为了使本文拥有更广的受众面,文章的
    的头像 发表于 11-22 14:58 9216次阅读
    使用<b class='flag-5'>OpenVINO</b>™ <b class='flag-5'>部署</b>PaddleSeg<b class='flag-5'>模型</b>库中的DeepLabV3+<b class='flag-5'>模型</b>

    在C++中使用OpenVINO工具包部署YOLOv5模型

    下载并转换YOLOv5预训练模型的详细步骤,请参考:《基于OpenVINO™2022.2和蝰蛇峡谷优化并部署YOLOv5
    的头像 发表于 02-15 16:53 2387次阅读

    在AI爱克斯开发板上用OpenVINO™加速YOLOv8分类模型

    本系列文章将在 AI 爱克斯开发板上使用 OpenVINO 开发套件依次部署并测评 YOLOv8 的分类模型目标
    的头像 发表于 05-05 11:47 713次阅读
    在AI爱克斯开发板上用<b class='flag-5'>OpenVINO</b>™加速<b class='flag-5'>YOLOv</b>8分类<b class='flag-5'>模型</b>

    在AI爱克斯开发板上用OpenVINO™加速YOLOv8目标检测模型

    《在 AI 爱克斯开发板上用 OpenVINO 加速 YOLOv8 分类模型》介绍了在 AI 爱克斯开发板上使用 OpenVINO 开发套件部署
    的头像 发表于 05-12 09:08 974次阅读
    在AI爱克斯开发板上用<b class='flag-5'>OpenVINO</b>™加速<b class='flag-5'>YOLOv</b>8<b class='flag-5'>目标</b><b class='flag-5'>检测</b><b class='flag-5'>模型</b>

    AI爱克斯开发板上使用OpenVINO加速YOLOv8目标检测模型

    《在AI爱克斯开发板上用OpenVINO加速YOLOv8分类模型》介绍了在AI爱克斯开发板上使用OpenVINO 开发套件部署并测评
    的头像 发表于 05-26 11:03 859次阅读
    AI爱克斯开发板上使用<b class='flag-5'>OpenVINO</b>加速<b class='flag-5'>YOLOv</b>8<b class='flag-5'>目标</b><b class='flag-5'>检测</b><b class='flag-5'>模型</b>

    在AI爱克斯开发板上用OpenVINO™加速YOLOv8-seg实例分割模型

    《在 AI 爱克斯开发板上用 OpenVINO 加速 YOLOv8 目标检测模型》介绍了在 AI 爱克斯开发板上使用
    的头像 发表于 06-05 11:52 690次阅读
    在AI爱克斯开发板上用<b class='flag-5'>OpenVINO</b>™加速<b class='flag-5'>YOLOv</b>8-seg实例分割<b class='flag-5'>模型</b>

    在AI爱克斯开发板上用OpenVINO™加速YOLOv8-seg实例分割模型

    《在 AI 爱克斯开发板上用 OpenVINO 加速 YOLOv8 目标检测模型》介绍了在 AI 爱克斯开发板上使用
    的头像 发表于 06-30 10:43 518次阅读
    在AI爱克斯开发板上用<b class='flag-5'>OpenVINO</b>™加速<b class='flag-5'>YOLOv</b>8-seg实例分割<b class='flag-5'>模型</b>

    三种主流模型部署框架YOLOv8推理演示

    部署。这里以YOLOv8为例,演示了YOLOv8对象检测模型OpenVINO、ONNXRUNT
    的头像 发表于 08-06 11:39 2093次阅读

    使用OpenVINO优化并部署训练好的YOLOv7模型

    在《英特尔锐炫 显卡+ oneAPI 和 OpenVINO 实现英特尔 视频 AI 计算盒训推一体-上篇》一文中,我们详细介绍基于英特尔 独立显卡搭建 YOLOv7 模型的训练环境,并完成了
    的头像 发表于 08-25 11:08 1045次阅读
    使用<b class='flag-5'>OpenVINO</b>优化并<b class='flag-5'>部署</b>训练好的<b class='flag-5'>YOLOv</b>7<b class='flag-5'>模型</b>

    基于OpenVINO Python API部署RT-DETR模型

    平台实现 OpenVINO 部署 RT-DETR 模型实现深度学习推理加速, 在本文中,我们将首先介绍基于 OpenVINO Python
    的头像 发表于 10-20 11:15 637次阅读
    基于<b class='flag-5'>OpenVINO</b> Python <b class='flag-5'>API</b><b class='flag-5'>部署</b>RT-DETR<b class='flag-5'>模型</b>

    基于OpenVINO C++ API部署RT-DETR模型

    应用中,我们为了与当前软件平台集成更多会采用 C++ 平台,因此在本文中,我们将基于 OpenVINO C++ API 向大家展示了不包含后处理的 RT-DETR
    的头像 发表于 11-03 14:30 461次阅读
    基于<b class='flag-5'>OpenVINO</b> C++ <b class='flag-5'>API</b><b class='flag-5'>部署</b>RT-DETR<b class='flag-5'>模型</b>

    基于OpenVINO C# API部署RT-DETR模型

    C# 环境下使用该模型应用到工业检测中,因此在本文中,我们将向大家展示使用 OpenVINO Csharp API
    的头像 发表于 11-10 16:59 473次阅读
    基于<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C#</b> <b class='flag-5'>API</b><b class='flag-5'>部署</b>RT-DETR<b class='flag-5'>模型</b>

    OpenVINOC# API部署YOLOv9目标检测和实例分割模型

    YOLOv9模型是YOLO系列实时目标检测算法中的最新版本,代表着该系列在准确性、速度和效率方面的又一次重大飞跃。
    的头像 发表于 04-03 17:35 464次阅读
    <b class='flag-5'>OpenVINO</b>™ <b class='flag-5'>C#</b> <b class='flag-5'>API</b><b class='flag-5'>部署</b><b class='flag-5'>YOLOv</b>9<b class='flag-5'>目标</b><b class='flag-5'>检测</b>和实例分割<b class='flag-5'>模型</b>