0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

在Windows上使用OpenVINO™ C# API部署Yolov8-obb实现任意方向的目标检测

英特尔物联网 来源:英特尔物联网 2024-02-22 17:13 次阅读

Ultralytics YOLOv8 基于深度学习计算机视觉领域的尖端技术,在速度和准确性方面具有无与伦比的性能。其流线型设计使其适用于各种应用,并可轻松适应从边缘设备到云 API 等不同硬件平台。YOLOv8 OBB 模型是 YOLOv8 系列模型最新推出的任意方向的目标检测模型,可以检测任意方向的对象,大大提高了物体检测的精度。同时官方发布的模型已经支持 OpenVINO 部署工具加速模型推理,因此在该项目中,我们将结合之前开发的 OpenVINO C# API 部署 YOLOv8 OBB 模型实现旋转物体对象检测。

01

1.1

OpenVINO C# API

英特尔发行版 OpenVINO 工具套件基于 oneAPI 而开发,可以加快高性能计算机视觉和深度学习视觉应用开发速度工具套件,适用于从边缘到云的各种英特尔平台上,帮助用户更快地将更准确的真实世界结果部署到生产系统中。通过简化的开发工作流程,OpenVINO 可赋能开发者在现实世界中部署高性能应用程序和算法

88377196-d162-11ee-a297-92fbcf53809c.png

OpenVINO 2023.2 于 2023 年 11 月 16 日发布,该工具包带来了挖掘生成人工智能全部潜力的新功能。更多的生成式 AI 覆盖和框架集成,以最大限度地减少代码更改,并且扩展了对直接 PyTorch 模型转换的模型支持。支持更多新的模型,包括 LLaVA、chatGLM、Bark 和 LCM 等著名模型。支持更广泛的大型语言模型(LLM)和更多模型压缩技术,运行推理时支持 INT4/INT8 以及 NF4 权重压缩的模型格式,通过神经网络压缩框架(NNCF) 进行本机 Int4 压缩等一系列新的功能。

OpenVINO C# API 是一个 OpenVINO 的 .Net wrapper,应用最新的 OpenVINO 库开发,通过 OpenVINO C API 实现 .Net 对 OpenVINO Runtime 调用,使用习惯与 OpenVINO C++ API 一致。OpenVINO C# API 由于是基于 OpenVINO 开发,所支持的平台与 OpenVINO 完全一致,具体信息可以参考 OpenVINO。通过使用 OpenVINO C# API,可以在 .NET、.NET Framework 等框架下使用 C# 语言实现深度学习模型在指定平台推理加速。

1.2

YOLOv8 OBB 模型

目标检测是计算机视觉中的一项基本任务,目前许多研究都是采用水平边界框来定位图像中的物体。然而,图像中的物体通常是任意方向的。因此,使用水平边界框来检测目标会引起物体检测框通常包含许多背景区域,检测框内存在过多的背景区域,不仅增加了分类任务的难度,而且会导致目标范围表示不准确的问题。其次,水平边界框会导致检测框之间出现重叠,降低检测精度。

88567e2e-d162-11ee-a297-92fbcf53809c.png

通过使用带有角度信息的旋转检测框可以有效解决上述问题,它引入了一个额外的角度来更准确地定位图像中的物体。Ultralytics YOLOv8 基于深度学习和计算机视觉领域的尖端技术,在速度和准确性方面具有无与伦比的性能。其流线型设计使其适用于各种应用,并可轻松适应从边缘设备到云 API 等不同硬件平台。

YOLOv8 OBB 模型是 YOLOv8 系列模型最新推出的任意方向的目标检测模型,其模型输出结果是一组旋转的边界框,这些边界框精确地包围了图像中的物体,同时还包括每个边界框的类标签和置信度分数。当你需要识别场景中感兴趣的物体,但又不需要知道物体的具体位置或确切形状时,物体检测是一个不错的选择。

8872b616-d162-11ee-a297-92fbcf53809c.png

02

YOLOv8 OBB 模型下载与转换

2.1

安装模型下载与转换环境

此处主要安装 YOLOv8 OBB 模型导出环境以及 OpenVINO 模型转换环境,使用 Anaconda 进行环境创建,依次输入以下指令:

conda create -n yolo python=3.10 
conda activate yolo 
pip install ultralytics 
pip install --upgrade openvino-nightly

此处只需要安装以上两个程序包即可。

2.2

导出 YOLOv8 OBB 模型

接下来以 Yolov8s-obb 模型到处为例,演示如何快速导出官方提供的预训练模型,首先在创建的虚拟环境中输入以下命令:

yolo export model=yolov8s-obb.pt format=onnx 

下图展示了模型导出命令输出情况:

8885bf72-d162-11ee-a297-92fbcf53809c.png

接下来查看导出的 Yolov8s-obb 模型的结构情况,通过 Netron 可以进行查看,如下所示:

88a08c6c-d162-11ee-a297-92fbcf53809c.png

模型识别类别:由于官方模型是在 DOTAv1 数据集上预训练的,因此导出的模型可以识别出 15 种类别,分别是:plane 、ship storage tank、baseball diamond、tennis court、basketball court、ground track field、harbor、bridge、large vehicle、small vehicle、helicopter、roundabout、soccer ball field、swimming pool。

DOTAv1:

https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/DOTAv1.yaml

模型输入:

模型输入名称为“image”,输入大小为 1×3×1024×1024 的归一化后的图像数据,数据类型为 float。

模型输出:

模型的输出名称为“output0”,输出大小为 1×20×21504,输出数据为 float。其中“20”表示为 [x, y, w, h, sorce0, ···, sorce14, angle] 的数组,数组中 0~3 这四个参数为预测框的矩形位置,数组中 4~18 这 15 个参数表示 15 各类别的分类置信度,数组中 19 这个参数表示预测框的旋转角度;“21504”表示输入为 1024 的模型三个检测头的输出大小,总共有 21504 (1024÷8=128,1024÷16=64,1024÷32=32,128×128+64×64+32×32=21504) 种结果。

2.3

转换 IR 模型

接下来直接使用 OpenVINO 工具直接进行模型转换,在 CMD 中输入以下指令即可:

ovc yolov8s-obb.onnx

模型导出输出如下图所示。

88bca5be-d162-11ee-a297-92fbcf53809c.png

03

YOLOv8 OBB 项目配置

(OpenCvSharp)

此处项目创建与运行演示使用 dotnet 工具进行,大家也可以通过 Visual Studio 等 IDE 工具进行项目创建与运行。首先讲解一下使用 OpenCvSharp 作为图像处理工具的代码程序。

3.1

项目创建

首先使用 dotnet 工具创建一个控制台应用,在 CMD 中输入以下指令:

dotnet new console --framework net6.0 --use-program-main -o yolov8_obb_opencvsharp 
cd yolov8_obb_opencvsharp

项目创建后输出为:

88d9c1c6-d162-11ee-a297-92fbcf53809c.png

3.2

添加项目依赖

此处以 Windows 平台为例安装项目依赖,首先是安装 OpenVINO C# API 项目依赖,在命令行中输入以下指令即可:

dotnet add package OpenVINO.CSharp.API 
dotnet add package OpenVINO.runtime.win 
dotnet add package OpenVINO.CSharp.API.Extensions 
dotnet add package OpenVINO.CSharp.API.Extensions.OpenCvSharp 

接下来安装使用到的图像处理库 OpenCvSharp,在命令行中输入以下指令即可:

dotnet add package OpenCvSharp4 
dotnet add package OpenCvSharp4.Extensions 
dotnet add package OpenCvSharp4.runtime.win

添加完成项目依赖后,项目的配置文件如下所示:

 
 
  
  Exe 
  net6.0 
  enable 
  enable 
  
 
  
   
   
   
   
   
   
   
  
 

3.3

定义预测方法

Yolov8 Obb 模型部署流程与方式与 Yolov8 Det 基本一致,其主要不同点在与其结果的后处理方式,本项目所定义的 Yolov8 Obb 模型推理代码如下所示:

static void yolov8_obb(string model_path, string image_path, string device) 
{ 
  // -------- Step 1. Initialize OpenVINO Runtime Core -------- 
  Core core = new Core(); 
  // -------- Step 2. Read inference model -------- 
  Model model = core.read_model(model_path); 
  OvExtensions.printf_model_info(model); 
  // -------- Step 3. Loading a model to the device -------- 
  CompiledModel compiled_model = core.compile_model(model, device); 
  // -------- Step 4. Create an infer request -------- 
  InferRequest infer_request = compiled_model.create_infer_request(); 
  // -------- Step 5. Process input images -------- 
  Mat image = new Mat(image_path); // Read image by opencvsharp 
  int max_image_length = image.Cols > image.Rows ? image.Cols : image.Rows; 
  Mat max_image = Mat.Zeros(new OpenCvSharp.Size(max_image_length, max_image_length), MatType.CV_8UC3); 
  Rect roi = new Rect(0, 0, image.Cols, image.Rows); 
  image.CopyTo(new Mat(max_image, roi)); 
  float factor = (float)(max_image_length / 1024.0); 
  // -------- Step 6. Set up input data -------- 
  Tensor input_tensor = infer_request.get_input_tensor(); 
  Shape input_shape = input_tensor.get_shape(); 
  Mat input_mat = CvDnn.BlobFromImage(max_image, 1.0 / 255.0, new OpenCvSharp.Size(input_shape[2], input_shape[3]), 0, true, false); 
  float[] input_data = new float[input_shape[1] * input_shape[2] * input_shape[3]]; 
  Marshal.Copy(input_mat.Ptr(0), input_data, 0, input_data.Length); 
  input_tensor.set_data(input_data); 
  // -------- Step 7. Do inference synchronously -------- 
  infer_request.infer(); 
  // -------- Step 8. Get infer result data -------- 
  Tensor output_tensor = infer_request.get_output_tensor(); 
  int output_length = (int)output_tensor.get_size(); 
  float[] output_data = output_tensor.get_data(output_length); 
  // -------- Step 9. Process reault -------- 
  Mat result_data = new Mat(20, 21504, MatType.CV_32F, output_data); 
  result_data = result_data.T(); 
  float[] d = new float[output_length]; 
  result_data.GetArray(out d); 
  // Storage results list 
  List position_boxes = new List(); 
  List class_ids = new List(); 
  List confidences = new List(); 
  List rotations = new List(); 
  // Preprocessing output results 
  for (int i = 0; i < result_data.Rows; i++) 
    { 
        Mat classes_scores = new Mat(result_data, new Rect(4, i, 15, 1)); 
        OpenCvSharp.Point max_classId_point, min_classId_point; 
        double max_score, min_score; 
        // Obtain the maximum value and its position in a set of data 
        Cv2.MinMaxLoc(classes_scores, out min_score, out max_score, 
            out min_classId_point, out max_classId_point); 
        // Confidence level between 0 ~ 1 
        // Obtain identification box information 
        if (max_score > 0.25) 
    { 
      float cx = result_data.At(i, 0); 
      float cy = result_data.At(i, 1); 
      float ow = result_data.At(i, 2); 
      float oh = result_data.At(i, 3); 
      double x = (cx - 0.5 * ow) * factor; 
      double y = (cy - 0.5 * oh) * factor; 
      double width = ow * factor; 
      double height = oh * factor; 
      Rect2d box = new Rect2d(); 
      box.X = x; 
      box.Y = y; 
      box.Width = width; 
      box.Height = height; 
      position_boxes.Add(box); 
      class_ids.Add(max_classId_point.X); 
      confidences.Add((float)max_score); 
      rotations.Add(result_data.At(i, 19)); 
    } 
  } 
  // NMS non maximum suppression 
  int[] indexes = new int[position_boxes.Count]; 
  CvDnn.NMSBoxes(position_boxes, confidences, 0.25f, 0.7f, out indexes); 
  List rotated_rects = new List(); 
  for (int i = 0; i < indexes.Length; i++) 
    { 
        int index = indexes[i]; 
        float w = (float)position_boxes[index].Width; 
        float h = (float)position_boxes[index].Height; 
        float x = (float)position_boxes[index].X + w / 2; 
        float y = (float)position_boxes[index].Y + h / 2; 
        float r = rotations[index]; 
        float w_ = w > h ? w : h; 
    float h_ = w > h ? h : w; 
    r = (float)((w > h ? r : (float)(r + Math.PI / 2)) % Math.PI); 
    RotatedRect rotate = new RotatedRect(new Point2f(x, y), new Size2f(w_, h_), (float)(r * 180.0 / Math.PI)); 
    rotated_rects.Add(rotate); 
  } 
  for (int i = 0; i < indexes.Length; i++) 
    { 
        int index = indexes[i]; 
        Point2f[] points = rotated_rects[i].Points(); 
        for (int j = 0; j < 4; j++) 
        { 
            Cv2.Line(image, (Point)points[j], (Point)points[(j + 1) % 4], new Scalar(255, 100, 200), 2); 
        } 
        Cv2.PutText(image, class_lables[class_ids[index]] + "-" + confidences[index].ToString("0.00"), 
            (Point)points[0], HersheyFonts.HersheySimplex, 0.8, new Scalar(0, 0, 0), 2); 
    } 
    string output_path = Path.Combine(Path.GetDirectoryName(Path.GetFullPath(image_path)), 
        Path.GetFileNameWithoutExtension(image_path) + "_result.jpg"); 
    Cv2.ImWrite(output_path, image); 
    Slog.INFO("The result save to " + output_path); 
    Cv2.ImShow("Result", image); 
    Cv2.WaitKey(0); 
}

Yolov8 Obb 模型的一条预测结果输出为 [x, y, w, h, sorce0, ···, sorce14, angle],其中前 19 个数据与 Yolov8 Det 模型的数据处理方式是一致的,主要是多了一个预测框旋转角度,因此在处理时需要同时记录旋转角度这一个数据。

3.4

预测方法调用

定义好上述方法后,便可以直接在主函数中调用该方法,只需要在主函数中增加以下代码即可:

yolov8_obb("yolov8s-obb.xml", "test_image.png", "AUTO");

如果开发者自己没有进行模型下载与转换,又同时想快速体验该项目,我此处提供了在线的转换后的模型以及带预测图片,开发者可以直接在主函数中增加以下代码,便可以直接自动下载模型以及推理数据,并调用推理方法,实现程序直接运行。

static void Main(string[] args) 
{ 
  string model_path = ""; 
  string image_path = ""; 
  string device = "AUTO"; 
  if (args.Length == 0) 
  { 
    if (!Directory.Exists("./model")) 
    { 
      Directory.CreateDirectory("./model"); 
    } 
    if (!File.Exists("./model/yolov8s-obb.bin") && !File.Exists("./model/yolov8s-obb.bin")) 
    { 
      if (!File.Exists("./model/yolov8s-obb.tar")) 
      { 
        _ = Download.download_file_async("https://github.com/guojin-yan/OpenVINO-CSharp-API-Samples/releases/download/Model/yolov8s-obb.tar", 
          "./model/yolov8s-obb.tar").Result; 
      } 
      Download.unzip("./model/yolov8s-obb.tar", "./model/"); 
    } 
    if (!File.Exists("./model/plane.png")) 
    { 
      _ = Download.download_file_async("https://github.com/guojin-yan/OpenVINO-CSharp-API-Samples/releases/download/Image/plane.png", 
        "./model/plane.png").Result; 
    } 
    model_path = "./model/yolov8s-obb.xml"; 
    image_path = "./model/plane.png"; 
  } 
  else if (args.Length >= 2) 
  { 
    model_path = args[0]; 
    image_path = args[1]; 
    device = args[2]; 
  } 
  else 
  { 
    Console.WriteLine("Please enter the correct command parameters, for example:"); 
    Console.WriteLine("> 1. dotnet run"); 
    Console.WriteLine("> 2. dotnet run   "); 
  } 
  // -------- Get OpenVINO runtime version -------- 
  OpenVinoSharp.Version version = Ov.get_openvino_version(); 
  Slog.INFO("---- OpenVINO INFO----"); 
  Slog.INFO("Description : " + version.description); 
  Slog.INFO("Build number: " + version.buildNumber); 
 
  Slog.INFO("Predict model files: " + model_path); 
  Slog.INFO("Predict image files: " + image_path); 
  Slog.INFO("Inference device: " + device); 
  Slog.INFO("Start yolov8 model inference."); 
  yolov8_obb(model_path, image_path, device); 
}

04

YOLOv8 OBB 项目配置

相信有不少开发者在 C# 中进行图像处理时,使用的是 Emgu.CV 工具,因此,在此处我们同时提供了使用 Emgu.CV 作为图像处理工具的 YOLOv8 OBB 模型部署代码。项目的创建方式与流程与上一节中一致,此处不再进行演示:

4.1

添加项目依赖

此处以 Windows 平台为例安装项目依赖,首先是安装 OpenVINO C# API 项目依赖,在命令行中输入以下指令即可:

dotnet add package OpenVINO.CSharp.API 
dotnet add package OpenVINO.runtime.win 
dotnet add package OpenVINO.CSharp.API.Extensions 
dotnet add package OpenVINO.CSharp.API.Extensions.EmguCV

接下来安装使用到的图像处理库 Emgu.CV,在命令行中输入以下指令即可:

dotnet add package Emgu.CV 
dotnet add package Emgu.CV.runtime.windows

添加完成项目依赖后,项目的配置文件如下所示:

 
 
  
  Exe 
  net6.0 
  enable 
  enable 
  
 
  
   
   
   
   
   
   
  
 

4.2

定义预测方法

Yolov8 Obb 模型部署流程与上一节中的流程一致,主要是替换了图像处理方式,其实现代码如下:

static void yolov8_obb(string model_path, string image_path, string device) 
{ 
  // -------- Step 1. Initialize OpenVINO Runtime Core -------- 
  Core core = new Core(); 
  // -------- Step 2. Read inference model -------- 
  OpenVinoSharp.Model model = core.read_model(model_path); 
  OvExtensions.printf_model_info(model); 
  // -------- Step 3. Loading a model to the device -------- 
  CompiledModel compiled_model = core.compile_model(model, device); 
  // -------- Step 4. Create an infer request -------- 
  InferRequest infer_request = compiled_model.create_infer_request(); 
  // -------- Step 5. Process input images -------- 
  Mat image = new Mat(image_path); // Read image by opencvsharp 
  int max_image_length = image.Cols > image.Rows ? image.Cols : image.Rows; 
  Mat max_image = Mat.Zeros(max_image_length, max_image_length, DepthType.Cv8U, 3); 
  Rectangle roi = new Rectangle(0, 0, image.Cols, image.Rows); 
  image.CopyTo(new Mat(max_image, roi)); 
  float factor = (float)(max_image_length / 1024.0); 
  // -------- Step 6. Set up input data -------- 
  Tensor input_tensor = infer_request.get_input_tensor(); 
  Shape input_shape = input_tensor.get_shape(); 
  Mat input_mat = DnnInvoke.BlobFromImage(max_image, 1.0 / 255.0, new Size((int)input_shape[2], (int)input_shape[3]), new MCvScalar(0), true, false); 
  float[] input_data = new float[input_shape[1] * input_shape[2] * input_shape[3]]; 
  //Marshal.Copy(input_mat.Ptr, input_data, 0, input_data.Length); 
  input_mat.CopyTo(input_data); 
  input_tensor.set_data(input_data); 
  // -------- Step 7. Do inference synchronously -------- 
  infer_request.infer(); 
  // -------- Step 8. Get infer result data -------- 
  Tensor output_tensor = infer_request.get_output_tensor(); 
  int output_length = (int)output_tensor.get_size(); 
  float[] output_data = output_tensor.get_data(output_length); 
  // -------- Step 9. Process reault -------- 
  Mat result_data = new Mat(20, 21504, DepthType.Cv32F, 1, 
          Marshal.UnsafeAddrOfPinnedArrayElement(output_data, 0), 4 * 21504); 
  result_data = result_data.T(); 
  List position_boxes = new List(); 
  List class_ids = new List(); 
  List confidences = new List(); 
  List rotations = new List(); 
  // Preprocessing output results 
  for (int i = 0; i < result_data.Rows; i++) 
    { 
        Mat classes_scores = new Mat(result_data, new Rectangle(4, i, 15, 1));//GetArray(i, 5, classes_scores); 
        Point max_classId_point = new Point(), min_classId_point = new Point(); 
        double max_score = 0, min_score = 0; 
        CvInvoke.MinMaxLoc(classes_scores, ref min_score, ref max_score, 
            ref min_classId_point, ref max_classId_point); 
        if (max_score > 0.25) 
    { 
      Mat mat = new Mat(result_data, new Rectangle(0, i, 20, 1)); 
      float[,] data = (float[,])mat.GetData(); 
      float cx = data[0, 0]; 
      float cy = data[0, 1]; 
      float ow = data[0, 2]; 
      float oh = data[0, 3]; 
      int x = (int)((cx - 0.5 * ow) * factor); 
      int y = (int)((cy - 0.5 * oh) * factor); 
      int width = (int)(ow * factor); 
      int height = (int)(oh * factor); 
      Rectangle box = new Rectangle(); 
      box.X = x; 
      box.Y = y; 
      box.Width = width; 
      box.Height = height; 
 
      position_boxes.Add(box); 
      class_ids.Add(max_classId_point.X); 
      confidences.Add((float)max_score); 
      rotations.Add(data[0, 19]); 
    } 
  } 
 
  // NMS non maximum suppression 
  int[] indexes = DnnInvoke.NMSBoxes(position_boxes.ToArray(), confidences.ToArray(), 0.5f, 0.5f); 
 
  List rotated_rects = new List(); 
  for (int i = 0; i < indexes.Length; i++) 
    { 
        int index = indexes[i]; 
 
        float w = (float)position_boxes[index].Width; 
        float h = (float)position_boxes[index].Height; 
        float x = (float)position_boxes[index].X + w / 2; 
        float y = (float)position_boxes[index].Y + h / 2; 
        float r = rotations[index]; 
        float w_ = w > h ? w : h; 
    float h_ = w > h ? h : w; 
    r = (float)((w > h ? r : (float)(r + Math.PI / 2)) % Math.PI); 
    RotatedRect rotate = new RotatedRect(new PointF(x, y), new SizeF(w_, h_), (float)(r * 180.0 / Math.PI)); 
    rotated_rects.Add(rotate); 
  } 
  for (int i = 0; i < indexes.Length; i++) 
    { 
        int index = indexes[i]; 
 
        PointF[] points = rotated_rects[i].GetVertices(); 
        for (int j = 0; j < 4; j++) 
        { 
            CvInvoke.Line(image, new Point((int)points[j].X, (int)points[j].Y), 
                new Point((int)points[(j + 1) % 4].X, (int)points[(j + 1) % 4].Y), new MCvScalar(255, 100, 200), 2); 
        } 
        CvInvoke.PutText(image, class_lables[class_ids[index]] + "-" + confidences[index].ToString("0.00"), 
            new Point((int)points[0].X, (int)points[0].Y), FontFace.HersheySimplex, 0.8, new MCvScalar(0, 0, 0), 2); 
    } 
    string output_path = Path.Combine(Path.GetDirectoryName(Path.GetFullPath(image_path)), 
        Path.GetFileNameWithoutExtension(image_path) + "_result.jpg"); 
    CvInvoke.Imwrite(output_path, image); 
    Slog.INFO("The result save to " + output_path); 
    CvInvoke.Imshow("Result", image); 
    CvInvoke.WaitKey(0); 
}

05

项目编译与运行

5.1

项目文件编译

接下来输入项目编译指令进行项目编译,输入以下指令即可:

dotnet build

程序编译后输出为:

88ff6cbe-d162-11ee-a297-92fbcf53809c.png

5.2

项目文件运行

接下来运行编译后的程序文件,在 CMD 中输入以下指令,运行编译后的项目文件:

dotnet run --no-build

运行后项目输出为:

8935f9aa-d162-11ee-a297-92fbcf53809c.png

896481f8-d162-11ee-a297-92fbcf53809c.png

06

总结

在该项目中,我们结合之前开发的 OpenVINO C# API 项目部署 YOLOv8 OBB 模型,成功实现了旋转对象目标检测,并且根据不同开发者的使用习惯,同时提供了 OpenCvSharp 以及 Emgu.CV 两种版本,供各位开发者使用。





审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • LCM
    LCM
    +关注

    关注

    6

    文章

    57

    浏览量

    34534
  • 计算机视觉
    +关注

    关注

    8

    文章

    1696

    浏览量

    45925
  • 深度学习
    +关注

    关注

    73

    文章

    5491

    浏览量

    120958
  • 生成式AI
    +关注

    关注

    0

    文章

    487

    浏览量

    458
  • OpenVINO
    +关注

    关注

    0

    文章

    87

    浏览量

    180

原文标题:在 Windows 上使用 OpenVINO™ C# API 部署 Yolov8-obb 实现任意方向的目标检测 | 开发者实战

文章出处:【微信号:英特尔物联网,微信公众号:英特尔物联网】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    基于哪吒开发板部署YOLOv8模型

    开发板的推理性能,同时测试所推出的 OpenVINO C# API (https://github.com/guojin-yan/OpenVINO-CSharp-API) 项目能否应
    的头像 发表于 11-15 14:13 138次阅读
    基于哪吒开发板<b class='flag-5'>部署</b><b class='flag-5'>YOLOv8</b>模型

    树莓派上部署YOLOv5进行动物目标检测的完整流程

    卓越的性能。本文将详细介绍如何在性能更强的计算机上训练YOLOv5模型,并将训练好的模型部署到树莓派4B,通过树莓派的摄像头进行实时动物目标检测
    的头像 发表于 11-11 10:38 301次阅读
    <b class='flag-5'>在</b>树莓派上<b class='flag-5'>部署</b><b class='flag-5'>YOLOv</b>5进行动物<b class='flag-5'>目标</b><b class='flag-5'>检测</b>的完整流程

    YOLOv6LabVIEW中的推理部署(含源码)

    相关介绍文章,所以笔者实现YOLOv6 ONNX LabVIEW中的部署推理后,决定和各位读者分享一下如何使用LabVIEW
    的头像 发表于 11-06 16:07 169次阅读
    <b class='flag-5'>YOLOv</b>6<b class='flag-5'>在</b>LabVIEW中的推理<b class='flag-5'>部署</b>(含源码)

    YOLOv8中的损失函数解析

    YOLO长期以来一直是目标检测任务的首选模型之一。它既快速又准确。此外,其API简洁易用。运行训练或推断作业所需的代码行数有限。2023年下半年,
    的头像 发表于 11-05 17:15 382次阅读
    <b class='flag-5'>YOLOv8</b>中的损失函数解析

    使用OpenVINO Model Server在哪吒开发板上部署模型

    OpenVINO Model Server(OVMS)是一个高性能的模型部署系统,使用C++实现,并在Intel架构
    的头像 发表于 11-01 14:19 174次阅读
    使用<b class='flag-5'>OpenVINO</b> Model Server在哪吒开发板上<b class='flag-5'>部署</b>模型

    使用OpenVINO C# API部署YOLO-World实现实时开放词汇对象检测

    的快速准确识别,并通过AR技术将虚拟元素与真实场景相结合,为用户带来沉浸式的交互体验。本文中,我们将结合OpenVINO C# API使用最新发布的
    的头像 发表于 08-30 16:27 540次阅读
    使用<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C#</b> <b class='flag-5'>API</b><b class='flag-5'>部署</b>YOLO-World<b class='flag-5'>实现</b>实时开放词汇对象<b class='flag-5'>检测</b>

    OpenVINO C# APIintel平台部署YOLOv10目标检测模型

    的模型设计策略,从效率和精度两个角度对YOLOs的各个组成部分进行了全面优化,大大降低了计算开销,增强了性能。本文中,我们将结合OpenVINO C# API使用最新发布的
    的头像 发表于 06-21 09:23 936次阅读
    用<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C#</b> <b class='flag-5'>API</b><b class='flag-5'>在</b>intel平台<b class='flag-5'>部署</b><b class='flag-5'>YOLOv</b>10<b class='flag-5'>目标</b><b class='flag-5'>检测</b>模型

    OpenVINOC# API部署YOLOv9目标检测和实例分割模型

    YOLOv9模型是YOLO系列实时目标检测算法中的最新版本,代表着该系列准确性、速度和效率方面的又一次重大飞跃。
    的头像 发表于 04-03 17:35 719次阅读
    <b class='flag-5'>OpenVINO</b>™ <b class='flag-5'>C#</b> <b class='flag-5'>API</b><b class='flag-5'>部署</b><b class='flag-5'>YOLOv</b>9<b class='flag-5'>目标</b><b class='flag-5'>检测</b>和实例分割模型

    OpenVINO™ Java API应用RT-DETR做目标检测器实战

    本文将从零开始详细介绍环境搭建的完整步骤,我们基于英特尔开发套件AIxBoard为硬件基础实现了JavaUbuntu 22.04系统上成功使用OpenVINO™ Java API,并
    的头像 发表于 03-18 15:04 754次阅读
    <b class='flag-5'>OpenVINO</b>™ Java <b class='flag-5'>API</b>应用RT-DETR做<b class='flag-5'>目标</b><b class='flag-5'>检测</b>器实战

    OpenVINO工具包部署YOLO9模型实现实时目标检测

    YOLOv9引入了可编程梯度信息 (PGI) 和广义高效层聚合网络 (GELAN) 等开创性技术,不仅增强了模型的学习能力,还确保了整个检测过程中保留关键信息,从而实现了卓越的准确性
    的头像 发表于 03-18 11:38 1099次阅读
    <b class='flag-5'>OpenVINO</b>工具包<b class='flag-5'>部署</b>YOLO9模型<b class='flag-5'>实现</b>实时<b class='flag-5'>目标</b><b class='flag-5'>检测</b>

    基于OpenCV DNN实现YOLOv8的模型部署与推理演示

    基于OpenCV DNN实现YOLOv8推理的好处就是一套代码就可以部署Windows10系统、乌班图系统、Jetson的Jetpack系
    的头像 发表于 03-01 15:52 1389次阅读
    基于OpenCV DNN<b class='flag-5'>实现</b><b class='flag-5'>YOLOv8</b>的模型<b class='flag-5'>部署</b>与推理演示

    OpenCV4.8 C++实现YOLOv8 OBB旋转对象检测

    YOLOv8框架在在支持分类、对象检测、实例分割、姿态评估的基础更近一步,现已经支持旋转对象检测OBB),基于DOTA数据集,支持航拍图
    的头像 发表于 02-22 10:15 1462次阅读
    OpenCV4.8 <b class='flag-5'>C</b>++<b class='flag-5'>实现</b><b class='flag-5'>YOLOv8</b> <b class='flag-5'>OBB</b>旋转对象<b class='flag-5'>检测</b>

    YOLOv8+PyQT5打造细胞计数与识别应用说明

    YOLOv8对象检测模型基于自定义数据集训练红白细胞检测模型,然后通过工具导出模型为ONNX,基于OpenVINO实现模型推理,完成细胞
    的头像 发表于 01-15 17:22 1067次阅读
    <b class='flag-5'>YOLOv8</b>+PyQT5打造细胞计数与识别应用说明

    YOLOv8实现旋转对象检测

    YOLOv8框架在在支持分类、对象检测、实例分割、姿态评估的基础更近一步,现已经支持旋转对象检测OBB),基于DOTA数据集,支持航拍图
    的头像 发表于 01-11 10:43 1672次阅读
    <b class='flag-5'>YOLOv8</b><b class='flag-5'>实现</b>旋转对象<b class='flag-5'>检测</b>

    C++中使用OpenVINO工具包部署YOLOv5-Seg模型

    YOLOv5兼具速度和精度,工程化做的特别好,Git clone到本地即可在自己的数据集实现目标检测任务的训练和推理,产业界中应用广泛。
    的头像 发表于 12-21 10:17 2019次阅读
    <b class='flag-5'>在</b><b class='flag-5'>C</b>++中使用<b class='flag-5'>OpenVINO</b>工具包<b class='flag-5'>部署</b><b class='flag-5'>YOLOv</b>5-Seg模型