0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

从YOLO v1开始讲起,直至目前最新的版本YOLO v3

电子工程师 来源:lq 2019-05-15 09:08 次阅读

导语:如今基于深度学习的目标检测已经逐渐成为自动驾驶视频监控、机械加工、智能机器人等领域的核心技术,而现存的大多数精度高的目标检测算法,速度较慢,无法适应工业界对于目标检测实时性的需求,这时 YOLO 算法横空出世,以近乎极致的速度和出色的准确度赢得了大家的一致好评。基于此,我们选择 YOLO 算法来实现目标检测。YOLO 算法目前已经经过了 3 个版本的迭代,在速度和精确度上获得了巨大的提升,我们将从 YOLO v1 开始讲起,直至目前最新的版本 YOLO v3。

1. YOLO V1 一步检测的开山之作

相对于传统的分类问题,目标检测显然更符合现实需求,因为往往现实中不可能在某一个场景只有一个物体,因此目标检测的需求变得更为复杂,不仅仅要求算法能够检验出是什么物体,还需要确定这个物体在图片哪里。

在这一过程中,目标检测经历了一个高度的符合人类的直觉的过程。既需要识别出目标的位置,将图片划分成小图片扔进算法中去,当算法认为某物体在这个小区域上之时,那么检测完成。那我们就认为这个物体在这个小图片上了。而这个思路,正是比较早期的目标检测思路,比如 R-CNN。

后来的 Fast R-CNN,Faster R-CNN[16] 虽有改进,比如不再是将图片一块块的传进 CNN 提取特征,而是整体放进 CNN 提取特征图后,再做进一步处理,但依旧是整体流程分为区域提取和目标分类两部分(two-stage),这样做的一个特点是虽然确保了精度,但速度非常慢,于是以 YOLO(You only look once)为主要代表的这种一步到位(one-stage)即端到端的目标检测算法应运而生了。

1.1 YOLO v1 基本思想

YOLO v1 的核心思想在于将目标检测作为回归问题解决 ,YOLO v1 首先会把原始图片放缩到 448×448 的尺寸,放缩到这个尺寸是为了后面整除来的方便。然后将图片划分成 SxS 个区域,注意这个区域的概念不同于上文提及将图片划分成 N 个区域扔进算法的区域不同。上文提及的区域是将图片进行剪裁,或者说把图片的某个局部的像素输入算法中,而这里的划分区域,只的是逻辑上的划分。

如果一个对象的中心落在某个单元格上,那么这个单元格负责预测这个物体。每个单元格需要预测 B 个边界框(bbox)值(bbox 值包括坐标和宽高),同时为每个 bbox 值预测一个置信度(confidence scores)。 此后以每个单元格为单位进行预测分析。

这个置信度并不只是该边界框是待检测目标的概率,而是该边界框是待检测目标的概率乘上该边界框和真实位置的 IoU(框之间的交集除以并集)的积。通过乘上这个交并比,反映出该边界框预测位置的精度。如下式所示:

每个边界框对应于 5 个输出,分别是 x,y,w,h 和置信度。其中 x,y 代表边界框的中心离开其所在网格单元格边界的偏移。w,h 代表边界框真实宽高相对于整幅图像的比例。x,y,w,h 这几个参数都已经被限制到了区间 [0,1] 上。除此以外,每个单元格还产生 C 个条件概率,。注意,我们不管 B 的大小,每个单元格只产生一组这样的概率。

图一:YOLO预测图示

test 的非极大值抑制阶段,对于每个边界框,按照下式衡量该框是否应该予以保留。

这就是每个单元格的个体分类置信度得分(class-specific confidence scores),这即包含了预测的类别信息,也包含了对 bbox 值的准确度。 我们可以设置一个阈值,把低分的 class-specific confidence scores 滤掉,剩下的留给给非极大值抑制,得到最终的标定框。

在 PASCAL VOC 进行测试时,使用 S=7, B=2。由于共有 20 类,故 C=20。所以,网络输出大小为 7×7×30。

1.2 网络模型结构

图二:网络框架

该网络结构包括 24 个卷积层,最后接 2 个全连接层。Draknet[13] 网络借鉴 GoogleNet 的思想,在每个 1x1 的卷积层之后再接一个 3x3 的卷积层的结构替代 GoogleNet 的Inception 结构。论文中还提到了更快版本的 Yolo,只有 9 个卷积层,其他则保持一致。

1.3 损失函数

YOLO v1 全部使用了均方差(mean squared error)作为损失(loss)函数。由三部分组成:坐标误差、IOU 误差和分类误差。

考虑到每种 loss 的贡献率,YOLO v1给坐标误差(coordErr)设置权重λcoord=5。在计算 IoU 误差时,包含物体的格子与不包含物体的格子,二者的 IOU 误差对网络 loss 的贡献值是不同的。若采用相同的权值,那么不包含物体的格子的置信度值近似为 0,变相放大了包含物体的格子的置信度误差,在计算网络参数梯度时的影响。为解决这个问题,YOLO 使用 λnoobj=0.5 修正(置信度误差)iouErr。(此处的‘包含’是指存在一个物体,它的中心坐标落入到格子内)。

对于相等的误差值,大物体误差对检测的影响应小于小物体误差对检测的影响。这是因为,相同的位置偏差占大物体的比例远小于同等偏差占小物体的比例。YOLO 将物体大小的信息项(w 和 h)进行求平方根来改进这个问题,但并不能完全解决这个问题。

综上,YOLO v1 在训练过程中 Loss 计算如下式所示:

在激活函数上:

在最后一层使用的是标准的线性激活函数,其他的层都使用 leaky rectified 线性激活函数。

1.4 总结

YOLO v1 作为一步检测的开山之作,最大的特点就是速度快。其将物体检测作为回归问题进行求解,使用单个网络完成整个检测的方法,大大提升了同类目标检测算法的速度,并且实现了召回率低,表现为背景误检率低的有点。YOLO v1 可以获取到图像的整体信息,相比于 region proposal 等方法,有着更广阔的“视野”。对其种类的物体,训练后识别效果也十分优异,具有很强的泛化能力。

但是 YOLO v1 的精准性和召回率相对于 fast rcnn 比较差。其对背景的误判率比 Fast RCNN 的误判率低很多。这说明了 YOLO v1 中把物体检测的思路转成回归问题的思路有较好的准确率,但是对于 bounding box 的定位不是很好。

2.YOLO v2/YOLO9000 更准、更快、更强

YOLO v1 对于 bounding box 的定位不是很好,在精度上比同类网络还有一定的差距,所以 YOLO v2 对于速度和精度做了很大的优化,并且吸收了同类网络的优点,一步步做出尝试。

YOLO v2 在 v1 基础上做出改进后提出。其受到 Faster RCNN 方法的启发,引入了 anchor。同时使用了 K-Means 方法,对 anchor 数量进行了讨论,在精度和速度之间做出折中。并且修改了网络结构,去掉了全连接层,改成了全卷积结构。在训练时引入了世界树(WordTree)结构,将检测和分类问题做成了一个统一的框架,并且提出了一种层次性联合训练方法,将 ImageNet 分类数据集和 COCO 检测数据集同时对模型训练。

2.1 更准

YOLO v2 对每批数据都做了一个归一化预处理。通过在每一个卷积层后添加batch normalization,极大的改善了收敛速度同时减少了对其它正则方法的依赖(舍弃了dropout优化后依然没有过拟合),使得 mAP 获得了 2% 的提升。(mAP:平均精度均值(mean Average Precision))

YOLO v1 在分辨率为 224×224 的图片上进行预训练,在正式训练时将分辨率提升到 448×448,这需要模型去适应新的分辨率。但是 YOLO v2 是直接使用 448×448 的输入,随着输入分辨率的增加,模型提高了 4% 的 mAP。

在预测框的数量上,由于 YOLO v2 将网络的输入分辨率调整到 416×416,保证为多次卷积后,下采样率为 32,得到 13×13 的特征图(feature map)。在这上面使用 9 种 anchor boxes[7],得到 13×13×9=1521 个,这比 YOLO v1 大多了。

YOLO v1 利用全连接层的数据完成边框的预测,会导致丢失较多的空间信息,使定位不准。在 YOLO v2 中作者借鉴了 Faster R-CNN 中的 anchor 思想,来改善全连接层带来的影响。

Anchor 是 RPN(region proposal network)网络在 Faster R-CNN 中的一个关键步骤,是在卷积特征图上进行滑窗操作,每一个中心可以预测 9 种不同大小的候选框。

为了引入 anchor boxes 来预测候选框,作者在网络中去掉了全连接层。并去掉了最后的一个池化层以确保输出的卷积特征图有更高的分辨率。然后,通过缩减网络,让图片输入分辨率为 416 * 416,目的是为了让后面产生的卷积特征图宽高都为奇数,这样就可以产生一个中心框(center cell)。

作者观察到,大物体通常占据了图像的中间位置,可以只用中心的一个框来预测这些物体的位置,否则就要用中间的 4 个格子来进行预测,这个技巧可稍稍提升效率。最后,YOLO v2 使用了卷积层降采样(采样因子为 32),使得输入卷积网络的 416 * 416 图片最终得到 13 * 13 的卷积特征图(416/32=13)。

没有 anchor boxes 的情况下,模型召回率(recall)为 81%,mAP 为 69.5%;加入 anchor boxes,模型召回率为 88%,mAP 为 69.2%。这样看来,准确率只有小幅度的下降,而召回率则提升了 7%。

在使用 anchor 的时候作者遇到了两个问题,第一个是 anchor boxes 的宽高维度往往是精选的先验框(hand-picked priors)也就是说人工选定的先验框。虽然在训练过程中网络也会学习调整框的宽高维度,最终得到准确的 bounding boxes。但是,如果一开始就选择了更好的、更有代表性的先验框维度,那么网络就更容易学到准确的预测位置。

为了使网络更易学到准确的预测位置,作者使用了 K-means 聚类方法类训练 bounding boxes,可以自动找到更好的框宽高维度。传统的 K-means 聚类方法使用的是欧氏距离函数,也就意味着较大的框会比较小的框产生更多的误差,聚类结果可能会偏离。为此,作者采用 IOU 得分作为评价标准,这样的话,误差就和框的尺度无关了,最终的距离函数为:

对数据集的聚类结果如下:

图三:聚类数目与Avg IoU的关系(使用VOC2007和COCO数据集)

可以看出 k=5 在模型复杂度与召回率之间取一个折中值。 在使用 anchor 的时候,遇到的第二个问题是加入 anchor box 的模型不稳定。作者认为模型不稳定的原因来自于预测 bbox 的(x,y)。如下:

在 Faster R-CNN 的预测中,偏移因子,是没有限制的,因此收敛会比较慢。故我们想让每个模型预测目标附近的一个部分,论文对采用了和 YOLO v1 一样的方法,直接预测中心点,并使用 Sigmoid 函数将偏移量限制在 0 到 1 之间(这里的尺度是针对网格框)。

计算公式如下:

bx,by,bw,bh 是预测的 bbox 的中心点坐标和宽高,中心点坐标的尺度是相对于网格。

如图四:

图四:各个参数的位置图示

经过维度聚类和直接位置预测的操作,在原有的 anchor boxes 版本上又提升了 5% 的 mAP。

YOLO v1 在对于大目标检测有很好的效果,但是对小目标检测上,效果欠佳。为了改善这一问题,作者参考了 Faster R-CNN 和 SSD 的想法,在不同层次的特征图上获取不同分辨率的特征。作者将上层的(前面 26×26)高分辨率的特征图(feature map)直接连到 13×13 的 feature map 上。把 26×26×512 转换为 13×13×2048,并拼接住在一起使整体性能提升 1%。

Multi-Scale Training

和 GoogleNet 训练时一样,为了提高模型的鲁棒性(robust),在训练的时候使用多尺度[6]的输入进行训练。因为网络的卷积层下采样因子为 32,故输入尺寸选择 32 的倍数 288,352,…,544。

图五:不同尺度训练的精度与其他网络的精度对比

2.2 更快

大多数目标检测的框架是建立在 VGG-16 上的,VGG-16 在 ImageNet 上能达到 90% 的 top-5(最后概率向量最大的前五名中出现了正确概率即为预测正确),但是单张图片需要 30.69 billion 浮点运算,YOLO v2 是依赖于 DarkNet-19 的结构,该模型在 ImageNet 上能达到 91% 的 top-5,并且单张图片只需要 5.58 billion 浮点运算,大大的加快了运算速度。DarkNet 的结构图如下:

图六:YOLOv2网络结构

YOLO v2 去掉 YOLO v1 的全连接层,同时去掉 YOLO v1 的最后一个池化层,增加特征的分辨率,修改网络的输入,保证特征图有一个中心点,这样可提高效率。并且是以每个 anchor box 来预测物体种类的。

作者将分类和检测分开训练,在训练分类时,以 Darknet-19 为模型在 ImageNet 上用随机梯度下降法(Stochastic gradient descent)跑了 160 epochs,跑完了 160 epochs 后,把输入尺寸从 224×224 上调为 448×448,这时候学习率调到 0.001,再跑了 10 epochs, DarkNet 达到了 top-1 准确率 76.5%,top-5 准确率 93.3%。

在训练检测时,作者把分类网络改成检测网络,去掉原先网络的最后一个卷积层,取而代之的是使用 3 个 3×3x1024 的卷积层,并且每个新增的卷积层后面接 1×1 的卷积层,数量是我们要检测的类的数量。

2.3 更强

论文提出了一种联合训练的机制:使用识别数据集训练模型识别相关部分,使用分类数据集训练模型分类相关部分。

众多周知,检测数据集的标注要比分类数据集打标签繁琐的多,所以 ImageNet 分类数据集比 VOC 等检测数据集高出几个数量级。所以在 YOLO v1 中,边界框的预测其实并不依赖于物体的标签,YOLO v2 实现了在分类和检测数据集上的联合训练。对于检测数据集,可以用来学习预测物体的边界框、置信度以及为物体分类,而对于分类数据集可以仅用来学习分类,但是其可以大大扩充模型所能检测的物体种类。

作者选择在 COCO 和 ImageNet 数据集上进行联合训练,遇到的第一问题是两者的类别并不是完全互斥的,比如"Norfolk terrier"明显属于"dog",所以作者提出了一种层级分类方法(Hierarchical classification),根据各个类别之间的从属关系(根据 WordNet)建立一种树结构 WordTree,结合 COCO 和 ImageNet 建立的词树(WordTree)如下图所示:

图七:WordTree

WordTree 中的根节点为"physical object",每个节点的子节点都属于同一子类,可以对它们进行 softmax 处理。在给出某个类别的预测概率时,需要找到其所在的位置,遍历这个路径,然后计算路径上各个节点的概率之积。

在训练时,如果是检测样本,按照 YOLO v2 的 loss 计算误差,而对于分类样本,只计算分类误差。在预测时,YOLO v2 给出的置信度就是 ,同时会给出边界框位置以及一个树状概率图。在这个概率图中找到概率最高的路径,当达到某一个阈值时停止,就用当前节点表示预测的类别。

2.4 总结

通过对 YOLO v1 网络结构和训练方法的改进,提出了 YOLO v2/YOLO9000 实时目标检测系统。YOLO v2 在 YOLO v1 的基础上进行了一系列的改进,在快速的同时达到 state of the art。同时,YOLO v2 可以适应不同的输入尺寸,根据需要调整检测准确率和检测速度(值得参考)。作者综合了 ImageNet 数据集和 COCO 数据集,采用联合训练的方式训练,使该系统可以识别超过 9000 种物品。除此之外,作者提出的 WordTree 可以综合多种数据集的方法可以应用于其它计算机数觉任务中。但是对于重叠的分类,YOLO v2 依然无法给出很好的解决方案。

3.YOLO v3 集大成之作

YOLO v3 是到目前为止,速度和精度最均衡的目标检测网络。通过多种先进方法的融合,将 YOLO 系列的短板(速度很快,不擅长检测小物体等)全部补齐。达到了令人惊艳的效果和拔群的速度。

图八:YOLOv3与其他网络的mAP与运行时间对比

3.1 多标签分类预测

在 YOLO9000[14] 之后,我们的系统使用维度聚类(dimension clusters )作为 anchor boxes 来预测边界框,网络为每个边界框预测 4 个坐标。

在 YOLO v3[15] 中使用逻辑回归预测每个边界框(bounding box)的对象分数。 如果先前的边界框比之前的任何其他边界框重叠 ground truth 对象,则该值应该为 1。如果以前的边界框不是最好的,但是确实将 ground truth 对象重叠了一定的阈值以上,我们会忽略这个预测,按照进行。我们使用阈值 0.5。与 YOLO v2 不同,我们的系统只为每个 ground truth 对象分配一个边界框。如果先前的边界框未分配给 grounding box 对象,则不会对坐标或类别预测造成损失。

在 YOLO v3 中,每个框使用多标签分类来预测边界框可能包含的类。该算法不使用 softmax,因为它对于高性能没有必要,因此 YOLO v3 使用独立的逻辑分类器。在训练过程中,我们使用二元交叉熵损失来进行类别预测。对于重叠的标签,多标签方法可以更好地模拟数据。

3.2 跨尺度预测

YOLO v3 采用多个尺度融合的方式做预测。原来的 YOLO v2 有一个层叫:passthrough layer,假设最后提取的 feature map 的 size 是 13*13,那么这个层的作用就是将前面一层的 26*26 的 feature map 和本层的 13*13 的 feature map 进行连接,有点像 ResNet。这样的操作也是为了加强 YOLO 算法对小目标检测的精确度。这个思想在 YOLO v3 中得到了进一步加强,在 YOLO v3 中采用类似 FPN 的上采样(upsample)和融合做法(最后融合了 3 个 scale,其他两个 scale 的大小分别是 26*26 和 52*52),在多个 scale 的 feature map 上做检测,对于小目标的检测效果提升还是比较明显的。虽然在 YOLO v3 中每个网格预测 3 个边界框,看起来比 YOLO v2 中每个 grid cell 预测 5 个边界框要少,但因为 YOLO v3 采用了多个尺度的特征融合,所以边界框的数量要比之前多很多。

3.3 网络结构改变

YOLO v3 使用新的网络来实现特征提取。在 Darknet-19 中添加残差网络的混合方式,使用连续的 3×3 和 1×1 卷积层,但现在也有一些 shortcut 连接,YOLO v3 将其扩充为 53 层并称之为 Darknet-53。

图九:Darknet-53网络结构

这个新网络比 Darknet-19 功能强大得多,而且比 ResNet-101 或 ResNet-152 更有效。

图十:ImageNet结果

每个网络都使用相同的设置进行训练,并以 256×256 的单精度测试进行测试。运行时间是在 Titan X 上以 256×256 进行测量的。因此,Darknet-53 可与 state-of-the-art 的分类器相媲美,但浮点运算更少,速度更快。Darknet-53 比 ResNet-101 更好,速度更快 1:5 倍。

Darknet-53 与 ResNet-152 具有相似的性能,速度提高 2 倍。 Darknet-53 也可以实现每秒最高的测量浮点运算。这意味着网络结构可以更好地利用 GPU,从而使其评估效率更高,速度更快。

3.4 总结

YOLO 检测算法进行目标检测,取得了较高的检测速度和检测准确率。该算法不仅对于实物有着很好的效果,对于其他目标,如艺术作品等同样具有很好的兼容性。YOLO 算法相比其他算法更符合工业界对目标检测算法实时性的要求,简单易实现,对于嵌入式很友好。

YOLO 系列不断吸收目标检测同类算法的优点,将其应用于自身,不断进步,可谓成长中的算法。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 网格
    +关注

    关注

    0

    文章

    139

    浏览量

    15984
  • 自动驾驶
    +关注

    关注

    782

    文章

    13606

    浏览量

    165872
  • 深度学习
    +关注

    关注

    73

    文章

    5459

    浏览量

    120863

原文标题:一文看尽目标检测:从YOLO v1到v3的进化之路

文章出处:【微信号:rgznai100,微信公众号:rgznai100】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    YOLO的核心思想及YOLO的实现细节

    在训练的过程中,当网络遇到一个来自检测数据集的图片与标记信息,那么就把这些数据用完整的 YOLO v2 loss 功能反向传播这个图片。当网络遇到一个来自分类数据集的图片和分类标记信息,只用整个结构中分类部分的 loss 功能反向传播这个图片。
    的头像 发表于 06-05 09:12 2.3w次阅读
    <b class='flag-5'>YOLO</b>的核心思想及<b class='flag-5'>YOLO</b>的实现细节

    请教下大神下面这个电路中V1,V2,V3之间的关系,最好有计算过程

    请教下大神下面这个电路中V1,V2,V3之间的关系,最好有计算过程,谢不胜感激!
    发表于 06-25 21:32

    XDS100仿真器V1V2、V3三个版本有什么区别?

    XDS100仿真器V1V2、V3在硬件上和软件上存在怎样的区别?能看一下这几个版本的硬件原理图吗?在线等。。。
    发表于 08-20 06:31

    目标识别之YOLO学习笔记

    目标识别 YOLO 学习笔记(一)
    发表于 05-12 15:05

    架构------消息------逻辑(版本V1

    `架构------消息------逻辑(版本V1)××××非标自动化设备软件架构(无PLC版本)---->消息机制---->逻辑消息的构成(V1)×××
    发表于 02-21 11:33

    介绍yolo v4版的安装与测试

    nvidia公司出品的低成本jetson nano,利用CUDA实现GPU加速。文章目录1. 准备工作2. 安装YOLO3. 测试参考文献1. 准备工作jetson nano 4G内存版,安装系统镜像,自带的jetpack 4.
    发表于 02-17 07:06

    全志V853 在 NPU 转换 YOLO V3 模型

    所开发,他也因此凭借该算法获得了计算机视觉领域的很多奖项。本文将通过 YOLO V3 模型的下载、转换、仿真三部分讲解如何使用现成的模型转换为 V853 NPU 所支持的模型。模型的准备在
    发表于 12-19 10:36

    使用Yolo-v4-Tf-Tiny模型运行object_detection_demo.py时报错怎么解决?

    采用yolo-v4-tiny-tf 模型,运行对象检测 Python* 演示,架构类型相当于 yolo. 收到错误: ValueError: cannot reshape array of size 43095 into shape (
    发表于 08-15 08:14

    无法使用OpenVINO trade工具套件下载Yolo v3模型怎么解决?

    模型下载器目录执行命令./downloader.py --all 目录\\deployment_tools\\tools\\model_downloader\\intel中未找到 Yolo v3 模型
    发表于 08-15 07:33

    『 RJIBI 』-基于FPGA的YOLO-V3物体识别计算套件

    1. 引言 基于RJIBI公司硬件开发套件的YOLO-V3物体识别检测算法的相应软、硬件实现。 本文主要阐述和规定了两大部分内容:(1)机器学习推理框架针对在MPSOC FPGA平台上的ARM核心
    发表于 05-19 10:22 1.4w次阅读

    基于YOLO_v3与稀疏光流的人群异常行为识别

    目前公共场所人群异常行为检测的异常种类检测准确率较低,且多数对突然奔跑等部分异常行为无法识别。为此,提出一种基于YOLO_3与稀疏光流的人群异常行为识别算法,通过检测小团体异常为群体异常预警与采取
    发表于 05-13 16:37 12次下载

    目标检测—YOLO的重要性!

    表示。 个人学习来看:优秀的计算机视觉工程师,目标检测的学习避免不了,而目标检测的核心就是YOLOYOLO系列也一直在发展,对于它的学习迫在眉睫。 职业发展来看:
    的头像 发表于 06-10 15:45 4184次阅读

    YOLO v4在jetson nano的安装及测试

    /yolo/本问介绍yolo v4版的安装与测试。为了提高检测速率,硬件部分选择了nvidia公司出品的低成本jetson nano,利用CUDA实现GPU加速。文章目录1. 准备工作
    发表于 12-22 18:50 9次下载
    <b class='flag-5'>YOLO</b> <b class='flag-5'>v</b>4在jetson nano的安装及测试

    YOLO v5与双目测距结合实现目标的识别和定位测距

    的python3.6的虚拟环境) yolov5模型版本YOLO v5s 双目摄像头间距:12cm 双目摄像头焦距:100度/3mm 双目摄像头输出分辨率为:2560*720。
    发表于 10-18 14:23 4次下载

    基于YOLO技术的植物检测与计数

    利用Roboflow平台对数据进行有效的管理和标注。对于植物检测,使用实时目标检测能力强的YOLO方法。YOLO通过将输入图像划分为网格并预测每个网格单元的边界框和类别概率,在不牺牲精度的情况下实现了令人印象深刻的检测速度。
    的头像 发表于 12-12 09:41 783次阅读
    基于<b class='flag-5'>YOLO</b>技术的植物检测与计数